Hoch- und Höchstleistungsrechnen für das digitale Zeitalter - Forschung und Investitionen zum High-Performance-Computing

Die Seite wird erstellt Laura Herrmann
 
WEITER LESEN
Hoch- und Höchstleistungsrechnen für das digitale Zeitalter - Forschung und Investitionen zum High-Performance-Computing
Hoch- und Höchstleistungsrechnen
für das digitale Zeitalter
Forschung und Investitionen zum High-Performance-Computing
Hoch- und Höchstleistungsrechnen für das digitale Zeitalter - Forschung und Investitionen zum High-Performance-Computing
Vorwort
Simulationen zum Klimawandel, Anwendungen künst-            Wirtschaft und Wissenschaft arbeiten dabei Hand in
licher Intelligenz, Viren- und Materialforschung – dafür    Hand, um die technologische Souveränität Europas
sind Supercomputer mit hoher Rechenleistung nötig.          zu stärken. Technologische Souveränität heißt für uns,
Supercomputer ermöglichen exzellente Wissenschaft.          eigene Kompetenzen in Wissenschaft und Wirtschaft
Sie beschleunigen Innovationen. Und sie sichern             auf höchstem Niveau zu entwickeln. Nur so können
Deutschland einen vorderen Platz im internationalen         wir einen wechselseitigen Austausch mit den weltweit
Wettbewerb.                                                 führenden Forschungseinrichtungen und Unternehmen
                                                            gewährleisten. Und zwar auf Augenhöhe.
Daher fördert das Bundesministerium für Bildung und
Forschung den Ausbau der Rechnerinfrastruktur in            Unser neues Programm für das Hoch- und Höchstleis-
Deutschland intensiv. Wir investieren in die Forschung      tungsrechnen stärkt exzellente Forschung in Wissen-
und Entwicklung des Hoch- und Höchstleistungsrech-          schaft und Industrie – sowohl für Forschende als auch
nens. Dabei wollen wir unsere Rechner und Rechen-           für Anwendende und Nutzende. Es trägt zum Ziel der
zentren nicht nur leistungsfähig, sondern auch energie­     Datenstrategie der Bundesregierung bei, Dateninfra-
effizient und sparsam gestalten. Unser Ziel ist klar: Wir   strukturen leistungsfähig und nachhaltig zu gestalten.
wollen, dass in Deutschland auch künftig die besten und     Mit diesem Programm machen wir Deutschland fit für
fortschrittlichsten Rechentechnologien zur Verfügung        die Datenverarbeitung der Zukunft.
stehen – für Wissenschaft und Industrie, zum Wohle der
Menschen.

Wir arbeiten dazu mit den Bundesländern eng zusam-
men: Das Gauss Centre for Supercomputing und das
Nationale Hochleistungsrechnen an Hochschulen zeigen,
wie gut die Kooperation funktionieren kann. Wir schaf-
fen eine europaweit einzigartige Infrastruktur. Und wir     Anja Karliczek
haben Europa im Blick: Darum beteiligen wir uns auch        Mitglied des Deutschen Bundestages
an der europäischen Partnerschaft EuroHPC. Staaten,         Bundesministerin für Bildung und Forschung
Hoch- und Höchstleistungsrechnen für das digitale Zeitalter - Forschung und Investitionen zum High-Performance-Computing
1

    Inhaltsverzeichnis

1 Einleitung                                                           2        5.3 Innovative Wertschöpfung in Deutschland
                                                                                    ermöglichen.......................................................... 15

                                                                       4
                                                                                5.4 Technologische Souveränität und
2 Thesen                                                                            ­Energieeffizienz stärken..................................... 15

2.1 High-Performance-Computing ist ­
    essenzielles Werkzeug der ­Forschung............... 4
                                                                                6 Maßnahmen                                                       16
2.2 High-Performance-Computing ist                                              6.1   Mit den Ländern eng zusammenarbeiten....... 16
    Grundlage innovativer ­Wertschöpfung............. 4                         6.2   Europäisches Ökosystem weiterentwickeln... 16
2.3 High-Performance-Computing ist Teil                                         6.3   Möglichkeiten erweitern.................................... 16
    ­technologischer ­Souveränität ............................. 5              6.4   Zugänge vereinfachen......................................... 20

                                                                   6
                                                                                6.5   Kompetenzen stärken......................................... 22
3 Ausgangslage                                                                  6.6   Neue Technologien erforschen......................... 25

4 Herausforderungen                                               10            7 Evaluation                                                     28
4.1 Analyse großer Datenmengen und
    ­Anwendungen Künstlicher Intelligenz............ 10
                                                                                Glossar                                                          29
4.2 Steigende Komplexität von Anwendungen
     und Rechnern........................................................ 10
4.3 Verbesserung der Energieeffizienz................... 11
                                                                                Impressum                                                        33
4.4 Nutzung neuer Rechentechnologien............... 11
4.5 Technologische Souveränität in Europa.......... 12

5 Ziele                                                            14
5.1 Deutschland als Spitzenreiter
    positionieren......................................................... 14
5.2 Exzellente und innovative Forschungs­
    ergebnisse ermöglichen...................................... 15
Hoch- und Höchstleistungsrechnen für das digitale Zeitalter - Forschung und Investitionen zum High-Performance-Computing
2                                                  HOCH- UND HÖCHSTLEISTUNGSRECHNEN FÜR DAS DIGITALE ZEITALTER

1 Einleitung

Leistungsfähige Computer eröffnen ganz neue Mög-           leistungsrechner betrieben, die Deutschland derzeit
lichkeiten für Forschung und Innovation. Bestimmte         eine international wettbewerbsfähige Position sichern.
Fragestellungen aus Wissenschaft und Industrie lassen      Durch die weltweiten Bestrebungen nach immer leis-
sich mit Simulationen und Modellen am Computer             tungsfähigeren Systemen ist die Rangliste der schnells-
deutlich schneller und effizienter beantworten als mit     ten Rechner aber in ständiger Bewegung.
Experimenten. Und Phänomene, die zu groß oder zu
klein, zu schnell oder zu langsam für Experimente sind,    Deutschland gehört auch bei der Entwicklung von Al-
können nur durch Simulation erforscht werden. Damit        gorithmen und Anwendungsprogrammen für das HPC
unterstützen Computersimulationen die Forschung für        zu den führenden Ländern.
nahezu alle Bereiche des täglichen Lebens:
                                                           Mit dem Programm „Hoch- und Höchstleistungsrech-
∙   Wie wird sich das Klima verändern?                     nen für das digitale Zeitalter – Forschung und Inves-
∙   Wie dringen Viren in den Körper ein?                   titionen zum High-Performance-Computing“ richtet
∙   Wie lässt sich ein Katalysator optimieren?             das Bundesministerium für Bildung und Forschung
∙   Wo ist der beste Standort für ein Windrad?             (BMBF) die Förderung und Finanzierung des High-Per-
                                                           formance-Computing in Deutschland strategisch auf
Leistungsfähige Computer sind gefragt, wenn es darum       das kommende Jahrzehnt aus. Das Programm schafft
geht, riesige Datenmengen auszuwerten und komplexe         einen kohärenten Rahmen für die mit der EU und den
Prozesse zu analysieren. Dies erfordert eine Rechenleis-   Bundesländern verzahnten Maßnahmen des Bundes
tung, die millionenfach größer ist als die eines PC. Zum   und stellt dar, wie Deutschland die erwarteten Chancen
Einsatz kommen extrem rechenstarke Supercomputer           nutzen und die damit verbundenen Herausforderun-
mit angepasster Software und entsprechendem Know-          gen meistern will. Unter anderem werden die Ausbau-
how: Zusammen ergibt dies „High-Performance-Com-           aktivitäten der Rechner übergreifend betrachtet, die
puting“ (HPC).                                             Anwendung in der Wirtschaft vorangetrieben und das
                                                           Hochleistungsrechnen an Hochschulen gestärkt. Dies
High-Performance-Computing ist ein integraler              wird flankiert durch Forschungsansätze zur Entwick-
Bestandteil zahlreicher Forschungsfelder. Somit ist        lung effizienter und leistungsfähiger Hard- und Soft-
HPC ein kritischer Faktor für den Erfolg des Wissen-       ware für künftige Rechnersysteme und Anwendungen.
schafts- und Forschungsstandorts Deutschland. Ohne
eigene Fähigkeiten im HPC wären Wissenschafts- und         Die Schwerpunkte des Programms wurden im Aus-
Forschungsbereiche vielfach nicht wettbewerbsfähig.        tausch mit der Fachszene erarbeitet. In Fachgesprächen
                                                           mit Wissenschaft und Wirtschaft wurden die Herausfor-
Bei der Leistungsfähigkeit der installierten Super-        derungen identifiziert und Maßnahmen diskutiert. Die
computer hat Deutschland im europäischen Vergleich         künftige Ausrichtung des Gauss Centre for Supercompu-
einen Spitzenplatz inne. Unter dem Dach des Gauss          ting wurde mit den Ländern Bayern, Baden-Württem-
Centre for Supercomputing (GCS) werden drei Höchst-        berg und Nordrhein-Westfalen entwickelt, in denen die
Hoch- und Höchstleistungsrechnen für das digitale Zeitalter - Forschung und Investitionen zum High-Performance-Computing
Einleitung                                                                                                           3

 Was ist High-Performance-Computing?

  Beim High-Performance-Computing (HPC) wird Re-            nur wenig darüber aus, welche Leistung er für eine
  chenleistung in sogenannten Supercomputern aggre-         bestimmte Anwendung erreicht, beispielsweise die
  giert. Hierfür werden in hochintegrierten Systemen sehr   Simulation eines Moleküls. Dies ist vor allem von der
  viele Prozessoren so miteinander verbunden, dass sie      Optimierung der Software und dem guten Zusammen-
  extrem schnell komplexe Berechnungen durchführen          spiel mit der Hardware abhängig.
  können. Dabei kommen teilweise über 100.000 Prozes-
  soren in einem Supercomputer zum Einsatz.                 Es wird zwischen Hoch- und Höchstleistungsrechnern
                                                            unterschieden, wobei Höchstleistungsrechner die
  High-Performance-Computer sind um ein Vielfaches          technisch erreichbare Spitze markieren und deshalb in
  leistungsfähiger und schneller als Desktop-Computer.      Teilen Experimental-Status inne haben, während Hoch-
  Sie können große Datenmengen verarbeiten und sehr         leistungsrechner eher die leistungsfähigsten kommerzi-
  schnell aufwändige Berechnungen lösen.                    ellen Serienprodukte bezeichnen.

  Die Leistung von Supercomputern wird in FLOPS ge-         Man unterscheidet beim High-Performance-Compu-
  messen („floating point operations per second“). Dazu     ting zwischen „Capability Computing“, also einzelnen
  löst der Computer eine standardisierte Rechenaufgabe      Rechenaufgaben, die besonders viele Prozessoren und
  und die Anzahl von Berechnungen pro Sekunde wird          Speicher benötigen und deren Bedarf mit der Pro­
  gemessen. Die Leistung des schnellsten deutschen          blemgröße skaliert, und „Capacity Computing“, also das
  Rechners beträgt derzeit rund 70 PetaFLOPS oder 70        Berechnen von Problemen, die leicht in viele parallele
  Billiarden FLOPS. Dies entspricht in etwa der Leistung    Aufgaben mittlerer Komplexität aufgeteilt werden kön-
  von 2 Millionen Laptops, die alle miteinander ver-        nen, aber zusammen einen sehr hohen Rechen­bedarf
  bunden sind. Die Leistung eines Supercomputers bei        haben.
  dieser Standardaufgabe (ein sog. Benchmark) sagt aber

Rechner angesiedelt sind und von denen sie mitfinan-        Rahmenprogramm Mikroelektronik, zum Regierungs-
ziert werden. Die sogenannte Smart-Scaling-Strategie        programm Quantentechnologien, zur Strategie Künst-
des GCS analysiert und prognostiziert den Bedarf            liche Intelligenz sowie zum Aktionsplan Forschungsda-
der anwendenden Gruppen und bildet eine wichtige            ten und zum Aktionsplan ErUM-Data des BMBF.
Grundlage des Programms. Mit Blick auf die Synergien,
die mit einem europäischen Ökosystem des High-Per-          Das BMBF will mit dem Programm ein umfassendes
formance-Computing erschlossen werden sollen, sind          Angebot an Rechnern und Kompetenzen schaffen,
Abstimmungen mit den Partnern Deutschlands in der           das dem Bedarf von Wissenschaft und forschender
EU und der Europäischen Kommission als wesentliches         Industrie im digitalen Zeitalter auch in Zukunft gerecht
Element in das Programm eingeflossen. Die Inhalte des       wird. Zusammen mit den europäischen Partnern will
Programms werden in den nächsten vier Jahren im Aus-        Deutschland – unter anderem durch Beschaffung von
tausch mit der Fachszene und Stakeholdern kontinuier-       Exascale-Rechnern – High-Performance-Computing
lich überprüft und weiterentwickelt. Im Jahr 2023 soll      einer bislang unerreichten Leistungsklasse bereitstel-
über eine dreijährige Verlängerung oder eine Neuauflage     len und somit für den Wirtschafts- und Innovations­
und Neuausrichtung entschieden werden.                      standort Deutschland im Bereich des Supercomputings
                                                            weltweite Wettbewerbsfähigkeit sichern.
Das Programm trägt zur Umsetzung der Hightech-
Strategie 2025 bei, insbesondere indem es den Zugang        Das BMBF fördert Ausbau, Betrieb und Vernetzung
zu Rechnerkapazitäten und den neuesten Hardware-            von Hoch- und Höchstleistungsrechnern, schafft die
und Softwaretechnologien gewährleistet. Das Pro-            Voraussetzungen für nachhaltige und leistungsfähige
gramm ist Teil der Datenstrategie der Bundesregierung       Datentechnologien, -anwendungen und -infrastruk-
und trägt zur Digitalstrategie des BMBF bei. Es hat Be-     turen und leistet so einen Beitrag zur digitalen und
rührungspunkte zu zahlreichen weiteren Programmen           technologischen Souveränität Deutschlands und der
und Strategien der Bundesregierung, insbesondere zum        Europäischen Union.
Hoch- und Höchstleistungsrechnen für das digitale Zeitalter - Forschung und Investitionen zum High-Performance-Computing
4                                                   HOCH- UND HÖCHSTLEISTUNGSRECHNEN FÜR DAS DIGITALE ZEITALTER

2 Thesen

                                                            und Datenanalysen wachsen auch die Anforderungen
2.1 High-Performance-Computing                              an das High-Performance-Computing: Obwohl immer
    ist essenzielles Werkzeug der                           mehr Rechenleistung zur Verfügung steht, stoßen
                                                            Wissenschaft und Entwicklung in unterschiedlichsten
    ­Forschung                                              Disziplinen und Branchen immer wieder an technische
                                                            Grenzen. Die Weiterentwicklung des HPC ist daher eine
Von der Klimamodellierung, der Simulation von Vi-           Grundvoraussetzung dafür, dass der wissenschaftlich-
rusproteinen und der Entwicklung von Arzneimitteln          technische Fortschritt im Fluss bleibt.
über die Modellierung des Universums bis hin zur Ana-
lyse innovativer Konzepte für Solarzellen: Viele Fra-
gestellungen in der Forschung verlangen nach immer          2.2 High-Performance-Computing
komplexeren und genaueren Modellen und Analysen,                ist Grundlage innovativer
nach Einsatz von Künstlicher Intelligenz und nach der
Analyse großer Datenmengen. Hier kommt High-Per-
                                                                ­Wertschöpfung
formance-Computing ins Spiel – und ist mittlerweile
in vielen Wissenschaftsdisziplinen unverzichtbar. Mit       Der Einsatz von High-Performance-Computing hat in
der wachsenden Größe und Komplexität von Modellen           Wirtschaft und Industrie weitreichende Bedeutung.

    Was bedeutet Exascale?

    Die aktuell leistungsfähigsten Supercomputer lösen      Um überhaupt in den Exascale-Bereich kommen zu
    Probleme mit über einer Billiarde Rechenoperationen     können, müssen jedoch neueste Prozessoren und
    pro Sekunde (PetaFLOPS). An der Nachfolgegeneration,    Rechenbeschleuniger kombiniert und vernetzt werden.
    den Exascale-Rechnern mit bis zu tausend Billiarden     Eine weitere Herausforderung ist der hohe Energie-
    Rechenoperationen pro Sekunde (ExaFLOPS), wird be-      bedarf: Um diesen in den Griff zu bekommen, ist ein
    reits geforscht. Solche Exascale-Systeme ermöglichen    optimierter Betrieb der Systeme und hocheffiziente
    unter anderem realitätsgetreuere Simulationen. Zum      Software nötig. Weltweit wird intensiv an der Entwick-
    Beispiel könnten Wettervorhersagen die ganze Erde mit   lung von Exascale-Systemen und der nötigen Software
    einer Auflösung von nur einem Kilometer abdecken und    geforscht. Ein Ziel der europäischen Partnerschaft Eu-
    dadurch bislang wenig berücksichtigte Effekte genau     roHPC ist es, in den kommenden Jahren Europas erstes
    simulieren. Vorhersagen können damit genauer und        Exascale-System zu realisieren.
    langfristiger werden.
Hoch- und Höchstleistungsrechnen für das digitale Zeitalter - Forschung und Investitionen zum High-Performance-Computing
Thesen                                                                                                            5

Viele Spitzenprodukte lassen sich ohne Simulationen        fen. Eine auf die technologischen Herausforderungen
und umfangreiche Analysen weder entwerfen noch             im High-Performance-Computing ausgerichtete Aus-
verbessern. Dies gilt gerade für jene Bereiche, in denen   und Weiterbildung sorgt für den notwendigen Nach-
Deutschland seine Stärken hat: Ob Belastungssimulati-      schub an exzellenten Fachkräften für Forschung und
onen im Maschinenbau, Optimierung von chemischen           Entwicklung. Mit HPC entsteht Know-how in Deutsch-
Prozessen, Genanalysen in der Medizin, digitale Zwil-      land, das es uns erlaubt, die Digitalisierung wesentlich
linge in der Industrie oder maschinelles Lernen im Be-     nach unseren Anforderungen mitzugestalten und
reich Künstlicher Intelligenz – hochkomplexe Prozesse      unsere technologische Souveränität zu stärken.
erfordern extreme Rechenleistung. High-Performance-
Computing stellt diese Rechen- und Analyseleistungen,
die grundlegende Software und die nötige Expertise
zur Verfügung und ermöglicht so Innovationen.

2.3 High-Performance-Computing ist
    Teil technologischer ­Souveränität

Die Anforderungen des Supercomputing treiben den
Fortschritt bei den zugrundeliegenden Hardware- und
Softwaretechnologien. Deren Weiterentwicklung
steigert auch in Anwendungsbereichen außerhalb des
High-Performance-Computing die Leistungsfähigkeit,
zum Beispiel in der Entwicklung von Rechnervernet-
zung, bei Anwendungen der Künstlichen Intelligenz
oder hinsichtlich der Energieeffizienz von Rechner-
komponenten und ganzen Rechenzentren. Dies wird
die Technologieentwicklung über das HPC hinaus
beeinflussen und neue Möglichkeiten der nachhaltigen
Digitalisierung von Wissenschaft und Wirtschaft schaf-
Hoch- und Höchstleistungsrechnen für das digitale Zeitalter - Forschung und Investitionen zum High-Performance-Computing
6                                                HOCH- UND HÖCHSTLEISTUNGSRECHNEN FÜR DAS DIGITALE ZEITALTER

3 Ausgangslage

Anspruchsvolle Fragestellungen aus allen                 im High-Performance-Computing für die Wissenschaft
Bereichen der Forschung                                  in mehrere Ebenen strukturiert – entsprechend der
High-Performance-Computing gehört heute in vielen        Leistungsfähigkeit der Rechner und der Komplexität
wissenschaftlichen Disziplinen zu den grundlegenden      der Anwendungen (siehe Abbildung 1).
Forschungsmethoden.
                                                         Auf der Ebene 1 der Leistungspyramide verfügt
In der Astro- und Teilchenphysik liefern immer           Deutschland mit dem Gauss Centre for Supercompu-
umfangreichere Simulationen mit immer höherem            ting (GCS) über eine international kompetitive, koordi-
Rechenbedarf neue Erkenntnisse über das Universum        nierte Infrastruktur der höchsten Leistungsklasse. Im
und seine kleinsten Bausteine. Eine wichtige Rolle       GCS sind die drei Höchstleistungsrechenzentren am
spielt HPC auch bei der Klimamodellierung, der Wet-      Forschungszentrum Jülich, an der Universität Stutt-
tervorhersage, der Ozeanografie und der Erdsystemfor-    gart und am Leibniz-Rechenzentrum der Bayerischen
schung. Über die rechenintensive Analyse komplexer       Akademie der Wissenschaften in Garching zusammen-
Klima- und Umweltdaten lassen sich frühzeitig rele-      gefasst. Diese drei Rechner haben jeweils eine unter-
vante Umweltveränderungen erkennen und Szenarien         schiedliche Architektur und Ausrichtung. Zusammen
für den Umgang mit diesen entwickeln.                    und arbeitsteilig kann das GCS so den Bedarf einer
                                                         Vielzahl unterschiedlicher Nutzungsanforderungen
Der Einsatz von HPC ermöglicht detaillierte Untersu-     erfüllen. Die Gesamtleistung der drei HPC-Spitzensys-
chungen von Prozessen in Biologie und Medizin. Dies      teme beträgt über 130 PetaFLOPS (Stand November
trägt zur Entwicklung von Arzneimitteln und Impf-        2020). Dies entspricht in etwa der Leistung von 3,9 Mil-
stoffen ebenso bei wie zur Auswertung bildgebender       lionen Laptops, die mit hoher Bandbreite vernetzt sind.
Verfahren oder der Genomsequenzierung. In der Che-       Die Infrastruktur an den drei GCS-Zentren wird in
mie können mithilfe von HPC Reaktionen detailliert       einer abgestimmten Smart-Scaling-Strategie alternie-
untersucht und neuartige Materialien designt werden.     rend ausgebaut. Dieser Ausbau wird durch das BMBF
                                                         paritätisch mit den Sitzländern auf Basis eines Verwal-
Ingenieurwissenschaften und Industrie haben ebenfalls    tungsabkommens finanziert. Außerdem werden alle
wachsenden Bedarf an Rechenleistung. In Deutschland      drei Zentren eng vernetzt und bieten einen einheitli-
betrifft dies vor allem den Maschinenbau, die Automo-    chen Zugang zu Rechenleistung.
bilindustrie sowie die Luft- und Raumfahrt – von der
digitalen Produkt- und Prozessprüfung im Rechner bis     Die Ebene 2 umfasst aktuell zwölf etablierte, überre-
hin zum „Digitalen Zwilling“.                            gionale HPC-Zentren mit Hochleistungsrechnern an
                                                         Forschungseinrichtungen und Hochschulen. Mit dem
Leistungsfähige Strukturen des High-                     Bund-Länder-Programm zum Nationalen Hochleis-
Performance-Computings in Deutschland                    tungsrechnen (NHR) wird an Hochschulrechenzentren
In Deutschland und auch international ist das Angebot    der Ebene 2 während der Programmlaufzeit erstmals
Hoch- und Höchstleistungsrechnen für das digitale Zeitalter - Forschung und Investitionen zum High-Performance-Computing
Ausgangslage                                                                                                             7

eine bundesweite koordinierte Struktur an Hochschu-        Ein europäisches Ökosystem
len aufgebaut, die für die Nutzung durch Hochschulan-      Im Jahr 2018 wurde das „Gemeinsame Unternehmen
gehörige vorgesehen ist.                                   EuroHPC“ gegründet, eine institutionalisierte Part-
                                                           nerschaft von Europäischer Kommission, 32 teilneh-
Die Ebene 3 besteht vor allem aus regionalen Rechnern,     menden Staaten und zwei Industrieverbänden. Ziel
die eine Vielzahl von Anwendungen mit geringeren           von EuroHPC ist die Schaffung eines ganzheitlichen
Leistungsanforderungen für den Bedarf vor Ort bedie-       Ökosystems im High-Performance-Computing in
nen. Diese stehen an den meisten Hochschulstandor-         Europa. Deutschland ist Gründungsmitglied und hat
ten und Forschungseinrichtungen zur Verfügung und          zurzeit den Vorsitz im Verwaltungsrat inne. Eine Säule
werden dort betrieben.                                     von EuroHPC ist die Beschaffung von Höchstleistungs-
                                                           rechnern in Europa. Im Jahr 2020 wurden die Standorte
In der Gauß-Allianz (GA), einem gemeinnützigen Ver-        der ersten EuroHPC-Rechner ausgewählt. Deutschland
ein zur Förderung von Wissenschaft und Forschung im        beabsichtigt sich an diesem Verfahren bei der Beschaf-
Bereich Hochleistungsrechnen, sind seit 2008 die drei      fung von Rechnern der bislang unerreichten Exascale-
Rechenzentren der Ebene 1, 16 Zentren der Ebenen           Klasse zu beteiligen. Die zweite Säule von EuroHPC ist
2 und 3 sowie das Deutsche Forschungsnetz zusam-           die Förderung von europaweiten Forschungsprojekten
mengeschlossen. Die Mitglieder betreiben zusammen          zu Grundlagen und Anwendungen für HPC; deutsche
rund 40 HPC-Systeme in ganz Deutschland mit einer          Einrichtungen sind in diesen Projekten stark vertreten.
aktuellen Leistung von zusammen rund 190 PetaFLOPS         Die dritte Säule, der europaweite Ausbau von Kompe-
(Stand November 2020). Die GA widmet sich auch dem         tenzen, wird durch einen europäischen Verbund natio-
Ausbau und der Bündelung von Beratungs-, Schu-             naler HPC-Kompetenzzentren gefördert. Deutschland
lungs- und Unterstützungsangeboten.                        übernimmt dabei durch das GCS eine koordinierende
                                                           Rolle.
Höchstleistungen in der Wissenschaft erfordern nicht
nur den Zugang zu immer leistungsfähigeren Super-          Kompetitive Vergabe von Rechenzeit
computern. Weiterer unverzichtbarer Baustein für den       Der Bedarf an Rechenzeit ist größer als das Angebot.
Erfolg ist der Zugang zu Wissensbeständen, Datenar-        Rechenzeit wird in Deutschland und Europa daher in
chiven und Forschungsergebnissen. Datenbestände von        wissenschaftsgeleiteten und exzellenzorientierten Ver-
Wissenschaft und Forschung werden durch den Aufbau         fahren vergeben. Deutschlandweit geschieht dies für
der Nationalen Forschungsdateninfrastruktur (NFDI)         Anwendungen mit Bedarfen an höchster Rechenleis-
und der European Open Science Cloud (EOSC) syste-          tung am GCS über das rechnergestützte System JARDS,
matisch erschlossen und zugänglich gemacht.                ansonsten regional an den jeweiligen Rechenzentren.

     Ebene 0: PRACE und EuroHPC                                  Europaweite Vergabe von Rechenzeit über Einzelsysteme
                                                                 mit bis zu 150 PetaFLOPS (geplant)

     Ebene 1: Nationale Höchstleistungsrechenzentren                   3 GCS-Zentren mit aktueller Gesamtleistung von
                                                                       ca. 130 PetaFLOPS

     Ebene 2: HPC-Zentren mit überregionalen Auf-                            12 HPC-Systeme, davon künftig 8 Zentren
     gaben und thematisch-dedizierte HPC-Zentren                             des Nationalen Hochleistungsrechnen
                                                                             (NHR) mit aktueller Einzelleistung bis zu
                                                                             25 PetaFLOPS

      Ebene 3: Regionale HPC-Zentren und                                           Einzelsysteme mit einer Rechen­
      Institute mit lokalen Clustern                                               leistung von meist unter 1 PetaFLOP

Abbildung 1: HPC-Leistungspyramide (Stand November 2020)
Hoch- und Höchstleistungsrechnen für das digitale Zeitalter - Forschung und Investitionen zum High-Performance-Computing
8                                                                 HOCH- UND HÖCHSTLEISTUNGSRECHNEN FÜR DAS DIGITALE ZEITALTER

An den drei Zentren des GCS laufen so durchschnittlich                         Förderung der Entwicklung von Hardware- und
mehrere hundert Projekte aus allen wissenschaftlichen                          Softwaretechnologien
Disziplinen.                                                                   Hochschulen und Forschungseinrichtungen in
                                                                               Deutschland haben eine hohe Kompetenz in HPC-
In Europa wird Rechenzeit für Spitzenbedarfe der                               Technologien und -Anwendungen. Forschung und Ent-
Wissenschaft durch die Organisation PRACE (Partner-                            wicklung zu Algorithmen und Software-Technologien
ship for Advanced Computing in Europe) vergeben. An                            sind Schwerpunkte der BMBF-Förderung.
PRACE beteiligt sind aktuell 26 Länder; aus Deutsch-
land stellt GCS als eines von fünf so genannten „hosting                       Bei der Rechnerinfrastruktur wie den Kühlsystemen
members“ Rechenzeit für Europa zur Verfügung.                                  haben u. a. die GCS-Zentren innovative Ansätze ent-
                                                                               wickelt. So sind sie Vorreiter in der energiesparenden
Diese wettbewerblichen Verfahren sichern die Qualität                          Wasser- oder Adsorptionskühlung, die perspektivisch
der gerechneten Projekte und eine adäquate Auslastung                          die heute noch in kommerziellen Rechenzentren übli-
der Rechner auf jeder Leistungsstufe.                                          che Luftkühlung ersetzen wird.

          Gauss Centre for Supercomputing (GCS)

    1.    Jülich Supercomputing Centre JSC                                                                                                            Gauss Supercomputi
    2.    Höchstleistungsrechenzentrum Stuttgart HLRS
                                                                                                                                                 1    Jülich Supercomputin
    3.    Leibniz-Rechenzentrum LRZ                                                                                                                   Höchstleistungsreche
                                                                                                                                                 2
                                                                                                                                                 3    Leibnitz Rechenzentru
          Gauß-Allianz (GA)                                                                               6 12
    1.    Zentrum für Informationsdienste und Hochleistungs­                                                                                          Gauss Allianz (GA)
          rechnender Technischen Universität Dresden ZIH
    2.    IT Center der RWTH Aachen                                                                                                              1    Zentrum für Informat
    3.    Konrad-Zuse-Zentrum für Informationstechnik Berlin ZIB                                                                       2              der Technischen Unive
    4.    Max Planck Computing and Data Facility MPCDF                                                                             3             2    IT Center der RWTH A
                                                                                                                                                 3    Konrad-Zuse-Zentrum
    5.    Deutscher Wetterdienst DWD
                                                                                                                                                 4    Max Planck Computin
    6.    Deutsches Klimarechenzentrum DKRZ                                                                    6                                 5    Deutscher Wetterdien
    7.    Steinbuch Centre for Computing des Karlsruher                                                   14                                     6    Deutsches Klimareche
          Instituts für Technologie SCC                                                   8 11                                                   7    Steinbruch Centre for
    8.    Hochschulrechenzentrum der TU Darmstadt HRZ                                                                                            8    Hochschulrechenzent
    9.    Regionales Rechenzentrum Erlangen der Friedrich-­
                                                                           1                                                               1 4   9
                                                                                                                                                 10
                                                                                                                                                      Regionales Rechenzen
                                                                                                                                                      Center for Scientific C
          Alexander-Universität ­Erlangen-Nürnberg RRZE
    10.   Goethe Center for Scientific Computing der ­­Goethe-­                13                                                                11   Paderborn Center for
                                                                   1   2                                                                         12   Deutsches Elektronen
          Universität Frankfurt am Main G-SCS                                                                                                    13   Regionales Rechenzen
    11.   Paderborn Center for Parallel Computing PC²                                                                                            14   Gesellschaft für wisse
    12.   Deutsches Elektronen-Synchrotron DESY                                           10                                                     15   Zentrum für Datenver
    13.   Regionales Rechenzentrum der Universität zu Köln RRZK                                   5                                              16   Science and Innovatio
    14.   Gesellschaft für wissenschaftliche Datenverarbeitung                           15           3
          mbH Göttingen GWDG                                                                      8                5
                                                                                    16                                 9
    15.   Zentrum für Datenverarbeitung der Johannes                                                                                                  Gauss Supercomputing
          Gutenberg-Universität Mainz ZDV                                                         7
    16.   Science and Innovation Alliance Kaiserslautern e. V. SIAK                           7                                                  1    IT Center der RWTH A
                                                                                                                                                 2    Konrad-Zuse-Zentrum
          Nationales Hochleistungsrechnen (NHR-Zentren)                                               2                                          3    Hochschulrechenzent
                                                                                                                                                 4    Zentrum für Informat
                                                                                                                               4                      Technischen Universit
    1.    IT Center der RWTH Aachen                                                                                        3
                                                                                                                                                 5    Regionales Rechenzen
    2.    Konrad-Zuse-Zentrum für Informationstechnik Berlin ZIB                                                                                 6    Gesellschaft für wisse
    3.    Hochschulrechenzentrum der Technischen Universität                                                                                     7    Steinbruch Centre for
          Darmstadt HRZ                                                                                                                          8    Paderborn Center for
    4.    Zentrum für Informationsdienste und Hochleistungsrechnen
          derTechnischen Universität Dresden ZIH
    5.    Regionales Rechenzentrum Erlangen der Friedrich-Alexander-Universität Erlangen-Nürnberg RRZE
    6.    Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen GWDG
    7.    Steinbuch Centre for Computing des Karlsruher Instituts für Technologie SCC
    8.    Paderborn Center for Parallel Computing PC²

Abbildung 2: HPC-Ökosystem in Deutschland
Ausgangslage                                                                                                         9

 HPC-Anwendungen in den Ingenieurwissenschaften

  Viele Innovationen in industriellen Anwendungen
  basieren auf neuen Werkstoffen. Simulationen auf
  Supercomputern können dabei helfen, Werkstoffe mit
  maßgeschneiderten Eigenschaften zu entwickeln und
  ihre Verarbeitung zu optimieren.

  Bei der Entwicklung beispielsweise von metallischen
  Werkstoffen, die aus mehreren Komponenten beste-
  hen, eröffnen Simulationen ganz neue Möglichkei-
  ten: Die Eigenschaften der Materialien werden über
  Mikrostrukturen bestimmt. Diese bilden sich, wenn
  die Werkstoffe nach der Schmelze erstarren und sind
  abhängig von den einzelnen Komponenten und den
  genauen Parametern von Schmelze und Erstarrung.          den gewünschten Eigenschaften zu erhalten, müssen
  Die Prozesse, die zur Ausbildung der Mikrostrukturen     außerdem die Prozessparameter variiert werden. In
  führen, können mit Experimenten nicht untersucht         dem vom BMBF geförderten Projekt SKAMPY wurde
  werden. Dafür kann aber die Simulation genau diese       hierfür eine Software für Materialsimulationen auf
  entscheidenden Informationen liefern.                    Höchstleistungsrechnern entwickelt. Mit ihrer Hilfe
                                                           wurde u. a. das Erstarrungsverhalten von Legierungen
  Dabei kommt es vor allem auf Genauigkeit an, denn        unterschiedlicher Zusammensetzung untersucht. Damit
  die Simulation muss Werkstoff und Prozesse mit sehr      lassen sich maßgeschneiderte Hochleistungswerkstoffe
  hoher Präzision auflösen. Um einen Werkstoff mit         kostengünstig und schnell am Computer entwerfen.

Unterstützung der Industrie                                sogenannten Computational Sciences. Die Verknüp-
Viele Unternehmen haben Bedarf an Simulation,              fung der Fachwissenschaften auf der einen mit dem
Modellierung und Datenanalyse. Vor allem das GCS           High-Performance-Computing auf der anderen Seite
hat langjährige Erfahrungen in der Zusammenar-             spielt eine zentrale Rolle für den Ausbau von HPC-
beit mit der Wirtschaft. Speziell am GCS-Zentrum in        Expertise.
Stuttgart sind die Rechner und die Serviceangebote auf
die Bedürfnisse der Industrie zugeschnitten. Auch an       Die HPC-Zentren der Ebenen 1 und 2 bieten deutsch-
anderen HPC-Zentren in Deutschland gibt es gemein-         landweit umfangreiche themen- und fachspezifische
same Projekte mit der Industrie, die den Transfer in die   Veranstaltungen und Lehrprogramme an. Allein die
Anwendung fördern.                                         GCS-Zentren führen rund 100 Kurse pro Jahr durch.
                                                           Mit der Beteiligung des GCS an PRACE stehen allen
Aus- und Weiterbildung                                     deutschen Anwendenden auch europäisch finanzierte
Das High-Performance-Computing setzt qualifizierte         Schulungs- und Weiterbildungsangebote zur Verfü-
Fachkräfte voraus. Die HPC-Zentren in Deutschland          gung. Europaweit nehmen weit über 2.000 Personen
fördern die Aus- und Weiterbildung mit einem um-           pro Jahr an diesen Kursen teil, darunter ca. 15 Prozent
fangreichen Angebot. Parallelprogrammierung und            aus der Wirtschaft.
Hochleistungsrechnen sind integrale Bestandteile
verschiedener Fachrichtungen wie zum Beispiel Infor-
matik und Mathematik. An einigen Standorten gibt es
Promotionsprogramme bzw. Graduiertenkollegs in den
10                                                 HOCH- UND HÖCHSTLEISTUNGSRECHNEN FÜR DAS DIGITALE ZEITALTER

4 Herausforderungen

4.1 Analyse großer Datenmengen                             fordert auch Cloud-artige Zugänge und vorinstallierte,
    und Anwendungen Künstlicher                            kommerzielle Software. Für alle Nutzungsarten müssen
                                                           geeignete Zugangs- und Vergabeverfahren entwickelt
    Intelligenz                                            werden, um die ganze Breite der Anwenderinnen und
                                                           Anwender passgenau zu bedienen.
Simulation und Modellierung sind die traditionellen
Aufgaben des High-Performance-Computing. Künstli-
che Intelligenz (KI) und die Bearbeitung großer Daten-     4.2 Steigende Komplexität von
mengen stellen neue und stark anwachsende Aufgaben             Anwendungen und Rechnern
des HPC dar.

In vielen Bereichen der Wissenschaft werden vielfältige    Deutliche Steigerungen der Rechenleistung sind erfor-
und große Datenmengen erhoben (z. B. Erdsystemfor-         derlich, um durch Simulation und Modellierung neu-
schung, Astro- und Teilchenphysiksysteme, Bildgebung       artige Erkenntnisse erzielen zu können. In der Klima-
in der Medizin, Sozialwissenschaften). Auch durch          und Erdsystemforschung sind Fortschritte nur durch
Sensornetzwerke (zum Beispiel beim autonomen               höhere Auflösung der Modelle zu erreichen, damit wei-
Fahren) oder bei Simulationen fallen große Datenmen-       tere, signifikante physikalische Prozesse berücksichtigt
gen an. Um derart große Datenmengen zu analysieren,        werden können. Um pharmazeutische Moleküle mit
wird ein großes Spektrum an Softwaretechnologien           ganz spezifischen Wirkmechanismen oder komplexe
genutzt, von Methoden der Künstlichen Intelligenz, vor     Materialien zum Beispiel für die organische Elektronik
allem Deep Learning, bis hin zu statistischen Verfahren.   entwickeln zu können, sind umfangreiche Berechnun-
Zur Auswertung mit Hilfe von HPC sind intelligente         gen erforderlich, die heute noch nicht durchgeführt
Kombinationen von Daten- und Rechenressourcen,             werden können. In den Ingenieurwissenschaften steigt
neue Algorithmen und neue Ansätze beim Zugang zu           der Bedarf nach Rechenleistung, um nicht nur einzelne
den Ressourcen notwendig. Daraus erwachsen neue            Teile, sondern beispielsweise auch komplette Flugzeuge
Ansprüche an Hardware, Software, Vernetzung und            simulieren und so ihre Effizienz optimieren zu können.
Kompetenzen, vor allem angesichts der unterschiedli-
chen Anforderungen an Speicher- und Netzwerkbedarf,        Die Rechenleistung von Prozessoren hat sich bis-
der verwendeten Hardware sowie des Zugangs zu den          lang etwa alle zwei Jahre verdoppelt. Erreicht wurde
Systemen. Während Analysen großer Datenmengen              dies durch fortschreitende Miniaturisierung und seit
speicherintensiv sind und eine lange Laufzeit haben,       einigen Jahren zusätzlich durch die Integration von
nutzen Anwendungen der Künstlichen Intelligenz häu-        mehreren Rechenkernen auf einem Chip. Durch die
fig spezielle Hardware und stellen hohe Anforderun-        größere Zahl von Rechenkernen pro Prozessor und die
gen an die Vernetzung. Auch flexible und interaktive       immer größere Zahl der Prozessoren werden HPC-
Nutzung ist für solche Anwendungen wichtig. Dies er-       Systeme aber auch immer komplexer. So hat zum
Herausforderungen                                                                                              11

Beispiel der Rechner am HLRS in Stuttgart über 700.000    4.3 Verbesserung der Energieeffizienz
Rechenkerne. Dies führt zu höheren Anforderungen an
die Skalierbarkeit von Anwendungen und stellt viele
Anwenderinnen und Anwender vor große Herausfor-           Leistungsfähige und effiziente Rechenzentren sind die
derungen.                                                 notwendige Voraussetzung für eine auf Nachhaltigkeit
                                                          ausgerichtete Digitalisierung. Der hohe Energiebedarf
Weitere Leistungssteigerungen werden durch die            von Rechenzentren ist eine große Herausforderung
Integration anderer Prozessortypen, insbesondere          bei der Erreichung von Klimaschutzzielen. Dies betrifft
sogenannter GPUs (Graphics Processing Unit), sowie        auch Supercomputer: Der aktuell schnellste Rechner
durch spezielle Speicher und Netzwerktechnologien         der Welt benötigt knapp 30 Megawatt elektrischer
erreicht. Die Architektur von HPC-Systemen wird           Leistung, so viel wie drei ICE-Züge. Daneben macht
damit komplexer und leistungsfähiger, aber auch ihre      der hohe Energieverbrauch den Betrieb von Super-
Programmierung deutlich anspruchsvoller. Vorhan-          computern auch kostspielig. Durch die immer höheren
dene Algorithmen und Software müssen ständig an           Rechenleistungen steigt der Anteil der Betriebskosten
neue Systeme angepasst werden, um Leistung und            an der Gesamtinvestition. Lag dieser Anteil früher im
Kosteneffizienz zu optimieren. Diese Anpassung an         einstelligen Prozentbereich, so sind es heute mindes-
massiv parallele Systeme mit komplexer Architektur        tens 40 Prozent mit steigender Tendenz.
stellt insbesondere bei älteren Algorithmen und älterer
Software eine Herausforderung dar.
                                                          4.4 Nutzung neuer
Der Anstieg der Datenmengen und die verteilte Nut-            Rechentechnologien
zung von HPC-Ressourcen stellen auch erhöhte An-
forderungen an das Management und die Vernetzung
der Rechen- und Datenzentren. Gelöst werden kann          Jeder Prozessor, ob im Smartphone oder in einem HPC-
dies nur mit leistungsfähigeren Breitbandverbindun-       System, nutzt den gleichen prinzipiellen Aufbau (von-
gen oder auch der teilweisen Verarbeitung von Daten       Neumann-Architektur). Bei großen HPC-Systemen
bereits am Ort der Entstehung (Edge-Computing).           stößt diese Architektur mittlerweile an ihre Grenzen
12                                                     HOCH- UND HÖCHSTLEISTUNGSRECHNEN FÜR DAS DIGITALE ZEITALTER

 HPC-Anwendung in der Industrie

     Obwohl in Deutschland die Zahl der Arbeitsmaschi-
     nen (zum Beispiel Bau- oder Erntemaschinen) weitaus
     geringer ist als die Zahl der Pkw, ist deren gesamter
     Kraftstoffverbrauch vergleichbar. Die Arbeitsmaschi-
     nen müssen hohe Leistungen erbringen, haben aber
     teilweise einen sehr schlechten Wirkungsgrad. Um den
     Wirkungsgrad solcher Arbeitsmaschinen zu optimieren,
     werden bei ihrer Entwicklung meist reale Prototypen
     eingesetzt, die sämtliche Komponenten beinhalten und
     auf einem aufwändigen Prüfstand untersucht werden.

     Wesentlich schneller und effektiver gelingt dies mit
     virtuellen Prototypen, den sogenannten „Digitalen
     Zwillingen“. Hierzu wird das Gesamtverhalten der Ar-      PARADOM wurden sogar komplette Fertigungsstraßen
     beitsmaschine virtuell auf einem Rechner nachgebildet.    simuliert und hinsichtlich ihres gesamten Energiever-
     Allerdings sind hier leistungsfähige Rechner notwendig.   brauchs optimiert.
     In den vom BMBF geförderten Projekten HPC-OM und

und führt zu Einbußen bei der Prozessorleistung: Zum           Zudem können Quantencomputer vorab im Rechner
einen konkurrieren Daten und Verarbeitungsbefehle              simuliert und erforscht werden.
in den Prozessoren um die gleichen Ressourcen. Zum
anderen ist die Verarbeitungsgeschwindigkeit viel stär-        Parallel zur Erforschung und Entwicklung neuartiger
ker gestiegen als die Geschwindigkeit, mit der Daten           Rechnertechnologien werden diese zukünftig auch in
innerhalb (und außerhalb) von Prozessoren verschoben           herkömmliche HPC-Systeme integriert. Die Entwick-
werden können. Zusammen führt dies dazu, dass vor              lung solch extrem heterogener Systeme stellt allerdings
allem große Datenmengen nicht optimal verarbeitet              völlig neue Anforderungen sowohl an Hard- als auch
werden können.                                                 Software.

Aktuell eröffnen sich verschiedene Ansätze für grund-
legend neue Technologien des Rechnens: Zum einen               4.5 Technologische Souveränität in
durch neuartige Bauelemente wie Memristoren, zum                   Europa
anderen durch disruptive Konzepte des Beyond-
von-Neumann-Trends, wie beispielsweise Rechnen-
im-Speicher und neuromorphe Chips. Völlig neue                 Der Treiber für digitale Innovationen sind Daten und
Möglichkeiten eröffnet auch die Entwicklung von                deren Verarbeitung, die oft erst durch HPC- und KI-
Quantencomputern.                                              Techniken möglich wird. Big-Data-, Machine-Learning-
                                                               und Data-Analytics-Anwendungen werden – auch
Das HPC nimmt bei der Erprobung bzw. Nutzung                   für kleine und mittlere Unternehmen (KMU) – immer
neuer Rechentechnologien wie Quanten- und neuro-               wichtiger. Für Unternehmen spielen die Anforderun-
morphem Computing eine wichtige Rolle ein. So sind             gen an Sicherheit und Vertraulichkeit eine große Rolle.
HPC-Systeme vorteilhaft für die Systemsteuerung und            Auch müssen sich Anwendungen nahtlos in die unter-
die Vor- und Nachbereitung der Daten im Rahmen                 nehmensinternen Abläufe eingliedern, um wirtschaft-
hybrider HPC-Quantencomputing-Systemansätze.                   lich und produktiv zu sein. Nur durch eigene Forschung
Herausforderungen                                      13

und Entwicklung können Deutschland und Europa
digitale Innovationen ermöglichen und technologisch
souverän agieren.

Beim Einstieg in das High-Performance-Computing
stehen Anwendende aus der Industrie aber oftmals vor
hohen Hürden. Programme, die auf kleineren, weniger
leistungsfähigen Rechnern lauffähig sind, sind nicht
ohne weiteres auf große Systeme übertragbar, weil
leistungsfähige Supercomputer spezielles Know-how
erfordern. Es fehlt in den Unternehmen an entspre-
chenden Kompetenzen und passenden Unterstüt-
zungsangeboten bzw. an Anforderungen der Industrie
zugeschnittenen Services und Transferaktivitäten der
HPC-Zentren. Nur der Aufbau eigener Kompetenzen
steigert Wettbewerbsfähigkeit und technologische
Souveränität.

Bei der Entwicklung neuer Rechnertechnologien sowie
zukünftiger energieeffizienter Exascale-Systeme ist
Europa vor allem bei Hochleistungsprozessoren und
Netzwerktechnologien von Lieferungen und Know-
how von außerhalb der EU abhängig. Eine Bündelung
der europäischen Expertise kann dazu genutzt werden,
einseitigen Abhängigkeiten entgegenzuwirken und
so die technologische Souveränität auszubauen. So
können Deutschland und Europa auch in internationa-
len Kooperationen ihren Zugang zu Hochtechnologie
sichern.
14                                                      HOCH- UND HÖCHSTLEISTUNGSRECHNEN FÜR DAS DIGITALE ZEITALTER

5 Ziele

Aus den grundlegenden Thesen zur Bedeutung von                  5.1 Deutschland als Spitzenreiter
HPC für Forschung, Wertschöpfung und technolo-                      positionieren
gischer Souveränität und den damit verbundenen
Herausforderungen leiten sich fünf übergeordnete
Ziele des Programms ab. Die Vernetzung mit anderen              Das BMBF wird sich – gemeinsam mit den Bundeslän-
Programmen der Bundesregierung und die Verzahnung               dern – dafür einsetzen, das deutsche HPC-Ökosystem
mit den Programmen der EU sichern dabei die Kohä-               weiterhin an der Spitze zu halten. Dazu gehören das
renz aller Maßnahmen.                                           umfangreiche Leistungsangebot für die Anwender-
                                                                gruppen, die hohen Kompetenzen in Software- und
                                                                Hardwaretechnologien und der wirksame Transfer in
                                                                die Wirtschaft.

 Energieeffizientes HPC

     Supercomputer stellen extreme Rechenleistung für
     viele Anwendungsbereiche zur Verfügung. Ihr Betrieb
     benötigt jedoch sehr viel Energie. Ein Höchstleistungs-
     rechenzentrum verbraucht etwa 30 Millionen kWh pro
     Jahr – so viel wie eine deutsche Kleinstadt. Die meiste
     Energie verbrauchen die vielen tausend Prozessoren.

     Ein Beitrag zu mehr Energieeffizienz können sogenann-
     te FPGAs (Field Programmable Gate Array, feldpro-
     grammierbare Logikgatter) sein. Im Gegensatz zu den
     üblichen Universalprozessoren kann die Schaltung
     eines FPGA dynamisch verändert werden, wodurch sich        kostengünstiger als einen Spezialprozessor herstellen
     ein FPGA optimal an den zu berechnenden Algorithmus        zu lassen. Um FPGAs auch in HPC-Systeme integrieren
     anpassen kann. Diese Spezialisierung führt zu einem        zu können, wird intensiv an der anwendungsfreund-
     wesentlich geringeren Stromverbrauch. Allerdings eig-      lichen Programmierung geforscht, unter anderem in
     nen sich FPGAs nicht für alle Rechenaufgaben und ihre      dem BMBF-geförderten Projekt ORKA-HPC. Neben der
     Programmierung ist komplex.                                direkten Steigerung der Energieeffizienz von Super-
                                                                computern sind die Forschungsergebnisse auch für
     Üblicherweise werden FPGAs in eingebetteten Syste-         die Nutzung von FPGAs in eingebetteten Systemen
     men genutzt. Dies ist dort wesentlich einfacher und        relevant.
Ziele                                                                                                          15

5.2 Exzellente und innovative                             5.4 Technologische Souveränität und
    Forschungsergebnisse ermöglichen                          Energieeffizienz stärken

In Deutschland soll der Bedarf an Rechenzeit für exzel-   Das BMBF will auch künftig leistungsfähige Infra-
lente wissenschaftliche Projekte flächendeckend und       strukturen für exzellente Wissenschaft und innovative
zeitnah bedient werden können. Auch wissenschaftli-       Wertschöpfung in Deutschland zur Verfügung stellen.
che Communities mit Bedarf an Rechenzeit vor allem        Dazu müssen die technologischen Grundlagen von
für die Analyse großer Datenmengen und KI-Anwen-          HPC, sowohl die Hardware als auch die nötige Software,
dungen sollen mit passenden Angeboten an Rechenres-       weiterentwickelt werden. Dies sichert zum einen die
sourcen ihre Forschung auf Spitzenniveau durchführen      souveräne Beherrschung der nötigen Technologien zur
können. Für alle Vorhaben müssen die vorhandenen          aktiven Gestaltung der Digitalisierung. Zum anderen
Ressourcen hocheffizient ausgenutzt werden. Dazu gilt     qualifiziert es deutsche und europäische Unternehmen
es auch, die technologischen Hürden zwischen HPC          im weltweiten Wettbewerb. Die Beschaffung und Nut-
und der Analyse großer Datenmengen abzubauen und          zung konkurrenzfähiger europäischer Technologien
HPC für Künstliche Intelligenz weiterzuentwickeln.        im HPC unterstützt diese Unternehmen zusätzlich und
                                                          trägt zur Wertschöpfung in Deutschland und Europa
                                                          bei.
5.3 Innovative Wertschöpfung in
    Deutschland ermöglichen                               Die Steigerung der Effizienz von Informations- und
                                                          Kommunikationstechnologien ist ein übergreifendes
                                                          Ziel der Bundesregierung. Dazu ist es notwendig, die
Unternehmen, insbesondere KMU, sollen künftig             Energieeffizienz beim HPC mit ganzheitlichen An-
intensiver die vorhandenen HPC-Kompetenzen der            sätzen zu erhöhen. Konzepte und Maßnahmen sollen
Wissenschaft in Deutschland und Europa einsetzen,         auch auf kommerzielle Rechner und Rechenzent-
um innovative Produkte und Dienstleistungen zu            ren ausstrahlen und helfen, die IKT-Infrastruktur in
entwickeln. Es gilt, die Hürden für den Einsatz von HPC   Deutschland effizienter und nachhaltiger zu gestalten.
abzubauen und gemeinsam mit Unternehmen Kompe-
tenzen aufzubauen. Dabei muss berücksichtigt werden,
dass die Wirtschaft großen Wert auf vertrauenswürdige
und einfach nutzbare HPC-Anwendungen legt. Dies
trägt nicht nur zu innovativer Wertschöpfung, sondern
auch zu digitaler und technologischer Souveränität
Deutschlands bei.
16                                               HOCH- UND HÖCHSTLEISTUNGSRECHNEN FÜR DAS DIGITALE ZEITALTER

6 Maßnahmen

Um den anstehenden Herausforderungen im HPC zu           Wissenschaft und Wirtschaft, die Zugänglichkeit eines
begegnen und die Programmziele zu erreichen, wird        europaweit differenzierten HPC-Angebotes für alle
das BMBF eine Reihe von Maßnahmen umsetzen. Für          Nutzenden sowie die Förderung von Softwaretechno-
den langfristigen Erfolg ist eine enge Verzahnung der    logien. Die europaweite Vergabe von Rechenzeit für die
Maßnahmen und eine Abstimmung mit den relevanten         Wissenschaft soll auf bewährte und exzellenzgeleitete
Akteurinnen und Akteuren wichtig. Insgesamt wird das     Verfahren setzen. Durch Entwicklung europäischer
BMBF in den Jahren 2021–2024 306 Mio. Euro für das       Hardware- und Softwaretechnologien soll EuroHPC
Programm aufwenden. Das BMBF strebt an, weitere          zur technologischen Souveränität beitragen.
Mittel insbesondere für den Exascale-Ausbau bereitzu-
stellen. Diese Mittel werden erheblich verstärkt durch   Durch die Abstimmung sowohl mit den Ländern als
Kofinanzierungen der Länder in Höhe von 225 Mio.         auch auf europäischer Ebene strebt das BMBF die An-
Euro und der Europäischen Union in Höhe von über         schlussfähigkeit und Komplementarität der nationalen
50 Mio. Euro.                                            und internationalen Maßnahmen an.

                                                         Kurz gesagt
6.1 Mit den Ländern eng                                  Was wollen wir erreichen:
    zusammenarbeiten                                     ∙ Nationale und europäische Maßnahmen ergänzen
                                                           sich.
                                                         ∙ Deutsche Partner beteiligen sich umfangreich an
Die HPC-Leistungspyramide in Deutschland wird von          Maßnahmen von EuroHPC.
Bund und Ländern in unterschiedlichen Konstellatio-      ∙ Deutschland nimmt beim HPC eine führende Rolle
nen getragen. Die enge Abstimmung mit den Ländern ist      in Europa ein.
daher ein Erfolgsfaktor für die bundesweite Versorgung
mit Rechenleistung auf allen Ebenen der Leistungspyra-   Wie wollen wir unsere Erfolge messen:
mide und für einen umfassenden Kompetenzausbau.          ∙ Anzahl der Nutzenden aus Deutschland an europäi-
                                                           schen Systemen und umgekehrt
                                                         ∙ Deutsche Beteiligung an und die Koordination von
6.2 Europäisches Ökosystem                                 europäischen Verbundvorhaben
    weiterentwickeln                                     ∙ Rückfluss von EU-Mitteln nach Deutschland

Das BMBF setzt sich im Rahmen von EuroHPC für eine       6.3 Möglichkeiten erweitern
führende Rolle der deutschen Einrichtungen und für
die Förderung exzellenter und strategisch wichtiger
Vorhaben ein. Zentrale Anliegen sind die Ausrich-        Um den weiterhin steigenden Bedarf an Rechenzeit zu
tung von EuroHPC am Bedarf der Anwendenden aus           bedienen, müssen die Kapazitäten auf allen Ebenen der
���������                                                                                                      17

Leistungspyramide kontinuierlich ausgebaut werden.         wachsenden Bedarfen von Forschung und Wirtschaft
Das BMBF wird – gemeinsam mit den Ländern – den            gerecht wird. Im Vordergrund steht dabei die reale
Ausbau der Kapazitäten im GCS, beim NHR und in den         Anwendungsleistung für die Nutzungsgruppen und die
nationalen Kompetenzzentren für KI-Forschung weiter        effiziente Auslastung der Systeme.
fördern.
                                                           Zu dem umfassenden Ausbau gehört zum einen die
Entscheidend sind dabei nicht Spitzenplatzierungen         Beschaffung von Systemen der höchsten Leistungsklas-
in der populären Weltrangliste der Supercomputer           se, zum anderen die Weiterentwicklung der Rechner­
(so­genannte „Top-500-Liste“), sondern ein wohldiffe-      infrastruktur an den Zentren. Den Ausbau wird das
renziertes System an Rechnern verschiedener Leis-          BMBF gemeinsam mit den Ländern Bayern, Baden-
tungskategorien und Spezialfähigkeiten, die an den         Württemberg und Nordrhein-Westfalen paritätisch
Bedarfen der Nutzenden ausgerichtet sind. Dazu gehört      finanzieren.
auch, dass praktikable Software sowie die für das Com-
puting und die Aufbereitung der Daten, Modelle und         Für das erste deutsche Exascale-System unterstützt das
Ergebnisse nötigen Werkzeuge zur Verfügung stehen          BMBF eine Bewerbung des GCS auf einen europäisch
(siehe 6.6 Neue Technologien erforschen). Nur in dieser    kofinanzierten Rechner im Rahmen von EuroHPC.
Gesamtheit können HPC-Kapazitäten in der Breite ge-        Als Standort wird das Jülich Supercomputing Centre
nutzt werden und ihr volles Potenzial für Wissenschaft,    angestrebt. Dieser europäische Exascale-Rechner wird
Wirtschaft und Gesellschaft entfalten.                     anteilig Anwendungsgruppen aus ganz Europa offen-
                                                           stehen. Damit soll Deutschland eine technologische
Ausbau der Spitzenleistung                                 Vorreiterrolle für die anspruchsvollsten Anwendungen
Das BMBF strebt an, die Kapazitäten an allen Standor-      in Europa übernehmen.
ten des GCS – Jülich, München und Stuttgart – weiter
auszubauen. Der alternierende Ausbau und die enge          Möglichkeiten für Hochschulen und
Vernetzung soll jederzeit die Verfügbarkeit von Spit-      Forschungseinrichtungen erweitern
zenleistung in Deutschland und eine kontinuierliche        Auf Ebene 2 der Leistungspyramide wird das BMBF
Erneuerung der Systeme sichern. An allen Standorten        ab 2021 jährlich bis zu 31,25 Mio. Euro für den ge-
soll in der Programmlaufzeit eine Leistung erreicht        meinsam mit den Ländern vorangetriebenen Auf- und
werden, die bis in den Exascale-Bereich hinein den         Ausbau des Nationalen Hochleistungsrechnens (NHR)

 HPC in der Klimaforschung

  Wolkenbildung und Niederschlag sind entscheidende
  Faktoren in der Modellierung von Klima und Wetter.
  Die Bildung von Wolken ist aber ein hochkomplexer
  physikalischer Prozess und sehr aufwändig zu simu-
  lieren. Viele Unsicherheiten derzeitiger Klimamodelle
  beruhen auf fehlendem Verständnis für die Wolkenbil-
  dung. Um durch bessere Simulation von Wolken und
  Niederschlag präzisere Klimavorhersagen zu erreichen,
  müssen vorhandene Klimamodelle deutlich erweitert
  und auf Höchstleistungsrechner angepasst werden.
  Dies wird u. a. in der vom BMBF geförderten Initiative
  „High Definition Cloud and Precipitation for Advan-
  cing Climate Prediction HD(CP)²“ verfolgt. Hier haben    sie dabei heraus, wie Wolken auf Veränderungen von
  Forschende mithilfe von extrem genauen Simulationen      Aerosolen in der Umgebung reagieren und wie Stürme
  die Wolkenbildung untersucht. Unter anderem fanden       durch Wolken beeinflusst werden.
18                                                   HOCH- UND HÖCHSTLEISTUNGSRECHNEN FÜR DAS DIGITALE ZEITALTER

 HPC in der Teilchenphysik

     Die uns umgebende Materie besteht aus Molekülen
     und Atomen. Der Kern der Atome ist aus Neutronen
     und Protonen aufgebaut, die sich wiederum aus noch
     kleineren Materiebausteinen zusammensetzen, den
     Quarks. In umfangreichen Experimenten an den größ-
     ten Teilchenbeschleunigern der Welt haben Wissen-
     schaftlerinnen und Wissenschaftler die Massen von
     Protonen und Neutronen untersucht. Es war bereits be-
     kannt, dass die gemessenen Werte nicht einfach durch
     die Summe der Quark-Massen erklärt werden können.
     Es fehlte aber eine Erklärung für dieses Phänomen.

     In bahnbrechenden Simulationen, durchgeführt u. a.      tischen Kräften berücksichtigt werden. So konnte die
     auf Supercomputern in Deutschland, konnte das Rätsel    geringe Massedifferenz zwischen dem Proton und Neu-
     gelöst werden. Bei der Berechnung der Massen müssen     tron erklärt werden. Durch die Computersimulationen
     alle Wechselwirkungen der Quarks nicht nur unterein­    ist es gelungen, physikalische Phänomene der kleinsten
     ander, sondern auch zum Beispiel mit elektromagne-      Bausteine des Universums aufzuklären.

an Hochschulen zur Verfügung stellen. Diese werden           bedarfsgerecht auf die für ihre Forschung benötigte
durch Mittel der Länder in gleicher Höhe ergänzt. Die        Rechenkapazität zugreifen.
Mittel dienen der Finanzierung des NHR-Verbundes,
der Beschaffung von Rechnern und Rechnerinfra-               KI-Entwicklung unterstützen
struktur sowie dem Betrieb und der wissenschaftlichen        Angewandte KI-Forschung ist sehr stark von der
Fachberatung für die Anwenderinnen und Anwender.             Verfügbarkeit von Rechenkapazitäten abhängig, die
Dabei wird eine möglichst breite Abdeckung aller             das schnelle Erproben neuartiger oder angepasster
Anwendungsbereiche von HPC angestrebt. Weitere               Verfahren für innovative Vorhaben der KI-Forschung
Aufgaben des NHR sind die Stärkung der Methoden-             ermöglicht. Durch den Aufbau einer leistungsstarken
kompetenz der Nutzerinnen und Nutzer, die Förderung          IT-Infrastruktur im Netzwerk der nationalen Kom-
des wissenschaftlichen Nachwuchses, die Aus- und             petenzzentren für KI-Forschung will das BMBF dazu
Weiterbildung sowie die Förderung und Weiterent-             beitragen, einen international konkurrenzfähigen
wicklung des wissenschaftlichen Rechnens. Bund und           Forschungsverbund auf höchstem Niveau zu eta­
Länder entwickeln so die fachlichen und methodischen         blieren. Bestehen soll diese IT-Infrastruktur einerseits
Stärken von Hochleistungsrechenzentren in einem              aus Experimentalsystemen, welche die Entwicklung
nationalen Verbund weiter.                                   von KI-Algorithmen unterstützen, und andererseits
                                                             aus Systemen zur hochperformanten Datenanalyse
Hinzu kommen die Investitionen der durch das BMBF            (HPDA), die die Daten zur Erprobung von neuen KI-
institutionell geförderten Forschungseinrichtungen           Algorithmen bereitstellen. Diese Systeme werden der
für ihre eigenen Rechenzentren, die zu Ebene 2 und           gesamten KI-Forschung in Deutschland zur Verfügung
3 der Leistungspyramide zählen. Diese sind meist für         gestellt und können um neue Rechnertechnologien
spezielle Forschungsfelder konzipiert und beschränken        erweitert werden.
deshalb ihre Rechenzeit auf bestimmte Anwendungen.
                                                             Ausbau auf Bedarfe und Herausforderungen
Forschende an Hochschulen und außeruniversitären             zuschneiden
Einrichtungen können damit deutschlandweit und               Das BMBF unterstützt eine Beschaffung, die auf jeder
Sie können auch lesen