Hoch- und Höchstleistungsrechnen für das digitale Zeitalter - Forschung und Investitionen zum High-Performance-Computing
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
Hoch- und Höchstleistungsrechnen für das digitale Zeitalter Forschung und Investitionen zum High-Performance-Computing
Vorwort Simulationen zum Klimawandel, Anwendungen künst- Wirtschaft und Wissenschaft arbeiten dabei Hand in licher Intelligenz, Viren- und Materialforschung – dafür Hand, um die technologische Souveränität Europas sind Supercomputer mit hoher Rechenleistung nötig. zu stärken. Technologische Souveränität heißt für uns, Supercomputer ermöglichen exzellente Wissenschaft. eigene Kompetenzen in Wissenschaft und Wirtschaft Sie beschleunigen Innovationen. Und sie sichern auf höchstem Niveau zu entwickeln. Nur so können Deutschland einen vorderen Platz im internationalen wir einen wechselseitigen Austausch mit den weltweit Wettbewerb. führenden Forschungseinrichtungen und Unternehmen gewährleisten. Und zwar auf Augenhöhe. Daher fördert das Bundesministerium für Bildung und Forschung den Ausbau der Rechnerinfrastruktur in Unser neues Programm für das Hoch- und Höchstleis- Deutschland intensiv. Wir investieren in die Forschung tungsrechnen stärkt exzellente Forschung in Wissen- und Entwicklung des Hoch- und Höchstleistungsrech- schaft und Industrie – sowohl für Forschende als auch nens. Dabei wollen wir unsere Rechner und Rechen- für Anwendende und Nutzende. Es trägt zum Ziel der zentren nicht nur leistungsfähig, sondern auch energie Datenstrategie der Bundesregierung bei, Dateninfra- effizient und sparsam gestalten. Unser Ziel ist klar: Wir strukturen leistungsfähig und nachhaltig zu gestalten. wollen, dass in Deutschland auch künftig die besten und Mit diesem Programm machen wir Deutschland fit für fortschrittlichsten Rechentechnologien zur Verfügung die Datenverarbeitung der Zukunft. stehen – für Wissenschaft und Industrie, zum Wohle der Menschen. Wir arbeiten dazu mit den Bundesländern eng zusam- men: Das Gauss Centre for Supercomputing und das Nationale Hochleistungsrechnen an Hochschulen zeigen, wie gut die Kooperation funktionieren kann. Wir schaf- fen eine europaweit einzigartige Infrastruktur. Und wir Anja Karliczek haben Europa im Blick: Darum beteiligen wir uns auch Mitglied des Deutschen Bundestages an der europäischen Partnerschaft EuroHPC. Staaten, Bundesministerin für Bildung und Forschung
1 Inhaltsverzeichnis 1 Einleitung 2 5.3 Innovative Wertschöpfung in Deutschland ermöglichen.......................................................... 15 4 5.4 Technologische Souveränität und 2 Thesen Energieeffizienz stärken..................................... 15 2.1 High-Performance-Computing ist essenzielles Werkzeug der Forschung............... 4 6 Maßnahmen 16 2.2 High-Performance-Computing ist 6.1 Mit den Ländern eng zusammenarbeiten....... 16 Grundlage innovativer Wertschöpfung............. 4 6.2 Europäisches Ökosystem weiterentwickeln... 16 2.3 High-Performance-Computing ist Teil 6.3 Möglichkeiten erweitern.................................... 16 technologischer Souveränität ............................. 5 6.4 Zugänge vereinfachen......................................... 20 6 6.5 Kompetenzen stärken......................................... 22 3 Ausgangslage 6.6 Neue Technologien erforschen......................... 25 4 Herausforderungen 10 7 Evaluation 28 4.1 Analyse großer Datenmengen und Anwendungen Künstlicher Intelligenz............ 10 Glossar 29 4.2 Steigende Komplexität von Anwendungen und Rechnern........................................................ 10 4.3 Verbesserung der Energieeffizienz................... 11 Impressum 33 4.4 Nutzung neuer Rechentechnologien............... 11 4.5 Technologische Souveränität in Europa.......... 12 5 Ziele 14 5.1 Deutschland als Spitzenreiter positionieren......................................................... 14 5.2 Exzellente und innovative Forschungs ergebnisse ermöglichen...................................... 15
2 HOCH- UND HÖCHSTLEISTUNGSRECHNEN FÜR DAS DIGITALE ZEITALTER 1 Einleitung Leistungsfähige Computer eröffnen ganz neue Mög- leistungsrechner betrieben, die Deutschland derzeit lichkeiten für Forschung und Innovation. Bestimmte eine international wettbewerbsfähige Position sichern. Fragestellungen aus Wissenschaft und Industrie lassen Durch die weltweiten Bestrebungen nach immer leis- sich mit Simulationen und Modellen am Computer tungsfähigeren Systemen ist die Rangliste der schnells- deutlich schneller und effizienter beantworten als mit ten Rechner aber in ständiger Bewegung. Experimenten. Und Phänomene, die zu groß oder zu klein, zu schnell oder zu langsam für Experimente sind, Deutschland gehört auch bei der Entwicklung von Al- können nur durch Simulation erforscht werden. Damit gorithmen und Anwendungsprogrammen für das HPC unterstützen Computersimulationen die Forschung für zu den führenden Ländern. nahezu alle Bereiche des täglichen Lebens: Mit dem Programm „Hoch- und Höchstleistungsrech- ∙ Wie wird sich das Klima verändern? nen für das digitale Zeitalter – Forschung und Inves- ∙ Wie dringen Viren in den Körper ein? titionen zum High-Performance-Computing“ richtet ∙ Wie lässt sich ein Katalysator optimieren? das Bundesministerium für Bildung und Forschung ∙ Wo ist der beste Standort für ein Windrad? (BMBF) die Förderung und Finanzierung des High-Per- formance-Computing in Deutschland strategisch auf Leistungsfähige Computer sind gefragt, wenn es darum das kommende Jahrzehnt aus. Das Programm schafft geht, riesige Datenmengen auszuwerten und komplexe einen kohärenten Rahmen für die mit der EU und den Prozesse zu analysieren. Dies erfordert eine Rechenleis- Bundesländern verzahnten Maßnahmen des Bundes tung, die millionenfach größer ist als die eines PC. Zum und stellt dar, wie Deutschland die erwarteten Chancen Einsatz kommen extrem rechenstarke Supercomputer nutzen und die damit verbundenen Herausforderun- mit angepasster Software und entsprechendem Know- gen meistern will. Unter anderem werden die Ausbau- how: Zusammen ergibt dies „High-Performance-Com- aktivitäten der Rechner übergreifend betrachtet, die puting“ (HPC). Anwendung in der Wirtschaft vorangetrieben und das Hochleistungsrechnen an Hochschulen gestärkt. Dies High-Performance-Computing ist ein integraler wird flankiert durch Forschungsansätze zur Entwick- Bestandteil zahlreicher Forschungsfelder. Somit ist lung effizienter und leistungsfähiger Hard- und Soft- HPC ein kritischer Faktor für den Erfolg des Wissen- ware für künftige Rechnersysteme und Anwendungen. schafts- und Forschungsstandorts Deutschland. Ohne eigene Fähigkeiten im HPC wären Wissenschafts- und Die Schwerpunkte des Programms wurden im Aus- Forschungsbereiche vielfach nicht wettbewerbsfähig. tausch mit der Fachszene erarbeitet. In Fachgesprächen mit Wissenschaft und Wirtschaft wurden die Herausfor- Bei der Leistungsfähigkeit der installierten Super- derungen identifiziert und Maßnahmen diskutiert. Die computer hat Deutschland im europäischen Vergleich künftige Ausrichtung des Gauss Centre for Supercompu- einen Spitzenplatz inne. Unter dem Dach des Gauss ting wurde mit den Ländern Bayern, Baden-Württem- Centre for Supercomputing (GCS) werden drei Höchst- berg und Nordrhein-Westfalen entwickelt, in denen die
Einleitung 3 Was ist High-Performance-Computing? Beim High-Performance-Computing (HPC) wird Re- nur wenig darüber aus, welche Leistung er für eine chenleistung in sogenannten Supercomputern aggre- bestimmte Anwendung erreicht, beispielsweise die giert. Hierfür werden in hochintegrierten Systemen sehr Simulation eines Moleküls. Dies ist vor allem von der viele Prozessoren so miteinander verbunden, dass sie Optimierung der Software und dem guten Zusammen- extrem schnell komplexe Berechnungen durchführen spiel mit der Hardware abhängig. können. Dabei kommen teilweise über 100.000 Prozes- soren in einem Supercomputer zum Einsatz. Es wird zwischen Hoch- und Höchstleistungsrechnern unterschieden, wobei Höchstleistungsrechner die High-Performance-Computer sind um ein Vielfaches technisch erreichbare Spitze markieren und deshalb in leistungsfähiger und schneller als Desktop-Computer. Teilen Experimental-Status inne haben, während Hoch- Sie können große Datenmengen verarbeiten und sehr leistungsrechner eher die leistungsfähigsten kommerzi- schnell aufwändige Berechnungen lösen. ellen Serienprodukte bezeichnen. Die Leistung von Supercomputern wird in FLOPS ge- Man unterscheidet beim High-Performance-Compu- messen („floating point operations per second“). Dazu ting zwischen „Capability Computing“, also einzelnen löst der Computer eine standardisierte Rechenaufgabe Rechenaufgaben, die besonders viele Prozessoren und und die Anzahl von Berechnungen pro Sekunde wird Speicher benötigen und deren Bedarf mit der Pro gemessen. Die Leistung des schnellsten deutschen blemgröße skaliert, und „Capacity Computing“, also das Rechners beträgt derzeit rund 70 PetaFLOPS oder 70 Berechnen von Problemen, die leicht in viele parallele Billiarden FLOPS. Dies entspricht in etwa der Leistung Aufgaben mittlerer Komplexität aufgeteilt werden kön- von 2 Millionen Laptops, die alle miteinander ver- nen, aber zusammen einen sehr hohen Rechenbedarf bunden sind. Die Leistung eines Supercomputers bei haben. dieser Standardaufgabe (ein sog. Benchmark) sagt aber Rechner angesiedelt sind und von denen sie mitfinan- Rahmenprogramm Mikroelektronik, zum Regierungs- ziert werden. Die sogenannte Smart-Scaling-Strategie programm Quantentechnologien, zur Strategie Künst- des GCS analysiert und prognostiziert den Bedarf liche Intelligenz sowie zum Aktionsplan Forschungsda- der anwendenden Gruppen und bildet eine wichtige ten und zum Aktionsplan ErUM-Data des BMBF. Grundlage des Programms. Mit Blick auf die Synergien, die mit einem europäischen Ökosystem des High-Per- Das BMBF will mit dem Programm ein umfassendes formance-Computing erschlossen werden sollen, sind Angebot an Rechnern und Kompetenzen schaffen, Abstimmungen mit den Partnern Deutschlands in der das dem Bedarf von Wissenschaft und forschender EU und der Europäischen Kommission als wesentliches Industrie im digitalen Zeitalter auch in Zukunft gerecht Element in das Programm eingeflossen. Die Inhalte des wird. Zusammen mit den europäischen Partnern will Programms werden in den nächsten vier Jahren im Aus- Deutschland – unter anderem durch Beschaffung von tausch mit der Fachszene und Stakeholdern kontinuier- Exascale-Rechnern – High-Performance-Computing lich überprüft und weiterentwickelt. Im Jahr 2023 soll einer bislang unerreichten Leistungsklasse bereitstel- über eine dreijährige Verlängerung oder eine Neuauflage len und somit für den Wirtschafts- und Innovations und Neuausrichtung entschieden werden. standort Deutschland im Bereich des Supercomputings weltweite Wettbewerbsfähigkeit sichern. Das Programm trägt zur Umsetzung der Hightech- Strategie 2025 bei, insbesondere indem es den Zugang Das BMBF fördert Ausbau, Betrieb und Vernetzung zu Rechnerkapazitäten und den neuesten Hardware- von Hoch- und Höchstleistungsrechnern, schafft die und Softwaretechnologien gewährleistet. Das Pro- Voraussetzungen für nachhaltige und leistungsfähige gramm ist Teil der Datenstrategie der Bundesregierung Datentechnologien, -anwendungen und -infrastruk- und trägt zur Digitalstrategie des BMBF bei. Es hat Be- turen und leistet so einen Beitrag zur digitalen und rührungspunkte zu zahlreichen weiteren Programmen technologischen Souveränität Deutschlands und der und Strategien der Bundesregierung, insbesondere zum Europäischen Union.
4 HOCH- UND HÖCHSTLEISTUNGSRECHNEN FÜR DAS DIGITALE ZEITALTER 2 Thesen und Datenanalysen wachsen auch die Anforderungen 2.1 High-Performance-Computing an das High-Performance-Computing: Obwohl immer ist essenzielles Werkzeug der mehr Rechenleistung zur Verfügung steht, stoßen Wissenschaft und Entwicklung in unterschiedlichsten Forschung Disziplinen und Branchen immer wieder an technische Grenzen. Die Weiterentwicklung des HPC ist daher eine Von der Klimamodellierung, der Simulation von Vi- Grundvoraussetzung dafür, dass der wissenschaftlich- rusproteinen und der Entwicklung von Arzneimitteln technische Fortschritt im Fluss bleibt. über die Modellierung des Universums bis hin zur Ana- lyse innovativer Konzepte für Solarzellen: Viele Fra- gestellungen in der Forschung verlangen nach immer 2.2 High-Performance-Computing komplexeren und genaueren Modellen und Analysen, ist Grundlage innovativer nach Einsatz von Künstlicher Intelligenz und nach der Analyse großer Datenmengen. Hier kommt High-Per- Wertschöpfung formance-Computing ins Spiel – und ist mittlerweile in vielen Wissenschaftsdisziplinen unverzichtbar. Mit Der Einsatz von High-Performance-Computing hat in der wachsenden Größe und Komplexität von Modellen Wirtschaft und Industrie weitreichende Bedeutung. Was bedeutet Exascale? Die aktuell leistungsfähigsten Supercomputer lösen Um überhaupt in den Exascale-Bereich kommen zu Probleme mit über einer Billiarde Rechenoperationen können, müssen jedoch neueste Prozessoren und pro Sekunde (PetaFLOPS). An der Nachfolgegeneration, Rechenbeschleuniger kombiniert und vernetzt werden. den Exascale-Rechnern mit bis zu tausend Billiarden Eine weitere Herausforderung ist der hohe Energie- Rechenoperationen pro Sekunde (ExaFLOPS), wird be- bedarf: Um diesen in den Griff zu bekommen, ist ein reits geforscht. Solche Exascale-Systeme ermöglichen optimierter Betrieb der Systeme und hocheffiziente unter anderem realitätsgetreuere Simulationen. Zum Software nötig. Weltweit wird intensiv an der Entwick- Beispiel könnten Wettervorhersagen die ganze Erde mit lung von Exascale-Systemen und der nötigen Software einer Auflösung von nur einem Kilometer abdecken und geforscht. Ein Ziel der europäischen Partnerschaft Eu- dadurch bislang wenig berücksichtigte Effekte genau roHPC ist es, in den kommenden Jahren Europas erstes simulieren. Vorhersagen können damit genauer und Exascale-System zu realisieren. langfristiger werden.
Thesen 5 Viele Spitzenprodukte lassen sich ohne Simulationen fen. Eine auf die technologischen Herausforderungen und umfangreiche Analysen weder entwerfen noch im High-Performance-Computing ausgerichtete Aus- verbessern. Dies gilt gerade für jene Bereiche, in denen und Weiterbildung sorgt für den notwendigen Nach- Deutschland seine Stärken hat: Ob Belastungssimulati- schub an exzellenten Fachkräften für Forschung und onen im Maschinenbau, Optimierung von chemischen Entwicklung. Mit HPC entsteht Know-how in Deutsch- Prozessen, Genanalysen in der Medizin, digitale Zwil- land, das es uns erlaubt, die Digitalisierung wesentlich linge in der Industrie oder maschinelles Lernen im Be- nach unseren Anforderungen mitzugestalten und reich Künstlicher Intelligenz – hochkomplexe Prozesse unsere technologische Souveränität zu stärken. erfordern extreme Rechenleistung. High-Performance- Computing stellt diese Rechen- und Analyseleistungen, die grundlegende Software und die nötige Expertise zur Verfügung und ermöglicht so Innovationen. 2.3 High-Performance-Computing ist Teil technologischer Souveränität Die Anforderungen des Supercomputing treiben den Fortschritt bei den zugrundeliegenden Hardware- und Softwaretechnologien. Deren Weiterentwicklung steigert auch in Anwendungsbereichen außerhalb des High-Performance-Computing die Leistungsfähigkeit, zum Beispiel in der Entwicklung von Rechnervernet- zung, bei Anwendungen der Künstlichen Intelligenz oder hinsichtlich der Energieeffizienz von Rechner- komponenten und ganzen Rechenzentren. Dies wird die Technologieentwicklung über das HPC hinaus beeinflussen und neue Möglichkeiten der nachhaltigen Digitalisierung von Wissenschaft und Wirtschaft schaf-
6 HOCH- UND HÖCHSTLEISTUNGSRECHNEN FÜR DAS DIGITALE ZEITALTER 3 Ausgangslage Anspruchsvolle Fragestellungen aus allen im High-Performance-Computing für die Wissenschaft Bereichen der Forschung in mehrere Ebenen strukturiert – entsprechend der High-Performance-Computing gehört heute in vielen Leistungsfähigkeit der Rechner und der Komplexität wissenschaftlichen Disziplinen zu den grundlegenden der Anwendungen (siehe Abbildung 1). Forschungsmethoden. Auf der Ebene 1 der Leistungspyramide verfügt In der Astro- und Teilchenphysik liefern immer Deutschland mit dem Gauss Centre for Supercompu- umfangreichere Simulationen mit immer höherem ting (GCS) über eine international kompetitive, koordi- Rechenbedarf neue Erkenntnisse über das Universum nierte Infrastruktur der höchsten Leistungsklasse. Im und seine kleinsten Bausteine. Eine wichtige Rolle GCS sind die drei Höchstleistungsrechenzentren am spielt HPC auch bei der Klimamodellierung, der Wet- Forschungszentrum Jülich, an der Universität Stutt- tervorhersage, der Ozeanografie und der Erdsystemfor- gart und am Leibniz-Rechenzentrum der Bayerischen schung. Über die rechenintensive Analyse komplexer Akademie der Wissenschaften in Garching zusammen- Klima- und Umweltdaten lassen sich frühzeitig rele- gefasst. Diese drei Rechner haben jeweils eine unter- vante Umweltveränderungen erkennen und Szenarien schiedliche Architektur und Ausrichtung. Zusammen für den Umgang mit diesen entwickeln. und arbeitsteilig kann das GCS so den Bedarf einer Vielzahl unterschiedlicher Nutzungsanforderungen Der Einsatz von HPC ermöglicht detaillierte Untersu- erfüllen. Die Gesamtleistung der drei HPC-Spitzensys- chungen von Prozessen in Biologie und Medizin. Dies teme beträgt über 130 PetaFLOPS (Stand November trägt zur Entwicklung von Arzneimitteln und Impf- 2020). Dies entspricht in etwa der Leistung von 3,9 Mil- stoffen ebenso bei wie zur Auswertung bildgebender lionen Laptops, die mit hoher Bandbreite vernetzt sind. Verfahren oder der Genomsequenzierung. In der Che- Die Infrastruktur an den drei GCS-Zentren wird in mie können mithilfe von HPC Reaktionen detailliert einer abgestimmten Smart-Scaling-Strategie alternie- untersucht und neuartige Materialien designt werden. rend ausgebaut. Dieser Ausbau wird durch das BMBF paritätisch mit den Sitzländern auf Basis eines Verwal- Ingenieurwissenschaften und Industrie haben ebenfalls tungsabkommens finanziert. Außerdem werden alle wachsenden Bedarf an Rechenleistung. In Deutschland drei Zentren eng vernetzt und bieten einen einheitli- betrifft dies vor allem den Maschinenbau, die Automo- chen Zugang zu Rechenleistung. bilindustrie sowie die Luft- und Raumfahrt – von der digitalen Produkt- und Prozessprüfung im Rechner bis Die Ebene 2 umfasst aktuell zwölf etablierte, überre- hin zum „Digitalen Zwilling“. gionale HPC-Zentren mit Hochleistungsrechnern an Forschungseinrichtungen und Hochschulen. Mit dem Leistungsfähige Strukturen des High- Bund-Länder-Programm zum Nationalen Hochleis- Performance-Computings in Deutschland tungsrechnen (NHR) wird an Hochschulrechenzentren In Deutschland und auch international ist das Angebot der Ebene 2 während der Programmlaufzeit erstmals
Ausgangslage 7 eine bundesweite koordinierte Struktur an Hochschu- Ein europäisches Ökosystem len aufgebaut, die für die Nutzung durch Hochschulan- Im Jahr 2018 wurde das „Gemeinsame Unternehmen gehörige vorgesehen ist. EuroHPC“ gegründet, eine institutionalisierte Part- nerschaft von Europäischer Kommission, 32 teilneh- Die Ebene 3 besteht vor allem aus regionalen Rechnern, menden Staaten und zwei Industrieverbänden. Ziel die eine Vielzahl von Anwendungen mit geringeren von EuroHPC ist die Schaffung eines ganzheitlichen Leistungsanforderungen für den Bedarf vor Ort bedie- Ökosystems im High-Performance-Computing in nen. Diese stehen an den meisten Hochschulstandor- Europa. Deutschland ist Gründungsmitglied und hat ten und Forschungseinrichtungen zur Verfügung und zurzeit den Vorsitz im Verwaltungsrat inne. Eine Säule werden dort betrieben. von EuroHPC ist die Beschaffung von Höchstleistungs- rechnern in Europa. Im Jahr 2020 wurden die Standorte In der Gauß-Allianz (GA), einem gemeinnützigen Ver- der ersten EuroHPC-Rechner ausgewählt. Deutschland ein zur Förderung von Wissenschaft und Forschung im beabsichtigt sich an diesem Verfahren bei der Beschaf- Bereich Hochleistungsrechnen, sind seit 2008 die drei fung von Rechnern der bislang unerreichten Exascale- Rechenzentren der Ebene 1, 16 Zentren der Ebenen Klasse zu beteiligen. Die zweite Säule von EuroHPC ist 2 und 3 sowie das Deutsche Forschungsnetz zusam- die Förderung von europaweiten Forschungsprojekten mengeschlossen. Die Mitglieder betreiben zusammen zu Grundlagen und Anwendungen für HPC; deutsche rund 40 HPC-Systeme in ganz Deutschland mit einer Einrichtungen sind in diesen Projekten stark vertreten. aktuellen Leistung von zusammen rund 190 PetaFLOPS Die dritte Säule, der europaweite Ausbau von Kompe- (Stand November 2020). Die GA widmet sich auch dem tenzen, wird durch einen europäischen Verbund natio- Ausbau und der Bündelung von Beratungs-, Schu- naler HPC-Kompetenzzentren gefördert. Deutschland lungs- und Unterstützungsangeboten. übernimmt dabei durch das GCS eine koordinierende Rolle. Höchstleistungen in der Wissenschaft erfordern nicht nur den Zugang zu immer leistungsfähigeren Super- Kompetitive Vergabe von Rechenzeit computern. Weiterer unverzichtbarer Baustein für den Der Bedarf an Rechenzeit ist größer als das Angebot. Erfolg ist der Zugang zu Wissensbeständen, Datenar- Rechenzeit wird in Deutschland und Europa daher in chiven und Forschungsergebnissen. Datenbestände von wissenschaftsgeleiteten und exzellenzorientierten Ver- Wissenschaft und Forschung werden durch den Aufbau fahren vergeben. Deutschlandweit geschieht dies für der Nationalen Forschungsdateninfrastruktur (NFDI) Anwendungen mit Bedarfen an höchster Rechenleis- und der European Open Science Cloud (EOSC) syste- tung am GCS über das rechnergestützte System JARDS, matisch erschlossen und zugänglich gemacht. ansonsten regional an den jeweiligen Rechenzentren. Ebene 0: PRACE und EuroHPC Europaweite Vergabe von Rechenzeit über Einzelsysteme mit bis zu 150 PetaFLOPS (geplant) Ebene 1: Nationale Höchstleistungsrechenzentren 3 GCS-Zentren mit aktueller Gesamtleistung von ca. 130 PetaFLOPS Ebene 2: HPC-Zentren mit überregionalen Auf- 12 HPC-Systeme, davon künftig 8 Zentren gaben und thematisch-dedizierte HPC-Zentren des Nationalen Hochleistungsrechnen (NHR) mit aktueller Einzelleistung bis zu 25 PetaFLOPS Ebene 3: Regionale HPC-Zentren und Einzelsysteme mit einer Rechen Institute mit lokalen Clustern leistung von meist unter 1 PetaFLOP Abbildung 1: HPC-Leistungspyramide (Stand November 2020)
8 HOCH- UND HÖCHSTLEISTUNGSRECHNEN FÜR DAS DIGITALE ZEITALTER An den drei Zentren des GCS laufen so durchschnittlich Förderung der Entwicklung von Hardware- und mehrere hundert Projekte aus allen wissenschaftlichen Softwaretechnologien Disziplinen. Hochschulen und Forschungseinrichtungen in Deutschland haben eine hohe Kompetenz in HPC- In Europa wird Rechenzeit für Spitzenbedarfe der Technologien und -Anwendungen. Forschung und Ent- Wissenschaft durch die Organisation PRACE (Partner- wicklung zu Algorithmen und Software-Technologien ship for Advanced Computing in Europe) vergeben. An sind Schwerpunkte der BMBF-Förderung. PRACE beteiligt sind aktuell 26 Länder; aus Deutsch- land stellt GCS als eines von fünf so genannten „hosting Bei der Rechnerinfrastruktur wie den Kühlsystemen members“ Rechenzeit für Europa zur Verfügung. haben u. a. die GCS-Zentren innovative Ansätze ent- wickelt. So sind sie Vorreiter in der energiesparenden Diese wettbewerblichen Verfahren sichern die Qualität Wasser- oder Adsorptionskühlung, die perspektivisch der gerechneten Projekte und eine adäquate Auslastung die heute noch in kommerziellen Rechenzentren übli- der Rechner auf jeder Leistungsstufe. che Luftkühlung ersetzen wird. Gauss Centre for Supercomputing (GCS) 1. Jülich Supercomputing Centre JSC Gauss Supercomputi 2. Höchstleistungsrechenzentrum Stuttgart HLRS 1 Jülich Supercomputin 3. Leibniz-Rechenzentrum LRZ Höchstleistungsreche 2 3 Leibnitz Rechenzentru Gauß-Allianz (GA) 6 12 1. Zentrum für Informationsdienste und Hochleistungs Gauss Allianz (GA) rechnender Technischen Universität Dresden ZIH 2. IT Center der RWTH Aachen 1 Zentrum für Informat 3. Konrad-Zuse-Zentrum für Informationstechnik Berlin ZIB 2 der Technischen Unive 4. Max Planck Computing and Data Facility MPCDF 3 2 IT Center der RWTH A 3 Konrad-Zuse-Zentrum 5. Deutscher Wetterdienst DWD 4 Max Planck Computin 6. Deutsches Klimarechenzentrum DKRZ 6 5 Deutscher Wetterdien 7. Steinbuch Centre for Computing des Karlsruher 14 6 Deutsches Klimareche Instituts für Technologie SCC 8 11 7 Steinbruch Centre for 8. Hochschulrechenzentrum der TU Darmstadt HRZ 8 Hochschulrechenzent 9. Regionales Rechenzentrum Erlangen der Friedrich- 1 1 4 9 10 Regionales Rechenzen Center for Scientific C Alexander-Universität Erlangen-Nürnberg RRZE 10. Goethe Center for Scientific Computing der Goethe- 13 11 Paderborn Center for 1 2 12 Deutsches Elektronen Universität Frankfurt am Main G-SCS 13 Regionales Rechenzen 11. Paderborn Center for Parallel Computing PC² 14 Gesellschaft für wisse 12. Deutsches Elektronen-Synchrotron DESY 10 15 Zentrum für Datenver 13. Regionales Rechenzentrum der Universität zu Köln RRZK 5 16 Science and Innovatio 14. Gesellschaft für wissenschaftliche Datenverarbeitung 15 3 mbH Göttingen GWDG 8 5 16 9 15. Zentrum für Datenverarbeitung der Johannes Gauss Supercomputing Gutenberg-Universität Mainz ZDV 7 16. Science and Innovation Alliance Kaiserslautern e. V. SIAK 7 1 IT Center der RWTH A 2 Konrad-Zuse-Zentrum Nationales Hochleistungsrechnen (NHR-Zentren) 2 3 Hochschulrechenzent 4 Zentrum für Informat 4 Technischen Universit 1. IT Center der RWTH Aachen 3 5 Regionales Rechenzen 2. Konrad-Zuse-Zentrum für Informationstechnik Berlin ZIB 6 Gesellschaft für wisse 3. Hochschulrechenzentrum der Technischen Universität 7 Steinbruch Centre for Darmstadt HRZ 8 Paderborn Center for 4. Zentrum für Informationsdienste und Hochleistungsrechnen derTechnischen Universität Dresden ZIH 5. Regionales Rechenzentrum Erlangen der Friedrich-Alexander-Universität Erlangen-Nürnberg RRZE 6. Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen GWDG 7. Steinbuch Centre for Computing des Karlsruher Instituts für Technologie SCC 8. Paderborn Center for Parallel Computing PC² Abbildung 2: HPC-Ökosystem in Deutschland
Ausgangslage 9 HPC-Anwendungen in den Ingenieurwissenschaften Viele Innovationen in industriellen Anwendungen basieren auf neuen Werkstoffen. Simulationen auf Supercomputern können dabei helfen, Werkstoffe mit maßgeschneiderten Eigenschaften zu entwickeln und ihre Verarbeitung zu optimieren. Bei der Entwicklung beispielsweise von metallischen Werkstoffen, die aus mehreren Komponenten beste- hen, eröffnen Simulationen ganz neue Möglichkei- ten: Die Eigenschaften der Materialien werden über Mikrostrukturen bestimmt. Diese bilden sich, wenn die Werkstoffe nach der Schmelze erstarren und sind abhängig von den einzelnen Komponenten und den genauen Parametern von Schmelze und Erstarrung. den gewünschten Eigenschaften zu erhalten, müssen Die Prozesse, die zur Ausbildung der Mikrostrukturen außerdem die Prozessparameter variiert werden. In führen, können mit Experimenten nicht untersucht dem vom BMBF geförderten Projekt SKAMPY wurde werden. Dafür kann aber die Simulation genau diese hierfür eine Software für Materialsimulationen auf entscheidenden Informationen liefern. Höchstleistungsrechnern entwickelt. Mit ihrer Hilfe wurde u. a. das Erstarrungsverhalten von Legierungen Dabei kommt es vor allem auf Genauigkeit an, denn unterschiedlicher Zusammensetzung untersucht. Damit die Simulation muss Werkstoff und Prozesse mit sehr lassen sich maßgeschneiderte Hochleistungswerkstoffe hoher Präzision auflösen. Um einen Werkstoff mit kostengünstig und schnell am Computer entwerfen. Unterstützung der Industrie sogenannten Computational Sciences. Die Verknüp- Viele Unternehmen haben Bedarf an Simulation, fung der Fachwissenschaften auf der einen mit dem Modellierung und Datenanalyse. Vor allem das GCS High-Performance-Computing auf der anderen Seite hat langjährige Erfahrungen in der Zusammenar- spielt eine zentrale Rolle für den Ausbau von HPC- beit mit der Wirtschaft. Speziell am GCS-Zentrum in Expertise. Stuttgart sind die Rechner und die Serviceangebote auf die Bedürfnisse der Industrie zugeschnitten. Auch an Die HPC-Zentren der Ebenen 1 und 2 bieten deutsch- anderen HPC-Zentren in Deutschland gibt es gemein- landweit umfangreiche themen- und fachspezifische same Projekte mit der Industrie, die den Transfer in die Veranstaltungen und Lehrprogramme an. Allein die Anwendung fördern. GCS-Zentren führen rund 100 Kurse pro Jahr durch. Mit der Beteiligung des GCS an PRACE stehen allen Aus- und Weiterbildung deutschen Anwendenden auch europäisch finanzierte Das High-Performance-Computing setzt qualifizierte Schulungs- und Weiterbildungsangebote zur Verfü- Fachkräfte voraus. Die HPC-Zentren in Deutschland gung. Europaweit nehmen weit über 2.000 Personen fördern die Aus- und Weiterbildung mit einem um- pro Jahr an diesen Kursen teil, darunter ca. 15 Prozent fangreichen Angebot. Parallelprogrammierung und aus der Wirtschaft. Hochleistungsrechnen sind integrale Bestandteile verschiedener Fachrichtungen wie zum Beispiel Infor- matik und Mathematik. An einigen Standorten gibt es Promotionsprogramme bzw. Graduiertenkollegs in den
10 HOCH- UND HÖCHSTLEISTUNGSRECHNEN FÜR DAS DIGITALE ZEITALTER 4 Herausforderungen 4.1 Analyse großer Datenmengen fordert auch Cloud-artige Zugänge und vorinstallierte, und Anwendungen Künstlicher kommerzielle Software. Für alle Nutzungsarten müssen geeignete Zugangs- und Vergabeverfahren entwickelt Intelligenz werden, um die ganze Breite der Anwenderinnen und Anwender passgenau zu bedienen. Simulation und Modellierung sind die traditionellen Aufgaben des High-Performance-Computing. Künstli- che Intelligenz (KI) und die Bearbeitung großer Daten- 4.2 Steigende Komplexität von mengen stellen neue und stark anwachsende Aufgaben Anwendungen und Rechnern des HPC dar. In vielen Bereichen der Wissenschaft werden vielfältige Deutliche Steigerungen der Rechenleistung sind erfor- und große Datenmengen erhoben (z. B. Erdsystemfor- derlich, um durch Simulation und Modellierung neu- schung, Astro- und Teilchenphysiksysteme, Bildgebung artige Erkenntnisse erzielen zu können. In der Klima- in der Medizin, Sozialwissenschaften). Auch durch und Erdsystemforschung sind Fortschritte nur durch Sensornetzwerke (zum Beispiel beim autonomen höhere Auflösung der Modelle zu erreichen, damit wei- Fahren) oder bei Simulationen fallen große Datenmen- tere, signifikante physikalische Prozesse berücksichtigt gen an. Um derart große Datenmengen zu analysieren, werden können. Um pharmazeutische Moleküle mit wird ein großes Spektrum an Softwaretechnologien ganz spezifischen Wirkmechanismen oder komplexe genutzt, von Methoden der Künstlichen Intelligenz, vor Materialien zum Beispiel für die organische Elektronik allem Deep Learning, bis hin zu statistischen Verfahren. entwickeln zu können, sind umfangreiche Berechnun- Zur Auswertung mit Hilfe von HPC sind intelligente gen erforderlich, die heute noch nicht durchgeführt Kombinationen von Daten- und Rechenressourcen, werden können. In den Ingenieurwissenschaften steigt neue Algorithmen und neue Ansätze beim Zugang zu der Bedarf nach Rechenleistung, um nicht nur einzelne den Ressourcen notwendig. Daraus erwachsen neue Teile, sondern beispielsweise auch komplette Flugzeuge Ansprüche an Hardware, Software, Vernetzung und simulieren und so ihre Effizienz optimieren zu können. Kompetenzen, vor allem angesichts der unterschiedli- chen Anforderungen an Speicher- und Netzwerkbedarf, Die Rechenleistung von Prozessoren hat sich bis- der verwendeten Hardware sowie des Zugangs zu den lang etwa alle zwei Jahre verdoppelt. Erreicht wurde Systemen. Während Analysen großer Datenmengen dies durch fortschreitende Miniaturisierung und seit speicherintensiv sind und eine lange Laufzeit haben, einigen Jahren zusätzlich durch die Integration von nutzen Anwendungen der Künstlichen Intelligenz häu- mehreren Rechenkernen auf einem Chip. Durch die fig spezielle Hardware und stellen hohe Anforderun- größere Zahl von Rechenkernen pro Prozessor und die gen an die Vernetzung. Auch flexible und interaktive immer größere Zahl der Prozessoren werden HPC- Nutzung ist für solche Anwendungen wichtig. Dies er- Systeme aber auch immer komplexer. So hat zum
Herausforderungen 11 Beispiel der Rechner am HLRS in Stuttgart über 700.000 4.3 Verbesserung der Energieeffizienz Rechenkerne. Dies führt zu höheren Anforderungen an die Skalierbarkeit von Anwendungen und stellt viele Anwenderinnen und Anwender vor große Herausfor- Leistungsfähige und effiziente Rechenzentren sind die derungen. notwendige Voraussetzung für eine auf Nachhaltigkeit ausgerichtete Digitalisierung. Der hohe Energiebedarf Weitere Leistungssteigerungen werden durch die von Rechenzentren ist eine große Herausforderung Integration anderer Prozessortypen, insbesondere bei der Erreichung von Klimaschutzzielen. Dies betrifft sogenannter GPUs (Graphics Processing Unit), sowie auch Supercomputer: Der aktuell schnellste Rechner durch spezielle Speicher und Netzwerktechnologien der Welt benötigt knapp 30 Megawatt elektrischer erreicht. Die Architektur von HPC-Systemen wird Leistung, so viel wie drei ICE-Züge. Daneben macht damit komplexer und leistungsfähiger, aber auch ihre der hohe Energieverbrauch den Betrieb von Super- Programmierung deutlich anspruchsvoller. Vorhan- computern auch kostspielig. Durch die immer höheren dene Algorithmen und Software müssen ständig an Rechenleistungen steigt der Anteil der Betriebskosten neue Systeme angepasst werden, um Leistung und an der Gesamtinvestition. Lag dieser Anteil früher im Kosteneffizienz zu optimieren. Diese Anpassung an einstelligen Prozentbereich, so sind es heute mindes- massiv parallele Systeme mit komplexer Architektur tens 40 Prozent mit steigender Tendenz. stellt insbesondere bei älteren Algorithmen und älterer Software eine Herausforderung dar. 4.4 Nutzung neuer Der Anstieg der Datenmengen und die verteilte Nut- Rechentechnologien zung von HPC-Ressourcen stellen auch erhöhte An- forderungen an das Management und die Vernetzung der Rechen- und Datenzentren. Gelöst werden kann Jeder Prozessor, ob im Smartphone oder in einem HPC- dies nur mit leistungsfähigeren Breitbandverbindun- System, nutzt den gleichen prinzipiellen Aufbau (von- gen oder auch der teilweisen Verarbeitung von Daten Neumann-Architektur). Bei großen HPC-Systemen bereits am Ort der Entstehung (Edge-Computing). stößt diese Architektur mittlerweile an ihre Grenzen
12 HOCH- UND HÖCHSTLEISTUNGSRECHNEN FÜR DAS DIGITALE ZEITALTER HPC-Anwendung in der Industrie Obwohl in Deutschland die Zahl der Arbeitsmaschi- nen (zum Beispiel Bau- oder Erntemaschinen) weitaus geringer ist als die Zahl der Pkw, ist deren gesamter Kraftstoffverbrauch vergleichbar. Die Arbeitsmaschi- nen müssen hohe Leistungen erbringen, haben aber teilweise einen sehr schlechten Wirkungsgrad. Um den Wirkungsgrad solcher Arbeitsmaschinen zu optimieren, werden bei ihrer Entwicklung meist reale Prototypen eingesetzt, die sämtliche Komponenten beinhalten und auf einem aufwändigen Prüfstand untersucht werden. Wesentlich schneller und effektiver gelingt dies mit virtuellen Prototypen, den sogenannten „Digitalen Zwillingen“. Hierzu wird das Gesamtverhalten der Ar- PARADOM wurden sogar komplette Fertigungsstraßen beitsmaschine virtuell auf einem Rechner nachgebildet. simuliert und hinsichtlich ihres gesamten Energiever- Allerdings sind hier leistungsfähige Rechner notwendig. brauchs optimiert. In den vom BMBF geförderten Projekten HPC-OM und und führt zu Einbußen bei der Prozessorleistung: Zum Zudem können Quantencomputer vorab im Rechner einen konkurrieren Daten und Verarbeitungsbefehle simuliert und erforscht werden. in den Prozessoren um die gleichen Ressourcen. Zum anderen ist die Verarbeitungsgeschwindigkeit viel stär- Parallel zur Erforschung und Entwicklung neuartiger ker gestiegen als die Geschwindigkeit, mit der Daten Rechnertechnologien werden diese zukünftig auch in innerhalb (und außerhalb) von Prozessoren verschoben herkömmliche HPC-Systeme integriert. Die Entwick- werden können. Zusammen führt dies dazu, dass vor lung solch extrem heterogener Systeme stellt allerdings allem große Datenmengen nicht optimal verarbeitet völlig neue Anforderungen sowohl an Hard- als auch werden können. Software. Aktuell eröffnen sich verschiedene Ansätze für grund- legend neue Technologien des Rechnens: Zum einen 4.5 Technologische Souveränität in durch neuartige Bauelemente wie Memristoren, zum Europa anderen durch disruptive Konzepte des Beyond- von-Neumann-Trends, wie beispielsweise Rechnen- im-Speicher und neuromorphe Chips. Völlig neue Der Treiber für digitale Innovationen sind Daten und Möglichkeiten eröffnet auch die Entwicklung von deren Verarbeitung, die oft erst durch HPC- und KI- Quantencomputern. Techniken möglich wird. Big-Data-, Machine-Learning- und Data-Analytics-Anwendungen werden – auch Das HPC nimmt bei der Erprobung bzw. Nutzung für kleine und mittlere Unternehmen (KMU) – immer neuer Rechentechnologien wie Quanten- und neuro- wichtiger. Für Unternehmen spielen die Anforderun- morphem Computing eine wichtige Rolle ein. So sind gen an Sicherheit und Vertraulichkeit eine große Rolle. HPC-Systeme vorteilhaft für die Systemsteuerung und Auch müssen sich Anwendungen nahtlos in die unter- die Vor- und Nachbereitung der Daten im Rahmen nehmensinternen Abläufe eingliedern, um wirtschaft- hybrider HPC-Quantencomputing-Systemansätze. lich und produktiv zu sein. Nur durch eigene Forschung
Herausforderungen 13 und Entwicklung können Deutschland und Europa digitale Innovationen ermöglichen und technologisch souverän agieren. Beim Einstieg in das High-Performance-Computing stehen Anwendende aus der Industrie aber oftmals vor hohen Hürden. Programme, die auf kleineren, weniger leistungsfähigen Rechnern lauffähig sind, sind nicht ohne weiteres auf große Systeme übertragbar, weil leistungsfähige Supercomputer spezielles Know-how erfordern. Es fehlt in den Unternehmen an entspre- chenden Kompetenzen und passenden Unterstüt- zungsangeboten bzw. an Anforderungen der Industrie zugeschnittenen Services und Transferaktivitäten der HPC-Zentren. Nur der Aufbau eigener Kompetenzen steigert Wettbewerbsfähigkeit und technologische Souveränität. Bei der Entwicklung neuer Rechnertechnologien sowie zukünftiger energieeffizienter Exascale-Systeme ist Europa vor allem bei Hochleistungsprozessoren und Netzwerktechnologien von Lieferungen und Know- how von außerhalb der EU abhängig. Eine Bündelung der europäischen Expertise kann dazu genutzt werden, einseitigen Abhängigkeiten entgegenzuwirken und so die technologische Souveränität auszubauen. So können Deutschland und Europa auch in internationa- len Kooperationen ihren Zugang zu Hochtechnologie sichern.
14 HOCH- UND HÖCHSTLEISTUNGSRECHNEN FÜR DAS DIGITALE ZEITALTER 5 Ziele Aus den grundlegenden Thesen zur Bedeutung von 5.1 Deutschland als Spitzenreiter HPC für Forschung, Wertschöpfung und technolo- positionieren gischer Souveränität und den damit verbundenen Herausforderungen leiten sich fünf übergeordnete Ziele des Programms ab. Die Vernetzung mit anderen Das BMBF wird sich – gemeinsam mit den Bundeslän- Programmen der Bundesregierung und die Verzahnung dern – dafür einsetzen, das deutsche HPC-Ökosystem mit den Programmen der EU sichern dabei die Kohä- weiterhin an der Spitze zu halten. Dazu gehören das renz aller Maßnahmen. umfangreiche Leistungsangebot für die Anwender- gruppen, die hohen Kompetenzen in Software- und Hardwaretechnologien und der wirksame Transfer in die Wirtschaft. Energieeffizientes HPC Supercomputer stellen extreme Rechenleistung für viele Anwendungsbereiche zur Verfügung. Ihr Betrieb benötigt jedoch sehr viel Energie. Ein Höchstleistungs- rechenzentrum verbraucht etwa 30 Millionen kWh pro Jahr – so viel wie eine deutsche Kleinstadt. Die meiste Energie verbrauchen die vielen tausend Prozessoren. Ein Beitrag zu mehr Energieeffizienz können sogenann- te FPGAs (Field Programmable Gate Array, feldpro- grammierbare Logikgatter) sein. Im Gegensatz zu den üblichen Universalprozessoren kann die Schaltung eines FPGA dynamisch verändert werden, wodurch sich kostengünstiger als einen Spezialprozessor herstellen ein FPGA optimal an den zu berechnenden Algorithmus zu lassen. Um FPGAs auch in HPC-Systeme integrieren anpassen kann. Diese Spezialisierung führt zu einem zu können, wird intensiv an der anwendungsfreund- wesentlich geringeren Stromverbrauch. Allerdings eig- lichen Programmierung geforscht, unter anderem in nen sich FPGAs nicht für alle Rechenaufgaben und ihre dem BMBF-geförderten Projekt ORKA-HPC. Neben der Programmierung ist komplex. direkten Steigerung der Energieeffizienz von Super- computern sind die Forschungsergebnisse auch für Üblicherweise werden FPGAs in eingebetteten Syste- die Nutzung von FPGAs in eingebetteten Systemen men genutzt. Dies ist dort wesentlich einfacher und relevant.
Ziele 15 5.2 Exzellente und innovative 5.4 Technologische Souveränität und Forschungsergebnisse ermöglichen Energieeffizienz stärken In Deutschland soll der Bedarf an Rechenzeit für exzel- Das BMBF will auch künftig leistungsfähige Infra- lente wissenschaftliche Projekte flächendeckend und strukturen für exzellente Wissenschaft und innovative zeitnah bedient werden können. Auch wissenschaftli- Wertschöpfung in Deutschland zur Verfügung stellen. che Communities mit Bedarf an Rechenzeit vor allem Dazu müssen die technologischen Grundlagen von für die Analyse großer Datenmengen und KI-Anwen- HPC, sowohl die Hardware als auch die nötige Software, dungen sollen mit passenden Angeboten an Rechenres- weiterentwickelt werden. Dies sichert zum einen die sourcen ihre Forschung auf Spitzenniveau durchführen souveräne Beherrschung der nötigen Technologien zur können. Für alle Vorhaben müssen die vorhandenen aktiven Gestaltung der Digitalisierung. Zum anderen Ressourcen hocheffizient ausgenutzt werden. Dazu gilt qualifiziert es deutsche und europäische Unternehmen es auch, die technologischen Hürden zwischen HPC im weltweiten Wettbewerb. Die Beschaffung und Nut- und der Analyse großer Datenmengen abzubauen und zung konkurrenzfähiger europäischer Technologien HPC für Künstliche Intelligenz weiterzuentwickeln. im HPC unterstützt diese Unternehmen zusätzlich und trägt zur Wertschöpfung in Deutschland und Europa bei. 5.3 Innovative Wertschöpfung in Deutschland ermöglichen Die Steigerung der Effizienz von Informations- und Kommunikationstechnologien ist ein übergreifendes Ziel der Bundesregierung. Dazu ist es notwendig, die Unternehmen, insbesondere KMU, sollen künftig Energieeffizienz beim HPC mit ganzheitlichen An- intensiver die vorhandenen HPC-Kompetenzen der sätzen zu erhöhen. Konzepte und Maßnahmen sollen Wissenschaft in Deutschland und Europa einsetzen, auch auf kommerzielle Rechner und Rechenzent- um innovative Produkte und Dienstleistungen zu ren ausstrahlen und helfen, die IKT-Infrastruktur in entwickeln. Es gilt, die Hürden für den Einsatz von HPC Deutschland effizienter und nachhaltiger zu gestalten. abzubauen und gemeinsam mit Unternehmen Kompe- tenzen aufzubauen. Dabei muss berücksichtigt werden, dass die Wirtschaft großen Wert auf vertrauenswürdige und einfach nutzbare HPC-Anwendungen legt. Dies trägt nicht nur zu innovativer Wertschöpfung, sondern auch zu digitaler und technologischer Souveränität Deutschlands bei.
16 HOCH- UND HÖCHSTLEISTUNGSRECHNEN FÜR DAS DIGITALE ZEITALTER 6 Maßnahmen Um den anstehenden Herausforderungen im HPC zu Wissenschaft und Wirtschaft, die Zugänglichkeit eines begegnen und die Programmziele zu erreichen, wird europaweit differenzierten HPC-Angebotes für alle das BMBF eine Reihe von Maßnahmen umsetzen. Für Nutzenden sowie die Förderung von Softwaretechno- den langfristigen Erfolg ist eine enge Verzahnung der logien. Die europaweite Vergabe von Rechenzeit für die Maßnahmen und eine Abstimmung mit den relevanten Wissenschaft soll auf bewährte und exzellenzgeleitete Akteurinnen und Akteuren wichtig. Insgesamt wird das Verfahren setzen. Durch Entwicklung europäischer BMBF in den Jahren 2021–2024 306 Mio. Euro für das Hardware- und Softwaretechnologien soll EuroHPC Programm aufwenden. Das BMBF strebt an, weitere zur technologischen Souveränität beitragen. Mittel insbesondere für den Exascale-Ausbau bereitzu- stellen. Diese Mittel werden erheblich verstärkt durch Durch die Abstimmung sowohl mit den Ländern als Kofinanzierungen der Länder in Höhe von 225 Mio. auch auf europäischer Ebene strebt das BMBF die An- Euro und der Europäischen Union in Höhe von über schlussfähigkeit und Komplementarität der nationalen 50 Mio. Euro. und internationalen Maßnahmen an. Kurz gesagt 6.1 Mit den Ländern eng Was wollen wir erreichen: zusammenarbeiten ∙ Nationale und europäische Maßnahmen ergänzen sich. ∙ Deutsche Partner beteiligen sich umfangreich an Die HPC-Leistungspyramide in Deutschland wird von Maßnahmen von EuroHPC. Bund und Ländern in unterschiedlichen Konstellatio- ∙ Deutschland nimmt beim HPC eine führende Rolle nen getragen. Die enge Abstimmung mit den Ländern ist in Europa ein. daher ein Erfolgsfaktor für die bundesweite Versorgung mit Rechenleistung auf allen Ebenen der Leistungspyra- Wie wollen wir unsere Erfolge messen: mide und für einen umfassenden Kompetenzausbau. ∙ Anzahl der Nutzenden aus Deutschland an europäi- schen Systemen und umgekehrt ∙ Deutsche Beteiligung an und die Koordination von 6.2 Europäisches Ökosystem europäischen Verbundvorhaben weiterentwickeln ∙ Rückfluss von EU-Mitteln nach Deutschland Das BMBF setzt sich im Rahmen von EuroHPC für eine 6.3 Möglichkeiten erweitern führende Rolle der deutschen Einrichtungen und für die Förderung exzellenter und strategisch wichtiger Vorhaben ein. Zentrale Anliegen sind die Ausrich- Um den weiterhin steigenden Bedarf an Rechenzeit zu tung von EuroHPC am Bedarf der Anwendenden aus bedienen, müssen die Kapazitäten auf allen Ebenen der
��������� 17 Leistungspyramide kontinuierlich ausgebaut werden. wachsenden Bedarfen von Forschung und Wirtschaft Das BMBF wird – gemeinsam mit den Ländern – den gerecht wird. Im Vordergrund steht dabei die reale Ausbau der Kapazitäten im GCS, beim NHR und in den Anwendungsleistung für die Nutzungsgruppen und die nationalen Kompetenzzentren für KI-Forschung weiter effiziente Auslastung der Systeme. fördern. Zu dem umfassenden Ausbau gehört zum einen die Entscheidend sind dabei nicht Spitzenplatzierungen Beschaffung von Systemen der höchsten Leistungsklas- in der populären Weltrangliste der Supercomputer se, zum anderen die Weiterentwicklung der Rechner (sogenannte „Top-500-Liste“), sondern ein wohldiffe- infrastruktur an den Zentren. Den Ausbau wird das renziertes System an Rechnern verschiedener Leis- BMBF gemeinsam mit den Ländern Bayern, Baden- tungskategorien und Spezialfähigkeiten, die an den Württemberg und Nordrhein-Westfalen paritätisch Bedarfen der Nutzenden ausgerichtet sind. Dazu gehört finanzieren. auch, dass praktikable Software sowie die für das Com- puting und die Aufbereitung der Daten, Modelle und Für das erste deutsche Exascale-System unterstützt das Ergebnisse nötigen Werkzeuge zur Verfügung stehen BMBF eine Bewerbung des GCS auf einen europäisch (siehe 6.6 Neue Technologien erforschen). Nur in dieser kofinanzierten Rechner im Rahmen von EuroHPC. Gesamtheit können HPC-Kapazitäten in der Breite ge- Als Standort wird das Jülich Supercomputing Centre nutzt werden und ihr volles Potenzial für Wissenschaft, angestrebt. Dieser europäische Exascale-Rechner wird Wirtschaft und Gesellschaft entfalten. anteilig Anwendungsgruppen aus ganz Europa offen- stehen. Damit soll Deutschland eine technologische Ausbau der Spitzenleistung Vorreiterrolle für die anspruchsvollsten Anwendungen Das BMBF strebt an, die Kapazitäten an allen Standor- in Europa übernehmen. ten des GCS – Jülich, München und Stuttgart – weiter auszubauen. Der alternierende Ausbau und die enge Möglichkeiten für Hochschulen und Vernetzung soll jederzeit die Verfügbarkeit von Spit- Forschungseinrichtungen erweitern zenleistung in Deutschland und eine kontinuierliche Auf Ebene 2 der Leistungspyramide wird das BMBF Erneuerung der Systeme sichern. An allen Standorten ab 2021 jährlich bis zu 31,25 Mio. Euro für den ge- soll in der Programmlaufzeit eine Leistung erreicht meinsam mit den Ländern vorangetriebenen Auf- und werden, die bis in den Exascale-Bereich hinein den Ausbau des Nationalen Hochleistungsrechnens (NHR) HPC in der Klimaforschung Wolkenbildung und Niederschlag sind entscheidende Faktoren in der Modellierung von Klima und Wetter. Die Bildung von Wolken ist aber ein hochkomplexer physikalischer Prozess und sehr aufwändig zu simu- lieren. Viele Unsicherheiten derzeitiger Klimamodelle beruhen auf fehlendem Verständnis für die Wolkenbil- dung. Um durch bessere Simulation von Wolken und Niederschlag präzisere Klimavorhersagen zu erreichen, müssen vorhandene Klimamodelle deutlich erweitert und auf Höchstleistungsrechner angepasst werden. Dies wird u. a. in der vom BMBF geförderten Initiative „High Definition Cloud and Precipitation for Advan- cing Climate Prediction HD(CP)²“ verfolgt. Hier haben sie dabei heraus, wie Wolken auf Veränderungen von Forschende mithilfe von extrem genauen Simulationen Aerosolen in der Umgebung reagieren und wie Stürme die Wolkenbildung untersucht. Unter anderem fanden durch Wolken beeinflusst werden.
18 HOCH- UND HÖCHSTLEISTUNGSRECHNEN FÜR DAS DIGITALE ZEITALTER HPC in der Teilchenphysik Die uns umgebende Materie besteht aus Molekülen und Atomen. Der Kern der Atome ist aus Neutronen und Protonen aufgebaut, die sich wiederum aus noch kleineren Materiebausteinen zusammensetzen, den Quarks. In umfangreichen Experimenten an den größ- ten Teilchenbeschleunigern der Welt haben Wissen- schaftlerinnen und Wissenschaftler die Massen von Protonen und Neutronen untersucht. Es war bereits be- kannt, dass die gemessenen Werte nicht einfach durch die Summe der Quark-Massen erklärt werden können. Es fehlte aber eine Erklärung für dieses Phänomen. In bahnbrechenden Simulationen, durchgeführt u. a. tischen Kräften berücksichtigt werden. So konnte die auf Supercomputern in Deutschland, konnte das Rätsel geringe Massedifferenz zwischen dem Proton und Neu- gelöst werden. Bei der Berechnung der Massen müssen tron erklärt werden. Durch die Computersimulationen alle Wechselwirkungen der Quarks nicht nur unterein ist es gelungen, physikalische Phänomene der kleinsten ander, sondern auch zum Beispiel mit elektromagne- Bausteine des Universums aufzuklären. an Hochschulen zur Verfügung stellen. Diese werden bedarfsgerecht auf die für ihre Forschung benötigte durch Mittel der Länder in gleicher Höhe ergänzt. Die Rechenkapazität zugreifen. Mittel dienen der Finanzierung des NHR-Verbundes, der Beschaffung von Rechnern und Rechnerinfra- KI-Entwicklung unterstützen struktur sowie dem Betrieb und der wissenschaftlichen Angewandte KI-Forschung ist sehr stark von der Fachberatung für die Anwenderinnen und Anwender. Verfügbarkeit von Rechenkapazitäten abhängig, die Dabei wird eine möglichst breite Abdeckung aller das schnelle Erproben neuartiger oder angepasster Anwendungsbereiche von HPC angestrebt. Weitere Verfahren für innovative Vorhaben der KI-Forschung Aufgaben des NHR sind die Stärkung der Methoden- ermöglicht. Durch den Aufbau einer leistungsstarken kompetenz der Nutzerinnen und Nutzer, die Förderung IT-Infrastruktur im Netzwerk der nationalen Kom- des wissenschaftlichen Nachwuchses, die Aus- und petenzzentren für KI-Forschung will das BMBF dazu Weiterbildung sowie die Förderung und Weiterent- beitragen, einen international konkurrenzfähigen wicklung des wissenschaftlichen Rechnens. Bund und Forschungsverbund auf höchstem Niveau zu eta Länder entwickeln so die fachlichen und methodischen blieren. Bestehen soll diese IT-Infrastruktur einerseits Stärken von Hochleistungsrechenzentren in einem aus Experimentalsystemen, welche die Entwicklung nationalen Verbund weiter. von KI-Algorithmen unterstützen, und andererseits aus Systemen zur hochperformanten Datenanalyse Hinzu kommen die Investitionen der durch das BMBF (HPDA), die die Daten zur Erprobung von neuen KI- institutionell geförderten Forschungseinrichtungen Algorithmen bereitstellen. Diese Systeme werden der für ihre eigenen Rechenzentren, die zu Ebene 2 und gesamten KI-Forschung in Deutschland zur Verfügung 3 der Leistungspyramide zählen. Diese sind meist für gestellt und können um neue Rechnertechnologien spezielle Forschungsfelder konzipiert und beschränken erweitert werden. deshalb ihre Rechenzeit auf bestimmte Anwendungen. Ausbau auf Bedarfe und Herausforderungen Forschende an Hochschulen und außeruniversitären zuschneiden Einrichtungen können damit deutschlandweit und Das BMBF unterstützt eine Beschaffung, die auf jeder
Sie können auch lesen