GCSnews SUPERCOMPUTING AT THE LEADING EDGE - Gauss Centre for Supercomputing
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
GCSnews Nr. 033 SUPERCOMPUTING AT THE LEADING EDGE Sept 2021 Inhalt HLRS-Rechner Hawk jetzt mit Partition für Künstliche Intelligenz 1 ● Gemeinsames virtuelles Labor AIDAS von CEA und FZJ implementiert 2 ● Erdbeobachtungsdaten für die Forschung: terrabyte 2 ● Herausforderungen bei der Vorhersage von COVID-19 3 ● Positionspapier zu HPC-Technologien von morgen 4 ● Künstliche Intelligenz für eine sichere Automatisierung 4 ● Forschungsprojekte am LRZ zum Thema Wasserqualität 5 ● Zehn Jahre Nachhaltigkeits- strategie am HLRS 5 ● Entwirrung des Schaltverhaltens von Membranrezeptoren 6 ● In- terpretation biomolekularer Daten mit Hilfe von Schwarmintelligenz 6 ● JSC-Rechenressourcen ermöglichen bahnbrechende Turbulenz-Simulationen 7 ● MPI und das nächste Leistungslevel fürs High-Performance Computing 8 ● Zum 2. Mal virtueller PRACE Summer of HPC am JSC 8 HAWK JETZT MIT PARTITION FÜR KÜNSTLICHE INTELLIGENZ sich die Rechnerarchitektur des HLRS-Supercomputers von einer reinen Zentralrechnertechnolo- gie zu einer Hybrid-Plattform, wodurch er insbesondere für Deep-Learning-Anwendungen optimiert ist. Neue Arten von Arbeitsabläufen, die Simulati- on unter Nutzung von Höchst- leistungsrechnen (High-Perfor- mance Computing, HPC) mit Big-Data-Methoden kombinie- ren, sind damit nun möglich. Mit der Integration von GPUs in Der HLRS Supercomputer Hawk wurde um neue GPUs erweitert, die Künstliche die bestehende CPU-Infrastruk- Intelligenz Anwendungen unterstützen. © HLRS tur von Hawk freuen sich Infor- matiker:innen am HLRS auch Das HLRS hat die Erweiterung Ampere Architektur basieren, auf die Zusammenarbeit mit seines Supercomputers Hawk wurden installiert und für den seinen Systemnutzer:innen bei um eine Partition für Künstliche operativen Betrieb freigege- der Entwicklung neuer hybrider Intelligenz (KI) abgeschlossen. ben. Durch die Erweiterung von Rechen-Workflows, die traditio- 192 NVIDIA A100 Grafik-Prozes- Hawk, die eine KI-Leistung von nelle Simulationsmethoden mit soren (GPUs), die auf der NVIDIA 120 Petaflops bietet, wandelte KI-Ansätzen integrieren. (Link) Gauss Centre for Supercomputing | Regina Weigand | Public Relations ++49 (0)711 685-87261 | r.weigand@gauss-centre.eu | www.gauss-centre.eu 1
GCSnews 33|Sept 2021 SUPERCOMPUTING AT THE LEADING EDGE GEMEINSAMES VIRTUELLES LABOR AIDAS VON CEA UND FZJ IMPLEMENTIERT Das Forschungszentrum Jülich (FZJ) und die CEA Paris bündeln ihre Kräfte und werden ihre Zusam- menarbeit auf dem Gebiet der künstlichen Intelli- genz, Datenanalyse und skalierbaren Simulation (AIDAS) ausbauen. Zu diesem Zweck unterzeichne- ten François Jacq, Generaladministrator der franzö- sischen Kommission für alternative Energien und Atomenergie (CEA), und Prof. Wolfgang Marquardt, Vorstandsvorsitzender des FZJ, eine Vereinbarung für das gemeinsame virtuelle Labor AIDAS. Ziel von François Jacq (CEA, links)) und Prof. Wolfgang Marquardt AIDAS ist es, die Simulation in Europa voranzubrin- (FZJ) bei der Unterzeichnung des Abkommens. © CEA / Frédéric Baton & FZJ / Ralf-Uwe Limbach gen, indem die Partner ihr Fachwissen im Bereich der Numerik mit Blick auf Künstliche Intelligenz (KI), Quantencomputing und Hoch- und Höchstleis- in Europa. Im Rahmen von AIDAS werden sie ska- tungsrechnen (HPC) zusammenführen. Bislang sind lierbare und optimierte Anwendungscodes in ausge- rund 70 Wissenschaftler in AIDAS vertreten. Das wählten wissenschaftlichen Bereichen entwickeln, Labor wird von Christophe Calvin und France Boil- den potenziellen Nutzen neuer und zukünftiger lod-Cerneux vom CEA und Prof. Thomas Lippert und Computerarchitekturen erforschen und die syner- Prof. Kristel Michielsen vom Jülich Supercomputing getische interdisziplinäre Entwicklung und Nutzung Centre am FZJ geleitet. – CEA und FZJ arbeiten seit von generischen Methoden und Algorithmen für das langem auf dem Gebiet des HPC zusammen, sowohl Exascale Computing fördern. Darüber hinaus sollen in HPC-basierten Anwendungsbereichen als auch attraktive Programmier- und Benutzerumgebungen bei der Entwicklung von HPC-Spitzentechnologien entwickelt werden. ERDBEOBACHTUNGSDATEN FÜR DIE FORSCHUNG: TERRABYTE terrabyte ist die innovative Hoch- (DLR) in Oberpfaffenhofen mit in- leistungsdaten-Plattform des telligent verwaltetem Online-Spei- Deutschen Zentrums für Luft- cherplatz von rund 50 Petabyte und Raumfahrt (DLR) und des sowie den Supercomputern des Leibniz-Rechenzentrums (LRZ) LRZ in Garching. der Bayerischen Akademie der Wissenschaften. Die Plattform • Sie bietet eine Alternative zu macht Erdbeobachtungsdaten kommerziellen Daten-Clouds und für die Forschung zugänglich und erfüllt alle Sicherheits- und Da- bietet praktische Werkzeuge zu tenschutz-Forderungen. deren Auswertung: • Die Daten von terrabyte sol- • Sie verbindet über eine 10 len breit genutzt werden, neben Gigabit/s-Leitung das Satelliten- dem DLR werden bald auch die Die Hochleistungsdaten-Plattform daten-Archiv des Deutschen Zen- Universitäten in München und terrabye am LRZ © LRZ trums für Luft- und Raumfahrt Bayern darauf zugreifen. Gauss Centre for Supercomputing | Regina Weigand | Public Relations ++49 (0)711 685-87261 | r.weigand@gauss-centre.eu | www.gauss-centre.eu 2
GCSnews 33|Sept 2021 SUPERCOMPUTING AT THE LEADING EDGE „Wir übertragen intern die Da- Verarbeitung von Massendaten. die Entwicklung von Städten: ten mit 300 Gigabyte pro Sekun- Die Plattform zeigt außerdem die Zurzeit senden acht Copernicus de, das eröffnet neue Möglich- wachsende Bedeutung von Spei- Sentinel-, die US-amerikanischen keiten für ihre Prozessierung“, chervolumen für die Forschung. Landsat sowie die Radar-Satel- sagt Dieter Kranzlmüller, Leiter In immer mehr Wissenschafts- liten des DLR pro Tag rund 19 des LRZ. „Die Zusammenarbeit bereichen sollen Daten heute Terabyte an Daten über den mit dem DLR ist eine willkom- unkompliziert erreichbar sein aktuellen Zustand der Erde zu mene Herausforderung für uns. und idealerweise vor Ort verar- uns. Das entspricht in etwa 4750 Bei terrabyte geht es nicht nur beitet werden.“ Extremwetter, Spielfilmen oder 123,5 Millionen um sehr große Rechenkapazi- Dürren, schmelzende Gletscher, Dokumentseiten. (Link) täten, sondern vor allem um die die Erosion der Küsten, sogar HERAUSFORDERUNGEN BEI DER VORHERSAGE VON COVID-19 © FZ Jülich Kurzfristige Vorhersagen der s41467-021-25207-0), ana- eine gute Abdeckung, d. h. das COVID-19-Fallzahlen für einen lysieren Jan Meinke und Jan 50%-Konfidenzintervall deckt Zeitraum von 1 bis 4 Wochen Fuhrmann vom JSC zusammen etwa 50% der Daten ab. Die können ein wertvolles Instru- mit Kolleg:innen aus Europa Vorhersagen des Ensembles ment sein, um zu entscheiden, und den USA ihre Vorhersagen, sind konkurrenzfähig mit der welche Maßnahmen erforder- die für Deutschland und Polen besten Einzelmodellvorhersage lich sind, um eine Überbelegung im Rahmen des deutsch-pol- und scheinen weniger anfällig von Krankenhausbetten und In- nischen Vorhersagezentrums für Ausreißer zu sein. Die Bei- tensivstationen zu verhindern. während der zweiten Welle von träge zur deutsch-polnischen Aber wie gut ist die Qualität COVID-19 (12.10.–19.12.2020) Vorhersage sind nun auch im dieser Vorhersagen? Im Artikel gesammelt wurden. Die Leistung European Covid-19 Forecast „A pre-registered short-term der Einzelvorhersagen wird mit Hub enthalten. forecasting study of COVID-19 der Qualität von Ensemblevor- in Germany and Poland during hersagen verglichen, die die the second wave“, veröffent- Einzelvorhersagen kombinie- licht in Nature Communication ren. Das Konfidenzintervall der (Bracher et al., DOI: 10.1038/ Ensemble-Vorhersage bietet Gauss Centre for Supercomputing | Regina Weigand | Public Relations ++49 (0)711 685-87261 | r.weigand@gauss-centre.eu | www.gauss-centre.eu 3
GCSnews 33|Sept 2021 SUPERCOMPUTING AT THE LEADING EDGE POSITIONSPAPIER ZU HPC- TECHNOLOGIEN VON MORGEN High-Performance Computing ist an einem Wende- FUTURE OF punkt: So überschrieb es ein IT-Journalist und bezieht HIGH-PERFORMANCE sich damit auf ein Positionspapier zur vom LRZ vorge- COMPUTING schlagenen integrierten Supercomputer-Architektur, das Prof. Dr. Martin Schulz beim 11. Symposium on Highly Efficient Accelerators and Reconfigurable © istockphoto.com/Natalia Darmoroz Technologies, HEART, vorstellte. Der LRZ-Direktor und seine Co-Autor:innen – u.a. LRZ-Leiter Prof. Dr. Dieter und flexiblere Architekturen. So wäre es laut den Kranzlmüller – liefern in ihrer Schrift Vorstellungen Autor:innen ideal, wenn unterschiedliche Rechenele- davon, wie die Zukunft des Rechnens aussehen mente wie ARM-Rechenkerne, Grafik-Prozessoren könnte. Die Autor:innen legen darin Schwachstellen (GPUs) und Tensor Units direkt mit anderen auf aktueller High-Performance-Computing-(HPC) Sys- dem gleichen Chip zur Verfügung stünden, wie dies teme offen. Beispielsweise kostet der Datentransfer die European Processor Inititive (EPI) untersucht. nicht nur Zeit, sondern auch viel Energie. Ferner be- Dadurch wachsen aber auch die Anforderungen an nötigen neue Forschungsgruppen wie z. B. aus den die Programmierung dieser HPC-Systeme. Die Veröf- Bereichen Machine Learning, Data Analytics oder der fentlichung stellt vor, wie diese Systeme aussehen Simulation des Quantencomputings heterogenere und wie sie programmiert werden könnten. (Link) KÜNSTLICHE INTELLIGENZ FÜR EINE SICHERE AUTOMATISIERUNG Festo, ein im baden-württembergischen Esslingen ansässiger Hersteller von Automatisierungslösun- gen, erhöht seine Investitionen in maschinelles Lernen, wozu es eine Kooperation mit dem HLRS eingegangen ist. Festo trainiert Roboter aus dem Forscher von Festo und vom HLRS nutzen eine Kombina- Automatisierungsbereich auf den sichereren, ef- tion aus Experimenten im F&E-Labor von Festo (im Bild) und Reinforcement Learning, um Roboter für die sichere fizienteren Umgang mit Menschen, indem es zur Interaktion mit Menschen in automatisierten Fertigungs- Verbesserung seines Algorithmus reinforcement prozessen zu trainieren. © Festo learning verwendet, d. h. ihn durch Feedback zu seinen Entscheidungen trainiert. Dieses Training mit Robotern und aus Experimenten im Forschungs- bedarf neben etwa 70 bis 100 Terabyte an Daten und Entwicklungslabor von Festo fokussieren. Letz- auch GPU-Beschleuniger und der entsprechenden tere bilden die Basis für die Vorstellung und Konzep- Erfahrung mit umfangreichen Simulationen. Hierzu tion neuer Arbeits- und Interaktionsmöglichkeiten greift Festo auf die HPC-Ressourcen und HPC-Exper- von Mensch und Maschine. Schließlich wird das tise des HLRS zurück. Das Team wird nicht nur die Team die Anwendungsmöglichkeiten der mithilfe „Intelligenz“ des Algorithmus durch effektives Trai- der HLRS-Ressourcen gewonnenen Erkenntnisse ning erhöhen, sondern sich auch auf die Sammlung und Daten auf reale Fertigungsszenarien optimie- aussagekräftiger Datensätze aus den Simulationen ren. (Link) Gauss Centre for Supercomputing | Regina Weigand | Public Relations ++49 (0)711 685-87261 | r.weigand@gauss-centre.eu | www.gauss-centre.eu 4
GCSnews 33|Sept 2021 SUPERCOMPUTING AT THE LEADING EDGE FORSCHUNGSPROJEKTE AM LRZ ZUM THEMA WASSERQUALITÄT Schadstoffe nachweisen und die Versorgung si- chern: Wasser ist ein kostbares Gut, nach den letzten trockenen Sommern kommt diese Er- kenntnis immer stärker in unserem Alltag an. Das Leibniz-Rechenzentrum (LRZ) ist an zwei kürzlich © istockphoto.com/Brozhinsky gestarteten Forschungsprojekten mit dem Schwer- punktthema Wasser beteiligt. K2I oder „Künstliche Intelligenz (KI) ein smartes System zur Bewertung und kollektive Intelligenz zum Spurenstoff-Tracking von Wasserqualitäten sowie zur Warnung gegen in Oberflächenwasser für eine nachhaltige Trink- Verschmutzung aufbauen. Die Studie „Nutzwas- wassergewinnung“ wird vom Bundesministerium ser“ erforscht wiederum Konzepte und Manage- für Bildung und Forschung (BMBF) mit knapp einer mentstrategien für die Wiederverwendung von Million Euro finanziert (Förderkennzeichen 02WD- Abwasser als alternative Ressource für die Bewäs- G1593A-D) und will mit Methoden der Künstlichen serung in Städten und auf dem Land. (Link) ZEHN JAHRE NACHHALTIGKEITSSTRATEGIE AM HLRS Vor zehn Jahren erfolgt unter Nach- begann das in- haltigkeitsaspek- tensive Engage- ten. Zwei neue For- ment des HLRS schungsprojekte für Umweltschutz. greifen dies eben- Zu seinem Um- so auf. So wird weltmanagement- das vom Ministe- plan gehören der rium für Umwelt, effiziente Betrieb Klima und Ener- der Rechner- und giewirtschaft Ba- Kühlsysteme und den-Württemberg die Integration von geförderte Projekt Nachhaltigkeits ENRICH (Ener- aspekten in das gie, Nachhaltig- gesamte Zentrum. © HLRS keit, Ressourcen Zudem verpflichtet effizienz in IT und sich das HLRS, seine Umweltleistung kontinuierlich Rechenzentren) einen digitalen Atlas mit Mög- zu verbessern und seine Expertise mit anderen Da- lichkeiten zur Steigerung der Energieeffizienz im tenzentren zu teilen, etwa mit dem Praxisleitfaden IT-Sektor in dem Bundesland entwickeln. Außerdem „Nachhaltigkeit in Rechenzentren“. 2020 hat das wird das HLRS mit dem Stuttgarter Institut für Ge- HLRS erstmals die Zertifizierung nach dem Eco-Ma- bäudeenergetik, Thermotechnik und Energiespei- nagement and Audit Scheme (EMAS) und dem cherung zusammenarbeiten, um neue Ansätze für Umweltzeichen Blauer Engel erhalten. Auch die die dynamische Regulierung der Kühlung seines aktuelle Planung für ein neues Rechnergebäude Supercomputers Hawk zu testen. (Link) Gauss Centre for Supercomputing | Regina Weigand | Public Relations ++49 (0)711 685-87261 | r.weigand@gauss-centre.eu | www.gauss-centre.eu 5
GCSnews 33|Sept 2021 SUPERCOMPUTING AT THE LEADING EDGE ENTWIRRUNG DES SCHALTVERHALTENS VON MEMBRANREZEPTOREN Molekulare Rezeptoren in Mem- branen steuern viele Vorgänge in lebenden Zellen und sind Ziele für Medikamente. Mem- branrezeptoren werden durch die Bindung von Botenstoffen, so genannten Liganden, akti- viert. Viele Membranrezeptoren setzen sich aus verschiedenen Untereinheiten zusammen, Links: Strukturmodell eines A4-A2-B1b-A2 CNG-Ionenkanals. Rechts: Ein hetero- von denen jede einen Ligan- tetrameres allosterisches Modell mit 16 Bindungszuständen des Ionenkanals, die den binden kann. Das macht durch 32 Gleichgewichtsassoziationskonstanten (Kxxxx) verknüpft sind, die im Rahmen dieser Forschungsarbeit bestimmt wurden. © Univ. Jena / Klaus Benndorf den Aktivierungsmechanismus komplex. In der aktuellen Ver- öffentlichung „Thermodynamic Düsseldorf, Prof. Klaus Benndorf Autoren miteinander verknüpf- profile of mutual subunit control vom Universitätsklinikum Jena ten, so dass sich 12 Konfigura- in a heteromeric receptor“ (DOI: und Prof. Eckhard Schulz von tionen mit permutierter Unter- 10.1073/pnas.2100469118) in der Hochschule Schmalkalden einheitsreihenfolge ergaben. Die den Proceedings of the National eine sehr originelle Funktions- Gruppe um Gohlke half mit mo- Academy of Sciences USA ha- analyse des Schaltverhaltens des lekularen Simulationen auf dem ben Wissenschaftler:innen um tetrameren CNG-Kanals durch- JSC-Supercomputer JUWELS, die Prof. Holger Gohlke vom JSC am geführt, der am Geruchssinn wahrscheinlichste räumliche An- Forschungszentrum Jülich und beteiligt ist. Der Kanal besteht ordnung der Untereinheiten zu der Heinrich-Heine-Universität aus vier Untereinheiten, die die verstehen. (Link) INTERPRETATION BIOMOLEKULARER DATEN MIT HILFE VON SCHWARM- INTELLIGENZ Die detaillierte Struktur von Bio- Daten sind jedoch manchmal molekülen spielt eine Schlüs- nicht eindeutig und können nicht selrolle für ihre entscheidenden einer bestimmten Struktur zu- Biomoleküle sind eine Art Schweizer Funktionen und Wechselwirkun- geordnet werden. Wissenschaft- Taschenmesser für unseren Körper gen im menschlichen Körper. Um ler des Jülich Supercomputing und erfüllen eine Vielzahl komplexer beispielsweise neue Medikamen- Centre (JSC), des Karlsruher In- und wichtiger Aufgaben. Das hervor- gehobene Protein ist an der Energie- te zu entwickeln, müssen For- stituts für Technologie (KIT), des bilanz einer Zelle beteiligt, indem es scher diese Strukturen zunächst Deutschen Krebsforschungszen- den Energieträger ATP reguliert. Im kennen und in komplexen Expe- trums (DKFZ) und der Universität Hintergrund ist das neue Modul des JSC-Supercomputers zu sehen, mit rimenten bestimmen. Die aus Duisburg/Essen haben gemein- dem ein Teil der Analysen durchgeführt den Experimenten gewonnenen sam eine KI-basierte Methode wurde. © FZJ Gauss Centre for Supercomputing | Regina Weigand | Public Relations ++49 (0)711 685-87261 | r.weigand@gauss-centre.eu | www.gauss-centre.eu 6
GCSnews 33|Sept 2021 SUPERCOMPUTING AT THE LEADING EDGE entwickelt, um solche mehrdeuti- Daten mit einem komplementä- Methode liefert somit sehr ge- gen Daten mit Hilfe von datenge- ren physikalisch basierten Com- naue Strukturen und nutzt gleich- triebenen Molekülsimulationen putermodell. Laut Marie Weiel, zeitig die verfügbaren Rechen- auszuwerten. Diese Methode Doktorandin und Hauptautorin ressourcen - in diesem Fall u.a. basiert auf dem Schwarmlernen der Studie, ist ein entscheiden- den JSC-Höchstleistungsrechner der KI-Forschung. Ein Supercom- der Bestandteil die Kommunika- JUWELS und den HPC-Cluster am puter simuliert viele Schwarm- tion zwischen den Schwarmmit- KIT - sehr effizient. Die Ergeb- mitglieder gleichzeitig auf über gliedern, um gemeinsam eine nisse wurden in der Zeitschrift 1000 Prozessoren. Jedes Mit- optimale Lösung zu finden, die Nature Machine Intelligence glied testet verschiedene Para- für die bestmögliche Interpreta- veröffentlicht (DOI: 10.1038/ meterkombinationen und Ge- tion der Daten als molekulare s42256-021-00366-3). wichtungen der experimentellen Strukturen unerlässlich ist. Die JSC-RECHENRESSOURCEN ERMÖGLICHEN BAHNBRECHENDE TURBULENZ-SIMULATIONEN Rouen) und Mathis Bode (RWTH Aachen University) federführend Intermittenz in Scherströmun- gen untersucht. Sie unterschei- den dabei zwischen interner Intermittenz, die auf kleinsten Skalen auftritt und ein charakte- ristisches Merkmal jeder vollent- wickelten turbulenten Strömung ist, und externer Intermittenz, die sich am Rand freier Scherströ- mungen manifestiert. Mit den auf den Höchstleistungsrechnern Forscher von CORIA und der RWTH Aachen University nutzten die Rechenressour- des Jülich Supercomputing Cent- cen des JSC, um interne und externe Intermittenz in turbulenten Strahlströmen zu modellieren. Das Bild zeigt die Morphologie der voll entwickelten Turbulenz im re durchgeführten Simulationen Zentrum des Strahls. © CORIA, Michael Gauding gelang es den Forschern erst- mals, eine Kopplung zwischen in- terner und externer Intermittenz Extremereignisse wie heftige bezeichnet werden, ist eine gro- nachzuweisen, diese zu quantifi- Tornados und starke Fluten sind ße Herausforderung. In jeder zieren und in die klassische Tur- zwar selten, ihre Erforschung turbulenten Strömung treten ex- bulenztheorie einzubauen. Dies ist jedoch aufgrund der unver- treme Fluktuationen auf, wobei ist ein wichtiger Schritt für die hältnismäßig starken Wirkungen deren Intensität mit steigender Vorhersage derartiger Extremer- besonders wichtig. Die Vorher- Reynoldszahl zunimmt. Mithilfe eignisse. (Link) sage solcher extremen Ereignis- hochaufgelöster und hochakku- se, die im Kontext dynamischer rater Strömungssimulationen ha- Systeme auch als Intermittenz ben Michael Gauding (Universität Gauss Centre for Supercomputing | Regina Weigand | Public Relations ++49 (0)711 685-87261 | r.weigand@gauss-centre.eu | www.gauss-centre.eu 7
GCSnews 33|Sept 2021 SUPERCOMPUTING AT THE LEADING EDGE MPI UND DAS EuroMPI 2021 NÄCHSTE LEISTUNGSLEVEL FÜRS HIGH- PERFORMANCE COMPUTING © LRZ Das Message Passing Interface Sprachen, die auf MPI aufbau- Major Release MPI-4 erschien (MPI) stand im Mittelpunkt der en, außerdem über notwendige im Juni 2021 und enthält etwa diesjährigen EuroMPI-Konferenz, Schnittstellen zu anderen Stan- 150 neue Funktionen und Me- die am 7. September 2021 mit dards in der parallelen Program- thoden, die die Nutzung sehr dem Leibniz-Rechenzentrum mierung. Natürlich ging es auch vieler Prozessoren schneller und (LRZ) als virtuellem Gastgeber um Anwendungen und deren An- effizienter machen. Die Anzahl ausschließlich online stattfand. passungen an neue, leistungs- der kommunizierenden Elemente Anwender:innen und Forschende fähigere Rechner-Architekturen wurde auf über zwei Milliarden diskutierten hier über neu vor- und Netzwerke: MPI goes Exasca- erhöht und die Fehlerkorrektur geschlagene Konzepte des Pro- le. In diesem Jahr zeichnete Prof. verbessert. Im Anschluss traf grammierschemas und zu den Dr. Martin Schulz, Direktor am sich das MPI Forum, das sich mit Erweiterungen des MPI-Stan- LRZ, für das Programm der Eu- Verbesserungsvorschlägen für dards, über Bibliotheken und roMPI verantwortlich. Das vierte MPI-4 beschäftigte. (Link) ZUM 2. MAL VIRTUELLER PRACE SUMMER OF HPC AM JSC Das Programm „Summer of HPC“ (SoHPC), das be- und Videopräsentationen mit anderen und werden reits zum 9. Mal stattfand, ermöglichte es über 60 so selbst zu Botschafter:innen des Supercomputing Universitätsstudierenden aller wissenschaftlichen an ihren jeweiligen Einrichtungen. Disziplinen, zwei Monate lang mit PRACE-Partneror- In diesem Jahr wurden innerhalb des virtuell durch- ganisationen zusammenzu- geführten Programms drei Studenten, nämlich Arthur arbeiten. Ziel des SoHPC- Guillec (Frankreich), Tristan Michel (Frankreich) und Programms ist es nicht Marc Túnica (Spanien), vom JSC betreut, um Erfah- nur, den Studierenden die rungen im Forschungsalltag aus erster Hand zu sam- Möglichkeit zu geben, in ei- meln. Nach einer Online-Schulungswoche für alle nem multidisziplinären und Teilnehmer:innen, die vom Irish Centre for High-End internationalen Umfeld an Computing in Dublin veranstaltet wurde, begannen Forschungsprojekten zu ar- die drei Studenten gemeinsam mit der Arbeit an den beiten, sondern auch, die ihnen zugewiesenen Projekten am JSC. Arthur und wissenschaftliche Kultur unter der nächsten Ge- Tristan arbeiteten an der Parallelisierung der Fast neration von Forschenden zu fördern und zu ver- Multipole Methode mit HPX, während Marc sich mit breiten. Damit soll erreicht werden, dass die am High-Performance Quantum Fields beschäftigte. Ihre Programm teilnehmenden Studierenden die Com- Ergebnisse stellten sie in zwei Videopräsentationen puterwissenschaftler:innen von morgen sind. Die vor, die unter https://bit.ly/3C1PoqS und https:// Teilnehmer:innen teilen ihre Erfahrungen in Blogs bit.ly/3lEk7Uv zu finden sind. Gauss Centre for Supercomputing | Regina Weigand | Public Relations ++49 (0)711 685-87261 | r.weigand@gauss-centre.eu | www.gauss-centre.eu 8
Sie können auch lesen