GCSnews - Gauss Centre for Supercomputing
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
GCSnews Nr. 034 SUPERCOMPUTING AT THE LEADING EDGE Dez 2021 Inhalt TOP500: JUWELS-Booster weiterhin in den Top-Ten 1 ● GCS-Zentren auf der Supercom- puting Conference 2021 2 ● Das HLRS feiert 25jähriges Bestehen 3 ● Ergebnisse des 26. GCS Call for Large-Scale Projects 3 ● JUWELS-Booster ist schnellster KI-Supercom- puter in Europa 4 ● LRZ: Quantencomputing stärkt das Supercomputing 4 ● Das HLRS verbessert Kapazitäten für Urgent Computing: Projekt CIRCE 5 ● The European PILOT: Pilot- projekt zur Nutzung unabhängiger lokaler und offener Technologien (JSC) 5 ● JSC an der Entwicklung der EBRAINS HealthDataCloud beteiligt 6 ● Neues NIC-Exzellenzprojekt am JSC 6 ● HLRS-Projekt DEGREE: Energieeinsparung durch effizientere Kühlung 7 ● JSC ist Partner im DFG-Projekt FMhub 7 ● Projekt HPCQS − Vorreiter für föderiertes Quanten- Supercomputing in Europa 8 ● LRZ-Video im Finale des Visualization-Showcase-Wettbe- werbs der SC21 8 ● 24. Results & Review Workshop am HLRS mit Golden-Spike-Award- Gewinner 2021 9 ● Simulation and Data Lab Astrophysics and Astronomy am JSC: Künstliche Intelligenz schärft den Blick ins All 10 ● 25 Jahre Archiv- und Backup-System am LRZ 10 ● CATALYST-Projekt: Digitalisierung des Werkstoffverhaltens von Blech 11 ● Das LRZ stellt sich in Video- und Audio-Präsentationen vor 11 TOP500, NOVEMBER 2021: JUWELS-BOOSTER DES JSC BLEIBT SCHNELLSTER SUPERCOMPUTER EUROPAS Am Eröffnungstag der SC21 wurde die inzwischen 58. Ausgabe der TOP500 publiziert, die die größ- ten High-Performance Computing (HPC) Systeme Schnellster Supercomputer Europas: Der JUWELS-Booster der Welt anhand ihrer mit dem High-Performance des Jülich Supercomputing Centre. © FZ Jülich Linpack (HPL) Benchmark erzielten Leistung führt. Das JUWELS-Booster-System des Jülich Supercom- ist weiterhin der von RIKEN und Fujitsu mitent- puting Centre (JSC) ist demzufolge weiterhin der wickelte Supercomputer Fugaku am japanischen schnellste Supercomputer Europas. Mit seiner RIKEN Center for Computational Science mit ei- theoretischen Spitzenleistung von 71 Petaflops nem HPL-Benchmarkwert von 442 Petaflops. Das rangiert das von Atos gelieferte Jülicher Rech- Perlmutter-System am NERSC (USA) auf Platz 5 nersystem in den aktuellen TOP500 auf Rang konnte seine gemessene Linpack-Leistung leicht 8. Auf den ersten zehn Plätzen in der aktuellen verbessern. Neu hinzugekommen ist auf Platz TOP500-Liste gab es nur wenige Veränderungen. 10 das bei Microsoft (USA) installierte Voya- Der weltweit leistungsfähigste Supercomputer ger-EUS2-System mit 30,05 PetaFlop/s. (Link) Gauss Centre for Supercomputing | Regina Weigand | Public Relations ++49 (0)711 685-87261 | r.weigand@gauss-centre.eu | www.gauss-centre.eu 1
GCSnews 34|Dez 2021 SUPERCOMPUTING AT THE LEADING EDGE GCS-ZENTREN AUF DER SUPERCOMPUTING CONFERENCE 2021 (SC21) Die Supercomputing Conference (SC), die größte jährlich stattfin- dende Konferenz und Ausstel- lung im Bereich des High-Perfor- mance Computing, fand dieses Jahr vom 14. bis 19. November in St. Louis, Missouri als Hybrid- Event statt. Besuchern wie Ausstellern und Konferenzpro- gramm-Mitwirkenden war es somit ermöglicht, auf der SC21 entweder virtuell oder live vor Ort vertreten zu sein. Aufgrund der pandemiebedingten Planungsun- sicherheiten hatten sich die drei GCS-Zentren Höchstleistungsre- chenzentrum Stuttgart (HLRS), Jülich Supercomputing Centre Der virtuelle Stand des JSC auf der SC21. © FZ Jülich (JSC) und Leibniz Rechenzent- rum in Garching (LRZ) allesamt JSC-Direktor Prof. Dr. Thomas derer SuperMUC-Nutzer ihre für eine ausschließlich virtuelle Lippert wurden im Rahmen die- Forschungsarbeiten aus div. Wis- Teilnahme entschieden. ser Veranstaltung Einblicke in senschaftsgebieten vorstellten. spannende Aktivitäten am JSC Ein SC21-Highlight des LRZ war Das HLRS hatte für die SC21-Kon- auf dem Weg zum Exascale-Com- die Visualisierung des Blutflus- ferenz gemeinsam mit dem puting gewährt. Dies und die ses in den Venen und Arterien HiDALGO Centre of Excellence ei- anschließende Möglichkeit, mit eines Unterarms – eine Arbeit nen virtuellen Stand geschaffen. JSC-Vertretern über verschiede- von LRZ-Mitarbeiterin Elisabeth Sein SC21-Programm beinhaltete ne Themen zu diskutieren, war Mayer und ihren Kollegen, die Themen von der COVID-19-For- alleine von rund 65 Personen es ins Finale des Wettbewerbs schung bis hin zu Entwicklungen wahrgenommen worden. Scientific Visualization Showcase im europäischen HPC-Umfeld geschafft hatte. und der Simulation von Naturka- Das LRZ hatte seinen SC21-Auf- tastrophen. Insgesamt nutzten tritt, dem Slogan der SC21 fol- Die ausführlichen Programm- mehr als 120 Personen die vom gend, unter das Thema „Science punkte und jeweiligen Aktivi- HLRS gebotenen Aktivitäten. and Beyond – How LRZ supports täten der GCS-Zentren auf der ground-breaking research“ ge- SC21 sind online einsehbar unter Das JSC, das sich auf der SC21 stellt. Auf seiner virtuellen Prä- HLRS@SC21, JSC@SC21, LRZ@ gemeinsam mit seinen Partnern sentationsplattform erhielten SC21. ParTec und der Jülich Aachen Re- Besucher:innen Zugang zu den search Alliance (JARA) ebenfalls von LRZ-Vertretern mitgestal- auf einem virtuellen Stand prä- teten SC-Sessions zu Themen sentierte, hatte u. A. zu einem rund um die Zukunft des HPC. virtuellen SC21 Get-Together Zudem wurden Links zu Prä- geladen. Unter der Leitung von sentationen angeboten, mittels Gauss Centre for Supercomputing | Regina Weigand | Public Relations ++49 (0)711 685-87261 | r.weigand@gauss-centre.eu | www.gauss-centre.eu 2
GCSnews 34|Dez 2021 SUPERCOMPUTING AT THE LEADING EDGE 25 JAHRE INNOVATION: HLRS FEIERT JUBILÄUM des Höchstleistungsrechenzentrums erörtert wur- de, folgte am späten Nachmittag ein Festakt. Zu den anwesenden und online zugeschalteten Ehren- gästen zählten der Rektor der Universität Stuttgart, Prof. Dr.-Ing. Wolfram Ressel, die Bundesministerin für Bildung und Forschung, Anja Karliczek, und der Ministerialdirektor des Ministeriums für Wissen- schaft, Forschung und Kunst Baden-Württemberg, Dr. Hans Reiter. Vertreter der Europäischen Union würdigten die Beiträge des HLRS zum Supercom- Das HLRS feierte sein Jubiläum mit einem Festakt im puting auf europäischer Ebene. Den Abschluss der hybriden Format. © HLRS Zeremonie bildeten Kurzvorträge von hochrangi- Mit einer hybriden Online-/Offline-Veranstaltung gen Vertretern mehrerer internationaler Partner feierte das HLRS am 6. Oktober 2021 sein 25-jäh- des Zentrums. Mit Blick auf die Zukunft stellte riges Bestehen. Seit seiner Gründung 1996 hat sich HLRS-Direktor Prof. Dr. Michael Resch fest, dass das HLRS zu einem international bedeutenden For- die Nachfrage nach größeren Supercomputern, das schungszentrum entwickelt. Bei der Jubiläumsfeier Aufkommen neuer Technologien – wie künstlicher brachte das Zentrum enge Partner zusammen, um Intelligenz und Quantencomputing – sowie die drin- die Beiträge des HLRS zu Wissenschaft und indus- gende Notwendigkeit, HPC umweltverträglicher zu trieller Forschung sowie Entwicklung zu betrachten. machen, drei Schlüsselfaktoren sind, die die weite- Den Podiumsdiskussionen des Vormittags, in denen re Entwicklung des HLRS im kommenden Jahrzehnt wichtige Aspekte der Geschichte und der Aktivitäten vorantreiben werden. (Link) 26. CALL FOR LARGE-SCALE PROJECTS: GCS VERGIBT 1,4 MILLIARDEN KERNSTUNDEN Mit dem 26. Call for Large-Scale Projects vergab SuperMUC-NG-System des Leibniz-Rechenzent- das GCS rund 1,4 Milliarden Rechenkernstun- rums (LRZ) für sein Projekt „Ab-initio modeling of den an anspruchsvolle nationale Forschungspro- paramagnetic active sites in Zeolites and giant jekte, die eine Unterstützung durch High-Perfor- Metal-Organic Frameworks“. Prof. Andrea Beck mance-Computing-Technologie benötigen. Die von der Universität Stuttgart und der Universität insgesamt 15 Projekte, denen die GCS-Rechen- Magdeburg wurden 120 Millionen Kernstunden zeitkommission Zugang zu den drei nationalen auf dem Hawk-System des HLRS für ihr Projekt HPC-Zentren HLRS, JSC und GCS gewährte, kom- „Large Eddy Simulation of Complex Boundary Lay- men aus den Bereichen Ingenieurwissenschaf- er Flows with Interactions“ genehmigt, und das ten, Chemie und Hochenergiephysik. Einige der Projekt „Non-perturbative Heavy Quark Effective genehmigten Simulations-Großvorhaben werden Theory“ von Prof. Jochen Heitger von der Universi- dabei von Wissenschaftler:innen betreut, die ein tät Münster wird mit 80 Millionen Kernstunden auf GCS-Large-Scale-Projekt erstmalig federführend SuperMUC-NG unterstützt. Die komplette Liste der leiten: Prof. Andreas Pöppl von der Universität mit dem 26. GCS Large-Scale Call genehmigten Leipzig erhielt 53 Millionen Kernstunden auf dem Projekte ist auf der GCS-Website einsehbar. Gauss Centre for Supercomputing | Regina Weigand | Public Relations ++49 (0)711 685-87261 | r.weigand@gauss-centre.eu | www.gauss-centre.eu 3
GCSnews 34|Dez 2021 SUPERCOMPUTING AT THE LEADING EDGE JUWELS BOOSTER IST SCHNELLSTER KI-SUPERCOMPUTER IN EUROPA Ein Forschungsteam von KI-Be- Bei den Benchmark-Wettbewer- raterinnen und -Beratern des ben handelt es sich um rechen- JSC und des Karlsruher Instituts intensive Deep-Learning-Model- für Technologie (KIT) hat die Ge- le. Das Modell Cosmoflow sagt schwindigkeit von KI-Anwendun- kosmologische Parameter aus gen (Künstliche Intelligenz) so- den Ergebnissen von kosmolo- wohl auf dem JUWELS-Booster, gischen Simulationen voraus; als auch auf dem Hochleistungs- DeepCam identifiziert Regio- rechner Karlsruhe (HoreKa) ge- nen mit tropischen Stürmen in Der JUWELS-Booster des JSC: Rang 8 in den messen. Als Beitrag zum Wett- meteorologischen Daten. Das TOP500 und schnellster KI-Supercomputer bewerb „MLPerf Training HPC“ Training beider Modelle ist recht Europas © Wilhelm-Peter Schneider für FZJ trainierten sie zwei Machine-Lear- datenintensiv. Die Datensätze ning-Modelle, wobei sie die hohe von 8 und 5 Terabyte wurden Die Beteiligung am Wettbewerb Leistung der NVIDIA A100-GPUs im Dateisystem des JSC in zwei ist das Ergebnis einer Zusam- und die Infiniband-Netzwerkver- großen HDF5-Dateien gespei- menarbeit von Forschenden bindungen in beiden Maschinen chert. Der Trainingsalgorithmus des Steinbuch Center for Su- ausnutzten. Auf JUWELS verwen- las beide Dateien nacheinan- percomputing am KIT mit der deten sie bis zu 3072 GPUs und der. Der große Hauptspeicher Helmholtz-AI, dem KI-Kooperati- erreichten mit automatischer ge- vom JUWELS-Booster sorgt da- onsnetzwerk von Helmholtz-Zen- mischter Präzision eine durch- für, dass sie nur einmal gelesen tren in ganz Deutschland. Deren schnittliche Rechenleistung von werden müssen. Das Training KI-Beratung kann helfen, neue etwa 100 PFlop/s. Dies waren die wurde mit dem ML-Framework Anwendungen der Künstlichen schnellsten und rechenintensivs- PyTorch durchgeführt, das eine Intelligenz in der Wissenschaft ten KI-Berechnungen, die jemals automatisierte gemischte Präzi- zu finden oder bestehende An- in Europa durchgeführt wurden. sion verwendet. wendungen zu verbessern. (Link) QUANTENCOMPUTING STÄRKT SUPERCOMPUTING Um das Quantencomputing in den Forschungsalltag zu bringen und weiterzuentwickeln, beschafft das Leibniz-Rechenzentrum (LRZ) einen Quantencomputer des finnisch-deutschen Startups IQM. Das BMBF fördert diesen Kauf mit mehr als 40 Mio. Euro. Der Fokus für die Weiterentwicklung im Projekt „Quantencom- puter-Erweiterung für Exascale-HPC (Q-Exa)“ liegt darauf, das High-Performance Computing (HPC) damit zu beschleunigen sowie Know-how für künftige Computer- und Informationstechnologien aufzubauen. Für Q-Exa wird erstmals in Deutschland ein 20-Qubit-Computer auf der Basis supraleitender Schaltkreise mit HPC-Ressourcen gekoppelt. Im Zusammenspiel von Supercomputing und Quantencomputing soll einerseits die neue Technologie für Wissenschaft und Wirtschaft alltagstaug- lich und kontrollierbar werden, andererseits kann das HPC deutlich höhere Leistungsstufen erreichen. Die Q-Exa-Strategie beruht auf Co-Design und Kooperation: Neben dem LRZ und IQM, sind die Firmen Atos, Anbieter von HPC- und Quantensystemen, sowie HQS Quantum Simulations beteiligt. (Link) Gauss Centre for Supercomputing | Regina Weigand | Public Relations ++49 (0)711 685-87261 | r.weigand@gauss-centre.eu | www.gauss-centre.eu 4
GCSnews 34|Dez 2021 SUPERCOMPUTING AT THE LEADING EDGE HLRS VERBESSERT KAPAZITÄTEN FÜR URGENT COMPUTING: PROJEKT CIRCE Globale Herausforderungen wie Pandemien und Naturkatastrophen verlangen schnelle Reakti- onen vonseiten öffentlicher Behörden. In dem dreijährigen Projekt Computational Immediate Response Center for Emergencies (CIRCE) wird das © Brian McGowan for Unsplash Höchstleistungsrechenzentrum Stuttgart (HLRS) eine Studie durchführen, um den Bedarf und die die als Grundlage für Prognosen dienen könnten. möglichen Anwendungen von Simulationen, Hoch- Zudem soll ermittelt werden, welche organisatori- leistungsdatenanalyse (HPDA) und künstlicher schen Verfahren erforderlich sind, um die sofortige Intelligenz (KI) in Krisensituationen zu bewerten. Verfügbarkeit der HPC-Ressourcen des HLRS in Mithilfe von Sondierungsgesprächen mit potenziel- Notsituationen zu gewährleisten. CIRCE wird vom len Partnern auf Bundes- und Landesebene wird Bundesministerium für Wissenschaft und Bildung das HLRS feststellen, welche Arten von Progno- (BMBF) und dem Ministerium für Wissenschaft, setools den größten Nutzen bringen würden und Forschung und Kunst des Landes Baden-Württem- welche Daten den Behörden zur Verfügung stehen, berg (MWK) kofinanziert. (Link) THE EUROPEAN PILOT: PILOTPROJEKT ZUR NUTZUNG UNABHÄNGIGER LOKALER UND OFFENER TECHNOLOGIEN Das JSC beteiligt sich an dem Am EUPILOT, das vom Barcelona TH E Projekt „The European PILOT: Supercomputing Center (BSC) ko- Pilot using Independent Local and Open Tech- ordiniert wird, nehmen 19 weitere akademische nologies“ (kurz: EUPILOT, oder manchmal auch und industrielle Partner aus ganz Europa teil. Das Pilot-2 genannt). Im Rahmen von EUPILOT sol- Projekt wird von EuroHPC JU (Joint Undertaking) len die RISC-V-basierten Beschleuniger, die im und den nationalen Einrichtungen der beteiligten EPI-Projekt (European Processor Initiative) ent- Partner, einschließlich des deutschen Bundes- worfen wurden, zu einem vollständigen Ökosys- ministeriums für Bildung und Forschung (BMBF), tem weiterentwickelt werden. Das Hauptziel des kofinanziert. Es startete am 1. Dezember 2021 und Projekts besteht darin, in einem Pilotsystem so- hat eine Laufzeit von dreieinhalb Jahren mit einem wohl Open-Source-Software, als auch offene und Gesamtbudget von 30 Millionen Euro. Das Jülich proprietäre Hardware zu integrieren und deren Supercomputing Centre (JSC) wird im Rahmen Tauglichkeit für reale Anwendungen zu demons- des Projekts wichtige numerische Bibliotheken trieren. Auf diese Weise soll das erste Beispiel für für das Pilotsystem portieren und Feedback zu ein Pilot-HPC-Ökosystem entstehen, das vollstän- den Architekturanforderungen als Teil des Co-De- dig in Europa entwickelt und hergestellt wird. Das sign-Prozesses geben. Die vom JSC im Rahmen Projekt verwendet einen Co-Design-Ansatz, um Bi- dieses Projekts entwickelte Software wird für die bliotheken und Anwendungen für die Plattform zu nachhaltige Unterstützung der Plattform innerhalb ermöglichen und die Leistung und Energieeffizienz der HPC-Gemeinschaft und darüber hinaus offen zu verbessern. zugänglich gemacht. (Link) Gauss Centre for Supercomputing | Regina Weigand | Public Relations ++49 (0)711 685-87261 | r.weigand@gauss-centre.eu | www.gauss-centre.eu 5
GCSnews 34|Dez 2021 SUPERCOMPUTING AT THE LEADING EDGE JSC AN DER ENTWICKLUNG DER EBRAINS HEALTHDATACLOUD BETEILIGT EBRAINS, die vom europäischen Daten zu arbeiten, die von Human Brain Project (HBP) ent- menschlichen Probanden stam- wickelte digitale Forschungsin- men. Außerdem sollen Verfahren frastruktur, bietet eine Vielzahl für die gemeinsame Nutzung der von Ressourcen zur Unterstüt- Daten und Ergebnisse festgelegt zung der Neurowissenschaften medizinische Gehirndaten er- werden. Die EBRAINS Health- und der vom Gehirn inspirierten weitern − die EBRAINS Health- DataCloud wird auf dem DSG- Forschung. Große datenwissen- DataCloud. Das Projekt wird von VO-konformen Virtual Research schaftliche Untersuchungen im Europas größtem Universitäts- Environment (VRE) an der Cha- Bereich der Neurowissenschaf- klinikum, der Charité − Univer- rité basieren, das im EU-Projekt ten und des Gesundheitswesens sitätsmedizin Berlin, koordiniert Virtual Brain Cloud entwickelt im Allgemeinen müssen sich ei- und mit 1 Million Euro gefördert. wurde, mit EBRAINS kompatibel ner wichtigen Herausforderung ist und eine sichere und skalier- stellen: Die gesamte Forschung In den nächsten zwei Jahren wird bare Datenplattform für multina- muss die Privatsphäre − und da- ein multinationales Team aus tionale Forschungsteams bietet. mit die Freiheit und die Rechte je- akademischen und industriellen Ein wichtiges Ziel des HealthDa- des und jeder Einzelnen − streng Partnern im HBP, einschließlich taCloud-Projekts ist die Födera- schützen und die Regeln der eu- des JSC, eine DSGVO-konforme, tion der Plattform und die Integ- ropäischen Datenschutzgrund- föderierte Forschungsdatenin- ration von HPC-Zentren wie dem verordnung (DSGVO) einhalten. frastruktur entwickeln. Diese JSC und anderen Standorten der Zu diesem Zweck wird EBRAINS soll neurowissenschaftliche For- Fenix-Infrastruktur als Satelliten- sein Angebot für die wissen- schungskonsortien in ganz Euro- knoten für rechenintensive Simu- schaftliche Gemeinschaft um pa in die Lage versetzen, mit sen- lations- und Analyseaufgaben. einen neuen Dienst für sensible siblen neurowissenschaftlichen (Link) NEUES NIC-EXZELLENZPROJEKT AM JSC Zweimal im Jahr vergibt die starken Verformungen zugrun- durchschnittliche Anzahl von NIC-Rechenzeitkommission den de liegen, was für die Grundla- Monomeren zwischen zwei Titel „NIC-Exzellenzprojekt“ an genforschung und die industri- aufeinanderfolgenden topologi- herausragende Simulationspro- elle Verarbeitung eine enorme schen Einschränkungen für die jekte. Im Oktober 2021 verlieh Herausforderung darstellt. Prof. Kettenbewegung. Zu diesem die Kommission diese Auszeich- Kremer und seine Gruppe un- Zweck wurde eine neue Strate- nung Herrn Prof. Dr. Kurt Kre- tersuchen diese Mechanismen, gie entwickelt, die auf der hier- mer vom Max-Planck-Institut für indem sie rheologische Expe- archischen Darstellung der Poly- Polymerforschung in Mainz für rimente mit Molekulardyna- merschmelzen beruht. Sie geht seine Arbeiten zur nichtlinearen miksimulationen nachbilden. von Blob-basierten Ketten zur Viskoelastizität von Polymer- Die Berechnungsexperimente mikroskopischen Beschreibung schmelzen. In diesem Projekt gehen von äquilibrierten Pro- aus und ist sowohl auf verein- werden die Mechanismen auf ben geschmolzener Polymere fachte Polymermodelle wie auf molekularer Ebene untersucht, aus, die viel länger sind als reale Materialien, z. B. Polysty- die der Polymerrheologie bei die Verhakungslänge − die rol, anwendbar. (Link) Gauss Centre for Supercomputing | Regina Weigand | Public Relations ++49 (0)711 685-87261 | r.weigand@gauss-centre.eu | www.gauss-centre.eu 6
GCSnews 34|Dez 2021 SUPERCOMPUTING AT THE LEADING EDGE ENERGIEEINSPARUNG DURCH EFFIZIENTERE KÜHLUNG: PROJEKT DEGREE Neben den Rechensystemen ver- ursachen deren Kühlsysteme den zweitgrößten Stromverbrauch in Rechenzentren. In dem neuen Projekt DEGREE, das vom Institut für Gebäudeenergetik, Thermo- technik und Energiespeicherung (IGTE) der Universität Stuttgart und dem Höchstleistungsrechen- zentrum Stuttgart (HLRS) initiiert wurde, werden Forschende einen neuen Ansatz testen: Ziele sind es, die Energieeffizienz durch ei- nen Kühlungsmix aus freier Küh- lung und aktiver Kühlung sowie gleichzeitig das Verhältnis zwi- schen der Temperatur des Kühl- Das DEGREE-Optimierungsproblem, vereinfacht dargestellt kreislaufs und der bestmöglichen © Universität Stuttgart Leistung des Rechensystems zu optimieren. Dazu wird ein Leitfa- und umzusetzen. Die Integration entstehen, zu senken. DEGREE den für Rechenzentrumsbetrei- dieser Ansätze soll dazu beitra- wird mit einer Laufzeit von zwei ber entwickelt, um die dynami- gen, den Energieverbrauch und Jahren von der Deutschen Bun- sche Kühlungsregelung in ihren die CO2-Emissionen, die durch desstiftung Umwelt (DBU) geför- eigenen Einrichtungen zu testen die Kühlung von Rechenzentren dert. (Link) JSC IST PARTNER IM DFG-PROJEKT FMHUB Moderne Supercomputer eilen Mit unabhängigen und entkop- Der Code wird zusammen mit von einem Rechnerleistungs- pelten Software-Komponenten Werkzeugen zu Versionskontrolle, rekord zum nächsten. Diese wird eine einfachere Wiederver- Fehlermonitoring, Continuous In- sind derzeit nur durch eine ste- wendbarkeit, Wartbarkeit und tegration und Deployment sowie tig steigende Komplexität und Portabilität erst möglich. Das einer umfassenden Dokumenta- Parallelität der Hardware zu neue, von der DFG geförderte tion zur Verfügung gestellt. Das erreichen. Daran muss Simu- Projekt FMhub zielt darauf ab, Projekt startete im September lationssoftware immer wieder der wissenschaftlichen Gemein- und hat eine Laufzeit von drei angepasst und erweitert wer- schaft eine quelloffene, schnelle Jahren. Projektpartner sind ein den. Um redundante Arbeiten Multipolmethode (FMM) in Form Team am Jülich Supercomputing zu vermeiden und Nachhaltigkeit einer flexiblen C++-Bibliothek na- Centre sowie Prof. Dr. Matthias zu erzielen, sind modulare Lö- mens FMSolvr zur Berechnung Werner von der Technischen Uni- sungen in der HPC-Softwareent- von Coulomb-Wechselwirkungen versität Chemnitz, Fakultät für wicklung ein wichtiger Ansatz. zur Verfügung zu stellen. Informatik. Gauss Centre for Supercomputing | Regina Weigand | Public Relations ++49 (0)711 685-87261 | r.weigand@gauss-centre.eu | www.gauss-centre.eu 7
GCSnews 34|Dez 2021 SUPERCOMPUTING AT THE LEADING EDGE PROJEKT HPCQS − VORREITER FÜR FÖDERIERTES QUANTEN-SUPERCOMPUTING IN EUROPA Millionen Euro über 4 Jahre, das beiden 100+-Qubit-Quantensi- zu gleichen Teilen von EuroHPC mulatoren zu implementieren. JU und den teilnehmenden Mit- Außerdem wird die Programmier- gliedsstaaten finanziert wird. Das plattform für den Quantensimu- Projekt startete am 1. Dezember lator entwickelt. Sie basiert auf Mit dem Projekt „High-Perfor- 2021. zwei europäischen Softwareent- mance Computer and Quantum wicklungen, der Quantum Lear- Simulator hybrid“ (HPCQS) tritt Die nahtlose Integration von ning Machine (QLM)™ von Atos Europa in eine neue Ära des hy- Quantenhardware in klassische und der ParaStation Modulo™ briden Quanten-Hochleistungs- Rechenressourcen zur Schaffung von ParTec. Zusammen ermögli- rechnens ein. Ziel ist es, zwei eines Hybridsystems ist ein we- chen diese Technologien erstma- Quantensimulatoren mit jeweils sentlicher Schritt nach vorn, um lig die tiefe, latenzarme Integra- über 100 Qubits eng mit zwei die Leistung von Quantencompu- tion von Quantensimulatoren in europäischen Supercomputern tern für erste praktische Anwen- klassische modulare HPC-Syste- – dem HPC-System Joliot Curie dungen zu nutzen. Am JSC ist me. Darüber hinaus wird HPCQS von GENCI, das am CEA/TGCC HPCQS eine konsequente Fort- an der Einführung eines vollstän- betrieben wird, und dem modu- setzung der Bemühungen von digen hybriden Software-Stacks laren Supercomputer JUWELS JUNIQ, der JUelicher Nutzer-Infra- arbeiten. Dazu gehören der am Jülich Supercomputing Cen- struktur für Quantencomputing, Cloud-Zugang, die Ressourcen- tre (JSC) – zu verbinden. Das zur Etablierung enger hybrider verwaltung für hybride Arbeits- Infrastrukturprojekt ist Teil der Quanten-HPC-Simulationen. Prof. lasten, Tools und Bibliotheken, Forschungs- und Innovationsakti- Dr. Kristel Michielsen vom JSC, einschließlich Benchmarking und on „Advanced pilots towards the einem der fünf beteiligten euro- Zertifizierung sowie Leistungs- European exascale Supercom- päischen HPC-Zentren, koordi- analyse. Die Einbeziehung der puters“ und wird gefördert durch niert das Projekt. Nutzenden in die Mitgestaltung das European High-Performan- wird zu Prototypanwendungen für ce Computing Joint Undertaking HPCQS wird eine öffentliche Aus- maschinelles Lernen und wissen- (EuroHPC JU). HPCQS verfügt schreibung für innovative Lösun- schaftliche Simulationen führen. über ein Gesamtbudget von 12 gen (PPI) durchführen, um die (Link) VISUALIZATION SHOWCASE: SUPERCOMPUTING IN MEDIZIN UND PHARMAFORSCHUNG Die Visualisierungsarbeit von weltweit besten sechs wissen- und Informatiker Prof. Dr. Peter Elisabeth Mayer, Mitarbeiterin schaftlichen Visualisierungen im Coveney, gelang es den Spezi- im Zentrum für Virtuelle Reali- Wettbewerb Scientific Visualiza- alist:innen vom LRZ, den Blut- tät und Visualisierung (V2C) des tion Showcase. Gemeinsam mit fluss in den Venen und Arterien LRZ, schaffte es auf der interna- ihrem LRZ-Kollegen Salvatore eines Unterarms zu modellieren tionalen Konferenz Supercom- Cielo und einer Arbeitsgruppe und dreidimensional zu veran- puting 2021 (SC21) unter die um den britischen Mediziner schaulichen. Die Visualisierung Gauss Centre for Supercomputing | Regina Weigand | Public Relations ++49 (0)711 685-87261 | r.weigand@gauss-centre.eu | www.gauss-centre.eu 8
GCSnews 34|Dez 2021 SUPERCOMPUTING AT THE LEADING EDGE ist Teil des internationalen For- schungsprojekts CompBioMed, welches die Digitalisierung in der Medizin voranbringen soll. Mit Supercomputern wie dem HPC-System SuperMUC-NG soll anhand von Messwerten, Daten und Abbildungen ein le- bender Mensch simuliert und visualisiert werden. Im Projekt Medikamente beschleunigt. For- Eine zweidimensionale Sicht in den Un- „Virtual Human“ wird durch das schende von CompBioMed und terarm: Die in weiß-grau dargestellten Arterien versorgen den Arm bis zu den Zusammenspiel smarter Mus- Expert:innen des LRZ bauten Fingerspitzen mit frischem Blut, durch tererkennung und Supercom- innovative Screening-Prozesse die bunten Venen fließt das sauer- puting-Software zudem auch auf und testeten diese am Su- stoffarme Blut zurück in Richtung Herz. © V2C, LRZ/CompBioMed die Suche nach Wirkstoffen für perMUC-NG in Garching. (Link) 24. RESULTS & REVIEW WORKSHOP AM HLRS UND GOLDEN SPIKE AWARDS 2021 Anfang Oktober kamen wissenschaftliche Nutzer:in- • Markus Scherer, Institut für Hydromechanik, nen von HPC-Systemen am HLRS und am Steinbuch Karlsruher Institut für Technologie. Projekt: Se- Centre for Supercomputing des Karlsruher Instituts condary flow and longitudinal sediment patterns für Technologie (KIT) virtuell zusammen, um auf in turbulent channel flow over a bed of mobile dem jährlich stattfindenden Results & Review Work- particles in domains of small to intermediate size shop des HLRS ihre neuesten Forschungsergebnis- se zu präsentieren und Erfahrungen bei der Opti- • Jakob Dürrwächter, Institut für Aerodynamik und mierung der Leistung und Skalierbarkeit ihrer Codes Gasdynamik, Universität Stuttgart. Projekt: Un- zu diskutieren. Die Online-Veranstaltung umfasste certainty quantification in high order computati- 26 wissenschaftliche Vorträge und eine virtuelle onal fluid dynamics Vorstellung mit 22 Postern, die sich mit computer- gestützter Forschung in einem breiten Spektrum • Daniel Mohler, GSI Helmholtzzentrum für Schwer- wissenschaftlicher Disziplinen befassten, darunter ionenforschung GmbH, Darmstadt. Projekt: Had- u. A. Strömungsdynamik, reaktive Strömungen, ronic contributions to the anomalous magnetic Wetter- und Klimasimulation, Materialforschung, moment of the muon from lattice QCD Informatik, Bioinformatik, Molekulardynamik, Physik und Strukturmechanik. Wie in den vergangenen Jahren werden die Ergeb- nisse des Workshops in einem Band des Springer Zum Abschluss des Workshops zeichnete der Vize- Verlags veröffentlicht. (Link) präsident des HLRS-Lenkungsausschusses, Prof. Dr. Dietmar Kröner (Universität Freiburg), drei Pro- Auszeichnung des HLRS für jekte und ihre Vortragenden als Gewinner der Gol- herausragende den Spike Awards 2021 aus. Mit dieser Trophäe wissenschaftliche werden traditionell herausragende wissenschaftli- Forschung: Der Golden Spike che Anwendungen und der Einsatz von Hoch- und Award © HLRS Höchstleistungsrechnern gewürdigt: Gauss Centre for Supercomputing | Regina Weigand | Public Relations ++49 (0)711 685-87261 | r.weigand@gauss-centre.eu | www.gauss-centre.eu 9
GCSnews 34|Dez 2021 SUPERCOMPUTING AT THE LEADING EDGE SIMULATION AND DATA LAB ASTROPHYSICS AND ASTRONOMY AM JSC: KÜNSTLICHE INTELLIGENZ SCHÄRFT DEN BLICK INS ALL Auf der Suche nach fernen Ga- künstliche Intelligenz helfen, Das wesentliche Ziel der Allianz laxien, schnell rotierenden Neu- aus der Datenflut die spannen- ist die Vernetzung von Wissen tronensternen und schwarzen den Signale des Universums he- und die Koordination der Akti- Löchern sammeln Radioastro- rauszufiltern. Zu diesem Zweck vitäten von Radioastronom:in- nom:innen immer größere Da- haben sich acht Institutionen nen, Datenwissenschaftler:in- tenmengen. Die nächste Gene- in Nordrhein-Westfalen unter nen und Industriepartnern. Das ration von Radioteleskopen wird der Leitung des Max-Planck-In- JSC-Team wird vor allem daran Daten in einer Größenordnung stituts für Radioastronomie arbeiten, die Simulationen und erzeugen, die mit dem gesam- (MPIfR) zum „NRW-Cluster für Beobachtungen enger zu ver- ten heutigen Internetverkehr datenintensive Radioastro- knüpfen und Algorithmen und vergleichbar ist. Die Forschen- nomie: Big Bang to Big Data“ Hardware-Konzepte für die zu den suchen daher nach völlig (B3D) zusammengeschlossen: erwartende Datenflut zu entwi- neuen Wegen, um diese Da- Das „Simulation and Data Lab ckeln. Das Land NRW fördert tenflut zu bewältigen. Künftig Astrophysics and Astronomy“ am das B3D-Projekt mit bis zu drei sollen maschinelles Lernen und JSC ist Teil dieses Konsortiums. Millionen Euro. (Link) 25 JAHRE ARCHIV- UND BACKUP- SYSTEM AM LRZ: 110 PETABYTE GESICHERTER DATEN 40 Millionen Sicherheitskopien und der gleichen Software von Früher wurde das Wissen in Bücher geschrieben, heute lagert es in Band aus rund 5000 Computeranla- IBM. Nur der Name wechselte laufwerken und Tapes. gen: Das LRZ in Garching spei- öfter. Anfangs hieß die Software © W. Baur/LRZ chert zurzeit rund 110 Petabyte Adstar Distributed Storage Ma- an Daten aus Forschungsinsti- nager, ADSM, jetzt Spectrum Speichermedium bleiben. Kon- tutionen. Das Archiv- und Back- Protect oder ISP.“ Zurzeit verfügt zerne wie Amazon, Google, upsystem (ABS) besteht heute das ABS noch über 15 Petabyte Microsoft bauen darauf – eine aus 20 Servern, 5 Bandrobo- freie Kapazität, 2022 erweitert Garantie, dass die Technologie tern, 126 Bandlaufwerken und das LRZ den Datenspeicher. Baur weiterentwickelt wird.“ Außerdem 2300 Festplatten und fasst rund rechnet nicht mit großen techni- bleibe die Datensicherung unver- 125 Petabyte Daten. Obwohl es schen Veränderungen, Bänder zichtbarer Bestandteil des (Su- in den letzten 25 Jahren stetig bleiben Standard: „Die Unter- per)Computings: „Selbst wenn wuchs, blieb die Speichertechnik schiede bei der Übertragungs- die Primärspeichermedien eine im Wesentlichen gleich: „Zwar geschwindigkeit und bei den absolute, unbefristete Haltbar- hat sich die Hardware stark ver- Kapazitäten werden zwar immer keit garantierten“, meint Baur, ändert“, sagt Werner Baur, der kleiner“, beobachtet der Spei- „braucht man weiterhin Backups mit seinem Team das ABS be- cher-Spezialist. „Für sehr große als Schutz gegen Cyberkriminali- treut. „Der Dienst läuft trotzdem Datenmengen aber wird das Tape tät oder menschliches Fehlver- noch mit dem gleichen Konzept noch lange das wirtschaftlichste halten.“ (Link) Gauss Centre for Supercomputing | Regina Weigand | Public Relations ++49 (0)711 685-87261 | r.weigand@gauss-centre.eu | www.gauss-centre.eu 10
GCSnews 34|Dez 2021 SUPERCOMPUTING AT THE LEADING EDGE CATALYST-PROJEKT: DIGITALISIERUNG DES WERKSTOFFVERHALTENS VON BLECH Die Fertigung von Tiefzieh- sind sehr kosten- und zeitauf- 2 Mrd. Simulationen des Werk- werkzeugen, die Blech in eine wändig, sodass dafür HPC-Si- stoffverhaltens zu erstellen. Auf PKW-Seitenwand umformen, mulationen genutzt werden. Basis dieser Daten können die setzt ingenieurwissenschaft- Forschende des Instituts für Um- Forschenden durch Deep-Lear- liches Verständnis voraus, wie formtechnik der Universität Stutt- ning-Methoden ein neuronales sich das Material unter physikali- gart und des CATALYST-Projekts Netz darauf trainieren, das Ver- schen Belastungen während des am HLRS evaluieren Möglich- halten diverser Metallarten zu Herstellungsprozesses verhält. keiten, um die Materialdaten für evaluieren und zu definieren. Das Die Anwendung physischer Mo- die Umformsimulation zugängli- daraus resultierende vereinfach- delle zur Konstruktion von Um- cher und akkurater zu machen. te Modell könnte als Werkzeug formwerkzeugen und die expe- Unter Berücksichtigung des re- in der Blechproduktion und -ver- rimentelle Feinabstimmung der alistischen Materialverhaltens arbeitung angewandt werden. Parameter von Pressenlinien wird HPC eingesetzt, um bis zu (Link) DAS LRZ STELLT SICH IN VIDEO- UND AUDIO- PRÄSENTATIONEN VOR Prof. Dr. Dieter Kranzlmüller, Leiter des Leibniz-Re- Prof. Dieter Kranzlmüller (LRZ) belegte seinen Vortrag chenzentrums (LRZ) in Garching, hatte sich im Rah- „Rechnen mit Warp-Speed“ mit beeindruckenden Zahlen © Deutsches Museum men der vom Deutschen Museum veranstalteten Vortragsreihe „Wissenschaft für jedermann“ der Herausforderung gestellt, das komplexe Thema Su- Prof. Dr. Helmut Reiser, stellvertretender Leiter percomputing anschaulich zu beleuchten. In seinem des Leibniz-Rechenzentrums, berichtet in einem Vortrag „Rechnen mit Warp-Speed“ erläuterte er Podcast von Cisco, Ingram Micro, über die Arbeit die Entwicklung, die Hintergründe und den Nutzen und die Dienste, die das LRZ nicht mehr nur in von High Performance Computing (HPC): Was ist München und Bayern, sondern Forscher:innen auch eigentlich ein Supercomputer? Wie funktioniert er? deutschland- und europaweit zur Verfügung stellt. Warum wirkt ein Supercomputer wie ein Turbo für „Überall, wo in München Forschung und Lehre die moderne Wissenschaft? An konkreten Beispie- draufsteht, ist das Münchner Wissenschaftsnetz len aus der Astrophysik bis zur Zoologie erklärte (MWN) und das LRZ dabei“, erklärt Prof. Reiser. Prof. Kranzlmüller, wie Forscher:innen den am LRZ Nebenbei erfahren Zuhörende, warum das LRZ betriebenen Höchstleistungsrechner SuperMUC-NG seine Rechner mit warmem Wasser kühlt, wie man einsetzen und welche Erkenntnisse sie damit ge- mehr als 311.000 Prozessoren beschafft und wie winnen. Der Mitschnitt seines Vortrags ist auf dem der nächste Supercomputer am LRZ, SuperMUC-NG YouTube-Kanal des Deutschen Museums in voller Phase 2, aufgebaut werden wird. Länge abrufbar. Gauss Centre for Supercomputing | Regina Weigand | Public Relations ++49 (0)711 685-87261 | r.weigand@gauss-centre.eu | www.gauss-centre.eu 11
Sie können auch lesen