In den letzten Jahren ist das Supercomputing in die Exascale-Ära eingetreten, wobei die massereichsten Maschinen der Welt in der Lage sind, mehr als eine Milliarde Operationen pro Sekunde durchzuführen. Wenn es jedoch nicht zu großen Effizienzsteigerungen entlang der exponentiellen Wachstumskurve kommt, wird erwartet, dass die Datenverarbeitung auch zunehmend unpraktische und nicht nachhaltige Energiemengen benötigt – laut einer häufig zitierten Studie sogar bis 2040 mehr Energie als die gesamte aktuelle globale Produktion.

Glücklicherweise konzentriert sich die High-Performance-Computing-Community mittlerweile nicht nur auf die Steigerung der Leistung (gemessen in rohen Petaflops oder Exaflops), sondern auch auf eine höhere Effizienz, also eine Erhöhung der Anzahl der Operationen pro Watt.

Auf der Green500-Liste landeten einige Neulinge auf den ersten drei Plätzen, was darauf hindeutet, dass einige der neuesten Hochleistungssysteme der Welt möglicherweise mindestens ebenso sehr nach Effizienz wie reiner Leistung streben.

Das neueste Ranking von Top500 Supercomputer (eine Liste der leistungsstärksten Maschinen der Welt) und sein Cousin, der Grün500 (eher eine Rangliste der effizientesten Maschinen der Welt) wurde letzte Woche veröffentlicht. Die Top 10 der 500 größten Supercomputer bleiben praktisch unverändert, angeführt vom Frontier-Exascale-Computer des Oak Ridge National Laboratory. In den Top 10 gibt es nur einen Neuzugang, nämlich auf Platz 6: das Schweizerische Nationalzentrum für wissenschaftliches Rechnen Alpensystem. Inzwischen Argonne National Laboratory Dämmerung verdoppelte seine Größe, behielt aber seinen zweitrangigen Rang.

Auf der anderen Seite schafften es in der Green500-Liste einige Neulinge auf die ersten drei Plätze, was darauf hindeutet, dass einige der neuesten Hochleistungssysteme der Welt möglicherweise mindestens ebenso sehr nach Effizienz wie reiner Leistung streben.

An der Spitze der neuen Green500-Liste stand JEDI, das Prototypsystem des Jülich Supercomputing Centre für seinen kommenden Exascale-Computer JUPITER. Die Plätze 2 und 3 gingen an die University of Bristol. Isambard AIauch die erste Phase eines größeren geplanten Systems und die Helios-Supercomputer von der polnischen Organisation Cyfronet. An vierter Stelle steht der Spitzenreiter der vorherigen Liste, der Henri von der Simons Foundation.

Ein Trichter läuft hindurch

Die ersten drei Systeme auf der Green500-Liste haben eines gemeinsam: Sie sind alle mit gebaut Grace Hopper von Nvidia Superchips, eine Kombination aus der Hopper-GPU (H100) und der Grace-CPU. Es gibt zwei Hauptgründe, warum die Grace-Hopper-Architektur so effektiv ist, sagt Dion Harris, Leiter der beschleunigten Markteinführungsstrategie für Rechenzentren bei Nvidia. Der erste ist der Grace-Prozessor, der von der höheren Leistungsleistung der ARM-Befehlssatzarchitektur profitiert. Darüber hinaus, sagt er, enthält es eine Gedächtnisstruktur namens LPDDR5Xdas häufig in Mobiltelefonen zu finden ist und auf Energieeffizienz optimiert ist.

Nahaufnahme des NVIDIA-Logos auf ComputergerätenNvidias Superchip GH200 Grace Hopper, der hier in der Jülicher JEDI-Maschine zum Einsatz kommt, treibt nun die drei effizientesten HPC-Systeme der Welt an. Juliers Intensivrechenzentrum

Der zweite Vorteil des Grace Hopper ist laut Harris eine neu entwickelte Verbindung zwischen der Hopper-GPU und der Grace-CPU. Die Verbindung nutzt die Nähe von CPU und GPU auf einer Karte und erreicht eine Bandbreite von 900 Gigabit pro Sekunde, etwa siebenmal schneller als die neuesten PCIe-Gen5-Verbindungen. Dadurch kann die GPU schnell auf den CPU-Speicher zugreifen, was besonders für hochparallele Anwendungen wie KI-Training oder graphische neuronale Netze wichtig ist, sagt Harris.

Die ersten drei Systeme verwenden Grace Hoppers, aber Jülichs JEDI liegt immer noch mit deutlichem Vorsprung an der Spitze: 72,7 Gigaflops pro Watt, verglichen mit 68,8 Gigaflops pro Watt beim Zweitplatzierten (und 65,4 Gigaflops pro Watt beim vorherigen Champion). Das JEDI-Team führt seinen weiteren Erfolg auf die Art und Weise zurück, wie es seine Chips miteinander verbunden hat. Ihre Verbindungsstruktur stammte ebenfalls von Nvidia (Quantum-2 InfiniBand) und nicht von der HPE Slingshot, die von den beiden anderen High-End-Systemen verwendet wird.

Das JEDI-Team nennt auch spezifische Optimierungen, die es vorgenommen hat, um dem Green500-Benchmark zu entsprechen. Neben der Verwendung aller neuesten Nvidia-Geräte reduziert JEDI mit seinem Kühlsystem die Energiekosten. Anstatt Luft oder gekühltes Wasser zu verwenden, zirkuliert JEDI heißes Wasser durch seine Rechenknoten, um überschüssige Wärme abzuleiten. „Unter normalen Witterungsbedingungen kann überschüssige Wärme durch Freikühlgeräte aufgenommen werden, ohne dass eine zusätzliche Kaltwasserkühlung erforderlich ist“, erklärt Benedikt von St. Vieth, Leiter der Berechnungsabteilung Höchstleistung in Juliers.

JUPITER wird die gleiche Architektur wie sein Prototyp JEDI verwenden, und von St. Vieth sagt, dass das Ziel darin besteht, einen Großteil der Energieeffizienz des Prototyps beizubehalten, wenn auch in größerem Maßstab, fügt er hinzu, dass mehr Energie in der Verbindungsstruktur verloren gehen könnte.

Das Wichtigste ist natürlich die Leistung dieser Systeme bei realen wissenschaftlichen Aufgaben, nicht nur beim Green500-Benchmark. „Es war wirklich aufregend zu sehen, wie diese Systeme online gehen“, sagt Harris von Nvidia. „Aber noch wichtiger ist, dass wir meiner Meinung nach wirklich gespannt sind, wie die Wissenschaft aus diesen Systemen hervorgeht [the energy efficiency] wird sich stärker auf die Anwendungen selbst auswirken als auf den Benchmark.

Aus den Artikeln auf Ihrer Website

Verwandte Artikel im Internet

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *