97889 64456 72312 47532 85224 72311 99738 05314 18822 88877 83701 91188 72106 98803 83485 70762 67561 00923 55229 06479 57972 59061 74949 93171 14807 03728 86417 14924 55271 76483 09709 80826 48003 69756 41326 33857 90179 16007 50123 74390 32549 30315 44217 63317 75601 80709 41762 62320 18455 61834 28274 17965 11564 40730 97515 38882 00045 18375 34435 87730 65633 86354 42635 03181 37624 00288 29224 98754 64198 42645 13159 80277 57942 84214 09885 11406 37363 27238 16160 82824 82750 03902 45252 98749 86602 85405 74120 11069 70749 63642 54482 33973 81058 25338 11638 53184 38067 75862 58160 05931 81160 94118 63131 11678 37627 13358 15577 41533 20376 02073 54475 97260 40548 91470 84971 47067 00960 20371 54295 32383 70544 08125 72446 96640 07075 16165 30869 08344 20223 85830 11652 84248 58240 18720 83640 74865 63798 26432 11368 91553 98930 40390 63732 07578 52004 83379 91665 87295 27594 70342 33614 00445 56766 74846 32119 67664 51801 34739 44392 32414 80290 43295 50949 32938 59188 82226 64963 12065 07486 96473 17151 41690 05059 80565 72757 89563 68610 87113 78719 74762 26213 13426 23716 54025 70952 73308 30338 98371 80443 39662 15506 33308 53719 47268 57523 71539 98084 43052 68615 92226 35372 86296 82533 08533 12606 77475 19780 50069 42332 94775 84463 97795 86712 89454 36026 27730 87899 25252 69813 38682 Cerebras WSE-3: Superchip der dritten Generation für KI – MJRBJC

Das KI-Supercomputerunternehmen Cerebras aus Sunnyvale, Kalifornien, sagt, dass seine nächste Generation von KI-Chips im Wafer-Maßstab die Leistung der vorherigen Generation verdoppeln kann und dabei die gleiche Menge Strom verbraucht. Die Wafer Scale Engine 3 (WSE-3) enthält 4 Billionen Transistoren, eine Steigerung von mehr als 50 % gegenüber der Vorgängergeneration dank des Einsatzes neuerer Chip-Herstellungstechnologie. Das Unternehmen sagt, dass es den WSE-3 in einer neuen Generation von KI-Computern verwenden wird, die derzeit in einem Rechenzentrum in Dallas installiert sind, um einen Supercomputer mit 8 Exaflops (8 Milliarden Milliarden Gleitkommaoperationen pro Sekunde) zu bilden. Unabhängig davon hat Cerebras eine gemeinsame Entwicklungsvereinbarung mit Qualcomm abgeschlossen, die darauf abzielt, den Preis und die Leistung der KI-Inferenz um das Zehnfache zu erhöhen.

Das Unternehmen gibt an, dass der CS-3 neuronale Netzwerkmodelle mit bis zu 24 Billionen Parametern trainieren kann, mehr als das Zehnfache der Größe der derzeit größten LLMs.

Mit WSE-3 kann Cerebras seinen Anspruch behaupten, den weltweit größten Einzelchip zu produzieren. Es hat eine quadratische Form mit einer Seitenlänge von 21,5 Zentimetern und verwendet für die Herstellung eines Chips fast einen ganzen 300-Millimeter-Wafer aus Silizium. Geräte zur Chipherstellung sind im Allgemeinen auf die Herstellung von Siliziumchips beschränkt, die nicht größer als etwa 800 Quadratmillimeter sind. Chiphersteller haben begonnen, diese Einschränkung durch den Einsatz von 3D-Integration und anderen fortschrittlichen Verpackungstechnologien zu umgehen. 3D-Integration und andere fortschrittliche Verpackungstechnologien zur Kombination mehrerer Dies. Aber selbst in diesen Systemen liegt die Zahl der Transistoren im zweistelligen Milliardenbereich.

Wie immer hat ein so großer Chip überwältigende Superlative.

Transistoren

4 Billionen

Quadratmillimeter Silizium

46.225

KI-Kerne

900.000

KI-Computing

125 Petaflops

On-Chip-Speicher

44 Gigabyte

Speicherbandbreite

21 Petabyte

Netzwerk-Fabric-Bandbreite

214 Petabits

Sie können die Wirkung des Mooreschen Gesetzes in der Abfolge von WSE-Tokens sehen. Das erste, im Jahr 2019 eingeführte Modell wurde mit der 16-Nanometer-Technologie von TSMC hergestellt. Für WSE-2, das 2021 erscheint, wechselte Cerebras zum 7-nm-Prozess von TSMC. WSE-3 wird mit der 5-nm-Technologie des Gießereiriesen gebaut.

Die Anzahl der Transistoren hat sich seit dem ersten Megachip mehr als verdreifacht. Mittlerweile hat sich auch ihre Verwendung geändert. So hat sich beispielsweise die Anzahl der KI-Kerne auf dem Chip deutlich stabilisiert, ebenso wie die Speichermenge und die interne Bandbreite. Dennoch übertraf die Leistungssteigerung bei Gleitkommaoperationen pro Sekunde (Flops) alle anderen Kennzahlen.

CS-3 und das Condor Galaxy 3

Der Computer, der auf dem neuen KI-Chip CS-3 basiert, soll neue Generationen riesiger Sprachmodelle trainieren, die zehnmal größer sind als GPT-4 von OpenAI und Gemini von Google. Das Unternehmen gibt an, dass der CS-3 neuronale Netzwerkmodelle mit einer Größe von bis zu 24 Billionen Parametern trainieren kann, mehr als das Zehnfache der Größe der derzeit größten LLMs, ohne auf eine Reihe von Tricks-Software angewiesen zu sein, die andere Computer benötigen. Laut Cerebras bedeutet dies, dass die Software, die zum Trainieren eines Milliarden-Parameter-Modells auf dem CS-3 benötigt wird, genauso einfach ist wie das Training eines Milliarden-Parameter-Modells auf GPUs.

Bis zu 2.048 Systeme können kombiniert werden, eine Konfiguration, die es ermöglichen würde, das beliebte LLM Llama 70B an einem einzigen Tag von Grund auf zu trainieren. Allerdings sei nichts so Großes in Arbeit, behauptet das Unternehmen. Der erste CS-3-basierte Supercomputer, Condor Galaxy 3 in Dallas, wird aus 64 CS-3 bestehen. Wie bei seinen CS-2-basierten Schwestersystemen ist G42 aus Abu Dhabi Eigentümer des Systems. Zusammen mit Condor Galaxy 1 und 2 ergibt dies ein Array von 16 Exaflops.

„Das bestehende Condor Galaxy-Netzwerk hat einige der branchenweit führenden Open-Source-Modelle mit Zehntausenden Downloads hervorgebracht“, sagte Kiril Evtimov, CTO der G42 Group, in einer Pressemitteilung. „Durch die Verdoppelung der Kapazität auf 16 Exaflops freuen wir uns auf die nächste Innovationswelle, die Condor Galaxy-Supercomputer ermöglichen können.“

Eine Vereinbarung mit Qualcomm

Während Cerebras-Computer für das Training konzipiert sind, sagt Andrew Feldman, CEO von Cerebras, dass die Inferenz, also die Ausführung neuronaler Netzwerkmodelle, die eigentliche Grenze für die Einführung von KI darstellt. Schätzungen von Cerebras zufolge würde die Nutzung von ChatGPT durch jeden Menschen auf dem Planeten eine Billion US-Dollar pro Jahr kosten, ganz zu schweigen von der enormen Menge an Energie aus fossilen Brennstoffen. (Die laufenden Kosten sind proportional zur Größe des neuronalen Netzwerkmodells und der Anzahl der Benutzer.)

Cerebras und Qualcomm haben daher eine Partnerschaft mit dem Ziel geschlossen, die Inferenzkosten um den Faktor 10 zu senken. Cerebras sagt, dass ihre Lösung die Anwendung neuronaler Netzwerktechniken wie Gewichtsdatenkomprimierung und Sparsity (Beschneidung unnötiger Verbindungen) umfassen wird. Die von Cerebras trainierten Netzwerke würden dann effizient auf Qualcomms neuem Inferenzchip, dem AI 100 Ultra, laufen, so das Unternehmen.

Aus den Artikeln auf Ihrer Website

Verwandte Artikel im Internet

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *

302 Found

302

Found

The document has been temporarily moved.