OpenAI und Microsoft arbeiten mit Oracle zusammen, um mehr Rechenkapazität für die Ausführung von ChatGPT zu gewinnen. In einer diese Woche angekündigten Partnerschaft arbeiten die drei Unternehmen zusammen, damit OpenAI die Azure Al-Plattform von Microsoft auf der Infrastruktur von Oracle nutzen kann.
Sam Altman, CEO von OpenAI, scheut sich nicht, anzuerkennen, dass sein Unternehmen viel mehr Infrastruktur benötigt, um seine Dienste zu betreiben. Er nahm sogar an Gesprächen teil, um Milliarden von Dollar für ein KI-Chip-Projekt aufzubringen. In der Pressemitteilung zum Oracle-Deal dieser Woche sagte er, dass die Chips von Oracle „OpenAI in die Lage versetzen werden, sich weiterzuentwickeln.“
Bisher hat sich OpenAI bei seinen Computeranforderungen vollständig auf Microsoft verlassen. Im Gegenzug investierte Microsoft 13 Milliarden US-Dollar, um einen Anteil von 49 % an der gewinnorientierten Tochtergesellschaft von OpenAI und das ausschließliche Recht zur kommerziellen Lizenzierung seiner Technologie zu erwerben. Aber wie dieser Deal mit Oracle deutlich macht, benötigt OpenAI mehr Rechenleistung, als Microsoft allein bereitstellen kann, um die Nachfrage zu decken und zukünftige ChatGPT-Ausfälle zu vermeiden.
Microsoft und OpenAI reagieren eindeutig sensibel darauf, wie dieser Deal mit Oracle wahrgenommen wird. Am Mittwoch veröffentlichte OpenAI eine Folgeerklärung, in der es hieß, dass „unsere strategische Cloud-Beziehung mit Microsoft unverändert bleibt“ und dass die neue Partnerschaft „OpenAI in die Lage versetzt, die Azure AI-Plattform auf der OCI-Infrastruktur für Inferenzen und andere Zwecke zu nutzen“. (Inferenz bezieht sich auf den Vorgang des Ausführens von KI-Modellen in der Produktion über Anwendungen wie ChatGPT.)
OpenAI machte außerdem deutlich, dass das Vortraining seiner bahnbrechenden Modelle „weiterhin auf Supercomputern stattfindet, die in Zusammenarbeit mit Microsoft gebaut wurden“.