OpenAI Mit der Einführung von GPT-4 im vergangenen Jahr gelang dem Unternehmen der jüngste große Durchbruch in der künstlichen Intelligenz, indem es die Größe seiner Modelle in schwindelerregende Ausmaße steigerte. Das Unternehmen kündigte heute einen neuen Durchbruch an, der einen Wandel in der Herangehensweise signalisiert: ein Modell, das viele schwierige Probleme logisch „begründen“ kann und deutlich intelligenter ist als bestehende KI, ohne dass eine größere Aktualisierung erforderlich ist.

Das neue Modell mit dem Namen OpenAI o1 kann Probleme lösen, die bestehende KI-Modelle blockieren, einschließlich des leistungsstärksten Modells von OpenAI, GPT-4o. Anstatt eine Antwort in einem Schritt zu finden, wie es bei großen Sprachmodellen normalerweise der Fall ist, geht es das Problem durch und denkt dabei laut nach, wie eine Person es tun würde, bevor es zum richtigen Ergebnis kommt.

„Das ist unserer Meinung nach das neue Paradigma dieser Modelle“, sagte Mira Murati, CTO von OpenAI, gegenüber WIRED. „Es ist viel effektiver bei der Bewältigung sehr komplexer Denkaufgaben. »

Das neue Modell trägt innerhalb von OpenAI den Codenamen Strawberry und ist kein Nachfolger von GPT-4o, sondern vielmehr eine Ergänzung, so das Unternehmen.

Laut Murati baut OpenAI sein nächstes Mastermodell, GPT-5, das deutlich größer sein wird als sein Vorgänger. Wenn das Unternehmen jedoch immer noch davon überzeugt ist, dass die Skalierung dazu beitragen wird, neue Fähigkeiten aus der KI zu extrahieren, sollte GPT-5 auch die heute eingeführte Argumentationstechnologie umfassen. „Es gibt zwei Paradigmen“, erklärt Murati. „Das Skalierungsparadigma und dieses neue Paradigma. Wir hoffen, sie zusammenzubringen. »

LLMs erstellen ihre Antworten typischerweise aus riesigen neuronalen Netzen, die mit riesigen Mengen an Trainingsdaten gespeist werden. Sie können bemerkenswerte sprachliche und logische Fähigkeiten an den Tag legen, haben aber traditionell Schwierigkeiten, überraschend einfache Probleme zu lösen, wie zum Beispiel rudimentäre mathematische Fragen, die logisches Denken erfordern.

Laut Murati verwendet OpenAI o1 Reinforcement Learning, bei dem einem Modell positives Feedback gegeben wird, wenn es die richtigen Antworten erhält, und negatives Feedback, wenn dies nicht der Fall ist, um seinen Denkprozess zu verbessern. „Das Modell verfeinert sein Denken und verfeinert die Strategien, mit denen es zur Antwort gelangt“, erklärt sie. Reinforcement Learning hat es Computern ermöglicht, Spiele mit übermenschlichen Fähigkeiten zu spielen und nützliche Aufgaben wie das Entwerfen von Computerchips auszuführen. Diese Technik ist auch eine Schlüsselkomponente bei der Umwandlung eines LLM in einen nützlichen und gut funktionierenden Chatbot.

Mark Chen, Vizepräsident für Forschung bei OpenAI, demonstrierte das neue Modell bei WIRED und löste damit mehrere Probleme, die das Vorgängermodell GPT-4o nicht lösen konnte. Zu diesen Aufgaben gehörten eine fortgeschrittene Chemiefrage und das folgende Mathe-Rätsel: „Eine Prinzessin ist das Alter, das der Prinz erreichen wird, wenn die Prinzessin doppelt so alt ist wie der Prinz, wenn das Alter der Prinzessin halb so alt ist wie die Summe ihres aktuellen Alters.“ . Wie alt sind der Prinz und die Prinzessin? » (Die richtige Antwort ist, dass der Prinz 30 Jahre alt und die Prinzessin 40 Jahre alt ist).

“DER [new] „Bei dem Modell geht es darum, zu lernen, selbstständig zu denken, anstatt zu versuchen, die Denkweise von Menschen nachzuahmen“, wie es bei einem herkömmlichen LLM der Fall ist, sagt Chen.

OpenAI behauptet, sein neues Modell schneide bei einer Reihe von Problemen deutlich besser ab, darunter solche mit Schwerpunkt auf Codierung, Mathematik, Physik, Biologie und Chemie. Bei der American Invitational Mathematics Examination (AIME), einem Test für Mathematikstudenten, löste GPT-4o nach Angaben des Unternehmens durchschnittlich 12 Prozent der Aufgaben richtig, während o1 83 Prozent richtig löste.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *