Es ist ein Wettlauf um den Aufbau künstlicher allgemeiner Intelligenz im Gange, einer futuristischen Vision von Maschinen, die so intelligent wie Menschen sind oder zumindest in der Lage sind, viele Dinge so gut wie Menschen zu tun.

Die Verwirklichung eines solchen Konzepts – allgemein als AGI bezeichnet – ist die treibende Mission des ChatGPT-Entwicklers OpenAI und eine Priorität für die Elite-Forschungsabteilungen der Technologiegiganten Amazon, Google, Meta und Microsoft.

Es gibt auch Regierungen auf der ganzen Welt Anlass zur Sorge. Prominente KI-Wissenschaftler haben am Donnerstag in der Fachzeitschrift Science eine Studie veröffentlicht, in der sie davor warnen, dass unkontrollierte KI-Agenten mit Fähigkeiten zur „langfristigen Planung“ ein existenzielles Risiko für die Menschheit darstellen könnten.

Aber was genau ist AGI und woher wissen wir, wann es erreicht ist? Einst am Rande der Informatik angesiedelt, ist es heute ein Schlagwort, das von denen, die es verwirklichen wollen, ständig neu definiert wird.

Was ist AGI?

Nicht zu verwechseln mit der ähnlich klingenden generativen KI – die die KI-Systeme beschreibt, die hinter einer Reihe von Werkzeugen stehen, die neue Dokumente, Bilder und Töne „generieren“ – künstliche allgemeine Intelligenz ist eine nebulösere Idee.

Es handele sich nicht um einen Fachbegriff, sondern um ein „ernsthaftes, wenn auch schlecht definiertes Konzept“, hieß es Geoffrey Hintonein bahnbrechender KI-Wissenschaftler mit dem Spitznamen „Pate der KI“.

„Ich glaube nicht, dass es Einigkeit darüber gibt, was dieser Begriff bedeutet“, sagte Hinton diese Woche per E-Mail. „Ich verwende damit KI, die bei fast jeder kognitiven Aktivität, die Menschen ausführen, mindestens so gut ist wie Menschen.“

Hinton bevorzugt einen anderen Begriff – Superintelligenz – „für AGIs, die besser sind als Menschen.“

Eine kleine Gruppe von Befürwortern des Begriffs AGI wollte an die Art und Weise erinnern, wie Informatiker sich Mitte des 20. Jahrhunderts eine intelligente Maschine vorstellten. Dies geschah, bevor sich die KI-Forschung auf Teilbereiche ausdehnte, die spezialisierte, kommerziell nutzbare Versionen der Technologie weiterentwickelten – von der Gesichtserkennung bis hin zu Sprachassistenten mit Spracherkennung wie Siri und Alexa.

Die Mainstream-KI-Forschung „hat sich von der ursprünglichen Vision der künstlichen Intelligenz abgewandt, die anfangs recht ehrgeizig war“, sagte Pei Wang, Professor, der einen AGI-Kurs an der Temple University unterrichtet und 2008 bei der Organisation der ersten AGI-Konferenz mitgewirkt hat.

Das „G“ in AGI war ein Signal an diejenigen, die „immer Großes leisten wollen“. Wir wollen keine Werkzeuge schaffen. Wir wollen eine Denkmaschine bauen“, sagte Wang.

Sind wir schon bei AGI?

Ohne eine klare Definition ist es schwierig zu wissen, wann ein Unternehmen oder eine Gruppe von Forschern künstliche allgemeine Intelligenz erreicht haben wird – oder ob sie dies bereits erreicht haben.

„Ich denke, vor zwanzig Jahren wären die Menschen bereitwillig der Meinung gewesen, dass Systeme mit den Fähigkeiten von GPT-4 oder (Googles) Gemini eine allgemeine Intelligenz erreicht hätten, die mit der von Menschen vergleichbar sei“, sagte Hinton. „Die Fähigkeit, nahezu jede Frage sinnvoll zu beantworten, hätte den Test bestanden. Aber jetzt, da KI dies kann, wollen die Leute den Test ändern. »

Verbesserungen bei „autoregressiven“ KI-Techniken, die das plausibelste nächste Wort in einer Sequenz vorhersagen, kombiniert mit enormer Rechenleistung, um diese Systeme anhand von Unmengen an Daten zu trainieren, haben zu beeindruckenden Chatbots geführt, aber sie sind immer noch nicht ganz die AGI, die viele Menschen bevorzugen erhalten. Habe dran gedacht. Für den Zugriff auf AGI ist eine Technologie erforderlich, die bei einer Vielzahl von Aufgaben genauso gute Leistungen erbringen kann wie Menschen, darunter Argumentation, Planung und die Fähigkeit, aus Erfahrungen zu lernen.

Einige Forscher würden gerne einen Konsens darüber finden, wie man es messen kann. Dies ist eines der Themen eines bevorstehenden AGI-Workshops im nächsten Monat in Wien, Österreich – dem ersten auf einer großen KI-Forschungskonferenz.

„Dies erfordert wirklich die Anstrengungen und Aufmerksamkeit der Gemeinschaft, damit wir uns auf eine Art Klassifizierung von AGI einigen können“, sagte Workshop-Organisator Jiaxuan You, Assistenzprofessor an der University of Illinois in Urbana-Champaign. Eine Idee besteht darin, es in Stufen zu unterteilen, so wie Autohersteller versuchen, den Weg zwischen Tempomat und vollständig autonomen Fahrzeugen zu vergleichen.

Andere wollen es selbst herausfinden. Das Unternehmen OpenAI aus San Francisco hat seinen gemeinnützigen Vorstand – zu dessen Mitgliedern ein ehemaliger US-Finanzminister gehört – mit der Entscheidung beauftragt, wann seine KI-Systeme den Punkt erreicht haben, an dem sie „den Menschen bei der wirtschaftlich profitabelsten Arbeit übertreffen“.

„Der Vorstand bestimmt, wann wir AGI erreicht haben“, heißt es in OpenAIs eigener Erklärung seiner Governance-Struktur. Ein solcher Erfolg würde dem größten Partner des Unternehmens, Microsoft, die Rechte zur Kommerzialisierung eines solchen Systems entziehen, da die Bedingungen ihrer Vereinbarungen „nur für die Technologie vor AGI gelten“.

Ist AGI gefährlich?

Hinton sorgte letztes Jahr weltweit für Schlagzeilen, als er Google verließ und vor den existenziellen Gefahren der KI warnte. Eine am Donnerstag veröffentlichte neue wissenschaftliche Studie könnte diese Bedenken verstärken.

Sein Hauptautor ist Michael Cohen, ein Forscher an der University of California in Berkeley, der das „erwartete Verhalten allgemein intelligenter künstlicher Agenten“ untersucht, insbesondere solcher, die kompetent genug sind, „eine echte Bedrohung für uns darzustellen, indem sie für uns planen“.

Cohen machte in einem Interview am Donnerstag deutlich, dass solche langfristigen KI-Planungsmittel noch nicht existieren. Aber „sie haben das Potenzial“, da Technologieunternehmen versuchen, aktuelle Chatbot-Technologie mit bewussteren Planungsfähigkeiten zu kombinieren, indem sie eine Technik namens Reinforcement Learning nutzen.

„Einem fortschrittlichen KI-System das Ziel zu geben, seine Belohnung zu maximieren und ihm irgendwann die Belohnung zu verweigern, stellt einen starken Anreiz für das KI-System dar, Menschen aus dem Kreislauf zu nehmen, wenn es irgendeine „Gelegenheit“ hat, so die Aussage zu dem Artikel, zu dessen Co-Autoren die prominenten KI-Wissenschaftler Yoshua Bengio und Stuart Russell sowie die Rechtsprofessorin und ehemalige OpenAI-Beraterin Gillian Hadfield gehören.

„Ich hoffe, wir haben gezeigt, dass sich die Menschen in der Regierung dazu entschließen, ernsthaft darüber nachzudenken, welche Vorschriften wir genau brauchen, um dieses Problem zu lösen“, sagte Cohen. Derzeit „wissen die Regierungen nur, was diese Unternehmen ihnen mitzuteilen beschließen.“

Zu seriös, um AGI zu verlassen?

Da so viel Geld von den Versprechen von Fortschritten in der KI abhängt, ist es keine Überraschung, dass AGI auch zu einem Schlagwort für Unternehmen wird, das manchmal fast religiöse Begeisterung auslöst.

Das spaltet einen Teil der Technologiewelt zwischen denen, die argumentieren, dass sie langsam und vorsichtig entwickelt werden sollte, und anderen – darunter Risikokapitalgeber und Rapper MC Hammer –, die sich selbst zu Mitgliedern der „Beschleunigungsbefürworter“ erklärt haben.

Das 2010 gegründete und heute zu Google gehörende Londoner Startup DeepMind war eines der ersten Unternehmen, das sich explizit mit der Entwicklung von AGI beschäftigte. OpenAI folgte diesem Beispiel im Jahr 2015 mit einem sicherheitsorientierten Engagement.

Aber jetzt scheint es, als würden alle auf den Zug aufspringen. Google-Mitbegründer Sergey Brin wurde kürzlich in einem kalifornischen Veranstaltungsort namens AGI House gesehen. Und weniger als drei Jahre nach der Namensänderung von Facebook hin zur Fokussierung auf virtuelle Welten gab Meta Platforms im Januar bekannt, dass AGI ebenfalls ganz oben auf der Agenda steht.

Mark Zuckerberg, CEO von Meta, sagte, das langfristige Ziel seines Unternehmens bestehe darin, „umfassende allgemeine Intelligenz aufzubauen“, was Fortschritte im Denken, Planen, Codieren und anderen kognitiven Fähigkeiten erfordern würde. Während sich Forscher in Zuckerbergs Unternehmen schon lange auf diese Themen konzentrieren, verlagerte sich der Fokus auf eine Änderung des Tons.

Bei Amazon war es ein Zeichen der neuen Nachrichtenübermittlung, dass die Chefwissenschaftlerin der Sprachassistentin Alexa ihre Berufsbezeichnung änderte, um Chefwissenschaftlerin bei AGI zu werden.

Obwohl sie für die Wall Street nicht so greifbar ist wie generative KI, kann die Verbreitung der Ambitionen von AGI dazu beitragen, KI-Talente zu rekrutieren, die die Wahl haben, wo sie arbeiten möchten.

Bei der Wahl zwischen einem „altmodischen KI-Institut“ oder einem, dessen „Ziel der Aufbau von AGI ist“ und das über ausreichende Ressourcen dafür verfügt, würden sich viele für Letzteres entscheiden, sagte You, Forscher an der University of Illinois.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *