In letzter Zeit haben wir KI-Ausfälle in viel größerem Ausmaß gesehen. Im jüngsten (urkomischen) Fauxpas weigerte sich Googles Gemini, Bilder von weißen Menschen, insbesondere von weißen Männern, zu erstellen. Stattdessen konnten Benutzer Bilder von schwarzen Päpsten und weiblichen Nazi-Soldaten generieren. Google hatte versucht, seine Modellergebnisse weniger verzerrt zu gestalten, aber das ging nach hinten los, und das Technologieunternehmen befand sich schnell mitten in Amerikas Kulturkriegen, wobei konservative Kritiker und Elon Musk ihm vorwarfen, „aufgewacht“ zu sein. voreingenommen und gibt die Geschichte nicht genau wieder. Google entschuldigte sich und sperrte die Funktion.
In einem weiteren mittlerweile berühmten Vorfall berichtete der Bing-Chat von Microsoft New York Times Journalist verlässt seine Frau. Und Kundenservice-Chatbots verursachen weiterhin alle möglichen Probleme für ihre Unternehmen. Beispielsweise war Air Canada kürzlich gezwungen, einem Kunden gemäß einer von seinem Kundendienst-Chatbot entwickelten Richtlinie eine Rückerstattung zu leisten. Die Liste geht weiter.
Technologieunternehmen beeilen sich, KI-basierte Produkte auf den Markt zu bringen, obwohl es zahlreiche Beweise dafür gibt, dass diese schwer zu kontrollieren sind und sich oft unvorhersehbar verhalten. Dieses seltsame Verhalten tritt auf, weil niemand genau weiß, wie oder warum Deep Learning, die grundlegende Technologie hinter dem aktuellen KI-Boom, funktioniert. Dies ist eines der größten Rätsel in der KI. Mein Kollege Will Douglas Heaven hat gerade einen Artikel veröffentlicht, in dem er sich mit dem Thema befasst.
Das größte Rätsel ist, wie große Sprachmodelle wie Gemini und GPT-4 von OpenAI lernen können, etwas zu tun, was ihnen nicht beigebracht wurde. Sie können ein Sprachmodell für mathematische Probleme auf Englisch trainieren, ihm dann französische Literatur zeigen und von dort aus lernen, mathematische Probleme auf Französisch zu lösen. „Diese Fähigkeiten stehen im Widerspruch zur klassischen Statistik, die unsere besten Erklärungen dafür liefert, wie sich Vorhersagemodelle verhalten sollten“, schreibt Will. Erfahren Sie hier mehr.
Es ist leicht, Wahrnehmungen, die aus unserer Unwissenheit resultieren, mit Magie zu verwechseln. Schon der Name der Technologie „künstliche Intelligenz“ ist auf tragische Weise irreführend. Sprachmodelle erscheinen intelligent, weil sie menschliche Prosa erzeugen, indem sie das nächste Wort in einem Satz vorhersagen. Technologie ist nicht wirklich intelligent, und wenn man sie so nennt, verändert sich auf subtile Weise unsere Erwartungen und wir sehen sie als leistungsfähiger an, als sie tatsächlich ist.
Tappen Sie nicht in die Marketingfalle der Technologiebranche und glauben Sie, dass diese Modelle allwissend oder sachlich sind oder auch nur annähernd bereit für die Aufgaben, die wir von ihnen erwarten. Aufgrund ihrer Unvorhersehbarkeit, unkontrollierbaren Vorurteile, Sicherheitslücken und der Neigung, Dinge zu erfinden, ist ihr Nutzen äußerst begrenzt. Sie können den Menschen beim Denken helfen und sie können uns unterhalten. Angesichts der Problematik und Fehleranfälligkeit dieser Modelle ist es jedoch wahrscheinlich keine gute Idee, ihnen Ihre Kreditkartendaten, vertraulichen Informationen oder andere kritische Anwendungsfälle anzuvertrauen.
Wie die Wissenschaftler in Wills Artikel sagen, befindet sich die KI-Forschung noch in einem frühen Stadium. Laut Boaz Barak, einem Informatiker der Harvard University, der derzeit zum Superalignment-Team von OpenAI abgeordnet ist, vergleichen viele auf diesem Gebiet es mit der Physik im frühen 20. Jahrhundert, als Einstein die Relativitätstheorie vorschlug.
Der heutige Schwerpunkt liegt auf der Art und Weise, wie Modelle die Dinge bewirken, die sie tun. Es sind jedoch weitere Untersuchungen erforderlich, um zu verstehen, warum sie dies tun. Bis wir das Innere der KI besser verstehen, müssen wir mit weiteren seltsamen Fehlern und einer Menge Hype rechnen, dem die Technologie unweigerlich nicht gerecht werden wird.