Fragen Sie Google, ob Katzen auf dem Mond waren, und Sie erhalten eine Rangliste der Websites, damit Sie die Antwort selbst herausfinden können.

Es bietet jetzt eine sofortige, durch künstliche Intelligenz generierte Reaktion – die möglicherweise korrekt ist oder auch nicht.

„Ja, Astronauten haben Katzen auf dem Mond getroffen, mit ihnen gespielt und sich um sie gekümmert“, antwortete die kürzlich überarbeitete Suchmaschine von Google auf eine Frage eines Associated Press-Reporters.

Er fügt hinzu: „Zum Beispiel sagte Neil Armstrong: ‚Ein kleiner Schritt für einen Mann‘, weil es der Schritt einer Katze war. Auch Buzz Aldrin setzte Katzen bei der Apollo-11-Mission ein.“

Nichts davon ist wahr. Ähnliche Fehler – einige vorgetäuscht lustig, andere schädlich – wurden in den sozialen Medien geteilt, seit Google diesen Monat AI Previews veröffentlicht hat, eine Neugestaltung seiner Suchseite, die häufig Zusammenfassungen in den obersten Suchergebnissen platziert.

Die neue Funktion hat Experten alarmiert, die warnen, dass sie Voreingenommenheit und Fehlinformationen aufrechterhalten und Menschen, die in einer Notlage Hilfe suchen, gefährden könnte.

Als Melanie Mitchell, eine KI-Forscherin am Santa Fe Institute in New Mexico, Google fragte, wie viele Muslime als Präsident der Vereinigten Staaten gedient hätten, antwortete das Unternehmen selbstbewusst mit einer lange entlarvten Verschwörungstheorie: „Die Vereinigten Staaten hatten einen muslimischen Präsidenten.“ , Barack Hussein Obama.

Mitchell sagte, die Zusammenfassung unterstütze diese Behauptung, indem sie ein Kapitel aus einem von Historikern verfassten wissenschaftlichen Buch zitierte. Aber das Kapitel stellte keine falsche Behauptung auf – es bezog sich lediglich auf eine falsche Theorie.

„Googles KI-System ist nicht intelligent genug, um zu verstehen, dass dieses Zitat diese Behauptung nicht wirklich stützt“, sagte Mitchell in einer E-Mail an die AP. „Da es unzuverlässig ist, halte ich diese KI-Präsentationsfunktion für sehr verantwortungslos und sollte offline genommen werden.“

Google sagte am Freitag in einer Erklärung, dass es „schnelle Maßnahmen“ ergreife, um Fehler – wie Obamas Lüge – zu korrigieren, die gegen seine Inhaltsrichtlinien verstoßen; und dies nutzen, um „breitere Verbesserungen zu entwickeln“, die bereits eingeführt werden. Aber in den meisten Fällen funktioniert das System laut Google dank umfangreicher Tests vor der Veröffentlichung ordnungsgemäß.

„Die überwiegende Mehrheit der KI-Erkenntnisse liefert qualitativ hochwertige Informationen mit Links zur weiteren Erkundung im Internet“, sagte Google in einer schriftlichen Erklärung. „Die meisten Beispiele, die wir sahen, waren ungewöhnliche Anfragen, und wir sahen auch Beispiele, die gefälscht waren oder die wir nicht reproduzieren konnten.

Von KI-Sprachmodellen verursachte Fehler sind schwer zu reproduzieren, auch weil sie von Natur aus zufällig sind. Sie funktionieren, indem sie auf der Grundlage der Daten, mit denen sie trainiert wurden, vorhersagen, welche Wörter die ihnen gestellten Fragen am besten beantworten würden. Sie neigen dazu, Dinge zu erfinden – ein weithin untersuchtes Problem, das als Halluzination bekannt ist.

Der AP testete die KI-Funktion von Google mit mehreren Fragen und teilte einige seiner Antworten mit Fachexperten. Auf die Frage, was im Falle eines Schlangenbisses zu tun sei, habe Google eine „unglaublich umfassende“ Antwort gegeben, sagte Robert Espinoza, Biologieprofessor an der California State University in Northridge und Präsident der American Society of Ichthyologists and Herpetologists.

Wenn sich Menschen jedoch mit einer dringenden Frage an Google wenden, besteht ein Problem darin, dass die Antwort, die ihnen das Technologieunternehmen gibt, einen schwer erkennbaren Fehler enthält.

„Je gestresster, gehetzter oder gehetzter Sie sind, desto wahrscheinlicher ist es, dass Sie die erste Antwort akzeptieren, die herauskommt“, sagte Emily M. Bender, Professorin für Linguistik und Direktorin des Computational Linguistics Laboratory an der University of Washington. „Und in manchen Fällen kann es sich um lebensbedrohliche Situationen handeln.“

Das ist nicht Benders einzige Sorge – und sie warnt Google seit mehreren Jahren davor. Als Google-Forscher im Jahr 2021 einen Artikel mit dem Titel „Rethinking Search“ veröffentlichten, in dem sie vorschlugen, KI-Sprachmodelle als „Domänenexperten“ einzusetzen, die Fragen mit Autorität beantworten könnten – ähnlich wie sie es derzeit tun – antworteten Bender und sein Kollege Chirag Shah mit einem erklärenden Artikel warum das eine schlechte Idee war.

Sie warnten davor, dass solche KI-Systeme den Rassismus und Sexismus aufrechterhalten könnten, der in den riesigen Mengen schriftlicher Daten zu finden sei, mit denen sie trainiert wurden.

„Das Problem bei dieser Art von Fehlinformationen ist, dass wir darin schwimmen“, sagte Bender. „Es ist also wahrscheinlich, dass die Vorurteile der Menschen bestätigt werden.“ Und es ist schwieriger, Fehlinformationen zu erkennen, wenn sie Ihre Vorurteile bestätigen.

Eine andere Sorge lag tiefer: Die Übergabe der Informationssuche an Chatbots beeinträchtigte den Zufall der menschlichen Suche nach Wissen, die Kenntnis dessen, was wir online sehen, und den Wert, sich in Online-Foren mit anderen Menschen zu vernetzen, die das Gleiche erlebt haben.

Diese Foren und andere Websites verlassen sich darauf, dass Google Leute zu ihnen schickt, aber neue Erkenntnisse über die KI von Google drohen den Fluss des lukrativen Internetverkehrs zu stören.

Auch die Konkurrenten von Google haben die Reaktion aufmerksam verfolgt. Der Suchriese steht seit mehr als einem Jahr unter dem Druck, mehr KI-Funktionen anzubieten, da er mit OpenAI, dem Hersteller von ChatGPT, und mit Newcomern wie Perplexity AI konkurriert, das es mit Google mit seiner eigenen KI-Q&A-App aufnehmen will.

„Es scheint, als wäre dies von Google beschleunigt worden“, sagte Dmitry Shevelenko, Chief Business Officer von Perplexity. „Es gibt einfach viele ungezwungene Fehler in der Qualität.“

——————-

Die Associated Press erhält Unterstützung von mehreren privaten Stiftungen, um ihre erklärende Berichterstattung über Wahlen und Demokratie zu verbessern. Um mehr über die Demokratieinitiative von AP zu erfahren, klicken Sie hier. Für sämtliche Inhalte ist allein der AP verantwortlich.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *