97889 64456 72312 47532 85224 72311 99738 05314 18822 88877 83701 91188 72106 98803 83485 70762 67561 00923 55229 06479 57972 59061 74949 93171 14807 03728 86417 14924 55271 76483 09709 80826 48003 69756 41326 33857 90179 16007 50123 74390 32549 30315 44217 63317 75601 80709 41762 62320 18455 61834 28274 17965 11564 40730 97515 38882 00045 18375 34435 87730 65633 86354 42635 03181 37624 00288 29224 98754 64198 42645 13159 80277 57942 84214 09885 11406 37363 27238 16160 82824 82750 03902 45252 98749 86602 85405 74120 11069 70749 63642 54482 33973 81058 25338 11638 53184 38067 75862 58160 05931 81160 94118 63131 11678 37627 13358 15577 41533 20376 02073 54475 97260 40548 91470 84971 47067 00960 20371 54295 32383 70544 08125 72446 96640 07075 16165 30869 08344 20223 85830 11652 84248 58240 18720 83640 74865 63798 26432 11368 91553 98930 40390 63732 07578 52004 83379 91665 87295 27594 70342 33614 00445 56766 74846 32119 67664 51801 34739 44392 32414 80290 43295 50949 32938 59188 82226 64963 12065 07486 96473 17151 41690 05059 80565 72757 89563 68610 87113 78719 74762 26213 13426 23716 54025 70952 73308 30338 98371 80443 39662 15506 33308 53719 47268 57523 71539 98084 43052 68615 92226 35372 86296 82533 08533 12606 77475 19780 50069 42332 94775 84463 97795 86712 89454 36026 27730 87899 25252 69813 38682 Katzen auf dem Mond? Das KI-Tool von Google liefert irreführende Antworten, die Experten beunruhigen – MJRBJC

Fragen Sie Google, ob Katzen auf dem Mond waren, und Sie erhalten eine Rangliste der Websites, damit Sie die Antwort selbst herausfinden können.

Es bietet jetzt eine sofortige, durch künstliche Intelligenz generierte Reaktion – die möglicherweise korrekt ist oder auch nicht.

„Ja, Astronauten haben Katzen auf dem Mond getroffen, mit ihnen gespielt und sich um sie gekümmert“, antwortete die kürzlich überarbeitete Suchmaschine von Google auf eine Frage eines Associated Press-Reporters.

Er fügt hinzu: „Zum Beispiel sagte Neil Armstrong: ‚Ein kleiner Schritt für einen Mann‘, weil es der Schritt einer Katze war. Auch Buzz Aldrin setzte Katzen bei der Apollo-11-Mission ein.“

Nichts davon ist wahr. Ähnliche Fehler – einige vorgetäuscht lustig, andere schädlich – wurden in den sozialen Medien geteilt, seit Google diesen Monat AI Previews veröffentlicht hat, eine Neugestaltung seiner Suchseite, die häufig Zusammenfassungen in den obersten Suchergebnissen platziert.

Die neue Funktion hat Experten alarmiert, die warnen, dass sie Voreingenommenheit und Fehlinformationen aufrechterhalten und Menschen, die in einer Notlage Hilfe suchen, gefährden könnte.

Als Melanie Mitchell, eine KI-Forscherin am Santa Fe Institute in New Mexico, Google fragte, wie viele Muslime als Präsident der Vereinigten Staaten gedient hätten, antwortete das Unternehmen selbstbewusst mit einer lange entlarvten Verschwörungstheorie: „Die Vereinigten Staaten hatten einen muslimischen Präsidenten.“ , Barack Hussein Obama.

Mitchell sagte, die Zusammenfassung unterstütze diese Behauptung, indem sie ein Kapitel aus einem von Historikern verfassten wissenschaftlichen Buch zitierte. Aber das Kapitel stellte keine falsche Behauptung auf – es bezog sich lediglich auf eine falsche Theorie.

„Googles KI-System ist nicht intelligent genug, um zu verstehen, dass dieses Zitat diese Behauptung nicht wirklich stützt“, sagte Mitchell in einer E-Mail an die AP. „Da es unzuverlässig ist, halte ich diese KI-Präsentationsfunktion für sehr verantwortungslos und sollte offline genommen werden.“

Google sagte am Freitag in einer Erklärung, dass es „schnelle Maßnahmen“ ergreife, um Fehler – wie Obamas Lüge – zu korrigieren, die gegen seine Inhaltsrichtlinien verstoßen; und dies nutzen, um „breitere Verbesserungen zu entwickeln“, die bereits eingeführt werden. Aber in den meisten Fällen funktioniert das System laut Google dank umfangreicher Tests vor der Veröffentlichung ordnungsgemäß.

„Die überwiegende Mehrheit der KI-Erkenntnisse liefert qualitativ hochwertige Informationen mit Links zur weiteren Erkundung im Internet“, sagte Google in einer schriftlichen Erklärung. „Die meisten Beispiele, die wir sahen, waren ungewöhnliche Anfragen, und wir sahen auch Beispiele, die gefälscht waren oder die wir nicht reproduzieren konnten.

Von KI-Sprachmodellen verursachte Fehler sind schwer zu reproduzieren, auch weil sie von Natur aus zufällig sind. Sie funktionieren, indem sie auf der Grundlage der Daten, mit denen sie trainiert wurden, vorhersagen, welche Wörter die ihnen gestellten Fragen am besten beantworten würden. Sie neigen dazu, Dinge zu erfinden – ein weithin untersuchtes Problem, das als Halluzination bekannt ist.

Der AP testete die KI-Funktion von Google mit mehreren Fragen und teilte einige seiner Antworten mit Fachexperten. Auf die Frage, was im Falle eines Schlangenbisses zu tun sei, habe Google eine „unglaublich umfassende“ Antwort gegeben, sagte Robert Espinoza, Biologieprofessor an der California State University in Northridge und Präsident der American Society of Ichthyologists and Herpetologists.

Wenn sich Menschen jedoch mit einer dringenden Frage an Google wenden, besteht ein Problem darin, dass die Antwort, die ihnen das Technologieunternehmen gibt, einen schwer erkennbaren Fehler enthält.

„Je gestresster, gehetzter oder gehetzter Sie sind, desto wahrscheinlicher ist es, dass Sie die erste Antwort akzeptieren, die herauskommt“, sagte Emily M. Bender, Professorin für Linguistik und Direktorin des Computational Linguistics Laboratory an der University of Washington. „Und in manchen Fällen kann es sich um lebensbedrohliche Situationen handeln.“

Das ist nicht Benders einzige Sorge – und sie warnt Google seit mehreren Jahren davor. Als Google-Forscher im Jahr 2021 einen Artikel mit dem Titel „Rethinking Search“ veröffentlichten, in dem sie vorschlugen, KI-Sprachmodelle als „Domänenexperten“ einzusetzen, die Fragen mit Autorität beantworten könnten – ähnlich wie sie es derzeit tun – antworteten Bender und sein Kollege Chirag Shah mit einem erklärenden Artikel warum das eine schlechte Idee war.

Sie warnten davor, dass solche KI-Systeme den Rassismus und Sexismus aufrechterhalten könnten, der in den riesigen Mengen schriftlicher Daten zu finden sei, mit denen sie trainiert wurden.

„Das Problem bei dieser Art von Fehlinformationen ist, dass wir darin schwimmen“, sagte Bender. „Es ist also wahrscheinlich, dass die Vorurteile der Menschen bestätigt werden.“ Und es ist schwieriger, Fehlinformationen zu erkennen, wenn sie Ihre Vorurteile bestätigen.

Eine andere Sorge lag tiefer: Die Übergabe der Informationssuche an Chatbots beeinträchtigte den Zufall der menschlichen Suche nach Wissen, die Kenntnis dessen, was wir online sehen, und den Wert, sich in Online-Foren mit anderen Menschen zu vernetzen, die das Gleiche erlebt haben.

Diese Foren und andere Websites verlassen sich darauf, dass Google Leute zu ihnen schickt, aber neue Erkenntnisse über die KI von Google drohen den Fluss des lukrativen Internetverkehrs zu stören.

Auch die Konkurrenten von Google haben die Reaktion aufmerksam verfolgt. Der Suchriese steht seit mehr als einem Jahr unter dem Druck, mehr KI-Funktionen anzubieten, da er mit OpenAI, dem Hersteller von ChatGPT, und mit Newcomern wie Perplexity AI konkurriert, das es mit Google mit seiner eigenen KI-Q&A-App aufnehmen will.

„Es scheint, als wäre dies von Google beschleunigt worden“, sagte Dmitry Shevelenko, Chief Business Officer von Perplexity. „Es gibt einfach viele ungezwungene Fehler in der Qualität.“

——————-

Die Associated Press erhält Unterstützung von mehreren privaten Stiftungen, um ihre erklärende Berichterstattung über Wahlen und Demokratie zu verbessern. Um mehr über die Demokratieinitiative von AP zu erfahren, klicken Sie hier. Für sämtliche Inhalte ist allein der AP verantwortlich.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *

Failed to fetch data from the URL.