Stellen Sie sich Folgendes vor: Sie haben einen Abend zum Entspannen gebucht und beschließen, hausgemachte Pizza zuzubereiten. Sie stellen Ihren Kuchen zusammen, werfen ihn in den Ofen und können es kaum erwarten, mit dem Essen zu beginnen. Doch sobald Sie bereit sind, von Ihrer öligen Kreation abzubeißen, stoßen Sie auf ein Problem: Der Käse fällt sofort heraus. Frustriert wenden Sie sich an Google, um eine Lösung zu finden.

„Kleber hinzufügen“, antwortet Google. „Mischen Sie etwa 1/8 Tasse Elmer’s Glue mit der Sauce. Ein ungiftiger Kleber reicht aus.

Also ja, tu das nicht. Zum jetzigen Zeitpunkt wird Ihnen die neue KI-Übersichtsfunktion von Google jedoch dazu auffordern, dies zu tun. Die Funktion wird zwar nicht bei jeder Anfrage ausgelöst, scannt jedoch das Web und generiert eine von der KI generierte Antwort. Die Antwort auf die Pizzakleber-Anfrage scheint auf einem Kommentar eines Benutzers namens „fucksmith“ in einem zehn Jahre alten Reddit-Thread zu basieren, und es handelt sich offensichtlich um einen Scherz.

Dies ist nur einer von vielen Fehlern, die bei der neuen Funktion gemacht wurden, die Google diesen Monat umfassend eingeführt hat. Er behauptet außerdem, dass der frühere US-Präsident James Madison nicht nur einmal, sondern 21 Mal seinen Abschluss an der University of Wisconsin gemacht habe, dass ein Hund in der NBA, NFL und NHL gespielt habe und dass Batman ein Polizist sei.

Schauen Sie, Google hat nicht versprochen, dass es perfekt sein wird, und fügt am Ende der KI-Antworten sogar die Bezeichnung „Generative KI ist experimentell“ hinzu. Es ist jedoch klar, dass diese Tools nicht in der Lage sind, präzise und umfassende Informationen bereitzustellen.

Nehmen Sie zum Beispiel die große Einführung dieser Funktion durch Google I/O. Die Demo war streng kontrolliert und lieferte dennoch eine fragwürdige Antwort darauf, wie man eine festsitzende Kamera reparieren kann. (Er schlug vor, „die Hintertür zu öffnen und den Film vorsichtig zu entfernen“; tun Sie dies nicht, es sei denn, Sie möchten Ihre Fotos ruinieren!)

Es geht nicht nur um Google; Unternehmen wie OpenAI, Meta und Perplexity kämpfen alle mit KI-Halluzinationen und -Fehlern. Allerdings ist Google das erste Unternehmen, das diese Technologie in so großem Umfang einsetzt, und es kommt immer wieder zu Fehlern.

Unternehmen, die künstliche Intelligenz entwickeln, vermeiden es oft, die Verantwortung für ihre Systeme zu übernehmen, und gehen dabei ähnlich vor wie Eltern mit einem widerspenstigen Kind: Jungs werden Jungs sein! Diese Unternehmen behaupten, sie könnten nicht vorhersagen, was diese KI hervorbringen wird, und liegen in Wirklichkeit außerhalb ihrer Kontrolle.

Aber für Benutzer ist es ein Problem. Letztes Jahr erklärte Google, dass KI die Zukunft der Suche sei. Was nützt es aber, wenn die Recherche dümmer erscheint als zuvor?

KI-Optimisten argumentieren, dass wir diesen Hype aufgrund der bisher erzielten schnellen Fortschritte annehmen und zuversichtlich sein sollten, dass er sich weiter verbessern wird. Ich glaube fest daran, dass sich diese Technologie weiter verbessern wird, aber wenn man sich auf eine idealisierte Zukunft konzentriert, in der diese Technologien fehlerfrei sein werden, werden die erheblichen Probleme, mit denen sie derzeit konfrontiert sind, ignoriert und es Unternehmen ermöglicht, weiterhin minderwertige Produkte anzubieten.

Derzeit werden unsere Sucherlebnisse durch jahrzehntealte Reddit-Beiträge getrübt, die darauf abzielen, KI in alles zu integrieren. Viele Idealisten glauben, dass wir an der Schwelle zu etwas Großem stehen und dass diese Probleme nur die Wachstumsschmerzen einer aufkommenden Technologie sind. Ich hoffe wirklich, dass sie Recht haben. Aber eines ist sicher: Wir werden wahrscheinlich bald jemanden sehen, der seine Pizza mit Kleber beschmiert, denn das liegt in der Natur des Internets.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *