Metas KI-Assistent behauptete fälschlicherweise, dass das jüngste Attentat auf den ehemaligen Präsidenten Donald Trump nicht stattgefunden habe, ein Fehler, den ein Unternehmensleiter nun der Technologie zuschreibt, die seinen Chatbot und andere antreibt.

In einem Beitrag am Dienstag im Blog des Unternehmens bezeichnete Joel Kaplan, Metas globaler Leiter für Richtlinien, die Antworten seiner KI auf Fragen zu den Schießereien als „bedauerlich“. Er erklärt, dass die KI von Meta ursprünglich so programmiert war, dass sie Fragen zum Attentat nicht beantwortete, das Unternehmen diese Einschränkung jedoch aufhob, nachdem es den Leuten aufgefallen war. Es wird auch anerkannt, dass „die KI von Meta in einigen wenigen Fällen weiterhin falsche Antworten lieferte und manchmal behauptete, dass das Ereignis nicht stattgefunden habe – etwas, an dessen Korrektur wir schnell arbeiten.“

„Diese Art von Reaktionen nennt man Halluzinationen, ein Problem, das wir in allen generativen KI-Systemen sehen und das eine ständige Herausforderung dafür darstellt, wie KI künftig mit Echtzeitereignissen umgeht“, fährt Kaplan fort, der die Lobbyarbeit von Meta leitet. „Wie alle generativen KI-Systeme können Modelle ungenaue oder unangemessene Ergebnisse liefern, und wir werden uns weiterhin mit diesen Problemen befassen und diese Funktionen verbessern, während sie sich weiterentwickeln und mehr Menschen Feedback geben.“ »

Aber nicht nur Meta ist betroffen: Google musste am Dienstag auch Behauptungen widerlegen, dass seine Suchfunktion zur automatischen Vervollständigung Ergebnisse zum Attentat zensiere. „Jetzt geht es wieder los, ein weiterer Versuch, die Wahlen zu manipulieren!!! ” sagte Trump in einem Beitrag auf Truth Social. „VERSUCHEN SIE META UND GOOGLE. »

Seit dem Aufkommen von ChatGPT fragt sich die Technologiebranche, wie sie die Lügenneigung der generativen KI begrenzen kann. Einige Akteure, wie Meta, haben versucht, ihre Chatbots auf Qualitätsdaten und Echtzeit-Suchergebnissen zu stützen, um Halluzinationen auszugleichen. Aber wie dieses spezielle Beispiel zeigt, ist es immer noch schwierig, das zu überwinden, wofür großartige Sprachmodelle von Natur aus konzipiert sind: Dinge erfinden.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *