Google I/O hat einen KI-Assistenten eingeführt, der die Welt sehen und hören kann, während OpenAI seine Version eines veröffentlicht hat Ihr-wie ein Chatbot in einem iPhone. Nächste Woche wird Microsoft Build hosten, wo es definitiv eine Version von Copilot oder Cortana geben wird, die Pivot-Tabellen enthält. Dann, ein paar Wochen später, wird Apple seine eigene Entwicklerkonferenz abhalten, und wenn man den Gerüchten Glauben schenken darf, wird es auch um künstliche Intelligenz gehen. (Es ist unklar, ob Siri erwähnt wird.)

KI ist da! Es ist nicht mehr konzeptionell. Es vernichtet Arbeitsplätze, schafft ein paar neue und hilft Millionen von Schülern, Hausaufgaben zu vermeiden. Laut den meisten großen Technologieunternehmen, die in KI investieren, sind wir scheinen am Anfang einer dieser seltenen monumentalen technologischen Veränderungen zu stehen. Denken Sie an die industrielle Revolution oder die Entstehung des Internets oder des Personal Computers. Das gesamte Silicon Valley – und die großen Technologiekonzerne – arbeiten daran, große Sprachmodelle und andere Formen künstlicher Intelligenz zu nutzen und sie von den Laptops der Forscher auf die Telefone und Computer alltäglicher Menschen zu übertragen. Im Idealfall verdienen sie damit viel Geld.

Aber das ist mir eigentlich egal, weil Meta AI denkt, ich hätte einen Bart.

Ich möchte es ganz klar sagen: Ich bin eine Cis-Frau und habe keinen Bart. Aber wenn ich „Zeig mir ein Foto von Alex Cranz“ in das Eingabeaufforderungsfenster eingebe, liefert Meta AI unweigerlich Bilder von sehr attraktiven dunkelhaarigen, bärtigen Männern zurück. Ich bin einfach eines dieser Dinge!

Meta AI ist nicht die Einzige, die mit den Details zu kämpfen hat Die KanteMasthead-Header. ChatGPT hat mir gestern gesagt, dass ich nicht arbeite Die Kante. Die Geminis bei Google wussten (gerade) nicht, wer ich war, aber nachdem sie mir erzählt hatten, dass Nilay Patel einer der Gründer von war Die Kante, er entschuldigte sich später und korrigierte sich, indem er sagte, dass dies nicht der Fall sei. (Ich versichere Ihnen, dass er es war.)

KI macht ständig Fehler, weil diese Computer dumm sind. Außergewöhnlich in ihren Fähigkeiten und erstaunlich in ihrer Dummheit. Ich kann mich nicht auf den nächsten Wendepunkt in der KI-Revolution freuen, denn dieser Wendepunkt liegt an einem Punkt, an dem Computer selbst bei Kleinigkeiten nicht immer die Genauigkeit aufrechterhalten können.

Ich meine, sie haben sogar während Googles großer KI-Rede auf der I/O einen Fehler gemacht. In einer Anzeige für Googles neue KI-gestützte Suchmaschine fragte jemand, wie man eine festsitzende Kamera reparieren könne, und er empfahl ihr, „die Hintertür zu öffnen und den Film vorsichtig zu entfernen“. Dies ist der einfachste Weg, alle bereits aufgenommenen Fotos zu zerstören.

Einige dieser Vorschläge sind gut! Einige erfordern einen SEHR DUNKLEN RAUM.
Screenshot: Google

Das unsichere Verhältnis einer KI zur Wahrheit wurde als „umwerfend“ bezeichnet. Um es ganz einfach auszudrücken: Diese Maschinen sind großartig darin, Muster in Informationen zu entdecken, aber bei ihrem Versuch, sie zu extrapolieren und zu erstellen, machen sie manchmal Fehler. In Wirklichkeit „halluzinieren“ sie eine neue Realität, und diese neue Realität ist oft falsch. Das ist ein heikles Problem, und jeder, der sich derzeit mit KI beschäftigt, ist sich dessen bewusst.

Ein ehemaliger Google-Forscher behauptete, das Problem könne innerhalb eines Jahres gelöst werden (obwohl er dieses Ergebnis beklagte), und Microsoft verfügt über ein Tool für einige seiner Benutzer, das dabei helfen soll, sie zu erkennen. Sagte Liz Reid, Leiterin der Suchabteilung bei Google Die Kante Auch er ist sich der Herausforderung bewusst. „In jedem Sprachmodell besteht ein Gleichgewicht zwischen Kreativität und Sachlichkeit“, sagte sie meinem Kollegen David Pierce. „Wir werden den Schwerpunkt wirklich auf die sachliche Seite legen.“

Aber ist Ihnen aufgefallen, wie Reid sagte, es gäbe ein Gleichgewicht? Das liegt daran, dass viele KI-Forscher eigentlich nicht über Halluzinationen nachdenken. Vielleicht gelöst. Eine Studie der National University of Singapore legt nahe, dass Halluzinationen eine unvermeidliche Folge aller wichtigen Sprachmuster sind. Genauso wie niemand immer 100 % Recht hat, sind es diese Computer auch nicht.

Und das ist wahrscheinlich der Grund, warum die meisten großen Akteure in diesem Bereich – diejenigen, die über echte Ressourcen und finanzielle Anreize verfügen, um uns alle zur Einführung von KI zu bewegen – denken, dass es keinen Grund zur Sorge gibt. Während der IO-Keynote von Google fügte Google in winziger grauer Schrift den Satz „Antworten auf Richtigkeit prüfen“ auf dem Bildschirm unter fast jedem neuen KI-Tool hinzu, das es vorgestellt hat – eine nützliche Erinnerung daran, dass man seinen Tools nicht trauen kann, aber das ist auch nicht der Fall Fall. Ich glaube nicht, dass das ein Problem ist. ChatGPT funktioniert auf die gleiche Weise. In kleinen Buchstaben direkt unter dem Eingabeaufforderungsfenster heißt es: „ChatGPT kann Fehler machen. Überprüfen Sie wichtige Informationen.

Wenn Sie die Augen zusammenkneifen, können Sie die kleine schräge Öffnung erkennen.
Screenshot: Google

Das ist keine Warnung, die Sie sich von Tools wünschen würden, die in naher Zukunft unser gesamtes Leben verändern sollen! Und die Leute, die diese Tools herstellen, scheinen sich nicht allzu sehr darum zu kümmern, das Problem über eine kleine Vorwarnung hinaus zu beheben.

Sam Altman, der CEO von OpenAI, der kurzzeitig entlassen wurde, weil er Profit über Sicherheit stellte, ging noch einen Schritt weiter und sagte, dass jeder, der ein Problem mit der KI-Genauigkeit habe, naiv sei. „Wenn Sie einfach naiv sind und sagen: ‚Sagen Sie niemals etwas, bei dem Sie sich nicht hundertprozentig sicher sind‘, können Sie sie alle dazu bringen, das zu tun.“ Aber es wird nicht die Magie haben, die die Leute so lieben“, sagte er letztes Jahr der Menge auf der Dreamforce-Konferenz von Salesforce.

Die Idee, dass es in der KI eine Art nicht quantifizierbare Zaubersoße gibt, die es uns ermöglicht, ihre schwache Beziehung zur Realität zu verzeihen, wird oft von Leuten verbreitet, die Bedenken hinsichtlich der Genauigkeit abtun wollen. Google, OpenAI, Microsoft und viele andere KI-Entwickler und -Forscher haben Halluzinationen als ein kleines Ärgernis abgetan, das verzeiht werden sollte, denn sie sind auf dem besten Weg, digitale Wesen zu erschaffen, die unser Leben einfacher machen könnten.

Aber ich entschuldige mich bei Sam und allen anderen, die einen finanziellen Anreiz hatten, mich für KI zu begeistern. Ich komme nicht wegen der ungenauen Magie des menschlichen Bewusstseins zu Computern. Ich komme zu ihnen, weil sie im Gegensatz zu Menschen sehr präzise sind. Ich brauche meinen Computer nicht als Freund; Ich brauche es, damit mein Geschlecht korrekt ist, wenn ich danach frage, und damit ich bei der Reparatur einer kaputten Kamera nicht versehentlich einen Film belichte. Anwälte würden sich wohl eine korrekte Rechtsprechung wünschen.

ICH verstehen woher Sam Altman und andere KI-Evangelisten kommen. In ferner Zukunft besteht die Möglichkeit, aus Einsen und Nullen ein echtes digitales Bewusstsein zu schaffen. Derzeit schreitet die Entwicklung der künstlichen Intelligenz mit einer atemberaubenden Geschwindigkeit voran, die viele frühere technologische Revolutionen in den Schatten stellt. Im Silicon Valley ist derzeit echte Magie am Werk.

Aber die KI denkt, ich hätte einen Bart. Sie kann die einfachsten Aufgaben nicht systematisch verstehen und wird uns dennoch auferlegt in der Hoffnung, dass wir die unglaubliche Mittelmäßigkeit der von diesen KIs erbrachten Leistungen feiern. Auch wenn ich über die technologischen Innovationen, die derzeit stattfinden, sicherlich staunen kann, wünschte ich mir, dass meine Computer nicht auf Genauigkeit verzichten müssten, nur damit ich mit einem digitalen Avatar sprechen könnte. Es ist kein fairer Austausch, es ist nur ein interessanter Austausch.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *