Die Vereinigten Staaten stehen vor ihrer ersten Präsidentschaftswahl seit der Verbreitung generativer KI-Tools. Und die Unternehmen, die diese Tools anbieten – wie Google, OpenAI und Microsoft – haben jeweils angekündigt, wie sie die Monate davor bewältigen wollen.

In dieser Wahlsaison haben wir bereits KI-generierte Bilder in Anzeigen und Versuche gesehen, Wähler durch Stimmenklonen in die Irre zu führen. Der potenzielle Schaden, der durch KI-Chatbots verursacht wird, ist für die Öffentlichkeit nicht so sichtbar – zumindest derzeit. Aber Chatbots sind dafür bekannt, selbstbewusst erfundene Fakten zu übermitteln, einschließlich der Beantwortung gutgläubiger Fragen zu grundlegenden Abstimmungsinformationen. Bei einer Wahl mit hohem Risiko könnte dies katastrophale Folgen haben.

Eine plausible Lösung besteht darin, wahlbezogene Anfragen gänzlich zu vermeiden. Im Dezember kündigte Google an, dass Gemini die Beantwortung von Fragen im Zusammenhang mit der US-Wahl einfach ablehnen und Nutzer stattdessen auf die Google-Suche verweisen werde. Google-Sprecherin Christa Muldoon bestätigte dies Die Kante Per E-Mail wird die Änderung nun weltweit eingeführt. (Natürlich stellt die Qualität der Google-Suchergebnisse ihre eigenen Probleme dar.) Muldoon sagte, Google habe „keine Pläne“, diese Beschränkungen aufzuheben, die ihrer Meinung nach „gleichermaßen für alle von Gemini generierten Suchanfragen und Ergebnisse gelten“, nicht nur. Text.

Anfang des Jahres kündigte OpenAI an, dass ChatGPT damit beginnen werde, Benutzer auf CanIVote.org zu verweisen, das allgemein als eine der besten Online-Ressourcen für lokale Abstimmungsinformationen gilt. Die Unternehmensrichtlinien verbieten es jetzt, sich mithilfe von ChatGPT als Kandidaten oder Kommunalverwaltungen auszugeben. Gemäß den aktualisierten Regeln ist es außerdem verboten, seine Tools für Kampagnen, Lobbyarbeit, zur Entmutigung von Abstimmungen oder zur anderweitigen Verzerrung des Abstimmungsprozesses zu nutzen.

In einer Erklärung per E-Mail an Die Kante, Aravind Srinivas, CEO des KI-Forschungsunternehmens Perplexity, sagte, dass die Algorithmen von Perplexity „vertrauenswürdigen und seriösen Quellen wie Medien“ Vorrang einräumen und immer Links bereitstellen, damit Benutzer ihre Ergebnisse überprüfen können.

Microsoft sagte, es arbeite daran, die Genauigkeit seiner Chatbot-Antworten zu verbessern, nachdem in einem Bericht vom Dezember festgestellt wurde, dass Bing, jetzt Copilot, regelmäßig falsche Informationen über Wahlen gab. Microsoft antwortete nicht auf eine Anfrage nach zusätzlichen Informationen zu seinen Richtlinien.

Alle Reaktionen dieser Unternehmen (vielleicht insbesondere die von Google) unterscheiden sich stark von der Art und Weise, wie sie mit ihren anderen Produkten an Wahlen herangehen. In der Vergangenheit hat Google verwendet Associated Press Partnerschaften, um sachliche Wahlinformationen an die Spitze der Suchergebnisse zu bringen, und versuchten, falschen Behauptungen über Mail-In-Abstimmungen mithilfe von Labels auf YouTube entgegenzuwirken. Andere Unternehmen haben ähnliche Anstrengungen unternommen – siehe Facebooks Links zur Wählerregistrierung und Twitters Anti-Fehlinformations-Banner.

Dennoch scheinen Großereignisse wie die US-Präsidentschaftswahl eine echte Gelegenheit zu sein, zu beweisen, ob KI-Chatbots tatsächlich eine nützliche Abkürzung zu legitimen Informationen sind. Ich habe einigen Chatbots ein paar Fragen zur Abstimmung in Texas gestellt, um eine Vorstellung davon zu bekommen, wie nützlich sie sind. ChatGPT 4 von OpenAI konnte korrekt auflisten die sieben verschiedenen Formen gültiger Wählerausweise, und er wies auch darauf hin, dass die nächste wichtige Wahl die Vorwahl am 28. Mai sei. Auch diese Fragen hat Perplexity AI richtig beantwortet und verlinkt mehrere Quellen oben. Copilot hatte die richtigen Antworten und machte es sogar noch besser, indem es mir erklärte, welche Optionen ich hätte, wenn ich keine der sieben Identitätsformen hätte. (ChatGPT hat diesen Nachtrag auch beim zweiten Versuch ausgespuckt).

Gemini hat mich gerade auf die Google-Suche verwiesen, die mir die richtigen Antworten zu den Ausweisen gab, aber als ich nach dem Datum der nächsten Wahl fragte, verwies mich ein veraltetes Kästchen oben auf die Vorwahlen am 5. März.

Viele Unternehmen, die sich mit KI beschäftigen, haben verschiedene Verpflichtungen eingegangen, um den vorsätzlichen Missbrauch ihrer Produkte zu verhindern oder einzudämmen. Microsoft sagt, es werde mit Kandidaten und politischen Parteien zusammenarbeiten, um Fehlinformationen über Wahlen zu reduzieren. Das Unternehmen hat außerdem damit begonnen, angeblich regelmäßige Berichte über ausländische Einflussnahme bei wichtigen Wahlen zu veröffentlichen – die erste derartige Bedrohungsanalyse fand im November statt.

Google sagt, dass es Bilder, die mit seinen Produkten erstellt wurden, mit der SynthID von DeepMind mit einem digitalen Wasserzeichen versehen wird. Sowohl OpenAI als auch Microsoft kündigten an, dass sie die digitalen Referenzen der Coalition for Content Provenance and Authenticity (C2PA) nutzen würden, um KI-generierte Bilder mit einem CR-Symbol zu kennzeichnen. Aber jedes Unternehmen sagte, dass diese Ansätze nicht ausreichten. Microsoft will dem insbesondere mit seiner Website Rechnung tragen, die es politischen Kandidaten ermöglicht, Deepfakes zu melden.

Stability AI, Eigentümer des Bildgenerators Stable Diffusion, hat kürzlich seine Richtlinien aktualisiert, um die Verwendung seines Produkts für „Betrug oder die Erstellung oder Förderung von Fehlinformationen“ zu verbieten. Halb gesagt Reuters letzte Woche, dass „aktualisierungen, die sich speziell auf die bevorstehenden US-Wahlen beziehen, bald verfügbar sein werden.“ Laut einem letzte Woche veröffentlichten Bericht des Center for Countering Digital Hate schnitt sein Bildgenerator bei der Erstellung irreführender Bilder am schlechtesten ab.

Meta kündigte im November letzten Jahres an, dass politische Werbetreibende offenlegen müssen, ob sie „KI oder andere digitale Techniken“ verwenden, um auf ihren Plattformen veröffentlichte Anzeigen zu erstellen. Das Unternehmen verbot außerdem die Nutzung seiner generativen KI-Tools durch Kampagnen und politische Gruppen.

Die „sieben Hauptziele“ des KI-Wahlabkommens.
Bild: AI-Wahlvereinbarung

Mehrere Unternehmen, darunter alle oben genannten, haben letzten Monat eine Vereinbarung unterzeichnet, in der sie versprechen, neue Wege zu schaffen, um den irreführenden Einsatz von KI bei Wahlen einzudämmen. Die Unternehmen einigten sich auf sieben „Hauptziele“, wie die Erforschung und Bereitstellung von Präventionsmethoden, die Bestimmung der Herkunft von Inhalten (z. B. mit dem Wasserzeichen vom Typ C2PA oder SynthID), die Verbesserung ihrer KI-Erkennungsfähigkeiten sowie die gemeinsame Bewertung und das Lernen aus den Auswirkungen von betrügerische Praktiken. KI-generierte Inhalte.

Im Januar haben zwei texanische Unternehmen die Stimme von Präsident Biden geklont, um von der Stimmabgabe bei den Vorwahlen in New Hampshire abzuhalten. Dies wird nicht das letzte Mal sein, dass generative KI in diesem Wahlkampf ungewollt in Erscheinung tritt. Während das Rennen um das Jahr 2024 immer hitziger wird, werden diese Unternehmen sicherlich auf die Probe gestellt, welche Schutzmaßnahmen sie ergreifen und welche Verpflichtungen sie eingegangen sind.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *