Mittelsteadt fügt hinzu, dass Trump Unternehmen auf verschiedene Weise bestrafen könnte. Er führt zum Beispiel an, wie die Trump-Administration einen wichtigen Bundesvertrag mit Amazon Web Services gekündigt hat, eine Entscheidung, die wahrscheinlich von der Meinung des ehemaligen Präsidenten zur Washington Post und ihrem Eigentümer Jeff Bezos beeinflusst wurde.
Es wäre für politische Entscheidungsträger nicht schwierig, Beweise für politische Voreingenommenheit in KI-Modellen hervorzuheben, obwohl dies in beide Richtungen geht.
Eine Studie aus dem Jahr 2023 von Forschern der University of Washington, der Carnegie Mellon University und der Xi’an Jiaotong University ergab eine Reihe politischer Trends in verschiedenen wichtigen Sprachmustern. Es wurde auch gezeigt, wie sich diese Vorurteile auf die Leistung von Systemen zur Erkennung von Hassreden oder Desinformation auswirken können.
Eine andere Studie, die von Forschern der Hong Kong University of Science and Technology durchgeführt wurde, fand Voreingenommenheiten in mehreren Open-Source-KI-Modellen zu polarisierenden Themen wie Einwanderung, reproduktiven Rechten und Klimawandel. Yejin Bang, ein an der Arbeit beteiligter Doktorand, sagt, dass die meisten Modelle tendenziell liberal und auf die USA ausgerichtet sind, dieselben Modelle jedoch je nach Thema eine Vielzahl liberaler oder konservativer Vorurteile zum Ausdruck bringen können.
KI-Modelle erfassen politische Vorurteile, weil sie auf einer Vielzahl von Internetdaten basieren, die unweigerlich alle möglichen Perspektiven umfassen. Die meisten Benutzer sind sich der Vorurteile in den von ihnen verwendeten Tools möglicherweise nicht bewusst, da die Vorlagen über integrierte Schutzmaßnahmen verfügen, die sie daran hindern, bestimmte schädliche oder voreingenommene Inhalte zu generieren. Diese Vorurteile können sich jedoch auf subtile Weise offenbaren, und die zusätzliche Schulung, die die Modelle erhalten, um ihre Leistung einzuschränken, kann zu mehr Parteilichkeit führen. „Entwickler könnten sicherstellen, dass Modelle mehreren Perspektiven auf kontroverse Themen ausgesetzt werden, sodass sie mit einem ausgewogenen Standpunkt reagieren können“, sagt Bang.
Das Problem könnte sich verschlimmern, wenn KI-Systeme allgegenwärtiger werden, sagt Ashique KhudaBukhsh, Informatiker am Rochester Institute of Technology, der ein Tool namens Toxicity Rabbit Hole Framework entwickelt hat, das die unterschiedlichen gesellschaftlichen Vorurteile großer Sprachmodelle hervorhebt. „Wir befürchten, dass ein Teufelskreis beginnt, da neue Generationen von LLMs zunehmend auf Daten trainiert werden, die durch KI-generierte Inhalte verunreinigt sind“, sagt er.
„Ich bin davon überzeugt, dass diese Verzerrung innerhalb von LLMs bereits ein Problem darstellt und höchstwahrscheinlich in Zukunft noch mehr auftreten wird“, sagt Luca Rettenberger, Postdoktorand am Karlsruher Institut für Technologie, der eine Analyse von LLMs zur Erkennung damit verbundener Verzerrungen leitete. zur deutschen Politik.
Rettenberger schlägt vor, dass politische Gruppen auch versuchen könnten, LLMs zu beeinflussen, um ihre eigenen Ansichten gegenüber denen anderer zu vertreten. „Wenn jemand sehr ehrgeizig ist und böswillige Absichten hegt, könnte es möglich sein, LLMs in bestimmte Richtungen zu manipulieren“, sagt er. „Ich halte die Manipulation von Trainingsdaten für eine echte Gefahr.“
Es wurden bereits Anstrengungen unternommen, um das Gleichgewicht der Voreingenommenheit in KI-Modellen zu ändern. Im vergangenen März entwickelte ein Programmierer einen eher rechten Chatbot, um die subtilen Vorurteile hervorzuheben, die er in Tools wie ChatGPT sah. Musk selbst hat versprochen, Grok, den von xAI entwickelten KI-Chatbot, „maximal wahrheitsgetreu“ und weniger voreingenommen als andere KI-Tools zu machen, obwohl er sich in der Praxis auch selbst schützt, wenn es sich um heikle politische Fragen handelt. (Musk ist ein starker Trump-Anhänger und Einwanderungsfalke. Seine Ansicht, dass er „weniger voreingenommen“ sei, könnte sich auch in rechtsgerichteteren Ergebnissen niederschlagen.)
Die Wahlen in den Vereinigten Staaten in der nächsten Woche werden die Zwistigkeiten zwischen Demokraten und Republikanern wahrscheinlich nicht beruhigen, aber wenn Trump gewinnt, könnten die Diskussionen über Anti-Woke-KI deutlich lauter werden.
Musk bot auf der Veranstaltung dieser Woche eine apokalyptische Sicht auf das Thema und verwies auf einen Vorfall, bei dem Gemini von Google sagte, ein Atomkrieg sei besser, als Caitlyn Jenner falsch darzustellen. „Wenn eine KI für solche Dinge programmiert ist, könnte sie zu dem Schluss kommen, dass der beste Weg, um sicherzustellen, dass niemand misshandelt wird, darin besteht, alle Menschen auszulöschen, wodurch die Wahrscheinlichkeit künftiger Misshandlungen auf Null sinkt.“