Verschwörung

Bildnachweis: Pixabay/CC0 Public Domain

Neue in der Fachzeitschrift Science veröffentlichte Forschungsergebnisse zeigen, dass einige Menschen, die an Verschwörungstheorien glauben, durch ein faktenbasiertes Gespräch mit einem Chatbot mit künstlicher Intelligenz (KI) „aus dem Kaninchenbau herausgeholt“ werden können. Besser noch, es scheint sie mindestens zwei Monate lang fernzuhalten.

Diese von Thomas Costello vom Massachusetts Institute of Technology und Kollegen geleitete Forschung verspricht die Lösung eines komplexen sozialen Problems: des Glaubens an Verschwörungstheorien.

Manche Verschwörungstheorien sind relativ harmlos, wie die, dass Finnland nicht existiert (was in Ordnung ist, bis man einen Finnen trifft). Andere Theorien hingegen verringern das Vertrauen in öffentliche Institutionen und in die Wissenschaft.

Problematisch wird es, wenn Verschwörungstheorien Menschen davon überzeugen, sich nicht impfen zu lassen oder keine Maßnahmen gegen den Klimawandel zu ergreifen. In den extremsten Fällen wurde der Glaube an Verschwörungstheorien mit Todesfällen in Verbindung gebracht.

Verschwörungstheorien sind „hartnäckig“

Trotz ihrer negativen Auswirkungen haben sich Verschwörungstheorien als sehr hartnäckig erwiesen. Sobald Menschen an eine Verschwörungstheorie glauben, ist es schwierig, ihre Meinung zu ändern.

Die Gründe hierfür sind komplex. Die Überzeugungen von Verschwörungstheoretikern sind mit Gemeinschaften verbunden, und Verschwörungstheoretiker haben oft umfangreiche Untersuchungen durchgeführt, um zu ihrer Position zu gelangen.

Wenn eine Person der Wissenschaft oder irgendjemandem außerhalb ihrer Gemeinschaft nicht mehr vertraut, ist es schwierig, ihre Überzeugungen zu ändern.

Betreten Sie die KI

Die explosionsartige Verbreitung generativer KI im öffentlichen Raum hat die Besorgnis darüber verstärkt, dass Menschen Dinge glauben, die nicht wahr sind. KI macht es sehr einfach, glaubwürdige gefälschte Inhalte zu erstellen.

Selbst wenn sie in gutem Glauben eingesetzt werden, können KI-Systeme die Fakten falsch verstehen. (ChatGPT und andere Chatbots warnen Benutzer sogar davor, dass sie bei bestimmten Themen falsch liegen könnten.)

KI-Systeme enthalten auch weit verbreitete Vorurteile, was bedeutet, dass sie negative Überzeugungen gegenüber bestimmten Personengruppen fördern können.

Angesichts all dessen ist es ziemlich überraschend, dass eine Diskussion mit einem System, das für die Produktion von Fake News bekannt ist, manche Menschen davon überzeugen kann, Verschwörungstheorien aufzugeben, und dass dieser Wandel nachhaltig zu sein scheint.

Diese neue Forschung hinterlässt jedoch ein Problem zwischen guten und schlechten Nachrichten.

Es ist großartig, dass wir etwas identifiziert haben, das Auswirkungen auf die Überzeugungen von Verschwörungstheoretikern hat! Aber wenn KI-Chatbots Menschen effektiv von ihren hartnäckigen, antiwissenschaftlichen Überzeugungen abbringen können, was bedeutet das dann für wahre Überzeugungen?

Was können Chatbots?

Schauen wir uns diese neue Studie genauer an. Die Forscher wollten wissen, ob sich Menschen mit sachlichen Argumenten davon überzeugen lassen, Verschwörungstheorien nicht zu glauben.

An dieser Untersuchung nahmen mehr als 2.000 Teilnehmer in zwei Studien teil, die alle mit einem KI-Chatbot chatteten, nachdem sie eine Verschwörungstheorie beschrieben hatten, an die sie glaubten. Alle Teilnehmer wurden darüber informiert, dass sie mit einem KI-Chatbot sprachen.

Teilnehmer der „Behandlungs“-Gruppe (60 % aller Teilnehmer) chatteten mit einem personalisierten Chatbot auf der Grundlage ihrer Verschwörungstheorie und der Gründe, warum sie daran glaubten. Dieser Chatbot versuchte, diese Teilnehmer davon zu überzeugen, dass ihre Überzeugungen falsch waren, indem er in drei Gesprächsrunden sachliche Argumente verwendete (der Teilnehmer und der Chatbot sprechen abwechselnd, eine Runde). Die andere Hälfte der Teilnehmer führte eine allgemeine Diskussion mit einem Chatbot.

Die Forscher fanden heraus, dass etwa 20 % der Teilnehmer der Behandlungsgruppe nach ihrer Diskussion einen Rückgang ihres Glaubens an Verschwörungstheorien zeigten. Als die Forscher die Teilnehmer zwei Monate später befragten, zeigten die meisten von ihnen immer noch weniger Glauben an Verschwörungstheorien. Wissenschaftler haben sogar getestet, ob KI-Chatbots korrekt sind, und das war (größtenteils) der Fall.

Wir können sehen, dass zumindest einige Menschen durch ein dreistündiges Gespräch mit einem Chatbot davon überzeugt werden können, sich nicht auf eine Verschwörungstheorie einzulassen.

Damit wir Probleme mit Chatbots lösen können?

Chatbots sind vielversprechend, wenn es um zwei der Herausforderungen bei der Bekämpfung falscher Überzeugungen geht.

Da es sich um Computer handelt, wird ihnen keine „Agenda“ zugeschrieben, was das, was sie sagen, vertrauenswürdiger macht (insbesondere für jemanden, der das Vertrauen in öffentliche Institutionen verloren hat).

Chatbots können auch Argumente formulieren, die effektiver sind als einfache Fakten. Eine einfache Aufzählung von Fakten ist gegen falsche Überzeugungen sehr wirkungslos.

Allerdings sind Chatbots kein Allheilmittel. Diese Studie zeigte, dass sie am effektivsten für Menschen waren, die keine guten persönlichen Gründe hatten, an eine Verschwörungstheorie zu glauben, was bedeutet, dass sie Menschen, für die Verschwörung eine Gemeinschaft ist, wahrscheinlich nicht helfen werden.

Sollte ich also ChatGPT verwenden, um meine Fakten zu überprüfen?

Diese Studie zeigt, wie überzeugend Chatbots sein können. Das ist großartig, wenn sie darauf ausgelegt sind, Menschen von Fakten zu überzeugen, aber was ist, wenn das nicht der Fall ist?

Eine der wichtigsten Möglichkeiten, mit denen Chatbots Fehlinformationen oder Verschwörungen fördern können, besteht darin, dass die zugrunde liegenden Daten falsch oder voreingenommen sind: Der Chatbot berücksichtigt dies.

Manche Chatbots sind so konzipiert, dass sie bewusst Voreingenommenheit widerspiegeln oder die Transparenz erhöhen oder einschränken sollen. Sie können sogar mit benutzerdefinierten Versionen von ChatGPT chatten, um zu argumentieren, dass die Erde flach ist.

Eine zweite, besorgniserregendere Wahrscheinlichkeit besteht darin, dass Chatbots in dem Maße, in dem sie auf voreingenommene Aufforderungen reagieren (von denen Forscher möglicherweise nicht wissen, dass sie voreingenommen sind), Fehlinformationen (einschließlich Verschwörungsglauben) aufrechterhalten.

Wir wissen bereits, dass Menschen nicht in der Lage sind, Fakten zu überprüfen, und dass die Suchmaschinen, wenn sie dazu Suchmaschinen nutzen, auf ihre (unabsichtlich voreingenommenen) Suchbegriffe reagieren und dadurch den Glauben an Fehlinformationen verstärken. Das Gleiche gilt wahrscheinlich auch für Chatbots.

Letztlich sind Chatbots ein Werkzeug. Sie können nützlich sein, um Verschwörungstheorien zu entlarven, aber wie bei jedem Tool kommt es auf die Fähigkeiten und Absichten sowohl des Erstellers als auch des Benutzers an. Verschwörungstheorien beginnen bei den Menschen und sie sind es, die sie beenden.

Bereitgestellt von The Conversation

Dieser Artikel wurde von The Conversation unter einer Creative Commons-Lizenz erneut veröffentlicht. Lesen Sie den Originalartikel.Das Gespräch

Zitat: Kann KI uns aus den Fallen der Verschwörungstheorien retten? (2024, 14. September), abgerufen am 14. September 2024 von https://phys.org/news/2024-09-ai-conspiracy-theory-rabbit-holes.html

Dieses Dokument unterliegt dem Urheberrecht. Mit Ausnahme der fairen Nutzung für private Studien- oder Forschungszwecke darf kein Teil ohne schriftliche Genehmigung reproduziert werden. Der Inhalt dient ausschließlich Informationszwecken.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *