Wissenschaftsdetektivin Elisabeth Bik befürchtet, dass eine Flut von KI-generierten Bildern und Texten in wissenschaftlichen Artikeln das Vertrauen in die Wissenschaft schwächen könnte

Wissenschaftsdetektivin Elisabeth Bik befürchtet, dass eine Flut von KI-generierten Bildern und Texten in wissenschaftlichen Artikeln das Vertrauen in die Wissenschaft schwächen könnte.

Eine Infografik einer Ratte mit einem unverhältnismäßig großen Penis. Ein anderes zeigt menschliche Beine mit viel zu vielen Knochen. Eine Einleitung, die so beginnt: „Sicherlich, hier ist eine mögliche Einleitung zu Ihrem Thema.“

Hier sind einige der ungeheuerlichsten Beispiele für künstliche Intelligenz, die kürzlich in wissenschaftlichen Fachzeitschriften erschienen sind und die Welle von KI-generierten Texten und Bildern verdeutlichen, die die akademische Verlagsbranche erfasst.

Mehrere Experten, die Probleme in Studien verfolgen, sagten gegenüber AFP, dass der Aufstieg der KI die bestehenden Probleme im milliardenschweren Sektor verschlimmert habe.

Alle Experten wiesen darauf hin, dass KI-Programme wie ChatGPT ein nützliches Werkzeug zum Schreiben oder Übersetzen von Artikeln sein können, wenn sie sorgfältig überprüft und offengelegt werden.

Dies war jedoch bei mehreren aktuellen Fällen nicht der Fall, die irgendwie der Begutachtung durch Fachkollegen entgangen waren.

Anfang des Jahres wurde ein eindeutig KI-generiertes Bild einer Ratte mit unglaublich großen Genitalien in den sozialen Medien weit verbreitet.

Die Studie wurde in einer Zeitschrift des akademischen Riesen Frontiers veröffentlicht, der sie später zurückzog.

Eine weitere Studie wurde letzten Monat zurückgezogen, weil eine KI-Grafik Beine mit seltsamen polyartikulierten Knochen zeigte, die Händen ähnelten.

Obwohl es sich bei diesen Beispielen um Bilder handelt, scheint es ChatGPT zu sein, ein im November 2022 gestarteter Chatbot, der die Art und Weise, wie Forscher auf der ganzen Welt ihre Ergebnisse präsentieren, am meisten verändert hat.

Eine von Elsevier veröffentlichte Studie ging im März wegen ihrer Einleitung viral, bei der es sich eindeutig um eine ChatGPT-Eingabeaufforderung handelte, die lautete: „Hier ist auf jeden Fall eine mögliche Einleitung für Ihr Thema.“

Solche peinlichen Beispiele seien selten und würden den Peer-Review-Prozess der renommiertesten Fachzeitschriften wahrscheinlich nicht bestehen, sagten mehrere Experten gegenüber AFP.

Umstellung in Papierfabriken

Der Einsatz von KI ist nicht immer leicht zu erkennen. Ein Hinweis ist jedoch, dass ChatGPT dazu neigt, bestimmte Wörter zu bevorzugen.

Andrew Gray, Bibliothekar am University College London, hat Millionen von Artikeln nach übermäßigem Gebrauch von Wörtern wie „akribisch“, „komplex“ oder „lobenswert“ durchforstet.

Es wurde festgestellt, dass im Jahr 2023 mindestens 60.000 Artikel den Einsatz von KI betrafen, also mehr als ein Prozent der jährlichen Gesamtzahl.

„Für 2024 werden die Zahlen sehr deutlich steigen“, sagte Herr Gray gegenüber AFP.

Mittlerweile wurden im vergangenen Jahr mehr als 13.000 Artikel zurückgezogen, mit Abstand die meisten in der Geschichte, so die US-Gruppe Retraction Watch.

KI hat es schlechten Akteuren im wissenschaftlichen Verlagswesen und in der akademischen Welt ermöglicht, die Überflutung mit „unerwünschten“ Artikeln zu „industrialisieren“, sagte Ivan Oransky, Mitbegründer von Retraction Watch, gegenüber AFP.

Zu diesen schlechten Akteuren zählen die sogenannten Papierfabriken.

Diese „Betrüger“ verkaufen die Urheberschaft ihrer Arbeit an Forscher und produzieren große Mengen an plagiierten oder falschen Artikeln von sehr schlechter Qualität, erklärt Elisabeth Bik, eine niederländische Forscherin, die Manipulationen an wissenschaftlichen Bildern aufdeckt.

Schätzungsweise 2 % aller Studien werden von Papierfabriken veröffentlicht, aber die Zahl „explodiert“, da KI die Schleusen öffnet, sagte Bik gegenüber AFP.

Dieses Problem wurde deutlich, als der akademische Verlagsriese Wiley im Jahr 2021 den angeschlagenen Verlag Hindawi kaufte.

Seitdem hat das amerikanische Unternehmen mehr als 11.300 Artikel im Zusammenhang mit Sonderausgaben von Hindawi zurückgezogen, sagte ein Wiley-Sprecher gegenüber AFP.

Wiley hat jetzt einen „Paper Mill Detection Service“ zur Erkennung von KI-Missbrauch eingeführt, der wiederum auf KI basiert.

“Teufelskreis”

Oransky betonte, dass das Problem nicht nur in den Papierfabriken liegt, sondern in einer breiteren akademischen Kultur, die Forscher dazu drängt, „zu veröffentlichen oder unterzugehen“.

„Verleger haben durch die Entwicklung dieser Systeme, die Volumen erfordern, Gewinnspannen von 30 bis 40 Prozent und Gewinne in Milliardenhöhe erzielt“, sagte er.

Die unstillbare Nachfrage nach immer mehr Dokumenten übe zusätzlichen Druck auf Akademiker aus, die nach ihrer Leistung eingestuft würden, und entstehe einen „Teufelskreis“, sagte er.

Viele haben sich an ChatGPT gewandt, um Zeit zu sparen, was nicht unbedingt eine schlechte Sache ist.

Da fast alle Artikel auf Englisch veröffentlicht werden, können die KI-Übersetzungstools laut Bik für Forscher – darunter auch sie selbst – von unschätzbarem Wert sein, für die Englisch nicht ihre Muttersprache ist.

Manche befürchten aber auch, dass Fehler, Erfindungen und unbeabsichtigte Plagiate der KI das Vertrauen der Gesellschaft in die Wissenschaft zunehmend untergraben könnten.

Ein weiteres Beispiel für KI-Missbrauch ereignete sich letzte Woche, als ein Forscher herausfand, dass in einer Fachzeitschrift etwas veröffentlicht worden war, das wie eine umgeschriebene Version von ChatGPT aus einer seiner eigenen Studien aussah.

Samuel Payne, Professor für Bioinformatik an der Brigham Young University in den USA, sagte gegenüber AFP, er sei im März mit der Auswertung der Studie beauftragt worden.

Nachdem ihm klar wurde, dass es sich um ein „100-prozentiges Plagiat“ seiner eigenen Studie handelte – der Text jedoch offenbar von einem KI-Programm umformuliert worden war –, lehnte er das Papier ab.

Payne sagte, er sei „schockiert“, als er feststellte, dass die plagiierte Arbeit einfach an anderer Stelle veröffentlicht worden sei, und zwar in einer neuen Wiley-Zeitschrift namens „ Proteomik.

Es wurde nicht zurückgezogen.

© 2024 AFP

Zitat:Flut von „Müll“: Wie KI das wissenschaftliche Publizieren verändert (10. August 2024), abgerufen am 10. August 2024 von https://phys.org/news/2024-08-junk-ai-scientific-publishing.html

Dieses Dokument unterliegt dem Urheberrecht. Mit Ausnahme der fairen Nutzung für private Studien- oder Forschungszwecke darf kein Teil ohne schriftliche Genehmigung reproduziert werden. Der Inhalt dient ausschließlich Informationszwecken.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *