Es genügt zu sagen, dass dieser Berg an Beweisen aus direkten Quellen die kommentierten Bilder konservativer Kommentatoren wiegt Chuck Callesto Und Dinesh D’SouzaBeide wurden in der Vergangenheit bei der Verbreitung falscher Wahlinformationen erwischt.

Wenn es um KI-Betrugsvorwürfe geht, gilt: Je mehr unterschiedliche Informationsquellen Sie haben, desto besser. Wenn eine einzelne Quelle problemlos ein plausibles Bild eines Ereignisses erzeugen kann, ist die Wahrscheinlichkeit, dass mehrere unabhängige Quellen, die dasselbe Ereignis aus verschiedenen Blickwinkeln zeigen, an derselben Falschmeldung beteiligt sind, deutlich geringer. Fotos, die mit Videobeweisen übereinstimmen, sind sogar noch besser, insbesondere da die Erstellung langer, überzeugender Videos von Menschen oder komplexen Szenen für viele KI-Tools weiterhin eine Herausforderung darstellt.

Es ist auch wichtig, die Originalquelle aller vermeintlich KI-generierten Bilder, die Sie ansehen, ausfindig zu machen. Für einen Social-Media-Nutzer ist es unglaublich einfach, ein KI-generiertes Bild zu erstellen, so zu tun, als stamme es aus einer Nachrichtenmeldung oder Live-Aufnahmen eines Ereignisses, und dann die offensichtlichen Mängel dieses falschen Bildes als „Beweis“ dafür zu verwenden, dass das Ereignis selbst gefälscht war. Links zu Originalbildern von der Website der Originalquelle oder einem verifizierten Konto sind viel zuverlässiger als Screenshots, die von irgendwoher stammen (und/oder von irgendjemandem bearbeitet wurden).

Verräterische Zeichen

Während es bei einem großen Nachrichtenereignis wie einer Präsidentschaftskundgebung hilfreich ist, Original- und/oder bestätigende Quellen zu finden, kann es schwieriger sein, die Echtheit von Bildern und Videos aus einer einzigen Quelle zu bestätigen. Tools wie Winston AI Image Detector oder IsItAI.com behaupten, maschinelle Lernmodelle zu verwenden, um festzustellen, ob es sich bei einem Bild um KI handelt oder nicht. Doch während sich die Erkennungstechniken ständig weiterentwickeln, basieren diese Arten von Tools in der Regel auf unbewiesenen Theorien, die sich in umfangreichen Studien nicht als zuverlässig erwiesen haben, was das Risiko falsch positiver/negativer Ergebnisse zu einem realen Risiko macht.

Hany Farid, Professor an der University of California in Berkeley, zitierte auf LinkedIn zwei GetReal Labs-Modelle, die auf von Trump veröffentlichten Fotos der Harris-Kundgebung „keine Hinweise auf KI-Generierung“ zeigten. Farid zitierte dann bestimmte Teile des Bildes, die auf seine Authentizität hinweisen.

„Der Text auf den Schildern und dem Flugzeug zeigt keine der üblichen Anzeichen generativer KI“, schreibt Farid. „Obwohl das Fehlen von Beweisen für eine Manipulation nicht beweist, dass das Bild echt ist. Wir finden keine Hinweise darauf, dass dieses Bild KI-generiert oder digital verändert wurde. »

Und selbst wenn Teile eines Fotos wie absurde Zeichen einer KI-Manipulation erscheinen (wie verzerrte Hände in einigen KI-Bildmodellen), kann es für einige offensichtliche optische Täuschungen eine einfache Erklärung geben. Die BBC weist darauf hin, dass die fehlende Reflexion der Menschenmenge im Flugzeug auf einigen Fotos von Harris‘ Kundgebung durch einen großen leeren Asphaltbereich zwischen dem Flugzeug und der Menschenmenge verursacht werden könnte, wie aus umgekehrten Blickwinkeln der Szene zu sehen ist. Das einfache Umkreisen seltsamer Objekte auf einem Foto mit einer roten Markierung ist nicht unbedingt ein starker Beweis für KI-Manipulation an sich.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *