Dank der heutigen generativen KI-Tools ist es furchtbar einfach, Deepfake-Pornografie von jedem zu erstellen. Ein Bericht von Home Security Heroes (einem Unternehmen, das Dienste zum Schutz vor Identitätsdiebstahl bewertet) aus dem Jahr 2023 ergab, dass nur ein klares Bild eines Gesichts und weniger als 25 Minuten erforderlich sind, um ein 60-sekündiges Deepfake-Pornografievideo kostenlos zu erstellen.

Die Welt wurde im Januar auf diese neue Realität aufmerksam, als schockierende Bilder von Taylor Swift in den sozialen Medien kursierten. Einer davon wurde 47 Millionen Mal angesehen, bevor er gelöscht wurde. Auch anderen in der Unterhaltungsindustrie, darunter koreanischen Popstars, wurden Bilder gestohlen und missbraucht, und Menschen wurden aus dem Rampenlicht entfernt. Eines haben jedoch alle Opfer gemeinsam: Dem Bericht von 2023 zufolge sind 99 % der Opfer Frauen oder Mädchen.

Diese schlimme Situation inspiriert Frauen zum Handeln, vor allem weil sie genug haben. Wie Startup-Gründerin Nadia Lee sagt: „Wenn Sicherheitstechnologien nicht im gleichen Tempo voranschreiten wie die KI-Entwicklung, dann sind wir am Arsch. » Obwohl viel über Deepfake-Detektoren geforscht wurde, haben sie Schwierigkeiten, mit den Tools zur Deepfake-Generierung Schritt zu halten. Darüber hinaus sind Detektoren nur dann nützlich, wenn eine Plattform Deepfakes beseitigen möchte und die meisten pornografischen Deepfakes auf Websites gehostet werden, die diesem Genre gewidmet sind.

„Unsere Generation erlebt ihren eigenen Oppenheimer-Moment“, sagt Lee, CEO des australischen Start-ups That’sMyFace. „Wir haben dieses Ding geschaffen“ – generative KI – „und wir können damit in diese oder jene Richtung gehen.“ » Lees Unternehmen bietet visuelle Erkennungstools in erster Linie für Firmenkunden an, die sicherstellen möchten, dass ihre Logos, Uniformen oder Produkte nicht in pornografischen Bildern erscheinen (denken Sie beispielsweise an Flugbegleiter). Ihr langfristiges Ziel ist es jedoch, ein Tool zu entwickeln, mit dem jede Frau das gesamte Internet nach gefälschten Bildern oder Videos mit ihrem eigenen Gesicht durchsuchen kann.

„Wenn sich Sicherheitstechnologien nicht im gleichen Tempo weiterentwickeln wie die KI-Entwicklung, dann sind wir am Arsch. » —Nadia Lee, Es ist mein Gesicht

Ein anderer Startup-Gründer hatte einen persönlichen Grund, sich zu engagieren. Breeze Liu wurde im Jahr 2020 selbst Opfer von Deepfake-Pornografie; Am Ende fand sie mehr als 800 Links, die zu dem gefälschten Video führten. Sie fühlte sich gedemütigt, sagt sie, und war entsetzt, als sie feststellte, dass ihr kaum ein Rechtsmittel zur Verfügung stand: Die Polizei sagte, sie könne nichts tun, und sie müsse selbst alle Verdächtigen identifizieren, auf denen das Video aufgetaucht sei, und einen Antrag auf Entfernung stellen. Einsprüche, die nicht immer erfolgreich waren. Es musste einen besseren Weg geben, dachte sie. „Wir müssen KI nutzen, um KI zu bekämpfen“, sagt sie.

Liu, der bereits in der Technologiebranche tätig war, gründete Alecto AI, ein Startup, benannt nach einer griechischen Rachegöttin. Die von ihm entwickelte App ermöglicht es Nutzern, mithilfe der Gesichtserkennung den Missbrauch des eigenen Bildes auf großen Social-Media-Plattformen zu überprüfen (Partnerschaften mit Pornoplattformen werden nicht in Betracht gezogen). Liu möchte mit Social-Media-Plattformen zusammenarbeiten, damit seine App auch die sofortige Entfernung anstößiger Inhalte ermöglichen kann. „Wenn man den Inhalt nicht entfernen kann, zeigt man den Leuten nur wirklich anstößige Bilder und erzeugt noch mehr Stress“, erklärt sie.

Liu sagt, dass sie derzeit mit Meta über ein Pilotprogramm verhandelt, von dem sie glaubt, dass es der Plattform durch das Angebot einer automatisierten Inhaltsmoderation zugute kommen wird. Sie denkt jedoch darüber nach, dass das Tool Teil der „Infrastruktur der Online-Identität“ werden könnte und es den Menschen ermöglichen würde, auch Dinge wie gefälschte Profile in sozialen Medien oder mit ihrem Bild erstellte Website-Profile zu überprüfen.

Können Vorschriften Deepfake-Pornos bekämpfen?

Deepfake-Inhalte von Social-Media-Plattformen zu entfernen ist schon schwierig genug, aber von Pornoplattformen ist es noch schwieriger. Um eine bessere Chance zu haben, die Botschaft zu vermitteln, halten Befürworter des Schutzes vor bildbasiertem sexuellen Missbrauch eine Regulierung für notwendig, obwohl sie unterschiedlicher Meinung darüber sind, welche Art von Regulierung am effektivsten wäre.

Susanna Gibson hat die gemeinnützige Organisation MyOwn ins Leben gerufenNach einer eigenen Deepfake-Horrorgeschichte. Sie kandidierte 2023 für einen Sitz im Abgeordnetenhaus von Virginia, als Virginias offizielle Republikanische Partei sexuelle Bilder von ihr verschickte, die ohne ihre Zustimmung erstellt und geteilt worden waren, darunter, wie sie sagt, Deepfake-Porno-Screenshots. Nachdem sie die Wahl knapp verloren hatte, widmete sie sich der Leitung der Gesetzgebungsinitiative in Virginia und dann landesweit, um bildbasierten sexuellen Missbrauch zu bekämpfen.

„Das Problem ist, dass jeder Staat anders ist und es sich also um einen Flickenteppich aus Gesetzen handelt. Einige sind eindeutig besser als andere. » –Susanna Gibson, MyOwn

Sein erster Sieg war ein vom Gouverneur von Virginia im April unterzeichneter Gesetzentwurf zur Ausweitung des bestehenden „Racheporno“-Gesetzes des Staates auf weitere Arten von Bildern. „Es ist bei weitem nicht das, was meiner Meinung nach sein sollte, aber es ist ein Schritt in die richtige Richtung, um die Menschen zu schützen“, sagt Gibson.

Obwohl mehrere Bundesgesetze vorgelegt wurden, um die nicht einvernehmliche Verbreitung von intimen Bildern oder Deepfake-Pornografie ausdrücklich zu kriminalisieren, sagt Gibson, sie habe keine große Hoffnung, dass diese Gesetzesentwürfe im Land zum Gesetz werden. Es gebe mehr Maßnahmen auf Landesebene, sagte sie.

„Derzeit gibt es in 49 Bundesstaaten sowie im District of Columbia Gesetze gegen die nicht einvernehmliche Verbreitung vertraulicher Bilder“, sagt Gibson.Das Problem ist jedoch, dass jeder Staat anders ist und es sich also um einen Flickenteppich aus Gesetzen handelt. Und einige sind eindeutig besser als andere. » Gibson weist darauf hin, dass fast alle Gesetze den Nachweis verlangen, dass der Täter mit der Absicht gehandelt hat, das Opfer zu belästigen oder einzuschüchtern, was sehr schwierig zu beweisen sein kann.

Unter den verschiedenen Gesetzen und vorgeschlagenen neuen Gesetzen gibt es erhebliche Meinungsverschiedenheiten darüber, ob die Verbreitung von Deepfake-Pornografie als Straf- oder Zivilsache betrachtet werden sollte. Und obwohl es zivilrechtlich ist, was bedeutet, dass Opfer das Recht haben, Schadensersatz zu verlangen, besteht Uneinigkeit darüber, ob Opfer die Personen verklagen können sollten, die Deepfake-Pornografie verbreitet haben, oder die Plattformen, die dies gehostet haben.

Außerhalb der Vereinigten Staaten ist die Gesetzgebung noch unterschiedlicher. Im Vereinigten Königreich stellte der im Jahr 2023 verabschiedete Online Safety Act die Verbreitung von Deepfake-Pornografie unter Strafe, und eine in diesem Jahr vorgeschlagene Änderung könnte auch deren Entstehung unter Strafe stellen. Die Europäische Union hat kürzlich eine Richtlinie zur Bekämpfung von Gewalt und Cybergewalt gegen Frauen verabschiedet, die die Verbreitung von Deepfake-Pornografie einschließt. Die Mitgliedstaaten haben jedoch bis 2027 Zeit, die neuen Regeln umzusetzen. In Australien hat ein Gesetz aus dem Jahr 2021 die Veröffentlichung intimer Bilder ohne Zustimmung zu einer zivilrechtlichen Straftat erklärt. Ein neuer Gesetzentwurf zielt jedoch darauf ab, sie zu einer Straftat zu machen und zielt auch darauf ab, Deepfake-Bilder ausdrücklich zu bekämpfen. In Südkorea gibt es ein Gesetz, das sich direkt mit Deepfake-Material befasst und im Gegensatz zu vielen anderen keine Beweise für eine böswillige Absicht verlangt. In China gibt es ein umfassendes Gesetz, das die Verbreitung „synthetischer Inhalte“ einschränkt, es gibt jedoch keinen Hinweis darauf, dass die Regierung diese Regelung nutzt, um gegen Deepfake-Pornografie vorzugehen.

Bis Frauen reguliert werden, könnten Dienste wie Alecto AI und That’sMyFace diese Lücken schließen. Aber diese Situation erinnert an die Anti-Vergewaltigungs-Pfeifen, die manche Stadtfrauen in ihren Handtaschen tragen, um Hilfe zu rufen, wenn sie in einer dunklen Gasse angegriffen werden. Es ist natürlich hilfreich, ein solches Tool zu haben, aber es wäre besser, wenn unsere Gesellschaft sich mit sexueller Ausbeutung in all ihren Formen befassen und dafür sorgen würde, dass solche Übergriffe gar nicht erst passieren.

Artikel auf Ihrer Website

Verwandte Artikel im Internet

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *