Als Reaktion auf diese Beschwerden argumentierten Beklagte wie Meta, OpenAI und Bloomberg, dass ihre Handlungen eine faire Nutzung darstellten. Eine Beschwerde gegen EleutherAI, die die Bücher zunächst entfernte und öffentlich machte, wurde von den Klägern freiwillig abgewiesen.

In den übrigen Fällen befinden sich die Rechtsstreitigkeiten noch im Anfangsstadium, so dass Fragen zur Autorisierung und Zahlung noch ungeklärt sind. The Pile wurde inzwischen von seiner offiziellen Download-Site entfernt, ist aber weiterhin über Filesharing-Dienste verfügbar.

„Technologieunternehmen waren brutal“, sagte Amy Keller, Verbraucherschutzanwältin und Partnerin der Anwaltskanzlei DiCello Levitt, die Klagen im Namen von Kreativen eingereicht hat, deren Arbeit angeblich von Unternehmen der KI ohne deren Zustimmung kooptiert wurde.

„Die Leute machen sich Sorgen, dass sie keine Wahl hatten“, sagte Keller. „Ich denke, darin liegt das eigentliche Problem. »

Züchte einen Papagei

Viele Kreative sind unsicher, was den weiteren Weg angeht.

Vollzeitbeschäftigte YouTuber überwachen die unbefugte Nutzung ihrer Arbeit, reichen regelmäßig Deaktivierungsanfragen ein und einige befürchten, dass es nur eine Frage der Zeit ist, bis KI ähnliche Inhalte wie sie generieren oder sogar völlige Nachahmungen produzieren kann.

Pakman, der Schöpfer von Die David Pakman Showhabe kürzlich beim Surfen auf TikTok die Leistungsfähigkeit der KI gesehen. Er stieß auf ein Video mit der Bezeichnung „Tucker Carlson-Musikvideo“, doch als Pakman es ansah, war er überrascht. Es sah so aus, als hätte Carlson etwas gesagt, aber es war Wort für Wort das, was Pakman in seiner YouTube-Show sagte, bis hin zum Takt. Er war ebenso beunruhigt darüber, dass nur einer der Kommentatoren des Videos zu erkennen schien, dass es sich um eine Fälschung handelte – einen Klon von Carlsons Stimme, die Pakmans Drehbuch vorlas.

„Das wird ein Problem sein“, sagte Pakman in einem YouTube-Video, das er über die Fälschung gemacht hatte. „Das kannst du mit jedem machen. »

Sid Black, Mitbegründer von EleutherAI, schrieb auf GitHub, dass er die YouTube-Untertitel mithilfe eines Skripts erstellt habe. Dieses Skript lädt Untertitel von der YouTube-API auf die gleiche Weise herunter, wie der Browser eines YouTube-Benutzers sie herunterlädt, wenn er ein Video ansieht. Laut Dokumentation auf GitHub verwendete Black 495 Suchbegriffe, um die Videos auszuwählen, darunter „funny vloggers“, „Einstein“, „black protestant“, „protective social services“, „infowars“, „quantum chromodynamics“ und „Ben Shapiro“. , „Uiguren“, „Früchte“, „Kuchenrezept“, „Nazca-Linien“ und „flache Erde“.

Obwohl die Nutzungsbedingungen von YouTube den Zugriff auf seine Videos durch „automatisierte Mittel“ verbieten, haben mehr als 2.000 GitHub-Benutzer den Code favorisiert oder genehmigt.

„Es gibt mehrere Möglichkeiten, wie YouTube verhindern könnte, dass dieses Modul funktioniert, wenn es das ist, wonach sie gesucht haben“, schrieb Jonas Depoix, Ingenieur für maschinelles Lernen, in einer Diskussion auf GitHub, wo er den Code veröffentlichte, den Black für den Zugriff auf die YouTube-Untertitel verwendete. „Das ist bisher nicht passiert. »

In einer E-Mail an Proof News sagte Depoix, er habe den Code nicht mehr verwendet, seit er ihn vor einigen Jahren als Universitätsstudent für ein Projekt geschrieben habe, und sei überrascht, dass die Leute ihn nützlich finden. Er lehnte es ab, Fragen zu den YouTube-Regeln zu beantworten.

Jack Malon, ein Google-Sprecher, sagte in einer E-Mail-Antwort auf eine Anfrage nach einem Kommentar, dass das Unternehmen „im Laufe der Jahre Maßnahmen ergriffen habe, um missbräuchliches und unbefugtes Scraping zu verhindern“. Auf Fragen, ob andere Unternehmen das Material als Schulungsdaten nutzten, antwortete er nicht.

Von den von KI-Unternehmen verwendeten Videos stammen 146 von Einsteins Papageiein Kanal, der fast 150.000 Abonnenten hat. Marcia, die Hüterin des gabunischen Graupapageien, die aus Angst, die Sicherheit des berühmten Vogels zu gefährden, ihren Nachnamen nicht verwenden wollte, sagte, dass sie es zunächst amüsant fand, zu erfahren, dass die Modelle der KI die Worte von aufgenommen hatten ein Nachahmerpapagei.

„Wer möchte schon die Stimme eines Papageis benutzen?“ fragte Marcia. „Aber ich weiß, dass er sehr gut spricht. Er spricht mit meiner Stimme. Also wiederholt er mich und die KI wiederholt den Papagei. »

Sobald die Daten von der KI erfasst wurden, können sie nicht gelöscht werden. Marcia war beunruhigt über all die unbekannten Möglichkeiten, wie die Informationen ihres Vogels genutzt werden könnten, einschließlich der Erstellung eines digitalen Duplikats des Papageis und, wie sie befürchtete, der Möglichkeit, daraus einen Fluch zu machen.

„Wir betreten Neuland“, sagte Marcia.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *