Perplexity reagierte nicht auf Anfragen nach Kommentaren.

In einer per E-Mail an WIRED gesendeten Erklärung verglich Robert Thomson, CEO von News Corp, Perplexity negativ mit OpenAI. „Wir applaudieren prinzipientreuen Unternehmen wie OpenAI, die verstehen, dass Integrität und Kreativität unerlässlich sind, wenn wir das Potenzial der künstlichen Intelligenz ausschöpfen wollen“, heißt es in der Erklärung. „Perplexity ist nicht das einzige KI-Unternehmen, das geistiges Eigentum missbraucht, und es ist nicht das einzige KI-Unternehmen, das wir energisch und rigoros verfolgen werden.“ Wir haben deutlich gemacht, dass wir lieber vor Gericht gehen als klagen, aber im Interesse unserer Journalisten, unserer Autoren und unseres Unternehmens müssen wir die Kleptokratie der Inhalte in Frage stellen.“

OpenAI sieht sich jedoch mit eigenen Vorwürfen der Markenverwässerung konfrontiert. In New York Times vs. OpenAIDie Times behauptet, dass ChatGPT und Bing Chat der Times erfundene Zitate zuschreiben werden und wirft OpenAI und Microsoft vor, ihren Ruf durch die Verwässerung ihrer Marke zu schädigen. In einem in der Klage angeführten Beispiel behauptet die Times, Bing Chat habe behauptet, die Times habe Rotwein (in Maßen) als „herzgesundes“ Lebensmittel bezeichnet, obwohl dies in Wirklichkeit nicht der Fall war; Die Times sagt, ihre Berichterstattung habe Behauptungen über die gesundheitlichen Vorteile eines moderaten Alkoholkonsums widerlegt.

„Das Kopieren von Nachrichtenartikeln zur Nutzung kommerzieller generativer KI-Ersatzprodukte ist illegal, wie wir in unseren Briefen an Perplexity und in unserem Rechtsstreit gegen Microsoft und OpenAI deutlich gemacht haben“, sagte Charlie Stadtlander, Direktor für externe Kommunikation der New York Times. „Wir begrüßen diese von Dow Jones und der New York Post eingereichte Klage als einen wichtigen Schritt, um sicherzustellen, dass die Inhalte der Verlage vor dieser Art der Veruntreuung geschützt sind.“

Wenn sich Verleger mit dem Argument durchsetzen, dass Halluzinationen möglicherweise gegen das Markenrecht verstoßen, könnten KI-Unternehmen mit „enormen Schwierigkeiten“ konfrontiert werden, so Matthew Sag, Professor für Recht und künstliche Intelligenz an der Universität Emory.

„Es ist absolut unmöglich zu garantieren, dass ein Sprachmodell nicht halluziniert“, sagt Sag. Die Art und Weise, wie linguistische Modelle funktionieren, indem sie vorhersagen, welche Wörter als Reaktion auf Aufforderungen richtig klingen, sei immer eine Art Halluzination – manchmal scheine es einfach plausibler als andere.

„Wir nennen es nur dann eine Halluzination, wenn es nicht mit unserer Realität übereinstimmt, aber der Prozess ist genau derselbe, ob uns das Ergebnis gefällt oder nicht.“

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *