Einige Fortune-500-Unternehmen haben mit dem Testen von Software begonnen, die die Fälschung einer echten Person während eines Live-Videoanrufs erkennen kann, nachdem eine Reihe von Betrügereien stattgefunden hatten, bei denen betrügerische Arbeitssuchende eine Vertragsprämie akzeptierten und dann davonliefen.

Die Erkennungstechnologie wird von Get Real Labs bereitgestellt, einem neuen Unternehmen, das von Hany Farid, einem UC-Berkeley-Professor und renommierten Experten für Deepfakes sowie Bild- und Videomanipulation, gegründet wurde.

Get Real Labs hat eine Reihe von Tools entwickelt, um Bilder, Audio- und Videodateien zu erkennen, die mit künstlicher Intelligenz oder manuellen Methoden generiert oder manipuliert wurden. Die Software des Unternehmens kann das Gesicht während eines Videoanrufs analysieren und Hinweise erkennen, die darauf hindeuten könnten, dass es künstlich erzeugt und auf den Körper einer realen Person übertragen wurde.

„Das sind keine hypothetischen Angriffe, wir hören immer mehr davon“, erklärt Farid. „In einigen Fällen scheint es so, als ob sie versuchen, geistiges Eigentum zu erlangen und das Unternehmen zu infiltrieren. In anderen Fällen scheint es rein finanzieller Natur zu sein, sie nehmen einfach die Unterzeichnungsprämie.“

Im Jahr 2022 warnte das FBI vor Arbeitssuchenden, die sich bei Videoanrufen als echte Menschen ausgeben. Das in Großbritannien ansässige Design- und Ingenieurbüro Arup verlor 25 Millionen US-Dollar an einen Betrüger, der sich als CFO des Unternehmens ausgab. Auch Romantik-Betrüger haben sich diese Technologie zu eigen gemacht, um ahnungslose Opfer zu betrügen und ihre Ersparnisse zu stehlen.

Sich in einem Live-Video-Feed als echte Person auszugeben, ist nur ein Beispiel für die Art von Täuschung, die die Realität verschwimmen lässt und die dank KI jetzt möglich ist. Große Sprachmodelle können eine reale Person in einem Online-Chat überzeugend nachahmen, während kurze Videos mit Tools wie Sora von OpenAI generiert werden können. Beeindruckende Fortschritte in der KI in den letzten Jahren haben Deepfaking attraktiver und zugänglicher gemacht. Kostenlose Software macht es einfach, Deepfakes-Fähigkeiten zu perfektionieren, und leicht zugängliche KI-Tools können Textaufforderungen in realistische Fotos und Videos umwandeln.

Aber die Nachahmung einer Person in Live-Videos ist ein relativ neues Gebiet. Bei der Erstellung dieser Art von Deepfake kommt in der Regel eine Mischung aus maschinellem Lernen und Gesichtsverfolgungsalgorithmen zum Einsatz, um ein gefälschtes Gesicht nahtlos an ein echtes Gesicht anzupassen, sodass ein Eindringling kontrollieren kann, was eine unerlaubte Ähnlichkeit auf dem Bildschirm zu sagen und zu tun scheint.

Farid demonstrierte die Technologie von Get Real Labs bei WIRED. Wenn ein Foto eines Besprechungsraums in einem Unternehmen gezeigt wird, analysiert die Software die mit dem Bild verknüpften Metadaten auf Anzeichen dafür, dass es verändert wurde. Mehrere große KI-Unternehmen, darunter OpenAI, Google und Meta, fügen inzwischen digitale Signaturen zu KI-generierten Bildern hinzu und bieten so eine zuverlässige Möglichkeit, deren Unechtheit zu bestätigen. Allerdings bieten nicht alle Tools solche Puffer, und Open-Source-Bildgeneratoren können so konfiguriert werden, dass sie dies nicht tun. Auch Metadaten können leicht manipuliert werden.

GIF: Will Knight

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *