Diese Geschichte wurde ursprünglich in The Algorithm, unserem wöchentlichen KI-Newsletter, veröffentlicht. Um Geschichten wie diese zuerst in Ihrem Posteingang zu erhalten, hier registrieren.

Ich erinnere mich an das erste Mal, als ich ein VR-Headset ausprobiert habe. Es war die erste Oculus Rift, und ich wäre fast ohnmächtig geworden, nachdem ich eine intensive, aber optisch unangenehme VR-Achterbahnfahrt erlebt hatte. Aber das war vor zehn Jahren und das Erlebnis ist seitdem viel reibungsloser und realistischer geworden. Dieses beeindruckende Maß an Immersion könnte jedoch ein Problem darstellen: Es macht uns in der virtuellen Realität besonders anfällig für Cyberangriffe.

Ich habe gerade einen Artikel über eine neue Art von Sicherheitslücke veröffentlicht, die von Forschern der University of Chicago entdeckt wurde. Der von Christoper Nolans Film „Inception“ inspirierte Angriff ermöglicht es Hackern, eine Anwendung zu erstellen, die bösartigen Code in das Meta Quest VR-System einschleust. Anschließend wird ein Klon des Startbildschirms und der Apps gestartet, der genauso aussieht wie der Originalbildschirm des Benutzers. Einmal drinnen, können Angreifer alles sehen, aufzeichnen und ändern, was die Person mit dem VR-Headset macht, indem sie Stimme, Bewegungen, Gesten, Tastenanschläge, Browsing-Aktivitäten und sogar Interaktionen mit anderen Personen in Echtzeit verfolgen. Neue Angst = freigeschaltet.

Die Ergebnisse sind ziemlich verblüffend, auch weil die ahnungslosen Testpersonen der Forscher überhaupt keine Ahnung hatten, dass sie angegriffen wurden. Mehr dazu könnt ihr in meiner Story hier lesen.

Es ist schockierend, wie fragil und unsicher diese VR-Systeme sind, insbesondere da Metas Quest-Headset das beliebteste Produkt seiner Art auf dem Markt ist und von Millionen von Menschen verwendet wird.

Aber was vielleicht noch beunruhigender ist, ist die Tatsache, dass solche Angriffe passieren können, ohne dass wir es merken, und dass sie unseren Realitätssinn verzerren können. Frühere Studien hätten gezeigt, wie schnell Menschen anfangen, Dinge in AR oder VR als real wahrzunehmen, sagt Franzi Roesner, außerordentliche Professorin für Informatik an der University of Washington, die Sicherheit und Datenschutz studiert, aber nicht an der Studie teilgenommen hat. Selbst in sehr einfachen virtuellen Umgebungen beginnen Menschen, um Objekte herumzulaufen, als ob sie tatsächlich dort wären.

Virtuelle Realität hat das Potenzial, Fehlinformationen, Täuschungen und andere problematische Inhalte auf Steroide zu übertragen, weil sie das Gehirn von Menschen erschließt und sie physiologisch und unbewusst täuscht, erklärt Roesner: „Das Eintauchen ist wirklich kraftvoll.“ »

Und da die VR-Technologie relativ neu ist, achten die Menschen bei ihrer Nutzung nicht besonders auf Sicherheitslücken oder Fallstricke. Um den Stealth-Charakter des ersten Angriffs zu testen, rekrutierten Forscher der University of Chicago 27 freiwillige Virtual-Reality-Experten, um damit zu experimentieren. Eine der Teilnehmerinnen war Jasmine Lu, eine Doktorandin der Informatik an der University of Chicago. Sie sagt, sie nutze, studiere und arbeite seit 2017 regelmäßig mit VR-Systemen. Dennoch habe der Angriff sie und fast alle anderen Beteiligten überrascht.

„Soweit ich das beurteilen kann, gab es keinen Unterschied, außer einer etwas langsameren Ladezeit, Dinge, die die meisten Leute meiner Meinung nach nur auf kleine Störungen im System übertragen würden“, erklärt Lu.

Eines der grundlegenden Probleme, mit denen Menschen bei der Nutzung der virtuellen Realität konfrontiert sein könnten, sei, ob sie dem, was sie sehen, vertrauen können, sagt Roesner.

Lesen stimmt zu. Sie sagt, dass wir bei Online-Browsern darauf trainiert wurden, zu erkennen, was legitim aussieht und was nicht, aber bei der virtuellen Realität ist das einfach nicht der Fall. Die Leute wissen nicht, wie ein Angriff aussieht.

Dies hängt mit einem wachsenden Problem zusammen, das wir mit dem Aufkommen generativer KI und sogar bei Text, Audio und Video sehen: Es ist bekanntermaßen schwierig, echte Inhalte von KI-generierten Inhalten zu unterscheiden. Der erste Angriff zeigt, dass wir die virtuelle Realität als eine weitere Dimension in einer Welt betrachten müssen, in der es immer schwieriger wird zu wissen, was real ist und was nicht.

Da immer mehr Menschen diese Systeme nutzen und immer mehr Produkte auf den Markt kommen, liegt es an der Technologiebranche, Wege zu entwickeln, um sie sicherer und zuverlässiger zu machen.

Die guten Nachrichten? Obwohl VR-Technologien kommerziell erhältlich seien, seien sie nicht weit verbreitet, sagt Roesner. Es ist also an der Zeit, jetzt mit der Stärkung der Abwehrkräfte zu beginnen.


Lesen Sie nun den Rest von „Der Algorithmus“.

Tiefergehendes Lernen

Ein OpenAI-Spinoff hat ein KI-Modell entwickelt, das Robotern dabei hilft, Aufgaben wie Menschen zu erlernen

Im Sommer 2021 schloss OpenAI stillschweigend sein Robotik-Team und gab bekannt, dass der Fortschritt durch einen Mangel an Daten erstickt werde, die erforderlich seien, um Robotern beizubringen, sich mithilfe künstlicher Intelligenz zu bewegen und zu denken. Jetzt sagen drei der ursprünglichen Forschungswissenschaftler von OpenAI, dass das von ihnen 2017 gegründete Startup namens Covariant dieses Problem gelöst und ein System vorgestellt hat, das die Argumentationsfähigkeiten großer Sprachmodelle mit der physischen Geschicklichkeit eines fortschrittlichen Roboters kombiniert.

Multimodale Eingabeaufforderung:Das neue Modell mit der Bezeichnung RFM-1 wurde auf der Grundlage jahrelanger Daten trainiert, die von Covariants kleiner Flotte von Artikelkommissionierungsrobotern gesammelt wurden, die Kunden wie Crate & Barrel und Bonprix in Lagern auf der ganzen Welt verwenden, sowie ausschließlich auf Wörtern und Videos aus dem Internet . Benutzer können das Modell mithilfe von fünf verschiedenen Eingabetypen steuern: Text, Bilder, Video, Roboteranweisungen und Messungen. Das Unternehmen hofft, dass das System durch den Einsatz in der realen Welt leistungsfähiger und effizienter wird. Lesen Sie hier mehr über James O’Donnell.

Bits und Bytes

Sie können jetzt generative KI nutzen, um Ihre Geschichten in Comics zu verwandeln
Durch die Zusammenführung verschiedener generativer Modelle in einem benutzerfreundlichen Paket, das per Knopfdruck gesteuert wird, läutet Lore Machine die Ankunft der Ein-Klick-KI ein. (MIT Technology Review)

Ehemaliger Google-Ingenieur wird beschuldigt, KI-Geschäftsgeheimnisse für chinesische Unternehmen gestohlen zu haben
Der Wettlauf um die Entwicklung immer leistungsfähigerer KI-Systeme wird immer schmutziger. Ein chinesischer Ingenieur hat während seiner Arbeit für chinesische Unternehmen vertrauliche Dateien aus den Supercomputing-Rechenzentren von Google auf sein persönliches Google Cloud-Konto hochgeladen. (US-Justizministerium)

In der OpenAI-Saga gab es noch mehr Drama
Diese Geschichte ist wirklich das Geschenk, das man immer wieder gibt. OpenAI lobte Elon Musk und seine Klage, in der behauptet wird, das Unternehmen habe seine ursprüngliche Mission, Gutes in der Welt zu tun, verraten, indem es E-Mails veröffentlichte, aus denen hervorgeht, dass Musk auch OpenAI kommerzialisieren wollte. Mittlerweile ist Sam Altman nach seinem vorübergehenden Sturz wieder im Vorstand von OpenAI und es stellt sich heraus, dass CTO Mira Murati bei dem Putsch gegen Altman eine größere Rolle gespielt hat als zunächst angekündigt.

Ein Whistleblower von Microsoft warnte, dass das KI-Tool des Unternehmens gewalttätige und sexuelle Bilder erstellt und Urheberrechte ignoriert.
Shane Jones, ein Ingenieur, der bei Microsoft arbeitet, sagt, seine Tests mit dem Copilot Designer des Unternehmens hätten zu einigen beunruhigenden und beunruhigenden Ergebnissen geführt. Er sagt, das Unternehmen habe seine Bedenken zur Kenntnis genommen, das Produkt jedoch nicht vom Markt genommen. Jones schickte daraufhin einen Brief an die Federal Trade Commission, in dem er diese Bedenken darlegte, und Microsoft hat seitdem damit begonnen, bestimmte Begriffe zu blockieren, die giftige Inhalte generieren. (CNBC)

Silicon Valley schließt Akademiker von der KI-Forschung aus
KI-Forschung ist extrem teuer und Big Tech mit ihren enormen Gehältern und Rechenressourcen verdrängt Top-Talente aus der Wissenschaft. Dies hat schwerwiegende Auswirkungen auf die Technologie und führt dazu, dass sie sich eher auf kommerzielle als auf wissenschaftliche Anwendungen konzentriert. (Die Washington Post)

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *