Nvidia zeigt, wie Entwickler begonnen haben, seine „digitalen menschlichen“ KI-Tools zu nutzen, um Videospielcharaktere zu vertonen, zu animieren und Dialoge zu generieren. Auf der Game Developers Conference am Montag veröffentlichte das Unternehmen einen Ausschnitt davon Geheimes Protokolleine spielbare Tech-Demo, die demonstriert, wie NPCs mit ihren KI-Tools auf einzigartige Weise auf Spielerinteraktionen reagieren und so neue, auf das Live-Gameplay zugeschnittene Reaktionen generieren können.

In der Demo übernehmen die Spieler die Rolle eines Privatdetektivs und erfüllen Ziele auf der Grundlage von Gesprächen mit KI-gestützten NPCs. Nvidia sagt, jedes Spiel sei „einzigartig“, da die Echtzeitinteraktionen der Spieler zu unterschiedlichen Spielergebnissen führen. John Spitzer, Nvidias Vizepräsident für Entwicklung und Leistungstechnologien, sagt, dass das KI-Technologieunternehmen des Spiels „die komplexen Animationen und Gespräche ermöglichen kann, die dazu erforderlich sind.“ Machen Sie digitale Interaktionen real.“

Geheimes Protokoll wurde in Zusammenarbeit mit Inworld AI, einem KI-Gaming-Startup, entwickelt und nutzt Nvidias Avatar Cloud Engine (ACE)-Technologie – dieselbe Technologie, die die futuristische Ramen-Shop-Demo unterstützte, die Nvidia letzten Mai veröffentlichte. Neu Geheimes Protokoll Die Demo zeigt nicht, wie effektiv diese KI-basierten NPCs für das Gameplay in der realen Welt sind, sondern zeigt stattdessen eine Auswahl von Clips von NPCs, die unterschiedliche Sprachzeilen ausspucken. Sowohl die Inline-Übermittlung als auch die Lippensynchronisationsanimationen wirken roboterhaft, als würde ein echter Chatbot über den Bildschirm mit Ihnen sprechen.

Inworld gibt bekannt, dass eine Veröffentlichung geplant ist Geheimes ProtokollDer Quellcode für „in naher Zukunft“, um andere Entwickler zu ermutigen, Nvidias ACE Digital Human-Technologie zu übernehmen. Inworld kündigte im November 2023 außerdem eine Partnerschaft mit Microsoft an, um bei der Entwicklung von Xbox-Tools zur Erstellung KI-gesteuerter Charaktere, Geschichten und Quests zu helfen.

Nvidias Audio2Face-Technologie wurde auch in einem Clip aus dem kommenden MMO vorgestellt Jade-Dynastie-Welt, das die Lippensynchronisation von Zeichen mit der Sprache in Englisch und Mandarin-Chinesisch demonstrierte. Die Idee ist, dass Audio2Face es einfacher macht, Spiele in mehreren Sprachen zu erstellen, ohne Charaktere manuell wiederzubeleben. Ein weiterer Videoclip aus dem kommenden Nahkampf-Actionspiel Nicht wach zeigt, wie Audio2Face verwendet werden kann, um Gesichtsanimationen während Zwischensequenzen und im Gameplay zu erstellen.

Diese technischen Demos mögen ausreichen, um Spieleentwickler davon zu überzeugen, mit dem Hinzufügen von KI-basierten NPCs zu ihren Titeln zu experimentieren, aber zumindest aus der Sicht der Konversation scheint es nicht so, als ob die Dinge große Fortschritte gemacht hätten. Die Charaktere in Geheimes Protokoll fühlen sich nicht mehr wie „echte Menschen“ als diejenigen in früheren Kairos-Demos. Aber das wird verärgerte Gaming-Stakeholder, die sich Sorgen über die Auswirkungen der KI-Einführung auf ihre Karriere und ihren Lebensunterhalt machen, wahrscheinlich nicht beruhigen.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *