MENÜ MENÜ

Was Nvidias AI NPC-Demo für die Spieleentwicklung bedeuten könnte

Nvidia demonstrierte während der Computex 2023 seine Fähigkeiten für KI und den Aufbau einzigartiger Charaktere. Der Gaming-Riese zeigte, wie ein harmloser NPC während einer Interaktion im Spiel generierte, spontane Antworten auf die einzigartigen Eingabeaufforderungen des Spielers liefern kann.

Zeitgenössische Titel können zwischen einer Handvoll und Hunderten nicht spielbarer Charaktere (NPCs) enthalten.

Diese Nebencharaktere sind in erster Linie dazu gedacht, die übergreifende Erzählung durch das Erfüllen von Missionen voranzutreiben. Sie tragen die Hauptlast, um ein Gefühl der emotionalen Beteiligung zu erzeugen und die spielbare Welt so zu gestalten, dass sie gelebt und glaubwürdig erscheint.

Wie andere Aspekte des Spielens haben sich auch die Grafik und die grundlegenden Dialoge dieser Charaktere im Laufe der Zeit weiterentwickelt. Vergleichen Sie die Originalausgabe von Skyrim, zum Beispiel zu zeitgenössischen Titeln wie Hitman 3 or Red Dead Redemption II und Sie werden sehen, welch drastische Verbesserung im letzten Jahrzehnt erzielt wurde.

Obwohl der Gesamtstandard gestiegen ist, heißt das nicht, dass es nicht Raum für Verbesserungen gibt – und viel dabei. Abgesehen von ein paar außergewöhnlich gestalteten Titeln kann sich der Umgang mit NPCs immer noch obligatorisch, offenkundig geskriptet und manchmal statisch oder albern anfühlen.

Nvidia, ein führender Anbieter von PC-Grafikkarten und (in jüngerer Zeit) KI-Computing, möchte diesen Aspekt der Spieleentwicklung mithilfe der Prinzipien generativer Software vorantreiben ChatGPT und Barde.

 

Nvidias „Omniverse Avatar Cloud Engine“-Demo

Auf der jährlichen Computex-Konferenz diese Woche kündigte Nvidia-CEO Jensen Huang die Veröffentlichung der „Omniverse Avatar Cloud Engine“ (ACE) an.

Huang behauptet, dass das Entwickler-Toolkit langweilige NPCs in anspruchsvolle Charaktere verwandeln kann, die auf originelle Sprachaufforderungen von Spielern mit spontanen Sprachdialogen und Echtzeit-Gesichtsanimationen reagieren können. Klingt weit hergeholt, oder?

Während einer linearen Gameplay-Demo, angeblich haben wir den Motor in Aktion gesehen. Durch die Ego-Perspektive betrat der spielbare Protagonist eine atemberaubende Darstellung eines Cyberpunk-Ramen-Ladens, der mit der besten immersiven Technologie von Nvidia und der Unreal Engine 5 erstellt wurde.

Die Hauptattraktion begann jedoch, als der Spieler sich dem Restaurantbesitzer näherte – einem NPC namens Jin.

Anstelle von vorgefertigten Dialogoptionen, die bei 99 % aller Rollenspiele üblich sind, sprach der Spieler laut und erhielt im Spiel individuelle Antworten vom NPC.

Jin hatte offensichtlich eine Hintergrundgeschichte mit einer Mission vorprogrammiert, die er unbedingt vermitteln musste, aber alles andere war reine „Improvisation“ mit freundlicher Genehmigung der KI, so Huang.

Schauen Sie sich das Filmmaterial unten an.


Logistische Probleme und frühe Zweifel in der Gemeinschaft

Die Reaktion auf die Demo war ungefähr so ​​gemischt, wie man es von der Gaming-Community erwarten würde.

Während viele die erzielten technischen Fortschritte und das Potenzial für ein grenzenloses Eintauchen loben, meinen andere, dass das Konzept entweder zu ehrgeizig ist, um gut zu funktionieren, oder dass Nvidia schlichtweg Blödsinn ist. Denn außerhalb des vorab aufgezeichneten Filmmaterials haben wir keine Möglichkeit, die Technologie zu überprüfen oder auszuprobieren.

Auf welcher Seite des Zauns Sie auch stehen, es ist schwierig, über einige der eklatanten logistischen Probleme hinauszuschauen, die ein solches Unterfangen sofort vereiteln könnten.

Abgesehen von der Roboterleistung des NPCs – die sich zweifellos verbessern wird, wenn die KI lernt, die menschliche Sprache besser nachzuahmen – stellte der Spieler absichtlich einfache, alberne Fragen, die typisch für jeden „Erschaffe deinen eigenen Protagonisten“ sind, der eine geschäftige Nebenmission beginnt.

Genau, wie gut Jin standhalten würde, wenn er mit einem 12-Jährigen konfrontiert würde, der gerade vor Wut aufgehört hat FIFA bleibt abzuwarten. Genauer gesagt: War die Demo lediglich dazu gedacht, Investoren zu motivieren?

Angesichts des riesigen Bestands an erstklassiger Hardware, die lediglich zur Präsentation der Demo in einem so geschlossenen Bereich verwendet wurde, stellt sich auch die Frage, wie viel Rechenleistung genau erforderlich wäre, um auch nur eine Handvoll NPCs mit diesen Fähigkeiten auszustatten in einem vollwertigen Spiel.

Viele Entwickler verzichten derzeit auf ein funktionierendes Rendering Spiegel in ihren Spielen, um Leistung, Bildrate und Grafiktreue zu optimieren. Würde man das gesamte Framework der KI-NPCs in die Mischung einbeziehen, würde dies mit ziemlicher Sicherheit die maximale Leistungsfähigkeit von Konsolen der nächsten Generation sowie der überwiegenden Mehrheit der PCs außer Acht lassen.

Vielleicht werden Entwickler das ACE-Toolkit nicht so annehmen, wie es die Demo versucht, aber große Titel einschließlich STALKER 2 Herz von Tschernobyl und Fort Solis verwenden bereits Nvidias 'Audio2Face'-Anwendung, um zu versuchen, die Gesichtsanimationen von Charakteren genauer an die Sprache ihres Schauspielers anzupassen.


Welche Auswirkungen könnte dies für Entwickler haben?

Angenommen, Nvidia findet trotz aller Widrigkeiten einen Weg, ACE für Spielestudios attraktiv zu machen – vielleicht durch eine Cloud-basierte Infrastruktur zum Ausgleich der Rechenleistung – was könnte die groß angelegte Einführung von KI für die in der Branche Tätigen bedeuten?

Eine weitverbreitete Überzeugung ist, dass Roboter unweigerlich spezialisierte digitale Jobrollen verdrängen werden. Wenn ACE auf jeden Fall einen ausreichend überzeugenden Standard erreichen würde, wären Synchronsprecher, Animatoren und Geschichtenschreiber sofort in Gefahr. Tatsächlich verwendet Ubisoft bereits ein KI-Sprachtool namens Ghostwriter.

Wer sich im Namen des Fortschritts uneingeschränkt für KI einsetzen möchte, wird von der Aussicht auf mehrere enorme Vorteile begeistert sein. Der Segen für kleinere Studios ist ausgesprochen groß, wenn man darüber nachdenkt.

Ehrgeizige Titel, die derzeit nur mit einem riesigen Team spezialisierter Entwickler realisierbar sind, werden realistischerweise mit nur einem Bruchteil der Arbeitskräfte möglich sein. KI ist bereits in der Lage, alles beizutragen, von Konzeptzeichnungen und Drehbüchern bis hin zu 3D-Animationen und dynamischer Beleuchtung.

Stehen KI-NPCs wirklich als nächstes auf der Liste? Wir werden es früh genug herausfinden.

Zugänglichkeit