Meny Meny

Vad Nvidias AI NPC-demo kan betyda för spelutveckling

Nvidia demonstrerade sina möjligheter för AI och unik karaktärsbyggnad under Computex 2023. Speljätten visade hur en ofarlig NPC kunde ge genererade, direkta svar på spelarens unika uppmaningar under en interaktion i spelet.

Samtida titlar kan ha allt mellan en handfull och hundratals icke-spelbara karaktärer (NPC).

Dessa sekundära karaktärer är främst avsedda att föra den övergripande berättelsen framåt genom att leverera uppdrag, och de bär huvuddelen av belastningen för att skapa en känsla av känslomässig investering och förstärka den spelbara världen för att verka inlevd och trovärdig.

Liksom andra aspekter av spel, har grafiken och den grundläggande dialogen hos dessa karaktärer avancerat över tiden. Jämför originalutgåvan av Skyrim, till exempel till samtida titlar som hitman 3 or Red Dead Redemption II och du kommer att se hur drastisk förbättring har gjorts under det senaste decenniet.

Även om den övergripande standarden har stigit, betyder det inte att det inte finns någon förbättring av rummet – och mycket vid den. Bortsett från några exceptionellt utformade titlar kan det fortfarande kännas obligatoriskt att engagera sig med NPC:er, öppet manus och ibland statiskt eller fånigt.

Nvidia, en ledande ägare av PC-grafikkort och (på senare tid) AI-datorer, vill utveckla denna aspekt av spelbyggande med hjälp av principerna för generativ programvara som ChatGPT och Bard.

 

Nvidias demo "Omniverse Avatar Cloud Engine".

Vid den årliga Computex-konferensen denna vecka tillkännagav Nvidias vd Jensen Huang lanseringen av 'Omniverse Avatar Cloud Engine' (ACE).

Huang hävdar att utvecklarverktygssatsen kan förvandla intetsägande NPC:er till sofistikerade karaktärer som kan svara på ursprungliga röstmeddelanden från spelare med spontan röstdialog och ansiktsanimationer i realtid. Låter långsökt eller hur?

Under en linjär speldemo, vi såg förmodligen motorn i aktion. Genom ett förstapersonsobjektiv gick den spelbara huvudpersonen in i en hisnande rendering av en Cyberpunk ramen-butik skapad med det bästa inom Nvidias uppslukande teknik och Unreal Engine 5.

Huvudattraktionen började dock när spelaren närmade sig restaurangägaren – en NPC som heter Jin.

Istället för att skriptade dialogalternativ dyker upp, vilket är anpassat för 99 % av rollspelen, talade spelaren högt och fick skräddarsydda svar i spelet från NPC.

Jin hade uppenbarligen en bakgrundshistoria förprogrammerad med ett uppdrag han var tvungen att ge, men allt annat var ren "improvisation" med artighet av AI, enligt Huang.

Kolla in filmen nedan.


Logistiska problem och tidigt samhälleliga tvivel

Reaktionen på demot har varit ungefär så blandad som du kan förvänta dig från spelgemenskapen.

Medan många berömmer de tekniska framstegen som görs och potentialen för otyglad nedsänkning, säger andra att konceptet antingen är för ambitiöst för att fungera bra eller är direkt BS från Nvidias sida. När allt kommer omkring, utanför de förinspelade bilderna har vi inget sätt att verifiera tekniken eller prova den.

Oavsett vilken sida av stängslet du befinner dig på är det svårt att se bortom några av de uppenbara logistiska problemen som omedelbart skulle kunna omintetgöra ett sådant åtagande.

Ser man bortom robotprestandan hos NPC – som utan tvekan kommer att förbättras när AI lär sig att bättre efterlikna mänskligt tal – ställde spelaren medvetet grundläggande, vansinniga frågor som är typiska för alla skapa-din-egen huvudrollsinnehavare som börjar ett upptaget sidouppdrag.

Exakt hur bra Jin skulle hålla ut när han ställdes inför en 12-åring som precis har slutat med ilska FIFA återstår att se. Mer till saken, var demon avsedd enbart för att motivera investerare?

Med tanke på det enorma lagret av förstklassig hårdvara som användes enbart för att visa upp demon i ett så slutet område, finns det också frågan om exakt hur mycket processorkraft som skulle behövas för att utrusta till och med en handfull NPC:er med dessa funktioner i ett fullskaligt spel.

Många utvecklare avstår för närvarande från att rendera att fungera speglar i sina spel för att optimera prestanda, bildhastighet och grafisk trohet. Att kasta hela ramverket för AI NPC:er i mixen skulle nästan säkert minska den maximala kraftkapaciteten för nästa generations konsoler såväl som de allra flesta datorer.

Kanske utvecklare inte kommer att omfamna ACE-verktygslådan på det sätt som demon försöker, men stora titlar inklusive STALKER 2 Heart of Chernobyloch Fort Solis använder redan Nvidias 'Audio2Faceapplikation för att försöka matcha karaktärers ansiktsanimationer mer exakt till deras skådespelares tal.


Vilken påverkan kan detta ha för utvecklare?

Förutsatt att Nvidia mot oddsen hittar ett sätt att göra ACE önskvärt för spelstudior – kanske genom en molnbaserad infrastruktur för att kompensera för processorkraft – vad kan det omfattande införandet av AI betyda för dem som arbetar i branschen?

En vanlig uppfattning är att robotar oundvikligen kommer att störta specialiserade digitala jobbroller. I vilket fall som helst skulle ACE nå en tillräckligt övertygande standard utsätta röstskådespelare, animatörer och berättelseförfattare i fara direkt. Faktum är att Ubisoft redan använder ett AI-språkverktyg som heter Spökskrivare.

De som är angelägna om att oreserverat omfamna AI i framstegens namn kommer att bli glada över utsikterna till flera enorma fördelar. Välsignelsen för mindre studios är markant enorm när man tänker efter.

Ambitiösa titlar som bara kan uppnås nu med ett stort team av specialistutvecklare kommer realistiskt att vara möjliga med bara en bråkdel av arbetskraften. AI kan redan bidra med allt från konceptkonst och manus till 3D-animation och dynamisk belysning.

Är AI NPC:er verkligen nästa på listan? Vi får reda på det snart.

Tillgänglighet