Meny Meny

Hva Nvidias AI NPC-demo kan bety for spillutvikling

Nvidia demonstrerte sine evner for kunstig intelligens og unik karakterbygging under Computex 2023. Spillgiganten viste hvordan en ufarlig NPC kunne gi genererte, off-the-cuff-svar på spillerens unike spørsmål under en interaksjon i spillet.

Moderne titler kan ha alt mellom en håndfull og hundrevis av ikke-spillbare karakterer (NPC).

Disse sekundærkarakterene er først og fremst ment å bære den overordnede fortellingen videre ved å levere oppdrag, og bærer hovedlasten for å skape en følelse av emosjonell investering og gi den mer spillbare verden til å virke innlevd og troverdig.

Som andre aspekter ved spill, har grafikken og den grunnleggende dialogen til disse karakterene utviklet seg over tid. Sammenlign originalutgaven av Skyrim, for eksempel til moderne titler som Hitman 3 or Red Dead Redemption II og du vil se hvor drastisk forbedring har blitt gjort det siste tiåret.

Selv om den generelle standarden har steget, er det ikke dermed sagt at det ikke er romforbedring – og mye på det. Bortsett fra noen få eksepsjonelt utformede titler, kan det å engasjere seg med NPCer fortsatt føles obligatorisk, åpenlyst skriptet og til tider statisk eller klønete.

Nvidia, en ledende innehaver av PC-grafikkort og (nylig) AI-databehandling, ønsker å fremme denne fasetten av spillbygging ved å bruke prinsippene for generativ programvare som ChatGPT og Bard.

 

Nvidias 'Omniverse Avatar Cloud Engine'-demo

På den årlige Computex-konferansen denne uken kunngjorde Nvidia-sjef Jensen Huang lanseringen av 'Omniverse Avatar Cloud Engine' (ACE).

Huang hevder at utviklerverktøysettet kan gjøre blide NPC-er til sofistikerte karakterer som kan svare på originale stemmemeldinger fra spillere med spontan stemmedialog og ansiktsanimasjoner i sanntid. Høres langsiktig ut ikke sant?

Under en lineær spilldemo, vi så visstnok motoren i aksjon. Gjennom et førstepersonsobjektiv gikk den spillbare hovedpersonen inn i en fantastisk gjengivelse av en Cyberpunk ramen-butikk laget med det beste innen Nvidias oppslukende teknologi og Unreal Engine 5.

Hovedattraksjonen begynte imidlertid da spilleren henvendte seg til restauranteieren – en NPC kalt Jin.

I stedet for skriptede dialogalternativer som dukker opp, som er tilpasset for 99 % av rollespillene, snakket spilleren høyt og mottok skreddersydde svar i spillet fra NPC.

Jin hadde åpenbart en bakgrunnshistorie forhåndsprogrammert med et oppdrag han ble tvunget til å gi, men alt annet var ren "improvisasjon" med tillatelse fra AI, ifølge Huang.

Sjekk opptakene nedenfor.


Logistiske problemer og tidlig samfunnstvil

Reaksjonen på demoen har vært omtrent så blandet som du forventer fra spillfellesskapet.

Mens mange hyller de tekniske fremskritt som gjøres og potensialet for uhemmet fordypning, sier andre at konseptet enten er for ambisiøst til å fungere godt eller er rett opp BS fra Nvidias side. Tross alt, utenom de forhåndsinnspilte opptakene, har vi ingen mulighet til å verifisere teknologien eller prøve den ut.

Uansett hvilken side av gjerdet du befinner deg på, er det vanskelig å se forbi noen av de store logistiske problemene som umiddelbart kan hindre et slikt foretak.

Ser man utover robotytelsen til NPC – som utvilsomt vil forbedre seg etter hvert som AI lærer å etterligne menneskelig tale bedre – stilte spilleren bevisst grunnleggende, vanvittige spørsmål som er typiske for enhver skap-din-egen hovedperson som begynner på et travelt sideoppdrag.

Nøyaktig hvor godt Jin ville holde stand når han ble møtt med en 12-åring som nettopp har sluttet FIFA gjenstår å se. Mer til poenget, var demoen utelukkende ment å motivere investorer?

Gitt den enorme beholdningen av førsteklasses maskinvare som ble brukt utelukkende for å vise frem demoen i et så lukket område, er det også spørsmålet om nøyaktig hvor mye prosessorkraft som ville være nødvendig for å utstyre selv en håndfull NPC-er med disse egenskapene i et fullskala spill.

Mange utviklere avstår for tiden fra å gjengi fungerende speil i spillene deres for å optimere ytelse, bildefrekvens og grafisk nøyaktighet. Å kaste hele rammeverket til AI NPC-er inn i blandingen vil nesten helt sikkert redusere den maksimale kraftkapasiteten til neste generasjons konsoller, så vel som de aller fleste PC-er.

Kanskje utviklere ikke vil omfavne ACE-verktøysettet slik demoen forsøker, men store titler, inkludert STALKER 2 Heart of Chernobylog Fort Solis bruker allerede Nvidias 'Audio2Face' applikasjon for å prøve å matche ansiktsanimasjonene til karakterer mer nøyaktig til skuespillernes tale.


Hvilken effekt kan dette ha for utviklere?

Forutsatt at Nvidia mot oddsen finner en måte å gjøre ACE ønskelig for spillstudioer – kanskje gjennom en skybasert infrastruktur for å kompensere for prosessorkraft – hva kan den omfattende introduksjonen av AI bety for de som jobber i bransjen?

En vanlig oppfatning er at roboter uunngåelig vil styrte spesialiserte digitale jobbroller. Uansett vil ACE nå en overbevisende nok standard sette stemmeskuespillere, animatører og historieforfattere i fare umiddelbart. Faktisk bruker Ubisoft allerede et AI-språkverktøy kalt Ghostwriter.

De som er ivrige etter uforbeholdent å omfavne AI i fremgangens navn, vil bli begeistret over utsiktene til flere enorme fordeler. Velsignelsen til mindre studioer er markant stor når du tenker på det.

Ambisiøse titler som bare kan oppnås nå med et stort team av spesialistutviklere vil realistisk være mulig med bare en brøkdel av arbeidskraften. AI kan allerede bidra med alt fra konseptkunst og manus, til 3D-animasjon og dynamisk lyssetting.

Er AI NPC-er virkelig neste på listen? Det finner vi snart ut av.

tilgjengelighet