Menu Menu

Co demo AI NPC Nvidii może oznaczać dla tworzenia gier

Nvidia zademonstrowała swoje możliwości w zakresie sztucznej inteligencji i tworzenia unikalnych postaci podczas targów Computex 2023. Gigant gier pokazał, w jaki sposób nieszkodliwy NPC może generować spontaniczne odpowiedzi na unikalne podpowiedzi gracza podczas interakcji w grze.

Współczesne tytuły mogą zawierać od kilku do setek niegrywalnych postaci (NPC).

Te drugorzędne postacie, mające przede wszystkim na celu poprowadzenie nadrzędnej narracji do przodu poprzez wykonywanie misji, niosą ze sobą główny ładunek, tworząc poczucie emocjonalnej inwestycji i dopracowując grywalny świat, aby wydawał się żywy i wiarygodny.

Podobnie jak inne aspekty gier, grafika i podstawowe dialogi tych postaci ewoluowały z biegiem czasu. Porównaj oryginalne wydanie Skyrim, na przykład do współczesnych tytułów, takich jak Hitman 3 or Red Dead Redemption II a zobaczysz, jak drastyczna poprawa została dokonana w ciągu ostatniej dekady.

Chociaż ogólny standard wzrósł, nie oznacza to, że nie ma poprawy w pokojach – i dużo w tym. Oprócz kilku wyjątkowo stworzonych tytułów, kontakt z postaciami niezależnymi może nadal wydawać się obowiązkowy, jawnie oparty na scenariuszu, a czasem statyczny lub głupkowaty.

Nvidia, wiodący właściciel kart graficznych do komputerów PC i (od niedawna) komputerów AI, chce ulepszyć ten aspekt tworzenia gier, korzystając z zasad oprogramowania generatywnego, takiego jak ChatGPT i Bard.

 

Demo Nvidii „Omniverse Avatar Cloud Engine”.

Na dorocznej konferencji Computex w tym tygodniu dyrektor generalny Nvidii, Jensen Huang, ogłosił wydanie „Omniverse Avatar Cloud Engine” (ACE).

Huang twierdzi, że zestaw narzędzi deweloperskich może zamienić nijakich NPC w wyrafinowane postacie, które mogą reagować na oryginalne podpowiedzi głosowe graczy za pomocą spontanicznych dialogów głosowych i animacji twarzy w czasie rzeczywistym. Brzmi nieprawdopodobnie?

Podczas liniowego demo rozgrywki, podobno widzieliśmy silnik w akcji. Dzięki obiektywowi z perspektywy pierwszej osoby grywalny bohater wszedł do zapierającego dech w piersiach renderowania Cyberpunkowego sklepu z ramenem, stworzonego przy użyciu najlepszych technologii immersyjnych Nvidii i silnika Unreal Engine 5.

Główna atrakcja zaczynała się jednak w momencie, gdy gracz podszedł do właściciela restauracji – NPC-a o imieniu Jin.

Zamiast skryptowych opcji dialogowych pojawiających się od nietoperza, co jest zwyczajem w 99% gier fabularnych, gracz wypowiadał się na głos i otrzymywał indywidualne odpowiedzi od NPC w grze.

Jin najwyraźniej miał zaprogramowaną historię z misją, którą musiał przekazać, ale według Huanga wszystko inne było czystą „improwizacją” dzięki uprzejmości sztucznej inteligencji.

Sprawdź materiał poniżej.


Problemy logistyczne i wczesne wątpliwości społeczności

Reakcja na demo była tak mieszana, jak można się spodziewać po społeczności graczy.

Podczas gdy wielu chwali postęp techniczny i potencjał nieokiełznanej immersji, inni twierdzą, że koncepcja jest albo zbyt ambitna, by dobrze działać, albo jest po prostu BS ze strony Nvidii. W końcu poza wcześniej nagranym materiałem nie mamy możliwości zweryfikowania technologii ani jej wypróbowania.

Niezależnie od tego, po której stronie płotu się znajdujesz, trudno jest spojrzeć poza niektóre rażące problemy logistyczne, które mogą natychmiast udaremnić takie przedsięwzięcie.

Wychodząc poza działanie robota NPC – które niewątpliwie poprawi się, gdy sztuczna inteligencja nauczy się lepiej naśladować ludzką mowę – gracz celowo zadał podstawowe, bezsensowne pytania typowe dla każdego bohatera, który rozpoczyna zapracowaną misję poboczną.

Dokładnie, jak dobrze Jin by się trzymał w obliczu 12-latka, który po prostu rzucił wściekłość FIFA pozostaje do zobaczenia. Co więcej, czy demo miało na celu wyłącznie zmotywowanie inwestorów?

Biorąc pod uwagę ogromne zasoby najwyższej klasy sprzętu, który został użyty wyłącznie do zaprezentowania wersji demonstracyjnej w tak zamkniętym obszarze, pojawia się również pytanie, jaka dokładnie moc obliczeniowa byłaby potrzebna, aby wyposażyć nawet garstkę NPC w te możliwości w pełnej rozgrywce.

Wielu programistów obecnie powstrzymuje się od renderowania działającego lusterka w swoich grach, aby zoptymalizować wydajność, liczbę klatek na sekundę i wierność grafiki. Wrzucenie całej struktury AI NPC do miksu prawie na pewno obniżyłoby maksymalne możliwości mocy konsol nowej generacji, a także zdecydowanej większości komputerów PC.

Być może programiści nie przyjmą zestawu narzędzi ACE w sposób, w jaki próbuje to demo, ale główne tytuły, w tym STALKER 2 Serce Czarnobyla, Fort Solis już korzystają z NvidiiAudio2Face', aby spróbować dokładniej dopasować animacje twarzy postaci do mowy ich aktora.


Jaki wpływ może to mieć na deweloperów?

Zakładając, że wbrew przeciwnościom, Nvidia znajdzie sposób, aby uczynić ACE pożądanym dla studiów gier – być może poprzez infrastrukturę opartą na chmurze, aby zrekompensować moc obliczeniową – co może oznaczać wprowadzenie sztucznej inteligencji na szeroką skalę dla osób pracujących w branży?

Powszechnie uważa się, że roboty nieuchronnie obalą specjalistyczne stanowiska pracy w branży cyfrowej. W każdym razie osiągnięcie przez ACE wystarczająco przekonującego standardu od razu naraziłoby aktorów głosowych, animatorów i scenarzystów na niebezpieczeństwo. W rzeczywistości Ubisoft używa już narzędzia językowego AI o nazwie Autor widmo.

Ci, którzy chcą bez zastrzeżeń przyjąć sztuczną inteligencję w imię postępu, będą zachwyceni perspektywą kilku ogromnych korzyści. Gdy się nad tym zastanowić, dobrodziejstwo dla mniejszych studiów jest znacznie większe.

Ambitne tytuły, które teraz można osiągnąć tylko dzięki ogromnemu zespołowi wyspecjalizowanych programistów, będą realistycznie możliwe przy zaledwie ułamku siły roboczej. Sztuczna inteligencja jest już w stanie wnieść wszystko, od grafiki koncepcyjnej i skryptów, po animację 3D i dynamiczne oświetlenie.

Czy NPC AI są naprawdę następni na liście? Wkrótce się dowiemy.

dostępność