Presentata per la prima volta al Computex 2023, NVIDIA Ace (Avatar Cloud Engine) è la tecnologia che promette di rivoluzionare i videogiochi e il modo in cui essi vengono creati.
Si tratta di un software che mira a rendere gli NPC più intelligenti, coinvolgenti e realistici, combinando tra loro tre tecnologie basate sull’IA. Grazie al riconoscimento vocale da testo (ASR), gli NPC possono comprendere le richieste dei giocatori. La sintesi vocale da testo (TTS) permette invece agli NPC di parlare in modo naturale e coinvolgente. Infine, l’animazione facciale generativa (GFA) consente agli NPC di esprimere emozioni e comunicare in modo realistico.
È facile capire quale balzo quantico potranno compiere i videogame quando i loro NPC saranno animati dall’intelligenza artificiale generativa. Grazie alla tecnologia ACE di NVIDIA gli sviluppatori potranno combinare il riconoscimento vocale da testo e le risposte da testo a voce, con l’animazione facciale generativa dell’intelligenza artificiale e le personalità dei personaggi automatizzate. Il risultato saranno interazioni coinvolgenti, con lo stesso “realismo” che si ottiene oggi parlando con ChatGPT.
“L’intelligenza artificiale generativa ha il potenziale di rivoluzionare l’interattività che i giocatori possono avere con i personaggi dei giochi e aumentare drammaticamente l’immersione nei giochi”, dichiara non a caso John Spitzer, vicepresidente di Developer e Performance Technology di NVIDIA. “Basandosi sulla nostra esperienza nell’AI e decenni di esperienza nella collaborazione con sviluppatori di giochi, NVIDIA è in prima linea nell’utilizzo dell’intelligenza artificiale generativa nei giochi”.
Al CES 2024 di Las Vegas, NVIDIA ha presentato una demo aggiornata di questa tecnologia, che ha incluso conversazioni automatizzate tra un giocatore e due NPC, Jin e Nova, gestiti dall’intelligenza artificiale. La demo, visibile nel video qui sotto, ha dimostrato la capacità degli NPC mossi dall’IA di avere conversazioni uniche e coinvolgenti con i giocatori, peraltro generate sul momento.
La demo ha anche mostrato la nuova tecnologia di Convai, un’azienda che collabora con NVIDIA, per creare NPC mossi dall’IA capaci di interagire spontaneamente con gli oggetti nell’ambiente. Nella demo, Jin prende una bottiglia di liquore quando il giocatore gli chiede di “tirare fuori la roba buona”. Secondo un documento condiviso da Convai, i suoi NPC sono consapevoli dell’ambiente e sono in grado di interagire con una serie di oggetti, tra cui ciotole, bottiglie, luci e altri oggetti nella scena.
NVIDIA afferma che i suoi servizi di produzione ACE sono già utilizzati da alcuni sviluppatori, tra cui il publisher di Genshin Impact, Mihoyo, e poi NetEase Games, Tencent e Ubisoft. La società si aspetta che la sua tecnologia venga integrata in molti altri videogame nel prossimo futuro.
Sebbene Nvidia ACE abbia il potenziale per rivoluzionare il modo in cui vengono creati e gestiti gli NPC, alcuni osservano che i risultati attuali appaiono ancora robotici e artefatti, sebbene siano già in grado di intrattenere conversazioni coinvolgenti. Osservazioni come questa, però, paiono il classico caso di chi si sofferma sul dito ignorando la Luna.
Vedere gli NPC dialogare tra loro ha un che di bladerunneriano (per quanto potranno andare avanti a dialogare? Prenderanno mai coscienza di non essere umani?), e rende evidente quanto il microfono sarà importante nei videogame del futuro. Le interazioni con gli NPC potranno essere virtualmente infinite e gli elenchi di frasi tra cui scegliere, cui siamo abituati da decenni, diverranno preistorici. Con gli NPC bisognerà poterci parlare.
NVIDIA è fiduciosa che la sua tecnologia, ancora in fase di sviluppo, alla fine sarà in grado di creare NPC AI indistinguibili dai personaggi umani. E noi, da appassionati di videogiochi, non possiamo che augurarci che quel momento giunga quanto prima.


