Microsoft ha pubblicato una demo tecnica giocabile di Quake II, celebre sparatutto degli anni Novanta, generata interamente da un modello di intelligenza artificiale.
L’esperimento, accessibile gratuitamente via browser a questo link, consente di muoversi all’interno di un singolo livello per qualche minuto, prima che scada il tempo massimo previsto.
L’obiettivo, sia chiaro, non è ricreare fedelmente l’esperienza del Quake originale, quanto dimostrare le capacità della piattaforma Copilot nel generare ambienti di gioco interattivi. Ed è solo in quest’ottica che si può provare curiosità per un risultato tecnico così scadente.
La Musa è Copilot
La tecnologia alla base di questa demo di Quake II si chiama Muse, una famiglia di modelli sviluppata dai ricercatori Microsoft per sperimentare nuove forme di interazione videoludica.
Come spiegato in un post ufficiale, l’utente può “interagire con il modello tramite tastiera o controller e vedere subito gli effetti delle proprie azioni, permettendo di fatto di giocare dentro il modello”.
Il sistema non esegue un codice di gioco tradizionale: piuttosto, simula un’esperienza che ne riproduce alcune dinamiche fondamentali.
Per allenare il modello, il team di ricerca ha utilizzato un livello originale di Quake II, titolo acquisito da Microsoft tramite l’acquisizione del gruppo ZeniMax, proprietario dello studio id Software.
“Con nostra iniziale sorpresa e soddisfazione, siamo riusciti a giocare all’interno del mondo simulato dal modello,” raccontano i ricercatori. “Potevamo girare, muovere la visuale, saltare, accovacciarci, sparare e persino far saltare in aria dei barili, proprio come nel gioco originale”.
Tecnicamente deludente
Ma l’entusiasmo iniziale si raffredda subito, non appena si notano i limiti intrinseci dell’esperienza.
Gli sviluppatori parlano apertamente di “carenze e difetti”, come nemici poco nitidi, indicatori di salute e danno poco affidabili e, soprattutto, una marcata difficoltà nel gestire la cosiddetta permanenza degli oggetti sullo schermo.
Al momento in cui scriviamo, se un oggetto esce dal campo visivo per più di 0,9 secondi, il modello tende a dimenticarne l’esistenza. Un bug che può anche generare risultati curiosi: “Puoi sconfiggere o far apparire nemici semplicemente guardando il pavimento per un secondo e poi rialzando lo sguardo”, scrivono i ricercatori. “O addirittura teletrasportarti guardando verso il cielo e poi di nuovo a terra”.
L’iniziativa è stata accolta con scetticismo da alcuni sviluppatori. Austin Walker, scrittore e game designer, ha pubblicato un video in cui, provando la demo, rimane intrappolato in una stanza buia senza possibilità di proseguire.
E la sua critica va oltre il malfunzionamento occasionale: secondo Walker, l’idea che le IA possano essere utilizzate per “preservare” i videogiochi classici, come sostenuto di recente dal CEO di Microsoft Gaming Phil Spencer, rivela “una fondamentale incomprensione non solo di questa tecnologia, ma di come funzionano davvero i videogiochi”.
Quake II AI: uno sguardo al futuro del gaming?
Nonostante le imperfezioni evidenti, la demo di Quake II rappresenta un primo, timido affaccio su un orizzonte più ampio e potenzialmente rivoluzionario: quello dei videogiochi generati in tempo reale dall’intelligenza artificiale.
È un territorio ancora sperimentale ma che sta attirando l’interesse crescente di chi sta già immaginando il futuro del gaming.
Uno di questi è David Holz, fondatore di Midjourney, che ha recentemente parlato della sua visione di un “holodeck” ispirato a Star Trek. Ossia un sistema capace di creare mondi virtuali interattivi e dinamici, generati su misura dall’IA in base agli input dell’utente.
Il progetto, ancora embrionale e noto con il nome informale di Midjourney Orb, punta a un livello d’immersione che andrebbe ben oltre la grafica o le meccaniche di gioco tradizionali, fino a toccare le fondamenta stesse della narrazione videoludica.
Se oggi il modello Muse di Microsoft fatica a ricordarsi di un nemico appena fuori dallo schermo, domani potremmo trovarci a camminare in mondi interamente costruiti sotto i nostri occhi, creati in tempo reale seguendo le nostre indicazioni, diversi per ognuno di noi, mutevoli, reattivi. E, finalmente, davvero ‘vivi’.


