Poche ora fa Jensen Huang ha alzato il sipario su Rubin, la nuova architettura di computing che Nvidia presenta come “lo stato dell’arte nell’hardware per l’intelligenza artificiale”.
L’annuncio, arrivato dal palco del Consumer Electronics Show, porta con sé una notizia che vale più delle specifiche tecniche: Rubin è già in piena produzione. Non si tratta di un prototipo o di una promessa per il futuro prossimo ma di chip che stanno già uscendo dalle fabbriche e che vedranno un’accelerazione nella seconda metà dell’anno.
“Vera Rubin è progettata per affrontare questa sfida fondamentale che abbiamo: la quantità di calcolo necessaria per l’AI sta salendo alle stelle”, ha dichiarato il CEO di quella che è diventata la corporation più preziosa al mondo.
Il contesto in cui arriva Rubin è quello di una corsa globale all’infrastruttura IA che non conosce rallentamenti. Huang stesso ha stimato che tra i 3 e i 4 trilioni di dollari saranno investiti nei prossimi cinque anni per costruire i datacenter e l’hardware necessari a sostenere lo sviluppo dell’intelligenza artificiale.
Una cifra che fa impallidire qualsiasi altro settore tech e che conferma come l’IA sia ormai il terreno su cui si gioca la competizione industriale e strategica del prossimo decennio. E che solleva interrogativi sulla dipendenza tecnologica dell’intero ecosistema, visto che Nvidia sta annunciando Vera Rubin ad appena un anno dal lancio dell’architettura Blackwell.
Un salto prestazionale che guarda all’IA agentica
L’architettura Rubin, dedicata all’astronoma Vera Rubin che dimostrò l’esistenza della materia oscura, è composta da sei chip progettati per lavorare in concerto.
Al centro c’è la GPU Rubin ma l’innovazione più rilevante riguarda i miglioramenti ai sistemi Bluefield e NVLink per risolvere i colli di bottiglia nello storage e nell’interconnessione, e soprattutto una nuova CPU chiamata Vera, progettata specificamente per il ragionamento agentico.
I numeri raccontano un salto prestazionale importante: secondo i test interni di Nvidia, Rubin opera tre volte e mezzo più velocemente di Blackwell nell’addestramento dei modelli e cinque volte più velocemente nelle operazioni di inferenza, raggiungendo picchi di 50 petaflops.
Ma è sul fronte dell’efficienza energetica che l’architettura segna forse il dato più rilevante: otto volte più capacità di inferenza per watt consumato. In un momento in cui il dibattito sulla sostenibilità dei datacenter IA si fa sempre più acceso (con governi e comunità locali che iniziano a porre vincoli alla costruzione di nuovi impianti), questo miglioramento non è solo una questione di performance, ma una necessità strategica.
Nvidia, la memoria come nuovo campo di battaglia
Uno degli aspetti più interessanti di Rubin riguarda un problema che sta diventando essenziale: la memoria.
Quando i sistemi di intelligenza artificiale devono gestire conversazioni lunghe, pianificare azioni complesse o mantenere il contesto per ore, non basta più avere processori potenti. Serve anche un modo efficiente per “ricordare” tutte le informazioni accumulate durante queste sessioni estese.
Dion Harris, senior director delle soluzioni infrastrutturali AI di Nvidia, ha spiegato che “quando si iniziano a abilitare nuovi tipi di flussi di lavoro, come l’IA agentica o compiti a lungo termine, questo mette molta pressione e requisiti sulla cache KV”, una sorta di memoria a breve termine che i modelli usano per tenere traccia di ciò che hanno elaborato.
Il problema è che più il compito si allunga, più questa memoria si riempie, rallentando tutto il sistema. La soluzione di Rubin è relativamente semplice dal punto di vista concettuale: aggiunge un nuovo livello di storage esterno, come un hard disk aggiuntivo che il processore può interrogare rapidamente quando la memoria principale si satura. Ciò permette ai sistemi IA di gestire sessioni molto più lunghe e complesse senza perdere efficienza, e soprattutto di farlo in modo scalabile: se serve più memoria, basta aggiungere storage, senza dover cambiare l’intero sistema.
Questa scelta tecnica dice molto sulla direzione che Nvidia intravede per il futuro dell’IA. I sistemi agentici, quelli cioè capaci di pianificare, ragionare su orizzonti temporali lunghi e mantenere contesto attraverso sessioni complesse, richiedono un’architettura diversa rispetto ai modelli generativi tradizionali. Non basta più la potenza bruta di calcolo: serve un equilibrio nuovo tra compute, memoria e interconnessione. E Rubin si posiziona esattamente su questa frontiera.
Un ecosistema già allineato
L’adozione di Rubin è già garantita. Praticamente tutti i major cloud provider, da Amazon Web Services a Microsoft Azure, passando per Google Cloud, hanno già confermato l’utilizzo della nuova architettura.
Tra i partner spiccano anche nomi come Anthropic (il creatore di Claude), OpenAI e una serie di laboratori di ricerca e supercomputing. Questa unanimità non è casuale: riflette la posizione dominante di Nvidia in un mercato dove le alternative esistono (AMD con le sue GPU, Google con le TPU o startup come Cerebras), ma non riescono ancora a scalfire seriamente il vantaggio dell’azienda di Santa Clara.
C’è però un rovescio della medaglia in questa egemonia. La dipendenza dell’intera industria dell’IA da un singolo fornitore di hardware solleva questioni che vanno oltre la competizione commerciale. Quando le sorti dell’innovazione dipendono dai cicli di sviluppo di una sola azienda, per quanto brillante, si creano fragilità sistemiche.
È un tema che attraversa anche le discussioni sulla sovranità tecnologica europea e sui tentativi, finora poco riusciti, di costruire alternative credibili all’ecosistema Nvidia.
Fonte: TechCrunch


