Il futuro dell’IA, la tecnologia che dovrebbe spingere l’umanità verso traguardi inimmaginabili, rischia di incepparsi… per mancanza di corrente.
Secondo il World Economic Forum, il fabbisogno energetico dell’intelligenza artificiale è infatti destinato a crescere del 50% ogni anno fino al 2030. Un tasso esponenziale che, se non gestito, potrebbe rendere economicamente e ambientalmente insostenibile la traiettoria di crescita attuale.
La sfida all’egemonia di Nvidia
Una soluzione al problema potrebbe arrivare da una nuova generazione di microchip, progettati non per l’addestramento dei modelli (che resterà dominio di Nvidia ancora a lungo) ma per l’inferenza, cioè l’elaborazione delle risposte dell’IA a partire dai prompt degli utenti. È qui che si gioca la partita più delicata, ossia quella dell’efficienza.
Cloudflare sta testando i chip della startup Positron, fondata nel 2023, e finora le prestazioni promettono bene. Se i risultati verranno confermati, spiega Andrew Wee (veterano della Silicon Valley ed esperto in data center), l’azienda è pronta a distribuirli su larga scala.
La scommessa è semplice: offrire un’alternativa concreta a Nvidia, la cui architettura oggi domina il mercato ma impone un “prezzo da monopolista” (il Wall Street Journal parla di “tassa Nvidia”) e richiede una quantità enorme di energia.
Positron però non è sola. Anche Groq (con la ‘q’), fondata da un ex responsabile del programma chip IA di Google, promette inferenze a una velocità superiore e con consumi ridotti fino a sei volte rispetto agli standard Nvidia. Il segreto? Un’architettura completamente ripensata, che integra la memoria direttamente all’interno del chip invece di mantenerla separata.
Una scelta che consente di velocizzare drasticamente l’elaborazione e ridurre i colli di bottiglia energetici. L’obiettivo dichiarato è quello di offrire una soluzione su misura per l’IA generativa contemporanea, senza compromessi ereditati da architetture nate per altri scopi.
Vera Rubin vs Positron: la sfida del watt
Nvidia, naturalmente, non resta a guardare. I suoi nuovi sistemi Blackwell promettono miglioramenti fino a 30 volte in termini di efficienza per watt rispetto alla generazione precedente. Ma la vera sfida si giocherà con la prossima generazione, già annunciata sulla roadmap ufficiale e battezzata “Vera Rubin”. Ed è proprio con questa linea futura che Positron intende competere.
Secondo l’azienda, i suoi chip di nuova generazione avranno da due a tre volte migliori prestazioni per dollaro rispetto a Vera Rubin, e da tre a sei volte migliori prestazioni per ogni watt di energia consumato. Una promessa ambiziosa, che Cloudflare sta prendendo sul serio: oltre a test approfonditi già in corso, l’azienda si dice pronta a distribuire i chip Positron su scala globale se le performance dichiarate saranno confermate.
Dal punto di vista di Nvidia, però, non è solo questione di efficienza o potenza bruta. La flessibilità, la compatibilità con modelli emergenti e la capacità di adattarsi a casi d’uso in continua evoluzione, restano fattori decisivi. «I nostri clienti non si lasciano facilmente sedurre da soluzioni troppo di nicchia», ricorda un dirigente dell’azienda.
Il collo di bottiglia dell’IA è l’energia, non i chip
Wee è convinto che la concorrenza, spingendo verso la standardizzazione dell’hardware IA e offrendo alternative più efficienti a Nvidia, potrebbe contribuire a frenare l’impennata nel consumo energetico dell’IA. “C’è troppa corsa all’oro in questo momento ma prima o poi la ragione si riapproprierà della realtà”, ha dichiarato.
C’è però una costante nella storia dell’informatica: ogni volta che gli ingegneri riescono a ottenere maggiore efficienza, gli sviluppatori (e i consumatori) trovano sempre il modo di sfruttarla tutta. E anche di più.
Secondo Mark Lohmeyer, vicepresidente di Google Cloud per l’infrastruttura IA, la rapida adozione di modelli IA sempre più esigenti da parte di consumatori e imprese implica che, anche migliorando l’efficienza, la domanda non smetterà mai di crescere.
Come altri big dell’IA, anche Google sta esplorando soluzioni energetiche radicalmente nuove, tra cui la fusione nucleare, per alimentare i propri modelli.
Sebbene i nuovi chip possano aiutare le singole aziende a rendere l’IA più efficiente, l’industria nel suo complesso continua dunque a muoversi verso un consumo crescente di energia. E come ha sottolineato un recente report di Anthropic, il vero collo di bottiglia dello sviluppo dell’IA potrebbe non essere l’hardware ma la produzione di energia.


