Nvidia, leader indiscusso nel settore dei chip per l’intelligenza artificiale, poche ore fa ha svelato il suo nuovo fiore all’occhiello nel campo dei chip dedicati all’IA generativa, il B200, e il “superchip” GB200.
Durante la conferenza annuale per sviluppatori, tenutasi in un’arena di hockey nel cuore della Silicon Valley. Jensen Huang, CEO di Nvidia, ha fatto una serie di annunci mirati a mantenere l’azienda in una posizione dominante nell’industria dell’intelligenza artificiale. Tra le novità presentate, il B200 spicca per essere 30 volte più veloce in alcuni compiti rispetto al suo predecessore, benché Huang non abbia fornito dettagli specifici sul prezzo del chip.
Parallelamente, Nvidia ha introdotto NIM (Nvidia Inference Microservice), un software pensato per incentivareo la scelta dei suoi chip in un mercato altamente competitivo. Questo passaggio segna la trasformazione di Nvidia da semplice produttore di chip a fornitore di piattaforme integrate, permettendo alle aziende di creare soluzioni software su misura.
Huang ha sottolinea questo cambiamento strategico, evidenziando il nuovo focus sul software come elemento centrale dell’offerta commerciale. Manuvir Das, VP Enterprise di Nvidia, ha invece dichiarato a CNBC che NIM, complementare alle GPU, arricchisce l’offerta e facilita l’uso dei modelli precedenti delle GPU Nvidia.
L’introduzione di NIM mira a rendere più accessibile l’adozione di tecnologie avanzate, offrendo un significativo valore aggiunto e permettendo un risparmio sui costi di aggiornamento hardware. Questa mossa strategica incoraggia anche l’iscrizione al programma Nvidia Enterprise, con una licenza che ha un costo di 4.500 dollari per GPU all’anno.
Il nuovo B200 offre fino a 20 petaflops di potenza di calcolo grazie ai suoi 208 miliardi di transistor. Il GB200, che combina due di queste GPU con un singolo CPU Grace, promette di offrire 30 volte la performance per carichi di lavoro di inferenza LLM, con una riduzione dei costi e del consumo energetico fino a 25 volte rispetto all’H100.
La nuova architettura Blackwell non solo accelera significativamente le prestazioni ma introduce anche miglioramenti chiave come un motore trasformatore di seconda generazione che raddoppia il calcolo, la larghezza di banda e la dimensione dei modelli di IA. Un altro avanzamento tecnologico è rappresentato dal nuovo commutatore NVLink di prossima generazione, che permette a 576 GPU di comunicare tra loro con una larghezza di banda bidirezionale di 1,8 terabyte al secondo.
Nvidia sta inoltre spingendo per l’adozione di queste tecnologie su larga scala, proponendo soluzioni come il rack GB200 NVL72 raffreddato a liquido, che integra 36 CPU e 72 GPU per un totale di 720 petaflops di performance di addestramento AI. Queste innovazioni posizionano Nvidia in modo unico per rispondere alle esigenze delle aziende di cloud computing come Amazon, Google, Microsoft e Oracle, che stanno già pianificando di offrire i rack NVL72 nei loro servizi cloud.
Nonostante l’entusiasmo per queste innovazioni, l’annuncio non ha fornito nuovo slancio a Nvidia in borsa, le cui azioni sono cresciute del 240% negli ultimi 12 mesi. Il titolo ha registrato un calo dell’1,4% nelle contrattazioni after-hours, un segnale che forse gli investitori si aspettavano annunci ancora più rivoluzionari.
Tuttavia, con le sue recenti innovazioni nel campo dei chip IA e delle infrastrutture di rete, Nvidia sembra ben posizionata per mantenere e potenzialmente espandere il suo dominio nel settore.


