La notizia che ci apprestiamo a dare è di quelle importanti. Non tanto in sé, quanto per ciò che sottende.
A dispetto delle pacche che i big dell’industria danno sulle spalle di Jensen Huang (si veda il ringraziamento esplicito di Mira Murati in coda al lancio di GPT-4o), Nvidia è diventata così grossa e potente cavalcando l’onda dell’intelligenza artificiale, che probabilmente sta iniziando a dare fastidio a Big Tech.
Ma sia chiaro, c’è da capirla: gli investimenti hardware nell’IA sono nell’ordine dei miliardi di dollari (i data center sono tutt’altro che economici) e un leader di mercato con troppo potere contrattuale, non è mai cosa buona e giusta. Diversamente non si spiega perché ieri importanti aziende tecnologiche tra cui Meta, Microsoft, Advanced Micro Devices e Broadcom, abbiano annunciato di aver sviluppato un nuovo standard industriale per il networking nei data center dedicati all’AI. Senza Nvidia.
Il gruppo Ultra Accelerator Link ha infatti progettato le specifiche che regolano le connessioni tra i diversi acceleratori nei data center. Queste saranno disponibili nel terzo trimestre del 2024 per le aziende che si uniranno al consorzio, abbreviato in UALink.
“Una specifica industriale è un elemento critico per standardizzare le interfacce per l’AI, il machine learning, l’HPC (high-performance computing) e le applicazioni cloud per la prossima generazione di data center e implementazioni AI”, hanno dichiarato le aziende in un comunicato ripreso da Reuters.
L’Ultra Accelerator Link pare allora il tentativo di stabilire uno standard aperto per la comunicazione tra sistemi che elaborano le immense quantità di dati utilizzate nelle operazioni di IA. E, probabilmente, l’ultimo sforzo (in ordine temporale?) per rompere il predominio del leader di mercato, Nvidia. Non a caso, tra gli altri membri del consorzio troviamo Cisco System, Hewlett Packard Enterprise, Intel e Google.
Se sulle prime aziende c’è poco da aggiungere, non tutti ricordano invece Alphabet (di cui Google fa parte), produce Tensor Processing Units (TPU), chip pensati per accelerare i carichi di lavoro di machine learning e intelligenza artificiale. Che sono parte integrante della piattaforma Google Cloud e che sono in concorrenza diretta con le GPU di Nvidia.
È facile capire, dunque, perché in apertura parlavamo dell’importanza di questa news. Meta e Microsoft (che vuol dire OpenAI e Azure), stanno creando un nuovo standard industriale per l’IA con tutti i concorrenti diretti di Nvidia (all’appello manca giusto Marvell Technologies).
Siccome la vendita delle GPU è ormai la parte preponderante del business di Jensen Huang, e che su di essa è imperniato l’attuale capitalizzazione di Nvidia, sarà interessante vedere se questo consorzio sarà in grado di alterare gli equilibri nell’ambito dell’intelligenza artificiale.


