La corsa allo sviluppo di programmi di intelligenza artificiale generativa ha portato a una domanda crescente per i chip utilizzati nei data center. AMD, con sede a Santa Clara, in California, cerca da tempo di competere con Nvidia, che attualmente domina il redditizio mercato dei semiconduttori pensati per l’IA con una quota di mercato di circa l’80%.
In quest’ottica, AMD ha presentato al Computex di Taipei i suoi ultimi processori per l’intelligenza artificiale, dettagliando i suoi piani di sviluppo per i prossimi due anni.
La CEO di AMD, Lisa Su, ha dunque introdotto l’acceleratore MI325X, disponibile nel quarto trimestre del 2024, e anticipato una nuova serie di chip denominata MI350, prevista per il 2025 e basata su una nuova architettura.
Rispetto alla serie di chip AI attualmente disponibile, la MI300, AMD prevede che l’MI350 offrirà prestazioni 35 volte superiori nell’inferenza, ovvero il processo di calcolo delle risposte delle AI generative. Inoltre AMD ha rivelato la serie MI400, che arriverà nel 2026 e sarà basata su una nuova architettura chiamata “Next”.
Dallo scorso anno, Nvidia ha dichiarato agli investitori l’intenzione di ridurre il ciclo della release dei prodotti a un anno. AMD farà altrettanto: “L’AI è chiaramente la nostra priorità numero uno come azienda”, dichiara Lisa Su, “e abbiamo sfruttato tutte le capacità di sviluppo all’interno dell’azienda per farlo. Questa cadenza annuale è necessaria perché il mercato richiede prodotti e capacità nuove… Ogni anno avremo una grande novità in modo da possedere sempre un portafoglio competitivo”.
Le azioni di AMD sono più che raddoppiate dall’inizio del 2023, un aumento che però impallidisce rispetto alla crescita di oltre sette volte nello stesso periodo delle azioni di Nvidia, che sempre al Computex ha appena annunciato per il 2026 la piattaforma Rubin AI.


