Quando la porta dell’hardware si chiude, si apre il portone del software. È questa, in sintesi, la lezione che arriva dalla Cina in queste ore.
Mentre il mondo osserva la corsa ai chip sempre più potenti e le restrizioni commerciali statunitensi stringono la cinghia attorno alle ambizioni tecnologiche di Pechino, Huawei ha deciso di cambiare le regole del gioco.
Perché se non puoi avere più chip migliori sul mercato, come quelli di Nvidia, devi far lavorare meglio quelli che hai.
Flex:ai: l’orchestra dei processori
Nasce così Flex:ai, l’ultimo tassello di una strategia che punta tutto sull’efficienza e sull’autosufficienza. Non stiamo parlando di un nuovo processore fisico ma di un’intelligenza “invisibile” capace di coordinare le risorse esistenti con una precisione chirurgica.
Immaginate un direttore d’orchestra che, invece di musicisti, si trova a gestire una flotta eterogenea di GPU, NPU e altri acceleratori. Flex:ai fa esattamente questo: costruito sulla solida base di Kubernetes, il software agisce come un sistema di orchestrazione avanzato.
La sua forza sta nella capacità di virtualizzare. In termini pratici, può “affettare” una singola scheda fisica in più unità di calcolo virtuali, permettendo a diversi carichi di lavoro di correre in parallelo.
Huawei dichiara che questo approccio può migliorare il tasso di utilizzo dei processori del 30% in media. Si tratta di un salto di qualità enorme, reso possibile da un componente chiamato Hi Scheduler, che alloca le risorse in modo dinamico, andando a pescare la potenza di calcolo inattiva dai vari nodi per ridistribuirla dove c’è più bisogno.
La democratizzazione forzata dell’AI
Dietro questi tecnicismi c’è una visione chiara del mercato e delle sue attuali inefficienze. E durante il lancio, Zhou Yuefeng, vicepresidente della linea prodotti data storage di Huawei, ha inquadrato perfettamente il problema
“I compiti più piccoli raramente utilizzano la capacità di una singola scheda”, ha dichiarato, mentre quelli più grandi non possono essere gestiti da una sola, e i compiti paralleli rendono la gestione del calcolo più difficile”.
È un’ammissione di complessità ma anche una dichiarazione d’intenti: “Far funzionare l’IA in contesti reali è dura. Gli ingegneri di Huawei non possono farlo da soli”.
Da qui la scelta dell’open source. Flex:ai sarà disponibile attraverso la community di sviluppatori ModelEngine, frutto anche di collaborazioni con diversi atenei cinesi. L’obiettivo dichiarato è accelerare quella che Zhou definisce la “democratizzazione dell’AI”, sbloccando il potenziale delle infrastrutture esistenti.
Rincorrere Nvidia sul suo stesso terreno
C’è un’ironia di fondo in questa mossa. La soluzione di Huawei ricorda molto da vicino le tecnologie di Run:AI, una startup di Tel Aviv acquisita proprio da Nvidia nel 2024 per 700 milioni di dollari.
Il concetto è lo stesso: usare il software per massimizzare l’hardware. Huawei sta quindi replicando le strategie dei leader di mercato, per necessità di sopravvivenza.
Dopo aver presentato ad agosto l’Unified Cache Manager (UCM) per velocizzare l’inferenza AI, il lancio di Flex:ai conferma che la battaglia tecnologica tra Cina e USA si sta spostando dai transistor alle righe di codice.
In un mondo dove i chip sono merce rara, l’efficienza non è più solo un vantaggio economico: è l’unica via per restare in gara.
Fonte: South China Morning Post


