Lunedì scorso, durante l’evento di Apple, Tim Cook ha annunciato un accordo di grande rilievo con OpenAI per Apple Intelligence, che prevede l’integrazione di GPT-4o nell’assistente vocale Siri.
Quello che è passato sottotraccia, e che è stato evidenziato da Reuters, è che un documento tecnico rivelerebbe che anche Alphabet, ossia la società madre di Google, ha gioca un ruolo cruciale nella corsa di Apple verso l’IA.
Gli ingegneri di Apple hanno infatti utilizzato il proprio software di framework insieme a una gamma di hardware, tra cui le loro unità di elaborazione grafica (GPU) interne, unitamente ai chip disponibili esclusivamente nel cloud di Google.
Chiamati unità di elaborazione tensoriale (TPU), sono chip che Google sviluppa da circa un decennio. Stando alle sue dichiarazione, i chip di quinta generazione offrono prestazioni competitive con i chip Nvidia H100. Non solo: durante la sua conferenza annuale per sviluppatori, Google ha annunciato il lancio della sesta generazione di TPU entro l’anno.
Questi processori, progettati specificamente per applicazioni di intelligenza artificiale, rappresentano un elemento chiave dell’infrastruttura di cloud computing di Google. E l’unico modo per accedere alle TPU di Google è attraverso la sua divisione cloud, analogamente a come i clienti acquistano servizi di calcolo da AWS di Amazon e Azure di Microsoft.
Tutto ciò dimostra che le rivalità storiche tra le Big Tech, alle volte, possono evolversi in collaborazioni strategiche per affrontare le sfide più avanzate del settore.


