OpenAI ha lanciato ufficialmente il modello o3 lo scorso 16 aprile, insieme alla versione ridotta o4-mini.
Questa data ha segnato la disponibilità generale del modello o3, successiva a una fase iniziale di test e accesso limitato per motivi di sicurezza.
Lo scorso 31 gennaio era stata resa disponibile una versione più leggera, denominata o3-mini. Questa era destinata a utenti selezionati e a sviluppatori con accesso API, offrendo un’alternativa specializzata per domini tecnici che richiedono precisione e velocità.
Un buon inizio per o3
Nel complesso, la ricezione di o3 è stata positiva. I primi tester hanno lodato il modello per la sua capacità di ragionamento: è infatti in grado di rispondere a un prompt pianificando, eseguendo e spiegando una sequenza di passaggi.
Il modello di OpenAI è stato apprezzato anche per l’affidabilità nel condurre ricerche online e nell’utilizzare strumenti digitali senza supervisione continua.
O3 ha ricevuto consensi per le attività più classiche dell’IA – scrittura, disegno, calcolo e programmazione – ma anche per i progressi nella visione artificiale.
Uno degli “esperimenti” diventati virali, e che ha fatto storcere il naso a molti esperti di privacy, consisteva nell’usare o3 per analizzare una qualsiasi foto digitale e identificare il luogo in cui è stata scattata.
The geoguessing power of o3 is a really good sample of its agentic abilities. Between its smart guessing and its ability to zoom into images, to do web searches, and read text, the results can be very freaky.
I stripped location info from the photo & prompted “geoguess this” pic.twitter.com/KaQiXHUvYL
— Ethan Mollick (@emollick) April 17, 2025
OpenAI: prestazioni super ma a caro prezzo
In uno studio sull’accuratezza nell’analisi finanziaria condotto su diversi modelli di IA, o3 ha ottenuto i risultati migliori, ma è riuscito a fornire risposte corrette solo nel 48,3% dei casi.
Non solo: ogni singola interrogazione è costata a OpenAI 3,69 dollari, rendendolo il modello più dispendioso in assoluto. Una combinazione che ha lasciato perplesso chi sperava in una maggiore efficienza dai modelli di nuova generazione.
OpenAI ha anche ammesso che il modello soffre ancora di problemi strutturali.
In uno dei benchmark di accuratezza più usati nel settore, o3 ha “allucinato” (ovvero fornito risposte inventate ma convincenti) a un ritmo doppio rispetto al suo predecessore, o1.
E sebbene risponda a un numero maggiore di domande e ne azzecchi di più, il salto nel tasso di errore resta un mistero: “Servono ulteriori ricerche”, ha dichiarato l’azienda.
“Fa piazza pulita degli esseri umani”
L’effetto “wow”, però, è stato reale. Lo ha scritto Tyler Cowen, economista e autore molto seguito, che non ha lesinato complimenti per il nuovo modello di OpenAI.
“Non mi importa se non lo vuoi chiamare AGI. E no, non fa tutto giusto, e ci sono modi per ingannarlo, spesso con domande piuttosto semplici (per gli esseri umani). Ma non prendiamoci in giro su quello che sta succedendo qui. Su un’enorme varietà di argomenti e approcci, fa piazza pulita degli esseri umani. È ora di essere onesti e ammetterlo.”.
Anche se la definizione di “intelligenza artificiale generale” resta vaga, è evidente che qualcosa è cambiato. Il confine dell’IA però oggi appare frastagliato: in certi compiti è imprecisa, in altri è semplicemente superumana.
Ed è proprio questa imprevedibilità a distinguere la fase attuale.
A due anni e mezzo dal debutto di ChatGPT, l’intelligenza artificiale continua ad avanzare ma senza diventare più comprensibile o prevedibile.


