Quando Ilya Sutskever ha lasciato OpenAI nel 2024, pochi avrebbero immaginato che, nel giro di pochi mesi, la sua nuova azienda avrebbe raggiunto una valutazione di 30 miliardi di dollari.
Ma Safe Superintelligence, la startup da lui fondata con l’obiettivo di sviluppare una superintelligenza sicura, è oggi una delle realtà più ambite dagli investitori della Silicon Valley.
Eppure, a differenza delle big del settore, SSI non ha ancora rilasciato alcun prodotto e opera nel massimo riserbo.
La scissione di Sutskever da OpenAI e la nascita di SSI
Sutskever, nato nell’ex Unione Sovietica e cresciuto in Israele, ha costruito la sua carriera nel mondo dell’IA come ricercatore di deep learning, contribuendo a rivoluzionare il settore con tecniche di apprendimento automatico basate sullo “scaling”.
Dopo un periodo in Google, nel 2015 è stato tra i primi dipendenti di OpenAI, attratto dalla visione di un’intelligenza artificiale generale (AGI) sviluppata per il bene dell’umanità.
Dopo il successo globale di ChatGPT nel 2022, però, OpenAI ha iniziato a comportarsi sempre più come una società commerciale, spingendo su prodotti e ricavi.
Secondo fonti vicine all’azienda, Sutskever ha visto progressivamente ridursi le risorse per la ricerca avanzata e la sicurezza dell’IA, fino a entrare in rotta di collisione con il CEO Sam Altman.
Nel novembre 2023, è stato proprio Sutskever a comunicare ad Altman il suo licenziamento da parte del consiglio di amministrazione. La mossa, però, ha scatenato una crisi interna: centinaia di dipendenti hanno minacciato le dimissioni e Microsoft ha offerto loro un posto di lavoro.
Nel giro di pochi giorni, Altman è stato reintegrato e Sutskever si è trovato isolato. “Rimpiango la mia partecipazione alle azioni del consiglio”, ha dichiarato in seguito.
Lo scorso maggio ha rassegnato ufficialmente le dimissioni e ha fondato Safe Superintelligence Inc. insieme all’ex ricercatore di OpenAI, Daniel Levy, e all’investitore Daniel Gross.
Un’azienda segretissima che attrae miliardi
A differenza di altre startup di intelligenza artificiale, che puntano alla visibilità per attrarre investitori e talenti, SSI opera con il massimo riserbo.
I suoi uffici si trovano tra la Silicon Valley e Tel Aviv, e i suoi circa 20 dipendenti (un numero irrisorio rispetto alle migliaia di impiegati di colossi come OpenAI e Anthropic) sono scoraggiati dal menzionare l’azienda nei loro profili LinkedIn.
Addirittura, i candidati che ottengono un colloquio in presenza vengono invitati a lasciare il telefono in una gabbia di Faraday, un dispositivo che blocca le comunicazioni.
Sutskever infine preferisce reclutare giovani talenti da formare piuttosto che esperti del settore, temendo che possano portare via le loro conoscenze in caso di cambio di azienda.
Nonostante la segretezza, i più importanti fondi di venture capital, tra cui Sequoia Capital e l’onnipresente Andreessen Horowitz, hanno investito in SSI. Nel settembre 2024, la startup ha raccolto un miliardo di dollari con una valutazione iniziale di 5 miliardi.
Ora, con un nuovo round di finanziamenti guidato da Greenoaks Capital, SSI ha raggiunto un valore di 30 miliardi di dollari, diventando una delle aziende di IA più preziose al mondo.
La scommessa sulla superintelligenza
Mentre OpenAI, Google e Anthropic rilasciano chatbot e strumenti di IA generativa per consumatori e aziende, SSI ha scelto una strategia diversa: non intende commercializzare alcun prodotto fino a quando non avrà sviluppato una vera superintelligenza, ovvero un’IA capace di superare gli esperti umani in ogni disciplina.
Sutskever ha spiegato ai suoi collaboratori di non voler usare i metodi tradizionali del deep learning impiegati in OpenAI. Secondo fonti vicine all’azienda, avrebbe identificato una “montagna diversa da scalare” che starebbe già dando segnali promettenti.
“Tutti sono curiosi di sapere esattamente cosa sta cercando di realizzare e quale sia la sua intuizione”, ha commentato James Cham, partner della società di venture capital Bloomberg Beta.
In una delle sue rare apparizioni pubbliche, alla conferenza NeurIPS del dicembre 2024, Sutskever ha parlato delle potenziali implicazioni della superintelligenza, avvertendo che potrebbe sviluppare autocoscienza e persino rivendicare diritti propri.
“Non sarebbe un brutto risultato se avessimo delle IA e tutto ciò che vogliono sia coesistere con noi”, ha affermato.
Per ora, però, Safe Superintelligence resta un enigma. La sua visione è chiara ma resta da vedere se Sutskever riuscirà davvero a realizzare il suo sogno: creare un’IA sicura e superiore a tutto ciò che l’umanità ha mai conosciuto.


