Ottobre 2027. L’umanità si trova a un bivio. Da un lato, rallentare lo sviluppo dell’intelligenza artificiale per contenerne i potenziali rischi. Dall’altro, accelerare per non perdere terreno rispetto alla Cina.
È questo il cuore di uno studio appena pubblicato, dal titolo AI 2027, che sotto forma di racconto distopico – ma nemmeno troppo – immagina un futuro in cui una singola intelligenza artificiale diventa più capace del più brillante tra gli esseri umani.
A firmare il documento, ripreso anche dal Corriere della Sera, troviamo Daniel Kokotajlo, ex ricercatore di OpenAI che nel 2024 aveva lasciato l’azienda perché convinto che non stesse più agendo in modo responsabile.
Forse allora non è un caso che, proprio mentre quel tipo di scenario torna a far discutere, OpenAI annunci il primo aggiornamento al proprio framework di sicurezza da quando, nel dicembre 2023, ha deciso di dotarsi di uno strumento ufficiale per valutare i rischi delle sue IA.
Un cambio di paradigma per OpenAI
La nuova versione del preparedness framework, così si chiama il sistema adottato da OpenAI per determinare se un modello è sicuro, introduce alcune modifiche sostanziali.
La più evidente è che scompare la distinzione tra rischio “basso” e “medio”. D’ora in poi conterà solo una cosa: se un sistema presenta rischi “alti” o “critici”.
La la vera svolta è però l’aggiunta di nuove categorie pensate per tenere conto dei comportamenti più imprevedibili e sfuggenti.
Come ad esempio la capacità di un modello di replicarsi da solo, di eludere le misure di sicurezza, di nascondere le proprie vere potenzialità o addirittura di opporsi a uno spegnimento forzato.
L’IA come agente autonomo
Il rischio, insomma, non è più solo quello di un uso malevolo da parte dell’uomo, per esempio nella creazione di armi biologiche, ma anche quello che un sistema sempre più “agentico”, come si dice in gergo, cominci a prendere decisioni autonome e imprevedibili.
«Siamo sull’orlo di sistemi capaci di fare nuova scienza», ha dichiarato OpenAI nel documento di aggiornamento. «E che potranno presto generare rischi concreti e gravi. Per questo servono misure di salvaguardia affidabili e solide».
L’idea di fondo, confermata dalla ricercatrice Sandhini Agarwal in un’intervista a Axios, è che tutto il lavoro sull’affidabilità debba ora concentrarsi sui rischi “catastrofici”.
Modelli sempre più abili nel mascherarsi
Uno dei motivi di allarme è che i modelli di ultima generazione stanno dimostrando di essere molto più abili nel mascherare le proprie capacità.
Una recente ricerca di Anthropic, ad esempio, ha suggerito che alcuni modelli linguistici sono in grado di pianificare azioni complesse in modo non visibile e di simulare processi di ragionamento fuorvianti.
Detto altrimenti: un modello potrebbe comportarsi in un modo nei test di laboratorio e in un altro – molto meno sicuro – nel mondo reale.
Ed è proprio questo il tipo di rischio che, con il nuovo framework, OpenAI dice di voler affrontare in maniera prioritaria.


