A neanche due settimane dai nostri articoli sulle dimissioni di Ilya Sutskever e lo scioglimento del Superalignment team, ecco arrivare la risposta di OpenAI alle critiche che hanno puntato il dito contro il suo approccio disinvolto allo sviluppo delle intelligenze artificiali, non ultima l’AGI che Sam Altman dichiara di riuscire a raggiungere a breve.
Come? Con l’annuncio della creazione di un nuovo comitato incaricato di valutare la sicurezza e la protezione dei suoi modelli di intelligenza artificiale.
Questa mossa segue anche le critiche mosse da due ex membri del Consiglio di amministrazione, Helen Toner e Tasha McCauley, che in un articolo su The Economist hanno denunciato pochi giorni fa le lacune nella governance di OpenAI.
Il nuovo comitato avrà 90 giorni di tempo per esaminare le misure di sicurezza della tecnologia sviluppata da OpenAI e redigere una relazione. “Dopo la revisione completa del consiglio, OpenAI condividerà pubblicamente un aggiornamento sulle raccomandazioni adottate in modo coerente con la sicurezza e la protezione,” ha dichiarato l’azienda in un post sul blog.
I recenti progressi di OpenAI nel campo dell’intelligenza artificiale hanno sollevato preoccupazioni riguardo alla gestione dei potenziali pericoli associati a queste tecnologie. Tali preoccupazioni si sono intensificate lo scorso autunno, quando il CEO Sam Altman è stato brevemente estromesso a causa di divergenze con il co-fondatore e capo scienziato Ilya Sutskever, riguardo alla velocità di sviluppo dei prodotti di AI e alle misure di sicurezza necessarie per limitarne i rischi.
Le preoccupazioni sono tornate alla ribalta questo mese, lo scrivevamo in apertura, quando Sutskever e un suo stretto collaboratore, Jan Leike, hanno lasciato l’azienda. Entrambi erano alla guida del team di superallineamento di OpenAI, focalizzato sulle minacce a lungo termine dell’intelligenza artificiale generale. Leike, dopo le dimissioni, ha scritto che la sua divisione era “in difficoltà” per la mancanza di risorse di calcolo all’interno di OpenAI, una critica condivisa anche da altri dipendenti che hanno lasciato l’azienda.
A seguito della partenza di Sutskever, OpenAI ha sciolto il suo team ma ieri ha annunciato che il lavoro continuerà sotto l’unità di ricerca e sarà guidato da John Schulman, co-fondatore che ha assunto il nuovo ruolo di Head of Alignment Science.
L’azienda di Sam Altman ha avuto difficoltà a gestire le partenze del personale. E la scorsa settimana ha abolito una politica che prevedeva l’annullamento delle partecipazioni azionarie degli ex dipendenti se criticavano l’azienda pubblicamente.
Helen Toner e Tasha McCauley, che hanno lasciato il consiglio di OpenAI dopo il reintegro di Sam Altman come CEO lo scorso anno, hanno criticato la sua leadership, avvertendo che le dimissioni di Sutskever e di altri membri del team di sicurezza sono un cattivo presagio per l’esperimento di autogoverno di OpenAI. Un portavoce ha dichiarato che OpenAI è consapevole delle critiche degli ex dipendenti e che l’azienda sta lavorando per affrontare tali preoccupazioni.
Il nuovo comitato per la sicurezza di OpenAI sarà composto da tre membri del consiglio: il presidente Bret Taylor, il CEO di Quora Adam D’Angelo e l’ex dirigente di Sony Entertainment. Nicole Seligman, insieme a sei dipendenti, tra cui Schulman e Altman. L’azienda continuerà a consultare consulenti esterni tra cui Rob Joyce, consigliere per la sicurezza nazionale dell’amministrazione Trump, e John Carlin, ex funzionario del Dipartimento di Giustizia sotto l’amministrazione Biden.


