OpenAI istituisce un consiglio di supervisione dopo lo scioglimento del team di sicurezza

da | 28 Mag 2024 | IA

A neanche due settimane dai nostri articoli sulle dimissioni di Ilya Sutskever e lo scioglimento del Superalignment team, ecco arrivare la risposta di OpenAI alle critiche che hanno puntato il dito contro il suo approccio disinvolto allo sviluppo delle intelligenze artificiali, non ultima l’AGI che Sam Altman dichiara di riuscire a raggiungere a breve.

Come? Con l’annuncio della creazione di un nuovo comitato incaricato di valutare la sicurezza e la protezione dei suoi modelli di intelligenza artificiale.

Questa mossa segue anche le critiche mosse da due ex membri del Consiglio di amministrazione, Helen Toner e Tasha McCauley, che in un articolo su The Economist hanno denunciato pochi giorni fa le lacune nella governance di OpenAI.

Il nuovo comitato avrà 90 giorni di tempo per esaminare le misure di sicurezza della tecnologia sviluppata da OpenAI e redigere una relazione. “Dopo la revisione completa del consiglio, OpenAI condividerà pubblicamente un aggiornamento sulle raccomandazioni adottate in modo coerente con la sicurezza e la protezione,” ha dichiarato l’azienda in un post sul blog.

I recenti progressi di OpenAI nel campo dell’intelligenza artificiale hanno sollevato preoccupazioni riguardo alla gestione dei potenziali pericoli associati a queste tecnologie. Tali preoccupazioni si sono intensificate lo scorso autunno, quando il CEO Sam Altman è stato brevemente estromesso a causa di divergenze con il co-fondatore e capo scienziato Ilya Sutskever, riguardo alla velocità di sviluppo dei prodotti di AI e alle misure di sicurezza necessarie per limitarne i rischi.

Le preoccupazioni sono tornate alla ribalta questo mese, lo scrivevamo in apertura, quando Sutskever e un suo stretto collaboratore, Jan Leike, hanno lasciato l’azienda. Entrambi erano alla guida del team di superallineamento di OpenAI, focalizzato sulle minacce a lungo termine dell’intelligenza artificiale generale. Leike, dopo le dimissioni, ha scritto che la sua divisione era “in difficoltà” per la mancanza di risorse di calcolo all’interno di OpenAI, una critica condivisa anche da altri dipendenti che hanno lasciato l’azienda.

A seguito della partenza di Sutskever, OpenAI ha sciolto il suo team ma ieri ha annunciato che il lavoro continuerà sotto l’unità di ricerca e sarà guidato da John Schulman, co-fondatore che ha assunto il nuovo ruolo di Head of Alignment Science.

L’azienda di Sam Altman ha avuto difficoltà a gestire le partenze del personale. E la scorsa settimana ha abolito una politica che prevedeva l’annullamento delle partecipazioni azionarie degli ex dipendenti se criticavano l’azienda pubblicamente.

Helen Toner e Tasha McCauley, che hanno lasciato il consiglio di OpenAI dopo il reintegro di Sam Altman come CEO lo scorso anno, hanno criticato la sua leadership, avvertendo che le dimissioni di Sutskever e di altri membri del team di sicurezza sono un cattivo presagio per l’esperimento di autogoverno di OpenAI. Un portavoce ha dichiarato che OpenAI è consapevole delle critiche degli ex dipendenti e che l’azienda sta lavorando per affrontare tali preoccupazioni.

Il nuovo comitato per la sicurezza di OpenAI sarà composto da tre membri del consiglio: il presidente Bret Taylor, il CEO di Quora Adam D’Angelo e l’ex dirigente di Sony Entertainment. Nicole Seligman, insieme a sei dipendenti, tra cui Schulman e Altman. L’azienda continuerà a consultare consulenti esterni tra cui Rob Joyce, consigliere per la sicurezza nazionale dell’amministrazione Trump, e John Carlin, ex funzionario del Dipartimento di Giustizia sotto l’amministrazione Biden.

POTREBBE INTERESSARTI

Apple rinvierà il lancio di Apple Intelligence nell'UE
,

Apple rinvierà il lancio di Apple Intelligence nell’UE

Il gigante tecnologico indica il Digital Markets Act come la causa di questa decisione.

TikTok prova a rivoluzionare l'ADV ma inciampa clamorosamente

TikTok prova a rivoluzionare l’ADV ma inciampa clamorosamente

I Symphony Digital Avatars, il nuovo strumento di TikTok per la creazione di contenuti generati dall’IA, finiscono nel mirino dopo che una falla ha consentito la...
Ecco come di comporta Claude 3.5 Sonnet rispetto agli altri modelli.

Più veloce e intelligente: ecco Claude 3.5 Sonnet

Claude 3.5 Sonnet è il modello più avanzato di Anthropic, e promette prestazioni superiori a GPT-4 e Gemini

Il produttore di chip TSMC vola in borsa

La valutazione di TSMC vola alle stelle trascinata di Nvidia

TSMC si sta avvicinando alla valutazione di mille miliardi di dollari a Wall Street trascinata da Nvdia e dall’esplosione dell’IA.

L'IA non è in grado di prendere ordini da McDonald's

McDonald’s: l’IA non è ancora in grado di prendere gli ordini al drive-in

McDonald’s, la famosa catena di fast food, negli Stati Uniti ha deciso di disabilitare un sistema basato sull’intelligenza artificiale utilizzato nei...
Jen-Hsun Huang durante una presentazione di Nvidia

Nvidia batte Microsoft ed è la società che vale di più al mondo

Spinta dal crescente interesse nel comparto dell’intelligenza artificiale, Nvidia ha infranto un nuovo record in borsa, superando anche Microsoft.

Il segretario della NATO Jens Stoltenberg

La NATO investe mille miliardi di euro in IA, robot e spazio

La NATO investe mille miliardi di euro in 4 aziende specializzate in tecnologia per lo sviluppo di IA, robotica e ingegneria spaziale.

I robots di Ex-Robots

In Cina stanno costruendo robot con espressioni facciali umane

L’ultima frontiera della tecnologia fonde la robotica con l’intelligenza artificiale. L’obiettivo è quello di usare l’IA per dare ai robot...
Sam Altman potrebbe trasformare OpenAI in una società benefit foto: Joel Saget/AFP/Getty Images

OpenAI potrebbe diventare una società benefit (e perseguire il profitto)

OpenAI, per competete al meglio contro Anthropic e xAI, potrebbe cessare di essere una no-profit. E c’è già chi come passo successivo s’immagina...
NVIDIA lancia Nemotron-4 340B per la generazione di dati sintetici

NVIDIA lancia Nemotron-4 340B per la generazione di dati sintetici

La famiglia di modelli Nemotron-4 340B servirà per l’addestramento dei degli LLM in tutti quei casi in cui i dati reali sono costosi, difficili da ottenere o...
Share This