Insider di OpenAI denunciano una corsa “spericolata” verso l’AGI

da | 6 Giu 2024 | IA

Ci siamo imbattuti in questa news indirettamente. La prima che abbiamo letto titolava “Un insider di OpenAI stima una probabilità del 70% che l’IA distruggerà o danneggerà catastroficamente l’umanità”, un titolo indubbiamente ad effetto ma che involontariamente, quanto meno ai nostri occhi, l’ha declassata a gossip.

Comunque incuriositi, siamo ugualmente entrati nell’articolo e abbiamo scoperto che la fonte è il New York Times. E vista l’autorevolezza della testata statunitense, eccovi spiegata la ragione di questo articolo.

Che racconta di un gruppo di dipendenti attuali e passati di OpenAI che sta lanciando l’allarme su quella che descrivono come una “cultura di imprudenza e segretezza” presso la società di intelligenza artificiale capitanata da Sam Altman. E che, secondo le loro accuse, sta correndo per costruire i sistemi di IA più potenti mai creati, senza le adeguate misure di sicurezza.

Il gruppo, composto da nove persone, ha espresso preoccupazioni circa l’incapacità dell’azienda di prevenire che i suoi sistemi di IA diventino pericolosi. “OpenAI è davvero entusiasta di costruire l’AGI (intelligenza artificiale generale) e sta correndo in modo spericolato per essere la prima a farlo”, dichiara Daniel Kokotajlo, un ex ricercatore nella divisione di governance di OpenAI, nonché uno degli organizzatori del gruppo.

In una lettera aperta pubblicata martedì, il gruppo ha chiesto alle principali aziende di IA, inclusa OpenAI, di stabilire una maggiore trasparenza e protezioni per i whistle-blower. Tra i firmatari figurano William Saunders, un ingegnere di ricerca che ha lasciato OpenAI a febbraio, e altri tre ex dipendenti, ossia Carroll Wainwright, Jacob Hilton e Daniel Ziegler. Diversi dipendenti attuali di OpenAI hanno appoggiato la lettera in modo anonimo per paura di ritorsioni.

Le accuse arrivano in un momento difficile per OpenAI, che al netto della causa in corso con Scarlett Johannson sta ancora cercando di recuperare credibilità dopo l’abbandono di Ilya Stuskever e Jan Leike.

Ilya Sutskever, che era nel CdA di OpenAI e aveva votato per licenziare il Sam Altman nel tentato ‘golpe’ dello scorso novembre, aveva lanciato più di un allarme sui potenziali rischi dell’IA. Lo stesso vale per la partenza del Jan Leike, che insieme a Sutskever aveva guidato il team di “superallineamento” di OpenAI, che si concentrava sulla gestione dei rischi connessi ai modelli di IA potenti.

Team che è stato da poco sciolto, salvo rinascere sotto la supervisione di Sam Altman. In una serie di post pubblici, nell’annunciare la sua partenza, Leike ha detto di credere che “la cultura della sicurezza e i processi siano passati in secondo piano rispetto ai prodotti appariscenti”.

Tutto ciò viene visto da alcuni dipendenti di OpenAI, preoccupati per la sicurezza dell’intelligenza artificiale, come una battuta d’arresto. Ma va detto che né Sutskever, né Leike, hanno firmato la lettera aperta scritta dagli ex dipendenti. La loro dipartita, però, ha spinto altri ex ad OpenAI a parlare.

La portavoce di OpenAI, Lindsey Held, ha dichiarato che l’azienda è orgogliosa del proprio track record nel fornire sistemi di IA capaci e sicuri, e che continuerà a impegnarsi con governi e società civile a livello globale. Un portavoce di Google, coinvolto in parte nelle denunce, ha rifiutato di commentare l’accaduto al NY Times.

I detrattori sostengono che OpenAI abbia utilizzato tattiche coercitive per impedire ai dipendenti di esprimere le loro preoccupazioni, inclusi accordi di non denigrazione che prevedono il blocco delle stock option in caso di esternazioni poco gradite alla società californiana. Kokotajlo, per la cronaca, ha rifiutato di firmare i documenti di uscita di OpenAI, che includevano una rigida clausola di non denigrazione, rinunciando a 1,7 milioni di dollari di capitale azionario maturato.

Questi accordi sono stati portati alla luce dalla testata Vox. In risposta, OpenAI ha dichiarato di non aver mai chiesto il capitale azionario maturato dai suoi ex dipendenti e di non avere intenzione di farlo. Sam Altman, CEO di OpenAI, si è detto “veramente imbarazzato” per non essere stato a conoscenza degli accordi, e l’azienda ha annunciato che avrebbe rimosso le clausole di non denigrazione dai suoi contratti standard e liberato gli ex dipendenti dai vincoli già esistenti.

Kokotajlo ha riferito che l’anno scorso aveva suggerito a Altman di concentrare più risorse sulla sicurezza, piuttosto che sullo sviluppo accelerato dei modelli, senza ottenere un cambiamento significativo. E poi ha aggiunto: “La sicurezza non può essere lasciata solo all’autoregolamentazione. Dev’esserci una struttura di governance trasparente e democraticamente responsabile a capo di questo processo, invece di sole aziende private che gareggiano tra loro e tengono tutto segreto”.

La campagna per una maggiore trasparenza e sicurezza nell’industria dell’IA è solo all’inizio ma gli ex dipendenti di OpenAI sono determinati a far sentire la loro voce, sperando in un cambiamento significativo prima che sia troppo tardi. Da parte nostra, non possiamo che augurarci che il loro appello non resti inascoltato.

POTREBBE INTERESSARTI

ByteDance e Broadcom avviano una collaborazione strategica per l'IA
,

ByteDance e Broadcom: al via una collaborazione per l’IA

L’azienda americana produrrà un chip da 5nm per la casa madre di TikTok, che lo scorso anno avrebbe già investito 2 miliardi di dollari in chip Nvidia.

Apple rinvierà il lancio di Apple Intelligence nell'UE
,

Apple rinvierà il lancio di Apple Intelligence nell’UE

Il gigante tecnologico indica il Digital Markets Act come la causa di questa decisione.

TikTok prova a rivoluzionare l'ADV ma inciampa clamorosamente

TikTok prova a rivoluzionare l’ADV ma inciampa clamorosamente

I Symphony Digital Avatars, il nuovo strumento di TikTok per la creazione di contenuti generati dall’IA, finiscono nel mirino dopo che una falla ha consentito la...
Ecco come di comporta Claude 3.5 Sonnet rispetto agli altri modelli.

Più veloce e intelligente: ecco Claude 3.5 Sonnet

Claude 3.5 Sonnet è il modello più avanzato di Anthropic, e promette prestazioni superiori a GPT-4 e Gemini

Il produttore di chip TSMC vola in borsa

La valutazione di TSMC vola alle stelle trascinata di Nvidia

TSMC si sta avvicinando alla valutazione di mille miliardi di dollari a Wall Street trascinata da Nvdia e dall’esplosione dell’IA.

L'IA non è in grado di prendere ordini da McDonald's

McDonald’s: l’IA non è ancora in grado di prendere gli ordini al drive-in

McDonald’s, la famosa catena di fast food, negli Stati Uniti ha deciso di disabilitare un sistema basato sull’intelligenza artificiale utilizzato nei...
Jen-Hsun Huang durante una presentazione di Nvidia

Nvidia batte Microsoft ed è la società che vale di più al mondo

Spinta dal crescente interesse nel comparto dell’intelligenza artificiale, Nvidia ha infranto un nuovo record in borsa, superando anche Microsoft.

Il segretario della NATO Jens Stoltenberg

La NATO investe mille miliardi di euro in IA, robot e spazio

La NATO investe mille miliardi di euro in 4 aziende specializzate in tecnologia per lo sviluppo di IA, robotica e ingegneria spaziale.

I robots di Ex-Robots

In Cina stanno costruendo robot con espressioni facciali umane

L’ultima frontiera della tecnologia fonde la robotica con l’intelligenza artificiale. L’obiettivo è quello di usare l’IA per dare ai robot...
Sam Altman potrebbe trasformare OpenAI in una società benefit foto: Joel Saget/AFP/Getty Images

OpenAI potrebbe diventare una società benefit (e perseguire il profitto)

OpenAI, per competete al meglio contro Anthropic e xAI, potrebbe cessare di essere una no-profit. E c’è già chi come passo successivo s’immagina...
Share This