Insider di OpenAI denunciano una corsa “spericolata” verso l’AGI

da | 6 Giu 2024 | IA

Ci siamo imbattuti in questa news indirettamente. La prima che abbiamo letto titolava “Un insider di OpenAI stima una probabilità del 70% che l’IA distruggerà o danneggerà catastroficamente l’umanità”, un titolo indubbiamente ad effetto ma che involontariamente, quanto meno ai nostri occhi, l’ha declassata a gossip.

Comunque incuriositi, siamo ugualmente entrati nell’articolo e abbiamo scoperto che la fonte è il New York Times. E vista l’autorevolezza della testata statunitense, eccovi spiegata la ragione di questo articolo.

Che racconta di un gruppo di dipendenti attuali e passati di OpenAI che sta lanciando l’allarme su quella che descrivono come una “cultura di imprudenza e segretezza” presso la società di intelligenza artificiale capitanata da Sam Altman. E che, secondo le loro accuse, sta correndo per costruire i sistemi di IA più potenti mai creati, senza le adeguate misure di sicurezza.

Il gruppo, composto da nove persone, ha espresso preoccupazioni circa l’incapacità dell’azienda di prevenire che i suoi sistemi di IA diventino pericolosi. “OpenAI è davvero entusiasta di costruire l’AGI (intelligenza artificiale generale) e sta correndo in modo spericolato per essere la prima a farlo”, dichiara Daniel Kokotajlo, un ex ricercatore nella divisione di governance di OpenAI, nonché uno degli organizzatori del gruppo.

In una lettera aperta pubblicata martedì, il gruppo ha chiesto alle principali aziende di IA, inclusa OpenAI, di stabilire una maggiore trasparenza e protezioni per i whistle-blower. Tra i firmatari figurano William Saunders, un ingegnere di ricerca che ha lasciato OpenAI a febbraio, e altri tre ex dipendenti, ossia Carroll Wainwright, Jacob Hilton e Daniel Ziegler. Diversi dipendenti attuali di OpenAI hanno appoggiato la lettera in modo anonimo per paura di ritorsioni.

Le accuse arrivano in un momento difficile per OpenAI, che al netto della causa in corso con Scarlett Johannson sta ancora cercando di recuperare credibilità dopo l’abbandono di Ilya Stuskever e Jan Leike.

Ilya Sutskever, che era nel CdA di OpenAI e aveva votato per licenziare il Sam Altman nel tentato ‘golpe’ dello scorso novembre, aveva lanciato più di un allarme sui potenziali rischi dell’IA. Lo stesso vale per la partenza del Jan Leike, che insieme a Sutskever aveva guidato il team di “superallineamento” di OpenAI, che si concentrava sulla gestione dei rischi connessi ai modelli di IA potenti.

Team che è stato da poco sciolto, salvo rinascere sotto la supervisione di Sam Altman. In una serie di post pubblici, nell’annunciare la sua partenza, Leike ha detto di credere che “la cultura della sicurezza e i processi siano passati in secondo piano rispetto ai prodotti appariscenti”.

Tutto ciò viene visto da alcuni dipendenti di OpenAI, preoccupati per la sicurezza dell’intelligenza artificiale, come una battuta d’arresto. Ma va detto che né Sutskever, né Leike, hanno firmato la lettera aperta scritta dagli ex dipendenti. La loro dipartita, però, ha spinto altri ex ad OpenAI a parlare.

La portavoce di OpenAI, Lindsey Held, ha dichiarato che l’azienda è orgogliosa del proprio track record nel fornire sistemi di IA capaci e sicuri, e che continuerà a impegnarsi con governi e società civile a livello globale. Un portavoce di Google, coinvolto in parte nelle denunce, ha rifiutato di commentare l’accaduto al NY Times.

I detrattori sostengono che OpenAI abbia utilizzato tattiche coercitive per impedire ai dipendenti di esprimere le loro preoccupazioni, inclusi accordi di non denigrazione che prevedono il blocco delle stock option in caso di esternazioni poco gradite alla società californiana. Kokotajlo, per la cronaca, ha rifiutato di firmare i documenti di uscita di OpenAI, che includevano una rigida clausola di non denigrazione, rinunciando a 1,7 milioni di dollari di capitale azionario maturato.

Questi accordi sono stati portati alla luce dalla testata Vox. In risposta, OpenAI ha dichiarato di non aver mai chiesto il capitale azionario maturato dai suoi ex dipendenti e di non avere intenzione di farlo. Sam Altman, CEO di OpenAI, si è detto “veramente imbarazzato” per non essere stato a conoscenza degli accordi, e l’azienda ha annunciato che avrebbe rimosso le clausole di non denigrazione dai suoi contratti standard e liberato gli ex dipendenti dai vincoli già esistenti.

Kokotajlo ha riferito che l’anno scorso aveva suggerito a Altman di concentrare più risorse sulla sicurezza, piuttosto che sullo sviluppo accelerato dei modelli, senza ottenere un cambiamento significativo. E poi ha aggiunto: “La sicurezza non può essere lasciata solo all’autoregolamentazione. Dev’esserci una struttura di governance trasparente e democraticamente responsabile a capo di questo processo, invece di sole aziende private che gareggiano tra loro e tengono tutto segreto”.

La campagna per una maggiore trasparenza e sicurezza nell’industria dell’IA è solo all’inizio ma gli ex dipendenti di OpenAI sono determinati a far sentire la loro voce, sperando in un cambiamento significativo prima che sia troppo tardi. Da parte nostra, non possiamo che augurarci che il loro appello non resti inascoltato.

POTREBBE INTERESSARTI

Nvidia CES 2026 Jensen Huag

Al CES 2026 la Silicon Valley ha scelto Trump

La Genesis Mission, Nvidia e il nuovo asse Washington-Silicon Valley: al Consumer Electronics Show è andata in scena la fine della neutralità tech.

Harry Potter e la Pietra Filosofale

I ricercatori sono riusciti a estrarre Harry Potter (quasi per intero) dai principali LLM

Una ricerca di Stanford dimostra che Claude, GPT-4.1, Gemini e Grok hanno memorizzato interi libri protetti da copyright. E possono riprodurli quasi parola per...
Grok

Grok, la risposta di Musk ai deepfake è farli pagare

Dall’Indonesia al Regno Unito, i governi reagiscono ai deepfake di Grok. Musk attacca gli inglesi: “Fascisti”. Ma intanto le immagini abusive...
Character

Google e Character.AI, accordi milionari per evitare il processo

Le famiglie ottengono risarcimenti per i suicidi legati al chatbot, ma il vuoto normativo sulla responsabilità dell’IA generativa resta intatto.

Andreessen Horowitz

Il secolo americano di Andreessen Horowitz: 15 miliardi per blindare il futuro tech

Dalla difesa all’intelligenza artificiale: come il colosso di Menlo Park sta puntando a riscrivere il rapporto tra capitale privato, sovranità e potere.

data center

La corsa all’IA accende il mercato dei bond per i data center europei

L’Europa importerà i modelli finanziari americani per recuperare il terreno perduto rispetto a USA e Cina, trasformando i data center in asset...
Dario Amodei Anthropic

Anthropic tratta un nuovo finanziamento a una valutazione da 350 miliardi

La start-up di intelligenza artificiale, in competizione con OpenAI, mira a raccogliere circa 10 miliardi mentre prende forma l’ipotesi di una quotazione in...
ChatGPT Health

OpenAI annuncia ChatGPT Health (ma non in Europa)

Negli Stati Uniti 230 milioni di persone già usano il chatbot di Sam Altman per parlare di salute. Ma non mancano le sfide in termini di sensibilità dei dati e le...
giustizia giudici IA

Negli USA i giudici iniziano a usare l’IA per decidere i processi

Dagli Stati Uniti arriva la spinta per l’IA in tribunale: non più solo ricerca legale ma bozze di sentenze e decisioni automatizzate.

Elon Musk xAI

xAI raccoglie 20 miliardi in meno di due anni: è record per Musk

La società di intelligenza artificiale di Elon Musk supera i 42 miliardi totali di finanziamenti dal 2023 e punta a una valutazione oltre i 230 miliardi. Ma Grok...
Share This