Ci siamo imbattuti in questa news indirettamente. La prima che abbiamo letto titolava “Un insider di OpenAI stima una probabilità del 70% che l’IA distruggerà o danneggerà catastroficamente l’umanità”, un titolo indubbiamente ad effetto ma che involontariamente, quanto meno ai nostri occhi, l’ha declassata a gossip.
Comunque incuriositi, siamo ugualmente entrati nell’articolo e abbiamo scoperto che la fonte è il New York Times. E vista l’autorevolezza della testata statunitense, eccovi spiegata la ragione di questo articolo.
Che racconta di un gruppo di dipendenti attuali e passati di OpenAI che sta lanciando l’allarme su quella che descrivono come una “cultura di imprudenza e segretezza” presso la società di intelligenza artificiale capitanata da Sam Altman. E che, secondo le loro accuse, sta correndo per costruire i sistemi di IA più potenti mai creati, senza le adeguate misure di sicurezza.
Il gruppo, composto da nove persone, ha espresso preoccupazioni circa l’incapacità dell’azienda di prevenire che i suoi sistemi di IA diventino pericolosi. “OpenAI è davvero entusiasta di costruire l’AGI (intelligenza artificiale generale) e sta correndo in modo spericolato per essere la prima a farlo”, dichiara Daniel Kokotajlo, un ex ricercatore nella divisione di governance di OpenAI, nonché uno degli organizzatori del gruppo.
In una lettera aperta pubblicata martedì, il gruppo ha chiesto alle principali aziende di IA, inclusa OpenAI, di stabilire una maggiore trasparenza e protezioni per i whistle-blower. Tra i firmatari figurano William Saunders, un ingegnere di ricerca che ha lasciato OpenAI a febbraio, e altri tre ex dipendenti, ossia Carroll Wainwright, Jacob Hilton e Daniel Ziegler. Diversi dipendenti attuali di OpenAI hanno appoggiato la lettera in modo anonimo per paura di ritorsioni.
Le accuse arrivano in un momento difficile per OpenAI, che al netto della causa in corso con Scarlett Johannson sta ancora cercando di recuperare credibilità dopo l’abbandono di Ilya Stuskever e Jan Leike.
Ilya Sutskever, che era nel CdA di OpenAI e aveva votato per licenziare il Sam Altman nel tentato ‘golpe’ dello scorso novembre, aveva lanciato più di un allarme sui potenziali rischi dell’IA. Lo stesso vale per la partenza del Jan Leike, che insieme a Sutskever aveva guidato il team di “superallineamento” di OpenAI, che si concentrava sulla gestione dei rischi connessi ai modelli di IA potenti.
Team che è stato da poco sciolto, salvo rinascere sotto la supervisione di Sam Altman. In una serie di post pubblici, nell’annunciare la sua partenza, Leike ha detto di credere che “la cultura della sicurezza e i processi siano passati in secondo piano rispetto ai prodotti appariscenti”.
Tutto ciò viene visto da alcuni dipendenti di OpenAI, preoccupati per la sicurezza dell’intelligenza artificiale, come una battuta d’arresto. Ma va detto che né Sutskever, né Leike, hanno firmato la lettera aperta scritta dagli ex dipendenti. La loro dipartita, però, ha spinto altri ex ad OpenAI a parlare.
La portavoce di OpenAI, Lindsey Held, ha dichiarato che l’azienda è orgogliosa del proprio track record nel fornire sistemi di IA capaci e sicuri, e che continuerà a impegnarsi con governi e società civile a livello globale. Un portavoce di Google, coinvolto in parte nelle denunce, ha rifiutato di commentare l’accaduto al NY Times.
I detrattori sostengono che OpenAI abbia utilizzato tattiche coercitive per impedire ai dipendenti di esprimere le loro preoccupazioni, inclusi accordi di non denigrazione che prevedono il blocco delle stock option in caso di esternazioni poco gradite alla società californiana. Kokotajlo, per la cronaca, ha rifiutato di firmare i documenti di uscita di OpenAI, che includevano una rigida clausola di non denigrazione, rinunciando a 1,7 milioni di dollari di capitale azionario maturato.
Questi accordi sono stati portati alla luce dalla testata Vox. In risposta, OpenAI ha dichiarato di non aver mai chiesto il capitale azionario maturato dai suoi ex dipendenti e di non avere intenzione di farlo. Sam Altman, CEO di OpenAI, si è detto “veramente imbarazzato” per non essere stato a conoscenza degli accordi, e l’azienda ha annunciato che avrebbe rimosso le clausole di non denigrazione dai suoi contratti standard e liberato gli ex dipendenti dai vincoli già esistenti.
in regards to recent stuff about how openai handles equity:
we have never clawed back anyone’s vested equity, nor will we do that if people do not sign a separation agreement (or don’t agree to a non-disparagement agreement). vested equity is vested equity, full stop.
there was…
— Sam Altman (@sama) May 18, 2024
Kokotajlo ha riferito che l’anno scorso aveva suggerito a Altman di concentrare più risorse sulla sicurezza, piuttosto che sullo sviluppo accelerato dei modelli, senza ottenere un cambiamento significativo. E poi ha aggiunto: “La sicurezza non può essere lasciata solo all’autoregolamentazione. Dev’esserci una struttura di governance trasparente e democraticamente responsabile a capo di questo processo, invece di sole aziende private che gareggiano tra loro e tengono tutto segreto”.
La campagna per una maggiore trasparenza e sicurezza nell’industria dell’IA è solo all’inizio ma gli ex dipendenti di OpenAI sono determinati a far sentire la loro voce, sperando in un cambiamento significativo prima che sia troppo tardi. Da parte nostra, non possiamo che augurarci che il loro appello non resti inascoltato.


