Quando Tyler Johnston, fondatore di The Midas Project, ha ricevuto la notifica di una causa da parte di OpenAI, la sorpresa non è stata tanto per l’arrivo dell’ufficiale giudiziario, quanto per la portata della richiesta.
L’azienda di Sam Altman voleva non solo sapere se la sua piccola organizzazione no-profit fosse stata finanziata da Elon Musk, ma anche conoscere tutte le fonti di finanziamento, le donazioni ricevute e le comunicazioni interne sul tema della governance di OpenAI.
The Midas Project è il gruppo che ha realizzato “The OpenAI Files”, un rapporto di cinquanta pagine sull’evoluzione della società da organizzazione no-profit a impresa commerciale, raccogliendo migliaia di firme in una lettera aperta che chiedeva trasparenza su quella transizione. Oggi, proprio quella iniziativa è finita nel mirino legale della stessa OpenAI.
Non è un caso isolato. Negli ultimi mesi, almeno sette organizzazioni civiche e no-profit hanno ricevuto citazioni simili: tra queste Encode, il Future of Life Institute e la San Francisco Foundation.
Tutte hanno sostenuto campagne o proposte di legge per introdurre norme di sicurezza e trasparenza nell’intelligenza artificiale. Tutte, in modi diversi, hanno criticato la conversione di OpenAI in società a scopo di lucro.
Dietro la causa con Musk, un’altra battaglia
Ufficialmente, le citazioni rientrano nella difesa di OpenAI nella causa intentata da Elon Musk, che contesta la trasformazione della società in un’impresa commerciale. Ma per molti quella disputa legale sarebbe solo un pretesto per colpire chi ha sostenuto la legge californiana SB53, la prima norma statale a imporre standard di sicurezza obbligatori per i modelli di intelligenza artificiale.
Di quella legge e della sfida politica del governatore Gavin Newsom alla Silicon Valley abbiamo scritto nei giorni scorsi, quando le Big Tech hanno reagito con ostilità a ogni tentativo di regolamentazione. OpenAI, in particolare, si è detta contraria, sostenendo che la SB53 sia “prematura” e rischiasse di penalizzare l’innovazione americana.
Oggi però la linea si è spinta oltre: nelle citazioni recapitate a Encode, ad esempio, OpenAI chiede persino di consegnare “tutti i documenti e le comunicazioni relative alla SB53 e al suo potenziale impatto sull’azienda”. Una richiesta sproporzionata e, di fatto, intimidatoria.
La guerra legale come arma politica
Secondo Sacha Haworth, direttrice del Tech Oversight Project, organizzazione che ha co-pubblicato The OpenAI Files, quella in corso non è una normale disputa aziendale ma una strategia consapevole di “guerra legale”. Ossia l’uso sistematico delle cause come strumento di pressione politica.
“Negli ultimi due anni OpenAI ha avuto l’opportunità di distinguersi dalle altre big tech”, ha dichiarato Haworth, “ma è evidente che sta seguendo la loro stessa strada. Usano avvocati, donazioni politiche e lobbisti perché possono. E a volte funziona”.
Una posizione condivisa anche da James Grimmelmann, professore di diritto alla Cornell University, secondo cui le richieste di OpenAI “sono talmente ampie da risultare agghiaccianti”.
Grimmelmann spiega che obbligare piccole organizzazioni civiche a raccogliere e consegnare centinaia di documenti significa costringerle a sostenere spese legali enormi. O a tacere per mancanza di mezzi. “Se OpenAI volesse agire in buona fede”, osserva, “potrebbe almeno offrire la copertura delle spese legali dei soggetti coinvolti. Ma così non è”.
Le parole più dure sono arrivate però dall’interno. Joshua Achiam, responsabile del team di allineamento delle missioni di OpenAI, ha scritto pubblicamente: “Anche a costo di mettere a rischio la mia carriera, dico: non mi sembra una gran cosa. Non possiamo diventare una potenza spaventosa invece che virtuosa”.
At what is possibly a risk to my whole career I will say: this doesn’t seem great. Lately I have been describing my role as something like a “public advocate” so I’d be remiss if I didn’t share some thoughts for the public on this. Some thoughts in thread… https://t.co/zl64DLlTVW
— Joshua Achiam (@jachiam0) October 10, 2025
Ma non era un’azienda nata per il bene dell’umanità?
Per molte delle no-profit coinvolte, la posta in gioco non è solo economica. Encode, ad esempio, ha denunciato che dopo la citazione di OpenAI nessuna compagnia assicurativa ha più accettato di offrirle copertura legale, temendo i costi e i rischi di un contenzioso con l’azienda di Sam Altman. Un effetto collaterale che finisce per zittire le organizzazioni più piccole, scoraggiandole dal parlare.
La San Francisco Foundation, da parte sua, ha accusato l’azienda di voler “distrarre l’attenzione dal vero problema”, ossia la mancanza di trasparenza nella ristrutturazione che ha trasformato OpenAI da fondazione pubblica a società privata.
La questione, insomma, va oltre le aule di tribunale, e le citazioni legali di OpenAI appaiono come un segnale di un cambiamento più profondo. Quello di un’azienda che aveva promesso di costruire l’intelligenza artificiale “per il bene dell’umanità”, ma che oggi sembra usare la stessa potenza legale e finanziaria delle Big Tech contro chi prova a chiederle regole e responsabilità.
Ed è questo, forse, il paradosso più inquietante. Perché, come ha scritto un attivista coinvolto nella vicenda, “una volta scrivevano codice per cambiare il mondo. Ora scrivono atti legali per difendersi da chi chiede di farlo meglio”.
Fonte: The Verge


