Newsom e la sfida californiana della legge sull’IA

da | 28 Set 2025 | IA, Legal, Politica

Il governatore della california Gage Skidmore in una foto di Gage Skidmore/Wikimedia Commons

La California è a un passo dall’approvazione di una legge che potrebbe cambiare le regole del gioco per l’intelligenza artificiale in America.

Il disegno di legge SB 53, già sul tavolo del governatore Gavin Newsom, punta infatti a introdurre obblighi di trasparenza per le aziende che sviluppano modelli di frontiera. In altre parole, i colossi dell’IA dovranno rendere pubbliche le misure di sicurezza adottate e segnalare eventuali incidenti.

Newsom, parlando di intelligenza artificiale a New York durante un evento del Clinton Global Initiative, ha spiegato: “La California ha un senso di responsabilità e di accountability nel guidare, quindi sosteniamo la propensione al rischio, ma non l’imprudenza”. E ancora: “Abbiamo un disegno di legge che riteniamo trovi il giusto equilibrio. Abbiamo lavorato con l’industria, ma non ci siamo sottomessi all’industria. Non stiamo facendo cose contro di loro, ma non stiamo nemmeno facendo cose necessariamente per loro”.

Cosa prevede la proposta

Il cuore della legge non è solo la trasparenza. L’SB 53, redatto dal senatore statale Scott Wiener, include anche protezioni per i whistleblower e misure per favorire i piccoli sviluppatori e i ricercatori indipendenti, dando loro accesso a infrastrutture di cloud computing altrimenti fuori portata.

È una scelta politica che intende riequilibrare un ecosistema dominato da pochi attori giganteschi, offrendo spazio anche a chi non ha risorse miliardarie.

Ad oggi, l’unica big dell’IA ad aver espresso sostegno pubblico al provvedimento è Anthropic. Non stupisce invece il silenzio degli altri giganti della Silicon Valley, da Google a OpenAI, fino a Meta, che anzi ha recentemente messo in piedi un super PAC per contrastare regolamentazioni considerate troppo invasive nello Stato.

Dal fallimento della SB 1047 al rilancio con l’SB 53

L’attuale disegno di legge non nasce dal nulla. L’SB 53 è infatti una sorta di erede della SB 1047, proposta sempre dal senatore Scott Wiener nel 2024 e naufragata sotto i colpi della lobby tecnologica.

Allora il progetto prevedeva già requisiti di sicurezza e trasparenza per i modelli di frontiera, insieme a obblighi di test e monitoraggio. Le grandi aziende della Silicon Valley si erano però mobilitate contro la misura, definendola “prematura” e potenzialmente dannosa per l’innovazione.

Solo poche realtà, tra cui la ‘solita’ Anthropic, avevano espresso apertura a un quadro normativo di questo tipo. E con l’SB 53, Wiener ha ripreso quello stesso impianto, limandone alcuni aspetti e cercando di renderlo più accettabile sia a livello politico che industriale.

Ma la filosofia resta la stessa: impedire che lo sviluppo dell’intelligenza artificiale più avanzata avvenga in una zona grigia priva di responsabilità.

Newsom contro Trump (e Big Tech)

Questa iniziativa colloca il governo della California in rotta di collisione non solo con la Silicon Valley, ma anche con la Casa Bianca di Donald Trump.

L’amministrazione aveva infatti sostenuto l’idea di una moratoria federale che impedisse agli Stati di introdurre leggi autonome sull’IA. L’obiettivo era evitare un mosaico di regole diverse da Stato a Stato, considerate un ostacolo all’innovazione. Quella clausola è stata poi cancellata dal Senato ma la direzione rimane chiara: Washington vuole che Big Tech abbia le mani libere.

La California, invece, rivendica la propria leadership normativa, ripercorrendo uno schema già visto con il CCPA, la legge sulla privacy che negli anni scorsi è diventata di fatto uno standard per l’intero Paese. Se allora erano stati i dati personali a definire l’arena di scontro, oggi tocca all’IA.

Il possibile effetto domino di una legge californiana

Perché quanto scritto conterebbe a livello nazionale? Perché regolare l’IA in California equivale, in pratica, a regolarla in gran parte degli Stati Uniti.

La stragrande maggioranza delle big tech ha infatti sede nello Stato e sarebbe logisticamente difficile applicare due regimi distinti, uno per la California e uno per il resto del Paese. Più realistico è che le aziende scelgano di uniformarsi allo standard californiano.

Questa prospettiva però preoccupa sia Trump, che vorrebbe mantenere il controllo federale, sia i giganti tecnologici, che spingono per regole più accomodanti. In mezzo c’è Newsom, ormai dichiarato avversario del Presidente degli USA, che con l’SB 53 si candida a fissare le prime regole “di frontiera” per la più grande industria emergente del nostro tempo.

Il bivio della Silicon Valley

Il paradosso è evidente: la Silicon Valley, che da decenni ha costruito la propria forza sull’essere parte integrante della California, si trova ora potenzialmente ostacolata dalle istituzioni del suo stesso Stato.

Da un lato, aziende come Meta investono milioni in lobbying per fermare o plasmare le normative a proprio vantaggio. Dall’altro, realtà emergenti come Anthropic scelgono di appoggiare la legge, vedendo in essa un’opportunità per un ecosistema più sicuro e bilanciato.

Se l’SB 53 diverrà realtà, la California non solo riaffermerà il suo ruolo di laboratorio normativo d’America ma darà anche un segnale forte al mondo intero, e cioè che l’IA non può più muoversi senza regole. E se ciò dovesse accadere, sarà interessante vedere se dagli Stati Uniti arriveranno ancora critiche all’AI Act europeo.

POTREBBE INTERESSARTI

torre controllo shutdown

Shutdown negli Stati Uniti, aeroporti sull’orlo del collasso

File di ore ai controlli, voli saltati e personale allo stremo. I controllori di volo non vengono pagati da settimane e iniziano a dimettersi: “Ogni giorno ce ne sono...
nexperia

La fragile tregua tra Cina ed Europa sul caso Nexperia

Dopo settimane di tensione, Pechino accetta di incontrare i funzionari olandesi per discutere il futuro di Nexperia. Ma l’Olanda è stretta tra le pressioni di...
OpenAI Sam Altman ChatGPT

Sam Altman dopo il no ai salvataggi di Stato, dice sì agli incentivi

Il CEO di OpenAI ha lanciato un appello al governo statunitense per estendere il credito d’imposta previsto dal Chips and Science Act anche alle infrastrutture dedicate...
Marsha Blackburn

Google ritira Gemma dopo le accuse di diffamazione della senatrice Blackburn

Dopo una risposta “allucinata” del modello Gemma, la senatrice repubblicana Marsha Blackburn accusa Google di aver inventato false accuse di stupro. Mountain View parla...
Deli Chen Deepseek

DeepSeek riappare e avverte: “L’IA cambierà tutto, e non in meglio”

Dopo mesi di silenzio, la startup simbolo dell’IA cinese torna a parlare. E il ricercatore Chen Deli avverte: “Sono positivo sulla tecnologia ma vedo in modo negativo...
Sam Altman

Sam Altman: “No ai salvataggi di Stato per le aziende di IA”

Il CEO di OpenAI interviene per frenare le polemiche dopo le dichiarazioni della sua CFO Sarah Friar, che durante il WSJ Tech Live ha evocato un possibile intervento...
Nato nel 1985, Ilya Sutskever è un informatico di origine russa che lavora nel campo dell'apprendimento automatico

“Caos e bugie”: la testimonianza di Sutskever inguaia Sam Altman

La causa legale di Elon Musk contro OpenAI fa emergere i retroscena della cacciata di Sam Altman nel 2023, tra manipolazioni, rivalità e dossier segreti.

tinder

Tinder vuole le nostre foto per fermare il crollo degli abbonati

Match Group scommette sull’intelligenza artificiale per interpretare interessi e personalità. Ma il prezzo è la nostra la privacy.

Aravind Srinivas Perplexity

Amazon contro Perplexity: chi gioca sporco nell’era degli agenti IA?

Amazon accusa Perplexity di accessi non autorizzati agli account dei clienti. La quale si difende parlando di “bullismo tecnologico”. Il confine tra innovazione e...
Sam Altman OpenAI Miyazaki

Studio Ghibli sfida OpenAI: “Basta addestrare l’IA sulle nostre opere”

Gli editori giapponesi chiedono a OpenAI di fermare l’uso dei loro contenuti per l’addestramento dei modelli generativi. Altman risponde con un post ironico su...
Share This