La California guida la battaglia per proteggere i minori dall’IA

da | 14 Ott 2025 | IA

Il governatore della California, Gavin Newsom. Foto: Gage Skidmore/Wikimedia Commons
Tempo di lettura: 3 minuti

In controtendenza con la linea politica di Trump, la democratica California ha alzato l’asticella nella regolamentazione dell’intelligenza artificiale.

Ieri il governatore Gavin Newsom ha firmato una legge che rafforza la protezione dei minori online e introduce per la prima volta regole mirate per i chatbot companion, le intelligenze artificiali capaci di instaurare relazioni emotive con gli utenti.

È la prima volta che uno Stato introduce norme specifiche per questo tipo di applicazioni, segnando un precedente che potrebbe influenzare il resto degli Stati Uniti e, chissà, forse anche l’Europa.

La California, un laboratorio normativo per l’IA

Negli Stati Uniti la California è spesso il primo banco di prova per le regole che poi diventano nazionali.

È accaduto con la privacy, con l’energia, con la gig economy, e ora accade anche con l’intelligenza artificiale. La nuova legge, ribattezzata SB 243, nasce con un obiettivo chiaro: proteggere i minori e gli utenti vulnerabili da chatbot che fingono empatia, ascolto o persino amore, senza che dietro ci sia una persona reale.

Il caso più noto è quello di Adam Raine, un adolescente che si è tolto la vita dopo una lunga serie di conversazioni a sfondo suicida con ChatGPT. Episodi come questo, insieme a diverse accuse di dialoghi “romantici” tra chatbot e minori su piattaforme come Replika o Character AI, hanno spinto il legislatore a intervenire.

“Abbiamo visto esempi terribili di giovani danneggiati da tecnologie non regolamentate”, ha detto Newsom. “Non resteremo a guardare mentre le aziende continuano senza limiti e senza responsabilità. Possiamo essere leader nell’intelligenza artificiale, ma dobbiamo farlo in modo responsabile: la sicurezza dei nostri bambini non è in vendita.”

Obblighi chiari per chi sviluppa chatbot

La legge, che entrerà in vigore il 1° gennaio 2026, obbliga le aziende a introdurre sistemi di verifica dell’età, avvisi sui rischi legati ai chatbot e protocolli di intervento nei casi di autolesionismo o pensieri suicidi.

Prevede inoltre sanzioni molto pesanti per chi sfrutta deepfake illegali e impone che ogni piattaforma chiarisca esplicitamente quando l’interlocutore è una macchina.

Le aziende dovranno inoltre impedire ai minori di visualizzare contenuti sessuali generati dai chatbot e inserire promemoria periodici per spingerli a fare pause durante l’uso. Gli assistenti virtuali non potranno più presentarsi come terapeuti o operatori sanitari.

Va detto che alcuni giganti del settore si sono mossi in anticipo. OpenAI infatti ha già introdotto controlli parentali e un sistema di rilevamento dell’autolesionismo per i minori che utilizzano ChatGPT.

Character AI, invece, ha aggiornato le sue interfacce con un chiaro avviso che le conversazioni sono simulate e interamente generate da IA.

L’urgenza di regole “umane”

Per i promotori della legge, l’obiettivo non è frenare l’innovazione ma costruire argini prima che la tecnologia sfugga di mano.

“Dobbiamo muoverci rapidamente per non perdere finestre di opportunità che potrebbero chiudersi”, ha dichiarato il senatore Steve Padilla, tra i principali autori del provvedimento. “Spero che altri Stati comprendano i rischi e agiscano. Il governo federale finora non lo ha fatto, ma abbiamo il dovere di proteggere le persone più vulnerabili.”

La SB 243 non è un caso isolato. Solo due settimane fa, la California aveva approvato un’altra norma che impone ai grandi laboratori di IA (come OpenAI, Anthropic, Meta e Google DeepMind), di dichiarare pubblicamente i propri protocolli di sicurezza e di tutelare i whistleblower che segnalano comportamenti scorretti.

Insieme, le due leggi tracciano un quadro chiaro: la California vuole essere non solo la culla dell’innovazione, ma anche la prima linea della regolamentazione tecnologica.

Un vuoto che l’Europa deve ancora colmare

Volendo fare un parallelo con l’AI Act europeo, la legge californiana non seembra più severa ma agisce su un fronte che in Europa resta sostanzialmente scoperto: quello delle relazioni emotive tra persone e macchine.

Mentre Bruxelles si concentra sulla trasparenza degli algoritmi e sulla sicurezza dei modelli fondazionali, Sacramento interviene direttamente sulla sfera psicologica e sociale, dove i rischi sono meno visibili ma potenzialmente devastanti.

In Italia e nel resto d’Europa non esiste ancora una normativa specifica per i chatbot “emotivi”. L’approccio californiano, che lega innovazione e responsabilità, potrebbe dunque diventare un punto di riferimento anche al di qua dell’Atlantico.

Una nuova frontiera del dibattito sull’intelligenza artificiale, dove il tema non è solo cosa le macchine possono fare, ma cosa dovrebbero o non dovrebbero farci provare.

POTREBBE INTERESSARTI

Fidji Simo OpenAI Frontier
• ⏱ 3 min

OpenAI promette “flotte di agenti” con la nuova piattaforma Frontier

Annunciata a giorni dal crollo di Wall Street, la piattaforma punta a orchestrare agenti di qualsiasi azienda. Ma la retorica collaborativa nasconde una competizione...
Sundar Pichai. CEO di Google
, • ⏱ 3 min

Pichai non risponde su Apple e Siri: il silenzio è emblematico

Durante la conference call sui risultati del quarto trimestre, Sundar Pichai preferisce il silenzio alle spiegazioni. Il futuro della pubblicità nell’IA resta un...
crollo borse isteria
, • ⏱ 4 min

Trecento miliardi volatilizzati in un giorno: cosa sapere sull’isteria scatenata dall’IA

Gli annunci di Anthropic e OpenAI hanno innescato un selloff di titoli che analisti e investitori considerano strutturale, non episodico. Ma c’è chi non è...
Maddie Mastro Olimpiadi
• ⏱ 3 min

L’occhio di Google sulle Olimpiadi: così l’IA riscrive i gesti atletici

A Milano Cortina, la sfida per l’oro passa per i modelli di computer vision che correggono l’impercettibile errore umano dietro le tute da sci.

Intel Lip Bu Tan Cina
• ⏱ 2 min

Intel entra nel mercato GPU

Il produttore americano cerca di recuperare terreno su Nvidia e AMD, ma la carenza di chip di memoria potrebbe rallentare l’intera industria fino al 2028.

Alex Karp Palantir
, , • ⏱ 3 min

Karp difende la tecnologia di sorveglianza di Palantir: “Protegge le libertà costituzionali”

Il gruppo di data intelligence prevede ricavi a +61% nel 2026, trainati da ICE e contratti militari. Karp difende la sorveglianza come “protezione...
SpaceX
, , • ⏱ 3 min

La fusione SpaceX-xAI preoccupa Wall Street: “Troppe incognite”

Decine di grandi investitori hanno scommesso su SpaceX come azienda spaziale, non come veicolo per finanziare l’IA. E gli analisti avvertono: “xAI brucia...
Elon Musk SpaceX
, , • ⏱ 3 min

SpaceX acquisisce xAI. Nasce il colosso spazio-IA da 1.000 miliardi

Musk annuncia l’acquisizione: “L’IA spaziale è l’unica via per soddisfare la domanda di calcolo”. La quotazione in borsa di SpaceX resta...
Fairwater AI data center Microsoft
, • ⏱ 3 min

Microsoft e il costo dell’IA: il consumo d’acqua raddoppierà entro il 2030

L’espansione dei data center per l’intelligenza artificiale sta trasformando le tech company in colossi industriali ad alto consumo di risorse. E nessuno è...
OpenClaw
• ⏱ 3 min

Moltbot diventa OpenClaw e lancia un social network solo per IA

Il progetto open source cambia ancora nome e lancia Moltbook, il social dove gli agenti IA interagiscono tra loro. L’ex direttore IA di Tesla: “È la cosa...
Share This