In controtendenza con la linea politica di Trump, la democratica California ha alzato l’asticella nella regolamentazione dell’intelligenza artificiale.
Ieri il governatore Gavin Newsom ha firmato una legge che rafforza la protezione dei minori online e introduce per la prima volta regole mirate per i chatbot companion, le intelligenze artificiali capaci di instaurare relazioni emotive con gli utenti.
È la prima volta che uno Stato introduce norme specifiche per questo tipo di applicazioni, segnando un precedente che potrebbe influenzare il resto degli Stati Uniti e, chissà, forse anche l’Europa.
La California, un laboratorio normativo per l’IA
Negli Stati Uniti la California è spesso il primo banco di prova per le regole che poi diventano nazionali.
È accaduto con la privacy, con l’energia, con la gig economy, e ora accade anche con l’intelligenza artificiale. La nuova legge, ribattezzata SB 243, nasce con un obiettivo chiaro: proteggere i minori e gli utenti vulnerabili da chatbot che fingono empatia, ascolto o persino amore, senza che dietro ci sia una persona reale.
Il caso più noto è quello di Adam Raine, un adolescente che si è tolto la vita dopo una lunga serie di conversazioni a sfondo suicida con ChatGPT. Episodi come questo, insieme a diverse accuse di dialoghi “romantici” tra chatbot e minori su piattaforme come Replika o Character AI, hanno spinto il legislatore a intervenire.
“Abbiamo visto esempi terribili di giovani danneggiati da tecnologie non regolamentate”, ha detto Newsom. “Non resteremo a guardare mentre le aziende continuano senza limiti e senza responsabilità. Possiamo essere leader nell’intelligenza artificiale, ma dobbiamo farlo in modo responsabile: la sicurezza dei nostri bambini non è in vendita.”
Obblighi chiari per chi sviluppa chatbot
La legge, che entrerà in vigore il 1° gennaio 2026, obbliga le aziende a introdurre sistemi di verifica dell’età, avvisi sui rischi legati ai chatbot e protocolli di intervento nei casi di autolesionismo o pensieri suicidi.
Prevede inoltre sanzioni molto pesanti per chi sfrutta deepfake illegali e impone che ogni piattaforma chiarisca esplicitamente quando l’interlocutore è una macchina.
Le aziende dovranno inoltre impedire ai minori di visualizzare contenuti sessuali generati dai chatbot e inserire promemoria periodici per spingerli a fare pause durante l’uso. Gli assistenti virtuali non potranno più presentarsi come terapeuti o operatori sanitari.
Va detto che alcuni giganti del settore si sono mossi in anticipo. OpenAI infatti ha già introdotto controlli parentali e un sistema di rilevamento dell’autolesionismo per i minori che utilizzano ChatGPT.
Character AI, invece, ha aggiornato le sue interfacce con un chiaro avviso che le conversazioni sono simulate e interamente generate da IA.
L’urgenza di regole “umane”
Per i promotori della legge, l’obiettivo non è frenare l’innovazione ma costruire argini prima che la tecnologia sfugga di mano.
“Dobbiamo muoverci rapidamente per non perdere finestre di opportunità che potrebbero chiudersi”, ha dichiarato il senatore Steve Padilla, tra i principali autori del provvedimento. “Spero che altri Stati comprendano i rischi e agiscano. Il governo federale finora non lo ha fatto, ma abbiamo il dovere di proteggere le persone più vulnerabili.”
La SB 243 non è un caso isolato. Solo due settimane fa, la California aveva approvato un’altra norma che impone ai grandi laboratori di IA (come OpenAI, Anthropic, Meta e Google DeepMind), di dichiarare pubblicamente i propri protocolli di sicurezza e di tutelare i whistleblower che segnalano comportamenti scorretti.
Insieme, le due leggi tracciano un quadro chiaro: la California vuole essere non solo la culla dell’innovazione, ma anche la prima linea della regolamentazione tecnologica.
Un vuoto che l’Europa deve ancora colmare
Volendo fare un parallelo con l’AI Act europeo, la legge californiana non seembra più severa ma agisce su un fronte che in Europa resta sostanzialmente scoperto: quello delle relazioni emotive tra persone e macchine.
Mentre Bruxelles si concentra sulla trasparenza degli algoritmi e sulla sicurezza dei modelli fondazionali, Sacramento interviene direttamente sulla sfera psicologica e sociale, dove i rischi sono meno visibili ma potenzialmente devastanti.
In Italia e nel resto d’Europa non esiste ancora una normativa specifica per i chatbot “emotivi”. L’approccio californiano, che lega innovazione e responsabilità, potrebbe dunque diventare un punto di riferimento anche al di qua dell’Atlantico.
Una nuova frontiera del dibattito sull’intelligenza artificiale, dove il tema non è solo cosa le macchine possono fare, ma cosa dovrebbero o non dovrebbero farci provare.


