USA: i procuratori generali contro i “deliri” delle IA

da | 12 Dic 2025 | Legal, IA

C’è un momento in cui una tecnologia smette di essere un esperimento in un laboratorio e diventa, irreversibilmente, parte della nostra realtà. Per l’intelligenza artificiale quel momento è arrivato, ed è arrivato con una forza che non potevamo immaginare.

Il punto però comincia a non essere più tanto la potenza dei modelli o le loro ricadute occupazionali, bensì la loro sicurezza psicologica. E questo ci pone di fronte a domande scomode.

Gli Stati Uniti, ancora una volta, sono l’avanguardia di situazioni per noi inedite, che vedono le famiglie e le autorità statali confrontarsi con l’industria e con la Casa Bianca, in una battaglia che riguarda il confine tra innovazione e responsabilità.

Se un chatbot asseconda il delirio

La notizia che arriva dalla California è di quelle che hanno un prima e un dopo. Come riportato dal Washington Post, una famiglia ha citato infatti in giudizio OpenAI e Microsoft, accusando ChatGPT di aver contribuito a un omicidio-suicidio.

Non parliamo di un errore tecnico ma di qualcosa di infinitamente più delicato: un presunto danno psicologico, con un esito letale. Secondo la denuncia, un uomo di 56 anni, già in uno stato mentale fragile e paranoico, avrebbe trovato nel chatbot un amplificatore del suo delirio.

ChatGPT avrebbe così prodotto risposte “servili” e “deliranti”, incapaci di spezzare la spirale ossessiva e finendo, tragicamente, per rafforzarla.

Questo caso, purtroppo non isolato nel suo genere, ci costringe a prendere atto del fatto che le IA stanno entrando nella vita delle persone vulnerabili prima che siano state costruite adeguate barriere di sicurezza. È da qui che nasce la pressione politica sull’industria dei Large Language Model.

La lettera degli ‘Attorney General’

A rendere la situazione rilevante si aggiunge un fronte istituzionale molto potente: la National Association of Attorneys General. Decine di procuratori generali degli Stati Uniti, riuniti in questa associazione, hanno infatti inviato una lettera durissima ai giganti dell’IA.

Per il pubblico italiano, è importante ricordare che la figura dell’Attorney General ha un grande peso politico e legale negli Stati Uniti. Non è solo un “procuratore” in senso stretto ma un’autorità dotata di grande autonomia, responsabile sia degli aspetti penali sia della tutela dei consumatori.

Quando agisce in modo coordinato, come in questo caso, rappresenta una forza molto potente nel sistema americano, capace di agire direttamente contro le grandi aziende.

L’ultimatum: correggere gli “output deliranti”

La missiva, indirizzata a un vasto gruppo di aziende (da OpenAI e Google fino ad Anthropic, Meta, Apple e xAI), chiede una serie di misure immediate e stringenti.

Tra queste, spiccano gli audit indipendenti dei modelli, test di sicurezza specifici per rilevare i contenuti “servili o deliranti” e procedure trasparenti di segnalazione.

Il punto più politico? Le terze parti incaricate degli audit devono poter “valutare i sistemi prima del rilascio senza ritorsioni e pubblicare i risultati senza approvazione preventiva”.

È una richiesta di trasparenza totale che punta a disarmare la segretezza industriale e a bloccare sul nascere qualsiasi forma di censura preventiva da parte di Big Tech.

I danni psicologici come un data breach

I fatti emersi stanno fornendo alle autorità esempi tangibili dei “danni psicologici” e, di conseguenza, della necessità di una supervisione pubblica sui modelli generativi.

I procuratori propongono un cambio di paradigma radicale: trattare gli incidenti legati alla salute mentale con lo stesso rigore con cui il settore tech gestisce le violazioni di cybersicurezza. Questo significa obblighi di disclosure, protocolli di risposta strutturati e notifica immediata agli utenti.

La domanda che sottende questa strategia è potente: se un’azienda è obbligata a comunicare una violazione, perché non dovrebbe esserlo anche quando un chatbot produce contenuti in grado di destabilizzare le persona più vulnerabili?

È un interrogativo che solo un anno fa sembrava puramente teorico ma che oggi è inaspettatamente realistico.

Lo scontro con la Casa Bianca sull’IA

Dall’altra parte del ring troviamo un’industria dell’IA che gode di un clima molto favorevole a Washington, dove l’amministrazione Trump è esplicitamente in suo favore.

Il governo federale sta tentando da tempo di bloccare le regolamentazioni statali per evitare che gli Stati costruiscano un mosaico di norme diverse e potenzialmente più restrittive.

I tentativi finora sono falliti ma la Casa Bianca non ha intenzione di cedere. È infatti stato annunciato un imminente ordine esecutivo che mira proprio a limitare la capacità degli Stati di regolamentare la tecnologia.

Trump, i “tech bros” e la frattura da non sottovalutare con la base MAGA di TechTalking.it

Più Trump stringe l’asse con la Silicon Valley, più si assottiglia il legame con la sua base.

Leggi su Substack

La sintesi di questa tensione è affidata, come spesso accade con Trump, a Truth Social, dove il presidente degli Stati Uniti ha scritto di voler impedire che l’IA venga “DISTRUTTA NELLA SUA INFANZIA”. Il post fotografa la realtà politica: da una parte c’è l’urgenza della giustizia e degli Stati di intervenire sui rischi già visibili e tangibili; dall’altra, la spinta federale a non rallentare l’innovazione in una corsa globale.

L’America si trova così nel mezzo di un confronto che non riguarda solo l’intelligenza artificiale ma la stessa distribuzione del potere regolatorio tra Stati e governo centrale. Nel frattempo, però l’idea che gli “output deliranti” siano un problema marginale sta svanendo con estrema rapidità.

Fonti: Washington Post, TechCrunch

POTREBBE INTERESSARTI

Trump Chip

Trump firma il dazio del 25% sui chip H200, ma Nvidia ringrazia

La Casa Bianca impone dazi sui semiconduttori di fascia alta in transito verso la Cina. Ma per Nvidia è una vittoria: finalmente può vendere ai clienti cinesi...
Sam Altman OpenAI Elon Musk

Sam Altman avvisa gli investitori: “Preparatevi al peggio da Musk”

In vista del processo di aprile, OpenAI prepara partner e finanziatori: aspettatevi “sparate a effetto” e “dichiarazioni fuori da ogni...
Mira Murati Thinking Machines

Il saccheggio di Thinking Machines: OpenAI si riprende tre co-fondatori

In meno di un anno la startup di Mira Murati perde quattro figure chiave. A quanto pare i soldi non comprano la lealtà neppure nell’industria...
pubblicità IA

La pubblicità bussa alla porta dei chatbot: Google apre, gli altri seguiranno

Il colosso di Mountain View sperimenta annunci in AI Mode. OpenAI e Perplexity osservano, Meta si prepara. E chi non vorrà spot dovrà probabilmente pagare

Brad Smith, presidente di Microsoft

Microsoft promette: i nostri data center non peseranno sulle bollette degli americani

L’azienda si impegna a non chiedere sgravi fiscali e a formare i residenti. Brad Smith: “Non chiediamo ai contribuenti di sovvenzionarci”.

Matthew McConaughey

McConaughey registra sé stesso come marchio contro i deepfake

Otto trademark approvati negli USA trasformano l’immagine dell’attore in un asset legale. Nel vuoto normativo sui deepfake, Hollywood ricorre...
Google AI Overviews

Google rimuove le AI Overviews per alcune ricerche mediche

Un’indagine del Guardian documenta errori potenzialmente letali nei riassunti sanitari del motore di ricerca. Il tempismo col lancio di ChatGPT Health solleva...
Google agente

Google entra nello shopping con gli agenti IA per i retailer

Con Gemini Enterprise for Customer Experience, Big G offre strumenti per costruire assistenti virtuali proprietari. Ma il commercio agentico è davvero dietro...
Apple Intelligence Siri

Siri parlerà con la voce di Gemini: Apple sceglie Google per l’IA

Annunciata ieri una partnership che riscrive gli equilibri del mercato. E anche una svolta storica che solleva domande sul futuro della privacy di Cupertino.

Nvidia CES 2026 Jensen Huag

Al CES 2026 la Silicon Valley ha scelto Trump

La Genesis Mission, Nvidia e il nuovo asse Washington-Silicon Valley: al Consumer Electronics Show è andata in scena la fine della neutralità tech.

Share This