Google e Character.AI, accordi milionari per evitare il processo

da | 10 Gen 2026 | IA

Foto: Heute.at/Creative Commons

Cinque cause, due adolescenti morti, un accordo che chiude tutto prima che un tribunale possa pronunciarsi.

Google e Character.AI hanno deciso di risolvere in via stragiudiziale le vertenze legali intentate dalle famiglie che accusano i chatbot della startup californiana di aver causato danni psicologici gravissimi ai propri figli, in due casi sfociati nel suicidio.

I documenti depositati questa settimana in diversi tribunali distrettuali statunitensi confermano che le parti stanno finalizzando gli accordi economici (i cui importi restano riservati), evitando così un processo che avrebbe potuto creare un precedente storico per l’intero settore dell’intelligenza artificiale generativa.

Sewell Setzer III aveva quattordici anni quando si è tolto la vita dopo aver trascorso mesi a conversare intensamente con un chatbot sull’app di Character.AI. Sua madre, Megan Garcia, ha presentato una causa per omicidio colposo a Orlando nell’ottobre 2024, portando per la prima volta all’attenzione nazionale il tema dei rischi psicologici delle AI conversazionali.

Juliana Peralta, tredici anni, è morta in circostanze analoghe: i suoi genitori hanno depositato la denuncia a Denver lo scorso settembre. Un terzo caso riguarda J.F., un diciassettenne che secondo la madre avrebbe iniziato a tagliarsi, perso nove chilogrammi e si sarebbe isolato dalla famiglia dopo essere diventato dipendente dall’app. Gli screenshot allegati alla denuncia mostrano un chatbot che suggeriva l’autolesionismo come strategia per gestire la tristezza.

Gli amici immaginari di Character.ai

I chatbot di Character.AI, personalizzabili dagli utenti e spesso basati su personaggi di anime o celebrità, vengono utilizzati per giochi di ruolo, simulazioni terapeutiche e conversazioni a sfondo sessuale, senza filtri adeguati per i minori.

La scelta di chiudere con un accordo ha un significato che va oltre i singoli casi. “La questione ha implicazioni straordinarie per il potenziale futuro dell’IA generativa”, ha dichiarato Eric Goldman, professore alla Santa Clara University School of Law.

Nel sistema giuridico americano, fondato sulla common law, i precedenti giurisprudenziali hanno infatti forza vincolante: una sentenza crea una regola che i tribunali devono seguire nei casi analoghi. Senza una pronuncia, ogni nuova causa riparte da zero e le aziende che sviluppano modelli di linguaggio restano in un limbo normativo che le protegge.

Google, che nel 2024 ha acquisito la tecnologia di Character.AI e assunto i suoi co-fondatori con un’operazione da 2,7 miliardi di dollari, è citata come convenuta in tutte e cinque le cause, un dettaglio che potrebbe spiegare la fretta di evitare il dibattimento.

La politica si muove, il Congresso ascolta

Le testimonianze di Megan Garcia e della madre di J.F. davanti al Senato, lo scorso settembre, hanno impresso un’accelerazione al dibattito politico.

La Federal Trade Commission ha avviato un’indagine sui rischi dei chatbot per la salute mentale degli utenti. In California, il senatore democratico Steve Padilla ha lavorato con Garcia alla stesura di una legge statale, firmata in ottobre, che riconosce alle famiglie il diritto di citare in giudizio gli operatori di chatbot che non garantiscono la sicurezza dei propri prodotti.

“Niente di tutto questo sarebbe stato possibile senza il suo feroce impegno e la sua forza”, ha dichiarato Padilla riferendosi a Garcia. “C’è ancora molto lavoro da fare in questo settore e possiamo aspettarci che Megan sia una leader che costruirà su ciò che abbiamo iniziato”.

La vicenda non è comunque isolata. Altre famiglie hanno recentemente intentato cause per omicidio colposo contro OpenAI, sostenendo che ChatGPT abbia contribuito a spingere utenti al suicidio.

Character.ai: una questione spinosa

Alcuni ricercatori avvertono da tempo che i chatbot, progettati per massimizzare il tempo di conversazione, possono indurre dipendenza psicologica, manipolazione emotiva e relazioni parasociali dannose. Nello specifico si nota la mancanza di filtri adeguati per i minori, che limitino l’engagement eccessivo e introducano meccanismi di interruzione o alert quando le conversazioni virano verso temi pericolosi.

Questo però non significa che i chatbot siano da demonizzare, né che la responsabilità sia esclusivamente delle piattaforme: i casi di suicidio restano fortunatamente eccezioni statistiche, verosimilmente legate a fragilità preesistenti. Sewell, ad esempio, aveva sviluppato una relazione sentimentale con un chatbot che impersonava Daenerys Targaryen di Game of Thrones, dichiarandole amore e venendo virtualmente contraccambiato.

C’è poi anche da fare un discorso sulle famiglie: un quattordicenne che passa mesi a conversare ossessivamente con un chatbot, al punto da sviluppare una dipendenza relazionale con un software, solleva domande sulla supervisione genitoriale, sull’accesso ai dispositivi e sulla consapevolezza di cosa facesse il figlio online. Ma il fatto che solo i più vulnerabili subiscano le conseguenze estreme non esonera chi progetta questi sistemi dal dovere di proteggere proprio loro, specialmente se si tratta di minori.

L’accordo di Google e Character.AI chiude allora un capitolo giudiziario ma lascia aperta la questione di fondo: chi risponde quando un algoritmo fa danni? Per ora, la risposta è un assegno e una clausola di riservatezza.

Fonte: The Washington Post

POTREBBE INTERESSARTI

Trump Chip

Trump firma il dazio del 25% sui chip H200, ma Nvidia ringrazia

La Casa Bianca impone dazi sui semiconduttori di fascia alta in transito verso la Cina. Ma per Nvidia è una vittoria: finalmente può vendere ai clienti cinesi...
Sam Altman OpenAI Elon Musk

Sam Altman avvisa gli investitori: “Preparatevi al peggio da Musk”

In vista del processo di aprile, OpenAI prepara partner e finanziatori: aspettatevi “sparate a effetto” e “dichiarazioni fuori da ogni...
Mira Murati Thinking Machines

Il saccheggio di Thinking Machines: OpenAI si riprende tre co-fondatori

In meno di un anno la startup di Mira Murati perde quattro figure chiave. A quanto pare i soldi non comprano la lealtà neppure nell’industria...
pubblicità IA

La pubblicità bussa alla porta dei chatbot: Google apre, gli altri seguiranno

Il colosso di Mountain View sperimenta annunci in AI Mode. OpenAI e Perplexity osservano, Meta si prepara. E chi non vorrà spot dovrà probabilmente pagare

Brad Smith, presidente di Microsoft

Microsoft promette: i nostri data center non peseranno sulle bollette degli americani

L’azienda si impegna a non chiedere sgravi fiscali e a formare i residenti. Brad Smith: “Non chiediamo ai contribuenti di sovvenzionarci”.

Matthew McConaughey

McConaughey registra sé stesso come marchio contro i deepfake

Otto trademark approvati negli USA trasformano l’immagine dell’attore in un asset legale. Nel vuoto normativo sui deepfake, Hollywood ricorre...
Google AI Overviews

Google rimuove le AI Overviews per alcune ricerche mediche

Un’indagine del Guardian documenta errori potenzialmente letali nei riassunti sanitari del motore di ricerca. Il tempismo col lancio di ChatGPT Health solleva...
Google agente

Google entra nello shopping con gli agenti IA per i retailer

Con Gemini Enterprise for Customer Experience, Big G offre strumenti per costruire assistenti virtuali proprietari. Ma il commercio agentico è davvero dietro...
Apple Intelligence Siri

Siri parlerà con la voce di Gemini: Apple sceglie Google per l’IA

Annunciata ieri una partnership che riscrive gli equilibri del mercato. E anche una svolta storica che solleva domande sul futuro della privacy di Cupertino.

Nvidia CES 2026 Jensen Huag

Al CES 2026 la Silicon Valley ha scelto Trump

La Genesis Mission, Nvidia e il nuovo asse Washington-Silicon Valley: al Consumer Electronics Show è andata in scena la fine della neutralità tech.

Share This