ChatGPT e il suicidio di un adolescente: OpenAI corre ai ripari

da | 27 Ago 2025 | IA

Illustrazione: chatgpt
Tempo di lettura: 3 minuti

OpenAI, la società dietro ChatGPT, ha annunciato modifiche alla sua intelligenza artificiale dopo che i genitori di Adam Raine, sedicenne californiano morto suicida ad aprile, hanno intentato una causa contro l’azienda e il suo CEO, Sam Altman.

L’accusa è grave: il chatbot avrebbe isolato il ragazzo dalla famiglia e lo avrebbe aiutato a pianificare la propria morte.

Le misure promesse da OpenAI

In un post pubblicato sul blog ufficiale, OpenAI ha riconosciuto la necessità di affrontare con maggiore decisione i casi di disagio psichico. E ha annunciato che aggiornerà ChatGPT per riconoscere più efficacemente le diverse forme di espressione della sofferenza mentale.

Tra gli esempi citati, quello di utenti che dopo due notti insonni dichiarano di sentirsi “invincibili”, una condizione che, secondo la società, il chatbot dovrà essere in grado di interpretare come segnale di rischio, invitando al riposo e spiegando i pericoli della deprivazione del sonno.

OpenAI ha anche aggiunto che rafforzerà le protezioni nei dialoghi che toccano il tema del suicidio, notando che queste tendono a indebolirsi in conversazioni troppo lunghe. Verranno introdotti anche strumenti di controllo parentale, che permetteranno alle famiglie di monitorare l’uso di ChatGPT da parte dei minori e di limitarne le modalità di utilizzo.

“Ci vorranno tempo e attenzione per farlo nel modo giusto”, ha dichiarato OpenAI, sottolineando come le salvaguardie più efficaci funzionino oggi soprattutto nei dialoghi brevi, mentre diventano meno affidabili nelle interazioni estese.

Il peso di un successo mondiale

La questione è resa ancora più delicata dall’enorme diffusione di ChatGPT: il chatbot, lanciato alla fine del 2022, conta oggi oltre 700 milioni di utenti settimanali. Un dato che dà la misura della portata globale di uno strumento ormai utilizzato non solo per programmare software o svolgere compiti di scrittura, ma anche come forma di supporto emotivo o addirittura di sostituto di interazioni terapeutiche.

Proprio questo aspetto ha sollevato negli ultimi mesi crescenti preoccupazioni da parte di psicologi e associazioni per la salute mentale. Secondo i critici, affidarsi a un software privo di empatia reale e di competenze cliniche può esporre le persone più fragili a rischi significativi.

OpenAI, dal canto proprio, ha già implementato messaggi che invitano gli utenti con pensieri suicidi a rivolgersi a professionisti qualificati, oltre a fornire link diretti ai servizi di emergenza in USA ed Europa.

Il caso giudiziario

Il caso Raine si inserisce in un quadro legale più ampio. Nella loro causa, i genitori sostengono che “ChatGPT è diventato il confidente più stretto di Adam”, al punto che il ragazzo avrebbe trovato “rassicurante” condividere con il chatbot la possibilità del suicidio.

Secondo gli atti, ChatGPT gli avrebbe risposto spiegando che immaginare una “via di fuga” è una strategia comune per chi soffre di ansia o pensieri intrusivi, perché restituisce un senso di controllo.

La famiglia è assistita dall’avvocato Jay Edelson, che ha commentato: “Apprezziamo che l’azienda si stia assumendo una parte di responsabilità, ma dove sono stati negli ultimi mesi?”.

Quello di cui stiamo scrivendo non è però l’unico procedimento giudiziario che mette in discussione l’impatto dei chatbot sui minori.

A maggio, ad esempio, Character Technologies Inc. non è riuscita a far archiviare una causa che la accusava di aver progettato e commercializzato chatbot predatori rivolti a minori, incoraggiando conversazioni inappropriate e culminate nel suicidio di un adolescente.

Le vicende giudiziarie che coinvolgono OpenAI e altre società dimostrano come il boom dell’IA generativa stia aprendo questioni che vanno ben oltre la tecnologia. Più di quaranta procuratori generali statunitensi hanno già inviato un avvertimento formale alle aziende del settore, sottolineando che hanno l’obbligo legale di proteggere i minori da interazioni sessualmente inadeguate e da altri rischi connessi.

La popolarità dei chatbot ha superato di gran lunga le aspettative iniziali, trasformando strumenti pensati per l’automazione e la produttività in compagni virtuali capaci di influenzare la vita emotiva delle persone.

Un confine che solleva interrogativi urgenti: fino a che punto i giganti dell’IA possono e devono farsi carico delle conseguenze psicologiche dei loro prodotti?

POTREBBE INTERESSARTI

Sam Altman OpenAI Merge Labs
• ⏱ 3 min

Sam Altman risponde all’articolo “incendiario” del New Yorker

Il leader di OpenAI, dopo l’assalto alla sua abitazioni, risponde alle pesanti accuse mosse dalla celebre testata americana.

anthropic mythos
• ⏱ 3 min

Anthropic ha convocato dei teologi per insegnare l’etica a Claude

Anthropic ha organizzato un vertice riservato con leader cattolici e protestanti per affrontare le domande che gli ingegneri non riescono a risolvere da soli.

Matt Garman Amazon Web Services AWS
, • ⏱ 3 min

AWS spiega perché puntare sui concorrenti è il suo mestiere

Matt Garman investe in OpenAI e Anthropic ma rassicura tutti: competere coi propri partner è una tradizione di AWS. Ma l’obiettivo è introdurre i modelli...
Peter Steinberger OpenClaw
• ⏱ 3 min

Anthropic sospende l’account del fondatore di OpenClaw

Steinberger ora lavora per OpenAI. Dietro la sospensione lampo, una disputa che riguarda prezzi, agenti e la competizione tra piattaforme.

amodei vs altman openai anthropic
, • ⏱ 3 min

OpenAI all’attacco: nuovi piani e miliardi per la guerra del ‘compute’

Anthropic guadagna terreno, OpenAI risponde su tre fronti: prodotto, infrastruttura e narrazione. Una fila indietro, Meta spende 21 miliardi per non restare...
Aravind Srinivas Perplexity
, • ⏱ 3 min

I ricavi mensili di Perplexity crescono del 50%

Jensen Huang la promuove dal palco, gli editori la citano in giudizio. Ma Perplexity naviga tra endorsement e contenziosi.

Alexandr Wang Meta Muse Spark
• ⏱ 3 min

Meta lancia Muse Spark e riparte da zero nella corsa all’IA

Muse Spark è disponibile gratis, funziona con più agenti in parallelo e punta anche alla salute. Ma la privacy resta un capitolo aperto.

Project Glasswing: Anthropic
• ⏱ 4 min

Project Glasswing: Anthropic e i big tech uniti per la cybersicurezza

Claude Mythos Preview ha scoperto migliaia di falle zero-day, alcune vecchie di decenni. E ora Anthropic lo distribuisce solo a partner selezionati per correre ai...
intel elon musk terafab
, • ⏱ 3 min

Intel entra in Terafab per robotica e data center

Terafab promette un terawatt di potenza di calcolo all’anno. Intel ci scommette la sua ristrutturazione.

data center Big Tech
• ⏱ 3 min

Acqua ed energia: le Big Tech sotto pressione degli investitori

Mille miliardi di litri d’acqua consumati nel 2025: l’espansione dell’IA ha un costo ambientale che i mercati cominciano a valutare.

Share This