Quando parlate con ChatGPT, non avete alcun tipo di protezione legale.
È il monito che arriva direttamente da Sam Altman, CEO di OpenAI, in un momento in cui sempre più persone, soprattutto giovani, si affidano al chatbot di OpenAI per ricevere supporto emotivo, consigli relazionali, estetici o persino aiuto psicologico.
Ma, come ha chiarito lo stesso Altman, “non c’è nessun segreto professionale tra utente e intelligenza artificiale”. E secondo il numero uno di OpenAI, la questione è tutt’altro che marginale.
“Le persone raccontano a ChatGPT le cose più personali della loro vita”, ha dichiarato in una recente intervista. “Lo usano come terapeuta, life coach, confidente. Ma se quelle stesse cose fossero dette a un medico o a un avvocato, ci sarebbe una tutela legale. Con ChatGPT, al momento, no”.
Un vuoto normativo rischioso
Il problema, spiega Altman, nasce dal fatto che non esiste ancora un quadro giuridico chiaro per l’intelligenza artificiale.
Di conseguenza, in assenza di leggi specifiche, le conversazioni tra utenti e chatbot possono teoricamente essere richieste in tribunale, per esempio nell’ambito di una causa civile o penale.
“Credo che sia profondamente sbagliato,” ha detto. “Dovremmo avere lo stesso concetto di privacy per le conversazioni con l’IA che abbiamo con un terapeuta.”
Anche perché la mancanza di garanzie rischia di frenare l’adozione su larga scala degli strumenti generativi, soprattutto nei contesti più sensibili. Ed è un limite che OpenAI conosce bene.
ChatGPT e la battaglia legale che fa scuola
Il tema della riservatezza è già finito al centro di uno scontro legale di peso.
Nell’ambito della causa intentata dal New York Times, un’ordinanza del tribunale ha richiesto a OpenAI di conservare e potenzialmente consegnare le conversazioni di centinaia di milioni di utenti di ChatGPT in tutto il mondo, con l’unica eccezione dei clienti Enterprise.
L’azienda ha definito questa richiesta “un abuso” e ha annunciato di voler presentare ricorso, temendo che una decisione simile possa aprire la strada a future richieste di accesso anche da parte di autorità giudiziarie o governi.
Se i tribunali potessero superare le scelte di OpenAI in materia di protezione dei dati, l’intero settore dell’intelligenza artificiale si troverebbe in una posizione molto più fragile, sotto pressione per fornire informazioni anche nei casi più controversi.
Non è un caso, secondo Altman, se molte persone evitano di usare ChatGPT proprio per timori legati alla riservatezza. “Ha senso voler prima chiarezza legale sulla privacy prima di usare davvero [ChatGPT]”, ha affermato.
Ed è una posizione che riflette il nuovo scenario in cui ci troviamo: quello in cui le intelligenze artificiali entrano nelle nostre vite, nelle vostre emozioni e persino nei vostri traumi, senza però che esista un perimetro legale chiaro e condiviso.


