OpenAI ieri ha iniziato a introdurre un sistema di memoria migliorato su ChatGPT, rendendo predefinita la possibilità per il chatbot di fare riferimento alle conversazioni precedenti.
Questo aggiornamento sta però sollevando qualche timore tra gli utenti, preoccupati dall’idea che la piattaforma “ascolti” attivamente e conosca troppo di ciò che viene detto.
L’intelligenza di ChatGPT
La funzione di memoria, già attiva su ChatGPT, consente al sistema di conservare le informazioni delle interazioni passate, in modo da salvare preferenze e riprendere le conversazioni esattamente da dove erano state interrotte.
Con questo nuovo aggiornamento, ChatGPT potrà “attingere alle conversazioni precedenti per offrire risposte più pertinenti e utili”, sfruttando tutte le modalità disponibili nella piattaforma.
Il miglioramento della memoria permetterà dunque anche alle chat future, e non solo a quelle in corso, di fare riferimento ai dialoghi passati. La funzione sarà disponibile per gli utenti ChatGPT Plus e Pro, mentre le versioni Enterprise, Team ed Edu la riceveranno in seguito.
Starting today, memory in ChatGPT can now reference all of your past chats to provide more personalized responses, drawing on your preferences and interests to make it even more helpful for writing, getting advice, learning, and beyond. pic.twitter.com/s9BrWl94iY
— OpenAI (@OpenAI) April 10, 2025
Memoria proattiva
OpenAI ha introdotto la memoria su ChatGPT nel febbraio dello scorso anno con l’obiettivo di rendere le interazioni più efficaci.
Si tratta di una funzione comune a molte piattaforme di chat e ai principali modelli linguistici. Anche Gemini 2.0 Flash Thinking ha aggiunto la memoria, mentre framework come A-Mem stanno lavorando per potenziare la memoria contestuale a lungo termine, utile per compiti più complessi.
I miglioramenti attuali permetteranno a ChatGPT di “costruire in modo naturale” su quanto già detto in passato e, con il tempo, le interazioni diventeranno sempre più personalizzate, secondo quanto dichiarato da OpenAI.
Gli utenti avranno a disposizione due strumenti per controllare il funzionamento della memoria nelle impostazioni.
Il primo è “Reference Saved Memories”, che consente a ChatGPT di ricordare esplicitamente nomi, preferenze o altre informazioni specifiche, che l’utente può scegliere di salvare. In questo caso, sarà il modello a determinare in autonomia quali elementi possano essere utili nelle conversazioni future.
Il secondo strumento è “Reference Chat History”, una funzione che permette al sistema di attingere al contesto delle conversazioni precedenti per “adattarsi al tono, agli obiettivi, agli interessi o ad altri argomenti ricorrenti dell’utente”.
A differenza della memoria salvata, però, queste informazioni contestuali non saranno conservate né visibili nella pagina delle impostazioni.
“Puoi scegliere se attivare entrambe le impostazioni, solo una o nessuna”, ha spiegato OpenAI.
“Le opzioni sono flessibili e modificabili in ogni momento, compresa la gestione delle memorie salvate in modo specifico. Se decidi di disattivarle, ChatGPT non utilizzerà le conversazioni passate. Puoi anche chiedergli cosa ricorda o attivare una Chat Temporanea per sessioni prive di memoria.”
Più memoria, più preoccupazioni?
Al di là dei timori espressi da alcuni utenti sui social, il punto centrale è un altro: la memoria rappresenta un vero salto di qualità nell’esperienza con ChatGPT.
Non si tratta solo di ricordare un nome o una preferenza stilistica ma di costruire una relazione continuativa, più simile a quella che si ha con un collaboratore umano che con una semplice macchina.
È un vantaggio pratico e, in un certo senso, relazionale. Più l’utente sente che l’IA lo conosce, meno avrà voglia di ricominciare da zero con un altro assistente.
Questo crea una forma di fidelizzazione nuova, più simile a quella che si ha con un barista che sa già come ti piace il caffè, che con una piattaforma digitale standardizzata.
È anche per questo che la memoria rischia di diventare la vera chiave competitiva in un mondo dove i modelli linguistici si assomigliano sempre di più.
Quanto ai dubbi sulla privacy, va detto che spesso convivono con comportamenti contraddittori: gli stessi utenti che temono che un chatbot “li ascolti” sono presenti su social network, app e servizi che raccolgono ben più dati, spesso in modo molto più invisibile.
Più che di spionaggio, si dovrebbe dunque parlare di percezione: le persone si fidano di ciò che conoscono, diffidano di ciò che sembra nuovo o più intelligente.
A ognuno, comunque, spetterà mettere sulla bilancia la propria privacy con la comodità e l’efficienza.


