“I miglioramenti alla memoria stanno iniziando a essere distribuiti anche agli utenti della versione gratuita. Oltre alle memorie salvate già presenti in precedenza, ChatGPT ora tiene conto anche delle conversazioni recenti per offrire risposte più personalizzate”.
“Gli utenti gratuiti dispongono di una versione semplificata di questi miglioramenti, che garantisce una continuità a breve termine tra una conversazione e l’altra. La memoria per gli utenti Plus e Pro, invece, offre una comprensione dell’utente più estesa nel tempo”.
Così scriveva OpenAI sul suo blog qualche settimana fa e si tratta di una mossa che ne accresce l’utilità ma che al tempo stesso apre la porta a nuove inquietudini. Perché non tutti si sentono a proprio agio con un chatbot che non dimentica mai.
Un assistente che sa troppo
È una concetto semplice, questo, che dice moltissimo su ciò che sta accadendo con l’evoluzione dell’intelligenza artificiale. Perché non si tratta solo di nuove funzioni ma di una trasformazione profonda nel modo in cui ci relazioniamo con la tecnologia, e con noi stessi.
ChatGPT, il chatbot di OpenAI, sta quindi diventando sempre più personale. A partire dal 2024, la funzione memory ha smesso di essere un taccuino digitale da aggiornare manualmente per trasformarsi in qualcosa di più fluido, continuo, automatico.
L’IA ora è capace di ricordare ciò che diciamo anche senza che lo chiediamo. E se da una parte questa evoluzione promette assistenti più utili, dall’altra solleva una domanda fondamentale: cosa significa parlare con un’intelligenza che ci conosce e si ricorda?
Se l’IA ci conosce meglio di quanto vorremmo
La promessa dell’IA personalizzata è affascinante. ChatGPT può ricordare i nostri obiettivi, le nostre preferenze, le nostre domande ricorrenti. Può riprendere una conversazione sospesa settimane prima, suggerirci attività in base ai nostri interessi o consigliarci soluzioni coerenti con ciò che ha già appreso di noi. Tutto questo, però, ha un prezzo: la rinuncia, almeno parziale, all’oblio.
La nostra vita online è fatta di frammenti. Usiamo la rete per lavorare, scherzare, confidare dubbi, cercare ispirazione. Normalmente, ogni conversazione resta confinata nel suo contesto. Ma quando un modello come ChatGPT collega tutto, si verifica un fenomeno che gli esperti chiamano collasso del contesto: ambiti diversi (lavoro, passioni, relazioni) si mescolano senza filtri.
Ne emerge un ritratto dell’utente potenzialmente accurato ma anche ingombrante, distorto o imbarazzante. E soprattutto, non richiesto.
ChatGPT e il paradosso della comodità
Siamo abituati a considerare la tecnologia come uno strumento da usare e poi mettere da parte. Pertanto, ci fidiamo delle macchine quando dimenticano, non quando ricordano.
Quando invece un sistema ci accompagna nel tempo e soprattutto tiene traccia di ciò che siamo stati, la relazione cambia. L’IA diventa qualcosa di più vicino a una persona ma senza empatia, senza contesto emotivo, senza discrezione. È un paradosso sottile ma fondamentale.
Non è solo una questione tecnica o di privacy ma culturale. Una macchina che ci conosce troppo bene rischia di toglierci il controllo su come vogliamo apparire. Ogni battuta, svista o stranezza può tornare fuori inaspettatamente. Ogni errore può diventare parte della nostra “biografia digitale”. E non sempre questo ci fa sentire al sicuro.
OpenAI assicura che l’utente può gestire tutto: vedere, modificare o cancellare le memorie, impedire che ChatGPT ricordi determinati contenuti, perfino scegliere cosa far sparire e quando.
Ma l’asimmetria resta: il sistema sa molto più di quanto noi ricordiamo di avergli detto. Ed è questa sproporzione, più della funzione in sé, a generare disagio.
Il futuro della memoria artificiale è tracciato. OpenAI ha dichiarato che la funzione sarà estesa, rafforzata e adattata anche al mondo enterprise.
Ma finché non ci interrogheremo davvero su cosa significhi interagire con un’IA che ci accompagna e ci registra, la questione non sarà solo tecnica ma anche emotiva.


