In un mondo sempre più dominato dall’intelligenza artificiale, le grandi aziende tecnologiche stanno silenziosamente modificando le loro policy sulla privacy per l’addestramento dei loro modelli di IA.
Di questo trend, emerso negli ultimi mesi, ha scritto il The New York Times, che solleva importanti questioni sulla protezione dei dati degli utenti e sul futuro dell’industria creativa.
Lo scorso luglio, ad esempio, Google ha fatto un piccolo ma significativo cambiamento alla sua politica sulla privacy, aggiungendo otto parole che permettono l’utilizzo di “informazioni pubblicamente disponibili” per addestrare i suoi modelli di linguaggio IA.
Questo include prodotti come Google Translate, Bard (ora Gemini) e le capacità di Cloud AI. Sebbene Google affermi che questa modifica sia solo una chiarificazione e non implichi l’uso di nuovi tipi di dati, il cambiamento rappresenta un passo importante nella corsa all’IA.
Google non è l’unica azienda a muoversi in questa direzione. Altre grandi tech company stanno riscrivendo i loro termini di servizio per includere riferimenti espliciti all’IA, all’apprendimento automatico e all’IA generativa.
Snap, ad esempio, ha avvertito i suoi utenti di non condividere informazioni confidenziali con il suo chatbot IA, poiché queste verrebbero utilizzate per l’addestramento. Meta invece ha informato gli utenti europei che i post pubblici su Facebook e Instagram sarebbero stati presto utilizzati per addestrare il suo modello di linguaggio avanzato.
Poi, grazie all’intervento degli enti regolatori europei, ha fatto un passo indietro.
Gli esperti sottolineano che i dati pubblici disponibili per l’addestramento dell’IA sono una risorsa finita. Le aziende tecnologiche sono quindi alla ricerca di nuove fonti di dati, con un occhio di riguardo verso i dati privati degli utenti.
Questi dati, che includono messaggi di testo, email e post sui social media da account privati, potrebbero rappresentare un tesoro dieci volte più grande dei dati pubblici disponibili.
Ciò solleva serie ovviamente preoccupazioni sulla privacy. La Federal Trade Commission ha già avvertito le aziende che modificare retroattivamente le politiche sulla privacy per accedere a vecchi dati potrebbe essere considerato “ingiusto o ingannevole”.
Alcune aziende, come Google, stanno già sperimentando l’uso di dati personali molto sensibili, come le email, per addestrare i loro modelli IA, anche se al momento solo con il consenso esplicito di un piccolo gruppo di utenti.
Tutela della privacy: reazioni e controversie
Le modifiche ai termini di servizio hanno già suscitato reazioni negative da parte di alcuni utenti, in particolare creatori di contenuti che temono che il loro lavoro venga utilizzato per addestrare IA che potrebbero poi sostituirli. Adobe, ad esempio, ha dovuto affrontare una forte reazione sui social media dopo aver modificato la sua politica sulla privacy in modo che sembrava permettere il “raschiamento” dei dati per l’IA.
Ironicamente, è interessante notare come molte aziende stiano anche aggiungendo clausole ai loro termini di utilizzo per proteggere i propri contenuti dall’essere utilizzati per addestrare IA concorrenti.
Sempre Adobe, ad esempio, ha esplicitamente vietato l’uso dei suoi servizi o software per creare, addestrare o migliorare algoritmi di apprendimento automatico o sistemi di intelligenza artificiale. Il che lascia intendere che mentre l’operato degli utenti può essere plagiato, il plagio di Adobe invece può essere tutelato.
Le preoccupazioni comunque non si limitano alla privacy. Molti creatori di contenuti temono per il futuro della loro industria. Sasha Yanshin, co-fondatore di un sito di raccomandazioni di viaggio, ha riferito un calo del 95% del traffico al suo sito da quando ha iniziato a competere con gli aggregatori IA. “Tra tre, quattro, cinque anni, potrebbero non esistere interi segmenti di questa industria creativa perché saremo semplicemente decimati,” ha dichiarato.
Mentre l’IA continua a evolversi rapidamente, il dibattito su come bilanciare l’innovazione tecnologica con la protezione della privacy e dei diritti dei creatori di contenuti rimane aperto.
Le aziende tecnologiche stanno cercando di navigare in queste acque turbolente ma è chiaro che saranno necessari un dialogo continuo e nuove regolamentazioni per affrontare queste sfide in modo equo ed efficace.


