L’avvento dell’intelligenza artificiale ha aperto scenari impensabili fino a pochi anni fa, con strumenti sempre più sofisticati capaci di comprendere, analizzare e generare contenuti in modo autonomo.
Questa rivoluzione sta però portando con sé anche nuove minacce informatiche, tra cui strategie di manipolazione dell’IA che mirano a distorcere la realtà.
Tra queste, una delle più pericolose vista la nostra crescente dipendenza dalle IA per le ricerche, è il cosiddetto data poisoning.
Ossia un metodo attraverso cui attori malevoli inquinano i dati su cui le IA si basano, influenzando così le loro risposte e il loro comportamento.
Il data poisoning: un’arma invisibile
Il principio del data poisoning è semplice quanto efficace: inondare il web di informazioni false, ben strutturate e ottimizzate per essere indicizzate dai motori di ricerca, in modo che i modelli di IA le acquisiscano come fonti affidabili.
Poiché chatbot come ChatGPT di OpenAI o Meta AI di Meta attingono a grandi quantità di dati disponibili online, una manipolazione sistematica di questi contenuti può condurre i modelli a ripetere e diffondere disinformazione.
Questo fenomeno, che fino a pochi anni fa era confinato alla manipolazione dei social network e delle piattaforme di ricerca, oggi minaccia l’intero ecosistema dell’intelligenza artificiale generativa.
La propaganda russa e l’infiltrazione nei chatbot
Secondo un’inchiesta condotta da NewsGuard, società specializzata nella valutazione dell’affidabilità delle fonti online, un network con base a Mosca, chiamato “Pravda”, sta sistematicamente pubblicando contenuti falsi con l’obiettivo di influenzare le risposte dei chatbot.
NewsGuard afferma di aver individuato prove concrete di questa operazione, che avrebbe già diffuso oltre 3,6 milioni di articoli fuorvianti nel solo 2024, secondo dati raccolti dal nonprofit American Sunlight Project.
Il network utilizza tecniche avanzate di SEO (Search Engine Optimization) per far sì che i suoi contenuti compaiano tra i primi risultati delle ricerche online, rendendoli più visibili agli algoritmi di apprendimento delle IA.
L’indagine ha testato dieci dei principali chatbot attualmente in uso, scoprendo che nel 33% dei casi questi strumenti ripetevano le false narrative diffuse dalla propaganda russa.
Tra i contenuti manipolati, NewsGuard ha rilevato affermazioni prive di fondamento come quella secondo cui gli Stati Uniti gestirebbero laboratori segreti di armi biologiche in Ucraina, una teoria cospirazionista smentita da più fonti indipendenti ma che continua a circolare online.
Un problema senza soluzione?
Il fatto che i chatbot siano vulnerabili a queste tecniche evidenzia una falla strutturale nel modo in cui apprendono e selezionano le informazioni.
L’uso di fonti ingannevoli non solo compromette l’affidabilità di questi strumenti, ma rischia di legittimare e amplificare la disinformazione su scala globale.
La questione solleva interrogativi urgenti su come proteggere l’intelligenza artificiale dagli attacchi informativi e su quali contromisure possano essere adottate per garantire che i chatbot rimangano strumenti neutri e affidabili.
Senza una soluzione efficace, il rischio è che il data poisoning diventi l’arma invisibile delle nuove guerre dell’informazione.
Inoltre, questo problema potrebbe risultare particolarmente difficile da risolvere per i chatbot che dipendono dai motori di ricerca.


