OpenAI ha rivelato l’esistenza di uno strumento di sorveglianza cinese basato sull’intelligenza artificiale, progettato per identificare e tracciare in tempo reale i post anti-cinesi pubblicati sulle piattaforme social nei paesi occidentali.
La scoperta è avvenuta quasi per caso: uno degli sviluppatori cinesi del sistema avrebbe utilizzato i modelli di OpenAI per correggere alcuni errori nel codice informatico alla base del software.
La campagna, denominata Peer Review, è stata così identificata dai ricercatori della società guidata da Sam Altman e rappresenta il primo caso documentato di un sistema di sorveglianza di questo tipo costruito con l’ausilio dell’intelligenza artificiale.
“Gli attori delle minacce a volte ci danno un’idea di ciò che stanno facendo in altre parti di Internet attraverso il modo in cui utilizzano i nostri modelli di intelligenza artificiale”, ha dichiarato Ben Nimmo, investigatore principale di OpenAI.
Le autorità cinesi hanno già una lunga esperienza nell’uso di sistemi di monitoraggio digitale, ma il ricorso all’IA per il tracciamento in tempo reale dei contenuti pubblicati sui social occidentali rappresenta un’evoluzione significativa.
Secondo OpenAI, il sistema sarebbe basato su Llama, il modello di intelligenza artificiale open source sviluppato da Meta, che ha condiviso il proprio codice con la comunità di sviluppatori globale.
L’uso dell’IA nella propaganda e nelle truffe online
Nel rapporto pubblicato da OpenAI, l’azienda ha evidenziato anche un’altra operazione condotta dalla Cina, chiamata Sponsored Discontent. Questa campagna ha sfruttato i modelli linguistici della società per generare contenuti in inglese volti a screditare i dissidenti cinesi.
Inoltre, lo stesso gruppo avrebbe utilizzato l’intelligenza artificiale per tradurre articoli in spagnolo e distribuirli in America Latina, con l’obiettivo di diffondere critiche alla società e alla politica statunitense.
Ma l’uso dell’IA per scopi malevoli non si limita alla propaganda. OpenAI ha individuato anche una rete, con base in Cambogia, che ha impiegato le sue tecnologie per generare e tradurre commenti sui social media con lo scopo di alimentare la truffa nota come pig butchering.
Questo schema fraudolento consiste nel conquistare la fiducia di uomini online per poi coinvolgerli in investimenti finanziari fittizi.
OpenAI e la doppia faccia dell’intelligenza artificiale
La scoperta di OpenAI conferma i timori crescenti sull’uso dell’intelligenza artificiale per scopi di sorveglianza, disinformazione e attività criminali. Ma va ricordato che, così come questa tecnologia può essere sfruttata per monitorare e censurare il dissenso, può anche essere impiegata per individuare e contrastare tali minacce.
L’intelligenza artificiale sta quindi diventando sempre più un campo di battaglia tra chi cerca di sfruttarla per il controllo e la manipolazione e chi la utilizza per smascherare queste operazioni.
“Minacce come queste dimostrano quanto sia fondamentale monitorare l’uso dell’IA e sviluppare strumenti per proteggerci dai suoi abusi”, ha concluso Ben Nimmo.


