Così la Cina usa l’IA contro il dissenso

da | 27 Mar 2025 | IA

La censura in Cina sta facendo un salto di qualità: non più solo parole chiave bandite o post oscurati manualmente ma un sistema automatizzato alimentato dall’intelligenza artificiale, capace di riconoscere e neutralizzare ogni forma di dissenso, anche la più sottile.

È quanto emerge da un enorme database trapelato in rete e visionato da TechCrunch, che rivela come un modello linguistico di grandi dimensioni sia stato addestrato su oltre 133.000 contenuti sensibili per diventare un censore digitale al servizio dello Stato.

Grazie all’IA, il controllo dell’informazione non solo diventa più efficiente ma si spinge verso un livello di sofisticazione mai visto prima, capace di individuare anche le critiche più sottili.

La censura che riconosce satira, dissenso e allusioni

A istruire il modello è un insieme di comandi che ricorda da vicino le istruzioni date agli LLM occidentali come ChatGPT.

Il compito è semplice ma non per questo meno insidioso: individuare contenuti collegati a temi politici, sociali o militari considerati “ad alta priorità”.

Si va così da scandali alimentari e controversie sul lavoro, alla satira politica. Tutto deve essere immediatamente segnalato.

Colpisce l’ossessione per Taiwan: secondo l’analisi, la sola parola compare più di 15.000 volte all’interno del dataset, a testimonianza di quanto la questione sia sensibile per Pechino.

Il sistema prende di mira anche riferimenti indiretti al potere, come aneddoti e proverbi che alludono al cambiamento dei vertici.

Secondo Xiao Qiang, ricercatore dell’Università di Berkeley ed esperto di censura cinese, questo sistema rappresenta “una prova evidente che il governo cinese, o soggetti a esso legati, voglia usare i LLM per perfezionare la repressione”.

“Rispetto ai metodi tradizionali basati su parole chiave e revisione umana, un LLM addestrato in questo modo rende il controllo informativo molto più granulare ed efficiente”, ha spiegato.

La Cina e il fronte digitale della propaganda

Sebbene non si conosca l’identità degli autori del sistema, il dataset fa riferimento al cosiddetto “lavoro sull’opinione pubblica”, un termine chiave all’interno del lessico politico cinese.

Questo tipo di attività è supervisionato dalla Cyberspace Administration of China (CAC), l’ente che gestisce la censura e la propaganda online per conto del Partito Comunista.

L’obiettivo è mantenere il controllo sul racconto pubblico, difendendo le narrazioni ufficiali e sopprimendo qualsiasi voce dissenziente. Lo stesso presidente Xi Jinping ha descritto internet come la “prima linea” del lavoro del Partito sull’opinione pubblica.

La nuova era della repressione algoritmica

Negli anni, la Cina ha fatto largo uso di filtri automatizzati per bloccare contenuti vietati, da “massacro di piazza Tiananmen” a “Xi Jinping”.

L’impiego di modelli linguistici avanzati apre però uno scenario inedito. Questi sistemi infatti non si limitano a cercare parole proibite: possono cogliere il tono, il contesto, l’allusione. E soprattutto, migliorano da soli man mano che vengono alimentati con nuovi dati.

“È fondamentale capire come la censura basata sull’IA stia evolvendo”, ha dichiarato ancora Xiao Qiang. “Il controllo statale sul discorso pubblico sta diventando sempre più sofisticato, proprio mentre modelli cinesi come DeepSeek iniziano a guadagnare visibilità anche internazionale.”

Il caso sollevato da TechCrunch non è comunque isolato. OpenAI ha recentemente pubblicato un rapporto che documenta come soggetti cinesi abbiano utilizzato LLM per monitorare le conversazioni sui social media, con un focus particolare sui contenuti a sostegno dei diritti umani. Questi dati sarebbero poi stati inoltrati al governo cinese.

Il rapporto cita anche l’utilizzo della tecnologia per diffondere contenuti diffamatori contro la dissidente Cai Xia, ex docente della Scuola centrale del Partito espulsa per le sue critiche al regime.

E l’Occidente?

Quanto scritto getta un’ombra inequivocabile sulla Cina, che però non sorprende dato che la censura di Stato è notoriamente applicata in maniera molto rigida e da decenni.

Non possiamo però fare a meno di leggere tra le righe un caso recente riportato dal Corriere della Sera, che riguarda la vicenda di uno studioso francese respinto alla frontiera statunitense. Secondo l’AFP, al momento del controllo gli agenti della dogana hanno esaminato il suo telefono e il suo computer, trovando critiche verso il presidente Trump.

Sebbene il respingimento ufficialmente sia stato motivato dal ritrovamento di “documenti confidenziali”, è difficile non chiedersi se anche nel democratico Occidente la direzione intrapresa non sia pericolosamente simile a quella cinese.

Non parliamo necessariamente di uno strumento centralizzato e ufficiale, basato sull’utilizzo dell’intelligenza artificiale, ma dell’uso di tecnologie di sorveglianza e analisi dei social network.

Negli ultimi anni, infatti, l’intelligence americana ha ampliato in modo esponenziale le proprie capacità di open source intelligence (OSINT), cioè di raccolta e analisi di dati resi pubblicamente disponibili dagli stessi cittadini attraverso i social network. Ovviamente in nome della “sicurezza nazionale”, s’intende.

 

POTREBBE INTERESSARTI

Brad Smith, presidente di Microsoft

Microsoft promette: i nostri data center non peseranno sulle bollette degli americani

L’azienda si impegna a non chiedere sgravi fiscali e a formare i residenti. Brad Smith: “Non chiediamo ai contribuenti di sovvenzionarci”.

Matthew McConaughey

McConaughey registra sé stesso come marchio contro i deepfake

Otto trademark approvati negli USA trasformano l’immagine dell’attore in un asset legale. Nel vuoto normativo sui deepfake, Hollywood ricorre...
Google AI Overviews

Google rimuove le AI Overviews per alcune ricerche mediche

Un’indagine del Guardian documenta errori potenzialmente letali nei riassunti sanitari del motore di ricerca. Il tempismo col lancio di ChatGPT Health solleva...
Google agente

Google entra nello shopping con gli agenti IA per i retailer

Con Gemini Enterprise for Customer Experience, Big G offre strumenti per costruire assistenti virtuali proprietari. Ma il commercio agentico è davvero dietro...
Apple Intelligence Siri

Siri parlerà con la voce di Gemini: Apple sceglie Google per l’IA

Annunciata ieri una partnership che riscrive gli equilibri del mercato. E anche una svolta storica che solleva domande sul futuro della privacy di Cupertino.

Nvidia CES 2026 Jensen Huag

Al CES 2026 la Silicon Valley ha scelto Trump

La Genesis Mission, Nvidia e il nuovo asse Washington-Silicon Valley: al Consumer Electronics Show è andata in scena la fine della neutralità tech.

Harry Potter e la Pietra Filosofale

I ricercatori sono riusciti a estrarre Harry Potter (quasi per intero) dai principali LLM

Una ricerca di Stanford dimostra che Claude, GPT-4.1, Gemini e Grok hanno memorizzato interi libri protetti da copyright. E possono riprodurli quasi parola per...
Grok

Grok, la risposta di Musk ai deepfake è farli pagare

Dall’Indonesia al Regno Unito, i governi reagiscono ai deepfake di Grok. Musk attacca gli inglesi: “Fascisti”. Ma intanto le immagini abusive...
Character

Google e Character.AI, accordi milionari per evitare il processo

Le famiglie ottengono risarcimenti per i suicidi legati al chatbot, ma il vuoto normativo sulla responsabilità dell’IA generativa resta intatto.

Andreessen Horowitz

Il secolo americano di Andreessen Horowitz: 15 miliardi per blindare il futuro tech

Dalla difesa all’intelligenza artificiale: come il colosso di Menlo Park sta puntando a riscrivere il rapporto tra capitale privato, sovranità e potere.

Share This