Il tanto atteso voto sul regolamento “Chat Control”, di cui abbiamo scritto un mese fa, è stato rinviato a dicembre, dopo che gli Stati membri non sono riusciti a trovare un accordo sul testo.
La notizia segna un punto di svolta in una vicenda che da mesi divide governi, giuristi e difensori della privacy: l’Unione Europea non ha ancora deciso se sacrificare la riservatezza delle comunicazioni private sull’altare della sicurezza.
Il rinvio del voto, previsto inizialmente per oggi, non è un semplice slittamento tecnico. È la prova che la proposta non ha trovato la legittimazione politica necessaria per passare. Al centro del dibattito resta una domanda non di poco conto: fino a che punto è lecito controllare le comunicazioni private in nome della protezione dei minori online?
La Germania, con il suo “no” deciso, ha fatto saltare la maggioranza qualificata che avrebbe permesso di approvare il testo. Senza Berlino, il progetto si ferma. Il risultato è che il Chat Control o, per usare il nome ufficiale, Child Sexual Abuse Regulation (CSAR), resta sospeso, in attesa di nuovi negoziati che potrebbero durare fino a fine anno.
Chat Control: il cuore della disputa
La proposta, presentata nel 2022 dalla commissaria europea Ylva Johansson, impone ai fornitori di servizi digitali di rilevare automaticamente contenuti che possano costituire abusi su minori, anche all’interno di chat cifrate. In teoria, un obiettivo nobile. In pratica, un terremoto tecnologico e giuridico.
Per funzionare, infatti, il sistema dovrebbe eseguire la scansione dei messaggi prima della cifratura, ossia il cosiddetto client-side scanning. In altre parole, ogni immagine, video o messaggio verrebbe analizzato prima ancora di essere inviato. Il che significherebbe aprire una breccia nella privacy “end-to-end” che oggi tutela miliardi di utenti.
Per meglio capire la proposta del CSAR, è come se si stesse proponendo un controllo sistematico della posta cartacea, con ogni lettera aperta e letta dallo Stato prima di arrivare al destinatario. Un’immagine forte ma purtroppo perfettamente aderente al principio su cui si basa il regolamento.
Privacy, sicurezza e la tentazione della backdoor
Le critiche non si limitano alla dimensione etica. Il mondo della sicurezza informatica avverte che introdurre un sistema del genere comporterebbe creare una backdoor permanente nei dispositivi personali. Una porta che, per quanto motivata da buone intenzioni, resterebbe potenzialmente accessibile anche a cybercriminali o governi autoritari.
C’è poi un altro rischio, tutt’altro che teorico. I sistemi di scansione e segnalazione richiedono infrastrutture complesse, che vedrebbero il coinvolgimento di fornitori esterni. Qualora i data center appaltati fossero di operatori extraeuropei (americani, ad esempio), si creerebbe una vulnerabilità sistemica capace di compromettere la stessa sovranità digitale del continente.
Un’altra obiezione riguarda la precisione del sistema. Anche ipotizzando un tasso d’errore dell’1%, la quantità di messaggi e immagini che transitano ogni giorno sulle principali piattaforme è nell’ordine dei miliardi, il che comporterebbe milioni di segnalazioni errate. Ogni falso positivo significherebbe un cittadino sospettato ingiustamente, e un carico di lavoro ingestibile per le autorità.
Secondo Wired, persino l’FBI avrebbe ammesso di non disporre delle risorse necessarie per gestire un volume di segnalazioni simile. L’Europa, con una frammentazione ancora più marcata tra Stati membri, rischierebbe di trovarsi in una situazione ancora più complessa.
L’opposizione cresce, l’Europa si spacca
Il fronte dei contrari si è allargato. Oltre alla Germania, anche Paesi Bassi, Austria, Finlandia e Polonia hanno espresso forti riserve. L’Italia resta tra i sostenitori del testo ma con prudenza: il governo ha chiesto garanzie aggiuntive sulla tutela della privacy e sulla gestione dei dati.
L’ostilità crescente ha trasformato quello che doveva essere un voto di routine in un vero campo di battaglia politico. Le associazioni per i diritti digitali, da EDRi a Privacy International, hanno intensificato la loro campagna contro il progetto, definendolo “una sorveglianza di massa legalizzata”.
Dietro le sigle e gli algoritmi si nasconde infine una questione più profonda: la fiducia nella tecnologia come arbitro morale. L’idea che un sistema di intelligenza artificiale possa distinguere senza ambiguità tra contenuti leciti e illeciti è, per molti esperti, una semplificazione pericolosa. L’IA non comprende il contesto e ogni errore può tradursi in un’invasione della vita privata.
Il rinvio del voto comunque non chiude la partita: è solo una tregua. Da qui a dicembre, la Commissione cercherà un compromesso, ma il testo potrebbe subire riscritture sostanziali o addirittura essere accantonato.


