L’Italia ha deciso di reagire a uno dei fenomeni più inquietanti dell’era digitale. A partire da questo mese, il nostro Paese dispone infatti di una legge che punisce la creazione e la diffusione di contenuti generati o manipolati artificialmente, i cosiddetti deepfake, quando questi provochino un danno ingiusto. È un passaggio storico, che segna l’ingresso ufficiale dell’intelligenza artificiale nel codice penale.
Il nuovo articolo, il 612-quater, è stato introdotto all’interno della legge nazionale sull’intelligenza artificiale approvata in via definitiva dal Parlamento a settembre. Le pene previste vanno da uno a cinque anni di reclusione, con aggravanti nei casi più gravi o quando le vittime non sono in grado di difendersi.
Il principio è semplice: creare o diffondere un video, un’immagine o un audio falso per ingannare o danneggiare qualcuno non sarà più solo una scorrettezza online, ma un reato a tutti gli effetti.
Che cosa sono i deepfake e perché la legge è arrivata ora
Con il termine deepfake si indica un contenuto digitale, in genere un video o una registrazione audio, creato o modificato grazie a sistemi di intelligenza artificiale capaci di sostituire volti, voci o movimenti in modo realistico.
In rete circolano esempi di ogni tipo: da volti di politici che pronunciano discorsi mai avvenuti a celebrità coinvolte in video pornografici generati artificialmente.
Il problema, fino a oggi, è che il nostro ordinamento non prevedeva una norma specifica per affrontare il fenomeno. Gli episodi di manipolazione potevano essere perseguiti solo attraverso leggi generiche, come quelle su diffamazione, sostituzione di persona o violazione della privacy, ma senza una cornice pensata per le nuove tecnologie.
Con il 612-quater il legislatore ha scelto di colmare questo vuoto, riconoscendo che le produzioni sintetiche basate su IA pongono rischi inediti: non solo per la reputazione individuale, ma anche per la fiducia collettiva in ciò che vediamo e ascoltiamo online.
Come ha sottolineato il Ministero per l’Innovazione, “l’obiettivo non è solo punire gli abusi ma tutelare l’integrità dell’informazione digitale e prevenire manipolazioni che possano alterare il dibattito pubblico”.
Una legge nazionale in sintonia con l’Europa
La nuova norma nasce in un contesto più ampio: quello del Regolamento europeo sull’intelligenza artificiale (AI Act), approvato a Bruxelles pochi mesi fa. L’Italia è stata tra i primi Paesi a voler tradurre in legge nazionale i principi europei di trasparenza e responsabilità tecnologica, adattandoli al proprio ordinamento penale.
Nel dettaglio, la legge prevede che i contenuti generati da IA vengano marcati in modo visibile, così da permettere agli utenti di riconoscere immediatamente un video o un’immagine artificiale.
Si tratta di una forma di “etichetta digitale” destinata a diventare obbligatoria, anche se le modalità tecniche di applicazione, come i metodi di marcatura e verifica, dovranno essere definite da successivi decreti attuativi.
Il risultato è un passo avanti verso una maggiore responsabilità delle piattaforme e dei creatori di contenuti sintetici, anche se molti osservatori sottolineano la difficoltà di applicare la norma in un ecosistema mediatico sempre più decentralizzato.
Senza strumenti tecnici per rilevare i deepfake, dicono alcuni giuristi, la legge rischia di restare sulla carta.
Un primato europeo da costruire sul campo
Nonostante queste incognite, l’Italia può oggi vantare un primato europeo: essere tra i primi Paesi ad aver inserito nel proprio codice penale un reato dedicato alla manipolazione digitale generata da intelligenza artificiale.
Un segnale politico e culturale che mira a rafforzare la fiducia dei cittadini in un contesto mediatico sempre più opaco, dove il confine tra reale e sintetico si fa ogni giorno più sottile.
Il passo successivo sarà trasformare la legge in prassi concreta: stabilire come verificare le manipolazioni, come tutelare efficacemente le vittime e come responsabilizzare chi sviluppa o utilizza le tecnologie di generazione automatica dei contenuti.
In attesa dei primi casi giudiziari, il 612-quater resta un esperimento giuridico ambizioso, chiamato a misurarsi con una realtà in continua evoluzione. Ma per la prima volta, in Italia, creare un deepfake non è più solo un gioco tecnologico: è una questione di giustizia.


