Deepfake, in Italia scatta la legge: fino a cinque anni di carcere

da | 15 Ott 2025 | Legal

L’Italia ha deciso di reagire a uno dei fenomeni più inquietanti dell’era digitale. A partire da questo mese, il nostro Paese dispone infatti di una legge che punisce la creazione e la diffusione di contenuti generati o manipolati artificialmente, i cosiddetti deepfake, quando questi provochino un danno ingiusto. È un passaggio storico, che segna l’ingresso ufficiale dell’intelligenza artificiale nel codice penale.

Il nuovo articolo, il 612-quater, è stato introdotto all’interno della legge nazionale sull’intelligenza artificiale approvata in via definitiva dal Parlamento a settembre. Le pene previste vanno da uno a cinque anni di reclusione, con aggravanti nei casi più gravi o quando le vittime non sono in grado di difendersi.

Il principio è semplice: creare o diffondere un video, un’immagine o un audio falso per ingannare o danneggiare qualcuno non sarà più solo una scorrettezza online, ma un reato a tutti gli effetti.

Che cosa sono i deepfake e perché la legge è arrivata ora

Con il termine deepfake si indica un contenuto digitale, in genere un video o una registrazione audio, creato o modificato grazie a sistemi di intelligenza artificiale capaci di sostituire volti, voci o movimenti in modo realistico.

In rete circolano esempi di ogni tipo: da volti di politici che pronunciano discorsi mai avvenuti a celebrità coinvolte in video pornografici generati artificialmente.

Il problema, fino a oggi, è che il nostro ordinamento non prevedeva una norma specifica per affrontare il fenomeno. Gli episodi di manipolazione potevano essere perseguiti solo attraverso leggi generiche, come quelle su diffamazione, sostituzione di persona o violazione della privacy, ma senza una cornice pensata per le nuove tecnologie.

Con il 612-quater il legislatore ha scelto di colmare questo vuoto, riconoscendo che le produzioni sintetiche basate su IA pongono rischi inediti: non solo per la reputazione individuale, ma anche per la fiducia collettiva in ciò che vediamo e ascoltiamo online.

Come ha sottolineato il Ministero per l’Innovazione, “l’obiettivo non è solo punire gli abusi ma tutelare l’integrità dell’informazione digitale e prevenire manipolazioni che possano alterare il dibattito pubblico”.

Una legge nazionale in sintonia con l’Europa

La nuova norma nasce in un contesto più ampio: quello del Regolamento europeo sull’intelligenza artificiale (AI Act), approvato a Bruxelles pochi mesi fa. L’Italia è stata tra i primi Paesi a voler tradurre in legge nazionale i principi europei di trasparenza e responsabilità tecnologica, adattandoli al proprio ordinamento penale.

Nel dettaglio, la legge prevede che i contenuti generati da IA vengano marcati in modo visibile, così da permettere agli utenti di riconoscere immediatamente un video o un’immagine artificiale.

Si tratta di una forma di “etichetta digitale” destinata a diventare obbligatoria, anche se le modalità tecniche di applicazione, come i metodi di marcatura e verifica, dovranno essere definite da successivi decreti attuativi.

Il risultato è un passo avanti verso una maggiore responsabilità delle piattaforme e dei creatori di contenuti sintetici, anche se molti osservatori sottolineano la difficoltà di applicare la norma in un ecosistema mediatico sempre più decentralizzato.

Senza strumenti tecnici per rilevare i deepfake, dicono alcuni giuristi, la legge rischia di restare sulla carta.

Un primato europeo da costruire sul campo

Nonostante queste incognite, l’Italia può oggi vantare un primato europeo: essere tra i primi Paesi ad aver inserito nel proprio codice penale un reato dedicato alla manipolazione digitale generata da intelligenza artificiale.

Un segnale politico e culturale che mira a rafforzare la fiducia dei cittadini in un contesto mediatico sempre più opaco, dove il confine tra reale e sintetico si fa ogni giorno più sottile.

Il passo successivo sarà trasformare la legge in prassi concreta: stabilire come verificare le manipolazioni, come tutelare efficacemente le vittime e come responsabilizzare chi sviluppa o utilizza le tecnologie di generazione automatica dei contenuti.

In attesa dei primi casi giudiziari, il 612-quater resta un esperimento giuridico ambizioso, chiamato a misurarsi con una realtà in continua evoluzione. Ma per la prima volta, in Italia, creare un deepfake non è più solo un gioco tecnologico: è una questione di giustizia.

POTREBBE INTERESSARTI

Nato nel 1985, Ilya Sutskever è un informatico di origine russa che lavora nel campo dell'apprendimento automatico

“Caos e bugie”: la testimonianza di Sutskever inguaia Sam Altman

La causa legale di Elon Musk contro OpenAI fa emergere i retroscena della cacciata di Sam Altman nel 2023, tra manipolazioni, rivalità e dossier segreti.

Aravind Srinivas Perplexity

Amazon contro Perplexity: chi gioca sporco nell’era degli agenti IA?

Amazon accusa Perplexity di accessi non autorizzati agli account dei clienti. La quale si difende parlando di “bullismo tecnologico”. Il confine tra innovazione e...
Sam Altman OpenAI Miyazaki

Studio Ghibli sfida OpenAI: “Basta addestrare l’IA sulle nostre opere”

Gli editori giapponesi chiedono a OpenAI di fermare l’uso dei loro contenuti per l’addestramento dei modelli generativi. Altman risponde con un post ironico su...
Sam Altman IA

Ecco come Sam Altman si è preso gioco di Hollywood

Promesse, ambiguità e versioni discordanti: OpenAI ha giocato con le regole, lasciando Hollywood nel caos. Attori e agenzie si sentono ingannati, mentre le major...
meta facebook

L’Unione Europea contro Meta per contenuti illegali e moderazione

La Commissione UE contesta a Facebook e Instagram carenze nella segnalazione dei contenuti illegali e nel diritto d’appello degli utenti. È la prima volta che Bruxelles...
OpenAI SB 53

OpenAI e la guerra legale alle no-profit che chiedono regole per l’IA

“Usano avvocati, donazioni politiche e lobbisti perché possono. E a volte funziona”.

chat control

L’Europa rinvia il Chat Control

Milioni di falsi positivi, backdoor permanenti e rischio di sorveglianza di massa: il rinvio non chiude il caso ma lo trasforma in un test per la democrazia tecnologica...
Elon Musk

Musk chiude la causa da 128 milioni con gli ex dirigenti di Twitter

Dopo i licenziamenti e le accuse di cattiva condotta, Musk sembra aver vinto la partita dei costi. Ma non quella della crescita.

Sam Altman ChatGPT

Lo schiaffo di Sam Altman al copyright: Sora 2 userà materiale protetto (salvo opt-out)

La nuova versione dello strumento video di OpenAI includerà contenuti protetti a meno di una richiesta di esclusione esplicita da parte del titolare del copyright. Un...
trump youtube

Dopo Meta e X, paga anche YouTube: 24,5 milioni a Trump per archiviare la causa post-Capitol Hill

Con l’accordo, Google chiude l’ultimo fronte aperto dal presidente Usa contro le big tech accusate di censurare la destra americana. Parte della somma finanzierà la...
Share This