Negli scorsi giorni su TikTok ha impazzato un video che mostrava dei coniglietti che saltavano su un trampolino da giardino. In pochi giorni, quella clip ha accumulato oltre 230 milioni di visualizzazioni.
Sembrava una scena rubata a un pomeriggio di primavera ma in realtà era un prodotto raffinato dell’intelligenza artificiale. Ed è diventata il simbolo di una nuova era digitale in cui persino gli occhi più esperti faticano a distinguere ciò che è reale da ciò che non lo è.
I conigli che ingannano anche gli esperti
Negli ultimi anni, con l’avvento dei modelli generativi, abbiamo imparato a cercare indizi: mani con sei dita, testi illeggibili, orecchini spaiati, sfondi sfocati. E il video dei conigli non era privo di queste imperfezioni, come un animale che scompare a metà salto.
Ma il punto, secondo molti esperti, è che questa “cassetta degli attrezzi” per smascherare i falsi visivi sta diventando rapidamente obsoleta.
“La tecnologia è migliorata così tanto che persino i dottorati della Ivy League del nostro team non riescono a notare la differenza”, ha spiegato al Washington Post Ben Colman, CEO di Reality Defender, azienda specializzata nel rilevamento dei contenuti artificiali. “E se loro non riescono a distinguerlo a occhio nudo, come possono farlo i miei genitori o i miei figli?”.
@rachelthecatlovers Just checked the home security cam and… I think we’ve got guest performers out back! @Ring #bunny #ringdoorbell #ring #bunnies #trampoline ♬ Bounce When She Walk – Ohboyprince
Dietro al video c’è Andy, un 22enne che lavora nel marketing e che ha scelto di restare anonimo. Il suo obiettivo era semplice: creare un contenuto che apparisse autentico, pur sapendo che non lo era.
Per farlo, ha usato Google Veo 3, costruendo un comando IA e una finta identità femminile su TikTok che inscenava la sorpresa di scoprire la scena nelle registrazioni della telecamera di sicurezza di casa.
Andy ammette di aver previsto il dibattito sulla veridicità del video, contando sul fatto che questo avrebbe favorito la sua diffusione nell’algoritmo di TikTok. Il risultato ha però superato ogni aspettativa: milioni di interazioni e discussioni accese sul confine sempre più labile tra realtà e finzione.
La prima a ricostruire con precisione la genesi del video è stata Emmanuelle Saliba, chief investigative officer di GetReal, un’azienda specializzata nel rilevamento di contenuti IA. Saliba ha usato strumenti avanzati e tecniche di giornalismo investigativo per risalire alla fonte.
Per lei, il caso dei coniglietti è un divertissement che nasconde però un pericolo concreto: “Poiché si possono letteralmente creare cose dal nulla”, ha spiegato, “sta diventando difficile anche dimostrare prove visive reali”. In altre parole, se oggi ci divertiamo a scoprire un falso, domani potremmo trovarci a dubitare di una testimonianza visiva autentica.
Verso un nuovo paradigma di trasparenza?
Secondo Henry Ajder, esperto di IA e consulente, l’era in cui si fornivano al pubblico consigli per riconoscere un contenuto artificiale è finita: “Credo che quei suggerimenti stiano diventando dannosi”.
Ajder mette anche in guardia dall’affidarsi ai chatbot per stabilire l’autenticità di un contenuto, perché non sono progettati per dare risposte affidabili in questo senso.
La strada, per gli esperti, è un’altra: spingere le piattaforme e i produttori di tecnologia ad adottare sistemi chiari di etichettatura.
TikTok, ad esempio, oggi richiede che i contenuti realistici generati con l’IA siano segnalati, anche se il video dei conigli inizialmente non lo era.
Google sta sperimentando SynthID, una tecnologia capace di inserire marcature invisibili ma leggibili dai computer per identificare i contenuti artificiali. Proprio SynthID ha riconosciuto il video di Andy come generato da IA.
Per Colman, però, la trasparenza non può essere una scelta volontaria delle aziende: “Dovremmo avere il diritto di sapere cosa è generato dall’IA e cosa no”, afferma. Ma sospettiamo che in un mondo dove il confine tra reale e artificiale è sempre più sottile, la sua resterà una pia illusione.


