Quando l’occhio non basta più: il caso virale dei conigli IA

da | 10 Ago 2025 | IA

Negli scorsi giorni su TikTok ha impazzato un video che mostrava dei coniglietti che saltavano su un trampolino da giardino. In pochi giorni, quella clip ha accumulato oltre 230 milioni di visualizzazioni.

Sembrava una scena rubata a un pomeriggio di primavera ma in realtà era un prodotto raffinato dell’intelligenza artificiale. Ed è diventata il simbolo di una nuova era digitale in cui persino gli occhi più esperti faticano a distinguere ciò che è reale da ciò che non lo è.

I conigli che ingannano anche gli esperti

Negli ultimi anni, con l’avvento dei modelli generativi, abbiamo imparato a cercare indizi: mani con sei dita, testi illeggibili, orecchini spaiati, sfondi sfocati. E il video dei conigli non era privo di queste imperfezioni, come un animale che scompare a metà salto.

Ma il punto, secondo molti esperti, è che questa “cassetta degli attrezzi” per smascherare i falsi visivi sta diventando rapidamente obsoleta.

“La tecnologia è migliorata così tanto che persino i dottorati della Ivy League del nostro team non riescono a notare la differenza”, ha spiegato al Washington Post Ben Colman, CEO di Reality Defender, azienda specializzata nel rilevamento dei contenuti artificiali. “E se loro non riescono a distinguerlo a occhio nudo, come possono farlo i miei genitori o i miei figli?”.

@rachelthecatlovers Just checked the home security cam and… I think we’ve got guest performers out back! @Ring #bunny #ringdoorbell #ring #bunnies #trampoline ♬ Bounce When She Walk – Ohboyprince

Dietro al video c’è Andy, un 22enne che lavora nel marketing e che ha scelto di restare anonimo. Il suo obiettivo era semplice: creare un contenuto che apparisse autentico, pur sapendo che non lo era.

Per farlo, ha usato Google Veo 3, costruendo un comando IA e una finta identità femminile su TikTok che inscenava la sorpresa di scoprire la scena nelle registrazioni della telecamera di sicurezza di casa.

Andy ammette di aver previsto il dibattito sulla veridicità del video, contando sul fatto che questo avrebbe favorito la sua diffusione nell’algoritmo di TikTok. Il risultato ha però superato ogni aspettativa: milioni di interazioni e discussioni accese sul confine sempre più labile tra realtà e finzione.

La prima a ricostruire con precisione la genesi del video è stata Emmanuelle Saliba, chief investigative officer di GetReal, un’azienda specializzata nel rilevamento di contenuti IA. Saliba ha usato strumenti avanzati e tecniche di giornalismo investigativo per risalire alla fonte.

Per lei, il caso dei coniglietti è un divertissement che nasconde però un pericolo concreto: “Poiché si possono letteralmente creare cose dal nulla”, ha spiegato, “sta diventando difficile anche dimostrare prove visive reali”. In altre parole, se oggi ci divertiamo a scoprire un falso, domani potremmo trovarci a dubitare di una testimonianza visiva autentica.

Verso un nuovo paradigma di trasparenza?

Secondo Henry Ajder, esperto di IA e consulente, l’era in cui si fornivano al pubblico consigli per riconoscere un contenuto artificiale è finita: “Credo che quei suggerimenti stiano diventando dannosi”.

Ajder mette anche in guardia dall’affidarsi ai chatbot per stabilire l’autenticità di un contenuto, perché non sono progettati per dare risposte affidabili in questo senso.

La strada, per gli esperti, è un’altra: spingere le piattaforme e i produttori di tecnologia ad adottare sistemi chiari di etichettatura.

TikTok, ad esempio, oggi richiede che i contenuti realistici generati con l’IA siano segnalati, anche se il video dei conigli inizialmente non lo era.

Google sta sperimentando SynthID, una tecnologia capace di inserire marcature invisibili ma leggibili dai computer per identificare i contenuti artificiali. Proprio SynthID ha riconosciuto il video di Andy come generato da IA.

Per Colman, però, la trasparenza non può essere una scelta volontaria delle aziende: “Dovremmo avere il diritto di sapere cosa è generato dall’IA e cosa no”, afferma. Ma sospettiamo che in un mondo dove il confine tra reale e artificiale è sempre più sottile, la sua resterà una pia illusione.

POTREBBE INTERESSARTI

Apple Intelligence Siri

Siri parlerà con la voce di Gemini: Apple sceglie Google per l’IA

Annunciata ieri una partnership che riscrive gli equilibri del mercato. E anche una svolta storica che solleva domande sul futuro della privacy di Cupertino.

Nvidia CES 2026 Jensen Huag

Al CES 2026 la Silicon Valley ha scelto Trump

La Genesis Mission, Nvidia e il nuovo asse Washington-Silicon Valley: al Consumer Electronics Show è andata in scena la fine della neutralità tech.

Harry Potter e la Pietra Filosofale

I ricercatori sono riusciti a estrarre Harry Potter (quasi per intero) dai principali LLM

Una ricerca di Stanford dimostra che Claude, GPT-4.1, Gemini e Grok hanno memorizzato interi libri protetti da copyright. E possono riprodurli quasi parola per...
Grok

Grok, la risposta di Musk ai deepfake è farli pagare

Dall’Indonesia al Regno Unito, i governi reagiscono ai deepfake di Grok. Musk attacca gli inglesi: “Fascisti”. Ma intanto le immagini abusive...
Character

Google e Character.AI, accordi milionari per evitare il processo

Le famiglie ottengono risarcimenti per i suicidi legati al chatbot, ma il vuoto normativo sulla responsabilità dell’IA generativa resta intatto.

Andreessen Horowitz

Il secolo americano di Andreessen Horowitz: 15 miliardi per blindare il futuro tech

Dalla difesa all’intelligenza artificiale: come il colosso di Menlo Park sta puntando a riscrivere il rapporto tra capitale privato, sovranità e potere.

data center

La corsa all’IA accende il mercato dei bond per i data center europei

L’Europa importerà i modelli finanziari americani per recuperare il terreno perduto rispetto a USA e Cina, trasformando i data center in asset...
Dario Amodei Anthropic

Anthropic tratta un nuovo finanziamento a una valutazione da 350 miliardi

La start-up di intelligenza artificiale, in competizione con OpenAI, mira a raccogliere circa 10 miliardi mentre prende forma l’ipotesi di una quotazione in...
ChatGPT Health

OpenAI annuncia ChatGPT Health (ma non in Europa)

Negli Stati Uniti 230 milioni di persone già usano il chatbot di Sam Altman per parlare di salute. Ma non mancano le sfide in termini di sensibilità dei dati e le...
giustizia giudici IA

Negli USA i giudici iniziano a usare l’IA per decidere i processi

Dagli Stati Uniti arriva la spinta per l’IA in tribunale: non più solo ricerca legale ma bozze di sentenze e decisioni automatizzate.

Share This