Negli Stati Uniti, una ragazza del New Jersey ha fatto causa al creatore di ClothOff, un software capace di “spogliare” digitalmente le persone.
Il suo caso è diventato simbolo di una nuova forma di abuso resa possibile dall’intelligenza artificiale: i cosiddetti deepfake pornografici, immagini false ma verosimili in cui i volti reali vengono montati su corpi nudi generati artificialmente.
La giovane, oggi diciassettenne, sostiene che un compagno di scuola abbia usato una sua foto in costume pubblicata su Instagram per creare almeno un’immagine di nudo fasulla, poi condivisa da altri studenti in chat di gruppo.
A rappresentarla è un professore della Yale Law School insieme ad alcuni studenti e a un avvocato processualista, con l’obiettivo di affrontare un problema che in tutto il mondo sta travolgendo scuole, social network e tribunali.
Dalle scuole al web oscuro
Il caso risale a due anni fa, quando diverse ragazze della Westfield High School del New Jersey avevano scoperto di essere diventate vittime di deepfake pornografici. Le immagini, ottenute a partire da foto innocue pubblicate online, erano state modificate da un coetaneo grazie a un software di “rimozione degli abiti” e poi fatte circolare tra gli studenti maschi.
Secondo la causa, il programma utilizzato sarebbe ClothOff, uno strumento web sviluppato dalla società AI/Robotics Venture Strategy 3 Ltd., registrata nelle Isole Vergini Britanniche ma che, secondo i legali di Yale, è gestita da persone residenti in Bielorussia. ClothOff è accessibile anche su Telegram, dove può essere usato tramite bot automatizzati.
Sul proprio sito, l’azienda dichiara che “elaborare immagini di minori è impossibile” e che chi tenta di farlo viene immediatamente bannato. Ma le indagini del Wall Street Journal hanno rivelato che nei forum del dark web circolano link a ClothOff, promossi come strumenti per creare o condividere pornografia infantile. Una scoperta che alimenta i sospetti sulla reale capacità (o volontà) dell’azienda di impedire abusi.
La ragazza ha chiesto alla corte di obbligare ClothOff a cancellare tutte le immagini di nudo create senza consenso, a non usarle per addestrare i propri modelli di IA e a rimuovere il sito da Internet. Se la società non si presenterà in tribunale, il giudice potrà decidere in sua assenza e bloccare il servizio negli Stati Uniti.
Deepfake, una paura che non si cancella
Nel documento depositato in tribunale, la querelante racconta di vivere “nella costante paura” che la propria immagine sia ancora online. Il suo timore, condiviso da molte vittime, è che quelle immagini possano riemergere in qualsiasi momento, compromettendo la vita privata o le prospettive future.
Ma c’è un’altra preoccupazione: che le foto generate senza consenso possano essere riutilizzate per addestrare nuovi modelli di intelligenza artificiale, alimentando un circolo vizioso di violenza digitale.
Negli Stati Uniti, 45 Stati hanno già approvato leggi che criminalizzano la creazione o la diffusione di immagini intime false. E a maggio il Congresso ha approvato il Take It Down Act, che rende reato federale la pubblicazione consapevole di immagini intime non consensuali, reali o generate dall’IA, imponendo a piattaforme e app di eliminarle entro 48 ore dalla segnalazione.
Dalle azioni delle big tech alle cause dei privati
Il caso della studentessa del New Jersey non è isolato. Negli ultimi anni, diverse azioni legali hanno iniziato a spostare il baricentro della responsabilità dai singoli autori dei deepfake alle aziende che ne sviluppano o distribuiscono il software. È un cambio di prospettiva importante, perché individua nei produttori di questi strumenti non più semplici fornitori di tecnologia ma parte attiva di un sistema che abilita l’abuso digitale.
Tra i precedenti più rilevanti c’è quello di Kyland Young contro NeoCortext, la società che ha creato Reface, un’app capace di sostituire i volti degli utenti con quelli di celebrità.
Young, personaggio televisivo statunitense, ha accusato l’azienda di aver violato il suo diritto all’immagine, sostenendo che l’app consentisse la diffusione di identità digitali manipolate senza consenso. Pur non trattandosi di un deepfake pornografico, il caso ha aperto la strada alla possibilità che anche un cittadino privato possa chiamare in causa chi produce strumenti di manipolazione visiva.
Sul fronte istituzionale, invece, Meta ha citato in giudizio i creatori di CrushAI, un’app pubblicizzata su Facebook e Instagram come strumento per “spogliare” digitalmente le persone, accusandoli di violare le proprie policy e di promuovere contenuti illegali. È un’azione che mira a bloccare la promozione commerciale di software di “undressing” e a impedire che trovino spazio su piattaforme mainstream.
In tutti questi casi, il principio è lo stesso: l’intelligenza artificiale non può essere trattata come un’entità neutra. Se un software è progettato o distribuito senza adeguati controlli, anche chi lo sviluppa può essere ritenuto responsabile delle conseguenze. Ed è proprio in questa direzione che la causa della studentessa del New Jersey sembra voler spingere la giurisprudenza americana.
Dall’America all’Italia: un fronte comune
Il caso americano trova un’eco diretta anche in Europa. L’Italia, proprio pochi giorni fa, ha approvato una legge che introduce il reato di deepfake nell’ordinamento, con pene più severe per chi crea o diffonde immagini manipolate di minori o adulti senza consenso.
Si tratta di una svolta importante: per la prima volta viene riconosciuto il danno psicologico e reputazionale delle vittime come una forma di violenza digitale, punibile al pari della pornografia non consensuale.
Il fenomeno, però, non riguarda solo il diritto. È il riflesso di una crisi più profonda nel modo in cui le tecnologie di intelligenza artificiale vengono sviluppate e distribuite. Strumenti come ClothOff nascono da modelli open source, accessibili a chiunque, e il confine tra libertà d’uso e abuso criminale si fa sempre più sottile.
L’ombra lunga della responsabilità
A San Francisco, il procuratore David Chiu ha già avviato un’azione legale contro i sedici siti di deepfake pornografici più visitati al mondo, tra cui proprio ClothOff. L’iniziativa ha portato alla chiusura di diversi portali e ad accordi con alcuni imputati, ma la battaglia è ancora aperta. “Non ci fermeremo finché tutti i responsabili non saranno chiamati a rispondere delle loro azioni”, ha dichiarato Chiu.
Dietro queste parole si intravede la sfida più ampia: stabilire chi risponde di un abuso commesso da un’intelligenza artificiale. Gli sviluppatori? Le piattaforme che la ospitano? O i singoli utenti che la usano per nuocere?
In questo vuoto di responsabilità, il corpo digitale delle persone, soprattutto donne e adolescenti, è diventato terreno di caccia, esposto a una nuova forma di violenza che la tecnologia amplifica ma non controlla.
La causa della ragazza del New Jersey, è la richiesta di un limite etico e giuridico in un mondo dove la linea tra realtà e simulazione non è mai stata così sottile. E, forse, potrebbe fare scuola anche nel resto del mondo, aprendo la strada a una giurisprudenza globale capace di difendere la dignità umana nell’era dell’intelligenza artificiale.
Fonte: Wall Street Journal


