I deepfake sono uno degli aspetti più pericolosi e controversi delle nuove tecnologie, soprattutto adesso che con l’intelligenza artificiale è molto più facile, veloce ed efficace replicare la voce e le fattezze delle persone.
Per chi non lo sapesse con deepfake vengono definiti quei contenuti multimediali, solitamente video, che replicano in maniera realistica il volto e la voce delle persone. Basati sulle reti antagoniste generative, i deepfake vengono utilizzati per combinare e sovrapporre immagini e video per gli scopi più disparati.
C’è chi li usa per fare scherzi, facendo finta che attori o calciatori abbiano detto cose folli, ma c’è anche chi li usa per truffare gli anziani, mettere in cattiva luce i colleghi o addirittura provare a condizionare le elezioni politiche, com’è successo recentemente negli USA con le finte telefonate di Joe Biden, che invitavano gli elettori a disertare le primarie per non favorire Donald Trump.
E questo è il lato oscuro dei deepfake, una tecnologia utilizzata per ingannare le persone e far credere loro cose diverse da quello che è successo in realtà.
Secondo Aaron Painter, il CEO di Nametag, una compagnia specializzata nella verifica dell’identità digitale, finora questa tecnologia è stata utilizzata nella maniera sbagliata. “Immaginate un mondo in cui possiamo non solo rivedere gli scritti o i discorsi di figure storiche, ma interagire effettivamente con loro per comprendere meglio il contesto delle loro azioni passate, o per ottenere la loro prospettiva sugli eventi attuali”, ha affermato Painter.
In questo modo si potrebbero avere delle riproduzioni dei personaggi storici che spiegano perché alcuni monumenti sono falsi o sono stati costruiti in un epoca successiva da quella preventivata”, spiega Davi Ottenheimer, vice presidente del Trust and Digital Ethics presso Inrupt.
Oltre che a fini turistici, dove l’avere le informazioni “direttamente dalla fonte” potrebbe dare un valore in più alla visita di un monumento o di un museo, i deepfakes potrebbero avere una certa utilità a scopi medici. Per il CEO di Nametag i deepfake potrebbero essere usati per aiutare le persone a superare la morte di un caro, ricreando il suo aspetto e la sua voce in modo da aiutare le persone ad affrontare un trauma, accompagnandole durante un periodo difficile.
Alcuni studi rivelerebbero che alcune vittime di violenza sessuale abbiano risposto bene a terapie nelle quali si dava loro modo di confrontarsi con l’aggressore, replicato grazie appunto ai deepfake. Si tratta delle stesse tecnologie utilizzate dai truffatori per far credere che un parente abbia fatto o detto qualcosa, stavolta però utilizzate per aiutare qualcuno.
Anche nel caso migliore, però, quella dei deepfake resta sempre una tecnologia estremamente pericolosa. Il confine tra una “bugia a fin di bene” e una semplice menzogna è molto labile, soprattutto nel caso in cui siano coinvolte persone emotivamente fragili.
Il rischio di spingersi troppo oltre o semplicemente di scegliere la via più facile per vivere una vita di inganni, potrebbe essere sempre dietro l’angolo.


