ByteDance, la società madre di TikTok, ha presentato OmniHuman-1, un nuovo modello di intelligenza artificiale capace di generare video iper-realistici partendo da una singola immagine e da un input audio.
La tecnologia, che non è ancora disponibile al pubblico, segna un ulteriore passo avanti nel campo della sintesi video, con implicazioni significative per il futuro della verifica delle immagini e della disinformazione digitale.
Deepfake multimodali
OmniHuman-1 si distingue per la capacità di creare video di qualsiasi durata e formato, adattandosi a diverse proporzioni del corpo e mantenendo un realismo impressionante in termini di movimento, illuminazione e dettagli della texture.
Grazie a un addestramento su 19.000 ore di filmati, il sistema può generare contenuti a partire da input estremamente limitati, come un semplice file audio, e persino modificare movimenti in video già esistenti.
Uno degli aspetti più innovativi di OmniHuman-1 è la gestione della multimodalità: il modello può essere condizionato da diverse combinazioni di segnali, tra cui immagini statiche, tracce audio e video di riferimento.
Questa versatilità consente di animare non solo ritratti umani, ma anche cartoni animati, oggetti artificiali e persino pose particolarmente complesse, mantenendo sempre una coerenza tra il movimento generato e lo stile dell’input originale. Guardate ad esempio il deepfake di Einstein qui sopra.
Un’altra caratteristica chiave riguarda la generazione di video in cui i personaggi parlano o cantano.
OmniHuman-1 migliora sensibilmente la resa dei gesti, un aspetto spesso problematico per i modelli esistenti, e permette di sincronizzare le espressioni facciali e i movimenti del corpo con l’audio, adattandosi anche a diversi stili musicali e performance dal vivo.
Il modello può inoltre imitare azioni specifiche a partire da video di riferimento, combinando input audio e visivi per un livello di controllo più preciso sulle animazioni generate.
Ma OmniHuman-1 non è pubblico
Nonostante il progresso tecnologico, ByteDance ha sottolineato di non aver ancora rilasciato il modello né reso disponibili servizi basati su di esso. L’azienda ha anche messo in guardia contro possibili tentativi di truffa legati a informazioni false sul progetto.
L’avanzamento dei deepfake solleva inevitabilmente questioni etiche e normative. Negli Stati Uniti, dieci stati hanno già approvato leggi contro l’uso di IA per l’impersonificazione ingannevole, ma il problema del rilevamento e della regolamentazione rimane aperto.
Con strumenti sempre più sofisticati come OmniHuman-1, la capacità di distinguere il reale dall’artificiale diventa una sfida cruciale per il futuro dell’informazione e della sicurezza digitale.


