Solamente cinque giorni fa, durante l’evento TikTok World 2024, TikTok introduceva i Symphony Digital Avatars, un pacchetto di soluzioni pubblicitarie alimentate dall’intelligenza artificiale generativa.
Questo nuovo set di strumenti, che include Symphony Digital Avatars e AI Dubbing per traduzioni globali, è stato lanciato con l’intento di rivoluzionare la produzione di contenuti su TikTok, offrendo a creatori e marchi la possibilità di creare contenuti “più coinvolgenti e personalizzati”.
Usiamo il virgolettato perché nutriamo qualche dubbio che quanto segue sia classificabile come tale. Symphony, infatti, rende più facile per aziende di tutte le dimensioni, creatori e agenzie sviluppare contenuti su misura per TikTok.
Come? Rendendo disponibili due tipi di avatar digitali, ossia Stock Avatars e Custom Avatars. I primi sono avatar predefiniti, creati con attori pagati e utilizzabili per scopi commerciali, che permettono ai marchi di aggiungere un tocco umano ai loro contenuti. I secondi, invece, sono avatar personalizzati che rappresentano un creator o un portavoce del marchio, con abilità multilingue che consentono di espandere la loro portata globale e le collaborazioni coi brand.
Ma come far pronunciare messaggi pubblicitari con creator che hanno giusto dato il loro assenso all’utilizzo delle proprie fattezze? Facile, col Symphony AI Dubbing, uno strumento di traduzione globale che consente ai creator e ai marchi di abbattere le barriere linguistiche, traducendo i contenuti in oltre 10 lingue e dialetti. Questo strumento insomma trascrive, traduce e produce video doppiati nelle lingue selezionate, facilitando la comunicazione col pubblico globale.
Quindi sì, avete capito bene: per TikTok il futuro della “personalizzazione” dell’ADV è far pronunciare ad avatar di creator delle linee di dialogo che non hanno mai realmente pronunciato, il tutto grazie all’intelligenza artificiale generativa.
Il problema, e qui arriviamo alla news di oggi, è qualcuno in ByteDance non ha pensato di prendere le dovute precauzioni. Ed ecco allora che il Symphony AI Dubbing, privo dei consueti filtri di sicurezza, ha permesso agli utenti di generare video con contenuti potenzialmente offensivi e pericolosi.
La falla, scoperta da CNN, ha consentito alla testata di creare video contenenti citazioni di Adolf Hitler e messaggi che incoraggiavano le persone a bere candeggina.
TikTok placed zero content restrictions on the app. Any words we put in created a video with a peppy “Stock AI” Avatar reciting them. That included:
-The 14 words
-An excerpt from Mein Kampf
-Osama Bin Laden’s Letter to America
-A video telling people to drink bleach from “a… pic.twitter.com/I2QbqbDFnw— Jon Sarlin (@jonsarlin) June 21, 2024
Laura Perez, portavoce di TikTok, ha dichiarato che l’azienda ha risolto l'”errore tecnico” che ha permesso a “un numero estremamente limitato di utenti di creare contenuti utilizzando una versione di test interna dello strumento per alcuni giorni”.
L’incidente, per le testate americane che l’hanno riportato, solleva interrogativi sulla capacità di TikTok di prevenire potenziali abusi dello strumento di creazione di avatar digitali e sulla sua preparazione nell’affrontare simili sfide in futuro.
A noi, invece, fa sollevare interrogativi sull’autenticità del futuro che ci attende.


