Meta ammette che le sue attuali politiche di catalogazione sono “troppo ristrette” e che è necessario un sistema più completo e complesso per gestire la più ampia gamma di contenuti generati dall’IA.
Come accaduto ad esempio con un video apparso lo scorso gennaio, in cui il presidente Biden sembrava toccare in modo inappropriato sua nipote.
La catalogazione potrebbe essere generata attraverso l’autodenuncia, quando un utente pubblica un contenuto, oppure come risultato dei pareri dei fact-checker (personale esterno a Meta che si occupa di verificare o meno la presenza di fake news e la veridicità di particolari post pubblicati per evitare la diffusione di false notizie). O ancora, attraverso la stessa Meta, che rileva i marcatori invisibili dei contenuti prodotti dall’IA.
La nuova politica di Meta è una risposta al feedback del suo Oversight Board, l’organismo interno di Meta che si occupa di valutare i contenuti pubblicati agendo da “moderatore”, che ha sollecitato un aggiornamento della politica attuale.
Le attuali regole sui “media manipolati” si applicano solo ai “video creati o alterati dall’IA per far sembrare che una persona dica qualcosa che non ha detto”.
A partire da febbraio, l’azienda ha iniziato ad aggiungere l’etichetta “Imagined with AI” alle immagini fotorealistiche realizzate con la funzione Meta AI.
“Manterremo questi contenuti sulle nostre piattaforme in modo da poter aggiungere etichette e contesto”, ha scritto Monika Bickert, vicepresidente responsabile della content policy, sostenendo che una maggiore trasparenza è meglio della censura.
Ma Meta “rimuoverà i contenuti, indipendentemente dal fatto che siano creati dall’intelligenza artificiale o da una persona, se violano le nostre politiche contro l’interferenza sugli elettori, il bullismo e le molestie, la violenza e l’incitamento o qualsiasi altra policy“, ha concluso Bickert.
In effetti una regolamentazione specifica per i contenuti creati attraverso l’IA è importante, perché se già prima una fake news poteva creare scompiglio nel giro di poco tempo attraverso i social, ora con l’aiuto dell’IA è ancora più facile creare fake news corredate da immagini, audio o video a farla sembrare ancora più reale.
Il che dimostra ancora una volta che per avere la libertà di esprimersi servono delle regole. L’importante, però, sarà non passare dalla regolamentazione alla “caccia alle streghe”.


