Nel corso del 2024, un anno significativo per la democrazia globale, si sono svolti e si svolgeranno numerosi eventi elettorali. Il 13 gennaio, Taiwan ha tenuto le sue elezioni presidenziali e per il rinnovo del Parlamento. Il 4 febbraio a El Salvador si è votato per il cambio del presidente e del Parlamento. A metà febbraio, l’Indonesia ha visto le sue elezioni presidenziali e il rinnovo parlamentare.
Il calendario elettorale prosegue con le elezioni in Bielorussia il 25 febbraio, in Iran il primo marzo, in Russia il 17 marzo, e successivamente in India, la più grande democrazia del mondo, tra aprile e maggio. Il Messico andrà alle urne il 2 giugno, mentre le Elezioni Europee, previste tra il 6 e il 9 giugno, nomineranno 720 rappresentanti. L’evento di maggior rilievo sarà ovviamente quando gli Stati Uniti, il prossimo 5 novembre, eleggeranno il nuovo Presidente e rinnoveranno il Congresso.
Il risultato è che quest’anno la metà della popolazione mondiale sarà chiamata al voto, ed è pertanto cruciale che il processo democratico si svolga nella massima trasparenza. È con queste premesse che venti aziende leader nel settore tecnologico hanno annunciato di aver raggiunto un accordo per collaborare al fine di prevenire l’interferenza di contenuti ingannevoli generati dall’intelligenza artificiale. La preoccupazione è cresciuta di fronte alla rapida evoluzione dell’IA generativa, capace di produrre velocemente testi, immagini e video, e del suo potenziale uso per influenzare le elezioni.
Tra i firmatari di questo importante accordo, annunciato alla Conferenza sulla Sicurezza di Monaco, figurano aziende come OpenAI, Microsoft e Adobe, che sviluppano modelli di IA generativa per la creazione di contenuti. A queste si aggiungono piattaforme di social media come Meta, TikTok e X, che stanno già affrontando la sfida di filtrare i contenuti dannosi dai loro siti.
L’accordo stabilisce la collaborazione nello sviluppo di strumenti per identificare immagini, video e audio falsi generati da IA, nonché la creazione di campagne di sensibilizzazione per educare gli elettori riguardo ai contenuti ingannevoli. Inoltre, si prevede l’adozione di azioni contro tali contenuti. Le tecnologie impiegate per riconoscere i contenuti generati da IA o certificarne l’origine potrebbero includere la presenza di watermark o l’incorporazione di metadati. Tuttavia, i patti non precisano tempistiche o i dettagli sull’implementazione degli impegni da parte delle aziende.
“Penso che l’utilità di questo accordo sia l’ampiezza delle aziende che vi aderiscono”, ha dichiarato Nick Clegg, presidente degli affari globali di Meta Platforms. “È tutto bene e bello se le singole piattaforme sviluppano nuove politiche di rilevamento, provenienza, etichettatura e così via, ma a meno che non ci sia un impegno più ampio a farlo in modo condiviso e interoperabile, rimarremo bloccati con un miscuglio di diversi propositi”, ha poi aggiunto Clegg.
In un contesto dove l’IA generativa viene già impiegata per influenzare la politica e persino dissuadere le persone dal votare, come dimostrato da una chiamata automatizzata con un falso audio del Presidente degli Stati Uniti Joe Biden diffusa in New Hampshire, l’attenzione si concentra sulla prevenzione degli effetti dannosi delle foto, video e audio IA.
Nonostante la popolarità di strumenti di generazione di testo come ChatGPT di OpenAI, le aziende tecnologiche si concentreranno su questi aspetti, come spiegato da Dana Rao, Chief Trust Officier (che potremmo tradurre in “direttore della fiducia”) di Adobe. “C’è una connessione emotiva con l’audio, il video e le immagini” ha detto Rao. “Il nostro cervello è pensato per credere a quel tipo di media”.


