Google sospende la generazione di immagini di Gemini dopo le polemiche sulla diversità

da | 24 Feb 2024 | IA

Google aveva da poco lanciato la funzione di generazione di immagini attraverso la sua piattaforma Gemini, in linea con quanto offerto da concorrenti come OpenAI. Negli ultimi giorni, tuttavia, alcuni post sui social media hanno sollevato dubbi sulla sua capacità di produrre risultati storicamente accurati nel perseguire la diversità razziale e di genere. Come risultato, Google ha sospeso la possibilità di generare immagini di persone tramite Gemini. Ma cos’è successo di preciso?

Per cominciare, è necessaria una premessa: i generatori di immagini vengono addestrati su ampie raccolte di foto e di didascalie. Si tratta di materiali che possono avere diversi anni di vita, prodotti o scritti in periodi nei quali la sensibilità della società era diversa da quella attuale. Il risultato è che addestrando le IA sui materiali presenti su Internet, il rischio è di amplificare gli stereotipi.

Un’indagine del Washington Post dell’anno scorso segnalava infatti che istruzioni come “disegna una persona produttiva” producevano immagini esclusivamente di figure bianche e maschili. Al contrario, chiedere di “una persona ai servizi sociali” produceva invariabilmente immagini di persone di colore.

È quindi probabile che Google abbia cercato di correggere i parametri di Gemini per aumentare la diversità delle immagini generate. Purtroppo però i risultati non sono stati quelli sperati, col risultato che ha iniziato a raffigurare i Padri Fondatori degli Stati Uniti come degli afroamericani, a disegnare immagini del Papa donna e, riferisce Axiom, di coppie omosessuali quando la richiesta era di generare immagini di coppie eterosessuali.

Quanto accaduto ha scatenato una serie di critiche, in particolare da parte della destra americana. Ad aprire le danze, riporta il Washington Post, è stato l’account su X dall’esplicativo nome “End Wokeness”, che ha postato quanto trovate qui sotto.

A ruota è arrivato Elon Musk, che non è andato per il sottile: “Sono contento che Google abbia esagerato con la generazione di immagini da parte dell’intelligenza artificiale, in quanto ha reso evidente a tutti i suoi programmi follemente razzisti e anti-civilizzativi”. Il New York Post, da parte sua, ha invece definito Gemini “assurdamente woke”.

In risposta alle critiche, Google ha ammesso: “Siamo a conoscenza che Gemini sta offrendo rappresentazioni inesatte di alcune immagini storiche. Stiamo lavorando per migliorare immediatamente queste rappresentazioni. La generazione di immagini AI di Gemini produce una vasta gamma di persone, e questo è generalmente positivo perché è utilizzato da persone in tutto il mondo. Tuttavia, in questo caso, non ha centrato l’obiettivo“.  Successivamente, l’azienda ha annunciato la sospensione della generazione di immagini di persone, promettendo un nuova release a breve.

Venerdì, Rabhakar Raghavan, vicepresidente senior di Google, ha provato a fornire una spiegazione più dettagliata indicando due errori. La regolazione per mostrare una gamma di persone “non ha tenuto conto di casi in cui chiaramente non dovrebbe essere mostrata una gamma. E in secondo luogo, col tempo, il modello è diventato molto più cauto di quanto intendessimo e ha rifiutato di rispondere a certe richieste del tutto, interpretando erroneamente alcuni prompt molto innocui come sensibili”. Successivamente ha aggiunto: “Non era questa la nostra intenzione. Non posso promettere che Gemini non genererà occasionalmente risultati imbarazzanti, inesatti o offensivi, ma posso assicurare che continueremo ad agire ogni volta che identificheremo un problema”.

È da notare anche che, come riporta The Verge, un ex dipendente di Google ha dichiarato su X che è “estremamente difficile far riconoscere da Google Gemini l’esistenza di persone bianche”, mostrando una serie di richieste come “genera un’immagine di una donna svedese” o “genera un’immagine di una donna americana”, che hanno mostrato prevalentemente persone di colore generate dall’AI.

Gli strumenti attuali di intelligenza artificiale, insomma, non paiono abbastanza avanzati da comprendere che si potrebbero desiderare risultati diversificati per le richieste generiche ma non per quelle storiche. I big dell’intelligenza artificiale ritengono che i loro modelli diventeranno sempre più abili nel gestire richieste cariche di implicazioni etiche, politiche e sociali. I critici, invece, suggeriscono che l’AI generativa non comprenda realmente nulla e che saranno necessari avanzamenti più che incrementali per risolvere questo problema.

Da quando ChatGPT è stato rilasciato alla fine del 2022, i conservatori hanno accusato le aziende tecnologiche di usare strumenti di AI generativa come chatbot per produrre risultati liberali, allo stesso modo in cui hanno precedentemente accusato le piattaforme di social media. L’esplosione di polemiche su Gemini è l’ultimo esempio di prodotti di IA che finiscono coinvolti nelle guerre culturali su diversità, le moderazione dei contenuti e la rappresentazione.

Il problema però pare molto difficile da risolvere. Come scrive Ina Fried di Axios, non esiste infatti un sistema IA privo di valori e ci sono situazioni che pare impossibile risolvere senza scontentare nessuno. Non si prospetta un futuro facile per le IA generative…

 

POTREBBE INTERESSARTI

ByteDance e Broadcom avviano una collaborazione strategica per l'IA
,

ByteDance e Broadcom: al via una collaborazione per l’IA

L’azienda americana produrrà un chip da 5nm per la casa madre di TikTok, che lo scorso anno avrebbe già investito 2 miliardi di dollari in chip Nvidia.

Apple rinvierà il lancio di Apple Intelligence nell'UE
,

Apple rinvierà il lancio di Apple Intelligence nell’UE

Il gigante tecnologico indica il Digital Markets Act come la causa di questa decisione.

TikTok prova a rivoluzionare l'ADV ma inciampa clamorosamente

TikTok prova a rivoluzionare l’ADV ma inciampa clamorosamente

I Symphony Digital Avatars, il nuovo strumento di TikTok per la creazione di contenuti generati dall’IA, finiscono nel mirino dopo che una falla ha consentito la...
Ecco come di comporta Claude 3.5 Sonnet rispetto agli altri modelli.

Più veloce e intelligente: ecco Claude 3.5 Sonnet

Claude 3.5 Sonnet è il modello più avanzato di Anthropic, e promette prestazioni superiori a GPT-4 e Gemini

Il produttore di chip TSMC vola in borsa

La valutazione di TSMC vola alle stelle trascinata di Nvidia

TSMC si sta avvicinando alla valutazione di mille miliardi di dollari a Wall Street trascinata da Nvdia e dall’esplosione dell’IA.

L'IA non è in grado di prendere ordini da McDonald's

McDonald’s: l’IA non è ancora in grado di prendere gli ordini al drive-in

McDonald’s, la famosa catena di fast food, negli Stati Uniti ha deciso di disabilitare un sistema basato sull’intelligenza artificiale utilizzato nei...
Jen-Hsun Huang durante una presentazione di Nvidia

Nvidia batte Microsoft ed è la società che vale di più al mondo

Spinta dal crescente interesse nel comparto dell’intelligenza artificiale, Nvidia ha infranto un nuovo record in borsa, superando anche Microsoft.

Il segretario della NATO Jens Stoltenberg

La NATO investe mille miliardi di euro in IA, robot e spazio

La NATO investe mille miliardi di euro in 4 aziende specializzate in tecnologia per lo sviluppo di IA, robotica e ingegneria spaziale.

I robots di Ex-Robots

In Cina stanno costruendo robot con espressioni facciali umane

L’ultima frontiera della tecnologia fonde la robotica con l’intelligenza artificiale. L’obiettivo è quello di usare l’IA per dare ai robot...
Sam Altman potrebbe trasformare OpenAI in una società benefit foto: Joel Saget/AFP/Getty Images

OpenAI potrebbe diventare una società benefit (e perseguire il profitto)

OpenAI, per competete al meglio contro Anthropic e xAI, potrebbe cessare di essere una no-profit. E c’è già chi come passo successivo s’immagina...
Share This