Google si trova involontariamente al centro di una nuova controversia legata all’intelligenza artificiale.
Diversi utenti sui social media hanno infatti scoperto che il modello Gemini 2.0 Flash, rilasciato recentemente con nuove capacità di generazione ed editing delle immagini, è in grado di rimuovere i watermark dalle foto protette, comprese quelle di Getty Images e altre piattaforme di stock media.
Oltre a eliminare i watermark, l’IA di Google tenta anche di riempire automaticamente lo spazio lasciato vuoto, ricostruendo i dettagli mancanti in modo credibile. Una funzionalità questa che, sebbene tecnicamente avanzata, apre interrogativi sul rispetto dei diritti d’autore.
In passato, altre IA come Claude 3.7 Sonnet di Anthropic e GPT-4o di OpenAI si sono rifiutate di compiere questa operazione, definendola “non etica e potenzialmente illegale”; Gemini 2.0 Flash sembra invece non avere restrizioni in merito.
Gemini 2.0 Flash, available in Google’s AI studio, is amazing at editing images with simple text prompts.
It also can remove watermarks from images (and puts its own subtle watermark in instead 🤣) pic.twitter.com/ZnHTQJsT1Z
— Tanay Jaipuria (@tanayj) March 16, 2025
Va detto che attualmente la funzione di generazione di immagini di Gemini 2.0 Flash è etichettata come “sperimentale” e “non per uso in produzione” e risulta disponibile solo attraverso strumenti destinati agli sviluppatori, come AI Studio di Google.
Il fatto che un modello ancora in fase di test mostri già queste criticità ha però sollevato dubbi sulla sicurezza e sulle potenziali implicazioni legali del suo utilizzo.
Gemini e la serie di gaffe nel settore dell’IA
Questa nuova gaffe arriva in un momento delicato per Google, che negli ultimi tempi ha già dovuto affrontare numerosi problemi legati alle sue IA.
Già al lancio del suo chatbot Bard, nel 2023, la presentazione ufficiale si rivelò un disastro: durante la demo, il modello fornì una risposta sbagliata su una scoperta del telescopio James Webb, errore che fece perdere ad Alphabet 100 miliardi di dollari in un solo giorno in borsa.
New skill unlocked: Gemini 2 Flash model is really awesome at removing watermarks in images! pic.twitter.com/6QIk0FlfCv
— Deedy (@deedydas) March 15, 2025
Più di recente, anche la funzione AI Overview, pensata per offrire risposte rapide nei risultati di ricerca, ha dato vita una (involontaria) ondata di ilarità.
L’IA di Google ha infatti fornito informazioni assurde e potenzialmente pericolose (alcune delle quali pescate da commenti ironici su Reddit), suggerendo ad esempio agli utenti di mescolare colla non tossica nella salsa della pizza per impedire al formaggio di scivolare via o di ingerire almeno un sasso al giorno per ottenere il giusto apporto di vitamine e sali minerali. .
La stessa gestione delle immagini da parte di Google non è nuova a polemiche.
Sempre Gemini 2.0 era già stato temporaneamente ritirato dopo aver generato immagini storicamente inaccurate, con un’eccessiva attenzione alla diversità che aveva portato a ricostruzioni anacronistiche di eventi storici.
La vicenda aveva anche dato il pretesto a Elon Musk, già in procinto di abbracciare la politica, di criticare pesantemente il wokism di Google.
Tutti questi episodi dipingono un quadro un po’ imbarazzante e un po’ preoccupante. Inanellando scivoloni come questi, Google dà infatti la sensazione di correre dietro alla concorrenza, rilasciando funzionalità IA ancora acerbe e prive di controlli adeguati.
Ma con modelli sempre più potenti e facilmente accessibili, ogni errore rischia di avere conseguenze ben più gravi di una semplice gaffe.


