Tutto è cominciato con una domanda: “Marsha Blackburn è mai stata accusata di stupro?”. Una query come tante, che però ha scatenato un terremoto politico e tecnologico.
Quando un utente ha rivolto questa richiesta al modello linguistico di Google Gemma, la risposta generata è stata esplosiva: il sistema ha inventato di sana pianta una storia, completa di presunti articoli giornalistici e link fittizi, secondo cui la senatrice repubblicana del Tennessee avrebbe avuto una relazione non consensuale con un agente della polizia statale durante la sua campagna elettorale del 1987. Agente che avrebbe poi affermato di essere stato da lei spinto a procurarle farmaci con prescrizione e che la relazione includeva atti non consensuali.
Peccato che, come ha subito denunciato la stessa Marsha Blackburn, la notizia fosse falsa in ogni dettaglio: “Non è mai esistita un’accusa del genere, non esiste l’agente menzionato, e persino l’anno della mia campagna è sbagliato: era il 1998, non il 1987”.
Nella lettera inviata a Sundar Pichai, la senatrice ha parlato apertamente di “atto di diffamazione prodotto e distribuito da un modello di intelligenza artificiale di proprietà di Google”, accusando l’azienda di aver lasciato che uno strumento accessibile al pubblico diffondesse falsità penali su una rappresentante eletta.
Allucinazione Blackburn: da errore tecnico a scontro politico
Google ha reagito annunciando la rimozione temporanea di Gemma dal suo AI Studio, pur mantenendone l’accesso tramite API per sviluppatori.
AI Studio, vale la pena ricordarlo, è la piattaforma online di Google dedicata alla sperimentazione dei suoi modelli di intelligenza artificiale, uno spazio pensato per sviluppatori e ricercatori (e non per l’uso diretto da parte del pubblico), in cui testare e personalizzare modelli come Gemma prima di integrarli in applicazioni o servizi.
In un post pubblicato su X, l’azienda ha precisato di aver “visto segnalazioni di non-sviluppatori che hanno utilizzato Gemma per porre domande fattuali”, ribadendo che lo strumento “non è mai stato progettato per essere un assistente per i consumatori, ma un modello open e leggero per la ricerca e lo sviluppo”.
Gemma is available via an API and was also available via AI Studio, which is a developer tool (in fact to use it you need to attest you’re a developer). We’ve now seen reports of non-developers trying to use Gemma in AI Studio and ask it factual questions. We never intended this…
— News from Google (@NewsFromGoogle) November 1, 2025
In sostanza, Google sostiene che il modello sia stato usato impropriamente e che la risposta incriminata rientri nelle cosiddette “allucinazioni” comuni a tutti i modelli linguistici di grandi dimensioni.
Una versione ribadita anche nella lettera ufficiale di Karan Bhatia, vicepresidente per gli affari governativi dell’azienda, che ha scritto alla senatrice: “Le allucinazioni che avete visto in Gemma sono problemi tecnici comuni a tutto il settore, e riguardano utenti di ogni orientamento politico. Lo si può verificare sostituendo un nome non partigiano o associato a opinioni politiche differenti”.
Questa spiegazione non ha però convinto affatto la diretta interessata. “La risposta di Google è un disperato tentativo di eludere le proprie responsabilità”, ha replicato Blackburn in una dichiarazione ad Axios. “Il guazzabuglio di scuse inaccettabili di Google non spiega come sia potuto accadere né come l’azienda intenda impedirlo in futuro. Google conosce da anni le allucinazioni dannose di Gemma ma ha scelto di chiudere un occhio finché non è stata costretta a intervenire”.
La crociata conservatrice contro l’“IA woke”
L’episodio ha ovviamente assunto una valenza politica. Marsha Blackburn è da tempo una delle voci più dure della destra americana contro le Big Tech, accusate di censurare i conservatori e promuovere valori progressisti.
Il presidente Donald Trump, che considera l’“AI bias” una minaccia culturale, ha già firmato un ordine esecutivo per vietare quella che definisce “IA woke”. La senatrice ha cavalcato lo stesso argomento, sostenendo che esiste “un modello costante di pregiudizio contro le figure conservatrici, dimostrato dai sistemi di IA di Google”.
La polemica non si limita al caso personale: Blackburn ha ricordato anche la causa intentata dall’attivista Robby Starbuck contro Google, in cui il modello Gemma avrebbe generato false accuse di pedofilia e abusi sessuali. “Spegnete il modello finché non potete controllarlo”, ha scritto la senatrice, chiedendo una risposta formale e misure correttive immediate.
Bias, responsabilità e la nuova geografia politica dell’IA
Il caso Gemma-Blackburn riapre un dibattito che Silicon Valley preferirebbe evitare: fino a che punto l’errore di un modello generativo può essere considerato un semplice incidente tecnico? E quando, invece, diventa un problema di responsabilità legale e reputazionale per chi lo sviluppa?
Il nodo è doppio. Da un lato abbiamo la difficoltà oggettiva di controllare i comportamenti dei modelli linguistici più avanzati; dall’altro, troviamo la crescente politicizzazione del discorso sull’IA negli Stati Uniti. Ogni allucinazione rischia infatti di essere letta come un atto politico, e ogni misura di sicurezza come un tentativo di censura.
Nel frattempo, Google cerca di chiudere la falla e di ribadire che Gemma non è un assistente “consumer” ma uno strumento sperimentale. Ma la vicenda ha già scavato un solco più profondo: quello di una tecnologia che, da laboratorio di ricerca, è diventata un campo di battaglia ideologico.
Fonti: New York Post, TechCrunch, Axios


