Come ormai i più assidui lettori di TechTalking avranno capito, la tecnologia è così radicata nel tessuto sociale contemporanea da avere ripercussioni su numerosi aspetti della nostra vita. Inclusa la Politica, cui non a caso abbiamo dedicato un’apposita sezione.
La notizia che ci apprestiamo a scrivere ne è un ulteriore esempio. Prima di passare ai fatti, però, crediamo sia meglio spiegare in cosa consista il problema del bias nelle intelligenze artificiali.
Il problema del bias nelle IA
L’intelligenza artificiale promette di rivoluzionare il modo in cui accediamo alle informazioni, prendiamo decisioni e interagiamo con la tecnologia.
Questa rivoluzione è per accompagnata da un rischio crescente: il bias, ossia la tendenza dei sistemi AI a riflettere pregiudizi, preferenze o distorsioni presenti nei dati su cui sono addestrati o nelle scelte progettuali di chi li sviluppa.
Non si tratta solo di errori tecnici ma di un fenomeno che può influenzare profondamente il discorso pubblico e influenzare le opinioni delle persone.
Questo problema emerge in modo evidente nei chatbot basati su AI, che vengono sempre più utilizzati per ottenere risposte rapide e dirette su temi complessi o controversi.
Da un lato c’è chi sostiene che il bias sia una conseguenza inevitabile dell’addestramento su vasti set di dati raccolti online. Dall’altro c’è chi interpreta tutto ciò come una forma di manipolazione intenzionale, mirata a influenzare le opinioni e i comportamenti degli utenti.
Questo dibattito si intreccia con questioni politiche e culturali più ampie, trasformando l’AI in un terreno di scontro ideologico.
Trump all’attacco
Proprio questa tensione è al centro delle discussioni tra Donald Trump e i suoi consiglieri tecnologici, ossia Elon Musk, Marc Andreessen e David Sacks. Quest’ultimo, visibile nella foto di copertina, è un imprenditore, investitore e venture capitalist statunitense, nominato da Donald Trump come consulente per l’AI e le criptovalute.
Questo triumvirato vede nella “censura dell’AI” una minaccia alla libertà di parola e un nuovo campo di battaglia nella guerra culturale tra conservatori e Big Tech, che finora si è dimostrata allineata alle visioni più radicali del partito Democratico.
Nel mirino c’è la “censura dell’AI”, termine col quale di indica l’eventualità che le risposte dei chatbot vengano manipolate per promuovere specifiche posizioni politiche o valori ideologici.
Si tratta di un’accusa che riecheggia le critiche mosse da anni dai conservatori contro i social media, che di primo acchito può sembrare pretestuosa ma che ha già trovato più di una conferma nei fatti.
I chatbot sotto accusa
David Sacks, ha apertamente criticato OpenAI e Google, accusandole di forzare un orientamento “politicamente corretto” nei loro chatbot, come ChatGPT e Gemini.
Durante un episodio del podcast All In, Sacks ha affermato che “la censura è integrata nelle risposte” di ChatGPT, una situazione che, secondo lui, mina la credibilità delle tecnologie AI.
Anche Elon Musk, fondatore di xAI, ha espresso preoccupazioni simili. Nel 2023, Musk ha lanciato Grok, un chatbot con meno restrizioni rispetto ai concorrenti, e ha dichiarato di voler creare un sistema basato sulla “massima ricerca della verità”.
Secondo i suoi sostenitori, un progetto come Grok è essenziale per garantire un’alternativa alle grandi aziende che, a loro dire, manipolano i risultati per favorire visioni liberali.
Gli errori e le critiche
Un caso emblematico di queste presunte manipolazioni è stato quello del generatore di immagini AI di Google Gemini.
Ne abbiamo scritto lo scorso febbraio, quando il chatbot di Google produceva, in nome della diversity, rappresentazioni palesemente inaccurate, come immagini multirazziali dei padri fondatori e soldati nazisti di colore. Lo stesso problema si verificava anche chiedendogli di raffigurare i vichinghi.
Google si è scusata, definendo l’episodio un errore, ma figure come Andreessen e Sacks lo hanno visto come una prova delle preferenze ideologiche integrate nei sistemi AI.
Peraltro, un mese dopo il generatore di immagini di Facebook è caduto nello stesso errore.
Chi ha vinto le elezioni del 2020?
Esistono anche altri casi in cui le aziende tecnologiche hanno influenzato i risultati forniti dalle loro AI. TechCrunch riporta che i chatbot di Google e Microsoft si sono rifiutati di dichiarare chi avesse vinto le elezioni presidenziali statunitensi del 2020.
Abbiamo verificato e mentre Bing ci ha fornito la risposta corretta, tuttora Gemini di Google si trincera dietro un’omertosa impossibilità a rispondere.

Durante le elezioni del 2024, quasi tutti i sistemi di AI hanno evitato di rispondere a domande sui risultati elettorali, con l’eccezione di Perplexity e Grok.
Tutto ciò ha portato Marc Andreessen, cofondatore di a16z, a dichiarare in una recente intervista con Joe Rogan quanto segue. “Questa è la mia opinione, ed è ciò che sto cercando di spiegare alle persone a Washington: se pensavate che la censura sui social media fosse grave, [l’AI] ha il potenziale di essere mille volte peggiore”.
Difficile dargli torto in un mondo in cui i chatbot stanno diventando “motori di risposta”, con l’obiettivo di soppiantare i vecchi motori di ricerca come Google.
Fornendo una risposta unica autoconclusiva anziché tanti link da visitare a nostra discrezione, ci regalano la risposta più comoda che possiamo desiderare. Ma appare evidente che la stragrande maggioranza delle persone si accontenterà del risultato proposto e che qualunque informazione dovesse essere omessa o censurata, cesserà semplicemente di esistere.
Conseguenze politiche
I consiglieri tecnologici di Trump, quindi, hanno un’agenda ben precisa che va oltre le critiche pubbliche a Big Tech.
Elon Musk ha denunciato la presunta pressione governativa per moderare i contenuti online e, con i suoi “Twitter Files”, ha promesso di esporre le dinamiche di censura.
Marc Andreessen, cofondatore di a16z, ha dichiarato di aver trascorso metà del suo tempo post-elezioni offrendo consulenza al team di Trump su tecnologia e affari. E ha affermato che le rivelazioni di Musk saranno solo l’inizio: “Il popolo americano deve sapere cosa è successo dietro le quinte, e devono esserci conseguenze”.
Impossibile dire con esattezza a quale esempio si riferisca ma la mente va al CEO di Meta, Mark Zuckerberg, che poco prima delle ultime elezioni ha chiesto scusa al Congresso per aver ceduto alle pressioni dell’amministrazione Biden, che lo avevano portato a moderare in modo aggressivo i contenuti legati al COVID-19.
Non è ancora chiaro come Trump e i repubblicani intendano agire contro la cosiddetta censura dell’AI. Potrebbero avviare indagini governative, promuovere cause legali o semplicemente mantenere viva la questione come un tema politico per i prossimi quattro anni.
Quello che è certo è che il dibattito sull’AI, la libertà di parola e l’influenza dei colossi tecnologici è appena iniziato.
Ma se oggi i sistemi architettati da Big Tech sembrano orientati verso una visione politica vicina alla sinistra radicale americana, il rischio è che, nel tentativo di riequilibrare la situazione, si passi a una visione specularmente in senso opposto, e quindi altrettanto poco obiettiva.
Trovare un equilibrio perfetto appare un’impresa quasi impossibile, poiché non esiste una versione oggettiva e universalmente condivisibile della realtà.


