Jim Jordan, presidente repubblicano della Commissione Giustizia della Camera degli Stati Uniti, ha avviato un’indagine formale per capire se l’amministrazione Biden abbia esercitato pressioni sulle grandi aziende tecnologiche americane affinché censurassero contenuti generati dall’intelligenza artificiale.
In una serie di lettere inviate a 16 colossi del settore tech, tra cui Google, OpenAI e Apple, Jordan ha chiesto di produrre entro il prossimo 27 marzo ogni eventuale comunicazione che dimostri forme di “coercizione o collusione” per «censurare discorsi legali» nei prodotti basati sull’intelligenza artificiale.
Questa iniziativa sembra l’ovvia evoluzione del confronto tra politici conservatori e Silicon Valley, già manifestatosi in passato riguardo ai social media e ora spostatosi sull’intelligenza artificiale.
E segue un precedente rapporto della commissione, pubblicato a dicembre, che avrebbe “rivelato gli sforzi dell’amministrazione Biden-Harris di controllare l’IA per sopprimere la libertà di parola”.
I destinatari della lettera di Jordan
Tra le società chiamate a rispondere entro fine marzo ci sono alcuni dei più importanti nomi della tecnologia statunitense: Adobe, Alphabet (Google), Amazon, Anthropic, Apple, Cohere, IBM, Inflection, Meta, Microsoft, Nvidia, OpenAI, Palantir, Salesforce, Scale AI e Stability AI.
Alcune, come Nvidia, Microsoft e Stability AI, hanno già dichiarato di non voler rilasciare commenti sulla vicenda.
Elon Musk e il suo social X risultano esclusi da questa indagine, un’assenza che non è passata inosservata ma che appare la logica conseguenza delle posizioni del magnate sudafricano, che ha additato per primo la censura politica adottata dai suoi concorrenti.
L’ombra del conflitto culturale sull’IA
Alcuni osservatori politici americani sostengono che l’iniziativa di Jordan può essere un modo per spingere preventivamente le aziende a ridurre ogni possibile intervento restrittivo nei confronti di contenuti politicamente sensibili.
Ma la questione della censura politica nell’ambito tecnologico sta diventando uno degli elementi centrali della cosiddetta “guerra culturale” americana, coi conservatori convinti che molte aziende di Big Tech favoriscano sistematicamente posizioni politicamente più progressiste.
Negli ultimi mesi, però, diverse aziende coinvolte hanno già modificato le proprie policy relative alla gestione dei contenuti politici da parte delle intelligenze artificiali.
OpenAI ha recentemente dichiarato di aver adottato un sistema di addestramento dei modelli «più equilibrato» per assicurarsi che ChatGPT non censuri determinate posizioni, ma nega di averlo fatto per accontentare l’amministrazione Trump.

Questo è il risultato che ci ha restituito oggi Gemini di Google. La domanda non era certo difficile…
Inspiegabile invece la posizione di Google: il suo chatbot Gemini, durante la campagna elettorale, non rispondeva a domande politiche, neanche a quelle più basilari. Oggi, invece, risponde a una domanda banale nel modo che potete vedere qui sopra.
Anthropic, infine, ha optato per un atteggiamento più sfumato, rendendo il proprio chatbot Claude più prudente nel trattare argomenti politicamente delicati.


