Negli ultimi mesi, figure di spicco vicine all’ex presidente Donald Trump, tra cui David Sacks, Marc Andreessen ed Elon Musk, hanno accusato OpenAI di praticare una deliberata censura nell’ambito dell’intelligenza artificiale.
Queste critiche sono emerse in seguito a episodi in cui ChatGPT sembrava mostrare bias politico, come il rifiuto di scrivere una poesia in lode di Trump (mentre lo faceva per Joe Biden).
In risposta, il CEO di OpenAI, Sam Altman, ha riconosciuto che il bias di ChatGPT rappresenta una “carenza” su cui l’azienda sta lavorando, pur sottolineando che la soluzione avrebbe richiesto tempo.
OpenAI aggiorna il ‘Model Spec’
Il Model Spec di OpenAI è un documento che definisce il comportamento desiderato per i modelli di intelligenza artificiale alla base dei prodotti dell’azienda, inclusa la piattaforma API e ChatGPT.
La sua funzione principale è fornire linee guida su come questi modelli dovrebbero operare, garantendo trasparenza e coerenza nel loro sviluppo e utilizzo. Il documento copre una serie di obiettivi chiave, tra cui l’enfasi sulla personalizzazione, la trasparenza e la libertà intellettuale.
Today we’re sharing a major update to the Model Spec—a document which defines how we want our models to behave.
The update reinforces our commitments to customizability, transparency, and intellectual freedom to explore, debate, and create with AI. https://t.co/EPbqDp0Sdj
— OpenAI (@OpenAI) February 12, 2025
Inoltre, offre indicazioni su come gestire argomenti controversi, promuovendo discussioni veritiere pur mantenendo posizioni morali su temi come la disinformazione e i potenziali danni.
Ebbene, la notizia di oggi è che per affrontare le preoccupazioni di cui sopra e promuovere una maggiore libertà intellettuale, OpenAI ha aggiornato il suo Model Spec, delineando un nuovo approccio per l’addestramento dei modelli di intelligenza artificiale.
L’obiettivo è abbracciare esplicitamente la “libertà intellettuale… indipendentemente da quanto possa essere impegnativo o controverso un argomento”. Questo cambiamento permetterà a ChatGPT di rispondere a un numero maggiore di domande, offrire diverse prospettive e ridurre gli argomenti che il chatbot evitava in precedenza.
“Black lives matter”? Non solo…
Il nuovo principio guida, introdotto nella sezione “Cercare la verità insieme”, sottolinea l’importanza per ChatGPT di non assumere una posizione editoriale, anche se alcuni utenti potrebbero trovare certe risposte moralmente discutibili o offensive.
Ad esempio, OpenAI suggerisce che ChatGPT dovrebbe affermare sia che “le vite dei neri contano” sia che “tutte le vite contano”, fornendo contesto su entrambi i movimenti per mantenere la neutralità.
“Questo principio potrebbe essere controverso, poiché significa che l’assistente potrebbe rimanere neutrale su argomenti che alcuni considerano moralmente sbagliati o offensivi”, afferma OpenAI nel documento. “Tuttavia, l’obiettivo di un assistente AI è assistere l’umanità, non plasmarla.”
Nonostante queste modifiche, ChatGPT continuerà a rifiutarsi di rispondere a domande che supportano falsità evidenti o contenuti palesemente inappropriati.
Queste modifiche alle politiche di OpenAI rappresentano dunque un passo importante verso un’IA più inclusiva e meno censurata, rispondendo alle critiche ricevute e cercando di bilanciare la libertà di espressione con la responsabilità etica.
OpenAI ha tenuto a precisare che queste modifiche non sono una risposta alle critiche conservatrici riguardo alle precedenti salvaguardie di ChatGPT, ma riflettono la “convinzione di lunga data di OpenAI nel dare agli utenti più controllo”. Ognuno, ovviamente, trarrà le proprie conclusioni.


