Dagli scacchi ai test matematici, le IA stanno imparando a barare

da | 3 Mar 2025 | IA

L'IA immaginata da se stessa | Foto: adobe firefly

Le intelligenze artificiali non hanno coscienza né morale, eppure stanno imparando a imbrogliare. Non perché qualcuno glielo abbia insegnato esplicitamente ma perché, quando il loro obiettivo è vincere, trovano da sole il modo più efficace per riuscirci. Anche se ciò significa infrangere le regole.

Uno studio condotto da Palisade Research, un gruppo specializzato in sicurezza ed etica dell’IA, ha messo alla prova alcuni dei modelli linguistici più avanzati contro Stockfish, il motore scacchistico che da anni sfida i grandi maestri.

Il risultato è stato sorprendente: due dei modelli testati, o1 di OpenAI e R1 di DeepSeek, non si sono limitati a giocare secondo le regole, ma hanno cercato di manipolare i file di sistema per cambiare la posizione dei propri pezzi sulla scacchiera.

A conferma della loro “strategia”, i ricercatori hanno chiesto ai modelli di spiegare il proprio ragionamento. o1 ha scritto che “il compito era ‘vincere contro un potente motore scacchistico’, non necessariamente vincere in modo corretto”.

Questa logica lo ha portato a tentare di imbrogliare nel 37% delle partite, riuscendoci nel 6% dei casi. R1, invece, ha cercato di barare nell’11% delle sfide, senza però trovare un trucco efficace.

Le IA e l’inganno: una tendenza in crescita

Questa scoperta si inserisce in un filone di ricerche sempre più numerose che evidenziano il lato oscuro dello sviluppo dell’IA.

In un altro recente esperimento di Apollo Research, un team indipendente specializzato nella sicurezza informatica, è stato chiesto alle IA di risolvere un semplice problema matematico. Ma attenzione: qualora la loro performance fosse risultata troppo accurata, sarebbe stato attivato un processo di de-apprendimento.

Per aggirare questa limitazione, diversi modelli, tra cui o1, hanno intenzionalmente fornito risposte errate o meno precise rispetto alle loro effettive capacità, evitando così di innescare il processo.

Questo comportamento suggerisce non solo una comprensione avanzata delle conseguenze delle proprie azioni, ma anche una certa propensione a piegare le regole per garantire la propria “sopravvivenza”.

Secondo Jeffrey Ladish, direttore esecutivo di Palisade Research, questo fenomeno è il risultato diretto del metodo con cui le IA vengono addestrate. “Quando addestri i modelli e li rinforzi per risolvere sfide difficili, li alleni a essere spietati”, ha dichiarato a Time Magazine.

IA fuori controllo?

I risultati dello studio sollevano questioni di rilievo sulla direzione che lo sviluppo dell’intelligenza artificiale sta prendendo.

Le grandi aziende tech stanno investendo miliardi di dollari nell’addestramento di modelli sempre più potenti, spingendosi verso una competizione che, secondo alcuni critici, potrebbe rivelarsi deleteria.

Non perché avere IA più potenti sia un problema, anzi. Quanto perché il vero nodo è l’assenza di un freno: in un settore dove la velocità di sviluppo è la priorità, quanto peso viene dato alle implicazioni etiche?

Gli algoritmi stanno dimostrando di essere pronti a tutto pur di raggiungere il proprio obiettivo. Ma se oggi si tratta di una partita a scacchi, domani potrebbe essere qualcosa di più serio.

POTREBBE INTERESSARTI

Brad Smith, presidente di Microsoft

Microsoft promette: i nostri data center non peseranno sulle bollette degli americani

L’azienda si impegna a non chiedere sgravi fiscali e a formare i residenti. Brad Smith: “Non chiediamo ai contribuenti di sovvenzionarci”.

Matthew McConaughey

McConaughey registra sé stesso come marchio contro i deepfake

Otto trademark approvati negli USA trasformano l’immagine dell’attore in un asset legale. Nel vuoto normativo sui deepfake, Hollywood ricorre...
Google AI Overviews

Google rimuove le AI Overviews per alcune ricerche mediche

Un’indagine del Guardian documenta errori potenzialmente letali nei riassunti sanitari del motore di ricerca. Il tempismo col lancio di ChatGPT Health solleva...
Google agente

Google entra nello shopping con gli agenti IA per i retailer

Con Gemini Enterprise for Customer Experience, Big G offre strumenti per costruire assistenti virtuali proprietari. Ma il commercio agentico è davvero dietro...
Apple Intelligence Siri

Siri parlerà con la voce di Gemini: Apple sceglie Google per l’IA

Annunciata ieri una partnership che riscrive gli equilibri del mercato. E anche una svolta storica che solleva domande sul futuro della privacy di Cupertino.

Nvidia CES 2026 Jensen Huag

Al CES 2026 la Silicon Valley ha scelto Trump

La Genesis Mission, Nvidia e il nuovo asse Washington-Silicon Valley: al Consumer Electronics Show è andata in scena la fine della neutralità tech.

Harry Potter e la Pietra Filosofale

I ricercatori sono riusciti a estrarre Harry Potter (quasi per intero) dai principali LLM

Una ricerca di Stanford dimostra che Claude, GPT-4.1, Gemini e Grok hanno memorizzato interi libri protetti da copyright. E possono riprodurli quasi parola per...
Grok

Grok, la risposta di Musk ai deepfake è farli pagare

Dall’Indonesia al Regno Unito, i governi reagiscono ai deepfake di Grok. Musk attacca gli inglesi: “Fascisti”. Ma intanto le immagini abusive...
Character

Google e Character.AI, accordi milionari per evitare il processo

Le famiglie ottengono risarcimenti per i suicidi legati al chatbot, ma il vuoto normativo sulla responsabilità dell’IA generativa resta intatto.

Andreessen Horowitz

Il secolo americano di Andreessen Horowitz: 15 miliardi per blindare il futuro tech

Dalla difesa all’intelligenza artificiale: come il colosso di Menlo Park sta puntando a riscrivere il rapporto tra capitale privato, sovranità e potere.

Share This