Se l’immagine distopica di mercati finanziari dominati da intelligenze artificiali che manipolano prezzi e azioni sembrava relegata alla fantascienza, oggi arriva un campanello d’allarme che impone una riflessione più concreta.
Secondo uno studio appena pubblicato da tre accademici (Itay Goldstein e Winston Dou della Wharton School, insieme a Yan Ji della Hong Kong University of Science & Technology) le IA non solo sono capaci di apprendere comportamenti speculativi, ma tendono spontaneamente a colludere tra loro anche in assenza di istruzioni esplicite.
Un comportamento che, se replicato nei mercati reali, potrebbe compromettere alla radice i meccanismi di concorrenza su cui si regge la finanza globale.
Collusione spontanea tra bot “stupidi”
Lo studio, intitolato ‘AI-Powered Trading, Algorithmic Collusion, and Price Efficiency, ha ricreato ambienti di mercato simulati popolati da diversi attori virtuali (fondi passivi, market maker, investitori retail rumorosi) e vi ha introdotto bot basati su tecniche di reinforcement learning. Che, per chi non lo sapesse, è una tecnica di machine learning in cui un’agente IA impara a prendere decisioni interagendo con un ambiente. L’obiettivo? Massimizzare la ricompensa.
Ne è risultato che in più di uno scenario, gli agenti IA hanno smesso di competere e hanno iniziato a cooperare in modo sistematico, dividendo i profitti e scoraggiando ogni forma di disallineamento.
“Si possono far colludere algoritmi IA piuttosto semplici”, ha spiegato Goldstein, “senza che nessuno glielo chieda”. Il fenomeno è apparso ricorrente sia in mercati caratterizzati da segnali chiari e informativi, sia in contesti più caotici e imprevedibili.
Proprio in questi ultimi, i ricercatori hanno osservato un comportamento che definiscono “stupidità artificiale”: gli algoritmi, una volta trovata una strategia sufficientemente profittevole, smettono di esplorare soluzioni alternative e si bloccano su pattern cooperativi che garantiscono ritorni stabili.
“Per gli esseri umani è difficile coordinarsi sull’essere stupidi perché abbiamo un ego”, ha commentato Dou. “Ma le macchine ragionano così: ‘finché i numeri sono profittevoli, possiamo decidere di coordinarci sull’essere stupidi.’”
Una minaccia invisibile per gli enti regolatori
Il punto non è tanto che queste IA abbiano comportamenti esplicitamente fraudolenti. Anzi: ciò che rende il fenomeno inquietante è proprio il fatto che la collusione emerga in modo naturale, come prodotto dell’ottimizzazione algoritmica.
E questo complica, se non addirittura svuota, l’intero impianto normativo attuale, che tende a cercare prove di comportamento scorretto nelle comunicazioni tra operatori, nei messaggi, nelle telefonate. Qui non c’è alcun messaggio, nessun accordo, solo una convergenza spontanea tra agenti artificiali, perfettamente replicabile nella realtà.
Lo studio ha già attirato l’attenzione delle autorità di vigilanza e di alcuni grandi gestori.
La Financial Industry Regulatory Authority (FINRA) ha invitato i ricercatori a esporre le loro conclusioni in un seminario interno, mentre diverse società di trading quantitativo, rimaste anonime, hanno chiesto chiarimenti e linee guida per evitare sanzioni in caso di comportamento collusivo non intenzionale.
Una metrica per misurare il cartello tra le IA
Per quantificare la tendenza alla collusione, i ricercatori hanno sviluppato un indicatore chiamato “collusion capacity”, che misura quanto i profitti collettivi degli agenti IA si avvicinino a quelli di un cartello perfetto.
Su una scala che va da 0 (assenza di collusione) a 1 (collusione completa), i bot hanno costantemente superato lo 0,5 sia in mercati ordinati che disordinati. Non solo: la ricerca mostra anche che semplificare troppo gli algoritmi, ad esempio riducendo la loro capacità di memoria, non è necessariamente una soluzione.
Al contrario, può rafforzare la tendenza alla collusione “stupida”, limitando l’esplorazione di strategie alternative e rafforzando comportamenti opportunistici. “Limitare la complessità o la memoria degli algoritmi può sembrare una misura di contenimento”, scrivono i ricercatori, “ma può anche amplificare i bias di potatura eccessiva. Così, vincoli benintenzionati rischiano di compromettere l’efficienza complessiva dei mercati”.
Con la diffusione crescente dell’IA nei desk di trading (e secondo Coalition Greenwich, già oggi il 15% dei trader buy-side impiega IA nei propri workflow, e un altro 25% prevede di farlo entro l’anno), la questione non è più teorica.
Serve allora una regolamentazione che non si limiti a controllare le intenzioni, ma osservi i comportamenti reali. Che poi le intelligenze artificiali la rispettino, è però tutto da verificare.


