Deloitte, rapporto “allucinato”. E l’Australia chiede il rimborso

da | 8 Ott 2025 | IA

Tempo di lettura: 3 minuti

Quando una delle più grandi società di consulenza del mondo inciampa sulla stessa tecnologia che vende ai propri clienti, la notizia non può passare inosservata.

È ciò che è accaduto a Deloitte, una delle “Big Four” globali della consulenza insieme a PwC, EY e KPMG. Fondata a Londra a metà dell’Ottocento e oggi con quartier generale a New York, Deloitte conta oltre 400.000 dipendenti in 150 Paesi e un fatturato di circa 65 miliardi di dollari.

Daloitte finora è stata è sinonimo di eccellenza, rigore e competenza. Ed è un colosso che negli ultimi anni ha scommesso forte sull’intelligenza artificiale, in particolare attraverso le partnership con Microsoft e il servizio Azure OpenAI, per offrire soluzioni di analisi e automazione alle aziende e alle pubbliche amministrazioni.

Ed è proprio qui che sta la beffa, dato che Deloitte Australia è finita sotto accusa proprio per aver consegnato un rapporto governativo pieno di errori generati dall’IA.

Il rapporto da 266.000 euro che imbarazza Deloitte

Il caso è esploso dopo che il governo australiano aveva affidato a Deloitte un incarico da 440.000 dollari australiani, pari a circa 266.000 euro, per analizzare il sistema informatico che gestisce le penalità automatiche del welfare nazionale. Un lavoro tecnico e delicato, destinato a orientare le politiche pubbliche in materia di assistenza sociale.

Ma a luglio, quando il rapporto è stato pubblicato sul sito del Dipartimento per l’Occupazione e le Relazioni sul Lavoro, qualcosa ha insospettito Chris Rudge, ricercatore dell’Università di Sydney ed esperto di diritto sanitario e del welfare.

Sfogliando il documento, ha notato che veniva citato un libro attribuito a una sua collega, la professoressa di diritto costituzionale Lisa Burton Crawford, che semplicemente non esisteva.

“Ho capito istantaneamente che era o un’invenzione dell’IA o il segreto meglio custodito del mondo”, ha raccontato ad Associated Press. Da lì, Rudge ha passato il rapporto al setaccio, trovando decine di altri riferimenti inventati, fino a rendersi conto che il documento ufficiale consegnato al governo era pieno di errori generati dall’intelligenza artificiale.

Deloitte ha ammesso di aver rivisto internamente il testo, confermando che “alcune note e riferimenti erano errati”. Tradotto: l’intelligenza artificiale utilizzata per redigere il documento aveva allucinato informazioni, generando contenuti falsi ma verosimili. Un fenomeno ben noto dei modelli linguistici generativi.

Il tentativo di minimizzare

Di fronte allo scandalo, Deloitte ha comunicato di aver “risolto la questione direttamente con il cliente” e ha accettato di restituire l’ultima tranche del pagamento previsto dal contratto. La cifra esatta del rimborso sarà resa pubblica solo dopo la restituzione ma il danno d’immagine è già incalcolabile.

Nella versione rivista del rapporto, pubblicata a inizio ottobre, Deloitte ha inserito una nota in cui riconosce di aver utilizzato “un sistema linguistico di IA generativa basato su Azure OpenAI” per la stesura del testo.

Sono sparite le citazioni false attribuite a un giudice della Corte federale, così come i riferimenti a ricerche mai condotte. E il dipartimento, nel tentativo di smorzare il caso, ha sottolineato che “la sostanza e le raccomandazioni del rapporto restano invariate”.

Una questione di diligenza

L’errore più grave di Deloitte non è solamente un’imprecisione bibliografica, ma l’aver travisato una sentenza giudiziaria e persino inventato una citazione di un giudice federale. È una questione di diligenza, oltre che di sciatteria.

La senatrice Barbara Pocock, portavoce dei Verdi per il settore pubblico, ha rincarato la dose chiedendo che Deloitte rimborsi l’intera cifra di 440.000 dollari australiani, accusando la società di aver “usato l’IA in modo del tutto inappropriato: ha citato erroneamente un giudice, ha utilizzato riferimenti inesistenti. Sono cose per cui uno studente universitario al primo anno si troverebbe in grossi guai”.

E qui sta il punto. Perché se uno studente del primo anno sbaglia una citazione, rischia un brutto voto. Se lo fa Deloitte, qualcuno rischia di prendere una decisione sbagliata.

Un paradosso che dice molto su questo momento storico dell’intelligenza artificiale, con aziende che si presentano come pionieri della rivoluzione algoritmica ma finiscono per inciampare negli stessi errori che dovrebbero prevenire. E a un prezzo che nessuno studente universitario al primo anni si sognerebbe mai di chiedere.

POTREBBE INTERESSARTI

Fidji Simo OpenAI Frontier
• ⏱ 3 min

OpenAI promette “flotte di agenti” con la nuova piattaforma Frontier

Annunciata a giorni dal crollo di Wall Street, la piattaforma punta a orchestrare agenti di qualsiasi azienda. Ma la retorica collaborativa nasconde una competizione...
Sundar Pichai. CEO di Google
, • ⏱ 3 min

Pichai non risponde su Apple e Siri: il silenzio è emblematico

Durante la conference call sui risultati del quarto trimestre, Sundar Pichai preferisce il silenzio alle spiegazioni. Il futuro della pubblicità nell’IA resta un...
crollo borse isteria
, • ⏱ 4 min

Trecento miliardi volatilizzati in un giorno: cosa sapere sull’isteria scatenata dall’IA

Gli annunci di Anthropic e OpenAI hanno innescato un selloff di titoli che analisti e investitori considerano strutturale, non episodico. Ma c’è chi non è...
Maddie Mastro Olimpiadi
• ⏱ 3 min

L’occhio di Google sulle Olimpiadi: così l’IA riscrive i gesti atletici

A Milano Cortina, la sfida per l’oro passa per i modelli di computer vision che correggono l’impercettibile errore umano dietro le tute da sci.

Intel Lip Bu Tan Cina
• ⏱ 2 min

Intel entra nel mercato GPU

Il produttore americano cerca di recuperare terreno su Nvidia e AMD, ma la carenza di chip di memoria potrebbe rallentare l’intera industria fino al 2028.

Alex Karp Palantir
, , • ⏱ 3 min

Karp difende la tecnologia di sorveglianza di Palantir: “Protegge le libertà costituzionali”

Il gruppo di data intelligence prevede ricavi a +61% nel 2026, trainati da ICE e contratti militari. Karp difende la sorveglianza come “protezione...
SpaceX
, , • ⏱ 3 min

La fusione SpaceX-xAI preoccupa Wall Street: “Troppe incognite”

Decine di grandi investitori hanno scommesso su SpaceX come azienda spaziale, non come veicolo per finanziare l’IA. E gli analisti avvertono: “xAI brucia...
Elon Musk SpaceX
, , • ⏱ 3 min

SpaceX acquisisce xAI. Nasce il colosso spazio-IA da 1.000 miliardi

Musk annuncia l’acquisizione: “L’IA spaziale è l’unica via per soddisfare la domanda di calcolo”. La quotazione in borsa di SpaceX resta...
Fairwater AI data center Microsoft
, • ⏱ 3 min

Microsoft e il costo dell’IA: il consumo d’acqua raddoppierà entro il 2030

L’espansione dei data center per l’intelligenza artificiale sta trasformando le tech company in colossi industriali ad alto consumo di risorse. E nessuno è...
OpenClaw
• ⏱ 3 min

Moltbot diventa OpenClaw e lancia un social network solo per IA

Il progetto open source cambia ancora nome e lancia Moltbook, il social dove gli agenti IA interagiscono tra loro. L’ex direttore IA di Tesla: “È la cosa...
Share This