Quando una delle più grandi società di consulenza del mondo inciampa sulla stessa tecnologia che vende ai propri clienti, la notizia non può passare inosservata.
È ciò che è accaduto a Deloitte, una delle “Big Four” globali della consulenza insieme a PwC, EY e KPMG. Fondata a Londra a metà dell’Ottocento e oggi con quartier generale a New York, Deloitte conta oltre 400.000 dipendenti in 150 Paesi e un fatturato di circa 65 miliardi di dollari.
Daloitte finora è stata è sinonimo di eccellenza, rigore e competenza. Ed è un colosso che negli ultimi anni ha scommesso forte sull’intelligenza artificiale, in particolare attraverso le partnership con Microsoft e il servizio Azure OpenAI, per offrire soluzioni di analisi e automazione alle aziende e alle pubbliche amministrazioni.
Ed è proprio qui che sta la beffa, dato che Deloitte Australia è finita sotto accusa proprio per aver consegnato un rapporto governativo pieno di errori generati dall’IA.
Il rapporto da 266.000 euro che imbarazza Deloitte
Il caso è esploso dopo che il governo australiano aveva affidato a Deloitte un incarico da 440.000 dollari australiani, pari a circa 266.000 euro, per analizzare il sistema informatico che gestisce le penalità automatiche del welfare nazionale. Un lavoro tecnico e delicato, destinato a orientare le politiche pubbliche in materia di assistenza sociale.
Ma a luglio, quando il rapporto è stato pubblicato sul sito del Dipartimento per l’Occupazione e le Relazioni sul Lavoro, qualcosa ha insospettito Chris Rudge, ricercatore dell’Università di Sydney ed esperto di diritto sanitario e del welfare.
Sfogliando il documento, ha notato che veniva citato un libro attribuito a una sua collega, la professoressa di diritto costituzionale Lisa Burton Crawford, che semplicemente non esisteva.
“Ho capito istantaneamente che era o un’invenzione dell’IA o il segreto meglio custodito del mondo”, ha raccontato ad Associated Press. Da lì, Rudge ha passato il rapporto al setaccio, trovando decine di altri riferimenti inventati, fino a rendersi conto che il documento ufficiale consegnato al governo era pieno di errori generati dall’intelligenza artificiale.
Deloitte ha ammesso di aver rivisto internamente il testo, confermando che “alcune note e riferimenti erano errati”. Tradotto: l’intelligenza artificiale utilizzata per redigere il documento aveva allucinato informazioni, generando contenuti falsi ma verosimili. Un fenomeno ben noto dei modelli linguistici generativi.
Il tentativo di minimizzare
Di fronte allo scandalo, Deloitte ha comunicato di aver “risolto la questione direttamente con il cliente” e ha accettato di restituire l’ultima tranche del pagamento previsto dal contratto. La cifra esatta del rimborso sarà resa pubblica solo dopo la restituzione ma il danno d’immagine è già incalcolabile.
Nella versione rivista del rapporto, pubblicata a inizio ottobre, Deloitte ha inserito una nota in cui riconosce di aver utilizzato “un sistema linguistico di IA generativa basato su Azure OpenAI” per la stesura del testo.
Sono sparite le citazioni false attribuite a un giudice della Corte federale, così come i riferimenti a ricerche mai condotte. E il dipartimento, nel tentativo di smorzare il caso, ha sottolineato che “la sostanza e le raccomandazioni del rapporto restano invariate”.
Una questione di diligenza
L’errore più grave di Deloitte non è solamente un’imprecisione bibliografica, ma l’aver travisato una sentenza giudiziaria e persino inventato una citazione di un giudice federale. È una questione di diligenza, oltre che di sciatteria.
La senatrice Barbara Pocock, portavoce dei Verdi per il settore pubblico, ha rincarato la dose chiedendo che Deloitte rimborsi l’intera cifra di 440.000 dollari australiani, accusando la società di aver “usato l’IA in modo del tutto inappropriato: ha citato erroneamente un giudice, ha utilizzato riferimenti inesistenti. Sono cose per cui uno studente universitario al primo anno si troverebbe in grossi guai”.
E qui sta il punto. Perché se uno studente del primo anno sbaglia una citazione, rischia un brutto voto. Se lo fa Deloitte, qualcuno rischia di prendere una decisione sbagliata.
Un paradosso che dice molto su questo momento storico dell’intelligenza artificiale, con aziende che si presentano come pionieri della rivoluzione algoritmica ma finiscono per inciampare negli stessi errori che dovrebbero prevenire. E a un prezzo che nessuno studente universitario al primo anni si sognerebbe mai di chiedere.


