La notizia è di quelle che sorprendono. Non per i fatti che riporta ma perché c’è chi se ne stupisce, come se l’accaduto fosse qualcosa d’imprevedibile. Per cui ecco Microsoft rivelare che gli hacker sostenuti dai governi di Cina, Russia e Iran starebbero utilizzando ChatGPT per affinare le loro tecniche e ingannare meglio le proprie vittime.
Calcolando che l’intelligenza artificiale di OpenAI viene usata dal 92% delle aziende Top 500 Fortune e probabilmente con la stessa percentuale dagli studenti che vogliono finire prima i compiti, non si capisce perché secondo Microsoft gli hacker, soprattutto se di stato, dovrebbero invece elaborare e attuare i propri piani servendosi ancora del pallottoliere.
Microsoft evidentemente non si pone questa domanda e prosegue evidenziando che il suo report nasce dopo aver monitorato gruppi di hacker affiliati all’intelligence militare russa, alla Guardia Rivoluzionaria dell’Iran e al governo cinese. Stando a Microsoft, gli hacker russi indagano su tecnologie satellitari e radar per operazioni militari in Ucraina; i nordcoreani generano contenuti per campagne di phishing mirato; gli iraniani usano l’IA per migliorare la credibilità delle loro email; i cinesi invece studierebbero le agenzie di intelligence rivali e questioni di sicurezza informatica.
Microsoft ha quindi introdotto il divieto totale all’utilizzo dei suoi prodotti di intelligenza artificiale da parte di gruppi hacker supportati dallo stato. Un divieto che, ne siamo sicuri, verrà prenso molto seriamente.
“Indipendentemente dal fatto che vi sia o meno una violazione della legge o dei termini di servizio, non vogliamo che questi attori, che abbiamo identificato e monitorato, e che sappiamo essere soggetti minacciosi, abbiano accesso a questa tecnologia”, ha dichiarato a Reuters Tom Burt, vicepresidente di Microsoft per la sicurezza dei clienti.
Prevedibilmente, i funzionari diplomatici di Russia, Corea del Nord e Iran non hanno commentato le accuse. Liu Pengyu, portavoce dell’ambasciata cinese negli USA, le ha invece respinte definendole “calunnie infondate” e sostenendo l’impiego “sicuro, affidabile e controllabile” delle tecnologie di intelligenza artificiale per “migliorare il benessere comune di tutta l’umanità”. Ne siamo tutti sicuri.
L’uso dell’IA da parte di hacker supportati dallo stato solleva preoccupazioni sulla diffusione e l’abuso potenziale di questa tecnologia. Bob Rotsted, a capo dell’intelligence di OpenAI dedicata alle minacce informatiche, descrive questo caso come uno dei primi in cui un’azienda di intelligenza artificiale discute pubblicamente l’uso delle proprie tecnologie da parte di cybercriminali.
Né Burt né Rotsted si sono espressi sul volume di attività o sul numero di account sospesi. Tom Burt riferisce che l’utilizzo degli strumenti di IA da parte degli hacker è ancora in “fase iniziale” e “incrementale”, sebbene finora non siano stati osservati progressi significativi da parte delle intelligence nell’uso di queste tecnologie.
Dal canto nostro non possiamo che limitarci a ricordare che due settimane fa Trend Micro ha presentato in una conferenza stampa l’edizione annuale del report Critical Scalability, che spiegava le principali minacce digitali del 2024. In esso veniva anticipato tutto ciò di cui si stupisce oggi Microsoft. E anche di più.


