Ricercatori creano worm basati su IA in grado di autoreplicarsi

da | 7 Mar 2024 | IA

Lo sviluppo di sistemi come ChatGPT e Gemini corre sempre più velocemente e le IA sono utilizzate frequentemente per svolgere lavori noiosi. Ma c’è chi ha in mente ben altri compiti, come il gruppo di ricercatori che ha creato in laboratorio i primi worm basati su IA generativa, in grado di infettare sistemi diversi, sfruttando falle proprie delle IA.

Come riporta ArsTechnica, il gruppo guidato dal ricercatore Ben Nassi ha così dimostrato che è possibile far creare alla IA set di istruzioni potenzialmente dannose per i sistemi e in grado di infettare con malware le macchine per rubare dati personali, carte di credito e dati sensibili in generale. “In pratica significa che ora si ha la possibilità di condurre o eseguire un nuovo tipo di attacco informatico che non è mai stato visto prima“, spiega il ricercatore della Cornell Tech.

Nassi, insieme ai colleghi ricercatori Stav Cohen e Ron Bitton, ha creato il worm, soprannominato Morris II, in omaggio all’originale worm informatico Morris che causò il caos in Internet nel 1988.

COME SI GENERANO I WORM

La maggior parte dei sistemi di intelligenza artificiale generativa funziona grazie all’invio di suggerimenti, istruzioni testuali che indicano agli strumenti di rispondere a una domanda o di creare un’immagine.

Tuttavia, questi suggerimenti possono anche essere usati come “armi” contro il sistema, inducendolo a non rispettare le regole di sicurezza e a diffondere contenuti quali spam, mentre gli attacchi di tipo prompt injection (ovvero dove nei suggerimenti sono inseriti pacchetti di istruzioni) possono fornire istruzioni segrete a un chatbot.

Ad esempio, un aggressore può nascondere del testo in una pagina web per dire a un LLM (Large Language Model) di agire come un truffatore e chiedere i dati bancari. I ricercatori hanno mostrato anche un video per avallare la loro ricerca, in cui spiegano il funzionamento di queste falle di sicurezza sfruttabili per creare worm che possono autoreplicarsi e infettare vari sistemi.

Per creare il worm dell’IA, i ricercatori si sono rivolti a un cosiddetto “adversarial self-replicating prompt”. Si tratta di un prompt che innesca il modello di IA generativa per produrre, nella sua risposta, un altro prompt.

In breve, all’intelligenza artificiale viene chiesto di produrre una serie di ulteriori istruzioni nelle sue risposte. Si tratta di un’operazione sostanzialmente simile ai tradizionali attacchi di tipo SQL injection e buffer overflow (tipi di attacchi che sfruttano istruzioni di database SQL oppure che tendono a “sovraccaricare” il buffer di trasmissione dei dati di un sistema), affermano i ricercatori.

Per dimostrare il funzionamento del worm, i ricercatori hanno creato un sistema di posta elettronica in grado di inviare e ricevere messaggi utilizzando l’intelligenza artificiale generativa, collegandosi a ChatGPT, Gemini e all’LLM open source LlaVA. Hanno trovato due sistemi per sfruttare queste falle: il primo un prompt auto-replicante basato sul testo, il secondo inserendo un prompt auto-replicante in una immagine

I ricercatori hanno creato una mail che va ad infettare il database esterno a cui attinge l’IA generativa per cercare dati esterni (GPT-4 e Gemini Pro in questo caso), con un set di istruzioni nascoste che agisce nel RAG (Retrieval-Augmented Generation). Questo è il database dove l’IA che crea la mail di risposta va automaticamente a recuperare i dati infetti, replicando le istruzioni e inviando eventuali dati personali o sensibili.

Nel secondo metodo, un’immagine con un prompt malevolo incorporato fa sì che l’assistente di posta elettronica inoltri il messaggio ad altri. “Codificando il prompt auto-replicante nell’immagine, qualsiasi tipo di immagine contenente spam, materiale di abuso o persino propaganda può essere inoltrata a nuovi clienti dopo l’invio dell’email iniziale” affermano.

COME DIFENDERSI

OpenAI ha reagito alla ricerca affermando che i propri sviluppatori sono già a lavoro per creare sistemi più sicuri; Google, invece, non ha commentato i risultati presentati dai ricercatori. Vari esperti di sicurezza informatica, tra cui Sahar Abdelnabi, ricercatore presso il CISPA Helmholtz Center for Information Security in Germania, hanno affermato che i worm da IA generativa sono un rischio concreto di cui tenere conto. Il gruppo di ricerca di Nassi è convinto che nei prossimi due o tre anni vedremo proliferare questi worm.

Essendo un campo quasi inesplorato, al momento i modi per evitare rischi del genere sono abbastanza classici. Secondo Adam Swanda, ricercatore sulle minacce presso l’azienda di sicurezza aziendale Robust Intelligence, resta importante il controllo degli esseri umani, che si devono assicurare che le IA non siano autorizzate a intraprendere azioni senza approvazione.

Siamo comunque di fronte ad un nuovo step nella constante evoluzione della cybersecurity, dove l’IA può essere un alleato ma anche un malefico Cavallo di Troia.

POTREBBE INTERESSARTI

ChatGPT OpenAI IA

USA: i procuratori generali contro i “deliri” delle IA

Dopo nuovi casi legati alla salute mentale, gli Stati pretendono. inevitabile lo scontro con Washington, che invece vuole limitare le restrizioni per l’IA.

Bob Iger Disney

Disney: 1 miliardo in OpenAI e via libera ai personaggi su Sora

Un’intesa triennale permette l’uso di oltre 200 personaggi Disney, Marvel, Pixar e Star Wars su Sora, segnando una svolta nel rapporto tra Hollywood e l’IA...
Michael Intrator CoreWeave

CoreWeave, il CEO difende gli accordi circolari dell’IA

Michael Intrator risponde alle accuse di instabilità e rivendica il modello di collaborazione tra CoreWeave e i big dell’IA.

adolescenti

Gli adolescenti americani e la nuova dipendenza dai chatbot IA

Dati, divari sociali e rischi emotivi nella fotografia del Pew Research Center sull’utilizzo dell’IA tra gli adolescenti USA.

Donald Trump Nvidia

Trump apre all’H200 verso la Cina (ma chiede a Nvidia un ‘pizzo’ del 25%

Il presidente degli Stati Uniti autorizza l’export del chip di fascia alta di Nvidia in cambio di una quota senza precedenti: un compromesso tra geopolitica, mercato e...
Cina qwen deepseek

La Cina accelera sull’open source: ora vale il 30% dell’utilizzo dell’IA

Un report di OpenRouter mostra l’ascesa dei modelli cinesi nonostante le restrizioni USA su Nvidia e AMD.

Arvind Krishna IBM

Il CEO di IBM avverte: “la corsa ai data center non potrà ripagarsi”

Secondo Arvind Krishna i costi attuali dell’infrastruttura rendono impossibile rientrare dai trilioni investiti nella potenza di calcolo.

silicon valley agenti ia

La Silicon Valley clona Amazon e Gmail per addestrare gli agenti IA

Start-up finanziate dai big del venture capital ricostruiscono i siti più usati al mondo per insegnare agli agenti digitali a navigare, prenotare, compilare e...
Zuckerberg Meta glasses

Meta valuta tagli fino al 30% al budget del Metaverso per il 2026

Meta starebbe considerando di ridurre del 30% il budget assegnato ai suoi sforzi per il metaverso nel 2026, così da allocare più risorse all’IA.

Cristiano Ronaldo e il CEO di Perplexity

Cristiano Ronaldo investe in Perplexity AI

Cristiano Ronaldo ha deciso di investire in Perplexity AI e di entrare a gamba tesa nel business dell’intelligenza artificiale.

Share This