Anthropic sfida a testare il suo nuovo sistema di sicurezza

da | 7 Feb 2025 | IA

Anthropic ha presentato Constitutional Classifiers, un innovativo sistema di sicurezza basato sull’intelligenza artificiale che ha già dato risultati promettenti.

Ora l’azienda invita il pubblico a metterlo alla prova, dopo che ha resistito a oltre 3.000 ore di tentativi falliti di violazione.

A prova di jailbreak

Il sistema è progettato per proteggere Claude 3.5 Sonnet, l’IA di Anthropic, e gli LLM alla base del suo sviluppo.

In particolare, utilizza l’intelligenza artificiale per generare dati di addestramento in più lingue e stili di scrittura, migliorando la capacità di rilevare tentativi di violazione.

Uno dei metodi più utilizzati per aggirare la sicurezza delle IA sfrutta le vulnerabilità insite nei modelli linguistici di grandi dimensioni (LLM), che, essendo basati su vasti database, possono offrire punti d’accesso non previsti.

Al centro di queste tecniche c’è il concetto di jailbreak, ovvero la possibilità di rimuovere le restrizioni imposte dai produttori per ottenere risposte dannose o pericolose. Questo compromette l’obiettivo principale dell’intelligenza artificiale, ovvero essere una tecnologia di supporto alle persone.

Contro il red-teaming automatizzato

Il Constitutional Classifier di Anthropic si basa su un principio simile alla Constitutional AI, già utilizzata per costruire Claude. Il sistema si fonda su un insieme di regole in linguaggio naturale che stabiliscono quali contenuti siano accettabili e quali vietati.

Ad esempio, può consentire la condivisione di informazioni sui farmaci più comuni ma bloccare dettagli sull’acquisizione di sostanze chimiche regolamentate.

Per rafforzare questa protezione, Anthropic ha sviluppato un processo in cui Claude genera automaticamente richieste di esempio che potrebbero portare a risposte sia accettabili che inaccettabili in base alla sua “costituzione”.

Queste richieste vengono poi tradotte in più lingue e modificate seguendo schemi tipici dei jailbreak noti, per testarne la resistenza. A queste si aggiungono tentativi di attacco tramite red-teaming automatizzato, un approccio alla sicurezza in cui sistemi AI simulano attacchi informatici per individuare vulnerabilità.

A differenza del red-teaming tradizionale, che coinvolge esperti umani, il processo automatizzato permette di eseguire test su larga scala e in modo continuo.

I risultati finora ottenuti sono notevoli: su 10.000 tentativi di jailbreak avanzato, il sistema ha bloccato il 95,6% degli attacchi, contro il solo 14% della versione non protetta di Claude.

Una ‘taglia’ sulla testa di Anthropic

Per testare ulteriormente la solidità del sistema, da agosto Anthropic ha avviato un programma di bug bounty attraverso HackerOne, offrendo fino a 15.000 dollari a chiunque riuscisse a progettare un jailbreak universale capace di aggirare le protezioni e ottenere risposte a 10 domande proibite.

Finora, 183 esperti hanno dedicato oltre 3.000 ore a tentare l’impresa, ma il miglior risultato ottenuto ha permesso di ottenere risposte solo per cinque delle 10 domande.

I test si concluderanno il 10 febbraio, ma i risultati preliminari sembrano confermare l’efficacia del sistema in termini di sicurezza. Con l’evoluzione continua dei modelli di IA, diventa sempre più cruciale prevenire manipolazioni che potrebbero causare danni.

Mentre la maggior parte delle aziende punta sulla formazione per migliorare la sicurezza delle IA, Anthropic ha scelto un approccio innovativo, utilizzando la stessa intelligenza artificiale per sviluppare un sistema di protezione avanzato.

Nei prossimi mesi sarà interessante vedere se questa strategia aprirà nuove prospettive per la sicurezza informatica.

POTREBBE INTERESSARTI

ChatGPT OpenAI IA

USA: i procuratori generali contro i “deliri” delle IA

Dopo nuovi casi legati alla salute mentale, gli Stati pretendono. inevitabile lo scontro con Washington, che invece vuole limitare le restrizioni per l’IA.

Bob Iger Disney

Disney: 1 miliardo in OpenAI e via libera ai personaggi su Sora

Un’intesa triennale permette l’uso di oltre 200 personaggi Disney, Marvel, Pixar e Star Wars su Sora, segnando una svolta nel rapporto tra Hollywood e l’IA...
Michael Intrator CoreWeave

CoreWeave, il CEO difende gli accordi circolari dell’IA

Michael Intrator risponde alle accuse di instabilità e rivendica il modello di collaborazione tra CoreWeave e i big dell’IA.

adolescenti

Gli adolescenti americani e la nuova dipendenza dai chatbot IA

Dati, divari sociali e rischi emotivi nella fotografia del Pew Research Center sull’utilizzo dell’IA tra gli adolescenti USA.

Donald Trump Nvidia

Trump apre all’H200 verso la Cina (ma chiede a Nvidia un ‘pizzo’ del 25%

Il presidente degli Stati Uniti autorizza l’export del chip di fascia alta di Nvidia in cambio di una quota senza precedenti: un compromesso tra geopolitica, mercato e...
Cina qwen deepseek

La Cina accelera sull’open source: ora vale il 30% dell’utilizzo dell’IA

Un report di OpenRouter mostra l’ascesa dei modelli cinesi nonostante le restrizioni USA su Nvidia e AMD.

Arvind Krishna IBM

Il CEO di IBM avverte: “la corsa ai data center non potrà ripagarsi”

Secondo Arvind Krishna i costi attuali dell’infrastruttura rendono impossibile rientrare dai trilioni investiti nella potenza di calcolo.

silicon valley agenti ia

La Silicon Valley clona Amazon e Gmail per addestrare gli agenti IA

Start-up finanziate dai big del venture capital ricostruiscono i siti più usati al mondo per insegnare agli agenti digitali a navigare, prenotare, compilare e...
Zuckerberg Meta glasses

Meta valuta tagli fino al 30% al budget del Metaverso per il 2026

Meta starebbe considerando di ridurre del 30% il budget assegnato ai suoi sforzi per il metaverso nel 2026, così da allocare più risorse all’IA.

Cristiano Ronaldo e il CEO di Perplexity

Cristiano Ronaldo investe in Perplexity AI

Cristiano Ronaldo ha deciso di investire in Perplexity AI e di entrare a gamba tesa nel business dell’intelligenza artificiale.

Share This