Anthropic ha presentato Constitutional Classifiers, un innovativo sistema di sicurezza basato sull’intelligenza artificiale che ha già dato risultati promettenti.
Ora l’azienda invita il pubblico a metterlo alla prova, dopo che ha resistito a oltre 3.000 ore di tentativi falliti di violazione.
A prova di jailbreak
Il sistema è progettato per proteggere Claude 3.5 Sonnet, l’IA di Anthropic, e gli LLM alla base del suo sviluppo.
In particolare, utilizza l’intelligenza artificiale per generare dati di addestramento in più lingue e stili di scrittura, migliorando la capacità di rilevare tentativi di violazione.
Uno dei metodi più utilizzati per aggirare la sicurezza delle IA sfrutta le vulnerabilità insite nei modelli linguistici di grandi dimensioni (LLM), che, essendo basati su vasti database, possono offrire punti d’accesso non previsti.
Al centro di queste tecniche c’è il concetto di jailbreak, ovvero la possibilità di rimuovere le restrizioni imposte dai produttori per ottenere risposte dannose o pericolose. Questo compromette l’obiettivo principale dell’intelligenza artificiale, ovvero essere una tecnologia di supporto alle persone.
Contro il red-teaming automatizzato
Il Constitutional Classifier di Anthropic si basa su un principio simile alla Constitutional AI, già utilizzata per costruire Claude. Il sistema si fonda su un insieme di regole in linguaggio naturale che stabiliscono quali contenuti siano accettabili e quali vietati.
Ad esempio, può consentire la condivisione di informazioni sui farmaci più comuni ma bloccare dettagli sull’acquisizione di sostanze chimiche regolamentate.
Per rafforzare questa protezione, Anthropic ha sviluppato un processo in cui Claude genera automaticamente richieste di esempio che potrebbero portare a risposte sia accettabili che inaccettabili in base alla sua “costituzione”.
Queste richieste vengono poi tradotte in più lingue e modificate seguendo schemi tipici dei jailbreak noti, per testarne la resistenza. A queste si aggiungono tentativi di attacco tramite red-teaming automatizzato, un approccio alla sicurezza in cui sistemi AI simulano attacchi informatici per individuare vulnerabilità.
A differenza del red-teaming tradizionale, che coinvolge esperti umani, il processo automatizzato permette di eseguire test su larga scala e in modo continuo.
I risultati finora ottenuti sono notevoli: su 10.000 tentativi di jailbreak avanzato, il sistema ha bloccato il 95,6% degli attacchi, contro il solo 14% della versione non protetta di Claude.
Una ‘taglia’ sulla testa di Anthropic
Per testare ulteriormente la solidità del sistema, da agosto Anthropic ha avviato un programma di bug bounty attraverso HackerOne, offrendo fino a 15.000 dollari a chiunque riuscisse a progettare un jailbreak universale capace di aggirare le protezioni e ottenere risposte a 10 domande proibite.
Finora, 183 esperti hanno dedicato oltre 3.000 ore a tentare l’impresa, ma il miglior risultato ottenuto ha permesso di ottenere risposte solo per cinque delle 10 domande.
I test si concluderanno il 10 febbraio, ma i risultati preliminari sembrano confermare l’efficacia del sistema in termini di sicurezza. Con l’evoluzione continua dei modelli di IA, diventa sempre più cruciale prevenire manipolazioni che potrebbero causare danni.
Mentre la maggior parte delle aziende punta sulla formazione per migliorare la sicurezza delle IA, Anthropic ha scelto un approccio innovativo, utilizzando la stessa intelligenza artificiale per sviluppare un sistema di protezione avanzato.
Nei prossimi mesi sarà interessante vedere se questa strategia aprirà nuove prospettive per la sicurezza informatica.


