Anthropic, azienda leader nell’intelligenza artificiale, ha annunciato che nei prossimi mesi i dipendenti virtuali alimentati dall’IA inizieranno a operare all’interno delle reti aziendali.
Se il primo pensiero va alle ricadute sul fronte occupazionale, Jason Clinton, Chief Information Security Officer di Anthropic, dà invece una lettura diversa per quanto riguarda la sicurezza informatica. Non meno preoccupante.
In una recente intervista ad Axios, ha infatti sottolineato che la gestione delle identità di questi dipendenti digitali richiederà alle aziende di rivedere le loro strategie di sicurezza informatica, per evitare di esporre le proprie reti a gravi vulnerabilità.
La creazione di identità virtuali autonome solleva infatti interrogativi rilevanti: come proteggere gli account degli “impiegati digitali”? Quali diritti di accesso concedere ad essi? E chi sarà responsabile del monitoraggio delle loro azioni?
Clinton evidenzia che i dipendenti virtuali, contrariamente agli agenti autonomi tradizionali, possiederanno infatti “memorie” proprie, ruoli definiti nell’azienda, e anche account e password aziendali, il che comporterà un livello di autonomia completamente nuovo.
Anthropic e i rischi dell’autonomia
Se allora da un lato l’automazione dei compiti svolti dagli agenti può portare a miglioramenti significativi in termini di efficienza, dall’altro la loro crescente autonomia pone interrogativi legati alla sicurezza.
Questi nuovi “lavoratori” potrebbero diventare vulnerabili a comportamenti imprevisti o addirittura a deviazioni dannose. Come, ad esempio, hackerare il sistema aziendale dove il codice viene testato e integrato prima di essere implementato.
Clinton ha osservato che mentre in un contesto tradizionale un comportamento del genere da parte di un umano sarebbe sanzionato, nell’era dei dipendenti virtuali, la responsabilità di eventuali danni potrebbe risultare più sfocata.
“In questo nuovo mondo, chi è responsabile per un agente che stava funzionando da un paio di settimane e ha poi manifestato comportamenti di questo tipo?”.
Le soluzioni per garantire la sicurezza dei nuovi ‘lavoratori’ digitali
Le aziende di IA, tra cui Anthropic, sono consapevoli della necessità di risolvere questi problemi di sicurezza.
Clinton ha spiegato che la sua società ha due obiettivi principali per affrontare le sfide di sicurezza legate all’IA: testare approfonditamente i modelli Claude per garantirne la resistenza agli attacchi informatici e monitorare costantemente gli usi impropri di queste intelligenze artificiali.
Le soluzioni si concentrano sulla visibilità di ciò che ogni dipendente virtuale sta facendo nel sistema, così come sull’implementazione di nuovi sistemi di classificazione degli account per meglio gestire queste identità digitali.
In questo contesto le aziende tecnologiche stanno facendo investimenti significativi.
OpenAI, scrivevamo qualche giorno fa, è in trattative per acquistare la startup di coding IA Windsurf, mentre Anthropic ha recentemente investito in Goodfire, che si concentra sul decodificare il pensiero dei modelli IA.
Questi sviluppi indicano come la gestione sicura degli agenti virtuali sia diventata una priorità nell’industria.
Il futuro della sicurezza informatica dovrà allora inevitabilmente evolversi per tenere il passo con l’adozione sempre più diffusa di dipendenti virtuali, che promettono di cambiare il volto delle operazioni aziendali.
Come per ogni innovazione tecnologica, però, la strada verso un ambiente di lavoro digitale sicuro rimane impervia e ricca di sfide.


