All’inizio dello scorso anno, un hacker ha violato i sistemi di messaggistica interni di OpenAI, l’azienda creatrice di ChatGPT, sottraendo dettagli relativi al design delle tecnologie di intelligenza artificiale.
L’intruso ha prelevato informazioni da discussioni su un forum online dove i dipendenti parlavano delle tecnologie più recenti di OpenAI, ma non ha avuto accesso ai sistemi dove l’azienda conserva e sviluppa la sua intelligenza artificiale.
I dirigenti di OpenAI hanno svelato l’incidente ai dipendenti nell’aprile 2023 e hanno informato il consiglio di amministrazione. Tuttavia, hanno deciso di non divulgare la notizia pubblicamente, poiché nessuna informazione riguardante clienti o partner era stata rubata.
L’incidente non è stato visto come una minaccia per la sicurezza nazionale: si ritiene che l’hacker sia un privato, senza legami con governi stranieri. Di conseguenza, l’azienda non ha informato l’FBI né altre autorità di polizia.
Secondo il New York Times, fonti anonime all’interno dell’azienda hanno detto che l’hacker ha avuto accesso solo a un forum di discussione dei dipendenti. Nonostante nessuna violazione di sicurezza dovrebbe essere trattata come banale, l’intrusione non ha comportato l’accesso ai sistemi interni, ai modelli in fase di sviluppo o a roadmap segrete.
L’incidente, però, dovrebbe preoccupare, non tanto per la minaccia rappresentata dalla Cina o da altri avversari, ma per il semplice fatto che queste aziende di intelligenza artificiale custodiscono una quantità enorme di dati preziosi e sensibili.

Esistono tre tipi di dati di cui OpenAI e altre aziende simili dispongono: dati di addestramento di alta qualità, interazioni degli utenti e dati dei clienti. È incerto quali dati di addestramento possiedano esattamente, poiché le aziende sono estremamente riservate in merito.
Tuttavia, non si tratta solo di grandi quantità di dati web raccolti. La qualità dei dataset è cruciale per creare modelli linguistici efficaci.
OpenAI possiede una vasta quantità di dati degli utenti, probabilmente miliardi di conversazioni con ChatGPT su centinaia di migliaia di argomenti. Questi dati sono estremamente utili non solo per gli sviluppatori di intelligenza artificiale, ma anche per team di marketing, consulenti e analisti.
Le conversazioni con ChatGPT offrono una quantità di informazioni che va oltre quella che è possibile ricavare dalle semplici ricerche su Google.
Infine, centinaia di grandi e piccole aziende utilizzano strumenti come le API di OpenAI per una vasta gamma di compiti, spesso necessitando di accesso ai propri database interni. Questi segreti industriali rendono le aziende di intelligenza artificiale un bersaglio allettante.
Nonostante le aziende di intelligenza artificiale possano fornire livelli di sicurezza industriale standard, il valore di ciò che proteggono attira attori malintenzionati. Anche un hack come quello sopra riportato, senza esiti rilevanti, dovrebbe preoccupare chiunque faccia affari con queste aziende.
Le aziende di intelligenza artificiale hanno infatti un dipinto un bersaglio sulla loro schiena, quindi non sorprende che molti cerchino di colpirle.


