Meta ha delineato nuove linee guida per lo sviluppo delle sue intelligenze artificiali avanzate, stabilendo che non rilascerà sistemi considerati eccessivamente pericolosi.
Il Frontier AI Framework, pubblicato in vista del France AI Action Summit, introduce criteri per classificare le IA in due categorie di rischio e segna un potenziale cambio di rotta nella strategia della società guidata da Mark Zuckerberg.
Meta tra rischio alto e critico
L’azienda ha sempre sostenuto un approccio aperto nella diffusione della propria tecnologia di intelligenza artificiale, differenziandosi da competitor come OpenAI, che invece limitano l’accesso ai loro modelli.
Il crescente allarme sui possibili utilizzi dannosi dell’intelligenza artificiale ha però spinto Meta a introdurre un sistema di valutazione del rischio. Secondo il nuovo framework, i sistemi IA si dividono in due classi: quelli ad “alto rischio” e quelli a “rischio critico”.
I primi, spiega Meta, potrebbero facilitare attacchi informatici, chimici o biologici, ma senza offrire agli aggressori una garanzia assoluta di successo. I secondi, invece, potrebbero condurre a “un esito catastrofico che non può essere mitigato nel contesto di implementazione previsto”.
Tra i possibili scenari estremi presi in esame, il documento menziona la “compromissione automatizzata end-to-end di un ambiente aziendale protetto” e la “proliferazione di armi biologiche ad alto impatto”.
Ma chi decide il rischio?
Una delle scelte più discusse di Meta è quella di non basare la classificazione dei sistemi su metriche quantitative precise, ma sul parere di esperti interni ed esterni, supervisionati da dirigenti di alto livello.
Il motivo? Secondo l’azienda, la scienza della valutazione del rischio non è ancora “sufficientemente solida da fornire metriche quantitative definitive”.
Se un sistema viene ritenuto ad alto rischio, Meta afferma che ne limiterà l’accesso interno fino a quando non sarà possibile mitigarne il pericolo.
Nel caso di una IA a rischio critico, invece, l’azienda adotterà misure di sicurezza per impedirne la diffusione e bloccherà lo sviluppo fino a quando non sarà reso meno pericoloso.
A differenza di DeepSeek
La pubblicazione del Frontier AI Framework sembra essere una risposta diretta alle critiche sulla politica di apertura di Meta in materia di intelligenza artificiale.
L’azienda ha reso disponibili i suoi modelli Llama, che hanno ottenuto centinaia di milioni di download, ma secondo alcuni report sono stati anche sfruttati da almeno un avversario degli Stati Uniti per sviluppare una intelligenza artificiale per la difesa.
Con questa mossa, Meta sembra quindi voler prendere le distanze da DeepSeek, anch’essa open-source ma dotata di ben poche salvaguardie, che la rendono facilmente manipolabile per scopi malevoli.
“Riteniamo che, considerando sia i benefici sia i rischi nello sviluppo e nella distribuzione dell’IA avanzata,” scrive Meta, “sia possibile fornire questa tecnologia alla società preservandone i vantaggi e mantenendo al contempo un livello di rischio adeguato”.


