Meta frena sull’IA: stop ai sistemi troppo rischiosi

da | 4 Feb 2025 | IA

Meta ha delineato nuove linee guida per lo sviluppo delle sue intelligenze artificiali avanzate, stabilendo che non rilascerà sistemi considerati eccessivamente pericolosi.

Il Frontier AI Framework, pubblicato in vista del France AI Action Summit, introduce criteri per classificare le IA in due categorie di rischio e segna un potenziale cambio di rotta nella strategia della società guidata da Mark Zuckerberg.

Meta tra rischio alto e critico

L’azienda ha sempre sostenuto un approccio aperto nella diffusione della propria tecnologia di intelligenza artificiale, differenziandosi da competitor come OpenAI, che invece limitano l’accesso ai loro modelli.

Il crescente allarme sui possibili utilizzi dannosi dell’intelligenza artificiale ha però spinto Meta a introdurre un sistema di valutazione del rischio. Secondo il nuovo framework, i sistemi IA si dividono in due classi: quelli ad “alto rischio” e quelli a “rischio critico”.

I primi, spiega Meta, potrebbero facilitare attacchi informatici, chimici o biologici, ma senza offrire agli aggressori una garanzia assoluta di successo. I secondi, invece, potrebbero condurre a “un esito catastrofico che non può essere mitigato nel contesto di implementazione previsto”.

Tra i possibili scenari estremi presi in esame, il documento menziona la “compromissione automatizzata end-to-end di un ambiente aziendale protetto” e la “proliferazione di armi biologiche ad alto impatto”.

Ma chi decide il rischio?

Una delle scelte più discusse di Meta è quella di non basare la classificazione dei sistemi su metriche quantitative precise, ma sul parere di esperti interni ed esterni, supervisionati da dirigenti di alto livello.

Il motivo? Secondo l’azienda, la scienza della valutazione del rischio non è ancora “sufficientemente solida da fornire metriche quantitative definitive”.

Se un sistema viene ritenuto ad alto rischio, Meta afferma che ne limiterà l’accesso interno fino a quando non sarà possibile mitigarne il pericolo.

Nel caso di una IA a rischio critico, invece, l’azienda adotterà misure di sicurezza per impedirne la diffusione e bloccherà lo sviluppo fino a quando non sarà reso meno pericoloso.

A differenza di DeepSeek

La pubblicazione del Frontier AI Framework sembra essere una risposta diretta alle critiche sulla politica di apertura di Meta in materia di intelligenza artificiale.

L’azienda ha reso disponibili i suoi modelli Llama, che hanno ottenuto centinaia di milioni di download, ma secondo alcuni report sono stati anche sfruttati da almeno un avversario degli Stati Uniti per sviluppare una intelligenza artificiale per la difesa.

Con questa mossa, Meta sembra quindi voler prendere le distanze da DeepSeek, anch’essa open-source ma dotata di ben poche salvaguardie, che la rendono facilmente manipolabile per scopi malevoli.

“Riteniamo che, considerando sia i benefici sia i rischi nello sviluppo e nella distribuzione dell’IA avanzata,” scrive Meta, “sia possibile fornire questa tecnologia alla società preservandone i vantaggi e mantenendo al contempo un livello di rischio adeguato”.

POTREBBE INTERESSARTI

Brad Smith, presidente di Microsoft

Microsoft promette: i nostri data center non peseranno sulle bollette degli americani

L’azienda si impegna a non chiedere sgravi fiscali e a formare i residenti. Brad Smith: “Non chiediamo ai contribuenti di sovvenzionarci”.

Matthew McConaughey

McConaughey registra sé stesso come marchio contro i deepfake

Otto trademark approvati negli USA trasformano l’immagine dell’attore in un asset legale. Nel vuoto normativo sui deepfake, Hollywood ricorre...
Google AI Overviews

Google rimuove le AI Overviews per alcune ricerche mediche

Un’indagine del Guardian documenta errori potenzialmente letali nei riassunti sanitari del motore di ricerca. Il tempismo col lancio di ChatGPT Health solleva...
Google agente

Google entra nello shopping con gli agenti IA per i retailer

Con Gemini Enterprise for Customer Experience, Big G offre strumenti per costruire assistenti virtuali proprietari. Ma il commercio agentico è davvero dietro...
Apple Intelligence Siri

Siri parlerà con la voce di Gemini: Apple sceglie Google per l’IA

Annunciata ieri una partnership che riscrive gli equilibri del mercato. E anche una svolta storica che solleva domande sul futuro della privacy di Cupertino.

Nvidia CES 2026 Jensen Huag

Al CES 2026 la Silicon Valley ha scelto Trump

La Genesis Mission, Nvidia e il nuovo asse Washington-Silicon Valley: al Consumer Electronics Show è andata in scena la fine della neutralità tech.

Harry Potter e la Pietra Filosofale

I ricercatori sono riusciti a estrarre Harry Potter (quasi per intero) dai principali LLM

Una ricerca di Stanford dimostra che Claude, GPT-4.1, Gemini e Grok hanno memorizzato interi libri protetti da copyright. E possono riprodurli quasi parola per...
Grok

Grok, la risposta di Musk ai deepfake è farli pagare

Dall’Indonesia al Regno Unito, i governi reagiscono ai deepfake di Grok. Musk attacca gli inglesi: “Fascisti”. Ma intanto le immagini abusive...
Character

Google e Character.AI, accordi milionari per evitare il processo

Le famiglie ottengono risarcimenti per i suicidi legati al chatbot, ma il vuoto normativo sulla responsabilità dell’IA generativa resta intatto.

Andreessen Horowitz

Il secolo americano di Andreessen Horowitz: 15 miliardi per blindare il futuro tech

Dalla difesa all’intelligenza artificiale: come il colosso di Menlo Park sta puntando a riscrivere il rapporto tra capitale privato, sovranità e potere.

Share This