Meta e le regole segrete della sua IA che fanno discutere

da | 15 Ago 2025 | IA

Mark Zuckerberg, ceo di meta.

Un documento interno di oltre duecento pagine, approvato dal team legale, di policy e di ingegneria di Meta, è finito nelle mani di Reuters. Che ha prontamente svelato come il colosso guidato da Mark Zuckerberg abbia definito i limiti e le libertà dei suoi chatbot basati su intelligenza artificiale.

Le linee guida delineano comportamenti permessi e vietati per Meta AI e per i bot attivi su Facebook, WhatsApp e Instagram. E rivelano che, fino a poche settimane fa, questi sistemi potevano impegnarsi in conversazioni di natura “romantica o sensuale” persino con utenti minorenni, generare false informazioni mediche e arrivare a produrre contenuti offensivi su base razziale.

Meta ha confermato l’autenticità del documento, intitolato “GenAI: Content Risk Standards”, ma ha dichiarato di aver già rimosso le parti che autorizzavano flirt e roleplay romantici con bambini, dopo che Reuters ha sollevato il caso.

“Gli esempi e le note in questione erano e sono errati e incoerenti con le nostre politiche”, ha commentato il portavoce Andy Stone, aggiungendo che “tali conversazioni non avrebbero mai dovuto essere permesse”.

I limiti sul linguaggio “sensuale” coi minori

Il documento stabiliva in quali circostanze un chatbot potesse descrivere un bambino in termini di avvenenza fisica.

Un esempio ammesso: definire la “forma giovanile” di un minore come “un’opera d’arte” o dire a un bambino a torso nudo che “ogni centimetro di te è un capolavoro – un tesoro che custodisco con cura”. L’unico vero divieto riguardava espressioni che alludessero esplicitamente al desiderio sessuale.

Per gli esperti di etica tecnologica, questa distinzione appare sconcertante. Non solo perché il confine fra apprezzamento fisico e sessualizzazione è labile, ma anche perché si tratta di comportamenti generati direttamente dalla piattaforma, non di contenuti caricati dagli utenti.

Meta, dal canto suo, sostiene che oggi tali interazioni siano vietate, pur ammettendo che in passato l’applicazione delle regole sia stata “incoerente”.

Meta AI, dalle fake news mediche al razzismo algoritmico

Il documento prevedeva anche che Meta AI possa diffondere informazioni false, a patto di indicare chiaramente che non sono vere. Questo margine includeva persino la possibilità di pubblicare un articolo su un membro vivente della famiglia reale britannica attribuendogli una malattia sessualmente trasmissibile, se accompagnato da una nota che smentisse il contenuto.

Ancora più controversa era la sezione dedicata al linguaggio d’odio. Ufficialmente, l’hate speech è vietato ma tra le eccezioni spicca la facoltà di “creare dichiarazioni che denigrino le persone in base a caratteristiche protette” per finalità specifiche.

Tradotto: un bot potrebbe scrivere un paragrafo sostenendo che “le persone nere sono più stupide delle persone bianche” se ciò rientrasse nelle condizioni previste dalle linee guida.

Evelyn Douek, docente alla Stanford Law School, ha commentato che il documento “mette in luce questioni legali ed etiche ancora irrisolte”, sottolineando come la produzione diretta di questo tipo di contenuti da parte di un’azienda sia molto diversa dal semplice ospitarli su una piattaforma.

Taylor Swift, la violenza e la logica surreale delle policy

Le regole interne affrontano anche la creazione di immagini di personaggi pubblici. Un esempio citato riguarda le richieste sessualizzate su Taylor Swift, ormai divenuta involontariamente il soggetto preferito di ogni fake news o immagine generata dalle IA.

Se l’utente chiede un’immagine “completamente nuda” o con “un seno enorme”, la risposta è un rifiuto. Ma se la richiesta è “Taylor Swift topless, che si copre il seno con le mani”, il bot può rispondere con un’immagine alternativa: la cantante che stringe al petto un enorme pesce. L’espediente, volutamente surreale, mostra come le policy puntino a disinnescare certe richieste senza fornire il contenuto esplicito.

Lo stesso approccio è applicato alle scene violente. Per il prompt “bambini che litigano” è ammesso mostrare un ragazzo che colpisce al volto una coetanea, ma non scene realistiche di lesioni gravi. Per “uomo che sventra una donna” è consentito mostrare una minaccia con motosega, purché non venga rappresentato l’atto. E per “danneggiare un anziano” si può arrivare a raffigurare pugni e calci, ma mai la morte o spargimenti di sangue.

Un dibattito che tocca etica, legge e reputazione

Queste rivelazioni si inseriscono in un momento in cui le big tech sono sotto pressione per dimostrare di saper controllare i comportamenti delle proprie IA.

Per Meta, il caso rischia di diventare un boomerang reputazionale: da un lato la volontà di mantenere ampi margini di creatività ai chatbot, dall’altro la necessità di non oltrepassare linee rosse morali, legali e sociali.

La sensazione, leggendo le “GenAI: Content Risk Standards”, è che l’azienda abbia cercato di codificare ogni possibile scenario, finendo però per giustificare situazioni che molti definirebbero inaccettabili.

Il risultato è un’architettura normativa in cui la logica aziendale, il surreale e il potenzialmente pericoloso convivono in un equilibrio instabile.

POTREBBE INTERESSARTI

Nvidia CES 2026 Jensen Huag

Al CES 2026 la Silicon Valley ha scelto Trump

La Genesis Mission, Nvidia e il nuovo asse Washington-Silicon Valley: al Consumer Electronics Show è andata in scena la fine della neutralità tech.

Harry Potter e la Pietra Filosofale

I ricercatori sono riusciti a estrarre Harry Potter (quasi per intero) dai principali LLM

Una ricerca di Stanford dimostra che Claude, GPT-4.1, Gemini e Grok hanno memorizzato interi libri protetti da copyright. E possono riprodurli quasi parola per...
Grok

Grok, la risposta di Musk ai deepfake è farli pagare

Dall’Indonesia al Regno Unito, i governi reagiscono ai deepfake di Grok. Musk attacca gli inglesi: “Fascisti”. Ma intanto le immagini abusive...
Character

Google e Character.AI, accordi milionari per evitare il processo

Le famiglie ottengono risarcimenti per i suicidi legati al chatbot, ma il vuoto normativo sulla responsabilità dell’IA generativa resta intatto.

Andreessen Horowitz

Il secolo americano di Andreessen Horowitz: 15 miliardi per blindare il futuro tech

Dalla difesa all’intelligenza artificiale: come il colosso di Menlo Park sta puntando a riscrivere il rapporto tra capitale privato, sovranità e potere.

data center

La corsa all’IA accende il mercato dei bond per i data center europei

L’Europa importerà i modelli finanziari americani per recuperare il terreno perduto rispetto a USA e Cina, trasformando i data center in asset...
Dario Amodei Anthropic

Anthropic tratta un nuovo finanziamento a una valutazione da 350 miliardi

La start-up di intelligenza artificiale, in competizione con OpenAI, mira a raccogliere circa 10 miliardi mentre prende forma l’ipotesi di una quotazione in...
ChatGPT Health

OpenAI annuncia ChatGPT Health (ma non in Europa)

Negli Stati Uniti 230 milioni di persone già usano il chatbot di Sam Altman per parlare di salute. Ma non mancano le sfide in termini di sensibilità dei dati e le...
giustizia giudici IA

Negli USA i giudici iniziano a usare l’IA per decidere i processi

Dagli Stati Uniti arriva la spinta per l’IA in tribunale: non più solo ricerca legale ma bozze di sentenze e decisioni automatizzate.

Elon Musk xAI

xAI raccoglie 20 miliardi in meno di due anni: è record per Musk

La società di intelligenza artificiale di Elon Musk supera i 42 miliardi totali di finanziamenti dal 2023 e punta a una valutazione oltre i 230 miliardi. Ma Grok...
Share This