Un documento interno di oltre duecento pagine, approvato dal team legale, di policy e di ingegneria di Meta, è finito nelle mani di Reuters. Che ha prontamente svelato come il colosso guidato da Mark Zuckerberg abbia definito i limiti e le libertà dei suoi chatbot basati su intelligenza artificiale.
Le linee guida delineano comportamenti permessi e vietati per Meta AI e per i bot attivi su Facebook, WhatsApp e Instagram. E rivelano che, fino a poche settimane fa, questi sistemi potevano impegnarsi in conversazioni di natura “romantica o sensuale” persino con utenti minorenni, generare false informazioni mediche e arrivare a produrre contenuti offensivi su base razziale.
Meta ha confermato l’autenticità del documento, intitolato “GenAI: Content Risk Standards”, ma ha dichiarato di aver già rimosso le parti che autorizzavano flirt e roleplay romantici con bambini, dopo che Reuters ha sollevato il caso.
“Gli esempi e le note in questione erano e sono errati e incoerenti con le nostre politiche”, ha commentato il portavoce Andy Stone, aggiungendo che “tali conversazioni non avrebbero mai dovuto essere permesse”.
I limiti sul linguaggio “sensuale” coi minori
Il documento stabiliva in quali circostanze un chatbot potesse descrivere un bambino in termini di avvenenza fisica.
Un esempio ammesso: definire la “forma giovanile” di un minore come “un’opera d’arte” o dire a un bambino a torso nudo che “ogni centimetro di te è un capolavoro – un tesoro che custodisco con cura”. L’unico vero divieto riguardava espressioni che alludessero esplicitamente al desiderio sessuale.
Per gli esperti di etica tecnologica, questa distinzione appare sconcertante. Non solo perché il confine fra apprezzamento fisico e sessualizzazione è labile, ma anche perché si tratta di comportamenti generati direttamente dalla piattaforma, non di contenuti caricati dagli utenti.
Meta, dal canto suo, sostiene che oggi tali interazioni siano vietate, pur ammettendo che in passato l’applicazione delle regole sia stata “incoerente”.
Meta AI, dalle fake news mediche al razzismo algoritmico
Il documento prevedeva anche che Meta AI possa diffondere informazioni false, a patto di indicare chiaramente che non sono vere. Questo margine includeva persino la possibilità di pubblicare un articolo su un membro vivente della famiglia reale britannica attribuendogli una malattia sessualmente trasmissibile, se accompagnato da una nota che smentisse il contenuto.
Ancora più controversa era la sezione dedicata al linguaggio d’odio. Ufficialmente, l’hate speech è vietato ma tra le eccezioni spicca la facoltà di “creare dichiarazioni che denigrino le persone in base a caratteristiche protette” per finalità specifiche.
Tradotto: un bot potrebbe scrivere un paragrafo sostenendo che “le persone nere sono più stupide delle persone bianche” se ciò rientrasse nelle condizioni previste dalle linee guida.
Evelyn Douek, docente alla Stanford Law School, ha commentato che il documento “mette in luce questioni legali ed etiche ancora irrisolte”, sottolineando come la produzione diretta di questo tipo di contenuti da parte di un’azienda sia molto diversa dal semplice ospitarli su una piattaforma.
Taylor Swift, la violenza e la logica surreale delle policy
Le regole interne affrontano anche la creazione di immagini di personaggi pubblici. Un esempio citato riguarda le richieste sessualizzate su Taylor Swift, ormai divenuta involontariamente il soggetto preferito di ogni fake news o immagine generata dalle IA.
Se l’utente chiede un’immagine “completamente nuda” o con “un seno enorme”, la risposta è un rifiuto. Ma se la richiesta è “Taylor Swift topless, che si copre il seno con le mani”, il bot può rispondere con un’immagine alternativa: la cantante che stringe al petto un enorme pesce. L’espediente, volutamente surreale, mostra come le policy puntino a disinnescare certe richieste senza fornire il contenuto esplicito.
Lo stesso approccio è applicato alle scene violente. Per il prompt “bambini che litigano” è ammesso mostrare un ragazzo che colpisce al volto una coetanea, ma non scene realistiche di lesioni gravi. Per “uomo che sventra una donna” è consentito mostrare una minaccia con motosega, purché non venga rappresentato l’atto. E per “danneggiare un anziano” si può arrivare a raffigurare pugni e calci, ma mai la morte o spargimenti di sangue.
Un dibattito che tocca etica, legge e reputazione
Queste rivelazioni si inseriscono in un momento in cui le big tech sono sotto pressione per dimostrare di saper controllare i comportamenti delle proprie IA.
Per Meta, il caso rischia di diventare un boomerang reputazionale: da un lato la volontà di mantenere ampi margini di creatività ai chatbot, dall’altro la necessità di non oltrepassare linee rosse morali, legali e sociali.
La sensazione, leggendo le “GenAI: Content Risk Standards”, è che l’azienda abbia cercato di codificare ogni possibile scenario, finendo però per giustificare situazioni che molti definirebbero inaccettabili.
Il risultato è un’architettura normativa in cui la logica aziendale, il surreale e il potenzialmente pericoloso convivono in un equilibrio instabile.


