Instagram sta affrontando una forte pressione da parte di genitori e legislatori, preoccupati per il suo impatto sulla salute mentale degli adolescenti.
L’ultima risposta, al centro di una causa legale per la gestione dei contenuti rivolti ai giovani, è affidarsi all’intelligenza artificiale per identificare i minori che mentono sulla loro età e proteggerli tramite impostazioni di privacy più severe.
Con uno strumento denominato “adult classifier”, Meta punta così a suddividere i suoi utenti in due categorie d’età, maggiori o minori di 18 anni, e ad attivare automaticamente delle limitazioni per i profili dei minori.
L’obiettivo è garantire che gli adolescenti non vengano esposti a contenuti inappropriati o a interazioni pericolose.
Un software per proteggere i minori
Questo sistema, come ha spiegato Allison Hartnett, direttrice della gestione prodotto per i giovani e l’impatto sociale di Meta, utilizza informazioni estratte dal profilo utente: dall’analisi della lista dei follower e dei contenuti con cui si interagisce fino alla scansione dei “post di compleanno” ricevuti dagli amici.
Grazie a questi dati, l’algoritmo è in grado di stimare con maggior precisione l’età reale di un utente.
Gli utenti che risultano avere meno di 18 anni verranno automaticamente inseriti nei cosiddetti “teen accounts”, anche se hanno dichiarato un’età superiore sul profilo.
Questa tipologia di account, introdotta a settembre, limita l’accesso a messaggi da parte di sconosciuti e la visione di determinati contenuti, offrendo così una maggiore protezione per i minori.
L’approccio controverso di Instagram
Sebbene Meta non abbia divulgato dettagli sull’accuratezza dell’“adult classifier”, si tratta di un passo avanti per rafforzare la sicurezza degli adolescenti su Instagram.
Attualmente, l’azienda sta già implementando impostazioni più restrittive in base alla data di nascita dichiarata, ma l’adozione del software AI è prevista per l’inizio del prossimo anno.
Gli utenti tra i 16 e i 17 anni potranno modificare alcune delle impostazioni di privacy avanzate, mentre per i ragazzi sotto i 16 anni sarà necessario il consenso dei genitori per apportare cambiamenti alle impostazioni predefinite.
Meta, dalle accuse legali alla necessità di sicurezza
Meta da tempo si trova al centro di una causa legale che coinvolge decine di procuratori generali statunitensi.
L’azienda è accusata di aver creato, tramite i suoi contenuti e funzionalità, una crisi di salute mentale tra gli adolescenti.
Inoltre, nel 2021, l’ex dipendente Frances Haugen ha reso pubblici documenti interni che evidenziavano come, secondo le ricerche stesse di Meta, Instagram potesse avere un impatto negativo soprattutto sulle adolescenti.
Tutto questo ha portato Meta a studiare nuove modalità di protezione per i suoi utenti più giovani, ma restano numerose le difficoltà legate all’efficacia delle restrizioni.
Gli adolescenti, come ben sappiamo, hanno un’innata capacità a trovare metodi per aggirare i limiti. In questo caso ci riferiamo a quelli di età, come dimostra uno studio condotto dall’autorità britannica delle telecomunicazioni, secondo cui un terzo dei minori con account social dichiara un’età di 18 anni o più.
La guerra contro le bugie sull’età: un fenomeno globale
Mentire sull’età online, va detto, è una pratica diffusa in molti siti.
Ad esempio, piattaforme come Steam o i portali di vendita di alcolici, si affidano esclusivamente alla dichiarazione dell’utente, senza ulteriori controlli.
Meta punta invece a rendere più difficile la falsificazione dell’età su Instagram, integrando controlli sull’e-mail e sull’ID dispositivo per verificare l’identità degli utenti.
Con queste iniziative, Meta spera di rispondere alle crescenti critiche e pressioni per proteggere i minori, rafforzando l’immagine di un’azienda attenta al benessere dei suoi utenti più giovani.
Il compito rimane comunque arduo, poiché la natura stessa delle piattaforme social rende difficile impedire ai minori di aggirare le regole. E anche perché l’intelligenza artificiale impiegata da Meta, parliamo per esperienza, ha una certa propensione ai falsi positivi.
Il tempo e l’efficacia dell’IA ci diranno se questo passo sarà sufficiente per tutelare davvero i giovani utenti, o se finirà col creare problemi anche agli adulti.


