Nel pieno della stagione regolatoria dell’Europa, che negli ultimi anni ha visto nascere il Digital Services Act, il Digital Markets Act e l’AI Act, il Parlamento europeo ha aggiunto un altro tassello al dibattito sul rapporto tra minori e tecnologie.
Con una risoluzione non vincolante, Strasburgo ha infatti chiesto di fissare un’età minima comune per accedere ai social media, alle piattaforme di condivisione video e ai chatbot basati su intelligenza artificiale.
L’obiettivo dichiarato è garantire un “coinvolgimento online adeguato all’età”, un tema diventato centrale con l’arrivo dei cosiddetti AI companion, chatbot conversazionali in grado di instaurare relazioni personalizzate con gli utenti, spesso percepite dai più giovani come veri interlocutori.
La proposta: limite a 16 anni
Secondo la risoluzione, pubblicata sul sito ufficiale del Parlamento, i legislatori propongono un’età digitale armonizzata di 16 anni per accedere a social media, video-sharing e sistemi di IA generativa destinati alla conversazione. I ragazzi tra i 13 e i 16 anni potrebbero comunque utilizzare queste piattaforme, ma solo previo consenso dei genitori.
La proposta del Parlamento include anche un limite inferiore: al di sotto dei 13 anni nessun minorenne dovrebbe poter accedere ai social media, ai servizi di video-sharing o agli AI companion.
Un punto particolarmente rilevante riguarda il rapporto con le norme nazionali. L’attuale quadro del Digital Services Act affida infatti ai singoli Stati membri la definizione dei limiti di età: una scelta che ha prodotto un mosaico di regole disomogenee. La risoluzione chiede di superare questa frammentazione attraverso una soglia unica a livello europeo.
Dipendenza, fake content e sanzioni più dure
I deputati propongono anche nuove misure contro le tecniche di design ritenute più pericolose per gli utenti più giovani. Nel mirino ci sono le funzioni pensate per prolungare artificialmente il tempo trascorso davanti allo schermo e le forme di pubblicità manipolative.
La risoluzione include inoltre un riferimento esplicito ai sistemi di IA in grado di generare contenuti falsi o inappropriati, una categoria in forte crescita con la diffusione dei modelli generativi.
Tra i punti politici più netti, la richiesta di bloccare i siti che non rispettano le regole europee, una misura che segnerebbe un salto di qualità nell’applicazione del DSA.
Non è un caso che il Parlamento richiami le indagini già avviate nei confronti di piattaforme come X di Elon Musk e TikTok, entrambe finite sotto esame per presunte violazioni delle norme europee.
L’Europa e la verifica dell’età
La risoluzione sottolinea anche uno dei problemi più discussi nel dibattito digitale: come verificare l’età degli utenti in modo efficace senza creare nuovi rischi per la privacy. Al momento, non esiste una soluzione tecnologica universalmente accettata e la questione resta aperta sia per le piattaforme sia per i regolatori.
Va ricordato che il testo approvato dal Parlamento non ha valore legale e rappresenta una presa di posizione politica. Per arrivare a una legge vincolante serve una proposta formale della Commissione europea, seguita dai consueti negoziati con gli Stati membri e poi di nuovo con il Parlamento, un percorso che spesso richiede anni.
Ma la direzione indicata oggi è chiara: un’Europa più uniforme nelle regole e più protettiva verso i minori in un ecosistema digitale sempre più complesso.
Fonte: Reuters


