Google ha annunciato che, a partire dalla prossima settimana, il suo chatbot di intelligenza artificiale Gemini sarà accessibile anche ai bambini sotto i 13 anni, purché utilizzino un account Google gestito dai genitori tramite Family Link.
L’azienda lo ha comunicato direttamente con un’email che apre a un nuovo capitolo nell’uso dell’IA da parte dei più piccoli: “Le app Gemini saranno presto disponibili per tuo figlio”, si legge nel messaggio. Il bambino potrà così fare domande, chiedere aiuto nei compiti e perfino inventare storie con l’assistenza del chatbot.
Per attivare l’accesso, i genitori devono aver già creato un account controllato per il figlio, fornendo a Google informazioni personali come nome e data di nascita.
L’azienda ha garantito che i dati raccolti durante l’uso da parte dei minori non saranno utilizzati per addestrare il modello d’intelligenza artificiale, e che il chatbot sarà dotato di filtri specifici per impedire la generazione di contenuti pericolosi o inappropriati.
IA generativa e minori: un equilibrio difficile
La decisione di Google arriva in un momento in cui le tecnologie generative, capaci di produrre testi realistici, immagini e video credibili, stanno entrando prepotentemente nella vita quotidiana.
E mentre scuole, aziende e università stanno ancora cercando di capire come integrarle o contenerle, le grandi tech si contendono già l’attenzione degli utenti più giovani.
In prima linea ci sono proprio i chatbot come Gemini, usati sempre più spesso da adolescenti come assistenti per lo studio, coach di scrittura o perfino compagni virtuali.
Anche l’amministrazione Trump ha recentemente esortato le scuole ad adottare questi strumenti come supporto didattico in un suo ordine esecutivo. Ma l’entusiasmo non è unanime.
Organizzazioni per l’infanzia come l’UNICEF hanno lanciato l’allarme: le IA generative possono facilmente disorientare i bambini, confonderli o persino manipolarli, perché non sono in grado di distinguere tra un interlocutore umano e un’intelligenza artificiale.
“Le IA generative hanno prodotto contenuti pericolosi”, ha scritto l’agenzia dell’ONU in una nota ufficiale.
Gemini e le responsabilità dei genitori
Nella sua email ai genitori, Google non ha nascosto i potenziali rischi. Ha avvertito che “Gemini può commettere errori” e ha consigliato agli adulti di insegnare ai figli a pensare in modo critico e a verificare le informazioni ricevute.
Il colosso di Mountain View ha anche suggerito di ricordare ai bambini che “Gemini non è umano” e che non vanno mai inseriti dati personali o sensibili nel chatbot. Nonostante la presenza di filtri, ha ammesso Google, “i bambini potrebbero imbattersi in contenuti che non vorreste vedessero”.
Sarà comunque possibile per i genitori disattivare completamente l’accesso a Gemini o modificarne le impostazioni. Il sistema invierà una notifica alla prima attivazione e consentirà un controllo diretto sull’uso del chatbot.
Il precedente di YouTube Kids e il rischio déjà vu
Non è la prima volta che Google tenta di conquistare il pubblico più giovane. Nel 2015 ha lanciato YouTube Kids, un’app autonoma che ha riscosso un notevole successo tra le famiglie con bambini piccoli.
Ma l’esperienza dei social insegna che attrarre i minori online può diventare un terreno scivoloso. Lo sa bene Meta, che nel 2021 ha dovuto bloccare il progetto Instagram Kids dopo le proteste di decine di procuratori generali americani, che accusavano l’azienda di non aver tutelato adeguatamente i più giovani.
Google, Amazon e Microsoft hanno inoltre già pagato multe milionarie per aver violato la COPPA, la legge statunitense che protegge la privacy dei minori online.
Proprio per questo, Google insiste nel dire che l’introduzione di Gemini per i bambini rispetta appieno la normativa vigente. Ma il dubbio resta: i più piccoli sono davvero pronti per l’IA, o il mondo della tecnologia si sta muovendo ancora una volta troppo velocemente rispetto alle garanzie che è in grado di offrire?


