Ray-Ban Meta: attenti alla privacy (e a ciò che dite)

da | 2 Mag 2025 | IA

Mark Zuckerberg, CEO di meta
Tempo di lettura: 3 minuti

Meta ha aggiornato le impostazioni di default relative alle gestione della privacy degli occhiali Ray-Ban Meta.

Da ora, sono abilitate automaticamente le funzioni di intelligenza artificiale, ampliando enormemente la quantità di dati che il colosso tech può raccogliere, analizzare e usare per addestrare i propri modelli di IA.

A farne le spese ancora una volta sono gli utenti, molti dei quali rischiano di non rendersi nemmeno conto della portata delle modifiche introdotte.

L’occhio (e l’orecchio) di Meta

Con le nuove impostazioni, ogni foto o video scattato con gli occhiali mentre le funzioni IA sono attive può essere analizzato da Meta.

Meta assicura che gli occhiali non registrano tutto ciò che avviene intorno a chi li indossa, ma solo ciò avviene dopo l’attivazione vocale.

La vera novità è che non esiste un’opzione per disattivare completamente la raccolta delle registrazioni vocali: le funzioni IA sono attive per impostazione predefinita.

Chi desidera impedire a Meta di usare la propria voce per addestrare l’intelligenza artificiale dovrà eliminare manualmente ogni singola registrazione attraverso l’applicazione companion degli occhiali.

Un processo macchinoso e tutt’altro che trasparente, che rischia di mettere fuori gioco gran parte degli utenti meno esperti.

Una privacy sempre più relativa

L’attitudine delle big tech ad accumulare dati privati sembra non conoscere battute d’arresto.

La spiegazione ufficiale è sempre la stessa: migliorare l’esperienza utente, perfezionare la comprensione del linguaggio, rendere l’IA più precisa. Non è un caso che Meta abbia deciso di conservare le registrazioni vocali fino a un anno, proprio per poterle sfruttare come base di addestramento dei propri modelli generativi.

Una mossa che ricalca, tra l’altro, il recente cambio di rotta di Amazon, che da aprile ha eliminato l’opzione per elaborare localmente i comandi vocali dei dispositivi Echo.

Tutti i comandi passano ora dal cloud, con una perdita secca in termini di controllo e riservatezza. Il modello è chiaro: più dati, più centralizzazione, meno privacy.

Chi ci legge con regolarità, però, non si stupirà del fatto che aziende come Meta e Amazon siano così interessate a registrare, catalogare e usare la voce degli utenti.

Le registrazioni audio sono una materia prima fondamentale per addestrare le intelligenze artificiali generative, e una maggiore varietà di voci, inflessioni, accenti e modi di parlare può rendere questi sistemi ancora più efficaci.

La promessa, anche qui, è quella di un servizio migliore; il prezzo, però, è la nostra quotidianità trasformata in dataset.

La sottile linea tra utilità e sorveglianza

I Ray-Ban Meta memorizzano solo le frasi pronunciate dopo la parola di attivazione ‘Hey Meta’”, dicevamo. Ma sarà davvero così?

La nostra esperienza di utenti racconta altro: basta parlare vicino al proprio smartphone di una destinazione o di un prodotto per vederselo comparire come inserzione su Facebook o Instagram. Accadrà lo stesso anche coi Ray-Ban Meta? Saranno davvero sordi fino a che non li attiviamo volontariamente?

Non esistono prove che Meta registri attivamente tutto ciò che diciamo in prossimità dei nostri smartphone. E purtroppo è vero anche un altro punto: oggi le aziende sono in grado di profilare gli utenti con una precisione impressionante anche senza ascoltare nulla in modo diretto.

Incrociando posizione, ricerche, contatti e attività online, l’algoritmo può arrivare a colpire nel segno prima ancora del pensiero cosciente. La linea tra “ascolto passivo” e “profilazione pervasiva” è quindi sempre più sottile.

E anche se tecnicamente Meta non registrasse nulla prima del comando “Hey Meta”, il fatto che conservi attivamente le registrazioni dopo, e per un anno, dovrebbe bastare a farci riflettere sulla direzione che stiamo prendendo.

Iscriviti alla newsletter di TechTalking

Diventa quindi irrilevante sapere se davvero gli occhiali ascoltino tutto o solo dopo il comando vocale. Perché la realtà è che, una volta accettata la logica dei social network prima, e dell’intelligenza artificiale ovunque ora, normalizziamo più o meno coscientemente una forma di sorveglianza quotidiana.

Ci resta solo da decidere quanto di noi siamo disposti a cedere, in cambio di un po’ di comodità e di una foto scattata con gli occhiali.

POTREBBE INTERESSARTI

Sam Altman OpenAI Merge Labs
• ⏱ 3 min

Sam Altman risponde all’articolo “incendiario” del New Yorker

Il leader di OpenAI, dopo l’assalto alla sua abitazioni, risponde alle pesanti accuse mosse dalla celebre testata americana.

anthropic mythos
• ⏱ 3 min

Anthropic ha convocato dei teologi per insegnare l’etica a Claude

Anthropic ha organizzato un vertice riservato con leader cattolici e protestanti per affrontare le domande che gli ingegneri non riescono a risolvere da soli.

Matt Garman Amazon Web Services AWS
, • ⏱ 3 min

AWS spiega perché puntare sui concorrenti è il suo mestiere

Matt Garman investe in OpenAI e Anthropic ma rassicura tutti: competere coi propri partner è una tradizione di AWS. Ma l’obiettivo è introdurre i modelli...
Peter Steinberger OpenClaw
• ⏱ 3 min

Anthropic sospende l’account del fondatore di OpenClaw

Steinberger ora lavora per OpenAI. Dietro la sospensione lampo, una disputa che riguarda prezzi, agenti e la competizione tra piattaforme.

amodei vs altman openai anthropic
, • ⏱ 3 min

OpenAI all’attacco: nuovi piani e miliardi per la guerra del ‘compute’

Anthropic guadagna terreno, OpenAI risponde su tre fronti: prodotto, infrastruttura e narrazione. Una fila indietro, Meta spende 21 miliardi per non restare...
Aravind Srinivas Perplexity
, • ⏱ 3 min

I ricavi mensili di Perplexity crescono del 50%

Jensen Huang la promuove dal palco, gli editori la citano in giudizio. Ma Perplexity naviga tra endorsement e contenziosi.

Alexandr Wang Meta Muse Spark
• ⏱ 3 min

Meta lancia Muse Spark e riparte da zero nella corsa all’IA

Muse Spark è disponibile gratis, funziona con più agenti in parallelo e punta anche alla salute. Ma la privacy resta un capitolo aperto.

Project Glasswing: Anthropic
• ⏱ 4 min

Project Glasswing: Anthropic e i big tech uniti per la cybersicurezza

Claude Mythos Preview ha scoperto migliaia di falle zero-day, alcune vecchie di decenni. E ora Anthropic lo distribuisce solo a partner selezionati per correre ai...
intel elon musk terafab
, • ⏱ 3 min

Intel entra in Terafab per robotica e data center

Terafab promette un terawatt di potenza di calcolo all’anno. Intel ci scommette la sua ristrutturazione.

data center Big Tech
• ⏱ 3 min

Acqua ed energia: le Big Tech sotto pressione degli investitori

Mille miliardi di litri d’acqua consumati nel 2025: l’espansione dell’IA ha un costo ambientale che i mercati cominciano a valutare.

Share This