Come abbiamo già raccontato su TechTalking, l’ultima volta proprio ieri, la nuova frontiera per l’addestramento delle intelligenze artificiali è l’utilizzo dei dati generati direttamente dagli utenti.
È il motivo per cui Mark Zuckerberg insiste tanto sul valore dei dati prodotti su Facebook e Instagram, ed è anche il motivo per cui Elon Musk, vedendoci lungo, ha comprato Twitter nel 2022.
Se l’IA è una questione di dati — tanti, variegati, realistici — chi ha in mano i flussi più corposi parte avvantaggiato.
Da questo punto di vista, in molti si aspettavano che Apple avrebbe goduto di un enorme vantaggio competitivo: ogni giorno infatti gestisce miliardi di informazioni sugli utenti, dai messaggi alle mail, dalle foto alle interazioni con le app.
Eppure, finora Cupertino è rimasta indietro, affidandosi a dataset sintetici, generati artificialmente per non toccare la privacy.
Il risultato? Funzionalità meno evolute, modelli meno precisi e un distacco sempre più visibile da rivali come Google o OpenAI.
Dai dati sintetici a quelli locali (ma sempre privati)
Ora però qualcosa sta cambiando. Apple ha annunciato che inizierà a confrontare i suoi dati sintetici con campioni reali di email presenti in locale sugli iPhone, iPad e Mac.
Niente invio ai server, però, né raccolta centralizzata: tutto avverrà direttamente sul dispositivo.
In questo modo, la Mela potrà capire quali frasi o pattern dei dati sintetici sono effettivamente simili a quelli usati dagli utenti nella vita reale, migliorando le performance dei modelli linguistici senza compromettere la privacy.
“Quando creiamo dati sintetici, il nostro obiettivo è generare frasi o email artificiali abbastanza simili, per argomento o stile, a quelle reali, in modo da migliorare i modelli di sintesi, senza che Apple debba raccogliere email dai dispositivi”, ha spiegato l’azienda in un post tecnico.
Cosa cambia per Apple Intelligence
I benefici attesi riguardano Apple Intelligence, la suite di funzioni IA annunciata nel 2024.
Le migliorie toccheranno soprattutto gli strumenti testuali: riassunti nelle notifiche, suggerimenti nei Writing Tools, e recap intelligenti delle conversazioni.
L’impatto si estenderà anche al lato visuale, con aggiornamenti a Image Playground, Image Wand, Memories Creation e Visual Intelligence.
Le novità verranno introdotte con le prossime beta di iOS e iPadOS 18.5 e macOS 15.5, già in distribuzione agli sviluppatori.
Gli utenti interessati dovranno aver attivato le opzioni di analisi del dispositivo, accessibili dalle impostazioni sulla privacy.
Un’IA addestrata con più intelligenza (e più rispetto)
Oltre al confronto con i dati reali, Apple continuerà a usare strumenti come la differential privacy per analizzare i prompt più diffusi tra gli utenti senza mai risalire a richieste uniche o personali.
È la stessa tecnologia alla base di Genmoji, l’emoji personalizzata, e adesso verrà estesa a tutta la gamma di servizi IA.
Il messaggio di Apple è chiaro: si può migliorare l’intelligenza artificiale senza sacrificare la riservatezza. Resta ora da vedere se questo cambio di passo permetterà davvero a Cupertino di recuperare terreno in una corsa — quella all’IA — dove finora ha giocato un ruolo marginale.


