Aggiornamento
Dopo la richiesta delle autorità italiane di chiarimenti sulla gestione dei dati degli utenti, l’app di DeepSeek è scomparsa dagli store di Apple e Google in Italia.
Sebbene il Garante italiano sia stato il primo a prendere ufficialmente posizione sulla questione, altri organismi di vigilanza in Europa hanno ribadito che tutti i servizi di IA dovranno rispettare le normative regionali sulla protezione dei dati e sull’intelligenza artificiale, senza però menzionare esplicitamente DeepSeek.
Tra questi troviamo la Commissione irlandese per la protezione dei dati, che ha inviato una richiesta simile a DeepSeek, chiedendo dettagli sul trattamento delle informazioni dei cittadini irlandesi.
La startup cinese al momento non ha ancora risposto pubblicamente a nessuna delle due richieste.
News originale
La rapida ascesa di DeepSeek, la startup cinese di intelligenza artificiale che sta scuotendo il mercato, ha attirato l’attenzione non solo del mondo tecnologico, ma anche delle autorità per la protezione dei dati.
L’Autorità Garante per la Protezione dei Dati Personali italiana, in collaborazione con Euroconsumers, una coalizione di associazioni per la tutela dei consumatori in Europa, ha inviato una richiesta formale a DeepSeek per ottenere chiarimenti su come l’azienda gestisce i dati personali degli utenti in relazione al GDPR.
DeepSeek, i dati archiviati in Cina: il nodo della privacy
Secondo il Garante italiano, “i dati di milioni di persone in Italia” potrebbero essere a rischio.
DeepSeek ha ora 20 giorni di tempo per rispondere alle richieste delle autorità, che vogliono fare luce su quali informazioni personali vengano raccolte, come vengano utilizzate e, soprattutto, dove vengano archiviate.
Uno degli aspetti più controversi riguarda la gestione dei dati da parte di DeepSeek.
La startup ha sede in Cina e, come specificato nella sua informativa sulla privacy, conserva le informazioni degli utenti su server situati nella Repubblica Popolare Cinese.
L’azienda afferma di trasferire i dati raccolti dai vari Paesi “in conformità con i requisiti delle leggi sulla protezione dei dati applicabili”. Però, né il Garante italiano né Euroconsumers ritengono questa dichiarazione sufficiente.
Già lo scorso anno, la stessa Euroconsumers ha vinto una causa contro Grok per l’uso improprio dei dati nel training dell’intelligenza artificiale.
Ora, con DeepSeek, il focus è su quali dati personali vengano raccolti, da quali fonti e per quali scopi, incluso l’addestramento del modello AI. L’Autorità ha anche chiesto dettagli precisi sulla base legale per il trattamento di queste informazioni e sulla sicurezza dei server in Cina.
Il sospetto di speculazioni finanziarie
Mentre la startup continua a far parlare di sé, cresce anche il dibattito sulle reali intenzioni della sua crescita esplosiva. E c’è chi si sta domandando se DeepSeek non rientri in una strategia finanziaria più ampia orchestrata dal fondo hedge che la controlla.
DeepSeek, infatti, è una società cinese di intelligenza artificiale fondata nel 2023 da Liang Wenfeng, un ex prodigio della matematica e gestore di hedge fund. L’azienda è interamente posseduta e finanziata da High-Flyer, l’hedge fund co-fondato dallo stesso Liang Wenfeng.
High-Flyer, istituito nel 2016, è un fondo di investimento quantitativo che utilizza algoritmi di intelligenza artificiale per le operazioni di trading. Sotto la guida di Liang, High-Flyer ha accumulato asset per un valore di 8 miliardi di dollari.
Nel 2023, Liang ha deciso di espandere le attività nel campo dell’intelligenza artificiale, fondando DeepSeek come entità separata focalizzata sulla ricerca e sviluppo di modelli linguistici avanzati.
Questo passo ha segnato una transizione significativa dalla gestione di hedge fund all’innovazione tecnologica nel settore dell’IA. E, secondo alcuni analisti, DeepSeek potrebbe essere stata utilizzata come leva per destabilizzare il mercato, contribuendo a far crollare le azioni di colossi come Nvidia e altre aziende tecnologiche.
Con le autorità europee che stringono il cerchio sulla protezione dei dati e le tensioni geopolitiche in aumento, il caso DeepSeek potrebbe diventare un banco di prova per il futuro della regolamentazione dell’intelligenza artificiale su scala globale.


