DeepSeek è la nuova AI generativa arrivata dalla Cina. Da gennaio 2025 è disponibile anche in Italia. Ma è davvero sicura per la privacy? Ecco cosa sappiamo.
Non ha nemmeno fatto in tempo ad essere lanciata sul suolo italiano che l’AI generativa cinese è già sotto processo. Sì, perché DeepSeek, l’ultima creatura in materia di intelligenza artificiale, non solo sta facendo parlare di sé per quanto riguarda il terremoto sugli equilibri di settore, ma anche per ciò che concerne il rispetto della privacy e la sicurezza degli utenti. Non è un caso, infatti, che dalla mattina del 30 gennaio l’app sia sparita dagli store iOs e Android, risultando introvabile per i nuovi utenti in Italia. Dietro a quest’azione ci dovrebbe essere una richiesta di informazioni del Garante della Privacy, che è pronto ad andare a fondo alla questione.
A tutto ciò si aggiunge anche un certo rallentamento riscontrato dagli utenti durante le sessioni, sebbene in via di risoluzione. Da sito web l’app risulta funzionante e utilizzabile. Ma ipotizzando, per un attimo, che questi problemi siano solo temporanei, usare l’IA cinese è davvero sicuro? I nostri dati sono a rischio e, di fatto, viene rispettata la nostra privacy mentre navighiamo e interagiamo con DeepSeek? Cerchiamo di fare chiarezza.
Come funziona DeepSeek e perché potrebbe essere pericolosa
ChatGPT ha aperto la strada delle AI generative in Italia e, per la maggior parte degli utenti che naviga ogni giorno sul web, scrivere e interagire con un’intelligenza artificiale è oramai la routine. DeepSeek si inserisce come un competitor dell’IA di OpenAI, di Grok di Elon Musk e anche di Gemini di Google. Portando sul piatto qualcosa in più: è totalmente gratuita, meno costosa (per quanto riguarda la progettazione) e, soprattutto, open source. Vale a dire che, a differenza delle alternative, non è «chiusa e segreta» ma, anzi, aperta a qualsiasi modifica, anche da parte di specialisti esterni che possono leggerne l’architettura, personalizzarla, migliorarla e, perché no, anche «acquistarla» a cifre non proibitive.
Tutto questo ha fatto balzare sulla sedia tanti esperti del settore, ovviamente i competitor e persino i mercati finanziari. Ma è tutto oro quel che luccica? Non si è fatta attendere la risposta - anche politica - degli altri. USA contro Cina, come vuole, purtroppo, la storia recente. Un rapporto di Bloomberg rivela che Microsoft e OpenAI indagano su un possibile accesso improprio della società cinese ai dati di ChatGPT. Secondo Microsoft, alla fine del 2024 sarebbero state rilevate attività sospette: account collegati a DeepSeek avrebbero estratto grandi quantità di dati tramite le API di OpenAI, violando le politiche aziendali.
David Sacks, responsabile IA dell’amministrazione Trump, ha dichiarato a Fox News che DeepSeek avrebbe usato dati rubati negli USA per sviluppare un modello economico ed efficiente, sfruttando la “distillazione”, tecnica in cui un’IA più piccola apprende ponendo domande a un modello più avanzato. OpenAI ha ribadito che aziende cinesi cercano di replicare i suoi modelli e ha sottolineato l’importanza di collaborare con il governo USA per proteggere la tecnologia da tentativi di sottrazione da parte di concorrenti e avversari. Insomma, l’intelligenza artificiale è uno strumento pericoloso e delicato che interessa, e non poco, anche le stanze del potere. Se DeepSeek fosse veramente il frutto di una «copia», ci si potrebbe fidare fino in fondo della sua bontà etica?
DeepSeek e la sicurezza degli utenti: cosa c’è di vero
Ma le manovre tecnologiche, strategiche e politiche, legali o illegali, possono interessare relativamente l’utente finale, se non per ciò che riguarda la propria incolumità (in questo caso non fisica ma digitale). Usare DeepSeek è veramente rischioso per la privacy telematica e per i dati annessi? Stando a quanto affermano esperti di settore e personalità politiche, probabilmente sì. Come riferito dalla BBC, il ministro australiano dell’industria e della scienza, Ed Husic, è il primo politico occidentale a sollevare preoccupazioni sulla privacy legate a DeepSeek. D’altronde, anche aziende come Huawei e TikTok sono già state accusate in passato di avere legami con il governo di Pechino e di raccogliere dati sensibili per scopi di intelligence. Oggi DeepSeek si trova al centro di un dibattito simile.
E il motivo è da ricercare nel regolamento stesso dell’AI generativa cinese.
Secondo la sua stessa privacy policy, DeepSeek raccoglie una grande quantità di informazioni personali, tra cui email, numero di telefono, data di nascita, cronologia chat, input vocali e persino modelli di digitazione e indirizzi IP. Questi dati vengono archiviati in server cinesi e condivisi con partner commerciali e pubblicitari, restando disponibili per un periodo indefinito.
Tuttavia, alcuni esperti fanno notare che la raccolta dati di DeepSeek è simile a quella di altri chatbot come ChatGPT e Gemini, oltre che ai social media più diffusi. La questione della sicurezza rimane però aperta e in divenire: la «vicinanza» delle piattaforme cinesi al governo del Paese (con tanto di censure conclamate) non lascia dormire sonni tranquilli agli utenti. Anche se la stessa cosa si potrebbe affermare per i competitor USA.
La falla scovata da Wiz Research
E mentre si discute sull’effettiva sicurezza dei dati degli utenti, c’è chi ha già toccato con mano una falla nel sistema DeepSeek. Gli esperti di Wiz, società di sicurezza cloud newyorkese, hanno infatti scoperto una grave vulnerabilità nell’infrastruttura dell’AI cinese, intercettando un database esposto contenente dati sensibili come cronologie delle chat, chiavi API e dettagli operativi interni.
ClickHouse, questo è il nome del database, è normalmente accessibile solo internamente, ma al passaggio degli esperti Wiz risultava completamente aperto e accessibile senza autenticazione. La scoperta ha rivelato la possibilità di accedere a password in chiaro, file locali e altre informazioni riservate.
Fortunatamente, DeepSeek ha chiuso la vulnerabilità subito dopo essere stata avvisata, e Wiz ha evitato di eseguire (ovviamente) operazioni invasive, limitandosi a verificare l’esposizione dei dati. Tuttavia, questo incidente alimenta ancora di più le preoccupazioni sulla sicurezza e sulla privacy delle IA cinesi, che sono già sotto scacco da parte delle autorità competenti.
© RIPRODUZIONE RISERVATA