Negli ultimi giorni DeepSeek, un nuovo modello intelligenza artificiale di origine cinese, ha guadagnato rapidamente popolarità e suscitato una serie di discussioni, sia sul piano economico sia su quello legato alla sicurezza informatica. Da un lato, molti osservatori evidenziano come DeepSeek abbia “scosso” il mercato globale, superando per un breve periodo i più noti modelli statunitensi e innescando un momentaneo tracollo nelle azioni di importanti aziende come Nvidia, Oracle e altre big tech USA. Dall’altro lato, emergono preoccupazioni concrete in ambito cybersecurity, alimentate sia dalle notizie di attacchi DDoS contro DeepSeek, sia dai report di aziende che affermano di aver individuato gravi vulnerabilità nel modello.
Di seguito approfondiremo cos’è DeepSeek, perché la sua privacy policy sta sollevando perplessità, quali sono le possibili implicazioni sulla sicurezza e come utilizzare con prudenza i modelli LLM pubblici per evitare di trasformarci in involontari “insider threat”.
Uno sguardo a DeepSeek
DeepSeek è un Large Language Model (LLM) sviluppata in Cina, inizialmente reso disponibile in forma gratuita e, per un certo periodo, con procedure di registrazione semplificate. Questa combinazione – accesso aperto e costi ridotti o nulli – ha attratto subito una platea globale di curiosi, sviluppatori e aziende in cerca di soluzioni alternative ai colossi tradizionali. Il clamore mediatico è stato tale che DeepSeek ha persino scalzato ChatGPT dal primo posto nelle classifiche dell’App Store, attirando allo stesso tempo investitori e l’attenzione di analisti finanziari, che hanno visto nell’immediato successo del modello una potenziale minaccia per l’egemonia statunitense sull’IA.
Nonostante i riconoscimenti e i risultati in diversi benchmark, DeepSeek ha dovuto presto fronteggiare accuse di violazione dei diritti di proprietà intellettuale (alcuni sostengono che abbia “preso in prestito” tecniche e dati da ChatGPT). Inoltre, la società si è ritrovata sotto pressione per una serie di attacchi informatici (presumibilmente DDoS) che hanno compromesso la piattaforma, spingendola a sospendere temporaneamente le nuove registrazioni.
Privacy & policy ambigua
Uno degli aspetti più discussi riguarda la politica di gestione dei dati di DeepSeek, che secondo alcuni esperti sarebbe troppo “permissiva”, arrivando di fatto a condividere con i propri server ampie porzioni di dati, di interazioni e prompt degli utenti, potenzialmente analizzate e archiviate. Questo, unito ai timori che i dati possano essere monitorati dalle autorità cinesi, ha portato numerose organizzazioni occidentali a guardare con sospetto il servizio. Basti pensare che la US Navy, stando a quanto riportato da alcune testate, avrebbe vietato ai propri militari di utilizzare DeepSeek, temendo possibili fughe di dati sensibili.
È chiaro che tale policy non si discosta poi molto dai termini e condizioni imposti da altri fornitori di IA: le controversie su come i dati vengano raccolti e processati coinvolgono anche aziende statunitensi e di altre parti del mondo. Tuttavia, l’attenzione mediatica è particolarmente alta su DeepSeek, complici anche le tensioni commerciali e geopolitiche tra Stati Uniti e Cina.
Implicazioni di sicurezza
Il punto di vista “minimizzante”
Secondo alcuni professionisti, le implicazioni sulla sicurezza cibernetica sarebbero marginali. Un modello LLM open source e potente può, sì, essere sfruttato per attività malevole (creazione di malware, phishing sofisticato, ecc.), ma lo stesso accade da tempo con altre IA disponibili senza filtri (tra cui certe varianti di LLaMA di Meta). Da questa prospettiva, DeepSeek non rappresenta una minaccia inedita, anche se la sua capacità di “ragionare” e generare contenuti complessi potrebbe, in teoria, amplificare i rischi.
La visione più critica
Dall’altro lato, alcuni rapporti sottolineano che DeepSeek R1 sarebbe particolarmente vulnerabile a tecniche di jailbreak e manipolazione, consentendo la generazione di contenuti proibiti (istruzioni per la produzione di ordigni o ransomware, testi discriminatori, materiale che viola le policy di molte altre IA, ecc.). Se questa vulnerabilità fosse confermata, per i professionisti della sicurezza si aprirebbero nuovi scenari di rischio: da un lato, utenti malintenzionati potrebbero aggirare i filtri del modello per scopi illeciti; dall’altro, la stessa struttura di DeepSeek potrebbe facilitare fughe di informazioni interne, se i dipendenti di un’azienda forniscono inconsapevolmente dati sensibili nei prompt.
Come non diventare un insider threat
In un contesto in cui la condivisione dei dati con un modello LLM potrebbe esporre informazioni riservate, è essenziale adottare alcune precauzioni. Ecco alcune buone prassi per minimizzare i rischi:
- Usare un’email non collegata all’azienda
Creare un account con un indirizzo email personale o temporaneo permette di tenere separati i confini tra lavoro e sfera privata. In questo modo, eventuali richieste di verifica o phishing tramite il modello hanno meno probabilità di ottenere dati di natura aziendale. - Evitare l’inserimento di dati sensibili
Mai fornire direttamente al chatbot dettagli riservati, file confidenziali o informazioni potenzialmente compromettenti. Anche se il servizio promette di proteggerli, vale la regola del “ciò che non carichi non potrà essere letto o trafugato”. - Usare una VPN
Collegarsi al servizio passando da una rete virtuale privata (VPN) può impedire che l’indirizzo IP o altre informazioni geolocalizzanti vengano associate al proprio ambiente di lavoro, riducendo così i rischi di profilazione. - Verificare le policy di conservazione dei dati
Prima di utilizzare un LLM in ambito aziendale, è opportuno controllare le clausole che disciplinano la conservazione dei dati e le responsabilità del fornitore. Nel caso di DeepSeek, molti criticano l’assenza di limiti chiari, specie su come i dati vengano gestiti a lungo termine. - Formazione interna e sensibilizzazione
Le aziende dovrebbero istruire i propri dipendenti sui pericoli connessi all’uso di strumenti di IA pubblici. Un training adeguato sulla sicurezza può prevenire la condivisione accidentale di informazioni confidenziali e ridurre i rischi di phishing o social engineering.
In conclusione…
DeepSeek ha evidenziato come il panorama dell’IA sia in continua evoluzione e come un singolo progetto, se ben orchestrato, possa alterare significativamente l’equilibrio della sicurezza informatica. Tuttavia, con sistemi di privacy policy e filtri ancora da perfezionare e crescenti preoccupazioni in materia di cybersecurity, la prudenza è essenziale.
Se il modello di DeepSeek rappresenti una “minaccia marginale” o un notevole rischio per la sicurezza dipende in larga misura dall’uso (o dall’abuso) che se ne fa. Per chiunque voglia testare o adottare soluzioni LLM, il consiglio è di impostare procedure aziendali chiare per proteggere i dati, formare il personale e mantenere un approccio consapevole alle nuove tecnologie. Dopotutto, prevenire una fuga di informazioni o la generazione di contenuti malevoli è molto meno complesso che doverne gestire a posteriori le pesanti conseguenze.
Analisi di Vasily Kononov – Threat Intelligence Lead, CYBEROO