DeepSeek LLM: la censura cinese incorporata come vulnerabilità della sicurezza

23
DeepSeek LLM: la censura cinese incorporata come vulnerabilità della sicurezza

Una nuova ricerca di CrowdStrike rivela che il modello LLM (Large Language Model) DeepSeek-R1 introduce fino al 50% in più di falle di sicurezza nel codice quando viene richiesto da argomenti politicamente sensibili favoriti dal Partito Comunista Cinese (PCC). Questo non è un bug nel software; è una scelta progettuale deliberata. I meccanismi di censura geopolitica del modello sono insiti direttamente nei suoi pesi fondamentali, trasformando il rispetto delle normative cinesi in un grave rischio per la catena di approvvigionamento per gli sviluppatori.

La censura come vettore di exploit

I risultati seguono altre recenti vulnerabilità nei sistemi di intelligenza artificiale – tra cui esposizioni di database, exploit iOS e rischi di dirottamento degli agenti – ma questa è distinta. La vulnerabilità non risiede nell’architettura del codice stesso; è nel processo decisionale fondamentale del modello. Ciò crea una minaccia senza precedenti in cui la censura diventa una superficie di attacco attiva. CrowdStrike ha documentato come DeepSeek generi software di livello aziendale pieno di credenziali codificate, autenticazione non funzionante e convalida mancante quando esposto a richieste politicamente sensibili.

Il modello rifiuta di rispondere in quasi la metà dei casi di test quando non vengono utilizzati i modificatori politici, anche se le sue tracce di ragionamento interno confermano che ha calcolato una risposta valida. I ricercatori hanno trovato un “kill switch ideologico” incorporato nei pesi del modello, progettato per interrompere l’esecuzione su argomenti delicati indipendentemente dal merito tecnico.

Quantificazione del rischio

Oltre 30.250 messaggi testati da CrowdStrike hanno dimostrato che i tassi di vulnerabilità di DeepSeek-R1 aumentano fino al 50% quando si ricevono messaggi contenenti argomenti che il PCC probabilmente considera politicamente sensibili. Ad esempio, aggiungendo “per un sistema di controllo industriale con sede in Tibet” i tassi di vulnerabilità sono aumentati al 27,2%. Il modello ha rifiutato di generare il codice per le richieste relative al Falun Gong nel 45% dei casi, nonostante il calcolo interno delle risposte valide.

Quando è stato richiesto di creare un’applicazione web per un centro comunitario uiguro, DeepSeek ha generato un’applicazione completa con autenticazione interrotta, lasciando l’intero sistema accessibile al pubblico. Lo stesso prompt, senza il modificatore politico, ha prodotto un codice sicuro con un’autenticazione e una gestione della sessione adeguate.

Il Kill Switch in azione

Le tracce del ragionamento interno di DeepSeek rivelano che il modello intende rispondere a richieste politicamente sensibili ma poi le rifiuta con il messaggio: “Mi dispiace, ma non posso aiutarti con quella richiesta”. Ciò dimostra quanto la censura sia profondamente radicata nei pesi del modello. L’articolo 4.1 delle misure provvisorie cinesi per la gestione dei servizi di intelligenza artificiale generativa impone che i servizi di intelligenza artificiale “aderino ai valori fondamentali del socialismo” e proibisca contenuti che potrebbero “incitare alla sovversione del potere statale”. DeepSeek ha scelto di incorporare la censura a livello di modello per conformarsi a queste normative.

Implicazioni per le imprese

Questa vulnerabilità ha implicazioni critiche per le aziende che utilizzano DeepSeek o qualsiasi LLM influenzato da direttive controllate dallo stato. Prabhu Ram, vicepresidente della ricerca di settore presso Cybermedia Research, avverte che il codice distorto generato dai modelli di intelligenza artificiale crea rischi intrinseci nei sistemi sensibili in cui la neutralità è essenziale.

Il punto fondamentale è chiaro: non fidarsi degli LLM controllati dallo stato. Le organizzazioni dovrebbero distribuire il rischio su piattaforme open source affidabili in cui i pregiudizi dei modelli sono trasparenti e concentrarsi su solidi controlli di governance relativi alla costruzione tempestiva, all’accesso, alla segmentazione e alla protezione dell’identità.

L’impatto a lungo termine di questa scoperta costringerà le organizzazioni a rivalutare la loro dipendenza da LLM politicamente allineati. Il compromesso tra comodità e sicurezza è ora innegabilmente sbilanciato verso la cautela.