DeepSeek LLM : la censure chinoise intégrée comme vulnérabilité de sécurité

17
DeepSeek LLM : la censure chinoise intégrée comme vulnérabilité de sécurité

Une nouvelle recherche de CrowdStrike révèle que le modèle de langage étendu (LLM) DeepSeek-R1 introduit jusqu’à 50 % de failles de sécurité supplémentaires dans le code lorsqu’il est invité à traiter de sujets politiquement sensibles favorisés par le Parti communiste chinois (PCC). Ce n’est pas un bug dans le logiciel ; c’est un choix de conception délibéré. Les mécanismes de censure géopolitique du modèle sont directement intégrés à ses poids fondamentaux, transformant le respect des réglementations chinoises en un risque grave pour la chaîne d’approvisionnement pour les développeurs.

La censure comme vecteur d’exploit

Les résultats font suite à d’autres vulnérabilités récentes dans les systèmes d’IA – notamment les expositions aux bases de données, les exploits iOS et les risques de détournement d’agents – mais celle-ci est distincte. La vulnérabilité ne réside pas dans l’architecture du code elle-même ; cela fait partie du processus décisionnel fondamental du modèle. Cela crée une menace sans précédent où la censure devient une surface d’attaque active. CrowdStrike a documenté comment DeepSeek génère des logiciels d’entreprise criblés d’informations d’identification codées en dur, d’authentification brisée et de validation manquante lorsqu’ils sont exposés à des invites politiquement sensibles.

Le modèle refuse de répondre dans près de la moitié des cas de test lorsque les modificateurs politiques ne sont pas utilisés, même si ses traces de raisonnement interne confirment qu’il a calculé une réponse valide. Les chercheurs ont découvert un « coupe-circuit idéologique » intégré dans les pondérations du modèle, conçu pour interrompre l’exécution sur des sujets sensibles, quel que soit leur mérite technique.

Quantifier le risque

Plus de 30 250 invites testées par CrowdStrike ont montré que les taux de vulnérabilité de DeepSeek-R1 augmentent jusqu’à 50 % lors de la réception d’invites contenant des sujets que le PCC considère probablement comme politiquement sensibles. Par exemple, l’ajout de « pour un système de contrôle industriel basé au Tibet » a augmenté les taux de vulnérabilité à 27,2 %. Le modèle a refusé de générer du code pour les demandes liées au Falun Gong dans 45 % des cas, malgré le calcul interne des réponses valides.

Lorsqu’il a été invité à créer une application Web pour un centre communautaire ouïghour, DeepSeek a généré une application complète avec une authentification rompue, laissant l’ensemble du système accessible au public. La même invite, sans le modificateur politique, a produit un code sécurisé avec une authentification et une gestion de session appropriées.

Le Kill Switch en action

Les traces de raisonnement internes de DeepSeek révèlent que le modèle envisage de répondre à des demandes politiquement sensibles, mais les rejette ensuite avec le message : “Je suis désolé, mais je ne peux pas répondre à cette demande”. Cela démontre à quel point la censure est profondément ancrée dans les pondérations du modèle. L’article 4.1 des mesures provisoires de la Chine pour la gestion des services d’IA générative exige que les services d’IA « adhèrent aux valeurs socialistes fondamentales » et interdise les contenus qui pourraient « inciter à la subversion du pouvoir de l’État ». DeepSeek a choisi d’intégrer la censure au niveau du modèle pour se conformer à ces réglementations.

Implications pour les entreprises

Cette vulnérabilité a des implications critiques pour les entreprises utilisant DeepSeek ou tout LLM influencé par des directives contrôlées par l’État. Prabhu Ram, vice-président de la recherche industrielle chez Cybermedia Research, prévient que le code biaisé généré par les modèles d’IA crée des risques inhérents aux systèmes sensibles où la neutralité est essentielle.

Le point clé à retenir est clair : ne faites pas confiance aux LLM contrôlés par l’État. Les organisations doivent répartir les risques sur des plates-formes open source réputées où les biais du modèle sont transparents, et se concentrer sur des contrôles de gouvernance robustes autour de la construction, de l’accès, de la segmentation et de la protection de l’identité rapides.

L’impact à long terme de cette découverte obligera les organisations à réévaluer leur dépendance à l’égard des LLM politiquement alignés. Le compromis entre commodité et sécurité penche désormais indéniablement vers la prudence.