DeepSeek LLM: La censura china incorporada como vulnerabilidad de seguridad

16
DeepSeek LLM: La censura china incorporada como vulnerabilidad de seguridad

Una nueva investigación de CrowdStrike revela que el modelo de lenguaje grande (LLM) DeepSeek-R1 introduce hasta un 50% más de fallas de seguridad en el código cuando se le solicita temas políticamente sensibles favorecidos por el Partido Comunista Chino (PCC). Esto no es un error en el software; es una elección de diseño deliberada. Los mecanismos de censura geopolítica del modelo están integrados directamente en sus pesos centrales, lo que convierte el cumplimiento de las regulaciones chinas en un grave riesgo para la cadena de suministro para los desarrolladores.

La censura como vector de explotación

Los hallazgos siguen a otras vulnerabilidades recientes en los sistemas de inteligencia artificial, incluidas la exposición de bases de datos, vulnerabilidades de iOS y riesgos de secuestro de agentes, pero esta es distinta. La vulnerabilidad no está en la arquitectura del código en sí; está en el proceso fundamental de toma de decisiones del modelo. Esto crea una amenaza sin precedentes en la que la censura se convierte en una superficie de ataque activa. CrowdStrike documentó cómo DeepSeek genera software de nivel empresarial plagado de credenciales codificadas, autenticación rota y validación faltante cuando se expone a indicaciones políticamente sensibles.

El modelo se niega a responder en casi la mitad de los casos de prueba cuando no se utilizan modificadores políticos, aunque sus rastros de razonamiento interno confirman que calculó una respuesta válida. Los investigadores encontraron un “interruptor de muerte ideológico” integrado en las pesas del modelo, diseñado para abortar la ejecución en temas delicados independientemente del mérito técnico.

Cuantificando el riesgo

Más de 30.250 mensajes probados por CrowdStrike mostraron que las tasas de vulnerabilidad de DeepSeek-R1 aumentan hasta un 50 % cuando recibe mensajes que contienen temas que el PCC probablemente considera políticamente sensibles. Por ejemplo, añadir “para un sistema de control industrial con sede en el Tíbet” aumentó las tasas de vulnerabilidad al 27,2%. El modelo se negó a generar código para solicitudes relacionadas con Falun Gong el 45% de las veces, a pesar de calcular internamente respuestas válidas.

Cuando se le pidió que creara una aplicación web para un centro comunitario uigur, DeepSeek generó una aplicación completa con autenticación rota, dejando todo el sistema accesible al público. El mismo mensaje, sin el modificador político, produjo un código seguro con autenticación y gestión de sesión adecuadas.

El interruptor de apagado en acción

Los rastreos de razonamiento interno de DeepSeek revelan que el modelo planea responder solicitudes políticamente sensibles pero luego las rechaza con el mensaje “Lo siento, pero no puedo ayudar con esa solicitud”. Esto demuestra cuán profundamente arraigada está la censura en los pesos del modelo. El artículo 4.1 de las Medidas provisionales de China para la gestión de servicios de IA generativa exige que los servicios de IA “se adhieran a los valores socialistas fundamentales” y prohíbe el contenido que pueda “incitar a la subversión del poder estatal”. DeepSeek optó por incorporar la censura a nivel de modelo para cumplir con estas regulaciones.

Implicaciones para las empresas

Esta vulnerabilidad tiene implicaciones críticas para las empresas que utilizan DeepSeek o cualquier LLM influenciado por directivas controladas por el estado. Prabhu Ram, vicepresidente de investigación industrial de Cybermedia Research, advierte que el código sesgado generado por modelos de IA crea riesgos inherentes en sistemas sensibles donde la neutralidad es esencial.

La conclusión clave es clara: no confíe en los LLM controlados por el estado. Las organizaciones deben distribuir el riesgo entre plataformas de código abierto acreditadas donde los sesgos de los modelos sean transparentes y centrarse en controles de gobernanza sólidos en torno a la construcción rápida, el acceso, la segmentación y la protección de la identidad.

El impacto a largo plazo de este descubrimiento obligará a las organizaciones a reevaluar su dependencia de LLM políticamente alineados. Es innegable que ahora el equilibrio entre conveniencia y seguridad está sesgado hacia la precaución.