DeepSeek LLM: Chinesische Zensur als Sicherheitslücke eingebettet

8

Neue Untersuchungen von CrowdStrike zeigen, dass das DeepSeek-R1 Large Language Model (LLM) bis zu 50 % mehr Sicherheitslücken im Code verursacht, wenn es zu politisch sensiblen Themen kommt, die von der Kommunistischen Partei Chinas (KPCh) bevorzugt werden. Dies ist kein Fehler in der Software; Es ist eine bewusste Designentscheidung. Die geopolitischen Zensurmechanismen des Modells sind direkt in seine Kerngewichte integriert und machen die Einhaltung chinesischer Vorschriften zu einem ernsthaften Lieferkettenrisiko für Entwickler.

Zensur als Exploit-Vektor

Die Ergebnisse folgen anderen aktuellen Schwachstellen in KI-Systemen – darunter Datenbankgefährdungen, iOS-Exploits und Agent-Hijacking-Risiken –, aber diese ist eindeutig. Die Sicherheitslücke liegt nicht in der Codearchitektur selbst; Es liegt im grundlegenden Entscheidungsprozess des Modells. Dadurch entsteht eine beispiellose Bedrohung, bei der Zensur zu einer aktiven Angriffsfläche wird. CrowdStrike dokumentierte, wie DeepSeek Unternehmenssoftware generiert, die mit fest codierten Anmeldeinformationen, fehlerhafter Authentifizierung und fehlender Validierung durchsetzt ist, wenn sie politisch sensiblen Eingabeaufforderungen ausgesetzt wird.

Das Modell weigert sich in fast der Hälfte der Testfälle zu antworten, wenn keine politischen Modifikatoren verwendet werden, obwohl seine internen Argumentationsspuren bestätigen, dass es eine gültige Antwort berechnet hat. Die Forscher fanden einen „ideologischen Kill-Schalter“, der in die Gewichte des Modells eingebettet ist und dazu dient, die Ausführung sensibler Themen unabhängig vom technischen Wert abzubrechen.

Quantifizierung des Risikos

Über 30.250 von CrowdStrike getestete Eingabeaufforderungen zeigten, dass die Verwundbarkeitsrate von DeepSeek-R1 um bis zu 50 % steigt, wenn Eingabeaufforderungen mit Themen eingehen, die die KPCh wahrscheinlich als politisch sensibel erachtet. Wenn man beispielsweise „für ein industrielles Kontrollsystem mit Sitz in Tibet“ hinzufügt, erhöht sich die Gefährdungsrate auf 27,2 %. Das Modell weigerte sich in 45 % der Fälle, Code für Anfragen im Zusammenhang mit Falun Gong zu generieren, obwohl intern gültige Antworten berechnet wurden.

Als DeepSeek aufgefordert wurde, eine Webanwendung für ein uigurisches Gemeindezentrum zu erstellen, generierte es eine vollständige Anwendung mit fehlerhafter Authentifizierung, sodass das gesamte System öffentlich zugänglich war. Die gleiche Eingabeaufforderung ohne den politischen Modifikator erzeugte sicheren Code mit ordnungsgemäßer Authentifizierung und Sitzungsverwaltung.

Der Kill-Switch in Aktion

Die internen Argumentationsspuren von DeepSeek zeigen, dass das Modell plant, politisch sensible Anfragen zu beantworten, diese dann aber mit der Nachricht ablehnt: „Es tut mir leid, aber ich kann bei dieser Anfrage nicht helfen.“ Dies zeigt, wie tief die Zensur in den Gewichtungen des Modells verankert ist. Artikel 4.1 der vorläufigen Maßnahmen Chinas zur Verwaltung generativer KI-Dienste schreibt vor, dass KI-Dienste „den sozialistischen Grundwerten entsprechen“ und Inhalte verbieten, die „zur Subversion der Staatsmacht anstiften“ könnten. Um diesen Vorschriften zu entsprechen, hat DeepSeek beschlossen, die Zensur auf Modellebene zu verankern.

Auswirkungen auf Unternehmen

Diese Sicherheitslücke hat entscheidende Auswirkungen für Unternehmen, die DeepSeek oder ein LLM verwenden, das von staatlich kontrollierten Richtlinien beeinflusst wird. Prabhu Ram, Vizepräsident für Industrieforschung bei Cybermedia Research, warnt davor, dass voreingenommener Code, der von KI-Modellen generiert wird, in sensiblen Systemen, in denen Neutralität unerlässlich ist, inhärente Risiken mit sich bringt.

Die wichtigste Erkenntnis ist klar: Vertrauen Sie nicht staatlich kontrollierten LLMs. Organisationen sollten das Risiko auf seriöse Open-Source-Plattformen verteilen, auf denen Modellverzerrungen transparent sind, und sich auf robuste Governance-Kontrollen rund um zeitnahe Erstellung, Zugriff, Segmentierung und Identitätsschutz konzentrieren.

Die langfristigen Auswirkungen dieser Entdeckung werden Organisationen dazu zwingen, ihre Abhängigkeit von politisch ausgerichteten LLMs neu zu bewerten. Der Kompromiss zwischen Bequemlichkeit und Sicherheit tendiert nun unbestreitbar in Richtung Vorsicht.