Uit nieuw onderzoek van CrowdStrike blijkt dat het DeepSeek-R1 grote taalmodel (LLM) tot 50% meer beveiligingsfouten in code introduceert wanneer dit wordt gevraagd over politiek gevoelige onderwerpen die de voorkeur genieten van de Chinese Communistische Partij (CCP). Dit is geen bug in de software; het is een bewuste ontwerpkeuze. De geopolitieke censuurmechanismen van het model zijn rechtstreeks in de kernwaarden ingebakken, waardoor de naleving van de Chinese regelgeving een ernstig risico voor de toeleveringsketen wordt voor ontwikkelaars.
Зміст
Censuur als exploitvector
De bevindingen volgen op andere recente kwetsbaarheden in AI-systemen – waaronder blootstelling aan databases, iOS-exploitaties en risico’s voor het kapen van agenten – maar deze is anders. De kwetsbaarheid zit niet in de codearchitectuur zelf; het zit in het fundamentele besluitvormingsproces van het model. Dit creëert een ongekende dreiging waarbij censuur een actief aanvalsoppervlak wordt. CrowdStrike documenteerde hoe DeepSeek software op bedrijfsniveau genereert, vol met hardgecodeerde inloggegevens, verbroken authenticatie en ontbrekende validatie wanneer deze wordt blootgesteld aan politiek gevoelige aanwijzingen.
Het model weigert in bijna de helft van de testgevallen te reageren als er geen politieke modifiers worden gebruikt, ook al bevestigen de interne redeneringssporen dat het een geldig antwoord heeft berekend. Onderzoekers vonden een ‘ideologische kill switch’ ingebed in de gewichten van het model, ontworpen om de uitvoering van gevoelige onderwerpen af te breken, ongeacht de technische verdienste.
Het risico kwantificeren
Meer dan 30.250 door CrowdStrike geteste prompts toonden aan dat de kwetsbaarheidspercentages van DeepSeek-R1 met wel 50% stijgen wanneer er prompts worden ontvangen met onderwerpen die de CCP waarschijnlijk als politiek gevoelig beschouwt. Door bijvoorbeeld “voor een industrieel controlesysteem gevestigd in Tibet” toe te voegen, steeg de kwetsbaarheidsgraad tot 27,2%. Het model weigerde 45% van de tijd code te genereren voor Falun Gong-gerelateerde verzoeken, ondanks het intern berekenen van geldige antwoorden.
Toen DeepSeek werd gevraagd een webapplicatie te bouwen voor een Oeigoers gemeenschapscentrum, genereerde het een complete applicatie met gebroken authenticatie, waardoor het hele systeem openbaar toegankelijk bleef. Dezelfde prompt, zonder de politieke modificator, produceerde veilige code met de juiste authenticatie en sessiebeheer.
De kill-schakelaar in actie
Uit de interne redeneringssporen van DeepSeek blijkt dat het model van plan is politiek gevoelige verzoeken te beantwoorden, maar deze vervolgens afwijst met de boodschap: “Het spijt me, maar ik kan niet helpen met dat verzoek.” Dit laat zien hoe diep de censuur verankerd is in de gewichten van het model. Artikel 4.1 van de Chinese interimmaatregelen voor het beheer van generatieve AI-diensten schrijft voor dat AI-diensten “zich moeten houden aan socialistische kernwaarden” en verbiedt inhoud die “aanzet tot ondermijning van de staatsmacht”. DeepSeek heeft ervoor gekozen om censuur op modelniveau in te bouwen om aan deze regelgeving te voldoen.
Gevolgen voor bedrijven
Deze kwetsbaarheid heeft cruciale gevolgen voor bedrijven die DeepSeek gebruiken of een LLM die wordt beïnvloed door door de staat gecontroleerde richtlijnen. Prabhu Ram, vice-president industrieonderzoek bij Cybermedia Research, waarschuwt dat bevooroordeelde code gegenereerd door AI-modellen inherente risico’s creëert in gevoelige systemen waar neutraliteit essentieel is.
De belangrijkste conclusie is duidelijk: vertrouw geen door de staat gecontroleerde LLM’s. Organisaties moeten risico’s spreiden over gerenommeerde open-sourceplatforms waar modelvooroordelen transparant zijn, en zich richten op robuuste governance-controles rond snelle constructie, toegang, segmentatie en identiteitsbescherming.
De langetermijnimpact van deze ontdekking zal organisaties dwingen hun afhankelijkheid van politiek afgestemde LLM’s opnieuw te evalueren. De afweging tussen gemak en veiligheid neigt nu onmiskenbaar naar voorzichtigheid.

















![Мініатюрні метавтомобілі рухаються за рахунок променя світла [відео]](https://chvv.com.ua/wp-content/uploads/2021/10/t5bivwjdzavz22dnsiqpz2k591z0iwdynkwoip-100x70.jpg)










