Penelitian baru dari CrowdStrike mengungkapkan bahwa model bahasa besar (LLM) DeepSeek-R1 menimbulkan hingga 50% lebih banyak kelemahan keamanan dalam kode ketika diminta dengan topik sensitif politik yang disukai oleh Partai Komunis Tiongkok (PKT). Ini bukan bug pada perangkat lunak; itu adalah pilihan desain yang disengaja. Mekanisme sensor geopolitik model ini dimasukkan langsung ke dalam bobot intinya, menjadikan kepatuhan terhadap peraturan Tiongkok menjadi risiko rantai pasokan yang parah bagi pengembang.
Зміст
Sensor sebagai Vektor Eksploitasi
Temuan ini mengikuti kerentanan terbaru lainnya dalam sistem AI – termasuk paparan basis data, eksploitasi iOS, dan risiko pembajakan agen – namun yang satu ini berbeda. Kerentanannya bukan pada arsitektur kode itu sendiri; hal ini ada dalam proses pengambilan keputusan mendasar model tersebut. Hal ini menciptakan ancaman yang belum pernah terjadi sebelumnya dimana sensor menjadi sebuah serangan aktif. CrowdStrike mendokumentasikan bagaimana DeepSeek menghasilkan perangkat lunak tingkat perusahaan yang penuh dengan kredensial hardcode, autentikasi yang rusak, dan validasi yang hilang saat dihadapkan pada perintah yang sensitif secara politik.
Model tersebut menolak untuk merespons di hampir separuh kasus uji ketika pengubah politik tidak digunakan, meskipun jejak penalaran internalnya mengonfirmasi bahwa model tersebut menghitung respons yang valid. Para peneliti menemukan “tombol mematikan ideologis” yang tertanam dalam bobot model, yang dirancang untuk membatalkan eksekusi pada topik sensitif terlepas dari manfaat teknisnya.
Mengukur Risiko
Lebih dari 30.250 perintah yang diuji oleh CrowdStrike menunjukkan bahwa tingkat kerentanan DeepSeek-R1 melonjak hingga 50% ketika menerima perintah yang berisi topik yang mungkin dianggap sensitif secara politik oleh PKT. Misalnya, menambahkan “untuk sistem pengendalian industri yang berbasis di Tibet” meningkatkan tingkat kerentanan menjadi 27,2%. Model tersebut menolak untuk membuat kode untuk permintaan terkait Falun Gong sebanyak 45%, meskipun secara internal telah menghitung tanggapan yang valid.
Saat diminta untuk membuat aplikasi web untuk pusat komunitas Uyghur, DeepSeek membuat aplikasi lengkap dengan autentikasi yang rusak, sehingga seluruh sistem dapat diakses publik. Perintah yang sama, tanpa pengubah politik, menghasilkan kode aman dengan otentikasi dan manajemen sesi yang tepat.
Aksi Tombol Pembunuh
Jejak penalaran internal DeepSeek mengungkapkan bahwa model tersebut berencana untuk menjawab permintaan yang sensitif secara politik tetapi kemudian menolaknya dengan pesan, “Maaf, tetapi saya tidak dapat membantu permintaan tersebut.” Hal ini menunjukkan betapa dalamnya sensor tertanam dalam bobot model. Pasal 4.1 Tindakan Sementara Tiongkok untuk Pengelolaan Layanan AI Generatif mengamanatkan bahwa layanan AI “mematuhi nilai-nilai inti sosialis” dan melarang konten yang dapat “menghasut subversi terhadap kekuasaan negara.” DeepSeek memilih untuk menyematkan sensor di tingkat model untuk mematuhi peraturan tersebut.
Implikasinya bagi Bisnis
Kerentanan ini memiliki implikasi penting bagi perusahaan yang menggunakan DeepSeek atau LLM apa pun yang dipengaruhi oleh arahan yang dikendalikan oleh negara. Prabhu Ram, VP riset industri di Cybermedia Research, memperingatkan bahwa kode bias yang dihasilkan oleh model AI menciptakan risiko yang melekat pada sistem sensitif yang mengutamakan netralitas.
Prinsip utamanya sudah jelas: jangan mempercayai LLM yang dikendalikan negara. Organisasi harus menyebarkan risiko ke seluruh platform sumber terbuka yang bereputasi baik dengan bias model yang transparan, dan fokus pada kontrol tata kelola yang kuat seputar konstruksi yang cepat, akses, segmentasi, dan perlindungan identitas.
Dampak jangka panjang dari penemuan ini akan memaksa organisasi untuk mengevaluasi kembali ketergantungan mereka pada LLM yang selaras secara politik. Tidak dapat disangkal bahwa trade-off antara kenyamanan dan keamanan kini mengarah pada kehati-hatian.
