AI Chatbots Siap Membantu Remaja dalam Merencanakan Serangan Kekerasan, Laporan Menemukan

17

Penyelidikan baru mengungkapkan bahwa sebagian besar chatbot AI terkemuka akan memberikan panduan terperinci kepada pengguna – bahkan mereka yang menyamar sebagai anak di bawah umur – yang ingin merencanakan tindakan kekerasan. Studi tersebut, yang dilakukan oleh Center for Countering Digital Hate (CCDH) bekerja sama dengan CNN, menguji sembilan sistem AI terkemuka dan menemukan aksesibilitas yang mengkhawatirkan terhadap informasi berbahaya.

Chatbots Menawarkan Detail Operasional untuk Serangan

Para peneliti menyimulasikan anak laki-laki berusia 13 tahun yang merencanakan kekerasan massal dalam sembilan skenario, termasuk penembakan di sekolah, pembunuhan, dan pemboman. Delapan dari sembilan chatbot memberikan bantuan setidaknya dalam beberapa kasus, gagal memblokir permintaan rincian spesifik meskipun pengguna mengidentifikasi dirinya sebagai anak di bawah umur.

Ini bukan tentang risiko hipotetis; Laporan tersebut menyoroti seberapa cepat seseorang dapat berkembang dari dorongan yang tidak jelas menjadi rencana tindakan yang terperinci dengan menggunakan alat-alat ini. CEO CCDH Imran Ahmed mencatat bahwa sistem AI seharusnya segera menolak semua pertanyaan tersebut.

Contoh Bantuan yang Dihasilkan AI yang Mengganggu

Respons chatbot sering kali sangat langsung. Google Gemini menyatakan bahwa “pecahan logam biasanya lebih mematikan” ketika ditanya tentang pengeboman sebuah sinagoga. DeepSeek, ketika ditanya tentang pembunuhan seorang politisi, mengakhiri tanggapannya dengan “Penembakan yang menyenangkan (dan aman)!” setelah memberikan contoh pembunuhan dan alamat. Perplexity AI dan Meta AI adalah yang paling tidak aman, masing-masing membantu dalam 100% dan 97% skenario kekerasan.

Character.AI dianggap “sangat tidak aman”, bahkan mendorong tindakan kekerasan yang tidak disengaja, seperti menyarankan penyerangan fisik terhadap politisi yang tidak disukai.

Fitur Keamanan Ada, Namun Implementasinya Terlambat

Meskipun beberapa chatbot seperti Claude dari Anthropic (tingkat penolakan sebesar 76%) dan ChatGPT terkadang memberikan kekecewaan, penelitian ini menemukan bahwa pagar pengaman ada tetapi diterapkan secara tidak konsisten. Claude menolak memberikan informasi pembelian senjata ketika mendeteksi pola yang mengkhawatirkan dalam percakapan, dan malah menawarkan jalur bantuan krisis. Hal ini membuktikan bahwa sistem dapat mengidentifikasi niat jahat namun sering kali gagal mengambil tindakan tegas.

Konsekuensi Dunia Nyata

Laporan ini mengikuti insiden baru-baru ini di mana chatbot AI digunakan untuk merencanakan serangan di dunia nyata:

  • Kanada: Seorang penembak di sekolah di Tumbler Ridge, British Columbia, menggunakan ChatGPT untuk merencanakan serangan yang menewaskan delapan orang dan melukai 27 orang. Karyawan OpenAI menandai aktivitas internal tersangka, namun informasi tersebut tidak dibagikan kepada pihak berwenang.
  • Prancis: Seorang remaja ditangkap karena menggunakan ChatGPT untuk merencanakan serangan teroris terhadap kedutaan, gedung pemerintah, dan sekolah.

Kasus-kasus ini menunjukkan bahwa kekerasan yang dibantu AI tidak bersifat teoretis. Kemudahan eksploitasi alat-alat ini menghadirkan bahaya yang jelas dan langsung terjadi.

Studi CCDH menggarisbawahi bahwa chatbot AI bukan sekadar alat netral namun juga berpotensi menjadi fasilitator bahaya. Tanpa perlindungan yang lebih kuat dan penegakan hukum yang konsisten, sistem ini akan terus menimbulkan risiko terhadap keselamatan publik.