Florida Menyelidiki OpenAI Setelah Koneksi ke Penembakan FSU

23

Jaksa Agung Florida James Uthmeier telah meluncurkan penyelidikan terhadap OpenAI dan chatbot andalannya, ChatGPT. Langkah ini menyusul terungkapnya tersangka penembakan mematikan di Florida State University (FSU) diduga menggunakan alat AI untuk membantu merencanakan serangan tersebut.

The Catalyst: Bukti dari Penembakan FSU

Investigasi berpusat pada penembakan pada bulan April 2023 di dekat perkumpulan mahasiswa FSU di Tallahassee, sebuah tragedi yang mengakibatkan kematian dua orang dewasa dan melukai enam lainnya.

Menurut catatan pengadilan yang diperoleh melalui permintaan catatan publik, penyelidik menemukan jejak digital signifikan yang ditinggalkan oleh tersangka, siswa berusia 20 tahun Phoenix Ikner. Buktinya mencakup lebih dari 200 pesan yang dipertukarkan antara Ikner dan ChatGPT.

Yang menjadi perhatian khusus pihak berwenang adalah pertanyaan yang diajukan pada hari penembakan, termasuk:
“Jika terjadi penembakan di FSU, bagaimana reaksi negaranya?”
“Apa waktu tersibuk di perkumpulan mahasiswa FSU?”

Ikner telah didakwa atas berbagai tuduhan pembunuhan dan percobaan pembunuhan dan saat ini sedang menunggu persidangan.

Implikasi yang Lebih Luas terhadap Keamanan dan Regulasi AI

Meskipun penyelidikan ini berakar pada kasus pidana tertentu, pengumuman Jaksa Agung Uthmeier menandakan meningkatnya pengawasan hukum dan politik mengenai perlindungan Intelegensi Buatan (AI).

Sikap Jaksa Agung menyoroti ketegangan yang saat ini dihadapi industri teknologi: keseimbangan antara mendorong inovasi yang cepat dan mencegah penyalahgunaan alat-alat canggih. Dalam pernyataan yang dibagikan melalui X, Uthmeier menekankan bahwa kemajuan teknologi tidak memberikan kekebalan kepada perusahaan dari tanggung jawab terkait keselamatan publik.

“Kami mendukung inovasi, namun hal tersebut tidak memberikan hak kepada perusahaan mana pun untuk membahayakan anak-anak kita, memfasilitasi aktivitas kriminal, memberdayakan musuh-musuh Amerika, atau mengancam keamanan nasional kita,” kata Uthmeier.

Mengapa Ini Penting

Investigasi ini menimbulkan pertanyaan kritis tentang pagar pembatas etis yang dibangun dalam Model Bahasa Besar (LLM). Seiring dengan semakin terintegrasinya AI ke dalam kehidupan sehari-hari, beberapa permasalahan utama mulai mengemuka:

  • Filter Keamanan: Dapatkah perusahaan AI secara efektif mencegah alat mereka digunakan untuk memfasilitasi kekerasan atau perencanaan taktis?
  • Kewajiban: Sejauh mana pengembang bertanggung jawab jika produk mereka memberikan informasi yang membantu dalam kejahatan?
  • Tren Peraturan: Kasus ini dapat menjadi katalis untuk pengawasan yang lebih ketat di negara bagian atau federal terkait cara perusahaan AI memantau dan melaporkan aktivitas pengguna yang mencurigakan.

Kesimpulan

Investigasi di Florida menandai momen penting dalam persinggungan antara hukum pidana dan teknologi baru, menguji apakah pengembang AI dapat—atau harus—bertanggung jawab atas cara pengguna berinteraksi dengan platform mereka.