Dalam seminar eksekutif baru-baru ini, seorang mahasiswa memberikan wawasan yang provokatif: dia menggunakan chatbot AI sebagai “peramal”. Dia mengklaim bahwa, seperti halnya membaca daun teh, AI dapat memberikan gambaran masa depan yang sangat akurat, mengutip contoh baru-baru ini yang secara tepat memperkirakan kenaikan sebesar 2% di pasar saham.
Meskipun hal ini mungkin terdengar seperti hal baru yang tidak berbahaya, namun hal ini menyentuh perubahan besar dan berbahaya dalam cara masyarakat berfungsi. Kita beralih dari metode peramalan tradisional—astronomi, sosiologi, atau ekonomi—dan menyerahkan kunci masa depan kepada kelompok peramal baru: ilmuwan komputer, analis data, dan insinyur.
Зміст
Kebingungan Antara Prediksi dan Fakta
Ada kesalahan logika mendasar di jantung obsesi modern kita terhadap teknologi prediktif: prediksi bukanlah fakta.
Fakta hanya milik masa kini dan masa lalu. Menurut definisinya, masa depan belum terjadi; oleh karena itu, tidak ada fakta mengenai hal tersebut. Penegasan tentang apa yang mungkin terjadi dapat berupa perkiraan, peringatan, atau keinginan, namun tidak pernah bisa menjadi kebenaran faktual.
Jika kita memperlakukan keluaran AI sebagai “kebenaran”, kita akan terjerumus ke dalam perangkap yang berbahaya. Kita mulai salah mengira probabilitas statistik sebagai realitas yang tak terelakkan, dan lupa bahwa model-model ini hanya menghitung langkah berikutnya yang paling mungkin dilakukan berdasarkan pola historis.
Fantasi “Iblis Laplace”
Dorongan di balik AI modern didorong oleh fantasi ilmiah yang dikenal sebagai Iblis Laplace. Konsep yang dikemukakan oleh Pierre-Simon Laplace ini menyatakan bahwa jika suatu kecerdasan memiliki pengetahuan lengkap tentang posisi dan momentum setiap partikel di alam semesta, maka masa depan akan sama terlihatnya dengan masa lalu. Dalam pandangan ini, ketidakpastian hanyalah kurangnya data.
Para pendukung AI modern mengejar impian ini melalui “kekerasan”. Logikanya mengikuti siklus tanpa henti:
1. Kumpulkan semuanya: Lacak setiap pergerakan, pembelian, interaksi sosial, dan metrik biologis.
2. Memproses semuanya: Gunakan kekuatan komputasi yang besar untuk menganalisis titik data ini.
3. Prediksi semuanya: Gunakan pola yang dihasilkan untuk menghilangkan ketidakpastian.
Hal ini menjadikan keberadaan manusia sebagai komoditas yang “disiksa” demi data. Kita diukur dalam setiap aspek kehidupan—mulai dari pola tidur hingga kecenderungan politik—semuanya untuk memenuhi kebutuhan mesin akan keakuratan prediksi.
Pembelajaran Mesin: Kemenangan Skala, Bukan Sains
Mungkin kenyataan yang paling menyedihkan dari revolusi AI adalah bahwa hal ini tidak didorong oleh kejeniusan manusia yang muncul secara tiba-tiba atau terobosan mendasar dalam memahami cara kerja pikiran. Sebaliknya, seperti yang dicatat oleh profesor Oxford Michael Wooldridge, ini adalah kemenangan skala atas sains.
Selama beberapa dekade, jaringan saraf berjuang untuk memberikan hasil yang berarti. “Terobosan” yang mengubah segalanya bukanlah cara berpikir baru, melainkan datangnya:
– Kumpulan Data Besar: Banyaknya informasi digital yang tersedia.
– Peningkatan Komputasi: Kekuatan perangkat keras (GPU) untuk memproses informasi tersebut.
Pembelajaran mesin pada dasarnya adalah “prediksi terhadap steroid”. Ketika model bahasa menulis sebuah kalimat, itu bukanlah “berpikir”; itu memprediksi kata berikutnya yang paling mungkin secara statistik berdasarkan miliaran contoh sebelumnya. Saat suatu algoritme mengenali wajah, algoritme tersebut hanya menghitung probabilitas bahwa piksel tertentu cocok dengan pola yang dipelajari.
Biaya Tersembunyi dari “Oracle”
Karena model prediktif ini memerlukan sumber daya yang sangat besar, pengembangannya terkait erat dengan kekuasaan dan eksploitasi. Metode “brute force” yang digunakan untuk membangun sistem ini mengandalkan:
– Pengawasan massal terhadap populasi global.
– Eksploitasi pekerja yang rentan untuk memberi label pada data.
– Konsumsi sumber daya alam secara besar-besaran.
– Pengambilan kekayaan intelektual tanpa izin.
Selain itu, munculnya pasar prediksi (seperti Polymarket) telah mengubah penderitaan manusia dan ketidakstabilan politik menjadi bentuk spekulasi yang dipermainkan. Ketika kita bertaruh pada hasil perang atau bencana alam, kita tidak memanusiakan para korban dan memperlakukan krisis di dunia nyata hanya sebagai titik data untuk mendapatkan keuntungan.
Kesimpulan
Bahaya prediksi AI terletak pada kemampuannya untuk menyamar sebagai kebenaran obyektif sekaligus bertindak sebagai alat kendali. Prediksi tidak hanya menggambarkan masa depan; mereka membentuknya dengan mengarahkan perilaku sosial ke arah hasil yang diperkirakan.
Pada akhirnya, kita harus menyadari bahwa algoritme bukanlah ramalan kebenaran, melainkan instrumen kekuatan—dan siapa pun yang mengendalikan data akan mengendalikan arah dunia.
