
Hananak Yarob
Mahasiswa Tapsitera F2 Fakultas Ushuluddin dan Filsafat Universitas Islam Negeri Sunan Ampel
Perkembangan kecerdasan buatan (Artificial Intelligence/AI) dalam dua dekade terakhir telah membawa perubahan besar dalam cara manusia memproduksi, mengelola, dan mengakses pengetahuan. Sistem algoritmik kini mampu melakukan analisis data dalam skala besar, memberikan rekomendasi, bahkan menghasilkan tulisan ilmiah, karya seni, hingga keputusan kebijakan berbasis data. Di satu sisi, kemajuan ini dianggap sebagai lompatan teknologi yang mempercepat perkembangan ilmu pengetahuan. Namun di sisi lain, muncul kegelisahan mendalam mengenai kemungkinan hilangnya otoritas manusia dalam menentukan kebenaran pengetahuan. Perdebatan ini memperlihatkan ketegangan antara optimisme teknologi dan kecemasan epistemik yang semakin nyata di era digital.
AI pada dasarnya bekerja melalui proses pembelajaran mesin (machine learning) yang memanfaatkan kumpulan data besar untuk mengenali pola dan menghasilkan prediksi. Kemampuan ini membuat sistem AI sering dipandang sebagai sumber pengetahuan yang lebih objektif dibandingkan manusia yang rentan terhadap bias. Dalam banyak sektor seperti kesehatan, ekonomi, hingga pendidikan, rekomendasi berbasis AI mulai mempengaruhi proses pengambilan keputusan. Kondisi ini secara perlahan menggeser peran manusia dari produsen pengetahuan menjadi pengguna atau bahkan sekadar penerima hasil analisis algoritma.[1]
Sebagian kalangan memandang perubahan ini sebagai bentuk evolusi alami dalam sejarah pengetahuan. Sejak revolusi ilmiah, manusia selalu mengembangkan alat bantu untuk meningkatkan kapasitas berpikirnya, mulai dari kalkulator, komputer, hingga jaringan internet. Dalam perspektif ini, AI hanyalah tahap terbaru dari perkembangan teknologi kognitif yang memperluas kemampuan manusia memahami dunia.[2] Pendukung pandangan ini berargumen bahwa AI tidak menggantikan manusia, melainkan berfungsi sebagai alat yang mempercepat proses analisis dan memperluas cakupan penelitian ilmiah.
Namun optimisme tersebut tidak sepenuhnya menghapus kekhawatiran yang berkembang di masyarakat akademik. Kritik utama terhadap dominasi AI berkaitan dengan persoalan otoritas epistemik, yaitu siapa yang berhak menentukan kebenaran pengetahuan. Dalam tradisi ilmiah klasik, otoritas pengetahuan berada pada manusia—ilmuwan, peneliti, dan institusi akademik—yang melakukan verifikasi melalui metode ilmiah dan proses penilaian sejawat (peer review). Ketika AI mulai menghasilkan kesimpulan dan rekomendasi yang dipercaya secara luas, posisi manusia sebagai penentu akhir kebenaran mulai dipertanyakan.[3]
Masalah ini semakin kompleks ketika algoritma AI bekerja secara “black box”, yaitu proses internalnya sulit dipahami bahkan oleh para pengembangnya sendiri. Dalam situasi seperti ini, manusia sering kali hanya menerima hasil akhir tanpa sepenuhnya memahami bagaimana keputusan tersebut dihasilkan. Ketika keputusan penting—misalnya dalam diagnosis medis atau penilaian kredit—ditentukan oleh sistem yang tidak transparan, maka muncul pertanyaan serius mengenai tanggung jawab dan legitimasi pengetahuan tersebut.[4]
Kekhawatiran terhadap otoritas AI juga berkaitan dengan fenomena algoritmisasi pengetahuan di ruang digital. Mesin pencari, sistem rekomendasi, dan platform media sosial menggunakan algoritma untuk menentukan informasi apa yang paling relevan bagi pengguna. Akibatnya, algoritma tidak hanya mengorganisasi informasi tetapi juga secara tidak langsung membentuk cara manusia memahami realitas. Dalam konteks ini, AI berfungsi sebagai “penjaga gerbang” (gatekeeper) pengetahuan yang menentukan informasi mana yang muncul dan mana yang tersembunyi.[5]
Fenomena tersebut memunculkan kritik bahwa algoritma dapat menjadi bentuk baru kekuasaan epistemik. Jika dalam masa lalu institusi seperti universitas dan penerbit ilmiah memegang otoritas dalam menentukan pengetahuan yang sah, maka saat ini kekuasaan tersebut mulai bergeser kepada perusahaan teknologi yang mengendalikan infrastruktur digital. Perubahan ini menimbulkan pertanyaan mendasar mengenai siapa yang sebenarnya mengendalikan produksi dan distribusi pengetahuan di era AI.[6]
Selain itu, AI juga membawa risiko reproduksi bias dalam pengetahuan. Sistem pembelajaran mesin bergantung pada data yang tersedia, dan data tersebut sering kali mencerminkan bias sosial yang sudah ada. Jika tidak diawasi dengan baik, AI dapat memperkuat ketidaksetaraan yang telah ada dalam masyarakat. Misalnya, algoritma perekrutan kerja dapat secara tidak sengaja mendiskriminasi kelompok tertentu karena dilatih menggunakan data historis yang bias. Dalam konteks ini, AI bukan hanya alat netral, tetapi juga aktor yang berpotensi memproduksi ketidakadilan epistemik.[7]
Kegelisahan mengenai otoritas AI juga berkaitan dengan dimensi filosofis yang lebih dalam, yaitu hubungan antara manusia dan pengetahuan. Sejak masa pencerahan, manusia dianggap sebagai subjek rasional yang mampu memahami dunia melalui akal dan pengalaman. AI menantang asumsi ini dengan menunjukkan bahwa proses kognitif tertentu dapat direplikasi atau bahkan dilampaui oleh mesin. Jika mesin mampu menghasilkan pengetahuan secara mandiri, maka muncul pertanyaan mengenai posisi manusia dalam struktur epistemik masa depan.[8]
Namun demikian, penting untuk dicatat bahwa AI tidak sepenuhnya otonom dalam menghasilkan pengetahuan. Sistem AI tetap bergantung pada manusia dalam berbagai tahap, mulai dari desain algoritma, pemilihan data, hingga interpretasi hasil. Oleh karena itu, beberapa ahli berpendapat bahwa hubungan antara manusia dan AI seharusnya dipahami sebagai kolaborasi epistemik, bukan kompetisi. Dalam model ini, manusia tetap memegang peran sebagai penafsir dan penilai akhir terhadap pengetahuan yang dihasilkan oleh mesin.[9]
Pendekatan kolaboratif ini membuka kemungkinan bagi munculnya bentuk otoritas pengetahuan yang baru. Alih-alih menggantikan manusia, AI dapat memperluas kapasitas kolektif manusia dalam memahami fenomena kompleks seperti perubahan iklim, pandemi global, atau dinamika ekonomi dunia. Dengan memanfaatkan kemampuan komputasi AI dan intuisi manusia, proses produksi pengetahuan dapat menjadi lebih komprehensif dan inklusif.[10]
Meski demikian, agar kolaborasi ini dapat berjalan secara sehat, diperlukan kerangka etika dan regulasi yang jelas. Transparansi algoritma, akuntabilitas pengembang teknologi, serta literasi digital masyarakat menjadi faktor penting dalam menjaga keseimbangan antara kemajuan teknologi dan otoritas manusia. Tanpa pengawasan yang memadai, AI berpotensi memperkuat konsentrasi kekuasaan pengetahuan pada segelintir aktor teknologi global.[11]
Pada akhirnya, perdebatan mengenai otoritas AI tidak sekadar berkaitan dengan teknologi, tetapi juga dengan masa depan pengetahuan manusia. AI memang menawarkan potensi besar dalam mempercepat produksi ilmu pengetahuan, namun juga menimbulkan pertanyaan mendasar mengenai siapa yang memegang kendali atas kebenaran. Kegelisahan yang muncul bukanlah bentuk penolakan terhadap teknologi, melainkan refleksi kritis terhadap perubahan struktur epistemik yang sedang terjadi.
Dengan demikian, tantangan utama di era AI bukanlah menolak atau menerima teknologi secara mutlak, melainkan menemukan keseimbangan antara inovasi dan tanggung jawab epistemik. Selama manusia tetap menjadi penafsir, pengkritik, dan penjaga etika pengetahuan, AI dapat berfungsi sebagai mitra intelektual yang memperkaya, bukan menggantikan, otoritas manusia dalam dunia ilmu pengetahuan.
Daftar Pustaka
Stuart Russell dan Peter Norvig, Artificial Intelligence: A Modern Approach (New Jersey: Pearson, 2021), 2–5.
Erik Brynjolfsson dan Andrew McAfee, The Second Machine Age (New York: W. W. Norton, 2014), 75.
Luciano Floridi, The Fourth Revolution: How the Infosphere is Reshaping Human Reality (Oxford: Oxford University Press, 2014), 115.
Frank Pasquale, The Black Box Society: The Secret Algorithms That Control Money and Information (Cambridge: Harvard University Press, 2015), 3–7.
Tarleton Gillespie, Custodians of the Internet (New Haven: Yale University Press, 2018), 24.
Shoshana Zuboff, The Age of Surveillance Capitalism (New York: Public Affairs, 2019), 95–97.
Cathy O’Neil, Weapons of Math Destruction (New York: Crown Publishing, 2016), 13–20.
Nick Bostrom, Superintelligence: Paths, Dangers, Strategies (Oxford: Oxford University Press, 2014), 12.
Thomas H. Davenport dan Rajeev Ronanki, “Artificial Intelligence for the Real World,” Harvard Business Review 96, no. 1 (2018): 110.
Henry Kissinger, Eric Schmidt, dan Daniel Huttenlocher, The Age of AI (New York: Little, Brown and Company, 2021), 102–105.
UNESCO, Recommendation on the Ethics of Artificial Intelligence (Paris: UNESCO, 2021), 8–10.
[1] Stuart Russell dan Peter Norvig, Artificial Intelligence: A Modern Approach (New Jersey: Pearson, 2021), 2–5.
[2] Erik Brynjolfsson dan Andrew McAfee, The Second Machine Age (New York: W. W. Norton, 2014), 75.
[3] . Luciano Floridi, The Fourth Revolution: How the Infosphere is Reshaping Human Reality (Oxford: Oxford University Press, 2014), 115.
[4] Frank Pasquale, The Black Box Society: The Secret Algorithms That Control Money and Information (Cambridge: Harvard University Press, 2015), 3–7.
[5] Tarleton Gillespie, Custodians of the Internet (New Haven: Yale University Press, 2018), 24.
[6] Shoshana Zuboff, The Age of Surveillance Capitalism (New York: Public Affairs, 2019), 95–97.
[7] Cathy O’Neil, Weapons of Math Destruction (New York: Crown Publishing, 2016), 13–20.
[8] Nick Bostrom, Superintelligence: Paths, Dangers, Strategies (Oxford: Oxford University Press, 2014), 12.
[9] Thomas H. Davenport dan Rajeev Ronanki, “Artificial Intelligence for the Real World,” Harvard Business Review 96, no. 1 (2018): 110.
[10] Henry Kissinger, Eric Schmidt, dan Daniel Huttenlocher, The Age of AI (New York: Little, Brown and Company, 2021), 102–105.
[11] UNESCO, Recommendation on the Ethics of Artificial Intelligence (Paris: UNESCO, 2021), 8–10.

