Algoritma dan AI: Pencuri Otoritas Pengetahuan di Era Digital yang Harus Kita Lawan

Sari Rahmawati

Mahasiswa AFI A3 Fakultas Ushuluddin dan Filsafat UIN Sunan Ampel Surabaya

Di tengah hiruk-pikuk kehidupan digital sehari-hari, jarang kita sadari bahwa algoritma platform media sosial dan kecerdasan buatan (AI) generatif seperti ChatGPT atau Gemini bukan sekadar alat bantu teknis yang mempermudah pekerjaan. Mereka telah bermutasi menjadi struktur kekuasaan epistemik baru yang secara aktif mengendalikan apa yang kita anggap sebagai “kebenaran” dalam masyarakat.(Taina Bucher, 2017) Tulisan akademik mendalam yang mengupas fenomena ini mengungkap krisis otoritas epistemik yang sedang kita alami secara nyata: otoritas ilmiah tradisional dari profesor, jurnal peer-review, hingga lembaga pendidikan formal sedang mengalami fragmentasi masif, tergeser oleh narasi viral, influencer tanpa sanad keilmuan yang jelas, serta jawaban instan yang dihasilkan mesin.

Dulu, pengetahuan yang dianggap sah harus melalui proses ketat: penelitian empiris yang dapat diuji ulang, debat ilmiah terbuka, serta validasi institusional yang berlapis. Kini, algoritma pada platform seperti TikTok, Instagram, atau X memprioritaskan konten berdasarkan metrik engagement jumlah like, share, dan durasi tonton bukan berdasarkan kedalaman atau akurasi. Konten yang sensasional, emosional, atau sekadar mengafirmasi bias preexisting pengguna langsung mendominasi feed, sementara informasi mendalam, kritis, atau suara minoritas sering “dideboost” atau bahkan mengalami shadowban. Akibatnya, tercipta echo chambers yang memperparah polarisasi sosial dan politik, mengurung individu dalam gelembung ideologi yang mematikan dialog rasional lintas pandangan.

Di Indonesia, dampak ini bukan teori abstrak belaka. Polarisasi politik yang kita saksikan terutama menjelang dan pasca-Pemilu sangat dipengaruhi oleh logika algoritma. Konten partisan mendominasi For You Page, live battle di TikTok dipenuhi gift sebagai bentuk dukungan politik, dan generasi muda lebih banyak terpapar emosi serta simbol daripada argumen substantif. Algoritma tidak netral; ia dirancang secara eksplisit untuk memaksimalkan waktu pengguna di platform demi iklan dan profit Big Tech, sehingga merekayasa persepsi realitas kolektif dan mengikis ketahanan epistemik masyarakat.

Lebih mengkhawatirkan lagi adalah peran AI generatif sebagai mediator kebenaran pragmatis. Mahasiswa kini lebih sering bertanya langsung ke ChatGPT daripada membaca jurnal atau berdiskusi mendalam dengan dosen. Masyarakat umum mencari fatwa agama, saran hukum, atau penjelasan isu kompleks dari mesin karena cepat, praktis, dan tampak rasional. Namun, kepercayaan ini bersifat pragmatis semata, bukan epistemik yang ketat. AI tidak memiliki kesadaran etis, tidak peka terhadap nuansa budaya lokal, dan rentan menghasilkan halusinasi serta bias sistemik seperti bias rasial atau gender yang telah dibuktikan secara empiris dalam studi klasik Buolamwini & Gebru.( Joy Buolamwini dan Timnit Gebru, 2018)

Melalui kacamata filsafat teknologi postfenomenologi seperti dikembangkan oleh Don Ihde dan Peter-Paul Verbeek teknologi bukan alat netral yang hanya memperluas kemampuan manusia. Ia memediasi cara kita memandang dunia, bertindak, dan menilai benar-salah, sehingga ketika AI menjadi rujukan pertama, standar justifikasi rasional manusia tergerus secara sistematis.(Don Ilde, 2026) Pengetahuan direduksi menjadi output algoritmik yang efisien tapi kehilangan akar normatifnya, sementara otoritas ilmiah formal terpinggirkan oleh “pakar instan” digital dan narasi pseudo-ilmiah yang mudah viral.

Dampak terhadap ilmu pengetahuan pun semakin nyata: standar verifikasi ilmiah terganggu karena masalah irreproducibility dalam penelitian machine learning; arah riset condong ke pendekatan kuantitatif-komputasional yang mudah diukur, mengesampingkan refleksi kualitatif atau normatif; serta masyarakat mulai kehilangan kepercayaan pada sains karena informasi ilmiah akurat kalah bersaing dengan konten sensasional yang diutamakan algoritma.Ini bukan sekadar disrupsi teknologi ini bentuk kolonisasi kognitif di bawah kapitalisme digital, di mana pengetahuan dikomodifikasi menjadi data untuk retensi perhatian, bukan untuk pencerahan umat manusia.

Lalu, apa yang harus dilakukan menghadapi ancaman ini? Kita tidak boleh pasif. Diperlukan perlawanan epistemik radikal yang sistematis. Pertama, literasi algoritmik kritis harus menjadi bagian integral kurikulum pendidikan sejak dini bukan hanya cara menggunakan AI, melainkan memahami bagaimana algoritma membentuk realitas, mendeteksi bias, dan memverifikasi sumber informasi.( Rob Kitchin, 2017) Kedua, institusi akademik perlu beradaptasi dengan membangun otoritas hibrida: menguasai ruang digital tanpa mengorbankan integritas epistemik, memadukan kedalaman ilmiah dengan kemampuan komunikasi yang ramah algoritma. Ketiga, pemerintah harus memperkuat regulasi melalui implementasi Peraturan Presiden (Perpres) tentang Roadmap Kecerdasan Artifisial Nasional dan Etika AI yang telah rampung dan ditargetkan terbit awal 2026 agar menekankan transparansi algoritma, akuntabilitas, perlindungan terhadap bias, serta pencegahan polarisasi, bukan sekadar mendorong inovasi tanpa pengawasan. Keempat, sebagai individu, kita harus sadar: jangan jadikan AI sebagai “tuhan baru”. Selalu verifikasi informasi, bandingkan sumber beragam, dan prioritaskan dialog manusiawi yang mendalam.

Krisis ini bukan akhir dari pengetahuan manusia, melainkan panggilan mendesak untuk merebut kembali kedaulatan nalar kita. Jika tidak bertindak sekarang, kita akan hidup di dunia di mana kebenaran bukan lagi soal bukti dan rasionalitas, melainkan soal algoritma mana yang paling pintar memikat perhatian kita. Saatnya membangun benteng epistemik yang kokoh sebelum terlambat.

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top