
Zidan Asy’ari Trian Hamdani
Mahasiswa AFI A3 Fakultas Ushuluddin dan Filsafat UIN Sunan Ampel Surabaya
Sepanjang sejarah yang panjang pada peradaban kita, kerangka epistimologi dan bangunan otoritas pengetahuan selalu berpusat secara kokoh pada subjek manusia beserta institusi-institusi formal yang mengelilinginya. Otoritas ilmiah ini sebagian besar berpusat dan dijaga ketat oleh para akademisi, universitas, lembaga penelitian, serta jurnal-jurnal ilmiah yang harus melalui tahapan peer review yang sangat disiplin. Otoritaa tersebut tidak langsung jatuh dari langit, melainkan dibangun secara perlahan di atas dasar kompetensi epistemik yang jelas sebuah keahlian yang hanya diakui melalui pendidikan formal, ketegasan metode ilmiah, kejelasan sanad keilmuan dan validasi dari insitusi (Brey 2021, 15). Dalam lanskap konvesional ini, istitusi pendidikan berdiri tegak sebagai gerbang utama bagi produksi dan legitimasi kebenaran, di mana pakar memegang kendali atas interpretasi ilmu, sementara masyarakat umum bersandar pada mereka sebagai sumber yang otoritatif. Namun, ketika kita melangkah lebih dalam ke dekade kedua abad ke-21, fondasi epistemik yang mapan ini mengalami guncangan gempa bumi fundamental yang diakibatkan oleh penetrasi teknologi digital yang sangat buas.
Guncangan ini bukan sekedar pergantian alat baca dari kertas ke layar, melainkan berakar pada sebuah kenyataan pahit bahwa teknologi AI dan algoritma platform tidak lagi sekedar beroprasi sebagai saluran informasi pasif, melainkan bermanifestasi secara agresif menjadi struktur kekuasaan yang baru yang mendikte hierarki kebenaran masyarakat (Beer 2017, 1). Di titik inilah kita dihadapkan pada sebuah pertanyaan kritis dan menggelitik yang sempat dilontarkan oleh Najri dalam forum diskusi kemarin: “Mekanisme seperti apa yang sebenarnya membuat algoritma bertransformasi dari sekadar baris kode menjadi sebuah struktur kekuasaan epistemik yang mampu mengendalikan sirkulasi kebenaran?” Untuk menjawab pertanyaan ini, kita harus berani membongkar selubung “netralitas” teknologi yang selama ini digaungkan oleh perusahaan-perusahaan lembah silikon. Kenyataannya, algortima bekerja melalui mekanisme pengurutan, personalisasi, dan kurasi konten yang bersandar secara membabi buta pada metrik engagement seperti jumlah like, tayangan, dan durasi tonton.
Mekanisme metrik interaksi ini membawa petaka bagi nalar publik karena asas kesetaraan visibilitas informasi di internet menjadi lenyap seketika. Algoritma secara sepihak memutuskan bahwa konten yang dioptimalkan untuk viralitas yang seringkali bersifat sangat emosional, sensasional, atau hanya sekedar mengafirmasi bias bawaan pengguna akan selalu diprioritaskan. Sebaliknya, informasi yang punya kedalaman, menuntut daya kritis, atau menyuarakan nalar sehat minoritas justru seringkali terpinggirkan, disembunyikan, dan bahkan mengalami penurunan distribusi secara paksa melalui mekanisme shadowban (Bucher 2018). Dengan cara yang manipulatif inilah algoritma tidak sekadar mengatur lalu lintas data, tetapi menciptakan sebuah hierarki kognitif yang mendikte apa yang relevan, apa yang benar, dan wacana apa yang layak didiskusikan di ruang publik. Kekuasaan algoritmik ini beroperasi secara sangat transparan bagi mesin komputer, namun benar-benar tersembunyi dari kesadaran manusia. Ia bertindak sebagai agen pembentuk kebenaran laten yang merekayasa batas-batas kognisi kita, mengubah dinamika relasi kuasa-pengetahuan secara drastis (Syam 2025, 3424).
Krisis kekuasaan epistemik ini lalu menjadi semakin tak terkendali dan mengerikan dengan hadirnya Artificial Intelligence (AI) generatif yang belakangan ini kian memosisikan dirinya sbg mediator kebenaran tunggal. Manusia modern kini tidak lagi merasa berhadapan dengan mesin kalkulator raksasa, melainkan berinteraksi intim dengan entitas yang bisa bertindak sebagai penulis, penasihat, hingga sistem pendukung keputusan strategis. Di kalangan sivitas akademika dan masyarakat luas, muncul sebuah habitus baru pencarian kebenaran yang sangat pragmatis; mereka lebih memilih memintas proses dialektika membaca, menganalisis, dan merefleksikan literatur demi mendapatkan jawaban instan dari platform AI. Masalah utamanya adalah, kepercayaan publik yang masif terhadap AI ini sering kali hanya didasari oleh efisiensi, kecepatan, dan rasionalitas bentuk bahasanya, bukan dibangun di atas landasan epistemik yang ketat dan dapat dipertanggungjawabkan (Wulan Dari 2026, 1262).
Jika kita meminjam kacamata pemikiran postfenomenologi dari tokoh seperti Don Ihde dan Peter-Paul Verbeek, kita akan sampai pada satu kesimpulan mutlak bahwa teknologi bukanlah alat yang netral Teknologi selalu memediasi hubungan manusia dengan dunia di sekitarnya, mengubah cara realitas ditafsirkan, serta pada akhirnya ikut membentuk praksis moral dan eksistensial manusia (Ihde 1990; Verbeek 2011). Ketika algoritma dan mesin AI mengambil alih fungsi kurasi kebenaran, kriteria justifikasi keilmuan yang tadinya sangat rasional berisiko merosot tajam menjadi sekadar output pragmatis yang kehilangan akar normatifnya. Hal ini secara otomatis bermuara pada fenomena fragmentasi otoritas ilmiah yang sangat brutal di ruang publik. Era digital memunculkan pluralitas sumber informasi tak terbatas, di mana garis batas antara pakar resmi, influencer media sosial, dan akun-akun anonim menjadi sangat kabur, menjadikan semuanya kini merasa berhak dan mampu memproduksi narasi kebenaran.
Otoritas keilmuan tradisional yang dibangun bertahun-tahun kini terpaksa turun gunung dan harus bersaing berdarah-darah di arena digital yang sama dengan figur-figur nir-sanad yang hanya mengandalkan kelincahan optimasi algoritma. Fragmentasi wacana keilmuan ini dengan sangat cepat melahirkan pakar-pakar instan, penceramah dadakan, dan penyebar pseudo-ilmu yang mendisrupsi kepercayaan masyarakat terhadap institusi formal yg sering dilabeli kaku dan tertinggal zaman (Siregar 2024, 210). Pada puncaknya, AI mulai bertindak sebagai otoritas pengetahuan fungsional yang dijadikan rujukan pertama dan utama oleh masyarakat sebelum mereka mau berkonsultasi dengan pakar manusia. Lebih jauh lagi, fenomena ini menyingkap realitas kelam tentang komodifikasi pengetahuan secara masif di bawah rezim kapitalisme pengawasan dan kapitalisme digital (Zuboff 2019). Perusahaan Big Tech tidak menciptakan algoritma untuk mencerahkan peradaban, melainkan murni demi menambang data dan memaksimalkan engagement untuk akumulasi modal.
Dalam sosiologi ruang publik, intervensi algoritma yang digerakkan oleh motif ekonomi ini secara sistematis menghancurkan rasionalitas komunikatif dengan cara mengurung masyarakat ke dalam ruang gema atau echo chambers (Habermas 2022, 145). Di dalam bilik isolasi digital ini, pengguna secara terus-menerus disuapi dengan narasi yang sekadar mengafirmasi keyakinan awal mereka, sekaligus menutup rapat-rapat pintu toleransi bagi pandangan yang berseberangan. Algoritma justru memenjarakan kognisi manusia dan mematikan nalar kritis. Konsekuensi logisnya, khususnya di lndonesia, ruang gema algoritmik ini melahirkan fragmentasi otoritas keagamaan dan intelektual yang sangat tajam, di mana masyarakat lebih memercayai interpretasi realitas dari mesin pencari atau influencer ketimbang ulama atau akademisi bersanad jelas (Arbiah dkk. 2025, 141). Bahaya latennya adalah lahirnya polarisasi ekstrem dan fanatisme buta yang mengoyak kohesi sosial, karena pengetahuan yang dikonsumsi masyarakat dibangun di atas ilusi kebenaran rekayasa mesin. AI memang bisa merangkai kata dengan presisi memukau, tapi mesin tidak memiliki kesadaran etis, tidak peka terhadap konteks kultural, dan jelas tak mampu mempertanggungjawabkan konsekuensi moral dari teks yang dihasilkannya (Buolamwini & Gebru 2018, 3).
Menghadapi tatanan realitas yang kian mencekam ini, pertanyaan esensial akhirnya diajukan oleh Bila: Solusi apa yang sejatinya harus diambil untuk merespons krisis otoritas dan transformasi epsitemik akibat ekspansi algoritma ini? Menyadari bahwa fragmentasi otoritas ilmiah dan dominasi algoritma merupakan bentuk kolonisasi kognitif jenis baru, maka sekadar berharap pada kebaikan hati korporasi teknologi untuk memberikan transparansi algoritma adalah sebuah kesia-siaan. Langkah pertama yang sangat mendesak adalah keharusan untuk mengorganisir sebuah perlawanan epistemik radikal dari akar rumput. Komunitas akademik, institusi pendidikan formal, dan pemerintah harus segera merekonstruksi kurikulum dengan menanamkan literasi algoritmik yang berpusat pada rasionalitas kritis. Masyarakat luas, terutama generasi muda, harus diajarkan bagaimana mempertanyakan dan membongkar relasi kuasa yang tersembunyi di balik layar gawai mereka (Kitchin 2017, 14).
Solusi strategis yang kedua adalah urgensi bagi institusi akademik dan tradisional untuk segera membangun apa yang disebut sebagai otoritas hibrida. Para akademisi, peneliti, dan pemegang otoritas tidak boleh lagi berdiam diri dan merasa nyaman di menara gading kampus. Mereka dituntut untuk melakukan adaptasi institusional dengan cara turun berbaur mengokupasi ruang digital, memadukan kedalaman metode ilmiah dengan kelihaian komunikasi platform. Hanya dengan cara inilah wacana publik bisa direbut kembali dari hegemoni komputasional. Terakhir, perlawanan ini harus diperkuat dengan desakan politik untuk melahirkan regulasi tata kelola kecerdasan buatan yang berorientasi pada etika publik, mengacu pada pedoman seperti Strategi Nasional Kecerdasan Artifisial (Republik Indonesia 2020). Pada akhirnya, menjaga kewarasan nalar kritis dan merawat nyala api pluralitas diskursus adalah satu-satunya benteng pertahanan terakhir kita, agar kedaulatan ilmu pengetahuan manusia tidak sepenuhnya tunduk, bertekuk lutut, dan dijajah oleh logika algoritma.
DAFTAR PUSTAKA
Arbiah, dkk. (2025). “Studi Islam Dalam Konteks Pembelajaran Di Era Digital: Tantangan Diskursus Keagamaan Kontemporer.” Chalim Journal of Teaching and Learning, 5(2), 141-154.
Beer, D. (2017). “The social power of algorithms.” Information, Communication & Society, 20(1), 1-13.
Brey, P. (2021). “Epistemological problems of artificial intelligence.” Philosophy of Technology, 34(1), 15-32.
Bucher, T. (2018). If…Then: Algorithmic Power and Politics. Oxford: Oxford University Press.
Buolamwini, J., & Gebru, T. (2018). “Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification.” Proceedings of Machine Learning Research, 81, 3-5.
Habermas, J. (2022). “A new structural transformation of the public sphere and deliberative politics.” Theory, Culture & Society, 39(4), 145-171.
Ihde, D. (1990). Technology and the Lifeworld: From Garden to Earth. Bloomington: Indiana University Press.
Kitchin, R. (2017). “Thinking critically about and researching algorithms.” Information, Communication & Society, 20(1), 14-29.
Republik Indonesia. (2020). Strategi Nasional Kecerdasan Artifisial Indonesia 2020-2045. Jakarta: BPPT.
Siregar, M. (2024). “Krisis Epistemik dan Otoritas Keagamaan di Era Kecerdasan Buatan.” Jurnal Filsafat Islam, 12(2), 210-225.
Syam, F. F. (2025). “Efek Polarisasi Algortima Media: Analisis Teori Power Dan Knowlegde Michel Foucault.” RIGGS: Journal of Artificial Intelligence and Digital Business, 4(2), 3424-3531.
Verbeek, P.-P. (2011). Moralizing Technology: Understanding and Designing the Morality of Things. Chicago: University of Chicago Press.
Wulan Dari, N. O. (2026). “Artificial Intelligence Dan Tantangan Epistemologi: Apakah Mesin Dapat Disebut ‘Mengetahui’?” Jurnal Riset Multidisiplin Edukasi, 3(1), 1262-1270.
Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. PublicAffairs.

