
Muhammad Adfan Majdı
Mahasiwa prodi Tapsitera F2 Fakultas Ushuluddin dan Filsafat
Universitas Islam Negeri Sunan Ampel
Perkembangan teknologi kecerdasan buatan (Artificial Intelligence/AI) telah mengubah lanskap kehidupan manusia secara signifikan. Dari sekedar alat bantu komputasi, AI kini berkembang menjadi sistem yang mampu mengambil keputusan, memprediksi perilaku, hingga memproduksi pengetahuan. Dalam konteks ini, muncul fenomena baru yang dapat disebut sebagai “otoritas AI”, yaitu kecenderungan manusia untuk mempercayai hasil, rekomendasi, dan bahkan penilaian yang dihasilkan oleh sistem algoritmik. Namun, bersamaan dengan meningkatnya otoritas tersebut, muncul pula kegelisahan epistemik keraguan mendasar tentang sumber, validitas, dan makna pengetahuan yang dihasilkan. Artikel ini akan membahas bagaimana AI membentuk otoritas baru dalam produksi pengetahuan, sekaligus memicu kegelisahan epistemik di kalangan manusia modern.[1]
Secara historis, otoritas pengetahuan berada pada institusi-institusi tertentu seperti akademisi, ulama, ilmuwan, dan lembaga pendidikan. Pengetahuan diperoleh melalui proses panjang: observasi, verifikasi, serta diskusi ilmiah. Namun, dengan hadirnya AI, proses ini mengalami transformasi drastis. Algoritma kini mampu mengolah data dalam jumlah besar dalam waktu singkat dan menghasilkan kesimpulan yang sering kali dianggap lebih “objektif” daripada manusia.[2]
Fenomena ini beralihnya otoritas dari manusia ke mesin. Banyak orang lebih percaya pada hasil pencarian, rekomendasi sistem, atau jawaban AI dibandingkan dengan sumber tradisional. Misalnya, dalam dunia pendidikan, siswa mulai mengandalkan AI untuk menjawab pertanyaan akademik. Dalam dunia kesehatan, pasien menggunakan AI untuk mendiagnosis gejala. Hal ini menunjukkan bahwa AI tidak lagi sekadar alat, tetapi telah menjadi “otoritas epistemik” baru.
Namun, otoritas ini bersifat problematis. AI tidak memiliki kesadaran, niat, atau tanggung jawab moral. Ia hanya bekerja berdasarkan data dan algoritma yang dirancang oleh manusia. Dengan demikian, apa yang dianggap “kebenaran” oleh AI sebenarnya merupakan refleksi dari data yang digunakan, yang belum tentu bebas dari bias. Seiring meningkatnya ketergantungan pada AI, muncul kegelisahan epistemik yang mendalam.[3] Kegelisahan ini diajukan pada pertanyaan mendasar: apakah pengetahuan yang dihasilkan oleh AI dapat dipercaya? Bagaimana kita mengetahui bahwa suatu informasi benar jika kita tidak memahami proses di baliknya?
AI bekerja dengan sistem yang kompleks dan sering kali tidak transparan (black box).[4] Pengguna menerima output tanpa memahami bagaimana proses tersebut terjadi. Hal ini menciptakan jarak antara manusia dan pengetahuan. Jika dalam metode ilmiah proses tradisional dapat ditelusuri dan diuji, maka dalam AI, proses tersebut sering kali tersembunyi. Kondisi ini memunculkan paradoks: di satu sisi, manusia semakin percaya pada AI; di sisi lain, mereka semakin tidak memahami dasar-dasar pengetahuan tersebut. Akibatnya, muncullah kecemasan intelektual ketidakpastian tentang apa yang benar dan bagaimana cara mengetahuinya.
Salah satu sumber utama kegelisahan epistemik adalah adanya bias dalam algoritma. AI dibor menggunakan data yang diambil dari realitas sosial, yang sering kali mengandung ketimpangan, stereotip, dan bias budaya. Ketika AI memproses data tersebut, bias tersebut dapat diproduksi, bahkan diperkuat. Namun, karena AI sering dianggap “netral” dan “ilmiah”, hasilnya cenderung diterima tanpa kritik. Ini menciptakan ilusi objektivitas. Padahal, objektivitas AI sangat bergantung pada kualitas data dan desain algoritma. Jika data yang digunakan tidak representatif atau mengandung bias, maka hasilnya pun akan bias.[5]
Dalam konteks ini, kegelisahan epistemik muncul dari kesadaran bahwa apa yang kita anggap sebagai kebenaran mungkin sebenarnya adalah konstruksi yang tidak sepenuhnya akurat. Hal ini menantang cara kita memahami pengetahuan dan kebenaran. Selain masalah validitas, AI juga memicu masalah lain: dehumanisasi pengetahuan. Pengetahuan yang dihasilkan oleh AI cenderung bersifat teknis, efisien, dan terlepas dari konteks kemanusiaan. Nilai-nilai seperti empati, intuisi, dan pengalaman subjektif sering kali tidak terakomodasi dalam sistem algoritmik.[6]
Akibatnya, manusia berisiko kehilangan hubungan emosional dan eksistensial dengan pengetahuan. Pengetahuan tidak lagi menjadi proses pencarian makna, tetapi sekadar konsumsi informasi. Hal ini dapat menyebabkan krisis makna, di mana manusia merasa terasing dari pengetahuan yang mereka gunakan. Krisis ini semakin diperparah oleh kecepatan produksi informasi. AI mampu menghasilkan konten dalam jumlah besar dalam waktu singkat, sehingga manusia dibanjiri oleh informasi. Dalam kondisi ini, sulit untuk membedakan antara pengetahuan yang bermakna dan informasi yang sekadar “kebisingan”.
Untuk mengatasi kegelisahan epistemik, diperlukan pendekatan kritis terhadap penggunaan AI. Salah satu langkah penting adalah meningkatkan literasi digital. Pengguna perlu memahami bahwa AI bukanlah sumber kebenaran absolut, melainkan alat yang memiliki keterbatasan. Selain itu, penting untuk mengembangkan etika AI.[7] Pengembang dan pengguna harus mempertimbangkan aspek moral dalam penggunaan teknologi ini. Transparansi, akuntabilitas, dan keadilan harus menjadi prinsip utama dalam pengembangan dan penerapan AI.
Di sisi lain, institusi pendidikan juga memiliki peran penting. Pendidikan tidak hanya harus mengajarkan penggunaan teknologi, tetapi juga membekali siswa dengan kemampuan berpikir kritis. Dengan demikian, mereka tidak hanya menjadi konsumen informasi, tetapi juga mampu memancarkan dan memahami pengetahuan secara mendalam. Daripada menolak AI, pendekatan yang lebih konstruktif adalah merekonstruksi otoritas pengetahuan. AI dapat menjadi mitra dalam proses pencarian pengetahuan, bukan pengganti manusia. Otoritas tidak harus sepenuhnya berpindah ke mesin, namun dapat dibagi antara manusia dan teknologi.[8]
Dalam model ini, manusia tetap menjadi subjek utama yang memiliki kemampuan refleksi, interpretasi, dan penilaian moral. AI berperan sebagai alat bantu yang memperluas kapasitas manusia, bukan menggantikannya. Dengan demikian, hubungan antara manusia dan AI menjadi lebih seimbang. Otoritas AI dalam era algoritma merupakan fenomena yang tidak dapat dihindari.[9] Teknologi ini telah mengubah cara manusia memproduksi, mengakses, dan memahami pengetahuan. Namun, di balik kemudahan yang ditawarkan, terdapat kegelisahan epistemik yang mendalam. Ketergantungan pada AI, ketidaktransparan algoritma, serta bias data menimbulkan pertanyaan serius tentang validitas dan makna pengetahuan.
Oleh karena itu, diperlukan sikap kritis dan reflektif dalam menghadapi perkembangan ini. AI harus dipahami sebagai alat, bukan otoritas absolut. Manusia perlu tetap mempertahankan peran aktif dalam proses epistemik, dengan mengedepankan pemikiran kritis, etika, dan kesadaran akan keterbatasan teknologi. Pada akhirnya, tantangan terbesar bukanlah bagaimana mengembangkan AI yang lebih canggih, namun bagaimana memastikan bahwa manusia tetap menjadi pusat dari pengetahuan itu sendiri. Dengan demikian, kemajuan teknologi tidak menghilangkan maknanya, tetapi justru memperkaya pemahaman manusia tentang dunia dan dirinya sendiri.
REFERENSI
[1] D. Azizah, A. Wibawa, and L. Budiarto, “Hakikat Epistemologi Artificial Intelligence,” J. Inov. Teknol. dan Edukasi Tek., vol. 1, no. 8, pp. 592–598, 2021, doi: 10.17977/um068v1i82021p592-598.
[2] Michael Reskiantio Pabubung, “Epistemologi Kecerdasan Buatan (AI) dan Pentingnya Ilmu Etika dalam Pendidikan Interdisipliner,” J. Filsafat Indones., vol. 4, no. No 2, pp. 152–59, 2021.
[3] N. Laila, Z. Maulidiyah, and B. Alwi, “EPISTEMOLOGY OF NATURAL SCIENCES IN THE ERA OF ARTIFICIAL INTELLIGENCE: CHALLENGES AND ONTOLOGICAL TRANSFORMATIONS,” Proceeding Int. Conf. Educ. Soc. Humanit., vol. 03, no. 01, pp. 662–668, 2025.
[4] A. G. Machío, “The epistemology of Artificial Intelligence: An interview with six chatbots,” New Sci., pp. 28–33, 2025, doi: 10.1016/S0262-4079(17)31972-3.
[5] A. W. Fazil, M. Hakimi, and A. K. Shahidzay, “A COMPREHENSIVE REVIEW OF BIAS IN AI ALGORITHMS,” Nusant. Hasana J., vol. 3, no. 8, pp. 1–11, 2024.
[6] M. H. Jarrahi, A. Karami, P. Conway, A. Memariani, and C. Lutz, “Navigating the muddy waters of bias in artificial intelligence research: Understanding divergent meanings and conceptions,” Technol. Soc., vol. 84, pp. 1–20, 2026, doi: 10.1016/j.techsoc.2025.103127.
[7] D. Shin, “Automating epistemology: how AI reconfigures truth, authority, and verification,” AI Soc., pp. 1553–1559, 2025, doi: 10.1007/s00146-025-02560-y.
[8] S. Baron, “Trust, Explainability and AI,” Philos. Technol., vol. 38, no. 1, pp. 1–23, 2025, doi: 10.1007/s13347-024-00837-6.
[9] N. Shang, R. P. Fonka, and J. Gideon, “The Epistemology of Artificial Intelligence: Understanding Knowledge Creation and Validation in the Digital Age,” Manuscripts Artif. Intell. Digit. Res., vol. 2, no. 4, pp. 39–52, 2025, [Online]. Available: https://manuscriptology.org/index.php/AIDR/article/view/129

