Melindungi Asa Kerakyatan di Masa Intelek Ciptaan – Banyak orang tidak sadar informasi yang mereka terima dari teknologi AI bisa saja salah.
Dalam dunia yang serba terhubung, ancaman terhadap demokrasi muncul bukan hanya dari kekuasaan yang represif. Melalui artificial intelligence atau kecerdasan buatan, impian789 tumpukan data juga bisa menjelma menjadi alat yang mengancam nilai-nilai demokrasi. Lalu, bagaimana suatu negara bisa mengantisipasinya?
Sekitar satu dekade lalu, artificial intelligence (AI) masih menjadi sesuatu yang asing bagi masyarakat dunia. Kini, penggunaan AI kian masif. AI dipakai untuk mengolah dan menganalisis data hingga memproduksi sesuatu yang serius ataupun kreatif, seperti foto dan video.
Situs penulisan AI, Writer Buddy, menyebutkan, Indonesia berada di peringkat ketiga sebagai negara dengan pengguna AI terbanyak, yaitu 1,4 miliar kunjungan ke situs AI. Amerika Serikat menempati peringkat pertama dengan 5,5 miliar kunjungan, diikuti India dengan 2,1 miliar kunjungan. Total ada 24 miliar kunjungan untuk 50 alat AI terpopuler dalam periode penelitian September 2022-Agustus 2023.
AI dipakai untuk beragam fungsi, seperti menganalisis suara, menyortir data, hingga menulis surat pengunduran diri kepada atasan. Penggunaan AI pun tersebar di sejumlah sektor, seperti pendidikan, kesehatan, pertanian, dan militer. Para penggunanya mulai dari masyarakat biasa, guru, dokter, hingga perusahaan swasta dan pemerintah.
Di dunia politik, penggunaan kecerdasan buatan bukanlah sesuatu yang baru. Umumnya, kecerdasan buatan dipakai untuk memoles citra kandidat dan partai politik serta merekayasa opini melalui gambar, tulisan, suara, dan video.
Pada Pemilu 2024, misalnya, tim sukses Prabowo Subianto dan Gibran Rakabuming Raka disebut menggunakan kecerdasan buatan untuk menciptakan avatar ”Paman Gemoy”. Dua kandidat lain, yakni Anies Baswedan-Muhaimin Iskandar dan Ganjar Pranowo-Mahfud MD, juga menggunakan AI untuk kampanye meskipun tidak sebesar Prabowo-Gibran.
Cornell Doug Kriner, Profesor Clinton Rossiter di Departemen Pemerintahan Universitas Cornell di New York, Amerika Serikat, mengatakan, AI generatif dalam politik mengancam tiga pilar utama tata kelola demokrasi, yakni representasi, akuntabilitas, dan pada akhirnya merusak mata uang terpenting dalam sistem politik, yakni kepercayaan publik.
Dalam tulisan berjudul ”Bagaimana AI Mengancam Demokrasi”, ia menjelaskan, aspek paling problematik dari kecerdasan buatan generatif adalah bahwa teknologi ini membanjiri lanskap media, internet, dan komunikasi politik dengan isi omong kosong tak bermakna dan yang paling buruk adalah keberadaan misinformasi.
Bagi para pejabat pemerintah, hal ini merusak upaya untuk memahami sentimen konstituen, yang pada akhirnya mengancam kualitas representasi demokratis. Bagi para pemilih, ini menghambat kemampuan untuk memantau apa yang dilakukan pejabat terpilih dan apa hasil dari tindakan mereka sehingga melemahkan akuntabilitas demokratis,” tulisnya dalam artikel bersama Sarah Kreps itu
Di balik penggunaan teknologi kecerdasan buatan, selalu muncul satu pertanyaan penting, apakah AI netral? Bagi Tina Harkonen, pemimpin senior di Finnish Innovation Fund Sitra, jawabannya jelas: tidak. Tina meyakini bahwa banyak propaganda dalam AI.
Beberapa penelitian menyebutkan, terdapat 7-46 persen propaganda Rusia dalam kecerdasan buatan. Bukan soal Rusia atau negara apa pun lainnya, tetapi keberadaan propaganda dalam AI merupakan sesuatu yang nyata,” ujar Tina dalam diskusi ”Digital Innovations and Future Skills” di Helsinki, Finlandia, Rabu (9/4/2025).
Tina menjelaskan, kecerdasan buatan dibentuk oleh kumpulan data yang diajarkan kepadanya. Kumpulan data itu memengaruhi perilaku serta jawaban yang diberikan oleh AI. Oleh karena itu, di balik kecanggihan AI, teknologi itu menyimpan potensi sebagai alat penyebar misinformasi, disinformasi, atau bahkan malainformasi.
Sayangnya, banyak orang tidak sadar bahwa informasi yang mereka terima dari teknologi AI bisa saja salah atau bahkan sesat. Dalam masyarakat di mana tulisan dipercaya begitu saja tanpa verifikasi lebih lanjut, ancaman AI menjadi sangat nyata,” ujar Tina, yang sudah puluhan tahun mendalami dunia teknologi dan AI.
Finlandia merupakan salah satu negara yang secara masif menggunakan AI untuk berbagai kepentingan negara dan layanan publik. Bahkan, terdapat 96 perusahaan AI yang didirikan di Finlandia. Lembaga Sitra juga secara konsisten melakukan penelitian dan inovasi AI untuk mendukung layanan publik.
Teknologi AI, misalnya, diaplikasikan di bagian barat Uusimaa dan Kanta-Häme untuk merekam data pasien dan memberi dukungan kepada orang lanjut usia. Dampak AI di kedua daerah ini begitu luar biasa karena penggunaannya dapat menghemat 30 persen waktu kerja 23.500 tenaga kesehatan. Saat ini, seorang tenaga kesehatan di Finlandia menghabiskan waktu 3 jam 15 menit sehari untuk mencatat informasi pasien.
Dengan AI, pekerja bisa melewatkan urusan administrasi dan menghemat waktu kerja hampir 3.100 tahun. Di samping itu, sistem layanan kesehatan menjadi lebih cepat, presisi, dan dapat dipercaya.
Penggunaan AI secara optimal di Finlandia dapat terwujud mengingat tingginya literasi masyarakat serta adanya regulasi yang mendukung penerapan teknologi ini. Finlandia merupakan negara dengan tingkat literasi tertinggi di dunia.
Budaya literasi di negara dengan 5,5 juta jiwa itu menjadi gaya hidup masyarakatnya. Hal ini didukung dengan ketersediaan 738 gedung perpustakaan dan 140 perpustakaan keliling. Literasi media juga menjadi bagian integral dalam kurikulum pendidikan.
Sebagai perbandingan, Indonesia berada di peringkat ke-2 dari bawah dunia terkait minat baca menurut data UNESCO. Jika melihat tingkat literasi dasar atau melek huruf, Indonesia menempati posisi ke-86 dari 184 negara. Berdasarkan penelitian Kunto Adi Wibowo dan Detta Rahmawan terhadap 1.200 responden di Jawa Barat pada 27 Desember-5 Januari 2024, mayoritas penduduk masih belum paham mengenai teknologi AI.
Di sisi lain, ada korelasi antara literasi media dan kemampuan masyarakat menangkal berita bohong yang disebarkan melalui teknologi AI. Menurut Tina, literasi media tidak bisa dilepaskan dari kemampuan berpikir kritis, yakni kemampuan memahami, mengevaluasi, dan mempertanyakan informasi.
Melalui kemampuan itu, seseorang bisa membedakan tulisan yang mengandung kebenaran atau justru memuat misinformasi. Dengan literasi media yang baik, masyarakat tidak mudah terprovokasi dengan berita bohong yang disebarkan melalui teknologi AI.
Salah satu hal yang menarik dipelajari, Finlandia juga mempunyai regulasi yang berpihak pada publik sebagai penyeimbang kekuatan digital. Negara yang merupakan bagian dari Uni Eropa ini tunduk pada Undang-Undang Pasar Digital (The Digital Markets Act) dan Undang-Undang Layanan Digital (Digital Services Act) yang bertujuan untuk membuat lingkungan digital yang lebih aman, tepercaya, dan kompetitif bagi warga lokal.
Di balik keseriusan suatu negara dalam memanfaatkan AI, tantangan global tidak bisa begitu saja dihindari. Apalagi, banyak perusahaan AI berasal dari Silicon Valley, suatu daerah di California, Amerika Serikat, yang memiliki banyak perusahaan di bidang komputer dan teknologi. AI yang digunakan di Helsinki, atau kota-kota lain seperti Jakarta atau Manila, bisa saja dibentuk oleh nilai-nilai dari Silicon Valley.
Kita tidak bisa mengabaikan bahwa ketika AI berasal dari Silicon Valley, maka yang berlaku adalah nilai dan aturan dari Silicon Valley, bukan dari Indonesia, Thailand, atau Finlandia,” kata Tina, yang juga menekankan dampak penggunaan AI terhadap lingkungan dan interaksi sosial.
Ia menekankan, terdapat dua jenis penggunaan AI. Pertama, ketika seseorang menggunakan AI untuk menghasilkan teks, gambar, atau sumber informasi. Kedua, ketika AI digunakan kepada seseorang atau masyarakat, seperti oleh pemerintah, lembaga penegak hukum, atau perusahaan teknologi untuk kepentingan tertentu.
Untuk memastikan demokrasi berjalan di era kecerdasan buatan, maka literasi media dan cara berpikir kritis perlu terus digenjot. Tidak hanya untuk anak-anak dan remaja, tetapi juga orang dewasa.
Selain itu, regulasi yang berpijak pada cara hidup dan nilai-nilai suatu negara serta keterlibatan aktif masyarakat untuk menentukan masa depan teknologi juga penting. Masa depan AI memang bukan semata soal inovasi dan teknologi, melainkan soal siapa yang memiliki suara dalam prosesnya.
Di tengah euforia AI global, sangatlah penting menavigasi penggunaan AI agar tidak mengancam demokrasi. Mereka yang mampu berjalan dalam basis literasi, regulasi, dan partisipasi aktif masyarakat diyakini tak akan tenggelam dalam gelombang data hasil analisis AI. Seperti kata-kata pakar teknologi dari Inggris, Rachel Coldicutt, ”Mari kita buat AI bermanfaat bagi 8 miliar orang, bukan hanya 8 miliarder.
Teknologi intelek ciptaan( Artificial Intelligence atau AI) lalu bertumbuh cepat serta terus menjadi berintegrasi dalam kehidupan tiap hari. Dari chatbot cerdas semacam ChatGPT, mobil bebas, sampai sistem saran e- commerce serta alat sosial, AI sudah jadi bagian berarti dalam bermacam zona. Tetapi, di balik kecanggihannya, AI pula menaruh resiko besar: beliau dapat saja salah.
Kekeliruan AI tidaklah perihal terkini. Apalagi, para ahli mengatakan kalau kekeliruan dalam AI merupakan akibat natural dari sistem penataran mesin( machine learning) yang amat lingkungan. Dalam banyak permasalahan, AI tidak“ paham” semacam orang, melainkan menjiplak pola dari informasi yang dipakai buat melatihnya. Bila informasi itu bias, tidak komplit, ataupun tidak representatif, hasilnya juga dapat menyesatkan.
Contoh- Contoh Jelas: Dari Lucu sampai Berbahaya
Sebagian tahun terakhir sudah menulis bermacam kejadian kala AI membuat kekeliruan, mulai dari yang lucu sampai yang beresiko.
Pada tahun 2023, suatu mobil bebas di San Francisco jadi viral sehabis kandas mengidentifikasi aparat kemudian rute yang membagikan instruksi buku petunjuk, serta malah menyudahi di tengah jalur, mengusik kemudian rute. Sistem AI dalam mobil itu tidak dilatih dengan cara mencukupi buat membaca bahasa badan orang di luar skrip biasa.
Di ranah kedokteran, suatu sistem AI yang dipakai buat menolong analisis kanker di Amerika luang membagikan saran penyembuhan yang galat sebab kekeliruan dalam informasi penataran pembibitan. Untungnya, dokter orang senantiasa memandu hasil AI itu saat sebelum mengutip ketetapan akhir, alhasil penderita tidak hadapi akibat langsung. Tetapi, kejadian itu memunculkan kebingungan besar mengenai ketergantungan kepada teknologi yang belum seluruhnya matang.
Di bumi digital, algoritma alat sosial yang dibantu AI sudah dikritik sebab menguatkan penghadapan politik. Sistem yang didesain buat tingkatkan keikutsertaan konsumen malah memprioritaskan konten yang kontroversial ataupun penuh emosi tanpa memikirkan ketepatan ataupun akibat sosialnya. Akhirnya, misinformasi dengan gampang menabur.
Kenapa AI Dapat Salah?
Kunci dari seluruh kasus ini merupakan informasi. AI berlatih dari informasi. Bila informasi penataran pembibitan memiliki bias, pembedaan, ataupun anggapan galat, AI hendak memperkuatnya. Ilustrasinya, sistem rekrutmen berplatform AI yang dipakai sebagian industri besar teruji dengan cara tidak siuman mendiskriminasi pelamar wanita sebab dilatih dengan informasi historis yang lebih banyak memperkerjakan laki- laki.
Permasalahan yang lain merupakan ketidaktransparanan algoritma. Banyak sistem AI, paling utama yang berplatform deep learning, berperan semacam“ kotak gelap”( black box). Maksudnya, susah apalagi untuk penciptanya buat menguasai dengan cara tentu gimana AI hingga pada sesuatu ketetapan. Perihal ini mengalutkan cara audit serta emendasi.
Tidak cuma itu, AI pula mempunyai keterbatasan dalam kondisi. Sistem ini bisa memasak informasi dalam jumlah besar dengan amat kilat, namun senantiasa tidak mempunyai uraian kondisi semacam orang. Suatu sistem bisa jadi merumuskan kalau seorang merupakan” resiko keamanan” cuma sebab pola pencarian internet mereka menyamai informasi historis dari pelakon pidana, sementara itu dapat saja itu hasil studi akademik.
Kedudukan Orang Senantiasa Krusial
Ahli teknologi menerangkan kalau AI tidak bisa berdiri sendiri dalam mengutip ketetapan berarti.“ AI sepatutnya jadi perlengkapan tolong, bukan pengganti,” ucap Dokter. Nina Kartasasmita, periset AI dari Universitas Indonesia.“ Ketetapan akhir, paling utama yang berakibat pada kehidupan orang, wajib senantiasa terletak di tangan orang.”
Banyak industri saat ini mulai mempraktikkan prinsip“ human- in- the- loop” dalam pemakaian AI. Maksudnya, orang senantiasa ikut serta dalam cara penilaian serta pengumpulan ketetapan akhir. Perihal ini teruji berarti, paling utama dalam zona semacam kesehatan, hukum, serta keamanan khalayak.
Usaha Tingkatkan Ketepatan serta Etika AI
Sebagian inisiatif sudah dikeluarkan buat tingkatkan ketepatan serta keandalan AI. Badan global semacam OECD serta UNESCO sudah menghasilkan prinsip etika pemakaian AI, yang menekankan berartinya kejernihan, akuntabilitas, serta kesamarataan.
Di bagian teknis, para periset lalu meningkatkan tata cara buat membuat AI lebih bisa dipaparkan( explainable AI), yang membolehkan konsumen menguasai alibi di balik tiap ketetapan AI. Tidak hanya itu, pendekatan terkini semacam penataran pembibitan AI dengan informasi yang diaudit dengan cara benar serta representatif lalu dibesarkan.
Pabrik pula mulai merespons. Industri teknologi besar semacam Google, Microsoft, serta OpenAI sudah membuat badan etika serta menancapkan prinsip” AI for Good” dalam kebijaksanaan pengembangan mereka. Walaupun begitu, aplikasi di alun- alun sedang jadi tantangan tertentu.
Kesimpulan: Kecanggihan Wajib Dijajari Kewaspadaan
Teknologi AI memanglah membuka kesempatan luar lazim. Beliau sanggup menuntaskan permasalahan lingkungan, tingkatkan kemampuan, serta menghasilkan inovasi terkini yang belum sempat terbayangkan lebih dahulu. Tetapi, di balik itu seluruh, terdapat tanggung jawab besar.
Kita tidak dapat kontan percayakan seluruh ketetapan pada mesin. Semacam tutur peribahasa modern:“ AI is only as good as the informasi and the humans behind it.”
Kekeliruan AI bukan semata- mata kemungkinan—itu keniscayaan dalam sistem yang lalu berlatih. Hingga, yang sangat berarti bukan semata- mata mengejar kecanggihan, namun membenarkan kalau tiap tahap dalam pengembangan serta aplikasi AI dicoba dengan cara benar, hati- hati, serta mengarah pada orang.