Opini Oleh- Hardiknas Dulman (Peserta LK-3)
Dalam satu dekade terakhir, kita telah menyaksikan transisi peperangan informasi dari sekadar teks provokatif menjadi manipulasi visual yang nyaris sempurna. Fenomena ini mencapai puncaknya pada teknologi deepfake sebuah produk kecerdasan buatan yang mampu meniru wajah, suara, dan gerak tubuh seseorang dengan akurasi yang menakutkan. Di tangan yang salah, deepfake bukan lagi sekadar eksperimen teknologi atau alat hiburan ia telah menjelma menjadi instrumen teror digital yang mengancam jantung demokrasi.
Demokrasi beroperasi atas dasar kesepakatan mengenai fakta-fakta dasar. Kita boleh berdebat mengenai interpretasi kebijakan, namun kita harus sepakat pada apa yang benar-benar dikatakan atau dilakukan oleh seorang pemimpin. Deepfake menghancurkan kepastian ini.
Ketika masyarakat tidak lagi bisa membedakan antara video asli dan rekayasa AI, terjadi apa yang disebut oleh para ahli sebagai “dividen pembohong” (liar’s dividend). Dalam kondisi ini, kebenaran menjadi relatif. Tokoh publik yang tertangkap tangan melakukan kesalahan bisa dengan mudah mengklaim bahwa bukti video yang ada adalah “hanya deepfake”. Sebaliknya, konten palsu yang menyerang lawan politik dapat menyebar luas dan merusak reputasi dalam hitungan detik sebelum sempat diklarifikasi.
Menurut laporan dari Home Security Heroes, jumlah video deepfake online meningkat sebesar 550% antara tahun 2019 hingga 2023.
Awalnya 90% deepfake digunakan untuk konten pornografi non-konsensual. Namun, sejak 2023, tren deepfake politik meningkat drastis, terutama menjelang siklus pemilu besar di seluruh dunia.
Dahulu membutuhkan studio mahal, kini video deepfake berkualitas tinggi dapat dibuat hanya dengan modal beberapa dolar atau bahkan gratis menggunakan aplikasi open-source.
Dulu, ada pepatah yang mengatakan bahwa “melihat adalah mempercayai.” Namun, di era kecerdasan buatan (Artificial Intelligence), pepatah itu kini menjadi usang. Munculnya teknologi deepfake-video, gambar, atau audio hasil manipulasi AI yang terlihat sangat nyata, telah menciptakan paradigma baru di mana realitas dapat dipabrikasi. Ini bukan sekadar inovasi teknologi; ini adalah “teror digital” yang mengincar fondasi paling dasar dari masyarakat modern “Kepercayaan”
Kita sedang memasuki era di mana “melihat” tidak lagi berarti “memercayai”. Jika dulu sebuah foto atau video adalah bukti tak terbantahkan dari sebuah peristiwa, hari ini teknologi Artificial Intelligence (AI) melalui deepfake telah meruntuhkan pilar fundamental tersebut. Fenomena ini bukan sekadar tren teknologi yang mengagumkan; bagi demokrasi, ini adalah bentuk teror digital baru yang mampu melumpuhkan nalar publik.
Kebenaran Bukan Lagi Apa yang Kita Lihat, Tapi Apa yang Kita Lindungi. Saat ini, sebuah video bisa memicu kerusuhan dan suara palsu bisa meruntuhkan kepercayaan publik dalam hitungan detik. Kita sedang berada di era di mana “melihat” tidak lagi berarti “percaya”. Jangan biarkan algoritma menentukan masa depan bangsa kita. Mari mulai bersikap skeptis secara sehat: verifikasi sebelum berbagi, dan dukung transparansi teknologi AI.








