”Deepfake” adalah pemanfaatan ”artificial intelligence” untuk memanipulasi video ataupun audio secara mendalam. Muncul kekhawatiran ”deepfake” dipakai di ranah politik dan dimanfaatkan untuk menyebarkan hoaks.
Manipulasi video deepfake akan menguji baik industri inovasi teknologi dunia untuk menangkal dampak buruk yang akan dihasilkannya di masyarakat. Dapatkah raksasa teknologi dunia membantu masyarakat agar tidak terhasut pesan-pesan hoaks yang disampaikan melalui video deepfake?
Deepfake pada dasarnya adalah pemanfaatan artificial intelligence atau kecerdasan buatan untuk memanipulasi video ataupun audio secara mendalam.
ADVERTISEMENT
SCROLL TO RESUME CONTENT
Berdasarkan sebuah studi dari perusahaan detektor Deepfake asal Belanda bernama Deeptrace pada 2019, saat itu sebagian besar (96 persen) video deepfake adalah video yang mengandung unsur pornografi, di mana wajah selebritis dipasangkan pada pelaku film porno tersebut.
Namun kini muncul kekhawatiran terhadap disrupsi deepfake di ranah politik. Bagaimana jika misalnya pidato seorang figur publik dapat dimanipulasi untuk membuat hoaks yang tampak sangat natural? Video hoaks tersebut dikhawatirkan dapat menyetir opini publik dan meraih keuntungan politik.
Kekhawatiran ini kian menjadi di Amerika Serikat yang akan menghadapi pemilunya pada November mendatang. Akademisi dan industri teknologi AS pun kini sedang berusaha menciptakan solusi yang akan mencegah penggunaan deepfake sebagai metode kampanye hitam di masa kampanye.
Microsoft pada Rabu (2/9/2020) waktu Indonesia mengumumkan telah menciptakan perangkat lunak detektor video deepfake. Program yang diberi nama Microsoft Video Authenticator tersebut diharapkan dapat membantu penggunanya menentukan apakah suatu video deepfake atau asli.
”Untuk video deepfake, alat ini dapat memberikan persentase otentisitas video secara real-time. Hal ini bekerja dengan memeriksa bagian-bagian dalam video di mana elemen palsu dan asli bercampur yang mungkin tidak dapat dideteksi manusia,” kata Chief Scientific Officer Microsoft Eric Horvitz dalam keterangan resminya.
Video Authenticator ini dapat diakses baik kandidat, pers, tim kampanye, partai, maupun peneliti yang tergabung pada inisiatif Reality Defender 2020. Inisiatif ini dibangun Microsoft, Google, Twitter, Technical University of Munich, UC Berkeley, dan AI Foundation ini bertujuan melindungi Pemilu AS 2020 dari penyalahgunaan deepfake.
Sebelumnya, Microsoft pada September 2019 bekerja sama dengan Facebook dan akademisi dari Cornell Tech, MIT, University of Oxford, UC Berkeley, dan sejumlah perguruan tinggi AS lainnya untuk menggelar Deepfake Detection Challenge (DFDC). Konsorsium ini mengundang publik untuk membuat model kecerdasan buatan yang dapat mendeteksi video deepfake.
Untuk membuat model kecerdasan yang bagus, sebuah dataset (biasa disebut corpus) diperlukan untuk melatih model kecerdasan buatan tersebut. Untuk itu, Facebook membangun corpus berisi 115.000 video asli sekaligus versi deepfake-nya sebagai bahan bagi para peserta untuk melatih model kecerdasan buatannya.
Pertengahan Juni lalu, Facebook mengumumkan bahwa sudah ada pemenang dari 35.000 model yang didaftarkan. Di mana, model AI yang terbaik ternyata hanya dapat mendeteksi 65,14 persen video deepfake. Tim riset Facebook sendiri pun bahkan tidak masuk dalam 10 besar pemenang kompetisi.
”Angka ini menjadi patokan kita bersama sejauh apa kita harus bekerja untuk mencari solusi atas persoalan yang penting ini,” kata Cristian Canton Ferrer, Research Manager Facebook AI.
Jalan menuju detektor deepfake yang akurat memang masih jauh. Horvitz mengatakan, Video Authenticator milik Microsoft pun lama-kelamaan akan kewalahan menghadapi video deepfake yang terus berkembang.
”Karena yang kita hadapi adalah AI, maka dari waktu ke waktu, model AI yang digunakan dapat memperbaiki dirinya sendiri dan semakin canggih. Jadi tujuan dari software ini jangka pendek, setidaknya untuk melindungi pemilu yang akan datang,” kata Horvitz.
Mengaburkan realitas, menumbuhkan ketidakpercayaan
Tentu dengan deepfake, penyebaran hoaks yang meyakinkan bagi khlayak luas adalah salah satu bahaya yang dapat ditimbulkan. Namun, masyarakat ilmiah pemerhati media meyakini ada bahaya yang lebih besar dari pembangunan opini publik berdasar hoaks tersebut.
Ancaman yang lebih besar ini adalah ketidakpercayaan masyarakat dengan video sebagai bukti nyata suatu kejadian. Deepfake dapat dijadikan alasan bagi siapa pun untuk tidak memercayai dan menyangkal suatu fakta. Video yang sebetulnya asli pun dapat dituduh sebagai hasil deepfake.
”Bisa jadi kelak, ada suatu video asli, tetapi tidak ada orang yang bisa memastikan bahwa itu video asli atau bukan,” kata Kathryn Harrison, pendiri dan CEO dari DeepTrust Alliance, kepada CNet. DeepTrust Alliance adalah sebuah lembaga nonprofit yang bergerak melawan deepfakes dan disinformasi digital lainnya.
Inilah yang disebut dengan fenomena ”Liar’s Dividend” atau ”keuntungan si pembohong”. Pada prinsipnya, fenomena merujuk pada suatu kondisi di mana, suatu upaya membuktikan suatu klaim sebagai hoaks justru kian memberikan legitimasi tambahan terhadap perdebatan mengenai benar-salahnya klaim tersebut.
Contohnya terjadi di Gabon pada 2018. Saat itu terjadi spekulasi besar-besaran mengenai kondisi kesehatan Presiden Ali Bongo, sebab ia tidak tampil di publik selama beberapa bulan. Ada yang menganggap ia sudah meninggal. Untuk menghilangkan rumor tersebut, Pemerintah Gabon kemudian merilis video pidato presiden memberikan sambutan tahun baru yang sudah menjadi tradisi di sana.
Namun, karena momentum yang tidak biasa, sejumlah politisi menganggap video tersebut sebagai video deepfake. Militer pun kemudian melancarkan kudeta atas dasar dugaan bahwa video tersebut adalah sebuah deepfake yang digunakan untuk menutupi kondisi asli presiden. Analisis forensik kemudian menunjukkan bahwa itu adalah video asli dan Presiden Bongo kembali sering tampil di muka publik.
Pakar hukum University of Texas Bobby Chesney mengatakan, menuduh sesuatu sebagai deepfake dapat menjadi alasan bagi siapa pun, termasuk politisi, untuk menyangkal suatu fakta atau membangun narasi apa pun.
”Saat ini politisi mungkin dapat menuduh media yang mengkritisinya sebagai fake news. Tapi kelak, setiap rekaman video asli yang buruk akan dituduh sebagai deepfake,” pungkasnya.
Oleh SATRIO PANGARSO WISANGGENI
Editor: KHAERUDIN KHAERUDIN
Sumber: Kompas, 4 September 2020