Sistem ”crop” otomatis Twitter menampilkan senator berkulit putih dibandingkan Barack Obama. Zoom tidak mendeteksi figur berkulit hitam. Bahkan, salah tangkap akibat teknologi ”facial recognition” yang salah mengenali.
TANGKAPAN LAYAR TWITTER—Pengembang perangkat lunak, Tony Arcieri, mencoba menguji algoritma pada linimasa Twitter dengan foto yang diunggahnya (foto A dan foto B). Hasilnya sesuai dengan tangkapan layar cuitannya; Obama diabaikan, Twitter memilih foto Senator Republikan berkulit putih Mitch McConnell yang muncul di linimasa.
Masih ada masalah pada algoritma dan teknologi kecerdasan buatan, khususnya pada platform digital yang digunakan sehari-hari. Algoritma yang digunakan oleh media sosial ternyata masih memiliki bias rasial.
ADVERTISEMENT
SCROLL TO RESUME CONTENT
Sistem ”crop” otomatis Twitter menampilkan senator berkulit putih dibandingkan dengan Presiden Ke-44 Amerika Serikat Barack Obama, sementara layanan video konferensi Zoom tidak mendeteksi figur berkulit hitam. Bahkan, salah tangkap pun terjadi akibat teknologi facial recognition yang salah mengenali.
”Kecacatan” algoritma Twiter ini pertama kali muncul di tengah sorotan publik ketika Tony Arcieri, eks developer Square, membandingkan hasil crop Twitter terhadap dua gambar, masing-masing foto Barack Obama dan Senator AS dari Kentucky Mitch McConnell pada Minggu (20/9/2020) waktu Indonesia.
Gambar pertama menempatkan foto McConnell yang berkulit putih di sisi atas, sedangkan Obama di sisi bawah. Gambar kedua menempatkan foto kedua orang ini dalam posisi sebaliknya.
Namun, ternyata, Twitter memilih McConnell sebagai crop yang ditampilkan dalam kicauan. Setelah mengklik cuitan itu, baru terlihat bahwa sebetulnya ada foto Obama pada masing-masing gambar. ”Twitter adalah salah satu contoh bagaimana rasisme bermanifestasi dalam algoritma machine learning,” kata Arcieri.
Warganet pun turut berkontribusi pada eksperimen sederhana. Seseorang mencoba mengedit foto Obama menjadi berkulit lebih terang dengan meningkatkan kontrasnya sekaligus menurunkan kontras pada foto McConnell. Dalam kondisi ini, Twitter baru memilih untuk menampilkan foto Obama yang jauh lebih terang tersebut.
We tested for bias before shipping the model & didn’t find evidence of racial or gender bias in our testing. But it’s clear that we’ve got more analysis to do. We’ll continue to share what we learn, what actions we take, & will open source it so others can review and replicate.
— Twitter Comms (@TwitterComms) September 20, 2020
Seseorang lain pun membandingkan foto Obama dengan tingkat kecerahan yang berbeda, foto asli dan foto dengan kecerahan yang ditingkatkan. ”Algoritma tampaknya memilih Obama yang berkulit terang dibandingkan dengan yang berkulit gelap,” ujar Arcieri.
Perwakilan tim komunikasi Twiter, Liz Kelley, pun mengapresiasi isu yang diangkat oleh Arcieri. Ia mengungkapkan bahwa sebetulnya setiap produk Twitter diuji peluang bias rasial dan jendernya sebelum dirilis.
Kapabilitas crop otomatis ini dirilis Twitter pada Januari 2018. Hal ini diharapkan dapat mempermudah pengguna Twitter dalam mengonsumsi konten gambar yang beredar di linimasa masing-masing.
Sebelumnya, Twitter akan menampilkan crop di bagian tengah foto. Sejak penggunaan machine learning itu, Twitter akan dapat menilai bagian foto yang mana yang biasanya menjadi fokus utama manusia saat melihat foto.
”Saat itu, kami tidak menemukan bukti bias rasial ataupun jender. Namun, dari perkembangan terakhir ini, kami sadar ternyata masih banyak analisis yang harus kami lakukan,” tutur Kelley.
Kelley mengatakan, pihaknya akan membuat kerja yang dilakukan Twitter mengenai algoritma crop otomatis ini menjadi terbuka dan open source sehingga publik dapat memeriksa dan menggunakannya.
Chief Design Officer Twitter Dantley Davis pun mencoba melakukan eksperimen sederhana dengan menggunakan foto stok generik pebisnis berkulit hitam dan berkulit putih yang mengenakan setelan jas yang sama.
TANGKAPAN LAYAR TWITTER—Chief Design Officer Twitter Dantley Davis mencoba menguji algoritma pada linimasa Twitter dengan foto yang diunggahnya (foto B). Hasilnya adalah foto A.
Dalam percobaan yang dilakukan Davis, Twitter memilih pebisnis kulit hitam. Ini menunjukkan bahwa masih banyak variabel yang harus diteliti. ”Hingga saat ini, kami masih terus menginvestigasi hal ini,” kata Davis.
Selain bias rasial, bias jender juga tampaknya menjadi persoalan yang harus segera diselesaikan Twitter. Direktur penelitian artificial intelligence (AI) dari perusahaan semikonduktor Nvidia yang juga profesor di California Institute of Technology (Caltech), Anima Anandkumar, mengatakan, polemik bias rasial ini mengingatkannya pada isu bias jender yang pernah diangkatnya pada 2019 dan belum diselesaikan hingga saat ini.
”Saya sudah pernah mencuitkan pada 2019 bahwa Twitter memilih untuk meng-crop kepala perempuan dibandingkan laki-laki,” kata Anandkumar.
Zoom
Persoalan lain juga ditemukan pada platform video konferensi Zoom. Peneliti teknologi pendidikan University of Victoria, Kanada, Colin Madland, menemukan bahwa fitur latar belakang virtual (virtual background) Zoom kesulitan mendeteksi kepala rekannya yang berkulit hitam.
Apabila menggunakan latar belakang virtual, kepala rekannya justru hilang. ”Tampaknya Zoom memiliki algoritma pendeteksi wajah yang buruk; yang menghilangkan wajah berkulit hitam,” kata Madland.
TANGKAPAN LAYAR TWITTER—Warganet bernama Colin Madland menunjukkan bahwa koleganya tidak bisa memanfaatkan fitur latar belakang virtual pada Zoom karena berkulit hitam. Algoritma Zoom gagal mendeteksi kepalanya.
Kesalahan teknologi dalam mendeteksi wajah berkulit hitam bahkan berdampak lebih serius pada kasus yang menimpa Robert Williams, warga Detroit, Michigan, AS, pada Januari 2020, seperti yang dilaporkan New York Times.
Ia dituduh dan ditangkap polisi di depan keluarganya karena dinilai telah mencuri sejumlah jam mewah. Polisi diduga hanya bertindak atas dasar rekaman video kamera keamanan yang dimasukkan ke dalam program pengenalan wajah.
Setelah ditahan semalaman di kantor polisi, penyidik kasus tersebut sadar bahwa teknologi pengenalan wajah telah salah mengenali wajah.
”Kami meminta maaf, tetapi kami sadar bahwa ini tidak bisa menghapus pengalaman buruk Williams harus menginap di penjara,” bunyi pernyataan dari kejaksaan setempat.
Data pelatihan
Seluruh kejadian ini menjadi contoh terbaru bagaimana algoritma dan kecerdasan buatan masih menyimpan persoalan yang harus dibenahi.
AFP PHOTO / FRED DUFOUR—Teknologi pengenalan wajah untuk penegak hukum diperlihatkan dalam NVIDIA GPU Technology Conference di Washington, Amerika Serikat, 1 November 2017.
Pada awal Juni lalu, raksasa teknologi IBM bahkan memilih menghentikan penjualan produk teknologi pengenalan wajah yang dimilikinya. Menurut CEO IBM Arvind Krishna, para pembuat kebijakan belum banyak yang memahami bahwa algoritma yang mendasari teknologi pengenalan wajah belumlah matang.
Pada 2018, penelitian yang dilakukan oleh MIT dan Microsoft menemukan bahwa algoritma pengenalan wajah memiliki tingkat kesalahan hanya 1 persen untuk pria berkulit putih dan 35 persen kesalahan untuk perempuan berkulit hitam.
Riset mendalam yang dilakukan Kementerian Perdagangan AS pada Desember 2019 pun menunjukkan bahwa, secara umum, sistem pengenalan wajah cenderung akan salah mendeteksi subyek yang masuk ke salah satu dari tiga kategori: etnis Asia, berkulit hitam, atau Indian Amerika.
Penelitian itu juga menunjukkan bahwa dataset yang digunakan untuk melatih algoritma memegang peranan terpenting. Dataset ini harus juga beragam dan mencerminkan demografi global.
”Mitigasi jangka panjang untuk mencegah terjadinya kesalahan identifikasi (dalam teknologi pengenalan wajah) adalah penggunaan dataset yang beragam dan global,” tulis Patrick Grother, Mei Ngan, dan Kayee Hanaoka dari Laboratorium Teknologi Informasi Kementerian Perdagangan AS.
Diharapkan ini semua dapat menjadi pelajaran bagi Pemerintah Indonesia yang pada akhir 2019 sempat memunculkan ide penggunaan pengenalan wajah untuk mendeteksi pelaku kriminal.
”Sistem CCTV ini bagus, apalagi dikoneksi dengan Dukcapilnya Kemendagri, ada face recognition, ada sidik jari, sehingga akan banyak bermanfaat dalam rangka untuk macam-macam masalah lalu lintas, ada kebakaran, ada keributan. Jika ada kejahatan kriminal, pelakunya dapat dideteksi dengan cepat,” kata Menteri Dalam Negeri Tito Karnavian dalam Musyawarah Nasional IV Asosiasi Pemerintah Provinsi Seluruh Indonesia (APPSI), akhir November 2019.
Jangan sampai kita mengulangi kesalahan yang sudah terjadi.
Oleh SATRIO PANGARSO WISANGGENI
Editor: KHAERUDIN KHAERUDIN
Sumber: Kompas, 22 September 2020