Sukses

AI Facebook Salah Beri Label 'Primata' di Video Pria Kulit Hitam

Facebook meminta maaf usai AI mereka melabeli video pria kulit hitam sebagai "primata."

Liputan6.com, Jakarta - Baru-baru ini, Facebook mengeluarkan permintaan maaf usai kecerdasan buatan (Artificial Intelligence/AI) mereka salah memberikan label "primata" dalam rekomendasi di sebuah video tentang pria kulit hitam.

Dilaporkan New York Times, kejadian itu pertama kali diungkap oleh pengguna yang menonton video media Inggris Daily Mail di Facebook pada 27 Juni lalu.

Dikutip dari CNET, video Facebook itu sendiri berisi mengenai seorang pria kulit hitam yang sedang berselisih dengan petugas polisi kulit putih dan warga sipil.

Beberapa pengguna yang menonton video tersebut lalu menerima permintaan otomatis yang menanyakan apakah mereka ingin "melanjutkan menonton video tentang primata."

Melansir The Verge, Minggu (5/9/2021), juru bicara Facebook pun segera mematikan fitur rekomendasi topik usai menyadari apa yang terjadi. "Ini jelas kesalahan yang tidak dapat diterima," kata juru mereka dalam pernyataan resmi mereka.

* Untuk mengetahui kebenaran informasi yang beredar, silakan WhatsApp ke nomor 0811 9787 670 hanya dengan ketik kata kunci yang diinginkan.

* Follow Official WhatsApp Channel Liputan6.com untuk mendapatkan berita-berita terkini dengan mengklik tautan ini.

2 dari 4 halaman

Akui Sistem Tidak Sempurna

Facebook mengatakan, perusahaan sedang menyelidiki penyebab kejadian tersebut demi mencegah hal itu terjadi lagi. Mereka pun mengakui bahwa meski telah meningkatkan sistem AI-nya, namun masih ada banyak ketidaksempurnaan di sana.

"Sementara kami telah membuat peningkatan pada AI kami, kami tahu itu tidak sempurna dan kami memiliki lebih banyak kemajuan untuk dibuat," kata mereka. "Kami meminta maaf kepada siapa pun yang mungkin telah melihat rekomendasi ofensif ini."

Ini bukan pertama kalinya kecerdasan buatan melakukan bias gender, atau ras dengan alat pengenalan wajah yang terbukti memiliki masalah identifikasi orang kulit berwarna.

Di 2015, Google meminta maaf usai menandai foto orang kulit hitam sebagai gorila. Awal tahun ini, Facebook, Twitter, dan perusahaan media sosial lainnya dikritik karena gagal menghentikan kebencian anti-Asia di platform mereka.

Selain itu, mereka juga pernah dikecam di bulan Juli karena tidak menutup pelecehan rasis usai kekalahan Inggris di final Piala Euro.

Tahun lalu, Facebook mengatakan sedang mempelajari apakah algoritma yang dilatih dengan kecerdasaan buatan, termasuk yang dimiliki Instagram, memiliki bias rasial.

3 dari 4 halaman

Facebook Gunakan AI untuk Deteksi Konten Terorisme

Facebook juga memanfaatkan kecerdasan buatan untuk mendeteksi dan menghapus konten yang terkait dengan kelompok teroris dan kebencian terorganisir.

Nawab Osman, Head of Counter-Terrorism and Dangerous Organizations, Facebook Asia Pacific dalam temu media virtual, teknologi itu bisa mendeteksi teks yang disematkan dalam gambar dan video untuk membantu memahami konteks penuhnya.

"Dan kami telah membangun teknologi pencocokan media untuk menemukan konten yang identik atau hampir identik dengan foto, video, teks, dan audio yang telah kami hapus sebelumnya," kata Osman, dalam temu media virtual, Kamis (2/9/2021).

Antara April hingga Juni 2021, 99,7 persen konten terorisme dan 97,8 persen konten kebencian terorganisir yang ditindak, diidentifikasi menggunakan teknologi, seringkali sebelum ada yang melihatnya.

"Jika AI tidak yakin apakah konten melanggar atau tidak, kami perlu memahami bahwa pelaku ini semakin pintar dalam mengakali sistem kami," kata Osman.

"Jika AI tidak yakin akan gambar atau video tertentu itu melanggar, kami punya reviewer yang punya keahlian yang terkait, maka mereka yang akan memutuskan apakah konten tersebut melanggar standar komunitas atau tidak."

(Gio/Ysl)

4 dari 4 halaman

Infografis skandal kebocoran data Facebook

* Fakta atau Hoaks? Untuk mengetahui kebenaran informasi yang beredar, silakan WhatsApp ke nomor Cek Fakta Liputan6.com 0811 9787 670 hanya dengan ketik kata kunci yang diinginkan.