SHARE

Ilustrasi (istimewa)

CARAPANDANG.COM – Facebook menggunakan kecerdasan buatan (AI) yang canggih untuk mendeteksi dan menghapus konten yang terkait dengan kelompok teroris dan kebencian terorganisir.

Dengan teknologi tersebut, Facebook mampu mendeteksi dan memahami konteks konten yang melanggar standar komunitas, seperti teks yang disematkan dalam gambar dan video, pencocokan media untuk menemukan konten identik dengan foto, video, teks, dan bahkan audio yang telah Facebook hapus sebelumnya.

“Teknologi kecerdasan buatan secara proaktif memfilter konten-konten yang berpotensi melanggar,” kata Head of Counter-Terrorism and Dangerous Organizations Facebook APAC, Nawab Osman saat diskusi virtual bertajuk "Facebook - Dangerous Organisations: Under the Hood Press Briefing" pada Kamis (2/9/2021).

Setidaknya ada enam teknik dalam penggunaan dan pemanfaatan teknologi Facebook untuk memerangi konten terorisme. Mulai dari mengumpulkan propaganda terorisme dari kanal-kanal distribusi yang ada, mencocokkan gambar dan video untuk mencegah konten kekerasan di masa mendatang, menggolongkan konten untuk memahami teks, mengidentifikasi kelompok organisasi berbahaya, mengidentifikasi akun berbahaya yang sebelumnya telah dihapus, hingga membagikan informasi penting untuk pengguna di semua platform.

Osman menyebutkan sekitar 99,7 persen konten teroris dan 97,8 persen konten kebencian terorganisir ditindak oleh Facebook pada April hingga Juni 2021. Konten tersebut diidentifikasi secara proaktif menggunakan teknologi yang terus diperbarui, bahkan sering kali sebelum ada orang yang melihatnya.

Mengutip laman laporan Facebook, jika dirinci konten terorisme yang ditindaklanjuti pada kuartal kedua menurun dari 9 juta konten di kuartal pertama menjadi 7,1 juta. Sementara konten kebencian terorganisir menurun dari 9,8 juta konten di kuartal pertama menjadi 6,2 juta di kuartal kedua.

“Kami perlu memahami bahwa pelaku sangat pintar dalam mengakali sistem kami. Oleh sebab itu, jika AI tidak yakin apakah konten ini melanggar atau tidak, kami punya ribuan content reviewer yang memiliki keahlian dan akan memutuskan apakah konten tersebut melanggar standar komunitas atau tidak,” kata Osman.

Ia menyebutkan setidaknya ada 350 orang yang tergabung dalam tim spesialis yang berfokus untuk mengatasi isu organisasi berbahaya di platform Facebook, Instagram, dan WhatsApp.

Halaman :