Facebook Klaim 96,8% Konten Terlarang Bisa Teridentifikasi AI
Facebook merilis Community Standards Enforcement Report terbaru, dengan versi pertama dirilis pada bulan Mei tahun 2018 lalu. Serupa edisi sebelumnya, Facebook melacak metrik terkait sejumlah kebijakan pada kuartal sebelumnya, dari Januari hingga Maret.
Kebijakan tersebut termasuk perundungan dan pelecehan, ketelanjangan anak, propaganda teroris global, kekerasan dan konten dengan gambar menakutkan, dan lainnya.
Pelacakan ini terfokus pada prevalensi konten terlarang yang masuk ke Facebook dan volume konten ini berhasil dihapus.
Facebook menyebut teknologi kecerdasan buatan (AI) dan pembelajaran mesin membantu mengurangi unggahan kekerasan dalam porsi besar, seperti yang dilaporkan VentureBeat. Dalam enam dari sembilan area yang dilacak pada laporan ini, Facebook menyebut perusahaannya secara proaktif mendeteksi sebanyak 96,8 persen konten terkait.
Facebook juga menyebut telah mengambil tindakan untuk 96,8 persen konten tersebut sebelum pengguna menemukannya. Jumlah ini meningkat jika dibandingkan dengan konten yang dideteksi dan ditangani pada Q4 2018, yaitu sebesar 96,2 persen.
Untuk ujaran kebencian, Facebook mengklaim telah mengidentifikasi 65 persen dari lebih dari empat juta unggahan ujaran kebencian, dan menghapusnya dari platform miliknya setiap kuartal. Jumlah tersebut meningkat 24 persen jika dibandingkan tahun lalu, dan 59 persen dari Q4 2018.
Facebook juga menggunakan teknologi AI untuk memilah unggahan, iklan pribadi, gambar dan video yang melanggar peraturan dan kebijakannya.
Pada Q1 2019, Facebook menyebut telah menindak sekitar 900 ribu konten penjualan obat terlarang, dan 83,3 persen konten tersebut dideteksi oleh model AI karyanya.
Pada periode yang sama, Facebook menyebut meninjau sekitar 670 ribu konten penjualan senjata api, dengan 69,9 persen konten terdeteksi sebelum moderator konten atau pengguna menemukannya.
Selain AI dan pembelajaran mesin, algoritma lebih baik juga berkontribusi terhadap penurunan jumlah konten kurang pantas untuk ditemukan dan dilihat di Facebook.
Raksasa jejaring sosial ini memperkirakan bahwa untuk setiap 10 ribu kali pengguna menonton konten pada jaringannya, hanya 11 hingga 14 konten yang mengandung ketelanjangan orang dewasa atau aktivitas seksual, sedangkan 25 konten lain mengandung kekerasan.
Menyoal terorisme, ketelanjangan anak, dan eksploitasi seksual, jumlah konten terkait disebut mengalami penurunan signifikan.
Facebook menyebut pada Q1 2019, untuk setiap 10 ribu kali pengguna melihat konten di jejaring sosial, kurang dari tiga tontonan mengandung yang melanggar setiap kebijakan perusahaannya.
Facebook menyebut dalam satu kuartal, Facebook menonaktifkan lebih dari satu miliar akun spam, lebih dari 700 juta akun palsu, dan puluhan juta konten mengandung ketelanjangan dan kekerasan.
AI disebut sebagai sumber utama dalam pelaporan terkait kategori tersebut. Secara konkrit, Facebook menonaktifkan sebanyak 1,2 miliar akun pada Q4 2018, dan 2,19 juta pada Q1 2019. [dEe]