Sindobatam

Dapatkan berita terbaru

Temuan ini mengarah ke analisis yang lebih dalam, kata Facebook

Temuan ini mengarah ke analisis yang lebih dalam, kata Facebook

Akun pengguna dibuat oleh A Situs jejaring sosial Facebook Platform media sosial mengatakan seorang peneliti di Kerala dua tahun lalu menemukan banyak kasus ujaran kebencian dan disinformasi berdasarkan rekomendasi algoritmik yang membuat perusahaan melakukan “analisis lebih dalam dan lebih ketat” dari sistem rekomendasinya di India.

Facebook menanggapi pertanyaan dari Ekspres India Di New York Times Laporkan efek platform media sosial di India, Apalagi menjelang pemilihan umum 2019.

“Upaya eksplorasi untuk menghitung satu uji hipotetis ini mengilhami analisis yang lebih dalam dan lebih bernuansa dari sistem rekomendasi kami, dan berkontribusi pada perubahan produk untuk menyempurnakannya. Perubahan produk dari kemudian, penelitian yang lebih ketat mencakup hal-hal seperti menghapus konten garis batas dan kelompok sipil dan politik dari sistem rekomendasi kami,” kata juru bicara Facebook.

“Secara terpisah, pekerjaan kami terus mengekang ujaran kebencian dan kami telah meningkatkan peringkat kebencian kami untuk memasukkan 4 bahasa India,” kata juru bicara itu.

The New York Times melaporkan bahwa laporan peneliti adalah salah satu dari lusinan studi dan memo yang ditulis oleh karyawan Facebook yang bergulat dengan efek platform di India.

Dokumen internal, yang diperoleh oleh konsorsium organisasi berita yang termasuk The New York Times, adalah bagian dari cache materi yang lebih besar yang disebut Kertas Facebook. Mereka dikumpulkan oleh Frances Haugen, mantan manajer produk Facebook yang menjadi pelapor dan baru-baru ini bersaksi di hadapan Sub panel di Senat tentang perusahaan dan platform media sosialnya.

“Referensi ke India tersebar di antara dokumen yang diajukan Haugen ke Securities and Exchange Commission dalam pengaduan awal bulan ini,” katanya.

Perubahan Facebook bergantung pada pembatasan yang diklaim perusahaan telah diberlakukan pada rekomendasi, seperti menghapus grup yang sehat dari permukaan ini, serta grup yang sering membagikan informasi yang salah.

READ  Hubungan antara India dan China tidak normal, dan tidak bisa normal jika…: S Jaishankar

Khusus untuk grup yang membagikan informasi yang salah, perusahaan telah mulai mengkategorikan semua konten dari grup ini lebih rendah di umpan berita dan membatasi notifikasi untuk mengurangi jumlah anggota yang melihat postingan mereka.

Platform tersebut juga mengatakan telah melihat “jenis penyalahgunaan baru di Facebook” dalam konteks Covid, dan memperbarui kebijakannya untuk mencerminkan perubahan tersebut.

Misalnya, perusahaan mengatakan sekarang menghapus konten yang menyatakan bahwa orang-orang yang memiliki karakteristik yang dilindungi seperti ras atau agama memiliki virus, membuat virus, atau menyebarkan virus. Sebagai bagian dari penerapan kebijakan ini, perusahaan mengklaim telah melarang beberapa tagar yang terutama digunakan untuk menargetkan komunitas Muslim dalam konteks Covid.