Meta Belum Berkomitmen pada Rekomendasi Terkait Bias Algoritmik
Rekomendasi audit hak sipil Meta masih terus dikerjakan.
19 November 2021
Jakarta, FORTUNE – Perusahaan teknologi Meta—sebelumnya Facebook—masih memproses sejumlah rekomendasi perubahan hasil audit hak-hak sipil lebih dari setahun lalu. Hanya sebagian rekomendasi yang telah diterapkan.
Menukil dari engadget.com (19/11), Meta telah menerapkan 65 dari 117 rekomendasi yang diajukan auditor, dan 42 sisanya masih berstatus 'dalam proses'.
Kepala Tim Hak Sipil Meta, Roy L. Austin, mengatakan enam isu masih dalam tahap evaluasi, yakni sensus dan pemilihan umum, moderasi konten, keberagaman dan inklusivitas, struktur akuntabilitas, bias algoritme, dan iklan. “Laporan ini menandai awal dari langkah tim hak sipil untuk meningkatkan perlindungan bagi masyarakat yang terpinggirkan dan menunjukkan komitmen kami untuk bergerak menuju peningkatan kesetaraan, keamanan, dan martabat,” katanya.
Sejumlah rekomendasi berstatus ‘sedang dievaluasi’
Menurut engadget.com, para auditor meminta Meta mengatasi masalah bias algoritmik. Namun, Meta masih belum mau berkomitmen tentang persoalan ini dan memasukannya dalam poin yang ‘sedang dievaluasi’. Status masih dalam evaluasi ini juga berlaku bagi sejumlah rekomendasi lain, seperti identifikasi bias pada kecerdasan buatan (AI) atau pengujian algoritme yang ada secara rutin.
Selain itu, audit juga merekomendasikan pelatihan wajib untuk memahami dan mengurangi sumber bias dan diskriminasi dalam AI untuk semua tim yang membangun algoritme dan model mesin pembelajar. Hal ini juga dimasukkan dalam daftar ‘sedang dievaluasi’ bersama beberapa pembaruan terkait moderasi konten.
Status ‘sedang dievaluasi’ ini juga diterapkan pada rekomendasi untuk meningkatkan transparansi dan konsistensi keputusan terkait banding moderasi, serta rekomendasi agar perusahaan mempelajari lebih banyak aspek tentang bagaimana ujaran kebencian menyebar, termasuk bagaimana perusahaan dapat menggunakan data tersebut untuk mengatasi kebencian yang ditargetkan dengan lebih cepat.
Auditor juga merekomendasikan agar Meta mengungkapkan data tambahan tentang pengguna mana yang menjadi sasaran penindasan pemilih di platformnya. Namun, rekomendasi itu juga berstatus ‘sedang dievaluasi’.
Dua rekomendasi yang ditolak Meta
Dua rekomendasi yang langsung ditolak Meta terkait dengan kebijakan pemilu dan sensus. “Auditor merekomendasikan agar semua laporan campur tangan pemilih yang dibuat oleh pengguna diarahkan ke peninjau konten untuk menentukan apakah konten tersebut melanggar kebijakan kami, dan bahwa opsi banding ditambahkan untuk konten campur tangan pemilih yang dilaporkan,” tulis Meta.
Terkait itu, Meta memilih tidak melakukan perubahan karena akan memperlambat proses peninjauan, dan karena “sebagian besar konten yang dilaporkan sebagai campur tangan pemilih tidak melanggar kebijakan perusahaan.”
Latar belakang permasalahan audit hak sipil Meta
Dari Mei 2018 hingga Juli 2020, Meta menjalani audit hak-hak sipil secara luas atas perintah komunitas hak-hak sipil. Audit menghasilkan 117 rekomendasi dan tindakan dengan masukan dari lebih dari 100 organisasi hak-hak sipil dan keadilan sosial.
Lebih dari setahun kemudian, Tim Hak Sipil Meta—baru dibentuk pada Oktober 2020 sebagai hasil dari audit—memberikan pembaruan tentang status butir tersebut. Sayangnya, Facebook disalahkan karena menempatkan kebebasan berekspresi di atas ujaran kebencian dalam masa kampanye pemilihan umum di Amerika Serikat.
Laporan tersebut mencatat bahwa Facebook tidak memungkinkan kebebasan berbicara seperti yang telah berulang kali diberitakan oleh Zuckerberg. Auditor percaya bahwa Facebook harus melakukan segala daya untuk mencegah program dan algoritmenya mengarahkan orang ke ruang gema ekstremisme yang semakin kuat. Bila upaya ini gagal, maka akan membahayakan (dan mengancam jiwa) dunia kehidupan nyata.
Related Topics
Related Articles