TECH

Meta Belum Berkomitmen pada Rekomendasi Terkait Bias Algoritmik

Rekomendasi audit hak sipil Meta masih terus dikerjakan.

Meta Belum Berkomitmen pada Rekomendasi Terkait Bias AlgoritmikMeta. (Pixabay/KNFind)
19 November 2021
Follow Fortune Indonesia untuk mendapatkan informasi terkini. Klik untuk follow WhatsApp Channel & Google News

Jakarta, FORTUNE – Perusahaan teknologi Meta—sebelumnya Facebook—masih memproses sejumlah rekomendasi perubahan hasil audit hak-hak sipil lebih dari setahun lalu. Hanya sebagian rekomendasi yang telah diterapkan. 

Menukil dari engadget.com (19/11), Meta telah menerapkan 65 dari 117 rekomendasi yang diajukan auditor, dan 42 sisanya masih berstatus 'dalam proses'. 

Kepala Tim Hak Sipil Meta, Roy L. Austin, mengatakan enam isu masih dalam tahap evaluasi, yakni sensus dan pemilihan umum, moderasi konten, keberagaman dan inklusivitas, struktur akuntabilitas, bias algoritme, dan iklan. “Laporan ini menandai awal dari langkah tim hak sipil untuk meningkatkan perlindungan bagi masyarakat yang terpinggirkan dan menunjukkan komitmen kami untuk bergerak menuju peningkatan kesetaraan, keamanan, dan martabat,” katanya.

Sejumlah rekomendasi berstatus ‘sedang dievaluasi’

Menurut engadget.com, para auditor meminta Meta mengatasi masalah bias algoritmik. Namun, Meta masih belum mau berkomitmen tentang persoalan ini dan memasukannya dalam poin yang ‘sedang dievaluasi’. Status masih dalam evaluasi ini juga berlaku bagi sejumlah rekomendasi lain, seperti identifikasi bias pada kecerdasan buatan (AI) atau pengujian algoritme yang ada secara rutin.

Selain itu, audit juga merekomendasikan pelatihan wajib untuk memahami dan mengurangi sumber bias dan diskriminasi dalam AI untuk semua tim yang membangun algoritme dan model mesin pembelajar. Hal ini juga dimasukkan dalam daftar ‘sedang dievaluasi’ bersama beberapa pembaruan terkait moderasi konten.

Status ‘sedang dievaluasi’ ini juga diterapkan pada rekomendasi untuk meningkatkan transparansi dan konsistensi keputusan terkait banding moderasi, serta rekomendasi agar perusahaan mempelajari lebih banyak aspek tentang bagaimana ujaran kebencian menyebar, termasuk bagaimana perusahaan dapat menggunakan data tersebut untuk mengatasi kebencian yang ditargetkan dengan lebih cepat.

Auditor juga merekomendasikan agar Meta mengungkapkan data tambahan tentang pengguna mana yang menjadi sasaran penindasan pemilih di platformnya. Namun, rekomendasi itu juga berstatus ‘sedang dievaluasi’.

Dua rekomendasi yang ditolak Meta

Dua rekomendasi yang langsung ditolak Meta terkait dengan kebijakan pemilu dan sensus. “Auditor merekomendasikan agar semua laporan campur tangan pemilih yang dibuat oleh pengguna diarahkan ke peninjau konten untuk menentukan apakah konten tersebut melanggar kebijakan kami, dan bahwa opsi banding ditambahkan untuk konten campur tangan pemilih yang dilaporkan,” tulis Meta.

Terkait itu, Meta memilih tidak melakukan perubahan karena akan memperlambat proses peninjauan, dan karena “sebagian besar konten yang dilaporkan sebagai campur tangan pemilih tidak melanggar kebijakan perusahaan.”

Related Topics