Iklan - Scroll untuk Melanjutkan
Baca artikel Fortune IDN lainnya di IDN App
Ilustrasi artificial intelligence. (Pixabay/KELLEPICS)

Jakarta, FORTUNE – Kecerdasan buatan atau AI bukan hal alami atau muncul begitu saja. Prosesnya membutuhkan data dan menggunakan algoritme untuk membuat prediksi berdasarkan data itu, termasuk peran manusia di dalamnya. Oleh karena itu, untuk membuat AI lebih akurat, adil, tidak bias, pelabelan data pun dibutuhkan.

Menurut mit.edu, pelabelan data (data labelling) merupakan proses pemberian makna pada mesin pembelajar tentang poin-poin data individual yang tergambar melalui teks. Pelabelan data seperti satu fase terpenting yang akan menentukan tingkat kecerdasan sebuah sistem AI. Semakin banyak data yang dimiliki, maka sistem AI tersebut akan semakin akurat dalam menghasilkan prediksi.

Frederik Bussler, seorang konsultan dan analis digital, menulis di VentureBeat (7/12), tentang kumpulan data yang berlabel yang diperlukan AI agar bisa berfungsi dengan baik. Ia mencontohkan langkah perusahaan OpenAI dalam menawarkan penggunaan data berlabel untuk ‘meningkatkan perilaku model bahasa’.

Menurut Bussler, pelabelan data seperti yang dilakukan oleh OpenAI akan membawa sebuah revolusi dalam penggunaan AI. “Ini adalah contoh penting, karena model OpenAI telah lama ditegur karena dianggap ‘toxic’ dan rasis,” katanya. “Dan ini adalah contoh sempurna dalam menggunakan data berlabel untuk mengontrol bias.”

Pentingnya pelabelan data

Bussler mengungkapkan bahwa AI sejatinya tidak secerdas yang dibayangkan tanpa adanya pelabelan data. Banyak kasus terjadi yang menunjukkan kesalahan pembacaan data akibat sistem AI yang masih menggunakan data tak berlabel. “Saat diterapkan dalam keseharian, penggunaan data tanpa label akan berdampak serius dalam banyak kasus,” ujarnya.

Kesalahan-kesalahan ini banyak terjadi ketika datang ke domain yang menantang seperti perawatan kesehatan, moderasi konten, atau kendaraan otonom. Dalam banyak kasus, penilaian manusia masih diperlukan untuk memastikan modelnya akurat.

“Perhatikan contoh sarkasme dalam moderasi konten media sosial. Sebuah posting Facebook mungkin berbunyi, ‘Astaga, kamu sangat pintar!’. Namun, itu bisa menjadi sarkastik dengan cara yang bisa dilewatkan oleh robot. Lebih buruk lagi, model bahasa yang dilatih pada bias data dapat menjadi seksis, rasis, atau hal toxic lainnya,” menurut Bussler.

Memadukan AI dengan penilaian manusia

Editorial Team

Tonton lebih seru di