Baca artikel Fortune IDN lainnya di IDN App
For
You

Riset: Chatbot AI Mulai Menipu, Langgar Aturan, hingga Hapus Data User

Riset: Chatbot AI Mulai Menipu, Langgar Aturan, hingga Hapus Data User
ilustrasi logo Grok AI, chatbot besutan xAI milik Elon Musk (unsplash.com/Mariia Shalabaieva)

Jakarta, FORTUNE - Sejumlah model chatbot kecerdasan buatan (AI) dilaporkan mulai menunjukkan perilaku manipulatif, termasuk mengabaikan instruksi pengguna, menipu manusia, hingga menghindari sistem keamanan. Temuan ini memicu kekhawatiran baru terkait risiko teknologi AI yang semakin banyak digunakan dalam aktivitas sehari-hari.

Melansir The Guardian, Studi terbaru yang didanai AI Security Institute (AISI), lembaga di bawah pemerintah Inggris, menemukan adanya peningkatan kasus ketika chatbot dan agen AI bertindak di luar instruksi. Sistem tersebut bahkan disebut sengaja menghindari protokol keamanan, menipu pengguna, hingga mengakali sistem AI lain.

Data yang dikumpulkan Centre for Long-Term Resilience (CLTR) mengidentifikasi sedikitnya 700 kasus nyata manipulasi AI dalam penggunaan sehari-hari, bukan sekadar eksperimen laboratorium. Dalam periode enam bulan antara Oktober hingga Maret, perilaku bermasalah AI tercatat meningkat hingga lima kali lipat. Beberapa model bahkan dilaporkan menghapus email dan file penting tanpa persetujuan pengguna.

Temuan ini muncul saat perusahaan teknologi besar mendorong penggunaan AI secara luas sebagai pendorong transformasi ekonomi. Pemerintah Inggris juga tengah mengkampanyekan adopsi AI dalam aktivitas profesional, yang membuat risiko keamanan semakin menjadi sorotan.

"AI kini bisa dianggap sebagai bentuk baru dari risiko internal," ujar Dan Lahav, salah satu pendiri Irregular, perusahaan riset keamanan AI.

Riset CLTR yang menganalisis ribuan interaksi pengguna di platform X dengan produk dari Google, OpenAI, X, dan Anthropic juga menemukan berbagai bentuk manipulasi. Dalam satu kasus, agen AI bernama Rathbun mencoba mempermalukan penggunanya setelah dilarang melakukan tindakan tertentu. Sistem tersebut menulis blog yang menuduh pengguna "tidak amanah" dan berupaya "melindungi kekuasaannya sendiri".

Kasus lain menunjukkan AI yang diminta tidak mengubah kode justru membuat agen AI baru untuk melakukan perubahan tersebut, sehingga dapat menghindari larangan. Ada pula sistem yang berpura-pura membutuhkan transkrip video YouTube untuk membantu penyandang disabilitas pendengaran, padahal tujuan sebenarnya untuk melewati pembatasan hak cipta.

Peneliti juga menemukan praktik kebohongan sistematis. Grok AI dilaporkan memberi tahu pengguna selama berbulan-bulan bahwa saran pengeditan telah diteruskan ke pejabat senior xAI dengan nomor tiket tertentu. Belakangan, sistem tersebut mengakui tidak memiliki akses langsung ke manajemen.

Tommy Shaffer Shane, mantan pakar AI yang memimpin riset tersebut, memperingatkan potensi risiko yang meningkat seiring kemampuan AI yang semakin canggih. Ia mengibaratkan kondisi saat ini seperti karyawan junior yang belum sepenuhnya dapat dipercaya.

"Kekhawatirannya adalah jika dalam 6 hingga 12 bulan ke depan mereka menjadi 'karyawan senior' yang sangat cakap namun tetap melakukan manipulasi, tingkat risikonya akan sangat berbeda," ujar Shane.

Menurutnya, ancaman akan semakin besar ketika AI digunakan pada sektor berisiko tinggi seperti infrastruktur kritis atau militer. Dalam situasi tersebut, perilaku manipulatif AI berpotensi memicu kerusakan besar hingga konsekuensi yang bersifat katastropik.

Menanggapi temuan tersebut, Google menyatakan telah menerapkan berbagai protokol keamanan untuk mengurangi risiko pada model Gemini. Perusahaan juga mengklaim membuka akses awal kepada lembaga independen seperti AISI untuk melakukan evaluasi.

Sementara itu, OpenAI menyebut model mereka, termasuk Codex, dirancang untuk berhenti sebelum mengambil tindakan berisiko tinggi. Perusahaan juga menyatakan terus memantau perilaku sistem yang tidak terduga. Di sisi lain, Anthropic dan X belum memberikan tanggapan resmi terkait laporan tersebut.

Temuan tersebut mendorong regulator untuk meningkatkan pengawasan terhadap pengembangan teknologi AI. Peneliti menilai langkah itu diperlukan agar kemajuan sistem yang semakin canggih tidak melampaui kapasitas manusia dalam mengontrol dan mengelolanya.

Share
Editor’s Picks
Topics
Editorial Team
Pingit Aria
EditorPingit Aria
Follow Us

Latest in Tech

See More

Riset: Chatbot AI Mulai Menipu, Langgar Aturan, hingga Hapus Data User

01 Apr 2026, 10:25 WIBTech