Jakarta, FORTUNE - IBM merilis Cost of a Data Breach Report tahunannya yang kali ini untuk pertama kalinya menyertakan analisis mendalam soal keamanan dan tata kelola kecerdasan buatan (AI). Temuannya cukup mencemaskan: sebanyak 13 persen organisasi melaporkan pelanggaran pada model atau aplikasi AI, dan 97 persen dari kasus tersebut terjadi di lingkungan yang tidak memiliki pengendalian akses AI yang memadai.
Riset yang dilakukan IBM bersama Ponemon Institute terhadap 600 organisasi secara global menunjukkan adanya kesenjangan signifikan antara kecepatan adopsi AI dan kesiapan keamanannya. IBM menyebut fenomena ini membuat AI menjadi target empuk bernilai tinggi bagi pelaku kejahatan siber.
“Data menunjukkan adanya kesenjangan nyata antara adopsi AI dan pengawasannya, dan para pelaku ancaman mulai mengeksploitasinya,” kata Suja Viswesan, Wakil Presiden Produk Keamanan dan Runtime, IBM, dalam keterangan resmi, Kamis (31/7).
Suja menambahkan, laporan ini menunjukkan absennya pengendalian akses dasar terhadap sistem AI, yang mengakibatkan data sangat sensitif terekspos dan model rentan dimanipulasi.
"Ketika AI semakin tertanam dalam operasi bisnis, keamanan AI harus menjadi pondasi utama. Biaya dari ketidaksiapan bukan hanya finansial, tetapi juga menyangkut hilangnya kepercayaan, transparansi, dan kendali," katanya,
Dari seluruh organisasi yang disusupi, 60 persen mengalami kebocoran data dan 31 persen mengalami gangguan operasional. Lebih lanjut, 8 persen organisasi bahkan tidak mengetahui apakah sistem AI mereka telah disusupi atau tidak.
Laporan ini juga mengungkap bahwa satu dari lima organisasi mengalami pelanggaran akibat shadow AI—yakni penggunaan AI tanpa izin atau pengawasan resmi. Hanya 37 persen organisasi yang memiliki kebijakan untuk mengelola atau mendeteksi keberadaan shadow AI. Insiden semacam ini terbukti lebih berisiko: organisasi dengan penggunaan shadow AI tinggi mencatat kerugian rata-rata US$670.000 lebih besar dibanding yang rendah atau tidak menggunakan shadow AI.
Data pribadi (65 persen) dan kekayaan intelektual (40 persen) menjadi jenis data yang paling sering terdampak dalam pelanggaran shadow AI, jauh di atas rata-rata global.
Sementara itu, 16 persenpelanggaran yang dikaji melibatkan penyerang yang menggunakan alat AI, terutama untuk melakukan serangan phishing dan deepfake impersonation.