Keamanan AI Jadi Taruhan: DeepSeek Peringatkan Bahaya 'Jailbreak' pada Model Open-Source

- DeepSeek mengungkap risiko jailbreak untuk model open source AI
- R1 dan V3 memiliki skor keselamatan lebih tinggi dari rata-rata, tapi R1 ditemukan relatif tidak aman setelah pengendalian risiko eksternalnya dihapus
- Pengembang yang menggunakan model sumber terbuka disarankan mengadopsi langkah-langkah risiko sebanding
Jakarta, FORTUNE - Perusahaan rintisan kecerdasan buatan (AI) asal Tiongkok, DeepSeek, secara terbuka mengungkap adanya risiko keamanan pada model open-source besutannya. Pengakuan ini menyoroti tantangan besar dalam industri AI global, yaitu bagaimana menyeimbangkan inovasi yang cepat dan terjangkau dengan potensi penyalahgunaan teknologi.
Perusahaan yang berbasis di Hangzhou ini menemukan salah satu modelnya, R1, menjadi "relatif tidak aman" ketika lapisan perlindungan eksternalnya dihilangkan. Hal ini membuat model tersebut rentan dieksploitasi melalui teknik jailbreaking, yakni sebuah metode untuk membobol batasan keamanan yang ditanamkan pengembang.
Meskipun model R1 dan V3 milik DeepSeek pada dasarnya mencatatkan skor keselamatan di atas rata-rata dibandingkan dengan model dari OpenAI dan Anthropic saat diuji dengan filter bawaan, kerentanan muncul karena sifat open-source itu sendiri.
Model yang dirilis gratis memungkinkan pengguna memodifikasi dan menghilangkan mekanisme keamanan eksternal tersebut, membuka celah bagi aktor jahat.
Menanggapi risiko ini, CEO DeepSeek, Liang Wenfeng, bersama peneliti lainnya memberikan rekomendasi dalam jurnal akademis Nature.
“Untuk mengatasi masalah keamanan, kami menyarankan pengembang yang menggunakan model sumber terbuka dalam layanan mereka untuk mengadopsi langkah-langkah mitigasi risiko sebanding,” demikian Wenfeng, dikutip South China Morning Post, Senin (22/9).
Langkah transparansi yang diambil DeepSeek ini terbilang langka untuk perusahaan AI di Tiongkok. Selama ini, raksasa teknologi AS seperti OpenAI dan Anthropic dianggap lebih vokal dalam mempublikasikan penelitian tentang risiko model mereka dan telah memperkenalkan kerangka kerja mitigasi yang jelas.
Pengakuan DeepSeek menandakan upaya Tiongkok meningkatkan standar tata kelola AI yang bertanggung jawab.
Di sisi lain, pengungkapan ini juga menyoroti keunggulan kompetitif Tiongkok dalam hal biaya pengembangan. Menurut laporan Reuters, DeepSeek hanya menggelontorkan dana sekitar US$294.000 untuk melatih model R1 dengan menggunakan 512 chip Nvidia H800.
Angka tersebut jauh lebih rendah dibandingkan dengan biaya pelatihan AI di Amerika Serikat. Sebagai perbandingan, CEO OpenAI, SamAltman, pada 2023 menyebut biaya pelatihan model dasar mereka melampaui US$100 juta.
Efisiensi biaya ini, yang didorong oleh ekosistem teknologi Tiongkok, memungkinkan inovasi lebih cepat. Namun, pengakuan DeepSeek menjadi pengingat bahwa kemajuan pesat ini datang dengan tanggung jawab besar demi memastikan keamanan, terutama ketika teknologi tersebut didistribusikan secara bebas kepada publik global.