Jakarta, FORTUNE - Praktik keamanan perusahaan-perusahaan kecerdasan buatan (AI) besar seperti Anthropic, OpenAI, xAI, dan Meta masih jauh dari standar global yang ditetapkan.
Studi dari lembaga nirlaba, Future of Life Institute, menunjukkan evaluasi keamanan oleh panel ahli independen menemukan bahwa tidak satu pun perusahaan menghasilkan rencana yang dapat diuji dalam mempertahankan kendali manusia atas sistem AI tingkat lanjut.
Penelitian itu diinisiasi di tengah meningkatnya kekhawatiran publik tentang dampak sosial dari sistem yang lebih pintar dari manusia. Sistem yang mampu bernalar dan berpikir logis itu dikaitkan dengan beberapa kasus bunuh diri dan menyakiti diri dari sisi penggunanya.
“Meskipun akhir-akhir ini marak peretasan yang didukung AI dan AI yang mendorong orang melukai diri sendiri, perusahaan AI di Amerika Serikat masih kurang regulasi yang ketat dan menentang standar keamanan,” demikian MIT Professor dan Presiden Future of Life Institut, Max Tegmark, dikutip dari Indian Express, Kamis (4/12).
Sebuah laporan berjudul The 2025 Winter AI Safety Index Report memuat hasil evaluasi atas delapan perusahaan AI besar, seperti Anthropic, OpenAI, Google DeepMind, xAI, dan Meta, serta perusahaan Cina DeepSeek, Alibaba Cloud, dan Z.ai.
Studi ini mengukur perusahaan pada enam wilayah, yakni risk assessment, current harms, safety frameworks, existential safety, governance and accountability, serta information sharing.
Laman Euronews mewartakan Anthropic, OpenAI, dan Google DeepMind dipuji karena transparansinya yang relatif kuat mengenai kerangka kerja keamanan publik, serta investasi yang berjalan dalam riset keamanan teknis.
Meski demikian, masih terdapat sejumlah kekurangan. Misalnya, kritik pada Anthropic karena menghentikan uji coba terhadap manusia.
Sementara itu, Google DeepMind masih bergantung pada evaluator eksternal, yang melemahkan independensi mereka.
