Anthropic Hentikan Janji Tanpa Syarat Untuk Keamanan AI dan Ubah Strategi di Tengah Persaingan Global yang Makin Sengit

Anthropic, perusahaan riset kecerdasan buatan (AI) yang dikenal mengedepankan prinsip keamanan, telah menghapus janji utama dalam kebijakan keselamatan utamanya. Janji tersebut, yang diusung sejak 2023, menyatakan bahwa Anthropic tidak akan melatih sistem AI kecuali dapat menjamin terlebih dahulu bahwa langkah-langkah keselamatan sudah memadai.

Keputusan ini menunjukkan perubahan signifikan dalam strategi perusahaan terhadap pengembangan AI, mengingat janji tersebut selama ini menjadi pilar utama dari Responsible Scaling Policy (RSP) milik Anthropic. Perusahaan menyadari bahwa dengan cepatnya kemajuan AI, mengambil komitmen sepihak untuk menghentikan pelatihan model bisa merugikan posisi mereka dan tidak efektif.

Perubahan Kebijakan Responsible Scaling Policy
Anthropic sekarang meluncurkan versi baru RSP yang lebih fleksibel. Kebijakan ini tetap berkomitmen untuk meningkatkan transparansi terkait risiko keselamatan AI dengan mempublikasikan pengujian keselamatan model-modelnya. Selain itu, mereka berjanji untuk menyesuaikan atau bahkan melampaui upaya keselamatan para pesaing mereka.

Janji baru ini juga mencakup kemungkinan menunda pengembangan AI jika Anthropic menilai dirinya sebagai pemimpin dalam perlombaan AI dan risiko bencana signifikan muncul. Namun, secara keseluruhan, perubahan ini melonggarkan batasan sendiri yang sebelumnya melarang pelatihan model jika mitigasi risiko belum siap.

Latar Belakang dan Motivasi Perubahan
Meski sebelumnya dianggap berada di belakang OpenAI dalam kompetisi AI, Anthropic kini menikmati sejumlah keberhasilan teknologi dan komersial. Model Claude milik mereka, terutama alat pemrograman Claude Code, mendapat banyak penggemar. Pendanaan senilai 30 miliar dolar yang diterima perusahaan juga meningkatkan valuasi menjadi sekitar 380 miliar dolar, dengan pertumbuhan pendapatan tahunan diperkirakan naik 10 kali lipat.

Jared Kaplan, Chief Science Officer Anthropic, menegaskan bahwa perubahan ini bukan sekadar menyerah pada tekanan pasar. Menurut Kaplan, ini adalah respons pragmatis terhadap realitas politik dan ilmiah yang berkembang, di mana regulasi nasional maupun internasional belum muncul, dan persaingan AI justru semakin ketat.

Tantangan Regulasi dan Evaluasi Risiko AI
Ketika RSP pertama kali diperkenalkan, harapannya adalah kebijakan ini dapat mendorong pesaing untuk mengadopsi langkah serupa dan menjadi fondasi regulasi. Namun, rencana ini tidak terealisasi. Pemerintahan sebelumnya cenderung mendorong pengembangan AI tanpa banyak hambatan, bahkan mencoba meniadakan regulasi negara bagian.

Di sisi ilmiah, evaluasi risiko AI terbukti lebih kompleks dari perkiraan. Anthropic pernah menyatakan tidak dapat mengesampingkan potensi AI digunakan untuk serangan bioterorisme, namun bukti kuat tentang bahaya tersebut belum cukup meyakinkan pemerintah maupun pesaing untuk bertindak lebih hati-hati.

Kebijakan Baru Menuntut Transparansi dan Kolaborasi
Versi revisi RSP menekankan peluncuran “Frontier Safety Roadmaps”, dokumen yang merinci tujuan keselamatan yang ingin dicapai di masa depan. Selain itu, Anthropic akan menerbitkan “Risk Reports” setiap tiga hingga enam bulan untuk menjelaskan mengenai kemampuan model, potensi ancaman, dan mitigasi risiko yang diterapkan.

Pihak eksternal, seperti Chris Painter dari METR, menyambut baik fokus baru pada transparansi dan pelaporan risiko yang dapat diverifikasi publik. Namun, dia juga mengingatkan potensi risiko karena tidak adanya ambang batas pasti yang memicu penghentian pengembangan, sehingga bahaya dapat meningkat secara bertahap tanpa sinyal peringatan yang jelas.

Pandangan Anthropic tentang Kompetisi AI
Kaplan menolak anggapan bahwa Anthropic menyerah pada tekanan persaingan pasar. Ia menegaskan komitmen perusahaan untuk mengutamakan keselamatan, tetapi juga tidak ingin kehilangan posisi inovator dalam riset AI karena berhenti mengembangkan teknologi saat pesaing bergerak maju tanpa mitigasi risiko yang kuat.

Anthropic ingin tetap relevan dalam riset AI sekaligus mendorong standar keselamatan yang transparan dan kompetitif. Dengan kebijakan yang lebih adaptif, mereka berharap dapat terus menggabungkan pengembangan teknologi mutakhir dan penelitian keamanan yang efektif dalam menghadapi tantangan AI masa depan.

Baca selengkapnya di: time.com
Exit mobile version