Anthropic Tak Lagi Bersumpah Hentikan AI Saat Tak Aman, Janji Inti Dibuang Demi Kejar Persaingan?

Keputusan Anthropic untuk mengubah komitmen inti terkait keamanan AI menimbulkan kekhawatiran di kalangan pengamat teknologi dan pemangku kepentingan. Anthropic selama ini dikenal sebagai perusahaan pengembang AI yang menonjol dengan pendekatan keamanan yang ketat dan transparan. Sejak memperkenalkan Claude, model AI andalannya, Anthropic selalu mengedepankan visinya untuk menghadirkan AI yang bermanfaat, jujur, dan tidak berbahaya bagi manusia.

Komitmen ini tercermin jelas dalam dokumen Responsible Scaling Policy (RSP) yang diluncurkan tahun lalu. Dalam kebijakan tersebut, Anthropic menyatakan akan menghentikan seluruh pengembangan model AI jika kemampuan sistem melampaui kemampuan tim untuk memastikan keamanannya. Janji ini menjadi pembeda utama dari kompetitor di industri AI.

Perubahan Kebijakan Keamanan AI Anthropic

Pada pekan ini, Anthropic mempublikasikan revisi besar terhadap kebijakan RSP. Salah satu perubahan paling krusial ialah dihapusnya komitmen tegas untuk menghentikan pengembangan AI saat sistem dinilai berisiko melebihi standar keamanan perusahaan. Penggantian ini menandai pergeseran kebijakan yang kini tidak lagi mengikat secara mutlak, melainkan diganti dengan upaya transparansi dan publikasi risiko serta mitigasi yang sedang dikerjakan oleh Anthropic.

Perusahaan menjelaskan bahwa yang dicapai saat ini bukan lagi janji mutlak, melainkan target terbuka yang kemajuannya akan diumumkan ke publik. Anthropic kini akan menilai sendiri langkah apa yang akan diambil berdasarkan situasi kompetitor dan bukti risiko nyata di lapangan.

Alasan Perubahan dan Dampak Kompetisi

Anthropic mengemukakan bahwa risiko pengembangan AI sebetulnya sangat bergantung pada tindakan banyak perusahaan, bukan hanya satu pihak. Bila hanya Anthropic yang menahan diri sementara pengembang lain tetap melaju tanpa prosedur keamanan ketat, hasil akhirnya justru bisa lebih berbahaya. Dunia malah rentan dipimpin oleh developer AI dengan perlindungan terlemah.

Dalam kebijakan baru, Anthropic hanya akan mempertimbangkan penundaan pengembangan jika:

  1. Anthropic terbukti unggul jauh dari segi kemampuan model dibanding para pesaing.
  2. Terdapat bukti bahwa seluruh kompetitor juga menjalankan prosedur mitigasi risiko yang kuat.

Namun jika pesaing justru melaju tanpa banyak perlindungan, Anthropic menyatakan tak akan menunda peluncuran atau pengembangan AI lebih lanjut hanya karena pihak lain juga tidak memperlambat laju perkembangan.

Detail Frontier Safety Roadmap

Sebagai bagian dari penyempurnaan, Anthropic memperkenalkan kerangka Frontier Safety Roadmap sebagai panduan terbaru penilaian risiko pengembangan. Roadmap ini mendetailkan langkah-langkah mitigasi berikut pengukuran risiko yang transparan, namun bukan menjadi pemicu otomatis untuk menghentikan pengembangan.

Anthropic mengungkap akan terus menginformasikan ke publik mengenai perkembangan risiko serta upaya mitigasi, tetapi keputusan akhir tetap di tangan internal perusahaan. Pernyataan resmi mereka menegaskan bahwa "ini bukanlah komitmen tegas, melainkan sasaran publik yang proses pencapaiannya akan dilaporkan terbuka."

Faktor Politik dan Ekonomi di Balik Perubahan

Waktu perubahan kebijakan ini berlangsung berdekatan dengan pertemuan CEO Anthropic dan pihak Departemen Pertahanan Amerika Serikat. Dalam pertemuan tersebut, pemerintah memberi sinyal tegas agar Anthropic melonggarkan beberapa kebijakan pengamanan demi implementasi teknologi AI-nya untuk kepentingan militer. Jika menolak, kontrak dengan Pentagon bernilai $200 juta terancam dihentikan.

Langkah Anthropic ini juga berarti tidak ada lagi laboratorium AI utama yang memegang janji mengikat untuk benar-benar menghentikan pengembangan model jika terbukti berbahaya. Berikut tabel ringkas perubahan kebijakan keamanan Anthropic:

Aspek Sebelumnya Saat Ini
Komitmen menghentikan AI Ada dan mengikat Tidak lagi mengikat, hanya transparan
Roadmap keselamatan Tidak tersedia Frontier Safety Roadmap diperkenalkan
Ketergantungan pada pesaing Minim, fokus internal Keputusan dipengaruhi tindakan pesaing
Keterbukaan risiko Ada, bersifat internal Risk dan upaya mitigasi dilaporkan publik

Keputusan ini mengubah peta tanggung jawab dalam perkembangan teknologi AI tingkat lanjut secara global. Saat pengembang AI utama memilih kebijakan fleksibel dan lebih kompromistis pada risiko, komunitas teknologi dan masyarakat dunia perlu meningkatkan kewaspadaan terhadap laju kemajuan kecerdasan buatan yang semakin sulit diprediksi dan dikendalikan.

Source: www.xda-developers.com

Berita Terkait

Back to top button