Anthropic Tanggalkan Janji Utama Keamanan AI, Bersaing Sengit Meski Risiko Belum Terjamin

Perubahan besar kini terjadi di dunia pengembangan kecerdasan buatan (AI). Anthropic, salah satu perusahaan AI terdepan, memutuskan mengubah kebijakan intinya soal keselamatan pengembangan model AI. Perusahaan yang dikenal sebagai pelopor standar keamanan ini tidak lagi menjamin akan menghentikan pelatihan atau peluncuran model AI baru meski keselamatannya belum sepenuhnya terjamin.

Langkah ini menarik perhatian karena sejak awal berdirinya, Anthropic menempatkan keamanan sebagai prioritas utama. Perusahaan pernah menerapkan aturan tegas untuk tidak mengembangkan atau merilis model AI baru jika standar keamanannya belum terpenuhi.

Fokus Perubahan Kebijakan Anthropic

Keputusan terbaru ini tercermin dalam revisi Responsible Scaling Policy (RSP) yang sebelumnya mereka luncurkan. Dalam pembaruan tersebut, Anthropic menyatakan tidak akan lagi menghentikan pengembangan hanya karena adanya potensi ancaman keselamatan.

Pihak Anthropic mengungkapkan, industri saat ini sedang mengalami masa “zona abu-abu ” dalam menilai risiko model AI. Standar evaluasi untuk membuktikan kapan AI benar-benar berbahaya dinilai belum berkembang cukup matang. Anthropic menyebut, “sains tentang evaluasi model belum cukup maju untuk memberikan jawaban pasti.”

Jika mereka tetap berhenti sejenak mengembangkan model dengan alasan keselamatan, sedangkan perusahaan lain terus bergerak maju, Anthropic berisiko kehilangan posisi strategis. Selain itu, kehilangan pengaruh oleh pemain safety-minded seperti Anthropic dapat menciptakan "dunia yang justru kurang aman" menurut argumen perusahaan.

Alasan di Balik Keputusan Anthropic

Ada beberapa pertimbangan mengapa Anthropic melepaskan komitmen ‘hard-stop’-nya:

  1. Tidak ada sistem evaluasi global yang dapat memastikan kapan AI tak lagi aman.
  2. Jika kompetitor tetap maju, Anthropic berpotensi kalah dalam kompetisi dan kehilangan pengaruh terhadap standar keamanan industri AI.
  3. Pengawasan dan tata kelola AI di tingkat global belum dapat diandalkan untuk mengatur laju pengembangan semua perusahaan.
  4. Pengembangan sistem pengamanan berlapis untuk mengatasi ancaman utama dinilai “tidak mungkin bisa dicapai sendiri oleh satu perusahaan”, mengutip pernyataan resmi mereka.

Alih-alih memakai aturan stop mutlak, Anthropic kini memilih pendekatan lebih fleksibel dengan fokus pada transparansi proses keamanan. Perusahaan akan rutin merilis Risk Report berkala. Laporan ini dijanjikan akan memaparkan secara terbuka tentang identifikasi dan langkah mitigasi risiko terbaru.

Implikasi Bagi Industri AI

Dengan mengadopsi strategi baru, Anthropic dianggap lebih realistis menghadapi dinamika persaingan AI global. Keputusan perusahaan yang didirikan oleh eks peneliti OpenAI ini mengejutkan karena sejak lama mereka dikenal paling disiplin dalam urusan safety.

Selama ini, Responsible Scaling Policy 2023 mereka dikenal luas sebagai sistem yang memberi hard-stop pada pengembangan model AI yang terbukti belum aman. Komitmen tersebut membangun reputasi perusahaan sebagai laboratorium yang paling peduli keselamatan.

Namun, kompetisi di ranah AI kini semakin memanas. Banyak perusahaan berfokus pada kecepatan serta keunggulan performa model AI mereka. Dalam situasi demikian, komitmen unilaternal pada aturan ketat dinilai dapat menjauhkan Anthropic dari pengaruh utama dalam pembentukan standar industri.

Pendekatan Transparansi dan Pelaporan Risiko

Anthropic kini mengedepankan sistem pelaporan risiko secara berkala sebagai strategi pengelolaan keamanan AI. Berikut format baru pendekatan mereka:

  1. Publikasi Risk Report: Penjelasan terbuka setiap langkah mitigasi dan identifikasi risiko.
  2. Evaluasi Berkelanjutan: Pantauan terhadap perkembangan model dan risiko baru secara transparan.
  3. Kolaborasi Regulasi: Kerja sama dengan industri dan pemerintah untuk penyempurnaan evaluasi keamanan.

Sikap baru ini menandai era keterbukaan dalam penanganan risiko teknologi AI, meski memicu perdebatan seputar pengaruh pengawasan mandiri tanpa aturan tegas. Pengamat industri menilai langkah ini bisa memicu perusahaan lain mengikuti jejak yang sama demi tetap bersaing di pasar AI yang sangat dinamis.

Pada akhirnya, perubahan ini akan terus mendapat sorotan mengingat pesatnya pertumbuhan teknologi AI. Bagaimana industri global akan bereaksi terhadap pendekatan baru Anthropic ini, menjadi pertanyaan penting seiring meningkatnya kebutuhan akan sistem AI yang aman dan bertanggung jawab.

Source: www.indiatoday.in

Berita Terkait

Back to top button