Usai Bentrok dengan Militer, Anthropic Cari Ahli Senjata Kimia untuk Batasi Risiko AI

Anthropic mulai mencari pakar kebijakan yang memahami senjata kimia dan bahan peledak setelah perselisihannya dengan militer Amerika Serikat soal penggunaan AI. Langkah ini memicu salah tafsir di media sosial, tetapi lowongan tersebut bukan untuk mengembangkan senjata, melainkan untuk memperketat batas penggunaan model AI pada area berisiko tinggi.

Informasi itu terlihat dalam lowongan kerja resmi Anthropic yang menyebut fokus peran ini adalah “bagaimana sistem AI menangani informasi sensitif tentang bahan kimia dan bahan peledak”. Kandidat yang direkrut akan bekerja bersama peneliti keselamatan AI untuk menangani persoalan kritis dalam mencegah penyalahgunaan yang bisa berujung pada dampak katastrofik.

Anthropic memperjelas posisi soal AI dan senjata

Anthropic dikenal sebagai perusahaan AI asal Amerika Serikat yang dipimpin Dario Amodei. Perusahaan ini sebelumnya memilih mundur dari kesepakatan dengan Pentagon karena tidak setuju dengan penggunaan AI tanpa pembatasan yang jelas.

Di tengah perdebatan soal AI militer, keputusan itu membuat hubungan Anthropic dengan Departemen Pertahanan AS memburuk. Menurut laporan referensi, perusahaan itu bahkan menggugat Departemen Pertahanan setelah diberi label sebagai risiko rantai pasok akibat keluar dari kontrak tersebut.

Anthropic menyatakan label itu berpotensi merugikan pendapatan perusahaan hingga jutaan dolar. Sengketa ini ikut membuka diskusi yang lebih luas tentang seberapa jauh AI boleh dipakai dalam operasi pertahanan dan sistem persenjataan otonom.

Apa yang akan dikerjakan pakar kebijakan ini

Berdasarkan deskripsi lowongan, peran tersebut berfokus pada penyusunan kebijakan yang jelas untuk mencegah AI dipakai dalam konteks senjata kimia dan bahan peledak. Tugas utamanya bukan riset ofensif, melainkan membuat kerangka pengamanan yang bisa diterapkan pada model AI.

Secara umum, tanggung jawabnya mencakup beberapa area berikut:

  1. Menyusun metode evaluasi untuk mengukur kemampuan model AI terkait informasi senjata kimia dan bahan peledak.
  2. Mengembangkan strategi mitigasi untuk mencegah penyalahgunaan.
  3. Menetapkan safeguard atau pengaman yang tepat pada sistem.
  4. Memantau ancaman baru yang dapat mengubah pola penggunaan AI dalam konteks senjata berisiko tinggi.

Kebutuhan ini menunjukkan bahwa perusahaan AI kini tidak hanya berlomba meningkatkan kemampuan model. Mereka juga dipaksa membangun mekanisme pengawasan yang lebih rinci ketika model makin kuat dan makin mudah diakses.

Latar belakang ketegangan dengan Pentagon

Menurut artikel referensi, militer AS pernah menegaskan bahwa AI tidak akan dipakai untuk tujuan persenjataan otonom yang melanggar batas. Namun Anthropic disebut tetap tidak yakin, sehingga memilih mengambil jarak dari kerja sama yang memberi ruang penggunaan AI tanpa pembatasan yang cukup tegas.

Di sisi lain, dinamika kontrak pemerintah terus bergerak. Model Claude milik Anthropic dilaporkan akan digantikan oleh model OpenAI dari jaringan militer rahasia AS dalam enam bulan ke depan.

Meski begitu, laporan yang sama menyebut Claude masih dipakai Pentagon untuk serangan ke Iran. Sistem itu disebut telah diintegrasikan ke Maven milik Palantir untuk pemilihan target dan operasi lain, sebuah klaim yang menempatkan perdebatan etika AI militer dalam sorotan lebih tajam.

Kualifikasi dan gaji yang ditawarkan

Anthropic memasang syarat yang cukup spesifik untuk posisi ini. Kandidat diharuskan memiliki gelar Ph.D. di bidang Kimia, Teknik Kimia, atau bidang lain yang relevan.

Selain itu, pengalaman yang diminta berada di kisaran lima hingga delapan tahun dalam pertahanan senjata kimia atau bahan peledak. Tingkat spesialisasi ini menunjukkan bahwa perusahaan menginginkan figur yang paham risiko teknis sekaligus mampu menerjemahkannya menjadi kebijakan operasional.

Untuk kompensasi, situs Anthropic mencantumkan gaji tahunan sebesar $245,000 hingga $280,000. Angka itu menegaskan bahwa keahlian di bidang tata kelola risiko AI dan senjata sensitif kini menjadi kompetensi yang sangat bernilai.

Aspek Detail
Posisi Policy manager
Fokus Informasi sensitif tentang bahan kimia dan bahan peledak
Kualifikasi pendidikan Ph.D. Kimia, Teknik Kimia, atau bidang terkait
Pengalaman Lima hingga delapan tahun
Gaji $245,000–$280,000 per tahun

Bukan hanya Anthropic

Persaingan dalam pengelolaan risiko ini tidak hanya terjadi di Anthropic. Artikel referensi juga menyebut OpenAI, yang kini memegang kontrak Pentagon, sedang merekrut ahli untuk mengelola risiko biologis dan kimia.

Fakta itu menunjukkan satu tren penting dalam industri AI. Saat model menjadi semakin canggih dan mulai dipakai dalam sektor pertahanan, kebutuhan terhadap pakar kebijakan, keselamatan, dan biosecurity ikut meningkat cepat.

Bagi publik, lowongan Anthropic ini penting dibaca dalam konteks tata kelola, bukan sensasi. Fokus utamanya adalah membangun pagar pengaman agar sistem AI tidak memberi jalan pada penyalahgunaan informasi berbahaya, terutama yang berkaitan dengan bahan peledak dan senjata kimia di tengah makin dekatnya hubungan antara teknologi AI, keamanan nasional, dan operasi militer.

Source: www.indiatoday.in

Berita Terkait

Back to top button