Anthropic Tolak Tekanan Pentagon, Claude AI Tetap Dilarang untuk Senjata Otonom dan Pengawasan Massal

Anthropic menjadi sorotan setelah memutuskan untuk tidak memenuhi tenggat waktu yang ditetapkan Pentagon terkait permintaan penghapusan semua pembatasan keamanan pada model AI Claude mereka. Keputusan ini menegaskan bahwa perusahaan AI tersebut tidak bersedia membuka Claude untuk kebutuhan sistem senjata tak berawak maupun pengawasan massal warga Amerika Serikat, meskipun ada tekanan keras dari pihak militer.

CEO Anthropic, Dario Amodei, menjelaskan bahwa perusahaan tidak dapat dengan hati nurani menerima tuntutan Pentagon karena teknologi AI saat ini belum terbukti cukup aman maupun andal untuk penggunaan sensitif semacam itu. Amodei menekankan bahwa penerapan Claude dalam sistem senjata otonom maupun pengawasan luas bertentangan dengan nilai-nilai demokrasi dan dapat membahayakan keselamatan publik. Ia menyebut, "frontier AI systems are simply not reliable enough to power fully autonomous weapons," dan penggunaan untuk pengawasan massal disebut "incompatible with democratic values".

Tekanan Pentagon dan Tuntutan Deregulasi Model AI

Departemen Pertahanan Amerika Serikat (DoW) menginginkan seluruh model AI yang akan digunakan tidak terikat dengan batasan kebijakan penggunaan dari luar, kecuali batasan yang dianggap “penggunaan yang sah menurut hukum” versi internal mereka. Hal ini dikonfirmasi melalui pernyataan resmi DoW yang menegaskan bahwa model AI yang “dituning” untuk menanamkan ideologi seperti Diversity, Equity, and Inclusion tidak lagi diizinkan, serta tidak boleh ada pembatasan kebijakan penggunaan yang membatasi aplikasi militer yang sah menurut hukum.

Pentagon juga memerintahkan Chief Digital and AI Officer (CDAO) untuk menetapkan tolok ukur objektivitas model sebagai kriteria utama dalam setiap pengadaan AI dalam 90 hari. Selain itu, dalam waktu 180 hari, semua kontrak pengadaan AI harus menyertakan klausul “any lawful use” yang menghapus segala pembatasan pemanfaatan kecuali yang secara tegas dilarang oleh hukum internal DoW.

Risiko Bisnis dan Ancaman Hukum terhadap Anthropic

Keengganan Anthropic berpotensi menimbulkan risiko besar bagi bisnis perusahaan. Pentagon mengancam akan mencabut kontrak plafon senilai 200 juta dollar yang selama ini diberikan kepada Anthropic untuk penyediaan layanan AI. Tekanan lain adalah potensi Anthropic digolongkan sebagai ‘supply chain risk’—status yang selama ini hanya dikenakan pada perusahaan yang punya potensi berafiliasi dengan negara lawan, seperti Huawei dari China atau Kaspersky dari Rusia.

Jika Anthropic sampai masuk daftar ini, bukan hanya menghadapi sanksi, namun juga risiko reputasi besar serta penurunan peluang bisnis di sektor pemerintahan Amerika. Lebih jauh, ada kemungkinan penggunaan undang-undang lama era Perang Korea yang memungkinkan pemerintah memaksa perusahaan untuk mematuhi alasan “security national”, sebuah regulasi berat yang sangat jarang dipakai di era teknologi modern.

Fokus Anthropic pada Keamanan dan Etika AI

Claude dikenal sebagai salah satu model AI utama di dunia yang memprioritaskan keamanan dan etika penggunaan. Seluruh sistem Claude dirancang dengan pengaman ketat agar tidak disalahgunakan, termasuk dalam konteks militer maupun pengawasan populasi. Meski demikian, model ini pernah dimanfaatkan pemerintah AS untuk menelusuri dokumen rahasia hingga membantu operasi penting seperti penangkapan Maduro di Venezuela.

Anthropic tetap konsisten membatasi dua hal dalam setiap kontrak pengembangan AI mereka, yakni larangan untuk digunakan dalam autonomous weapon systems dan mass surveillance systems. Dario Amodei menyatakan, meski pemerintah telah menjadikan Claude model rujukan dalam operasi penting, akan tetapi dua batasan tersebut dianggap sebagai ‘garis merah’ mutlak demi keselamatan dan menjaga prinsip demokrasi.

Pandangan Industri terhadap Regulasi AI untuk Keamanan Militer

Isu ini membangkitkan kembali perdebatan soal apakah model AI mutakhir perlu diregulasi ketat dalam penerapan militer. Tekanan untuk melepaskan semua pengaman etika dinilai sejumlah kalangan dapat menimbulkan risiko sistemik di masa depan. Beberapa organisasi hak asasi menyebut penolakan Anthropic sebagai langkah berani, sedangkan pihak militer menilai pembatasan seperti yang dilakukan Anthropic dapat “menghalangi kemajuan” dalam penerapan teknologi AI di ranah pertahanan dan keamanan.

Dampak untuk Tren AI dan Pengawasan Global

Keputusan Anthropic mencerminkan perubahan signifikan dalam tata kelola pengembangan AI, terutama pada persimpangan antara kepentingan bisnis, keamanan nasional, dan tanggung jawab etis. Sejumlah pengamat teknologi menilai, apa yang dilakukan Anthropic bisa menjadi preseden penting bagi perusahaan AI lain yang kini dihadapkan pada dilema moral serupa.

Perdebatan seputar pembukaan akses AI untuk militer dan pengawasan massal diperkirakan akan terus memanas, dengan banyak pihak menyoroti pentingnya pengembangan teknologi yang bertanggung jawab dan mempertimbangkan dampak sosial jangka panjang. Keberanian Anthropic menolak tekanan Pentagon, setidaknya untuk saat ini, mencerminkan komitmen industri AI untuk tetap kritis dalam menghadapi tuntutan yang berpotensi membahayakan nilai-nilai fundamental demokrasi dan privasi warga negara.

Source: www.notebookcheck.net

Berita Terkait

Back to top button