Hakim Blokir Label Risiko untuk Anthropic, Pentagon Dinilai Menghukum Kritik AI

Seorang hakim federal di Amerika Serikat untuk sementara memblokir langkah Pentagon yang memberi label “supply chain risk” kepada Anthropic. Putusan ini menjadi kemenangan penting bagi perusahaan AI yang dipimpin Dario Amodei dalam sengketa yang berawal dari perbedaan pandangan soal penggunaan kecerdasan buatan tanpa pembatasan yang ketat.

Hakim distrik AS Rita Lin mengeluarkan perintah setebal 43 halaman yang menahan pemberlakuan label tersebut. Namun, penundaan itu baru efektif setelah tujuh hari agar pemerintah memiliki kesempatan untuk mengajukan banding.

Hakim menilai label dipakai sebagai bentuk hukuman

Dalam perintahnya, Rita Lin menyatakan label risiko rantai pasok itu tampak digunakan untuk “menghukum” Anthropic. Menurut pengadilan, langkah itu berkaitan dengan kritik terbuka Anthropic terhadap posisi pemerintah dalam negosiasi kontrak.

Lin juga menegaskan pemerintah tidak bisa dengan mudah menempelkan cap semacam itu kepada perusahaan Amerika hanya karena ada perbedaan pendapat. Dalam kutipan putusannya, pengadilan menyebut tidak ada dasar dalam undang-undang yang mendukung gagasan “Orwellian” bahwa perusahaan Amerika bisa dicap sebagai calon musuh atau penyabot AS hanya karena menyatakan ketidaksetujuan kepada pemerintah.

Poin ini penting karena label “supply chain risk” biasanya dikaitkan dengan perusahaan asing yang diduga memiliki hubungan dengan negara lawan Washington. Dalam artikel referensi, contoh yang disebut adalah Huawei, yang selama ini sering masuk perdebatan keamanan nasional AS.

Alasan Anthropic menggugat Pentagon

Anthropic menggugat di pengadilan federal California dengan argumen bahwa Menteri Pertahanan Pete Hegseth melampaui kewenangannya. Perusahaan menilai Pentagon tidak berhak menempatkan Anthropic dalam kategori risiko keamanan nasional hanya karena konflik posisi soal penggunaan AI.

Gugatan itu juga memuat dua tudingan konstitusional yang serius. Pertama, Anthropic menyebut pemerintah melakukan pembalasan terhadap sikap publik perusahaan mengenai keselamatan AI, sehingga melanggar hak kebebasan berbicara yang dijamin Amandemen Pertama.

Kedua, Anthropic menyatakan tidak diberi kesempatan untuk membantah penetapan label tersebut. Karena itu, perusahaan menilai hak atas proses hukum yang semestinya di bawah Amandemen Kelima juga dilanggar.

Anthropic juga memperingatkan dampak bisnis dari label itu bisa sangat besar. Dalam gugatan, perusahaan menyebut potensi kerugian dapat mencapai miliaran dolar AS karena kehilangan peluang pendapatan dari kontrak pemerintah.

Akar konflik: batas penggunaan AI oleh militer

Perselisihan ini bermula ketika Anthropic mundur dari sebuah kesepakatan dengan Pentagon terkait penggunaan sistem AI mereka di jaringan rahasia. Perusahaan disebut khawatir teknologinya bisa dipakai untuk pengawasan domestik massal atau pengembangan senjata otonom.

Anthropic ingin ada pagar pembatas yang tegas dalam kontrak untuk mencegah skenario tersebut. Sebaliknya, Departemen Pertahanan AS disebut hanya menyatakan AI akan digunakan untuk “all lawful purposes” atau semua tujuan yang sah menurut hukum.

Perbedaan inilah yang kemudian berubah menjadi sengketa hukum dan politik. Kasus tersebut juga memperlihatkan benturan yang makin sering muncul antara perusahaan AI, etika penggunaan teknologi, dan kebutuhan operasional pertahanan negara.

Dampak label bagi kontrak pemerintah

Label “supply chain risk” bukan sekadar cap administratif. Status itu dapat membatasi Anthropic dari kontrak militer tertentu dan berpotensi meluas ke kontrak sipil pemerintah federal.

Anthropic bahkan diketahui memiliki gugatan terpisah di Washington, DC terkait label yang sama. Gugatan itu menyoroti risiko dikeluarkannya perusahaan dari pasar pengadaan pemerintah yang lebih luas, bukan hanya di sektor pertahanan.

Berikut dampak utama yang dipersoalkan dalam kasus ini:

  1. Membatasi akses Anthropic ke kontrak militer.
  2. Berpotensi menutup peluang kontrak sipil pemerintah.
  3. Menciptakan stigma keamanan nasional pada perusahaan AS.
  4. Menambah risiko kehilangan pendapatan dalam skala besar.

Posisi Anthropic dan respons perusahaan

Juru bicara Anthropic, Danielle Cohen, mengatakan perkara ini diperlukan untuk melindungi perusahaan, pelanggan, dan mitra. Ia menambahkan bahwa fokus Anthropic tetap pada kerja sama yang produktif dengan pemerintah agar masyarakat Amerika mendapat manfaat dari AI yang aman dan andal.

Pernyataan itu menunjukkan Anthropic tidak menutup pintu bagi kolaborasi dengan negara. Namun, perusahaan ingin kerja sama itu berjalan dengan kerangka penggunaan yang jelas dan tidak mengorbankan prinsip keselamatan AI.

Model Anthropic masih dipakai, tetapi transisi disiapkan

Di tengah sengketa ini, sistem AI Anthropic dilaporkan masih digunakan Pentagon. Artikel referensi menyebut militer AS memakai Claude saat serangan ke Iran dalam Operation Epic Fury.

Meski begitu, pemerintah AS juga memerintahkan masa transisi selama enam bulan untuk secara bertahap mengganti sistem Anthropic dengan model OpenAI. Referensi yang sama menyebut kesepakatan dengan OpenAI dipercepat hanya beberapa jam setelah Anthropic menarik diri dari deal sebelumnya.

Situasi ini memperlihatkan bahwa perebutan kontrak AI pemerintah kini bukan hanya soal teknologi terbaik, tetapi juga soal tata kelola, pembatasan penggunaan, dan kepercayaan politik. Di sisi lain, Microsoft dan Google, dua perusahaan teknologi besar yang memiliki kontrak pemerintah, tetap menyediakan akses ke produk Anthropic melalui platform konsumen mereka, meski label dari Pentagon sempat diberlakukan.

Source: www.indiatoday.in

Berita Terkait

Back to top button