Mengapa Claude Diblokir Pentagon, Label Risiko Pasokan Bongkar Konflik AI Militer

Pentagon akhirnya mengungkap alasan di balik pelabelan Anthropic sebagai risiko rantai pasok dan pelarangan penggunaan model Claude di lingkungan militer Amerika Serikat. Inti masalahnya bukan sekadar soal vendor AI, melainkan perbedaan prinsip tentang batas penggunaan kecerdasan buatan untuk kebutuhan pertahanan.

Pejabat tinggi Pentagon, Emil Michael, menyatakan bahwa model Claude dinilai membawa “preferensi kebijakan” yang berbeda dari kebutuhan Departemen Pertahanan AS. Menurut dia, preferensi itu tertanam di dalam model dan dinilai berpotensi memengaruhi sistem, perlengkapan, serta efektivitas operasi militer jika tetap dipakai secara luas dalam rantai pasok pertahanan.

Alasan Pentagon memberi label risiko rantai pasok

Menurut keterangan yang dikutip CNBC, label tersebut muncul setelah Anthropic tidak memenuhi permintaan Pentagon untuk penggunaan AI tanpa pembatasan untuk “all lawful purposes” atau semua tujuan yang sah secara hukum. Di sisi lain, Anthropic menetapkan batas tegas terhadap penggunaan AI untuk pengawasan massal di dalam negeri dan pengembangan senjata otonom.

Emil Michael menyebut perbedaan kebijakan itu sebagai akar utama keputusan Pentagon. Ia mengatakan, “That’s really where the supply chain risk designation came from,” yang menunjukkan bahwa persoalan utama ada pada desain kebijakan model, bukan semata performa teknis.

Pentagon berpendapat model yang membawa batasan nilai tertentu bisa “mencemari” rantai pasok pertahanan. Dalam penjelasannya kepada CNBC, Michael menyebut militer tidak bisa bergantung pada perusahaan yang memiliki “different policy preference” yang telah “baked into the model through its constitution, its soul, its policy preferences.”

Ia juga mengaitkan isu itu dengan efektivitas di medan tempur. Menurut Michael, kondisi tersebut bisa membuat prajurit menerima perlindungan dan kemampuan tempur yang tidak optimal, mulai dari sistem senjata hingga perlindungan fisik.

Mengapa langkah ini jadi sorotan

Label risiko rantai pasok biasanya dipakai untuk entitas yang dianggap berpotensi mengancam keamanan nasional, termasuk perusahaan dari negara lawan strategis seperti Huawei dari China. Karena itu, penetapan label serupa kepada perusahaan AI asal AS seperti Anthropic memicu perhatian besar di sektor teknologi dan kebijakan pertahanan.

Kasus ini juga menyoroti benturan yang makin tajam antara industri AI dan pemerintah soal batas etika penggunaan teknologi. Di satu sisi, militer ingin akses yang luas dan cepat untuk kepentingan operasional, sementara di sisi lain sebagian pengembang AI memasang pagar kebijakan untuk mencegah penyalahgunaan.

Claude belum benar-benar hilang dari jaringan Pentagon

Meski pemerintah AS telah memerintahkan penggantian sistem Anthropic, prosesnya tidak bisa dilakukan seketika. Anthropic disebut sebagai satu-satunya perusahaan AI yang memiliki model kustom tertanam di jaringan rahasia militer AS.

Karena itu, Pentagon menyiapkan masa transisi selama enam bulan saat beralih ke OpenAI. Emil Michael mengakui proses pencopotan teknologi ini kompleks dan tidak sesederhana menghapus aplikasi biasa dari komputer kantor.

Claude juga disebut telah terintegrasi ke Maven Smart System yang dibangun Palantir. Sistem ini dikenal penting untuk pemilihan target secara real time, dan laporan yang beredar menyebut teknologinya digunakan dalam operasi militer AS, termasuk serangan terhadap Iran.

Dampaknya, kontraktor pertahanan dan vendor seperti Palantir kini diwajibkan memutus hubungan dengan Anthropic untuk proyek yang berkaitan dengan Pentagon. Perubahan ini berpotensi memengaruhi ekosistem pemasok AI pertahanan yang sudah terlanjur saling terhubung.

Anthropic menggugat pemerintah AS

Anthropic merespons keputusan itu dengan menggugat pemerintahan AS. Dalam dokumen hukum, perusahaan menyebut penetapan tersebut sebagai tindakan yang “unprecedented and unlawful” atau belum pernah terjadi sebelumnya dan melanggar hukum.

Perusahaan juga memperingatkan dampak bisnis yang besar. Anthropic menyatakan bisa kehilangan kontrak senilai ratusan juta dolar AS akibat keputusan Pentagon tersebut.

Berikut poin utama sengketa ini:

  1. Pentagon meminta akses AI untuk semua tujuan yang sah secara hukum.
  2. Anthropic menolak penggunaan untuk pengawasan domestik massal.
  3. Anthropic juga memberi batas pada pengembangan senjata otonom.
  4. Pentagon menilai batas itu menciptakan risiko bagi rantai pasok militer.
  5. Anthropic menggugat karena menganggap label itu tidak sah.

Dukungan publik dan implikasi industri AI

Di luar konflik dengan Pentagon, Anthropic justru mendapat dorongan dari publik. Setelah polemik mencuat, aplikasi Claude dilaporkan mengalami lonjakan unduhan dan sempat memuncaki tangga aplikasi Apple App Store di AS.

Respons pasar ini memperlihatkan bahwa sikap hati-hati terhadap penggunaan AI militer justru diapresiasi oleh sebagian pengguna. Sejumlah pelanggan juga dilaporkan beralih dari ChatGPT ke Claude setelah OpenAI memperdalam kerja sama dengan Pentagon.

Meski Pentagon beralih ke OpenAI, teknologi Anthropic belum hilang dari pasar perusahaan. Microsoft, Google, dan Amazon disebut tetap menyediakan alat AI Anthropic kepada klien mereka selama tidak terkait langsung dengan penggunaan Pentagon.

Perkembangan ini menunjukkan satu hal penting: persaingan AI kini tidak hanya ditentukan oleh kemampuan model, tetapi juga oleh nilai, aturan penggunaan, dan kesediaan vendor mengikuti kebutuhan negara. Dalam konteks pertahanan AS, alasan pelarangan Claude bukan soal AI yang lemah, melainkan karena Pentagon menilai batas etika yang dipasang Anthropic tidak sejalan dengan doktrin operasional militer yang mereka inginkan.

Source: www.indiatoday.in

Berita Terkait

Back to top button