
Anthropic mengungkap serangkaian kampanye skala industri yang dilakukan oleh tiga laboratorium AI—DeepSeek, Moonshot, dan MiniMax—yang berupaya mencuri kemampuan model AI Claude secara ilegal. Lebih dari 16 juta pertukaran telah terjadi melalui sekitar 24.000 akun palsu, melanggar ketentuan layanan dan pembatasan akses regional yang berlaku.
Metode yang dipakai adalah teknik distillation, yakni melatih model dengan kemampuan lebih rendah menggunakan hasil keluaran model yang lebih kuat. Distillation merupakan metode pelatihan yang sah dan umum digunakan oleh laboratorium AI terdepan untuk menghasilkan model yang lebih kecil dan ekonomis. Namun, teknik ini juga disalahgunakan untuk mengakuisisi kemampuan model pesaing dengan cepat dan murah, tanpa harus mengembangkan teknologi tersebut secara mandiri.
Risiko Keamanan Nasional dari Distillation Ilegal
Model hasil distillation ilegal umumnya tidak menyertakan perlindungan penting yang diberlakukan perusahaan seperti Anthropic. Hal ini menimbulkan risiko besar terhadap keamanan nasional karena potensi penyalahgunaan AI. Misalnya, kemampuan berbahaya seperti pengembangan senjata biologi atau aktivitas siber jahat dapat tersebar tanpa kendali.
Laboratorium asing yang mengulis ulang model-model Amerika dengan teknik ini dapat memasukkan kemampuan yang tidak terlindungi dalam sistem militer, intelijen, dan pengawasan. Akibatnya, pemerintah otoriter punya peluang menggunakan AI canggih untuk operasi siber ofensif, propaganda disinformasi, dan pengawasan massal. Risiko ini semakin besar jika model distillation dibuka secara publik dan digunakan tanpa kontrol.
Dampak Terhadap Kontrol Ekspor dan Persaingan Teknologi
Anthropic mendukung kontrol ekspor teknologi sebagai upaya menjaga keunggulan Amerika dalam pengembangan AI. Beberapa kampanye distillation terindikasi berasal dari entitas yang berada di bawah pengaruh rezim seperti Partai Komunis Tiongkok, yang berusaha mengurangi kesenjangan teknologi yang diciptakan oleh pembatasan akses tersebut.
Ketika distillation dilakukan secara besar-besaran dengan memanfaatkan akses chip canggih, kemajuan teknologi yang dicapai laboratorium-laboratorium tersebut sering keliru dianggap murni hasil inovasi mandiri. Padahal, sebagian besar kemampuan yang diperoleh berasal dari hasil distillation model AI Amerika. Ini memperkuat argumentasi untuk mempertahankan dan memperketat kontrol ekspor demi membatasi pelatihan langsung maupun distillation ilegal.
Kampanye Distillation yang Terungkap dan Teknik Mereka
Ketiga kampanye ini memiliki pola operasi mirip, menggunakan akun palsu dan layanan proxy agar dapat mengakses Claude dalam volume besar sambil menghindari deteksi. Pola prompt yang diajukan berbeda dari penggunaan normal karena memang diarahkan untuk mengekstrak kemampuan spesifik guna pelatihan model baru.
Berikut ringkasan kampanye dari tiap laboratorium:
-
DeepSeek
- Jumlah pertukaran: lebih dari 150.000
- Fokus: kemampuan penalaran, penilaian berbasis rubrik untuk reinforcement learning, dan alternatif bebas sensor untuk pertanyaan sensitif politik
- Teknik: penggunaan traffic sinkron antar akun, permintaan penjelasan proses berpikir internal (chain-of-thought) secara masif
-
Moonshot AI
- Jumlah pertukaran: lebih dari 3,4 juta
- Fokus: penalaran agentic, pemakaian alat, pemrograman, analisis data, dan pengembangan agen komputer serta visi komputer
- Teknik: ratusan akun palsu dengan akses beragam untuk memperumit pendeteksian, penggalian rekonstruksi jejak penalaran Claude
- MiniMax
- Jumlah pertukaran: lebih dari 13 juta
- Fokus: pemrograman agentic, pemakaian alat, dan orkestrasi
- Teknik: kampanye berlangsung saat pengembangan model sendiri yang baru, dengan adaptasi cepat mengikuti rilis model terbaru Claude
Cara Laboratorium AI Memperoleh Akses
Anthropic membatasi akses komersial Claude di Tiongkok dan anak perusahaan lokal untuk alasan keamanan. Namun, laboratorium-laboratorium pelaku distillation memanfaatkan layanan proxy komersial yang menjalankan "hydra cluster," jaringan akun palsu yang besar dan tersebar, serta mengoperasikan permintaan melalui berbagai platform cloud.
Satu jaringan proxy bahkan mampu mengelola lebih dari 20.000 akun palsu sekaligus dengan lalu lintas yang diselingi permintaan pelanggan asli agar sulit dideteksi. Pola penggunaan prompt sangat spesifik dan berulang pada area kemampuan yang berharga demi mengumpulkan data pelatihan secara masif dan terstruktur.
Upaya Anthropic Mencegah dan Mengatasi Distillation
Anthropic mengembangkan beragam teknologi untuk mendeteksi dan mempersulit serangan distillation, antara lain:
-
Deteksi
- Pemrograman classifier dan sistem fingerprinting perilaku API untuk mengenali pola distillation, termasuk penggalian chain-of-thought
- Identifikasi aktivitas koordinasi akun secara besar-besaran
-
Berbagi Informasi Intelijen
- Koordinasi dengan laboratorium AI lain, penyedia cloud, dan otoritas terkait guna mendapatkan gambaran lengkap tentang serangan distillation
-
Penguatan Kontrol Akses
- Verifikasi lebih ketat pada akun-akun pendidikan, riset keamanan, dan startup—jalur yang sering disalahgunakan
- Pengembangan Tindakan Balasan
- Pembuatan perlindungan pada produk, API, dan model yang mengurangi utilitas keluaran untuk distillation tanpa mengganggu pengguna sah
Kebutuhan Respons Terpadu
Masalah distillation dalam skala besar ini tidak dapat diselesaikan oleh satu perusahaan saja. Tindakan cepat, penanganan bersama antara pemain industri, regulator, dan komunitas AI global sangat diperlukan. Pengungkapan ini bertujuan memberikan transparansi yang mendukung kolaborasi dan perlindungan terhadap riset dan kapasitas AI yang kritikal bagi keamanan nasional dan kemajuan teknologi.
Source: www.anthropic.com




