OpenAI Ungkap DeepSeek Curang: Curi Data AI Amerika Pakai Trik Licik yang Sulit Dideteksi, Ancaman Serius untuk Keamanan dan Inovasi Teknologi AI!

OpenAI secara resmi menuduh perusahaan asal China, DeepSeek, melakukan praktik yang disebut sebagai "free riding" dengan memanfaatkan riset AI Amerika untuk mengembangkan model kecerdasan buatan mereka sendiri. Tuduhan ini disampaikan melalui memo yang dikirim ke House Select Committee on China dan diperoleh oleh Bloomberg News. Dalam memo tersebut, OpenAI menegaskan bahwa DeepSeek menggunakan metode distilasi baru yang semakin canggih untuk mencuri data pelatihan dari model AI terkemuka buatan Amerika.

Metode distilasi yang dimaksud adalah teknik di mana satu model AI dilatih menggunakan keluaran dari model AI lain. OpenAI menjelaskan, DeepSeek memakai cara-cara tersembunyi dan rumit untuk menghindari pengamanan yang telah disiapkan agar tidak terjadi penggunaan tak sah dari keluaran model AI OpenAI. OpenAI sudah mengangkat isu ini sejak peluncuran model AI R1 dari DeepSeek yang terjadi tahun lalu, menunjukkan bahwa masalah ini bukan hal baru.

Evolusi Teknik Distilasi dan Dampaknya

Praktik distilasi yang menurut OpenAI sebagian besar dilakukan oleh perusahaan di China dan kadang Rusia, terus berkembang meskipun ada upaya pengawasan dan penegakan hukum. Memo tersebut menyebut penggunaan teknik ini oleh DeepSeek berlangsung secara terus-menerus dan makin sulit untuk diblokir. Banyak model AI di China, termasuk karya DeepSeek, yang bersifat open source alias terbuka untuk umum, sehingga siapa saja dapat menggunakannya.

Kondisi ini bisa memberikan tekanan finansial berat pada perusahaan Amerika seperti OpenAI dan Anthropic yang sudah menginvestasikan milyaran dolar dalam infrastruktur AI. Hal ini berpotensi melemahkan keunggulan kompetitif Amerika Serikat di bidang kecerdasan buatan, yang selama ini dianggap sebagai pemimpin dunia.

Risiko Keamanan dan Etika

Selain faktor ekonomi, praktik distilasi juga menimbulkan berbagai risiko keamanan. Memo OpenAI menyatakan bahwa ketika kemampuan suatu model ditiru melalui distilasi, fitur keamanan bawaan bisa hilang. Ini memungkinkan alat AI yang kuat dipakai di bidang-bidang sensitif, seperti biologi dan kimia, tanpa kendali yang tepat. Keadaan ini bisa membuka peluang penyalahgunaan yang serius.

Selain itu, isu bias dan sensor yang melekat pada DeepSeek karena asal-usulnya juga menjadi perhatian. OpenAI mengingatkan potensi ancaman terhadap keamanan nasional jika teknologi ini tidak diatur dengan baik. Sebelumnya, CEO Anthropic, Dario Amodei, bahkan membandingkan penjualan chip Nvidia kelas atas dengan tindakan memberi nuklir ke Korea Utara, menunjukkan betapa seriusnya potensi risiko tersebut.

Strategi DeepSeek dan Cara Mengelabui Pembatasan

Menurut klaim OpenAI, karyawan DeepSeek ketahuan menggunakan server pihak ketiga untuk menjebol pembatasan akses yang ada. Mereka juga mengembangkan kode khusus agar dapat mengambil keluaran model AI secara sistematis dan otomatis. Selain itu, memo tersebut menyebut adanya penjual layanan OpenAI yang tidak berwenang yang turut berperan dalam menyiasati kontrol penggunaan teknologi.

Berikut strategi utama yang digunakan DeepSeek menurut OpenAI:

  1. Memanfaatkan metode distilasi tersembunyi untuk mengakses teknologi proprietari secara tidak sah.
  2. Menggunakan server pihak ketiga sebagai perantara untuk melewati pembatasan akses.
  3. Mengembangkan kode untuk mengekstrak keluaran model secara programatik.
  4. Melibatkan penjual layanan OpenAI ilegal untuk menghindari sistem pengamanan.

OpenAI sudah memperingatkan risiko-risiko ini sejak awal munculnya model R1 DeepSeek dan terus menggarisbawahi pentingnya pengawasan ketat terhadap praktek penggunaan AI lintas negara.

Penggunaan teknologi AI yang melibatkan perolehan data dan pelatihan model secara legal menjadi isu yang semakin krusial di era digital saat ini. Adanya praktik free riding seperti yang dipersoalkan OpenAI terhadap DeepSeek membuka diskusi lebih luas terkait etika, keamanan, dan kewenangan dalam pengembangan kecerdasan buatan global. Industri AI dunia perlu mengambil langkah nyata agar inovasi tetap berjalan adil dan aman, tanpa merugikan investasi dan perdamaian teknologi antar negara.

Berita Terkait

Back to top button