Ratusan Demonstran Kepung Kantor OpenAI dan Anthropic, Desak Perlombaan AI Dihentikan Kini

Ratusan demonstran turun ke jalan di San Francisco untuk menuntut perlambatan pengembangan kecerdasan buatan tingkat lanjut atau frontier AI. Aksi ini menyasar kantor Anthropic, OpenAI, dan xAI dengan satu pesan utama: perlombaan AI harus dihentikan sekarang.

Jumlah peserta dilaporkan mendekati 200 orang dan berasal dari berbagai kelompok keselamatan AI. Mereka membawa seruan “Stop the AI Race” dan meminta para pemimpin perusahaan AI besar bersedia menghentikan pengembangan, jika seluruh laboratorium utama melakukan langkah yang sama.

Aksi protes bergerak dari Anthropic ke OpenAI dan xAI

Demonstrasi dimulai di depan kantor pusat Anthropic sebelum massa bergerak menuju kantor OpenAI lalu xAI. Aksi itu diikuti oleh aktivis, akademisi, dan mantan karyawan laboratorium AI yang menilai laju pengembangan teknologi ini sudah melampaui pagar pengaman yang pernah dijanjikan industri.

Berdasarkan halaman pendaftaran acara, tuntutan utama mereka cukup spesifik. Para demonstran meminta CEO perusahaan AI besar menyatakan komitmen publik untuk menjeda pengembangan AI, dengan syarat semua lab besar lain ikut melakukan hal yang sama.

Sejumlah organisasi yang disebut ikut terlibat antara lain Pause AI dan QuitGPT. Kelompok ini menilai kompetisi antarlaboratorium telah mendorong percepatan produk dan model baru, sementara standar keselamatan belum berkembang secepat kemampuan teknologinya.

Alasan utama protes: janji keselamatan dinilai melemah

Penyelenggara aksi menuduh beberapa perusahaan AI telah melonggarkan komitmen keselamatan yang sebelumnya disampaikan ke publik. Menurut mereka, kondisi itu meningkatkan risiko penyalahgunaan hingga ancaman yang lebih luas terhadap manusia.

Halaman acara juga menyinggung tuduhan bahwa Anthropic pada Februari mencabut komitmen untuk menghentikan pengembangan jika sistem AI mereka menjadi terlalu berbahaya. Selain itu, OpenAI disorot karena dinilai melemahkan komitmen keselamatan ketika perusahaan itu berproses menuju struktur korporasi yang berorientasi profit.

Hingga aksi berlangsung, Anthropic, OpenAI, dan xAI dilaporkan belum mengeluarkan tanggapan publik yang secara langsung merespons demonstrasi tersebut. Ketiadaan respons itu membuat isu keselamatan AI kembali menjadi pusat perhatian publik dan komunitas teknologi.

Mengapa keselamatan AI kembali jadi sorotan

Perdebatan soal risiko AI menguat sejak ChatGPT diperkenalkan secara luas pada 2022. Sejak saat itu, kemampuan model generatif berkembang cepat dan memicu kekhawatiran dari banyak pakar, termasuk Geoffrey Hinton yang kerap dijuluki “Godfather of AI”.

Hinton pernah menguraikan tiga jenis ancaman utama dari AI. Ia menyebut penyalahgunaan oleh pelaku jahat, hilangnya lapangan kerja dalam skala besar, dan kemungkinan AI mengambil alih karena menjadi bentuk kecerdasan yang lebih unggul.

Pernyataan Hinton itu sering dikutip dalam diskusi publik karena menyentuh risiko yang sudah mulai terlihat. Dalam artikel rujukan, ancaman itu dikaitkan dengan meningkatnya penipuan siber berbasis AI, termasuk phishing yang lebih meyakinkan, deepfake suara dan video, serta otomatisasi malware.

Laporan itu juga menyinggung penggunaan alat AI dalam konflik bersenjata untuk memproses data dalam jumlah besar. Data seperti intersepsi dan citra satelit disebut dapat membantu identifikasi serta prioritisasi target, termasuk infrastruktur militer dan lokasi pimpinan.

Respons pemerintah mulai terbentuk

Seiring meningkatnya kemampuan AI, pemerintah di berbagai negara mulai menyusun aturan dan kerangka tata kelola. Tujuannya ialah menyeimbangkan inovasi dengan perlindungan terhadap keselamatan, privasi, dan potensi bias.

Uni Eropa telah memiliki undang-undang AI komprehensif yang mulai berlaku pada Agustus 2024. Ketentuan utamanya dijadwalkan dapat mulai ditegakkan pada Agustus 2026, menjadikannya salah satu acuan penting dalam regulasi AI global.

Artikel rujukan juga menyoroti India AI Governance Guidelines sebagai contoh pendekatan tata kelola. Kerangka itu dirancang untuk menjaga ruang inovasi sambil memperkuat akuntabilitas dan pengamanan.

Daftar isu yang paling sering dipersoalkan dalam perlombaan AI

  1. Kecepatan rilis model lebih tinggi daripada kesiapan pengamanan.
  2. Potensi penyalahgunaan untuk penipuan, manipulasi, dan serangan siber.
  3. Risiko penggantian tenaga kerja dalam skala luas.
  4. Kurangnya transparansi atas komitmen keselamatan perusahaan.
  5. Kekhawatiran jangka panjang soal sistem yang bertindak di luar kendali manusia.

Di sisi lain, perusahaan AI juga menunjukkan upaya mitigasi meski dinilai belum cukup. xAI misalnya sempat menghentikan beberapa fitur chatbot Grok setelah sistem itu membuat gambar eksplisit perempuan tanpa persetujuan.

Anthropic juga disebut pernah bersitegang dengan pemerintah Amerika Serikat ketika menolak penggunaan chatbot-nya untuk pengawasan terhadap warga. Namun bagi kelompok keselamatan AI, langkah-langkah seperti itu belum menjawab persoalan inti, yakni kompetisi industri yang terus mendorong pengembangan model semakin kuat tanpa jeda yang disepakati bersama.

Aksi di San Francisco memperlihatkan bahwa perdebatan AI tidak lagi hanya berlangsung di laboratorium, ruang rapat, atau forum kebijakan. Tekanan kini juga datang dari jalanan, saat sebagian publik menuntut perusahaan teknologi besar membuktikan bahwa inovasi AI tidak dijalankan dengan mengorbankan keselamatan jangka panjang.

Source: www.indiatoday.in

Berita Terkait

Back to top button