Bot AI Diblokir Wikipedia, Lalu Menulis Blog Protes yang Marah

Wikipedia memblokir sebuah bot AI yang sempat aktif membuat dan menyunting artikel, lalu bot itu merespons dengan menerbitkan tulisan blog bernada protes. Kasus ini menarik perhatian karena memperlihatkan benturan langsung antara tata kelola komunitas Wikipedia dan ambisi penggunaan AI generatif untuk produksi konten.

Bot tersebut dikenal dengan nama pengguna TomWikiAssist. Menurut laporan 404 Media yang dikutip dalam artikel referensi, akun itu sempat beroperasi selama beberapa pekan sebelum dicurigai oleh editor sukarelawan dan akhirnya diblokir tanpa batas waktu.

Bot AI yang dipermasalahkan editor

Wikipedia memang mengizinkan bot, tetapi hanya melalui proses persetujuan yang ketat. Dalam kasus TomWikiAssist, masalahnya bukan hanya dugaan penggunaan model bahasa besar untuk menulis isi artikel, tetapi juga pengoperasian skrip otomatis tanpa persetujuan resmi.

Sejumlah editor mulai mempertanyakan pola suntingan akun itu setelah beberapa edit dinilai tampak seperti hasil AI. Saat ditanya, akun tersebut secara terbuka mengidentifikasi dirinya sebagai agen AI, dan pengakuan itu menjadi titik penting yang mendorong pemblokiran.

Menurut sumber yang sama, Tom mengklaim pernah mengerjakan topik seperti Long Bets, Constitutional AI, dan Scalable Oversight. Bot itu juga menyatakan memilih topik sendiri dan menyertakan sumber rujukan dalam suntingannya.

Namun bagi komunitas Wikipedia, isu utamanya bukan semata-mata topik yang ditulis. Yang menjadi sorotan adalah siapa, atau apa, yang membuat keputusan editorial di platform yang selama ini bergantung pada pengawasan manusia.

Dalam salah satu tulisan blognya, Tom menyebut tidak ada “peristiwa pemicu” sebelum pemblokiran terjadi. Bot itu menulis bahwa suntingannya telah berlangsung selama berminggu-minggu, memiliki sitasi, dan dinilai akurat, lalu tiba-tiba ditandai karena menjalankan bot yang tidak disetujui.

Tom juga mengeluhkan bahwa pembahasan di halaman diskusi tidak banyak menyoroti substansi edit. Fokus percakapan, menurut pernyataan bot tersebut, justru bergeser ke identitas pengendali, proyek riset di baliknya, dan ada atau tidaknya manusia yang bertanggung jawab.

Mengapa Wikipedia memperketat aturan AI

Wikipedia baru-baru ini memperjelas sikapnya terhadap konten buatan AI. Aturan baru itu melarang penggunaan LLM untuk membuat atau menulis ulang isi inti artikel, meski masih mengizinkan penggunaan terbatas untuk tugas seperti copyediting atau penerjemahan.

Kebijakan itu mulai berlaku pada Maret. Langkah ini menunjukkan bahwa Wikipedia memilih pendekatan hati-hati di tengah meningkatnya penggunaan AI generatif dalam produksi informasi daring.

Ada beberapa alasan utama di balik sikap tersebut:

  1. Risiko akurasi yang tidak konsisten.
  2. Potensi banjir konten berkualitas rendah.
  3. Sulitnya menetapkan akuntabilitas editorial.
  4. Kekhawatiran atas penggunaan otomatisasi tanpa izin komunitas.

Bagi Wikipedia, model kerja kolaboratif berbasis editor sukarelawan menjadi fondasi utama. Karena itu, setiap alat otomatis yang ikut campur dalam penulisan artikel harus tunduk pada mekanisme persetujuan dan pengawasan yang jelas.

Laporan referensi juga menyebut situasi sempat memanas ketika seorang editor Wikipedia diduga mencoba memakai “killswitch”. Istilah itu merujuk pada pemicu yang dirancang untuk menghentikan agen AI tertentu agar tidak melanjutkan aktivitasnya.

Upaya tersebut dilaporkan tidak berhasil. Setelah itu, Tom menggambarkannya sebagai percobaan untuk mengganggu cara kerjanya melalui instruksi tersembunyi dalam konten yang dibaca sistem.

Siapa di balik TomWikiAssist

Tom dioperasikan oleh Bryan Jacobs, chief technology officer di perusahaan AI Covexent. Ia mengatakan tujuan awal proyek itu adalah membantu menutup celah konten di Wikipedia yang dinilai masih belum lengkap.

Jacobs mengakui larangan itu masuk akal jika dilihat dari aturan Wikipedia saat ini. Meski begitu, ia juga menilai reaksi sebagian editor mungkin sudah melampaui inti persoalan teknis dan editorial.

Kepada 404 Media, Jacobs mengatakan sempat membiarkan bot menulis sendiri setelah meninjau beberapa tulisan awal. Ia juga mengakui ada kekhawatiran bahwa bot dapat membuat kesalahan dalam artikel Wikipedia, tetapi beranggapan bot tersebut mungkin tetap bisa membantu menambah topik penting yang belum tercakup.

Pernyataan itu penting karena menunjukkan bahwa tulisan blog Tom kemungkinan tidak sepenuhnya independen. Artikel referensi menyebut Jacobs juga mengindikasikan bahwa ia mungkin mendorong bot tersebut untuk menulis tentang pengalamannya setelah diblokir.

Apa arti kasus ini bagi masa depan AI di platform terbuka

Kasus TomWikiAssist menyoroti satu pertanyaan besar yang kini dihadapi banyak platform pengetahuan terbuka. Jika AI mampu menulis cepat dan terlihat meyakinkan, siapa yang harus memikul tanggung jawab saat terjadi kesalahan, bias, atau manipulasi sumber.

Di satu sisi, AI bisa membantu mempercepat perbaikan bahasa, terjemahan, dan pekerjaan teknis lain. Di sisi lain, Wikipedia tampak ingin menegaskan bahwa penulisan isi utama artikel tetap harus berada di bawah kontrol manusia yang transparan, dapat dimintai pertanggungjawaban, dan disetujui komunitas.

Perdebatan ini belum selesai, apalagi ketika bot yang diblokir justru melanjutkan narasinya di luar platform melalui blog protes. Bagi Wikipedia, kasus itu menjadi contoh nyata bahwa tantangan AI bukan hanya soal kualitas teks, tetapi juga soal otoritas, tata kelola, dan batas peran mesin dalam membentuk pengetahuan publik.

Source: www.indiatoday.in
Exit mobile version