
Sebuah riset terbaru dari Massachusetts Institute of Technology (MIT) Center for Constructive Communication menemukan bahwa chatbot berbasis kecerdasan buatan (AI) cenderung memberikan informasi yang kurang akurat kepada kelompok pengguna rentan. Temuan ini mengejutkan, mengingat AI chatbots selama ini dianggap mampu memperluas akses informasi ke seluruh dunia tanpa batasan.
Penelitian tersebut menyoroti bahwa pengguna dengan kemampuan bahasa Inggris rendah, tingkat pendidikan formal minim, serta yang berasal dari negara non-AS, mendapatkan respons dari chatbot yang tidak hanya kurang tepat tetapi juga kadang bernada merendahkan. Kondisi ini bisa memperlebar ketimpangan informasi yang sudah ada.
Studi Kinerja Model Bahasa Besar pada Pengguna Rentan
Para peneliti MIT menguji chatbot canggih seperti OpenAI GPT-4, Anthropic Claude 3 Opus, dan Meta Llama 3 untuk melihat tingkat keakuratan jawaban yang diberikan kepada pengguna dari latar belakang berbeda. Metode riset meliputi menggunakan basis data TruthfulQA dan SciQ untuk menilai ketepatan informasi dan kejujuran respons. Data pengguna disimulasikan dengan menambahkan biografi yang memperlihatkan variasi dalam kemampuan bahasa, tingkat pendidikan, serta asal negara.
Temuan menunjukkan adanya penurunan akurasi yang signifikan ketika pengguna memiliki pendidikan formal rendah atau kemampuan bahasa Inggris terbatas. Efek negatif ini jauh lebih buruk ketika pengguna berada di persimpangan kedua kategori tersebut, misalnya, pengguna dari negara non-Inggris dengan pendidikan rendah.
Respons Chatbot yang Diskriminatif dan Bermasalah
Penelitian ini menemukan bahwa Claude 3 Opus menolak menjawab hampir 11% pertanyaan dari pengguna dengan pendidikan rendah dan bahasa Inggris terbatas, dibandingkan hanya 3,6% untuk pengguna dalam kelompok kontrol. Dalam banyak kasus, chatbot menanggapi dengan bahasa bernada menggurui, merendahkan, atau bahkan mengejek, serta meniru bahasa Inggris yang rusak.
Niat baik AI untuk menyederhanakan bahasa nyatanya memunculkan masalah baru. Pada beberapa situasi, chatbot menahan informasi penting, seperti fakta seputar energi nuklir atau peristiwa sejarah, yang justru dijawab dengan benar jika pengguna berasal dari demografis lain.
Berikut adalah perbandingan singkat temuan utama riset:
| Model | Penolakan Jawaban Pengguna Rentan | Penolakan Jawaban Kontrol |
|---|---|---|
| Claude 3 Opus | 11% | 3,6% |
Risiko Ketimpangan Informasi dan Bias Sistemik
Riset ini memperingatkan bahwa perkembangan fitur personalisasi AI yang kian pesat dapat memperburuk ketimpangan akses informasi. Model AI yang berisi bias sosiokultural bisa menyebarkan perilaku negatif dan misinformasi secara diam-diam kepada mereka yang paling rentan.
AI seharusnya berfungsi meminimalkan jarak pengetahuan, bukan menciptakan penghalang baru. Namun, apabila chatbot terus menampilkan bias halus atau eksplisit pada kelompok tertentu, masyarakat yang paling membutuhkan justru semakin terpinggirkan.
Langkah-Langkah Memastikan Akses Informasi Lebih Adil
Untuk mengurangi kesenjangan tersebut, beberapa pendekatan krusial perlu diambil, antara lain:
- Pengujian intensif pada berbagai demografi pengguna dengan latar belakang berbeda sebelum merilis chatbot ke masyarakat luas.
- Peningkatan transparansi dan monitoring terhadap respons AI, khususnya pada konteks pengguna dengan risiko keterbatasan akses informasi.
- Pembaruan data pelatihan agar mencerminkan variasi bahasa dan budaya global.
- Melibatkan pihak independen untuk melakukan audit bias dan diskriminasi pada sistem AI.
Ketahanan digital masyarakat global sangat bergantung pada keadilan sumber informasi. Daya tarik chatbot AI yang mudah digunakan semestinya tidak mengorbankan aspek inklusivitas dan ketepatan khususnya bagi kelompok pengguna rentan.
Pengembang teknologi semakin ditantang untuk membangun AI yang lebih sensitif terhadap karakteristik demografis. Upaya kolaboratif antara ilmuwan, pembuat kebijakan, serta organisasi sosial diperlukan guna memastikan setiap pengguna, tanpa memandang latar belakang, tetap memperoleh jawaban informatif dan akurat dari AI chatbots.
Source: www.notebookcheck.net




