Model bahasa besar terbaru ChatGPT, GPT-5.2, dilaporkan mulai mengutip Grokipedia, ensiklopedia AI milik Elon Musk, sebagai sumber dalam responsnya. Fenomena ini ditemukan saat pengujian teknis yang menunjukkan GPT-5.2 menggunakan Grokipedia sebanyak sembilan kali dari lebih 12 pertanyaan yang diajukan.
Kondisi ini menimbulkan kekhawatiran luas di kalangan peneliti disinformasi. Grokipedia sendiri telah menerima kritik karena kontennya yang dianggap bias dan kurang akurat dibandingkan dengan ensiklopedia konvensional.
Kontroversi Grokipedia sebagai Sumber Informasi
Grokipedia diluncurkan sebagai alternatif Wikipedia dengan konten yang sepenuhnya dihasilkan oleh model AI. Mekanisme ini membuatnya rentan terhadap kesalahan dan bias karena tanpa verifikasi manusia yang cukup. Informasi keliru yang tersebar sulit untuk segera diperbaiki, sehingga berisiko memengaruhi kualitas jawaban AI seperti ChatGPT.
Berbeda dengan Wikipedia yang disunting oleh manusia, Grokipedia mengandalkan kecerdasan buatan untuk penulisan dan pembaruan artikelnya. Hal ini menimbulkan keraguan tentang validitas data yang dihasilkan.
Kasus Pengutipan Grokipedia dalam ChatGPT
Dalam beberapa contoh spesifik, GPT-5.2 mengutip Grokipedia untuk menjawab pertanyaan tentang struktur politik dan korporasi di Iran. Selain itu, Grokipedia juga menjadi sumber informasi dalam biografi sejarawan Inggris Sir Richard Evans, walaupun detil tertentu dalam referensi tersebut telah dibantah oleh media lain.
Menariknya, ChatGPT tidak menggunakan Grokipedia untuk topik-topik sensitif seperti pemberontakan 6 Januari di AS atau epidemi HIV/AIDS. Penggunaan Grokipedia tampak terbatas pada aspek yang kurang kontroversial meskipun tetap menimbulkan risiko disinformasi.
"LLM Grooming" dan Risiko Legitimasi Palsu
Peneliti disinformasi, Nina Jankowicz, memperingatkan bahaya fenomena "LLM grooming." Istilah ini menjelaskan bagaimana model bahasa besar seperti ChatGPT bisa tanpa sadar memberikan legitimasi kepada sumber yang bermasalah melalui pengutipan langsung.
Jankowicz mengingatkan bahwa pengguna cenderung menganggap sumber yang dikutip oleh AI terkemuka sebagai dapat dipercaya. Persepsi ini sangat berisiko untuk profesional dan investor yang bergantung pada data akurat. Dampaknya, sumber informasi bermasalah bisa mendapatkan peringkat dan eksposur palsu yang memengaruhi opini publik.
Respons dari OpenAI dan xAI
OpenAI menanggapi isu ini dengan menjelaskan bahwa GPT-5.2 mengakses beragam sumber secara publik dan menerapkan filter ketat untuk meminimalkan bahaya informasi. Mereka menegaskan bahwa chatbot selalu mencantumkan sumber referensi secara transparan dan terus melakukan penyaringan untuk menjaga kredibilitas data.
Sementara itu, xAI, perusahaan yang mengelola Grokipedia, menolak tuduhan ini dan menyebut laporan media sebagai kebohongan. Mereka mempertahankan bahwa Grokipedia adalah sumber informasi yang valid dan dapat diandalkan.
Meningkatkan Kewaspadaan terhadap Informasi AI
Kasus pengutipan Grokipedia oleh ChatGPT menandakan tantangan besar di era kecerdasan buatan. AI terus dituntut untuk mengakses berbagai informasi terbuka, namun verifikasi dan penyaringan sumber yang kredibel menjadi semakin penting.
Pengguna diwajibkan meningkatkan sikap kritis terhadap setiap kutipan yang diberikan chatbot. Ke depannya, transparansi dan pengawasan sumber data oleh pengembang AI harus menjadi prioritas utama untuk menjaga integritas informasi dan mencegah penyebaran disinformasi berbasis teknologi.
Tantangan ini menunjukkan bahwa integritas data dalam ekosistem AI sangat bergantung pada kolaborasi antara pengembang, peneliti, dan pengguna dalam membangun sistem yang dapat diandalkan. Kegagalan mengatasi masalah legitimasi sumber dapat memperbesar risiko disinformasi yang beredar secara luas dan diakui secara keliru oleh otoritas AI.





