Tiga Prompt yang Tersembunyi di Depan Mata, Cara Claude Berhenti Berhalusinasi

Banyak pengguna Claude mencari cara sederhana untuk menekan halusinasi, yakni kondisi saat model AI memberi jawaban terdengar meyakinkan tetapi tidak didukung fakta. Sejumlah laporan terbaru menyebut ada tiga system prompt yang dapat mengurangi masalah itu secara signifikan, dan ketiganya sebenarnya sudah tercantum di dokumentasi resmi Anthropic.

Temuan ini ramai dibahas setelah seorang pengguna Reddit menyoroti halaman dokumentasi Claude API bertajuk “Reduce hallucinations”. Intinya, akurasi Claude disebut membaik ketika model diizinkan berkata “tidak tahu”, diminta memverifikasi jawaban dengan sitasi, dan diarahkan memakai kutipan langsung sebagai landasan fakta.

Tiga instruksi yang jadi sorotan

Tiga prompt yang paling banyak dibicarakan berasal dari panduan resmi Anthropic tentang pengurangan halusinasi. Ketiganya bukan teknik kompleks, melainkan instruksi dasar yang dapat ditempatkan di level system prompt.

Berikut tiga instruksi yang dilaporkan membantu menekan halusinasi Claude:

  1. Izinkan model mengatakan “I don’t know”.
  2. Minta jawaban diverifikasi dengan sitasi.
  3. Gunakan kutipan langsung untuk grounding fakta.

Secara praktis, ketiga aturan itu mengubah perilaku model saat berhadapan dengan informasi yang tidak pasti. Model tidak lagi terdorong untuk selalu menjawab, tetapi lebih diarahkan untuk mengakui keterbatasan data yang tersedia.

Pendekatan ini sejalan dengan praktik umum dalam rekayasa prompt untuk model bahasa besar. Banyak peneliti AI menilai bahwa instruksi yang menekankan ketidakpastian dan sumber rujukan dapat menurunkan risiko fabrikasi informasi.

Mengapa prompt sederhana bisa berdampak besar

Model bahasa besar bekerja dengan memprediksi token berikutnya berdasarkan pola data pelatihan. Karena itu, model dapat menghasilkan jawaban yang terdengar logis meski tidak benar, terutama ketika pengguna meminta detail spesifik tanpa menyediakan sumber.

Instruksi “izinkan mengatakan tidak tahu” penting karena menghapus tekanan implisit untuk selalu memberi jawaban lengkap. Dalam konteks layanan pelanggan, riset, atau pencarian informasi, perilaku ini lebih aman dibanding jawaban spekulatif.

Permintaan sitasi juga menambah lapisan kontrol. Jika model diwajibkan menyertakan sumber, maka peluang munculnya klaim tanpa dasar menjadi lebih kecil, terutama ketika prompt juga membatasi jawaban hanya pada dokumen yang disediakan.

Sementara itu, penggunaan kutipan langsung membantu menjaga akurasi konteks. Model didorong mengambil frasa apa adanya dari materi sumber, bukan menyusun ulang fakta secara bebas yang berpotensi menggeser makna.

Dilaporkan efektif, tetapi ada kompromi

Pengguna Reddit yang membagikan temuan tersebut menyebut tiga prompt ini bekerja “dramatically” dalam mengurangi halusinasi. Namun, laporan itu juga menekankan adanya trade-off yang perlu diperhatikan.

Dalam kutipan yang dibagikan di forum itu, pengguna tersebut merujuk pada paper arXiv:2307.02185. Ia menulis bahwa “citation constraints reduce creative output”, sehingga ketiga instruksi itu tidak selalu dipakai dalam semua situasi.

Artinya, model bisa menjadi lebih hati-hati, tetapi juga kurang leluasa saat diminta menghasilkan ide kreatif. Untuk tugas seperti brainstorming, penulisan konsep, atau eksplorasi gagasan, pembatasan yang terlalu ketat dapat mengurangi variasi jawaban.

Karena itu, sebagian pengguna memilih membuat mode terpisah. Mereka mengaktifkan tiga prompt itu saat masuk ke “research mode”, lalu menonaktifkannya ketika ingin Claude berpikir lebih bebas.

Contoh penggunaan di dunia nyata

Salah satu komentar lain di Reddit datang dari pengguna yang memakai Claude sebagai agen dukungan pelanggan. Sebelumnya, menurut pengakuannya, Claude kerap menjawab pertanyaan di luar FAQ dengan respons yang terdengar masuk akal tetapi sebenarnya fiktif.

Setelah instruksi “Allow Claude to say I don’t know” digabungkan dengan aturan agar Claude hanya menjawab berdasarkan FAQ yang diberikan, perilakunya berubah. Model disebut berhenti mengarang jawaban dan mulai mengarahkan pengguna ke pemilik bisnis ketika informasi tidak tersedia.

Contoh itu penting karena menunjukkan manfaat prompt bukan hanya pada skenario teknis atau coding. Dalam layanan pelanggan, akurasi dan batasan jawaban justru sering lebih penting daripada kelancaran bahasa semata.

Kapan sebaiknya tiga prompt ini dipakai

Tiga prompt ini paling relevan untuk tugas yang butuh presisi tinggi. Misalnya, riset dokumen, tanya jawab berbasis basis pengetahuan, rangkuman kebijakan, dukungan pelanggan, dan analisis materi yang sudah disediakan.

Sebaliknya, untuk tugas kreatif murni, pengguna mungkin perlu melonggarkan aturannya. Jika semua jawaban harus bersitasi dan berbasis kutipan langsung, model cenderung lebih sempit dalam bereksplorasi.

Berikut panduan singkat penggunaannya:

Kebutuhan Gunakan 3 prompt? Catatan
Riset dokumen Ya Tingkatkan akurasi dan jejak sumber
Customer support Ya Kurangi jawaban spekulatif
FAQ internal Ya Batasi jawaban pada materi resmi
Brainstorming ide Opsional Kreativitas bisa ikut turun
Penulisan kreatif Tidak selalu Lebih cocok mode bebas

Fakta bahwa panduan ini sudah tersedia di dokumentasi resmi Anthropic membuat temuan tersebut menarik. Banyak pengguna baru menyadari bahwa perbaikan akurasi tidak selalu menuntut prompt rumit, karena tiga instruksi sederhana yang “duduk di depan mata” itu justru dapat menjadi fondasi penting untuk membuat Claude lebih dapat diandalkan dalam tugas berbasis fakta.

Source: www.xda-developers.com

Berita Terkait

Back to top button