OpenAI mempublikasikan studi terbaru yang menjelaskan mengapa ChatGPT dan model kecerdasan buatan (AI) generatif lainnya sering mengalami “halusinasi”.
Istilah halusinasi dalam AI merujuk pada jawaban atau informasi dari chatbot AI yang tampak meyakinkan, tetapi nyatanya salah atau tidak berdasar fakta.

Menurut penelitian tersebut, halusinasi bukanlah gangguan dalam sistem, melainkan konsekuensi dari cara model AI dilatih dan dievaluasi.
OpenAI menekankan, sistem pelatihan AI yang berlaku saat ini justru mendorong model AI menebak jawaban ketika tidak yakin, alih-alih mengakui ketidaktahuan.
Para peneliti menganalogikan fenomena ini seperti ujian pilihan ganda.
Siswa yang asal menebak jawaban bisa terlihat lebih pintar jika kebetulan tebakannya benar. Beda dengan siswa yang memilih jujur untuk mengatakan “tidak tahu”.
Nah, evaluasi dalam sistem AI saat ini bekerja dengan cara serupa. Model AI yang menebak dan tampak yakin akan mendapat nilai lebih tinggi, meski jawabannya salah. Beda dengan model AI yang mengatakan “tidak tahu”.
Kondisi ini kemudian membentuk perilaku seluruh model bahasa besar (Large Language Model/LLM).
Bahkan model AI terbaru seperti GPT-5, bisa dengan yakin memberikan informasi yang salah. Alasannya sederhana, yaitu sistem evaluasi dalam pelatihan AI lebih menghargai jawaban salah yang terdengar meyakinkan daripada ketidaktahuan.
Konsekuensi sistem evaluasi AI
Menurut riset OpenAI, model bahasa besar (LLM) belajar dengan cara memprediksi kata berikutnya dalam miliaran data teks.
Proses ini memudahkan model memahami pola tata bahasa atau ejaan, tetapi sangat sulit untuk memprediksi fakta yang terus berubah, seperti peristiwa terkini atau informasi detail tentang tokoh tertentu.
Hasilnya, halusinasi menjadi sesuatu yang wajar terjadi.
Menurut OpenAI, masalah utama bukan terletak pada kapasitas pengetahuan model AI, melainkan pada faktor yang membuat AI lebih memilih “mengarang dengan percaya diri” ketimbang mengaku tidak tahu.
Penelitian ini juga menemukan bahwa model AI berukuran lebih kecil terkadang dapat dengan mudah mengakui tidak memahami suatu pertanyaan. Sementara model besar justru berisiko memberikan jawaban keliru.
Dirangkum KompasTekno dari Digit In, Selasa (9/9/2025), solusi yang bsia dilakukan adalah dengan mendesain ulang sistem evaluasi AI.
Selama ini, akurasi menjadi variabel terbesar dalam pengukuran kinerja. Karena mengejar akurasi, model AI justru malah lebih senang menebak dengan yakin daripada mengakui tidak tahu.
Nah, kesalahan dari tebakan yang tampak meyakinkan, perlu mendapat poin negatif dalam sistem algoritma evaluasi AI. Sementara model yang jujur mengakui ketidaktahuan harus diberi poin lebih besar.
Analogi pendekatan ini mirip dengan sistem ujian sekolah yang memberi nilai negatif untuk jawaban salah, sehingga mendorong siswa berhati-hati daripada asal menebak.
Dengan cara ini, model diharapkan lebih sering mengatakan “saya tidak tahu” ketimbang memberikan jawaban salah yang berpotensi menyesatkan.
Sumber: kompas.com