Menu

Dark Mode
Buku Pelajaran Perlu Diperbarui, Jupiter Ternyata Lebih Kecil dan Pipih Canon Rayakan 30 Tahun PowerShot Lewat G7 X Mark III Edisi Khusus ChromeOS Bakal Pensiun, Diganti Aluminium OS untuk Chromebook Bonobo Bisa Bermain Pura-pura Layaknya Manusia, Ilmuwan Kagum PPLI Dukung Program 1 Hektar Hutan Kota Pemkab Bogor Peduli Lingkungan, PMC dan Kecamatan Bojonggede Tanam Pohon

Kabar Lifestyle

Riset OpenAI Ungkap Penyebab Chatbot Sering Halusinasi

badge-check


					Ilustrasi chatbot AI ChatGPT. (Foto: CBS News) Perbesar

Ilustrasi chatbot AI ChatGPT. (Foto: CBS News)

OpenAI mempublikasikan studi terbaru yang menjelaskan mengapa ChatGPT dan model kecerdasan buatan (AI) generatif lainnya sering mengalami “halusinasi”. 

Istilah halusinasi dalam AI merujuk pada jawaban atau informasi dari chatbot AI yang tampak meyakinkan, tetapi nyatanya salah atau tidak berdasar fakta. 

Menurut penelitian tersebut, halusinasi bukanlah gangguan dalam sistem, melainkan konsekuensi dari cara model AI dilatih dan dievaluasi.

OpenAI menekankan, sistem pelatihan AI yang berlaku saat ini justru mendorong model AI menebak jawaban ketika tidak yakin, alih-alih mengakui ketidaktahuan. 

Para peneliti menganalogikan fenomena ini seperti ujian pilihan ganda. 

Siswa yang asal menebak jawaban bisa terlihat lebih pintar jika kebetulan tebakannya benar. Beda dengan siswa yang memilih jujur untuk mengatakan “tidak tahu”.

Nah, evaluasi dalam sistem AI saat ini bekerja dengan cara serupa. Model AI yang menebak dan tampak yakin akan mendapat nilai lebih tinggi, meski jawabannya salah. Beda dengan model AI yang mengatakan “tidak tahu”. 

Kondisi ini kemudian membentuk perilaku seluruh model bahasa besar (Large Language Model/LLM). 

Bahkan model AI terbaru seperti GPT-5, bisa dengan yakin memberikan informasi yang salah. Alasannya sederhana, yaitu sistem evaluasi dalam pelatihan AI lebih menghargai jawaban salah yang terdengar meyakinkan daripada ketidaktahuan.

Konsekuensi sistem evaluasi AI 

Menurut riset OpenAI, model bahasa besar (LLM) belajar dengan cara memprediksi kata berikutnya dalam miliaran data teks. 

Proses ini memudahkan model memahami pola tata bahasa atau ejaan, tetapi sangat sulit untuk memprediksi fakta yang terus berubah, seperti peristiwa terkini atau informasi detail tentang tokoh tertentu. 

Hasilnya, halusinasi menjadi sesuatu yang wajar terjadi.

Menurut OpenAI, masalah utama bukan terletak pada kapasitas pengetahuan model AI, melainkan pada faktor yang membuat AI lebih memilih “mengarang dengan percaya diri” ketimbang mengaku tidak tahu. 

Penelitian ini juga menemukan bahwa model AI berukuran lebih kecil terkadang dapat dengan mudah mengakui tidak memahami suatu pertanyaan. Sementara model besar justru berisiko memberikan jawaban keliru. 

Dirangkum KompasTekno dari Digit In, Selasa (9/9/2025), solusi yang bsia dilakukan adalah dengan mendesain ulang sistem evaluasi AI.

Selama ini, akurasi menjadi variabel terbesar dalam pengukuran kinerja. Karena mengejar akurasi, model AI justru malah lebih senang menebak dengan yakin daripada mengakui tidak tahu. 

Nah, kesalahan dari tebakan yang tampak meyakinkan, perlu mendapat poin negatif dalam sistem algoritma evaluasi AI. Sementara model yang jujur mengakui ketidaktahuan harus diberi poin lebih besar.

Analogi pendekatan ini mirip dengan sistem ujian sekolah yang memberi nilai negatif untuk jawaban salah, sehingga mendorong siswa berhati-hati daripada asal menebak. 

Dengan cara ini, model diharapkan lebih sering mengatakan “saya tidak tahu” ketimbang memberikan jawaban salah yang berpotensi menyesatkan.

Sumber: kompas.com

Leave a Reply

Your email address will not be published. Required fields are marked *

Read More

Buku Pelajaran Perlu Diperbarui, Jupiter Ternyata Lebih Kecil dan Pipih

6 February 2026 - 14:45 WIB

Canon Rayakan 30 Tahun PowerShot Lewat G7 X Mark III Edisi Khusus

6 February 2026 - 14:41 WIB

ChromeOS Bakal Pensiun, Diganti Aluminium OS untuk Chromebook

6 February 2026 - 14:08 WIB

Bonobo Bisa Bermain Pura-pura Layaknya Manusia, Ilmuwan Kagum

6 February 2026 - 14:05 WIB

Anggota DPR AS Desak Bill Gates Bersaksi di Bawah Sumpah soal Epstein

5 February 2026 - 11:14 WIB

Trending on Kabar Lifestyle