Riset OpenAI Ungkap Penyebab Chatbot Sering Halusinasi
Riset OpenAI Ungkap Penyebab Chatbot Sering Halusinasi

Riset OpenAI Ungkap Penyebab Chatbot Sering Halusinasi

Apa Itu Halusinasi dalam AI?

OpenAI baru saja merilis penelitian yang menjelaskan alasan di balik fenomena ‘halusinasi’ yang kerap muncul pada ChatGPT dan model AI generatif lainnya. Dalam konteks AI, halusinasi berarti chatbot memberikan jawaban yang terdengar meyakinkan, tetapi sebenarnya salah atau tidak berdasar fakta. Fenomena ini terjadi bukan karena sistem rusak, melainkan sebagai konsekuensi dari cara model AI dilatih dan dievaluasi.

Mengapa Halusinasi Bisa Terjadi?

Riset OpenAI menjelaskan bahwa metode pelatihan saat ini justru mendorong model AI untuk menebak jawaban ketika tidak yakin. Sistem evaluasi memberikan nilai lebih tinggi kepada jawaban yang terdengar yakin, meski salah, daripada jawaban jujur berupa “tidak tahu”.

Para peneliti mengibaratkan kondisi ini seperti ujian pilihan ganda. Seorang siswa yang asal menebak bisa terlihat pintar jika kebetulan benar, sementara siswa yang jujur menjawab “tidak tahu” akan dipandang kurang cerdas. Hal inilah yang kemudian membentuk perilaku model bahasa besar (Large Language Model/LLM), termasuk GPT-5, sehingga mampu menjawab dengan percaya diri meski informasinya keliru.

Konsekuensi dari Sistem Evaluasi AI

Model bahasa besar belajar dengan memprediksi kata berikutnya dari miliaran data teks. Metode ini efektif untuk memahami pola bahasa dan tata ejaan, namun kesulitan muncul ketika model harus menangani fakta yang selalu berubah, seperti berita terkini atau detail mengenai tokoh tertentu.

Akibat kondisi tersebut, orang menganggap halusinasi sebagai sesuatu yang wajar. Menurut OpenAI, masalah utama bukan pada besarnya kapasitas pengetahuan AI, tetapi pada evaluasi yang lebih menghargai jawaban salah yang terdengar meyakinkan daripada pengakuan ketidaktahuan.

Studi ini juga menemukan bahwa model kecil kadang lebih mudah mengakui tidak tahu. Sebaliknya, model besar lebih sering memberi jawaban keliru, justru karena algoritma menuntutnya terlihat yakin.

Usulan Perbaikan Sistem Evaluasi

Menurut laporan Digit In, OpenAI menawarkan solusi dengan mendesain ulang cara mengevaluasi model AI. Selama ini, akurasi menjadi variabel terbesar dalam penilaian. Karena hal tersebut, model lebih terdorong untuk menebak dibanding mengakui keterbatasan.

Pendekatan baru perlu memberikan penalti atau poin negatif pada jawaban salah yang disampaikan dengan percaya diri. Sebaliknya, model yang berani mengatakan “saya tidak tahu” harus memperoleh poin positif. Analogi ini menyerupai sistem ujian sekolah yang mengurangi nilai untuk jawaban yang salah, sehingga mendorong siswa untuk lebih hati-hati saat menjawab.

Harapan untuk AI yang Lebih Andal

Dengan menerapkan pendekatan evaluasi ini, model lebih sering mengakui keterbatasannya daripada menyampaikan informasi yang menyesatkan. Langkah ini juga bisa meningkatkan kepercayaan publik terhadap AI generatif, karena jawaban yang muncul akan lebih transparan dan bertanggung jawab.

OpenAI menegaskan nilai dari perubahan ini supaya AI benar-benar mendukung pengguna dengan data yang tepat dan dapat dipercaya, bukan hanya terlihat pintar. Baca berita lain di sini.

Riset OpenAI Ungkap Penyebab Chatbot Sering Halusinasi