Sering Ngasih Jawaban Ngawur, Ternyata AI Bisa Halusinasi

Default

Platform chatbot berbasis kecerdasan buatan (AI) seperti ChatGPT dari OpenAI semakin populer untuk menjawab berbagai pertanyaan pengguna.

Meski terlihat canggih, ada masalah yang mulai disorot oleh para pakar teknologi, yakni kecenderungan AI untuk memberikan jawaban yang terkesan asal atau yang sering disebut "halusinasi".

Masalah AI bis halusinasi ini bukan sekadar teori, tapi sudah terbukti terjadi di berbagai kasus nyata. Salah satu contohnya adalah ketika ChatGPT mengklaim bahwa Jembatan Golden Gate dipindahkan ke Mesir pada 2016. Tentu saja, klaim ini sepenuhnya tidak benar.

Ilu 37 Adcd7
Ukuran Kupu-Kupu Jadi Ciut Karena Perubahan Iklim, Bakal Punah?
Ukuran kupu-kupu jadi ciut karena perubahan iklim ekstrem dan berpengaruh bagi ketahanan spesies ini. Ketahui dampak buruk lainnya.
LIHAT ARTIKEL

Bahkan, seorang walikota di Australia sampai mengancam akan menuntut OpenAI karena ChatGPT menuduhnya terlibat dalam skandal penyuapan, padahal tuduhan itu sepenuhnya keliru.

Halusinasi semacam ini bukan cuma masalah informasi palsu, tapi juga bisa berdampak lebih serius.

Peneliti menemukan bahwa model AI besar, atau Large Language Models (LLMs), dapat dimanfaatkan untuk menyebarkan kode berbahaya kepada pengembang perangkat lunak tanpa mereka sadari.

Selain itu, LLM sering memberikan nasihat medis yang salah. Salah satu contohnya adalah menyarankan bahwa konsumsi anggur bisa mencegah kanker. Padahal, hal tersebut tidak memiliki dasar ilmiah.

Add A Heading 6 503df
Si Paling Viral Minggu Ini: Pelantikan Presiden Prabowo Dan Berita Teknologi Terkini
Si paling viral minggu ini menyajikan berita pelantikan Prabowo, larangan iPhone 16, fitur WhatsApp baru, dan lainnya. Simak biar gak kudet!
LIHAT ARTIKEL

Kenapa AI Sering Halusinasi?

Menurut Sebastian Berns, seorang peneliti Ph.D. di Queen Mary University of London, kecenderungan AI untuk berhalusinasi berkaitan erat dengan cara model ini dilatih.

Model AI seperti ChatGPT sebenarnya bukan "cerdas" dalam arti sesungguhnya, melainkan hanya sistem statistik yang memprediksi kata atau informasi berdasarkan pola data yang dipelajari.

"Kerangka kerja pelatihan LLM saat ini melibatkan penyembunyian, atau masking kata-kata sebelumnya sebagai konteks," jelas Berns, sebagaimana dihimpun dari CNN, Senin (28/10/2024).

Jensen Huang 94bf4
Mantan Tukang Cuci Piring Ini Heran Hartanya Kini Tembus Rp1.900 Triliun
Awalnya cuma jadi tukang cuci piring, sekarang jadi salah satu orang terkaya di dunia. Nasib orang memang nggak ada yang bisa nebak!
LIHAT ARTIKEL

"Ini mirip dengan menggunakan teks prediktif di iOS dan terus menekan salah satu kata yang disarankan berikutnya," imbuhnya.

Dengan kata lain, model AI bekerja dengan memperkirakan kata atau frasa berikutnya yang paling mungkin muncul dalam suatu konteks. Meskipun cara ini memungkinkan AI untuk menghasilkan teks yang tampak masuk akal, kenyataannya AI tidak benar-benar mengerti apa yang dibicarakannya.

Akibatnya, model AI bisa menciptakan "fakta" yang keliru, sehingga menimbulkan risiko informasi yang salah.

Vu Ha, peneliti di Allen Institute for Artificial Intelligence, menyatakan bahwa halusinasi ini adalah sesuatu yang tidak bisa sepenuhnya dihindari oleh LLM. Meski begitu, ada cara untuk mengurangi halusinasi ini, terutama dengan memperbaiki proses pelatihan AI.

"Kita bisa merekayasa sistem ini agar punya akurasi yang lebih tinggi dengan mengkurasi basis pengetahuan yang berkualitas tinggi untuk pertanyaan dan jawaban," jelasnya.

Intinya, semakin baik data yang digunakan untuk melatih AI, semakin akurat jawabannya.

Upaya Mengurangi Halusinasi AI

Salah satu teknik yang mulai diterapkan untuk mengurangi masalah ini adalah Pembelajaran dari Umpan Balik Manusia atau Reinforcement Learning from Human Feedback (RLHF).

Teknik ini diperkenalkan oleh OpenAI pada 2017 dan diterapkan pada beberapa model AI termasuk GPT-4. RLHF melibatkan pelatihan model dengan umpan balik dari manusia untuk memperbaiki akurasinya.

Meski metode ini sudah menunjukkan kemajuan, Berns menyatakan bahwa RLHF pun tidak sepenuhnya bebas dari kesalahan.

Kendati demikian, metode seperti RLHF memberikan harapan bahwa AI bisa terus ditingkatkan untuk meminimalkan halusinasi di masa mendatang.

Baca artikel dan berita menarik dari JalanTikus lainnya di Google News

Tautan berhasil disalinX
x

Keluar dari JalanTikus

Popup External Background JalanTikus

Apakah anda yakin untuk meninggalkan website JalanTikus?

Ya
Batal