BerandaHits
Selasa, 17 Jun 2025 09:21

Waspadai Halusinasi AI: Ketika si Cerdas Tampilkan Realitas Palsu!

Penulis:

Waspadai Halusinasi AI: Ketika si Cerdas Tampilkan Realitas Palsu!Siti Khatijah
Waspadai Halusinasi AI: Ketika si Cerdas Tampilkan Realitas Palsu!

Ilustrasi: Dengan jawaban yang meyakinkan, model AI berpotensi 'menipu' dengan jawaban yang nggak faktual. (Business Reporter)

Cerdas dan seperti tahu segala hal; tapi jangan tertipu, karena kecerdasan buatan juga bisa menampilkan realitas palsu. Inilah yang dikenal sebagai 'Halusinasi AI'. Bagaimana bisa terjadi?

Inibaru.id - Steven Schwartz, seorang pengacara di New York, AS, pada 2023 lalu mengaku menggunakan platform kecerdasan buatan untuk membantu menulis sebuah gugatan hukum. Nahas, mesin AI itu menghasilkan referensi kasus palsu yang nggak pernah ada di pengadilan AS.

Kasus yang sempat diberitakan The New York Times dan BBC pada Mei 2023 itu kemudian membuat sang pengacara didenda oleh pengadilan federal AS lantaran menggunakan sumber yang nggak akurat. Inilah yang terjadi saat kecerdasan buatan "berhalusinasi".

Ya, seperti otak manusia yang kadang suka halu, AI juga acap melakukannya. Dalam banyak kasus, "penyakit" yang dikenal sebagai halusinasi AI, yakni ketika si cerdas ini menampilkan realitas palsu ini memang memicu konsekuensi hukum, penyesatan publik, bahkan reputasi buruk pada instansi.

Pada 2023, sebuah media global pernah tertangkap basah menerbitkan artikel olahraga buatan AI yang berisi kutipan dan sumber fiktif. Hal serupa juga pernah terjadi pada Februari 2024, yang melibatkan komentar palsu pejabat publik Jerman. Setelah viral, artikel ditarik dan mereka harus minta maaf.

Ketika AI berhalusinasi

Berkaca dari potensi AI melakukan halusinasi ini, beberapa kali Khalid Mohammad terpaksa menulis ulang perintah di platform teknologi AI untuk mengecek kepastian informasi yang diberikan oleh mesin berbasis kecerdasan buatan tersebut.

"Ketika punya teman yang sangat cerdas dan terbiasa mengungkapkan fakta, kita cenderung memercayai setiap perkataannya. Inilah yang terjadi ketika kita bertanya pada AI. Faktanya nggak selalu begitu. Beberapa kali saya tanya, jawaban AI tampak benar, padahal keliru," ucap copy writer asal Surabaya ini, Senin (16/6/2025).

Seperti kata Khalid, tanpa disadari mesin AI acap memunculkan sederet informasi palsu, tapi terlihat sesuai fakta. Inilah yang oleh para pengguna kecerdasan buatan sebagai halusinasi AI; yakni ketika output model fiktif atau nggak akurat, meski disajikan seolah faktual.

Dalam bahasa teknis, ini terjadi ketika AI mengada-ada informasi yang nggak ada dalam data atau kontekstual input pengguna. Perlu kamu tahu, mesin kecerdasan buatan bekerja dengan memprediksi kata berikutnya berdasarkan statistik. Itulah yang membuat jawaban AI luwes dan terkesan meyakinkan.

Meyakinkan, tapi salah

Ilustrasi: Saat data yang diinput nggak lengkap atau bias, mesin AI berpotensi memunculkan informasi palsu tapi terlihat sesuai fakta. (Medium)
Ilustrasi: Saat data yang diinput nggak lengkap atau bias, mesin AI berpotensi memunculkan informasi palsu tapi terlihat sesuai fakta. (Medium)

Mesin AI bekerja dengan kemampuan untuk menjawab segala macam pertanyaan dengan meyakinkan melalui prediksi berdasarkan statistik. Nah, saat data yang diinput nggak lengkap atau bias, output-nya akan tetap meyakinkan, tapi mengesampingkan hal di luar pertanyaan, misalnya terkait benar-salah.

Mengapa hal ini bisa terjadi? Berikut adalah tiga kemungkinan yang muncul:

  1. Data pelatihan yang bias atau nggak lengkap: saat model hanya tahu sebagian, ia akan menebak pertanyaan itu, yang kemungkinannya justru salah besar;
  2. Mesin hanya mengandalkan prediksi kata, bukan logika atau verifikasi. Secara teknis, ini dikenal dengan istilah burung beo probabilistik (stochastic parrot);
  3. Kemampuan RLHF atau reinforcement learning dengan feedback sangat manusiawi. Inilah yang memungkinkan halusinasi AI jika instruksi yang kita berikan kurang jelas.

Terhindar dari Halusinasi AI

Untuk mendeteksi adanya halusinasi AI, beberapa hal telah dikembangkan para peneliti secara global. Dikutip dari Time, algoritma seperti "semantic entropy" diyakini bisa membantu mendeteksi klaim yang nggak koheren. Ini bisa digunakan untuk menghindarkan adanya halusinasi tersebut.

Dari segi pengguna, seperti yang dilakukan Khalid, mengecek jawaban yang diberikan mesin AI adalah sebuah keharusan. Berikut adalah beberapa hal yang bisa kamu lakukan:

  • Selalu verifikasi dengan sumber terpercaya apabila membutuhkan fakta;
  • Gunakan AI sebagai pendukung, bukan pengganti. Minta referensi atau metadata untuk memastikan validitas data yang disajikan;
  • Gunakan tools atau layanan premium dengan filter fakta;
  • Waspadai prompt "sensational" yang mendorong AI melakukan rekayasa cerita, kecuali kamu memang menginginkan mesin tersebut berhalusinasi;
  • Batasi ruang improvisasi AI dengan menyertakan prompt seperti: jawab hanya dengan fakta, bukan opini atau spekulasi;
  • Minta AI untuk memuat data dengan sumber yang valid atau memberi disclaimer jika nggak memiliki data tersebut; dan
  • Prompt yang bias mendorong mesin menebak-nebak jawaban; maka tulislah permintaan secara spesifik.

Untuk diketahui, halusinasi AI nggak terjadi karena kesengajaan, tapi keterbatasan prinsip probabilitas. Maka, jika menginginkan kecerdasan buatan untuk mendukung tulisan hukum, medis, atau akademik, lakukanlah verifikasi. Cukup kita yang berhalusinasi, AI-mu jangan! Ha-ha. (Siti Khatijah/E07)

Tags:

Inibaru Indonesia Logo

Inibaru Media adalah perusahaan digital yang fokus memopulerkan potensi kekayaan lokal dan pop culture di Indonesia, khususnya Jawa Tengah. Menyajikan warna-warni Indonesia baru untuk generasi millenial.

Sosial Media
A Group Member of:
medcom.idmetro tv newsmedia indonesialampost

Copyright © 2025 Inibaru Media - Media Group. All Right Reserved