Lebih dari dua tahun telah berlalu sejak ChatGPT, chatbot berbasis kecerdasan buatan (AI) dari OpenAI, mencuri perhatian dunia. Meskipun teknologi ini telah berkembang pesat dan menawarkan berbagai manfaat, masih ada sejumlah tantangan yang harus dihadapi.
Salah satu masalah terbesar yang terus menjadi sorotan adalah fenomena “halusinasi,” di mana ChatGPT memberikan informasi palsu seolah-olah itu adalah fakta. Masalah ini kini menjadi pusat perhatian setelah kelompok advokasi Austria, Noyb, mengajukan pengaduan kedua terhadap OpenAI terkait halusinasi tersebut.
Kasus Halusinasi yang Menghebohkan
Dikutip dari Engadget, Rabu (26/3/2025), dalam pengaduan terbaru, Noyb menyebutkan contoh spesifik dimana ChatGPT salah menyatakan bahwa seorang pria asal Norwegia adalah seorang pembunuh.
Ketika pria tersebut bertanya kepada ChatGPT tentang dirinya, chatbot itu dilaporkan memberikan informasi yang sangat merugikan. ChatGPT menyatakan bahwa pria tersebut dijatuhi hukuman 21 tahun penjara karena membunuh dua anaknya dan mencoba membunuh anak ketiganya.
Yang lebih mengejutkan, halusinasi ini dibumbui dengan informasi nyata, seperti jumlah anak yang dimiliki pria tersebut, jenis kelamin mereka, dan nama kota kelahirannya. Kombinasi antara fakta dan fiksi ini membuat kasus tersebut semakin rumit dan berbahaya.
Pelanggaran GDPR dan Tuntutan Noyb
Noyb mengklaim bahwa tanggapan ChatGPT melanggar Peraturan Perlindungan Data Umum (GDPR) Uni Eropa. Menurut GDPR, data pribadi harus akurat, dan jika terdapat kesalahan, pengguna memiliki hak untuk memperbaikinya.
Joakim Söderberg, pengacara perlindungan data dari Noyb, menyatakan bahwa memberikan peringatan singkat kepada pengguna bahwa chatbot dapat membuat kesalahan tidaklah cukup. Ia menegaskan bahwa OpenAI tidak bisa begitu saja menyebarkan informasi palsu dan kemudian menambahkan disclaimer bahwa informasi tersebut mungkin tidak benar.
Pengaduan ini bukanlah yang pertama. Pada April 2024, Noyb juga mengajukan keluhan terkait halusinasi ChatGPT, yang saat itu melibatkan tanggal lahir figur publik yang tidak akurat. Meskipun tidak seberat kasus pembunuhan, ketidakakuratan tersebut tetap dianggap melanggar GDPR.
OpenAI menolak permintaan untuk menghapus atau memperbarui informasi tersebut, dengan alasan bahwa sistem mereka tidak dapat mengubah data yang sudah ada, melainkan hanya dapat memblokir penggunaannya dalam perintah tertentu.
Contoh Lain Halusinasi ChatGPT
Kasus pria Norwegia bukan satu-satunya contoh halusinasi yang menimbulkan kontroversi. Beberapa laporan lain menyebutkan bahwa ChatGPT pernah menuduh seorang pria melakukan penipuan dan penggelapan, menyatakan bahwa seorang reporter pengadilan melakukan pelecehan anak, dan menuduh seorang profesor hukum melakukan pelecehan seksual.
Semua tuduhan ini terbukti tidak benar, tetapi dampaknya terhadap reputasi individu yang bersangkutan sangat signifikan.
Dampak pada Reputasi OpenAI
Masalah halusinasi ini telah memberikan tekanan besar pada OpenAI, terutama karena ChatGPT adalah salah satu produk AI paling populer di dunia. Kepercayaan publik terhadap teknologi AI sangat bergantung pada akurasi dan keandalan informasi yang diberikan.
Ketika chatbot seperti ChatGPT gagal memenuhi standar ini, reputasi perusahaan yang mengembangkannya dapat terancam.
Selain itu, pengaduan Noyb menyoroti pentingnya regulasi yang lebih ketat terhadap teknologi AI. GDPR memberikan kerangka hukum yang jelas untuk melindungi data pribadi, tetapi kasus ini menunjukkan bahwa masih ada celah yang perlu diperbaiki.
Jika OpenAI tidak dapat menangani masalah ini dengan baik, mereka berisiko menghadapi sanksi hukum dan kehilangan kepercayaan pengguna.
Tantangan Teknologi AI
Halusinasi adalah salah satu tantangan terbesar dalam pengembangan AI generatif seperti ChatGPT. Fenomena ini terjadi karena model AI dilatih menggunakan data yang sangat besar dan kompleks, yang terkadang mengandung informasi yang tidak akurat atau bias.
Meskipun OpenAI telah berupaya untuk mengurangi halusinasi melalui pembaruan sistem dan pelatihan ulang, masalah ini tetap sulit diatasi sepenuhnya. Selain itu, ada pertanyaan etis yang lebih besar tentang bagaimana teknologi AI digunakan dan dampaknya terhadap masyarakat.
Apakah cukup hanya memberikan peringatan kepada pengguna bahwa AI dapat membuat kesalahan? Atau apakah perusahaan seperti OpenAI memiliki tanggung jawab yang lebih besar untuk memastikan akurasi informasi yang diberikan oleh produk mereka?
Scr/Mashable