Dunia teknologi kembali diguncang oleh isu sensitif terkait penggunaan kecerdasan buatan (AI) dalam penyajian informasi publik. Baru-baru ini, Google terpaksa melayangkan permohonan maaf secara resmi setelah fitur berita otomatisnya mengirimkan notifikasi push yang mengandung kata-kata rasis atau N-word.
Dikutip dari Engadget, Rabu (25/2/2026), insiden ini menjadi sorotan tajam karena terjadi di tengah upaya perusahaan teknologi besar untuk mengintegrasikan AI secara masif dalam produk harian mereka.
Notifikasi tersebut sejatinya merujuk pada tautan berita dari The Hollywood Reporter mengenai sebuah kejadian di ajang BAFTA Film Awards, namun sistem AI Google justru menyisipkan istilah ofensif di bawah tautan yang dikirimkan langsung ke perangkat pengguna.
Kegagalan sistem ini pertama kali terendus setelah seorang pengguna Instagram bernama Danny Price mengunggah tangkapan layar notifikasi tersebut dengan nada sarkasme yang menyinggung momen Bulan Sejarah Hitam (Black History Month).
Merespons gelombang protes yang muncul, Google bergerak cepat dengan menghapus pemberitahuan yang menyinggung tersebut dan mengklaim tengah melakukan evaluasi mendalam untuk mencegah kejadian serupa terulang di masa depan.
Peristiwa ini menambah daftar panjang catatan hitam mengenai keterbatasan AI dalam memahami konteks budaya dan sensitivitas bahasa, terutama saat harus mengolah informasi yang memuat isu sosial yang kompleks.
Akar masalah ini sebenarnya bermula dari sebuah kejadian nyata di panggung BAFTA Film Awards. Saat itu, aktor Michael B. Jordan dan Delroy Lindo sedang naik ke panggung untuk memberikan penghargaan, namun suasana mendadak canggung ketika terdengar teriakan kata rasis dari arah penonton.
Pelakunya adalah John Davidson, seorang aktivis sindrom Tourette, yang menjelaskan bahwa teriakan tersebut merupakan gejala vokal yang tidak disengaja atau tics.
Davidson sendiri telah menyatakan rasa malu dan penyesalannya, seraya menegaskan bahwa gerakan serta ucapan spontan tersebut sama sekali tidak memiliki makna kebencian yang disengaja.
Sayangnya, sistem AI yang bertugas merangkum berita tersebut tampaknya gagal menyaring konten sensitif sehingga kata-kata kasar itu justru ikut terbawa dalam notifikasi otomatis ke publik.
Rentetan kesalahan ini semakin mempertegas bahwa AI masih sering mengalami “halusinasi” atau kesalahan logika yang fatal dalam menyusun narasi berita. Google bukanlah satu-satunya raksasa teknologi yang tersandung masalah ini; tahun lalu, Apple bahkan telah menarik fitur notifikasi push berbasis AI miliknya.
Keputusan Apple tersebut diambil setelah algoritma mereka membuat kesalahan memalukan yang menyesatkan, seperti salah memberikan informasi bahwa seorang tersangka pembunuhan CEO ternama telah menembak dirinya sendiri.
Kejadian-kejadian ini menunjukkan bahwa meskipun AI sangat cepat dalam mengolah data, teknologi ini masih sangat lemah dalam hal akurasi faktual dan penilaian etis dibandingkan redaksi manusia.
Munculnya insiden notifikasi rasis ini memicu diskusi baru yang lebih luas tentang masa depan jurnalisme berbasis teknologi. Kepercayaan pengguna terhadap informasi yang dihasilkan secara otomatis kini berada di titik yang cukup mengkhawatirkan.
Perusahaan teknologi kini menghadapi tantangan besar untuk membuktikan bahwa mereka tidak hanya mampu menciptakan inovasi yang canggih, tetapi juga bertanggung jawab secara moral atas setiap konten yang disebarkan oleh mesin mereka.
Tanpa pengawasan manusia yang ketat, kecanggihan AI justru berisiko menjadi senjata bumerang yang merusak reputasi perusahaan sekaligus mencederai rasa hormat di ruang digital.
Scr/Mashable



















