Google melalui divisi Google Threat Intelligence Group atau GTIG mengungkap temuan penting di dunia keamanan siber.
Untuk pertama kalinya, Google mengonfirmasi adanya eksploitasi zero-day yang dikembangkan menggunakan kecerdasan buatan atau AI.
Kasus ini menjadi sorotan karena menunjukkan bagaimana AI kini mulai dimanfaatkan secara nyata untuk menciptakan serangan siber yang lebih canggih dan sulit dideteksi.
Dalam laporan AI Threat Tracker yang dirilis pada 11 Mei 2026, GTIG menjelaskan bahwa kelompok kejahatan siber memanfaatkan model AI untuk menemukan celah keamanan pada sebuah tools administrasi web open-source populer.
Kerentanan tersebut memungkinkan penyerang melewati sistem keamanan two-factor authentication atau 2FA.
Google menyebut pihaknya berhasil bekerja sama dengan vendor terkait untuk menutup celah tersebut sebelum serangan massal dilakukan secara luas.
AI Disebut Menulis Kode Eksploit Secara Langsung
GTIG mengaku memiliki keyakinan tinggi bahwa kode eksploit Python dalam kasus ini ditulis langsung oleh AI, bukan manusia. Hal itu terlihat dari pola penulisan kode yang sangat khas model bahasa besar atau Large Language Model (LLM).
Kode tersebut diketahui memiliki docstring edukatif berlebihan, menu bantuan yang sangat detail, format kode yang sangat rapi, hingga skor CVSS palsu hasil halusinasi AI.
Menurut Google, gaya seperti itu jarang ditemukan dalam tools serangan siber yang dibuat manusia karena biasanya penyerang lebih fokus pada efisiensi dibanding dokumentasi.
Yang menarik, AI ternyata mampu menemukan jenis kerentanan yang selama ini sulit terdeteksi oleh sistem keamanan tradisional. Celah keamanan tersebut berasal dari kesalahan logika semantik pada alur autentikasi, di mana pengembang tanpa sadar menanamkan asumsi trust tertentu yang bertentangan dengan sistem verifikasi 2FA.
AI disebut mampu membaca “niat pengembang” melalui struktur kode, bukan sekadar memindai error teknis seperti yang dilakukan scanner keamanan biasa.
Google juga menegaskan bahwa model AI milik mereka seperti Gemini maupun model Anthropic tidak digunakan dalam serangan tersebut.
Ancaman AI di Dunia Siber Dinilai Semakin Nyata
Google menilai kasus ini menjadi tanda bahwa perlombaan senjata AI di dunia keamanan siber sebenarnya sudah dimulai.
Chief Analyst GTIG, John Hultquist mengatakan masih banyak eksploitasi berbasis AI lain yang kemungkinan belum terdeteksi.
Laporan tersebut juga mengungkap sejumlah tren ancaman AI lain yang mulai berkembang. Mulai dari penggunaan AI untuk membuat deepfake, malware otomatis, hingga eksploitasi perangkat Android menggunakan API AI secara otonom.
Selain itu, kelompok hacker Korea Utara dan China disebut mulai memanfaatkan AI untuk melakukan analisis kerentanan secara massal dan mempercepat pengembangan eksploit.
Google menilai lapisan integrasi AI seperti API, wrapper, dan tools pendukung kini menjadi target baru para penyerang karena lebih mudah dieksploitasi dibanding model AI utama.
Fenomena ini memperlihatkan bahwa perkembangan AI tidak hanya membawa manfaat besar di sektor teknologi, tetapi juga membuka tantangan baru di dunia keamanan digital global.
Scr/Mashable
















