Ketegangan antara pemerintah Amerika Serikat dan perusahaan kecerdasan buatan kembali menjadi sorotan global.
Laporan terbaru menyebutkan bahwa militer AS tetap menggunakan Claude AI milik Anthropic dalam operasi militer terhadap Iran, hanya beberapa jam setelah pemerintah mengumumkan larangan penggunaan teknologi tersebut.
Isu ini langsung memicu perdebatan luas soal peran AI dalam perang modern, keamanan nasional, hingga etika penggunaan kecerdasan buatan di sektor militer.
AI Claude Digunakan dalam Operasi Militer AS
Berdasarkan laporan yang pertama kali diungkap oleh The Wall Street Journal (28/02/26), militer Amerika Serikat disebut memanfaatkan model AI Claude untuk mendukung operasi militer di Iran.
Sistem AI tersebut dilaporkan membantu dalam:
- Analisis intelijen strategis
- Identifikasi target militer
- Simulasi skenario pertempuran
- Pendukung pengambilan keputusan operasional
Claude merupakan model kecerdasan buatan yang dikembangkan oleh Anthropic. Teknologi ini dikenal memiliki sistem pengamanan ketat terkait penggunaan untuk pengawasan massal dan senjata otonom.
Larangan dari Presiden Trump
Situasi menjadi kontroversial karena sehari sebelum operasi berlangsung, Presiden AS Donald Trump memerintahkan seluruh lembaga federal untuk menghentikan penggunaan teknologi Anthropic dalam jangka waktu enam bulan.
Selain itu, Menteri Pertahanan Pete Hegseth juga mengarahkan Pentagon untuk menetapkan Anthropic sebagai “risiko rantai pasok terhadap keamanan nasional”.
Namun, laporan menyebutkan bahwa sistem Claude sudah lebih dulu terintegrasi dalam infrastruktur militer, khususnya di bawah komando United States Central Command (CENTCOM), yang menangani operasi di kawasan Timur Tengah.
Karena itu, penggunaan AI tersebut dalam operasi yang sedang berlangsung kemungkinan masih berada dalam masa transisi sebelum penghentian penuh diberlakukan.
Mengapa AI Tetap Digunakan?
Para analis menilai, dalam konteks perang modern, sistem AI seperti Claude sudah menjadi bagian penting dalam:
- Pemrosesan data intelijen dalam jumlah besar
- Analisis cepat ancaman dan pergerakan musuh
- Perencanaan strategi berbasis simulasi
Menghapus teknologi tersebut secara instan dinilai berisiko mengganggu kesiapan operasional militer.
Meski demikian, kontroversi tetap muncul karena Anthropic sebelumnya menolak mengizinkan penggunaan teknologinya untuk pengawasan massal terhadap warga sipil maupun pengembangan senjata otonom mematikan tanpa kendali manusia.
AI dan Perang Modern: Garis Tipis Etika
Kasus ini memperlihatkan bagaimana kecerdasan buatan kini sudah menjadi tulang punggung sistem pertahanan negara besar. Integrasi AI dalam militer bukan lagi wacana, melainkan realitas yang berjalan saat ini.
Namun, pertanyaan besar tetap muncul:
- Apakah AI seharusnya digunakan dalam pengambilan keputusan militer?
- Sejauh mana perusahaan teknologi dapat membatasi penggunaan produknya oleh pemerintah?
- Apakah keamanan nasional bisa berjalan seiring dengan prinsip etika AI?
Perselisihan antara pemerintah AS dan Anthropic menjadi contoh nyata benturan antara kepentingan strategis negara dan nilai etika pengembang teknologi.
Scr/Mashable



















