PENTAGON: Penggunaan teknologi kecerdasan buatan (AI) dalam operasi ketenteraan memasuki fasa baharu apabila laporan mendedahkan bahawa Amerika Syarikat (AS) menggunakan model AI, Anthropic Claude, untuk merancang serangan besar-besaran ke atas Iran pada hujung minggu lalu.
Menurut laporan Wall Street Journal, Markas Pemerintahan Tengah (CENTCOM) telah memanfaatkan keupayaan Claude bagi menjalankan penilaian perisikan, pengenalpastian sasaran yang tepat, serta melakukan simulasi senario pertempuran sebelum melancarkan serangan tersebut.
Walaupun Anthropic secara rasminya telah dilabel sebagai "risiko rantaian bekalan" oleh kerajaan AS pada Jumaat lalu kerana enggan membenarkan sistem mereka digunakan dalam kawalan senjata dan intipan, pihak tentera dilaporkan tetap menggunakan teknologi itu bagi memastikan keberkesanan operasi di lapangan.
Label risiko tersebut dikenakan selepas Anthropic menunjukkan keengganan untuk bekerjasama sepenuhnya dengan tuntutan Pentagon, yang membawa kepada kecaman daripada Presiden Donald Trump.
Presiden Trump dalam satu kenyataan memberi amaran bahawa syarikat teknologi tersebut akan dipaksa untuk bekerjasama, malah kerajaan mempunyai kuasa untuk mengambil alih akses kepada AI berkenaan di bawah Akta Pengeluaran Pertahanan sekiranya perlu bagi kepentingan keselamatan nasional.
Berbeza dengan pendirian Anthropic, syarikat gergasi teknologi lain seperti Google, xAI, dan OpenAI dilaporkan tidak mempunyai sebarang halangan untuk membenarkan model AI masing-masing digunakan oleh pihak tentera bagi tujuan yang sama.
Serangan yang dirancang menggunakan bantuan AI ini telah mengakibatkan kematian Pemimpin Tertinggi Iran, Ayatollah Ali Khamenei, serta beberapa pucuk pimpinan utama negara itu, sekali gus mencetuskan perdebatan global mengenai etika penggunaan AI dalam peperangan moden.