Departemen Pertahanan (DoD) A.S. berupaya membatasi perusahaan AI terkemuka Amerika, Anthropic, dari rantai pasokan militer karena perbedaan pendapat mengenai penggunaan data. Langkah yang belum pernah terjadi sebelumnya ini, yang biasanya dilakukan oleh musuh asing seperti Huawei, menyoroti meningkatnya ketegangan antara tuntutan pemerintah dan batasan sektor swasta dalam bidang kecerdasan buatan yang berkembang pesat.
Konflik: Pengawasan vs. Pembatasan
Perselisihan ini berpusat pada keinginan Departemen Pertahanan untuk memanfaatkan AI untuk pengawasan komprehensif menggunakan data yang tersedia secara komersial – sebuah praktik yang pada awalnya ditolak oleh Anthropic. Meskipun sistem Claude AI Anthropic telah digunakan dalam operasi militer yang sensitif, termasuk laporan keterlibatan dalam serangan seperti yang terjadi terhadap Nicolás Maduro, perusahaan tersebut menetapkan batasan dalam penerapannya. Secara khusus, Anthropic menolak mengizinkan pengawasan massal terhadap warga Amerika, suatu kondisi yang kini ingin dikesampingkan oleh Departemen Pertahanan.
Menteri Perang Pete Hegseth mengancam akan menetapkan Anthropic sebagai risiko rantai pasokan, yang secara efektif melarang kontraktor militer mana pun menggunakan layanannya. Langkah ini akan berdampak buruk bagi Anthropic, meskipun penegakan hukumnya masih diperdebatkan. Persoalan intinya bukanlah kemampuan AI itu sendiri, namun siapa yang mengontrol penerapannya. Departemen Pertahanan berpendapat bahwa perusahaan swasta tidak boleh mendikte prioritas keamanan nasional, sementara Anthropic mempertahankan batasan etika.
Mengapa Ini Penting: Pergeseran Dinamika Kekuasaan
Bentrokan ini bukan hanya mengenai satu perusahaan; ini mewakili perebutan kekuasaan yang mendasar. Militer AS semakin bergantung pada AI untuk analisis intelijen, perang siber, dan sistem otonom yang berpotensi mematikan. Pemerintahan Biden dan Trump sama-sama menyetujui pembatasan penggunaan awal, namun kepemimpinan Departemen Pertahanan saat ini tampaknya bertekad untuk menghapusnya.
Masalahnya bukan karena pemerintah tidak bisa memperoleh data; hanya saja sebelumnya mereka tidak memiliki kapasitas untuk memprosesnya dalam skala besar. AI mengubah hal ini, menawarkan kemampuan untuk menganalisis kumpulan data yang sangat besar dan menegakkan hukum dengan presisi yang belum pernah terjadi sebelumnya. Kemampuan ini menimbulkan permasalahan privasi yang mendalam, karena definisi hukum tentang “pengawasan” mungkin tidak sejalan dengan kemajuan teknologi.
Implikasi yang Lebih Luas: Keadaan yang Bergantung Secara Teknologi
Konflik dengan Anthropic menggarisbawahi tren yang lebih dalam: rapuhnya institusi yang bergantung pada teknologi tertentu. Negara-bangsa modern, yang sudah bergantung pada mesin cetak, telekomunikasi, dan infrastruktur data, menghadapi perubahan paradigma dengan AI. Kerangka hukum yang ada belum mampu menangani skala dan kecepatan pengawasan berbasis AI.
Risiko sebenarnya bukan hanya hilangnya privasi, namun juga hancurnya struktur kelembagaan itu sendiri. Ketika AI secara mendasar mengubah lanskap teknologi, seluruh tatanan politik dan hukum akan dipaksa untuk beradaptasi, yang mungkin terjadi dengan cara yang tidak dapat diprediksi. Pertanyaannya bukan apakah AI akan mengubah tata kelola pemerintahan, namun seberapa dramatis dan apakah upaya perlindungan yang ada akan mampu bertahan dalam transisi ini.
Kesimpulannya, tindakan Departemen Pertahanan terhadap Anthropic adalah sebuah tanda peringatan. Hal ini menandakan kesediaan untuk memprioritaskan tujuan keamanan nasional di atas batasan etika, yang berpotensi mengikis privasi dan mengganggu stabilitas fondasi negara modern.






























