Kebocoran Data Berulang Anthropic Menimbulkan Pertanyaan Tentang Keamanan Internal

19

Anthropic, perusahaan AI yang sangat mempromosikan pendekatan yang mengutamakan keselamatan dalam pengembangan kecerdasan buatan, telah mengalami dua kebocoran data publik yang signifikan dalam rentang waktu seminggu. Insiden-insiden ini mempertanyakan keamanan operasional perusahaan meskipun reputasinya sebagai pemimpin industri dalam keselamatan AI.

Kebocoran Pertama: Detail Model Tanpa Pengumuman

Kamis lalu, Fortune melaporkan bahwa Anthropic secara tidak sengaja mengekspos sekitar 3.000 file internal. Ini termasuk draf postingan blog yang merinci model AI baru yang belum dirilis. Kebocoran tersebut memberikan gambaran awal tentang jalur produk perusahaan di masa depan.

Kebocoran Kedua: Source Code Claude Code Terkena

Pada hari Selasa, Anthropic merilis versi 2.1.88 dari paket perangkat lunak Claude Code, yang secara tidak sengaja menyertakan hampir 2.000 file kode sumber dan lebih dari 512.000 baris kode. Peneliti Chaofan Shou dengan cepat mengidentifikasi kebocoran tersebut dan mempostingnya di X. Anthropic menolak insiden tersebut sebagai “masalah kemasan pelepasan yang disebabkan oleh kesalahan manusia”, namun tingkat paparannya cukup besar.

Mengapa Kode Claude Penting

Claude Code bukanlah produk sepele. Ini adalah alat baris perintah yang memungkinkan pengembang memanfaatkan AI Anthropic untuk pembuatan dan pengeditan kode. Meningkatnya popularitasnya telah mendorong pesaingnya, seperti OpenAI, untuk mengubah strategi mereka. OpenAI dilaporkan menghentikan produk pembuatan video Sora hanya dalam waktu enam bulan, sebagian untuk kembali fokus bersaing dengan Claude Code di pasar pengembang.

Kode sumber yang bocor mengungkapkan kerangka perangkat lunak yang mengelilingi model AI itu sendiri—instruksi inti yang menentukan cara kerja alat tersebut. Pengembang telah mulai membedah arsitektur yang terekspos, menggambarkannya sebagai “pengalaman pengembang tingkat produksi”.

Implikasi dan Kekhawatiran

Meskipun dampak jangka panjang dari kebocoran ini masih belum jelas, para pesaing dapat mengambil manfaat dari arsitektur yang terbuka ini. Pesatnya perkembangan AI berarti bahwa informasi dapat dengan cepat menjadi usang, namun hal ini masih merupakan pengawasan yang signifikan bagi perusahaan yang memprioritaskan keamanan.

Secara internal, insiden tersebut kemungkinan besar akan menyebabkan pengawasan langsung terhadap tim teknik. Anthropic perlu mengatasi kegagalan operasional ini untuk menjaga kepercayaan dengan mitra dan investor. Kebocoran yang berulang ini menimbulkan pertanyaan mengenai proses internal perusahaan dan apakah citra publik perusahaan sejalan dengan praktik keamanan sebenarnya.

Insiden-insiden ini menjadi pengingat bahwa bahkan perusahaan dengan komitmen publik yang kuat terhadap keselamatan pun bisa menjadi korban kesalahan operasional mendasar. Ujian sebenarnya adalah bagaimana Anthropic merespons untuk mencegah kebocoran di masa depan dan menjaga kredibilitasnya.