Las repetidas filtraciones de datos de Anthropic plantean dudas sobre la seguridad interna

5

Anthropic, la empresa de inteligencia artificial que promueve en gran medida su enfoque de seguridad para el desarrollo de inteligencia artificial, ha sufrido dos importantes filtraciones de datos públicos en el lapso de una semana. Estos incidentes ponen en duda la seguridad operativa de la empresa a pesar de su reputación como líder de la industria en seguridad de IA.

Primera filtración: detalles del modelo no anunciados

El jueves pasado, Fortune informó que Anthropic expuso accidentalmente alrededor de 3.000 archivos internos. Estos incluyeron un borrador de publicación de blog que detalla un nuevo modelo de IA inédito. La filtración proporcionó una visión temprana de la futura cartera de productos de la empresa.

Segunda filtración: Código fuente de Claude expuesto

El martes, Anthropic lanzó la versión 2.1.88 de su paquete de software Claude Code, que sin darse cuenta incluía casi 2.000 archivos de código fuente y más de 512.000 líneas de código. El investigador Chaofan Shou identificó rápidamente la filtración y la publicó en X. Anthropic descartó el incidente como un “problema del empaque de liberación causado por un error humano”, pero el alcance de la exposición es sustancial.

Por qué es importante el código Claude

Claude Code no es un producto trivial. Es una herramienta de línea de comandos que permite a los desarrolladores aprovechar la IA de Anthropic para la generación y edición de código. Su creciente popularidad ha llevado a rivales, como OpenAI, a cambiar sus estrategias. Según se informa, OpenAI detuvo su producto de generación de vídeo Sora después de sólo seis meses, en parte para volver a centrarse en competir con Claude Code en el mercado de desarrolladores.

El código fuente filtrado revela el marco de software que rodea al propio modelo de IA: las instrucciones centrales que definen cómo funciona la herramienta. Los desarrolladores ya han comenzado a analizar la arquitectura expuesta, describiéndola como una “experiencia de desarrollador de nivel de producción”.

Implicaciones y preocupaciones

Si bien el impacto a largo plazo de estas filtraciones aún no está claro, los competidores podrían beneficiarse de esta arquitectura expuesta. El rápido ritmo del desarrollo de la IA significa que la información puede quedar obsoleta rápidamente, pero aún así representa un descuido importante para una empresa que prioriza la seguridad.

Internamente, los incidentes probablemente llevaron a un escrutinio inmediato de los equipos de ingeniería. Anthropic deberá abordar estas fallas operativas para mantener la confianza con socios e inversores. La naturaleza repetida de estas filtraciones plantea dudas sobre los procesos internos de la empresa y si su imagen pública se alinea con sus prácticas de seguridad reales.

Estos incidentes sirven como un duro recordatorio de que incluso las empresas con fuertes compromisos públicos con la seguridad pueden ser víctimas de errores operativos básicos. La verdadera prueba será cómo responda Anthropic para evitar futuras filtraciones y mantener su credibilidad.