Os repetidos vazamentos de dados da Anthropic levantam questões sobre segurança interna

9

A Anthropic, a empresa de IA que promove fortemente sua abordagem de segurança em primeiro lugar para o desenvolvimento de inteligência artificial, sofreu dois vazamentos significativos de dados públicos no espaço de uma semana. Estes incidentes colocam em causa a segurança operacional da empresa, apesar da sua reputação como líder da indústria em segurança de IA.

Primeiro vazamento: detalhes não anunciados do modelo

Na quinta-feira passada, a Fortune informou que a Anthropic expôs acidentalmente cerca de 3.000 arquivos internos. Isso incluiu um rascunho de postagem no blog detalhando um modelo de IA novo e inédito. O vazamento forneceu uma visão antecipada do futuro pipeline de produtos da empresa.

Segundo vazamento: código-fonte do código Claude exposto

Na terça-feira, a Anthropic lançou a versão 2.1.88 de seu pacote de software Claude Code, que inadvertidamente incluía quase 2.000 arquivos de código-fonte e mais de 512.000 linhas de código. O pesquisador Chaofan Shou identificou rapidamente o vazamento e postou sobre ele no X. A Anthropic descartou o incidente como um “problema de embalagem de liberação causado por erro humano”, mas a extensão da exposição é substancial.

Por que o código Claude é importante

Claude Code não é um produto trivial. É uma ferramenta de linha de comando que permite aos desenvolvedores aproveitar a IA da Anthropic para geração e edição de código. Sua popularidade crescente levou rivais, como a OpenAI, a mudar suas estratégias. A OpenAI supostamente interrompeu seu produto de geração de vídeo Sora depois de apenas seis meses, em parte para se concentrar novamente na competição com Claude Code no mercado de desenvolvedores.

O código-fonte vazado revela a estrutura de software que envolve o próprio modelo de IA – as instruções básicas que definem como a ferramenta funciona. Os desenvolvedores já começaram a dissecar a arquitetura exposta, descrevendo-a como uma “experiência de desenvolvedor de nível de produção”.

Implicações e preocupações

Embora o impacto a longo prazo destas fugas ainda não esteja claro, os concorrentes poderão beneficiar desta arquitectura exposta. O ritmo acelerado do desenvolvimento da IA ​​significa que as informações podem ficar rapidamente desatualizadas, mas ainda representa um descuido significativo para uma empresa que prioriza a segurança.

Internamente, os incidentes provavelmente levaram ao escrutínio imediato das equipes de engenharia. A Anthropic precisará resolver essas falhas operacionais para manter a confiança de parceiros e investidores. A natureza repetida destas fugas levanta questões sobre os processos internos da empresa e se a sua imagem pública está alinhada com as suas práticas reais de segurança.

Estes incidentes servem como um duro lembrete de que mesmo as empresas com fortes compromissos públicos com a segurança podem ser vítimas de erros operacionais básicos. O verdadeiro teste será como a Anthropic responderá para evitar vazamentos futuros e manter sua credibilidade.