De herhaalde datalekken van Anthropic roepen vragen op over de interne veiligheid

15

Anthropic, het AI-bedrijf dat zijn veiligheidsgerichte benadering van de ontwikkeling van kunstmatige intelligentie sterk promoot, heeft in een week tijd te maken gehad met twee aanzienlijke openbare datalekken. Deze incidenten doen twijfels rijzen over de operationele veiligheid van het bedrijf, ondanks zijn reputatie als marktleider op het gebied van AI-veiligheid.

Eerste lek: onaangekondigde modeldetails

Afgelopen donderdag meldde Fortune dat Anthropic per ongeluk ongeveer 3.000 interne bestanden openbaar maakte. Deze omvatten een conceptblogpost waarin een nieuw, nog niet uitgebracht AI-model werd beschreven. Het lek bood een eerste blik op de toekomstige productpijplijn van het bedrijf.

Tweede lek: broncode van Claude-code zichtbaar

Dinsdag bracht Anthropic versie 2.1.88 uit van zijn Claude Code-softwarepakket, dat onbedoeld bijna 2.000 broncodebestanden en meer dan 512.000 regels code bevatte. Onderzoeker Chaofan Shou identificeerde het lek snel en postte erover op X. Anthropic deed het incident af als een “release-verpakkingsprobleem veroorzaakt door menselijke fouten”, maar de omvang van de blootstelling is aanzienlijk.

Waarom Claude Code belangrijk is

Claude Code is geen triviaal product. Het is een opdrachtregeltool waarmee ontwikkelaars de AI van Anthropic kunnen gebruiken voor het genereren en bewerken van code. De toenemende populariteit heeft rivalen, zoals OpenAI, ertoe aangezet hun strategieën te veranderen. OpenAI stopte naar verluidt zijn Sora-product voor het genereren van video’s na slechts zes maanden, deels om zich opnieuw te concentreren op de concurrentie met Claude Code op de ontwikkelaarsmarkt.

De gelekte broncode onthult het softwareframework rond het AI-model zelf: de kerninstructies die bepalen hoe de tool functioneert. Ontwikkelaars zijn al begonnen met het ontleden van de blootgestelde architectuur en beschrijven deze als een ‘ontwikkelaarservaring op productieniveau’.

Implicaties en zorgen

Hoewel de langetermijnimpact van deze lekken onduidelijk blijft, kunnen concurrenten profiteren van deze blootgestelde architectuur. Het snelle tempo van de AI-ontwikkeling betekent dat de informatie snel verouderd kan raken, maar dat dit nog steeds een belangrijke vergissing is voor een bedrijf dat prioriteit geeft aan beveiliging.

Intern hebben de incidenten waarschijnlijk geleid tot onmiddellijk onderzoek van technische teams. Anthropic zal deze operationele mislukkingen moeten aanpakken om het vertrouwen bij partners en investeerders te behouden. De herhaalde aard van deze lekken roept vragen op over de interne processen van het bedrijf en of het publieke imago overeenkomt met de daadwerkelijke beveiligingspraktijken.

Deze incidenten dienen als een harde herinnering dat zelfs bedrijven met sterke publieke engagementen op het gebied van veiligheid het slachtoffer kunnen worden van fundamentele operationele fouten. De echte test zal zijn hoe Anthropic reageert om toekomstige lekken te voorkomen en zijn geloofwaardigheid te behouden.