Anthropic, la société d’IA qui promeut fortement son approche axée sur la sécurité en matière de développement de l’intelligence artificielle, a subi deux fuites de données publiques importantes en l’espace d’une semaine. Ces incidents remettent en question la sécurité opérationnelle de l’entreprise malgré sa réputation de leader du secteur en matière de sécurité de l’IA.
Première fuite : détails inopinés du modèle
Jeudi dernier, Fortune a rapporté qu’Anthropic avait accidentellement exposé environ 3 000 fichiers internes. Ceux-ci comprenaient un projet d’article de blog détaillant un nouveau modèle d’IA inédit. La fuite a donné un premier aperçu du futur pipeline de produits de l’entreprise.
Deuxième fuite : le code source du code Claude exposé
Mardi, Anthropic a publié la version 2.1.88 de son progiciel Claude Code, qui comprenait par inadvertance près de 2 000 fichiers de code source et plus de 512 000 lignes de code. Le chercheur Chaofan Shou a rapidement identifié la fuite et l’a publié sur X. Anthropic a rejeté l’incident comme un « problème d’emballage causé par une erreur humaine », mais l’étendue de l’exposition est substantielle.
Pourquoi le code Claude est important
Claude Code n’est pas un produit anodin. Il s’agit d’un outil en ligne de commande qui permet aux développeurs d’exploiter l’IA d’Anthropic pour la génération et l’édition de code. Sa popularité croissante a incité ses concurrents, comme OpenAI, à modifier leurs stratégies. OpenAI aurait arrêté son produit de génération vidéo Sora après seulement six mois, en partie pour se recentrer sur la concurrence de Claude Code sur le marché des développeurs.
Le code source divulgué révèle le cadre logiciel entourant le modèle d’IA lui-même – les instructions de base qui définissent le fonctionnement de l’outil. Les développeurs ont déjà commencé à disséquer l’architecture exposée, la décrivant comme une « expérience de développement de niveau production ».
Implications et préoccupations
Même si l’impact à long terme de ces fuites reste incertain, les concurrents pourraient bénéficier de cette architecture exposée. Le rythme rapide du développement de l’IA signifie que les informations peuvent rapidement devenir obsolètes, mais cela représente néanmoins un oubli important pour une entreprise qui donne la priorité à la sécurité.
En interne, les incidents ont probablement conduit à un examen immédiat des équipes d’ingénierie. Anthropic devra remédier à ces échecs opérationnels pour maintenir la confiance avec les partenaires et les investisseurs. La nature répétée de ces fuites soulève des questions sur les processus internes de l’entreprise et sur la conformité de son image publique avec ses pratiques de sécurité réelles.
Ces incidents nous rappellent durement que même les entreprises fortement engagées publiquement en matière de sécurité peuvent être victimes d’erreurs opérationnelles élémentaires. Le véritable test sera de savoir comment Anthropic réagira pour éviter de futures fuites et maintenir sa crédibilité.
