Anthropic, firma zajmująca się sztuczną inteligencją, która aktywnie promuje swoje podejście skupiające się na bezpieczeństwie, doświadczyła dwóch poważnych naruszeń bezpieczeństwa danych w ciągu jednego tygodnia. Incydenty te stawiają pod znakiem zapytania bezpieczeństwo operacyjne firmy, pomimo jej reputacji lidera branży w zakresie bezpieczeństwa sztucznej inteligencji.
Pierwszy wyciek: niezapowiedziane szczegóły modelu
W ubiegły czwartek Fortune poinformowało, że Anthropic przypadkowo udostępniło około 3000 plików wewnętrznych. Wśród nich znajdował się projekt artykułu na blogu ujawniający szczegóły nowego, jeszcze nie wydanego modelu sztucznej inteligencji. Wyciek umożliwił wczesne spojrzenie na przyszły rurociąg produktów firmy.
Drugi wyciek: ujawniono kod źródłowy kodu Claude’a
We wtorek firma Anthropic opublikowała wersję 2.1.88 pakietu oprogramowania Claude Code, która przypadkowo zawierała prawie 2000 plików kodu źródłowego i ponad 512 000 linii kodu. Badacz Chaofan Shou szybko odkrył wyciek i opublikował o nim post w X. Anthropic nazwał ten incydent „błędem ludzkim w wersji wydania”, ale skala wycieku jest znacząca.
Dlaczego Claude Code ma znaczenie
Claude Code nie jest zwykłym produktem. Jest to narzędzie wiersza poleceń, które pozwala programistom używać sztucznej inteligencji Anthropic do generowania i edytowania kodu. Jego rosnąca popularność zmusiła konkurentów takich jak OpenAI do zmiany strategii. Według doniesień OpenAI wstrzymało rozwój swojego produktu do generowania wideo Sora już po sześciu miesiącach, aby skupić się na konkurowaniu z Claude Code na rynku programistów.
Kod źródłowy, który wyciekł, ujawnia framework oprogramowania otaczający sam model AI – podstawowe instrukcje określające sposób działania narzędzia. Deweloperzy zaczęli już analizować ujawnioną architekturę, opisując ją jako „doświadczenie programistyczne na poziomie produkcyjnym”.
Implikacje i obawy
Choć długoterminowe skutki tych wycieków pozostają niejasne, konkurenci mogą skorzystać na ujawnionej architekturze. Szybkie tempo rozwoju sztucznej inteligencji oznacza, że informacje mogą stać się nieaktualne, ale w dalszym ciągu stanowi to poważne niedopatrzenie dla firmy, która stawia bezpieczeństwo na pierwszym miejscu.
Wewnętrznie incydenty te prawdopodobnie doprowadziły do natychmiastowej kontroli zespołów inżynieryjnych. Firma Anthropic musi zająć się tymi błędami operacyjnymi, aby utrzymać zaufanie partnerów i inwestorów. Powtarzający się charakter tych wycieków rodzi pytania dotyczące wewnętrznych procesów firmy i tego, czy jej wizerunek publiczny odpowiada rzeczywistym praktykom bezpieczeństwa.
Te incydenty wyraźnie przypominają, że nawet firmy przywiązujące dużą wagę do bezpieczeństwa publicznego mogą paść ofiarą podstawowych błędów operacyjnych. Prawdziwym testem jest to, jak Anthropic zareaguje, aby zapobiec przyszłym wyciekom i utrzymać swoją reputację.






























