Anthropic, la società di intelligenza artificiale che promuove fortemente il suo approccio incentrato sulla sicurezza nello sviluppo dell’intelligenza artificiale, ha subito due significative fughe di dati pubblici nell’arco di una settimana. Questi incidenti mettono in discussione la sicurezza operativa dell’azienda, nonostante la sua reputazione di leader del settore nella sicurezza dell’IA.
Prima fuga di notizie: dettagli del modello non annunciati
Giovedì scorso, Fortune ha riferito che Anthropic ha accidentalmente esposto circa 3.000 file interni. Questi includevano una bozza di post sul blog che descriveva in dettaglio un nuovo modello di intelligenza artificiale inedito. La fuga di notizie ha fornito un primo sguardo alla futura pipeline di prodotti dell’azienda.
Seconda fuga di notizie: scoperto il codice sorgente del codice Claude
Martedì, Anthropic ha rilasciato la versione 2.1.88 del suo pacchetto software Claude Code, che inavvertitamente includeva quasi 2.000 file di codice sorgente e oltre 512.000 righe di codice. Il ricercatore Chaofan Shou ha rapidamente identificato la fuga di notizie e l’ha pubblicato su X. Anthropic ha liquidato l’incidente come un “problema di imballaggio del rilascio causato da un errore umano”, ma la portata dell’esposizione è sostanziale.
Perché il codice Claude è importante
Claude Code non è un prodotto banale. È uno strumento da riga di comando che consente agli sviluppatori di sfruttare l’intelligenza artificiale di Anthropic per la generazione e la modifica del codice. La sua crescente popolarità ha spinto i rivali, come OpenAI, a cambiare le loro strategie. Secondo quanto riferito, OpenAI ha interrotto il suo prodotto di generazione video Sora dopo soli sei mesi, in parte per concentrarsi nuovamente sulla concorrenza con Claude Code nel mercato degli sviluppatori.
Il codice sorgente trapelato rivela la struttura del software che circonda il modello di intelligenza artificiale stesso: le istruzioni principali che definiscono il funzionamento dello strumento. Gli sviluppatori hanno già iniziato ad analizzare l’architettura esposta, descrivendola come “un’esperienza di sviluppo di livello produttivo”.
Implicazioni e preoccupazioni
Anche se l’impatto a lungo termine di queste fughe di notizie rimane poco chiaro, i concorrenti potrebbero trarre vantaggio da questa architettura esposta. Il rapido ritmo dello sviluppo dell’intelligenza artificiale fa sì che le informazioni possano diventare rapidamente obsolete, ma rappresenta comunque una supervisione significativa per un’azienda che dà priorità alla sicurezza.
Internamente, gli incidenti probabilmente hanno portato a un controllo immediato dei team di ingegneri. Anthropic dovrà affrontare questi fallimenti operativi per mantenere la fiducia di partner e investitori. La natura ripetuta di queste fughe di notizie solleva dubbi sui processi interni dell’azienda e se la sua immagine pubblica sia in linea con le sue effettive pratiche di sicurezza.
Questi incidenti servono a ricordare duramente che anche le aziende con un forte impegno pubblico per la sicurezza possono cadere vittime di errori operativi basilari. Il vero test sarà il modo in cui Anthropic risponderà per prevenire fughe di notizie future e mantenere la propria credibilità.






























