Il Dipartimento della Difesa degli Stati Uniti (DoD) si sta muovendo per limitare una delle principali società americane di intelligenza artificiale, Anthropic, dalle catene di approvvigionamento militare a causa di disaccordi sull’utilizzo dei dati. Questo passo senza precedenti, tipicamente riservato ad avversari stranieri come Huawei, evidenzia una crescente tensione tra le richieste del governo e i confini del settore privato nel campo in rapida evoluzione dell’intelligenza artificiale.
Il conflitto: sorveglianza contro restrizioni
La controversia è incentrata sul desiderio del Dipartimento della Difesa di sfruttare l’intelligenza artificiale per una sorveglianza completa utilizzando dati disponibili in commercio, una pratica a cui Anthropic inizialmente si era opposta. Sebbene il sistema Claude AI di Anthropic sia stato utilizzato in operazioni militari delicate, incluso il coinvolgimento segnalato in raid come quello contro Nicolás Maduro, la società ha fissato dei limiti al suo dispiegamento. Nello specifico, Anthropic ha rifiutato di consentire la sorveglianza di massa dei cittadini americani, una condizione che il Dipartimento della Difesa ora cerca di ignorare.
Il Segretario alla Guerra Pete Hegseth ha minacciato di designare Anthropic come un rischio per la catena di approvvigionamento, impedendo di fatto a qualsiasi appaltatore militare di utilizzare i suoi servizi. Questa mossa sarebbe devastante per Anthropic, anche se la sua applicabilità legale è dibattuta. La questione centrale non è la capacità dell’intelligenza artificiale stessa, ma chi ne controlla l’applicazione. Il Dipartimento della Difesa sostiene che le aziende private non dovrebbero dettare le priorità di sicurezza nazionale, mentre Anthropic mantiene i confini etici.
Perché è importante: un cambiamento nelle dinamiche di potere
Questo scontro non riguarda solo una società; rappresenta una lotta di potere fondamentale. L’esercito americano fa sempre più affidamento sull’intelligenza artificiale per l’analisi dell’intelligence, la guerra informatica e i sistemi autonomi potenzialmente letali. Le amministrazioni Biden e Trump hanno entrambe concordato iniziali restrizioni sull’utilizzo, ma l’attuale leadership del Dipartimento della Difesa sembra determinata a rimuoverle.
Il problema non è che il governo non può* acquisire dati; è che in precedenza non aveva la capacità di elaborarlo su larga scala. L’intelligenza artificiale cambia tutto questo, offrendo la possibilità di analizzare vasti set di dati e applicare le leggi con una precisione senza precedenti. Questa capacità solleva profonde preoccupazioni sulla privacy, poiché le definizioni legali di “sorveglianza” potrebbero non tenere il passo con i progressi tecnologici.
Le implicazioni più ampie: uno stato tecnologicamente contingente
Il conflitto con l’Anthropic sottolinea una tendenza più profonda: la fragilità delle istituzioni dipendenti da tecnologie specifiche. Il moderno stato-nazione, già dipendente dalla stampa, dalle telecomunicazioni e dall’infrastruttura dei dati, si trova ad affrontare un cambiamento di paradigma con l’intelligenza artificiale. I quadri giuridici esistenti non sono attrezzati per gestire la portata e la velocità della sorveglianza basata sull’intelligenza artificiale.
Il rischio reale non è solo la perdita della privacy, ma il crollo delle stesse strutture istituzionali. Poiché l’intelligenza artificiale altera radicalmente il panorama tecnologico, l’intero ordine politico e giuridico sarà costretto ad adattarsi, potenzialmente in modi imprevedibili. La domanda non è se l’intelligenza artificiale rimodellerà la governance, ma in che misura e se le salvaguardie esistenti sopravvivranno alla transizione.
In conclusione, la mossa del Dipartimento della Difesa contro Anthropic è un segnale di avvertimento. Segnala la volontà di dare priorità agli obiettivi di sicurezza nazionale rispetto ai confini etici, erodendo potenzialmente la privacy e destabilizzando le fondamenta stesse dello stato moderno.
