Il Pentagono si muove per bloccare la società antropica di intelligenza artificiale in mezzo a preoccupazioni sulla sicurezza

18

Il Dipartimento della Difesa degli Stati Uniti sta intraprendendo un’azione senza precedenti contro Anthropic, una società americana di intelligenza artificiale, minacciando di designarla come un rischio per la catena di approvvigionamento. Questa mossa, annunciata dal segretario alla Difesa Pete Hegseth, impedirebbe di fatto ad Anthropic di collaborare con l’esercito americano e i suoi appaltatori. La decisione intensifica le tensioni tra il Pentagono e un importante fornitore di intelligenza artificiale nel contesto di dibattiti più ampi sulla privacy dei dati, sulla sicurezza nazionale e sul futuro della guerra automatizzata.

Azione senza precedenti contro un’azienda statunitense

La designazione di “rischio della catena di fornitura” è generalmente riservata a entità straniere – come il colosso tecnologico cinese Huawei – dove lo spionaggio o la perdita di capacità critiche durante i conflitti sono le principali preoccupazioni. Applicare questa etichetta a un’azienda americana è eccezionale e suggerisce una profonda sfiducia o una rivalutazione strategica all’interno del Dipartimento della Difesa. Secondo quanto riferito, il sistema di intelligenza artificiale di Anthropic, Claude, è stato utilizzato nelle operazioni militari in corso, incluso il raid contro Nicolás Maduro e l’attuale conflitto con l’Iran. Ciò rende la decisione del Pentagono ancora più sorprendente.

Il punto di rottura: la sorveglianza domestica

La questione principale ruota attorno al rifiuto di Anthropic di consentire al Dipartimento della Difesa di utilizzare la sua intelligenza artificiale per la sorveglianza di massa dei cittadini americani utilizzando dati disponibili in commercio. Questa posizione, sebbene di principio, apparentemente ha oltrepassato una linea rossa per il Pentagono, che cerca un accesso più ampio alle capacità di intelligence basate sui dati. Le implicazioni qui sono significative: segnala la volontà del Dipartimento della Difesa di limitare l’accesso all’intelligenza artificiale avanzata se non è in linea con i suoi obiettivi di sorveglianza.

Perché è importante: un cambiamento nella guerra dell’IA

Questa situazione evidenzia una tendenza crescente: l’arma dell’intelligenza artificiale e la crescente competizione tra governi e aziende tecnologiche per il controllo di questa tecnologia. La mossa del Pentagono suggerisce che è disposto a far rispettare in modo aggressivo le sue richieste, anche se ciò significa interrompere la catena di fornitura di strumenti critici di intelligenza artificiale. Ciò solleva interrogativi sul futuro dello sviluppo dell’intelligenza artificiale militare, sui limiti dell’autonomia aziendale nella sicurezza nazionale e sui compromessi tra progresso tecnologico e libertà civili.

Il conflitto tra Anthropic e il Pentagono potrebbe costituire un precedente per il modo in cui i governi interagiranno con le aziende di intelligenza artificiale in futuro, potenzialmente soffocando l’innovazione o costringendo le aziende a conformarsi a controverse richieste di sorveglianza.

L’esito di questa disputa probabilmente modellerà il panorama della guerra automatizzata, costringendo sia gli enti privati ​​che quelli pubblici a riconsiderare le loro posizioni sull’etica dell’IA, sulla sicurezza nazionale e sull’equilibrio tra progresso tecnologico e privacy individuale.