додому Ultime notizie e articoli Trump ordina alle agenzie federali di fermare l’uso dell’intelligenza artificiale antropica per...

Trump ordina alle agenzie federali di fermare l’uso dell’intelligenza artificiale antropica per la controversia sulla sorveglianza

Il presidente Donald Trump ha ordinato alle agenzie federali statunitensi di cessare immediatamente l’uso dell’intelligenza artificiale Claude di Anthropic, intensificando il conflitto sull’impiego della tecnologia per la sorveglianza di massa e i sistemi d’arma autonomi. La mossa, annunciata tramite la piattaforma Truth Social di Trump, impone una graduale eliminazione di sei mesi per dipartimenti come il Dipartimento della Difesa, con il Presidente che definisce Anthropic una “SINISTRA RADICALE, AZIENDA SVEGLIA”.

Il conflitto principale: sicurezza dell’IA e richieste del governo

La disputa è incentrata sul rifiuto di Anthropic di consentire al Pentagono l’accesso illimitato a Claude. Il Dipartimento della Difesa ha cercato di utilizzare l’intelligenza artificiale per “qualsiasi scopo legale”, un termine vago che Anthropic ha segnalato come potenzialmente in grado di consentire la sorveglianza domestica di massa o armi completamente autonome senza supervisione umana. Anthropic, fondata con una forte enfasi sulla sicurezza dell’intelligenza artificiale, ha mantenuto disposizioni contrattuali che vietano esplicitamente questi usi.

Il segretario alla Difesa Pete Hegseth ha tentato di forzare la conformità minacciando di etichettare Anthropic come un rischio per la catena di approvvigionamento, tagliandola di fatto fuori dai contratti governativi. L’amministratore delegato di Anthropic, Dario Amodei, è rimasto fermo, affermando che la società “non può in buona coscienza aderire” alle richieste del Pentagono.

Perché è importante: lo squilibrio di potere tra tecnologia e governo

Questa situazione di stallo evidenzia una tensione crescente: la mancanza di quadri giuridici chiari che governino la diffusione dell’intelligenza artificiale. I governi possono già acquisire grandi quantità di dati personali senza garanzie, ma l’intelligenza artificiale amplifica questa capacità. Come ha spiegato Amodei, l’intelligenza artificiale consente l’assemblaggio automatizzato di dati sparsi in profili completi, sollevando seri problemi di privacy.

Il fatto che la regolamentazione non abbia tenuto il passo con il progresso tecnologico è cruciale. L’intelligenza artificiale amplifica i danni della sorveglianza esistente rendendola più economica e più semplice. Aziende come Anthropic sono ora costrette a navigare nel territorio oscuro tra richieste di sicurezza nazionale e obblighi etici.

Solidarietà del settore e potenziali ramificazioni

Secondo quanto riferito, il CEO di OpenAI Sam Altman ha comunicato ai dipendenti che la sua azienda condivide le linee rosse di Anthropic per quanto riguarda la sorveglianza e le armi autonome letali. I dipendenti di Google e OpenAI hanno diffuso una petizione a sostegno di Anthropic, mettendo in guardia contro la tattica divide et impera del Pentagono.

L’esito di questa controversia costituirà un precedente per i futuri negoziati tra aziende tecnologiche e governi. Se Anthropic cedesse, potrebbe aprire la porta a una sorveglianza più ampia e incontrollata dell’IA. La posizione dell’azienda invia un segnale chiaro: i confini etici nello sviluppo dell’intelligenza artificiale non sono negoziabili.

Lo scontro tra l’amministrazione Trump e Anthropic sottolinea l’urgente necessità di una solida governance dell’IA per proteggere le libertà civili in un’era di tecnologia in rapida evoluzione.

Exit mobile version