додому Різне Trump ordonne aux agences fédérales de mettre fin à l’utilisation de l’IA...

Trump ordonne aux agences fédérales de mettre fin à l’utilisation de l’IA anthropique en raison d’un différend en matière de surveillance

Le président Donald Trump a ordonné aux agences fédérales américaines de cesser immédiatement d’utiliser l’IA Claude d’Anthropic, aggravant ainsi un conflit sur le déploiement de cette technologie pour la surveillance de masse et les systèmes d’armes autonomes. Cette décision, annoncée via la plateforme Truth Social de Trump, impose une suppression progressive de six mois pour des départements comme le ministère de la Défense, le président qualifiant Anthropic de « GAUCHE RADICALE, ENTREPRISE RÉVEILLÉE ».

Le conflit central : la sécurité de l’IA par rapport aux exigences du gouvernement

Le différend porte sur le refus d’Anthropic d’autoriser le Pentagone à accéder sans restriction à Claude. Le ministère de la Défense a cherché à utiliser l’IA à « toute fin licite », un terme vague qu’Anthropic a signalé comme permettant potentiellement une surveillance nationale de masse ou des armes entièrement autonomes sans surveillance humaine. Anthropic, fondée en mettant fortement l’accent sur la sécurité de l’IA, a maintenu des dispositions contractuelles interdisant explicitement ces utilisations.

Le secrétaire à la Défense, Pete Hegseth, a tenté de forcer le respect des règles en menaçant de qualifier Anthropic de risque pour la chaîne d’approvisionnement, les coupant ainsi des contrats gouvernementaux. Le PDG d’Anthropic, Dario Amodei, est resté ferme, déclarant que l’entreprise “ne peut pas, en toute bonne conscience, accéder” aux exigences du Pentagone.

Pourquoi c’est important : le déséquilibre des pouvoirs entre la technologie et le gouvernement

Cette impasse met en évidence une tension croissante : l’absence de cadres juridiques clairs régissant le déploiement de l’IA. Les gouvernements peuvent déjà acquérir de grandes quantités de données personnelles sans mandat, mais l’IA amplifie cette capacité. Comme l’explique Amodei, l’IA permet l’assemblage automatisé de données dispersées dans des profils complets, soulevant de graves problèmes de confidentialité.

Le fait que la réglementation n’ait pas suivi le rythme des progrès technologiques est crucial. L’IA amplifie les méfaits de la surveillance existante en les rendant moins chers et plus faciles. Des entreprises comme Anthropic sont désormais obligées de naviguer sur un territoire trouble entre les exigences de sécurité nationale et les obligations éthiques.

Solidarité industrielle et conséquences potentielles

Le PDG d’OpenAI, Sam Altman, aurait fait savoir aux employés que son entreprise partageait les lignes rouges d’Anthropic en matière de surveillance et d’armes mortelles autonomes. Les employés de Google et d’OpenAI ont fait circuler une pétition soutenant Anthropic, mettant en garde contre les tactiques « diviser pour régner » du Pentagone.

L’issue de ce différend créera un précédent pour les futures négociations entre les entreprises technologiques et les gouvernements. Si Anthropic cède, cela pourrait ouvrir la porte à une surveillance plus large et incontrôlée de l’IA. La position de l’entreprise envoie un signal clair : les limites éthiques dans le développement de l’IA ne sont pas négociables.

L’affrontement entre l’administration Trump et Anthropic souligne le besoin urgent d’une gouvernance solide de l’IA pour protéger les libertés civiles à une époque d’évolution technologique rapide.

Exit mobile version