Trump ordena a las agencias federales detener el uso de IA antrópica por disputa de vigilancia

23

El presidente Donald Trump ha ordenado a las agencias federales de EE. UU. que dejen de utilizar Claude AI de Anthropic, intensificando un conflicto sobre el despliegue de la tecnología para vigilancia masiva y sistemas de armas autónomos. La medida, anunciada a través de la plataforma Truth Social de Trump, exige una eliminación gradual de seis meses para departamentos como el Departamento de Defensa, y el presidente califica a Anthropic como una “EMPRESA DESPERTADA DE IZQUIERDA RADICAL”.

El conflicto central: seguridad de la IA versus demandas gubernamentales

La disputa se centra en la negativa de Anthropic a permitir que el Pentágono tenga acceso irrestricto a Claude. El Departamento de Defensa intentó utilizar la IA para “cualquier propósito legal”, un término vago que Anthropic señaló que potencialmente permitiría una vigilancia doméstica masiva o armas totalmente autónomas sin supervisión humana. Anthropic, fundada con un fuerte énfasis en la seguridad de la IA, mantuvo disposiciones contractuales que prohibían explícitamente estos usos.

El secretario de Defensa, Pete Hegseth, intentó forzar el cumplimiento amenazando con etiquetar a Anthropic como un riesgo para la cadena de suministro, aislándolos efectivamente de los contratos gubernamentales. El director general de Anthropic, Dario Amodei, se mantuvo firme y afirmó que la empresa “no puede acceder en conciencia” a las exigencias del Pentágono.

Por qué esto importa: el desequilibrio de poder entre la tecnología y el gobierno

Este enfrentamiento pone de relieve una tensión creciente: la falta de marcos legales claros que regulen el despliegue de la IA. Los gobiernos ya pueden adquirir grandes cantidades de datos personales sin autorización judicial, pero la IA amplifica esta capacidad. Como explicó Amodei, la IA permite el ensamblaje automatizado de datos dispersos en perfiles completos, lo que genera serias preocupaciones sobre la privacidad.

El hecho de que la regulación no haya seguido el ritmo del avance tecnológico es crucial. La IA magnifica los daños existentes en la vigilancia al hacerla más barata y sencilla. Empresas como Anthropic ahora se ven obligadas a navegar en el turbio territorio entre solicitudes de seguridad nacional y obligaciones éticas.

Solidaridad de la industria y posibles ramificaciones

Según los informes, el director ejecutivo de OpenAI, Sam Altman, comunicó a los empleados que su empresa comparte las líneas rojas de Anthropic con respecto a la vigilancia y las armas autónomas letales. Los empleados de Google y OpenAI hicieron circular una petición en apoyo a Anthropic, advirtiendo contra las tácticas de dividir y conquistar del Pentágono.

El resultado de esta disputa sentará un precedente para futuras negociaciones entre empresas de tecnología y gobiernos. Si Anthropic cede, podría abrir la puerta a una vigilancia de IA más amplia y sin control. La postura de la empresa envía una señal clara: los límites éticos en el desarrollo de la IA no son negociables.

El choque entre la administración de Trump y Anthropic subraya la necesidad urgente de una gobernanza sólida de la IA para proteger las libertades civiles en una era de tecnología en rápida evolución.