El Pentágono toma medidas para bloquear la empresa de inteligencia artificial Anthropic en medio de preocupaciones de seguridad

15

El Departamento de Defensa de Estados Unidos está tomando medidas sin precedentes contra Anthropic, una empresa estadounidense de inteligencia artificial, amenazando con designarla como un riesgo para la cadena de suministro. Esta medida, anunciada por el secretario de Defensa, Pete Hegseth, impediría efectivamente a Anthropic trabajar con el ejército estadounidense y sus contratistas. La decisión intensifica las tensiones entre el Pentágono y un proveedor clave de inteligencia artificial en medio de debates más amplios sobre la privacidad de los datos, la seguridad nacional y el futuro de la guerra automatizada.

Acción sin precedentes contra una empresa estadounidense

La designación de “riesgo de la cadena de suministro” suele reservarse para entidades extranjeras –como el gigante tecnológico chino Huawei– donde el espionaje o la pérdida de capacidades críticas durante un conflicto son preocupaciones importantes. Aplicar esta etiqueta a una empresa estadounidense es excepcional y sugiere una profunda desconfianza o una reevaluación estratégica dentro del Departamento de Defensa. Según se informa, el sistema de inteligencia artificial de Anthropic, Claude, se ha utilizado en operaciones militares en curso, incluida la incursión contra Nicolás Maduro y el actual conflicto con Irán. Esto hace que la decisión del Pentágono sea aún más sorprendente.

El punto de quiebre: la vigilancia nacional

La cuestión central gira en torno a la negativa de Anthropic a permitir que el Departamento de Defensa utilice su IA para la vigilancia masiva de ciudadanos estadounidenses utilizando datos disponibles comercialmente. Esta postura, aunque basada en principios, aparentemente cruzó una línea roja para el Pentágono, que busca un acceso más amplio a capacidades de inteligencia basadas en datos. Las implicaciones aquí son significativas: indica la voluntad del Departamento de Defensa de restringir el acceso a la IA avanzada si no se alinea con sus objetivos de vigilancia.

Por qué esto es importante: un cambio en la guerra con IA

Esta situación pone de relieve una tendencia creciente: la utilización de la IA como arma y la creciente competencia entre gobiernos y empresas de tecnología por el control de esta tecnología. La medida del Pentágono sugiere que está dispuesto a hacer cumplir agresivamente sus demandas, incluso si eso significa interrumpir la cadena de suministro de herramientas críticas de IA. Esto plantea interrogantes sobre el futuro del desarrollo de la IA militar, los límites de la autonomía corporativa en la seguridad nacional y las compensaciones entre el avance tecnológico y las libertades civiles.

El conflicto entre Anthropic y el Pentágono puede sentar un precedente sobre cómo los gobiernos interactuarán con las empresas de IA en el futuro, lo que podría sofocar la innovación u obligar a las empresas a cumplir con demandas de vigilancia controvertidas.

El resultado de esta disputa probablemente moldeará el panorama de la guerra automatizada, obligando a entidades públicas y privadas a reconsiderar sus posiciones sobre la ética de la IA, la seguridad nacional y el equilibrio entre el progreso tecnológico y la privacidad individual.