El Pentágono Presiona a Anthropic para Uso Incondicional de IA

ITfluence
25-02-2026

Anthropic y el Reto del Pentágono

El Pentágono ha otorgado a Anthropic un plazo hasta este viernes a las 17:01 para que acepte el uso sin restricciones de sus modelos de inteligencia artificial (IA) para cualquier tipo de aplicaciones, incluyendo espionaje y aplicaciones militares. Hasta ahora, Anthropic se ha negado a tales condiciones, pero la administración Trump amenaza con invocar una norma de hace 75 años para apropiarse de la tecnología de IA de Anthropic.

Líneas Rojas y Etica

El conflicto radica en las líneas rojas impuestas por las normas éticas de Anthropic. La empresa, liderada por Dario Amodei, se niega a que sus modelos de IA sean utilizados para vigilancia masiva de ciudadanos estadounidenses —sin mencionar a otros países— o en el desarrollo y uso de armas letales autónomas completamente controladas por inteligencias artificiales.

Postura del Pentágono

Estas salvaguardas de Anthropic entran en conflicto directo con la postura del Pentágono, que exige que los proveedores de tecnología permitan el uso de sus soluciones, tanto de software como de hardware, para cualquier propósito legal definido por las autoridades militares, sin que existan vetos externos. Según el Gobierno de Estados Unidos, mientras la Constitución y las leyes del país lo permitan, ninguna empresa privada debería imponer límites al uso de su tecnología.

El Incidente Maduro

Las tensiones se intensificaron cuando se reveló que el modelo Claude fue utilizado en una operación de las fuerzas especiales de EE.UU. en enero para capturar al expresidente venezolano, Nicolás Maduro. Este incidente destacó la dependencia del ejército estadounidense en Claude: actualmente, Anthropic es la única empresa de IA que funciona en sistemas clasificados del Pentágono, lo cual concede a la empresa un poder notable que ahora el Gobierno de Estados Unidos pretende debilitar.

Estrategia Inquietante del Pentágono

La estrategia del Pentágono resulta preocupante desde el punto de vista legal. Hasta ahora, hay tres grandes posibilidades de actuación. Esta situación ha generado un embrollo que tiene su origen en las medidas y límites éticos que la administración Biden había impulsado anteriormente para restringir la aplicación de la IA, medidas que cambiaron bajo el mandato de Donald Trump.

Lanzamiento de Claude Gov

En junio de 2025, Anthropic lanzó Claude Gov, una serie especializada de modelos de IA diseñados específicamente para ser utilizados por agencias nacionales de EE.UU. en los ámbitos de seguridad, defensa e inteligencia. Estos modelos fueron ofrecidos por un precio simbólico de 1 dólar, asegurando así su preferencia por parte del Gobierno frente a los competidores. Poco después, el Departamento de Defensa otorgó a la empresa un contrato por valor de 200 millones de dólares.

Posturas Enfrentadas

Anthropic se presenta como defensor de ciertos límites en el uso de sus modelos de IA. El Departamento de Defensa no está de acuerdo, argumentando que el uso militar de cualquier tecnología debe estar regulado solo por la Constitución o las leyes de EE.UU. Anthropic, sin embargo, sostiene que su intención es apoyar la misión de seguridad nacional dentro de los límites de lo que sus modelos pueden hacer de manera fiable y responsable.

El Dilema Legal

Si el Pentágono cumple su amenaza, se marcaría un precedente donde el Estado podría intervenir en la propiedad intelectual de una empresa de software bajo el pretexto de una emergencia nacional. Esto obligaría a todos los gigantes tecnológicos a decidir si están dispuestos a ceder el control completo de sus desarrollos tecnológicos al ejército o a arriesgarse a ser intervenidos bajo una ley de hace casi 80 años.