Anthropic demandó a la administración de Donald Trump por declarar que el gigante de la inteligencia artificial representaba un riesgo para la cadena de suministro militar de Estados Unidos, tras una disputa con el Pentágono sobre las salvaguardas de la tecnología de la empresa.
La medida que tomó Estados Unidos, aprobada formalmente por el Departamento de Defensa el jueves 7 de marzo de 2026, amenaza cientos de millones de dólares en contratos y compromete la reputación de Anthropic, según alegó la compañía en su demanda judicial.
La razón de fondo radica en un conflicto no resuelto sobre las restricciones al uso militar de modelos de IA desarrollados por Anthropic que, hasta la reciente escalada, colaboraba activamente con agencias federales en la modernización tecnológica del Estado. “Estas acciones no tienen precedentes y son ilegales”, afirmó la empresa en una demanda presentada este lunes. “La Constitución no permite al gobierno ejercer su enorme poder para castigar a una empresa por su libertad de expresión protegida”.
En ese sentido, la disputa estalló cuando el Pentágono quiso utilizar Claude para cualquier fin dentro de los límites legales y sin restricciones de uso impuestas por Anthropic. La empresa había insistido en que el chatbot no se empleara para la vigilancia masiva de estadounidenses ni en operaciones armamentísticas totalmente autónomas. Estas posiciones opuestas derivaron en una escalada que se extendió durante dos semanas y culminó con la inclusión de Anthropic en la lista de riesgos para la cadena de suministro.
Para finalizar, un portavoz de la compañía declaró: «Recurrir a la justicia no modifica nuestro compromiso de emplear IA en defensa de la seguridad nacional, pero es un paso necesario para proteger a nuestros clientes y socios. Vamos a sostener el diálogo con el gobierno para buscar una solución».