Lo más interesante en torno a la inteligencia artificial no ocurre entre modelos, sino entre las instituciones que quieren controlarlos. El enfrentamiento entre Anthropic y el Pentágono empezó aparentemente como una disputa contractual, pero pronto reveló algo más profundo: quién tiene derecho a fijar los límites del uso de modelos de IA cuando intervienen el ejército, el Estado y la política.
La jueza Rita Lin ha emitido una orden preliminar que bloquea la ejecución de la decisión de la administración Trump —impulsada por Pete Hegseth— de incluir a Anthropic en una lista negra y etiquetarla como riesgo en la cadena de suministro. La ejecución se pospone siete días para que el gobierno pueda buscar amparo en apelación. El núcleo del fallo es incómodo para Washington: el tribunal no encontró una base legal convincente para la medida, pero sí detectó algo más sencillo: un intento de castigar a la empresa por oponerse públicamente al uso de Claude en vigilancia masiva de ciudadanos estadounidenses y en armamento totalmente autónomo.
TRIBUNAL DE DISTRITO DE LOS ESTADOS UNIDOS
DISTRITO NORTE DE CALIFORNIAANTHROPIC PBC,
Demandante,v.
DEPARTAMENTO DE GUERRA DE EE. UU., et al.,
Demandados.N.º de caso: 26-cv-01996-RFL
ORDEN QUE CONCEDE LA SOLICITUD DE MEDIDA CAUTELAR PRELIMINAR
Ref.: Doc. N.º 6I. INTRODUCCIÓN
Este caso aborda un importante debate de interés público. Anthropic sostiene que su producto de inteligencia artificial, Claude, no está preparado para un uso seguro en armas letales totalmente autónomas ni para la vigilancia masiva de los estadounidenses. Si el gobierno de los Estados Unidos desea utilizar su tecnología, Anthropic insiste en que debe comprometerse a no emplearla con esos fines.
Por otro lado, el Departamento de Guerra afirma que le corresponde decidir qué funciones son seguras para que sus herramientas de IA las desempeñen, y no a una empresa privada. Esta cuestión de política pública no es algo que este Tribunal deba resolver en el presente litigio. Es prerrogativa del Departamento de Guerra determinar qué producto de IA utilizará.
Todas las partes, incluida Anthropic, coinciden en que el Departamento de Guerra puede legítimamente dejar de utilizar Claude y buscar un nuevo proveedor de IA que permita “todos los usos legales” de su tecnología. Sin embargo, de eso no trata este caso.
Una línea que las demás empresas no han trazado
Para el usuario de Claude, esto es por ahora más una señal que un impacto directo, ya que el acceso comercial y de consumo no era el centro del conflicto. Lo relevante ocurre un piso más arriba. Anthropic no solo negocia precio y condiciones de licencia con el Estado: impone límites sobre qué usos del modelo acepta. Frente a OpenAI, Google o xAI —que tienden al pragmatismo— Anthropic convierte la cautela en parte del producto. Eso es un movimiento mucho más arriesgado.
El fallo conecta dos debates previos: el papel de la IA militar y la responsabilidad de sus proveedores. Si la orden sobrevive la apelación, las empresas tendrán un argumento más sólido para defender sus propias restricciones de seguridad sin miedo a represalias políticas. Si cae, el sector recibirá un mensaje frío: en un contrato con el gobierno, la ética del producto puede acabar siendo un accesorio, no un principio.
Fuente: Reuters, BBC News, CBS News, Anthropic, Justia



