Un tribunal federal le niega a Anthropic la suspensión de emergencia en su disputa con el Departamento de Guerra
Un tribunal federal de D.C. rechazó ayer el intento de Anthropic de suspender su designación como riesgo de cadena de suministro, la primera aplicada a una empresa estadounidense. La audiencia oral queda para el 19 de mayo.
Qué pasó
El Circuito de D.C. denegó el stay de emergencia. Los jueces Henderson, Katsas y Rao concluyeron que “el balance de equidad favorece al gobierno”: el daño a Anthropic es “principalmente financiero”, mientras que otorgar la suspensión obligaría al ejército a mantener a un proveedor de IA en medio de un conflicto militar activo.
El fallo no es el fin del caso. El mismo tribunal reconoció que Anthropic “probablemente sufrirá algún daño irreparable” y programó audiencia oral para el 19 de mayo, con un calendario acelerado de alegatos.
Cómo llegamos aquí
El choque tiene un origen contractual claro. Anthropic firmó en julio de 2025 el primer contrato de un modelo de IA frontera para redes clasificadas del gobierno estadounidense. El Departamento de Guerra quiso renegociar los términos para permitir “todos los usos legales” de Claude, incluyendo vigilancia masiva doméstica y armas autónomas letales. Anthropic se negó.
El CEO Dario Amodei se reunió el 24 de febrero con el secretario Hegseth, quien elogió las “exquisitas capacidades” de Claude pero presentó un ultimatum: aceptar los nuevos términos antes de las 5 p.m. del 27 de febrero, o enfrentar la designación. Anthropic rechazó el ultimatum.
En números
- $200 millones — valor estimado del contrato en disputa
- $10,000+ millones — lo que Anthropic ha invertido en entrenamiento de modelos (declaración jurada de su CFO)
- $60,000 millones — capital total levantado por la empresa
- +$500 millones — ingresos proyectados del sector público para 2026, que el jefe de ventas gubernamentales dijo podrían “desaparecer por completo”
- #2 en el App Store — posición que alcanzó Claude tras el anuncio de la designación, según el propio Amodei
Anthropic vs. Departamento de Guerra
Hitos del caso legal más importante en la historia de la IA militar
Fuentes: CourtListener, Mayer Brown, CNBC, Reason/Volokh · Abril 2026
Por qué importa
Es el primer caso en que el gobierno de EE.UU. usa la etiqueta de “riesgo de cadena de suministro” contra una empresa nacional. Hasta ahora, esa herramienta estaba reservada para adversarios extranjeros como Huawei y ZTE. Que se aplique a Anthropic —por negarse a eliminar salvaguardas de seguridad— establece un precedente que preocupa a toda la industria tecnológica.
El caso también divide a los tribunales: California bloqueó la designación bajo el §3252; Washington la permite bajo el §4713. El resultado define quién controla, en última instancia, los términos de uso de la IA más potente del mundo.
Nota metodológica: Los datos de este artículo provienen de documentos judiciales públicos (CourtListener, Justia), declaraciones juradas de ejecutivos de Anthropic ante el tribunal, y cobertura de CNBC, Reason/Volokh Conspiracy, SiliconAngle y Mayer Brown.
Fuentes: CourtListener · Reason/Volokh · CNBC · Mayer Brown · Anthropic