Pentágono reabre diálogo con Anthropic y la disputa por IA se vuelve precedente para toda la contratación pública

Pentágono reabre diálogo con Anthropic y la disputa por IA se vuelve precedente para toda la contratación pública

Anthropic y el Pentágono negocian un contrato clave que podría fijar los estándares éticos para toda la contratación pública de IA en EE.UU.

Anthropic reabrió el 8 de marzo de 2026 conversaciones con el Department of Defense (Pentagon) para intentar salvar una renovación de hasta $200 millones, justo cuando el Pentágono acelera su gasto en IA en 2026. El caso dejó de ser un simple contrato: se ha convertido en la primera prueba real de hasta dónde pueden imponerse límites éticos en adquisiciones de defensa, con impacto directo sobre cómo se usará la IA en la vida diaria de cualquier persona.

Según TheStreet y AOL (citando FT), la empresa había desplegado modelos Claude en redes clasificadas para inteligencia, planificación y ciberoperaciones. El choque vino por la cláusula de 'lawful purpose', demasiado amplia para Anthropic, que advirtió que aceptar ese marco abriría la puerta a usos imposibles de auditar y que otros gobiernos intentarían replicar.

El rechazo derivó en su clasificación como 'supply chain risk', lo que suspendió el uso federal de Claude y bloqueó nuevas adquisiciones, aumentando la presión operativa en un Pentágono que sí necesita capacidades avanzadas de IA.

Ahora ambas partes buscan un punto intermedio: continuidad operativa sin renunciar a vetos explícitos sobre vigilancia masiva doméstica y armas autónomas sin control humano. El DoD pide flexibilidad; Anthropic exige límites que no puedan levantarse a discreción.

El acuerdo definirá hasta dónde llega el poder de la IA en manos del Estado y qué salvaguardas protegen a la población. Lo que hoy se negocia en una sala del Pentágono terminará incorporado en políticas públicas, estándares industriales y sistemas que interactúan con cada persona. Si esta postura queda plasmada en el contrato, podrá convertirse en estándar de contratación pública de IA en EE.UU.. El precedente no solo regula máquinas: regula el futuro de la supervisión humana.

Puedes encontrar más información en:

Logo Nexo

Regístrate aquí para recibir nuestro newsletter

Cargando...