Anthropic (Claude) le dice no al Pentágono y abre un choque sobre el control de la IA
La negativa de Anthropic al Pentágono marca un quiebre inusual en la industria: una empresa de IA imponiendo límites al uso militar. El desafío abre riesgos regulatorios, presión económica y un debate global sobre quién controla la tecnología.
La IA ya no debate solo ética; ahora debate jurisdicción. Anthropic rechazó la solicitud del Pentágono para acceder sin límites a Claude, abriendo una disputa que define quién controla el uso de una tecnología con impacto militar y económico. El conflicto revela la línea difusa entre innovación privada y autoridad estatal en un sector que avanza más rápido que la regulación.
Chief executive Dario Amodei said the start-up ‘cannot in good conscience’ agree to the US government’s terms, citing concerns over lethal autonomous weapons and mass surveillance. https://t.co/0vq0lA8leq pic.twitter.com/H8R9pzsUdQ
— Financial Times (@FT) February 27, 2026
El eje del desacuerdo son las salvaguardas. Anthropic sostiene que eliminar restricciones podría habilitar vigilancia masiva o acciones autónomas indeseadas. El Departamento de Defensa insiste en que necesita flexibilidad operativa. Esa fricción no solo regula un modelo: establece qué tanto pueden los gobiernos obligar a las empresas a alinear su tecnología con intereses estratégicos.
Anthropic CEO just said Ai will wipe out 50% of lawyers, consultants, and finance professionals within 12 months: pic.twitter.com/3ZprUpnGgG
— ₕₐₘₚₜₒₙ (@hamptonism) February 27, 2026
La reacción económica es predecible. Una negativa pública al Pentágono eleva la percepción de riesgo regulatorio, añade incertidumbre para inversionistas y presiona a otras firmas de IA que aún negocian sus propios términos de uso militar. Si aumentan las exigencias estatales, los costos de cumplimiento podrían extenderse a toda la industria.
El desenlace marcará precedente. Si Anthropic cede, la IA se consolidará como infraestructura estratégica bajo supervisión gubernamental. Si no, las empresas tecnológicas mantendrán poder para imponer límites éticos. En ambos casos, queda claro que la geopolítica de la IA se definirá más en mesas regulatorias que en laboratorios.
Puedes encontrar más información en:
Regístrate aquí para recibir nuestro newsletter