Anthropic no cedió: el plazo del Pentágono venció y la IA más usada en defensa de EE.UU. sigue con sus límites intactos
Imagen generda con IA

Anthropic no cedió: el plazo del Pentágono venció y la IA más usada en defensa de EE.UU. sigue con sus límites intactos

El CEO de Anthropic publicó su posición final: ni vigilancia masiva ni armas autónomas. El Pentágono amenaza con bloquearla. OpenAI y Google esperan en la fila. El límite entre ética corporativa y poder estatal nunca había sido tan caro.

Dario Amodei lo dejó por escrito: Anthropic no va a eliminar sus restricciones de uso militar. El CEO publicó una declaración formal horas antes del vencimiento del ultimátum del Departamento de Guerra — fijado para hoy, viernes, a las 5:01 PM hora de Washington.

Las dos líneas rojas siguen en pie: no vigilancia masiva de ciudadanos estadounidenses, no armas autónomas que operen sin intervención humana. El Pentágono exigía autorización para 'cualquier uso legal' sin condiciones. Anthropic dijo que no.

La respuesta del gobierno fue predecible en tono, contradictoria en lógica. El Departamento amenazó con etiquetar a Anthropic como 'riesgo para la cadena de suministro' — categoría reservada para adversarios extranjeros — y simultáneamente con invocar la Ley de Producción de Defensa para obligarla a cooperar. Amodei lo señaló sin rodeos: 'Una nos llama riesgo de seguridad; la otra llama a Claude esencial para la seguridad nacional.'

¿Qué sigue?

Si el Pentágono ejecuta sus amenazas, Anthropic quedaría bloqueada de contratos de defensa. OpenAI, Google y Palantir — que no impusieron restricciones similares — están listos para ocupar ese espacio. Amodei ya anticipó una transición ordenada si es necesario.

El contrato en juego es de $200 millones. La pregunta que queda es más cara: ¿puede una empresa privada mantener límites éticos sobre cómo los gobiernos usan su tecnología? Hoy, Anthropic apostó que sí.

Anthropic (Claude) le dice no al Pentágono y abre un choque sobre el control de la IA
La negativa de Anthropic al Pentágono marca un quiebre inusual en la industria: una empresa de IA imponiendo límites al uso militar. El desafío abre riesgos regulatorios, presión económica y un debate global sobre quién controla la tecnología.
Logo Nexo

Regístrate aquí para recibir nuestro newsletter

Cargando...