La IA que preocupa a gobiernos y bancos: Anthropic revela Mythos tras su choque con el Departamento de Guerra
Anthropic revelo Mythos, un modelo de IA capaz de explotar vulnerabilidades en sistemas criticos globales. El anuncio llega tras su choque con el Departamento de Guerra de EE.UU., que la declaro riesgo para la seguridad nacional por negarse a armar sistemas autonomos sin supervision humana.
Un modelo demasiado peligroso para el publico general
El 7 de abril de 2026, Anthropic anuncio que habia entrenado un modelo de IA con capacidades de ciberseguridad sin precedente: Claude Mythos Preview. La empresa decidio que era demasiado riesgoso liberarlo al publico y lo restringio a unas 50 organizaciones estadounidenses bajo el Proyecto Glasswing.
La decision no fue discreta. En dos semanas, Mythos se habia convertido en una pieza geopolitica de primer orden. El modelo localiza errores latentes en codigo de decadas de antiguedad y los explota en minutos. En sus pruebas encontro miles de vulnerabilidades de alta gravedad en todos los principales sistemas operativos y navegadores del mundo.
"Mythos Preview ya ha encontrado miles de vulnerabilidades de alta gravedad, incluidas algunas en todos los principales sistemas operativos y navegadores web", afirmo Anthropic el 7 de abril.
Mas del 99% de esas vulnerabilidades no habian sido corregidas al momento del anuncio. Publicar los detalles tecnicos significaba exponer al mundo a un riesgo masivo; no publicarlos generaba dudas sobre la transparencia de la empresa.
Anthropic: de laboratorio de seguridad a empresa de $380 mil millones
Los principales hitos desde su fundación hasta Claude Mythos, el modelo que encendió alarmas globales
Fuentes: Wikipedia, Sacra Research, Revista Mercado, La Nación Argentina, El Mostrador · Elaboración: Nexo
De laboratorio de seguridad a empresa de $380,000 millones
Anthropic fue fundada en 2021 por Dario y Daniela Amodei, junto a cinco ex empleados de OpenAI, con la premisa de que la inteligencia artificial podria ser extremadamente peligrosa si no se desarrollaba con cautela. Cinco anos despues, la empresa que nacio de ese temor cotiza una valoracion de $380,000 millones y supero, segun estimaciones de Bloomberg y Sacra Research, los $30,000 millones en ingresos anualizados en abril de 2026 —el crecimiento mas rapido de la historia del software empresarial.
El trayecto fue acelerado. En 2023, Amazon anuncio una inversion de hasta $4,000 millones. En marzo de 2024, la familia Claude 3 supero a GPT-4 de OpenAI en varios benchmarks y los ingresos se multiplicaron casi diez veces en doce meses. En febrero de 2026, Anthropic cerro una Serie G de $30,000 millones liderada por GIC y Coatue, la mayor ronda de financiamiento en su historia, con una valoracion de $380,000 millones.
En mayo de 2025, Claude 4 fue el primer modelo en alcanzar el Nivel 3 de seguridad en su Responsible Scaling Policy. Claude Code, lanzado en febrero de 2025, alcanzo por si solo $2,500 millones en ingresos anualizados al ano siguiente.
El mercado: tres grandes y una carrera sin fin
Anthropic no opera en el vacio. Compite directamente con OpenAI —creadora de ChatGPT y GPT-4o, respaldada por Microsoft con mas de $13,000 millones invertidos desde 2019— y con Google DeepMind, que desarrolla la familia Gemini e integra sus modelos en Search, Workspace y Cloud. Mas atras, pero con recursos practicamente ilimitados, Meta AI aposto por la estrategia opuesta: liberar sus modelos Llama de forma abierta, democratizando el acceso pero generando debate sobre el riesgo de proliferacion.
Hasta hace poco, la narrativa era que OpenAI lideraba en capacidades generales y Anthropic se diferenciaba por seguridad y razonamiento. Esa distincion se ha ido borrando. En los benchmarks de 2024, Claude 3 Opus supero a GPT-4; en 2025, Claude 4 y GPT-4o compitieron al mismo nivel en codigo y logica. Con Mythos, Anthropic abre un frente completamente nuevo: capacidades ofensivas de ciberseguridad donde ningun competidor ha hecho anuncios equivalentes todavia.
Anthropic cree que en los proximos meses otras companias conseguiran modelos con capacidades similares a las de Mythos. Entonces, el riesgo aumentara mucho mas.
El contexto geopolitico agrava la disputa. China cuenta con sus propios modelos de frontera —DeepSeek, Qwen, Ernie— que han sorprendido al mercado occidental. Investigadores chinos han expresado en privado su preocupacion por quedar rezagados ante Mythos, un modelo al que no tienen acceso y cuyas capacidades podrian usarse para encontrar vulnerabilidades en infraestructura critica que tambien opera en su territorio.
La linea roja: armas autonomas y el choque con el Departamento de Guerra
Antes de que Mythos existiera, Anthropic ya habia librado su batalla mas dura con el gobierno estadounidense. En julio de 2025, el Departamento de Defensa —hoy denominado Departamento de Guerra bajo un decreto ejecutivo de Trump— habia contratado a Anthropic, OpenAI, Google y xAI con hasta $200 millones cada una para acelerar el uso militar de la IA. Claude era, segun la propia empresa, el modelo de IA mas desplegado en todo el aparato de defensa de EE.UU.
El conflicto estallo en enero de 2026 cuando el Pentagono exigio a Anthropic autorizar el uso de Claude para "todos los propositos legales" —una formula que, en lectura de Anthropic, abria la puerta a dos usos que la empresa habia declarado inaceptables: la vigilancia masiva de ciudadanos estadounidenses y los sistemas de armas totalmente autonomos sin supervision humana.
Dario Amodei rechazo el ultimatum con dos argumentos: primero, que los modelos de IA actuales no son suficientemente confiables para tomar decisiones letales autonomas y que hacerlo "pondria en peligro a soldados y civiles"; segundo, que la vigilancia masiva domestica constituye una violacion de derechos fundamentales.
El 27 de febrero de 2026, a las 5:14 p.m., Trump ordeno a todas las agencias federales "CESAR INMEDIATAMENTE el uso de la tecnologia de Anthropic". Hegseth designo a la empresa un "riesgo para la cadena de suministro de seguridad nacional" y dio seis meses para que contratistas y socios militares cortaran todo vinculo comercial con ella.
Horas despues del anuncio, OpenAI firmo un contrato con el Pentagono para llenar el vacio dejado por Anthropic en sistemas clasificados. Sam Altman afirmo que su acuerdo incluia salvaguardas similares a las que Anthropic habia exigido —pero la rapidez del movimiento genero una ola de criticas publicas contra OpenAI por haber aprovechado la caida de su rival.
Anthropic presento una demanda civil el 9 de marzo. En ese mismo mes, una jueza federal otorgo una medida cautelar, determinando que el gobierno habia represaliado ilegalmente a Anthropic por llevar el debate a la prensa, en violacion de la Primera Enmienda. En abril, un tribunal de apelaciones nego levantar la designacion mientras el caso continua —pero la empresa siguio operando.
La paradoja de Anthropic: seguridad y aceleracion simultaneas
El conflicto con el Departamento de Guerra expuso la tension central de Anthropic: la empresa que se niega a armar maquinas autonomas es la misma que acaba de revelar un modelo capaz de comprometer la infraestructura critica del planeta. Reportes de Vox y otros medios senalaron ademas que Anthropic presiono en Washington para debilitar legislacion que impondria estandares de seguridad a los modelos avanzados.
A eso se suma la renuncia en febrero de 2026 de Mrinank Sharma, responsable de salvaguardas de seguridad, quien publico una carta afirmando que "el mundo esta en peligro". Su salida alimento el debate sobre si las grandes empresas de IA pueden autorregularse o si la intervencion estatal es inevitable.
Lo que sigue: una carrera que no espera
La respuesta global a Mythos revela una tension sin solucion sencilla: las capacidades que hacen al modelo peligroso en manos equivocadas son exactamente las que lo hacen valioso para defender infraestructura critica. Mientras Anthropic gestiona el acceso, la pregunta es cuanto tiempo tardara OpenAI, Google o un laboratorio chino en llegar al mismo punto.
El debate de fondo sigue sin resolverse: puede una empresa privada con sede en San Francisco, fundada sobre el principio del riesgo existencial de la IA, gestionar sola las implicaciones geopoliticas de su propio producto? La respuesta de Bruselas, Londres, Pekin —y ahora Washington— sugiere que no.
Fuentes: El Pais, BBC News Mundo, NPR, Wikipedia, Electronic Frontier Foundation, Center for American Progress, Eurasian Review, Congress.gov · Datos: Sacra Research, Revista Mercado · 28 de abril de 2026.