NVIDIA y Google Cloud anuncian A5X y Blackwell para fábricas de IA
Alianza amplía infraestructura de IA con A5X, Gemini y Blackwell: hasta 10x menos costo por token, escalado a 960,000 GPUs y cómputo confidencial.
NVIDIA y Google Cloud anunciaron hoy, 22 de abril de 2026, una colaboración ampliada durante el evento Google Cloud Next en Las Vegas. El objetivo central es llevar la inteligencia artificial —tanto la IA agéntica (sistemas que actúan de forma autónoma para completar tareas complejas) como la IA física (aplicada a robots, fábricas y entornos industriales)— desde los laboratorios hasta entornos de producción real en las empresas.
El anuncio incluye las nuevas instancias A5X, servidores de cómputo de alto rendimiento en modalidad bare metal, es decir, sin capas intermedias de virtualización, lo que permite aprovechar al máximo el hardware. Estos servidores ejecutan Gemini —el modelo de lenguaje de Google— dentro de Google Distributed Cloud, una solución que permite desplegar la infraestructura de Google en las instalaciones del propio cliente, fuera de la nube pública. Todo corre sobre GPUs Blackwell y Blackwell Ultra, los chips de última generación de NVIDIA diseñados específicamente para cargas de trabajo de inteligencia artificial a escala masiva.
También se incluyen máquinas virtuales confidenciales con Blackwell: instancias que mantienen los datos y prompts cifrados incluso durante el procesamiento, lo que es crítico para empresas que trabajan con información sensible. Además, se integra la Gemini Enterprise Agent Platform con Nemotron y NeMo, herramientas de NVIDIA para construir y personalizar agentes de IA y modelos de lenguaje dentro de flujos de trabajo empresariales. Para los negocios, la mejora más destacada es una reducción de hasta 10 veces en el costo por token —la unidad básica de procesamiento de texto en IA— y un rendimiento hasta 10 veces mayor por megavatio consumido, frente a la generación anterior de hardware.
En cuanto a la infraestructura subyacente, la plataforma A5X se sustenta en la arquitectura NVIDIA Vera Rubin NVL72, que combina 72 GPUs Rubin interconectadas, junto con ConnectX-9 SuperNICs —tarjetas de red de altísima velocidad— y la red Google Virgo, que une todos estos componentes con un ancho de banda excepcional. Este diseño permite escalar hasta 960,000 GPUs Rubin en clústeres distribuidos en múltiples centros de datos (multisitio), con hasta 80,000 GPUs por sitio, formando supercomputadoras de IA de escala sin precedentes.
Gemini dentro de Google Distributed Cloud opera sobre chips NVIDIA Blackwell y Blackwell Ultra con soporte de VMs confidenciales, que mantienen cifrados tanto los prompts (las instrucciones enviadas al modelo) como los datos de respuesta. Entre los primeros clientes ya en producción con esta arquitectura figuran OpenAI —que la usa para inferencia a gran escala en sus servidores GB300 y GB200 NVL72— además de Thinking Machines Lab y CrowdStrike. Todo esto permite a las empresas entrenar modelos desde cero, ajustarlos con sus propios datos y desplegarlos en producción con mayor eficiencia energética y garantías de privacidad, todo dentro de una plataforma unificada.
Puedes encontrar más información en: