En el marco del CES 2026, Jensen Huang ha desvelado lo que muchos expertos ya califican como el "punto de inflexión" definitivo para la infraestructura de datos: la plataforma NVIDIA Rubin. Esta nueva arquitectura, sucesora de la ya potente Blackwell, no es solo un chip, sino un ecosistema de seis procesadores diseñados bajo un concepto de "co-diseño extremo" para dominar la era de la IA Agéntica.
Nombrada en honor a la astrónoma estadounidense Vera Rubin, pionera en el estudio de la materia oscura, esta plataforma introduce componentes que redefinen la velocidad de cómputo:
Vera CPU: El primer procesador central de NVIDIA diseñado específicamente para mover datos a escala masiva, con 88 núcleos personalizados Olympus basados en arquitectura Armv9.2.
Rubin GPU: Fabricada con el proceso de 3nm de TSMC, cada GPU integra la nueva memoria HBM4 con un ancho de banda asombroso de hasta 22 TB/s, duplicando la capacidad de sus predecesoras.
NVLink 6 y Spectrum-X: Los nuevos sistemas de interconexión permiten que miles de estas GPUs trabajen como una sola unidad gigante, reduciendo drásticamente los cuellos de botella en el entrenamiento de modelos de lenguaje masivos.
Las cifras presentadas por NVIDIA y analizadas por fuentes como VentureBeat y MIT Technology Review son contundentes. En comparación con la generación Blackwell, la plataforma Rubin ofrece:
Reducción de costes: La inferencia (ejecución de IA) es hasta 10 veces más barata por token generado.
Velocidad de entrenamiento: Multiplica por 4 la capacidad de entrenamiento para modelos de tipo Mixture-of-Experts (MoE), los más avanzados actualmente.
Eficiencia energética: Gracias a la fotónica de silicio en sus switches Spectrum-X, la eficiencia por vatio ha mejorado un 500%, un alivio crítico para los centros de datos que luchan contra el consumo eléctrico.
"La plataforma Rubin no solo es más rápida; es el motor que permitirá que la IA pase de responder preguntas a ejecutar tareas complejas de forma autónoma", afirmó Jensen Huang durante su presentación.
Aunque Rubin está orientado inicialmente a gigantes como Microsoft, Amazon y Google (quienes ya han confirmado su despliegue para la segunda mitad de 2026), su sombra se extiende hasta el mercado de consumo. Informes de The Verge sugieren que la demanda masiva de memoria HBM4 y componentes de 3nm para estos supercomputadores podría provocar una escasez de componentes en la gama alta de tarjetas gráficas RTX para 2026.
Además, NVIDIA ha introducido la Inference Context Memory Storage, una tecnología de almacenamiento nativa para IA que permite manejar contextos de conversación casi infinitos, eliminando la "amnesia" que sufren los modelos actuales cuando se les pide analizar documentos de miles de páginas.
Con el lanzamiento de Rubin, NVIDIA no solo mantiene su liderato, sino que establece un estándar que AMD e Intel tendrán difícil alcanzar a corto plazo. La integración total de CPU, GPU y redes en un solo rack optimizado significa que el tiempo de salida al mercado (time-to-market) para la próxima generación de modelos (GPT-5 y más allá) se reducirá de meses a semanas.