El sector de la inteligencia artificial aguarda con expectación el próximo mes de marzo. Jensen Huang, CEO de NVIDIA, ha confirmado que la compañía revelará un nuevo hardware diseñado para desafiar los límites de la física actual durante el evento GTC 2026. Esta noticia llega en un momento crítico, donde la demanda de cómputo para modelos de lenguaje masivos exige una eficiencia que las arquitecturas actuales apenas logran sostener.
La relevancia de este anuncio radica en la integración de tecnologías que hasta hace poco se consideraban experimentales. Tras una reunión estratégica con ingenieros de SK Hynix, Huang dejó claro que la arquitectura de chips IA está a punto de dar un salto cualitativo. Con la competencia de AMD y los chips personalizados de Amazon y Google acechando, la firma de Santa Clara busca reafirmar su hegemonía con una pieza de silicio que promete ser la más compleja jamás fabricada en serie.

El chip de NVIDIA que superará los límites de la física en 2026
El centro de todas las miradas es la evolución de la plataforma Vera Rubin, cuya llegada al mercado está prevista para la segunda mitad de este año. Los analistas sugieren que el «chip sorprendente» mencionado por Huang no es otro que el Rubin R100, una GPU que implementa por primera vez la memoria HBM4 apilada directamente sobre la matriz lógica. Este diseño busca eliminar el histórico cuello de botella en la transferencia de datos que ha frenado el avance de la inteligencia artificial generativa.
Hemos preparado varios chips nuevos que el mundo nunca ha visto antes. Nada es fácil porque todas las tecnologías están en sus límites, afirmó Jensen Huang.
Arquitectura Rubin y el fin de los cuellos de botella
La arquitectura de chips IA de nueva generación se apoya en una colaboración sin precedentes con TSMC y SK Hynix. El sistema Vera Rubin NVL144 será el estandarte de esta transición, utilizando un proceso de 3nm optimizado para soportar un ancho de banda de memoria de hasta 13 TB/s. A diferencia de la generación Blackwell, Rubin introduce la Vera CPU, un procesador basado en ARM que trabaja en simbiosis total con la GPU para maximizar la eficiencia energética en centros de datos.
Este avance es vital para las empresas que despliegan modelos de escala exaflop. La integración de HBM4 no solo aumenta la capacidad, sino que reduce drásticamente el consumo por cada consulta procesada, una métrica que se ha vuelto la obsesión de los gigantes de la nube en 2026.
Feynman y la fotónica de silicio: ¿Un vistazo al futuro?
Aunque el enfoque inmediato es Rubin, los rumores apuntan a que Huang podría mostrar un prototipo funcional de la arquitectura Feynman. Este proyecto, planeado originalmente para 2028, representa el salto al proceso A16 (1.6nm) de TSMC. Lo verdaderamente disruptivo de Feynman sería la introducción de la fotónica de silicio, sustituyendo las señales eléctricas por luz para mover datos entre componentes.
Si NVIDIA logra demostrar esta tecnología en el GTC 2026, estaría adelantando dos años la hoja de ruta de la industria. El uso de luz permitiría velocidades de interconexión que harían parecer obsoletos a los actuales sistemas NVLink, superando definitivamente las restricciones impuestas por la Ley de Moore.
Competencia y el muro de la escalabilidad
NVIDIA no camina sola en este escenario de 2026. AMD ha ganado terreno con su serie MI450, y el silicio personalizado de Microsoft (Maia) y Google (TPU v8) ya ofrece alternativas sólidas para cargas de trabajo específicas. Existe, además, una preocupación técnica creciente: el «muro de la escalabilidad», donde simplemente añadir más potencia no garantiza modelos más inteligentes. El chip que Huang presentará en San José pretende romper este estancamiento mediante una arquitectura que prioriza la densidad de datos y la latencia mínima sobre la fuerza bruta.
La cita en el SAP Center de San José el próximo 16 de marzo será el termómetro definitivo para una industria que invierte miles de millones en infraestructura. Lo que la compañía ponga sobre la mesa determinará si el ritmo de la revolución de la IA mantiene su aceleración o si entramos en una etapa de optimización incremental.

Comentarios!