Durante mucho tiempo, la compañía Nvidia ha sido el sinónimo de potencia en IA. Sus GPU impulsan desde los modelos de lenguaje más avanzados hasta los sistemas de visión por ordenador. Sin embargo, el mercado parece haber encontrado un contrapeso inesperado: las TPU de Google, una tecnología creada hace una década que hoy se perfila como un rival más serio.
Lo que empezó como un proyecto interno para mejorar el motor de búsqueda de Google, se ha convertido en una alternativa cada vez más sólida para entrenar y ejecutar modelos de IA de alto rendimiento. Con su última generación, TPU v7 Ironwood, el gigante de las búsquedas se posiciona como un jugador de peso frente al dominio casi absoluto de Nvidia.
Qué hace diferentes a las TPU de Google frente a las GPU de Nvidia
Según informa Bloomberg, ambas tecnologías están diseñadas para realizar los cálculos masivos que exige la IA, pero lo hacen de forma distinta. Las GPU de Nvidia nacieron para los videojuegos, optimizadas para procesar gráficos en paralelo; con el auge de la IA, esa misma capacidad las volvió ideales para entrenar redes neuronales profundas.
En cambio, las TPU (Tensor Processing Unit) fueron diseñadas desde cero para una tarea muy especifica: la multiplicación de matrices, el núcleo matemático que permite a los modelos de IA aprender y generar respuestas. Su arquitectura especializada las hace menos versátiles, pero mucho más eficientes energéticamente.
Según ha explicado el analista de Seaport Research, Jay Goldberg, Google puede «eliminar muchas otras partes del chip que no están diseñadas para IA», lo que permite optimizar el rendimiento y reducir costos operativo.
Nvidia va una generación por delante de la industria”, afirmó un portavoz de la compañía. “Estamos encantados con el éxito de Google: han logrado grandes avances en IA y seguimos siendo sus proveedores.
El resurgir de las TPU en la era de la inteligencia artificial generativa
El desarrollo de las TPU de Google comenzó allá por 2013, con una visión clara: acelerar las cargas de trabajo internas de aprendizaje automático. Desde entonces, su evolución ha sido constante. En 2018 la compañía integro sus TPU en la nube de Google Cloud, ofreciendo a terceros acceso a la misma infraestructura que impulsa sus propios productos.
La versión más reciente es la TPU v7 Ironwood, la cual incluye refrigeración líquida y está optimizada para tareas de inferencia, es decir, la fase en la que un modelo de IA ya entrenado genera resultados. Puede escalarse desde módulos de 256 chips hasta configuraciones masivas de más de 9,000 unidades interconectadas.
Compañías como Anthropic, Salesforce, Midjourney y Safe Superintelligence ya implementan TPU para entrenar y desplegar sus modelos. En octubre de 2025, Google anunció un acuerdo con Anthropic que le garantizará acceso a un millón de TPU, mientras que Meta evalúa incorporarlas en sus centros de datos a partir de 2027.
Una competencia necesaria para el ecosistema de IA
El dominio de Nvidia ha generado un cuello de botella en la industria: altos costos, escasez de chips y dependencia tecnológica. Las TPU de Google ofrecen un camino alternativo, especialmente atractivo para compañías que buscan reducir costos energéticos y acelerar tiempos de entrenamiento.
Sin embargo, Google no pretende reemplazar a Nvidia. La estrategia parece apuntar a una coexistencia tecnológica, donde las TPU se usen para tareas optimizadas y las GPU de Nvidia para cargas más flexibles. De hecho, Google continúa siendo uno de los mayores clientes de Nvidia, lo que refleja una realidad pragmática: en la carrera por la IA, toda la potencia de cómputo cuenta.
En este contexto, el futuro de las TPU de Google podría no ser el de una sustitución directa, sino el de un complemento esencial dentro del ecosistema que sostiene el crecimiento exponencial de la inteligencia artificial moderna.

Comentarios!