La compañía Microsoft acaba de mostrar cómo está construyendo el corazón tecnológico que impulsará su próximo salto en IA: una superfábrica de IA Azure, la cual esta diseñada para operar a escala planetaria. El anuncio ha llegado junto a la presentación del nuevo centro de datos Fairwater en Atlanta, un complejo que eleva la infraestructura de la compañía a un nivel nunca visto en la nube.
El movimiento no es menor. Este nuevo centro enlazará directamente con Fairwater de Wisconsin y con las supercomputadoras actuales de Azure IA, formando un tejido técnico enorme, unificado y pensado para sostener cargas de trabajo cada vez más pesadas. Lo que antes eran instalaciones aisladas, ahora se transforma en un único cerebro distribuido.
La nueva arquitectura de la superfábrica de IA Azure
En esta fase, Microsoft deja claro que su experiencia alojando y entrenando modelos de OpenAI ha sido clave. Los Redmond aseguran haber planteado desde cero el diseño de sus centros de datos de IA, apostando por una red plana capaz de coordinar cientos de miles de GPU NVIDIA GB200 y GB300 con una agilidad que antes no era posible.
Aquí aparece el primer gran cambio: el centro no se concibe como un conjunto de «islas de cálculo«, sino como un único sistema interconectado, preparado para absorber cargas extremas sin que la latencia o la energía se conviertan en un obstáculo insalvable.
Densidad extrema de GPU: racks personalizados con una colocación de muy alta densidad de GPU NVIDIA Blackwell/serie GB para reducir la latencia y aumentar la eficiencia de la comunicación GPU a GPU.
Cómo funciona esta nueva columna vertebral de Azure AI
El uso de la GPU en densidades tan elevadas obligan a pensar de forma distinta la ingeniería interna del centro. La compañía apuesta por un diseño que combina potencia, refrigeración avanzada y un sistema de red que elimina pasos intermedios. Cada elemento apunta al mismo objetivo: mover datos enormes con la mínima fricción posible.
La refrigeración líquida de circuito cerrado es uno de esos pilares. Al reutilizar la misma agua durante más de seis años, el sistema reduce casi a cero la evaporización y evita los problemas típicos de gestión térmica en clusters de GPU masivos. Esta aproximación no solo mantiene temperaturas estables, también permite ampliar la densidad por rack sin comprometer la estabilidad.
Otro punto crítico es el suministro de energía por rack por fila, que alcanza niveles poco habituales en la industria: 140 kW por rack y 1,36 MW por fila. Esto evita los cuellos de botella típicos cuando se integran aceleradores de última generación y garantiza que el hardware funcione siempre al máximo rendimiento.
Rediseñando la red para una IA de escala planetaria
La arquitectura de red también vive una transformación profunda, Microsoft apuesta por una topología Ethernet plana de dos niveles, con conectividad de 800 Gbps entre GPU y una infraestructura basada en SONiC, su propio sistema de red abierto. Esta elección reduce costes, simplifica operaciones y evita depender de un único proveedor de equipos críticos.
Por otra parte, las optimizaciones no se quedan en la capa física, el sistema integra recorte de paquete en tiempo real, dispersión inteligente y un reparto equilibrado de tráfico que mantiene el rendimiento elevado, incluso, en los picos de uso. En pocas palabras, el centro está diseñado para funcionar como una supercomputadora que no se «rompe» cuando la carga crece.
Pero lo más ambicioso aparece en la WAN de IA a escala planetaria. Los centros de datos de Atlanta y de Wisconsin estarán unidos por un troncal óptico dedicado, con la latencia mínima, que convierte instalaciones separadas para una única computadora global. Para cargas como el preentrenamiento de modelos gigantes o la generación masiva de datos sintéticos, esta unión es crucial.
Una infraestructura preparada para el futuro inmediato
Más allá de la ingeniería, el objetivo es claro: permitir que cualquier tipo de carga de IA se ejecute de manera eficiente en la misma plataforma. Desde el preentrenamiento hasta la inferencia, pasando por refuerzo, ajuste fino y creación de datos sintéticos, el centro se adapta a la evolución constante del sector.
Con este movimiento, Microsoft busca adelantarse a una demanda que crece de manera exponencial. La competición por liderar la infraestructura que entrenará los modelos más grandes del mundo ya está en marcha, y Fairwater Atlanta es la pieza más reciente y más ambiciosa en ese tablero.

Comentarios!