Microsoft y NVIDIA han anunciado la implementación del primer clúster de supercomputación GB200 NVL72 en la nube Azure, una infraestructura diseñada para acelerar el desarrollo de modelos de inteligencia artificial de gran escala. Este avance marca un hito en la colaboración entre ambas compañías, que desde hace años trabajan conjuntamente para ofrecer capacidades de cómputo avanzadas a organizaciones como OpenAI.
El clúster GB200 NVL72 está basado en la arquitectura Blackwell de NVIDIA, presentada en marzo de 2024. Esta arquitectura combina dos unidades GPU GB200 con una CPU Grace, conectadas mediante el sistema NVLink, lo que permite una comunicación de alta velocidad entre componentes. Cada módulo NVL72 integra 72 GPUs y 36 CPUs, y está diseñado para operar como una única unidad lógica, lo que facilita la ejecución de modelos de IA con billones de parámetros.
La infraestructura está optimizada para tareas de entrenamiento y ajuste fino de modelos de lenguaje de gran tamaño (LLMs), así como para aplicaciones de inferencia en tiempo real. Según NVIDIA, el sistema puede reducir el consumo energético hasta en un 25 veces y acelerar el entrenamiento de modelos hasta en 30 veces en comparación con arquitecturas anteriores.
Microsoft ha integrado este clúster en su plataforma Azure AI, que ya ofrece acceso a modelos de OpenAI como GPT-4 y DALL·E. La compañía también ha desarrollado herramientas como Azure AI Studio, que permite a desarrolladores y empresas construir, personalizar e implementar sus propios modelos de IA utilizando esta infraestructura.
El anuncio se enmarca en una tendencia más amplia de expansión de capacidades de cómputo para IA en la nube. Empresas como Google, Amazon y Meta también han invertido en arquitecturas especializadas para entrenamiento de modelos, aunque el enfoque de Microsoft y NVIDIA destaca por su integración vertical entre hardware, software y servicios en la nube.
Además del hardware, NVIDIA ha puesto a disposición su stack de software para IA generativa, incluyendo frameworks como NeMo y TensorRT-LLM, que permiten optimizar el rendimiento de los modelos en producción. Estos componentes están disponibles en Azure, lo que facilita su adopción por parte de desarrolladores.
La colaboración entre Microsoft y NVIDIA también contempla el uso de esta infraestructura por parte de OpenAI, que ha sido pionera en el desarrollo de modelos como ChatGPT. Aunque no se han revelado detalles específicos sobre los proyectos en curso, se espera que el nuevo clúster permita explorar arquitecturas más complejas y eficientes.
Este avance refleja el creciente interés por escalar la inteligencia artificial generativa, no solo en términos de capacidad de cómputo, sino también en eficiencia energética y accesibilidad para empresas. La disponibilidad de este tipo de infraestructura en la nube democratiza el acceso a tecnologías que antes estaban limitadas a centros de investigación con recursos especializados.
Fuente: nota de prensa CDOL | Editado por CDOL








































