xAI de Musk planea construir una «Gigafactoría de computación» en 2025 con 100.000 GPU H100 de Nvidia.

Los planes no podían esperar a las GPU H200 o Blackwell.

0
15

xAI, la startup de IA de Elon Musk, planea construir un enorme superordenador para mejorar su chatbot de IA, Grok, informa Reuters citando a The Information. El superordenador, al que Elon Musk se refiere como Gigafactory of Compute, estará listo en otoño de 2025 y podría implicar una colaboración con Oracle. Con este desarrollo, Musk pretende superar significativamente a los clusters de GPU rivales tanto en tamaño como en capacidad.

En una presentación para inversores, Elon Musk reveló que el nuevo superordenador utilizará nada menos que 100.000 GPU H100 de Nvidia basadas en la arquitectura Hopper, lo que lo hará al menos cuatro veces mayor que los mayores clusters de GPU existentes, según The Information. Las GPU H100 de Nvidia son muy codiciadas en el mercado de chips para centros de datos de IA, aunque la fuerte demanda dificultó su obtención el año pasado. Sin embargo, ya no son las GPU de gama alta de Nvidia de antaño, puesto que la compañía verde está a punto de lanzar sus GPU de cálculo H200 para aplicaciones de IA y HPC y se prepara para comercializar sus GPU B100 y B200 basadas en Blackwell en la segunda mitad del año.

No está claro por qué xAI decidió utilizar esencialmente una tecnología de generación anterior para su superordenador de 2025, pero esta importante inversión en hardware debe reflejar la escala de las ambiciones de xAI. Hay que tener en cuenta que se trata de un informe no oficial y que los planes podrían cambiar. Sin embargo, Musk se considera «personalmente responsable de entregar el superordenador a tiempo», ya que el proyecto es muy importante para desarrollar grandes modelos lingüísticos.

xAI pretende competir directamente con gigantes de la IA como OpenAI y Google. Musk, que también cofundó OpenAI, sitúa a xAI como un rival formidable en el espacio de la IA, que es exactamente la razón por la que necesita el próximo superordenador. El modelo Grok 2 necesitó unas 20.000 GPU Nvidia H100 para el entrenamiento, y futuras iteraciones, como Grok 3, necesitarán hasta 100.000 GPU, según Musk.

Ni xAI ni Oracle han hecho comentarios al respecto. Por razones obvias, este silencio deja abiertos a la especulación algunos aspectos de la asociación y del proyecto de superordenadores. No obstante, la presentación de Musk a los inversores subraya su compromiso de ampliar los límites de la tecnología de IA mediante importantes inversiones en infraestructuras y asociaciones estratégicas.

Fuente WEB | Editdo por CambioDigital OnLine

Custom Text
  • ETIQUETAS
  • X
Artículo anterior¿Cuáles son las principales ciberamenazas de la IA en 2024?
Artículo siguienteNadie está a salvo: Elon Musk predice que la IA vendrá a por todos nuestros trabajos