Google y NVIDIA «reinventan» la nube y la informática con su alianza en IA

0
53

La IA generativa está revolucionando todas las capas de la pila de computación, y nuestras dos empresas -con dos de los equipos de informática y ciencias de la computación más talentosos y profundos del mundo- están uniendo fuerzas para reinventar la infraestructura en la nube para la IA generativa», afirma Jensen Huang, CEO de Nvidia.

El CEO de Nvidia, Jensen Huang, ha anunciado esta semana a miles de socios y clientes de Google que los dos titanes tecnológicos estrecharán su relación de co-innovación y comercialización para «reinventar la infraestructura en la nube» para la era de la IA generativa.

«La IA generativa está revolucionando cada capa de la pila de computación, y nuestras dos compañías -con dos de los equipos de informática y ciencias de la computación más talentosos y profundos del mundo- están uniendo fuerzas para reinventar la infraestructura de la nube para la IA generativa», dijo el CEO de Nvidia esta semana en el escenario con el CEO de Google Cloud Thomas Kurian en Google Cloud Next 2023.

«Estamos empezando en cada una de las capas: desde los chips, H100 para el entrenamiento y el procesamiento de datos, hasta el servicio de modelos con [GPU] Nvidia L4», dijo Huang. «Se trata de una reingeniería de toda la pila, desde los procesadores hasta los sistemas, las redes y todo el software. Todo ello para acelerar la IA Vertex de GCP [Google Cloud Platform] y crear software e infraestructura para los investigadores y desarrolladores de IA del mundo.»

Esta semana, en Google Cloud Next, las compañías han presentado varias ofertas nuevas destinadas a ayudar a los clientes a crear e implantar grandes modelos de IA generativa.

Esto incluye la integración de la oferta Spark sin servidor de Google con las GPU de Nvidia, nuevas instancias de Google A3 VM impulsadas por las GPU Nvidia H100 Tensor Core y PaxML de Google optimizado para la computación acelerada de Nvidida.

Nvidia y Google «reinventarán el software
PaxML es el nuevo marco de trabajo de Google para la creación de grandes modelos de lenguaje (LLM) masivos, que las compañías han estado diseñando conjuntamente durante algún tiempo. Permite a los desarrolladores utilizar las GPUs Nvidia H100 y A100 Tensor Core para una experimentación y escalado avanzados y totalmente configurables.

«Estamos trabajando juntos para rediseñar y reoptimizar la pila de software y reinventar el software», afirma Huang. «El trabajo que hemos realizado para crear marcos que nos permitan ampliar las fronteras de los grandes modelos lingüísticos distribuidos en infraestructuras gigantescas, de modo que podamos: ahorrar tiempo a los investigadores de IA; escalar a modelos gigantescos de próxima generación; ahorrar dinero; ahorrar energía: todo eso requiere una informática de vanguardia.»

«Así que hoy anunciamos el primer fruto de nuestro trabajo, llamado PaxML. Se trata de un gran marco de modelos de lenguaje, construido sobre JAX, construido sobre OpenXLA, y el trabajo de amor de algunos científicos informáticos increíbles», dijo el CEO de Nvidia. «Se trata de algo realmente innovador».

Google Cloud es la primera empresa en obtener el superordenador de IA Nvidia DGX GH200
Google Cloud será una de las primeras empresas del mundo en tener acceso al superordenador de IA Nvidia DGX GH200 -impulsado por el superchip Nvidia Grace Hopper- para explorar sus capacidades para cargas de trabajo de IA generativa.

«Nuestros equipos están empezando a construir la próxima generación de procesadores y la próxima generación de infraestructuras de IA. Google y nosotros, vamos a trabajar en una de las primeras instancias en el mundo de nuestro superordenador de IA de próxima generación llamado DGX GH200, basado en un nuevo chip revolucionario: Grace Hopper», afirmó. «Es un trabajo realmente increíble el que estamos haciendo juntos».

Además, la supercomputación y el software Nvidia DGX Cloud AI están listos para estar disponibles para los clientes de Google Cloud directamente desde su navegador web para proporcionar velocidad y escala para cargas de trabajo de formación avanzadas.

«Vamos a poner Nvidia DGX Cloud en GCP [Google Cloud Platform]», dijo Huang. «Aquí es donde hacemos nuestra investigación de IA. Aquí es donde optimizamos nuestras increíbles pilas de software. Todo este trabajo que hacemos beneficiará instantáneamente a GCP y a todas las personas que trabajan en ella.»

Thomas Kurian, CEO de Google Cloud, sobre la relación con Nvidia
Google Cloud y Nvidia llevan años asociándose. Por ejemplo, a principios de 2023, Google Cloud se convirtió en el primer proveedor en la nube en ofrecer GPUs Nvidia L4 Tensor Core con el lanzamiento de G2 VM.

Thomas Kurian, CEO de Google Cloud, ha afirmado que su compañía está «encantada» con la innovación que está lanzando junto a Nvidia.

El CEO afirma que la gente le pregunta todo el tiempo qué relación hay exactamente entre los aceleradores TPU de diseño personalizado de Google Cloud y las GPU.

«En pocas palabras, a medida que evoluciona la IA, evolucionan las necesidades de la arquitectura de hardware y la pila de software, desde el entrenamiento a la inferencia, pasando por nuevas funciones como las incrustaciones. Y queremos ofrecer a los clientes la gama más amplia y optimizada de aceleradores», afirma Kurian.

«En el fondo, Google es una empresa de plataformas. Y queremos atraer a todos esos desarrolladores y clientes que adoran la tecnología y el software de GPU de Nvidia», añade. «Así que es una gran, gran alianza».

Fuente WEB | Editado por CambioDigital OnLine

Custom Text
Artículo anteriorMercado de monitores para PCs alcanzará US$76.000 millones en 2031
Artículo siguienteIBM: Costo promedio de una filtración de datos en Latinoamérica alcanzó US$2.46 millones en 2023