Tendencia de los fabricantes de procesadores pone en apuros a los centros de datos

...los más recientes procesadores y por venir consumen muchos vatios y generan mucho calor.

0
31

En su afán por aumentar la densidad de computación, los fabricantes de chips los dotan cada vez de más potencia y, según el Uptime Institute, esto podría suponer un problema para muchos centros de datos antiguos mal equipados para gestionar los nuevos sistemas de mayor potencia.

Los procesadores para servidores Epyc 4 Genoa de AMD, anunciados a finales del año pasado, y la esperada cuarta generación de silicio Xeon Scalable de Intel, lanzada a principios de este mes, son los chips más potentes y de mayor consumo del dúo hasta la fecha, con 400 y 350 W respectivamente, al menos en el extremo superior de la pila de productos.

El mayor TDP viene acompañado de un mayor número de núcleos y velocidades de reloj que las CPU anteriores de ambos fabricantes. Ahora es posible meter más de 192 núcleos x64 en un sistema típico de doble zócalo 2U, algo que hace cinco años habría requerido al menos tres nodos.

Sin embargo, como señala Uptime, muchos centros de datos heredados no se diseñaron para albergar sistemas con esta densidad de potencia. Un solo sistema de doble zócalo de cualquier proveedor puede superar fácilmente el kilovatio y, dependiendo de los tipos de aceleradores que se instalen en estos sistemas, los boxen pueden consumir bastante más de esa cifra.

Según Uptime, la rápida tendencia hacia sistemas más calientes y con mayor densidad de potencia pone patas arriba supuestos de hace décadas sobre la planificación de la capacidad de los centros de datos, y añade: «Esta tendencia llegará pronto a un punto en el que empezará a desestabilizar los supuestos existentes sobre el diseño de las instalaciones».

Esta tendencia llegará pronto a un punto en el que empezará a desestabilizar los supuestos de diseño de instalaciones existentes

Un rack típico sigue teniendo una capacidad de diseño inferior a 10 kW, señalan los analistas. Pero con la tendencia de los sistemas modernos hacia una mayor densidad de computación y, por extensión, de potencia, esto ya no es suficiente.

Aunque Uptime señala que, en las nuevas construcciones, los operadores de centros de datos pueden optimizar las densidades de potencia de los bastidores para que sean más elevadas, deben tener en cuenta un margen de 10 a 15 años. Como resultado, los operadores de centros de datos deben especular sobre las demandas de potencia y refrigeración a largo plazo, lo que conlleva el riesgo de infra o sobreconstrucción.

Dicho esto, Uptime estima que en pocos años un cuarto de rack alcanzará los 10 kW de consumo. Esto equivale aproximadamente a 1 kW por unidad de rack para un rack estándar de 42U.

Mantener el frío
Alimentar estos sistemas no es el único reto al que se enfrentan los operadores de centros de datos. Todos los ordenadores son esencialmente calefactores que convierten la electricidad en trabajo computacional con el subproducto de la energía térmica.

Según Uptime, las aplicaciones informáticas de alto rendimiento ofrecen un atisbo de los retos térmicos que se avecinan para las piezas más comunes. Uno de los mayores retos es la reducción sustancial de la temperatura de las carcasas en comparación con generaciones anteriores. Éstas han descendido de 80C a 82C hace sólo unos años a tan sólo 55C en un número creciente de modelos.

«Este es un problema clave: eliminar mayores volúmenes de calor de baja temperatura es un reto termodinámico», escribieron los analistas. «Muchas instalaciones ‘heredadas’ están limitadas en su capacidad de suministrar el flujo de aire necesario para enfriar TI de alta densidad».

Para paliar este problema, la Sociedad Americana de Ingenieros de Calefacción, Refrigeración y Aire Acondicionado (ASHRAE) ha revisado sus recomendaciones de funcionamiento [PDF] para centros de datos, incluyendo disposiciones para zonas dedicadas a bajas temperaturas.

La refrigeración líquida también ha recibido una atención considerable a medida que los chips se han ido calentando. Durante la Conferencia de Supercomputación del año pasado profundizamos en las distintas tecnologías disponibles para refrigerar los sistemas emergentes.

Pero aunque estas tecnologías han madurado en los últimos años, Uptime señala que siguen adoleciendo de una falta general de estandarización «que hace temer el bloqueo de los proveedores y las limitaciones de la cadena de suministro de piezas clave, así como la reducción de las opciones de configuración de los servidores».

Desde hace años se está intentando poner remedio a estos problemas. Tanto Intel como el Open Compute Project están trabajando en diseños de referencia de refrigeración líquida y por inmersión para mejorar la compatibilidad entre proveedores.

A principios del año pasado, Intel anunció un «megalaboratorio» de 700 millones de dólares que supervisaría el desarrollo de estándares de refrigeración líquida y por inmersión. Mientras tanto, el subproyecto de soluciones avanzadas de refrigeración de OCP, ha estado trabajando en este problema desde 2018.

A pesar de estos desafíos, Uptime señala que el flujo en las tecnologías de centros de datos también abre las puertas para que los operadores obtengan una ventaja sobre su competencia, si están dispuestos a asumir el riesgo.

La energía es cada vez más cara
Y puede haber buenas razones para hacerlo, según la investigación de Uptime, que muestra que se espera que los precios de la energía continúen su trayectoria ascendente en los próximos años.

«Los precios de la energía estaban en una trayectoria ascendente antes de la invasión rusa de Ucrania. Los precios mayoristas a plazo de la electricidad ya se estaban cerrando -tanto en el mercado europeo como en el estadounidense- en 2021», señala Uptime.

Aunque no se aborda directamente en el informe del instituto, no es ningún secreto que la refrigeración líquida directa y la refrigeración por inmersión pueden lograr una efectividad de uso de energía (PUE) considerablemente menor en comparación con la refrigeración por aire. Esta medida describe la proporción de energía utilizada por los centros de datos que se destina a equipos informáticos, de almacenamiento o de red. Cuanto más se acerque el PUE a 1,0, más eficiente será la instalación.

La refrigeración por inmersión tiene uno de los PUE más bajos de todos los regímenes de gestión térmica. Proveedores como Submer afirman a menudo que los índices de eficiencia son tan bajos como 1,03.

Cada vatio ahorrado por TI reduce presiones en otros ámbitos
Según los analistas de Uptime, el costo de la electricidad no es la única preocupación de los operadores de centros de datos. También se enfrentan a los obstáculos normativos y medioambientales de los ayuntamientos, preocupados por el espacio y el consumo de energía de los centros de datos vecinos.

Se espera que la Comisión Europea adopte una nueva normativa en el marco de la Directiva de Eficiencia Energética que, según Uptime, obligará a los centros de datos a reducir tanto el consumo de energía como las emisiones de carbono. En Estados Unidos se han planteado normativas similares. Recientemente se ha presentado un proyecto de ley en la asamblea de Oregón que obligaría a los centros de datos y a las operaciones de minería de criptomonedas a reducir las emisiones de carbono o enfrentarse a multas.

Uptime espera que las oportunidades de aumentar la eficiencia se hagan más evidentes a medida que estas normativas obliguen a informar periódicamente sobre el consumo de energía y las emisiones de carbono.

«Cada vatio ahorrado por las TI reduce las presiones en otros ámbitos», escriben los analistas. «Los requisitos de presentación de informes tarde o temprano arrojarán luz sobre el vasto potencial de mayor eficiencia energética actualmente oculto en TI».

Fuente WEB | Editado por CambioDigital OnLine

Custom Text
Artículo anteriorUn error en la restauración del sistema de Windows 11 impide a los usuarios acceder a las aplicaciones
Artículo siguienteIntel insiste en que seguirá adelante con la construcción de su nueva fábrica de chips en Alemania