La memoria de alto ancho de banda (HBM) se está convirtiendo en la solución preferida para superar las restricciones de velocidad de transferencia de memoria debidas a las limitaciones de ancho de banda de la SDRAM DDR en la computación de alta velocidad. La HBM es reconocida por su revolucionaria eficiencia de transmisión y desempeña un papel fundamental a la hora de permitir que los componentes computacionales centrales funcionen a su máxima capacidad. Las GPU para servidores de IA de primer nivel han establecido un nuevo estándar en el sector al utilizar principalmente HBM. TrendForce prevé que la demanda mundial de HBM experimentará un crecimiento anual de casi el 60% en 2023, alcanzando los 290 millones de GB, con un crecimiento adicional del 30% en 2024.
Según las previsiones de TrendForce para 2025, teniendo en cuenta cinco productos AIGC de gran escala equivalentes a ChatGPT, 25 productos AIGC de tamaño medio de Midjourney y 80 productos AIGC pequeños, los recursos de cálculo mínimos necesarios a escala mundial podrían oscilar entre 145.600 y 233.700 GPU Nvidia A100. Se espera que tecnologías emergentes como los superordenadores, el streaming de vídeo 8K y la AR/VR, entre otras, aumenten simultáneamente la carga de trabajo de los sistemas de computación en la nube debido a la creciente demanda de computación de alta velocidad.
La HBM es sin duda una solución superior para construir plataformas informáticas de alta velocidad, gracias a su mayor ancho de banda y menor consumo de energía en comparación con la SDRAM DDR. Esta distinción queda clara al comparar la SDRAM DDR4 y la SDRAM DDR5, lanzadas en 2014 y 2020 respectivamente, cuyos anchos de banda sólo diferían en un factor de dos. Independientemente de si se utiliza DDR5 o la futura DDR6, la búsqueda de un mayor rendimiento de transmisión conllevará inevitablemente un aumento del consumo de energía, lo que podría afectar negativamente al rendimiento del sistema. Tomando como ejemplo HBM3 y DDR5, el ancho de banda de la primera es 15 veces superior al de la segunda y puede mejorarse aún más añadiendo más chips apilados. Además, la HBM puede sustituir a una parte de la SDRAM GDDR o la SDRAM DDR, con lo que se gestiona mejor el consumo de energía.
TrendForce concluye que el motor actual de la creciente demanda son los servidores de IA equipados con Nvidia A100, H100, AMD MI300, y grandes CSP como Google y AWS, que están desarrollando sus propios ASIC. Se estima que el volumen de envíos de servidores de IA, incluidos los equipados con GPU, FPGA y ASIC, alcanzará casi 1,2 millones de unidades en 2023, marcando una tasa de crecimiento anual de casi el 38%. TrendForce también prevé un aumento paralelo del volumen de envíos de chips de IA, con un crecimiento potencial superior al 50%.
Fuente TrendForce | Editado por CambioDigital OnLine