TSMC: las GPU de un billón de transistores serán posibles en una década

Los chiplets apilados en 3D serán la norma para aumentar la potencia de cálculo en el futuro.

0
20

Las cosas están a punto de ponerse interesantes en el mundo de los semiconductores, según una larga misiva escrita por algunos ejecutivos de TSMC. El mayor fabricante de chips del mundo está embarcado en un viaje que, según afirma, dará como resultado una GPU con un billón de transistores -aproximadamente 10 veces la cantidad que se encuentra en los chips más grandes de la actualidad-, aunque la compañía taiwanesa tardará una década en conseguirlo.

El presidente de TSMC, Mark Liu, y el director científico, H.-S. Philip Wong, han escrito un editorial para IEEE Spectrum en el que exponen sus ideas sobre el futuro de los semiconductores. El titular es cómo la empresa planea crear una GPU de un billón de transistores. El artículo detalla cómo el auge de la IA es actualmente el principal motor del aumento de la potencia de cálculo en los chips, especialmente en las GPU. Señala que, a medida que nos acercamos al final de la era tradicional de reducción de nodos, el camino a seguir está claro: chiplets y apilamiento 3D.

La serie de aceleradores MI300 de AMD es indicativa de lo que requerirán los chips del futuro, ya que cuenta con 146.000 millones de transistores repartidos en 13 chiplets apilados. Crédito: AMD

Ambos afirman que ya estamos en el límite de retícula para la litografía 2D, aproximadamente 800 mm cuadrados. Sin embargo, las tecnologías de apilamiento vertical, como la de chip sobre oblea sobre sustrato (CoWoS), pueden permitir hasta seis campos de retícula de chips en un solo paquete. También promociona su tecnología de sistema en chip integrado (SoIC), que se utiliza para apilar chips de memoria de gran ancho de banda (HBM). Los métodos actuales permiten apilar ocho capas, y próximamente doce. Señalan que la transición de los puntos de soldadura entre capas a la «unión híbrida» mediante conexiones de cobre aumentará aún más la densidad.

«Para que la revolución de la IA continúe a su ritmo actual, necesitará aún más de la industria de semiconductores. Dentro de una década, necesitará una GPU de un billón de transistores, es decir, una GPU con 10 veces más dispositivos de lo que es habitual hoy en día», escriben los dos. Señalan que la fabricación de semiconductores está a punto de volverse mucho más difícil y compleja que antes, ya que antes se trataba de reducir el nodo. Ahora que ya no queda mucho por encoger cuando lleguemos a los 2 nm y más allá, el reto consistirá en conectar los chiplets tanto horizontalmente, como con la GPU Blackwell de Nvidia, como verticalmente, como con los aceleradores MI300 de AMD.

Fuente WEB | Editado por CambioDigital OnLine

Custom Text
Artículo anteriorYahoo compra Artifact, app de noticias basada en IA
Artículo siguienteMovistar apuesta a alianzas con empresas Telco para robustecer conectividad en el país