Un equipo europeo de estudiantes universitarios ha creado el primer superordenador RISC-V capaz de mostrar un consumo energético y un rendimiento equilibrados.
Y, lo que es más importante, demuestra una posible vía de avance para RISC-V en la computación de alto rendimiento y, por ende, otra oportunidad para que Europa se desprenda de la dependencia total de las tecnologías de chips estadounidenses más allá de las arquitecturas basadas en Arm.
El clúster «Monte Cimone» no se dedicará a realizar simulaciones meteorológicas masivas o similares en un futuro próximo, ya que se trata de una máquina experimental. Sin embargo, demuestra que los sacrificios de rendimiento para obtener un menor consumo de energía no son necesariamente tan drásticos como muchos creen.
El clúster de seis nodos, construido por la gente de la Universidad de Bolonia y CINECA, el mayor centro de supercomputación de Italia, formaba parte de un concurso de clústeres más amplio para estudiantes, con el fin de mostrar varios elementos del rendimiento de la HPC más allá de la capacidad de punto flotante. El equipo de construcción del clúster, llamado NotOnlyFLOPs, quería establecer el perfil de rendimiento energético de RISC-V cuando se utiliza el sistema en chip Freedom U740 de SiFive.
Este SoC de la era 2020 tiene cinco núcleos de CPU RISC-V de 64 bits -cuatro núcleos de aplicación U7 y un núcleo de gestión del sistema S7-, 2 MB de caché L2, gigabit Ethernet y varios controladores periféricos y de hardware. Puede funcionar a 1,4 GHz aproximadamente.
He aquí un vistazo a los componentes, así como a las alimentaciones y velocidades de Monte Cimone:
Seis servidores de doble placa con un factor de forma de 4,44 cm (1U) de altura, 42,5 cm de ancho y 40 cm de profundidad. Cada placa sigue el factor de forma Mini-ITX estándar del sector (170 mm por 170 mm);
Cada placa cuenta con un SoC SiFive Freedom U740 y 16 GB de memoria DDR de 64 bits que funciona a 1866s MT/s, además de un bus PCIe Gen 3 x8 que funciona a 7,8 GB/s, un puerto gigabit Ethernet e interfaces USB 3.2 Gen 1;
Cada nodo cuenta con una ranura de expansión M.2 M-key ocupada por un SSD NVME 2280 de 1 TB utilizado por el sistema operativo. En cada placa se inserta una tarjeta microSD que se utiliza para el arranque UEFI;
En el interior de cada nodo se integran dos fuentes de alimentación de 250 W para soportar el hardware y los futuros aceleradores PCIe y placas de expansión.
Las placas base Freedom SoC son esencialmente placas HiFive Unmatched de SiFive. Dos de los seis nodos de cálculo están equipados con un adaptador de canal de host (HCA) Infiniband, como la mayoría de los superordenadores. El objetivo era desplegar un Infiniband de 56 GB/s para permitir que RDMA sacara el rendimiento de E/S posible.
Esto es ambicioso para una arquitectura joven y no estuvo exento de algunos contratiempos. «Los carriles PCIe Gen 3 están actualmente soportados por el proveedor», escribió el equipo del clúster.
«Los primeros resultados experimentales muestran que el kernel es capaz de reconocer el controlador de dispositivo y montar el módulo del kernel para gestionar la pila Mellanox OFED. No somos capaces de utilizar todas las capacidades RDMA del HCA debido a incompatibilidades aún no identificadas de la pila de software y el controlador del kernel. Sin embargo, ejecutamos con éxito una prueba de ping IB entre dos placas y entre una placa y un servidor HPC, demostrando que el soporte completo de Infiniband podría ser factible. Actualmente es una función en desarrollo».
La pila de software HPC resultó más fácil de lo que cabría esperar. «Hemos portado a Monte Cimone todos los servicios esenciales necesarios para ejecutar cargas de trabajo HPC en un entorno de producción, a saber, NFS, LDAP y el programador de trabajos SLURM. Portar todos los paquetes de software necesarios a RISC-V fue relativamente sencillo, por lo que podemos afirmar que no existe ningún obstáculo para exponer Monte Cimone como recurso informático en una instalación de HPC», señaló el equipo.
Aunque se trata de una notable adición arquitectónica a las filas de la supercomputación, es poco probable que un clúster RISC-V como éste entre en la lista de los 500 sistemas más rápidos del mundo. Su especificación de diseño es la de un caballo de batalla de bajo consumo, no un monstruo del punto flotante.
Como señala el equipo de desarrollo en su descripción detallada del sistema, «Monte Cimone no pretende alcanzar un gran rendimiento en coma flotante, sino que se construyó con el propósito de «cebar la tubería» y explorar los retos de integrar un clúster RISC-V de varios nodos capaz de proporcionar una pila de producción HPC que incluya infraestructura de interconexión, almacenamiento y control de energía en hardware RISC-V».
E4 Computer Engineering actuó como integrador y socio del clúster «Monte Cimone», que finalmente será Esto allanará el camino para seguir probando la plataforma RISC-V en sí misma junto con su capacidad para jugar bien con otras arquitecturas, un elemento importante ya que no es probable que veamos un sistema RISC-V de clase exascale en los próximos años al menos.
Según E4, «Cimone permite a los desarrolladores probar y validar las cargas de trabajo científicas y de ingeniería en una rica pila de software, que incluye herramientas de desarrollo, bibliotecas para la programación de paso de mensajes, BLAS, FFT, controladores para redes HS y dispositivos de E/S. El objetivo es lograr una posición preparada para el futuro capaz de abordar y aprovechar las características del ISA RISC-V para aplicaciones y cargas de trabajo científicas y de ingeniería en un entorno operativo».
Dr. Daniele Cesarini, especialista en HPC de CINECA: «Como centro de supercomputación, estamos muy interesados en la tecnología RISC-V para apoyar a la comunidad científica. Estamos encantados de contribuir al ecosistema RISC-V apoyando la instalación y puesta a punto de códigos científicos y librerías matemáticas ampliamente utilizados para impulsar el desarrollo de las CPUs RISC-V de alto rendimiento. Creemos que el Monte CIMONE será el precursor de la próxima generación de superordenadores basados en la tecnología RISC-V y seguiremos trabajando en sinergia con E4 Computer Engineering y la Universidad de Bolonia para demostrar que RISC-V está preparado para permanecer al lado de los gigantes de la HPC».
Hay mucho RISC-V en Europa en cuanto a financiación y proyectos, aunque los frutos de esos trabajos podrían tardar años en verse. Ahora, incluso Intel está pendiente del futuro de la supercomputación. Todo es una apuesta por RISC-Y (ya lo veías venir), pero con pocas opciones de arquitectura nativa en Europa, al menos elegir un ganador temprano es fácil.
CambioDigitaL Online | Fuente: WEB