Computación de alto rendimiento: ¿Es necesaria?

0
8

En el mundo actual basado en datos, la computación de alto rendimiento (HPC) se está convirtiendo en la plataforma de referencia para las empresas que buscan obtener una visión profunda de áreas tan diversas como la genómica, la química computacional, el modelado de riesgos financieros e imágenes sísmicas. Inicialmente adoptado por científicos de investigación que necesitaban realizar cálculos matemáticos complejos, ahora HPC está llamando la atención de un número más amplio de empresas que abarcan una variedad de campos.

«Los entornos que prosperan en la recopilación, análisis y distribución de datos -y dependen de sistemas confiables para soportar un flujo de trabajo optimizado con una inmensa potencia computacional- necesitan HPC,” señala Dale Brantly, director de ingeniería de sistemas en Panasas, un proveedor de sistemas de almacenamiento de datos HPC.

Aunque la adopción por parte de las pequeñas y medianas empresas sigue siendo relativamente escasa, la tecnología tiene un gran potencial para las organizaciones que están dispuestas a invertir en tecnología y experiencia del personal.

Por lo general, los casos de uso de HPC se centran en algún tipo de simulación. «La simulación del flujo de aire sobre un ala, la combustión en un motor, los sistemas climáticos planetarios, una reacción nuclear o la valoración de una cartera de inversiones”, comenta Kevin Kissell, director técnico de HPC y computación cuántica en la oficina del CTO en Google Cloud. Otros casos de uso apuntan a objetivos analíticos, como medir el ROI de la publicidad o evaluar el desempeño de una unidad de negocios. Otros casos de uso se pueden clasificar como traslacionales o transformacionales. «Como el rendering de películas y videos”, añade.

Computación de alto rendimiento sin la supercomputadora
Una idea errónea que muchos líderes empresariales y de TI tienen es que todos los sistemas HPC están basados en supercomputadoras. De hecho, mientras que las supercomputadoras producidas por empresas como AtosIBMHPE/Cray y Fujitsu se encuentran en el corazón de numerosos sistemas HPC especializados, un enfoque más ampliamente utilizado es integrar múltiples computadoras pequeñas en un clúster interconectado para proporcionar capacidades de HPC. Bajo tal disposición, cada computadora dentro del clúster sirve como un nodo. Cada nodo generalmente está equipado con múltiples procesadores, llamados núcleos de cómputo, que manejan las tareas de cómputo. Los procesadores, las unidades de procesamiento gráfico (GPU) y los recursos de memoria dentro de cada nodo están interconectados para crear un sistema HPC.

Dado que el costo de obtener y operar una supercomputadora y su software personalizado puede llegar fácilmente a los millones de dólares, la tecnología permanece muy lejos del alcance financiero de la mayoría de las empresas. Los HPC de tipo clúster, que usan computadoras interconectadas relativamente económicas que ejecutan software estándar, generalmente son más asequibles de implementar y operar. Aun así, incluso un HPC basado en clúster de tamaño modesto puede representar una inversión significativa para la mayoría de las empresas, particularmente para aquellas con necesidades limitadas de HPC.

Esta situación está cambiando. Las empresas que buscan obtener acceso a HPC sin romper sus presupuestos de TI ahora tienen la opción de recurrir a servicios de nube pública, como Google Cloud, Microsoft AzureAmazon Web Services (AWS) e IBM Cloud.

«Estos servicios permiten a las empresas tener acceso a las capacidades de HPC para satisfacer sus necesidades empresariales, sin tener que invertir mucho en la infraestructura de hardware de un clúster de HPC”, asegura Maksym Pavlov, líder técnico de .NET en Ciklum, una empresa de ingeniería de software y servicios digitales. «El surgimiento de la nube ha nivelado el campo de juego en cierta medida entre pequeñas y grandes compañías”, agrega David Turek, vicepresidente de computación de exascale de IBM.

Pasar del clúster HPC a la nube HPC
La Universidad de Carolina del Norte en Chapel Hill (UNC-Chapel Hill) ha confiado durante mucho tiempo en su clúster HPC local para respaldar actividades de investigación en múltiples áreas científicas, de ingeniería y médicas. Sin embargo, a medida que las necesidades informáticas de investigación continúan creciendo, la demanda de los usuarios comienza a superar los recursos y la capacidad informática del sistema actual. En lugar de expandir su inversión actual en HPC, la universidad decidió recurrir a la nube para proporcionar a los usuarios un entorno de HPC a pedido.

El enfoque demostró ser rentable y altamente flexible. «Con la nube, podemos aprovisionar el cómputo necesario para hacer el trabajo solicitado, y tener ese cómputo exactamente durante el tiempo que lo requiera el trabajo”, señala Michael Barker, CIO interino de UNC-Chapel Hill. «Es una forma muy efectiva de cumplir con los requisitos para ejecutar el trabajo computacional.”

El traslado a la nube fue necesario y bienvenido, señala Jeff Roach, investigador senior asociado de UNC-Chapel Hill. «Tenemos un clúster local muy tradicional”, añade. Sin embargo, con el tiempo se hizo evidente que el sistema no lograba seguir el ritmo de un número creciente de usuarios que requerían potencia informática de vanguardia y un rendimiento más rápido. «Estamos descubriendo que nuestro clúster local funciona realmente bien para las personas para las que fue diseñado, pero algunas de sus situaciones extremas, se están volviendo menos extremas”, indica.

Ya que las situaciones extremas se estaban volviendo rápidamente normales, UNC-Chapel Hill comenzó a trabajar con Google Cloud y el proveedor de software de simulación y análisis Techila Technologies para trazar su viaje en la nube HPC. El primer paso después de la planificación fue una evaluación de prueba de concepto. «Llevamos a uno de los investigadores del campus que estaba haciendo una tonelada de computación interactiva alta en memoria,e intentamos probar su carga de trabajo”, cuenta Roach. El resultado fue un éxito incondicional, señala. «El investigador realmente lo disfrutó; hizo su trabajo”. La misma tarea podría haber tardado hasta una semana en ejecutarse en el clúster local HPC de la universidad. «Pudo completar gran parte en pocas horas”, dice Roach.

Al otro lado del Atlántico, la Universidad de York también decidió adoptar un enfoque de HPC basado en la nube. James Chong, Royal Society Industry Fellow y profesor en el Departamento de Biología de la Universidad de York, señala que HPC es ampliamente utilizado por profesores y estudiantes en departamentos de ciencias como biología, física, química e informática, así como en lingüística y varias otras disciplinas.

El departamento de Chong está utilizando Google Cloud para analizar datos de secuencia de ADN. «Específicamente, mi grupo está interesado en los microbiomas, comunidades microbianas mixtas que participan en la conversión de material de desecho -en nuestro caso, lodos de depuradora- en biogás”, explica. «Utilizamos HPC para volver a unir secuencias cortas de ADN en un metagenoma y luego separar los genomas de los diferentes microbios, para poder entender cómo estos organismos responden a los cambios en sus condiciones de crecimiento”.

Al igual que sus colegas de UNC-Chapel Hill, Chong aprecia la potencia y la flexibilidad que puede proporcionar un servicio HPC en la nube. «Nuestro HPC necesita poder responder a una variedad de requisitos: algunos usuarios quieren muchos procesadores, otros necesitan máquinas de alta memoria”, comenta. «Como biólogos, algunas de las aplicaciones que utilizamos vinculan a I/O muy rápidamente, por lo que el acceso ultrarrápido al disco también es útil”.

La nube HPC que usa la universidad también tiene la capacidad de adaptarse a las necesidades cambiantes. «Varios de nosotros estamos comenzando a utilizar técnicas de aprendizaje automático y queremos aprovechar diferentes arquitecturas”, señala Chong. «La amplia gama de usuarios [de la universidad] significa que también requerimos acceso a una variedad de paquetes distintos”, agrega. Como la mayoría de las nubes HPC, el servicio que usa York permite que varios tipos de investigadores se muevan entre herramientas de software de manera fácil y rápida, sin perder tiempo en problemas de adquisición, implementación o configuración.

HPC con una supercomputadora
Si bien los servicios de HPC en la nube ofrecen ciertas ventajas, no siempre es la mejor opción o la más lógica para las empresas preocupadas por la seguridad y la privacidad. «La ubicación de los datos es un tema muy sensible”, observa Turek. «Especialmente cuando nos fijamos en las restricciones de RGPD en Europa, por ejemplo”. (El RGPD es el Reglamento general de protección de datos, la ley de privacidad de la Unión Europea).

Abordando tanto la privacidad como la necesidad de una potencia informática masiva, la Universidad de Miami recientemente optó por invertir en un nuevo sistema HPC basado en una supercomputadora local. Lo más crítico es que la universidad cree que los proyectos de investigación con conjuntos de datos multidimensionales masivos, pueden ejecutarse mucho más rápido en supercomputadoras de alto rendimiento especialmente diseñadas para ello.

En agosto pasado, la escuela presentó su nueva supercomputadora IBM Triton, basada en servidores Power Systems AC922. Más de dos mil estudiantes y profesores ya están utilizando el sistema para trabajar en proyectos como predicción climática, genómica, bioinformática, visión por computadora y trabajo de inteligencia artificial, señala Nicholas Tsinoremas, director del Centro de Ciencias Computacionales de la Universidad de Miami y vicerrector de datos e investigación informática.

La implementación, aunque exitosa, se topó con algunos obstáculos iniciales que casi cualquiera que adopta HPC puede esperar, independientemente de su tamaño, campo o necesidades informáticas. «Las cuestiones de migración siempre son un problema”, comenta Tsinoremas. La cuestión de la capacitación y el reciclaje de los usuarios también tuvo que abordarse. «La integración del nuevo sistema con los sistemas de almacenamiento heredados fue otro desafío”, señala.

Todas estas preocupaciones resaltan el hecho de que la adopción sin problemas requiere una gran cantidad de planificación y preparación, ya sea si el sistema HPC se basa en las instalaciones o en la nube. «La experiencia y el conocimiento interno son necesarios, y la institución debe contar con un plan”, advierte Tsinoremas. Comprender la naturaleza y los requisitos de las cargas de trabajo también es importante. «En otras palabras, [los adoptantes] necesitan comprender qué problemas están tratando de resolver y cómo esperan que HPC los ayude a resolverlos”, señala.

Introducción a las cargas de trabajo de HPC
Otra conclusión es la importancia de seleccionar las herramientas de gestión de recursos adecuadas, que permiten a una organización acceder y optimizar los entornos HPC. «Ya sea que esté comprando un entorno de hardware HPC tradicional, aprovechando HPC en la nube o una combinación de ambos, seleccionar el administrador de carga de trabajo HPC adecuado para sus tipos de trabajo y requisitos de rendimiento es primordial”, asegura Jérémie Bourdoncle, director senior de gestión de productos en Altair, un proveedor de software de simulación y otras herramientas y servicios relacionados con HPC. Un administrador de carga de trabajo puede automatizar la programación de trabajos, así como las funciones de administración, monitoreo y reporte.

Kissell sugiere una estrategia de adopción enfocada en el conocimiento, la simplicidad, las opciones y la precaución. «Puede ser un viaje largo, así que planifíquelo, pero dese la oportunidad de hacer correcciones en curso”, aconseja. Elija un caso de prueba que sea simple pero representativo, y donde el conocimiento y las percepciones obtenidas de las simulaciones o análisis de HPC se puedan identificar claramente. «Luego seleccione una breve lista de paquetes de software diseñados para su clase de problema y pruébelos”.

John Edwards, NetworkWorld.com