Red Hat anunció la última versión de Red Hat OpenShift AI, su plataforma de inteligencia artificial (IA) y aprendizaje automático (ML) construida sobre Red Hat OpenShift que permite a las empresas crear y entregar aplicaciones habilitadas para IA a escala en la nube híbrida. Red Hat OpenShift AI 2.15 está diseñada para proporcionar una mayor flexibilidad, ajuste y capacidades de seguimiento, ayudando a acelerar la innovación en IA/ML de las empresas y la coherencia operativa con una mayor regularidad y una postura de seguridad más sólida a escala en nubes públicas, centros de datos y entornos de borde.
«Red Hat OpenShift AI ofrece mejoras significativas en escalabilidad, rendimiento y eficiencia operativa al tiempo que actúa como piedra angular para el ciclo de vida del modelo general, lo que hace posible que las organizaciones de TI obtengan los beneficios de una potente plataforma de IA mientras mantienen la capacidad de construir, implementar y ejecutar en cualquier entorno que dicten sus necesidades empresariales únicas.» – Joe Fernandes vicepresidente y director general de la unidad de negocio de IA de Red Hat
Según IDC, las empresas incluidas en la lista Forbes Global 2000 destinarán más del 40% de su gasto básico en TI a iniciativas de IA.1 Además, IDC predice que, para 2026, las empresas aprovecharán la IA generativa (gen AI) y las tecnologías de automatización para impulsar un aumento de la productividad de 1 billón de dólares.2 Red Hat considera que este nivel de inversión requiere una plataforma de IA/ML que pueda gestionar los ciclos de vida de los modelos y crear aplicaciones de gen AI y, al mismo tiempo, sea lo suficientemente flexible como para ejecutarse junto con cargas de trabajo y aplicaciones tradicionales en la nube híbrida.
Red Hat OpenShift AI 2.15 tiene como objetivo ayudar a las empresas a abordar las necesidades emergentes de las cargas de trabajo de IA junto con los requisitos de las aplicaciones nativas de la nube de misión crítica que impulsan sus negocios hoy en día. Las características avanzadas que ofrece la última versión de Red Hat OpenShift AI incluyen:
– Registro de modelos, actualmente proporcionado como vista previa de tecnología, es el lugar central para ver y gestionar los modelos registrados. Esta característica proporciona una forma estructurada y organizada de compartir, versionar, desplegar y rastrear modelos de IA predictiva y gen, metadatos y artefactos de modelos. También está disponible la opción de proporcionar múltiples registros de modelos. Red Hat también ha donado el proyecto de registro de modelos a la comunidad Kubeflow como subproyecto.
– La detección de desviación de datos supervisa los cambios en las distribuciones de datos de entrada para los modelos ML desplegados. Esta función permite a los científicos de datos detectar cuándo los datos reales utilizados para la interferencia del modelo se desvían significativamente de los datos con los que se entrenó el modelo. La detección de desviaciones ayuda a verificar la fiabilidad del modelo mediante la supervisión continua de los datos de entrada, manteniendo el modelo alineado con los datos del mundo real y ayudando a mantener la precisión de sus predicciones a lo largo del tiempo.
– Las herramientas de detección de sesgos ayudan a los científicos de datos y a los ingenieros de IA a controlar si sus modelos son justos e imparciales, una parte crucial para establecer la confianza en el modelo. Estas herramientas no sólo ayudan a saber si los modelos son imparciales basándose en los datos de entrenamiento, sino que también supervisan la imparcialidad de estos modelos durante su despliegue en el mundo real. Estas herramientas proceden de la comunidad de código abierto TrustyAI, que ofrece un conjunto de herramientas diversas para el desarrollo y la implantación responsables de la IA.
– El ajuste fino eficiente con LoRA utiliza adaptadores de bajo rango (LoRA) para permitir un ajuste fino más eficiente de los LLM, como Llama 3. Esto permite a las organizaciones escalar las cargas de trabajo de IA. Esto permite a las organizaciones escalar las cargas de trabajo de IA al tiempo que se reducen los costos y el consumo de recursos. Al optimizar el entrenamiento y el ajuste de los modelos en entornos nativos de nube, esta solución mejora tanto el rendimiento como la flexibilidad, lo que hace que la implantación de la IA sea más accesible y escalable.
– Compatibilidad con NVIDIA NIM, un conjunto de microservicios de interfaz fáciles de usar que aceleran la entrega de aplicaciones de IA gen. La integración con NIM, que forma parte de la plataforma de software NVIDIA AI Enterprise, ayudará a acelerar las implantaciones de IA de género al tiempo que admite una amplia gama de modelos de IA para ofrecer inferencia escalable en las instalaciones o en la nube a través de interfaces de programación de aplicaciones (API).
– La compatibilidad con las GPU de AMD permite acceder a una imagen del banco de trabajo AMD ROCm para utilizar las GPU de AMD en el desarrollo de modelos. La nueva funcionalidad también permite acceder a imágenes que pueden utilizarse para casos de uso de servicio y formación/ajuste con GPU de AMD. Este soporte ofrece a las organizaciones opciones adicionales para utilizar las GPU con el fin de mejorar el rendimiento en actividades de alta carga computacional.
Servicio de modelos mejorado
Como plataforma integral de IA/ML, Red Hat OpenShift AI 2.15 también añade nuevas capacidades en torno al servicio de modelos de IA genérica, incluido el tiempo de ejecución de servicio vLLM para KServe. Esta nueva capacidad incorpora a la plataforma el popular tiempo de ejecución de servicio de modelos de código abierto para grandes modelos de lenguaje (LLM). La flexibilidad y el rendimiento de vLLM suponen una excelente incorporación a los tiempos de ejecución admitidos actualmente en la plataforma, y los usuarios también pueden añadir sus propias opciones personalizadas en función de sus necesidades empresariales.
La última versión de Red Hat OpenShift AI también añade soporte para KServe Modelcars, que añade repositorios de la Iniciativa de Contenedores Abiertos (OCI) como opción para almacenar y acceder a versiones de modelos en contenedores. Además, la selección de rutas privadas/públicas para puntos finales en KServe permite a las organizaciones mejorar la postura de seguridad de un modelo dirigiéndolo específicamente a puntos finales internos cuando sea necesario.
Opciones ampliadas de entrenamiento y experimentación de IA
Red Hat OpenShift AI 2.15 añade mejoras a los pipelines de ciencia de datos y al seguimiento de experimentos, lo que permite a los científicos de datos gestionar, comparar y analizar más fácilmente las ejecuciones de pipelines agrupadas en una estructura lógica. La plataforma también añade el ajuste de hiperparámetros con Ray Tune, añadiendo algoritmos avanzados de optimización para mejorar la precisión y entrenar modelos predictivos y gen AI más eficientemente. Las imágenes de contenedor base para clústeres Ray se incluyen ahora en la versión más reciente de Red Hat OpenShift AI, y los trabajos de entrenamiento y ajuste se pueden programar a través de cargas de trabajo distribuidas en el clúster para acelerar los trabajos y maximizar la utilización de los nodos.
Disponibilidad
Red Hat OpenShift 2.15 estará disponible de forma general a partir de mediados de noviembre de 2024.
Fuente N. de P. RedHat