Red Hat anunció una ampliación de su colaboración con Amazon Web Services (AWS) para optimizar la inferencia de inteligencia artificial generativa en la nube, integrando su plataforma Red Hat AI con los aceleradores específicos de AWS, Trainium3 e Inferentia2. La iniciativa busca ofrecer a las organizaciones mayor flexibilidad, eficiencia y capacidad de escalar cargas de trabajo de IA en producción.
El comunicado, emitido desde Raleigh el 2 de diciembre de 2025, detalla que el Red Hat AI Inference Server, basado en el marco abierto vLLM, podrá ejecutarse sobre los chips de AWS diseñados para IA. Esta integración permitirá a los clientes disponer de una capa común de inferencia capaz de soportar cualquier modelo generativo, con mejoras de rendimiento y reducción de latencia. Según Red Hat, los usuarios podrían alcanzar entre 30 y 40% de mejor relación precio-rendimiento frente a instancias EC2 basadas en GPU comparables.
La colaboración también incluye el desarrollo de un operador AWS Neuron para Red Hat OpenShift, disponible en el catálogo OperatorHub. Con ello, las empresas que utilizan OpenShift o el servicio gestionado OpenShift en AWS podrán desplegar cargas de trabajo de IA de manera más fluida, aprovechando los aceleradores de la nube de Amazon. Además, Red Hat lanzó la colección certificada amazon.ai para Ansible Automation Platform, que facilita la orquestación de servicios de IA en AWS.
Otro aspecto relevante es la contribución conjunta al ecosistema abierto: Red Hat y AWS trabajan en la optimización de un complemento para chips de AWS dentro de vLLM, reforzando su compromiso con la comunidad upstream. vLLM, que también sustenta el proyecto llm-d, se ha convertido en una referencia para la inferencia a gran escala y ahora forma parte de las capacidades comerciales de Red Hat OpenShift AI.
El anuncio se contextualiza en un mercado donde la demanda de inferencia escalable crece rápidamente. De acuerdo con predicciones de IDC, para 2027 el 40% de las organizaciones utilizarán silicio personalizado, incluidos procesadores ARM y chips específicos de IA/ML, con el fin de optimizar rendimiento y costos. Esta tendencia refuerza la necesidad de soluciones que combinen potencia de procesamiento con eficiencia económica.
Ejecutivos de ambas compañías subrayaron la importancia de la alianza. Joe Fernandes, vicepresidente de la unidad de IA en Red Hat, señaló que la integración busca hacer la IA generativa más accesible y rentable en entornos híbridos. Colin Brace, vicepresidente de Annapurna Labs en AWS, destacó que los chips Trainium e Inferentia fueron diseñados para ofrecer inferencia y entrenamiento de alto rendimiento a menor costo, y que la colaboración con Red Hat proporciona un camino soportado para desplegar IA generativa a escala.
Empresas como CAE, proveedor de servicios digitales en simulación y entrenamiento, ya han comenzado a modernizar aplicaciones críticas con Red Hat OpenShift Service en AWS, resaltando la capacidad de la plataforma para acelerar la integración de IA en sus soluciones. Analistas como Techaisle han señalado que esta estrategia refleja el enfoque de Red Hat de “cualquier modelo, cualquier hardware”, combinando su plataforma híbrida abierta con las ventajas económicas de los aceleradores de AWS.
En conjunto, la iniciativa refuerza la posición de Red Hat y AWS en el ecosistema de inteligencia artificial empresarial, ofreciendo a los clientes una infraestructura abierta y optimizada para pasar de la experimentación a la producción de manera sostenible y gobernada.
Fuente: nota de prensa Red Hat | Editado por CDOL









































