Qualcomm Technologies anunció el lanzamiento de dos nuevas soluciones de hardware diseñadas para optimizar la inferencia de inteligencia artificial en centros de datos: los modelos AI200 y AI250. Estas plataformas forman parte de una hoja de ruta multigeneracional que busca ofrecer mejoras anuales en rendimiento, eficiencia energética y costo total de propiedad (TCO) para aplicaciones de IA generativa.
El modelo AI200 está concebido como una solución de inferencia a nivel de rack, orientada a cargas de trabajo que incluyen modelos de lenguaje grande (LLM) y modelos multimodales (LMM). Cada tarjeta AI200 admite hasta 768 GB de memoria LPDDR, lo que permite una mayor capacidad de procesamiento a menor costo. Esta configuración está diseñada para facilitar la escalabilidad y flexibilidad en entornos que requieren inferencia intensiva de IA.
Por su parte, el AI250 introduce una arquitectura de memoria innovadora basada en computación cercana a la memoria (near-memory computing). Esta tecnología permite una mejora significativa en el ancho de banda efectivo de memoria—más de 10 veces superior—y una reducción sustancial en el consumo energético. El objetivo es permitir una inferencia desagregada, es decir, distribuir las cargas de trabajo de IA de manera más eficiente entre los recursos disponibles, sin comprometer el rendimiento.
Ambas soluciones incluyen características técnicas avanzadas como refrigeración líquida directa, conectividad PCIe para escalabilidad vertical, Ethernet para escalabilidad horizontal, y capacidades de computación confidencial para proteger cargas de trabajo sensibles. El consumo energético por rack se sitúa en 160 kW, lo que refleja el enfoque en eficiencia térmica y energética.
En cuanto al software, Qualcomm ha desarrollado una pila completa optimizada para inferencia de IA, compatible con los principales marcos de aprendizaje automático y generativo. Esta incluye herramientas como la Efficient Transformers Library y la AI Inference Suite, que permiten la integración rápida de modelos preentrenados, incluyendo aquellos disponibles en plataformas como Hugging Face. Los desarrolladores pueden realizar despliegues con un solo clic, lo que facilita la adopción de estas soluciones en entornos empresariales.
La disponibilidad comercial del AI200 está prevista para 2026, mientras que el AI250 llegará al mercado en 2027. Qualcomm ha confirmado su compromiso con una cadencia anual de actualizaciones en su línea de productos para centros de datos, con el objetivo de responder a las crecientes demandas de procesamiento de IA en sectores como servicios financieros, salud, manufactura y telecomunicaciones.
Este anuncio se enmarca en una tendencia más amplia de la industria tecnológica hacia soluciones especializadas en IA generativa, que requieren arquitecturas de hardware capaces de manejar modelos cada vez más complejos y voluminosos. Empresas como NVIDIA, Intel y AMD también han intensificado sus esfuerzos en este campo, lo que sugiere una competencia creciente por liderar el mercado de infraestructura para IA en centros de datos.
Fuente: nota de prensa Qualcomm | Editado por CDOL
 
            
 
		

