Andy Jassy declara que los chips son los mayores responsables del costo de la IA, pero AWS lo solucionará

0
13
Andy Jassy CEO de Amazon

El director ejecutivo de Amazon, Andy Jassy, ha declarado que los chips son el principal factor del elevado costo de la inteligencia artificial, pero que Amazon Web Services (AWS) tiene previsto solucionar esta situación.

En su carta anual a los accionistas, Jassy explicó que la inferencia* representará la mayor parte del gasto futuro en IA y que AWS considera urgente reducir su costo para los clientes. Según Jassy, la IA no tiene por qué ser tan costosa como lo es actualmente y no lo será en el futuro, siendo los chips el principal motivo de su precio elevado.

Jassy señaló que la mayor parte de la IA se ha construido hasta ahora sobre la base de un único proveedor de chips, lo que resulta costoso. En este sentido, indicó que los chips Trainium de AWS deberían ayudar, ya que sus nuevos chips Trainium2 ofrecen entre un 30% y un 40% mejor relación precio-rendimiento que las instancias de computación actuales basadas en GPU.

El director ejecutivo destacó el crecimiento significativo de AWS desde su formación a finales de la década de 1990 hasta la actualidad, con una tasa de ejecución anual de 115.000 millones de dólares. También mencionó que los ingresos de AWS por IA están creciendo a porcentajes de triple dígito interanual y representan una tasa de ejecución anual de miles de millones de dólares.

Jassy subrayó la importancia de reducir el costo de la inferencia, ya que, si bien el entrenamiento de modelos de IA sigue representando una parte importante del gasto total, la inferencia se convertirá en un servicio fundamental, utilizado constantemente en aplicaciones de IA a gran escala. Afirmó que chips con mejor relación precio-rendimiento contribuirán a esto, pero que la inferencia también se volverá más eficiente con mejoras en la destilación de modelos, el almacenamiento en caché de prompts, la infraestructura de computación y las arquitecturas de modelos.

Según Jassy, la reducción del costo unitario de la IA permitirá que se utilice de forma más extensa y generará un mayor gasto general en este ámbito, comparándolo con la revolución de costos que supuso AWS en computación y almacenamiento.

El director ejecutivo también explicó la intensa inversión de Amazon en IA, con más de 1.000 aplicaciones de IA generativa en desarrollo en toda la empresa, destinadas a mejorar las experiencias de los clientes. Destacó el desarrollo de componentes clave para la IA por parte de AWS, como los chips Trainium, los servicios flexibles de construcción e inferencia de modelos en Amazon SageMaker y Amazon Bedrock, los modelos Amazon Nova para reducir costos y latencia, y la creación de agentes de IA.

Jassy concluyó reafirmando la creencia de Amazon en que la IA representa una reinvención trascendental y que la inversión agresiva en este campo beneficiará a clientes, accionistas y al negocio en general, a pesar de la necesidad de una inversión inicial considerable en centros de datos, chips y hardware.

________

*) La inferencia en el proceso de la Inteligencia Artificial (IA) es la fase en la que, un modelo ya entrenado, utiliza para generar predicciones, clasificaciones o respuestas basadas en nuevos datos de entrada. Es decir, es el momento en el que la IA aplica el conocimiento aprendido durante su entrenamiento para tomar decisiones o realizar tareas en tiempo real.

Ejemplos de inferencia en IA:
Un modelo de traducción automática (como Google Translate) infiere el significado de una frase en otro idioma.
Un sistema de recomendación (como Netflix) infiere qué película mostrar basándose en sus preferencias.
Un asistente de voz (como Siri) infiere la respuesta a su pregunta usando su modelo de lenguaje.

Retos de la inferencia:
 – Latencia: La velocidad de respuesta es crucial en aplicaciones en tiempo real.
Hardware especializado: Se usan GPUs, TPUs o chips de IA para acelerar la inferencia.
Privacidad: En algunos casos, la inferencia se hace localmente (en el dispositivo) para evitar enviar datos sensibles a la nube.

En resumen, la inferencia es la etapa donde la IA demuestra su utilidad práctica, pasando de ser un modelo teórico a una herramienta funcional.

Fuente WEB | Editado por CambioDigital OnLine con aportes de la IA

 

Custom Text
Artículo anteriorVulnerabilidad en WhatsApp para Windows permitió ejecución de código malicioso
Artículo siguienteMovistar refuerza su estrategia comercial con financiamiento de dispositivos en Caracas