La demanda de energía de la inteligencia artificial se duplica cada 100 días a medida que estas herramientas se vuelven una parte integral de nuestra vida diaria. Este es el cálculo realizado por la Unesco en un estudio presentado en la Cumbre Global de IA (AI Global Summit), donde la organización de las Naciones Unidas hace un llamado a plantear preguntas más cortas a estos sistemas para reducir su impacto energético.
«El crecimiento exponencial de la potencia computacional necesaria para ejecutar estos modelos», advierte el estudio, «está ejerciendo una presión creciente sobre los sistemas energéticos globales, los recursos hídricos y los minerales críticos, generando preocupaciones sobre la sostenibilidad ambiental, el acceso equitativo y la competencia por recursos limitados».
La clave para reducir el consumo: Menos palabras, más especificidad
Según la Unesco, una combinación de solicitudes más cortas y el uso de modelos más pequeños y específicos podría reducir el consumo de energía de la inteligencia artificial hasta en un 90% sin sacrificar el rendimiento. Hasta la fecha, muchos modelos de inteligencia artificial como ChatGPT son genéricos y están diseñados para responder a una amplia variedad de temas, lo que significa que deben examinar un inmenso volumen de información para formular y evaluar las respuestas.
El análisis subraya que una reducción en los prompts (sugerencias) a los chatbots, pasando de 300 a 150 palabras, también sería muy útil para disminuir el consumo de energía. Sam Altman, el CEO de OpenAI, reveló recientemente que cada solicitud enviada a ChatGPT consume en promedio 0,34 Wh de electricidad, lo que equivale a entre 10 y 70 veces una búsqueda en Google. Aproximadamente mil millones de solicitudes al día equivalen a 310 GWh al año, el equivalente al consumo anual de electricidad de tres millones de personas en Etiopía.
Fuente: Web. Editado por CDOL.







































