El secreto del gasto energético de ChatGPT: Una respuesta equivale al uso de un horno por un segundo

0
13

¿Sabía que cada vez que ChatGPT te da una respuesta, consume tanta energía como un horno funcionando por un segundo? O, para ser más precisos, lo mismo que una bombilla de alta eficiencia en un par de minutos. Además, requiere el equivalente a un quinceavo de cucharadita de agua para mantener frescos sus centros de datos.

Estos datos, revelados por Sam Altman, el CEO de OpenAI (la empresa detrás del popular chatbot), han reabierto el debate sobre la huella ambiental de la inteligencia artificial. A pesar de estas cifras, Altman insiste en que los beneficios de la IA, desde la ciencia hasta la medicina, superan con creces los riesgos, y que su consumo es menor de lo que muchos podrían esperar.

El futuro energético de la IA: ¿Electricidad casi gratis?
Altman es optimista. En un reciente artículo de blog, proyecta que en la próxima década, los costos y el consumo de la IA se acercarán cada vez más a los de la electricidad. ¿La clave? Avances tecnológicos que mejorarán la eficiencia de los modelos y una oferta de energía que será «radicalmente abundante».

Esta visión no es aislada. Grandes tecnológicas ya buscan soluciones innovadoras: Google explora la energía de pequeños reactores modulares, mientras que Microsoft ha vuelto a invertir en centrales nucleares para sus data centers.

Altman concluye con una perspectiva ambiciosa: la IA impulsará un progreso científico más rápido y una mayor productividad, prometiendo un futuro «mucho mejor que el presente». Para él, el avance científico es el motor principal del progreso general de la humanidad.

Fuente: Web. Editado por CDOL

Custom Text
Artículo anteriorApple impulsa la seguridad digital para adolescentes con novedades en privacidad
Artículo siguienteTaiwán restringe la exportación de chips a los gigantes chinos Huawei y SMIC