ChatGpt consume mucha agua, 1 botella por conversación

Un estudio calcula los líquidos para refrigerar centros de datos y formación.

0
22

Los programas de inteligencia artificial más populares, como ChatGpt de OpenAi y Bard de Google, consumen mucha energía y requieren grandes centros de datos, y la refrigeración de estas instalaciones supone un enorme gasto de agua.

Un estudio de la Universidad de Colorado Riverside y la Universidad de Texas en Arlington, por ejemplo, calculó que el entrenamiento de ChatGpt-3 consumió 700.000 litros de agua dulce para la refrigeración del centro de datos. Eso es suficiente para fabricar 370 coches BMW o 320 Teslas. Mientras que el intercambio de conversaciones de un usuario medio con ChatGpt equivale al consumo de una botella de agua.

Dada la popularidad sin precedentes de estos chatbots, los investigadores temen que todo este consumo de agua pueda tener un impacto preocupante en los suministros de agua, en relación con la creciente sequía y los problemas medioambientales. Los investigadores también prevén que este consumo de agua aumente aún más con los nuevos modelos, como el Gpt-4, que se basan en un mayor conjunto y procesamiento de datos que sus predecesores.

Los problemas con el consumo de agua no se limitan a los modelos de OpenAI. Los estudiosos también han hecho cálculos sobre el consumo de agua de Google. Sus centros de datos en Estados Unidos bebieron un total de 12.700 millones de litros de agua dulce en 2021, de los cuales alrededor del 90% eran potables.

«La huella hídrica de los modelos de inteligencia artificial ya no puede permanecer bajo el radar», explican los autores del estudio, «debe abordarse como una prioridad y como parte de los esfuerzos colectivos para combatir los desafíos globales del agua».

Fuente: Web. Editado por CambioDigital OnLine

Custom Text
Artículo anteriorVerificados los perfiles sociales, LinkedIn también lanza los checks azules
Artículo siguienteNvidia lanza su nuevo chip de gama media RTX 4070 con rendimiento mejorado por IA