Entrenar un modelo de IA puede tener el mismo gasto energético que cinco veces la vida útil de un automóvil

0
72

Una investigación pone el foco en el efecto medioambiental del desarrollo de herramientas inteligentes, a través del análisis del entrenamiento de redes neuronales.

La inteligencia artificial genera múltiples artículos sobre sus posibilidades, de cómo el empleo de sus distintas técnicas permite extraer nuevos potenciales a las organizaciones y empresas. También se debate largamente acerca de cómo impactará su expansión a los trabajos humanos. Incluso se plantean los riesgos potenciales de su uso en la industria armamentística —o en otros terrenos—. Ahora, un estudio profundiza en otro aspecto diferente: la huella ecológica que tiene el trabajo en IA.

Un nuevo documento de la Universidad de Massachusetts Amherst plantea los costes medioambientales del entrenamiento de redes neuronales, que se derivan del gasto energético de los equipos para el procesamiento, la electricidad o el empleo de otros recursos para estos trabajos.

En concreto, el informe analiza el impacto del desarrollo de cuatro modelos de NPL, siglas en inglés de procesamiento del lenguaje natural, y los compara a distintos parámetros de consumo de CO2. Con los datos que manejan los investigadores, durante la vida media de un coche e incluyendo el consumo de carburante, emitiría unas 57 toneladas de CO2 a la atmósfera. El entrenamiento de un modelo NPL puede conllevar la emisión de hasta 284 toneladas de CO2: cinco veces más.

El estudio pone en relación el dato a otros parámetros. Por ejemplo, el vuelo de un pasajero entre Nueva York y San Francisco tiene una huella de 899 kilos y un año en la vida humana suponen, de media, cinco toneladas de dióxido de carbono.

Como explican en New Scientist, hay que considerar que el entrenamiento de modelos NPL requiere el trabajo con grandes volúmenes de datos, a los que se les aplican técnicas de ‘deep learning’; por ejemplo, se analizan miles de millones de artículos escritos para entender la construcción de las oraciones y el significado de las palabras. Esto requiere de recursos potentes y continuados para lograr un trabajo exitoso.

En el estudio se han entrenado cuatro tipos distintos de IA ya desarrollados durante un día y se ha estudiado el consumo de energía en ese periodo. Esa cantidad se ha multiplicado por el tiempo que les llevó a los equipos originales lograr resultados, y en base a eso se realizó la estimación de las emisiones relacionadas. El coste de 284 toneladas se corresponde con el más elevado de los modelos analizados, el denominado ‘Transformer’, en una de sus encarnaciones más recientes: los trabajos en búsqueda de arquitectura neuronal o NAS, por sus siglas en inglés.

Los investigadores realizan varias recomendaciones para el trabajo con IA. Por un lado, piden un mayor detalle de los tiempos de entrenamiento y los recursos requeridos; más si el modelo tiene potencial para ser reutilizado. También demandan que se equipare y facilite el acceso a académicos e investigadores en los recursos para el trabajo con estas herramientas. Por último, se apela a un esfuerzo conjunto entre industria y organismos científicos para priorizar el desarrollo sostenible tanto de algoritmos como de ‘hardware’.

IDG.es