Por qué Google ha puesto en pausa la función de generación de imágenes de Gemini

0
13

El jueves, Google decidió interrumpir la función de generación de imágenes de su modelo de inteligencia artificial Gemini por inexactitud y parcialidad. En los dos últimos días, el gigante tecnológico ha sido acusado de supuestas tergiversaciones, como no mostrar a personas blancas, en favor de una representación más diversa e imponer un «sesgo pro-diversidad» a sus usuarios.

«La generación de imágenes por IA de Gemini genera un amplio abanico de personas. Y eso es bueno en general, porque lo utiliza gente de todo el mundo. Sin embargo, en este caso está fallando», afirma Google en su comunicado a través de la plataforma de redes sociales X. «Ya estamos trabajando para solucionar los problemas recientes con la función de generación de imágenes de Gemini», añade el gigante tecnológico. «Mientras lo hacemos, vamos a pausar la generación de imágenes de personas y volveremos a lanzar una versión mejorada en breve».

Este problema salió a la luz y cobró mucha relevancia cuando los usuarios de X empezaron a publicar los resultados de la generación de imágenes de Géminis. Por ejemplo, una cuenta de X que se hace llamar «End Wokeness» publicó algunos resultados generados por Géminis para «Papa», «Padre fundador de América» y «Vikingo». En los tres casos, la herramienta de inteligencia artificial generó imágenes de personas no blancas. En el momento de redactar este artículo, el post contaba con más de 30.000 «me gusta». (No se ha podido verificar de forma independiente la autenticidad de estas imágenes.)

(Post de un usuario de X)

Antes de que Google anunciara una pausa en esta función, al intentar pedir a la herramienta de IA (versión gratuita) que generara varias imágenes. Se detectó que Gemini producía con éxito imágenes de animales u objetos inanimados pero se negaba sistemáticamente a generar imágenes de seres humanos cuando se especificaban datos étnicos o culturales.

Google y otras empresas tecnológicas llevan mucho tiempo luchando contra los prejuicios y la ética en la IA. Las meteduras de pata (casos de discriminación, prácticas de contratación sesgadas e infrarrepresentación) perpetuadas en el pasado debido a la falta de normas éticas han hecho que los gobiernos, los miembros de la sociedad civil y el público exijan un mayor escrutinio, especialmente a medida que las herramientas mejoran día a día.

Fuente WEB | Editado por CambioDigital OnLine

Custom Text
Artículo anteriorGartner identifica las principales tendencias en ciberseguridad para 2024
Artículo siguienteGoogle lanza Gemma, modelos abiertos de inteligencia artificial