«Trabajaremos para mejorar la inteligencia artificial de Gemini, pero está diseñada como una herramienta de creatividad y productividad y puede que no siempre sea fiable, especialmente cuando se trata de generar imágenes o texto sobre acontecimientos actuales, noticias en evolución o temas candentes. Cometerá errores», así lo admitió en un post oficial Prabhakar Raghavan, vicepresidente senior de Google, tras la decisión de pausar la generación de imágenes de personas que mostraban inexactitudes y errores históricos, especialmente cuando se asociaban a personas de piel blanca.
El extenso post explicativo de Raghavan revela lo que ya se adivinaba: el sistema de inteligencia artificial Gemini cometía errores por exceso de inclusión, de modo que las fotos de vikingos, soldados de Hitler o caballeros medievales no mostraban a personas blancas, sino sólo a personas de piel negra o asiáticas.
Se «optimizó para garantizar que no cayera en algunos de los escollos que hemos visto en el pasado con la tecnología de generación de imágenes», señala el directivo, y «como nuestros usuarios proceden de todo el mundo, queremos que funcione bien para todos», por lo que el modelo de IA ha «sobrecompensado, dando lugar a imágenes incómodas y erróneas», añade Raghavan.
«Como dijimos desde el principio -concluye-, las ‘alucinaciones’ son un reto conocido para todos los modelos. No era nuestra intención crear imágenes con un solo grupo étnico ni cometer errores históricos. Puedo prometer que seguiremos actuando siempre que identifiquemos un problema, pero no puedo prometer que Gemini no genere ocasionalmente resultados embarazosos, inexactos u ofensivos, La inteligencia artificial es una tecnología emergente útil en muchos sentidos, con un enorme potencial, y estamos haciendo todo lo posible por aplicarla de forma segura y responsable».
Fuente: Google