Redes de IA feminista para combatir el poder de los algoritmos y los desnudos falsos

Surgen redes en América Latina y África mientras expertas consideran la tecnología como una herramienta para transformar la sociedad.

0
35

Los prejuicios de género en la inteligencia artificial y los deepfakes de contenido sexual se han convertido en un tema central, especialmente tras el caso de Grok. Los espacios en línea perpetúan los estereotipos de quienes los crean y de los datos introducidos, que actualmente provienen en su mayoría de hombres.

Según estimaciones del World Economic Forum, las mujeres representan menos de un tercio de la fuerza laboral de la IA en todo el mundo. Este fenómeno global está impulsando la creación de alternativas tecnológicas como la Red Feminista de IA de América Latina y el Caribe.

La literatura tecnológica cuenta con numerosos ejemplos de sesgos de género. Los sistemas de reconocimiento de imágenes han tenido dificultades para identificar con precisión a las mujeres, especialmente a las de color, lo que ha provocado identificaciones erróneas con graves consecuencias en el ámbito policial. Durante mucho tiempo, los asistentes de voz utilizaron únicamente voces femeninas, lo que reforzó el estereotipo de que las mujeres son aptas para roles de servicio. En la generación de imágenes, las herramientas de IA suelen asociar el término Ceo con un hombre, mientras que al buscar asistente, devuelven imágenes femeninas.

La IA se alimenta de datos que no son neutrales, ya que reflejan sociedades marcadas por desigualdades históricas y relaciones de poder, según explica Ivana Bartoletti, experta internacional en gobernanza de la IA y autora de un estudio del consejo de Europa. Para Bartoletti, si una empresa desea obtener resultados equitativos, debe cuestionar los conjuntos de datos, verificar su representatividad e intervenir activamente cuando no lo sean, pues la equidad no surge sola, sino que debe ser diseñada.

El reciente caso de Grok, la IA de Elon Musk que permitía generar desnudos falsos de mujeres y menores antes de que se suspendiera dicha función, muestra lo que ocurre cuando la seguridad y los derechos de las mujeres no se consideran en el diseño de los sistemas. Bartoletti señala que si existen herramientas para desnudar a las mujeres, estas serán utilizadas, y añade que los deepfakes de desnudos son una forma de humillación y control que silencia a muchas mujeres y las aleja del espacio digital.

En este contexto están surgiendo alternativas para repensar la IA y convertirla en un terreno de lucha y poder compartido. En América Latina y el Caribe, la Red Feminista de IA apoya proyectos orientados a la transparencia y las políticas públicas. Herramientas como AymurAI, Arvage IA y SofIA aplican la perspectiva de género al análisis jurídico y desenmascaran la discriminación de los algoritmos. Por su parte, el afro feminismo también reivindica la IA como un espacio de autodeterminación con asistentes como AfroféminasGPT, entrenados con conocimientos y voces negras.

Estos proyectos demuestran que es posible organizarse para usar la IA en favor del bien común, compartir datos de forma colectiva y desarrollar soluciones centradas en necesidades reales. Sin embargo, Bartoletti subraya que el punto central sigue siendo el poder. La cuestión feminista en la IA es una cuestión de poder y las mujeres deben tener más presencia en la cima de las empresas y en los lugares donde se decide la política tecnológica. Se requiere diversidad en los niveles de decisión y no solo entre quienes escriben el código, pues la IA es una elección sobre cómo se desea transformar la sociedad.

Fuente: Web. Editado por CDOL.

Custom Text
Artículo anteriorMovilnet incorpora startups locales a través de su plataforma Nexos
Artículo siguienteUna herramienta para medir el impacto real de los ciberincidentes industriales