Es bien sabido que la Inteligencia Artificial puede heredar los sesgos de los humanos a través de los datos con los que se entrena, pero ahora se ha descubierto que también ocurre lo contrario: las personas que utilizan sistemas basados en IA heredan sesgos y errores en las decisiones que toman.
El riesgo, por tanto, es quedar atrapado en un círculo vicioso sin fin: da la voz de alarma un estudio de la Universidad española de Deusto, en Bilbao, publicado en la revista Scientific Reports.
Los resultados muestran que la información distorsionada por la IA puede tener un impacto negativo duradero en las decisiones humanas e indican, por tanto, la necesidad de investigar más a fondo los mecanismos, incluidos los psicológicos, que subyacen a las interacciones hombre-máquina. Los asombrosos avances logrados por los sistemas de Inteligencia Artificial, capaces por ejemplo de mantener una conversación como lo haría un humano, han dado a esta tecnología una imagen de gran fiabilidad.
Cada vez son más los campos profesionales que implementan herramientas de este tipo para apoyar el proceso de toma de decisiones de los especialistas y minimizar los errores, sin embargo, este enfoque no está exento de riesgos, como demostraron Lucía Vicente y Helena Matute. Las dos investigadoras reclutaron a un grupo de voluntarios para llevar a cabo una simulación: un grupo tenía que trabajar en un diagnóstico médico con la ayuda de un sistema de IA caracterizado por el error sistemático, mientras que el segundo grupo trabajaba de forma completamente independiente.
Como era de esperar, los participantes asistidos por la IA cometieron los mismos errores en el sistema que los demás, pero el descubrimiento más significativo se produjo en la segunda fase del experimento. Cuando el primer grupo pasó a realizar la misma tarea sin ayuda externa, siguió imitando el error que había cometido anteriormente: en otras palabras, heredó el «fallo» contenido en el sistema.
Fuente: Web. Editado por CambioDigital OnLine