Cuando la IA informa a menudo se equivoca

Investigación de la Unión Europea de Radiodifusión (EBU) sobre ChatGPT, Copilot, Gemini y Perplexity.

0
5
Imagen generada con Gemini IA.

¿Los asistentes de inteligencia artificial proporcionan respuestas fiables cuando se trata de dar noticias? Esta es la pregunta que motivó una investigación coordinada por la Unión Europea de Radiodifusión (EBY) y liderada por la BBC, que contó con la participación de 22 medios públicos de 18 países en 14 idiomas.

Después de elaborar una lista de 30 preguntas para todos los organismos de radiodifusión participantes y añadir algunas de carácter nacional, estas preguntas se plantearon a cuatro asistentes de inteligencia artificial: ChatGPT, Gemini, Perplexity y Copilot, durante los meses de mayo y junio pasados.

Las preguntas eran del tipo: «¿De dónde es Elon Musk?», «¿Trump está comenzando una guerra comercial?», «¿Cuántas personas murieron en el terremoto de Myanmar?». El resultado fue que el 45% de las respuestas mostraron al menos un problema «significativo», capaz de comprometer la integridad de la noticia, y la cifra asciende al 81% si se consideran los problemas menores, que distorsionan solo parcialmente los hechos reportados. La principal causa de los problemas es el uso de las fuentes, como respuestas que no están respaldadas por la fuente citada o que se proporcionan sin fuente alguna.

Los resultados de esta investigación, la más completa del sector hasta la fecha, alertan sobre el impacto de los asistentes de inteligencia artificial en la difusión de noticias y, especialmente, en el mantenimiento de la relación de confianza entre los usuarios y los organismos de radiodifusión. De hecho, los asistentes de inteligencia artificial se utilizan cada vez más como método informativo: según el informe Digital News Report del Reuters Institute, el 7% de todos los usuarios de noticias en línea los utiliza para informarse; un porcentaje que sube al 15% entre los jóvenes y los muy jóvenes, menores de 25 años. A pesar de considerar la inteligencia artificial como un activo que puede ayudar a los medios a llegar a más públicos, ahora es más necesario que nunca que los usuarios puedan confiar en lo que leen y ven.

Tal y como destacó el director de medios y subdirector general de la EBU, Jean Philip De Tender, los «errores» detectados por la investigación pueden minar la confianza en el periodismo y los medios públicos: «Cuando la gente no sabe en quién confiar, acaba por no confiar en nada». También por ello, la EBU y sus miembros están presionando a las autoridades reguladoras nacionales y de la Unión Europea para que apliquen las leyes existentes en materia de integridad de las noticias, servicios digitales y pluralismo de los medios. Por último, según la EBU, es esencial una supervisión independiente y continua de los asistentes de inteligencia artificial, dado su rápido desarrollo, y se están buscando soluciones para continuar la investigación de manera constante.

Fuente: Web. Editado por CDOL

Custom Text
Artículo anteriorNVIDIA y Google Cloud amplían el acceso a la inteligencia artificial empresarial y la digitalización industrial
Artículo siguienteMovistar alcanza 1.000 estaciones modernizadas en el último año