La IA no distingue entre opiniones personales y hechos

0
6
Imagen generada con Gemini IA.

Los grandes modelos lingüísticos de inteligencia artificial (IA), como ChatGPT, presentan una limitación crucial: su falta de fiabilidad para diferenciar entre opiniones personales y hechos objetivos. Esta carencia es especialmente preocupante dada la creciente adopción de estas herramientas en sectores clave como la medicina, el derecho, el periodismo y la ciencia, donde la distinción entre realidad y ficción es imperativa.

Así lo afirma un estudio liderado por la universidad americana de Stanford y publicado en la revista Nature Machine Intelligence. La investigación subraya la necesidad de ser cautelosos al confiar en estos programas y advierte sobre el riesgo de que puedan impulsar la difusión de desinformación.

Pruebas de confiabilidad
Los investigadores, coordinados por James Zou, evaluaron 24 modelos de lenguaje grandes (LLM), incluidos ChatGPT de la californiana OpenAI y el chino DeepSeek, a través de 13.000 preguntas.

Cuando se les pidió que verificaran datos fácticos (verdaderos o falsos), los modelos más recientes demostraron una precisión elevada, superando el 91 %.

Sin embargo, al enfrentar creencias expresadas en primera persona, todos los modelos fallaron. La fiabilidad de GPT 4 (versión lanzada en mayo de 2024) cayó del 98,2 % al 64,4 %, mientras que la versión R1 de DeepSeek se desplomó de más del 90 % a tan solo el 14,4 %.

Un sesgo preocupante
Los autores observaron que la disminución de la precisión fue menos drástica en el caso de opiniones expresadas en tercera persona. Este hallazgo revela un preocupante sesgo de atribución, que se refiere a una distorsión en la forma en que los modelos evalúan las afirmaciones hechas por otros.

Además, los LLM mostraron ser un 34,3 % menos propensos (en el caso de los últimos modelos) a identificar una creencia falsa que una verdadera.

Ante estos resultados, los investigadores concluyen que es urgente implementar mejoras en este ámbito para prevenir activamente la difusión de noticias falsas (fake news) por parte de estas plataformas.

Fuente: Web. Editado por CDOL

Custom Text
Artículo anteriorKaspersky: las empresas sobrestiman su seguridad mientras descuidan lo básico
Artículo siguienteMovilnet potenció su señal en nueve estados del país