Universidad Sapienza de Roma: «La capacidad de juicio de la IA es solo apariencia»

Grandes riesgos al delegar elecciones y juicios a los modelos de lenguaje grande.

0
9

La capacidad de juicio de los modelos de lenguaje grande (LLM) como ChatGPT o Gemini es solo apariencia. Esto es lo que demuestra claramente el estudio liderado por Walter Quattrociocchi, de la Universidad Sapienza de Roma, y publicado en la revista de la Academia Nacional de los Estados Unidos, (PNAS). El trabajo subraya los riesgos concretos de delegar en estos modelos de Inteligencia Artificial la tarea de tomar decisiones o emitir juicios.

Los Modelos de Lenguaje Grande (LLM) son sistemas avanzados de Inteligencia Artificial entrenados con enormes cantidades de datos de texto para comprender y generar lenguaje humano. Funcionan reconociendo patrones lingüísticos y contextuales para producir texto coherente y relevante, y son la base de la IA generativa, como ChatGPT, Microsoft Copilot y otras aplicaciones que pueden crear contenido, resumir información, traducir idiomas y responder preguntas.

«¿Qué ocurre realmente cuando le pedimos a una IA que ejecute una elección, por ejemplo, determinar si una noticia web es creíble o es más bien una noticia falsa?», explicó Quattrociocchi a la agencia Ansa para comentar el nuevo estudio. Este trabajo sometió a una serie de pruebas a la mayoría de los LLM más importantes del mercado, como ChatGPT, Gemini, Llama, Deepseek y Mistral, y comparó a humanos y a la IA para comprender las diferencias en el ‘razonamiento’ de ambos.

«Lo que hemos puesto muy bien de manifiesto es que, a pesar de los resultados –las IA reconocen muy bien las noticias falsas–, el mecanismo que utilizan no se basa en verificaciones reales, sino en una mera capacidad de simular los juicios. En otras palabras, los juicios formulados por los LLM son plausibles, pero están desanclados de la realidad factual», afirmó el investigador.

Una sustitución de la verdad por la plausibilidad que, en un futuro no muy lejano, según señalan los autores, podría generar graves problemas a medida que, de forma gradual, se otorgue más autoridad a la capacidad de los LLM para gestionar acciones o tomar decisiones por las personas, en total delegación. «Pero estos sistemas parecen evaluar como nosotros solo porque simulan las trazas del pensamiento, no el pensamiento en sí mismo», agregó el investigador italiano. «Este estudio demuestra que lo que estamos automatizando no es el juicio, sino su apariencia», concluyó.

Fuente: Web. Editado por CDOL.

Custom Text
Artículo anteriorEl ‘contactless’ en la mira: alertan por fraude en las compras
Artículo siguienteGWM Venezuela se convierte en el vehículo oficial de la Liga Venezolana de Béisbol Profesional