Aunque su rendimiento es impresionante y da a muchos la ilusión de cierta capacidad de pensar, la toma de decisiones racionales no es el punto fuerte de ChatGPT y otros sistemas lingüísticos basados en Inteligencia Artificial (IA).
Así lo demuestra una investigación de la Universidad del Sur de California publicada en la revista Royal Society Open Science: ante una elección, basada en el lanzamiento de una moneda, entre ganar un diamante y perder un coche, ChatGPT es incapaz de reconocer la más ventajosa y elige totalmente al azar.
ChatGPT puede ser capaz de generar biografías, poemas o imágenes a la carta, pero su funcionamiento se basa en la información existente: es capaz de «aprender» y reprocesar enormes cantidades de datos y proporciona una respuesta que es simplemente la que se considera más probable y estadísticamente adecuada.
«A pesar de sus capacidades, los modelos lingüísticos como ChatGPT no piensan realmente», afirman los dos autores del estudio, Zhisheng Tang y Mayank Kejriwal: «tienden a cometer errores elementales e incluso a inventarse cosas. Sin embargo, gracias a un uso muy fluido del lenguaje, engañan al usuario».
Los dos investigadores pusieron de manifiesto las limitaciones del sistema desarrollado por OpenAI al proponer opciones similares a las apuestas basadas en el lanzamiento de una moneda o en cartas y dados: aunque ChatGPT ha sido entrenado para tomar «decisiones relativamente racionales», su rendimiento durante este experimento fue bastante pobre.
«La idea de que se pueden enseñar al modelo los principios generales de la toma de decisiones racional sigue sin resolverse», comentan los autores del estudio, «la toma de decisiones sigue siendo un problema no trivial incluso para sistemas lingüísticos mucho más grandes y avanzados».
Fuente: Web. Editado por CambioDigital OnLine