Jensen Huang, CEO de NVIDIA, se ha mostrado escéptico sobre el estado actual de la inteligencia artificial (IA) en una entrevista en la Universidad de Ciencia y Tecnología de Hong Kong.
A pesar de todos los avances, Huang sostiene que aún no podemos confiar plenamente en las respuestas ofrecidas por la IA. «Hoy en día, las respuestas que tenemos son las mejores que podemos ofrecer, pero debemos alcanzar un punto en el que la respuesta recibida no sea simplemente la mejor que podemos dar. Es necesario que sigas evaluando si tiene sentido, si es razonable o no. Debemos llegar a un nivel donde confíes ampliamente en la respuesta obtenida».
Además, añadió: «Creo que todavía nos faltan varios años para lograrlo y, mientras tanto, debemos continuar aumentando nuestra capacidad de cálculo» señaló Huang, líder de la empresa más valiosa del mundo.
Huang destaca el problema de la «alucinación» en la IA
Huang subrayó que los usuarios no deberían tener que cuestionarse si la respuesta de una IA es «alucinada o no alucinada» o «sensata o no sensata».
Utilizó «alucinación» para referirse al caso en que la IA da información falsa o ficticia.
Este ha sido un gran problema para los modelos lingüísticos avanzados como ChatGPT, a pesar de sus increíbles avances en la respuesta a consultas complejas en los últimos años.
El tema de la alucinación en la IA ya ha dado lugar a problemas legales.
El año pasado, un locutor de radio demandó a OpenAI después de que su modelo ChatGPT produjera una denuncia falsa contra él.
El incidente pone de manifiesto las ramificaciones en el mundo real de los defectos de la IA y las dificultades que encuentran las empresas tecnológicas para hacerla confiable.
Huang también cuestionó la eficacia del preentrenamiento de modelos de inteligencia artificial en grandes conjuntos de datos antes de desarrollarlos para tareas específicas. Afirmó que este enfoque es insuficiente para crear sistemas de IA fiables.
Sus comentarios ponen de relieve un debate en curso en la industria tecnológica sobre cómo mejorar los grandes modelos lingüísticos (LLM) sin depender únicamente de grandes cantidades de datos, que son un recurso limitado.
Fuente WEB | Editadopor CambioDigital Online