Google aclara las respuestas «extrañas» en sus resúmenes generados por IA, explica errores e informa sobre cambios

0
13

Google defiende los resúmenes de IA sobre las respuestas extrañas y engañosas. Conoce cómo respondió Google a consultas virales de usuarios como «¿Cuántas piedras debo comer?» o «Cómo usar pegamento para que el queso se pegue a la pizza».

En el evento Google I/O, la compañía anunció una nueva función de búsqueda llamada «AI Overviews». Desde su lanzamiento, la función se ha convertido en la comidilla de todas las conversaciones debido a sus respuestas extrañas y engañosas. Mientras la gente empezaba a tener dudas sobre la precisión de Google y sus esfuerzos en IA, la compañía finalmente decidió responder a la creciente preocupación y dirigirse a los usuarios sobre su funcionamiento y por qué generaba respuestas tan cuestionables. Echa un vistazo a lo que dijo Google en relación con los errores de los resúmenes de IA.

Google defiende los resúmenes de IA
En la entrada del blog, Google destaca en primer lugar cómo los AI Overviews están ganando adeptos y cómo la gente está apreciando su uso y sus capacidades. Según Google, «la gente está más satisfecha con los resultados de sus búsquedas, y están haciendo preguntas más largas y complejas con las que saben que Google ahora puede ayudar». Más adelante, el blog señaló los extraños resúmenes y por qué es tan importante abordar y aclarar por qué genera resultados tan engañosos. Antes de entrar en materia, Google explicó brevemente el funcionamiento de los resúmenes de IA.

Google mencionó claramente que los AI Overviews no generan resultados basados en datos de entrenamiento, sino que se alimentan de un modelo lingüístico personalizado que se integra con los principales sistemas de clasificación web. Esto significa que la función selecciona información de resultados relevantes o de alta calidad. Según Google, «los AI Overviews no suelen “alucinar” ni inventar cosas de la forma en que podrían hacerlo otros productos LLM».

Por otro lado, también destaca que los AI Overviews generaron respuestas extrañas debido a que «malinterpretaron las consultas, malinterpretaron un matiz del lenguaje en la web o no tenían mucha información de gran calidad disponible.»

Respuestas extrañas de los resúmenes de IA
En el blog, Google aborda las respuestas que se hicieron virales en las redes sociales como «¿Cuántas piedras debo comer?» o «usar pegamento para que el queso se pegue a la pizza». La empresa afirma que la función no es capaz de generar respuestas para «contenido satírico» debido a un vacío de información. Por lo tanto, la función enlaza a sitios web que tienen esas respuestas a las consultas o proporcionan conocimientos fiables de primera mano.

Sin embargo, Google también ha reconocido que los AI Overviews malinterpretan el lenguaje de las páginas web y que han integrado mejoras para este tipo de consultas.

Mejoras en los resúmenes de IA
La compañía mencionó que han realizado una docena de mejoras técnicas para evitar estos errores que, según ha mantenido, es de carácter experimental y meramente sugerente.

«Observando los ejemplos de las últimas dos semanas, hemos podido determinar patrones en los que no hemos acertado, y hemos realizado más de una docena de mejoras técnicas en nuestros sistemas», ha explicado Elizabeth Reid responsable de Google Search.

Estos cambios incluyen mejores mecanismos de detección de «consultas sin sentido» que no se deberían mostrar un resumen de IA, la limitación de la inclusión de sátira y contenido humorístico, la limitación del uso de contenido generado por el usuario en respuestas que podrían ofrecer consejos engañosos y la adición de restricciones de activación para consultas en las que los resúmenes de IA no estaban resultando tan útiles.

«Para temas como las noticias y la salud, ya contamos con fuertes barreras», añadió Reid. «Por ejemplo, nuestro objetivo es no mostrar resúmenes de inteligencia artificial en temas de actualidad, donde la actualidad y la veracidad son importantes. En el caso de la salud, hemos introducido mejoras adicionales para aumentar nuestra protección de la calidad».

Fuente WEB | Editado por CambioDigital OnLine

Custom Text
Artículo anteriorSegún Facebook y X: Los motores de la desinformación son los supercompartidores y las noticias ambiguas
Artículo siguienteOpenAI lanza ChatGPT Edu para llevar la IA a las universidades