Google Gemini ‘ve’ el mundo, nuevas funciones del chatbot de IA

0
15

Google ha empezado a lanzar nuevas funciones de IA para su chatbot, Gemini.

Según ha confirmado un portavoz de la compañía a The Verge, Gemini pronto será capaz de «ver» el mundo a través de la pantalla y la cámara del smartphone. Esto es similar al modo avanzado ChatGPT que OpenAI presentó a finales de 2024. La actualización de Géminis llega casi un año después de una demostración en la que la Gran G puso a prueba las capacidades del Proyecto Astra, un proyecto de investigación destinado a desarrollar un asistente universal avanzado de IA.

El descubrimiento de las características que formarán parte de Gemini Live, la forma en la que el asistente de Google entabla conversaciones más naturales y fluidas con los usuarios, surgió gracias a un informe en los foros de Reddit, en el que una persona habría accedido a la vista a través de un teléfono de la marca Xiaomi.

Las innovaciones de Gemini se centran principalmente en dos áreas: la lectura de pantalla y la interpretación de secuencias de vídeo en directo.

La primera permite al chatbot analizar y responder preguntas relacionadas con lo que se muestra en la pantalla del dispositivo, abriendo nuevas posibilidades de asistencia contextual.

El segundo permite a la IA «leer» secuencias de vídeo de la cámara del smartphone en tiempo real, proporcionando respuestas y sugerencias basadas en lo que ve. Un ejemplo práctico es cuando Gemini se utiliza para recibir consejos sobre la elección del color de pintura de un objeto de cerámica.

Al parecer, Google ha empezado a distribuir ambas funciones a los suscriptores de Gemini Advanced como parte del plan Google One AI Premium.

Fuente: Google

Custom Text
Artículo anteriorBancaribe y Mastercard lideran inclusión financiera con tarjetas de débito para personas con discapacidad visual
Artículo siguienteEl mercado de la computación molecular dinámica superará los US$2.039,25 millones de 2025 a 2034