Google ha anunciado una serie de actualizaciones en su aplicación Maps que incorporan capacidades del modelo de inteligencia artificial Gemini, con el objetivo de hacer la navegación más intuitiva, contextual y útil tanto durante el trayecto como al llegar al destino. Estas funciones se están desplegando progresivamente en Estados Unidos para dispositivos Android e iOS, y se espera su expansión a otras regiones en los próximos meses.
Una de las principales novedades es la introducción de una experiencia de conducción manos libres y conversacional, que permite interactuar con Google Maps mediante comandos de voz más naturales. Los usuarios pueden, por ejemplo, pedir que se busque un restaurante con opciones veganas a lo largo de la ruta, consultar la disponibilidad de estacionamiento, compartir la hora estimada de llegada o incluso añadir eventos al calendario sin salir de la navegación. Esta integración con otros servicios de Google, como Calendar, se realiza con el consentimiento del usuario y busca reducir distracciones al volante.
Otra mejora destacada es la navegación basada en puntos de referencia visuales. En lugar de instrucciones genéricas como “gire a la derecha en 500 metros”, la aplicación ahora puede indicar “gire a la derecha después del restaurante Thai Siam”, mostrando además el lugar resaltado en el mapa. Esta funcionalidad se apoya en la base de datos de más de 250 millones de lugares de Google y en imágenes de Street View para identificar elementos visibles desde la vía pública que sirvan como guía más clara para los conductores.
Además, Google Maps comenzará a emitir alertas proactivas de tráfico, incluso cuando la navegación no esté activa. Esto permitirá a los usuarios recibir notificaciones sobre cierres inesperados o congestiones en su ruta habitual, anticipándose a posibles retrasos. Esta función ya está disponible en Android en Estados Unidos.
Una vez en el destino, la experiencia se complementa con Lens potenciado por Gemini, una herramienta que permite explorar el entorno con la cámara del teléfono. Al enfocar un restaurante, tienda o punto de interés, el usuario puede hacer preguntas por voz como “¿Qué platos son populares aquí?” o “¿Qué ambiente tiene este lugar?”, y recibir respuestas contextuales basadas en reseñas, imágenes y datos en tiempo real. Esta función busca facilitar decisiones rápidas sobre si vale la pena entrar a un establecimiento o seguir explorando.
Estas actualizaciones reflejan la estrategia de Google de integrar capacidades generativas y contextuales de IA en productos cotidianos, con un enfoque en la utilidad práctica y la seguridad del usuario. En el caso de Maps, la combinación de datos geoespaciales, visión computacional y modelos de lenguaje permite una experiencia más rica y adaptada al entorno físico, especialmente relevante en un momento en que la movilidad urbana y la conducción asistida requieren soluciones más inteligentes y accesibles.
Fuente: blog de Google | Editado por CDOL








































