Con motivo del Día Mundial de la Concientización sobre la Accesibilidad, la jornada internacional en apoyo de las discapacidades, Meta ha anunciado nuevas funcionalidades para las gafas inteligentes Ray-Ban, desarrolladas junto con EssilorLuxottica.
Aprovechando la cámara y la inteligencia artificial, ahora las gafas pueden describir de manera más detallada lo que les rodea, convirtiéndose así en un apoyo más valioso para personas ciegas y con baja visión.
Meta ha compartido un video de la herramienta en acción, en el que un usuario le pide a Meta AI, el asistente del gigante estadounidense lanzado las semanas pasadas que describa un área verde en un parque. La IA indica correctamente un sendero, los árboles y una masa de agua a lo lejos.
«Con esta nueva funcionalidad, Meta AI será capaz de proporcionar respuestas más descriptivas cuando las personas pidan información sobre el entorno que les rodea», destaca una nota oficial. «Esta novedad se distribuirá primero en Estados Unidos y Canadá y luego en otros países», añade el escrito.
En otro ejemplo, las gafas ayudan a identificar qué hay sobre la mesa de una cocina, explicando en detalle dónde se encuentran los artículos, con referencias como derecha o izquierda. Otro anuncio dedicado a la accesibilidad es «call a volunteer» (llama a un voluntario), que pone automáticamente en contacto a personas ciegas o con baja visión con una ‘red de voluntarios en tiempo real’ para ayudarles a llevar a cabo actividades cotidianas. Los voluntarios provienen de la fundación Be My Eyes y la plataforma se lanzará a finales de este mes en 18 países. En los dispositivos de realidad extendida, como la línea de visores VR Quest, llegan en cambio los subtítulos que convierten las conversaciones de voz en texto para personas sordas.
Fuente: Meta








































