Intel: cómo Interactuar con un ordenador sin tocarlo

La UCL, en colaboración con Intel, Microsoft e IBM, desarrolla UCL MotionInput V3, un software para la informática sin contacto.

0
41

Paris Baker, de 31 años y madre de dos hijos, fue una gimnasta acrobática de élite que representó a Gran Bretaña y ganó medallas de plata en campeonatos europeos y mundiales. A los 26 años, Paris recibió el diagnóstico de la enfermedad de la neurona motora (ENM), que provoca una debilidad muscular que empeora gradualmente con el tiempo y conduce a la discapacidad. De las muchas cosas que cambiaron en su vida, un elemento esencial fue perder la capacidad de jugar a los videojuegos con sus hijos.

Eso fue hasta que descubrió MotionInput.
Desarrollado por académicos y estudiantes del departamento de Ciencias de la Computación del University College London (UCL), en colaboración con Intel, Microsoft e IBM, UCL MotionInput V3 permite una computación verdaderamente sin contacto. Con MotionInput y una cámara web común, un usuario puede controlar un PC haciendo gestos con las manos, la cabeza, la cara y todo el cuerpo o utilizando el habla. El software analiza estas interacciones y las convierte en señales de ratón, teclado y joystick aprovechando al máximo el software existente.

Vea cómo la tecnología se hace más accesible con UCL MotionInput y la informática sin contacto
Intel mantiene una larga relación con la UCL en lo que respecta a la tutoría de proyectos informáticos, afirma Phillippa Chick, directora de cuentas globales de Ciencias de la Salud y de la Vida de Intel Reino Unido. «Trabajamos con el profesor Dean Mohamedally, el profesor Graham Roberts y la señora Sheena Visram en proyectos de tutoría, así como en la estructura de apoyo a los estudiantes. Esta idea fue propuesta por primera vez por el equipo de la UCL en el verano de 2020 como una serie de proyectos de estudiantes de la UCL Computer Science IXN [Red de Intercambio de la Industria] y surgió de la necesidad de ayudar a los trabajadores sanitarios durante la COVID-19, cuando era necesario mantener los ordenadores compartidos limpios y libres de gérmenes.» El equipo incorporó a la Dra. Atia Rafiq, médico de cabecera del NHS, para mejorar los requisitos clínicos que necesita el personal sanitario de primera línea.

MotionInput puede abrir un mundo de casos de uso al utilizar las manos o los ojos simultáneamente con el habla. Ahora se puede acceder a todos los juegos, registrar el progreso de los movimientos del paciente en fisioterapia y, en un entorno hospitalario, los cirujanos pueden tomar notas mediante gestos de las manos y el habla sin tener que tocar un ordenador. La solución no requiere conectividad ni un servicio en la nube, lo que facilita su implantación.

«Tiene grandes posibilidades de influir positivamente en la vida de las personas con enfermedades crónicas que afectan al movimiento», afirma Phillippa.

Intel pone a disposición de los estudiantes de la UCL tutoría y tecnología, incluyendo capacidades de hardware y software como el kit de herramientas OpenVINO™ de Intel. El kit de herramientas facilita el desarrollo de aplicaciones basadas en la IA y ayuda a aumentar su rendimiento.

Los modelos preentrenados proporcionados por OpenVINO™ permitieron un desarrollo más rápido de los diversos componentes y características de MotionInput, lo que permitió a los estudiantes avanzar sin entrenar sus propios modelos, lo que suele ser un proceso largo e intensivo de computación.

Costas Stylianou, especialista técnico en Ciencias de la Salud y de la Vida de Intel UK, explica que la optimización significa que MotionInput V3 «tiene varios órdenes de magnitud de mejora en la eficiencia y una arquitectura para apoyar el crecimiento de las aplicaciones de computación sin contacto como un ecosistema.» El desarrollo de la ingeniería de software y la arquitectura de V3 fueron dirigidos por los estudiantes de la UCL, Sinead V. Tattan y Carmen Meinson. Juntos dirigieron a más de 50 estudiantes de la UCL en varios cursos de informática para desarrollar el trabajo. El equipo también trabajó con mentores de Microsoft e IBM, en particular el profesor Lee Stott y el profesor John McNamara.

La solución emplea una mezcla de modelos de aprendizaje automático y de visión por ordenador para permitir una interacción receptiva. Es personalizable, ya que permite al usuario elegir entre una serie de módulos, como por ejemplo:

  • Navegación facial: El usuario puede utilizar su nariz o sus ojos y un conjunto de expresiones faciales para desencadenar acciones como clics en los botones del ratón, o con el habla diciendo «clic».
  • Gestos con las manos: Se puede reconocer una selección de gestos de la mano y asignarlos a comandos y atajos de teclado específicos, movimientos del ratón, detección multitáctil nativa y lápices digitales con profundidad en el aire.
  • Mirada ocular con modos de cuadrícula y seguimiento: Para alinear el cursor en escenarios de accesibilidad, se implementa un método de autocalibración para el seguimiento ocular que obtiene la estimación de la mirada, incluyendo tanto un modo de cuadrícula como un modo magnético.
  • Seguimiento de todo el cuerpo: Los usuarios pueden establecer ejercicios físicos y etiquetar regiones en su espacio circundante para jugar a los juegos de ordenador existentes.
  • Teclas de acceso rápido al habla y subtítulos en directo: Ask-KITA (Know-It-All) permite a los usuarios interactuar con el ordenador a partir de un conjunto de comandos de voz, subtítulos en directo y anulación de atajos de teclado.
  • Joypad en el aire: Los usuarios pueden jugar con los botones habituales del joypad ABXY en el aire con controles de disparo analógicos.

«Lo que hace que este software sea tan especial es que es totalmente accesible», dice Phillippa. «El código no requiere un equipo caro para funcionar. Funciona con cualquier cámara web estándar, incluida la del portátil. Sólo hay que descargarlo y ya está listo».

Dado que MotionInput permite la navegación facial mediante la nariz, los ojos y la boca, añade Costas, «es ideal para las personas que sufren MND».

¿Qué es lo siguiente para MotionInput?
«El proyecto continuará y busca colaborar con sectores de la industria. Los académicos y los mentores están estudiando qué se puede hacer para ampliar los casos de uso y mejorar continuamente la experiencia del usuario», dice Phillippa. «Nos encanta trabajar con los estudiantes y el personal docente de la UCL, ya que es inspirador ver lo que pueden hacer con la tecnología».

O como dice Paris, mientras juega a un videojuego con sus hijos: «El potencial de UCL MotionInput para cambiar vidas es ilimitado»

CambioDigital Online | Fuente : Contenido publicado por Intel

Custom Text
Artículo anteriorCómo los vehículos abren el camino a un futuro cada vez más conectado
Artículo siguienteLenovo abrió su primera planta de fabricación en Europa