evtv
Actualizados

Las personas con discapacidad ya pueden controlar sus teléfonos con gestos faciales

Google lanzó dos nuevas herramientas que permiten que el aprendizaje automático y las cámaras frontales de los teléfonos inteligentes funcionen detectando los movimientos faciales y oculares.

Los usuarios pueden escanear la pantalla de su teléfono y seleccionar una tarea sonriendo, levantando las cejas, abriendo la boca o mirando a la izquierda, derecha o arriba.

«Para hacer que Android sea más accesible para todos, estamos lanzando nuevas herramientas que facilitan el control de su teléfono y la comunicación mediante gestos faciales», dijo Google.

Los Centros para el Control y la Prevención de Enfermedades estiman que 61 millones de adultos en Estados Unidos viven con discapacidades, lo que ha empujado a Google y a sus rivales Apple y Microsoft a hacer que los productos y servicios sean más accesibles para ellos.

«Todos los días, la gente usa comandos de voz, como ‘hey, Google’, o sus manos para navegar en sus teléfonos», explicó el gigante tecnológico en una publicación de blog. «Sin embargo, eso no siempre es posible para las personas con discapacidades motoras y del habla graves».

Los cambios son el resultado de dos nuevas funciones, una se llama «Interruptores de cámara», que permite a las personas usar sus rostros en lugar de deslizar y tocar para interactuar con los teléfonos inteligentes.

Project Activate

El otro es Project Activate, una nueva aplicación de Android que permite a las personas usar esos gestos para desencadenar una acción, como hacer que un teléfono reproduzca una frase grabada, envíe un mensaje de texto o haga una llamada.

«Ahora es posible que cualquier persona utilice movimientos oculares y gestos faciales personalizados para su rango de movimiento para navegar en su teléfono, sin manos ni voz», afirmó la compañia.

Apple, Google y Microsoft han implementado constantemente innovaciones que hacen que la tecnología de Internet sea más accesible para las personas con discapacidades o que encuentran que la edad ha dificultado algunas tareas, como la lectura.

Los asistentes digitales controlados por voz integrados en los altavoces y los teléfonos inteligentes pueden permitir que las personas con problemas de visión o de movimiento le digan a las computadoras qué hacer.

Existe un software que identifica texto en páginas web o en imágenes y luego lo lee en voz alta, así como generación automática de subtítulos que muestran lo que se dice en videos.

Una función -AssistiveTouch- que Apple incorporó al software que alimenta su reloj inteligente permite que las pantallas táctiles se controlen mediante la detección de movimientos como pellizcos con los dedos o con las manos.

Apple dijo en una publicación que «esta función también funciona con VoiceOver para que pueda navegar por Apple Watch con una mano mientras usa un bastón o lleva un animal de servicio».

El gigante de la informática Microsoft por su parte describe la accesibilidad como esencial para capacitar a todos con herramientas tecnológicas.

«Para permitir un cambio transformador, la accesibilidad debe ser una prioridad», citó. «Nuestro objetivo es integrarlo en lo que diseñamos para cada equipo, organización, aula y hogar».

Con información de AFP