Fotografía: Google

Google Maps, indicaciones detalladas personas con problemas de visión

stop

Además de indicaciones detallas en Google Maps, una nueva función en el navegador Chrome describe automáticamente el contenido de las imágenes de la web

Madrid, 15 de octubre de 2019 (11:04 CET)

Google está implementando en Google Maps una nueva función de guiado por voz de la navegación a pie más detallada, dirigida especialmente para las personas con problemas de visión. De este modo el usuario puede seguir las indicaciones de Google Maps sin necesidad de mirar la pantalla del móvil.

  • La nueva función está disponible tanto en Google Maps para iPhone como para Android, de momento para usuarios en Japón y y EEUU, aunque según las indicaciones por voz detalladas estarán disponibles en más idiomas.
  • Además de recibir más detalles en las indicaciones por voz escuchará información adicional relativa a la ruta en forma de avisos y alertas, por ejemplo cuando se llega a un paso de cebra o a una parada de autobús.
  • Aunque esta nueva función puede ser de gran ayuda para las personas con discapacidad visual, también tiene utilidad para quienes interactúan con el móvil a través de auriculares como los Air Pods de Apple.
  • "Puede que no todo el mundo necesite este nivel de asistencia, pero es fantástico saber que está disponible para quien lo necesita," dicen desde Google.

Además el navegador web Chrome de Google también dispone de una función para describir automáticamente el contenido de las imágenes, de momento en inglés.

  • De este modo las personas con problemas de visión puedan leer o escuchar una descripción sobre lo que aparece en las fotografías e imágenes incluidas en una página web o una red social.
  • Las imágenes en la web pueden (y deben) ir acompañadas de un texto alternativo que describa su contenido. De este modo las personas que acceden a internet a través de sistemas de voz o sistemas braille pueden escuchar o leer (en braille) las descripción de las imágenes.
  • Sin embargo, todavía muchas fotografías de internet carecen de ese texto alternativo, que también es útil cuando las imágenes no se cargan debido a dificultades técnicas o velocidades de conexión muy bajas.
  • Con el etiquetado automático, cuando el navegador web Chrome encuentra imágenes sin texto alternativo las envía a los servidores de Google donde un algoritmo de inteligencia artificial la analiza, detecta texto, personas, acciones u objetos y genera automáticamente una descripción.

Facebook utiliza un sistema parecido desde hace algún tiempo para hacer más accesible su red social, pero también para obtener para información sobre los usuarios — o al revés.

  • El etiquetado automático de las fotografías de Facebook también genera un texto que describe el contenido de las imágenes para los usuarios con problemas de visión.
  • Según Facebook, utilizar la inteligencia artificial para describir fotos es un paso importante para proporcionar a las personas con discapacidad visual los mismos beneficios y las emociones que disfrutan todos los demás usuarios de la red.
  • Pero reconocer qué sucede, qué o quién aparece en las fotografías que comparte un usuario también proporciona a Facebook más información personal sobre sus gustos y preferencia, y también sobre con quién se relacionado aunque no etiquete a tras personas en las fotografías.
Suscribir a boletines

Al suscribirte confirmas nuestra política de privacidad