Home Research Research projects Sistema Avanzado de Navegación (SAN)

Skip to content. | Skip to navigation

Sistema Avanzado de Navegación de asistencia a la movilidad y orientación de personas con discapacidad visual. (Sistema Avanzado de Navegación (SAN))

Programa Nacional de Cooperación Público-Privada - subprograma INNPACTO, 2012-2015.

Ministerio de Economía y Competitividad (IPT-2012-0961-300000)
Unión Europea, Fondo Europeo de Desarrollo Regional

Descripción

Con el desarrollo del sistema SAN se desea lograr que las personas con discapacidad visual cuenten con una solución tecnológica que realice las siguientes tareas:

  1. Detección de obstáculos para la movilidad mediante sensores de mapas de profundidad (3D).
  2. Adecuación de las imágenes de los obstáculos y el entorno al punto de vista del usuario del sistema.
  3. Representación del entorno y los obstáculos detectados en forma de mapa táctil y auditivo que provea una imagen de sustitución sensorial a la persona discapacitada visual, de manera que le asista en la toma efectiva de decisiones relacionadas con su movilidad y orientación.

Para cumplir con estas prestaciones, SAN integra tres subsistemas desarrollados hasta el momento: EAV (Espacio Acústico Virtual), Sistema Háptico y Thor (Text to Hearing Optical Recognition) como se muestra en la Figura 1.

  •  EAV permite que la información de los objetos y superficies presentes a la altura de la cabeza y tronco del usuario sea convertida en una representación auditiva espacial, de modo que la persona ciega o con deficiencia visual puede percibir la ubicación y extensión de lo captado bajo el campo de visión del sistema.
  •  Háptico está diseñado para que la información tridimensional del suelo, inmediatamente delante del usuario,  se procese y transforme en un mapa cenital con relieves a diferentes alturas (+ 2mm). Dicho mapa es representado en un display táctil, de tal forma que el usuario ciego tocará una versión a escala del suelo que tiene justo delante de él, desde el plano cenital.
  •  Thor permite reconocer la información de tipo textual en tiempo real, de forma autónoma, y sobre escenarios complejos y no controlados. Para obtener las imágenes se emplea una cámara de vídeo de alta resolución y, utilizando técnicas de visión artificial, se procesan de forma continua las imágenes de video para detectar, hacer seguimiento, extraer y reconocer el texto presente frente al usuario. El texto una vez reconocido es sintetizado como  voz artificial y reproducido a través de los auriculares, en posiciones espaciales externalizadas y coherentes con la ubicación tridimensional del texto, utilizando la tecnología de espacialización sonora.

Figura 1. Esquema de sistema SAN.

La cámara y sensor de profundidad de entorno que se encuentra discretamente ubicado a la altura de la cabeza en (A), permite calcular el mapa de distancias de los objetos del entorno cercano.  Las imágenes y la información de profundidad son enviadas a los subsistemas EAV y de reconocimiento de textos, transformándose en señales acústicas espacializadas de representación de objetos y de texto (B), lo que ayuda al usuario a orientarse adecuadamente. El sensor de profundidad (C) permite calcular las distancias de los obstáculos presentes a nivel del suelo y cercanías. Esta información es procesada y enviada hacia el mapa táctil tridimensional (D), donde el usuario puede percibir al tocar los táxeles una representación virtual de los objetos u obstáculos del mundo real que se encuentran en su camino y puedan afectar su movilidad.

Objetivo:

El objetivo de este proyecto es la implementación de un sistema precompetitivo avanzado, portátil, ergonómico y de medio/bajo costo para la asistencia a la movilidad y orientación de personas con discapacidad visual, basado en la representación háptica y auditiva del entorno y de la información textual presente en la escena.   

El dispositivo detectará por un lado las características y obstáculos presentes en el entorno cercano, tales como escalones, huecos, etc. del suelo, y objetos y superficies a la altura de la mirada del usuario, y por otro lado, el texto que se encuentre bajo el alcance de visión del sistema.

Con este dispositivo, el usuario ciego o deficiente visual podrá anticipar la presencia y posición de posibles obstáculos y accidentes tanto del terreno como en el espacio superior al mismo, y moverse evitando colisionar con ellos, así como tomarlos como referencia para planificar su trayectoria de navegación inmediata.

Entidades participantes:

Este proyecto I+D es un proyecto en cooperación entre Informática y Equipamiento Médico de Canarias, S.A (entidad coordinadora), el Grupo de Neuroquímica y Neuroimagen de La Universidad de La Laguna y el Departamento de Ingeniería Mecánica del Instituto Tecnológico de Canarias y ha sido cofinanciado por el Ministerio de Economía y Competitividad, en el marco del Programa Nacional de cooperación Público-Privada Subprograma INNPACTO con el apoyo del Fondo Europeo de Desarrollo Regional (FEDER).