Sistema permite a pessoas com deficiência visual identificar ambiente pelo som

Protótipo foi desenvolvido por pesquisadores do Núcleo de Apoio à Pesquisa em Software Livre (NAP-SoL), sediado no ICMC, em São Carlos.

Flávia Cayres / Assessoria de Comunicação do NAP-SoL

Para auxiliar a realização das atividades diárias de pessoas com deficiência visual, pesquisadores do Núcleo de Apoio à Pesquisa em Software Livre (NAP-SoL), sediado no Instituto de Ciências Matemáticas e de Computação (ICMC) da USP, em São Carlos, desenvolveram um protótipo de sistema que permite ao usuário fazer a identificação de obstáculo e ambiente por intermédio do som. O programa computacional denominado GuideMe funciona em um dispositivo pequeno, ajustável à roupa e utiliza processamento de imagem e localização através do eco para reconhecer o ambiente. O protótipo desenvolvido alcançou o primeiro lugar no II Concurso Intel de Sistemas Embarcados realizado durante o IV Simpósio Brasileiro de Engenharia de Sistemas Computacionais (SBESC), que aconteceu de 4 a 7 de novembro, em Manaus (AM).

A equipe de pesquisa é formada pelos doutorandos do programa de pós-graduação em Ciências de Computação e Matemática Computacional (PPG-CCMC) Renê de Souza, Heitor Freitas e Luiz Nunes, com a coordenação do professor Francisco Monaco, do Laboratório de Sistemas Distribuídos e Programação Concorrente do Departamento de Sistemas de Computação, todos do ICMC. O sistema, por meio de fones de ouvido, estabelece comunicação com o usuário tanto verbalmente, com o uso de um sintetizador de voz, quanto por meio de sons tridimensionais.

“Imagine o deficiente visual aproximando-se de um balcão para pedir informações; se não houver ninguém para atendê-lo, o sistema diz: “ninguém à vista”. Em outra situação, podemos imaginar o deficiente visual procurando por uma pessoa conhecida em um local público; caso a pessoa seja detectada pela câmera, o sistema aponta para a aproximação dela e pode, inclusive, guiar o usuário até o seu amigo”, explica o professor Monaco.

O professor menciona ainda que, em uma situação na qual o usuário caminhe por um corredor, em linha reta, ele deve ouvir um som (suave) que pareça vir de sua frente. Caso o usuário ande em direção a uma das paredes, o som modifica sua direção e passa a ser ouvido como se viesse do lado da parede. Assim, o usuário pode utilizar essa dica sonora para conhecer a geometria do ambiente e corrigir seus passos.

Visão computacional

O sistema explora duas técnicas inovadoras. Uma é baseada em visão computacional que utiliza um webcam convencional e algoritmos de processamento de imagem para detectar a presença de pessoas e identificar rostos conhecidos. A outra técnica é apoiada em psicoacústica (estudo da relação entre estímulos sonoros e suas sensações decorrentes) e utiliza sensores de ultrassom para localizar obstáculos. Porém, em vez de emitir bipes, como sensores de estacionamento utilizados em veículos, por meio de um algoritmo de geração de áudio 3D, o dispositivo produz um som que aparenta surgir da direção e da distância em que está o obstáculo.

O GuideMe utiliza conceitos de wearable computing (tecnologia portátil como peça de vestuário) e sensor fusion (geração de informação combinando múltiplos sensores) e em sua especificação completa, utilizará sensor GPS, bússola e conexão wireless para prover auxílio à locomoção em áreas abertas. O objetivo inicial do projeto foi de aperfeiçoar os algoritmos que utilizam processamento espacial e de imagem. O protótipo atual foi produzido em um equipamento de hardware fornecido pela empresa de tecnologia Intel.

“Pretendemos migrar para um hardware menor, mais leve e com maior eficiência energética, para que possa ser utilizado por mais tempo com auxílio de bateria. Em longo prazo, pretendemos aprimorar a utilidade do dispositivo a partir da avaliação dos usuários”, explica Monaco. Durante o desenvolvimento a equipe fez testes preliminares utilizando o sistema para guiar-se em corredores com outras pessoas presentes. As funções do dispositivo foram executadas como o esperado. O próximo passo é realizar testes em pessoas com deficiência visual. O programa que foi desenvolvido em software livre será disponibilizado para a sociedade.

“Todas as especificações, artefatos de software e aplicações são livres para beneficiar a população e, sobretudo, as pessoas que possam fazer uso do sistema. Acreditamos nos conceitos de free open source software (software livre e de código aberto) e de free open source hardware (hardware livre de projeto livre e aberto) como facilitadores para que a pesquisa possa virar produto, este evolua livremente e chegue às pessoas a custos acessíveis”, complementa o professor. “O sistema de orientação psicoacústico utilizado é baseado em técnicas de processamento de áudio tridimensional estudados por pesquisadores na Alemanha. Em conjunto, pretendemos intensificar as pesquisas”, planeja Monaco.

O  II Concurso Intel de Sistemas Embarcados é destinado a estudantes de graduação e pós-graduação e tem a intenção de promover o desenvolvimento de sistemas inteligentes e inovadores com base em tecnologia embarcada.  A equipe fará uma visita técnica ao laboratório da Intel nos Estados Unidos, como parte da premiação, e integrará o programa Intel Developer Forum, além de estar pré-classificada para a edição de 2015. A proposta apresentada para o concurso foi uma das aprovadas que recebeu uma placa de desenvolvimento (hardware) para produzir um protótipo em três meses. Além da continuidade do projeto, a equipe visa a investir em pesquisa na área de acessibilidade.  Para conhecer os demais projetos ganhadores acesse esta página.

Mais informações: (16) 3373-9666, email comunica@icmc.usp.br

Scroll to top