Mochila com inteligência artificial ajuda deficientes visuais a explorar o mundo com segurança

Mochila com inteligência artificial ajuda deficientes visuais a explorar o mundo com segurança

A inteligência artificial pode ajudar pessoas com deficiência visual a explorarem o mundo de forma segura. Pelo menos é isso que espera Jagadish K. Mahendran, desenvolvedor e pesquisador do Instituto de Inteligência Artificial na Universidade da Geórgia, nos EUA. Ele e sua equipe criaram uma mochila equipada com inteligência artificial e ativada por voz, capaz de ajudar deficientes visuais a explorar e perceber o mundo à sua volta. A mochila ajuda na identificação de desafios comuns, como sinais de trânsito, obstáculos suspensos, faixas de pedestres, objetos em movimento e mudanças de elevação por meio de um dispositivo interativo com baixo consumo de energia.

Leia também: Phoenix i: Uma cadeira de rodas inteligente criada para reduzir acidentes

“Ano passado encontrei um amigo que é deficiente visual e me dei conta de que já ensinei robôs a ler, mas que ainda existem muitas pessoas que não enxergam e precisam de ajuda. Foi o que me levou a criar o sistema de assistência visual usando o Kit de Inteligência Artificial com Profundidade da OpenCV (OAK-D), desenvolvido pela Intel”, explica Mahendran.

Visual Assistance System for the Visually ImpairedVisual Assistance System for the Visually Impaired

O sistema fica alojado dentro de uma pequena mochila contendo uma unidade de computação, semelhante a um laptop. A câmera fica escondida em uma espécie de colete e a bateria de bolso, com duração aproximada de oito horas, fica dentro em uma pochete. Uma câmera de inteligência artificial espacial OAK-D, da Luxonis, pode ser afixada tanto no colete, quanto na pochete, e conectada à unidade de computação dentro da mochila. Três orifícios minúsculos no colete servem como janelas de visualização para a câmera, que fica presa na parte interna do colete.

Um fone de ouvido, habilitado para Bluetooth, permite que o usuário interaja com o sistema por meio de consultas e comandos de voz. O sistema, por sua vez, responde com informações verbais. Conforme o usuário se move pelo ambiente, o sistema transmite de forma audível informações sobre obstáculos comuns, incluindo placas, galhos de árvores e outros pedestres. Ele também alerta o usuário sobre faixas de pedestres, guias, escadas e entradas de edifícios.

A unidade OAK-D é um dispositivo de inteligência artificial versátil e potente e é executado na VPU Intel Movidius e no kit de ferramentas Intel Distribution of OpenVINO para inferência de IA de ponta on-chip. Ela é capaz de executar redes neurais avançadas e ao mesmo tempo oferece funções de visão computacional acelerada, um mapa de profundidade do seu par estéreo em tempo real, bem como informações de cor a partir de uma única câmera 4k.

“É incrível ver um desenvolvedor usar a tecnologia de IA de última geração da Intel e construir rapidamente uma solução para facilitar a vida de um amigo”, afirma Hema Chamraj, líder das iniciativas Technology Advocacy e AI4Good da Intel. “A tecnologia está aí, o único limite é a imaginação da comunidade de desenvolvedores”.

A Organização Mundial da Saúde (OMS) estima que existem cerca de 285 milhões de deficientes visuais espalhados pelo mundo. Ainda assim, os sistemas de assistência visual para navegação são bastante limitados, variando de aplicativos de smartphone assistidos por voz baseados em GPS a bengalas inteligentes habilitadas por câmera. Todavia, esses sistemas não têm a percepção de profundidade necessária para permitir o deslocamento independente e seguro.

Compartilhe esse artigo: