Use este identificador para citar ou linkar para este item:
https://repositorio.ufpb.br/jspui/handle/123456789/18483
Tipo: | Dissertação |
Título: | SpaceYNet: a regression pose and depth-scene simultaneously |
Autor(es): | Aragão, Dunfrey Pires |
Primeiro Orientador: | Nascimento, Tiago Pereira do |
Resumo: | Um dos problemas fundamentais da robótica móvel é o uso de informações sensoriais para localizar um agente em um espaço geográfico e evitar que uma ação em ambientes desconhecidos possa levar a efeitos inesperados. Neste trabalho, desenvolvemos um sistema de relocalização global que denominamos SpaceYNet, com o objetivo de prever a posição do robô e evitar ações imprevistas a partir de uma imagem monocular RGB. Para isto, camadas Inceptions foram incorporadas em camadas simétricas de amostragem para regredir depthscene e a estimativa de 6-DoF de forma simultaneamente. Além disso, implementamos o uso de redes recorrentes para aprender os informaç oes contextuais do ambiente. Também comparamos o SpaceYNet ao PoseNet e ContextualNet, sendo os estados da arte em regressão de pose de robô, usando CNN e LSTM para avaliar. A comparação compreendeu um conjunto de dados público e outro criado em um ambiente interno amplo. O SpaceYNet apresentou maior precisão nas percentuais globais quando comparado ao PoseNet na regressão de 6-DoF, sendo melhor em 58,42% dos casos com o conjunto de dados público em porcentagens globais quando comparado ao PoseNet, e 56,06% dos casos trabalhando com o novo conjunto de dados. Quando comparado ao SpaceYNet v.2 à rede ContextualNet, também apresentou vantagem de precisão, comparando o SpaceYNet v.1 e o SpaceYNet v.2, e a diferença é de 67,5% de maior precisão. |
Abstract: | One of the fundamental dilemmas of mobile robotics is the use of sensory information to locate an agent in geographic space and avoid acting upon unknown environments that may lead to unexpected effects. In this work, we developed a global relocation system aiming to predict the robot position and avoid unforeseen actions from a monocular image, which we named SpaceYNet. Thus, Inception layers were incorporated into symmetric layers of down-sampling and up-sampling to solve depth-scene and 6-DoF estimation simultaneously. In addition, we implemented a recurrent solution to learn the contextual features of the environment. We also compared SpaceYNet to PoseNet and ContextualNet, being states of the art in robot pose regression, using CNN and LSTM in order to evaluate it. The comparison comprised one public dataset and one created in a large indoor environment. SpaceYNet showed higher accuracy in global percentages when compared to PoseNet in regressing 6- DoF, being better in 58.42% cases with the public dataset in global percentages when compared to the PoseNet, and 56.06% cases working with the newer dataset. When compared to SpaceYNet v.2 to the ContextualNet network, it also presented advantage of accuracy and comparing SpaceYNet v.1 and SpaceYNet v.2, and the difference is 67,5% of higher accuracy. |
Palavras-chave: | Conjunto de dados Depth-scene Pose Rede neural Regressão Robô Dataset Neural network Regression Robot |
CNPq: | CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO |
Idioma: | eng |
País: | Brasil |
Editor: | Universidade Federal da Paraíba |
Sigla da Instituição: | UFPB |
Departamento: | Informática |
Programa: | Programa de Pós-Graduação em Informática |
Tipo de Acesso: | Acesso aberto |
URI: | http://creativecommons.org/licenses/by-nd/3.0/br/ |
URI: | https://repositorio.ufpb.br/jspui/handle/123456789/18483 |
Data do documento: | 5-Fev-2020 |
Aparece nas coleções: | Centro de Informática (CI) - Programa de Pós-Graduação em Informática |
Arquivos associados a este item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
DunfreyPiresAragão_Dissert.pdf | 26,82 MB | Adobe PDF | Visualizar/Abrir |
Este item está licenciada sob uma
Licença Creative Commons