Skip navigation

Use este identificador para citar ou linkar para este item: https://repositorio.ufpb.br/jspui/handle/123456789/18483
Tipo: Dissertação
Título: SpaceYNet: a regression pose and depth-scene simultaneously
Autor(es): Aragão, Dunfrey Pires
Primeiro Orientador: Nascimento, Tiago Pereira do
Resumo: Um dos problemas fundamentais da robótica móvel é o uso de informações sensoriais para localizar um agente em um espaço geográfico e evitar que uma ação em ambientes desconhecidos possa levar a efeitos inesperados. Neste trabalho, desenvolvemos um sistema de relocalização global que denominamos SpaceYNet, com o objetivo de prever a posição do robô e evitar ações imprevistas a partir de uma imagem monocular RGB. Para isto, camadas Inceptions foram incorporadas em camadas simétricas de amostragem para regredir depthscene e a estimativa de 6-DoF de forma simultaneamente. Além disso, implementamos o uso de redes recorrentes para aprender os informaç oes contextuais do ambiente. Também comparamos o SpaceYNet ao PoseNet e ContextualNet, sendo os estados da arte em regressão de pose de robô, usando CNN e LSTM para avaliar. A comparação compreendeu um conjunto de dados público e outro criado em um ambiente interno amplo. O SpaceYNet apresentou maior precisão nas percentuais globais quando comparado ao PoseNet na regressão de 6-DoF, sendo melhor em 58,42% dos casos com o conjunto de dados público em porcentagens globais quando comparado ao PoseNet, e 56,06% dos casos trabalhando com o novo conjunto de dados. Quando comparado ao SpaceYNet v.2 à rede ContextualNet, também apresentou vantagem de precisão, comparando o SpaceYNet v.1 e o SpaceYNet v.2, e a diferença é de 67,5% de maior precisão.
Abstract: One of the fundamental dilemmas of mobile robotics is the use of sensory information to locate an agent in geographic space and avoid acting upon unknown environments that may lead to unexpected effects. In this work, we developed a global relocation system aiming to predict the robot position and avoid unforeseen actions from a monocular image, which we named SpaceYNet. Thus, Inception layers were incorporated into symmetric layers of down-sampling and up-sampling to solve depth-scene and 6-DoF estimation simultaneously. In addition, we implemented a recurrent solution to learn the contextual features of the environment. We also compared SpaceYNet to PoseNet and ContextualNet, being states of the art in robot pose regression, using CNN and LSTM in order to evaluate it. The comparison comprised one public dataset and one created in a large indoor environment. SpaceYNet showed higher accuracy in global percentages when compared to PoseNet in regressing 6- DoF, being better in 58.42% cases with the public dataset in global percentages when compared to the PoseNet, and 56.06% cases working with the newer dataset. When compared to SpaceYNet v.2 to the ContextualNet network, it also presented advantage of accuracy and comparing SpaceYNet v.1 and SpaceYNet v.2, and the difference is 67,5% of higher accuracy.
Palavras-chave: Conjunto de dados
Depth-scene
Pose
Rede neural
Regressão
Robô
Dataset
Neural network
Regression
Robot
CNPq: CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO
Idioma: eng
País: Brasil
Editor: Universidade Federal da Paraíba
Sigla da Instituição: UFPB
Departamento: Informática
Programa: Programa de Pós-Graduação em Informática
Tipo de Acesso: Acesso aberto
URI: http://creativecommons.org/licenses/by-nd/3.0/br/
URI: https://repositorio.ufpb.br/jspui/handle/123456789/18483
Data do documento: 5-Fev-2020
Aparece nas coleções:Centro de Informática (CI) - Programa de Pós-Graduação em Informática

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
DunfreyPiresAragão_Dissert.pdf26,82 MBAdobe PDFVisualizar/Abrir


Este item está licenciada sob uma Licença Creative Commons Creative Commons