Skip navigation

Use este identificador para citar ou linkar para este item: https://repositorio.ufpb.br/jspui/handle/123456789/18483
Registro completo de metadados
Campo DCValorIdioma
dc.creatorAragão, Dunfrey Pires-
dc.date.accessioned2020-11-22T11:55:25Z-
dc.date.available2020-07-09-
dc.date.available2020-11-22T11:55:25Z-
dc.date.issued2020-02-05-
dc.identifier.urihttps://repositorio.ufpb.br/jspui/handle/123456789/18483-
dc.description.abstractOne of the fundamental dilemmas of mobile robotics is the use of sensory information to locate an agent in geographic space and avoid acting upon unknown environments that may lead to unexpected effects. In this work, we developed a global relocation system aiming to predict the robot position and avoid unforeseen actions from a monocular image, which we named SpaceYNet. Thus, Inception layers were incorporated into symmetric layers of down-sampling and up-sampling to solve depth-scene and 6-DoF estimation simultaneously. In addition, we implemented a recurrent solution to learn the contextual features of the environment. We also compared SpaceYNet to PoseNet and ContextualNet, being states of the art in robot pose regression, using CNN and LSTM in order to evaluate it. The comparison comprised one public dataset and one created in a large indoor environment. SpaceYNet showed higher accuracy in global percentages when compared to PoseNet in regressing 6- DoF, being better in 58.42% cases with the public dataset in global percentages when compared to the PoseNet, and 56.06% cases working with the newer dataset. When compared to SpaceYNet v.2 to the ContextualNet network, it also presented advantage of accuracy and comparing SpaceYNet v.1 and SpaceYNet v.2, and the difference is 67,5% of higher accuracy.pt_BR
dc.description.provenanceSubmitted by Marília Cosmos (marilia@biblioteca.ufpb.br) on 2020-11-20T14:31:01Z No. of bitstreams: 2 license_rdf: 805 bytes, checksum: c4c98de35c20c53220c07884f4def27c (MD5) DunfreyPiresAragão_Dissert.pdf: 27461571 bytes, checksum: 76a3220468a5e5635d9fa5c835ba590d (MD5)en
dc.description.provenanceApproved for entry into archive by Biblioteca Digital de Teses e Dissertações BDTD (bdtd@biblioteca.ufpb.br) on 2020-11-22T11:55:25Z (GMT) No. of bitstreams: 2 license_rdf: 805 bytes, checksum: c4c98de35c20c53220c07884f4def27c (MD5) DunfreyPiresAragão_Dissert.pdf: 27461571 bytes, checksum: 76a3220468a5e5635d9fa5c835ba590d (MD5)en
dc.description.provenanceMade available in DSpace on 2020-11-22T11:55:25Z (GMT). No. of bitstreams: 2 license_rdf: 805 bytes, checksum: c4c98de35c20c53220c07884f4def27c (MD5) DunfreyPiresAragão_Dissert.pdf: 27461571 bytes, checksum: 76a3220468a5e5635d9fa5c835ba590d (MD5) Previous issue date: 2020-02-05en
dc.description.sponsorshipNenhumapt_BR
dc.languageengpt_BR
dc.publisherUniversidade Federal da Paraíbapt_BR
dc.rightsAcesso abertopt_BR
dc.rights.urihttp://creativecommons.org/licenses/by-nd/3.0/br/*
dc.subjectConjunto de dadospt_BR
dc.subjectDepth-scenept_BR
dc.subjectPosept_BR
dc.subjectRede neuralpt_BR
dc.subjectRegressãopt_BR
dc.subjectRobôpt_BR
dc.subjectDatasetpt_BR
dc.subjectNeural networkpt_BR
dc.subjectRegressionpt_BR
dc.subjectRobotpt_BR
dc.titleSpaceYNet: a regression pose and depth-scene simultaneouslypt_BR
dc.typeDissertaçãopt_BR
dc.contributor.advisor1Nascimento, Tiago Pereira do-
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/1641673656667170pt_BR
dc.creator.Latteshttp://lattes.cnpq.br/0931705327475869pt_BR
dc.description.resumoUm dos problemas fundamentais da robótica móvel é o uso de informações sensoriais para localizar um agente em um espaço geográfico e evitar que uma ação em ambientes desconhecidos possa levar a efeitos inesperados. Neste trabalho, desenvolvemos um sistema de relocalização global que denominamos SpaceYNet, com o objetivo de prever a posição do robô e evitar ações imprevistas a partir de uma imagem monocular RGB. Para isto, camadas Inceptions foram incorporadas em camadas simétricas de amostragem para regredir depthscene e a estimativa de 6-DoF de forma simultaneamente. Além disso, implementamos o uso de redes recorrentes para aprender os informaç oes contextuais do ambiente. Também comparamos o SpaceYNet ao PoseNet e ContextualNet, sendo os estados da arte em regressão de pose de robô, usando CNN e LSTM para avaliar. A comparação compreendeu um conjunto de dados público e outro criado em um ambiente interno amplo. O SpaceYNet apresentou maior precisão nas percentuais globais quando comparado ao PoseNet na regressão de 6-DoF, sendo melhor em 58,42% dos casos com o conjunto de dados público em porcentagens globais quando comparado ao PoseNet, e 56,06% dos casos trabalhando com o novo conjunto de dados. Quando comparado ao SpaceYNet v.2 à rede ContextualNet, também apresentou vantagem de precisão, comparando o SpaceYNet v.1 e o SpaceYNet v.2, e a diferença é de 67,5% de maior precisão.pt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentInformáticapt_BR
dc.publisher.programPrograma de Pós-Graduação em Informáticapt_BR
dc.publisher.initialsUFPBpt_BR
dc.subject.cnpqCNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAOpt_BR
Aparece nas coleções:Centro de Informática (CI) - Programa de Pós-Graduação em Informática

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
DunfreyPiresAragão_Dissert.pdf26,82 MBAdobe PDFVisualizar/Abrir


Este item está licenciada sob uma Licença Creative Commons Creative Commons