Skip navigation

Use este identificador para citar ou linkar para este item: https://repositorio.ufpb.br/jspui/handle/123456789/32234
Tipo: Dissertação
Título: Redes residuais : sobre quantidade de camadas e variância intraclasse utilizando aprendizagem não supervisionada
Autor(es): Silva, Cecília Flávia da
Primeiro Orientador: Rêgo, Thaís Gaudencio do
Resumo: Deep Learning é um termo que surgiu na literatura para, originalmente, definir abordagens de Redes Neurais Profundas (i.e. redes que possuem acima de duas camadas ocultas). A partir disso, diferentes arquiteturas de rede foram propostas na literatura e utilizadas como referência para diferentes aplicações, destacando-se redes como VGG-16, GoogLeNet e redes residuais (ResNets). Nesse contexto, redes residuais possuem uma topologia inspirada na VGG-16, utilizando assim pilhas de camadas convolucionais de filtros 3 x 3 e, como contribuição principal, formam blocos residuais por meio de shortcut connections, com o objetivo de reduzir problemas de degradação do modelo (i.e. aumento da taxa de erro do modelo conforme aumento de profundidade da rede). A partir disso, foram propostas ResNets de 20 até 1202 camadas, entretanto, a literatura não retrata um padrão de utilização desses modelos de acordo com um determinado contexto. Sendo assim, esse trabalho teve como objetivo a realização de um estudo agnóstico, que analisa o desempenho de cinco redes residuais, assim como o custo computacional, para diferentes bases de dados. Ao todo, 15 bases de dados foram utilizadas e os modelos ResNet 20, 32, 44, 56 e 110 camadas foram treinados e avaliados para cada uma delas, sendo o desempenho dessas redes avaliado por meio da medida F1. Posteriormente, realizou-se um teste de significância, utilizando a distribuição t de Student, em que analisou-se a medida F1 de cada rede, para avaliar se houve melhoria significativa de desempenho com o aumento de profundidade. Entretanto, os experimentos realizados indicaram que, apesar do aumento de custo computacional proporcional a profundidade, não houve melhoria de resultados. Além disso, analisou-se as características de variância intraclasse para cada classe das bases de dados desse estudo, utilizando o algoritmo de aprendizagem não supervisionada k-means, sendo os clusters formados por este algoritmo avaliados de acordo com o coeficiente de silhueta. Por meio dessa análise, percebeu-se que, dentre as classes com menor medida F1, para todas as redes avaliadas, pelo menos uma das classes retornou baixa diversidade, indicando-se assim, como solução, a melhoria de representatividade da base de dados ao invés do aumento de profundidade do modelo. Sendo assim, realizou-se treinamentos com a ResNet-20, tendo como diferencial a adição de diferentes técnicas de data augmentation, em que, para todas elas, o desempenho da rede ResNet-20 foi superior ao das demais redes previamente avaliadas. Dessa forma, por meio da análise, percebeu-se que o aumento de profundidade dessas redes resulta em alto custo computacional, sendo este também proporcional a quantidade de amostras na base de dados. Entretanto, este aumento não é proporcional a melhorias de resultados dos modelos de rede avaliados, resultando em medida F1 sem variações significativas, sendo a utilização de técnicas de data augmentation mais eficaz do que o aumento do número de camadas do modelo.
Abstract: Deep Learning is a term in the literature to define different approaches of Deep Neural Networks (i.e. networks that have more than two hidden layers). From this, different network architectures have been proposed in the literature. These networks have been used as a reference for different applications, highlighting networks such as VGG-16, GoogLeNet, and residual networks (ResNets). Residual networks have a topology inspired by the VGG-16 since it uses stacks of convolutional layers of 3 x 3 filters. As the main contribution, it forms residual blocks through shortcut connections to reduce problems of model degradation. This problem increases the model error rate as the network depth increases. From this, ResNets of 20 to 1202 layers were proposed. However, the literature does not portray a pattern of use of these models according to a certain context. Therefore, this work aimed to carry out an agnostic study, which analyzes the performance of five residual networks, as well as the computational cost, for different databases. Overall, 15 datasets were used. ResNet models with 20, 32, 44, 56, and 110 layers were trained and evaluated for each dataset. Also, the performance of these networks was evaluated using F1 measure. Afterward, a significance test was performed using t Student distribution. In this test, the F1 measure of each network was analyzed to find out if there was a significant improvement in performance with increasing depth. However, the experiments indicated no improvement in results despite the increase in computational cost. Besides, the intraclass variance was analyzed for each class of the datasets using the k-means unsupervised learning algorithm. Also, the k-means clusters were evaluated according to the silhouette coefficient. Through this analysis, we discovered that at least one of the classes with lower F1 measure scores have low diversity. Thus, this work performed a set of experiments with ResNet-20 and data augmentation techniques to improve the results. The performance of the ResNet-20 network was superior to all previously evaluated networks. Based on this, the increase in depth of these networks results in high computational cost, which is also proportional to the number of samples in the database. However, this increase is not proportional to improvements in the results of the evaluated network models, resulting in an F1 measure without significant variations, with the use of data augmentation techniques being more effective than increasing the number of model layers.
Palavras-chave: Arquitetura de redes
Deep learning
Intraclasse
Data augmentation
Unsupervised learning
Intraclass variance
CNPq: CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO
Idioma: por
País: Brasil
Editor: Universidade Federal da Paraíba
Sigla da Instituição: UFPB
Departamento: Informática
Programa: Programa de Pós-Graduação em Informática
Tipo de Acesso: Acesso aberto
Attribution-NoDerivs 3.0 Brazil
URI: http://creativecommons.org/licenses/by-nd/3.0/br/
URI: https://repositorio.ufpb.br/jspui/handle/123456789/32234
Data do documento: 31-Jul-2020
Aparece nas coleções:Centro de Informática (CI) - Programa de Pós-Graduação em Informática

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
CecíliaFláviaDaSilva_Dissert.pdf4,1 MBAdobe PDFVisualizar/Abrir


Este item está licenciada sob uma Licença Creative Commons Creative Commons