Skip navigation

Use este identificador para citar ou linkar para este item: https://repositorio.ufpb.br/jspui/handle/123456789/32515
Tipo: TCC
Título: Investigação de redes convolucionais para classificação de imagens de radiografia do tórax
Autor(es): Santana, Danilo Henrique da Silva
Primeiro Orientador: Batista, Leonardo Vidal
Resumo: A identifica¸c˜ao de doen¸cas no corpo humano muitas vezes ´e desafiadora, uma vez que muitas delas permanecem invis´ıveis aos olhos. Em tais situa¸c˜oes, a doen¸ca pode per manecer latente no organismo, dificultando a identifica¸c˜ao do problema. Nesse contexto, os exames de raio-X desempenham um papel fundamental na identifica¸c˜ao e diagn´ostico desses problemas, permitindo a visualiza¸c˜ao interna do organismo e a avalia¸c˜ao da in tegridade dos ´org˜aos. A radiografia do t´orax, em particular, ´e um dos exames mais comuns e eficazes nesse sentido. Por meio desse exame, ´e poss´ıvel identificar anomalias no tamanho ou na forma do cora¸c˜ao, dist´urbios nas veias e art´erias, al´em de problemas nos pulm˜oes, como pneumonia e outras doen¸cas respirat´orias. O trabalho em quest˜ao investiga a relevˆancia da classifica¸c˜ao de imagens de radiografias tor´acicas, em meio ao crescente uso de redes neurais convolucionais (CNNs), al´em de explicar as mudan¸cas que foram feitas durante os anos que permitiram as CNNs ficarem t˜ao famosas n˜ao apenas para a classifica¸c˜ao de imagens, mas tamb´em para a detec¸c˜ao de objetos e segmenta¸c˜ao. Nesse contexto, as arquiteturas de transformers, particularmente o vision transformer (ViT), emergem como modelo dominante. O objetivo principal ´e compreender e avaliar as inova¸c˜oes no desempenho de um visual transformer hierarquico chamado swin trans former. Para isso, introduzimos algumas dessas modifica¸c˜oes em CNNs cl´assicas, como VGG16 e ResNet-50, e treinamos esses modelos utilizando a base de dados CheXpert, avaliando sua acur´acia. A partir de uma s´erie de ajustes sequenciais, mantendo apenas as modifica¸c˜oes que demonstraram impacto positivo na acur´acia, alcan¸camos uma pre cis˜ao de 86,15% para VGG16 e 80,05% para ResNet-50, enquanto o swin transformer obteve 78,75%. Esses resultados sugerem que, apesar da robustez do swin transformer, certas adapta¸c˜oes nas CNNs podem resultar em desempenho superior, evidenciando a importˆancia de explorar diferentes abordagens arquiteturais no contexto da classifica¸c˜ao de imagens m´edicas.
Abstract: The identification of diseases in the human body is often challenging, as many of them remain invisible to the naked eye. In such situations, the disease may remain latent in the organism, making it difficult to identify the problem. In this context, X-ray exams play a fundamental role in identifying and diagnosing these issues, allowing for the internal visualization of the body and the assessment of organ integrity. Chest X-rays, in particular, are one of the most common and effective exams in this regard. Through this exam, it is possible to identify anomalies in the size or shape of the heart, disor ders in the veins and arteries, as well as problems in the lungs, such as pneumonia and other respiratory diseases. The work in question investigates the relevance of classifying images of chest X-rays amidst the growing use of convolutional neural networks (CNNs), while also explaining the changes that have been made over the years that have allowed CNNs to become famous not only for image classification but also for object detection and segmentation. In this context, transformer architectures, particularly vision transfor mers (ViTs), emerge as dominant models. The main goal is to understand and evaluate the performance innovations of a hierarchical visual transformer called swin transformer. To do this, we introduce some of these modifications to classic CNNs, such as VGG16 and ResNet-50, and train these models using the CheXpert database, evaluating their accuracy. Through a series of sequential adjustments, keeping only the modifications that demonstrated a positive impact on accuracy, we achieved a precision of 86.15% for VGG16 and 80.05% for ResNet-50, while the swin transformer obtained 78.75%. These results suggest that, despite the robustness of the swin transformer, certain adaptations in CNNs can result in superior performance, highlighting the importance of exploring different architectural approaches in the context of medical image classification.
Palavras-chave: Classificação de imagens
Swin transformer
Vit
CNNs
CNPq: CNPQ::OUTROS
Idioma: por
País: Brasil
Editor: Universidade Federal da Paraíba
Sigla da Instituição: UFPB
Departamento: Computação Científica
Tipo de Acesso: Acesso aberto
Attribution-NoDerivs 3.0 Brazil
URI: http://creativecommons.org/licenses/by-nd/3.0/br/
URI: https://repositorio.ufpb.br/jspui/handle/123456789/32515
Data do documento: 29-Mai-2024
Aparece nas coleções:TCC - Ciência da Computação - CI

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
Danilo Henrique da Silva Santana_TCC.pdfTCC1,29 MBAdobe PDFVisualizar/Abrir


Este item está licenciada sob uma Licença Creative Commons Creative Commons