Skip navigation

Use este identificador para citar ou linkar para este item: https://repositorio.ufpb.br/jspui/handle/123456789/34740
Registro completo de metadados
Campo DCValorIdioma
dc.creatorSouza, Analaura Rufino de-
dc.date.accessioned2025-06-05T18:38:58Z-
dc.date.available2025-05-22-
dc.date.available2025-06-05T18:38:58Z-
dc.date.issued2025-05-07-
dc.identifier.urihttps://repositorio.ufpb.br/jspui/handle/123456789/34740-
dc.description.abstractThis work proposes a machine learning-based approach for detecting voice disor ders, utilizing acoustic features extracted from audio, such as Mel-Frequency Cepstral Coefficients (MFCCs) and voice perturbation parameters, such as jitter and shimmer. Additionally, a comparison was made using data augmentation to expand the dataset and improve the model’s accuracy. The adopted methodology divides the signal into 16 frequency bands for feature extraction. After extraction, each frequency band is used to train a machine learning model, totaling 16 models. The results from each individual model are then combined into a meta-model, responsible for determining the final classifi cation of the audio. In the data augmentation scenario, the trained meta-model achieved an accuracy of 82.33%, while one of the individual models reached an accuracy of 89.16%. The approach proved to be effective, as it surpassed convolutional neural network-based methods, even when using fewer resources.pt_BR
dc.description.provenanceSubmitted by Michelle Barbosa (mi.2020@outlook.com.br) on 2025-06-05T18:38:58Z No. of bitstreams: 2 license_rdf: 805 bytes, checksum: c4c98de35c20c53220c07884f4def27c (MD5) Analaura Rufino de Souza_TCC.pdf: 849663 bytes, checksum: 11aa6d2061b28f2622be7f52e33b09a4 (MD5)en
dc.description.provenanceMade available in DSpace on 2025-06-05T18:38:58Z (GMT). No. of bitstreams: 2 license_rdf: 805 bytes, checksum: c4c98de35c20c53220c07884f4def27c (MD5) Analaura Rufino de Souza_TCC.pdf: 849663 bytes, checksum: 11aa6d2061b28f2622be7f52e33b09a4 (MD5) Previous issue date: 2025-05-07en
dc.languageporpt_BR
dc.publisherUniversidade Federal da Paraíbapt_BR
dc.rightsAcesso abertopt_BR
dc.rightsAttribution-NoDerivs 3.0 Brazil*
dc.rights.urihttp://creativecommons.org/licenses/by-nd/3.0/br/*
dc.subjectAprendizado de máquinapt_BR
dc.subjectInteligência artificialpt_BR
dc.subjectCoeficientes Melpt_BR
dc.subjectAnálise espectralpt_BR
dc.titleClassificação de Distúrbios Vocais Utilizando Aprendizado de Máquina e Análise Espectralpt_BR
dc.typeTCCpt_BR
dc.contributor.advisor1Batista, Leonardo Vidal-
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/1047122596139990pt_BR
dc.creator.Latteshttp://lattes.cnpq.br/1506927596794334pt_BR
dc.description.resumoEste trabalho propõe uma abordagem baseada em aprendizado de máquina para A detecção de distúrbios vocais, utilizando características acústicas extraídas dos áudios, como coeficientes Mel-Frequência e parâmetros de perturbação da voz, como jitter e shimmer. Além disso, foi realizada uma comparação utilizando data augmentation para expandir a base de dados e aprimorar a acurácia do modelo. A metodologia adotada divide o sinal em 16 faixas de frequência para a extração das características. Após a Extração, cada faixa de frequência é utilizada para treinar um modelo de aprendizado de Máquina, totalizando 16 modelos. Os resultados de cada modelo individual são, então, combinados em um meta-modelo, responsável por determinar a classificação final do áudio. No cenário com data augmentation, o meta-modelo treinado alcançou uma acurácia de. 82,33%, enquanto um dos modelos individuais atingiu 89,16% de acurácia. A abordagem demonstrou ser eficaz, pois, mesmo utilizando menos recursos, superou métodos baseados. em redes neurais convolucionais.pt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentComputação Científicapt_BR
dc.publisher.initialsUFPBpt_BR
dc.subject.cnpqCNPQ::OUTROSpt_BR
Aparece nas coleções:TCC - Ciência da Computação - CI

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
Analaura Rufino de Souza_TCC.pdfTCC829,75 kBAdobe PDFVisualizar/Abrir


Este item está licenciada sob uma Licença Creative Commons Creative Commons