Skip navigation

Use este identificador para citar ou linkar para este item: https://repositorio.ufpb.br/jspui/handle/123456789/37244
Registro completo de metadados
Campo DCValorIdioma
dc.creatorAguiar, Alexandra Christine Leite-
dc.date.accessioned2026-01-04T19:05:49Z-
dc.date.available2025-06-18-
dc.date.available2026-01-04T19:05:49Z-
dc.date.issued2025-02-20-
dc.identifier.urihttps://repositorio.ufpb.br/jspui/handle/123456789/37244-
dc.description.abstractINTRODUCTION: Voice is produced by a complex neurophysiological process that involves several structures and systems of the body, and can be influenced by the individual's emotional state and personality traits. The construction of a model that uses the voice signal in different emotions will serve as a basis for the development and development of recognition systems that are robust in the automation of emotion recognition. The definition of acoustic characteristics specific to each emotional state may allow the effective separation of emotions through voice pattern recognition techniques. OBJECTIVE: To develop a model based on fuzzy logic capable of recognizing emotions from the voices of Brazilian Portuguese speakers. METHOD: This is a technological, descriptive, observational and cross-sectional study that used secondary data from the Brazilian Voice Bank in Variations of Emotions - EmoVox-BR, which has a data set composed of 182 sound signals associated with the basic emotions: joy, fear, sadness, anger, surprise, disgust and neutral state, produced by 26 professional actors and actors in training. Acoustic parameters such as fundamental frequency (fo), jitter, shimmer, glottal noise measures Glottal to Noise Excitation Ratio (GNE) and Harmonics-to-Noise Ratio (HNR), cepstral measures Cepstral Peak Prominence Smoothed (CPPS), Mel-Frequency Cepstral Coefficients (MFCC) and acoustic-prosodic parameters of fo, duration and intensity were extracted from the EmoVox-BR data. From these, the emotion recognition model was developed. RESULTS: The study presented an innovative model based on fuzzy logic for the recognition of emotional states from voice, with the integration of carefully selected acoustic and prosodic parameters. The model uses 18 input and 7 output parameters. Twenty-three fuzzy rules were implemented to discriminate seven emotional categories. The model presented an accuracy of 89.01% and a Kappa coefficient of 87.18%, with sensitivity ranging from 76.92% for happiness to 100% for sadness and neutral state. Specificities were higher than 93% in all categories, indicating a high capacity for emotional differentiation. Overlapping variables, such as some acoustic and mel- cepstral parameters, were removed to simplify the model and refine its performance. In addition to optimizing simplicity and efficiency in emotion recognition, the model outperformed conventional methods in robustness compared to machine learning algorithms such as Random Forest and Kernel SVM. CONCLUSION: The emotion recognition model, developed with fuzzy logic from the human voice, achieved high accuracy and precision in differentiating emotions. The result predicts promising applications in affective computing and interactive technologies; the approach demonstrates effectiveness in capturing emotional nuances, with adaptation to different contexts to make human-machine interactions more empathetic and personalized.pt_BR
dc.description.provenanceSubmitted by Maria Jose Rodrigues Paiva (mariaj.paiva@biblioteca.ufpb.br) on 2026-01-04T19:05:49Z No. of bitstreams: 2 license_rdf: 805 bytes, checksum: c4c98de35c20c53220c07884f4def27c (MD5) AlexandraChristineLeiteAguiar_Tese.pdf: 2275742 bytes, checksum: b58b679e08d71725c6e224617a9e5732 (MD5)en
dc.description.provenanceMade available in DSpace on 2026-01-04T19:05:49Z (GMT). No. of bitstreams: 2 license_rdf: 805 bytes, checksum: c4c98de35c20c53220c07884f4def27c (MD5) AlexandraChristineLeiteAguiar_Tese.pdf: 2275742 bytes, checksum: b58b679e08d71725c6e224617a9e5732 (MD5) Previous issue date: 2025-02-20en
dc.description.sponsorshipCoordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPESpt_BR
dc.languageporpt_BR
dc.publisherUniversidade Federal da Paraíbapt_BR
dc.rightsAcesso abertopt_BR
dc.rightsAttribution-NoDerivs 3.0 Brazil*
dc.rights.urihttp://creativecommons.org/licenses/by-nd/3.0/br/*
dc.subjectInteligência artificial - Vozpt_BR
dc.subjectReconhecimento de vozpt_BR
dc.subjectEmoções expressaspt_BR
dc.subjectProcessamento de vozpt_BR
dc.subjectLógica fuzzypt_BR
dc.subjectVoice recognitionpt_BR
dc.subjectExpressed emotionspt_BR
dc.subjectVoice processingpt_BR
dc.subjectArtificial intelligencept_BR
dc.subjectFuzzy logicpt_BR
dc.titleModelo com base na lógica fuzzy para o reconhecimento de diferentes estados emocionais a partir da vozpt_BR
dc.typeTesept_BR
dc.contributor.advisor1Almeida, Anna Alice Figueirêdo de-
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/8539341671152883pt_BR
dc.contributor.advisor2Moraes, Ronei Marcos de-
dc.contributor.advisor2Latteshttp://lattes.cnpq.br/7925449690046513pt_BR
dc.contributor.referee1Constantini, Ana Carolina-
dc.contributor.referee1Latteshttp://lattes.cnpq.br/2219719644820133pt_BR
dc.contributor.referee2Santiago, Regivan Hugo Nunes-
dc.contributor.referee2Latteshttp://lattes.cnpq.br/7536988783793885pt_BR
dc.contributor.referee3Machado, Liliane dos Santos-
dc.contributor.referee3Latteshttp://lattes.cnpq.br/0240551533292579pt_BR
dc.contributor.referee4Lopes, Leonardo Wanderley-
dc.contributor.referee4Latteshttp://lattes.cnpq.br/0982550255078545pt_BR
dc.creator.Latteshttp://lattes.cnpq.br/7347297899618714pt_BR
dc.description.resumoINTRODUÇÃO: A voz é produzida por um complexo processo neurofisiológico que envolve diversas estruturas e sistemas do corpo, pode ser influenciada pelo estado emocional do indivíduo e por características da personalidade. A construção de um modelo que utilize o sinal de voz em diferentes emoções irá servir de base para elaboração e desenvolvimento de sistemas de reconhecimento que sejam robustos na automatização do reconhecimento das emoções. A definição de características acústicas próprias de cada estado emocional poderá permitir a efetiva separação das emoções por meio de técnicas de reconhecimento de padrões de voz. OBJETIVO: Desenvolver um modelo baseado na lógica fuzzy capaz de reconhecer as emoções a partir da voz de falantes do português brasileiro. MÉTODO: Trata-se de um estudo de natureza tecnológica, descritiva, observacional e transversal, que utilizou dados secundários, provenientes do Banco de Vozes Brasileiro nas Variações das Emoções - EmoVox-BR, que conta com um conjunto de dados composto por 182 sinais sonoros associados às emoções básicas: alegria, medo, tristeza, raiva, surpresa, nojo e estado neutro, produzidos por 26 atores profissionais e em formação. Foram extraídos parâmetros acústicos como medidas de frequência fundamental (fo), jitter, shimmer, medidas de ruído glótico Glottal to Noise Excitation Ratio (GNE) e Harmonics-to-Noise Ratio (HNR), medidas cepstrais Cepstral Peak Prominence Smoothed (CPPS), Mel-Frequency Cepstral Coefficients (MFCC) e os parâmetros acústico-prosódicos da fo, duração e intensidade a partir dos dados do EmoVox-BR. A partir desses, desenvolveu-se o modelo de reconhecimento das emoções. RESULTADOS: O estudo apresentou um modelo inovador baseado em lógica fuzzy para o reconhecimento dos estados emocionais a partir da voz, com a integração de parâmetros acústicos e prosódicos selecionados de forma criteriosa. O modelo utiliza 18 parâmetros de entrada e 7 de saída. Foram implementadas 23 regras fuzzy para discriminação de sete categorias emocionais. O modelo apresentou acurácia de 89,01% e coeficiente Kappa de 87,18%, com sensibilidade variando entre 76,92% para alegria e 100% para tristeza e estado neutro. As especificidades foram superiores a 93% em todas as categorias, indicando alta capacidade de diferenciação emocional. Variáveis sobrepostas, como alguns parâmetros acústicos e mel-cepstrais, foram removidas para simplificar o modelo e refinar seu desempenho. Além de otimizar a simplicidade e eficiência no reconhecimento das emoções, o modelo superou métodos convencionais em robustez em comparação com algoritmos de aprendizado de máquina como o Random Forest e Kernel SVM. CONCLUSÃO: O modelo de reconhecimento emocional, desenvolvido com lógica fuzzy a partir da voz humana, alcançou alta acurácia e precisão na diferenciação de emoções. O resultado prevê aplicações promissoras em computação afetiva e tecnologias interativas. A abordagem demonstra eficácia ao capturar nuances emocionais, com adaptação a diferentes contextos para tornar interações humano- máquina mais empáticas e personalizadas.pt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentCiências Exatas e da Saúdept_BR
dc.publisher.programPrograma de Pós-Graduação em Modelos de Decisão e Saúdept_BR
dc.publisher.initialsUFPBpt_BR
dc.subject.cnpqCNPQ::CIENCIAS DA SAUDE::SAUDE COLETIVApt_BR
Aparece nas coleções:Centro de Ciências Exatas e da Natureza (CCEN) - Programa de Pós-Graduação em Modelos de Decisão e Saúde

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
AlexandraChristineLeiteAguiar_Tese.pdf2,22 MBAdobe PDFVisualizar/Abrir


Este item está licenciada sob uma Licença Creative Commons Creative Commons