Use este identificador para citar ou linkar para este item:
https://repositorio.ufpb.br/jspui/handle/123456789/37244| Tipo: | Tese |
| Título: | Modelo com base na lógica fuzzy para o reconhecimento de diferentes estados emocionais a partir da voz |
| Autor(es): | Aguiar, Alexandra Christine Leite |
| Primeiro Orientador: | Almeida, Anna Alice Figueirêdo de |
| Segundo Orientador: | Moraes, Ronei Marcos de |
| referee1 : | Constantini, Ana Carolina |
| referee2: | Santiago, Regivan Hugo Nunes |
| referee3 : | Machado, Liliane dos Santos |
| referee4 : | Lopes, Leonardo Wanderley |
| Resumo: | INTRODUÇÃO: A voz é produzida por um complexo processo neurofisiológico que envolve diversas estruturas e sistemas do corpo, pode ser influenciada pelo estado emocional do indivíduo e por características da personalidade. A construção de um modelo que utilize o sinal de voz em diferentes emoções irá servir de base para elaboração e desenvolvimento de sistemas de reconhecimento que sejam robustos na automatização do reconhecimento das emoções. A definição de características acústicas próprias de cada estado emocional poderá permitir a efetiva separação das emoções por meio de técnicas de reconhecimento de padrões de voz. OBJETIVO: Desenvolver um modelo baseado na lógica fuzzy capaz de reconhecer as emoções a partir da voz de falantes do português brasileiro. MÉTODO: Trata-se de um estudo de natureza tecnológica, descritiva, observacional e transversal, que utilizou dados secundários, provenientes do Banco de Vozes Brasileiro nas Variações das Emoções - EmoVox-BR, que conta com um conjunto de dados composto por 182 sinais sonoros associados às emoções básicas: alegria, medo, tristeza, raiva, surpresa, nojo e estado neutro, produzidos por 26 atores profissionais e em formação. Foram extraídos parâmetros acústicos como medidas de frequência fundamental (fo), jitter, shimmer, medidas de ruído glótico Glottal to Noise Excitation Ratio (GNE) e Harmonics-to-Noise Ratio (HNR), medidas cepstrais Cepstral Peak Prominence Smoothed (CPPS), Mel-Frequency Cepstral Coefficients (MFCC) e os parâmetros acústico-prosódicos da fo, duração e intensidade a partir dos dados do EmoVox-BR. A partir desses, desenvolveu-se o modelo de reconhecimento das emoções. RESULTADOS: O estudo apresentou um modelo inovador baseado em lógica fuzzy para o reconhecimento dos estados emocionais a partir da voz, com a integração de parâmetros acústicos e prosódicos selecionados de forma criteriosa. O modelo utiliza 18 parâmetros de entrada e 7 de saída. Foram implementadas 23 regras fuzzy para discriminação de sete categorias emocionais. O modelo apresentou acurácia de 89,01% e coeficiente Kappa de 87,18%, com sensibilidade variando entre 76,92% para alegria e 100% para tristeza e estado neutro. As especificidades foram superiores a 93% em todas as categorias, indicando alta capacidade de diferenciação emocional. Variáveis sobrepostas, como alguns parâmetros acústicos e mel-cepstrais, foram removidas para simplificar o modelo e refinar seu desempenho. Além de otimizar a simplicidade e eficiência no reconhecimento das emoções, o modelo superou métodos convencionais em robustez em comparação com algoritmos de aprendizado de máquina como o Random Forest e Kernel SVM. CONCLUSÃO: O modelo de reconhecimento emocional, desenvolvido com lógica fuzzy a partir da voz humana, alcançou alta acurácia e precisão na diferenciação de emoções. O resultado prevê aplicações promissoras em computação afetiva e tecnologias interativas. A abordagem demonstra eficácia ao capturar nuances emocionais, com adaptação a diferentes contextos para tornar interações humano- máquina mais empáticas e personalizadas. |
| Abstract: | INTRODUCTION: Voice is produced by a complex neurophysiological process that involves several structures and systems of the body, and can be influenced by the individual's emotional state and personality traits. The construction of a model that uses the voice signal in different emotions will serve as a basis for the development and development of recognition systems that are robust in the automation of emotion recognition. The definition of acoustic characteristics specific to each emotional state may allow the effective separation of emotions through voice pattern recognition techniques. OBJECTIVE: To develop a model based on fuzzy logic capable of recognizing emotions from the voices of Brazilian Portuguese speakers. METHOD: This is a technological, descriptive, observational and cross-sectional study that used secondary data from the Brazilian Voice Bank in Variations of Emotions - EmoVox-BR, which has a data set composed of 182 sound signals associated with the basic emotions: joy, fear, sadness, anger, surprise, disgust and neutral state, produced by 26 professional actors and actors in training. Acoustic parameters such as fundamental frequency (fo), jitter, shimmer, glottal noise measures Glottal to Noise Excitation Ratio (GNE) and Harmonics-to-Noise Ratio (HNR), cepstral measures Cepstral Peak Prominence Smoothed (CPPS), Mel-Frequency Cepstral Coefficients (MFCC) and acoustic-prosodic parameters of fo, duration and intensity were extracted from the EmoVox-BR data. From these, the emotion recognition model was developed. RESULTS: The study presented an innovative model based on fuzzy logic for the recognition of emotional states from voice, with the integration of carefully selected acoustic and prosodic parameters. The model uses 18 input and 7 output parameters. Twenty-three fuzzy rules were implemented to discriminate seven emotional categories. The model presented an accuracy of 89.01% and a Kappa coefficient of 87.18%, with sensitivity ranging from 76.92% for happiness to 100% for sadness and neutral state. Specificities were higher than 93% in all categories, indicating a high capacity for emotional differentiation. Overlapping variables, such as some acoustic and mel- cepstral parameters, were removed to simplify the model and refine its performance. In addition to optimizing simplicity and efficiency in emotion recognition, the model outperformed conventional methods in robustness compared to machine learning algorithms such as Random Forest and Kernel SVM. CONCLUSION: The emotion recognition model, developed with fuzzy logic from the human voice, achieved high accuracy and precision in differentiating emotions. The result predicts promising applications in affective computing and interactive technologies; the approach demonstrates effectiveness in capturing emotional nuances, with adaptation to different contexts to make human-machine interactions more empathetic and personalized. |
| Palavras-chave: | Inteligência artificial - Voz Reconhecimento de voz Emoções expressas Processamento de voz Lógica fuzzy Voice recognition Expressed emotions Voice processing Artificial intelligence Fuzzy logic |
| CNPq: | CNPQ::CIENCIAS DA SAUDE::SAUDE COLETIVA |
| Idioma: | por |
| País: | Brasil |
| Editor: | Universidade Federal da Paraíba |
| Sigla da Instituição: | UFPB |
| Departamento: | Ciências Exatas e da Saúde |
| Programa: | Programa de Pós-Graduação em Modelos de Decisão e Saúde |
| Tipo de Acesso: | Acesso aberto Attribution-NoDerivs 3.0 Brazil |
| URI: | http://creativecommons.org/licenses/by-nd/3.0/br/ |
| URI: | https://repositorio.ufpb.br/jspui/handle/123456789/37244 |
| Data do documento: | 20-Fev-2025 |
| Aparece nas coleções: | Centro de Ciências Exatas e da Natureza (CCEN) - Programa de Pós-Graduação em Modelos de Decisão e Saúde |
Arquivos associados a este item:
| Arquivo | Descrição | Tamanho | Formato | |
|---|---|---|---|---|
| AlexandraChristineLeiteAguiar_Tese.pdf | 2,22 MB | Adobe PDF | Visualizar/Abrir |
Este item está licenciada sob uma
Licença Creative Commons
