Publicação: Reconhecimento de emoções na fala a partir da extração manual de características com validação baseada na engenharia paraconsistente
dc.contributor.advisor | Guido, Rodrigo Capobianco [UNESP] | |
dc.contributor.author | Brajato, Hiago Matheus | |
dc.contributor.institution | Universidade Estadual Paulista (Unesp) | |
dc.date.accessioned | 2022-03-09T19:47:02Z | |
dc.date.available | 2022-03-09T19:47:02Z | |
dc.date.issued | 2022-02-24 | |
dc.description.abstract | Speech Emotion Recognition (SER) pode ser definida como a maneira automatizada de identificar o estado emocional de um locutor a partir da sua voz. Dentre as metodologias encontradas na literatura para viabilizar o SER, as quais ainda carecem de melhor compreensão e discussão, o presente trabalho ocupa-se da abordagem handcrafted extraction para a composição dos vetores de características responsáveis por permitir a classificação dos sinais de voz entre sete classes emocionais distintas: raiva, tédio, desgosto, medo, felicidade, neutralidade e tristeza. Os descritores utilizados, os quais foram obtidos por meio da energia clássica, do Operador de Energia de Teager, do zero crossing rate, da planaridade espectral e da entropia espectral, foram submetidos à Engenharia Paraconsistente de Características, que é responsável por selecionar o melhor subgrupo de características a partir da análise de similaridades e dissimilaridades intra e interclasse, respectivamente. Finalmente, um algoritmo genético associado à uma rede neural multilayer perceptron foi responsável por realizar a classificação dos sinais visando a maior taxa de acurácia possível, isto é, 84.9%, considerando a base de dados pública EMO_DB com 535 sinais na modalidade speaker-independent. Em contraste com abordagens do tipo feature learning, a estratégia proposta permitiu uma melhor compreensão física do problema em questão. | pt |
dc.description.abstract | Speech Emotion Recognition (SER) can be defined as the automated way to identify spe akers’ emotional states from their voices. Considering the methodologies found in the li terature, for which there is room for further research and better comprehension, this mo nograph considers a handcrafted feature extraction approach to create the feature vectors responsible for the classification of voice signals in one of the seven different classes: anger, boredom, disgust, fear, happiness, neutrality and sadness. The descriptors adopted, which were obtained based on regular energy, on Teager Energy Operator, on zero crossing rates, on spectral flatness and on spectral entropy, were submitted to the Paraconsistent Feature Engineering, which was responsible for selecting the best subgroup of features from the analysis of intra- and interclass similarities and dissimilarities, respectively. Lastly, a genetic algorithm associted with a multiplayer perceptron neural network was responsible for perfor ming the classification of the described signals aiming at the highest possible accuracy rate, i.e., 84.9%, considering the well-known EMO_DB database with 535 signals in a speaker independent approach. In contrast with feature learning strategies, the proposed approach allowed for a better comprehension of the problem being treated. | en |
dc.description.sponsorship | Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) | |
dc.description.sponsorshipId | 88887.499431/2020-00 | |
dc.identifier.capes | 33004153073P2 | |
dc.identifier.uri | http://hdl.handle.net/11449/217104 | |
dc.language.iso | por | |
dc.publisher | Universidade Estadual Paulista (Unesp) | |
dc.rights.accessRights | Acesso aberto | |
dc.subject | Engenharia paraconsistente de características | pt |
dc.subject | Redes neurais artificiais | pt |
dc.subject | Handcrafted extraction | en |
dc.subject | Speech Emotion Recognition (SER) | en |
dc.subject | Paraconsistent feature engineering | en |
dc.subject | Artificial neural network | en |
dc.title | Reconhecimento de emoções na fala a partir da extração manual de características com validação baseada na engenharia paraconsistente | pt |
dc.title.alternative | Speech emotion recognition from handcrafted feature extraction with validation based on paraconsistent engineering | en |
dc.type | Dissertação de mestrado | |
dspace.entity.type | Publication | |
unesp.campus | Universidade Estadual Paulista (UNESP), Instituto de Biociências, Letras e Ciências Exatas, São José do Rio Preto | pt |
unesp.embargo | Online | pt |
unesp.examinationboard.type | Banca pública | pt |
unesp.graduateProgram | Ciência da Computação - IBILCE | pt |
unesp.knowledgeArea | Computação aplicada | pt |
unesp.researchArea | Inteligência Computacional | pt |
Arquivos
Pacote Original
1 - 1 de 1
Carregando...
- Nome:
- brajato_hm_me_sjrp.pdf
- Tamanho:
- 1.97 MB
- Formato:
- Adobe Portable Document Format
- Descrição:
Licença do Pacote
1 - 1 de 1
Carregando...
- Nome:
- license.txt
- Tamanho:
- 3.03 KB
- Formato:
- Item-specific license agreed upon to submission
- Descrição: