O desenvolvimento de um sistema de animação facial baseado em performance e no uso de câmera RGB-D
Carregando...
Data
2017-02-02
Orientador
Sementille, Antonio Carlos
Coorientador
Pós-graduação
Ciência da Computação - FC/FCT/IBILCE/IGCE 33004153073P2
Curso de graduação
Título da Revista
ISSN da Revista
Título de Volume
Editor
Universidade Estadual Paulista (Unesp)
Tipo
Dissertação de mestrado
Direito de acesso
Acesso aberto
Resumo
Resumo (português)
Nas últimas décadas, o interesse quanto à captura de movimentos da face humana e à identificação de suas expressões com a finalidade de geração de animações faciais realistas, tem aumentado, tanto na comunidade científica quanto na indústria do entretenimento. A alta acurácia nesse processo é necessária, pois os humanos são treinados para identificar expressões faciais, detectando facilmente pequenas imperfeições na animação de uma face virtual. A animação facial baseada em performance é uma das técnicas utilizadas para gerar animações realistas principalmente em filmes. Com o surgimento de câmeras RGB-D de baixo custo, muitos sistemas de animação facial baseada em performance foram desenvolvidos, compartilhando muitos princípios fundamentais, mas com detalhes de implementação específicos. Estes sistemas consistem de uma fase de rastreamento de movimentos e identificação de expressões faciais seguido de um procedimento de redirecionamento de expressões. Neste sentido, ambientes modulares para a animação facial baseada em performance são extremamente úteis na incorporação de novos algoritmos de rastreamento com características de entrada e saídas padronizadas. Considerando o contexto exposto, o presente trabalho teve como principal objetivo a criação e validação de um ambiente com arquitetura modular para animação facial baseada em performance que utilizou uma câmera RGB-D para a captura dos movimentos faciais de um ator, bem como permitiu a incorporação dos principais algoritmos de rastreamento encontrados na literatura, visando o redirecionamento destes movimentos para uma face virtual humana diferente. As entradas e saídas deste ambiente foram padronizadas pelo uso de blendshapes (mistura de formas).
Resumo (inglês)
In recent decades, interest in capturing human face movements and identifying expressions for the purpose of generating realistic facial animations has increased in both the scientific community and the entertainment industry. The high accuracy in this process is necessary because humans are trained to identify facial expressions, easily detecting small imperfections in the animation of a virtual face. Performance-based facial animation is one of the techniques used to generate realistic animations especially in movies. With the emergence of low-cost RGB-D cameras, many performance-based facial animation systems have been developed, sharing many fundamental principles but with specific implementation details. These systems consist of a phase of tracking movements and identifying facial expressions followed by an expression redirection procedure. In this sense, modular environments for performance-based facial animation are extremely useful in incorporating new tracking algorithms with standardized input and output characteristics. Considering the above context, the main objective of this work was the creation and validation of an environment with modular architecture for performance-based facial animation that used an RGB-D camera to capture the facial movements of an actor as well as allowed the incorporation of the main algorithms found in the literary, aiming the redirection of these movements to a different human virtual face. The inputs and outputs of this environment were standardized by the use of blendshapes.
Descrição
Palavras-chave
Idioma
Português