UNIVERSIDADE ESTADUAL PAULISTA “JÚLIO DE MESQUITA FILHO” FACULDADE DE ARQUITETURA, ARTES E COMUNICAÇÃO DEPARTAMENTO DE COMUNICAÇÃO SOCIAL VITOR PAYNO GOMES VIDEOCLIPE: CLARABOIA Bauru 2016 1 UNIVERSIDADE ESTADUAL PAULISTA “JÚLIO DE MESQUITA FILHO” FACULDADE DE ARQUITETURA, ARTES E COMUNICAÇÃO DEPARTAMENTO DE COMUNICAÇÃO SOCIAL VIDEOCLIPE: CLARABOIA Vitor Payno Gomes 121031616 Projeto Experimental apresentado como exigência parcial para obtenção do título de Bacharel em Comunicação Social – Radialismo, ao Departamento de Comunicação Social da Faculdade de Arquitetura, Artes e Comunicação da Universidade Estadual Paulista "Júlio de Mesquita Filho", atendendo à resolução de número 02/84 do Conselho Federal de Educação. Bauru 2016 2 À minha família. 3 Agradeço ao meu pai, que, apesar de não estar presente neste plano, continua sendo sempre um exemplo de sabedoria em mim; à minha mãe, pelo amor incondicional, no sentido verdadeiro da expressão, e por me apoiar em todas as minhas escolhas; à minha irmã, minha melhor amiga, pelas palavras e por estar sempre por perto. Agradeço também ao Matheus, pela preocupação e carinho fundamentais para que "Claraboia" acontecesse e por dividir comigo toda uma vida; ao Giovani, que dedicou seu tempo e seu talento para dar cor e vida ao videoclipe; à Bárbara, aos companheiros de Safari e aos amigos que levarei comigo depois desses cinco anos de UNESP - Bauru. Por fim, agradeço ao meu orientador, Prof. Dr. Marcos Américo, por acreditar nesse trabalho; à banca examinadora, por aceitar o convite para avaliá-lo; e a todos os professores pelo conhecimento compartilhado durante a graduação. 4 LISTA DE FIGURAS Figura 1 - "An Optical Poem", de Oskar Fischinger (1938) 29 Figura 2 - “Dots”, de Norman McLaren (1940) 29 Figura 3 - Videoclipe "All Under One Roof Raving", de Jamie XX e Rose Pilkington (2014) 30 Figura 4 - OK Go Live Visuals, de Karan Singh (2015) 30 Figura 5 - Paleta de cores do videoclipe "Claraboia" 34 Figura 6 - Figuras geométricas criadas através das ferramentas Cloner e Emitter, em cena do videoclipe "Claraboia" 41 Figura 7 - Figuras geométricas criadas através de um Cloner e dispostas sobre uma Spline helicoidal, em cena do videoclipe "Claraboia" 44 Figura 8 - Semiesferas sob efeito do Jiggle, na cena final do videoclipe "Claraboia" 49 5 LISTA DE TABELAS Tabela 1 - Funções 26 Tabela 2 - Calendário de produção 26 6 SUMÁRIO Introdução 10 Capítulo 1 - Fundamentos teóricos 12 1.1 História do videoclipe 12 1.2 O videoclipe no Brasil 15 1.3 Características do gênero videoclipe 17 1.4 O visual na música eletrônica 18 1.5 Animação digital e motion graphics 21 Capítulo 2 - Pré-produção 24 2.1 Direção 24 2.2 A proposta 24 2.3 Organização da produção 25 2.4 A música 27 2.5 Referenciais estéticos 28 2.6 Ponto de Partida 31 2.7 Storyboard 32 2.8 Cores e texturas 33 2.9 Distribuição do vídeo 34 Capítulo 3 - Produção 36 3.1 Criação dos elementos visuais 36 3.1.1 O software 36 3.1.2 Configuração do projeto 37 3.1.3 Recursos de criação 39 3.2 Animação 41 3.2.1 Animação por keyframes 41 3.2.2 Recursos especiais de animação 45 3.3 Texturização 49 3.4 Renderização 51 Capítulo 4 - Pós-produção 54 4.1 Fluxo de trabalho 54 4.2 Montagem 55 7 4.3 Finalização 55 4.4 Confecção dos DVDs 56 Considerações finais 58 Referências bibliográficas 59 Referências videográficas 63 8 RESUMO O projeto consiste na elaboração do videoclipe “Claraboia”, realizado a partir da faixa musical homônima, composta pelo mesmo autor. O trabalho percorre todas as etapas da realização do videoclipe, desde a concepção da música até a finalização do vídeo. Como uma animação constituída por elementos gráficos abstratos e regida pela faixa de música eletrônica, “Claraboia” explora diferentes possibilidades estéticas e de linguagem audiovisual ao estabelecer múltiplas relações entre som e imagem. PALAVRAS CHAVE 3D; animação; música; música eletrônica; videoclipe. 9 I N T R O D U Ç Ã O 10 Introdução Nas últimas três décadas do século XX, um novo tipo de produção audiovisual se consolidava e ganhava espaço no mundo todo: o videoclipe. O gênero, que nasceu e ganhou força na televisão como ferramenta de divulgação de artistas e canções, inaugurou um novo espaço para experimentações de linguagem e inovações estéticas no campo audiovisual. Nos anos 2000, a web passou a ser o principal meio de exibição de videoclipes, que, atualmente, angariam bilhões de visualizações em plataformas como o YouTube. Levando em consideração o potencial experimental que o videoclipe propicia e aliando criações nos campos do som e da imagem, este trabalho tem como principal objetivo explorar as possibilidades proporcionadas pela união entre vídeo e música eletrônica através da produção do videoclipe “Claraboia”, utilizando apenas recursos digitais de animação. O primeiro capítulo deste relatório busca discutir os conceitos teóricos que permeiam os elementos explorados na realização do projeto prático. Desse modo, estuda a origem do videoclipe, sua consolidação como um fenômeno audiovisual e as modificações provocadas no meio pelo advento da internet; analisa suas características enquanto gênero; investiga a história da música eletrônica e sua conexão com experimentos visuais; e, por fim, relaciona os avanços tecnológicos no campo da animação com o desenvolvimento dos chamados motion graphics enquanto linguagem. Já no capítulo seguinte, inicia-se a descrição do processo de elaboração do produto. Primeiro, discorre-se sobre a proposta do projeto – um videoclipe baseado em uma faixa de música eletrônica e constituído apenas de imagens abstratas. Depois, são relatadas as etapas de todo o processo de concepção do produto e sua pré-produção. No terceiro capítulo, são descritos os estágios da produção do videoclipe, a criação de todo o conteúdo visual e a elaboração da animação. O último capítulo é dedicado ao detalhamento do processo de pós-produção, que abrange a realização da edição e a finalização do vídeo. 11 CAPÍTULO 1 FUNDAMENTOS TEÓRICOS 12 Capítulo 1 - Fundamentos teóricos Neste primeiro capítulo, são discutidos temas importantes para a fundamentação teórica do projeto. Inicialmente, é apresentado um panorama geral e resumido sobre a história do videoclipe e sua trajetória no Brasil. Depois, busca-se refletir acerca das características do gênero videoclipe. Em seguida, se estabelece a relação entre a história da música eletrônica e as experiências visuais que surgiram no contexto das pistas de dança. Por fim, comenta-se sobre as mudanças no universo da animação proporcionadas pelo advento da computação, e o reflexo dessas transformações no desenvolvimento de novas linguagens. 1.1 História do videoclipe Para se conhecer os fatores que levaram ao surgimento do formato videoclipe, é necessário lembrar de algumas transformações culturais pelas quais a sociedade ocidental vem passando desde o final do século XIX. As mudanças sociais e comportamentais ocorridas na passagem do século XIX para o XX culminaram em novos paradigmas sociais e culturais, que, por sua vez, tiveram grande importância no processo de surgimento do videoclipe. Como pontua SINGER (2001), a maior concentração da população em grandes centros urbanos e o aparecimento de recursos tecnológicos, como a energia elétrica, o telefone e o bonde, modificaram radicalmente a forma com que os indivíduos viviam e se relacionavam. Isso provocou o excesso de novas informações e estímulos, refletindo nas experiências sensoriais da sociedade. Houve, então, uma revolução nas maneiras de comercializar e consumir nas grandes cidades, o que acarretou em um processo de individualização do comportamento das pessoas. Isso se reforçaria com o hábito de ver televisão, como nos lembra HOLZBACH (2010): Nesse sentido, as tecnologias de comunicação, como cinema, rádio e televisão vão intensificar essas novas experiências e ajudar a modificar a relação dos indivíduos com ambiente e auxiliá-los, simultaneamente, a encarar esse novo mundo. A televisão, em particular, supre parte dessa necessidade social de individualização e vai oferecer entretenimento e informação no interior das residências, ou seja, longe do caos urbano. (HOLZBACH, 2010, p.5). Assim, a televisão foi a consolidação de um processo de transformações 13 sensoriais, iniciado anteriormente pelo cinema. Segundo BERNADET (1980), o cinema nasce em uma época de euforia da burguesia, de transições e modificações, no fim do século XIX, e faz parte dos agentes tecnológicos responsáveis pela criação de um novo universo cultural. O cinema contribuiu para o surgimento de uma nova linguagem, que evoluía constantemente – e que sofreu uma significativa revolução com a chegada do som a este tipo de mídia, a partir do lançamento do filme “O Cantor de Jazz”, em 1927. Na década seguinte, as transmissões televisivas começaram a se tornar algo comum na Europa. HOLZBACH (2010) propõe que, como no cinema, a televisão passou a oferecer às pessoas estímulos visuais, através de suas imagens em movimento, com o poder de informar e entreter. O aparelho televisivo, contudo, carregou consigo essa experiência para dentro das casas dos cidadãos, tornando individual a prática de consumir tais imagens. Além da visão, outro sentido que sofreu influência dos novos estímulos provocados pelas mudanças tecnológicas e comportamentais foi a audição. A urbanização e o aparecimento de novas tecnologias criaram um universo sonoro completamente diferente, e ruídos e timbres nunca ouvidos antes passaram a fazer parte do cotidiano do ser humano. As novas sonoridades vindas de carros motorizados, máquinas e novos instrumentos musicais, como a guitarra elétrica, vão mudando a paisagem sonora de forma que a vida social acaba sempre, em alguma medida, preenchida por novas sonoridades. O excesso sonoro, assim, passa a integrar a vida social. Todo esse cenário de mudanças tecnológicas e culturais mostra que o início do século XX vai assistir à consolidação de alguns dos elementos a partir dos quais o videoclipe vai se estruturar mais adiante: o excesso de informação oferecendo múltiplas experiências sensoriais, tanto no campo sonoro quanto visual, e a experiência de consumo íntima e individualizada de entretenimento hegemonizada pela televisão. (HOLZBACH, 2010, p.6). Na década de 1950, começaram a ser exibidos na televisão números musicais de grandes artistas, como é o caso de Elvis Presley. Segundo CORRÊA (2007), esse tipo de programação se tornou popular e, assim, a música passou a ocupar um espaço muito importante na cadeia televisiva. Nos anos seguintes, diversos programas dedicados exclusivamente à música foram transmitidos. Em 1964, por exemplo, os Beatles lançaram “A Hard Day’s Night”, que não é considerado um videoclipe, porém “um referencial nas experiências estéticas que se 14 aproximam a esse gênero colaborando para a definição de sua gramática visual” (CALDAS, 2013). Na mesma década, como afirma ALMEIDA (1984), apareceram as primeiras manifestações de videoarte, expressão que se consolidaria nas obras do coreano Nam June Paik. A videoarte deu origem a elementos que viriam a ser incorporados pelo videoclipe posteriormente, no que diz respeito ao experimentalismo, liberdade e desprendimento de narrativas ao trabalhar com música e vídeo. De acordo com CORRÊA (2007), o primeiro videoclipe foi lançado intencionalmente como um produto do gênero em 1975, com a música Bohemian Rhapsody, da banda Queen. O vídeo, que fez grande sucesso, tinha como intuito divulgar o quarto disco do grupo, “A Night at the Opera” (1975). Com isso, o videoclipe começou a se estabelecer como gênero e ganhou força como uma ferramenta poderosa de divulgação de músicas e artistas. Em 1979, estreou na televisão inglesa um programa dedicado exclusivamente à exibição de videoclipes: “The Kenny Everett Video Show”. Em 1981, foi inaugurado, nos Estados Unidos, o canal MTV, que oferecia uma programação completamente voltada para a música. BARRETO (2005) destaca que o sucesso do canal ajudou o videoclipe a se consolidar como um formato e a se expandir a outros países, como o Brasil. Aqui, a MTV foi ao ar apenas em 1990, apesar de os vídeos musicais já ocuparem parte da programação da televisão brasileira em alguns programas, como o “Fantástico”, por exemplo. Assim, o videoclipe se difundiu, tornando-se um gênero audiovisual fundamental na cultura ocidental no fim do século XX, como aponta SOARES (2004): Se tivéssemos que eleger a forma cultural mais representativa dos últimos 30 anos da cultura ocidental, talvez nos deparássemos necessariamente com o videoclipe. Algumas das imagens mais reveladoras sobre a cultura de massas do final do século XX e início do século XXI são trechos de videoclipes: Michael Jackson breakdancing como um zumbi em Thriller; Madonna parodiando Marilyn Monroe em Material Girl; Prince dentro de uma banheira em When Doves Cry; o gigantesco paletó de David Byrne em Psycho Killer do Talking Heads [...] São apenas alguns poucos exemplos desse gênero audiovisual que demonstram a sua evolução e consolidação. (SOARES, 2004, p. 6). O videoclipe manteve sua hegemonia como produto televisivo até o início dos anos 2000. A partir de então, novas mídias começaram a surgir, e a maneira de se consumir música e audiovisual foi se modificando com as ferramentas da internet. 15 Em 2007, segundo BELO (2014), a MTV Brasil deixou de exibir clipes musicais em seu horário nobre, dando lugar a outros tipos de programa, como reality shows, documentários e programas de auditório. No ano anterior, o YouTube, site de compartilhamento de vídeos na internet lançado em 2005, foi comprado pelo Google, transformando-se em um grande sucesso. O YouTube tornou-se um grande veículo audiovisual, onde artistas e gravadoras podem compartilhar videoclipes, assistidos pelo mundo todo. “Para o consumidor, a experiência de fruir música e videoclipe é mais importante do que comprar um álbum físico. O YouTube é um dos sites mais acessados em todo o mundo e é a plataforma na qual o público mais ‘ouve’ música” (BELO, 2014, p. 8). Com o impacto causado pela mudança nos hábitos de consumo de música e vídeo provocada pela internet, a indústria fonográfica precisou criar alternativas para acompanhar a nova realidade. Uma dessas alternativas é a plataforma VEVO, lançada em 2009. Criado pela Universal Music Group, Sony Music Entertainment e Abu Dhabi Media Company, o website oferece, tanto em sua própria página como no YouTube, um vasto repertório de videoclipes, disponível para qualquer pessoa que possua acesso à internet. “O diferencial do VEVO está na tentativa de centralizar todo o material audiovisual das editoras, sejam videoclipes, entrevistas, filmagens de concertos ou vídeos de bastidores” (GENES; CRAVEIRO; PROENÇA, 2012). Em 2015, o rapper norte-americano Jay-Z lançou 1 o serviço pago de streaming TIDAL, nos Estados Unidos. A plataforma, além de oferecer mais de trinta milhões de músicas em alta definição, também disponibiliza um acervo com mais de 80 mil videoclipes2 para serem transmitidos pelo usuário. O serviço, em parceria com diversos artistas de grande renome na música pop, como Beyoncé e Kanye West, realiza lançamentos exclusivos3 de álbuns, canções e vídeos, com acesso limitado aos assinantes. 1.2 O videoclipe no Brasil No Brasil, videoclipes começaram a ser transmitidos na televisão em 1975, no 1 Disponível em: < http://www.billboard.com/articles/news/6509498/jay-z-tidal-launch-artist- stakeholders>. Acesso em: 30 abr. 2016. 2 Disponível em: http://tidal.com/br/try-now-e. Acesso em: 30 abr. 2016. 3 Disponível em: . Acesso em: 30 abr. 2016. 16 programa “Fantástico”, da rede Globo. Como aponta CORRÊA (2007), o primeiro videoclipe a ser veiculado pela televisão brasileira foi “América do Sul”, de Ney Matogrosso. Na década seguinte, começaram a surgir programas televisivos exclusivamente voltados para o gênero em diversas emissoras: “O ‘FM-TV’ (TV Manchete); o ‘Videorama’ (TV Record); o ‘Clip Trip’ (TV Gazeta); o ‘Som Pop’ (TV Cultura); o ‘Realce’ (SBT Rio); o ‘Super Special’ (TV Bandeirantes); o ‘Fantástico’ e o ‘Clip Clip’ (Rede Globo)” (CORRÊA, 2007, p. 9). Em 1990, foi inaugurada a versão brasileira do canal voltado apenas para a música: a MTV. O primeiro videoclipe a ir ao ar pela emissora foi “Garota de Ipanema”, interpretado pela artista Marina Lima. Em 1995, foi veiculada no canal a primeira edição do VMB (Video Music Brasil), uma premiação aos moldes do VMA (Video Music Awards), uma espécie de “Oscar” dos videoclipes realizado pela MTV norte-americana. A chegada do VMB veio tanto dar fôlego a uma incipiente “indústria” nacional produtora de clipes, quanto fazer com que os clipes nacionais se “destacassem” em relação aos clipes internacionais na programação da MTV Brasil. Na primeira premiação do VMB, o vídeo que venceu nas principais categorias do evento foi Segue o Seco, música cantada por Marisa Monte, em clipe dirigido por Cláudio Torres. (SOARES, 2004, p. 69). No cenário atual da produção brasileira de videoclipes, é notável como o gênero se fortaleceu em plataformas digitais como o YouTube, e a televisão acabou se tornando um veículo secundário desse tipo de produto: enquanto a MTV Brasil encerrava suas atividades4 como canal aberto em 2013, o videoclipe “Plaquê de 100”, de MC Guimê, angariava dezenas de milhões de visualizações no YouTube desde a sua publicação5, no ano anterior. Desde então, as criações do produtor KondZilla se tornaram cada vez mais populares na plataforma6, e sua empresa, referência no mercado mainstream de videoclipes: O trabalho da produtora não é limitado ao funk ostentação: produziu um DVD da banda Charlie Brown Junior; o videoclipe Água, da cantora Cláudia Leitte; Tombei, da cantora Karol Conká e outros produtos audiovisuais. Segundo a TV Folha, Kondzilla faz cerca de 60 videoclipes e 50 webclipes por ano […] (BELO, 2016, p. 104) 4 Disponível em: . Acesso dia: 04 abr. 2016. 5 Disponível em: . Acesso dia: 04 abr. 2016. 6 Disponível em: . Acesso dia: 04 abr. 2016. 17 1.3 Características do gênero videoclipe Categorizar o videoclipe como um gênero significa reunir aspectos que possibilitam identificá-lo e diferenciá-lo de outros gêneros do audiovisual. Nesse caso, o contexto em que o gênero foi consolidado foi um fator fundamental para a constituição de sua linguagem: na década de 1980, como afirma SOARES (2004), os videoclipes passaram a ser usados como uma das principais ferramentas da indústria fonográfica para divulgar músicas e artistas. Com isso, associa-se a esses produtos a definição de “clipe”, “que significa recorte (de jornal, revista, por exemplo), pinça ou grampo, enfoca justamente o lado comercial deste audiovisual” (SOARES, 2004, p. 21, 22). BARRETO (2005), lembra a principal característica do videoclipe: a presença inevitável da música. Já SOARES (2004) descreve algumas tendências que podem caracterizar, no geral, a linguagem de um videoclipe: a curta duração dos planos, o forte uso da montagem e a falta de compromisso com a continuidade. Ou seja, é possível observar em grande parte dos videoclipes comerciais o uso de planos rápidos que não possuem, necessariamente, conexão entre si, além de um grande número de cortes que, geralmente, estabelecem uma relação rítmica com a música. Esses traços, contudo, não se aplicam obrigatoriamente a todos os videoclipes. Como afirma MACHADO (2005), o videoclipe, por ser um formato que permite a experimentação, não permaneceu limitado apenas aos moldes da música comercial e se expandiu como uma “forma audiovisual plena e autossuficiente, capaz de dar uma resposta mais moderna à busca secular de uma perfeita síntese da imagem e do som” (MACHADO, 2005, p. 182). Segundo o autor, as redefinições do formato também permitiram, em algumas obras, o distanciamento do enaltecimento da imagem dos astros pop, outro aspecto comum nos clipes comerciais. Apesar de muitos videoclipes apresentarem um conjunto de aspectos em comum, sobretudo em relação à linguagem e ao conteúdo, existem aqueles que fogem completamente aos moldes habituais, devido à liberdade que o formato proporciona para explorar as possibilidades do audiovisual. Posto isso, reunir apenas algumas características que definam rigorosamente o videoclipe como um gênero pode ser considerado um equívoco. HOLZBACH (2013) amplia o debate acerca do tema ao propor que a definição de um gênero também depende de uma audiência, que por sua vez está inserida em um contexto cultural. Assim, a autora 18 destaca a importância da MTV, na instauração de uma “concepção dominante do que se entende por videoclipe ao desenvolver uma série de estratégias de valorização do gênero” (HOLZBACH, 2013, p. 209). Uma das ferramentas da MTV que sustentou a legitimação do gênero videoclipe foi o VMA (Video Music Awards), premiação televisionada organizada pelo canal. O VMA estreou em 1984, em um momento em que, de acordo com HOLZBACH (2013), eventos de premiação de outros campos da arte já desempenhavam uma grande importância na cultura popular. Isso fez com que adquirisse uma grande relevância nesse sentido, se tornando a maior premiação de videoclipes do mundo. Como pontua HOLZBACH (2013), as premiações são importantes no sentido de que agregam valores políticos, econômicos e simbólicos aos artistas e produtos vencedores, que acabam ganhando destaque e influência no meio. Esses valores, no caso do VMA, ajudaram a legitimar não só a performance dos artistas, mas o próprio gênero videoclipe. [...] gêneros são cíclicos, processuais, historicamente situados e dependem de variadas instâncias culturais para se legitimarem nos circuitos comunicativos e para fazerem sentido enquanto produtos culturais. Tendo isso em vista, o VMA revela uma parte importante da formação dessa complexa teia que envolve o gênero no caso do videoclipe. (HOLZBACH, 2013, p. 211, 212) 1.4 O visual na música eletrônica O conceito de “música eletrônica” é algo bastante abrangente, já que se refere a um universo musical muito grande, que não se limita apenas a alguns gêneros conhecidos popularmente. A música eletrônica surgiu de um processo iniciado no final do século XIX e intensificado no século XX: a união entre a tecnologia e a música. HOLMES (2008) relata o desenvolvimento das inovações tecnológicas usadas para se criar música: no começo do século XX, já se falava em um casamento entre a eletrônica e a música, e as possibilidades que isso poderia trazer. Dispositivos como o teremim, o toca-discos e, posteriormente, a fita magnética, foram objetos de experimentações para explorar e criar novos sons e texturas. No fim da década de 1940, por exemplo, surgia na França a musique concrète – um movimento influenciado por trabalhos experimentais de união entre som e máquina, que ajudou a consolidar o que viria a se estabelecer como música 19 eletrônica ao redor do mundo, com ferramentas de gravação sonora, sons naturais e instrumentais e sinais elétricos. Segundo HOLMES (2008), França e Alemanha foram os primeiros países europeus a criarem estúdios dedicados à música eletrônica: o estúdio de Paris, que originou a musique concrète, e o estúdio de Colônia, com a elektronische musik (música eletrônica). Na década de 1940, Hugh Le Caine inventou o primeiro sintetizador analógico. No decorrer das décadas seguintes, novos tipos e modelos passaram a ser desenvolvidos, e o sintetizador começou a se popularizar como um instrumento musical. Com o surgimento da computação, novas possibilidades se abriram para a síntese sonora e a manipulação de áudio na década de 1950. Depois, a chegada do microcomputador, nos anos 1970, deu início a grandes mudanças no campo da música eletrônica. A constante evolução tecnológica possibilitou a criação de uma enorme gama de novos gêneros musicais. Da música eletrônica emergiu a cultura DJ, que, de acordo com RIETVELD (2013), se desenvolveu a partir do movimento Disco, nos anos 1970. Esse movimento underground deu origem a espaços sociais em que a música, em vez de ser um elemento de fundo, como era usada comumente em locais de socialização, passou a ser um componente principal. A pista de dança e o uso de grandes caixas de som compõem um ambiente onde a música é um objeto de imersão. Como aponta RIETVELD (2013), a combinação dos elementos nesses ambientes, como o alto volume da música e os recursos visuais, como luzes e vídeos, fazia com que as pessoas não utilizassem apenas os ouvidos para perceber a música – e sim todo o corpo. Surgia, então, a dance music, que ao longo dos anos evoluiu e passou a abranger uma grande variedade de gêneros e culturas diferentes (como techno, house music, garage, dubstep, trance). Os clubes de dança, como pontua RIETVELD (2013), já nasceram atrelados ao visual: além da música, luzes e vídeos eram usados desde o princípio como componentes da pista de dança. Segundo CAMPOS (2007), está vinculado ao progresso da música eletrônica, desde os anos 1970, o desenvolvimento de uma nova forma de arte: o video jockeying. O Vjing, muito comum em clubes de dança, é uma forma de produção e manipulação de imagens e vídeo ao vivo, em ações performáticas, que geralmente estão atreladas à música. As sequências imagéticas são construídas para uma experiência efémera e 20 envolvem-se em ritmos electrizantes, em ostracizadas narrativas, complementando assim, a filosofia experiencial dos clubes. […] As músicas dos clubes são cada vez mais abstractas, desenhadas por impulsos de dança por parte da audiência. Os visuais, por sua vez, devem obedecer a esses rítmos constantes, procurando impelir a experiência pulsante, orquestrando coerência com o ambiente. (CAMPOS, 2007, p. 44, 45). Ainda de acordo com CAMPOS (2007), as imagens exibidas em performances realizadas por VJs possuem uma grande tendência ao abstracionismo e raramente apresentam um sentido literal: Obviamente que nem sempre há uma ausência de tema, ou de referencialidade da figuração visual, mas os exemplos dão prioridade a trabalhos não-figurativos, trabalhos abstractos, mesmo quando existe um tema, há tendencialmente um grau de abertura nas composições visuais, que apelam por si a subjectivas criações pelo público. (CAMPOS, 2007, p. 61). Segundo MACHADO (2005), as linguagens que combinavam imagens com os ritmos da música eletrônica, oriundas do universo visual das pistas de dança, se expandiram para as possibilidades de experimentação do videoclipe: Mas foi particularmente no ambiente das raves que a nova forma do videoclipe explodiu. Em locais onde o público predominantemente vai para dançar, não fazem sentido imagens que exigem acompanhamento, contemplação, atenção fixa na tela. Nesses ambientes, as imagens costumam ser de outra espécie, algo assim como padrões de estimulação retiniana muito semelhantes aos padrões rítmicos da música [...] As imagens são puros estímulos visuais (cor, movimento, ritmo) e mesmo quando podem ser reconhecíveis enquanto referências miméticas, o que importa nelas é a massa, a metamorfose das cores e texturas ao longo do tempo. (MACHADO, 2005, p. 179). Assim como nas experiências visuais dos clubes de dança, a valorização da relação entre as imagens e o ritmo da música presente no videoclipe é reiterada por SOARES: “Em alguns momentos, o que vai se destacar no videoclipe não é especificamente sua natureza fotográfica (imagética), mas sim, uma relação de grafismo visual e rítmico” (SOARES, 2004, p. 22). A popularização da música eletrônica de dança, portanto, ocorreu quase simultaneamente à consolidação do gênero videoclipe, na década de 1970. Como observa MACHADO (2005), é possível notar, nesse processo, a influência recíproca exercida entre o abstracionismo visual dos clubes de música eletrônica e a experimentação visual possibilitada pelo videoclipe. 21 1.5 Animação digital e motion graphics A década de 1970 foi marcada pelo desenvolvimento da microinformática, provocado pelo surgimento do microprocessador. Na mesma década, como aponta COUCHOT (2003), aparece a informática gráfica interativa, que “combinando a tela de vídeo com o computador, permite visualizar os processos internos das calculadoras e iniciar com elas uma espécie de diálogo” (COUCHOT, 2003, p. 160). Segundo o autor, isso modificaria a forma como o homem interage com a máquina. A possibilidade de se visualizar em tempo real os processos executados no computador também ampliou as formas de se criar e produzir imagens. O autor pontua que, nos meios digitais, as imagens não necessitam de um objeto real para serem criadas, como é o caso da fotografia. Elas podem ser geradas inteiramente por meio dos cálculos matemáticos de um computador. A informática gráfica interativa, consequentemente, viabilizou o surgimento de novas técnicas de animação. Um importante recurso possibilitado por esse processo, por exemplo, foi a automação de movimentos entre quadros-chave. O animador desenha [...] as imagens-chave do filme. Mas a passagem de uma imagem-chave para outra é realizada automaticamente e não mais manualmente. O computador calcula os intervalos entre esses desenhos, aplicando algoritmos de interpolação. [...] A rapidez do cálculo permite também a vantagem – muito apreciada pelos animadores – de visualizar os resultados das operações em um tempo bem menor que aquele que autorizam as técnicas tradicionais de animação.” (COUCHOT, 2003, p. 208, 209). Ainda segundo COUCHOT (2003), a partir do início dos anos 1980, passou a ser possível a criação de modelagens e animações em três dimensões. Isso transformou significativamente os métodos de produzir animações. A descrição matemática do objeto é, num primeiro tempo, limitada a simular este objeto na sua aparência (formas, cores, texturas) a fim de o manipular como um verdadeiro objeto em três dimensões e atribuir-lhe inúmeras representações [...]. Mas a descrição do objeto pode ser mais completa e fornecer ao computador outras informações interessantes, particularmente sobre o seu devir (transformações, movimentos, deslocamentos, relações com outros objetos, etc.). (COUHOT, 2003, p. 162, 163). Na criação de uma animação tridimensional, uma das técnicas para automatizar as interações entre objetos, mencionadas pelo autor, é a simulação de dinâmica, ou seja, de princípios físicos como gravidade e aceleração. 22 Com os procedimentos de “animação dinâmica”, as acelerações e as desacelerações dos objetos em deslocamento são regidas por fórmulas tomadas emprestadas da física: por exemplo, os objetos sólidos ou elásticos que picam sobre o solo. A “cinemática inversa” permite regular os movimentos definindo-os por conjuntos de objetos hierarquizados unicamente pelo objetivo a atingir. (COUHOUT, 2003, p. 207). Com a constante evolução da computação, novas linguagens e técnicas se desenvolveram no campo da animação. Foi nesse contexto que surgiu o que se entende hoje por motion graphics. VELHO (2008), levando em conta a dificuldade de se definir concretamente o que é ou não motion graphics, descreve o termo da seguinte maneira: Em suma, proponho o entendimento do termo motion graphics como uma área de criação que permite combinar e manipular livremente no espaço- tempo camadas de imagens de todo o tipo, temporalizadas ou não (vídeo, fotografias, grafismos e animações), juntamente com música, ruídos e efeitos sonoros. (VELHO, 2008, p. 19). MANOVICH (2006) destaca que, a partir da metade dos anos 1990, sequências e filmes de curta duração dominados por elementos tipográficos e grafismos abstratos começaram a ser produzidos em grande número. Isso aconteceu porque, nessa época, computadores e interfaces gráficas digitais que comportam softwares capazes de realizar tais produções ficaram mais acessíveis e, desse modo, disponíveis para pequenos estúdios de design e pós-produção, e até para artistas independentes. Assim, ainda segundo MANOVICH (2006), além da tipografia, as linguagens utilizadas pelo design gráfico do século XX foram todas convertidas para o design de imagens em movimento. Com o aumento no número de produções de motion graphics, os recursos de criação se tornaram cada vez mais avançados. A disponibilização de diferentes tipos de técnicas em um mesmo software, como por exemplo a inserção de luzes e a manipulação de câmeras virtuais no espaço tridimensional, resultou em uma linguagem híbrida. De acordo com SOUZA (2013), essa hibridação de técnicas acaba por eliminar a fronteira entre o bidimensional e tridimensional, além de combinar elementos de design com a criação de animações e produtos audiovisuais, devido à compatibilidade entre a maioria dos softwares voltados para essas áreas. 23 CAPÍTULO 2 PRÉ-PRODUÇÃO 24 Capítulo 2 - Pré-produção Neste capítulo, serão descritas a concepção e a pré-produção do videoclipe, abrangendo etapas como a organização da produção; a produção da música; a estruturação da ideia inicial; a elaboração do storyboard; a escolha das cores e criação das texturas; o planejamento da distribuição. 2.1 Direção O trabalho foi dirigido por Vítor Payno Gomes. Por se tratar de um projeto autoral, realizado com o auxílio de poucas pessoas, a função de diretor acabou se dissolvendo entre as outras funções. Por exemplo, o trabalho de direção esteve presente na coordenação do projeto, com a organização das etapas e a responsabilidade de se certificar de que elas seriam realizadas com eficiência. O papel de diretor também foi desempenhado ao elaborar as concepções técnica e artística do projeto, e ao colocá-las em prática, responsabilizando-se por todo o processo de produção e pelo resultado final. 2.2 A proposta Este trabalho tem como proposta a produção de um videoclipe de música eletrônica elaborado integralmente por meio de ferramentas digitais e constituído inteiramente por elementos visuais abstratos. Após a conclusão da pesquisa teórica sobre os elementos englobados pelo trabalho (o gênero videoclipe, a relação entre o visual e a música eletrônica e as mudanças trazidas pela tecnologia para a animação), deu-se início à concepção do projeto. Antes das primeiras etapas práticas do projeto, já se tinha em mente as características principais do produto: um videoclipe, não muito longo, entre três e cinco minutos, que tivesse como base uma música de produção própria, criada inteiramente no computador. O videoclipe, aplicando os conceitos observados na etapa de levantamento teórico, apresentaria cortes rápidos e fragmentados e valorizaria o ritmo e a estética, sem a necessidade de apresentar uma narrativa linear. 25 Por meio de ferramentas de criação digitais, foram construídas as imagens abstratas e a animação, com influência da linguagem visual abstracionista dos clubes de música eletrônica e dos referenciais estéticos selecionados. As cenas são formadas apenas por figuras geométricas, e a animação e a edição apresentam forte sincronização com a música. 2.3 Organização da produção Antes de iniciar a produção da música “Claraboia”, que serviu como base para a criação do videoclipe, foi necessário realizar a organização da produção. Nesse processo, foram definidas as etapas do projeto e as funções desempenhadas em cada uma delas. O processo foi dividido em três partes: “pré-produção”, “produção” e “pós-produção”. A etapa inicial corresponde à concepção do produto e sua pré-produção: processos de elaboração da proposta e da ideia inicial do produto, a produção da música, a elaboração do storyboard, a seleção das cores, e a criação das texturas. A segunda parte engloba todo o processo de produção: com a música, as cores e a concepção do produto finalizadas, inicia-se a criação, por meio de softwares, de cada cena, seus elementos visuais e animações; a texturização e a renderização. Apesar de todo o projeto ser realizado por meio de ferramentas digitais, decidiu-se separar a produção da pós-produção, pois são trabalhos conceitualmente diferentes. Em um terceiro momento, na pós-produção, todas as cenas já estariam renderizadas, prontas para a montagem, edição e, depois, finalização. Apesar de a elaboração dos elementos visuais e da animação integrar a produção, grande parte do processo de criação do projeto foi desempenhada na edição do vídeo, já que, nessa etapa, as cenas foram postas em sequência e o vídeo ganhou vida. O projeto contou com uma equipe reduzida, de apenas três pessoas, cujas funções foram organizadas na tabela a seguir: 26 Função Equipe Seleção dos referenciais estéticos Vítor Payno Gomes Produção da música Vítor Payno Gomes Storyboard Vítor Payno Gomes Criação de cores e texturas Giovani Flores Direção Vítor Payno Gomes Criação dos elementos visuais Vítor Payno Gomes Animação Vítor Payno Gomes Texturização Vítor Payno Gomes e Giovani Flores Renderização Vítor Payno Gomes Edição Vítor Payno Gomes Finalização Vítor Payno Gomes Colaboração Giovani Flores e Matheus Petroni Tabela 1 - Funções A função “colaboração” refere-se às contribuições realizadas por Giovani Flores e Matheus Petroni em diversas etapas, já que ambos participaram de processos como a estruturação da ideia inicial e a confecção dos DVDs, além de acompanharem grande parte do processo de produção, ajudando com críticas e sugestões. Todo o processo de realização do projeto “Claraboia” durou cerca de cinco meses. A tabela a seguir ilustra a conclusão de todas as etapas do trabalho, distribuídas ao longo dos meses em que foram executadas: Mar Abr Mai Jun Jul Pesquisa teórica X X Seleção dos referenciais estéticos X Produção da música X X Storyboard X Cores e texturas X Criação dos elementos visuais X X Animação X Texturização X Renderização X Edição X Finalização do vídeo X X Tabela 2 - Calendário de produção Por ser produzido inteiramente no computador, o projeto não contou com um plano orçamentário, já que não foram despendidos grandes gastos em sua realização. 27 2.4 A música Em se tratando de videoclipes, é comum que músicas sejam finalizadas e até mesmo lançadas comercialmente antes de se pensar na concepção dos vídeos para os quais servem de base. Contudo, esse conceito a respeito do uso da música foi desconstruído, como destaca MACHADO (2005): O videoclipe passa a ser pensado dentro de um processo mais integrado de autoria [...] Em alguns casos, a concepção musical já prevê o tratamento plástico, ou seja, determinadas soluções em termos musicais podem ter sido adotadas para possibilitar efeitos visuais preconcebidos. O clipe já não é algo que necessariamente vem depois da música, tampouco um acessório à música: ele passa a fazer parte do processo integral de criação. Imagem e som nascem juntos, fazem parte de uma só e mesma atitude criativa. (MACHADO, 2005, p. 184) Neste trabalho, a faixa musical foi produzida pelo próprio idealizador do projeto e, portanto, é uma das peças fundamentais do processo criativo do vídeo. A intenção era criar uma faixa de música eletrônica com influências dos gêneros house e trip hop, de aspecto leve e agradável. A faixa foi produzida integralmente por meio de ferramentas digitais. Para esse fim, foi usado o software Ableton Live7 e os sons foram todos gerados por meio de samplers8 e sintetizadores virtuais9, com exceção da gravação de voz. A música foi produzida antes da concepção plástica do vídeo, na tentativa de preservar a experiência de criar a imagem a partir das sensações e interpretações trazidas pelo som. Porém, durante o processo de produção da música, foi inevitável que algumas reflexões relacionadas ao visual surgissem e interferissem, ainda que sutilmente, em detalhes da faixa sonora. Por exemplo, enquanto a música era produzida, pensou-se na ideia, ainda abstrata, de elementos numerosos que, de alguma forma, interagissem entre si. Essa pequena ideia teve influência na elaboração da textura de alguns instrumentos. Desse modo, os acordes principais, ouvidos logo no início da faixa, foram constituídos de timbres que lembram múltiplos objetos pequenos movimentando-se de maneira agitada. A influência desses 7 Software de criação de músicas. 8 Ferramenta capaz de armazenar, reproduzir e manipular samples, que são amostras ou trechos de arquivos de áudio. 9 Instrumento virtual capaz de sintetizar sons. É usado com frequência como instrumento musical em composições eletrônicas. 28 pensamentos, entretanto, não atingiu radicalmente as características da música a ponto de o resultado final fugir de alguma forma da proposta inicial. A criação da música, desde as primeiras notas até a mixagem, foi uma etapa relativamente demorada dentro de todo o processo de realização do videoclipe, levando mais de um mês para ser concluída. Depois de finalizada, a música foi exportada em um arquivo WAV10, em 24 bits11 e 44100 Hz12, já preparada para ser masterizada. Idealmente, a masterização 13 é um procedimento que deve ser realizado por um profissional especializado, que manipula minuciosamente o som e deixa a música pronta para ser ouvida pelo público. Infelizmente, para este trabalho, não foi possível realizar uma masterização profissional no arquivo de áudio. A música foi masterizada pelo próprio idealizador, no software Logic Pro14, utilizando plug-ins virtuais 15 para executar os processamentos necessários. Caso seja possível, será cogitado, posteriormente, o envio da faixa a um estúdio profissional para que seja masterizada de maneira mais adequada. Com a música finalizada e masterizada, deu-se início ao processo de idealização da parte visual do projeto, com a busca de referenciais estéticos. 2.5 Referenciais estéticos Depois de finalizada a composição musical, foi iniciada a busca por referenciais estéticos para que fosse possível embasar a concepção visual do videoclipe. Como a ideia inicial já consistia em formas abstratas e cores que interagissem com a música, a busca por referências foi direcionada a obras do universo audiovisual que seguissem mais ou menos por esse caminho. Inicialmente, recorreu-se ao trabalho de Oskar Fischinger, artista pioneiro em unir som e imagem, em obras experimentais de animação abstrata. O curta “An Optical Poem”, de 1938, apresenta figuras geométricas que se movem precisamente sobre a tela, causando, em alguns momentos, a ilusão de tridimensionalidade. A obra foi uma importante referência para este projeto, pois apresenta elementos 10 Formato de arquivo de áudio. 11 Taxa de bits, referente à quantidade de informação digital presente no arquivo de áudio. 12Taxa de amostragem medida em Hertz (Hz) ou número de amostras sonoras por segundo, referente à qualidade do arquivo de áudio digital. 13 Etapa referente ao tratamento final de um produto fonográfico. 14 Software de criação de músicas. 15 Pequenos programas adicionados ao software que realizam funções específicas. 29 estéticos que se aproximam muito da proposta estabelecida para a animação “Claraboia”. A forma das figuras, seus movimentos e sua disposição no espaço e no tempo foram itens que auxiliaram a elaboração do videoclipe. Figura 1 - "An Optical Poem", de Oskar Fischinger (1938) Outra obra pioneira na exploração de imagens abstratas e sons foi a animação experimental “Dots”, de 1940, realizada por Norman McLaren. Em poucos minutos, apresenta formas abstratas que “dançam” em sincronia com o áudio, surgindo, desaparecendo e se modificando de acordo com os sons. A combinação de som e imagem é tão precisa que, de certa forma, a visão e a audição parecem se misturar: as figuras alteram a percepção de som do espectador, ao mesmo tempo em que o som parece ser o responsável por todas as transformações dos elementos gráficos. Figura 2 - “Dots”, de Norman McLaren (1940) 30 As outras duas obras utilizadas como referência apresentam elementos abstratos semelhantes aos encontrados nas projeções visuais de ambientes como clubes de música eletrônica de dança e performance ao vivo. São elas: o videoclipe realizado pela artista Rose Pilkington para a música “All Under One Roof Raving”, de Jamie XX; e o trabalho de live visuals16 do artista Karan Singh para o grupo musical OK Go. O vídeo de Pilkington é formado apenas por figuras geométricas retangulares que acompanham e evoluem em sincronia com o ritmo agitado da música de Jamie XX. Figura 3 - Videoclipe "All Under One Roof Raving", de Jamie XX e Rose Pilkington (2014) Já o trabalho de Karan Singh foi criado para ser projetado nas apresentações ao vivo do grupo musical OK Go. São imagens produzidas por técnicas de animação digital em 3D, mixadas em concordância com a música por técnicas de VJing. Os elementos tridimensionais de ambos os trabalhos e a forma como interagem com o ritmo da música e entre si foram fortes influências para a produção do projeto “Claraboia”. Figura 4 - OK Go Live Visuals, de Karan Singh (2015) 16 Conteúdo visual produzido para ser exibido em apresentações ao vivo. 31 2.6 Ponto de Partida Antes de iniciar a elaboração do storyboard, foi decidido que primeiramente seria necessário estruturar a ideia que serviria como base para o vídeo, determinando o que ele pode representar e o que procura exprimir em suas formas abstratas. Entretanto, o conteúdo elaborado nessa etapa não teve como objetivo uma atribuição rigorosa de significados aos elementos que guiariam a realização do restante da produção, mas sim a criação de um conjunto de conceitos que inspirariam, de maneira livre, a concepção da animação. Uma das propostas da produção deste videoclipe seria concretizar, por meio de imagens, as sensações e impressões subjetivas causadas pela música. Para identificar essas possíveis sensações e estruturá-las em ideias, foi realizado um brainstorming17 com o auxílio de mais duas pessoas – Giovani Flores e Matheus Petroni. Assim, a faixa musical foi ouvida diversas vezes com atenção e, durante a experiência, foram sendo relatadas sensações e palavras que aparecessem nos pensamentos de cada indivíduo do grupo. Dentre as palavras levantadas, as que se destacaram para a equipe foram “sonho”, “viagem”, “luz” e “descoberta”. As palavras deram origem à ideia que serviu de inspiração para a criação do videoclipe. A música representaria, a partir de seu começo suave, o momento em que uma pessoa está prestes a dormir, quando seu raciocínio fica confuso e a percepção da realidade começa a se difundir com pensamentos oníricos. Então, o restante da música representaria a entrada para o “mundo” dos sonhos, até o momento em que a pessoa acorda, se sentindo lenta e confusa, ainda vivenciando as sensações dos sonhos e sem discernir completamente a realidade que a rodeia. Essa ideia também deu origem ao nome do projeto. A palavra “Claraboia” foi escolhida porque, além de ser sonora e graficamente interessante, também representa uma abertura por onde passa a luz, permitindo a iluminação de um ambiente escuro. Esse conceito, então, foi associado metaforicamente ao que ocorre quando se dorme: como uma claraboia, os sonhos permitem, como se carregassem consigo um feixe de luz, que as pessoas enxerguem cores e formas durante o sono. 17 Do Ingês, “tempestade cerebral” (tradução livre). Refere-se, neste caso, à técnica coletiva de discussão de novas ideias em trabalhos criativos. 32 2.7 Storyboard Com a ideia inicial estruturada, deu-se início à elaboração do roteiro. No entanto, por se tratar de uma obra predominantemente estética e visual, sem a presença de uma narrativa concreta, percebeu-se que o uso de um roteiro escrito convencional não caberia à proposta. Não seria eficaz visualizar, por meio de palavras, como as cenas se mostrariam detalhadamente, e como os elementos visuais se comportariam na tela. Determinou-se, então, que seria necessária uma visualização gráfica dos elementos, para que fosse possível elaborar as cenas de maneira palpável e criar uma unidade entre elas. Assim, a concepção do videoclipe foi formulada de maneira visual, com a criação do storyboard. Por mais que o videoclipe não possua uma narrativa concreta, o storyboard foi essencial para que as cenas fossem criadas com coesão. Observar no rascunho a disposição dos elementos das primeiras cenas no espaço, e prever seus movimentos, permitiu que as demais fossem imaginadas com muito mais facilidade. Apesar de o vídeo não ter como objetivo apresentar uma história precisa e identificável, ele foi criado para ter começo, meio e fim. A ideia gestada anteriormente foi utilizada como inspiração na realização do storyboard, e serviu para que cada parte da música contasse algo diferente, mesmo que por meio de figuras abstratas. Por exemplo, para o início da música, pensou-se que seria interessante apresentar uma “entrada”, representando o momento em que se “entra” no universo onírico. Então, foi decidido que o vídeo iniciaria com a câmera “entrando” em uma espécie de túnel. Durante a criação do restante das cenas, evitou-se determinar rigorosamente momentos específicos na música em que estas deveriam ser posicionadas. Isso possibilitou que a disposição das cenas ao longo da faixa musical fosse determinada com liberdade no momento da edição, além de permitir que novas cenas fossem criadas no momento da produção. Isso também propiciou, no momento da produção, que a mesma cena servisse de modelo para a criação de novas cenas, com variações de cores, formas e movimentos. A concepção das cenas, contudo, não foi realizada aleatoriamente. Para que a sequência se apresentasse de maneira coesa, foram identificados, na música, intervalos de tempo mais abrangentes em que determinadas cenas se encaixariam 33 de forma mais adequada. Assim, as cenas do começo e do fim do vídeo foram elaboradas especialmente para esses momentos da música. Outras, por exemplo, foram feitas para se encaixar melhor em um trecho onde há uma variação tonal. Essa dinâmica mais abrangente de elaboração evitou que a concepção das cenas limitasse o processo criativo da produção e da edição, ao mesmo tempo em que possibilitou que essa liberdade não comprometesse a coesão entre as cenas do videoclipe. O storyboard, além de servir como base para a produção das cenas, também foi um processo importante no que diz respeito à concepção artística. Nessa etapa, foi possível desenvolver conceitos como o desenho das figuras, suas dimensões, a disposição de cada uma delas no espaço, o enquadramento das cenas. O processo de concepção artística tem continuidade na etapa seguinte, responsável pela escolha das cores e pela criação das texturas. 2.8 Cores e texturas Com o storyboard finalizado, antes de dar início à produção do vídeo, realizou-se a escolha da paleta de cores criando-se todas as texturas que seriam aplicadas aos elementos visuais futuramente. O responsável por essa tarefa foi o estudante de Design Gráfico Giovani Flores, que possui experiência com ilustrações e produções gráficas. Giovani foi apresentado ao projeto do videoclipe desde o começo de sua concepção, participou do processo de estruturação da ideia inicial e acompanhou a elaboração do storyboard. Giovani, então, definiu qual seria a paleta de cores e, a partir dela, criou patterns (ou padrões) que serviriam como textura às figuras tridimensionais, a serem criadas posteriormente. Foram selecionados para compor a paleta de cores tons de vermelho, azul, rosa e verde. As imagens foram feitas no software Adobe Illustrator, e foram produzidos, no total, 24 arquivos no formato TIFF18, cada um com um padrão ou cores diferentes. Esses arquivos seriam aplicados posteriormente sobre os elementos tridimensionais, na etapa de texturização dos elementos visuais. 18 Sigla para Tagged Image File Format. Corresponde a um formato de arquivo de imagem. 34 Figura 5 - Paleta de cores do videoclipe "Claraboia" 2.9 Distribuição do vídeo O videoclipe “Claraboia” foi realizado com base em uma música produzida pelo próprio idealizador especificamente para o projeto. Ou seja, não é de autoria de um grupo musical ou artista que atue profissionalmente para que seja lançada, de imediato, da mesma forma que um videoclipe comum seria. Entretanto, o vídeo será divulgado e distribuído como projeto audiovisual autoral através de plataformas na internet. A música será disponibilizada para download e para streaming em serviços online, como o SoundCloud. O vídeo estará disponível para exibição no YouTube e no Vimeo. Para a divulgação, serão utilizadas redes sociais, como Facebook, Twitter e Instagram. 35 CAPÍTULO 3 PRODUÇÃO 36 Capítulo 3 - Produção Neste ponto do projeto, as etapas que antecedem a produção já haviam sido concluídas: a música está completa, o projeto conta com a ideia e com um storyboard para guiar a produção das cenas, as cores já foram selecionadas e as texturas, criadas. Desse modo, deu-se início ao processo de produção, que foi realizado inteiramente por meio de ferramentas digitais. Aqui, a primeira etapa foi a criação dos elementos visuais, ou seja, as figuras que compõem o videoclipe e sua disposição no espaço gráfico, por meio dos processos de modelagem 3D19 e elaboração do layout20. Depois, as figuras foram animadas, para posteriormente ganharem cores e texturas e, finalmente, serem renderizadas. Por fim, com os arquivos produzidos pela renderização, o videoclipe foi montado, editado e finalizado. 3.1 Criação dos elementos visuais Os elementos visuais que compõem o videoclipe “Claraboia” são constituídos, em sua maioria, por formas geométricas coloridas. A etapa de elaboração desses elementos criou figuras tridimensionais, dando-lhes forma e distribuição no espaço tridimensional, cena por cena. Para alcançar o resultado desejado, foram utilizados recursos digitais descritos a seguir. 3.1.1 O software Para criar os elementos visuais e a animação, foi utilizado o Cinema 4D, um software profissional usado para modelagem, animação e renderização em 3D. Sua interface gráfica é composta por inúmeros recursos. Um deles é o Viewport21, uma janela por meio da qual é possível navegar através do espaço tridimensional, adicionar e modificar objetos, e visualizar todo o trabalho que é realizado dentro do programa, por diversos ângulos diferentes. O espaço tridimensional é representado por três eixos: X, Y e Z. Por padrão, ao redor do Viewport encontram-se diversas 19 Processo de criação de modelos tridimensionais em ambiente digital. 20 Neste caso, refere-se ao processo de se criar uma composição visual ao distribuir as figuras no espaço tridimensional. 21 Do Inglês, “janela de exibição” (tradução livre). 37 ferramentas, como os modos de seleção, os modos de edição, recursos de criação e configurações de renderização. Logo abaixo, fica a Timeline22, onde é possível visualizar, de modo geral, cada quadro da animação em relação ao tempo. Abaixo da Timeline, estão os Materials23, onde é possível criar e configurar as texturas e materiais aplicados aos objetos. Do lado direito, está o Object Manager24. Nele, é possível gerenciar tudo o que é adicionado ao Viewport. É por meio dele que se organiza tudo o que é criado, além de permitir a inserção de ferramentas adicionais chamadas Tags 25 , que modificam as características de cada objeto de acordo com suas especificidades. Além disso, nele é possível gerenciar a interação entre os objetos. Abaixo do Object Manager, fica a aba Attributes26, com as configurações de todos os objetos. Ao selecionar um objeto no Viewport ou no Object Manager, seus parâmetros aparecem imediatamente na aba Attributes, onde é possível modificá-los. Em alguns aspectos, o Cinema 4D funciona como um set de filmagens virtual: há um espaço tridimensional, em que é possível criar e posicionar objetos. Para gerar a imagem, o software necessita de uma câmera, que pode ser adicionada à cena, posicionada e configurada como uma câmera física. O programa também inclui uma variedade de ferramentas de iluminação, que também podem ser posicionadas e configuradas. Mas, diferente de um set de filmagens real, a imagem é gerada por meio da renderização, cálculos matemáticos que transformam as informações do projeto em pixels27. 3.1.2 Configuração do projeto Antes de iniciar o processo de construção dos objetos e elementos visuais no software, é necessário configurar cada arquivo criado para que o produto final esteja nas especificações desejadas. Logo ao abrir o Cinema 4D, realizou-se a configuração de parâmetros em cada arquivo, como o aspecto da tela28, a resolução 22 Do Inglês, “linha do tempo” (tradução livre). 23 Do Inglês, “materiais” (tradução livre). 24 Do Inglês, “gerenciador de objetos” (tradução livre). 25 Do Inglês, “etiquetas” (tradução livre). 26 Do Inglês, “atributos” (tradução livre). 27 O pixel é o menor elemento de uma imagem digital. 28 Proporção referente ao tamanho de uma tela, calculada a partir da relação entre sua largura e sua altura. 38 do vídeo29, a taxa de frames30, o renderizador a ser utilizado, o tipo de arquivo que é gerado ao renderizar a animação, e recursos como o anti-aliasing31. A primeira escolha referente às configurações do vídeo foi feita em relação ao aspecto da tela. Decidiu-se que, esteticamente, a proporção mais adequada para os enquadramentos desejados seria a 16:9, que é um dos formatos mais utilizados atualmente em plataformas digitais, como o YouTube. No que concerne à resolução do vídeo, a princípio, optou-se por configurar o projeto para que a resolução final fosse 4K32. Contudo, após alguns testes, observou-se que o tempo levado para renderizar dois segundos de animação (48 quadros) seria muito longo nessas condições, visto que quanto maior o número de pixels, maior a demanda por processamento do computador. Assim, foi escolhida a resolução 1080p 33 , que proporcionou um resultado de qualidade satisfatória ao produto final e reduziu o tempo de renderização. Em qualquer software de animação digital, seja em duas ou três dimensões, é necessário informar a taxa de quadros do filme. Neste projeto, esse parâmetro foi configurado em 24 quadros por segundo, com varredura progressiva34. A taxa foi adotada por ser um padrão com um valor razoavelmente baixo de quadros, em comparação a outros padrões utilizados comumente, como 30fps, 50fps e 60fps. Essa escolha gerou um menor número de quadros a serem renderizados, otimizando o tempo de renderização e armazenamento digital. Nas configurações de renderização, foi escolhido para o vídeo o renderizador Standard35, já incluído por padrão no Cinema 4D. Esse renderizador não possui uma qualidade excelente, principalmente quando se trata de objetos modelados com alto nível de detalhamento, iluminação, sombras e texturas complexas. Porém, por este projeto utilizar, em sua maioria, cores sólidas, distanciando-se do fotorrealismo e sem a necessidade de recursos de iluminação, optou-se por aplicar o renderizador Standard, já que, nessas condições, ele gerou imagens em boa qualidade. Contudo, 29 Neste caso, refere-se ao número de pixels da imagem. 30 Também conhecida como “taxa de quadros”, refere-se ao número de quadros por segundo de um filme ou animação. 31 Recurso utilizado para reduzir o serrilhamento de imagens digitais. 32 Nome dado a resoluções que giram em torno dos 4000 pixels nos valores horizontais. Neste caso, refere-se à resolução 3840 x 2160. 33 Nome referente à resolução 1920 x 1080. O “p” está relacionado ao tipo de varredura. 34 A varredura é o método como a tela “monta” a imagem. A varredura progressiva realiza esta tarefa apresentando os quadros completos na tela a cada atualização. 35 Do Inglês, “padrão” (tradução livre). 39 para atingir um bom resultado, foi necessário empregar um recurso chamado anti- aliasing, que evita o serrilhamento indesejado nas superfícies dos objetos. Essa ferramenta, por demandar bastante processamento, aumentou consideravelmente o tempo de renderização. Por fim, ainda nas configurações de renderização, foi ajustada a output36, ou seja, o arquivo que é gerado pela renderização. Para obter a melhor qualidade, optou-se por exportar a animação para uma sequência de imagens em TIFF. O software, então, ao renderizar a animação, produziu vários arquivos de imagem em alta qualidade, que seriam postos em sequência posteriormente, na fase de edição. 3.1.3 Recursos de criação Os elementos visuais do projeto “Claraboia” foram criados a partir de objetos geométricos tridimensionais. Para criá-los, foram utilizados diferentes recursos do software Cinema 4D. Em grande parte do vídeo, é possível observar múltiplas formas geométricas, como esferas, cubos, retângulos, pirâmides e cilindros. Esses objetos são gerados de maneira simples no Cinema 4D, já que todos eles estão inclusos na categoria Objects. Basta clicar na forma escolhida que ela surge no Viewport, pronta para ser utilizada. Neste projeto, elas não foram alteradas radicalmente, visto que a concepção visual previa o uso de figuras geométricas. Portanto, foram modificados apenas parâmetros simples, como seus tamanhos e o número de subdivisões37, com exceção de poucas cenas que exigiram modificações mais específicas na modelagem, como é o caso das semiesferas e o túnel da cena inicial. É possível observar que, na maioria das cenas, os objetos se dispõem na tela em grande número e de maneira orgânica. Para adquirir essa característica visual, foi necessário o uso de alguns recursos especiais. Um deles é um mecanismo específico do Cinema 4D chamado MoGraph, que transforma objetos ou cria efeitos visuais sobre eles de acordo com o que é configurado. Além disso, dentro da categoria MoGraph, há um outro tipo de instrumento, chamado Effector, constituído por efeitos que podem ser aplicados sobre qualquer MoGraph. O Cloner é uma 36 Do Inglês, “saída” (tradução livre). 37 Na modelagem tridimensional, as subdivisões são traços que dividem a superfície dos objetos em várias partes. Quanto maior o número de subdivisões, maior a possibilidade de detalhamento de uma superfície tridimensional. 40 ferramenta da categoria MoGraph que foi bastante utilizada neste projeto. Sua principal função é clonar objetos, ou seja, criar múltiplas versões idênticas de um único objeto. Além disso, pode-se configurar a distribuição dos clones no espaço, a quantidade de clones e a distância entre eles. Na aba Effectors, é possível adicionar efeitos específicos. Para dar às múltiplas formas um aspecto orgânico, foi bastante explorado um Effector chamado Random. Aplicado aos clones, ele permite modificar, de forma aleatória, valores como o tamanho, rotação, e posição no espaço tridimensional. O Cloner também pode ser vinculado a outro objeto, fazendo com que seus clones fiquem dispostos de acordo com o formato desse objeto, seja ligando os clones a seus vértices ou distribuindo aleatoriamente um número específico de clones sobre sua superfície. Esse recurso foi adotado para criar a forma espiral da última cena. Para isso, foi necessário criar uma Spline em formato espiral. Spline é uma ferramenta do Cinema 4D que trabalha com linhas e possui diversas aplicações. Nesse caso, ela foi utilizada para servir como base da distribuição espacial dos clones. Primeiro, criou-se a Spline no formato helicoidal, por meio da ferramenta Helix, que permite ajustar, entre outros parâmetros, sua altura, o ângulo inicial, o ângulo final, o raio inicial e o raio final. Assim que a forma foi criada, através das configurações do Cloner, a distribuição dos clones foi ajustada para o modo Object e vinculada à Spline. Então, as esferas e cubos clonados ficaram distribuídos espacialmente sobre a linha helicoidal. Para produzir um número múltiplo de objetos, não foi utilizada apenas a ferramenta Cloner. Uma outra maneira de realizar essa tarefa foi pelo mecanismo de partículas do Cinema 4D. Com o Particles, é possível transformar objetos em partículas. Neste projeto, foi utilizado o Emitter, um emissor de partículas. Nele, é possível configurar, entre outros parâmetros, os frames específicos em que as partículas começam e param de ser emitidas, a força da emissão e o tamanho da área de onde elas são lançadas. Essa ferramenta produz resultados diferentes se comparada ao Cloner, pois não é possível controlar exatamente o local em que cada objeto será posicionado – eles são despejados no espaço tridimensional de acordo com parâmetros mais abrangentes, como quantidade e velocidade. As duas ferramentas, porém, não se excluem, já que é possível fazer com que um Cloner se comporte como partícula e seja emitido em grandes quantidades por um Emitter. A utilização desses recursos para alterar a maneira como as partículas e objetos se 41 comportam e se movimentam será relatada no item a seguir, que detalhará o processo de criação da animação. Figura 6 - Figuras geométricas criadas através das ferramentas Cloner e Emitter, em cena do videoclipe "Claraboia" 3.2 Animação Na etapa de criação dos elementos visuais, as prioridades foram a modelagem dos objetos e sua distribuição no espaço tridimensional. Já na animação, o foco foi direcionado à criação de movimento, ao comportamento dos objetos e à interação entre eles. Diferentes tipos de recursos foram empregados para animar os elementos visuais, desde os mais fundamentais, como o uso de keyframes e curvas, até ferramentas mais específicas, como os Effectors, o uso de dinâmica, simulações e Deformers. Esses recursos serão descritos nos itens a seguir. 3.2.1 Animação por keyframes Na animação digital, é comum a utilização de recursos baseados no conceito de keyframe. Keyframes, ou quadros-chave, são os quadros que demarcam, em uma animação, as posições mais importantes para a representação do movimento de um objeto ou personagem. Geralmente, na animação feita à mão, os keyframes 42 são desenhados por artistas mais experientes e utilizados como referência para o restante dos quadros pelos outros desenhistas. A animação digital adotou esse conceito, porém com recursos que trabalham de maneira diferente: os keyframes demarcam mudanças de um objeto ou personagem ao longo do tempo, mas os quadros que ficam entre eles são calculados pelo software e o movimento é produzido automaticamente. É possível criar keyframes em inúmeros parâmetros de um único objeto, como posição no espaço, tamanho, cor. Assim como a maioria dos softwares de animação digital, o Cinema 4D também possui o sistema de keyframes para criar animações. Na interface gráfica, quase todos os parâmetros que podem modificar os atributos de um objeto têm ao seu lado um pequeno círculo que, ao ser selecionado, cria um keyframe com o valor em que está ajustado, no atual quadro, sobre o qual o cursor está posicionado na Timeline. À medida em que keyframes são criados, pequenas marcas são geradas na barra da Timeline. Para visualizar e manipular cada keyframe de forma mais detalhada, é necessário abrir a opção Show Track, que mostrará, em uma janela separada, cada keyframe e seus respectivos parâmetros ao longo do tempo. Ao calcular a animação entre dois keyframes, o software gera um movimento em uma aceleração específica. Por exemplo, se uma esfera é animada para ir de um ponto à direita da tela a outro ponto, à esquerda, e o movimento gerado possui uma velocidade linear, a esfera já começará, a partir do primeiro quadro, a se mover em uma rapidez constante. O resultado, a não ser que seja intencional, pode causar estranhamento, pois não corresponde ao que aconteceria com uma esfera física – que necessitaria de um intervalo de tempo para adquirir velocidade, e de mais tempo para parar de se mover. No entanto, no Cinema 4D, por padrão, em qualquer animação criada entre dois keyframes, o início e o fim do movimento têm suas velocidades suavizadas automaticamente por um recurso do software chamado F- Curves. Para dar à animação diferentes aspectos de acordo com a aceleração do movimento, é possível manipular as curvas que, graficamente, representam o valor do parâmetro animado ao longo do tempo. No videoclipe “Claraboia”, os keyframes e F-Curves foram usados para animar parâmetros como movimentos de câmera, posição de objetos, rotação de objetos, tamanho de objetos e outros mais específicos, como os atributos de um Cloner, ou as configurações do formato de uma Spline. Na primeira cena, é possível observar uma esfera que se abre em duas metades, revelando um retângulo que se 43 transforma em um túnel. Enquanto isso, a câmera se aproxima. De dentro do túnel, surgem pequenas esferas que são atiradas para frente. Todos esses atributos, com exceção do movimento particular de cada pequena esfera, foram animados por meio de keyframes. No Cinema 4D, a câmera é só mais um objeto dentro do espaço tridimensional e, portanto, pode ter seus parâmetros animados. Para produzir o movimento de câmera na primeira cena, foram criados keyframes no parâmetro “Z” da sua posição no espaço, para que ela se movesse para frente. Sua curva de aceleração foi ajustada para que ela começasse com uma velocidade regular e, nos segundos finais do movimento, se movesse cada vez mais rápido. As metades da esfera também foram animadas em sua posição, mas na diagonal. Depois de começarem a se separar lentamente, elas de repente se afastam com rapidez. Neste ponto, foram criados mais keyframes, e a curva em F- Curves foi ajustada para gerar uma aceleração no começo e suavizar novamente a velocidade no fim do movimento de afastamento. O túnel formado por retângulos foi criado por um Cloner que produz clones linearmente através do eixo “Z”. A multiplicação dos retângulos foi animada por meio do parâmetro Count, que regula o número de clones. As pequenas esferas foram geradas por meio de um Emitter, que teve keyframes criados em sua posição no eixo “Z”, para acompanhar a câmera enquanto lançava os objetos esféricos ao longo do túnel. A partir da metade do primeiro minuto, quando há a primeira mudança de tom na música, um dos elementos visuais animados é um cubo que se divide em três partes, formando três ortoedros38 distintos que, por sua vez, se dividem entre si e acabam por formar nove ortoedros no total. O cubo, na verdade, é formado por dois Cloners, que permitem o empilhamento dos nove ortoedros. Estes, então, se afastam uns dos outros e criam a impressão de divisão. Há quatro variações dessa cena, com cores e movimentos diferentes. Em todas elas, foram criados keyframes para animar as dimensões e a rotação do grupo hierárquico que contém todos os ortoedros. Logo em seguida, após as quatro primeiras variações, há uma outra variação dessa cena, em que o cubo, na verdade, é formado por outros nove cubos menores, posicionados em linhas e colunas. Aqui, além da posição dos clones, foram criados keyframes para animar outros elementos, como texturas e retângulos posicionados atrás do cubo maior. 38 Figura geométrica constituída de um paralelepípedo cujas faces formam ângulos diedros retos entre si. 44 Nas cenas seguintes, a câmera se aproxima de uma pirâmide. Os keyframes foram programados para movimentar a câmera pelo eixo Z e para rotacionar a pirâmide. Ao se aproximar da pirâmide, a câmera ganha velocidade, com a curva na aba F-Curves ficando cada vez mais íngreme. A última cena é constituída de figuras geométricas dispostas ao longo de uma linha helicoidal que gira, enquanto a câmera se afasta. Além do movimento básico de câmera, que necessitou de apenas alguns keyframes vinculados à sua posição no eixo Z, outros atributos foram animados pelos quadros-chave nesta cena, como o Offset do Cloner que distribui os objetos pela Spline e o tamanho do raio de uma das extremidades da Spline helicoidal. O Offset do Cloner é o parâmetro que controla a posição dos clones em relação à forma sobre a qual estão dispostos. Ao animar o Offset, foi possível fazer os clones se moverem ao longo da Spline até que sobrasse só uma figura geométrica. A animação da extremidade final da Spline reduziu o valor de seu raio a zero, o que permitiu que essa única figura, que é uma esfera, ficasse posicionada no centro da tela enquanto a câmera termina de se afastar, revelando as outras duas figuras que compõem os momentos finais do vídeo. Figura 7 - Figuras geométricas criadas através de um Cloner e dispostas sobre uma Spline helicoidal, em cena do videoclipe "Claraboia" 45 3.2.2 Recursos especiais de animação Apesar de ser um recurso fundamental na animação digital, o uso de keyframes não foi a única técnica adotada para animar os elementos visuais deste projeto. O Cinema 4D dispõe de outros recursos criativos que permitem a produção de animação. O uso de MoGraphs é um deles. É possível vincular a essa ferramenta efeitos chamados Effectors, que por sua vez podem modificar e animar, de diversas maneiras, um único objeto. Neste videoclipe, foram usados três Effectors: o Sound, o Delay e o Random. O Sound é um efeito que utiliza as informações de um arquivo de áudio para animar atributos como tamanho, posição e rotação de um objeto MoGraph. O Delay tem como função suavizar a ação de outros Effectors, tornando os movimentos um pouco mais lentos e suaves. O Random permite modificar o tamanho, a posição e a rotação de múltiplos objetos MoGraph, com base em valores aleatórios. Ao ser usado em um Cloner, por exemplo, este Effector faz com que os clones tenham tamanhos, posições no espaço ou rotações diferentes entre si. Ele também possui a ferramenta Turbulence, que possibilita a produção de movimento a partir desses parâmetros e seus valores aleatórios. Os Effectors foram utilizados, sobretudo, para animar os objetos constituídos por Cloners. Para alcançar o efeito desejado na animação dos clones, também foram utilizadas, junto aos Effectors, ferramentas de simulação de dinâmica, chamadas Simulation Tags. No Object Manager, que é onde todos os objetos inseridos no projeto são organizados, é possível adicionar tags aos objetos, ou seja, “rótulos” que irão modificar alguma característica do objeto de acordo com sua função. Uma das categorias de tag é a Simulation Tags. Nela, se encontram tags que podem dar aos objetos comportamentos específicos, seguindo as “leis da física”, de acordo com o que é configurado. Para isso, foram utilizadas as tags Rigid Body e Collider Body. O Rigid Body transforma o objeto em um corpo rígido, afetado pela gravidade, pela inércia, por colisões e que não pode ocupar o mesmo lugar no espaço que outro objeto que também possui uma Simulation Tag. O Collider Body faz com que o objeto permaneça estático, sem ser afetado pela gravidade, porém com o poder de interagir com outros objetos afetados por uma Simulation Tag. A maior parte das cenas do videoclipe é composta por objetos clonados ou produzidos por Emitters, sendo que muitos deles foram vinculados a tags de simulação. A maioria dos Cloners, por sua vez, também está sob a influência dos 46 Effectors. Logo na primeira cena, as pequenas esferas lançadas pelo Emitter foram associadas a uma tag Rigid Body e, portanto, passaram a ser afetadas pela gravidade e a colidir com as paredes do túnel, que foi vinculado a uma tag Collider Body. A sequência que se inicia depois é formada por diferentes cenas com múltiplos objetos que se movem e interagem entre si. Na primeira cena dessa sequência, cubos e esferas se movimentam de acordo com o ritmo da música. Os múltiplos objetos foram gerados por um Cloner e vinculados, individualmente, a uma tag Rigid Body. Para não se distanciarem de sua posição original, esses objetos foram programados para deixarem de ser completamente afetados pela gravidade, mesmo viculados à tal tag. Desse modo, sempre que colidem e são lançados para longe ou que são afetados por algum Effector que modifica sua posição, os objetos voltam com fluidez para seu lugar de origem. O Cloner, então, foi submetido aos Effectors Random, Sound e Delay. O primeiro permitiu que cada objeto possuísse um tamanho diferente. Já com o Sound, foi possível importar a faixa de áudio e animar o tamanho de cada objeto de acordo com o ritmo da música. Uma das vantagens de ter acesso à produção da música foi a possibilidade de criar um arquivo de áudio apenas com o som de um instrumento específico: o bumbo. Diferente da faixa original, a que contém apenas o som do bumbo proporcionou um efeito muito mais intenso sobre os clones. As duas cenas seguintes foram compostas da mesma maneira, porém com clones de cubos e pequenas esferas e clones de retângulos, respectivamente. A cena subsequente é formada por esferas que “caem” e se “esticam”. Para obter esse efeito, foi criado um Emitter que gerava um Cloner com esferas vinculadas a uma tag Rigid Body. Assim, o Emitter lançava esferas afetadas pela gravidade, enquanto o Cloner, por ser um MoGraph, possibilitava a ação dos Effectors. Aqui, não houve uso do Random, e o Sound afetava apenas uma das dimensões das esferas, transformando-as em figuras ovais, em sincronia com a “batida” da música. Como é possível observar, ao atingirem um certo ponto no espaço, as esferas quicam. Isso acontece devido a um retângulo invisível vinculado à tag Collider Body, que serviu como uma “barreira” contra os outros objetos, fazendo-os quicar. Após essa cena, tem início uma cena com esferas e cubos. Os cubos são clones sob influência do Random, do Sound e do Delay. O Random altera o 47 tamanho dos objetos. O Sound, dessa vez, está sob influência da música original, causando um efeito diferente nos movimentos das figuras. O Delay suaviza esses movimentos. As esferas também foram multiplicadas por um Cloner, dispostas linearmente pelo eixo X e estão associadas a uma tag Rigid Body. Assim, as esferas caem por efeito da gravidade e se colidem com os cubos, vinculados a uma tag Collider Body. A cena seguinte, com outras figuras, funciona de maneira parecida, com a diferença de que nenhuma delas é afetada pela gravidade. Em seguida, tem-se duas cenas constituídas de clones de esferas gerados por um Emitter. O Cloner é influenciado pelo Sound, que segue o bumbo da música, e pelo Delay. O Emitter, por sua vez, lança as esferas clonadas em direção à câmera. Depois, cubos clonados se movimentam sob efeito do Sound e do Delay e têm seus comportamentos alterados por uma tag Rigid Body. O cubo central foi feito da mesma maneira. Nas duas cenas seguintes, um Emitter lança pequenas esferas dentro de uma esfera maior, invisível. As pequenas esferas foram vinculadas a uma tag Rigid Body e, portanto, se acomodam no espaço de acordo com a “física” do software, preenchendo o volume da esfera maior, associada a uma tag Collider Body. Para que elas permaneçam em movimento, foi adicionado um efeito que afeta Particles e objetos vinculados a Simulation Tags de maneira geral, chamado Turbulence. Ele atua como uma força externa que arrasta as partículas pelo espaço. Depois, em outra cena, diferentes objetos clonados e associados a uma tag Rigid Body são lançados por um Emitter em direção à câmera. Esses objetos, além agirem de acordo com a gravidade, também são influenciados pela velocidade em que são arremessados pelo Emitter, o que faz com que caiam enquanto se movimentam para frente. A sequência que vem em seguida é composta por cenas que apresentam vários elementos visuais, animados por diferentes técnicas. Além das animações por keyframes já descritas, apresentam figuras ocas e estreitas clonadas, que formam um túnel. Esse túnel se altera em sincronia com a música. Para isso, foram usados Cloners e o Effector Sound que, por meio da faixa musical original, atua sobre a profundidade do túnel. Outro elemento são esferas multiplicadas por um Cloner, lançadas por um Emmiter e que estão associadas a uma tag Rigid Body. O Cloner está sob efeito dos Effectors Random, que deixa cada objeto com um tamanho diferente, e Sound, que aumenta com muita intensidade o tamanho das esferas de acordo com o arquivo de áudio inserido – que, no caso, contém apenas o som do 48 bumbo. Por agirem de acordo com a “física” do software, ao aumentarem repentinamente de tamanho, os objetos esféricos se repelem e se afastam rapidamente, criando uma animação veloz e dinâmica. Além desses elementos, também há um cubo que se divide em ortoedros e gira, cujo processo de animação já foi detalhado. Por ser formado por Cloners, foi possível inserir um effector Sound ao cubo. Após essa sequência de quatro cenas, começa uma outra sequência de duas cenas parecidas. Dessa vez, o túnel formado por Cloners não está sob a atuação de nenhum Effector, e sim submetido à animação comum de keyframes. As esferas são emitidas em tempos distintos por cinco Emitters diferentes para, então, dar lugar à animação já descrita dos cubos que se dividem em ortoedros. A sequência seguinte é formada por três cenas semelhantes, que se distinguem apenas pelas cores e texturas. A pirâmide central foi vinculada a uma tag Collider Body e, por isso, serviu como uma barreira a qualquer objeto associado a uma Simulation Tag. Do lado esquerdo, fora do campo de visão da câmera, encontra-se um Emitter que arremessa velozmente, da esquerda para a direita, esferas e retângulos clonados. Estes, por estarem ligados a uma tag Rigid Body, quando vão de encontro à pirâmide, chocam-se. Por fim, na última cena, os cubos e esferas dispostos pela Spline helicoidal também foram configurados para atuarem como corpos rígidos, para que não se sobrepusessem no espaço e para se chocarem levemente uns contra os outros. Para que não sofressem completamente o efeito da gravidade, foram ajustados para seguir sua posição original. Nos últimos momentos do vídeo, a câmera revela duas figuras de aspecto maleável. Essa foi a única animação do vídeo criada por meio da associação de um Deformer, recurso capaz de modificar de diversas maneiras a forma de um objeto, com um efeito de partículas. Para adquirir o efeito, o Jiggle, um Deformer object específico que pode ser usado para simular as deformações de um tecido, foi adicionado a semiesferas idênticas às da cena inicial. Para que essa ferramenta funcione, é necessário ligá-la a outro mecanismo que atue como uma “força”. Assim, foi vinculada a ela uma força de turbulência, o Turbulence, que, dentro do software, pertence à categoria Particles. Com esse recurso, o objeto passa a adquirir a deformação desejada. Para isso, é necessário configurar os parâmetros tanto do Jiggle quanto do Turbulence, que modificam atributos como a força da deformação, a força e a escala da atuação da turbulência, a rigidez do objeto e a forma como 49 este se comporta em relação às partículas. Dessa forma, as semiesferas adquiriram deformações semelhantes às de um tecido, com aspecto flexível e movimentos suaves. Figura 8 - Semiesferas sob efeito do Jiggle, na cena final do videoclipe "Claraboia" 3.3 Texturização A texturização é o processo de dar aos objetos cores e texturas. Para isso, é preciso criar “materiais” com a ferramenta Materials, do Cinema 4D. Ao criar um Material, é possível configurar atributos como a cor, a reflexividade, a emissão de luz própria e a criação de pequenas imperfeições e relevos na superfície de um objeto. A maioria dos atributos é influenciada pelo uso de luzes e, para apresentar um bom resultado, necessita de uma iluminação muito bem construída. O uso de luzes, contudo, aumenta consideravelmente o tempo de renderização. Por isso, em todos os Materials criados para este videoclipe, o único recurso de texturização usado foi o Luminance. Esse recurso produz sua própria luz e, portanto, pode gerar cores e texturas sem a necessidade de iluminação externa, com a limitação de que não há sombras e reflexos para dar a impressão de volume, o que é conveniente para a estética deste projeto. Em outros modos de renderização, o Luminance pode gerar um brilho que ultrapassa a superfície do objeto e atinge outros elementos, como se fosse uma luz real. Com o renderizador Standard, esse efeito indesejado pôde ser evitado. Quando 50 apenas uma cor é usada no modo Luminance, o objeto adquire uma característica “2D”, ou seja, de duas dimensões, com a cor preenchendo toda a sua silhueta. Quando é usada uma textura que possui mais de uma cor, ela se ajusta ao formato do objeto, devolvendo a ele a impressão de volume. Essas duas técnicas foram utilizadas para criar diferentes visuais em “Claraboia”. Com a ferramenta Materials, por meio do modo Luminance, criou-se cada cor e textura usada no videoclipe. Foram utilizadas cores sólidas, gradientes e arquivos de imagens. Para produzir Materials de cores sólidas, foi preciso apenas escolher a cor, nas configurações de Luminance. Os gradientes foram feitos da mesma forma, com a diferença de que foram formados a partir de duas cores distintas, cujos tons vão de encontro um ao outro, gradativamente. O restante das texturas foi constituído pelos arquivos de imagem TIFF, que contêm os padrões criados na fase de pré- produção. Depois de criados, cada Material foi adicionado ao seu respectivo objeto. Para associar um elemento a um Material, foi necessário “arrastar” o Material para dentro do objeto no Object Manager. Ao fazer isso, uma nova tag é vinculada ao objeto: a Texture Tag. Nela, encontram-se as configurações de texturização, por meio das quais se modificam atributos, como o modo em que a textura será projetada sobre o objeto, seu tamanho e sua posição. No caso das cores sólidas, não foi necessário modificar nenhuma das configurações na Texture Tag. Os maiores ajustes foram feitos com a utilização dos arquivos de imagem. O parâmetro Projection tem como função estabelecer a forma com que a imagem será “encaixada” sobre a superfície do objeto. No vídeo, todas as texturas criadas a partir dos padrões em TIFF foram ajustadas em projeções cúbicas, esféricas ou frontais. A projeção cúbica foi utilizada, na maioria dos casos, para figuras geométricas com ângulos diedros retos, como cubos e ortoedros. Nesse tipo de projeção, a imagem não sofre deformações muito grandes, pois é colocada de maneira uniforme sobre superfícies retas. A projeção esférica, por sua vez, foi aplicada sobre objetos esféricos. Esse modo de projeção causa deformações nas partes superiores da imagem, onde ficam os “polos” da esfera. Assim, a imagem fica um pouco “esticada” – sem, no entanto, causar qualquer prejuízo à estética do videoclipe e criando, inclusive, um efeito plástico desejado. Por fim, a projeção frontal tem como função tornar a textura uma imagem fixa na tela, sem ser alterada pelas dimensões do objeto sobre o qual está aplicada, com o objetivo de apenas 51 preencher sua silhueta. Esse tipo de textura proporciona um efeito interessante e foi utilizado em algumas cenas. Para dar cor ao fundo da tela, foi adicionado a algumas cenas um objeto chamado Background. Esse objeto consiste em um retângulo bidimensional que preenche toda a tela e não sobrepõe nenhum outro objeto. A ele é possível adicionar um Material e configurar como se fosse um objeto comum. Em alguns casos, o uso desse elemento não foi bem-sucedido, pois ele não apresenta um comportamento muito regular em casos de texturas formadas por arquivos de imagem. Para criar um fundo nessas condições, foi necessário adicionar um objeto chamado Plane (também um retângulo bidimensional), posicioná-lo atrás de todos os outros elementos e aumentar seu tamanho para que preenchesse toda a tela. Por ser um objeto comum, foi possível aplicar sobre ele qualquer textura. As texturas constituídas de gradientes foram aplicadas, em alguns casos, para conferir ao objeto a impressão de volume sem necessariamente depender do uso de padrões de imagem muito detalhados. Essa foi uma técnica bem-sucedida nas cenas em que os cubos se dividem em ortoedros menores, já que, por ser uma animação com muitos elementos, nem todos os padrões se encaixaram de maneira harmônica aos objetos. 3.4 Renderização Depois de pronta a texturização, as animações puderam, então, ser renderizadas, para que o vídeo fosse editado posteriormente. A renderização foi um processo simples, apesar do grande número de cenas. A cada cena foi designada uma pasta diferente para armazenar os arquivos de imagem gerados pela renderização. Os arquivos do Cinema 4D foram programados, nas configurações de renderização, para transformar cada frame em um arquivo de imagem TIFF, na resolução de 1920 por 1080 pixels. No total, foram renderizados quase vinte e um mil quadros, que ocuparam cerca de de 140 gigabytes de armazenamento. Entretanto, nem todas as cenas renderizadas foram utilizadas no projeto final. A renderização levou cerca de 30 horas para ser concluída. Para automatizar o processo, foi utilizado o recurso Render Queue, que permite deixar os arquivos do Cinema 4D em fila e renderizar cada um deles em sequência. Assim que todas as cenas foram renderizadas, foi iniciada a edição do vídeo. Só foi possível assistir ao 52 resultado final das cenas depois de colocar os frames (arquivos de imagem) em sequência no software de edição. 53 CAPÍTULO 4 PÓS-PRODUÇÃO 54 Capítulo 4 - Pós-produção Com todas as cenas renderizadas, deu-se início ao processo de edição do vídeo. Nessa etapa, as sequências de imagens foram montadas e sincronizadas com a música, formando o que viria a ser, depois da finalização, o produto final. Para concluir todas essas tarefas, foi utilizado o software de edição de vídeo Adobe Premiere. 4.1 Fluxo de trabalho Como o número de arquivos a serem manipulados nesta etapa era muito grande, foi necessário, antes de começar o processo de montagem, organizar o fluxo de trabalho. Primeiramente, foi criado um arquivo no Premiere. Para facilitar o processo de importação, a interface foi personalizada para que a janela responsável pelo gerenciamento dos arquivos ocupasse um grande espaço na lateral esquerda da tela do computador. Depois, todas as pastas que contêm os arquivos de imagem foram importadas para o software e dispostas em ordem numérica. Para simplificar o processo de montagem do videoclipe, cada cena foi preparada separadamente no software, ou seja, para cada cena, foi criada uma sequência39 no Premiere. Sempre que se cria uma nova sequência, é preciso determinar as configurações do vídeo. As sequências foram configuradas em resolução 1080p, taxa de 24 frames por segundo, varredura progressiva e áudio em 44100 Hz. Para recriar a animação dentro do Premiere, foi preciso abrir, no gerenciador de arquivos, a pasta que contém a cena escolhida e selecionar todos os arquivos de imagem. Depois, a seleção foi arrastada para a linha do tempo. O software já posiciona os frames na ordem correta. Ao apertar o botão Play, já é possível assistir à cena animada na tela de visualização do Premiere. Antes de posicionar as imagens na linha do tempo para dar vida à cena, foi preciso especificar a duração que cada imagem ocuparia no vídeo. Como as animações já foram renderizadas em 24 frames por segundo, o software foi configurado para que cada imagem ficasse com apenas 1 frame de duração. Assim que todas as cenas foram criadas dentro das sequências, deu-se início ao processo de montagem. 39 Neste caso, a palavra “sequência” refere-se a um recurso do Adobe Premiere que permite a edição de conteúdos diferentes em painéis individuais. Para cada sequência criada, há uma nova “linha do tempo”. 55 4.2 Montagem No Premiere, é possível inserir sequências dentro de outras sequências, e manipulá-las como se fossem clipes de vídeo comuns. Assim, para realizar a montagem do videoclipe, foi criada uma nova sequência, que foi utilizada para unir as demais e editá-las em sincronia com a música. Primeiro, o arquivo de áudio foi adicionado à sequência principal. Depois, as outras cenas foram sendo adicionadas, cortadas e encaixadas à faixa musical. Como o projeto contou com um roteiro flexível, houve bastante experimentação na edição de algumas cenas, o que fez com que a montagem do vídeo também fizesse parte do processo criativo. Desse modo, a ordem e o corte de algumas das cenas foram determinados depois de alguns testes, para que se obtivessem resultados mais harmônicos e fluidos. Para sincronizar os cortes com a música, foram usados como referência os “picos” da reprodução gráfica da faixa de áudio, que representam o bumbo da música. Os cortes entre cenas são secos, ou seja, sem nenhum efeito de transição, já que esse tipo de efeito não combinaria com a estética do vídeo. Durante a última cena da animação, foram inseridos trechos de cenas anteriores, intercalados com a cena final. Foi uma decisão feita durante a edição, para evitar que a cena final ficasse monótona. A escolha, além de resolver o problema, produziu um resultado interessante. Os trechos, apesar de repetidos, foram introduzidos juntamente com a parte da música que retoma a melodia do início. Assim, os elementos visuais que se repetem são sempre apresentados em conjunto com a mesma melodia, causando a impressão de unidade. 4.3 Finalização A finalização é a última etapa da pós-produção do videoclipe. Neste processo não foi necessário realizar muitos ajustes, já que o resultado obtido na edição foi bastante satisfatório. Não houve a necessidade, por exemplo, de se aplicar recursos de correção de cor, visto que as cores desejadas foram selecionadas diretamente no Cinema 4D. No processo de finalização, o vídeo foi assistido algumas vezes e analisado minuciosamente para se ter certeza de que o produto estivesse completamente finalizado. Nesse momento, havia a possibilidade de se adicionar ao vídeo um texto contendo o título da música, ou os créditos. Entretanto, por ser um 56 videoclipe, foi determinado que isso não seria necessário, já que todas as informações importantes seriam incluídas na descrição do vídeo, no YouTube e no Vimeo. Ademais, foi decidido que não seria esteticamente interessante inserir outros elementos gráficos, como textos, no vídeo. Com o produto finalizado, o projeto foi exportado para que fossem gerados os arquivos de vídeo. Esta tarefa foi executada por meio de dois softwares diferentes: o próprio Adobe Premiere, onde o clipe foi editado, e o programa de codificação de vídeo Apple Compressor. Primeiramente, o vídeo foi exportado no Premiere com o objetivo de se obter o arquivo de vídeo que serviria de base para a criação das demais versões. Este arquivo, portanto, deveria obrigatoriamente possuir uma qualidade impecável. Para isso, foi escolhido o formato de vídeo “QuickTime Movie”, já que neste formato é possível utilizar um codec que não comprometa a qualidade do vídeo. Optou-se pelo codec “Animation” e todos os parâmetros foram configurados para que o arquivo ficasse com a maior qualidade possível. O arquivo final ocupou um armazenamento total de aproximadamente 6,18 gigabytes. Este arquivo não é adequado para ser reproduzido por players comuns já que, por ser muito pesado, pode apresentar travamentos e lentidão ao ser tocado. Contudo, a partir dele foram criadas outras versões do vídeo, no Compressor. Foram gerados outros dois arquivos de vídeo no Compressor: um para a ser enviado ao Vimeo e ao Youtube, e outro para ser gravado em DVD. O arquivo destinado às plataformas digitais foi exportado com o uso do codec H264, em FullHD (1980 por 1080 pixels). Já para o DVD, foi gerado um arquivo em MPEG-2, formato específico usado em DVDs, com resolução de 720 por 480 pixels. Infelizmente, a qualidade do vídeo foi comprometida no processo de exportação para o formato de DVD, tanto pela redução da resolução, quanto pela compressão desempenhada pelo codec. Por fim, diretamente do Premiere, foi gerado o arquivo de vídeo que contém os créditos da produção. Este vídeo foi posteriormente vinculado ao botão “Créditos” no menu