1
HAMILTON ALVES FRANCO JÚNIOR
COMPOSIÇÃO DIGITAL NO FILME EM STOP MOTION “PENTIMENTOS”
BELO HORIZONTE UNIVERSIDADE FEDERAL DE MINAS GERAIS ESCOLA DE BELAS ARTES
2
HAMILTON ALVES FRANCO JÚNIOR
COMPOSIÇÃO DIGITAL NO FILME EM STOP MOTION “PENTIMENTOS”
Trabalho de Conclusão de Curso (TCC) apresentado ao Colegiado de Graduação em Artes Visuais da Escola de Belas Artes da
Universidade Federal de Minas Gerais, como requisito parcial para a obtenção do título de Bacharel em Artes Visuais Habilitação: Cinema de Animação Orientador: Dr. Daniel Werneck
BELO HORIZONTE UNIVERSIDADE FEDERAL DE MINAS GERAIS ESCOLA DE BELAS ARTES Junho de 2011
3 Agradecimentos
Agradeço aos colegas da Belas Artes por estarem entre as pessoas mais incríveis que conheço. Obrigado eterna turma da 2013, pelo aprendizado na vida acadêmica e na vida pessoal, “é nois que voa, bruxão!”. Agradeço à Toninha e ao Fabiano pelo exemplo de perseverança na conclusão do filme. Estou muito feliz de ter vivido um momento tão intenso da minha vida ao lado deles. Obrigado pela amizade. Agradeço aos professores da Belas Artes por guiarem com sabedoria um grupo tão heterogêneo. Agradeço ao Dr. Daniel Werneck pela orientação, paciência, amizade e por suas filosofias que usarei pela vida toda. Agradeço aos meus pais pela base, incentivo e empurrões na vida hoje e sempre. Agradeço à minha irmã pelo divertimento e por sempre estar ao meu lado. Agradeço aos amigos do Pontociência pela experiência mais do que positiva. Agradeço ao “desapoio” necessário dos meus amigos do Steam (Família Restart e Alexia), e um agradecimento especial ao Bruno Barbosa. Agradeço ao pessoal da cantina da Belas Artes.
4
À minha mãe Wânia, meu pai Hamilton e minha irmã Laís.
5
“O homem de fé não é aquele que acredita sem ver, é aquele que vê e ainda acredita” Chico Xavier
6
Resumo
A pesquisa analisa o uso de computadores para criar imagens integrando elementos vindos de diversas fontes. Este processo é denominado Composição Digital. Um apanhado geral das técnicas utilizadas em “Pentimentos” e a visão do artista em analisar os fenômenos visuais do mundo real e recriá-los no reino digital.
Palavras-chave: Cinema – Animação – Composição Digital – Efeitos Visuais – Pós-produção – Stop Motion
7
Sumário
Introdução..................................................................................................................................8 1.Filmagem e planejamento......................................................................................................9 2.Chroma Key.........................................................................................................................11 3.High Dynamic Range Imaging............................................................................................16 4.Gamma Linear.......................................................................................................................21 5.Integração de objetos gerados pelo computador.................................................................24 6.Gradação de Cor...................................................................................................................34 Considerações Finais...............................................................................................................37 Referências...............................................................................................................................38
8 Introdução Os avanços da tecnologia trazem diversos benefícios para a humanidade. O surgimento de novas tecnologias abre um leque de novas possibilidades para o Homem, modificando sua forma de trabalhar e de lidar com a natureza. O uso aplicado da tecnologia é responsável pelo progresso e melhoria na qualidade de vida da sociedade contemporânea. Uma das áreas com a maior velocidade de evolução é a da Ciência da Computação (apesar de não tão rápido como a publicidade anuncia). A facilidade de comunicação e o volume crescente de informações contidas na rede mundial de computadores seduzem outras áreas do conhecimento a utilizarem o computador como principal forma de trabalho. No Cinema, o advento da computação gráfica modificou a forma como os filmes são produzidos. Antes, haviam limites no número de elementos que podiam ser sobrepostos nos tempos da Impressora Óptica, porém hoje, estes foram expandidos tão amplamente que o que define a complexidade de uma cena é o tempo que os artistas possuem para trabalhar nela. Ainda que não seja possível colocar tudo que possamos imaginar na tela, é só uma questão de tempo até que as ferramentas evoluam e possibilitem a criação de sequências mais complexas. No centro da criação de tais efeitos visuais contemporâneos está a Composição Digital. É nesse processo que todos os elementos, vindos de diversas fontes, tanto digitais como analógicas, são combinados de forma íntegra, tornado-se parte de um todo. Desde os primórdios da fotografia o Homem tem combinado imagens de diferentes fontes como forma de expressão. Em 1857, o fotógrafo sueco Oscar G. Rejlander produziu a imagem tecnicamente mais complexa até então, combinando 32 negativos em vidro em uma única grande impressão. Apesar da polêmica gerada na sociedade, levantando questões sobre a ética de alterações de tais imagens, não podemos negar o fato de que surgira uma nova forma de expressão artística.
9
Figura 1: Two ways of life, Oscar G. Rejlander, 1857. Imagem composta por 32 imagens fotografadas separadamente.
Com o passar do tempo surgiram várias técnicas de integração de imagens, desde a Projeção Traseira, usada em “King Kong”, (1933), até o advento da Impressora Óptica, que foi muito utilizada até o inicio dos anos 90 em produções como “Indiana Jones”, (1981) e “Star Wars”, (1977). Atualmente a composição acontece essencialmente no meio digital, possibilitada pelo uso de softwares especializados em integrar imagens de diferentes fontes. O intuito dessa pesquisa é apresentar as principais ferramentas de composição digital utilizadas no filme “Pentimentos”. Um apanhado geral de técnicas digitais e analógicas que ajudam a melhorar a qualidade da integração de imagens e, principalmente, estimular o olhar artístico, que é essencial em todo trabalho criativo não importa o quão avançadas as ferramentas apresentem-se.
1.Filmagem e planejamento
A qualidade de uma composição depende da maneira como os elementos são criados ou fotografados. Com tantas facilidades na manipulação as pessoas tendem a acreditar que o computador consegue transformar completamente uma imagem de forma automática, o que não é verdade. O computador é melhor utilizado como ferramenta de melhoramento de imagens. Em casos onde a imagem é transformada completamente o crédito é atribuído ao extenso trabalho dos artistas. Em exemplos como “King Kong”, (2005), dirigido por Peter Jackson, os artistas da Weta Digital compuseram as diferentes fontes de luz interativamente no computador. Isso foi possível graças ao planejamento da iluminação e o uso de câmeras com controle de movimento
10 computadorizadas. A equipe de efeitos visuais tinha uma ideia de como queriam a iluminação da cena e sabiam, que ajustando a intensidade e cor das diversas luzes no computador teriam mais controle e o trabalho seria realizado num ambiente mais interativo do que no mundo real. Completada a iluminação dos cenários, as miniaturas foram fotografadas iluminadas com uma configuração de luz por vez, por exemplo, somente a luz simulando a luz do sol, depois o conjunto de luzes simulando o reflexo do céu. Quando a iluminação de um elemento não encaixava com a do cenário, uma réplica digital era feita e a iluminação adicional foi criada a partir dos modelos digitais. Esse planejamento possibilitou aos artistas experimentar diferentes combinações de iluminação e as ferramentas digitais foram usadas para melhorar os, muito bem fotografados, elementos. No filme “Pentimentos” foi investido muito tempo planejando as cenas e o posicionamento de câmera. Pedaços de massinha foram “posicionados” para possibilitar a estabilização da cena. “Posicionados” com o intuito de serem um ponto confiável de tracking (rastreamento), o contraste com o fundo e a área longe da ação dos personagens foram analisados para a escolha do local ideal. Caso contrário, o que auxiliaria o compositor na pós-produção tornaria-se um inconveniente. Por mais que tenhamos gastado tempo planejando as cenas e tentando evitar problemas, que deverão serem corrigidos posteriormente, um filme sempre tráz desafios únicos e problemas que não podemos antecipar. Um dos maiores problemas que tivemos em Pentimentos foi a instabilidade da iluminação do estúdio em que fotografamos o filme. Devido à má instalação da rede elétrica do estúdio, as luzes não conseguiam manter-se com intensidade constante. Como um certo tempo é gasto para fotografar entre um quadro e outro durante o processo de animação em Stop Motion a variação ficou muito evidente. Durante a composição, a tremura da luz foi removida graças à ferramentas como f_deflicker1, f_deflicker2 e f_matchgrade, contidas no plugin, para Nuke, Furnace da The Foundry. Antes de começar o trabalho de composição, as imagens tiveram que ser processadas por esses plugins e uma nova sequência de imagens foi criada, agora com a variação de luz reduzida ou, em alguns casos, sem variação nenhuma. O processo de redução da tremura da luz é lento, pois como as imagens foram fotografadas em alta resolução(4288x2848), levam tempo para estas processadas. Uma nova cópia da cena, sem a
11 tremura da luz, foi salva localmente, aumentando muito o tamanho ocupado pelo filme no disco rígido. O planejamento e a filmagem adequada dos elementos é essencial para se chegar ao visual desejado.
2.Chroma Key
O Chroma Key é uma técnica que consiste em fotografar um elemento em frente a um fundo com uma cor brilhante e homogênea e que, preferencialmente, não esteja presente em nenhum dos elementos fotografados em primeiro plano. Esta cor pode se tornar transparente, recortando o elemento fotografado em primeiro plano e revelando outra imagem por trás dele. A ferramenta que extrai os objetos do fundo colorido é denominado “Keyer”. Embora seja uma técnica muito útil, alguns cuidados devem ser tomados ao fotografar algum elemento em frente a um Chroma Key, pois estes facilitarão o trabalho de composição das imagens na pós-produção. A escolha da cor deve ser feita considerando vários fatores; o principal é a cor dos elementos fotografados. Se considerarmos o espectro de cor e o assunto são pessoas, a cor ideal seria o azul, pois esta está mais distante no espectro cromático dos laranjas e vermelhos presentes na pele humana. O meio em que se fotografa ou filma também influencia na escolha da cor. Quando fotografamos seres humanos em película o azul é a cor preferida, pois a emulsificação da película azul apresenta grãos de prata menores que as películas de cores vermelha e verde. No meio digital, obtém-se um recorte melhor de seres humanos usando uma tela verde, uma vez que a sensibilidade dos sensores é maior na captura de tons de verde e este último é o canal de cor com a menor interferência de ruídos eletrônicos dos circuitos internos das câmeras e do próprio sensor. A exposição da câmera deve ser configurada para a tela não ficar subexposta ou superexposta, principalmente nas câmeras digitais onde o sensor perde um pouco da saturação das cores na captura das luzes mais baixas. A tela deve estar bem iluminada e principalmente com uma gama pequena de cores, com o mínimo de sombras, reflexos ou sujeiras da própria tela. Se não for
12 possível iluminar bem a tela utilizada, deve-se certificar se a região onde acontece a ação está a mais homogênea possível, e se a personagem encontra-se posicionada na área central da imagem. Se a ação acontecer somente nesta região, não haverá problema caso exista sombras ou reflexos nas bordas ou limites da tela. Esta região problemática pode ser facilmente removida utilizando uma máscara (garbage mattes) e isolando as áreas homogêneas, bem como o assunto fotografado.
Figura 2: máscara (garbage matte) criada para isolar as areas homogêneas da tela azul e excluir os objetos do cenário
A iluminação do assunto deve ser feita com o segundo plano em mente, por exemplo, se o objetivo é compor uma cena num pôr do sol, as sombras laterais devem ficar bem contrastadas. Não tente eliminá-las de forma alguma com outra luz na direção oposta da luz principal. Atenue as sombras e mantenha um reflexo tímido no céu, preservando o contraste de luz característico em cenas fotografadas nessa hora do dia. A ambientação da cena deve ser feita da melhor forma possível na hora de fotografar. A facilidade das ferramentas de composição digital deverão ser utilizadas somente para realçar a iluminação da cena. O posicionamento de luzes por trás dos elementos em primeiro plano ajuda no recorte do Keyer. Com a borda destacada por um “aro” de luz, problemas como o reflexo da cor utilizada na tela, geralmente azul ou verde, são atenuados e elementos complicados de serem recortados como pêlo e cabelo são destacados. A filmagem adequada dos elementos facilita muito o trabalho do compositor digital, entretanto conseguir um recorte preciso por um keyer é desafiador. O maior equívoco cometido por um compositor inexperiente é recortar um elemento utilizando apenas uma configuração de um keyer para todas as áreas da imagem. Isto torna-se praticamente impossível em cenas onde a iluminação da tela não é homogênea. Obtém-se melhores resultados quando diversas
13 configurações são utilizadas para recortar diferentes áreas da imagem ou até mesmo diferentes keyers. Na figura 3 foram usados os keyers Primatte e IBK(Image Based Keyer). O Primatte foi responsável pelo recorte do menino, dunas de areia, pedras e base do farol. O recorte do mar do fundo azul foi feito pela criação de uma máscara no canal alpha. O recorte da gaiola, no topo do farol, foi feito usando o IBK. Com este keyer obtemos bordas suaves mais rápidamente se comparado ao Primatte. Utilizei a transparência do canal alpha ao meu favor, pois o reflexo da tela azul nos aros da gaiola favoreceu a transparência da matte, permitindo então, simular o reflexo do céu usado no plano de fundo.
Figura 3: diferentes configurações de keyers utilizados na composição final.
Figura 4: à esquerda, ruído reduzido no canal azul; à direita, sem redução de ruído.
A granulação da imagem também influencia na qualidade do processo de chroma key, ou keying. Se a imagem estiver muito granulada, devemos reduzir a granulação antes do processo de chroma key e introduzir um granulado sintético, gerado pelo computador, depois do keying
14 feito. O granulado nas imagens deixa as bordas dos elementos instáveis, “dançando” aos olhos do espectador. Alguns keyers, como o Keylight possuem o recurso de redução de granulado embutido. O reflexo da cor da tela nos objetos torna-se um inconveniente para o compositor, pois as bordas deste mesmo objeto refletem cores que não estão presentes no segundo plano, denunciando, assim, o trabalho de composição realizado na imagem. O jeito mais comum de anular esse efeito é “dessaturando” a cor aberrante, por exemplo o azul, e transformando-a em cinza. Este método funciona em boa parte das cenas, mas para conseguir um resultado mais convincente é necessário ter o controle da saturação, da matiz e da luminosidade da cor. Deste modo, podemos transformá-la em uma cor mais próxima da cor predominante presente no segundo plano usado na composição final. Alguns keyers também possuem esse recurso embutido em seu cálculo, denominado Spill Supression.
Figura 5: à equerda, contaminação do azul nas bordas das folhas e galhos; à direita, spíll supression aplicado
Confira regularmente o canal alpha durante o processo de keying, pois transparências que não ficam evidentes na imagem estática, quando vistas em movimento, são facilmente percebidas. A análise do canal alpha pode ser feita usando ferramentas de correção de cor tais como Levels ou Curves. Modificando o valor da gamma da imagem os buracos e transparência do canal alpha ficam totalmente evidentes, evitando o transtorno de perceber os problemas do recorte somente depois da renderização concluída. Alguns defeitos poderão ser corrigidos alterando os parâmetros do keyer, outros necessitarão de retoques feitos manualmente através de pintura ou desenho de máscaras.
15
Figura 6: à esquerda, alpha visto sem correção de cor alguma, à direita; defeitos do alpha aparentes quando reduzimos a gamma da imagem
Em “Pentimentos”, houve muitos casos em que foi necessário isolar um elemento que não fora fotografado em frente a um chroma key. Na maioria dos casos, o elemento foi recortado quadro a quadro pelo uso de máscaras vetoriais. Na cena onde o menino anda pela praia, uma técnica chamada Difference Keyer foi utilizada para facilitar o trabalho de isolar o menino do plano de fundo. A técnica consiste em fotografar a cena com o personagem, retirá-lo do cenário e fotografar somente o plano de fundo. O keyer analisa as imagens, com e sem o personagem, e cria uma matte baseada na diferença das duas, por isso o nome da técnica. Como é de se esperar, as duas imagens não são exatamente iguais, sendo assim, o alpha sai bastante defeituoso. Edgard Paiva fez o trabalho de retoque do canal alpha(Figura 7) desenhando máscaras nos buracos da matte
tornando-a
Figura 7: à esquerda, alpha defeituoso; à direita, alpha integro, retocado manualmente pelo uso de máscaras.
íntegra.
16 3.High Dynamic Range Imaging
Imagine uma situação em que se deseja fotografar uma cena onde existem duas fontes de luz: a luz de uma vela e a luz do sol vinda de uma janela. A diferença de intensidade das luzes é tão grande que a luz do sol é capaz de ofuscar a chama da vela. Quando fotografamos a cena com a exposição de luz fotometrada para a luz da vela, percebemos que a câmera não consegue capturar os detalhes do lado de fora da janela, o fundo fica estourado, superexposto e os detalhes tornam-se brancos. Se fotometramos a câmera para capturar a luz do sol presente do lado de fora da janela, o cenário ao fundo apareceria com detalhes,porém a luz da vela não influenciaria na iluminação de dentro da sala e sua chama estaria muito pouco visível. O filme ou o sensor da câmera possui um limite da quantidade de luz que consegue capturar e esse limite também está presente na quantidade de luz que os monitores, televisores e projetores conseguem emitir. No primeiro caso, onde a fotometragem foi feita para luz da vela, a janela ficaria toda branca,superexposta; quando exibida no monitor a luz emissora do mesmo estaria completamente acesa; uma parede pouco iluminada seria exibida no monitor com intensidade mediana e onde estivessem presentes os pretos da imagem a luz estaria apagada. O nosso cérebro, por outro lado, consegue enxergar a luz da vela e o lado de fora da janela, os detalhes do céu e a luz da vela ao mesmo tempo. Ele faz um mapeamento de tons sofisticado e adapta nossa visão aos diferentes níveis de luminosidade no nosso dia a dia de uma tal maneira que não percebemos.
Figura 8: à esquerda, foto superexposta; ao meio, foto subexposta; à direita, mapeamento de tons correto.
Existe uma forma de capturar uma imagem digital com a varição de luminescência bem próxima da que existe no mundo real, uma técnica de processamento de imagens digital que se chama High Dynamic Range Imaging (imagens de alto alcance dinâmico). Apesar dos nossos
17 monitores não conseguirem exibir toda essa variação de luminescência (quem queria uma fonte de luz tão forte como a luz do sol a um metro dos olhos?), existem muitas vantagens em se trabalhar com esse “excesso” de informação, principalmente em imagens geradas por computador. Numa imagem Low Dynamic Range (imagem de baixo alcance dinâmico) a quantidade de informação está contida num espaço de 0 a 1, entre a luz do monitor completamente apagada e completamente acesa. Nossos monitores são dispositivos LDR. Essa forma de trabalhar com a informação em um espaço finito é chamada de Integer (Inteiro) na computação. Numa imagem HDR os valores não possuem essa limitação, a imagem passa a ser uma representação fisicamente correta da intensidade de luz contida na cena e o monitor passa a funcionar como um escopo, mostrando apenas uma faixa limitada da informação de luz. Como se fosse um rádio sintonizando diferentes frequências.
Figura 9: à esquerda, o waveform¹ de uma imagem LDR mostra uma quantidade de informação limitada; à direita o waveform de uma imagem HDR mostra uma quantidade bem maior de informação.
Nessa forma de processamento os dados são representados por números reais, permitindo uma vasta gama de valores. Essa técnica é chamada de Floating Point (Ponto Flutuante). Apesar de podermos salvar uma imagem LDR num formato de imagem em ponto flutuante não significa que teremos toda a variação dinâmica de uma imagem genuinamente HDR, em outras palavras, se salvarmos uma imagem em JPEG, vinda de uma câmera, em um formato floating point com suporte ao HDR (como o Radiance e o OpenEXR) não teremos uma imagem HDR, teremos uma imagem LDR que ocupa muito espaço em disco. Programas de composição digital feitos para trabalhar com imagens HDR, como o The Foundry Nuke, possuem ajuste de gamma e ganho na própria interface do visualizador, 1.Waveform é um gráfico de análise de imagens que exibe a pocição dos pixels de intensidade mais alta da imagen na horizontal e a intensidade luminosa na vertical.
18 facilitando muito a navegação entre os diferentes níveis de intensidade luminosa. Caso o seu programa compositor não tenha esse recurso faça uso dos filtros de correção de cor para “navegar” entre as diferentes intensidades luminosas.
Figura 10: à esquerda, brilho reduzido em uma imagem LDR torna o céu cinza; à direita, brilho reduzido em uma imagem HDR mostra o céu azul.
Existem câmeras com sensores que capturam a imagem diretamente em HDR, tais como a Fuji Z900EXR, RED Epic, RED One, e elas estão ficando melhores a cada geração, conseguindo captar cada vez mais variação luminosa. Também é possível criar uma imagem HDR através de várias imagens LDR fotografadas com diferentes exposições e combiná-las em programas como o Adobe Photoshop Extended. O número recomendado é de, no mínimo, 5 fotos com exposições diferentes, mas dependendo da cena um número maior de fotos é necessário. As desvantagens dessa técnica é que a câmera e os objetos devem ficar parados para permitir um alinhamento preciso entre as imagens com diferentes exposições sendo, assim, um processo lento. As vantagens de se trabalhar com imagens HDR são várias. Quando tentamos fazer uma correção de cor mais agressiva em uma imagem LDR, chegamos em seu limite rapidamente. Se tentarmos escurecer um céu que ficou muito
claro ao invés das nuvens
aparecerem e o céu tornar-se azul, este, que apresenta-se branco na imagem, fica cinza, não existe informação além dos limites do preto e do branco em um imagem LDR. Numa imagem HDR a informação está toda lá. Quando você escurece o céu, as nuvens e o azul aparecem, sendo assim o processo de fotometria da imagem passa a acontecer depois da captura da imagem. Com algorítimos mais sofisticados podemos mapear os tons de luminescência para mostrarmos o máximo de informação na imagem, de maneira semelhante como o nosso cérebro faz com a nossa visão. O nome desse processo é Tone Mapping(mapeamento de tons). No caso do exemplo anterior, a sala com a luz do sol e da vela, podemos exibir os objetos no interior da sala iluminados pela luz da vela e ainda manter os detalhes dos objetos ao fundo da janela.
19
Figura 11: à esquerda, desfoque de movimento em uma imagem LDR, à direita, desfoque de movimento em uma imagem HDR.
Figura 12: à esquerda, imagem original; ao meio, desfoque LDR. à direita, desfoque HDR.
O desfoque de imagens processado no computador ganham um outro nível de realismo em imagens HDR. No desfoque de movimento a luz deixa rastros como como percebido por nossos olhos. No desfoque de imagens causado pela profundidade de campo rasa, os pontos altos de luz adquirem a forma do obturador da câmera. A forma do obturador depende dos recursos do efeito de desfoque, possibilitando a criação do efeito conhecido na fotografia como bokeh.
Estes benefícios estão presentes também em imagens completamente geradas por
computador, até mesmo em aplicações em tempo real, como videogames. Perceba o rastro da luz nos pontos altos de luz no jogo “Alan Wake”, da Remedy Entertainment . E o efeito de bokeh presente em “Crysis 2”, da Crytek na figura 13.
Figura 13: Efeitos de desfoque calculados em HDR também melhoram a qualidade das imagens em jogos.
20 Programas de animação em 3D podem usar toda essa informação de luminescência para iluminar objetos. Mapeando uma imagem HDR em uma esfera que envolve toda a cena permite-nos criar uma iluminação realista e muito fiel à do local onde a foto foi tirada, facilitando muito o trabalho de combinar a luz da imagem fotografada com a luz gerada dentro dos sofwares de animação 3D, caso seja necessário a integração com um plano de fundo fotografado. O nome dessa técnica é Image Based Lighting(Iluminação baseada em imagem). Existem câmeras que fotografam a imagem em HDR
distorcida pronta para ser mapeada numa esfera como a
SpheroCam HDR, da SpheronVR.
Figura 14: Imagem completamente iluminada pela luminescência de uma imagem. Técnica denominada Image Based Lighting
No filme "Pentimentos", infelizmente, não foram tiradas fotos em HDR de nenhum dos cenários. A iluminação teve que ser recriada no computador tentando igualá-la com a iluminação da imagem fotografada. Na cena onde o Velho acha o cartão em baixo da caixa de vidro, projetei um quadro da cena em uma geometria simples, modelada para auxiliar na iluminação refletida pela caixa e a madeira bem como para projeção de sombras dos objetos digitais. Como as imagens foram salvas num formato LDR(JPEG) não existia nenhuma informação dos refletores de luz usados para iluminar a cena. Estes foram simulados usando as luzes geradas dentro do software 3D.
21
4.Gamma Linear
Figura 15: correção de gamma de um monitor CRT. À esquerda, curva de resposta do monitor; ao meio, curva para anular a curva de resposta do monitor; à direita, curva de resposta linear resultante.
Os dispositivos de reprodução de imagens, como os monitores e projetores, não conseguem representar a luz de uma forma linear, por exemplo, se aplicarmos uma voltagem X no monitor teremos uma saída de intensidade Y. Porém, se aplicarmos o dobro da voltagem X não teremos 2Y de intensidade. Sendo assim, a representação gráfica resultaria em uma curva de resposta tendendo para baixo. Para compensar esse problema as imagens são corrigidas cromaticamente antes de serem exibidas, e isto faz com que sua curva de resposta, ou gamma, tenda para cima criando a impressão de uma progressão linear na representação da luminescência das imagens. Somente nos últimos anos esse problema passou a ser amplamente discutido e softwares de composição digital e animação em 3D passaram a vir com ferramentas exclusivas para facilitar o trabalho com imagens no espaço de cor linear. São muitos os problemas gerados pelo uso de imagens não lineares, podendo ser facilmente observados em programas de TV feitos às pressas. Imagens renderizadas em softwares de animação 3D (quando não é feita a correção de gamma) apresentam-se super contrastadas e a luz não se difunde naturalmente pelo ambiente. Em softwares de composição, as diferentes técnicas de mesclar camadas, chamadas de Blend Modes, não funcionam devidamente. Por exemplo um blend mode bastante usado no Adobe Photoshop e After Effects é o Linear Dodge(Add). Sua fórmula matemática consiste na simples soma dos pixels de duas imagens. Quando o calculo é feito na
22 gamma dos monitores(não-linear) o resultado sai muito diferente do que se espera de uma soma, deixando as camadas mescladas extremamente claras, quase estouradas. Para simular o resultado da soma dos pixels num espaço de cor linear criaram o blend mode Screen, no qual conseguimos um resultado mais natural, comparado com o Linear Dodge(Add). No espaço de cor linear isso não acontece, pois a soma dos pixels é feita corretamente e a composição de elementos como, por exemplo, fumaça e reflexos ficam muito mais naturais.
Figura 16: diferença no calculo de blend mode e desfoque no espaço de cor não linear, à esquerda, e linear, à direita.
O desfoque de movimento também fica com a aparência mais fotográfica quando calculado num espaço de cor linear. Mesmo em imagens LDR, explicadas no capítulo anterior, a luz parece deixar rastro ao invés de esmaecer-se quando muito desfocadas. Esse efeito é potencializado se usado em imagens HDR (que são naturalmente lineares). Softwares de composição como o After Effects permitem trabalhar num espaço de cor linear se configurado como mostrado na Figura 17. Softwares de composição mais avançados como o Nuke trabalham nativamente de forma linear, sendo trabalhoso compor imagens em espaço de cor não-linear.
Figura 17: linear workflow no Adobe After Effects. Janela acessada por File, Project Settings.
Programas de animação 3D possuem o fluxo de trabalho mais complexo se trabalharmos no espaço de cor linear. Geralmente uma cena texturizada possui imagens de vários formatos e em espaços de cor diferentes. Muitos algorítimos dos programas 3D foram feitos para
23 extrair a informação de imagens em um espaço de cor não linear, como o normal map, bump e displacement, usados para simular ou criar relevo na geometria. Quando realizamos a correção de gamma os valores são alterados, criando resultados indesejados no render. Imagens usadas como mapas de textura no objeto já são salvas com a curva da gamma feita para anular a gamma do vídeo. O render, ao processar as imagens, corrige a gamma em toda a cena e as imagens usadas na cor dos objetos ficam duplamente “corrigidas”, ficando com uma aparência desbotada, lavada. Sendo assim, é necessário o controle manual da gamma de todas as imagens que são utilizadas na cena, para garantir que as imagens não vão ficar lavadas e que o software vai conseguir extrair a informação corretamente das imagens que contenham dados.
Figura 18: linear workflow em programas de animação em 3D.
24
Figura 19: à esquerda, imagem sem correção de gamma; ao centro, imagem com correção de gamma, porém não nas texturas(que ficam duplamente "corrigidas"); à direita, correção de gamma adequada.
Apesar dessa camada adicional de preocupação na criação de imagens geradas pelo computador o uso da gamma linear aumenta muito o realismo, tratando a luz de uma forma mais natural aos olhos humanos.
5.Integração de objetos gerados pelo computador
Figura 20: passes utilizados para compor o cartão. De cima para baixo, o cartão, o reflexo na madeira e a sombra do cartão.
Integrar elementos vindos de diversas fontes numa mesma imagem de forma convincente é o maior desafio do compositor. Por mais sobrenaturais que os elementos sejam, tudo deve parecer que foi filmado diretamente pela mesma câmera e que não houve nenhum pósprocessamento na imagem final. O desafio é ainda maior quando temos que compor imagens geradas pelo computador, pois tais imagens saem dos renderizadores sem nenhuma influência de componentes como lentes e sensores e também não conteriam nenhuma das imperfeições
25 influenciadas pelos dispositivos que as capturariam. Conhecer o processo de captura de imagens por uma câmera fotográfica é essencial para uma composição bem sucedida dos elementos. A base de uma boa integração entre imagens geradas por programas de animação em 3D e imagens fotografadas é o alinhamento exato da posição da câmera e sua perspectiva. Posicionar uma câmera em um espaço 3D, usando apenas como referência uma imagem 2D, é uma tarefa árdua de se conseguir com precisão. Somos sempre enganados pelos contornos dos objetos na cena, que nos fazem acreditar que os objetos virtuais estão alinhados com os reais, entretanto, as linhas de perspectiva podem estar convergindo de maneira totalmente diferente do esperado. É necessário coletar o máximo de informações da câmera usada na cena, tais como: • A distância da câmera: medida a partir dos objetos em primeiro plano até o plano do filme, ou sensor. Se a medida for feita até a lente essa informação será registrada errada. Certas câmeras possuem marcadas em seu corpo o posicionamento do sensor pelo simbolo “ø”. A medida deve ser feita a partir desta marcação. • Altura da câmera: medida do chão até a indicação do plano do filme. • Lente usada: a maioria das câmeras digitais registram as lentes usadas na fotografia na forma de “metadados”, salvos dentro dos próprios arquivos JPEG. Essa informação pode ser lida por programas como o ACDSee, Adobe Bridge ou o próprio visualizador de arquivos do sistema operacional. Lentes usadas em câmeras do tipo Single Lens Reflex usam como base a lente de 36mm. Nas câmeras digitais compactas esse valor não corresponde a uma lente de 36mm pois o sensor é muito pequeno e a lente fica muito próxima dele, por causa do tamanho compacto da câmera. Essa informação é importante até mesmo quando usados softwares que analisam o movimento
de
câmera
automaticamente
rastreando
seu
movimento.
Quando
não
disponibilizamos essa informação para o software de rastreamento ele adivinha baseado no deslocamento em perspectiva dos objetos em relação à câmera. No filme "Pentimentos", infelizmente, nenhuma dessas informações de câmera foram coletadas, tornando muito difícil o alinhamento da câmera virtual com a câmera real. Na cena onde o velho encontra o cartão em baixo de uma caixa de vidro, não havia registros das medidas da caixa na hora de modelar a cena em 3D. A lente usada na câmera foi obtida através do “metadata” contido na imagem JPEG. Na primeira tentativa a caixa, que deveria ficar quadrada,
26 ficou retangular, como uma caixa de sapatos, e a perspectiva convergia em pontos diferentes em relação aos pontos da imagem original. Na segunda tentativa o alinhamento foi feito pela base da caixa, já com suas medidas conhecidas, que formavam uma base quadrada. Desta vez o alinhamento apresentou-se bem mais preciso. As linhas de perspectiva estavam convergindo como o esperado, porém não ficou perfeitamente alinhado, o que não é um grande problema pois as pessoas não percebem tão bem uma diferença de perspectiva quanto percebem uma variação na iluminação ou na cor dos elementos.
Figura 21: primeira tentariva de modelagem à esquerda. Segunda tentativa de modelagem, bem sucedida, com as medidas da caixa conhecidas.
A iluminação de objetos gerados por computador combinada com a iluminação de uma cena real é incrivelmente desafiadora de se conseguir com sucesso. O público percebe facilmente as diferenças de intensidade, cor e posicionamento das luzes digitais. Na hora de iluminar, o artista tem que ter a consciência de que todo objeto na cena é um emissor de luz, pois toda luz que incide em um objeto é refletida nos objetos próximos, sendo assim, esses objetos podem projetar sombras e cores em outros, dependendo da intensidade de luz refletida. O ambiente exerce grande influência na iluminação dos objetos: o céu, o chão, paredes coloridas, etc, atuam como refletores de luz. Mesmo técnicas mais avançadas como o Image Based Lighting, discutida anteriormente, não são uma solução para se usar como imagem final. Apesar de facilitar o trabalho de integrar os elementos sintéticos, devem ser usados somente como guia. Um olhar artístico aguçado é necessário para julgar o que ainda falta para tornar a cena convincente. Quando é necessário compor um objeto ou personagem gerado por computador, é recomendado fotografar um objeto, por exemplo uma esfera, posicionado no local onde o personagem deve ficar, bem após a filmagem da cena, para se obter um registro fiel da iluminação usada no cenário
27 como exemplificado na Figura 22. A luz do ambiente refletirá na superfície do objeto. Na hora de iluminar o personagem digital o artista poderá criar uma esfera e iluminá-la de acordo com a iluminação da esfera fotografada, evitando ter que adivinhar a posição de cada luz predominante na cena e criando uma base confiável para iluminação final.
Figura 22: esfera cinza utilizada como referência de iluminação para os objetos digitais.
A iluminação realista gasta muitos recursos computacionais para ser calculada e o processo é lento e nada interativo. Digamos que a pré-visualização de um quadro da cena demore 1min para ser renderizada. Isto significa que a cada modificação nos parâmetros da iluminação deverá ser feito um render de teste que demora 1min. Considerando que 1s de animação possui 24 quadros, o artista pode reiterar uma cena por um dia inteiro, somente para ajustar a intensidade e cor das luzes digitais. Para facilitar o trabalho de reiteração muitos artistas renderizam uma luz de cada vez em “passes” diferentes que são combinados mais tarde durante a composição. Numa cena exterior, por exemplo, podemos renderizar a luz do sol, a luz vinda do céu e a luz refletida pelo chão em imagens HDR separadas. Quando compor os elementos o artista pode ajustar a intensidade de cada camada modificando, assim, a intensidade das luzes, sem esperar o demorado tempo de render. Tudo acontece interativamente.
28
Figura 23: diferentes “passes” de luz combinados na imagem à direita.
Também é vantajoso renderizar as sombras em “passes” e, dependendo da complexidade da iluminação, cada sombra de cada luz diferente é renderizada em uma imagem separada. No momento de compor a cena é muito comum o artista utilizar de blend modes, como o multiply, para integrar os elementos. Apesar de obtermos resultados satisfatórios, esse não é o método adequado de compor uma sombra na cena. Além de ser mais difícil de controlar a cor da sombra, não temos nenhum controle sobre os pontos de luz mais altos da imagem. No caso de uma madeira envernizada brilhante, o reflexo da fonte emissora de luz ficaria visível na madeira. Quando um objeto ficasse entre a luz e a madeira, a sombra projetada pelo objeto iria também bloquear o reflexo da lâmpada na madeira. Uma maneira de simular esse fenômeno na hora da composição é usar um filtro de correção de cor na imagem toda, concentrando somente em escurecer a madeira e atenuar o reflexo da lampada na camada de verniz desta ultima e, então, usar a sombra renderizada como uma máscara. Um elemento que faz toda diferença na composição de objetos digitais é o Ambient Occlusion. Esse é o efeito da sombra bem difusa vinda da luz do céu, que atua como um refletor gigante. A sombra é tão suave que é somente perceptível em áreas de contato, como por exemplo os pés no chão, mas faz toda diferença no resultado final.
Figura 24: Ambient Occlusion. Modelo por Arttur Ricardo.
Em "Pentimentos", não houve registros da iluminação durante o período de filmagem. A iluminação dos elementos digitais foi feita analisando somente os quadros do filme. Para auxiliar na ambientação, projetei um quadro do filme numa geometria simples que
29 representava o cenário, então, quando essa geometria era iluminada por uma luz digital, as cores da imagem eram refletidas nos objetos digitais. Sombras e reflexos também eram projetados de uma forma mais próxima do mundo real.
Figura 25: quadro do filme projetado como textura na geometria simples do cenário reflete a luz devidamente nos objetos digitais.
Tudo que foi discutido até agora acontece no mundo real fora da câmera, mas para a integração dos elementos acontecer, o compositor deverá adicionar os efeitos que afetam a luz no caminho entre a lente e o sensor/filme. E, no caso de algumas câmeras digitais, os efeitos de processamento de imagens aplicados pela câmera antes de salvar.
Figura 26: exemplo de profundidade de campo.
Profundidade de campo é a área da imagem em torno do plano focal em que os objetos são considerados nítidos. Quanto maior a profundidade de campo, maior a nitidez geral da imagem. O efeito acontece por causa da divergência dos raios de luz causada pela refração da
30 lente. Como não existe uma transição bem definida entre o que está focado e o que não está, tudo acontece gradualmente. O termo “circulo de confusão” é usado para definir o quanto um ponto precisa estar borrado para ser considerado desfocado.
Figura 27: esquema da trajetória da luz através de uma lente convexa. A imagem nítida se forma no plano do filme, o restante fica embaçado.
No cinema o uso de uma profundidade de campo rasa aumenta a dramaticidade da cena e auxilia na composição da imagem, pois guia o olhar do público para onde está focado. Na animação esse efeito também é muito utilizado para aumentar o realismo das cenas, pois as imagens renderizadas em 3D saem com a profundidade de campo infinita, com todos os objetos em foco. Recriar este efeito nas imagens geradas por computador requer muitos recursos computacionais para ser computado diretamente na hora da renderização. Para economizar tempo o efeito é, geralmente, simulado na hora da composição digital utilizando uma imagem que guarda a informação de profundidade da cena denominada Zdepth. Nesta imagem os objetos próximos da câmera ficam mais próximos da cor branca e os objetos mais distantes ficam próximas da cor preta, sendo assim a imagem é caracterizada por uma escala de cinza. Cada distância está relacionada à uma tonalidade de cinza diferente, portanto é crítico o uso de imagens com profundidade de bits alta. O recomendado é salvar o Zdepht numa imagem de, no mínimo, 16-bits. É altamente recomendado utilizar sempre que possível imagens HDR, pois estas salvam uma quantidade muito grande de informações.
31
Figura 28: efeito de "escada" perceptível em imagens com profundidade de bits baixa.
Figura 29: Zdepth renderizado em 4-bits, mostra claramente o efeito de "escada".
Figura 30: Zdepth renderizado em 8-bits. Efeito "escada" imperceptível.
Efeitos como glare e flares acontecem na lente. Quando há uma quantidade muito grande de luz em um ponto luminoso, a luz “vaza” para fora de seu contorno criando o efeito de glare. Os pontos de luz alta refletidos no sistema óptico da lente criam o lens flare. Um fenômeno semelhnate do glare é conhecido no meio da composição digital como Light Wrap. Esse efeito é bem perceptível quando um objeto é fotografado em frente a um fundo muito luminoso. A luz forte do fundo “vaza” para dentro dos contornos do objeto em primeiro plano, envolvendo-o em luz, por isso o nome Light Wrap (embrulho de luz).
Figura 31: à esquerda, somente o Light Wrap; à direita, Light Wrap aplicado à menina.
32 O vidro da lente também influencia na qualidade da imagem. Por melhor que seja a qualidade da lente, sempre haverá um pouco de Aberração Cromática na imagem. Isso acontece por causa da variação do índice de refração ao longo do espectro de luz. Quanto maior o comprimento de onda, maior o índice de refração. Existem kits de lentes que têm no sistema óptico componentes com a finalidade exclusiva de atenuar o efeito da dispersão da luz. Também existem algorítimos que reduzem o efeito. Muitas câmeras digitais reduzem a aberração cromática antes de salvar a imagem no cartão de memória, neste caso é melhor desativar todos os efeitos de pós-processamento antes de fotografar um elemento. Os principais softwares de composição possuem bons algorítimos para redução de aberração cromática e redução de ruído, que discutiremos mais adiante. Esses artefatos de pós-processamento criam efeitos na imagem muito difíceis de serem reproduzidos com os recursos dos softwares de composição. Obteremos um resultado melhor se reproduzirmos os “defeitos ópticos” nos elementos digitais e depois de tudo composto utilizar os filtros para reduzir estes defeitos que estarão presentes em todos os elementos digitais e fotografados, ou assumi-lo como qualidade estética da imagem.
Figura 32: exemplo de aberração cromática causada pela lente da câmera.
33
Figura 33: à esquerda, cartão sem ruídos. à direita, cartão com ruídos.
Finalmente chegamos ao filme ou o sensor da câmera. O filme consiste de uma película com uma emulsão com partículas de prata que reagem à luz. Quanto mais sensível à luz, mais grãos de prata possui a película. Estes se agrupam formando grãos maiores de prata que formam uma textura granulada na imagem. Já nos sensores das câmeras digitais, o “granulado” das imagens é consequência da interferência e do calor gerado pelos circuitos eletrônicos da câmera e pelo próprio sensor. Esse ruído é constante no sensor, quanto mais baixa a quantidade de luz mais próxima da faixa de ruído a imagem ficará, portanto, quanto mais baixa a luminosidade da cena mais visível o ruído na imagem. Tanto o granulado quanto o ruído variam em cada canal de cor da imagem. O compositor deve estar ciente disso e aplicar diferentes quantidades de ruído/granulado nos diferentes canais da imagem, vermelho, verde e azul. As câmeras digitais reduzem o ruído antes de salvar as imagens e, como foi dito anteriormente, é melhor desativar todos os efeitos de pós-processamento antes de fotografar os elementos. No filme "Pentimentos" fomos perceber as desvantagens de compor as imagens com o ruído pós-processado depois da animação concluída.
Todos os elementos fotografados no
filme estão com o ruído alterado pela Nikon D90 causando um padrão muito difícil de se replicar. Então é altamente recomendado compor com o ruído cru vindo direto do sensor da câmera, mesmo a imagem aparentando ter mais ruído. Com isso temos um ambiente mais controlável para composição, e o ruído pode ser removido depois dos elementos compostos, usando filtros dos softwares de composição.
34
Figura 34: à esquerda, ruído cru do sensor da Nikon D90; à direita, ruido processado pela própria câmera.
6.Gradação de Cor
Figura 35: gradação de cor, antes e depois.
Gradação de Cor (Color Grading, em inglês) é o processo de alterar e melhorar a cor de um filme criando a ambientação adequada das cenas e definindo sua paleta de cor. O termo “gradação de cor” foi criado para diferenciar do termo “correção de cor”, quando vamos fazer a gradação de cor de uma imagem não necessariamente estamos corrigindo as cores de uma imagem e, em muitos casos, a correção de cor foi feita antes para facilitar o trabalho de gradação de cor. Estamos apenas definindo o visual das imagens, destacando certas áreas, como a cor da pele, e ambientando a cena. Os pacotes profissionais de edição de vídeo e de composição digital possuem boas ferramentas de correção de cor e também existem os softwares específicos para o trabalho, como o Apple Color, Autodesk Lustre, que possuem um ambiente de trabalho em HDR e gamma linear, discutidos nos capítulos anteriores, possibilitando muita flexibilidade na manipulação da cor. Tal
35 ambiente de trabalho também existe em softwares de composição como o Adobe After Effects e o Nuke. As ferramentas digitais possibilitam inúmeras maneiras de alteração de cor nas imagens ao ponto de tornar difícil para o diretor concentrar-se num visual específico para a cena e também no quão longe deve ir nas alterações das imagens. A tendência nos filmes comerciais de Hollywood é o uso dos laranjas, presentes na cor da pele, e o azul petróleo, complementar ao laranja, nas sombras e cenários das imagens. Esse uso de cores complementares destacam as pessoas do fundo, porém esta técnica está sendo usada de maneira pouco criativa pelos diretores. A cada lançamento, o limite da bicromatização dos filmes é ultrapassado e todo filme vem com a paleta de cor predefinida, quase que anulando a aparição de outras cores, tomando o espaço de paletas de cores bem exploradas e experiencias visuais únicas.
Figura 36: paleta de cor predominante em filmes blockbusters de Hollywood. Cena de "Transformers, 2007"
Mesmo com a facilidade de manipulação de imagens digitais nem todas as modificações são possíveis. A cena deve ser iluminada e fotografada com o visual em mente. Por exemplo, uma prática comum no cinema e televisão é a transformação de uma imagem filmada de dia em noite. A qualidade do efeito final depende da forma como foi filmada a cena. Cenas superexpostas nunca criam um efeito verossímil quando transformada de dia para noite, pois a baixa luminosidade oriunda da noite as cenas nunca ficariam superexpostas. O ideal seria filmar a cena subexposta ou num dia nublado, sem uma fonte de luz vinda de uma direção bem definida. Quando temos pouco tempo para filmar e pouco tempo para desenvolver e planejar o visual do filme, mas mesmo assim desejamos fazer a gradação de cor, devemos filmar a cena da forma mais neutra possível. Câmeras digitais possuem vários recursos para melhorar o contraste e deixar as cores mais vivas. Todos esses recursos devem ser desligados. Quando aumentamos o contraste os pontos de luz alta transformam-se em branco e os pontos baixo em preto, jogando fora detalhes
36 que poderíamos aproveitar durante a gradação de cor. É ideal obter uma imagem com pouco contraste e cores neutras.
Figura 37: gradação de cor, antes e depois.
Figura 38: gradação de cor, antes e depois.
No filme “Pentimentos”, os cenários e sua ambientação foram bem definidos desde o roteiro, criando um guia sólido para gradação de cor do filme e a ambientação dos seus cenários. Os diretores tinham uma visão clara do que queriam para os ambientes, e a direção de arte seguiu instintivamente na direção desejada, definindo a escolha dos materiais e as cores dos cenários. Para a sala onde o Velho guarda suas memórias foi definido um ambiente rústico, pesado, envelhecido, que refletia uma espécie de claustrofobia do personagem no ambiente que vivia. Uma paleta de cor monocromática dá o tom de tédio e do trabalho maçante que ele teve durante toda a vida colecionando suas memórias. As cenas possuem os pretos bem definidos e, no geral, são pouco iluminadas e pouco contrastadas, o que nos remete a um ambiente pesado. As borboletas azuis representam o sentimento de incômodo que o Velho sente naquele lugar. O azul, a cor complementar do amarelo, destaca-se do cenário, ele não faz parte daquela massa envelhecida, é uma cor mais leve na imensidão amarela. Suas memórias são cenas bem leves, claras e suaves, que
37 contrastam com o ambiente da sala. São como fotos antigas, desbotadas pela ação do tempo. Cores novas aparecem como o verde, vermelho e azul, e estas permanecem vivas dentro do Velho, ao recordar de suas emoções. A ideia é passar um ambiente sereno e inocente. A cena na estação do trem marca o trauma da perda de um grande amor. Ambientada à noite com um azul escuro predominante, a cena ganha o tom de melancolia. A luz da estação pisca representando toda a fragilidade emocional do Velho e o amarelo das luzes da mesma parece sucumbir perante toda aquela massa azul. O Velho se sente só. Junto com a música, a cor tem papel fundamental em um filme: a de potencializar emoções de um roteiro bem escrito e ajudar a contar histórias com personagens complexos, com sentimentos variados e intensos, dignos dos seres humanos que as escrevem. A gradação de cor define toda a dinâmica cromática de um filme e torna as imagens mais interessantes por si próprias, aumentando o apelo visual do filme como um todo.
38 Considerações Finais
A composição digital é essencial na criação de efeitos visuais. Responsável pela integração dos diversos elementos que compõem a cena e pelo ajuste fino de suas características visuais que juntas compõem a imagem final. É nesse estágio que acontece o polimento das imagens. O que se vê é o que vai ser exibido na tela. Recursos que antigamente estavam disponíveis somente para as superproduções hoje encontram-se difundidos em produções menores graças aos avanços tecnológicos, deixando ao alcance de produtores independentes e também dos estudantes um número maior de ferramentas para expressarem sua visão. Os avanços da computação gráfica seguem em ritmo acelerado. Novos paradigmas surgem a cada década e modificam a maneira como o ser humano interage com o mundo ao seu redor e se expressa. E a necessidade do artista modifica e cria ferramentas novas para trabalhar. É uma relação cíclica entre a arte e a tecnologia onde uma altera a evolução da outra de forma sinérgica. Com tantas ferramentas à disposição, fica difícil para o artista acompanhar todas as novidades e utilizá-las em seu processo criativo. Tarefas que eram árduas de serem realizadas no passado, hoje são feitas de maneira rápida e eficiente, dando espaço para o artista dedicar-se à criação da obra, entretanto, nenhuma é capaz de substituir o julgamento humano. Uma mente criativa sempre será necessária para combinar esse número crescente de ferramentas da maneira que julgar melhor em prol da criação de imagens.
39
Referencias:
BRINKMANN, Ron. The Art and Science of Digital Compositing Second Edition. Morgan Kaufmann Publishers, 2008. HULLFISH, Steve. The Art and Technique of Digital Color Correction. Focal Press, 2008. VAZ, Mark Cotta; DUIGNAN, Patricia Rose. Industrial Light & Magic: Into Digital Realm. Del Rey, 1996. http://en.wikipedia.org/wiki/Chroma_key http://en.wikipedia.org/wiki/High_dynamic_range_imaging http://en.wikipedia.org/wiki/Floating_point http://en.wikipedia.org/wiki/Integer_(computer_science) http://www.allanbrito.com/2010/11/17/explicando-o-linear-workflow-ou-correcao-de-gamma/ http://migre.me/57BZ4 http://en.wikipedia.org/wiki/Film_speed http://en.wikipedia.org/wiki/Chromatic_aberration http://www.cambridgeincolour.com/pt-br/tutorials/pt-br-depth-of-field.htm http://www.redgiantsoftware.com/videos/redgianttv/item/23/ http://www.youtube.com/user/TheFoundryChannel http://www.videocopilot.net/tutorials/