Diseño y animación (MOCAP INERCIAL) de un personaje 3D para su integración e interacción en una escena. Por Miguel Angel Curto Jiménez
Ăndice
Resumen
2
Palabras clave
3
Introducción
3
Objetivos
6
Área de conocimiento: IDEA FASE 1: Idea y elección del tema
7
Identificar el tema
8
Investigación documental
10
Tecnología: Tipos de Motion Capture
21
Traje utilizado en éste proyecto: Animazoo IGS-180
24
Pipeline de integración de un personaje CGI
25
Estética
26
Área instrumental y metodológica: Herramienta FASE 2: Planificación y realización
29
Establecimiento de los objetivos que orienten la operativa de trabajo
30
Recursos necesarios
31
Desarrollo del proyecto
32
Área de lenguajes expresivos: Expresión FASE 3: Autoevaluación
54
Autoevaluación y prospectiva
55
Calendario de producción final
56
Conclusión
57
Bibliografía
58
Contenido del disco
63
Agradecimientos
64
Anexo 1
65
1
resumen RESUMEN (CASTELLANO): El proyecto “Diseño y animación (MOCAP inercial) de un personaje 3D para su integración e interacción en una escena”, como dicta su nombre, trata del uso y aplicación de herramientas de diseño 3D y la tecnología Motion Capture (MOCAP) para cubrir todo el “pipeline” de una escena de acción de cualquier película, anuncio o videojuego, desde el diseño del personaje, pasando por la animación mediante MOCAP y finalmente integrarlo en una escena de video real. El proyecto tiene dos fases generales. La primera es el estudio y creación del personaje, y la segunda, la integración del mismo en una escena.
RESUM (CATALÀ): El projecte “Disseny i animació (MOCAP inercial) d’un personatge 3D per a la seva integració i interacció en una escena”, com dicta el seu nom, tracta de l’ús i aplicació d’eines de disseny 3D i la tecnologia Motion Capture (MOCAP) per cobrir tot el “pipeline” d’una escena d’acció de qualsevol pel·lícula, anunci o videojoc, des del disseny del personatge, passant per l’animació mitjançant MOCAP i finalment integrar-lo en una escena de vídeo real. El projecte té dues fases generals. La primera és l’estudi i creació del personatge, i la segona, la integració del mateix en una escena.
ABSTRACT (ENGLISH): The project “3D Character design and animation (inertial MOCAP) for integration and interaction in a scene”, as its name dictates, is the use and application of tools for 3D design and Motion Capture (MOCAP) technology to cover all the “pipeline” of an action scene from any movie, advertisement or game, from character design, to animation with MOCAP and finally integrate it into a scene of real video. The project has two general phases. The first one is the study and creation of the character, and second one, the integration of it into a scene.
2
palabras clave VFX | MOCAP | 3D | ROBOT | ANIMACION | COMPOSICION
introducción A lo largo de la historia, autores como Aristóteles, Da Vinci, Galileo o Newton se han interesado en el análisis del movimiento humano y han dedicado su tiempo a realizar estudios que nos han brindado unos primeros esbozos de técnicas utilizadas hoy en día en campos tan dispares como la tecnología, el arte o la medicina. John Bray, Max Fleischer o Walt Disney se han basado en estos estudios para desarrollar la aplicación del estudio del movimiento sobre personajes dibujados en papel, dando paso a aportes innovadores como la rotoscopia, el stand de animación, el storyboard o la cámara multiplano. Se abre un gran nuevo abanico de posibilidades para los estudios cinematográficos y de animación cuando se empieza a usar ordenadores para analizar el movimiento humano. Se integran imágenes creadas por ordenador (CGI) y animadas gracias al análisis y la captura de movimiento del cuerpo humano, aportando un realismo inimaginable hasta la fecha. Paralelamente se empieza a ver integración en video real de objetos y personajes 3D como por ejemplo el personaje Bit de la película Tron (Spielberg, 1982). El primer proyecto cinematográfico que mezcla MOCAP y CGI no aparece hasta 1990 con Total Recall. En éstas dos últimas décadas, hemos visto la tecnología y el arte converger y deleitarnos con grandes obras de arte que van desde largometrajes íntegramente hechos en CGI como Toy Story de Pixar, hasta obras más recientes como Avatar de James Cameron, donde la realidad y la ficción se confunde gracias al realismo que aporta el MOCAP y los grandes avances en CGI.
3
4
5
objetivos Éste proyecto se basa en 2 objetivos principales: El primer objetivo es el estudio de la creación de un personaje 3D para hacerlo compatible y animarlo con tecnología de captura de movimiento (MOCAP) inercial. En éste primer objetivo se intenta conseguir un personaje 3D de calidad cinematográfica y conseguir hacerlo 100% compatible con los trajes de MOCAP inercial de Animazoo. Para ello los pasos a seguir son: 1. Diseño en papel del personaje (Sketch) 2. Modelado 3D. 3. Texturas 4. Rigging (Creación de un esqueleto compatible con los trajes de Animazoo). 5. Skinning (Asignar el esqueleto a la geometría o malla del personaje) 6. Capturar la animación mediante el traje IGS-180 de Animazoo. 7. Limpieza de la captura para evitar colisiones erróneas y movimientos antinaturales causados por las interferencias magnéticas del entorno. El segundo objetivo es la integración de éste personaje en un entorno real mediante la composición del modelo 3D en un clip de video grabado expresamente para el proyecto. (Iluminación, tracking y rendering) 1. Conseguir una iluminación idéntica o muy semejante a la de la escena de la grabación donde irá integrado nuestro personaje. 2. Hacer un tracking del entorno en nuestra grabación para que el personaje se integre perfectamente y crear una composición realista. 3. Renderizar nuestro personaje en varias capas (sombras, efectos especiales, geometría, etc) para conseguir un efecto más realista y mayor control sobre los detalles. Con estos dos objetivos cumplidos, se quiere presentar una escena de calidad que podría pertenecer a una película de ciencia ficción, una serie de televisión o un anuncio publicitario.
6
ร rea de conocimiento: IDEA FASE 1: Idea y elecciรณn del tema 7
1.1 Identificar el tema Desde un primer momento quise realizar un proyecto multimedia. La realidad de la multimedia, es que abarca una gran cantidad de campos totalmente diferentes y distantes entre ellos, por lo que es difícil tomar una decisión hacía un tema y enfoque específico. En un primer momento, después de investigar y aplicar técnicas y metodologías creativas de generación de ideas como el brainstorming o los mapas conceptuales, empecé a interesarme por hacer un videojuego educativo para reforzar la educación en clase de los niños de preescolar. Las áreas que se tratan en preescolar son muy complejas, sobretodo basadas en el descubrimiento del entorno en el mundo físico, por lo que dejé de lado ésta primera idea y la “reconvertí”: haría un remake de los videojuegos arcade clásicos adaptados para el refuerzo escolar infantil. Después realizar algunos “sketches” no acabó de convencerme, ya que no estaba creando algo mío, estaba rehaciendo juegos que ya habían triunfado en su época y los estaba empeorando, por lo tanto también dejé de lado ésta idea. A raíz de éstas dos primeras ideas, sentía la necesidad de crear un videojuego, pues siento gran pasión por ellos, así que decidí diseñar y desarrollar un videojuego en 3D. Contacté con profesionales de la la industria del videojuego, como por ejemplo el “Production Director” de Digital Legends Barcelona, Raúl Herrero, y me dejó bien claro que yo solo NO podría diseñar y desarrollar un videojuego 3D en la duración de un curso académico, pues ellos tardaban entre 2 y 3 años en sacar un juego para smartphones contando con un equipo de más de 20 personas. Tenía una idea muy clara, quería desarrollar un proyecto basado en el 3D, siempre me ha interesado el tema y quería ponerme a prueba, por lo que hablé con Luis Arizaga, director, artista 3D y profesor de la escuela Digital Rebel Art School en Barcelona y me ayudó a decidir: diseñaría un personaje 3D. La primera idea que tuve después de ésta conversación, fue la de hacer un personaje 3D para su integración en un videojuego, pero lo descarté porque recordé las palabras de Chris Dunne1 (Interactive Designer, 2012): -
“Un personaje de un videojuego se completa cuando se integra en el propio videojuego, por si solos, personajes como Mario o Sonic , no hubieran sido
1 Diseñador Interactivo y Jefe de estudios del Undergraduate in Interactive Design de la Universidad de Lincoln. (2012)
8
nada sin su juego, no se podría haber demostrado su personalidad, carácter, historia, etc con un simple dibujo en papel, por lo que para crear un personaje bueno y completo, has de crear todo un entorno a su alrededor. Con entorno no solamente me refiero al diseño de escenarios, sino que también se necesita observar la relación de éste personaje con otros, si él es protagonista o secundario, rasgos característicos de su personalidad como la timidez o la valentía, toma de decisiones en puntos clave de la historia… y un largo etcétera.” Volví a hablar con Luis Arizaga y orientamos mi tema hacia el campo de la animación. Mi idea definitiva, y de la que trata íntegramente éste proyecto, es diseñar un personaje 3D, animarlo con MOCAP inercial e integrarlo en una escena. Tuve la gran oportunidad durante mi periodo de prácticas en BLOOM de conocer y experimentar con sistemas de captura de movimiento inercial, por lo que decidí implementarlo en éste proyecto para darle un valor añadido. Mi objetivo principal, como he comentado anteriormente, no es ni mucho menos la realización de un largometraje, sino que el punto central es mostrar un personaje 3D de calidad y las posibilidades que nos ofrecen los trajes de captura de movimiento. Como segundo punto y como ejemplo, la integración del mismo en una escena y complementarlo añadiendo unos efectos visuales que crearan la interacción del personaje con el entorno.
9
1.2 Investigación documental 1.2.1 PRECURSORES En la antigua Grecia, autores como Aristóteles empezaron a interesarse en analizar el movimiento humano. En su obra De Motu Animalium2 (Aristóteles, 384 a.C.-322 a.C.), en la cual compara los cuerpos de los animales con sistemas mecánicos perfectamente calibrados y sincronizados. En el Renacimiento, Leonardo da Vinci (1452-1519) considera el cuerpo humano como un sistema mecánico3. Realizó diseños en los que sustituía los tendones por alambres para comprender la acción de los músculos, ilustró el funcionamiento de las válvulas del corazón, etc. Leonardo fue un pionero en la ciencia biomecánica describiendo algunos mecanismos que utiliza el cuerpo humano a la hora de moverse: como nos mantenemos de pie, como saltamos, como nos levantamos tras estar sentados, como caminamos en pendientes...4
Dibujos anatómicos de Leonardo Da Vinci
Cien años después, Galileo (1564-1642) haría los primeros intentos por analizar matemáticamente la función fisiológica y Borelli (1608-1679), apoyado en dicho trabajo, dibujó fuera de las articulaciones las fuerzas requeridas para el equilibrio del cuerpo. Algo más tarde Newton publicó las “Leyes del Movimiento”5 y determinó la posición del centro de gravedad humano. Muybridge (1830-1904) es el primero en disecar el movimiento humano y animal, a través de una secuencia fotográfica, luego Marey (18301904) utilizaría científicamente esta técnica para correlacionarla con la fuerza de reacción del suelo, que marca el inicio del Análisis de Movimiento Moderno.6
2 3 4 5 6
Aristoteles, De Motu Animalium (A.S.L. Farquharson, 2013, On the motion of animals) María C. Tomasini, 2012, Las máquinas de Leonardo da Vinci Martin Kemp, 2007, “Leonardo da Vinci: The Marvellous Works of Nature and Man” Isaac Newton, 1687, Philosophiæ naturalis principia mathematica Daniel Roetenberg, 2006, PhD Thesis: Inertial and Magnetic Sensing of Human Motion.
10
1.2.2 ANIMACIÓN La animación antes de la película La persistencia de la visión o persistencia retiniana7 fue definida en 1829 por Joseph Plateau (1801-1883). Esto da paso a la invención de dispositivos como el zootropo, o “rueda de la vida”. El zoótropo fue patentado en 1834. Inventado por William George Horner (1789-1837), esta máquina se compone de un tambor circular intervenido con unos cortes equidistantes a través de los cuales el espectador mira una serie de dibujos pegados sobre las paredes de la estructura. Al hacer girar el tambor sobre su eje, éstos parecen moverse. Tal fenómeno óptico dio lugar a la invención del cine, y se considera uno de los antecedentes más evidentes de la animación.8 Otra pieza de animación muy famosa (aún hoy en día se sigue fabricando) fue el “flipbook” o folioscopio. El libro animado era una tableta de papel con un dibujo individual en cada página para que el espectador volteara las páginas a gran velocidad para dar la ilusión de movimiento y crear una secuencia animada. Fue muy popular en los años 1800, sin embargo, estos dispositivos eran poco más que curiosidades de salón utilizados para el entretenimiento ligero.9
La animación en película Winsor McCay (1867-1934), conocido por trabajos como Little Nemo y Gertie The Dinosaur,10 es considerado por muchos por haber producido la primera “animación” popular. Al igual que muchos de los primeros animadores, fue dibujante consumado en un periódico. Redibujó cada imagen completa en papel de arroz montado sobre cartón. 7 Descubierto por Peter Mark Roget y definido por Joseph Plateau que demostraría como una imagen permanece en la retina humana una décima de segundo antes de desaparecer por completo. 8 Museo del Arte Moderno de México (2013) 9 Flipbook.info – History (2013) 10 Maltin, Leonard, 1987, “Of Mice and Magic – A History of American Animated Cartoons”
11
Zootropo (William G. Horner, 1834)
También fue el primero en experimentar con el color en la animación. Gran parte de sus primeros trabajos fueron incorporados en actos de vodevil11 en que lo haría “interactuar” con el personaje animado en la pantalla. Del mismo modo, los primeros dibujos animados incorporan a menudo la acción real con personajes animados.12 Los primeros grandes avances técnicos en el proceso de animación se remontan a la obra (y patentes) de John Bray13 (1879-1978) a partir de 1910. Su trabajo fundó las bases para el uso de celuloides translúcidos en composición de múltiples capas de dibujos en una imagen final, así como el uso de dibujos en escala de grises (en oposición a blanco y negro). Posteriormente, gracias a los estudios hechos por Bray, otros grandes artistas como Max Fleischer (1883-1972) (el creador de Betty Boop) patentó la Rotoscopia 14en 1915. La técnica de la rotoscopia consiste en el redibujado manual de un contorno frame a frame, tomando como base una secuencia de imágenes de acción real, previamente filmada en cine o grabada en vídeo. De esta manera se genera una silueta que se mueve de manera realista y que podemos usar como máscara para componer con otras imágenes o como referencia para animar un personaje. Durante este tiempo, la animación estaba luchando por ser aceptada como una forma de arte. El primer personaje animado con una personalidad identificable es Félix el gato de Otto Messmer15 que apareció en la década de 1920 en las producciones de Pat Sullivan. A finales de 1920, aparecieron dos grandes fuerzas a tener en cuenta: el sonido y Walt Disney.
Gertie The Dinosaur (McCay, 1914)
11 12 13 14 15
Vaudeville: subgénero dramático de la comedia estadounidense, surgido entre los años 1880 y 1930 Xavier Berenguer, Universitat Pompeu Fabra: “Pioneros de la animación” (2013) Enríque Martínez-Salanova Sánchez, “El cine de animación” (2013) EFECTOHD - El arte de la rotoscopia: un poco de historia (2013) History of Felix (2013)
12
Disney Walt Disney fue, por supuesto, la mayor fuerza de la historia de la animación. Su estudio contribuyó con una gran cantidad de innovaciones técnicas, pero su contribución más importante fue que Disney, más que nadie, contribuyó a que la animación se convirtiera y fuese aceptada como una forma de arte.16 Algunas de las innovaciones de Disney en la tecnología de animación era el uso de un guion gráfico o storyboard” para revisar la historia, el uso de bocetos a lápiz para opinar sobre el movimiento y el soporte de la cámara multi-plano17. Además, Disney fue pionero en el uso del sonido y el color en la animación (aunque no es el primero en utilizar el color). Disney también estudió secuencias de acción en vivo18 para crear un movimiento más realista en sus películas. Cuando se utiliza el sonido por primera vez en Steamboat Willie (1928), obtuvo una ventaja sobre sus competidores. El stand de animación19 es un dispositivo montado para la filmación de cualquier tipo de animación que se coloca sobre una superficie plana, incluyendo la animación cel, la animación gráfica, animación con plastilina y animación de siluetas. Un stand de animación es mucho más poderoso de lo que uno podría llegar a pensar ya que una cámara con éste soporte permite realizar el efecto de paralaje.
16 Digital Media FX: The History of Animation: Advantages and Disadvantages of the Studio System in the Production of an Art Form. (2013) 17 La cámara multiplano es un tipo especial de cámara usada en la animación tradicional para lograr un efecto tridimensional (aunque no estereoscópico). La cámara permite poner varias imágenes a diferentes distancias y distintas velocidades. 18 The Walt Disney Family Museum – Technology & Innovation (2013) 19 About.com – Animation Stand (2013)
13
Stand de animación
“El paralaje20 es un movimiento de fondos a un ritmo diferente del actor o personaje, creando así la ilusión de profundidad y zoom. Cada uno de los planos puede moverse en seis direcciones (derecha, izquierda, arriba, abajo, adentro y afuera) así como la cámara que entra y sale del plano. Al mantener el objetivo de la cámara abierto durante el movimiento, las figuras pueden ser extruidas en formas de mayor dimensión y crear una profundidad de exposiciones.”
Mickey Mouse en una escena de Fantasía (1940)
En cuanto a la forma de arte de la animación, Disney perfeccionó la capacidad de impartir, personalidades únicas en sus entrañables personajes21, incluyendo a Mickey Mouse, Pluto, Goofy, Los tres cerditos, y los siete enanitos. También desarrolló piezas de humor de animación incluyendo Skeleton Dance y Fantasía (1940). También promovió la idea de que la mente del personaje era el motor de la acción y que la clave para un movimiento de animación creíble era el análisis del movimiento de la vida real.
20 21
Parallax – Oxford Dictionaries (2013) Personajes Disney – Wikipedia (2013)
14
Animación CGI En 1969, se descubrió que los ordenadores podrían realizar el trabajo de los asistentes en la animación tradicional, quienes cogían los fotogramas clave de los artistas y creaban el espacio entre las imágenes que da la ilusión de movimiento y completa la secuencia (lo que hoy en día se conoce como Interpolación de movimiento). Los avances en la animación computarizada condujeron al desarrollo de imágenes generadas por ordenador (CGI) para ser utilizadas en películas de acción como efectos especiales. El original de Star Wars (George Lucas, 1977) innovó con la Estrella de la Muerte creada completamente en 3D.
Escena de la película El secreto de la pirámide (Barry Levinson 1985)
Los primeros usos de la animación por ordenador para crear personajes fueron Bit de Tron (Steven Lisberger, 1982) y el caballero de El secreto de la pirámide (Barry Levinson, 1985). Éste caballero fue la creación de John Lasseter de la División de Informática de Lucasfilm conocido como el Grupo de Gráficos, que luego encontraría un nuevo propietario y cambiaría su nombre por el de Pixar Animation Studios (1986). Con Toy Story (John Lasseter, 1995), Pixar marca el inicio de la era de los largometrajes animados creados completamente por ordenador. Los otros grandes estudios como Dreamworks (1994) empiezan a hacer lo mismo con sus propias divisiones de animación.
15
1.2.3 CAPTURA DE MOVIMIENTO (MOCAP) Captura de movimiento CGI A finales de los 70 se empezaros a usar los ordenadores para analizar el movimiento humano en estudios de biomecánica. Más tarde, en los 80, Tom Calvert22 adhirió potenciómetros a un cuerpo y uso la salida para generar personajes animados por ordenador. Calvert también creó exoesqueletos con éstos potenciómetros incorporados para analizar el grado de flexión de articulaciones. En paralelo a Calvert, el MIT y CGL del NYTC experimentaron con dispositivos de seguimiento visual aplicados en el cuerpo humano23. Estos sistemas usan pequeños marcadores adheridos al cuerpo y una serie de cámaras alrededor del espacio. El hardware y software distinguen los marcadores en el campo visual y mediante comparación y triangulación calculan la posición en cada instante. DeGraf/Wahrman desarrollaron Mike the Talking Head (1988) para Silicon Graphics para mostrar las capacidades en tiempo real de sus nuevas máquinas 4D. Mike era dirigido por un controlador específicamente hecho para él que permitía a un usuario manejar varios parámetros de la cara del personaje, incluyendo boca, ojos, expresión y posición de la cabeza.24 Mike, the talking head (1988)
Brad deGraf continuó trabajando en solitario desarrollando un sistema de animación en tiempo real: Alive! Se trataba de un dispositivo para mano con cinco émbolos que representaban los dedos de un titiritero. El dispositivo era usado para controlar las expresiones faciales de una nave espacial virtual. Degraf se unió a Colossal Pictures donde usaron Alive! Para animar a un perro generado por ordenador llamado Moxy Cartoon Network). Se utiliza la tecnología en tiempo real para publicidad, pero era post-renderizado para la serie de TV. Los movimientos del actor eran capturados a través de un sistema de captura electromagnético con sensores en las manos, pies, torso y cabeza.25
22 23 24 25 Practice”
Profesor de kinesiología y ciencias de la computación en la Simon Frase Univ ersity (2013) Chris Bregler, 2007, MIT Media Lab: “Motion Capture Technology for Entertainment” Universtiy of California at Santa Cruz, Perceptual Science Lab (2013) Yueting Zhuang, Yunhe Pan, Jun Xiao, 2008, “A Modern Approach to Intelligent Animation: Theory and
16
The Moxy Show (1993)
Durante el 91-92, Acclaim desarrolló en secreto un sistema de rastreo óptico de alta definición superior a cualquier otro sistema de la época, capaz de seguir 100 marcadores simultáneamente en tiempo real. En SIGGPRAH26 93, Acclaim entusiasmó al público con una animación realista y compleja de dos personajes hecha completamente con MOCAP. Acclaim usó éste sistema principalmente para generar secuencias de movimiento de personajes para videojuegos. 27 Autodesk compra a Discreet Logic y se fusiona con Kinetix, fundando Autodesk Media and Entertainment (1999). Autodesk crea una gran variedad de software. Entre ellos 3ds Max, Viz, Inferno, Flame, Flint, Fire Smoke, Lustre, Combustion, Cleaner y Toxik. Mientras compañías como SoftImage, Alias y Autodesk crecían y mejoraba sus soluciones gráficas, otra compañía estaba desarrollando un producto que sería un componente clave para cualquier estudio de animación. El componente era el “motion capture” y la compañía Kaydara Inc. Fundada en 1993, Kaydara Inc. era un proveedor líder de soluciones para la adquisición, creación y distribución de contenido de medios digitales para las aplicaciones Web, cine, radiodifusión, banda ancha, y de desarrollo de juegos. Se desarrolló un producto galardonado llamado FiLMBOX y sus productos de sistemas de transmisión permitieron a los desarrolladores de contenido adquirir, administrar y entregar el contenido de las técnicas mixtas 3D seguro en tiempo real.
26 SIGGRAPH - Fundado en 1974, SIGGRAPH es el grupo de interés en infografía o computación gráfica de la ACM, y es también el nombre de la conferencia sobre el área organizada por el grupo de interés SIGGRAPH. 27 Siggraph, 1994, “Character Motion Systems”
17
Durante muchos años FilmBox de Kaydara28 fue el programa estándar de la industria de animación para la edición, la limpieza y la modificación de la captura de movimiento y animación de personajes por ordenador. Cuando los desarrolladores de paquetes 3D añadieron características similares a Filmbox a sus programas, algunos empezaron a cuestionarse el futuro del software. En marzo de 2004, Kaydara contestó a ésta cuestión con MotionBuilder, una herramienta muy poderosa e innovadora para animación de personajes.29 El motion capture empezó a ganar importancia en el mundo de la animación, con más y más estudios usando la tecnología, y MotionBuilder fue el programa usado por excelencia por las compañías que usaban motion capture. Alias Maya, en Siggraph 2004, anunció la compra de Kaydara. Más tarde, Alias Maya fue absorbido por Autodesk para convertirse en la empresa líder en CGI que conocemos hoy en día.30
Making of de Polar Express (Robert Zemeckis 2004)
En 2004, Polar Express de Robert Zemeckis, utilizó la técnica de captura de movimiento de acción en vivo. Muchos de éstos esfuerzos fueron criticados por su poco realismo, pero por otro lado, el director James Cameron ganó un amplio reconocimiento por las innovaciones que trajo Avatar (James Cameron, 2009) incluyendo la creación de personajes (humanos y de otro mundo) realistas, secuencias, un ambiente realista y una captura de movimiento fiel y realista de la cual hablaré más adelante en la siguiente página (Avatar: Caso práctico de MOCAP.) 28 Mixedmedia pipeline, 2000, FILMBOX Kaydara Overview 29 MotionBuilder es la herramienta que se utiliza en éste proyecto para enlazar la captura de movimiento obtenida de los trajes MOCAP con el personaje diseñado en la primera fase. 30 Autodesk Press Releases Archive (2013)
18
Avatar: Caso práctico de MOCAP La tecnología MOCAP en Avatar (James Cameron, 2009) fue creada especialmente para conseguir un gran realismo en la gente Na’vi y en particular, conseguir un gran realismo en los primeros planos de los personajes principales.31 Con la disnea habitual del bombo de la comercialización, gran parte de ella fue calificada como revolucionaria y rompedora, aclamada como un hito y una nueva era de la tecnología de captura de movimiento. Sin embargo, películas como The Polar Express (Robert Zemeckis, 2004), Monster House (Gil Kenan, 2006) y Beowulf (Robert Zemeckis, 2007), todas anteriores a Avatar, fueron hechas íntegramente con MOCAP. Por otra parte, A Christmas Carol (Robert Zemeckis, 2009), publicada 2 meses antes de Avatar, ya había utilizado un sistema de captura de movimiento facial similar a la utilizada en Avatar.32
Sin embargo, se utilizó MOCAP de maneras interesantes y notables en Avatar. Un aspecto importante de este uso es el empleo de James Cameron de la “cámara de oscilación”, una “cámara virtual que pudiera mostrar una vista de baja resolución de Pandora mientras capturaba las actuaciones”.33 El propósito principal de esta cámara era permitir a Cameron “rodar una escena simplemente moviéndose a través del gran escenario MOCAP”. Cameron podía coger la cámara y grabar a sus actores mientras estaban actuando y ajustar y dirigir las escenas en tiempo real, como si se tratara de la grabación de una película normal. El resultado de ésta cámara era lo que Cameron veía a través de sus lentes, que era totalmente diferente a lo que estaba en frente suyo. En el escenario habían actores con trajes MOCAP mientras que él estaba viendo a los alienígenas Na’vi en Pandora en tiempo real.34
31 32 33 34
19
Discovery News, 2009, “Avatar: Motion Capture Mirrors Emotions” A Christmas Carol “MOCAP Making off” (2013) Jenna Ng, 2012, “Seeing Movement: On Motion Capture Animation and James Cameron’s Avatar” Screen Rant, 2013, “The Crazy Tech Behind James Cameron’s Avatar”
Making of Avatar: Cámara virtual de James Cameron
La cámara virtual de Cameron trata de la producción en tiempo real de su propia realidad, no muy diferente a la realización de un videojuego, donde la cámara virtual son objetos generados acorde con la física y la estética del mundo del juego; de hecho, Cameron compara la cámara virtual con “un gran y poderoso motor de juego”.35
A la izquierda, imágenes del making of de Avatar, a la derecha, imagen CGI en tiempo real de la cámara virtual de Cameron.
Sin embargo, la cámara virtual en este caso, al dirigir MOCAP en tiempo real, hace mucho más que dar a Cameron libertad de espacio; ésta cámara da a Cameron la inmediatez de interpretación de los actores, colocándolo en medio de la película (en el sentido de dirección). En otras palabras, Cameron ya no está viendo a través de la cámara, está participando en su propia realidad tanto en sentimiento como físicamente. En esta realidad lo visible se vuelve invisible, y los actores humanos no son vistos a través de la cámara, sólo detectados y transformados en alienígenas azules.36 Existen rumores de que Cameron va a innovar una vez más, incluyendo MOCAP subacuático en la segunda parte de la película Avatar.37
35 36 37
EDGE, 2009, “Interview: James Cameron“ Anne Thompson, 2009, “The Innovative New 3D Tech Behind James Cameron’s Avatar“ Joey Paur, 2013, “Avatar 2: James Cameron will use Underwater Motion Capture”
20
Tecnología: Tipos de38 Motion Capture 1. Mecánico El actor viste un conjunto de piezas metálicas rectas con forma humana (como un esqueleto muy básico) que se enganchan en la espalda: cuando el actor se mueve, éste exoesqueleto es forzado a moverse también y los sensores en cada articulación interpretan la rotación. Otros tipos de captura de movimiento mecánico implican guantes, brazos mecánicos, o modelos articulados (una especie de disfraz articulado), que se utilizan para crear fotogramas clave. • Pros: o No hay interferencia de campos de luz o magnéticos o No se ve afectado por la luz o campos de interferencia magnética. • Contras: o La tecnología no tiene conciencia del suelo, por lo que no puede haber un salto y los datos correspondientes a los pies tienden a deslizar. o El equipo debe ser calibrado a menudo. o A menos que exista otro tipo de sensor en su lugar, el “traje” no reconoce la orientación del actor. o No reconoce posiciones absolutas, todo se calcula a partir de las rotaciones.
38
21
Alberto Menache, 1999, “Understanding Motion Capture for Computer Animation and Video Games”
Ejemplo de traje MOCAP Óptico
2. Óptico El actor viste un traje con marcadores reflectantes que son seguidos por una serie de cámaras y la información es triangulada entre ellas. Los marcadores pueden ser reflectantes, como por ejemplo los distribuidos por Vicon (los típicos parecidos a pelotas de pimpón), o pueden ser emisores de infrarrojos. Desarrollado principalmente para aplicaciones biomédicas como podrían ser las lesiones de deportistas, análisis de rendimiento atlético, etc. •
Pros:
El actor tiene libertad total de movimiento ya que no tiene ningún cable conectando su cuerpo al equipo. o Es posible capturar actores con volúmenes mayores. o Es posible capturar más de un actor al mismo tiempo. o Captura muy limpia y datos detallados. • Contras: o Es muy sensible a las interferencias lumínicas. Ejemplo de traje MOCAP Óptico
o Los marcadores reflectantes pueden ser bloqueados por los propios actores o otras estructuras, causando perdida de datos u oclusión. Aun así, éste contra puede ser compensado por el propio programa, el cual estima la posición del punto desaparecido. o Las rotaciones de las partes del cuerpo no son absolutas, por lo que hay que arreglarlas en post-producción. o El actor ha de llevar un traje compuesto por puntos y bolas (aproximadamente unas 30) lo que puede ser un poco incómodo. o La información ha de ser post-procesada o “trackeada” antes de verla por lo que el actor no puede ver su imagen y no puede ser tan creativo o identificar problemas potenciales. o El tracking puede durar unos 1 o 2 minutos por segundo capturado, aunque con los trajes y software más actuales éste problema ya está solucionado.
22
3.Electromagnético (magnético). El actor viste un array de receptores magnéticos que “trackean” la localización respecto a un transmisor magnético estático. Uno de los primeros usos fue militar, para “trackear” los movimientos de las cabezas de los pilotos. Otro tipo de trajes electromagnéticos son los usados para la realización de éste proyecto. Estos trajes en lugar de transmisores magnéticos, están dotados por una serie de IMUs (Inertial Measurement Unit). Cada IMU recolecta datos de orientación 3D, aceleración 3D, 3D gyro rate, 3D campo magnético terrestre, cuaterniones, y conjuntos de ángulos Euler. Los datos de los IMUs son enviados mediante la MPU (Main Processing Unit) vía WiFi al PC o portátil. • Pros: o Las posiciones son absolutas, las rotaciones también son medidas mediante absolutos; la orientación en el espacio puede ser determinada o absoluta. o Puede ser en tiempo real, lo que permite retransmitir en tiempo real y además darle la oportunidad a los actores de verse en tiempo real caracterizados en un personaje 3D dándoles un feedback instantáneo de su trabajo y facilitándoles la posibilidad de ser más espontáneos y probar cosas nuevas. o Más barato que el óptico, ya que no es necesaria ninguna instalación especial ni cámaras. (Sólo el traje y un PC). o WiFi: El actor no está conectado al ordenador, lo que permite capturar cualquier tipo de acción, ya sea en un interior o exterior. • Contras: o Las interferencias magnéticas son más importantes según el traje se aleja del ordenador. o Muy sensible a las interferencias causadas por campos magnéticos (Los suelos de cemento contienen metal, por lo que hay que construir un escenario especial para capturar o simplemente buscar un lugar sin interferencias.
23
Ejemplo de traje MOCAP electromagnético
Traje utilizado en éste proyecto: Animazoo IGS-180 “El sistema Animazoo IGS-180 MOCAP ha demostrado ser una solución muy buena para nosotros. El pipeline simplificado nos ha permitido ahorrar una cantidad significativa de tiempo. Su integración directa en nuestra pipeline de animación y las herramientas vía controladores dedicados, nos permite revisar la sesión de MOCAP al momento, directaTraje MOCAP inercial: Animazoo IGS-180.
mente en nuestro set de herramientas, optimizando significativamente la eficiencia en cada sesión”. Ivan Balabanov - Managing Director (Ubisoft Sofia). El IGS-180 es un traje de MOCAP inercial (electromagnético) basado en sensores inerciales o IMU). Ofrece la mayor precisión disponible en un traje de MOCAP, lo que permite capturar datos de movimientos suaves y limpios en cualquier entorno sin estudio previo requerido. El IGS-180 es muy fácil de usar y tiene una autonomía de unos 20 minutos. Al no utilizar cámara (sistemas ópticos), se puede capturar en cualquier lugar, ya sea en un interior como por ejemplo un coche, una sala de estar, etc. o en exteriores como podría ser un campo de futbol, una pista de atletismo, etc. Sin preocuparnos de la oclusión o mover los marcadores. El traje que utilizo ha sido actualizado al IGS-180i, por lo que incluye lo más avanzado de la tecnología en cuanto a compensación magnética, lo que permite capturar en lugares con altas interferencias magnéticas como coches, fábricas, cabinas, líneas de producción, etc. Trabajo con éste traje por varias razones. Para empezar, la disponibilidad del traje. Realicé mi periodo de prácticas en BLOOM Girona y he tenido la oportunidad de trabajar con estos trajes y la empresa me brinda la posibilidad de utilizarlos para mis propios proyectos sin ningún coste de alquiler. Por otro lado, como bien dicen las palabras de Ivan Balabanov, es un sistema que simplifica mucho el trabajo de captura de movimiento, reduciendo y optimizando el tiempo de las sesiones. Y por último cabe destacar su gran precisión y libertad de trabajo, sin estar atado a una gran infraestructura de cámaras previamente configuradas antes de la sesión.
24
1.2.4 Pipeline de integración de un personaje CGI39 A “groso modo”, después de diseñar el personaje, haber renderizado por capas y disponer del clip del video donde se quiere hacer la composición, se seguirán una serie de pasos para componer y dar realismo a la escena: 1. Tracking de las imágenes 2. Aplicar el tracking 3. Crear una mascara 4. Usar el alpha pass 5. Speed masking 6. Tracking del fondo para parallax 7. Corrección de color 8. Añadir reflejos 9. Rotoscopia de los reflejos 10. Falsear la profundidad de campo 11. Motion blur 12. Corrección de color de la escena 13. Render de la secuencia de imágenes
39
25
SMITH, Laura. www.digital-tutors.com
1.3 ESTÉTICA 1.3.1 Estética del proyecto Desde bien pequeño he sentido fascinación por la ciencia ficción y la temática futurista en todos sus aspectos (nuevas tecnologías inexistentes, robots, Inteligencias artificiales, revolución de las máquinas, futuros post-apocalípticos, etc.) Ya que he decidido centrar mi proyecto en la creación de un personaje y su integración en una escena, ¿por qué no aprovechar la ocasión y crear algo de ciencia ficción futurista e integrarlo en un video grabado por mí? En mi infancia tuve mucha influencia de sagas ochenteras de robots como Power Rangers, Transformers, Mazinger Z, Jayce y los guerreros rodantes, Evangelion, Medabots, Zoids, Bots Master, etc. Por lo que mi pasión por la ciencia ficción y los robots ha ido en auge durante toda mi vida. En definitiva, he decidido, ya que es un proyecto de auto realización, enfocar la estética del proyecto a una estética llamada “Androide” mezclada con la estética “Mecha” Un androide es la denominación que se le da a un robot antropomorfo, que además de imitar la apariencia humana, imita algunos aspectos de su conducta de manera autónoma (Transformers, Medabots, Bots Master, etc.) Por otro lado, un Mecha es un robot de gran tamaño tripulado por uno o varios pilotos (Mazinger Z, Pacific Rim). Mezclo éstas dos estéticas porque el robot será de mayor tamaño que una persona (Mecha) pero no estará tripulado por un piloto, sino que será autónomo e imitará movimientos humanos gracias al MOCAP (Androide).
26
1.3.2 Referencias estĂŠticas Referencias para el personaje:
27
Referencias para la escena:
28
ร rea instrumental y metodolรณgica: Herramienta FASE 2: Planificaciรณn y realizaciรณn 29
Establecimiento de los objetivos que orienten la operativa de trabajo Calendario de producción
NOV’13
DIC’13
ENE’14
FEB’14
MAR’14
ABR’14
MAY’14
JUN’14
(Preproducción) Decisión y presentación de la propuesta. (Preproducción) Fase 1: Investigación documental y establecimiento de las bases del proyecto. (Producción) Fase 2: Planificación y desarrollo del proyecto. (Postproducción) Fase 3: Autoevaluación y últimos retoques del proyecto. Fase 4: Presentación
30
Recursos necesarios Hardware: Ordenador portรกtil Asus n53SN. Tableta digitalizadora Bamboo wacom Pen & Touch. Traje de captura de movimiento inercial Animazoo-IGS 180. Cรกmara SONY Handycam HDR-PJ530E
Software: Adobe: Photoshop, Illustrator, Indesign, Premiere, After Effects. Autodesk: Maya, MotionBuilder. Blender. Animazoo MOCAP software.
31
2.2. Desarrollo Storyboard Plano General, sin movimiento de cรกmara.
Plano general, sin movimiento de cรกmara. El robot entra por la esquina superior izquierda.
Primer plano, sin movimiento de cรกmara. El robot gira la cabeza hacia cรกmara
32
Plano General, sin movimiento de cámara. El robot se acerca a la cámara.
Plano General, sin movimiento de cámara. El robot levanta el brazo derecho y apunta a cámara.
Plano General, sin movimiento de cámara. El robot dispara a cámara y la rompe.
33
Guión ténico T.Y.R. Escena 1 EXT – UNIVERSO Plano
Descripción vídeo
Descripción audio
Nº
Plano
Angulación
Mov. Cámara
001
PG
---
ZOOM IN Plano general del planeta Tierra y Zoom In hasta Música de tensión.e rotando sobre Girona. el eje Z.
Duración 10’’
Escena 2 EXT – GIRONA - DÍA Plano Nº
Plano
Angulación
Mov. Cámara
001
PG
---
---
Descripción vídeo
Descripción audio
Duración
Plano general de la calle enfrente de la Coma-cros de Salt.
Objeto cayendo del cielo.
6”
Explosión. 002
PG
---
---
Cae un robot del cielo rompiendo el suelo y levantando una nube de polvo.
Escombros. Ruidos alienígenas.
3’’
Movimiento del robot. 003
004
PG
PP
---
---
---
---
El robot se levanta.
Mira a su alrededor y ve la cámara.
Ruidos alienígenas.
Movimiento del robot.
4’’
2”
Ruidos alienígenas. Movimiento.
005
PG
---
---
Se acerca a la cámara, se para, levanta el brazo derecho, carga el láser y dispara a cámara. (Pasa una furgoneta por detrás).
Ruidos alienígenas. Carga del láser.
5”
Disparo. Furgoneta.
006
PG
Al romperse la cámara se pierde la imagen y queda ruido de imagen.
Ruido imagen.
3’’
33”
34
El personaje: T.Y.R. Desde el principio de los tiempos, los Artesanos han experimentado con el progreso de la raza humana como si de conejillos de Indias se tratara. Desde sus asentamientos científicos en Andrómeda y su avanzada en Marte hanido monitorizando la evolución del hombre. Pero esta ha llegado a su fin y hay que limpiar la mesa del laboratorio. Para las purgas planetarias disponen de un arma única que mantiene intacta la vida animal y vegetal del planeta: el proyecto T.Y.R. Incluso entre los Artesanos, T.Y.R. es una pieza única: nacida de la necesidad, combinando lo mejor de cada tecnología asimilada por los siglos, es la única superviviente de un batallón completo caído en las cruzadas galácticas. Un superviviente exterminador, un exterminador de supervivientes. Con un objetivo en mente, lo envían a la Tierra...
35
36
Proceso de diseño del personaje
Diseño 2D Software: Photoshop. Para modelar un personaje en 3D, es muy recomendable dibujarlo primero a mano en 2D (papel o pc), ya sea como referencia para las vistas ortogonales del software 3D o simplemente para tener claras tanto las proporciones como los detalles que tendrá nuestro personaje. En éste caso, no he utilizado los esbozos como referencia en las ortogonales, pero sí que me ha servido para plasmar la idea que tenía en mi cabeza en el papel y poder tenerlo como referencia para todos los días que me he pasado modelando el personaje. (Dibujo realizado por Daniel Carrasco Lara)
37
38
Modelado
39
Software: Blender. El modelado del personaje se ha hecho íntegramente en Blender y luego exportado a Autodesk Maya para su texturizado y rigging. El personaje ha sido modelado utilizando la técnica “hard-surface”, que como su propio nombre indica, es el diseño y desarrollo de un personaje íntegramente construido con superficies duras, sin deformaciones orgánicas, como por ejemplo robots. Si se domina la técnica del hard-surface, se pueden conseguir una serie de biseles que crean sombras y contrastes de luz muy interesantes, es más, son éstos biseles los que crean la diferencia entre un modelo hard-surface mediocre y uno de calidad.
40
UV maps Software: Blender. Antes de crear un esqueleto o animar el personaje, hay que “pintarlo”. Para pintar un personaje en 3d, primero hay que hacer un “unwrapping” de la geometría para convertir esa malla en 3D a una imagen 2D. Una vez hecho el unwrapping, lo abrimos en photoshop y empezamos a aplicar texturas y pintar a nuestro gusto. Creamos un material base para nuestro personaje y le aplicamos el UV Mapping que hemos creado anteriormente y retocamos la imagen 2D de nuevo si no nos gusta el resultado. Éste proceso se ha de repetir para cualquier parte del cuerpo de nuestro personaje.
mapa uv de la cabeza
41
mapa uv del tรณrax
42
Texturas/ Shaders Software: Maya. Una vez tenemos exportados los mapas de UV, tenemos que trabajar los materiales antes de aplicarlos en la geometría. En éste caso, no he utilizado ninguna textura externa ya que el personaje está “creado” en un material cromado. El material cromado se consigue “jugando” con el color base del metal y ajustando la reflexión y refracción para conseguir imágenes más nítidas o distorsionadas. Por otra parte, los “energy links” o “las bolas resplandecientes de las articulaciones”, simulan una especie de bolas de energía que mantienen unidas todas las piezas de T.Y.R. Por tanto, he creído conveniente hacer que resplandezcan con luz propia, sin ser afectadas por ninguna luz externa, ya que son núcleos de energía autónomos. Para conseguir éste efecto, he aplicado un material luminoso en la pestaña de color de un material base.
43
Esqueleto Software: Maya. La creación de un esqueleto es un apartado clave para poder animar un personaje. En el diseño 3D de personajes, solo necesitamos un esqueleto para mover, no es necesario crear músculos ni limitaciones de rotación de articulaciones. Una vez creado el esqueleto se procede a hacer un “skinning”. Esta es la acción de emparentar el esqueleto a nuestro modelo, relacionando los huesos y articulaciones con las zonas de la geometría que queremos que se muevan.
44
Sesión de Motion Capture Software: MotionBuilder. Para la captura de movimiento del personaje se ha requerido un equipo de 3 personas. • Pau Puigdemont: Actor. • Daniel Carrasco: Operador de cámara y ordenador. • Miguel Ángel Curto: Guion, técnico MOCAP y director. La sesión de captura ha sido de unas 4 horas, ya que se han realizado varias tomas para después poder seleccionar las apropiadas para la escena.
45
Animación del personaje Software: Animazoo MOCAP software y MotionBuilder. Hay dos maneras de animar un personaje en 3D, mediante la manera tradicional frame a frame, donde el animador modifica la rotación de todas las articulaciones del cuerpo del personaje mediante unos controladores keyframe a keyframe, o la que uso en éste proyecto: el MOCAP. Para añadir la captura anteriormente realizada a nuestro modelo se han de seguir una serie de pasos técnicos específicos. En la fase de animación se abarcan procedimientos de enlazado de esqueletos (MOCAP y personaje), “retargeting” de la animación para resolver problemas de captura como articulaciones torcidas, geometría atravesando masas volumétricas del modelo o retoques de animación para darle un toque más personal. Por último, se hace un “baking” de los huesos a la geometría y queda finalmente la animación cerrada lista para volver a mandar a Autodesk Maya para los render finales.
46
Localización Municipio: Salt (Girona) Para la grabación de la escena, se ha buscado un espacio amplio y con suelo de hormigón para facilitar, de alguna manera, la inserción de efectos especiales en postproducción. He elegido un especio apartado de multitudes para dar verosimilitud a la escena, ya que si un robot alienígena cae del cielo y rompe el suelo, la gente de alrededor no quedaría impasible. He elegido un plano estático por su facilidad a la hora de integrar un objeto, pero he creído conveniente grabar en un día con viento para dar dinamismo a la escena con el movimiento de los árboles. También he elegido una parte del video donde pasa un vehículo por detrás para añadir aún más movimiento y realismo a la escena.
47
Composición Software: After Effects y Premiere. Posiblemente la parte más importante del proyecto. La composición es el último paso del proceso, es donde todo lo que hemos anteriormente se funde en uno y obtenemos el resultado final. Hay que tener en cuenta cientos de parámetros como iluminación, sombras, movimientos de cámara, etc. Para conseguir un realismo mínimamente creíble en la escena final. Además de éstos parametros, aquí es donde añadimos los efectos especiales previamente creados con un programa de diseño 3D, como por ejemplo Maya o Blender. Éstos efectos especiales abarcan desde las grietas del suelo, los escombos, explosiones o el cañón laser.
48
ESCENA EXTRA: ZOOM A LA TIERRA Software: After Effects. Escena creada y diseñada únicamente con el fin de contextualizar al público en la escena. Con ésta escena se hace saber al espectador que TYR, el robot alienígena, proviene del espacio exterior, fuera de nuestro planeta. Además, gracias a la inserción de texto en el zoom, localizamos la acción en Girona. Para crear ésta extra he seguido el tutorial “Earth Zoom” de www.videocopilot.net. Éste efecto ha sido realizado a partir de texturas sacadas directamente del sitio web de la NASA, son imágenes reales del satélite montadas con una serie de efectos en After Effects para conseguir realismo y dinamismo.
49
Logotipo del proyecto Software: Illustrator y Photoshop. La cabeza con una T del logotipo, representa la cabeza del protagonista del proyecto: TYR. El color rojo representa la energĂa que mantiene unida las partes de TYR (las bolas de energĂa que unen sus articulaciones). El color negro de fondo y blanco para las letras ha sido elegido para ofrecer un logo de gran contraste y dar mucha importancia al color rojo.
RGB: (255,0,0) CYMK: (0,96,81,0) PANTONE 485 C
50
LOGOTIPO EN ESCALA DE GRISES
LOGOTIPO EN NEGATIVO
51
Tipografía Para la tipografía del logotipo he utilizado la fuente “Grammara”. Esta fuente me transmite una sensación de atemporalidad gracias a sus bordes rectos y nítidos y sus esquinas redondeadas. Es una tipografía que puede ser integrada tanto en un cartel retro de los 70 o en los títulos de una película futurista de ciencia ficción. Ésta atemporalidad encaja muy bien con el proyecto, ya que mezcla nuestro entorno en presente con un robot alienígena muy avanzado a nuestra civilización.
52
Packaging He decidido seguir la línea oscura y futurista de los colores del logo para crear el diseño de la caja del DVD y del propio disco. He creído conveniente añadir la historia del personaje en la contraportada a falta de tener un argumento de una serie, juego o película para contextualizar al público antes de ver el vídeo. Los logotipos de la contraportada pertenecen a las instituciones que me han dado soporte en el desarrollo de éste proyecto.
53
ร rea de lenguajes expresivos: Expresiรณn FASE 3: Autoevaluaciรณn, mejora y prospectiva 54
autoevaluación y prospectiva Logro de objetivos 1. Diseño y animación (MOCAP inercial) de un personaje 3D. 2. integración de éste personaje en un entorno real mediante la composición del modelo 3D en un clip de video grabado expresamente para el proyecto. (Iluminación, tracking y rendering).
Puntos fuertes y débiles Puntos fuertes: -
Gran pasión por el diseño 3D.
-
Capacidad de autoresolutiva de problemas.
-
Conocimiento básico previo de la tecnología MOCAP
Puntos débiles:
55
-
Relativamente poco tiempo para un objetivo complejo.
-
Desconocimiento total del diseño y desarrollo de una escena cinematográfica
-
Desconocimiento total del pipeline de composición 3D en una escena real.
-
Alta complejidad de todos los software utilizados en el proyecto
-
Proyecto desarrollado por una sola persona, cuando en un proyecto real se dividiría en un grupo de mínimo 7 personas.
Calendario de producción final NOV’13
DIC’13
ENE’14
FEB’14
MAR’14
ABR’14
MAY’14
JUN’14
(Preproducción) Decisión y presentación de la propuesta. (Preproducción) Fase 1: Investigación documental y establecimiento de las bases del proyecto. (Producción) Fase 2: Planificación y desarrollo del proyecto. (Postproducción) Fase 3: Autoevaluación y últimos retoques del proyecto. Fase 4: Presentación
56
CONCLUSIÓN A pesar de que el 3D es para mí, más una pasión que un oficio, me ha sido terriblemente complicado realizar éste proyecto yo solo. A pesar de ello, ha sido una gran experiencia y sobretodo gratificante para mi persona, me he puesto a prueba, propuse una serie de objetivos, en un principio totalmente fuera de mi alcance y he llegado a cumplirlos al 100%. El haber cumplido mis objetivos no quita que no me haya quedado con un poco de mal sabor de boca ya que, llegado en el puto donde me he quedado, me hubiera encantado seguir las palabras de mi tutor Jordi de convertir la escena en mucho más dinámica mediante la creación de varios ángulos de cámara así como planos cortos y actores reales. Aun así, como ya he dicho anteriormente en ésta conclusión, estoy muy contento con el resultado, he llegado a concebir un personaje de mi cabeza a papel para más tarde modelarlo con la ayuda de profesionales de la industria como Luis Arizaga. He creado por mi cuenta materiales con reflejos del entorno y las luces que jamás hubiera imaginado y he animado un personaje utilizando una tecnología puntera de la cual no hay ningún tipo de información en la red, simplemente mi investigación que realicé en mi periodo de prácticas en BLOOM, la cual no dio un resultado final por falta de tiempo, así que esto me ha servido para quitarme ésa espinita de haber sintetizado lo aprendido allí también. Sobretodo estoy muy orgulloso de la integración en video del personaje. Sí, no es un plano muy dinámico, no son efectos especiales de Hollywood, pero los he modelado y creado yo, sin descargar librerías de la red, simplemente siguiendo algunos tutoriales para no perderme. El grado de autorrealización de éste trabajo ha sido realmente impresionante, por lo que agradezco sobre todo a mi tutor, Jordi, por quitarme la idea de la cabeza de hacer un trabajo sencillo para salir del paso y quitarme la asignatura del medio. Sin esfuerzo no hay recompensa y en éste proyecto he hecho un esfuerzo desorbitado para tirarlo adelante, por lo que también he conseguido una recompensa desorbitada de autorrealización. Como ya podéis imaginar, estoy muy contento con todo y cada uno de los resultados de éste trabajo y me ha animado a continuar mis estudios de 3D y efectos especiales para aprender mucho más.
57
BIBLIOGRAFÍA Libros, PDFs y eBooks: -
MALTIN, Leonard & BECK, Jerry. 1987. Of Mice and Magic: A History of American Animated Cartoons.
-
WILLIAMS, Richard. 2002. The Animator’s Survival Kit.
-
BLAIR, Preston. 1996. Cartoon Animation.
-
THORMAS, Frank and JOHNSTON, Ollie. 1995. The Illusions of Life.
-
SITO, Tom, 2013. Moving Innovation: A History of Computer Animation.
-
VON KOENIGSMARCK, Arndt, 2008. Creación y modelado de personajes 3D (Diseño y Creatividad).
-
NG, Jeena, 2012. Seeing Movement: On Motion Capture Animation and James Cameron’s Avatar.
-
BRADSKI, Gary R. & DAVID, James, 2002. Motion segmentation and pose recognition with motion history gradients.
-
ARISTOTELES. De Motu Animalium.
-
KEMP, Martin, 2007-2011. Leonardo da Vinci: Las maravillosas obras de la naturaleza y el hombre (Arte y estética).
-
ZHUANG, Yueting, PAN, Yunhe & XIAO Jun, 2008. A Modern Approach to Intelligent
-
Animation: Theory and Practice (Advanced Topics in Science and Techonlogy in China).
-
MENACHE, Alberto, 1999. Understanding Motion Capture for Computer Animation and Video Games.
-
HERDEG, Walter, 1967. “Film & TV Graphics: An International Survey of Film & TV Graphic”
-
THE WALT DISNEY FAMILY MUSEUM. “Technology and Innovation”. [PDF] [Última consulta: Febrero 2014]. Disponible en: http://goo.gl/m6Fpmp
-
BREGLER, Chris. “Motion Capture Technology for Entertainment”. [PDF] [Últi-
58
ma consulta: Febrero 2014] Disponible en: http://goo.gl/nAH5Dx -
ARISTOTLE. “On the Motion of Animals” [eBook] [Última consulta: Febrero 2014] Disponible en: http://goo.gl/3YA0RU
-
ROETENBERG, Daniel. “Inertial and Magnetic Sensing of Human Motion”. [PDF] [Última consulta: Febrero 2014] Disponible en: http://goo.gl/mBjmwZ
-
VA. Siggraph 1994. “Character Motion Systems”. [PDF] [Última consulta: Febrero 2014] Disponible en: http://goo.gl/TZ6a3r
-
FILMBOX. “Kaydara” [PDF] [Última consulta: Febrero 2014] Disponible en: http://goo.gl/AWg8a1
-
TOMASINI, María Cecilia, 2012. “Las máquinas de Leonardo da Vinci” [PDF] Disponible en: http://goo.gl/YwAZRc
Web:
59
-
RAGASOL, Tania & HERRANZ, Iñaki. “Zoótropo”. [En línea] [Última consulta: Febrero 2014]. Disponible en: http://goo.gl/Ketf6S
-
FLIPBOOK.INFO. “History”. [En línea] [Última consulta: Febrero 2014]. Disponible en: http://goo.gl/yKvUux
-
CASTON, Rick. “Vaudeville”. [En línea] [Última consulta: Febrero 2014]. Disponible en: http://goo.gl/udZfWw
-
BERENGUER, Xavier. “Pioneros de la animación”. [En línea] [Última consulta: Febrero 2014]. Disponible en: http://goo.gl/RmdMDO
-
MARTINEZ-SALANOVA, Enrique. “El cine de animación”. [En línea] [Última consulta: Febrero 2014]. Disponible en: http://goo.gl/ksWwc9
-
EFECTO HD. “El arte de la rotoscopia: un poco de historia”. [En línea] [Última consulta: Febrero 2014]. Disponible en: http://goo.gl/SpDo5L
-
FELIX THE CAT PRODUCTIONS. “Félix the cat by Otto Messmer: History”. [En línea] [Última consulta: Febrero 2014]. Disponible en: http://goo. gl/zAOQUj
-
CRANDOL, Michael. “The History of Animation: Advantatges and Disadvantatges of the Studio System in the Production of an Art Form”. [En línea] [Última consulta: Febrero 2014]. Disponible en: http://goo.gl/JouBmL
-
STURM, Constanza. “7 innovaciones de Disney en sus 90 años de exis-
tencia”. [En línea] -
[Última consulta: Febrero 2014]. Disponible en: http://goo.gl/U1xhU1
-
SANDERS, Adrien-Luc. “What is an Animation Stand?”. [En línea] [Última consulta: Febrero 2014]. Disponible en: http://goo.gl/XswWZg
-
SIMON FRASER UNIVERSITY. “Thomas W. Calvert”. [En línea] [Última consulta: Febrero 2014]. Disponible en: http://goo.gl/3quKxu
-
HALL, Valarie. “Mike the talking head”. [En Línea] [Última consulta: Febrero 2014] Disponible en: http://goo.gl/LaEPQz
-
UNIVERSIDADE DA CORUÑA. “Sistemas Adaptativos y Bioinspirados en Inteligencia
-
Artificial: Historia del MOCAP”. [En línea] [Última consulta: Febrero 2014] Disponible en: http://goo.gl/lTOsjb
-
TRON WIKIA. “Bit: Personaje de la película T ro n (198 2)” [En línea] [Última consulta: Febrero 2014] Disponible en: http://goo.gl/vgIQyK
-
PIXAR Animation Studios [En línea] [Última consulta: Febrero 2014] Disponible en: http://goo.gl/gauvta
-
LUCASFILM [En línea] [Última consulta: Febrero 2014] Disponible en: http://goo.gl/ESjIsK
-
DREAMWORKS Animation [En línea] [Última consulta: Febrero 2014] Disponible en: http://goo.gl/SOkN1B
-
AVATAR [En línea] [Última consulta: Febrero 2014] Disponible en: http:// goo.gl/ILFX9I
-
FURNISS Maureen. “MIT Media Lab: Motion Capture” [En Línea] [Última consulta: Febrero 2014] Disponible en: http://goo.gl/N5r6Oh
-
MOCAP.LT Studio. “Motion Capture” [En línea] [Última consulta: Febrero 2014] Disponible en: http://goo.gl/6Foin6
-
WILSON, An, 2012. “Dibujos anatómicos de Leonardo da Vinci [En línea] [Última consulta: Febrero 2014] Disponible en: http://goo.gl/3od1lf
-
SYNERTIAL. “Animazoo IGS-180”. [En línea] [Última consulta: Febrero 2014] Disponible en: http://goo.gl/VvDmky
-
WALCZAK, Kleiser, 1990. “Don’t Touch Me! [En línea] [Última consulta:
60
Febrero 2014] Disponible en: http://goo.gl/7GxN2l -
SIGGRPAH [En línea] [Última consulta: Febrero 2014] Disponible en: http://goo.gl/VMB5e4
-
FIFTH Dimension Technology. “Alias Kaydara MOCAP”. [En línea] [Última consulta: Febrero 2014] Disponible en: http://goo.gl/8a8AVM
-
TEHRANI, Bijan, 2004. “Kaydara’s MOTIONBUILDER 5”. [En línea] [Última consulta:
-
Febrero 2014] Disponible en: http://goo.gl/J1QKIL
-
AUTODESK Press Releases Archive, 2004. “Alias To Acquire Kaydara”. [En línea] [Última consulta: Febrero 2014] Disponible en: http://goo.gl/ qw36KM
-
DISCOVERY News, 2009. “Avatar: Motion Capture Mirror Emotions”. [En línea] [Última consulta: Febrero 2014] Disponible en: http://goo.gl/0ay5YD
-
DAILYMOTION, 2012. “A Christmas Carol: MOCAP Making of”. [En línea] [Última consulta: Febrero 2014] Disponible en: http://goo.gl/DcVjCk
-
PAUR, Joey, 2013. “Avatar 2: Underwater MOCAP”. [En línea] [Última consulta: Febrero 2014] Disponible en: http://goo.gl/liLvNf
-
SCREENRANT, 2013. “The Crazy Tech Behind James Cameron’s Avatar [En línea] [Última consulta: Febrero 2014] Disponible en: http://goo. gl/915V37
-
EDGE, 2009. “Interview: James Cameron” [En línea] [Última consulta: Febrero 2014] Disponible en: http://goo.gl/novpfG
-
THOMPSON, Anne, 2009. “The Innovative New 3D Tech Behind James Cameron’s Avatar” [En línea] [Última consulta: Febrero 2014] Disponible en: http://goo.gl/wvFMzr
-
Filmaffinity. [En línea] [Última consulta: Febrero 2014]. o La bella y la bestia (1991). Disponible en: http://goo.gl/vBwle9 o El secreto de la pirámide (1985). Disponible en: http://goo.gl/ aMWeLc
-
IMDb. [En línea] [Última consulta: Febrero 2014]. o Fantasía (1940). Disponible en: http://goo.gl/Vkzwg7
61
o Futureworld (1976). Disponible en: http://goo.gl/8vmaue o Star Wars: Episode IV – A new hope (1977). Disponible en: http:// goo.gl/Kvoh5N o Jurassic Park (1993). Disponible en: http://goo.gl/ou4re4 o Toy Story (1995). Disponible en: http://goo.gl/I2xs8Q o Final Fantasy: The Spirits Within (2001). Disponible en: http://goo.gl/ Pu6sPM o The Polar Express (2004). Disponible en: http://goo.gl/Sr08mN o James Cameron. Disponible en: http://goo.gl/aqwf8b o Monster House (2006). Disponible en: http://goo.gl/XGqwGT o Beowulf (2007). Disponible en: http://goo.gl/H1WzuO -
WIKIPEDIA. [En línea] [Última consulta: Febrero 2014]. o “Persistencia de la visión”. Disponible en: http://goo.gl/BcH7PR o “Animation Stand”. Disponible en: http://goo.gl/ZDmw1M o “Personajes Disney”. Disponible en: http://goo.gl/vdKep6 o “Peter Foldes”. Disponible en: http://goo.gl/iROVLn o “John Lasseter”. Disponible en: http://goo.gl/EckP3y o “Captura de movimiento”. Disponible en: http://goo.gl/WT5KmM o “Motion Capture”. Disponible en: http://goo.gl/JJVZ6u o “Autodesk”. Disponible en: http://goo.gl/0ApLMy o “Eadweard Muybridge” Disponible en: http://goo.gl/lce6Kd o “Etienne-Jules Marey”. Disponible en: http://goo.gl/1EyQPi o “The Moxy Show”. Disponible en: http://goo.gl/seJ8av
62
Contenido del disco Documentos: Memoria (Formato: PDF imprimible). Memoria (Formato: PDF pantalla). Memoria (Formato: Indesign, empaquetado).
Multimedia: Making of TYR (Formato: MP4). Descripción: Diseño y desarrollo del personaje. Making of VFX (Formato: MP4). Descripción: Efectos especiales e integración. TYR PROJECT (Formato: MP4). Descripción: Ejemplo de integración del personaje en un entorno real.
Desarrollo:
Archivos de modelado del robot. (Formato: Blender). Mapas UV. (Formato: PNG). Capturas de movimiento. (Formato: BVH).
Archivos para animación y retargeting. (Formato: FBX). Archivos de diseño gráfico. (Formato: Photoshop). Archivos para iluminación y texturizado. (Formato: Maya, proyecto). Archivos para la impresión 3D. (Formato: Zbrush y OBJ). Renders e imágenes varias. (Formatos: JPEG y PNG). Los proyectos/archivos de Premiere (Postproducción) y After Effects (Composición y VFX) no han sido incluidos en el DVD debido a su gran tamaño.
63
AGRADECIMIENTOS ERAM Universitat de Girona BLOOM Centre 3D Digital Rebel Art School
Jordi Márquez Luís Arizaga Robert González Xavi Caimel John Revell Daniel Carrasco Pau Puigdemont Familia y amigos
64
ANEXO 1 Especificaciones técnicas del traje IGS-180 Traje Tiempo de arranque incluyendo el tiempo para ponerse el traje: >5mins Peso del sistema: 1.5Kg Rango de tamaño y peso del actor: Infinito Precisión de escalado del esqueleto: Sí Posibilidad de manipular la longitud de los huesos después de capturar: Sí Posibilidad de manipular los key frames después de la captura: Sí Material del traje: Licra Sumergible: No Temperatura de operación: -10 a 50ºC Cableado: Cadena margarita (Daisy chain) Cableado industrial: Opcional
Sensores: Nº de IMUs: 17 (+1 de repuesto) Frecuencia de actualización inercial: 500 H< Max. Tasa Angular: +1200 grados/segundo Resolución del sensor angular: <0.01 grados Euler: <1 grado
65
Pitch: <1 grado Rotación: <0.2 grados Rango del acelerómetro: +2g Interferencia magnética: Compensación estándar Posibilidad de ajustar la compensación magnética después de la captura: No Calibración de los IMU: Calibrados de fábrica. Conectividad: WiFi Rango: 50 metros.
*180i Interferencias magnéticas: Compensado avanzado Posibilidad de ajustar la compensación magnética después de la captura: Sí
Dimensiones / Potencia / Peso Dimensiones de los IMU: 5.07cm x 1.45cm x 0.92cm Peso de los IMU: 11.2 gramos Dimensiones de la MPU: 85cm x 18cm x 2.3cm Peso de la MPU: 45 gramos Batería: 20Amp/hr Duración de la batería: 3 horas Cargador DC: Incluido Peso del paquete para envío: 15kg.
66