Digital Production

Page 1

ISSN 1433-2620 > B 43362 >> 15. Jahrgang >>> www.digitalproduction.com Published by

Deutschland Österreich Schweiz

MAGAZIN FÜR POSTPRODUKTION & VISUALISIERUNG

€ 14,95 € 17,– sfr 29,–

MÄRZ | APRIL 02|11

Rango ILM definiert das Animation-Genre neu

GPU-Power

ZBrush 4.0

Arthaus-Kino in S3D

DP-Schwerpunkt zum Thema GPU-Processing

Pixologic geht in die nächste Runde

Wim Wenders neue Wege am Set und in der Postproduktion


© www.station-nullzwei.de

CINEMA 4D RELEASE 12

Die neueste Generation von CINEMA 4D ist da. Mit CINEMA 4D Release 12 werden völlig neue Effekte möglich und zahlreiche Aufgaben sind jetzt noch einfacher und schneller zu erledigen, als je zuvor. Informieren Sie sich ausführlich auf www.maxon.de und überzeugen Sie sich selbst.

3D FOR THE REAL WORLD

Farbprofile

Mesh Deformer

Weights Manager IES Lichter

Python

Linear Workflow

Dynamische IK

Dual Transforms

Luftdruck

PoseMorph

Kamera Deformer

Neue Dynamics

Weissabgleich Gelenke Motorantrieb Rigid Bodies Federn

Render Queue Soft Bodies

OpenGL 3.0

Doppelte Präzision

Farbtemperatur

Echte Maßeinheiten WWW.MAXON.DE


AUSGABE 02|11

EDITORIAL | JAN-C. BRUHNKE

Neuzeit + Echtzeit = Kreativität²

DP-Chefredakteur Jan-C. Bruhnke

D

ie Superlativen werden dieser Tage in China aufgestellt. Natürlich auch in Sachen Rechenleistung. Mit dem Tianhe1A steht der derzeit schnellste Supercomputer im National Supercomputing Center in Tianjin, China. Das hochgezüchtete RechenBollwerk stützt sich dabei nicht nur auf die Kraft von Mehrkern-CPUs, sondern nutzt ebenso GPUs für seine Performance. Dafür enthält das System eine Armada an 7.168 Nvidia-Tesla-M2050-GPUs und stattliche 14.336 CPUs. Wollte man die gleiche Performance nur mit CPUs erzielen, wären dazu mehr als 50.000 Prozessoren und doppelt so viel Stellfläche erforderlich. Im High-Performance-Computing ist Unterstützung der Rechenleistung durch die immer potenteren GPUs schon seit längerem eine hochinteressante Entwicklung. Inzwischen wird damit aber nicht nur im wissenschaftlichen Sektor die Performance neu definiert, diese potente Entwicklung greift auch immer mehr in die Profiworkflows im Bereich der 3D-Visualisierung und Postproduktion. In unserem DP-Fokus GPU-Processing ist DIGITAL PRODUCTION diesbezüglich auf Stimmenfang gegangen. Wir wollten von Grafikchip- und Workstation-Herstellern sowie den Software-Entwicklern die Zukunftsaussichten der neuer Techniken ausloten. Nvidias CUDA-Berechnungsarchitektur oder

auch die Programmierplattform OpenCL bilden die Basis für tat- beziehungsweise taktkräftige Unterstützung von der GPU, egal ob bei Schnitt-, Compositing oder RenderLösungen. Und dafür muss man heute nicht mal seinen kompletten Keller für ein System leerräumen. Aktuelle Grafikkartenmodelle im High-End-Bereich von Nvidia und AMD leisten Erstaunliches. Schnellere Berechnungszeiten und Vorgänge nahe der Echtzeit öffnen damit auch ein willkommenes Zeitfenster, damit sich Kreativität innerhalb der Software-Umgebung wieder ein Stück mehr entfalten kann. Tools, die dafür bestens geeignet sind, finden Sie wie immer in unserer Rubrik Animation. Unter anderem kehrt mit Lightwave 10 eine altbekannte 3D-Lichtgestalt zurück. Auch hier wird übrigens der Workflow des Artists via GPU-Unterstützung beschleunigt. Zusätzlich haben wir uns mit ZBrush 4.0 der neuesten Version des beliebten Modellierungs-Tools beschäftigt, das unter anderem maßgeblich das Aussehen der Character unserer Titelgeschichte zu „Rango“ digital

definiert hat. Die weltweit unangefochtene VFX-Schmiede ILM betritt mit seinem ersten Animation-Featurefilm eine neue Bühne. Keine Frage, dass die Effect-Crew, die schon Captain Jack Sparrow die Meere unsicher machen ließ, auch hier zahlreiche Tricks mit auf den Production-Turn genommen hat. Trotz der trockenen Gefilde im Italo-WesternStyle ist „Rango“ dabei eine feucht-fröhliche Comedy geworden, die sich entschieden vom Mainstream abhebt. Und, wie sollte es auch anders sein, auch hier war mit Plume ein Simulations-Tool auf CUDA-Basis dabei, das sich zusätzlichen Support von der GPU holt. Damit musste man ja rechnen! Eine inspirierende DP-Ausgabe wünscht die DP-Redaktion und Jan-C. Bruhnke Chefredakteur DIGITAL PRODUCTION

Nachruf Die Branche trauert um den plötzlichen Tod von Robert Mayer. Der Freund und sympathische Geschäftsführer der Firma Weltenbauer aus Wiesbaden erlitt einen tödlichen Verkehrsunfall. Robert Mayer konnte auf eine lange Karriere im IT-Bereich zurückblicken. Nach seiner Ausbildung bei SIEMENS machte er sich im Jahr 2003 mit seinem Unternehmen „WELTENBAUER“ selbstständig, mittlerweile besteht die Firma aus 15 Menschen und einem Hund und beschäftigt sich mit dem Vertrieb, der Anwendung, der Schulung und der Entwicklung von Software sowie Hardware rund um 3D Grafik- und Animation. Das gesamte Team der DIGITAL PRODUCTION trauert mit den Hinterbliebenen um den großen Verlust. In Dankbarkeit für die Jahre der guten Zusammenarbeit bewahren wir ihm ein ehrendes Andenken. Der Geschäftsbetrieb der Firma WELTENBAUER wird fortgeführt. Robert Mayer Im Kreise seiner Mitarbeiter

03


INHALT

Inhalt

18

32

94

AKTUELL Branchen-Stimmen

8

Bis zu hundert Mal schneller!

Konvertiert: „The Green Hornet“ DNeg setzt auf Nvidia Quadro und CUDA VES-Awards: Wenn Träume wahr werden ... Hydraulix erobert die Welt Neue Gesichter RED Mysterium X im Einsatz bei Social Network

Workstation XI-Machines Animate-X3 Ultra

Mehr Flexibilität

31

Adobe ermöglich mit der Mercury-Engine Echtzeit-Funktionalität beim Schnitt mit HighEnd-Formaten

12

Das Flaggschiff Animate-X3 Ultra im Test – wie schlägt sich der Bolide von XI?

Interview XI-Machines

Dreamcatcher

32

Unexpected, die Stuttgarter Postproduktionsfirma, realisiert einen Werbefilm mit kinoreifen Spezialeffekten und reizt CS5 aus

14

Patrick Strenge über Zertifikate, GPUs, 64-Bit-Systeme, Prozessorkerne und die Zukunft der Workstation

GPU-unterstütztes Rendering in 3ds Max Motor des Visualisierers

28

Fusion und Supercomputing: Eric Westphal macht den Leistungsschub auf Grund von OpenCL deutlich

16

Quadro-Karten mit Fermi-Architektur: Was bringt die GPUUnterstützung bei Profi-Tools?

FOKUS

34

Jetzt im Advantage Pack für 3ds-Max: Der iRayRenderer. Erfahren Sie mehr über Einstellung und Optimierung

EDITING Steigerung ist immer möglich …

18

Bildstabilisierung bei CMOS-Kameras

DP im Gespräch mit Danny Shapiro von Nvidia über GPUs, Zertifikate und dem optimalen Workflow

GPUs sind von gestern

22

Plug-ins für AE und FCP

Bruno Stefanizzi über die Entwicklungen von AMD sowie den Einsatz von AMD-Workstations beim Action-Kracher „Machete“

An vielen Fronten

24

Arbeiten mit Luma-Stanzmasken

46

Stanzmasken auf Basis von Luminanz: Sechs Tricks für interessante Effekte auf ungewöhnlichem Weg am Beispiel Final Cut Pro

26 ANIMATION

Vladimir Koylazov, CTO Chaos Group und Core Developer der V-Ray Engine, im Interview mit der DIGITAL PRODUCTION

Luxus-Suite für GPU und CPU

42

Timecodes, Rauschfilter, Colorgrading, automatische Synchronisierung und Drag-and-DropKonvertierung zum Nachrüsten

DP befragte Co-Founder und CTO Bruno Nicoletti von The Foundry zum Thema GPUBeschleunigung und deren Einsatzgebiete

Gleiche Renderqualität, nur schneller

38

Kein Rolling Shutter mehr bei CMOS: Die Plugins „Lock and Load X“ und „Mercalli V2“ für Final Cut Pro im Test

Viel Wirbel um VFX

27

50

„Hexe Lilli 2“ – DIGITAL PRODUCTION sprach mit dem VFX-Supervisor Jan Stoltz über die Herausforderungen der Produktion

Enrico Reil spricht über High-End-Workstations und -Sever von CADnetwork sowie den GPUProcessing-Trend

04

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

INHALT

02|11 54

106

101

STEREO 3D Pixologic ZBrush 4

54

Arthaus in 3D

ZBrush ist eines der verbreitetesten Modelliertools. Nun geht die beliebte Software von Pixologic in Runde 4

Manndeckung beim Rendering

58

Postproduction-Tanz mit SGO Mistika

62

MAKING OF Im Tal der gesetzlosen Animation

Endlich ein Update von Lightwave 3D. Aber ist es NewTek gelungen, die Auszeit von fast einem Jahr aufzuholen?

Visualisierung in 5 Minuten

66 Posing à la Dreamworks

101

Mit „Megamind“ hat DreamWorks das Superhelden-Genre in die CG-Welt transferiert. Die DP sprach mit dem Character TD

70 Postapokalyptische Rostlaube

In Zusammenarbeit mit der SAE hat sich die DP mental ray für C4D angesehen. Arndt von Koenigsmarck gibt zahlreiche Tipps

106

Wenn der dritte Weltkrieg kommt, übernehmen die Roboter. Robert Lechl hat einen in modo 401 gebaut und zeigt, wie er es gemacht hat

COMPOSITING Titelrennen

94

Nach „Pirates of the Caribbean“ kümmert sich Gore Verbinski mit „Rango“ um den Wilden Westen – im ersten ILM-Animationsfilm

Lumion3D soll für Normalanwender schnelle, einfache und praktisch lernkurvenfreie Visualisierungen ermöglichen

mental ray goes C4D

90

Niemand kennt Mistika – aber Christian Tröger hat es bei Pina verwendet und zeigt, warum Sie es doch kennenlernen sollten

Die deutliche Preissenkung bei der Grundanschaffung macht RenderMan jetzt für alle interessant

Lightwave 10

86

Wim Wenders verewigt Pina Bauschs Tanztheater und bringt einen der realsten 3D-Filme, den es bis jetzt gab

Education-News

111

RED One – Money: none!

112

73

Von der FH Potsdam zu einem der jüngsten Art Director Hollywoods: DP im interviewte Daniel Klöhn, Titeldesigner von „Tron: Legacy“

Wie stemmt man eine Low-Budget-Produktion mit Profi-Tools?

Cyberpunk in Bremerhaven

116

Nicht nur „Tron“ erzählt aus der Welt von morgen

COLOR Storm als Schnittstelle für R3D-Daten

78 ON TOUR

RED für jedermann – The Foundry entwickelt ein Programm, das alle Aufgaben für das Handling mit Material aus RED-Kameras erfüllt

Termine Fit werden: video2brain-Tutorials im Abo

AUDIO

126 130

RUBRIKEN Offen(-sive) Wie schlägt sich Avid Pro Tools 9 Native, das erste ProTools, das nicht mehr „Digidesign“ im Namen trägt

82

Editorial DP-Guide Print Impressum Inserentenverzeichnis Gewinnspiel

3 119 125 125 128

05


INHALT

Web

02|11

iwww.digitalproduction.com

Rango Alles zu ILMs Chamäleon lesen Sie ab Seite 94, Videos sehen Sie auf digitalproduction.com

Unexpected Kinoqualität aus Stuttgart: In der DP auf Seite 32 und im Web als Making of

AKTUELL

Featurette Wie entstand „Rango“?

Die Website der DIGITAL PRODUCTION hält neue Services für den User bereit. Die Website gliedert sich grundsätzlich in zwei Bereiche: Einen freien Bereich und einen Bereich exklusiv für Abonnenten. Dieser kann über den Log-in aktiviert werden. Hier gibt es wertvollen Content, der aber nur Abonnenten der DIGITAL PRODUCTION vorbehalten ist.

. CONTENT IN DIESER AUSGABE

Rango in Bewegung Mit einem Chamäleon in der Wüste versucht sich Industrial Light & Magic an einem selbstproduzierten Animations-Abenteuer. Ab Seite 94 lesen Sie alles zum giftgrünen Helden, auf digitalproduction.com sehen Sie Trailer und ein Making of.

Unexpected Das Stuttgarter Unternehmen Unexpected produzierte für Batelco Infinity einen Werbespot in Kinoqualität – und lässt sich beim Making of in allen Schritten über die Schulter schauen.

So erhalte ich Zugriff zum exklusiven DOWNLOAD-PORTAL: 1. Unter www.digitalproduction.com kostenlos registrieren. 2. In der Service Area mit Kundennummer (Ihre Kundennummer finden Sie auf dem gelben Versandetikett ganz oben) und PLZ den Zugang freischalten. 3. Los geht‘s – jetzt können Sie alle exklusiven Online-Vorteile für Abonnenten nutzen.

SAE-Video-Workshop video2brain-Lektion In Zusammenarbeit mit video2brain zeigen wir ein Kapitel aus dem neuen Videotraining „After Effects CS5“.

video2brain v2b-Lektion „Adobe After Effects CS5 – Das neue umfassende Training“ führt von den ersten Schritten bis zu den Tricks der Profis. In diesem Kaptiel: Rendern und Renderlisten

06

mental ray goes Cinema 4D Jeder hat seinen Lieblingsrenderer und C4D-Fans können sich jetzt auch auf mental ray freuen. Im frei zugänglichen SAE-Workshop zeigt Cinema-4D-Spezialist Arndt von Koenigsmarck, was dieser als Betaversion bereits alles kann.

WWW.DIGITALPRODUCTION.COM


12: $9$,/$%/(

ZZZ SL YU FRP


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Konvertiert: „The Green Hornet“ D

as Münchner VFX-Studio Trixter konvertierte 60 Shots, damit der grüne Held das Verbrechen im Kino auch in 3D bekämpfen kann. Für die Konvertierung, die im Herbst 2010 zwei Monate in Anspruch nahm, war das Stereo-Supervisor-Team aus Dietrich Hasse und Jan Stoltz verantwortlich. DP fragte bei Stoltz nach, der zuletzt als VFXSupervisor die Produktion von Hexe Lilli 2 betreute (siehe auch Seite 50 ff.).

DP: Hallo Jan, für welche Shots wart ihr beauftragt? Jan Stoltz: Wir haben viele von den stereoskopischen TrailerShots bearbeitet, also ungefähr ein Drittel der Shots. Zudem gab es Dialog-Sequenzen, Kamerafahrten oder Clos-ups – ein wilder Mix an Einstellungen. DP: Welcher Shot war besonders aufwendig? Jan Stoltz: Die Szene, in der Hauptdarsteller Seth Rogen eine Party in seinem Appartement

Und Action Kato (Jay Chou, l.) und Britt Reid (Seth Rogen, r.) im Kampf gegen das Verbrechen in Los Angeles

feiert. Dort befinden sich viele Leute auf engstem Raum und verdecken sich gegenseitig. Obwohl der Shot relativ kurz war, war es einer der anspruchsvollsten, der uns über zwei Wochen beschäftigt hat.

Bilder: © Sony Pictures Releasing GmbH

DP: Kannst du mehr Details verraten? Jan Stoltz: Das Wesen der Konvertierung besteht ja zum Großteil aus dem Rotoskopieren. Um die einzelnen Elemente dreidimensional darstellen zu können, muss man sie voneinander trennen. Wegen des linken und des rechten Auges muss man teilweise auch ein Stück weit hinter die Figuren schauen können. Da wir

nur ein zweidimensionales Bild hatten, mussten wir den kleinen Teil, den man hinter einer der Figuren sehen kann, versetzen oder eben erzeugen. DP: Je mehr Figuren und gestaffelte Elemente in einem Raum enthalten sind ... Jan Stoltz: ... desto komplexer wird das Ersetzen von dem, was sich hinter einer Figur befindet. Das war schon sehr anspruchsvoll und wäre eigentlich ein Shot gewesen, den man klassischer-

Bilder: DoubleNegative

DNeg setzt auf Nvidia Quadro und CUDA

Nominiert „Iron Man 2“ liegt im Rennen um den Oscar für die besten Visual Effects

Double Negative (DNeg) mit Sitz in London ist eines der führenden europäischen Unternehmen bei der Konzeption visueller Effekte und computergenerierter Animationen für die Filmindustrie. Ihre preisgekrönten visuellen

08

Effekte finden sich in Filmen wie „Inception“, „Sherlock Holmes“ oder „2012“. Zur Beschleunigung der Generierung visueller Effekte setzte Double Negative auf Nvidia-GPUs der Quadro-Serie mit CUDA-Architektur.

Ein zentrales Element im VFX-Workflow von DNeg ist ihr eigenes proprietäres Fluid-Simulations-System Squirt. Damit lassen sich Staub-, Feuer und Rauch-Effekte durchführen ebenso wie Flüssigkeitssimulationen. In einem sechsmonatigen Research&Development-Projekt wurde Squirt für Nvidias CUDAArchitektur optimiert. Dies habe zu einem Performance-Wachstum um den Faktor 20 geführt. Artists erhielten Simulationsergebnisse wesentlich schneller, ohne jedoch Beeinträchtigungen in ihrem Workflow zu erfahren, erklärte Dan Bailey, Lead GPU Developer bei DNeg. Zudem nehme die britische Ef-

fektschmiede gerade ein Upgrade auf die neue Quadro 4000 vor. Der neue GPU-optimierte Workflow wird bereits an neuen Projekten angewandt wie „John Carter of Mars”, „Captain America: The First Avenger”, „Paul“ oder „Attack the Block”.

Drei Filme, an denen DNeg mitgewirkt hat, sind im Übrigen für einen Visual-Effects-Oscar nominiert: „Inception“, „Iron Man 2“ und „Harry Potter and the Deathly Hallows – Teil 1“. Inception – siehe VES Awards – führt auch die Nominierungsliste bei den Oscars an, und zwar für Best Picture, Original Screenplay, Original Score, Cinematography, Art Direction, Sound Editing und

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

Sound Mixing. Inceptions VFX Supervisor und Gründungsmitglied von DNeg, Paul Franklin, ist mit dem SFX Supervisor Chris Corbould und den DNeg-VFX-Supervisors Peter Bebb und Andrew ❯ sha Lockley nominiert.

W

gewaltigen Arbeitsauf wand bedeutete, der von der Visual Effects Society gleich vier Mal ausgezeichnet wurde. Altmeister Paul Franklin betreute als Visual Effects Supervisor die digitalen Traumwelten des Regisseurs Christopher Nolan und ist schon für dessen Fortsetzung der Batman-Filme engagiert: „The Dark Knight Rises“ wird voraussichtlich im nächsten Jahr in die Kinos kommen. Ebenfalls mit einem Award ausgezeichnet wurde das neue Filmprojekt von Clint Eastwood: „Hereafter – Das Leben danach“, und zwar für „Outstanding Supporting Visual Effects in a Feature Motion Picture“ (Michael Owens, Joel Mendias, Bryan Grill und Danielle Plantec). In „Hereafter“ geht es um drei Menschen, die auf

Bild: © Filmakademie Baden-Württemberg

er „Inception“ im Kino gesehen hat, war sicherlich überwältigt von den verdrehten Traumwelten, die sich gegen die Gesetze der Schwerkraft verschieben, drehen und auf den Kopf stellen. Ob der Kreisel nun doch noch umfallen wird oder das Filmende nur die Fortsetzung eines langen Traumes von Hauptdarsteller Leonardo DiCaprio andeutet, bleibt offen. Sicher ist aber, dass die Produktion von „Inception“ einen

unterschiedliche Weise mit ihrer Sterblichkeit konfrontiert werden. Matt Damon spielt dabei den amerikanischen Arbeiter George, der eine besondere Verbindung zum Jenseits entwickelt. Bei diesem Film zeichnete Michael Owens als VFX-Supervisor verantwortlich. Owens ist ein Altmeister seines Fachs, arbeitete 20 Jahre bei ILM und war unter anderem an Produktionen wie E.T., Indiana Jones, Van Helsing oder Tropic Thunder

beteiligt. Die Tsunami-Animation aus „Hereafter“verantwortete ScanlineVFX und wurde damit als deutsche Firma mit einem der wichtigsten Preise der Branche ausgezeichnet. Darüber hinaus ist diese Sequenz auch für den Visual-Effects-Oscar nominiert (Michael Owens, Bryan Grill, Stephan Trojansky und Joe Farrell). Auch „Drachenzähmen leicht gemacht“ von Dream Works wurde dieses Jahr mit drei VES Awards bedacht. Das aufwendig gestaltete Animationsabenteuer um einen Wikingerjungen, der sich mit den vermeintlich feindlichen Drachen befreundet, erhielt u. a. einen Award in der Kategorie „Outstanding Animation in an Animated Feature Motion Picture“. Head of Character Animation war Simon Otto, ein

gebürtiger Schweizer und Absolvent der Les Gobelins Animation School. Zu seinen Filmcredits zählen unter anderem „Kung Fu Panda“, „Flutsch und weg“ oder „Ab durch die Hecke“. Das Redaktionsteam der DIGITAL PRODUCTION hat sich gefreut, mit „Loom“ einen guten Bekannten unter den VES-Gewinnern zu finden. Vergangenes Jahr wurde das Studentenprojekt um eine Motte, die den Kampf gegen eine Spinne verliert, mit einem „Sonderpreis der Jury“ beim animago AWARD 2010 ausgezeichnet. Das Studentenprojekt aus der Schmiede der Filmakademie Baden-Württemberg überzeugte in Los Angeles und erhielt eine Auszeichnung in der Kategorie „Outstanding Visual Effects in a Student Project“. Viele weitere Infos zu den diesjährigen VES Awards sowie den Preisträger der anderen Kategorien findet man unter dem Link www.visualeffectssociety .com/ves-awards ❯ sha

Bild: © 2011Warner Bros. Ent.

DP: Kann man hier einen Trend erkennen? Jan Stoltz: Durchaus. Man muss Stereoskopie ja nicht als reine Anlehnung an die Realität verstehen, sondern auch als ein Element, mit dem man spielen kann. Der Regisseur kann über die Tiefe einer Szene entscheiden, wo er seine Darsteller haben möchte oder Elemente platziert werden sollen. ❯ sha

Am 1. Februar 2011 war es wieder soweit. Herausragende Produktionen wurden von der Visual Effects Society (VES) in insgesamt 24 Kategorien ausgezeichnet. Dabei hat das visuell anspruchsvolle Filmprojekt „Inception“ insgesamt vier Auszeichnungen abgestaubt. Ein VES Award ging an das Studio ScanlineVFX für ihre Tsunami-Animation in von Sabine Hatzfeld „Hereafter – Das Leben danach“.

Bild: © Paramount

DP: Warum hat man sich nicht gleich für 3D entschieden? Jan Stoltz: Nun, „The Green Hornet“ wurde bewusst in 2D gedreht, um ihn anschließend zu konvertieren. Regisseur Michel Gondry ist dafür bekannt, dass er stark mit visuellen Elementen und der Wahrnehmung spielt – seine Musikvideos sind ja legendär. Gondry wollte in den Einstellungen immer etwas mehr Tiefe im Bild haben, als es realistisch ist beziehungsweise als ein stereoskopischer Film hervorbringen kann. Man kriegt im Normalfall in einen 3D-Film nicht mehr Tiefe rein, als das, was man aufgenommen hat. Der Augenabstand ist vorgegeben und lässt sich im Nachhinein nicht mehr verändern.

Wenn Träume wahr werden ...

Bild: © 2011Warner Bros. Ent.

weise wegen der vielen Details stereoskopisch drehen würde.

AKTUELL | BRANCHE

09


AKTUELL

FOKUS

Kurzmeldungen

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Neue Gesichter

TABELLENFÜHRER

10

Die CinePostproduction ernennt Niederlassungsleiter für die Standorte Berlin und Köln. Markus Bäuerle, Leiter des Digital Lab in Berlin, verantwortet seit dem 1. Januar 2011 die Niederlassungsleitung des Standorts. Der Kölner Vertriebsleiter Sebastian Gassner hat ebenfalls zum 1. Januar die Niederlassungsleitung in Köln übernommen. Markus Bäuerle kam 2006 zur CinePostproduction. Der Diplomingenieur für Medientechnik (FH) begann seine praktische Ausbildung bei Geyer Berlin in der Fertigungsleitung, bevor er als Projektbetreuer im Film und Digital Lab renommierte DigitalIntermediate-Projekte betreute. Ab Januar 2009 übernahm er die Leitung des Digital Lab und des Projektbetreuer-Teams. In dieser Funktion war er maßgeblich am Ausbau der Workflows für Film und digitale Cinematographie sowie der OnSet-Services beteiligt. Seit Dezember 2009 leitet er darüber hinaus für die

Sebastian Gassner Niederlassungsleiter am Standort Köln

Markus Bäuerle Niederlassungsleiter am Standort Berlin

CinePostproduction ein zweijähriges Forschungsprojekt zur langzeitstabilen Archivierung digitaler Bild- und Tondaten auf 35-mm-Film. Sebastian Gassner ist seit 1. Januar 2009 für den Vertrieb bei der CinePostproduction Geyer Köln zuständig. Zuvor verantwortete er als Produktionsleiter bei der ma.ja.de. filmproduktion die Entwicklung, Produktion,

Postproduktion und das Controlling zahlreicher nationaler und internationaler Kino- und Fernsehdokumentationen. Ab dem Jahr 2007 leitete er zusätzlich die Leipziger Niederlassung des Produktionsunternehmens. Sebastian Gassner schloss sein Studium der Medienwirtschaft an der Hochschule der Medien in Stuttgart als Diplom-Wirt❯ sha schaftsingenieur ab.

RED/Mysterium X bei Social Network Der oscarnominierte Publikumsfavorit „The Social Network“ von David Fincher ist in zweifacher Hinsicht einzigartig: Zum einen ist es der erste Film, der sich mit der Entstehung einer Webseite beschäftigt und dabei nicht in halblustige Nerd-Witze abgleitet, und zum anderen ist es der erste Film, der mit der RED One in 4K aufgezeichnet wurde, mit dem neuen Mysterium-X-Sensor. Diese Datenmengen wurden dann mit „Pablo“ von Quantel farbkorrigiert und gefinished. Der größere Dynamikumfang des gigantischen Sensors – insbesondere bei Szenen mit schlechtem Licht – wurde für DI und Ausspielung an Lightiron gegeben, ein in Los Angeles ansässiges Postproduktionsstudio. Aber Dreh und Post waren komplett digital. David Fincher hat in 4k aufgezeichnet und noch am Set – mit

Bild: Sony Pictures Home Entertainment

Alexander Schillinsky, bisher Producer des Hamburger Standortes ist zum Geschäftsführer der LIGA_01 COMPUTERFILM HAMBURG GmbH berufen worden. Der 30-Jährige wird gemeinsam mit Pablo Bach das operative Geschäft verantworten. Schillinsky war zuvor u.a. im TVDepartment bei Jung von Matt tätig. FLEXIBLES MIETMODELL Das Kölner Handels- und Systemhaus Wellen+Nöthen hat ein neues Modell für Langzeitmieten eingeführt. So stelle das Unternehmen einen individuell zugeschnittenen Technik-Pool zur Verfügung, der während des gesamten Mietzeitraums beim Kunden verbleibt. Berechnet würden nur die tatsächlichen Einsatztage. Im Gegenzug habe Wellen+Nöthen die Möglichkeit, an einsatzfreien Tagen die Technik für andere Mietanfragen abzurufen. Die Mietausstattung werde durch sechs neue Grass-Valley-LDK-8000 Elite-Kamerazüge inklusive 7“ LCD Viewfinder aufgestockt. Neu im Verleihgeschäft seien zudem Canon-HJ22-HD-ENGObjektive sowie die neueste Generation an EVS-HD-Produktionsservern des Typs XT[2]+. Der Mietpool werde durch Grafiksysteme von Vizrt und Panasonic P2 Recorder/Player des Typs AJ- HPS1500 erweitert. BCC BEIM NDR Im Zuge eines Schnittplatzupdates hat der Norddeutsche Rundfunk (NDR) allen Plätzen eine Version des Effektpakets „Boris Continuum Complete“ verpasst. Für die Effekte in seinen Produktionen verwendet der NDR Apples Final Cut Pro Edit Suit. Laut NDR kommen allerdings aus der Effektsammlung am häufigsten Glow-, Blur- und Farbeffekte zum Einsatz. Des Weiteren dient BCC zur Erweiterung der Möglichkeiten von Final Cut, da BCC DVE und DVE Basic für Bild-im-Bild-Effekte sind, da das Antialiasing an den Bildkanten besser arbeitet und es nicht zu unschönen Treppchenbildungen kommt. ❯ ei/sha

der RED-Rocket-Beschleunigerkarte – vom Schnitt-Assistenten Tyler Nelson in ProRes einlesen lassen. Nach dem Schnitt wurde auf 2k heruntergerechnet, ins DPX-Format, und an Lightiron für das Colorgrading weitergegeben. Doch hier wurde es ungewöhnlich: Lightiron hatte das Pablo-System, einen Sony T420 / 4K-Projektor und eine 13-Meter-

Leinwand in ein improvisiertes Kino in die Studios mitgenommen und dort Colorgrading und Testvorführungen abgehalten. So konnte vor Ort alles angepasst werden und durch den nativen Workflow der RED-Dateien war keine Konvertierung nötig. Nur nach der Produktion ist der Film auf 35 mm ausbelichtet worden – für Kinos, die noch nicht digital projizieren. ❯ ei

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

POWERED BY

AKTUELL | BRANCHE

Bild: Hydraulx

Hydraulx erobert die Welt

.T. hat nach Hause telefoniert – aber wer ist zum Abholen gekommen? Nachdem Kritiker und Kinogänger „Skyline“ eher links liegen ließen, müssen wir auf die Besonderheiten des Films eingehen – unter anderem, dass derart effektgesättigtes Action/SciFi-Kino seit District 9 von der großen Leinwand verschwunden war, und dass es der erste Film war, in dem die Postproduktion in nur einem Format arbeitete. Und da das Budget lediglich

E

te relativ zu verschiedenen Basen eingesetzt werden. EXR bietet dadurch ein „Zeichen“-Bit, 5 Bits für Exponenzialwerte und 10 Bits für Ziffernstellen. Dies bedeutet, dass in der Film-Datei 30 Blendenstufen möglich sind. Hydraulx hat sich für den Schluss des Workflows auf Digital Visions „Nucoda

für den Dreh auf die RED One MX gesetzt, um im digitalen Workflow von Anfang an die Dynamik des Sensors ausreizen zu können. Denn bei dieser Kombination können Bilddaten im offenen EXR-Format direkt aus den RAW-Dateien der RED extrahiert werden, ohne Qualitätsverlust und vor allem, ohne die Originaldaten verändern zu müssen. OpenEXR hat sich mittlerweile zu einem Standardformat entwickelt, welches in kleinen Filmen, die fast im „Genre“ angesiedelt sind, bis zu großen Pixar-Produktionen zum Einsatz kommt. Im Gegensatz zu anderen Firmen haben Hydraulx und der Regisseur allerdings entschieden, die komplette Produktion bis zum Mastering in OpenEXR durch-

Kostenloses Video-Tutorial: »DP-Autor Arndt von Koenigsmarck gibt Einblicke in die Einbindung des Renderers mental ray in C4D. Unterstützend zum Workshop auf Seite 70 zeigt das Tutorial anschaulich erste Einstellungen, Erklärungen von verschiedenen Rendermethoden und viele weitere Kniffe sowie Hintergründe. « Ab 28. Februar 2011 auf www.digitalproduction.com

10 Millionen Dollar betrug, ist die sonst so teure Postproduktion einen Blick wert.

Film Master“ gestützt, der durch das 32-Bit-Floating-Prozessing beschleunigt wurde. Ein weiterer Geschwindigkeits gewinn war eine selbstentwickelte Software, welche das Tracken von VFXShots komplett automatisiert. Die Regisseure des Films, Colin Strause und Greg Strause, haben

zuführen, was Skyline zum ersten Film macht, der komplett in einem Format produziert wurde. Bruno Munger, Senior Product Manager bei Digital Vision dazu: „Das Team von RED erschuf eine neue Version seines Software-DevelopmentPakets, wodurch sowohl Digital Vision als Softwarehersteller als auch Hydraulx als FX-Studio den Workflow komplett auf ein Format reduzieren konnten. Insbesondere der HDR-Mode der Dateien hat dem Team in der Postproduktion Spaß gemacht, da sowohl Grading als auch Compositing und Mastering auf einmal wesentlich mehr kreative Spielräume haben.“ ❯ ei

11

SAE Institute, das heißt: i praxisnahes Studieren auch ohne Abitur i Bachelor- und MasterAbschluss* i 35 Jahre Lehrerfahrung i modernste Ausstattung i erfahrene Dozenten i 7 x in Deutschland, 50 x weltweit i aktive, weltweite Ehemaligenvereinigung i www.sae.edu Anzeige

Hydraulx, das für die Effekte verantwortliche Studio, das unter anderem bei Iron Man 2, Avatar und Wolverine mit an Bord war, gruppierte seinen Workflow um Dateien im OpenEXR-Format. Dieses Bildformat ist ein HDRDateiformat, welches von Industrial Light & Magic entwickelt und mit einer freien Lizenz veröffentlicht wurde. Besonderheit dieses Dateityps ist, dass es 16-Bit-Informationen für jeden Kanal bietet, mit einem sogenannten Floating Point, der wesentlich mehr Daten repräsentieren kann, da die Wer-

* in Kooperation mit Middlesex University, London


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Workstation XI-Machines Animate-X3 Ultra Wenn der Progress-Balken kurz vor Mitternacht von 4 auf 5 % springt, stellt man sich unwillkürlich die Frage, was mit einem schnelleren Rechner möglich wäre und ob man sich nicht schon längst zu Hause auf der Couch räkeln würde, anstatt mit müden Augen den Sprung auf 6 % abzuwarten. Doch grau ist alle Theorie. Um herauszufinden, was im Bereich Grafik, Animation, Videoworkstations im Moment machbar ist, haben wir uns von der Hamburger Firma XI-Machines eines der Spitzenmodelle aus der X3-Animate-Ultra-Serie genauer von Stefan Friebel angeschaut.

D

as edel anmutende Big-Tower-Gehäuse ist stabil, gut verarbeitet, mit abschließbarem Frontpaneel und einem USB, Firewire und Headphone Port auf der Geräteoberseite ausgestattet und bietet Platz für bis zu zehn 3,5“-Geräte und weitere fünf Einschübe für 5.25“-Geräte. Ab Werk wird die X3 „schlüsselfertig“ mit bereits vorinstalliertem Windows 7 64 Bit ausgeliefert, man braucht lediglich die lokalen Netzwerkeinstellungen anzupassen, die Applikationen installieren und es kann losgehen.

Geschwindigkeit Die Basiskonfiguration kommt schon mit zwölf Kernen und 24 Threads

12

Tower Schlicht, funktional, abschließbar und massiv: Die Workstation X3 Animate macht sich in jedem Betrieb gut

Cinebench Traumnoten vergibt das Testtool von Maxon – 17.47 für den CPU-Rendertest, 44.63 FpS beim Open GL-Test

Sicherheit

Nackte Zahlen

Die Stabilität und Ausfallsicherheit eines Systems beginnt beim Netzteil, setzt sich bei der Kühlung und Auswahl der Festplatten und deren Betriebsmodi fort. XI-Machines hat hier alles richtig gemacht: Ein hochwertiges Netzteil mit hohem Wirkungsgrad versorgt Platten, Grafikkarte, Board und die zahlreichen, großen Gehäuse- und Festplattenlüfter. Die verbauten Festplatten sind Enterprise-Edition, beide CPU-Kühler und Lüfter sind mehr als ausreichend groß. Bei der Anzahl an Lüftern könnte man meinen, dass es unter Vollast auf Dauer ziemlich laut wird. Aufgrund der Größe der Lüfter sind niedrige Drehzahlen bei hohem Durchsatz möglich, was zu einem ähnlich niedrigen Gesamtgeräuschpegel führt, wie bei der i7 Extreme Audioworkstation von DAX – auch unter Vollast. Ab Werk sind die beiden 1-TByte-Festplatten für maximale Datensicherheit im RAID Mirror Mode konfiguriert, können aber über das RAID-BIOS im Handumdrehen auf den flotteren Stripe Mode getrimmt werden. Die SSD-Systemplatte ist gegen mechanische Ausfälle nahezu immun, wie es um die Lebensdauer der Speichermodule bestellt ist, weiß man noch nicht so genau, sie sollte allerdings über der der mechanischen Systeme liegen.

Wir wissen jetzt schon einmal, dass die Animate-X3 Ultra gut verarbeitet, ausgestattet und betriebssicher ist, jetzt wollen wir wissen ob sie auch schnell ist. Die kurze Antwort: Ja, sehr! In nackten Zahlen äußert sich das in Cinebench-Werten von 17.47 für den CPU-Rendertest und 44.63 FpS beim OpenGL-Test. Das ist absolute Oberliga, es gibt im Moment wenig Systeme ähnlicher Ausstattung, die diese Werte übertreffen. Der OpenGL/GPU-Testwert ist natürlich abhängig von der montierten Quadro-5000-Grafikkarte, deren Einsatz besonders bei Adobe-CS5-Anwendungen Sinn ergibt. Arbeiten Sie eher im 3D-Bereich, ist auch eine preiswertere Grafikkarte, etwa die Quadro 2000 oder die ATI Fire Pro V5800 ausreichend. Der Performance-Gewinn durch die Quadro 5000 beim Import und Export und Echtzeiteffekten von HD-Videos unter Premiere oder After Effects CS5 ist allerdings erstaunlich und verkürzt, je nach Codec und dessen GPU-Fähigkeiten, die Rechenzeiten dramatisch. Der Upgrade-Preis für die Quadro 5000 sollte ambitionierte CS5-User also nicht abschrecken. Die SSD liefert 277 MByte Durchschnitt pro Sekunde bei einer Zugriffszeit von 0.132 Millisekunden, das RAID im Mir-

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

ror-Mode im Schnitt 101 MByte bei 12,8 Millisekunden Zugriffszeit und 203,9 MByte pro Sekunde und 12,6 Millisekunden im StripeMode. Da am RAID-Controller noch für einige weitere Festplatten Platz ist, sind hier höhere Transferraten bei höherer Kapazität möglich, notwendig ist das für die meisten Szenarien allerdings nicht.

Drumherum Bei einer Workstation dieser Preisklasse ist die Erwartungshaltung an Rechenleistung, Verarbeitung und Komponentenauswahl hoch und wird von XI-Machines auch im Bereich Zubehör erfüllt. Neben der hochwertigen Tastatur und Maus – beide mit Kabel – freut man sich bei der Montage weiterer Festplatten oder Kartenperipherie über die übrigen Ausstattung: ein gutes Antistatikband, ein kompletter, großzügig dimensionierter Satz aller am Gerät vorkommender Schrauben, Nippel etc., Treiber-DVDs und Kurzanleitung mit BIOS-Password. Auch bei der Auslieferung geht man keine Kompromisse ein, die Workstation wird liegend auf einer Europalette versendet. Zwar sind die großen, aktiv gekühlten Heatpipe-Kühler beider Xeon CPUs über eine Montageplatte zusätzlich gesichert, trotzdem kann und ist es schon vorgekommen, dass ein Rechner mit abgebrochenem Lüfter angeliefert wird. Kulanz hin oder her, das kostet ein bis zwei Wochen Zeit und nervt, also lieber gleich gescheit und sicher versenden. Die XI-Machines X3-Ultra-Workstation ist aufgrund ihrer Merkmale bestens für den Ein-Mann-Freelance-Betrieb geeignet: auch unter Vollast leise genug, um direkt am Arbeitsplatz zu stehen, schnell genug für Ein-Tages-Aufträge, zuverlässig durch gute Komponenten, Verarbeitung und Kühlung. Aber auch in nahezu allen anderen Szenarien von CGI, Compositing, Video FX und VideoEdit schlägt sich die X3 Ultra hervorragend. Ob es in einem größeren Produktionshaus mit dedizierter Renderabteilung im Maschinenraum wirklich Sinn ergibt, in jede EditingSuite eine X3 zu stellen, ist fraglich, da man für den Preis auch zwei bis drei durchschnittliche Workstations anschaffen könnte, an der zwei Personen parallel arbeiten können. So-

EQUIPMENT | XI-MACHINES

Technische Daten

XI-Machines Animate-X3 Ultra Vertrieb: Adresse: Internet:

XI-Machines High-Performance Workstations Lokstedter Steindamm 35; 22529 Hamburg www.xi-machines.de

Basispreis ohne Upgrades: 5.440 Euro netto, 6.473,66 Euro inkl. Mwst. CPU: 2x 2.93 GHz Intel Xeon X5670 Hexacore Prozessor Optionale Varianten: 2.40G Hz, 2.67 GHz, 3.33 GHz, X3-CPU Upgrade auf die schnellste verfügbare Intel Xeon CPU (5690 @3,47 GHz) 745 Euro netto Arbeitsspeicher: 12 GB – DDR3 1333 MHz ECC 6x 2048 MB (Triple Channel); Maximalausbau 96 GB X3-Speicherupgrade (Tagespreise); auf 24 GB in 6x 4 GB (ermöglicht den weiteren Ausbau auf 48 GB ohne Module tauschen zu müssen) 495 Euro netto Grafikkarte: Nvidia Quadro 2000 (Dualhead) 1 GB GDR5 Speicher, 1x DVI, 2x Displayport oder ATI FirePro V5800 (Triplehead) 1 GB GDDR5 Speicher, 1x DVI, 2x Displayport; Grafikkartenupgrade von Quadro 2000 auf Quadro 5000 1.395 Euro netto Festplatten: 150 GB Sata2 – 10.000 U/min 2.5“ / 4.2ms / 16 MB Cache; 2 x 1000 GB Sata2 – 7.200 U/min, 32 MB Cache, SSD Upgrade; 128 GB SSD Sata 6Gb/s, 195 Euro netto Laufwerke: 22x Duallayer DVD-Brenner; Upgrade Bluray Combo 55– Euro netto Sonstiges: Tastatur und optische Maus, Big-Tower-Gehäuse Erweiterbarkeit: 5x externe Einschübe für 5,25-Zoll-Komponenten; 10x interne Einschübe für 3,5-Zoll-Festplatten. Entkoppelt, aktiv gekühlt

bald aber die Zeit knapp wird oder ein ungeduldiger Kunde im Nacken sitzt, spielt die X3 ihre Geschwindigkeitsvorteile gnadenlos aus. Besonders beim Import, Export und Echtzeitvideoeffekten in HD sind die Zeitersparnisse durch die Unterstützung durch die Grafikkarte enorm. Wer mit der aktuellen CS5 Suite von Adobe arbeitet, profitiert massiv von der Hardwareunterstützung der Mercury Engine und sollte das Upgrade auf die Quadro 5000 in Betracht ziehen. Andere Applikationen nutzen die Möglichkeiten der GPU-Beschleunigung im Moment noch nicht voll aus, die Quadro 2000 oder Alternativen sind für die allermeisten Anwendungen also völlig ausreichend. Weiteres Sparpotenzial ist bei der Festplattenausstattung vorhanden. Die SSD ist schnell, aber auch teuer. Beim Import größerer Files schlug sich das RAID im Stripe Mode allerdings ähnlich gut. Auch hier gilt, wie bei der

Grafikkartenausstattung, wenn extrem kurze Zugriffszeiten und stabile Dauertransferraten für Ihre Anwendung Sinn ergeben, „rein damit!“.

Fazit Für einen durchaus angemessenen Basispreis erhalten Sie ein überlegt zusammengestelltes System mit enormen Ausbaumöglichkeiten, einer kriminellen Grundperformance, hochwertigen Komponenten und einem umfangreichen Zubehör. Aber auch ohne die Quadro5000-Grafikkarte ist die Performance des Systems immer noch sehr weit vorne. Am besten nehmen Sie den Service von XI-Machines in Anspruch und lassen sich beraten, welche Konfiguration für Ihr Einsatzgebiet am besten geeignet ist. Der Service, die Anlieferung und der Support waren in unserem Fall über jeden ❯ ei Zweifel erhaben.

RAID-Leistung Von Mirror (rechts) über Stripe (Mitte) bis zum SSD-Bench (links) ist die Leistungsentwicklung vorhersehbar, aber immer mehr als ausreichend

13


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Interessante Zeiten XI-Machines, ein Hamburger Workstation-Hersteller, dessen Produkte wir schon bei einigen Produktionen gesehen haben, hat sogar unseren Tester Stefan Friebel überrascht. Grund genug, uns mit dem Geschäftsführer Patrick Strenvon Bela Beier ge zu unterhalten – über die Wünsche der Profis, Zertifikate, 64-Bit-Systeme und GPU-Trends.

V

on BMW über Siemens bis zur Telekom setzten die großen Firmen bei kleinen, prestigeträchtigen Veranstaltungen auf den Hamburger Hersteller. Und was zieht dieser für Schlüsse aus der Erfahrung?

DP: Herr Strenge, welche Entwicklungen hat es in den zurückliegenden Jahren in den einzelnen Geräte-Serien von XI-Machines gegeben? Patrick Strenge: Die wichtigste Änderung ist die Mehrkern-Technologie. Vor kurzem war die Performance-Steigerung beim Kauf einer neuen Workstation nicht allzu groß. Die Prozessor-Architektur wurde zwar besser, die CPU effizienter und meist ein wenig übertaktet, aber es gab nur einen Kern. Dieses resultierte in einer Geschwindigkeits-Steigerung von 10–20 %. Dank der Multikern-Technologie ist dies anders. In der neuen Generation unserer Animate-Serie sind bis zu sechs Kerne verbaut, die auch noch über verbesserte Architektur verfügen. Der Zuwachs beträgt also allein in puncto CPU-Anzahl schon 50 % zuzüglich der 10–20%-Steigerung durch die neue Architektur! Der Kunde bekommt somit bei einer neuen Workstation sehr viel Leistung für sein Geld. Zudem hat sich bei uns die Energieeffizienz verbessert. Moderne Netzteile verfügen über einen enorm hohen Wirkungsgrad von über 90 % und sorgen für eine optimale Nutzung der Energie. Diese wird für den Betrieb der Workstation genutzt und nicht für das Heizen der Umgebung, denn Netzteile verlieren einen Großteil der Energie in Form von Abwärme.

XI-Machines im Einsatz bei ... i AUDI: Entwicklung Audi A5, A7, A8 i Deutsche Telekom AG: T-Gallery i Effekt Etage: 3D-Premiumanimationen für BMW, Siemens, FIFA i Christian Steinhäuser Musikproduktion: Schlussfeuerwerk der Opening Ceremony der Expo in Shanghai 2010 i Stereolize: Porsche Cayenne Präsentation Leipzig i Microsoft: dynamic IT @ cebit i Deutsche Werbewelt: IAA Michelin i Siemens „Trafic Solutions Department“: UK/Interactive Presentation i Infected Postproduction GmbH

14

DP: Wird sich der Trend, die Rechner für eine spezifische Anwendung über sekundäre Hardware, wie etwa GPU Accelerator für Video und Animation, aufzurüsten, fortsetzen? Welche Technologien stehen in den Startlöchern? Patrick Strenge: Ich denke ja. Für klassische Workstations wird es wohl bei einer Kombination CPU + GPU bleiben, im Bereich Forschung geht der Trend definitiv hin zu CUDA-basierten Grafikbeschleunigern wie den NvidiaTesla-Karten, dessen Rechenkerne rein zu Berechnung bereitstehen und keinerlei Grafikanschlüsse bieten. Eine aktuelle NvidiaGrafikkarte besitzt bis zu 512 CUDA-Rechenkerne, eine ATI-Grafikkarte bis zu 1.536 Stream-Prozessoren. Verglichen mit CPUKernen ist dies eine Menge. Diese sind jedoch einfacher gestrickt und stehen nur für spezielle Berechnungen zur Verfügung. Gekoppelt mit entsprechenden Mehrkern-CPUs sind dies Berechnungswunder. Zukünftig wird dieser Trend sicher auch bei den CPUs Einzug halten. Es werden also CPUs erscheinen, die neben den CPU-Kernen zusätzliche Rechenkerne für dedizierte Aufgaben bereitstellen werden. Dies sind wirklich interessante Zeiten! DP: Haben Sie von Ihren Kunden Feedback, welche Prozessor-Grafikkombinationen im Kreativbereich besonders gut funktioniert? Patrick Strenge: In diesem Bereich ist eine Kombination aus einer oder mehrerer Hexacore-CPUs kombiniert mit einem NvidiaQuadro-Workstation-Grafikbeschleuniger momentan das A und O.

DP: Schlagworte: Prozessoren und Systemarchitektur: Wie geht der Umstieg von 32 auf 64 Bit voran? Patrick Strenge: Der Umstieg geht mittlerweile schneller voran als je zuvor. Wir bieten schon seit vielen Jahren 64-Bit-Workstations an, das Problem war jedoch eher die Software-Entwicklung. Viele Softwarehersteller haben lange mit dem Umstieg auf 64 Bit gewartet. Meiner Meinung nach viel zu lange. Durch den Release von Windows 7 64 Bit hat sich die Software-Entwicklung hinsichtlich 64-Bit-Support deutlich beschleunigt. Nicht jeder Einsatz-Bereich ist jedoch schon auf demselben Stand. Der Bereich 3D beziehungsweise Animation war schon früh voll 64-Bit-fähig. Der Bereich Audio hat, wie so oft, lange auf sich warten lassen. Unserer Einschätzung nach ist der Umstieg bis auf einige wenige Ausnahmen vollzogen. Die meisten dieser „Ausnahmen“ lassen sich aber auch auf einem 64-Bit-System als 32-Bit-Prozess nutzen. Wir schätzen, dass bis zum Ende dieses Jahres der Umstieg durch die Bank geschafft sein sollte. DP: Im Bezug auf die „Vienna Symphonic Library“-Zertifizierung, sehen Sie einen Trend zu „Hardware-Empfehlungen“ seitens der Hersteller?

»Es werden CPUs mit zusätzlichen Rechenkernen für dedizierte Aufgaben kommen.«

Patrick Strenge Geschäftsführer XI-Machines

Patrick Strenge: Ja, diesen Trend sehen wir absolut. Im professionellen Umfeld ist es extrem wichtig, einen funktionierenden Workflow zu haben. Zeit ist hier wie immer Geld. Eine Downtime aufgrund von nicht kompatibler Hardware und Software kostet am Ende immer mehr. Neben der Zertifizierung für „Vienna Symphonc Library“ sind wir bis dato exklusiver Hersteller zertifzierter Ventuz-BOXSysteme (Ventuz = professionelle Realtime 3D Software) sowie „Solid State Logic“ (Pro Audio)-Workstation-Systemen. Weitere Zertifizierungen werden folgen. Selbstverständlich werden aber alle unsere Workstations bei uns intensiv mit professioneller Soft- und ❯ ei Hardware getestet.

WWW.DIGITALPRODUCTION.COM


COPRA App

viewing dailies the easy way

www.copra.de


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Auftrumpfendes Trio Die neuen Quadro-Grafikkarten sind mit mehr Speicher als die Vorgängermodelle bestückt

Motor des Visualisierers Die DIGITAL PRODUCTION nutzt im Moment in seiner Testworkstation für 3D-Software ein aktuelles Quadro-5000Grafikartenmodell von Nvidia. Im Folgenden werfen wir einen kurzen Blick auf das Potenzial und die Eigenschaften der neuen Quadro-Reihe mit Fermi-Architektur. Natürlich mit besonderem Augenmerk auf die Möglichkeiten der GPUvon Keywan Mahintorabi Unterstützung bei Profi-Anwendungen.

atürlich ist die Quadro-Reihe von Nvidia auch gerade deswegen interessant, da sie Entwicklerfirmen wie den Anwendern den CUDA-Unterbau liefert. Diese Schnittstelle ermöglicht paralleles Computing auf den CUDA-Kernen der GPU. Der VRay-Renderer von Chaos Group ist etwa eine Anwendung, die in der Version 2.0 unter V-Ray RT die GPU nutzt. In solchen Fällen kann eine Quadro 5000 dann besonders ihre Muskeln spielen lassen. Wir vergleichen sie im Folgenden mit dem Vorgängermodell, der Quadro FX 4800, die wir zuvor in unserer Workstation verwendeten.

N

Innere Werte Was steckbare PCIe-Karten angeht, visiert die Quadro 5000 das obere High-End-Segment an. Mit 2,5 GB GDDR5 Speicher ist sie mit mehr und schnellerem Speicher bestückt als der preislich vergleichbare Vorgänger, die erwähnte Quadro FX 4800. Diese wurde mit 1,5 GB GDDR 3 Speicher ausgeliefert. Auf der Quadro 5000 ackern 352 CUDA-Cores. Beim Vergleich von V-Ray 2.0 zu V-Ray RT GPU zeigt sich dabei etwas mehr als die doppelte Geschwindigkeit beim Bildaufbau. Zur reinen CPU-Version ist also ein erheblicher Leistungssprung zu vermerken.

Eines der größten Modelle in der NvidiaQuadro-Reihe ist im Moment die Quadro 6000, die mit 6 GB onboard RAM und 448 CUDA Cores aufwartet. Ein Speicherbollwerk aus heutiger Sicht. In Zukunft wird sich die Memory-Bestückung auf Grafikkarten aber noch erheblich steigern. Die Industrie reagiert schon auf die Anforderungen der GPU-basierten Anwendungen im Bereich Visualisierung und Wissenschaft. Der Flaschenhals liegt hier an dem zur Verfügung stehenden Speicher auf der Grafikkarte. Daten, welche in der Grafikkarte direkt verarbeitet werden, müssen in dem Speicher der Grafikkarte geladen sein. Das sind bei GPU-

NVIDIA QUADRO-MODELLREIHE FERMI-SERIE

Modell

Quadro 600

Quadro 2000

Quadro 4000

Quadro 5000

Quadro 6000

Quadro Plex 7000

Speicher

1 GB DDR3

1 GB GDDR5

2 GB GDDR5

2,5 GB GDDR5

6 GB GDDR5

12 GB GDDR5 Total

CUDA Cores

96

192

256

352

448

896

Leistungaufnahme

40 W

62 W

142 W

152 W

204 W

600 W

Stereo (optional), G-Sync und HD SDI kompatibel, auch für Mac erhältlich

Stereo, G-Sync und HD SDI kompatibel

Stereo, G-Sync und HD SDI kompatibel

Stereo, Quad DVI-DL, G-Sync inkl., DHIC kompatibel: 1.792 Cores, 24 GB, 8 DVI-DL

bes. Features

16

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

EQUIPMENT | NVIDIA QUADRO

Quadro 6000 v. Quadro FX 5800 Ensight Siemens NX Teamcenter Vis Maya Catia

Performance Multiplier

Solidworks

0.0

0.5

1.0

1.5

2.0

2.5

3.0

3.5

4.0

View-Perf Benchmark Die neue Quadro 6000 bringt zum Vorgängermodell in vielen Anwendungen eine deutliche Performance-Steigerung. Moore’s Law lässt grüßen

Kommentar Die Performance der neuen Quadro-Reihe auf Fermi-Architektur ist zu einem kostengünstigeren Preis deutlich gesteigert worden. Auch im Vergleich zum Leistungsverbrauch sind sie den älteren Quadro-FXModellen weit überlegen. Die Quadro 5000 verbraucht im Leerlaufbetrieb 30 und unter Hochlast bis zu 150 Watt. Gerade der Leistungsbedarf im Leerlaufbetrieb wurde erheblich verbessert. Der Anwender bekommt also mehr CUDA-Cores und Speicher für sein Geld. Der Unterschied zu normalen Geforce-Karten liegt auch im Bereich Memory. Hier wird ausschließlich ECC-korigierter Speicher verwendet, welcher für wissenschaftliche Anwendungen unabdingbar ist. Für 3D-Anwendungen, Industrie-Design sowie VFX-Arbeiten ist die Quadro 5000 eine sehr gute Wahl und macht auch beim Preis-/ Leistungsverhältniss einen guten Schnitt. ❯ jb Mehr Infos: www.nvidia.de/quadro

Info: Denver-Projekt Unter dem Codenamen „Denver-Projekt“ kündigt Nvidia eine neue Initiative zur Entwicklung ARM-basierter CPU-Kerne an, die auf dem gleichen Chip wie die Nvidia-GPU integriert werden. Sie sind für den Einsatz in PCs, Workstations, Servern und Supercomputern gedacht. Die Entwicklung des neuen Prozessors basiert auf einer strategischen Partnerschaft zwischen Nvidia und ARM, in deren Rahmen Nvidia das Recht erhalten hat, eigene hochperformante CPU-Kerne auf Grundlage von ARMs künftiger Prozessorarchitektur zu konzipieren. Im Zuge der neuen Kooperation hat Nvidia auch ARMs aktuellen Cortex-A15-Prozessor für seine mobilen Tegra-Prozessoren der nächsten Generation zertifiziert.

17

Anzeige

basierten Anwendungen nicht nur Texturdaten, das sind auch Programmteile (Routinen), zwischengelagerte Berechnungsdaten, Modelldaten und so weiter. Hier wird also sehr viel Speicher zur Ausführung komplexer Rechenvorgänge benötigt. Moderne CPU-basierte Systeme kennen Techniken, die Daten auf der Festplatte zwischenspeichern, um sie dann sequentiell wieder von der Festplatte abzurufen und über das Bussystem in den RAM des Computersystems zu speisen. Das funktioniert mit GPU-basierten Anwendungen nicht. Hier müssen alle relevanten Daten im Speicher der Grafikkarte vorhanden sein. Ansonsten bricht die Performance stark ein. Es gibt hier noch kein intelligentes Bussystem, welches die Grafikkarte für diese Zwecke anbindet. Stattdessen hat man den herkömmlichen Weg über die PCIeSchnittstelle. Die Grafikkarte ist ursprünglich dazu gedacht, Bilddaten zu verarbeiten und wieder an Anzeigegeräte auszugeben. Das gesamte System heutiger Computer basiert darauf. Um diesen Flaschenhals zu umgehen, ist also abzusehen, dass die Speichergröße der Grafikkarten stark ansteigen wird, was eben auch eines der größten Modelle, die erwähnte Quadro 6000, mit ihren sagenhaften 6 GB onboard Memory zeigt. Weiterhin gibt es nur noch die potenten Quadro-Plex-Systeme, die etwa für den Spezialeinsatz bei VR-Anwendungen eignen. Diese können im Rack-Formfaktor oder als Quadro Plex 7000 in einem eigenen Gehäuse gekauft werden. Hier geht der Speicher bis 12 GB und 896 Cores. Im Einstiegsbereich wäre noch die Quadro 4000 (auch für den Mac erhältlich) mit 2 GB GDDR5 Speicher und 256 CUDA Cores zu nennen. Diese ist vom Modell her vergleichbar mit der Quadro FX 3800. Für Entry-Level-CAD-Anwendungen bieten sich seit neuestem noch die Quadro 2000 und 600 an.


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

… davon ist Danny Shapiro, Director Marketing von Nvidia, überzeugt. Aber nicht nur er, sondern auch viele Softwarefirmen und Professionals, die nach und nach auf die Kraft der GPU und infolgedessen auch auf die CUDAPlattform von Nvidia setzen. Denn nicht nur im wissenschaftlichen Sektor ist heute SuperComputing gefragt, sondern auch beim Schnitt mit High-End-Filmformaten oder auch bei den Berechnungen der aufwendigen VFX-Pipeline. von J. Bruhnke und B. Beier

D

er Wettbewerb in der Film- und Broadcast-Industrie ist hart und Deadlines werden kürzer. Und so ist die RealtimeBearbeitung im High-End-CGI-Sektor schon annährend Realität geworden, denn wie gewöhnlich steigen die Anforderungen mit dem Aufkeimen neuer technischer Mittel. Passend erwähnte Richard Kerris, technischer Direktor von Industrial Light & Magic kürzlich zu diesem Thema: „Unsere Kunden kommen heute mit Wünschen auf uns zu, wie es sie noch nie gab. Beispielsweise haushohe Wellen oder lebendes Feuer. Mit der CUDA-Technologie können wir solche Szenen in Echtzeit bearbeiten – und das wirkt sich sehr positiv auf die Ergebnisse aus. Viele Shots, die noch vor kurzem Tage oder Wochen gedauert hätten benötigen, jetzt nur noch Minuten.” Danny Shapiro, Director Marketing Professional Solutions Group von GrafikprozessorHersteller Nvidia, gibt DIGITAL PRODUCTION im folgenden Interview einen Überblick über

18

die Entwicklungsambitionen und unterstützenden Industriepartner der eigenen CUDAPlattform sowie über die aktuelle Palette der leistungsfähigen Quadro-Grafikkarten. DP: Die Nvidia-Quadro- und Tesla-Produkte sind heute fest in den Profi-Workflows verankert. Was für Vorteile hat ein Postproduktionsstudio oder ein freier CGI-Artist, wenn er sich für eine Nvidia-Grafikkarte entscheidet? Danny Shapiro: Die Quadro- und Tesla-Reihen sind so konzipiert, um ideal mit allen wichtigen Softwarepaketen zu funktionieren. Wir arbeiten dafür mit den Softwareentwicklern wie etwa den Teams von Adobe CS5 Premiere Pro und After Effects zusammen. Weiterhin natürlich auch mit Autodesk und deren Produktreihen wie Smoke, Maya und 3ds Max. Hinzu kommen vielen weitere Software-Produkte, die auf GPUs von Nvidia zugeschnitten sind. Dadurch bringt die neue Quadro-Generation, die auf der Fermi-Architektur aufgebaut ist,

enorme Geschwindigkeitsgewinne bei der Computergrafik und auch beim parallelen Processing, also der gleichzeitigen Berechnung von Daten. Für Produktionshäuser bedeutet dies, Shots in viel mehr Varianten berechnen zu können als zuvor. Diese Kombination aus Rechenkraft und Virtualisierung der Prozesse bieten momentan nur die aktuellen QuadroGrafikkarten. DP: Sie sagen, dass insbesondere die FermiArchitektur die Geschwindigkeit verbessert hat. In welchen Bereichen macht sich das besonders bemerkbar? Danny Shapiro: Quadro-GPUs sind ungefähr fünf Mal so schnell im Rechnen und acht Mal so schnell bei Simulationsvorgängen und zwar bei den meisten Applikationen aus dem Design-, Animations- und Video-Bereich. Als Beispiel: Bei Adobe Premiere Pro haben die Ingenieure von Nvidia mit den Programmie-

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

FOKUS | GPU-COMPUTING

Steigerung ist immer möglich …

Inhalt Fokus Interview: Danny Shapiro, Nvidia 18 Interview: Bruno Stefanizzi, AMD 22 Interview: Bruno Nicoletti, The Foundry 24 Interview: Vladimir Koylazov, chaos group 26 Interview: Enrico Reil, CADnetwork 27 Interview: Eric Westpahl, eyeon 28 Interview: Marc Weigert, Uncharted Territory 29 Interview: Michael Mörtl, Adobe 31 Dreamcatcher: CS5-Workflow mit GPU-Support 32 GPU-unterstütztes Rendering in 3ds Max 34

rern von Adobe eng zusammengearbeitet, um so viele rechenintensive Operationen auszulagern, von der CPU auf die GPU. Früher haben mehrere Videoebenen – am besten noch mit Effekten – stundenlange Renderzeit benötigt. Jetzt arbeitet die CS5 mit der Nvidia Quadro in Echtzeit. DP: Wie unterscheidet sich Nvidia eigentlich von der Konkurrenz, die mit vergleichbarer Rechenleistung teilweise zu einem Bruchteil des Preises wirbt? Danny Shapiro: Quadro-Grafikarten sind von Softwareherstellern wie beispielsweise Adobe zertifiziert, arbeiten weiterhin zuverlässig und mit voller Kraft bei professionellen Anwendungen wie Autodesk 3ds Max, Maya oder Softimage. Andere Karten, die eher aus dem Consumer-Segment kommen, sind dagegen zum Beispiel eher für Computerspiele ausgelegt. Außerdem ist bei Nvidia der Verarbeitungsstandard höher – wir sind uns so sicher,

dass wir eine Drei-Jahres-Garantie auf alle Quadro-Pro-Karten geben. Adobe und viele andere Softwarehäuser verlassen sich auf Quadro-Karten sowohl im Bezug auf Leistung als auch Verlässlichkeit. Nvidia und die Softwarehäuser investieren zahllose Arbeitsstunden, um die Treiber vollständig auf Herz und Nieren zu testen, damit während den Produktionen keine Software-Fehler und Treiberabstürze das Projekt gefährden. Des Weiteren sind dedizierte Grafikarten immer schneller als auf dem Motherboard verbaute Grafikchips, weswegen man – wenn es um den Lebensunterhalt geht – mit den Quadro-Professional-Lösungen gut beraten ist. DP: Welche Karten aus der Quadro-Reihe empfehlen Sie für die verschiedenen Einsatzgebiete?

Danny Shapiro: Nvidia hat ein großes Sortiment und welche Karte passt, hängt davon ab, was sie für Aufgaben in welcher Umgebung übernehmen soll. Generell empfehlen wir, wenn es um DCC-Jobs und Postproduktion geht, die von unseren Softwarepartnern zer-

»Die Broadcast- und Filmindustrie entdeckt im Moment CUDA« Danny Shapiro Director Marketing Professional Solutions Group Nvidia

tifizierte Quadro 4000, die es nun auch für Mac gibt, sowie die Quadro 5000 oder die Quadro 6000, um die Anwendungen mit voller Geschwindigkeit zu nutzen. Für fortgeschrittenes Rendering, welches auf die GPU zugreift, gilt einfach: Je mehr Rechenkerne diese hat, desto schneller geht es. Und auch wenn der Preis höher ist, rechnet sich eine Quadro

19


AKTUELL

FOKUS

EDITING

ANIMATION

schnell durch die verkürzte Arbeitszeit und höhere Produktivität. DP: In welchen Bereichen sehen Sie die meiste Nachfrage nach professionellen Grafikarten? Danny Shapiro: Viele Firmen und Freelancer haben in den letzten Jahren die Investition in neue Karten hintenangestellt und merken erst jetzt, dass die neuen Entwicklungen und Nvidia-Serien einen enormen Sprung nach vorne bedeuten. Außerdem ist die Nach frage für HD-Inhalte und 3D-Content ausgeufert. Dies verlangt nun entsprechende Rechenkraft. DP: Mit der Quadro 4000 hat Nvidia eine vergleichsweise starke Karte für Macs herausgebracht. Glauben Sie, dass der Mac-Markt überhaupt noch eine Chance hat zu wachsen? Danny Shapiro: Im Moment ist der professionelle Mac-Markt erstaunlich stabil. Und mit einem Endkundenpreis von unter 900 Euro zeigt die Quadro 4000 ein phänomenales Preis-/Leistungsverhältnis. Und wer Adobe CS5 Premiere Pro, DaVinci Resolve und Storm oder Nuke verwendet, wird das bemerken. DP: Adobe hat ja gerade mit der MercuryEngine gezeigt, was für ein Leistungsgewinn auf CUDA-Basis entsteht. Was für Fortschritte werden wir in Folge der Kooperation zwischen Adobe und Nvidia noch sehen? Danny Shapiro: Nvidia und Adobe werden weiterhin im Profisegment zusammenarbeiten, und bisher hat es ja – siehe zum Beispiel die Mercury Engine – auch gute Resultate gebracht. Aber wie die genaue Roadmap aussieht, können wir momentan noch nicht verraten. DP: Mittlerweile greifen ja noch viele weitere Softwarepakete auf die CUDA-Ressourcen zu. Wie wichtig ist für Nvidia die Kooperation im wissenschaftlichen Sektor und wie beeinflusst das Ganze Software-Hersteller im kreativen Entertainment-Sektor? Danny Shapiro: Lebenswichtig. Wissenschaftliche Einrichtungen sprechen wir mit unserem „CUDA Fellows Program“ an, dass aus einzelnen Forschern besteht, die die CUDA-Architektur verwenden. Dazu kommt das „CUDA Center of Excellence (CCOE)“

COMPOSITING

COLOR

AUDIO

welches Einzelleistungen prämiert und die Zusammenarbeit zwischen den Universitäten unterstützt, insbesondere im Bezug auf das Parallel Computing. Universitäten, die große Beiträge zu Entwicklung und Anwendung der CUDA-Architektur geleistet haben, werden dann als „CUDA Centers of Excellence“ bezeichnet. In der Softwareindustrie entdecken momentan die Broadcasting- und FilmIndustrien die CUDA-Technik und deren Beschleunigung des Workflows. Die Liste der Softwarehersteller, die hier entwickeln und Nvidia-Karten einsetzen, umfasst dabei unter anderem Adobe, Ambrado, Blackmagic Design, BroadMotion, Cinnafilm, Elemental Technologies, Industrial Light & Magic (ILM), Iridas, MainConcept, Microsoft Corp. und TDVision. Hier profitieren vor allem Videokonvertierungen, VFX, 3D-Processing und Colorgrading von diesem Geschwindigkeitszuwachs. DP: Welche Softwarehersteller im Bereich 3DVisualisierung setzen intensiv auf den GPUSupport in ihrem Workflow? Quadro 5000M Auch im Bereich Mobilworkstations hat Nvidia rasante Vertreter. Die Quadro-5000M-Grafikkartenlösung kommt auf 448 Cuda-Cores und 2 GB Speicher

Danny Shapiro: Zum Glück haben wir Partner unter den Softwareherstellern, die die Möglichkeiten und Forderungen an unsere Fermi-Architektur immer weiterentwickeln – Mari von The Foundry und DaVinci Resolve von BlackMagic arbeiten in Echtzeit und erstellen wundervolle Effekte und CGI-Bilder. GPU-Rendering wie iRay von mental Images oder V-Ray von Chaos Group schafft Bilder mit ungeahntem Realismus und Pakete wie zum Beispiel BunkSpeed Shot rendern fotorealistisch für die Visualisierungsbranche. Im Stereo-3D-Bereich hat zum Beispiel CineForm „Neo 3D“ entwickelt, das OnlineS3D-Editing in Produktionsqualität auf den Plattformen von Adobe, Apple und Avid und in weiteren Software-Umgebungen auf Mac und PC-Basis ermöglicht. DP: Glauben Sie, dass die Anzahl der Firmen, die Zusatztools programmieren, im Lauf der nächsten Jahre steigen wird? Danny Shapiro: Ja, da es immer mehr 3DProduktionen gibt, wird auch die Nachfrage nach dem Werkzeug dafür steigen – und die CUDA-Technologie ist ja nicht nur Hardware, sondern auch eine ganze Entwicklungsum-

20

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Digital Prototyping wird dank leistungsfähigeren Grafikkarten immer erschwinglicher

gebung, um die Hardwareleistung voll einzubinden. DP: Die Leistungsfähigkeit von Grafikkarten hat sich in den letzten Jahren exponentiell vergrößert. Im Bereich der Super-Computer, wie zum Beispiel dem Tianhe 1A, zeigt sich, was für unglaubliche Mengen an Rechenoperation möglich sind. Was erwarten Sie für eine Leistungssteigerung im Bereich der professionellen Produktion in den nächsten Jahren, und welche Rolle wird CUDA dabei spielen? Danny Shapiro: Wie wir mit der Fermi-Architektur gezeigt haben, ist eine Steigerung immer möglich. Unsere Roadmap auf der GPU Technology Conference zeigt, welche Ziele wir in den nächsten Jahren erreichen wollen – sowohl im Bereich der Visualisierung als auch im Supercomputing. Die Rolle der GPU wird aber aufgrund des parallelen Zugriffs auf denselben Prozessor auf jeden Fall noch wichtiger werden, da die Geschwindigkeit noch weiter gesteigert werden kann, bei gleichzeitiger besserer Energieausbeute. DP: Nvidia entwickelt auch im Bereich stereoskopisches 3D, einem Bereich, der insbesondere für das 3D-Gaming, Digital Prototyping, Caves und Showrooms relevant ist. Mit der 3D-Vision-Pro-Lösung ist Nvidia ein Vorreiter. Was erwarten Sie sich in diesem Bereich? Danny Shapiro: Wir sehen, dass besonders die Profis in der Film- und Videobranche diese Technologie gerne einsetzen, um ihren S3DWorkflow zu unterstützen und auszubauen. 3D Vision Pro ist innerhalb der Produktion interessant, vor allem dafür, um von mehreren Desktop-Arbeitsplätzen aus zusammenzuarbeiten oder auch an großen Displays. So können Ingenieure, Designer und 3D-Artists unbeschränkt arbeiten, egal ob in den Studios, Konferenzräumen oder in Vorführsälen. Die Flexibilität des Systems in Verbindung mit der Rechenpower unserer QuadroKarten wird den Profis in Zukunft ganz neue Möglichkeiten im Bereich der 3D-Darstellung ❯ jb geben!

WWW.DIGITALPRODUCTION.COM


!RE YOUR ANIMATIONS Û LMS AND PICTURES ASTONISHING CREATIVE !RE YOUR PROJECTS IN THE Û ELD OF INTERFACING INTERACTION 6IRTUAL AND !UGMENTED 2EALITY GROUNDBREAKINGLY INNOVATIVE 4HEN CHALLENGE REALITY AND SUBMIT YOUR MOST INTERESTING PROJECT TO OUR COMPETITIONS 4HE WINNING TEAMS WILL BE INVITED WITH A MAXIMUM OF PEOPLE TO JOIN RTT Excite 2011 in Munich l Germany on 19-20 May 2011 (www.rttexcite.com) TO PRESENT THEIR PROJECTS TO AN INTERNATIONAL EXPERT AUDIENCE )N ADDITION 7!#/- SPONSORS TWO )NTUOS - 4ABLET 0#S

35"-)33)/. $%!$,).% !02), \ WWW RTT AG FUNKY?VISUALIZATION 244 #ONTEST 0ARTNER


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Fifa 2022 Mit AMD-Grafik-Karten hat Stereolize eine 270-Grad-Projektion erstellt. Auf 17 Metern Länge mit 32 Projektoren wurde die FußballWM für Dubai vorgestellt

GPUs sind von gestern Die Innovationswellen bei den Processing-Technologien bringen Schwung in das Profisegment. Nicht nur Nvidia definiert mit seiner CUDA-Umgebung die Visualisierungs- und Postpro-Branche neu, auch Hersteller AMD hat bereits die nächste spannende Entwicklung am Start: Einen potenten Prozessor, der zwischen CPU und GPU die Fleißaufgaben von Bela Beier erledigt, damit sich die großen Brüder ums Wesentliche kümmern können.

A

MD, die Advanced Micro Devices, Inc. in Kalifornien ist einer der wichtigsten Prozessorhersteller. Dabei reicht das Sortiment von fest verbauten Grafikchips auf dem Motherboard bis zu 3D-Beschleunigerkarten im Profisegment. Was AMD als Nächstes vorhat, erzählt uns Bruno Stefanizzi, ISV Technical Manager für Workstation Graphics bei AMD.

DP: Sie haben zwölf FirePro-Karten und drei Firestream-Beschleuniger im Angebot. Für welche Bereiche sind diese Karten gedacht? Bruno Stefanizzi: Die FirePro-Serie ist für den Einsatz in Workstations gedacht, während Firestream-Produkte auf Server und Renderfarmen ausgelegt sind. Aber wir sind eigentlich in jedem Segment vertreten. Mit den FirePro-, FireStream-, Radeon- und jetzt den APU-Modellen ist vom mobilen Endgerät, über den Consumer bis hin zum Profi alles abgedeckt.

DP: AMD stellt CPUs und GPUs her. Gibt es da Synergieeffekte? Wo liegen die Vorteile, als Firma alles aus einer Hand anzubieten? Bruno Stefanizzi: CPUs und GPUs arbeiten ja die gesamte Zeit miteinander, da sollten sie schon gut ineinandergreifen. Am aufwendigsten ist es natürlich, wenn diese beiden Module direkt Daten austauschen oder pa-

sie nicht entworfen sind. Zum Beispiel werden Computer mit Mehrkernprozessoren genauso verbreitet sein wie Mehrkarten-Systeme mit Beschleuniger und Ausgabe. Hardwarehersteller können hier die Schnittstellen bieten, dass jeder auf jedem System auf die volle Leistung zugreifen kann, und nicht für jede Aufgabe eine eigene Workstation braucht.

»Die APU kümmert sich nicht um das Programm, sondern kontrolliert das gesamte Umfeld. Computing und Kreativprogramme sind so fast überall möglich.«

Bruno Stefanizzi

ISV Technical Manager für Workstation Graphics

rallel arbeiten sollen. AMD hat deswegen die APU entwickelt, die als eigener Prozessor zwischen GPU und CPU koordiniert. Da die APU per Softewareumgebung kontrolliert wird und nicht nur von einzelnen Programmen, ist der Vorteil, das jedes Programm mit hohen Leistungsanforderungen darauf zugreifen kann. DP: Moore’s Law (1) verspricht eine rasante Performance-Entwicklung. Stehen wir gerade wieder kurz vor einem großen Entwicklungsschritt? Bruno Stefanizzi: Der APU wird die nächste Stufe sein, denn professionelle User werden alle möglichen Workstations und Rechner verwenden, die Aufgaben lösen müssen, für die

Erste Erfolge haben wir in diesem Bereich bis jetzt mit der Softwarefirma eyeon erzielt, die mit ihren Programmen alle Ressourcen ausschöpft. Durch die Advanced Processor Units (APU) werden die Stärken der jeweiligen Bestandteile durch einen zwischengeschalteten, zusätzlichen Prozessor, verteilt und optimal eingesetzt. Mit Softwareumgebungen wie Directcompute und OpenCL werden nämlich die Softwareprogrammierer von der Implementierung der Leistungsverteilung erlöst, und die vektorbasierte Berechnung und Umrechnung findet direkt in der APU statt. Diese vektorbasierten Berechnungen kommen insbesondere im Kreativbereich häufig vor – zum Beispiel bei 3D-Programmen oder im Editing. APUs

1) Das Mooresche Gesetz (engl. Moore‘s Law) besagt, dass sich die Komplexität integrierter Schaltkreise regelmäßig verdoppelt – im Abstand von 18 bis 24 Monaten.

22

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

FOKUS | GPU-COMPUTING

sind, vereinfacht ausgedrückt, Prozessoren, die bereits vorhandene CPU-Prozessoren um eine programmierbare Vektorverarbeitung ergänzen – und das in einem einzelnen Chip. Die APU kann sich aber auch um viele Systempflichten kümmern und dadurch den Prozessor entlasten – zum Beispiel in Bereichen wie bei I/O-Controllern, Videocoding, Bildschirmsignalen und Bus-Verbindungen. DP: Wie reagiert AMD auf die Anforderungen aus der Kreativbranche? Gibt es Kooperationen im Stile der Nvidia-Adobe-Zusammenarbeit? Bruno Stefanizzi: Wir arbeiten natürlich mit einigen Softwareherstellern zusammen, um die optimale Leistung zu bieten. Ein Beispiel ist wie schon erwähnt die Firma eyeon, die ein komplettes 3D-Framework bietet, das ideal in Verbindung mit den Karten für End-User funktioniert, die dann praktisch nur noch ein Softwarepaket brauchen. Hierbei kommen die Vorteile von OpenGL-3D-Performance und OpenCL-Computing zusammen. AMD ist natürlich froh, dies mit seinen Grafikkarten fördern zu können. DP: In welchen Produktionsbereichen werden Ihre Grafikkarten in Bezug auf ihr GPU-Potenzial gerade rege nachgefragt? Bruno Stefanizzi: Der wichtigste Markt ist im Moment der der medizinisch-wissenschaftlichen Anwendungen, da hier Performance, Zuverlässigkeit, Energieverbrauch und Bildqualität optimal sein müssen. Dies leisten unsere Karten, und deswegen sind wir im hier Sektor sehr stark verbreitet. Darüber hinaus werden AMD-Karten natürlich auch in CADund DCC-Anwendungen sowie bei Kodierung und Video Signage verwendet. DP: Wo sehen Sie die Trends bei Renderfarmen, eher in Richtung der Mini-Lösungen wie sie beispielsweise BOXX anbietet oder bei den großen Karten-Arrays? Bruno Stefanizzi: Wir wollen die Prozessordichte erhöhen und so sowohl die Rechenkraft und Darstellungsleistung beim Rendering verbessern. Der nächste Schritt ist hier sicherlich, in einen Prozessor 48 Kerne zu packen und 4 oder mehr vollständige Kerne in eine Grafikkarte. ❯ ei

FirePro V9800: 4GB RAM und 1600 Kerne im ATI-Flaggschiff

Blitzproduktion

AMD-Workstations schlagen sich bei „Machete“ durch Die Rückkehr des Trashkinos: Roberto Rodriguez hat mit „Machete“ einen der sich selbst am wenigsten ernstnehmenden Filme des Jahres abgeliefert. Dabei schafft es der Sin-CityRegisseur neben der Titelrolle Danny Trejo auch A-Lister wie Robert De Niro, Jessica Alba und Jeff Fahey sowie alte Recken vom Format eines Cheech Marin, Don Johnson oder Steven Segal zu verpflichten. Die Hommage an die Exploitation-Filme hatte aber mit einigen Problemen zu kämpfen – unter anderem eine straffe Postproduktion und unterschiedlichste Formate und Quellen. AMD-Workstations und -Grafikkarten sind die Hauptarbeitsgeräte der Produktion bei Troublemaker Studios. Die Produktionsfirma, die Rodriguez zusammen mit Produzentin Elizabeth Avellan gegründet hat, sitzt in Austin, Texas, und beinhaltetet mit Troublemaker Digital dort auch die Postproduktion. Troublemaker hat bis heute an mehreren optischen Meisterwerken gearbeitet – von „Sin City“ über „From Dusk Till Dawn“ bis hin zu „Death Proof“. So konnte die Trash-Optik über die Jahre perfektioniert werden. Die Postproduktion stand vor der Herausforderung, das Material von drei verschiedenen digitalen Kamera-Typen und einer analogen Filmkamera unter einen Hut zu bekommen. Die verwendeten Workstations waren mit Sechs-Kern-Opteron-Prozessoren und FireProV8800-Grafikkarten-Modellen ausgestattet. Diese mussten sich Tracking-Jobs mit PFTrack, 3D-Effekten aus Softimage und dem Compositing mit Nuke stellen. Und dies alles in einer sehr ambitionierten Produktionsgeschwindigkeit. Die To-do-Liste der zehn Artists in der Postproduktion war in lediglich sechs Monaten abzuarbeiten – über 500 Shots wurden mit den AMD-Workstations erstellt. Insbesondere die Actionszenen waren rechenaufwendig, da Teile des Sets digital ergänzt und auch gleich wieder zerstör zerstört wurden. Es gab Einschussrauen Mengen, die eingefügt löcher in rau werden mussten – wer den Film werd gesehen hat, wird verstehen gese warum. Dazu kam ein komplexes war Particle-System, welches die Par Blut-Spritzer oder -Fontänen Blut generierte, die sich in den Shots über generie Schauspieler und Objekte am Set verteilen. Schauspiele kostengünstige Weg hat dem Film Der relativ kos geschadet – „Machete“ sieht aus wie ein nicht geschade Blockbuster aus den 80ern. originaler Bloc erwähnte kürzlich, die AMDRodriguez e Workstations, hätten sich so bewährt, dass sie nächsten Film, „Spy Kids 4“, zum auch für den n kommen sollen. Einsatz komme

23


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

An vielen Fronten The Foundry ist vielen vor allem durch das Compositing-Programm Nuke bekannt. Neue Produkte des Herstellers wie Mari oder Storm ergänzen die Softwarepalette für die Filmindustrie perfekt. Die relativ junge Digitalschmiede kann also inzwischen schon ein beachtliches Portfolio aufweisen. In Zukunft ist aber noch einiges von den Briten zu erwarvon Keywan Mahintorabi ten – auch in Hinblick auf das GPU-Potenzial.

D

IGITAL PRODUCTION befragte The Foundry Co-Founder und CTO Bruno Nicoletti zum Zukunftsthema GPUBeschleunigung und deren Einsatzgebiete speziell in der VFX-Branche.

DP: Im Moment gibt es einige Produkte, die mit interaktiven Workflows werben. An welchen Technologien haben Sie in diesem Sinne gearbeitet? Bruno Nicoletti: An vielen Fronten; Mari und Storm nutzen beide OpenGL, um die Performance zu bringen. Dann arbeiten wir ebenfalls an „Blink“, ein unabhängiges Image Processing Framework. „Blink“ setzen wir im Moment auch bei unserem vertieften „Rocket Science“ Image Processing für das Recording ein. Das bedeutet, der gleiche Source Code kann auf CPUs und GPUs laufen. Bei GPUs läuft es über die CUDA-Schnittstelle. DP: Welche Ihrer Produkte profitieren am meisten von GPU-beschleunigten Algorithmen? Bruno Nicoletti: Mari, Storm und unser Retimer Kronos (über Blink). Wir schauen gerade, wie wir Blink in unsere Produkte einbetten können.

DP: Sie haben Nuke 6.2 als nächstes Update veröffentlicht. Erzählen Sie uns etwas zu den Schlüsselfunktionen des neuen Releases? Bruno Nicoletti: In Nuke 6.2 gibt es keine generelle GPU-Beschleunigung. Wir schauen dort auf individuelle rechenintensive Filter, um diese durch GPUs zu beschleunigen. Unser nächstes Ziel ist unser Ocula Stereo Correction Toolset. Dieses wurde komplett für das neue Blink-Framework umgeschrieben. DP: Mari ist stark auf GPU-Power zugeschnitten. Das erlaubt es, auf immens großen Modellen zu painten und große Texturmengen anzulegen. Können Sie uns mehr darüber erzählen, wie Sie den Flaschenhals des Speichers umgehen, um die Menge an Daten zu bewältigen? Bruno Nicoletti: Mari besitzt einige Schlüsseltechnologien, welche einige hundert Gigabyte an Texturen und Geometrie verwalten. Zum einen gibt es das DDI, und diese Abkürzung steht nicht für irgendwas. Es ist ein sehr intelligenter generischer Daten-Cache. Dieser ermöglicht, die richtige Portion an Daten so schnell wie möglich zur GPU zu schaufeln. Zum anderen gibt es die Sparse-VirtualTexture-Technik. Sie mappt extrem große

Mari Die Texture-Painting-Software wurde maßgeblich von Weta bei „Avatar“ eingesetzt

24

Texturen auf die GPU mit eingeschränktem Speicherbedarf. Das ist eine iterative MultiPass-Technik, welche die Texturen in Streifen unterschiedlicher Größe aufteilt. Es wird untersucht, welcher Teil einer Textur sichtbar ist. Und dieser Teil wird in einer angemessenen Auflösung in den GPU-Speicher geladen. Dort wird dann auf den Schirm gerendert. Dann gibt es die SVT Engine. Diese spricht zum DDI, welches das Datenmanagement und Caching verschiedener Texturteile übernimmt. Sie werden auf Festplatte gespeichert, zum CPU-Speicher geschickt oder auf den Grafikkartenspeicher. Auf diesem Weg kann man mit immensen Datenmengen umgehen. DP: Wird GPU-Computing auch in Zukunft relevant sein für die Industrie? Bruno Nicoletti: GPUs wurden schon vor Jahren in digitalen Produktionen genutzt. Zum Beispiel um Geometrie in CGI-Anwendungen darzustellen, um Bilder anzuzeigen und sogar für ausgeklügelte Bildverarbeitung. Aber es war aus vielen Gründen immer auf eine kleine Auswahl von Anwendungen beschränkt. Bis jetzt waren viele Standards nicht gesetzt und Grundbedingungen nicht gut ausgelegt. Es war schwer, etwas für GPUs zu programmieren. Entsprechend war der Ansatz da, GPUs für interaktive Anwendungen und für die Bilddarstellung zu nutzen. DP: Haben sich die Standards inzwischen verbessert? Bruno Nicoletti: Mit dem Erscheinen von Programmier-Entwicklungsumgebungen (API), wie OpenCL oder CUDA, wird das Programmieren für GPUs sehr erleichtert. Wir entdecken gerade erst, wie diese Technik in die

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

Server-Racks einzieht und für die generelle Bearbeitung genutzt wird. Dies alles passiert parallel zu existierenden CPU-basierten Server-Farmen. Die bevorstehende Erscheinung von hybriden GPU/CPU-Chips von Herstellern wie AMD und Intel macht das Ganze noch interessanter. DP: Sicherlich hat die Profi-Industrie auch Einfluss auf die Entwicklung. Bruno Nicoletti: Die größeren Studios waren die Ersten, die GPUs als Server genutzt haben. ILM hat zum Beispiel sein komplettes Fluid-Simulationssystem auf CUDA umprogrammiert, um auf Nvidia-GPUs berechnen zu lassen. Das hatte auch Auswirkung auf die kommerziellen Softwareentwickler, welche auf gleiche Weise versuchten, die Power von GPUs zu nutzen. Die einzige Sache, welche den GPU-Aufmarsch auf breiter Front verhindert, ist die Tatsache, dass es einfach nicht genug Software gibt, die auf GPUs abgestimmt ist. Im Vergleich zu Software für CPUs ist die Auswahl bei GPU-basierender Software verschwindend gering.

FOKUS | GPU-COMPUTING

DP: Es ist also nur eine Frage der Zeit, bis auch andere Firmen anfangen, die GPUs für neue Einsatzfelder zu nutzen. Bruno Nicoletti: Nuke 6.2 kommt mit RenderMan-Support. Wird es da eine Unterstützung für Renderer geben, welche komplett auf GPU-Renderverfahren setzen? Das ist eine Sache, die wir sicherlich berücksichtigen werden. DP: Wird Katana GPUs nutzen können? Bruno Nicoletti: Katana ist Sony Pictures Imageworks‘ eigenes In-House-Look-Development-Tool. Es wird für das Einleuchten der CGI schon für eine Reihe von Kinofilmen erfolgreich eingesetzt. Wir arbeiten gerade

»Es gibt noch nicht genug Software, die auf GPUs abgestimmt ist.« Bruno Nicoletti Co-Founder und CTO von The Foundr y

mit Sony Pictures Imageworks zusammen, um Katana in ein kommerzielles Produkt für die Branche umzubauen. Katanas Hauptjob ist es, die enormen Mengen an Daten, welche in einer CGI-Szene existieren, zu nehmen und

GPU-optimiert Mari kann immense Daten in Bezug auf die Texturen und Geometrie verwalten

der Lighting-Abteilung bereitzustellen. Dort wird die Ausleuchtung, sprich der Look des finalen Renderings, bestimmt. Katana ist also zwischen dem Renderer und den Szenendaten eingeklinkt. Das gibt dem Anwender die Möglichkeit, schnell an Parametern der Szenen Einstellungen vorzunehmen und das getunte Ergebnis an den Renderer zur Berechnung weiterzugeben. Katana muss also nicht wirklich die GPU nutzen. Natürlich wird die GPU im herkömmlichen Sinn für die Darstellung von 3D-Szenen verwendet. Wie auch immer – in der Theorie ist es möglich, dass Katana Szenendaten an jeden Renderer liefern kann. Dies kann natürlich auch ein GPU-basierter ❯ jb Renderer sein.

Gleiche Renderqualität, nur deutlich schneller Chaos Group ist als flexible Software-Company bekannt. Die dortigen Entwicklerteams haben schnell erkannt, wie wichtig leistungsfähige GPUTechnologien für die Zukunft der Firma sein können. Im folgenden Interview bekommt DIGITAL PRODUCTION einen kleinen Einblick in die Developmentvon Keywan Mahintorabi Strategie von Chaos Group.

assend zu unserem Fokus über GPUbasierte Hardware und Softwarelösungen führte DIGITAL PRODUCTION ein Interview mit CTO Vladimir Koylazov, dem Core Developer der V-Ray Engine.

P

DP: Herr Koylazov, im Moment sehen wir eine Menge von Renderlösungen, die Ihre Workflows zum interaktiven Rendering anpreisen. An welchen Technologien arbeiten Sie, die den interaktiven Workflow in V-Ray-Produkten ermöglichen? Vladimir Koylazov: Es gab mehrere Ziele, die wir mit unseren interaktiven Technologien erreichen wollten. Das erste war der volle Support für distributed Rendering; verteiltes Rendern über das Netzwerk. Das gibt un-

serem interaktiven Renderer die Möglichkeit, die volle Kapazität von Renderfarmen oder Render Cluster zu nutzen – beides für CPUsowie GPU-Rendering. Das zweite Ziel war, Lösungen für einige 3D-Anwendungen bereitzustellen, damit der Anwender das Modelingprogramm seiner Wahl verwenden kann. Wir wollen die Leute nicht zwingen, ständig Daten von einem zum anderen System zu übergeben. Damit können Daten direkt in der entsprechenden Rendering-Anwendung wie 3ds Max, Maya oder C4D gerendert werden. Das dritte Ziel war, so viele Interaktionen wie möglich in einer Szene zu capturen. Interaktionen in einer Szene beinhalten derzeit die Änderung an Geometriedaten, Materialien,

Vladimir Koylazov CTO Chaos Group und Core Developer der V-Ray Engine

25


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Vladimir Koylazov: Derzeit wird GPU-basierte Beschleunigung genutzt, um den V-Ray RT Renderer zu unterstützen. DP: Passen die Ergebnisse der Verfahren V-Ray GPU und CPU zusammen, im Sinne der finalen Bildqualität? Vladimir Koylazov: Der GPU-Renderer kann die gleiche Qualität wie der CPU-basierte V-Ray-RT-Renderer produzieren. Der GPURenderer arbeitet aber um ein Vielfaches schneller. Einen Nachteil gibt es derzeit aber dennoch. Nicht alle Funktionen, die in der CPU-Version integriert sind, werden von der GPU-Version unterstützt. Wir arbeiten daran, sobald die Hardware sich entsprechend entwickeln wird.

Lichter, Animationen und so weiter. Diese drei Ziele benötigen selbstverständlich einiges an Entwicklungsarbeit. Es braucht seine Zeit, damit alles reibungsfrei abläuft. Der Aufwand hat sich aber bereits gelohnt. V-Ray RT ist momentan der einzige Renderer unter 3ds Max, der diese Dinge unterstützt. DP: Basiert Ihre neue Phoenix-FD-Lösung auch auf GPU-beschleunigten Algorithmen? Vladimir Koylazov: Derzeit nutzen wir die GPU-Power nur für ein Quick-Preview-Verfahren, welches eine Voransicht der finalen Renderings liefert. Wir nutzen momentan die GPU nicht für die eigentlichen Fluid-Dynamics-Berechnungen. Dies ist aber auf jeden Fall ein Bereich, in dem wir uns noch in der Entwicklung befinden. DP: Sie haben V-Ray 2.0 als großes Update für die V-Ray-Gemeinde veröffentlicht. Erzählen Sie uns etwas zu den neuen Schlüsselfunktionen dieses Releases. Vladimir Koylazov: Wichtige Neuerungen sind zum Beispiel ein V-Ray-eigener Car Paint Shader, der eine Erweiterung für die fotorealistische Umsetzung von Autolacken in Form dieses speziellen Shaders bereitstellt. Die

Erweiterung zu V-Rays stereoskopischenHelfer ist auch eine der neuen Funktionen. Sie erspart dem Anwender Rechenzeiten bei stereoskopischen Projekten. Außerdem kann man Proxies als Point Clouds rendern und bidirektionales Path Tracing als erweiterte Ray-Tracing-Methode nutzen. Es gibt eine Unterstützung für die automatische Zerlegung großer EXR-Tex-

»Die Situation für die GPUbasierten Lösungen wird sich verbessern«

turen beim Rechenprozess und letztlich die Neuerung, Directional Area Lights, parallel gerichtete Flächenlichter, zu rendern. Mit dieser Version sind die V-Ray-RT- und die VRay-GPU-Renderengine Teil des eigentlichen V-Ray-Pakets. Außerdem gibt es natürlich noch viele kleinere Verbesserungen, die das Release 2.0 ausmachen. DP: In welcher Weise ist GPU-basierte Beschleunigung in V-Ray 2.0 integriert?

V-Ray 2.0 Nach V-Ray for 3ds Max wird auch eine Variante für Maya folgen

26

DP: Nach der bisherigen Entwicklungszeit – was ist Ihr Konsens zur GPU-Technologie? Welche relevanten Chancen räumen Sie der Technik für die Zukunft ein? Vladimir Koylazov: Das hängt davon ab, wie Sie die Technik nutzen wollen. GPU-basierte Renderer haben im Moment einige Einschränkungen, welche sie nicht zum Ersatz für CPU-basierte Rendering-Lösungen machen. Natürlich wird sich die Situation für die GPU-basierten Lösungen verbessern, so wie sich die Technik entwickeln wird. Ich bin sehr zuversichtlich, dass die Leute GPU-basierte Renderer sehr nützlich finden werden. DP: Ist ein Update mit der V-Ray 2.0 Engine auch für V-Ray for Maya geplant? Vladimir Koylazov: V-Ray for Maya 2.0 wird viele der Funktionen von V-Ray 2.0 for 3ds Max enthalten. Es wird auch interaktives Rendering von V-Ray RT innerhalb von Maya ermöglichen. DP: Gibt es Überlegungen, Phoenix FD für Maya-Anwender nutzbar zu machen? Vladimir Koylazov: Es scheint so, dass viele Leute daran interessiert wären, dass diese Technologie für Maya umgesetzt wird. Wir ❯ jb werden sehen.

Neue V-Ray-Tools Car Paint Shader und Verbesserungen für S3D-Workflows

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

FOKUS | GPU-COMPUTING

Luxussuite für GPU & CPU Seit 2001 entwickelt CADnetwork Hochleistungsworkstations und -Server und nimmt sich auch intensiv des Themas GPU-Computing an. Derzeit bietet das Unternehmen aus Erfstadt vier Computer-Systeme an, die speziell für Highvon Jan Bruhnke End-Anforderungen im Bereich GPU-Computing entwickelt wurden.

Der Einsatz von Nvidia-Tesla und QuadroKarten ist sinnvoll, da hiermit die höchste Kompatibilität erreicht wird. Auch in Sachen Performance liegen Lösungen von Nvidia vorn. Zusätzlich sorgt der ECC-Speicherschutz dafür, dass auch wirklich korrekte Ergebnisse geliefert werden.

Enrico Reil Geschäftsführer CADnetwork

DP: Aus welchen Branchen werden eure GPUgestützten Produktlösungen gerade verstärkt nachgefragt? Enrico Reil: Die größte Nachfrage kommt derzeit aus dem Bereich der Produktvisualisierung. Hier sind Anwendungen wie beispielsweise Bunkspeed Shot und Reality Server gefragt. Bei den lokalen Renderanwendungen liegt ganz klar V-Ray RT GPU vorn, aber auch die integrierte Renderlösung in 3ds Max, iRay, gewinnt immer mehr an Bedeutung. Die Nachfrage aus dem Video- und CompositingBereich ist auch sehr stark, genannt sei hier Adobe CS5 und Blackmagic Design. ADnetwork verfügt über ein breites Portfolio. Darunter befinden sich beispielsweise die beiden GPU-Workstations ProViz T79 und ProViz T92, mit einem beziehungsweise zwei Xeon-Prozessoren bestückt, die bis zu vier Nvidia-Tesla-Karten Platz bieten. Die Geräuschentwicklung und Ergonomie der Workstations ist so konzipiert, dass sie direkt neben dem Schreibtisch stehen können. Für den Einsatz im 19“-Rack, beispielsweise als Renderfarm, sind die beiden Server ProViz R16 und ProViz T45 gedacht. DIGITAL PRODUCTION sprach mit Enrico Reil, Geschäftsführer von CADnetwork über die Leistungsfähigkeit der Systeme und kompatible Software im GPU-Sektor.

C

DP: Welche Vorteile hat heute ein Posthaus oder ein Freelancer im CGI-Bereich, wenn er sich für eine Nvidia-Grafiklösung entscheidet? Enrico Reil: Ein wichtiges Argument ist die Kompatibilität mit GPU-Programmen. Derzeit gibt es die beiden GPU-Programmiersprachen CUDA und OpenCL. Bei CUDA handelt es sich um eine Entwicklung von Nvidia, die sehr weit fortgeschritten ist. Viele aktuelle GPU-Programme sind mit CUDA entwickelt und laufen nur auf Grafikkarten von Nvidia. OpenCL ist ähnlich wie OpenGL eine Plattform-unabhängige Sprache. OpenCLAnwendungen laufen sowohl auf Nvidia als auch auf Grafikkarten anderer Hersteller.

DP: Könntest du uns Beispiel-Benchmarks aus dem Sektor eurer Render-Server und -Workstations nennen? Enrico Reil: Sehr gut skaliert die Renderleistung beispielsweise mit V-Ray RT GPU. Für den Benchmark diente eine ProViz T79 Workstation mit einem Intel-Xeon-Prozessor mit 6x 3.33 GHz Kernen im Vergleich zur Workstation mit 4x Nvidia Tesla C2050 Karten (3GB ECC RAM 448-Cores). Beim Rendern

»Die Verbindung der Vorteile von GPUs und CPUs ist die Lösung«

mit den vier Tesla-Karten konnte eine Leistungssteigerung um das 150-fache erreicht werden. Klar ist, dass der Leistungsunterschied von der verwendeten Szene abhängt. Es gilt, je komplexer die Szene, desto höher der Leistungsunterschied. Als wichtiger Faktor zählt die Größe des Grafikspeichers. So ist es bei allen aktuellen Anwendungen so, dass die komplette Szene mit allen Texturen in den Grafikspeicher einer einzelnen GPU passen muss. Tesla- und Quadro-Karten haben 3 GB beziehungsweise 6GB Arbeitsspeicher und sind daher für die meisten Szenen gut gewappnet.

DP: Was ist im professionellen Produktionsumfeld in Sachen Leistung in den nächsten Jahren deiner Meinung noch zu erwarten. Und welche Rolle wird die GPU neben dem klassischen CPU-Prozessing spielen? Enrico Reil: GPUs verfügen aktuell über bis zu 500 Rechenkerne. Im Vergleich dazu verfügen Prozessoren dagegen nur über bis zu sechs Rechenkerne. Somit ist klar, dass gerade Aufgaben, die sich stark parallelisieren lassen, z.B. Renderings, mathematische Berechnungen und Videoformatberechnungen auf GPUs deutlich schneller ausgeführt werden können. Dagegen gibt es aber eben viele Aufgaben, die nicht von einer Parallelisierung profitieren, und auch durch die Begrenzung von Grafikspeicher und Architektur der GPUs nicht für GPU-Computing geeignet sind. Für diese Aufgaben sind klassische Prozessoren, a die sich ja auch stark w eiter ent w ickel n durch verbesserte Features und erweitere Befehlssätze,, enach wie vor am besten geeignet. Die Verbindung der Vorteile von GPUs und g für CPUs ist die Lösung pässe die meisten Engpässe turen. heutiger IT-Strukturen. Info: www.cadnetwork.de rk.de

27


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Bis zu hundert Mal schneller!

Vor rund einem Jahr führte eyeon für seine Compositing-Software Fusion eine potente OpenCL-Unterstützung ein. Der OpenCL-Code kann dabei direkt in Fuses angewendet werden, um eigene Inhouse-Tools zu entwickeln. Inzwischen gibt es namhafte Referenzprojekte, die darauf bauen. von Jan Bruhnke

D

IGITAL PRODUCTION sprach mit Eric Westphal, Senior Product Manager eyeon, über den damit verbundenen Leistungszuwachs und die Vorteile innerhalb der Postproduktion.

Eric Westphal Senior Product Manager eyeon auf dem animago AWARD 2010

28

DP: Mit der Version 6.1 hat eyeon frühzeitig das Thema Supercomputing in den Fusion-Workflow einfließen lassen. Wie waren bis jetzt die Rückmeldungen von Compositing-Artists, die das Ganze täglich einsetzen? Eric Westphal: Extrem positiv. Das Spektrum reichte dabei von kompletten Produktionspipelines wie bei Roland Emmerichs „Anonymous“ bis hin zu kleinen Shops, die ihren eigenen OpenCL Fuses programmieren, um etwa riesige Datenmengen wie sie bei medizinischen Scans anfallen in Echtzeit visualisieren zu können. Speziell bei „Anonymous“ hat sich gezeigt, dass das Arbeiten mit Supercomputing bessere Ergebnisse mit weniger Artists in kürzerer Zeit bringt. DP: Auf OpenCL-Basis seid ihr nicht wie andere Software-Hersteller an einen bestimmten Grafikkarten-Hersteller gebunden. War dies von Anfang an eine Prämisse der Firma, so offen wie möglich zu bleiben? Eric Westphal: eyeon ist seit langem dafür bekannt, auf möglichst vielen Schienen gleichzeitig zu fahren und offene Standards zu nutzen. Als Grafikkarten empfehlen wir selbst für Stereoproduktionen aktuelle „Gamer“Karten mit möglichst viel Grafikspeicher von AMD oder Nvidia. Quadro-Karten werden nur dann benötigt, wenn bei Stereoproduktionen

2012 Land unter im Compositing – kein Problem für Fusion

spezielle Anzeigesysteme wie zum Beispiel Shutterbrillen eingesetzt werden, die auf die synchrone Ausgabe von zwei Double-Buffern angewiesen sind. Normalerweise ist das aber nur bei der Hero-Workstation für den VFX Supervisor der Fall. DP: Welche Vorteile ergeben sich innerhalb der Fusion-Umgebung mit der GPU-Unterstützung. Bei welchen Funktionen und Berechnungsprozessen bekommt der Artist den Leistungsschub besonders zu spüren? Eric Westphal: Die GPU-Unterstützung teilt sich in Fusion in die beiden Bereiche OpenCL und OpenGL auf. Während OpenGL hauptsächlich den 3D-Raum immens beschleunigt und mit Supersampling und Tiefenunschärfe qualitativ hochwertige Ergebnisse erzielt, er-

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

FOKUS | GPU-COMPUTING

laubt OpenCL die Beschleunigung der klassischen 2D-Compositing-Tools. Am deutlichsten wird das beim DefocusTool, das unter OpenCL teilweise einhundert Mal schneller ist als auf der CPU. Darüber hinaus bieten die OpenCL Fuses dem Anwender die Möglichkeit, OpenCL-Code schnell und einfach in Fusion zu implementieren, um zum Beispiel eigene Shader zu entwickeln. Die mit nativen Fusion Tools erstellten Shader lassen sich ebenfalls als OpenCL-Code anzeigen und über Copy-and-Paste in eigene Fuses übernehmen und modifizieren. Durch den massiven Geschwindigkeitszuwachs führt dies zu einer starken Kostenreduktion, was ja gerade heute immer wichtiger wird. DP: Es ist also möglich mit einer aktuellen Nvidia-Quadro-plus-unterstützenden TeslaKarte ein hochperformantes Profi-System an nur einem Arbeitsplatz zu verwirklichen? Eric Westphal: Selbst ohne Tesla-Karten bieten moderne „Gamer“-Karten mit mehreren hundert Cores und Shaderpipelines sowie 2 GB Grafikspeicher ein unglaubliches Potenzial. Aber wie immer gilt, je mehr Rechenpower ich installiere, desto performanter wird das System. Je nach Anforderungen ist es möglich, ein extrem performantes System schon für deutlich unter 2.000 Euro zu bauen. Die Grenze nach oben ist natürlich offen. DP: Ist diese neu gewonnene Schnelligkeit teilweise auch gleichbedeutend mit einer Zunahme der Kreativität für den Artist? Eric Westphal: Absolut. Schnelleres Feedback gerade bei bewegten Szenen oder Partikelsystemen führt im Endeffekt zu besseren Ergebnissen in kürzerer Zeit, da eventuelle Fehler im Setup oder Optimierungen schneller erkannt und umgesetzt werden können. Um beim Beispiel „Anonymous“ zu bleiben; dort haben zwei Artists dieselbe Leistung erbracht für die bei anderen Softwarepaketen fünfzehn bis zwanzig Artists nötig gewesen wären. Sogar 3D-Artists sind teilweise auf Fusion umgestiegen, um ihre erstellten Szenen direkt im Compositing auszuleuchten, was die Übernahme der Shots durch die Compositing Artists erheblich vereinfachte. DP: Was kann man von zukünftigen FusionUpdates und euren anderen Software-Paketen in Zukunft noch erwarten? Eric Westphal: Momentan sind etliche Neuerungen in Arbeit. Ohne in die Tiefe gehen zu wollen können aber unter anderem Schlagworte wie Stereo- und Multichannel-Workflow genannt werden. Und natürlich wird auch die GPU-Unterstützung kontinuierlich weiter ausgebaut. Auch von der momentan laufenden Kooperation mit AMD versprechen wir uns weitere sehr interessante Synergie❯ jb effekte in diese Richtung.

Anonymous Das neueste Werk von Emmerich erfordert ein digitales London

Die Composites waren immens IGITAL PRODUCTION befragte den VFXSupervisor von „2012“ und Co-Founder von Uncharted Territory Marc Weigert zu den Herausforderungen bei Emmerichs neuestem Projekt.

D

DP: Was waren die größten Herausforderungen für Uncharted Territory im Bereich Composit für das Mammutprojekt „Anonymous“? Und mit welcher Ausstattung habt ihr dabei gearbeitet? Marc Weigert: Für das Compositing haben wir ausschließlich eyeon Fusion benutzt. Für 3D 3ds Max und Massive sowie V-Ray für das Rendering eingesetzt. Shotgun kam für das Shot-Management zum Zuge. Als Hardware hatten wir Dual Quad Cores für 3D und Single Quad Cores (i7) für die CompositingWorkstations mit 24 GB RAM im Einsatz sowie Nvidia-Quadro-4800-Modelle und Fermi-470-Videokarten. Wir hatten nur eine vergleichsweise kleine Renderfarm mit 50 Computern mit je 24 GB RAM als Bestückung. Etwa 20 davon waren mit Nvidia-Karten für GPU-CompositingRenders ausgestattet, der Rest hatte irgendwelche „10-Euro“-Videokarten für 3D-CPURenders. Storageseitig belief sich das Projekt insgesamt auf 100 Terabytes, alles via Windows Server 2008, 64 Bit. DP: Bei einem Historiendrama denkt man nicht an plakative Visual Effects. Was waren die Herausforderungen?

Marc Weigert: Da gab es etliche! Für „Anonymous“ haben wir ganz London im 16ten Jahrhundert in 3D erstellt. Das waren umfangreiche Max-Files, die sich nur in Teilstücken rendern ließen. Wir haben standardmäßig etwa 20 Renderpasses gehabt, wie unter anderem beauty, GI, AO, spec, normals, Zdepth, shadow, renderIDs und so weiter. Die Stadt wurde bei einigen großen Shots in drei Teile geteilt. Für die mit Massive erstellten Leute, Wasserelemente, Schiffe und Bäume haben wir getrennte Layer gerendert. Damit ist man also schon bei etwa 420 Elementen, die man im Compositing bearbeiten muss. Dazu kommt noch Rauch aus hunderten von Schornsteinen, der direkt in Fusions Particle System realisiert wurde. Die Composites waren immens.

Marc Weigert VFX-Supervisor und Co-Founder von Uncharted Territory

29


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

Am Set Emmerich, der „Master of Desaster“, auf den Spuren vom „Master of Poetry“

später dann im Compositing-Programm erst die Änderungen sieht. Dann kommen die Kommentare des Regisseurs dazu, und das Ganze geht wieder von vorne los …

Außerdem sind selbst normalerweise relativ simple Greenscreen-Composites äußerst kompliziert geworden, da die meisten Kostüme, vor allem von Queen Elizabeth (Vanessa Redgrave), sehr viele halbdurchsichtige Seidenkragen hatten, durch die wir unsere grünen LED-Tracking-Markers keyen mussten. Alle Szenen mit Booten sind im Trockenen, also direkt auf dem grünen Studioboden, gedreht worden. Das ist schwierig zu keyen, weil die Boote natürlich ungewollte Schatten auf den Greenscreen-Boden werfen. Wir konnten die Schatten auch in den meisten Fällen nicht wegleuchten, da man sonst zu starke Reflexionen oder äußerst unschönes Bounce Light vom Boden auf das Boot bekommt. Dazu musste die Wasserinteraktion künstlich hergestellt werden. Auch dafür kam Fusion zum Einsatz. DP: Inwiefern hat sich der Compositing-Workflow für die Artist durch die SupercomputingFeatures verändert? Marc Weigert: Bei Uncharted Territory verlagern wir immer mehr Arbeiten, die früher ganz „traditionell“ in 3D-Programmen wie Maya oder Max erstellt worden sind, hin zum Compositing mit Fusion. Wir haben das schon bei „2012“ so gemacht, als Rony Soussan (der Compositing Supervisor bei „Anonymous“) das 3D Particle System in Fusion per Expressions mit der Tonspur verknüpft hat, um automatisch Atem für die Schauspieler in den Winterszenen einzufügen. Das gleiche System wurde jetzt auch bei „Anonymous“ wieder benutzt. Alle anderen Studios, die an ähnlichen Szenen für uns gearbeitet haben, kreieren so etwas in Maya. DP: Es gab also bei euch Vorteile durch den Zeitgewinn für die Artists. Marc Weigert: Ja, in Fusion ist das praktisch in Echtzeit gelaufen, und wir konnten Änderungen via Sekunden machen. Der traditionelle Workflow bedeutet ja, dass man für jede kleine Änderung wieder zurück zu Maya gehen muss, den Shader ändert, neu rendert – falls denn die Renderfarm gerade frei ist – und

30

DP: Hab ihr in Fusion eigene Sachen entwickelt? Marc Weigert: Wir haben viele neue Tricks in Fusion programmiert, um beispielsweise auf die schnellstmögliche Art Projection Mapping zu verwirklichen. Um also ein normales 2DBild, teilweise um Renderzeit zu sparen auch gerenderte Einzelbilder, direkt auf einfache

STEREO 3D

MAKING OF

GUIDE

ON TOUR

3D-Objekte in Fusion zu mappen. Damit konnten wir nachträglich eine dreidimensionale Kamerabewegung im Compositing erstellen. Wir haben damit wunderbare Kranfahrten auf einfachen HDR-Fotos gemacht, die ich in England, beispielsweise in der Salisbury Cathedral, geschossen habe. Da einen Kran hinzuschleppen und mit einem Kamerateam wirklich zu filmen, wäre vom Budget her völlig undenkbar gewesen. Zusätzlich haben wir viele Tools um den „World Coordinate Pass“ herum geschrieben. Der WCP wurde direkt aus V-Ray gerendert und beschreibt die x-, y- und z-Koordinaten jedes einzelnen Pixels. Damit kann man direkt in Fusion ein Pseudo-3D-Bild erstellen, um wieder auf einem gerenderten Einzelbild eine kleine Kamerafahrt zu addieren oder einfach weitere Elemente per Compositing im 3DRaum einfügen. Und all diese Entwicklungen waren GPU-gestützt! Info: www.awn.com/ ❯ jb blogs/tracking-marc

Mehr Flexibilität Adobe hat frühzeitig auf die CUDA-Plattform von Nvidia gesetzt und war letztes Jahr mit der GPU-beschleunigten Mercury Playback Engine in Premiere Pro CS5 das Gesprächsthema in der Editing-Welt. In Zukunft möchte Adobe eine entscheidende Rolle im Bereich Profischnittsysteme spielen. von Jan Bruhnke

D

IGITAL PRODUCTION sprach mit Michael Mörtl, Business Development Manager Digital Video und Audio, über Entwicklungshintergründe und Zukunftsstrategien von Adobe.

DP: Herr Mörtl, Premiere Pro hat in Folge der CUDA-Beschleunigung einen erheblichen Performance-Schub bekommen. Wie ist das Feedback von Profi-Studios, die nun täglich mit der CS5 arbeiten? Michael Mörtl: Durchweg positiv. Profis, die mit Premiere Pro CS5 arbeiten und dabei eine von der Software unterstützte Grafikkarte im Einsatz haben, sind begeistert von der Echtzeit-Performance. Diese ist selbst bei aufwendigem Material mit vielen Spuren und Effekten noch gegeben. Ein Kunde sagte mir neulich, dass sich Schnitt und Compositing von HD-Material dadurch so flüssig anfühlen,

als würde man mit normalem PAL-Material arbeiten. Die Arbeit unserer Entwickler hat sich also gelohnt! DP: Im Bereich der GPU-Beschleunigung hat Adobe eng mit Nvidia zusammengearbeitet. Hat sich Adobe bewusst für die CUDA-Plattform entschieden? Anwender anderer Grafikkartenhersteller bleiben da außen vor. Was waren die Gründe für diese Entscheidung? Michael Mörtel: Wir haben bereits sehr früh mit der Arbeit an dieser Technologie begonnen. Letztlich ist ein solcher Entwicklungsprozess ja stets ein mittel- bis langfristiges Projekt. Als wir anfingen, uns damit zu beschäftigen, Grafikkarten zur Beschleunigung zu nutzen, gab es quasi nur die CUDA-Plattform. Andere Anbieter waren damals mit der Entwicklung noch nicht so weit fortgeschritten, als dass man deren Technologien hätte

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

FOKUS | GPU-COMPUTING

nutzen können. Deshalb haben wir damals auf Nvidia gesetzt und diese Zusammenarbeit über die Jahre hinweg fortgesetzt.

ter anderem die Tatsache, dass sich unsere Software einfacher implementieren lässt als vergleichbare Produkte am Markt.

DP: Strebt Adobe im Profi-Hardware-Sektor weitere Partnerschaften an, etwa auch im Bereich kompletter Workstation-Systeme? Michael Mörtl: Wir möchten unseren Anwendern offene Systeme anbieten und sind deshalb bestrebt, mit möglichst vielen Partnern zusammenzuarbeiten. Maßgeblich sind dabei in erster Linie die Wünsche unserer Kunden – diesen nachzukommen, hat für uns stets Vorrang. Wir konzentrieren uns deshalb nicht auf einen Hardware-Hersteller, sondern pflegen gute Beziehungen zu einer Reihe von Unternehmen aus der Branche.

DP: Gerade die Synergie-Effekte für komplexere Medienproduktionen, die durch ein stringentes Arbeiten auf Basis der CS5 auf Grund des Metadaten-Handlings entstehen, sind sicherlich nicht zu unterschätzen. Michael Mörtl: Das ist richtig. Aus unserer Sicht ergeben sich zweierlei Arten von Synergie-Effekten. Zum einen wäre da der Workflow an sich. Mit unseren Video-Produkten decken wir mittlerweile den gesamten Produktionsprozess ab. Das beginnt mit dem Einsatz von Adobe Story im Rahmen der Drehvorbereitung. Informationen, die hierbei in ein Skript oder Drehbuch einfließen, stehen anschließend in Form von Metadaten durchgehend zur Verfügung – sei es beim Schnitt, wodurch das Finden von Assets erleichtert wird oder bei der Ausgabe eines fertigen Films, der anhand von Metadaten durchsuchbar wird. Ein weiterer Synergie-Effekt besteht im Bereich der Ausgabe. Hier unterstützen wir mit unseren Produkten nicht nur einen Output in Richtung Fernsehen, Kino oder ein bestimmtes Gerät. Beim Einsatz der Adobe-Software ist es vielmehr so, dass Inhalte einmal produziert werden, die sich dann auf verschiedensten Ausgabegeräten wiedergeben lassen.

DP: Mit der verbesserten Performance ist Premiere Pro eine Profialternative zu etablierten Editing-Plattformen. Welche Vorteile versprechen sich Medienunternehmen wie die BBC, die sich letztes Jahr umfangreich mit Premiere-Lizenzen ausgestattet haben. Was hat Adobe im Videosektor in Zukunft vor, welche Branchenbereiche möchte man anvisieren? Michael Mörtl: Der Fokus unserer Produktentwicklung im Videosektor geht klar in Richtung Broadcast und professionelle Postproduktion. Was die BBC betrifft, so haben diese bereits 2007 im Rahmen ihrer damals gestarteten Creative-Desktop-Initiative damit begonnen, eine neue Form von Arbeitsplätzen zu schaffen. Neben Effizienz, Produktivität und Kostensenkungen ging es darum, auch die Flexibilität der Mitarbeiter zu erhöhen. Dadurch, dass alle Rechner innerhalb des Unternehmens einheitlich ausgestattet sind, können produzierte Inhalte schneller und vielfältiger genutzt werden. Konkret kann ich von jedem Arbeitsplatz aus, egal ob Vertrieb, Controlling oder Redaktion, auf Projekte und Sequenzen zugreifen und diese für die jeweilige Verwendung aufbereiten. Ausschlaggebend für die Entscheidung zugunsten von Premiere Pro war dabei un-

»Unsere Entwicklung geht klar in Richtung Broadcast und professionelle Postproduktion«

DP: Es scheint, dass Adobe gerade im Bereich Premiere Pro ein Ohr für seine Anwender hat. Man zeigt sich zum Teil flexibler als die Konkurrenz, denkt man auch zurück an die frühe Auseinandersetzung mit dem Support von RED-Daten. Funktioniert nur so zukunftsorientierte Entwicklung? Michael Mörtl: Ganz klar ja – und genau diese Art der Produktentwicklung leben wir auch. Ein schönes Beispiel hierfür ist meiner Meinung nach unser Broadcast-Engineering-Team. Diese Gruppe ist aus unserem Entwickler-Team für die Videoprodukte hervorgegangen, um sich speziell mit den Anforderungen und Bedürfnissen unserer Kunden aus dem Broadcast-Umfeld zu befassen. Mit diesen steht das Team in regelmäßigem Kontakt und Austausch. Wünsche für künftige Entwicklungen, die dabei von den Kunden geäußert werden, baut das Team beispielsweise in eine spezielle Version von Premiere Pro ein, die anschließend dem Broadcaster wieder zur Verfügung gestellt wird. Dieser testet diese individualisierte Version und trägt durch seine anschließende Rückmeldung an das

Michael Mörtl Business Development Manager Digital Video und Audio von Adobe

Entwickler-Team zur weiteren Entwicklung einer Funktion oder Technologie bei – von der ersten Vorversion bis zur Serienreife. Wir als Hersteller sind dadurch näher am Markt und können unseren Kunden Produkte anbieten, die tatsächlich im Live-Einsatz und auf Basis von Rückmeldungen aus der Praxis entstanden sind. Und unsere Broadcast-Kunden erhalten auf diesem Weg maßgeschneiderte Produkte für ihre speziellen Anforderungen. DP: Wie sieht es mit den Drittherstellern von Effekt-Plug-ins für Premiere und After Effects aus. Ist Adobe auch mit diesen „kleineren“ Firmen in Abstimmungsprozessen? Michael Mörtl: Firmen, die durch ihre Lösungen die Adobe-Produkte erweitern, ergänzen oder unterstützen, sind uns bei Adobe sehr wichtig. Speziell für diese Unternehmen bieten wir deshalb unser Solution-PartnerProgramm an. Darüber erhalten Partner entsprechend Zugriff auf die notwendigen Ressourcen, Tools und Informationen, um ihre Lösungen frühzeitig an neue Entwicklungen anpassen zu können. DP: Was sind die kommenden Herausforderungen für Adobe im Jahr 2011 im Sektor Video/Audio? Können Sie bereits einen kleinen Ausblick auf die Roadmap geben? Michael Mörtl: Was Details unserer Roadmap betrifft, kann ich nur sagen: Lassen Sie sich überraschen! Ein Thema, welches uns sicher das ganze Jahr über begleiten wird, sind die Entwicklungen im Broadcast-Sektor. Unsere Kunden haben hier beispielsweise den Umstieg von SD auf HD, das Zentralisieren ihrer Datenverwaltung sowie den Wechsel von bandbasierten auf bandlose Workflows zu bewältigen. Wir sehen uns dabei ganz klar als Partner unserer Kunden, der bestehende Herausforderungen gemeinsam mit diesen ❯ jb meistert.

31


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Dreamcatcher Features wie die GPU-gestützte Mercury-Playback-Engine der CS5 verleihen anspruchsvollen Medienproduktionen im wahrsten Sinne des Wortes Flügel. Realtime-Playback von HD-Auflösungen und viele weitere Vorteile in Premiere Pro und After Effects helfen Artists, heute schneller und kreativer am Set und in Postproduktion zu agieren. Die Stuttgarter Postproduktionsfirma Unexpected konnte unlängst davon profitieren, bei einem Werbefilm mit kinoreifen Spezialeffekten.

E

in kleiner Junge läuft mit seinem Schulranzen durch eine Stadt. Neben ihm hält ein Auto, um einzuparken. Ganz normaler Alltag. Doch plötzlich geschehen erstaunliche Dinge: Neben dem Jungen taucht King Kong auf und reicht ihm die Hand, Düsenjets fliegen Kunststücke durch die Häuserschluchten, Formel-1-Rennwagen rasen durch ein Einkaufszentrum ... Die Szenen aus

einer Stadt, in der alle Träume real werden, stammen aus einem Werbespot. Er visualisiert den Slogan „What are you thinking?“ des Telekommunikationsanbieters Batelco mit Hilfe von zeitgemäßen Visual Effects, die den Zuschauer verzaubern Der Auftraggeber Batelco, ansässig im Königreich Bahrain, beschloss im Jahr 2009 zu expandieren und sich als globaler Partner

Anspruchsvolle Postproduktion 4 Wochen hatte Unexpected für die 100 aufwendigen VFX-Shots

32

für Kommunikation zu positionieren. Seine Werbeagentur FP/7 und die Filmproduktionsfirma City Films aus Beirut kontaktierten das Regieduo „Alex & Steffen“, das sich zusammen mit ihrer Stuttgarter Postproduktionsfirma Unexpected (www.unexpected. de) einen weltweiten Ruf bei Werbespots mit einem hohen Anteil an visuellen Effekten erarbeitet hat. Die verrückte Stadt gab es schon im ersten Skriptentwurf, der den hohen Aufwand erahnen ließ. „Geplant waren von Anfang an 120 Sekunden Länge – das ist schon fast Kurzfilm-Format. Fernseh-Spots sind selten länger als 30 Sekunden“, berichtet Steffen Hacker, Head of VFX Unit bei Unexpected, der zusammen mit Alexander Kiesl, Managing Director, Regie führte. Dabei blieb es nicht. „Während wir in der Vorbereitungsphase die Locations in Toronto sichteten, hatten wir viele zusätzliche Ideen, um den Film weiter aufzuwerten“, fügt Hacker hinzu. Am Ende reichten die zwei Minuten nicht mehr, um die finale Geschichte zu erzählen. Der Kunde war von den Ideen begeistert, wollte jedoch das ursprünglich angesetzte Budget nicht überziehen. „So blieb uns nur, entweder einige Ideen oder komplette Drehtage zu streichen. Beides kam für uns nicht in Frage. Also mus-

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

FOKUS | GPU-COMPUTING

sten wir einen Dreieinhalb-Minuten-Film in der gleichen Zeit fertigstellen, in der wir die 120-Sekunden-Version produziert hätten, sowohl beim Dreh, als auch in der Postproduktion“ erzählt Hacker.

Echtzeit-Kontrolle vor Ort Um die umfangreichen Dreharbeiten mit dem vorhandenen Budget zu bewältigen, musste das Team in die Trickkiste greifen. Zunächst kam statt einem gezeichneten Storyboard ein Animatic zum Einsatz, das eine viel detailliertere Planung der einzelnen Szenen ermöglichte. Eine 3D-Animation skizziert dabei die Filmhandlung. „Der Kameramann kann damit schnell die Ideen verstehen. Wir haben beim Dreh direkt vor Ort unser Animatic auf einem Smartphone gezeigt, das half allen sich die fertige Szene vorzustellen“, berichtet Kiesl. Digitale Spiegelreflexkameras mit Videofunktion ersetzten beim Dreh die sonst bei Werbespots üblichen analogen Filmkameras. DSLR-Kameras sind günstig in der Anschaffung und die Qualität der Bilder liefert Filmoptik. Und sie sind aufgrund ihrer kompakten Größe fast unsichtbar. „Den Verkehr in Toronto kann man nur kurz absperren. Die Stadt sollte aber belebt aussehen. So konnten wir mehrere kleine Kamera-Crews in den Straßen platzieren, die von den Passanten weniger stark wahrgenommen wurden, als eine normale Kamera-Crew“, so Hacker. So konnte das Team hinter den eigenen Komparsen ganz normale Passanten einfangen, die man sich sonst durch enormen Zeit- und Kostenaufwand erkaufen müsste. Ein Problem bei HD-Filmmaterial aus DSLR-Kameras war bisher jedoch der schwierige Echtzeitschnitt. Vor dem Sichten muss üblicherweise das Material erst transcodiert werden. Premiere Pro CS5 erwies sich als Segen beim Dreh vor Ort. „Damit konnten wir die .mov-Dateien aus den DSLR-Kameras nativ in voller Auflösung in Echtzeit bearbeiten, nur wenige Sekunden nach dem Dreh. So konnten wir gerade für die Visual Effects wichtige Previews in kürzester Zeit noch am Drehort testen – und das auf einem ganz normalen Notebook“, erklärt Hacker.

100 VFX-Shot in 4 Wochen Mit dem umfangreichen Rohmaterial in Deutschland angekommen, stand das zehnköpfige Postproduktions-Team vor der Aufgabe, in nur vier Wochen 100 Visual-EffectShots zu erstellen – mehr als in so manchem Spielfilm. Viele Szenen bestanden sogar komplett aus Computer-Animationen, andere enthielten aufwendige Maskierungen, um Realfilm mit CG-Grafiken zu kombinieren. Beim Rotoscoping, der üblichen Arbeitstech-

Direkt Das DSLR-Footage vom Dreh konnte ohne Transcodierung in Premiere Pro CS5 einfließen

nik, werden per Hand Masken für das Ineinanderkopieren in jedem Einzelbild erstellt – ein enormer Aufwand. „Nach unseren guten Erfahrungen mit Premiere Pro CS5 haben wir After Effects CS5 für das Compositing verwendet. Dadurch konnten wir von dem neuen Roto-Pinsel profitieren. Er ist das beste Feature seit es Postproduktions-Programme gibt. Wir haben dank ihm zweieinhalb Wochen gespart. Wir hätten das Projekt sonst nie geschafft“, sagt Hacker. Der Roto-Pinsel, ein neues Werkzeug in After Effects CS5, das in kürzester Zeit sich bewegende Vordergrund-Objekte vom Hintergrund isolieren kann, kam in der Hälfte aller Szenen im Spot zum Einsatz. Zehn Minuten

„Mit 64-bit-Unterstützung haben sich Schnitt und Compositing so flüssig angefühlt, als würde man mit normalem PAL-Material arbeiten – obwohl wir volle 1080p-HD-Auflösung verwendet haben.“ Gerade die offene Architektur von Premiere Pro CS5 ermöglicht kreatives Arbeiten ohne Einschränkungen. „Egal welches Format und welche Auflösung, jegliches Material – seien es Animatics, Quicktime-Filme, MPEG4, HD-AVI-Dateien et cetera – ließen sich in der Timeline mischen, ohne dass etwas transkodiert werden musste”, erklärt Hacker. Auch vom vereinfachten Austausch zwischen Premiere Pro und After Effects ist das Team begeistert. Hacker kommentiert: „Beide Programme sind nahtlos zusammengewachsen. Wir haben so mehr Möglichkeiten, nachträglich noch einzugreifen. Der klassische Ablauf ‚Zuerst Schnitt und dann Compositing und dann Farbkorrektur‘ ist nicht mehr zwingend erforderlich. Wir haben mehr kreative Möglichkeiten als je zuvor.”

Mittendrin Roto-Pinsel Das neue Tool in After Effects CS5 sparte viele Stunden bei den Rotoscoping-Jobs

mit dem Roto-Pinsel konnten mehrere Stunden manuelle Arbeit ersetzen.“ Auch bei der anderen Hälfte der Szenen sparte er Zeit. Er lieferte in kurzer Zeit brauchbare Grundlagen für die Masken, die von Hand noch verfeinert wurden. „So haben wir unter Einhaltung aller gegebenen Deadlines fast alle gedrehten Szenen mit digitalen Effekten aufgepeppt und viele neue dazu animiert“, freut sich Hacker.

Neue Wege beim Playback Entscheidend war auch die enorm verbesserte Performance der Videoprogramme in der Creative Suite 5, dank der von Grund auf neu gestalteten Mercury Playback Engine.

Nach dem Abschluss der Postproduktion kam Flash Professional CS5 ins Spiel: Die Firma Stink Digital aus London nutzte Flash nicht nur für die Wiedergabe im Web, sondern integrierte noch einen interaktiven Layer für die Facebook-Version des Films. Per Webcam filmt er die Reaktionen des Zuschauers. So kann jeder – wenn gewünscht – seine Mimik beim Betrachten auf Facebook veröffentlichen. Auf der sozialen Plattform wurde der interaktive Film innerhalb kürzester Zeit zum Hit. Er konnte in wenigen Wochen mehr als 113.000 Freunde aus 46 Ländern und noch viel mehr Abrufe erreichen. Nach diesem Erfolg sind Premiere Pro CS5 und After Effects CS5 bei Unexpected bereits wieder im Einsatz: für einen russischen Autowerbespot, in dem es vor digitalen Spe❯ jb zialeffekten nur so wimmelt.

33


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

GPU-unterstütztes Rendering in 3ds Max Seit einiger Zeit hat der Begriff GPU based Rendering Einzug in unsere stetig wachsende 3D-Welt gefunden. Was jedoch versteht man überhaupt unter dem Begriff „GPU-unterstütztes Rendering“? GPU ist die Abkürzung für Graphic Processing Unit (Grafikprozessoreinheit), während CPU die Core Processing Unit (Kernprozessor) ist. Mit GPU sind also die Rechenprozessoren der Grafikkarte gemeint und die CPU sind Prozessoren auf dem Motherboard. Grafikkarten sind schneller im Denkprozess, wodurch es Sinn macht dies für rechenintensive Aufgaben zu nutzen. von Mike Kuhn

D

ie Technik mit GPU Rendering ist keine Neuigkeit. Es gibt sie schon seit einer geraumen Zeit. Frühere Renderer sind zum Beispiel Maxwell oder auch Gelato, ein Renderer von Nvidia, der jetzt als Freeware erhältlich ist. Aktuell bietet 3ds Max neben einigen bestehenden internen Renderern zwei weitere Renderer, welche auch die GPU zum Berechnen der Bilder einbeziehen. Quicksilver und seit kurzem, als Advantage Pack für 3ds-Max-Anwender mit Subscription, der Renderer mental ray iray. In diesem Artikel gehe ich auf die Handhabung von iray ein. Der Renderer iray resultiert aus einer Zusammenarbeit von Nvidia und mental images. Iray nutzt alle im System befindlichen CUDAfähigen GPUs sowie alle CPUs. Um die Kraft der GPUs sinnvoll zu nutzen, ist natürlich auch eine entsprechende Grafikkarte zu empfehlen. Auf der Seite www.nvidia.com/object/ quadro-3ds-max.html findet man sowohl eine Liste mit empfohlenen Grafikkarten als auch ein Benchmark-Diagramm. Richtig produktiv wird der Renderer, wenn mehrere mächtige Grafikkarten zusammengeschaltet werden. Es ist sogar möglich, un-

34

terschiedliche Grafikkarten zu nutzen, auch aus unterschiedlichen Generationen. Bei einem Vergleich zwischen CPU und GPU hängt der Leistungsunterschied stark von der Auswahl der CPUs und der GPUs ab. Jedoch kann man bei modernen Bauteilen davon ausgehen, dass ein Tesla GPU zirka sechs Mal schneller ist als ein Single Quad Core CPU. Wichtig für GPU Rendering ist auch, dass die gesamte Szene in den GPU-Speicher passen muss. Sollte die Szene größer sein, werden die GPUs nicht nur teilweise, sondern überhaupt nicht genutzt und alle Berechnungen werden nur noch von den CPUs und dem RAM gerendert. Falls die Szene auch nicht in den RAM passt, fängt der Rechner an auszulagern und der ganze Geschwindigkeitsvorteil ist wieder dahin. Grob überschlagen muss man mit 1 GB pro 8 Millionen Dreiecke plus 3 Bytes/Pixel pro genutzter Bildtextur rechnen. Bisher bietet 3ds Max noch keine Standardeinstellungsmöglichkeiten um zu definieren wie viele GPUs und CPUs beim Rendern genutzt werden. Es wäre jedoch nicht 3ds Max, wenn sich das nicht durch ein paar Zeilen in MAX-

Script regulieren ließe oder aber man greift auf das Script iray Manager 1.4 zurück (http:// dimensao3.com). Neben dem CPU/GPU Management bietet dieses Script auch noch weitere Annehmlichkeiten.

Was ist bei iray zu beachten? Neben Vorteilen hat iray auch Restriktionen, auf die man achten muss. Als Renderer aus dem Hause mental images unterstützt iray natürlich alle mental-ray-spezifischen Materialien wie die Arch & Design Materials und Autodesk Materials mit Ausnahme von Autodesk Metallic Paint. Beim Arch & Design Material werden manche Einstellungen direkt von iray definiert und somit eigene Benutzereingaben ignoriert. Im Bild nebenan wird gezeigt, welche Bereiche im Arch & Design Material vom Anwender eingestellt werden können und welche Bereiche iray automatisch übernimmt. Auch bei der Nutzung von Maps und Shadern gibt es ein paar Einschränkungen. So ist die Liste der nutzbaren Maps und Shader im Moment doch noch relativ kurz. Natürlich wird Bitmap

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

Mike Kuhn, Industrial Designer und Application Engineer für 3ds Max, ist der einzige von Autodesk zertifi zierte Trainer für 3ds Max in Deutschland. Neben Produktion und Schulungen ist er als Troubleshooter international tätig. www.in3.de

unterstützt. Im Koordinaten-Roll-out muss dann Texture ausgewählt sein. Alle anderen Koordinatenarten werden nicht unterstützt. Explizite Mapkanäle, Planar From Object XYZ und Planar From World XYZ Mappingkoordinaten werden innerhalb der Mapkanäle von 1 bis 4 unterstützt. Ignoriert, oder besser gesagt, automatisch von iray definiert werden auch die Häkchen bei UV Mirror/Tile sowie die Eingaben bei Blur/ Blur Offset. Im Bitmap Parameters Roll-out ignoriert iray Filtering, Mono Channel Output, RGB Channel Output und die Alpha-SourceEinstellungen. Des Weiteren werden unterstützt die Maps Kelvintemperatur Farbmap, Mix Map, Normal Bump Map, RGB Multiply Map, mr Physical Sky, Noise Map und Output Map. Die Unterstützung der Noise Map hilft, da iray alle weiteren Noise-Einstellungen in anderen Roll-outs ignoriert. Zum Thema Output Map sollte erwähnt werden, dass iray im Output Roll-out der jeweiligen Maps nur die Einstellungen zu Output Amount, RGB Offset, RGB Level und Bump Amount unterstützt. Wenn man die Materialien erstellt nachdem man iray als Renderer zugewiesen hat, können Sie im Materialeditor nur die Materialien und Maps auswählen, die von iray zugelassen sind. Das hilft schon mal Fehler zu vermeiden. Von der Geometrie werden alle renderbaren Objekte unterstützt, inklusive mr Proxy Objects. Alle Objekte werfen Schatten. Ände-

WORKSHOP | GPU-RENDERING IN 3DS MAX

rungen in den Objekteigenschaften werden nicht berücksichtigt. Jedoch haben meine Tests ergeben, dass der Visibility-Kanal genutzt werden kann. Da iay alles physikalisch korrekt berechnet, müssen alle Lichter in der Szene photometrische Lichter sein. Dazu gehören auch mr Sky Portal, mr Sun, und mr Sky. Natürlich ignoriert iray jegliche Einstellungen bei den Schatten und berechnet diese einfach physikalisch richtig. Selbstleuchtende Materialien werden wie Lichter berechnet und können somit alles erleuchten und Schatten werfen. Während man momentan noch auf Bewegungsunschärfe verzichten muss, funktioniert Tiefenunschärfe einwandfrei und kostet nicht einmal extra Renderzeit. Im Moment verzichten muss man auf Render Effects, Render to Texture, Panorama Exporter und die Lichtanalyse bei 3ds Max Design. Batch Rendering, Command-Line Rendering und Backburner werden jedoch unterstützt. Das erlaubt somit die sinnvolle Nutzung von iray in Animationen. Auch wenn all diese Restriktionen auf den ersten Blick sehr einschränkend wirken, muss man bedenken, dass hier in den meisten Fällen nicht etwa Features zurückgehalten werden, sondern dass diese Einstellungen oft von iray übernommen und somit physikalisch korrekt berechnet werden.

Iray-Einstellungen

Verfügbare Maps

Die Iray-Einstellungen Die Grundsettings von iray sind eigentlich schnell eingestellt. Man gibt an wie lange man dem Rendering Zeit geben möchte oder bis zu welcher Unterteilungstiefe man die Berechnungen laufen lassen möchte und drückt auf den Rendern-Knopf. So einfach kann das Leben sein. Nun gut, es gibt noch ein paar weitere Feinheiten, um zusätzliche Features freizugeben oder auch den Rendervorgang zu beschleunigen. Diese finden Sie unter Erweiterte Parameter (Advanced Parameters). Unter Trace-/ Reflexionslimits (Trace/Bounce Limits) können Sie das Rendering beschleunigen, indem Sie die Anzahl reduzieren, wie oft der Lichtstrahl von Oberflächen abprallen darf. Dies reduziert zwar die Renderzeiten, führt jedoch auch zu einer schlechteren Qualität in der Beleuchtung und zu dunkleren Bildern. Das wird speziell in verschachtelten Ecken deutlich sowie in Bereichen, die hauptsächlich durch die Umgebungsbeleuchtung, also den abprallenden Lichtstrahlen, beleuchtet werden. Im Abschnitt Bildfilterung (antialias) (Image Filtering (Antialiasing)) kann durch die Wahl der Filtermethode die Qualität und Geschwindigkeit beeinflusst werden. Box ist hier die schnellere Wahl. Width definiert die Größe des zu berechnenden Bereichs für das

iray nach knapp zwei Stunden, DeGrain

iray nach knapp 2 Stunden, Grain

35


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

Antialiasing. Bei höheren Werten werden größere Bereiche berechnet und die Gesamterscheinung weicher, aber auch die Renderzeit länger. Die beiden weiteren Abschnitte sind ja bereits von anderen Renderern bekannt. Verschiebung (Displace) ermöglicht die Einstellung wie fein die Geometrie für Displacement Maps beim Rendern unterteilt werden soll. Material übergehen (Material Override) ist beim Einrichten der Lichtsituation sehr hilfreich, indem Sie der ganzen Szene dadurch ein neutrales Material zuweisen. Wenn Sie es sich ganz einfach machen wollen, können Sie auch auf die Shader Utilities zurückgreifen, geschrieben von Thorsten Hartmann (www.infinity-vision.de/ Shader Utilities). Mit dem Hilfsprogramm definieren Sie welche Qualitätsstufe Sie erreichen möchten und drücken auf den SetKnopf. Daraufhin wird die gesamte Szene entsprechend optimiert.

iray Defl y

iray Firefl y In Arch & Design Material werden vom Anwender Bereiche eingestellt, die iray automatisch übernimmt

Optimierungsmöglichkeiten Die Komplexität einer Szene beeinflusst die Renderzeit nur teilweise. Viel wichtiger für die Renderzeit ist die Komplexität der Wege, die das Licht zurücklegen muss. So ist eine Außenszene mit einem Tageslicht-System wesentlich leichter und schneller zu rendern als eine Szene mit Katakomben, die mit fl ackernden Fackeln beleuchtet werden. Auch die Menge und Komplexität der Materialien wird sich auf die Rechenzeiten auswirken. Je mehr Materialien in der Szene sind und je verschachtelter die Materialien sind, desto länger wird die Renderzeit. Bei Daylight-beleuchteten Innenszenen kann man auch die Fenstergeometrie verdecken und somit aus der Berechnung ausschließen. Dadurch erreicht man ein leicht helleres Bild und wesentlich weniger Rauschen in kürzerer Zeit. Jedoch fehlen in diesem Fall auch die farbliche Nuance der Fensterscheibe und die Reflexionen darin.

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Anfangsphase des Renderings werden diese Lichtflecken die Szene immer weiter füllen. Erst nach mehreren Illiterationen werden diese Lichtblitze nach und nach aufgelöst – wie in den zwei Bildern links zu sehen ist. Auf der anderen Seite ist dies auch kein neues Problem. Schon früher hatte jeder Film seine Körnung und es gab entsprechende Werkzeuge diese zu entfernen. Zum Glück wird mit 3ds Max ein Compositing-Werkzeug mitgeliefert. Ein kurzer Test in Composite (Toxik), bei dem nur ein Degrain Node an das Bild geknüpft wurde, ergab nach einem Klick auf Analyze folgenden Unterschied. Eine feinere Justierung der Degrain-Einstellungen kann dann natürlich auch diese Ergebnisse noch zustäzlich verbessern.

Fazit Auch wenn dieser Artikel ein wenig techniklastig erscheint, werden Ihnen diese Informationen helfen schnell gute Ergebnisse zu erreichen. Sie können so vermeiden in gemeine Fallen zu tappen, bei denen Sie lange suchen müssen warum das Rendering manche Objekte falsch darstellt. Der Vorteil von iray liegt ganz klar darin dass man sich nicht lange mit den Rendereinstellungen „rumplagen“ muss, um durch viele Versuche die optimalsten Sample-Einstellungen herauszufinden und das beste Resultat zu erreichen. Sie müssen nur noch dafür sorgen, dass die Materialien und das Licht stimmen. Der Rest wird dann von iray ❯ ei physikalisch korrekt erledigt.

Nachbearbeitung

Diese Szene wird nur mit selbstleuchtenden Materialien erhellt. Es wurden keine weiteren Lichter verwendet

36

Die Körnung hatte mich bei den RenderErgebnissen am meisten gestört. Deshalb habe ich diesen Punkt näher untersucht. Man könnte das Bild einfach so lange rendern lassen, solange bis alles Rauschen verschwunden ist. Das kann jedoch sehr viel Zeit beanspruchen. Eine weitere Möglichkeit besteht darin, das Bild in höherer Auflösung zu rendern und dann zu verkleinern. Auch Programme wie Defly von Konstatins Visnevskis zum Entfernen von Fireflies können sehr hilfreich sein. Mit Fireflies sind die hellen Flecken in den Renderings gemeint. In der Abbildung sehen Sie den Unterschied an einem Bild mit einer Minute Renderzeit vor und nach der Anwendung von Defly. In der

Der Unterschied liegt in den Details – zum Beispiel der Spiegelung im Fenster

WWW.DIGITALPRODUCTION.COM


Contribute Interact Participate Vom 3. bis 6. Mai treffen sich in Stuttgart bereits zum 16. Mal die weltweit führenden Fachleute in der Kreation, Produktion und Distribution von Digital Entertainment und interaktiver Visualisierung. In diesem Jahr stehen technische Entwicklungen wie Previz und Editing in 3D oder der Einfluss von Open Source im Blickpunkt, aber auch neue Trends im Lighting und interaktive Technologien. Darüber hinaus bietet die FMX 2011 ein vielfältiges Programm mit neuen Animationsfilmen, Visual Effects und Games sowie weiteren Überraschungen. Erleben Sie die Vorträge der Konferenz, die Workshops und Präsentationen in den Forums und die Screenings. Treffen Sie Branchenexperten beim Animation Production Day und lassen Sie den Abend beim Internationalen Trickfilm-Festival Stuttgart ausklingen. 16th Conference on Animation, Effects, Games and Interactive Media 3. - 6. Mai, 2011 | Stuttgart | www.fmx.de Follow us on Twitter and Facebook.


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Füllmaterial Mercalli bietet wahlweise die Auffüllung des Bildes durch Farbwerte der Randpixel

Bildstabilisierung bei CMOS-Kameras Die Verzerrungen durch den Rolling Shutter bei Kameras mit CMOS-Bildsensoren stellen für Software-Stabilisierer eine enorme Herausforderung dar. Erst seit kurzem gibt es Plug-ins, die auch eine Kompensation solcher SkewEffekte versprechen. Wir haben uns Lock and Load X von CoreMelt und Mercalli V2 von ProDAD näher angesehen, die von Prof. Uli Plank beide unter anderem auch für Final Cut Pro (kurz: FCP) verfügbar sind.

B

ildstabilisierung per Software war früher ein sehr mühseliges Geschäft: Man musste von Hand geeignete Bilddetails auswählen, deren Tracking oft mehrfach testen und schließlich die geeignetsten Punkte verfolgen lassen. Auf dieser Grundlage ließ sich dann das Bild beruhigen, doch zusätzlich musste noch die passende Skalierung gewählt werden, um nicht zu viel Bildschärfe zu verschenken. Wenn ein Schwenk oder eine Kamerafahrt den Ausschnitt änderte, waren meist mehrere Trackingvorgänge fällig und eine Animation der Positionsdaten, um

Old School Mit manuellen Trackerpunkten und deren Optimierung muss man sich zur Stabilisierung nicht mehr herumärgern

38

das Bild möglichst geschickt nachzuführen. Erst seit wenigen Jahren ist auch im unteren Preisbereich genug Computerleistung verfügbar, um diese Vorgänge weitestgehend zu automatisieren. Moderne Stabilisierer finden und validieren ihre Trackingpunkte selbst und haben auch bei Schwenks und Fahrten keine Probleme, neue Bildbereiche zu bestimmen und zu verfolgen. Darüber hinaus bietet moderne Software Einstellungen, um den gewünschten Kompromiss zwischen Bildberuhigung und Schärfeverlust durch die Skalierung einfach per Schieberegler zu bestimmen. Ein typischer Vertreter stammte ursprünglich aus dem High-End-Paket Shake, das sich Apple einverleibte und als SoftwareSteinbruch ausschlachtete. Ergebnis war die Funktion „SmoothCam“ in FCP 6, die anfangs in ihrer Leistungsfähigkeit eine kleine Sensation darstellte. Doch abgesehen davon, dass SmoothCam merkwürdigerweise in der aktuellen Version 7 gelitten zu haben scheint (zumindest bei Verwendung von Interlace-Material) gab es seinerzeit auch noch nicht so viele Kameras mit CMOS-Sensoren.

Das Problem Anders als CCD-Bildaufnehmer tasten die heute üblichen CMOS-Sensoren nicht die gesamte Bildfläche mit einem Schlag ab, sondern quasi wie ein Scanner zeilenweise von oben nach unten – das nennt man Rolling Shutter (kurz: RS). Bei sehr hochwer-

Bremse SmoothCam ist nicht besonders schnell und analysiert zudem das komplette Original

tigen Kameras wie der Alexa von ARRI oder der RED One mit MX-Chip geht das ziemlich schnell – für die zukünftige Epic von RED werden noch bessere Werte versprochen, die sich dann bereits in der Nähe einer konventionellen Umlaufblende bewegen sollen. Bei kostengünstigen Kameras wie der EX-1 oder EX-3 von Sony dagegen ist der Effekt bereits wesentlich störender und verdoppelt sich

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

dann nahezu bei den filmenden Fotokameras. Ganz katastrophal wird es bei HD-Filmen aus dem Handy, weil dessen Hardwareleistung für eine schnellere Abtastung einfach noch nicht reicht. Bei horizontalen Bewegungen führt der RS zum Kippen von Objekten im Bild, bei senkrechten zu Stauchungen und Streckungen. Bei unruhigen Bildern mit normaler Bewegungsunschärfe fällt das meist noch gar nicht so sehr auf, aber gerade nach einer erfolgreichen Stabilisierung wird der Effekt ganz offensichtlich. Das gesamte Videobild sieht dann aus, als wäre es auf einen Wackelpudding gedruckt worden – die Amerikaner nennen das anschaulich „Jello Cam“ (Geleekamera). Der erste Stabilisierer, der Möglichkeiten zur Milderung anbieten konnte, war der Deshaker von Gunnar Thalin, der als Donationware für VirtualDub auf dem PC zur Verfügung steht. Leider arbeitet diese Software recht langsam und die Feinjustage erfordert erheblichen technischen Sachverstand. Von The Foundry kam dann der erste professionelle Filter zur Korrektur des Rolling-Shutter-

Mimose Mercalli ist schnell, möchte aber bei der Analyse völlig in Ruhe gelassen werden

Effekts als Plug-in für After Effects oder Nuke. Er leistet bei gutem Ausgangsmaterial Erstaunliches, ist aber mit 350 Euro nicht gerade billig, bietet keine Stabilisierung und arbeitet nicht mit Schnitt- sondern nur mit Compositing-Programmen zusammen.

VERGLEICH | STABILISIERER

Verbogen Keines der Programme konnte Bilder aus dem iPhone befriedigend entzerren – so schief sind diese Häuser nicht …

EX-1, der Canon 7D und schließlich noch aus einem iPhone 4 bearbeitet. Die CCD-Aufnahmen dienten als Referenz für die reine Stabilisierungsleistung, da hier kein RS auftritt. Wir testeten reine Handkameraufnahmen, mal mit und mal ohne aktivierten Bildstabilisator in der Kamera. Neben einem Interview mit einigen Zooms und Wacklern mehrere Fahrten im Auto und einige Gänge. Bei den Fahrten waren Aufnahmen in frontaler Richtung mit mehreren anderen, sich bewegenden Fahrzeugen und seitliche Aufnahmen mit in der Tiefe gestaffelten Objekten wie einer Stadt im Hintergrund, Bäumen im Mittelgrund und Fußgängern in Bewegung eine besondere Herausforderung für die Software. Schließlich muss die Automatik in solchen Fällen unterscheiden, wo die Kamera gewackelt hat, wo sie bewusst bewegt wurde (Schwenk, Zoom oder Fahrt) und wo sich Objekte im Bild bewegen. Als Härtetest versuchten wir auch noch, eine Aufnahme aus dem iPhone im Gehen zu beruhigen, das zwar für ein Handy erstaunlich gute Bilder liefert, aber mit einem extremen Rolling Shutter zu kämpfen hat.

SmoothCam Die Kandidaten Derzeit sind mir zwei Stabilisierer bekannt, die sich in gängige Schnittsoftware einklinken können und von sich behaupten, mit Rolling Shutter umgehen zu können. Mercalli von proDAD hat sich auf dem PC einen guten Ruf unter etlichen gängigen Schnittprogrammen erworben, in der Version 2 ist er nun auch für Final Cut Studio und After Effects unter Mac OS X zu haben. Von der Firma CoreMelt gibt es Lock and Load als Plug-in für FCP und After Effects auf dem Mac, beide laufen auch unter CS5 in 64 Bit. Wir haben die Plug-ins unter FCP getestet und mit dessen SmoothCam verglichen. Neben Aufnahmen einer CCD-Kamera wurde Material der Sony

Als sie erstmalig in FCP eingeführt wurde, war diese Funktion ein echtes Highlight, denn bis dahin gab es als Teil einer preisgünstigen Schnittsoftware nichts Vergleichbares. Wie alle Testkandidaten trennt SmoothCam die Analyse des jeweiligen Clips von der eigentlichen Stabilisierung. Das ist sinnvoll, da in der Regel der Anwender selbst festlegen möchte, in welchem Maße das Bild beruhigt werden soll. Nicht allein im Hinblick auf den gewünschten Filmstil sollte man eingreifen können, sondern hier entscheidet sich auch die Bildschärfe des Resultats. Letztlich muss das Bild bei der Nachführung immer skaliert werden, um keine schwarzen Randbereiche zu bekommen, so dass die Auflösung zwangs-

läufig reduziert wird. Einen Ersatz von Randbereichen aus Nachbarbildern bietet derzeit nur Deshaker für Bildbereiche ganz ohne bewegte Details. Lästig an SmoothCam ist es, dass immer der gesamte Clip analysiert wird, auch wenn nur ein kleiner Teil davon in die Timeline geschnitten wurde. Das erspart zwar eine erneute Analyse bei Schnittänderungen, zwingt aber bei sehr langen Originalaufnahmen zu einem recht umständlichen Vorgehen. Erst muss man den gewünschten Teilclip herausschneiden und dann erneut in das Programm importieren, denn die Analyse in SmoothCam ist die langsamste unserer Kandidaten. Die Ergebnisse sind bei CCD-Kameras mit progressiver Aufnahme recht gut, wenn man berücksichtigt, dass wir alle Kandidaten in der vorgegebenen Einstellung für die Beruhigung beließen. So waren die Bilder aus SmoothCam zwar etwas unruhiger als bei Mercalli, dafür aber auch etwas weniger skaliert. Bei Bildern von CMOS-Chips dagegen waren die Ergebnisse aus SmoothCam kaum brauchbar: Zwar wurde das Material aus der Canon 7D als Handkamera erfolgreich beruhigt, verbog sich aber auffällig in alle Richtungen. Selbst Material aus einer Sony EX-1 mit geringerem RS zeigte bei manchen Motiven, insbesondere bei Gebäuden oder anderen geometrischen Formen, deutliche Verzerrungen nach der Stabilisierung. Bei dem

Muttersprachler Die Einstellungen von Mercalli sind leicht zu verstehen

39


AKTUELL

FOKUS

EDITING

ANIMATION

Unanimierbar Gleitende Korrekturen mit Keyframes bietet Mercalli nicht

iPhone-Clip wurde es schlichtweg gruselig: Das Bild schien durch SmoothCam noch mehr zu verbiegen als im Original, während bei den anderen Kameras die Artefakte durch die Beruhigung nur auffälliger wurden. Übrigens müssen Sie bei allen Programmen sorgfältig darauf achten, die Halbbilddominanz richtig zu setzen bzw. abzustellen. FCP setzt beispielsweise beim 1080er HDFormat immer Interlace voraus, obwohl die Bilder der DSLR bekanntlich Vollbilder sind. Das iPhone müssen Sie auch noch richtig herum gehalten haben – oder die Clips vor den Versuchen zur Beruhigung umdrehen.

Mercalli V2 Das Programm analysiert nur den in die Timeline geschnittenen Teil des Clips und ist bei gleicher Cliplänge und Hardware um den Faktor 6,5 schneller als SmoothCam. Leider ist während der Analyse das Schnittprogramm blockiert; bei jeglicher Betätigung in FCP bricht der Vorgang ab, während SmoothCam im Hintergrund analysieren kann. Zu beach-

COMPOSITING

COLOR

AUDIO

ten ist, dass der Sequenzcursor im jeweiligen Clip stehen muss, sonst erfolgt keine Berechnung. Nach der Analyse muss das Ergebnis noch gerendert werden, was bei unseren HDDateien in ProRes etwa die gleiche Zeit wie die Analyse benötigt. Das reduziert den Geschwindigkeitsvorsprung etwas, da SmoothCam nach der Analyse im ProRes Codec auf unserem Testrechner echtzeitfähig ist. Die Ergebnisse von Mercalli waren bei unseren CCD-Aufnahmen meist deutlich stabiler als bei SmoothCam, wenn auch stärker skaliert. Die sehr differenzierten Einstellungsoptionen für die Art der Kameraführung und das Maß an Stabilisierung erlauben jedoch weitgehende Anpassungen und führen bei CCD in der Regel zu guten bis sehr guten Ergebnissen. Leichte Schwierigkeiten hat Mercalli mit der Querfahrt, hier ruckt der Hintergrund bisweilen mehr als in SmoothCam, weil sich das Programm offensichtlich zeitweise an Vordergrundobjekten orientiert. Eine Möglichkeit zur Einschränkung des Bildausschnitts für die Stabilisierung, die bei manchen Motiven helfen könnte, bietet das Plug-in nicht. Ebenso ist, abgesehen von einer wenig sinnvollen Mischung mit dem Original, kein Keyframing einzelner Parameter in FCP möglich. Für die Aufnahmen mit den CMOS-Kameras haben wir die Rolling-Shutter-Korrektur aktiviert und damit deutlich bessere Ergebnisse als mit SmoothCam erzielt, auch wenn die Störungen bei einem unruhigen Gang mit der Canon 7D nicht ganz beseitigt werden konnten. Das Material aus dem iPhone dagegen blieb auch mit Mercalli unbrauchbar. Eine Eingabe von kameraspezifischen Korrekturwerten für den RS wird nicht angeboten (diese könnten theoretisch, soweit für die jeweilige Kamera verfügbar, die Analyse verbessern). Um den Skalierungsfaktor bei sehr unruhigen Aufnahmen zu verringern, kann Mercalli die fehlenden Randbereiche mit kopierten, gesofteten Kantenpixeln auffüllen – inwieweit das akzeptabel bleibt, hängt stark vom Motiv ab.

Lock and Load

Feintuning Lock & Load bietet Keyframing wichtiger Parameter und informiert über den Zoomfaktor

40

Das Plug-in wird als Paket mit zwei Versionen geliefert, Lock and Load X und Lock and Load Frames (kurz: L&L), die jeweils auf unterschiedliche Restriktionen in der FCP-Programmierschnittstelle Rücksicht nehmen – zum Beispiel kann nur die FramesVersion Clips mit abweichender Geschwindigkeit bearbeiten. Anders als Mercalli kann zumindest L&L X die Analyse auch im Hintergrund durchführen, FCP bleibt dann also benutzbar. Die Analyse in L&L X ist fast auf die Sekunde gleich schnell, und auch die von L&L behandelten Clips müssen noch gerendert werden. Dazu benötigt das Plug-in bis zu 40 % mehr Zeit als Mercalli, abhängig

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Klarstellung Beide Programme weisen unmissverständlich auf fehlende Analysedaten hin

von der Leistung der GPU. L&L greift offensichtlich intensiv auf die Grafikkarte zurück, denn bei einem Laptop mit nur 256 MB VRAM und angeschlossenem Zweitschirm brach es die Berechnung in Full-HD wegen unzureichendem Grafikspeicher ab – ohne zweiten Monitor oder auf einem Mac Pro mit besserer

Hardwarelimit Lock & Load hat mit HD-Clips Probleme, wenn die Grafikkarte nur 256 MB VRAM besitzt

Zielgerichtet Der Analysebereich lässt sich mit diesem Rechteck einschränken

Grafikausstattung kam das nicht vor (Mercalli zeigte dieses Problem nicht). Auch L&L bietet sehr vielfältige Justagemöglichkeiten, wobei wesentliche Parameter zudem animierbar sind, so die Gesamtstärke der Stabilisierung ebenso wie die einzelner Richtungen, Rotation und Zoom. Im Gegensatz zu Mercalli sind somit gleitende Anpassungen über die Dauer eines Clips ebenso wie temporäre Eingriffe in die Korrekturwerte möglich. Außerdem analysiert L&L zwei Sekunden über die aktuellen Schnittmarken hinaus, so dass kleinere Schnittkorrekturen keine erneute Analyse erfordern. Beide Versionen können zudem Schnitte im Material erkennen und die jeweiligen Einstellungen getrennt stabilisieren. Bereits mit den Standardeinstellungen liefert L&L beeindruckende Ergebnisse. Unsere Interviewszene beruhigt es sehr gut, lässt aber bewusste Kamerabewegungen weich durchkommen und beansprucht gleichzeitig die geringste Skalierung. Bei der frontalen Fahrt beschneidet es etwas mehr als Mercalli, liefert aber dafür mehr Neigungsausgleich und kehrt in ruhigen Phasen ganz unauffällig

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

wieder zu einem größeren Ausschnitt zurück – die Funktion „Smart Zoom“ trägt ihren Namen also zu Recht. Der jeweilige Zoomfaktor lässt sich vor dem Rendern dynamisch überprüfen. L&L ließ sich von anderen Fahrzeugen im Bild nicht nennenswert stören, obwohl wir gar nicht zu dessen Möglichkeit gegriffen haben, die Stabilisierung auf einen rechteckigen Ausschnitt des Bildes zu beschränken. Seine Glanzleistung liefert L&L bei der Querfahrt: Es lässt sich kaum von Bäumen im Vordergrund oder Passanten aus dem Tritt bringen und liefert eine wunderbar weiche Fahrt über die Stadt am Horizont mit nur einem kleinen Ruckler und beschneidet trotzdem weniger als Mercalli. Bei der Beseitigung von Verzerrungen aus der Canon 7D dagegen ist die Verbesserung deutlich, aber nicht perfekt.

VERGLEICH | STABILISIERER

wesentlich teureren Rolling-Shutter Plug-in von The Foundry zu behandeln, um dann die Stabilisierer ohne aktivierte RS-Korrektur darauf anzusetzen. Die Ergebnisse waren kaum besser, somit darf man sich zusätzliche Kosten und Mühe sparen.

Ratschläge für die Praxis Die Beseitigung der Nebenwirkungen des Rolling-Shutter bei CMOS ist eine enorme Herausforderung: Die Software müsste perfekt zwischen Kamerabewegungen, Eigenbewegungen von Objekten im Bild, Perspektivänderungen und den eigentlichen Verzerrungen unterscheiden. Bei schnellen Erschütterungen, die natürlich eher bei sehr leichten Geräten wie einem Handy vorkom-

Rock Steady Ein Interview mit etwas unruhiger Handkamera bekamen beide Programme sehr gut in den Griff

Obwohl hier spezifische Korrekturwerte für die 7D und andere Kameras angeboten werden, ist L&L nicht erfolgreicher als Mercalli. Beim iPhone versagt es ebenso kläglich wie die anderen Kandidaten. Das Manual von L&L gibt zumindest Hinweise, wie man Korrekturwerte für unbekannte Modelle ermitteln kann. Wir haben sogar noch einen Versuch unternommen, das Material zuvor mit dem

Spezialist Selbst der teure Filter von The Foundry bekommt Handy-Material nicht ganz in den Griff

men, entstehen Verzerrungen innerhalb des Bildes, mit denen letztlich keine Software perfekt umgehen kann. Davon abgesehen bieten die beiden Programme im Test enorme Fortschritte gegenüber SmoothCam und haben manche Wettbewerber wie Magic Bullet Steady sogar zur Aufgabe veranlasst. Wenn man es den Programmen korrekt mitteilt, lässt sich eine stationäre Kamera, die nur unruhig gehalten wurde, bei Motiven ohne allzu großfl ächige Objektbewegungen sehr gut beruhigen. Auch ein etwas zittriger Schwenk wird erfolgreich verbessert. Am kritischsten ist eine frontale Bewegung im Raum, bei der sich ein starker RS wie bei der Canon 7D nicht vollständig in den Griff bekommen lässt, während Material aus der Sony EX-1 kaum noch auffällige Störungen zeigt. Dies gilt weitgehend für beide Testkandidaten mit RS-Kompensation, wobei L&L in den Standardeinstellungen meist etwas die Nase vorn hat, aber mit etwas Feintuning auch Mercalli vergleichbare Ergebnisse erbringt. Hilfreich ist es auch, eine Eigenbewegung der Kamera mit einer statischen Position zu beginnen und zu beenden, das verbessert die Analyse. Kritisch sind in jedem Fall (selbst bei CCD)

Glanzleistung Bei dieser kritischen Querfahrt mit Vordergrundobjekten liefert Lock & Load sein Meisterstück ab

kurze, harte Stöße, die sich nach erfolgreicher Stabilisierung wegen der unvermeidbaren Bewegungsunschärfe als kurzes Verschwimmen des Bildes bemerkbar machen. Da solche Erschütterungen von optischen Stabilisatoren wie in etlichen Modellen von Canon und Sony recht gut abgefangen werden, sollte man diese auf keinen Fall ausschalten, wenn man ohne Stativ arbeiten muss. Die Softwarelösungen haben ihre Stärken eher in der Beruhigung längerer Passagen und dem Ausgleich von Kippbewegungen. Kürzere Belichtungszeiten können den Effekt ebenfalls minimieren, provozieren aber bei Vollbildaufnahmen mit 24 oder 25 B/Sek. Shuttereffekte in schnellen Bewegungen. Mac-User haben bei der Vielseitigkeit, Stabilität und den exzellenten Ergebnissen wenig Grund, für den Preis von rund 145 € nicht zu Lock and Load zu greifen – es sei denn, sie stünden mit der englischen Sprache auf Kriegsfuß oder hätten zu wenig Grafikspeicher für HD (die Version für Final Cut Express kostet sogar nur 75 €). Mercalli liefert ebenfalls exzellente Ergebnisse und ist auf Deutsch erhältlich, aber mit derzeit 199 € etwas teurer und bietet in FCP kein Keyframing. Auf dem PC dagegen ist alternativ auch eine Stand-Alone-Version für 119 € zu haben und technisch steht Mercalli dort allein auf weiter Flur. Wunder wirken können beide nicht: Bei Kameras mit ausgeprägtem Rolling Shutter sollten grundsätzlich alle Möglichkeiten der mechanischen Stabilisierung ausgeschöpft werden, denn Stative, Schulterstützen und Steadycams sind da weiterhin jeglicher Software überlegen, und das iPhone überfordert beide Programme gnadenlos. Der neue Kurzfilm des koreanischen Regisseurs Chan-wook Park – bekannt durch „Oldboy“ – der komplett auf dem iPhone gedreht worden sein soll, verspricht daher im Hinblick auf die Kameraführung interessante Einblicke … ❯ jb Prof. Uli Plank (uli.plank@hbk-bs.de) lehrt Digitale Kinematografie, VFX und Motion Graphics an der HBK Braunschweig. Er gehört seit Jahren zum Team der „Hands on HD“Kurse bei der Nordmedia und bietet auch Schulungen und Beratung zur RED One und deren Postproduktion an.

41


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Tools & Plug-ins | After Effects & Final Cut Pro

Plug-ins und Tools für Final Cut & After Effects Trotzdem es in letzter Zeit wenig Neues von Final Cut Pro und Konsorten zu berichten gab, gedeihen doch immer neue Plug-ins und Tools für Apples Videoschnittsystem. In dieser Ausgabe der DIGITAL PRODUCTION schauen wir uns wieder einige hilfreiche Werkzeuge an, ein paar sehr interessante Effekte und kümmern uns natürlich auch um akvon Andreas Zerr tualisierte Filter für Adobe After Effects. Digital Heaven

CrumplePop

DH_Counter 2.0 Final Cut Pro besitzt einen eigenen Timecode-Zähler. Aber leider ist dieser nur bedingt brauchbar, da es sich zum einen um einen Filter handelt, der nur auf einem Clip (oder einer Subsequenz) angewandt werden kann, zum anderen weil der Zähler nur eingeschränkte Darstellungsmöglichkeiten umfasst. In diese Bresche springt wieder einmal der englische Hersteller Digital Heaven. Diesr bringt dazu den DH_Counter 2.0: Bei diesem Plug-in für Final Cut Pro handelt es sich um einen Generator, den der Anwender einfach auf eine höhere Videospur legt und damit eine gesamte Schnittsequenz überlagern kann. Innerhalb der Einstellungen findet man alle nur erdenklichen Optionen, vom zu- und abschaltbaren Frame-Zähler über frei definierbare Separatoren, Schriftart, -farbe und -größe, Schattenwurf und Konturen

sowie Parameter für einen optionalen Hintergrund-Balken, der den Timecode vom Film abhebt. Auch ob man aufwärts oder abwärts zählt, wie der Zähler formatiert ist, oder auch das Zählen nach Zeit und Frames beherrscht DH_Counter. Auf Wunsch wird die angezeigte Zeit auch der Länge des Tracks angepasst, um den Timecode vor den Konvertierungen anzupassen. DH_Counter ist für nur 29 US-Dollar ein kostengünstiges und eigentlich unverzichtbares Tool, vor allem für Anwender, die häufig Timecode-Überlagerungen für redaktionelle und/oder für Kunden-Abnahmen benötigen. Digital Heaven DH_Counter 2.0 Einsatz: Generator für die Timecode-Darstellung in FCP Plattform: FCP Preis: 29 US-Dollar Info: www.digitalheaven.co.uk

DH_Counter Dieser Generator lässt sich in Final Cut Pro in eine höhere Spur legen und stellt den aktuellen Timecode im Bild dar, während er mehr Einstellungsmöglichkeiten als der TC-Filter bietet

42

Master-Vorlagen von Revealer blenden Texte oder Bilder in Stilen ein. Die Mastervorlagen sind „offen“ und lassen sich nachbearbeiten

Revealer 1.0 Der amerikanische Hersteller CrumplePop programmiert keine Effekte, sondern gestaltet Mastervorlagen in Motion und stellt diese kostenpflichtig zur Verfügung. So auch den „Revealer“, eine Text- und Bild-Vorlage, die über Licht und Weichzeichner langsam im Stile einer leicht defekten, blinkenden Neonröhre eingeblendet wird. Als Mastervorlage findet der Anwender editierbare Texte in unterschiedlichen Schriftarten und Bildvorlagen, die per Drag-and-Drop in der Dropzone des Viewers definiert werden. CrumplePop liefert die Vorlagen in allen erdenklichen Größen und Formaten, so dass sich diese für HD- und SD-Projekte eignen. Wer eine Revealer-Mastervorlage aus Neugier oder zur individuellen Anpassung in Motion öffnet, wird feststellen, dass die Projekte kein Hexenwerk, sondern einfach gehaltene Kompositionen mit wenigen Elementen sind. Doch es kommt nicht darauf an, wie komplex die Umsetzung ist, sondern wie einfach die Idee. CrumplePop Revealer 1.0 Einsatz: Mastervorlagen zur Einblendung von Text oder Bild Plattform: FCP und Motion Preis: 69 US-Dollar (Vollversion) Info: www.crumplepop.com

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

TOOLS | AFTER EFFECTS & FINAL CUT

RE:Vision

industrial revolution

CoverFlux 2.0

Leiser DE:Noise von RE:Vision unterdrückt das Bildrauschen bei mangelhafter Beleuchtung, indem das Bild merklich weicher gezeichnet wird

DE:Noise 2.1 Gerade günstigere HD-Formate wie HDV oder DVCPRO-HD neigen bei mangelnder Ausleuchtung zum Bildrauschen. Um diesen (und andere Rausch- oder Störeffekte) zu unterdrücken, kann man den Filter DE:Noise anwenden, welcher sowohl in FXplug für Final Cut Pro und Motion als auch für After Effects verfügbar ist. Der DE:Noise zeichnet das Bild bei der Rauschunterdrückung merklich weicher und liefert dabei zahlreiche Einstellungsmöglichkeiten für Qualität, Weichzeichnungs-Radius, Qualität sowie Pre- und PostProcessing. Zwar ist der DE:Noise-Filter mit

150 US-Dollar im Vergleich zu anderen, ähnlich gearteten Filtern nicht gerade günstig, leistet jedoch gute Arbeit beim Rendering und kann daher auch mal eine ganze Produktion retten. RE:Vision DE:Noise 2.1 Einsatz: Filter zur Korrektur verrauschter oder verdreckter Aufnahmen Plattform: FCP und AE CS5 Preis: 150 US-Dollar (Vollversion) Update von Version 1.0: 38 US-Dollar Info: www.revisionfx.com

Boris FX 3

3 Way Color Grade Was haben Avid und Final Cut Pro, was After Effects (zumindest auf dem Mac) nicht hat? Richtig: Eine brauchbare 3-Wege-Farbkorrektur. Obwohl es mit Red Giants Colorista schon einen nützlichen Filter gibt, meint Boris es besser zu können und gliedert mit dem „3 Way Color Grade“ eine Farbkorrektur als Unit der BCC-Sammlung aus. Der Grader verfügt über die Bereiche Lift, Gamma und Gain (Licht, Mitten, Schatten), und dort über Grob- als auch über eine sehr genaue Feinregulierung. Masken lassen sich über eine Farbauswahl (sekundäre Farbkorrektur) oder als geometrische Formen setzen und sind hierbei vergleichsweise effizient, da nicht nur die Form, sondern auch die Kantenweichheit direkt auf dem Bild bear-

beitet werden können. Der 3 Way Color Grade enthält außerdem eine integrierte Vergleichsfunktion, die es dem Anwender ermöglicht, das Bild Seite-an-Seite als und im Splitscreen vor und nach der Korrektur vergleichen zu können. Der Filter ist als Bestandteil der Boris-Continuum-Complete-Sammlung sowie als eigenständiger Effekt erhältlich. Boris FX 3 Way Color Grade Einsatz: 3-Wege-Farbkorrektur mit integrierter Maske und Vergleichsfunktion Plattform: FCP, Motion und AE CS5 Preis: 99 US-Dollar (auch Bestandteil von Boris Continuum Complete 7) Info: www.borisfx.com

Unser Freebie des Monats ist CoverFlux 2. Wer schon einmal versucht hat, den CoverFlow-Effekt von iTunes nachzubauen, weiß wie aufwendig die Gestaltung nicht nur der Spiegelungen, sondern auch des sauberen Scrollens der Bilder ist. CoverFlux 2 macht es dem Anwender einfach: Als Generator in Final Cut Pro oder als Filter in After Effects ermöglicht der Effekt die einfache Auswahl einer Bilderserie und stellt diese im CoverFlow-Verfahren dar. Zu den zahlreichen Einstellungsmöglichkeiten gehört die Auswahl unterschiedlicher Aufstellungen und Reihenfolgen der Fotos, deren Geometrie, die Richtung und Geschwindigkeit der Animation, die Kameraposition, das Reflexionsvermögen, Glossy-Effekte, eine Maskierung sowie optionale Titel, die sich aus den Namen der Bilder generieren. In der Version 2 von CoverFlux wurde das Programm von Grund auf neu geschrieben, und soll so nicht nur schneller sein, sondern unter anderem auch in der ReihenfolgenFunktion nachgebessert haben. Ein eingebauter Dateibrowser erlaubt die Neuordnung per einfachem Drag-and-Drop. Der daraus generierte Stapel ist nun weiter zu konfigurieren – unter anderem werden Stapelhöhe, Blickwinkel, Tiefenschärfe und sichtbare Elemente jetzt einfach per Regler angepasst. Auch die Kamera kann sich nun frei in alle Richtungen bewegen und um die per Regler abrundbaren Kanten fliegen. Die Abfolge der Bilder wird entweder automatisch generiert oder per Keyframe zwischen den Bildern einzeln und präzise gesteuert. CoverFlux ist kostenfrei als FXplug für Final Cut Pro und Motion sowie als Filter für After Effects CS5 erhältlich. industrial revolution CoverFlux 2.0 Einsatz: Generator/Filter für iTunes-ähnlichen Cover-Flow-Effekt Plattform: FCP, Motion und AE CS5 Preis: kostenfrei Info: www.noiseindustries.com

Hilfreich Eine wirklich brauchbare Farbkorrektur für After Effects ist der Boris Continuum Unit 3 Way Color Grader. Drei Farbteller, Feineinstellungen sowie eine OnscreenMaskenfunktion sorgen für effi zientes Arbeiten Fotos Im Tunes Cover Flow gibt es Optionen für Spiegelung, Glossy und Maskierung

43


AKTUELL

FOKUS

EDITING

ANIMATION

PHYX

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Sugar FX

Stylist Die Sammlung Stylist von PHYX (sprich: fix) enthält fünf ganz unterschiedliche Filter, die auf den ersten Blick kaum zusammenpassen: Mittels Skin-Light-Effekt lässt sich ein Reflektor simulieren, der dem Hautton (und nur dem Hautton) eine gesündere Farbe verleiht. Sowohl Tönung als auch Helligkeit und Mischung mit dem Original können hierbei frei definiert werden. Mittels Cathode Ray lassen sich Nachtsichtgeräte, ein altes Fernsehbild oder Überwachungs-Kameras simulieren, während der Filter Sparkler Star Lichtreflexionen zaubert. Der Effekt Haze Removal entfernt Dunst und zeichnet ein Bild dadurch kontrastreicher, während der Fog Generator dem Bild Nebel hinzufügt und es dabei diffuser und kontrastärmer macht. Der Fog Generator eignet sich durch animierbare Parameter daher unter anderem hervorragend, um einfachen Landschaftsfotos den Anschein einer aufwendigen Videoaufnahme zu geben. PHYX Stylist 1.0 Einsatz: Fünf brauchbare Effekte für das Aufbessern von Videoaufnahmen Plattform: FCP, Motion und AE CS5 Preis: 199 US-Dollar (Vollversion) Info: www.phyxware.com

Glitzer Der Sparkler-Star-Filter zeichnet natürlich wirkende Sterne und Lichtreflexe (links mit, rechts ohne Effekt)

Alles drin Fingerabdrücke, Bullaugen und Fensterscheiben finden sich im Pack

Lens Pack Das Paket Lens Pack von Sugar FX, wie PHYX auch Teil des Noise-Industries-Verbunds, enthält eine große Auswahl an unterschiedlichen Linsen-Effekten. Zum einen kann der Anwender über den Cheap-Lens-Filter das Bild merklich verschlechtern, indem man aus den zahlreichen Voreinstellungen zum Beispiel unscharfe Kanten, verschmierte Reflexionen, Fingerabdrücke oder gar zerbrochenes Glas wählt. Zum anderen sorgen Filter wie Distorium, Optico oder Horizon Line für dreidimensionales Aufbrechen und Wölbungen des Bildes, oder die Verschiebung des Horizonts. Wer es noch verspielter mag, findet in „Loupe“ grafische Elemente wie eine Lupe, Kontaktlinsen, ein Bullauge und so weiter, die auf dem Bild dargestellt werden und den jeweiligen Bildinhalt verzerren und/oder vergrößern. Zahlreiche Vorgaben und Einstellungsmöglichkeiten sorgen für immer neue, überraschende Effekte. Das Lens Pack ist sicherlich kein Must-have, kann aber durchaus viel Arbeit ersparen, oder zu neuen, kreativen Ideen führen. Und ist allemal billiger als die Optik der Kamera zu zerstören. Sugar FX Lens Pack 1.0 Einsatz: Fünf Filter für verzerrte und/oder verdreckte Linsen sowie für grafische Elemente. Plattform: FCP, Motion und AE CS5 Preis: 99 US-Dollar Info: www.sugarfx.tv

Singular Software

Plural Eyes Das bildgenaue Anlegen von Bild und Ton oder Bild und Bild bei Multikamera-Produktionen war früher Aufgabe von Schnittassistenten. Heutzutage lassen sich diese zeitraubenden Arbeiten automatisieren: Das Programm Plural Eyes analysiert auf Basis der Tonspuren einzelner Clips die Synchronität und fügt Bild und Ton bzw. Bild und Bild in einer neuen Sequenz framegenau zusammen. Voraussetzung hierfür ist einzig, dass alle Clips eigene Tonspuren haben; bei „stummen“ Aufnahmen funktioniert diese Technik natürlich nicht. Plural Eyes, welches als eigenständiges Programm läuft, lässt den Anwender das Projekt und die Sequenz wählen, synchronisiert beliebig viele Clips aus einer Timeline und platziert

44

diese in einer neuen Sequenz mit dem Zusatz „synced“. Das Tool ist vor allem sehr hilfreich bei Multicam-Projekten ohne TC- oder Filmklappen-Synchronisation, und bei Filmen, die mit Spiegelreflex-Kameras aufgezeichnet wurden, wo es derzeit weder Timecode noch einen brauchbaren Audio-Eingang gibt. Ein umfangreicher Test der Applikation ist in DP-Ausgabe 01/11 ab Seite 54 zu finden.

Konform Plural Eyes synchronisiert Videoclips mit externen Audio-Dateien anhand eines Vergleichs der Tonspuren

Singular Software Plural Eyes 1.2 Einsatz: Programm zur automatischen Synchronisation von Bild und Ton oder Bild und

Bild bei Multicam-Produktionen ohne Timecode. Plattform: FCP Preis: 149 US-Dollar (Vollversion) Info: www.singularsoftware.com

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

TOOLS | AFTER EFFECTS & FINAL CUT

Boris FX

Telestream

Episode 6 Pro

Gel-Kugel Diese entstand aus einer Farbfläche im Zusammenspiel mit den Filtern Mr. Mercury, Glow und Sphere – alle aus Final-Effects-Sammlung

Final Effects Complete 6 Mit 110 Filtern und Übergängen gehört Final Effects zu den umfangreicheren Plug-in-Sammlungen für After Effects. In der Neuauflage des bald 15-jährigen, ehemaligen Kai-Krause-Klassikers (damals noch mit nur 16 Filtern) bietet der aktuelle Anbieter Boris FX neuerliche Unterstützung für Lichtquellen in After Effects, die Beat-Reactor-Technologie für Animationen basierend auf Sound, einen Vorher/ Nachher-Vergleichsmodus (siehe auch den BCC 3 Way Color Grader) sowie eine direkte On-Screen-Steuerung für die gängigsten Einstellungen eines Effekts. Neu sind außerdem einige Übergänge. Final Effects besticht hauptsächlich durch eine große Anzahl ungewöhnlicher Effekte, verfügt über ein eigenes Partikelsystem und liefert für fast jeden Filter umfangreiche und sehr interessante Voreinstellungen. Wer also nach etwas innovativeren Ideen und Gestaltungsmöglichkeiten sucht, ist mit Final Effects Complete 6 recht gut beraten.

Stapelkomprimierer gibt es einige: Ob Freeware wie MPEG Streamclip, Beipack-Programme wie der Compressor, oder Werkzeuge wie Squeeze oder Elgatos turbo.264. Einen für die tägliche Arbeit tauglichen Ansatz verfolgt Telestream mit Episode 6, wo der Workflow grafisch dargestellt wird. Man zieht den zu encodierenden Film in das Workflow-Fenster, wählt Formate und Codecs aus und definiert die „Deployments“, das heißt das Ziel der komprimierten Datei. Ein Klick auf „Submit“ reicht, um den Rechenvorgang zu starten. Die Pro-Version umfasst etliche Formate und Codecs, angefangen vom FlashVideo über MPEG-1 bis 4 und Windows Media sowie DVD-Standards, bis hin zu Verarbeitungs-Formaten wie IMX, HDV, MXF, DVCPRO und XDCAM-HD. Jedes Format und jeder Codec lässt sich einstellen, so dass auch ungewöhnliche Größen, Bildkorrekturen, De-Interlacings oder ein Timecode möglich sind. Die grafische Oberfl äche hilft zu erkennen, welcher Film wie gewandelt wird. Alle Features sind in der Standard-Version verfügbar, wobei nur die Pro-Version professionelle Formate wie MXF und MPEG-Transportstreams enthält sowie das verteilte und segmentierte Encoding unterstützt. Telestream Episode 6 Einsatz: Stapelkomprimierer mit grafischer Oberfläche und vielen Eingangs-, Verarbeitungs- und Distributionsformaten Plattform: eigenständiges Programm für Mac und Windows Preis: 495 US-Dollar (Standard), 995 US-Dollar Pro-Version Info: www.telestream.net

Boris FX Final Effects Complete 6 Einsatz: Filtersammlung mit 110 Effekten, Partikelsystem und zahlreichen Voreinstellungen Plattform: AE CS5 Preis: 295 US-Dollar (Bundle) Info: www.borisfx.com

Effi zient ist der Ansatz des Stapelkomprimierers Telestream Episode, welcher den gesamten Workflow eines Komprimierungs-Jobs grafisch darstellt

Anzeige

NEU

KONA 3G. Power. Performance. Price. Multi-Format SD/HD/2K Video I/O Hardware

Die Kona 3G ist für die neuesten Postproduktions Workflows entwickelt worden. Dazu hat man die Features der Kona 3 mit 3G SDI I/O, und 3D HDMI 1.4a Monitoring erweitert. Kona Karten sind bekannt für ihre starke Performance und unerreichte Zuverlässigkeit. Weil sie Cross-Plattform arbeiten, geben Sie Ihnen die Freiheit mit jedem Format und mit jeder Software zu schneiden.

B e c a u s e

i t

m a t t e r s .

AJA Bezugsquellen finden Sie auf der Internetseite: http://AJA.ComLine-Shop.de


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Arbeiten mit Luma-Stanzmasken Stanzmasken auf Basis von Luminanz, also der Helligkeit, sind hilfreiche Werkzeuge, wenn es um harte und weiche Masken, Aufheller oder Bild-Verläufe geht. In diesem Workshop stellen wir anhand von sechs Beispielen ein paar Tricks vor, wie man auf einfachem Weg interessante Effekte erzielen kann. von Andreas Zerr

Key-und-Fill-Elemente waren lange Zeit das beliebteste Transportformat für Titel und Grafiken. Mittlerweile wurden sie durch Formate und Codecs mit Alpha-Kanal ersetzt, finden jedoch hier und da noch immer Anwendung

D

ie Technologie der Luma-Stanzmaske, auch bekannt als Key-und-Fill, ist wohl ähnlich alt wie die Bearbeitung von Video an sich. In Zeiten als es noch keine Formate und Codecs mit Alpha-Kanal gab (etwa Animation oder Apples ProRes 4444) beziehungsweise diese als Austauschformat noch nicht so gebräuchlich waren, musste ein Weg gefunden werden, Grafiken und Texte, die sich zumeist nur auf Band transportieren ließen, freigestellt auf Video einzublenden. Die Idee der Stanzmaske ist daher sehr einfach: Man nehme einen statischen oder animierten Titel oder eine Grafik, baue diese in Weiß (mit oder ohne weiche Kanten und Verläufe) nach, und stanze das Original so durch die Maske, dass nur der Inhalt dargestellt wird, der sich in den hellen Bereichen befindet. Je heller die Maske, umso deutlicher das Stanzergebnis.

46

Um den Fill durch den Key zu stanzen, wählt man für das obere Element (Fill) den Composite-Modus „Luma-Stanzmaske“

d Bei einer sauberen Stanzmaske erscheint nicht nur der Fill als freigestelltes Element, sondern auch der Hintergrund

e Für einen Text-Aufheller animiert man zunächst ein TIFF oder PDF dergestalt, dass es von unten nach oben durch das Bild läuft

Zwar arbeiten die meisten Produktionsfirmen und Sendeanstalten mittlerweile mit Austauschformaten zwischen Grafik und Schnitt, die einen Alphakanal, also die Transparenz von Ebenen, unterstützen. Nichtsdestotrotz leistet eine Luma-Stanzmaske noch immer gute Dienste, vor allem bei Schnittprogrammen, die keine oder nur eingeschränkte Maskenfunktionen besitzen, zum Beispiel Final Cut Pro.

ohne dabei auf digitale Austauschformate zurückgreifen zu müssen. In einem Schnittsystem wie Final Cut Pro kopiert man den Fill und den Key als eigenständige Clips in zwei übereinander befindliche Spuren, wobei der Fill oben, also beispielsweise in Spur V3, und der Key unten, in dem Fall in Spur V2, liegen muss. In Spur V1 kann sich anderes Videomaterial befinden, welches sichtbar wird, sobald man die Stanzmaske anwendet. Hierfür führt man in der Timeline einen Rechtsklick auf dem oberen Element (Fill) durch, und wählt aus dem erscheinenden Kontext-Menü die Funktion „Composite-Modus i LumaStanzmaske“ aus, so dass das obere Element durch die Helligkeit des unteren Elements quasi „durchgedrückt“ wird. Da das Schwarz des Fills nicht mit ausgestanzt wird, erscheint auch das Video aus der Spur V1.

Key-und-Fill Noch immer gebräuchlich ist das „Key-undFill“, also die Erstellung einer Grafik oder eines Titels (Fill) zusammen mit einer weißen Maske (Key-Signal). Diese beiden Elemente können von der Grafik auf Band ausgespielt und im Schnitt wieder digitalisiert werden,

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

WORKSHOP | FINAL CUT PRO

Je nach Schnittsystem kann die Ebenenreihenfolge variieren, so dass man den Key in eine höhere Spur und den Fill entsprechend in eine niedrigere Spur legt, wobei es auch Schnittprogramme mit eigener Keyspur gibt.

Aufheller mit starrer Maske Um ein Element partiell aufzuhellen, zum Beispiel einen durchlaufenden Text, kann man sich geometrischer Formen bedienen, indem man diese als Stanzmaske einsetzt. Im Fall von Final Cut Pro zum Beispiel findet man unter dem Generator „Formen“ Elemente wie einen Kreis, ein Quadrat, ein Rechteck und ein Oval. Alle Elemente sind Weiß auf Schwarz, so dass sich diese als Luma-Stanzmaske verwenden lassen. Möchte man zum Beispiel einen Absatz oder einzelne Zeilen eines durchlaufenden Textes aufhellen beziehungsweise die äußeren Teile abdunkeln, geht man folgendermaßen vor: Man importiert zunächst den Text als grafische Datei (PDF oder TIFF), kopiert diesen in die untere Spur der Timeline und animiert den Clip über Keyframes für den Mittelpunkt, indem man ihn von unten nach oben durch das Bild laufen lässt. Anschließend wird der voranimierte Text in die Spur V3 kopiert, so dass zwei identische Elemente in der Timeline liegen. Aus dem Viewer oder dem Effekte-Browser wählt der Anwender jetzt die Form „Rechteck“ aus, und kopiert diese zwischen die bestehenden Clips in die Spur V2. Dem oberen Text weist man anschließend über das Kontext-Menü den Composite-Modus „Luma-Stanzmaske“ zu. Da der obere und der untere Text momentan noch identisch sind, sieht man zunächst keinen Unterschied. Wendet man jedoch beispielsweise die 3-Wege-Farbkorrektur auf dem unteren Element an und zieht hier die Regler für Schwarz, Mitten und Weiß nach unten, so erscheint der innere Teil des Texts, also die Stanzmaske, heller, der äußere Teil wird entsprechend dunkler. Da der Generator „Rechteck“ in Final Cut Pro eigene Einstellungen hat, öffnet man diese per Doppelklick im Viewer, wechselt auf den Reiter „Einstellungen“ und passt hier die Form und deren Weichheit nach eigenem Gusto an. Der voranimierte Text läuft nun durch die starre Maskenform und wird an der entsprechenden Position aufgehellt, genauer gesagt an den oberen und unteren Rändern abgedunkelt.

Das animierte Element wird in der Timeline dupliziert, wobei das Key-Signal, zum Beispiel ein weißes Rechteck, zwischen den Spuren V1 und V3 in Spur V2 angelegt wird

Weist man dem oberen Element den Composite-Modus „Luma-Stanzmaske“ zu, wird dieses ausschließlich im weißen Rechteck dargestellt. Den Hintergrund färbt man über die 3-Wege-Farbkorrektur hierbei dunkler ein

Über die Einstellung der Form in Final Cut Pro kann der Anwender das Rechteck größer, breiter und weicher gestalten

Nicht selten kommt es vor, dass man einen Darsteller hervorheben möchte, indem man den Hintergrund abdunkelt

Auch für das Abdunkeln des Hintergrunds wird der Clip in der Timeline zunächst dupliziert und durch ein Key-Signal (hier ein einfacher Kreis) getrennt

Den Hintergrund dunkelt man über die 3-WegeFarbkorrektur ab, optimiert Form, Größe und Weichheit, und setzt einen Keyframe auf dem ersten Bild, um die Maske zu animieren

Aufheller mit animierter Maske Nach demselben Prinzip kann man auch einen bestimmten Bereich, zum Beispiel einen Darsteller in einem Film, aufhellen oder eine Vignette bauen, wobei natürlich auch die Möglichkeit besteht, nicht das Clip-Element sondern stattdessen die Maske zu animie-

47


AKTUELL

FOKUS

EDITING

Da Final Cut Pro keinen Tracker besitzt, muss die Maske manuell über den Mittelpunkt animiert werden

Das Verfahren der Stanzmaske eignet sich auch für das Verpixeln/Weichzeichnen. In diesem Fall wird auf dem oberen Clip der WeichzeichnungsFilter angewandt

ANIMATION

COMPOSITING

COLOR

AUDIO

ren. Möchte man zum Beispiel eine sich bewegende Person besser vom Hintergrund abheben, so legt man Kopien des Clips in die Spuren V1 und V3 und wählt eine Form aus den Generatoren, zum Beispiel einen Kreis, um diesen in die Spur V2 zu kopieren. Wie auch beim Text-Aufheller aktiviert der Anwender in der oberen Spur den CompositeModus „Luma-Stanzmaske“ und dunkelt den unteren Clip beispielsweise über die 3-WegeFarbkorrektur ab. Über die Einstellungen des Kreis-Elements ist es ferner möglich, diesen in Größe und Weichheit anzupassen. Bei Aufhellern für Darsteller bietet es sich an, den Kreis möglichst klein, die Weichheit dafür möglichst hoch zu gestalten, um so harte Kanten und damit den Anschein eines harten Spot-Lichts auf dem Gesicht zu vermeiden. Um der Bewegung des Darstellers zu folgen, ist es notwendig, dass die Maske animiert wird. Hierfür führt man einen Doppelklick auf das Kreis-Element aus, bewegt den Playhead auf den ersten Frame und setzt hier einen Keyframe für den Mittelpunkt. Anschließend bewegt man den Playhead in Timeline, Canvas oder Viewer Stück für Stück weiter, und zieht den Kreis dergestalt nach, dass dieser immer mittig auf dem Darsteller verbleibt. Durch das Setzen des ersten Keyframes werden alle folgenden Positionen als neuerlicher Keyframe automatisch gespeichert. Da Final Cut Pro leider keine Tracking-Funktion besitzt, muss man die Re-Positionierung des Kreises manuell durchführen, was je nach Bewegung des Darstellers aufwendiger oder einfacher ist.

Verpixeln/Weichzeichnen mit animierter Maske

Auch beim Weichzeichnen wird der Kreis, das heißt die Maske, analog zur Bewegung der Person animiert

Da Final Cut Pro keine professionelle Maskenfunktion besitzt, kann man sich für Bild-inBild-Effekte der Luma-Stanzmaske bedienen

48

Das Verfahren lässt sich auch einsetzen, um eine Person im Bild zu verpixeln, besser gesagt weichzuzeichnen, da Final Cut Pro keinen eigenen Verpixelungs-Filter besitzt. Auch hier legt man wieder zwei Kopien des Clips in die Spur V1 und V3 sowie ein Element, zum Beispiel einen Kreis, in die Spur V2, und weist dem oberen Element die LumaStanzmaske zu. Anstatt jedoch den unteren Clip jetzt abzudunkeln, wendet man auf dem oberen Clip den Filter „Gauss-Unschärfe“ an und zieht den Radius des Blurs auf einen Wert von ca. 20. Der obere, unscharfe Clip erscheint nun in einem Kreis auf dem unteren, scharfen Clip. Und ebenso wie bei dem Aufheller passt man jetzt Form, Weichheit und Größe des Kreises/ der Maske dem ersten Frame an. Dann setzt man Keyframes für Position und Skalierung (falls sich die Person der Kamera nähert), und animiert das Kreis-Element analog zur Bewegung der Person. Auch in diesem Fall muss, mangels eines Trackers, die Animation manuell erfolgen.

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Bild-in-Bild-Effekt Fehlen professionelle Maskierungs-Funktionen in einem Schnittprogramm, kann man die Luma-Stanzmaske auch für Bild-in-BildEffekte, das heißt das Ausschneiden von Bildelementen, nutzen. In unserem Beispiel arbeiten wir mit vier Elementen: Einer vor Grün aufgezeichneten Lupe, dem Bildinhalt der Lupe, einer Stanzmaske sowie einem Hintergrund-Bild. Von der Ebenenreihenfolge her legen wir den Hintergrund in Spur V1, eine kreisrunde, weiße Maske (in der Größe und Position des Lupenglases) in Spur V2, den gewünschten Bildausschnitt der Lupe in V3 sowie die Lupe in die höchste Spur, V4. Da es sich um eine Greenscreen-Aufnahme handelt, stanzen wir zunächst das Grün mittels Filter „Keylight“ aus, so dass der Hintergrund transparent wird. Anschließend wird der Inhalt der Lupe dergestalt in Position, Größe und Beschnitt gebracht, dass er im Groben dem Bildausschnitt der Lupe entspricht. Jetzt bearbeiten wir den weißen Kreis, welcher uns als Maske dient, so nach, dass dieser möglichst exakt der Position und der Größe des Lupenglases entspricht. Sollte sich die Lupe bewegen, ist es natürlich notwendig, den Kreis aus der Timeline ebenfalls zu animieren. Um jetzt den Inhalt der Lupe auch nur innerhalb der Lupe abzuspielen, wählen wir wieder den CompositeModus „Luma-Stanzmaske“, woraufhin die schwarzen Bestandteile des Kreis-Elements entfernt werden. Da nun sowohl die Lupe (mittels Greenscreen-Verfahren) als auch der Lupen-Inhalt über die Stanzmaske eine Transparenz erhalten haben, wird auch der Hintergrund sichtbar.

Externes Stanzsignal Die Stanzmasken-Funktion von Final Cut Pro ist nicht nur auf die eigenen Formen beschränkt (obwohl dies natürlich sehr effektiv ist). Stattdessen kann der Anwender auch in Grafik-Programmen wie Photoshop oder sogar Motion eigene Elemente erstellen, diese im TIFF-Bildformat speichern und als Key-Signal nutzen. Voraussetzung hierfür ist einzig, dass es sich um eine rein weiße Form oder um Graustufen (für weiche Ränder oder einen Verlauf) handelt, da das Stanz-Signal ansonsten nicht erkannt wird. Eine gewisse Beliebtheit haben natürlich auch Trash- oder Grunge-Effekte, die auf einfachen Schwarz-Weiß-Bildern basieren. So kann man beispielsweise das Bild von gefaltetem und/oder zerknittertem Papier nehmen und dieses als Luma-Stanzmaske verwenden. Auch ausgefranste, verdreckte, angebrannte oder gerissene Rahmen sind beliebte Objekte.

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

WORKSHOP | FINAL CUT PRO

Solange der Rahmen einen weißen Bildinhalt hat, lässt sich dieser hervorragend als LumaKey verwenden: Auch hier wird das Videobild wieder eine Spur über das Key-Signal gesetzt und mittels „Luma-Stanzmaske“ hindurch gedrückt.

Stanzmaske mit Verlauf Neben den geometrischen Formen verfügt Final Cut Pro auch über vorgefertigte SchwarzWeiß-Verläufe, welche sich als Stanzmaske einsetzen lassen, um einen langweilig grauen Himmel „zorniger“ zu gestalten, oder um einen Spiegeleffekt zu generieren. Möchte man beispielsweise den iTunesCover-Flow-Effekt nachbauen, positioniert man zunächst einen Videoclip im Canvas, dupliziert diesen, wendet den Filter „Umklappen“ an, und stellt diesen auf die Option „Vertikal“. Anschließend positioniert man den gespiegelten Clip im Canvas bündig unter dem ersten Element. Um jetzt den Effekt einer nach unten nachlassenden Spiegelung zu erzielen, wählt man aus dem Video-Generator „Render i Verlauf 1“ und platziert diesen in der Timeline zwischen dem ersten und dem zweiten Videoclip in Spur V2. Standardmäßig ist der Verlauf von links nach rechts gestaltet, kann aber über die Einstellungen auch von horizontal von oben nach unten auslaufen. Wichtig ist hierbei, dass der weiße Bereich oben, der schwarze Bereich unten ist. Befindet sich der Verlauf nun als eigenständiges Element in der Timeline, passt man diesen in Größe und Position der Spieglung, also dem zweiten Clip, an und wählt für den oberen Clip den Composite-Modus „LumaStanzmaske“. Die Spiegelung läuft jetzt analog zum Weiß-Schwarz-Verlauf nach unten aus. Wer möchte, kann über die Bewegungseinstellung Beschneiden auch die „Weiche Kante“ erhöhen, um eine weniger harte Abschlusskante der Spiegelung zu erwirken. Wer mit einem Schnitt- oder Animations-Programm arbeitet, das keine integrierten Verläufe bietet, kann einen solchen natürlich auch in Photoshop bauen und in der Timeline als Stanzmaske nutzen. Damit sind wir auch schon am Ende unseres kleinen Stanzmasken-Workshops angelangt. Alle genannten Arbeiten sind natürlich nur Beispiele, für welchen Zweck man den Luma-Modus anwenden kann. Nicht selten erreicht man mit Filtern von Drittanbietern ähnliche Ergebnisse, zum Beispiel Andy‘s Region Blur für das Verpixeln von Gesichtern, oder Cover Flux 2 für den Cover-Flow-Effekt (beide Plug-ins sind Freeware), häufig jedoch ist die Luma-Stanzmaske ein schneller und effizienter Weg, einen bestimmten Effekt zu ❯ ei erzielen.

Zunächst wird der Vordergrund, das heißt das Bild mit der Lupe, mittels Greenscreen-Filter Keylight freigestellt

Anschließend platziert man den Lupen-Inhalt so im Canvas, dass dieser in Größe, Form und Position dem Lupenglas entspricht

Eine weiße, kreisförmige Maske dient als Stanzsignal für die Lupe. Wird diese unterhalb des LupenInhalts platziert, während das darüber liegende Videobild den Composite-Modus „Luma- Stanzmaske“ erhält, wird der Inhalt nur im Lupen-Glas dargestellt

Der Effekt des Lupenglases besteht aus vier Ebenen: Dem Hintergrund in V1, dem runden Keysignal in V2, dem Lupeninhalt in V3, und der Lupe vor Grün in V4

Wählt man für das Spiegelbild den Composite-Modus „Luma-Stanzmaske“, wird dieses nach unten hin dunkler. Weiche Kanten über die Bewegungseinstellungen verstärken diesen Effekt

Auch Rahmen mit weißem Bildinhalt kann der Anwender in Final Cut Pro als Keysignal verwenden

49


FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Bilder: Walt Disney Studios Motion Pictures (Germany) GmbH

AKTUELL

Viel Wirbel um VFX Am 17. Februar startete „Hexe Lilli 2“ in den Kinos. Für den zweiten Teil des Family-Entertainment-Abenteuers verantwortete das Münchner Studio Trixter rund 350 Shots. Mit dabei ist natürlich wieder Flugdrache Hektor, aber auch ein zweiter Character: Flaschengeist Suki. Zudem gab es jede Menge klassischer Visual Effects. DP sprach mit VFX-Supervisor Jan Stoltz, der den Dreh von Anfang an begleitete. von Sabine Hatzfeld

50

Bilder: TRIXTER FILM GmbH

ANIMATION NEWS

H

Eingangssequenz Der Anflug auf das fiktive Königreich Mandolan war eine der aufwendigsten Einstellungen und erforderte viel Compositing-Arbeit

exe Lilli – Die Reise nach Mandolan“ ist eine blue-eyes-Fiction und TRIXTERProduktion und wurde von Corinna Mehner, Martin Husmann und Michael Coldewey produziert. Die Geschichte um die kleine Lilli, deren Hexenkünste im fernen Königreich Mandolan gebraucht werden, basiert wieder auf den Kinderbüchern von Erfolgsautor Knister. Der österreichische Filmemacher Harald Sicheritz führte vor exotischer Kulisse Regie und Michael Mittermeier verlieh erneut dem CG-Drachen Hektor seine Stimme. Neu dabei war dieses Mal Cosma Shiva Hagen, die dem Flaschengeist Suki ihre Stimme gab. Gedreht wurde in der Marlene-Dietrich-Halle im Studio Babelsberg und in Indien. Jan Stoltz von TRIXTER betreute als VFXSupervisor das Projekt. Stoltz arbeitet seit circa zehn Jahren in der VFX-Branche. Der Absolvent der Filmakademie Ludwigsburg war zunächst zweigleisig unterwegs und verdiente sich seine Sporen als Character Animator und VFX-Supervisor, unter anderem auch in den USA. Dort war er bei Digital Domain beschäftigt, die gerade das Projekt „I, Robot“ in der Pipeline hatten. Bei TRIXTER hat Stoltz „eine gute Kombination gefunden zwischen Character Animation and VFX“, denn in vielen Filmen, die TRIXTER betreut, spielen animierte Character die Hauptrolle. Im Fall von Hexe Lilli 2 konnte Stoltz diese Kombination hervorragend einsetzen.

DP: Hallo Jan, du hast das Projekt von Anfang betreut. Konntest du auch Einfluss auf das Drehbuch nehmen? Jan Stoltz: Ja, aber natürlich nur indirekt. Im September 2008 lag die erste Drehbuchfassung vor, anhand derer wir eine erste Grobkalkulation erstellt haben. Im Anschluss instruierten wir die Drehbuchautoren im Umgang mit den digitalen Figuren. Denn um einen Film bezahlbar zu machen, muss man aufpassen, wie oft ein Character im Bild erscheint. Wir haben zum Beispiel Hektor des Öfteren in Lillis Rucksack verschwinden lassen, wenn er nicht gerade tragend für die Handlung war. DP: Hexe Lilli 2 kostete knapp 10 Millionen Euro. Hattet ihr mehr Budget für die VFX zur Verfügung als bei Teil 1? Jan Stoltz: Leider nein und das war eine große Herausforderung. Zwar gibt es etwas weniger Shots, aber dafür sind sie länger. Zudem hatten wir kaum noch Lock-offs, mehr Interaktion und zwei weitere digitale Charaktere: Flaschengeist Suki sowie digitale Raben. Aber auch Hektor musste von den Texturen und dem Rig teilweise neu angelegt werden. Wir mussten also den Film gut erzählen, aber ihn uns auch noch leisten können. DP: Inwieweit habt ihr Hektor einen neuen Look verpasst? Jan Stoltz: Nun, Hektor ist ja eigentlich eine

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

ANIMATION | NEWS

Trackingmarker VFX-Supervisor Jan Stoltz bringt während der Dreharbeiten in Indien Marker an einen Elefanten an

Cartoon-Figur, allein durch seine Augen und die Art sich zu bewegen. In Teil 1 sollte Hektor eher wie ein Spielzeug wirken. Deswegen hatte er eine glatte Oberfl äche und war von den Texturen her weicher gestaltet. Für Teil 2 sollte Hektor von der Oberfläche reptilienartiger sein, dabei aber stets noch etwas Liebenswertes behalten.

ganz so sicher auf ihrem Wirbel. Dieser Tornado war im Übrigen für das Team ziemlich schwierig.

DP: Konntest du deine bisherigen Erfahrungen bei diesem Projekt gut einsetzen? Jan Stoltz: Auf jeden Fall. Ich komme ja aus der Animation, Character Animation ist mein Steckenpferd. Und als VFX-Supervisor habe ich schon etliche, aufwendige Filme betreut. Lilli war da ein perfekter Match, zudem kannte ich Hektor aus dem ersten Film schon inund auswendig. Deshalb konnte ich am Set die Kommandos geben, da ich weiß, wie sich der Character bewegen kann. Wir haben vier Takes gedreht ohne später etwas retimen zu müssen. Den Darstellern habe ich mit einer Gummifigur von Hektor in Realgröße vorgespielt, wie sich der Drache bewegen wird. Es gab eine Probe als Referenz für die Darsteller. Danach haben wir die Szene ohne Referenz aufgenommen.

DP: Inwiefern? Jan Stoltz: Bei einem Flaschengeist denkt man ja eher an Rauch, der aus der Flasche kommt und worin sich der Geist materialisiert. Das wäre auch die einfachere Variante gewesen. Suki sollte hingegen einen eigenen Antrieb haben, ein Kraftfeld, das sie trägt. Wir bauten eine simple 3D-Repräsentation des Wirbels als Geometrie. Damit konnten die Artists animieren, wo sich der Flaschengeist befindet. Dies diente als Vorlage für unseren Effect TD Michael Waltl, der den Tornado dann für den finalen Shot nachgebaut hat. Er setzte das mit einem 3D-Fluid-System in Maya um. Dort gab es zusätzliche Funktionen, mit denen man diesen Wirbel kontrollieren konnte.

DP: Ein zweiter, neuer Character war Flaschengeist Suki. Was war das Besondere? Jan Stoltz: Suki sollte sowohl etwas „Schlichtes“ haben, was aber auch liebenswert und sexy rüberkommen sollte – Hektor verliebt sich ja unsterblich in sie. Allerdings sollte sie auch etwas Niedliches haben und auch nicht ganz perfekt sein. Der Geist ist ja auch nicht das Top-, sondern eher das Discount-Modell mit leichten Macken. Und wenn sie das erste Mal erscheint, ist sie noch nicht

DP: Das hört sich nach einem Balanceakt an? Jan Stoltz: Durchaus. Hektor verfügt nun in der Nähe betrachtet über eine feine reptilienartige Struktur, ähnlich wie eine Eidechse. Weiter weg erkennt man ein Farbkonzept, das sich im Gegensatz zu Teil 1 klarer abhebt. So sind die Rückenflossen kräftig rot gefärbt, der Körper verfügt über einen etwas scheckigen Grünton und der gelbe Bauch ist davon deutlich abgetrennt. Am wenigsten hat sich im Gesicht verändert. Aber die Änderungen am Körper integrieren Hektor besser in die Handlung. In Mandolan ist alles staubig und dreckig, mit viel natürlicher „Oberfläche“ – also musste er sich an die Umgebung anpassen. DP: Welche Szene hat dich als VFX-Supervisor am Set besonders gefordert? Jan Stoltz (lacht): Da gab es einige, aber die erste Szene mit Hektor etwa ist sehr lang und aufwendig. Hektor versucht, Tai Chi nachzuahmen und stolpert dabei über einen gedeckten Tisch und fällt schließlich herunter.

DP: War es schwierig, die Kontrolle zu behalten? Jan Stoltz: Ja. Einen Tornado zu gestalten, der nett aussieht und richtig wirbelt, ist ja nur die eine Seite der Medaille. Die Frage war: Wie bewegt sich das Teil? Es ist relativ komplex, so einen Fluid-Container durch die Gegend zu schieben. Das Wesen von Fluids und Particles ist ja, dass sie in der Luft hängen bleiben. Wenn man sie ganz schnell zur Seite schiebt, lösen sie sich in Rauch auf und materialisieren sich an anderer Stelle wie-

Final TRIXTER sorgte für eine geheimnisvolle Atmosphäre und fügte Wolken hinzu

Bilder: TRIXTER FILM GmbH

DP: Was genau war deine Aufgabe? Jan Stoltz: Ich habe die Animationsregie für diese Einstellung am Set geführt und festgelegt wie die Kamera schwenkt. Drei SFXLeute unter dem Tisch haben die Strippen gezogen, damit die Tassen umfallen und der Servierwagen sich bewegt. Die Fäden haben wir später wieder wegretuschiert. Wir haben sogar die Servierglocke mit einem Nylonfaden angehoben und wieder gesenkt. All das wurde

in Camera aufgenommen, nur die Reflexionen in der Servierglocke und der Telefonhörer, mit dem Hektor interagiert, waren CG.

Original Die Befestigungsanlage, die im Film als verbotene Stadt fungiert, gibt es wirklich

51


FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

Bilder: TRIXTER FILM GmbH

ANIMATION NEWS 52

Compositing Das Fort von Jaisalmer wurde um den mandolanischen Palast erweitert

MAKING OF

GUIDE

ON TOUR

der. Aber das wollte der Regisseur nicht. Unter Suki sollte stets der Tornado zu sehen sein. Also musste seine Form – egal wie schnell Suki sich bewegt hat – immer konstant bleiben. Man musste die Particles und das Fluid zwingen, genau an der Stelle zu bleiben.

in den Palast hineinfliegen sollte. Wir mussten circa 8 Sekunden zwischen Real-Filmteil und dem 3D-Palast überbrücken. Dafür haben wir die reale Umgebung auf Geometrien gemappt, um diesen Flug von außen nach innen durch die Gardine zu realisieren.

DP: Wie sah die Lösung hierfür aus? Jan Stoltz: Zum einen haben wir die richtige Kombination aus Verschieben des gesamten Fluid-Containers und der Tornado-Eigenbewegung gefunden. Zum anderen musste immer wieder die Emissionsrate und Dichte des Fluids Shot-spezifisch nachjustiert werden.

DP: Für den Film kamen auch klassische Matte Paintings zum Einsatz. Das war sicherlich bei der Szene am See der Fall? Jan Stoltz: Richtig, aber das war längst nicht so aufwendig, wie man meinen könnte. Wir werden oft auf diese Szene angesprochen, aber der Witz ist: Dieses Gebäude, also die verbotene Stadt, ist echt! Das ist eine riesengroße Befestigungsanlage. Wir haben am Set nur noch das Tor ins Wasser gesetzt, durch das Hexe Lilli paddelt. Später haben wir vom Realbild noch Häuser und Menschen entfernt, eine düstere Stimmung eingeführt und ein paar Wolken reingesetzt. Allerdings hatten wir auch noch einige „richtige“ Matte Paintings, die von unserem Comp Artist Dominik Zimmerle umgesetzt wurden.

DP: Welche VFX-Einstellungen gab es noch? Die Anfangsszene mit dem Anflug auf Mandolan scheint recht aufwendig gewesen zu sein? Jan Stoltz: Oh ja. Diese gigantische Einstellung ist zu 80 Prozent full CG und wir sind sehr stolz darauf. Das war unser „Baby“, für das wir gekämpft haben. Es steckt viel Liebe zum Detail darin. Wir haben Elefanten, Kamele, Menschen sowie eine Zeltstadt vor den Toren komplett animiert. Der Shot ist unheimlich dicht und vermittelt eine wahrlich märchenhafte Atmosphäre. Die kreative Leitung speziell für diese Einstellung hat Alessandro Cioffi – unser Compositing Supervisor – übernommen. Das Compositing hat unser Lead Compositor und ausgemachter Nuke-Experte Sebastian von Overheid gestemmt.

Realismus Das meiste wurde in Camera gedreht. Die Reflexionen in der Servierglocke, der Telefonhörer – und natürlich Hektor – sind CG

STEREO 3D

DP: Warum habt ihr so viel Zeit und Mühe in diese Einstellung gesteckt? Jan Stoltz: Wir hielten es für sinnvoll, am Anfang des Films einen Establisher einzusetzen. Damit zieht man den Zuschauer zum einen in die Geschichte hinein, zum anderen etabliert man die Vorstellung, wie eigentlich dieses Königreich Mandolan aussieht. Die Handlung spielt sich ja vor allem in Innenräumen und engen Gassen ab. Durch diese Anfangsszene konnten wir später wieder einsparen und mit stehenden Einstellungen oder klassischen Matte Paintings arbeiten. DP: Wie wurde die Sequenz umgesetzt? Jan Stoltz: Zunächst wurde in Indien ein Realfilm-Shot mit einem Hubschrauber aufgenommen – und es war gar nicht so einfach eine Drehlizenz zu organisieren, weil Jaisalmer ziemlich nah an der Grenze zu Pakistan liegt. Die Stadt selber verfügt über ein wundervolles altes Fort. Die umliegenden Häuser haben wir mit Hilfe von Nuke und Maya mit Wüste überdeckt. Das Palastgebäude selber wurde oben auf das Realbild draufgesetzt. Eine Herausforderung bestand noch darin, dass der Hubschrauber aufgrund von Windböen nicht wie geplant an der Stelle in der Luft stehen bleiben konnte, wo die Kamera später

Bilder: Walt Disney Studios Motion Pictures (Germany) GmbH

AKTUELL

DP: Kannst du noch etwas zu dem aufwendig gestalteten Vorspann sagen? Jan Stoltz: Er ist in weiten Teilen bei TRIXTER entstanden. Die Zeichnungen und Hintergründe lieferte Thomas von Kummant von der Artillerie, der auch die Art Direction für den Film verantwortete. Die OrigamiAnimation des Briefs hat eine klassische Animatorin für uns umgesetzt, Alla Churikova. Sie faltete Briefe aus Papier und animierte sie mit der Fotokamera. Unser 2DAnimator, Melih Bilgil, hat das Ganze dann in After Effects zusammengefügt. DP: Was würdest du dir aus VFX-Sicht für einen Teil 3 wünschen? Jan Stoltz: Ich würde gerne das ausbauen, was wir mit Teil 2 angefangen haben: Aufwendige Shots wie die Eröffnung verfügen über eine große visuelle Dichte. Ansonsten wäre es schön, einen Character wie Hektor als richtigen Protagonisten aufzubauen. Aber auch in einem dritten Teil sollte ein Zuschauer immer sagen können „Das war aber ein lustiger Drache“ und nicht nur „Der war halt technisch gut gemacht“, denn dann ❯ sha hätten wir etwas falsch gemacht.

WWW.DIGITALPRODUCTION.COM


SEMINARE CINEMA 4D: „DRAG & DROP PROGRAMMIEREN“ FÜR KREATIVE MIT XPRESSO! tt nd DP ba u er R a m- n d % iu te 15 rem nen r P on fü sab e hr Ja

Sebastian Krieg (39; Dipl. Wirtschaftsinformatiker und Bachelor of Arts Animation) Der gelernte Büro-Informationselektroniker, absolvierte zusätzlich das Studium „Digitale Medienproduktion“ in der Fachrichtung „3D-Animation“ an der Macromedia Hochschule für Medien und Kommunikation in München. Er erstellte seine Bachelor-Arbeit zum Thema „Entwicklung einer Physik-Engine für 3D-Visualisierungen mit Cinema 4D“ für die Firma ESG mit Sitz in Fürstenfeldbruck (www.esg.de). Das Portfolio des 3D- und Animationsexperten reicht von Cinema 4D, XPresso, C.O.F.F.E.E., 3ds Max, After Effects über Adobe Photoshop, Adobe Premiere, ASP.NET, Java uvm. Sebastian Krieg arbeitet freiberuflich als Programmierer und im 3D-Animationsbereich und ist Dozent für Cinema 4D.

Zielgruppe: Alle Cinema 4D Benutzer, die mehr Kontrolle über ihre 3D Szene haben möchten und sich mit definierten Abhängigkeiten das tägliche Arbeiten erleichtern wollen.

Inhalte des Seminars: i was ist XPresso? i wie arbeitet man mit der Oberfläche? i was sind Nodes und wie arbeitet man mit ihnen? i welche Typen von Nodes gibt es? i auf welche Art lassen sich XPresso-Schaltungen erstellen? i wie kann ich mit XPresso Animationen steuern? i wie erstellt man Berechnungen mit XPresso? i wie steuert man über XPresso Thinking Particles?

Ort und Zeit: München: Samstag, 16. April 2011, 10:00 bis 18:00 Uhr

Kosten: i Frühbucherrabatt bis zum 1. April 2011: EUR 349.00 zzgl. MwSt. i Ab 02. April 2011: EUR 399.00 zzgl. MwSt. i Studentenpreis: EUR 249,00 zzgl. MwSt. Die Plätze für das Seminar sind auf 15 Teilnehmer begrenzt. Jeder Teilnehmer bekommt ein Zertifikat. Hands On Seminar: bitte eigenen Rechner (Laptop) mitbringen.

Anmeldung: In Kooperation mit

Melden Sie sich über die Homepage der DIGITAL PRODUCTION www.digitalproduction/seminare an. Bei Fragen wenden Sie sich bitte an Thomas Gronert: tgronert@missing-link-software.de oder telefonisch unter 089-74 49 23 76

ANMELDUNG & INFOS UNTER: www.digitalproduction.com/seminare Bei Fragen wenden Sie sich bitte an Thomas Gronert: tgronert@missing-link-software.de oder telefonisch unter 089-74 49 23 76


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR R

AUD AUDIO DIO O

STEREO STE TEREO TE R 3D REO

MAKING OF

GUIDE

ON TOUR

„Hephaestus II“ Der Aufmacher wurde mit der aktuellen ZBrush-Version von Scott Eaton erstellt. Er ist Artist sowie Anatomy Instructor und arbeitet mit führenden Game- und VFXStudios im Bereich Character-Design. Mehr Infos: www.scott-eaton.com

54

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

TEST | ZBRUSH 4

Pixologic ZBrush 4

Brush 4

ZBrush (ZB) ist schon seit geraumer Zeit auf dem Markt und hat sich zu einem ausgereiften Modelliertool für die Medienbranche entwickelt. Es wird von der Visualisierung in Print bis zum Einsatz von hochaufgelösten Modellen in Film- und Fernsehproduktionen genutzt. Nun geht das Zeichen- und Modellierpacket von Pixologic in Runde 4. DIGITAL von Keywan Mahintorabi PRODUCTION hat sich das einmal genauer angeschaut.

B

ekannt wurde ZBrush als organisches Modellierungstool. Mit vielen Funktionen und auch unterschiedlichen Arbeitstechniken kann der Anwender Formen und Figuren entwickeln, bis zum kleinsten Detail entwerfen und ausgestalten. Mit der Version 4 kommen weitere Verbesserungen der bisher bekannten Werkzeuge. Die Tendenz, auch Festkörper mit speziellen Masken und Pinselwerkzeugen in den Griff zu bekommen, ist klar erkennbar. Hier haben sich die Entwickler bei Pixologic einiges einfallen lassen, harte Kantenzüge und Schnitte in Geometrien umzusetzen. Durch die neuen HardsurfacePinsel wird bis zu einem gewissen Grad das Prototyping von Festkörpern möglich. Passend dazu gibt es das 3D-Print-Exporter-Plug-in. UV-Master als neues Plug-in für die Texturabwicklung ist ebenfalls effizient und erzeugt sehr gute Abwicklungen. Das Modell wird mittels der Abwicklung in ZBrush gleich für die Projektion von Texturen vorbereitet. Das neue SpotLight-System von ZB4 kann verwendet werden, um Texturen

schneller und effizienter für das Modell zu entwickeln. Des Weiteren gibt es mit der neuen Version die verzahnte Lösung von GoZ für Mac und Windows. GoZ ermöglicht den Austausch des Modells mit anderen 3D-Anwendungen per Knopfdruck. Auch im Bereich der Präsentation und Evaluierung von Bewegungsabläufen hat sich einiges getan. Es existiert eine Timeline, mit welcher Rundflüge um das Modell erstellt, aber auch zwischen Posen geblendet werden kann. Verschiedene Posen können entlang der Timeline abgelegt werden. So verwendet man die Timeline, um verschiedene Formen der Figur schnell abzulegen und zu vergleichen. Es ist natürlich kein Ersatz für ein vollständiges Animationssystem, wie es in Maya, XSI, Cinema 4D oder 3ds Max verwendet wird. Jedoch ist es nicht auszuschließen, dass für bestimmte Projekte direkt aus der Timeline von ZB gerendert werden und der Output direkt in ein Composit Tool übergeben werden kann.

Neue Brushes ZB4 kommt mit vielen neuen Brushtypen, die für unterschiedlichste Anwendungen gedacht sind. Das Maskieren ist sehr effizient geworden. Man hat eine Kreis-, Rechteck- und Lassoauswahl, mit der man Maskenbereiche über die Mask-Brushes erstellen kann. So effektiv wie in dieser Version konnte man Masken bisher nicht erstellen. Wird ein bestimmter Masking-Brush gesetzt, wird dieser wie gewohnt über die Strg-Taste aktiviert. Durch Lasso, Kurve, Kreis und Rechteck bekommt man saubere komplexe Masken in den Griff. Hier ist ZBrush seinen Konkurrenten weit voraus.

Clip Brushes

Maskierungs-Brush Maskierungswerkzeuge wie Schnittkurve, Kreis, Rechteck oder Freihandkurven ermöglichen exaktere Maskenarbeit

Diese Pinselwerkzeuge arbeiten im Gegensatz zu den anderen Pinseltypen sehr eigen. Mit den Clip Brushes kann man Geometrien mit einer Kreis-, Rechteck-, Lasso- oder Kurvenauswahl in die Ebene der Arbeitsfl äche abschneiden. Das ist für die Erstellung von Hardsurface-Geometrien sehr hilfreich. In der beigelegten Demo der gestalteten Uhr sieht man den Einsatz der Clip Brushes sehr deutlich. Eine Nut lässt sich seitlich leicht

anbringen und wird messerscharf durch die Geometrie gestanzt. Dies funktioniert ähnlich wie mit dem Radierwerkzeug beim Malen im 2.5-D-Raum von ZBrush. Die Polygone werden perfekt in die Tiefe gezogen und an die Clipform projiziert. Geht man von einer fl a-

ZBrush 4 Hersteller: Pixologic Internet: www.pixologic.com Preis: 699 US-Dollar (Single User)

Anmerkungen zum System Betriebssysteme: Win XP SP2 oder neuer, Mac OS X 10.5, jeweils in der 32-Bit- oder 64-Bit-Variante. (ZBrush 4 ist eine 32-BitApplikation, es kann jedoch unter einem 64-Bit-System die vollen 4 GB adressierbaren Speicher beanspruchen). Arbeitet man viel mit hochaufgelösten Texturen, sollte der Grafikkartenspeicher gut ausgestattet sein, hier gilt: je mehr desto besser. Das gilt natürlich auch für die GPU.

⊕ Neue Brushes erweitern die Möglichkeit, an Hardsurfaces zu arbeiten ⊕ Spotlight vereint ein Interface mit wichtigen Werkzeugen für das Texture Painting ⊕ 3D-Layer werden flexibler einsetzbar ⊕ Animation Features in Z4 geben neue Workfows an die Hand ⊕ Verbesserte Optionen für den Umgang mit komplexeren Subtools ⊕ Shader Box ermöglicht das Erzeugen einfacher Grundgeometrie auf innovative Weise ⊕ GoZ-Workflow für schnelleren Austausch zu gängigen 3D-Programmen ⊝ Interface wirkt nach wie vor mit den vielen Funktionen überbordend ⊝ Bei Texturen von 8K ist die Grenze erreicht und die Performance bricht erwartungsgemäß ein. Dies liegt nicht an der Grafikkarte unseres Testsystems, sondern vielmehr am Management von großen Texturmengen. Hier hat Mari von The Foundry als Texturpainting-Anwendung die Nase vorn.

55


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

verformt so nur die Oberlippe, ohne ein Stück von der Unterlippe mitzunehmen. Das ist sehr hilfreich bei der Manipulation von organischen Formen mit Hinterschneidungen. Man kann noch die Weichheit und den Auslaufgrad der Maskierfunktion einstellen.

Der Move Elastic Brush

STEREO 3D

MAKING OF

GUIDE

ON TOUR

der Mitte des Shadow-Box-Würfels. Das Profil kann frei aufgemalt werden und erzeugt durch Projektion die unterschiedlichsten Grundformen. Hier muss der Anwender also nicht mehr unbedingt in eine 3D-Animationssoftware wie Maya, 3dsMax, XSI gehen, um eine Grundgeometrie zu schaffen. Vielmehr können für die Konzeptphase direkt in ZBrush Grundmodelle generiert werden, welche dann

Es handelt sich dabei um eine Variation des Move Brushes, der in verschiedener Form in ZB4 zu finden ist. Dieser Pinseltyp benutzt eine neu eingeführte Funktion im Brush-Menü. Dies sind die Elastic Settings. Dieser Pinsel ist für drastische Formveränderungen geeignet und vermeidet bestmöglich die enorme Dehnung, sprich Verzerrung der Topologie des Polygonnetzes, bei großen räumlichen Veränderungen. Clip Brush Neu in ZB4 sind die Clip Brushes, mit denen man besser an die Form von HardsurfaceObjekten herankommt

chen Geometrie aus, fehlen auf der inneren Seite entsprechend Loops, da die Topologie nicht verändert wird, sondern einfach nur Polygone verschoben werden. Dies äußert sich darin, dass Loops in der Tiefe fehlen. Dies kann aber durch einen Retopology-Prozess überarbeitet werden. Hier kann man GoZ verwenden, um in dem 3D-Programm seiner Wahl die Topologie zu verbessern und wieder nach ZBrush zurückzusenden.

Topological-Einstellung für Modellierpinsel Unter dem Brush-Menü gibt es eine neue Auto-Masking-Funktion. Schaltet man Topology Auto Masking ein, wird der Bereich der Geometrie entlang der Oberfläche bestimmt. Dadurch kann man beispielsweise leichter die Mundform im Gesicht öffnen oder verformen. Der Pinsel läuft entlang der Topologie und

Deco Brushes Es gibt unter den Pinsel neue Deco Brushes. Sie sind von eins bis sieben nummeriert und haben unterschiedliche Einstellungen der neuen Orientierungsattribute von Pinselstrichen. In Kombination mit Alpha-Masken für die Pinselspitze ergeben sich eine Vielfalt von Mustern, welche man per Decor an die Oberfl äche aufbringen kann. Diese neuen Deco Brushes haben nichts mit dem bisherigen Deco Brush Tool, welches im 2.5-D-Raum exitstiert, zu tun. Vielmehr wird das Decor in die 3D-Geometrie hineinmodelliert.

durch die üblichen Verfahren unterteilt und ausmodelliert werden. Shadow Box basiert auf der „Remesh All“-Funktion und ist dazu gedacht, möglichst einfache Grundmodelle zu erstellen, die später in den Modellierprozess übergehen. Die intuitive Arbeitsweise mit Shadow Box macht Spaß beim Experimentieren mit Basisgeometrien für komplexe Zusammenstellungen.

Shadow Box

Arbeiten mit Subtools in ZBrush 4

Die Shadow Box ist ein neues Verfahren, mit welchem man alle möglichen Formen auf Primitivbasis erstellen kann. Man bekommt einen offenen Würfel mit einer Seitenansicht, Frontansicht und Draufsicht. Indem man Masken auf die jeweiligen Schnitte aufträgt, werden Profile für die Ansichten erstellt. Daraus errechnet Shadow Box eine Geometrie in

Die SubTools sind zum Managementzentrum einer komplexen Figur oder Geometrie geworden. Dazu gibt es wichtige Erweiterungen im Umgang mit SubTools. Im Arbeitsfluss entstehen etliche Subtools und bisher hatte man eine lange Liste, die man stets auf und abwandern musste, um einzelne Subtools aus- beziehunsweise einzublenden. Der ListAll-Knopf öffnet ein Fenster mit einer alphabetischen Unterteilung. Die Subtools werden automatisch alphabetisch geordnet. Der User wählt ein Subtool an und bekommt darüber eine große Ansicht der Geometrie in diesem Subtool. Auf diese Weise kann man schnell auf ein bestimmtes Subtool zugreifen. Neben der perpektivischen Ansicht sieht man ebenfalls zwei neue Knöpfe für die Steuerung von Subtools. Der Solo-Knopf am rechten Rand des Kamerafensters dient zum schnellen Isolieren des jeweiligen Subtools, an welchem der Artist arbeitet. Hat man etwa eine komplexe Figur mit Kleidungsstücken und Anhängen, die jeweils auf eigenen Subtools liegen, kann der Xpose-Knopf hilfreich sein. Klickt man ihn an, werden die Subtools von der Grundfigur mit einem Offset weggeschoben. Jetzt hat der Anwender eine Explo-

Shadow Box Die Shadow Box stellt ein System dar, welches durch Dreitafelprojektion einen einfachen, grob aufgelösten Grundkörper erstellt

56

Deco Brush Die Deco Brushes 1 bis 7 haben unterschiedliche Einstellungen für das neue RotationsAttribut im Pinselwerkzeug. Damit können vielfältige Muster und Decors direkt in die Oberfläche modelliert werden

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

sionsdarstellung der ganzen Teile. Man kann sich bequem auf ein Teil konzentrieren und Bearbeitungen machen, vielleicht sogar kurz isolieren. Bei vollendeter Veränderung reicht ein Knopfdruck auf Xpose und die Subtools werden wieder zusammengefahren. In dem SubTools-Fenster finden sich Funktionen wie Merge All, um alle Teilgeometrien zusammenzuführen. Aber auch die Insert-Funktion fügt ein Geometriestück an einer bestimmten Stelle in der Liste ein, während die Append-Funktion ein neues SubTool immer am Ende der Liste hinzufügt. Ferner hat der Anwender noch eine Duplicate-Funktion, um ein SubTool zu kopieren. Das alles gibt mehr Flexibilität beim Arbeiten mit den SubTools.

TEST | ZBRUSH 4

SubTool-Management Erweiterungen in den Subtools wie List All ermöglichen die effi ziente Verwaltung vieler Subtools

3D-Layer Der Nutzen von 3D-Layern in ZBrush hat sich stark erweitert. Ein 3D-Layer kann nicht nur Sculpting-Veränderungen aufnehmen, sondern auch Polypainting und Maskierungen. Über das Ebenensystem von Layern lassen sich per Knopfdruck schnell Variationen einstellen. Etliche Polypaintings können ineinander geblendet werden, um detailreichere Varianten zu erhalten. Das Gleiche gilt auch für Maskierungen. Hier gibt es ab diesem Release viele neue Maskenfunktionen. Wendet man diese auch auf unterschiedliche Ebenen an, kann man sehr schön Masken blenden. Nach wie vor muss in ZBrush der RecordButton auf einer Ebene gedrückt werden,

eine Import-MDD-Funktion. Hier kann man das MDD-Point-Cache-Format einlesen. Ein Modell kann auf eine Animationssequenz hin geprüft und auch die entwickelten Texturen begutachtet werden. Mari lässt grüßen! Dennoch kann ZBrush hier nicht mit den Texturauflösungen und Mengen von The Foundrys Mari mithalten. Die Layer funktionieren wie ein Stapel, der von oben nach unten abgearbeitet wird. Dies ist natürlich wichtig, um Auswirkungen von Effekten auf einzelnen Layern zu verstehen und gezielt zu organisieren. Der Transfer von niedrigen SubDiv-Leveln zu Ebenen mit höheren Leveln funktioniert ab diesem Release ebenfalls. Wird ein Layer auf eine höhere SubDiv-Ebene transferiert, kann dieser nicht mehr in die einfachere zurückgeführt werden. Reversibel ist dieser Schritt also nicht. Dennoch können Intensität und Sichtbarkeit auf jedem Level interaktiv eingestellt werden.

turbearbeitung hinzu. Es ist ein neues Projektionswerkzeug, welches es erlaubt, viele Grundtexturen zu laden und sich direkt über dem Modell eine passende Textur zu gestalten. Dabei gibt es das Spotlight-Widget. Dies ist ein Drehrad mit vielen Funktionen wie Klonstempel, Skalieren, Rotieren, Bewegen, Farbsättigungen, Pinselwerkzeuge, interaktives Tiling in U und V, Nudge-Werkzeug zum Anpassen an kritische Modellstellen. Wählt man ein Werkzeug an, kann eine Einstellung durch Drehen des Rades verstärkt oder abgeschwächt werden. Die Transparenz einer Textur ist ein gutes Beispiel. Je nachdem, in welche Richtung man das Rad dreht, wird die Textur entsprechend schwächer oder

GoZ

3D Layer Die Layer wurden in ihrer Funktionalität stark erweitert. Modell, Masken, Polypaints, Animationen können auf Layer verwaltet werden

damit man Veränderungen am Modell, dem Polypaint oder der Maske umsetzen kann. Die neue Timeline-Funktion bringt einen Animationsworkflow nach ZBrush. Layer können auch Animationen beinhalten und vervollständigen den Satz an nonlinearen Werkzeugen mittels Ebenen. Nimmt man den Fall, dass verschiedene Morphtargets auf Layer gelegt werden, können pro Layer Animationen der verschiedenen Morphtargets abgelegt werden. Es ist zusätzlich möglich, aus einem Animationspaket eine Animationssequenz eines Modells auf einen Layer zu holen. Das funktioniert mittels des Point Caches. Es gibt

Ab Version 4 kommt offiziell GoZ hinzu. Es schlägt eine Brücke zu Maya (2008 bis 2011) sowie 3ds Max (2009 bis 2011), Luxology Modo 401, Cinema 4D R11, R11.5. Per Knopfdruck lassen sich damit Ergebnisse wie Grundmodell mit Shaderanbindung von Displacement, Normalmap und weiteren Texturen übertragen. In der jeweiligen 3D-Anwendung kann man Veränderungen an der Topologie vornehmen und wieder zurückschicken. ZBrush übernimmt die Veränderungen automatisch und der Kreis wird damit geschlossen. Ein schnellerer Workflow im Austausch mit der jeweiligen Host-Anwendung ist damit garantiert.

Texture Painting mit Spotlight Neben Light Box als Bibliothek und Shadow Box für das Modeling gesellt sich Spot Light als neues Werkzeug für die effizientere Tex-

Spotlight Das Texturepainting-System Spotlight bündelt über das kreisförmige Widget viele Werkzeuge, um aus mehreren Texturen eine passende zu gestalten und auf das Modell zu projizieren

57


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

MDD-Daten können auf Layer geladen werden und sind auch in der Timeline mit anderen Effekten steuerbar. Es ist demnach denkbar, dass eine Gesichtsanimation mit entsprechender Tonspur geladen wird. Mit den Modellierfunktionen von ZBrush können korrektive Blendshapes ausgeführt werden. Das alles kann man animieren und optisch prüfen, bevor das Ergebnis wieder in eine 3D-Anwendung überführt wird. Es gab viel Diskussion über den Sinn von Animationsfunktionalität im Zusammenhang mit ZBrush. Im Sinne von komplexen Animationsproduktionen, welche unter Zeitdruck arbeiten müssen, ist das Einführen von Animationsfunktionalitäten sinnvoll. Modelle im zeitlichen Ablauf und Kontext zu prüfen wird damit einfacher. Zudem kann die Timeline genutzt werden, um verschiedene Posen zu speichern oder eben auch Kamerafahrten anzulegen.

Best Preview Render und Präsentation

Timeline Mittels der Timeline werden einfache Animationen angelegt und gemanagt. Unter Movie/ Timeline Tracks sieht man die verschiedenen Animationsmöglichkeiten von ZB4

stärker. Ein Tiling, sprich Wiederholung, kann mit einem interaktiven Gefühl eingestellt werden. Spotlight ist simpel und effizient. Hier hat sich das Entwicklerteam von Pixologic Mühe gegeben, ein einfach zu erlernendes und logisches Werkzeug zu schaffen. Das Arbeitsgefühl ähnelt dem StencilWerkzeugvonZBrush.Diezusammengestellte Textur kann auf das Polypainting aufgebracht werden. Hochaufgelöste Polypaintings und jetzt auch die von der HD-Geometrie kann in

eine Textur überführt werden. Zum Auslegen von UV-Texturen gibt es seit einiger Zeit den UV Master als Plug-in. Damit kann man auf einfache Weise eine UV-Abwicklung für komplexe Modelle erzeugen. Über Polygroups werden auf elegante Weise einzelne Shells abgewickelt und im Quadranten positioniert. Es lohnt sich auf jeden Fall in diesem Zusammenhang das Plug-in zu laden und für die Texturgestaltung in ZBrush zu verwenden.

Animationen in ZBrush

Bild: Majid Ismaeily, majid_smiley@hotmail.com

Die Timeline als Element für Turntables und zum Animieren von Variationen für die Präsentation ist eine neue Dimension für ZBrush. Erstmals können einfache Animationen in ZBrush umgesetzt und sogar gerendert werden. Dazu kann man im Menü „Movie“ die Timeline aktivieren. Einfache Befehle wie „Keyframe kopieren und einfügen“ sowie „auf der Timeline bewegen“ sind vorhanden. Audio kann importiert und die Ausschlagskurven farbig dargestellt werden. Die Keyframetangenten Modi Fade In/Out sowie Ease In/Out lassen sich pro Keyframe einstellen. Ein Animationsgraph hat man aber nicht zur Verfügung.

58

Auch neue Shader für die Sub-Surface-Darstellung, Ambient Occlusion sowie Fibers sind hinzugekommen. Ein Blinn Material mit Blinn Specularity wurde ebenfalls eingeführt, damit man besser an die Glanzeigenschaft von Haut herankommt. Einem Shader kann man auf Wunsch ein SSS-Attribut hinzufügen. Das Subsurface Scattering erzeugt im Rendermodus nochmals eine verbesserte Qualität, indem die Lichtdurchdringung von organischen Materialien angedeutet wird. Über den Best-Preview-Mode kann man auch die Timeline entlang rendern lassen. Für eine Animationssequenz kann man sogar Renderpasses erzeugen. Passes für Shadow, Color, AO, Masken und Tiefenschärfe lassen sich separat herstellen – wunderbar um schnell ein Composit von der Arbeit zu machen und die Werkzeuge eines Composit-Tools für die Präsentation verwenden zu können.

Fazit ZBrush 4 wartet nicht nur mit einer Menge an neuen Features auf, die Funktionsvielfalt des Programms explodiert förmlich. In der neuen Version erkennt man sehr innovative Ansätze, wie man es vom Pixologic-Development-Team schon fast erwartet. Es finden sich aber auch Verbesserungen, die den Workflow deutlich beschleunigen und das kommt im Arbeitsalltag gut an. Für ZBrush-User ist das Update auf Version 4 mit Spotlight, ShadowBox, Timeline mit Animationsfeatures und den vielen neuen ❯ jb Brushes ein Muss. Keywan Mahintorabi leitet das Animationsstudio BumbleBee Animation (www.bumblebeeanimation.de) und ist als freier VFX Supervisor sowie als Fachbuch-Autor (u.a. für Maya) tätig.

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

REVIEW | RENDERMAN 3

Manndeckung beim Rendering

Die deutliche Preissenkung bei der Grundanschaffung macht den Edel-Renderer aus der Pixar-Schmiede jetzt sogar für kleinere Studios und Freelancer interessant. Hinzu kommt ein neues Lizenzmodell in Sachen RenderMan Server. Gute Gründe RenderMan in die Pipeline zu integrieren. DIGITAL PRODUCTION fasst die neuen Features von RenderMan von Keywan Mahintorabi Studio 3.0 und RenderMan for Maya 4.0 zusammen.

V

Produktionen können nun darüber nachdenken, in der Produktion auf RenderMan zu setzen. Das Mac-Betriebssystem wird von den Pixar-Produkten sehr gut unterstützt. Das liegt in der Natur der Sache. Im Haus werden Linux-Systeme gefahren. Die Portierung von Linux auf OSX liegt nahe und funktioniert gut. So gibt es Tractor – das neue Render-Management-System unter Linux und OSX. Clients können auch Windows-basierte Workstations sein. Die Mac-OSX-Variante von RenderMan Studio ist erstmals in 64Bit erhältlich und das Plug-in unterstützt Maya 2011.

Die neuen Features von RMS 3.0 und PRMan 15 Damit das Relighting System funktioniert, benötigt man RenderMan Studio und eine RenderMan-Server-Lizenz. Die Studio-Version enthält ein Interface für die Steuerung des Relighting-Systems. Dabei können Threads eingestellt werden. Sobald die entsprechenden Maps generiert wurden, kann mit der Lichtabstimmung begonnen werden. Die veränderte Lichtposition und deren Auswirkung werden im finalen Rendering umgesetzt. Das macht das Einleuchten über RenderMan zu einem in-

alle Biilder: Disney Pixar

or kurzem kündigte Pixar an, dass der RenderMan Server nun pro Rechner lizenziert wird. Das bedeutet, je mehr Kerne in Ihrem System stecken, desto besser nutzen Sie die Lizenz aus. Früher war die Lizenz an die Kernzahl gekoppelt. Dies ist zum Glück für den Anwender inzwischen Vergangenheit. Im Zeitalter der Mehrkernprozessoren war dies auch unumgänglich. Des Weiteren wurde der Preis des RenderMan Servers um 40 Prozent reduziert. Das Plugin RenderMan for Maya bleibt gleich im Preis. Das Argument „RenderMan wäre zu teuer“ schwindet damit immer mehr. Schon kleinere

59


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Im Rampenlicht Ken macht dank Pixars RenderMan eine gute Figur in Toy Story 3

Nachgelegt Mit dem Relighting-System und den Performance-Verbesserungen bei GI und Light-ScatterTechniken werden neue Standards gesetzt

teraktiven Prozess. Es funktioniert auch mit dem Environment Light, welches für den GIProzess in RenderMan benutzt wird. Veränderungen bei den Berechnungen der indirekten Beleuchtung brauchen längere Rechenzeit im Vorfeld. Sind jedoch erst einmal die entsprechenden PointCloud Maps erzeugt, kann man auch interaktiv im GI-Modus arbeiten. Einstellungen an Schatten und Licht sind sehr wichtig, um ein gutes Bild zu schaffen. Dementsprechend liegt heutzutage der Fokus in der Optimierung dieses Prozesses. Viele Renderer bieten ihre Lösung dazu an. Doch scheint bei RenderMan der Ansatz wieder einmal tief in der Pipeline integriert und funktioniert sofort an der finalen Bildqualität. Dieser Modus bezieht sich jedoch rein auf das Licht. Die Kameraposition bleibt starr und Materialveränderungen werden nicht übernommen. Es ist nicht mit dem IPR von Maya vergleichbar. Lichteinstellungen können aber auf jeden Fall durch RenderMan Studio an der finalen Qualität effektiv erarbeitet werden. So

kann man das Rendering nur mit einer Lichtquelle anschauen oder auch Einstellungen von mehreren Lichtquellen und Schatteneinstellungen auf einmal verändern. Zum Beispiel ist eine Farbveränderung und der Lichtverfall sofort sichtbar (linear, quadratisch).

60

Maya Fluids & Volume Rendering Maya Fluids werden nun auch von dem RenderMan-Plug-in unterstützt. Dabei wird Motionblur sowie Depth Maps und Deep Shadows ebenfalls gefördert. Mit diesen Features können in Maya Wassersimulationen leichter fotorealistisch mit RenderMan „out of the box“ umgesetzt werden.

Volume Scatter Workflow Wenn Licht ein Volumenobjekt durchdringt und sich dabei streut, spricht man von Volume Scattering. Für diesen Effekt gibt es neue Attribute, welche man über den Attribute Editor

anhängen kann. Ein entsprechender Render Pass wird zugewiesen. Volume Rendering wurde in RenderMan Server 15 vom Grund auf besser integriert. Es war nicht nur eine Performanceverbesserung der bisherigen Methoden beabsichtigt. Die Effekte liefen bis dato über RenderingSubsysteme und waren vom programmiertechnischen Ansatz her bezüglich den vorhandenen Features von RenderMan immer eingeschränkt. RPS 15 nutzt eigens Volumenprimitive. Shader können an jedem Punkt in einem Volumen definiert sein. Dabei können dann die Shader normale RenderMan-Funktionen wie bake3D und texture3d nutzen. Auch Funktionen wie Displacements und Raytracing sowie echter Motionblur und Tiefenschärfeeffekte können umgesetzt werden. Diese speziellen Volumenprimitive erzeugen qualitativ hochwertige Deep Shadow Maps. Irradiance-Berechnungen können in Point Clouds überführt werden. Dies kann für Multi-Scattering-Annäherungen genommen werden, um volumetrische Bildberechnungen unter Global-Illumination-Bedingungen umzusetzen. Damit erhält man wirklich fortschrittliche Techniken für die fotorealistische Bildberechnung. Dennoch sollte abgewogen werden, wann man eher mit dem herkömmlichen Special Purpose Volume Rendering produziert und wann man wirklich aus den neuen Funktionen Nutzen zieht. Erhöhter Speicherbedarf und auch Rechenaufwand können folgen, wenn es unbedacht eingesetzt wird. Bei den Fluids gilt letztlich das Gleiche. Alte Szenen öffnen und auf einen Renderknopf drücken funktioniert leider nicht. Auf Anhieb sollte mal also kein Geschwindigkeitswunder erwarten. Beachtet man jedoch gewisse Richtlinien beim Einsatz des Volume Renderings, kann man Effekte erreichen, die so vorher nicht möglich waren.

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

REVIEW | RENDERMAN 3

Das RenderMan-Control-Fenster Neu im Interface eingebaut ist das Control Window. Hier findet der Anwender eine Zusammenstellung der Renderfunktionen innerhalb eines Fensters. Die RenderMan Globals sowie der Job Tree und Pass-Einstellungen sind integriert. Die folgende Ausgabe der Passes kann hier ebenfalls auf globaler Basis oder pro Render-Layer angegeben werden. Letztlich hat man eine schnellere Übersicht der AOVs und die Handhabung ist effizienter. Dynamik-Rib-Archive können in Maya an Objekte angehangen werden. Dies passiert im Attribute Editor unter den RenderManFunktionen. Diese Methode kennt man auch von 3Delight, welches ein Renderer auf der RenderMan-Language ist. Man kann etwa einen detaillierten Baum mit Windkräften animieren und diesen als RIB abspeichern. Mit einem Dynamik-Rib-Archive kann ein Primitive, wie beispielsweise ein Quader, das RIB entlang der Animationssequenz auslesen und rendern. Von anderen Renderern kennt man das als Proxyrendering-Verfahren. RIB-Archive von RenderMan sind aber flexibler, weil

Arbeitsphasen Evolution einer Toy-Story-3-Szene: vom Storyboard, über Farbgestaltungsvorschläge bis hin zu dem fertigen Rendering für den finalen Shot

Slim-basierten Workflow umzustellen. Die ist vor allem bei größeren Produktionen mit der entsprechenden Aufteilung in der Pipeline sinnvoll. Der Einzelanwender wird meist aus den gegebenen Maya-Shadern heraus arbeiten oder auch fertige RenderMan-Shader aus der Library benutzen. Ein Objekt in Maya kann nun auch direkt Slim Rib Boxes zugewiesen bekommen und funktioniert ohne den Gebrauch von Slim Ensembles. Eine Node kann dabei mehrere Slim Rib Boxes zugewiesen bekommen. Psets ist eine neue Methode, um wichtige Parameter eines Shading-Networks zusammenzufassen. Das resultiert in einem übersichtlicheren Fenster mit dem wichtigen Shader-Parameter.

Blobby Particles als Volumes man keine Limits hat. Hier kann von Lichtern bis Partikel, Geometrien und so weiter alles enthalten sein, was man auch als Rib abspeichern kann.

Slim Features Baut man RenderMan Shader über Slim auf, kann man auch Texturen über das neue PtexVerfahren in einen RenderMan Shader einbinden. RenderMan Server 15 unterstützt das Ptex-Format mittels des ptexture() shadeop. Das Ptex-Format macht die herkömmliche UV-Abwicklung von Polygonen überflüssig. Es passiert ein Per-Face Texture Mapping. Jedes Face-Element hat seinen genau definierten Texturraum. Man kann also in Slim Shader entwickeln und die Texturen mittel PTex-Format verbinden. Es wird möglich, sich bei der Shaderentwicklung aus Maya heraus komplett auf einen

Der Anwender kann Volume Controls für Partikel über die Particle Shape Node im Attribute Editor von Maya hinzufügen. Die Partikel werden dadurch als Volumenobjekte behandelt. Dieser Modus erfordert RenderMan Shader. Hier kann kein normales Maya-Material verwendet werden.

Fazit RenderMan bleibt nach wie vor an der Spitze seiner Produktgattung. Mit der zeitgemäßen Einführung des Relighting-Systems – welches es wirklich in sich hat – und den PerformanceVerbesserungen bei GI und Light-ScatterTechniken werden neue Standards gesetzt. Die Verbesserung am User-Interface durch das neue Control-Fenster ist im Umgang mit Maya und RenderMan positiv zu bewerten. Die Möglichkeit Fluids rendern zu lassen, ist genial. Einstellungen und Shader müssen jedoch darauf abgestimmt werden. Im Übrigen

können auch Ptex-basierte Workflows umgesetzt werden. Der Ptex-Workflow macht den Einsatz von UV-Maps überflüssig. Das ist für die Produktion natürlich ein entscheidender Faktor und es wird in Zukunft mehr Programme geben, die das Ptex-Format unter❯ jb stützen werden.

RenderMan Hersteller: Pixar Internet: https://renderman.pixar.com Preise: RenderMan Studio mit integriertem Renderer 3.500 US-Dollar; RenderMan Pro Server 2.000 US-Dollar (Lizenz pro Maschine unabhängig von Kernzahl des Prozessors); Tractor 99 US-Dollar pro RenderAuftrag. (Möchte man also zwei Aufträge parallel über das Netzwerk rendern lassen, braucht man entsprechend zwei Lizenzen) Systemvoraussetzungen: Win XP, Vista, 7 (32 und 64 Bit); Linux: 32 und 64 Bit; Mac OS X: erstmals für das aktuelle OS X auf 64 Bit lauffähig

⊕ Schnelles Relighting-System in finaler Render-Qualität ⊕ Besser organisiertes UI durch das Control-Fenster. Render Layer einfacher organisiert ⊕ Beschleunigtes RayTracing und GI durch ausgeklügelte PointCloud GI Maps ⊕ Fluid-Simulationen und Fluid-Shader werden unterstützt ⊕ Verbesserte Slim-Integration ⊝ Längere Einarbeitungszeit ⊝ Preisniveau bleibt trotz Preissenkung hoch ⊝ Wünschenswert wäre die komplette Integration mit allen Parametern von Paint Effects

61


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Bilder: NewTek/Lightwave

Lange ist es her, dass es ein Update von Lightwave 3D gab. Das 3D-Programm zählt zu den ältesten auf dem Markt und war bereits auf dem Amiga vorhanden. Was war geschehen und ist es NewTek mit dem neuen Release gelungen, Anschluss an die anderen Programme zu bekommen? Wie sieht die Zukunft in einer immer komplexer werdenden 3D-Branche aus? von Martin Dürr

Lightwave 10 – ein Klassiker kehrt zurück E

inem breiten Publikum bekannt geworden ist Lightwave durch „Seaquest DSV“ von Amblin Entertainment in den frühen 90ern. Über Jahrzehnte hinweg erfuhr Lightwave eine kontinuierliche Entwicklung und konnte sich auch gegenüber den übermächtigen Konkurrenten 3ds Max oder Maya behaupten. Beispiele für die Qualität waren diverse Einsätze in populären TV-Serien wie CSI, BSG (Battle Star Galactica) sowie „24“ –

um nur einige zu nennen. Auch einige Grammys konnten mit Hilfe von Lightwave erobert werden. Mit der letzten großen Lightwave-Version 9.6 war es dann mit einem Mal relativ ruhig geworden um das wegen seiner Flexibilität geschätzte Programm. Erst die Ernennung von Rob Powers zum stellvertretenden Entwicklungschef hat der ganzen Sache einen neuen Schub gegeben. Rob Powers gehört Hypervoxel Die große Neuerung, die Lightwave 10 mitbringt – und die CORE auszeichnen wird – ist der Viewport Renderer (VPR). Hier werden unter anderem Hypervoxel und Volumenlichter in der Scene bestimmt und angepasst

zu den „Malibu Five“, jener ersten Gruppe, die von James Cameron für „Avatar“ engagiert wurde. Rob Powers leitete das Visual Art Department, welches die Previsualisierungen für den Film realisierte. Diese Visualisierungen wurden allesamt mit Lightwave erstellt und erforderten eine Anpassung an die vorgegebene Arbeitsweise von Cameron. Features wie die Anbindung an die VCam und die Stereo 3D Features im neuen Lightwave 10 stammen aus dieser Zusammenarbeit. In der gleichen Art und Weise erstellte Rob Powers auch die Previsualisierungen für Steven Spielbergs „Tintin“. Rob Powers hat es geschafft, aus Lightwave ein effizientes 3D-Tool zu generieren, das sich nahtlos in bestehende Pipelines eingliedert und somit kein Nischendasein mehr führen muss.

Lightwave 10 oder CORE? Vielfach herrscht noch Unklarheit darüber, was nun eigentlich die Version Lightwave 10

62

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

ist und wie es weitergeht. Die letzte Version vor Lightwave 10 war die Version 9.6. In einer Übergangsphase, in der Anwender ein sogenanntes HardCORE Membership (Maintenance und Support) erwerben konnten, bekam der Anwender tatsächlich drei Versionen geliefert. Die Version 9.6, die in Beta befindliche Version 10 sowie die ebenfalls im Aufbau begriffene zukünftige Lightwave-Version CORE. Mittlerweile erhalten die CORE-Member „nur“ noch die Version 10 sowie Updates auf die CORE-Betas (NichtCORE-Mitglieder müssen weiterhin die regulären Updates erwerben). Mit der Lightwave-CORE-Version ist jedoch frühestens gegen Mitte/Ende 2011 zu rechnen – bis dahin müssen die neuen Features der Version 10 dafür sorgen, dass dem Nutzer nicht langweilig wird.

VPR, VCam und Stereo Rig Die auffälligste Neuerung in Lightwave 10 ist wohl der VPR. VPR steht für Viewport Preview Renderer und erlaubt das Echtzeitrendern der Szene im aktuellen Viewport. Der VPR bedient sich hierzu der GPU und der CPU ohne jedoch auf bestimmte Features der Grafikkarte angewiesen zu sein, wie dies bei anderen Herstellern der Fall ist. Das ermöglicht die Nutzung von Lightwave 10 auf nahezu jedem PC oder Mac-System. Lightwave 10 ist sowohl als 32- und 64-bitVersion für den PC sowie als 32 und 64bit native Mac-Versionen verfügbar. Ebenso wurde Lightwave 10 komplett in C++ umgeschrieben. Der VPR rendert neben den neueren Shader-Typen (Conductor, Carpaint, Dielectric, Sigma und Delta) selbstverständlich auch prozedurale Texturen, Hypervoxels und sogar volumetrische Lichter. Ebenso werden alle Render-Modi bis hin zur Global Illumination unterstützt. Besonders das interaktive Beleuchten einer Szene beschleunigt den Workflow in einem bis dato nicht bekanntem Maße. Dass der User mit komplexen Szenarien auch solche Preview Renderer in die Knie zwingen kann, ist hinlänglich bekannt. Der VPR bietet hier Einstellmöglichkeiten, um auf die Vorteile der gerenderten Vorschau auch bei „Heavy Scenes“ nicht verzichten zu müssen. Neben der einfachsten Möglichkeit das Viewport-Fenster zu verkleinern bietet der VPR über ein separates Einstellmenu drei Modi, welche die Darstellung beschleunigen. In der Basis-Einstellung ist der Draft Mode, eine vereinfachte Darstellung der Szene, aktiviert, kann bei Bedarf jedoch deaktiviert werden, um Details sichtbar zu machen. Ist der Szenenaufbau immer noch zu langsam kann man „Half Resolution“ aktivieren, ein Feature, welches die aktuelle Viewport-

TEST | LIGHTWAVE 10

auflösung halbiert, ohne jedoch den Viewport zu verkleinern. Ebenso ist es möglich, das Rendern von volumetrischen Schatten zu unterbinden. Die Einstellung „Frames per Second“ teilt dem VPR mit wie oft er die Szene pro Sekunde neu berechnen soll. Als Besonderheit erlaubt der VPR ein OpenGL Overlay, das sowohl Gitternetze wie auch Bones zusammen mit der gerenderten Szene darstellt. VPR Screens können selbstverständlich abgespeichert werden, ohne dass sie separat gerendert werden müssten.

Vorneweg Visualisieren Wie hat es NewTek aber nun geschafft, Lightwave geradezu als Paradepferd für die Previsualisierung im Hinblick auf Interaktivität und Pipelinekompatibilität einzusetzen? Die Version 10 bietet hier ein Merkmal, das sowohl für den kleinen Geldbeutel wie auch die große Produktion mit entsprechendem Budget nutzbar ist. Das interaktive Bewegen der Kamera ist nun mit Hilfe der 3D Space Mouse möglich. Vielfältige Einstellmöglichkeiten in den Voreinstellungen erlauben eine exakte Anpassung an die Erfordernisse des Anwenders. Ist das Budget nicht begrenzt, wie bei Avatar geschehen, kann eine VCam der Fir-

ma InterSense direkt an Lightwave angedockt werden. Dies erlaubt nun dem Anwender, insbesondere aber dem Regisseur, die totale Kontrolle über die Kamera und deren Bewegung im virtuellen Raum. Dieses System fand intensive Nutzung durch James Cameron bei Avatar.

Stereoskopisches 3D Ebenfalls ein neues Feature, das durch die Previsualisierung für Avatar entstand, ist das 3D Stereo Rig, welches nach demselben Prinzip wie die von Cameron entwickelten Kameras arbeitet. Es bietet neben der klassischen „Eye Separation“ auch einen animierbaren „Convergence Point“, also den Punkt, an dem die Augen normalerweise die „Szene“ fokussieren. Hiermit lassen sich die gewünschten 3D-Effekte verstärken oder abschwächen. Mit Hilfe dieser neuen Features lassen sich sowohl parallele (offset) als auch konvergente stereoskopische Rigs bauen. Neben der Möglichkeit, die Stereoeffekte in Echtzeit als anaglyphe stereoskopische Vorschau zu betrachten, kann man diese auch als solche herausrendern. Benötigt der Anwender zwei separate Bilddateien für die stereoskopische Projektion, ist auch dies möglich.

Rigging Das Skelett des „Piranha Alien“ wird in einer Voransicht geriggt, die sich vom Interface kaum von anderen unterscheidet und somit die Arbeitsgeschwindigkeit heraufsetzt

Creatures Lightwave beherrscht fast alles

Animation Ein Paket statt dutzender Spezialisten

63


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

Linearer Workflow Dank VPR können fast alle Schritte in einer Instanz gleichzeitig zusammenlaufen – auch die Preview des Rendering

Stereo 3D Wer den 3D-Hype bedienen will, kann das mit der neuen Version auch aus Lightwave heraus

Linearer Workflow Ein weiteres Highlight in Version 10, das sich den VPR ebenfalls zunutze macht, ist der lineare Workflow. Jeder kennt das Problem: Oftmals ist der Anwender versucht, eine Szene auszuleuchten und justiert die Lichtquellen in der Helligkeit bis es so aussieht, wie der User es haben möchte, ungeachtet der Tatsache, dass man sich von einem wirklich realistischen „Szenario“ weit entfernt hat. Das böse Erwachen folgt dann meist, wenn das gerenderte Bild in einem anderen Kontext, sprich Farbraum, betrachtet wird. Urplötzlich

Zum Anfassen Die Steuerung des Rigging ist auch in der Voransicht des Rendering sichtbar

64

sind die Lichter, die eben noch stimmig waren, überbelichtet und die Schattenpartien zu dunkel. Mit Lightwaves neuem Linear Color Workflow kann diese Hürde elegant und sehr einfach umschifft werden. Explizit wird festgelegt, aus welchem Farbraum die Bilder kommen und „wohin“ sie transformiert werden sollen. Die Folgen sind ein besserer und größerer „Dynamic Range“ der Bilder sowie mehr Detail in Bereichen wie Schatten und Highlights. Verschiedenste voreingestellte Farbraumvarianten stehen zur Verfügung (Linear, sRGB, Cineon, etc.). Muss der Output auf einen speziellen Farbraum abgestellt werden, der nicht voreingestellt ist, besteht die Möglichkeit andere „Tables“ zu laden. Lightwaves Linear Workflow Tools nehmen Rücksicht auf den jeweiligen Ursprung der Farbinformation, seien es die Lichtquellen, die zu importierenden Bilder, die Farbpaletten oder auch FloatingDateien. Selbstverständlich ist es möglich, die Dateien, in der Regel Bilder, schon beim Laden einer „automatischen“ Kontrolle zu unterziehen. Eine selbstständige Farbkorrektur des OpenGL Display rundet das Feature ab.

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Manchmal gibt es jedoch die unheilvolle Aufgabe, Animationen und Objekte an Kollegen oder andere Studios zur Bearbeitung weiterzugeben. Dies bereitete dem Anwender in der Vergangenheit zusätzliche Kopfschmerzen, wenn die andere Pipeline nicht mit Lightwave bestückt war. Bislang blieb hier nur die Möglichkeit per FBX zu exportieren, wobei es galt immer einige Unzulänglichkeiten in Kauf nehmen zu müssen. Mit der Version 10 hat sich das radikal geändert. Neben den bekannten ExportFiltern wie FBX und MDD verfügt Lightwave nun über einen verbesserten MDD Support, einem COLLADA Exporter sowie die Möglichkeit, Animationen in Autodesks Geo-Cache-Format abzulegen – die dazugehörigen Objekte werden selbstverständlich auch gespeichert. Die Objekte können als OBJ und zusätzlich als Lightwave-Subpatch-Objekt abgespeichert werden (Rücksicht genommen werden kann auch auf den Subdivision-Level des zu exportierenden Objektes). Diese neue Eigenschaft ermöglicht erstmals die nahtlose Integration von Lightwave in Pipelines, die mit Autodesk-Produkten „bestückt“ sind. Es soll nicht unerwähnt bleiben, dass auch der FBXImport/Export verbessert wurde und nun auch komplexe Szenen gut gehandelt werden können. Natürlich gibt es noch mehr zu entdecken, wie ein neues Hilfe-System, ein neues Interface (ergonomischen Gesichtspunkten angepasst), eine erweiterte Unterstützung für die Festlegung eigener Interface-Farben sowie neue Channel Slider, die die Arbeitsgeschwindigkeit erhöhen.

Was kommt noch? Die Zeit wird zeigen, ob Newtek der Anschluss an die „Großen“ geglückt ist. Lightwave 10 mag nicht den Funktionsumfang von Max oder Maya haben, mit der neuen Version ist NewTek aber der Spagat gelungen, nicht einfach zu kopieren, sondern die Eigenständigkeit von Lightwave zu unterstreichen und diese in bestehende Pipelines zu integrieren. Zudem weist die Version 10 Merkmale auf, die andere Programme nicht integriert haben. Mit der Verpflichtung von Rob Powers hat NewTek die Chance gewahrt, ein solides Produkt „zukunftstauglich“ zu machen. Die Beta-Version von Lightwave CORE, dem legitimen Nachfolger von Lightwave 10, verheißt viel Gutes. Wird mit derselben Ausdauer und Professionalität auch bei CORE gearbeitet sieht die Zukunft mehr als nur rosig aus. ❯ ei Martin Dürr arbeitet seit 1989 im Bereich CGI, seit 1994 auf Lightwave 3D. Als Freelancer hat er insbesondere im Bereich Modeling und Texturing für viele namhafte Firmen im In- und Ausland gearbeitet. www.cybersign.de, www.modelsfrommars.com

WWW.DIGITALPRODUCTION.COM


www.macup.com/testen


FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Bild: Lumion3D

AKTUELL

Visualisierung in 5 Minuten Mit Lumion3D haben die Entwickler der Echtzeitvisualisierungsumgebung Quest3D ein schnelles und intuitives Werkzeug zur Architekturvisualisierung releast. Lange Zeit unter dem Codenamen Silex geführt, ist das Programm unter dem Namen Lumion3D seit November vergangenen Jahres erhältlich. Die DP hat sich zwischen den Jahren Zeit genomvon Rüdiger Mach men, Lumion3D einmal genau unter die Lupe zu nehmen.

W

er mit Echtzeitvisualisierungswerkzeugen zu tun hat weiß, dass die Aufbereitung von 3D-Content für Realtime-Anwendungen alles andere als trivial ist. Texturoptimierung, Power of 2, Geometriereduzierung und vieles mehr machen aus Echtzeitvisualisierungen noch immer eine Arbeit für Spezialisten. Werkzeuge wie Quest3D oder Unity3D sind nicht auf die Schnelle zu erlernen – hier ist eine längerfristige Einarbeitung vonnöten, will man zu überzeugenden Ergebnissen kommen. Werkzeuge für reine Visualisierungszwecke gibt es viele und Animationen können aus nahezu allen CAD-Werkzeugen gerendert werden. Was also ist bei Lumion3D anders?

Eins, zwei, drei – fertig Glaubt man den Aussagen und Beispielen auf der Website von Lumion3D scheint dies

66

dem Tempo zu entsprechen, mit dem das Programm die Erstellung von Animationen ermöglicht. Nach Jahren der Ankündigung haben die Macher der Echtzeitvisualisierungsumgebung Quest3D ein schnelles und intuitives Werkzeug zur Architekturvisualisierung releast. Lange Zeit unter dem Codenamen Silex geführt, ist das Programm unter dem Namen Lumion3D seit November 2010 erhältlich. Lumion3D ist ein Echtzeit-Visualisierungswerkzeug, das dem Normalanwender schnell zu erstellende und überzeugende Visualisierungen ermöglichen soll. Zielgruppe sind Architekten, Planer und alle, die aus ihren 3DDaten schnell und effizient Standbilder, Filme oder Präsentationen gestalten wollen. Die Grafikengine ist mit der von Quest3D identisch, jedoch elegant verpackt und nutzerfreundlich aufbereitet. Der Fokus liegt im Gegensatz zum großen Bruder Quest3D nicht

im Bereich der spieleorientierten Echtzeitanwendung, sondern auf der schnellen und einfachen Bedienung, dem Erstellen von Filmen und Stills und der Option zur interaktiven Präsentation.

Ausstattung Überzeugende Visualisierungen stehen und fallen mit der Qualität der Modelle, der verwendeten Texturen, Beleuchtung und Szenen-Equipments wie Pflanzen, Personen oder Fahrzeugen. Hier haben die Macher von Lumion3D angesetzt. Nach dem Motto „Weniger ist mehr“ wurde das Programm hinsichtlich zu vieler Optionen stark eingeschränkt. So besteht weder die Möglichkeit, eigene Rendereinstellungen wie GI oder Final Gathering zu definieren, noch wird der ungeübte Anwender mit überfrachteter Fachsyntax „erschlagen“. Dafür wurde eine Palette von

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

vordefinierten Optionen, Werkzeugen und Objekten erstellt, die dem ungeübten Nutzer mühselige Extraarbeit abnehmen. Die Fragen nach den „richtigen“ Pfl anzen, Charakteren oder „Woher bekomme ich ein ansprechendes 3D-Modell eines Autos?“ können getrost vernachlässigt werden; die Inhalte sind umfangreich. Der Anwender kann sich auf seine Daten konzentrieren und alles andere stellt die Software zur Verfügung. Zur Ausstattung gehören: i Animierte Atmosphäreneffekte mit Himmel und Wolkenrendering i Sonnenlichtsystem mit Tageszeitanpassung i Landschaften von flach bis bergig mit eigenem Editor i Animierte Wasseroberflächen i Vordefinierte Materialbibliotheken i Charaktere, 2D und 3D (zum Teil animiert) i Tiere in 3D i Szenenmobiliar wie Schilder, Verkehrsobjekte i Fahrzeuge und vieles mehr

Benutzeroberfl äche Lumion3D mit eingebetteten Charakteren, Gebäuden und Vegetation von Speedtree

TEST | LUMION 3D

Lumion3D Umfangreiche Vorauswahl von Szenentemplates

Hilfebutton zeigt die Menübefehle, eine ausführliche Hilfe-Dokumentation gibt es jedoch nicht.

Materialien Ein eigener Materialeditor mit einer Vielzahl an Möglichkeiten stellt alles zur Verfügung, was der Anwender benötigt. Hier lassen sich Texturen zuweisen, UVW-Koordinaten manipulieren und sämtliche Parameter wie BumpMaps oder Reflexionsverhalten editieren. Die Änderung von Materialien geht allerdings nur bei importierten Objekten. Lumion3D-eigene Assets sind vom Materialeditor ausgeschlossen. Lumion3D sieht den Import und die Unterstützung von Lightmaps vor.

Datenformate Die zum Test verwendete Demoversion ist bezüglich der 3D-Inhalte stark reduziert, aber die Qualität der beigefügten Modelle ermöglicht einen ersten Eindruck. Es gibt drei Bereiche oder „Modes“, in denen Inhalte eingebettet, modifiziert und ausgegeben werden. Dies sind der Build Mode (der eigentliche Editor), der Photo Mode (Ausgabeumgebung für Stills) und der Movie Mode (Ausgabeumgebung für Filme mit Video-Editor).

Lumion3D ermöglicht den Import gängiger 3D-Formate wie DAE, FBX, MAX, 3DS, OBJ, DXF. 3ds-Max-Dateien lassen sich nur öffnen, wenn eine Version des Programms auf dem Rechner installiert ist. Auch dauert der

Ladevorgang zu lange, so dass DAE oder FBX der Vorzug einzuräumen ist. Bei Bildformaten werden TGA, DDS, PSD, JPG, BMP, HDR und PNG unterstützt. Sind Animationsinformationen in die 3DDaten eingebettet, werden diese von Lumion3D übernommen. Die mitgelieferten Assets sind so zum Teil mit entsprechenden Animationsinformationen aufgewertet. Beispiele sind fliegende Vögel oder sich bewegende Charaktere. Die Assets liegen alle im CGR-Format vor. Anwendern von Quest3D sollte dieses Format bekannt sein, ist es doch das Questeigene Datenformat.

Ausgabe Lumion3D stellt folgende Ausgabeoptionen zur Verfügung: Stills in verschiedenen Auflösungen mit den Voreinstellungen E-Mail, Desktop, Print und Poster. Die maximale Ausgabeauflösung ist 7680 × 4320. Als Ausgabeformat wird BMP verwendet. Lumion3D macht dem Anwender das Leben mittels eigenem Video-Editor ebenso

Navigation und Menü Die Navigation ist einfach und benutzerfreundlich. Ähnlich wie in einer Spielumgebung wird die Maus für die Ausrichtung genutzt, die Bewegung selbst wird mittels der Pfeiltasten gesteuert. Ein Standard-Joystick wird ebenso wie ein „Tablet-Mode“ unterstützt. Die in der Szene verwendete Kamera ermöglicht eine breite Palette an Einstellungen und kann im integrierten Video-Editor animiert werden. Die Menüführung ist einfach und intuitiv. Nahezu alle Funktionen erschließen sich aus der ansprechend gestalteten Oberfläche. Der

Movie Mode Die Oberfläche des Lumion3D-eigenen Video-Editors

67


AKTUELL

FOKUS

EDITING

ANIMATION

Lumion3D Hersteller Internet: Preis:

Act3D, ct-3D B.V. www.lumion3d.com rund 890 Euro

Systemanforderungen: Betriebssysteme: Windows XP, Vista, Windows 7

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Schnitteditor ermöglicht eine Vielzahl von Videoeffekten wie Saturation, Fade-Mode, Motion Blur, um nur einige zu nennen. Die maximale Auflösung entspricht Full HD (1080p) und somit 1920 x 1080 Pixeln. Erzeugt werden MP4-Filme. Wer nicht nur Stills oder Filme braucht, kann mittels Theater Mode eine Echtzeitwiedergabe ermöglichen und seine Szene on the fly präsentieren.

Fazit Grafikkarten:

Nvidia GeForce 8800 oder ähnliche ATI/AMD-Karte, Nvidia 260GTX / ATI 5850 oder schneller

Plus/Minus ⊕ Schnelle Visualisierung vorhandener 3D-Modelle ⊕ Einfache und selbsterklärende Oberfläche ⊕ Intuitive Bedienung ⊕ Sehr viele Online-Tutorials ⊕ Viele Assets und vordefinierte Szenentemplates ⊕ Einfache Ausgabe von Stills (max. 7680 × 4320 Pixel) und Filmen bis Full HD (1080p) ⊕ Theater Mode für Echtzeitpräsentation ⊕ Preis ⊝ Szenengröße eingeschränkt: 2048 x 2048 Meter mit maximaler Texturgröße von 1024 x 1024 Pixel ⊝ Importierte Objekte müssen in der Einheit Meter vorliegen und können nicht nachträglich skaliert werden ⊝ Keine Weitergabe von Echtzeitdaten mittels eigenem Viewer oder Exe möglich ⊝ Filme können nur als MP4 exportiert werden ⊝ Keine Dokumentation ⊝ Plattform ausschließlich Windows ⊝ Derzeit nur in Englisch verfügbar

leicht wie bei der Erstellung von Stills. Wählt der Anwender einzelne Kamerapositionen werden die dazwischenliegenden Bilder automatisch interpoliert und somit auf einfachste Art und Weise ein Kamerapfad erstellt. Der Anwender kann problemlos Filmsequenzen in einer Mischung aus Standbildern und Kamerapfaden erstellen. Externes Filmmaterial lässt sich verwenden. Der integrierte

Lumion3D ist ein Werkzeug, welches nicht nur Architektur-3D-Inhalte schnell, effizient und äußerst einfach sehr ansprechend visualisiert; vorausgesetzt die Modelle sind „sauber“ modelliert und mit klaren Materialinformationen versehen. Die mitgelieferten Assets ermöglichen eine fixe und überzeugende Anreicherung jeder 3D-Szene. Die Speedtree-Vegetation ist animiert, LOD-optimiert und liefert höchste Pflanzenqualität. Eine schnelle Ausgabe von Einzelbildern gehört ebenso zum Repertoire wie HD-Rendering. Die vordefinierten Atmosphäreneinstellungen und Beleuchtungsmodelle liefern beeindruckende Ergebnisse. Der Theater Mode ermöglicht die interaktive Begehung der Szenen und Diskussionen mit Auftraggebern, die ihre Perspektiven gerne selbst wählen. Wem die Einarbeitung in eine Software wie Max, Cinema, Maya und so weiter zu mühselig ist, wer mit CAD Modelle erstellt und eher Sketchup nutzt, wer sich nicht mit mühseliger Ausleuchtung von Szenen auseinandersetzen möchte und auch keine Lust hat zu verstehen, was HDRI oder GI bedeutet, der wird in Lumion3D ein faszinierendes und leicht zu bedienendes Werkzeug finden. Aber aufgepasst: Wer noch nie etwas von UVW-Mapping gehört hat, wem die Grundlagen sauberer Modellierung nicht vertraut sind und wer noch nie mit Materialien gearbeitet hat, der wird auch in Lumion3D kein Werkzeug finden, das ihm die Arbeit abnimmt. Für Anwender, die mit 3ds Max, Cinema 4D, Maya oder anderen vertraut sind stellt sich eher die Frage, ob Lumion3D tatsächlich das Werkzeug der Wahl ist. Spezialisten im Echtzeitumfeld, die mit Quest3D, Unity3D oder ähnlichen Tools arbeiten, wird Lumion3D vielleicht zu viele Einschränkungen auferlegen. Vielleicht wäre auch eine Unterstützung nativer CAD-Formate wie DWG oder DGN

Landschaften Die Bilder zeigen die Änderungen der Einstellungen von Atmosphäre, Wolken, Beleuchtung

68

Material Editor Der integrierte Material Editor ermöglicht die Modifi zierung gängiger Materialparameter

Photo Mode Die Ausgabeumgebung für Stills mit den Voreinstellungen E-Mail, Desktop, Print und Poster

wünschenswert, da doch gerade diese Zielgruppe im Fokus liegt. Auch wäre dem Planer oder Architekten sicherlich geholfen, bestünde die Möglichkeit vordefinierte Kamerapositionen aus seiner ursprünglichen Software zu importieren. So bleibt die Wiedergabe der in der Planung verwendeten Ansichten in Lumion3D ein aufwendiges Verfahren. Bestünde nun auch noch die Möglichkeit eigene Kamerapositionen im Editor festzulegen, wäre dies ein ebenso großer Gewinn wie die Option, die 3D-Daten als interaktive Echtzeitvisualisierung in Form einer Executable oder eines Viewers weiterzugeben Aber nichtsdestotrotz ist Lumion3D ziemlich nahe dran, ein „Render-geiles-Bild-But❯ sha ton“ zu sein. Rüdiger Mach ist Inhaber des Ingenieurbüros Mach:Idee in Karlsruhe und seit Jahrzehnten im Bereich der 2D-und 3D-Computergrafik tätig. Spezialisiert in den Bereichen technischwissenschaftlicher Visualisierung und Ausstellungskonzeptionen unterrichtet er in Deutschland und der Schweiz, publiziert in Fachmagazinen und hat einige Fachbücher zum Thema 3D geschrieben (www.machidee.de).

WWW.DIGITALPRODUCTION.COM


Verschenken Sie 100% Postproduktion als Abo! Gute G

ründe

für die Film & DP VFX • Digita Indust lA ri 3D/An e• Science & rt imatio n • Int Education eractiv e

Courtesy of o Apple

ard oder i Sichern Sie sich gratis eine iTunes Music Card eine iTunes Apps Card im Wert von EUR 15,00 oder EUR 25,00 als Dankeschön!

JETZT ABO VERSCHENKEN!

Ihre Service-Hotline T: +49 (0)61 23 92 38-2 13

F: +49 (0)61 23 92 38-2 14 E: order@digitalproduction.com

www.digitalproduction.com/geschenkabo


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

POWERED BY

mental ray goes C4D Nachdem bereits diverse Renderer wie Pixars RenderMan, Fryrender, Maxwell oder Vray für C4D über Plug-ins integriert werden können, reiht sich nun auch mental ray in diese Riege ein. Die entsprechende Anbindung ist aktuell noch in der Betaphase, aber auch schon als eingeschränkte Demoversion erhältlich. Wir werfen dennoch einen ersten Blick von Arndt von Koenigsmarck darauf und erkunden, was dieser Renderer zukünftig zu bieten hat.

N

ach der Installation, die nur aus dem Entpacken des m4d genannten Renderers im Plug-ins-Verzeichnis von C4D besteht, ergänzen sich im Programm zusätzliche Funktionen und Optionen. Wer VrayforC4D bereits kennt, stellt unweigerlich die entsprechenden Parallelen fest. So erscheinen in den Rendervoreinstellungen zusätzliche Optionen, die wahlweise mental ray oder iray für die Bildberechnung nutzen. Es werden also gleich zwei neue Renderoptionen ergänzt. Iray ist ein spezieller Renderer, der physikalisch korrekte Berechnungsmethoden nutzt und dabei auch auf Grafikkarten mit CUDA-Erweiterung zurückgreifen kann, um die Berechnungszeiten so gering wie möglich zu halten. Mehr dazu später. Neben den beiden Renderern tummeln sich neue Einträge auch im Materialsystem von C4D: Das sogenannte MIA- und das Meta-

70

SL-Material. Das MIA-Material ist das Mentalray-Pendant zum C4D-Material und ist in separate Kanäle, zum Beispiel für Spiegelung, Transparenz, Luminanz oder Bump, gegliedert. Die Kanäle selbst enthalten Farb- und Textur-Einstellungen und erlauben auch die Nutzung von C4D-Shadern. Wer sich im Material- und Shadersystem von C4D auskennt, wird viele alte Bekannte wiedererkennen. Einzig die Einstell-Orte und Parameternamen weichen von den bekannten Materialien ab. Neben den Kanälen kommen unter anderem Anisotropy und Translucency hinzu. Ambient Occlusion ist als Kanal zwar ebenfalls nicht im Standard von C4D enthalten, kann dort jedoch mit Hilfe des gleichnamigen Shaders im Diffusion-Kanal simuliert werden. Weitere Ergänzungen sind im TagSystem zu beobachten. Hier sind spezielle Tags für Lichtquellen und Kameras hinzuge-

kommen, über die beispielsweise physikalisch korrekte Licht- und Linsensimulationen aktiviert werden können. So werden bereits die Candela/LumenEinstellungen aus C4D mit übernommen, IESUnterstützung ist noch in Arbeit. Ansonsten lassen sich neue Befehle über das Plug-insMenü aufrufen. So können darüber bestehende C4D-Materialien zu MIA-Materialien konvertiert werden, was die Anpassung bereits existierender Szenen an den neuen Renderer erleichtern dürfte. Mental ray ist ebenfalls in der Lage, die normalen C4D-Materialien zu nutzen. Eine Konvertierung der Materialien ist nur nötig, wenn auf die speziellen Mentalray-Materialeigenschaften zurückgegriffen oder wenn mit Hilfe des Iray-Renderers berechnet werden soll. Im gleichen Menü finden Sie zudem eine Hilfe-Funktion und den Aufruf des Iray-Vorschaufensters, in dem eine lau-

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

WORKSHOP | MENTAL RAY IN CINEMA 4D

„Game trailer by Blur Studio, X-Men Origins: Wolverine, © Activision 2009“

Der Autor ist C4D-Betatester und veröffentlicht seit Jahren internationale Fachbücher zu Cinema 4D. Er ist seit 2001 Gesellschafter der Vreel 3D Entertainment oHG und hält Schulungen zu C4D.

fend aktualisierte Version des aktiven Editorfensters gerendert wird. Dies erinnert also an den interaktiven Renderbereich von C4D selbst, wobei das Iray-Rendering in einem separaten Fenster angezeigt wird. Zudem ergänzt sich dort das Vorschaubild in mehreren Durchgängen zu einer immer feineren Darstellung, ein typisches Charakteristikum des Iray-Renderers.

Die verschiedenen Rendermethoden Die Mental-ray-Implementation bietet mental ray und iray als Rendermethoden an. Wie bei derartigen Ergänzungen üblich, werden dabei weiterhin zu rendernde Bildgröße, Framebereich und Speicherort im normalen RenderDialog eingetragen. Mental ray selbst bietet Caustics, Global Illumination, Final Gatherig und Motion Blur als Berechnungsmethoden und Effekte an, wobei Final Gathering eine spezielle Methode der Global Illumination ist. Bei beiden Effekten geht es um die Simulation diffusen Lichts, also von dem Lichtanteil, der durch Reflexion und Färbung in die Szene ge-

streut wird. Im Ergebnis ergibt sich dadurch eine natürliche Lichtverteilung. Dabei bietet Final Gathering zwar gegenüber dem Photon Mapping der Global Illumination nur eine einzelne diffuse Lichtreflexion pro schattiertem Pixel an, dafür jedoch sorgen zahlreiche unterstützende Hilfsstrahlen für eine natürliche Lichtsimulation gerade bei hauptsächlich diffus beleuchteten Szenen. Da hierbei die Berechnungszeit gegenüber einer reinen Photon Map nur einen Bruchteil beträgt, hat sich diese Methode gerade bei Filmproduktionen bewährt, wo es nicht nur um die Bildqualität, sondern auch um performante Berechnungen geht. Dabei bietet Final Gathering verschiedene Modi an, um beispielsweise beim Nachrendern älterer Szenen aus mental ray 3.4 noch gleiche Ergebnisse zu erzielen. Der aktuelle Modus soll jedoch verbessert worden sein, und so mit weniger Berechnungsstrahlen gleiche Ergebnisse in kürzerer Zeit erzielen. Aktuell nutzt die Demo von m4d die Implementation von mental ray 3.8. In der Beta und später auch in der finalen Version wird jedoch bereits die Version 3.9 eingesetzt werden. Aktuell in der Demoversion noch deaktiviert, sind in der Beta auch Framebuffer enthalten, die ähnlich C4Ds Multi-Pass-RenderingBildkomponenten wie RGBA, Tiefe, Normalen oder Motion-Vektoren auf separaten Ebenen zur Verfügung stellen. C4Ds eigene ObjektIDs zum Freistellen individueller Objekte werden unterstützt. Geht mental ray einen zu C4Ds eigenen Renderer vergleichbaren Weg, so verfolgt der zweite Renderer, iray, einen anderen Ansatz. Versuchen die genannten Renderer noch möglichst reale Ergebnisse durch Vereinfachungen, Interpolationen und andere „Tricks“ zu erzielen, setzt iray auf einen iterativen, physikalisch korrekten Berechnungsprozess, der sich mit fortschreitender Laufzeit immer weiter dem rechnerisch perfekten Ergebnis annähert. Sie können dabei durch Angabe

eines maximalen Samplinglevels die Berechnung am gewünschten Detailgrad stoppen lassen. Des Weiteren unterscheidet sich dieser Rechenmodus vom Mental-ray-Standard dadurch, dass nicht nur die CPU, sondern auch Grafikkarten mit einbezogen werden. Dafür muss die Hardware den CUDA-Befehlssatz unterstützen. In diesem Fall können mehrere Grafikkarten in einem Rechner herangezogen werden, um die Berechnung nahezu linear zu beschleunigen. Unterstützt werden dabei matte Spiegelungen, Refraktionen, bildbasierte Szenenbeleuchtungen mittels HDRI, Flächenlichter mit Soft Shadows, Tiefenschärfe-Effekte für die Kamera, sowie Beleuchtungseffekte, wie sie durch Ambient Occlusion und Final Gathering nur angenähert werden. Die Ausnutzung aktueller Grafikhardware zum Rendern setzt jedoch auch Grenzen. So werden ausschließlich Mental-Ray-Materialien und C4D-Materialien mit Bitmap-Texturen unterstützt. Die liebgewonnenen C4D-Shader können mit iray nicht länger genutzt werden. Auf der Haben-Seite bietet iray jedoch zusätzlich einen Vorschaurenderer an, der parallel geöffnet werden kann. In diesem separaten Fenster wird eine laufend aktualisierte Renderansicht dargestellt, was natürlich das Setzen von Lichtern oder die Arbeit an Materialien ernorm vereinfacht. Anders als bei der C4D-IRR-Funktion verfeinert sich hier das Ergebnis entsprechend der Iray-Philosophie im Laufe der Zeit immer weiter, sofern die Editoransicht oder die dort dargestellten Objekte nicht verändert werden. Mit aktuellen Hardwarekomponenten lassen sich dabei Frameraten erzielen, die sogar interaktives Arbeiten an diffus beleuchteten Szenen ermöglichen.

Das Materialsystem Wie bereits ausgeführt, sind die Unterschiede zwischen dem Mental-ray- und dem normalen C4D-Material äußerlich nicht gravierend.

Das Mental-ray-Material ist in seiner Struktur dem Cinema-4DMaterial sehr ähnlich. Zudem kann mental ray auch mit den Standardmaterialien von Cinema 4D umgehen und diese rendern

71


AKTUELL

FOKUS

EDITING

ANIMATION

Viele Parameter sind, wenn auch teilweise unter anderen Begriffen, bereits bekannt und in ihrer Funktion identisch. Unter der Haube unterscheiden sich die Systeme jedoch dahingehend, dass die Mental-ray-Variante mit sogenannten BRDF-Daten umgehen kann und auf die Ausgabe von physikalisch korrekten Materialeigenschaften optimiert ist. Dies betrifft vor allem die Berechnung der sogenannten Glossy-Effects, also von gestreuten Spiegelungen und Refraktionen. Diese ermöglichen die realistische Darstellung etwa gesandstrahlter Oberfl ächen. Derartige Effekte werden vor allem bei Metallen, Hölzern und Glas eingesetzt. Bislang in der Betaversion noch nicht integrierte Materialeigenschaften, wie für das Displacement,

COMPOSITING

COLOR

AUDIO

werden laut m4d-Hersteller at2 in der finalen Version integriert sein. Die Materialien sind generell auf die Berechnung globaler Illumination und die Ausgabe im HDR-Format optimiert. Es wird daher auch empfohlen, die Bilder einem tonalen Mapping zu unterziehen. Dies kann auch mit Hilfe der Einstellungen an der physikalischen Kamera erfolgen. Das bereits erwähnte Kamera-Tag erlaubt daher beispielsweise den Weißabgleich, die Angabe von Belichtungszeiten, simulierten Filmempfindlichkeiten oder die Gammakorrektur. Der zweite Materialtyp MetaSL dient nur als Interface für geladene Shader und sogenannte Phenomena-Datensätze. Diese können zahlreich aus entsprechenden Bibliotheken im Internet geladen werden oder mit

Mies van der Rohe Farnsworth House, Artist: Alessandro Prodan

Der integrierte Iray-Renderer bietet sich für Echtzeitrendering im Editor und Rendermethode für die Bildberechnung an

Das Rendering kann per iray auch komplexe Materialien realistisch abbilden, wie hier in Glass Art von Erik Anderson

Das separate „mental mill“ kann ohne Programmierung komplexe Shadersetups erstellen

72

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Hilfe der separat erhältlichen, nodebasierten Programmierumgebung mental mill, lauffähig unter Windows, Linux und Mac OS X, selbst erstellt werden. Besonders spannend daran ist, dass diese Dateien plattform- und programmunabhängig funktionieren. Entsprechende Einarbeitung vorausgesetzt, ermöglicht Ihnen dies, jegliche Oberflächenoder Materialeigenschaft selbst zu kreieren. Aufgrund des grafischen Interfaces, erlaubt dies dann auch Neueinsteigern ohne Programmierkenntnisse individuelle Materialien und Shader zu erstellen.

Die Tags Tags werden in C4D bekanntlich zur Ergänzung von Eigenschaften zu Objekten genutzt. So können darüber etwa Materialien zugewiesen oder deren Mapping beeinflusst werden. Dieser Teil der Materialhandhabung bleibt auch unter m4d unverändert, so dass sich hierbei der Umgang mit Materialien und deren Zuweisung nicht verändern. Bei Benutzung von iray ist jedoch zu beachten, dass dort ausschließlich UV-Mapping als Projektionsart unterstützt wird. Standardprojektionen wie sphärisch oder kubisch müssen also zuvor mit C4D-Bordmitteln in UV-Maps umgerechnet werden. Dies gelingt bereits ohne die Nutzung von Bodypaint 3D. Lichtquellen und Kameras müssen mit Mental-ray-Tags versehen werden, um voll erkannt zu werden. Sofern möglich werden dabei Farbe, Helligkeit und Lichtleistung der Cinema-Lichtquelle übernommen. Kameras erhalten durch das Tag zusätzliche physikalische Eigenschaften wie ISOund Verschlusszeit-Einstellungen. Zudem stehen Modi zur Verfügung, um etwa BokehEffekte und realistische Tiefenschärfe berechnen zu können.

Fazit Die aktuelle Beta läuft bei uns stabil, lässt jedoch Features vermissen. Der Entwickler at2 arbeitet jedoch an der finalen Version. Ein Releasetermin oder eine verbindliche Featureliste existiert noch nicht. Laut at2 möchte man sich dadurch nicht unnötig unter Druck setzen lassen, sondern ein solides Produkt abliefern, mit dem von Anfang an produktiv unter Windows und Mac OS X gearbeitet werden kann. Über den aktuellen Stand kann sich jeder selbst unter www.m4d.info informieren. Wer sich jetzt schon für mental ray für C4D entscheiden möchte, erhält für den Verkaufspreis von knapp 1.170,– Euro jeweils aktuelle Beta-Versionen und beim Erscheinen dann die entsprechende Vollversion. Eine eingeschränkte Demoversion steht auf der Web❯ ei seite zur Verfügung.

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

INTERVIEW | PROLOGUE FILMS DANIEL KLÖHN

Titelrennen Als Daniel Klöhn seine Kreativausbildung ganz klassisch im Fachbereich Design an der FH Potsdam begann, hätte er sich selbst nicht träumen lassen, dass er bereits einige Jahre später als jüngster Art Director in einer von Hollywoods renommiertesten Title-Design-Schmieden bei Prologue Films sitzen würde. Inzwischen arbeitete der talentierte Artist an Blockbustern wie „Iron Man 2“ oder „Tron: Legacy“. DP skizziert den spannenden Werdegang des 26-jährigen von Jan Bruhnke Start-ups.

W

ie viele andere seines Studiengangs entwirft Klöhn zu Beginn seiner Ausbildung Logos, elegante Poster und Print-Designs im Bereich Corporate Design. Seine Designwelt ruht anfänglich noch im bedachten 2D-Universum, in der sich brav die PDFs hinten anstellen. Langsam geht er auf Entdeckungsreisen zum Thema Bewegtbild, spezialisiert sich nach dem Grundstudium mehr und mehr in Richtung Audiovisuelle Medien und Interface Design. Seine Leidenschaft zur Musik und Fotografie verleihen seiner Inspiration Flügel, versetzen seine Kreativität und Entwürfe in Schwingung. Aber auch sein branchenerfahrener Professor Klaus Dufke an der FH Potsdam fördert gezielt sein außergewöhnliches kreativ-technisches Gespür im Sektor Motion Graphics. Anfängliches Spezialgebiet von Klöhn ist damals die moderne Kombination von Realbildern und aufwendigem CG-Material.

Visual Bootcamp 2005 macht er sich in asiatische Gefilde zu einem Praktikum bei der koreanischen Postproduktionsfirma Independence Studios

(Seoul) auf, wo er sich innerhalb von 2 ½ Monaten im Schnelldurchlauf seine „Grundausbildung“ für die Anforderung und den Gegenwind in der Entertainmentindustrie holt. Was dort auch bedeutete: jeden Tag arbeiten, keine Wochenenden und Nachtschichten on top. „In Korea habe ich erlebt, dass manche Mitarbeiter sogar in der Firma geschlafen haben“, erinnert sich der junge Designer heute zurück – immer noch sichtlich beeindruckt, ob der deftigen Arbeitsbedingungen. „Es gab dort ganze Etagen nur mit Flame-Arbeitsplätzen, eine weitere voll mit 3D-Artists. Es war unglaublich viel kreatives Potenzial an einem Fleck gebündelt. Die zwei Monate waren wie ein Wissens-Katapult für mich.“ Schon ein Jahr danach hat er seinen ersten großen Job für das internationale StudentenFilmfestival „Emergeandsee“ ergattert, das in London, Berlin und Budapest abgehalten wird, für die er unter anderem aufwendige Trailer und Intros kreiert. Die Maschine kommt ins Rollen. Er hält erste Vorträge auf Design-Konferenzen, bekommt 2007 einen Freelancer-Job bei MetaDesign Berlin. Hier feilt er unter anderem an der prominenten Logo-ID von VW, die man am Ende der Werbe-

spots sieht. Haupttools im digitalen Arbeitskosmos sind damals wie heute hauptsächlich das CS-Dreigestirn aus Photoshop, Illustrator und After Effects sowie 3D-Tools wie Cinema 4D und Maya. Von dort aus empfiehlt er sich weiter für eine Motion-Graphics-Designer-Stelle bei der renommierten Agentur AKQA in London. Schweren Herzens riet ihm selbst Mentor Prof. Dufke zu diesem Schritt, obwohl er wohl schon ahnte, seinen talentierten Studenten vorerst nicht so schnell wiederzusehen. Sein fast fertiges Studium versetzte er bei dieser einmaligen Chance erst mal in den SleepMode, am Arbeitsplatz muss er dagegen hell-

73


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Grid-Style Die futuristische Disney-Logoanimation für „Tron: Legacy“ hat Daniel Klöhn entwickelt

Blendend Für die 3D-Arbeit am Disney-Castle hat Klöhn fast ausschließlich auf Cinema 4D gesetzt. Das Schloss baut sich mit einer Lasershow-artigen S3D-Animation auf, die dann ins Publikum strahlt

wach sein. „Zu Beginn war es echt schwer in London: die Sprache, die Arbeitskultur – ich war ja noch nie zuvor in England gewesen. AKQA ist eine riesige Firma mit 350 Mitarbeitern und an die 100 Designern.“ Klöhn muss seinen Mann stehen, kommt in ein zwanzigköpfiges Team, das nur für Filmjobs zuständig ist. „Es wurde wenig Rücksicht genommen, manchmal habe ich nur die Hälfte verstanden und den Rest erahnt, da bei den Aufträgen so schnell gesprochen wurde.“ Zusätzlich ist der junge Deutsche auch der jüngste im Team. Überstunden prägen an der Themse seinen Tagesablauf, um sich bei den zahlreichen Projekten mit den engen Deadlines erfolgreich durchzukämpfen. Aufträge für Weltfirmen wie Nike, Microsoft, Fiat oder Ferrari reihen sich aneinander. Innerhalb eines Jahres füllt sich das Portfolio des Start-ups also mit prominenten Namen. „Ich musste bei AKQA auch zum ersten Mal Verantwortung über andere Mitarbeiter übernehmen und selbstständig Projekte zu Ende führen“, reflektiert er. 2D-Erfahrung, 3D-Techniken und selbst sein Interesse für klassische Fotografie fusionierte er gekonnt. „Fotografie war immer schon ein großes Hobby von mir. Es hilft einem im Bereich Perspektive, Kameraführung und Linseneinstellungen. Je größer der gestalterische Horizont ist, desto besser wird dein Ergebnis“, ist Klöhn überzeugt. Auch auf seine Printerfahrung kann er aufbauen. „Es ist wichtig zu wissen, was man bereits alles so innerhalb der 2D-Welt anstellen kann, um dann aufwendige und zeitintensive 3D-Effekte zu umgehen. Man muss die Grenzen kennen, ab welchen Punkt man wirklich auf 3D-Animation übergehen muss.“

heit. Der junge Deutsche besorgt sich dafür nicht nur Tickets, in seinem Kopf möchte er seine Fahrkarte nach Hollywood lösen. Eine Woche vorher schickt er kurzerhand das Portfolio seiner besten Arbeiten an die USFirma von Cooper. Nach vier langen Tagen bekommt er überraschend Rückmeldung, direkt aus der renommierten Digitalschmiede. Das Ergebnis: Er bekommt die Chance, den Firmenchef nach seiner Keynote in London persönlich zu sprechen. Klöhn trifft Cooper und unterschreibt zwei Wochen später beim Branchenguru, der schon bei Filmen wie „Sieben“, „Die Mumie“ oder „Spider-Man“ das Title Design kreierte, einen Arbeitsvertrag.

Fahrkarte nach Hollywood Als sich Branchenprofi Kyle Cooper, Chef von Prologue Films, zu einem Vortrag in London ankündigt, entsteht eine einmalige Gelegen-

74

Health Monitor Dank Daniel Klöhns Motion-Design hat Iron Man seinen Arc Reactor bestens im Blick

Die Zwischenzeit bis zur Genehmigung des US-Visums überbrückt er als Freelancer unter anderem bei der Top-Agentur Sehsucht.

Blitzstart Die Sonne sieht Klöhn allerdings vom ersten Tag an nur wenig, obwohl sein neuer Studioarbeitsplatz ganz in der Nähe vom bekannten Venice Beach gelegen ist. Es geht rasant los. Keine Schonfrist – nicht mal für den Newbee aus Europa. „Schon am dritten Tag bin ich beim MTV-Music-Award-Projekt eingesprungen. Da hieß es 14 bis 16 Stunden arbeiten.“ Wenige Wochen danach steht gleich ein Pitch für das Show Package für

ESPN für die Fußballweltmeisterschaft 2010 an. Ein Großprojekt, das einiges an Geld für die Firma verspricht. Ganz Prologue arbeitet fieberhaft an Entwürfen, die Workstation surren heiß. „Wie durch ein kleines Wunder habe ich diesen Pitch unter der Leitung von Kyle Cooper gewonnen, und das zwei Monate nachdem ich überhaupt erst bei Prologue angefangen habe. Das Thema Fußball lag mir, denn ich hatte ja viel für Nike in London gemacht“, erinnert sich Klöhn. Seine Style-Frames, mit denen man seine Vision, seine Story beim Pitch verkauft, überzeugen den Sender und sein Standing in der Company wächst. Natürlich muss das Screen-Design in den Staaten einer anderen Liga spielen, im Gegensatz zum konservativen Deutschland, wo Günter Netzer und Delling die gesetzten Herren zur Sportschau laden. „Screen-Design für einen Sportsender wie ESPN ist etwas ganz anderes, wie hierzulande“, erklärt Klöhn. Die Schlagwörter, die dafür in der Firma fallen, sind typisch amerikanisch: gigantisch, episch, überdimensional! „Ich habe viel mit Cinema 4D gearbeitet und mein Kollege Adam Swaab, der ein absoluter Spezialist in Cinema 4D und Houdini ist, hat mir viele Tricks gezeigt, damit ich die fliegenden Textilien perfekt modeln und shaden konnte, die über die südafrikanische Landschaft schweben. Am Anfang der Pitchs war das Ganze noch statisch. Ich habe dann viele Tücher recherchiert und diese hauptsächlich mit Cinema 4D und Photoshop umgesetzt. Das Compositing habe ich dann in After Effects bearbeitet, da man so innerhalb der Designentwicklung dynamischer bleibt und auch zusätzliche Effekte zur Verfügung hat“, erklärt der junge Kreative. Obwohl die Endausführung des ESPN-Jobs sein damaliger Art Director übernimmt, erntet er große Anerkennung und empfiehlt sich so für das fünfköpfige Desgin-Team, das an VFX-Szenen von „Iron Man 2“ arbeiten darf.

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

INTERVIEW | PROLOGUE FILMS DANIEL KLÖHN

Fahndung 2.0 Die Display-Animationen beindruckten John Favreau, den Regisseur von „Iron Man 2“

Virtual Touch Technik-Geek Tony Stark (Robert Downey Jr.) wurde dank Prologue Films mit HightechDisplays ausgestattet, die er mühelos per Gesten steuert

Unter anderem auch Shots mit aufwendigen Hologrammen und Panels, die Technik-Geek Tony Stark (alias Robert Downey Jr.) virtuell dirigiert. Überwiegend wird gleich direkt in 2K gearbeitet. „Wir hatten eine Firma in Asien, die das ganze Material für uns überprüfte und auch das Rotoscoping übernahm. Wir haben uns vorwiegend auf die Animation konzentriert, wie wir es in den Style-Frames geplant hatten.“ Die Vanko-Search-Szene, in der Robert Downey Jr. über ein futuristisches Panel nach seinem Widersacher sucht, übernimmt der Jungdesigner in kreativer Eigenregie. Wie immer sind die Deadlines tight, ganze zwei Monaten hat er dafür Zeit, aber sie avanciert zu einer Lieblingsszene des Regisseurs. „Natürlich gab es da immer Momente, an denen man denkt: ‚das schaffst du alles gar nicht. Der Druck ist zu hoch’“, sagt Klöhn. Neben After Effects sind Shake, Nuke und Flame die Profitools, die für den Blockbuster gefragt sind und für dessen finale Ergebnisse noch eine zusätzliche Renderfarm angemietet wird. Zum Glück hat er auch Routiniers, die ihm zur Seite stehen, insbesondere bei seinem nächsten Mammutprojekt – „Tron: Legacy“. Einer ist der erfahrene Title-Designer Danny Yount, der Klöhn bei diesem Sequel in sein

Team holt, ihn fördert, und der von Anfang an Verantwortung auf ihn überträgt.

Laser Castle „Als das Original im Kino lief, war ich noch nicht mal geboren“, erwähnt Klöhn mit einem Schmunzeln. Neben dem aufwendigen Abspann mit den Credits, einigen VFX-Shots und Screen-Designs ist hier auch eine aufwendige Logo-Animation gefragt, denn das Entree jedes Disney-Werks ist das traditionelle illuminierte Disney-Schloss. Für Tron: Legacy soll eine futuristische Variante in das Cybermärchen einführen und es sind Entwür-

»Je größer der gestalterische Horizont ist, desto besser wird das Ergebnis.«

Daniel Klöhn Art Director Prologue Films

fe von Prologue Films gefragt. Für den ersten Trailer fertigt Koryphäe Danny Yount zwei Varianten an und auch Daniel Klöhn überarbeitet kurzerhand intensiv eine Idee seines Kollegen Adam Swaab übers Wochenende. Klöhns Schlossvariante zeichnet sich als spacige 3D-Lasershow in den Zuschauerraum und bekommt den Zuschlag. Er erhält

als Art Director nun auch die volle Verantwortung über die Durchführung der Version für die Kinofassung. „Gerade die Stereo-3DVariante war eine große Herausforderung. Es war gut, dafür den erfahrenen Technical Director Miles Lauridson bei uns im Hause zu haben, der ganz genau wusste, wie man alle Objekte geschickt positioniert. In Stereo-3D kann man nicht mehr cheaten, wie in der 2DMograph-Welt“, weiß Klöhn. „Die Laser, die stereoskopisch auf einen zukommen, sind einfach toll geworden, selbst Lensflares haben wir realistisch im 3D-Raum positioniert.“ Im Gegensatz zu Maya und Nuke, die sonst bei den Tron-Projekten den Ton angeben, führt er diesen Auftrag vom ersten Animatic bis später zur Highend-Fassung komplett mit Cinema 4D und After Effects aus. Nur für das finale Compositing des Materials ist später wieder Nuke zuständig. Bei den ersten Tron-Screenings in den Staaten löst die Anfangslasershow des Logos Begeisterung in den Zuschauerrängen aus. Wohl das schönste Kompliment für die Arbeit des Deutschen. Wer sich später die Anfangssequenz auf der Blu-ray ansieht, kann sogar an einer Stelle Daniel Klöhn und seinen Kollegen in Tron-Anzügen im Disney Schloss entdecken, die sich dort digital verewigt haben. Vielleicht haben ihre binären Egos ja schon Bekanntschaft mit Clu im Grid gemacht. ❯ jb

Binärer Abspann Der Look von Tron setzt sich auch im Title Design fort, die absolute Expertise von Prologue Films. Alle futuristischen Linien und Elemente sind als einzelner Layer in After Effects angelegt. Insgesamt wurden hierbei an die 50.000 Elemente (ca. 200 pro Karte) benötigt, die dann ein- und ausgeblendet wurden

75


Inspiration, Motivation & Celebration Der internationale Wettbewerb für 3D, Visual Effects & Interactive Egal ob etabliertes VFX-Studio, kreativer Freelancer oder visionärer Newcomer: Profis und Nachwuchs der Digital Creation ContentBranche (DCC) können ab sofort ihre Beiträge einreichen und sich dem Voting der animago-Fachjury stellen. Kostenfreie Teilnahme über die Homepage www.animago.com Einreichfrist: 30. Juni 2011 Preisverleihung auf der animago CONFERENCE am 27. Oktober 2011 in Potsdam-Babelsberg

Veranstalter:

gefördert durch:


Bilder: Teilnehmer animago AWARD 2009 & 2010

Jetzt Beitrag einreichen! Beste Werbeproduktion Bestes Still Bester Kurzfilm Beste interaktive Produktion Bestes Game-Design Bestes Character-Design Beste Stereo 3D-Produktion Beste Postproduktion Beste Visualisierung Beste Nachwuchsproduktion (mit einem Preisgeld von EUR 3.000 durch die DIGITAL PRODUCTION dotiert.)

Sonderpreis der Jury

www.animago.com


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Storm als Schaltstelle für R3D-Dateien The Foundry entwickelt derzeit ein universelles Programm zur Arbeit mit Daten aus der RED beim Dreh, das in einer umfangreichen öffentlichen Beta-Phase gemeinsam mit den Usern verfeinert wird. Das Entwicklungstempo ist beeindruckend, verbesserte Versionen kommen im Abstand weniger Wochen. Wenn im März alles wie geplant funktioniert, von Prof. Uli Plank sollte keiner mehr sagen können, dass die Arbeit mit Material aus der RED kompliziert sei.

D

ie vollständige Digitalisierung und der Schritt zur bandlosen Aufnahme verändern den gesamten Arbeitsablauf bei einer Filmproduktion. Einerseits entfällt das Warten auf Labor- und Kopierwerksarbeiten vor der Sichtung, so dass nicht nur die unmittelbare Beurteilung, sondern auch ein Rohschnitt und sogar die probeweise Farbgestaltung direkt am Set möglich werden. Andererseits wird nicht nur eine sorgfältige Datensicherung zwingend notwendig, sondern die sofortige Verfügbarkeit von Sichtungskopien wird für alle Beteiligten schnell zur Selbstverständlichkeit, die mit der am Drehort üblicherweise verfügbaren Rechenleistung gar nicht so leicht zu erfüllen ist. Trotz aller Fortschritte beim Dynamikumfang und der Farbtiefe digitaler Filmaufnahmen ist die enge Zusammenarbeit mit den lichtsetzenden Kameraleuten am Set unverzichtbar, wenn man ermitteln möchte, ob sich ein gewünschter Look in der Postproduktion auch ohne Qualitätsminderungen umsetzen lässt. Die Bewahrung und Weitergabe aller Zusatzinformationen, die bei Sichtung und

Korrektur erfasst werden, ist essentiell – ein effizienter Workflow besteht schließlich auch darin, keine Arbeit doppelt machen zu müssen. Neben der Weitergabe von Logdaten, Kommentaren und Rohschnitt an gängige Schnittsysteme gehört dazu folglich die Übergabe von Farbkorrekturen an Kamera und Postproduktion.

Stürmische Entwicklung The Foundry aus England hat sich unter anderem mit der Compositing-Software Nuke einen guten Namen gemacht, die von vielen als würdiger Nachfolger des von Apple aufs Altenteil gesetzten Shake betrachtet wird. Nun entwickelt man dort mit Storm ein Programm, das alle zuvor genannten Aufgaben für Material aus den digitalen Filmkameras der Firma RED erfüllen soll. Mit einer Ausnahme: Für abgesicherte Backup-Strategien sind zusätzlich Programme wie R3D Data Manager notwendig. Die volle Integration mit einem Schnittsystem wird derzeit nur für Final Cut Pro (kurz: FCP) geboten, aber da sich

Apple mit der Aktualisierung bei nativen R3DParametern weiterhin Zeit lässt, sind Nutzer dieses Programms auch in besonderem Maße auf die Unterstützung durch Hilfsprogramme angewiesen. Bisher war Clipfinder deren Favorit, aber der bietet die Unterstützung der neueren Farbräume nur eingeschränkt und wird seit geraumer Zeit vom Autor nicht mehr weiterentwickelt. Einer der Gründe dafür könnte Storm sein …

Import und Sichtung Das Einlesen der Clips ist sehr einfach: Sowohl per Drag-and-Drop als auch beim Import ganzer Folder inklusive ihrer Unterverzeichnisse werden nur die R3D-Dateien erfasst und doppeltes Einlesen automatisch vermieden (andere Formate werden bisher nicht unterstützt). Separate Tonaufnahmen im WAV-Format sind ebenfalls lesbar und können über ihren Timecode synchron angelegt werden. Leider findet die Zuordnung noch nicht automatisch auf der Grundlage des TC für ganze Ordner wie bei REDCine-X statt. Look-

Intuitiv Die Vergabe von Tags erfolgt per Drag-and-Drop

e Mächtig Die Möglichkeiten zur sekundären Farbkorrektur und Kombination von Filtern sind beeindruckend d Vollständig Sämtliche Justagemöglichkeiten der Metadaten aus der RED sind in Storm zugänglich

78

Arrangiert Sinnvolle GUI-Anordnungen für die wichtigsten Aufgaben

Überblick Schon im Medienfenster sieht man die wichtigsten Metadaten

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

Dateien im RMD-Format werden gelesen und geschrieben, inklusive voller Unterstützung der neuen Farbmatrizen und Gammakurven, aber auch das ältere RSX-Format kann eingelesen werden, um Aufnahmen erneut zu bearbeiten. Vorbildlich gelöst ist dabei die Anzeige, bei welchen Parametern die Looks aus der Kamera, vorhandene Look-Daten oder eigene Einstellungen verwendet werden. Wenn man den Cursor auf dem Vorschaubild einer der importierten Dateien ruhen lässt, bekommt man neben den wichtigsten Infos zum Format auch die Möglichkeit zum Abspielen oder Scrubben. Fertige Arrangements der modernen Nutzeroberfläche, die selbst auf kleineren Bildschirmen sinnvoll zu benutzen sind, werden für Sichtung und Rohschnitt geboten. Eigene Konstellationen können beliebig angelegt und automatisch mit den jeweiligen Projekten aufgerufen werden. Auch sonst ist das Userinterface liebevoll gestaltet; insbesondere auf die Erstellung und Zuweisung von Tags (Etiketten) ist ganz offensichtlich viel Sorgfalt verwendet worden. Schon von Hause aus enthält das Programm zahlreiche sinnvolle Tags, darüber hinaus kann man eigene anlegen und sogar mit Bildern im PNG-Format kenntlich machen. Tags können Frames, einzelnen oder gruppierten Clips und Timelines zugewiesen werden und dienen neben der Kommunikation mit nachfolgenden Kollegen in erster Linie zum Suchen und Organisieren des Materials. Die Suchfunktion reagiert dementsprechend nicht nur auf Texteingaben, sondern per simplem Drag-and-Drop auch auf Tags. Selbst die Metadaten können zur Suche herangezogen werden, so kann man u. a. nach allen Clips mit oder ohne Audio, einer bestimmten Auflösung oder Bildgeschwindigkeit suchen. Komplexe Suchbefehle lassen sich als Vorlage speichern.

Benutzerführung Die sehr intuitive Benutzung erleichtert die Arbeit unter den hektischen Bedingungen am Set, wo man nicht immer die gleiche Konzentration wie im eigenen Studio aufbringen kann. Die Arbeit geht auch auf einem Laptop einigermaßen flott vonstatten, weil der jeweils im Viewer geöffnete Clip intern vorberechnet und in einem Cache gepuffert wird. Abspielen geht sofort, weil der Puffer ausreichend schnell voreilt, schnelles Scrubben im Preview-Fenster ist aber erst möglich, wenn alles berechnet wurde. Natürlich findet das am Laptop nicht in voller 4K-Auflösung statt – unser MacBook Pro der aktuellen Serie schaffte ein Achtel – aber auf einem DesktopRechner mit einer RED Rocket bekommt man die volle Qualität zu sehen. Ohne die Rocket ist der Export aus Storm derzeit noch nicht mal halb so schnell wie aus REDCine-X, das sämt-

THE FOUNDRY | STORM

Etiketten Zahlreiche sinnvolle Tags stellt Storm bereits zur Verfügung

Selbstgemacht Eigene Tags können mit PNG-Bildern gestaltet werden

Rangierarbeiten Beim Editieren stehen Slip- und Roll-Werkzeug zur Verfügung, aber ohne eine synchrone Darstellung im Bildfenster

liche Kerne eines MacPros bis zum Anschlag fordern kann. Hier ist also noch Verbesserungspotenzial, aber da sich schon zwischen den letzten beiden Betaversionen viel bei der Geschwindigkeit getan hat, sollte man das Tempo der finalen Version abwarten.

Rohschnitt Tags – inklusive ihrer Kommentare – werden als Marker an FCP übergeben, auch die Sortierung der Clips in Bins kommt wohlbehalten dort an. Einen EDL-Export gibt es nicht, so dass auch keine direkte Übergabe an gängige Grading- oder Compositing-Systeme möglich ist, obwohl DPX- und EXR-Sequenzen ebenso wie gekürzte R3D-Dateien erzeugt werden können. Ein Rohschnitt aus FCP mit den QuickTime-Proxies lässt sich umgekehrt auch an Storm übergeben (ebenfalls mit Markern) und wird dort selbstverständlich wieder mit der Rohdatei verknüpft. Wenn Farbkorrekturen aus Storm bei der Rundreise erhalten bleiben sollen, müssen statt Proxies gerenderte Offline-Files wie ProRes LT aus Storm benutzt werden, die sich sowieso in FCP flotter bearbeiten lassen. Doch der Umweg ist an sich gar nicht nötig, denn einen einfachen Rohschnitt kann man recht gut auch gleich in Storm erledigen. Storm bietet in unserer Beta recht brauchbare Schnittfunktionen für eine Timeline mit einer Video- und bis zu vier Audiospuren an,

aber eine Version mit mehreren Spuren wurde bei Demos bereits gezeigt und steht nach Aussagen des Herstellers noch in Aussicht. Damit wäre dann – abgesehen von inkompatiblen Effekten – eine hervorragende Integration mit FCP möglich. Neben dem Setzen von In- und Out-Punkten im Viewer sind Längenänderungen durch Ziehen in der Timeline möglich, auch Lücken können leicht geschlossen werden. Spuren lassen sich schützen, Clips kann man in der Timeline duplizieren. Mit der Rasierklinge werden Schnitte gesetzt oder auf diese Weise getrennte Clips wieder verbunden. Ebenso findet sich ein Slip- und ein Roll-Werkzeug, aber ohne eine entsprechende Darstellung im Viewer sind diese nicht so intuitiv wie in einem vollwertigen Schnittprogramm. Doch Vorsicht: Neue Clips werden immer überschreibend in die Timeline gesetzt – um eine Einfügung zu machen, muss man

Verständigung Tags können mit detaillierten Kommentaren versehen werden

79


AKTUELL

FOKUS

EDITING

ANIMATION

Messgenau Alle wesentlichen Messgeräte sind vorhanden und werden selbst auf kleineren Rechnern schnell dargestellt

einen Clip erst an eine freie Stelle legen und dann mit dem Ripple-Werkzeug an der passenden Stelle einfügen. Gewohnheiten aus FCP lassen sich nicht immer nutzen, so öffnet der Doppelklick auf einen Clip in der Timeline diesen nicht zur Bearbeitung im Viewer.

Farbkorrektur Unter den üblichen Lichtverhältnissen am Drehort bzw. bevor der Schnitt abgesegnet ist, wird man in der Regel zwar keine vollwertige Farbkorrektur durchführen wollen, aber

COMPOSITING

COLOR

AUDIO

tur (First Light) durchzuführen und gleich Kopierer für den Offline-Schnitt zu rendern. Dann kann man in einem schlanken 10-BitZwischenformat wie ProRes flüssig weiter arbeiten, vor allem bei begrenzten Ressourcen an Speicherplatz und Rechenleistung. Storm benötigt nur OpenGL, ist also nicht auf spezifische CUDA-Karten angewiesen wie manch andere moderne Videosoftware. Die primäre Farbkorrektur mit Lift, Gamma und Gain ist professionell und bietet sogar den getrennten Reset von Luminanz und Chrominanz, ähnlich wie in Blackmagic Resolve. Als Steuerungshardware beim Grading wird derzeit allein Euphonix (nur in 32 Bit) unterstützt, aber den zahlreichen Forderungen, das Wave von Tangent einzubinden, wird sich der Hersteller auf Dauer wohl kaum verschließen wollen. Auch die durchaus brauchbare sekundäre Farbkorrektur mit Qualifiern und einfachen Vignetten ähnelt weitgehend einem Vollsystem, aber komplexe Maskierungen – gar mit Objektverfolgung – oder Keyframing sind bisher nicht vorgesehen. An Messgeräten werden Waveform, Histogramm und

Volldampf REDCine-X kann durch den Start mehrerer Instanzen alle Kerne eines modernen Rechners auslasten

Schongang Unsere Betaversion von Storm wirkte im Vergleich sehr zurückhaltend beim Rendern

es gibt doch wichtige Gründe, entsprechende Möglichkeiten vorzuhalten. Einerseits kann man nur durch praktische Tests feststellen, ob im Zusammenspiel von Lichtsetzung, Kamera und Farbkorrektur ein gewünschter Look erreicht werden kann, um dann auch entsprechende Muster zu erstellen. Zum anderen kann es bei rechenintensiven Rohformaten wie R3D sinnvoll sein, eine grobe Vorkorrek-

Vektorskop simuliert. Die arbeiten recht flink und präzise, lassen wahlweise Farbkanäle anzeigen, sind für mehrere Viewer umschaltbar oder per Funktionstaste vollbildfähig (wie andere Tabs auch). Im Viewer sind eine Lupe, ein lokales Messfenster (Region-of-Interest) und Anzeigen für Über- und Unterbelichtung aktivierbar.

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Verstanden Tags aus Storm landen mit Namen und Kommentar in der Sequenz von Final Cut Pro

erhöhen (vermutlich ist 16 Bit FließkommaBerechnung gemeint) – das sollte untadelige Ergebnisse liefern. Durch diese Leistungsbandbreite bei einheitlicher Speicherung der Farbkorrekturentscheidungen ist also auch im Grading ein Offline/Online-Workflow mit Storm möglich. Solange dabei nur Parameter verändert werden, die zum RED-Toolkit gehören, lassen sich diese als RMD-Dateien an andere Programme wie Resolve übergeben, um dort die finale Korrektur auf Basis der Rohdaten zu leisten. Die RED-Parameter werden im gleichen Umfang unterstützt, wie ihn auch das hauseigene REDCine-X aufweist, während ja manch anderer Software noch wichtige Funktionen wie die automatische Weißbalance fehlen – die funktioniert bekanntlich hervorragend, solange eine Graukarte aufgenommen wurde. Storm geht aber deutlich darüber hinaus und bietet umfangreiche eigene Effekte. Neben der primären Farbkorrektur gehören dazu weitere Farbkorrekturen, Masken, Generatoren, Transformationen und Weichzeichner. Nicht immer wird es sinnvoll sein, diese mit in das Material einzurechnen, weil eine vollwertige Grading-Suite noch differenziertere Möglichkeiten bietet. Mangels übergreifender Standards lassen sich solche Bearbeitungen ja nicht als Metadaten an andere Software übergeben, sie können nur zu Testzwecken oder der Offline-Erstellung sinnvoll genutzt werden. Die Handhabung in editierbaren Stapeln mit vielseitigen Mischmodi ist gut gelöst; solche Stapel sind wiederum als eigener Look speicherbar. Etliche Looks werden bereits mitgeliefert und bieten Anregungen für eigene Modifikationen.

Workflow-Alternativen Es gibt im Grunde kaum einen sinnvollen Workflow für die RED, bei dem sich Storm

Profi-Workflows

Profi Storm exportiert auch die in der klassischen Filmszene gängigen Formate wie DPX und EXR

80

Das Programm unterstützt zudem hochprofessionelle Workflows mit Echtzeitumrechnung und Darstellung durch die RED Rocket, zurzeit aber noch keine Ausgabe über andere Videokarten wie Blackmagic oder AJA. Neben QuickTime wird die Ausgabe in DPX- oder EXR-Sequenzen geboten – schließlich könnte ein Arbeitsplatz am Set auch eine vollwertige Grading-Suite mit Hochleistungs-RAID in einem Van sein. Die Renderqualität kann man dafür im Advanced Modus bis auf „Half Float“

Mitgedacht Mit guter Referenz ist der Weißabgleich direkt am Quellmaterial präzise möglich

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

THE FOUNDRY | STORM

Blindflug Alle primären Farbkorrekturen werden geboten, sind aber noch nicht per Video-I/O-Karte am farbgenauen Monitor kontrollierbar

Vorschläge Storm bietet Looks an, die sich als Ausgangspunkt für eigene Experimente eignen und einfach auf die Clips geschoben werden

Zielgerichtet Selbst Metadaten können in der Software per Drag-and-Drop zur Suche nach Clips dienen

nicht nützlich machen könnte. Selbst bei der Postproduktion mit einem System, das R3DMaterial nativ bearbeiten kann, ist es beim Austesten von Looks am Set, für den schnellen Rohschnitt und die Erstellung von Sichtungskopien hilfreich. Die umfangreichen Möglichkeiten, Ordnung in das Material zu bringen oder nach einem Clip zu suchen, sind am Set auch höchst hilfreich, wenn mal schnell eine Referenz gefunden werden muss. Da das Programm selbst auf einem modernen Laptop flott funktioniert und zu einem moderaten Preis angeboten wird, wird kaum ein/e DIT darauf verzichten wollen.

nehmen). Die Umrechnung von Rohdaten in bester Qualität braucht aber sehr viel Zeit, wenn Sie keine RED Rocket einsetzen, oder zumindest recht viel Platz, wenn Sie sämtliches Material vom Dreh umrechnen wollen. Daher wird man in der Regel einen OfflineSchnitt machen, weil kostengünstige Arbeitsplätze die volle Auflösung beim Schnitt sowieso nicht sinnvoll nutzen können. Dann hat man aber ein Problem: Man kann beim Schnitt in FCP (anders als z. B. bei Premiere Pro) nicht mal kurz in die Quelle hineinzoomen, um zu sehen, ob die Schärfe sauber gesessen hat. Storm dagegen bietet diese Möglichkeit und ebenso sämtliche Farbkorrekturen, so dass bei Sichtung und Rohschnitt ganz klar ist, welche Takes als Kopierer in Frage kommen. Die rechnet man dann in einem Format begrenzter Qualität zu QuickTime-Dateien um und übergibt sie an FCP zur Schnittgestaltung, beispielsweise in 1280 x 720 mit ProRes LT. Die Schnittfassung geht zurück an Storm, um eine Version des tatsächlich benutzten Materials in voller Qualität berechnen zu lassen und wieder an FCP zu übergeben. Dort werden gegebenenfalls noch Ergänzungen vorgenommen, die Storm nicht darstellen kann, wie Blenden oder zusätzliche Spuren, und das Ergebnis geht zur Endfertigung an Color. So umgeht man die Schwächen, die Color im Umgang mit R3D-Daten noch hat (siehe DP-Ausgabe 4:10) und durch die Vorkorrektur in Storm wird trotzdem die volle Qualität der RED genutzt. Ebenso nützlich ist Storm, wenn die Schnittfassung zur Farbkorrektur oder Effektbearbeitung als DPX- oder EXR-Sequenz übergeben werden soll. Diese Formate könnte

FCP ohne Hilfsmittel gar nicht liefern, während Storm sie wiederum aus den Quelldaten in bestmöglicher Qualität erstellen kann. Im Prinzip könnte sogar das gesamte Grading in Storm gleich in Bildsequenzen mit eingerechnet werden, wenn Ihnen die gebotenen Werkzeuge reichen. Die Qualität wäre durchaus gegeben, aber derzeit fehlt dazu die Ausgabe auf einen Kontrollmonitor (die RED Rocket zeigt die spezifischen Effekte aus Storm nicht an). Außerdem dürfte der Colorist oder die Coloristin sich das in der Regel verbitten. Zudem fehlt die Möglichkeit, eine EDL zu generieren, die viele High-End-Systeme noch voraussetzen. Da kann dann FCP wieder einspringen: Einfach die XML aus Storm übergeben und eine EDL im passenden Format erzeugen. Bei uns klappte das mit CMX 3600 bei Resolve einwandfrei, wahlweise mit DPXSequenzen oder R3D-Dateien im Media Pool. Bedenken Sie aber bei letzteren, dass Lift/ Gamma/Gain und Kurven im RMD von Resolve derzeit noch nicht beachtet werden und eventuelle nachträgliche Änderungen händisch aktualisiert werden müssen. In diesen beiden Punkten sollte Blackmagic nachbessern, während bei den EDLs und den vielen kleineren Bugs in der Beta die Pro❯ jb grammierer von Storm gefragt sind.

Ergänzung für Final-Cut-User Am meisten dürften aber Nutzer von Final Cut Studio profitieren, solange Apple sich mit einer besseren Integration von Rohdaten aus der RED zu viel Zeit lässt. Wenn Ihr Endprodukt HDTV oder Blu-ray ist, werden Sie in der Regel im ProRes HQ Codec arbeiten können (oder ProRes 4444, wenn Sie es ganz genau

Storm Hersteller: The Foundry Internet: www.thefoundry.co.uk Preis: im Moment Public Beta Systemvoraussetzungen i Mac Pro, MacBook Pro oder iMac mit mind. 2GB RAM, 6 GB empfohlen i Snow Leopard i RED Rocket wird unterstützt

Prof. Uli Plank (uli.plank@hbk-bs.de) lehrt Digitale Kinematografie, VFX und Motion Graphics an der HBK Braunschweig. Er gehört seit Jahren zum Team der „Hands on HD“Kurse bei der Nordmedia und bietet auch Schulungen und Beratung zur RED One und deren Postproduktion an.

81


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Offen(-sive) Digidesign ist tot, es lebe Avid! Unter dem Branding des US-Broadcast-Spezialisten findet mittlerweile ein Heer von Firmen eine neue Heimat – mit der Folge, dass ruhmreiche Namen der Musiktechnikbranche verschwinden und etablierte Produktserien von nun an den neuen (Vor-)Namen Avid tragen. Beim führenden Hersteller DSP-gestützter DAW-Systeme ist also nichts mehr so, wie es einmal war. Auch die Einführung von Pro Tools 9 erregte großes Aufvon Christian Preissig sehen, denn die Software zeigt sich erfreulicherweise offener als je zuvor.

anz leicht geht es noch nicht von der Zunge, aber „Avid Pro Tools“ ist die Terminologie, die man sich zukünftig einprägen muss. Der Ursprung dieser Verschmelzung liegt im Jahr 1995, als die Pro-Audio-Welt noch eine andere war: Avid, dominierendes Unternehmen im Bereich des digitalen Videoschnitts, kauft Peter Gotcher und Evan Brooks ihr 1984 gegründetes Unternehmen ab und gliedert es eher lose in den eignen Firmenverbund ein. Fortan gehört der Zusatz „A division of Avid“ fest zum Firmenschriftzug, nach außen bleibt Digidesign jedoch eigenständig und geht in den folgenden Jahren selbst auf Firmenfang. Hersteller wie

G

Für alle Die DAW Pro Tools 9 arbeitet nun nativ auf Windows und Mac-Systemen

82

Bomb Factory, M-Audio, Sibelius oder Wizoo werden akquiriert und sorgen dafür, dass Digidesign in fast jedem Bereich ein Standbein hat und seinen Esprit versprüht. Selbstverständlich profitiert auch das wichtigste Produkt im Hause Digidesign von den Zukäufen: Die Pro-Tools-Software – von jeher beispielhaft, wenn es um Aufnahme und Schnitt von Audiomaterial geht – lernt stetig dazu und hat sich in den letzten zehn Jahren zu einem der umfassendsten Werkzeuge zur Audioproduktion entwickelt. Egal, ob der Anwender im Bereich Music Production, Scoring, Postproduktion oder Ähnliches positioniert ist – Pro Tools ist in jeder dieser Sparten beheimatet und setzt Standards. Der große Unterschied zur Konkurrenz lag seit jeher in der mangelnden Offenheit für Hardware von Drittanbietern: Pro Tools war als abgeschlossenes System konzipiert worden, ein Betrieb der Software ohne passende Hardware war schlicht nicht möglich. Entsprechend locker konnte Digidesign mit dem Kopierschutz für Pro Tools verfahren: Wo andere Hersteller Kosten und Mühen in die Programmierung tauglicher Schutzmechanismen investieren, zahlte der Pro-ToolsAnwender einen Dongle Deluxe in Form der Audiohardware mit.

Dieser Umstand und die damit verbundene Preisgestaltung sorgten für einen sehr exklusiven Ruf der Pro-Tools-Plattform: Selbst günstige Systeme wie die MBox oder auch die Digi00-Serie wurden stets mit dem Kaufargument beworben, dass man jederzeit direkt mit den großen HD-Systemen in den Profi-Studios auf der ganzen Welt kompatibel war.

Alles neu, alles glänzt Und damit ist jetzt Schluss! Viel wurde gemunkelt, was man von Digidesign zu erwarten hätte, denn dass etwas Neues kommen

Erweiterung Video-Satellite macht das Synchronisieren von Videosequenzen zu Pro Tools 9 leicht

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

TEST | DAW AVID PRO TOOLS 9 NATIVE

musste, stand außer Frage. Kaum einer hätte jedoch diese Entwicklung erwartet: Mit der aktuellen Version Pro Tools 9 Native fällt nicht nur der Name Digidesign unter den Tisch, sondern auch die Hardware-Bindung gehört der Vergangenheit an. Avid Pro Tools 9 (PT9) bietet also erstmalig die Möglichkeit, vollständig nativ auf Windows oder Mac zu arbeiten und dazu die ASIO- beziehungsweise Core-Audio-Soundkarte der Wahl zu verwenden: Auf einem Apple-Rechner übernimmt der neue Treiber Pro Tools Aggregate I/O die Verwaltung der Ein- und Ausgänge und kann auf Wunsch gleich mehrere Soundkarten parallel einbinden. Was für Logic- oder Cubase-Anwender eher normal klingt, kommt im Avid-Universum doch einem Urknall gleich: Denn mit der Aufgabe der Hardware-Bindung fällt auch der Zwang, in teure DSP-Hardware zu investieren, wenn man halbwegs professionelle Ansprüche hegt. Die Software kommt einem dabei entgegen: Anders als bei Pro Tools LE, wo der native Betrieb an funktionale Einschränkungen gekoppelt war, präsentiert sich Pro Tools 9 als vollwertige DAW für kommende Großprojekte. So wurde die Anzahl der Audiospuren – oder besser gesagt: der gleichzeitig verfügbaren Voices zur Audiowiedergabe – von bisher 48 auf nunmehr 96 (bei 48 kHz) angehoben. Zur gleichzeitigen Aufnahme lassen sich nun 36 Spuren statt wie bisher 18 Tracks aktivieren. Auf der MIDI-Seite kann PT 9 ab sofort 512 Spuren bzw. 64 Instrument-Tracks verwalten – auch hier erweitert Avid das bisherige Angebot um den Faktor 2. Den größten Sprung macht jedoch das Bus-System, mit dem sich Signale intern in Pro Tools (z. B. für Aux-Wege) routen lassen: Dank der Anhebung von 32 auf 256 interne Busse ist ein natives Pro Tools 9 einer HD-Vorgängerversion ebenbürtig. Einzig die Video-Einbindung ist weiterhin auf einen Video-Track beschränkt – sofern man nicht weiter investieren möchte. Für den nativen Betrieb einer DAW ist eine Latenzkompensation essentiell: Abhängig von der Anzahl sowie Qualität der benutzten Plug-ins, kann die zeitliche Relation und damit das Phasengefüge innerhalb einer Produktion völlig aus dem Ruder laufen. Gerade Interne Workflows Pro Tools 9 native verfügt über 256 interne Busse

Avid HEAT

Digitale Wärme Seit den Anfängen haftet der digitalen Aufnahmetechnik der Makel an, dem analogen Vorbild hoffnungslos unterlegen zu sein: Zu wenig Druck, zu wenig Wärme, schlechte Dynamik, klirrender Sound – in akustischer Hinsicht verheißt das analoge Band eben jene Magie, die einer Festplatte völlig abgeht. Auf die unerreicht komfortable Bedienung und Editierung in digitalen Systemen möchte dennoch niemand verzichten, weshalb der Wunsch nach analog klingender Digitaltechnik fast so alt ist wie das Medium selbst. Auch in dieser Disziplin reagiert Avid und präsentiert in Zusammenarbeit mit Dave Hill, Gründer der Firma Crane Song, eine entsprechende Option für Pro Tools. Option deshalb, denn HEAT ist de facto kein Plug-in im herkömmlichen Sinn, sondern eine Systemerweiterung, die Pro Tools die Anmutung einer analogen Aufnahmeumgebung verleihen soll. HEAT steht für „Harmonically Enhanced Algorithm Technology“, was nichts anderes bedeutet, als dass die analoge Sättigung und das damit verbundene Obertonverhalten analoger Technik mit ausgefuchsten Algorithmen imitiert wird. Hat man sich für HEAT entschieden, wird der Algorithmus global in alle Kanäle im ProTools-Mixer geladen und oberhalb der Mix-Inserts in einer eigenen GUI dargestellt. Die grundlegende Steuerung übernimmt der HEAT-Master, der im Mix-Fenster eingeblendet werden kann. Die Parametrik ist erfreulich simpel gehalten: Außer einem globalen Bypass bietet der HEAT-Master jeweils einen Regler für Drive und Tone. Während Drive das Maß der Sättigung und damit der „analogen“ Obertöne steuert, bestimmt Tone das grundlegende Klangverhalten der Schaltung. Beide Regler arbeiten in der Mittelposition nominal und verändern den Klangcharakter erst, wenn man diese verlässt: Im linken Regelbereich erzeugt Drive Harmonische ungerader Ordnung (wie bei Bandmaschinen), eine Rechtsdrehung imitiert das Obertonverhalten einer Röhrenschaltung. Der Tone-Regler sorgt einfach für einen dumpferen (links) oder höhenreicheren (rechts) Klang. In den Kanälen selbst besteht zudem die Möglichkeit, HEAT lokal für die zugehörige Spur zu deaktivieren oder den Algorithmus vor oder hinter die KanalInserts zu schalten.

Glue-Effekt Optisch wird die Wirkung von HEAT über ein optisches Element verdeutlicht: Je stärker die Sättigung ist, desto heller leuchten die so genannten HEAT-Meter in den Tracks. Akustisch bewirkt HEAT einiges und kann dem Klangeindruck einer Mischung tatsächlich eine neue Farbe verleihen: Selbst bei dezentem Einsatz erscheinen die Signale griffiger, konkreter – mitunter offener. Bezogen auf eine Mischung entsteht der oft zitierte Glue-Effekt, durch den sich Signale besser verzahnen und der Mix einerseits kompakter, andererseits intensiver klingt. Natürlich kann man seine Signale auch überhitzen: Während einzelne Instrumente wie z. B. Drums oder E-Gitarren von Einstellungen im Grenzbereich profitieren können, ist diese Konfiguration für eine komplette Mischung eventuell zu drastisch. Grundsätzlich empfiehlt es sich, den HEAT-Anteil in der Mischung häufig durch einen AB-Vergleich über den Master-Bypass zu verifizieren – auf Dauer wird man sicher ein Gefühl dafür entwickeln, bis zu welchem Punkt HEAT den Mix wirklich nach vorne bringt, und ab wann sich suboptimale Ergebnisse einstellen. Es sollte nicht unerwähnt bleiben, dass sich HEAT einer ambitionierten Konkurrenz zu stellen hat: Neben dem betagten Analog Channel von McDSP und der Twin-Tube-Emulation von SPL hat Universal Audio kürzlich mit der Studer A800 ein sehr ambitioniertes Plug-in für die UAD-Plattform vorgestellt. Speziell das UAD-Plug-in ist funktional wie akustisch sehr ähnlich positioniert, allerdings gelingt HEAT die Integration in Pro Tools optimal. Ein akustischer Vergleich empfiehlt sich Channelzuwachs The Heat is on! dennoch, um die individuellen Stärken richtig beurteilen zu können.

83


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

HD-Native-Karte Auch wenn die Hardware-Bindung nicht mehr verpflichtend ist, so ist sie dennoch die Option, welche die wahren Stärken dieser DAW zeigt. Gemeint ist Time-Division-Multiplex, kurz TDM, was bedeutet, dass die DSP-gestützte Avid-Hardware als einziges System im Markt eine per se latenzfreie Audio-Ein- und -Ausgabe über alle Aufnahmespuren ermöglicht. Wer Recording im großen Stil betreibt, musste stets abwägen, ob er für den nativen Weg lieber einen Workaround auf der analogen Ebene sucht oder doch in die teure HD-Hardware investiert. Mit HD Native macht Avid nun ein weiteres Angebot: Über die beiden Digi-Link-Ports ist die neue PCIe-Karte mit allen aktuellen Audio-Interfaces von Avid kompatibel und kann dank eines Onboard-Prozessors auch das I/OHandling mit minimaler Latenz stemmen. Effektiv kann die Karte maximal 64 Audio-Streams ausgeben bzw. aufnehmen und erzielt dabei eine minimale I/O-Verzögerung von knapp unter 2 ms – im nativen Markt ist das Weltrekord! Allerdings wird dieser Traumwert nur dann erreicht, wenn die Puffergrößen im Rechner entsprechend niedrig eingestellt sind und dieser eigene Prozessorleistung zuschießt. Bei höheren Puffergrößen wird der Rechner entlastet, allerdings steigt auch die resultierende Latenz und die Wahrscheinlichkeit, dass die Musiker mit dem Software-Monitoring Probleme bekommen. Für diesen Fall bietet die Pro-Tools-Software ein speziell auf die Native-Karte zugeschnittenes Low-Latency-Monitoring, bei dem eben so viele Spuren mit minimaler Latenz abgehört werden können, wie es der Computer zulässt. Wie man es dreht und wendet – ohne Rechnerlast geht es auch bei Avid nicht. Trotzdem ist das Ergebnis deutlich besser als bei anderen nativen Lösungen, die weniger aufeinander abgestimmt sind. Trotz alledem ist die HD Native keine abgespeckte TDM-Karte: Abgesehen vom I/O-Handling kann die Karte selbst keinerlei Plug-ins berechnen. Wer seinen Monitormix mit Effekten bereichern möchte, muss das rein nativ erledigen, belastet damit wiederum den Rechner und riskiert dadurch eine höhere Latenz.

mehrfach mikrofonierte Quellen wie DrumSets können unbearbeitet noch so gut klingen – wenn der zeitliche Bezug zwischen den Drum-Spuren aufgrund unterschiedlicher Plug-in-Bearbeitung nicht mehr stimmt, wird der Mix definitiv ernüchternd klingen. Bei ProTools-HD-Systemen bereinigt die so genannte Delay Compensation Engine verlässlich jeglichen Spurversatz – umso erfreulicher ist es, dass dieses Feature nun auch in Pro Tools 9 fest verankert ist.

Kompatibilität Die weiteren Neuerungen in Pro Tools 9 sind als Detail-Lösungen zu sehen, die den Betrieb erleichtern, jedoch weniger fundamental verbessern. Erst einmal hebt Avid eine ohnehin ärgerliche Beschränkung auf: An die Stelle der bisher kostenpflichtigen Erweiterung tritt nun ein interner Codec, der hochauflösende Audiodaten ins gängige MP3-Format konvertiert – ein Muss für jede aktuelle DAW! Auch wurde die allgemeine Kommunikation mit anderen DAWs und Audioprogrammen verbessert: Pro Tools 9 kann nun OMF/AAF/ MXF-Daten direkt importieren respektive eigene Audiodaten in diesen Formaten ausgeben. Dadurch ist eine weitgehende SessionKompatibilität mit Projekten möglich, die auf anderen Audiosystemen oder auch mit einem

84

Avid Media Composer erstellt wurden. Gerade für Interessenten, die bisher mit Apple Logic arbeiten, mag das ein wichtiges Argument sein, um den Umstieg auf Pro Tools zu wagen. Im Bereich der Mischung profitiert der Anwender nun von der Möglichkeit, die PanoramaTiefe und damit die Dämpfung zwischen der Mittel- und den Extrem-Stellungen der PanPotis zu definieren. Avid sieht hier verschiedene Preset-Tiefen vor, die sich an aktuellen

Postproduktions-Tool Mit dem 7.1-Panner ist man für Surround-Jobs gerüstet

Vorgaben für die Produktion im Stereo- und Surround-Bereich orientieren oder auch das Verhalten betagter Analogkonsolen imitieren. Apropos Konsole: Nachdem mittlerweile Euphonix zum Avid-Verbund gehört, beherrscht Pro Tools 9 auch das EuCon-Steuerprotokoll und ist damit direkt über die vergleichsweise günstigen Oberflächen der Artist- und MC-Pro-Serie bis hin zur High-End-Konsole System 5 steuerbar. Die Avid-eigenen D-Control-Oberflächen werden interessanterweise nicht direkt unterstützt.

Complete Production Toolkit 2 Damit ist Pro Tools 9 Native grob umrissen, wenngleich nicht abschließend beschrieben, denn Avid hat noch mehr zu bieten. Da wäre zum einen das Complete Production Toolkit 2, das deutlich macht, wozu Pro Tools 9 eigentlich fähig ist – vorausgesetzt, der Host-Computer spielt mit. Durch diese Option verdoppelt sich die Anzahl der Wiedergabe-Voices von 96 auf 192, die der Instrument-Tracks von 64 auf 128 und – für Video-Studios wichtig – anstelle einer Video-Spur werden nun 64 Video-Tracks

Starke Partner Die neuen Pro Tools HD-Interfaces wie HD I/O oder HD Omni sind nach wie vor erste Wahl für die AvidDAW

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

"QSJM

TEST | DAW AVID PRO TOOLS 9 NATIVE

&BSMZ #JSE 3BUF 3FHJTUFS VOUJM .BSDI UP SFDFJWF B EJTDPVOU

Mehr Feeling Mit im Avid-Boot ist seit neuestem auch der Controller-Hersteller Euphonix, dessen MixUmgebungen der Artists-Serie via EuCon-Protokoll mit Pro Tools 9 kommunizieren

*NNFSTJWF 5FDIOPMPHJFT

Fazit Pro Tools 9 Native ist eine Einladung zum Besserkennelernen. Avid erschließt sich mit der Rücknahme der Hardware-Blockade den weiten Markt an Usern, die sich vorher dem Diktat einer angeschlossen Audio-Hardware nicht beugen wollten und daher auf alter-

nativen Systemen arbeiten. Andersherum wagen Musikschaffende nun vielleicht den Schritt und entscheiden sich leichter für die wohl intuitivste DAW, die in puncto Editierung und Stabilität marktführend ist. In der Grundversion ist die Ausstattung von Pro Tools 9 Native angemessen, liegt auf Augenhöhe mit der Konkurrenz und bietet Erweiterungsmöglichkeiten, die zwar teuer, bei den Mitbewerbern jedoch nicht vorgesehen sind. Langjährige Pro-Tools-User werden von der neuen Software nicht wirklich überrascht, Neu-Interessenten sollten Pro Tools 9 jedoch in die enge Wahl nehmen. ❯ jb

8IBU CVTJOFTT JEFBT BOE SFTFBSDI SFTVMUT DMPTF UP NBSLFU QSFTFOUFE JO TIPSU QJUDIFT 8IP *OWFTUPST FOUSFQSFOFVST EFDJPO NBLFST BOE SFTFBSDIFST #FOF¾ UT 4UBSU 6Q 'JOBODJOH 3 % $PPQFSBUJPO -JDFOTJOH ,FZOPUFT +BTPO %FMMB 3PDDB 'PVOEFS PG 1FSJNFUFS 1BSUOFST 4BSJL 8FCFS 'PVOEFS BOE .BOBHJOH %JSFDUPS BU )BOTF 7FOUVSFT

Pro Tools 9 Native

Hersteller: Vertrieb: Internet :

Avid Avid Europe www.avid.com

*OGPSNBUJPO BOE SFHJTUSBUJPO BU XXX IFJEFMCFSHFS JOOPWBUJPOTGPSVN EF

Preise: Pro Tools 9: Upgrades: LE auf 9: M-Powered auf 9: auf PT 9HD:

ca. 606,95 Euro ca. 249,95 Euro ca. 350,95 Euro ca. 350,95 Euro

"O *OJUJBUJWF CZ

Complete Production Toolkit 2: ca. 2.022,95 Euro HD-Native-Karte: ca. 3.546,20 Euro HEAT-Option: ca. 499,95 Euro

*O $PPQFSBUJPO XJUI

Systemanforderungen: Macintosh: ab Mac OS X 10.6.2 (Snow Leopard, 32 Bit), 10.6.6 für 64-Bit-Betrieb Windows: ab Win Home 7 Premium, Professional oder Ultimate (64-Bit-Betrieb)

85

1SFNJVN 1BSUOFS

4QPOTPS

1BSUOFST

Anzeige

unterstützt. Auch erwirbt der Anwender die Möglichkeit, echte VCA-Gruppen im ProTools-Mixer zu bilden und zu steuern. Speziell im Betrieb mit einer externen Bedienoberfläche – wie den D-Controllern, die nun ebenfalls unterstützt werden – erscheint der VCAModus etwas komfortabler als die Steuerung über die herkömmliche Group-Funktion in Pro Tools. In diesem Zuge spendiert das Toolkit auch einen neuen 7.1-Panner mit DTS-HDKompatibilität, der den Klang von SurroundMischungen aufwerten soll: Für eine effektive Nutzung der Seitenkanäle müssen jedoch erst noch Anpassungen bezüglich der mehrkanalfähigen Avid- und Drittanbieter-Plug-ins vorgenommen werden. An Bord ist zumindest schon das Plug-in Neyrinck SoundCode Stereo, mit dem sich Surround-Mischungen auch auf Stereo-Systemen (wie der MBox) abhören und mischen lassen. Neben vollwertigen Funktionen zur Automation beinhaltet das CPT2 schließlich auch das X-Form-Plug-in, das ein artefaktfreies Timestretching und Pitch-Shifting des Audiomaterials erlaubt und speziell für die Funktionen Elastic Time/Pitch sowie für den Befehl „Edit to Timeline Selection“ benötigt wird, der das Audiomaterial an den gewählten Zeitabschnitt im Edit-Fenster anpasst. Grundlegend ist das Complete Production Toolkit 2 kein Muss für den normalen Betrieb. Wer jedoch eine wirklich professionelle DAWUmgebung sucht, wird an der vergleichsweise hohen Investition für das CPT2 kaum vorkommen. Außer natürlich, er entscheidet sich für den „alten“ Weg und kauft ein HD-fähiges Pro-Tools-System – denn die gibt es natürlich weiterhin. In diesem Fall stehen ihm die unwesentlich teurere HD-Native-Karte (siehe Kasten) oder aber die hinlänglich bekannten HD-DSP-Karten zur Verfügung: Der Funktionsumfang der Software ist hier automatisch am Limit und zudem profitiert der Anwender von der nahezu latenzfreien I/O-Verwaltung über den TDM-Mixer – für Recording-Studios eigentlich ein Muss.


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

D

86

„Jetzt weiß ich, wie es geht, Pina“ Ursprünglich sei es ein spontanes Ansinnen von Wenders an Pina Bausch gewesen, schon Mitte der 80er Jahre, gemeinsam einen Film zu drehen. Unüberwindbar erschien jedoch stets die filmische Umsetzung dieses Tanztheaters, so dass die Frage nach der Verfilmung „allmählich so eine Art ‚running gag’“ zwischen beiden geworden war, so Wenders über das Projekt bei einer Podiumsdiskussion 2010 im Rahmen des Medienforums Film.

ON TOUR

Erste Testaufnahmen

Fotos: © NEUE ROAD MOVIES GmbH, photograph by Donata Wenders

och bereits im Vorfeld war die Umsetzung des Filmprojektes fraglich, schien eigentlich unmöglich. Denn der überraschende Tod von Pina Bausch kurz vor den ersten Probeaufnahmen im Juni 2009 stoppten zunächst das Projekt, das bereits zwei Jahre Vorbereitungszeit in Anspruch nahm. Als Wenders den Entschluss fasste, dennoch fortzufahren, und nun einen Film – statt mit ihr – über Pina Bausch und ihre Arbeit zu drehen, war eine Neukonzeption des Filmstoffes erforderlich.

GUIDE

Erst in der neuen 3D-Technik erkannte Wenders die Chance, die Ausdrucksvielfalt dieses Tanztheaters ins Kino zu transportieren: „Gerade das Tanztheater der Pina Bausch hat eine solche Freiheit und Freude, und ist so lebendig, ich wusste wirklich nicht, wie man das adäquat filmen sollte – bis ich eines Tages das neue digitale 3D gesehen habe. Da habe ich Pina noch aus dem Kino angerufen: ‚Jetzt weiß ich, wie es geht, Pina.’“

Arthaus in 3D

Am 24. Februar dieses Jahres startete Wim Wenders neuester Film „Pina“. Der weltweit erste 3D-Arthaus-Film entführt den Zuschauer in die faszinierende Ausdruckswelt des Tanztheaters Wuppertal Pina Bausch. Die Bewegungen der Tänzer unter den realen Bedingungen einer Aufführung stereoskopisch einzufangen, stellte das Team vor einige technische Herausforvon Sabine Hatzfeld derungen.

MAKING OF

Wenders nahm die Dreharbeiten im Sommer 2009 auf. Doch zunächst stieß er mit der neuen Technik auf einige gravierende Probleme: „Die ersten Testaufnahmen waren erschreckend. Wir haben schnell begriffen: Alle Fehlerquellen vom 2D-Film potenzieren sich auf 3D. Wenn man mit Tänzern auf der Bühne schwenkt, kann es schnell passieren, dass das Bild stroboskopisiert, also unnatürlich ruckelt“, erklärte Wenders und fährt fort: „Jede schnelle Armbewegung eines Tänzers produzierte den Eindruck, als sähe man für einen Bruchteil einer Sekunde zwei, drei oder vier Arme. Film gibt ja auch nicht jede Bewegung auf der Leinwand flüssig wieder, nur haben wir uns praktisch angewöhnt, das nicht mehr zu bemerken. Bloß in 3D war jeder optische Fehler plötzlich dick und fett zu sehen.“ Doch die naheliegende Lösung, mit 50 Bildern pro Sekunde zu drehen statt mit den üblichen 24, scheiterte am Institut in Amerika, das für diese Norm zuständig ist. Auch wenn die Aufnahmeresultate mit 50 fps überzeugten, war an eine Abspielung im Kino nicht zu denken. So gesehen hatte Wenders dasselbe Problem wie einst James Cameron mit „Avatar“.

Dreharbeiten im Theater „Pina“ wurde in zwei Drehblöcken Ende Oktober 2009 und Mitte April 2010 in Wuppertal gedreht. Im ersten Drehblock wurden die Stücke „Café Müller“, „Le Sacre du Printemps“ und „Vollmond“ auf der Bühne des Wuppertaler Opernhauses live vor Publikum in ihrer gesamten Länge aufgenommen. Für diese LiveAufzeichnungen war eine detaillierte Vorbereitung erforderlich, denn der enge weltweite Tourneeplan des Tanztheaters ermöglichte nur ein kleines Zeitfenster für die Aufzeichnung der Inszenierungen. Neben der 3DAufzeichnung stieg die Herausforderung mit der Live-Situation deutlich, da die bis zu drei Stunden dauernden Aufnahmen der Stücke nicht beliebig unterbrochen oder wiederholt werden konnten. Zudem durften die Tänzer während des Drehs bei ihrer Arbeit nicht gestört werden, gleichzeitig wollte Wenders möglichst nah an sie heran. Die Lösung bestand im Einsatz

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

eines Teleskopkrans, der im Zuschauerraum aufgebaut wurde, „ein ferngesteuertes Monster“, so Wenders, welchem die Tänzer später liebevoll den Namen „Dinosaurier“ gaben.

INTERVIEW | FLORIAN RETTICH – PINA

Arbeitsfoto 3D-Dreharbeiten zu „Pina“ mit Kameratechnik der Produktion

Vorbereitung für den Dreh In Zusammenarbeit mit dem 3D-Supervisor Francois Garnier wurde zudem ein System entwickelt, um eine 3D-Live-Aufzeichnung möglich zu machen. „In der Vorbereitungsphase bediente sich das Team eines Grundrisses des Theaterraums, auf dem ein virtuelles Schachbrettmuster den Bühnenboden und den Zuschauerraum in Quadranten einteilte, sowie eines Winkelmessers, der dem Sichtwinkel des für eine bestimmte Szene geplanten Kameraobjektivs entsprach“, erinnert sich 3D-Producer Erwin M. Schmidt. Anhand von Video-Aufzeichnungen der einzelnen Tanzstücke war es Wenders und Garnier so möglich, einen detaillierten Ablaufplan zu schreiben. In diesem war festgehalten, welchen Ausschnitt die Kamera zu

welchem Moment im Stück erfassen sollte, und in welchem Quadranten und auf welcher Höhe sich der Krankopf dafür befinden musste. Während der Ablaufproben und Aufnahmen wurden diese Angaben per Funkverbindung an die jeweiligen Teammitglieder weitergegeben.

Verwendete Kameras Die verschiedenen Rigs, die beim Dreh von „Pina“ zum Einsatz kamen, waren allesamt Prototypen, die für den Dreh unter anderem vom Stereographen Alain Derobe umgebaut und optimiert wurden. „Die beiden Kameramodelle stammen von Sony und waren einerseits große Studio-Kameras (HDC-1500) für den Einsatz auf dem teleskopischen Kran, und andererseits baugleiche, aber kleine und mobile Einheiten (HDC-P1) für die Steadicam. 3D erlaubt einen recht beschränkten Brennweiteneinsatz, bei weitwinkligen Objektiven entstehen Verzerrungen, bei langen Brennweiten entsteht ein Scherenschnitt-Effekt, die Gegenstände verlieren ihr Volumen und wirken flach“, erklärt Schmidt. Nach ausführlichen Tests beschränkte sich das Team auf drei Objektive, Digiprimes mit Brennweiten von 10 mm, 14 mm und 20 mm. „Da das Wechseln der Objektive in einem 3D-Rig wegen der erforderlichen Justierung und Kalibrierung zeitaufwendig ist, war die Brennweite für

jede einzelne Szene bereits vor Drehbeginn klar festgelegt. Die Kalibrierung des Rigs und Kontrolle des 3D-Effekts geschah am Set mittels eines speziellen 3D-Monitors von Transvideo, der die Bilder beider Augen (Kameras) anaglyph überlagert darstellt, so dass der Versatz zwischen den beiden Bildern der rechten und linken Kamera pixelgenau sichtbar ist“, so Schmidt abschließend.

Außenaufnahmen Im zweiten Drehblock zeichnete das Team mit „Kontakthof“ ein weiteres frühes Stück von Pina Bausch auf, diesmal ohne Publikum. Für die Soli der Tänzerinnen und Tänzer des Ensembles verließ die Produktion danach den begrenzten Raum der Bühne und inszenierte auf öffentlichen Plätzen, in Industrielandschaften, in der weitläufigen Natur des Bergischen Landes und in der Wuppertaler Schwebebahn. Technisch möglich wurde der zweite Teil der 3D-Dreharbeiten durch ein eigens für den Film entwickeltes kompaktes 3D-Steadicam-System. DP sprach mit DIT Florian Rettich über seine Arbeit an diesem ambitionierten Film. DP: Hallo Herr Rettich. Sie haben „Pina“ im klassischen 24-fps-Modus gedreht. Mit welchen Problemen sahen Sie sich konfrontiert? Florian Rettich: Wir hatten mit einer hohen Bewegungsunschärfe zu kämpfen. Wir haben zwar versucht, das über die Belichtungszeit in den Griff zu bekommen, aber unsere Tests waren nicht von Erfolg gekrönt. Eine kürzere Belichtungszeit hätte wieder andere Probleme verursacht und visuell die Sache nicht angenehmer gemacht. DP: Was haben Sie stattdessen versucht? Florian Rettich: Wir konnten das Problem leider nicht wirklich lösen. Also haben wir unsere Arbeitsweise daran angepasst. Wir veränderten die Einstellungsgrößen und

87


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Aktion Dreharbeiten zu „Pina“, hier mit Kamerafrau Hélè ne Louvrart

die Blickrichtung der Kamera. Ein Beispiel: Wenn Tänzer von links nach rechts über die Bühne laufen, führt das nicht zu flüssigen Bewegungen. Da ist es besser, sie diagonal zur Kamera aufzunehmen. DP: Man bräuchte mehr Bilder pro Sekunde ... Florian Rettich: Genau. Und gleichzeitig einen 3D-Distributionsstandard, der mehr Bilder pro Sekunde auch im Kino zeigt. So wären zum Beispiel 50 oder 60 Bilder pro Sekunde pro Auge einfach besser. Es gibt zwar Entwürfe für Standards, die seit mehreren Jahren diskutiert werden. Die Frage ist aber, wann sie Realität werden. Für unseren Film hat es sich nicht rentiert, darauf zu warten. DP: Die Lichtverhältnisse bei Theateraufnahmen unterscheiden sich deutlich vom Filmlicht. Wie sind Sie damit umgegangen? Florian Rettich: Wir haben ja in das gestalterische Konzept des Tanztheaters nur wenig eingegriffen. Das Theaterlicht ist in den meisten Fällen sehr kontrastreich. Das ist naturgemäß für eine elektronische Kamera kritisch, denn der Kontrastumfang der von uns verwendeten Kameras ist nach wie vor eingeschränkt. Wir haben uns für Sony-Kameras entschieden, denn diese verfügen über eine spezielle Gammakurve, die man laden konnte. Das hat den Umgang mit dem hohen Kontrastumfang deutlich erleichtert. DP: Haben Sie im Theater ausschließlich live aufgenommen? Florian Rettich: Fast immer. Hier waren auch stets mehrere komplette Durchläufe mit dem Kran auf der rechten und linken Seite der Bühne erforderlich. Aber es bestand auch die Möglichkeit, einzelne Einstellungen ohne Publikum nachzudrehen. DP: Die Aufführungen der Tanzstücke dauern bis zu drei Stunden. Wie konnten Sie eine möglichst lange Aufnahmedauer gewährleisten? Florian Rettich: Vor zwei Jahren waren die

88

Laufzeiten bei Karten oft auf circa 10 bis 15 Minuten begrenzt. Das war aber nicht das einzige Problem. Man muss das Material ja wieder anfassen, um eine Archivkopie beziehungsweise ein Kameraoriginal zu erhalten, mit dem man weiterarbeiten kann. Das stellte für mich ein Ausschlusskriterium dar, denn bei den anfallenden Mengen à zwei Units à zwei Kameras hätte das den Kostenrahmen gesprengt. Wir haben uns deshalb für ein klassisches Aufzeichnungsmedium entschieden, nämlich HDCam SR. Damit waren mit

Dreh Hélè ne Louvrart, Wim Wenders mit Tänzern des Ensembles von „Le Sacre du Printemps“

zwei Kameras auf einer Kassette etwas über eine Stunde an Aufzeichnungszeit möglich, so dass wir einen Wechsel meistens nur in einem Akt durchgeführt haben. DP: Das Publikum hat von Ihrer Arbeit gar nichts mitbekommen. Florian Rettich: Ja. Wenn man auf Film gedreht hätte, hätte man den Kran für einen Magazinwechsel nach unten schwenken und die Kameras umlegen müssen. Eine abgesetzte Aufnahmeeinheit brachte für die Aufzeichnungssituation und Qualitätskontrolle viele Vorteil. DP: Können Sie das noch näher erläutern? Florian Rettich: Ich habe nach einer Lösung gesucht, wie ich sowohl Signalübertragung als auch Stromversorgung und Fernbedienung möglichst sicher und einfach gewährleisten

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

INTERVIEW | FLORIAN RETTICH – PINA

kann, auch wenn mein Video Village 150 Meter von den Kameras entfernt lag – dazwischen war ja das Publikum. Die Sony-Kameras bieten ein integriertes Glasfaserinterface mit an, so dass sich längere Strecken stabil und ohne Verluste übertragen lassen. DP: Wie haben Sie die Kameras eingesetzt? Florian Rettich: Für die Theateraufzeichnung haben wir fast durchgehend mit zwei Units gearbeitet, die Main Unit war fast ausschließlich auf dem Teleskopkran untergebracht, die Second Unit war entweder auf einem Dolly für kleinere Phasen oder stationär für andere Perspektiven untergebracht. Es gab auch Einstellungen, in denen wir mit Steadicam auf der Bühne gearbeitet haben, was ein experimentelles Unterfangen war. Die Tänzer laufen ihre gewohnten Wege und man musste aufpassen, dass sie nicht über Kabel stolpern oder mit dem Kameramann zusammenstoßen. DP: Für den Außendreh kamen ausschließlich Steadicams zum Einsatz? Florian Rettich: Das ist richtig. Oft haben wir lediglich mit einer Unit gearbeitet. Diese Aufnahmen entstanden im zweiten Drehblock, im Frühjahr 2010. Da konnten wir schon auf kleinere Kameras zurückgreifen – unser erster Steadicam-Versuch war da etwas sperriger. Im Außendreh haben wir zudem sehr viel selbst entwickelt, wie eine spezielle Stromversorgung am Rig und für das Recording oder die Signalübertragung. Zusammen mit C-Motion haben wir außerdem das LensControl-System optimiert. DP: Wer stand hinter den Eigenentwicklungen? Florian Rettich: Es gab damals keine kommerziellen Anbieter von Kamera-Rig-Systemen, also entwickelte Alain Derobe für alle

Steadicam-Aufnahmen Beim Dreh mitten im Geschehen musst e man achtsam sein und das Kabel hochhalten, damit kein Tänzer darüber stolpert

Aufnahmen im Theater eigene Rigs. Für die großen Kameras, die HDC-1500, hatten wir ein System, das Philippe Bordelais entwarf. Beide Systeme wurden später an P+S Technik verkauft. Für die Außenaufnahmen mit der HDC-P1 kam ein Rig von Günter Peschke zum Einsatz, das ich zusammen mit Christian Meyer, dem ersten Kameraassistenten, für die Steadicam modifizierte. DP: Können Sie uns noch etwas zum Workflow sagen? Immerhin mussten Sie bis zu 12 Stunden Aufnahmematerial täglich handeln. Florian Rettich: Wir haben parallel auf Band und einem Festplattensystem aufgezeichnet. Damit konnten wir die Schnittfassung für den Avid Media Composer generieren sowie die Mustervorführungen zeitnah beliefern, die abends in einem kleinen 3D-Kino im Theater stattfanden. Der Schnitt wurde bereits parallel zu den Dreharbeiten vorbereitet. DP: Freuen Sie sich schon auf den Film?

Florian Rettich: Oh ja. Meine Funktion war ja primär technischer Natur, so dass ich mich anfangs gar nicht so sehr mit Inhalten beschäftigen konnte. Zudem haben wir ohne klassisches Drehbuch gearbeitet, was für mich Neuland und sehr spannend war. Im Nachhinein kann ich sagen, dass mich selten ein Projekt so sehr in seinen Bann gezogen ❯ sha hat wie „Pina“.

Florian Rettich Der Digital Imaging Technician betreute Technik und Workflows bei „Pina“. Momentan arbeitet er in dieser Funktion an der Kinderbuchverfilmung von Cornelia Funke, „Als der Weihnachtsmann vom Himmel fiel“. Anzeige

14 – 18 March 2011 www.insightout-training.net

INSIGHT OUT / HFF Academy is Europe’s leading training course on d-cinema and HDTV – since 2005!

HFF Film & Television University “Konrad Wolf” Potsdam-Babelsberg, Germany

Discover the entire workflow with lectures, hands-on workshops, visits, discussion panels and show cases. For example Alain Derobe on 3D in “PINA” from Wim Wenders.


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Postproduction-Tanz mit SGO Mistika Es ist kein leichtes Unterfangen, eine fast unbekannte Software fair in ihren Stärken und Schwächen zu beurteilen. Christian Tröger versucht es dennoch. Für DIGITAL PRODUCTION schildert er seine praktischen Erfahrungen mit dem System Mistika von SGO anhand von zahlreichen Beispielen wie etwa Wim Wenders neuestem S3D-Werk „Pina“. Profis wie Einsteiger nimmt er dabei auf eine praxisnahe Reise des Profitools mit, das sich nicht nur auf Online- und von Christian Tröger Finishing-Arbeiten beschränkt.

D

as Digital Intermediate brachte ein Berufsbild mit sich, das man heute auch als „DI Conform and Finishing Artist“ bezeichnet oder umgangssprachlich „Onliner“ nennt. Dieses entstand aus den digitalen Möglichkeiten, Arbeitsschritte eines Fertigungsprozesses parallelisieren zu können. Was in der Praxis bedeutet, dass Colouristen, Compositing-Artists, Motion-Grafik-Designer oder auch noch der Cutter gleichzeitig am selben Projekt arbeiten können. Diese Form der Arbeitsteilung ist eine Gradwanderung zwischen Qualitätsanspruch, Fachwissen und Timing, ohne bei

90

einem dieser Bereiche Kompromisse eingehen zu müssen. Postproduction Supervisor, Inhouse Producer, Regie sowie Producer tanzen auf all diesen Baustellen: organisieren, planen, koordinieren und leiten die einzelnen Schritte. Je mehr Abteilungen und Fachkräfte gleichzeitig an einem Projekt arbeiten, um so mehr zerteilt sich jener Job in immer kleinere Segmente. Ein Onliner betreut diesen Verwaltungsprozess operativ, direkt in einer Timeline und am offenen Bild. Im Optimalfall ist der Film in seinem aktuellen Stand aller Departments und am Stück zu sehen.

Firmen, in denen Projekte auf spezialisierte Artists und Departments aufgeteilt werden, benutzen deshalb Systeme wie Baselight, Quantel eQ/iQ, Autodesk Smoke, Avid DS oder auch Mistika von der Firma SGO. In den meisten Unternehmen werden diese Systeme vorrangig für das Tagesgeschäft angewendet: vom HD-Capturing angefangen, über kleinere Compositings und Paint-Aufgaben, hin zu Endcharts, Title-Animationen, Colormatching, Versioning und Mastering. Neu dazugekommen ist das Bearbeiten von StereoInhalten. Und das fällt in den meisten Fällen in die Hände der Colouristen oder Onliner. Auf

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

SGO | MISTIKA

Ausgangspunkt Timeline nach dem Conform, vorbereitet für ein Stereo-Projekt

duktionsprozess. Weil die Entwicklung des Systems im letzten Jahr stark in Richtung S3D ging, war für uns immer klar, dass wir auch für den neuen Stereo-3D-Film „Pina“ von Wim Wenders mit Mistika arbeiten werden.

Conforming Per EDL oder AAF und mit entsprechender Referenz als mov- oder MXF-Datei conformt man in Mistika das jeweilige Projekt mit den hochaufgelösten Daten in die Timeline. Der Conform wird je nach Produktion mit von Film gescannten DPX-Dateien, von HDSR-Bändern oder von R3D-Files gefahren. Auch DnxHD, ARRI raw, QuickTimes ProRes und diverse andere Formate werden nativ und meist in Realtime unterstützt. Mistika arbeitet ausschließlich im SAN und verlinkt sich mit den Bildern nur aufgrund ihrer Metadaten wie Ort, Header, dem Namen oder sonstigen Eigenschaften.

Bilder: Donata Wenders

Conforming bei „Pina“

jeden Fall aber wird es an ihren Arbeitsgeräten ein eigener Arbeitsschritt werden, den man im Timing berücksichtigen muss. Ab nun möchte ich das Blickfeld auf die Software Mistika richten. Seit 2006 haben wir die Software bei PICTORION das werk für über 20 Spielfilme (unter anderem „Keinohrhasen“, „Palermo Shooting“, „Goethe!“ oder „Live, Above All“) erfolgreich für die kompletten Online-Arbeiten, das Conforming sowie Finishing eingesetzt. Zusammen mit Sven Heck bin ich dort für das Finishing-Department verantwortlich und begleite Spielfilme durch den Postpro-

Am Set von „Pina“ entschied man sich für Dual-Capturing auf HDSR sowie ein MXFRendering für den Schnitt. Das Kommunikationsformat zwischen Offline und Online war das bewährte CMX-3600. Auf Grund des engen Zeitrahmens hatten wir uns entschieden, schon zwei Wochen vor dem Picturelock mit dem „Aufsetzen des Datenpools“ zu beginnen. In Mistika haben wir dafür eine A-Modus-Sortierung des maximal zu erwartenden Materials für den gesamten Film gemacht und alles nativ in HD-YUV 10bit von den 131 benutzten Bändern eingeladen. In dieser Timeline haben wir auch alle Flips und Flops des Mirror Rigs gesetzt, um dann den Datenpool in 1920 x 1122 zu erstellen (3,4 TB). Ausgehend von diesem Datenpool im SAN konnten dann alle Systeme gleichzeitig arbeiten. Das untypische Format ergibt sich aus der 1080er-Höhe des Materials und einer maximalen Framing-Möglichkeit zwischen

1:1,78 und 1:1,85. So konnten wir sichergehen, dass nie die originale Kadrierung unter einem Kasch verloren geht. Dies ist eine Variante der Qualitätssicherung des Originalbilds für spätere Deliveries, welche oft erst Monate nach der Endfertigung auf uns und den Kunden zukommen.

Timeline-Handling Die einzigartigen Möglichkeiten in Mistika zeigen sich bereits beim ersten Kontakt: OpenDesktop und Gesture-Editing sind hier die Schlagwörter. Vermutet man dabei vielleicht Chaos-Potenzial, wird man vom Gegenteil überrascht: Mistikas Stärke sind komplexe Jobs und Timelines von Langformaten und allem, was sehr viele Ausspielungen oder Versionen hat. In allen vier Himmelsrichtungen ist die Timeline unendlich, nur die Richtung des (vorwärts) Abspielens sowie ein Marker, welcher der Timeline den Timecode gibt, sind unveränderliche Bezugspunkte. Die vielen Freiheiten in Sachen Selbstorganisation innerhalb der Software erlauben einem, komplette Spielfilme oder komplexe On-AirPromotion-Kampagnen in einer Timeline samt Clean-Versions, Sprachfassungen oder Deliveryformats zu sammeln (inklusive ihrer Setups und immer in Bezug auf ihre nativen Daten, den Datenpool auf dem SAN).

Timelinehandling bei „Pina“ Während der drei Monate andauernden Postproduktionsphase gab es immer wieder erneute Sichtungen der Mistika-Timelines. Dies geschah unter verschiedenen Gesichtspunkten und mit anderen Personen. Dephtgrading mit Alain Derobe, Framing mit Wim Wenders, Gestaltung der DCP-Untertitel, VFX-Besprechungen oder einfach nur Zwischenabnahmen waren an der Tagesordnung. Alles was an Informationen dabei anfiel, wurde direkt in der Mistika-Timeline notiert. Das Tool dazu nennt sich „Note“ und ist aus einer direkten Zusam-

91


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Dual-Monitor-Setup „Pina“-Timeline vom vierten Akt. Links Open Desktop, rechts Grafik-Output des Timeline-Cursors

Compositing Links Layercompositing in der Timeline, rechts die Ansicht des „Compositor Mode“

menarbeit mit SGO und PICTORION das werk entstanden. Es ist eine logische Konsequenz der Open-Desktop- respektive der TimelineIdee und gab uns die Möglichkeit, in dieser lückenlos alles zu kommentieren, was bei den Sichtungen und Abnahmen an Kommentaren anfiel. Die Notes werden direkt an die Punkte der Timeline gelegt, die sie betreffen. Noch mehr Spaß macht Graffiti. Es erlaubt direkt in der Timeline zu malen, Dinge einzukreisen oder kleine handschriftliche Notizen zu hinterlassen (für die Nachtschicht zum Beispiel). Diese Art der Informations-Konservierung unterstützt besonders die Inhouse-Producer („was war noch mal bei diesem Bild gewünscht?“) und hilft dem Onliner, immer alle Informationen parat zu haben.

Compositing Wo andere Systeme ihre Nested Layers, History Clips und Action Setups haben, um sich zu sammeln und zu sortieren, arbeitet Mistika in Level-Ebenen. Öffnet sich eine Timeline ist man auf Level 0, geht man in eine Group hinein, landet man im Level 1. Von dort aus hat man wieder uneingeschränkte Freiheiten. Im Compositing geht Mistika den Weg des „layer-based-compositing“, auch auf Grund des GUIs. Gespeichert wird alles (Tracking, Framing, Farbkorrektur usw.) direkt am Clip und in den jeweiligen Environments (so heißen in Mistika die Timelines). Die Grenzen von Mistika-Compositing-Funktionalitäten sind

92

klar zu erkennen. Zwei globale und je eine Layer-Achse müssen ausreichen, um im 3DRaum das Compositing zu machen. Tracker, Keyer und Rotoscoping gehören zwar mit zum Standardrepertoire, ein Node- oder DesktopCompositing-Artist wird jedoch nicht glücklich werden.

Compositing bei „Pina“ Neben einigen Hero-Shots des Films, welche lang vorher geplant und mit Kalle Max Hofmann am Flame umgesetzt wurden, fielen noch diverse kleine Arbeiten während der Fertigstellung an – hier eine Mikroretusche, da ein Tracking. Viele Arbeiten wurden direkt in der Mistika-Timeline gelöst. Eine hübsche Idee war, Blenden teilweise zu Compositings umzubauen, in denen einzelne Elemente des Bildes länger stehen bleiben konnten oder schon früher zu sehen waren als der Rest des Bilds. Das wirkt sinnvoll genutzt spannend und kitzelt das Auge des Zuschauers auf ungewohnte Weise, besonders in Stereo. Jedes Compositing, was im Mistika gemacht wurde, funktioniert automatisch als StereoSetup. Als Anwender muss man also nicht groß umdenken.

Paint und Optical Flow Paint in Mistika nennt sich Vector Paint und ist wie alles erst einmal nur ein Setup. Das bedeutet, dass jeder Pinselstrich, jeder Stempel

oder Kopiervorgang nie ins Bild gebrannt wird (außer beim finalen Rendering). Dabei wird jeder Stift/Tablett-Kontakt als ein eigenes Shape (ein Vector) gespeichert, welche man einzeln anfassen, verschieben oder löschen kann. Das findet seine Anwendung beim Dust Busting (Schmutzretusche) für Feature Film oder beim Painten im Compositing. Im Paint wird unter anderem das Mistika-eigene Optical Flow verwendet, um von einem errechneten (virtuellen) Hintergrundbild per „Reveal“ Fehler im Bild (Dropouts, Staub und Ähnliches) einfach wegzuradieren. Timewarp, Framerepair, Denoise und der Stereo-3DWarper (um das Tiefen-Layering zu beeinflussen) benutzen ebenfalls die intelligente Bewegungserkennung, um ungesehen ins Bild eingreifen zu können.

Paint und Optical Flow bei „Pina“ Wichtige Interviewszenen der Tänzer inszenierte Wim Wenders ungewohnt intim als Nahaufnahmen und schweigend in die Kamera blickend. Die Stimmen dazu kommen aus dem Off. Um die gewünschte Beleuchtung am Set realisieren zu können, musste die Wand hinter ihnen sehr weit weg gestellt werden. Betrachtet man das unbehandelte Bild, entsteht deshalb ein großer nicht gewollter Raum zwischen den Portraits und der Wand, was gegen die Idee der Intimität arbeitet. Der Stereo Warper von Mistika konnte in diesem Punkt helfen. Aus der Konvergenz des Au-

WWW.DIGITALPRODUCTION.COM


SGO | MISTIKA

Bilder: Donata Wenders

AUSGABE 02|11

Depth Grading Convergeny Graph und Stereoscopy Toolset

genpaares ließ sich ein Warping errechnen, mit dem der Hintergrund wieder näher an die Tänzer heranzuholen war, ohne die Tänzer selbst nach vorne kommen zu lassen. Die Neuberechnung der Pixel machte dabei Mistikas Optical Flow. Derselbe Trick kam zum Einsatz, als wir Bühnenscheinwerfer, welche sich weit hintern auf der Bühne befanden (und damit eine große Konvergenz mit sich brachten), näher an die Leinwand-Ebene heranholten. Neben Conforming und Finishing sind das Farbkorrektursystem und die Stereo3D-Bearbeitung die zwei großen Stärken der Software. Die Farbkorrektur unterscheidet zwischen Primary und Secondary, hat eine für Colouristen typische GUI mit Rädern und Bällen und kann mit Tangent Devices als Panels betrieben werden. Um einem das Grading zu erleichtern, kann man auf Speicherbilder zurückgreifen und sich die Timeline als Filmstreifen mit Thumbnails darstellen lassen. Softwareseitig kommen vier Waveformer zum Einsatz (Vektorscope, RGB Histogramm, RGB Waveform und LUMA Waveform). Der Stereo-3D-Bereich besitzt eine Halbautomatik, mit der sich Kamera und Rig-Probleme korrigieren lassen, sowie alle üblichen Features, um ein echtes Depth Grading zu machen.

Im Detail Die Fix-Vectoren des Farbkorrektur-Menüs

Finale Szene Bei der Farbkorrektur half u.a. auch Resolve von DaVinici

Depth Grading bei „Pina“ Bei der Postproduktion von „Pina“ gab es drei wichtige Punkte, für die sich viel Zeit genommen wurde. Farbkorrektur inklusive Colour Matching am Resolve (Moritz Peters), Stereo Compositing am Flame (Kalle Max Hofmann) und das Depth Grading am Mistika, welches von mir durchgeführt wurde. Auf jeden System findet man einen anderen Ansatz S3D zu bearbeiten, richtig oder falsch gibt es da erstmal nicht. Mistika arbeitet zum Beispiel nicht nach dem sogenannten HeroPrinzip, bei dem angenommen wird, dass ein Bild richtig ist und das andere angepasst werden sollte. Mit dem „Stereo-3D“-Effekt werden die beiden Clips immer zueinander bearbeitet, gedreht, verschoben oder skaliert. Mistika kennt diverse Arten um Stereo anzuzeigen (Differenz, Dual-Out, Anaglyph, Side-by-Side). Wir haben beim Arbeiten festgestellt, dass es sinnvoll ist, gleichzeitig auf dem Grafikmonitor in Anaglyph zu arbeiten, während wir in Dual-HD Stereo auf die Leinwand projizieren (was natürlich nur mit den Polfilterbrillen zu sehen war). Technische Details konnte man so am anaglyphen Bild sehen und verstehen, und den optischen Eindruck gleichzeitig als große Projektion auf sich wirken lassen. Als besonders nützlich stellte sich dabei Mistikas

„Convergency Graph“ heraus, da ein Großteil der Post-Stereo-Choreographie darauf abzielte, einen bestimmten Pixel-Offset nicht zu überschreiten oder ihn für Personen im Umschnitt zu halten. Mit ihm konnte man einzelne Objekte und deren Verteilung im Raum erkennen, messen und gegebenenfalls korrigieren. Nach viel Arbeit und diversen Reviews als DCP in echten Kinosituationen nähert man sich dem gewollten Stereo-Eindruck. Man spürt mit jedem Screening, dass der Film runder wird. Depth Grading beinhaltet zum Großteil technische Entscheidungen. Es braucht allerdings viel Ruhe und Erfahrung, um den Zuschauer ein angenehmes Bild zu servieren und mit den Möglichkeiten, die Stereo bietet, spielen zu können.

Fazit Mistika ist alles in allem eine echte Alternative zu den bekannten Riesen auf dem Markt. Das Tool wird sicherlich noch seinen Weg in das ein oder andere deutsche Postproduktionshaus finden. Preislich hebt sich die Software nicht stark von seiner Konkurrenz ab und der OperatorPool ist in Europa recht übersichtlich. Es bleibt abzuwarten, wie sich der Mark entwickelt. In London befinden sich sieben 4KStereo-3D-Suiten und Parkroad Neuseeland hat sich gerade eine Stereo-Suite mit Mistika eingerichtet. Bei PICTORION das werk verfügen wir über zwei gut ausgestattete HP-Z-800 Workstations in aktueller Intel-Six-Core-Ausstattung mit je 32GB RAM. Angebunden sind die Rechner per 4-fach Fibre-Channel ans 50 TB SAN. Gearbeitet wird auf zwei 2K Grafikmonitoren. Eines der beiden Systeme ist außerdem noch mit der aktuellen Atomix-Karte von DVS ausgerüstet und gibt so das Videobild an die ❯ jb Stereo-Projektion. Der Autor Christian Tröger arbeitet seit 2003 bei PICTORION das werk und ist dort als DI Conform und Finishing Artist tätig. Weitere Infos: (www.imdb. com/name/nm2806902/)

93


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Im Tal der gesetzlosen Animation Im Gegensatz zu den Wasserspielen in der Südsee hat sich „Pirates of the Caribbean“Regisseur Gore Verbinski mit „Rango“ diesmal deutlich trockenere Gefilde ausgesucht. Im Western-Stil reitet er zusammen mit VFX-Schmiede Industrial Light & Magic dem ersten Animation-Feature des Studios entgegen. Und als unerschrockene CGI-Outlaws schreiben sie dabei ganz einfach ihre eigenen Gesetze in Sachen Animationstechnik. Den Mainstream sucht man unter der gleißenden Sonne von Dust City vergeblich, dagegen von Barbara Robertson gibt es Staub und schäbige Banditen en masse.

ereits am Südsee-Set von „Pirates of the Caribbean“ schwirrte Gore Verbinski die fixe Idee von einem AnimationFeature im Kopf herum. Visual Effect Supervisor John Knoll und Animation Supervisor Hal Hickel beauftragte er deswegen, sich darum zu kümmern, die Performances von Johnny Depp, Bill Nighy und anderen Akteuren zu capturen. „Bei ‚Pirates’ waren wir fast schon dem Wahnsinn nahe, um alles zu stemmen“, erinnert sich Hickel heute zurück. „Er freundete sich also immer mehr mit der Idee an, nicht ein weiteres Mal von dieser ganzen SetLogistik einer Südsee-Location übermannt zu werden. Heute wissen wir allerdings, dass selbst ein Animation-Feature seine speziellen logistischen Ansprüche hat.“ Diese Schlussfolgerung fällt ihm heute leicht, denn Verbinski hielt Wort. Als Drehbuchschreiber, Regisseur sowie Producer ist er maßgeblich dafür verantwortlich, dass „Rango“ nun die Kinoleinwand unsicher macht und für grün-chaotische Akzente in der tristen Wüste sorgt. Der Film ist ein waschechter Vertreter des Spaghetti-Westerns. Und natürlich spielt er in einem staubigen, elenden Ödland. Den Kultfilmen Marke Sergio Leone modelliert man so ein kleines digitales Denkmal. Naja,

B

94

ein paar Unterschiede gibt es dann doch noch: Die skurrilen Protagonisten entspringen der Fauna, die tierischen Hauptdarsteller benehmen sich allerdings wie menschliche Vorbilder. Crash McCreery, der bereits als fantasiereicher Creature Concept Artist bei „Pirates of the Caribbean: Dead Man’s Chest“ fungierte, zeichnete federführend für die Character in „Rango“ verantwortlich. Mit in den Sonnenuntergang des aufwendigen Produktions-Showdowns galoppiert unter anderem im Originalton der charismatische Johnny Depp, der Chamäleon Rango seine Stimme leiht oder Bill Nighy, der die Synchronstimme von Rattelsnake Jake zischelt, nicht zu vergessen die draufgängerische Bande an 325 Mitstreitern bei ILM. Bereits im Sommer 2007 setzten sich Verbinski mit Knoll und Hickel für die erste Konzeptionsphase zusammen. Im Februar 2008 wurde dann das Drehbuch finalisiert und so konnte ILM im September mit den Modelern beginnen, die ersten Characters in Form zu bringen. „John und ich genossen die Zusammenarbeit mit Gore“, erläutert Hickel. „Es war aufregend, die Story war fern des Mainstream-Animation-Genres. Es gab einfach

nichts Vergleichbares.“ In der Tat, nichts in „Rango“ passt in das konventionelle Klischee der großen Animationsfilme, nicht mal die Produktionsmethoden. Tim Alexander, VFX Supervisor, umschreibt es so: „Das Projekt ist ein ambitioniertes Unterfangen, denn unsere gemeinsame Sprache war eher die eines Live-Action-Films.“

Olles Color Script? Nicht mit uns! Das Fachwissen der ganzen Crew inklusive des Regisseurs lag also im Bereich von Live-Action-Drehs und großer Visual-EffectsBlockbuster. Bei „Rango“ war allerdings Animation gefragt. ILM setzte sozusagen auf eine hybride Produktions-Pipeline. Dabei kamen einerseits natürlich typische Arbeitsschritte eines Animations-Studio-Workflows zum Zuge, aber eben nicht ausschließlich. Manchmal geschah dies nach Plan, von Zeit zu Zeit flossen diese speziellen technischen

WWW.DIGITALPRODUCTION.COM


Änderungen allerdings ganz spontan ein. Wenn beispielsweise ILMs Layout Artists animationsfilmtypisch die Kamerabewegungen anhand des Story Reels anfertigten, machte Verbinski oft Gebrauch von der hauseigenen Motion Capture Stage, um die Shots auf seine ganz individuelle Weise neu zu inszenieren. Das Ganze wurde dadurch möglich, da die Digimate Artists schnell erkannten, dass es besser war die Environments so lange wie möglich als bewegliche 3D-Objekte beizubehalten, anstatt sie traditionell anzufertigen und die 2D-Images akkurat in die 3D-Welt zu übertragen. A l s o w ur den möglichst frühzeitig einfache Darstellungen der vielen Teile angefertigt, die später enorme

MAKING M MAK MA AKKIING A IN NG O NG OFF | RAN R RANGO ANGO GO O

Berechnungen beanspruchten. Etwa wurde eine hügelige Landoberfläche mit wiederholenden, zerklüfteten Pattern dargestellt, Zigarettenstummel mit simplen Texturen versehen oder auch einfach nur ein Rundhorizont eingesetzt. Die finale Feinabstimmung hob man sich für später auf. Diese simplen Stellvertreter reichten vorerst für den Animations-Prozess. „Wir hatten keine shotspezifischen Details“, erwähnt Andy Proctor, der Digital Matte Supervisor. „Aber wir hatten ja alle Anhaltspunkte im Drehbuch; wir wussten welche Features wir später noch brauchten.“ Verbinski, Alexander und Knoll konnten also Felsbrocken, Kakteen und Ähnliches flexibel positionieren. Ihr kreatives Location Scouting konnten sie so direkt innerhalb der Environments erledigen. Wenn Verbinski bei ILM aufschlug, setz te er ein Cintiq-

95

alle Bilder: Paramount Pictures und ILM

AUSGABE AUS U GAB GABEE 02|11 02|1 2 1


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Glorreiche Halunken Rango huldigt klassischen Italo-Western

Display von Wacom ein, um im 3D-Set die Kameralinsenwahl, die Brennweiten und den Bildausschnitt auszuwählen. Oft standen ihm bei diesen virtuellen Locations-ScoutVorgängen erfahrene Cinematographen wie Roger Deakins [u.a. „True Grit“, „No Country for Old Men“, „Shawshank Redemption“] oder Kameraoperator Martin Schaer zur Seite. Ein weiteres Beispiel: Während der Preproduction der meisten Animationsfilme fertigt ein Art Director für gewöhnlich ein Color Script an. Eine Serie an gemalten Bildern, die die Stimmung sowie die emotionalen Anhaltspunkte der Story von Anfang bis Ende charakterisieren. Die Lighting Artists, die sozusagen in die Rolle eines Cinematographen schlüpfen, greifen auf sie zurück. ILM hingegen hatte gar kein Script für diesen Vorgang. „Wir machten einfach einen Live-ActionFilm, nur dass das Ganze ein Animationsfilm war“, bringt es Alexander auf den Punkt und fügt an: „Gore [Verbinski] benutzt kein Color Script, all unsere DOPs benutzen keines, und außerdem haben wir auch noch nie eins gemacht. Letztendlich haben wir also die Szenen einfach nach Gefühl ausgeleuchtet.“ Nach McCreery, der bereits fast alle Landschaften, Gebäude und Character designte, stieß zusätzlich John Bell als Art Director zum hal a f unter un nte t r anderem, a de an d re r m, m ILM-Team. Dieser half er N acht ac htsz szee edie Stimmung einer Nachtszet mi ti m er eren e . en ne im Film zu optimieren. gen ent„Die Story war eigentut lich schon so gut wir durch, als ich dazu kam, aber die Crew war sich nicht it sicher, wie sie mit n de d den Nachtszenen derr n z we e iter itt e err Highway-Sequenz weiter “,, erwähnt erw e rwäh rw äh ähnt hnt nt verfahren sollte“, lte ke lt k ein ines es-Bell. „Crash wollte keinesc he h e s Blue hes Bll ue falls das typisches

96

Light verwenden. Also trieb ich ein Buch des Western-Malers Frederick Remington auf, dessen Gemälde staubige, dunkelgrüne Himmel enthielten. Crash hielt es nicht mehr auf dem Stuhl. Er meinte nur: ‚Das ist genau die Stimmung, die wir brauchen.‘ Er wusste, dass die Szene vorher viele Rottöne besaß und so entwickelten wir die dramatische Rot- und Orange-Stimmung hinüber zu einer blaugrü-

im Inneren eines Terrariums auf dem Rücksitzt eines Autos wieder, das gerade die Wüste durchquert. Als das Terrarium versehentlich aus dem Auto purzelt sind Rango und sein einziger Companion, ein oranger Aufziehplastikgoldfisch, auf einmal mit der Freiheit konfrontiert. Von nun an sind sie auf sich allein gestellt, verloren und durstig – aber frei! Wie es der Zufall will, stoßen sie auf eine sehr jun-

Augenkontakt Viele Character in Rango passen eher nicht ins konventionelle Animationsfilm-Klischee Emotion Rangos Facial Library war durch die Chamäleon-Physiognomie ein schweres Unterfangen

nen Farbwelt auf der gegenüberliegenden Seite der Color-Skala. In der Szene, in der Rango die Wüste durchwandert, entsteht so ein herrlicher Kontrast.“ Wie alle Hauptdarsteller des Animationsfilms ist Rango ein Tier. Er tritt als Chamäleon in Ersscheinung sc c und früh lern le r man sein wahres rn lernt Natu Na tu ure rell kennen. Als einer der Naturell weni we n ge ni gen nd wenigen des Character-Casts sieh si ehtt er eh e aausnahmsweise u sieht nicht us,, al us alss habe er als räudiger so aaus, G Ge ese ese ell lle e gerade ger ge Geselle Prügel bezogen o od der wäre wär äre schon scc oder fast vertrocknet. Kurz zzu Ku Kurz u se sein in ne Vorgeschichte: Zu seiner B Be eg giinn nn d es F es i Beginn des Films findet sich Rango

ge, hübsche Eidechsendame, die mit ihrem voll beladenen Wagen gerade durch die Wüste holpert. Sie nimmt die Zuschauer, und natürlich Rango, mit nach Dirt, einer Ansammlung von schäbigen Bruchbuden, die sich wie aus dem Nichts aus dem schmutzigen, trockenen Horziont erheben. Sieht verdächtig danach aus, als wäre man in einem waschechten Westernfilm gelandet. Bei näherer Betrachtung stellt man fest, dass einige der Gebäude in Dirt aus Holz sind,

Get dirty In Dust Citys Texturen wird der dreckige und erbarmungslose Look fortgesetzt

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

MAKING OF | RANGO

Weitblick ILM hat ohne Color Script gearbeitet. Die Szenen wurden weitestgehend nach Gefühl von den Lighting Artists ausgeleuchtet

eines davon ist sogar ein alter Benzinkanister, den die tierischen Bewohner in einen Saloon verwandelt haben. „Vieles, auf was man in der Stadt trifft, sind gebrauchte Objekte, die jemand in der Wüste hinterlassen hat ...,“ erwähnt Steve Walton, der Viewpaint Supervisor, dem das Team der Texture Artists unterstand. „... also Blechbüchen, Flaschen und vieles andere.“ Hier trifft Rango natürlich schnell auf eine Ansammlung bizarrer Bewohner. Alles in allem kommt „Rango“ so auf 130 einzigartige Character. Mit Ausnahme von Rango, Bean, Priscilla, der großäugigen, mordlüsternden Ratte sowie der Bügermeister-Sekretärin Angelique und dem Fuchs sind alle Darsteller räudige, garstige, dreckige und vor allem hässliche Genossen. „Es ist wirklich eine erbarmungslose Umgebung“, umschreibt es Model Supervisor Geoff Campbell. „Da gibt es kein Wasser, wie sollten die Characters da Zeit finden, sich das Fell herauszuputzen?“

erst erstellten die Artists Modelle in Maya, Details und Facial Expressions kamen mit dem studioeigenen Zeno hinzu. Um die Feinheiten der Oberfl äche kümmerte man sich mit ZBrush. Dies stellte sich jedoch schnell als Einbahnstraße heraus, denn so hatte das 12-köpfige Team für alle Darsteller und Modelle jeweils nur drei Wochen pro Character, die schnell verfliegen, wenn man als Model-

liert und dann gesammelt zur Abnahme geschickt. Da McCreery immer noch mit dem Design von Rango und Bean beschäftigt war, kümmerte sich das Team derweil bei den restlichen Characters um die Vollendung. „Frank Gravatt hat mit Crash am Modell für Rango gearbeitet”, erzählt Campbell. „Wir haben Jung Seung Hong dazugebeten, der unter an-

Ausgebuffte Kopfgeldjäger Üblicherweise wird beim Animationsfilm aus der 2D-Zeichnung ein Ton-Modell erstellt, das dann anschließend vom Regisseur genehmigt wird. ILM entschied sich dagegen auch hier den Visual-Effects-Weg einzuschlagen. Zu-

ler bei jeder Kleinigkeit auf die Genehmigung warten muss. Die Crew war natürlich auf die Figuren angewiesen. Der Workflow wurde umgebaut, es wurde aber immer noch auf reale Modelle verzichtet. Stattdessen wurden in jeweils drei Tagen die Characters in ZBrush model-

John Bell Der Art Director in ILMs Team fertigt Entwürfe für das Haus des Bürgermeisters an

Shawn Kelly Der Lead Animator bei ILM studiert Materialien zum Character des Bürgermeisters

derem für Davy Jones in ‚Fluch der Karibik’ verantwortlich war, um die Facial Library von Rango zu entwerfen. Rango ist zwar nicht so komplex wie Davy Jones mit seinen GesichtsTentakeln, aber auch nicht zu unterschätzen. Einen Character menschlich erscheinen zu lassen – insbesondere mit den Riesenaugen eines Chamäleons – lässt kaum mehr Platz für den Raum zwischen Augen und Mund. Dazu kommt, dass sein Mund so breit ist, dass eigentlich kaum mehr Platz für Wangen übrig bleibt. Wie zeigt man ein höhnisches Schmunzeln, wenn kaum Platz dafür vorhanden ist?” Doch damit nicht genug, die Heldin Bean bereitete Campbell noch weitere Probleme: „Wir hatten zwar Zeichnungen und Artwork, aber sie sah einfach nicht wie die Heldin eines Films aus. Gore wollte nicht, dass sie wirklich schön ist, aber eine gewisse Ausstrahlung gehört schon zur Rolle. Wir haben dazu eng mit

97


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Trocken Inhouse-Tool Plume sorgte für naturgetreue Staubwirbelungen und Hitzeflimmern

Crash gearbeitet und in ZBrush gemodellt. Wie aber modelliert man innere Schönheit? Wir haben ihren Mund, wenn Sie lächelt, elegant gezeichnet und natürlich viel am Ausdruck der riesigen Augen gefeilt. Aber das mussten wir mit Mund und Kinn ausgleichen, damit sie gut aussieht, aber immer noch im Rahmen einer verrückten Eidechse bleibt.“ Die Facial Animation haben die Modellers mit der Bibliothek des FACS-Coding-System bewerkstelligt, um mit der ILM-eigenen FEZTechnologie arbeiten zu können. „Mit dem FEZ-System gibt es für jeden Ausdruck einen Regler und alles wird automatisch optimiert”, erzählt James Tooley, der Creature Development Supervisor, „und manchmal haben wir auch ein gekoppeltes System verwendet – der Animation Artist bewegt eine Form am Kinn und der Rest des Modells passt sich den Bewegungen an.” Das Rigging-Team, das mit Maya arbeitete, entwickelte für jeden Character ein Interface zur Steuerung, eine der wenigen Neuentwicklungen, die im Film verwendet wurden. „Das war so ziemlich das einzige, was die Animation Artists von Anfang an gefordert haben”, so Tooley.

Dress-up für Revolverhelden Zusätzlich zu den eigentlichen Characters und deren Gesichtern mussten die Modeler auch deren Kleidung und Accessoires kreieren, die nach dem Texture Painting von Tooleys Team animiert wurden.

zählt Campbell. „Dementsprechend musste die Kleidung fotorealistisch sein.” Bis hinab zu den Nähten gaben sich die Modeller hier besondere Mühe. Während die Texture Painters noch Salzränder oder Schweißflecken einbauten, sorgten die Character Animation Artists für den Fältchen- und Knitter-Look.

Showdown Keine Western-Hommage ohne Duelle mit üblen Revolverhelden

Hal Hickel Der Animation Director von „Rango“ nimmt eine Animations-Szene mit Jake the snake ab

„Wir haben eine eigene Welt um die Characters gebaut, deswegen mussten wir nicht realistisch sein, und die Figuren sind ja Fantasiegestalten. Gore und Crash wollten aber eine Stadt, die eine annähernd realistische Komplexität besitzt wie die Wirklichkeit“, er-

Alle menschenartigen Characters tragen Kleidung, teilweise sogar mehrere Schichten. Sie sind unter anderem mit Gürteln und Pistolen bestückt. Am schwierigsten war natürlich Rango selbst. „Normalerweise haben wir ein Kontrollsystem für die Kleidung aller Zweifüßler”, so Tooley. „Rango kommt allerdings in dreizehn verschiedenen Outfits vor. Und jedes dieser Kostüme hat in irgendeiner Form eine dynamische Simulation. Wir mussten sogar Kontrollsysteme für einen seiner Hüte bauen, damit die Animatoren ihn bewegen konnten, damit wir die Form des Hutes an die Stimmung der Szene anpassen konnten.” Schon seit dem ersten Teil von „Fluch der Karibik“ leitet Tooley Teams an, die sich mit Kleidung mit mehren Layern beschäftigen. Und üblicherweise wird erst die erste Lage erstellt, deren Simulation man perfektioniert, dann kommt die zweite Schicht, die wiederum komplett simuliert wird und so weiter. „Wir bauen die Kleidung in mehreren Schichten auf, weil sie ja interagieren. Wenn sie sich gegebenenfalls gegenseitig stören, müssen

Individuell Regisseur Verbinski konnte die Environments nach Belieben für jede Szene ändern. So konnte er virtuelles Location-Scouting betreiben sowie Linsen- und Kameraeinstellungen frei wählen

98

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

wir alle Layer neu aufbauen. Eine Technik, die wir eigentlich für einen anderen Einsatz entwickelt haben, hat uns dann fast perfekte Kontrolle über die Simulation ermöglicht. Wir hatten die sogenannten ‚Tacks’ das erste Mal bei ‚Star Wars – Episode I’ verwendet. Wir haben sie damals direkt in das Modell eines Gungun-Characters geschrieben, in der Art: ‚wenn CV dies tut, dann jene Funktion aufrufen’. Heutzutage machen wir das größtenteils per Textur direkt auf der Oberfläche.“ So konnte das Team beispielsweise Hosenträger einsetzen und die restlichen Materialien werden automatisch korrekt beeinflusst. „Wenn man sich die üblichen Animationsfilme anschaut, erkennt man, dass sich die Kleidung praktisch nie bewegt. Hier kommen normalerweise Wrinkle Maps oder normale Verformungen zum Einsatz. Ich denke, dass ist hauptsächlich, um den Fokus nicht vom eigentlichen Character abzulenken. Wir wollten aber ein ‚Wildwestgefühl‘ aufleben lassen, also bläst in zahlreichen Shots der Wind durch die Landschaften und dieser beeinflusst natürlich auch erheblich die Kostüme. Inzwischen haben wir uns schon so an diese fotorealistische Kostüme gewöhnt, dass es einfach ‚unser Ding’ ist.”

Für eine handvoll Haare Für gewöhnlich hat das Simulations-Team erst die Kostüme simuliert und daraufhin waren die Arbeiten an den Haare an der Reihe. ILMs Maya-basiertes Hair-System verwendet dazu Leitstränge, die in tausende Einzelhaare interpoliert wurden – je nachdem, ob hinterher eine Zottelkatze vorbeikommt oder ein gestriegelter Köter. Die Modeller erstellten zu Anfang nur die Leitstränge. Die Creature Development Artists kreierten daraus die Simulationen sowie den Look. Anschließend interpolierte der Development Technical Director dann die Leitstränge zu Haarbüscheln. Zusammengenommen kommen alle Charaact cter erssim ers er im m Fil F ilm au il auff üb ü ber er 3388 Mi Mill lllio one nen n Ha Haar are, ar e, racters Film über Millionen Haare, was, s, wie wie e IILM LM stolz sto tolz lz b ber eric er icht ic htet ht et, ga et, et ganz n en nz e 257 257 was, berichtet, ganzen Mens Me n ch ns c en mit mit i vollem volle olle ol em Haupthaar Haaup upth th thaa haa aar ar ententMenschen spri sp rich ri cht. t. t. spricht. Be Bean eaan ns Ha aaarre wurden wurd wu r den rden rd Beans Haare zu e zu i n er der in d er e komkomom meiner p pl e es ex este ten te n Au A fgab fg ab ben en.. plexesten Aufgaben. Derr li De lliebliche ieb ebli lich li ch he Lu Lurc rchrc hLurchd da me hat hat sechs sec echs hss LoLodame cken ck e aan en n de er Rü ück ckse se eitte der Rückseite ih hrre es Ko K p s. „Wir pf „„Wi Wir h Wi ha aihres Kopfs. hab be en n hi h er aalles lles ll es m ögli ög lich li che ch e ben hier mögliche

MAKING OF | RANGO

Cloth-Simulation ILM hat mit fotorealistischen Kostümen erheblichen Aufwand betrieben

ausprobiert, damit es gut aussieht”, berichte Tooley, „denn sie ist eine der wichtigsten Figuren. „Unter anderem haben wir nur einen Simulationsstrang durch jede Strähne geschickt und diese dann an verschiedenen Punkten versteift. Wir haben darum Tetraeder gelegt, die sich als Blöcke zu Locken wickeln.” Eines der wenigen Tiermodelle, das nicht menschlich erscheinen sollte, war der Falke. Hier erschuf Tooleys Team Federn in zwei Ausführungen: zum einen präzise Algorithmen für Länge und Bewegung in Medium Shots, sowie eine Simulation der Einzelfedern für die Close-ups. Sogar bei den Szenen, in denen der Falke Rango durch die Gebäude der Stadt verfolgt und Geröll und Staub den genauen Blick verwehren, sind in den Close-ups Simulationen zum Einsatz gekommen.

Schmutzige Geometrie Um G Geb Gebäude e äu eb äude de aauseinanderfallen usei us eina ei nand na nd derr fall ffaallen llen zzu ll u lass llassen, la assssen n, vverwendete ve verw erw wen e de dete dete te das das Team Tea eaam m von von ILM vo IL LM ihr ihr eigenes e ge ei g ne ness Fracture-Programm, das zu uer e stt in in „Star „S Sta t r zuerst Tr T rek“ ek“ 20 ek 0099 zzum um m Trek“ 2009 Eins Ei nsat ns atz ka at k am. m.. IIn m n Einsatz kam. de d em Fi F lm w urrdem Film wurde e ein e in n P lan la ne n et et Planet n na cch h allen all llen en ReRe e-nach geln ge ln d er K un n sstt der Kunst zzerlegt. ze rleg rl egt. eg t. Des Des WeiWe eii-

teren kam Mayhem zum Einsatz, ein System, das für Episode II entwickelt wurde. „Solange die gebrochene Geometrie gut aussah, war es mir egal, ob Houdini, Maya oder eine andere Software verwendet wurde“, erklärt“ Tooley. „Die Artists mussten einfach dafür sorgen, dass die Texturen an der gebrochenen Geo-

metry haften blieben.“ Mit einem System, das auf zugrundeliegenden Algorithmen in einem Physbam-System der in Stanford University beruhte, handhabte das Team die Rigid Body Dynamics. Da Trockenheit den Plot bestimmt – was den Film zu einer Mischung aus „Chinatown“ und d un und de e em m It Ital aalloo-We W st We dem Italo-Western „Zwei glorreiche Halu unk nken en““ ma en m chtt – mu ch lunken“ macht musste alles, auch die Chara akt k er ere e und un nd die die Stadt, Stta trocken und von der S raktere So S o on nne ausgedörrt nn nne a sg au sged edör ed örrt ör rtt aussehen. „Die Texture Sonne Ar A r ti tist tist stss waren ware wa ren re n großartig”, groß gr oß ßa Artists erinnert sich Bell. „„Sie „S Sie ie h aben ab en e n die die e Oberfl Oberfl be erfl r flächen verfeinert, indem haben ssie ie Bu B ump mp,, Disp Di isp plaace cem m Bump, Displacement, Specular Maps einge g esetz tzt zt ha h ben. be n S n. ollan o an bis man sich gedacht gesetzt haben. Solange, ha h at, t, ‚‚Ja, Ja, der d r Gegenstand de Ge G ege g ns n hat, wurde in der Sonne ge g ebr aatten en, und u d zwar un zw w ar a für Jahrzehnte.’“ Aber gebraten, ob o bwo wohl hl d ie G ie ebäu eb äude äu de alle alt und staubig ausde obwohl die Gebäude ssehen, ehe en n,, w aarr das das am am Anfang A war nicht der Fall. Die Text Te xtur xt ure ur eA Texture Artists, die die 40 Gebäud u de nd aan die 1.000 Props gemalt und habe ha ben, be n, haben n, h haa haben, zuerst dafür gesorgt, da d asss aall lles ll ess neu aussieht. „Ich habe e dass alles zunä zu unääcch hst alles a zunächst in strahlenden Farb be en koloriert. ko olo lori lori r ie ben Dann habe ich mir ü erle üb erle er l gt gt,, wi wie e der Prozess des Verwitüberlegt,

99


AKTUELL

FOKUS

EDITING

ANIMATION

terung vonstatten geht, was überhaupt passiert, und das so natürlich wie möglich umgesetzt“, erklärt Walton und fährt fort: „Diese Verwitterung spürt man in jeder einzelnen Szene, aber die ursprünglichen Farben sind immer noch da. Wir haben Holz, Schmutz, Metall und vieles andere fotografiert, um einen hohen Realismus zu erzielen.“ „Es gibt eine Tendenz im Bereich CG, nämlich dass alles irgendwie sauber und makellos ist, mit einer hohen Schärfe, perfekten Kanten und so weiter“, ergänzt Walton. „Bei diesem Film war hingegen die Intention, alles wirklich hässlich aussehen zu lassen. Zunächst gelang uns das nicht durchgehend, aber wir wussten, dass wir unser Ziel erreicht hatten, als Gore sagte: ‚Es reicht jetzt, es sieht entsetzlich aus!’“.

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Garstige Biester Wenig Zeit für Körperpflege. Die meisten Characters sind keine Schönheiten

Auf dem Trockenen Was ebenso geholfen hat, der Umgebung einen wirklich heißen und trockenen Look zu verpassen, war zum einen das Hitzeflimmern in der Wüste, zum anderen einfach eine richtig staubige Stimmung. Insgesamt 17 Effect Artists nahmen sich dieses trockenen Themas an und kreierten Staub und Schmutz und viele andere Simulationen. Chef der Abteilung war Raul Essig, der als Digital Artist am dritten Teil der „Fluch der Karibik“-Reihe mitwirkte (At World’s End) sowie als Sequence Super-

was Gore zufriedenstellte. Aber das war kein einfaches Unterfangen. „Wären es nur einige wenige Shots gewesen – kein Problem“, erläutert Essig. „Aber wenn sich der halbe Film draußen in dieser staubigen Umgebung abspielt, und du an die 100 Shots hast, dann musst du schon sehr kreativ werden, um solch aufwendige Effekte zu kreieren.“ Eine Partikel-Simulation, die entweder auf einer Fluid-Simulation oder einer Standard-Partikel-Simulation basiert, bestimmt, wo der Lichtblick Mit Einsatz von Techniken aus VFXPipelines bringt ILM seine eigene Interpretation des AnimationGenres zu Tage

Character-Design ZBrush war maßgeblich an der Modellierung des skurillen Casts beteiligt. Links unten: Lurchdame Bean

visor für „Star Trek“ fungierte. „Wir verwendeten Plume, das wir ursprünglich für ‚Air Bender‘ entwickelten, um damit sehr ästhetische Ergebnisse zu erzielen”, sagt Essig. „Plume erlaubt es, Staub mit ganz feinen Fäden zu erzeugen, was einfach wunderschön aussieht. Aber für Gore war das natürlich wieder nicht schäbig genug. Also haben wir die meiste Zeit auf eine klassische Volume-Rendering-Atmospheric-Technik zurückgegriffen. Aber in einigen Shots hatten wir Passes aus beiden Lösungen, um einfach das Beste aus zwei Welten zu erhalten.“ Die entstandenen Layer aus atmosphärischen Passes wiesen einen Dunstschleier in der Ferne auf sowie wirbelnden Staub,

100

Staub entsteht und wo er endet. Danach berechnet der Renderer Strahlen durch ein Volumen, das von den Partikeln erzeugt wurde, und zwar von der Kamera bis hin zum Horizont. Manchmal steigt der Staub vom Boden empor, manchmal wabert eine staubige Atmosphäre umher. „Wenn eine Fluid-Simulation die Partikel bewegte, mussten wir das Ganze wie einen Practical Effect am Set behandeln, denn der Effekt beruht ja auf realer Physik“, führt Essig aus. „Bei klassisch erzeugten Partikeln gibst du hingegen die Richtung vor, und sie tun

wie befohlen.“ Um diese Produktion möglich zu machen, erstellte die Crew typische Simulationen mit Staubwolken für die gesamte Stadt. „Wir konnten aus dieser Simulation etwas herauspicken und es direkt rendern. Das heißt, es war nicht nötig, für jeden Shot wieder eine neue Simulation zu fahren“, erinnert sich Essig. Für Feuer-Simulationen setzten die Artitsts ebenfalls auf Plume. Um Wasser zu erzeugen, verließ sich die Crew aber auf zwei hausinterne Systeme: Eines, das auf PLS (particle level set) und ein anderes, das auf SPH (smoothed-particle hydrodynamics) basiert. „SPH eignet sich wirklich gut für kleine Wasserspritzer“, erklärt Essig den Unterschied. „Ganz am Anfang legt man sich immer einen Plan zurecht, welches Tool am besten bei welchem Shot zum Einsatz kommt. Wenn du aber letztendlich an einem bestimmten Shot anfängst zu arbeiten, hat sich vielleicht die ursprüngliche Planung, wie es aussehen soll, schon wieder geändert. In einem Produktionsprozess zu stecken, ist fast so, wie einer Fluid-Simulation zuzuschauen. Man hat zwar eine Vorstellung davon, was passieren sollte oder könnte, aber oftmals ist es eine völlige Überraschung, was geschieht.“ Eine solche Überraschung wird auch den Zuschauer ereilen, wenn er zum ersten Mal im Kino sitzt. Angefangen von einer MariachiBande, die aus drei Eulen besteht, einem einbeinigen, straußähnlichen Character und vielen anderen Figuren mehr, verspricht „Rango“ zu einer einzigartigen visuellen Erfahrung für ❯ jb/ei/sha den Zuschauer zu werden. Die Autorin arbeitete 15 Jahre als leitende Redakteurin für das USMagazin Computer Graphics World. Als Freelancer berichtet die mehrfach ausgezeichnete Journalistin über die Entwicklung von Computergrafik, Animation und VFX im Filmbereich und ist Jurymitglied des Prix Ars Electronica für die Kategorie Computer Animation/ Visual Effects.

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

INTERVIEW | NICO SANGHRAJKA

Posing à la DreamWorks Darth Vader hat es, Dr. Evil hat es und auch Megamind hat es. Sie sind Superschurken aber man schließt sie sofort ins Herz, da sie verruchte Kostüme tragen, gefährliche Gadgets zücken und zur richtigen Zeit den coolen Spruch auf den Lippen haben. Mit „Megamind“ hat DreamWorks das Superhero-Genre in die CG-Welt transferiert und lässt die Muskeln spielen – natürlich nicht ohne ein paar Extramoves in Sachen Animationstechnik aufs Parkett zu legen, wie der von Jan Bruhnke deutsche Character Technical Director Nico Sanghrajka DIGITAL PRODUCTION verrät.

Fantastic Technik Ein Superhelden-Epos wie Megamind ist natürlich wie geschaffen für einen expressiven Cast, schlagende Argumente und übertriebene Ausstattung. Neben dem nett-bösen Megamind wimmelt es nur so von ausgefallen Characters. Etwa Minion, dessen Körper ein gorillaartiges Roboterdesign besitzt und anstelle seines Kopfs ein durchgeknallter Fisch blubbert. DreamWorks setzte komplett auf ein neues ausgefeiltes Inhouse-RiggingTool namens RIG, das zum Teil schon bei „Drachenzähmen leicht gemacht“ eingeführt wurde. Auch der aufgepumpte Kraftprotz Metroman besteht aus mehr als nur gut proportionierter Masse und einer standhaften Föhnfrisur. Ein aufwendiges Muscle-System lässt ihn eindrucksvoll posen. Immenser Aufwand wurde selbst in die Umsetzung der maßgeschneiderten Capes der Helden gesteckt. An die 726 von ihnen wurden aufwendig simuliert, was allerdings nur ein Bruchteil der beeindruckenden Zahl Metroman In seinem digitalen Schrank hängen einige der 726 Capes, die das CFX-Team erstellte

101

an 10.000 Kleidungsstücken war, die das Character Effects Team kreierte. Selbst die Stadt Metro City mutiert zum Character. Sie wurde nicht konventionell modelliert, sondern hauptsächlich via prozeduraler Prozesse automatisiert erstellt. Alles in allem war DreamWorks neueste Produktion also ein Unterfangen, das auch ein echtes „Fantastic Team“ im Animation Department erforderte. DIGITIAL PRODUCTION interviewte Nico Sanghrajka, Character TD DreamWorks/PDI, und wollte mehr darüber wissen wie man elastische Special-Moves einer Superhero-Animation-Cast hinlegt und wie Gesichter trotz Fliehkräfte genau die richtigen Emotionen versprühen.

alle Bilder: Paramount

D

enkt man an Physical Comedy ist Megamind-Director Tom McGarth ein Meister seines Fachs. Das beweisen eindrucksvoll die beiden „Madagascar“-Teile, bei denen er zuvor Regie führte. Bei seinem neuesten Werk geht es um Überkräfte, und was für welche. Hauptdarsteller Megamind ist nicht weniger als der durchtriebenste und brillanteste aber zugleich auch dümmste Schurke aller Zeiten. Nachdem er seinen größten Widersacher, den aalglatten Schwiegersohnliebling Metroman, in die Schranken gewiesen hat, muss er sich den opulenten Kopf darüber zerbrechen, wie er sich mit der DNA von Metroman einfach neue Widersacher erschaffen kann. Denn die Langeweile kann eine echte Ausgeburt des Bösen auf Dauer natürlich nicht nähren. Plötzlich lässt somit ein neuer Superhero die Muskeln spielen, und dass die Sache ordentlich nach hinten losgeht, war ja sowieso klar. Dieser macht Megamind sogar die Nummer eins als MegaSchurke streitig, aber der will plötzlich auch gar nicht mehr so richtig evil sein, da er sich in die Reporterin Roxanne verliebt hat. Die Welt steht Kopf. Und wer rettet jetzt eigentlich hier wen und warum?


AKTUELL

FOKUS

EED EDITING DITTIN DI ING NG

A ANI ANIMATION NIMAT MATTION IO

CCOMPOSITING COM POSITING

COLOR

AUDIO

STEREO STE SST TTEERE REEO REO O 33D D

MAKING O OF

GUI GU G GUIDE UIIIDE U DEE D

O ON N TOUR

Wuchtig Das Muscle-System war so aufwendig, dass es nur bei Metroman und Tighten zum Einsatz kam

DP: Bei DreamWorks neuestem Film „Megamind“ hast du als Character TD gearbeitet. Für welche Arbeitsbereiche warst du genau verantwortlich? Nico Sanghrajka: In erster Linie war ich für die Gesichtssetups verschiedener Charaktere verantwortlich. Darunter vor allem Hal beziehungsweise Tighten – Megaminds späterer Gegenspieler – sowie Gesichtsvariationen der Frauen und Kinder von Metro City. Aber auch die Arbeit an verschiedenen Props gehörte zu meinen Aufgaben. So zum Beispiel das Erstellen der Setups für Handtaschen einiger Hintergrundfiguren oder auch die Brille und Duschhaube von Megamind, die er trägt, während er Metromans DNA extrahiert. DP: Wie hat das Projekt begonnen, im Vorfeld gibt es bestimmt einige Testläufe? Nico Sanghrajka: Ich erinnere mich daran, dass eine meiner ersten Aufgaben das Setup für den Körper von „ManB“ war; einem dicken Mann, der neben „ManA“ als Grundlage für das Massen-System dienen sollte. Später wurde dieser Charakter allerdings aus verschieden Gründen aus dem Film gestrichen. Das Gleiche geschah mit einer Katze und der Figur „Hotfl ash“, an deren Gesichts-Setups ich ebenfalls im Verlauf der Produktion gearbeitet habe. Grundsätzlich kann es schon vorkommen, dass Figuren oder Objekte, an denen man arbeitet, letztendlich nicht verwendet werden, da der Film einem Entwicklungsprozess unterliegt und sich Geschichte und Charaktere im Laufe der Zeit verändern.

DP: Beim letzten Shrek-Teil von DreamWorks sind ja sehr viele neue Entwicklungen eingeflossen. Ich denke an Dinge wie die ElasticCage-Deformation oder auch im Bereich der Hair Simulation. Habt ihr auch für „Megamind“ neue Tools entwickelt oder besser gesagt optimiert? Nico Sanghrajka: Die Elastic-Cage-Deformation war nicht unbedingt neu. Sie wurde schon bei „Antz“, „Madagascar“ und auch den vorangegangenen Shrek-Teilen zu einem gewissen Grad eingesetzt. Allerdings sind wir bemüht die Software und Tools, mit denen wir tagtäglich arbeiten, stetig zu verbessern und weiterzuentwickeln. So war zum Beispiel eine der Besonderheiten an Megamind, dass erstmalig komplett auf eine neue, verbesserte Inhouse-Rigging-Software gesetzt wurde. Das bedeutete allerdings, dass viele der vorhandenen Tools für die neue Software umgeschrieben und angepasst werden mussten. Gerade im Bereich der Hair-Setups war es erforderlich, alles neu zu programmieren. Die Software, die passenderweise den Namen „RIG“ trägt, wurde zwar schon für „Drachenzähmen leicht gemacht“ eingesetzt, allerdings verwendete man sie damals nur für die Drachensetups. Bei den Rigs der Vikinger arbeitete man weiterhin mit der alten Software. Megamind ist damit das erste Projekt, bei dem menschliche Figuren, also zum Beispiel auch Haare, in der neuen Software erstellt wurden. DP: „Kung Fu Panda 2“ ist für dieses Jahr geplant, bei dem du ebenfalls im Team bist. Musstest du parallel arbeiten und ergaben sich so Projekterkenntnisse, die dir auch bei „Megamind“ nützlich waren? Nico Sanghrajka: Als ich im August 2008 zu PDI/DreamWorks gekommen bin, war „Megamind“ gleich das erste Projekt, an dem ich arbeiten sollte. Da dieses allerdings kurzfristig einer konzeptionellen Überarbeitung unterzogen wurde, half ich zwischen Dezember Nico Sanghrajka Character TD bei DreamWorks/ PDI und einer von 2.000 Mitarbeitern weltweit

102

2008 und März 2009 bei „Kung Fu Panda 2“ aus. Das eröffnete mir die Möglichkeit erstmalig an einem Facial Setup zu arbeiten – zuvor hatte ich mich fast ausschließlich mit Body Setups befasst. Als ich dann im März 2009 wieder zurück zu „Megamind“ wechselte, ermöglichte mir der kurze Ausflug zu „Kung Fu Panda“ also neu gewonnene Fähigkeiten, um bei „Megamind“ weiterhin im Bereich der Face Rigs zu arbeiten. Zudem konnte ich einige HelferTools, die ich für „Kung Fu Panda 2“ geschrieben hatte, auch bei Megamind verwenden. DP: Welche Character waren Inspirationsquellen bei der Entwicklung des „Megamind“Casts. Hat Regisseur Tom McGarth eine bestimmte Vision vorgegeben? Nico Sanghrajka: Als Inspirationsquelle galten in erster Linie die klassischen SupermanFilme, in denen Clark Kent, bemüht um die Gunst von Lois Lane, gegen den Schurken Lex Luthor antritt – und dabei eigentlich immer gewinnt. Wir wollten jedoch die Gegenseite beleuchten. In Sachen Stil wurde sehr viel experimentiert. Es wurde mit verschiedenen Designideen gespielt, und die Figuren wurden immer und immer wieder überarbeitet. Keiner der finalen Charaktere sieht noch so aus, wie beim allerersten Entwurf. Tom McGrath waren vor allem große runde Augen wichtig. Das Modell beziehungsweise Rig von Megamind wurde deshalb beispielsweise ein paar Mal verändert; nicht zuletzt um die Augen größer und runder werden zu lassen.

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

INTERVIEW | NICO SANGHRAJKA

Harte Zeiten Megamind wächst im Knast auf

DP: Bei „Megamind“ gibt es mit einem halben Dutzend Main Characters ja eine ganze Reihe an expressiven Hauptdarstellern. Nico Sanghrajka: Stimmt, und im Grunde birgt jeder Charakter seine eigenen Herausforderungen. Die Bandbreite an Ausdrucksmöglichkeiten, die ein Charakter aufweisen musste, und auch die Übertreibung des jeweiligen Gefühls, bis an die Grenze des Realistischen, machte den Rigging-Prozess erst richtig spannend. Anders als bei einem VFXFilm, bei dem man im Prinzip im Vorfeld schon meist weiß, was der Charakter können muss, noch bevor man mit dem Rigging beginnt, ist das beim Animationsfilm nicht klar. Hier darf der Charakter und das Rig nicht nur für bestimmte Szenen funktionieren … DP: … er muss also für alle Eventualitäten gewappnet sein. Nico Sanghrajka: Genau, das Spektrum an Controllern und Ausdrucksfähigkeit ist hier viel größer. Es ist ziemlich unmöglich vorherzusehen, was ein Animator später, wie genau animieren wird. Daher müssen die Rigs so flexibel wie möglich sein, und dennoch stabil genug, um den Anforderungen der Animatoren standhalten zu können. Man wird als Rigger ständig mit Herausforderungen konfrontiert, die durch die Ansprüche der Animatoren an das Rig entstehen. Manchmal ist es technisch einfach nicht machbar etwas genau so umzusetzen, wie die Animatoren es in diesem Moment brauchen. Hier muss ich als Rigger Lösungen finden, die es dem Animator erlauben sein Ziel zu erreichen. DP: Metroman besitzt auch ein spezielles Muscle-System. Was ist der Clou dahinter? Nico Sanghrajka: Das Muskel-System für Metroman wurde von Peter Farson und Stephan Osterburg entwickelt. Metroman und Tighten, die sich den gleichen Körper teilen, haben einen zusätzlichen Layer zwischen den Joints und der deformierten Haut. Die Muskeln sind denen eines Menschen nachempfunden, was bedeutet, an den wichtigsten Stellen wurden Objekte in den entsprechenden Formen für

103

Bizeps, Latissmus, Trapecius und Pectorialis erstellt. Diese Objekte verformen sich basierend auf der Bewegung der Joints, und verändern ihre Form, je nachdem ob sie länger oder kürzer werden. So dienen sie dann als Kollisionsobjekte für die eigentliche Haut, was „Muscle Bulging“ und „Skin-Sliding“ ermöglicht. Da dies jedoch relativ viele Systemressourcen verbrauchte und den Charakter langsam machte, wurde dieses System ausschließlich für „Metroman“ und „Tighten“ verwendet.

Das bedeutete allerdings, dass für diesen Charakter alles individuell geriggt werden musste und nichts von anderen Figuren übernommen werden konnte; nicht zuletzt, da alle anderen Figuren menschlich waren und Squash und Stretch verwendet wurde. Minion sollte sich hingegen wie ein Roboter bewegen und sich nicht verformen wie etwa Megamind. Zudem handelte es sich bei diesem Setup im Prinzip um zwei separate Charaktere. Einerseits den Roboter-Gorilla und den Piranha. Der Piranha bestand dabei nur aus Gesicht, was eine Herausforderung an sich darstellte, und nicht mit der herkömmlichen Herangehensweise geriggt werden konnte.

»Viele Ausdrucksmöglichkeiten machten das Rigging spannend«

DP: Der Character Minion hat ein sehr spezielles Äußeres. Hat sich das über die Zeit entwickelt? Welche technische Hürden gab es bei ihm? Nico Sanghrajka: Als ich anfing an „Megamind“ zu arbeiten, war Minion noch ein kleiner dicker Mann. Das schien uns nicht interessant genug und niemand in der Produktion war begeistert von dem Design. Als Production Designer David James dann mit der Idee kam, Minion den Körper eines Roboters in Form eines Gorillas und den Kopf eines Fischs im Aquarium zu geben, fing die Figur an interessant zu werden, an Charakter zu gewinnen.

DP: War es tricky, Hauptdarsteller Megamind einerseits düster und gefährlich als auch positiv erscheinen zu lassen? Nico Sanghrajka: Es wird ja schon zu Beginn des Films klar, dass Megamind eigentlich nicht wirklich ein Bösewicht im klassischen Sinn ist, sondern durch die äußeren Umstände dazu gemacht wurde. Im Grunde ist er ein herzensguter Typ, der einfach nur nie Erfolg hatte mit dem „gut sein“ und am Ende ist er ja sogar der Held der Geschichte. Wir haben dennoch versucht den Animatoren so viel Kontrolle wie möglich über das Gesicht zu geben, um die Figur in jede gewünschte Stimmung versetzen zu können. Es gab beispielsweise Kontrollen, um die Augen größer beziehungsweise kleiner zu skalieren und die Größe von Iris und Pupille unabhängig voneinander zu

Minion Der skurille Character besitzt ein ausgetüfteltes Rig


AKTUELL AKKKTTUE AKT A UEL U EELLL LL

FFOKUS OKUS

EDITING

ANIMATION

verändern. Allein mit diesen Controllern kann man das Erscheinungsbild eines Charakters schon sehr stark verändern. Zusätzlich gab es Emotionskontrollen für Mund, Augenlieder und Augenbrauen und die Möglichkeit, das ganze Gesicht oder auch nur einen Teil zusammenzuquetschen oder auseinanderzuziehen. Mit all diesen Controllern, die von den Character TDs erstellt wurden, und dem Können der Animatoren konnten die Figuren in jede, für einen Shot benötigte oder vom Regisseur gewünschte Pose gebracht werden. DP: Stichwort: Quetschen! In den Fun-Facts zu „Megamind“ steht, es gibt insgesamt zwölf Szenen, in denen vorwiegend Gesichter zusammengequetscht werden. Nico Sanghrajka: Für das Zusammenquetschen der Gesichter geht der Credit wohl an die Animatoren. Ich bin als Character TD eher derjenige, der ihnen die Werkzeuge gibt, indem ich die Figuren mit den entsprechenden Controllern versehe. Einerseits hatten die Animatoren die Möglichkeit, die obere und untere Gesichtshälfte getrennt voneinander in die Länge zu ziehen, konnten sie zusammenquetschen und zur Seite beziehungswei-

COMPOSITING G

CCOL CO COLOR O OLLOR OR

AUDIO

se nach vorne und hinten biegen. Weiterhin gab es auch die Möglichkeit Augen, Augenbrauen, Nase, Mund, Lippen sowie andere Gesichtselemente separat zu verschieben, zu drehen und zu skalieren. Dadurch ließen sich verrückte Posen erstellen, etwa wenn der Charakter sein Gesicht gegen eine Glasscheibe presst, oder eine Figur einen Faustschlag ins Gesicht bekommt. In speziellen Fällen, in denen die Gesichts-Kontrollen nicht ausreichten, um einen bestimmten Effekt zu erzielen, wurden einzelne Shots auch von der Character-FX-Abteilung bearbeitet. Für diese so genannten „One-Offs“ konnte viel gezielter gearbeitet werden, etwa auf der Komponentenbasis des Models, da dieser „Effekt“ nicht mit allen anderen Gesichts-Kontrollen funktionieren musste, sondern als zusätzlicher Layer auf das bereits deformierte Model und auch nur für diesen entsprechenden Shot verwendet wurde. DP: Das Team hat auch eine Menge an VideoReferenzmaterial benutzt, das teilweise direkt in die Animations-Software eingeflossen ist. Nico Sanghrajka: Ja, vor allem aus dem Grund, da das Beobachten und Nachempfin-

Shot-Breakdown Vom Storyboard zum fertigen Rendering. Die turbulenten Flugszenen wären ohne eine prozedurale City Engine nicht möglich gewesen, denn die Stadt-Backgrounds ändern sich ständig

104

STEREO 3D

MAKING OF

GUIDE

ON TOUR

den von Videoaufnahmen, insbesondere von Emotionen, aber auch von anderen realen Bewegungen, einfacher ist, als eine Szene rein aus dem Kopf zu generieren. Die Animatoren spielten dafür verschiedene Szenen, die später animiert werden sollten, nach und nahmen sich dabei selbst auf. Dies ermöglicht es auch, sehr schnell verschiedene Variationenen auszuprobieren. Die aufgenommenen Clips können dann analysiert werden und dienen als Vorlage für die Arbeit in der Animations-Software. Bei DreamWorks Animation wird sehr viel in firmeneigener Software gearbeitet. Im Falle der Animation nennt sich das Tool mit dem gearbeitet wird „EMO“, was passenderweise für Emotion steht. DP: Die vielen flatternden Capes waren sicher ebenfalls eine kniffelige Angelegenheit. Warst du in die Prozesse mit dem Qualoth Cloth Simulator involviert? Nico Sanghrajka: Ich selbst hatte nichts mit den Capes zu tun. Sie wurden genau wie der Rest der Kleidung vom CFX, dem Character Effects Department, simuliert. Hierbei kamen Maya und Qualoth zum Einsatz. Auch hier wurde viel mit Referenzmaterial gearbeitet, um die unterschiedlichen Eigenschaften von verschiedenen Stoffen sowie deren Faltenwurf studieren zu können. Es wurden sogar echte Capes genäht, mit denen die CFX-Artists dann durch die Gänge von PDI/Dreamworks rennen konnten, um die Flugeigenschaften solcher Capes genauer zu untersuchen. DP: Das Team wollte also Kleidung so realistisch wie möglich darstellen. Hat dies auch deine Arbeit beeinflusst? Nico Sanghrajka: Die große Herausforderung war, dass die Animation viel Squash und Stretch beinhaltete, was zwar von den Rigs und dem Skinning unterstützt wurde, nicht aber von der Kleidung. Also mussten Lösungen gefunden werden, um die Kleidung mit den Rigs mitzubewegen und sie stretchen zu können. Ungeachtet dessen musste sie zudem simuliert werden können, um realistische Bewegungen und Faltenwurf zu er-

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

INTERVIEW | NICO SANGHRAJKA

Tighten Durchlebt eine Wandlung zum Superheld und bekam vom Animation-Department somit später das gleiche ausgefeilte MuscleSystem wie Metroman

zeugen. Ähnlich verhielt es sich auch mit den Capes. Die Animatoren brauchten Kontrolle über die Capes, um die Silhouette der Figuren besser kontrollieren zu können. Gleichzeitig mussten die Capes aber auch simulierbar sein. Das Character TD Department und das Character FX Department arbeiteten hierbei eng zusammen, um dies zu ermöglichen. DP: Überzeugende Action-Shots waren bei Tom McGrath in Bezug auf die Stadt Metro City

gefragt. Er hatte das ambitionierte Ziel, sie fast wie einen Character zu behandeln. Kannst du etwas über die prozedurale City Engine erzählen, die das möglich machte? Nico Sanghrajka: Ohne sie wäre „Megamind“ mit seinen vielen turbulenten Flugszenen durch die Stadt gar nicht möglich gewesen. Der

Am Arbeitsplatz Sanghrajka ist u.a. für Gesichts-Setups verantwortlich

Film führt den Zuschauer in rasantem Tempo durch die Stadt und zeigt dabei die meisten Szenen ja aus der Vogelperspektive.Das heißt, die Backgrounds ändern sich ständig und man sieht viele unterschiedliche Teile der Stadt aus unterschiedlichen Kameraperspektiven. All das von Hand zu modellieren hätte einfach viel Zeit in Anspruch genommen. Durch die prozedurale Herangehensweise was es möglich, die Stadt schrittweise vom Groben ins Feine hinein aufzubauen. Die Stadt ist ein

entscheidender Bestandteil der Geschichte. Sie verbindet die einzelnen Schauplätze miteinander. Daher ist es wichtig, dem Zuschauer eine Vorstellung der Stadt zu geben, um sie in Relation setzen zu können. DP: Gibt es eine Szene in „Megamind“, auf die du im Nachhinein besonders stolz bist und welcher Character ist dein Liebling im Cast? Nico Sanghrajka: Es gibt eigentlich keine bestimmte Szene – ich bin stolz auf den Film im Ganzen. Ich mag „Hal“ beziehungsweise später „Tighten“ sehr gerne, was sicherlich unter anderem daran liegt, dass ich an seinem Gesichts-Setup gearbeitet habe. Er zeigt in dem Film ein großes Repertoire an Emotionen mit teilweise sehr extremen Gesichtsposen, was für einen Character TD natürlich großartig ist, da dies am besten zeigt, wozu ein Rig in der Lage ist und wie stabil es ist.

105

Megamind ist ebenfalls ein fantastischer Character, auch auf Grund der extremen Animationen. Es ist toll zu sehen, was die Animatoren mit den Controllern machen, die wir als Character TDs ihnen geben. Dann zahlt sich die ganze Arbeit aus, die man in ein Rig steckt. DP: DreamWorks Animation produziert mehrere Filme im Jahr. Müssen eure Teams dann dementsprechend schneller arbeiten? Nico Sanghrajka: Wir haben mittlerweile mehr als 2.000 Mitarbeiter auf die drei Studios in Los Angeles, Redwood City und Bangalore/ Indien verteilt und ist damit das größte Animations-Studio der Welt. Dennoch expandieren wir ständig und die Mitarbeiterzahl steigt. Dies ermöglicht es schneller und parallel an mehreren Projekten arbeiten zu können. Das Studio hat sich zum Ziel gesetzt zwei bis drei Filme pro Jahr ins Kino zu bringen. Im Vergleich mit anderen Firmen ein ambitioniertes Vorhaben. Und bei DreamWorks Animation wird versucht, mit jedem Film die Messlatte etwas höher zu legen. Im Prinzip wollen wir jedes Mal künstlerisch wie technisch besser sein. Es wächst jedoch nicht nur das Knowhow, auch die immer schneller werdende Hardware und stetige Verbesserung der firmeninternen Software ermöglichen Sachen, die zuvor undenkbar gewesen wären. Es ist also die Mischung aus äußeren Einflüssen wie der Technologie und dem Talent der Artists, die jeden Film von DreamWorks Animation zu etwas Besonderem macht. „Megamind“ erscheint am 5. April 2011 auf Blu-ray/DVD. ❯ jb


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

CCOL COLO CO COLOR OLO OL OR R

AU AUD A AUDIO U UD DIO I

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Postapokalyptische Rostlaube

106

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

WORKSHOP | MODO

„Allein die Übung macht den Meister!“ – diesen Grundsatz hat Robert Lechl in seiner 15-jährigen Karriere beherzigt. Von Canon-Werbespots bis zu Medizinfilmen hat der Designer, Akademischer Maler und Illustrator fast alles gemacht. Eins seiner Bilder, die verrostete Kampfmaschine „Kröte“, erläutert der Münchner im Detail mit Ideensuche, Umsetzung und der Verwendung von modo 401. von Robert Lechl

S

owohl Game-Charaktere als auch Design-Objekte in 3D, wie beispielsweise Autos, beschäftigen mich schon seit vielen Jahren. Eigentlich machen mir Filme am meisten Spaß, dazu habe ich auch im Ausland einige Erfahrung gesammelt, fühle mich aber als Ein-Mann-Team am wohlsten. Vielleicht weil ich eine Ausbildung als Künstler genossen habe und kritisch mit meiner Arbeit umgehe.

Also alles, was man braucht, um ein schönes Bild zu produzieren.

Plastikkrieger als Inspiration

Als ich vor zwei Jahren Game-Modelle mit Subdivision Surface (kurz SDS) in größeren Mengen produzierte, kam ich mit meiner bisherigen Software 3ds Max ans Limit. Als Konsequenz daraus entschied ich mich, zukünftig eine andere Software einzusetzen. Weil ich gerne alle Aufgaben in einem Programm erledigen möchte und zum Malen ungern nach Photoshop wechsle, fiel meine Entscheidung auf modo 302, auch weil es auf meinem MacBookPro hervorragend lief. Modo ist ursprünglich ein Modellierungsprogramm, welches gerade das komfortable Arbeiten mit SDS mit mächtigen Werkzeugen ermöglicht. Das Programm ist allerldings in den vergangenen Jahren weiter gewachsen und hat neben UV, Paint und Sculpt Tools einen äußerst mächtigen Renderer bekommen.

Meine Inspiration übernahm ich von dem japanischen Plastikmodelldesigner Kow Yokoyama, der sich sehr über meine Bilder gefreut hat. Der Designer hat sich eine eigene SciFi-Welt ausgedacht, in der Siedler den verlassenen Planet Erde rekolonisieren und dabei mit der interstellaren Regierung in Konflikt geraten. Da keine der beiden Seiten wirklich gut gerüstet ist, werden alte Kriegs- und Baumaschinen eingesetzt und umfunktioniert. Dabei geht es weniger um Logik als um Optik, die sich sehr stark an den Waffen des Zweiten Weltkriegs orientiert. Also nicht Star Wars, sondern ein kriegsmüder Kampf, der die abgenutzten Gefährte nutzt, solange sie nicht auseinanderfallen. Aber auch nicht in 80erJahre-Mad-Max-Punk-Manier, sondern eher diszipliniert japanisch. Das Model hat den exotischen Name Kröte, den natürlich keiner in Japan aussprechen kann. Ein Kampfroboter mit Zweitaktbenzinmotor und Wartungsluke, aus der ein Handrad hervorschaut – einfach herrlich. Als Nächstes fing ich damit an, so viel Unterlagen wie möglich für mein Model zu besorgen. Obwohl es

Wireframe

Gerendertes Endprodukt

Umstieg auf modo

Robert Lechl arbeitet seit 1996 im Bereich CGI, mit 3ds Max, Vray und seit 2008 mit modo. Als Freelancer arbeitet er vorwiegend für Kunden aus Industrie und Film. www.digital-artist.info

107


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

ein Plastikmodell gab, entschied ich mich für das Modellieren nach Bildern.

c Modeling nach der Zeichnung

Modeling f Details als homogen zusammenhängende Fläche modelliert

Mit SDS-Flächen lassen sich UV Maps organisch wie eine Haut abwickeln

Beim Modellieren nach Bildern ist es immer schwierig, das Model in seiner Komplexität zu begreifen. Man benötigt also einige Zeit, bis man genügend Material hat. Zum Glück gab es eine etwas pixelige Zeichnung von verschiedenen orthogonalen Ansichten. Die Zeichnung wandelte ich in PNGs mit Transparenz-Kanal um und legte sie im Viewport ab. Weil modo es so einfach macht mit SDS zu modellieren, und weil ich keine harten Kanten haben wollte (diese passen nun wirklich nicht zu einem abgenutzten Kampfroboter), arbeitete ich bei diesem Bild nur mit SDS und zwar bis zur letzten Schraube. Für das Model bedeutete das am Ende, dass gut 50.000 Polygone bestimmen wie ein 1,5 MillionenPolygon-Model im View port aussieht. Mein Laptop hatte damit kein Problem.

Kanten abrunden

Textur malen mit der Texture Brush. Bilder lassen sich als Masken verwenden

Texturen werden im Shader verschiedenen Effekten wie Diffuse, Reflection oder Bump zugewiesen

108

Nützlich sind SDS bei organischen Flächen, wobei ein Stahlblech ebenfalls organisch zu sehen ist. Ein Zylinder mit vier Seiten wird mit SDS perfekt rund, und um ein Loch zu bohren, muss nur ein quadratisches Polygon extrudiert werden. Harte Kanten kann man zwar mit Kantengewichtung hart definieren, dass hätte dann aber nicht den gewünschten Effekt. Also musste ich die Anzahl der Polygone an den Kanten erhöhen. In der Regel reichen dafür drei Kanten oder Vertex aus. Eine Technik, mit der man auch moderne Designobjekte gut modellieren kann, und die dazu realistischer im Shading ist als NURBS. Mit dieser Methode arbeitete ich mich von den Füßen aufwärts bis zum Kopf. Alle Objekte, die in Wirklichkeit mit der Oberfläche verschweißt wären, habe ich ebenfalls verbunden. Man benötigt dazu etwas Geschick, denn Booleans bringen bei SDS nicht das gewünschte Ergebnis. Mir macht das Vernähen der Elemente allerdings Spaß, denn in modo arbeitet man direkt auf den SDS Mesh, man sieht keinen Polygoncache und kann sich so auf das Endergebnis konzentrieren. Auch beim UV Mapping bietet SDS einige Vorteile. Man kann Objekte wie eine Haut abwickeln, und über wenige Kanten steuern. Eine Flexibilität, die es besonders leicht machte, den Platz auf der Textur optimal auszunutzen. Für die Textur entschied ich mich, alles auf eine einzelne Map mit einer Auflösung von 8k (8192 x 8192 Pixel) zu legen. Das hatte zudem den Vorteil, dass ich gleichzeitig an verschiedenen Bereichen auf dem Model arbeiten konnte und nur einen Shader für das ganze Model benötigte. Da ich so ein Gefährt vorher noch nie gemacht habe, schaute ich mir

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

zunächst Bilder von alten Verladekränen und Eisenbahnwaggons an, um ein Gefühl für das, was ich shaden muss, zu bekommen. Ich teilte die Textur in drei Bereiche auf.

Texturen Eine Textur definierte, wo es noch Reste der Bemalung beziehungsweise der Lackierung geben sollte, und Stahl darunter zu sehen ist. Diese Textur malte ich als reine Schwarzweiß-Maske, die später zwei Materialgruppen trennen würde. Die zweite Textur definierte, wo sich Dreck auf der Oberfläche befinden soll. Diese Textur definierte ich farbig mit Alpha-Maske. Dunkle Elemente würden Rost darstellen, helle Staub und graue würden einfach die Rauheit, also das Glanzverhalten im Shader, beeinflussen. Natürlich hätte ich auch Rost, Schmieröl und Staub trennen können, aber ich hatte nicht vor so sehr ins Detail zu gehen

WORKSHOP | MODO

nur sehr schlechte und kleine Abbildungen im Internet fand, baute ich mir eine Textur mit allen Zeichen und Schriften, die sich auf dem Model befinden sollten, in Photoshop. Die einzelnen Elemente arrangierte ich mit großem Abstand. In modo benutzte ich einen eigenen UV Channel, um die Zeichen zu mappen. Dabei verwendete ich nur die Polygone, auf denen sich ein Zeichen befinden sollte. Dank des Abstands unter den Zeichen störte es nicht, dass sie sich alle auf einer Textur befanden. Gemappet wurden die UVs hauptsächlich mittels Viewport-Projektion, um möglichst wenig Verzerrung zu erhalten. Im Shader befinden sich die Zeichen unterhalb aller anderen Masken, weshalb sie von Dreck und Kratzern mit beeinflusst werden.

Brushes in modo Um die Texturen zu malen, verwendete ich eine Reihe von Texture Brushes. Diese kann

Rost und Farbe werden getrennt aufgetragen

und den Unterschied konnte ich im Shader noch gut trennen. Die dritte Textur war für das Bumpmapping, das einige rostige Elemente ein wenig stärker auftreten ließ oder charakteristische Schweißkanten modellierte. Ich war ein wenig überrascht wie stark modo das Bumpmapping selbst bei GI rendert. Von meinem alten Renderer Vray war ich gewöhnt, dass Bumpmapping so gut wie unsichtbar wird, solange kein direktes Licht darauf fällt. Im Übrigen nutzte ich die beiden vorherigen Texturen, um das Bumpmapping zu unterstützen. Natürlich fehlt hier eine Textur. Nämlich die für die Farbe. Dafür ließ ich mir aber Zeit, bis ich ein geeignetes Hintergrundbild gefunden hätte. Doch schon bei Testrenderings verwendete ich einen einfachen Noise Shader, der mir dann auch so gut gefiel, dass ich keine eigenen Texturen mehr malte. Sprich die farbliche Bemalung entsteht durch eine zweifarbige Noise Map und eben der darüberliegenden Textur für den Staub und Dreck, eigentlich ganz realistisch. Bei jedem Model dürfen natürlich am Schluss die schönen Aufkleber nicht fehlen. Da ich dazu wieder

man mit Hilfe eines Stiftes in modo sehr flink einsetzen. Um so eine Textur zu platzieren, drückt man den Stift auf das Tablett, zieht in eine beliebige Richtung und stellt damit Größe und Ausrichtung der Textur ein. Sobald man loslässt, wird die Textur auf die Oberfl äche projiziert. Somit kommt man schnell auf ein paar hundert Striche pro Minute. Dennoch ist eine gute Textur zeitaufwendig, weil man sich immer wieder Fragen stellen muss wie „Ist das glaubhaft, kann hier Staub sein, was hat diese Kratzer verursacht, wie funktioniert dieser Teil, wieso sieht das an der Stelle so langweilig aus“, etc. Erst wenn man das finale Bild genau ansieht, und es für glaubhaft hält, funktioniert die Textur. Der einzige Trick hierbei ist wohl, das Auge ständig beschäftigt zu halten. Wenn ich mit einem Ergebnis ganz und gar nicht zufrieden bin, gehe ich spazieren, sehe mich in der Realität um und finde manchmal die Lösung an ganz ungewöhnlichen Orten. Der Prozess kann sehr anstrengend werden, weil man praktisch zwischen Modellieren und Endergebnis gezwungen ist, dem Model genau das zu geben, was später definiert, wie

Brushes in modo

Die Kontrolle des Endergebnisses

109


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

gut das Bild ist. Man sollte sich nicht scheuen, mehrmals neu anzufangen, bestenfalls erst ein paar Tests an kleinen Details zu machen.

Rigging Nachdem die Textur mir passend erscheint und ich keinen Grund mehr sehe, die UVs anzupassen, rigge ich das Model. Sehr praktisch war, dass zum selben Zeitpunkt modo 401 mit neuen Animationstools erschien. Ein wenig ungeübt stattete ich das Model mit einer IK aus und hätte fast anfangen können es zu animieren. Aber soweit wollte ich modo 401 bei meinen ersten Versuchen auch nicht testen. Auf jeden Fall war es sehr praktisch, um das Model in verschiedene Posen zu schieben. Alle Kameras und Posen sind als eine Animation abgespeichert, und so kann ich bei jedem Hintergrund ausprobieren, was am besten passt. Blieb noch einen geeigneten Hintergrund zu finden. Zugegeben, ich bevorzuge Fotos im Hintergrund. Landschaften, die digital erstellt sind, sind mir zu tot oder zu perfekt. Ich will gerade die Verbindung von Echtem und Unechtem. Dazu kommt, dass man ein Bild mit einem schönen Hintergrund aufwerten und mit einen schlechten abwerten kann. Bleibt die Schwierigkeit ein Bild zu finden, welches passt.

Rigging in modo

Hintergründe

Animation in modo

e Die Hintergründe geben dem Bild den letzten Schliff

d Das fertige Bild wird in Photoshop noch farbkorrigiert

110

Das Model habe ich durch verschiedene Hintergründe geschickt. Es gibt Versionen im Dschungel und in einer Schneelandschaft. Meine prozeduralen Noise Shader für die Farbe ließen sich dabei leicht anpassen. Gefallen haben mir am meisten trockene Landschaften respektive die Wüste. Das Model kommt mit direktem harten Licht gut zurecht, allerdings mag ich weiches Licht lieber. Daher bevorzugte ich einen seitlichen Lichteinfall. Auf diese Weise hebt sich das Model vor einem hellen Hintergrund am besten ab. Wichtig bei denn Modellen ist auch, dass der subtile Glanz auf der Oberfläche zur Geltung kommt. Ansonsten wirkt es nicht wie aus Stahl gebaut, sondern eher wie aus Plastik. Natürlich hätte ich gern ein passendes HDRBild benutzt, doch gefunden habe ich keines. Das liegt daran, dass diese meist für Autos fotografiert werden und Autos sind selten 4 Meter hoch. Die Bilder sind also allesamt eher einfach ausgeleuchtet. Die Reflexion stammt von einer sphärischen Gradient Map. Dasselbe gilt für die GI. Somit fehlte nur noch Sonnenlicht mit einem leicht weichen Schatten und natürlich ein Untergrund, der diesen Schatten auffängt. Die restlichen Farbanpassungen und Bildaufbes❯ ei serungen entstanden in Photoshop.

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

EDUCATION | NEWS

EDUCATION RTT sucht junge Visionäre

„Wie sieht die Welt im Jahr 2020 aus?“ Mit dieser Frage wendet sich RTT mit den RTT Emerging Technology und RTT Funky Visualization Contests an die „Spezialisten von morgen“. Gewinnern des alljährlichen Studentenwettbewerbs winken hochwertige Preise und die Chance, ihre Projekte vor einem internationalen Fachpublikum auf der RTT Excite im Mai dieses Jahres vorzustellen. Der RTT Emerging Technology Contest ist seit 2005 fester Bestandteil des RTT-Hochschulprogramms und steht in diesem Jahr ganz im Zeichen von „Human Environments“ und der Herausforderung, wie wir mit unserer Umwelt und den alltäglichen Bedarfsgütern in der Zukunft interagieren werden. Der RTT Funky Visualization Contest fordert die Vorstellungskraft der Wettbewerbsteilnehmer 2011 zum zweiten Mal in Folge heraus. Unter dem Motto „Advanced Motion“ sollen futuristische Produkte und Gebrauchsgegenstände in 2D bzw. 3D in Szene gesetzt werden. Beide Wettbewerbe richten sich an Hochschulen, Forschungsteams und Studierende weltweit. Der Einsendeschluss ist jeweils der 15. April 2011. Die Preise werden von RTTs Kooperationspartnern ausgelobt: zwei Nvidia-Quadro-6000-Grafikkarten erwarten die Prämierten des RTT Emerging Technology Contest 2011. Die Gewinner des RTT Funky Visualization Contest 2011 erhalten zwei Intuos 4M Tablet PCs von Wacom. Darüber hinaus sind die Gewinnerteams eingeladen, ihre Visionen auf der internationalen Fachtagung RTT Excite 2011 (www.rttexcite.com) den führenden Köpfen der Branche zu präsentieren. Die Beiträge beider Wettbewerbe können auf www.rtt.ag eingereicht werden. Weitere ❯ sha Infos unter contest@rtt.ag.

Bafög für Gamesund Film-Fans

Autodesk vergibt Lizenzen

Um die Finanzierung für eine Ausbildung an der Games Academy zu ermöglichen, gibt es unter anderem das Schüler-Bafög (eine staatliche, finanzielle Unterstützung) für alle aktuell laufenden Module. Großer Pluspunkt: Die Förderung muss nicht zurückgezahlt werden. Weitere Informationen zu den Finanzierungsmöglichkeiten gibt es unter: www. games-academy.de/service/finanzierung. html. Bewerbungen für den nächsten Kursstart am 04. April (Game Design) können noch bis Mitte März eingereicht werden. Die Games Academy vergibt zudem Teilstipendien an besonders talentierte Bewerberinnen und Bewerber, die nachweislich nicht im vollen Umfang die wirtschaftlichen Mittel für ein Studium an der Games Academy aufbringen können. Hochbegabte mit geringem Einkommen haben die Möglichkeit über das Stipendium einen Zuschuss zu den Ausbildungskosten über den gesamten Ausbildungszeitraum zu erhalten. Dafür ist das erfolgreiche Absolvieren einer Fachaufgabe sowie ein entsprechender Einkommensnach❯ sha weis Voraussetzung.

Von Maya über 3ds Max bis zu Mudbox, Softimage und Motionbuilder: Wer sich für die „Autodesk Education Community“ qualifiziert, bekommt drei Jahre die unbegrenzte Lizenz zu allen relevanten Softwarepaketen des Herstellers für umsonst. Im Zuge der Neuorganisation der Autodesk-Online-Community wurde das gesamte System auf einen „Single-Sign-On“ umgestellt, und dabei die Lizenzen für Studenten überarbeitet. So sollen alle relevanten OnlineAktivitäten rund um den Hersteller aus Kalifornien gebündelt werden. Um in den Genuss der Lizenzen zu kommen, muss man lediglich ein Student oder Lehrender sein, der auf die Software angewiesen ist. Das bedeutet, dass alle Dozenten sowie Studenten aus Diplom-, Bachelor-, Master- und PostgraduiertenStudiengängen und Kursen teil der „Autodesk Education Community“ werden können. Die Liste der verfügbaren Programme richtet sich nicht nur an Postproduction-Lernende, sondern auch an Maschinenbauer, Ingenieure, Architekten und wer sonst mit den Autodesk-Softwarepaketen arbeitet. ❯ ei

Ausbildung

Wir suchen DICH! Lust auf die Themen der DP? Wir suchen für unsere Münchner Redaktion einen Volontär, der genauso fasziniert von den Themen Postproduktion, Animation, Grafik, Audio und Video ist wie wir. Ein abgeschlossenes Studium, erste journalistische Erfahrungen und den Biss, sich zügig in komplexe Themen einzuarbeiten, das sollten Sie mitbringen – und sonst müssen Sie nur mit dem Team klarkommen sowie gute PC-, Internet- und Englischkenntnisse haben. Sie erwartet eine fundierte journalistische Ausbildung in einer Fachredaktion, die alle journalistischen Darstellungsformen bedient und sich mit einer spannenden, abwechslungsreichen Thematik beschäftigt. Sie erlernen das journalistische Handwerk sowohl im Print- als

auch im Online-Bereich. Die Teilnahme an Kongressen im In- und Ausland und die Pflege der Social-Network-Strukturen innerhalb der Branche sind weitere Bestandteile der Ausbildung. Das zweijährige Volontariat hat die Ausbildung zum Fachredakteur (m/w) zum Ziel. Wir freuen uns über Ihre aussagekräftige Bewerbung (gerne per E-Mail) unter Angabe des frühestmöglichen Eintrittsdatums an: Barbara Wacker | Personalabteilung barbara.wacker@atec-bi.de Postanschrift: ATEC Business Information GmbH Barbara Wacker Postfach 20 16 63 80016 München

❯ ei

111


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

RED One – Money: none! Den Standards des heutigen digitalen Kinos gerecht werden und das Ganze ohne Geld? Jetzt werden Fachleute sagen, das ist nur im Traum möglich. Andreas Melcher und Maria Habekost von der HBK Braunschweig beweisen mit ihrem Projekt das Gegenteil. Ihr aufwendiger Erfahrungsbericht einer Kurzfilmproduktion mit der RED One zeigt, was mit von Andreas Melcher viel Ambition heute möglich ist.

S

ie ist zwar mittlerweile nicht mehr ganz neu, allerdings im Lowcost-Bereich immer noch experimentell – und sie hat einen großen Anteil am Gelingen des Projekts: die Digitale Filmkamera. „odem“ ist ein 8-minütiger experimenteller Kurzfilm von Andreas Melcher und Maria Habekost, der sich mit der Erkenntnis und der Betrachtung des eigenen Ichs und der Wirkung der eigenen Handlung als Fremdkörper auf seine Umgebung befasst. Entstanden im Rahmen des Communication-Arts-Master-Studiums an der Hochschule für Bildende Künste in Braunschweig, will das studentische Projekt neben der visuellen Umsetzung der komplexen Handlung auch dem technischen Standard des heutigen digitalen Kinos gerecht wer-

Backstage RED One, Dollys und Stative standen zur Verfügung. HMI-Scheinwerfer wurden geliehen

112

den. Ungewöhnlich dabei ist, dass der Film gleichermaßen aufwendiges Set-Design wie Compositing vorsieht, obwohl „studentisches Projekt“ hier nahezu gleichbedeutend ist mit einer „No-budget-Produktion“.

Generell kann man sagen, dass fehlendes Equipment und nicht vorhandene Technik in begrenztem Umfang durch Zeit, Erfahrung und zusätzlichen Aufwand kompensiert werden konnten.

Inhalt

Material

Sie, eine zerbrechliche, ballerina-ähnliche Erscheinung, wacht liegend in einem vollkommen weißen Raum auf. Eine tiefe schrille Tenorstimme durchfährt die Stille. Am anderen Ende des Raumes erblickt sie ihr Spiegelbild. Das Spiegelbild steht auf. Sie selbst kann nicht aufstehen. Das unerreichbare Ziel, ihr eigenes, paralleles Ich zu berühren, versetzt sie in Bewegung. Sie kriecht mit aller Kraft ihrer Gegenspielerin entgegen, zieht sich an den schneeweißen Möbelstücken hoch. Alles fällt – im Widerspruch zur Schwerkraft – seitlich an ihr vorbei, zerbricht an der Wand des weißen Raumes und wird zu schwarzen Klumpen. Sie fällt zurück und nimmt es immer wieder vom Neuen mit der fremdartigen Kraft auf … Wie man sehen kann, setzt das Konzept des Filmes ein relativ aufwendiges Compositing und Color Gradient voraus. Um nun mit den zur Verfügung stehenden Mitteln ein qualitativ hochwertiges Produkt zu erstellen, galt es, einige Unwägbarkeiten auf teilweise sehr verschlungenen Wegen zu bewältigen.

Das für den Dreh und die Postproduktion benötigte Material wurde hauptsächlich aus der Hochschule bezogen. Eine RED One, Dolly und Stative standen hier als minimale Grundlage für den Dreh zur Verfügung. Durch die Kamera bot sich uns die Möglichkeit, auf eine RAW-Aufzeichnung des Bildmaterials zurückgreifen zu können. Flickerfreie HMI-Scheinwerfer mussten von einem kommerziellen Anbieter geliehen werden. Set, Requisits und so weiter wurden aus privaten Mitteln beschafft.

Dreh und Bewältigung der dabei auftretenden Probleme Um die Unfähigkeit aufzustehen glaubwürdig zu vermitteln und gleichzeitig zu erreichen, dass Setteile natürlich wirkend zur Seite fallen können, wurde ein komplett eingerichteter Raum um 30° gekippt. So war es möglich, fixierte Möbel zu lösen und diese dann von ganz alleine aus dem Set fallen zu lassen. Alle Aufnahmen wurden mit der RED One,

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

Build 30 gedreht, an Objektiven standen zur Verfügung: RED Zoom 17 bis 50 mm sowie drei ältere ARRI-Zeiss-Festbrennweiten (28 mm, 40 mm, 85 mm). Die Aufnahmen erwiesen sich aus technischer Sicht als relativ unkompliziert, zu erwähnen bleibt das unübersichtliche Menü der RED. Hier empfiehlt es sich definitiv, einige Zeit auf das Studieren der Struktur im Vorfeld zu verwenden. Auch bietet es sich an, einen Ausdruck des Menüs mit sich zu führen, wenn noch nicht so viel Erfahrung mit der Kamera vorliegt. Auf unseren plastifizierten Karten war es deutlich einfacher, bestimmte Einstellungen zu finden als in der bis zu sieben Ebenen tiefen und auf drei Menüs aufgeteilten Struktur am kleinen Bildschirm der RED. Ein generelles Problem bei der Aufnahme mit der RED ist, dass sowohl Schärfe als auch Belichtung bei der Aufnahme visuell nur schwer zu beurteilen sind. Beide Parameter enthalten in der Aufzeichnung deutlich mehr Information als der Vorschaumonitor darstellen kann. Vorausgesetzt das Aufl agemaß der Optik stimmt, ist zur Bestimmung der Schärfe das Ausmessen der Entfernung immer noch die

Beauties Die Hauptdarstellerin des Films „odem“ sowie im Hintergrund die digitale RED-One-Kamera

STUDENTENPROJEKT | RED ONE

beste Variante. Alternativ beziehungsweise zusätzlich besitzt die Kamera die MagnifyFunktion, die einen vergrößerten Ausschnitt des Bildes zur Schärfenbestimmung 1:1 darstellt. Außerdem hat die Kamera einen Fokusassistenten, der mit Hilfe von Kantenerkennung ein Peaking respektive einen Graphen zur Fokusbestimmung bietet, der jedoch nicht immer ganz eindeutig zu lesen ist. Generell besteht beim Filmen in 4K allerdings immer das Problem, dass nur jeder vierte Pixel sichtbar ist, da der Monitor inklusive Umfeldanzeige nur 1024 x 600 Pixel darstellt, der Viewfinder liegt mit 1280 x 848 nur unwesentlich darüber. Bedeutend problematischer ist die Beurteilung der Belichtung. Kein Monitor bietet die Möglichkeit, ein RAW-Bild (was dem Aufnahmeformat der Kamera entspricht) mit vollem dynamischem Umfang darzustellen. Hinzu kommt, dass die von der Kamera intern berechnete Vorschau auf dem Monitor nur eine grobe Annäherung darstellt. Um die Belichtung technisch korrekt einzustellen, ist man erneut auf diverse Hilfsmittel der Kamera angewiesen, da die visuelle Kontrolle nicht zuverlässig ist. Insgesamt gibt es drei verschiedene Kontrollmöglichkeiten in der Kamera: Das Histogramm in verschiedenen Ausführungen, die Belichtungsampel und die RAW-Belichtungsanzeige. Das Histogramm gibt die Helligkeitsverteilung im Bild an, dies ermöglicht eine relativ genaue Kontrolle darüber, ob das Bild über- oder unterbelichtet ist. Allerdings ist dies nur im RAW-View-Modus möglich, da die Kamera nicht in der Lage ist, ein Histogramm für die RAW-Aufnahme und gleichzeitig ein Bild im REDColor-Modus darzustellen. Eine korrekte Beurteilung des Histogramms ist also nur möglich, wenn auch das Bild im (un-

gewohnten) RAW-View angezeigt wird, da der REDColor-Modus nicht dem entspricht, was tatsächlich in der Aufnahme steckt. Die Belichtungsampel und die RAWBelichtungsanzeige arbeiten ähnlich: Sie analysieren die Helligkeitsverteilung im Bild und warnen vor extremen Werten. Vor allem die Belichtungsampel ist sehr hilfsreich, um Überbelichtung zu vermeiden.

Ausstattung Viele Set-Teile und Requisiten wurden aus privaten Mitteln beschafft

Erfahrungswerte Bilder beim Dreh zu beurteilen, besonders wenn eine aufwendigere Bearbeitung in der Postproduktion vorgesehen ist, ist eigentlich nur möglich, wenn man schon auf Erfahrungswerte beim Grading von RED-Material zurückgreifen kann. Frei nach dem Motto: „so sah es schon mal aus und hat funktioniert (oder auch nicht)“. Hier gilt es, am Set die Entscheidung zu treffen, ob eine Aufnahme mit den gewählten Einstellungen das gewünschte Ergebnis liefern kann oder nicht. Diese Erfahrungswerte lassen sich allerdings relativ schnell erlangen, indem Aufnahmen der RED im FreewareProgramm REDCine-X von RED getestet werden. Alle Szenen wurden in 4,5K WS mit

113


AKTUELL

FOKUS

EDITING

ANIMATION

25 fps oder 2K 2:1 mit 100 fps gefilmt, beide im RC36. Als Aufnahmemedium diente das REDRaid. In einem relativ knappen Drehverhältnis wurden so etwa 250 GB Rohdaten generiert.

Postproduktion & Compositing Am Anfang des Projekts wurde noch mit der CS4 von Adobe gearbeitet. Dadurch ergab sich ein Workflow in drei Stufen. (Mit der CS5 würde Schritt eins entfallen und man würde nativ mit R3D-Daten arbeiten). 1. Firstlight-Farbkorrektur mit REDCine-X und Ausgabe als ProRes-4444 mit FullDebayer in voller Auflösung. 2. Rohschnitt der ProRes-4444-Dateien in Premiere CS4 ohne Ausgabe, sondern mit direkter Übergabe an After Effects CS4. 3. Compositing und finale Farbkorrektur in After Effects CS4, Ausgabe als ProRes-4444 oder DPX in 2K zur Ausbelichtung oder Konvertierung in ein DCI-konformes Format (JPEG2000). Später wechselten wir für Schritt 3 zu After Effects CS5. Die größte Herausforderung des Konzeptes in der Post bestand nun darin, in einem weißen Raum weiße Möbelstücke zur Seite fallen zu lassen, die sich dabei schwarz verfärben. 3DModeling wurde nicht in Betracht gezogen, da vor allem die glaubwürdige Interaktion zwischen Darstellerin und fallenden Möbeln sehr schwierig geworden wäre, während die-

COMPOSITING

COLOR

AUDIO

ser Aspekt gleichzeitig ein tragendes Element in der Handlung darstellt. Hier wurden stattdessen die Möglichkeiten der RAW-Aufzeichnung genutzt: Durch mehrstufiges Graden und überlagern von Ebenen sollte die Verfärbung der Möbel von Weiß zu Schwarz künstlich erzielt werden. Alle Möbel, die fallen sollten, waren in bunten Volltonfarben gestrichen. So war es möglich nach der Aufnahme verschiedene Firstlight-Gradings von einer Szene zu machen: 1. Main (Beauty): Ein Grading, das Hintergrund und Darstellerin in gewünschter Farb- und Helligkeitsintensität darstellt. 2. Key: Eine Version des Bildes, in dem die fallenden bunten Möbel extrem gesättigt sind. 3. Weiß: Eine Version für jede Farbe, in der diese weiß aussieht. 4. Schwarz: Ein letztes Grading, in dem die Möbel schwarz sind. In den Versionen zwei bis vier waren dann selbstverständlich die meisten Bildteile unbrauchbar, da diese entweder zu hell, zu dunkel oder stark übersättigt waren. Die Kombination der vier Bildversionen ergab aber Folgendes: Der Hintergrund wurde aus Main erstellt. Darüber wurden die zwei Ebenen Weiß und Schwarz gelegt, die jeweils mit einer Maske versehen wurden, die aus einem entsprechenden Chromakey der Key-Version erstellt wurden. Dadurch waren die Ebenen Weiß und Schwarz nur dort sichtbar, wo vor-

Kurze Workflowübersicht: Dreh: FirstlightCC: Digitales Intermediate: Rohschnitt: Compositing und SecondlightCC:

114

RED One, Raw, 4,5K-WS, RC36 25 fps / 2K-2:1, RC36, 100fps REDCineX ProRes4444, fullDebayer, volle Auflösung PC, Premiere CS4 Mac, After Effects CS5

STEREO 3D

MAKING OF

GUIDE

ON TOUR

her farbige Möbel waren. Dies ermöglichte es durch einfaches Ein- und Ausblenden der Ebenen die Möbel – unabhängig von Form und Position – von Weiß nach Schwarz zu verändern. Um diese vier Bildversionen zu generieren, nutzen wir in unserem ersten Schritt der Postproduktion das RED-eigene Programm REDCine-X. Der offensichtlichste Vorteil dieses Programms ist, dass es direkt von RED als Download zur kostenlosen Nutzung auf der RED-Webseite zur Verfügung gestellt wird. Es handelt sich allerdings um

Technik Erfahrungswerte sind bei der Entscheidung für RED-Aufnahmeeinstellungen unerlässlich

eine Beta, was bedeutet, dass im Grunde sämtliche Funktionen laufen, aber – wie das bei Beta-Versionen nun mal so ist – ab und zu auch Unerwartetes passiert. Angefangen mit unregelmäßigen Programmabstürzen, über zwischenzeitliches Aussetzen der Vorschau bis hin zu Einstellungen, die sich scheinbar von alleine zurücksetzten. Durch diese, mit der neuen Version des Programms immer seltener auftretenden Fehler, ist eine sichere und schnelle Arbeitsweise nur mit reichlich Glück möglich. Wenn einem die Zeit und die Geduld zur Verfügung steht, können aber durchaus gute Ergebnisse erzielt werden. Das Programm stellt alle benötigten Tools zu einer sauberen RAW-

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

Verarbeitung zur Verfügung. Auch eine standardisierte Ausgabe als ProRes-4444- oder DPX-Sequenz ist möglich. Der Rohschnitt in Premiere funktionierte ausgezeichnet. Lediglich die Vorschau des 4K-Materials musste auf unserem System (MacPro / Snow Leopard, 8 x 2,4 GHz CPU, 16 GB RAM) immer gerendert werden. Auch die Übergabe an After Effects verlief komplett problemlos: Alle Filmclips wurden in voller Länge, voll editierbar und mit korrekten In/ Out-Punkten übergeben. After Effects überraschte ebenfalls: Das Programm lief sehr stabil, nur ein Absturz über die gesamte Projektdauer. Auch aufwendige Kompositionen mit bis zu 40 Layern in 4K, die meisten mit anspruchsvollen Filtern (wie Time-remapping, Keylight 2.1), denen bis zu acht verschiedene 4K Videoclips in ProRes-4444 zugrundelagen, stellten kein Problem dar. Alles wurde sauber vom Programm verarbeitet. Zur Darstellung des Bildes nutzten wir zwei HP-LP2480zx-Monitore. Diese ließen sich einfach kalibrieren und stellten so halbwegs zuverlässig Farben und Helligkeiten dar. Da es sich aber nicht um exakt eingestellte Vorschaumonitore handelte, war es nötig, viele Helligkeits- beziehunsweise Farbeinstellungen mit Hilfsmitteln wie Histogramm, Waveformmonitor und Vektorskop sowie anhand von Zahlenwerten zu beurteilen. Ob Weißtöne identisch sind oder ob Schwarz wirklich Schwarz ist, ist damit nicht besonders schwer festzustellen, allerdings auch nicht gerade komfortabel. Das vergleichen von Zahlenwerten und deren Anpassungen an Normen standen hierbei an erster Stelle.

STUDENTENPROJEKT | RED ONE

position in 2K vor, deren Footage aus ProRes-4444 in mindestens 2K oder DPX-Einzelbildern bestand. Aus dieser Komposition ließ sich nun jedes erdenkliche Format generieren. Für eine mögliche 2K-Ausbelichtung auf 35 mm würde eine ProRes422-Ausgabe reichen (dies waren die Vorgaben der hiesigen Ausbelichtungsfirma). Zunächst wurde aber eine 2K-Ausgabe in MPEG-2 erstellt, da dieses Format vom Zuspieler des in Braunschweig ansässigen Kinos, in dem der Film laufen soll, am besten akzeptiert wurde. Zusätzlich ließ sich das Material auch in ausreichender Qualität herunterskalieren, um eine Ausgabe in Full-HD auf Blu-ray zu erzeugen.

Fazit Alles in allem verlief die Produktion sehr zufriedenstellend. Es hat sich gezeigt, dass es durchaus möglich ist, mit sehr geringen Mitteln ein hochwertiges Produkt zu schaffen. Gerade die RED One bietet hier günstige Möglichkeiten, gute Ergebnisse zu erzielen. Allerdings ist zu bedenken, dass ein Verzicht auf professionelles Equipment und Technik keinesfalls eine deutliche Kostenersparnis darstellt, sondern sich am Ende allenfalls eine Nullrechnung ergibt, da sich fehlende oder unzureichende Technik wie langsame Rechner oder fehlende Software, direkt auf die Arbeitszeit niederschlagen. Wenn allerdings genug Zeit, Erfahrung, Motivation und Ausdauer vorhanden sind, lassen sich auf diesem Wege auch von unabhängigen, nicht geförderten Filmschaffenden wunderschöne freie Arbeiten ❯ jb erzeugen.

Ausgabe Nachdem alles geschnitten, bearbeitet und korrigiert war, lag eine After-Effects-Kom-

Bildaufbau In Sachen Compositing-Workflow entschied man sich für Adobe After Effects. Hier Breakdown-Ansichten des Bildaufbaus

115


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Cybercity Die Welt von Fusion ist dystopisch und chaotisch

Cyberpunk aus Bremerhaven Nicht zuletzt „Tron Legacy“ leitet eine Renaissance des Science-Fiction-Subgenres „Cyberpunk“ ein. Der von den Bremerhavener Studenten Eugen Baitinger und Falk Boje erstellte Kurzfilm „FUSION“ lässt den Zuschauer schon jetzt von „elektrischen Schafen“ träumen … Wie die beiden ihr ambitioniertes Abschlussprojekt gestemmt haben, erzählen sie von Eugen Baitinger und Falk Boje in diesem Making of.

E

in „Brring“-Geräusch ertönt aus den Lautsprecherboxen. Der Blick schweift zum Nachttisch, der Funkwecker zeigt 4.17 Uhr morgens an. Aus zwei Zimmern stolpern Eugen und Falk zum Monitor der Workstation, die brennende Frage im Kopf: War der Rendervorgang erfolgreich? Der After-Effects-Status verkündet „Vorgang erfolgreich abgeschlossen“. Auf den Gesichtern der beiden Studenten zeigt sich Erleichterung, wie man sie nur im Halbschlaf um 4 Uhr morgens erlebt, denn eine weitere Sequenz von „FUSION“ ist fertiggestellt.

Graduierungsarbeit „FUSION“ „FUSION“ ist der Titel des Filmprojektes, das Eugen Baitinger und Falk Boje im letzten halben Jahr von morgens bis abends beschäftigte. Im Frühjahr 2010 begannen beide mit dem Brainstorming für ihr bislang größtes Projekt; ihre Graduierungsarbeit an der Hochschule Bremerhaven im Studiengang Digitale Medien. Die Leidenschaft für Science Fiction, Kino und die Möglichkeit, mit visuellen Effekten neue Welten zu erschaffen, bündelten sie in der theoretischen Arbeit „MANMACHINE

– Eine Untersuchung der strukturellen und ästhetischen Elemente des Cyberpunks im Film“ und der begleitenden Filmproduktion. Letzteres bot die Chance, wissenschaftliche Erkenntnisse am Set in die Arbeit einfließen zu lassen. Schnell war klar, dass Eugen und Falk eine „two-men-production“ zu stemmen hatten, in der sie vom Script, über alle Produktionsaspekte bis zur Premiere alle Schritte durchführen würden. War „FUSION“ in der Anfangsphase noch als 5-MinutenKurzfilm angedacht, so wuchs er im Laufe des Drehbuchschreibens bis zum fertigen Script auf rund 20 Minuten an.

Ein letzter Auftrag

Im Studio Sehr viel schauspielerische Leistung ist vor der Greenscreen erforderlich

116

Finale Szene Im Compositing erhält die Szene durch AE und Maya den letzten Feinschliff

Erzählt wird die Geschichte von John Geiger, einem abgehalfterten Cyberdetektiv, der von Sam, einer alten Hackerfreundin, für einen letzten Auftrag reaktiviert wird. Zusammen wollen sie den Speichercode einer Künstlichen Intelligenz (K.I.) stehlen. Der Auftrag führt Sam und Geiger in den Cyberspace und die Tiefen der Cybercity, wo weitere Geheimnisse auf sie warten. Inspiriert wurde die Handlung von Autoren wie William Gibson und Philip K. Dick, der den berühmten Roman

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

EDUCATION | CYBERPUNK

Verschmelzung Die Kameraprojektion ermöglicht schnell erstellte Sets und Rohdaten

„Träumen Androiden von elektrischen Schafen?“, die spätere Vorlage für „Blade Runner“, schuf. Um dies umzusetzen pendelten Eugen und Falk in den nächsten Wochen zwischen Konzeptskizzen, Location-Scouting, Kostüm- und Setdesign, Projektmanagement, Darstellercasting und dem Ankauf von Drehequipment.

Previs und Dreh Um für die Dreharbeiten besser planen und im Hinblick auf die Postproduktion mit einer größeren Sicherheit in den Dreh gehen zu können, wurde der gesamte Film als Animatic vorvisualisiert. Durch das Animatic, welches komplett in Maya entstand, konnten Kamerapositionen und Winkel und das Timing der Darsteller genauestens geplant werden. Dies erwies sich Anfang Mai 2010, als die Dreharbeiten begannen, als unverzichtbar, um den Darstellern am Set oder vor der Greenscreen eine bessere Vorstellung von den fertigen Szenen geben zu können. Für die Besetzung konnten Schauspieler aus ganz Deutschland verpflichtet werden, allen voran Christian Bergmann als Hauptdarsteller, der mit seinem Enthusiasmus und seiner Leidenschaft den Film enorm bereicherte. In weiteren Rollen spielten Beate Weidenhammer, die wie Bergmann ein Engagement an der „Bremer Shakespeare Company“ besitzt, und Thomas Goersch, der die Rolle des Antagonisten übernahm. Gedreht wurde nach straffem Zeitplan innerhalb einer Woche an diversen Schauplätzen in Bremerhaven und näherer Umgebung. Während des Drehs widmete sich Eugen vor-

rangig dem Ton am Set und Falk der Kameraarbeit, während beide Regie führten und sich um die Beleuchtung kümmerten. Unterstützt wurden sie hierbei von Jagpal Singh und Svenja Schlobohm. Dominiert wurden die Dreharbeiten von der Arbeit vor der Greenscreen, da etwa die Hälfte des Films ausschließlich vor digitalen Hintergründen und Sets spielt. Gefilmt wurde mit einer DSRL-Kamera in 1080p24, welche es erlaubte, dem Film eine stark reduzierte Schärfentiefe zu verleihen.

Postproduktion Der Schnitt konnte in Final Cut innerhalb einer Woche abgeschlossen werden, so dass ein Großteil der Bearbeitungszeit der dreimonatigen Postproduktion auf die Erstellung der visuellen Effekte verfiel. Eugen übernahm die Aufgabe, die aufwendigen Interface-Szenen im Cyberspace zu gestalten, wofür After Effects, in dem das gesamte Compositing des Films stattfand, zum Einsatz kam. Außerdem betreute Eugen neben der Gestaltung digitaler Hintergründe den Tonschnitt und erstellte eine Vielzahl von Soundeffekten für den Film. Für die Musik konnte Bear Bronson, ein amerikanischer Musiker, in das Projekt geholt werden, der unter enormen Zeitdruck in zwei Wochen den gesamten Film orchestrierte und die Aufgabe stemmte, Maschinengeräusche mit sanften Streichern zu verbinden. Die finale Tonmischung übernahm Marco Nola, Sevens Rays Music Tonstudio, in dem auch die Aufnahmen des Film-Noir-typischen Voiceovers des Hauptcharakters stattfanden. Falk Boje zeichnete für eine Reihe von Matte Pain-

Team und Hochschule

Das Team Das Mammut-Projekt „FUSION“ wurde von der Zwei-Mann-Produktionsfirma „Doppelganger films“ realisiert. Das Team besteht aus den Produzenten Eugen Baitinger und Falk Boje, die alle Produktionsschritte des Projektes übernahmen und einige parallel durchführten (zum Beispiel Matte Painting), andere wiederum nach ihren Spezialisierungen aufteilten (etwa 3D-Arbeiten und Interface Design). „FUSION“ stieß bei der Umsetzung auf sehr viel positive nationale sowie internationale Resonanz und so konnten professionelle Schauspieler aus allen Ecken Deutschlands, Maskenbildner, internationale Musiker, Tonexperten, Lichttechniker, Lagerbetreiber und Transportunternehmen zur Unterstützung des Teams engagiert werden. Dabei unterlag der Workflow der ständigen Kontrolle der Produzenten, die durch den Abschluss des Projektes und des Studiums bereit sind, ihre beruflichen Laufbahnen anzutreten.

Die Hochschule Das Studienprogramm Digitale Medien ist ein gemeinsames Angebot der Hochschulen des Landes Bremen. Das Besondere: Die Studierenden können Lehrveranstaltungen an allen beteiligten Einrichtungen besuchen. Das Studium kombiniert technische und wissenschaftliche mit künstlerischen und gestalterischen Aspekten. Die Studienschwerpunkte an der Hochschule Bremerhaven sind unter anderem Animation und Videoproduktion. Ab Oktober 2011 wird der Studiengang unter dem Namen Digitale Medienproduktion an der Hochschule Bremerhaven fortgeführt werden. Digitale Medienproduktion, kurz DMP, ist ein designorientierter Medienstudiengang, der Gestaltungs- und Anwendungswissen mit technischem Knowhow verknüpft. Dabei sollen Studierende ausgebildet werden, die in der Lage sind, Kommunikationskonzepte und -produkte in den unterschiedlichen Bereichen der Medienbranche zu entwickeln. Der Schwerpunkt Video/Film/Animation wird weiter ausgebaut werden, gleichwohl ist DMP aber kein Filmstudiengang. Die Studierenden von DMP finden Jobs bei Werbe-, Design- und Multimediaagenturen, in den Kreativabteilungen von Wirtschaft und Kultur sowie in Medienproduktionsfirmen. Web: www.hs-bremerhaven.de/Bachelor studiengang_Digitale_Medien.html

Zukunftsweisend Der Filmlook wurde erzielt durch Adobe-Programme, Maya und Final Cut

117


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Abgefahren Schauspielerin Beate Weidenhammer aka Sam im Vordergrund, Photoshop-Gleiter im Mittelgrund und Maya-Animation im Hintergrund

Duell Erzfeinde vor einer atemberaubend-futuristischen Kulisse

tings mit Kameraprojektionen verantwortlich, welche alle in „Photoshop“ und „Maya“, die 3D-Applikation der Wahl, in doppelter HDAuflösung entstanden. Dies hatte den Vorteil, dass sehr schnell ein fotorealistisches Ergebnis mit Hilfe der Matte Paintings erzielt wer-

Premiere

Realität verschmilzt mit Virtualität. After Effects hilft dabei

den konnte, und die Rendervorgänge dank der Projektion schnell abgeschlossen waren. Für die gesamte Produktion standen den Produzenten nur zwei Workstations zur Verfügung, auf denen alle Arbeitsprozesse abliefen. Dies erforderte eine effiziente Arbeitsweise und genaue Kalkulation der Renderzeiten.

Für das letzte Drittel des Films erschuf Falk zwei komplette digitale Sets. Hierfür wurde das Rohmaterial in After Effects oder Mocha getrackt, das Set in Maya als 3D-Modell gestaltet und zurück in das Compositing-Programm exportiert. Die finale Farbkorrektur wurde mit Colorista II in After Effects vorgenommen, was sich als sehr komfortabel erwies, da so zu jeder Zeit auf alle Elemente des Compositings zugegriffen werden konnte. Gewann der Film durch den Dreh mit der DSLR-Kamera seinen Filmlook, führte dies zu einer nicht unerheblichen Herausforderung beim Color Grading. Da nur in 8bit aufgenommen wurde, musste viel daran gearbeitet werden, trotz PreGrading durch Picturestyles in der Kamera, Artefaktbildung beim Filmmaterial zu vermeiden. Die fertigen Sequenzen wurden letztlich aus After Effects exportiert und ersetzten in Final Cut die Rohdaten. So wurde das durch die Kamera bereits stark komprimierte Rohmaterial geschont, da auf dem Weg zum fertigen Produkt lediglich ein Rendervorgang stattfand.

Mitte August vergangenen Jahres war es endlich vollbracht: „FUSION“ sowie „MANMACHINE“ waren fertig zur Abgabe und sicherten Eugen und Falk den angestrebten Abschluss. Die Premiere des Films fand am 17. Oktober 2010 statt. Damit wurde ein fast sechsmonatiges Projekt abgeschlossen, das neben harter Arbeit und Rückschlägen vor allem die Leidenschaft für Film und visuelle Effekte bestärkte und eine inspirierende, kreative und technische Weiterentwicklung ❯ sha ermöglichte.

Storyboard Im Animatic wurden bereits alle Details vorgenommen

Interview DP: Wie kamen Sie auf das Thema Cyberpunk? Eugen Baitinger: Filme wie „Blade Runner“ und „Matrix“ teilen einen besonderen Look: Eine chaotische Dystopie, aus der es kein Entkommen gibt. Nicht jedoch die negative Atmosphäre macht Cyberpunk so reizvoll, sondern vielmehr die alternative Darstellung der nahen Zukunft, in der uns oft der Spiegel vor das Gesicht gehalten wird und subtil zum Nachdenken anregen kann, wohin sich die Welt entwickeln könnte. Einige behaupten das Thema ist mit „Matrix“ gestorben. Wir hingegen denken, dass jeder kommerziell erfolgreiche Cyberpunkfilm kontroverse gesellschaftliche Zusammenhänge aufgreift und sich deshalb zukünftig weitere Filme mit diesem Thema befassen werden.

macht, sind enorm; auch wenn man seine Zeit braucht, um sich mit den verschiedenen „Mentalitäten“ anzufreunden, denn machen wir uns nichts vor: Eine Kunsthochschule funktioniert nun einmal anders als eine Universität.

DP: Warum wählten Sie die Hochschule Bremerhaven als Ausbildungsort? Falk Boje: Die Hochschule Bremerhaven bot vernünftige Rahmenbedingungen, wenn auch teilweise die notwendigen Kompetenzen für spezielle Fragen fehlten. Dennoch bestand die Möglichkeit hochschulübergreifend Kurse im ganzen Land Bremen zu belegen und somit auf ein breites Angebotsspektrum zurückzugreifen, das es allein in Bremerhaven nicht gab. Die Erfahrungen, die man durch solch eine Kooperation

DP: Haben Sie schon Pläne für nach dem Studium? Eugen Baitinger: Ich bin sehr an der konzeptionellen Arbeit interessiert und möchte auch weiterhin in diesem Bereich der Branche als Art Director tätig sein. Falk Boje: Als VFX Artist würde ich gerne in einer Postproduktionsfirma arbeiten. Besonders der 3D-Bereich reizt mich sehr, und wenn es dann soweit ist, würde ich gerne den Master hinterher hängen.

118

Eugen Baitinger (links) info@ebaitinger.de, www.ebaitinger.de Falk Boje (rechts) info@falk-boje.de, www.falk-boje.de

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

GUIDE

DP-Guide Print Audio ................................................119 Filmmusik.......................................119 Musikarchiv ....................................119 Broadcast .........................................119 Virtuelles Studio .............................119 CD & DVD ..........................................119 Allgemein .......................................119 Authoring/Pre-Mastering ...............119 Bedruckung/Verpackung ................119 Komplettservice .............................119 Konzeption/Management ...............120 Mastering/Pressung/Replikation ...120

AUDIO

CGI ....................................................120 3D-Animation..................................120 3D-Scanning ...................................122 Ausbildung/Schulung .....................122 Characteranimation........................122 Compositing....................................122 Realtime .........................................123 Equipment ........................................123 Computer-Hardware/Peripherie ....123 Monitore / Kameras / MAZ .............123 Software .........................................123 Film & Video .....................................123

Editing/Schnitt ................................123 Filmbelichtung/FAZ ........................123 Filmdigitalisierung .........................124 Filmproduktion ...............................124 Footage ...........................................124 HD-Filmproduktion.........................124 Postproduktion ...............................124 Special Effects/Tricktechnik...........124 Visual Effects ..................................124 Angebote.........................................124 Web & Interactive .............................125 Vermietung .......................................125

AUDIOAGENCY - GEMAFREIES MUSIKARCHIV

BIRDMUSIC - SPRENGER & SAUER GBR

www.audioagency.de // Lupusstraße 36, D - 50670 Köln // Tel.: 0221-99225350 // Fax: 0221-99225354 // eMail: info@audio agency.de // Kontakt: Daniel Knobloch

www.birdmusic.de // Postfach 10 23 46, 86013 Augsburg // Tel. +49 (0) 821 / 22 75 819, Mobil +49 (0) 173 / 92 88 561, eMail: office@ birdmusic.de / Kontakt: Steffen Sauer

AUDIO / MUSIKARCHIV / FILMMUSIK

KOMPOSITION/MUSIKPRODUKTION/MARKETING

SOUNDTAXI - MUSIKARCHIV

SOUNDTAXI - MUSIKARCHIV

www.soundtaxi.net // Nikolausstraße 6a, D-70190 Stuttgart // Tel.: 0711/4107147, Fax: 0176/48193839, eMail: info@soundtaxi.de // Kontakt: Tim Rheinwald

www.soundtaxi.net // Nikolausstraße 6a, D-70190 Stuttgart // Tel.: 0711/4107147, Fax: 0176/48193839, eMail: info@soundtaxi.de // Kontakt: Tim Rheinwald

AUDIO/MUSIKARCHIV/FILMMUSIK

FILMMUSIK

VR3 VIRTUAL PRODUCTION www.vr3.de // Königsberger Straße1, D - 40231 Düsseldorf // Tel.: 0211/9346468, Fax: 0211/7302247, eMail: office@vr3.de // Kontakt: Jochen Schreiber

BROADCAST

VIRTUELLES STUDIO

CD & DVD BEROLA-FILM GMBH

BEROLA-FILM GMBH

DVDESIGN GMBH

www.berola.de // Schlachthofstr. 11, D-91301 Forchheim // Tel. 09191/7222-0, Fax 09191/7222-90, eMail: info@berola.de // Kontakt: Dipl. Ing. Dirk Jurschewsky DW40, Christine Trautner DW-44

www.dvdesign.de // Wittener Str. 172 D - 45549 Sprockhövel // Tel.: 02339-1219752, Fax: 02339/1219756, eMail: info@dvdesign. de // Kontakt: Christoph Schmidt

AUTHORING/PRE-MASTERING

AUTHORING/PRE-MASTERING

GROUP OF PICTURES GBR

www.berola.de // Schlachthofstr. 11, D-91301 Forchheim // Tel. 09191/7222-0, Fax 09191/7222-90, eMail: info@berola.de // Kontakt: Dipl. Ing. Dirk Jurschewsky DW40, Christine Trautner DW-44

www.group-of-pictures.com // Bismarckstr. 27-29, D - 50672 Köln // Tel.: 0221/7108850, Fax: 7108855, eMail: beneke@group-ofpictures.com // Kontakt: Alexander Beneke

BEDRUCKUNG/VERPACKUNG

KOMPLETTSERVICE

HIER KÖNNTE AUCH IHRE FIRMA STEHEN i 089/97 39 97 43 119


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

GROUP OF PICTURES GBR

BEROLA-FILM GMBH

www.group-of-pictures.com // Bismarckstr. 27-29, D - 50672 Köln // Tel.: 0221/7108850, Fax: 7108855, eMail: beneke@group-ofpictures.com // Kontakt: Alexander Beneke

www.berola.de // Schlachthofstr. 11, D-91301 Forchheim // Tel. 09191/7222-0, Fax 09191/7222-90, eMail: info@berola.de // Kontakt: Dipl. Ing. Dirk Jurschewsky DW40, Christine Trautner DW-44

ENTERACTIVE ENTERTAINMENT GMBH www.enteractive.de // Kaiser-WilhelmStraße 93, D - 20355 Hamburg // eMail: contact@ enteractive. de, Tel.: 040/ 4600180, Fax: 040/46001818 // Kontakt: Hans D. Henseleit

KONZEPTION/MANAGEMENT

MASTERING/PRESSUNG/REPLIKATION

MASTERING/PRESSUNG/REPLIKATION

GROUP OF PICTURES GBR

ANIMAGIX MEDIA AG

CGI

www.group-of-pictures.com // Bismarckstr. 27-29, D - 50672 Köln // Tel.: 0221/7108850, Fax: 7108855, eMail: beneke@group-ofpictures.com // Kontakt: Alexander Beneke MASTERING/PRESSUNG/REPLIKATION

IHR EINTRAG IM DP GUIDE PRINT? i 089/97 39 97 43 i SALES@DIGITAL PRODUCTION.COM

www.animagix.de // Köln: 0221-3592367 // Leipzig 0341-2248327 // Stuttgart 071149039920 // eMail: info@animagix.de // Kontakt: Kay Gotthilf COMPOSITING / VFX / ANIMATION

Animation und Design

ARRI FILM & TV SERVICES GMBH

BLUE SILVER GmbH • Max-Planck-Str. 3 85609 Aschheim-Dornach • Tel. 089 6229940 Fax 089 62299411 • www.blue-silver.com

www.arri.com // Türkenstraße 89, D-80799 München // Tel. 089/03809-1970, Fax 089/3809-1549, eMail: hraedlein@arri. de / Kontakt: Henning Rädlein

Allgemein

ALLGEMEIN

EYEBEE VISUAL MEDIA www.eyebee-media. com // Rheingoldweg 33, D - 22559 Hamburg // Tel.: 040/81992145, Fax: 040/898 07133, eMail: kontakt@eyebee-media.com // Kontakt: Dipl. Ing. Ingo Beckmann ALLGEMEIN

FABERCOURTIAL

PiXABLE STUDIOS GMBH & CO. KG www.pixable.de Rudolf-Leonhard-Str. 7 // D-01097 Dresden // Tel.: 0351/5634136-0 // Fax: 0351/5634136-16 // eMail: info@pixable.de // Kontakt: Tino Barth

TECHNICAL ART ELECTRONIC PAINT GMBH

ALLGEMEIN

ALLGEMEIN

ALLGEMEIN

THE LIGHT WORKS www.thelightworks.com // Otto-Hahn-Straße 7, D - 50997 Köln // eMail: tobias@thelightworks. com, Tel.: 02236/967322, Fax: 967319 // Kontakt: Tobias Richter

FLEXICAD.COM DER RHINOCEROS® SPEZIALIST

ALLGEMEIN

ALLGEMEIN

www.faber-courtial.de // Elisabethenstr. 34, D 64283 Darmstadt // Tel.: 06151/599260, eMail: public@faber-courtial.de // Kontakt: Maria Courtial

FIFTYEIGHT 3D Animation & Digital Effects GmbH Osthafen | Lindleystraße 12 60314 Frankfurt a. M. | Germany Telefon +49 (0) 69.48 000 55.0 www.fiftyeight.com hello@fiftyeight.com

120

www.technical-art.de // Dreieichstraße 50, D - 63128 Dietzenbach // Tel.: 06074/25033, eMail: office@technical-art.de // Kontakt: Norbert Schäfer, Markus Schmidt

www.flexiCAD.com // Kriegelsteinerstraße 5, D - 81476 München // Tel.: 089/75940506, Fax: 089/75940507, eMail: info@flexiCAD. com // Kontakt: Michael Meyer

ANIMAPIX

ANIMOTION MEDIA

www.animapix. com // Gerberstraße 3, D 72622 Nürtingen // Tel.: 07022/210250, Fax: 07022/ 210251, eMail: post@animapix.com // Kontakt: Bernd Hafranke

www.animotion-media.de // Alleenstra 160, D -73230 Kirchheim unter Teck // Fon: 07021 7373780, Fax: 47382 // office@ animot.de // Kontakt: Gerold Straub

3D-ANIMATION

3D-ANIMATION

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

GUIDE

ANYMOTION GMBH www.anymotion.com // Konsul-Smidt-Str. 8d, D - 28217 Bremen // eMail: mail@anymotion.com, Tel.: 0421/303260, Fax: 3032622 // Kontakt: Dipl.-Ing. F. Bischoff

ESB MEDIENCOLLEGE

3D-ANIMATION

3D-ANIMATION

i SALES@DIGITAL PRODUCTION.COM

EYEBEE VISUAL MEDIA

FINAL CUT

FORM 3D

www.eyebee-media. com // Rheingoldweg 33, D - 22559 Hamburg // Tel.: 040/81992145, Fax: 040/898 07133, eMail: kontakt@eyebee-media.com // Kontakt: Dipl. Ing. Ingo Beckmann

www.finalcut.de // St.Georgstraße 8, D - 20099 Hamburg // Tel.: 040/ -2803903 o. 0700/ FINALCUT, Fax: 040/2803950, eMail: info@ finalcut.de // Kontakt: Gerrit Schulze

www.form3d. de Hofmannstraße 7a, D 81379 München // Tel.: 089/51099596, Fax: 089/23077768, eMail: neumann@form3d.de // Kontakt: Michael Neumann

3D-ANIMATION

3D-ANIMATION

3D-ANIMATION

BREITBILD VISUAL EFFECTS

Animation und Design

www.breitbild-vfx. com // Föhrenweg 14, D - 73054 Eislingen/Fils // Tel.: 07161/30711410, eMail: info@breitbild-vfx.com // Kontakt: Francesco Faranna

BLUE SILVER GmbH • Max-Planck-Str. 3 85609 Aschheim-Dornach • Tel. 089 6229940 Fax 089 62299411 • www.blue-silver.com

3D ANIMATION

3D Animation

GROUND STUDIOS OHG

MACKEVISION MEDIEN DESIGN GMBH

www.groundstudios.de // Kirchfeldstr. 86, D - 40215 Düsseldorf // Tel.: 0211/1576500,Fax: 0211/1576505, eMail: fiege@ground-studios.de

www.mackevision.de // Forststraße 7, D - 70174 Stuttgart // Tel.: +49 (0) 711/933048-0, Fax: +49 (0) 711/933048-90, eMail: info@mackevision.de // Kontakt: Armin Pohl, Joachim Lincke

3D-ANIMATION

3D-ANIMATION

MADNESS GMBH

DEUTSCHLE.CGI

www.mediencollege.de // ESB mediencollege gGmbH // Radeberger Straße 12 // 01099 Dresden // Tel.: 0351-5639430 // Fax: 035156394310 // eMail: bachelor@ mediencollege.de // Kontakt: Anja Dietel

IHR EINTRAG IM DP-GUIDE PRINT?

WEITERE FIRMENKONTAKTE UNTER i WWW.DP-GUIDE.COM

REALTIME TECHNOLOGY AG www.rtt.ag // Rosenheimer Straße 145, D - 81671 München // Tel.: 089/200275-0, Fax: 089/200275-200,

www.3dmadness.de // Hölderlinweg 9-11, D - 73033 Göppingen // Tel.: 07161/12977, Fax: 07161/923933, eMail: info@3dmadness.de // Kontakt: Axel Berne

www.deutschle.de // Metzinger Straße 1a, D-72622 Nürtingen // Tel.: 07022/73840, eMail: info@deutschle.de

eMail: info@rtt.ag

3D-ANIMATION

3D-ANIMATION

3D-ANIMATION

SPANS & PARTNER GMBH

STEP-ANI-MOTION STUDIO FÜR COMPUTERTRICK GMBH

STOIBER PRODUCTIONS

www.spans.de // Muehlenkamp 59, D - 22303 Hamburg // Tel.: 040/278188-0, Fax: 040/278188-88, eMail: martinique@spans.de // Kontakt: spans@spans.de 3D-ANIMATION

www.step-ani-motion. de // Obenmarspforten 7-11, D - 50667 Köln // Tel.: 0221/20235-0, Fax: 0221/20235-19, eMail: info@step-animotion.de // Kontakt: Stephan Huhn

www.stoiber.com // Gartenstraße 34, D - 82049 Pullach // Tel.: 089/79369308, Fax: 089/79369313, eMail: info@stoiber.com // Kontakt: Fritz Stoiber

3D-ANIMATION

3D-ANIMATION


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

THE LIGHT WORKS www.thelightworks.com // Otto-Hahn-Straße 7, D - 50997 Köln // eMail: tobias@thelightworks. com, Tel.: 02236/967322, Fax: 967319 // Kontakt: Tobias Richter

www.zonevier.de // Alteburger Straße 39, D - 50678 Köln // Tel.: 0221/2005943, Fax: 0221/2005945, eMail: mail@zonevier.de // Kontakt: Edwin Bartnik

3D-ANIMATION

3D-ANIMATION

OBJEKTSCAN GMBH

TRIMETRIC 3D SERVICE GMBH

www.objektscan. de // Kopernikusstraße 2, D - 14482 Potsdam // Tel.: 0331/6207040, Fax: 0331/6207044, eMail: info@objektscan. de // Kontakt: Stefanie Peda

www.trimetric.de // Schönebecker Allee 2, D - 30823 Garbsen // Tel.: 0511/762 182-20, Fax: 0511/762182-22, eMail: info@trimetric.de // Kontakt: Herr Alexander Thiele

3D-SCANNING

3D-SCANNING

3DPOWERSTORE

ESB MEDIENCOLLEGE

www.3dpowerstore.de // Friedenstr. 51, D - 40219 Düsseldorf // Tel.: 0211/30205630, Fax: 30205616, eMail: sales@3dpowerstore. de // Kontakt: Iris Asche

www.mediencollege.de // ESB mediencollege gGmbH // Radeberger Straße 12 // 01099 Dresden // Tel.: 0351-5639430 // Fax: 035156394310 // eMail: bachelor@ mediencollege.de // Kontakt: Anja Dietel

FLEXICAD.COM DER RHINOCEROS® SPEZIALIST

AUSBILDUNG/SCHULUNG

AUSBILDUNG/SCHULUNG

AUSBILDUNG/SCHULUNG

LIGA_01 COMPUTERFILM GMBH

ANIMOTION MEDIA

www.liga01.de // Landwehrstraße 60-62, D - 80336 München // Tel.: 089/51555888, Fax: 089/51555877, eMail: justus.engel@ liga01.de

PiXABLE STUDIOS GMBH & CO. KG www.pixable.de Rudolf-Leonhard-Str. 7 // D-01097 Dresden // Tel.: 0351/5634136-0 // Fax: 0351/5634136-16 // eMail: info@pixable.de // Kontakt: Tino Barth

www.animotion-media.de // Alleenstra 160, D -73230 Kirchheim unter Teck // Fon: 07021 7373780, Fax: 47382 // office@ animot.de // Kontakt: Gerold Straub

CHARACTERANIMATION

CHARACTERANIMATION

COMPOSITING

PICTORION DAS WERK

BREITBILD VISUAL EFFECTS

Animation und Design

www.das-werk.de // Novalisstraße 11, D - 10115 Berlin // Tel.: 030/285279-50, Fax: 030/285279-80, eMail: post_bln@das-werk.de

www.breitbild-vfx. com // Föhrenweg 14, D - 73054 Eislingen/Fils // Tel.: 07161/30711410, eMail: info@breitbild-vfx.com // Kontakt: Francesco Faranna

BLUE SILVER GmbH • Max-Planck-Str. 3 85609 Aschheim-Dornach • Tel. 089 6229940 Fax 089 62299411 • www.blue-silver.com

COMPOSITING

COMPOSITING

Compositing

LIGA_01 COMPUTERFILM GMBH

MADNESS GMBH

PROGL + GERLACH ROSSOCREATIVO

www.liga01.de // Landwehrstraße 60-62, D - 80336 München // Tel.: 089/51555888, Fax: 089/51555877, eMail: justus.engel@ liga01.de

www.3dmadness.de // Hölderlinweg 9-11, D - 73033 Göppingen // Tel.: 07161/12977, Fax: 07161/923933, eMail: info@3dmadness.de // Kontakt: Axel Berne

www.rossocreativo.de // Stahlgruberring 3, D - 81829 München // Tel.: 089/44 23 26 922, Fax: 089/44 23 26 923, eMail: kontakt@ rossocreativo.de // Kontakt: Oliver Gerlach

COMPOSITING

COMPOSITING

COMPOSITING

ESB MEDIENCOLLEGE

MADNESS GMBH

REALTIME TECHNOLOGY AG

IHR EINTRAG IM DP GUIDE PRINT? i 089/97 39 97 43 i SALES@DIGITAL PRODUCTION.COM

ZONE 4 GMBH

www.flexiCAD.com // Kriegelsteinerstraße 5, D - 81476 München // Tel.: 089/75940506, Fax: 089/75940507, eMail: info@flexiCAD. com // Kontakt: Michael Meyer

www.rtt.ag // Rosenheimer Straße 145, D - 81671 München // Tel.: 089/200275-0, Fax: 089/200275-200,

www.mediencollege.de // ESB mediencollege gGmbH // Radeberger Straße 12 // 01099 Dresden // Tel.: 351-5639430 // Fax: 035156394310 // eMail: bachelor@ mediencollege.de // Kontakt: Anja Dietel

www.3dmadness.de // Hölderlinweg 9-11, D - 73033 Göppingen // Tel.: 07161/12977, Fax: 07161/923933, eMail: info@3dmadness.de // Kontakt: Axel Berne

eMail: info@rtt.ag

GAME-DESIGN

REALTIME

REALTIME

122

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

GUIDE

CADNETWORK E.K. www.CADnetwork.de // Siemenstraße 25, D - 50374 Erftstadt // Tel.: 02235/79 99-91, Fax: 02235/79 99-92, eMail: info@cadnetwork.de // Kontakt: Enrico Reil

EQUIPMENT

ALLGEMEIN

BPM BROADCAST & PROFESSIONAL MEDIA GMBH

OLMOS TECHNOLOGIES GMBH

VIDEOR E. HARTIG GMBH

www.bpm-media.de Obenhauptstr. 15, 22335 Hamburg // Tel. 040/557624-0 // eMail info@bpm-media.de

www.olmos.de // Senefelderstr. 11, D - 38124 Braunschweig // Tel.: 0531/22020-0, Fax: 0531/22020-99, eMail: info@olmos.de

www.videor.com // Carl-Zeiss-Straße 8, D - 63322 Rödermark // Tel.: 06074/888-0, Fax: 06074/888-100, eMail: info@videor.com

VIDEO & NLE HARD- UND SOFTWARE

COMPUTER-HARDWARE/PERIPHERIE

MONITORE / KAMERAS / MAZ

3DPOWERSTORE

Rhinoceros® Rhin

www.3dpowerstore.de // Friedenstraße 51, D - 40219 Düsseldorf // Tel.: 0211/30205630, Fax: 30205616, eMail: sales@3dpowerstore. de // Kontakt: Iris Asche SOFTWARE

HIER KÖNNTE AUCH IHRE FIRMA STEHEN i 089/97 39 97 43

3D-CAD Software www.flexiCAD.com

Tel. 089 75940506

FLEXICAD.COM DER RHINOCEROS® SPEZIALIST www.flexiCAD.com // Kriegelsteinerstraße 5, D - 81476 München // Tel.: 089/75940506, Fax: 089/75940507, eMail: info@flexiCAD. com // Kontakt: Michael Meyer SOFTWARE

ANIMAGIX MEDIA AG

FILM & VIDEO

www.animagix.de // Köln: 0221-3592367 // Leipzig 0341-2248327 // Stuttgart 071149039920 // eMail: info@animagix.de // Kontakt: Kay Gotthilf RETUSCHE / VISUAL EFFECTS

PROGL + GERLACH ROSSOCREATIVO

ARRI FILM & TV SERVICES GMBH

www.rossocreativo.de // Stahlgruberring 3, D - 81829 München // Tel.: 089/44 23 26 922, Fax: 089/44 23 26 923, eMail: kontakt@ rossocreativo.de // Kontakt: Oliver Gerlach

www.arri.com // Türkenstraße 89, D-80799 München // Tel. 089/3809-1970, Fax 089/3809-1549, eMail: hraedlein@arri. de / Kontakt: Henning Rädlein

EDITING/SCHNITT

FILMBELICHTUNG/FAZ

WEITERE FIRMENKONTAKTE UNTER i WWW.DP-GUIDE.COM


AKTUELL

FOKUS

EDITING

CINEPIX GMBH

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

PIXEL PARTNER ®

BEROLA-FILM GMBH

www.cinepix.de // Massmannstraße 4, D - 12163 Berlin // Tel.: 030/82096023, Fax: 030/82096144, eMail: info@cinepix.de // Kontakt: Stefan Finkenzeller

www.PixelPartner.de // Flughafenstraße 80, D - 12049 Berlin // Tel.: 0177/6 990 990, eMail: thomas@PixelPartner.de // Kontakt: Thomas Kumlehn

www.berola.de // Schlachthofstr. 11, D-91301 Forchheim // Tel. 09191/7222-0, Fax 09191/7222-90, eMail: info@berola.de // Kontakt: Dipl. Ing. Dirk Jurschewsky DW40, Christine Trautner DW-44

FILMBELICHTUNG/FAZ

FILMBELICHTUNG/FAZ

FILMDIGITALISIERUNG

ARRI FILM & TV SERVICES GMBH

PIXEL PARTNER ®

MECOM FILM & TV

www.arri.com // Türkenstraße 89, D-80799 München // Tel. 089/3809-1970, Fax 089/3809-1549, eMail: hraedlein@arri. de / Kontakt: Henning Rädlein

www.PixelPartner.de // Flughafenstraße 80, D - 12049 Berlin // Tel.: 0177/6 990 990, eMail: thomas@PixelPartner.de // Kontakt: Thomas Kumlehn

www.mecom-tv.com // Ferdinand-SchneiderStraße 10 // 36043 Fulda // Tel. 0661-9494-0, eMail: info@mecom-tv.com // Kontakt: Bernhard Bachmann

FILMDIGITALISIERUNG

FILMSCANNING

FILMPRODUKTION

STOIBER PRODUCTIONS

FRAMEPOOL - THE STOCK FOOTAGE COLLECTION

FILMPRODUKTION

HIER KÖNNTE AUCH IHRE FIRMA STEHEN i 089/97 39 97 43

ARRI FILM & TV SERVICES GMBH

LIGA_01 COMPUTERFILM GMBH

MACKEVISION MEDIEN DESIGN GMBH

www.arri.com // Türkenstraße 89, D-80799 München // Tel. 089/3809-1970, Fax 089/3809-1549, eMail: hraedlein@arri. de / Kontakt: Henning Rädlein

www.liga01.de // Landwehrstraße 60-62, D - 80336 München // Tel.: 089/51555888, Fax: 089/51555877, eMail: justus.engel@ liga01.de

www.mackevision.de // Forststraße 7, D - 70174 Stuttgart // Tel.: +49 (0) 711/933048-0, Fax: +49 (0) 711/933048-90, eMail: info@mackevision.de // Kontakt: Armin Pohl, Joachim Lincke

POSTPRODUKTION

POSTPRODUKTION

POSTPRODUKTION

PICTORION DAS WERK

www.stoiber.com // Gartenstraße 34, D - 82049 Pullach // Tel.: 089/79369308, Fax: 089/79369313, eMail: info@stoiber.com // Kontakt: Fritz Stoiber

www.framepool.com // Infanteriestr. 11a Geb. E, D - 80797 München // Tel.: +49.89.307 648 622, Fax: +49.89.307 648 70, eMail: info@framepool.com // Kontakt: Ulf Remy FOOTAGE

PROGL + GERLACH ROSSOCREATIVO

LIGA_01 COMPUTERFILM GMBH

www.das-werk.de // Novalisstraße 11, D - 10115 Berlin // Tel.: 030/285279-50, Fax: 030/285279-80, eMail: post_bln@das-werk.de

www.rossocreativo.de // Stahlgruberring 3, D - 81829 München // Tel.: 089/44 23 26 922, Fax: 089/44 23 26 923, eMail: kontakt@ rossocreativo.de // Kontakt: Oliver Gerlach

www.liga01.de // Landwehrstraße 60-62, D - 80336 München // Tel.: 089/51555888, Fax: 089/51555877, eMail: justus.engel@ liga01.de

POSTPRODUKTION

POSTPRODUKTION

SPECIAL EFFECTS/TRICKTECHNIK

ARRI FILM & TV SERVICES GMBH

ANIMOTION MEDIA

www.arri.com // Türkenstraße 89, D-80799 München // Tel. 089/3809-1970, Fax 089/3809-1549, eMail: hraedlein@arri. de / Kontakt: Henning Rädlein

www.animotion-media.de // Alleenstra 160, D -73230 Kirchheim unter Teck // Fon: 07021 7373780, Fax: 47382 // office@ animot.de // Kontakt: Gerold Straub

IHR EINTRAG IM DP-GUIDE PRINT?

VISUAL EFFECTS

VISUAL EFFECTS

THE LIGHT WORKS www.thelightworks.com // Otto-Hahn-Straße 7, D - 50997 Köln // eMail: tobias@thelightworks. com, Tel.: 02236/967322, Fax: 967319 // Kontakt: Tobias Richter

PiXABLE STUDIOS GMBH & CO. KG www.pixable.de Rudolf-Leonhard-Str. 7 // D-01097 Dresden // Tel.: 0351/5634136-0 // Fax: 0351/5634136-16 // eMail: info@pixable.de // Kontakt: Tino Barth

PROGL + GERLACH ROSSOCREATIVO

VISUAL EFFECTS

VISUAL EFFECTS

VISUAL EFFECTS

124

i SALES@DIGITAL PRODUCTION.COM

www.rossocreativo.de // Stahlgruberring 3, D - 81829 München // Tel.: 089/44 23 26 922, Fax: 089/44 23 26 923, eMail: kontakt@ rossocreativo.de // Kontakt: Oliver Gerlach

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

GUIDE

ANZEIGEN-INDEX FIRMA

WEB & INTERACTIVE

VERMIETUNG

SEITE

Autodesk GmbH, München

U4

BAF Bayerische Akademie für Fernsehen e.V., Unterföhring

Beilage

Cadnetwork, Erftstadt

Beilage

Cine Postproduction GmbH, Grünwald, Kr. München

15

ComLine GmbH, Flensburg

45

3DPowerstore GmbH, Düsseldorf

Architektonisch reizvolle Fläche am Mainufer Frankfurt gegenüber neuer EZB, für Werbung Medien, Dienstleister, Vertrieb

Fiftyeigth 3D, Frankfurt Institute of Animation Filmakademie Baden-Württemberg, Ludwigsburg

REALTIME TECHNOLOGY AG www.rtt.ag // Rosenheimer Straße 145, D - 81671 München // Tel.: 089/200275-0, Fax: 089/200275-200,

37

Kainz+Hamm Filmcontact GbR, Berlin Maconcept, Karben

Laden, Granitfassade, große Schaufenster, Galerie, Arbeitsräume, Avid, Bar, Kabelkanäle, Jalousien, Schallschutztüren, Parkett, Lichtobjekte, Klimaanlage, Archiv, Stellplätze, Einfahrt, niedrige BK, Preis VB, 560 qm.

17 DP-Guide

89 DP-Guide

Maxon Computer GmbH, Friedrichsdorf

U2

Mediavox, Wuppertal

DP-Guide

Mensch und Maschine Haberzettl GmbH, Nürnberg

DP-Guide

MFG Medien- und Filmgesellschaft Baden-Württemberg, Stuttgart

85

Neue Mediengesellschaft Ulm mbH, München

65

PI-VR GmbH, Berlin

7

RTT AG, München

21

eMail: info@rtt.ag

Provisionsfrei 0171-365 58 43, täglich von 9 bis 15:00 Uhr

ALLGEMEIN

STUDIOVERMIETUNG

Teltec GmbH, Wiesbaden

SAE Institute GmbH, München

11 Beilage

IMPRESSUM AUSGABE 02:11 | 15. JAHRGANG | DIGITAL PRODUCTION MAGAZIN FÜR POSTPRODUKTION & VISUALISIERUNG www.digitalproduction.com; www.animago.com; www.dp-guide.com So erreichen Sie die Redaktion: Tel.: +49 (0)89 - 89817-364 Fax: +49 (0)89 - 89817-350 info@digitalproduction.com

Mediaberatung: Blueballon Media, Jürgen Pfister Tel.: +49 (0)89 97 39 97 43 sales@digitalproduction.com

Herausgeber: ATEC Business Information GmbH

Zurzeit gilt die Anzeigenpreisliste Nr. 15.

Chefredakteur: Jan-C. Bruhnke (V.i.S.d.P.) Tel.: +49 (0)89 8 98 17-367 jan.bruhnke@digitalproduction.com

Geschäftsführer: André Weijde

Redaktion: Béla Beier Tel.: +49 (0)89 8 98 17-362 bela.beier@digitalproduction.com Sabine Hatzfeld Tel.: +49 (0)89 8 98 17-364 sabine.hatzfeld@digitalproduction.com Freie Mitarbeiter der Redaktion: Matthias J. Lange, Christian Galuschka Art Direction: Steffen Kulpe Tel.: +49 (0)89 8 98 17-426 steffen.kulpe@atec-bi.de Layout: Steffen Kulpe, Esther Zillner Ständiger Mitarbeiter der Redaktion: Günter Hagedorn Tel.: +49 (0)40 5 55 20-65 Fax: +49 (0)40 5 55 20-66 gh@digitalproduction.com

Leiter Verlagsbereich Technik Stephan Peter Krafzik Tel.: +49 (0)89 8 98 17-371 stephan.krafzik@atec-bi.de Verlagsanschrift: ATEC Business Information GmbH, Hackerbrücke 6, D-80335 München; Postfach 20 16 63, D-80016 München So erreichen Sie unseren Abonnentenservice: Vertriebsunion Meynen Aboservice DIGITAL PRODUCTION D-65341 Eltville Tel.: +49 (0)6123 92 38-213 Fax: +49 (0)6123 92 38-214 order@digitalproduction.com Pressevertrieb: IPS Pressevertrieb GmbH Postfach 12 11, D-53334 Meckenheim Tel.: +49 (0)2225 88 01-0 Fax: +49 (0)2225 88 01-199

Bezugsbedingungen: DIGITAL PRODUCTION erscheint seit März 2002 alle zwei Monate. Das Einzelheft kostet EUR 14,95. Das Jahresabonnement umfasst sechs Ausgaben inkl. animago SPECIAL sowie exklusiven Zugang zum DOWNLOAD-PORTAL. Das Premiumabonnement beinhaltet zusätzlich drei SONDERHEFTE innerhalb eines Jahres sowie das DP-Jahresarchiv auf CD. Das 2-Jahresabonnement umfasst zwölf Ausgaben inkl. zweimal animago SPECIAL sowie exklusiven Zugang zum DOWNLOADPORTAL. Im 2-Jahres-Premiumabonnement erhalten Sie zusätzlich sechs SONDERHEFTE sowie zweimal das DPJahresarchiv auf CD. Für Studenten gelten auf alle Abonnement-Arten vergünstigte Konditionen. Das Upgrade zu einem Premiumabonnement ist jederzeit für einen Aufpreis von EUR 32,90 möglich. Die Abonnement-Preise gelten seit 01.01.2009. Bitte entnehmen Sie diese der Preistabelle (siehe unten). Alle Preisangaben dienen der persönlichen Information des Lesers uns sind unverbindlich. Abonnement-Kündigungen sind spätestens acht Wochen vor Ablauf der Bezugszeit schriftlich möglich. Kann die Zeitschrift infolge höherer Gewalt, Streiks oder dergleichen nicht erscheinen, so ergeben sich daraus keine Ansprüche gegen den Verlag. Für unverlangt eingesandte Text- und Bildbeiträge wird keine Haftung übernommen. Eine Rücksendegarantie wird nicht gegeben. Der Verlag behält sich das Recht vor, Beiträge auf anderen Medien herauszugeben, etwa auf CD-ROM oder im Online-Verfahren. Für namentlich gekennzeichnete Artikel übernimmt die Redaktion lediglich eine presserechtliche Verantwor tung. Für Fehler in Texten oder sonstigen Darstellungen, die zu Schäden an Geräten füh-

Preise

Inland*

Ausland*

Jahresabonnement Premiumabonnement Upgrade zum Premiumabonnement Studentenabonnement 2-Jahresabonnement Miniabonnement

EUR 89,00 inkl. Versand und 7% MwSt. EUR 121,90 inkl. Versand und 7% MwSt. EUR 32,90 inkl. Versand und 19% MwSt. EUR 74,50 inkl. Versand und 7% MwSt. EUR 159,00 inkl. Versand und 7% MwSt. EUR 22,00 inkl. Versand und 7% MwSt.

EUR 109,00 inkl. Versand, zzgl. MwSt. EUR 141,90 inkl. Versand, zzgl. MwSt. EUR 32,90 inkl. Versand, zzgl. MwSt. EUR 94,90 inkl. Versand, zzgl. MwSt. EUR 198,00 inkl. Versand, zzgl. MwSt. EUR 22,00 inkl. Versand, zzgl. MwSt.

ren, wird keine Haftung übernommen. Die veröffentlichten Artikel sind urheberrechtlich geschützt. Jede Reproduktion durch Nachdruck, Fotokopie, Mikrofilm oder andere Verfahren, auch auszugsweise, ist nur mit schriftlicher Genehmigung der ATEC Business Information GmbH erlaubt. CTP/Druck: Stürtz GmbH, Würzburg Copyright: ATEC Business Information GmbH DIGITAL PRODUCTION gehört der Informationsgemeinschaft zur Feststellung der Verbreitung von Werbeträgern (IVW) an. Bankverbindungen: (Allgemein/Anzeigen) Deutsche Bank, München, Konto: 170338800; BLZ: 70070010 Deutschland (Abonnenten/Einzelverkauf) Deutsche Bank, München, Konto: 202189705; BLZ: 70070010 Österreich (Abonnenten/Einzelverkauf) Tiroler Sparkasse Innsbruck, Konto: 942441; BLZ: 20503 Schweiz (Abonnenten/Einzelverkauf) Raiffeisenbank Unteres Rheintal, Konto: 4321026; BLZ: 81295 Published by

* Die Abonnement-Preise für die Schweiz sind auf www.digitalproduction.com veröffentlicht. i Mitglieder des deutschen IPTV Verbands erhalten 15% Rabatt auf die AbonnementPreise. i ALUMNIS, Beschäftigte der SAE und Studenten der SAE erhalten 10% Rabatt auf die Abonnement-Preise.

125


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

CeBIT

MESSEN iEVENTS iMESSEN iEVENTS iMESSEN

Das Titelthema der diesjährigen CeBIT ist Cloud Computing, also die Verlagerung von Rechenstunden, Software und Speicherung auf entfernte Rechner. Wer sich in der Postproduction dafür interessiert, ist sicherlich bereits über Cloudrenderer oder Onlineservices wie den F_Box Shooter gestolpert. Und wer darin die Zukunft sieht, wird sich auf der CeBIT vom 1. bis zum 5. März 2011 darüber

informieren können. Neben den Hannoverschen Ausstellungshallen mit Anbietern aus allen Bereichen der IT gibt es auch die „Global Conferences“ mit rund 4.000 Besuchern, deren diesjähriges Thema „The power of creativity and innovation“ ist und es sollte schon einige Vorträge geben, die auch den Post-Pro-Profi weiterbringen. www.cebit.de

Munich Gaming Die Munich Gaming am 30. und 31. März 2011 im Haus der Kunst in München bietet einen hochkarätig besetzten Fachkongress mit Keynotes, Vorträgen und Diskussionsrunden sowie einer begleitenden Ausstellung. Hier treffen sich Entscheider und Nachwuchskräfte aus dem Spielesektor mit den Politikern, Kulturschaffenden und Spielern, um über die Zukunft der Spiele zu diskutieren.

Auf der parallel zum Fachkongress stattfindenden Ausstellung werden aktuelle Games und Plattformen vorgestellt und die Möglichkeit geboten, diese selbst auszuprobieren. Außerdem gibt es eine Stellenund Ausbildungsbörse – falls Sie nach der Diskussion direkt in die Branche einsteigen wollen. www.munich-gaming.com

Frankfurter Musikmesse Wenn es dröhnt, brummt, klingt oder scheppert, ist es auf der Musikmesse vertreten. Diese weltweit bekannte Messe für Musikinstrumente und Noten, Musikproduktion und -vermarktung ist neben dem Produktangebot auch für Ihre unzähligen Workshops, Konzerte, Sessions, Demonstrationen und Diskussionen in aller Munde. Vom 6. bis zum 9. April versammelt sich die Szene in Frankfurt,

um unter anderem den Musikmesse International Press Award (MIPA), den PPV Medien-Leser Award sowie Preise der Magazine „Tastenwelt“, „Soundcheck“ und „Keys“ mit entsprechendem Pomp zu verleihen. Ein kultureller Höhepunkt ist der Frankfurter Musikpreis, dessen Verleihung traditionell am Vorabend der Musikmesse stattfindet. www.musikmesse.de

NAB (Vegas) Vom 9. bis zum 14. April trifft sich die Broadcasting Welt zur NAB in Las Vegas – und bespricht vom Content Management bis zur Liveübertragung von Sport-Events und 3DTechnologien bis zu Renderfarmen und neuen Distributionskanälen alles, was für Film, Fernsehen und Medienproduktion relevant ist. Seit 85 Jahren gibt es die NAB bereits, und von dort gingen bis jetzt einige Inovati-

onen aus. Momentan treffen sich dort knapp 100.000 Medienprofis aus über 150 Ländern, die ein Kapital von 35 Milliarden US-Dollar verwalten, mehr als 1.500 Aussteller verteilen sich über das Areal und fünf Konferenzen mit 500 Veranstaltungen sorgen für das Rahmenprogramm. Und wenn das nicht reicht, können Sie sich ja noch in Las Vegas www.nabshow.com austoben.

FMX Die Stuttgarter FMX findet auch 2011 zu Anfang des Wonnemonats, vom 3. bis 6. Mai, statt. Der von der Filmakademie Baden-Württemberg ausgerichtete und vom Institute of Animation, Visual Effects and Digital Postproduction organisierte Event bietet wieder Konferenzen, Messe, Workshops & Masterclasses, Recruiting & School Desks und Screening. In Zusammenarbeit mit dem Stuttgarter Fe-

126

stival des Animationsfilms bringt die FMX die VES Visual Effects Society, die AIAS, die ACM Siggraph, die 5D Conference und die Stuttgarter Media University unter ein Dach – genauso wie alles, was in der Szene Rang und Namen hat. Weitere Partner sind übrigens Autodesk, Industrial Light & Magic, Projectiondesign und Sony Pictures. www.fmx.de

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

ON TOUR | TERMINE

630 Filme in neun Kinos: Beim Annecy Animation Film Festival dreht sich alles um den Animationsfilm – vom 6. bis zum 11. Juni 2011 werden von den neuesten Features über Kurzfilme bis zu Abschlussfilmen und Making ofs alle möglichen animierten Sachen gezeigt, und sogar im Stadtzentrum ist nach Sonnenuntergang Open-Air-Kino. Dazu kommt eine Messe für Filmschaffende und Absolventen

sowie der „International Animation Film Market (Mifa)“, bei dem der Fokus auf Kooperationen, Vertrieb, Verkauf, Promotion und Finanzierung von Filmen liegt. Bei der Konferenz werden künstlerische, technische und kommerzielle Themen besprochen und vier Tage lang der Stand der Branche diskutiert. www.annecy.org

Siggraph Vom 7. bis zum 11. August findet die 38. „International Conference on Computer Graphics and Interactive Techniques“ statt, diesmal in Vancouver, Canada. Die Siggraph ist das Mekka für alle, die neue Hardware, Software, Partner und Techniken suchen. Neben der gigantischen Online-Community ist hier der Veröffentlichungsort für die neuesten Technologien des „Digital Imaging“,

und die „Siggraph Papers“ bilden meistens die Grundlage für umwälzende Technologien, von ersten Studien aus den Universitäten bis zu den Alpha-Versionen der großen Softwareentwickler. Abgerundet wird die Siggraph durch Ausstellungen, Workshops, eine große Konferenz sowie Messehallen voller Artists, Produzenten und Inwww.siggraph.org/s2011 teressenten.

Gamescom Das größte Messe- und Event-Highlight für interaktive Spiele und Unterhaltung ist das Zentrum der gesamten Gamescommunity – 2010 drängten sich eine Viertelmillion Besucher durch die Kölner Messehallen, davon 18.000 Fachbesucher, 500 Aussteller aus 33 Ländern. Vom 17. bis 21. August 2011 erwarten vermutlich wieder an die 200 Welt-, Europa-

und Deutschlandpremieren den Spielbegeisterten, zusätzlich zu einem „City-Festival“, wo Köln kurzzeitig zum Zocker-Mekka wird. Außerdem wird der gamescom-Award 2010 verliehen, der sich langsam zu einem der angesehensten Games-Preise mausert, und der 2010 an Crysis 2 und Gran Turismo 5 www.gamescom.de ging.

IBC Der International Broadcasting Congress ist das europäische Gegenstück zur NAB. Im September trifft sich das „Who‘s Who“ von Produzenten, Konsumenten, Herstellern und Vordenkern in Amsterdam. Die Konferenz geht vom 8. bis zum 13. September, die Ausstellungshallen öffnen ihre Tore vom 9. bis zum 13. September. Mehr als 1.300 Aussteller, 50.000 Besucher und 1.000

Journalisten aus aller Welt tummeln sich in den 13 Hallen des RAI-Messezentrums. Dort finden außerdem zahlreiche Produktvorstellungen, Workshops und Firmenveranstaltungen statt. Am „New Technology Campus“ wird zudem praktisch alles Jahre im Vorhinein vorgestellt, was sich in der Branche durchwww.ibc.org setzen wird.

animago Der heimliche Star der deutschen Postproductions-Szene, der animago, darf natürlich im Jahresplan der Veranstaltungen nicht fehlen. Im Studio Babelsberg/Berlin findet am 27. und 28. Oktober 2011 die animago AWARD & CONFERENCE statt. Neben der Gala bietet sich dort die Möglichkeit, alle wichtigen Hersteller zu treffen. Ein Workshop-Programm, Hightech-Vorträge und Podiums-Diskussi-

onen zu allen Bereichen der Postproduction runden die Veranstaltung ab. Und falls Sie sich fragen, warum wir davon so begeistert sind: Die DIGITAL PRODUCTION richtet den animago aus – und wenn Sie die Redaktion Ihres Lieblings-Postproductions-Magazins mal in echt treffen wollen, haben Sie auf dem animago die Chance dazu. www.animago.com

127

MESSEN iEVENTS iMESSEN iEVENTS iMESSEN

Annecy Animation Film Festival


FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Bild: (c) ABC Studios

AKTUELL

Jetzt mitmachen Für die Teilnehmer der Leserbefragung hat die DP wieder spannende Filme reserviert. Bei dieser Ausgabe haben wir jedoch nicht nur an die Unterhaltung gedacht, sondern wir verlosen auch ein Standardabo von video2brain sowie drei von Sabine Hatzfeld exklusive Trainings. Wir wünschen spannende Weiterbildung und Unterhaltung!

O

b tapfere Eulen, spannende Krimifälle, trickreiche Beziehungskisten, japanische Zeichentrickmärchen, flexible Weiterbildungsmöglichkeiten oder die trickreiche Beeinflussung der Elemente – DP hat auch diese Ausgabe wieder vielfältige Preise zusammengestellt:

gewandte Schriftsteller Rick Castle (Nathan Fillion) und seine hinreißende Partnerin Detective Kate Beckett (Stana Katic) lösen auch in der 2. Staffel der US-Krimi-Serie Castle spannende Fälle. Aber auch an Romantik, Lachern und Wortgefechten mangelt es nicht. Begleiten Sie die beiden bei der spannenden Verbrecherjagd und entscheiden Sie sich für

praxisnahen Beispielen und anspruchsvollen Workshops zu Modellierung, Standbild-Berechnung und Animationen. Mit allen Neuerungen von Version 12 wie Deformationsobjekte, den dynamischen Funktionen und einer 30-Tage-Vollversion von C4D 12. video2brain und DP verlosen drei Trainings im Wert von 39,80 Euro.

i 3 BDs „Männer sind Schweine“

Macho Tank (Dane Cook) schlägt aus seinem „Talent“ kräftig Kapital. Er lässt sich dafür bezahlen, dass er mit den Freundinnen anderer Männer ausgeht. Bei diesen Dates benimmt er sich so daneben, dass die Ladies reumütig zu ihren Freunden zurückkehren. Auch Dustin (Jason Biggs) möchte dessen Dienste in Anspruch nehmen, doch dann verläuft nichts mehr nach Plan ...

»Teilnahme unter www.digitalproduction.com/leserbefragung. Die Redaktion drückt allen Teilnehmern die Daumen!«

ihren Lieblingsfall in diesem 6-teiligen DVDSet mit noch nie da gewesenem Bonusmaterial inklusive aller Geheimnisse vom Dreh. Ein absoluter Treffer für alle Krimi Freunde.

i „Castle 2“ – 2 x die komplette zweite

Staffel auf DVD So ungleich sie auch sind, so unschlagbar sind sie bei der Verbrecherjagd. Der wort-

128

i 3 Trainings von „Cinema 4D 12“ Arndt von Koenigsmarck führt Sie in die Grundlagen ein und vertieft das Gelernte an

i 1 x video2brain-Standard-Abo video2brain und DIGITAL PRODUCTION verlosen außerdem ein Standardabo im Wert von 198 Euro im Jahr. Mit dem Abo erhalten Sie Zugang zu über 450 exklusiven Trainings aus vielen spannenden, kreativen Bereichen. Abonnenten können nicht nur einzelne Trainings wählen, sondern auch gezielt einzelne

WWW.DIGITALPRODUCTION.COM


AUSGABE 02|11

ON TOUR | LESERBEFRAGUNG

Die Preise Unschlagbares Team Schriftsteller Rick Castle (Nathan Fillion) und seine Partnerin Detective Kate Beckett (Stana Katic) lösen auch in der 2. Staffel der US-Krimi-Serie Castle spannende Fälle

Flugstunden Regisseur Zack Snyder (300, Watchmen) präsentiert in seinen ersten Animationsfilm „Die Legende der Wächter“ ein Fantasy-Familienabenteuer nach Kathryn Laskys beliebten Romanen über mythische Eulenhelden Bild: Warner Brothers Home Entertainment

Elemente Die Legende von Aang zeigt, was man mit den vier Elementen so alles anstellen kann, wenn man der Auserwählte ist. Effektreicher Fantasyfilm

Bild: Paramount Home Entertainment

Lektionen heraussuchen.. Die viedo2brainSeminare machen Methodik, Effizienz, Freude und Erfolg eines Trainings überall verfügbar und erschwinglich.

Bildung video2brain bietet zahlreiche Trainings und Einzellektionen in vielen spannenden Bereichen. DP verlost ein Standardabo sowie drei Trainings zu Cinema 4D 12

Bild: video2brain

i 3 BDs „Legende der Wächter“

Regisseur Zack Snyder (300, Watchmen – Die Wächter) präsentiert seinen ersten Animationsfilm: ein Fantasy-Familienabenteuer nach Kathryn Laskys beliebten Romanen, über mythische, tapfere und vor allem aufwendig animierte Eulenhelden. Begleiten Sie Soren und seinen Bruder Kludd im Kampf gegen die Reinsten, um das Reich der Eulen zu retten. i 1 BD „Legende von Aang“

Die Legende von Aang erzählt die Geschichte eines zwölfjährigen Jungen vom Volk der Luftnomaden, den das Schicksal zum Avatar, zum Herrn der Elemente, auserkoren hat. Um seine Bestimmung zu erfüllen, muss Aang die Charakteristik der Elemente studieren. Sie zu verstehen kann schlussendlich über Sieg oder Niederlage entscheiden. i 2 BDs „Ponyo“

Goldfischmädchen Brunhilde will die Überwassewelt entdecken und träumt davon, ein Mensch zu werden. Da sie über magische Kräfte verfügt, gelingt ihr die Flucht aus dem Meer. Sie verwandelt sich in ein kleines Mädchen, was jedoch wieder andere Probleme ❯ sha mit sich bringt.

Animation Zeichentrickmärchen von Oscar-Preisträger Hayao Miyazaki, der mit „Das wandelnde Schloss“, „Prinzessin Mononoke“ und „Chihiros Reise ins Zauberland“ die Herzen der Zuschauer eroberte

Bild: Universum Film Home Entertainment

Beziehungschaos Beziehungen machen das Leben lebenswert, können aber zuweilen auch ziemlich anstrengend sein, vor allem wenn die Probleme hausgemacht sind. Komödie mit Kate Hudson

Bild: Ascot Elite Home Entertainment

129


AKTUELL

FOKUS

EDITING

ANIMATION

COMPOSITING

COLOR

AUDIO

STEREO 3D

MAKING OF

GUIDE

ON TOUR

Fit werden Gute Vorsätze können nicht nur den leidigen Sport betreffen, sondern sich zum Beispiel auch auf Weiterbildungsangebote beziehen. Nur Mut: Für den schmalen Studenten-Geldbeutel gibt es beim Videotutorial-Spezialisten video2brain ein Education-Abo, welches ein Jahr lang Zugriff auf ein umfangreiches Online-Trainingsangebot ermöglivon Sabine Hatzfeld cht. Zurzeit stehen über 450 Trainings zur Auswahl.

er komplette Bestand an Trainings wird in einem Online-Katalog vorgehalten und umfasst derzeit über 450 Trainings. Abonnenten haben ein Jahr lang Zugriff darauf. Angeboten werden ein Premium- und ein Standard-Abo, die sich darin unterscheiden, ob man Videos auch Herunterladen kann und Zugriff auf Rohmaterialien hat. Als dritte Möglichkeit bietet video2brain ein vergünstigtes Studenten-Abo an, das dem Standard-Abo entspricht (siehe auch Kasten).

dem Abo ganz gut bedient. Zeitlosere Themen eigneten sich bei langfristiger Nutzung hingegen besser für Einzeltrainings.

D

Vielseitiges Angebot Das video2brain-Programmangebot ist im Kreativbereich sehr umfangreich. Einen Schwerpunkt bilden dabei Adobe-Anwendungen, wie etwa Premiere Pro CS5, Photoshop. Aber auch andere Anbieter sind vertreten wie Final Cut, Maxons Cinema 4D

video2brain Das Unternehmen wurde im Jahr 2002 von dem Trainer, Fachbuchautor und Kreativsoftware-Spezialisten Gerhard Koren in Graz, Österreich, gegründet und ist führender Anbieter von Video-Trainings für selbstbestimmtes, orts- und medien-unabhängiges Lernen in deutscher, französischer, spanischer und englischer Sprache. Die video2brain-Seminare machen Methodik, Effizienz, Freude und Erfolg eines Trainings überall verfügbar und erschwinglich. Weitere Infos: www.video2brain.com

Abo-Modelle i Das Premium-Abo berechtigt zum Herunterladen von Videos. Der Abonnent hat hier zusätzlich Zugriff auf Rohmaterialien von manchen Trainings wie etwa Übungsdateien. Preis: 298 Euro im Jahr. i Mit einem Standard-Abo lassen sich Trainings online ansehen, jedoch nicht herunterladen. Rohdaten sind nicht verfügbar. Preis: 198 Euro im Jahr. i Education-Abo: Standard-Abo zum Spezialpreis für Studenten und Lehrkräfte. Preis: 99 Euro im Jahr.

130

Bild: video2brain

Zukünftige Trends

Christoph Sahner Unternehmenssprecher vom Anbieter für Video-Trainings video2brain

oder Autodesks 3ds Max. Anwender, die Rat in Office-Applikationen wie Word, Excel oder PowerPoint brauchen, finden im Angebot ebenfalls zahlreiche Trainings. Neben dem User wurde auch an die Anforderungen von Software-Administratoren gedacht, die mit speziellen Programmier- und EntwicklerThemen gerade im Umfeld Open Source oder Content Management bedient werden. „Die Bandbreite ist sehr groß“, erklärt Unternehemssprecher Christoph Sahner, und führt weiter aus: „Aber auch die Darstellung ist vielfältig. So werden bei Kreativthemen nicht nur die Software-Workflows am Screen gezeigt, sondern auch grundlegende Dinge wie Lichtführung oder die Trennung von Schärfe/Unschärfe im Praxiseinsatz on Location oder im Studio.“

video2brain produziert selber in eigenen Studios zentral in Graz, Österreich. Die Trainer sind in der Regel Fachexperten und/oder zertifizierte Trainer, die in der Community bekannt sind. Produziert wird nicht nur auf Deutsch. „video2brain ist zudem Marktführer im französischen und spanischen Markt“, ergänzt Sahner. Auch werde der Anteil an englischsprachigen Titeln zunehmend größer. Die Trainings würden dabei nicht übersetzt, sondern man greife bei diesen Produktionen auf muttersprachliche Trainer zurück. „Wir wollen den Kreativbereich weiter ausbauen. Andere Schwerpunkte sind Ent-

Auswahl Im Downloadbereich finden sich zahlreiche Trainings zu Kreativ-Themen

Abwechslung Abonnenten können nicht nur einzelne Trainings wählen, sondern auch gezielt einzelne Lektionen aus diesen heraussuchen. Diese lassen sich wie in einer Bibliothek online recherchieren. Trainings werden überdies auch einzeln als DVDs vertrieben. Die Kosten liegen hierfür zwischen 30 und 90 Euro. „Das Abo ist interessant für Leute, die unterschiedliche Interessen haben. Denn mit drei, vier Trainings haben sich die Kosten für ein Abo in der Regel amortisiert“, argumentiert Sahner. Wer sich permanent auf dem Laufenden halten wolle, sei ebenfalls mit

wicklungsthemen, Open Source sowie der Office- und Enterprise-Bereich“, prognostiziert Sahner. Gerade letztgenanntes Segment zeichne sich zum einen durch User-orientierte Ausrichtungen, aber auch durch entwicklungstechnische Aspekte aus, etwa „Wie setze ich einen Exchange-Sever auf?“. Dies sei ein stark nachgefragtes Themenspektrum, das man weiter ausbauen möchte. video2brain und DP verlosen ein Standardabo sowie drei Trainings zu Cinema 4D 12. Weitere Infos unter der aktuellen Leserbefragung dieser Ausgabe auf www.digitalpro❯ sha duction.com.

WWW.DIGITALPRODUCTION.COM


Die Top 3 aus dem Online Shop Karriere & Start-up im Doppelpack Sichern Sie sich den Überblick für die kreative Karriere sowie den ultimativen Ratgeber zur Existenzgründung rund um die digitale Medienwelt. Mehr Informationen & Doppelpack bestellen: www.digitalproduction.com/sonderhefte NUR: EUR 12,95* *Preis inkl. MwSt. zzgl. Versandkosten (Inland: EUR 5,00, Ausland: EUR 6,00, Schweiz: SFr 10,00)

MINI-ABO zum Kennenlernen! Erhalten Sie 2x digitale Power und den exklusiven Zugang zum geschützten Download-Bereich der Website. Zusätzlich gibt’s gratis eine vorangegangene Ausgabe der DIGITAL PRODUCTION für Sie zur Wahl – und alles für nur EUR 22,00! Mehr Informationen & Mini-Abo testen: www.digitalproduction.com/miniabo NUR: EUR 22,00** **Preis inkl. Versandkosten und MwSt., Ausland inkl. Versandkosten, zzgl. MwSt. (Schweiz: SFr: 34,00 inkl. Versandkosten, zzgl. MwSt.)

Bundle zur Postproduktion „Let´s fix it in the post“ – Interessante Arbeitsweisen und etablierte Postproduktionsstudios in Deutschland, Österreich und der Schweiz Mehr Informationen & Bundle bestellen: www.digitalproduction.com/sonderhefte NUR: EUR 12,95*** ***Preis inkl. MwSt. zzgl. Versandkosten (Inland: EUR 5,00, Ausland: EUR 6,00, Schweiz: SFr 10,00)

Ihre Service-Hotline T: +49 (0)61 23 92 38-2 13

F: +49 (0)61 23 92 38-2 14 E: order@digitalproduction.com

www.digitalproduction.com


Im Bereich der Digital Entertainment Creation beginnt eine neue Ära. Und eingeläutet wird sie von den neuen 2012-Versionen von Autodesk® 3ds Max® und Autodesk® Maya®. Jede dieser Versionen beinhaltet neue Funktionen und produktivitätssteigernde Erweiterungen, dank denen sich Ihre Kreativität voll entfalten kann. Darüber hinaus können Sie jährlich pro Lizenz Zeitverluste im Gegenwert von bis zu 12.770 euros einsparen.* Eine moderne Produktionspipeline ist hervorragend für die neuen Versionen der Digital-Entertainment-Creation-Lösungen 2011 von Autodesk geeignet. Entdecken Sie sie noch heute! Denn nur wer die Vergangenheit hinter sich lässt, kann die Zukunft gestalten.

AUTODESK MAYA UND AUTODESK 3DS MAX Weitere Informationen unter www.autodesk.de/modernpipeline

Das Bild wurde mit der Software Maya von Autodesk erstellt. *Basiert auf Marktperspektiven, Produktivität und Investitionsrendite (ROI) sowie Benchmark-Berichten zur Produktivität für Autodesk 3ds Max 2012 und Autodesk Maya 2012, die von Pfeiffer Consulting, einem unabhängigen Institut für Technologierecherchen und Benchmarking-Services, stammen. Die vollständigen Berichte können unter http://www.pfeifferreport.com/ heruntergeladen werden. Autodesk 3ds Max und Maya sind entweder eingetragene Marken oder Marken von Autodesk, Inc. und/oder ihren Tochtergesellschaften bzw. verbundenen Unternehmen in den USA und/oder anderen Ländern. Alle anderen Marken, Produktnamen und Kennzeichen sind Eigentum der jeweiligen Inhaber. Autodesk behält sich vor, Produkt- und Serviceangebote sowie Spezifikationen und Preise jederzeit ohne vorherige Benachrichtigung zu ändern. Autodesk übernimmt keine Gewährleistung für die Richtigkeit der Angaben. © 2011 Autodesk, Inc. Alle Rechte vorbehalten.


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.