Digital production januar februar 2016

Page 1

2O16

1

ISSN 1433-2620 > B 43362 >> 20. Jahrgang >>> www.digitalproduction.com

Deutschland Österreich Schweiz

Published by

MAGAZIN FÜR DIGITALE MEDIENPRODUKTION

€ 15,20 € 17,– sfr 23,–

JANUAR | FEBRUAR 01:2016

Fokus: Workshops

Neue Tools

So viele Filme!

ZBrush, Modo, Houdini, Clarisse, Nuke-Gizmos, Blender, 3ds Max

Quantum Human, Akeytsu, Octane & MoI – was lohnt?

Man from U.N.C.L.E., Inside Out, Arlo & Spot, Sherlock ...


$ #( $ ' -$ $ "

" ! % " $ " $ $ * % $ # ) %+*. % ! *.* $ %*+ * ,)* % .+ % % (&/ )& *- ( %& 3 . %* ( #) ! .+,&( + &&#) +% , # (- * (* * #) "&$'# ** 2 ( ( * * *+( ) (# * (% % % $) *.+% ( ( % %" ) - * ( , ( )) (* % &("0 &-) ()* ## % % $ * &% % +% )+ # ) (+% % %& 3 . %* ( 1 ) # )* "% '' % # % ) 2( % - ( )& ( % % + ( +% %

! )#" " &


AUSGABE O1:2O16

BUSINESS CORNER

EDITORIAL | BÉLA BEIER

Ihr Unternehmen oder Ihr Produkt kurz & auffällig platziert

Workout mit Weihnachtsworkshops

W

enn wir nur so ein bisschen ehrlich sind, haben wir im Dezember drei Sachen auf der To-do-Liste stehen: Eine vorläufige (!) Übersicht der Weihnachtsgeschenke, ein Laufwerk voller Trial-Versionen, die man über die Feiertage mal anschauen möchte, und einen episch überfüllten Lesezeichenordner im Browser. Darin enthalten sind Workshops, Tutorials, eventuell sogar tausende Tests und vieles mehr, was man sich anschauen WOLLTE und auch SOLLTE, aber wofür man über das Jahr hinweg keine Zeit hatte. Um was es dabei genau ging hat man zwar vergessen, aber anschauen will man es sich schon einmal. Wenn man denn mal Zeit hat. Beim dem mit Testversionen überfüllten Laufwerk können wir natürlich nicht helfen. Und erst recht nicht bei den Weihnachtsgeschenken (aber falls Sie noch ein paar gute Ideen für die nicht-VFX-affine Verwandtschaft haben: Bitte her damit! Wir suchen noch!). Aber beim Workshop-Stapel? Den stocken wir auf - es soll ja niemandem langweilig werden. Für diese Ausgabe haben wir die Besten herausgepickt und sorgen so für eine sinnvolle Winterpause: Wir modellieren den Drachen „Fafnir“ aus „Mara und der Feuerbringer“, erstellen Gizmos für Nuke und Shader in Houdini, steigen tief in das Fusion Grid in Modo 901 ein, bauen eine Brute Force Global Illumination in Clarisse, generieren prozedurale Steine in Blender und schauen uns mit Quantum Human und Akeytsu zwei neue Tools im Animationsbereich an. Wer da schnell durch ist, zum Beispiel, weil Ihre Verwandtschaft nicht so anstrengend ist wie der Durchschnitt oder weil der Final Delivery schon Ende November abgeschlossen war (ja, so was soll‘s geben, ha-

Jetzt buchen!

ben wir zumindest gehört), für denjenigen haben wir weitere Inspiration im Angebot: In Vorbereitung auf das „Sherlock“-Special haben wir ein Interview mit dem Editor der letzten Episode geführt. Außerdem sprachen wir mit Pete Docter, Jonas Rivera und Steve May von Pixar über „Inside Out“ und mit Thomas Moser von Disney über den Animations-Weihnachtskracher „Arlo & Spot“ sowie mit VFX Art Director John Bell über die Entwicklung des Hoverboards für den Kultfilm „Back to the Future 2“. Des Weiteren erklärt das Studio Rise, wie die visuellen Effekte für „Man from U.N.C.L.E.“ gelangen und die Workstation-Bauer von Xi-Machines haben mehr zur 8K-Projektion „Deep Space“ der Ars Electronica verraten. Fraqment Film hat Klamotten aus Wasser designt und „Cosmos Laundromat“-Regisseur Mathieu Auvray sprach mit uns über den „First Cycle“ des neuen Feature-Film-Projekts vom Blender Institute. Viele weitere Making-ofs von tollen animago-Projekteinreichungen sowie den Nachbericht zur animago AWARD & CONFERENCE haben wir natürlich auch dabei! Das sollte uns alle über die Feiertage und ins neue Jahr retten – und wir sehen uns dann 2016 in alter Frische wieder!

Kontakt: sales@digitalproduction.com

KURZABO

Kauf eins, lies zwei! digitalproduction.com/2for1

www.animago.com

EINZELHEFTE

Jedes Heft 5 Euro! digitalproduction.com/einzelheftaktion

DP NEWSLETTER Béla Beier DIGITAL PRODUCTION PS: Mit dieser DP-Ausgabe wandelte sich der bisherige DP Guide zur DP BUSINESS CORNER. Egal ob Studio, Bildungsinstitution, Plug-in-Entwickler, Distributor, Freelancer oder Service-Anbieter im Bereich digitaler Medienproduktion: Zukünftig profitieren Sie davon, dass Ihr Unternehmen oder Ihr Produkt ein Jahr lang direkt im redaktionellen Teil einer jeden DP-Ausgabe platziert wird. Werfen Sie einfach einen Blick auf das Beispiel hier rechts direkt neben dem Editorial. Wir freuen uns auf Ihre Kontaktaufnahme unter sales@digitalproduction.com. PPS: Nach 15 Jahren und vielen Fragen habe ich mir ein neues Bild gegönnt. Allein die Software-Updates dieser Zeit verursachen graue Haare. Danke an Dirk Beichert (dirkbeichert.de) fürs Fotografieren!

Jetzt anfordern! digitalproduction.com/newsletter

DP WEBSITE

Jetzt vorbeisurfen! www.digitalproduction.com Anzeigen: DP BUSINESS CORNER

Béla Beier

Verfügbare Anzeigengrößen: · 53mm Breite x 35mm Höhe · 53mm Breite x 70mm Höhe

DP Abo verschenken! 3

digitalproduction.com/geschenkabo


INHALT

Cover: „The Good Dinosaur“;Walt Disney Motion Pictures

Inhalt

8

18

26

Gefühle & Dinos

8

Gefühlschaos bei „Inside Out“ und Dinosaurier in „Arlo & Spot“: Disney/Pixar ist in einem ihrer besten Jahre – wir sprachen mit den Machern.

Akeytsu

14

18

Eine Frage des Aussehens

68

Shader? Ja, gerne! Rainer Duda erklärt, wie man in Houdini einen PBR-Shader aufsetzt und diesen mit Lichtquellen imposant inszeniert.

Das Wasserkleid

Zurück im Dinoland

26

32

36

Für Guy Ritchies „The Man from U.N.C.L.E.“ musste das geteilte Berlin der 60er Jahre wieder aufgebaut werden. Rise schuf dazu die VFX-Illusion.

78

Die besten Gratis-Webseiten zu AE

80

Es gibt so viele Tutorial-Seiten zu dem Adobe-Tool: Mathias Möhl hat die definitive Liste derer, die wirklich einen Besuch lohnen.

42

Ein Feuerhydranten-Bot war dieses Jahr beim animago AWARD. Artist Christian Schweger erklärt, wie der mit MoI und Octane entstand.

Back to the 60s

An der Quelle Open-Source-Projekte stützen und erweitern die Pipeline von Image Engine. Die Entwickler des Teams erzählen von Gaffer und Cortex.

CG-Steine kann man auch einzeln per Handarbeit kreieren – leichter, schneller und mit geschonten Nerven geht es prozedural.

Wasser marsch!

74

Image Engine unterstützte ILM tatkräftig mit CG-Raptoren bei „Jurassic World“. Der VFX-Supervisor berichtet von der Arbeit.

Die in Nuke enthaltenen Nodes sind nicht das Ende der Fahnenstange: Wir zeigen, wie Sie sich ein „HighpassSharpen“ Gizmo bauen.

Prozedurale Steine in Blender

62

Indirektes Licht bei Innenräumen? Das frisst Zeit. Wie man diese spart, das zeigen wir im Brute Force Global Illumination Workshop.

Cloth und Wasser für ein Commercial: Fraqment Film erklärt, wie sie mit Scans und Simulation die erfrischendste Klamotte der Welt erstellt haben.

4

Indoor Lighting mit Clarisse

Was modelliert sich besser als ein Drache? Im ZBrush-Workshop zeigen wir, wie man das Monster aus „Mara und der Feuerbringer“ erschafft.

„HighpassSharpen“ Gizmo für Nuke

54

Im zweiten Teil des Mesh-Fusion-in-Modo901-Workshops gehen wir in Fusion Flow und Fusion Grid auf.

Ein neues Tool für Keyframe Animation und Rigging steht in den Startlöchern – lohnt der Blick in die Version 1.0?

Modeling Fafnir

Die nächste Fusion-Generation

Quantum Human macht jeden zum Animator

82

Mit einem Maya-Plug-in und einem Klick produktionsfertige Protagonisten aus 3D-Charakteren? Kann das gehen?

48

Der Erfinder des Film-Hoverboards

87

VFX Art Director John Bell designte in den 80ern für „Back to the Future 2“ das berühmte Hoverboard. Wir trafen ihn zum Interview.

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

INHALT

01:2016 87

112

Deep Space in 8K

122

90

Auto-Explosion der anderen Art

Die Ars Electronica ist immer vorne dabei – und die neue 8K-Projektion wurde von Xi-Machines ausgestattet. Oder interessiert Sie noch 4K?

Sabber mal anders – Droolpool

95

Der bewegte Mensch

Die Filmakademie planscht mit den putzigsten Tierchen der Welt – Alexander Richter erzählt, wie der Pool kreiert wurde.

Unterwegs kreativ sein

98

So war‘s beim animago 2015

102

105

Alf Lovvold hat für „Dawn of the Stuff“ 44 CG-Shots im Alleingang erstellt. Wir sprachen mit ihm über seine Mammut-Leistung.

Durchblick mit Physik

SERVICE & STANDARDS Editorial

3

Impressum

6

108

In Autodesk 3ds Max 2016 war sie endlich da: Die physikalische Kamera. Wir zeigen, was es mit den Parametern auf sich hat.

Infrarot in der Praxis

ANZEIGEN-INDEX 112

IR ist toll und jeder will es eigentlich mal machen. Daniel Erpilev zeigt, welche Kamera / Objektiv / Filter-Kombination was bewirkt.

FIRMA 3DPowerstore GmbH, Düsseldorf

Der neue Blender Open Movie ist da – und hat gleich mal einen animago AWARD abgeräumt. Wir sprachen mit dem Regisseur.

39 41

Autodesk GmbH, München

U4

Blackmagic Design, AUS – Port Melbourne

122

SEITE

AD Konzept GmbH, Leipzig

CADnetwork GmbH, Köln

Cosmos Laundromat

136

Für alle, die leider nicht kommen konnten: Das waren die Highlights der diesjährigen animago AWARD & CONFERENCE.

Natürlich nicht der Charakter! Aber in Vorbereitung auf das Januar-Special sprachen wir mit Editor Yan Miles über Schnitt, Timing und die Macher.

Viel CG-Stuff

132

Andreas Vrhovsek hat mit Motion-CaptureDaten von Tänzern und Houdini CG-Kunst kreiert, die es sogar ins Museum geschafft hat.

Wacoms mobiles Grafiktablet – denn warum sollten nur analoge Artists in den Genuss des Zeichnens an der frischen Luft kommen?

Sherlock wird taktvoll

128

Für Land Rover hat Ink den Discovery Sport per CG in seine Einzelteile zerlegt und den fertigen Spot beim animago AWARD eingereicht.

7 Beilage

fayteq AG, Erfurt

53

Institut für internationale Architektur Dokumentation, München

111

maconcept., Rosbach v.d. Höhe

61

Maxon Computer GmbH, Friedrichsdorf

U2

SAE Institute GmbH, München

101

Vision 4D, Ottobrunn Business Corner

51 9, 11, 13, 17

5


www.digitalproduction.com

INHALT

Web

01:2016

video2brain

SAE-Workshop

Durchblick mit Physik Michl Dacher zeigt Features und Grundlagen der lange erwarteten physikalischen Kamera. Das PDF zum kostenlosen Download gibt es unter www.digitalproduction.com.

Hardsurface Modeling in ZBrush 4R7: Kettenlaufwerk Wir legen ein Base Mesh für Curve Brush an – die einzelnen Instanzen belasten so nicht den Arbeitsspeicher. Wie es geht, sehen Sie beim Download des kostenlosen Videos auf www.digitalproduction.com.

IMPRESSUM AUSGABE 01:2016 | 20. JAHRGANG | DIGITAL PRODUCTION MAGAZIN FÜR DIGITALE MEDIENPRODUKTION www.digitalproduction.com; www.animago.com

Pressevertrieb: VU VERLAGSUNION KG Meßberg 1, 20086 Hamburg Tel: +49 (0) 40 3019 1800 Fax: +49 (0) 40 3019 1815 info@verlagsunion.de Bezugsbedingungen: DIGITAL PRODUCTION erscheint seit Januar 2013 sieben Mal jährlich. Das Einzelheft kostet EUR 15,20. Das Jahresabonnement umfasst sieben Ausgaben plus das animago Sonderheft.

So erreichen Sie die Redaktion: Tel.: +49 (0)89 - 89817-364 Fax: +49 (0)89 - 89817-350 info@digitalproduction.com Head of Sales & animago Projektleitung: Jana Freund Tel.: +49 (0) 89 898 17-340 jana.freund@digtialproduction.com

Die Abonnement-Preise gelten seit dem 23.11.2015. Bitte entnehmen Sie diese der Preistabelle (siehe unten). Alle Preisangaben dienen der persönlichen Information des Lesers und sind unverbindlich.

Geschäftsführung: Karin Lang

Junior Media Sales & Event Management: Vanessa Oswald Tel.: +49 (0) 89 898 17-352 vanessa.oswald@digitalproduction.com

Abonnement-Kündigungen sind spätestens acht Wochen vor Ablauf der Bezugszeit schriftlich möglich. Kann die Zeitschrift infolge höherer Gewalt, Streiks oder dergleichen nicht erscheinen, so ergeben sich daraus keine Ansprüche gegen den Verlag.

Mirja Fürst Tel.: +49 (0)89 898 17-366 mirja.fuerst@digitalproduction.com Lektorat & Redaktionsmanagement: Sabine Hatzfeld Tel.: +49 (0)89 898 17-364 sabine.hatzfeld@digitalproduction.com Art Direction / Layout: Angelika Buchzyk Tel.: +49 (0)89 898 17-367 Technik_Layout_SR@atec-bi.de

CTP / Druck: BGZ Druckzentrum GmbH Sportfliegerstraße 6, 12487 Berlin Copyright: ATEC Business Information GmbH DIGITAL PRODUCTION gehört der Informationsgemeinschaft zur Feststellung der Verbreitung von Werbeträgern (IVW) an.

Für Studenten gelten vergünstigte Konditionen.

Herausgeber: ATEC Business Information GmbH, Hackerbrücke 6, D-80335 München; Postfach 20 16 63, D-80016 München

Redaktion: Béla Beier (CvD) Tel.: +49 (0)89 898 17-362 bela.beier@digitalproduction.com

Nachdruck, Fotokopie, Mikrofilm oder andere Verfahren, auch auszugsweise, ist nur mit schriftlicher Genehmigung der ATEC Business Information GmbH erlaubt.

Anzeigendisposition: Petra Ruckdäschel Tel.: +49 (0)89 38 16 20-79 disposition@digitalproduction.com Zurzeit gilt die Anzeigenpreisliste Nr. 20. So erreichen Sie unseren Abonnentenservice: Vertriebsunion Meynen Aboservice DIGITAL PRODUCTION D-65341 Eltville Tel.: +49 (0)6123 92 38-213 Fax: +49 (0)6123 92 38-214 order@digitalproduction.com

Für unverlangt eingesandte Text- und Bildbeiträge wird keine Haftung übernommen. Eine Rücksendegarantie wird nicht gegeben. Der Verlag behält sich das Recht vor, Beiträge auf anderen Medien herauszugeben, etwa auf Datenträgern oder im Online-Verfahren. Für namentlich gekennzeichnete Artikel übernimmt die Redaktion lediglich eine presserechtliche Verantwortung.

Bankverbindungen: (Allgemein / Anzeigen) Deutsche Bank, Munich IBAN: DE86 7007 0010 0170 3388 00 BIC: DEUT DE MM XXX Deutschland (Abonnenten / Einzelverkauf) Deutsche Bank, Munich IBAN: DE06 7007 0010 0202 1897 05 BIC: DEUT DE MM XXX Österreich (Abonnenten / Einzelverkauf) Hypo Landesbank Vorarlberg IBAN: AT52 5800 0004 8981 7020 BIC: HYPVAT2B Schweiz (Abonnenten / Einzelverkauf) Raiffeisenbank Unteres Rheintal IBAN: CH29 8129 5000 0043 2102 6 Published by ATEC

Für Fehler in Texten oder sonstigen Darstellungen, die zu Schäden an Geräten führen, wird keine Haftung übernommen. Die veröffentlichten Artikel sind urheberrechtlich geschützt. Jede Reproduktion durch

Hinweis in eigener Sache: Ab Ausgabe 01:2016 gelten neue Abonnement-Preise. Jahresabonnement / Geschenkabonnement Studentenabonnement Kurzabonnement (2x lesen, 1x zahlen)

6

Inland*

Ausland*

EUR 106,00 inkl. Versand und 7 % MwSt. EUR 89,00 inkl. Versand und 7 % MwSt. EUR 15,20 inkl. Versand und 7 % MwSt.

EUR 126,00 inkl. Versand, zzgl. MwSt. EUR 109,00 inkl. Versand, zzgl. MwSt. EUR 15,20 inkl. Versand, zzgl. MwSt.

* Die Abonnement-Preise für die Schweiz sind auf www.digitalproduction.com/shop veröffentlicht.

WWW.DIGITALPRODUCTION.COM


!! " # # $ # & # " !! !" -: 4)+35)/1+ &1,-7 ;;1;< 1;< ,-: =4<15)<1>- :7,=3<176;5761<7: 51< "-37:,-: .H:; #-< 8);;-6, .H: 2-,- # 7,-: )5-:) -: /:7D- 0-44- (744 761<7: B-1/< ,1- 14,)=;;+061<<;?)04 )6 =6, /):)6<1-:< 06-6 ;7 -16-6 :=6,=5 8-:.-3<-6 73=; -: 16<-/:1-:<- "-37:,-: 6=<B< /F6/1/- # ):<-6 =6, B-1+06-< -:;<34);;1/- :7"-; 7,-: @ )<-1-6 16 =6, 1< )=. 1-;- H*-:*1-<-6 ,1- =.6)05-9=)41<F< ,-: 5-1;<-6 )5-:); =6, ;16, 51< 2-,-: &1,-7;7.<?):- 3758)<1*-4 -<B< 1;< 2-,- )5-:) 15 = =5 8:7.-;;176-44- 14,376<:744- =6, =.B-1+06=6/ -:?-1<-:*):

# ! " # #

" "

E*-: ,1- =6, # 6;+04H;;- 3G66-6 #1- 51< ,-5 4)+35)/1+ &1,-7 ;;1;< 8:)3<1;+0 >76 2-,-: )5-:) 7,-: ,1/1<)4-6 #81-/-4:-C -@3)5-:) )=.B-1+06-6 =6, # &1,-7 6;+04H;;- 5)+0-6 ,-6 &1,-7 ;;1;< B=5 =4<15)<1>-6 0)6,0)4<*):-6 -,1) 4)A-: .H: ,1- 6;1+0< >76 =.6)05-6 )5 #-< 7,-: .H: =6,-68:F;-6<)<176-6 -: 4)+35)/1+ &1,-7 ;;1;< >-:.H/< )=D-:,-5 H*-: -16- 78I G:-:*=+0;- & -<B;<:75 =6, B?-1 33=.F+0-: .H: ,1- 76;<78 #<:75>-:;7:/=6/

-: 4)+35)/1+ &1,-7 ;;1;< *1-<-< -16 -@<:-5 0-44-; =6, ;+0):.-; >744)=C G;-6,-; 1;84)A >76

@ ,); ,1- ?16B1/-6 1;84)A; ,-: 5-1;<-6 )5-:); H*-:<:1J < 76<1-:-6 #1- 106 ,1:-3< )6 ,1- )5-:) 7,-: >-:?-6,-6 #1- -16 4F6/-:-; )*-4 ,)51< ,-: )5-:)5)66 106 B=: 14,37587;1<176 16 ,-: )6, 0)4<-6 3)66 -: 4)+35)/1+ &1,-7 ;;1;< <)=/< ;7/): .H: ,); 761<7:16/ >76 %4<:) !=-44-6

!! %5/-0-6 #1- >-:4=;<*-0).<-<- 758:151-:=6/-6 /F6/1/-: # " =6, &1,-73)5-:); -: 4)+35)/1+ &1,-7 ;;1;< ;8-1+0-:< *:7),+);<<)=/41+0- :7"-; 7,-: @ )<-1-6 16 1< =6, )=. ;+06-44-6 # ):<-6 E*-: ,-6 #<):< #<788 ,-: )5-:) 3)66 ,1- =.B-1+06=6/ )=<75)<1;+0 )=;/-4G;< ?-:,-6 :.);;<- )<-1-6 ;16, 51< )44-6 .H0:-6,-6 #+061<< =6, ):*37::-3<=: #7.<?):-; 3758)<1*-4

-: -58.704-6- &-:3)=.;8:-1; *-160)4<-< )44- 1-.-: =6, &-:;)6,37;<-6 ;7?1- %5;)<B;<-=-: #" K )5-:) 61+0< 16*-/:1J -6

-: 16<-/:1-:<- 761<7: 51< $7=+0;+:--6 5)+0< ,); #-< =8 =6, ,-6 16;)<B 0:-; 4)+35)/1+ &1,-7 ;;1;< ,-63*): -16.)+0 =:+0 -16.)+0- $188 =6, '1;+0/-;<-6 /-*-6 #1- 16;<-44=6/-6 >7: :=.-6 )5-:)16.7:5)<176-6 )=. 7,-: ?-:<-6 =,178-/-4 =6, -41+0<=6/ )=; 1< ,-5 ;+01+3-6 0)4*<:)6;8):-6<-6 -), =8 1;84)A *-0)4<-6 #1- 0: &1,-7 ,=:+0/-0-6, 15 41+3

! &!! !" # "%"

!! !" )&16+1 "-;74>- 16*-/:1J -6


FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

Alle Bilder: Disney/Pixar

FOKUS

Wenn Gefühle Gefühle haben Die Storys von Pixar scheinen einem gemeinsamen Nenner zu folgen: In „Toy Story“ hatten Spielzeuge Gefühle, in „Wall-E“ Maschinen, in „Up“ sogar Senioren; Ratten gelangten in „Ratatouille“ zu emotionaler Tiefe und bei „Monsters, Inc.“ waren dieselbigen zumindest gefühlsbegabt. Mit „Inside Out“ (in Deutschland „Alles steht Kopf“) allerdings begibt von Béla Beier man sich nun auf die Meta-Ebene: Was passiert, wenn Gefühle fühlen können?

B

ereits 780 Millionen Euro hat „Inside Out“ weltweit eingespielt (Stand 1.11.2015). Das zeigt, dass es Pixar immer noch raushat, die Leute ins Kino zu locken. Und als Pete Docter (der Regisseur von „Inside Out“, „Up“ und „Monsters, Inc.“, auf dem Bild rechts) und Jonas Rivera (der Producer von „Inside Out“ und „Up“, Production Manager bei „Cars“ und Art Department Manager von „Monsters, Inc.“ und „A Bug‘s Life“, links) in München waren, trafen wir die beiden auf einen Kaffee und stellten einige Fragen.

DP: „Inside Out“ hatte eine Produktionszeit von insgesamt fünf Jahren: Wann seid ihr ins Look Development für die doch recht eigene Optik eingestiegen? Jonas Rivera: Nach so ungefähr einem Jahr. Wie Pete die Idee entwickelt hatte, war klar, dass wir wegen der abstrakten Locations (innerhalb der Personen) und auch aufgrund der Wandelbarkeit der einzelnen Gefühle einen anderen Look brauchten. Also haben wir Mi-

8

chael Fong als Supervising Technical Director mit ins Boot geholt (bit.ly/michaelfongpixar), der zusammen mit dem Production Designer Ralph Eggleston ein neues Konzept erstellt hat. Im Design war klar, dass das übliche „Build‘em-Shade‘em-Light‘em“ nicht funktionieren würde. Der Hauptcharakter „Joy“ (also „Freude“) ist beispielsweise eine Lichtquelle, deshalb mussten wir unsere Lighting-Tools invertieren – denn wo andere Figuren Schatten werfen, wirft sie einen Lichtbereich. DP: Der Look zwischen der Außenwelt mit Old-School-Objektiv-Look und dem Innenleben mit sehr cleanen Linsen – wie habt ihr den aufgestellt? Pete Docter: Schön, dass es aufgefallen ist. Im Inneren wollten wir den klassischen Hollywood-Look mit Tracks und Dollys, die sich absolut regelmäßig bewegen. Natürlich nicht „perfekt berechnet“, auch hier muss man ein bisschen Jitter haben. Für den Kontrast der Außenwelt haben wir eine Tracking-Kamera erstellt – so als würde der Kameramann mitlaufen – sowie die Kamera auf ungefährer Augenhöhe positioniert und wenige Froschoder Vogelperspektiven-Shots verwendet. Auch die Farben haben wir getrennt: Im Inneren haben wir die volle Palette der BonbonFarben, stark gesättigt, eingesetzt; in der

Außenwelt waren es entsättigte Farben und ein kontrastarmer Look. Auch die passenden Linsen haben wir simuliert – die genauen Optiken weiß ich nicht mehr, aber in der Außenwelt sollten leichte Verzerrungen und Unreinheiten ins Bild kommen, in der Innenwelt dagegen eine flache, idealisierte Optik vorherrschen – fast wie in einem Cartoon. DP: Das Animations-Team war wesentlich kleiner als bei anderen Pixar-Projekten – wie habt ihr mit circa 40 Animatoren ein derart großes Projekt hinbekommen? Jonas Rivera: Wir haben die Produktion weit aufgefächert – zeitlich betrachtet – und konnten so mit einem kleineren Team über einen längeren Zeitraum arbeiten. Wir produzierten zwischen den anderen Filmen und waren dann aufgrund von „Arlo & Spot“, der direkt nach „Inside Out“ herauskam, froh, dass wir so weit vor dem Release mit dem Projekt fertig waren. Dazu kommt, dass üblicherweise bis kurz vor Ende des Projekts die Story nicht wirklich gelockt ist – und wenn die Story noch im Fluss ist und sich entwickelt, wird der Animationsaufwand natürlich immer größer. Viel ändern und feilen, damit der Film gut wird, muss man immer – aber in einem kleinen, längerfristigen Team sind die großen Änderungen früh abgeschlossen.

WWW.DIGITALPRODUCTION.COM


Pete Docter: Mit einem kleinen Team arbeitet es sich auch anders – bei einem großen Team, wenn alle zusammenkommen, ist die Atmosphäre sehr (gestikuliert wikingerartig) „RAWWWWR! Let‘s get this done!!!!“ und alles ist fertig, bevor man das komplette Potenzial der Bilder ausgeschöpft hat. Bei einer kleinen Truppe über einen längeren Zeitraum hat man mehr Muße, alles zu entwickeln und zu entdecken, was wie am besten funktioniert. DP: Wie sah der Tagesablauf mit einem so kleinen Team aus? Pete Docter: Wir machen normalerweise Dailies morgens und dann „Walkthroughs“ am Nachmittag – das ergibt einen guten Rhythmus, in dem die Leute arbeiten können. Bei uns ist das nach wie vor die Art von Dailies, wie sie John Lasseter eingeführt hat. Wenn man bei Pixar anfängt, erwartet man zunächst, dass einer nach dem anderen sein Feedback bekommt. Aber er hat immer in die Runde gefragt, was denn die Leute über die Shots denken – so fangen sie an mitzudiskutieren und Ideen einzubringen. Am Ende der Produktion nimmt die Diskussionsfreude dann ab, weil immer noch viel zu tun ist – aber am Anfang ist das absolut notwendig, die Varianten zu sehen und verschiedene Blickwinkel einzunehmen. Meine Aufgabe als Regisseur ist es manchmal, nur noch zu sagen: „Wir machen das jetzt so und nicht so“ – das Ergebnis hat sich dann aber organisch entwickelt. Dieses „Es gibt keine schlechten Ideen“-Denken bringt einen Film weiter. Wenn 45 Kreative beisammensitzen und man für die entsprechend offene Stimmung im Team sorgt, entstehen viele Ideen. DP: Wenn Sie an Ihre Anfänge als Animation-Artist zurückdenken: Was hat sich in den Jahren wesentlich verändert? Pete Docter: Da waren viele Updates dazwischen: Ich habe den jeweils letzten Shot

DISNEY/PIXAR | INTERVIEW

von „Monsters, Inc.“ und „Up“ animiert und wollte auch diesmal wieder einen Shot selbst animieren – aber ich habe die Finger davon gelassen, weil sich die Software so verändert hat, dass ich drei Wochen gebraucht hätte, um mich wieder einzuarbeiten. Pixar arbeitet für die Animation mit einer InhouseSoftware namens „Marionette“ und irgendwo zwischen „Up“ und „Inside Out“ gab es einen großen Versionssprung, wir wechseln diesbezüglich sehr häufig. Wir haben eine spezielle Tools-Group, welche Software sucht und testet, die auf dem Markt ist, sowie eigene Entwickler im Haus, die je nach Projektanforderung neu programmieren und anpassen. Für „Monsters University“ hatten wir beispielsweise ein neues Global Illumination Tool, das ein annäherndes Raytracing ermöglichte und auch Farb-Reflexionen und Ähnliches zeigt; mit so einer einzelnen Lichtquelle lässt sich schon ein akzeptables Ergebnis erzielen. Zu „meiner“ Zeit mussten wir noch Dutzende von Bounces, Fills, Rims und so weiter einbauen. Natürlich ist auch heutzutage nicht alles mit einem Klick erledigt. Insbesondere bei diesem Film hatten wir ja Charaktere, die leuchten, und viele stilisierte Elemente, bei denen man – wie bei einem Gemälde – Aspekte nachbeleuchtet oder Lichtmengen manuell hinzufügt.

SOUNDTAXI – MUSIKARCHIV

www.soundtaxi.net // Nikolausstraße 6a, D - 70190 Stuttgart // Tel.: 0711 / 217 202 290, Fax: 0711 / 217 202 299, eMail: info@soundtaxi.com AUDIO / MUSIKARCHIV / FILMMUSIK

VR3 VIRTUAL PRODUCTION www.vr3.de // Königsberger Straße1, D - 40231 Düsseldorf // Tel.: 0211 / 93 46 468, Fax: 0211 / 73 02 247, eMail: office@vr3.de // Kontakt: Jochen Schreiber VIRTUELLES STUDIO

Jonas Rivera: Was sich komplett neu erfunden hat, ist der gesamte SimulationsWorkflow, der sich seit den Haar-Sims für „Monsters, Inc.“ grundlegend gewandelt hat. In „Brave“ kam der nächste Sprung, der mich wirklich begeistert hat. Oft bringen uns die Storys voran und so haben uns Meridas Haare und die Kostüme mit Leinenkleidern sowie Ledergurten dazu gezwungen, diesen Bereich weiterzuentwickeln. DP: Und welchen Sprung löst „Inside Out“ für „Finding Dory“ oder andere zukünftige Filme aus? Pete Docter: Also für das Toolset waren die leuchtenden Charaktere sowie die pixellierten Elemente und Umgebungen eine große Herausforderung. Die Global Illumination, die einen realistischen Look möglich machte, aber für unsere Zwecke speziell an gepasst werden musste, war für das Development des Lightings eine große H erausf orderung. Aber ich bezweifle, dass „Finding Dory“

9

DVDESIGN GMBH

www.dvdesign.de // Wittener Str. 172, D - 45549 Sprockhövel // Tel.: 02339-1219752, Fax: 02339/1219756, eMail: info@dvdesign.de // Kontakt: Christoph Schmidt AUTHORING / PRE-MASTERING

blueBOX Tel.: +49 (0) 23 05 - 44 01 11 info@bluebox.de www.bluebox.de Anzeigen: DP BUSINESS CORNER

AUSGABE O1:2O16

Studio APP VFX 3D 2D

Webentwicklung

STOIBER PRODUCTIONS

www.stoiber.com // Gartenstraße 34, D - 82049 Pullach // Tel.: 089/79369308, Fax: 089/79369313, eMail: info@stoiber.com // Kontakt: Fritz Stoiber 3D-ANIMATION


FOKUS

FILM & VFX

3D & ANIMATION

einen ähnlichen Look wie „Inside Out“ haben wird, denn auch die Haar- und Pelz-Simulationen werden bei Fischen nicht so die Rolle spielen (lacht). Jonas Rivera: Wir haben viele Contour Distortions verwendet – vielleicht sogar mehr als bei dem Film „Brave“, für den es entwickelt wurde. Wir sind mit Cartoons von Tex Avery und Chuck Jones (Looney Toones, Elmer J. Fudd, Daffy Duck und so weiter) aufgewachsen sowie den darin vorkommenden vereinfachten, übertriebenen Posen der Figuren. Heute sind wir soweit, dass der Animator „lediglich“ einen Strich zeichnet und die Software passt die Haltung des Modells bereits an – so konnten wir starke beziehungsweise übertriebene Posen zeigen, die auch in die Innenwelt passten. DP: Zum Abschluss eine persönliche Frage: Welcher Shot aus „Inside Out“ ist euer Liebling? Pete Docter: Das ist schwer, aber einer meiner Favoriten ist der Vincente-Minnelli-Shot an Rileys erstem Schultag. Sie wacht auf und macht sich fertig – in Rileys Körperinnerem sehen wir parallel dazu „Joy“, die ebenfalls aufwacht, die Treppen in der Schaltzentrale herunterrennt und mit jedem der anderen Protagonisten interagiert: „Wut, schau dass dieses und jenes ...“, „Ekel, pass auf, weil ...“. Das war ein langer Tracking-Shot mit vielen geblockten Szenen. Diesen fand ich toll, weil wir so oft an Schnitte gewöhnt sind. Sei es nun, um es einfacher drehen zu können oder um dem Betrachter das Zuschauen zu erleichtern. Dieser Shot ist der zweitlängste im Film, er hebt sich von den anderen ab, deswegen mag ich ihn besonders. Jonas Rivera: Mein Lieblings-Shot war die Eislaufszene: Riley läuft in der Realität Schlittschuh, „Joy“ beobachtet das auf dem Schirm in der Schaltzentrale und gleitet mit. Die Szene war für mich die Quintessenz des Films, aber wir mussten kämpfen, um die Szene im Film zu halten. Es ist das einzige Mal, wo „Joy“ und Riley zusammen im Bild zu sehen sind. Pete Docter: Was bei dieser Szene auch interessant war: Wir haben im Shot die Kulisse entfernt. Wenn die Kamera zwischen Riley und „Joy“ hin- und herspringt, verschwinden alle Elemente um sie herum – die Konsole, die Wände und so weiter. Alles klappt weg und die Verbindung der beiden wird gezeigt, wie sie das Gleiche tun. Als sie selbstvergessen durch den Raum gleiten, steht „Joy“ im Prinzip auf einer Bühne. Ich hatte gedacht, dass die Zuschauer eventuell davon gestört würden, dass die „Umgebung“ so offensichtlich reagiert. Scheint aber nicht aufgefallen zu sein.

10

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

Komplexität ist die Herausforderung Wenn man „Inside Out“ und den gerade erschienenen „Arlo & Spot“ anschaut, fragt man sich, wie Pixar das alles hinbekommt. Wir stellten dem Supervising Technical Director Steve May von den Pixar Animation Studios dazu ein paar Fragen. May hat unter anderem an „Brave“, „Up“ und „Cars“ gearbeitet und war CG-Supervisor bei der Stereo-3D-Version von „Finding Nemo“. Was sagt er zur fortschreitenden Komplexität der Shots? von Béla Beier DP: Wenn Sie die Render-Zeiten für beispielsweise „Finding Nemo“ und „Finding Dory“ vergleichen – was hat sich diesbezüglich geändert? Steve May: Das hat sich nicht beschleunigt, eher im Gegenteil. Pro Frame brauchen wir heute länger, denn mit den neuen Rechen- und RenderMethoden sind wir in der Lage, den Artists viel repetitive Arbeit abzunehmen sowie Teile des Setups von Lighting und Rendering im Hintergrund zu erledigen, sodass die Kreativen flüssiger arbeiten können. Im Durchschnitt brauchten wir früher pro Frame 8 bis 10 Stunden – natürlich immer abhängig vom Setup. Heutzutage liegen wir bei 20 bis 30 Stunden pro Frame, aber da wir mittlerweile Multi-Core-Architekturen einsetzen, dauert es für den Artist ungefähr 6 bis 8 Stunden, bis er sein Bild erhält. Die tatsächliche Rechenkraft, die dahintersteckt, ist ungefähr das Zehnfache. Bei „Nemo“ zum Beispiel mussten wir noch viele Lighting-Setups praktisch komplett von Hand bauen. Insbesondere, wenn es Innenräume waren, waren die Lighting-Artists Ewigkeiten damit beschäftigt, zusätzliche Lichter hinzuzufügen, nur um die Realität zu simulieren. Und bei Wasser war es besonders kompliziert: Refraktionen, Verzerrungen, Lichtbrechungen und Glas, besonders bei den Fischtanks, waren extrem zeitaufwendig und kompliziert – stellenweise mussten Hunderte von Lichtern gesetzt werden. Mittlerweile sind es noch eine Handvoll Lichter und die Reflexionen entstehen aus der physikalischen Berechnung automatisch. Aber was wir vorne an Artist-Zeit sparen – und wo die Lighting Artists wesentlich intensiver über den Look nachdenken und experimentieren können –, kostet natürlich im Hintergrund Rechenzeit. DP: Nach den Haaren bei „Monsters, Inc.“, dem Wasser bei „Finding Nemo“, den Textilien bei „Brave“ – was ist eure nächste große Herausforderung? Steve May: Die Komplexität der Szenen. Die einzelnen Komponenten konnten wir Stück für Stück lösen: Haare und Pelz bei „Monsters, Inc.“ waren ein ziemlicher Batzen Arbeit. Ich habe da drei Jahre lang dran gesessen, um Sullys Haare so hinzubekommen. Zu der damaligen Zeit konnten wir realistisch betrachtet nur einen Charakter wirklich ausarbeiten. Und heute? Wir könnten alles mit Pelz zuwuchern lassen und würden dabei nicht ins Schwitzen geraten (lacht). Und wenn man die Möglichkeiten hat, verwendet man sie auch, weswegen ich denke, dass die Komplexität kontinuierlich steigen wird. Wir könnten viel mehr Elemente ins Bild bringen, aber das Ziel muss bleiben, dass die Artists interaktiv damit arbeiten können. DP: Was entwickeln Sie gerade? Steve May: Momentan stehen wir am Anfang von „Finding Dory“, das Projekt wird technisch eine große Herausforderung. Wir tauschen viel in der Pipeline im Hintergrund aus und runderneuern Segmente. Das Shading, Lighting und Rendering wurde im Zuge des Umstiegs auf die neue Version von Renderman für „Finding Dory“ komplett neu entwickelt. Denn mittlerweile ist Renderman ein Path Tracer, weswegen sich die ganze Herangehensweise geändert hat. Also war nicht nur ein Update vonnöten, sondern ein Komplettumbau. Dazu arbeiten wir derzeit an einem neuen Open-Source-Projekt, der „Universal Scene Description“, welches hoffentlich bald zum Standard für die Beschreibung von 3D-Szenen wird, zumindest für Filme und Animationen. Dieser „Container“ soll – wenn er fertig ist – die gesamten Daten aus der

WWW.DIGITALPRODUCTION.COM


ARRI MEDIA GMBH AUSGABE O1:2O16

www.arri.com

DISNEY/PIXAR | INTERVIEW

Türkenstraße 89, D - 80799 München Tel. 089/3809-2073, Fax 089/3809-1549, eMail: dtrimborn@arri.de Kontakt: Dominik Trimborn

Pipeline in sich vereinen, und bei „Finding Dory“ werden wir schauen, ob wir es hinbekommen haben.

ALLGEMEIN

DP: Was sonst noch? Steve May: Die dritte Änderung, die im Moment die technische Abteilung herausfordert, ist der Einsatz von The Foundrys Katana für das Lighting. Wir haben das Tool natürlich umgebaut, um es an unsere Artists anzupassen. So wie es bis jetzt aussieht, haben wir damit unsere Beleuchtung auf eine neue Stufe gehoben.

MADNESS GMBH

www.3dmadness.de // Davidstr. 41, D - 73033 Göppingen // Tel.: 07161/6528620, Fax: 07161/6528660, eMail: info@3dmadness.de // Kontakt: Axel Berne

DP: Wir haben gehört, dass Sie eine Kooperation mit Nvidia aufbauen, um das Monte-Carlo-Rendering einzubauen. Ist deren Technologie bereits integriert? Steve May: Nein, bis jetzt noch nicht, vieleicht in der Zukunft. Die Quasi-Monte-CarloTechnik ist eine mathematische Methode, um bei Grafiken das Sampling zu verbessern – sowohl beim Rendern als auch an anderen Stellen in der Pipeline. Aber die Kooperation ist noch ganz frisch. Wir freuen uns sehr auf die Entwicklungen beim GPU-Rechnen, die meiner Meinung nach im Filmbereich gerade erst begonnen hat – da geht noch einiges.

3D-ANIMATION

RENDERBARON

www.renderbaron.de // Comeniusstr. 1, D - 40545 Düsseldorf // Tel./Fax: 0211/17166896, eMail: marc@renderbaron.de // Kontakt: Dipl.-Des. Marc Potocnik

DP: Wo wir gerade beim Thema Kooperationen sind: Wie ist es jetzt als Techniker Teil des Disney-Konzerns zu sein? Steve May: Es ist spannend, weil Disney als „Konzern“ ja viele unabhängige und komplett getrennte Studios umfasst: Pixar und Lucasfilm/ILM, Disney Animation, Marvel Animation, Disney Toons Studios und die Disney-Research-Abteilung. Zwischen diesen Studios ist jetzt keine Wand mehr und wir können uns gegenseitig über die Schulter schauen – die Technologien „fließen“ quasi zwischen den Studios. So lernen wir gerade viel, da alle Teams komplett unterschiedliche Herangehensweisen haben. Ein Beispiel: Der Denoiser, den Disney Animation für „Baymax“ entwickelt hat, ist nun Teil von Renderman. Die Einbettung in Renderman hat nur ein paar Wochen gedauert und nach ein paar Monaten Beta-Testing ist dieser Denoiser fest eingebaut – wir mussten eigentlich nur schauen, dass er verwendbar und solide integriert ist. Der Technologie-Transfer ist jetzt schnell erledigt, nur die Einbettung dauert unterschiedlich lang – von ein paar Tagen bis zu mehreren Monaten.

3D-ANIMATION

FLEXIBLER FORMATWANDEL

FABERCOURTIAL DP: Apropos neue Technologien: Im Wust aus 4K, 8K, Social, HFR, HDR, Rec. 2020 – was ist Ihrer persönlichen Meinung nach die nächste Veränderung, die im Kino relevant wird? Steve May: Als Filmfan vermute ich, dass HDR den größten Sprung nach vorne machen wird. Es ist visuell am deutlichsten und gerade im Hardware-Segment ist da für die Technik noch einiges an Wachstumspotenzial drin. Bei 4K/8K besteht meiner Meinung nach das Problem, dass man entweder eine gigantische Leinwand braucht oder man mit der Nase am Bildschirm sitzen muss, damit man überhaupt etwas davon sieht. Auch von der technischen Seite her sehe ich das jetzt nicht als sonderliche Herausforderung: es braucht halt nur ein Vielfaches der Rechenzeit, aber kein fundamentales Umdenken. Was uns danach erwartet – und wo wir gerade darauf zulaufen, ohne zu wissen, wie es funktionieren wird –, ist Virtual sowie Augmented Reality. Die Technologie ist hochinteressant, aber ich weiß noch nicht, wie man es als Filmemacher umsetzen könnte. Ich habe auch noch von niemandem gehört, der es derzeit schafft.

www.faber-courtial.de Rheinstraße 99, D - 64295 Darmstadt Tel.: 06151/599260, eMail: public@faber-courtial.de Kontakt: Maria Courtial ALLGEMEIN

LIGA 01 COMPUTERFILM GMBH Hamburg & München +49 (0) 40 22622600 +49 (0) 89 51555888 contact@liga01.de www.liga01.com

DP: Zum Abschluss eine persönliche Frage. Welcher Pixar-Film beziehungsweise welche -Szene ist Ihre liebste? Steve May: Lange gearbeitet habe ich an „Monsters, Inc.“ und „Up“ – und ich bin der Meinung Sullys Haare kann man nicht oft genug zeigen. Als Zuschauer gefallen mir aber diejenigen besser, an denen ich nicht aktiv gearbeitet habe, denn man kann diese Filme mehr genießen und denkt sich nicht bei jedem Frame „Hätte ich doch ...“ Zum Beispiel „Ratatouille“ oder „Inside Out“ sowie „Arlo & Spot“ – das sind Filme, die ich genießen kann. Wenn ich genau überlege, sind eigentlich die Filme, an denen ich nicht gearbeitet habe, meine Lieblinge (lacht).

DESIGN, ANIMATION & VISUAL EFFECTS

3DPOWERSTORE

Anzeigen: DP BUSINESS CORNER

www.3dpowerstore.de // Friedenstr. 51, D - 40219 Düsseldorf // Tel.: 0211/30205630, Fax: 0211/30205616, eMail: sales@3dpowerstore.de // Kontakt: Ron Martin

11

AUSBILDUNG / SCHULUNG

STEP-ANI-MOTION STUDIO FÜR COMPUTERTRICK GMBH www.step-ani-motion.de Obenmarspforten 7-11, D - 50667 Köln // Tel.: 0221/20235-0, Fax: 0221/20235-19, eMail: info@stepani-motion.de // Kontakt: Stephan Huhn 3D-ANIMATION


In den letzten zwanzig Jahren (ja, „Toy Story“ feiert schon zwanzigjähriges Jubiläum. Wir sind alt geworden ...) hat sich der Look und die Herangehensweise im Animationsfilm generell und besonders bei Pixar stark weiterentwickelt. Zum Beispiel wird heutzutage viel mehr simuliert. Dazu sprachen wir mit dem von Béla Beier Pixar-Simulations-TD Thomas Moser.

A

m 26. November kommt „Arlo & Spot“ in die Kinos. Der Film erzählt die Geschichte eines jungen Dinosauriers, der von seiner Familie getrennt wird und auf dem Weg zurück das Haustier „Spot“ trifft, einen Menschen. Ein sprichwörtlicher Meteoriten-Schlag für den Film, der eigentlich schon am 30. Mai 2014 erscheinen sollte, war der RegisseurWechsel mitten im Projekt – von Bob Peterson ging es an Peter Sohn, der sowohl Story als auch Ablauf noch mal komplett änderte, aber der Prämisse treu blieb.

DP: Welche Bestandteile galt es bei „Arlo & Spot“ zu simulieren? Thomas Moser: Die Simulationsabteilung bei Pixar kümmert sich normalerweise um die Charakter-Effekte, hauptsächlich Hair & Cloth und ein wenig Rigid Bodies. Bei „Arlo & Spot” sind wir jedoch neue Wege gegangen. Wir haben uns um Hair & Cloth für die Menschen gekümmert, Flesh & Skin für die meisten Dinosaurier sowie um manche Props wie eine Netzfalle. Zum ersten Mal bei einem Projekt haben wir volle Vegetationssimulationen für alle Sets inklu-

12

sive Bäume, Büsche, Gräser et cetera mit unterschiedlichen ambienten Bewegungen sowie Wetter-Setups kreiert. Auch der Fluss in allen Variationen wurde von unserer FXAbteilung erzeugt, ebenso wie die Wasserfälle, der Regen, Staub, Feuer, Rigid Bodies und vieles mehr. Für diesen Film wurde extra eine Clouds-Abteilung formiert, die für die volumetrischen Wolken zuständig war. Die Longhorn-Büffel-Herde sowie die Vogelund Glühwürmchen-Schwärme haben wir mithilfe von Crowds simuliert. DP: Was war im Speziellen deine Aufgabe? Thomas Moser: Meine Hauptaufgaben waren das Vegetationssimulations-Setup und der -workflow. Später habe ich auch am Flesh & Skin Sim-Setup für T-Rex Butch, am Sim-Rig für die Netzfalle und natürlich an allen möglichen anderen Shots gearbeitet. DP: Wie groß war das Simulationsteam für einen Film dieser Größenordnung? Thomas Moser: Zu unserer Hauptzeit waren wir in der Abteilung 13 Sim-TDs plus unser Supervisor und zwei Leute vom Produktionsmanagement. Ich würde sagen, wir hatten weniger „Spezialisten” in der Abteilung, sondern eher einen guten Mix von verschie-

denen Leuten mit unterschiedlichen Stärken und Kenntnissen. Manche beherrschten unsere neue Vegetationssimulations-Pipeline und -Workflows besser, andere kannten sich mit den Charakteren besser aus, unter anderem weil sie am Grooming & Tailoring oder den Flesh & Skin Setups gearbeitet hatten. Aber schlussendlich hat jeder mit allem gearbeitet. DP: Wie sieht der Ablauf eines Shots vom Entwurf bis zum Rendering aus? Thomas Moser: Für Charakter-Effekte starten wir normalerweise immer direkt nach der Animation. Daher ist es wichtig, die animierte Performance des Charakters dahingehend einzuschätzen, welche Simulationsresultate die Darstellung in diesem Shot unterstützen können. Das Ergebnis sollte sich natürlich anfühlen, ohne die Aufmerksamkeit auf die Simulation selbst zu ziehen. Im Gegensatz zu Kleidung und Haaren, welche eigentlich immer als Extra-Schicht/Ebene auf und mit unserer Figur agieren, beeinflussen die Flesh & Skin Sims für die Dinosaurier die Körper der Figuren direkt – und sind daher auch direkt von der jeweiligen Animation angetrieben. Für die gewünschte Performance war es umso wichtiger, gut mit den AnimationArtists zusammenzuarbeiten. Für die Vegetationssimulation hingegen arbeiteten wir eng mit unserer DoP Sharon Calahan zusammen: Angefangen bei dem Setup und der Justierung der ambienten „Keep-Alive”-Bewegungen – sozusagen einem Arbeitsschritt zur

WWW.DIGITALPRODUCTION.COM


DEUTSCHLE.CGI

Anpassung an das Wetter für eine Sequenz oder Sub-Sequenz – bis hin zu einzelnen speziellen Money-Shots oder Shots, die spezielle art-directed Hero-Sims oder Interaktionen mit den Charakteren benötigten. Zusammenarbeit ist immer ein wichtiger Schlüssel zum Erfolg, mit anderen Abteilungen genauso wie innerhalb der Abteilung. DP: Wenn du deine Arbeit an „Brave“ und „Monsters University“ zum Vergleich nimmst: Was hat sich in den letzten Jahren grundlegend verändert? Thomas Moser: „Arlo & Spot“ hatte so ziemlich dieselbe Pipeline und dieselben Tools wie „Monsters University“. Aber es gab Verbesserungen von bestehenden Tools und einige Neuentwicklungen speziell für diesen Film, da er andere visuelle Ziele verfolgte und auch in unterschiedlichen Bereichen sehr komplex war. Für die weiten Landschaften hat unsere Sets-Abteilung zum Beispiel neue Technologien mit topografischen Daten eingesetzt und viel Arbeit von unterschiedlichen Abteilungen ist in die Umsetzung von volumetrischen Wolken geflossen. Da die Umwelt eine wesentlich größere Rolle als in vorherigen Filmen spielte, haben wir – in enger Zusammenarbeit mit der Sets-Abteilung, die die Assets geschaffen haben – im Simulation-Department eine neue Pipeline für Vegetationssimulationen, kreiert.

DISNEY/PIXAR | INTERVIEW

www.deutschle.de // Brunnsteige 11-13, D - 72622 Nürtingen // Tel.: 07022/73840, eMail: info@deutschle.de

DP: Die Story verlangt ja nach einem Unwetter am Fluss – wäre es deiner Meinung nach von der Komplexität her möglich, eine „Filmwelt“ zu schaffen, in der alles enthalten ist und nur noch die Umgebungsbedingungen der Story gemäß angepasst werden müssen? Thomas Moser: Wir hatten so etwas Ähnliches innerhalb unserer Abteilung versucht, als es darum ging, die Vegetationssimulations-Pipeline aufzusetzen. Speziell für die ambienten Bewegungen, die je nach Wettersituation sehr unterschiedlich sind. Für jedes Vegetations-Asset gab es eine Reihe von ambienten „Keep-alive”-Bewegungen – von sehr still bis heftiger Sturm –, für welche wir lange „Vegclips” simuliert haben. Diese ließen sich wiederverwenden und in Shots einsetzen. Basierend auf unserer Wettertabelle für den Film und dieser „Vegclips”-Bibliothek war es möglich, für eine Sequenz sozusagen eine generelle Windstärke zu definieren, welche dann angepasst und verfeinert wurde: für unterschiedliche Typen, wie Bäume oder Büsche, für verschiedene Arten, wie Espen oder Kiefern, bis hin zu einzelnen Modellen – oft auch je nach Shot-Art noch einmal variiert bis hin zu speziellen Einstellungen für einzelne Shots. Eigentlich kreieren wir ja auch eine „Filmwelt“ – aber wir erstellen die ganze Welt nicht in aller Detailfülle, bevor wir nicht wissen, was überhaupt vonnöten ist. Basierend auf Storyboards und Art Design wird ein grobes Set für die Previs angelegt, welches wir verfeinern, während die Figuren und Kameras platziert und geblockt werden. Dann übernehmen die einzelnen Abteilungen und fügen speziell ihre Teile und Aspekte der generellen Pipeline zu den Sequenzen und Shots hinzu, bis am Ende das finale Bild gerendert wird. DP: Was wäre für ein komplettes „FilmEnvironment“ nötig? Thomas Moser: Um eine vollständige Filmwelt zu erzeugen, ist viel mehr vonnöten als nur zum Beispiel das Vorhandensein von Bewegung in den Bäumen. Jede Aufgabe erfordert Spezialisten mit unterschiedlichem Wissen und Stärken in künstlerischen und technischen Bereichen. Nicht zu vergessen technisches Werkzeug mit mehr oder weniger komplexen Konfigurationen oder Kombinationen. Aber schlussendlich gibt der Regisseur Anweisungen für seine Vision dieser Welt und ihren Umgebungsbedingungen – er kann eben nur noch nicht an allen Knöpfen in Echtzeit drehen wie an einem Mischpult. › ei

13

3D-ANIMATION

THE LIGHT WORKS www.thelightworks.com Otto-Hahn-Straße 7, D - 50997 Köln // eMail: tobias@thelightworks.com, Tel.: 02236/967322, Fax: 02236/967319 // Kontakt: Tobias Richter ALLGEMEIN

FIFTYEIGHT 3D Animation & Digital Effects GmbH Osthafen | Lindleystraße 12 60314 Frankfurt a. M. | Germany Telefon +49 (0) 69.48 000 55.0 www.fiftyeight.com hello@fiftyeight.com

VISION 4D VISION 4D Alte Landstraße 12-14, D - 85521 MünchenOttobrunn // Tel.: +49 89 / 697 08 608, Fax: +49 89 / 697 08 607, eMail: info@vision4d.de, www.vision4d.de CGI

MACKEVISION MEDIEN DESIGN GMBH www.mackevision.de Forststr. 7, D - 70174 Stuttgart Tel.: +49 (0) 711/933048-0, Fax: +49 (0) 711/933048-90, eMail: info@mackevision.de // Kontakt: Armin Pohl, Joachim Lincke 3D-ANIMATION

Anzeigen: DP BUSINESS CORNER

AUSGABE O1:2O16

BPM BROADCAST & PROFESSIONAL MEDIA GMBH www.bpm-media.de Obenhauptstr. 15, 22335 Hamburg // Tel. 040/557624-0 // eMail info@bpm-media.de VIDEO & NLE HARD- UND SOFTWARE


FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

Bilder: Ralf Gliffe; Nukeygara

FOKUS

Akeytsu

Neues Tool für Keyframe Animation und Rigging in den Startlöchern

Seit 2O14 geistert der geheimnisvolle Name „Akeytsu“ durch verschiedene Internet-Foren und soziale Netzwerke. Ein kurzer Teaser zeigt in gut einer Minute ein „neuartiges” Animationstool, das schon vor seinem Erscheinen einige Gemüter bewegt hat. Aurélien Charrier, CEO bei Nukeygara, dem französischen Start-up hinter Akeytsu, äußerte unter anderem, dass dies „for the first time an easy, intuitive and designed by & for animators product” sei. von Ralf Gliffe

B

esonders Anwender, die nur gelegentlich einfache Charaktere für Unity oder die Unreal-Engine animieren, haben bisher große Animationspakete – aus Kostengründen oder wegen des zu erwartenden Arbeits- und Lernaufwands – gemieden. Die Diskussionen zeigen, dass viele den Wunsch nach leicht zugänglichen Werkzeugen für Rigging und 3D-Animation hegen. Mit dem neuen Tool will Nukeygara genau diese Lücke schließen. Eine Zeit lang gab es dann kaum Informationen zu Akeytsu, außer dass man sich um Investoren bemühe und deshalb noch mit einer Veröffentlichung des Programms Akeytsu und Nukeygara – Versuch, die Idee zu den Namen darzustellen.

14

warte. Seit Mitte dieses Jahres gibt es nun eine öffentliche Beta-Version, die eine erste Beurteilung möglich macht, ob die doch recht hohen Erwartungen an das Tool gerechtfertigt sind. Ein Blick auf die frühe Version 0.1 zeigte schon ein angenehm einfach zu handhabendes Werkzeug zum Animieren mit Bones und Keyframes – ohne Extras und Schnörkel. Aber mit Potenzial, speziell für Game-Enthusiasten.

Ziemlich japanisch Akeytsu – der Name lässt bei Uneingeweihten vielleicht eine historische japanische Kampfkunst vermuten. An japanischer Mythologie Interessierten, aber auch Manga- oder AnimeFans könnten ähnlich klingende Namen schon begegnet sein. Tatsächlich lässt sich bei den Firmengründern eine gewisse JapanAffinität vermuten: Die Wörter Akeytsu und Nukeygara beziehen sich symbolisch auf die Verwandlung einer Larve zur Libelle. Nuke(y) gara bedeutet laut Wörterbuch in etwa „die Haut ablegen“, also sich häuten. Die Entwickler sorgen dafür, dass aus der unscheinbaren Puppe eine schöne Libelle (Akitsu) wird.

Akeytsu – alles ganz anders Akeytsu ist das erste Programm des französischen Start-ups (daraus lässt sich vielleicht ableiten, dass weitere geplant sind). Obwohl die Software längerfristig der gesamten Animationsindustrie zur Verfügung gestellt werden soll, wendet sich die erste Version vorrangig an Game-Entwickler. Die Entwickler von Akeytsu, nach Angaben auf ihrer Webseite selbst Animationsund Software-Profis mit jahrelangen Erfahrungen, versprechen, dass Akeytsu mit den klassischen Standards der etablierten Animationsprogramme brechen wird und eine neue, auf Einfachheit, Geschwindigkeit und Ergonomie ausgerichtete Lösung (werden) soll. Beim ersten Start wird dann dem Anwender auch eine ungewohnte, aber schicke Programmoberfläche offeriert. Akeytsu zeigt standardmäßig eine 3D-Arbeitsumgebung, wie man sie von anderen Anwendungen kennt. Darüber schweben ein Willkommensbildschirm mit einigen Links sowie Menüs und Grafiken, die als Buttons fungieren. Typische Windows-Menüelemente existieren nicht. Einzig das Logo mit der Libelle am linken

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

ANIMATION | AKEYTSU

Akeytsu – ein erster Kontakt. „Akeyboy“ ist geladen und demonstriert seine (Bewegungs-)Tricks.

oberen Fensterrand dient als Schaltfläche für ein Menü, unter anderem mit Dateibefehlen und Hilfeaufruf. Das Programm, das nur über eine 3D-Ansicht verfügt, besteht aus zwei Teilen: Rigging- und Animation. Rechts unten befindet sich der Umschaltbutton, der auch den gerade aktiven Modus anzeigt. Zum Ändern des Blickwinkels wird im 3D-Fenster mit den Maustasten agiert (Li MT = Rotieren, Mi MT = Verschieben, Re MT = Zoom). Das funktioniert ziemlich intuitiv, sodass das Fehlen üblicher Ansichten, wie sie in anderen Programmen zu finden sind, kaum als Mangel erscheint.

Zum Start – Akeyboy Am besten lässt sich das Programm erkunden, wenn die mitgelieferte Figur „Akeyboy“ geladen wird. Zusammen mit TutorialVideos der Webseite erschließen sich die meisten Funktionen recht schnell (17 kurze Lehrvideos). Akeyboy erscheint nach dem Laden im 3D-Fenster mit einem Skateboard unter dem Arm. Er ist mit Knochen ausgestattet und beherrscht auch schon einige Bewegungen. Diese werden in einer „Anim Bank“ aufgelistet. Im „Tree“ Window, dem Szene-Explorer, finden sich neben Akeyboys Bones-Hierarchie auch IK-Solver zum Steuern inverser Kinematik. Als „Anhang“ gibt es noch ein kleines Property-Fenster, um zum Beispiel die Darstellung und Sichtbarkeit von Bones oder Steuerelementen einzustellen. Obwohl das Programm sehr aufgeräumt erscheint, sind doch in den relativ unscheinbaren Menüs komplexe Funktionen

verborgen. Insgesamt zeigt Akeytsu im Animationssmodus unter anderem folgende Elemente: „Picker“ – in diesem Menü werden alle Körperteile von Akeyboy aufgeführt und bei Bedarf ausgewählt. Ein „Mixer“ listet die Animationen (Animationslayer) auf und erlaubt das Mixen und Überblenden von Animationen. „Stacker“ zeigt die Keyframes des aktiven Animationslayers (nummeriert und mit einer Zeitangabe). Animationen werden, wie in anderen Programmen, über eine Zeitleiste gesteuert. Animationskurven werden mit einem Klick auf die grafischen Symbole, direkt im 3D-Fenster, eingeblendet. Das unscheinbare Fenster „Cyclemaker“ offenbart für viele User eine der interessantesten Funktionen in Akeytsu: Es ist nämlich sehr einfach, Animationsloops zu erzeugen. Für eine gehende Figur braucht man beispielsweise nur die Keyframes für den ersten Schritt zu setzen. Cyclemaker generiert mit einem Klick auf den Button „Step“ automatisch die Keyframes für den zweiten Schritt. Wenn dann noch der Loop-Button im Stacker aktiviert wird, erzeugt Akeytsu harmonische Animationskurven. Ohne viel Mühe entstehen so fließende Animationen (etwa Walkcycles). Diese Funktion wirkt sich immer auf das gesamte Mesh aus. Um beispielsweise nachträglich Änderungen an den Bewegungen einzelner Gliedmaßen vorzunehmen, lässt sich die Option „Side“ nutzen. Zu den Besonderheiten Akeytsus gehört, dass zum Animieren einer Figur nicht deren Bones ausgewählt werden müssen. Ein Klick auf ein Körperteil (etwa den Kopf) der Figur reicht. Akeytsu hebt die entsprechenden Bereiche eines Meshs farbig hervor. So wird

gleichzeitig die aktuelle Wichtung der BonesEinflussbereiche dargestellt. Dies und der im Folgenden erläuterte „Spinner“, auf dessen Entwicklung die Leute von Nukeygara wohl besonders stolz sind, machen einfache Animationen tatsächlich zum Kinderspiel.

Der Spinner Der Spinner ist ein 2D-Widget, das die Manipulationen der Gizmos für Rotationen, Skalierungen und Translationen vereinfachen soll. Außerdem stellt es Schalter für den Wechsel zwischen Lokal- und Welt-Transformationen zur Verfügung. Im Prinzip handelt es sich um einen kleinen (frei positionierbaren) Kreis, dessen äußerer Ring Schaltflächen (wie die Auswahl der Modi „Rotation“, „Verschieben“ oder „Skalieren“) enthält. Ein dreigeteilter innerer Kreis in den Farben Rot, Grün und Blau erlaubt das Steuern der einzelnen Achsen (x, y, z). Tatsächlich erscheint es einfacher, Bewegungen in diesen Segmenten zu bearbeiten, als die eigentlichen Steuerelemente mit deren Achsendarstellungen auswählen zu müssen. Man muss

Akeytsu – die aktuellen Preise

15


3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

Ein erster Test, um zu sehen, ob es wirklich so einfach ist, Knochen in ein 3D-Objekt zu bekommen – es brauchte nur wenige Klicks. Die beiden Snapshots rechts unten zeigen unterschiediche Wichtungen.

rend des Animierens lässt sich bei diesen IKSteuerelementen mit der rechten Maustaste zwischen Vorwärts- und inverser Kinematik umschalten (im IK-Modus wird der Steuerkreis rot dargestellt). Diese Lösung erinnert ein wenig an den „IK Booster“ von Lightwave oder an Blenders FK-IK-Switch-Technik. Auch wenn hier die großen Programme deutlich mehr Möglichkeiten bieten (BoneBeschränkungen, Look at ...), lassen sich jedoch schnell Ergebnisse erzielen.

Unten: IK-Solver in Akeytsu – mit einem (rechten) Mausklick lässt sich zwischen IK-Modus und Vorwärtskinematik umschalten.

IK-Target, erlauben aber auch Vorwärtskinematik. Rote zeigen den IK-Modus an. Umgeschaltet wird mit einem Rechtsklick. In diesem Modus können Pol-Vektoren (im Rotationsmodus die Schaltfläche „Vector“), aber auch die IK-Handles rotiert werden. Ist zum Beispiel die Hand ausgewählt, dann lässt sich so der Ellbogen bewegen, ohne die Hand zu beeinflussen – die normalen Rotationen der Hand stehen weiterhin zur Verfügung). Wird das Mesh bewegt, dann versucht das IK-Target, sich nicht mitzubewegen. Zurzeit ist es mit dem Spinner nicht möglich, Bewegungen gleichzeitig in zwei Achsen – also frei in einer Ebene – auszuführen. Das geht nur direkt an den Gizmos. Dazu muss die Achse, die senkrecht auf die zu bearbeitende Ebene zeigt, mit der mittleren Maustaste ausgewählt werden. Erst in der kommenden Version soll es möglich sein, importierte Meshes zu skalieren. Deshalb muss bei importierten Objekten, die sehr groß skaliert sind, gegebenenfalls die Größe der IK-Solver im Properties-Fenster angepasst werden. Wäh-

Knochig – Rigging in Akeytsu Der Rigging-Teil in Akeytsu ist extrem einfach gehalten. Trotzdem finden sich auch hier eine Reihe von Bedienfenstern, die erst einmal ergründet werden wollen: i Character Bank: Listet die Character der Szene mit ihren Posen auf. i Joint Window: Hier werden die Knochen erzeugt. i Skinning Window: Die Stelle, an der Knochen und Mesh verwachsen. i Skin-Atelier: Arbeitsbereich fürs Wight Painting (echtes Painting ist zurzeit noch nicht möglich, obwohl das Pinselwerkzeug schon zu sehen ist). i IK Window: Eigentlich nur ein Button zum Bestätigen der IK-Solver. i Spinner: Ähnlich dem Spinner im Animationsteil – zum Einrichten der Knochen und Posen. i Picker Window i Tree Window i Properties Window

sich nur daran gewöhnen, die entsprechenden Achsen der Gizmos mit den gleichfarbigen Flächen des Spinners synchron zu sehen, und daran, dass die Mausbewegungen auf den Flächen des Spinners immer auf- und abwärts stattfinden, während die tatsächlichen Bewegungsrichtungen ganz andere sein können. Schon nach wenigen Übungen schien diese Methode selbstverständlich zu sein.

Inverses: Vorwärtsund inverse Kinematik Inverse Kinematik ist ein großes Thema im Animationsbereich. In Akeytsu ist auch dies sehr einfach geregelt, obwohl intern wohl ein ziemlich komplexer Prozess stattfindet (inverse und Vorwärtskinematik werden durch eigene Strukturen gebildet, deren Animationskurven intern interpoliert werden). Im Beispiel von Akeyboy sind vier IK-Solver (IKTargets) an den Händen und Füßen vorhanden – zu erkennen an einem weißen Ring. Es gibt zwei Modi: Weiße IK-Solver arbeiten als

16

Alien in Akeytsu – dieser schleimige Typ aus ZBrush wurde probeweise nach Akeytsu geholt (das Mesh ist nicht optimiert). Das „Verbonen“ braucht nur wenige Klicks, auch weil nur eine Hälfte der Knochen erstellt werden muss. WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

ANIMATION | AKEYTSU

Cyclemaker in Akeytsu – Walkcycles (und andere Animationsloops) lassen sich komfortabel mit dem Cyclemaker generieren.

3D Visualisierung | Animation | Architekturpräsentation

www.dreidesign.com

CADNETWORK GMBH www.CADnetwork.de Emil-HoffmannStraße 55-59, D - 50996 Köln-Rodenkirchen, Tel.: 02236/39379-10, Fax: 02236/39379-29, eMail: info@cadnetwork.de WORKSTATION & RENDERLÖSUNGEN

EINZELHEFTE

Jedes Heft 5 Euro! digitalproduction.com/einzelheftaktion

Fazit

BRANDNEW ENTERTAINMENT GMBH

Ein objektives Fazit ist bei einer so frühen Version schwer zu formulieren. Einerseits bestehen hohe Erwartungen an ein neu angekündigtes Werkzeug, andererseits ist klar, dass das Programm natürlich bis zur endgültigen Fassung noch reifen wird. Einige fehlende Features, die in Foren zur Sprache kamen, wurden von den Entwicklern für die nächste respektive spätere Versionen zugesagt (weitere Importmöglichkeiten als .fbx, bessere Mesh-Auswahl, Constraint Look at ...). Eine mehrfach in Foren angefragte Version für Mac soll geplant sein, aber es gibt wohl keine konkrete Zeitvorstellung der Umsetzung. Akeytsu ist eine einfache, komfortable Lösung zum Keyframe-basierten Animieren von Skelettstrukturen. Auf einige Möglichkeiten, die andere Animationsprogramme bieten (Punkt-Animationen/Shape-Keys, Deformer, Morphing, komplexe BoneConstraints, Expressions …), wird man wohl zugunsten der (zunächst) anvisierten Zielgruppe, eines günstigen Preises und des Hauptziels, eine einfache Lösung anzubieten, auch in Zukunft verzichten müssen. Wer sich allerdings damit arrangieren kann, der erhält auch jetzt schon ein Werkzeug zu einem äußerst günstigen Preis, das leicht zu benutzen ist, schnell zu Ergebnissen führt – und dabei auch noch Spaß macht. Es bleibt den Entwicklern zu wünschen, dass sie es schaffen, ihre Ziele im Sinne der User in › ei naher Zukunft umzusetzen.

Tel.: 0208 - 377 11 190 Zum Aquarium 6a 46047 Oberhausen www.brandnew-entertainment.de eMail: mail@brandnew-entertainment.de Kontakt: Björn Kleiber FULL SERVICE FILM- & POSTPRODUCTION

DP Abo verschenken! digitalproduction.com/geschenkabo

BUSINESS CORNER

Anzeigen: DP BUSINESS CORNER

Um einem Mesh Knochen einzupflanzen, werden diese Klick für Klick mit der Option „Create Joint“ in ein Mesh gezeichnet. Bis jetzt gibt es noch keinen eigenen Cursor für diese Funktion, sodass mit jedem erzeugten Joint ein Transformations-Handle erscheint, das die Sicht behindert. Akeytsu positioniert die Joints von sich aus immer im Zentrum des Meshs (mit Ausnahme von Joints, die direkt außerhalb eines Meshs erzeugt werden), was Zeit sparen hilft. Es reicht, nur eine Hälfte der Gliedmaßen einer Figur zu bearbeiten. Akeytsu kann später die Knochen auf die andere Hälfte des Meshs übertragen. Dazu müssen die entsprechenden Joints nach dem Binding lediglich korrekt benannt werden (zum Beispiel die Endung „_l“ für alle Joints der linken Hälfte – mit einem Klick werden der rechten Hälfte des Meshs die Pendants implantiert). Um das Skelett an ein Mesh zu binden, muss dieses selektiert sein (alle Joints, die transplantiert werden sollen). Dann muss noch das Mesh ausgewählt – und der Button „Bind Skin“ geklickt werden. Die Einflussbereiche der einzelnen Knochen auf das Mesh werden über Wichtungen gesteuert. Es ist zwar schon ein Menü für Weight Painting vorgesehen, bis jetzt muss allerdings noch mit dem „Skin Weight Spinner“ vorliebgenommen werden. Das ist im Moment noch nicht optimal, zumal Auswahlwerkzeuge für das Mesh fehlen – es gibt derzeit nur eine Rechteckauswahl –, versprochen ist aber baldige Besserung. Trotzdem funktioniert das in diesem Stadium schon so, dass, auch mit nur kurzer Einarbeitung, schnelle Ergebnisse möglich werden. Auch IK-Ketten lassen sich im Rigging-Modus leicht definieren. Dazu müssen nur nacheinander ein Start- und ein Endpunkt einer gewünschten IK-Kette ausgewählt werden. Dann lässt sich mit einem Klick auf „AD IK“ die Hierarchie erstellen.

Link Nukeygara/Akeytsu i www.nukeygara.com

Ihr Unternehmen oder Ihr Produkt kurz & auffällig platziert Verfügbare Anzeigengrößen: · 53mm Breite x 35mm Höhe · 53mm Breite x 70mm Höhe

Jetzt buchen! 17

Kontakt: sales@digitalproduction.com


FOKUS

FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

Modeling Fafnir

SCIENCE & EDUCATION

SERVICE

Das fertige Modell weist einen hohen Detailgrad auf, nachdem im Laufe der Produktion immer weiter daran gefeilt wurde.

Der Creature-Designer und Lead Modeller von „Mara und der Feuerbringer“ (siehe DP O3:2O15, ab Seite 34), Alexander Stania, gibt einen Einblick in seine Arbeit und hervorragende Tipps zur Erstellung und zum Export von komplexen 3Dvon Nico Ostermann Modellen aus ZBrush in andere 3D-Pakete wie Maya.

E

s gibt zwei Möglichkeiten, einen Charakter zu modellieren. Man kann ihn entweder „cartoony“ gestalten, als ob er aus einem Zeichentrickfilm stammt, oder man baut eine fotorealistische Kreatur, die auch in einem Realfilm neben menschlichen Darstellern bestehen kann. Die Methode des Modellierens wird hauptsächlich durch den Kunden bestimmt. Ein einfacher, cartooniger Charakter lässt sich in jedem beliebigen 3D-Programm modellieren. Für einen komplexen Charakter

braucht man schon eine Sculpting-Software wie ZBrush oder Mudbox. Bei der erstgenannten besteht leider noch das Problem, dass die Topologie nicht nachgebaut werden kann. Daher muss man von Anfang an auf eine saubere Topologie achten und hat nicht so viele Freiheiten wie bei Mudbox. Bei ZBrush liegt der Vorteil darin, dass man bei der Gestaltung des Charakters nicht auf die Topologie oder die Polygonanzahl achten muss. Am Ende kann die Topologie neu erstellt werden und die vielen Falten

Bevor man mit dem Modellieren anfängt, kann man erst einmal ein paar grobe Konzepte erstellen und diese verfeinern. Letztendlich braucht man eine Pose, die auch zu riggen ist – eine T- oder eine A-Pose.

18

und Muster, die den Charakter so komplex aussehen lassen, werden als Normal Maps und Displacement Maps ausgegeben, sodass sie im Renderer (V-Ray, Mental Ray, Mantra, Arnold und so weiter) für die finale Ausgabe mit berücksichtigt werden. Egal, ob das Endergebnis nun cartoony oder real aussehen soll, bei jedem Prozess ist es ratsam, erst einmal Model Sheets anzufertigen, die festlegen, wie der Charakter oder die Kreatur von allen Seiten aussehen soll. Dies ist auch wichtig für eine Produk-

In den ersten ZBrush-Versionen gab es den 2.5D Space, in dem 3DObjekte projiziert und die Tiefeninformation gemalt wurden. Heute ist es ein 3D-Programm, aber auf Knopfdruck kann man noch auf 2.5D umstellen. WWW.DIGITALPRODUCTION.COM


tion, damit das Design zum restlichen Produktionskonzept passt und vom Regisseur abgenommen werden kann. Nach der Abnahme der Designs kann mit dem Prozess des Modellierens begonnen werden.

Zum Beginn: Kopf ab Beim Lindwurm in „Mara und der Feuerbringer“ hat sich der Creature-Designer und Lead Modeler, Alexander Stania, dafür entschieden, auf die orthografischen Ansichten zu verzichten und gleich mit dem Modeling zu beginnen. Das lag hauptsächlich daran, dass er die Designzeichnungen selber erstellt hatte und seine Designentwicklung in ZBrush dreidimensional weiterführte. ZBrushs internes Modeling-Modul Dynamesh ist hierfür perfekt. Nahezu uneingeschränkt kann man wie mit echtem Ton oder echter Knete modellieren. Hierzu später mehr. Doch trotz aller Freiheiten musste entschieden werden, wie der Charakter aufgeteilt werden soll. Bei menschlichen Charakteren hat man den Vorteil, dass diese meistens Kleidung tragen und dadurch der Körper vom Kopf getrennt modelliert werden kann. Daher kann man für den Kopf wesentlich mehr Polygone verwenden als für den Rest des Körpers. Bei Kreaturen dagegen gibt es meistens nur eine Geometrie von Kopf bis Fuß, ohne Kleidung. Daher muss man wesentlich raffinierter vorgehen, um sicherzustellen, dass die Kreatur am Ende nicht zu viele Polygone bekommt und dadurch in der AnimationsSoftware nicht mehr zu benutzen ist. Beim Lindwurm wurde das so geregelt, dass Kopf und Körper im Nacken getrennt wurden. Hierzu wurde die Naht geschickt unter Falten, Wülsten und haarigen Verwachsungen versteckt. Durch das Rigging und Skinning kann der Zuschauer im Endergebnis nicht mehr erkennen, dass es sich eigentlich um zwei Teile handelt. Der Kopf wurde mit der ZBrush-eigenen Funktion Dynamesh modelliert. Damit lässt sich das Modell so bearbeiten, als hätte man ein Stück Knete vor sich, das mit der Maus oder dem Tablet verändert wird. Bei dem Einsatz von Dynamesh hat der Modellierer auch den Vorteil, dass er sich nicht um die Topologie der Polygone kümmern muss. Er kann einfach damit beginnen, die Form zu modellieren, alles andere lässt sich dann im späteren Arbeitsprozess bewerkstelligen.

Erste Brushes Um die Geometrie in die richtige Form zu bringen, bietet sich die Arbeit mit dem Move und Snakehook Brush an; mit beiden ist es möglich, das Mesh in die gewünschten

WORKSHOP | ZBRUSH

Dynamesh

Basis-Brushes

Dieses Tool ist in ZBrush unter den „Tools“ und dort unter „Geometrie“ zu finden. Anwenden kann man Dynamesh, indem man die Geometrie auswählt und auf den großen, sich in der ToolPalette befindenden Dynamesh-Button drückt. Nachdem es angwendet wurde, braucht das Programm ein wenig Zeit für die Berechnung und ändert die Topologie des Objekts in Quads. Hauptsächlich eignet sich Dynamesh zum topologielosen Arbeiten ohne die Einschränkungen der bekannten Polygoneigenschaften. Wenn bei der Umrechnung Details verloren gehen, kann die Auflösung hochgestellt werden. Das Maximum liegt dabei bei 4.O96, aber zu Beginn sollte eine Auflösung gewählt werden, die sich unter 5OO befindet, da ansonsten die Neuberechnung des Meshes zu lange dauert und der Rechner zu langsam wird. Dynamesh ist auch nicht dafür gemacht, feine, hochaufgelöste Modelle zu bearbeiten, sondern eignet sich mehr für die ersten Schritte. Wenn man nun das Dynamesh sculpted und deformiert, ist das Mesh zwangsläufig so stark deformiert, dass man an diesen Stellen kein „Material“ hat, um dort weiter zu machen. Nun drückt man den Add-Knopf oder man hält die Strg-Taste und zieht die Maus/Stylus mit gehaltener rechter Maustaste nach unten. Nach einer gewissen Berechnungszeit, werden alle bearbeiteten Stellen wieder mit gleichförmigen Polygon-Quads versehen. Das Gute an Dynamesh ist, dass sich unbearbeitete Stellen so gut wie gar nicht verändern. Falls sie dies doch tun sollten, lässt sich die Auflösung des Objekts höher einstellen.

Die wichtigsten Auswahlmöglichkeiten:

i Standard: Dieser wölbt oder drückt senkrecht von der Oberfläche weg. i Move: Hiermit kann man einfach etwas von der Seite packen und verschieben. i Clay Build: Drückt und wölbt ebenfalls, allerdings kann man damit Löcher und Fugen füllen, ohne dass sich die Geometrie in sich faltet. Es fühlt sich so an, als würde man Knete oder Ton auftragen oder abkratzen. i Snake Hook: Wie „Move“, aber noch mit dem Unterschied, dass er dynamischer ist und man Kurven beschreiben kann. Empfiehlt sich im Dynamesh-Modus. i Inflate: Hiermit kann man aufblasen oder dünne Stellen etwas dicker machen. i Pinch: das Gegenteil von Inflate i Dam_Standard: sehr gut für Kratzer und Falten i Move Topologie: Wie „Move“, nur dass man nicht den Radius des Pinsels bestimmt, was angepackt wird, sondern die Oberfläche. Zum Beispiel wenn man Areale einzeln bearbeiten will, die dicht zusammenliegen wie Ober- und Unterlippe oder einzelne Zähne. Bei allen Brushes lassen sich natürlich viele Modifikationen im Brush-Menü durchführen. Sehr zu empfehlen ist die Automasking-Sektion, in der man zum Beispiel Back Face Masking einstellen kann, was dazu führt, dass Faces, deren Normalen von der Kamera wegzeigen, nicht beeinflusst werden. Dieses eignete sich gut für die doppelwandigen Flossen des Lindwurms.

Dieses Bild zeigt eine Auswahl von Pinseln (Brushes), die besonders oft zum Einsatz kommen.

Proportionen zu zerren und an die Zeichnungen anzupassen. Im Anschluss lässt sich das Modell auch mit dem Standard, Clay Build, Smooth und Smooth Stronger Brush bearbeiten. Letzterer ist über die Lightbox unter „Brushes“ und „Smooth Brushes“ zu finden. In der Dynamesh-Palette befindet sich auch eine „Polish“-Funktion, bei der das Mesh nach der Aktivierung automatisch geglättet wird. Dieses geschieht immer dann, wenn die Dynamesh-Oberfläche neu berechnet wird. Es sei auch erwähnt, dass Dynamesh immer nur zur groben Formfindung verwendet werden sollte und nicht für die Details wie das Hinzufügen von Adern, Poren oder Schuppen. Man sollte auch, wie beim Arbeiten mit Subdivisions üblich, mit einer möglichst kleinen Auflösung von zum Beispiel 64 x 64 anfangen. Im Verlauf des Modellierens lässt sich die Auflösung dann nach Belieben erhöhen.

ZSpheres Auch wenn der Kopf noch nicht zu hundert Prozent fertig ist, darf man den Körper nicht vergessen, sondern muss die Masse der Kreatur im Auge behalten. Im Fall des Lindwurms wurde über das ZSpheres-Tool erst einmal die Masse des Körpers „geblockt“, um ein Gefühl für das Aussehen des gesamten Wesens zu bekommen. Mit den ZSpheres ist es nicht nur möglich, die Masse zu veranschaulichen, sondern es lassen sich auch die Gelenke positionieren. Ist man mit der groben Annäherung an die Wunschproportionen und Positionierung der Gelenke zufrieden, können die ZSpheres in ein zusammenhängendes Adaptive Mesh umgewandelt werden. Dieser Konverter ist Teil der Tool-Palette und ganz weit unten zu finden. Damit man Kopf und Körper zusammen bearbeiten kann, lässt sich die Geometrie des Körpers als „Sub Tool“ zum

19

Bilder: Alexander Stania/BigHugFX/Constantin Film Verleih GmbH

AUSGABE O1:2O16


FOKUS

1

FILM & VFX

3D & ANIMATION

2

INTERACTIVE

DIGITAL ART

3

SCIENCE & EDUCATION

SERVICE

1: Hier finden sich verschiedene Objekte, mit denen man die Oberfläche bemalen und ebnen kann. 2: Mit dem Dynamesh Tool lässt sich das Grundobjekt grob in Form bringen. Entweder mithilfe von Model Sheets oder einfach frei Hand.

4

3: Wenn der Kopf mit dem Dynamesh Tool grob modelliert wurde, kann über das ZSpheres Tool der Rest der Masse der Kreatur grob dargestellt werden.

5

4: Über das Dynamesh Tool kann man vom Groben in eine feinere Struktur übergehen. 5: Die ZSpheres können über das Adaptive Dynamesh Tool in eine zusammenhängende Geometrie umgewandelt werden.

Kopf importieren. Beide Teile liegen jetzt in einer „Work in Progress“-Version in einer Datei vor. Solche Modelle, die in etwa die Struktur und die Masse des fertigen Charakters aufzeigen, können schon einmal für eine Previs verwendet werden, damit man sehen kann, wie sich die Kreatur in den Realfilm einfügt. Für diesen Export kann das Dynamesh-Modell über das ZBrush-Plug-in Decimation Master in ein niedrig aufgelöstes Polygonmodell umgewandelt und als .obj exportiert werden. Mit dieser Methode lässt sich das Modell in Maya oder 3ds Max importieren und mit einem Rig versehen. Seit den letzten Versionen steht bei ZBrush auch der ZRemesher zur Verfügung. Durch den Einsatz des ZRemeshers kann man oft mit einem Knopfdruck ein topologisch sauberes Mesh erzeugen, was früher ein paar Tage Arbeit gekostet hat. Und ist man mit einigen Stellen nicht zufrieden, gibt es einige Parameter und aufmalbare, richtungsweisende Kurven, die den ZRemesher steuern. Im bisherigen Abschnitt wurde erklärt, wie ein Polygonobjekt grob in Form gebracht werden kann. Da aber die Vorzüge von ZBrush in den Details liegen, die einem Objekt während des Sculpting-Vorgangs hinzugefügt werden können, sollen auch diese Schritte nicht unberücksichtigt bleiben.

Die Details Die gängigste Möglichkeit, der Oberfläche Details hinzuzufügen, sind Alphas. Diese „Schablonen“ werden erstellt, indem man jedes beliebige Bild in ein Schwarz-Weiß-

20

Bild umwandelt und in ZBrush als .jpg oder .png importiert. Hierbei werden die hellen Stellen herausgedrückt, während schwarze Bereiche die Oberfläche unberührt lassen. Dabei sollten die Bilder nicht unbedingt größer als 1.024 x 1.024 Pixel sein. Größere Bilder lassen sich natürlich auch verwenden, allerdings verlangsamt dies den Rechenprozess. Diese Schablonen können alles darstellen: von einfachen geometrische Formen bis hin zu komplexen Bildern. Mittels der Schablonen oder Stempel kann man dem Modell in ZBrush nun alles Mögliche an Details hinzufügen: Poren, Falten, Adern, Pickel und Kratzer lassen es komplexer und realistischer aussehen. Wenn man mit den Schablonen arbeitet, kann man im Menü „Strokes“ zwischen sechs AufmalArten wählen. So kann man mit den Schablonen oder Stempeln klassisch aufmalen, auf das Objekt projizieren oder einfach nur verschieben und eine geeignete Position für die Kratzer oder Falten finden, an denen man sie einfach stehen lassen kann.

Der Export Die in ZBrush erstellten Modelle müssen am Ende freilich auch exportiert werden. Dabei sollte aus ZBrush aber nicht das Modell mit allen Details, die beim Modellieren hinzugefügt wurden, exportiert werden. Ansonsten besteht wieder das Problem, dass die Polygonanzahl zu hoch ist und ein Riggen oder Rendern dadurch unmöglich wird. Wie bei der Retopologisierung beschrieben, kann man das Modell in ZBrush in ein

Objekt mit einer niedrigeren Auflösung umwandeln und exportieren. Damit die Details beim Rendern nicht verloren gehen, werden sie im Anschluss als Displacement, Normal oder Bump Map ausgegeben und über Shader in den 3D-Programmen wieder zusammengesetzt. Um das Modell in ZBrush mit den Maps auszugeben, gibt es verschiedene Möglichkeiten. Um Normal und Displacement Maps erzeugen zu können, muss eine Bedingung vorliegen: ZBrush benötigt die Information zwischen dem niedrigst polygonal aufgelösten Modell, also das Base Mesh, das später exportiert und geriggt wird, und dem hochaufgelösten Polygonmodell, in dem all die Details gesculpted wurden. Diese Information befindet sich in einem Objekt respektive Sub Tool. Das Base Mesh wird in der ToolPalette unter dem Menüpunkt „Geometry“ in Subdivision Level polygonal höher aufgelöst, indem man den großen „Divide“-Knopf drückt oder den Shortcut „Strg+D“ verwendet. Mit dem Schieberegler „SDiv“ kann man jederzeit zwischen den Auflösungen hin und her wechseln. Jedes Mal wenn man ein neues Subdivision Level hinzufügt, vervierfacht sich der Polycount. Man sollte nur so viele Subdivison Level benutzen, dass die Verformungen noch glatt aussehen. Um nun eine Normal oder Diplacement Map zu erzeugen, muss man den „SDiv“Schieberegler wieder auf 1 stellen und das Base Mesh wird angezeigt. Nun geht man zum Menüpunkt „Normal“ oder „Displacement Map“ in der Tool-Palette und drückt dort „Create...Map“. Nun wird eine entspre-

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

chende Map erzeugt, die die Distanz zum höchsten Subdivision berücksichtigt. Allerdings benötigt man hierfür eine UV-Abwicklung, sonst kann die 3D-Information nicht in ein 2D-Bild berechnet werden. Es gibt noch weitere Einstellungen wie Smooth-UV oder 32 Bit, die später noch genauer beschrieben und berücksichtigt werden müssen. Für den Export gibt es einmal im Tool-Me1: Auf diesem Bild werden vergleichsnü den GoZ-Button. weise das ZBrushBevor man diesen Modell (grau) gezeigt, drückt, müssen alle welches nicht geriggt werden kann, das Texturarten wie CoLow-Poly-Modell lor Map, die Normal (grün) und die retoMap oder auch Dispologisierte Version (lila), in die Details placement und Cavity des hochaufgelösten Maps im Modell gebaZBrush-Modells cken werden. Mit dem hineinprojiziert wurden. Noch sind bei GoZ-Export kann man dem grauen und dem Texturen leider nicht lilafarbenen Modell in verschiedenen UVUnterschiede zu sehen. Koordinatensystemen und auch keine 32 Bit 2: Der ZRemesher. Dieses Tool wandelt Displacement Maps ein hochaufgelöstes ausgeben. Gerade Polymodell in ein heute, wo Filme in 4K Low-Poly-Modell um. ausgespielt werden 3: Über den Decimeund auch Fernseher sher lässt sich die viel zu hohe Polygonzahl eine hohe Auflösung reduzieren. haben, ist es fast un4: Der ZRemesher denkbar, die 32-Bitreduziert die hohe PoOption wegzulassen. lygonanzahl deutlich. Dabei ist es wichtig, Ein Vorteil wiederum den Verlauf der Topologie zu beachten.

WORKSHOP | ZBRUSH

ist, dass man das exportierte Modell direkt und mit fertiger Textur in Shader-Verknüpfungen an die bevorzugte 3D-Software weitergeben kann. Wer die Funktionen von ZBrush voll ausnutzen möchte, kann den Multi Map Exporter verwenden. Dieses Plug-in wird über das ZPlug-in im Menü und dort unter „Multi Map Exporter“ geladen. Damit lassen sich mit einem Export-Klick alle Texturen backen und exportieren. Auch sämtliche Einstellungen wie 32 Bit Displacement Maps werden mit einbezogen. Es werden unterschiedliche UV-Koordinatensysteme berücksichtigt und eine dementsprechende Anzahl an Texturen erzeugt. Ein weiterer Vorteil ist, dass man seinen Texturen auch vernünftige Namen geben kann. Tipp: Wenn man ein „_“ in ZBrush auf einem deutschen Keyboard machen will, muss man „Shift+Alt“ und das „_“-Zeichen drücken. Bevor man den großen „Create All Maps“Knopf drückt, sollte man jedoch die Maps anwählen, die man exportiert haben will, und einige Einstellungen vornehmen. Als Erstes die „Map-Size“, was der Pixelauflösung entspricht. Faustregel: Textur mindestens doppelt so groß wie das Bildformat des Endprodukts, wenn das zu rendernde Objekt so groß wie das Ausgabeformat ist. „Map Border“ beschreibt, wie viel Pixel-Texturinformation über die Kanten der abgewickelten UV-Shells geht. Sind die UV-Shells sehr nahe zusammen, dann sollte man diesen Wert

1

2

3

4

kleiner machen, da sie sich sonst überlagern und es zu Fehlern in der Textur kommt. Unter dem „Export Options“ befinden sich die Einstellungen für die Map-Arten. Bei „File Names“ erscheint ein Fenster, in dem man zwischen Farbtiefen auswählen kann. Der eigentliche Name wird vom Sub Tool übernommen, was natürlich bedeutet, dass man dort bereits kurze, aussagekräftige Namen eingetippt haben sollte. Im Feld „uv tile ID format“ kann man die Nummerierung der einzelnen Texturen bestimmen, die für unterschiedliche UV-Koordinatensysteme gebacken werden.

Displacement-Einstellungen i Subdiv Level: Hier stellt man ein, zwi-

schen welchen Subdivision Level eine Displacement Map berechnet werden soll. Hat man insgesamt 6 Level und man stellt 2 ein, dann wird eine Displacement Map von Subdivison 2 bis 6 berechnet. Dies bedeutet: Wenn man das Mesh aus Subdivison Level 2 exportiert und mit dieser gebackenen Dispacement Map in einer Software wie Maya belegt, sollte beim Rendern das gleiche Ergebnis wie in ZBrush entstehen. i „Smooth UV“ sollte aktiv sein, wenn die Subdivisions ohne Smooth UV generiert worden sind. Dann werden die UVs noch einmal unterteilt, bevor die Map generiert wird. Dies sorgt für eine korrekte

21


INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

1

3 2

4

Berechnung der Map, damit die Textur nicht verzerrt aussieht. i 32 Bit sollte aktiviert sein, da in diesen Displacement Maps einfach genug Informationen stecken, um das Ergebnis genauso aussehen zu lassen, wie es in ZBrush gesculpted wurde. Es sei denn, der Renderer unterstützt dies nicht.

Bei Nomal Maps i „Tangent“ aktivieren, außer es handelt

sich um ein Objekt, das sich nicht deformiert, wie Türen oder Tische. i „SNormals“ und „Smooth UV“ sollte selektiert sein, wenn es sich um ein sehr niedrig aufgelöstes Modell handelt. i „Smooth UV“ sollte aktiviert sein, wenn die Subdivisions ohne Smooth UV generiert worden sind. Dann werden die UVs noch einmal unterteilt, bevor die Map generiert wird. Dies sorgt für eine korrekte Berechnung der Map, damit die Textur nicht verzerrt aussieht. Zudem kann man die Farben noch tauschen, da nicht alle Renderer die gleichen Farben einer Normal Map gleich interpretieren. i Der Nachteil am Multimap Texture Exporter ist, dass man alles selber wieder in der Animations / Rendering-Applikation seiner Wahl zusammenbauen muss.

Der Import von Modell, Texturen und den unterschiedlichen Maps Aber der Wiederaufbau des Modells in einer 3D-Software ist nicht allzu kompliziert. Als

22

Erstes kann man das Modell ohne jeden Shader oder Map importieren. Dabei kommt jetzt nur die niedrig aufgelöste Polygonstruktur zum Vorschein. Das aktuelle Modell in Maya ist ein Fisch, bei dem in den Polygonen nur die Grundstruktur zu sehen ist. Der Rest, also die Schuppen, der Charakter der Flossen und kleine Details wie Falten und Risse, sind im Normal und Displacement Map enthalten. Wie man erkennen kann, sind die einzelnen Schuppen auch in der Textur zu sehen. Aber erst durch das Hinzufügen der anderen Maps bekommt der Zuschauer den Eindruck, als sei der Fisch auch wirklich dreidimensional. Die Texturen müssen dabei beim Shader in Maya in den Eingang „Color“ geladen werden und das Normal Map bei Bump Mapping eingefügt werden, wie auch in der entsprechenden Abbildung zu sehen ist. Displacement Map ist über einen Displacement Shader hinzuzufügen, der unter „Create“ und „Displacement“ erstellt werden kann. Wenn man dann über den Displacement Shader die Displacement Map dem Shader für Farbe und Normal Maps für das Objekt hinzufügt, wird nicht nur der Eindruck erzeugt, dass die Geometrie Höhen und Tiefen hat, sondern die Geometrie wird auch wirklich ein wenig verschoben. Dieses ist aber nicht auf dem Bildschirm zu sehen, sondern erst im Rendering. In den Abbildungen befindet sich auch eine Darstellung des ShaderNetworks mit Discplacement, Normal und auch Bump Map. Durch die einzelnen Shader werden dem Objekt komplexe Variationen hinzugefügt, wie das Modell auf das Licht in der 3D-Software reagiert und im Rendering

aussieht. Erst dadurch entsteht eine wirklich komplexe dreidimensionale Kreatur.

Verschiedene Brushes

1: Diese Abbildung zeigt den Kopf des Modells in niedrigerer Auflösung ohne irgendwelche Maps. Bei der Topologie sollte man auf einen ordentlichen Fluss achten, damit die Geometrie in der Bewegung sauber verformt werden kann. 2: Auch bei einem hochaufgelösten Modell muss man auf einen ordentlichen Verlauf der Topologie achten, damit sich nach dem Riggen die Geometrie sauber verformen kann.

Gerade seine Offenheit und die verschiedenen Bru3: Wenn Polygone auf umshes in ZBrush sind ständliche oder merkwürdiein Vorteil, der die ge Weise zusammenlaufen, Software so besollten diese sogenannten Vertexpole so gut wie liebt macht. Die am möglich versteckt werden. meisten verwende4: Über Alpha-Stempel ten Brushes sind die können auf die noch saubere Standard, Clay Build, Geometrie Falten und Risse Move und Snakeder Haut angebracht werden. Dies funktioniert, wie hood Brush. Um der Name schon sagt, wie einem Objekt VoluStempel. men hinzuzufügen oder wegzunehmen, gibt es den Inflate und Pinch Brush. Für das Hinzufügen von Kerben und Furchen kann man den Dam Standard Brush verwenden. Und dann gibt es noch den Move Topology Brush, mit dem sich gezielt Areale nach Oberflächenentfernung und nicht aus Kameraansicht bewegen lassen. Ein kleiner Tipp von den Profis: Man sollte zuerst mit so wenig Brushes wie möglich anfangen und jene auswählen, mit denen man alle grundlegenden Deformationen sculpten kann. Erst wenn man damit nicht mehr weiterkommt, sollte man in

WWW.DIGITALPRODUCTION.COM


1

2

3

4

1: Damit aus dem Polymodell nach dem Rendering wieder das komplexe Modell zu sehen ist, wie es in ZBrush modelliert wurde, müssen verschiedene Maps ausgegeben werden. Hier sind Color, Normal, Displacement Map in 32 Bit und Cavity (oder Dirt) Map zu sehen. Diese Maps lassen sich aus dem High-Poly-Modell über den Multimap Exporter exportieren. 2: Über den UV Master lassen sich die UVs auslegen, damit die Texturen ordentlich aussehen und einfacher übertragen werden können.

der riesigen Brush-Auswahl der Lightbox nachschauen oder anfangen, seine eigenen Brushes zu definieren. In vielen Bereichen der 3D-Animation soll man ja zunächst mit dem Groben anfangen und sich erst später den Details widmen. Ein weiterer Profi-Tipp: Über „Preferences > Config > Enable-Customize“ kann man die eigene Auswahl an Brushes direkt an der Oberfläche als Buttons zur schnelleren Auswahl integrieren. Dadurch wird verhindert, dass man durch unnötiges Suchen von Brushes beim Arbeiten ausgebremst wird. Wenn man mit Dynamesh arbeitet, kommt irgendwann der Punkt, an dem das Design abgeschlossen ist und man in die Tiefe gehen möchte. Nun kann man auch die Oberfläche mit feinen Details versehen und farbig gestalten. An dem Punkt empfiehlt es sich, dem Modell eine Topologie zu verpassen, mit der die Kreatur auch animiert werden kann.

4.

5.

Dafür ist einiges zu beachten: 1. Es sollten möglichst nur quadratische Polygone benutzt werden, die ringförmig angelegt sind. Das Mesh lässt sich zudem besser editieren. Wenn zum Beispiel der Rigger an den Gelenken noch mehr Edge Loops benötigt, lassen sich diese ganz einfach einfügen. 2. Wenn man zu dreieckigen Polygonen greifen muss, dann an Stellen, die gut verdeckt oder nicht gut zu sehen sind, wie zum Beispiel die Unterseiten von Händen oder Achselhöhlen. 3. Vertex-Pole sollten vermieden werden. Das sind fünf oder mehr Polygonkanten,

6.

7.

die an einem Scheitelpunkt zusammenlaufen. Diese sind manchmal aber kaum zu vermeiden, aber sie sollten möglichst dort vorkommen, wo wenig Deformation entsteht oder wo sie nicht sichtbar sind. Die quadratischen Polygone sollten mit der Flussrichtung von Deformationen ausgerichtet sein. Also beispielsweise ringförmig um Mund und Augen fließen, da sich diese Stellen auf- und zudehnen. Schlecht sind immer Polygone, deren Ecken entgegen einer sich knickenden oder wölbenden Ebene liegen. Hier wird es später beim Rendering zu unschönen Knicken und Zacken kommen. Man sollte immer die möglichst geringste Polygonanzahl anstreben. Alles, was nicht mit einer Displacement Map dargestellt werden kann, muss modelliert werden. Meistens handelt es sich hier oft um die Teile, welche auch per Joints oder Blend Shapes bewegt werden. Beim Lindwurm mussten es an Stellen, wo Muskeln und Knochensimulation wirken sollten, noch mehr Polygone sein. Die Polygongröße und Form sollte sich nicht zu sprunghaft zu ihren benachbarten Polygonen verändern. Dies hat mehrere Gründe. So ist es weder gut für Deformationen, Simulationen und das Binden an Joints noch beim sogenannten Subdividen. Areale mit vielen kleinen Polygonen werden viel zu hoch aufgelöst, während Areale mit großen Polygonen zu grob unterteilt werden. Wenn das Modell nicht offensichtlich asymmetrisch ist, dann arbeite symme-

3: Wenn im Color-Menü trisch. Dem Rigger der Mrgb- und der Fillwird es helfen. Object-Button ausgeKleine Asymmetrien wählt sind, kann das Objekt eingefärbt werden. können in den Tex4: Über die Lightbox turen eingearbeitet lassen sich verschiedene werden. AsymmeTexturen sammeln und trien, die das Mesh auf das Objekt übertragen. deformieren, werden in der Displacement Map gespeichert. Aber Achtung! Hier muss das asymmetrische Base Mesh exportiert und an den Rigger gegeben werden, der dieses als Blend Shape in seine geskinnte Geometrie einbaut. Sonst wird die asymmetrische Diplacement-Textur nicht exakt berechnet. 8. Checke am Ende dein Mesh auf Fehler wie: N-Gones (vielseitige Polygone) und Triangles (dreieckige Polygone) an ungewollten Stellen, verdrehte Normals, versteckte Edges, Vertices inmitten von Edges oder aber auch Faces, die deckungsgleich auf anderen liegen. Dies lässt sich recht gut mit den Selection Contraints in Maya herausfiltern und anzeigen. Oder BackfaceCulling aktivieren, damit man verdrehte Normals sieht. Zudem sollte man das Modell in der Smooth Preview (Maya, Taste 3 drücken) anschauen, damit man schnell die gröbsten Unsauberkeiten ausfindig machen kann.

Um nun dem Dynamesh-Modell (oder auch jedem anderen) eine Topologie zu verpassen, mit der das Modell sauber geskinnt werden kann, kann man das Modell entweder an 3D-

23


1

2

3

1: Durch verschiedene Bilder, die zu Stempeln umgewandelt wurden, lassen sich auch Texturen auf das Objekt malen. 2: Aus SchwarzWeiß-Bildern können Stempel generiert werden, mit denen sich auf der Haut Vertiefungen aufbringen lassen. So entsteht eine äußerst komplexe Polygonhaut. 3: Wie auch die Texturbilder, können AlphaMasken gedreht und verändert werden.

Coat, Topo Gun oder an Mayas Advanced Modeling Toolkit übergeben und dort Punkt für Punkt die Polygone nachzeichnen, während das Modell die Punkte snaped. Dies funktioniert gut und ist die wohl am besten zu kontrollierende Art, die Topologie nach seinen Wünschen zu rekonstruieren – bedeutet aber auch viel Handarbeit und Zeitaufwand. Am schnellsten geht es mit ZBrushs ZRemesher. Diesen kann man im Tool-Menü unter „Geometry“ und dort direkt unter dem Dynamesh-Button finden. Bevor man den großen „ZRemesher“-Knopf drückt, sollte man seine Dynamesh-Geometrie im Sub Tool Tab duplizieren: Tool-Menü, Sub Tool Tab und dann den großen Duplicate-Knopf drücken. In der darüberliegenden Sub-ToolListe sieht man, dass nun zwei gleiche Modelle übereinanderliegen. Das ist auch gut so, denn später wollen wir die Details des oberen in das neu topologisierte Mesh darunter projizieren. Deshalb wählen wir in der Sub-Tool-Liste das darunterliegende Mesh an und kehren zurück zum großen ZRemesherKnopf. Drückt man diesen, kann es sein, dass man sofort ein perfektes Ergebnis be-

24

kommt. Das hängt davon ab, ob ZBrush die Oberflächenwölbungen und Krümmungen gut analysieren kann. Meistens erhält man ein bereits gutes Ergebnis und möchte nur noch den Polycount etwas nachjustieren oder weniger viel zu lange Polygone haben. Den Polygon-Count stellt man mit „Target Polygons Count“ ein. Mit „Adaptive Size“ regelt man, wie weit ZRemesher rechteckige Polygone zulassen soll. Bei einem Wert von 0 benutzt er nur quadratische Polygone. Zudem kann man mit dem ZRemesher Guide Brush Guide Curves auf die Geometrie malen, um ZRemescher eine Flussrichtung vorzugeben. Die Topologie-Dichte lässt sich über eine Farbcodierung steuern, indem man blau oder rot auf die Geometrie malt: Blau verdichtet, während Rot weniger Polygone verwendet. Nachdem man ein neues, retopologisiertes Modell hat, kann man so wie früher weiterarbeiten. Man fügt Subdivison Layer über Shortcut „Strg+D“ hinzu. Dann projiziert man die Details des darüberliegenden Sub Tools, welches das Dynamesh-Modell ist, in das neue Mesh mit der angenehmeren Topologie.

Wenn man mit dem Modell zufrieden ist, gibt es mehrere Dinge, die beachtet werden müssen. An erster Stelle steht natürlich der Polycount. Das Modell soll ja nicht nur auf der Leinwand gut aussehen, sondern auch bei der Animation mit einer akzeptablen Bildwiederholungsfrequenz zu bewegen sein und nicht den ganzen Speicher belegen. Als Erstes sollte man beim Retopologisieren darauf achten, dass die Polygone – gerade in den Regionen, die später durch das Rig stark verformt werden –, sauber ausgelegt werden. Es empfiehlt sich, zwei Ausgaben zu machen. Einmal die Ausgabe für die Animation, die einen niedrigeren Polycount hat und dafür schneller zu animieren ist, und dann noch einmal das volle Polygon-Modell, wodurch der Rechner zwar fast unbenutzbar wird, aber das gut auf der Leinwand aussieht und beim Einsatz von Muskelsimulationen keine Probleme bereitet. Nachdem all diese Methoden wie die Formung durch Dynamesh, das Hinzufügen von Stempeln und so weiter angewendet wurden, hat man ein detailliertes und realistisches Modell. Leider kann man mit diesen Modellen außerhalb der Software nicht

WWW.DIGITALPRODUCTION.COM


1: Wenn man ein Objekt über den Multimap Exporter aus ZBrush exportiert hat, muss es in einer 3D-Software, wie zum Beispiel Maya, wieder zusammengesetzt werden. Die Maps werden nur im Viewport 2.O angezeigt.

1

2 WORKSHOP | ZBRUSH

3

2: Das Modell als Polygonobjekt, ohne Maps 3: In den Shadern für Maya (und auch für RenderSoftware wie V-Ray oder Mantra) gibt es Attribute, über die die Bump Maps oder Normal Maps mit dem Shader verbunden werden. Oftmals kann dabei auch eingestellt werden, wie sehr sie die Polygone beeinflussen. 4: Die Normal Map sieht im Gegensatz zu den schwarzweißen Bump und Displacement Maps wesentlich bunter aus. Dadurch lassen sich Höhen und Tiefen und die damit fallenden Schatten besser berechnen. 5: Wenn in Maya im Hypershade und dort im Shader alle Maps verbunden und die Displacement Map hinzugefügt wurden, bekommt man ein sogenanntes Shader Network.

5

4

viel anfangen, da sie mit den vielen Details einfach nicht mehr zu handhaben sind. Selbst bei ZBrush bemerkt man nun, dass die Software deutlich langsamer läuft. Aber durch die Methode, wie das Programm Polygone berechnet und darstellt, läuft der Rechner noch einigermaßen schnell. In Maya oder 3ds Max würde aber nichts mehr passieren und das Modell ließe sich auch nicht mehr riggen. Um nun eine Geometrie zu erstellen, die in Maya oder Max auch noch funktioniert und dort weiterverarbeitet werden kann, muss ein niedriger aufgelöstes Modell mit einem niedrigeren Polycount generiert werden. Dabei ist es möglich, die Topologie neu anzuordnen, sodass der Charakter in Maya oder in 3ds Max ordentlich geskinnt werden kann. Durch das Retopologisieren gehen natürlich auch die vielen Details wieder verloren. Da-

mit diese wieder hinzugefügt werden können, gibt es die Möglichkeit, in ZBrush diese Details als Normal, Displacement oder Bump Maps auszugeben. Diese Maps lassen sich zum Beispiel in Maya über den Hypershade und die verschiedenen Shader über die entsprechenden Kanäle wieder hinzufügen. Während der Prozesse des Skinnings und der Animation sind diese Maps im Viewport 2.0 sichtbar und nach dem Rendering sehen die finalen Bilder der Modelle wieder so aus wie das Modell in ZBrush. Die einzelnen Normal, Displacement und Bump Maps reagieren auf die Beleuchtung und auf Einstellungen beim Rendering wie HDRI und so weiter. Am Ende ergeben die Zusammensetzung aus Kreatur, Texturen und den Maps aus ZBrush eine fotorealistische Kreatur, die mit dem real › ei gefilmten Material mithalten kann.

Alexander N. Ostermann hat am Academy of Art College in San Francisco Animation und VFX studiert. In den vergangenen Jahren war er bei diversen Filmen als Senior und Lead Animator tätig. Im Jahr 2O1O hat er die Digi Tale Studios gegründet und arbeitet als Autor und freier Dozent. www.nico-ostermann.com www.digitale-studios.com

Links Decimation Master – kostenloses Plug-in für ZBrush i pixologic.com/zbrush/features/ decimation Alle ZBrush-Free-Plug-ins i pixologic.com/zbrush/

downloadcenter/zplugins

1: Über die Tastatur kann man einstellen, in welchem Auflösungsgrad das Modell dargestellt werden soll – je niedriger die Zahl, desto niedriger die Auflösung.

1

2: Je höher die Zahl, desto höher wird das Modell aufgelöst – aus dieser Auflösung lassen sich die Maps generieren.

2

3: Diese Abbildung zeigt ein Beispiel, wie zu weit gestreckte Polygone über die Berechnung des Dynamesch Tools sauber aufgefüllt werden.

3 25


FOKUS

FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

Das Wasserkleid

Bilder: Casamedia (Setfoto)/BWT/Fraqment Film

Für den in Deutschland und Österreich ausgestrahlten TVSpot des Wassertechnologie-Unternehmens BWT lieferte Fraqment Film den Keyvisual-Shot – eine Frau geht auf uns von David Purviance zu, nur in ein Kleid aus Wasser gehüllt.

On Set

Alternativer Hintergrund

F

ür den TV-Spot des WassertechnologieUnternehmens BWT hatten sich Peter Nöhmeyr von den Marken-Architekten und Regisseur Günter Kaser mit der Filmproduktion Casamedia ein anspruchsvolles Keyvisual ausgedacht und suchten nach einem Partner, dem sie es zutrauten, ihre Hauptdarstellerin in ein Kleid aus Wasser zu hüllen. Wir haben uns in der Research-Phase Beispiele angesehen und diskutiert. Es gibt aber wenig Referenzmaterial in diese spezielle Richtung. Für vergleichbare Szenen wird häufig mit Gischt und Wasserspritzern gearbeitet, um die schwierigen Parts zu kaschieren. Unseren Kunden war das Thema „Wasser“ natürlich sehr vertraut – und dadurch extrem wichtig. Sie wünschten sich ein leichtes, dezentes Sommerkleid und flä-

26

chiges, unaufgeregtes Wasser. In enger Zusammenarbeit mit dem Regisseur haben wir dann ein Wasserkleid-Konzept erarbeitet. Es sollte die Frau wie aus eigener Kraft und mit eigenem Willen umspielen und nicht nur an ihr herunterlaufen. Wie wir im Laufe des Projekts festgestellt haben, war es trotz der abstrakten Idee eines Wasserkleids durchaus wichtig, die physikalischen Gesetze nicht einfach auszuhebeln, ansonsten wirkt es schnell künstlich und befremdlich. Unsere Lösung war schlussendlich, dass sich das Wasser an der Silhouette unserer Darstellerin emporarbeitet, bis es über der Brust gegen die Schwerkraft verliert und wieder nach unten fällt – als würde man Wasser mit einem Schlauch gegen eine Mauer nach oben spritzen. Irgendwann kommt der Punkt, an dem

es wieder zurück nach unten fällt. Um die Leichtigkeit eines Sommerkleids zu behalten und die Figur unseres Models nicht kräftiger wirken zu lassen, durfte das Wasser außerdem kaum Volumen aufbauen. Dieser Effekt entstand allerdings schon alleine durch die Lichtbrechung. Wir mussten äußerst behutsam vorgehen und im Compositing etwas nachhelfen, um ihre ursprüngliche Figur zu erhalten. Und zu guter Letzt sollte das Kleid natürlich durchsichtig wirken, aber nicht durchsichtig sein. Das Zeitfenster für alle nötigen Arbeitsschritte, von Modeling und Simulationen über Lighting und Rendering bis Compositing inklusive entsprechender Abnahme-Steps durch den Kunden, betrug nur etwa vier bis fünf Wochen. Um bei diesem ehrgeizigen

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

COMMERCIAL | WASSERKLEID

Timing die bestmöglichen Shots zu liefern, haben wir uns entschlossen, für die Fluid Parts mit einem externen Partner zusammenzuarbeiten, den Realflow-Spezialisten von Fusion Cis in Los Angeles. Fusion hat eine hohe Expertise in Sachen Flüssigkeitssimulation, ist in die Entwicklung von Realflow selbst involviert und war an etlichen Blockbustern der letzten Jahre beteiligt, in denen R&D eine größere Rolle gespielt hat, meist im Hintergrund beziehungsweise Auftrag namhafter Posthäuser.

Unsere Wasserkleid-Pipeline

Finales Framing

Schnelles On Set Preview

Unsere zentrale 3D-Software für Beleuchtung, Animation und Rendering ist 3ds Max in Kombination mit dem V-Ray Renderer, dazu haben wir eine interne Renderfarm. Für das Bereinigen und Remeshen des 3D-Scans kam ZBrush zum Einsatz. Der Austausch mit Marvelous Designer für Stoffsimulationen fand über .obj und Point Cache (.pc2) statt. Das Motion Capturing aus Ipi MoCap Studio wurde als .bvh File in 3ds Max auf ein CAT-Rig angewandt. Die Wassersimulationen wurden in Realflow erstellt und als Mesh-Sequenz (.bin) nach 3ds Max exportiert. Da wir auch Grading anbieten, haben wir eine Davinci Suite, die wir gerne zum Graden diverser Plates oder zum Greifen schwieriger Farben verwenden, um so zusätzliche Mattes zu erstellen. Am Ende wurden die einzelnen Shots respektive Passes aus 3ds Max als Open EXR- und .rpf-Sequenzen gerendert und in After Effects importiert, unserer primären Compositing-Umgebung.

Preproduction – Motion Capture und 3D-Scan Als Simulationsgrundlage benötigten wir ein animiertes Digi-Double – ein exaktes

Fraqment Film Fraqment Film ist eine aufstrebende FullService Postproduction mit Sitz in München. Ihre Kompetenzen erstrecken sich von Planung und On-Set Supervision über Schnitt, Visual Effects, CG-Animation und Grading bis zur Sender- und Kino-Belieferung. Die beiden Gründer, Regisseur und Producer Goetz Hudelmaier und VFX-Supervisor David Purviance, lernten sich 2OO7 bei der Arbeit an an dem US-Spielfilm „Jump!“ kennen. Viele weitere gemeinsame Projekte führten schließlich 2O11 zur Gründung von Fraqment Film – mit dem ehrenhaften Ziel, herkömmliche zähe Postproduction-Strukturen aufzubrechen und sich kreative und technische Freiheiten zu schaffen. Fraqment arbeitet bislang hauptsächlich für internationale Kunden und war dabei an vielfach ausgezeichneten Film- und Werbe-Projekten beteiligt. München ist aber Heimat und Basis und gewinnt zunehmend an Bedeutung.

3D-Modell der Darstellerin und ein Motion Capturing ihrer Bewegungen während der Aufnahmen am Set, um darauf eine Stoffsimulation des Kleides erstellen zu können. Diese wiederum diente als Grundlage für die Flüssigkeitssimulation. Wir haben uns also darangemacht, ein Setup für den Dreh zu finden, das es uns ermöglichte, alle erforderlichen Bewegungsdaten und Scans unserer Darstellerin zu erhalten – ohne dabei aber die Produktionsabläufe zu sehr einzuschränken oder die Darstellerin zu arg zu verdecken. Denn wir mussten das Motion Capturing während des eigentlichen Takes aufnehmen. Ein Ganzkörperanzug oder Ähnliches kam also nicht in Frage. Wir haben uns dann – zuerst aus budgetären Gründen, dann aus Überzeugung – für eine eher unkonventionelle Kinect-basierte Lösung entschieden. In Kombination mit einem leistungsstarken Laptop war dieses System extrem flexibel und wir konnten auf jegliche Tracking Marker auf der Darstellerin verzichten, was beim Dreh und in der Post viel

ScanRekonstruktion

27


FOKUS

FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

MoCap Studio

On-SetAufnahme Tiefenkanal

Zeit spart. Außerdem konnten wir mit demselben Setup auch gleich den 3D-Scan der Darstellerin am Set erstellen. Es gibt bereits diverse Softwarelösungen für diese Zwecke, aber für den professionellen Einsatz war es noch unerprobt, weshalb es für uns noch einige offene Fragen zu klären gab. Etwa, wie gut beispielsweise der Infrarot-Tiefensensor unter Studio-Lichtbedingungen arbeitet respektive wie groß der Bereich für Motion Capturing unter diesen Bedingungen ist oder wie man die Schauspielerin am besten für den 3D-Scan positioniert, um die höchste Qualität zu erreichen. Um diese Fragen zu beantworten und unvorhergesehene Probleme vor dem Dreh auszuschließen, haben wir unser Kinect-System in einem Münchner Filmstudio unter Einsatz entsprechender Studiobeleuchtung und mehr oder weniger freiwilligen Models getestet. Tatsächlich variiert der Tiefenbereich des aufgezeichneten Tiefenkanals, der später für Motion-Capture-Berechnungen verwendet werden kann, je nach Helligkeit des Hintergrunds beziehungsweise der Hohlkehle zwischen zwei und vier Metern, was für unsere Zwecke aber völlig ausreichend war. Die Reichweite ließe sich durch Verwendung mehrerer Kinect-Sensoren erhöhen. Der helle Hintergrund des Shots ließ sich frühzeitig festlegen (es sollten später lediglich dezente Glitzerelemente eingefügt werden, die schließlich aber ganz verworfen wurden). Wir haben uns daher für eine weiße statt für eine grüne

28

Hohlkehle entschieden – die Matte der Darstellerin innerhalb des Wasserkleides würde sich ohnehin aus den Rändern des späteren Digi-Doubles ergeben (und die geplanten Glitzerelemente im Hintergrund wären hell genug gewesen, um selbst den Key ihrer Haare dafür problemlos aus dem Weiß zu ziehen).

Motion Capture on Set Beim eigentlichen Dreh haben wir also mit unserem Kinect-System immer etwas seitlich zur Hauptkamera versetzt einen Tiefenkanal mit aufgenommen. Später wurden aus diesen Aufnahmen die Bewegungen errechnet. Es gibt bereits Softwarelösungen für Kinect Motion Capture und wir entschieden uns nach den Tests für Ipi Softs MoCap Studio. Es erkennt nach Eingabe einiger figurbezogener Daten aus einer anfänglichen neutralen Pose der Darstellerin die Gelenke und Gliedmaßen, sodass der Bewegungsablauf der Person über den gesamten Take rekonstruiert wird und am Ende als gewöhnliches Motion Capture File auf ein Skelett/ Rig übertragen werden kann.

3D-Scan Mit dem gleichen System aus Kinect und Laptop haben wir auch den 3D-Scan der Darstellerin erstellt, diesmal kam die Software Skanect zum Einsatz. Dazu hat sich die Darstellerin auf eine Apple Box gestellt und

die Arme circa 45 Grad angewinkelt auf CStands abgelegt. Unser VFX-Supervisor hat sie dann langsam mit dem Scanner umkreist. Ein erstes schnelles 3D-Modell inklusive Textur wurde vor Ort errechnet, um die Scans zu checken und die Kunden zu erfreuen.

Postproduction Teil 1 – Rekonstruktion Wieder zurück bei Fraqment wurde mit Skanect ein hochauflösenderes 3D-Modell aus den Scans der Schauspielerin errechnet und zur weiteren Überarbeitung nach ZBrush exportiert. Das Modell wurde dort gesäubert und retopologisiert, um die extreme Polygondichte des Scans zu reduzieren und das Modell animationsfähig zu machen. Besonders die Remesh Features von ZBrush waren dabei nützlich. Partien, die im Scan nicht berücksichtigt werden konnten, beispielsweise Fußsohlen oder die Auflagepunkte an den Händen, mussten von Hand aufgefüllt und nachgebildet werden. Anschließend wurde das fertige 3D-Modell nach 3ds Max exportiert und dort für die Animation geriggt. Direkt im Anschluss an die Dreharbeiten hatten Regie und Cutter mit dem Rohschnitt begonnen. Wegen des engen Timings wurde in Abstimmung mit Agentur und Kunde zunächst die Wasserkleid-Sequenz definiert, damit wir sofort beginnen konnten, mit Ipi MoCap Studio wie beschrieben die Bewegungen aus den entsprechenden Tiefenkanal-Takes

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

COMMERCIAL | WASSERKLEID

3D-ScanClean-up ZBrush

Digi-Double Rig

Postproduction Teil 1 – Rekonstruktion

MoCapKorrekturen

Studio rekonstruiert.

zu generieren. Nach diversen Korrekturen und Säuberungen des Bewegungsablaufs – ein notwendiger Schritt bei allen Motion-Capture-Lösungen – konnten wir die Motion-Capture-Daten direkt nach 3ds Max exportieren, unserer primären 3D-Software, wo sie auf das mittlerweile fertig geriggte Modell aus ZBrush angewandt wurden. Parallel wurde die komplette Studioszene vom Drehort anhand von Messungen und Referenzfotos in 3ds Max nachgebaut, eingeleuchtet und die Kameras gematcht – um die Bewegungen notfalls rekonstruieren zu können, haben wir die Shots aus einer seitlichen, fest eingerichteten Position mitgefilmt. Gedreht wurde auf der RED Epic in 5K. Die konzipierte Slow-Motion-Sequenz

ClothBewegungsPreviews

wurde mit 50 fps gedreht, deshalb wurde die 3ds-Max-Szene ebenfalls mit 50 fps aufgesetzt, um die Simulationen alle in Echtzeit erstellen zu können. Nachdem nun auch das animierte Digi-Double in die Szene integriert war, konnten wir an der Überlagerung des Digi-Doubles mit den gedrehten Szenen aus beiden Perspektiven sehen, wo noch kleine Korrekturen nötig waren, damit das 3D-Modell immer exakt der realen Figur folgt.

Postproduction Teil 2 – Cloth Sim Nun konnten wir mit der Cloth-Simulation beginnen, die Grundlage für die Wassersimulation. Um eine gemeinsame Kleid-Referenz

Digi-Double Cloth

zu haben, hatten wir beim Dreh der Darstellerin einen Durchgang mit einem vom Kunden abgenommenen, echten Sommerkleid gefilmt. Absprachen zu abstrakten Dingen sind und bleiben naturgemäß schwierig und unser Wasserkleid konnte natürlich in den Köpfen der verschiedenen Projektbeteiligten durchaus unterschiedlich aussehen. Auf diesem Weg konnten neben dem Schnitt des Kleides bereits wichtige Aspekte der Stoffbewegung festgelegt werden. Das finale Digi-Double wurde von 3ds Max als .obj- und Point-Cache-Animation exportiert, um es in Marvelous Designer zu importieren, eine Software zur Kleidungserstellung und Simulation. Besonders die intuitive Erstellung nach dem Vorbild realer Schnitte war in

Digi-Double Cloth Match

Postproduction Teil 2 – Cloth Sim 29


FOKUS

FILM & VFX

3D & ANIMATION

Erste Simulationen

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

Detaillierter oberer Mittelteil

Postproduction Teil 3 – Fluid Sim Simulation importiert Details oben.

unserem Fall praktisch und zeitsparend. Nach dem Vorbild des realen Referenzkleides haben wir nun ein Kleid auf unser importiertes DigiDouble geschneidert. Da es die Grundlage für die Wassersimulation sein würde und es danach kein Zurück mehr gab, haben wir uns genügend Zeit für diesen Schritt genommen, um die Stoffsimulation mit Kunde und Regisseur bis ins letzte Detail abzustimmen. Um an manchen Stellen mit Wind-Emittern einzugreifen und noch schwungvollere Bewegungen zu erzielen, ohne die restliche Simulation zu beeinflussen, haben wir mehrere Simulationsdurchgänge als Point-Cache-Animation nach 3ds Max exportiert und dort auf dem .objModell des Kleides mithilfe mehrerer Point Cache Modifier ineinander geblendet. Neben der gestalterischen Herausforderung mussten wir auch darauf achten, dass keine zu ruckartigen Bewegungen im Kleid entstehen, da es die spätere Kontrolle der Flüssigkeit erschwert hätte.

Postproduction Teil 3 – Fluid Sim Sobald wir ein erstes grobes Layout der Stoffsimulation auf unserem Digi-Double hatten, haben wir die 3ds-Max-Szene an Fusion Cis übergeben, damit sie mit dem Realflow-Setup der Flüssigkeitssimulation beginnen konnten, während wir noch an der Cloth-Sim arbeiteten. Nach wenigen Tagen bekamen wir eine erste grobe Simulation als Mesh-Sequenz, mit der wir erste Material-

30

Simulation importiert Details unten.

und Shader-Tests in unserer 3ds-MaxStudioszene durchführen konnten. Als wir dann die finale Freigabe der Kleidungssimulation hatten, konnte Fusion die Szene bei sich aktualisieren und weiter ins Detail gehen, sodass wir schon bald eine Diskussionsgrundlage der Simulation hatten und auch den Regisseur hinzuziehen konnten. Obwohl die Partikeldichte der Simulationen noch recht niedrig war, hat sich gezeigt, dass wir durch Wasservolumen an den Trägern beziehungsweise rund um ihren Hals eine gewisse Leichtigkeit einbüßen würden. Wir haben dann im Compositing mit Alpha Maps von Kleidspritzern ein trägerloses Kleid zur schnellen Vorschau erstellt. Alle waren sich einig, dass es um einiges eleganter und leichter wirkt. Also gingen wir mit der Simulation in diese Richtung. Fusion adaptierte für unser Projekt ihre für Realflow inhouse entwickelte sogenannte Better-Wetter-Technologie, um das Wasser sanft und natürlich aus verschiedenen Bereichen des Kleides zu emittieren und die Einwirkung der Kleidbewegung auf das Wasser bis ins Detail zu steuern. Diverse Forces kontrollierten dabei die Entwicklung der Schwerkraft, den Luftwiderstand und die Zerstreuung des Wassers. Außerdem splittete Fusion die Simulation von oben bis unten in sieben Teile. All das gab uns die maximale Kon-

trolle, gemeinsam in jegliche Bereiche des Wasserflusses einzugreifen und Änderungen vorzunehmen, ohne gleichzeitig das restliche Wasserkleid zu beeinflussen – beispielsweise um ein splashiges Verhalten im unteren Teil des Kleides zu erreichen und gleichzeitig ein ruhiges, eng anliegendes Wasser im mittleren Teil. Auch Flussrichtung und Schwerkraft mussten schlussendlich unterschiedlich auf die einzelnen Parts angewendet werden, um genügend Variation in die Wasserbewegung zu bekommen, damit es die Frau umspielt und weder an ihr herunterrinnt noch wie in einem schwerelosen Raum nach oben strömt. So näherten wir uns mehr und mehr unserem finalen Kleid und dem Ziel, ein an sich surreales Konzept des Wassers nicht nur ästhetisch, sondern auch glaubhaft und natürlich darzustellen. Damit wir im Compositing noch mehr Freiheit hatten, übergab uns Fusion die Simulationsabschnitte auch immer in separaten Mesh-Sequenzen. So hatten wir das Oberteil schon final gerendert, während wir mit Fusion noch an der Simulation des Unterteils tüftelten. Oder wir renderten einen Bump Map Pass für den Hüft-Part, wenn uns dort noch Reflexionsdetails fehlten. Fusions Better-Wetter-Technologie kam bereits

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

COMMERCIAL | WASSERKLEID

Wasser-RenderAlpha-Kanal

Postproduction Teil 4 – Shader und Rendering

in einigen größeren Projekten zum Einsatz, wie in „The Curious Case of Benjamin Button“, „Once Upon A Time“ oder „The Girl With The Dragon Tattoo“.

Postproduction Teil 4 – Shader und Rendering Wasser an sich ist rein über Reflexionen, Highlights und Lichtbrechung sichtbar. Erstere wurden in unserem Fall durch eine komplett nachgebildete Set-Beleuchtung in 3ds Max und HDR-Umgebungsaufnahmen vom Studio generiert. Um die korrekte Lichtbrechung respektive Refraktion der Frau ins Wasser zu bekommen, renderten wir mit dem Original-Shot als Hintergrund. Das Rendering und die Passes beinhalten also den Hintergrund mit integriertem AlphaKanal. Dazu musste für das finale Rendering die final retuschierte und neutral gegradete Version der Frau als Render-Hintergrund eingesetzt werden – also ohne Badeanzug und hinzugefügte Details wie dem Bauchnabel. Das Digi-Double diente als Matte innerhalb des Wasserkleids. Um in manchen Bereichen noch mehr Details ins Wasser zu bekommen und kleinteiligere Lichtbrechungen und Highlights zu erreichen, haben wir für das Compositing immer noch Passes mit zusätzlichem Bump Mapping gerendert. Zu diesem Zweck wurden bereits bei den ersten Licht- und Textur-Tests zu Beginn verschiedene V-Ray-Wasser-Materials eingerichtet.

Gerendert haben wir das Ganze auf unserer Inhouse-Renderfarm.

Postproduction Teil 5 – Compositing Die Passes der Wasser-Renderings wurden als Open EXR respektive .rpf importiert. Da die Simulation in mehrere Bereiche geteilt war und wir alle Simulationsmeshes einzeln renderten, hatten wir noch die maximale Kontrolle im Compositing. So haben wir alleine den Wasserkamm über der Brust in drei Detailstufen gerendert – sowohl Partikeldichte als auch Materialstruktur – und konnten nun in After Effects feinjustieren, wo es wie flächig oder spritzig wirken sollte. Besonders an der Hüfte musste das Wasser sehr eng anliegen, damit die Figur der Darstellerin nicht verfälscht wurde. Hier konnten wir ebenfalls entsprechende Simulationsparts einsetzen und mit einer Matte der Darstellerin zusätzlich im Zaum halten. Mit den Shader- und Lichttests der ersten Fluid Meshes wurde auch das Compositing der Shots aufgesetzt. Danach konnten wir auf Updates der Simulationsmeshes mit einem schnellen Preview Rendering reagieren. Beim Dreh selbst trug die Darstellerin einen Badeanzug – auch weil ein Kleid ebenfalls einen gewissen Druck auf den Körper ausüben würde. Als Nächstes musste also der Badeanzug entfernt werden. Der erste Schritt war, ihn am Davinci einzufärben, anschließend wurden mit Mocha einzelne

Bereiche wie die Hüfte, der Bauch und die Schultern inklusive Verzerrungen getrackt, um dann aus Fotoplates Hautpartien darüber zu platzieren. Der benötigte Detailgrad der Haut hielt sich zwar in Grenzen, da sie nur durch das Wasser schimmern würde, aber es ist wichtig, dass gewisse Schattierungen und Anhaltspunkte durchscheinen, damit es realistisch und plastisch wirkt. Die größere Herausforderung in diesem Prozess waren die Träger an den Schultern, da der Schnitt des Wasserkleides ja im Laufe der Projekts verändert wurde. Mit Mocha ließen sich aber auch diese Partien sauber Tracken und durch retuschierte Hautplates ersetzen. Die CG-Wasserkleid-Idee für einen wasseraffinen Kunden zu realisieren, war eine besondere Herausforderung, bei der alle Beteiligten, angefangen von der gemeinsamen Konzeptentwicklung bis zur finalen Abnahme, an einem Strang gezogen haben. Wir bedanken uns bei der Agentur Die-MarkenArchitekten, der Produktion Casamedia und vor allem bei Regisseur Günter Kaser für das Vertrauen und die tolle Zusammenarbeit. › ei

Links Fraqment Film/Spot „BWT Perlwasser“ i www.fraqment.com

Fusion Cis i fusioncis.com

31


FOKUS

FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

Teil 1

„HighpassSharpen“ Gizmo für Nuke Nuke lässt sich wunderbar erweitern - mit sogenannten Gizmos. Was das ist und wie man sie einsetzt, zeige ich von Simon Jokuschies Ihnen im im ersten Teil der Workshop-Reihe, wenn wir ein „HighpassSharpen“ Gizmo bauen.

N

uke stellt primär eine Vielzahl an Nodes für diverse Aufgabenbereiche zur Verfügung. Diese beinhalten Operatoren wie beispielsweise Filter, Keyer, Farbanpassungen, Transformationen, Deep Compositing und vieles mehr. Mit den gegebenen Nodes ist man jedoch nicht limitiert, denn das Compositing-Programm bietet die Möglichkeit, eigene Nodes zu erstellen. Hierbei bedient man sich aus der Menge der werkseitig vorgegebenen Nodes und kreiert Effekte durch eigene Node-Verbindungen. Diese lassen sich als sogenannte Gizmos speichern und mit anderen Nutzern teilen. Dieser dreiteilige Workshop (die nächsten beiden Teile in der DP 02:16 und 03:16) zeigt die Erstellung zweier Gizmos und die zugehörigen Befehle zur Einbindung dieser in die Benutzeroberfläche von Nuke. Hierbei entsteht ein eigenes Gizmo für die Scharfzeichnung mittels Highpass-Filter sowie ein selbstkreierter Glow-Effekt. Das Bauen von Gizmos gliedert sich in mehrere Arbeitsschritte: Zunächst werden die NodeVerbindungen angelegt und die Nodes in eine Gruppe ausgelagert. Anschließend werden die

32

entsprechenden Einstellregler, die sogenannten Knobs, zum Verändern der Gruppe gewählt. Diese Gruppe wird anschließend in ein Gizmo überführt, welches sich mithilfe von Python-Befehlen in Nukes Benutzeroberfläche integrieren lässt.

„HighpassSharpen“ Gizmo

Abb. 1: Aufgesetzt – die Node-Verbindung und das Ergebnis eines Highpass-Sharpen-Effekts

Zum Schärfen von Bildern stellt Nuke werkseitig den Sharpen Node zur Verfügung. Die folgenden Schritte zeigen, wie man einen eigenen Node zum Schärfen von Bildern durch eine alternative Technik kreieren kann. Es handelt sich um eine Methode, die das Schärfen mittels HochpassFilter vollzieht (Englisch: Highpass). Der interessante Aspekt ist dabei, dass der Weg über einen Highpass-Filter lediglich Bereiche mit hohem Kontrast, wie etwa Kanten, in einem Bild schärft. Die Farbflächen an sich bleiben weitestgehend unbeeinflusst. Nach dem Importieren des zu schärfenden Bildes (in diesem Fall ein Bild des „Mount Ruapehu“ – auch bekannt als Schauplatz für „Mordor“ aus „Herr der Ringe“) erstellen wir einen Blur Node, gefolgt von einem In-

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

NUKE | GIZMO WORKSHOP

Abb. 3: Eingestellt – mit diesen Werten dient der Matrix Node als Scharfzeichnungsfilter.

Abb. 2: Verbunden – der Highpass-SharpenEffekt liegt nun über dem Originalbild und fungiert als Schärfungsfilter.

vert Node. Der Blur Node erhält im Knob „Size“ einen Wert von „40“ und das Dropdown-Menü „Channels“ bleibt auf seinem Standardwert „RGB“. Der Invert Node bleibt unverändert. Das entstandene Ergebnis lässt sich nun mit einem Merge Node im Blending-Modus „Average“ über das Original legen. Diese Operationen resultieren in einem Highpass-Filter. Mit dieser Technik werden die kontrastreichen Kanten innerhalb eines Bildes deutlich, während die Farbflächen des Bildes in eine graue Fläche übergehen (Abb. 1). Der Highpass-Filter lässt sich nun über einen weiteren Merge Node mit dem Original-Bild verbinden. Hierbei findet der Blending-Modus „Overlay“ Verwendung. Nun ist die selbst erstellte Schärfung mittels Highpass-Filter bereits vollständig (Abb. 2). Anschließend wird mit einem Matrix Node eine zusätzliche Schärfung auf das Bild angewandt. Beim Matrix Node handelt es sich um eine sogenannte Faltungsmatrix – wird der resultierende Wert eines Pixels durch seine angrenzenden Pixel beeinflusst. Je nachdem, welche Werte in der Matrix eingetragen werden, lassen sich unterschiedliche Ergebnisse – beispielsweise Schärfen, Weichzeichnen oder Relieferstellungen – eines Bildes erzeugen. Für eine Scharfzeichnung werden die Werte gemäß Abbildung 3 benötigt. Um die Stärke des Effekts zu reduzieren, lässt sich der Knob „Mix“ auf den Wert „0.1“ vermindern. Hiermit ist die Node-Verbindung für den eigenen Node zur Scharfzeichnung komplett (Abb. 4).

Abb. 4: Fertiggestellt – die vollständige Node-Verbindung für den eigenen Highpass-Sharpen-Effekt

Node-Gruppierung Als Nächstes wird diese nun in eine Gruppe ausgelagert, hierfür müssen alle zu gruppierenden Nodes selektiert werden. Das scharf zu zeichnende Bild wird jedoch nicht selektiert, da sich dieses später variabel über einen Input Node initialisieren lässt. Um Nodes zu gruppieren müssen Sie diese auswählen und anschließend den Befehl „Edit > Node > Group > Collapse To Group“ ausführen; alternativ lässt sich das Tastenkürzel „cmd+G“ (Mac) beziehungsweise „Strg+G“ (Windows) verwenden. Beim Erstellen eines Group Nodes muss feststehen, welcher Node innerhalb der Gruppe den Ausgang dieser darstellen soll – dies geschieht durch die Wahl eines Nodes mit freiliegendem NodeAusgang. Sind mehrere freiliegende NodeAusgänge innerhalb der Gruppe vorhanden, so wird der Nutzer über ein Pop-up-Window gefragt, welcher Node als Ausgang des Group Nodes verwendet werden soll.

Abb. 5: Überblick – mit der Funktion „Split Horizontal“ lässt sich die Benutzeroberfläche unterteilen und beide Node-Verbindungen gleichzeitig anzeigen.

In unserem Beispiel dient der Matrix1 Node als Ausgang, daher wähle ich ihn im Dropdown-Menü aus. Alle Nodes werden daraufhin in eine Gruppe zusammengeführt und sind nun nicht mehr im Node Graph sichtbar. Um diese Nodes anzuzeigen, lässt sich eine Gruppe jederzeit öffnen. Hierfür trägt jeder Group Node in seinen Einstellungen innerhalb des Properties Bin eine kleine Schaltfläche mit der Aufschrift „S“; alternativ lässt sich die Node-Verbindung eines Group Nodes durch cmd+Enter (Mac) beziehungsweise Strg+Enter (Windows) öffnen. Um sowohl die Nodes des aktuellen Nuke-Skripts als auch die NodeVerbindungen innerhalb eines Group Nodes parallel anzuzeigen, lässt sich über den Befehl „Split Horizontal“ im Content-Menü die Benutzeroberfläche, in der sich der Node Graph befindet, horizontal teilen. Nun kann der Node Graph des Group Nodes per Dragand-drop in den rechten Bereich gezogen werden (Abb. 5).

33


FOKUS

FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

Abb. 6: Einstellungen – der Group Node zeigt werkseitig lediglich StandardKnobs, wie sie in allen anderen Nodes ebenfalls vorkommen.

Abb. 7: Individualisiert – das „Manage User Knobs“-Fenster bietet zahlreiche Möglichkeiten eigene Knobs zu erstellen, editieren und zu sortieren.

Beim Erstellen des Group Nodes hat Nuke im Node Graph der Gruppe zwei Nodes automatisch hinzugefügt – ein Input sowie einen Output Node. Beide sind notwendig, damit Nuke einen eindeutigen Ein- und Ausgang für den Group Node zuordnen kann. Der Input Node repräsentiert den Eingang des Group Nodes, während der Output Node den Ausgang widerspiegelt. Ein Group Node kann zudem weitere Inputs enthalten, diese lassen sich nachträglich über weitere Input Nodes hinzufügen. Ein Node kann jedoch nur einen Output besitzen. Durch das Umbenennen des Input Nodes in „src“ (für Source = Quelle) ändert sich auch die Beschriftung des Inputs des Group Nodes. Durch das Auslagern der Nodes in eine Gruppe sind diese nicht mehr im HauptNode-Graph sichtbar, von daher sind auch ihre Einstellungsmöglichkeiten über den Properties Bin nicht mehr erreichbar. Dies hat den Nachteil, dass sich Änderungen an diesen Nodes nur durch das direkte Arbeiten innerhalb der Gruppe erzielen lassen.

Knobs der Group Nodes

Abb. 8: Erstellt – per „Add“-Methode über die „Add“-Schaltfläche lassen sich zahlreiche eigene Knobs kreieren.

Abb. 9: Ausgewählt – per „Pick“-Methode über die „Pick“-Schaltfläche lassen sich Knobs von Nodes innerhalb der Gruppe auswählen.

34

Um dem entgegenzuwirken, können Sie die wichtigsten Knobs aller Nodes innerhalb der Gruppe für den schnelleren Zugriff direkt in der Einstellung der Group Node im Properties Bin ablegen. Diese Knobs sind daraufhin mit den Knobs innerhalb des Group Nodes verlinkt, wodurch Änderungen direkte Auswirkungen auf die Nodes innerhalb der Gruppe haben. Bei den Knobs des Group Nodes finden sich lediglich Standard-Knobs wieder, die auch Bestandteil jedes anderen Nodes sind und sich dort unter dem Tab „Node“ befinden. Dies sind Schaltflächen zum Einstellen des Labels, der Schriftart, Schriftgröße und Farbe (Abb. 6). Eigene Knobs lassen sich mithilfe des Eintrags „Manage User Knobs ...“ aus dem Menüfeld des Nodes hinzufügen. Dieses erscheint beim Rechtsklick im Properties Bin auf einem leeren Bereich des Group Nodes. Beim Betätigen kommt ein neues Fenster zum Vorschein, welches die Knobs des Nodes in einer Liste anzeigt, sowie Schaltflächen zum Hinzufügen, Editie-

SCIENCE & EDUCATION

SERVICE

ren, Löschen und Sortieren dieser (Abb. 7). Für die Knobs-Erstellung gibt es in Nuke zwei Möglichkeiten: Die Schaltfläche „Add“ zeigt eine Liste aller in Nuke zur Verfügung stehenden Knobs (Abb. 8). Auf diese Weise können Knobs grundlegend neu erstellt und mit den Knobs der Nodes innerhalb der Gruppe über eine Expression verknüpft werden. Die zweite Schaltfläche „Pick...“ zeigt ein weiteres Fenster, das alle Nodes innerhalb der Gruppe inklusive ihrer zugehörigen Knobs in einer Baumstruktur darstellt (Abb. 9). Für den ersten Gizmo konzentrieren wir uns zunächst auf die einfachere Methode „Pick“.

„Pick“-Methode Der Group Node enthält einige Knobs, die den Effekt und die Stärke der Scharfzeichnung bestimmen: Dies sind die Stärke des Blur1 Nodes zum Erstellen des HighpassFilters, die Deckkraft des Merge2 Nodes zum Überblenden des Highpass-Filters mit dem Original sowie die Effektstärke des Matrix1 Nodes für das nachträgliche Schärfen. Diese werden der Gruppe hinzugefügt. Im Fenster „Pick Knobs to Add“, welches über die Schaltfläche „Pick“ zu erreichen ist, wird von daher als erstes der Size Knob des Blur1 Nodes gewählt. Beim Aufklappen von Blur1 sieht man eine Unterstruktur, diese spiegelt die Tab-Struktur des Blur Nodes wider. Da ein Blur Node die zwei Tabs „Blur“ und „Node“ enthält, sind exakt diese beiden in der Unterstruktur enthalten. Ein weiterer Klick auf Blur zeigt alle Knobs, die im Blur Tab enthalten sind. Mit dem Anwählen von „Size“ und dem Bestätigen mit „OK“ wird der Size Knob des Blur1 Nodes der Gruppe hinzugefügt und automatisch verlinkt. Das Fenster „Pick Knobs to Add“ wird daraufhin selbstständig geschlossen und in dem Fenster zum Einstellen der Knobs werden zwei Elemente aufgelistet: Zum einen ein Element mit der Aufschrift „User“ und eines mit der Aufschrift „Size {Blur1.size}“ (Abb. 10). Alle selbst erstellten Knobs werden in dieser Knob-Liste aufgeführt. Diese werden im Properties Bin des Nodes automatisch in einem neuen Tab mit der Standardaufschrift „User“ abgelegt. Mit dem Anwählen dieses Eintrags und dem Klicken auf die Schaltfläche „Edit“ erscheint ein neues Fenster zum Editieren der Schaltfläche. Die Aufschrift wird von „User“ in „HighpassSharpen“ geändert. Zum Ändern des Namens stehen zwei unterschiedliche Elemente zur Verfügung: Der Bereich „Name“ repräsentiert den Namen des Knobs, der intern verwendet wird, um ihn über Python und Expressions adressieren zu können. Der Bereich „Label“ stellt die Aufschrift des Knobs dar, wie er in der Benutzeroberfläche erscheint. In diesem Beispiel ist eine Ver-

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

NUKE | GIZMO WORKSHOP

Abb. 1O: Individualisiert – der Group Node enthält nun den ersten eigens erstellten Knob, der mit dem Size Knob des internen Blur1 Nodes verknüpft ist.

wendung von „Highpass Sharpen“ in beiden Einträgen adäquat. Die KnobListe repräsentiert diese neuen Werte nun ebenfalls. Das „Label“ – also der Name, so wie er in der Benutzeroberfläche erscheint – steht in Klammern, während der interne Name rechts daneben auftaucht; gefolgt von dem Knob, auf welchen innerhalb des Group Nodes verlinkt wird (vgl. Abb. 12 linkes Fenster). Da die Aufschrift „Size“ des zweiten Knobs für den Benutzer wenig Aussagekraft besitzt, wird diese kurzerhand für die Benutzeroberfläche, also dem Label, in „Blur Size“ geändert. Durch die Methode „Pick ...“ ist der Blur Size Knob nun mit dem Size Knob des Blur1 Nodes innerhalb der Gruppe verlinkt. Beim Ändern einer dieser Knobs passt sich der andere Knob gleichzeitig an den gleichen Wert an (Abb. 11). Das Erstellen eigener Knobs in den Einstellungen des Group Nodes ermöglicht es, auf die Knobs innerhalb der Gruppe Einfluss zu nehmen, ohne in die Gruppe navigieren zu müssen. Die Einstellungen der wichtigsten Knobs lassen sich nun direkt über die Eigenschaften des Group Nodes vornehmen. Als Nächstes wird mit dem Bereitstellen des Mix Knobs von dem Merge2 Nodes die Deckkraft des Highpass-Sharpen-Effekts geregelt. Von daher wird dieser Knob ebenfalls über die Schaltfläche „Pick“ in der Baumstruktur der Gruppe aus „Merge2“ ausgewählt. Im Label erhält der Knob den aussagekräftigeren Namen „HighpassMix“ – dieser Knob ist nun mit dem Mix Knob des Merge2 Nodes innerhalb der Gruppe verknüpft. Als Letztes fehlt noch die Effektstärke des Matrix1 Nodes. Von daher wählen wir den Mix Knob des Matrix1 Nodes ebenfalls aus der Baumstruktur und geben ihm den

Abb. 11: Verknüpft – der Size Knob des Group Nodes ist nun mit dem Size Knob des Blur1 Nodes verbunden. Beim Ändern eines dieser Werte ändert sich der andere Wert automatisch.

Abb. 12: Komplettiert – der fertiggestellte eigene „HighpassSharpen“ Node mit all seinen Knobs

aussagekräftigeren Namen „PostSharpen“. Die Gruppe enthält nun drei Knobs: Die ersten beiden haben direkten Einfluss auf den Highpass-Sharpen-Effekt. Um diese vom Post Sharpen Knob visuell zu trennen, können Sie über den Befehl „Add“ das Element „Divider Line“ hinzufügen. Durch Auswählen dieses Elements in der Liste und dem Betätigen der „Up“- und „Down“-Schaltflächen lässt sich das „Divider Line“-Element zwischen dem Highpass Mix und dem Post Sharpen Knob positionieren. Im letzten Schritt wird der Group Node in „HighpassSharpen“ umbenannt und blau eingefärbt. Hierdurch ist die Gruppe vollständig und bereit für den Export (Abb. 12).

Group Node als Gizmo Gegenwärtig stellt der Group Node lediglich ein Node innerhalb des aktuellen NukeScripts dar. Um den Group Node mit anderen Nutzern zu teilen und in andere Nuke-Skripte zu integrieren, muss dieser in ein Gizmo konvertiert werden. Ein Gizmo entspricht einem Abbild der Gruppe mit all seinen aktuellen Werten, jedoch als eigenständige Datei mit der Dateiendung „gizmo“. Jeder Group Node

trägt im Tab „Node“ eine Schaltfläche mit der Aufschrift „Export as Gizmo...“. Beim Betätigen dieser Schaltfläche erscheint ein Dialog zum Auswählen des Namens und des Ortes auf der Festplatte. Der Gizmo wird zunächst als „HighpassSharpen.gizmo“ auf dem Desktop abgespeichert. Bereits jetzt kann dieser Gizmo in andere Nuke-Skripte über den Befehl „File > Insert Comp Nodes“ (Nuke 9), beziehungsweise „File > Import Script“ (Nuke 8) integriert werden. In Teil 3 des Workshops zeige ich Ihnen, wie er in die Benutzeroberfläche von Nuke integriert wird und in Teil 2 der nächsten DP-Ausgabe erkläre ich, wie Sie Ihr eigenes › mf „Glow“ Gizmo kreieren. Simon Jokuschies (www.leafpictures.de) studierte Informationstechnologie und Gestaltung an der Fachhochschule Lübeck sowie ein Auslandssemester Digital Media an der Auckland University of Technology in Neuseeland. Er arbeitet bei der nhb Video GmbH im Bereich der Postproduktion als Compositor/Compositing TD. Seine Schwerpunkte liegen in den Bereichen Compositing, 3D und Programmierung. Zudem ist er Gründer von Cragl – VFX Tools (www.cragl.com) sowie von pixiliti, dem Onlinenetzwerk für Medienstudenten und Kreative (www.pixiliti.de).

35


FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

Bilder: AgenZasBrothers

FOKUS

Prozedurale Steine in Blender Zu CG-Naturszenarien gehören natürlich auch CG-Steine. Da diese oft in großer Anzahl vorkommen und ein wahrer Zeitfresser sein können, erkläre ich Ihnen hier, wie man sie schneller und einfacher mit zahlreichen Variationen von Zacharias Reinhardt kreieren kann, indem man sie prozedural erstellt.

W

ir schauen uns in diesem Artikel einen kleinen Ausschnitt aus dem Blender-Video-Workshop „Movie Scene Creation in Blender 3D“ an, welcher voraussichtlich am 14. Dezember 2015 erscheint. Bei diesem Video-Training wird in circa 30 knackigen Video-Tutorials gezeigt, wie sich eine realistische Natur-Szene erstel-

len lässt (Abb. 2; mehr Informationen dazu unter: bit.ly/1KqOepX). In diesem Workshop beschäftigen wir uns mit prozedural generierten Steinen. Dabei formen wir ein simples Grundobjekt mithilfe von Modifiern so um, dass es wie ein Stein aussieht. Außerdem wird das Material für den Stein so eingestellt, dass es sich automatisch an die

Oberfläche anpasst. Zusammengefasst bedeutet das, dass wir nur einen Stein vorbereiten müssen und aus diesem dann in wenigen Sekunden viele Variationen erzeugen können. Bis auf das Einstellen der Modifier und des Materials lässt sich dabei die manuelle Arbeit am eigentlichen Modell fast komplett einsparen.

Pro & Contra der prozeduralen Arbeitsweise

Abb. 2: Beispielszene aus dem Workshop „Movie Scene Creation in Blender 3D“

36

„Prozedural“ bedeutet in diesem Fall, dass wir möglichst wenig manuell bearbeiten müssen und möglichst viel automatisch von Blender berechnet wird. Das ist auch schon einer der größten Vorteile, welcher gleichzeitig mit viel Zeitersparnis einhergeht. Stellen Sie sich vor, Sie würden für eine aufwendige 3D-Szene die Steine komplett manuell erstellen – also das Modeling, UV-Mapping oder Texture Painting machen. Das würde für einen hochauflösenden Stein schon einiges an Zeit in Anspruch nehmen, umso mehr für viele Variationen dieser Steine. Weitere Vorteile der prozeduralen Arbeitsweise sind, dass man flexibel bleibt und sich mit wenigen Einstellungen das Aussehen des Steins komplett

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

BLENDER | PROZEDURALE STEINE

Abb. 3: Die benötigten Dinge für einen prozeduralen Stein

verändern lässt. Zusätzlich können wir aufgrund der Verwendung von Modifiern auch den Detailgrad der Steine jederzeit verringern oder erhöhen. Genauso lässt sich auch das Material beliebig anpassen, damit die Steine nicht nur in der Form, sondern auch in der Farbe variieren. Der Nachteil des prozeduralen Arbeitens ist, dass man nur begrenzt Kontrolle über das genaue Aussehen der Steine hat – es lässt sich also nicht genau bestimmen, wo zum Beispiel Kerben oder Heraushebungen auf der Oberfläche platziert werden. So ist das manuelle Erstellen von Objekten eher für individuelle Gegenstände mit ganz bestimmten Formen nützlich, das prozedurale Arbeiten dagegen für Objekte, bei denen die Form zwar gut aussehen soll, aber eine doch eher nebensächliche Rolle spielt.

Zutaten für einen prozeduralen Stein Bei diesem Stein wird nicht alles automatisch generiert; ein paar Zutaten brauchen

Abb. 4: Modifier erzeugen die Form, die der Stein am Ende haben soll.

wir trotzdem noch. Dazu gehört: eine „Icosphere“ als Grundobjekt, eine nahtlose Steinund Moostextur sowie „Bevel“, „Subdivision Surface“ und „Displace Modifier“ (Abb. 3). Falls Sie die Texturen nicht zur Hand haben, unter folgendem Link können die Projektdateien heruntergeladen werden: bit.ly/1LLruRo.

Steinform erzeugen Fügen Sie als Erstes über „Shift + A - Mesh“ eine „Icosphere“ als Grundobjekt hinzu. Diese lässt sich im „Edit Mode“ mit der Aktivierung von „Proportional Editing“ („O“) leicht verformen, damit es keine perfekte Kugel mehr ist (Abb. 4 A). Damit der Stein scharfe Kanten hat, fügen wir über den „PropertiesEditor > Modifier“ den „Bevel Modifier“ hinzu, welcher bestimmte Kanten abschrägt. Stellen Sie unter „Limit Method“ auf „Angle“ und ändern Sie unter „Angle“ den Winkel nach Ihrem Belieben, sodass nicht alle, sondern nur ein paar der Kanten abgeschrägt

Abb. 5: Der „Displace Modifier“ wird mit einer prozeduralen Textur gespeist, welche die unebenen Strukturen auf der Steinoberfläche erzeugen.

werden. Außerdem lässt sich der „Width“Wert anpassen, wodurch die abgeschrägten Kanten schmaler beziehungsweise breiter werden (Abb. 4 B). Fügen Sie nun einen „Subdivision Surface Modifier“ hinzu und setzen Sie die Unterteilungen für „View“ und „Render“ auf 5. Dadurch wird das Objekt etwas abgerundet und sehr hoch unterteilt (Abb. 4 C). Der Vorteil gegenüber einer direkten Unterteilung im „Edit Mode“ ist, dass wir diesen Modifier jederzeit deaktivieren oder auch in der Anzahl der Unterteilungen herunterschrauben können. Das kann beispielsweise genutzt werden, um die Auflösung von Steinen im Hintergrund herunterzuschrauben, oder die hohe Auflösung nur für das Rendern zu aktivieren und für den Viewport auszuschalten. So bleibt das flüssige Arbeiten im 3D-View gewährleistet. Fügen Sie als Nächstes den „Displace Modifier“ hinzu – dieser wird den Rest der Magie erzeugen, indem er die Oberfläche anhand einer prozeduralen Textur verformt.

Abb. 6: Fehlerbehebung – Mit einem Workaround lassen sich Displace-Fehler auf der Steinoberfläche umgehen.

37


FOKUS

FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

großen Details der Steinoberfläche erzeugen. Stellen Sie hier die „Strength“ runter auf circa 0,2, da die Verformung sonst zu stark ausgeprägt sein wird (Abb. 5 B). Klicken Sie jetzt auf den Button außen rechts neben dem Texturnamen („Show texture in texture tab“), wodurch wir zu den Textur-Einstellungen gelangen Abb. 7: Shading – Eine nahtlose Steintextur erzeugt die Grundfarbe auf dem Stein. (Abb. 5 C). Unter „Type“ kann jetzt Dabei bewirken die hellen Bereiche auf der eine Textur ausgewählt werden – wählen Sie Textur Heraushebungen auf der Steinober- die prozedural generierte Textur „Clouds“ aus fläche und die dunklen Bereiche werden (Abb. 5 D). Prozedural bedeutet hier, dass hineingedrückt. Es sei vorweg gesagt, dass diese Textur anhand von mathematischen dieser Modifier in der Standardeinstellung Formeln generiert wird. Der Vorteil ist: Wir sehr wahrscheinlich ein fehlerhaftes Ergeb- sind nicht auf eine Auflösung beschränkt, nis erzeugt (Abb. 4 D), aber keine Sorge – außerdem ist diese Textur automatisch ein kleiner Workaround sorgt später dafür, nahtlos. Diese „Clouds“-Textur erzeugt ein diesen Darstellungsfehler zu umgehen. rauschendes Schwarz-Weiß-Wolkenmuster. „Displace Modifier“ einstellen: Klicken Zusätzlich erhalten wir unten ein paar EinSie bei den „Displace Modifier“-Einstel- stellungen, um diese Textur etwas anzupaslungen unter „Texture“ auf „New“. Benennen sen – durch die Veränderung dieser Textur Sie die neu erzeugte Textur sinnvoll um – wird sich automatisch das Displacement auf beispielsweise in „Displace groß“ (Abb. 5 A). dem Stein verändern. Wie vorher bereits geMit dieser Textur werden wir nämlich die sagt: Weiß wird herausgehoben und Schwarz

SCIENCE & EDUCATION

SERVICE

hineingedrückt. Stellen Sie als Erstes unter „Clouds > Noise“ auf „Hard“ – dadurch wirken die Übergänge der Textur härter, wodurch auch scharfe Kanten auf dem Stein entstehen, was erwünscht ist. Danach können Sie unter „Clouds > Basis“ zwischen verschiedenen Rauschmuster-Algorithmen wählen. Die Namen dieser Algorithmen sind für die meisten Leute vermutlich nichtssagend, darum heißt es: Alle mal durchklicken und oben unter „Preview“ und im „3D View“ auf dem Stein die verschiedenen Resultate begutachten. Hier hat mir „Voronoi F2-F1“ sehr gut gefallen, weshalb ich diesen gewählt habe, Sie können aber auch andere verwenden, wenn Ihnen diese besser gefallen. Als Nächstes legen wir unter „Clouds > Size“ die Mustergröße der Textur fest. Stellen Sie hier den Wert etwas höher, zum Beispiel auf 1,5. Setzen Sie auch die „Depth“ der Textur auf 3, wodurch die Auflösung beziehungsweise der Detailgrad der Textur erhöht wird (Abb. 5 E). Als Letztes können wir unter „Colors“ die „Ramp“ aktivieren, wodurch ein Farbverlauf angezeigt wird. Mithilfe der beiden Handles (Steuerelemente, um den Verlauf anzupassen) im Verlauf können Sie jetzt den Kontrast zwischen Schwarz und Weiß einstellen. Wenn Sie zum Beispiel das Schwarz weiter zur Mitte schieben, erhalten Sie größere schwarze Flächen, wodurch die Einkerbungen auf dem Stein größer werden. Das Ergebnis sehen Sie im „Preview“-Panel. Je nachdem welchen Handle Sie selektiert haben, lässt sich darunter auch die Farbe und die Helligkeit anpassen (auf die Farbfläche klicken). Wenn Sie beispielsweise den weißen Handle etwas grauer einstellen (also dunkler machen), wird die Oberfläche flacher; das Gleiche funktioniert umgekehrt auch mit dem schwarzen Handle. So lässt sich mit dieser „Ramp“ die Verformung der Oberfläche relativ genau steuern (Abb. 5 F).

Darstellungsfehler beheben

Abb. 8: Shading – Eine einfache Specular Map wird aus der Steintextur generiert.

Mit großer Wahrscheinlichkeit entstehen jetzt irgendwo auf der Oberfläche fehlerhafte Überlappungen der Geometrie (Abb. 4 D). Das liegt daran, dass bei dem „Displace Modifier“ unter „Direction“ auf „Normal“ eingestellt ist. Dadurch wird die Verformung der Oberfläche in die Richtungen der Normalen der Faces verschoben, sozusagen in alle Richtungen gleichzeitig. So kann es passieren, dass es bei starken Verformungen an dicht aneinander liegenden Bereichen zu Überlappungen kommt. Um das zu umgehen, duplizieren Sie den „Displace Modifier“ für die großen Details über die „Copy“-Schaltfläche so oft, dass dieser Modifier insgesamt sechs Mal vorhanden ist (Abb. 6 A). Jetzt werden wir die-

Abb. 9: Shading – Eine einfache Bump Map wird ebenfalls aus der Steintextur generiert.

38

WWW.DIGITALPRODUCTION.COM


BLENDER | PROZEDURALE STEINE

sen Modifiern jeweils eine andere Richtung zuweisen, in welche das Displacement verschoben werden soll. Für eine besser Übersicht benennen Sie die Modifier von oben nach unten in „+x“, „+y“, „+z“, „-x“, „-y“ und „-z“ um. Stellen Sie für jeden Modifier unter „Direction“ die jeweilige Achse ein und setzen Sie für die negativen Richtungen die „Strength“ auf -0,2 (Abb. 6 B). Durch diesen Workaround decken wir so fast alle Richtungen Abb. 1O: Anhand der Normalen lässt sich Moos oben auf dem Stein darstellen. ab, ähnlich wie bei der „Normal“-Einstellung. Das Displacement wird dabei aber nacheinander für jede Richtung berechnet und nicht gleichzeitig, so entstehen keine Fehler mehr. Verschieben Sie den „Displace Modifier“ für die kleinen Details in der Liste ganz nach unten (mithilfe der kleinen weißen Pfeile). Damit dieser Modifier auch keine Fehler verursacht, stellen Sie unter „Direction“ auf „RGB to XYZ“, wodurch das Displacement entlang der drei Farbkanäle der Displace-TexAbb. 11: Mit einem Verlauf wird auch an der unteren Seite Moos erzeugt. tur verschoben wird (Abb. 6 C). Das bringt bei starken Verschiebungen zwar kein akku- mehrere Teilbereiche gliedern, aus denen rates Ergebnis – da es sich hier jedoch nur dieser zusammengesetzt ist. Wir verwenden um minimale Verformungen handelt, ist hier die Cycles Render Engine, welche über diese Einstellung ausreichend (und fehler- den „Info Editor“ aktiviert werden kann. Alle freier als „Normal“). Natürlich können Sie Materialeinstellungen nehmen wir im „Node auch diesen Modifier wieder sechs Mal dupli- Editor“ vor. Dort können die Nodes mit „Shift zieren und die gleichen Einstellungen wie für + A“ hinzugefügt werden. Grundkenntnisse die großen Displacements verwenden. Fertig im Umgang mit Cycles werden hier vorausgesetzt. ist die Form des Steins (Abb. 6 D). Steintextur: Selektieren Sie den Stein und fügen Sie ein neues Material hinzu – daShading bei kommt automatisch der „Diffuse Shader“ Nun werden wir den Shader für den Stein (für die Farbe) und der Material Output Node erstellen, welcher sich automatisch an die hinzu. Fügen Sie jetzt den Image Texture Oberfläche anpasst. Dieser Shader wird Node, den Mapping Node und den Texture nur ordentlich funktionieren, wenn die Un- Coordinate Node hinzu und verbinden Sie terteilung („Subsurf Modifier“) der Steine diese wie in Abbildung 7. Fügen Sie über möglichst hoch eingestellt ist. Zum besse- den „Image Texture Node > Open“ die nahtren Verständnis werden wir den Shader in lose Steintextur hinzu. Stellen Sie von „Flat“

39

Anzeige

AUSGABE O1:2O16


FOKUS

FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

Textur immer im richtigen Seitenverhältnis und der gleichen Größe dargestellt und aneinander gekachelt, egal wie groß das Objekt skaliert ist. Dadurch, dass diese Textur nahtlos ist, sieht man keinen Übergang der gekachelten Texturen. Über den „Mapping Node > Scale“ lässt sich die Größe der Textur für die drei Achsen (x, y und z) anpassen (Abb. 7 C). Je größer der Wert, desto kleiner die TexAbb. 12: Mit der „Pointness“-Einstellung lassen sich abgenutzte Kanten kreieren. tur auf der Oberfläche (Abb. 7 D). Specular Map: Für eine einfache Specular Map (Glanzlicht-Textur) fügen Sie einen „Mix Shader“, einen „Glossy Shader“ (für Spiegelung respektive Glanzlichter) und einen ColorRamp Node hinzu und verbinden diese wie in Abbildung 8 Abb. 13: Variation – Durch einfaches Verformen der Grundform kann ein komplett (rot markiert). Stellen anderer Stein erzeugt werden. Sie die „Roughness“ des „Glossy Shaders“ etwas höher, zum Beispiel auf 0,4, damit die Spiegelung wesentlich weicher erscheint, da ein Stein meist eine sehr matte Oberfläche besitzt (Abb. 8 A). Die „ColorRamp“ verwendet die Steintextur als Eingang, wandelt diese in ein SchwarzWeiß-Bild um (Abb. 8 B) und verwendet diese Informationen als Mischfaktor (Mix Shader) für den „Diffuse“ und den „Glossy Shader“ (Abb. 8 C). Das Abb. 14: Variation – Durch einfaches Transformieren und Übernehmen der neuen bedeutet, dass auf alTransformation lassen sich in Sekunden Steinvariationen erzeugen. len dunklen Bereichen dieser Textur der Stein auf „Box“ und setzen Sie den „Blend“-Wert und auf allen hellen Bereichen das Glanzlicht auf 1 (Abb. 7 A). Dadurch wird die Textur dargestellt wird. Über die Handles der Colorwie ein Würfel von sechs Seiten auf das Ob- Ramp können Sie die Intensität der Spiegelung jekt projiziert. Durch den Blend-Wert wer- steuern (Abb. 8 D). den die Bereiche weich überblendet, an Bump Map: Für eine einfache Bump Map denen eigentlich Nähte zu sehen sein wür- fügen Sie den Bump Node hinzu und verden. Aufgrund der „Object“-Einstellung des binden Sie diesen wie in Abbildung 9 A (rot Texture Coordinate Node (Abb. 7 B) wird die markiert). Auch dieser verwendet wieder

40

SCIENCE & EDUCATION

SERVICE

die Helligkeitsinformationen der Steintextur, was bedeutet: Dunkle Bereiche wirken wie Einkerbungen und helle wie Heraushebungen (Abb. 9 B). Über die „Strength“ lässt sich die Stärke steuern. Der Bump Node muss mit allen Shadern über den „Normal“Eingang verbunden sein, auf welche sich diese auswirken soll. Moostextur von oben: Für die Moostextur fügen Sie dieselben Nodes wie auch für die Steintextur hinzu; laden Sie die Moostextur und nehmen Sie dort dieselben Einstellungen vor (Abb. 10 A, rot markiert). Vermischen Sie beide Texturen mit einem MixRGB Node und verbinden Sie den MixRGB-Node-Ausgang mit den Eingängen, mit denen zuvor die Steintextur verbunden war (Abb. 10 B). Jetzt bestimmen wir über eine Mix-Textur, dass das Moos immer oben auf dem Stein dargestellt werden soll. Fügen Sie dazu einen Normal Map Node, einen Separate RGB Node und einen ColorRamp Node hinzu und verbinden Sie diese wie in Abbildung 10 C (rot markiert). Letztendlich wird hier wieder eine SchwarzWeiß-Textur erzeugt, wobei auf den weißen Bereichen die Moostextur und auf den schwarzen die Steintextur dargestellt wird (Abb. 10 D). Bei dem Normal Map Node werden unterschiedliche Farben aus verschiedenen Richtungen auf das Objekt projiziert, dabei ist es von oben die blaue Farbe. Mit dem Seperate RGB Node trennen wir diese Farben voneinander und verwenden mit „B“ nur den blauen Kanal. Über die „ColorRamp“ wird dieser in Schwarz-Weiß umgewandelt und kann außerdem wieder feinjustiert werden – also wie viel Moos wir auf der Oberfläche haben sollen. Moostextur von unten: Da die Steine auf dem Boden liegen, können sie auch von unten mit Moos bewachsen sein. Damit das Moos von unten nach oben abnimmt, werden wir mithilfe eines Verlaufes das Moos, je höher es wächst, langsam ausblenden. Fügen Sie dazu einen Mapping Node, einen Gradient Texture Node, einen ColorRamp Node und einen weiteren MixRGB Node hinzu und verbinden Sie diese wie in Abbildung 11 (rot markiert). Sie können eine andere Moostextur verwenden oder einfach wie in diesem Beispiel dieselbe Moostextur mithilfe eines RGB Curves Nodes farblich etwas abwandeln (in diesem Fall etwas dunkler machen; Abb. 11 A). Mithilfe des Gradient Texture Nodes wird ein Verlauf auf den Stein gelegt, dieser hat jedoch noch eine falsche Ausrichtung (Abb. 11 B). Damit dieser von unten nach oben verläuft, ändern Sie bei dem damit verbundenen Mapping Node die „Rotation“ für „Y“ auf -90 Grad. Über die „Location > X“ kann diese auch noch weiter nach oben beziehungsweise nach unten verschoben werden (Abb. 11 C). Über die ColorRamp

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

BLENDER | PROZEDURALE STEINE

Anzeige

lässt sich der Verlauf wieder feinjustieren (Abb. 11 D). Dieser Verlauf wird jetzt als Mischwert über den MixRGB Node (Abb. 11 E) verwendet, um Moos und Stein zu vermischen (Abb. 11 F). Kanten hervorheben: Wie man auf dem Abb. 15: Rechenleistung – Mit ein paar kleinen Tricks kann man Rechenleistung sparen, da die Steine sehr hoch aufgelöst sind. Foto in Abbildung 12 A sehen kann, sind So können Sie beispielsweise für flüssiges Steine an den scharfen Kanten etwas abge- Variationen erzeugen Arbeiten im 3D-View unter „Viewport“ die nutzt, da sie an diesen Kanten am ehesten gegen andere Objekte stoßen. Diesen Effekt Jetzt haben wir einen fertigen Stein, aus Unterteilungen für die Echtzeitdarstellung werden wir jetzt an unserem digitalen Stein welchem sich zukünftig beliebig viele Va- herunterschrauben, jedoch die Unterteierzeugen. Auch hierfür muss das Objekt riationen erzeugen lassen. Diese erzielen lungen für „Render“ hoch eingestellt lassen, entsprechend hoch unterteilt sein, da die- Sie, indem Sie entweder im „Edit Mode“ die sodass die hohen Unterteilungen nur für das › mf ser Effekt anhand der Vertices des Objekts Form des Grundkörpers verändern (Abb. 13) Rendering berechnet werden. generiert wird. Fügen Sie also als Letztes oder den Stein im „Objekt Mode“ beliebig einen Geometry Node, einen ColorRamp rotieren und skalieren (Abb. 14 A). Dabei Links Node und einen weiteren MixRGB Node werden die Texturen im ersten Moment mit „Movie Scene Creation in Blender 3D“ hinzu und verbinden Sie diese wie in Ab- rotiert (das heißt, das Moos ist dann eveni bit.ly/1KqOepX bildung 12 (rot markiert). Der „Pointness“- tuell nicht mehr oben und unten). Damit die Ausgang des Geometry Nodes sucht die Oberfläche variiert und die Texturen wieder Projektdateien „Texturen“ scharfen beziehungsweise eng aneinander an den richtigen Positionen sind, müssen i bit.ly/1LLruRo liegenden Kanten der Oberfläche (Abb. Sie die Rotation und die Skalierung über „Strg 12 B) und mithilfe der ColorRamp können + A > Rotation & Scale“ anwenden (Abb. die se farblich markiert werden. Schie- 14 B). Dadurch bleibt ben Sie dafür die Handels der Ramp ganz der Stein in der neuen eng in der Mitte zusammen (Abb. 12 C). Transformation, die loDiese Schwarz-Weiß-Textur (Abb. 12 D) kalen Achsen werden wird nun wieder als Mischwert über den jedoch auf das globale MixRGB Node angewendet, um die Stein- Koordinatensystem anund Moos-Texturen mit einer beliebigen gepasst und so auch die Farbe zu vermischen. Sie können die unte- Texturen wieder korrekt re Farbe des MixRGB Nodes anpassen, um dargestellt. So lassen die Kantenfarbe zu bestimmen (Abb. 12 E). sich in Sekunden viele Variationen erzeugen Fertig ist das Steinmaterial! Dieses kann natürlich nach Belieben an- (Abb. 14 C). gepasst und verändert werden. Auch wenn Sie die Geometrie des Objekts verändern, Rechenleistung passt sich das Material an die neue Ober- einsparen fläche an. Da die Steine sehr hoch Zacharias Reinhardt (agenzasbrothers. aufgelöst sind, komcom) ist 3D-Artist, Co-Gründer der Agenmen normale Rechner ZasBrothers und zertifizierter BlenderTrainer. Seit über 1O Jahren arbeitet er schon bei wenigen Dubereits im Bereich Film & 3D. Ende 2O1O plikaten ins Stocken. begann er, regelmäßig Tutorials über Um dem entgegenzuBlender kostenlos auf Youtube zu veröffentlichen. Diese haben ihm und seiner wirken, stellen Sie den Firma im Internet schnell eine breite Zahl „Subsurf Modifier“ für von Anhängern beschert (derzeit circa Steine, die im Hinter17.OOO Abonnenten auf Youtube). Was einst als Hobby angefangen hatte, ist nun grund liegen, einige fester Bestandteil seines Berufslebens. Unter teilungsstufen Neben den kostenlosen Tutorials verkauft herunter (Abb. 15 A). er auch kommerzielle Blender-VideoWorkshops und bietet Blender-Seminare Außerdem finden Sie für kleinere Gruppen und persönliches im „Properties-Editor Blender-Training an. Auf Facebook leitet > Scene“ die Option er eine offene Lerngruppe zum Thema CGI namens „Weekly CG Challenge“ (on. „Simplify“; hier lassen fb.me/1Io6Eqw). In seiner Firma setzt er sich die Subdivisions der unter anderem Blender für kommerzielle „Subsurf Modifier“ gloKundenprojekte wie 3D-Animationen, TV- und Kinospots oder Imagefilme ein. bal steuern (Abb. 15 B).

41


FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

Bilder: Christian Schweger

FOKUS

Wasser marsch!

Neben meinem täglichen Job in einer Festanstellung als 3D-Artist kreiere ich zum kreativen Ausgleich Stills, mit denen ich regelmäßig beim animago AWARD teilnehme. Wenn Sie wissen wollen, wie ich auf die Ideen für meine CG-Bilder komme ... hier die Details. von Christian Schweger

Der finale „Fire Hydrant “Wassermarsch” Hellyeah Bot“

O

ft werde ich gefragt, wenn Leute meine Bilder sehen, wie ich auf diese Ideen komme – vor allem weil sie immer etwas Abgefahrenes oder leicht Beklopptes haben. Die Antwort ist: Ich baue gerne außergewöhnliche Dinge, die mir einen Ausgleich zu meiner beruflichen Tätigkeit als 3D-Artist bei der Milano Medien GmbH (www.milanomedien.com) bieten. Nichts gegen eine wunderschön ausgeleuchtete Architekturansicht oder ein schön in Pose gestelltes CG-Auto, das aussehen kann wie ein Foto – aber als Hobby-Projekt finde ich ein Bild wie den Feuerhydranten-Roboter

42

spannender. Der Name „Fire Hydrant “Wassermarsch” Hellyeah Bot“ entstand übrigens erst, als das Projekt fertig war. Eigentlich ist es bei fast allen meinen privaten Still-Arbeiten so, dass ich am Anfang keine richtige Grundidee oder konkrete Vorstellung habe, was am Ende entstehen wird. Meistens sehe ich irgendetwas, das mich inspiriert, oder denke mir etwas Eigenes aus. Oft ist dies zunächst nur ein kleines Detail oder eine bestimmte Form; danach überlege ich mir erst, wie ich es in meinem Modeling-Tool – in meinem Fall „Moment of Inspiration“ (MoI; moi3d.com) – umsetzen könnte.

Von der Wasserspritze zum Roboter Auch bei „Fire Hydrant “Wassermarsch” Hellyeah Bot“ bin ich so vorgegangen: Im ersten Schritt habe ich einfach mal aus Lust und Laune eine Feuerwehr-Wasserspritze in MoI gezeichnet. Als ich diese fertig modelliert hatte, stand grob meine Grundidee, dass daraus ein Roboter werden wird, der aus Feuerwehrzubehörteilen besteht. Meine Arbeiten „eskalieren“ übrigens gerne mal in so einem Ergebnis: ich baue oft Fahrzeuge oder Roboter aus fahrzeug- und roboter-

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

fremden Dingen auf. In diesem Fall habe ich die Feuerwehrteile wie den Verteiler, die Spritzen, die Schläuche und Hebel Stück für Stück nachgebaut. Da die Feuerwehrteile sich stark ähneln und von der Form her schwer wirken, musste ich einen Ausgleich in die Gesamtkomposition bringen. Also legte ich aus leichten, geschwungenen Formen die Gelenke an, die rein aus meiner Fantasie erwachsen sind und in erster Linie als Gerüst und Mechanik dienen. Die Mechanik des Roboters wird natürlich mit Wasserdruck betrieben. Da ich bei der Milano Medien GmbH beruflich im Automotive-Bereich arbeite, fällt mir die Gestaltung von maschinenähnlichen Bauteilen nicht so schwer. Daher ist mir aber auch die Mechanik bei meinen Maschinen immer sehr wichtig: Sie muss zumindest suggerieren, dass sie funktionieren könnte – auch wenn sich jeder Ingenieur vermutlich beim Anblick die Schläfen massieren würde. So entstanden im Modeling schließlich Stück für Stück alle Teile, die ich

OCTANE | MOI

Daher dauert es im Allgemeinen inzwischen nicht mehr allzu lange, bis die Bilder fertig sind: Circa drei bis fünf Abende arbeite ich in der Regel am Modeling, für das Shading brauche ich dann noch einen weiteren Abend. Nach einem kurzen Test-Arrangement in MoI exportiere ich mit dem wunderbaren MoIExporter die modellierten Einzelteile, optimalerweise mit N-Gon-Tesselierung. Ich gebe die Dateien im .obj-Format aus – der Vorteil davon ist, dass die saubere Normalausrichtung in Cinema 4D perfekt erhalten bleibt. Außerdem lässt sich die Tesselierung beim Export frei bestimmen – egal ob das Modell jetzt nur für eine Full-HD-Anwendung oder für „Din A0+“-Blow-ups bestimmt sein soll. In C4D sortiere und instanziiere ich dann die Objekte und ergänze vielleicht noch ein paar Sachen direkt in dem Maxon-Tool – wie in diesem Fall beispielsweise die Schläuche. So etwas macht in einem Polygon-ModelingTool mehr Sinn. Hier arrangiere ich auch das finale Gesamtkonstrukt. Die Basistexturen

Modeling Meine 3D-Modelle, beziehungsweise die Einzelteile der Figuren, entstehen hauptsächlich in MoI. „Moment of Inspiration“ ist ein Nurb-basiertes Modeling-Tool, welches leicht zu erlernen ist. In MoI kann man schnell außergewöhnliche Formen erzeugen – Formen, die sich mit klassischem Polygon-Modeling in polygonbasierten Tools mit enorm eingeschränkten Nurbs-Funktionen nicht so einfach erstellen lassen. Besonders die Hardsurface-Maschinenteile gehen mit dieser Methode leichter von der Hand. Wer „CAD-Kaventsmänner“ wie zum Beispiel Solidworks, Inventor oder Catia kennt, weiß, wie lange es braucht, diese zu erlernen. Falls Sie aus der Polygon-Modeling-Ecke kommen – ich habe zuvor mit 3ds Max und C4D gearbeitet – und nicht die Zeit haben, sich mit diesen „echten CAD-Tools“ zu beschäftigen, aber trotzdem auf die Möglichkeiten dieser Tools nicht verzichten wollen,

Detail aus der TurntableAnimation des 3D-Modells

benötigte. Als Referenz dienten mir Bilder von gegoogelten Feuerwehrzubehörteilen. Ich war nie bei der Feuerwehr und habe nur ein Halbwissen, was die Geräte angeht. Daran hat sich auch nach der Recherche nichts geändert, aber für ein paar schöne Assets hat es gereicht.

Pipeline und Projektablauf Wenn erst einmal die Grundidee steht, ist meine Motivation immer sehr groß die Projekte zu finalisieren, weil ich selber gespannt bin, wie das fertige Modell aussehen wird.

und das Shading habe ich ebenfalls in C4D erzeugt.

Workflow im Detail Die Bildkomposition besteht immer aus einem Kompromiss: auch bei einem unförmigen oder sperrigen Gebilde ist es wichtig, viel davon zu zeigen und gleichzeitig doch spannend zu bleiben. Wegen der schwer zu erfassenden Form des Fire Hydrant Bots musste ein ruhiger Hintergrund her, deshalb entschied ich mich für eine simple Hohlkehlen-Studio-Szene.

dann kann ich Ihnen MoI wärmstens empfehlen. Es lässt sich etwas mit Rhino – nur in noch einfacher – vergleichen. Ich habe MoI circa 2010 entdeckt und mich gleich verknallt: diese pfiffige Art des Tools an Sachen ranzugehen, hat mir neue Modeling-Wege aufgezeigt. Man muss zwar auch etwas umdenken – Poly-by-Poly-Modeling oder BoxModeling ist halt schon eine ganz andere Nummer. Aber auch beim Poly-Modeling in C4D hat bei mir durch die Modeling-Art von MoI ein Umdenken stattgefunden. Man kann in MoI zum Beispiel ohne Bedenken boolesche Operationen durchführen, nach Belie-

43


FOKUS

FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

Links die Grundlinien, rechts das fertige Gerüst

Die einzelnen Modeling-Schritte in dem „Moment of Inspiration“-Tool

Für den roten Lack des Roboters kam ein invertierter Dirt Shader zum Einsatz.

ben und ohne jeglichen Qualitätsverlust im Modell herumschneiden sowie Solids addieren, subtrahieren und fasen. Beispiele für die in MoI zur Verfügung stehenden Funktionen sind Loft, Sweep, Shell, Extrude, Network, Blend und vieles mehr. Mit diesen Features lassen sich viele modelliertechnische Probleme lösen und man erhält zahlreiche komplexe Teile in kurzer Zeit. Beim Modellieren mit CAD-Programmen gibt es einen Stolperstein, der bei vielen Usern, die CAD-Tools eigentlich gerne in ihre Pipeline einbauen würden, als Ausschlusskriterium gilt: Es lässt sich kein Quad-Poly-Mesh mit schönen Mesh Loops

44

exportieren und so kann man selten brauchbare UV-Maps erzeugen – außer man „retopologiert“ das exportierte Mesh, was aber wieder mit viel Arbeit verbunden ist. Eine vollautomatische Lösung funktioniert bei so exakten Formen nicht wirklich. Mit meinem aus MoI exportierten N-Gon Mesh kann ich ganz gut leben, denn für mich sind die UVs eher semiwichtig, da ich alles, was ich brauche, mit Würfel-, Flächen- oder Prozedural-Mapping lösen kann. Nach meiner Erfahrung kommt es beim Modeling bei äußerst komplexen Objekten stark auf die Reihenfolge an sowie darauf, wie sauber man arbeitet: Beim Fasen, also dem Abrun-

den der Kanten, kann sonst am Anfang eines Projektes schon sehr schnell Feierabend sein. Wer in MoI reinschaut, denkt zuerst: „Das hat aber viele Limitationen, da geht ja fast gar nichts.“ Aber wer länger am Ball bleibt, der wird hinterher genau das Gegenteil sagen: „Da geht ja fast alles“.

Shading und Rendering Meine Shader haben meistens nur wenige Texturen, da viel an meinen Modellen aus Lack und Metall besteht – ein bisschen Noise und Kratzer für den Glossy- und Bump-Kanal sind aber schon wichtig. Und natürlich die

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

OCTANE | MOI

Christian Schweger ist es wichtig, dass die Mechanik seiner Modelle suggeriert, dass sie funktionieren könnte.

kleinen Beschriftungen. Beim eigentlichen Shading kommt das erste Mal der OctaneRenderer ins Spiel, denn für die Abnutzungseffekte bei den Lack-Materialen muss ich mit dem Octane-Mix-Material arbeiten. Bei dem roten Hauptlack beispielsweise habe ich mithilfe des Mix-Materials zuerst den Basislack aus einem matten (viel Rauheit) und einem blanken (wenig Rauheit) Shader gemischt, was einen schönen Lack ergab, der hart reflektiert, aber weich ausläuft. Nun zu den Abnutzungseffekten: Hier habe ich einen metallenen Shader verwendet, beispielsweise mattes Chrome ist geeignet, und diesen erst einmal mit meinem Basislack gemischt. Bei Octanes Mix-Material gibt es die Möglichkeit, die Mischung auch über einen Kanal-Slot, also per Material, zu steuern. Dies muss man sich dann wie eine Maske vorstellen: Wenn man hier einen invertierten Dirt Shader (AO) einsetzt, wird der metallene Shader von dem Basislack durch eine Art negatives Ambient Occlusion abmaskiert, sodass an den Kanten der Teile das Metall durchschimmern kann. Danach noch ein paar Turbulenzen zum Dirt multipliziert – und der Abnutzungseffekt ist nicht mehr so gleichmäßig und sieht natürlicher aus. Auf diese Art sind viele Shader des „Fire Hydrant “Wassermarsch” Hellyeah Bots“ entstanden. Die Kamera habe ich so gesetzt, dass man möglichst alle Einzelteile des Modells sehen kann. Die Spannung leidet darunter vielleicht etwas, aber ich will ja auch zeigen, was ich gebaut habe. Die Hohlkehlen-Szene habe ich mit drei Flächenlichtern und einer HDRI beleuchtet – etwas Blau von oben und etwas Gelb von vorne, um ein Feuer zu suggerieren. Bei Octane, so wie bei vielen anderen Renderern auch, muss man ein wenig darauf achten, dass man es mit der Leuchtkraft der Lichter und den Gammaeinstellungen am HDRI nicht übertreibt. Sonst könnten fiese Fireflies oder Hotspots generiert werden und das Bild benötigt möglicherweise längere Renderzeiten, um noisefrei zu werden.

Der Kopf des Roboters, gemodelt in „Moment of Inspiration“.

MoI-Exporter: Die Einzelteile des Roboters exportierte der Artist mit einer N-Gon-Tesselierung.

Octanes Kameratag hat zwar dafür auch eine Lösung, den Hotspot-Reducer, aber der ist eigentlich nur für kleine Fehler im Bild gedacht – wenn diese zu kräftig „herumbouncen”, hilft er auch nicht mehr. Für „Fire Hydrant “Wassermarsch” Hellyeah Bot“ habe ich Kernel-Path-Tracing mit 1.000 Samples bei einer Auflösung von 3.000 x 3.000 Pixeln benutzt. Es hätten sicherlich für diese Zwecke auch 500 Samples ausgereicht – aber wenn die Renderzeiten schon so kurz sind, machen für ein schönes Still fünf Minuten mehr oder weniger den Bock auch nicht mehr fett. Die übrigen Kernel-Settings habe ich auf „Default“ belassen. Nach dem Rendern nahm ich noch etwas Color Grading mit Photoshop vor, erst dann wurde der Bot final getauft. Meine Renderzeiten lagen auf zwei GTXTitan-X-Karten bei circa 10 Minuten. Stills kann man hervorragend mit einem höheren Coherent-Ratio-Wert optimieren, dann ist das Render Noise zügiger weg und das Bild schneller sauber – man benötigt quasi weniger Samples. Für Animationen hingegen ist ein hoher Coherent-Ratio-Wert nicht emp-

fehlenswert, denn dann fängt die Animation an zu flackern.

Warum Octane? Der Hauptvorteil von Octane – wie auch bei vielen anderen GPU-basierten Renderern – liegt mit Sicherheit in der unglaublichen Render-Geschwindigkeit. Die nimmt zwar mit der Komplexität der Szene etwas ab, aber nicht so rapide wie bei CPU-Renderern. Beruflich als auch hobbymäßig bin ich schon zu circa 70 Prozent auf Octane umgestiegen. Ganz ohne V-Ray und Konsorten wird es aber auch in Zukunft noch nicht gehen. Das liegt an den noch vorhandenen Limitationen und auch daran, dass man sich eine eigene kleine Grafikkarten-Renderfarm zulegen sollte, um große Projekte realisieren zu können. Als jemand, der jahrelang mit V-Ray und auch Mental Ray gearbeitet hat, kann ich sagen: Im Schnitt läuft Octane bis zu 20 Mal schneller. Das merke ich vor allem bei meinen Kreationen, bei denen die Szenen selber nicht so komplex sind. Den Bot jedenfalls konnte ich im Octane-Live-

45


FOKUS

FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

Das Modell im Render Manager nach 5O Sekunden

SCIENCE & EDUCATION

SERVICE

1

Das Modell im Render Manager nach 1O Minuten und 47 Sekunden

2 Viewer in Echtzeit materialisieren und beleuchten, was richtig Spaß gemacht hat. Als er erst einmal in den Grafikkartenspeicher hineingeladen war, lief alles sehr schnell. Die heutzutage gängigen Grafikkarten-Speicherkapazitäten werden oft als Nachteil von einigen angesehen, da Riesenszenen nicht mehr in den VRAM reingehen und nicht berechnet werden können. Aber in Zeiten von Nvidia Quadro K6000 und GTX TitanX mit jeweils 12 GB VRAM werden diese Stimmen auch immer leiser. Ich sage: Da geht einiges! Natürlich gibt es diese Probleme, aber ich zumindest habe bis jetzt alles in den VRAM hineinbekommen. Als Octane-Kunde bekommt man alle paar Wochen ein neues Update des Tools – die sind dann manchmal zwar noch etwas beta oder auch buggy, aber Octane verbessert sich stetig. Zurzeit hat Octane noch eine Trianglecount-Limitation – ich glaube, sie liegt etwa bei 20 Millionen Triangles. Aber keine Panik davor: Wer bei großen Szenen gut instanziiert und trickst, der bekommt auch das berechnet. Diese Begrenzung soll jedenfalls ab Version 3 behoben sein und meine kreierten Maschinchen sind sowieso weit davon entfernt, diese Begrenzung zu

46

erreichen – dennoch hätte man dann mit Version 3 eine Sorge weniger.

Nächstes Projekt Der ein oder andere verrückte Metalltank 2.0, ein Teslabot 3000 oder ein mechanisches Wesen, das aus Heugabeln besteht, wird bald das Licht der Welt erblicken – nein, Spaß beiseite. Was das nächste Projekt wird, weiß ich nie so genau – ich werde mich einfach weiterhin von meiner Umwelt inspirie› mf ren lassen.

3

Christian Schweger arbeitet als 3D-Artist bei Milano Medien GmbH (www.milanomedien.com) in Frankfurt. In seiner Freizeit kreiert er am liebsten ungewöhnliche Stills, mit denen er auch 2O15 wieder beim animago AWARD (www.animago. com) dabei war.

Links

4

Moment of Inspiration i moi3d.com

Mehr Stills von Christian Schweger i christian-schweger.tumblr.com

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

OCTANE | MOI

5

6

1) 2) 3) 4) 5) 6) 7)

Weitere animago-Stills von Christian Schweger – alle wurden mit C4D, MoI und V-Ray kreiert: „Tesla Minion“: Tesla-Version eines Minions mit elektronischen Bauteilen „Double Whammy“ ist eine Waffe der Zukunft „Le Protector“: 3D-Schnittdarstellung einer seltenen Palm Pistole aus dem Jahr 1882 „Waver“: Die Grundform des Fahrzeugs besteht aus acht „gefreestylten“ Splines in Wellenform. Ein kleiner Seitenhieb: „GEMA aus!“ „Can(n)on Powershot 1914“ Ein Roboter im Gras: „Tripot“

7 47


FOKUS

FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

„Checkpoint Charlie“ in Großbritannien – Napoleon Solo steuert die Schranke an.

Back to the 60s „The Man from U.N.C.L.E.“ ist eine amerikanische Agenten-TV-Serie aus den 6Oer Jahren – mit Henry Cavill, Armie Hammer und Alicia Vikander in den Hauptrollen hat Regisseur Guy Ritchie in diesem Jahr ein Feature-Film-Remake in die Kinos gebracht. Rise | Visual Effects Studios verwandelte dafür Drehsets und -locations unter anderem in England und Polen in das Berlin der 6Oer Jahre, kreierte zahlreiche Full-CG-Shots und baute für das Projekt die Pipeline aus. von Rayk Schroeder

48

WWW.DIGITALPRODUCTION.COM


MAN FROM U.N.C.L.E. | RISE | VISUAL EFFECTS STUDIOS

Bilder: Warner Bros. Studios/Rise

AUSGABE O1:2O16

E

in Film, der unter anderem in Berlin und Rom spielt? Nichts leichter als das! Den dreht man einfach an Originalschauplätzen! Da gibt es nur ein Problem: Der Film soll in den 1960er Jahren spielen. Und gerade Berlin hat sich seitdem doch erheblich verändert. Also war es nicht verwunderlich, dass für die englische Produktion „Codename U.N.C.L.E.“ verschiedene Berliner Sets im Stil der 1960er Jahre in Großbritannien wieder aufgebaut wurden. Production-VFX-Supervisor Richard Bain betreute die VFX-Shots mehrerer Studios. Dabei war Rise | Visual Effects Studios unter der Leitung von VFX-Supervisor Florian Gellinger und VFX-Producerin Kerstin Kensy für sämtliche VFX-Shots des Berliner Teils der Geschichte verantwortlich und schickte

Illya Kuryakin (Armie Hammer) in geheimer Agenten-Mission im noch geteilten Deutschland

Bild: Warner Bros. Entertainment Inc.

Die vorhandenen Setbauten mussten für diese Szene erweitert und die Straßen verlängert werden.

das Team von Pointcloud9 mit seinem LIDAR-Scanner zu den verschiedenen Sets. Die Geschichte in Berlin beinhaltet unter anderem das Set vom berühmten Grenzübergang „Checkpoint Charlie“, eine Autoverfolgungsjagd quer durch den Ostteil Berlins und verschiedene weitere Berliner Stadtansichten.

Auf LIDAR-Tour durch Europa Neben dem großen Set vom „Checkpoint Charlie“ wurden noch diverse andere Sets unter anderem in Potsdam-Babelsberg und London eingescannt. Am aufwendigsten war es jedoch, passende Häuser für die Berliner Set Extensions zu finden. Denn schließlich mussten für die Verfolgungsjagd mehrere

49


FOKUS

FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

Full-CG-Shots – das finale Ergebnis passt optisch 1:1 zu allen anderen Shots.

Für diesen Teil der Verfolgungsjagd wurde auf die Source Plate komplett verzichtet.

Full-CG-Shot von der Verfolgungsjagd. Die beiden Autos werden voneinander getrennt.

50

SERVICE

te Paintings in Nuke erstellt sowie High-PolyVarianten von den verschiedenen Häusern für komplexere 3D-Renderings aus Houdinis Mantra. Besonders die in Polen gescannten Häuser mussten etwas umgebaut werden, da die oberen Etagen im Vergleich zum damaligen Berliner Baustandard zu niedrig waren und so die Gebäudehöhe etwas unter den erforderlichen 21 Metern lag. Die einzelnen Häuser benötigten natürlich auch entsprechend gedeckte Dächer. In den LIDAR-Scans waren diese nicht vorhanden, da die Häuser vor Ort nicht von oben gescannt werden konnten. Um bei der recht großen Häuseranzahl relativ flexibel zu bleiben und nicht jeden einzelnen Dachziegel per Hand zu positionieren, entwickelte das CG-Department von Rise in Side Effects Houdini ein prozedurales System zum Dachdecken. Es musste am Ende lediglich das jeweilige Dach ausgewählt werden und abhängig vom Neigungswinkel sowie den Abmessungen wurden entsprechend viele Dachschindeln generiert und positioniert. Dabei konnte aus mehreren verschiedenen Dachschindelformen mit jeweils unterschiedlichen Witterungszuständen gewählt werden. Dieses prozedurale System war auch unbedingt nötig, denn mithilfe der Häuserbibliothek gestaltete das Rise-Team für die Verfolgungsjagd circa 12 Kilometer Strecke als Straßenhintergrund abwechslungsreich und originalgetreu.

Eine Verfolgungsjagd durch das 1963er Berlin

Auch der Schutthaufen stammt aus dem LIDAR-Scan

Straßen komplett aufgefüllt beziehungsweise die vorhandenen englischen Häuser ersetzt werden. Fündig wurde das Team in Polen und scannte und fotografierte verschiedene Arten von Wohn- und Geschäftshäusern. Am Ende stand eine Bibliothek von fast 70 Häusern mit passenden HDR-Texturen zur Verfügung. Um die Hintergründe nicht nur mit einfachen Häuserfassaden auffüllen und natürlicher gestalten zu können, erstellte das CG-Department verschiedene Libraries unterschiedlichster Objekte von Autos bis hin

SCIENCE & EDUCATION

zu verschiedenen Passanten und CG-Bäumen. Dazu scannten VFX-Supervisor Florian Gellinger und Compositing-Supervisor Jonathan Weber am Checkpoint-Charlie-Set alles ein, was sie dort finden konnten.

Unterschiedliche Aufgaben Die verschiedenen gescannten Set-Teile und Häuser bearbeitete Rise entsprechend weiter: Es wurden grobe Proxy-Geometrien für das Matchmoving und für die Projektion von Mat-

Die Verfolgungsjagd durch Berlin wurde unter anderem in den Straßen von Chatham/ England gedreht. Dies bedeutete, dass sämtliche Gebäude im Hintergrund durch Berliner Ansichten ersetzt werden mussten. Auf Greenscreens wurde beim Dreh extra verzichtet, weil diese sich sonst im glänzenden Autolack gespiegelt und dadurch noch mehr Probleme bereitet hätten. Daher war aufwendiges Rotoskopieren der Autos und von anderen Vordergrundelementen notwendig. Weil die Verfolgungsjagd bei Nacht stattfand, gab es auch jede Menge Straßenlaternen, Scheinwerfer und andere einzelne Lichtquellen. Diese erzeugten viele große und komplexe Lens Flares, die ebenfalls extrahiert und teilweise komplett neu nachgebaut werden mussten. Compositing-Artist Christoph Hasche baute dazu entsprechende Gizmos, um in sämtlichen Shots die Flares zu kreieren. Die Gizmos ermöglichten dabei die volle Kontrolle über den Look und viele Details wie Dreck und chromatische Aberrationen. Um den Übergang zwischen gedrehter Plate und den neuen CG-Häusern besser zu gestalten, wurde in einigen Shots auch der Straßenbelag ersetzt und die nasse Oberfläche nachempfunden. Für die Verfolgungs-

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

MAN FROM U.N.C.L.E. | RISE | VISUAL EFFECTS STUDIOS

LIDAR-Scan in Polen – auf einem Pickup waren Scanner und Panoramakopf fest montiert, um die Zeit für den Auf- und Abbau zu sparen.

Im Vordergrund wurde noch zusätzlich ein Teil der Berliner Mauer mit Stacheldraht eingefügt.

Das Framing und die Autobewegung von der Original-Plate mussten komplett geändert werden.

jagd zwischen dem Wartburg-Auto und einem Trabanten musste das SFX-Department die Stunt-Autos etwas umbauen: Sie wurden beispielsweise mit einem Gestänge zusammengeschweißt, beim Trabant wurde der Motor ausgebaut, damit der Wartburg ihn leichter herumschleudern konnte, und noch vieles mehr. Doch dadurch wirkten die Autos in vielen Shots sehr starr und statisch. Deshalb erstellte das Team von CG-Supervisor Oliver Schulz neue Modelle anhand der LIDAR-Scans mit exakt passenden Texturen und Materialeigenschaften. Dadurch konnten die Autos wirklich unauffällig durch die objektgetrackten CG-Exemplare ersetzt und diese komplett neu animiert werden. Schon kleine zur Originalbewegung hinzugefügte Unregelmäßigkeiten hatten eine große Wir-

kung und ließen den Kampf zwischen den beiden Autos viel realistischer aussehen. Von der Previs war das Timing und eine grobe Route durch Berlin vorgegeben. Rise entwickelte einen genauen Plan für die Route und integrierte dabei einige mehr oder weniger bekannte Berliner Lokalitäten: Den Anfang machten die S-Bahnbögen am Alexanderplatz, gefolgt von der Fischerinsel. Dann ging es „Unter den Linden“ weiter, vorbei am Gendarmenmarkt, der südlichen Friedrichstraße bis hin zum Mauerstreifen nach Friedrichshain/Kreuzberg. Anhand eines alten Stadtplans wurde die Strecke noch mit einigen Nebenstraßen verfeinert. Teile für die Gendarmenmarkt-Shots wurden in Greenwich auf dem Hof des Royal Naval College gedreht, denn dies war damals die

Vorlage für Karl Friedrich Schinkel, den Architekten des Berliner Schauspielhauses am Gendarmenmarkt. Und somit war es auch die Vorlage für die Set Extensions von Rise. Die Verfolgungsjagd endet damit, dass der Wartburg mit den beiden Film-Hauptfiguren Napoleon Solo und Gaby Teller zwischen zwei Häusern stecken bleibt. Am Set wurde der Wartburg auf ein Rig aus Achterbahnschienen montiert. Das Problem beim Dreh war, dass das Auto beim Herabfahren beschleunigte – dabei sollte es natürlich eigentlich langsamer werden, wenn es zwischen den Häusern stecken bleibt. Außerdem sollte die Kamera viel weitwinkliger und weiter entfernt sein, um mehr von der Umgebung und dem nahen Mauerstreifen zu zeigen. Also wurde der Shot zu einem Full-CG-Shot mit den LIDAR-geAnzeige


FOKUS

FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

Im finalen Shot darf der Lens Flare natürlich nicht fehlen.

SCIENCE & EDUCATION

SERVICE

Für diesen Schauplatz wurde der Grenzübergang mit einigen Greenscreens für die spätere Set Extension in den Warner Bros. Studios im englischen Leavesden errichtet. Das Team von Pointcloud9 scannte mit seinem LIDAR-Scanner den kompletten Grenzübergang ein, damit die Artists vom Berliner Rise-Standort so die Erweiterung des Sets bewerkstelligen konnten. Die Geometrie von den Scans wurde wie immer als grobe Projektionsgeometrie und für die Ausrichtung der Matchmove-Kameras verwendet. So konnten die 3D-Artists direkt anhand der LIDAR-Geometrie Projektionsgeometrien für verschiedene Matte Paintings und CGEnvironments wie Häuserfassaden und den Mauerstreifen bauen.

Weitere Shots Flucht über die Berliner Mauer – Digi-Doubles ersetzen die Schauspieler in diesem Full-CG-Shot.

Set Extension – eine Berliner S-Bahnstation ...

Neben den vorgestellten sind auch noch viele andere Shots im Film zu sehen, die in Berlin spielen und nichts mit der Verfolgungsjagd zu tun haben. Es gibt verschiedene Stadtansichten unter anderem mit einem typischen Altberliner Toilettenhäuschen, dem berühmten Café Kranzler und auch einige Shots mit dem Café Gustav, die eigentlich in einem englischen Park gedreht wurden. Das Café wurde in den Berliner Tiergarten verpflanzt und in einigen Ansichten noch ein zusätzlicher Blick auf die Berliner Mauer gezeigt. Geografisch ist das zwar nicht ganz richtig, verdeutlicht aber für den Zuschauer noch einmal genauer das geteilte Berlin. Nach Drehschluss waren die Hauptdarsteller schon in andere Filmprojekte involviert und standen für einen Nachdreh nicht mehr zur Verfügung. Für einen Trailer-Shot wurden sie aber noch einmal dringend benötigt. Zum Glück gab es bereits 3D-Scans von den Darstellern, sodass anhand dieser Scans digitale Versionen von ihnen erstellt und animiert werden konnten – inklusiver aufwendiger Hair- und Cloth-Animationen.

Ausbau der Pipeline ... entsteht aus einer englischen Lagerhalle.

scannten Häusern aus Polen, dem LIDAR-gescannten Wartburg und einer handgebauten Berliner Mauer mit Stacheldraht obendrauf.

„Checkpoint Charlie“ Die heute vorhandenen Reste vom berühmten Berliner Grenzübergang „Checkpoint Charlie“ erinnern nur noch entfernt an die ursprüngliche Location. Inzwischen stehen dort viele moderne Hochhäuser und keine Wachhäuschen mehr. Der Grenzüber-

52

gang ist eher eine Touristenattraktion mit Museum, Verkaufsständen und allem, was noch dazugehört. Das Intro des Films sollte zeigen, wie der US-Geheimagent Napoleon Solo (Henry Cavill) die Grenze von West- nach Ost-Berlin an diesem Übergang überquert, und weitere Ansichten des Mauerstreifens um den Grenzübergang herum bieten. Damit sollte in die Thematik des Kalten Krieges und der damaligen Situation im geteilten Berlin eingeleitet werden.

Für so viele Shots mit komplexen CG-Renderings und zahlreiche Full-CG-Shots war es bei Rise notwendig, die Pipeline zwischen den 3D- und Compositing-Departments zu überarbeiten und auszubauen. Für eine effizientere Weiterverarbeitung der Renderings erstellte Compositing-Supervisor Jonathan Weber ein Base-Setup für Nuke, das die Grundlage für alle zu importierenden CG-Renderings bilden sollte. Darin wurde definiert, wie welche Passes zusammen gemerged werden müssen und wie sich mit welchem Pass das Rendering beeinflussen lässt. In der InhouseProjektdatenbank Rise | Base müssen nun die 3D-Artists ihre fertigen Renderings publishen, sodass eindeutig markiert ist, welche

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

MAN FROM U.N.C.L.E. | RISE | VISUAL EFFECTS STUDIOS

„Checkpoint Charlie“ in Großbritannien – für den Todesstreifen und die angrenzenden Häuser ...

... dient ein großer Greenscreen in der Original-Plate als Platzhalter.

Version von welchem Rendering die richtige ist. Für Nuke programmierte Pipeline TD Sebastian Elsner ein Tool, was anhand der veröffentlichten Renderings das CG-Base-Setup in das gerade geöffnete Nuke-Skript lädt und sämtliche Read Nodes für Beauty, Highlights, IDs und noch viele mehr richtig miteinander verknüpft. Wird nun ein Asset geupdatet – oder zum Beispiel auch nur neue IDs gerendert –, muss der 3D-Artist lediglich die neue Version in der Rise | Base publishen und in Nuke können automatisch die richtigen Read Nodes über das Skript geupdated werden. Dabei spart man sich das Nachschauen, welche Read Nodes überhaupt betroffen sind und ob man auch keinen übersehen hat. Das CGBase-Setup beinhaltet ebenfalls gleich die entsprechenden Standard-Nodes zur Bearbeitung der einzelnen Passes und ID-Picker zur Erstellung von Masken anhand der Position Passes.

Fazit Insgesamt galt es, weit über 200 Shots zu bearbeiten. Darunter viele Full-CG-Shots, die gar nicht als solche geplant waren. Durch die Komplexität vieler dieser Shots war es besonders wichtig, einen möglichst schnellen und effizienten Arbeitsablauf zu entwickeln und die hausinterne Pipeline zu erweitern. Deshalb war es ein enormer Geschwindigkeitsvorteil, als die CG-Load-Funktion in die Pipeline integriert wurde. Auch bei den aktuellen Projekten spart dieses Feature eine Menge Zeit und sorgt für eine einheitliche Verarbeitung und Vorbereitung der Renderings aus dem CG-Department. Dies macht es auch Artists einfacher, die Shots von anderen zu übernehmen, weil die Node-Tree-Struktur überall einheitlich ist. Die Assets der verschiedenen Häuser, Fahrzeuge und weiteren Gegenstände sind so aufgebaut, dass sie auch gleich für › mf andere Projekte einsatzbereit sind.

Links Rise | Visual Effects Studios i www.risefx.com

„The Man from U.N.C.L.E.“ Trailer i youtu.be/4K4Iv_N9Nno

Making-of „The Man from U.N.C.L.E.“ i youtu.be/rEMiXms31Us

53

Anzeige

Bild: Warner Bros. Entertainment Inc./Daniel Smith

Rayk Schroeder ist VFX-Supervisor und Lead Compositor bei Rise | Visual Effects Studios. In den letzten Jahren arbeitete er an Produktionen wie „Cloud Atlas“, „Captain America: The Winter Soldier“ und „Hitman: Agent 47“ mit.


FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

Bilder: André Löscher

FOKUS

Nur durch die Veränderung der Strip-Settings lassen sich unterschiedliche Optiken erzeugen.

Die nächste Fusion-Generation – MeshFusion in Modo 901 In der DP O6:15 haben wir uns die Integration von MeshFusion in Modo angeschaut und die Schematic Trees, Qbics von André Löscher sowie ein erstes Objekt mit seinen Eigenheiten. Doch nun ist es an der Zeit, tiefer einzusteigen!

D

as erste Highlight – die Fusion Strips – sorgen manchmal für fehlenden Überblick. Strips sind das virtuelle, temporäre Abbild der Schnittkanten zwischen den Source Meshes. Sie lassen sich in ihrer Breite, Form und in den Randbereichen zu jeder Seite der angrenzenden Geometrie anpassen. Sie können als direkte Schnittkante zwischen zwei Sourcen verlaufen, aber auch als „Kreuzung“ zwischen mehreren angrenzenden Parts fungieren. Sie sind flexibel und dynamisch und alleine nur durch die Veränderung der Strips lassen sich vollkommen unterschiedliche Optiken erzeugen. In Kombination mit der „Absolute Strip Width“ ergeben sich unzählige Möglichkeiten der Formgebung. Wird ein Fusion-Objekt erstellt, werden die Schnittkanten automatisch erzeugt und eine virtuelle Repräsentation dieser Geometrie in Form eines „Locators“ in der Item List abgelegt. Aus diesem Grund muss für die Anzeige der Strips in den Optionen für den Viewport die Option „Show Locators“ akti-

54

viert sein. Über diesen Locator lassen sich die Strips auch selektieren und ihre Eigenschaften bestimmen. Nun ist der Reiz eines Fusion-Objekts ja unter anderem darauf zurückzuführen, dass es durch seine Editierbarkeit in Echtzeit geradezu dazu ermutigt, Elemente zu verschieben, zu skalieren und neu anzuordnen. Etwas gewöhnungsbedürftig ist, dass in diesen Situationen die Schnittkanten zwar angezeigt und in Echtzeit berechnet werden, MeshFusion aber nicht sofort die entsprechenden Locators dafür erzeugt. Aus Sicht der Performance ist dieser Schritt sicherlich nachvollziehbar, aber es irritiert doch immer wieder, wenn man mehrere Segmente angepasst hat, dann die Kanten modifizieren möchte und wieder ins Leere greift. Somit ist es sinnvoll, nach dem Modifizieren der Geometrie von Zeit zu Zeit die Strips neu berechnen zu lassen. Dieses kann im Fusion-Tab unter „Fusion Strips > Update Strip Items“ angestoßen werden. In diesem Zuge werden dann zu jeder Schnittkante die entsprechenden Locator Items erstellt,

die dann selektiert werden können und die das Channel Haul mit den Einstellungen bei einem Doppelklick öffnen. Die Settings, die einem Strip Item zugewiesen werden, definieren das Aussehen und Verhalten für den Kontaktbereich zweier Mesh Items. Werden sie wieder auseinanderbewegt, sodass sie den Kontakt verlieren, bleibt der Locator als Definitionsbasis für die Settings bestehen und bei dem nächsten Kontakt werden die gesetzten Einstellungen wieder verwendet. Wenn wirklich einmal durch in der Konzeptionsphase erstellte und nachher nicht mehr verwendete Strip Items zu viel „Ballast“ entstehen sollte oder man einfach nicht mehr gebrauchte Locators löschen möchte, gibt es – etwas versteckt – im Fusion-Tab unter „More Fusion Controls ...“ mit „Delete Inactive Strips“ neben dem manuellen Löschen der Locators auch noch eine automatische Lösung. Die entsprechend darin gespeicherten Settings gehen dann natürlich mit verloren. Eine Kombination aus Aktualisieren und Löschen von Strips bietet die im Drop-down-

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

Menü des Buttons, unter Modo angezeigt durch ein kleines Dreieck in der rechten unteren Ecke und zugänglich mit langem LMB oder RMB, untergebrachte Funktion „Reset All Strips“. Hinweis: Diese Funktion berechnet auch die im Folgenden beschriebenen Sub-Strips neu! Wenn die Konstruktion komplexer wird, kann es vorkommen, dass eine Schnittkante zwischen zwei Sourcen zum Beispiel durch weitere boolesche Operationen mit anderen Meshes in mehrere Segmente getrennt wird. Diese Segmente nennen sich Sub-Strips und werden normalerweise bei Selektion eines Teil-Segments immer allesamt markiert, da sie technisch gesehen alle an einen Locator in der Item List gekoppelt sind. Häufig gibt es aber Situationen, in denen man einzelne Sub-Strips selektieren möchte, obwohl sie eigentlich dem gleichen (Eltern-) Element angehören. Aus diesem Grund kann man über den Befehl „Add All Sub-Strip Items“ alle Sub-Strips mit einem eigenen Locator versehen. In der Item List werden dann dem Locator des selektierten „Eltern“-Strips die Sub-Strips in Form weiterer Locators als Kind-Elemente untergeordnet. Zu beachten ist hierbei, dass der Eltern-Strip mit dieser Aktion nur noch ein Gruppenelement für die Sub-Strips ist und nicht mehr in der 3D-View selektiert werden kann. Möchte man trotzdem einmal alle Sub-Strips des Eltern-Elements selektieren, kann man dies über die Funktion „Select Sibling Sub-Strips“ tun. Zu erreichen ist sie am einfachsten mit einem Doppelklick auf einen der Sub-Strips selbst. Um nun letztendlich in allen Details mit den Sub-Strips umgehen zu können, fehlt eine Möglichkeit, alle Sub-Strips einer sich neu ergebenden Fläche zu wählen, auch wenn sie nicht zu dem gleichen Eltern-Element gehören. Dies ist mit den Optionen „Select Loop A/B“ und dem Optionsfeld „Include Related Loops“ möglich. Ein Loop ist eine Selection von Sub-Strips, die eine sich neu ergebende Fusion-Oberfläche umrandet. Nur so ist es möglich, zum Beispiel die Kantenglättung für diese Umrandung auf einfache Weise vorzunehmen, da ansonsten die Sub-Strips verschiedener Strips einzeln angepasst werden müssten. Um den Unterschied zwischen Siblings und Loops im Detail zu verstehen, ist zuerst ihre Zugehörigkeit ein Kriterium. In Abbildung A wird ein Torus von einer Sphere abgezogen. Die beiden Strips sind deren Schnittkante und durchlaufend. In Abbildung B wird von dieser Form ein weiteres Element (Tube) abgezogen, sodass auch die ursprünglich durchgehenden Strips zerschnitten werden. Schaut man aber auf ihre Grundform (A), wird die Selektion in B verständlich, da jetzt die Siblings alle zu den ursprünglichen Strips gehörende Teilabschnitte sind. Durch

WORKSHOP | MODO MESHFUSION

Fusion Secrets – kleines FAQ i Keine Anzeige der Qbic in der Bibliothek: In der aktuellen Version gibt es einen Fehler in der QbicsBibliothek, sodass keine Elemente angezeigt werden und der Ordner leer zu sein scheint. Hier einfach einmal das kleine „F“ in der oberen rechten Ecke klicken und schon werden alle Bibliotheksobjekte wieder angezeigt. i Keine Anzeige des 3D Trees oder der Ghosts: Falls in der Preview der 3D Tree oder die Ghosts sichtbar sein sollten, ist unter „Options“ der Wert „Show Only Visible Items“ deaktiviert. Nach der Aktivierung sollte das finale Fusion Item ganz normal gerendert werden können. i Overlapping Strips: Mesh Fusion ist flexibel, wenn es um die Anordnung der einzelnen Parts und die Berechnung der Strips geht. Auch Formen und Anordnungen, die bei normalen Booleans Probleme bereiten, werden durch Mesh Fusion (meistens) elegant gelöst und machen das ganze System zu einem extrem mächtigen Tool. Eines aber bereitet Fusion auch in dieser Version noch große Probleme: sich überlappende Strips. Das Ergebnis ist an dieser Stelle je nach Lage der Meshes eher vage und aus diesem Grund sollte diese Situation am besten ganz vermieden werden. Über das Channel Haul bestehen ja ausreichende Möglichkeiten, die Strips so zu formen, dass sie sich nach Möglichkeit nicht überschneiden. Hier sei auch noch einmal auf die Einstellung „Absolute Strip Width“ verwiesen! Gerade in Bereichen, in denen die Strips durch die Winkel der Geometrie in Teilen eine unberechenbare Größe annehmen, lässt sich durch diese Option mit der Vergabe eines festen Wertes in Millimetern vielleicht eine Überschneidung verhindern. i Keine Reaktion bei Veränderung im Channel Haul: In bestimmten Situationen kann es dazu kommen, dass eine Veränderung der Werte im Channel Haul keine Reaktion bei den Strips erzeugt und der Wert sofort wieder zurückspringt. In diesem Fall kann man den Wert in den „Item Properties“ des Locators im Tab „Fusion Strip“ unter „Edit Selected Strip“ manuell neu setzen (neuen Wert eingeben und mit „Set“ bestätigen). Danach funktioniert in den meisten Fällen auch wieder die Eingabe über das Channel Haul. i Tracking SubD Offset: Falls bei booleschen Operationen Segmente bestimmter Meshes nicht angezeigt werden: Unter „Item Properties > User Channels > Tracking SubD Offset“ auf „O“ setzen. Damit hat Modo die Möglichkeit, höhere SubD-Level bei der Verarbeitung von Schnittkanten zu verwenden. Das erzeugt auf der einen Seite natürlich einen höheren Polycount, ermöglicht aber in vielen Fällen auch die bessere Erkennung schwieriger Mesh Parts und das Vermeiden von Fehlern in der Anzeige. i Fehler im Fusion-Objekt bei sich durchdringenden Objekten (dank an „ChrisC“ – The Foundry Community Forum): Wenn zwei Source Meshes die gleichen Dimensionen haben, sich in der Lage unterscheiden, aber mit ihren Hüllen in gewissen Bereichen exakt übereinanderliegen, kann es zu massiven Problemen bei der Berechnung des Fusion-Ergebnisses kommen. Bei der Rotation eines der Objekte kann es sogar von der Lage abhängen, ob das Objekt richtig berechnet wird oder nicht. Dieses tritt häufig bei „Subtract“ mit mehreren identischen Objekten auf. In diesem Fall kann man entweder eines der beiden Objekte minimal (99.999 Prozent) verkleinern, oder als „saubere“ Lösung die Polygone eines der beiden Objekte mit „F-Taste“ umkehren und durch ein negatives Intersect einrechnen lassen (nur im Schematic Fusion möglich). i Keine Anzeige der Strips: Sollten die Strips einmal nicht angezeigt werden, kann es sein, dass in den Optionen für den Viewport „Show Locators“ deaktiviert ist. Einfach die Option aktivieren und die Strips sollten wieder auftauchen.

die Tube ergeben sich aber auch neue StripFormen, die Loops. In C wird mit „Select Loop A“ der erste durchgehende Loop selektiert, wobei der Sub-Strip „1“ zu der Tube und Sub-Strip „2“ zu dem Torus gehört. In D wird mit „Select Loop B“ der zweite mögliche Strip-Kreis selektiert, auch wieder bestehend aus Strips sowohl des Torus als auch der Tube. Erweitert man diese beiden Selektionen noch mit der Option „Include Related Loops“, ergeben sich die im unteren Bereich gezeigten Muster. Bei der Verschneidung von drei Elementen könnte man diese Selektion gerne auch noch per Hand vor-

nehmen, bei komplexeren Konstrukten sind diese Möglichkeiten der Selektion aber äußerst sinnvoll. Sub-Strips sind für das Anpassen der Option „Loop Smoothing“ notwendig, mit der sich offene Stellen im Fusion Mesh sowohl in der Form optimieren als auch schließen lassen. Auf diese Weise kann ein für den Export notwendiges „Airtight Mesh“ (siehe Kapitel „Sauber machen – Fusion-Optimierung“) erstellt werden, das keine „Löcher“ in der Oberfläche aufweist. Eine sinnvolle Optimierung für die spätere Bearbeitung des finalen Meshs und ein entscheidender As-

55


FOKUS

FILM & VFX

3D & ANIMATION

pekt bei einem Export zum Beispiel in ein CAD-Programm. Damit ein Objekt als Volumenobjekt und nicht nur als Hülle angesehen werden kann, muss die Integrität des Meshs sichergestellt sein (siehe Kapitel CAD Extend – Fusion Export). An dieser Stelle sei noch einmal darauf hingewiesen, dass die Locators der Strips nie manuell editiert und gruppiert werden sollten. Hierzu sollten immer die Add- und Update-Funktionen aus dem Fusion-Menü genutzt werden.

Fusion Grid – SubD in Fusion MeshFusion hat die Möglichkeit, unterschiedliche Mesh-Dichten innerhalb der Fusion Parts gut auszugleichen. Nichtsdestotrotz ist es immer sinnvoller, die Dichte der einzelnen Parts möglichst nahe anzugleichen, da dies erstens im finalen Mesh zu besserer Qualität und weniger Fehlern führt

Mesh Density Sample

56

INTERACTIVE

DIGITAL ART

und andererseits während des Modifizierens auch performanter ist. Normalerweise ist die Ausgangsgeometrie Basis für die Dichte der Fusion-Instanz. Somit kann eine Anpassung vor dem Hinzufügen zum Fusion-Objekt schon einen Einfluss haben. Zusätzlich ist aber auch eine Anpassung im Nachhinein möglich. Dieses ist häufig alleine deswegen nötig, da die Fusion-Instanzen ja sowieso eine andere Dichte besitzen als die originale Geometrie und es mitunter schwer ist, im Vorhinein eine Einschätzung für die optimale Struktur vorzunehmen. Zweitens hat man, wenn das Objekt schon eingegliedert ist, direkt eine visuelle Kontrolle, welche Dichte sich am besten eignet. Um eine entsprechende Anpassung vorzunehmen, wählt man einfach eine Instanz im Fusion-Objekt an und kann unter „Properties > User Channels > Fusion SubDivs“

SCIENCE & EDUCATION

SERVICE

direkt Einfluss auf die Dichte nehmen. Sinnvoll ist, visuell möglichst einheitliche Oberflächenstrukturen aller Teile zu erreichen. Tipp: Auch innenliegende Flächen (durch Subtraktion) können eine unglückliche Dichte aufweisen. Um hier zu optimieren, muss die Einstellung bei dem negierenden Objekt vorgenommen werden.

Fusion Flow – Arbeitseffizienz Die grundlegenden Operationen und Einstellungen sind gemacht und wir können nun in unserem Fusion-Objekt kreativ werden. Um dieses so einfach und effektiv wie möglich vorzunehmen, gibt es noch einige Settings und Funktionen in den umfangreichen Menüs von MeshFusion, die man beachten sollte. So ist gerade bei komplexeren Objekten die Anzeige respektive Visualisierung im Viewport ein beeindruckender und gleichzeitig erschlagender Faktor. Wie geht man am besten vor? Lässt man sich nur das Ergebnis anzeigen und verzichtet auf ein schnelles Bearbeiten und die visuelle Kontrolle der Source Meshes? Oder soll MeshFusion alle Grundobjekte anzeigen, sodass man manchmal gar nicht mehr erkennen kann, welcher Ghost-Teil nun zu welchem Source-Objekt gehört? Nun, jeder wird bestimmt seinen eigenen Workflow finden, aber es gibt einige Kniffe, die das Arbeiten extrem erleichtern und anfänglich vielleicht nicht ganz so offensichtlich sind.

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

WORKSHOP | MODO MESHFUSION

Wenn mehrere SourceObjekte und deren Schnittkanten sich überlagern, lassen sich mit dem Strip Selection Tool alle Siblings und Loops markieren.

Zuerst einmal gibt es zum Anpassen der Visualisierung einige Optionsschalter, die es ermöglichen, die optimale Anzeigeart zu finden. An erster Stelle hier natürlich „Source Mesh Visibility“, der die Anzeige der Source Meshes reguliert. Um ein flüssiges Handling zu gewährleisten, ist diese Option auch im Fusion Pie Menu („Strg+F“) untergebracht und kann so schnell umgeschaltet werden. Interessanterweise kann man diesen Button auch mit der Alt-Taste kombinieren („Source Mesh Visibility All“). Hier würde man davon ausgehen, dass mit der Standardoption nur selektierte und bei gedrückter Alt-Taste alle Source Meshes beeinflusst werden, dies ist aber leider nicht der Fall. Wenn man die Topologie eines bestimmten Meshs editieren möchte, ergibt sich die entsprechende Darstellung netterweise von selbst. Wenn alle Source Meshes ausgeblendet sind, über die Item List ein Element selektiert wird und man in einen Component Mode (Vertices, Edges oder Polygons) wechselt, wird automatisch der Ghost dieses Elements aktiviert und man kann gezielt die Geometrie bearbeiten. Es lässt sich jetzt der ganze Umfang der Modo Modeling Tools für die Modifizierung des Meshs nutzen. Eine weitere Möglichkeit, wenn man wirklich einmal nur ein spezielles Mesh sehen oder editieren möchte: Man selektiert das Mesh im 3D-Viewport oder der Item List und isoliert es über „Strg+6“ und „Invisible“. Normalerweise würde bei dieser Option nur das aktuell selektierte Mesh isoliert und alle anderen Meshes würden ausgeblendet werden (extrem sinnvoll auch beim normalen Modeling!). Bei Mesh-Fusion-Objekten liegt aber der große Vorteil darin, dass das Fusion-Objekt weiterhin angezeigt wird und man nun unabhängig von den übrigen Parts

mit dem gewünschten Mesh arbeiten kann. Über nochmaliges Aktivieren von „Invisible“ wird der ursprüngliche Zustand wiederhergestellt. Hier vielleicht noch ein Tipp, der nicht auf das Arbeiten mit MeshFusion begrenzt ist: Bei einer komplexen Szene und keiner Verwendung der Workplane respektive des Koordinatensystems, lässt sich dieses auf schnelle Weise über „Strg+1 > Toggle Grid Workplane“ deaktivieren und bei Bedarf auch wieder aktivieren. Gerade bei Anzeige der Ghosts und deren Wireframes kann man ansonsten vor lauter Linien schnell nicht mehr erkennen, welche Linie zum Mesh und welche zum Grid gehört. Neben der Anzeige gibt es auch bei der Struktur der Hierarchie Besonderheiten, die hier aber nicht nur die Darstellung und den Workflow beeinflussen, sondern sich direkt auf die Geometrie des Meshs auswirken. Gemeint sind die anfangs schon erwähnten

Branches, die im Gegensatz zu den optionalen Gruppierungen in der Item List einen direkten Einfluss auf die Topologie des Meshs haben. Hierdurch ist es nämlich möglich, bestimmte boolesche Operationen nur auf Teilbereiche anzuwenden. Die schon erwähnte Vorleistung konzeptioneller Gedanken bekommt hier wieder Gewicht. Man kann natürlich einfach mal ein paar Elemente im Tree herumschieben, aber wenn man gezielt ein Projekt umsetzen muss, sind vorher einige gezielte Überlegungen zum Aufbau der Operatoren sinnvoll. Interessanterweise entstehen einige Formen aus Anordnungen von Grundelementen, an die man erst einmal gar nicht gedacht hat. Während man sich bei Union und Subtract das Ergebnis meistens noch recht einfach gedanklich zurechtlegen kann, lässt das boolesche „Intersect“ bei entsprechender Komplexität der Source Meshes Formen ent-

Branches ermöglichen es durch Gruppierung, die booleschen Operatoren nur auf bestimmte Elemente anzuwenden. Die Ergebnisse werden per Union verbunden.

57


FOKUS

FILM & VFX

3D & ANIMATION

stehen, die teilweise wirklich überraschen. Genau aus diesem Grund ist es aber auch nicht ganz so trivial, sich die notwendigen Grundformen für ein gewünschtes Ergebnis zurechtzulegen und ob man dabei eine Form/ Fläche durch schnelles Modeling oder weitere boolesche Funktionen erzeugt. Grundlegend würde ich dazu raten, Formen, die im Hard Surface Modeling einfach zu generieren sind und im Nachhinein nicht mehr geändert werden sollen oder von Vornherein leicht zu ändern sind, auch auf die traditionelle Art und Weise zu erstellen und zu modifizieren. Das spart Performance in Fusion und die Komplexität steigt nicht unnütz an. Alle dynamischen Bereiche des finalen Objekts werden dann über Booleans eingerechnet. Neben der Möglichkeit, auf diese ganz neue Art und Weise Oberflächen zu erstellen, hat eine weitere Technik das Potenzial, den Workflow in Modo komplett neu zu definieren – nämlich Instanzen zu verwenden. Instanzen (Instances) sind in Modo virtuelle Kopien eines Meshs, die die Topologie und – wenn gewünscht – viele weitere Eigenschaften von ihrem Source Mesh erben können. Die Vorteile außerhalb von MeshFusion sind eine weitaus bessere Performance als bei der Verwendung von Einzelobjekten und die Möglichkeit, über die Anzahl der Instanzen zu variieren (zum Beispiel das Material oder die Transformationen). In Kombination mit MeshFusion ist der Faktor Material zwar irrelevant, aber die Möglichkeit, Änderungen in der Topologie und Transformation umgehend auf eine beliebige (je nach System-Performance unter Umständen begrenzte) Anzahl von Objekten in Echtzeit zu übertragen und diese in das Fusion-Objekt einrechnen zu lassen, macht viele alte Mo-

INTERACTIVE

DIGITAL ART

deling-Prozesse überflüssig. Man stelle sich das Modellieren einer komplexen Radkappe vor, die eigentlich aus fünf identischen Segmenten besteht. Der „normale“ Workflow in einem Hard Surface Modeller sieht meistens so aus, dass man sich ein 72-Grad-Segment aus der Felge herausnimmt, dieses nach Wünschen modelliert und danach über ein „Radial Array“ oder eine ähnliche Funktion die gesamte Felge wieder zusammensetzt. Danach Modifikationen einzubringen ist aber weiterhin schwierig und es muss wahrscheinlich wieder ein Segment erstellt werden. Mit der Verwendung von Instanzen in MeshFusion kann dieser Prozess auf eine viel flexiblere und einfachere Art und Weise und im Gesamten geschehen. Einzige Voraussetzung für die Verwendung von Instanzen ist die Nutzung einer Schematic Fusion, mit dem 3D Tree lassen sich Instanzen nicht nutzen. Um nun beispielsweise ein radiales Objekt mit Segmenten zu erstellen, werden einfach die entsprechenden Source Meshes etwa mit der Funktion „Instance Radial Array“ erstellt und über „Union“ verbunden. Damit die Anbindung der Instanzen funktioniert, muss lediglich das Source Mesh als Erstes selektiert werden. Danach kann man am einfachsten mit gedrückter Shift-Taste das letzte Element anklicken, um alle Instanzen zu markieren. Was nun folgt ist der bekannte Weg zum Beispiel über Drag-anddrop auf das Ziel-Mesh und die Auswahl der gewünschten booleschen Operation. Nun ist es ein Leichtes, die Geometrie des Gesamtobjektes anzupassen, da man einfach das Source Mesh (diesmal der Instanzen!) modelliert und die Instanzen umgehend aktualisiert werden. Auf diese Weise kann man nicht nur mit den Instanzen die Kontrolle

SCIENCE & EDUCATION

SERVICE

Workshop-Video Sollen sich die Instanzen nicht nur in der Topologie, sondern zum Beispiel auch in der Skalierung und Rotation nach Ihrem Source Mesh richten, müssen die für die Instanzen automatisch erzeugten Werte dafür vorher einmal gelöscht werden. Hierfür habe ich ein kurzes Video-Tutorial unter vimeo.com/133544365 bereitgestellt.

über verschiedene Bereiche des Objekts behalten, sondern man hat im Gegensatz zur Hard-Surface-Variante durch MeshFusion auch noch die Möglichkeit zur dynamischen Änderung der Strips. Da die Instanzen zwar eine logische Gruppe ergeben, sie aber in MeshFusion eigenständige Objekte sind, lässt sich hierfür leider nicht die „Select Sibling Sub-Strips“-Option verwenden. Nun macht der Einsatz von Instanzen und die Bearbeitung ihrer Strip-Eigenschaften aber nur Sinn, wenn man nicht jedes Mal alle n-Strips einzeln bearbeiten oder sie alle erst vorher markieren muss. Eine einfache und schnelle Lösung dafür ist das Erstellen eines neuen „Selection Sets“. Hierzu werden einmal alle gewünschten Strips markiert (am besten über die Item List), und dann kann über „Select > Assign Selection Set“ eine neue Gruppen-Selektion erstellt werden: In dem folgenden Optionsfenster einfach einen Gruppennamen eingeben und mit OK bestätigen. Möchte man nun die entsprechenden Strips zur Modifikation erneut selektieren, kann man dies einfach per „Select > Use Selection Set“ durchführen. Wem das Arbeiten mit den Menüs nicht wirklich zusagt, hat einen gezielteren und schnelleren Zugriff über den Tab „Lists“. Hier lassen sich unter „Items (kann geöffnet werden, obwohl der Eintrag inaktiv/ausgegraut ist) > By Selection Set“ schnell Selektionen sogar aus verschiedenen Sets zusammenstellen, neue Sets hinzufügen oder bestimmte abwählen (mit den kleinen „+/-“-Zeichen am Anfang der entsprechenden Set-Zeile).

Boolean Sculpting

Instance Sample

58

Welche Möglichkeiten die Integration von MeshFusion bietet und wie flexibel und mächtig das ganze System jetzt schon ist, zeigt die Tatsache, dass MeshFusion sogar in Kombination mit Sculpting genutzt werden kann. Sculpting ist eine mehr oder weniger künstlerische Art, Modeling zu betreiben. Während das „normale“ Hard Surface Modeling darauf basiert, die Komponenten Vertices, Edges und Polygons zu bewegen, zu rotieren oder zu skalieren, arbeitet man beim Sculpting mit einer Art „virtuellem Pinsel“, der verschiedene Einflüsse auf die Topologie haben kann.

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

Gerade bei organischen Formen kommt das Hard Surface Modeling schnell an die Grenzen und man muss aufwendig über Falloffs, spezielle Deformer oder manuelle Schwerstarbeit das Mesh bearbeiten. Sculpting bietet währenddessen Tools wie Push, Clay, Carve, Tengent Pinch – also Begriffe, die man eher mit natürlichen Bewegungen oder Eigenschaften in Verbindung bringen würde, und das aus gutem Grund. Wer bisher nur mit Hard Surface Modeling oder CAD-basiert gearbeitet hat, wird sich nur schwerlich vorstellen können, wie Sculpting funktioniert und … sich anfühlt. Wenn man nämlich mit einem geeigneten Eingabemedium (etwa Graphic Tablet Pen) arbeitet, gleicht der Modellierungsprozess eher einer gefühlten Erfahrung als einem mathematisch basierten Konstruieren. Zugegeben, den Ansatz des Sculptings wird man, auch historisch bedingt, nicht unbedingt sofort mit den Grundsätzen von MeshFusion in Verbindung bringen, aber die Möglichkeiten, die die Sculpting Tools bieten, und die Tatsache, dass man diese nahezu in Echtzeit einrechnen lassen kann, sind extrem spannend. An dieser Stelle „nahezu in Echtzeit“, da während der Modifikation zwar das Source Mesh angepasst wird, das Fusion-Objekt aber erst nach dem Loslassen der Maus/Stifttaste aktualisiert wird.

Sauber machen – Fusion-Optimierung Vor der eigentlichen Erstellung des finalen Meshs kann man noch die Optimierungsmöglichkeiten nutzen. Die erste Einstellung ist eine Darstellungsoption, die aber auch Einfluss auf den Export des Fusion-Objekts hat. In den Fusion-„Properties“ findet sich unter „Fusion Mesh“ der „Mesh Mode“. Standardmäßig steht dieser Eintrag auf „Draft“ und ermöglicht flüssigeres Arbeiten. Die Bereiche um die Strips werden hierbei auf das Härteste mit Triangles strapaziert. Dies ist nur ein einfacherer Berechnungsprozess und wird in den nächsthöheren Stufen durch eine sauberere Struktur ersetzt. Somit sollte vor dem Export entweder „Airtight Final“ oder aber „Airtight Final w/Parts“ gewählt werden. Weitere Informationen hierzu folgen auch im Absatz „Fusion2Mesh – Export“. Ein großes Problem, das auch bei der Übernahme von CAD-Daten besteht, sind anei nan derstoßende Kanten mit unterschiedlicher Anzahl an Vertices respektive Edges. Häufig kommt es vor, dass hier die Geometrie optisch „dicht“ ist, im Realen aber aus zwei Kanten besteht, die exakt übereinander liegen und wegen ihrer unterschiedlichen Geometrie nicht geschlossen wurden. Hierbei laufen zum Beispiel Vertices direkt

WORKSHOP | MODO MESHFUSION

Live UV-Mapping eines MeshFusion-Objekts. Textur- und Material-Settings wie Reflection oder Roughness werden in Echtzeit im 3D-Viewport und der Preview angezeigt.

auf eine Kante des gegenüberliegenden Polygons. Dies ist ein großes Problem bei der weiteren Bearbeitung (etwa Slice), wenn man nachträglich mit SubD arbeiten oder die Daten für ein CAD-Programm exportieren möchte. Hierbei kann dann kein Volumenobjekt mehr erkannt werden. Aus diesem Grund gibt es in MeshFusion eine Funktion zur Behebung dieser Non-Airtight Strips. Entweder man lässt sich über „Select Non-Airtight Strips“ die Problembereiche anzeigen und versucht, diese Stellen über das Setting der Strips (Smoothing) oder Anpassung der Geometrie der Source Meshes manuell so zu modifizieren, dass die Strips dann sauber schließen. Oder man verwendet gleich die Funktion „Airtight Auto-Adjust“, wobei man nicht wirklich eine Kontrolle darüber hat, wie die kritischen Bereiche optimiert werden. Bei sensibler Geometrie oder direkten Vorgaben sollte man also lieber selbst die Anpassungen vornehmen. In den Fusion-Eigenschaften gibt es eine weitere Möglichkeit, die Topologie zu beeinflussen. „Relax Mesh Topo“ unter „Mesh Details“ war in der Vorgängerversion immer aktiviert und lässt sich nun in den Werten verändern oder deaktivieren. Verändert wird die Anzahl der Iterationen (Berechnungsschritte) im Übergangsbereich zwischen Schnittkanten und Source Meshes. Hierdurch werden klarer definierte Schnittkanten erzeugt, die gerade bei Low-Poly-Meshes bessere Ergebnisse erzielen können. Dies hängt aber stark von der entsprechenden MeshTopologie ab. Der Wert für „Remove Close Verts“ steht optisch zwar im Zusammenhang, definiert

aber nur den Grad der Anpassung des Source Meshs für ein optimales Ergebnis. Stellt man diesen Wert auf 0 Prozent, wird die originale Geometrie so gut es geht erhalten. Dieses ist wiederum gerade bei Low-Poly-Meshes relevant, bei denen schon ein eliminierter Vertex einen gravierenden Effekt auf die Topologie haben kann. Ansonsten empfiehlt es sich, den Wert nicht zu verringern, um eine möglichst gute Anpassung an den Schnittkanten zu erreichen. Auch der „Shader-Tree“ und die „Selection Sets“ können optimiert und von überflüssigen Elementen befreit werden. Hierzu findet man unter „More Fusion Controls … > Fusion Misc Utilities“ die Funktion „Cleanup Qbic Materials“. Dieses Script ist leider nicht wirklich umsichtig – es durchsucht den Shader Tree nach den vordefinierten Materialgruppen „Qbic Green“ und „Qbic Material“ und löscht diese komplett. Hat man zuvor Änderungen an den Materialien innerhalb dieser Gruppen vorgenommen und möchte man diese nicht verlieren, sollten die Gruppen umbenannt (es wird nur nach dem exakten Name gesucht) oder das Material in eine andere Gruppe verschoben werden. Weiterhin enthalten die Selection Sets, die sich im Tab „Lists“ unter „Statistics > Polygons > By Selection Set“ befinden, für jedes importierte Qbic ein mit einem absoluten Pfad versehenes Set, das bei Ausführung dieses Scripts ebenfalls gelöscht wird. Dieses Vorgehen ist nur notwendig, wenn Qbic-Presets verwendet wurden und hat unter normalen Umständen keinen weiteren Einfluss auf das Ergebnis. Bei der Zusammenführung eigener Meshes werden natürlich keine zusätzlichen Materialien oder Selections angelegt.

59


FOKUS

FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

Die Anzeige im 3D-Viewport (rechts) zeigt leider nicht immer das korrekte Mapping. Die Preview (links) stellt das korrekte Ergebnis dar, das nach dem Finalisieren auch im Viewport sichtbar wird.

Pixelschieber – Fusion UVs Halten wir also fest, dass MeshFusion für das Modeling in Modo eine ganz neue Art der Geometrieerstellung ist. Für Designer und Produktentwickler gibt es zum ersten Mal die Möglichkeit, mehr oder weniger frei und vor allem dynamisch kreative Ideen umzusetzen und in Kombination mit Sculpting sogar einen gewissen Grad an künstlerischer Freiheit mit einzubringen. Man bedenke: Die gerade beschriebenen Funktionen und Möglichkeiten erzeugen am Ende ein reales Mesh, das als Volumenkörper sogar in ein CAD-Programm übernommen werden kann. Nun ist aber ein 3D-Objekt nicht nur geometrische Hülle, es geht nicht nur um den Körper an sich. Auch das Material und unter Umständen die Textur sind von entscheidender Bedeutung. Und ist es nicht so, dass viele Möglichkeiten und damit viele Freiheiten meistens auch zu viel Mehrarbeit an anderer Stelle führen? Bei MeshFusion kann man an dieser Stelle Entwarnung geben. Das Texturieren via UV-Map erzeugt – trotz der vorher gezeigten Möglichkeiten – keinen Mehraufwand. Man muss sich lediglich um die UV-Maps der Source-Objekte kümmern, aber das müsste ja sowieso geschehen, und in den Fusion-„Properties“ unter „Fusion Mesh“ die Option „Fusion Mesh UVs“ aktivieren – fertig! MeshFusion generiert die UV-Map(s) auf Basis der UV-Maps der Sourcen on the fly. Je besser also die Maps der Quellen sind, umso besser kann MeshFusion das Ergebnis berechnen. Einzige Voraussetzung: Alle Sourcen müssen ihre UV-Informationen in einer Map mit dem Namen „Texture“ enthalten. Nur so kann MeshFusion die richtige Map finden. Wenn ein Fusion-Objekt generiert wird, werden im Shader-Tree automatisch mehrere Gruppen erstellt. Die Gruppe „Fusion

60

Inst“ repräsentiert die Miniatur-Instanzen im 3D Tree und ist somit nur etwas für das Auge. „Fusion Source“ definiert das Material für die Ghost-Objekte und „Fusion Surface“ ist der interessante Part. Hiermit stellt MeshFusion ein interaktives Material zur Verfügung, bei dem nicht nur die Materialeigenschaften angepasst und in Echtzeit auf dem FusionObjekt getestet werden können, sondern sogar Texturen und (eingeschränkt) Bump Maps. Da MeshFusion die endgültige UVMap erst bei der Finalisierung generiert, sind leider Settings diesbezüglich wie zum Beispiel Displacements oder UV-Map-basiertes Bump Mapping während der Entwurfsphase noch nicht möglich. Dies wäre definitiv ein Feature-Request für die nächste Version und dürfte relativ einfach zu implementieren sein, da die Informationen für die Texture ja sowieso schon zur Verfügung stehen. Interessanterweise gibt es hier zu diesem Zeitpunkt einen unschönen Bug, der die Texture-Position und Skalierung in der Open GL View nicht korrekt anzeigt. Um eine Textur zu prüfen, kann man aber einfach die Preview (F8) verwenden, die das korrekte Ergebnis wiedergibt. Wird nun ein finales Mesh erzeugt, wird die generierte UV-Map in die Standard-Textur geschrieben. Hierbei erstellt MeshFusion für die Strips und für die Flächen jeweils eigene UV-Islands, sodass im Nachhinein eine Zuweisung von unterschiedlichen Materialien einfach möglich ist. Seit der Version 104 von MeshFusion gibt es ein zusätzliches Script, das die UV-Maps von verschiedenen Sourcen in einem UV-Space unterbringt und optimiert. In 901 findet sich diese Funktion im Fusion-Tab unter „More Fusion Controls ... > Fusion Misc Utilities > Scale and Pack Fusion UVs“. Bevor die UVIslands auf einen 1x1 UV-Space gepackt werden, wird das Scaling der Objekte über die Modo-Funktion „Freeze > Scale“ (zu finden

in den Properties jedes Mesh Items) fixiert, damit die Größe der UV-Map auch zu der (eventuell veränderten) Skalierung des Objekts passt.

Fusion2Mesh – Export Nachdem das finale Fusion-Objekt konstruiert wurde (oder auch innerhalb des Entwicklungsprozesses), wird für das finale Bearbeiten, Material-Settings, CAD-Export et cetera ein Mesh erzeugt. Für diesen Prozess sind unter den „Properties“ des Fusion Items die Bereiche „Fusion Mesh“ und „Output Mesh“ relevant. Zu beachten ist, dass dieser Prozess nicht reversibel ist. Aus diesem Grund gibt es unter „Output Mesh“ zwei Optionen, um den Finalisierungsprozess zu starten. Bevor dies geschehen kann, sollten aber noch einige Vorbereitungen getroffen werden. Zuerst einmal sollten alle Strips noch einmal aktualisiert werden, um sicherzugehen, dass nicht bei einer Änderung oder bei dem Hinzufügen eines Source Meshs eine StripGeometrie zerstört wurde. Diese UpdateMöglichkeit findet man in der „Modeling Toolbox > Fusion > Fusion Strips > Updaten Strip Items“. In der erweiterten Exportversion mit „Airtight Final w/Parts“ werden zusätzliche Informationen in das finalisierte Mesh eingerechnet. Diese sind über „Lists > Statistics > Polygons > Part“ oder „Material“ zugänglich. So lassen sich im finalen Mesh einfach Materialien definieren, was wirklich sinnvoll ist. Benannt werden die einzelnen Sets mit den Namen der ursprünglichen Source Meshes. Auch hier wird wieder deutlich, dass eine Benennung neuer Items nicht nur für Nerds von Vorteil ist. Sollte das Finalisieren zu getrennt liegenden Inseln des Ursprungs-Meshs führen, werden die einzelnen Teilsegmente mit einer aufsteigenden

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

Nummerierung versehen. Dadurch lässt sich den Oberflächen des ursprünglichen Meshs schnell ein Material zuweisen (Sammeln in einer Selektion mit dem kleinen Plus-Zeichen). Zu beachten ist dabei, dass die Parts nicht (!) die Strips mit enthalten. Die Flächen mit Strips lassen sich aber über die MaterialSets ansteuern, die dabei alle Teile des ursprünglichen Source-Objekts inklusive der Strips enthalten. Weiterhin gibt es den Part „Fusion Item Strips“ für alle (!) Strips des entstandenen Objekts.

CAD Extend – Fusion-Export MeshFusion als Erweiterung für die Möglichkeiten in Modo zu betrachten, ist definitiv der erste logische Schritt und auch der naheliegendste. Wenn man aber Modo und die heutigen Möglichkeiten sieht, dann sollte man noch einen anderen Gedanken ins Auge fassen. Modo lässt sich heute via „Power Translators“ so erweitern, dass sich durch einen Import von Iges, Step, Sat, Rhino oder Parasolid CAD-Daten optimiert laden lassen. Dieser Workflow positioniert Modo schon einmal in einem konstruktiven Umfeld als Visualisierungstool. Nun ist aber mit dem „Power SubD-Nurbs Exporter“ ein Plug-in vorhanden, mit dem sich in Modo erstellte Objekte wieder in CAD überführen lassen. Das ist vielleicht noch nicht wirklich spannend, weil die Anzeige von Mesh-Daten in CAD-Applikationen häufig möglich ist. Um den Workflow aber komplett zu schließen, müssen die in CAD überführten Daten wieder als Volumenkörper erkannt werden, um sie dementsprechend weiterverarbeiten zu können. Nun kommt es auf die Komplexität der Geometrie an und MeshFusion hat bei extremer Geometrie teilweise auch Schwierigkeiten, die Integrität der Topologie aufrechtzuhalten. Aber Daten, die später auch produzierbar sein sollen, sollten keine Probleme bei der Erkennung machen. Somit ist ein ganzheitlicher Workflow zwischen Konstruktion und Visualisierung möglich, der unter normalen Bedingungen ohne diese Schnittstelle zwischen CAD und Raytracer mit mehr Aufwand, Redundanz oder Qualitätsverlust einhergeht.

WORKSHOP | MODO MESHFUSION

Fazit

Sinnvolle Shortcuts

Ich bin immer wieder fasziniert, wenn ich bei meinem Freund Jörg Dietz, seines Zeichens Produktdesigner, der seine Projekte in Solidworks realisiert, einige Modeling-Prozesse sehe – die Art und Weise, wie er mit Formen und Arbeitsschritten herumspielen kann, die mir in einem Hard Surface Modeler den Schweiß auf die Stirn treiben würden. Die meisten dieser Workflows sind in CAD-Programmen an der Tagesordnung und aufgrund des mathematischen Aufbaus der Geometrie kein Problem. Nun haben natürlich auch Hard Surface Modeler ihre Berechtigung und Vorteile gegenüber CAD, aber das Erstellen bestimmter geometrischer Formen gehört nicht dazu – bis heute! MeshFusion bildet eine Brücke zwischen konstruktivem Arbeiten und der Freiheit, die Geometrie auch ohne genaue Wertedefinition, Volumenangaben oder eine bestimmte Fertigungsmethodik zu erstellen. Dass sich durch den Export daraus trotzdem CAD-fähige Objekte erstellen lassen, ist zusätzlich ein Vorteil, der sich in Zukunft bestimmt weiter ausbauen lässt. An dieser Stelle soll nicht verschwiegen werden, dass diese Freiheit auch die Gefahr von Fehlern in der Topologie birgt, dass natürlich die Einflussnahme auf Form und Art der Strips begrenzt ist und nicht an die Möglichkeiten von zum Beispiel Solidworks heranreicht. Und nicht zuletzt, dass bei intensiverem Arbeiten mir Modo auch einige Male den Dienst quittiert hat, was aber auch immer an der eigenen Arbeitsweise oder meinem System liegen kann. Nichtsdestotrotz ist und soll Modo kein CAD-Programm sein und werden. Aber die Tatsache, dass man auch in CAD-Programmen neuerdings Funktionalitäten findet, die wiederum in einem Hard Surface Modeler Usus sind und nur der Optik dienen, zeigt, dass diese Bereiche zusammenwachsen. In meinem letzten Artikel habe ich versucht, die Vorteile der Integration des Plugins MeshFusion als interne Funktion in Modo zu verdeutlichen und heute bin ich mehr denn je davon überzeugt, dass MeshFusion ein gängiges Tool in Modo ist und dies nur durch die native Integration möglich war. Ich würde mir im Bereich der Performance wünschen, MeshFusion auch auf kleineren

Da es in Modo eine Relevanz hat, über welchem Bereich sich der Cursor befindet, ist dieser hinter dem Shortcut angegeben.

i Strg+1 | 3D-Viewport = GL Viewport Toggle, Deaktivieren der Workplane über „Toggle Grid Workplane“ i Strg+6 | 3D-Viewport = Background Mesh Display Pie Menu, bei selektiertem Item die Option „Invisible“ zur Isolation i F-Taste | Item List = Das im Viewport selektierte Objekt in der Item List „finden“ i Strg+F-Taste | 3D-Viewport = Mesh Fusion Pie Menu i Strg+G-Taste | Item List = Erstellen eines neuen Gruppen-Locators (vorher selektierte Items werden automatisch hinzugefügt) i W-Taste | 3D-Viewport = Move Tool i X-Taste | 3D-Viewport = Toggle Snapping (F11 Snapping Settings)

Systemen intensiv nutzen zu können. Hier merkt man ab einem gewissen Level schon, dass ein flüssiges Arbeiten an Grenzen stößt. Auch die angesprochenen Einschränkungen im Bereich Mapping (Displacement et cetera) bieten bestimmt weitere Ausbaumöglichkeiten und ich bin gespannt, welche Steps MeshFusion in der Zukunft noch machen wird. Auf jeden Fall hoffe ich, die gleiche Begeisterung für dieses geniale Tool auslösen zu können, die es in mir hervorgerufen hat. Denn man läuft nach einigem Arbeiten, dem Realisieren der Flexibilität und Power des Tools Gefahr, sich an Kleinigkeiten aufzuziehen und zu vergessen, welchen Zeitund Arbeitsaufwand ein entsprechendes Modeling mit den Standard-Tools bedeutet hätte – wenn es überhaupt realisierbar ge› ei wesen wäre. André ist ausgebildeter Mediengestalter (B.Sc.) und arbeitet als Freiberufler mit 1O Jahren Berufserfahrung und Lehrer für Schule und Wirtschaft. Sein Portfolio umfasst Projekte aus Grafikdesign, 3D, CGI und Anwendungsentwicklung. Dazu arbeitet er als Dozent und Berater für Unternehmen und öffentliche Einrichtungen, und als externer Dozent an der FH Bielefeld, Fachbereich Gestaltung. www.revid.de

Anzeige


FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

Bilder: Rainer Duda

FOKUS

Indoor Lighting mit Clarisse Eine der spannendsten Disziplinen in der 3D-Computergrafik ist das Rendern von Innenraumszenen. Für gewöhnlich werden Innenräume mit einer Mischung aus direktem sowie indirektem Licht ausbeleuchtet, falls keine anderweitigen Lichtquellen wie aktivierte Lampen oder gar Kerzen vorhanden sind. Gerade bei indirektem Licht rollen gestandene Lighting-Artists die Augen, da meist ein hoher Rechenaufwand vonnöten ist. In der heutigen Zeit gibt es jedoch moderne von Rainer Duda Rechenansätze, die genau diese Arbeit im Bereich des Lightings erleichtern.

W

ir wollen uns der Frage widmen, wie man bei diesem zeitaufwendigen Rechenprozess Zeit sparen kann. Gerade wenn es schnell gehen muss und man auf Dinge wie Light Hacks, Ambient Occlusion und Photonen verzichten will. Die Lösung hierfür bieten Verfahren wie Brute Force Global Illumination. Der beste Test für dieses Verfahren ist das Rendering eines Innenraums. Clarisse, einst ein Newcomer, heute ein Keyplayer im FeatureFilm-Business, ist von Haus aus mit einem Brute-Force-GI-Licht ausgestattet. Bevor diese Anwendung in den Fokus gelangt, ist es jedoch wichtig zu wissen, um was es sich dabei genau handelt. Dieses Hintergrundwissen erleichtert einem die Arbeit in diesem Bereich sehr. Die Clarisse Rendering Engine ist eine Hybrid-Engine, die auf einem Raytracer sowie einem Path Tracer basiert. Für Global Illumination wird ein Monte Carlo Global Illumination Raytracer genutzt – ein Path Tracer. Das Prinzip hinter dem Vorgehen nennt sich im CGI-Volksmund Brute Force Global Illumination.

62

Exkurs zum Path Tracing Path Tracing kommt dann zum Einsatz, wenn es darum geht, Global Illumination und dementsprechend Bildmaterial mit einem realen Grad zu erzeugen. Ähnlich dem Raytracing werden auch beim Path Tracing Strahlen ausgesandt. Pro Schnittpunkt eines Strahls in der virtuellen Szene werden weitere Strahlen in alle wichtigen Lichteinfallsrichtungen gestreut. Ziel dieses Vorgehens ist es, einen exakten Wert für die Lichtinformationen genau an dem Schnittpunkt zu erhalten. Wichtig ist hier die Information des Lichts, das in Richtung der Kamera geht. Das Problem, das an dieser Stelle auftritt, ist die Anzahl der Rays, die benötigt werden. Um die Anzahl zu minimieren, werden die Richtungen der Rays zufällig gestreut. Diese Verhalten ist der Grund, warum ein Rauschen im Bild auftritt – das Prinzip des stochastischen Raytracings. Nun kommt das Path Tracing ins Spiel. Hierbei handelt es sich um eine Art Verfeinerung des stochastischen Raytracings. Pro

Schnittpunkt wird lediglich ein Ray zufällig ausgewählt und verfolgt. Es liegt auf der Hand, dass der Aufwand der Berechnungen sich dadurch minimiert. Aber es werden eben mehr Pfade pro Bildpunkt benötigt. Alle benutzten Pfade pro Pixel werden im Nachhinein durch bestimmte Wahrscheinlichkeitsrechnungen korrekt gewichtet. Je mehr Schnittpunkte es gibt, je länger der Pfad wird, desto näher ist man dem exakten Ergebnis der Gleichung. Wie lang ein

Basis für die Strahlenverteilung Die Basis der Strahlenverteilung unterliegt ganz bestimmten Funktionen. Im Sinne der Reflexion handelt es sich um die sogenannten BRDFs (Bidirectional Reflectance Distribution Function). Bei der Berechnung kommen die BTDFs zum Einsatz – Bidirectional Transmittance Distribution Functions. Diese Funktionen übernehmen die Modellierung der jeweiligen Eigenschaften der Reflexion beziehungsweise der Berechnung. Ansprechen lassen sich die BRDF-Eigenschaften in Clarisse über das Material.

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

Pfad sein kann, hängt im Grunde von den Materialien in der Szene ab und davon, ob diese physikalisch plausibel aufgebaut sind. Bei jeder Reflexion und bei jeder Brechung wird ein erneuter Ray losgesandt. Im Falle einer Absorption endet der Pfad. Man sollte an dieser Stelle noch erwähnen, dass diese Pfade nicht unbedingt zum gleichen Zeitpunkt oder in dieselbe Richtung losgeschickt werden müssen. Dadurch werden Effekte wie Tiefenschärfe und Motion Blur möglich was sich nicht nur für einzelne Bilder eignet, sondern auch für Animationen. Wie zuvor gesagt ist ein Bottleneck die erhöhte Anzahl an Strahlen – Rays –, die für rauschfreies Bildmaterial ausgesandt werden müssen. Dafür gibt es aber eine Vielzahl an Möglichkeiten zur Optimierung und Workstations mit immer besseren Spezifikationen erlauben schnelle Renderzeiten. Vom Prinzip her könnte der Algorithmus rekursiv und ohne Pause Samples evaluieren und mit jedem Schritt wird das Bild verfeinert. In der Praxis wird dies allerdings begrenzt. Wenn es darum geht, einen Global-Illumination-Algorithmus innerhalb eines Lichts zu implementieren, dann ist dieser Prozess im Grunde kein Hexenwerk. Vielmehr handelt es sich am Schluss eher um eine Aufbereitung des Benutzerinterfaces. Der Grund, warum ein neues GlobalIllumination-Licht namens Monte Carlo in Clarisse aufgesetzt wurde, hat mehr mit der Flexibilität für den Benutzer zu tun. Man kann somit auch das GI-Licht in Verbindung mit Light Linking Features nutzen. Man ist also in der Lage, die Global Illumination gezielt einzusetzen, ohne die ganze Szene damit auszustatten.

Horrorszenario Innenraum Wenn es um das Rendering von Innenräumen geht, dann empfiehlt sich aus der Produktionspraxis ein stufenweises System bis hin zum finalen Lighting. Der erste Schritt beginnt mit dem Laden der Geometrie in Clarisse. Das vorliegende Beispiel entstammt einem Alembic Cache und wird mit Shading Layern versehen, das finale Lighting wird in Clarisse aufgesetzt und mit Produktionsqualität gerendert. Der erste Schritt ist die Imitation eines Sonnenlichts. Hierfür bietet sich wunderbar eine Poly Sphere an. Wichtig an dieser Stelle ist, dass die Sphere für das Rendering und die Schattengeneration nicht sichtbar ist. Daraufhin muss eine Environment Sphere außerhalb der Fenster und um die Szene herum platziert werden. Selbst wenn bis hierhin noch kein Global-Illumination-Licht eingebracht wurde, hilft der Aufbau den Reflexionen. Der dritte Schritt besteht da-

RENDERER | CLARISSE GI

rin, dass hinter den Fenstern Portal-Lichter platziert werden, die dieselbe Größe wie das Fenster besitzen. Portal-Lichter funktionieren vom Prinzip her ähnlich den bekannten Area Lights, jedoch mit dem Unterschied, dass sie kein Licht aussenden. Vielmehr nehmen sie das Licht entgegen, das hinter ihnen einfällt, bündeln es und konzentrieren die Rays nach vorn. Man könnte sagen, sie funktionieren wie Global-Illumination-Funktionen, aber fokussiert in eine Richtung. Mit dieser Basis an Objekten sollte bereits ein gutes Ergebnis sichtbar sein. Ab jetzt geht es mehr an den Feinschliff. Der Feinschliff in diesem Beispiel erfolgt über ein Monte-Carlo-Global-IlluminationLicht, das als Nächstes in die Szene eingefügt wird. An dieser Stelle reichen die Standardsteinstellungen vollkommen aus. Der Quality-Wert des Lichts bleibt also bei dem Wert 4 und die Bounces verbleiben bei 1. Je nach Hardware-Spezifikation kann der Wert der Bounces auf 3 angehoben werden.

Manuelles Importance Sampling Bei stochastischen Renderverfahren wie Monte-Carlo-Simulationen gibt es wie des Öfteren erwähnt ein Rauschen im Bild. Importance Sampling sorgt im Grunde für eine Verringerung dieses Rauschens. Man kann das zuvor angesprochene Szenario als eine Art manuelles Importance Sampling sehen. Es gibt aber an dieser Stelle eine Kleinigkeit zu beachten. Die Poly Sphere benötigt ein sehr helles Material mit einem Wert im Bereich des Emissive-Kanals jenseits von 1. Benutzt man Portale und platziert dahinter eine kleine Geometrie mit sehr hohen Leuchtwerten, entstehen Fireflies. Im Gegensatz zum dunklen Rauschen handelt es sich dabei um hell erleuchtete Pixel – Glühwürmchen. Aber wenn die Lichtgeometrie hinter dem Portal den Portal Cone füllt, entstehen keine dieser Fireflies. Die Entfernung der Lichtgeometrie ist ebenfalls hinter den Portalen sehr wichtig.

Clarisse – Quickstart Objekte in Clarisse werden über ein Tool-Menü erstellt, das man durch einen Rechtsklick im Explorer öffnen kann respektive lässt sich das Lighting Shelf oberhalb des 3D-Viewports nutzen. Dort sind die verfügbaren Lichter nebeneinander angeordnet und können per Linksklick erzeugt werden. Sämtliche Objekte lassen sich interaktiv im 3D-Viewport über ein Gimbal bewegen. Die notwendigen Tasten sind W, E sowie R zum Umschalten der Modi. Alternativ kann man rechts im Attribut-Editor manuell die Positionen, Rotationen und Skalierung anpassen.

Die Stellschrauben anziehen Wenn Lichtquellen und gegebenenfalls Optimierungen wie Exit-Farben der Global-Illumination-Strahlen angepasst wurden, dann muss im darauffolgenden Schritt ein tiefer Blick in die Einstellungen seitens des Raytracings geworfen werden. Zu erreichen sind die Einstellungen für das Raytracer-Objekt im Explorer. Es gibt mehrere Wege, die Qualitätseinstellungen zu verändern. Der erste Weg führt über das Raytracer-Objekt und der zweite ermöglicht ein adaptives Einstellen – objektspezifisch in den jeweiligen Objektattributen. In den Raytracing Attributes sollte man sein Augenmerk auf diese im Block Sampling legen. Die Antialiasing Samples müssen auf den Wert 8 angehoben werden. Dahinter verbirgt sich im Grunde die Anzahl der Samples, die für das Super Sampling genutzt werden sollen. Jeder Pixel wird in diese Anzahl unterteilt und von jeder Subpixel-Region werden Rays abgefeuert. Als Antialiasing-Filter-Methode eignet sich Blackman-Harries. Man sollte jedoch beachten, dass man keine Filter größer kleiner als 3 x 3 Pixel wählen sollte. Bleibt man oberhalb dieser Werte oder bei 3 x 3, erhält man ein artefaktfreies Bild. Im Gegensatz zu Mitchell und Lanczos sind keine negativen Lobes vorhanden, die bei HDR-Werten zu den angesprochenen Artefakten führen könnten. Der Antialiasing-Sampling-Modus kann getrost bei Blue Noise eingestellt bleiben. Das ist mitunter die beste Wahl für Clarisse, da durch diesen Modus Clarisse die Samples auf einer gleichbleibenden Distanz für die Evaluation verteilt. Auf diese Art vergeudet man keine Rays samt Samples, die viel zu nahe beieinanderliegen. Sprich: Mit der gleichen Anzahl an Samples bekommt man weniger Rauschen im Bild. Ein weiterer wichtiger Parameter schimpft sich Shading Oversampling. Grundsätzlich ist dieser zwar verfügbar, aber gedacht, um auf dem Wert null zu verharren. Nun gibt es dennoch Fälle, bei denen man diesen Parameter verändern muss. Zum Beispiel wenn alles nach eigenem Ermessen perfekt eingestellt ist, aber man dennoch etwas Rauschen im Bild verspürt. Dann ist es an der Zeit, das Shading Oversampling moderat zu erhöhen. Oder ein Extremfall: Man hat den Qualitätsparameter der Global Illumination auf den Maximumwert 32 erhöht. Natürlich möchte man an dieser Stelle nicht noch den Antialiasing-Wert zugunsten der Renderzeit auf über 32 anheben. Der Normalwert 8 reicht vollkommen aus. Dann kann man mittels des Shading Oversamplings eine weitaus höhere Qualität im Bild erreichen. Das

63


FOKUS

FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

Bei dem Ambient Occlusion Hack in Clarisse wird ein AO Light mit einem speziellen Shader an ein Null-Objekt gebunden und dieses daraufhin als Fake GI Brush verwendet.

Beispiel würde so aussehen, dass man bei einem Antialiasing-Wert von 8 und einem Shading Oversampling von 100 Prozent beim GI-Licht 32 x 8 erreichen würde. Einen Punkt gibt es allerdings noch zu berücksichtigen. Das Monte-Carlo-GlobalIllumination-Licht besitzt drei Qualitätseinstellungen. Die allgemeine Qualität, Volume-Qualität und die Bounces. Möchte man bei den Bounces aufs Ganze und über den Wert 2 hinausgehen, dann muss zuerst das Maximum für die Bounces in den RaytracerAttributen erhöht werden. Zu finden ist die Einstellung in den Raytracer-Attributen weiter unten im Feld „Rendering“. Dort ist die Zeile „Max Global Il-

64

lumination Depth“ zu sehen. Diese ist gleichbedeutend mit den maximalen Bounces. Sollten dennoch die Renderzeiten nicht ausreichen, um dem Klienten eine Kostprobe zu geben, dann kann man auf bestimmte Verfahren zurückgreifen, die einen ordentlichen Zeitsprung ermöglichen.

Annäherung an die wahre GI Es gibt eine weitere Möglichkeit, die Renderzeit um einen sehr großen Faktor schrumpfen zu lassen und dennoch die Treue der Global Illumination nicht zu vernachlässigen. Das bietet sich wunderbar an, wenn man sehr schnell Ergebnisse für den Klienten be-

nötigt. Die Zauberworte hierfür lauten: Ray Exit Color. Bevor direkt auf das Verfahren eingegangen wird, muss noch das Rendering samt dazugehörigem Output in Clarisse etwas näher unter die Lupe genommen werden. Grundsätzlich verhält sich nämlich der Render-Output in Clarisse – das Final Image – so, dass es nach der Generation erneut in der darunterliegenden Szene als interaktive Textur eingefügt werden kann. Man muss lediglich das dafür vorgesehene Map-Texture-Objekt benutzen. Eine Funktion, die im Menü unter „Texture“ und dort unter „Map“ zu finden ist. Das Symbol gleicht dem Clarisse-internen Checker-

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

RENDERER | CLARISSE GI

Portal-Lichter eignen sich hervorragend für Innenraumszenen, da sie die GI-Strahlen in eine Richtung konzentrieren. Man sollte jedoch mit den Sampling-Parametern arbeiten, um Noise zu verringern.

board. Ein Blick in den Attribut-Editor gibt Aufschluss. Unter dem Feld „General“ innerhalb der dazugehörigen Attribute lässt sich im Feld „Image“ das jeweilige Image in Clarisse einbinden. An dieser Stelle zurück zu der sogenannten Ray Exit Color. Darunter versteht man eine Funktion, die es erlaubt, grobe Strahlen der Global Illumination abzufangen und sie mit Farbinformationen zu füttern. Die Idee hinter der Beschleunigung des Renderings liegt darin, eine Panoramaaufnahme des Raums zu erstellen und diese als Basis für die Ray Exit Color zu nutzen. Im Detail heißt das, dass man zunächst inmitten des zu visualisierenden Raums eine

Panorama-Kamera erzeugt. Je nachdem, wie viele Objekte innerhalb des Raums vorhanden sind, empfiehlt es sich, das Clipping einzusetzen, damit Objekte in unmittelbarer Nähe keine wichtigen Details verdecken. An dieser Stelle muss gesagt werden, dass für das Panorama-Rendering ein neuer Kontext samt Image erstellt werden muss. Dort muss zudem ein separates Global-Illumination-Licht eingefügt werden, um unendliche Schleifen zu verhindern. Hintergrund ist, dass ein Licht keine Textur nutzen kann, die durch das Licht selbst beeinflusst wird. In diesem neuen Kontext muss der Raum instanziert werden. Der Umweg über einen neuen Kontext macht zum

einen die Arbeit an der Textur einfacher und ermöglicht zum anderen die Einstellung des Near Clippings. Das Clipping lässt sich über die Range-Attribute des 3D-Layers einstellen. Wobei hier der 3D-Layer des Kontexts gemeint ist, der die Panorama-Kamera enthält. Wichtig ist zudem die Auflösung des Images, das man als Ray Exit Color nutzen möchte. Hier reicht es vollkommen aus, eine geringe Auflösung mit Maßen im Bereich von 64 x 64 Pixel zu wählen. Die Auflösung ist am Image-Objekt des Kontexts einzustellen, in dem die Panorama-Kamera und das dazugehörige Image liegt. Bevor die Ray Exit Color angewandt werden kann, müssen

65


FOKUS

FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

Die Krönung in Sachen Qualität ist das MonteCarlo-GI-Licht. Mit zwei Bounces erhält man ein gutes visuelles Resultat. Für ein sauberes Bild sollte man jedoch nicht die Bounces erhöhen, sondern mit Sampling-Anpassungen jonglieren.

am Texture-Map-Objekt lediglich ein paar weitere Einstellungen vorgenommen werden. Dabei handelt es sich zunächst um die Projektionsmethode. Dort muss in den Attributen die Funktion „Parametric“ aktiviert werden. Daraufhin ist es ratsam, die Art der Interpolation auf Mip Mapping zu ändern. Diese Einstellung verhindert Rauschen im Bild. Als Letztes noch die Methode der Filterung auf „Trilinear“ setzen, dann ist man für die praktische Anwendung gerüstet. Im eigentlichen Arbeitskontext muss nun nur noch bei der Zeile „Exit Color“ das Textur-Symbol betätigt und daraufhin ein Verweis auf die Texture Map gelegt werden. Was also diese Exit Color mit der Textur

66

macht, sieht wie folgt aus: Wenn Strahlen die Geometrie nicht erreichen oder gar gestoppt werden – gemäß des eingestellten Clippings unter dem Feld „Max Distance“ im Range-Feld –, dann werden die Informationen für die jeweiligen Samples aus der Textur übernommen.

Wenn alle Stricke reißen – back to the roots Der Vollständigkeit halber muss an dieser Stelle erwähnt werden, dass es immer wieder Innenraumszenarios gibt, bei denen es nicht ratsam ist, rein mit Global-Illumination-Licht zu arbeiten – um des Zeitfaktors willen. Ge-

rade wenn es um indirektes Licht geht, das erst nach nicht weniger als drei Bounces in den Innenraum gelangt. Bei diesem Szenario müssen Abstriche gemacht werden. Portal-Lichter sowie Global-Illumination-Lichter werden bei so einem Szenario durch manuell platzierte Area Lights ersetzt. Der Vorteil von Clarisse ist, dass die Area Lights texturiert werden können und sich dementsprechend perfekt eignen, um die Hauptlichtquelle – die Sonne – samt den Bounces zu faken. Eine Stufe weiter können zum Beispiel Portal-Lichter platziert werden, mit leuchtender Geometrie dahinter. An dieser Stelle kann man versuchen, mit einem Global-Illumination-Licht etwas mehr Detail

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

herauszukristallisieren – gerade im Bereich der sogenannten Color Bleeds. Bei speziellen Innenraumszenen wie zum Beispiel aus einem Science-Fiction-Film oder Serien wie „Andromeda“ oder „Stargate“, wo man sich in geschlossenen Räumen mit größtenteils monotonen Farbnuancen und vielen Reflexionen befindet, kann man auf einen Klassiker zurückgreifen. Es geht um das gute alte Occlusion Light in Clarisse. Beim Ambient-Occlusion-Licht in Clarisse handelt es sich vom Prinzip her um eine grobe Annäherung an die Global-Illumination-Ergebnisse. Strahlen werden dabei von einer Halbkugel ausgesandt, die an jeder Flächen-Normale sitzt. Nutzt man eine Textur, um mit dem Licht ein Environment Light zu imitieren, dann sollte man darauf achten, dass der Projektionsmodus auf „parametrisch“ gesetzt ist. Ist die Strahlenlänge auf „Max Distance“ eingestellt, lassen sich Bounces von Flächen nachahmen. Es gibt aber noch ein paar andere Parameter, auf die Wert gelegt werden sollte. Der Radius des Ambient-Occlusion-Lichts sollte dem Raum angepasst werden. Somit erhält man einen sehr guten Fake der Bounces eines richtigen Global-IlluminationLichts. Die Intensität sollte noch für ein natürliches Wirken herabgesetzt werden. Um das Rendering zu beschleunigen, kann man zusätzlich in die Evaluation der Textur eingreifen und das Filtering von Mip Mapping auf „Trilinear“ umstellen.

Ein guter Start Hat man alle Ratschläge und Möglichkeiten beherzigt, dann ist man gut gerüstet für das Rendering von Innenraumszenen. Ganz gleich, ob es sich um die Visualisierung von moderner Architektur oder gar von futuris-

Brute Force GI in a Nutshell Man kann sich das Brute-Force-Prinzip vereinfacht so vorstellen, dass jedes Sample mehrere Male evaluiert wird. Es ist im Grunde eine simple Methode mit wenig Input vom Benutzer, jedoch intensiver im Rechenaufwand. Brute-ForceMethoden machen einen großen Unterschied zu den bekannten Verfahren, die mit Interpolation arbeiten. Daher werden diese interpolierenden Methoden auch mit dem Wort Biased in Verbindung gebracht, während Path Tracer als Unbiased gelten: Interpolierende Methoden, die ein Sample nach einer gewissen Anzahl Pixel evaluieren und dazwischen eine Schätzung vornehmen. Oder gar das Irradiance Caching, wo eine bestimmte Anzahl an Punkten einer Point Cloud evaluiert wird. Brute-Force-Methoden sind meist mit Vorprozessen ausgestattet oder – wie es bei Clarisse der Fall ist – mit Monte-Carlo-Methoden.

RENDERER | CLARISSE GI

tisch wirkenden Städten auf anderen Planeten handelt. Wichtig ist es, die einzelnen Lichtformen um das eigentliche GlobalIllumination-Verfahren herum zu verstehen und wie diese effizient zum Einsatz gebracht werden können. Nebst den hier vorgestellten Verfahren bietet Clarisse dem Nutzer zudem die Möglichkeit, ein Environment Light einzusetzen, mit dem man die Szene durch eine HDR Map beleuchten kann – was sich wunderbar für virtuelle Studios eignet. Aber auch wenn man sich den aufstrebenden Verfahren wie Brute Force GI permanent widmet, eine eierlegende Wollmilchsau unter den Renderern gibt es nicht. Viel wichtiger ist es, das Prinzip zu verstehen, sozusagen die Lichttheorie, um das bestmögliche Ergebnis aus dem 3D-Material zu holen. Denn am Ende liegt es nicht an der Render Engine selbst, sondern an der Komposition aus Render Engine und einem physikalisch plausiblen Materialsystem. Unabhängig davon gibt es natürlich noch weitere Spielereien. Man kann selbst das Prinzip des Arnold Renderers in Clarisse imitieren, indem man in den Materialien äußerst geringe Qualitätseinstellungen vornimmt und am Schluss einfach die Antialiasing Samples auf 100 setzt sowie alle lokalen Attribute mit dem globalen multipliziert. Sozusagen ein einziger Slider für die gesamte Qualitätseinstellung.

Warum das alles? Warum ist es einfacher, eine gigantische Außenwelt mit Millionen von Polygonen zu rendern als ein Wohnzimmer mit wenig Objekten und halb heruntergelassenen Rollläden? Eine Frage, die nicht nur bei Neuankömmlingen aufkommt. Raytracing funktioniert anders als zum Beispiel die Rasterisierung bei Open GL. Bei der Rasterisierung erhöht sich die Renderzeit linear zur Anzahl der Dreiecke im zu rendernden Bild. Vereinfacht muss man sich das Vorgehen so vorstellen, dass, wenn für ein Dreieck eine Millisekunde zum Rendern benötigt wird, bei zehn Dreiecken eben 10 Millisekunden vonnöten sind. Nicht so beim Raytracing. Beim Raytracing werden Strahlen ausgesandt und solange verfolgt, bis sie mit Geometrie kollidieren. Sehr vereinfacht gesagt werden Unmengen an Strahlen ausgesandt, um herauszufinden, welches Objekt am nächsten ist, und das wird gerendert. Man kann das Vorgehen jedoch viel geschickter durchführen, indem man die Objekte in der Szene räumlich gesehen sortiert, um möglichst viele von ihnen zu verwerfen, da sie für das Rendering nicht in Frage kommen. Die Magie dahinter ist keine andere als der sogenannte Quadtree.

Man muss sich das folgendermaßen vorstellen: Würde man vor einem riesengroßen Gebäude sitzen, dann würde mit älteren Renderverfahren das gesamte Objekt in einen Buffer geladen und in jedem Frame gerendert werden. Auch wenn man nur die Vorderseite des Gebäudes sieht – alles würde gerendert werden. Mit dem Quadtree sieht das Vorgehen so aus, dass zunächst eine Bedingung festgelegt werden muss, die besagt, wie viel Dreiecke innerhalb eines Quads, eines Würfels sein dürfen. Das Gebäude wird nun solange rekursiv in Boxen (Quads) unterteilt, bis jedes der Quads die festgelegte Anzahl an Dreiecken besitzt. Diese finalen Quads nennt man Sektionen. Für jede Sektion muss nun herausgefunden werden, welche Dreiecke darin enthalten sind. Und nur die Dreiecke in den jeweiligen Sektionen werden behalten. Jede Sektion bekommt einen Vertex-Buffer für die speziell in den Sektionen enthaltenen Dreiecke. Das Resultat ist, dass das Gebäude in eine Vielzahl an Buffern unterteilt wurde, anstatt alles in einem Buffer unterzubringen. Da bekannt ist, an welcher Position welche Sektion vorhanden ist, ist es für den Algorithmus einfach, die nicht benötigten Sektionen außer Acht zu lassen und nur die wichtigen zu rendern. Es geht aber nicht nur um die eigentliche Sichtbarkeit der Objekte, sondern auch um deren Shading. Wie man sieht, geht es beim Rendering mit Raytracing nicht um die Anzahl der Dreiecke, sondern um die Anzahl der Samples, die man benötigt, bis man weiß, woher das Licht kommt. An dieser Stelle kommt die Global Illumination ins Spiel. Bei einer Außenszene kommen circa 95 Prozent des Lichts von einer direkten Lichtquelle, einem Direct Light oder einem Sonnenlichtsystem. Die restlichen fünf Prozent an indirektem Licht werden von einem Global-Illumination-Algorithmus mit einer geringen Anzahl von Samples errechnet. Der Renderer weiß bei einem direkten Licht ja von vornherein, woher das Licht kommt. Bei einer Innenraumszene ahnt man schon, worauf es ankommt. Es gelangen nur weniger Strahlen durch das Fenster. Der Raytracer muss sozusagen blind unzählige Strahlen aussenden, um indirektes Licht zu berechnen. Dazukommt noch eine hohe Bouncing-Rate. Je weniger Samples man nutzt, desto mehr Rauschen ist im Bild sichtbar. Um die Renderzeiten in einem geringen Rahmen zu halten und ein sauberes Bild zu bekommen, muss man sich über das Potenzial und die Möglichkeiten im Klaren sein und dementsprechend Portal-Lichter oder anderweitige Tricks anwenden, die in › ei diesem Text beschrieben sind.

67


FOKUS

FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

Eine Frage des Aussehens Damit 3D-Objekte detailliert und somit real wirken, benötigen sie nicht nur eine ausreichende Portion Geometrie, sondern auch den richtigen Anstrich. Und mit Anstrich ist im 3D-Kontext das Material beziehungsweise der Shader gemeint. In Verbindung mit einem ausgeklügelten Material- und einem optimierten Lichtsetup wird jede 3D-Szene, jede Animation und jede Simulation zu einem Genuss für das Auge. In diesem Workshop zeigen wir deshalb, wie man in Side Effects Flaggschiff von Rainer Duda Houdini einen PBR Shader aufsetzt und mit einer Reihe von Lichtquellen ein Objekt imposant inszeniert.

M

an hört immer wieder, dass Houdini ein großartiges Tool ist, das in vielen großen Produktionen zum Einsatz kommt und für beeindruckende Effekte sorgt. Doch die immense Vielfalt an Möglichkeiten, die ersichtlich wird, sobald man die Software installiert hat, trübt bei so manchem Newcomer rasch die Vorfreude. Mit den richtigen Anhaltspunkten aber gibt es bald keinen Grund mehr, Trübsal zu blasen, sondern dann ist das richtige Material in Windeseile erstellt. Wie andere 3D-Pakete auch besitzt Houdini eine vorgefertigte Materialpalette. Schwieriger wird es, wenn man das Material nach eigenen Wünschen anpassen möchte. In dem folgenden Workshop geht es daher um das Erstellen eines PBR-Materials in Houdini. Schritt für Schritt soll auf die einzelnen Nodes und deren Verknüpfungen eingegangen werden – mit dem Ziel, eigene PBR-Materialien aufzusetzen, die am Ende keine Wünsche mehr offen lassen.

Der Ort der Geschehens In vielen Programmen agiert man im Bereich der Materialien auf einem oberflächlichen Level. Man bekommt eine Reihe an Parametern vorgesetzt und dazu noch Auswahlfelder sowie Slider. Wie der Shader beziehungsweise das Material im Inneren funk-

68

tioniert, bleibt dem Artist verborgen. Um in entsprechende Würze zu verleihen, werden Houdini mit Materialien arbeiten zu können, wir mit PBR Nodes arbeiten. Über die rechte muss man sich der Shader-Mechanik im In- Maustaste im leeren Bereich des VOP Netneren bewusst sein, um das beste visuelle works (Material Shader Builder) öffnet sich Ergebnis herausholen zu können. das Tool-Menü. Dort befinden sich alle verMan kann sich als Beispiel das Program- fügbaren Nodes für diesen Kontext. mieren vor Augen halten. Während das Coding mittels Python eher in den Bereich Das richtige Aussehen High-Level fällt, spricht man beim Coding mit C++ von Low-Level-Programmierung Die Idee des Shader-Netzwerks basiert da(also hardwarenaher). Da aber nicht jeder rauf, dass man Texturen mit Houdini-intergerne klassisch programmieren möchte, nen Generatoren mischen kann. Dazu soll eine farbliche Anpassung möglich sein, nebst kann man auch visuell programmieren. In Houdini wird die Shaderarbeit daher einer korrekten oder besser gesagt natürlich mit einem Material Shader Builder innerhalb wirkenden Reflexion. Die Arbeit beginnt mit dem Erstellen eines SHOP (Shading Operator) Networks vorgenommen. Per Definition ist der Materi- eines Texture Nodes. Mit diesem lässt sich al Shader Builder selbst ein High-Level-Kon- eine Textur über einen High-Level-Zugang strukt. Die eigentliche Arbeit, der Low-Le- zuweisen und im VOP Network mit der gevel-Zugang, befindet sich innerhalb des Vec- wünschten Funktionalität ausstatten. Intetor Operator Nodes. Als Basis erhält man vier vorgefertigte Nodes in einem dieser Material Shader Builder: Surface sowie Displacement, Globals und Output Durch einen Material Shader Nodes. Dazwischen Builder lassen sich sämtliche liegt der spannende Materialien erzeugen und mit einem Interface ausstatten. Teil der Arbeit. Um dem Workshop die

WWW.DIGITALPRODUCTION.COM


ressant sind in ersFür das Tiling einer ter Linie die beiden Textur braucht es VorFelder „s“ sowie arbeiten: Es müssen UV-Koordinaten definiert „t“, die sinngemäß und separiert werden. für UV-Koordinaten stehen. Wobei man nicht direkt UV sagen kann. UV-Koordinaten können vorhanden sein oder auch nicht – die Einheiten „s“ und „t“ sind jedoch immer Ist die gewünschte Textur verfügbar. samt Tiling aufgebaut, so Im nächsten kann man den Branch mit diffusen PBR-KomponenSchritt wird eine ten multiplizieren. kleine Schaltung aufgebaut, mit der man ebenfalls über einen High-LevelZugang das Tiling, die Kachelung, vornehmen kann. Dafür sind etwas mehr Nodes nötig. Die Arbeit beginnt mit dem Hinzufügen eines UV Coords Nodes. Da man mit diesem erst mal keinen Zugriff Neben der Textur wird ein auf die relevanten prozeduraler Generator Parameter für das hinzugefügt, der ein KaTiling erhält, muss chelmuster erstellt. Das Tiling-Grundkonstrukt zunächst ein Zuwird von der Textur gang dahin gelegt übernommen. werden. Diesen erhält man über eine Transform-Matrix. Der gleichnamige Node muss lediglich mit dem Vector Output, dem hellgrünen Symbol, verknüpft werden. Blickt man in die Parameter, muss sich der Blick direkt auf die Skalierung darum geht, einen High-Level-Zugang zu richten. Über die x- und y-Felder in der Scale- ermöglichen. Zeile kann man das Tiling einleiten. Damit Hier kommt jetzt ein Parameter Node ins das aber nicht von Hand mühsam im Material Spiel. Mit den sogenannten Parameter Nodes Shader Builder vorgenommen werden muss, ist man in der Lage, eine Vielzahl von unwird im nächsten Schritt ein High-Level-Zu- terschiedlichen Parametern für unterschiedgang erstellt. lichste Schaltungen einfach zugänglich zu Der Vector Output muss nun also in seine gestalten. Vier wichtige Anpassungen müsBestandteile zerlegt werden, um die einzel- sen an dem Parameter Node vorgenommen nen Variablen extrahieren zu können – „s“ werden: Zuerst muss der Name des Parameund „t“. Zu Hilfe kommt ein Vector to Float ters vergeben werden – „atile“ ist passend. Node, der im nächsten Schritt angehangen Dieser darf nicht mit anderen Parameter wird. Die ersten beiden Outputs dieses Vec- Nodes übereinstimmen, ansonsten funktiotor to Float Nodes müssen jeweils mit einem niert die Schaltung nicht. Des Weiteren sollte eigenen Multiply Node verbunden werden. ein Label eingetragen werden. So wird der Die Trennung spielt eine entscheidende Rol- Parameter im High-Level-Kontext erkannt, le, da man so zukünftig jeden Kanal einzeln also wird „Albedo_Tiling“ eingetragen. Zuund den eigenen Wünsche entsprechend sätzlich muss der Typ des Parameters als „Inkacheln kann. Spannend wird es, wenn es teger“ deklariert und daraufhin ein Startwert

SHADER | HOUDINI

Bilder: Rainer Duda

AUSGABE O1:2O16

von 1 eingetragen werden. Der Output des Parameters wird nun mit jeder der beiden Multiply Nodes verbunden. Um das kleine Konstrukt abzuschließen, wird der erste Multiply Node mit dem „s“Input des Texture Nodes verbunden und der zweite Output Node mit dem „t“-Input des Texture Nodes. Das Tiling könnte zu diesem Zeitpunkt stattfinden.

PBR-Diffuse-Komponente Bisher ging es noch nicht um das anfangs erwähnte PBR Rendering, doch das ändert sich jetzt. Bevor wir aber auf die PBR-DiffuseKomponenten eingehen, muss zunächst eine kleine Abdunklung vorgenommen werden. Der Color Output des Texture Nodes muss mit einem Constant Node multipliziert

69


FOKUS

FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

Für die Modifikation des PBR Specular wird zusätzlich ein Input gelegt für eine Reflection Mask inklusive demselben Tiling.

PBR Specular bringt einige Funktionen: Von Farbgebung über Fresnel-Reflexion bis hin zu einem Multiplier für die Intensität.

werden und das mit einem Richtwert von 0,2. Das hat allerdings mehr mit der angewandten Textur zu tun. Jetzt kommt final der Physically Based Diffuse Node ins Spiel. Dieser muss als Nächstes in den Graphen eingefügt werden. Im Gegensatz zu den anderen Nodes enthält dieser beziehungsweise alle PBR Nodes einen gelben Output namens „F“. Das „F“ steht für BSDF – Bidirectional Scattering Distribution Function, auf Deutsch: Bidirektionale Reflektanzverteilungsfunktion. Der standardmäßig vorhandene Surface Output Node enthält ebenfalls einen gelben „F“-Output. Dieser Output dient dem Shaderkonstrukt als finaler Output. Damit nun der Texture Node mit der Abdunklung auch ordnungsgemäß in die BSD-Funktion eingegliedert werden kann, muss sie zunächst mit dem PBR Diffuse Node über den gleichnamigen Node – Multiply – multipliziert werden. An dieser Stelle gibt es einen gravierenden Punkt, den man beachten sollte: Bei

70

den Multiply Nodes ist es so, dass der Output des Mutliply Nodes vom ersten Input definiert wird. Daher sollte bei der Arbeit mit PBR Nodes immer der BSDF Output an erster Stelle stehen. Bei einer korrekten Verknüpfung bemerkt man direkt die gelbe Färbung des Multiply Outputs. Bevor nun der nächste Schritt zum Generator erfolgt, bekommt der Texture Node noch den Namen und das Label „Albedo Map“.

Der VOP-Generator Houdini besitzt im Vector-Operator-Kontext innerhalb eines Material Shader Builders eine Reihe an Generatoren für unterschiedliches Rauschen und bestimmte Muster, die sich für Unreinheiten, Deformationen und anderweitige Effekte einsetzen lassen. Für diesen Workshop wird ein Box Generator Node erstellt und unterhalb des Albedo Map Nodes abgelegt. Warum das alles?

SCIENCE & EDUCATION

SERVICE

Die Albedo Map in diesem Beispiel entspricht Bodenplatten, die in Photoshop aufbereitet wurden. Für eine ordnungsgemäße Reflexion und passendes Displacement Mapping wird das Gitter des Box-Generators mit einbezogen. Das Interesse an dem Box Node liegt bei drei Parametern: Selbstverständlich wieder die „s“- und „t“-Koordinaten und zusätzlich noch die sogenannte Boxsize. Wobei Let z teres eher der Dicke der Linien entspricht und besser den Namen „Line Spacing“ tragen sollte. Der Korrektheit halber wird nun ein weiterer Parameter Node erstellt und bekommt den Attributnamen „lspace“. Das Label sowie der Node-Name wird auf Line Spacing geändert. Der Typ kann bei diesem Node auf Float – Fließkommazahlen – belassen werden. Würde man den Parameter nun direkt mit dem Boxsize-Input verbinden, wäre zwar der Name korrekt, jedoch wäre der FloatParameter irreführend. Sinngemäß wäre er korrekt, wenn mit zunehmendem Wert die Liniendicke erhöht wird. Dafür muss das bisherige Verhalten invertiert werden. Lange Rede, kurzer Sinn: Ein Complement Node muss zwischen Parameter Node und Boxsize-Input hinzugefügt werden, dann stimmt das Verhältnis wieder. Für den Workshop wurde ein Standardwert von 0,0125 festgelegt. Was noch fehlt, ist die passende Kachelung für den Box-Generator. Hier wird es etwas einfacher, da die Hauptarbeit bereits für die Albedo-Textur durchgeführt wurde. Es werden jetzt zwei weitere Multiply Nodes erstellt. Der erste wird mit dem „s“-Input des Generators verbunden und der zweite Multiply Node mit dem „t“-Input. Was noch für einen High-Level-Zugang fehlt, ist, wie auch bei der Albedo Map, ein Parameter mit den Informationen, welche Koordinaten miteinander multipliziert werden müssen. Der Blick geht nun wieder zurück auf den Vector to Float Node mit den beiden wichtigen Outputs. Der erste Output wird mit dem Multiply Node für den „s“-Input verbunden und der zweite Output mit dem Multiply Node für den „t“-Input. Als Letztes wird erneut ein Parameter Node erzeugt und mit dem Attributnamen „ptiling“ versehen. Das Label sowie der Node werden

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

SHADER | HOUDINI

der Ordnung halber mit „Pattern_Tiling“ beschrieben. Der Typ muss hier ebenfalls wie bei dem anderen Tiling-Parameter auf „Integer“ – Ganzzahl – gestellt werden. Der Standardwert bekommt die Zahl 4 8 zug ewie s e n, während der TilingParameter für die Textur auf 12 gestellt wird. Die Werte hängen im Grunde nur mit einer Übereinstimmung der Textur auf den Generator zusammen. Auf der Textur ist bezüglich der Variation bereits eine Kachelung von 4 mal 4 Kacheln vorhanden (siehe Bild unten). Die Werte ändern sich demnach von angewandter Textur zur Textur. Nun noch zügig den Parameter für das Pattern Tiling mit den beiden Multiply Nodes verbinden – schon erfüllt auch diese Schaltung so weit ihren Zweck.

Eine Frage des Aussehens

Die Reflection Map wird zunächst auf einen Vector Output reduziert und als Roughness für den PBR Specular eingesetzt.

Das Kachelmuster des Generators wird zudem für ein Displacement Output aufbereitet.

„So weit“ lässt bereits darauf schließen, dass es nicht mit ein paar einfachen Handgriffen getan ist. Nun geht es an die Arbeit mit dem Generator-Output. Der Float Output Amount gibt im Grunde die schwarz-weißen Quadrate aus, während der Float Output für Seed ein Farbmuster für die Quadrate be-

reitstellt. Ziel ist es nun, der Albedo Map mit den PBR-Diffuse-Einstellungen das Muster zu übergeben und per Parameter eine Variation zu erzeugen. Dafür bringen wir nun einen Add Node ins Spiel. Dieser Add Node wird mit dem Seed Output verbunden. Über einen Parameter, den man nun addiert, soll die Musterung gesteuert werden. Ein neuer Parameter Node muss her. Der Attributname wird mit „pvar“ festgelegt. Label und Node-Name bekommen „Pattern_Variation“ zugewiesen. Ganz wichtig ist hier der Typ. Für eine korrekte Funktionsweise muss der Typ auf „Integer“ geändert werden, da erst mit jeder Ganzzahl das Muster umspringt. Nun muss dieser neue Parameter nur noch mit dem Add Node verbunden werden. Prinzipiell könnte man jetzt bereits das Muster mit der Albedo Map multiplizieren, das Problem liegt jedoch bei der Intensität der Farbgebung. Noch handelt es sich

um Schwarz-Weiß-Muster, die zu intensiv sind. Eine intelligente Steuerung der Farben übernimmt im nun folgenden Schritt keine Multiplikation mit Farbparametern, sondern ein Color Mix Node. Doch wie steuert man diesen Node? Im Grunde ist die Funktion relativ simpel. Man nimmt den Output des Add Nodes, also das Schwarz-Weiß-Muster, und fügt es dem Float Input namens „Bias“ an – eine Art Maske, die standardmäßig, basierend auf dem Input, zwei Farben mischt. Die Inputs für Primär- und Sekundärfarbe bleiben unberührt und lassen sich bei Bedarf mit Farbparametern versehen. Für diesen Workshop reicht es, zunächst einmal die Farben von Hand einzutragen. Die Primärfarbe bekommt für alle drei RGB-Werte den Wert 0,5 zugewiesen. Die Sekundärfarbe hingegen wird heller und bekommt jeweils den Wert 0,9. Wichtig für das optische Ergebnis ist die Art, wie mit dem Bias umgegangen wird. Hier wird

71


FOKUS

FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

Zu guter Letzt werden alle Komponenten gebündelt und mit dem Shader Output verbunden. Das visuelle Ergebnis lässt sich daraufhin im Render Output betrachten.

auf Ease-in/Ease-out gesetzt. So umgeht man scharfe Kanten, die eventuell für störende Artefakte sorgen: Die Mischung wird etwas abgeschwächt. Damit der Generator nun seinen Zweck erfüllen kann, muss der Vector Output nur noch mit dem Multiply Node verbunden werden, der PBR Diffuse mit der Albedo Map multipliziert. Bevor der Übergang zur Reflexion erfolgt, wird auf die Schnelle noch ein Reflexion Map Node aufbereitet, der später dazu dienen soll, die Roughness zu steuern. Dann noch fix einen Texture Node erzeugen und unterhalb des Generators positionieren. Der Name wird auf „Reflection_Mask“ geändert. Es wurde ein Tiling Setup für die Albedo Map erstellt. Die beiden Multiply Nodes für „s“ sowie „t“ müssen nun noch bei „s“ und „t“ an der Reflection_Mask angefügt werden, damit diese sich ebenso kachelt wie die Albedo Map. Der später auftretende Roughness-Parameter ist ein Float-Wert, doch der Map Output ist ein Vektor. Für eine korrekte Übersetzung reicht das Erstellen eines Luminance Nodes – ein Schwarz-Weiß-Filter mit Float Output – und das Verbinden mit dem Map Output.

Displacement im Einsatz Das Thema Displacement im VOP-Kontext ist immer ein spannendes. Gerade wenn es darum geht, Texturinformationen zu nutzen, um das Displacement anzupassen. Ein Output, der bis jetzt unbeachtet geblieben ist, ist der Output Amount des Generator Nodes. Sozusagen der Schwarz-Weiß-Output, der die Boxen ausgibt. Für das Displacement benötigt man den Node mit dem Namen

72

„Displace Along Normal“. Dieser wird als Nächstes in den Graphen eingefügt und zwischen die Displacement Globals Nodes positioniert. Es gibt zwei Output Slots am Node. Der Output, der interessant ist, ist der mit dem Namen „dispN“. Der wird mit dem N-Normals-Input an dem Displacement Output Node verknüpft. Bevor man nun den Output Amount nimmt und ihn mit dem Amount Input des Displace Along Normal Nodes verbindet, sollte man erneut ein Complement dazwischen schalten. Ansonsten erheben sich anstatt der Kacheln die Zwischenräume. An dieser Stelle sei aber noch eine Kleinigkeit hinzugefügt: Es wäre wünschenswert, die Stärke des Displacements auf der Farbebene zu kontrollieren, bevor die Informationen auf den Amount Input gelangen. Abhilfe schafft hier die Multiplikation mit einem Parameter Node. Attributname ist „dispst“ und das Label samt Node-Namen wird umbenannt zu „Displacement_Strength“. Der Typ bleibt bei Float und als Richtwert eignet sich der Wert 1. Zu diesem Zeitpunkt erheben sich die Kacheln und man würde ein schönes Muster, ähnlich einer Fliesenwand oder eines gefliesten Bodens, erhalten. Schöner wäre es, noch die Maserung der Kacheln mit in das Displacement zu übertragen. Dafür muss man nichts anderes machen, als den Luminance Float Output der Reflection Map mit der Displacement Strength und dem Complement des Generators zu multiplizieren. Für ein visuelles Ergebnis sollte man jedoch sichergehen, dass der fliederfarbene Output des Displacement Output Nodes mit dem Output Collect Node verbunden ist. Bei Letzteren werden im

Houdini besitzt zudem eine Reihe verschiedener Material-Templates, die den eigenen Wünschen entsprechend abgeändert werden können.

Grunde alle Shader gesammelt und auch ausgegeben. Andernfalls kräuseln sich die Haare und man wundert sich, warum kein Ergebnis sichtbar ist.

PBR-Reflexion mit Fresnel Spannend geht es weiter mit dem Thema Reflexion. Die Reflexion ist schlussendlich das, was PBR-Materialien im Grunde ausmachen: PBR-Reflexionen samt deren Parametervielfalt. Prinzipiell benötigt man bei der Darstellung von Metall noch nicht mal eine Diffuse-Komponente. Diese kann getrost auf Schwarz bleiben oder ganz weggelassen werden. Die Oberfläche wird dann über eine Verschachtelung von mehreren Reflexionen durchgeführt: Einem Basis-Layer (DiffuseErsatz) und einem Varnish Layer (Klarlack, Lack-Finish). Die Arbeit beginnt mit dem Erstellen eines Physically Based Reflection Nodes. Platziert wird dieser weiter rechts neben den bereits vorhandenen Konstrukten. Wie auch der PBR Diffuse Node verfügt auch der PBR Specular

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

Node nur über eine begrenzte Anzahl von Einstellungsmöglichkeiten. Man muss also noch von Hand etwas nacharbeiten. Vorher gilt es, das Specular Model festzulegen. In diesem Fall wird es auf GGX gestellt. Im Grunde geht es bei dieser Einstellung um die Weichzeichnung der Reflexion. GGX behält im größten Maße die reflektierten Informationen bei und erzeugt einen weichen Blur um die Konturen. Damit dieses Modell funktioniert, muss ebenfalls ein Component Label namens „Reflect“ vergeben werden. Der RoughnessParameter, der für die Darstellung der Oberflächenbeschaffenheit wichtig ist, wird durch die Reflection Map definiert. Dafür muss der Output des Luminance Nodes, der am Output der Reflection Map hängt, mit dem Roughness Input verbunden werden. Drei wichtige Konstrukte müssen noch für die Steuerung der Reflexion aufbereitet werden: Zunächst das etwas zeitaufwendigere: Die Reflexion soll auf der Objektoberfläche „besser“, das heißt nicht künstlich, sondern real aussehen. Dafür wird ein Fresnel benötigt und es gilt, im nächsten Schritt einen Fresnel Node einzufügen. Bei diesem Node steuert man lediglich den Index of Refrection – nur auf eine unnatürliche Art und Weise: von 0 bis 1. Möchte man ein Verhalten imitieren, wie man es von V-Ray gewohnt ist, dann muss man einen Wert durch einen anderen dividieren und das Ergebnis an den Eta-Slot (Index of Refraction Input) anknüpfen. Es wird also ein Divide Node erzeugt und an den Eta-Slot angeknüpft. Des Weiteren werden im darauffolgenden Schritt zwei neue Parameter Nodes erstellt. Einer wird an den ersten Divide Input angefügt und der zweite einen Slot darunter an den Divide Node. Der erste Parameter Node bekommt das Label und den Namen Base_Reflection_Inside_IOR mit einem zugewiesenen Wert von 1 und einem Attributnamen „briior“. Beim zweiten Parameter Node kommt „Base_Reflection_Outside_IOR“ als Name und Label zum Einsatz. Der Standardwert hier ist 1,25 und der Attributname soll „broior“ lauten. Über den zweiten Parameter lässt sich dann über den High-Level-Zugang der IORWert so anpassen, wie man es von anderen Renderern gewohnt ist, mit Werten über 1. Nun kommt ein neuer Multiply Node zum Einsatz, um den PBR Specular mit dem Fresnel zu multiplizieren. Als Nächstes muss noch ein Add Node hinzugefügt werden, um Specular- und Diffuse-Komponenten miteinander zu addieren. Der Output dieses letzten Add Nodes geht dann direkt in den gelben F-Input des Surface Output Nodes. Doch noch ist die Schaltung nicht komplett. Für eine korrekte Funktionsweise fehlen noch zwei Dinge. Einmal eine Intensität für den Specular – das ist das einfachste. Hier wird erneut ein Parameter Node erzeugt.

SHADER | HOUDINI

Label und Node-Name lauten „Base_Reflection_Intensity“ und der Attributname wird auf „brint“ gesetzt. Als Standardwert reicht es vollkommen aus 0,45 anzulegen. Dieser Parameter muss nun mit dem Multiply Node verbunden werden, der auch PBR Specular mit dem Fresnel multipliziert. Nun muss nur noch die Farbe ins Spiel kommen. Hier wird auf zwei Möglichkeiten gesetzt. Eine einzelne Farbe sowie einen Farbverlauf. Es wird also wieder ein Parameter Node erstellt und zusätzlich ein Ramp Node. Für das Umschalten zwischen den beiden Möglichkeiten dient ein Switch Node. Beide Parameter müssen mit den Vector Inputs des Switches verbunden werden und der Switch wiederum mit dem Multiply Node, dort wo auch die Intensität und der Fresnel liegen. Der einzelne Parameter bekommt das Label und den Node-Namen „Base_Reflection_Color“ mit einem Attributnamen „brcolor“. Als Typ wird jedoch nun Color eingegeben! So bekommt man das klassische Farbauswahlfeld. Der RampParameter erhält als Node-Namen und Label „Base_Reflection_Color_Ramp“ und als Attributnamen „brcolorramp“. Nun ist die Schaltung komplett und es kann im HighLevel-Bereich weitergehen.

Richtige Rendereinstellungen Damit das Material auch korrekt gerendert wird, muss ein neuer Mantra Render Node innerhalb eines ROP-Netzwerks (Render Output) erstellt werden. In diesem neuen Mantra Node wird zunächst die Render Engine auf „Physically Based Rendering“ abgeändert. Zu finden ist die Einstellung unter dem Rendering-Tab. Ansonsten sähen sämtliche Materialien, die PBR Nodes enthalten, schwarz aus. Des Weiteren empfiehlt es sich, die Pixel Samples – ein globaler Qualitätsmultiplizierer – auf 4 x 4 Pixel zu setzen und das Noise Level auf einen Wert von O,OO5. Ein kleiner Tipp am Rande: Je größer der Render Output ist, desto weniger ist das Rauschen sichtbar. Daher sollte man den richtigen Wert für sich finden. Für eine Vorschau des Materials empfiehlt sich die Option „Override Camera Resolution“ in dem Mantra Node direkt unterhalb der Kamerazuweisung. Bei Full HD reicht ein Viertel als Ausgabe und verringert die Renderzeit. Wer während des Renderings noch arbeiten möchte, der sollte auf jeden Fall eine eigens festgesetzte Anzahl an Threads eingeben. Zu finden ist diese Einstellung unter „Rendering“ und dort beim Render Tab. In der Zeile „Max Processors“ ist man in der Lage, den Modus zu ändern. Dadurch lassen sich gerade beim Rendering des finalen Bildes ein paar Nerven sparen.

High-Level-Zugang Im Low-Level-Bereich sind alle Einstellungen abgeschlossen. Nun geht es darum, alle angelegten Parameter für den High-Level-Zugang aufzubereiten. Kurz: Es muss das UI für das Material angepasst werden. Geht man aus dem VOP-Kontext heraus, sieht man alle zuvor angelegten Parameter willkürlich verteilt im Parameter-Interface des Material Shader Builders. Über einen Klick auf das Zahnrad neben dem Namensfeld in der Parameter Editor Pane, ist man in der Lage, das Menü durch einen Klick auf Edit Parameter Interface den eigenen Wünschen anzupassen. Des Weiteren, falls noch Einstellungen fehlen sollten, kann man zurück in den VOP-Kontext springen und an dem jeweils gewünschten Feld in der Parameter Editor Pane das kleine Zahnrad neben dem Feld für die Funktion „Promote Parameter“ klicken oder mit der mittleren Maustaste auf ein Input-Feld der kleinen Boxen für ein Promote. Zu diesem Zeitpunkt sollten die Grundkonstrukte innerhalb eines Materials verständlich sein, gerade in Bezug darauf, wie welche Wünsche in eigene Materialien übertragen werden können. Das Benutzerinterface der Nodes lässt sich samt Separatoren, Aufklappmenüs und vielen weiteren Möglichkeiten nach Wunsch anpassen. Natürlich kann man auch spielend einfach ein Digital › ei Asset aus dem Material machen.

Lichtspielerei Für die Beleuchtung der Szene wurde deutlich zwischen den Funktionsweisen der unterschiedlichen Lichtquellen differenziert. Für dieses Beispiel kamen zwei Area Lights sowie zwei Environment Lights zum Einsatz. Beide Area Lights entstammen dem Light Template. Unter der Auswahl des Typs muss auf „Grid“ gestellt werden und daraufhin lassen sich im unteren Bereich in der Parameter Editor Pane die AreaLight-Optionen nutzen. Für ein gutes Aussehen und Handling, wie man es von V-Ray kennt, sollte man „Normalize Light Intensity to Area“ deaktivieren. Dann erhöht sich die Lichtstärke proportional zur Größenveränderung des Grids. Das Grid lässt sich allerdings nur über die Area Size im daüberliegenden Feld ändern. Für das Aussehen muss noch die Attenuation auf „physically correct“ abgeändert werden. Zu finden ist die Einstellung zwei Tabs weiter rechts. Somit hat man das Area-Light-Verhalten von bekannten Renderern in Houdini übernommen. Ein Environment Light wurde mit Light Contributions versehen. Besser gesagt wurde dem Licht gesagt, dass es zur Beleuchtung eine HDR Map nehmen soll, die wiederum nur auf die Reflexionen angewandt werden soll und nicht auf den diffusen Farbanteil. Für diese Einstellung muss man im Light Tab über das Plus-Symbol eine neue Contribution hinzufügen und daraufhin über das Drop-downMenü die Auswahl „Any Diffuse“ übernehmen.

73


Bilder: Universal Pictures

FOKUS

FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

Zurück im Dinoland Klar, „Jurassic World“ war eigentlich ein zweites Mal „Jurassic Park“. Die Macher haben sich nicht getraut, eine neue Story zu zeigen. Aber der Dino-Park, von dem John Hammond im ersten Teil nur träumte, wurde endlich eröffnet und wir bekamen wesentlich mehr und größere CG-Dinos in einem imposanteren CG-Environment als vor 22 Jahren zu sehen! von Mirja Fürst

N

atürlich war ILM wie auch schon bei „Jurassic Park“ das verantwortliche Studio. Unterstützt wurde das Team unter anderem von Image Engine, Hybride und Ghost VFX. Auch gute zwanzig Jahre später zogen die CG-Dinos die Zuschauer erneut in Scharen in die Kinos: Mit 208 Millionen am ersten Startwochenende erzielte der Film das bislang beste Einspielergebnis aller Zeiten und übertraf mit diesem sogar „The Avengers“. Während des Drehs wurden als Referenzen reale Sauriermodelle eingesetzt – in erster Linie die Köpfe der Tiere, mit denen die Schauspieler interagierten. Diese erstellten Legacy Effects, die vor mehr als zwanzig Jahren „Jurassic Park“-Artist Stan Winston gegründet hat. Während bei „Jurassic Park“ noch zahlreiche Animatronics zum Einsatz kamen, war es bei „Jurassic World“ nur ein einziges, in der Szene mit dem sterbenden Apatosaurus. Dieses wurde als Hommage an Winstons Spezialeffekte-Kunst eingesetzt; Legacy kreierte dieses riesige Animatronic in einem aufwendigen Prozess von rund drei Monaten. Vor allem die optimalen Beleuchtungs- und

74

Texturreferenzen, welche die Animatronics in „Jurassic Park“ boten, sind ein Grund, warum die Effekte des 22 Jahre alten Films auch heute noch überzeugen können – im Vergleich mit anderen Werken aus der Zeit. Image Engine aus Vancouver kreierte ungefähr 280 VFX-Shots für „Jurassic World“, davon fielen 200 auf Shots mit den vier Raptoren Blue, Charlie, Delta und Echo. Die Velociraptoren trainiert Owen Grady (Chris Pratt) im Film per Konditionierung, sie sind etwa 4 Meter lang und 2 Meter hoch. Dass diese Tiere einmal tatsächlich in dieser Größe existiert haben, ist paläontologisch nicht nachgewiesen. Auch die Darstellung als hochintelligente Jagdtiere ist bestenfalls umstritten. Image Engine realisierte die Arenaszenen mit dem Training der Tiere, die Szenen, in denen ihre Köpfe sich in der Fixierung der Boxen befinden sowie die Verfolgungsjagd im Dschungel, bei der das Team auch das CG-Environment umsetzte. Auch bei der finalen Kampfszene half Image Engine bei ILM aus, was die Raptoren betraf. Insgesamt arbeiteten 120 Image-Engine-Artists fast 11 Monate an dem Projekt. Vor allem die Animation der Raptoren war aufgrund der vielen

kleinen Nuancen in der Bewegung, die für den Realismus der Dinosaurier benötigt wurde, sehr komplex. VFX-Supervisor Martyn Culpitt von Image Engine berichtete uns über die Arbeit an „Jurassic World” und verriet, wie der VFX-Legendendruck von „Jurassic Park“ die Arbeit des Teams beeinflusst hat.

Über Image Engine Das Studio hat sich Mitte 2O15 mit Cinesite zusammengeschlossen, sodass das Team nun aus über 525 Artists weltweit besteht und Studios in London, Vancouver und Montréal besitzt. Image Engine wurde 1995 in Vancouver gegründet und 2OO9 für ihre VFX-Arbeit an Neill Blomkamps „District 9“ für einen Oscar nominiert. Diese Partnerschaft mit dem Regisseur hält bis heute an, das Studio lieferte auch die Effekte für „Elysium“ und „Chappie“. Weitere aktuelle Projekte des Studios sind „Game of Thrones“, „Point Break“ und „Straight Outta Compton“ sowie in 2O16 „Independence Day: Resurgence“ und „Deadpool“. Auch in Sachen Open-Source-Tools ist das Team umtriebig, Gaffer und Cortex stammen aus ihrer Entwicklung. Mehr dazu in dem Interview auf den nächsten Seiten.

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

JURASSIC WORLD | IMAGE ENGINE

Zu Beginn war der Shot mit 8 GallimimusSauriern geplant – am Ende liefen dann doch 6O CG-Dinos durchs Bild.

DP: Wie seid ihr zu dem Dino-Projekt gekommen? Martyn Culpitt: Wir haben schon bei einigen Feature Filmen mit ILM zusammengearbeitet, zuletzt an den „Teenage Mutant Hero Turtles“. ILM fragte mich, ob ich VFXSupervisor für Image Engine bei „Jurassic World“ werden möchte. Da „Jurassic Park“ einer meiner Lieblingsfilme ist, war ich sehr aufgeregt, dabei sein zu dürfen. DP: Wie war eure Pipeline für ein Projekt dieser Größenordnung aufgebaut? Martyn Culpitt: Unsere Pipeline existiert ja schon eine Weile und wir arbeiten kontinuierlich daran. Wir mussten für „Jurassic World“ also nichts umbauen. Mit unserem internen, selbst entwickelten Asset-System namens Jabuka ließen sich alle Assets durch jedes Department hindurch tracken, was für ein Projekt dieser Größenordnung unbedingt notwendig ist, um effizient arbeiten zu können. Für „Jurassic World“ haben wir viele Bundles in Jabuka verwendet, so konnten wir alle Assets und Dateien, die in einem Shot zum Einsatz kamen, tracken und sicherstellen, dass alle Daten den kompletten Shot-Prozess hindurch korrekt sind. So konnten wir effizient arbeiten und das Projekt auf Kurs halten. DP: Welche Tools gab es noch? Martyn Culpitt: Des Weiteren nutzten wir Shotgun für unsere Dailies, Shot-Details und die Produktion. Unsere Pipeline haben wir so aufgebaut, dass wir eine Menge Informationen von der Datenbank abrufen können. Ein weiteres Tool, das wichtig für unseren Workflow ist, baute das Lighting Department: das Node-basierte Lighting Tool Caribou. Vor „Jurassic World“ haben wir es bereits in einer frühen Beta-Version bei Projekten getestet, hierbei zum ersten Mal in einer Vollversion. Caribou basiert auf unserem Open-SourceProjekt Gaffer, das John Haddon gestartet hat; David Minor hat es zusammen mit unserem R&D-Team zum Maya-Plug-in weiterentwickelt. Damit waren wir in der Lage, Full-CG-Environments, Charaktere, Effekte und Props in den komplexen Lighting Scenes unglaublich gut zu managen. Mit Caribou ließ sich das Lighting der Full-CG-Shots viel schneller umsetzen und wir konnten Templates wesentlich leichter auf Shots übertragen. Das R&D-Team hat viel Zeit darauf verwendet, den Lighting-Workflow zu optimieren, was den Artists eine Menge Freiheit für Kreativität verschaffte.

Wir passten unsere Shader denen der ILMModelle entsprechend an. Vor allem die Raptoren haben sich im Laufe des Projekts hinsichtlich ihres Looks und der Charakteristik oft verändert, also auch die Modelle und die Texturen. Jedes Mal, wenn ILM uns die Updates gab, mussten auch wir unsere Szenen updaten. ILM hat eine sehr strikte Benennung und eine genaue Texturing-Konvention; mithilfe von Scripts haben wir unseren Workflow ihren Vorgaben entsprechend angepasst, damit der Austausch reibungslos klappte. DP: Habt ihr auch noch mit anderen Studios Shots zusammen bearbeitet? Martyn Culpitt: Hybride hat einige der Backgrounds gemacht, in die wir die Raptoren eingesetzt haben. In ein paar Szenen kamen auch Hologramme von Hybride vor, die wir über die Raptoren lagerten – dafür schickte das Studio uns verschiedene Layers und Nuke-Skripte, die beim zusammensetzten halfen. DP: Wie wichtig war der Look von „Jurassic Park“ für euch? Welche Referenzen daraus habt ihr konkret verwendet? Martyn Culpitt: Der erste „Jurassic Park“Film war der erste Stopp beim Sammeln von Referenzen. Wir haben immer wieder unsere Arbeit mit bestimmten Schlüsselszenen des alten Films verglichen, um sicherzustellen, dass wir die gleiche filmische Spannung sowie die Bewegung der Dinosaurier des Originals trafen. Das Herdenverhalten der Gallimimus-

Saurier im Original haben wir als Maßstab für unseren Gallimimus-Shot verwendet. Die Szene in „Jurassic Park“, als die Raptoren die Kinder durch die Küche und den Eingangsbereich jagen, war unsere Referenz für das Posing der Raptoren in der Trainingsarena. „Jurassic Park 2 und 3“ haben wir einmal zu Inspirationszwecken angeschaut, aber keine der Szenen als Referenz verwendet. DP: Wie seid ihr darüber hinaus für die Raptoren vorgegangen? Martyn Culpitt: Was die Körperlichkeit und die Fortbewegung der Raptoren betraf, haben Director Colin Trevorrow und ILM Animation Supervisor Glen McIntosh sehr viel darauf Wert gelegt, dass die Dinos glaubwürdig wirken und unser Team als Guideline Tiere aus der realen Welt verwendet: Für die Beinbewegung haben wir vor allem Strauße

DP: Habt ihr mit ILM Assets ausgetauscht? Martyn Culpitt: ILM hat uns eine Menge Assets gegeben: Die Raptoren-Modelle und -Texturen, den Apatosaurus sowie einen Haufen Laub und viele andere Kleinigkeiten.

75


FOKUS

FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

fein ausgearbeitet und zusätzlich noch viele subtile FX-Elemente in die Umgebung gesetzt wie Staub, fliegende Käfer, Holzspäne und Schmutz. Manchmal ließen die OriginalPlates, weil sie stark beleuchtet waren, die Raptoren nicht wirklich gut hervortreten. In diesen Fällen haben wir das Lighting der VFX-Shots so justiert, dass es von der Beleuchtung der Real-Plates abwich – so sah es dann meist viel besser aus.

und Emus studiert, von Löwen und Tigern haben wir das Raubtierverhalten adaptiert und bei Alligatoren, Echsen und Raben lag der Fokus auf spezifischen Eigenschaften wie den Kopfbewegungen, der Kieferschnappung, dem Augenblinzeln und den Schwanzbewegungen. Vom PerformanceStandpunkt aus waren die Shots mit dem Training der Tiere in der Arena aufwendig, denn wir mussten zeigen, dass die Raptoren bösartig und furchterregend, gleichzeitig aber auch durchdacht und intelligent sind. Es war auch das erste Mal, dass die Raptoren im Film gezeigt werden, also sollte ihr jeweiliger Charakter richtig porträtiert sein und sie nicht wie vier beliebige Dinosaurier wirken. Wir fanden heraus, dass für ihre Performance weniger mehr ist und die Emotionen keinesfalls übertrieben werden durften. Videos mit kämpfenden und sich heranpirschenden Tieren boten als Orientierung ein solides Fundament – vor allem Löwen, wenn sie nur dastehen und ihre Beute anstarren bevor sie angreifen, sind enorm einschüchternd. Diesen Blick und die Stille vor dem Angriff für die Raptoren einzufangen, half, die Spannung und die Emotion für die Sequenz zu kreieren.

DP: Wie wurde Motion Capture für die Tiere eingesetzt? Martyn Culpitt: Mit Motion Capturing haben wir den Takt der Story von jedem Shot eingefangen; die Aufnahmen halfen uns die Shot-Komposition und die generelle Bewegung zu finden. Die Motion-Capture-Daten waren als erster Blocking-Pass toll – so stand uns schnell eine komplette Sequenz zur Verfügung und wir waren auf der sicheren Seite, die Geschichte den Vorstellungen des Regisseurs gemäß zu erzählen, bevor wir mit der zeitraubenden Arbeit an der finalen Animation begannen. Dies sparte viel Zeit. Die größte Herausforderung bei dieser Vorgehensweise war jedoch, die Motion-Capture-Daten mit den Bewegungen von Menschen auf einen Raptoren mit seiner Größe, Gewicht und Geschwindigkeit zu übertragen und die Daten so extrem anzupassen. Die zahlreichen Tierreferenzen halfen bei der Entwicklung der Bewegung, danach verbachten wir noch viel Zeit damit, jedem einzelnen Raptoren das Denken, die Intelligenz und die spezifischen Charaktereigenschaften zu verleihen. Nachdem wir einen Lock der Animation hatten, haben wir die Muskeln, das Skin Sliding und das Zittern der Muskeln und Sehnen hinzugefügt, was entscheidend für die animalischen Züge und den Realismus der Creature war. DP: Wie lief das Lighting und Compositing für die Raptoren ab? Martyn Culpitt: Diese Arbeitsschritte trugen einen großen Teil zum Realismus der Tiere bei. Wir haben die Details der Raptoren sehr

Für die Realisierung der Raptoren studierte Image Engine zahlreiche Referenzen: echte Tiere sowie die Verfolgungsjagd in der Küche aus „Jurassic Park“.

76

DP: Welche Set Extension war die komplizierteste für euch und warum? Martyn Culpitt: Den Dschungel zu den Plates hinzuzufügen war die größte Herausforderung, denn die CG-Pflanzen mussten sich nahtlos in die echten integrieren, genau wie die restlichen Aspekte der Umgebung wie Nebel, Volumes und Lichtstrahlen. Wir haben viel Zeit in das Look Development der CG-Pflanzen und ihr Umgebungs-Lighting investiert, damit sie sicher zu den gefilmten Pflanzen in der Plate passten. Die Full-CG-Environments waren auch kompliziert, aber nachdem wir erst einmal den Look der gefilmten Plates getroffen hatten, ließen sich die Full CG Shots recht leicht kreieren. Eine unserer größten Sorgen war, dass wir Tausende von Blätter einzeln simulieren müssen, wenn die Raptoren durchlaufen; deshalb haben wir uns vorab gut überlegt wie wir vorgehen – alle Blätter pro Raptor simulieren war keine Option. DP: Was habt ihr gemacht? Martyn Culpitt: Wir landeten schließlich bei einer Library-Lösung mit vorsimulierten Pflanzen: Jede hatte verschiedene Stoßrichtungen zur linken oder rechten Seite, in die Mitte, nach oben, oder die gesamte Pflanze wurde bewegt. Die Pflanzen haben wir länger als nötig simuliert, so konnten wir das Timing in der Szene verändern und viele Variationen erzielen. Wir kreierten zunächst komplette Dschungel-Layouts für die Shots mit allen Pflanzen, die wir in der Szene benötigten. Danach ersetzten wir die statischen Pflanzen mit den simulierten, basierend auf dem Laufweg der Raptor-Animation. Einige Male interagierte die gleiche Pflanze mit zwei Raptoren, diese simulierten wir dann komplett. Auch Pflanzen, die sich sehr nah vor der Kamera befanden, tauschten wir gegen vollsimulierte aus. Da wir für einige Pflanzen die gleiche Simulation verwenden konnten, ließ sich so eine Menge Zeit und Speicherplatz sparen. DP: Mit welchem Tool habt ihr die 3DPflanzen-Modelle generiert? Martyn Culpitt: Die meisten der PflanzenModelle zunächst mit Speedtree, im Anschluss haben wir sie modifiziert und das Look Development sowie Modeling weiterentwickelt, damit sie alle so aussahen, wie wir sie brauchten. ILM gab uns einige Blätter-

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

JURASSIC WORLD | IMAGE ENGINE

Hauptdarsteller Chris Pratt und Regisseur Colin Trevorrow

Assets, da sie aber zu den Bewegungen der Raptoren passen mussten, haben wir sie neu kreiert und geriggt. Für das Layout der Szene nutzten wir ein eigenentwickeltes, flexibles System, welches komplexe Assets liest, eine Preview davon erstellt und dabei nur wenig Cache in Maya verbraucht. Die Pflanzen-Modelle hatten eine Größe zwischen 50.000 bis zu 200.000 Polygonen, die Bäume kamen sogar auf bis zu einer halben Million Polygone. Unser System erlaubt eine Preview dieser Assets mit vielen Zusatzinformationen als Full Geometry, Proxy-Modell oder einfach als Bounding Boxes. So können wir Sets mit über 10.000 Pflanzen leichter organisieren, während wir gleichzeitig auch feine Details sehen. Das Set lässt sich entweder mithilfe von Python Tools oder manuell mit den Preview Caches bestücken. Die TransformationsWerte und die Links zu den dazugehörigen Assets werden in einer Referenz-Datei festgehalten, welche die hochaufgelösten Assets dann erst beim Rendering instanziert. DP: Wie groß war die Dschungel-Datei am Ende? Martyn Culpitt: Die Basis-Daten waren nicht besonders groß, weil wir oft gleiche Pflanzen dupliziert haben, was teilweise damit zu tun hatte, wie unser Layout-System arbeitet. Insgesamt hatten wir etwa 20 bis 30 verschiedene Pflanzen inklusive Bäumen, Lianen, Pflanzen und Grasbüschel. Auch die Texturdaten waren klein, weil eine relativ geringe Auflösung ausreichte und wir uns aus diesem Grund auch gegen die Arbeit mit Mari entschieden. Das finale Layout war sehr groß, aber durch die Möglichkeit der Instanzierung ließ sich der Speicherplatz, den der Render benötigte, reduzieren. DP: Wie habt ihr für einen realistischen Natur-Look texturiert und geshadet? Martyn Culpitt: Wir haben schon während des Look Developments versucht clever vorzugehen, da wir keine speziellen Tools hatten, um so etwas zu realisieren. Der komplette Dschungel besaß ein einheitliches Look Development mit einem Shader und der gleichen Textur-Library. Das DschungelSetup basierte auf einer exakten Strukturanordnung der Pflanzen, Namenskonvention

der Objekte und Anlegen der UVs, sodass wir die richtige Textur und den korrekten Shader platzieren konnten. Alle Pflanzentexturen kalibrierten wir zusammen, so entstand keine Diskrepanz bei der Verwendung unterschiedlicher Pflanzenmodelle. Die Verwaltung des Dschungels lief sehr geradlinig, wir hatten keinen erheblichen Mehraufwand hinsichtlich der Texturen oder Shader. Vor allem die Beleuchtung der Nachtsituation sorgte dafür, dass wir beim Texturieren und Shading nicht übertrieben sorgsam sein mussten. Das gleiche Setup haben wir auch in einigen Tagesaufnahmen genutzt, und da hat es ebenfalls einigermaßen gut funktioniert.

würde, wären wir anders an den Shot herangegangen, beispielsweise mit einem CrowdTool. Aber da wir den Shot mit Keyframe-Animation begonnen hatten, haben wir einfach kontinuierlich die Charakter-Anzahl mit jeder Revision erhöht und passten unser Layout sowie die Animation der höheren Anzahl entsprechend an. Vom Renderstandpunkt her war der Shot aufgrund seiner Länge und seiner extrem vielen Layer – jeder einzelne Gallimimus-Dino mit seinen zugehörigen Ef-

DP: Wie wurde der Dschungel beleuchtet? Martyn Culpitt: Das Lighting entstand mit einem normalen Environment HDRI Setup und zusätzlichen Lichtern mit Gobos. Zahlreiche in die Szene platzierte Spotlights sorgten für Lichtstrahlen, die durch die Blätter schienen. Es war ein Mix aus aktuellen Geo-Schattenwürfen und Textur-Gobos. Wir haben auch Lichter nur für die Führung des Nebels kreiert. In Fällen, in denen das Character Key Light nicht im Nebel funktionierte, duplizierten wir es und passten es so an, dass der Nebel und die Lichtstrahlen besser aussahen. Uns lagen eine Menge Plate-Referenzen vor – aber wir haben lange gebraucht, diese in den Look-DevelopmentSzenen zu treffen, die wir dann den Lighting Artists zur Anpassung ihrer spezifischen Shots übergeben konnten.

fekten inklusive Stereo-Konvertierung – komplex und schnelle Iterationen aufwendig.

DP: Welche VFX-Szene war die herausforderndste und warum? Martyn Culpitt: Eine schwierige Szene war aus einer Vielzahl von Gründen der Gallimimus-Shot. Dieser Shot war einer der ersten, den wir bearbeitet haben und auch einer der letzten. Der Hauptgrund dafür war, weil wir zunächst davon ausgingen, dass nur acht bis zehn Charaktere vorkommen würden. Während der Produktion wurden es aber immer mehr und am Ende sollten 60 Dinosaurier durchs Bild laufen. Hätten wir zu Beginn gewusst, dass es so eine große Anzahl sein

»‚Jurassic Park‘ war der erste Stopp beim Sammeln von Referenzen.« Martyn Culpitt VFX-Supervisor, Image Engine

DP: Im Film sind auch ein paar mutierte Tiere zu sehen. Woher kam die Inspiration für diese? Martyn Culpitt: Bevor die Arbeit beginnen konnte, musste feststehen, wie sie aussehen würden. Ich entwickelte mit unserem Concept Artist Rob Jensen einige interessante Concept-Ideen, die wir dem Regisseur und ILM zeigten. Anhand derer wurde der Look festgelegt. Für die mutierten Tiere drehte das Team echte Tiere, wir haben sie in der Plate nur erweitert und bearbeitet: Fell auf das eine, einen Arm zu einem anderen oder einen weiteren Schwanz. Nur die Schlange war ein Full-CG-Replacement, da sie zwei Köpfe hat. In Sachen Animation mussten wir uns hierbei nur an den realen Vorbildern orientieren, die Animationsarbeit war also › mf überschaubar.

Links Image Engine Studio-Tour i vimeo.com/139741897

„Jurassic World“ Breakdown Reel i vimeo.com/143163154

Making-of „Jurassic Park” i youtu.be/TUVAirMVru0

77


FOKUS

FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

An der Quelle Image Engine ist schon seit vielen Jahren in der Open-Source-Entwicklung aktiv und hat die Projekte Cortex und Gaffer inzwischen produktionsbereit in die eigene Pipeline integriert. Welche Möglichkeiten die beiden Open-SourceProjekte bieten, erklärten uns Shader-Writer Daniel Dresser und R&D-Tools-Developer David Minor von Image Engine im von Mirja Fürst Interview.

Bilder:Image Engine

C

ortex (github.com/ImageEngine/ cortex) beinhaltet ein Set von C++ Libraries und Python-Modulen, mit denen sich Tools für die VFX-Industrie bauen lassen. Es ist nicht für die Entwicklung von End-User-Tools für die Produktion gedacht; das Projekt konzentriert sich eher auf ein wiederverwendbares Set von Modulen für TDs und Programmierer in einem breiten Anwendungsszenario. Gaffer (github.com/ ImageEngine/gaffer) ist dagegen ein Nodebasiertes Application-Framework für die VFX-Arbeit, das Basic-Tools für die prozedurale Szenen-Generierung, Shader Authoring, Rendering und Image Compositing bietet. Beide Open-Source-Lösungen hat Image Engine für die eigenen Produktionen immer weiter verfeinert und setzt sie schon länger

in der Pipeline ein. Das Lighting-Tool Caribou von Image Engine basiert beispielsweise auf Gaffer (siehe „Jurassic World“-Interview). DP: Wie sind Cortex und Gaffer entstanden? Daniel Dresser: Beide wurden ursprünglich von John Haddon (image-engine.com/crew/ john-haddon) gestartet. Er hat die ersten Versionen von Cortex und Gaffer entwickelt – beide Tools basierten auf seiner persönlichen Vision, was die VFX-Industrie benötigen würde. Als Image Engine dann mit Cortex und Gaffer experimentierte und herausfand, dass die zwei Tools für die Optimierung der Pipeline sehr nützlich sind, begannen wir, jedes kommerzielle Tool zu erweitern. DP: Wie viel in eurer Pipeline ist OpenSource-basiert? David Minor: Wir verwenden OpenS o u r c e -S o f t w a r e als Basis für Dinge wie das Asset-Management-System, unsere RenderfarmCaribou, das Image Engine komplett Software oder zur Erin Maya integriert weiterung von komhat und unter merzieller Software, anderem für das Look Development wenn wir moderne nutzt, basiert auf Features brauchen Gaffer. – beispielsweise ein Node-basiertes prozedurales SzenenManagement.

Scene-Cache-Format von Cortex, in Maya gelesen.

Gaffer zusammen mit Appleseed im Einsatz für das Look Development

78

DP: Wenn man keinen großen technischen Hintergrund oder viel Scripting-Erfahrung hat – kann man mit Gaffer dennoch etwas anfangen? David Minor: Gaffer bietet ein NodeNetzwerk, das einem Artist, der sich mit Compositing auskennt, bekannt vorkommen dürfte. Dieses eignet sich gut für den Zusammenbau von Shader Trees. Unsere Look-Development-

Artists empfanden Gaffer als sehr intuitiv bei der Erstellung von Shadern. Für unsere Lighting-Artists war dagegen die Arbeit damit anfangs ungewohnt, weil sie eher die direkte Manipulation einer Szene gewohnt sind. Aber sie haben schnell den Wert der Flexibilität bei der Verwendung von Nodes für nicht destruktive Szenen-Edits schätzen gelernt sowie den Vorteil eines verzweigten Graphen, mit dem sich verschiedene PassTypen aufsetzen lassen. In dem Setup der Image-Engine-Pipeline sind die Tools also sehr anwenderfreundlich. DP: Werdet ihr davon demnächst auch einiges veröffentlichen? David Minor: Aktuell sind einige Haupt-Bestandteile von diesem Setup Image-Enginespezifisch und nicht gebräuchlich genug, um für die Allgemeinheit veröffentlicht zu werden. Aber auf imageengine.github.io/gaffer gibt es ein paar Demo-Videos und es stehen Gaffer-Binarys zur Verfügung, mit denen sich Geometrien importieren, Basis-Shader zuordnen und mit dem Appleseed Renderer rendern lassen. Bis jetzt fehlen noch viele Key-Stücke, als dass man damit beispielsweise einen kompletten Film rendern könnte. Aber je stabiler und vollentwickelt unsere internen Tools werden, wird mehr und mehr davon Teil des Public Builds werden. Derzeit ist Gaffer noch eher hilfreich, wenn einige Technik-Leute zur Verfügung stehen, die das Tool den Artist-Bedürfnissen gemäß anpassen. Gaffer lässt sich aktuell in Verbindung mit dem Appleseed Renderer als alleinstehende Applikation verwenden, um beispielsweise mit dem Alembic-Geometrie-Format und der Open Shading Language 3D-Szenen zusammenzusetzen und zu rendern. Auf der Vimeo-Seite von Appleseed sieht man einige Beispiele, was sich machen lässt: vimeo. com/appleseedhq. Mehr Beispiele von der Verwendung von Gaffer zusammen mit dem 3Delight Renderer gibt es auf der Vimeo-Seite von Cortex: vimeo.com/cortex/videos. DP: In welche kommerziellen Tools lassen sich Cortex und Gaffer derzeit integrieren? Daniel Dresser: Cortex kann zum jetzigen Zeitpunkt mit Maya, Nuke und Houdini zusammenarbeiten, die Gaffer UI ist ebenfalls in diesen drei Applikationen einsetzbar – dabei ist Maya aber das einzige Tool, von dem Gaffer in Kombination mit unseren internen Tools direkt eine Szene übernimmt. Renderer, die

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

Cortex aktuell supportet, sind Arnold, 3Delight, Mantra und Appleseed. Wir laden Nutzer regelmäßig ein, Backends für andere 3DApplikationen und Renderer beizutragen. DP: Ist eure Pipeline für Feature Filme anders aufgebaut als für Commercials? David Minor: Wir versuchen generell die gleiche für Feature Filme und kleine Projekte zu nutzen, da eine einheitliche Pipeline leichter zu pflegen ist. Unsere Pipeline-Aufstellung soll mit großen Projekten umgehen können, aber auch die Flexibilität bieten, die bei kleinen Projekten vonnöten ist. Wir erhalten selten Support-Anfragen vom Team; es scheint also so zu sein, dass unser Software-Setup sich gut an große wie auch kleine Projekte anpasst. DP: Welche Tools waren für welche Projekte die nützlichsten, die auf der Basis von Cortex und Gaffer entwickelt werden konnten? Daniel Dresser: Wir konnten beide sehr effizient für die Entwicklung unseres Asset-Management-Systems namens Jabuka einsetzen, sowohl für das UI-Framework als auch für den Umgang mit Dependecy-Graphen, die für ein Asset-Management nötig sind – um beispielsweise Asset-Dependenzen oder Projekt-Workflows zu definieren. Andere Bereiche, in denen beide gut funktionieren, sind das Look Development und das Shader Authoring. Mit Gaffer haben wir uns ein Look Development Tool gebaut, das unsere Artists für die Entwicklung des Shadings von „Chappie“ eingesetzt haben. Mit Caribou haben wir das System zuletzt komplett in Maya integriert, sodass unsere Artists in Mayas bewährte Content-Authoring-Features zusammen mit einem modernen Node-basierten Szenen/ Pass-Management benutzen konnten. Für „Jurassic World“ haben wir mit dem System erneut erfolgreich gearbeitet. DP: Nutzt ihr auch Blender? David Minor: Nein, denn wir arbeiten nur mit Open-Source-Lösungen, wenn die kommerziellen nicht für uns funktionieren. Für die meisten Bereiche, welche die BlenderFeatures abdecken, sind auch die kommerziellen Tools akzeptabel. DP: Gibt es manchmal Probleme mit Kunden, weil ihr Open-Source-Software in der Pipeline habt? Daniel Dresser: Alle Studios nutzen heutzutage Open Source Tools, jedes in einem individuellen Maß. Dabei ist Open EXR für

IMAGE ENGINE | OPEN SOURCE

das Schreiben von Bildern wohl das am häufigsten verwendete. Unsere Kunden sind generell mehr an der Qualität unserer Ergebnisse interessiert, als an den Tools, mit denen sie entstehen. DP: Welche anderen Studios arbeiten schon mit den beiden Open-Source-Tools?

»Wir nutzten Gaffer und Cortex für die Entwicklung von Jabuka.« Daniel Dresser Shader-Writer Image Engine

Daniel Dresser: Cortex richtet sich an Leute mit einem hohen technischen Erfahrungshintergrund, was es für Studios schwierig macht, es in die eigene Pipeline zu integrieren. Einige haben aber dennoch tolle Arbeiten damit realisiert – beispielsweise Dr. D das Crowd-System für „Happy Feet 2“. Aber die Komplexität von Cortex schreckt viele ab, damit zu arbeiten. Gaffer kann dagegen out of the box benutzt werden; das Potenzial des Tools erschließt sich schneller. Es ist noch nicht allzu lange so, dass Gaffer an dem Punkt angelangt ist, dass wir es oft bei Image Engine für Projekte einsetzen können – aber da es sich kontinuierlich weiterentwickelt, wird es bald soweit sein, dass viele Leute von Gaffer profitieren können.

»Durch Gaffer hat sich unser Look Development enorm verbessert.« David Minor R&D-Tools-Developer Image Engine

DP: Warum ist es dem Image-EngineTeam wichtig, im Open-Source-Bereich aktiv zu sein? Daniel Dresser: Es ist unglaublich frustrierend, wenn unsere Artists Zeit verschwenden müssen, weil ein Tool voller Bugs ist oder nicht zu unserer Pipeline passt, nur weil wir keinen Zugang zum Source Code haben. Da wir einige der wichtigsten Teile unserer Pipeline inhouse entwickelt haben, können wir diesbezüglich sicher sein, dass alles gut zusammenarbeitet und wir unseren Artists eine gute Arbeitserfahrung bieten. Einige Kernbestandteile davon öffentlich zu machen, hilft, diese Codes stabil und verlässlich weiter aufzubauen, sodass sie uns und anderen über eine lange Zeit hinweg nützlich sein werden. Auch erleichtert dieses Vorgehen die Interaktion mit anderen OpenSource-Projekten, deren Vorteile wir nutzen möchten. Aktuell bieten uns viele weitere Open-Source-Projekte die Grundlage für die Gaffer-Weiterentwicklung und wir hof-

fen, zukünftig auch Projekte wie Open VDB, Open Shading Language und Alembic einsetzen zu können. DP: Wie findet das Team während der Produktionen Zeit, an Open-Source-Entwicklungen zu arbeiten? Daniel Dresser: Auch wenn eine Menge an Code, den unser Team schreibt, intern bei Image Engine bleibt, dient Open-SourceSoftware als Grundlage für die meisten unserer Tools. Unsere internen sowie öffentlichen Projekte sind also extrem eng miteinander verbunden. Die Open-SourceEntwicklung wird bei uns stetig vorangetrieben, weil wir diese Dinge für aktuelle Produktionen benötigen. DP: Rentiert sich die Open-Source-Entwicklung auch finanziell? David Minor: Uns geht es bei der OpenSource-Arbeit in erster Linie um die Arbeit, die Artists mit einem gut gerüsteten AssetManagement-System leisten können und mit dem sich effizienter arbeiten lässt, da die Daten bestens kommuniziert werden. Unser Look-Development-Department setzt Gaffer derzeit stark ein – dadurch hat sich der Workflow dort enorm verbessert. Es ist schwierig genau zu beziffern, wie sehr die Effizienz durch ein bestimmtes Tool gesteigert wird – aber ich denke, die Ergebnisse sind auf dem Bildschirm sichtbar, wenn man sich die aktuellen Arbeiten von Image Engine ansieht. DP: Wie sehen eure nächsten Pläne im Open-Source-Bereich aus? David Minor: Gaffer ist ein Langzeit-Projekt für uns und endlich können zwei unserer Departments damit arbeiten – aber es gibt noch viel zu tun, um den Workflow weiter zu verbessern und die Flexibilität des Tools für noch mehr Artists zur Verfügung zu stellen. Layouts anlegen ist ein Gebiet, in welches die prozedurale Natur von Gaffer sehr gut passt. Und wir konnten auch schon ein paar Erfolge erzielen, Basic-Image-Compositing › mf zu Gaffer hinzuzufügen.

Links Cortex auf Github i github.com/ImageEngine/cortex

Gaffer auf Github i github.com/ImageEngine/gaffer

Gaffer-Demo-Videos i imageengine.github.io/gaffer

Appleseed-Vimeo-Seite i vimeo.com/appleseedhq

Cortex-Vimeo-Seite i vimeo.com/cortex/videos 79


FOKUS

FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

Die besten Gratis-Webseiten für After Effects Webseiten für kostenlosen After-Effects-Content und -Tutorials gibt es viele im Netz. Wir befragen deswegen Tool-Entwickler und DP-Autor Mathias Möhl von Mamoworld (www.mamoworld.com) – zu einer Übersicht der von Mirja Fürst besten Seiten mit den sinnvollsten Tutorials.

Mamoworld 2010 haben Mathias und Andra Möhl Mamoworld ins Leben gerufen. Neben praktischen AE-Plug-ins wie beispielsweise Text2Spreadsheet, iExpressions, MochaImport+ oder Lip-Sync, die Möhl entwickelt hat, stehen auf Mamoworld auch über 100 Tutorials für das Adobe-Tool zur Verfügung – unter anderem zu den Themen

„Compositing“ und „Motion Graphics“. Mit den Guru-Lektionen gibt es einen Anfänger-Kurs für Leute, die einen Einstieg in AE finden möchten, für erfahrenere Anwender sind viele Tutorials zu speziellen Themen wie Charakter-Animation oder AE im Zusammenspiel mit Nuke, Mocha oder Premiere Pro vorhanden. www.mamoworld.com

Aescripts In erster Linie ist die Webseite Aescripts + Aeplugins als Quelle und Online-Marktplatz für Tools zur Erweiterung von 2D- und 3DSoftware-Paketen wie After Effects, Premiere Pro, Maya, Nuke und Cinema 4D bekannt. Neben zahlreichen AE-Skripten und -Plug-ins werden ab und zu aber auch Tuto-

rials veröffentlicht, die sich trotz verschiedenster Dozenten immer auf einem hohen Niveau befinden. Unter aescripts.com/learn/cat/tutorials finden Sie direkt die Tutorials. www.aescripts.com

AE with Mikey Schwer zu verstehende Artists, eine unterirdische Bild- und Tonqualität oder Tutorials ganz ohne Ton findet man für After Effects zuhauf auf Youtube. Mikey Borup dagegen liefert auf seinem Tutorial-Channel immer eine Top-Qualität. Pro Monat veröffentlicht er rund zehn neue Tutorials; in dem umfang-

reichen Tutorial-Angebot findet sicherlich jeder sein Thema. Wer regelmäßig an Mikeys Tutorials teilnehmen und immer up to date sein möchte, sollte seinen Kanal abonnieren. www.youtube.com/user/LongLiveMikey/ videos

Creative Cow Die kreative Kuh war eine der ersten, die After-Effects-Tutorials ins Netz stellte. Das Projekt startete 1995 – also schon zu einer Zeit, als Videos im Internet eigentlich noch etwas sehr Ungewöhnliches waren. VideoCopilot-Gründer Andrew Kramer war unter

80

den ersten Artists, die dort ein Tutorial veröffentlichten. Auch wenn die Webseite für heutige Verhältnisse altbacken aussieht, findet man dort immer noch lohnenden Tutorial-Content für After Effects und viele www.creativecow.net andere Tools.

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

AFTER EFFECTS | TUTORIALS

Creative Dojo Auf dem Blog von Motion-Graphics-, VFXund Programm-Development-Artist VinhSon Nguyen aus Austin/Texas finden Sie Training-Tutorials für Motion Graphics und VFX. Der Motion-Graphic- und VFX-Educator Nguyen ist in vielen Tools fit: unter anderem AE, C4D, Premiere, Final Cut Pro X sowie

Realflow. Neben kostenpflichtigen Footage- und Preset-Paketen sowie Skripten – zu absolut fairen Preisen: immer unter 10 US-Dollar – stellt er auf seiner Webseite zahlreiche Gratis-Tutorials zu After Effects sowie vielen weiteren Tools zur Verfügung. www.creativedojo.net

Motionworks John Dickinson, der Betreiber von Motionworks, ist Head of Design bei Foxtel on Demand (www.foxtel.com.au) sowie Motion-Graphics-Designer, -Trainer und Botschafter für Adobe. Er besitzt über 17 Jahre Erfahrung in der Branche. Auf seiner Webseite finden Sie zahlreiche Tutorials zu After Effects und Cinema 4D, bei denen er unter anderem Filmpromo-Effekte beispielswei-

se für „Warm Bodies“ oder „Olympus Has Fallen“ thematisiert oder erklärt, wie man den glamourösen Glanz-Look der OscarStatue hinbekommt. Auch der Reiter „Experiments“ beinhaltet viele spannende AE- und C4D-Effekte; des Weiteren kann man noch viele Presets, Stock-Material und Trainingskurse käuflich erwerben. www.motionworks.net

Stern FX Eran Stern ist ein AE- und Premiere-ProVeteran, der seine umfangreiche Erfahrung in zahlreichen Tutorials weitergibt. Dabei fokussiert er sich eher auf Dinge, die jeder Artist in seiner täglichen Arbeit braucht, statt Hochglanz-Effekte auf Hollywood-Niveau zu erklären – beispielswiese wie man lange Schatten erstellt oder Extract Effect von

AE anwendet. In seinem Shop gibt es für 49 US-Dollar einen mehrstündigen Kurs, in dem er zeigt, wie sich eine TV-Promo mit Premiere und AE kreieren lässt. Diesen kann Mathias Möhl vor allem Leuten empfehlen, die sich bereits gut mit Premiere Pro auskennen und ihre ersten Schritte in AE machen möchten. www.sternfx.com

Tuts+ Diese Webseite bietet viel Tutorial-Content, über 20.000 stehen zur Verfügung. Aber hier ist etwas Vorsicht geboten, denn aufgrund der hohen Quantität sind auch viele qualitativ nicht so hochwertige Videos dabei – etwas Sucharbeit ist bei Tuts+ also erforderlich. Die Seite gehört zu dem Envato-

Ökosystem, das sich aus verschiedenen Web-Seiten zusammensetzt, welche Content für Kreative anbieten. Wer einen der kostenpflichtigen Accounts abonniert, von denen der billigste 15 US-Dollar pro Monat kostet, erspart sich die Werbung zwischen www.tutsplus.com den Tutorials.

Video Copilot In einer Sammlung der besten Webseiten für After Effects darf Andrew Kramer natürlich nicht fehlen. Auf Video Copilot stellt er zahlreiche Stock-Footage-Pakete, Plug-ins wie Element 3D sowie Tutorials – die neben dem informativen Wert fast immer auch sehr lustig sind – zur Verfügung. Durch sein komö-

diantisches Talent und seine zugänglichen Tutorials zu VFX- und Motion-GraphicEffekten, die man immer brauchen kann, hat sich Kramer eine große Fangemeinde erarbeitet. Mit Video Copilot kann jeder AE-Nutzer mal große Kino-Effekte-Luft www.videocopilot.net schnuppern.

81


FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE Bilder: Quantum Human/Rainer Duda

FOKUS

Quantum Human macht aus jedem einen Animator Es ist vollbracht. Vorbei scheinen die Zeiten, in denen man bei der virtuellen Modellierung von 3D-Charakteren von Beginn an streng auf die Topologie des Gitternetzes achten, mehr Edge Loops an Knie, Ellenbogen und anderweitigen Gelenken anbringen und von Hand daraufhin mühselig ein Biped auf den 3D-Charakter anpassen oder gar „from Scratch“ ein eigenes Rig entwerfen musste. Kwai Bun, der Kopf hinter Quantum Human, entwickelte ein Maya-Plugin, mit dem man in der Lage ist, mithilfe eines einzigen Klicks arbriträre 3D-Charaktere in produktionsfertige Protavon Rainer Duda gonisten umzuwandeln, die direkt ihren Einsatz in der Produktion finden.

D

ieses Jahr scheint ein neuer Stern am Animationshimmel aufzugehen. In professionellen Produktionen ist Zeit gleichbedeutend mit Geld und entsprechend Gold wert. Wäre es da nicht lohnenswert, ein Werkzeug an der Hand zu haben, das zwei große Pipelines in einer Produktion bis auf ein Minimum an Zeit und Aufwand reduziert? Mit dem Maya-Plug-in Human Quantum hat der Entwickler Kwai Bun einen großen Schritt in diese Richtung getan. Sein Tool verspricht mit nur einem Klick Modellie-

82

rung und Rigging durchzuführen – und noch vieles mehr.

Die 1-Klick-Lösung So viel Komplexität hinter einem einzigen Knopf? Startet man das Quantum Human Interface über das Shelf in Maya, wird man zunächst mit Einstellungsmöglichkeiten überflutet. Kein Wunder, da das Tool im Advanced-Modus startet. Doch ein schneller Klick auf den Advanced-Knopf lässt kurzer-

hand alle Optionen verschwinden und ein einzelner Startknopf als Grafik bleibt übrig. Direkt darunter findet sich eine Zeile, in der man das Skript einfügen kann. Damit wurde jedoch die eigentliche Komplexität verschleiert und nur für einen kurzen Moment war ein Blick auf die Magie dahinter möglich. Denn ganz so einfach ist der Zaubertrick nicht. Es stecken fünf Jahre Entwicklungszeit hinter Quantum Human. Von einer Spielerei kann hier keine Rede mehr sein, sondern es handelt sich um eine

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

komplexe und ausgeklügelte Softwarelösung, die einer Reihe von Studien unterlag. Betätigt man den Startknopf, beginnt zunächst QHuman mit der Arbeit. Genauer gesagt besitzt QHuman einen sogenannten Body Decoder. Dieser untersucht den 3DCharakter beziehungsweise tastet den 3DCharakter symbolisch ab und setzt Landmarks bei den Extremitäten wie Beine, Arme, Körper, Schultern und Kopf. Man bekommt dazu ein visuelles Feedback im 3DViewport. Dort sieht man Bounding-Boxen für jedes einzelne Landmark. Der darauffolgende Schritt ist die Einbindung des QNA Frameworks – das Herzstück von Quantum Human. QNA nimmt eine symbolische Injektion vor. In dieser befinden sich eine Vielzahl von Attributen und Objekten. So wird zum Beispiel nach der Analyse eine korrekte Topologie des Gitternetzes aufgebaut und zugewiesen. Falls man mit 3D-Scans arbeitet, die nicht sauber übernommen wurden, kann man zudem auf die Funktion „Refill“ zurückgreifen. Dabei wird beim Aufbau der neuen Topologie der 3DCharakter an den empfindlichen Stellen wie Finger, Zehen oder Ohren überprüft, wenn nötig mit dem QNA-Standard-3D-Modell abgeglichen und die Stellen durch dieses ersetzt – das Refill. Die Stellen werden aber nicht nur ersetzt, sondern auch so deformiert, dass die ursprünglichen Proportionen so gut wie möglich beibehalten werden. Bei Abschluss des automatischen Modeling-Prozesses wird noch ein höheres Subdivision Level hinzugefügt. Ab diesem Zeitpunkt besitzt man bereits einen 3DCharakter, der bereit für das Rigging ist. Natürlich handelt es sich bei dem Ergebnis um eine Schätzung von QHuman. Je weniger der Input-3D-Charakter einem Menschen ähnelt, desto weniger liegt QHuman mit der Schätzung richtig. Das sollte der Vollständigkeit halber erwähnt werden. Aber auch das ist kein Problem, da man schnell in den Advanced-Modus schalten und dort das Feintuning vornehmen kann. Bleibt man aber im 1-Klick-Modus, lassen sich einige Anpassungen in Echtzeit und prozedural im 3D-Viewport vornehmen. QHuman geht nun einen Schritt weiter und beginnt, den 3D-Charakter mit einem Rig zu versehen. QNA fängt damit an, zunächst ein Skeleton abzuleiten inklusive der korrekten Finger-Joints. Als visuelles Feedback sieht man im 3D-Viewport, wie das KontrollRig auf dem Charakter aufgebaut wird. Das Standard-Kontroll-Rig ist jedoch optional und kann durch jedes beliebige Rig ersetzt werden. Interessant ist an dieser Stelle, dass für professionelle Produktionen HumanIK mit dem Kontroll-Rig verbunden werden kann, um das Retargeting für MoCap-Daten zu ermöglichen. Auch nach diesem Prozess

WEBTOOLS | QUANTUM HUMAN

befindet man sich noch immer in der 1-Klick-Lösung. Das heißt, dass weitere Schritte folgen.

Einmal einkleiden, bitte! Die 1-Klick-Lösung bietet dem Benutzer noch mehr Möglichkeiten als allein die automatische Modellierung sowie das automatische Rigging. Man kann den 3D-Charakter nämlich noch nach Wunsch einkleiden oder mit Gegenständen schmücken. Dabei hat immer noch QHuman seine Hände im Spiel. Die Kleidungsstücke sind jedoch nicht vom QNA oder QHuman erstellt, sondern müssen natürlich separat entworfen und für die Einspeisung aufbereitet werden. Wa s Q H uma n aber damit machen kann, ist das automatische Hinzufügen und anpassen von den sogenannten Accessories. Das Stichwor t hierfür heißt QNAEA – kurz Mit Quantum Human wird aus jeder Geofür QNA Extension metrie, die einem Assets. Die BesonCharakter ähnelt, ein derheit bei den Exproduktionsfertiger Charakter inklusive tension Assets ist, Rig und Skinning. dass nicht nur KleiAls Sahnehäubchen dungs- oder Ausrüswird dieser mit Accessories und tungsgegenstände Mesh Replacements hinzugefügt werden versehen. können, sondern – noch besser – alles, was man möchte. Es lassen sich Mikro-Haare, Augenbrauen, Wimpern und Zähne im Nu auf jeden 3DCharakter übertragen. Selbst langes Haar lässt sich auf unzählige Charaktere anwenden. Genauso wie die zusätzlichen Accessories angepasst und hinzugefügt wurden, geschieht es mit MoCap-Daten. Schlussendlich erhält man einen einsatzbereiten 3DCharakter – zumindest für ein professionelles Game Environment oder eine anderweitige interaktive Applikation.

Die Magie hinter dem 1-Klick-Prinzip ist schnell erklärt. Es handelt sich, gerade wenn man mit den verfügbaren Presets arbeitet, um ein simples Batch Processing, das auf einem Skript basiert, welches nach eigenen Wünschen angepasst werden kann. Es lassen sich auch komplexere Einstellungen vornehmen und in den 1-Klick-Modus einbinden. Quantum Human lässt sich somit schnell in jeder Produktion einsetzen. Neben dem 1-KlickBatch-Processing kann man zudem auch ein

83


FOKUS

FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

Batch-Skript erstellen, das eine Vielzahl von Charakteren verarbeitet. Somit muss man nicht einen nach dem anderen per 1-Klick abarbeiten. Gerade, wenn man eine strikte Charakter-Pipeline hat, wie es bei Computerspielen der Fall ist, bietet es sich an, ein ausgeweitetes Batch-Skript aufzusetzen.

Mehr Kontrolle Durch ein Modul namens QControl erhält man unabhängig vom angewandten Skript mehr Kontrollmöglichkeiten für die Arbeit am 3D-Charakter. Wie zum Beispiel der Wechsel von einem LOD-Modus in den anderen oder der Wechsel zwischen verschiedenen Kontroll-Rigs. Man kann QControl als ein Modul sehen, das es einem erlaubt, sämtliche Skeletons auf den Charakter zu mappen und anzupassen. Wie es sich in einem professionellen Produktionsumfeld gehört, lassen sich MoCapDatensätze auf die Rigs plotten und diese daraufhin begutachten und anpassen. Für einen schnellen Start kann man diesbezüglich auf das Modul QPreset zurückgreifen. Dort findet man eine Reihe von MoCap-Animationen, allerdings plain und nicht editiert, rein zu Anschauungszwecken, wie das Rig samt dem Skinning funktioniert. Man sieht im Advanced-Menü in fast jeder Optionszeile wie bei den MoCap-Presets grüne Buttons mit dem Kürzel „Do“. Auch dahinter verbergen sich Batch-Prozesse. Bei der Anwendung von MoCap-Daten wird die Pose des Charakters mit neutraler Pose auf das Zentrum zurückgesetzt, daraufhin wird die Hierarchie der Joints neu zu HumanIK gemapped und auf die A-Pose übertragen. Die Devise lautet bei Quantum Human: Mit wenigen Klicks zum Ziel. Unterhalb der jeweiligen Einstellungsmöglichkeiten ist eine Funktion namens „Add To Batcher“ vorhanden, bei der man den Batch-Modus anpassen kann. Bis hierher handelt es sich mehr oder weniger um ein reines Testszenario, um das Rig am Charakter in Aktion zu testen. Wirklich spannend wird es, wenn man mittels des Advanced-Modus die Standardeinstellungen von QHuman, also die Rückschlüsse des Moduls für den Charakter, an die eigenen Bedürfnisse anpassen möchte. Dazu reicht es, in den TopologyModus überzugehen. Im 3D-Viewport hat man die Möglichkeit, über Gimbals auf das versteckte Modeling Rig einzuwirken und die Geometrie in den Proportionen anzupassen. Die dafür notwendigen Tools befinden sich im QCreate-Modul, im gleichen Bereich wie das zuvor erwähnte QPreset-Modul. Dort sind ebenfalls Tools vorhanden, um den 3DCharakter für ein sauberes Rigging inklusive korrektem Attributtransfer zu spiegeln.

84

Mehr Realismus Bis jetzt wurden Arbeitsschritte und Funktionen erläutert, die interaktiven Applikationen gerecht wurden und per Klick und etwas Tweaking einen anwendungsbereiten Charakter bereitstellen. Doch für mehr Realismus bei der Animation lässt sich auf ein weiteres Advanced Toolset zurückgreifen, mit dem man per Klick ein gesamtes Muskelsystem auf den Charakter mappen kann. Wie man es vom zuvor erwähnten 1-KlickBatch-Processing gewöhnt ist, gibt es auch einen Knopf für das gesamte Muskelsystem, basierend auf den QNA-Definitionen. Zugriff auf diese Funktionalität erhält man über das QRig-Modul direkt neben QCreate. In den Einstellungen für den Body findet man die Zeile „Muscle“. Dort ist als Modus standardmäßig das Maya-Muskelsystem eingetragen. Anstatt einem „Do“-Button findet sich dort ein „Install“-Button. Über einen Klick wird daraufhin das Muskelsystem installiert und passgenau auf den darunterliegenden 3D-Charakter angepasst. Für eine Überprüfung der Funktion kann wie gehabt auf QControl zurückgegriffen werden. Dasselbe Prozedere lässt sich zudem für Bereiche wie Face Rigs anwenden.

Wenn Monster ins Spiel kommen ... Die standardmäßige 1-Klick-Lösung ist prädestiniert für menschenähnliche 3D-Charaktere mit wohlgeformten Proportionen, die dem Referenzobjekt vom QNA Framework ähneln. Wie erwähnt, können 3D-Charaktere wie Monster oder anderweitige Charaktere für Cartoons nur auf gut Glück – wenn überhaupt

– interpretiert werden. Um Abhilfe bei diesen Charakteren zu schaffen, kann man direkt in den Advanced-Modus springen, jeden Schritt genauestens anpassen und in das BatchSkript übertragen. Sobald Quantum Human über das Shelf aufgerufen wurde, verbleibt man im Advanced-Modus und beginnt zunächst beim Modul QCreate. Wichtig ist der Wechsel vom Topology-Modus in den ShapeModus. Quantum Human arbeitet mit einem QNA Framework, sozusagen einer DNA, die die 3D-Charaktere injiziert bekommen. Jetzt geht es darum, eine eigene DNA für die neuen Proportionen eines Trick-Charakters oder eines Monsters zu erstellen und diese dann in neue Charaktere zu injizieren. Im Shape-Modus angekommen sieht die Fülle an Funktionen bei QCreate etwas kleiner aus als im Topology-Modus. Das erste Feld dient den Einstellungen des Referenzmodells. Sprich: einer Basis, mit der gearbeitet wird. Eine QNA und ein RefillReferenzcharakter werden dort festgelegt. Im zweiten Feld wird es interessant. Dort müssen nämlich die notwendigen Schritte durchgeführt werden, um eine Basis für ein neues QNA zu erhalten. Grundsätzlich empfiehlt es sich immer, drei Prozesse durchzuführen. Erstens: Der wichtige Dekodierungsprozess, der den Charakter von oben bis unten untersucht und Landmarks setzt. Daraufhin muss ein L1 Bash Mesh erzeugt werden. Sprich, ein neues 3D-Modell, auf Wunsch auch mit den jeweiligen Refills, die man per Haken aktivieren kann. Man sollte gerade bei Monstern und Trick-Charakteren darauf achten, dass versehentlich nicht zu viele Refills aktiviert sind, die die Geometrie deformieren und „normal“ aussehen lassen.

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

WEBTOOLS | QUANTUM HUMAN

Ein 3D-Charakter kann in Verbindung mit verschiedenen QNAs (Quantum Humans DNA) benutzt werden, um für Variation zu sorgen.

Hat man den neuen 3D-Charakter in einer A-Pose modelliert und ist sich bei den ein oder anderen Details nicht ganz sicher, dann sollte der Symmetry-Prozess ebenso aktiviert werden. Für das Rigging ist dies eine erhebliche Erleichterung. Sind die Haken bei den drei Prozessen gesetzt, dann steht dem Solving nichts mehr im Wege. Auch hier muss man zunächst nichts machen und einfach abwarten, bis Quantum Human fertig ist. Man erhält im Viewport das altbekannte Bild des 3D-Charakters mit der neuen Topologie und den Landmarks. Jetzt gilt es, über das Modeling Rig Anpassungen vorzunehmen, bis man zufrieden ist. Damit der erste Schritt abgeschlossen werden kann, muss nur noch der Prozess „Finalize Models“ gestartet werden. Weiter geht die Arbeit im QRig-Modul. Aufgebaut ist das Modul in vier Teilbereiche. Im ersten kann man im Grunde die Vorarbeit erledigen und ein Skeleton für die Augen und den Zahnbereich anbringen. Der zweite Bereich ist einer der wichtigsten. Dort werden die Hauptprozesse durchgeführt wie die Installation des Skeletons und die Einbindung eines Kontroll-Rigs. Im dritten Bereich lassen sich Expressions für die Finger hinzufügen, während im letzten Bereich schlussendlich das neue QNA erstellt werden kann. Für ein gutes QNA müssen Skeleton, CTRL_Rig sowie Skincluster mit einem Haken versehen werden, denn das sind die notwendigen Funktionen, die der neue Charakter benötigt. Das letzte Skincluster sorgt im Grunde für das korrekte Weighting und zieht seine Basisinformationen aus dem eingestellten QNA. Bevor jedoch das neue QNA erstellt wird, müssen vorab diese drei Prozesse durchlaufen werden. Deshalb wird

ab diesem Zeitpunkt die Installation der Objekte und Attribute vorgenommen. Auch hier geschieht dies mit nur einem Klick auf „Install Selected“. Ist man sich nach dem automatischen Rigging-Prozess und eventuellen Tweaks sicher, dass man das QNA erstellen möchte, dann darf man dies auch tun. Wichtig ist an dieser Stelle die Vergabe eines Namens für das neue QNA rechts oben im Fenster in der Zeile „New QNA Name“. Über einen Klick auf „Install“ wird das neue QNA erzeugt.

Anwendung des eigenen QNA Zurück im QCreate-Modul unter dem ShapeModus kann man nun ein DNA-Refresh durchführen und das eigene QNA auswählen. Ab diesem Zeitpunkt kann man zurück in den bekannten Topology-Modus springen und als Global-QNA das eigene auswählen. Wie gewohnt kann man mit den bereits bekannten Schritten, wie Dekodieren des Charakters und Injektion der Objekte samt Attribute, fortfahren. Selbst das Tweaking über das Modeling Rig an der Topologie ist problemlos möglich. Die Besonderheit bei dem Prozess ist, dass man weitaus mehr in einem QNA unterbringen kann als die zuvor genannten Funktionen und Attribute. Vielmehr lassen sich auch nach eigenem Ermessen Subdivison Level einbinden. Des Weiteren kann man neben UV- und Texturinformationen auch Muskelsysteme sowie Facial Expressions einbinden.

Alle Modi auf einen Blick Der Standardmodus ist der sehr oft genannte Topology-Modus. Quantum Human bietet jedoch zwei zusätzliche Modi. Einer wurde bereits beim Erstellen des eigenen QNA angeschnitten: der Shape-Modus. Dazu gibt es noch einen Direct-Decode-Modus. Der wohl

einfachste Modus ist der Direct Decode. Das Prinzip dahinter ist einfach erklärt. Hier wird ganz ohne QNA gearbeitet, man kann den Charakter selbst mit einem Rig versehen. Man sollte bei diesem Modus allerdings bedenken, dass es sich um einen Quick-anddirty-Modus mit mangelnder Präzision handelt. Auch hier wird zunächst bei QCreate ein Dekodieren des Charakters durchgeführt. Der Output des Dekoders wird daraufhin als Input für die Skeleton-Matrix übernommen. Geht man über in das QRig-Modul, merkt man bereits die stark verringerte Anzahl an verfügbaren Funktionen. Was einem bleibt, ist die Installation des Skeletons, Kontroll- sowie MoCap-Rigs und das Skincluster. Wobei beim Skincluster nicht auf das QNA zurückgegriffen werden kann. Hier bleibt einem die Heatmap von Maya. Das MoCap Rig kommt von HumanIK, das Skeleton samt Kontroll-Rig basiert auf Mayas Advanced Skeleton. Der noch fehlende Modus nennt sich „Shape“. Bei QCreate ist der Funktionsumfang etwas gewachsen. Aber der große Vorteil beim Shape-Modus ist die Einbindung eines eigenen Shape Topology Meshes als Referenz. Also das Objekt, mit dem abgeglichen wird und gegebenenfalls ein Refill vonstattengehen kann. Im Gegensatz zum standardmäßigen Topology-Modus ist der Shape-Modus etwas langsamer und besitzt zudem eine mittelmäßige Präzision, gefolgt von einer ebenfalls eingeschränkten Funktionsauswahl. Man könnte fast annehmen, dass Kwai hier mit dem Gedanken spielt, verschiedene Lizenzmodelle mit ins Spiel zu bringen und diese auf die unterschiedlichen Modi umlegen möchte. Das ist aber reine Vermutung, da außer der Jahreszahl 2015 noch kein offizielles Release-Datum verfügbar ist. Ein weiterer Unterschied zum Topology-Modus ist, dass zwar ein QNA als Basis genommen wird, allerdings nicht für die Topology an sich, sondern nur als eine Art Referenz. Nichtsdestotrotz: Wenn der Referenz-QNACharakter von hoher Qualität ist, dann darf man sich auf ein präzises Ergebnis freuen. Nachdem der 3D-Charakter wie bekannt finalisiert wurde, kann man in das QRigModul wechseln. Dort sind nun – im Gegensatz zum DirectDecode-Modus – zwei zusätzliche Felder verfügbar. Was mitunter an der Einbindung des QNAs liegt. Warum also der Shape-Modus? Verglichen mit dem Topology-Modus arbeitet der Shape-Modus ebenfalls mit Muskelsystemen, PSDs und Facial Expressions, aber es ist der einzige Modus, der ein QNA erstellen kann. Ein QNA lässt sich ebenfalls auf eine Vielzahl von unterschiedlichen Charakteren anwenden.

85


FOKUS

FILM & VFX

3D & ANIMATION

Quantum Human in a Nutshell

INTERACTIVE

DIGITAL ART

Aus eins mach mehr!

Quantum Human nimmt ein Rohmodell eines 3D-Charakters entgegen und formt daraus einen 3D-Charakter mit einer sauberen Topologie. Daraufhin wird dieser saubere Basis-Charakter mit einem Skeleton versehen, einem KontrollRig, wahlweise mit MoCap Rig und zahlreichen anderen Funktionen und Objekten. Auf Wunsch werden noch Accessoires wie Kleidung und Ausrüstungsgegenstände, Mikro-Haare sowie langes Haar auf den Charakter übertragen. Schlussendlich erhält man einen produktionsfertigen 3D-Charakter, der bereit ist für das Look Development und die Animation. Weitere Infos: i quantum-human.com

Batch Rendering im Fokus Die Batch-Funktionen haben ebenfalls einiges zu bieten. Zu finden sind diese im Modul „QBatch“. Zu sehen ist dort im Grunde ein leeres Fenster, in dem normalerweise eine Warteschlange an Prozessen erscheint. Das Erstellen von Prozessen geht relativ einfach von der Hand. In den zuvor beschriebenen Arbeitsschritten – beginnend von QCreate über QRig bis hin zu QStyle – findet man jeweils einen Button namens „Add to Batcher“. Betätigt man diesen, schiebt man die auszuführenden beziehungsweise gewünschten Prozesse in die Warteschlange. Bevor man das tut, sollte man jedoch erst mal das richte QNA auswählen. Daraufhin selektiert man in jedem Modul die gewünschten Prozesse, die durchgeführt werden sollen. Ab jetzt wird es interessant. Per Standard wird lediglich die darunterliegende Maya-Szene abgearbeitet. Natürlich kann man diesen Modus des Abarbeitens verändern und anstatt die Szene abzuarbeiten, auf einen Ordner mit Raw-Objekten verweisen. Nach der Auswahl muss nur der korrekte Ordner angesteuert werden. Über den Knopf „Batch Process“ wird der Stapel an Prozessen auf alle im Ordner enthaltenen Objekte angewandt. Darauf aufbauend kann man weitere Batch-Gruppen mit verschiedenen Ordnern anlegen, eigener QNA und maßgeschneiderten Prozessen.

Wie kann man sich das Prinzip hinter Quantum Human nun vorstellen? Grundsätzlich arbeitet Quantum Human mit QNA. Auch wenn bei QNA mit Fachbegriffen wie Framework hantiert wird, muss man sich ein solches QNA als eine Art DNA-Strang mit sämtlichen Erbinformationen vorstellen, inklusive dem Aufbau des Gitternetzes – der Topologie. „Aus eins mach mehr!“ kommt dann zum Tragen, wenn man eine Armee von 3D-Charakteren aufbauen möchte und man bereits eine Reihe an QNAs besitzt. Man nimmt einen 3D-Charakter als rohen Input. Das kann ein männlicher oder weiblicher Körper sein, der gerade aufbereitet wurde. Diesen Körper kann man als 3D-Objekt daraufhin durch alle vorhandenen QNAs mittels Batch Processing und den darin einstellbaren Batch-Gruppen laufen lassen. Als Resultat bekommt man eine animationsfertige Armee mit Männern und Frauen unterschiedlichster Proportionen. Darüber hinaus kann man das Prinzip ins Gegenteil verkehren: Man benutzt lediglich ein QNA und speist unterschiedlichste 3D-Charaktere als Rohmodell ein. Wobei man hier natürlich darauf achten sollte, dass man nicht zu weit von dem Referenzobjekt innerhalb des QNAs abweicht, um mögliche Fehler zu vermeiden. Das Ganze kann man zusätzlich mit dem Batch-Prozess aus dem QStyleModul verbinden. Dann bekommt die Armee in Windeseile Ausrüstung, Kleidung und – wenn nötig – das passende Handwerkszeug zugewiesen.

Auf der Überholspur

Betrachtet man die Funktionalität von Quantum Human, lässt es einen wirklich hoffen. Hier werden völlig neue Potenziale für professionelle Produktionen aufgedeckt. War es doch bisher eher so, dass 3D-Scanning und 3D-Photogrammetrie eher Randerscheinungen waren. Nun bekommen die beiden Prozesse eine ganz neue Bedeutung. Man könnte 3D-Scan-Daten einfach in ZBrush aufarbeiten und als Dynamesh exportieren. Je nachdem für welches Verfahren man sich entscheidet, kann man entweder farbige 3D-Scans generieren oder gar bei Mittels Batch Processing der Photogrammetrie lassen sich Ordner mit auf ein Tool setzen, Charakteren in einem das TexturinformaRutsch abarbeiten und speichern. tionen auf das Mesh mapped. Oder man scannt einfarbig 3D

86

SCIENCE & EDUCATION

SERVICE

Zweckentfremdung für einen guten Zweck Normalerweise sollte das QStyle-Modul dafür sorgen, dass die überarbeiteten und fast finalen 3D-Charaktere ordentlich eingekleidet werden. Die Fähigkeiten von QStyle erlauben nämlich die ordnungsgemäße Positionierung von anderweitigen 3D-Objekten auf dem Charakter, auch basierend auf der Außenfläche. Da bietet es sich förmlich an, Mikro-Haare sowie Augenbrauen und Wimpern mit einzubinden. Accessories, die für einen Next-Gen-Look essenziell sind. Wer noch eins drauflegen möchte, kann auch die Platzierung der Zähne beziehungsweise Zahnreihen damit durchführen.

und nimmt im Nachhinein in ZBrush die Texturierung vor. Ganz gleich für welchen Weg man sich entscheidet, eine Zeit- und Kostenersparnis liegt auf der Hand. Man umgeht sozusagen das Modeling und springt direkt zur Texturierung. Programme wie zum Beispiel Artec Studio erlauben zudem das einfache Anpassen von 3D-Scan-Datensätzen bis hin zum Meshing.

Fazit Eine Hilfe scheint Quantum Human allemal zu sein. Das lässt sich aus dem bereits gezeigten Funktionsumfang schnell schließen. Aber jede Medaille hat zwei Seiten. Natürlich ist das Tool eine Bereicherung für jede professionelle Produktion und auch jeden Freelancer. Einerseits wegen der überaus großen Flexibilität des Plug-ins und andererseits durch die No-brainer-Funktionalität. Oder fairer formuliert: die einfache Benutzbarkeit, die kein Vorwissen erfordert. Auf der anderen Seite ist man momentan eben noch an Maya gebunden, da es sich um ein Plugin handelt. Laut Kwai soll aber im Laufe des Jahres eine Standalone-Version von Quantum Human aufbereitet werden, die zusätzlich noch plattformübergreifend angeboten werden soll. Derzeit steht aber noch kein spezielles Release-Datum fest. Kwai Bun ließ lediglich verlauten, dass ein Release im Jahr 2015 stattfinden soll. Ein großer Pluspunkt ist allerdings, dass die Entwickler rund um Kwai Bun Wert darauf legen, dass jeder Quantum Human benutzen kann. Einfachheit ist das Stichwort hierfür. Laut Kwai sollen Studenten Feature-Film-Charaktere in Windeseile erzeugen können. Es bleibt also zu hoffen, dass es zumindest bei diesem Jahr bleibt und dann eine öffentliche Version verfügbar wird. Als Status quo kann man sagen, dass das Entwickler-Team derzeit an der Quantum-Human-Version Alpha 3 werkelt und stetig an Verbesserungen arbeitet sowie › ei die Funktionspalette erweitert.

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

BACK TO THE FUTURE | INTERVIEW

Der Erfinder des Film-Hoverboards

Bilder: Universal Pictures Germany

Was wünschten sich fast alle Kinder in den 8Oer Jahren, nachdem sie „Back to the Future 2“ gesehen hatten? Natürlich, ein Hoverboard. Obwohl Lexus und Hendo Hover aktuell Prototypen des Hoverboards, die auf elektromagnetischen Feldern schweben können, entwickelt haben, ist es nach wie vor noch weit davon entfernt, im Handel für jedermann erhältlich zu sein. VFX Art Director John Bell hat das Kultboard für „Back to the Future 2“ designt und gab uns ein von Mirja Fürst Interview über diese spannende Projektzeit bei ILM.

D

as Briefing von ILM für John Bell im Jahr 1986 fiel sehr knapp aus, als er die Aufgabe erhielt, die Zukunft von 2015 zu entwerfen: „Wir haben kein Script. Alles was wir wissen ist: Wir befinden uns 30 Jahre in der Zukunft und dort gibt es etwas, das Hoverboard heißt. Also, denk dir ein paar Dinge aus.” John Bell schwebte für 2015 eine bunte, optimistische Zukunft vor. Und das ILM-Team legte bei der Gestaltung viel prophetisches Talent an den Tag wie beispielsweise bei dem „Der weiße Hai 19“-Hologramm – denn sowohl Hologramme spielen heutzutage eine große Rolle als auch ein neunzehnter Teil einer Filmreihe wäre im aktuellen SequelWahn von Hollywood nicht mehr undenkbar. Auch VR gibt es in „Back to the Future 2“, Marty McFly trägt eine solche Brille zu Hause. Vielleicht hat der zweite Teil von „Back to Future“ aber auch einfach so viele zukünftige Entwickler in ihrer Jugend unbewusst beeinflusst, dass genau an solchen Dingen vornehmlich gearbeitet wurde – unklar, wer hier die Henne und wer das Ei ist. Dem im Film gezeigten Datum gemäß sollte Marty McFly am 21. Oktober 2015 bei uns landen. Passend dazu veröffentlichte Universal eine 30th Anniversary Box der Film-Trilogie inklusive umfangreichem Bonusmaterial, die als DVD, BD und Steelbook erhältlich ist.

Erste Skizze von John Bell für das Hoverboard

DP: Wie sind Sie dabei vorgegangen, eine Idee der Zukunft von 2015 für „Back to the Future 2“ zu entwickeln? John Bell: Da ich ja kein Script vorliegen hatte, habe ich es ähnlich wie Designer Syd Mead für „Blade Runner“ gemacht: Ich habe mir unsere Vergangenheit vor 30 Jahren angeschaut, um eine Vorstellung zu bekommen, was vor 30 Jahren in der Welt passiert ist. Es war ein Ausgangspunkt für mich, zu sehen, was sich in 30 Jahren alles verändern kann. Ohne Script begann ich zunächst, viele Ideen für die kalifornische Kleinstadt Hill Valley aufzuzeichnen. Da ich selbst in einer Kleinstadt aufgewachsen bin, wusste ich, dass es dort sehr gemütlich zugeht und alles sehr farbenfroh ist. Diesen Einfluss zusammen mit Syds Rezept nutzte ich, um Ideen für Kostüme, Autos, Hoverboards zu zeichnen. Die 80er Jahre waren ja sowieso eine äußerst farbenfrohe Zeit mit vielen Graffitis – es war also leicht, aus unserer damaligen Umgebung die Quintessenz zu separieren.

DP: Welcher Teil des Hoverboards war am schwierigsten zu designen? John Bell: Es war tatsächlich der Look selber, da ich ja nur das Wort „Hoverboard“ als Briefing hatte – nicht mehr. Es hätte also alles sein können. In meinen ersten Zeichnungen sah das Hoverboard eher wie eine Scheibe aus, auf der die Leute standen. Es gab etwas zusätzliche Technik darauf, aber nicht wirklich viel. Zwischen meiner ersten Zeichnung im Jahr 1986 und meiner nächsten lag eine dreijährige Pause, da das Projekt so lange

„Back to the Future“ 3Oth Anniversary Box Am 15. Oktober 2O15 ist die 3Oth Anniversary Box der Film-Trilogie inklusive umfangreichem Bonusmaterial erschienen. Sie ist als DVD, BD und Steelbook erhältlich. Schauen Sie auf unsere DP-Webseite, dort werden wir zum Heftstart bis zum 18. Dezember zwei Blu-Ray-Boxen verlosen!

87


FOKUS

FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

John Bell: Nur etwa fünf bis sechs. Wir versuchten damals den Schweizer Uhrenhersteller Swatch als Sponsor für das Hoverboard zu bekommen, aber das Unternehmen wollte es nicht machen. Also designten wir eine Mattel-Version, die man jetzt auch im Film sieht. Auch die anderen Boards der Gang waren schnell designt. Griffs Board beispielsweise stand schon beim ersten oder zweiten Concept.

pausierte. Als ich 1989 zurückkam, hatte ich mir in der Zwischenzeit die SkateboardKultur genau angesehen und erkannt, dass die Skater ihre Boards individuell gestalten, indem sie ihnen Sticker aufkleben und sie bemalen. Ich fragte mich: Was würden sie 30 Jahre später damit machen? Außerdem stellte ich mir die Boards in der Zukunft sehr groß vor, ähnlich einem Snowboard oder einem Wakeboard, welche die Skater nicht nur bekleben oder bemalen würden, sondern sogar Teile daran anbringen wie beispielsweise Flügel oder anderes cooles Zeug. An einem bestimmten Zeitpunkt des Designs wurden die Hoverboards mit ungefähr anderthalb Metern Durchmesser ziemlich groß.

Regisseur Robert Zemeckis und Production Designer Rick Carter waren sie zu groß und so wurden sie zunehmend handlicher sowie stromlinienförmiger. So entwickelten sich die Hoverboards immer mehr zu dem finalen Ergebnis hin, welches man im Film sieht. In meinen Augen war das die beste Entscheidung, denn so sind sie dem heutigen Smartphone ähnlich: Einfach gestaltet von der Form her, aber mit dieser starken Technologie im Kern. Man weiß nicht genau wie es funktioniert, aber der Gebrauch macht sehr viel Spaß. DP: Wie viele Concepts des Hoverboards waren nötig, bis die finale Version stand?

DP: Es gibt auch einen Hologramm-Hai im Film, der für „Der weiße Hai 19“ wirbt. Ahntet ihr schon, dass Stereo-3D und Hologramme in 30 Jahren eine große Rolle spielen würden? John Bell: Die Idee des Hologramm-Hais stammte in erster Linie von Producer und Writer Bob Gale; wir mussten herausfinden, wie es aussehen könnte. Ich war zu dem Zeitpunkt noch in Los Angeles, um das Hoverboard und Hill Valley zu designen; im Anschluss ging ich zurück zu ILM und arbeitete dort mit dem VFX-Supervisor Ken Ralston weiter an den VFX-Elementen. Wir gingen zum CG-Department von ILM, was 1989 noch sehr klein war – damals waren gerade mal zwei oder drei Leute in das Projekt „Back to the Future 2“ involviert. Dort zeigte uns ein Artist eine Demonstration des Hais, die noch sehr roh war und er sagte zu uns: „Momentan ist es noch eine Work-in-Progress-Szene. Ich will euch damit nur verdeutlichen, wie die Bewegung des Hais aussehen könnte.“ Der Hai war noch sehr polygonal und sah irgendwie kaputt aus. Ken und ich lachten laut und Ken meinte: „Ändere nichts daran, wir zeigen es so Robert Zemeckis.“ Der Artist erwiderte: „Nein, ich möchte das noch fertig machen, es soll echt aussehen!“ Aber Ken fand es originell und das ist die Story, wie der verrückt aussehende Hai in den Film kam. Der verantwortliche Artist war verwirrt und beschämt über diese Entscheidung, aber das war die Version, die Zemeckis im Film haben wollte – auch weil man sich so bis heute daran erinnert. DP: Welches Element der Zukunft war das schwierigste im Design? John Bell: Das war das Cafe 80‘s, weil es zahlreiche einzelne Elemente im Environment hatte. In dieses Set waren so viele

88

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

Komponenten involviert, die gestaltet und in ein harmonisches Ganzes gebracht werden mussten: Die Tische, die Stühle, die Grafiken oder die Elektronik. DP: Sie haben auch am dritten Teil der Filmreihe gearbeitet, was waren da Ihre Aufgaben? John Bell: Ich habe den fliegenden Zug gestaltet und den Zug, der über die Klippe geht und explodiert. Das waren große Szenen für Teil 3; diese boten ganz andere Herausforderungen, als die Designs für „Back to the Future 2“. Denn diese Effekte mussten alle äußerst realistisch aussehen: Wir filmten den echten Zug und ließen diesen dann in

BACK TO THE FUTURE | INTERVIEW

ein Zug-Modell übergehen, das gerade mal drei Meter lang war. Auch die Büsche, der Dreck und alles andere im Environment wurden auf den entsprechenden Maßstab verkleinert, damit alles echt aussah. DP: Warum haben Sie danach eine Weile für Nike gearbeitet, sind dann aber wieder zurück zu ILM? John Bell: Nach meinem Abschluss am College vom Art Center begann ich meine Karriere als Auto-Designer. Danach arbeitete ich in der Videospiele-Branche und kam von dort aus zum Film. Dann landete ich bei Nike, danach wieder beim Film. Der Grund ist: Ich liebe generell Designs – egal ob

von Möbeln, Autos oder Gegenständen für Filme. Jedes Objekt bietet unterschiedliche Herausforderungen, aber es ist immer eine visuelle Lösung für ein Problem und das ist der Teil, den ich an der Arbeit so mag. Dabei ist es mir egal, ob ich für Commercials, Filme oder was auch immer arbeite, Hauptsache ich kann mit meiner Arbeit eine Emotion beim Publikum wecken. DP: Warum wurde damals ein DeLorean als Zeitmaschine ausgewählt? John Bell: Zuerst gab es die Idee, einen Kühlschrank als Zeitmaschine einzusetzen. Aber die Produktion hatte Sorge, dass Kinder dann in einen hineinkrabbeln könnten und darin eingesperrt werden. Deshalb entschied man sich dagegen. Das Automodell DeLorean war damals nicht sonderlich beliebt. Als das Auto angekündigt wurde, waren viele Leute neugierig darauf, weil es einen so besonderen Look hatte. Aber die Technologie des Autos konnte mit der Optik nicht mithalten, deshalb verkaufte sich das Auto nicht gut. So wurde der DeLorean zu einem Witz in Los Angeles und wir kamen auf die Idee, in dem Film einen DeLorean als Zeitmaschine zu nutzen, um den Witz noch etwas am Laufen zu halten. DP: Was werden Sie am 21. Oktober 2015, dem Welcome-Day von Marty McFly machen? John Bell: Ich denke, ich werde mir eine dicke orange Weste anziehen, mir meine Haare wie die von Marty McFly dunkel färben, Sneakers anziehen, mir ein Hoverboard unterklemmen und die Nachbarn etwas ver› mf wirren (lacht).

89


FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

Bilder: Patrick Strenge; Ars Electronica

FOKUS

Deep Space in 8K Das Ars Electronica Center sorgt seit seiner Eröffnung 1996 im österreichischen Linz mit seinen virtuellen Erlebniswelten immer wieder für Aufsehen. Seit August 2O15 wartet das „Museum der Zukunft“ mit einer besonderen Attraktion auf: Der Projektionsraum „Deep Space 8K“ entführt Besucher in stereoskopische 3D-Welten mit 8K Auflösung und 12O Hertz Bildwiederholungsrate. Wir hatten Gelegenheit, hinter die Kulissen dieser außergewöhnlichen Installation zu von Erol Ergün blicken und Beteiligte zu befragen.

U

rsprünglich 1979 als Festival für Kunst, Technologie und Gesellschaft mit zweijährigem Rhythmus eingeführt, entwickelte sich die Ars Electronica zu einem interaktiven Ort des Entdeckens und Forschens für Besucher, Wissenschaftler und Künstler gleichermaßen. Schnell entstand aus einer lokalen Veranstaltung ein international viel beachtetes Festival für Medienkunst auf höchstem technischen Niveau mit einem breiten Spektrum von Performances im öffentlichen Raum, Fachvorträgen und Ausstellungen.

90

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

DIGITAL ART | ARS ELECTRONICA

In der Präsentation „Universum Mensch“ und „Human Bodies“ erfahren Besucher, wie komplex Organe, Knochen und das Herz-Kreislauf-System aufgebaut sind. Dank virtuellem Anatomiesaal kann in medizinischen Vorträgen das Innere des Menschen eindrucksvoll erforscht werden.

Als logische Konsequenz folgten eine eigene Entwicklungs- und Forschungsabteilung „Futurelab“, mit „Prix“ einer der mittlerweile renommiertesten internationalen Medienkunst-Wettbewerbe sowie mit „Ars Electronica Center“ schließlich ein Museumskomplex mit unterschiedlichen Ausstellungen für

die ganzjährige Präsentation und Kreation von audiovisuellen Inhalten.

Stereoskopie in 8K Mit „Deep Space 8K“ wurde im August 2015 schließlich ein technisch ambitioniertes Up-

Was sagt das Futurelab? Interview mit Roland Haring, Technischer Direktor Ars Electronica Futurelab über den Projektionsraum „Deep Space 8K“. DP: Zwei mal 16x9 Meter für synchronisierte, stereoskopische 3D-Visualisierungen sowie Echtzeit-Lasertracking sind bereits eine Herausforderung – was war der Anlass, ein Upgrade auf 8K durchzuführen? Roland Haring: Das Format des „Deep Space“ wurde 2009 erfunden. Seit damals gibt es diese Virtual-Reality-Installation (VR) im Ars Electronica Center (AEC) zu sehen. Die Ursprünge gehen aber weiter zurück. Bereits 1996 wurde der erste in Europa öffentlich zugängliche Cave in Linz eröffnet. Seitdem beschäftigen wir uns intensiv nicht nur mit den technischen Rahmenbedingungen von VR-Environments, sondern auch mit den Inhalten, die darin gezeigt werden

grade realisiert, das bisher einzigartig in seiner Ausführung ist und Grenzen des technisch Machbaren auslotet. Während „Deep Space“ mit acht Full-HD-Projektoren in einer Auflösung von 1.980 x 1.080 Bildpunkten arbeitete, wird jetzt bei „Deep Space 8K“ das Vierfache an Bildpunkten für hochauflösende

können. Die Idee zum Design des „Deep Space“ kommt genau aus den Beschränkungen des Cave-Systems, das im Wesentlichen eine Single-User-Installation ist, da wir eine ähnlich immersive Erfahrung für bis zu 150 Personen gleichzeitig ermöglichen wollten. DP: Technik ist ohne Inhalte sinnlos. Wie sind Sie zu 8K-Inhalten gekommen? Sind die Inhalte exklusiv im „Deep Space 8K“ zu bewundern oder auch anderswo zu sehen? Roland Haring: Bei den Inhalten setzen wir auf einen Mix aus Eigenproduktionen, Auftragsarbeiten und bereits bestehenden Projekten, die für unser VR-Environment adaptiert werden. Dabei sind wir zwischenzeitlich bei einer Sammlung von hunderten Projekten angelangt. Möglich wird das durch die Vielschichtigkeit der Ars Electronica. In seiner Eigenschaft als Museum finden Spezialprogramme statt, zu denen externe Vortragende eingeladen werden, als Festival werden jedes Jahr experimentelle Kunstprojekte nach Linz gebracht, als Medienkunstpreis gibt es immer wieder Einreichungen unter-

91


Wer schon immer mal mit der Sonne auf Tuchfühlung gehen wollte, hat in der Präsentation „Sun“ die einmalige Gelegenheit, eindrucksvolle NASA-Detailbilder der Sonnenaktivitäten von 2O11 bis 2O15 zu bestaunen.

Medien mit entsprechendem Farbgehalt und Kontrast benötigt, denn der Besucher sitzt nicht vor einer Leinwand, sondern kann die Projektionsfläche komplett begehen. Keine Chance für Büroprojektoren mit 3.000 bis 5.000 ANSI-Lumen. Erst veranstaltungstaugliche 4K-Projektoren der neuesten Generation des kanadischen Herstellers Christie vom Typ „Mirage 304K“ waren in der Lage, die technischen Voraussetzungen für die gewünschte Projektionsqualität im Museumsalltag zu erfüllen, ohne mit einer Lieferwagengröße den ganzen Raum zu sprengen. So wurden europaweit erstmalig je vier

Projektoren mit jeweils 68 Kilogramm für die Boden- und Wandfläche installiert und in Detailarbeit miteinander synchronisiert. Mehr geht zurzeit nicht. Aufgrund der aktuellen DLP-Chiptechnologie sind maximal 4KAuflösungen realisierbar. Mit einer extrem hohen Lichtleistung von 30.000 ANSI-Lumen, einem Kontrast von 2.000:1 und einer Bildwiederholungsrate von 120 Hertz lässt sich sicherstellen, dass 3D-Stereoprojektionen flimmerfrei und selbst bei schnellen Kameraschwenks gestochen scharf auf der großen Projektionsfläche im „Deep Space 8K“ wiedergegeben werden.

schiedlicher Kategorien (von Animation bis Echtzeitgrafik), die ihren Platz im „Deep Space“ finden und als Forschungs- und Entwicklungslabor wird laufend an innovativen, neuen Formaten gearbeitet. DP: Was war die aufwendigste Produktion im Programm und warum? Roland Haring: Eine großartige Produktion dieses Jahr war „Rome´s Invisible City“. Dabei handelt es sich um eine ursprünglich von Scan Lab für die BBC realisierte virtuelle Reise durch das antike Rom. Dazu wurden großflächig Ausgrabungsstätten wie etwa das Forum Romanum, das Pantheon oder die Katakomben mit LIDAR-Scannern höchst detailreich dreidimensional vermessen. Daraus entstanden farbige Punktwolken mit Milliarden von Einzelmessungen, aus denen sich das antike Rom aus ungeahnten Perspektiven rekonstruieren lässt. Diese Datenmengen sind natürlich ideal für unser hochauflösendes Projektions-Environment, da sie uns maßgeschneidert gerendert zur Verfügung gestellt wurden. Die aufwendigste Eigenproduktion dieses Jahr war „Universum Mensch“, eine interaktive und

92

Echtzeit-Gestensteuerung und -Lasertracking Dank Echtzeit-Lasertracking und optimierter Gestensteuerungssoftware mutiert „Deep Space 8K“ je nach Präsentation in einen interaktiven Spielraum. Das von FuturelabMitarbeitern entwickelte Lasertracking-System „Pharus“ mit eigens von Studenten der Fachhochschule Hagenberg dafür programmierten Spielen verfügt über sechs am Spielfeldrand knapp über dem Boden platzierte Lasersensoren und ist in der Lage, bis zu 30 Personen auf der Projektionsfläche

explorative Reise in den menschlichen Körper, die unter anderem in Zusammenarbeit mit Siemens bahnbrechende neue Visualisierungsansätze mit Hinblick auf das fotorealistische Rendern medizinischer CT- und MR-Messdaten vorstellt. DP: 3D-Stereoskopien in 8K mit Inhalten der NASA, des antiken Roms oder der Maya-Stadt Tikal sind ja schon beeindruckend. Darüber hinaus werden auch Programme mit Lasertracking-Technologie für bis zu 30 Personen präsentiert. Wie funktioniert das Lasertracking in „Deep Space 8K“ und welche Inhalte lassen sich damit realisieren? Roland Haring: Von Anfang an haben wir den Deep Space nicht als 3D-Kino, sondern als interaktiven Raum geplant und begriffen. Interaktion ist eine ganz wesentliche Komponente für immersive Erfahrungen und bedarf in einem Setting wie dem unsrigen natürlich spezieller Interfaces, mit denen wir seit Anbeginn experimentieren. Eine der letzten Entwicklungen basiert dabei auf sogenannten La-

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

DIGITAL ART | ARS ELECTRONICA

zu verwalten. Damit werden neue Formen der Interaktion mit künstlerischen Inhalten ermöglicht und mediale Inhalte im Projektionsraum durch Gestensteuerung des Vortragenden individuell steuerbar. Der Besucher bekommt von der geballten Technik nichts mit – er ist Bestandteil der Installation und kann frei mit der erzeugten Raumprojektion interagieren.

Inhalte Während sich Gigapixel-Bilder und Panoramen offenkundig für eine 8K-Präsentation eignen und endlich in bisher nicht möglicher Qualität bewundert werden können, sind Videos und 3D-Applikationen in 8K-Auflösung noch Mangelware. Ars-Electronica-Mitarbeiter der hauseigenen Futurelab-Forschungsabteilung machten sich deshalb auf die Suche nach entsprechendem Material und entwickelten sogar mit „Universum Mensch“ eine eigene 3D-Applikation, mit der die Funktionalität und der Aufbau des menschlichen Körpers wie Gehirn und Herzkreislauf innerhalb eines Vortrags detailgetreu erläutert werden. Die Präsentation „Sun“ ermöglicht es Besuchern, Sonnenaktivitäten basierend auf hochauflösendem NASA-Bildmaterial des Goddard Space Flight Centers von 2011 bis 2015 zu beobachten und die Gaskugel zu begehen. 3D-Visualisierungen aus Punktwolken sind ein weiteres Highlight der 8K-Inhalte. Hierbei werden – mithilfe von mittels 3DLaserscans erzeugten Daten von Drohnen und Forschungsteams – ganze Straßenzüge, Bauwerke und Statuen in Form einer 3DAnimation wie beispielsweise Katakomben des antiken Roms oder der Maya-Stadt Tikal generiert. Auch hier waren Mitarbeiter des Futurelabs an der 8K-Anpassung der Daten beteiligt.

Ob Megastädte oder Naturschauplätze – Gigapixelbilder werden dank 8K-Auflösung mit 3O.OOO ANSI-Lumen gestochen scharf und mit satten Farben dargestellt.

ser-Rangefindern. Ursprünglich als industrielle Sensoren eingesetzt, werden diese verwendet, um – ähnlich einem 2D-Radar – in einer Ebene mit bis zu 30 Metern Distanz Hindernisse zu vermessen. Wir haben sechs von diesen Sensoren bei uns im „Deep Space“ verbaut und triangulieren die Einzelmessungen, um so die Position von bis zu 30 Personen gleichzeitig zu vermessen. Da nur wenige Zentimeter über dem Boden gemessen wird, können nicht nur die Füße einzeln detektiert werden, sondern auch Schritte. Das erlaubt etwa „Tap“Gesten, mit denen die Bodenprojektion in eine Multi-Touch-Oberfläche verwandelt wird. Es gibt eine ganze Serie an Multiplayer Arcade Games im „Deep Space“, die mit dieser Technologie arbeiten. DP: Ein Großteil der projizierten 3D-Inhalte wird lediglich von zwei Workstations verarbeitet. Was ist im Gegensatz zu herkömmlichen Rechnern das Besondere an diesen beiden Systemen? Roland Haring: Klassische VR-Systeme bestehen aus einer großen Anzahl an einzelnen Renderern, die dann zueinander synchronisiert

werden. Dieser Sync erfolgt nicht nur auf Ebene der Grafikkarten bei der Bilderzeugung, sondern auch auf Anwendungsebene bei der Verteilung und Darstellung des Contents. Während der erste Teil von den Grafikkartenherstellern ganz gut gelöst wird, liegt die Komplexität des zweiten Teils ganz beim Entwickler einer VR-Applikation und erfordert in der Regel hochspezialisierte Engines. Eine wichtige Zielsetzung des „Deep Space“ war aber von vornherein, für möglichst viele Inhalte und auch Inhaltschaffende (Künstler, Wissenschaftler, Studenten und so weiter) offen zu sein. Deshalb haben wir nach Lösungen gesucht, die Anzahl der beteiligten Rechner so weit wie möglich zu reduzieren. Im aktuellen Setup ist sowohl für die Wand als auch für den Boden jeweils nur ein Renderer zuständig. Es kann durchaus als bahnbrechend angesehen werden, wenn von einer einzigen Workstation das Bild für vier 4K-Projektoren mit 120 Hertz erzeugt werden kann. DP: 3D-Stereoskopie, 8K und 30.000 ANSI-Lumen. Was kommt als Nächstes?

93


FOKUS

FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

Da „Deep Space 8K“ über ein leistungsfähiges Lasertracking-System verfügt, können Künstler und Forscher interaktive Applikationen kreieren. Ein Beispiel stellt die „Game Changer Suite“ dar, wo Besucher in verschiedenen Multiplayer-Spielen Avatare gegeneinander oder miteinander steuern. Entwickelt von Studentinnen des G Labs Hagenberg wird hier kooperatives und konkurrierendes Spielen erforscht. Ein anderes Beispiel für die künstlerische Gestaltung mit interaktiven Medien ist mit den „Colour Bars“ der Kunstuniversität Linz umgesetzt worden. Hierbei versucht eine Gruppe von Besuchern auf der Projektionsfläche einen gemeinsamen Farbton zu produzieren.

Supercomputing

„Deep Space 8K“ lotet das zurzeit technisch Machbare aus: Projektoren von Christie mit 12O Hertz Bildwiederholungsrate und 3O.OOO ANSI-Lumen sowie Xi-Machines High-Performance-ComputingWorkstations mit circa 5O.OOO GFLOPS Rechenleistung.

Bei maximal 120 Bildern pro Sekunde in einer Auflösung von 8K werden große Datenmengen erzeugt, die mit circa 23 GB dem Datenvolumen einer Blu-Ray Disc entsprechen und in Echtzeit verarbeitet werden. Hierbei musste die Infrastruktur des „Deep Space“-Projektraums an die notwendigen Datenleitungen angepasst werden. Jeder Projektor wurde mit jeweils vier Datenleitungen ausgestattet. Für diese gigantische Rechenaufgabe mit entsprechendem Datentransfer kamen herkömmliche PC-Systeme nicht in Frage, da diese sowohl leistungstechnisch als auch räumlich nicht den gegebenen Voraussetzungen entsprachen. Fündig wurde das FuturelabTeam nach langen Recherchen bei dem Hamburger Unternehmen Xi-Machines, das mit lediglich zwei synchronisierten HighPerformance-Computing-Workstations der CX4-Reihe eine Rechenleistung von circa 50.000 GFLOPS zur Verfügung stellte – dies entspricht in etwa 400 herkömmlichen Bürorechnern. Beide Workstations berechnen alle Visualisierungen in 8K-Auflösung sowie die vom Lasertracking-System Pharus ermit-

Roland Haring: Für uns sind die im nächsten Jahr erwarteten neuen Verkabelungsstandards wie Displayport 1.3 sehr interessant. Augenblicklich müssen wir zu jedem 4K-Projektor vier Signalwege mit Displayport 1.2 (2K@120Hz aufgeteilt in vier Quadranten) legen, da das volle Signal über kein derzeitiges Kabel übertragen werden kann. Das zwingt uns wiederum pro Projektor eine Grafikkarte voll mit Outputs zu belegen und beschränkt somit die Anzahl der Projektoren physisch auf maximal vier pro Rechner. Mit nur mehr einem Signalweg pro Projektor könnten wir den „Deep Space“ von nur einer Workstation aus betreiben und die einzige technisch beschränkende Größe wäre dann nur mehr die Leistungsfähigkeit der Grafikkarten. Aber auch da sieht man anhand der Inhalte, die wir heute schon hochauflösend und in Echtzeit 3D darstellen können, dass das keine ferne Zukunft mehr ist. Bezüglich der Projektionstechnik erwarten wir die nächsten einschneidenden Fortschritte in der Bilddynamik, etwa durch Laser-Projektion. Mit einer Auflösung von 8K haben wir bei vie-

94

Ein Spielfeld der besonderen Art entsteht durch Multiplayer-Spiele für bis zu 3O Personen. Eigenentwicklungen wie ein Lasertracking-System und optimierte Spielesoftware machen es möglich, dass Besucher miteinander oder gegeneinander in einem virtuellen Raum interagieren.

telten Koordinaten von bis zu 30 Personen. Xi-Machines-Workstations hatten wir zuletzt in der DP-Ausgabe 02:2014 getestet. Das Herzstück dieser aktuellen Workstations bilden jeweils vier synchronisierte Nvidia-Quadro-M6000-Grafikkarten mit insgesamt 48 GB GDDR5 V-RAM Grafikspeicher und zwei Intel-Xeon-E5-Prozessoren der aktuellen Generation mit 64 GB RAM Arbeitsspeicher – alles auf einer Hauptplatine. Allein die Grafikkarten dieser Leistungsklasse können über 85 Grad Celsius heiß werden, weswegen die im Betrieb erzeugte Abwärme während der umfangreichen Echtzeitberechnungen einer interaktiven Präsentation recht beachtlich ist. Das Entwicklungsteam von Xi-Machines entwickelte deshalb ein komplexes Luft-Kühlsystem, das die Links erzeugte Abwärme sicher Ars Electronica Center i www.aec.at aus der Workstation beförXi-Machines › ei i www.xi-machines.com dert.

len Anwendungsfällen bereits die Wahrnehmungsgrenze erreicht, allerdings wird die Erweiterung des Farbraums auf 10 oder 12 Bit sowie die Vergrößerung der projizierten Bilddynamik noch wesentlich den Bildeindruck verbessern. DP: „Deep Space 8K“ ist einzigartig und bietet Besuchern eindrucksvolle Erlebnisse. Sind Konzept und Technik „exportierbar“? Roland Haring: Wir erhalten tatsächlich viele Anfragen von unterschiedlichen Besuchern und Institutionen, inwieweit der „Deep Space“ exportierbar ist. Natürlich sind die hohen Hardwarekosten, die vor allem mit der Projektionstechnik verbunden sind, für viele ein Hindernis. Wir arbeiten aber gerade daran, maßgeschneiderte Pakete in unterschiedlichen Größen – sei es als temporäre oder permanente Installation – zu entwickeln. Wichtig ist uns dabei aber, dass die über viele Jahre eruierte Abstimmung von Inhalt und Technik in entsprechender Qualität erhalten bleibt. Denn schließlich macht das › ei die Erfahrung des „Deep Space“ aus.

WWW.DIGITALPRODUCTION.COM


PROJEKT | DROOL POOL

Sabber mal anders – „Drool Pool“ „Drool Pool“ befasst sich mit dem seltsamen Thema des Sabbers. Die Geschichte ist schnell erzählt: Kleine mausartige Wesen kuscheln sich in einer kalten und lebensfeindlichen Umgebung zusammen. Um der Kälte schließlich zu entfliehen, lassen sie sich von einem gewaltigen, maulwurfartigen Wesen verschlucken, in dessen Inneren sie es gemütlich und vor allem sabbrig warm haben. von Alexander Richter Vor allem wurde nach einem Weg gesucht, die Welt so kühl und unfreundlich wie möglich zu gestalten, um gleich zu Beginn die spätere Motivation zu erklären. Die komplexe und detaillierte Felsenwelt lässt jegliche Form von Vegetation vermissen, während der kohleartige, blau-schwarze Stein wie ein Knochenhaufen aufgetürmt heraussticht. Mit der Prämisse „Was dort (in der

scheinbar lebensfeindlichen Welt) lebt, muss an seine Umgebung perfekt angepasst sein“ entwickelte das Team die beiden Hauptcharaktere. Der riesige Heizkesselmaulwurf (Molko) lebt hauptsächlich unter der Erde. Seine Außenhaut ist fester als das gefrorene Gestein, durch welches er sich mit seiner drillartigen Schnauze und seinem förmlich brennenden Bilder: Alexander Richter, Filmakademie Baden-Württemberg

S

chon zu Beginn taucht der Zuschauer in die kalte und lebensfeindliche Welt ein. Die Kamera bleibt dabei zunächst still und gibt dem Betrachter Zeit, die Situation zu erfassen, bevor sie in Form einer kurzen Plansequenz Fahrt aufnimmt. In einer knappen Minute musste nicht nur die Geschichte erzählt, sondern auch eine komplette Wandlung der Grundstimmung vollzogen werden.

95


FOKUS

FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

Designideen für die Mulas

Die sabbernde Umgebung im Viewport von Maya

Körper bohrt. Auf der anderen Seite stehen die kleinen „Mulas“. Im ersten Moment wirken sie mit ihrer ledrigen Haut, den langen Beinen, großen Ohren und glasigen Augen nicht nur wie das Pendant zu Molko, sondern fast ein wenig zu fragil für diese Umgebung – und genau das ist die Absicht. Ihre Farbgebung ist derart an ihre Umgebung angepasst, dass sie beinahe mit ihr verschmelzen und für Fressfeinde kein Ziel bieten. Dies ist auch der Moment, in dem sich Design und Story treffen. Der Farbverlauf des Films gestaltet sich von einem kalten Blau der Umgebung am Anfang zu einem warmen Rot im Inneren von Molko am Ende. Damit wird die Geschichte in Form der Farben miterzählt und der Eindruck der Auflösung weiter verstärkt. Einer der Ziele des Films war es, auf Kontraste zu setzen: i Die kleinen Mulas gegen den gewaltigen Molko. i Die raue Umgebung gegen die Zerbrechlichkeit der Mäuse. i Die Kälte zu Beginn gegen die Wärme am Schluss.

Für „Drool Pool“ war es zunächst wichtig auszuloten, wie sich die beiden Wesen in dieser Welt bewegen. Dies definierte nicht nur das Aussehen, sondern auch den Charakter. Des Weiteren galt es die kleinen Hauptcharaktere, die an Springmäuse erinnern sollen, kindlich, naiv und neugierig darzustellen. Der Zuschauer sollte mitfiebern und entzückt sein. Im weitesten Sinne entspricht der kleine Hauptcharakter dem Zuschauer, denn er ist genauso unerfahren und reagiert ähnlich konfus auf die sich entfaltende Situation.

Stil & Technik Eine große Herausforderung beim Zusammentreffen mehrerer Künstler ist immer das

Einhalten eines bestimmten Stils. Schließlich erzählt der Film die Geschichte von Wesen eines einheitlichen Universums. Dementsprechend müssen die Schnittpunkte in der Gestaltung stimmen. Beispielsweise gibt es in Japan bei größeren Serien Zeichner, deren Aufgabe es ist, die unterschiedlichen Stile ihrer Mangakünstler (Mangaka) zu korrigieren und auf das Gesamtprodukt anzugleichen. Das Team von „Drool Pool“ ging zunächst den Weg, die Stärken der jeweiligen Teammitglieder auszuspielen. Christian Leitner, dessen Präferenzen im realistischen Design liegen, entwickelte den gewaltigen, rauen und kantigen Molko, während Meike Müller, die es lieber cartooniger mag, sich um die Kreation der zerbrechlichen Mulas kümmerte. Im Anschluss überarbeitete Christian noch einmal die Mulas, um den Detailgrad und die beiden Kreaturen einander anzugleichen. Bei der Umgebung ging das Team einen anderen Weg. Aufgrund der Komplexität entschied man sich, diese ausschließlich mit prozeduralen Texturen zu shaden und soweit wie möglich auf Textur-Maps zu verzichten. Somit entstand – und wirkt – die Umgebung durch das Sculpten, die Shader und das Licht. Dieser Ansatz ermöglichte es auch, auf UV und Displacement Maps für große Teile Die Farbgebung der Anfangsund Schlussszene des Films

Welt Der erste Schritt bei der Erschaffung einer fremden Welt stellt immer die Auslotung der Grenzen dieser dar. Inwieweit gelten die Regeln der Physik und inwieweit lehnt man sich an reale Objekte und Wesen an und ab wann zerstören genau diese den fantastischen Eindruck.

96

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

der Umgebung zu verzichten, wodurch der Aufwand für UV-Layouts, Map-Export und Texturverwaltung verringert wurde. Stattdessen wurde die gesculptete High-PolyGeometrie aus ZBrush exportiert, mit Mesh Lab vereinfacht und von Arnold als Proxyobjekt gerendert. Mesh Lab (Open Source) senkt die Polyanzahl der ZBrush-Geometrie und kann mit möglichen „non-manifold Edges“ umgehen – was äußerst praktisch ist. Wichtig ist zu bedenken, dass die großen Datenmengen für eine Renderfarm problematisch sein können und für die Interaktion im MayaViewport trotzdem eine Low-Poly-Version der Geometrie benötigt wird. Bis auf den dramatischen Ausbruch Molkos in der Mitte des Films wurde die restliche Zerstörung handanimiert. Dies war zum einen ein zeitliches Eingeständnis, machte es aber gleichzeitig möglich, das Gestein kontrollierter zu bewegen.

Endlich in sabbernder Sicherheit im Inneren des Monsters

PROJEKT | DROOL POOL

Shading & Lighting

Drool Pool

Beim Shading wurde, ähnlich wie bei dem Trailer „Animan“ (siehe DP-Ausgabe 05:2015), auf die Open Source alShader von Anders Langlands gesetzt. Der Shader vereinfacht nicht nur die ID-Vergabe, sondern erlaubt es auch, Lichtquellen zu Light und Shadow Groups zu gruppieren. Das Ergebnis sind AOVs, in denen die Szene nur von diesen Gruppen ausgeleuchtet wird. Dies gibt dem Compositor entweder die Möglichkeit, die gesamte Szene in puncto Beleuchtung selbst neu aufzusetzen oder aber den Beauty-Pass mit den zusätzlichen Light Group AOVs anzupassen. Der Vorteil im Vergleich zu den Render Layern ist nicht nur die einfachere Handhabbarkeit, sondern auch die nur marginale Renderzeiterhöhung. In „Drool Pool“ wurden die Light Groups vor allem für das Maul von Molko genutzt,

Der einminütige Animationsfilm ist eine Trailerproduktion für das ITFS 2O15 aus dem Haus des Animationsinstituts der Filmakademie Baden-Württemberg unter der Projektleitung von Johannes Weiland (Studio Soi).

Das Team: i Director | Animation | Sculpting: Meike Müller, Christian Leitner i Lead TD | Shading | Lighting | Rendering: Marcel Ruegenberg i Pipeline | Lighting | Rendering: Alexander Richter i Rigging: Julian Oberbeck i Compositing: Manuel Rivoir i Producing | Matte Painting: Ghaith Al-Adwan

Link: i bit.ly/ITFSdroolpool

das eine eigene, von innen heraus strahlende, Lichtquelle besaß. Damit war der Compositor in der Lage, nachträglich das Maullicht zu verstärken, abzuschwächen oder auch im Zusammenhang mit dem Herzen pochen zu lassen. Auch war es dadurch einfacher, Renderfehler wie Fireflies zielgerichteter zu korrigieren. Beim Licht wurde vor allem auf Arnolds Physical Sky gesetzt, welches als Grundlicht fungierte. Ausgewählte HDRIs unterstützen vor allem die Schattenbereiche, während Area Lights Elemente im Vorder- und Hintergrund hervorhoben. Zusätzliche Lichter erzeugten Glanzlichter in den Augen der Mulas, um ihre Naivität zu unterstreichen. Mit Light-Blockern wurden Schattenkanten gezeichnet und das Licht artistisch im Verlauf kontrolliert. Um die Größe der Welt zumindest im Aufwand zu begrenzen, wurden in vielen Außenszenen vorgerenderte und nachbearbeitete Matte Paintings genutzt, die insbesondere den Renderaufwand bedeutend senkten.

Fazit „Drool Pool“ beeindruckt mit der Ästhetik. Vor allem die Mulas schließt der Zuschauer schnell ins Herz und folgt ihnen auf ihrem ungewöhnlichen Weg. Trotz kleinerer Kompromisse, welche im Laufe der Produktion (aus technischen und zeitlichen Gründen) eingegangen werden mussten, überzeugt und unterhält der Film sabbrig schön. › ei Alexander Richter ist Technical-DirectorStudent an der Filmakademie BadenWürttemberg, spezialisiert auf Shading, Lighting, Pipeline und Compositing. richteralexander.com

97


FOKUS

FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

Unterwegs kreativ sein Wäre es nicht ein schöner Gedanke, unterwegs seiner Kreativität freien Lauf lassen zu können? Der Inspiration während einer Zugfahrt oder in der Natur einen ordentlichen Turbo zu verschaffen und die Eindrücke direkt in die Arbeit einflievon Rainer Duda ßen zu lassen?

W

acom macht das möglich mit dem neuen Cintiq Companion 2, das nebst dem Cintiq 27QHD Touch vorgestellt wurde. Über Letzteres wurde in der DP-Ausgabe 07:2015 berichtet. Der große Vorteil des Cintiq Companion 2 ist, dass man einen eigenständigen Windows-8.1-Rechner bei sich trägt und nicht auf einen fest installierten PC oder ein Notebook als Host angewiesen ist, wie es beim großen Bruder der Fall ist. Und mit einem Preis, startend bei 1.399,90 Euro, ist das Grafik-Tablet mit Multi-Touch-Funktion relativ erschwinglich. Aber was bekommt man, wenn man sich das Companion 2 zulegt?

Unboxing Erwirbt man das Wacom Cintiq Companion 2, dann erwartet einem beim Öffnen nicht nur der Geruch, den man von „frischen“ Elektronikgeräten her kennt, sondern das Gerät selbst präsentiert sich sogleich edel verarbeitet und ohne spiegelndes Display. Ein großer Pluspunkt, gerade wenn es um den Außeneinsatz geht. Zusätzlich bekommt man eine Art Standfuß, den man an der Rückseite anklipsen kann. Mal davon abgesehen, dass es sich mit zwei rutschfesten Gummistreifen um einen dekorativen Schutz für die Rückseite handelt, darf man zusätzlich zwischen drei aufklappbaren Fächern wählen, die das Cintiq in einem höheren oder niedrigeren Winkel aufstellen. Selbstverständlich erhält man den neuen Pro Pen gleicht mit: Ein luxuriös anmutender Stift inklusive einem Stiftetui und bis zu neun Ersatzspitzen. Für einen einfachen Wechsel hat Wacom das passende Werkzeug gleicht mitgeliefert. Und die Individualisten bekommen zusätzlich farblich sortierte Ersatzringe für den Pro Pen, die sie nach Wunsch ändern können.

98

den Wacom-Newcomern den Schnellstart so einfach wie möglich zu machen. Des Weiteren gibt es ein CintiqConnect-Kabel und auch gleich ein HDMI-Kabel, falls man das Companion 2 als Zusatzgerät für den bereits vorhandenen Rechner nehmen möchte.

Was steckt unter der Haube? Dass so ein gut verarbeitetes Gerät für einen nicht ganz so erschwinglichen Preis nicht ohne den nötigen Schutz ausgeliefert werden sollte, hat Wacom vollkommen bedacht. Neben all der Technik und dem Standfuß bekommt man zusätzlich ein Cintiq-Softcase, das sehr gut verarbeitet wirkt und modisch aussieht: nicht zu verspielt vom Design her und nicht zu altmodisch, grauer Stoff mit einem schwarzen Reißverschluss an der Oberseite. Selbstverständlich ist auch die Bedienungsanleitung mit im Gepäck, um

Das getestete Gerät ist im Mittelfeld der Companion-2-Serie angesiedelt. Es handelt sich um das Cintiq Companion 2 DTHW1310L. Ausgestattet ist es mit einem i5Prozessor und einer Taktfrequenz von 2 mal 2.5 GHz sowie einem sparsamen NotebookDualcore-Prozessor auf Basis der HaswellArchitektur. Für die Grafik sorgt ein IntelIris-Graphics-5100-Chip mit Unterstützung für DirectX 11.1 und Open GL 4.0. Intel hat bei diesem Chip auf den Cache verzichtet, was aber nicht heißen soll, dass er nicht an

Mit dem Cintiq Companion 2 kann man der Kreativität unterwegs freien Lauf lassen. Verfügbar ist der mobile Wunderknabe in vier Versionen.

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

die Ultrabook-Qualität herankommt. Für ausreichend Speicher sorgt eine 128 GB große SSD-Fesplatte. Der Arbeitsspeicher kann sich mit seinen 8 GB DDR3 ebenfalls sehen lassen. Vorinstalliert ist das Betriebssystem Windows 8.1. Die Zeichenfläche ist ein 13,3 Zoll großes 16:9-Display mit einer Auflösung von 2.560 x 1.440 Pixel. Für die geringe Größe von 37,4 x 24,8 x 15 Zentimetern ist es ein kleines Schwergewicht mit 1,7 Kilogramm. Um das Display herum ist ein schwarzer Rahmen mit knapp drei Zentimetern Dicke, wie man es von Wacom gewohnt ist. Im Rahmen befinden sich an der Unterseite zwei integrierte Lautsprecher. An der linken Seite im Rahmen ist ein kleines Panel eingebaut worden. Darin finden sich sechs konfigurierbare Expresskeys. In der Mitte der Expresskey-Reihe befindet sich ein kleiner Steuerring, in dem vier konfigurierbare Knöpfe vorhanden sind. In der Mitte des Rings sitzt ein Knopf, mit dem man zum Windows-Hauptbildschirm springen kann. Die Seitenleisten inklusive der hinteren Abdeckung sind in Silber gefasst, wie man es vom Mac Book gewöhnt ist, jedoch mit größeren rutschfesten Bereichen. Links und rechts in den Seitenleisten befindet sich eine Vielzahl an Anschlussmöglichkeiten. Abgesehen vom Stromanschluss und einem Cintiq Connect Slot finden sich drei USB-3.0Anschlüsse neben einem Anschluss für eine SDHC- sowie eine Micro-SD-Karte. Wie es sich für ein Tablet gehört, sind auch Möglichkeiten für eine kabellose Übertragung vorhanden. Man kann Bluetooth nutzen oder über den 802.11 b/g/n WLANAdapter ins Internet gehen. Wie zuvor erwähnt, sind zwei integrierte Lautsprecher vorhanden mit jeweils 1,5 Watt Leistung. Daneben verfügt das Companion 2 über zwei integrierte Kameras. Eine Zwei-Megapixel-Kamera ist oberhalb des Bildschirms angebracht. Die zweite befindet sich an der Rückseite und besitzt acht Megapixel. Des Weiteren gibt es einen Headset-Anschluss und einen Mini-Displayport. Somit bietet das kleine Kraftpaket dem Benutzer ordentlich Möglichkeiten, mit dem Companion 2 zu arbeiten, Daten auszutauschen oder es gar als eigenständiges Tablet mit Touch-Funktion zu verwenden.

Bringt dem Maler sein Werkzeug Was der kleine Zauberkasten in sich trägt, weiß man nun. Bleibt noch die Frage offen, was der Zauberstab in petto hat. Bei dem Zeichenwerkzeug handelt es sich um einen batteriefreien und ohne Akku funktionierenden Pro Pen. Die Besonderheit ist nicht nur das edel wirkende Design, das in Anthrazit gehalten ist. Am Ende des Stiftes

HARDWARE | WACOM COMPANION

befindet sich ein schwarz glänzender Aufsatz, der einen Radiergummi imitiert. In der Mitte des Stiftes befindet sich ein schwarzer rutschfester Gummi, in den zwei Knöpfe integriert wurden. Direkt unterhalb des Gummis im Daumenbereich liegt die farblich unterlegte Distanzscheibe, bevor die Halterung der Pinselspitze in Anthrazit beginnt. Der kleine Zauberstab sieht nicht nur gut aus, er kann auch eine ganze Menge. Sei es die Pinselspitze oder der Radiergummiaufsatz am oberen Ende des Stiftes – beide Bereiche besitzen 2.048 unterschiedliche Druckstufen. Ein weiteres Feature ist die Erkennung der Neigungsstufen. Das macht sich gerade in Zeichenprogrammen wie Photoshop sehr gut, wenn man am Schraffieren ist. Bei der Neigung werden innerhalb von den möglichen 40 Grad insgesamt 60 Stufen unterschieden. Wenn der Pro Pen und die Expresskeys nicht mehr ausreichen, kann man auf die Touch-Funktion zurückgreifen.

Im Einsatz Ausstattung und Aussehen wurden abgehandelt. Nun geht es ans Eingemachte, um zu sehen, ob das Cintiq Companion 2 auch hält, was es verspricht: „Genieße volle kreative Freiheit“. Und Wacom soll recht behalten: Man kann die Freiheit genießen, vorausgesetzt man hat die nötige Unterarmmuskulatur oder kann das Companion 2 unterwegs auf den Oberschenkeln ablegen. Da es aber relativ schwer ist, sollte auf einen festen Stand zurückgegriffen werden. Das macht auch die Navigation beziehungsweise Steuerung mittels der Expresskeys einfacher. Halten und Knöpfedrücken empfiehlt sich nicht, da man beim Ausbalancieren leicht mehrfache Klicks durch das Wippen mit den Fingern erzeugt. Abgesehen davon macht es einen sehr sportlichen Eindruck. Die meiste Freude bei der Arbeit mit dem Companion 2 kommt wirklich erst dann auf, wenn es fest steht oder besser gesagt man sich nicht auf den festen Stand konzentrieren muss. So kann man sich auch mal mit den Händen abwechselnd aufstützen, falls man filigrane Zeichnungen vornehmen muss. Hat man dies bedacht, dann kann man das Companion 2 reisebereit machen. Unterwegs wird erst mal das Companion entpackt und im Café mit der Steckdose verbunden. An der linken Seite, dort wo sich auch die Expresskeys befinden, versteckt sich ein kleiner Schiebeschalter, mit dem sich das Gerät einschalten lässt. Man benötigt lediglich einen Schub nach unten und binnen kurzer Zeit liest man den WacomSchriftzug. Innerhalb weniger Sekunden ist der Windows-Startbildschirm zu sehen und man kann quasi loslegen.

Die Companion-Ausstattungen i Das Kleine für zwischendurch Das Cintiq Companion 2 gibt es in unterschiedlichen Ausführungen. Das kleinste Multi-TouchGrafik-Tablet beginnt bei einem Preis von 1.399,9O Euro und besitzt einen i3-Prozessor mit 1.7 GHz Leistung. Zusätzlich gibt es lediglich 4 GB DDR3 Arbeitsspeicher und eine 64-GBSSD-Festplatte. Für die Grafikleistung sorgt ein Intel-HD-Graphics-44OO-Chip. Bei der kleinen, aber feinen Ausstattung darf man keine Wunder erwarten. Wer aber mit Sketchprogrammen und Lightweight-Grafik-Tools arbeitet, kommt voll auf seine Kosten. i Der Aufsteiger Für 2OO Euro mehr zu einem Preis von 1.599,9O Euro bekommt man einen i5-Prozessor mit 2.4 GHz Leistung und doppelt so viel Arbeitsspeicher wie auch Festplattenplatz, nämlich 8 GB DDR3 und eine 128 GB SSD. An dieser Stelle wird es schon interessant seitens der Spezifikationen. Bei diesem Gerät lohnt sich die Installation von Scultping-Programmen wie ZBrush oder Grafikprogrammen wie Photoshop CC oder Corel Painter. Für die Grafikunterstützung sorgt ein Intel-Iris-Graphics-51OO-Chip. Bei 3D-Modellierungsprogrammen sollte man allerdings nicht zu viel erwarten, da viele auf große Grafikkarten beziehungsweise Grafikbeschleuniger ausgerichtet sind. i Die Allround-Lösung Ab einem Preis von 1.999,9O Euro wird es interessant. Der integrierte Prozessor ist ein i7 5557U mit 3.1 GHz Leistung. Als Festplatte ist eine 256 GB große SSD verbaut, während der Arbeitsspeicher kaum größer ist als in der kleineren Version – 8 GB DDR3. Hier kann man schon mal ordentlich die 3D-Engine von Photoshop CC auf den Prüfstand stellen und rechenintensive Filter aufsetzen. i Das Grafikkraftpaket Ein solches erhält man für einen Preis von 2.499,9O Euro. Nicht ganz so erschwinglich, gerade wenn man bedenkt, dass man für dieses Geld einen guten Computer oder gar andere Tablets im Doppelpack kaufen könnte. Aber für unterwegs bekommt man ein treues Kraftpaket an die Hand. Unter der Haube verbirgt sich ebenfalls ein i7-5557U-Prozessor mit 3.1 GHz Leistung. Dazugelegt wurde allerdings beim Festplatten- sowie Arbeitsspeicher: Die Festplatte besitzt eine Kapazität von 512 GB und der Arbeitsspeicher ist mit 16 GB DDR3 doppelt so hoch wie beim nächstkleineren Modell. Das Ausmaß der nutzbaren Applikationen schnellt in die Höhe. 2D-Animationen wie auch 2,5D-Animationen sind kein Problem für das kleine, aber im Herzen große Cintiq Companion 2. Photoshop CC sowie Corel Painter lassen sich in vollem Umfang nutzen.

99


FOKUS

FILM & VFX

3D & ANIMATION

Das erste Fenster, das man erblickt, ist die Aufforderung, das Zeichengerät zu kalibrieren. Der Kalibrierung geht relativ schnell vonstatten. Man wird gebeten, mit der Pinselspitze vier Mal nacheinander auf den Mittelpunkt von auf dem Display erscheinenden Kreuzen zu tippen. Hat man dies getan, dann ist der Pro Pen prinzipiell einsatzbereit. Nach einer kurzen Zeit macht sich bereits der Lüfter bemerkbar. Man nimmt das Lüftergeräusch wahr, doch es ist kaum lauter als die sprudelnde Kohlensäure eines Mineralwassers in einem offenen Glas. Interessant ist der Punkt, wann die Lüfter ihre Arbeit begannen, was kurz nach der Kalibrierung war. Der Energiesparmodus von Windows befindet sich standardmäßig auf „ausbalanciert“.

INTERACTIVE

DIGITAL ART

Über die Wacom-Steuerung lassen sich sämtliche Tasten mit den gewünschten Funktionen belegen.

während des Tests ist. Des Weiteren lässt sich natürlich der hintere Teil des Pro Pens auch mit einer anderen Funktion als bloßes Radieren belegen. Blickt man in das Feld „Stift“, dann sieht es kaum anders aus als in dem Feld für den Radierer. Zunächst lässt sich die DrucksenDie Arbeit leichter machen sitivität einstellen. Eine Neuerung ist hier Man kann natürlich schon zu diesem Zeit- allerdings auch die Anpassung der Neigungspunkt Photoshop öffnen und drauflos ar- empfindlichkeit. Unter der Einstellung für beiten. Es empfiehlt sich jedoch, erst mal in die Drucksensitivität findet man eine Anpasdie Wacom-Gerätesteuerung zu gehen und sungsmöglichkeit für den Doppelklickabstand die Expresskeys mit nützlichen Funktionen der Stiftspitze. Man kann die Funktion deakzu belegen. So umgeht man das ständige tivieren oder bestimmt einen größeren AbAblegen des Pro Pens oder gar die Nutzung stand für das Doppelklicken. Last but not least einer externen Tastatur. Wer dennoch auf lassen sich beide Knöpfe an dem schwarzen eine Tastatur nicht verzichten möchte: Für rutschfesten Gummi mit Funktionen belegen. 49,90 Euro bekommt man eine Wacom- Wacom hat an dieser Stelle mitgedacht und Bluetooth-Tastatur im Wacom-Webshop. bietet dem Benutzer eine Reihe von vorgefertigten Befehlen wie Klickfolgen oder Windows-spezifische Funktionen. Individuelle Steuerung Wem das nicht reicht, der kann per TasBetrachtet man die Einstellung für den Pro tenanschlag eine eigene Taste für den jeweiPen, gibt es drei Felder, in denen man sich ligen Knopf vergeben. Standardmäßig wartet austoben kann. Das Letztere dient lediglich dann das neue Fenster auf die zu drückende der Kalibrierung. Sollte man mit der Präzisi- Taste. Alternativ kann man diese von Hand on des Pro Pens nicht zufrieden sein, kann eingeben, ähnlich wie bei einem Mac Pro. man den Schritt an dieser Stelle nochmals Auch im Einstellungsbereich für die Touchwiederholen. Beim Feld des Radierers kann Gesten wird man mit einer Optionsvielfalt man zunächst die Drucksensitivität von hart regelrecht verwöhnt. Neben der Möglichkeit, bis weich verändern. Überprüfen lässt sich die Touchfunktion zu deaktivieren – was die Einstellung durch einen kurzen Druck- einem zupasskommt, wenn man öfter mal test. Ein Balken zeigt an, wie hoch der Druck die Hand auf dem Display ablegen möchte –, darf man noch die Art der Gestenerkennung wählen. Entweder man baut auf das herkömmliche Windows-Gestensystem oder man nutzt Wacom-Gesten. Damit auch die Individualisten ihr Stück vom Kuchen Der Pro Pen ist sicher verstaut, wenn man unterwegs ist. bekommen, wurde Dazu gibt es noch bis zu neun Ersatzspitzen. ein Feld mit dem

100

SCIENCE & EDUCATION

SERVICE

Namen „Meine Gesten“ implementiert. Dort darf man sich austoben, wenn man das volle Programm an Multi-Touch-Gesten auffahren möchte. Von Drei-FingerGesten bis hin zu Fünf-Finger-Gesten lassen sich unterschiedlichste Funktionen einstellen. Ganz wie zuvor beim Pro Pen. Wer sich die Gesten bildlich nicht vorstellen kann, dem wird geholfen, indem eine kleine Animation im Konfigurationsfenster eine Schleife mit den jeweiligen Fingerbewegungen abspielt. Je nach Geste lassen sich bis zu drei Funktionen unterbringen, wie zum Beispiel mit dem Vier-Finger-System. Wischt man nach oben oder unten oder von links nach rechts, jede Bewegung kann mit einer Funktion belegt werden. Das erste Symbol kümmert sich um die Programmierung der Expresskeys an der rechten Seite des Displays. Insgesamt drei wichtige Felder sind darin vorhanden. Das erste ist, wie der Name schon sagt, für die sechs Expresskeys verantwortlich. Das zweite Feld kümmert sich um die Funktionen an dem besagten Ring. In Wacom-Terminologie der Rocker-Ring. Um die Windowstaste herum lassen sich vier Knöpfe nach Wunsch belegen. Wie zuvor beim Pro Pen erwähnt, über bereits vordefinierte Standardfunktionen oder über eigens eingestellte Macros durch den Tastenanschlag. Wichtig ist zudem das Radialmenü – das dritte Feld. Zur Anwendung kommt das allerdings nur, wenn eine Taste mit dem Feld Radialmenü belegt ist. Ganz gleich, ob es die Expresskeys sind oder ein Knopf am Pro Pen direkt. Das Radialmenü kann man sich vorstellen wie das Maya-Menü beim Betätigen der Leertaste. Alle wichtigen Funktionen öffnen sich auf einmal und über eine intuitive Bewegung in eine Richtung lässt sich die gewünschte Funktion aktivieren beziehungsweise durchführen. Auch hier kann man die einzelnen Felder oder bildlich gesprochen Pizzastücke mit vordefinierten Funktionen bestücken oder eigene hinzufügen.

Über die Optik lässt sich streiten. Funktional ist der Standfuß allemal.

WWW.DIGITALPRODUCTION.COM


Powered by AUSGABE O1:2O16

HARDWARE | WACOM COMPANION

Steuerungspresets für Programme

101

Fotografieren in 3ds Max Seit 2016 hat Autodesk 3ds Max eine physikalische Kamera, mit allen Möglichkeiten, die eine analoge Kamera bietet. Michl Dacher zeigt, was das heißt – und wie man damit umgeht. PDF zum Download unter www.digitalproduction.com

CREATIVE MEDIA EDUCATION Anzeige

probiert hat, dann ist man überzeugt von der Funktionalität und möchte Die letzte Zeile im es nicht mehr misEinstellungsfenster sen. Es geht nichts heißt „Anwendung“. über einen Stift in Hier lassen sich proder Hand, um das grammspezifische nötige Feingefühl Eigen schaften und auf das Modell zu Funk tionen vergeüber tragen. Man Bei den drei größeren Versionen des Companion 2 ben. So kommt man spür t es ebenso ist eine Tasche zum Verstauen mit dabei. zu programmspezifibeim Sculpting. Man schen Presets, anstatt global alle Tasten ist barrierefrei bei der Arbeit und vor allem einmal zu vergeben. Egal ob man nun eine wo man arbeitet. Auch die Akkulaufzeit ist spezielle Steuerung für Photoshop benötigt angenehm. Es ist selbsterklärend, dass, je oder weil jemand anders eine andere Kombi- höher die technischen Spezifikationen sind, nation von Zurodnungen bevorzugt, beides desto schneller der Akku in die Knie geht – ist spielend einfach machbar. Spannend ist ein Problem aller mobilen Geräte. die Zuweisung. Ist das Programm geöffnet, Der einzige Punkt, bei dem es sicherlich für das man eine Steuerung vornehmen will, Diskussionsbedarf gibt, ist der Anschaffungsreicht ein Klick auf das Plus rechts neben der preis. Insgesamt vier Modelle sind verfügbar, Leiste. Ein Fenster zeigt die derzeit aktiven doch für welches soll man sich entscheiden? Programme an und man muss nur noch das Einen Überblick der Modelle finden Sie im gewünschte wählen. Standardmäßig ist ein Kasten. Preset namens „Alle“ vorhanden. Nun einige Randerscheinungen, die während der Tests aufgefallen sind. Ganz objektiv betrachtet handelt es sich um ein Auf die Ausdauer kommt es an Windows 8.1 Tablet mit großen ProzesMobilität ist es doch, was man von so einem soren. Und diese Prozessoren müssen geGerät in erster Linie erwartet, wenn man die kühlt werden. Daher sollte man sich darauf technischen Features hinter sich gelassen einstellen, dass gerade unter Vollast die hat. Das Cintiq Companion 2 ist unterwegs Lüfter zu hören sind. Deshalb empfiehlt nutzbar. Die Frage, die sich stellt, ist: Wie es sich, über die integrierten Lautsprecher sieht die Akkulaufzeit aus? nebenher Musik ertönen zu lassen oder auf Als Richtwert erhält man von Wacom Kopfhörer umzusteigen. Wer aber Lüftergeknappe 4,5 Stunden als Betriebszeit genannt, räusche gewöhnt ist und sich daraus nichts ganz ohne Stromzufuhr. Natürlich handelt es macht – zugreifen! Ein weiterer Punkt, der sich bei der genannten Zeit um ein Beispiel. aufgefallen ist und Fingerspitzengefühl erUnter Vollast verhält sich das Cintiq Com- fordert, ist die Abdeckung hinten, die man panion 2 natürlich anders. Wie bei jedem als Ständer benutzen kann. Ein Punkt, den Notebook oder Tablet wie auch Smartphone, man wie auch das Lüftergeräusch subjekdas oft und gerne benutzt wird, reduziert tiv einschätzen muss. Ohne Feingefühl lässt sich die Laufzeit. Bei Grafik-Programmen sich die Abdeckung nicht so einfach von der jedoch schneller als angenommen. Ist man Rückseite lösen und wirkt verkantet. Man in der Natur unterwegs und möchte das eine sollte tunlichst vermeiden, die Abdeckung oder andere Landschaftsporträt zeichnen herauszubrechen. Grundsätzlich sollte man oder sich dem nächsten Projekt widmen, aber diese Position nur einmal einklipsen. ohne in einem Büro mit weißen Wänden zu Geht ja mehr oder weniger darum, ob man versauern, dann darf man sich auf 2,5 Pho- links- oder rechtshändig ist. Das ändert man toshop-Stunden freuen. Wobei der große ja nicht wöchentlich. Teil des Energiemangels eher auf Windows Eine Information noch zum Schluss: Das mit seinen vielen Hintergrundprozessen zu- zuvor beschriebene Softcase gibt es bei rückzuführen ist als auf die Technik selbst. allen Cintiq-Companion-2-Versionen kosMöchte man den Akku wieder vollladen, so tenfrei mitgeliefert, außer bei dem kleinsten muss man knappe zwei Stunden einplanen. Modell DTH-W1310T. Da muss man schon selbst eine Auswahl treffen und separat ein Softcase erwerben. Was aber auch kein neFazit gativer Punkt ist. Gefällt einem das mitgeEine erfreuliche Nachricht vorneweg: Es gibt lieferte Case nicht, erübrigt sich das Thema nichts Negatives zu berichten. Wacom, das sowieso. Gleiches gilt leider ebenfalls für den ist eine Marke, ein Symbol für einen CG- Standfuß: Käufer des DTH-W1310T haben Lifestyle. Man liebt es oder man hasst es, auch in diesem Fall leider das Nachsehen. › ei aber wenn man es als CG-Artist einmal aus-

Diploma-, Bachelorund Masterabschlüsse in der Medienbranche

www.sae.edu


FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

Bilder: Hartswood Films, BBC Wales

FOKUS

Sherlock wird taktvoll Diese britische Serie hat auch dem letzten Feuilletonisten-Snob gezeigt, dass für TV mittlerweile auf einem Qualitätsniveau produziert wird, das sich nicht vor dem Kino verstecken muss – zumindest den Snobs, die hinter dem Mond leben und immer noch was von „analog“ faseln. Und nachdem wir nun allesamt viel zu lange auf die neuen „Sherlock“Folgen warten müssen – erst am 1.1.2O16 ist es soweit –, sprachen wir schon mal mit dem Cutter der letzten Episode von Bela Beier „His Last Vow“.

D

ie TV-Serie „Sherlock“ versetzt die Kriminalromane von Sir Arthur Conan Doyle ins London des 21. Jahrhunderts. In der Serie brilliert das Duo Benedict Cumberbatch als Sherlock Holmes und Martin Freeman als Dr. John Watson, deren Kombination für durchschlagenden internationalen Erfolg sorgt. Cutter Yan Miles war deshalb sofort dabei, als er den Auftrag bekam, das spannende Finale der dritten Staffel zu schneiden: „His Last Vow“. In „His Last Vow“ verwebt Miles die packenden Handlungsstränge mit dem Pathos und Humor von Cumberbatch und Freeman. Die Episode wurde unter der Leitung des hochgelobten britischen Film- und Fernsehregisseurs Nick Hurran gedreht und für diverse Preise nominiert, darunter auch für die Primetime Emmy Awards – hier gingen sieben der Auszeichnungen an „Sein letzter

102

Schwur“, so der deutsche Titel. Keine TVEpisode hat jemals mehr Auszeichnungen erhalten. Miles selbst bekam dabei den Primetime Emmy Award 2014 für „Outstanding SingleCamera Picture Editing for a Miniseries or a Movie“, den American Cinema Editors (Eddie) 2015, für „Best Edited One-Hour Series for Commercial Television“, sowie den BAFTA Television Craft Award in der Kategorie „Best Editing: Fiction“ (2015) und den Online Film & Television Association Award 2014 für „Best Editing in a Non-Series“. Miles erste Berührung mit der Branche war ein Job als Bote für das Studio Salon Films, das dem inzwischen verstorbenen britischen Filmemacher Stanley Long gehörte. Gemeinsam mit Steinbeck’s und Moviola besaß dieser damals ein Dry-Hire-Schnittstudio im angesagten Londoner Stadtteil Soho. „Dieser Ort

wurde zu meiner ersten Filmschule. An den Schnittplätzen haben ständig großartige Cutter und Regisseure gearbeitet – hier wurde meine Liebe zum Film geboren.“ Zurzeit arbeitet er am Schnitt des Dreiteilers „Childhood’s End“ von Arthur C. Clarke, bei dem er über 1.200 VFX-Shots einbauen muss. DP: Wie viele Leute waren in der Edit Suite an „Sherlock“ beteiligt? Yan Miles: Los ging es beim Editing, wie ich beim Dreh am Set die Daten gesammelt habe – Nick Hurran, der Regisseur, konnte so schon kontrollieren und eine Vorauswahl treffen. Meine beiden großartigen Assis– tenten, Gareth Maybe und Joel Skinner, luden die Rushes in den Avid Isis, resyncten den Ton und bereiteten die diversen Bins für den Schnitt vor. Nick dreht gerne in 50 fps, was zwar hintenraus mehr Flexibilität be-

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

deutet, aber am Anfang die Assistenten erst mal mehr auslastete. Nach dem Shoot diskutierten Nick und ich die einzelnen Szenen und schnitten für insgesamt 7 Wochen. In dieser Zeit haben wir auch immer Szenen mit dem VFX-Supervisor, Jean-Claude Deguara von Milk VFX besprochen, um sicherzustellen, dass alles für die VFXen bereit ist. Der große Vorteil vom Isis ist, dass hier alles an einem Fleck versammelt ist und alle daran arbeiten können. DP: Wie haben Sie Ihren Schnittplatz eingerichtet? Yan Miles: Mein Setup ist ein Avid Media Composer, der auf ein paar Mac Pros läuft – offensichtlich mit mehr RAM als üblich. An Plug-ins verwende ich meistens Boris FX und Red Giants Magic Bullet Looks für das Grading sowie Effekte. Das ist eines meiner am meisten genutzten Tools, ein großartiges Grading/FX-Werkzeug, das einigen Szenen einen ganz bestimmten Ton verleiht, der weit über die klassische LUT hinausgeht. Der Trim Mode ist fantastisch; Audio Keyframing, Paket-Sharing und die Möglichkeit, seine Einstellungen an die persönlichen Vorlieben anzupassen, helfen mir außerdem dabei, meinen eigenen Workflow aufzusetzen und zu managen. Gruppen-Clips, Multi-Cams, Animattes – ich könnte diese Liste ewig fortführen. Ich finde es außerdem großartig, wie einfach man Drittanwendungen in den Media Composer integrieren kann. Für den Ton verwende ich einen Satz Genelec-8050bMonitore, da bin ich etwas heikel – so wie ich Musik und Soundeffekte einsetze, bestehe ich auf einem guten Sound in der Edit Suite. Zum finalen Schauen verwende ich einen kalibrierten 40-Zoll- oder 50-Zoll-Plasma, den aber der DoP aufgesetzt hat. DP: Angesichts der Unmengen an VFXen, dem Grading und dem Mastering für Dutzende Systeme: Wie bereiten Sie einen Edit vor? Yan Miles: Ich habe von Anfang an eng mit dem DoP zusammengearbeitet, Neville Kidd. Er und Nick Hurran haben jeweils einen Look entwickelt und mir den Freiraum gelassen, auch meine Vorstellung einzubringen – aus diesen drei Teilen hat sich dann der finale Look zusammengesetzt. Meine Assistenten schieben den Final Cut dann rüber ins Grading und zum FX Vendor mit Anmerkungen, was uns gefallen hat und was nicht. Das ist dann die letzte „Entwicklungsstufe“ eines Films. Wobei man bei „Sherlock“ schön sehen kann, dass ein

INTERVIEW | SHERLOCK

guter Colorist dem Film durch seine Interpretation etwas hinzufügt, das bis dahin nicht vorhanden war. DP: Angesichts der sich farblich und vom Setting her stark unterscheidenden Locations, zum Beispiel „Appledoor“, der Mind Palace von Charles Augustus Magnussen, und das Appartement in der Baker Street, was können Sie uns für das Editing empfehlen? Yan Miles: Das Schlüsselelement ist, den Rhythmus und die Spannung zu halten, und in dem „anderen“ Segment abwechslungsreich zu arbeiten. Nur so war es für die Zuschauer (und Sherlock) glaubhaft, dass Magnussen tatsächlich alles in den Kellern seines Anwesens Appledoor (was ja schon ein versteckter Hinweis war) lagert. Das kommt über die Schnittgeschwindigkeit und die Farben, sowohl innerhalb des Mind Palace als auch bei der Auflösung. Ich denke, die Zuschauer wollen vor allem Spannung. Deswegen sind solche Momente in Bezug auf die Planung wichtig, damit nichts Offensichtliches verraten wird und handelnder Character und Zuschauer nicht auseinanderlaufen. DP: Meine Lieblingsszene war, wie Sherlock von Mary Watson, vormals Morstan, angeschossen wird. Können Sie beschreiben, wie Sie das Panikgefühl bei seinem Sturz hinbekommen haben? Yan Miles: Das war tatsächlich eine Herausforderung, Sherlock so lange in seinem Mind Palace zu halten, bis ihm einfällt, was er tun muss, um doch nicht zu sterben … Ich habe am Anfang alles komplett geladen, daraufhin in der Länge angepasst, bis die Schnittfrequenz einen Herzschlag ergab – was im Zusammenspiel mit dem „Alarmsirenen“-SFX Sherlocks verständliche Panik gut rübergebracht hat. Wie sich Sherlock dann die Stufen hochzieht und auf die Treppen schlägt, um das Herz wieder zu starten, nachdem er Moriarty im tiefsten Geschoss seines Ver-

standes gefunden hat, musste unbedingt spannend bleiben. Dazwischen jeweils noch ein paar Shots mit Blaulichtern und Krankenbahren, um den Kontrast hochzuhalten – das Komprimieren der Zeit ist ein wunderbarer Teil der Arbeit eines Editors. DP: In „Sherlock“ wurde mehr oder minder das erste Mal „Moderne Kommunikation“ tatsächlich in die Story eingebunden, ohne dass jemand vorliest oder Bildschirme Ewigkeiten zu sehen sind. Wie wurde das in dieser Folge umgesetzt? Yan Miles: In dieser Episode kamen zwar keine SMS vor, aber in Sherlocks Mind Palace gab es Schriften und Schlagworte und natürlich Magnussens Brille. Für Letztere

»Man kann nichts schneiden, was man nicht versteht.« Yan Miles Editor

standen uns eine detailliert aufgenommene Brille inklusive Scans zur Verfügung. In den ersten Tests war das noch eine einfache getrackte Texteinblendung mit einer „Computer-Schriftart“. Das hat aber allen so gut gefallen, dass wir dabei geblieben sind – manchmal sind die einfachsten Lösungen die besten. Und wirken originell. DP: Werden Sie weitere Folgen von „Sherlock“ schneiden? Oder mit Steven Moffat und Mark Gatiss weiterhin zusammenarbeiten? Yan Miles: Ich habe gerade einen StoryRückblick für das Special geschnitten, und das macht bei der Serie einfach Spaß. Auch wegen der Story des Specials – von der ich natürlich nichts verrate. Aber ich würde gerne wieder mit Mof fat und Gattiss zusammenarbeiten – sie sind brillante Drehbuchschreiber, und der Rest des Teams besteht auch aus wunderbaren Leuten. Ich würde mich sehr freuen, hier weiter mitzuarbeiten. DP: Wenn Sie den Schnitt bei „Sherlock“ mit Feature Filmen beziehungsweise „kurzen“ TV-Shows vergleichen, wo sehen Sie den hauptsächlichen Unterschied? Wie verändert sich der Rhythmus? Yan Miles: Ich glaube nicht, dass man Kino und TV vom Schnitt her wirklich vergleichen kann – beim Feature hat man die riesige Projektionsfläche, und so kann ich

103


FOKUS

FILM & VFX

im Schnitt wesentlich länger im Weitwinkel bleiben. Das nimmt natürlich enorm Hektik aus dem Film und ermöglicht mir eine ganz andere Auswahl an Shots. Andererseits ist bei TV-Produktionen die Character-Entwicklung eine andere – man bedenke das Timing und den Rhythmus über mehrere Episoden hinweg. Und „Sherlock“, wo eine Episode immer jenseits der 90 Minuten ist, mischt das beides, was den Reiz ausmacht. Das Feedback der Zuschauer ist aber, dass sie eine solche Länge bevorzugen, weil man so genügend Zeit hat, eine Geschichte vollständig, ohne Unterbrechungen, zu erzählen. DP: Was würden Sie einem Avid-Einsteiger empfehlen? Yan Miles: Mach Fehler, nur so lernt man! Außerdem ist man als Editor die Summe seiner Techniken, Tricks und Erfahrungen. Man muss seinen Weg finden, mit dem System umzugehen, und darf nicht sklavisch Workflows von anderen befolgen. Das System ist stabil genug, um das auszuhalten, und lässt sich für fast jede Arbeitsweise anpassen. Das Beherrschen der Tools macht dich nicht zum Editor oder Geschichtenerzähler, aber sie vereinfachen den Prozess ungemein. Ich habe wirklich viele Stunden auf dem MC gelernt. DP: Was würden Sie sich in der nächsten Version an Features wünschen? Yan Miles: Also, ich bin soweit mit dem Avid ganz zufrieden, und habe es seit dem ersten Release verwendet – da ist man zusammen gewachsen. Ein paar Sachen gibt es natürlich immer, zum Beispiel wie Music Cues reinladen, ohne jeden Track in die Source laden zu müssen. Des Weiteren bevorzuge ich es, meine Bins im Frame Mode zu verwenden und meine Clips zusammen für jedes Setup zu lagern – und das kann kniffelig werden. Wenn es da eine Möglichkeit der Verknüpfung gäbe … Ebenso wären Fortschritte bei AMA nötig (siehe DP 01:2014). Aber ansonsten ist das Avid schon sehr solide. Ich freue mich darauf, Touchscreens zu nutzen und kann dank der neuesten Entwicklungen oft auch unterwegs editieren – im Zug, Flugzeug, Hotelzimmer oder auch von zu Hause aus in London. DP: Verwenden Sie die Media Composer Cloud respektive Avid Interplay Sphere? Würden Sie überhaupt mit ausgelagerten Daten arbeiten? Yan Miles: Die Interplay Sphere habe ich jetzt nicht verwendet. Aber ich war bei vielen Produktionen, bei denen von unterschiedlichsten Locations, Ländern und Kontinenten aus zusammengearbeitet und Terabyte über Terabyte gemirrored wurde. Und Bins habe ich mehr als genug durch die Gegend geschickt ... Ich denke, die Cloud wird letztendlich daran scheitern oder dadurch den

104

Sieg erringen, wie sich die Bandbreiten der Internetverbindungen entwickeln. Ich bin schon in Schnitträumen gesessen, die mit einer E-Mail überfordert waren. DP: Welche der neuen Technologien, die ihren Einzug auf den Sets halten, sind aus Ihrer Sicht spannend? Yan Miles: Ich denke, dass die Technologie allgemein immer alles umwirft, aber trotzdem bleibt es beim Gleichen. Dennoch sorgt die Technologie dafür, dass immer mehr Leute Filme machen können und somit wieder mehr gute Leute den Einstieg finden. Aber das ist nur der Einstieg – auch eine digitale 8K-HFR-HDR-Kamera bringt nichts, wenn es an der Story hapert. Persönlich finde ich Material aus Dronen-Kameras hochinteressant. DP: Wenn Sie heute noch mal anfangen würden: Wie würden Sie Editor werden? Yan Miles: Ich würde es genau so wieder machen, denke ich: zuhören, geduldig sein und von jedem um mich herum lernen. Denn „Editing“ und eigentlich alles beim Film ist Teamarbeit. Das heißt, wer gut sein will, muss verstehen, was der Kameramann macht, was die Leute vom Make-up-Department genau machen, wozu Script Editors da sind und wie Schauspieler arbeiten – einfach alle, die am Film beteiligt sind. Und wenn man sich mit denen unterhält, versteht man das Gefüge – und das ist es, was man als Editor unbedingt braucht. Man kann nichts schneiden,

was man nicht versteht. Ich habe damit angefangen, Musik- und Unternehmensvideos sowie Dokumentationen zu schneiden. Anfangs hab ich jedes kurze Video angenommen, auch wenn es dafür kaum eine finanzielle Gegenleistung gab. In dieser Zeit musste ich lernen, die Zähne zusammenzubeißen und mit Regisseuren und Produzenten auch bei kleinen Budgets zusammenzuarbeiten. Editieren ist ein Handwerk, das Zeit und Erfahrung braucht. Zuallererst mal ist es eine Leidenschaft, bevor es zu einer Karriere werden kann. DP: Wenn Sie an gutes Editing denken – was sind drei Beispiele, die jeder gesehen haben sollte? Yan Miles: Das ist eine schwere Frage – und natürlich auch Geschmackssache. Aber ich finde, man sollte auf jeden Fall „City of God” gesehen haben, die erste Staffel von „True Detective“ und „Blade Runner“, welcher von meinem persönlichen Vorbild Terry Rawlings geschnitten wurde. Ach ja, und auf jeden Fall noch „His Last Vow“ und das Special am › ei ersten Januar!

Links Yan Miles i bit.ly/YanMiles

Milk VFX i www.milk-vfx.com

WWW.DIGITALPRODUCTION.COM


DAWN OF THE STUFF | INTERVIEW Bilder:Alf Lovvold

AUSGABE O1:2O16

Viel CG-Stuff

Es gibt unfassbar viele Filme, in denen die Erde und ihre Menschheit von irgendetwas übernommen werden sollen: Körperfresser, Zombies, Affen oder Pflanzen – sogar Killerkondome haben es mal versucht. Artist Alf Lovvold hat viele dieser Elemente in einen fiktiven Film gepackt und einen beeindruckenden sowie ironischen Trailer namens „Dawn of the Planet of The Zombies and The Giant Killer Plants on Some Serious Acid“ oder kurz „Dawn of the Stuff“ alleine von Mirja Fürst realisiert. Wir fragten nach, wie der Artist das arbeitsintensive Projekt im Alleingang realisieren konnte.

A

lf Lovvold (www.alflovvold.com) ist ein norwegischer VFX-Artist und Director sowie Co-Founder des Studios Gimpville (www.gimpville.no), das bereits Effekte zu Feature Filmen wie „Trollhunter“ und „Beatles“ geliefert hat. „Dawn of the Stuff“ ist ein persönliches Projekt von Lovvold, bei dem er vor allem die GPU-Möglichkeiten des Redshift Renderers hinsichtlich Geometrien austesten wollte. Insgesamt kreierte Lovvold 44 Shots für den drei Minuten langen Trailer. DP: Wie ist die Idee zu „Dawn of the Stuff“ entstanden? Alf Lovvold: Ich finde es lustig, dass FilmSequels heutzutage immer längere Titel bekommen – „Dawn of the Planet of The Zombies and The Giant Killer Plants on Some Serious Acid“ war also eigentlich nur ein ironisch gemeinter Witz-Titel. Ein Insider-Gag,

der sich schließlich durch das Projekt zog, sodass ich bis zum Ende beim Thema des überlangen Titels geblieben bin. Auf gewisse Weise ist es auch meine Hommage an alte Horrorfilme aus den 50er Jahren. DP: Wie lange hast du insgesamt an dem Projekt gearbeitet? Alf Lovvold: Das ist schwer zu sagen, weil viel von dem Projekt schon in der anfänglichen R&D-Phase entstand – geschätzt habe ich insgesamt ungefähr sieben Monate daran gearbeitet, um den Trailer fertigzustellen.

den ich in ihrem fantastischen Motion-Control-Studio filmen durfte. DP: Die Aufnahme des Soldaten in dem Panzer, der das einzige reale Element in dem Trailer ist, musste sehr verwackelt gefilmt werden. Wie konntest du das Material problemlos mit dem CG-Hintergrund kombinieren?

»Die Schnelligkeit von Redshift ist wirklich sensationell.« Alf Lovvold VFX-Artist, Gimpville

DP: Und du hattest tatsächlich keinerlei Hilfe bei dem Projekt? Alf Lovvold: Mir haben nur die Stiller Studios aus Schweden (stillerstudios.com) mit dem Live Action Shot eines Soldaten geholfen,

Alf Lovvold: Ich speiste der Kamera und dem Motion-Control-Rig der Stiller Studios meine Maya-Daten der Szene ein; die Aufnahmen wurden also bewusst verwackelt aufgezeich-

105


FOKUS

FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

zelne Artists als auch für Studios ein tolles Kraftpaket. DP: Wie bist du für die vielen Zerstörungseffekte vorgegangen? Alf Lovvold: Sie sind durch einen Mix von Techniken entstanden: Von Mayas internen nCloth und dem Bullet Solver über das Maya-Plug-in Fracture FX habe ich alles benutzt (www.fracture-fx.com). Fracture FX ist ein ereignisgesteuertes Physics-Plugin für Zerstörungen – es hat ein paar tolle Kontroll-Optionen, mit denen sich auf verschiedenste Arten die gewünschten Effekte erzielen lassen. DP: Wie hast du die Smoke- und FeuerEffekte realisiert? Alf Lovvold: Viele Rauch- und Feuer-Elemente sind Stock-Plates, deren 3D-Objekte und Kamera ich via Alembic importiert und mit Fusion in den 3D-Raum composed habe. Ich habe versucht, die Dinge einfach zu halten, indem ich mich so gut wie möglich von Simulationen ferngehalten und eine Menge gefaked habe.

net, so passte das Material perfekt zu meinen CGI-Plates. Damit die realen Aufnahmen sich noch besser in das CG-Material integrieren ließen und das statische Gefühl der Szene verloren ging, legte ich noch einen zusätzlichen Shake auf das Footage beziehungsweise den Shot, den ich durch eine Extra-CG-Kamera gefilmt hatte.

DP: Warum hast du mit Maya gearbeitet? Alf Lovvold: Maya ist schon seit 13 Jahren fester Bestandteil meines Tool-Sets, daher war für mich klar, es für „Dawn of the Stuff“ einzusetzen – außerdem kann man so gut wie alles damit machen. Und zusammen mit Redshift als Renderer ist es sowohl für ein-

DP: Wie bist du für die CG-Natur vorgegangen? Welche Tricks hast du angewendet, um diese effizient zu gestalten? Alf Lovvold: Die Naturelemente sind ebenfalls durch viel Mix-Arbeit entstanden: Mit angepassten Laub-Modellen, Mayas PaintFX, dem Ivy Generator (graphics.uni-konstanz.de/~luft/ivy_generator) und einigen optimierten Stock-Assets wie Bäumen und Ähnlichem. Um das Projekt diesbezüglich so effizient wie möglich zu halten, habe ich beispielsweise Meshes kombiniert oder keine Transparency Maps auf weiter entferntem Laub verwendet. Für alle Laub-Elemente setzte ich Redshift Proxies ein, um die HauptRender-Szene so sauber und leicht zu halten wie nur möglich. Auch durch das Ausnutzen von GPU Caches für die Gebäude-Blocks ließ sich das Set schnell bestücken; so konnte ich mit Hi-Res-Modellen arbeiten bei einer gleichzeitig guten Framerate. DP: Warum hast du für die Zombies Mixamo-Modelle genutzt? Alf Lovvold: Ich wollte Zeit sparen, deshalb entschied ich mich für Mixamo-Basic-Characters mit verschiedenen Run Cycles. Ich modifizierte und optimierte sie etwas und exportierte alle 3D-Charaktere als AlembicDatei, um alles so aufgeräumt wie möglich zu halten. Die Crowd gestaltete ich aus der Kombination einer Golaem Crowd, die einem Ziel hinterherjagt, und dem manuellen Platzieren einzelner Charaktere. DP: Von welchen Online-Portalen hast du Footage-Material verwendet?

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

DAWN OF THE STUFF | INTERVIEW

Alf Lovvold: Viele 3D-Assets wie die Fahrund Flugzeuge habe ich von Turbosquid und 3D02 (inzwischen CG Studio www.cgstud. io), was beides sehr gute Seiten sind. In Sachen Qualität sollte man darauf achten, was man kauft: Bei Turbosquid gibt es eine Menge guten Content, aber auch ebenso viele Assets mit niedriger Qualität, von denen man sich fernhalten sollte. Und teuer bedeutet nicht immer, dass die Assets eine gute Qualität besitzen. Für Footage-Material wie Bilder und Soundeffekte kann ich Pond5 empfehlen. Bei Motion VFX gibt es auch tolles Footage, aber das dort verfügbare fokussiert sich fast ausschließlich auf die Content Creation und nicht auf den VFX-Bereich. Die beste Seite meiner Meinung nach – sowohl für Stock-Material als auch Effekte – ist Video Copilot. Go Kramer! DP: Warum hast du Redshift für das Rendering genutzt? Welche Vorteile bot die Render Engine? Alf Lovvold: Der größte Vorteil von Redshift ist seine Schnelligkeit, die auf der GPU läuft – diese ist wirklich sensationell. Maya-User, die Mental Ray oder Arnold gewohnt sind, können das Rendering mit Redshift leicht lernen und die Engine sofort verwenden. Das Projekt habe ich ausschließlich mit Redshift gerendert – wenn man einmal per GPU gerendert hat, möchte man nicht mehr zurück. Ich renderte das Projekt auf einer einzigen Workstation, die mit vier Geforce GTX 780 Tis gerüstet war. Die Renderzeiten reichten bei 1440p von 2 bis hin zu 15 Minuten. DP: Warum hast du mit Fusion gecompt? Alf Lovvold: Ich bin ein langjähriger Nutzer des Tools, ein alter Fusion-Patriot. Viele hypen Nuke heutzutage und es ist tatsächlich ein tolles Tool, keine Frage – aber ich wette, dass ich genau die gleichen Dinge mit Fusion leisten kann. Außerdem ist es kostenlos und Nuke gibt es nur zu hohen Preisen. Fusion hat meiner Meinung nach auch das cleanere Interface, sodass der Einstieg leichter fällt, und läuft stabiler als Nuke. Aber es ist relativ egal, für welchen Weg man sich entscheidet, solange man mit der entsprechenden Software das gewünschte Ergebnis erhält. DP: Was war bei dem Projekt insgesamt betrachtet der schwierigste Arbeitsschritt? Der einzige Live Action Shot des Trailers wurde mit einem MotionControl-Rig gefilmt.

Alf Lovvold: Am kompliziertesten war, die Welt voller Details zu packen und gleichzeitig die Render-Zeiten niedrig zu halten. Die Kombination von Stock-Material sowie eigenen Effekt-Assets, die ich als Proxies exportierte, halfen mir, das Projekt ohne extrem große Dateien fertigzustellen und dabei den Schwung nicht zu verlieren.

Leute an einer Fortsetzung interessiert sind, könnte man einen Kurz- oder sogar einen Feature Film daraus machen. Ich werde mich dafür einsetzen, dass das Projekt weiter geteilt wird, und dann sehen, was daraus wird! Ich möchte auch noch mal allen danken, die mich bei der Entwicklung des Trailers unter› mf stützt haben.

DP: Was war generell die größte Herausforderung? Alf Lovvold: Das Projekt zu Ende zu bringen. Es wurde immer ambitionierter und um alle 44 Shots alleine zu stemmen, war eine sehr sture Geisteshaltung vonnöten. Zusätzlich habe ich ja auch noch das Sound Design gemacht, was ebenfalls eine große Menge an Arbeit bedeutete. DP: Wie groß ist dein Projekt insgesamt? Alf Lovvold: Das Projekt ist nicht übermäßig groß: insgesamt mit allen Test-Renderings, Offline Caches, Pre-Comps und StockFootage-Material nur etwa 1 TB. DP: Was sind deine weiteren Pläne mit dem Trailer? Alf Lovvold: Nach der massiven Resonanz, die durchweg positiv war, arbeite ich aktuell daran das Projekt zu erweitern. Falls genug

Links Trailer in voller Länge i vimeo.com/129346968

Projekt-Breakdown i vimeo.com/129344367

Webseite Alf Lovvold i www.alflovvold.com 107


FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

Bilder: Michl Dacher

FOKUS

Tiefenschärfe mittels Blendensteuerung, Unschärfe im vorderen Bereich

Durchblick mit Physik

Tiefenschärfe mittels Blendensteuerung, Unschärfe im hinteren Bereich

Powered by

In Autodesks neuer Version von 3ds Max 2O16 ist nun eine physikalische Kamera enthalten. Entwickelt wurde sie zusammen mit der Chaos Group, dem bulgavon Michl Dacher rischen Hersteller von V-Ray.

D

ie neue Kamera bietet viele Optionen, mit denen nun eine reale Kamera simuliert werden kann. Darunter finden sich unter anderem Blendensteuerung, Verschlusszeit, Tiefenschärfe, Film/Sensor und Belichtung. Weiterhin lassen sich mit erweiterten Steuerelementen die stürzenden Linien, künstlichen Horizonte oder Objektverzeichnungen direkt im Ansichtsfenster sichtbar machen. Die Kamera ist keine reine Mental-RayKamera, sie lässt sich auch für andere Renderer einsetzen – allerdings mit einigen Einschränkungen. Im Vorgabe-Scanline-Renderer zum Beispiel werden die Verzerrung, die Tiefenschärfe und die Bewegungsunschärfe nicht unterstützt. Die Perspektivensteuerung ist zwar aktiv, jedoch können je nach Szene Einstellungen hierfür falsch oder überhaupt nicht dargestellt werden. Mental Ray unterstützt selbstverständlich alle Funktionen. Beim Iray-Renderer schaut es schon wieder ganz anders aus. Weder Verzerrung, Tiefenschärfe, Neigungskorrektur, Schnittebenen und Umgebungsbereiche werden supportet. Quicksilver bietet für Verzerrung und Bewegungsunschärfe keine Unterstützung, die Blendenform bei Bokeh ist auf die kreisförmige Öffnung beschränkt. Die Perspektivensteuerung wird zwar auch hier unterstützt, jedoch können wieder Einstellungen falsch oder überhaupt nicht bei einigen Szenen dargestellt werden. Wie man sich schon denken kann, hat man mit V-Ray auch die komplette Funktionalität der neuen physikalischen Kamera aus Autodesk 3ds Max 2016.

108

Preview Window Im Preview-Fenster gibt es auch Einschränkungen wie zum Beispiel die nicht korrekte Abbildung der Verzerrung, bei Tiefenschärfe wird nicht die Bokeh-Form angezeigt und die Perspektivkorrektur ist eher eine Annäherung als eine perfekte Darstellung. Es ist wohl beim Rendern mit einem etwas anderen Endergebnis als in der Vorschau zu rechnen. Ich werde im Folgenden auf die einzelnen Bereiche und Parameter eingehen und diese genauer unter die Lupe nehmen.

kussieren und die Tiefenschärfe. Auf Wunsch werden der Kegel der Kamera sowie eine Linie als Horizont angezeigt.

Die Kamera selbst Der Menüpunkt „Physische Kamera“ verweist auf die Technik der Kamera. Im Bereich Film/ Sensor etwa kann man sich über Voreinstellungen einige Sensoreinstellungen laden. Dort findet man unter anderem 35 mm Full Frame/APS-C für Canon, Nikon, Sony/APSH für Canon. Jede Einstellung enthält einen

Wo finde ich die physische Kamera? Unter „Erstellungsgruppe > Kameras > Rollout Objekttyp > Physisch“. Erstellt wird diese wie gehabt – durch Standpunkt und Zielpunkt. Im ersten Menüpunkt, neben Name und Farbe, finden wir Grundlegendes wie „Zielgerichtet“. Ist diese Option aktiv (Default), verhält sich die Kamera wie eine Zielkamera, das heißt, man kann sowohl seinen Standpunkt als auch das Ziel separat verschieben und anpassen. Somit ist man äußerst frei in Bezug auf das Erstellen der gewünschten Perspektive. Will man doch eher Transformationen anwenden, so verhält sich die Kamera bei deaktiviertem „Zielgerichtet“ wie eine freie Kamera. Das muss jeder für sich selbst entscheiden. Viel wichtiger ist der Zielabstand, denn dieser legt den Abstand zwischen Ziel und der Fokusebene fest. Das ist entscheidend für das Fo-

Menüfenster für die physische Kamera

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

vorgegebenen Breitenwert. Über das Bearbeiten der Datei „PhysicalCameraFilmPresets.ini“ kann man neue Voreinstellungen hinzu definieren. Sollte die Breite manuell geändert werden, wählen Sie die Voreinstellung „Benutzerdefiniert“. Die Gruppe „Objektiv“ enthält Einstellungen für die Brennweite, das Blickfeld, den Zoom und die Blende. Die Brennweite hat einen Defaultwert von 40 Millimetern. Soll der Blickfeld-Wert (FOV) in Grad angegeben werden, muss in „Blickfeld aktivieren“ ein Haken rein. Die Vorgabe ist deaktiviert, denn ein zu starkes Ändern kann perspektivische Verzerrungen verursachen. Es ist ja klar, dass ein „Schrauben“ an der Brennweite Auswirkungen etwa auf Kameraeffekte wie den Bokeh-Effekt hat. Möchte man das Bild dennoch etwas zuschneiden und die Szene optisch vergrößern, ohne dass man die Brennweite ändert, findet man diese Möglichkeit in der Gruppe „Objektiv“ unter „Zoom“.

Auch in der digitalen Fotografie gibt es eine Blende So kann man auch hier unter „Blende“ den Blendenwert oder die Blendenzahl festlegen. Der eingestellte Wert wirkt sich auf die Tiefenschärfe und auch auf die Belichtung aus. Als Formel gilt: Je kleiner die Blendenzahl, desto größer ist die Blende, desto kleiner ist die Tiefenschärfe. In der Gruppe „Focus“ wird der Fokusabstand festgelegt. Entweder über den Zielabstand („Gruppe Grundlegend“) oder manuell über „Benutzerdefiniert“. Ein visuelles Feedback bekommt man im Ansichtsfenster als ein leicht transparentes, blaues Quadrat. Es gibt dort aber gern ein optisches Pumpen, wie man es aus dem analogen Autofokus kennt - Max passt wohl das Blickfeld durch Verschieben des Objekts hin beziehungsweise weg vom Fokusabstand an. Ich habe es noch nicht wirklich benötigt. Ganz anders beim Punkt „Tiefenschärfe aktivieren“. Die Kamera erzeugt bei aktivem Button eine Unschärfe bei Abständen, die Ungleich des Fokus-Abstandes sind. Wie schon vorher beschrieben, basiert der TiefenschärfeEffekt unter anderem auf der Einstellung der Blende. Es gibt hier zwei Möglichkeiten: Entweder man beschäftigt sich gleich mit realer Fotografie oder man testet einfach mittels einigen Renderings, bis der gewünschte Effekt auftritt. Die Gruppe „Verschluss“ legt den Typ

3DS MAX | KAMERA

und die Dauer der Verschlusszeit fest sowie den Versatz und die Bewegungsunschärfe. Unter „Typ“ lässt sich die Einheit für die Messung wählen. Typischerweise werden Rahmen (Frames) für CG, Sekunden respektive eine Sekunde für Stills und Grad für Film verwendet. Die Dauer sagt schon über den Physikalische Kamera mit Fokusabstand und DOF aktiv Namen aus, dass hier die Verschlusszeit – in Abhängigkeit der gewählten Einheit und ISO-Wert. Höhere Werte ergeben ein – eingestellt wird. Dieser Wert hat durchaus dunkleres Bild, während niedrigere Werwieder Auswirkung auf die Belichtung, die te ein helleres Ergebnis bringen. Durch die Tiefenschärfe und die Bewegungsunschär- Koppelung der beiden Werte „Manuell“ und fe – sofern diese eingeschalten ist (aktiviert „Ziel“ sieht man sofort die Änderungen. wird diese mittels Haken bei „Bewegungsunschärfe aktivieren“). Der Abstand respektive Lichttemperatur und AWB Versatz gibt an, wann sich die Blende relativ zum Beginn eines Frames öffnet. Default ist Die Farbbalance – der Weißabgleich – ist ein hier 0,0, da sich auch dieser Wert wieder auf wichtiger Punkt, den viele Fotografen mit großer Sorgfalt betrachten. Das Endresultat die Bewegungsunschärfe auswirken kann. kann komplett eingefärbt sein, sollte dieser Wert nicht angepasst sein. So ist etwa Die Belichtung der Weißpunkt als Vorgabe im Hinblick auf Der zweite Menüpunkt „Belichtung“ wird nur eine normale Lichtquelle wie Tageslicht mit aktiv, indem man auf den Button „Belich- 6.500 K zu sehen. Die Liste ist lang und man tungssteuerung importieren“ klickt. Warum? findet unter anderem Glühbirnen, LeuchtDadurch, dass wir ja physikalisch rendern stoffröhren oder Metalldampflampen. wollen, ist dafür nicht nur eine physikalische Alle unterscheiden sich im Weißpunkt. Kamera notwendig, sondern auch das pas- Manuell eingestellt werden kann die Farbsende Umfeld – und dazu gehört auch die temperatur in Kelvin über das Farbfeld oder physikalische Belichtungssteuerung, diese über eine benutzerdefinierte Farbe. Der ist über Umgebung (8) auszuwählen. Hierzu letzte Punkt in dieser Gruppe ist die Vignetgibt es eine kleine Beschreibung am Ende tierung – man kennt den etwas dunkleren des Kameramenüs. Ich gehe nun mal da- Randbereich in Renderings oder Fotos und von aus, dass das Menü „Belichtung“ nicht Filmen. Ich persönlich erzeuge diesen teilmehr ausgegraut ist und man auf die Werte weise wichtigen Effekt eher mit anderen zugreifen kann. Nun findet man unter „Be- Programmen. Denn der Effekt der Vignette lichtungsverstärkung“ den Button „Manuell“ wird in das Rendering mit hinein gerechnet. oder „Ziel“. Also schnell mal Ein- und Ausblenden ist Manuell legt der User die Bildhelligkeit dann nicht mehr. über einen ISO-Wert fest. Durch diesen Wert er- Tiefenschärfe – rechnen sich die Belich- oder was ist Bokeh? tung, die Verschlusszeit und der Blendenwert. Je Hier können wir die Blendenform einstelkleiner der Wert, desto len – und damit natürlich auch den Look dunkler das Bild – je grö- der verwaschenen oder unscharfen Objekte. ßer der Wert, desto hel- Bei „Rund“ entsteht eine völlig runde Form ler. Default ist hier Ziel, der Öffnung – während bei „Lamelliert“ eine da dies als automatischer polygonale Öffnung mit geraden Kanten und ISO-Modus zu verstehen Ecken entsteht. Die Anzahl der Kanten sowie ist. Die Zahl erstellt hier den Rotationswinkel lege ich mit den beiden eine automatische Kom- Parametern fest. FilmPresets Benutzerdefinierte Texturen sind auch bination aus drei Werten – Verschlusszeit, Blende möglich. Hierzu benötigt man eine Map zum

109


Bokeh Blur

Beispiel mit einer Herzform, Blumen oder was auch immer. Man muss nur wissen, dass sich die Textur wie eine Opacity Map verhält: Weiß ist 100 Prozent transparent und Schwarz ist undurchsichtig. Da sich die Textur auch auf die Belichtung auswirken soll, ist vorab schon mal ein Haken drin. Um den Bokeh-Effekt noch etwas individueller gestalten zu können, gibt es die Mittenbetonung (Ringeffekt), die optische Vignettierung (Katzenauge) und die Anisotropie (anamorphes Objekt). Der Ringeffekt verlagert die Transparenz der Öffnung zur Mitte – negative Werte reduzieren den Blur. Bei positiven Werten zur Kante hin vergrößert sich der Blur. Weitwinkelobjektive können eine Vignettierung verursachen. Wenn das benötigt wird, gibt es Regler für das Katzenauge. Diese Berechnung ist in der Regel aufwendig und kann zu Bildrauschen oder/und zu hohen Renderzeiten führen. Die Anisotropie kennt man von Metallen. Hierbei wird ein anamorphes Objekt simuliert, indem der Blur horizontal respektive vertikal gestreckt werden kann.

Bokeh Blur horizontal

tive Werte eine Tonne. Generell gilt aber für Kissenverzerrungen: Je größer der Abstand von der Mitte des Bildes ist, desto stärker krümmen sich die Linien nach innen in Richtung der Mitte. Mit einer Kissenverzerrung entsteht auch eine Vignettierung des Bildes. Bei der Tonnenverzerrung gilt das Gleiche – nur nach außen, also von der Bildmitte weg. „Ja“ und „Textur“ verzerrt das Bild über eine Map. Wichtig dabei zu wissen ist, dass die rote Komponente der Textur das Bild entlang der x-Achse und die grüne Komponente das Bild entlang der y-Achse verzerrt. Die blaue wird nicht ausgewertet. Schnittebenen und Umgebungsbereiche dürften ja keine Fremdwörter sein, denn diese sind ja auch in den „alten“ Kameras enthalten. Die Schnitteben für „nah“ und „fern“ werden wieder als rote Quadrate im Kamerakegel angezeigt, getrennt regelbar durch die zwei Werte. Die Kamera kann nur zwischen den beiden Werten Objekte erfassen. Bei extremen Werten können Berechnungsfehler (Gleitkomma) auftreten, wodurch im Ansichtsfenster Probleme mit der Darstellung auftreten können oder sich 3ds Max sogar verabschiedet.

Perspektivensteuerung – Verzeichnung und Umgebung

Die Belichtungssteuerung

Jeder kennt stürzende Linien bei einem Bild einer Stadt mit hohen Gebäuden oder eines Zimmers. Hierfür gibt es die Neigungskorrektur sowohl für „Horizontal“ und auch „Vertikal“. Auch eine Anpassung der Objektverschiebung ist möglich. Hierbei ändert sich die Einstellung der Kamerasicht horizontal oder vertikal – ohne die Kamera zu drehen oder zu neigen. Die x- sowie die y-Achse werden hier als Prozentsatz der Film-/Rahmenbreite ausgedrückt. Das Seitenverhältnis des Bildes wird hier nicht berücksichtigt. Verzerrungen gleiche ich mit der Objektverzeichnung aus. „Keine“ ist die Vorgabe, denn ich verwende diese Kissenentzerrung nur, wenn ich was zu entzerren habe. Sollte man so etwas benötigen, gibt es die kubische als auch die texturbezogene Kissenentzerrung. Bei „Kubisch“ gelten Werte ungleich null als Verzerrung. Positive Werte erzeugen ein Kissen, nega-

Unter „Menü > Rendern > Umgebung (8)“ sehen wir die Belichtungssteuerung – das Menü hat sich nun an die neue physikalische Kamera von 3ds Max 2016 angepasst. Es gibt zwar weiterhin noch die mr-fotografische Steuerung, jedoch das neue Menü passt eher für die physische Kamera. Generell wird hier die Belichtung mit einem Belichtungswert und einer FarbreaktionsKurve festgelegt. In der Gruppe „Belichtung“ kann zwischen „Pro-Kamera-Belichtung verwenden“ oder „ignorieren“ gewählt werden. Es wird hierbei festgelegt, ob es für jede Kamera eine eigene Belichtungssteuerung oder ob es eine globale Steuerung für alle Kameras gibt. Mit einem Defaultwert von 6,0 werden „ältere“ Kameras – also nicht-physische Kameras ausgestattet. Der Wert 0,0 für eine physische Kamera wird ja eh durch die Belichtungswert-Einstellung der Kamera überschrieben. Es

110

Bokeh Blur vertikal

ist nur wichtig zu wissen, sollte man „Global“ gewählt haben, dann wird dieser Wert deaktiviert. Um einen anderen Belichtungswert als Vorgabe zu definieren, sollte dieser Wert geändert werden, bevor „Pro-KameraBelichtung ignorieren“ ausgewählt wird. Im Bereich „Bildsteuerung“ hat man über eine sogenannte Farbreaktions-Kurve Einfluss auf Glanzlichter, Mitteltöne, Schatten und Farbsättigung. Bei der Farbsättigung sind bei Werten unter 1,0 weniger und bei Werten über 1,0 mehr gesättigte Renderings zu erwarten. Zu guter Letzt haben wir noch die Gruppe „Physikalische Skalierung“. Es wird hier ein physikalischer Skalierungsfaktor für die Belichtungssteuerung eingestellt, der bei Lichtquellen verwendet wird, die keinerlei physikalische Basis haben. Diese passt sich dem Auge an. Somit wird voraussichtlich das Renderergebnis etwas in der Beleuchtung gedämpft sein. Bei „Benutzerdefiniert“ kann man einen Multiplikator für Standardlichtquellen eingeben, der die Intensitäten mit dem eingegebenen Wert multipliziert, um einen in Candela angegebenen Lichtstärkewert zu erhalten. Bei der Einstellung von 1.500 Candela/RGB-Einheit wird zum Beispiel eine Omni-Lichtquelle als isotrope Lichtquelle mit 1.500 Candela behandelt.

Fazit Die physikalische Kamera von 3ds Max 2016 ist eine echte Bereicherung, die das Renderergebnis maßgeblich beeinflusst. Es lassen sich hiermit realistischere Renderings erstellen. Ob sie nun einfacher zu bedienen ist wie die herkömmlichen Kameras, muss jeder für sich selbst entscheiden. Ein kleiner Tipp hierzu wäre, sich eingehend mit realer Fotografie auseinanderzusetzen oder sich mit einem Fotografen zu unterhalten. Ein weiterer Pluspunkt ist auch, dass ich nicht unbedingt mit Mental Ray arbeiten muss, sondern dass ich die Kamera auch mit anderen Renderern verwenden › ei kann. Michl Dacher leitet seit 19 Jahren die Firma Dacher Design & Technik und sieht seine Firma als Agentur für Neue Medien. Neben der Dienstleistung für 3D-Animationen und Visualisierung ist er zertifizierter Trainer und Supporter für Autodesk 3ds Max und V-Ray. Des Weiteren ist er Dozent und Trainer für Firmen und Einrichtungen wie Mensch und Maschine MuM, FH Würzburg, FH Nürnberg, HWK oder FMX. www.desutec.de

WWW.DIGITALPRODUCTION.COM


&EJUJPO

NEU

Asiatisch genießen Architektur inszeniert Esskultur NEU September 2015 Christian Schittich (Hrsg.). 144 Seiten mit zahlreichen Abbildungen. Format 25 × 23,5 cm. ISBN 978-3-95553-264-2 Hardcover: a 39,–

Ein Restaurant- und Reiseführer für Liebhaber der asiatischen Küche Zeremonien, Riten und Traditionen – nicht nur aufgrund der teils faszinierenden Geschmackskombinationen oder auch ungewöhnlichen Zutaten stoßen die Essgewohnheiten der asiatischen Länder in den westlichen Kulturen auf reges Interesse. Doch wie sind die Räume für diese Regeln und Abläufe gestaltet? Und was für eine Atmosphäre herrscht hier, während man die Speisen und Getränke zu sich nimmt? Diese Publikation stellt – von Teehäusern über Sake-Bars bis hin zu Restaurants –

Projekte asiatischer und europäischer Architekten in diesen beiden Kontinenten vor: Wie wird das Thema von Architekten in »unseren« Breitengraden adaptiert und interpretiert? Wie lässt sich auf die Gegebenheiten und Kulturen an diesen Orten eingehen, ohne einfach nur mit »asiatischem Dekor« zu spielen? Ergänzt durch ausgewählte Rezepte einzelner Restaurants und Essays zu den unterschiedlichen »asiatischen Küchen« und Esskulturen ist das Buch ein Reiseführer zu besonderen asiatischen Plätzen in Europa und Asien.

30 Projekte in asiatischen und europäischen Metropolen Hintergrundinformationen und Geschichten zu den Restaurantkonzepten Wissenswertes zu asiatischen Speisen und Traditionen

www.detail.de/asiatisch


Alle Bilder: Daniel Erpilev

FOKUS

FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

Infrarot in der Praxis Filmschaffende sind stets auf der Suche nach neuen technischen Gestaltungsmitteln, um den Zuschauern ein besonderes visuelles Erlebnis zu bieten. Mit der Möglichkeit, Aufnahmen im Infrarotbereich zu erstellen, wird dem Betrachter ein neuer Blick auf die Welt jenseits des sichtbaren Lichts eröffnet. von Daniel Erpilev

Landschaftsaufnahme ohne Weißabgleich (WB) (5.6OO K); RED Epic-X, RG695. Wie erwartet, ist hier eine deutliche Übersättigung im Rotkanal zu verzeichnen.

SCIENCE & EDUCATION

SERVICE

D

ie außergewöhnlichen Landschaften in Schwarz-Weiß oder farbenverkehrte Aufnahmen sind die wichtigsten Charakteristika, die mit dem Verfahren in Verbindung gebracht werden. Auf dem Gebiet der Kinematografie wurde bereits zu Zeiten des Schwarz-Weiß-Films mit infrarotempfindlichem Material gearbeitet, um beispielsweise Nachtstimmungen zu simulieren. Auch digitale Filmkameras sind grundsätzlich für Infrarotaufnahmen einsetzbar. Aktuelle Produkterscheinungen digitaler infrarotfähiger Filmkameras zeugen von Marktrelevanz durch wachsendes Interesse von Publikum und Industrie. Abgesehen von wenigen Erfahrungsberichten im Internet und in Zeitschriften sind gegenwärtig allerdings nur wenige fundierte Informationen auf dem Gebiet der digitalen Infrarot-Bewegtbildaufnahmen vorhanden. Im Bereich der professionellen Filmproduktion kommt diese Technik aufgrund von mangelnder Wissensgrundlage bei der praktischen Anwendung bisher nur selten zum Einsatz. In diesem Bericht werden alle weiteren Darstellungen mit dem Augenmerk getroffen, dass die Aufnahmen mit einem professionellen Anspruch erzeugt werden und daher auch die Technikanforderungen für die Arbeiten am professionellen Filmset erfüllen müssen. Deswegen werden die Optionen des Fotozubehörs nicht näher in Betracht gezogen.

Infrarotstrahlung

Landschaftsaufnahme mit WB (3.154 K; Tilt: 42,989); RED Epic-X, RG695. Der Weißabgleich wurde mithilfe einer Graukarte am Set durchgeführt. Das Signal im Rotkanal wird stark verringert, wobei auch der sogenannte Wood-Effekt intensiver zum Vorschein kommt.

Landschaftsaufnahme monochrom durch starken IR-Passfilter; RED Epic-X, RG83O. Hier wird deutlich, dass die Wellenlängen ab circa 83O Nanometern bei der RED Epic-X von allen Pixeln in gleicher Menge durchgelassen werden, was für ein monochromes Bild sorgt.

112

Das Frequenzband der Infrarotstrahlung grenzt unmittelbar an das sichtbare rote Licht und erstreckt sich ungefähr zwischen Wellenlängen von 780 Nanometern bis 1 Millimeter. Die Übergänge zwischen den Bändern sind nicht fest definiert, wobei der gesamte Infrarotbereich folgenden Untergruppen zugeordnet werden kann: i Nahes Infrarot (NIR): 780 nm bis 3.000 nm i Mittleres Infrarot (MIR): 3.000 nm bis 6.000 nm i Fernes Infrarot (FIR): 6.000 nm bis 15.000 nm i Extremes Infrarot: 15.000 nm bis 1 mm Im Bereich der Infrarotstrahlung muss deutlich zwischen Emission und Reflexion unterschieden werden. Wird ein Stoff thermisch angeregt, so strahlt und absorbiert dieser im Infrarotbereich. Die von Menschen emittierte Strahlung liegt bei etwa 3.000 Nanometern und erreicht das Maximum bei 10.000 Nanometern. Diese emittierte Strahlung kann von Wärmebildkameras erfasst werden. Für fotografische Zwecke wird allerdings NIR bis etwa 1.300 Nanometern verwendet. Oft wird Infrarotstrahlung irreführend als „Wärmestrahlung“ bezeichnet. Zwar liegt

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

INFRAROT | KAMERATEST

Das elektromagnetische Spektrum (aus [DeM14])

a) Gesamte Empfindlichkeit

b) ... mit IR-SperrFilter

c) ... mit IR-PassFilter

Sensibilisierung des Bayer-Pattern-Farbfilters bei einem typischen digitalen Sensor (aus [Mch13])

bei üblichen Temperaturen das Strahlungsmaximum im IR-Bereich, es verschiebt sich jedoch mit zunehmender Temperatur hin zu kürzeren Wellenlängen. Bei Sonnenlicht verschieben sich die Wellenlängen in den sichtbaren Bereich mit Ausläufen bis ins Ultraviolett. Nahezu die Hälfte der Sonnenenergie liegt im IR-Bereich. Für die Empfindlichkeitsgrenze des Auges an der Grenze zu Infrarot ist eine Wellenlänge von 800 Nanometern ein konventioneller Wert, allerdings können von manchen Menschen unter geeigneten Versuchsbedingungen Wellenlängen bis zu 1.000 Nanometern gesehen werden.

Digitale Sensoren und Infrarotstrahlung Digitale Sensoren, die auf der CCD- oder CMOS-Technologie basieren, sind vom Ultraviolett über das sichtbare Licht bis im Bereich des NIR empfindlich. Für die Aufnahmen im sichtbaren Bereich sind UV- und IR-Strahlung nicht erwünscht, da es in der Abbildung zu Verfälschung der natürlichen Farben führen kann. Aus diesem Grund wird auf dem Sensor ein IR-Sperrfilter angebracht. Weitere Informationen über Einfluss der Infrarotstrahlung auf die digitalen Aufnahmen finden Sie in der DP-Ausgabe 04:2014 („Digitale Kameras und Infrarot“, ab Seite 60).

Infrarot-Farbaufnahmen

wird zwischen „starken“ und „normalen“ IR-Passfiltern unterschieden, wobei auch der Bereich um das dunkle Rot als unterste Grenze in Betracht gezogen werden kann. Die genauen Grenzen sind hier nicht klar festgelegt, können aber wie folgt beschrieben werden:

Grundsätzlich sind alle Objekte farblos und nur die Mischung der Wellenlängen, die von Materien reflektiert Starker IR-Passfilter (Schwarzfilter), wird, nehmen wir als zum Beispiel Schott RG830 i Wellenlängen unter circa 800 nm Farbe wahr. Daher werden nicht mehr durchgelassen. sind die Infrarotweli Für das Auge ist der Filter kaum oder len farblos und eine gar nicht mehr dursichtig. digitale Farbaufnahme im Infrarotbereich ist nur eine „FehlNormaler IR-Passfilter interpretation“ der Kamera. (zum Beispiel Schott RG695) Die Bayer-Pattern-Farbfilter sind je nach i Wellenlängen unter circa 700 nm – Pixel für Rot, Grün oder Blau sensibilisiert, 800 nm werden nicht durchgelassen. besitzen jedoch eine Restempfindlichkeit im i Für das Auge ist durch den Filter ein Infrarotbereich. Werden bei Infrarotfotograschwaches Rotschimmern erkennbar. fien Teile der sichtbaren Strahlen zugelassen, so lassen sich auch Infrarot-Farbaufnahmen Dunkelrot-Filter erzeugen. Rote Farbfilter (der Bayer-Filter) (zum Beispiel Tiffen R29) sind geringfügig durchlässiger für die kurzi Wellenlängen unter circa 630 nm bis welligeren NIR-Wellen (700 bis 800 Nano700 nm werden nicht durchgelassen. meter) als grüne und blaue. Dies führt dazu, i Für das Auge ist das Motiv im dunklen dass IR-Aufnahmen ohne Weißabgleich (WB) Rot zu erkennen. einen roten Stich haben. Allerdings ist es davon abhängig, welcher IR-Passfilter zum Einsatz kommt. Denn je weiter der IR-Passfilter Je höher die Grenze der absorbierten Welin den Nahinfrarot-Bereich vordringt, desto lenlängen bei dem Filter liegt, desto stärker monochromer wird das Bild, weil hier die kommen die Infrarot-Effekte zur Geltung. einzelnen Farbfilter des Bayer-Patterns für Infrarot-Farbaufnahmen sind mit normalen die Strahlung gleich durchlässig sind. Eine und Dunkelrot-Filtern umsetzbar. Die beArt der Aufzeichnung, die das volle Spek- schriebenen Filter hatten ihren Einsatzhötrum des Sensors ohne jegliche Filterung hepunkt bei Filmproduktionen zu Zeiten der ausnutzt, wird im Weiteren als „Fullspectrum-Aufnahme“ bezeichnet. Es ist allgemein schwierig, die Farben der Objekte bei den FarbInfrarotaufnahmen vorherzusagen, da es meist nicht bekannt ist, wie stark die Materie neben dem Sichtbaren das Einfärbungen durch den Einsatz eines Yellow-Filters; RED Epic-X, Y15 Infrarot absorbiert oder reflektiert.

IR-Transmissionsund Farbfilter Bei der Gestaltung digitaler Infrarotaufnahmen ist die Verwendung eines optischen Filters ein wesentliches künstlerisches Mittel. Für reine IR-Aufnahmen

Übersicht Transmissionskurven Schott-Filter inklusive RG-Baureihe (aus [Scht14])

113


FOKUS

FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

Verhalten der Objektive bei direkter Lichteinstrahlung im Infrarot

D

ieses spielt eine wichtige Rolle bei Filmaufnahmen. Reflexionen, welche sich aufgrund dieser Einstrahlung bilden, sind manchmal störend, aber auch öfter erwünscht und ihnen kommt eine große gestalterische Rolle zu. Wie die Objektive auf eine direkte Einstrahlung im Infrarotbereich reagieren, soll im folgenden Versuch gezeigt werden. Unter Studiobedingungen wurden Aufnahmen mit einer Kamera und jeweils unterschiedlichen Objektiven durchVersuchsaufbau geführt. Als Lichtquelle diente eine 2-Kilowatt-Kunstlicht-Stufenlinse von Arri. Die Lichtquelle befand sich in einem Abstand von circa 10 Metern und in einer Höhe von circa 4 Metern von der Kamera entfernt und wurde mit voller Leistung betrieben. Bei dem Versuch wurden Aufnahmen mit dem internen BG87C-Filter bei Blende f:5,6 und konstanten Kameraeinstellungen erstellt.

a) Master Prime

b) Ultra Prime

a) Master Prime

b) Ultra Prime

c) Zeiss Standard

d) Zeiss HS

c) Zeiss Standard

d) Zeiss HS

e) Cooke S4i

f) Cooke S3

e) Cooke S4i

f) Cooke S3

Abbildung 1: Reflexionen bei frontaler Einstrahlung, Arri Alexa mit internen BG87C-Filter (f:5,6; ASA:8OO)

Abbildung 2: Reflexionen bei seitlicher Einstrahlung, Arri Alexa mit internen BG87C-Filter (f:5,6; ASA:8OO)

B

ei einer frontalen Einstrahlung des Lichts fällt das Verhalten der Master Prime und Ultra Prime besonders auf (siehe Abbildung 1a) und b). Dabei bilden sich in der Aufnahme hell leuchtende Ringe. Bei diesen handelt es sich Auswertung um Geisterbilder, welche in Folge einer Reflexion an den Linsenfassungen entstehen. Eine Spiegelung an einem externen Filter ist ausgeschlossen, da bei dem Versuch a) Master Prime b) Ultra Prime ein interner IR-Passfilter eingesetzt wurde, der direkt vor dem Sensor platziert ist. Deswegen sind diese Reflexionen auf die Beschichtung der Linsenfassungen zurückzuführen, die ein anderes Verhalten im Infrarot aufweist. In der Abbildung 3 wurden beide Objektive weiter abgeblendet, was den Effekt noch verstärkte. Bei dem Objektiv Cooke S3 lässt sich eine Reflexion an der c) Zeiss Standard d) Zeiss HS Blende feststellen. Diese ist in der Abbildung 1.f) bereits als achtkantiger Stern um die Lichtquelle zu erkennen. Beim Abblenden des Objektivs wird dieser Stern immer größer, wobei sich einzelne Seiten der Blende erkennen lassen. Bei dem Objektiv Zeiss Standard bildet sich bei einer geschlossenen Blende ein Kreis aus Strichen um die Lichtquelle. Das Objektiv Zeiss HS zeigt die gleiche Erscheinung, wobei der e) Cooke S4i f) Cooke S3 Kreis um die Lichtquelle einen dreidimensionalen Charakter aufAbbildung 3: Weitere Effekte weist. Der gleiche Effekt tritt am stärksten bei der Cooke S4i auf. Hier werden Reflexionen in Form einer „Diskokugel“ erzeugt. Bei den seitlichen Aufnahmen scheinen alle Objektive eine große Streuung auf das Bild zu erzeugen (siehe Abbildung 2). Je nach Bauform der Blende wird, wie auch bei Aufnahmen im sichtbaren Bereich, ein Bokeh mit runden (siehe Master-Prime-Abbildung 2.a) sechskantigen (siehe Zeiss-Standard-Abbildung 2.c) und anderen Flares erzeugt. Zusammenfassend lässt sich festhalten, dass alle Objektive unterwartete Reflexionen bei Aufnahmen im Infrarot produzieren.

114

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

INFRAROT | KAMERATEST

analogen Schwarz-Weiß-Aufnahmen. Nach einer ausführlichen Recherche unter den Filmequipment-Verleihern in Deutschland stellte ich fest, dass es aktuell nur einen Verleiher gibt, der IR-Passfilter (RG830 und RG695) in der üblichen Panavision-Größe (4 x 5, 65 Zoll) anbietet. Bei den verfügbaren Filtern handelt es sich um RG-Langpassfilter der Schott AG, welche in den unterschiedlichen Abstufungen vom Hersteller angeboten werden. Mit dem Einsatz von Farbfiltern, welche aus der Schwarz-Weiß-Kinematografie bekannt sind, werden zusätzlich zum Infrarot auch sichtbare Wellenlängen zum Sensor zugelassen. Dies kann zusammen mit einer Infrarot-Farbkamera zu wirkungsvollen Ergebnissen führen. Die Auswirkungen einiger IR-Pass- und Farbfilter werden später beispielhaft gezeigt.

steuerung, sondern zur Kontrolle der Bewegungsunschärfe im Bild. Außerdem wird durch die Feinjustierung der Belichtungszeit eine fehlerfreie Aufzeichnung mit künstlichen Lichtquellen ermöglicht. Da allerdings die gängigen ND-Filter nicht im IR-Bereich greifen, muss teilweise bei hellen Außenmotiven die Belichtungszeit reduziert werden, um die Überbelichtung des Motivs zu vermeiden.

Blende Bei der Wahl der Blende muss berücksichtigt werden, dass die Beugung bei Infrarotstrahlen stärker als beim sichtbaren Licht auftritt. Das bedeutet, dass die Abbildungsunschärfe durch Beugung beim Abblenden des Objektivs früher als beim sichtbaren Licht in Erscheinung tritt.

Möglichkeiten und Grenzen der Belichtungssteuerung

Elektronische Verstärkung (ISO/ASA/EI)

Um die Belichtung einer klassischen Aufnahme mit der Kamera zu kontrollieren, stehen dem Kameramann folgende Parameter zur Verfügung: ND-Filter; Blende; ISO/ASA (EI); Belichtungszeit (Shutter Angle). Bei Aufnahmen im Infrarotbereich müssen allerdings einige Einschränkungen bei der Verwendung berücksichtigt werden.

Auch die Wahl der kleineren ISO-Zahlen rückt bei Infrarotaufnahmen ohne den Einsatz eines geeigneten ND-Filters mehr in den Vordergrund. Hier ist der Spielraum indes auf einer Seite bei Verstärkung durch das Rauschen und auf der anderen durch die Belichtungskapazität des Sensors relativ eng begrenzt.

ND-Filter

Objektive

Die klassischen ND- sowie ND-IR-Sperrfilter in Panavision-Größe (4 x 5, 65 Zoll), beispielsweise von Tiffen oder Schneider, haben bei Aufnahmen im IR-Bereich keine Auswirkung. Es werden allerdings optische Filter hergestellt, welche eine Verringerung der Transmission im IR-Spektrum bewirken. Diese finden aktuell ihren Einsatz eher in der Industrie. Aktuell führt kein großer Filmgeräteverleiher in Deutschlang ND-Filter für den IR-Bereich in seinem Angebot.

Aktuelle PL-Mount-Objektive, welche für den Cine-Bereich bestimmt sind, werden in der Regel für die Aufnahmen im sichtbaren Licht korrigiert, jedoch nicht für das IR-Spektrum. Infolge von Dispersion werden die verschiedenen Wellenlängen unterschiedlich stark gebrochen. Das scharfe Bild der Infrarotstrahlen liegt ein Stück weiter hinter dem Objektiv als das von sichtbaren Strahlen hervorgerufene Bild. Dies liegt daran, dass die IR-Strahlen weniger gebrochen werden, für diese daher die Brennweite des Objektivs geringfügig länger ist – Fokusdifferenz. Somit müssen bei der Aufnahme im Infrarotbereich die folgenden Aspekte bedacht werden.

Belichtungszeit Allgemein dient die Belichtungszeit bei Filmaufnahmen weniger zur Belichtungs-

IR-Aufnahme

Normale Aufnahme

Abbildung 4: Fotografien und Dunstdurchdringung (aus [Nür57])

Fokussierung Generell kann davon ausgegangen werden, dass im Super-35-Format bei Objektiven bis zu einer Brennweite von 80 Millimetern die Fokusdifferenz bei mittlerer Abblendung unbedeutend ist. Ferner muss auch berücksichtigt werden, dass, wenn eine Aufnahme im Spektrum von zum Beispiel 700 Nanometern bis 1.100 Nanometern stattfindet, die unterschiedlichen Wellenlängen nicht in einem Brennpunkt abgebildet werden. Je breiter das Spektrum der reflektierten Wellenlängen eines Objekts ausfällt, desto weicher erscheint somit seine Abbildung bei der Aufnahme.

Abbildungsfehler Hot Spot ist ein am häufigsten auftretendes Artefakt bei Infrarotaufnahmen. Dieser wirkt sich als ein heller Fleck in der Mitte der Abbildung aus. Linsenoberflächen und die mechanischen Bauteile des Objektivs (Linsenfassungen, Blenden, Gehäuse) streuen das Licht. Dieses Streulicht kann zum Teil auf die Bildebene gelangen und wirkt sich als ein diffuser strukturloser Hintergrund aus. Zum Teil können auch scharfe Reflexionen auftreten, die als Hot Spot bezeichnet werden. Ebenso reflektiert der Sensor einen Teil des Lichts. Durch Mehrfachreflexionen kann dieses Licht wieder auf die Bildebene gelangen. Es entsteht zum eigentlichen Bild ein überlagertes, meist unscharfes Geisterbild. Um dem Streulicht entgegenzuwirken, werden die modernen Linsenoberflächen meist vergütet, aber auch die mechanischen Teile erhalten eine Beschichtung. Vergütungen werden für einige Wellenlängen optimiert und sollen somit für einen möglichst großen Teil des sichtbaren Lichts die Transmission verbessern, indem diese die Reflexion minimiert. Diese Maßnahmen für die Optimierung der abbildenden Optik gelten nicht für die Infrarotwellenlängen. Daher ist ein Auftreten von Lichtstreuungen und ungewöhnlicher Mehrfachreflexionen bei Aufnahmen im Infrarotbereich wahrscheinlicher.

Durchsichtige Sonnenbrille im Infrarot; RED Epic-X, RG695. Die Eigenschaft der Brillengläser, das UV- und sichtbares Licht größtenteils zu reflektieren, wirkt sich nicht auf die Infrarotstrahlung aus. In der Kinematografie kann dieser Effekt bei der Verwendung klassischer Neutral-Density-Filter (ND) zu unerwünschten Resultaten führen.

115


FOKUS

FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

Infraroteffekte vorgestellt

E

iner der wohl bekanntesten und auffallendsten Effekte bei Aufnahmen im Bereich des Nahinfrarots ist der Wood-Effekt. Der Name hängt mit seinem Entdecker Robert W. Wood zusammen, der als Erster das Phänomen beobachtete, dass beim Einsatz eines tiefdunklen Wood-Effekt Rotfilters von 720 Nanometern das Laub der Bäume und das Gras komplett weiß wiedergegeben werden (siehe Abbildung 5). Von der künstlerischen Seite gesehen, bringt der Effekt interessante Gestaltungsmittel hervor. Das Laub hebt sich vom dunklen Stamm und den Ästen enorm ab. Auch spielt die dunkle Wiedergabe des Himmels in diesem Zusammenhang eine wichtige Rolle, die diesen Kontrast weiter verstärkt. Solch eine Dynamik ließe sich mit Mitteln der Aufzeichnung im sichtbaren Bereich nicht erreichen, da die grünen Blätter mit dem dunklen Stamm bildlich zusammenfließen. Zudem spielen folgende Faktoren eine Rolle: i Typ des Laubes: Laubbäume reflektieren stärker Infrarot als Nadelhölzer. i Zustand des Laubes: Frühlingsgrün absorbiert und reflektiert anders als Herbstgrün, vertrocknete oder kranke Blätter anders als frische und gesunde. i Vegetationszone: Bäume in mediterranen Ländern reflektieren nicht so stark IR wie in den gemäßigten Zonen. Gebirgspflanzen reflektieren das Infrarot doppelt so stark als Pflanzen aus den Ebenen. i Aufzeichnungsspektrum: Die besten Ergebnisse werden mit Ausschluss des sichtbaren Lichts erzielt. Werden die Wellenlängen unter 700 Nanometern durch einen Filter gesperrt, ist der Effekt bereits deutlich zu erkennen.

B

eim Mondschein-Effekt handelt es sich um eine optische Täuschung bei der Betrachtung der Infrarotaufnahmen. Hierzu wird die Eigenschaft der Abbildung vom Himmel ausgenutzt. An einem Nacht-/Mondschein-Effekt sonnigen Tag erscheint der blaue Himmel bei Aufzeichnung im Infrarot schwarz, was durch ein geringes Reflexionsvermögen des Himmels für Infrarotstrahlung hervorgerufen wird. Je blauer der Himmel bei der Aufzeichnung, desto intensiver tritt der Effekt hervor. Um den Mondschein-Effekt zu verstärken, sollten weitere bildgestalterische Aspekte beachtet werden: i Der Himmel sollte möglichst keine Wolken enthalten. i Der Hauptmotiv muss hell sein, um so zu wirken, als würde dieses Mondlicht spiegeln. i Das Motiv sollte möglichst groß gefasst sein, um die Details auszulassen, die den Effekt stören könnten. Schließlich sollte die herrschende Stimmung analysiert werden. Zwar hilft der Infrarot-Effekt, jedoch ist dies kein Erfolgsgarant für ein perfektes Nachtbild. Sollte der Mondschein-Effekt beispielsweise in der Stadt angewandt werden, würden hier die Lampen, die nicht leuchten, die Illusion zerstören. Daher eignet sich dieser Effekt am besten bei Landschaftsaufnahmen.

IR-Aufnahme

Abbildung 5: Wood-Effekt; RED Epic-X, RG83O

Durchdringung der Medien Ob ein Medium die auftreffende Strahlung absorbiert oder reflektiert, hängt von den Eigenschaften des Körpers und der Wellenlänge der auftreffenden Strahlung ab. Daher reagieren die Materien auf die Infrarotstrahlung anders als auf das sichtbare Licht. Einer der bekanntesten Infraroteffekte, welcher seinen größten Einsatz beim Militär und in der Wissenschaft erfährt, ist die „Dunstdurchdringung“. Die Atmosphäre ist kein klares Medium, sondern ist mit Wassertröpfchen und Staubpartikeln durchsetzt. So kommt es, dass bereits die kleinsten Partikel in der Luft auch an klaren Tagen einen Dunstschleier erzeugen. Dieser Dunstschleier wird allerdings von der Infrarotstrahlung ohne Weiteres durchdrungen (Abb. 4). Dabei ist zu beachten: Je dichter der Dunst, desto weniger gelingt eine Durchdringung der Infrarotstrahlung. Somit sind mit der Infrarotstrahlung keine Aufnahmen durch Nebel oder Wolken möglich. Gestalterisch

116

Normale Aufnahme

Abbildung 6: Mondschein-Effekt, analoge Fotografie (aus [Nür57])

gesehen, wirken die Aufnahmen allerdings „flacher“, weil der Hintergrund weiter nach vorne rückt und nicht mehr im Dunst verschwindet. Auch bei verschiedenen Textilstoffen treten im Infrarot charakteristische Unterscheidungsmerkmale des Reflexionsvermögens auf. Stoffe mit gleicher Farbe, die im sichtbaren Licht gleich aussehen, können im Infrarot wesentliche Unterschiede aufweisen. Besonders bei Schwarz wird je nach verwendetem Textilstoff die Kleidung teilweise komplett weiß wiedergegeben.

Porträtaufnahmen Menschliche Haut zeigt im Infrarotbereich ein besonders starkes Reflexionsverhalten. Die Infrarotstrahlung dringt tiefer in die Hautstruktur als andere Wellenlängen ein. Das Maximum wird im Nahinfrarot erreicht. Dies hat zur Folge, dass nicht nur Hautporen und Sommersprossen in der Aufnahme verschwinden, sondern auch Hautunrein-

heiten und Rötungen nicht mehr dargestellt werden. Die Haut erscheint homogen und vollkommen glatt und wirkt teilweise wie Porzellan. Die Lippen wirken auf den Aufnahmen meist blass und „blutlos“, dem mit dunklen Schminkfarben entgegengewirkt werden muss. Auch die Wirkung der Augen im Infrarot nimmt einen „surrealen“ Charakter an, was teilweise durch eine besonders schwarze Darstellung der Pupillen, hervorgerufen wird.

Porträt im Infrarot; Arri Alexa, BG87C. Bei der Aufnahme wurde grüne Schminkfarbe verwendet, um die Lippen lebendiger und dunkler erscheinen zu lassen.

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

INFRAROT | KAMERATEST

RED Epic-X-X Mysterium-X (aus [Red14])

Arri Alexa B+W Auf dem Markt der professionellen CineKameras gibt es aktuell Arri und RED, die infrarotfähige Kameras offiziell anbieten. Die Baureihe Arri Alexa XT Plus B+W bietet alle Funktionen der Alexa XT Plus kombiniert mit dem modifizierten Alev-III-CMOSSensor ohne Bayer-Pattern. Auf dem Sensor ist kein Tiefpassfilter und kein Infrarot-Sperrfilter verbaut, deswegen ist die Kamera im sichtbaren und Infrarotbereich empfindlich und in der Lage, nur Schwarz-Weiß-Bilder aufzunehmen. Durch die fehlende Filterung und das Bayer-Pattern vor dem Sensor steigt nicht nur die Grundempfindlichkeit (Exposure-Index 2.000) der Kamera, sondern auch die Auflösung, da auf den De-Bayering-Prozess verzichtet wird. Die XT-Baureihe verfügt über ein internes Raw-Aufzeichnungsmodul. Mithilfe des internen Filtermodules (IFM) ist es möglich, wechselbare Filter direkt vor dem Sensor anzubringen. Folgende Filter stehen für die Kamera bereit: i BG39-Filter (Schott BG39, Dicke 1.0 mm): IR-Block, S/W-Aufnahmen nur im sichtbaren Bereich. i BG87C-Filter (Schott RG830, Dicke 1.0 mm): IR-Pass; S/W-Aufnahmen nur im Infrarotbereich. Der vom Rental verwendete Namen BG87C ist irreführend, soll aber wohl einen Hinweis darauf geben, dass ein ähnliches Resultat erzielt wird wie beim Tiffen-87C-Filter. Im Falle, dass mit der Alexa B+W Infrarotaufnahmen entstehen sollen, welche auch Teile des sichtbaren Lichts beinhalten, muss auf einen externen Transmissionsfilter zurückgegriffen werden. Gleichzeitig muss intern auf den BG87C verzichtet werden. Dies kann dazu führen, dass bei der Verwendung eines für sichtbares Licht kalibrierten Objektivs der Brennpunkt deutlich hinter der Bildebene liegt. Damit lässt sich der Fokuspunkt im Unendlich nicht erreichen.

RED (IR) Aktuelle RED-Kamera-Modelle wie Epic-X Dragon und Scarlet Dragon lassen sich durch den Einsatz eines DSMC IR-Pass OLPF (Optical-Low-Pass-Filter) zu einer infrarotempfindlichen Kamera modifizieren. Einerseits sorgt der Filter für Unterdrückung der hohen Frequenzen im Bild, welche den Moiré-Effekt auslösen könnten. Andererseits wird bei der Verwendung der auf sichtbares Licht kalibrierten Objektive der optische Gang der eintreffenden Wellenlängen in der Kamera aufrechterhalten und der sichtbare Teil der Strahlung auf der Sensorebene scharf abgebildet. Voraussetzung dafür ist, dass der Body mit dem DSMCInterchangeable-OLPF-System kompatibel ist. Alle Modelle, die nach dem 3. Oktober 2014

Arri Alexa B+W XT Plus (aus [Arr14])

produziert wurden, sind bereits mit diesem System ausgestattet. Auch die RED Epic-X Monochrome lässt sich mit dem eigenen DSMC IR-Pass OLPF (Monochrome) für Infrarotaufzeichnung erweitern. Für die Versuchsreihen, die im weiteren Verlauf beschrieben werden, stand eine RED Epic-X Mysterium-X mit dem IR-Pass OLPF zur Verfügung. Im Vergleich zu Arri Alexa B+W besitzt die Epic-X-X ein BayerPattern und ist somit für Infrarot-Farbaufnahmen geeignet. Eine Möglichkeit der internen InfrarotPass-Filterung wie bei der Arri Alexa XT bietet die RED Epic-X-X IR nicht. Für die Aufnahmen im NIR ohne sichtbare Anteile des Lichts müssen externe Filter vor dem Objektiv eingesetzt werden. Mit der Verwendung eines externen Hot-Mirror-(IR-Sperr-) Filters sind Aufnahmen ausschließlich im sichtbaren Bereich möglich.

Postproduktion Da es sich bei Arri Alexa B+W um monochrome Aufnahmen handelt, ist der übliche De-Bayering-Prozess überflüssig. Dies ist auch der Grund, warum die Kamera nur im Raw-Format aufzeichnet. Zum anderen hat dies den Vorteil, dass die Auflösung nativ vom Sensor auf das Videomaterial übertragen werden kann. Die Möglichkeit, ArriRaw-Material ohne De-Bayering weiterzuverarbeiten, besteht aktuell nur über den Arri Raw Converter. Das Material wird von der Software als monochrom erkannt und zum Export in Formaten wie .dpx, .tiff oder Open EXR bereitgestellt. Alle Screenshots der Arri Alexa wurden direkt in der Software im .jpg-Format generiert. Das Material der RED Epic-X IR muss immer einem DeBayering-Prozess unterzogen werden. Auch wenn es bei der Verwendung eines starken IR-Passfilters, der zu einem monochromen Bild führt, nicht notwendig wäre. Nur mit einer RED Epic-X Monochrome lässt sich dieser Prozess umgehen. Bei der Auswahl der Aufnahmeformate gibt es keinen Unterschied im Vergleich zu den normalen RED-Kameras.

Versuchsreihen Das Ziel der Testreihen, die im weiteren Verlauf beschrieben werden, ist, die charakteris-

tischen Infrarot-Effekte zu analysieren und auszuwerten. Hierfür wurden unter Berücksichtigung der technischen Anforderungen moderner Produktionen drei praxisnahe Versuchsreihen durchgeführt. Die verwendeten Systeme verfolgen zwei unterschiedliche Ansätze der Bildverarbeitung, die Arri Alexa (Schwarz-Weiß) und die RED Epic-X (Farbe). Daher wird kein Vergleich der Systeme sondern eine Analyse der unterschiedlichen Infrarottechniken angestrebt. Folgende Kameramodelle und Softwareversionen kamen zum Einsatz: i Arri Alexa XT Plus B+W (Sensortyp: Alev III Alexa, Software-Version: SUP AlexaX_9.0) i RED Epic-X-X IR (Sensortyp: MysteriumX S35, Software-Version: 5.1.49) Bei der Auswahl der Objektive wurde ein Querschnitt der aktuell gängigsten PLMount-Objektive bei professionellen Filmproduktionen getroffen. Dabei wurde eine Bandbreite angestrebt: Von älteren Modellen, die aktuell eine Renaissance erleben, bis zu modernen hochentwickelten Objektiven, die es zurzeit auf dem Markt gibt. Diese Objektive wurden eingesetzt: i Arri / Zeiss Master Prime

21 mm T*XP T 1,3 i Arri/Zeiss Ultra Prime

16, 24 und 40 mm Distagon T*T 1,9 i Zeiss Standard Distagon 24 mm T 2,1 i Zeiss High Speed (HS) Distagon

25 mm T 1,3 i Cooke LDS S4i 25 mm T 2 i Cooke S3 25 mm T 2,3

IR-Pass-Filter: i Schott RG830 (4 x 5, 65 Zoll) i Schott RG695 (4 x 5, 65 Zoll) i BG87C (interner Arri-Alexa-Filter)

i i i i i i i

Farbfilter: Kürzel R29 R23A CCM30 Y15 Y12 G3 G13

Farbe Rot Rot Magenta Gelb Gelb Grün Grün

Hersteller Tiffen Tiffen Schneider Tiffen Tiffen Tiffen Tiffen

117


FOKUS

FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

Infraroteffekte vorgestellt

D

a sich bei Infrarotaufnahmen besonders eindrucksvolle Effekte im Freien erzielen lassen, soll mit der folgenden Versuchsreihe die Auswirkung der IR-Pass- und Farbfilter bei Landschaftsaufnahmen aufgezeigt und analysiert werden. Folgende Versuchsreihe wurde unter realen Bedingungen durchgeführt. Für den Versuch wurde Gestaltung durch Farbfilter die RED Epic-X mit unterschiedlichen Filtertypen eingesetzt. Die Aufnahmen entstanden in der bei Fullspectrum-Aufnahmen ersten Juliwoche bei einer hochstehenden Sonne zur Mittagszeit. Die Blende wurde anhand des Kamerahistogramms bei jedem Filter einzeln ermittelt, sodass das ganze Motiv richtig belichtet werden konnte. Der Weißabgleich wurde in der Postproduktion durchgeführt, wobei als Referenz das Weiß der Filmklappe verwendet wurde. Die Ergebnisse in der Abbildung 7 zeigen den Effekt, dass der Himmel und das Wasser in der Farbe des Filters wiedergegeben werden. Dabei ist die Sättigung der Farbe umso kräftiger, je stärker die Eigenfarbe des Filters ist. Der Wood-Effekt ist bei allen verwendeten Filtern deutlich zu erkennen, allerdings ist je nach Art des Filters das Gras und das Laub der Bäume eingefärbt. Die Fullspectrum-Aufnahme weist dagegen den geringsten Wood-Effekt auf, da sich hier die meisten Anteile der sichtbaren Strahlen mit dem Infrarot vermischen. Abschließend lässt sich festhalten, dass sich bei sonnigen Wetterverhältnissen eine große Vielfalt an Farbkreationen des Himmels erstellen lässt. Der Einflussfaktor für die Farbgebung ist die Stärke des verwendeten Farbfilters.

a) RG83O, f:8

b) RG695, f:16

c) R29, f:16

e) R23A, f:16

Abbildung 8: Aufbau Versuchsreihe für Landschaftsaufnahmen mit IR-Passund Farbfilter; Kamera: RED Epic-X-X IR; Filter: RG83O; Objektiv: Ultra Prime 16 mm

f) Y15, f:16

h) CC3OM, f:16

j) G3, f:16

g) Y12, f:16

Abbildung 9:

a) RG695 mit Farbumkehrung

i) G13, f:16

Der Kontrast wurde bei beiden Aufnahmen nachträglich verstärkt, um den Effekt zu verdeutlichen.

m) Fullspectrum Aufnahme f:22

Abbildung 7: Landschaftsaufnahme mit unterschiedlichen IR-Pass- und Farbfiltern RED Epic-X (Ultra Prime 16 mm; ASA:25O)

Postproduktion und Abbildungseigenschaften der Objektive im Infrarot Die REDCode-Raw-(R3D)-Aufnahmen wurden mit dem Programm REDCine-X Pro verarbeitet. Alle Screenshots der RED Epic-X, die in diesem Bericht abgebildet sind, wurden direkt in der Software im .jpg-Format generiert. Die meisten PL-Objektive wurden für die Aufnahmen im sichtbaren Bereich ent-

118

RED Epic-X-X RG695- und R39Farbumkehrung/ Vergleich der Farb umkehrung im Rot- und Blaukanal anhand Aufnahmen mit unterschiedlichen Filtern.

b) R29 mit Farbumkehrung

wickelt. Bei modernen Baureihen werden die Gläser vergütet und die internen mechanischen Teile beschichtet, um die Reflexionen im sichtbaren Bereich zu minimieren. Das Reflexionsverhalten der Objektive im Infrarot kann allerdings unerwartete Bildfehler auslösen. Um die Objektive bei unterschiedlichen Infrarotverhältnissen zu testen, wurden zwei Versuchsreihen durchgeführt. Versuchsreihe A fand im Studio bei kontrollierten Bedingungen mit einer Kunstlichtquelle statt,

dabei wurde der RG830-Filter verwendet. Versuchsreihe B wurde außen mit der Sonne als natürlicher Lichtquelle mit einem RG695Filter durchgeführt.

Versuchsaufbau A Als Lichtquelle wurde in der Versuchsreihe A eine Barger Lite 3 x 800 W mit einer Chimera (1/2 Quartz) sowie einem Gitter verwendet. Die gemessene Blende f:5,6 (ISO 800, 24 p) ist die Referenz für Aufnahmen im

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

INFRAROT | KAMERATEST

Versuchsaufbau B, Objektivtest außen; Kamera: RED Epic-X-X IR

Versuchsaufbau A, Objektivtest Studio; Kamera: Arri Alexa XT Plus B+W

a) Master Prime

b) Ultra Prime

a) Master Prime

b) Ultra Prime

c) Zeiss Standard

d) Zeiss HS

c) Zeiss Standard

d) Zeiss HS

e) Cooke S4i

f) Cooke S3

e) Cooke S4i

f) Cooke S3

Abbildung 1O: Versuchsergebnisse A, Arri Alexa mit RG83O-Filter und unterschiedlichen Objektiven (f:4; ASA:8OO)

sichtbaren Bereich. Für die Belichtung im IR wurde das False Color der Kamera genutzt und mit dem Cooke-S4i-Objektiv die Blende so eingestellt, dass das mittlere Grau richtig belichtet ist. Als Ergebnis wurde hier die Blende 4 ermittelt.

Versuchsaufbau B Die Aufnahmen entstanden in der ersten Juliwoche bei einer hochstehenden Sonne zur Mittagszeit. Die Blende wurde anhand des Kamerahistogramms ermittelt, sodass das ganze Motiv richtig belichtet werden konnte. Für den Filter RG695 wurde die Blende 16 festgelegt.

Auswertung Generell kann aus der Versuchsreihe A festgehalten werden, dass der Unterschied bei der Belichtung zwischen dem sichtbaren Licht (gemessen f:5,6) und dem Infrarot mit einer Cooke S4i (f:4) unter Kunstlicht etwa eine Blende beträgt. Dies deutet auf eine hohe Empfindlichkeit des Sensors im Infrarot. Jedoch hat auch die Lichtquelle hier einen großen Einfluss, da das Kunstlicht das Emissionsmaximum im Infrarot hat. Das Verhalten des Objektivs spielt hier ebenfalls eine signifikante Rolle.

Abbildung 11: Versuchsergebnisse B, RED Epic-X mit RG695-Filter und unterschiedlichen Objektiven (f:16; ASA:25O)

Aus der Versuchsreihe A ist ein deutlicher Schlussfolgernd aus dem Diagramm 1 und Unterschied im Kontrastverhalten zwischen den Werten aus Tabelle 1 besitzt die Master den einzelnen Objektiven feststellbar. Zuerst Prime die geringste Dynamik zwischen den muss festgehalten werden, dass es generell getesteten Objektiven bei der Wiedergabe einen Unterschied zwischen neuen und äl- zwischen dem Weiß und dem Schwarz der teren Modellen gibt. Betrachtet man die Auf- Testtafel im Infrarot. Dahingegen kann das nahmen von aktuellen Modellen wie Master Objektiv Cooke S3 den größten Kontrast im Prime oder Cooke S4i so ist ein Helligkeits- Infrarot wiedergeben (siehe Tabelle 1). verlust gegenüber den älteren Modellen Versuchsreihe A wie Zeiss HS oder Cooke S3 zu verzeichnen 1. Cooke S3 671 Bit (Abb. 10). Der Grund hierfür könnte die Vergütung der Objektive sein, welche bei den 2. Zeiss Standard 65O Bit modernen Baureihen die Infrarotstrahlung 3. Ultra Prime 61O Bit stärker reflektiert, sodass weniger davon an 4. Cooke S4i 56O Bit den Sensor gelangen kann. Im Diagramm 1 5. Zeiss High Speed 545 Bit ist das Kontrastverhalten einzelner Objektive 6. Master Prime 51O Bit bei dem Versuch A dargestellt. Dazu wurden Tabelle 1: Dynamikumfang zwischen die Werte der sechs Graustufen der Testtadem Weiß und Schwarz der Testtafel fel mit der Software Davinci Resolve abgein Bit der jeweiligen Objektive – Werte lesen. Je flacher der Kurvenverlauf ist, desto der Graustufen des Colorcheckers kontrastarmer ist das jeweilige Objektiv. Diese Angaben sind allerdings nur eine Referenz, um zwischen den getesteten Objektiven einen Vergleich zu ziehen. Um eine exakte Aussage über das Kontrastverhalten einzelner Objektive treffen zu können, wäre eine Messung mit einem Motiv nötig, das den vollen Dynamik- Diagramm 1: Versuchsreihe A, Kontrastverhalten einzelner Objektive, Werte der Graustufen des Colorcheckers umfang der Kamera ausnutzt.

119


FOKUS

FILM & VFX

3D & ANIMATION

INTERACTIVE

DIGITAL ART

SCIENCE & EDUCATION

SERVICE

Infraroteffekte vorgestellt

F

olgende Versuchsreihe hat als Ziel, den Einfluss unterschiedlicher IR-Pass- und Farbfilter auf die Hauttonreproduktion bei Aufnahmen im Infrarotspektrum zu untersuchen. Dabei wurden Aufnahmen mit der RED Epic-X sowie unterschiedlichen Filterkombinationen durchgeführt. Die Versuche haben etwa zwei bis drei Stunden in Anspruch genommen, somit gilt es, die Hauttonwiedergabe Veränderung der Lichtverhältnisse in der Auswertung zu berücksichtigen. Während der ganzen Versuchsreihe im Infrarotspektrum wurde die Position der Kamera nicht verändert. Die Grautafel, welche bei den Aufzeichnungen verwendet wurde (siehe Abbildung 13 unten), soll aufgrund ihrer schlechten Qualität und einer unvollständigen Ausleuchtung nicht gewertet werden. Für eine Beurteilung der Hauttöne wird der Proband in einem Close-up aufgenommen. Wird das sichtbare Licht mit einem RG830-Filter ausgesperrt, wie in der Aufnahme der Abbildung 12.e), fällt eine äußerst weiche Hautdarstellung auf. Dies kommt dadurch zustande, dass zum einen die Infrarotstrahlung von tieferen Hautschichten mehr reflektiert wird als das sichtbare Licht und zum anderen ist das Objektiv nicht für Infrarot korrigiert – somit werden die von Haut reflektierten Wellenlängen nicht in einer Ebene auf dem Sensor abgebildet. Betrachtet man die Farbfilteraufnahmen mit der RED Epic-X in Abbildung 12.g) bis n), so lässt sich feststellen, dass durch die Verwendung der Filter die Hauttöne deutlich verfremdet werden. Einerseits findet hier eine Verfälschung der Farbtonwiedergabe durch die Infrarotstrahlung statt, andererseits werden je nach Spezifikation des Filters Farben aus dem sichtbaren Bereich des Lichts absorbiert. Des Weiteren gibt es merkliche Unterschiede beim Umgang mit dem Weißabgleich für Aufnahmen, die mit einem Farbfilter erstellt wurden. In der Abbildung 14 sind vier Beispiele einer Aufnahme (Abbildung 12.g) dargestellt, die mit einem R29-Filter aufgezeichnet, allerdings mit unterschiedlichen Weißabgleicheinstellungen exportiert wurden. Die Abbildung 14.a) zeigt das Bild mit automatischem Weißabgleich, welcher am Set mit einer Graukarte durchgeführt wurde. Die Abbildung 14.b) zeigt die Einstellung WB:5600, entstanden im Postproduktionsprozess. In der Abbildung 14.c) wurde der Weißabgleich ebenfalls im Postproduktionsprozess durchgeführt, wobei das Weiß des Colorcheckers als Referenz genommen wurde. Anschließend zeigt die Abbildung 14.d) einen Weißabgleich, bei dem das Mittelgrau des Colorcheckers als Referenz für den Weißabgleich verwendet wurde. Zusammenfassend lässt sich festhalten, dass die Intensität der Hauteinfärbung von der Stärke des verwendeten Farbfilters abhängt. Eine nachträgliche Verbesserung der Hauttöne in der Postproduktion wäre aufgrund der fehlenden Farbinformationen nur bedingt möglich. Eine übernatürlich weiche Darstellung der Haut ist mit Ausschluss der sichtbaren Wellenlängen möglich und hängt von dem eingesetzten IR-Passfilter ab.

e) RG83O; f:8; ASA:4OO

f) RG695; f:16; ASA:25O

g) R29; f:16; ASA:25O

h) Y15; f:16; ASA:25O

Abbildung 13: Versuchsaufbau Hauttonwiedergabe außen; Kamera: RED Epic-X-X IR; Objektiv: Ultra Prime 4O mm; Belichtung: 24 p/9O Grad i) G13; f:22; ASA:25O

j) G3; f:22; ASA:25O

k) CC3OM; f:22; ASA:25O

l) G3 + Y12; F:16; ASA:25O

a) R29 mit WB am Set

b) R29 mit WB 56OO

m) Y12 + R29; f:16; ASA:25O

n) Y12 + RG695; f:16; ASA:25O

c) R29 mit WB am Weiß der Testtafel

d) R29 mit WB am Mittelgrau der Testtafel

Abbildungen 12: Hauttonwiedergabe bei unterschiedlichen Filtern mit RED Epic-X und bei Sonneneinstrahlung

120

Abbildungen 14: Unterschiedliche Farbergebnisse bei verschiedenen Referenzen für den Weißabgleich

WWW.DIGITALPRODUCTION.COM


AUSGABE O1:2O16

INFRAROT | KAMERATEST

Besonders interessant ist die Hauthelligkeitswiedergabe bei den Versuchsreihen A und B. Während das Objektiv Cooke S3 in der Versuchsreihe A das Gesicht des Probanden fast überbelichtet darstellt, sind diese Auswirkungen in der Versuchsreihe B nicht vorhanden (Abb. 10 und 11). Dieses Ergebnis könnte ein Zusammenspiel folgender Faktoren sein: Die Sonne hat das Strahlungsmaximum bei 500 Nanometern, das Emissionsmaximum einer Kunstlichtquelle liegt im Infrarot, das Reflexionsmaximum der menschlichen Haut liegt an der Grenze zu Infrarot. Aus diesen Anhaltspunkten ergibt sich, dass hier eine verstärkte Emission der Kunstlichtlampe in einem bestimmten Wellenlängenbereich des Infrarots eine besonders starke Reflexion der Haut verursacht haben kann. Durch die Vergütung der Objektive werden bestimmte Wellenlängen der Infrarotstrahlung bei den modernen Objektiven herausgehalten, jedoch nicht bei den älteren Modellen, was schließlich für höhere Helligkeitswerte sorgte. Der HotSpot-Effekt wurde in der Versuchsreihe A nicht festgestellt. Bei der Versuchsreihe B tritt der Hot Spot bei einigen Objektiven in Erscheinung, obwohl die Intensität von dem verwendeten Filter abhängt. Bei den Aufnahmen mit dem RG695-Filter und durchgeführtem Weißabgleich tritt der Hot Spot in einer bläulichen Farbe auf, was diesen schneller bemerkbar macht im Vergleich zu reinen Schwarz-WeißAufnahmen. Folgende Tabelle 2 gibt einen Überblick, bei welchen Objektiven eine Steigerung der Helligkeit in Form eines Kreises in der Mitte des Bildes auftritt (Hot Spot):

1. 2. 3. 4. 5. 6.

RG695 Master Prime Ultra Prime Zeiss Standard 2.1 Zeiss High Speed Cooke S4i Cooke S3

deutlicher HS leichter HS leichter HS deutlicher HS deutlicher HS nein

Tabelle 2: Hot Spot bei unterschiedlichen Objektiven mit Einsatz eines normalen IR-Pass-Filters

Fazit Die getesteten PL-Prime-Objektive zeigen alle unkontrolliertes Verhalten oder Artefakte im IR-Bereich. Meist handelte es sich dabei um Reflexionen der Linsenfassungen, der Blende oder anderer Mehrfachreflexionen, deren Herkunft nicht eindeutig verortet werden konnte. Diese Reflexionen gehen auf die Beschichtungen im Objektiv und den Linsen zurück, welche nicht für das Infrarotspektrum ausgelegt sind. Bei der Kontrastwiedergabe zeigen die Versuche, dass die Objektive mit modernen Vergütungen ein „flacheres“ Bild im Vergleich zu den älteren Modellen zeigen. Auch ließ sich eine höhere Anfällig-

keit für den Hot-Spot-Effekt bei neuen Modellen, wie beispielsweise Master Prime und Cooke S4i, feststellen. Ein weiteres Resultat war, dass sich der Hot Spot stärker in einer Farb-Infrarotaufnahme bemerkbar macht als in einem monochromen Bild. Für die Fokussierung bleibt durch die fehlende Korrektur der Objektive nur die Möglichkeit, sich auf den Monitor zu verlassen. Aufgepasst: Viele Objekte erzeugen mit der Dispersion ein „weiches“ Bild im Infrarotbereich. Mit dem Einsatz eines normalen IR-Passoder Rotfilters kann mit einer FullspectrumFarbkamera, wie RED Epic-X, ein Farbbild erzeugt werden. Die Versuche zeigten, dass die Ausgrenzung der sichtbaren Strahlen um 830 Nanometer bei der RED Epic-X zu einem monochromen Bild führt. Mit der Verwendung der Farbfilter auf RED Epic-X ließen sich verschiedene Farbkreationen der Landschaften schaffen. Bei sonnigen Wetterverhältnissen lassen sich zum Beispiel Himmel und Wasser gut beeinflussen. Diese nehmen die Farbe des verwendeten Farbfilters ein. Ein wichtiger Aspekt, der bei Infrarotaufnahmen beachtet werden sollte, ist die Wiedergabe von Hauttönen. Aufnahmen mit einem kompletten Ausschluss der sichtbaren Strahlen (monochromes Bild) haben gezeigt, dass die Haut äußerst glatt und strahlend wirkt, wie mit einem Weichzeichner-Filter. Bei dem Einsatz von Farbfiltern und der Zulassung sichtbarer Strahlen wurde festgestellt, dass der Effekt nachlässt und die Struktur der Haut zunehmend erkennbar wird. Die Ergebnisse bei der Verwendung von Farbfiltern mit der RED Epic-X ergaben, dass die Hauttöne stark entfremdet und unnatürlich wirken. Ein besonderes Augenmerk liegt bei Infrarotaufnahmen auf dem Weißabgleich. Es kann bei der Verwendung von Farbfiltern und einer Fullspectrum-Kamera zu unterschiedlichen Ergebnissen führen, je nachdem ob der Weißabgleich am Set oder in der Postproduktion durchgeführt wird. Um die Reproduktion des am Set eingestellten „Looks“ zu gewährleisten, wird empfohlen, vor Ort Farbtemperatur und Tilt-Wert zu speichern. Aus gestalterischer Sicht haben Infrarotaufnahmen durchaus Potenzial für eine neue Bildsprache. Effekte, die durch Aufnahmen im Infrarotbereich erzielt werden können, sind für den Zuschauer noch nicht bekannt und bieten einen ungewohnten Blick auf die Welt. Einen großen Reiz bergen unerwartete Reaktionen von Materien. Für Filmemacher gilt, diese zu entdecken und neue Ideen zu verwirklichen. Die größte Problematik von Farb-Infrarot sind die starken Farbverfälschung der menschlichen Haut. Die Integration von Infrarotaufnahmen in die üblichen Produktionsabläufe kann insgesamt als sehr positiv bewertet werden. Durch Videovorschau und Belichtungshilfen der Kameras lassen sich technisch korrekte Bilder

generieren. Bei der Wahl der Objektive ist es empfehlenswert, auf ältere Modelle zu setzen, da im Vergleich zu moderneren Baureihen ein kontrastreicheres Bild zu erwarten ist. In Bezug auf die Szenerie lassen sich auch IR-Studioaufnahmen mithilfe von Kunstlicht aufzeichnen, allerdings können die ausdrucksvollsten Effekte bei Außenaufnahmen beobachtet werden. In den Versuchen wurde gezeigt, dass Infrarotaufnahmen nicht nur ein spannendes, sondern auch ein Themengebiet sind, auf dem sich gerade viel bewegt. Sie ermöglichen es Kameraleuten, einen Schritt weiter zu gehen und neue Gestaltungsmöglichkeiten auszuschöpfen. Dem Zuschauer öffnet sich durch das „Sichtbarmachen des Unsichtbaren“ ein › ei völlig neuer Blick auf die Welt. Daniel Erpilev ist Post Production Supervisor bei the editors cgn GmbH in Köln. Dort berät er Produktionen und entwickelt digitale Workflows. Als DIT ist er auch vor Ort am Set dabei. Daniel machte seinen Bachelor in Medientechnik an der TH Köln. Durch das Master-Studium an der Hochschule der Medien in Stuttgart hat er den Schwerpunkt auf Kameragestaltung und Filmproduktion gesetzt. Seine dort verfasste Abschlussarbeit mit dem Titel „Infrarotaufnahmen in der digitalen Kinematographie“ dient als Grundlage zu diesem Artikel. www.theeditors.de

Einen besonderen Dank ... ... möchte ich folgenden Menschen aussprechen, ohne die diese Arbeit nicht zustande gekommen wäre. i Stefan Martini (Arri Rental Köln) i André Becker (RED Digital Germany) i Monika Allegretti (Ludwig Kameraverleih Köln) i Stefan Grandinetti (HdM Stuttgart) i Tobias Berbuer (the editors cgn) i Robert Jenne (the editors cgn) i Johannes Schmidt (Loift.Films) i Hans Fischer (Loift.Films) i Daniel Roth (Universität zu Köln) i Anja Erpilev

Quellen i [Arr14] www.arricsc.com, Produktinformationen Arri Alexa XT Plus B+W i [Dem14] www.demarine.de, Abbildung Elektromagnetisches Spektrum i [Mch13] McHugh, S.; Jaax, A.: Arbeiten mit Infrarotempfindlichen DigitalKinokameras, FKT. 2O13, Heft 8–9, S. 477–48O i [Scht14] www.schott.com, Datenblätter Filter i [Nür57] Nürnberg, A.: Infrarot-Photographie, VEB Wilhelm Knapp Verlag Halle (Saale), 2. Auflage, 1957

Weiterführende Links RED über Infrarotaufnahmen i www.red.com/learn/red-101/

infrared-cinema Experimenteller Infrarot-Kurzspielfilm i vimeo.com/loiftfilms/acroma 121


Funded by:

3D ANIMATION & STILL

VISUAL EFFECTS

VISUALIZATION

Cosmos Laundromat Mit dem Projekt „Gooseberry“ wollte das Blender Institute einen Langfilm produzieren, der von mehreren Studios auf der ganzen Welt parallel erstellt wird. Obwohl die Finanzierung schieflief, ist das Projekt noch lange nicht begraben. Man hat sich stattdessen entschlossen, zunächst nur die ersten zehn Minuten als Pilotfilm zu produzieren. Herausgekommen ist der ansehnliche erste Durchgang im „Kosmos Waschsalon“ – der auch gleich den „Sonderpreis der Jury“ beim animago AWARD 2O15 abgevon Gottfried Hofmann räumt hat.

122

i ie m S n r ie Feie ichen S e r u n d t zt I h r e e ab j ein! e t k je P ro

m o.co g a nim w.a

Eine Cloud, die den Nutzer unterstützt, aber nicht kontrolliert Zudem ist da noch die Sache mit der Cloud, welche in der Branche momentan ein großes Thema ist. Allerdings nicht immer zugunsten der Nutzer. Denn die virtuelle Wolke kann auch ein virtuelles Gefängnis werden – mit Software, die sich nur noch anmieten lässt

Bild: Ulf Büschleb

ww

imago in 2 an t

6 01

20 Jahre

E

ntgegengenommen hat die begehrte Trophäe kein anderer als Ton Roosendaal persönlich – und das laute Jubeln des Publikums hat wieder einmal bestätigt, dass aus dem Blender-Projekt viel Interessantes entsteht. Zudem sieht die Blender Foundation die Zukunft der CG-Branche in kleinen Studios, die bei größeren Projekten mit anderen Studios und Freelancern weltweit kooperieren. Um eben solche zu unterstützen, wurde bereits das Blender Network gegründet, eine Seite, auf der sich Entwickler, Trainer, Artists und Consultants rund um Blender vernetzen können und für Außenstehende sichtbar werden. Doch man will noch viel weiter gehen, um kollaboratives Arbeiten über Studiogrenzen hinweg zu unterstützen. Geplant sind Werkzeuge, um Shots und Assets online wie offline managen zu können, sowie eine Software zum Aufsetzen einer Renderfarm mit der Möglichkeit, die Farmen mehrerer Studios bei Bedarf zusammenschalten zu können.

Vorsitzender der Blender Foundation Ton Roosendaal mit Laudator Florian Gellinger von Rise

www.animago.com


oder Speicherdienste für die eigenen Projekte bei lediglich einem einzigen Anbieter ermöglicht. Für ein Open-Source-Projekt wie Blender ist solch ein Vorgehen natürlich keine Option. Die angesprochenen Werkzeuge ließen sich aber gut unter dem Dach einer Cloud-Lösung integrieren. Daher wird auch bei der Blender Foundation an einer CloudInfrastruktur gearbeitet. Allerdings als OpenSource-Lösung, die man auch auf eigenen Servern installieren kann, um unabhängig von externen Anbietern zu bleiben.

Den Praxistest bestehen Die Pläne sind also vorhanden und ließen sich mit Sicherheit auch realisieren, indem man die geplanten Tools einfach mal entwickelt. Feedback zur Usability et cetera könnte von den weltweit verstreuten Nutzern kommen. Was Blender allerdings von anderen OpenSource-Projekten abhebt, ist, dass man dort die Feedback-Schleifen möglichst eng an-

animagoAWARD

BLENDER | OPEN MOVIE

legt. Sprich den Entwicklern vor Ort Artists zur Seite stellt, die auch direkt vor Ort mit ihnen kommunizieren können. Auf diese Art und Weise können neue Features und Tools während ihrer Entwicklung gleich einen intensiven Praxistest durchlaufen und nicht nur von lästigen Bugs befreit, sondern auch von vorneherein auf die Bedürfnisse der Anwender zugeschnitten werden. Den Rahmen für diesen Reifeprozess bieten die Open Projects des Blender Institutes. Davon gab es bisher sieben Kurzfilme und ein Computerspiel. Für „Project Gooseberry“ ist ein Langfilm angedacht, an dem mehrere Studios weltweit zur gleichen Zeit arbeiten. Koordiniert werden soll das Projekt von einem Kernteam in Amsterdam.

Wie finanzieren? Einen Langfilm zu erstellen ist natürlich ein massiv größeres Projekt, als an einem Kurzfilm zu arbeiten, und damit auch mit deutlich

höheren Kosten verbunden. Die bisherigen Open Movies konnten mit einer Kombination aus Crowdfunding, Sponsoring und Filmförderung erfolgreich finanziert werden, aber speziell der erste Punkt war bei „Gooseberry“ kritisch. Denn obwohl mehrere Studios parallel an dem Film arbeiten sollten, hätte die Produktion dennoch sehr lange gedauert. Nach dem Vorbestellen einer DVD oder Blu-Ray wären gut zwei Jahre ins Land gegangen, bis diese verschickt würden. Daher entschied sich das Blender Institute, die Vorfinanzierung über den Verkauf von Accounts für die Blender Cloud zu ermöglichen. Dafür wurde eine frühe Version der Blender Cloud online gestellt, die sämtliche bisherigen Open Movies inklusive der Assets sowie alle vom Blender Institute produzierten Trainings-DVDs zum Streaming und Download anbot. Über die Cloud sollten auch alle Assets verfügbar gemacht werden, die während der Produktion des Films anfallen würden – und das täglich. Zusätzlich konnte

123

Bilder: Blender Foundation/Creative Industries Fund NL, gefördert von MEDIA Programme of the European Union

AUSGABE O1:2O16


Funded by:

3D ANIMATION & STILL

man direkt eine Spende abgeben oder sich eine Erwähnung im Abspann kaufen, wenn man kein Cloud-Abo wollte (die Erwähnung im Abspann sollten auch alle diejenigen erhalten, die ihr Cloud-Abo für mindestens 18 Monate nicht kündigten).

Das Team war auf eine Gruppe von Entwicklern und Artists im Blender Institute in Amsterdam zusammengeschrumpft, die Kollaborationswerkzeuge sollten aber dennoch entwickelt werden, nicht zuletzt weil man dafür eine Förderung aus EU-Töpfen erlangen konnte.

Ziel verfehlt Ein Pilotfilm zu einem Langfilm? Ziel waren mindestens zehntausend CloudAbonnenten, welche dafür zehn Euro pro Monat zahlen sollten, bei einer Mindestlaufzeit von drei Monaten. Mit dieser Anzahl an Unterstützern sollte bei potenziellen Sponsoren geworben werden. Wenn zehntausend Nutzer bereit sind, monatlich zehn Euro für ein Projekt zu zahlen, dann würden auch Sponsoren erkennen, dass hinter dem Projekt eine breite Basis an Interessenten steht, die sogar bereit sind, es mit Geld zu unterstützen. Leider wurde das Ziel nicht erreicht, lediglich etwas mehr als dreitausend Cloud-Abonnenten konnten gewonnen werden. Auch die erhoffte Filmförderung durch den Niederländischen Filmfonds scheiterte. Damit war klar, dass das Projekt als Langfilm nicht mehr realisierbar war. Allerdings gab es einen Plan B. Lediglich die ersten zehn Minuten sollten produziert werden, das Ergebnis sollte als Werbung für weitere Nutzer und eventuelle Sponsoren dienen. Dafür fragte man bei den Unterstützern an, ob sie mit diesem Plan einverstanden wären, was auf den größten Teil auch zutraf.

124

Projekt „Gooseberry“ ist als Langfilm mit durchgehender Handlung konzipiert, die allerdings in Episoden erzählt wird. Jede Episode spielt in einer anderen Welt beziehungsweise einem anderen Universum. Jedes Studio sollte für eine Episode zuständig sein, wodurch sie eine große Freiheit bei der Ausgestaltung der einzelnen Welten haben

VISUAL EFFECTS

VISUALIZATION

und damit auch ihren jeweils eigenen DesignAbdruck im Film hinterlassen können. Dieses Konzept ermöglichte es, zunächst nur die Exposition zu produzieren. Bei genügend Interesse an dem Projekt könnten dann Schritt für Schritt weitere Episoden hinzukommen, bis irgendwann der gesamte Film fertiggestellt ist. Oder man könnte umschwingen von einem Film zu einer Web-Serie.

Ein Schaf, das sich ein aufregenderes Leben wünscht Hintergrund der Geschichte ist das Schaf Franck, das sich ein aufregenderes Leben wünscht. In seiner aktuellen Situation wird es daran nicht viel ändern können, denn es lebt auf einer Insel, auf der es nur Gras, Schafe und einen Baum gibt. Der Film beginnt damit, dass Franck bereits damit abgeschlossen hat, sein Ziel zu erreichen. Plötzlich taucht ein Mann auf der Insel auf, der Franck ein Produkt anbietet, das Francks Probleme lösen soll. Der Pilot endet damit, dass Franck als Raupe in einer fremden Welt aufwacht. Im Laufe des Films soll Franck weitere Welten bereisen. Franck ist in diesen Welten nicht allein. Neben dem rothaarigen Geschäf tsmann Victor trifft er auf eine andere Reisende, was die Rahmenhandlung bildet, welche all die unterschiedlichen Episoden verknüpft. Mehr dazu in der animago› ei Sonderausgabe 2015.

www.animago.com


AUSGABE O1:2O16

BLENDER | OPEN MOVIE

First Cycle Mathieu Auvray ist ein französischer Regisseur, der auf fast zehn Jahre Erfahrung im Filmemachen zurückblicken kann. Er begann als 2D-Artist bei Nobrain, aus dem später das Sabotage Studio entstand. Dort arbeitete er an Musikvideos, TV-Idents und Filmvorspännen. Dabei begann er, sich langsam in Richtung 3D zu orientieren. Blender war dabei das Tool seiner Wahl.

F

ür die Firma Autour de Minuit begann er, ganze Kurzfilme in Blender zu realisieren. Dazu kommt eine TV-Serie namens „Babioles“, deren Pilot-Episode 2010 einen animago AWARD abräumen konnte.

DP: Mathieu, wie bist du auf Blender gestoßen? Mathieu Auvray: Ich habe mit Videoschnitt angefangen und wurde dann 2D-Artist. Zuerst habe ich als Cutter an Dokumentationen gearbeitet. Da ich früher kurz eine Kunstschule besucht hatte, bin ich in die Welt der Computergrafik abgetaucht. Zuerst als Matte Painter, dann als Designer für TV-Idents. Weiter ging es in den Bereich 2D-Animation und Compositing für Musikvideos, Werbefilme und VFX. Jeder, mit dem ich arbeitete, nutzte 3ds Max oder Maya als 3D-Software und es reizte mich eine ganze Weile, mich in eines dieser Programme einzuarbeiten. Aber unser Technical Director war ein großer Fan von Open Source – und ich mochte Linux, Firefox und andere Open-Source-Software. Er hat mir also Blender gezeigt und ich dachte mir: „Nun, nachdem es sowieso mehrere Jahre brauchen wird, bis ich mit irgendeiner dieser 3D-Softwares zurechtkommen werde, warum nicht mit Open Source anfangen?“ Es hat wirklich mehrere Jahre gedauert, um zu lernen, wie man Blender bedient, und ich lerne immer noch. Aber es wurde mein Lieblingsprogramm zum Filmemachen. Und weil man damit wirklich komplette Filme erstellen kann, begann ich mit meinen eigenen. So wurde „Babioles“ geboren. Hier ist mein allererster Test, das war vor sechs Jahren: vimeo.com/2265583. Das Tracking musste ich damals noch mit PFTrack durchführen, da Blender noch kein eigenes Tracking-Modul hatte. Als wir richtig mit „Babioles“ angefangen haben, konnten wir bereits ein wenig den Tracker in Blender einsetzen. Er befand sich noch in einer frühen Entwicklungsphase, war aber schon äußerst hilfreich.

animagoAWARD

Eye of the Storm. Der Waschtrommel-Tornado aus „Cosmos Laundromat“ in einer Ansicht, die im Film nicht vorkommt.

DP: „Babioles“ hat einen animago AWARD und einen Suzanne Award der Blender Foundation erhalten. War das dein Fuß in der Tür bei „Project Gooseberry“? Mathieu Auvray: Der „Babioles“-Kurzfilm war als Pilot für eine TV-Serie gedacht. Aber die Produktionsfirma, mit der ich in Frankreich arbeite, war nicht groß genug, um 24 Episoden mit einer solchen Qualität zu produzieren. Wir hatten auch Schwierigkeiten, in Frankreich 3D-Artists mit BlenderErfahrung zu finden. Daher haben wir Ton Roosendaal kontaktiert und uns ins Blender Institute in Amsterdam begeben, um das Team dort zu treffen und herauszufinden, ob sie uns behilflich sein könnten. Leider gestaltete es sich schwierig, Open Source und Creative Commons und ein geschlossenes, kommerzielles Projekt zu vermischen. Also sind wir zurück nach Frankreich und haben selbst Leute angelernt und die gesamte Serie allein produziert. Wir hatten aber Hilfe von Nozon, einer Postproduktionsfirma. Sie unterstützten uns beim Rendern und Compositing. Die Episoden wurden komplett in Blender erstellt mit Ausnahme des Compositings, wofür Nuke eingesetzt wurde. Seit

dem Besuch im Blender Institute sind Ton, Nicolas (der Chef von Autour de Minuit) und ich in Kontakt geblieben. Ein paar Jahre später hat Ton mich zur Blender Conference eingeladen. Da hat er mir die Idee von „Project Gooseberry“ vorgestellt und mir angeboten, die Regie zu übernehmen. DP: Wie war die Vorproduktion? Welche Ideen habt ihr diskutiert, bis ihr euch auf das Konzept „Schaf sucht interessanteres Leben“ geeinigt hattet? Mathieu Auvray: Wir haben einige Ideen recht schnell aussortiert, was an der Natur des Projekts lag, nämlich dass zwölf Studios Teile des Films umsetzen. Die Idee eines Schafs, das auf einen Vertreter trifft, der ihm ein aufregenderes Leben in anderen Universen oder Lebensformen verkauft, kam mir schon früh. Es war eine meiner ersten Ideen und Ton mochte sie. Zuerst habe ich mit einem französischen Drehbuchautor gearbeitet, Régis Jaulin, ein wirklich großartiger Autor, der sich auf Animationsfilme spezialisiert hat. Was er schrieb war sehr gut, komplex und ein großer Film – auf Höhe mit Pixar- und Sony-Filmen, was das Drehbuch

Victor und Franck. Nicht einmal auf einer einsamen Insel ist man vor dubiosen Vertretern sicher, die einem ihre neuesten und besten Produkte aufschwatzen wollen.

125


Funded by:

3D ANIMATION & STILL

Franck wacht als Raupe auf. Ist dies das aufregende Leben, das er sich immer gewünscht hat?

und die Herausforderungen angeht. Aber das konnten wir nicht realisieren. Also habe ich versucht, das Ziel des Films zu vereinfachen. Es sollte eher ein Independent-Film werden. Außerdem wollte ich mit Esther Wouda arbeiten, da ich „Sintel“ mochte und der Meinung war, dass ein weiblicher Drehbuchautor mehr Feingefühl in die sonst von Männern dominierte Animationswelt bringen könnte. Also haben wir uns getroffen und ein Stein fiel auf den anderen. Wir waren schnell aufeinander eingespielt und was mich besonders freut, ist, dass der finale Plot sehr nahe an dem ist, was wir uns in Bezug auf Emotionen und Empfindungen von Anfang an vorgestellt hatten. DP: Wie hätte im ursprünglichen Konzept das Kern-Team in Amsterdam die Fäden beieinander gehalten? Wie viel Freiheiten hätten die externen Studios in Bezug auf Stil und Erzähltempo bekommen? Mathieu Auvray: Da gab es einige Debatten. Jedes Studio hätte im Grunde seinen eigenen Film gemacht, von uns wären nur das Skript und einige Vorgaben gekommen. Für mich war das weder fair noch realistisch. Ich wäre als Regisseur für die Arbeit anderer ausgezeichnet worden. Es hätte auch sicher Probleme mit der Continuity gegeben. Es machte für mich einfach wenig Sinn in Hinblick auf die Regie der Sprecher, das Erzähltempo, Emotionen und so weiter. Wir haben also lange darüber gesprochen und kamen zu dem Schluss, dass wir mindestens Storyboards vorgeben würden. Die Art Direction wäre komplett frei gewesen, von uns aber wären Anweisungen zu Emotionen und Stimmung gekommen. Man hätte eine gute Verbindung zwischen den Studios und dem Blender Institute benötigt, fast schon 24 Stunden täglich aufgrund der unterschiedlichen Zeitzonen. DP: Das wäre ein echter Stresstest für das geplante Shot-Management gewesen, bei dem ihr nur auf die grundlegenden

126

Arbeiten von „Tears of Steel“ aufbauen konntet. Wie umfangreich habt ihr technische Details und Ziele während der Vorproduktion diskutiert? Mathieu Auvray: Wir haben viel diskutiert. Jeder von uns war zugleich aufgeregt und verängstigt. Man benötigt viele erfahrene Artists von erfahrenen Studios, um einfache Fehler zu vermeiden. Zudem hat jedes Studio seine eigenen Rezepte, wie sie eine Produktion stemmen. Eine Balance zu finden, die jedem Workflow gerecht wird, die Dinge zu vereinheitlichen, das wäre viel Arbeit gewesen. Aber Francesco, unser TD und Pipeline-Entwickler, hat einen guten Job im Bereich Asset Management, verteiltes Rendern und Workflow gemacht. Sein Design ist interessant und muss wachsen und in einem echten Produktionsumfeld getestet werden. Die Pilot-Episode hat ihren Auftrag, grundlegende Werkzeuge zu entwickeln und diese zu testen, inzwischen erfüllt. Jetzt kann der Workflow mit mehreren Studios erprobt werden. DP: Inwieweit warst du in die Crowdfunding-Kampagne involviert? Von außen wirkte diese ein wenig verfrüht. Wichtige Features und Informationen wurden ausgerollt, als die Kampagne bereits lief. Mathieu Auvray: Ich arbeitete am Drehbuch, an Designs, an Ideen, suchte Informationen zu den Teams und ihren grafischen Welten zusammen. Ich arbeitete außerdem noch in Frankreich an einem Kurzfilm. Ton und das Blender Institute waren beim Crowdfunding aber mit Leib und Seele dabei. Das ist auch einfach Tons Art, Dinge zu anzugehen: Nicht warten, bis alles vorbereitet ist, sondern gleich loslegen. Das ist großartig, kann aber auch zu Fehlern führen, und es kann passieren, dass manches dann verfrüht veröffentlicht wird. Aber immerhin tut man etwas und kann in Echtzeit testen. Zwar hätte das ein oder andere besser vorbereitet sein können, aber das Versagen ist hier immer noch relativ. Für ein Projekt ohne großen Namen haben wir immer noch viel Erfolg gehabt. Und das war Tons Teil an der Produktion. Er hat uns unterstützt und uns freie Hand beim Skript gelassen, also habe ich mich beim Crowdfunding auch nicht eingemischt. Das war sein Feld, und er hat gezeigt, dass er dort erfolgreich war, auch wenn es nicht der nächste Internet-Hype wurde. DP: Hattet ihr da schon einen Plan B, falls das Crowdfunding-Ziel nicht erreicht würde? Mathieu Auvray: Wir hatten alle möglichen Szenarios besprochen. Meine größte Sorge war, dass das Ziel erreicht würde. Dann hätte ich für 18 Monate meinen Schlaf aufgeben müssen. Die Idee mit der Pilot-Episode war schon früh eine Option.

VISUAL EFFECTS

VISUALIZATION

DP: Mit einem kleinen Team direkt in Amsterdam zu arbeiten war sicher etwas ganz anderes, als das, worauf du dich vorbereitet hattest? Mathieu Auvray: Das Team in Amsterdam war Teil des Plans von Tag eins an. Dort zu arbeiten, das sollte sowieso passieren. Ich wäre dann aber vor allem damit beschäftigt gewesen, die Arbeit der externen Studios zu überwachen. Und ich hätte nicht die Chance gehabt, um die Welt zu reisen und jedes Studio persönlich kennenzulernen. DP: Unterscheidet sich ein Open Movie stark von einer herkömmlichen Produktion? Ihr musstet mit einer Software arbeiten, die sich ständig weiterentwickelt und in einer Art dauerhaftem AlphaZustand war. Andererseits hattet ihr Entwickler vor Ort, um Features genau nach euren Wünschen zu implementieren. Mathieu Auvray: Ich glaube nicht, dass es viele kleine Studios mit so viel InhouseSupport gibt. Es war unglaublich, nach einer Änderung an einem derart komplexen Programm zu fragen – und sie ein paar Minuten später auf dem Schreibtisch zum Testen zu haben. Ich habe das überhaupt nicht als unkomfortabel erlebt. Es gab zwar Abstürze und Bugs, aber insgesamt wurde die Arbeit nie blockiert oder verlangsamt, da man immer zu stabileren Versionen zurückgehen kann. Das ist auch eine der wirklich guten Sachen an Blender. Man kann jede Version nehmen, es gibt fast keine Konflikte, wenn man weiß, was man tut. Die Chance zu haben, Entwicklern direkt zu zeigen, wie man ihre Tools anwendet, ist faszinierend. Manchmal tut man das ja auf eine Art und Weise, die sie sich nie hätten träumen lassen. Man kann aufgrund seiner eigenen Erfahrung den besten Weg, ein Feature zu implementieren, diskutieren. Gleichzeitig kann man sichergehen, dass es sich in die vorhandenen Code-Reaktionen einpasst und weil man direkt damit arbeitet, wird gleich noch die Stabilität gewährleistet. Ich erinnere mich an lange Diskussionen mit dem Team über Videoschnitt, wie Cutter NLE-Software einsetzen und warum sie das auf diese Art machen. Als Anwender ist das auch interessant und herausfordernd, da man in diesem Prozess erfahren kann, wie ineffizient man selber die Werkzeuge der Entwickler einsetzt. Es werden all die Dinge aufgezeigt, die man von der Software noch nicht kannte – und wie faul man selber sein kann. DP: Wie viele der technischen Ziele waren festgelegt, bevor die eigentliche Produktion angefangen hatte? Wann habt ihr euch zum Beispiel entschieden, auf Compositing zu verzichten und alles direkt in Cycles zu rendern?

www.animago.com


AUSGABE O1:2O16

BLENDER | OPEN MOVIE

Mathieu Auvray: Es gab viele Gedanken dazu mit ihm teilen. technische Ziele bei diesem ProEs gibt drei Optionen: 1. Wir belassen es dabei und jekt. Zu nennen wären das Asziehen weiter. set Management und die Tools 2. Uns gelingt die Finanzierung zum Online-Rendern, um den des gesamten Films. Langfilm überhaupt möglich zu 3. Wir produzieren weitere Epimachen. Ton wollte auch Versoden, zunächst einmal sieben besserungen im Bereich PhysikMinuten, mit den Einkünften aus Simulation. Also haben wir uns Programmer Placements. Die Macher des Films haben sich darin selbst der Blender Cloud. für das Schaf, das Gras und den verewigt, in Form von vielen kleinen Easter Eggs. So ist das Uhr-Modell Tornado entschieden – bam! von Victor nach einem der Programmierer benannt. DP: Wie waren die ReakAußerdem gab es Herausforderungen beim Videoschnitt und obendrauf den ist enorm! Auch sind die Refaktorisierungen tionen auf die Pilot-Episode? Sowohl Refac tor des Dependency Graphs. Da Cycles manchmal nicht direkt im UI sichtbar. Eine Dreamworks als auch Pixar hatten euch wunderschöne Bilder ohne Nachbearbeitung starke Überarbeitung des Codes kann im zu einem Sonder-Screening vor ihren erzeugen kann, und wir nicht viel Zeit für Hintergrund ablaufen und dann neue Mög- Mitarbeitern eingeladen. Feinarbeiten und Compositing hatten, fiel lichkeiten eröffnen. Sergey und Lukas arbei- Mathieu Auvray: Ich war zu diesem Zeitder Entschluss, alles direkt in Cycles zu ren- teten viel, um Code aufzuräumen und für punkt mit meiner Freundin im Urlaub in dern. Das hat uns viel Zeit und händische zukünftige Refaktorisierungen zu dokumen- Thailand, daher konnte ich leider nicht mit Arbeit gespart, aber die Renderzeiten schos- tieren. Das ist eine unsichtbare Arbeit, die zu Pixar und Dreamworks. Aber das Team sen in die Höhe. Hilfreich war allerdings, dass aber notwendig ist und viel Zeit frisst. Bei hat mir von seinen Erfahrungen erzählt. Es wir viele ähnliche Shots im gleichen Environ- vielen großen Software-Paketen passiert gab großartiges Feedback. Wir erhielten ment haben. Acht Minuten des Films spie- das viel zu selten. Da werden einfach nur viele Gratulationen auf der technischen Seilen am gleichen Ort in derselben Umgebung Features hinzugefügt und es wird darauf ge- te, aber auch der Film an sich wurde enthumit nur zwei Lichtsituationen, nämlich frü- achtet, dass sie funktionieren. Hier im Blen- siastisch aufgenommen. Zumindest war das her Morgen und der Sturm. Sobald man ein der Institute wird konstant versucht, Dinge Interesse groß genug, dass die Zuschauer gutes Licht-Setup hat, das in den meisten zu optimieren und darauf zu achten, dass sie wissen wollten, wie es weitergeht. Von den Shots funktioniert, muss man nur noch ganz so programmiert sind, dass auch zukünftige Leuten, die den Film online gesehen haben, wenig ändern, damit sie zusammenpassen. Entwickler den Code verstehen und eigenen aber auch von Kollegen erhielt ich ebenfalls viel positives Feedback. Eines war allen geAllerdings hatte ich auch den Wunsch, dass hinzufügen können. mein: Was passiert als Nächstes? Das war der fertige Film Bewegungsunschärfe entunser Hauptziel, da ja die Produktion so stark hält. Aber weil die Szenen so groß waren DP: Wie geht es weiter im „Cosmos eingedampft wurde. Die Tonalität des Films und lange Renderzeiten hatten, mussten wir Laundromat“? Haben wir eine Chance, und die Empfindungen, die er evoziert, hat darauf verzichten. endlich Tara kennenzulernen? Mathieu Auvray: Ich hoffe es. Das ist der viele Leute berührt – und auch überrascht, DP: Wie profitiert der durchschnittliche wichtigste Teil: Die Liebesgeschichte. Die da „Cosmos Laundromat“ für einen AnimaBlender-Nutzer vom Projekt „Goosefehlt im Pilot komplett. Das Blender Insti- tionsfilm eher ungewöhnlich ist. Ich bin sehr berry“ beziehungsweise dem „Cosmos tute hat einige kleinere Projekte am Laufen, stolz darauf, dass die meisten wissen wollen, Laundromat“-Pilot? mit denen es bis Ende des Jahres beschäf- wie sich die Story weiter entfaltet. Darüber Mathieu Auvray: Ich weiß nicht, wie viele tigt sein wird. Ich weiß, dass Ton bald eine hinaus bemerken sie die 10 Minuten FilmlänBugs während der Produktion entdeckt und Entscheidung über die Zukunft von „Cosmos ge kaum. Das ist wirklich fantastisch, denn korrigiert wurden. Ich kann auch nichts Ge- Laundromat“ treffen wird. Das kommt auf genau das wir wollten erreichen, ohne dafür naues über die vielen Verbesserungen an das Feedback an, besonders, weil große Stu- einen klassischen Cliffhanger bemühen zu › ei Features und Performance sagen, aber es dios und eine große Produktionsfirma ihre müssen.

Links „Cosmos Laundromat – First Ciycle“ i vimeo.com/137931051

Erster Test „Babioles“ i vimeo.com/2265583

„Babioles“-Pilot und animago-AWARD-Gewinner 2010 i vimeo.com/9870128 „Sintel“ i vimeo.com/59785024

„Tears of Steel“ i www.youtube.com/

watch?v=OHOpb2fS-cM

animagoAWARD

127


Funded by:

3D ANIMATION & STILL

VISUAL EFFECTS

VISUALIZATION

Auto-Explosion der anderen Art Für den Launch des Discovery Sport von Land Rover kreierte Ink aus London mit CAD-Daten, 3ds Max und V-Ray eine visuell eindrucksvolle Explosion des Automodells in seine Einzelteile. Das Team reichte den Spot beim diesjährigen von Mirja Fürst animago AWARD ein.

A

Explosion (vimeo.com/118118064), die sich anschließend wieder zu dem Automodell zusammensetzt. Da Ink zuvor schon zahlreiche Spots für den Autohersteller realisiert hatte, kannte sich das Team gut mit den Land-Rover-Modellen und den Technikelementen der Autos aus. Die kreative Challenge des Briefings diesmal war vor allem, auch die alltäglichen Komponen-

ten – zum Beispiel das Handschuhfach oder den USB-Port – interessant wirken zu lassen. Gleichzeitig sollten aber auch komplexe Technikteile wie beispielsweise die Hinterradaufhängung so klar und zugänglich wie möglich kommuniziert werden. Diese wie auch einige andere Discovery-Sport-Bauteile erhielt Ink in der CAD-Version; dabei war natürlich eine der größten Herausforderungen, diese Daten

Bilder: Land Rover/Ink

utos und ihre Technik auf kreative Art präsentieren – die Möglichkeiten sind aufgrund der immensen Anzahl der Bauteile unbegrenzt. Auch Land Rover ist immer auf der Suche nach neuen Wegen, die Technologie, die in ihren Fahrzeugen steckt, auf einzigartige Weise zu präsentieren. Das Studio Ink (www.weareink.co.uk) fand den visuellen Weg einer Einzelteil-

128

www.animago.com


AUSGABE O1:2O16

in die 3ds-Max-Pipeline zu bringen. Jedes CAD-Engineering-Modell wurde gecheckt, überarbeitet und neu gemodelt sowie Shader und Texturen hinzugefügt. Vor allem die Choreografie der Animation – das Explodieren der vielen Einzelteile, das Zusammensetzen und die dabei konsistente Lesbarkeit der Autostruktur – war ein zeitraubender Prozess, der viel Planung und sorgfältiges Nachdenken erforderte; dafür entwarf Ink vorab ein detailliertes Animatic. Neben 3ds Max und V-Ray nutzte das Team Nuke für das Compositing und Nuke Studio für das Editing. After Effects kam für kleinere Effekte zum Einsatz. Insgesamt war der Film ein Bestandteil in einem Paket von sechs Filmen und einigen Still Images für den Auto-Launch des Discovery-Sport-Modells, der zwischen Juli und

animagoAWARD

ANIMAGO AWARD | LAND ROVER SPOT

Oktober 2014 stattfand. Creative Director Dave Macey und Animation Director Michael Haas erklärten im Interview, wie das Projekt für Land Rover im Detail entstand. DP: Was war das Besondere an dem Land Rover Spot? David Macey: Bei dem Auseinanderbrechen der Autoteile in Full-CG mussten kontinuierlich neue Dinge enthüllt werden; immer wenn etwas aus dem Sichtfeld verschwindet, wird sofort ein neues Element eingeführt. Es gibt viele kleine Storys in jeder Animation und unser Job war, die einzelnen Komponenten des Autos auf besondere Weise hervorzuheben. Auch die alltäglichen Gegenstände mussten auf interessante Art und Weise dargestellt werden.

DP: Wie war eure Hardware im Studio ausgestattet? David Macey: Wir haben für unsere Anforderungen maßgeschneiderte Workstations: jeweils mit Single Core i7 bei 3 Ghz, 32 GB RAM in einem 10-GPS-Netzwerk. Wir verwenden 30 Render-Maschinen, jeweils mit zwei Intel Xeon E5 bei 2,1 Ghz mit ebenfalls jeweils 32 GB Arbeitsspeicher. DP: Wie viele Iterationen waren nötig, damit das Timing im Animatic perfekt stimmte? David Macey: Dafür arbeiteten wir eng mit der Agentur FP Creative zusammen, die in einem strukturierten Feedback-Prozess sicherstellte, dass die richtige Balance zwischen Kreativität und Informationsgehalt gefunden wird. So konnte der Großteil der

129


Funded by:

3D ANIMATION & STILL

VISUAL EFFECTS

VISUALIZATION

Matching Paint: Vergleich der echten Lackproben von Land Rover mit dem CG-Rendering

iterativen Arbeit in der Animatic-Stufe abgeschlossen werden. DP: Welche Referenzen habt ihr genutzt? Michael Haas: Angesichts der Sensibilität der Autodaten vor dem Launch spielten Fotoreferenzen und Daten von vorherigen Land-Rover-Produkten eine Schlüsselrolle. Zusätzlich standen wir in enger Kommunikation mit dem Land-Rover-Design-Team; außerdem arrangierte Land Rover uns Zugang zum Studio, in dem wir direkt mit den Designern zusammenarbeiten konnten und sie uns Pre-Production-Modelle der Autos zeigten. DP: Wie wurden euch die CAD-Daten des Autos von Land Rover übermittelt? David Macey: Die Dateien ließ uns Land Rover über ihre eigene sichere Datei-Sharing-Application zukommen, wir speicherten sie dann gesichert auf unserem Server. Wir erhielten den Antrieb, den äußeren und inneren Body des Autos sowie ein Set Reifen. Da wir genau die gleichen Technikdaten

130

bekamen, die in der Produktion des Autos Verwendung finden, waren es extrem detaillierte Modelle. Mit mehr als einer halben Million an potenziell möglichen Konfigurationen für das Auto war das Extrahieren und Selektieren der Daten eine wesentliche Aufgabe, die eine enge Zusammenarbeit mit dem Land-Rover-Visualisierungsteam unverzichtbar machte. DP: Wie viel Cleaning der CAD-Daten war nötig? David Macey: Die CAD-Daten erforderten viel Arbeit, die aber nicht nur aus dem Cleaning der Daten bestand, sondern auch aus dem Entfernen einer signifikanten Menge von nicht sichtbaren Technikelementen. Dadurch stellten wir sicher, das Modell so optimiert und effizient wie möglich zu gestalten, um damit optimal arbeiten zu können. DP: Ließ sich im Prozess auch etwas prozedural lösen?

Michael Haas: Um alle Automaterialien so realistisch wie möglich darzustellen, wurden statt prozeduraler Texturen fast immer Texturen aus realen Fotos erstellt. Um sicherzugehen, dass in dem Prozess jeder Artist mit den aktuellsten und vom Kunden abgesegneten Materialien arbeitet, generierten wir eine Hero/Master-Szene. Diese wurde dann als Referenz an das Animationsteam weiter-

»Für die Darstellung alltäglicher Gegenstände ist viel Kreativität nötig.« David Macey Creative Director, Ink

gegeben, sodass jeder Artist individuell mit seiner eigenen Szene arbeiten konnte. DP: Wie habt ihr geshadet? David Macey: Wir verwendeten V-Ray Blend Materials, um Exaktheit zu erzielen und eine gute Kontrolle über den Aufbau der Materialien zu haben. Land Rover gab uns

www.animago.com


AUSGABE O1:2O16

ANIMAGO AWARD | LAND ROVER SPOT

Die Explosion der einzelnen Bauteile von oben betrachtet.

Lackbeispiele, welche wir in verschiedenen Lichtsituationen fotografierten, was für eine korrekte Simulation der Materialreaktion auf Licht und Reflektivität sorgte. DP: Wie wurde das Lighting realisiert? David Macey: Das Lighting wurde von der kreativen Seite her von Land Rover angeleitet; es sollte bei den Szenen ein reales Produktgefühl entstehen. Deswegen filmten und beleuchteten wir das CG-Auto in einem CGStudio-Environment – wie in einem realen Shooting-Set. Das weiße Environment war entscheidend für die Darstellung der auseinanderbrechenden Struktur im Film, damit keines der Elemente sich mit etwas im Hintergrund überschneidet, in der an sich schon visuell komplexen Sequenz. DP: Warum habt ihr mit V-Ray gerendert? David Macey: Weil wir durch die direkten Ergebnisse, die niedrige Renderzeit und den

animagoAWARD

konsistenten, fehler- und artefaktfreien Output von V-Ray den Film in dem uns vorgegebenen Zeitrahmen liefern konnten. Dank V-Ray RT ließ sich viel mit den Settings ex-

»Daten von vorherigen Land-RoverProdukten waren sehr wichtig.« Michael Haas Animation Director, Ink

perimentieren sowie schnell das Lighting und Shading anpassen. DP: Wie wurde der Comp-Prozess in Nuke umgesetzt? David Macey: Wir legten einen Multi Pass EXR Beauty Render Pass an, der Passes, Channels und Mattes beinhaltete; mit diesem bauten wir die Komposition auf. Auch Motion Blur und Depth of Field wurden in der Post mit Nuke hinzugefügt. Die 3D-Szenen eines Studio-Environments für einige der Filmszenen kreierten wir ebenfalls in Nuke, so ergab sich

eine größere Kontrolle über den Gesamtlook des Films. Für das finale Ergebnis nutzten wir eine Multi-Pass-Komposition; die Frames renderten wir aus 3ds Max als 32-Bit-Float.exr-Datei, in die wir verschiedene Passes wie Reflexion, Spiegelung, Diffuse und mehrere Mattes integrierten, und wir so den Look von individuellen Komponenten des Autos kontrollieren konnten. Vor allem die Reflektivität und die Opazität im Glas war im Compositing › mf eine große Herausforderung. Wenn Sie oder Ihr Studio mit einem Projekt auch im nächsten Jahr beim animago AWARD dabei sein möchten. Alle Informationen dazu unter: www.animago.com

Links Land Rover Discovery Sport i vimeo.com/118118064

Ink-Webseite i www.weareink.co.uk

131


Funded by:

3D ANIMATION & STILL

VISUAL EFFECTS

VISUALIZATION

„Backflip“: Hier performt eine sehr sportliche Person einen Rückwärtssalto, der mit 24O fps aufgenommen wurde.

Der bewegte Mensch Andreas Vrhovsek hat mit seiner zwölfteiligen „Human in Motion“-Bilderreihe beim animago AWARD 2O15 teilgenomvon Mirja Fürst men. Die digitalen Skulpturen sind mit Motion-Capture-Daten von Tänzern und Houdini entstanden.

D

er Lead Effects Technical Director Andreas Vrhovsek arbeitet aktuell bei den Method Studios in London und ist auf digitale Fluids, Partikel und prozedurale Effekte mit Houdini und Maya spezialisiert sowie Rendering und Lighting der Effekte. Aktuelle Feature-Film-Projekte, bei denen er beteiligt war, sind „Paddington“, „Jupiter Ascending“ und „Geostorm“, der 2016 herauskommen wird. Seine Karriere als Artist

132

begann er in Deutschland unter anderem bei der Liga 01 und Scanline VFX. „Human in Motion“ ist ein Privatprojekt von Vrhovsek, zu dem ihn das Marcel-Duchamp-Gemälde „Akt, eine Treppe herabsteigend Nr. 2“ inspiriert hat, von dem der Artist seine eigene Interpretation kreieren wollte. Über einen Zeitraum von sechs Monaten arbeitete er in seiner Freizeit täglich daran.

DP: Was war deine Motivation für das Projekt? Andreas Vrhovsek: Neben der Arbeit des Künstlers Marcel Duchamp sah ich mir noch viele weitere Bilder von Leuten in Bewegung an – die von Tänzern erschienen mir die interessantesten. In mir entstand der Wunsch, mein Wissen und die Tools einzusetzen, um etwas Neues zu kreieren – etwas, an dem ich normalerweise nicht arbeiten würde.

www.animago.com


ANIMAGO AWARD | HUMAN IN MOTION

„Grand Allegro“ zeigt die Bewegungen eines Balletttänzers, gecaptured wurde er mit 3OO fps.

Nachdem das erste Bild mit nur einer spezifischen Bewegung fertig war, wollte ich noch weitere machen. Also kreierte ich ein Set von Variationen und zeigte diese im Freundeskreis herum, um zu sehen, was sie davon hielten. Es war äußerst interessant, mit ihnen über die Bilder zu diskutieren. Als ich das erste Bild schließlich auf verschiedenen Papiertypen ausdruckte, erhielt ich sehr viel weiteren kreativen Input. So verselbststän-

animagoAWARD

digte sich das Projekt zunehmend, bis ich entschied, eine Auswahl von Bildern in einer Ausstellung zu zeigen. Das war eine großartige Erfahrung, für die sich die investierte Zeit absolut gelohnt hat. DP: Wie hast du Houdini für die Bilder eingesetzt? Andreas Vrhovsek: Von der technischen Seite her habe ich nach einem Weg gesucht, mit

dem sich ein Bild aus der Bewegung eines Tänzers kreieren lässt. Es sollte wie ein Kleidungsstück wirken, das durch die Bewegung verformt wird. Gleichzeitig wollte ich, dass sich die Farben auf der Kleidung der Schnelligkeit der Bewegung entsprechend verändern. Dafür waren verschiedene Schritte im Prozess vonnöten: Der erste bestand aus dem Resampling der Motion-Capture-Bewegungen auf nonlineare Weise – ungefähr

133

Bilder: Andreas Vrhovsek

AUSGABE O1:2O16


Funded by:

3D ANIMATION & STILL

„Fouette en tournament“ ist eine Figur aus dem Ballett – aufgenommen bei 3OO fps.

VISUAL EFFECTS

VISUALIZATION

Auf „Pirouette“ dreht sich ein Balletttänzer – wie der Titel schon sagt – kontinuierlich um sich selbst, wobei er immer wieder exakt zum Startpunkt zurückkehrt.

3D-Test mit den Motion-Capture-Bewegungsdaten

Render ohne Deformation

Blick von der Seite auf die per Motion Blur und Materialien verbundenen Bewegungsabläufe

240 Mal pro Sekunde. Des Weiteren mappte ich die Geschwindigkeitsveränderungen nonlinear auf die jeweiligen Farbwerte beziehungsweise die Textur-Maps. Ich habe mich für Gelb bei einer schnellen Geschwindigkeit entschieden, bei einem mittleren Tempo für

134

Orange und für das lang s ame Tempo wählte ich Grün sowie Blau. Eine weitere Herausforderung war es, eine perfekte Form ohne störende Schnittpunkte hinzubekommen sowie einen schönen Verlauf auf der Color Map, sodass sich die Farbwerte nicht abrupt änderten. Die Bewegung des Tänzers als Information für das Remapping zur Kreation einer Kleider-Deformation zu nutzen, war die letzte Schwierigkeit (Anm. d. Red. siehe Bild „Render ohne Deformation“).

DP: Welche weiteren Tools hast du genutzt? Andreas Vrhovsek: Sehr oft Bvhacker (davedub.co.uk/bvhacker), um in meiner verwendeten Motion Capture Library, der CMU Graphics Lab Motion Capture Dat abase (mo cap.cs.cmu.edu) von der Carnegie Mellon University, nach einem passenden Animation Snippet zu suchen. Eine der Color Ramps für das Projekt

www.animago.com


AUSGABE O1:2O16

ANIMAGO AWARD | HUMAN IN MOTION

Auf „Charleston“ tanzt ein Paar diesen Tanz, gecaptured wurde es mit 24O fps.

Die Library ist extrem groß und es hat eine Weile gedauert, Motion-Capture-Daten zu finden, die interessant genug waren, um sie zu zeigen. Eine Menge Zeit ging dabei fürs Herumprobieren drauf. Den ausgewählten Snippet lud ich dann in Poser, wo ich ihn auf einen Standard-Charakter anwendete. Jeder Snippet benötigte etwas Cleaning und Re-Animation, denn die Bone-Struktur der 3D-Charaktere besaß oft unerwartete Versätze oder während der Animation sprangen die Keys hin und her. Die Snippets lud ich danach in Houdini und kreierte die digitalen 3DSkulpturen mit dem oben beschriebenen

animagoAWARD

Prozess, die ich mit Mantra renderte. Das Rendering eines Bildes dauerte ungefähr zwei Tage – in erster Linie wegen des HighResolution-Meshs, den Render Settings und der Verwendung meiner privaten Hardware.

»Die Farben sollten sich der Bewegung entsprechend verändern.«

schlossen haben, seien Sie 2016 beim großen 20-jährigen animago-AWARD-Jubiläum dabei! Ab sofort können wieder Beiträge unter www.animago.com eingereicht werden. › mf

Links Bvhacker Tool i davedub.co.uk/bvhacker

Andreas Vrhovsek Lead Effects Technical Director, Method Studios

Graphics Lab Motion Capture Database i mocap.cs.cmu.edu

Die Render habe ich dann für das Printing in Lightroom optimiert und angepasst.

Andreas Vrhovseks Webseite i www.vfxcreation.com

Falls Sie auch ein tolles Projekt aktuell abge-

135


Funded by:

VISUAL EFFECTS

VISUALIZATION

Bilder: Ulf Büschleb

3D ANIMATION & STILL

So war’s beim animago 2015 Minions, Popcorn, Drachen, Limousinen, blaue Eichhörnchen kombiniert mit viel VFX- und 3D-Animationstechnik und -unterhaltung – die animago AWARD & CONFERENCE 2O15 am 15. und 16. Oktober ließ wirklich nichts vermissen. Hier die von Mirja Fürst Highlights im Überblick.

A

n erster Stelle sind hier natürlich die Key-Vorträge am Donnerstag von Pixar-Story-Artist Matthew Luhn und Freitag von Illumination Mac Guff Director Kyle Balda zu nennen. Zu Baldas Vortrag reisten mit Unterstützung der Eltern sogar die kleinsten Fans nach Potsdam-Babelsberg in die Metropolis Halle, um den „Minions“Vortrag zu erleben. Heiß umkämpft von den animago-Besuchern als Erinnerungs-Goodie waren vor allem unsere aufgehängten Poster mit dem „Minions“-Cover der Digital Production 05:2015, auch weil Balda vor und nach seinem Vortrag im Gastro-Bereich zahlreiche Minions-Gegenstände und -Plakate für die Fans signierte. Der Director verriet uns, dass das Team von Illumination Mac Guff aktuell bereits an „Despicable Me 3“ arbeitet. Bis 2017 müssen wir uns noch gedulden, erst dann wird der neue Minions-Content über die Leinwände flimmern. Matthew Luhn, der während seiner Karriere auch schon an der gelben Lieblingsfamilie „Die Simpsons“ gearbeitet hat, verriet den animago-Besuchern in seinem Vortrag

136

das Geheimnis einer guten Story und erklärte wie im Speziellen Pixar vorgeht, um Geschichten zu entwickeln, die garantiert faszinieren. Aber eigentlich war jeder Vortrag in den zwei Tagen ein Highlight – Speaker von Trixter, The Mill, MPC, Weta Digital, Mikros Image, The Third Floor, Pixomondo, Framestore, Rise, Polynoid, Aixsponza, Mackevision, Sehsucht und Wooga gaben sich die Klinke beziehungsweise das Mikrofon und Speaker-Podest in die Hand. Lighting Supervisor Matthias Menz von Weta Digital legte in seinem Vortrag die Kunst des richtigen Lightings dar, Head of Rigging Laurie Brugger von Framestore hatte den CGBären „Paddington“ und Mikros Image die 3D-Animationsversion von „Asterix“ dabei. VFX-Supervisor Sheldon Stopsack kam sogar in Begleitung der jungen Digitalversion von Arnold Schwarzenegger, den das Studio in einer Arbeit von über einem Jahr für „Terminator: Genisys“ kreiert hatte. Ein Marvel-Superheld, wenn auch ein sehr kleiner, durfte natürlich ebenfalls nicht im Programm

fehlen: VFX-Supervisor Dominik Zimmerle präsentierte, wie Trixter die „Yellow Jacket“Sequenz für „Ant-Man“ erstellte. Extrem gut besucht waren natürlich auch die beiden Vorträge von 3D-Lead-Artist Christian Zilliken (Mackevision) und Animation TD Florian Friedmann (Pixomodo) zu „Game of Thrones“: Zilliken zeigte, wie die Fluid Simulationen für das Projekt entstanden sind, und Friedmann redete über die inzwischen groß gewordenen CG-Drachen der beliebten HBO-Serie. Damit die nationalen und internationalen Kooperationen und

www.animago.com


AUSGABE O1:2O16

ANIMAGO 2O15 | RÜCKBLICK

animago-Team v.l.n.r.: Prof. Thomas Gronert (MD.H), Vanessa Oswald (Event Management), Béla Beier (DP-Redaktion), Jana Freund (animago-Projektleitung), Günter Hagedorn (animago-Organisator und -Juryleitung), Ilka Groenewold (Moderation), Mirja Fürst (DP-Redaktion), Marco Meyer (Freelancer), Carmen Freudenfeld (DP-Marketing).

Bild: Dirk Beichert

Lighting Supervisor Matthias Menz von Weta bei seinem Vortrag: Von den alten Maler-Meistern kann man sich in Sachen Beleuchtung eines Bildes vieles abschauen.

Wie ein Rockstar: Illumination Mac Guff Director Kyle Balda signierte für die Minion-Fans unsere DP-Poster.

animago-Sieger: Alle animago-AWARD-Gewinner des Jahres 2O15

Netzwerke der Medien- und Kreativbranche in der Region Brandenburg gestärkt werden, kooperiert der animago seit drei Jahren mit der ZAB ZukunftsAgentur Brandenburg GmbH. In diesem Jahr waren Finnland und Estland die vom ZAB geladenen Gastländer, die gleich auch als Speaker die animago CONFERENCE bereicherten: Troll VFX mit seinem Bericht über das Mammut-VFX-Projekt „Iron Sky“ und Marko Post von Frost FX mit ästhetischen Flüssigkeitssimulationen. Technik satt kam in diesem Jahr auch wieder nicht zu kurz: Trixter-TD Dennis Albus erklärte den Lighting-, Shading- und Rendering-Workflow mit Houdini und Mantra; von Autodesk-Seite stellte Roland Reyer die Maya Extension 1 und Alex Horst prozedurale Workflows für 3ds Max vor. Glenn Frey zeigte den Cinema 4D Autorigger und CMotion und Dominik Tarolli zusammen mit Simon Schubinger von Esri verdeutlichte die Technik hinter dem 3D-Stadt-Environment San Fransokyo aus „Baymax“. Auf dem Trade Floor erfreuten sich neben den neuesten gezeigten Technologien von

animagoAWARD

Ausstellern wie Wacom, Autodesk, Rebusfarm, Dell oder Esri das von Maxon frisch zubereitete Popcorn großer Beliebtheit – ebenso wie die blauen Eichhörnchen von NEC, die nicht nur sehr flauschig sind, sondern mit deren Bauch sich auch Monitore reinigen lassen. Praktisch, dass NEC auch einen ebensolchen, ein Spectra View Reference 322UHD-Display, auf dem animago verlost hat. So musste das Eichhörnchen des glücklichen Gewinners aus Potsdam nicht alleine in die neue Heimat gehen. In Sachen Live-Kunst zeigte CharakterArtist Joerg Schlonies aka „Joerch“ (www. dojoerch.de) an seinem Stand, wie er einen seiner Fantasy-Charakter am Wacom-Tablet zeichnet. Nils Calles von V-Cut (www.v-cut. net) bot den CONFERENCE-Besuchern während seines Adobe-CC-2015-Vortrags gar ein Gitarren-Solo, abends sorgte er als DJ für die musikalische Untermalung des Get-togethers nach der AWARD-Gala. Apropos Charakter – Wacom veranstaltete auch 2015 wieder das Sketch Battle, in diesem Jahr zu dem Thema „Charakter Design & Animation“. Auf Cintiq Companion 2 Ta-

Matthew Luhn (rechts) von Pixar verriet das Geheimnis einer gelungenen Story.

blets zeichneten jeweils drei Zeichen-Talente gegeneinander in mehreren Durchgängen den eigenen Charakter-Entwurf. Gewinnen konnten die Teilnehmer des Sketch Battles ein Intuos Pro, Intuos Comic sowie ein Intuos Creative Stylus 2 – wer diese Preise erhielt, entschied der Applaus des Publikums. Als Shuttle-Service für die animago-Besucher stellte Audi in diesem Jahr stilgerecht Limousinen des Modells A8 zur Verfügung, die Sitzheizung, Massage-Funktion, MiniMonitore für die Rückbank und vieles mehr eingebaut haben – so konnte auch der hartnäckige Dauerregen vor der Tür der Metropolis Halle an den beiden Tagen dem Spaß keinen Abbruch tun. 2016 feiert der animago einen runden Geburtstag, die DP-Veranstaltung wird 20 Jahre jung. Ab sofort können Sie schon Beiträge unter www.animago.com für eine Teilnahme beim animago AWARD einreichen. Also, seien Sie 2016 dabei! Egal ob als Nominierter, Speaker, CONFERENCE-Besucher oder Aussteller – das animago- und › mf DP-Team freut sich auf Sie.

137


2015 3D ANIMATION & STILL VISUALIZATION VISUAL EFFECTS

animago SPECIAL MAKING-OF How the prizewinners in each category were created

NOMINEES An overview of the projects nominated in each category

BACKSTAGE Speakers, exhibitions, awards gala, animago trailers and more

available on www.animago.com/shop

Presented by

Funded by

animagoAWARD www.animago.com Images: animago AWARD & CONFERENCE 2014

Sponsored by


GESCHENKABO

VERSCHENKEN SIE DAS DIGITAL PRODUCTION JAHRESABO ZU WEIHNACHTEN

www.digitalproduction.com/geschenkabo Ihre Service-Hotline

T: +49(0)61 23 92 38-2 13

F: +49(0)61 23 92 38-2 14

E: order@digitalproduction.com



Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.