10 Jahre

Animierter Imagefilm

3D und der Gedanke an den realistischen Chromball

Fotorealistische Umgebungen, Charaktere und Gegenstände. An Perfektion grenzende Simulationen von Rauch, Wasser, Feuer und sich physikalisch korrekt verhaltende Objekte. Glänzende Oberflächen, viel Chrom und immer etwas unpersönlich und kalt.

Dies sind alles Eindrücke, die viele noch immer von Gestaltung in 3D haben. Keine Frage, sind alle genannten Dinge möglich – sie stellen aber nur einen Bruchteil der Möglichkeiten dar, die bei der Gestaltung in 3D zur Verfügung stehen.

Alte Hasen im 3D-Bereich werden nun sicherlich gelangweilt mit den Augen rollen, da ihnen dies klar ist. Aber für viele andere ist der Gedanke, dass man mit 3D nicht nur fotorealistisch, sondern abstrakt, ja, sogar künstlerisch arbeiten kann, vollkommen neu.

Viele Arbeiten im Bereich 3D lassen sich sehr schnell genau diesem Medium zuordnen. Man sieht einfach, dass sie einem 3D-Programm entstammen. Das ist weder positiv, noch negativ. Sie haben einfach einen gewissen “look”.

Wenn man diesen “look” nicht haben möchten, gibt es zwei Möglichkeiten. Entweder man schafft es, seine Renderings absolut realistisch aussehen zu lassen, so dass der Betrachter nicht auf den Gedanken kommt, dass es sich um 3D handelt (gut gemachte Architekturvisualisierungen sind hierfür ein Beispiel), oder man kehrt dem Fotorealismus den Rücken zu und beschäftigt sich mit dem Bereich des “NPR”, was soviel heißt wie “Non Photorealistic Rendering”, also “Nicht Fotorealistisches Rendering”.


Was ist überhaupt Rendering?

Da es sich beim Thema Rendering um ein recht komplexes Thema handelt, werde ich in diesem Beitrag gewisse Konzepte und Herangehensweisen vereinfacht darstellen. Grundsätzlich beschreibt man mit dem Wort “Rendern” das Erzeugen von einem Bild bzw. einem Ergebnis aus Rohdaten. Diese Rohdaten können z.B. 3D-Modelle in einem 3D-Programm sein, die dort mit einer virtuellen Kamera betrachtet werden. Mit dieser virtuellen Kamera ist es dann möglich, im übertragenen Sinn gesprochen, ein “Foto” von dem 3D-Objekt zu machen. Dieses erzeugte Bild kann dann in einem herkömmlichen Dateiformat, wie z.B. jpg, png o.ä. gespeichert werden. 

In Realität gehört allerdings deutlich mehr dazu ein Bild zu Rendern, als den Auslöser einer virtuellen Kamera zu betätigen. In der Szene des 3D-Programms existiert nämlich zunächst nichts. Kein Licht, keine Atmosphäre, keine Materialien, keine Umgebung. Dies sind alles Dinge, die manuell gestaltet und konfiguriert werden müssen.

Wenn dies nun geschehen ist, muss man noch verschiedene Einstellungen im Renderer selbst tätigen. Hier entscheidet man z.B. über die Auflösung des finalen Bildes (des “Fotos” der virtuellen Kamera), das Verhalten des simulierten Lichts in der 3D-Szene und noch vieles mehr. Das anschließende Klicken auf “Rendern” entspricht nun dem drücken des Auslösers einer Kamera. Je nach Komplexität der Szene benötigt das Rendern nun eine gewisse Zeit. Dies kann der Bruchteil einer Sekunde bis zu mehreren Stunden (oder noch mehr) Renderzeit pro Bild sein. Das Ergebnis kann dann durchaus von einer Fotografie nicht mehr zu unterscheiden sein.

Ein Bild wird gerendert. Die Renderzeit für dieses Bild betrug ca. 60 Sekunden

Doch wie schon angedeutet, befassen wir uns in diesem Beitrag nicht mit dem Thema Fotorealismus, sondern mit “Non Photorealistic Rendering”. Dies vereinfacht einige Dinge und kompliziert andere.

Viele moderne Renderer sind nämlich auf Fotorealismus ausgelegt. Zum Beispiel simulieren sie Licht nahezu perfekt, erzeugen präzise Licht-Schatten-Verläufe und brechen das Licht, welches durch lichtdurchlässige Materialien strahlt. Wenn man aber genau dies nicht möchte, muss man den Renderer oft speziell konfigurieren, oder für gewünschte Ergebnisse sogar zu einem anderen Renderer wechseln. Im Fall unseres animierten Imagefilms haben wir die 3D-Elemente mit dem in blender enthaltenem Renderer “EEVEE” gerendert. Dies ist eine sogenannte Echtzeit-Render-Engine. Dies bedeutet, dass das Rendern der Bilder in (nahezu) Echtzeit geschieht. Solche Render-Engines werden z.B. auch in Computerspielen eingesetzt und sind durchaus in der Lage (nahezu) fotorealistische Bilder zu erzeugen. Da Echtzeit-Render-Engines aber darauf ausgelegt sind, möglichst schnell die Bilder zu erzeugen, kann bei gewissen Bereichen der Bilderzeugung “getrickst” werden. So ist es hier recht einfach möglich, ein stilisiertes Setup aufzubauen, welches z.B. ohne reflektiertes Licht oder ohne weiche Schattenkanten arbeitet. Und das ist in unserem Fall genau das, was wir wollen. Nun sind wir in der Lage, stilisierte, nicht fotorealistische Bilder zu rendern. Doch um das bestmögliche Ergebnis zu erzielen, müssen auch alle weiteren Teile des Gestaltungsprozesses so angelegt werden, dass sich ein schlüssiges Gesamtbild ergibt.


Modellieren

Neben der technischen Herangehensweise ist auch das Verhältnis von 3D Modellen und dem zugrundeliegenden visuellen Stil enorm wichtig. Es macht im Fall unseres animierten Imagefilms z.B. keinen Sinn ein Raumschiff mit extrem vielen und feinen Details zu modellieren, welches dann in eine eher von Farbflächen dominierte und stilisierte Welt eingesetzt wird. Dieser Bruch aus verschiedenen Detailgraden würde sofort auffallen und den Betrachter irritieren. Die zu erstellenden 3D Modelle mussten also vom Detailgrad zu den Illustrationen passen.

Ansicht der Rakete im 3D-Programm. Der Detailgrad passt zu den 2D-Illustrationen

Die Illustrationen sind in den meisten Fällen nur leicht schattiert, oder kommen sogar ohne Schattierung aus. Dies sollte auch bei den 3D-Elementen so sein. Die Tiefe und Form der Elemente und Szenen sollte durch Kamerabewegungen, Liniengebung und zu gewissem Maße auch durch Schattierungen erreicht werden.


Materialien

In 3D nutzt man üblicherweise nicht einfach nur eine Farbe für ein Objekt, sondern man nutzt ein Material (einen sogenannten Shader). Dieses Material bietet verschiedene Einstellungsmöglichkeiten, wie z.B. Rauhheit der Oberfläche, Grundfarbe, Lichtdurchlässigkeit, Brechungsindex und noch viele weitere. Das Material wird dann einem 3D Objekt zugewiesen und bewirkt, dass die Oberfläche (und/ oder das Volumen) des Objekts auf eine bestimmte Weise mit dem Licht “interagiert”.

Anpassen der Oberflächenrauheit bei einer Kugel

So hätte z.B. Autolack eine geringe Oberflächenrauhheit, Kreide dagegen eine hohe. Autolack würde also das Licht eher reflektieren wie ein Spiegel, Kreide würde das auftreffende Licht eher streuen. Auch im Fall des animierten Imagefilms arbeiten wir mit Materialien. Diese sind allerdings weitaus simpler, und nutzen nur den Farbaspekt des Materials. Wir möchten also nur abbilden welcher Bereich des 3D-Objekts direkt von Licht getroffen wird und welcher nicht.


Der Szenenaufbau

Die 3D-Modelle sind alle erstellt, das Konzept für die Szene ebenso. Nun müssen die Elemente ansprechend im Raum platziert, animiert und “gefilmt” werden. Und der Raum, in dem sie sich befinden, muss auch gestaltet werden. Denn wie bereits angemerkt, befindet sich in einer 3D-Szene zunächst nichts. Weder Licht, noch eine Umgebung. Im Fall unseres Videos spielen die meisten 3D-Szene im Außenbereich. Daher beginnen wir mit dem Erstellen einer Lichtquelle. Diese Lichtquelle ist eine sogenannte Sonnenlichtquelle, oder auch parallele Lichtquelle genannt. Diese Lichtquelle sendet parallel laufende Lichtstrahlen durch die Szene und simuliert damit eine sehr weit entfernt liegende, sehr starke Lichtquelle. Diese Lichtquelle ist zudem klein und erzeugt dadurch harte Kanten zwischen direkt beleuchteten und nicht beleuchteten Bereichen. Die Farben der beleuchteten und nicht beleuchteten Bereichen eines Objekts können wir nun über das bereits genannte Material nach unseren Wünschen gestalten.

 Kontrolle der Schattierung auf einer Kugel

Als nächstes erstellen wir eine Umgebung. Im Fall der startenden Rakete haben wir die Umgebung mit einem Farbverlauf versehen, der den Himmel repräsentiert. Auch hier haben wir darauf geachtet, dass die Farbgebung der gesamten Szene harmonisch ist.

Um die vorhandenen 3D-Modelle in der Umgebung nun zu zeigen, wird eine Kamera in die Szene eingefügt. Bei dieser können wir, wie auch bei einer echten Kamera, Brennweite, Blende, Verschlusszeit und noch viel mehr einstellen. Da wir aber in unserem Fall eine bestimmte Art der Darstellung erreichen möchten, orientieren wir uns am Aussehen von klassischem Zeichentrick. Dadurch können wir Dinge, wie das Einstellen der Blende außer Acht lassen, da in den Szenen alles scharf abgebildet sein wird. 

Die relevanten Szeneninhalte können nun also mit der Kamera komponiert werden und durch z.B. zusätzliche Kamerabewegungen so dargestellt werden, dass ein möglichst dynamischer Gesamteindruck entsteht.

Und nun, endlich, steht der begehrte Klick auf “Rendern” an, nach dem man sich das Ergebnis seiner Arbeit anschauen kann und sofort mit allem zu 100% zufrieden ist. Nein? Okay, das war wohl gelogen. In den meisten Fällen rendert man mehr als einmal, da gewisse Dinge noch nicht ganz zusammenpassen, kleine Fehler auffallen oder sich das Konzept der Szene im Produktionsprozess etwas geändert hat. Dies kann man bei extrem aufwendigen und lange dauernden Renderings durch das Erstellen von Vorschaurenderings umgehen. Da wir aber mit einem Echtzeitrenderer arbeiten, ging das Rendern so schnell, dass wir problemlos eine bereits gerenderte Szene nach leichten Anpassungen nochmals rendern konnten.


Wie geht es weiter?

Dieser Beitrag gibt euch einen Einblick in die Gestaltung und Umsetzung unseres animierten Imagefilms. Es werden noch weitere Beiträge erscheinen, die sich mit anderen Aspekten dieses Videos beschäftigen. In einem nächsten Beitrag werde ich z.B. auf das Thema Compositing eingehen, wie man also verschiedene Elemente (2D und 3D Elemente in unserem Fall) nahtlos zusammenfügt.

Tobi Fröhlich

vt.releipsthcil@ibot
0221 165 312 52