Barbara Flückiger Visual Effects ZÜRCHER FILMSTUDIEN HERAUSGEGEBEN VON CHRISTINE N. BRINCKMANN BAND 18 BARBARA FLÜCKIGER VISUAL EFFECTS FILMBILDER AUS DEM COMPUTER Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Die Forschungsarbeiten für diese Studie und die vorliegende Publikation wurden unterstützt vom Schweizerischen Nationalfonds zur Förderung der wissenschaftlichen Forschung. Schüren Verlag GmbH Universitätsstr. 55 | D-35037 Marburg www.schueren-verlag.de © 2008 2., überarbeitete Auflage 2023 Alle Rechte vorbehalten Gestaltung: Erik Schüßler Umschlaggestaltung: Bringolf Irion Vögeli GmbH, Zürich ISBN: 978-3-7410-0228-1 (OA) ISBN: 978-3-89472-518-1 (Print) ISSN: 1867-3708 DOI: 10.23799/9783741002281 Das vorliegende Werk steht unter einer Creative Commons CC BY-NC-ND 3.0-Lizenz. Sie dürfen das Werk für nichtkommerzielle Zwecke vervielfältigen, verbreiten und öffentlich zugänglich machen. Sie müssen dabei den Namen des Autors nennen. Das Werk darf nur bearbeitet oder in anderer Weise verändert werden, wenn Sie es nicht verbreiten. Eine Zusammenfassung der Lizenz und den Lizenztext finden Sie unter https://creativecommons.org/licenses/by- nc- nd/3.0/deed.de. Inhaltsverzeichnis Dank 9 Einleitung 13 Zielsetzung und methodische Vorgehensweise 16 Definition 22 Theoretische Grundlagen 25 Digitale Bilder: Eigenschaften 31 Spielformen des digitalen Bildes 31 Binäre Codierung und Quantisierung 33 Materialität 41 Zur Frage des Generationenverlusts 45 Universalität 47 Modellieren 51 Grundlagen der Modellbildung 51 Mensch/Computer-Interfaces 52 Modellieren in 3D 56 3D-Scanning 62 Prozedurales Modellieren 65 Bildbasiertes Modellieren 70 Oberflächen und Materialien 78 Texturing 80 Displacement und Bump Maps 85 Shader und Shading-Modelle 88 BRDF 90 Shading-Modelle 93 Weitere Materialeigenschaften 97 Glanz-Maps 98 Anisotrope Materialien 98 Transparenz 98 Fresnel-Effekt 100 Transluzenz 100 Volumen-Shader 102 6 Inhaltsverzeichnis Animation 105 Von der klassischen Animation zur frühen Computeranimation 107 Grundlagen der Animation 119 Keyframe-Animation 119 Skelette und Muskeln 122 Forward und Inverse Kinematik 123 Kollisionsvermeidung 124 Character Animation 124 Animation der Kamera 130 Prozedurale Animation 131 Partikel-Animation 132 Flocking-Systeme 136 Artificial Life 139 Physikalisch-basierte Animationen 141 Motion Capture 145 Beleuchtung und Rendern 154 Beleuchtung 154 Lichttypen 156 Lichtschema 159 Lichtanimation 163 Bildbasierte Beleuchtung 164 Rendern 167 Kamera- und Bildparameter 169 Render-Verfahren 172 Lokale und globale Beleuchtungsmodelle 177 Raytracing 180 Photon Mapping 185 Radiosity 186 Hybride Verfahren und Multipass-Rendering 189 Compositing 191 Layers/Mattes 206 Travelling Mattes 207 Rotoskopieren und Retuschen 215 Der Alpha-Kanal 221 Warping, 2.5D und Tiefeninformation 223 Fallstudien Layering 226 Interaktion 232 Previz 234 Inhaltsverzeichnis 7 Raum- und Bewegungsanpassung: Motion Control und Tracking 239 Berührungen, Blicke, physische Interaktion, Konsequenzen 249 Ästhetische Kohärenz 256 Farbe, Kontrast und Licht 257 Schärfe 265 Reflexionen 269 Schatten 273 Abbildung 275 Simulation 276 Filmische Fiktion 282 Aufzeichnung und Modellbildung, Malen und Messen 289 Aufzeichnung 292 Modellbildung 312 Analoge Artefakte 334 Korn 342 Motion Blur 345 Diffusion, Lens Flares, optische Verzeichnung 350 Rauschen, Zusammenbruch des Signals 354 Dimensionen und Schichten 357 Sichtbarkeit/Unsichtbarkeit 358 Magie und magische Erscheinungen 368 Rides und das geistige Auge 379 Rahmungen und Mise-en-Abyme 394 Formen und erzählerische Funktionen 404 Körper 417 Digitale Figuren 422 Historischer Überblick 422 Grundsätzliche Probleme digitaler Figurenkonstruktion 432 Technische Verfahren der Figurenkonstruktion 436 Form 1: Modellieren in 3D 437 Form 2: 3D-Scanning 438 Form 3: Bildbasiertes Modellieren 438 Haut 440 Körperanimation 1: Keyframe-Animation 443 Körperanimation 2: Motion Capture 444 Körperanimation 3: Rotoskopieren 445 8 Inhaltsverzeichnis Gesichtsanimation 1: Keyframe-Animation 445 Gesichtsanimation 2: Facial Motion Capture 448 Gesichtsanimation 3: Rotoskopieren 451 Von der Fallstudie Gollum zu grundsätzlichen Überlegungen 451 Das Superheldenproblem 462 Schlusswort 468 Literaturverzeichnis 475 Korpus 502 Glossar und Index 505 Filmregister 525 Abbildungsverzeichnis 529 Dank Ohne die großzügige Unterstützung durch den Schweizerischen National- fonds wäre diese Studie nicht möglich gewesen. Für diese Förderung bin ich sehr dankbar. Mein Dank gilt weiter drei Filmwissenschaftlerinnen, die in unter- schiedlicher, je substanzieller Weise das vorliegende Projekt unterstützt und gefördert haben: Frau Prof. Dr. Christine N. Brinckmann, die mich schon während des Studiums und später als Doktormutter didaktisch be- gleitet, mir entscheidende Impulse gegeben und schließlich als Herausge- berin der Zürcher Filmstudien den Redaktionsprozess sorgfältig und kom- petent unterstützt hat; Frau Prof. Dr. Margrit Tröhler, die meinem Projekt am Seminar für Filmwissenschaft der Universität Zürich ein förderliches Umfeld und viel unmittelbare Unterstützung zur Verfügung gestellt hat; schließlich Frau Prof. Dr. Gertrud Koch, die mit großem persönlichem En- gagement mein Habilitationsverfahren an der Freien Universität Berlin bis hin zum erfolgreichen Abschluss begleitet hat. Ebenfalls danken möchte ich Prof. Dr. Vinzenz Hediger und Prof. Dr. Herrmann Kappelhoff, die mit ihren konstruktiven Gutachten zum Gelingen dieses Verfahrens beigetra- gen haben. Sehr viele Grundlageninformationen für die vorliegende Studie konnte ich zuvor im Forschungsprojekt Digitales Kino der Hochschule für Gestaltung und Kunst in Zürich sammeln. Für essenzielle Einsichten in die Eigenschaften und Funktionen des digitalen Bildes bin ich dem Kamera- mann und Erfinder Patrick Lindenmaier zu besonderem Dank verpflichtet sowie dem Team des Imaging & Media Lab der Universität Basel, vor allem Prof. Dr. Rudolf Gschwind. Auf dieser Basis aufbauend, folgten die fachspezifischen Informatio- nen zu computergenerierten Bildern. In dieses Gebiet eingeführt hat mich mit seinem umfassenden Wissen zunächst Prof. Thomas Haegele, der Leiter des Instituts für Animation und Visual Effects an der Filmakademie Baden-Württemberg in Ludwigsburg. Sein unverzichtbarer Input hat mir die Türen in dieses faszinierende Gebiet geöffnet. Dazu gehört auch die von ihm geleitete Tagung fmx in Stuttgart, die mir wesentliche Einsichten ermöglicht hat und an der ich Kontakte zu weltweit führenden Spezia- listen knüpfen konnte; besonders zu erwähnen sind Alex McDowell und Alex Laurant. Ebenfalls bedanken möchte ich mich für die vielen Mails mit Informationen, die mir Frau Gerlinde Bergert vom Animationsinstitut in 10 Dank Ludwigsburg geschickt hat. Vor allem aber war es Volker Helzle, Re search & Development Supervisor, ebenfalls in Ludwigsburg, der mir immer wieder mit fundierten Sachinformationen beistand und mir schließlich als Fachlektor des Kapitels Animation wertvolle Hinweise gegeben hat. Eben- falls danken möchte ich Andreas Krein, Regisseur und Compositing Artist, der das Kapitel Compositing akribisch geprüft und mit seiner fundierten Erfahrung bereichert hat. Sehr viel zu verdanken habe ich weiter Herrn Ludwig von Reiche, COO der Firma Mental Images in Berlin, sowie Herrn Thomas Driemeyer, Chefentwickler bei Mental Images, die mir immer wieder mit Rat und Tat zur Verfügung standen und wiederholt wesentliches Feedback gegeben haben. Außerdem war Herr Driemeyer auch als Fachlektor tätig und hat die Kapitel Oberflächen und Materialien sowie Beleuchtung und Rendern in- haltlich geprüft. Als Fachlektoren für das Kapitel Modellieren waren Jürgen Hagler und PD Dr. Michael Haller tätig. Auch ihnen möchte ich herzlich danken. Viele Personen und Institutionen haben mir großzügig Bildmaterial zur Verfügung gestellt; hervorzuheben sind besonders Ron Brinkmann, Richard Rickitt, Jeremy Engleman, Andreas Krein sowie die Kunstuniver- sität Linz und die Firma Gretag Macbeth. Weiter erwerbe ich schon seit Jahren wichtige Bausteine meiner For- schungstätigkeit im Austausch mit Villoe Huszai und Oliver Marchart, die mich während meiner Tätigkeit an der Universität Basel kollegial und loyal begleitet haben, sowie den Kolleginnen und Kollegen am Seminar für Filmwissenschaft in Zürich. Hier sind besonders Simon Spiegel und der Studierende Manuel Joller zu erwähnen, die mein Manuskript kritisch geprüft haben, sowie Dominik Marosi aus Basel, der mir neuste Informa- tionen zu Computerspielen gegeben hat. Ihnen allen gebührt mein Dank. Nun braucht es zum Gelingen eines solch arbeits- und zeitintensiven Unterfangens nicht nur fachliche, sondern auch persönliche Unterstüt- zung. Dafür möchte ich mich zunächst und ganz besonders bei meinen Geschwistern, Marianne und Dani, sowie bei meiner Mutter bedanken. Dies gilt vor allem für die lange Zeit der Krankheit meines Vaters, der sich über den Abschluss dieser Arbeit sehr gefreut hätte. Mein Bruder Dani hat mir darüber hinaus seine hochwertige Büroinfrastruktur zur Verfügung gestellt. Außerdem möchte ich mich für das anhaltende Interesse und die Anteilnahme bei meinen Schwiegereltern sowie bei Kirsten und Achim be- danken. Wiederum waren mir meine Freundinnen Dorothee Schön, Esther Schneider und Pia Horlacher wichtige Stützen und mit ihrer je eigenen Art und Weise, den alltäglichen Wahnsinn zu bewältigen, unentbehrliche Vorbilder. Bei Gertraud und Herbert Wolf möchte ich mich für ihre unver- Dank 11 gessliche Gastfreundschaft bedanken. Reinhard Zschoche war nicht nur ein anregender Gesprächspartner, sondern hat auch viele Infografiken erstellt und meine Datenbanken überprüft und erweitert. Einmal mehr haben mein Mann Lutz und meine Tochter Silvana den größten und schwierigsten Beitrag zum Gelingen geleistet: Lutz mit dem anregenden Dialog, den er seit mehr als zwei Jahrzehnten mit mir führt, mit der sorgfältigen Lektüre des Manuskripts, nützlichen dramaturgi- schen Hinweisen zur Gliederung sowie nicht zuletzt mit seiner verläss- lichen Präsenz im Alltag; Silvana, die mich mit ihrer ungeheuren Energie und Selbstständigkeit in vielem entlastet, aber auch immer wieder daran erinnert hat, dass es auch ein Leben außerhalb der Forschung gibt. Ihnen ist dieses Buch gewidmet. Einleitung Am computergenerierten Bild und seinen kulturellen Folgen scheiden sich die Geister. Während ein jugendliches Kinopublikum solche Bilder frene- tisch feiert, herrscht in anderen Teilen der Gesellschaft eine eher pessimis- tische Haltung gegenüber dem technisch verfassten Massenphänomen. Ist der Computer ein kalter, berechnender Apparat, der an die Stelle von Menschen tritt und dem Film seine einstmals analoge Seele raubt? Äh- nelt – etwas überspitzt formuliert – die Funktion des computergenerierten Bildes einer Szene in Wag the Dog (USA 1997, Barry Levinson), in der sich die Tätigkeit des Regisseurs darauf reduziert, auf irgendwelche Tasten zu drücken, vorgefertigte Katzen, Kriegsschauplätze und isolierte, vor blauen Leinwänden sinnlos agierende Schauspieler zusammenzufügen, um da- mit das Publikum zu täuschen? Im Gefolge von William J. Mitchells einflussreicher Publikation The Reconfigured Eye (1992) sieht sich die Theorie einer postfotografischen Ära gegenüber und damit dem Untergang des dokumentierenden Status foto- chemischer Bilder, die zumindest in jenem Sinn wahr sein sollen, als sie etwas abbilden, das – wie Roland Barthes (1980: 87) sagt – einmal gewesen ist. Nun bedauert man das Verschwinden jenes Merkmals der Fotografie, das bei ihrem Erscheinen die größte Skepsis ausgelöst hatte, nämlich das angeblich kunstlose Anhaften an einen Referenten, ihre mechanische Abbildungsfunktion. Es wird befürchtet, dass das Kino im Gefolge einer automatisierten Produktion mit Computern und deren grenzenlosen Möglichkeiten mehr und mehr zum hirnlosen Spektakel mutieren und seine erzählerische Funktion aufgeben könnte. Zudem gelten Special Effects oder Tricks, wie sie früher genannt wur- den, seit je als marginale Erscheinung der Filmkunst. Mit ihrem Ursprung 1–2 Zusammenfügen der Elemente (links) und Fernsehsendung (rechts) in Wag the Dog 14 Einleitung im Theater und dort besonders in den populären Formen des Vaudeville und Varieté, wo mechanische und pyrotechnische Tricks schon seit langem zum Einsatz kamen, wurden sie als ein unreines, einzig der sensorischen Attraktion verpflichtetes Element angesehen, eine Ansicht, die Andrew Niccol ironisch in einem «dokumentarischen» Statement der virtuellen Figur S1m0ne (S1m0ne, USA 2002) persifliert. Special Effects hatten einen zweifelhaften Ruf, denn sie stammten aus den Küchen von Bastlern, Autodidakten, Feuerwerkern, nicht aber von Künstlern. Diese Herkunft haftet ihnen bis in die jüngste Vergangenheit an: Ridley Scott – like many other directors – chafes even at the thought that his work might be labeled as an effects film, as though its only function were that of providing a show case for visual pyrotechnics: ‹[…] effects movies – in the Fifties and Sixties – were always somehow slightly tainted […]. They were kind of grouped together with sex movies and things like that.›1 (cinefex 9: 71) Gerade weil Special und Visual Effects ursprüngliche Grenzen der filmi- schen Technologie überschreiten und insbesondere klassische Konzeptio- nen über den indexikalischen Charakter des Films bedrohen, wie sie unter anderem prominent von André Bazin vertreten wurden, beinhaltet die Beschäftigung mit Special Effects auch eine Reflexion über das ureigene Wesen des Films. Metaphorisch ließe sich sagen, dass sich digitale Visual Effects zu analoger Filmumgebung ähnlich verhalten wie der viel zitierte Cyborg zum Menschen. Dieses hybride Mensch-Maschinen-Wesen regt nicht nur in der populären Science-Fiction-Kultur, sondern auch in deren theoretischer Reflexion zum Nachdenken über die Conditio humana an, weil es sich vom natürlichen Menschen unterscheidet. Um dieser verwirrend unklaren, hybriden Situation zu entgehen, hat sich der Versuch etabliert, mit den Brüdern Lumière auf der einen und Georges Méliès auf der anderen Seite die filmischen Werke einer historisch gewachsenen Dichotomie zuzuordnen: hier das Dokumentarische, dort das Fantastische. Manchmal wird sie noch erweitert durch eine dritte Li- nie, vertreten durch Edwin S. Porter – eine Linie, welche die Special Effects naturalisiert und ihre Herkunft unterdrückt, sie also unsichtbar macht. Als Übergangsmodelle mögen solche Zuordnungen von einigem Nutzen sein, 1 «Wie viele andere Regisseure ist Ridley Scott schon beim bloßen Gedanken irritiert, dass sein Werk als Special-Effects-Film bezeichnet werden könnte – als ob es keine andere Funktion zu erfüllen hätte, als die optische Pyrotechnik auszustellen: ‹Special- Effects-Filme galten in den 1950er- und 1960er-Jahren als leicht anrüchig, als gehörten sie in dieselbe Kategorie wie Sexfilme und dergleichen.›» Einleitung 15 aber es zeigt sich schnell, dass dies e Linien keineswegs so deutlich sind, wie man es sich als Forsche- rin wünschen würde. Bei genauem Hinsehen weisen sie von Anfang an einige Brüche auf. Es ist deshalb kein Zufall, sondern äußerst symp- tomatisch, wenn beispielsweise Friedrich Kittler (2002: 228) die erste Zeitmanipulation der Film- geschichte in Charcutérie méca- nique (F 1895) fälschlich Méliès zuordnet statt den Lumières, die diesen Film gedreht haben. Auch andere Mythen der Special-Effects- Geschichte – so Méliès’ Erzählung von der Entstehung des Stopp- Tricks – werden bei genauem Hin- sehen entlarvt, denn dieser Trick wurde von Edison schon 1895 in The Execution of Mary, Queen of Scots (USA) an gewandt. Eine kohärente, alle Techniken 3–5 Interview mit S1m0ne und Phänomene der Visual Effects umfassende Theorie hat es bisher nicht gegeben, und sie ist auch nicht zu erwarten. Denn alles kann zur Visual-Effects-Technik werden – ist nicht sogar das Kino an sich ein einziger großer Special Effect, wie Metz (1971: 187) behauptet hat? In der gegenwärtigen Diskussion – so scheint es – beherrschen Ge- gensätze und Generalisierungen die Beschäftigung mit dem Status des digitalen Bildes. Im deutschsprachigen Raum dominieren die ethischen Fragen, welche die sogenannt unsichtbaren Eingriffe in eine als natürlich gewertete fotografische Abbildung aufwerfen. Leider dominiert dieser Diskussionspunkt die Debatte in einem Maß, das besonders in Hinblick auf die Produktion der fiktionalen Welten im Spielfilm nicht gerechtfertigt ist, in welchen sich eigene Regeln ausgebildet haben. Denn im fiktionalen Kontext müssen andere Kriterien ins Spiel gebracht werden, mit denen sich die spezifisch ästhetischen und narrativen Folgeerscheinungen die- ses Umbruchs aus filmtheoretischer Perspektive unter die Lupe nehmen lassen. 16 Einleitung Zielsetzung und methodische Vorgehensweise Die vorliegende Arbeit fokussiert deshalb auf die bisher vernachlässigten Aspekte. Dabei untersuche ich die technischen Grundlagen der 3D-Model- lierung und Animation, ihre Entwicklung und Praxis und diskutiere ihre Differenz zu herkömmlichen Methoden der filmischen Abbildungsverfah- ren. Die Compositing-Techniken, die analoges und digitales Bildmaterial kombinieren, bringen eine Reihe von bisher ungeklärten Fragestellungen mit sich, die einerseits in der Sichtbarkeits-/Unsichtbarkeitsdebatte ange- siedelt sind, andererseits auch grundlegende Fragen zu Gemeinsamkei- ten und Unterschieden der beiden Verfahren zur Bildaufzeichnung und -bearbeit ung aufwerfen. Ästhetische Konsequenzen des Zusammenpralls von Korn und Pixel, von additiven und subtraktiven Farbsystemen, von konventioneller Foto- grafie und mathematisch-naturwissenschaftlichen Modellierungsalgorith- men analysiere ich auf der Folie von wahrnehmungspsychologischen Er- kenntnissen und abbildungstheoretischen Überlegungen. Ebenso wichtig für diesen Aspekt wird die filmhistorische Perspektive sein, hat doch im Lauf der Geschichte eine Reihe von Konventionen die Erwartungen des medienkundigen Publikums konditioniert. Es wird zu untersuchen sein, inwiefern das computergenerierte Bild eine Veränderung der ästhetischen Standards bedingt und wo es sich den kulturellen Codes unterwirft, die von einem Jahrhundert analoger Filmgeschichte bereits definiert worden sind. Mit Frank Beau (2001: 200 f.) bezeichne ich meine Herangehensweise als technobol,2 als ein Kreisen um die Technik, auch wenn Beau gleich war- nend hinzufügt, dass der Technobole «va jouer le rôle de l’idiot de service. Il devra accepter de porter le bonnet d’âne en tentant de prendre à bras le corps de la question de la technique, dont pour lui, l’essence ne serait pas la technique.»3 Denn zu Recht kritisiert Beau den tiefen Graben, der sich zwischen Praxis und Theorie, Technik und Ästhetik, Geistes- und Natur- wissenschaften auftut und auch in der (französischen) Filmwissenschaft sichtbar wird, die sich wenig den technischen Fragestellungen im enge- ren Sinne widmet. Diese bedauerliche Entwicklung ist nicht nur auf das 2 «Le technobole serait en quelque sorte un discobole de la question de la technique, la faisant tourner plusieurs fois sur elle-même, pour la projeter en dehors des filets […]. [Der Technobole ist so etwas wie ein Diskuswerfer der Technik. Er lässt sie mehrfach um sich selbst kreisen, bevor er sie aus dem ihn umgebenden Gitter hinausproji- ziert.]» 3 … «der Trottel vom Dienst sein wird. Er wird die Narrenkappe akzeptieren müssen, wenn er versucht, sich intensiv mit der Technik zu befassen, obwohl die Technik für ihn nicht im Zentrum des Interesses steht.» Zielsetzung und methodische Vorgehensweise 17 allgemeine Schisma in den Wissenschaften zurückzuführen, das mit der Aufklärung im 18. Jahrhundert einsetzte (vgl. Stafford 1991: 35), sondern auch auf einen romantischen Kunstbegriff, wie er sich speziell in der Auto- rentheorie manifestiert, in welcher ein omnipotenter Schöpfer waltet, eine zentrale kreative Instanz, neben der alle anderen am Produktionsprozess beteiligten Spezialisten zu gesichtslosen Nebenfiguren verblassen.4 Natürlich wäre es vermessen, mit einer einzigen Arbeit ein solch schwer wiegendes Erbe abschütteln zu wollen. Dennoch ist aus meiner Sicht der interdisziplinäre Zugang zur Materie zumindest ein Horizont, den es anzusteuern gilt. Obwohl in den Geisteswissenschaften verwur- zelt, bin ich auch von meiner jahrelangen filmtechnischen Tätigkeit geprägt, und naturwissenschaftliche Fragestellungen haben mich seit je nicht nur beschäftigt, sondern auch fasziniert. Nun gelten solche interdis- ziplinären Herangehensweisen schnell als suspekt, siehe Beaus Bemer- kung. Der Geisteswissenschaftler findet die minutiöse Beschreibung von Techniken ermüdend und unnötig; auf mathematische Formeln reagiert er genauso allergisch wie der Techniker oder der Naturwissenschaftler auf blumige, ausgreifende Formulierungen, die ihm als unnützes Ge- schwätz erscheinen. In dieser angespannten Lage entscheide ich mich also für die Geistes- wissenschaften und werfe aus dieser Perspektive einen Blick in das Innere des computergenerierten Bildes und der heute üblichen analog-digitalen Hybridformen, ohne den Anspruch zu verfolgen, diese Darstellungen auch so zu formulieren, dass sie den mathematisch-naturwissenschaftli- chen Standards technischer Publikationen entsprechen. Vielmehr verstehe ich mich als Übersetzerin des einen Denkens ins andere, um mit einem interdisziplinären Instrumentarium die Auswirkungen technologischer Entwicklungen auf Form und Inhalt der Filmproduktion zu untersuchen. Ähnlich wie in meiner Arbeit zum Sound Design werde ich als Grenzgän- gerin zwischen Praxis und Theorie die verschiedenen Querbezüge heraus- arbeiten und an einem zeitgenössischen Korpus erproben. Streckenweise werden sich die Darstellungen der Techniken ziemlich anspruchsvoll präsentieren. Doch wie sich zeigen wird, lohnt sich die akribische Ausein- andersetzung mit den Denkmodellen, die ihnen zugrunde liegen. Im Moment erscheint die geisteswissenschaftliche Reflexion über das digitale und insbesondere das computergenerierte Bild wie ein geschlos- sener Kreislauf. Nachdem zu Beginn der 1990er-Jahre die wesentlichen Grundsatzfragen gestellt worden waren,5 erreichte die Beschäftigung mit 4 Um den kollaborativen Charakter der Filmproduktion zu unterstreichen, werde ich im Text die Namen der VFX-Spezialisten mit ihrer Funktion in diesem Prozess versehen. 5 Siehe dazu die Textsammlung Fotografie nach der Fotografie von Amelunxen et al. (1996). 18 Einleitung diesem Themenfeld Ende der Dekade mit einer Reihe von weiteren Auf- satzsammlungen ihren Höhepunkt.6 Nur wenige dieser Texte beschäftigen sich mit den technischen Grundlagen. Unter anderem deshalb – so ist zu vermuten – produzieren einige von ihnen einen Überfluss an Deutung und damit Übergeneralisierungen, die dringend der Korrektur bedürfen. Gleichzeitig liefern diese grundlegenden Darstellungen eine unverzicht- bare Basis zur weiteren Erforschung der Thematik. Man darf bei aller Kri- tik nicht vergessen, dass sie zu einem Zeitpunkt entstanden sind, als sich die Entwicklung des digitalen Bildes im Anfangsstadium befand und noch nicht zum Standard avanciert war, da sich diese Standards eben erst an- deuteten. Diese historische Situation brachte eine gewisse Mystifizierung der digitalen Revolution mit sich, der teilweise auch Mitchell erlegen ist. Viele Medientheoretiker befassen sich sozusagen mit dem «digitalen Bild an sich», einer gleichsam überhöhten Simplifizierung des riesigen Gebiets von Anwendungsfeldern des digitalen Bildes, das – so wird sich zeigen –, wo immer es erscheint, ebenso sehr von seinem kulturellen Kontext ge- prägt wird, wie es sich wiederum auf diesen Kontext auswirkt. Nun soll jedoch der Blick auf die Technik und die ihr zugrunde lie- genden Paradigmen keinem technischen Determinismus folgen, wie er sich im Anschluss an McLuhan in der Medienwissenschaft herausgebildet hat oder sich in der Filmwissenschaft in der sogenannten Apparatustheo- rie manifestiert, sondern einer Bottom-up-Strategie verpflichtet sein, also von der genauen, wenn auch nicht quantitativen, sondern qualitativen Analyse eines Korpus von einzelnen Werken ausgehen. Das Korpus umfasst total rund 400 Filme, von denen ich 180 genauer analysiert habe, die digitale Visual Effects in ein analoges Umfeld integrie- ren, während ich den Rest lediglich aufmerksam visioniert habe. Hinweise auf ergiebige Produktionen habe ich in einschlägigen Publ ikationen und Internetforen sowie durch eine interaktive Datenbank auf meiner Website gesammelt. Diese Zuordnung habe ich laufend überprüft und an die Ziel- setzungen der Arbeit angepasst. Jene Filme, die in die engere Wahl kamen, habe ich mittels eines Analog-Digital-Wandlers ab DVD oder Video digitalisiert, anschließend die wesentlichen Stadien als Standbilder extrahiert und anhand der Fra- gestellungen in einer Datenbank erfasst. Diese Vorgehensweise erlaubt einen schnellen Vergleich ähnlicher ästhetischer Erscheinungen. Ebenfalls in dieser Datenbank halte ich die wesentlichen narrativen Segmente der analysierten Filme sowie die in diesen Segmenten verwendeten techni- 6 So zum Beispiel Gehr (1998), in je einer Spezialausgabe der Zeitschriften Iris (1998) und Wide Angle (1999) sowie Sobchack (2000). Zielsetzung und methodische Vorgehensweise 19 schen Verfahren fest, wodurch sich mühelos das Beziehungsnetz zwischen technischen, ästhetischen und narrativen Aspekten analysieren lässt. Im Anschluss an die Analyse habe ich Praxisberichte durchgearbei- tet, besonders in den Publikationen cinefex und American Cinematographer (AmC), die sich an ein professionelles Publikum wenden, sowie allenfalls vorhandenes Bonusmaterial auf den DVDs. Dieses ‹Nachschalten› der Lektüre von Praxisberichten soll helfen, die unvermeidliche Propaganda, die in solchen Texten mitschwingt, kritisch zu beleuchten und auszufil- tern. Dazu kamen einige Interviews mit Praktikern, namentlich mit dem Production Designer Alex McDowell, der seit Jahren auf große Produk- tionen spezialisiert ist, die digitale und analoge Verfahren kombinieren; mit dem Visual Effects Art Director Alex Laurant, der während Jahren bei Industrial Light & Magic (ILM) beschäftigt war; mit Thomas Haegele, dem Leiter des Animationsinstituts an der Filmakademie Baden-Württemberg in Ludwigsburg, und mit Volker Helzle, der an dieser Filmakademie ein Forschungsprojekt zu virtuellen Figuren leitet; ferner mit dem Managing Director Ludwig von Reiche und dem Technical Director Thomas Drie- meyer von Mental Images, einem führenden Anbieter von Render-Soft- ware, sowie mit verschiedenen Computerspezialisten von der University of Southern California, der Yale und der Brown University. Neben der filmbezogenen Forschung habe ich mir die technischen Grundlagen der Computergrafik angeeignet, indem ich einschlägige Pu- blikationen gelesen und verarbeitet sowie nach Möglichkeit die Grund- lagenpapiere aufgespürt und rezipiert habe. Eine unerschöpfliche Quelle für diese Forschung ist das Internetportal der Association for Computing Machinery (ACM), und dort besonders die Special Interest Group in Gra phics (SIGGRAPH), die auch die weltweit wichtigste internationale Tagung durchführt, an der ich 2005 teilgenommen habe. Ich verzichte an dieser Stelle auf einen Überblick über die Literatur, weil ich es vorziehe, die entsprechenden Texte in ihrem jeweiligen Umfeld zu erörtern. Damit will ich dem Leser ermöglichen, sich einzelnen Kapiteln zuzuwenden, die in sich geschlossen sind. Es ist nicht das Ziel dieser Arbeit, die Technik und ihre Praxis sowie ihre gesellschaftlichen und kulturellen Folgeerscheinungen zu werten. Vielmehr geht es darum, sie zu verstehen und verständlich darzustellen, eine Suche nach Wurzeln, nach Entwicklungslinien, nach verborgenen Verbindungen, nach prinzipiellen Mechanismen. Implizit integriert in diesen Bottom-up-Zugang ist der Widerstand gegen «Glasglocken», die ausschließlich auf Theorien beruhen, gegen Modelle, die unnötig vereinfa- chen, statt eine Vielzahl auch widersprüchlicher Erscheinungen bestehen zu lassen: Ich will also keine Extreme in künstliche Synthesen quetschen, 20 Einleitung aber auch keinen partikularisierten Blick auf die Erscheinungen werfen, sondern milde, dynamische Verbindungen wie elastische Fäden spannen, das komplexe Gebiet vermessen und kartografieren, um es der kritischen Reflexion zugänglich zu machen. Ziel ist also eher ein Approach als eine Theorie, wobei unter einem Approach mit Kristin Thompson (1988: 3) «a set of assumptions about traits shared by different artworks»7 zu verste- hen ist. Mit diesem werkzentrierten Ansatz schließe ich methodisch an die historische Poetik an, die sich in der amerikanischen Filmwissenschaft seit den 1980er-Jahren etabliert hat (vgl. Bordwell 1989). Sie ist zu verstehen als ein Zugang, der sich an der Schnittstelle von Theorie, Kritik und geschicht- licher Reflexion verortet, um anhand eines Korpus allgemeine Prinzipien und Funktionen zu bestimmen, also sowohl ästhetische als auch seman- tisch-narrative Aspekte berücksichtigt. Nun befürchtet beispielsweise Fredric Jameson (1984: 12), dass der Verzicht auf übergeordnete Top-down-Strategien in Form von Tiefenmo- dellen (depth models) zu einem ungehemmten postmodernen Oberflächen- rausch führen könnte, in dem alles Spiel bleibt und die alles umfassende Ungewissheit (uncertainty) das einzig verbindende Element disparater Beobachtungen bildet. Dennoch weist auch er (1984: 5 f.) auf den tota- litären Charakter abgeschlossener Erklärungssysteme hin, welche die kritische Beobachtung verunmöglichen. Ohne Zweifel umreißt Jameson mit diesen metatheoretischen Überlegungen zwei gefährliche Randzonen jeder wissenschaftlichen Vorgehensweise, die man im Auge behalten und zu umgehen suchen sollte. Dennoch fühle ich mich in meiner Geisteshal- tung eher Barbara Maria Stafford (1991: 34) verpflichtet, die sich über den Methodenstreit in den Wissenschaften echauffiert und das Primat von ab- solutistischen und unflexiblen Metadiskursen verabscheut, welche die un- systematischen Charakteristika untersuchter Phänomene unterdrücken. Denn komplexe künstlerische Werke wie beispielsweise Filme ent- halten einen sensuellen Überfluss, Elemente, die sich sprachlich kaum oder gar nicht fassen lassen, sondern nur der unmittelbaren Anschauung zugänglich sind. Insofern ist jede schriftliche Analyse – die zudem, im Gegensatz zum Filmseminar, der unmittelbaren Anschauung des analy- sierten Gegenstands entbehrt – notwendigerweise eine Reduktion auf jene Elemente, die für den Diskurs von Bedeutung sind. Dennoch werde ich versuchen, die Phänomene wo immer möglich in ihrer genuinen Kom- plexität zu beschreiben, denn es sind die minimalen Schwankungen, das unwichtig scheinende Detail, welche die Sinne beschäftigen und so maß- geblich zum Kinoerlebnis beitragen. 7 … «eine Reihe von Annahmen über die Gemeinsamkeiten von Kunstwerken». Zielsetzung und methodische Vorgehensweise 21 Nun bin ich in der privilegierten Situation, den historischen Wandel vom analogen zum digitalen Bild in statu nascendi zu verfolgen. Noch ist dieser Wandel nicht abgeschlossen, sondern vollzieht sich vor unseren Augen. Solche historischen Übergangsphänomene sind besonders auf- schlussreich, weil sich die Verschränkung von technologischer Innovation und ästhetischer Produktion mit all ihren formalen und narrativen Folgen dabei besonders gut beobachten lässt, tendieren sie doch dazu, den Neu- wert geradezu auszustellen und zum Gegenstand der Darstellung selbst zu machen. Sobald die Innovationen gemeistert sind, verblassen solche kantigen Erscheinungen jedoch und formieren sich zu neuen Konventio- nen. Außerdem wird es mit zunehmender historischer Distanz immer schwieriger, Dokumente und Zeitzeugen des Umbruchs zu orten und an möglichst authentische Informationen aus erster Hand zu gelangen. Dabei wird sich zeigen, dass es sich beim gegenwärtigen Umbruch nicht um eine Revolution handelt, wie sie von Produzenten als Marketingstra- tegie, in diversen Fanzines und zeitgeistigen Hochglanzjournalen und von einigen wenigen Theoretikern (z. B. Lev Manovich 2001) beschworen wird. Es geht jedoch um Transformationen bereits bestehender Praktiken, nicht um plötzliche Mutationen, sondern um komplexe Organismen mit Feedback-Loops. Indem die Entwicklungslinien genau untersucht und ihre inneren Mechanismen freigelegt werden, wird nicht nur die Historie zugänglich, sondern werden auch Tendenzen sichtbar, die in die Zukunft führen. Oder, wie es Stafford (1994: 3) formuliert: «We need to go back- ward in order to move forward.»8 Natürlich birgt die Zeitgenossenschaft auch Risiken, namentlich das Risiko der fehlenden historischen Distanz. Dennoch überwiegt für mich der Vorteil eines unmittelbaren Nachdenkens über sich formierende Ten- denzen. Denn später wird es niemals wieder möglich sein, so unverfälscht nicht nur die Entwicklungen zu beobachten, sondern auch die Reaktionen der Kritik und des Publikums im Kinosaal unmittelbar mitzuerleben. Niemals wieder wird man Gespräche mit Technikern und Wissenschaft- lern führen können, die sich die Zähne noch an Grundlagenproblemen ausbeißen und nicht schon die fertigen Rezepte präsentieren können, aus denen alles Verstörende bereits herausgefiltert ist. Es bleibt späteren Gene- rationen von Forschern vorbehalten, den Mangel an historischer Distanz meiner Ausführungen auszugleichen, indem sie falsche Bewertungen und insbesondere falsch taxierte Tendenzen richtigstellen. 8 «Wir müssen zurückgehen, um uns vorwärts bewegen zu können.» 22 Einleitung Definition Bisher wurden die Begriffe Special Effects und Visual Effects relativ ungenau gemäß dem Alltagsverständnis gebraucht. Hier folgen nun die Definitio- nen dieser Begriffe sowie ein Blick auf bisherige Klassifikationsverfahren und einige klassische Grundlagen der theoretischen Beschäftigung mit diesem Gebiet. Für den Begriff Special Effects existiert keine eindeutige Definition, vielmehr werden darunter eine Reihe von Verfahren subsumiert, die von bühnentechnischen, mechanischen Effekten inklusive Pyrotechnik über optische Verfahren in der Kamera bis hin zu Techniken der Postproduk- tion reichen. Ihnen allen gemeinsam ist, dass sie Prozesse und Techniken beschreiben, die über das Setting und die Schauspieler hinausgehen. «Prinzipiell ist damit alles gemeint, was nicht natürlicherweise abfilmbar ist, weil es nicht so oder gar nicht existiert», meint beispielsweise Herbert Gehr (1998: 15) zum Versuch einer Definition. Damit wird sofort klar, dass sich diese Grenzen kaum eindeutig ziehen lassen – diese Problematik spricht Gehr selber an. Auch Albert La Valley (1985) findet es ausgespro- chen problematisch, Special Effects von anderen Techniken der Ausstat- tung, von Maske und Kostümbild abzugrenzen. Müssten in eine solche Konzept ion nicht auch Studiobauten integriert werden? Wann gelten Maskentechniken als Special Effects? Der Begriff ist also nicht nur äußerst unscharf, sondern wird auch sehr heterogen verwendet.9 Die Lage wird noch unübersichtlicher durch zusätzliche Begriffe wie Tricks (z. B. Siegfried Kracauer 1928 und 1960) oder Trucage bei Christian Metz (1971), die nur teilweise synonym ver- wendet werden und sich eher auf optische Verfahren beschränken. Auch Harold Schechter und David Everitt (1980), die ein ganzes Buch über Special Effects veröffentlicht haben, verzichten auf eine Definition und rollen stattdessen ein weites Feld von klassischen, damals noch analogen Techniken auf. In Pascal Pinteaus Buch mit dem Titel Special Effects (2003) findet sich keine Definition des Begriffs, und selbst in Rolf Giesens Lexikon der Special Effects (2001) fehlt er. Lediglich in der Einführung umschreibt Giesen das Thema seines Buches: […] alle Techniken und Prozesse, die bei der Herstellung dessen zum Ein- satz kommen, was landläufig als Filmtrick bezeichnet wird und letztlich zur Übertragung von künstlerischer Phantasie auf die materielle Ebene des Films 9 Vgl. Spiegel (2007: 308 ff.), der sich ebenfalls mit der Frage der Definition auseinander- setzt. Definition 23 beiträgt. Filmtrick subsumiert alle Verfahren, die einen realen Bildinhalt mit künstlichen Mitteln erweitern: alle visuellen und fotografischen sowie die mechanischen und pyrotechnischen Effekte, seien sie nun ‹sichtbar› oder ‹unsichtbar›. (Giesen 2001: 5) Damit bildet der Begriff des Künstlichen das Zentrum von Giesens Aussage in Analogie zum Begriff des Außergewöhnlichen bei La Valley (1985: 143), der sich mit einer bescheidenen Eingrenzung auf alles begnügt, was den «außergewöhnlichen» Einsatz von Requisiten oder optischen Verfahren erfordert. Es findet also eine Gegenüberstellung von den als natürlich oder üblich empfundenen Verfahren – der Aufnahme mit der Kamera am Set – und all jenen Techniken statt, welche dieser Basistechnologie etwas hinzufügen: eben das Künstliche oder Außergewöhnliche. Dieses Raster ist problematisch und bedarf der intensiven Diskussion der verwendeten Begriffe. Um eine gewisse Übersicht zu vermitteln, möchte ich ein klassisches Ordnungssystem der Special Effects vorstellen, das sich im Rahmen der praktischen Anwendung und einer etablierten Arbeitsteilung entwickelt hat, auch wenn die hier angesprochenen Techniken erst später im Text ge- nauer erklärt werden können. Dieses Ordnungssystem teilt die Verfahren anhand ihrer zeitlichen Organisation in folgende Bereiche:10 1. Vor der Kamera z Modellbau (Miniaturen); z Physical Effects, bestehend aus:  mechanischen Effekten wie hydraulische Plattformen, spezielle Fahrzeuge oder präparierte Bühnenteile;  pyrotechnischen Effekten wie Feuer und Explosionen;  Wettereffekten wie Nebel, Schnee, Regen; z Matte Paintings, also gemalte, ins Filmbild einkopierte Hinter- grundbilder, und Rücksetzer, ebenfalls gemalte Hintergründe, die im Studio aufgestellt werden; z Spiegeltricks, nach ihrem Erfinder auch Schüfftan-Verfahren genannt, mit denen über einen partiell durchlässigen Spiegel Teile des Sets oder Objekte eingeblendet werden; z Glasvorsatz, der wie Matte Paintings ebenfalls gemalte Bildteile enthält, die allerdings vor die agierenden Schauspieler und die vorhandenen Set- oder Landschaftsteile platziert werden; 10 Selbstverständlich werden alle diese Techniken im Lauf dieses Buchs nochmals auf- gegriffen und genauer erklärt, sowohl was die technischen Grundlagen und ihre Ent- wicklung als auch was die Anwendung anbelangt. 24 Einleitung z Filter, Masken, Vignetten vor dem Objektiv; z Rück- und Frontprojektion; z maskenbildnerische Transformationen des menschlichen Gesichts und Körpers, zum Beispiel mittels Prothesen oder anderen Appli- kationen; z Lichteffekte wie Blitze oder Feuer; z Kabeltechnik (wire work), bei welcher die Schauspieler von Drähten unterstützt werden, um übermenschliche Sprünge oder Drehun- gen auszuführen; z einfache und elektronisch gesteuerte Puppen (animatronics); z Bluescreen/Greenscreen und andere Matting-Verfahren, bei denen die Schauspieler vor monochromen Hintergründen aufgenommen werden, die man später optisch oder digital ersetzt. 2. In der Kamera z Mehrfachbelichtungen, Über- und Unterbelichtungen; z Zeitmanipulationen wie Zeitlupe oder Zeitraffer; z Stopp-Trick; z Motion Control, eine computergesteuerte Kamera, die bildgenau sämtliche Bewegungen und anderen Parameter, wie zum Bei- spiel Blende und Belichtungszeit, aufzeichnet und damit mehrere Durchgänge (passes) beim Drehen erlaubt. 3. In der Postproduktion z analoge optische Verfahren wie die Kombination mehrerer un- abhängig voneinander aufgenommener Bilder auf der optischen Bank; z Wandermasken (travelling mattes), die auf der Basis von Blue- oder Greenscreen-Aufnahmen hergestellt werden und die Kom- bination von bewegten Vordergrund- mit Hintergrundbildern erlauben; z digitale Verfahren der Bilderzeugung, sogenannt computergene- rierte Bilder (computer generated imagery, kurz CGI); z digitale Verfahren der Bildbearbeitung wie Compositing, die Ver- knüpfung von mehreren Bildteilen zu einem Ganzen, und Image Processing, die Veränderung von Bildern mittels Filtern oder kom- plexeren Programmen. Dieses Ordnungssystem ist offensichtlich mit einer Reihe von Unschärfen behaftet. Viele Prozesse erstrecken sich über mehrere Phasen der Filmpro- duktion wie z. B. Travelling Mattes, die sowohl profilmische als auch post- Theoretische Grundlagen 25 produktionelle Arbeiten erfordern; andere greifen notwendig ineinander wie Modellaufnahmen mit Motion Control und Compositing. Ich werde auf diese Problematiken zurückkommen. Visual Effects – kurz VFX – nun, um die es in dieser Arbeit in erster Linie geht, umfassen im engeren Sinne vor allem die beiden letztgenann- ten digitalen Prozesse, schließen aber auch Wandermasken, Motion-Con- trol- Aufnahmen und digitale Matte Paintings ein. Klar abgegrenzt werden sie von allen praktischen Arbeiten auf dem Set wie beispielsweise Physical Effects (wie unter 1. aufgeführt), von Masken- und Kostümbild sowie vom klassischen Modellbau. Die beiden Begriffe CGI für Computer Generated Imagery und CG für Computer Graphics werden mehr oder weniger synonym gebraucht, wenn auch CG eher noch das historisch frühere Feld der zweidimensionalen Computerbilder bezeichnet, während CGI häufiger dreidimensionalen Computeranimationen zugeordnet wird. Computergenerierte Bilder wiederum durchlaufen eine mehrheitlich starre Abfolge von Arbeitsschritten: z Modellierung: Erstellen der Objekte im dreidimensionalen Koor- dinatensystem; z Materialisierung: Beschreibung der Oberflächeneigenschaften der Materialien wie beispielsweise Farbe und Rauigkeit und ihrer Re- aktion auf Licht wie Reflexion, Glanz oder Transparenz; z Animation: Definition des zeitlichen Verhaltens der Objekte im Raum; z Beleuchtung: Erstellen von Lichttypen und Setzen von Lichtquel- len im dreidimensionalen Raum; z Rendern: Berechnung des zweidimensionalen Bildes aus einer de- finierten Kameraposition unter Berücksichtigung sämtlicher oben beschriebener Parameter. Am Ende, nach Abschluss all dieser Arbeitsschritte, werden im Composi- ting die computergenerierten Bildteile und die analog am Set aufgenom- mene Live Action mit gegebenenfalls vorhandenen Modellaufnahmen, Physical Effects, Travelling Mattes und/oder Matte Paintings zu einem Bildganzen zusammengefügt. Theoretische Grundlagen Abgesehen von wenigen Ausnahmen, finden sich in der klassischen Filmtheorie kaum Texte zur Praxis und Funktion von Special Effects. Eine dieser Ausnahmen ist Kracauers Theorie des Films (1960), die dem 26 Einleitung Trick immerhin einige Seiten widmet. Er unterscheidet insbesondere zwei Strategien der Verwendung von Special Effects, wobei er den Trick fast ausschließlich der Darstellung des Fantastischen zuordnet. Erstens: Das Fantastische erhebt denselben Anspruch auf ästhetische Gültigkeit wie das Wirkliche (123), und zweitens: Das Fantastische steht physischer Realität an Gültigkeit nach (126). Die erste Strategie diskutiert Kracauer am Beispiel von Das Cabinet des Dr. Caligari (D 1920, Robert Wiene), einem Film, der «die wirkliche Welt zugunsten einer imaginären» preisgibt, «die ihre Herkunft aus dem Atelier nicht verleugnen kann». Zwar habe René Clair «den Triumph des Geistes über den gegebenen Rohstoff» bewundert», dennoch sei diese Tendenz zum Scheitern verurteilt, weil sich in ihr durch die «radikale Ver- neinung des Kamera-Realismus» ein unfilmischer, nämlich theatralischer Charakter «als Bühnenzauber» manifestiere. Wenn die Tricks zur «Be- schwörung des Übernatürlichen und Unwirklichen» eingesetzt würden (127 f.) wie beispielsweise in Nosferatu (D 1922, Friedrich Wilhelm Mur- nau), dann merke «der Zuschauer bald, dass es Tricks sind, und schätzt sie demgemäß geringer ein» (128). Diese Problematik kann gemildert werden, wenn die Trickaufnah- men im Sinne der zweiten Strategie markiert sind, beispielsweise als Träume oder als spielerisches Element (129). Erfolgreiche Tricks gehen gemäß Kracauer «über die Grenzen der Kamerarealität nie so weit hinaus, dass es nicht mehr möglich wäre, sie von ihr abzuleiten» (130). Zweifellos beschränkt sich Kracauer in seinen kurzen Überlegungen auf einen sehr begrenzten, wenn auch prominenten Anwendungsbereich von Special Effects: den fantastischen Film.11 Wie das Beispiel Caligari zeigt, müssen es aber nicht Tricks sein, welche den theatralischen Charak- ter hervorbringen, den er problematisiert, sondern es können auch andere Elemente der Mise-en-Scène sein, namentlich Ausstattung, Maske und Kostüme. Dennoch legt Kracauer mit seinen Bemerkungen den Finger auf eine nach wie vor heikle Stelle, die ich im Kontext der Abbildungstheorie disku- tieren werde, nämlich die Distanz zu einem wie auch immer gearteten, als «natürlich» wahrgenommenen Realismus, für den er den Begriff Kame ra - realität verwendet. Damit verbunden ist die Frage der Zuschauerparti- zipation – die Frage nämlich, wieviel Anschluss an diese Kamerarealität notwendig ist, damit der Zuschauer in die dargestellte Welt eintauchen kann. In Zusammenhang damit steht auch die Frage, ob sichtbare Special Effects vom Zuschauer tatsächlich abgelehnt oder zumindest geringer 11 Zur Problematik dieses Begriffs siehe Spiegel (2007: 29 ff.). Theoretische Grundlagen 27 eingeschätzt werden und welche Eingriffe der Erzählinstanz Brücken schlagen – beispielsweise die Verlagerung der Darstellung in Subjektivie- rungen aus der Perspektive der Figuren oder spielerische Elemente der Verfremdung –, um die Akzeptanz auch ungewöhnlicher Anordnungen zu erhöhen. In Le Cinéma ou l´homme imaginaire (1956) liefert Edgar Morin ein uni- verselles Erklärungsmodell für die Bereitschaft, magische Erscheinungen im Film zu akzeptieren: La vision magique commune aux primitifs, aux enfants et aux rêveurs, est fondé ‹sur la croyance au double, aux métamorphoses, à l’uniquité, à la flui- dité spatio-temporelle, à l’analogie réciproque du microcosme et du macro- cosme, à l’anthropo-cosmomorphisme›.12 (Morin 1956: 38) Morins Schilderung mutet zwar etwas unscharf und esoterisch an, enthält aber einen wesentlichen Kern, den Metz später aufgreift, wenn er darauf hinweist, dass speziell in den frühen Epochen ein archetypisches Imagi- näres Eingang in die filmischen Erzählungen findet. Auch er spricht den Expressionismus an, aber auch die fantastischen Filme der 1930er-Jahre wie King Kong (USA 1933, Merian C. Cooper; Ernest B. Schoedsack), Frankenstein (USA 1931, James Whale) oder The Invisible Man (USA 1933, James Whale). Für Morin (63) ist die Verwandlung – die Metamor- phose – das zentrale Motiv des fantastischen Films, und zwar nicht nur auf der Ebene der Narration, sondern auch der Abbildung, da Special-Effects- Einstellungen nicht einfach aufgezeichnet, sondern auch aktiv verändert werden. Solche doppelt geführten Bedeutungsschienen, in welchen eine Technik nicht nur den Abbildungsprozess beeinflusst, sondern sich auch motivisch niederschlägt, werden sich im Lauf dieser Arbeit immer wieder zeigen. Neben Morin ist Metz (1971) der einzige klassische Theoretiker, der Special Effects nicht als marginale Erscheinung behandelt, sondern sie als festen Bestandteil einer ohnehin künstlichen Konstruktion der filmischen Darstellung anerkennt. Für ihn gibt es einen weichen Übergang vom diskursiven Charakter der Montage zu den Mitteln der Trucage. Aller- dings unterscheidet er zwischen Trucage, unter der er In-Kamera-Effekte, Montageverfahren inklusive Compositing sowie optische Arbeiten in der 12 «Die magische Wahrnehmung, die den primitiven Völkern, den Kindern und Träumern gemein ist, stützt sich auf den Glauben an die Verdoppelung, an die Metamorphosen, an die Einmaligkeit [des Individuums], an die flüssigen Raum- und Zeitkonzeptionen, an die reziproke Ähnlichkeit von Mikro- und Makrokosmos, an den Anthropo-Kosmo- morphismus.» 28 Einleitung Postproduktion zusammenfasst, und Effets spéciaux, mit denen er aus- schließlich jene Bühnentechniken auf dem Set meint, die ich weiter oben als Physical Effects bezeichnet habe. Diese schließt er aus seinen Überlegun- gen aus (174), weil sie nicht spezifisch filmisch sind. Meine Ausführungen werden zeigen, dass solche Grenzziehungen sehr problematisch sind, denn die diversen Prozesse greifen – wie gesagt – ständig ineinander. Wie Michele Pierson (2002: 104) richtig anmerkt, haben sich viele Verfahren, die ursprünglich als Illusionstechniken aus dem Theater und der Oper stammen, im Kontext der mehr als hundertjährigen Filmgeschichte verän- dert und sind ganz neue Wege gegangen. Andere profilmische Verfahren wie beispielsweise die Miniaturen wurden überhaupt erst im Rahmen der Kinotechnik entwickelt. Weiter verwendet Metz das bereits beschriebene Modell der zeitli- chen Abfolge mit Trucages profilmiques, welche jene Verfahren umfassen, die vor der Kamera stattfinden, und Trucages cinématographiques, die so- wohl In-Kamera-Effekte als auch optische Arbeiten in der Postproduktion beinhalten. Metz integriert in diese Trucages cinématographiques auch extra- diegetische optische Elemente wie beispielsweise Wisch- oder Irisblenden, von denen er die Schwarzblenden als Taxeme unterscheidet, weil sie wäh- rend eines Moments die Leinwand völlig beherrschen (175). Überblen- dungen und Mehrfachbelichtungen überlagern sich dem fotografischen Material, sind also suprasegmental und verschmelzen mehrere Wahrneh- mungseinheiten (177 f.). Solche syntaktischen Markierungen, für die Metz den Begriff Enunziationsmarkierungen geprägt hat, mit dem er alle direkten kommunikativen Eingriffe der Erzählinstanz bezeichnet, werden im All- gemeinen aus dem Komplex ‹Special und Visual Effects› ausgeklammert. Allerdings ist dies – wie Metz (177 f.) zu Recht anmerkt und wie schon bei Morin (1956: 59) zu lesen ist – das Resultat eines Konventionalisierungs- prozesses, der dazu führt, dass wir heute solche rhetorischen Operanten beiläufig als natürlich rezipieren. Mit Trucages imperceptibles und Trucages invisibles öffnet Metz ein wei- teres Feld von Unterscheidungen (179 f.). Trucages imperceptibles sind zum Beispiel Stunt-Einlagen, bei denen man nicht wahrnimmt, dass die Figur von einer anderen Person, dem Stuntman oder der Stuntwoman, darge- stellt wird. Sie gehören zum Komplex der üblichen filmischen Konventio- nen. Trucages invisibles andererseits sind zwar – wie der Begriff vermuten lässt – unsichtbar, doch der Zuschauer «spürt» gemäß Metz möglicher- weise den Eingriff: Er nimmt ihn, wenn auch vielleicht unbewusst, wahr. Es sind perfekte Tricks, deren Perfektion unter anderem darin besteht, dass sie unauffällig sind. Das Spiel mit der Oszillation zwischen Sichtbarkeit/ Unsichtbarkeit, dem ich ein eigenes Kapitel widmen werde, ist seit je eine Theoretische Grundlagen 29 heikle Zone der Special-Effects-Produktion, über die bis heute auch in der Industrie heftig diskutiert wird (siehe beispielsweise die Interview-Samm- lung in cinefex 100). Es wird sich aber auch zeigen, dass die Einteilungen, die Metz vornimmt, alles andere als eindeutig sind. Der Zuschauer verfügt nach Metz über ein Arsenal von unterschied- lichen Wahrnehmungsweisen, die den nicht wahrnehmbaren, den völlig unsichtbaren und den wahrnehmbaren, gleichzeitig aber unmerklichen Eingriffen entsprechen. Daraus resultiert ein Doppelspiel (duplicité, 181), ein Spiel zwischen Verdrängung und Bewunderung, zwischen dem Glau- ben an die Wirklichkeit der dargestellten Vorgänge, seien sie nun wunder- bar oder komisch, und der gleichzeitigen Bewunderung für die technische Leistung des Kinos. Verdrängung ist eine unerlässliche Voraussetzung dafür, dass die Diegese13 intakt bleibt, während die Bewunderung auf der Ebene des Diskurses angesiedelt ist. Damit dieses Spiel gelingt, ist ein Täu- schungsmanöver (machination) notwendig (181), das wiederum eine innere Logik oder Kohärenz der dargestellten Erscheinungen erfordert, mögen sie noch so fantastisch oder außergewöhnlich sein, damit sie diegetisiert werden können. So stehen die auseinanderstrebenden Kräfte in einem fragilen Gleichgewicht. Mit diesen Überlegungen skizziert Metz ein gewichtiges themati- sches Terrain, das jedoch aus heutiger Sicht, in Zeiten allgegenwärtiger Visual Effects, nochmals überdacht werden muss. Sowohl bei Kracauer als auch bei Metz findet sich die Frage nach den Grenzen zwischen einer als natürlich akzeptierten und einer als künstlich zurückgewiesenen Darstel- lung der Diegese – eine Frage, die bis heute nichts an Aktualität verloren hat, trotzdem aber anders diskutiert werden muss, wie sich zeigen wird. 13 Der Begriff Diegese bezeichnet das Raum-Zeit-Kontinuum des Films, also die fiktionale Welt, in der sich die filmische Handlung abspielt. Digitale Bilder: Eigenschaften Spielformen des digitalen Bildes ‹Das digitale Bild› ist ein weites Feld, um das sich viele Mythen ranken: Es unterscheide sich radikal von allen bisherigen Darstellungsformen, lasse sich ohne jeden Qualitätsverlust unendlich kopieren, habe keine materiel- len Grundlagen und könne ohne jeden Kunstverstand hergestellt werden, so einige pointierte Statements. Wie bekannt, enthalten Mythen einige Körnchen Wahrheit. Ihnen will ich im folgenden Abschnitt nachgehen. Zunächst stellt sich die Frage, was ‹digital› überhaupt heißt. In der Brockhaus-Enzyklopädie steht dazu kurz und bündig: «zahlenmäßig, quantitativ». Etwas umfassender beschreibt Loleit (2004: 204) den Termi- nus in ihrer Wort- und Begriffsgeschichte: «Mit digital bezeichnet man die ziffernmäßige, diskrete, diskontinuierliche Darstellung von Daten und Informationen im Unterschied zu auf Ähnlichkeitsbeziehungen (physika- lischen Größen) beruhenden, kontinuierlichen analogen Darstellungsfor- men.» Laut Loleit (2004: 205) lässt sich der «elektroniksprachliche Begriff digital» erstmals in einer Patentschrift von 1938 finden. Entsprechend dieser Basisdefinition gibt es einige wenige Parameter, die allen digitalen Filmbildern gemein sind: Sie bestehen aus diskreten Feldern, den Pixeln, deren Eigenschaften durch einen binär codierten mathematischen Wert definiert sind, und diese Pixel sind gitterförmig – horizontal und vertikal – angeordnet. Digitale Bilder haben nicht nur sehr viele ästhetische und kulturelle Implikationen, sie können auch auf viele unterschiedliche Weisen herge- stellt oder bearbeitet werden, die ich grob in sechs Typen einteile: 1. digitale Bilddatenakquisition mit einer entsprechenden Kamera; 2. digitale Wandlung eines analogen Bildes durch Scannen; 3. zweidimensionales Zeichnen eines Bildes (2D painting); 4. zweidimensionale Bildbearbeitung (2D image processing); 5. computergenerierte Bilder (CGI) mit allen Abstufungen zwischen foto- realistischer Computeranimation und Darstellungsformen, die den klassischen Weg der Stilisierung wählen; 6. Integration von Bildteilen unterschiedlicher Herkunft im Compositing. 32 Digitale Bilder: Eigenschaften Oftmals werden die Verfahren 3, 4 und 6 unter dem Begriff Bildbearbeitung (image processing) zusammengefasst. Im vorliegenden Kontext ist es jedoch sinnvoll, diese Prozesse zu unterscheiden. Obwohl mehr und mehr Filme digital gedreht werden (siehe dazu Flückiger 2003), ist diese Form der Herstellung digitaler Bilder hier von untergeordneter Bedeutung, wenn auch nicht vollständig zu vernachlässi- gen. Ursprünglich hatte ich mein Korpus sogar so konzipiert, dass es aus- schließlich analog aufgenommene Filme enthielt, welche digitale Visual Effects integrierten. Später habe ich mich entschlossen, ein paar wenige Ausnahmen zu machen, weil sich einige Problemfelder dort deutlicher zeigen. Den wichtigsten Stellenwert in der Filmproduktion nehmen jedoch die fotorealistischen Computeranimationen und das Compositing ein. Viele Überlegungen zum digitalen Bild kranken daran, dass sie sich auf ein «digitales Bild an sich» beziehen und daraus Schlüsse ableiten, die nicht auf jeden Typ von digitalen Bildern zutreffen, wie das folgenreiche Statement von Mitchell: «Although a digital image may look just like a photograph when it is published in a newspaper, it actually differs as pro- foundly from a traditional photograph as does a photograph from a paint- ing»1 (1992: 4). Solche Aussagen, die einem technischen Determinismus verpflichtet sind, sind weder wahr noch falsch, sondern unscharf. Digitale Fotografien sind analogen Fotografien ähnlicher als digitale Aufzeichnun- gen anderen Formen digitaler Bilder. Ausschlaggebend für eine differenzierte Behandlung der Ähnlichkei- ten und Unterschiede sind jedoch nicht nur die Prozesse der Herstellung, sondern auch das Verhältnis des digitalen Bilds zum Abbildungsgegen- stand, das – wie ich im Kontext der Abbildungstheorie zeigen werde – mit den digitalen Verfahren wesentlich komplexer geworden ist, sich aber nur teilweise grundsätzlich unterscheidet. Außerdem gilt es nicht nur, die verschiedenen Erscheinungsformen und Herstellungsprozesse zu berück- sichtigen, sondern auch den gegenwärtigen Stand der Technik von den potenziellen Qualitäten und Verfahren zu unterscheiden. Nicht zuletzt aber spielt der kulturelle Rahmen, in dem das digitale Bild erscheint, eine entscheidende Rolle – nicht nur für die Nutzung durch die Rezipienten und damit für seine gesellschaftliche Bedeutung, sondern auch für seine Ästhetik. So unterscheiden sich bisher digitale Filmbilder und Bilder in Com- puterspielen fundamental voneinander.2 Sie verfolgen ganz unterschied- 1 «Ein digitales Bild, das in einer Zeitung abgedruckt wird, mag zwar wie eine Fotogra- fie aussehen. Trotzdem unterscheidet es sich so fundamental von einem traditionellen Foto wie ein Foto von einem Gemälde.» 2 Diese Unterschiede beginnen sich im Moment aufzulösen. Neueste Spiele wie Crysis Binäre Codierung und Quantisierung 33 liche Ansprüche an die fotorealistische Konstruktion ihrer Bilderwelten. Das hat einerseits technische Gründe: Während man Filmbilder sehr sorgfältig und in aller Ruhe rendern kann, müssen in Computerspielen mit Ausnahme kleiner vorgefertigter Filme, sogenannter Cinematics, die Bilder in Echtzeit (realtime) gerendert, also berechnet und aufgebaut werden. Der Nutzer von Computerspielen lässt sich davon nicht stören, denn offen- sichtlich bewirkt die immersive Kraft der interaktiven Partizipation an der Spielwelt eine veränderte Wahrnehmung. Und so gehe ich mit Turim (1999: 46) einig, die feststellt, dass die Prin- zipien der Bildkonstruktion nur teilweise durch die Technologie bedingt sind, da sich diese Prinzipien fast immer schon in diversen Präfiguratio- nen andeuten. Binäre Codierung und Quantisierung Trotz vieler Unterschiede sind alle digitalen Bilder – zumindest die heute in der Fotografie, im Kino und auf dem Bildschirm üblichen Rastergrafi- ken – dadurch charakterisiert, dass ein exakter mathematischer Wert jeden Bildpunkt (pixel) definiert, der sich binär, das heißt durch eine Kombina- tion zweier unterschiedlicher Zustände, nämlich 0 und 1, darstellen lässt. Dieses binäre Prinzip ist die Basis aller digitalen Codierungsformen. Gemäß Wolf (2000: 31) hat das binäre Prinzip seinen Ursprung be- reits in der Renaissance. Der spanische Zisterzienser Juan Caramuel y Lobkowitz hatte es 1670 in einer wenig beachteten Schrift3 publiziert. Die Entwicklung der mathematischen Grundlagen wird allerdings im Allge- meinen Gottfried Wilhelm Leibniz zugeschrieben, der sie 1701 in seinem Aufsatz Wunderbarer Ursprung aller Zahlen aus 1 und 0, welcher ein schönes Vorbild gibet des Geheimnißes der Schöpfung, da alles von Gott und sonst aus Nichts, entstehet veröffentlicht hat. Durch einen Zufall erfuhr er von einem in China lebenden Jesuitenpater, dass das Orakelbuch I Ging ebenfalls auf dem binären Prinzip beruht. Sowohl bei Leibniz als auch im I Ging erscheint somit die binäre Codierung als universales Prinzip von meta- physischer Dimension zwischen Sein und Nicht-Sein. Das binäre Prinzip eignet sich für die automatische Datenverarbei- tung, weil sich die beiden Werte 0 und 1 schaltungstechnisch als «aus» und «ein» umsetzen lassen. Die nächste wichtige Grundlage für die An- (2007) zeichnen sich durch überraschend fotorealistische Bilder aus (siehe http:// www.crysis-hq.de). 3 Mathesis biceps, vetus, et nova in omnibus, et singulis Veterum, et Recentiorum Placita exami- nantur. Campania: Officina Episcopali. 34 Digitale Bilder: Eigenschaften wendung komplexer mathematischer Operationen in binären Systemen war die 1854 von George Boole in An Investigation of the Laws of Thought On Which Are Founded the Mathematical Theories of Logic and Probabilities entwickelte Boole’sche Algebra mit logischen Operanten wie AND, OR, NOT als formal-logisches System zur Beschreibung allgemein gültiger Bedingungen für wahre oder falsche Aussagen. Zwar kann dieses System nicht nur mit binär codierten Zahlen operieren, ist aber mit den beiden möglichen Zuständen «wahr» und «falsch» dem binären Prinzip ver- pflichtet und eignet sich deswegen zur Steuerung von Schaltungen oder zur mathematischen Verrechnung digitaler Daten, was – wie wir sehen werden – die Grundlage unterschiedlicher Verfahren des Modellierens, der Materialisierung und des Compositing bildet. Diese Prinzipien konnte man allerdings erst Mitte des 20. Jahrhunderts erfolgreich in funktionie- rende digitale Computer implementieren.4 Interessanterweise findet sich die erste maschinelle Anwendung des binären Prinzips im kreativen Bereich, denn die Vorläufer der Computer- grafik waren maschinell gewebte Stoffe, möglicherweise schon Mitte des 18. Jahrhunderts. Gesichert ist die Anwendung in Joseph-Marie Jacquards Webstuhl, der 1801 in Paris zu sehen war und mit Lochkarten funktio- nierte. Lochkarten und Lochstreifen kamen bereits in der zweiten Hälfte des 19. Jahrhunderts auch bei der Aufzeichnung und Wiedergabe von Kla- viermusik zum Einsatz, noch bevor es akustische Aufnahmeverfahren gab. Bei der Beschäftigung mit der Frühgeschichte binärer Systeme wer- den drei Entwicklungslinien sichtbar, die sich bis heute erhalten haben: z Kommunikation inklusive Aufzeichnung, Speicherung und Wie- dergabe z Steuerung von Kontrollinstrumenten z Rechenoperationen Auch wenn es die oben geschilderten frühen Anwendungen im kreativen Bereich gibt, so bleiben sie doch marginal; neue Bereiche öffnen sich erst in den 1950er-Jahren. Von analogen Repräsentationsformen unterscheiden sich die digita- len durch die Quantisierung in diskrete Werte, das heißt Werte, die ganz- zahligen Vielfachen eines definierten Intervalls zugeordnet sind und sich innerhalb eines bestimmten Bereichs befinden. Die binären Informationen 4 Eine sehr konzise und gut lesbare Darstellung der Computergeschichte findet sich in Wolf (2000), einer Publikation übrigens, die ich insgesamt für sehr informativ halte, was die Untersuchung der kulturellen und kognitiven Auswirkungen der Digitalisie- rung anbelangt, weil sie sich in ihrer akribischen Art wohltuend von der Flut ungenau- er Mutmaßungen zum Thema unterscheidet. Binäre Codierung und Quantisierung 35 definieren sowohl einen Ort im Bild als auch einen Farbwert jedes Pixels, beschreiben also sowohl eine räumliche als auch eine tonale Auflösung des Bildes. Zudem sind in digitalen Systemen die darstellbaren Bereiche streng nach oben und unten limitiert; es findet ein Clipping statt. Was außer halb des codierbaren Bereichs liegt, wird ignoriert oder dem Schwel- lenwert zugeordnet. Wenn sich diese Beschreibung sehr unbestimmt an- hört, so entspricht sie doch den Rahmenbedingungen, die eben sehr lose sind und nur die Grundprinzipien umfassen. Im Gegensatz zu digitalen können analoge Signale kontinuierlich unendlich viele Werte annehmen. Mitchell (1992: 4) hat diesen Unterschied folgendermaßen verbildlicht: «Rolling down a ramp is a continuous mo- tion, but walking down stairs is a sequence of discrete steps – so you can count the number of steps, but not the number of levels on a ramp.»5 In Wirklichkeit ist die Sache etwas komplizierter, aber für den Moment reicht diese bildhafte Vereinfachung. Diese Stufen nun werden durch Bits codiert, die wiederum in Bytes organisiert sind. Ein Bit (binary digit) ist die kleinste Informationseinheit in diesem System, bestehend aus 0 oder 1. Ein Byte besteht aus mehreren Bits und kann je nach Länge verschieden viele Werte enthalten, und zwar als Exponentialfunktion zur Basis 2. Also kann bei- spielsweise eine 1-Bit-Codierung zwei Zustände annehmen, wie schwarz und weiß, während eine 8-Bit-Codierung 2^8=256 Stufen darstellen kann. Die binäre Codierung ist nicht nur das entscheidende Grundcharak- teristikum aller digitalen Daten und damit selbstredend aller digitalen Bilder, sondern auch der Kern- und Angelpunkt ihrer ästhetischen und kulturellen Wirkung. Aus dieser Darstellung geht hervor, dass die Quan- tisierung ursprünglich eine Vereinfachung darstellt, denn die diskrete Codierung in Stufen führt zum Verlust aller Nuancen dazwischen. Eine Reihe von potenziell unendlichen Zwischentönen wird einem Raster zugeordnet; es entstehen, wie Flusser (1985: 26) ausführt, rasterartige Flä- chen voller Intervalle. Wenn analoge Daten digitalisiert werden, sei das durch eine digitale Aufnahme oder durch Scannen, findet eine Übertragung nach bestimmten Regeln statt. Entweder werden analog Mittelwerte gebildet, zum Beispiel bei der digitalen Datenakquisition durch vorgeschaltete Mikrolinsen, die das auf einen bestimmten Bereich des Aufnahme-Chips einfallende Licht sammeln (Flückiger 2003: 30), und/oder es muss eine Analyse stattfinden, bei der das physikalische Phänomen oder die analogen Bilddaten nach vorgeschriebener Routine in den binären Code transformiert werden. Dazu 5 «Eine Rampe hinunterrollen ist eine kontinuierliche Bewegung, aber eine Treppe hi- nuntergehen erfordert eine Folge einzelner Schritte. Man kann sie zählen, während die Höhe einer Rampe sich gleitend verändert.» 36 Digitale Bilder: Eigenschaften entnimmt man den zu verarbeitenden Daten in zeitlichen und örtlichen Intervallen Stichproben – ein Vorgang, den man Abtastung (sampling) nennt, und zwar entweder mit einer Stichprobe (sample) pro Pixel, mit mehreren Stichproben (oversampling) oder mit weniger als einem Sample (subsampling). Filtern (filtering) definiert die örtliche und zeitliche Vertei- lung des Abtastens und bestimmt, welche Ausschnitte aus dem Datenfluss welchen Stichproben zugeführt werden, um Zufallsartefakte, also Bild- fehler, zu vermeiden. Die analogen Ausgangsdaten der Natur oder eines vorliegenden Bildes müssen also erst analysiert werden, bevor die Quan- tisierungsregeln greifen können, nach denen man sie in den binären Code überträgt. Die Kombination von Abtasten und Filtern ist ein grundlegen- der Prozess der digitalen Bilderzeugung, den ich im Lauf dieser Arbeit an verschiedenen Beispielen durchexerzieren werde (vgl. Poynton 1996: 43 ff.). Theoretisch ist die analog/digitale Wandlung vollkommen arbiträr, das heißt, dass keine natürlich gegebenen Beziehungen bestehen, die ein analoges Signal, zum Beispiel eine bestimmte Lichtintensität oder ein bestimmtes Frequenzspektrum, in einen binären Code übertragen. Soll am Ende jedoch ein sinnlich wahrnehmbares Bild entstehen, müssen die Übertragungsregeln so definiert werden, dass zwischen analogen Ein- gangsdaten und digitalen Ausgabedaten eine Beziehung besteht, die dem menschlichen Wahrnehmungssystem einigermaßen entspricht. In dieser lapidaren Feststellung stecken weit reichende Implikationen für die ästhetische Anmutung digitaler Bilder. Denn die merkwürdigen Eigenschaften, die digitale und insbesondere computergenerierte Bilder aufweisen und die jedem Betrachter sofort ins Auge springen, haben ihren Ursprung zu einem nicht geringen Teil hier. Diese Anmutung wird oft als ‹zu perfekt› oder als ‹seelenlos› beschrieben. Beide Diagnosen treffen die Problematik jedoch nur ungenau. So stellt Le Grice (in Gehr 1998: 17) zu Recht die Frage: «No soul? Does a camera have a soul? I don’t even know whether I have a soul!»6 Wie die angebliche Seelenlosigkeit betrifft auch die Frage nach der Perfektion ein komplexes kulturelles Konzept, das einem historischen Wandel unterworfen ist, mit dem ich mich im Kapitel Abbildung (→ 275) auseinandersetzen werde. Keinesfalls lässt sich dieses Konzept auf irgendwelche mathematischen Grundlagen allein reduzieren, wie Bolter/Grusin (1999: 26) es tun, die behaupten, dass diese Bilder «ma- thematisch perfekt» seien, was immer das heißen mag. Es wäre ohne weiteres möglich, über diese Problematik eine umfas- sende Abhandlung zu schreiben. Zum einen spielen die komplizierten 6 «Keine Seele? Hat eine Kamera eine Seele? Ich weiß nicht einmal, ob ich selbst eine Seele habe!» Binäre Codierung und Quantisierung 37 psychophysischen Prinzipien der menschlichen Farbwahrnehmung eine Rolle, zum anderen aber auch die technischen Aspekte der Farbprozessie- rung und nicht zuletzt eine langjährige Konditionierung der Rezipienten durch die analogen Farbformate im kulturellen Rahmen des Kinos. Noch ist eine 8-Bit-Codierung in vielen Softwares Standard. Die Brü- der John und Thomas Knoll entwickelten ab Beginn der 1990er-Jahre die Software Photoshop, mit welcher sich dieses Format universell verbrei- tete. Es codiert jeden der drei Farbkanäle Rot, Grün und Blau (RGB) im 8-Bit-Format, umfasst also eigentlich 24 Bit, und kann damit (2^8)^3=16.7 Millionen Farbstufen wiedergeben. Dieses Format hat sich aus techni- schen und ökonomischen Gründen etabliert, denn die Kapazität der Sys- teme war damals noch beschränkt. Große Datenmengen waren nicht nur schwer zu bearbeiten, sondern kosteten auch viel Zeit und erforderten viel von dem damals teuren Speicherplatz. «A practical image coding system needs to be computationally efficient, cannot afford unlimited precision, need not be intimately related to the CIE system and generally needs to cover only a reasonably wide range of colours and not all of the colours»,7 wie es Poynton (1995: 6) mit der trockenen Pragmatik des Ingenieurs aus- drückt. Im Koordinatensystem zwischen technischen, ökonomischen und ästhetischen Faktoren werden also Beschränkungen wirksam, die dazu führen, dass die ästhetische Qualität nicht optimal, sondern nur ‹gut ge- nug› ausfällt. Was als ‹gut genug› gilt, ist jedoch einem historischen Wan- del unterworfen. Heute stellt man das etablierte Format infrage, das die nichtlineare Wahrnehmung von Helligkeitsstufen weitgehend missachtet. Insbesondere im dunklen Bereich entspricht die tonale Auflösung nicht der Unterscheidungsfähigkeit des visuellen Systems. Nach Berechnung von Hunt (2004: 547) wäre dazu mindestens eine 10-Bit-Codierung not- wendig. Obwohl verschiedene Wissenschaftler (u. a. Lindbloom 1989, Hall 1989) die mangelnde Anpassung der Graustufencodierung seit mindes- tens zehn Jahren kritisieren, obwohl adäquatere Codierungssysteme längst entwickelt sind und auch teilweise angewandt werden, setzen sie sich nur zögerlich durch. Ein wesentlicher Grund dafür liegt in der Ein- fachheit des etablierten Systems. Im Compositing, wo mehrere Bilder nach komplexen Verknüpfungsregeln miteinander kombiniert werden, ist es wesentlich leichter, in einem einfachen mathematischen System zu operie- ren statt zum Beispiel mit perzeptiv sinnvollen, aber nichtlinearen Werten. 7 «Ein praktikables Bildcodierungsverfahren muss rechnerisch effizient sein, kann keine unendliche Genauigkeit liefern, muss sich nicht in vollständiger Übereinstimmung mit dem CIE-System befinden und braucht eigentlich nur eine sinnvolle Anzahl von Farben wiederzugeben.» 38 Digitale Bilder: Eigenschaften Außerdem bewirken die arbeitsteilige Situation und die hohen In- vestitionskosten in der Filmindustrie eine große technische Trägheit, so- dass Formate, die sich in der täglichen Arbeitsroutine der Praxis bewährt haben, beibehalten werden, auch wenn das Resultat ästhetisch nicht unbedingt überzeugt. Im Zweifelsfall werden die Mängel durch Tricks übertüncht, immer mal wieder gibt es aber kritische Zuschauer oder Theo- retiker, die sich mit den etablierten Kompromissen nur ungern abfinden. Niemand hat sich so grundlegend mit der Frage der kulturellen und kognitiven Implikationen der Quantisierung auseinandergesetzt wie Wolf (2000). Er postuliert, dass die digitale Technologie sowohl aus einer umfassenden Quantisierung heraus entstanden ist, die sich seit Jahrhun- derten in verschiedenen Lebensbereichen ausgebildet hat, als auch einen quantisierenden Denkstil fördert und so auf die Wahrnehmung der Welt zurückwirkt. Wolfs Vorstellung folgt damit nicht einem linearen Erklä- rungsmodell nach dem Ursache-und-Wirkung-Prinzip, sondern vielmehr einer komplexeren dynamischen Interaktion der soziokulturellen mit der technologischen Entwicklung. So beruhen die meisten Tauschsysteme auf diskreten zählbaren, also quantisierten Einheiten, so zum Beispiel der Geldverkehr. Am Beispiel des Geldverkehrs zeigt Wolf (2000: 15 f.) auf, dass eine zunehmende Abstrak- tion stattgefunden hat. War am Anfang mit Gold noch ein Wertäquivalent vorhanden, so verschwand dies mit der Einführung von Papiergeld immer mehr und hat sich heute, im Zeitalter des bargeldlosen Zahlungsverkehrs, fast völlig aufgelöst. Die sozialen Zeit- und Raumkonzeptionen hatten un- terschiedliche Kulturen ebenfalls in messbare Einheiten zerlegt (siehe Elias 1988). Auch Sprache in schriftlicher Form besteht aus eindeutigen diskre- ten Einheiten, die zwar nicht a priori quantisiert sind, sich aber ohne wei- teres quantisieren lassen. In allen diesen Bereichen der sozialen Interaktion erleichtert die eindeutige, diskrete Codierung sowohl die Speicherung als auch den Austausch von Information. Wie Goodman (1978: 27) schreibt, können wir nur dank geeigneter Anordnungen und Gruppierungen mit großen Materialmengen perzep- tiv oder kognitiv umgehen. Diese Auffassung wird von der berühmten Studie von Eleanor Rosch (1973) zur sprachlichen Benennung von Farbtö- nen empirisch gestützt, die gezeigt hat, dass die menschliche Spezies im Austausch mit der Umwelt dazu neigt, kontinuierliche Informationen diskreten Kategorien zuzuordnen: einerseits zur Komplexitätsreduktion, andererseits, um speicherbare und damit auch intersubjektiv kommuni- zierbare Einheiten zu schaffen. Diese Operationen betreffen jedoch nur das deklarative Wissen, nicht jedoch die sensorischen Teile der Wahrnehmung, denn auch wenn ich mit «rot» primär ein ganz bestimmtes Rot meine, Binäre Codierung und Quantisierung 39 nehme ich trotzdem Myriaden von weiteren Rottönen wahr. Diese Zerglie- derung findet also – wie Wolf (2000: 3) feststellt – nur auf der Ebene des Signifikanten, nicht jedoch auf der Ebene des Signifikats statt. Wozu diese Überlegungen? Sie sollen aufzeigen, dass zwischen Kul- tur und Technologie komplexe Wechselwirkungen bestehen, die keine vereinfachte Deutung zulassen. Die ideologische Komponente des Mess- wahns, also der Quantisierung, wird besonders von Donna Haraway (1985: 162) kritisiert, denn dieser ziehe Grenzen, wo von der Natur keine gesetzt werden. Nur ist es eben nicht so, dass dieser Wahn, alles zu kate- gorisieren, allein von der Technologie ausgeht, sondern er bahnt sich – wie die oben angeführten Beispiele gezeigt haben – schon früh in vielen Le- bensbereichen an und kondensiert sich besonders seit der Aufklärung in den sogenannt exakten Wissenschaften zum Dogma. So nützlich und erfolgreich die Reduktion komplexer Erscheinungen in quantifizierbare Einheiten sein mag, so wird sie doch vielen Lebensberei- chen und gerade jenem der Kunst und der ästhetischen Erfahrung nicht in vollem Umfang gerecht. Denn dort sind bedeutsame Informationen direkt als sensorische Qualitäten wirksam, ohne dass die Rezipienten sie jemals kognitiv zu entschlüsseln brauchen. Daraus resultiert eine fundamentale Spannung zwischen der Welt der digitalen Codierung, die immer auf expli- ziten Informationen und damit auf Reduktionen beruht, und dem unmit- telbaren Erleben, das über einen überschäumenden Reichtum an Nuancen verfügt, die nur teilweise der bewussten Wahrnehmung zugänglich sind. Nun ist es aber so, dass sowohl bei den sozialen Praxen des Tausches und der Messung wie bei der digitalen Codierung von Daten die Tendenz besteht, den Verlust an Detailtreue durch immer kleinere Maßeinheiten auszugleichen. Wenn jedoch diese Maßeinheiten die Schwelle der mensch- lichen Wahrnehmungsfähigkeit unterschreiten, verlieren sie dann nicht ihren ursprünglich diskreten Charakter? Kann man noch von diskreten Stufen sprechen, wenn die Pixel eines digitalen Bildes kleiner werden als das Korn im analogen Bild? Damit wird auch die Bildmetapher der Stufen versus Rampe von Mitchell zwar nicht völlig obsolet, wohl aber fragwür- dig, denn wenn die Stufen genügend klein sind, lassen sich Stufenanord- nungen zumindest perzeptiv nicht mehr von Rampen unterscheiden. Ein solches Szenario ist keine sophistische Spekulation, sondern bereits Rea- lität. Formate mit 8 bis 10 Megapixeln haben eine weit höhere Auflösung als traditionelle analoge Filmmaterialien. Auch im Bereich der Farb- und Kontrastcodierung sind bereits Formate im Einsatz, die mehr Stufen auflö- sen, als das menschliche Auge wahrnehmen kann. Schon immer stand die Unterscheidung ‹analog = kontinuierlich› versus ‹digital = diskret› auf schwachen Füßen, denn beispielsweise löst 40 Digitale Bilder: Eigenschaften der Film als analoges Medium den kontinuierlichen Zeitfluss in diskrete Phasenbilder auf. Lange vor der digitalen Revolution, nämlich 1968, hat Nelson Goodman über die Grenzfälle der Unterscheidung zwischen ana- log und digital nachgedacht und kommt zum Schluss: «To be digital a system must be not merely discontinuous but differentiated throughout, syntactically and semantically. […] The real virtues of digital instruments are those of notational systems: definiteness and repeatability of readings» (161).8 Digitale Daten müssen also durch ein explizites Protokoll bestimmt sein, das sich immer wieder neu und eindeutig nachvollziehen lässt. Immer wieder wird allerdings behauptet, dass es ein digitales Bild eigentlich gar nicht gebe (z. B. Hoberg 1999: 25), denn um als Bild wahrge- nommen zu werden, müssten die Daten ja schließlich wieder in eine ana- loge Form gebracht werden. So schreibt beispielsweise Schröter (2004a: 25): «[Es] müssen digitale Medien […] auf ihren Oberflächen aisthetisch analog bleiben, […] weil menschliche Sinne nur kontinuierliche Schwingungen verarbeiten können.» Das ist allenfalls halbwahr. Zwar ist es richtig, dass die binär codierten Informationen wieder in physikalische Dimensionen übersetzt werden müssen, die für das menschliche Wahrnehmungssystem zugänglich sind, also beispielsweise in elektromagnetische Strahlung im sichtbaren Bereich zwischen circa 400 und 700 nm. Keinesfalls ist es aber so, dass diese Daten kontinuierlich aufbereitet werden müssen; vielmehr ist es eine genuine Eigenschaft des menschlichen Wahrnehmungssystems, insbesondere des visuellen Systems, dass es diskontinuierliche Erschei- nungen zu einem Ganzen verschmilzt, wenn die zeitlichen oder räumli- chen Einheiten klein genug sind. Andernfalls würde die Filmwahrneh- mung nicht funktionieren, und wir würden auf dem Computerbildschirm lauter einzelne Punkte sehen. In dieser verwirrenden Situation bietet Manovich (2001: 289) eine wahrhaft salomonische Lösung an: «The computer-based image consists of two levels, a surface appearance and the underlying code.»9 Durch die Oberflächeneigenschaften, nämlich eine analoge Erscheinungsweise als Bild, ist es Teil einer allgemeinen Bildertradition. Mit dem zugrunde liegenden Code stehen ihm alle Möglichkeiten digitaler Bildbearbeitung offen, und gleichzeitig wird das Bild Teil eines digitalen Ökosystems. 8 «Um digital zu sein, muss ein System nicht nur diskontinuierlich, sondern auch syn- taktisch und semantisch durchgängig differenziert sein. […] Die wirklichen Vorzüge von digitalen Instrumenten sind die von Notationssystemen: Eindeutigkeit und Wie- derholbarkeit des Ablesens.» 9 «Ein digitales Bild besteht aus zwei Ebenen, nämlich der Oberflächenbeschaffenheit und dem zugundeliegenden Code.» Materialität 41 Materialität Das digitale Bild entbehre jeder Materialität, so eine weit verbreitete Ansicht. Bei Wolf (2000: 68) beispielsweise heißt es dazu: «They exist con- ceptually instead of materially.»10 Simons (1999: 110) meint sogar: «Strictly speaking, digital images have no material support at all»,11 und Legrady (1999: 106) drückt es folgendermaßen aus: «These works are free from the constraints of materiality.»12 Intuitiv gibt es einen deutlichen Unterschied zwischen der Ma- terialität eines analogen Mediums wie des Films und der Materialität digitaler Bilder, den ich auf der Basis von verschiedenen theoretischen Überlegungen diskutieren werde, die zu diesem Thema bereits existieren. Denn jede Erörterung der Digitalität greift dieses Thema auf, und zwar zu Recht, weil einige der Charakteristika digitaler Medien unmittelbar daran gekoppelt sind. Wie der Vergleich der verschiedenen Positionen aber zei- gen wird, unterscheiden sich sowohl deren Prämissen als auch die daran anschließenden Schlussfolgerungen. Weil eine Leitfrage dieser Arbeit sich dem Wesen des Films und insbesondere dessen möglichen Veränderungen in einer Zeit des digitalen Umbruchs widmet, ist die Erörterung der The- matik auch hier unerlässlich. Im zweiten Halbsatz von Legrady (1999: 106) heißt es weiter – und das ist entscheidend –, dass digitale Bilder insofern keine Materialität auf- weisen, als sie in Form numerischer Daten auf sehr mobilen Einheiten wie Harddisks oder CD-ROMs gespeichert werden können und nur dann ma- terialisiert werden müssen, wenn man sie benötigt. Nur existieren Hard- disks und CD-ROMs eben doch in materieller Form, und damit wird eine Achse der Argumentation klar: Im Gegensatz zu fotochemischen Bildern, bei denen sich die Information unmittelbar im Trägermaterial manifestiert und in Form von Sinnesdaten zugänglich bleibt, verschwindet sie in der digitalen Domäne hinter einer opaken Oberfläche: Es gibt bei digitalen Bildern einen Unterschied zwischen dem Träger und der gespeicherten Information. Es bliebe also zu fragen, ob nicht am Ende dieser Unterschied nur ein phänomenaler und nicht ein prinzipieller sei. Denn ist es nicht so, dass sich auch digitale Information irgendwo materiell niederschlägt, zum Beispiel als Veränderung einer Ladung in einer Halbleiterstruktur? Schon wenn wir ein historisch gesehen intermediäres Medium wie die – analoge – elektronische Bildaufzeichnung zum Vergleich heranziehen, verschwimmen die Unterschiede zwischen der digitalen und der analogen 10 «Sie existieren nur als Konzepte, nicht als Materie.» 11 «Genau genommen verfügen digitale Bilder über keinerlei Trägermaterial.» 12 «Diese Werke sind an keine materiellen Beschränkungen gebunden.» 42 Digitale Bilder: Eigenschaften Materialität. Denn auch dort entziehen sich die Daten dem unmittelbaren sensorischen Zugriff und sind nur noch als magnetische Ladung vorhan- den, die man ohne das entsprechende technische Equipment nicht wahr- nehmen kann. Weiter kann die analoge Information ebenfalls durch den Äther geschickt oder in Kabel eingespeist werden, sodass auch die Ubiqui- tät und die Telepräsenz nicht den digitalen Medien vorbehalten bleiben. Problematisch ist auch die folgende Aussage von Hoberg (1999: 27): «Ohne Strom ist ein digitales Bild nicht denkbar, überspitzt formuliert: das Material des digitalen Bildes ist Energie.» Denn auch ein Filmbild ist ohne Energie nicht denkbar, beruht der Belichtungsprozess doch auf einem Energietransfer, nämlich der einfallenden Photonen auf die Silberhaloge- nide. Und ist ein Film wirklich ein Film, wenn man ihn nur als Streifen in der Hand hält und nicht in einer Projektion im Kino sieht? Solche Überlegungen ließen sich endlos fortsetzen. Sie zeigen auf, dass die Frage nach der Materialität nur einfach bleibt, wenn man – wie die meis- ten Theoretiker – von einem praktischen, an den Dimensionen der Wahrneh- mung orientierten Konzept von Material ausgeht. Aber ist ein solches Kon- zept im Zeitalter der Quantenphysik nicht als naiv und überholt abzulehnen? Zwar wird die Quantenmechanik – wie Hagen (2002: 3) schreibt – gerade we- gen «ihres spezifischen Abgesperrtseins gegen alles Ontologisch-Bildhafte» diskutiert – aber bedeutet das, dass wir, nur weil dieses theoretische Modell unseren archaischen Vorstellungshorizont überschreitet und sich unserer Intuition verschließt, einem obsoleten Weltbild anhängen dürfen oder sogar sollen? Unser Weltbild ist seit der Bildung moderner physikalischer Theorien zu Beginn des 20. Jahrhunderts davon geprägt, dass wir über ein Wissen ver- fügen, welches unserer täglichen Wahrnehmung widerspricht. Deshalb hat schon Le Grice (1999: 312) festgestellt, dass die materiellen Charakteristiken des Mediums entweder so bedeutungslos seien wie die Kästen, in denen sich die digitale Information befindet – damit meint er die Computer –, oder aber von so kleinen Ausmaßen, dass sie außerhalb der Wahrnehmung liegen. Von dieser Äußerung lässt sich ein Bogen spannen zu Jameson (1984: 36 f.), der die taktile Qualität des mechanischen Zeitalters mit einem Symbolwert assoziiert, welcher dem Computer fehle, der über keine visuelle oder emblematische Kraft verfüge, sondern wie der Fernseher nur über eine flache Bildoberfläche (flattened image surface). Jamesons Haltung erinnert an den von Benjamin als Aura beschriebenen Kultwert des Originals. So schreibt auch Wolf (2000: 69), dass zwar Behälter notwendig sind, diese Be- hälter aber nicht Teil des Kunstwerks sind und dessen Kultwert nicht teilen. Wenn digitale Bildinformationen ebenfalls über eine materielle Grundlage verfügen, heißt das ja nicht, dass damit die materiellen Un- terschiede zwischen den fotochemischen und den digitalen Prozessen Materialität 43 ausgelöscht sind. Stattdessen zeigt sich eher ein historisches Kontinuum vom mechanischen über das elektronische zum digitalen Zeitalter, dessen Trend weg von der haptischen hin zu einer abstrakten Materialität führt und damit auch weg von der unverbrüchlichen Verquickung von Mate- rial und Wahrnehmungsgegenstand hin zu einer mehr und mehr losen Verbindung – Le Grice (1998: 122) nennt sie akzidentiell. Ich habe deren Ar- bitrarität schon angesprochen. Diese zunehmende Entkoppelung kommt auch in Mano vichs bereits zitiertem Bild von einer Schichtung zwischen wahrnehmbarer Oberfläche und tiefer liegendem mathematischen Code zum Ausdruck. Entsprechend sind die Phänomene des Filmischen immer geprägt von ihrer Materialität, von einer physisch vorhandenen Kamera und von den materiellen Eigenschaften der Emulsion sowie der darin ein- geschlossenen, durch Licht aktivierten Substanzen. Schon in der elektro- nischen Phase wird die Materialität polymorph: Die Daten lassen sich auf verschiedenen Trägern speichern, deren Eigenschaften nur noch vermittelt wahrzunehmen sind, beispielsweise als Rauschen. Noch polymorpher aber ist die Materialität digitaler Daten. Ich könnte sie in Stein meißeln, sie lassen sich auf Tesa-Film13 speichern oder aber in den Siliziumkristallgit- tern von Halbleitern. Man könnte auch sagen, dass die digitale Materiali- tät opak sei, denn wie eine Blackbox ihren inneren Mechanismus verbirgt, so maskiert das digitale Bild seine materiellen Grundlagen. Nicht nur in Form seiner Speichermedien verfügt das digitale Bild über eine Verknüpfung zur physikalischen Welt, sondern auch über die Materia- lität seiner Oberfläche, auf der es – wie oben beschrieben (→ 40) – in einer für den Rezipienten wahrnehmbaren Dimension erscheint. Die Materialität digitaler Oberflächen wird gerade in der futuristischsten Anwendung, der sogenannten Virtual Reality, deutlich, die eine Reihe von mechanischen In- terfaces von Trackballs über Monitore zu Helmen und ferngesteuerten Auf- hängeapparaturen benötigen, um ihre Informationen zu kommunizieren. Zur Materialität digitaler Medien gehört es auch, dass sie bis heute erstaunlich mechanisch geblieben sind. Schon das Mensch/Maschine-In- terface, mit dem die Daten in den Computer eingespeist werden, norma- lerweise eine Tastatur, hat sich außer im Hinblick auf eine Miniaturisie- rung kaum von der klassischen mechanischen Schreibmaschinentastatur wegentwickelt. Fast alle Speichermedien, von den frühen Magnetbändern über CD- oder DVD-ROM bis zur Harddisk, kommen nicht ohne mechani- sche Teile aus, ebenso wie manche Ausgabegeräte, beispielsweise Drucker. Diese mechanische Seite gehört wohl zu den Übergangsphänomenen, 13 Diese Entdeckung machten Matthias Gerspach und Steffen Noehte 1998 an der Uni- versität Mannheim. Das Verfahren wird heute von der Firma Tesa Scribos vermarktet (vgl. http://www.tesa-scribos.de). 44 Digitale Bilder: Eigenschaften welche nicht dem Medium an sich entsprechen, sondern historische Über- bleibsel von Präfigurationen darstellen. Damit sind wir wieder bei der Schichtenhypothese von Manovich, die er an anderer Stelle (2001: 180) weiter ausbaut: «The visual culture of a computer age is cinematographic in its appearance, digital on the level of its material and computational in its logic.»14 Diese Behauptung ist in Teilen sehr unscharf, wenn nicht sogar tautologisch. Denn erstens legt Manovich nirgends fest, was eine kinematische Erscheinungsform sein soll, und zweitens gibt es – wie sich in dieser Arbeit immer wieder zeigen wird – durchaus phänomenale Unterschiede zwischen dem kinemati- schen in seiner ursprünglich analogen und seiner digitalen Ausprägung. Weiter ist es geradezu ein Pleonasmus, zu sagen, die Computerkultur sei digital in ihrer Materialität. So bleibt am Ende nur noch die rechnerische Logik als Ausgangspunkt, auch wenn die Einsicht nicht gerade neu ist. Schon Flusser hatte in seinem anregenden Essay Krise der Linearität (1988) davon gesprochen, dass das Zahlendenken die Logik der neuen Kommu- nikation sei. Immerhin bin ich überzeugt davon, dass der Eindruck von Immaterialität aus dieser Form von abstrakter Logik rührt, die sich zwar aus den Phänomenen der physikalischen Welt nähren kann und oft auch nährt, um im Sinne Luhmanns (1995: 35) als kommunikativer Akt ihre Anschlussfähigkeit zu bewahren, also entschlüsselt und verstanden zu werden; aber sie ist nicht durch einen inhärenten Mechanismus an diese Prinzipien gebunden. In diesem Sinne ist wohl auch Freyermuth (1997: 2) zu verstehen: «Heute aber schüttelt die Filmkunst radikal das limitierende physische Medium ab, von dem sie ihren Namen bezog. […] Dieser Wech- sel bedeutet einen radikalen Entwicklungssprung: was digitalisiert wird, verliert die Inelastizität der Materie.» Weil diese Denklinie im Kontext der digitalen Kultur so wichtig ist, werde ich mich mit den Folgeerscheinun- gen dieser veränderten Logik im Kapitel Abbildung (→ 275) weiter ausei- nandersetzen. Diese Logik, so ist abschließend festzuhalten, resultiert weder aus der fehlenden Materialität, noch hat sie eine effektive Immaterialität zur Folge. Auch wenn die Operationen im mathematischen Zwischenbereich zwischen materiellem Träger und materieller Oberfläche stattfinden, so sind sie – wie Le Grice (2001: 288) bemerkt, dessen gelebter Kampf mit der digitalen Materie sich in allen seinen Äußerungen niederschlägt – doch real, und zwar so real wie ein aufgeklebter Besen auf einem Jasper- Johns-Gemälde. Viele digitale Praktiken – besonders jene, die in einem 14 «Die visuelle Kultur des Computerzeitalters wirkt kinematografisch, ist digital in ihrer Materialität und basiert auf einer rechnerischen Logik.» Zur Frage des Generationenverlusts 45 traditionellen medialen Kontext stattfinden wie die Filmarbeit – unterdrü- cken ihre materiellen Eigenschaften, und es bleibt einer marginalisierten digitalen Avantgarde – zu der Le Grice zu zählen ist – vorbehalten, mit künstlerischen Mitteln ihre Strukturen sichtbar zu machen und diese Materialität zu reflektieren. Denn der materielle Widerstand, der vom di- gitalen Medium ausgeht, liegt gerade in dessen mathematischer Logik, die nicht auf eine kulturelle oder mediale Anwendung hin entwickelt wurde. Wie Turim (1999: 55) schreibt, ist es ohnehin eine fragwürdige Annahme, zu glauben, dass es eine Kommunikation ohne materielle Grundlage gebe. Zwar sind schon Entwicklungen in der Pipeline, welche darauf ab- zielen, die krude Mechanik zu überwinden und Interfaces zu konzipie- ren, die direkt die Datenströme des Gehirns abgreifen und auch wieder füttern. Solche Interfaces gehören schon lange zum Motivrepertoire des Science-Fiction-Films. Aber erst wenn diese Utopien eines Tages verwirk- licht sein werden, wird es Zeit, nochmals über die Möglichkeit einer im- materiellen Kommunikation nachzudenken. Zur Frage des Generationenverlusts «Images can be twisted, warped, stretched, squeezed, enlarged, shrunk, blurred, coloured and dissolved, and practically any other process can be applied to them […] without any loss of resolution or quality»15 (Rickitt 2000: 82). In der gegenwärtigen Praxis ist die weit verbreitete Annahme, dass digitale Bilder bei ihrer Prozessierung keinen Generationenverlust erleiden, wie es unter anderem Rickitt formuliert, nicht haltbar. Mit Blick auf die bis heute meist übliche Kompression digitaler Bilddaten hatte Lu- nenfeld (1996: 164) bereits diesem Mythos widersprochen. Und so schreibt Brinkmann in seinem Standardwerk zum digitalen Compositing: There is a popular misconception that working with digital images means that one need not be concerned with decreased quality whenever a multitude of image manipulations are applied. This is such a pervading fallacy that it must be refuted immediately; in a large bold font: ‹Digital› does not imply ‹lossless›.16 (Brinkmann 1999: 175) 15 «Bilder lassen sich verdrehen, verformen, strecken, stauchen, vergrößern, schrumpfen, verwischen, einfärben oder auflösen, und es lässt sich praktisch jedes weitere Verfah- ren ohne Verlust an Auflösung oder Qualität anwenden.» 16 «Eine weit verbreitete Meinung geht davon aus, dass bei der Arbeit mit digitalen Bil- dern eine Vielzahl von Bearbeitungen ohne jede qualitative Einbuße möglich sei. Diese hartnäckige Fehlannahme muss ich unverzüglich und mit Nachdruck zurückweisen: ‹Digital› bedeutet nicht ‹verlustfrei›.» 46 Digitale Bilder: Eigenschaften Zum einen sind die Auflösung und die Codierungsstufen nach wie vor in weiten Teilen so grob, dass sie bei der Bearbeitung zu sichtbaren 1 Aliasing und Anti-Aliasing Arte fakten führen, beispielsweise zu Aliasing und Banding. Unter Aliasing versteht man die treppenartige Kantenstruktur, die insbesondere bei diago- nalen Bildelementen sichtbar wird. Dieses Artefakt resultiert aus der starren Anordnung der Pixel in gitterförmigen Rasterstrukturen. Sie werden immer wieder als ästhetisch problematisch empfunden, besonders dort, wo organi- sche Bildinhalte zur Darstellung kommen, beispielsweise Gräser oder Getrei- defelder, aber auch Menschenmassen, wenn sie sich – wie in The Lord of the Rings – in gigantischen Truppenformationen über die Leinwand schieben. Eine weitere Unverträglichkeit der Rasterstruktur mit bestimmten Objektanordnungen führt zum Moiré, einer Interferenz zwischen zwei einander überlagerten Linienmustern, die dadurch zustande kommt, dass sich gewisse Informationen ungleichmäßig auf benachbarte Pixel aufteilen. Das Moiré wird besonders dort sichtbar, wo feine diagonale Linienmuster digital abgebildet werden. Ein weiterer Effekt ist das sogenannte Stepping oder Banding. Durch eine ungenügende Anzahl von Kontraststufen oder durch die nicht den perzeptiven Anforderungen genügende Codierung der Helligkeitswerte sowie durch Rundungsfehler im Wandlungsprozess werden feine kontinu- ierliche Verläufe von Farb- oder Helligkeitsnuancen in Stufen umgerechnet. Gegen alle diese Artefakte hat man Fehlerkorrekturen entwickelt, welche deren Sichtbarkeit unterdrücken, zum Beispiel das Anti-Aliasing, mit dem an den Kanten die perzeptive Härte durch Graustufen gemildert wird, oder das Tone Mapping, mit dem die Kontraststufen so umgerechnet werden, dass das Banding verschwindet. So sehr diese Korrekturen im einzelnen Bild Sinn machen, so riskant werden sie jedoch bei der Bildpro- zessierung, bei der man strikt darauf achten muss, die Fehlerkorrektur nur einmal, nämlich am Ende des ganzen Verfahrens, vorzunehmen, da sich sonst die Eingriffe potenzieren und zu neuen Artefakten führen. Zudem müssen digitale Bilddaten bis heute in den meisten Fällen wegen der hohen Datenmengen komprimiert werden, sodass auch die Kompressionsalgorithmen über mehrere Generationen immer deutlichere Fehler nach sich ziehen. Coy (2000: 6) fasst die Problematik kurz und bün- dig zusammen: «Eine völlig fehlerfreie (also beliebig korrigierbare) Codie- rung ist auch mit digitalen Systemen niemals erreichbar.» Eine besondere Fehlerquelle entsteht dort, wo digitale Bilddaten skaliert, also verkleinert oder vergrößert werden müssen. Gehen wir vom Universalität 47 einfachen Beispiel, einer sowohl horizontalen wie vertikalen Skalierung von je 50 %, aus. In diesem Fall entsprechen vier Pixel des Ausgangsbildes einem einzigen Pixel des Zielbildes, was bedeutet, dass man einen Mit- telwert der vier Pixel berechnen muss. Dies ist an sich schon relativ an- spruchsvoll, denn es reicht selten, einfach das arithmetische Mittel zu be- rechnen. Entschieden komplizierter wird die Aufgabe, wenn man bewegte Bilder skalieren muss. Denn nun kann sich beispielsweise ein schwarzer Pixel einmal in der einen, einmal in der anderen Gruppe von weißen Pixeln befinden. Berücksichtigt man also nur die vier Ausgangspixel, be- ginnt das Bild zu flimmern, Linien zittern, der gesamte Eindruck wird flauer, Details gehen verloren, das Bild verliert an Schärfe. Es muss also eine Reihe von Filterungen vorgenommen werden, die dieser Artefakt- bildung entgegenwirken, sich aber über mehrere Generationen aufsum- mieren. Skalierungen finden bei der Filmbearbeitung auf verschiedenen Stufen Anwendung, zum Beispiel bei Texturierungen, also der Zuweisung von zweidimensionalen Bildern auf die Oberfläche von dreidimensiona- len Objekten (→ Texturing 80), oder im Compositing (→ 191). Universalität Da die digitalen Daten in abstrakter mathematischer Form vorliegen, sind sie, wie erwähnt, Teil eines digitalen Ökosystems und eignen sich beson- ders für die Transmission, die Einspeisung in verschiedene Mediensysteme, und die Transformation, die Bildbearbeitung oder Wandlung (z. B. Bild in Ton). Damit sind wir wieder bei der Metapher vom Tauschsystem. Bildlich könnte man anführen, dass die binäre Codierung wie eine universelle Währung funktioniert, welche die globale Kommunikation erleichtert. Die kulturellen Konsequenzen dieses Prinzipienwandels werden kontrovers diskutiert. So kritisiert Donna Haraway die nivellierende Wir- kung eines alles umfassenden Codes: Communication sciences and modern biologies are constructed by a common move – the translation of the world into a problem of coding, a search for a common language in which all resistance to instrumental control disappears and all heterogeneity can be submitted to disassembly, reassembly, invest- ment, and exchange.17 (Haraway 1985: 164) 17 «Die Kommunikationstheorien und die moderne Biologie basieren auf einem gemein- samen Projekt, nämlich die Welt als ein Codierungsproblem zu verstehen, für das man eine gemeinsame Sprache finden muss, die jeden Widerstand und alle Heterogenität auflöst, indem sie alles zergliedern, wieder zusammensetzen, erwerben oder austau- schen kann.» 48 Digitale Bilder: Eigenschaften Gerade am Beispiel biologischer Codierung wird deutlich, wie problema- tisch diese Kritik ist, ja mehr noch, das Beispiel Biologie zeigt, wie frag- würdig die etablierte Zuordnung ‹analog = natürlich›, ‹digital = künstlich› eigentlich ist. Denn nicht die biologische Wissenschaft schreibt den ana- lysierten Prozessen eine einheitliche Codierung vor, sondern sie entdeckt Prinzipien eines fundamentalen biologischen Kommunikationssystems, das sich auch an anderen Orten zeigt. Wie Heinz von Foerster (1988: 34) darstellt, hatte der Biologe Johannes Müller schon vor Helmholtz ein radi- kales Konzept der Wahrnehmungstheorie entworfen, dessen Bedeutung die wissenschaftliche Forschung jedoch erst 100 Jahre später erkannte. Dieses Prinzip der undifferenzierten Codierung formuliert von Foerster (1988: 35) folgendermaßen: «Die Erregungszustände aller Rezeptoren codieren nur die Intensität, aber nicht die physikalische oder chemische Natur der Erregungssache: Codiert wird nur ‹So-und-so-viel› an dieser Stelle meines Körpers, aber nicht ‹Was›.» Tatsächlich ist die Ähnlichkeit zum digitalen Codierungssystem frappierend, sodass sich schon die Frage aufdrängt, ob Denken nicht an sich digital sei. Wie Uhl (2004) darlegt, trifft das in einem umfassenden Sinn zwar nicht zu, aber gewisse Analogien, besonders zum Prinzip der undifferenzierten Codierung, in dem sämtliche Reizempfin- dungen in ein einheitliches Übertragungssystem übersetzt werden, sind nicht zu übersehen. Auch im digitalen System wird die Reizspezifität beibehalten, die dem digitalen Code eine eindeutige Anweisung zur Interpretation zu- weist, die sich immer auf eine bestimmte Modalität oder eine Anordnung von Modalitäten bezieht, z. B. des Akustischen und des Optischen im QuickTime-Format. «Thus the data in a computer does not resemble its source in any sense, it is sheer codification. Without an agreed system for interpreting the coded data, the data for one type of information looks exactly like the data for any other type of information»18 (Le Grice 2001: 313). Damit am Ende aus dem digitalen Code ein sichtbares Bild entstehen kann – diesen Vorgang nennt man Synthese, weil die Daten wieder zu einem Ganzen zusammengefügt werden sollen –, müssen also die Codie- rungsregeln bekannt sein. Digitale (Bild-)Daten enthalten deshalb nicht nur die quantisierten Informationen, sondern auch Metadaten über das Speicher-, Kompressions- und Ausgabeformat (z. B. JPEG, GIF, PDF). Die Synthese ist unabhängig davon, ob die Daten durch Aufzeich- nung einer physikalischen Ausgangsstruktur gewonnen werden, durch zeichnerische Nachbildung oder durch Modellierung einer imaginären 18 «Computerdaten beruhen also auf reiner Codierung, die sich in keiner Ähnlichkeits- beziehung zur Quelle befinden. Ohne ein vereinbartes System zur Interpretation der codierten Daten lassen sich die verschiedenen Codierungstypen nicht unterscheiden.» Universalität 49 Welt – eine Eigenschaft, die direkt mit der Universalität zusammenhängt: «The computer was thought of by [Frieder] Nake19 as a ‹Universal Picture Generator› capable of creating every possible picture out of a combination of available picture elements and colors»20 (Dietrich 1986: 166). Unmittelbar an diese Universalität schließen einige Grundeigen- schaften des digitalen Bildes an, die im Laufe dieser Studie immer wieder von Bedeutung sein werden: z Programmierbarkeit Die Programmierbarkeit digitaler Daten reiht sich direkt an die Analyse und Synthese an und bezeichnet ein Set von Handlungs- anweisungen, die auf die Ausgangsdaten angewandt werden sollen (z. B. Formen der Bildbearbeitung) oder durch welche zwi- schen verschiedenen Daten neue Beziehungen geschaffen werden (z. B. Hyperlinks, Montage, Layering, Compositing). z Modularität Das digitale Bild kann aus verschiedenen Bildteilen oder Bild- schichten bestehen, zwischen denen komplexe räumliche oder zeitliche Beziehungen definiert werden können: «Image process- ing, image synthesis, and writing or organizing digital code in a procedural or linguistic fashion»21 (Youngblood 2003: 156). z Direktzugriff (random access) Durch ihre mathematisch definierte Form lassen sich digitale Da- ten direkt adressieren, sie sind äquidistant und punktförmig. Ran- dom Access gilt als Ursprung der Auflösung von linearen Denk- mustern sowie der Bildung von netzwerkartigen Strukturen, wie sie sich durch Hypertext mit zahlreichen Links realisieren lassen. Flusser macht an ihrem Unterschied zu linearen Repräsentations- formen, wie sie sich beispielsweise in Texten oder auch in Filmen zeigen, einen fundamentalen Wandel des Denkens fest. Diese Krise des linearen Denkens wurde gemäß Flusser (1988) dadurch ausgelöst, dass neben das sprachliche ein mathematisches Denken trat: «Während die Buchstaben die Oberfläche des Bildes in Zeilen einteilen, zerbröckeln die Zahlen diese Oberfläche zu Punkten und Intervallen. Während das buchstäbliche Denken die Szenen zu Prozessen aufrollt, kalkuliert das Zahlendenken die Szenen zu 19 Frieder Nake ist ein deutscher Pionier der Computerkunst. 20 «Frieder Nake verstand den Computer als eine universelle Bilderzeugungsmaschine, mit der sich jedes denkbare Bild aus einer Kombination von vorhandenen Elementen und Farben erzeugen ließ.» 21 «Bildbearbeitung, Bildsynthese sowie Schreiben oder Organisieren von digitalen Co- des mit einem prozeduralen oder linguistischen Verfahren.» 50 Digitale Bilder: Eigenschaften Körnern.» Wenn Filme also mit Verfahren operieren, die dieser punktförmigen, nicht-linearen Denkweise entspringen, müsste sich darin ein Culture Clash manifestieren, der neue Erzählweisen hervorbringt. z Interaktivität Durch die Programmierbarkeit und den Direktzugriff eignen sich digitale Daten besonders für interaktive Kommunikation mit dem Rezipienten (z. B. Internet oder Computerspiel). Basierend auf deren Universalität postuliert Le Grice (2001: 237) eine hie- rarchische Beziehung zwischen dem Analogen und dem Digitalen, denn das digitale System könne das analoge in sich aufnehmen, weil es umfas- sender sei. Nichts anderes meint wahrscheinlich auch Manovich (2001: 302) mit seiner Prognose, dass sich der Spielfilm zur Unterkategorie der Animation hin entwickle, genauso wie Lunenfeld (1996: 161) prophezeit hatte, dass sich die Fotografie im digitalen Zeitalter der Grafik unterord- nen würde. Denn die fotorealistische Grafik und die digitale Fotografie würden sich «in ihrer Zusammensetzung» nicht unterscheiden, «da es sich ja im Grunde einfach um Repräsentationen von binären Paaren» handle. Im Moment bleiben solche Aussagen spekulativ, weil sie nicht der gegen- wärtigen Praxis entsprechen. Noch dominieren in der Spielfilmproduktion analoge Techniken, und noch prägen diese analogen Techniken auch die Ästhetik des Digitalen. Zwar können digitale Verfahren analoge Techniken nachbilden und werden damit McLuhans Diktum, dass der Inhalt jedes neuen Mediums ein altes sei, in seltenem Maß gerecht, aber dieses Auf- nehmen bringt immer auch eine Veränderung der Qualität mit sich. Scannt man beispielsweise ein Gemälde, extrahiert man mit den üblichen Verfah- ren nur die Farbverteilung, nicht jedoch weitere Oberflächeneigenschaften wie die dreidimensionale Struktur der Farbe oder das Reflexionsverhalten. So bringen digitale Repräsentationsformen ein schier unendliches Feld von praktischen, aber auch von grundsätzlichen Fragen zu ihrem Wesen mit sich. Immer aber sind sie offen oder versteckt Embleme eines techni- schen, ästhetischen und kulturellen Aufbruchs, wecken Hoffnungen oder Ängste, deren Berechtigung zu diskutieren sein wird. Modellieren Grundlagen der Modellbildung Computermodellierte Objekte können fast jede erdenkliche Form anneh- men. Ähnlich wie in der Malerei sind dem schöpferischen Geist kaum Grenzen gesetzt, Gegenstände oder Szenen zu erfinden und bildnerisch darzustellen. Aber anders als in der bildenden Kunst sind diese Gegen- stände im Computer als dreidimensionale Möglichkeiten vorhanden, die man immer neu, aus ganz unterschiedlichen Perspektiven, in unter- schiedlichen Lichtverhältnissen und sogar in anderer räumlicher Anord- nung zu Bildern werden lassen kann. Dreidimensionale Objekte befinden sich – so könnte man sagen – in einem potenziellen Status, der je als Bild neu zu aktualisieren ist. Damit deuten sich Analogien zum Verhältnis von inneren Vorstellungsbildern und äußerer Wirklichkeit an, wie sie in der Kognitions psychologie angenommen werden. Ohne diese Analogien in all ihren Konsequenzen diskutieren zu wollen – denn dieses Thema werde ich später unter abbildungstheoretischen Gesichtspunkten behandeln –, macht es doch Sinn, an dieser Stelle die Klammer zu öffnen und den spezi- fischen Status der Modellbildung im Computer noch vor der Darstellung der technischen Grundlagen und Verfahrensweisen mit zu bedenken. Computergenerierte Modelle ähneln nämlich nicht nur in ihrem Ver- hältnis von Potenzial und Aktualisierung der Kognition und der Wahrneh- mung, sondern sie haben ihren Ursprung auch in einer streng kognitiven Tätigkeit, nämlich dem formalisierten Wissen von geometrischer Raumor- ganisation und verschiedenen Projektionsverfahren. Denn zunächst geht es beim Modellieren im Computer darum, Objekte in einem dreidimensio- nalen Koordinatensystem mathematisch zu beschreiben. An die Stelle der vorwiegend intuitiven, unterschiedlich stark von formalisierten Verfahren geprägten Bildgenese in der Malerei tritt eine zunächst absolut abstrakte Tätigkeit, die erst mit dem Aufkommen von standardisierter Software in der zweiten Hälfte der 1980er-Jahre ihren rein logisch-mathematischen Beschreibungskode überwunden und dem Menschen ein Stück seiner in- tuitiv gestalterischen Herangehensweise zurückgegeben hat. Immer noch leistet das Computerinterface der unmittelbaren An- schauung beträchtlichen Widerstand. Objekte sind zunächst nur als sche- 52 Modellieren menhafte Drahtgittermodelle in einer Welt sichtbar, die keinerlei Anhalts- punkte über ihre Dimensionen, ihre Nähe oder Ferne liefern. Ganz einfach formuliert, sieht eine computergenerierte Kugel auf dem Monitor immer gleich aus, unabhängig davon, ob sie einen Durchmesser von ein paar Mil- limetern oder ein paar Kilometern hat. Erst in späteren Stadien kommen sinnlich fassbare Informationen dazu, wenn das Objekt in einen szeni- schen Zusammenhang integriert und wenn es mit Materialeigenschaften zu versehen, zu animieren und zu beleuchten ist. Diese Informationen sind jedoch erst nach dem Render-Vorgang, bei dem die Eigenschaften des dreidimensionalen Gegenstands in zweidimensionale Bildeigenschaften überführt werden, der Anschauung unmittelbar zugänglich. Und so bleibt der ganze Modelliervorgang zu weiten Teilen eine abstrakte Vorstellungs- leistung – dies in scharfem Kontrast zur weit verbreiteten Annahme, dass die digitale Welt eine Welt der Unmittelbarkeit und der umfassenden Verfügbarkeit sei. Mensch/Computer-Interfaces In einer Zeit, in welcher jedes Kind mit der Maus umgehen und sich durch die anschaulichen Menüs klicken kann, erscheint es beinahe unvorstellbar, dass sich die Art und Weise, mit der Menschen mit dem Computer kom- munizieren und dreidimensionale Daten im Computer definieren, erst nach Jahrzehnten mühseliger Forschung herausbilden konnte. J. C. R. Licklider fasste in seinem berühmten Grundlagenpapier Man- omputer Symbiosis die Arbeitsteilung folgendermaßen zusammen: «In the anticipated symbiotic partnership, men will set the goals, formulate the hypotheses, determine the criteria, and perform the evaluations. Comput- ing machines will do the routinizable»1 (Licklider 1960: 4). Dabei dachte er jedoch keineswegs an die Bilderzeugung im Computer, sondern an die Datenbearbeitung im Kontext wissenschaftlicher Forschung. Sein Papier bezog sich auch nicht auf ein Zeitbild, sondern auf einen zukünftigen Ho- rizont, der aber durchaus auch für die Bilderzeugung gelten kann. Vorläufer des digitalen Computerbildes waren die von analogen Compu- tern gesteuerten Oszilloskop-Bilder (Abb. 1), die Ben Laposky oder Nor- man McLaren ab 1950 gestalteten. Das Oszilloskop ist in der Lage, Funktionen zweier unterschiedlicher Spannungszustände x und y als leuchtende Punkte oder Linien auf einem 1 «In der zu erwartenden symbiotischen Partnerschaft wird der Mensch die Ziele setzen, die Hypothesen formulieren, die Beurteilungskriterien bestimmen und die Auswer- tung durchführen, während der Computer die Routinearbeiten erledigt.» Mensch/Computer-Interfaces 53 1 Ben Laposkys Oszilloskop-Kunst 2 Ivan Sutherland mit dem Sketchpad zu Beginn der 1960er-Jahre Kathodenstrahlbildschirm wiederzugeben. Das entstehende Bild war also – von einem direkten zeichnerischen Eingriff abgekoppelt – auf eine abstrakte Funktionsbeschreibung in einem zweidimensionalen Koordina- tensystem angewiesen. 1953 gestaltete Hy Hirsch seinen Film Eneri,2 ein Jahr später Mary-Ellen-Bute Abstronic mit dieser Technik (Le Grice 1974: 227). Das Verfahren ist ein direkter Vorläufer der computergenerierten Vektorgrafiken, mit denen John Whitney Sr. in den 1960er-Jahren seine ersten Computeranimationen erstellte. Bereits 1951 jedoch gelang es am Massachusetts Institute of Techno- logy (MIT), mit einer Lichtkanone (light gun)3 auf dem Kathodenstrahl- röhrenmonitor des Whirlwind-Computers direkt Punkte zu adressieren (Hurst 1989). Noch im selben Jahrzehnt entstanden weitere Verfahren, die Lichtgriffel (light pen) als Eingabewerkzeug verwendeten. Als eigentlicher Durchbruch dieser Technik gilt das 1963 von Ivan Sutherland als Ergebnis seiner Doktorarbeit4 am MIT vorgestellte Sketchpad (Abb. 2). Diese Kombination von Hard- und Software, deren Kommunikati- onsinstrument ebenfalls ein Lichtgriffel war, gilt als Vorläufer des GUI 2 Le Grice gibt als Jahreszahl für Eneri 1955 an, verschiedene Quellen im Internet situie- ren den Film im Jahr 1953. 3 Das Prinzip scheint allerdings schon länger bekannt gewesen zu sein, immerhin habe ich im Internet einen Hinweis auf ein Spiel der Firma Seeburg namens Ray-O-Lite ge- funden, das bereits seit 1936 auf dem Markt war. Mit einer Lichtkanone konnte man eine über den gemalten Hintergrund des Vakuum-Röhren-Bildschirms fliegende Ente abschießen (vgl. http://marvin3m.com/arcade/rayolit.htm). 4 Sutherland, Ivan (1963): A Man-Machine Graphical Communication System. In: Pro- ceedings of the AFIPS Spring Joint Computer Conference, Washington D. C., S. 329–346. 54 Modellieren (Graphical User Interface), das heute auf allen kommerziellen Compu- tern als Standardinterface imple- mentiert ist. Mit dem Lichtgriffel konnten Objekte direkt auf der Ka thodenstrahlröhre gezeichnet und mithilfe der Software modi- fiziert werden. Damit waren die wichtigsten Elemente zur grafi- 3 Computer Aided Design mit dem schen Erzeugung von Objekten DAC-1 im Computer geschaffen – über das Eingabeinstrum ent hinaus die Möglichkeit, Objekte im Computer zu bearbeiten und zu speichern sowie die Darstellungsdimensionen mittels Zoom zu verändern, also in das Bild hinein- und hinauszuzoomen. Die Objekte hatte man durch Punkte und Linien definiert wie später die einfachen Drahtgittermodelle. Parallel dazu entwickelten sich das Computer Aided Design (CAD), mit dem DAC-1 (Abb. 3) zunächst ab 1959 bei General Motors (Masson 1999: 392), wo man die Daten mit Lochkarten eingeben oder scannen konnte, später aufbauend auf Sutherlands Eingabe- und Bearbeitungssystem. Dem Lichtgriffel folgte ab 1965 die Maus, am Stanford Research La- boratory von Doug Engelbart entwickelt (Myers 1998: 5) und 1968 einem Fachpublikum vorgestellt. Die Maus war einfacher und billiger als der Lichtgriffel und verbreitete sich mit den Fenster- und Icons-Metaphern, die bis heute grafische Benutzeroberflächen definieren. Gemäß Myers (1998: 5) hatte Engelbart 1968 ebenfalls multiple Fenster vorgestellt, 1969 folgten überlappende Fenster in der Doktorarbeit von Alan Kay an der University of Utah. Kay entwickelte das System am Palo Alto Research Center (PARC) von Xerox weiter, von wo aus es über Steven Jobs 1984 zum integralen Bestandteil des Macintosh-Systems avancierte und später mit Windows von Microsoft als weltumspannender Standard verbreitet wurde. Eine nächste wichtige Etappe der Computergrafik waren die Mal- programme, deren erstes – SuperPaint – Richard Shoup 1975 bei Xerox entwickelte. Im Gegensatz zu den dreidimensionalen Modellierungstools entsprachen diese der Devise What You See Is What You Get (WYSIWYG), waren also unmittelbar zugänglich und voll interaktiv, das heißt, der Nut- zer konnte in direkte Kommunikation mit seinem Werk auf dem Compu- termonitor treten. Bereits der Animationsfilm Hunger (CDN 1974, Peter Foldes) war auf der Basis von computergenerierten Zeichnungen entstan- den, zwischen denen sich die Transformationen mittels einer von Marceli Mensch/Computer-Interfaces 55 Wein und Nestor Burtnyk 1971 entwickelten Software durch Interpolation automatisch berechnen ließen (→ 113). Diese Software begründete die computergestützte Keyframe-Animation, kann aber auch als Vorläufer des späteren Morphings gelten. Während die Bilder von Hunger auf einen drucksensitiven Bildschirm gezeichnet wurden, wie er heute als Touchscreen verbreitet ist, entstand parallel das ebenfalls drucksensitive Grafiktablett als Eingabegerät für Zeichnungen, dessen Grundlagen ge- mäß Carlson bereits 1957 in analoger Technik entwickelt wurden (Carlson 2003, Section 3).5 Mit dem Scannen und Bearbeiten von Bildern – Fotos oder Zeichnun- gen – entwickelte sich eine alternative Linie der Eingabe von Bilddaten in den Computer. Masson (1999: 391) nennt Russel Kirsch vom National Bureau of Standards als Pionier auf diesem Gebiet, der diese Technik be- reits 1957 angewendet hat. Weitere Versuche folgten in den 1960er-Jahren. Mitchell (1992: 11 f.) verweist auf Versuche der Bildbearbeitung am NASA Jet Propulsion Lab. Gemäß einer auf der Website der NASA6 publizier- ten Geschichte der Bildbearbeitung hatte man Video-Bilder, die von den Raumschiffen aus aufgenommen worden waren, bearbeitet. Der endgül- tige Durchbruch gelang der computergestützten Bildbearbeitung schließ- lich mit der von den Brüdern Knoll entwickelten Software Photoshop zu Beginn der 1990er-Jahre. Versucht man nun, die verschiedenen Verfahren zu systematisieren, so zeigt sich, dass sie alle aus einem Hardware- und einem Softwareteil bestehen. In allen Fällen müssen Daten physisch übertragen und anschlie- ßend modifiziert werden. Der Vorgang des Bilderzeugens selber kann z zunächst analog außerhalb des Computers stattfinden wie beim Scannen; z in einer Mischform von analoger Tätigkeit mit dem Lichtgriffel oder auf dem Grafiktablett in Kombination mit der softwarege- stützten Transformation oder Verknüpfung von Bilddaten im Computer erfolgen; z mit der Maus durch das Abrufen bereits bestehender, von Icons oder verbalen Befehlen im Menü repräsentierten bildgenerieren- den Prozessen im Computer. Tatsächlich kommen in der aktuellen Praxis alle diese Verfahren parallel zur Anwendung. Davon später. 5 Carlson gibt einen gewissen Tom Diamond als Erfinder an – eine Angabe, die ich nicht verifizieren konnte (vgl. http://accad.osu.edu/~waynec/history/lesson3.html). 6 http://www-mipl.jpl.nasa.gov/external/iplhistory.html. 56 Modellieren Modellieren in 3D Die abstrakteste, aber auch am weitesten verbreitete Art der dreidimensi- onalen Objekterzeugung im Computer ist das Modellieren mit Polygonen, Grundformen, NURBS oder Subdivision Surfaces. Mit diesen Techniken las- sen sich Objekte herstellen, die der reinen Imagination entspringen, denn sie unterliegen keinen Beschränkungen, die mit den physikalischen Bedin- gungen der realen Welt verkoppelt sind. Die so generierten Objekte haben weder Masse noch notwendig einen Referenzbezug zu einem vorgefunde- nen Gegenstand. Sie existieren also – so könnte man sagen – grundsätzlich frei flottierend in einem abstrakten Datenraum. Diesen Datenraum beschreibt das kartesische Koordinatensystem mit den Variablen X, Y, Z. Jeder Eckpunkt p (vertex, Pl. vertices) kann darin mathematisch durch die Werte (x,y,z) definiert werden. Linien entstehen durch die Verbindung zweier, Polygone (Abb. 4) durch die Verbindung mindestes dreier Eckpunkte, die im Gegenuhrzeigersinn angeordnet sind (Driemeyer 2001: 8). Gruppen von Polygonen werden Mesh genannt. Umfasst ein solches Koordinatensystem alle denkbaren Punkte relativ zu einem Nullpunkt, spricht man von einem Worldspace. Objekte lassen sich in diesem System auf verschiedene Arten be- schreiben (vgl. Watt 2002: 43 ff.) als z Felder miteinander verknüpfter Polygone; z mathematisch genau definierte Körper durch implizite Funktio- nen – so beschreibt x2+y2+z2=r2 eine Kugel; z gekrümmte, durch mathematisch definierte Kurven bestimmte Flächen (bicubic patches und free-form surfaces); z durch sogenannte Voxel, elementare Würfel, aus denen sich die Körper zusammensetzen. Wenn Polygonfelder (polygon meshes) miteinander verknüpft werden, ent- steht ein Drahtgittermodell (wire frame). Längst ist diese Darstellungsform 4 Ein Polygon im kartesi- schen Koordinatensystem Modellieren in 3D 57 zum Symbol für computergene- rierte Bilder schlechthin geworden, und es gibt eine Reihe von ästhe- tischen oder erzählerischen Kons- tellationen, in denen Drahtgitter- modelle eine Rolle spielen. So hatte das Team um Douglas Trumbull für die Monitorbilder in 2001: A Space Odyssey (GB/USA 1968, Stanley 5 Musique Non Stop von Rebecca Kubrick) solche Modelle tatsäch- Allen lich von Hand mit Draht erzeugt und mit Stop-Motion im Einzelbildmodus animiert (Logan in cinefex 85: 86), dies mit dem Ziel, Computerbilder zu simulieren. Auch der Com- puterkünstler Herbert Franke (1984: 6) meint: «Diese stark abstrahierte Darstellungsweise weist interessante ästhetische Aspekte auf und wird beispielsweise in Werbespots von Autos immer wieder gerne gezeigt», ebenso im Musikvideo Musique Non Stop (USA 1986, Rebecca Allen, Abb. 5) der deutschen Musikgruppe Kraftwerk. Polygonmodellierung ist in ihrer ureigenen Charakteristik für die Herstellung jenes Typs von Objekten geeignet, die durch technische Pro- zesse hergestellt werden. Trotzdem hat sich das Verfahren wegen seiner großen Flexibilität auch dort durchgesetzt, wo organische Formen wie Dinosaurier oder digitale Figuren hergestellt werden sollen. Ein gutes Beispiel für den prinzipiell anorganischen Look von Polygonmodellie- rung stammt aus der Frühzeit der Computeranimation im Kontext des Films, nämlich das Raumschiff Sark’s Carrier (Abb. 6) aus Tron (USA 1982, Steven Lisberger), dessen raumbegrenzende Linien strikt geome- trisch sind. Das alternative Konzept des Modellierens mit mathematisch de- finierten Grundformen hat die Firma MAGI angewandt, um die vom Industriedesigner Syd Mead entworfenen Light Cycles (Abb. 7) in Tron zu erstellen, indem sie die einzelnen Grundformen durch Boolesche Ope- 6–7 Tron: Sark’s Carrier (links); Light Cycles (rechts) 58 Modellieren 8 Die Utah-Teekanne 9 Utah-Teekanne als Wettbewerbs- beitrag rationen (AND, OR, NOT, NOR) miteinander verknüpft hatte. Das heißt, die Formen setzen sich wie im Baukastensystem zusammen – mit dem Unterschied zur realen Welt, dass sich Formen auch subtrahieren lassen; ein Vorgang, welcher dem Ausschneiden entspricht. Watt (2002: 62 f.) stellt diese Methode unter dem Begriff «Objektdarstellung durch Constructive Solid Geometry» dar. Wie er weiter schreibt, hat sich diese Methode aus der Einsicht entwickelt, dass sich «sehr viele gefertigte Objekte durch Kombinationen elementarer Formen» darstellen lassen (Watt 2002: 47), indem auf abstrakter Ebene die industriellen Fertigungsschritte des Zu- sammenbauens, Fräsens oder Stanzens nachvollzogen werden. In heutigen 3D-Softwares wie Maya von Alias7 oder 3D Studio Max von Autodesk lassen sich vorgefertigte Grundformen (primitives) wie Zy- linder, Kugel, Torus (ein ringförmiger Körper) oder Ebene abrufen und anschließend entweder durch eine Reihe von Werkzeugen oder durch direktes Adressieren der Koordinaten transformieren. Typische Transfor- mationen umfassen das Extrudieren, also das Herausziehen von einzelnen Polygonen, das Teilen von Polygonen mit ‹Messern›, das verteilte Defor- mieren mit ‹Magneten›, das Kopieren von bereits modellierten Körpern, das Zusammenfügen und vieles andere mehr. Einen guten Überblick über Basiskonzepte des dreidimensionalen Modellierens bietet Kerlow (2004). Eine dritte Möglichkeit, geschwungene Oberflächen herzustellen, sind gekrümmte, durch mathematisch definierte Kurven bestimmte Flä- chen (bicubic patches und free-form surfaces). Mit dieser Technik entstand 7 Alias wurde im Januar 2006 von der Firma Autodesk übernommen (siehe http://usa. autodesk.com/adsk/servlet/index?id=5970886&siteID=123112). Modellieren in 3D 59 1975 Martin Newells berühmte Teekanne, der sogenannte Utah Teapot (Abb. 8–9), der inzwischen zur Ikone der Computergrafik geworden ist: x-mal zitiert, mit verschiedenen Materialien versehen, sodass manche ihn den sechsten platonischen Festkörper namens teapotahedron (Driemeyer 2001: 522) nennen und schon Teapot-Wettbewerbe stattfanden.8 Ohne in die Details solcher Modellierungstechniken mit Spline-Kur- ven gehen zu wollen (wozu auch die Non-Uniform Rational B-Splines, kurz NURBS genannt, gehören), möchte ich auf ein paar fundamentale Unterschiede zur klassischen Polygonmodellierung hinweisen. Rationale Oberflächen sind sehr datensparend, da sie durch mathematisch definierte B-Spline-Kurven (rational B-splines)9 beschrieben sind – im Gegensatz zur Polygonmodellierung, in der jeder Eckpunkt der Oberfläche definiert wer- den muss. B-Spline-Kurven werden durch kubische Polynome definiert (vgl. Watt 2002: 94 ff.). Weil sie mathematisch beschrieben werden, sind sie im Gegensatz zu Polygonmodellen auflösungsunabhängig. Das bedeutet, dass es keinen Unterschied macht, aus welcher Distanz man ein Objekt abbildet – auch dies im Gegensatz zu Polygonmodellen, bei denen die ein- zelnen Polygone mit ihren scharfen Begrenzungslinien bei kleiner Distanz zur Kamera sichtbar sind. Wegen dieser Vorteile war das Modellieren mit NURBS ab Mitte der 1980er-Jahre mehr und mehr verbreitet und ist ab Mitte der 1990er-Jahre das Standardverfahren – vor allem dann, wenn es um die Herstellung or- ganisch wirkender Objekte, insbesondere auch menschlicher Figuren, ging, z. B. des Hollow Man (USA 2000, Paul Verhoeven), der digitalen Doubles im ersten Teil von The Matrix (USA 1999, Larry und Andy Wachowski) ebenso wie von Gollum in The Lord of the Rings: The Two Towers (NZ/ USA 2002, Peter Jackson). Interessant ist jedoch, dass die VFX-Spezialisten bei den Folgeproduktionen von The Matrix, nämlich bei Reloaded und Revolution (2003), und The Lord of the Rings: The Return of the King (2003) dieselben Figuren mit anderen Techniken hergestellt haben: für The Matrix mit bildbasierten Verfahren, auf die ich in einem späteren Abschnitt eingehen werde (→ 75), in The Lord of the Rings alle digitalen Kreaturen inklusive Gollum als Subdivision-Surface-Modelle. Dies teilweise aus ästheti- schen Gründen, teilweise aber auch wegen arbeitstechnischer Vorteile. Subdivision Surfaces vereinen als eine Art Mischform die Vorteile aus beiden Welten. Die Grundidee lässt sich anschaulich anhand von Abbil- 8 Eine kurze Geschichte des Utah Teapot sowie der Original-Beschreibungskode finden sich auf http://www.sjbaker.org/teapot. 9 Auf http://mrl.nyu.edu/~perlin/experiments/bspline/ hat Ken Perlin ein Applet, ein kleines Computerprogramm, publiziert, das die Entstehung von B-Spline-Kurven veranschaulicht. 60 Modellieren 10 Zunehmende Verfeine- rung durch Subdivision 11 Subdivision eines Kopfes dung 10 erklären. Durch rekursive Teilung der Oberflächenabschnitte entstehen zunehmend feiner aufgelöste, glatter wirkende Kurven.10 Die neuen Punkte werden in diesem Fall durch interpolierende Teilung er- zeugt, indem je zwei benachbarte Punkte gewichtet in der Interpolation berücksichtigt werden (Zorin/Schröder 2000: 17 ff.). In diesem einfachsten Fall des Erzeugens von Unterteilungen bleiben die Ursprungspunkte un- verändert, wie auch in Abbildung 11, in welcher die einzelnen Polygone je in vier neue aufgeteilt werden. Mit Unterteilungen können aber auch Spline-Kurven erzeugt wer- den. Die Polygonflächen (polygon meshes) dienen dann der Kontrolle dieser Kurven. Im Gegensatz zur geschilderten einfachen Interpolation werden auch die Ursprungspunkte verändert (vgl. Zorin/Schröder 2000: 65 ff.). Obwohl die mathematischen Grundlagen komplex sind, ist die Umset- zung sehr effizient, da man für die einzelnen Berechnungen der Untertei- lungen immer nur eine begrenzte Anzahl von benachbarten Eckpunkten berücksichtigen muss. Der Hauptvorteil von Subdivision Surfaces besteht darin, dass ver- schiedene Auflösungsstufen durch die daraus hervorgehende Hierarchie zunehmender Verfeinerung der Polygonstruktur repräsentiert werden und sich je nach Bedarf an Details beim Rendern direkt aufrufen lassen (vgl. Goulekas 2001: 489, Kerlow 2004: 131 f. und Kaiser 2005). Das ist extrem datensparend bei komplexen Modellen, die nicht immer in ihrer ganzen Komplexität gerendert werden müssen. Im Gegensatz zu anderen auflösungsunabhängigen Darstellungsformen lassen sich mit Subdivision 10 Eine umfassende Einführung in die Grundlagen und die Arbeit mit Subdivision Sur- faces findet sich in Zorin/Schröder (2000). Modellieren in 3D 61 12 Blobbies von Jim Blinn 13 Blobbies für das All-Seeing Eye in Tomb Raider Surfaces wie mit Polygonmodellen alle erdenklichen Topologien model- lieren. Aus historischer Sicht ist vielleicht erwähnenswert, dass Ed Catmull und Jim Clarke11 die Subdivision Surfaces bereits 1978 beschrieben haben. Sie kamen aber erst 1997 für den Film Geri’s Game (USA 1997, Jan Pin- kawa) wieder zur Anwendung. Heute gehört das Modellieren mit Subdi- vision Surfaces zu den Standardverfahren.12 Blobbies oder Metaballs schließlich sind weitere Verfahren, um organi- sche Formen zu erzeugen. Sie werden durch Feldfunktionen als implizite Oberflächen, das heißt als dreidimensionale Konturen, generiert, man kann sie sich vorstellen wie Quecksilbertropfen, die zusammenlaufen, wenn sie nahe genug beieinander sind. Jim Blinn hat sie erstmals 1980 für die Animation von DNA in Carl Sagans Fernsehserie Cosmos verwendet (Abb. 12) und nannte sie Blobby Models. Metaballs fanden später beispiels- weise in The Fifth Element (F/USA 1997, Luc Besson) als Modelliertech- nik für ein digitales Double von Leeloo Verwendung oder für die magi- sche Erscheinung des All-Seeing Eye in Lara Croft: Tomb Raider (USA/ GB 2001, Simon West; Abb. 13). Literaturempfehlungen z Kerlow (2004): Eine relativ umfassende und doch einfach lesbare Dar- stellung einiger Grundlagen des Modellierens. z Rickitt (2000) hat einführenden Charakter und ist anschaulich bebildert. z Ratner (2003) gibt eine Einführung in die Arbeit an menschlichen Fi- guren. 11 Catmull, Ed; Clarke, Jim: Recursively Generated B-Spline Surfaces on Arbitrary Topo- logical Surfaces. In: Computer-Aided Design, Bd. 10, Nr. 6, November 1978, S. 350–355. 12 In jüngster Zeit wird mehr und mehr mit dem sogenannten Sculpting-Verfahren gear- beitet, das ebenfalls auf Subdivision Surfaces basiert. Sculpting muss man sich vorstel- len wie ein Malen im Raum. Ich werde auf diese Technik im Kapitel Oberflächen und Materialien (→ 84) kurz eingehen. 62 Modellieren z Auf http://usa.autodesk.com/adsk/servlet/index?siteID=123112&id= 7639525 ist eine kostenfreie Lernversion der weit verbreiteten Software Autodesk Maya erhältlich (April 2007). 3D-Scanning 1974 ursprünglich im medizinischen Bereich entwickelt,13 um Körper mit- tels des bildgebenden Verfahrens der Magnetresonanztomografie (MRI) zu untersuchen, hatte man erstmals für den Film Looker (USA 1981, Mi- chael Crichton) menschliche Körper dreidimensional gescannt. Wie so oft bei technischen Erfindungen ist es frappierend, wie zukunftweisend sich die ersten Anwendungen im Rückblick ausnehmen. Oftmals – so scheint es – werden bei der allerersten Anwendung intuitiv oder auch explizit die ureigenen Möglichkeiten einer Technik erfasst. Bis heute ist der Körper des Schauspielers jenes Objekt, das man am häufigsten in 3D scannt, und dies aus gutem Grund. Denn kein anderes Verfahren der dreidimensionalen Objekterzeugung im Computer ist so genau und so effizient in der Wieder- gabe von detaillierten geometrischen Strukturen (Abb. 14–15). Im 3D-Scanning tastet ein Laserstrahl das Objekt aus 360° ab, wird dort reflektiert, von einem CCD (charge-coupled device) aufgezeichnet und ermittelt so die Position jedes Punkts auf der Oberfläche. Damit generiert es eine exakte Hülle, die in ein Polygonmodell umgerechnet werden kann. 3D-Scanning erfordert allerdings fast immer eine Überarbeitung, welche die Fehler eliminiert und die Anzahl der erfassten Eckpunkte auf ein er- trägliches Maß reduziert. 3D-Scanning findet jedoch nicht nur beim Abtasten von Schau- spielerkörpern Verwendung, oft ist es auch notwendig oder doch wün- schenswert, Modelle zu scannen, und zwar aus zwei Gründen. Während der Konzeptualisierungsphase ziehen es viele Regisseure und auch Art Directors vor, konkrete Anschauungsobjekte in Form von Tonmodellen als Diskussionsgrundlage zu haben. Diese Modelle basieren meist auf Kon- zeptzeichnungen. Manche Künstler finden es einfacher, die Kreaturen von Hand zu modellieren als im Computer, manche möchten ihre Vorstellung möglichst genau an die Visual-Effects-Firmen weitergeben. Die Tonfiguren werden anschließend dreidimensional gescannt und dienen als Ausgangs- modell für die weitere Arbeit am Computer. Auf diese Weise entstanden beispielsweise die Hulk Dogs, wilde genmanipulierte Bestien, die in Hulk 13 Garroway, A. N.; Grannel, P. K.; Mansfield, P. (1974): Image Formation in NMR by a Selective Irradiative Process. In: J. Phys. C: Solid State Phys., Nr. 7, 1974, S. 457–462. 3D-Scanning 63 14–15 Statue aus Tomb Raider (links); 3D-Scan der Statue (rechts) (USA 2003, Ang Lee) nachts die Protagonistin anfallen (cinefex 94: 101), das Alien in Alien Resurrection (USA 1997, Jean-Pierre Jeunet; cinefex 73: 110) genauso wie die Figuren in Shrek (USA 2001, Andrew Adam- son; Vicky Jenson; Scott Marshall; cinefex 88: 55) und viele andere mehr. Neben der Anschaulichkeit bringen diese Modelle einen Detailreichtum mit, der mit den üblichen Verfahren der 3D-Modellierung nur schwer zu erreichen ist. Und der Special Effects Supervisor Steve Johnson (cinefex 100: 86) nennt noch einen weiteren Grund: Modelle, die sich in der realen Welt umsetzen lassen, erzeugen durch ihren Bezug zu den physikalischen Gesetzen eine höhere Form der Glaubwürdigkeit. Aus diesem Grund hat- ten die Modellierer die Tentakel von Dr. Octopus in Spider-Man 2 (USA 2004, Sam Raimi) zunächst als mechanische Modelle hergestellt und erst anschließend mittels 3D-Scanning in die digitale Welt übersetzt. Ein weiterer Grund für das Einscannen von Modellen ist die gleich- zeitige Verwendung von physischen Modellen (miniatures) und ihren computergenerierten Repliken. Dabei ist es aus nahe liegenden Gründen notwendig, dass zwischen ihnen eine möglichst große Übereinstimmung herrscht. So hatten Stan Winston und sein Team beispielsweise sogar das Modell des T-Rex für Jurassic Park (USA 1993, Steven Spielberg) in Stücke zersägt, weil es für den Scanner zu groß war, damit das Computer- modell eine detailgetreue Nachbildung des am Set verwendeten Modells lieferte (cinefex 55: 55). Aus dem gleichen Grund scannt man Schauspieler dreidimensional ein, um digitale Doubles zu modellieren, welche die Schauspieler in gefährlichen oder unmöglichen filmischen Situationen er- setzen. Auch wenn Körper in einem Maß zu transformieren sind, das die menschlichen Möglichkeiten überschreitet, wird gescannt, beispielsweise der King of the Dead in Return of the King, dessen Körperhülle durch- 64 Modellieren sichtig erscheint und den Blick auf das darunterliegende Skelett freigibt. Diesen digitalen Körpern werde ich ein eigenes Kapitel widmen (→ Körper 417). Ähnlich verhält sich die Sache, wenn digitale Figuren physische Mo- delle beleben sollen, auch dann muss eine digitale Replik hergestellt wer- den, damit ihre Bewegungen zur räumlichen Anordnung der Umgebung passen und der Kontakt zumindest visuell stimmig erscheint (→ Interak- tion 232). Eine Spielform von 3D-Scans sind LiDAR-Scans. LiDAR ist die Ab- kürzung für Light Detection and Ranging. Das Verfahren stammt aus der Vermessungstechnik und beruht auf der Abtastung von Landschaften oder Gebäuden mit Laserstrahlen. Anders als 3D-Scans ist es also für we- sentlich größere Objekte geeignet. So hat eine LiDAR-Crew für I, Robot (USA 2004, Alex Proyas) einzelne Gebäude oder ganze Plätze in Chicago gescannt, auf deren Basis sich die futuristische Stadtentwicklung ins Jahr 2035 projizieren ließ, während Proyas und sein Team den Film tatsäch- lich in Kanada drehten (cinefex 99: 100). Gleichzeitig nahm eine zweite Crew die Texturen der Gebäude fotografisch auf, die man dann auf die dreidimensionale Geometrie der Gebäude projizieren konnte, wodurch sich umfassende virtuelle Umgebungen schaffen ließen. Auf ähnliche Weise entstanden die Häuserzeilen in New York für Spider-Man (USA 2002, Sam Raimi), indem Alex Whang, der für die Modellierung der Ar- chitektur verantwortlich war, die Gebäude mit Laser vermaß und durch traditionelle Triangulation zuverlässige Informationen über die 3D-Da- ten gewann (cinefex 90: 22). Auf diese Weise hatte das VFX-Team den gesamten Times Square rekonstruiert, dies aus dem praktischen Grund, dass man einen solchen Platz niemals während Tagen oder Wochen für Dreharbeiten sperren darf. Vergleichbar ist die Sachlage dann, wenn Teile einer existierenden Stadt zerstört werden müssen, wie Los Angeles und New York in The Day After Tomorrow (USA 2004, Roland Emmerich), die von Naturkatastrophen biblischen Ausmaßes heimgesucht werden (cinefex 98: 76). Wurde bei Terminator 2 (USA 1991, James Cameron) das Set wäh- rend der Dreharbeiten mit dem Zollstock vermessen, damit man es spä- ter im Computer nachbauen konnte, um die digitale Version des T-1000 glaubwürdig mit der Umgebung interagieren zu lassen (cinefex 47: 10 f.), hat man die Landschaftstopografie bei What Dreams May Come (USA 1998, Vincent Ward) mit LiDAR abgetastet, um später die reale Landschaft des Nationalparks in Montana als gemalte Welt im Computer rekonstruie- ren (cinefex 76: 112 f.) und die Interaktion der Figuren mit dieser Fantasie- welt möglichst dicht gestalten zu können. Prozedurales Modellieren 65 Prozedurales Modellieren Als Prozeduren (procedures) bezeichnet man ganz allgemein mathema- tische Funktionen oder Programme, welche einen Verlauf bestimmen. Prozeduren existieren für verschiedene Schritte des Herstellens von CGI: für die Modellierung, für Texturen und kleinräumige Geometrien, soge- nannte Displacement oder Bump Maps (→ 85), und für die Animation von komplexen Systemen (→ Prozedurale Animation 131 und → Artificial Life 139). Grundsätzlich geht es bei Prozeduren immer darum, komplexe und oftmals organisch wirkende Muster – seien es Objekte oder Verhaltens- muster – nach generellen Regeln zu erzeugen. Basis vieler dieser Algorith- men sind die Theoreme der fraktalen Geometrie oder der Chaostheorie, wie sie ausgehend von bereits bekannten fraktalen Phänomenen wie den Koch-Kurven14 oder den Julia-Mengen15 von Benoît Mandelbrot 1975 in Les Objets fractals, form, hasard et dimension beschrieben wurden. I coined fractal from the Latin adjective fractus. The corresponding Latin verb frangere means ‹to break›: to create irregular forms. It is therefore sensible – and how appropriate for our needs! – that, in addition to ‹fragmented› (as in fraction or refraction), fractus should also mean ‹irregular›, both meanings being preserved in fragment.16 (Mandelbrot 1982: 4) Diese Algorithmen erlauben es, zufällige Verknüpfungen durch stochas- tische Variablen zu systematisieren, komplexe organische Wachstums- prozesse durch Rekursionen oder Iterationen zu beschreiben, und sie implementieren auf diese Weise elegant jenes Moment in den Modellie- rungsprozess, das notorisch fehlt und normalerweise nur durch mühselige Arbeit erzeugt werden kann, nämlich Komplexität. Mandelbrots Buch ist ein äußerst beeindruckendes Werk, dessen zweite, revidierte Auflage 1982 bereits mit farbigen fraktalen Landschaften illustriert war. Das für Geistes- wissenschaftler sicher interessanteste Kapitel ist ein historischer Überblick über die geschichtliche Entwicklung der Fraktalen von frühen philosophi- schen Konzeptionen bis heute (1982: 405 ff.). 14 1904 von Helge von Koch beschrieben. Eine anschauliche interaktive Illustration findet sich auf http://www.arndt-bruenner.de/mathe/java/kochkurvedef.htm. 15 1918 von Gaston Julia vorgestellt. 16 «Ich habe den Begriff fraktal ausgehend vom lateinischen Adjektiv fractus geprägt. Das entsprechende lateinische Verb frangere bedeutet ‹zerbrechen›, also unregelmäßige For- men erschaffen. Es ist daher sinnvoll und kommt unserer Zielsetzung sehr entgegen, dass fractus nicht nur – wie in Brechung – ‹fragmentiert›, sondern auch ‹unregelmäßig› bedeutet. Beides ist übrigens im Begriff Fragment enthalten.» 66 Modellieren Dass solche prozesshaften For - men der Komplexitätserzeugung ein elementares Prinzip der künst- lerischen Arbeit am Computer sind, war in der Computerkunst längst anerkannt, deuteten sich diese Möglichkeiten doch schon in den bereits erwähnten analogen Arbeiten am Oszilloskop an (→ 52), eine Verfahrensweise, welche die erste Generation von Computer- künstlern in den 1960er-Jahren 16 Fraktale Pflanzen weiterführte. «Die in zwanzig Jah- ren gesammelten Erfahrungen mit programmierter Grafik haben gezeigt, dass mathematische Funktionen und Prozesse ein neues gestalterisches Mittel, einen neuen Zugang zur bil- denden Kunst bedeuten» (Franke 1984: 6). Rein ornamentale Kunstwerke ohne gegenständlichen Charakter sind Yoichiro Kawaguchis Bilder, die mit der Software Growth zu Beginn der 1980er-Jahre entstanden.17 Doch Fraktale finden sich in vielen Naturerscheinungen: in Küsten- linien, in Wolkenformationen, in Pflanzen, in neuronalen Netzen. Und so erstaunt es nicht, dass dieses Modellierungsprinzip zur Darstellung solcher Phänomene verwendet wurde. Loren Carpenter18 schuf 1980 mit einem rekursiven Algorithmus fraktale Landschaften für seinen Kurzfilm Vol Libre, deren Konzept er später in den berühmten Genesis-Effekt in Star Trek II: The Wrath of Khan (USA 1982, Nicholas Meyer) einbaute. Gemäß Watt (1989: 258) handelte es sich bei den dort verwendeten mathe- matischen Funktionen jedoch lediglich um Näherungen an jene von Man- delbrot definierten Fraktale, indem man für die stochastischen Funktionen eine relativ einfache Gaußsche Normalverteilung angenommen hatte; dies deshalb, weil die Datenmengen entsprechend den damaligen Ressourcen reduziert werden mussten. Heute kann man im Internet eine Consumer- Version der Software Terragen19 herunterladen, mit der man sehr intuitiv und schnell fraktale Landschaften generieren kann, deren Ästhetik aller- dings merkwürdig schal anmutet. Mit der Vollversion von Terragen, die Planetside Software in Großbritannien ab 1998 entwickelt hat, lassen sich 17 Siehe dazu auch: http://www.race.u-tokyo.ac.jp/%7Eyoichiro/index.html. 18 Die Grundlagen dazu wurden später veröffentlicht, siehe Fournier, Alain; Fussell, Don; Carpenter, Loren (1982): Computer Rendering of Stochastic Models. In: Communicati- ons of the ACM, Bd. 25, Nr. 6, Juni 1982, S. 371–384. 19 Siehe http://www.planetside.co.uk. Prozedurales Modellieren 67 17 Baum aus What Dreams May Come komplexe Landschaften inklusive Bäumen und Straßen modellieren wie jüngst für Stealth von Rob Cohen (USA 2005). Am weitesten verbreitet ist jedoch das sogenannte L-System (L-sys- tems), benannt nach dem Biologen Aristid Lindenmayer, der ab 1968 eine universelle Formengrammatik des pflanzlichen Wachstums entworfen hat.20 Dieses Beschreibungssystem nahm der Informatiker Przemyslaw Prusinkiewicz zur Grundlage eines computergestützten Visualisierungs- systems, dessen mathematische Grundlagen er in The Algorithmic Beauty of Plants21 (1990) beschrieb (Abb. 16). Wie Kevin Mack, der Visual Effects Supervisor von What Dreams May Come, ausführt (cinefex 76: 120), funktioniert dieses System sowohl explizit als auch implizit. Im expliziten Modus definiert man den Ansatz- punkt eines neuen Astes genau – was Mack anschaulich als «Art Direction des Pflanzenwachstums» bezeichnet –, im impliziten Modus hingegen werden diese Teilungspunkte vom Algorithmus bestimmt. Auf diese Weise konnte man einen Baum im Caspar-David-Friedrich-Stil (Abb. 17) model- lieren, dessen ‹genetischer› Wachstumsalgorithmus zwölf Seiten umfasste. Kerlow (2004: 138) unterscheidet zwischen raumorientierten proze- duralen Techniken, welche den Einfluss der Umgebung wie beispielsweise Lichtverhältnisse oder räumliche Begrenzungen einbeziehen, und struk- turellen prozeduralen Techniken, welche auf die internen Bedingungen des Wachstums der Pflanze reagieren. L-Systeme hatte Kevin Mack von Digital Domain auch für die Eröffnungssequenz in Fight Club (USA 1999, David Fincher; Abb. 18) verwendet, jene rasante Fahrt durch die neurona- len Strukturen des Gehirns des Protagonisten (cinefex 80: 120). Indem die Instanzen räumlich unterschiedlich ausgerichtet wurden, entstand eine 20 Lindenmayer, Aristid (1968): Mathematical Models for Cellular Interaction in Develop- ment, Parts I and II. In: Journal of Theoretical Biology, Nr. 18, S. 280–315. 21 Siehe http://algorithmicbotany.org/papers/. 68 Modellieren 18 Neuronen aus Fight Club 19 Farn aus Sims’ Panspermia komplexe Struktur, die sich äußerst datensparend umsetzen ließ. D ie se unterschiedliche Ausrichtung wurde durch eine tieffrequente Rausch- funktion realisiert. Solche Verfahren entsprechen einem Trend: «More and more, I believe we are going to be getting away from the geometry/surface paradigm and moving toward shader paradigms for solutions»22 (Mack in cinefex 80: 120). Tatsächlich hatte schon Karl Sims mit einem vergleichbaren prozedu- ralen Evolutionsprogramm gearbeitet, um die Pflanzen für seinen an der Ars electronica preisgekrönten Film Panspermia (USA 1990; Abb. 19) zu erzeugen. Er definierte Selektionskriterien, die zu einem «Überleben der Hübschesten» führten.23 Später hat Sims seine Arbeit am Evolutionsprogramm weitergeführt und durch komplexe Einflussfaktoren, die sowohl das genetische Pro- gramm als auch äußere Selektionskriterien wie verschiedene Anforderun- gen der Umwelt an das Verhalten mit einbezogen. Ohne auf die Details dieses äußerst faszinierenden Projekts eingehen zu wollen – die Grund- lagen sind in Sims’ Paper Evolving Virtual Creatures (1994) nachzulesen –, möchte ich hier festhalten, dass dieses System jene für die Computerani- mation charakteristische Kluft zwischen Form und Verhalten überwindet, das spezifische Probleme mit weit reichenden Folgen für die Figurenani- mation mit sich bringt (→ Digitale Figuren 422). Allerdings – das wird aus 22 «Mehr und mehr komme ich zur Überzeugung, dass wir in Zukunft vermehrt Shader- Verfahren anwenden und uns vom Geometrie/Oberflächen-Paradigma verabschieden werden.» 23 Siehe http://www.aec.at/de/archives/prix_archive/prix_projekt.asp?iProjectID=2420. Später hat Sims dieses Konzept weitergeführt in seiner Installation Galapagos (1997, siehe http://www.genarts.com/galapagos). Gleichzeitig hatte Bill Viola in seiner Multimedia-Installation The Tree of Knowledge (1997) prozedural verschiedene Wachs- tumsstadien interaktiv gesteuert (Morse 1999: 70). Inzwischen gibt es unter anderem die Firma Greenworks, die eine Software namens Xfrog sowie ein riesiges Arsenal von prozedural erzeugten Objekten anbietet (http://www.xfrogdownloads.com/green- webNew/news/newStart.htm). Prozedurales Modellieren 69 20 Schwimmende Kreaturen von Karl Sims Abbildung 20 ersichtlich – waren die dabei entstandenen Kreaturen noch sehr rudimentär. In Verbindung mit weiteren Elementen der Künstlichen Intelligenz haben die Konzepte des prozeduralen Modellierens in die Techniken des Künstlichen Lebens (artificial life oder ALife) Eingang ge- funden, denen ich im Kapitel Animation einen Abschnitt widmen werde (→ 139). Literatur: z Kerlow (2004: 136 ff.): Gutes, sehr plastisch geschriebenes Kapitel über prozedurale Verfahren. z Carlson, Section 19: The Quest for Realism. Ein Online-Kurs auf den Sei- ten der Ohio State University mit viel Anschauungsmaterial inkl. Clips und Links (http://accad.osu.edu/~waynec/history/lesson19.html). z Prusinkiewiczs Originaltext The Algorithmic Beauty of Plants (1990) kann auf http://algorithmicbotany.org/papers heruntergeladen werden, wo sich auch einige neuere Texte befinden. 70 Modellieren Bildbasiertes Modellieren Ein weiteres und das letzte der hier vorgestellten Modellierungsverfahren ist das bildbasierte Modellieren (image based modelling), das sich in mancher Hinsicht von den anderen Prozessen fundamental unterscheidet. In der De- finition einer der Leitfiguren dieses Verfahrens, Paul Debevec (1996), ist es eine Methode zur interaktiven Rekonstruktion von 3D-Modellen aus Foto- grafien. Tatsächlich geht die Technik auf ein Vermessungsverfahren, die so- genannte Photogrammetrie (photogrammetry),24 zurück, die der französische Erfinder Aimé Laussedat bereits 1851 entwickelt hatte. Er nannte die Technik Métrophotographie und verfolgte das Ziel, durch Kombination mehrerer Foto- grafien Landkarten herzustellen. Gemäß der Definition der International So- ciety for Photogrammetry and Remote Sensing (ISPRS) ist Photogrammetrie the art, science, and technology of obtaining reliable information from non-contact imaging and other sensor systems about the Earth and its en- vironment, and other physical objects and processes through recording, measuri ng, analyzing and representation.25 (http://www.isprs.org/documents/statutes04.html) Eine weitere Entwicklungslinie ist die Panoramafotografie, mit der 360°-Um- gebungen in der Tradition des Dioramas hergestellt werden können. Alle diese verschiedenen Techniken ließen sich miteinander verbinden und führ- ten ihrerseits wieder zu unterschiedlichen Anwendungen. Die Grundzüge des Verfahrens lassen sich sehr einfach anhand eines frühen Beispiels von Debevec erklären, der 1991 auf diese (noch rudimen- täre) Weise ein Auto, eine Chevette, modelliert hat (Abb. 21). Das Objekt hatte er dabei aus fünf verschiedenen, orthogonal ange- ordneten Positionen aufgenommen und auf einen Würfel projiziert. An- schließend wurden die Silhouetten – wie Schmid (2003: 34) sehr anschau- lich schreibt – «vergleichbar mit einer Plätzchenausstechform genutzt, um mit Hilfe eines selbst erstellten Programms das Modell des Autos auto- matisch aus einem Voxel-Quader herauszuschneiden». Auf diese Weise entsteht ein voll fotografisch texturiertes Modell in 3D. Diese Technik heißt implizites bildbasiertes Modellieren, denn sie kommt ohne Berechnung einer unabhängigen dreidimensionalen Geometrie aus. 24 Die Begriffe bildbasiertes Modellieren und Photogrammetrie werden in der Literatur oft synonym verwendet. 25 … «die Kunst, Wissenschaft und Technik, mittels Aufzeichnung, Messung, Analyse und Darstellung aus berührungsfreien Bildgebungsverfahren und anderen Sensorsys- temen zuverlässige Daten über die Erde und die Umwelt sowie über physikalische Objekte oder Prozesse zu gewinnen.» Bildbasiertes Modellieren 71 21 Chevette von Paul Debevec Der fundamentale Unterschied zu klassischen 3D-Modelliertechni- ken besteht einerseits darin, dass die Objekterzeugung mittels eines foto- grafischen Aufzeichnungsverfahrens sozusagen direkt aus der Wirklich- keit erfolgt. Das bedeutet, dass sich so nur Gegenstände oder Szenerien modellieren lassen, die irgendwo tatsächlich vorhanden sind. Der zweite fundamentale Unterschied betrifft die Verquickung von Form und Ober- fläche. Während die bisher vorgestellten Techniken die Form unabhängig von den Oberflächeneigenschaften wie Farbverteilung, Lichtreflexion usw. definieren, man diese Eigenschaften also nachträglich noch hinzufü- gen muss, sind sie beim bildbasierten Modellieren direkt miteinander ver- schmolzen. In Kombination ergeben die fotografische Aufnahmetechnik sowie die systemische Verknüpfung von Geometrie und Oberflächenbe- schaffenheit sehr fotorealistisch wirkende computergenerierte Objekte, die sich unabhängig von der ursprünglichen Kameraposition aus verschie- denen Blickwinkeln betrachten oder in animierten Kamerabewegungen darstellen lassen. In seiner Dissertation Modeling and Rendering Architecture from Photo- graphs hat Debevec (1996) dieses Verfahren an der Universität Berkeley weiterentwickelt.26 Mit der Software Façade, die dabei entstanden ist, kann man mit wenigen Fotografien ganze architektonische Topografien rekonstruieren. Im Gegensatz zur vorher geschilderten Methode handelt es sich hier um ein explizites bildbasiertes Verfahren, bei dem sich die Geometrie aus 26 Ein Zwischenschritt auf diesem Weg findet sich in: Shenchang, Eric Chen; Williams, Lance (1993): View Interpolation for Image Synthesis. In: SIGGRAPH Conference Procee- dings, S. 279–288, New York Institute of Technology. 72 Modellieren 22 Markierte Kanten den Fotografien berechnen und in ein 3D-Modell überführen lässt. Dies geschieht durch Markieren von Kanten und signifikanten Merkmalen (siehe Abb. 22: grün), die dann – in Kenntnis der Kamerapositionen bei der Aufnahme – durch übliche Triangulationsverfahren miteinander verrech- net werden, wodurch man zuverlässige Informationen über die räumliche Anordnung der markierten Merkmale gewinnt. Ist die Geometrie berech- net, werden die Fotos auf das Modell projiziert, und zwar in Abhängig- keit vom Kamerastandpunkt bei der Aufnahme – ein Verfahren, das sich View-dependent Mapping nennt (Abb. 23–24). 23 View-dependent Mapping 24 View-dependent M apping vollständig Bildbasiertes Modellieren 73 25–26 Like a Rolling Stone: View Morphing Es versteht sich von selbst, dass diese Schilderung extrem vereinfacht und verkürzt ist. In Wirklichkeit sind einige Probleme zu beachten, von denen ich hier nur auf ein paar wenige hinweise. Erstens müssen natürlich die Verzerrungen durch das Kameraobjektiv (lens distortion) rechnerisch aus den Aufnahmen getilgt werden; zweitens muss man Glanzlichter aus den Fotos herausretuschieren, da sie sich in Abhängigkeit des Betrach- tungswinkels verändern, und dem ganzen Objekt einen sogenannten Shader (→ 88) zuweisen, der das Reflexionsverhalten des Materials oder der Materialien beschreibt, damit man glaubwürdige Reaktionen auf die Umgebungsbeleuchtung erhält. Ein weiterer Vorteil des expliziten Ver- fahrens ist, dass sich auch Perspektiven darstellen lassen, die man nicht aufgenommen hat. Dies gilt besonders für Architektur, bei der man von Symmetrien ausgehen kann. In Fight Club haben die Visual-Effects-Artists der in Frankreich an- sässigen Firma BUF Compagnie das Verfahren in mehreren Szenen ange- wendet. BUF hat sich seit Jahren auf diese Technik spezialisiert und damit immer wieder hervorragend fotorealistisch wirkende Resultate erzeugt. Ein Paradebeispiel ist das Musikvideo Like a Rolling Stone für die Rolling Stones, das 1995 unter der Regie von Michel Gondry entstanden ist. Für dieses Video hatte Gondry an einer Party mit einer Anordnung von zwei Kameras sogenannte Frozen Moments aufgenommen, wie sie später in The Matrix als Bullet Times Bekanntheit erlangten. Mittels View Morphing27 wurde aus den beiden korrespondierenden Bildern eine Bewegung um eine dreidimensional erscheinende Figur interpoliert (Abb. 25–26). 27 Unter View Morphing versteht man die Berechnung von Zwischenstadien zwischen zwei Fotografien eines Objekts aus verschiedenen Perspektiven, wobei intermediäre Perspektiven interpoliert werden, in Analogie zum Morphing-Prozess, in dem man zwei Bilder stufenlos ineinander überblendet (vgl. Schmid 2003: 28 f.). Für Like a Rol- ling Stone haben der VFX-Spezialist Pierre Buffin und der Regisseur Michel Gondry eine Auszeichnung an der Ars electronica erhalten (siehe http://www.aec.at/de/ archives/prix_archive/prix_projekt.asp?iProjectID=2438). 74 Modellieren 27–28 Fight Club: Marla als Wire Frame (links) und texturiert (rechts) Für Fight Club hat BUF nicht nur die später explodierende Küche in der Wohnung des Erzählers nachgebaut, sondern auch die Figur Marla (Abb. 27–28) für die Sexszene. Beide Szenen vereinen maximalen Fotorea- lismus mit extrem surrealen Elementen. Die Küchenexplosion hat Fincher als irrsinnigen Kamera-Ride auf den zündenden Funken hin inszeniert – eine Kameraführung, die er mehrmals im Film mit der Gedankenwelt des Protagonisten assoziiert und mit der ich mich im Abschnitt Rides und das geistige Auge (→ 379) näher beschäftigen werde. Die Kamera fahrt als sol- che ist klar virtuell angelegt, während die Küche selbst mit jenen Schichten von Schmutz überzogen ist, die man sonst in computergenerierten Bildern eher vermisst. Für die entfesselte Sexszene, in der Marla als vielköpfige Hydra wie von Sinnen agiert, musste man zunächst eine Vielzahl an Referenzfotogra- fien erstellen, mit denen sich die Körper als Geometrie modellieren ließen. Anschließend hat man sie mit fünf Kameras orthogonal aufgenommen – analog der Chevette-Technik wie oben beschrieben – und dann die Körper in Abgleich mit dem aufgenommenen Filmmaterial animiert und wieder verfremdet (VFX Supervisor Kevin Haug in cinefex 80: 125). Eine ähnliche Technik war für die Rundfahrt um den explodierenden Kopf des Erzählers zum Einsatz gekommen (Abb. 29–30). 29 Test Selbstmordszene Fight Club 30 Aufnahme mit einem K amera- Array Bildbasiertes Modellieren 75 31 The Matrix: bildbasiert model- 32 Rohmodell plus Texture Maps lierter Kopf von Laurence Fishb urne Inzwischen sind verschiedene verfeinerte Techniken zur bildbasier- ten Modellierung des menschlichen Körpers und Gesichts entstanden. George Borshukov, der 1997 in seiner Masterarbeit in Berkeley Debevecs Ideen weiterentwickelt hat, stellte für die Sequels von The Matrix digi- tale Doubles der Hauptdarsteller bildbasiert her, indem er sie mit fünf synchronisierten digitalen High-Definition-Kameras (HDCams) aufnahm. Die Bewegung jedes einzelnen Pixels dieser Bilder konnte man verfolgen und mithilfe photogrammetrischer Daten der Kamerapositionen triangu- lieren, sodass eine exakte Aufzeichnung der Gesichtsbewegungen in 3D entstand – ein Verfahren, das sich Universal Capture nennt. Die so erfassten Daten wurden mit einem rohen, neutralen 3D-Scan des Kopfes kombiniert (Abb. 31–32). Dies schuf die Grundlage für eine extrem flexible Animation, die auf Realaufnahmen basierte (Borshukov et al. 2003). Es wird mich im Kontext des Themas Digitale Figuren (→ 422) weiter beschäftigen, welche Implikationen für die emotionale Partizipation des Zuschauers aus dieser Technik resultieren. In Verbindung mit zusätzli- chen, aufwendigen Verfahren zur Beschreibung der Hauteigenschaften und ihrer Reaktionen auf Licht, die ich im Kapitel Oberflächen und Mate- rialien (→ 78) besprechen werde, sind die ästhetischen Resultate dieses Prozesses sehr überzeugend. Bereits zuvor waren in relativ einfacher Weise digitale Figuren durch Projektion von Videofilmen entstanden. So hatte die Firma Mill Films in London die Menschenmassen für Gladiator (USA 2000, Ridley Scott) er- zeugt – mehr als 8000 Römer, welche das Kolosseum und den Platz davor bevölkern –, indem man 30 Statisten mit drei Kameras aus unterschiedlichen Positionen in je drei verschiedenen Lichtanordnungen aufnahm und auf Karten projizierte (Laurent Hugueniot in cinefex 82: 28). Ähnlich entstan- den die holografischen Projektionen von Frau und Kind des Protagonisten in Minority Report (USA 2002, Steven Spielberg) mit dem Unterschied, dass Spielberg bewusst seitlich Videokameras mit schlechter Auflösung 76 Modellieren platzieren ließ, um einen technisch veränderten Look mit streifenförmigen Artefakten zu erzeugen (VFX Supervisor Scott Farrar in cinefex 91: 48). Die zweite Linie des bildbasierten Modellierens knüpft an die Tradi- tion des Panoramas an, indem mit diesem Verfahren Umgebungen foto- grafisch konstruiert werden – vom einfachen digitalen Matte Painting als 360°- Hintergrund bis hin zur komplexen dreidimensionalen Rekonstruk- tion von architektonischer Geometrie. In The Matrix (USA 1999, Larry und Andy Wachowski) sind beide For- men eingesetzt worden. In Situationen, in denen die Skyline der Stadt in re- lativ großer Entfernung eine Greenscreen-Aufnahme komplettieren musste, hatte man mit dem bereits erwähnten View Morphing verschiedene Foto- grafien zusammengesetzt, so zum Beispiel in jener Szene, in der Neo seine Kräfte testet, dabei aber abstürzt und vom weichen Asphalt aufgefangen wird (AmC 4/99: 48). Dazu waren Fotografien auf kubische Formen zu pro- jizieren, welche die Szene umschließen. Man kann sich diese Anordnung wie eine Käseglocke vorstellen, die über die Szene gestülpt und auf die von innen die Bilder der Umgebung geworfen werden. Weil diese Hintergründe flächig sind und ihnen daher die räumliche Tiefe fehlt, kann diese Technik nur für relativ weit entfernte oder unscharfe Umgebungen angewandt werden. Heute sind verschiedene Stitching-Softwares auf dem Markt, mit denen sich sehr einfach solche Panoramen herstellen und als QuickTime-Files speichern lassen, in denen man sich umsehen kann. Debevec fotografiert reflektierende Kugeln, um mit dieser Bildinformation die Hintergründe zu rekonstruieren – ein Verfahren, das ihm außerdem als Grundlage für die bildbasierte Beleuch- tung dient, die ich an anderer Stelle beschreiben werde (→ 164). In den als Bullet Time bekannt gewordenen eingefrorenen Momenten, die aus technischen Gründen alle mit Greenscreen aufgenommen werden mussten (Abb. 33–34), kam unter der Leitung von George Borshukov das oben geschilderte, in Berkeley entwickelte Verfahren zum Einsatz, um die räumliche Situation mit allen Parallax-Effekten zu modellieren (AmC 4/99: 48 f.). Interessant ist dabei vielleicht der Hinweis, dass für die Aufnahmen das gleiche Filmmaterial Verwendung fand wie für die Live Action, damit die ästhetische Kohärenz des Bildes gewährleistet war. Statt mit LiDAR-Scans werden inzwischen in einigen Filmen real existierende Umgebungen mit photogrammetrischen Techniken nach- gebildet, so auch für I, Robot (USA 2004, Alex Proyas; cinefex 99: 102). Photogrammetrie statt 3D-Scanning hatten die Modellierer auch in Lord of the Rings eingesetzt, um die Modellstadt Minas Tirith zu erfassen, damit die Compositing Artists später die digitalen Figuren darauf platzie- ren konnten (cinefex 96: 80). Es ist also durchaus eine Konvergenz dieser beiden Techniken zu beobachten, umso mehr, als auch bei der Photo- Bildbasiertes Modellieren 77 33 Greenscreen- Aufnahme in The Matrix 34 Bildbasierter Hintergrund eingefügt grammetrie oftmals zusätzlich Laser zum Einsatz kommt, damit man die Raumgeometrie noch genauer vermessen kann. The coolest part of The Matrix was that we could capture the best in nature, shooting reality in the form of locations and sets, then attach our own styliza- tion on top of that, transforming the real world imagery in a way that lent a sense of authenticity to these virtual backgrounds.28 (VFX Supervisor John Gaeta in cinefex 79: 89) Genau aus diesem Grund sind die bildbasierten Methoden auch in abbil- dungstheoretischer Hinsicht überaus interessant, denn sie verkörpern eine Schnittstelle zwischen der Fotografie und den modellbildenden Verfahren der Computergrafik. Literatur: z Schmid (2003): Eine beeindruckende Diplomarbeit, entstanden an der Bauhaus-Universität Weimar, welche verschiedene Formen des bildba- sierten Modellierens darstellt. 28 «Die coolste Erfahrung bei der Arbeit an Matrix bestand darin, dass wir Aufnahmen, die am Set oder anderen Schauplätzen entstanden waren und Natur in Bestform abbil- deten, unserem eigenen Stil anpassen konnten. Auf diese Weise ließen sich die Original- aufnahmen so bearbeiten, dass auch die virtuellen Hintergründe authentisch aussahen.» Oberflächen und Materialien In der realen Welt ist das Erscheinungsbild von Objekten Resultat eines hochkomplexen Prozesses, in welchem Form und Oberflächenparameter mit Licht interagieren, bis am Ende das visuelle Wahrnehmungssystem des Menschen es aufnimmt und verarbeitet. In der Welt der Computergrafik müssen alle oder zumindest viele dieser Parameter getrennt geschaffen und auf der Basis von physikali- schen Modellen und expliziten Verknüpfungsregeln miteinander verbun- den werden, dies alles unter Berücksichtigung der Kapazitätsbeschrän- kungen der Computersysteme und im Hinblick auf die spezifische Funk- tionsweise des menschlichen Auges. Im Gegensatz zur Fotografie (inklusive fotografische Filmaufnahme) oder zu jener Form der Malerei, die der Wiedergabe eines visuellen Ein- drucks verpflichtet ist, sind deshalb in der Computeranimation robuste Beschreibungsmodelle notwendig, welche für unterschiedliche situative Kontexte – räumliche Anordnungen, Lichtverhältnisse – gleichermaßen Resultate zeitigen, die dem jeweiligen Anspruch an den Realitätseffekt genügen. Diese Beschreibungsmodelle müssen stabile Kontrollparameter enthalten, welche die Konsistenz unabhängig vom Betrachtungswinkel und von den Lichtbedingungen sicherstellen. Wegen der limitierten Kapa- zität des Datenmanagements kommen quantenmechanische Modelle nicht in Betracht, ganz abgesehen davon, dass auch die Materialeigenschaften selbst nicht in unendlicher Genauigkeit festgelegt werden können – ein Umstand, der mich bei der Betrachtung des Renderns1 (→ 172) und bei der abbildungstheoretischen Diskussion (→ 275) der verschiedenen Verfahren wieder beschäftigen wird. Denn die Näherungen, die notwendig sind, um praktikable Verfahren zu ermöglichen, werfen in Bezug auf kommunika- tive und ästhetische Aspekte eine Reihe von Grundsatzfragen auf, die weit über die Diskussion der technischen Parameter hinausgehen. Nun war Film schon immer einer visuellen Phänomenologie der Oberflächen verpflichtet, was eine Ausstattungskunst besonderer Art entstehen ließ. Denn weil Film keine dreidimensionalen Bilder hervor- bringt, kann die Materialität der dargestellten Welt – anders als in der Realität – nicht taktil überprüft werden. ‹Richtig ist›, anders gesagt, was 1 Rendern heißt Berechnung der Bilddaten aus der dargestellten Szenerie in Kombination mit den Lichtparametern. Oberflächen und Materialien 79 den Fernsinnen Auge und Ohr ‹richtig erscheint›. Um diesen Mangel auszugleichen, unterstützen sich im spezifischen audiovisuellen Vertrag, den der Film mit dem Zuschauer eingeht, optische und akustische Spuren gegenseitig, wie ich bereits in meiner Arbeit zum Sound Design dargelegt habe (Flückiger 2001: Mehrwert 142 ff. und Material 330 ff.). Längst haben sich indes verschiedene Techniken etabliert, die sich diesen Mangel zu- nutze machen, um Materialien durch andere zu ersetzen. ‹Eisbrocken› bestehen aus Styropor, ‹Schnee› aus Maisstärke oder Seifenschaum, ‹Wol- ken› formieren sich als Partikel in Flüssigkeit usw. In diesen Substitutions- techniken, die – wie ich zeigen werde – ein spezifisches Moment des Abbil- dungsprozesses aufgreifen, wird Film in seinem ureigenen Wesen als eine Kunst der Illusion manifest. Aber offensichtlich ist eben schon die Sensibilität für materielle Wahr- nehmungsqualitäten unterschiedlich ausgeprägt, und das Vokabular, wel- ches Oberflächeneigenschaften beschreibt, ist nicht gefestigt. «We don’t have a universally accepted name […], or specific definitions for when something is ‹shiny› versus ‹glossy› or ‹translucent› versus ‹transparent›. This is probably related to the absence of specific detectors in our vision system for these effects»2 (Rushmeier et al. 2005: 16). Und doch haben wir ein gutes Gefühl dafür, ob Materialeigenschaf- ten stimmig abgebildet werden, womit die Computergrafik während langer Zeit ein Problem hatte. Was auch immer modelliert wurde, sah am Ende wie Plastik aus. Denn die Glanzlichter waren ausschließlich weiß, die Oberflächen glatt und glänzend, die Kanten scharf begrenzt. Das Repertoire erweiterte sich um Metalle, als Reflexionen berechnet werden konnten, und um Glas, als Lichtbrechungen dazukamen. Andere Mate- rialien sind entweder erst seit der jüngsten Vergangenheit modellierbar oder sogar bis heute kaum befriedigend wiederzugeben, und zwar vor allem jene, deren Eigenschaften von polymorphen Volumina beschrieben werden wie Feuer und Wolken, oder jene, die aus einer Vielzahl einzelner Objekte zusammengesetzt sind wie Haare, Felle oder Federn, und zu- sätzlich jene Materialien wie Textilien oder Wasser, deren Erscheinungs- bild maßgeblich durch ihr zeitliches und räumliches Verhalten bestimmt wird. Gegenstand dieses Kapitels sind die komplexen Strategien, die seit der Erfindung dreidimensionaler Computeranimation erdacht wurden, um diese Anforderungen und speziellen Bedingungen zu meistern. 2 «Wir haben weder allgemein gültige Begriffe noch spezifische Definitionen, um ‹po- liert› von ‹glänzend› oder ‹durchscheinend› von ‹transparent› zu unterscheiden. Die- ser Mangel geht möglicherweise auf das Fehlen spezifischer Detektoren für derartige Erscheinungen in unserem visuellen System zurück.» 80 Oberflächen und Materialien Texturing Sind die Objekte modelliert, liegen sie – mit Ausnahme bildbasierter Verfahren (→ 70) – in roher Form vor (Abb. 1); im nächsten Arbeits- schritt müssen ihnen Oberflächen- eigenschaften zugewiesen werden. Dies geschieht zunächst durch Tex- turing oder Texture Mapping, dessen Grundlagen Ed Catmull 1974 an 1 Rohe Form (flat shading) der University of Utah entwickelt hatte (Masson 1999: 405). Leider werden die Begriffe Texture, Texture Maps, Texturing in der Li- teratur nicht sehr einheitlich gebraucht. Ich verwende deshalb den Begriff Texture Map in Anlehnung an verschiedene Autoren (Glassner 1995: 780; Driemeyer 2001: 251; Goulekas 2001: 506) für die Beschreibung von loka- len Oberflächeneigenschaften, die durch die Projektion zweidimensionaler Bilder auf ein dreidimensionales Objekt zustande kommen. Dazu gehören die Definition der Farbverteilung sowie kleiner räumlicher Variationen, die dem alltagssprachlichen Begriff Textur wohl am ehesten entsprechen. Die möglicherweise zunächst verwirrende Situation wird sich hoffentlich im Laufe dieses Kapitels klären. Am simpelsten wäre es, der Oberfläche zuerst eine Farbe zuzuwei- sen. Da jedoch in der Natur die meisten Dinge nicht uniform koloriert sind, sondern über eine Vielzahl von Mustern verfügen, die überdies sehr spezifisch sein können – man denke an Holz, Stein, Mauerwerk, Leder –, müssen diese charakteristischen Farbverteilungen entweder zeichnerisch nachgebildet oder fotografiert werden. Dies geschieht in Abhängigkeit da- von, ob die Texture Maps in der Natur zu finden sind, sowie im Hinblick auf den angestrebten Realitätseffekt. Fotografien haben den Vorteil, dass sie die Vorlage in ihrer phänomenalen Komplexität einfangen und damit einen höheren Grad von Authentizität in die computergenerierte Welt ein- bringen. Trotzdem ist es keineswegs einfacher, Texturen zu fotografieren als zu malen. Denn die Fotografien müssen extrem hochauflösend, meist im Makrobereich, aufgenommen sein, damit sie genügend Details enthal- ten. Außerdem müssen die Lichtverhältnisse möglichst neutral sein, damit keine Schatten und keine Glanzlichter, aber auch keine Farbstiche (zum Beispiel durch Kunstlicht) auftreten, denn alle diese Effekte werden erst in einem späteren Zeitpunkt den Oberflächen zugewiesen. Anschließend muss man sie in einem Programm, etwa in Photoshop, so bearbeiten, dass Texturing 81 2 Hirnholz 3 Holz Längsseite aus den einzelnen Fotos größere Flächen entstehen, die sich aus den unter- schiedlichen Perspektiven zusammensetzen. Fotografische Texture Maps sind immer dort erste Wahl, wo es um die Rekonstruktion realer Objekte geht, die entweder durch 3D-Scanning oder durch LiDAR-Scans entstan- den sind, wie die St. Patrick’s Cathedral in Daredevil (USA 2003, Mark Steven Johnson; cinefex 93) oder New York in Spider-Man (USA 2002: Sam Raimi; cinefex 90: 22 und 27). Im Unterschied zu den beschriebenen 2D Texture Maps existieren auch dreidimensionale Texturen, deren Anordnung durch den Körper hindurch definiert ist. Man kann sich das vorstellen wie einen Block, aus dem das Ob- jekt ausgeschnitten wird. Holz ist ein gutes Beispiel, bei dem es sinnvoll ist, die Textur dreidimensional zu beschreiben, denn es verfügt über eine räum- liche Anordnung, in der die Fasern eine bestimmte Ausrichtung haben: das Hirnholz, dessen Querschnitt senkrecht zu den Fasern verläuft (Abb. 2), und die Längsseite (Abb. 3), die parallel zu den Fasern angeordnet ist. Zweidimensionale Texture Maps hingegen müssen auf die Objekte pro- jiziert werden. Rickitt (2000: 128 f.) vergleicht den Vorgang bildhaft mit dem Einpacken eines Geschenks. Während kubische Geschenke leicht in zwei- dimensionales Papier gewickelt werden können, gestaltet sich die Aufgabe bei komplexen Formen schwieriger. Es versteht sich von selbst, dass dabei Verzerrungen auftreten, denn einzelne Bereiche der Texture Maps werden zerdehnt. Deshalb ist es üblich, exakte Referenzpunkte zu definieren, welche die Zuschreibung der Texture Map genau festlegen. Bei parametrischen Geo- metriebeschreibungen wie NURBS (→ 59) sind diese als UV-Koordinaten bekannten Referenzpunkte im Modell schon angelegt (Driemeyer 2001: 47). Denn auf den geschwungenen Flächen solcher Objekte entsteht das Problem zwangsläufig. Bei Polygonmodellen hingegen muss man die Referenz- punkte manuell definieren, um die Texture Maps mit der Form zu verknüp- fen. «Man kann sich das so vorstellen, dass die Textur wie eine Gummihaut mit vielen Stecknadeln auf der Oberfläche fixiert wird» (Driemeyer 2006). 82 Oberflächen und Materialien 4 Kamera-Mapping in Star Trek: First Contact Driemeyer (2001: 50) beschreibt weiter sechs grundlegende Arten der Projektion: drei planare oder orthografische Projektionen mit den Ausrich- tungen XY, XZ und YZ, eine sphärische, eine zylinderförmige und eine Lollipop-Projektion. Die orthografische Projektion funktioniert wie ein Diaprojektor mit perfekt parallelen Strahlen – mit dem Unterschied, dass die Rückseite mit einem Spiegelbild der Vorderseiten-Map versehen wird. Die Ausrichtungs- angaben beziehen sich auf das kartesische Koordinatensystem, das ich oben bereits (→ 56) beschrieben habe. Sphärische und zylinderförmige Projektionen umschließen das Ob- jekt wie eine Hülle, die sich schrumpfen lässt (shrink wrap). Die Lolli- pop-Version kann man sich entsprechend dem Namen vorstellen wie ein Papier, das einen Lutscher umschließt, sodass die Mitte der Texture Map sich oben befindet. Eine einfache Form der Projektion von Texture Maps ist das Kamera- Mapping, das beispielsweise in Star Trek: First Contact (USA 1996, Jonathan Frakes; cinefex 69: 102; Abb. 4) Verwendung fand. Dabei wählt man eine bestimmte Kameraperspektive aus und appli- ziert die Texture Map direkt auf diese Ansicht. Anschließend wird sie mit einem speziellen Programm – in diesem Fall Electric Image – aus dem Bild extrahiert und als normale Texture Map auf das Objekt projiziert. Damit lässt sich die einmal gewählte Kameraachse jedoch nur in einem sehr klei- nen Bereich von rund 3° variieren, denn es fehlen die Informationen für andere Betrachtungswinkel.3 3 Normalerweise wählt man diese Methode, wenn man die Betrachtungswinkel nicht ändern will. Im erwähnten Fall von Star Trek: First Contact hat man jedoch eine leichte Winkelveränderung vorgenommen. Texturing 83 Nun gibt es aber auch Techni- ken, mit denen sich Texturen direkt auf das Modell applizieren lassen. Mit der Software ViewPaint kann man auf die Oberfläche malen. Dies e Software wurde zu Beginn der 1990er-Jahre von John Schlag und Zoran Kacic-Alesic für Juras- sic Park (USA 1993, Steven Spiel- berg) bei Industrial Light & Magic entwickelt (cinefex 55: 66), denn 5 The Mummy dort ging es erstmals darum, kom- plexe organische Formen – die Dinosaurier – mit komplexen Texturen zu versehen; dies im Gegensatz zum Wasserwesen in The Abyss (USA 1989, James Cameron) und zum Terminator T-1000 in Terminator 2 (USA 1991, ebenfalls James Cameron), deren Materialien transparent bzw. metallisch waren, was andere Anforderungen an die Oberflächengestaltung stellte. Seither hat sich diese Technik des dreidimensionalen Malens etab- liert. So ist es möglich, dass man die Oberflächen von Körpern, die sich in Auflösung befinden – wie in The Mummy (USA 1999, Stephen Sommers; Abb. 5) oder Hollow Man (USA 2000, Paul Verhoeven) –, zwar nicht fotografieren, aber dennoch einen fotorealistischen Effekt erzeugen kann. Außerdem wird an diesen Beispielen sofort klar, dass sich diese Eigen- schaften ständig verändern, also eine Vielzahl von Texture Maps erstellt werden müssen, deren zeitlichen Verlauf man animieren kann. Ein solches Verfahren wurde für die Mumie (Abb. 5) verwendet, die aus mehr als 600 organischen Oberflächen besteht: Hautfetzen, Muskeln, Venen, für die – zusammen mit den Informationen für die geometrischen Texturen, von denen im Anschluss die Rede sein wird – mehr als 6000 sol- cher Maps gezeichnet werden mussten. Bei Hulk (USA 2003, Ang Lee) waren es sogar mehr als 12 000 (→ Haut 440), um nur eine vage Vorstellung von der ungeheuren Komplexität die- ses Vorgangs zu geben, von dem in den einschlägigen Berichten in Fach- zeitschriften wie cinefex oder American Cinematographer kaum je die Rede ist – ebenso wenig wie in den Making-of-Informationen auf DVD, weil diese Arbeit nicht glamourös oder spektakulär ist. Und doch ist sie eine be- sondere Kunst, die viel Sinn für die Materialien und sehr viel technisches Knowhow erfordert. Der vielleicht schwierigste Teil jedoch liegt darin, dass man während der Arbeit nicht sieht, was man tut, denn das Ergebnis wird erst nach dem Rendern sichtbar (Abb. 6–7). «I found it analogous to doing pottery, where you paint with this magenta glaze, having been told 84 Oberflächen und Materialien 6 Nur texturiert 7 Fertig gerendert that the magenta will become a beautiful cobalt blue once it’s fixed»4 (Lead Digital Model Painter Catherine Craig in cinefex 77: 109). Mit einer Weiterentwicklung von ViewPaint, nämlich mit der Soft- ware Zbrush von Pixologic, wurden die Mûmakil, die elefantenähnlichen Tiere in The Lord of the Rings (Abb. 8), texturiert. Zbrush arbeitet mit sogenannten Pixol, welche die Position im Datenraum in drei Dimensio- nen sowie Rotations-, Material- und Beleuchtungsinformationen enthalten können und außerdem auflösungsunabhängig sind (Kingslien 2004: 1 f.). 8 Mûmakil in The Return of the King 4 «Ich fand es ähnlich wie beim Töpfern, wo man die Gegenstände mit einer rosa Glasur bemalt, die sich nach dem Brennen in ein wunderschönes Kobaltblau verwandeln soll.» Displacement und Bump Maps 85 9 Gefilmte animierte Texturen in Minority Report Animierte Texturen, die von Filmaufnahmen stammen, sind eine weitere Möglichkeit, fotografische Texture Maps inklusive Bewegungs- informationen zu applizieren wie beispielsweise in Minority Report (USA 2001, Steven Spielberg; Abb. 9), wo die Gefangenen digitale Figuren sind. Statisten wurden dazu mit fünfzehn 35-mm-Kameras aufgenommen und anschließend auf eine Grundform projiziert (cinefex 91: 57). Damit verschwimmen die Grenzen zwischen bildbasiertem Modellieren und filmisch aufgenommenen Texture Maps. Displacement und Bump Maps Die meisten Materialien oder Objekte haben keine glatten Oberflächen, sondern weisen spezifische Strukturen auf, welche ihr Erscheinungsbild maßgeblich mitbestimmen. Wo immer man hinschaut, wird man solche kleinräumigen geometrischen Variationen entdecken: An meinem Arbeits- platz sehe ich im Moment einen rohen Holzfußboden mit Maserung, einen lackierten Holztisch, dessen Maserung etwas stärker ausgeglichen ist, eine Papierserviette mit Prägung, verschiedene Stoffe mit unterschiedlichen Webarten wie einen Tüllvorhang, ein dicht gewebtes Tuch, das einen Stuhl überzieht, ein Tuch, das aus zwei Fadensorten unterschiedlicher Dicke be- steht, einen Vorhang aus aufgerautem Stoff, einen geflochtenen Korb, ein Plastikmäppchen mit mattierter Oberfläche. Solche Oberflächendetails werden nicht modelliert, sondern durch Displacement oder Bump Maps definiert (Abb. 10), eine Unterklasse der Texture Maps. Beide Spielarten sind sehr ähnlich – mit dem Unterschied, dass Dis- placement Maps die Geometrie tatsächlich verändern, während Bump 86 Oberflächen und Materialien Maps dies lediglich optisch simu- lieren. Ohne die verschiedenen Un- terschiede im Detail aufzulisten – sie sind nachzulesen in Driemeyer (2001: 82 oder Birn 2000: 211 f.) –, möchte ich wenigstens darauf hin- weisen, dass man an den Kanten oder bei Überschneidungen sieht, Bump Map auf dem Utah Teapot dass Bump Maps die Geometrie 10 nicht verformen. Da sie aber weni- ger datenintensiv sind, werden sie besonders dann verwendet, wenn dieser Unterschied nicht ins Gewicht fällt. Die mathematischen Grundlagen des Bump Mappings wurden 1976 von James F. Blinn5 an der University of Utah entwickelt und 1978 publi- ziert (Masson 1999: 410). Solche Oberflächenstrukturen werden durch Bilder beschrieben, wel- che die Höheninformation in Form von Graustufen definieren, wobei helle Grautöne Erhebungen, dunkle Töne Vertiefungen erzeugen (Abb. 11). Diese Zuordnung lässt sich jedoch durch einen negativen Faktor auch umkehren (Driemeyer 2001: 85). Der Kontrast definiert, wie hart die Um- grenzungen erscheinen. Die maximale Auslenkung, weiß codiert, kann stufenlos und völlig arbiträr durch einen Faktor bestimmt werden. In der Praxis entstehen diese Graustufenbilder entweder zeichnerisch oder aus Fotografien. In jedem Grafikprogramm lassen sich die Farben in Graustufen umrechnen, wobei man die Umwandlung davon abhängig machen muss, welche Farbtöne mit den geometrischen Strukturen korrelieren. Mit Bump oder Displacement Maps können Details also sehr effizient modelliert werden. Allein mit solchen Maps entstanden in Moulin Rouge! (USA/AUS 2001, Baz Luhrmann) einige der detailreichen Ansichten von Paris im Computer, ergänzt um Miniaturen und 3D-Modelle (cinefex 11 Displacement Maps für Eisstrukturen in The Day After Tomorrow 5 Blinn, James F. (1978): Simulation of Wrinkled Surfaces. In: Computer Graphics, Bd. 12, Nr. 3, August 1978, S. 286–292. Displacement und Bump Maps 87 12 The Matrix: Sprung im Spiegel als Displace- ment Map realisiert 86: 27). Ebenso lassen sich Geometrien leicht verändern, so die Spiegel- oberfläche in The Matrix (Abb. 12). Neben ihrer entscheidenden Rolle für viele andere Materialien sind die Strukturinformationen besonders für Haut sehr wichtig (→ 440). Po- ren, Narben, Härchen usw. sind kleinräumige Geometrien, die mit Bump oder Displacement Maps kontrolliert werden, so in den Matrix-Sequels, in denen ein 100-Mikron-Scan von Gipsabdrücken der Schauspieler er- stellt wurde. Aus diesen Informationen errechnete man eine Displacement und eine Bump Map, indem man die Differenzen zu einer Grundform parametrisierte, wobei die größerräumigen Informationen – auch tieffre- quente Komponenten genannt – als Displacement Maps, die kleinräumi- gen, hochfrequenten Details als Bump Maps umgesetzt wurden (Borshu- kov et al. 2003: 1). In Hulk hatten die VFX-Spezialisten alle diese Maps gezeichnet, um die Haut abwechslungsreich zu gestalten. Zum Abschluss dieses Ab- schnitts noch ein Seitenblick auf ein besonderes Verfahren der Erzeu- gung von Texture Maps, nämlich prozedurale Techniken, die ähnlich funktionieren wie im Abschnitt Prozedurales Modellieren (→ 65) dar- gelegt. Mathematische Funktionen, teilweise basierend auf Fraktalen oder auf verschiedenen Rausch- algo rithmen (noise), erzeugen die Maps aus gegebenen Parametern quasi automatisch mit dem Vorteil, dass dabei hochkomplexe Muster entstehen, die außerdem auflö- 13 Prozedurale Texture Map von Ken sungsunabhängig sind. Ken Perlin6 Perlin 6 Viele Informationen dazu auf http://freespace.virgin.net/hugo.elias/models/m_ perlin.h tm und auf Ken Perlins Website: http://mrl.nyu.edu/~perlin. 88 Oberflächen und Materialien 14 Prozedural erzeugte Oberfläche aus The Fifth Element von der New York University hat für seine Arbeiten auf diesem Gebiet 1996 einen Technical Achievement Award erhalten. Wo immer es darum geht, in großen Mengen natürlich wirkende Un- tergründe zu erzeugen, sind prozedural hergestellte Maps (Abb. 13) eine gute Möglichkeit, die allzu ebenmäßige Anmutung der Computergrafik zu durchbrechen und etwas Komplexität hinzuzufügen. Ein typisches Beispiel ist die Oberfläche des Objekts namens Evil (Abb. 14) in The Fifth Element (F/USA 1997, Luc Besson), erzeugt mit fraktalen 2D-Maps. «We could regulate the amount of lava, the amount and height of the crust, the speed and activity of the two and the way lava and crust blended together, all with a series of texture maps»7 (VFX Super- visor Karen Goulekas in cinefex 70: 180). Shader und Shading-Modelle Mit den Grundinformationen Farbdistribution – definiert durch Texture Maps – und lokale räumliche Variationen – beschrieben durch Bump und Displacement Maps – sind nur ein paar basale Parameter benannt, welche jedoch das Erscheinungsbild von Objekten keineswegs umfassend wie- dergeben. Der eigentlich spannende Teil der Materialisierung von compu- tergenerierten Modellen befasst sich mit deren Reaktionen auf das Licht. Dazu gehören das spezifische Reflexionsverhalten sowie Aspekte der Lichtbrechung (refraction), der Diffusion, des Subsurface Scattering – also der Lichtstreuung unter der Oberfläche –, der Lichtbeugung (diffraction) und sogenannt volumetrischer Effekte in Medien wie Atmosphären, Nebel oder Feuer. Diese Parameter werden durch Shader definiert, die oftmals in komplexen Anordnungen in Shader-Netzwerken miteinander verknüpft werden. Es gibt jedoch kaum einen Bereich der Computergrafik, dessen Terminologie verwirrender wäre als dieser. Das liegt daran, dass der Be- 7 «Wir konnten die Menge an Lava, die Menge und Dicke der Kruste, die Geschwin- digkeit und Aktivität von beiden sowie die Interaktion von Lava und Kruste mit einer Serie von Texture Maps kontrollieren.» Shader und Shading-Modelle 89 griff Shader seine ursprüngliche Bedeutung erweitert hat. Im eigentlichen Sinn sind Shader mathematische und/oder physikalische Modelle, welche die Verteilung von Licht und Schatten auf den Oberflächen berechnen. Heute wird der Begriff umfassend gebraucht für prozedurale Plug-ins, also Unterprogramme, welche in die Shader-Library integriert werden, dort aber auch die Geometrie und das zeitliche Verhalten der Objekte be- einflussen können (siehe dazu Driemeyer 2001: 10 ff.). Soweit nicht anders angegeben, werde ich die ursprüngliche Bedeutung verwenden. Shader sind Modelle, das heißt Approximationen an komplexe phy- sikalische Erscheinungen in der Natur, und zwar auf einem Differenzie- rungsniveau, das der menschlichen Wahrnehmung entspricht, und eben nicht auf einem quantenmechanisch korrekten Niveau, das die atomaren und molekularen Strukturen von Materialien berücksichtigen würde. Dies aus gutem Grund, denn die Bilder, die entstehen, müssen nur in Grenzen im physikalischen Sinne korrekt sein; vielmehr sollen sie in den Rahmen des intendierten Realitätsniveaus der Abbildung passen. Modelle, dieser etwas generalisierende Einschub sei hier erlaubt, sind allgemein gültige Annahmen, welche entweder durch eine Ableitung von generellen Prinzipien aus der Kenntnis der Physik des Lichts oder der empirischen Beobachtung und Rekonstruktion einer Reihe von Phänome- nen zustande kommen oder aber auf Messungen basieren. In den beiden letztgenannten Fällen bilden sie als Blackbox-Operation lediglich eine Input-Output-Relation nach, ohne dass die zugrunde liegenden Mechanis- men verstanden werden müssten. So berücksichtigen die physikalischen Approximationen vielleicht die Energieerhaltung des Lichts mit Reflexion, Absorption und Transmission; gleichzeitig unterdrücken sie jedoch den Wellencharakter des Lichts, der für andere Phänomene zuständig ist, zum Beispiel für die Irideszenz, die bei den schillernden Oberflächen von Schmetterlingsflügeln, Perlen oder einem Ölfilm auf Wasser zu beobach- ten ist. Interessanterweise zeitigen die physikalisch korrekten Modelle oftmals weniger realistisch wirkende Resultate und müssen nachträglich visuell angepasst werden, während empirische Modelle Probleme erzeu- gen, wenn sie miteinander verknüpft oder mit fortgeschrittenen Render- Algorithmen bearbeitet werden, für die sie nicht modelliert wurden. Die Versuchung ist groß, die physikalischen Grundlagen vieler na- türlicher Erscheinungsformen von Materialien darzulegen, denn es ist ein ungeheuer spannendes Gebiet mit Suchtpotenzial. Dennoch verlangt es die Ökonomie dieser Arbeit, dass ich diesen Exkurs auf jene Bereiche be- schränke, die im Hinblick auf computergenerierte Darstellungen formali- siert wurden. Eine sehr gute, aber auch für Laien verständlich formulierte Einführung in dieses Gebiet findet sich in Stone (2003: 65 ff.), eine weitere 90 Oberflächen und Materialien in Glassner (1995: 721 ff.), eine sehr ausgiebige in Williamson et al. (1983) sowie in der wunderbaren Präsentation von Rushmeier und Dorsey (2005) an der SIGGRAPH, die auf der DVD der Tagung publiziert wurde. Wie schon in der Einleitung dieses Kapitels angesprochen, ist neben den Dimensionen des menschlichen Reizverarbeitungssystems die Kapa- zitätsbeschränkung der Computer eine weitere Größe, welche die Modelle berücksichtigen müssen. Glassner (1995: 721 f.) nennt deshalb drei Kräfte, die sich oftmals gegenseitig ausschließen, welche den Shading-Modellen zugrunde liegen: Genauigkeit, Ausdrucksfähigkeit und Geschwindigkeit. For images that predict and match real scenes we need to have numerical precision, when computing how much light is reflected off a surface or transmitted through a volume. For artistic freedom and creativity, we would like shading models that let us make objects look any way we desire them to look, regardless of the difficulty (or impossibility) of achieving that behavior in reality. Finally, any shading model must be fast, since it may be executed many millions of times for a single image; if a model satisfies the other two criteria but is too slow, it will be a theoretical construct only and will not find practical use.8 (Glassner 1995: 271 f.) Glassners nützliche Zusammenfassung werde ich in der Abbildungstheo- rie (→ 275) wieder aufgreifen. BRDF Bevor ich zu einigen der traditionellen Shading-Modelle komme, möchte ich die Grundlagen der Lichtreflexion anhand der sogenannten Bidirectio- nal Reflectance Distribution Function,9 kurz BRDF, vorstellen, und zwar sehr reduziert. Die BRDF beschreibt die lokalen Lichteffekte Diffusion und Reflexion mit folgenden Dimensionen (Abb. 15): 8 «Um Bilder im Stil von Realaufnahmen zu erzeugen und zu berechnen, wieviel Licht von einer Oberfläche reflektiert wird oder durch ein Volumen dringen kann, ist numerische Präzision erforderlich. Größtmögliche künstlerische Freiheit ist nur mit Shading-Modellen möglich, welche Objekte unabhängig von den realen Verhältnissen genauso aussehen lassen können, wie wir wollen. Schließlich sollte jedes Shading-Mo- dell schnelle Berechnungen erlauben, denn oft sind für ein einzelnes Bild Millionen von Durchgängen notwendig. Wenn ein Shading-Modell zwar den beiden ersten Forderungen entspricht, aber zu langsam ist, wird es ein theoretisches Konstrukt ohne praktischen Nutzen bleiben.» 9 Eingeführt von Nicodemus, F. E., Richmond, J. C., Hsia, J. J., Ginsberg, I., and Limperis, T. (1977): Geometric Considerations and Nomenclature for Reflectance. U. S. Dept. of Commerce, In: NBS Monograph, Nr. 161. Shader und Shading-Modelle 91 15 Die Variablen einer BRDF z Strahldichte (radiance) L, welche die Lichtenergie bezeichnet, denn ein entscheidender Faktor ist das Verhältnis von eintretender und ausfallender Lichtenergie; z Wellenlänge λ, welche die Reflexion in Abhängigkeit vom Farb- spektrum des Lichts angibt; z Koordinaten x, y in der Ebene, welche den Ort des einfallenden Lichts bezeichnen;10 z Einfallswinkel Θi und Ausfallswinkel Θr , die sich in Relation zur Oberflächennormalen berechnen lassen; z ein weiterer Winkel φ liegt auf der Fläche und wird als Abwei- chung von einer definierten Achse auf der Ebene berechnet, indem man die Lichtrichtung vertikal auf diese Ebene projiziert. Die beiden Winkel Θ und φ lassen sich leicht verstehen, wenn man an die Längen- und Breitengrade auf dem Globus denkt: Jeder Ort wird definiert durch diese zwei Werte. In ähnlicher Weise kann man sich die BRDF so vorstellen, dass beispielsweise ein Lichtstrahl durch einen bestimmten Punkt auf einer halbkugelförmigen Oberfläche eintritt und das ausfal- lende Licht diese Hemisphäre an einem anderen Ort wieder verlässt. Die Ebene der Oberfläche entspricht dann einer Ebene durch den Äquator, während der Winkel φ in Relation zum Längengrad 0 in Greenwich be- rechnet wird (siehe dazu Greenberg et al. 1997: 4 ff. und Rushmeier et al. 2005: 38 ff.). BRDFs können modellhaft berechnet, aber auch gemessen werden. Bei der Messung entstehen einige grundlegende Probleme (siehe Green- berg et al. 1997: 5 ff.), die auch erkenntnistheoretisch von Bedeutung sind, denn sie zeigen, dass die Streuung der Messwerte sehr hoch ausfällt, mithin die Messmethode einen überaus starken Einfluss auf das Ergebnis 10 Es sei an dieser Stelle darauf hingewiesen, dass die BRDF nur Fälle berücksichtigt, in denen der Ort des einfallenden mit dem Ort des austretenden Lichts identisch ist. Diese Vereinfachung trifft im Fall von Subsurface Scattering (→ 100) nicht zu. 92 Oberflächen und Materialien 16 BRDFs von verschiede- nen Materialien hat.11 Eine Größe, die in der BRDF meist vernachlässigt wird, ist die Wel- lenlänge des Lichts, obwohl die Reflexion häufig mit ihr in Zusammen- hang steht. Grundsätzlich ist auf einer gedachten Halbkugel die reflektierte Lichte nergie an verschiedenen Punkten zu messen, woraus sich ein Dist rib utionsmodell des austretenden Lichts in Abhängigkeit von einer bestimmten Lichtquelle mit den oben dargestellten Dimensionen ergibt (Abb. 16). Vergleicht man in dieser Abbildung (aus Greenberg et al. 1997: 7) bei- spielsweise einen weißen Farbanstrich mit blauem Plastik, so wird durch die beinahe halbkugelförmige Verteilung des austretenden Lichts deutlich, dass die weiße Farbe als Oberflächenmaterial das Licht annähernd gleich- mäßig in alle Richtungen reflektiert und somit fast ideal diffus ist, wäh- rend das Plastik ein deutliches Maximum der austretenden Lichtenergie aufweist, das als Glanzlicht sichtbar wird. Gemessene BRDFs spielen eine immer größere Rolle in CGI, da sie die komplexen Reflexionseigenschaften diverser Materialien in einer Viel- falt erfassen, wie sie durch einfache Algorithmen nicht zu berechnen ist. So hatte ein Team um George Borshukov für die Matrix-Sequels das Reflexi- onsverhalten der Textilien gemessen (Borshukov 2003; Abb. 17). Das Textil weist einen glänzenden Look mit diffusen Anteilen auf, die teilweise reflektiert, teilweise sehr stark im rechten Winkel abgelenkt 11 Eines der Grundprobleme lag bereits darin, dass keine genügend exakten Informa- tionen über die Messinstrumente vorlagen. Weiter war es alles andere als trivial, eine Messmethode zu entwerfen, welche die ausfallenden Reflexionen auf der Hemisphäre gleichmäßig erfasst, denn auf dieser Hemisphäre muss ja auch die Lichtquelle ange- ordnet sein. Schließlich spielen bestimmte Aspekte eine große Rolle, die schwierig zu messen sind. Greenberg et al. (1997: 6) nennen die Polarisation des Lichts, welche sie wegen der Messgeräte jedoch eliminieren mussten. Fluoreszenz und Phosphoreszenz sowie Subsurface Scattering waren ebenfalls Effekte, die man im Rahmen der schließ- lich entwickelten Messanordnung nicht untersuchen konnte. Shader und Shading-Modelle 93 werden. Dieses spezielle Verhalten geht auf die anisotrope Struktur des verwendeten Seidenstoffs zu- rück, welcher das Licht sehr un- terschiedlich in Abhängigkeit vom Verhältnis von Einfallswinkel und Ausrichtung des Gewebes reflek- tiert. Um am Ende ein allgemeines Modell zu erhalten, haben Borshu- 17 Gemessene BRDF des Stoffs kov et al. verschiedene Messdaten miteinander verknüpft und gemittelt. Im Film ist dieses Verfahren bis heute selten. Seit einiger Zeit werden jedoch an verschiedenen Orten Datenbanken mit gemessenen BRDFs eingerichtet, zum Beispiel die CURET-D atenbank12 an der Columbia University, die öffentlich zugäng- lich ist.13 Shading-Modelle Unter einem Shading-Modell versteht man den spezifischen Algorithmus, der verwendet wird, um ausgehend von einer Lichtquelle im 3D-Raum die Farbe einer Oberfläche zu berechnen (Goulekas 2001: 455). Oder anders ausgedrückt: Das Shading gibt den dargestellten Körpern eine dreidimen- sionale, materielle Präsenz, indem es die Licht-und-Schatten-Verhältnisse auf dem Objekt bestimmt. Man könnte durchaus auch von Schattierung sprechen, so wie Maler oder Zeichner durch abgestufte Farben oder Schraffierungen ihren Darstellungen Körperhaftigkeit verleihen. Der Be- griff Shading-Modell ist jedoch nicht nur im Bereich der Computergrafik etabliert, sondern er impliziert auch den spezifisch computertechnischen Aspekt der Modellbildung. Denn im Gegensatz zu den oben dargestellten gemessenen BRDFs gehen die klassischen Shading-Modelle von stark ver- einfachten Annahmen aus. Einige von ihnen sind sogar physikalisch nicht korrekt und führen insbesondere in Zusammenhang mit weiter entwickel- ten Render-Verfahren zu sichtbaren Fehlern.14 Allen Shading-Modellen gemeinsam ist die Transformation eckiger Polygonmodelle, wie sie zunächst beim Flat Shading (Abb. 1) sichtbar waren, in kontinuierliche Oberflächen. Dieses Grundlagenproblem hatte 12 http://www1.cs.columbia.edu/CAVE/software/curet/index.php. 13 Die Methode zur Beschreibung des Messverfahrens wurde publiziert von Dana et al. (1999): Reflectance and Texture of Real-world Surfaces. In: ACM Transactions on Gra- phics, Bd. 18, Nr. 1, Januar 1999, S. 1–34. 14 Zum Problem physikalisch nicht korrekter Shader siehe Driemeyer (2001: 205). 94 Oberflächen und Materialien 18 Verschiedene Reflexi- onsformen Gouraud15 1971 mittels linearer Interpolation zwischen den Oberflächen- normalen an den Eckpunkten (vertices) gelöst (vgl. Watt 2002: 207 f.). Dabei entstehen einfache, matt reflektierende Oberflächen. Birn (2000: 194 f.) unterscheidet zunächst vier verschiedene Formen der Lichtreflexion – eine Klassifizierung, welche das Verständnis der Shading- Modelle erleichtert (Abb. 18): Reine spiegelnde Reflexionen kom- men auf glatten Oberflächen vor, die das Licht weder streuen noch ab- sorbieren. Im Gegensatz zu nicht leitenden, sogenannt dielektrischen Materialien, reflektieren Metalle einen großen Prozentsatz des einfallen- den Lichts, da sie aufgrund ihrer Leitfähigkeit die elektromagnetische Energie abblocken. Es ist eine weitere Eigenschaft der Metalle, dass sie das reflektierte Farbspektrum beeinflussen können. Während sich ein Spiegel neutral verhält, reflektiert goldfarbenes Metall bevorzugt die langwelligen Farben im Gelbbereich (Rushmeier et al. 2005: 22). Plastik hingegen produziert eine Glanzreflexion mit weißen Glanz- punkten. Bei diesen Materialien werden die einfallenden Lichtstrahlen in einem Konus um die Reflexion angeordnet. Sie enthalten Informationen über die Lichtfarbe, einen leicht diffusen Anteil und ein Glanzlicht. Die Richtung des Highlights hängt von der Position des Betrachters (oder der Kamera) und der Lichtquelle ab. Eines der frühesten Shading-Mo- delle, das Phong-Shading-Modell,16 erzeugt einen solchen Plastik-Look (Abb. 19). 15 Gouraud, Henri: Continuous Shading of Curved Surfaces. In: IEEE Transactions on Computers, Bd. C–20, Nr. 6, Juni 1971, S. 623–29. 16 Bui-Tuong, Phong (1975): Illumination for Computer Generated Images. In: Communi- cations of the ACM, Bd. 18, Nr. 6, Juni 1975, S. 311–317. Übrigens ist Phong der Vorname, siehe dazu Glassner (1995: 726), der außerdem dieses Modell mit allen mathematischen Grundlagen beschreibt. Shader und Shading-Modelle 95 19 Phong-Shading: Farbe, Diffusion plus Glanzlichter Es ist physikalisch nicht korrekt, da es die Energieerhaltung nicht berücksichtigt (Driemeyer 2001: 205); als rein phänomenales oder empiri- sches Modell bildet es ausschließlich den Look nach. Sowohl Glanz- als auch Spiegelreflexionen wirken leicht künstlich. Sie waren lange Zeit die einzigen Formen der lichtreflektierenden Ei- genschaften von computergenerierten Objekten (Abb. 20). Wulff (1999: 171 f.) weist darauf hin, dass in Industrie- und Werbefilmen «gehäuft Glanzobjekte auftreten». Der Glanz hat eine spezielle, luxuriöse, aber auch artifizielle Wirkung. Gleichzeitig tragen Glanzeffekte überaus deutlich zu einer dreidimensionalen, körperhaften Wirkung der abgebildeten Objekte und Figuren bei. Aus diesen Gründen waren die Kostüme von Stars im Hollywood-Film häufig aus glänzenden Textilien gefertigt. In der frühen Computergrafik lässt sich eine wahrhafte Obsession für Glanzlichter beoba chten. Heute vermeidet man sie eher, eben weil die obsessive Ver- wendung in der Frühzeit schon zu einer Sättigung und Stereotypisierung des Glanzlooks von Computergrafik geführt hat. Wie Kebeck (2006: 183 f.) zeigt, erhöhen Reflexionen sowohl die taktile Wirkung einer Abbildung, sind also von unmittelbarer ästhetischer Konsequenz, als auch gleichzeitig die Orientierung im Bild, indem sie die Gestalt der Objekte betonen und damit zur Eindeutigkeit beitragen. Raue Oberflächen hingegen diffundieren die Reflexion, idealerweise in alle Richtungen gleichmäßig wie beispielsweise ein mattes Schreib- maschinenpapier. Ein ideal diffuses Shading-Modell, das übrigens auch dem oben beschriebenen Gouraud-Shading zugrunde liegt, ist das Lambert-Shading-Modell, das auf dem Cosinusgesetz beruht, das der Mathematiker und Philosoph Johann Heinrich Lambert 1760 in Photome- 20 Terminator 2: Spiegelreflexionen auf dem Terminator 96 Oberflächen und Materialien 21 Cook-Torrance-S hading tria17 formuliert hatte. Die Reflexion ist demnach in einem Einfallswinkel von 90° maximal, während bei Winkeln von 0° oder 180° – also parallel zur Oberfläche – kein Licht reflektiert wird. Auch das Lambert-Modell ist physikalisch nicht korrekt, da es ausschließlich die Oberflächenorien- tierung, nicht aber den Betrachtungswinkel berücksichtigt (Rushmeier et al. 2005; Jensen 2001: 21). In der Natur sind jedoch die Reflexionstypen meist gemischt. Es kom- men in den seltensten Fällen ideal diffuse oder spiegelnde Reflexionen vor, sondern – wie im Abschnitt BRDF dargestellt – komplexe Kombinationen von ganz unterschiedlichen Reflexionsformen. Denn die Oberflächen sind weder gleichmäßig rau noch vollständig glatt, sondern verfügen über kleine räumliche Variationen in mikroskopischen Dimensionen. Einige Shading- Modelle, welche auf die grundlegende Arbeit von Torrance und Sparrow (1967)18 zurückgehen, nehmen für die Oberflächen Mikrofacetten an, mi- kroskopische V-förmige Vertiefungen. Ursprünglich in der geometrischen Optik entwickelt, wurde das Modell 1977 von Blinn19 in die Computergrafik eingeführt (Greenberg et al 1997: 4 f.; Glassner 1995: 732 ff.). Die Mikrofa- cetten-Theorie geht davon aus, dass diese Vertiefungen, einer Gaußschen Normalverteilung folgend, statistisch gestreut sind. Effekte dieser Annahme sind eine leichte Verschiebung des Glanzlichts aus der exakten Spiegelachse sowie die Diffusion des Lichts durch Abschatten und Maskieren (Abb. 21). Shading-Modelle, welche auf diese Theorie zurückgehen, sind das Cook-Torrance- (1981)20 und das Oren-Nayar-Modell (1994).21 Der Unter- 17 Lambert, Johann Heinrich (1760): Photometria sive de mensura et gradibus luminis, colorum et umbrae, Augsburg. Ein Originaldruck befindet sich in der Bibliothek der Eidgenössi- schen Technischen Hochschule in Zürich. 18 Torrance, Kenneth E.; Sparrow, E. M. (1967): Theory for Off-Specular Reflection from Roughened Surfaces. In: Journal of the Optical Society of America, Bd. 57, Nr. 9, S. 1105–1114. 19 James F. Blinn (1977): Models of Light Reflection for Computer Synthesized Pictures. In: Computer Graphics, Proceedings, Annual Conference Series, ACM SIGGRAPH, S. 192–198. 20 Cook, Robert L.; Torrance, Kenneth E. (1981): A Reflectance Model for Computer Graphics. In: Computer Graphics, Proceedings, Annual Conference Series, ACM SIG- GRAPH, S. 307–316. 21 Oren, M.; Nayar, S. K. (1994): Generalization of Lambert’s Reflectance Model. In: Com- puter Graphics, Proceedings, Annual Conference Series, ACM SIGGRAPH, S. 239–246. Weitere Materialeigenschaften 97 schied zwischen ihnen besteht da- rin, dass Cook/Torrance von spie- gelnd reflektierenden Oberflächen der Mikrofacetten ausgehen, wäh- rend Oren/Nayar dafür eine per- fekt Lambertsche Diffusion anneh- men (Rushmeier 2005: 71). Eines der ersten relativ kom- plexen Materialien von CGI im Film war die Haut der Dinosaurier in Jurassic Park (USA 1993, Steven 22 Gunstar aus The Last Starfighter Spielberg), die auf keinen Fall den glänzenden Look aufweisen durften wie das Wasserwesen in The Abyss (USA 1989, James Cameron) oder der Terminator. «Animals are kind of dull – they tend not to be super-shiny or super brightly colored. So there is a different look required with animals that you don’t normally see in computer animation»22 (Animation Supervisor Mark Dippe in cinefex 55: 66). In Tron (USA 1982, Steven Lisberger) hingegen hatten die computer- generierten Objekte mehrheitlich diffuse Oberflächen; in The Last Star- fighter (USA 1984, Nick Castle), einem anderen sehr frühen Film mit CGI, waren die Raumschiffe matt glänzend metallisch (Abb. 22). Es gibt wohl kaum einen Bereich der Visual-Effects-Produktion, in dem der Zusammenhang zwischen Technik und Ästhetik so sinnfällig wäre wie in den Shading-Techniken.23 Zwar-standen-differenzierte-Sha- ding-Modelle-schon-Ende-der-1970er-, Anfang der 1980er-Jahre bereit, doch scheiterte die Modellierung komplexerer Materialien an der Rech- nerkapazität. Es ist deshalb auch aus ästhetischer Sicht kein Zufall, dass computergenerierte Visual Effects erst ab den frühen 1990er-Jahren in größerem Maß in der Spielfilmproduktion Verwendung fanden. Weitere Materialeigenschaften Es gibt eine Reihe von zusätzlichen Materialeigenschaften, welche spezifi- sche Lösungen verlangen, die nur teilweise von den besprochenen BRDFs oder von den existierenden Shading-Modellen allein geliefert werden. 22 «Tiere sehen eher stumpf aus – sie weisen im Allgemeinen weder super glänzende noch starkfarbige Oberflächen auf. Deshalb erfordern sie einen Look, der sich von dem der üblichen Computergrafik unterscheidet.» 23 Siehe dazu die Illustrationen auf Carlsons Website: http://accad.osu.edu/~waynec/ history/lesson6.html. 98 Oberflächen und Materialien Glanz-Maps Einige Objekte verfügen über unterschiedlich diffuse Eigenschaften. Ein gutes Beispiel für diesen Fall ist die menschliche Haut, die an einigen Stellen matt, an anderen glänzend erscheint. Diese räumlich verteilten Re- aktionen auf Licht werden durch Glanz-Maps (specularity maps) definiert. Glanz-Maps sind ähnlich wie Displacement-Maps durch Graustufen co- diert, wobei helle Bereiche glänzende, dunkle Bereiche matte Eigenschaf- ten codieren. Anisotrope Materialien Ein anisotropes Material ist der im Abschnitt BRDF geschilderte Sei- denstoff. Ganz allgemein zeich- nen sich anisotrope Materialien dadurch aus, dass sie das Licht in unterschiedliche Richtungen ver- schieden reflektieren. Man kennt 23 Green Goblin in Spider-Man diesen Effekt von gebürsteten Me- tallen, von Samt oder von glattem Haar – von Materialien also, die ein klar ausgerichtetes Rillenmuster aufweisen. Die Rillen können konzentrisch oder parallel angeordnet sein, je nachdem ändert sich bei Bewegung des Objekts die Position und Ausdehnung des Glanzlichts oder aber auch die Farbzusammensetzung des reflektierten Lichts. Wie Driemeyer (2001: 49) schreibt, können anisotrope Effekte durch Ward-Shading-Modelle berech- net werden. So wurde das schillernde Kostüm des Green Goblin in Spider-Man (USA 2002, Sam Raimi; Abb. 23) mit einem anisotropen Shader materiali- siert, der – basierend auf dem echten Kostüm – eigens für diese Anwen- dung entwickelt wurde (Technical Director Sing-Choong Foo in cinefex 90: 21). Transparenz Durchsichtige Materialien wie Glas oder Wasser stellen spezielle An- forderungen an die Computerdarstellung. Denn je nachdem, welchen Brechungsindex und welche Form sie aufweisen, modifizieren sie den Hintergrund. Bei einem Brechungsindex von 1 sind sie voll transparent, ohne den Hintergrund zu verzerren – dies unabhängig von der Form. Driemeyer (2001: 117) beschränkt den Begriff Transparenz sogar ganz Weitere Materialeigenschaften 99 auf diesen Fall und empfiehlt, bei- spielsweise Fenster nicht als drei- dimensionale Objekte, sondern als einfache transparente Flächen zu modellieren. Nimmt der Bre- chungsindex jedoch zu, ändern die Lichtstrahlen an der Trennfläche 24 Lord of the Rings: Der transpa- der beiden beteiligten Medien – rente King of the Dead zum Beispiel zwischen Luft und Glas – ihre Richtung, und es kommt zu einer Verzerrung des Hinter- grunds. Einfache Transparenz ohne Brechung kann durch eine Opacity Map definiert werden, welche dem Objekt oder Teilen des Objekts ein genau bestimmtes Maß an Transparenz von ganz durchsichtig bis voll opak zuweist. Auch eine solche Map wird durch Graustufen codiert, die den sogenann- ten Alpha-Kanal (→ 221) betreffen, mit Weiß als voll opak und Schwarz als voll durchsichtig. Dies spielt in der Filmproduktion dann eine Rolle, wenn Schichten nach und nach enthüllt werden wie bei The Mummy (USA 1999, Stephen Sommers). Außerdem gibt es eine Reihe von halbtranspa- renten Erscheinungen, die sich oft in einem Zwischenstadium zwischen Leben und Tod befinden, also geisterhafte Wesen wie der King of the Dead (Abb. 24) und seine Armee in Lord of the Rings, die Geistchen in Casper (USA 1995, Brad Silberling), das Mädchen in Resident Evil (GB/D 2002, Paul W. S. Anderson) und ein ähnliches Mädchen in Avalon (JP/PL 2001, Mamoru Oshii). Wie Glanz ist Transparenz eine Obsession der Computergrafik (Abb. 25 und 26). Die Ästhetik von Transparenz und Reflexionen bringt ein thematisches Motiv in die Produktion von Visual Effects ein, das weit über seine ursprünglichen Wurzeln hinausweist, nämlich das Thema der Schichtungen und multiplen Perspektiven, dem ich mich in den Kapiteln Compositing (→ 191), Abbildung (→ 275) und Dimensionen und Schichten (→ 357) unter je verschiedenen Aspekten zuwenden werde. 25 Das transparente Wasserwesen aus 26 Die transparenten Bildschirme aus The Abyss Minority Report 100 Oberflächen und Materialien Fresnel-Effekt 27 Der Fresnel-Effekt in Abhängigkeit vom Betrachtungswinkel Schaut man ein matt wirkendes Blatt Papier aus einem sehr flachen Winkel an, ist ein leichtes weißes Glanzlicht zu sehen. Noch deutlicher ist dieser Effekt bei einem Blick auf Glas oder auf Wasser: Schaut man senkrecht darauf, so wirkt es durchsichtig; mit zunehmend flacherem Betrachtungs- winkel setzt eine spiegelnde Reflexion ein (Abb. 27). Diese Erscheinung nennt man Fresnel-Effekt nach dem französischen Physiker Augustin-Jean Fresnel (1788–1827). Er berechnet sich aus dem Verhältnis der beiden Brechungsindizes, zum Beispiel Luft/Glas oder Luft/Wasser (siehe dazu Jensen 2001: 23 oder Glassner 1995: 732 ff.). Transluzenz Das Thema Schichtungen ist bei durchscheinenden Materialien ähnlich präsent wie bei transparenten. Unter Transluzenz versteht man im Unter- schied zu Transparenz jene Materialeigenschaft, bei der das Licht in ihrem Inneren diffundiert wird wie zum Beispiel bei Eis, Marmor, Haut. Die physikalische Grundlage dieser Erscheinung ist das sogenannte Subsurface Scattering, bei dem die Lichtstrahlen an einem Ort eintreten, dann im Ma- terial selbst auf komplexe Weise reflektiert werden und auf diesem Weg auch ihre Farbe ändern können (Abb. 28). Weitere Materialeigenschaften 101 28 Subsurface Scattering Wie Jensen (2001: 127) schreibt, der als Pionier auf dem Gebiet des com- putergenerierten Subsurface Scattering gelten muss, ist diese Eigenschaft in allen Materialien mit Ausnahme von Metall vorhanden (Abb. 29). Sie wird dann augenfällig, wenn man eine Lichtquelle hinter dem Material platziert. Von traditionellen Shading-Modellen ebenso wie von gemessenen BRDFs wird dieser Effekt nicht erfasst, da diese grundsätzlich nur jene Fälle berücksichtigen, in denen der Ort des Lichteinfalls mit dem Ort der Reflexion identisch ist. Weil Subsurface Scattering so komplex und so da- tenintensiv ist, wird es bis heute nur selten eingesetzt. Der Grund dafür liegt in den Render-Verfahren und wird deshalb im entsprechenden Kapi- tel thematisiert (→ 172). Bis zu einem gewissen Grad lässt sich der Effekt allerdings mit einer Kombination von Diffusion und Brechung simulieren (Driemeyer 2001: 122). Eine andere Möglichkeit der Simulation von Sub- surface Scattering, die zum Beispiel bei I, Robot (USA 2004, Alex Proyas; 30 Transluzenz mit mehreren Schichten in I, Robot 29 Marmorbüste, mit Subsurface S cattering gerendert von H. W. Jensen 102 Oberflächen und Materialien Abb. 30) verwendet wurde, war eine Mischung aus Rendern mit Compo- siting, ähnlich wie im Abschnitt Transparenz beschrieben. 17 Schichten wurden einzeln gerendert und anschließend im Com- positing so miteinander verknüpft, dass der gewünschte durchscheinende Look entstand (Digital Effects Supervisor Jonathan Egstad in cinefex 99: 108). Volumen-Shader Einige Materialien, die durchscheinend wirken, so beispielsweise Nebel, Rauch oder Feuer, verlangen eine eigene Lösung, nämlich sogenannte vo- lumetrische oder Volumen-Shader. Auch Pelz kann bis zu einem gewissen Grad durch Volumen-Shader dargestellt werden. Diese Shader bestehen aus einer Kombination von Informationen zu den Oberflächen- sowie zu den internen Materialeigenschaften. In der Regel werden für die internen Materialeigenschaften zwei Komponenten angenommen: ein Medium und eine gleichmäßige Verteilung von feinen Partikeln. An der Oberfläche finden die bereits beschriebenen Effekte Reflexion und Brechung statt, im Inneren kommt es zu einer Absorption und Diffusion durch die Parti- kel, für die üblicherweise eine homogene Verteilung angenommen wird (Glassner 1995: 758). In der Natur sind viele optische Erscheinungen in solchen Volu- mina – wie zum Beispiel die blaue Farbe des Himmels – selektiv an be- stimmte Wellenlängen gebunden, da die Partikel so klein sind, dass sie sich unterschiedlich auf die spektralen Anteile des Lichts auswirken und außerdem zu Phasenveränderungen führen. Da Render-Verfahren jedoch nie mit dem Wellenmodell des Lichts arbeiten (→ 172 f.), werden diese Effekte simuliert – dies allerdings mit unterschiedlichem Erfolg. Noch immer sind Volumeneffekte sehr kritisch: Feuer, Rauch, Wolken usw. se- hen oftmals nicht sehr überzeugend aus, nicht nur wegen grundlegender Probleme der Volumen-Shader, sondern vor allem auch, weil sie komplexe Oberflächen aufweisen, die sich oftmals noch in vielschichtiger Art verän- dern (Abb. 31). Rauch, Nebel, Wolken und Feuer werden deshalb bis in die jüngste Vergangenheit sehr häufig als physische Effekte realisiert, zum Beispiel in Hollow Man (USA 2000, Paul Verhoeven), in dem die unsichtbare Figur in gewissen Umgebungen als hohle Form sichtbar wird (Associate Visual Effects Supervisor Frank Petzold in cinefex 83: 127). In The Day After Tomorrow (USA 2004, Roland Emmerich), in dem eine Supercell genannte Wolkenformation (Abb. 32) eine prominente Rolle spielt, wurde ein 2.5D-Verfahren gewählt, bei dem zweidimensionale Elemente leicht Weitere Materialeigenschaften 103 31 Volumen-Shader in Star Trek: Insurrection 32 Supercell aus The Day After Tomorrow verformt und lediglich in Nahaufnahmen durch echte volumetrische Ef- fekte ergänzt werden (Visual Effects Supervisor Remo Balcells in cinefex 98: 79 f.), während für Master and Commander (USA 2003, Peter Weir) eine Datenbank mit Aufnahmen von realen Nebel-, Rauch- und Wolken- elementen zusammengestellt wurde, die man nur bei Bedarf im Compo- siting mit digitalen Nebeln oder Wolken ergänzte: «The biggest challenge for the opening battle sequence can be said in one word: fog»24 (Kommen- tar auf der DVD). Baz Luhrmann hatte diesen Mangel von digitalen Wolken in Moulin Rouge! (USA/AUS 2001; Abb. 33) bewusst eingesetzt, um sie im künstlich wirkenden Méliès-Stil wie ausgeschnittene Matte Paintings aussehen zu lassen (Visual Effects Supervisor Nathan McGuiness in cinefex 86: 120). Ebenfalls mit Volumen-Shadern lassen sich magische Feuererschei- nungen materialisieren, so in Sleepy Hollow (USA 1999, Tim Burton; Abb. 34). «The only way to sell CG fire is not to put in real fire»,25 meint CG Sequence Supervisor Joel Aron, der den Feuer-Shader der Software Maya laut eigenen Angaben ans Limit brachte (cinefex 80: 95), um die Feuerteu- fel zu materialisieren. Volumetrische Effekte sind also häufig dort digital, wo die Stilisie- rung ästhetisch anvisiert ist, und natürlich in jenen voll digitalen Ani- 24 «Die größte Herausforderung in der Eröffnungsszene der Schlacht lässt sich mit einem Wort fassen: Nebel.» 25 «CG-Feuer lässt sich nur verkaufen, wenn es nicht mit realen Aufnahmen von Feuer kombiniert wird.» 104 Oberflächen und Materialien 33 Künstlich wirkende Wolken in Moulin Rouge! 34 Das magische Feuer in Sleepy Hollow mationsfilmen wie Shrek (USA 2001, Adamson/Jenson/Marshall), The Incredibles (USA 2004, Brad Bird) oder The Polar Express (USA 2004, Robert Zemeckis). Animation In seinen Überlegungen zu Disney nennt Sergej Eisenstein Bewegung und Beseelung als Grundkonzepte der Animation: «Etwas offenkundig Totes, eine Zeichnung, wurde belebt – animated» (Eisenstein 1941: 78). Weiter schreibt er, dass diese Verbindung von Beseelung und Bewegung eine atavistische Konzeption sei, die in Übereinstimmung mit der primitiven Gedankenstruktur stehe, nämlich einer animistischen Auffassung von der Belebung aller Dinge. Damit entspricht die Animation in besonde- rer Weise jener urwüchsigen Faszination des Films für die Bewegung der unbelebten Welt, der Blätter im Wind, der Wellen und Wolken, aber auch der Maschinen und der Fahrzeuge – jener seltsamen Magie, die von der Bewegung als einer Beseelung der Dinge ausgeht. Seit je knüpft die Animation an diese Magie an, vertieft und transzendiert sie, indem sie mittels Imagination die physikalischen Gesetze der Natur überwindet und damit Produkte der reinen Fantasie oder zumindest der individuellen Vorstellungskraft hervorbringt. So nannte Erwin Panofsky (1947: 283) die Disney-Filme «a chemically pure distillation of cinematic possibilities; […] their fantastic independence of the natural laws gives them the power to integrate space with time to […] perfection.»1 Die Animation gilt als Urform der Filmaufnahme, oder – anders aus- gedrückt – der Film wird als direktes Erbe animierter Vorläufer aufgefasst, wie die Laterna magica, Mitte des 17. Jahrhunderts vom Physiker Chris- tiaan Huygens2 entwickelt, das Zoopraxiskop Eadweard Muybridges und andere handbetriebene Dispositive (siehe umfassend Mannoni 1995 oder auch Manovich 2001 sowie Kittler 2002). Eine solche Argumentation erfasst jedoch nur einen Teil der komplexen Verhältnisse im Dreieck von Technik, Ästhetik und Narration, das den Gegenstand dieser Arbeit bildet, näm- lich die technische Möglichkeit des kinematografischen Dispositivs, mit einer Serie von Einzelbildern ein phänomenales Bewegungskontinuum zu erzeugen. Weiter umfasst diese Abstammungslinie gewisse soziale und kulturelle Aspekte der Projektion und Rezeption von optischen Medien – 1 «Eine chemisch reine Essenz der kinematografischen Möglichkeiten; […] ihre fantas- tische Unabhängigkeit von den Naturgesetzen erlaubt es, Zeit und Raum […] perfekt aufeinander abzustimmen.» 2 Wie ich im Kapitel Beleuchtung und Rendern (→ 173) darstellen werde, ist Christiaan Huygens auch der Begründer der Wellentheorie des Lichts. Es zeigt sich hier wieder einmal die gemeinsame Geschichte von physikalischen bzw. psychophysikalischen Erkenntnissen und medientechnologischen Entwicklungen. 106 Animation jene merkwürdige Verbindung von Technik, Magie und Belehrung, die ich an anderer Stelle diskutieren werde (→ Magische Erscheinungen 368). Zunächst in ästhetischer, später auch in narrativer Hinsicht jedoch zeigt sich ein Bruch zwischen dem Film und seinen animierten Vorläufern. Denn die Sensation der Filmaufnahme lag in der Frühzeit in ihrem nie da gewesenen Realitätseffekt, der sich von den animierten Vorläufern unter- schied; selbst in den aberwitzigsten szenischen Konstellationen bei Méliès agierten ja reale Figuren, Schauspieler aus Fleisch und Blut. Lange Zeit fristete die Animation ein Nischendasein mit drei typi- schen Ausprägungen: entweder in Form von kommerziellen Produktio- nen, die sich an ein Kinderpublikum wandten, als künstlerisch anspruchs- volle fiktionale Werke oder als experimentelle Kunst mit mehr oder we- niger abstrakten Darstellungsformen. Von diesen klassischen Vorläufern unterscheidet sich die Computeranimation dadurch, dass sie den etablier- ten Graben zwischen diesen drei je in eigener Weise stilisierten Formen der Animation und dem Fotorealismus der filmischen Aufnahme überwindet. Denn in ihr haben sich Möglichkeiten herausgebildet, Elemente unter- schiedlichster Herkunft miteinander zu verknüpfen und eine neue Form der Synthese zu bilden, in welcher sich entweder mehrere ästhetische und narrative Formen zu einem Ganzen verbinden, nebeneinander als hetero- gene Materia lien bestehen bleiben oder in vielfältiger Weise zueinander in Beziehung treten. Schon in den komplexen Animationsverfahren selbst, die in diesem Kapitel vorgestellt werden, manifestiert sich wie im Model- lieren und in der Materialisierung diese Tendenz, Ansätze aus völlig un- terschiedlichen Traditionen aufzugreifen und miteinander zu verbinden. Nun war und ist der etablierte Graben zwischen Animation und fil- mischer Live-Action-Aufnahme eine grob vereinfachte Konstruktion mit Modellcharakter. Zwar tendiert der Animationsfilm seit je dazu, seinen artifiziellen Charakter auszustellen. Er hat seine eigenen Gesetzmäßigkei- ten und seine eigene Formensprache entwickelt, die sich nur lose an das Repertoire mimetischer Darstellungen anlehnen und sich oftmals in gera- dezu schroffer Art vom fotografischen Realitätsprinzip abgrenzen. Spiel- filme hingegen umfassten schon immer sehr heterogene Darstellungs- weisen des fiktionalen Universums – schon in technischer Hinsicht mit einer Vielzahl von unterschiedlichen Special Effects, die sich im Laufe der Geschichte he rausgebildet haben, aber auch in ihrer Ästhetik und narrati- ven Konstruktion. Zwar gibt es besonders im klassischen Hollywood-Kino die Tendenz, diesen heterogenen und fragmentierten Herstellungsprozess zu maskieren und das Material wie ein natürliches Ganzes erscheinen zu lassen, aber ebenso finden sich zahllose Beispiele, in denen Brüche und Stilisierungen selbstverständlicher Bestandteil des Erzählens sind. Von ei- Von der klassischen Animation zur frühen Computeranimation 107 nem Normalfall der filmischen Repräsentation zu reden, ist deshalb schon aus kulturhistorischer Perspektive bedenklich; vielmehr lassen sich unter- schiedliche Konventionen in unterschiedlichen historischen Perioden oder kulturellen Traditionen ausmachen. Es wäre deshalb vielleicht korrekter zu postulieren, dass Computera- nimation dieses Spektrum aufgreift und integriert, indem sie sowohl die Magie belebter Dinge als auch das Erscheinungsbild fotografierter Hand- lungsräume inklusive Figuren hervorbringen kann. Während nun Manovich (1999, 2001) aus dieser historischen Synthese ein Drama wahrhaft mythischen Ausmaßes konstruiert, indem die Ani- mation als Bastard ihren eigenen Erzeuger verschlingt, nehmen Bolter/ Grusin (1999: 147) eine retrograde Remediation3 an, «in which an older me- dium is imitated and even absorbed by a newer one. […] animated films refashion stories, myths, and legends […] – often with great violence to the printed or oral versions.»4 Weder die eine noch die andere Interpretation erfasst den Kern dieser Entwicklung, die nicht nur als gewaltsamer Neu- aufguss einer schon vor den Zeiten des Kinos bestehenden Tradition zu verstehen ist, sondern wie jede Tradition als ein fortwährendes Neuschrei- ben und Umschreiben, in welchem Brüche wie selbstverständlich neben kontinuierlichen Entwicklungen stehen. Von der klassischen Animation zur frühen Computeranimation Schon historisch ist eine kategoriale Unterscheidung zweier grundsätzlich verschiedener Formen der Animation gerechtfertigt, und zwar der 2D- und der 3D-Animation. In die Kategorie der 2D-Animation gehören der klassi- sche Zeichentrick sowie der Legetrick, das flächige Arrangement von ausge- schnittenen Bildteilen, oder das Bemalen, Zerkratzen, Schneiden des Film- 3 Der Begriff stammt vom lateinischen Verb remederi ab, das heilen bedeutet. Es ist ein Modell gemäßigter Neuerung, in dem neuere Entwicklungen aus alten hervorgehen und sie dabei verbessern oder reformieren. Wie Bolter/Grusin schreiben, ging dieses Konzept ursprünglich teleologisch von einem Fortschritt aus, in dem das Ziel der Entwicklung als anthropotopisch, also auf den Menschen zugeschnitten, beschrieben wurde. Bolter/Grusin fassen damit aber eine zweiseitige Entwicklungstendenz von Erneuerung und Neuformulierung, in der alte Medientechnologien neue hervorbrin- gen und dabei gleichzeitig einen formbildenden Einfluss im Sinne einer Beschränkung ausüben. Im Kern greift dieses Konzept McLuhans bereits erwähnte These (→ 50) auf, dass der Inhalt jedes neuen Mediums ein altes sei. 4 … «in welchem ein älteres Medium durch ein neueres imitiert wird oder sogar darin aufgeht. […] Animationsfilme recyceln Geschichten, Mythen oder Legenden […] – wobei sie der gedruckten oder mündlich überlieferten Version oftmals große Gewalt antun.» 108 Animation materials selber. 3D-Animationen umfassen verschiedene Formen der Stop- Motion- Technik, bei welcher Objekte einzelbildweise bewegt werden, mit der Unterkategorie Pixillation, welche das ruckhafte Verschieben von Men- schen meint – einer Technik, die zu Zeitraffereffekten führt (Giesen 2001: 237). Es ist hier nicht der Ort, eine umfassende Geschichte des Animations- films darzulegen.5 Ein konzentrierter Blick auf einige frühe Beispiele und Implementationen klassischer Animationsverfahren im Spielfilm soll nicht mehr leisten, als ein paar grundlegende Anwendungsformen und Prinzi- pien zu erhellen. Ob nun zuerst die Stop-Motion- oder die Zeichenanimation erfunden wurde, bleibt möglicherweise ungeklärt, denn viele dieser Frühwerke sind verschollen. Es ist aber anzunehmen, dass sich beide mehr oder weniger parallel entwickelt haben. Rickitt (2000: 150) verweist unter anderem auf ei- nen Stop-Motion-Animationsfilm von Georges Méliès, der bereits 1898 zu Werbezwecken entstanden sei: «Wooden alphabet blocks danced around the screen and arranged themselves into the spelling of an advertiser’s name.»6 Ebenfalls als Werbung gedacht war Arthur Melbourne Coopers Matches: An Appeal (England 1899; siehe Pinteau 2003: 2117 und Rickitt 2000: 150), ein Film, der das Publikum auffordern sollte, Streichhölzer für die Soldaten im Burenkrieg zu spenden, wie Cooper in einem Radiointer- view am 20. Juli 1958 erzählte: «The film was made by a box of matches coming in and opening, and matches getting out of the box and forming up as a man and with a spare match for a brush with which he painted on a board the appeal»8 (zitiert nach Tjitte de Vries vom Nederlands Instituut voor Animatie Film 2005: 9). Mit der Stop-Motion-Technik wurden zu Beginn vor allem Puppentrickfilme realisiert wie Humpty Dumpty Cir- cus von Albert E. Smith und J. Stuart Blackton (USA 1898), A Midwinter Night’s Dream (USA 1906), ebenfalls von J. Stuart Blackton, The Teddy Bears (USA 1907) von Edwin S. Porter oder Arthur Melbourne Coopers Dreams of Toyland (USA 1908). Sie waren oftmals integriert in eine Rah- menhandlung, welche die Animation selbst als Traum oder als Fantasie markiert. Dass überwiegend Puppen und Spielzeuge animiert wurden, ist sicher kein Zufall, denn in der magischen Welt des Kindes waren sie schon immer belebt. In der frühen Computeranimation findet sich dieses Thema 5 Die wohl umfassendste Darstellung findet sich in Pinteau (2003), weitere Informatio- nen in Rickitt (2000), bei Hamus (2001) und in Kerlow (2004). 6 «Holzbuchstaben tanzten über die Leinwand und formierten sich am Ende zum Na- men der beworbenen Firma.» 7 Pinteau geht fälschlich von einem Zeichentrickfilm für eine Streichholzwerbung aus. 8 «Im Film erschien eine Streichholzschachtel und öffnete sich. Die Streichhölzer glitten heraus und setzten sich zu der Figur eines Mannes zusammen. Ein letztes Streichholz diente ihm als Pinsel, mit dem er den Aufruf auf eine Tafel schrieb.» Von der klassischen Animation zur frühen Computeranimation 109 wieder in Filmen wie Tin Toy (USA 1988), Knick Knack (USA 1989) und Toy Story (USA 1995), alle von John Lasseter. Auch die möglicherweise ersten Filme, die Stop-Motion-Techniken mit Live Action kombinierten, The Haunted Hotel (USA 1907) von J. Stuart Blackton sowie Segundo de Chomóns El Hotel Eléctrico (Spanien 1908),9 hatten mit Objekten, die sich von selbst bewegen, magischen Charakter (Hamus-Vallée 2001: 19). Der wohl einfallsreichste Pionier des frühen Animationsfilms war der Franzose Emile Cohl. Inspiriert durch eine Vorführung von The Haunted Hotel, schuf er 1908 mit Fantasmagorie einen ersten Zeichentrickfilm mit weißen Figuren auf schwarzem Grund. Es folgten die Stop-Motion- Animation Le tout petit Faust (F 1910), gemalte Bilder auf Film in Le Peintre Néo-Impressioniste (F 1910) und ausgeschnittene Papierfiguren in Les douze travaux d’Hercule (ebenfalls F 1910). Cohl lotete damit so ziemlich alle damals bekannten Techniken aus. Wie in der Stop-Motion-Animation zeigen sich in der frühen Zei- chenanimation gewisse Grundcharakteristiken, nämlich das Spiel mit Figuren- und Objekttransformationen – beispielsweise Emile Cohls Les joyeux microbes (F 1909) – und die comic-hafte Anordnung von witzigen Situationen und Grundposen wie in The Enchanted Drawing (USA 1900) oder Humorous Phases of Funny Faces (USA 1906) von J. Stuart Blackton, die ihre Wurzeln in den sogenannten Lightning Sketches haben, schnell gemalten Skizzen, die – von einem ununterbrochenen Redefluss begleitet – im Vaudeville präsentiert wurden. Auch Winsor McCay stammte aus dieser Tradition, zeichnete Comic Strips und betätigte sich als Performer in Nachtclubs. Mit Little Nemo (USA 1911) brachte er die beiden Traditionen zusammen, indem er live auf der Bühne mit den animierten Figuren interagierte und sich als Schatten ins Bild projizierte (Pinteau 2003: 213 f.). Viele dieser frühen Animations- filme sind von einem Moment der Selbstreflexivität geprägt, oft als Rah- menhandlung inszeniert, welche den Zeichner und seine Tätigkeit zum Inhalt hat. In The Enchanted Drawing ist noch die Bühnensituation des Zeichners als solche Teil des Films, die in Humorous Phases, als zeich- nende Hand angedeutet, mehr und mehr hinter die Zeichnung zurücktritt. Die Figuren lösen sich auf, formen sich um, werden weggewischt. McCay thematisiert sich selbst und seine Kunst in Little Nemo und Gertie the Dinosaur (USA 1914) ausgiebig: «Winsor McCay agrees to make four thousand pen drawings that will move, one month from date»,10 oder 9 Hamus (2001: 19) gibt 1908 als Entstehungsjahr an, Pinteau (2003: 211) 1905; im Internet finden sich verschiedene Jahresangaben von 1905 bis 1910. 10 «Winsor McCay erklärt sich bereit, innerhalb von einem Monat 4000 Federzeichnun- gen herzustellen, die sich bewegen.» 110 Animation «Winsor McCay bets George McManus a dinner for the party that he can make the Dinosaurus live again by a series of hand-drawn cartoons»11 – so ist in den Zwischentiteln zu lesen, bevor fassweise Tinte und stapelweise Papier angeliefert werden, bis McCay hinter Bergen von Zeichnungen verschwindet, die er nach einem Monat seinen staunenden Freunden präsentiert. Interessanterweise ist der Übergang von der Präsentations- situation zur ungerahmten Animation gleitend gestaltet, als ob der Film der Animation eine tragende Rolle kaum zutrauen würde. Eine weitere bedeutsame Entwicklungslinie bildet die Kombination von Live Action und Animation, die für die Integration von animierten Special Effects in Spielfilmen langfristig eine besondere Bedeutung an- nehmen sollte. Sie wurde mit zwei Techniken möglich, die Max Fleischer erfunden hatte: dem Rotoskop und dem Rotograph. Das Rotoskop, 1917 patentiert, erlaubt es, auf Film aufgezeichnete Figuren einzelbildweise zeichnerisch nachzubilden.12 Der Rotograph, mit dem sich animierte Fi- guren in einen realen Hintergrund einfügen lassen, folgte 1934 (Pinteau 2003: 226). Mit klassischer Stop-Motion-Animation hat Erich Kettelhut die Stadt- bilder in Metropolis (D 1927, Fritz Lang) belebt. Ein ganzes Team von Animatoren bewegte die Autos, Hochgeschwindigkeitsbahnen und Flug- zeuge nach einem ausgeklügelten Konzept. Aber es war Willis O’Brien, der mit The Dinosaur and the Missing Link – A Prehistoric Tragedy (USA 1915) schon einen überaus witzigen Kurzfilm mit Dinosauriern animierte. Er schuf Stop-Motion-Animation für The Lost World (USA 1925, Harry D. Hoyt) und entwickelte später für King Kong (USA 1933, Coop er/Schoedsack) eine Technik, welche es erlaubte, animierte Puppen – Kong und diverse Dinosaurier – mit realen Figuren interagieren zu lassen: Dafür veränderte er die Größenverhältnisse durch Miniatur-Rückprojek- tion und bewegte die Puppen in einer dreidimensionalen Landschaft mit geschichteten Miniaturkulissen (Abb. 1). Als Kind war der Animator Ray Harryhausen so begeistert von King Kong, dass er sich autodidaktisch mit den Animationstechniken vertraut machte. Später wurde er O’Briens Assistent für Mighty Joe Young (USA 1949, Ernest B. Schoedsack). Noch heute gelten Harryhausens Stop-Motion-Sequenzen als Meis- terwerke. Sie begeisterten ganze Generationen von Regisseuren und Vi- sual- Effects-Spezialisten (siehe die Diskussion State of the Art in cinefex 11 «Winsor McCay wettet mit George McManus um ein Abendessen für die ganze Ge- sellschaft, wenn es ihm gelingt, den Dinosaurier mittels einer Serie von Zeichnungen wieder zum Leben zu erwecken.» 12 Ich werde mich mit dieser Technik, die bis heute Bestand hat, im Kontext des Compo- siting (→ 215) weiter befassen. Von der klassischen Animation zur frühen Computeranimation 111 1 Glasschichten mit Mini-R ückprojektion 100). Besonders herausragend ist seine Arbeit für Jason and the Argo- nauts (USA 1963, Don Chaffey), die Animation von sieben kämpfenden Skeletten. «Each skeleton had five appendages, so this meant I had to ani- mate thirty-five separate movements for each frame, and each movement had to synchronize perfectly with the movements of the three live-action men»13 (Harryhausen in Rickitt 2000: 158). O’Briens und Harryhausens Einfluss auf die Entwicklung von Visual Effects ist bis heute in vielen Grundkonzeptionen spürbar. Industrial Light & Magic verfeinerte das Stop-Motion-Konzept zu Beginn der 1980er-Jahre durch Computersteuerung zur sogenannten Go-Motion, bei welcher die Puppen während der Aufnahme von einer Mo tion-C ontrol-Apparatur (→ Motion Control 239) geringfügig bewegt werden, damit eine Bewegungsunschärfe (motion blur) entsteht, welche die Animation an die Konventionen des Fotorealismus angleicht und die Bewegungen fließender erscheinen lässt. Gewisse Teile dieser Technik kamen schon für die Star-Wars-Episode The Empire Strikes Back (USA 1980, Irvin Kershner) zur Anwendung; als ihr eigentlicher Durchbruch gilt jedoch Dragonslayer (USA 1981, Matthew Robbins). Ein Triumvirat der besonderen Art – bestehend aus Dennis Muren, Ken Ralston und Phil Tippett, drei Leitfiguren der neueren Entwicklung – war dort für die Animation des Drachens zuständig (cinefex 65: 20 f.). Phil Tippett sollte später die Dinosaurier für Jurassic Park (USA 1993, Steven Spielberg) in dieser Technik animieren. Im Lauf der Produktion entschied man sich aber für den Einsatz von Computeranimation, allerdings nicht ohne Tippetts 13 «Jedes Skelett verfügte über fünf Fäden. Dies bedeutete, dass ich pro Bild 35 einzelne Bewegungen animieren musste, die darüber hinaus exakt den Bewegungen der drei realen Darsteller anzupassen waren.» 112 Animation 2 John Whitney Sr. am Computer Knowh ow über Verhaltenskomponenten und Bewegungsabläufe der Tiere auf die neue Technologie zu übertragen. In der Computeranimation haben sehr viele Konzepte der klassischen Animation überlebt. Die größte Differenz besteht dort, wo Prozesse global in ihren Gesetzmäßigkeiten erfasst und zeitliche Veränderungen sowie Bewegungen im Raum durch ein Set von daraus abgeleiteten mathemati- schen Anweisungen definiert werden. Die frühesten computergenerierten Animationen werden in die späten 1960er-, frühen 1970er-Jahre datiert. Eine Schlüsselfigur dieser Entwicklung war John Whitney Sr., der zuvor schon mit analogen Computern eine Kame- rasteuerung für die Aufnahmen von auf Kodalith-Folien gezeichneten Bildern entworfen hatte (Le Grice 2001: 227). Das Besondere an Whitney ist über sei- nen Erfindergeist hinaus sein künstlerischer Hintergrund, denn im Allgemei- nen waren die Pioniere des Computerfilms Ingenieure oder Mathematiker, weil nur sie das nötige Wissen besaßen, um Computer zu programmieren. Mit seinem Werk schließt Whitney seit den frühen 1940er-Jahren in Zusammenarbeit mit seinem Bruder James an die Tradition des absoluten Films der 1920er- und 1930er-Jahre an, an die Arbeiten Oskar Fischingers und Walter Ruttmanns, um nur einige Exponenten dieser Kunstform zu nennen. In diesem Stil entwarf er mit analogen Mitteln Lissajous-Figuren, also Kurvengraphen, für die berühmte, von Saul Bass verantwortete Titel- sequenz aus Vertigo (USA 1958, Alfred Hitchcock). Später arbeitete er so- wohl für die Werbung als auch als unabhängiger Experimentalfilmkünstler und schuf mit Permutations (USA 1968) und Arabesque (USA 1975) in Zusammenarbeit mit Larry Cuba erste abstrakte Computeranimationen, die im Stil der Oszilloskop-Kunst Laposkys (→ 53) einfache Vektorgrafiken animierten. In einige dieser frühen Werke floss noch viel Handarbeit ein. 3 Hummingbird von Charles Csuri und James Shaffer Von der klassischen Animation zur frühen Computeranimation 113 4 Hunger von Peter Foldes Nicht zuletzt musste Whitney die Animationen mit einer traditionellen 3 5-mm-Kamera vom Monitor aufzeichnen (Abb. 2). Alle diese frühen Computerfilme waren 2D-Animationen. Dies gilt auch für die ersten gegenständlichen Filme, deren frühestes Werk Hum- mingbird (1967, Charles Csuri14 und James Shaffer; Abb. 3) als Teamarbeit eines Künstlers und eines Programmierers entstand (Franke 1984), indem Handzeichnungen eingelesen und phasenweise verändert wurden. Eben- falls in diesem Strichzeichnungslook schuf der Computergrafiker William Fetter 1970 einen Werbefilm für einen Rasierapparat mit menschlichem Gesicht, nachdem er 1963 schon für Boeing die wohl erste digitale Figur entworfen hatte (Carlson 2003, Section 2). In Verbindung mit einem dritten prominenten Beispiel früher figür- licher Computeranimation, Peter Foldes’ Hunger (CDN 1974; Abb. 4), ergeben sich einige interessante Einsichten in das Wesen dieser Kunst. Der Herstellungsprozess von Hunger beruhte nämlich ebenfalls auf einer Kombination von gemalten Bildern – Phasenbildern einer real aufge- nommenen Tänzerin, die man mit dem oben beschriebenen, von Max Flei- scher erfundenen Rotoskop zeichnerisch erfasst hatte – und Interpolation durch den Computer, die Nestor Burtnyk und Marceli Wein seit 1969 am National Research Council of Canada entwickelt hatten.15 Zum einen basierten alle diese frühen Werke auf zweidimensionalen Strichzeichnungen, zum anderen hatten sie Transformationen von Figu- 14 Charles (oder Chuck) Csuri war Gründer des Computergrafikprogramms (ab 1965) an der Ohio State University (Masson 1999: 399). 15 Burtnyk, Nestor; Wein, Marceli: Computer Generated Keyframe Animation. In: Journal of the Society of Motion Picture and Television Engineers, März 1971, S. 149–153. Burtnyk und Wein erhielten dafür 1996 einen Sci-Tech Award der Academy of Motion Pictures. 114 Animation 5 Flying Logo von ABC 6 Flying Logo von WSB-TV 2 7 Flying Logo der Sendung Good Mor- 8 Flying Logo von NBC ning America von ABC ren zum Gegenstand: eines Kolibris in Hummingbird, von Menschen in den anderen beiden Beispielen, dem Werbespot von William Fetter sowie Hunger. Hunger weist nochmals darüber hinaus, indem er Material verschiedener Provenienz kombiniert und durch die Implementation von Keyframe-Animation nicht nur eine bewährte Technik der klassischen Animation aufgreift, sondern auch mit dem Mittel der Interpolation von einander entsprechenden Bildpunkten die Morphing-Technik andeutet und damit einen Bogen zwischen einer angestammten und einer zukünf- tigen Verfahrensweise schlägt. Die Effekte muten auch aus heutiger Sicht beeindruckend an. Außerdem ist Hunger ästhetisch sehr reizvoll und hat deswegen zu Recht viele internationale Preise gewonnen. Ansonsten waren die 1970er-Jahre eher eine Latenzphase der Com- puteranimation, in der die Grundlagenforschung weiter getrieben wurde, denn Animationen in 3D waren noch kaum möglich. Eine Ausnahme bilden die sehr frühen Anwendungen von CGI im Spielfilm von John Whitney Jr. und seinem Partner Gary Demos, die 1984 mit einem Sci-Tech- Von der klassischen Animation zur frühen Computeranimation 115 9–10 The Works Award «for the practical simulation of motion picture photography by means of computer-generated images»16 ausgezeichnet wurden (AMPAS – Index of Motion Picture Credits). So erzeugten sie 1973 für Westworld (USA 1973, Michael Crichton) Bilder auf dem Computer, um die Perspek- tive eines Roboters zu visualisieren,17 und bildeten 1976 für Futureworld (USA 1976, Richard T. Heffron) das Gesicht von Peter Fonda in 3D nach (Rickitt 2000: 125; cinefex 6: 20 f.). Sie wandten dabei Verfahren an, die der Zeit weit voraus waren (→ Digitale Figuren 422). Insgesamt jedoch fristeten Computeranimationen in diesem Jahr- zehnt ein Nischendasein mit ersten praktischen Anwendungen zur Vi- sualisierung von technischen Abläufen oder wissenschaftlichen Inhalten. Zu nennen wären in diesem Zusammenhang die 1977 von James F. Blinn am NASA Jet Propulsion Lab erstellte Computersimulation des Flugs der Raumsonde Voyager und im gleichen Jahr Larry Cubas Simulation des Death Star auf einem Bildschirm für Star Wars (USA 1977, George Lucas) sowie die bereits im Abschnitt Modellieren erwähnte Visualisierung von DNA für Carl Sagans Fernsehserie Cosmos (USA 1980) durch James F. Blinn.18 Ende der 1970er-Jahre begann die Ära der Flying Logos (Abb. 5–8) und erster Werbefilme in 3D. Flying Logos entsprachen mit ihrem be- schränkten Formenrepertoire – anorganische Gebilde, simple Oberflächen im Metall- oder Plastik-Look – dem damaligen State of the Art, der von den Ansprüchen der Filmindustrie nach wie vor weit entfernt war. Trotz dieser zunächst noch bescheidenen technischen Möglichkeiten nahm ein Team von Forschern 1979 am New York Institute of Technology (NYIT) die Arbeit an einem voll animierten Film mit dem Titel The Works (Abb. 9–10) auf. 16 … «für die praktische Simulation von Filmaufnahmen mittels computergenerierter Bilder» 17 Siehe http://www.crichton-official.com/westworld/westworld_main.shtml. 18 http://astronomy.swin.edu.au/~pbourke/modelling/implicitsurf/. 116 Animation Am NYIT waren Spitzenex- perten der Computergrafik von der University of Utah wie Ed Catmull, Lance Williams, Fred Parke, Gar- land Stern sowie Ralph Guggen- heim, Alvy Ray Smith and Ed Emshwiller beteiligt, die teilweise 11 Star Trek II: The Wrath of Khan: bis 1986 weiterarbeiteten, soweit Compositing von Alvy Ray Smith mit sie nicht vorher von George Lucas Elementen aus dem Genesis-Effekt für seine Computerabteilung ab- geworben wurden. Wegen dieser Schwierigkeiten wurde der Film nicht fertiggestellt, sondern lediglich 1982 ein Trailer auf der SIGGRAPH gezeigt (siehe Masson 1999: 286 und Carlson 2005, Section 5).19 The Works war letzten Endes mehr ein Testfeld für die Computeranimation, in dessen Verlauf jedoch unschätzbare Erfah- rungen mit dem Medium und seinen Möglichkeiten gewonnen wurden. Zwei Experten der Abteilung am NYIT, nämlich Ed Catmull und Alvy Ray Smith, leiteten ab 1979 die Computerabteilung von Lucas-Film, wo sie zunächst nichts zu tun hatten, außer die besten Computergrafik- spezialisten zusammenzusuchen, denn Lucas’ Filme wurden mit tradi- tionellen Special Effects hergestellt.20 Ab 1981 erhielten sie erstmals die Chance, eine computeranimierte Sequenz für einen Film, den sogenannten Genesis-Effekt für Star Trek II: The Wrath of Khan (USA 1982, Nicholas Meyer; Abb. 11), herzustellen. Wie Alvy Ray Smith (1998) humorvoll beschreibt, versuchten sie, alle damals verfügbaren Techniken in dieser Sequenz unterzubringen – die fraktalen Landschaften Loren Carpenters21, William T. Reeves’22 Partikel- Animation, das 3D-Know-how von Robert Cook23 sowie den Vorbeiflug der Voyager von James Blinn –, dies mit der Absicht, sowohl George Lucas als auch Paramount von der Qualität und den vielfältigen Möglichkeiten der 19 Siehe http://www-2.cs.cmu.edu/~ph/nyit. 20 Es lohnt sich, dazu den Artikel von Smith (1998) zu lesen, in dem er Lucas als «acciden- tal visionary» bezeichnet, also als eine Figur, die den Innovationsprozess mehr zufällig als bewusst und zielorientiert vorangetrieben hat. Lucas selber hat an der SIGGRAPH 2005 in einer Podiumsdiskussion betont, dass er sich überhaupt nicht für Techniken und deren Grundlagen interessiere, sondern nur Lösungen präsentiert bekommen wolle. 21 Loren Carpenter von Boeing hatte an der SIGGRAPH 1980 mit der Animation Vol Libre seine Software vorgestellt. 22 Publiziert 1983: Reeves, William T.: Particle Systems. A Technology for Modeling a Class of Fuzzy Objects. In: ACM Transactions on Graphics, April 1983 (→ Partikel-Anima- tion 132). 23 Robert Cook hatte mit Kenneth E. Torrance das Cook-Torrance-Shading-Modell ent- wickelt (→ Shading-Modelle 93). Von der klassischen Animation zur frühen Computeranimation 117 Computeranimation zu überzeu- gen. «My instructions to the team were that we would create a camera move that would ‹knock George’s socks off›»24 (Smith 1998: 49). Aller- dings waren sie gleichzeitig darauf bedacht, die Effekte sorgfältig der erzählerischen Intention anzupas- sen. Loren Carpenter entwarf dafür einen spektakulären Kameraflug 12 Der Glasgemälde-Ritter in Young von 60 Sekunden Dauer rund um Sherlock Holmes einen brennenden Planeten, dessen Oberfläche sich nach dem Brand wieder regeneriert. Teile dieses Teams waren spä- ter für einen der ersten fotorealisti- schen Visual Effects im Kontext der Spielfilmproduktion, den Glasge- mälde-Ritter in Young Sherlock Holmes (USA 1985, Barry Levin- 13 Luxo Jr. von John Lasseter son; Abb. 12), verantwortlich sowie für eine der gelungensten Computeranimationen dieser Periode, Luxo Jr. (USA 1986, John Lasseter; Abb. 13). Noch 1982 musste man für Tron (USA, Steven Lisberger) sämtliche Bewegungen durch Festlegen von Koordinaten und Ausrichtung hart codieren, also präzise Werte definieren. Animation war deshalb zunächst ein überaus technisch angelegter Vorgang. Das begann sich Mitte der 1980er-Jahre zu ändern, als die ersten kommerziellen Softwares auf den Markt kamen – 1984 Wavefront,25 1985 Prisms von Omnibus Computer Graphics und Alias/1 von Alias – mit der Folge, dass sich die Experten in zwei Gruppierungen aufspalteten: eine mit Schwerpunkt technisches Knowhow, eine weitere mit künstlerischer Vorbildung. Erste Ergebnisse dieser Veränderung waren die Transformationen des Flugobjekts in Flight of the Navigator (USA 1986, Randal Kleiser) oder die Traumsequenzen in The Golden Child (USA 1986, Michael Ritchie; cinefex 65: 41) sowie in Star Trek IV: The Voyage Home (USA 1986, Leonard Nimoy), in denen die Figuren sich ineinander transformieren (Masson 1999: 251; cinefex 65: 36). 24 «Meine Anweisung ans Team lautete, eine Kamerabewegung zu schaffen, die George ‹aus den Socken hauen› würde.» 25 Kerlow (2004: 37) gibt 1981 als Entstehungsjahr an, auf der Website von Alias|Wavefront wurde 1984 angegeben, bis 2006 die Firma Autodesk Alias|Wavefront übernahm. 118 Animation Wohl am bekanntesten für solche Transformationseffekte ist Willow (USA 1988, Ron Howard), in welchem erstmals die 1982 von Tom Brigham am NYIT entwickelte Morphing-Technik im engeren Sinne in einen Spielfilm integriert wurde. Damit wird deutlich, dass sich in der Computeranimation im Laufe der 1980er-Jahre ein einschneidender Wandel vollzog, ein Wandel übrigens, der mit sehr viel Skepsis einherging, denn noch bewegten sich die wenigen Computeranimationen, die in ein filmisches Umfeld gestellt wurden, auf dünnem Eis. Besonders nach dem ausgeprägten Flop von Tron26 stellte sich die Filmindustrie gegen die Verwendung von CGI. Diese Krise – man kann sogar von einem regelrechten Tron-Schock sprechen – ging einher mit einer auch ökonomisch grundlegenden Veränderung der Computer- grafikbranche. Erst gegen Ende des Jahrzehnts konsolidierten sich neue Strukturen, welche die Computeranimation mehr und mehr zum Bestand- teil verschiedenartiger Genres und Erzählstrukturen werden ließen. Schon immer war die Unabhängigkeit von der physischen Realität der größte Vorteil der Animation gewesen. Indem die Computeranimation dies e Freiheit in den Spielfilm integriert, stellt sie neue Herausforderungen an die theoretischen Überlegungen nicht nur zur filmischen Abbildung (→ 275), sondern auch zu erzählerischen Aspekten, von der Empathie mit digitalen Figuren (→ 422) zu Effekten der Körpertransformation (→ Körper 283), magischen Erscheinungen (→ 417) sowie einem veränderten Verhältnis von Sichtbarkeit und Unsichtbarkeit (→ 358), die ich an entspre- chender Stelle diskutieren werde. Nicht zuletzt aber greift diese Autono- mie gegenüber den materiellen Prinzipien der Natur den angestammten Status des Films als ein mimetisches Medium an. Literaturempfehlungen z Einen umfassenden Überblick von der Frühgeschichte der Animation bis in die Gegenwart bietet Pinteau (2003). z Kerlow (2004) gibt die wohl detaillierteste Einführung in die Prinzipien der Computeranimation. 26 Die Computeranimation in Tron wäre sicher nicht als so problematisch empfunden worden, wäre die Handlung nicht so dürftig gewesen. «Tron was unanimously criti- cized for the juvenalia of its videogame-level script, the banality of its characters and the coldness of its conception [«Tron wurde einhellig für sein kindisches Drehbuch kritisiert, dessen Handlung sich auf dem Niveau eines Videospiels bewegte, das mit völlig banalen Figuren operiert und außerdem kaltherzig konzipiert war.]» (Bukatman 1993: 88). Alle diese kritischen Faktoren sind darauf zurückzuführen, dass hier eine Technologie in ein kulturelles Umfeld – nämlich in die Tradition des Kinospielfilms – gestellt wurde, dessen Anforderungen sie noch nicht gewachsen war. Denn zu diesem Zeitpunkt gab es sehr wohl schon Videospiele, hauptsächlich in Form von Arcade- Games, die mit einer ähnlichen oder sogar noch bescheideneren Oberfläche operierten und trotzdem vom Publikum ohne Vorbehalte angenommen wurden. Grundlagen der Animation 119 Grundlagen der Animation Die Animation am Computer ist ein extrem weitläufiges und komplexes Gebiet, das viel Wissen über Bewegungsabläufe erfordert, aber auch künstle- risches Gespür für die Ausdrucksqualität von Bewegungen, die proxemische Anordnung der Figuren und Objekte im Raum, ein Empfinden für Masse und Geschwindigkeit und anderes mehr, also Schauspiel- und Regiequalitä- ten. Dieses komplexe Gebiet kann keineswegs erschöpfend im Rahmen die- ser Arbeit erschlossen werden, und ich zweifle sogar daran, dass es sich über- haupt sprachlich adäquat fassen lässt, denn viel Wahrheit des Ausdrucks durch Animation liegt in subtilen Nuancen, die der wahrnehmenden Emp- findung direkt zugänglich sind, sich aber schwer versprachlichen lassen. Ich beschränke mich deshalb auf eine sehr konzentrierte Darstellung einiger unverzichtbarer Grundlagen, die entweder für die weitere Diskus- sion notwendig sind oder aber ein Licht auf die speziellen Bedingungen und Probleme der Computeranimation werfen. Keyframe-Animation Die Keyframe-Animation beruht darauf, dass einige Schlüsselposen (key- frames) definiert und ihre Position auf der Zeitachse festgelegt werden. Diese Technik war schon in der Zeichenanimation die Regel, wo der beste Zeichner, Keyframe Artist genannt, diese Schlüsselposen festlegte, während ein Heer von sogenannten In-Between Artists die Zwischenphasen ausführ- ten. Mit dem bereits erwähnten Programm, das von Burtnyk und Wein ab 1969 entwickelt wurde, konnte der Computer diese Arbeit übernehmen. Mehr noch, das In-Betweening scheint wie prädestiniert für die Compute- risierung, denn es handelt sich dabei schlicht um eine Interpolation, sei sie nun linear oder auch komplexer. Die mathematischen Grundlagen hatte der Biologe D’Arcy Thompson in seiner Pionierarbeit On Growth and Form be- reits 1917 erforscht und beschrieben, in welcher er sich mit den Transforma- tionen zwischen verschiedenen Pflanzen- und Tierarten beschäftigt hatte, und zwar explizit ausgehend von Dürers Arbeit De Symmetria Partium in Rectis Formis Humanorum Corporum Libri, die 1528 posthum in Nürnberg publiziert wurde (Abb. 14).27 Einfache, sich wiederholende Bewegungsabläufe wie beispielsweise Schritte werden schon in der traditionellen Zeichenanimation als Zyklen 27 Lateinische Fassung der deutschen Ausgabe: Vier Bücher von menschlicher Bewegung von 1528, mit dem Untertitel Hierin sind begriffen vier Bücher von menschlicher Proportion, durch Albrechten Dürer von Nürenberg erfunden und beschriben, zu nutz allen denen, so zu diser kunst lieb tragen. 120 Animation 14 Gesichtstrans- forma tionen in Dürers De Symmetria 15 Gehzyklus von Etienne-Jules Marey angelegt und anschließend weiter modifiziert. Bereits in den 1880er-Jahren hatte Etienne-Jules Marey solche Zyklen systematisch aufgezeichnet und ausgewertet (Abb. 15). Im Gegensatz zur klassischen Keyframe-Anima- tion, die immer zweidimensional von den Beziehungen zwischen Punkten in der Fläche ausgeht, kann die Computerversion sehr viele Parameter eines Objekts umfassen, von der Position und Ausrichtung im Raum über die Form bis hin zu den Oberflächeneigenschaften. Weiter lassen sich Pfade festlegen, auf denen sich die Objekte bewegen. Einige Parameter erfordern Grundlagen der Animation 121 16 Graph-Editor zur Bearbeitung des Bewegungspfads eines Balls 17 Morph-Targets mit unterschiedlichen Augen zusätzliche Umformungen wie etwa präzisere Farbspezifikationen, damit die Farbveränderungen natürlich wirken. Mit einem Graph Editor (Abb. 16) lassen sich die Interpolationen genau bestimmen und von Hand anpassen, entweder mittels komplexerer mathematischer Funktionen beispielsweise quadratisch oder sinusoidal, oder indem explizite Steigungswerte defi- niert bzw. von Hand Spline-Kurven gezeichnet werden, dies nach einem genau definierten zeitlichen Verlauf für jeden einzelnen Parameter. Oftmals werden die verschiedenen Stadien der Deformation als soge- nannte Morph Targets oder Blend Shapes eigens modelliert (Abb. 17). Die se Technik ist vor allem für die Gesichtsanimation verbreitet, bei welcher Morph Targets die Lippenpositionen für bestimmte Phoneme oder emo- tional bedingte Gesichtsausdrücke für die verschiedenen Regionen des Gesichts – z. B. Augenlider, Augenbrauen, Stirn, Lippen – festlegen, die sich durch Regler sehr fein aufeinander abstimmen lassen. In natürlichen Objekten und Prozessen verändern sich die Parameter häufig nach bestimmten Gesetzmäßigkeiten, deren Randbedingungen 122 Animation (constraints) berücksichtigt werden müssen, und oft bestehen systemi- sche Zusammenhänge zwischen dem zeitlichen Verhalten verschiedener Aspekte eines Objekts, die sich nicht beliebig variieren lassen, wenn der Plausibilität verpflichtete Resultate erwünscht sind. In der Praxis müssen also die großen Freiheiten der computergestützten Keyframe-Animation aus verschiedenen Gründen beschnitten werden, nicht zuletzt auch im Hinblick auf die Rechnerkapazität. Essenziell für die natürliche Wirkung von Keyframe-Animation ist das Timing. «We often wind up with animated motion that is smoother and more precise than what you see in nature – and that gives it a kind of fakeness»28 (Animation Supervisor Randy Cook in cinefex 100: 35). Ratner (2003: 302) vergleicht die Animation als zeitbasiertes Phänomen mit Musik und hält den Rhythmus für den wichtigsten Faktor einer überzeugenden Performance, welche mit Kontrasten und pulsierenden Linien ein dichtes Geflecht von Bewegungen enthalten sollte. Skelette und Muskeln Theoretisch sind der Keyframe-Animation also kaum Grenzen gesetzt. Damit die Bewegungsabläufe von Menschen oder Tieren aber natürlich und plausibel wirken, werden deren Modelle mit Skeletten ausgestattet, welche die Bewegungsfreiheit kontrollieren. Skelette bestehen aus Verbin- dungsstücken (bones) und Gelenken (joints) mit vordefinierten Freiheits- graden analog zur entsprechenden Anatomie. Weiter sind diese Skelette hierarchisch organisiert, sodass sich die Bewegung von den oberen Stufen (parents) auf die untergeordneten Stufen (children) fortpflanzt. Ein Parent könnte beispielsweise die Schulter sein, während die Children dann die Knochen des Arms sind, wobei jedes «Kind» wiederum Elternteil eines anderen «Kindes» sein kann – dies ganz in Übereinstimmung mit dem Modell der Generationen (Abb. 18). Weiter ist es möglich, Muskeln zu modellieren, welche die Verfor- mung der Oberfläche mitgestalten (vgl. Jackèl et al. 122 ff.). Im physikali- schen Sinne verhalten sich solche Muskeln wie Gummibänder, indem sie bestimmte Bereiche als Muskelvektoren entweder zusammen- oder ausei- nanderziehen können. Gleichzeitig müssen Muskelmodelle die Oberflä- chenverformungen in systematischer Weise beeinflussen. Das bedeutet, dass sich die Muskeln selbst spezifisch verformen und dass sich dies auf die darüberliegende Haut auswirken muss. Zu diesem Zweck wird üb- 28 «Oftmals entstehen bei der Animation Bewegungen, die geschmeidiger und präziser als natürliche Bewegungen wirken – und das lässt sie irgendwie falsch erscheinen.» Grundlagen der Animation 123 licherweise zwischen Muskel und Haut ein Federsystem implemen- tiert. Grundsätzlich sind zwei un- terschiedliche Paradigmen auszu- machen, von denen die muskel- gesteuerte Animation von perfekt «geriggten» Modellen ausgeht, bei welchen Muskeln die darüberlie- gende Haut bewegen, während die 18 Farbcodierte Skeletthierarchie für The Day After Tomorrow parametergesteuerte Animation nur die Oberflächenverformung selbst berücksichtigt. Ein typisches Anwendungsfeld dieser beiden Sys- teme ist das Gesicht, mit dessen Animation ich mich im Rahmen der digi- talen Figuren (→ 445) ausführlicher beschäftigen werde. Forward und Inverse Kinematik Bei Forward Kinematik (FK) arbeitet der Animator die Skeletthierarchie hin unter, bewegt also zuerst die oberen Stufen der Hierarchie und passt dann die unteren Stufen an, beispielsweise zuerst den Oberarm, dann den Unterarm, dann die Hand und schließlich die Fingerglieder. Dieses Ver- fahren ist zwar im Prinzip einfach, aber arbeitsintensiv (Kuperberg 2002: 51 f.). Inverse Kinematik (IK) funktioniert umgekehrt, beginnt also bei der untersten Hierarchiestufe, dem sogenannten Endeffektor, beispielsweise dem Fuß. Voraussetzung für funktionierende Inverse Kinematik ist ein perfektes Skelett, das die Bewegungen in anatomisch sinnvoller Weise um- setzt. Es ist aber etwas übertrieben, dabei von Intuition oder intelligentem System zu sprechen wie Parisi (1995), wenn auch intelligente computerge- nerierte Figuren auf Inverse Kinematik angewiesen sind. In aktueller 3D-Software wird ein FK/IK-Blend-Verfahren angebo- ten, mit dem man stufenlos von FK zu IK oder wieder zurückblenden kann (Helzle 2006). Noch neuere Entwicklungen implementieren unmit- telbare physikalische Kräfte in die Animation von Figuren, sind also eine Mischung aus den bereits beschriebenen Verfahren mit physikalisch-ba- sierten Methoden.29 29 Beispielsweise die Software Endorphin der Firma Natural Motion (http://www.natu- ralmotion.com). 124 Animation Kollisionsvermeidung Da die computergenerierten Objekte nicht a priori den physikalischen Gesetzen gehorchen, keine dreidimensionale Materialität besitzen, son- dern hohle Oberflächenverbünde sind, leisten sie sich gegenseitig keinen Widerstand, sondern durchdringen einander problemlos. So kann es sein, dass die Haare in die Kopfhaut sinken oder die Zähne die Lippe durchboh- ren. Solche Fehler verhindert man entweder manuell oder durch Kollisi- onsvermeidung (collision detection), einer automatischen Funktion, die eva- luiert, ob Oberflächen verschiedener Objekte den gleichen Raum besetzen. Oftmals sind dieser Funktion weitere Module zugeordnet, welche das Verhalten der Objekte beim Zusammenprall beschreiben, Module allerdings, die in das Gebiet der Animation von dynamischen und physi- kalischen Prozessen gehören und dort erörtert werden (→ 141). Ken Hahn, der die Skelett- und Muskelstruktur des Hollow Man (USA 2000, Paul Verhoeven) verantwortete, erwähnt in cinefex (83: 112), wie schwierig es gewesen sei, Muskeln, Skelett und Haut so zu definieren, dass sie einan- der nicht durchdringen – eine Voraussetzung dafür, dass die Muskeln die Haut in natürlicher Weise deformieren. Selbst für Hulk (USA 2003, Ang Lee) wurden die Muskeln manuell daran gehindert zu kollidieren (Crea- ture Supervisor Aaron Ferguson in cinefex 94: 83), denn die automatische Kollisionsvermeidung ist sehr datenintensiv (siehe dazu Kerlow 2004: 347 f.). Aber sie ist eine notwendige Voraussetzung von Flocking-Systemen (→ 136) und damit auch der Computeranimation von Menschenmassen. Character Animation Computergenerierte Figuren – seien es nun Tiere, Monster, Menschen oder magische Objekte – müssen ihre Persönlichkeit durch konsistentes Verhal- ten kommunizieren. Die Konzeption dieser Verhaltensmuster im Rahmen eines umfassenden Persönlichkeitskonzepts ist Gegenstand der Character Animation. Das bedeutet, dass eine Figur eine detaillierte Back-Story ha- ben muss, welche die Grundlage für das gesamte Geflecht von Gedanken, Gefühlen, Motivationen und Reaktionsmustern bildet. Eine stimmige Per- sönlichkeit der animierten Figur ist essenziell, damit das Publikum eine Beziehung zu ihr aufbauen kann. Dies gilt besonders für fotorealistische digitale Figuren, deren Ausdrucksrepertoire nuancierter ausfallen muss als in der Welt der traditionellen Animation, in der sich eigene Gesetze mit Stilisierungen und Übertreibungen etabliert haben. Konsistenz einer Per- sönlichkeit meint jedoch etwas anderes als Stabilität der Parameter. Eine Figur, welche die Zuschauer emotional involvieren soll, braucht Mehrdi- mensionalität und muss Wandlungsprozesse durchlaufen. Grundlagen der Animation 125 Die Entwicklung eines Persönlichkeitskonzepts beginnt schon mit der Modellierung, denn Erscheinungsbild und Verhalten müssen sinnvoll aufei- nander abgestimmt werden. Die Oberflächeneigenschaften von etwa Haut und Kleidung sind weitere Aspekte des Erscheinungsbilds und widerspie- geln innere Zustände wie momentane Gefühle und kurz- oder langfristige Veränderungen. Wie und auf welche Weise es digitalen Figuren gelingt, Emotionen zu wecken, wird Inhalt eines eigenen Kapitels sein (→ 432). Bereits Mitte der 1930er-Jahre haben die Animatoren von Disney ein Set von zwölf Prinzipien der Character Animation beschrieben, das nach wie vor beachtet und deshalb in jedem Handbuch der Animation aufge- führt wird (siehe Lasseter 1987; Ratner 2003: 271 ff.; Kerlow 2004: 280 ff. und Jackèl et al 2006: 13 ff.).30 Wie Ratner schreibt, hatten diese Grundlagen ihre Wurzeln in Theater und Vaudeville, denn ihr Zweck war es, durch vergrößerte Ausdrucksformen die Aufmerksamkeit und emotionale Be- teiligung des Publikums zu gewinnen. Es geht in diesen zwölf Prinzipien auch darum, physikalische Gesetze der Bewegung aufzugreifen und zeichnerisch umzusetzen, um die dargestellte Diegese wenn auch nicht realistisch im engeren Sinne, so doch glaubwürdig erscheinen zu lassen. Zwar lassen sich die Prinzipien einzeln beschreiben, aber sie beeinflussen einander gegenseitig, fungieren also als Knotenpunkte eines komplexen Netzwerks. 1. Squash and Stretch Figuren – und in der Animation auch Objekte – bestehen aus flexiblen Ma- terialien, die sich bei Bewegung deformieren wie ein weicher Ball, der auf den Boden aufschlägt. Diese Deformationen drücken Lebendigkeit aus und lassen die Figuren dynamischer erscheinen. In seiner überspitzten Form ge- hört Squash and Stretch zum Stereotypenrepertoire des Cartoons, wirkt aus- gesprochen komisch und findet deshalb nur dann Verwendung, wenn die erzählerische Situation diese Wirkung erfordert oder zumindest zulässt.31 2. Anticipation Disney ging davon aus, dass die Antizipation dem Publikum hilft, dem Geschehen zu folgen, indem gewisse Bewegungsmuster auf eine folgende Aktion hinweisen. So nimmt eine Figur Anlauf, um einen Sprung vor- zubereiten. Erzähltheoretisch lassen sich Antizipationen der Wissensdis- tribution zuordnen. Sie räumen dem Publikum einen Wissensvorsprung 30 Siehe auch http://www.siggraph.org/education/materials/HyperGraph/animation/ character_animation/principles/prin_trad_anim.htm mit animierten Beispielen. 31 Gemäß der Anmerkung von Volker Helzle (2006) wird Squash and Stretch immer häufi- ger in 3D eingesetzt. Es war bisher technisch nicht einfach zu realisieren. 126 Animation ein und machen es so zum Komplizen des Erzählers. Gleichzeitig dient die Antizipation der Aufmerksamkeitssteuerung, indem sie den Blick auf zukünftige Ereignisse und Aktionen lenkt. 3. Staging: In ihrer elementarsten Bedeutung übersetzen die Positionierung der Ak- tionen die Stimmung und Intention einer Szene in ein choreografisches Geflecht. In der Filmtheorie ist das Staging Bestandteil der Mise-en-Scène32 und kann nicht ohne Berücksichtigung der Kameraparameter wie Bild- ausschnitt, Schärfe, Kamerabewegung gedacht werden. Dies gilt genauso für die Animation, wenn auch in der Zeichen- und Computeranima- tion die Kameraparameter zur gleichen materiellen Einheit gehören wie die Objekte und Figuren, da sie ebenfalls gezeichnet oder – im Fall der Computera nimation – gerendert werden (→ Animation der Kamera 130). 4. Straight-ahead and Pose-to-Pose Action Im Zeitalter der Computeranimation hat diese Unterscheidung eine neue Bedeutung gewonnen. Während Pose-to-Pose Action der Keyframe-Anima- tion entspricht, umfasst Straight-ahead Action – die spontane Fortbewegung der Figuren im Raum – Aufzeichnungstechniken wie das traditionelle Rotoskopieren, also das bereits erwähnte zeichnerische Nachbilden einer aufgenommenen Figur und dessen dreidimensionale Fortsetzung mit den Mitteln des Computers, Motion Capture genannt (→ 145). Mit intelligenten Agenten, die bei der Animation von Menschenmassen zum Einsatz kom- men, wird der Modus um regelbasierte prozedurale Verfahren erweitert (→ Prozedurale Animation 131). Nur am Rande sei darauf hingewiesen, dass man alle diese Verfahren kombinieren kann. 5. Follow-through and Overlapping Action Als Follow-through werden die physischen Reaktionen auf andere Objekte oder Figuren oder eben vollzogene Handlungen bezeichnet. Wirft bei- spielsweise eine Figur einen Ball, bewegt sich die Hand weiter, wenn sie den Ball bereits losgelassen hat. Im Follow-through kann sich zudem die emotionale Bewertung der Situation durch die Figur ausdrücken. Dies stellt besondere Anforderungen an die Character Animation, wenn die animierte Figur mit einer realen Umgebung oder realen Schauspielern in- teragieren soll. Overlapping Action meint die parallele oder überlappende Anordnung verschiedener Bewegungen, die einander beeinflussen und 32 Unter Mise-en-Scène versteht man alle jene Elemente, die sich vor der Kamera befin- den, also das Setting und die Requisiten, die Beleuchtung, die Kostüme und die mas- kenbildnerischen Applikationen sowie das Staging. Grundlagen der Animation 127 den Eindruck von Lebendigkeit unterstützen, denn in der realen Welt gibt es kaum eine einförmige Bewegung. Schon das Gehen besteht aus vielen Bewegungsmodulen mit einem komplexen zeitlichen Verhalten. Kerlow (2004: 275) führt als weiteres Beispiel einen Baum an, der vom Wind be- wegt wird und dessen Teile – große und kleine Äste und Blätter – ganz unterschiedliche Rhythmen entwickeln. 6. Slow In and Slow Out Handlungen beginnen und enden langsam, dies drückt auch ein Gefühl für Trägheit durch Masse aus. In der Computeranimation können diese Verzögerungen am Anfang und Ende im Graph Editor durch Rampen be- schrieben werden. 7. Arcs Belebte Objekte bewegen sich nicht in geraden, sondern in geschwun- genen Linien; Bewegungen wirken roboterhaft und steif, wenn sie nicht diesem Prinzip folgen. Die Bögen können als geschwungene Pfade, soge- nannte Spline-Kurven, definiert werden. 8. Secondary Actions Sekundäre Aktionen sind Auswirkungen der primären Bewegungen. So ist die Bewegung des Körpers als Ganzes eine primäre Aktion, während die Bewegungen von Armen, Haaren oder Kleidern sekundäre Aktionen dar- stellen. In der Computeranimation können jedem einzelnen Glied der Be- wegungskette je eigene Kanäle zugewiesen werden, die sich in Schichten miteinander verknüpfen lassen, um solche komplexen Ursache-W irkungs- Mechanismen oder auch überlappende Bewegungsmuster zu erzeugen. 9. Timing Das Timing ist wie das Staging eine essenzielle Grundlage für den Aus- druck von Emotionen und Intentionen, aber auch für die Stimmung der Szene. Ob eine Handlung komisch oder tragisch wirkt, ob Pointen sitzen, ob das Publikum eine Figur als glaubwürdig empfindet, ob sie traurig oder glücklich, nachdenklich, müde oder nervös erscheint, ob zwischen den Figuren Beziehungen entstehen und wie diese Beziehungen beschaf- fen sind: All dies entscheidet sich maßgeblich über das Timing. 10. Exaggeration Übertreibung ist wie Squash and Stretch ein Gestaltungsmittel des stili- sierten Animationsfilms in der Tradition der Cartoons. Animatoren der klassischen Schule – dazu gehört auch noch Ratner (2003: 297) – betonen 128 Animation ohne Unterlass, wie wichtig es sei, Bewegungen zu übertreiben, damit ani- mierte Figuren ihre Emotionen vermitteln können: «A bad actor will look phony, and the same is true of animated characters that lack exaggeration. Their actions will appear contrived and unnatural.»33 Tatsächlich arbeiten viele voll computeranimierte Filme von Shrek (USA 2001, Adamson/ Jenson/Marshall) über Finding Nemo (USA 2003, Andrew Stanton; Lee Unkrich) bis The Incredibles (USA 2004, Brad Bird) mit solchen stark akzentuierten Handlungselementen. In fotorealistischer Umgebung hin- gegen wirkt diese zugespitzte Ausdrucksform nur angemessen, wenn sie einen komischen Effekt haben soll. 11. Solid Drawing Solid Drawing betrifft die Erscheinungsform einer Figur. Im Zeitalter der Computeranimation ist es deshalb sinnvoller, von Solid Modeling and Rig- ging zu sprechen. Denn ob die Körperform mit den Bewegungen konsistent ist, entscheidet sich maßgeblich über eine durchdachte Skelett- und Mus- kelstruktur. Ein wesentlicher Aspekt der glaubwürdigen Integration von Erscheinungsbild und Bewegungsmustern ist der Bezug auf die Masse. In Abhängigkeit von der Masse wirkt sich die Trägheit eines Objekts unmit- telbar auf dessen Bewegungen aus. Jede Bewegung ist ein Ausdruck des Gewichts, das beschleunigt werden muss. Das Dilemma, eine große und träge Figur sich schnell bewegen zu lassen, wird zum Beispiel in Hinblick auf den Tyrannosaurus Rex in Jurassic Park thematisiert (Animation Supervisor Mark Dippe in cinefex 55: 84), denn es gibt in der Realität kein sechs Tonnen schweres Tier, das sich schnell vorwärts bewegt. Auch eine überlebensgroße Figur wie Hulk ist schwer zu animieren – ein Problem, das ich im Kontext von Motion Capture (→ 145) thematisieren werde, welche dessen Bewegungsmustern zugrunde lag. Der Schwerpunkt einer Figur ist ein weiterer Aspekt, den Animatoren berücksichtigen müssen, wenn sie überzeugende Bewegungen kreieren wollen. Es ist ein Problem vieler computeranimierter Figuren, dass sie zu leicht wirken. 12. Appeal Mit Appeal ist die Persönlichkeit einer Figur gemeint, die unerlässlich für die Kommunikation mit dem Publikum ist. Dies umfasst neben den Be- wegungscharakteristika auch den Ausdruck der Gefühle, Wünsche und Gedanken, welche die Handlungen motivieren, Fähigkeiten wie Intelli- genz oder Körperbeherrschung, das Alter der Figur und nicht zuletzt die Interaktion mit der Umwelt und den anderen Figuren. Appeal ist letztlich 33 «Animierte Figuren, die nicht übertrieben gestikulieren, wirken genauso unecht wie ein schlechter Schauspieler. Ihre Handlungen erscheinen gezwungen und unnatürlich.» Grundlagen der Animation 129 19 Lawine aus XXX 20 Meer aus Perfect Storm also die Summe aller hier geschilderten zwölf Prinzipien, die mit Feinsinn aufeinander abgestimmt sein müssen. Dies ist umso schwieriger, als die Animation – auch die Computeranimation – ein extrem arbeitsintensiver und in der Folge arbeitsteiliger Prozess ist. Die Figurenanimation ist auch im zeitgenössischen Film nicht nur der Ge- staltung von Personen oder Tieren mit spezifischen Charaktereigenschaf- ten vorbehalten, sondern wird auch dort angewendet, wo Natur ereignisse, magische Erscheinungen oder Objekte je eigene Intentionen ausdrücken sollen, die ihnen in animistischer Weise so etwas wie eine Persönlichkeit verleihen: so der Lawine in XXX (USA 2002, Rob Cohen; Abb. 19), dem Meer in Perfect Storm (USA 2000, Wolfgang Petersen; Abb. 20), den Wirbelstürmen in The Day After Tomorrow (USA 2004, Roland Emme- rich), den Spyders in Minority Report (USA 2002, Steven Spielberg) oder verschiedenen magischen Erscheinungen wie dem erwähnten Feuer aus Sleepy Hollow (USA 1999, Tim Burton). 130 Animation Animation der Kamera Im Unterschied zu einer materiellen Kamera hat die virtuelle Kamera der Computeranimation weder Ausdehnung noch Schwerkraft und kann sich somit dimensions- und schwerelos in jeder erdenklichen Richtung und Ge- schwindigkeit durch den Raum bewegen. Sie kann Mauern und Objekte durchdringen und in potenziell unendlichen Dimensionen Räume durch- messen. Dies führt zu neuen Gestaltungsformen wie Rides – sensationell akrobatischen Flügen – oder zu neuen Variationen des subjektivierten Blicks, welche der Flexibilität und Geschwindigkeit von Gedanken ent- spricht – ein Stilmittel, das ich im Kontext der Subjektivierung als geistiges Auge thematisieren werde (→ 379). Diese Freiheit der virtuellen Kamera wird kontrovers diskutiert, denn in ihr manifestiert sich jene Losgelöstheit von den Gesetzen der realen Welt, die als sinnloses Spektakel kritisiert wird. Viele Visual-Effects-Supervisoren selbst sind peinlich darauf be- dacht, Kamerabewegungen den erzählerischen Zielen unterzuordnen und die Möglichkeiten nicht gnadenlos auszuschöpfen. Dennoch üben solche virtuosen Kamerabewegungen eine Faszination aus, welche Regisseure in gefühlsgeladenen Schlüsseleinstellungen gerne einsetzen, um die Pracht eines Schauplatzes zu vermitteln, wie der Flug über die Titanic (USA 1997, James Cameron) auf dem offenen Meer, über das altrömische Kolos- seum in Gladiator (USA 2000, Ridley Scott) oder über die Stadt Minas Tirith und die Heere in The Lord of the Rings. Abgesehen von diesen zusätzlichen Möglichkeiten aber gelten für die Bewegungen der animierten Kamera die gleichen Parameter wie für ihr reales Gegenstück. Bewegungen können als Fahrten die Kamera als Gan- zes betreffen oder aber als Schwenks mit drei Freiheitsgraden – vertikal, horizontal oder als Rotation – aus einer festen Position konzipiert werden. Die übliche Technik basiert auf Keyframe-Animation. Auf der Zeitachse werden Schlüsselpositionen festgelegt und die Zwischenschritte inter- poliert. Zusätzlich zur Ausrichtung der Kamera, die das Abbildungsfeld definiert, wird ein Pfad festgelegt – üblicherweise als Spline-Kurve –, auf dem sich die Kamera ähnlich wie auf einer Schiene bewegt. Neben diesen standardisierten Methoden kann die Kameraanimation auch weniger mechanische Bewegungen wie Handkamera oder Steadicam nachbilden. Wenn computergenerierte Bildteile in Realaufnahmen montiert werden, müssen sämtliche Parameter der realen Kamera auf ihre virtuelle Entspre- chung übertragen werden (→ 239). Generell verfügt eine virtuelle Kamera über eine Brennweite oder, ge- nauer ausgedrückt, über die computergenerierte Emulation einer Brenn- weite, die sich wie ein Zoom verändern lässt. Andere Parameter wie die Prozedurale Animation 131 Auswirkung der Belichtungszeit auf die Bewegungsunschärfe oder die Schärfentiefe werden manuell festgelegt, sind also nicht das ‹natürliche› Produkt von Blende, Brennweite, Objektdistanz und/oder Belichtungs- zeit. Dieses faszinierende Gebiet des Erzeugens eines fotorealistischen Eindrucks inklusive Störungen, die einer computergenerierten Kamera zunächst prinzipiell fehlen, ist ein Thema, das ich im Abschnitt Analoge Artefakte (→ 334) genauer darstellen werde. Prozedurale Animation Wann immer es darum geht, komplexe Materialien oder systemische Ver- bünde von Objekten zu animieren, kommen prozedurale Verfahren der Animation zum Einsatz. Kurz gefasst basiert die prozedurale Animation auf einem Set von Regeln, welche die Gesetzmäßigkeiten von Entwicklun- gen in Raum und Zeit beschreiben. Sie ist somit ein genuin computerba- siertes Verfahren, das mit traditionellen Mitteln nicht möglich war. Die Grundlagen der prozeduralen Animation stammen aus unter- schiedlichen wissenschaftlichen Zusammenhängen: aus der Chaostheorie, wenn es sich um die Berechnung zufälliger Verteilungen von Massen oder Objekten handelt; aus der biologischen und/oder soziologischen Erforschung des Gruppenverhaltens bis hin zu neuropsychologischen Erkenntnissen zur künstlichen Intelligenz mit neuronalen Netzen oder Fuzzy Logic; aus physikalischen Modellen der Strömungslehre und der Mechanik, wenn es sich um die Berechnung von Bewegungsbahnen fester oder flexibler Körper handelt. Es geht dabei immer darum, durch lokale Regeln ein globales Verhalten zu erzeugen. Prozedurale Animationen sind Simulationen im engeren Sinne des Begriffs, also nicht im Sinne Baudrillards (→ Simulation 276), sondern in der Bedeutung regelbasierter Entwicklungssysteme, mit denen sich Na- turphänomene wie Sandstürme, Vogelschwärme oder Meereswellen, aber auch Menschenmassen, Verkehr, Blut- und Bierströme, volumetrische Effekte wie Wolken, Explosionen oder Feuer und nicht zuletzt magische Erscheinungen oder frei imaginierte chaotische Muster animieren lassen. Ausgehend von den prozeduralen Modellierungsalgorithmen (→ 65), können prozedurale Systeme über die artifizielle Evolution zu Formen des künstlichen Lebens (→ Artificial Life 139) führen, welche das Erschei- nungsbild der Objekte durch deren «Lebensbedingungen» und evolutio- näre Selektionsmechanismen bestimmt und die neben Lebenszyklen mit Geburt und Tod, Wachstum und Entwicklung auch die Wahrnehmung, die autonome Fortbewegung, die Verhaltenssteuerung, Lernen und In- 132 Animation telligenz umfassen, also all jene Parameter, die Lebewesen ausmachen (Terzopoulos 1999: 34). Im Kontext der Filmproduktion spielen prozedurale Animationen seit Beginn der 1990er-Jahre eine immer wichtigere Rolle. Denn einerseits fordert die Entwicklung zu fotorealistischen Darstellungsmodi den Ein- bezug komplexer Naturerscheinungen, die sich mit traditionellen Anima- tionsverfahren nicht abbilden lassen, andererseits verlassen computerge- nerierte Bilder mehr und mehr ihre angestammten Reviere – Genres wie den Science-Fiction-Film – und erobern sämtliche narrativen Spielformen bis hin zu monumentalen historischen Stoffen, welche Menschenmassen von epischen Proportionen erfordern. Die Crowd Animation34 ist denn im Moment auch jener Bereich, in dem die ausgeklügeltsten prozeduralen Systeme entwickelt werden. Noch wichtiger als der fiktionale Film sind je- doch Computerspiele und andere interaktive multimediale Technologien als deren Anwendungsfeld. Denn erstens erfordern Echtzeitanwendungen flexible und sinnvolle Reaktionen der Figuren, und zweitens ist geplant, dass autonome Agenten langfristig immer größere Teile der Interaktion mit dem Computer beispielsweise im Internet übernehmen sollen, wie Peter Plantec an der fmx 04 in Stuttgart erklärte. Weil prozedurale Verfahren ohne Computer nicht denkbar sind, gibt die Beschäftigung mit ihnen den Blick frei auf grundlegende Arbeitsprin- zipien digitaler Systeme, von der erkenntnistheoretisch hochinteressanten Reduktion komplexer Bedingungen des Lebens in computerverträgliche Algorithmen bis hin zu ästhetischen und narrativen Aspekten.35 Partikel-Animation Angefangen hat die Entwicklung prozeduraler Animation mit der Partikel- Animation zu Beginn der 1980er-Jahre. Wie bereits im Abschnitt Von der klassischen Animation zur frühen Computeranimation (→ 116) dargelegt, stammt eines der ersten Modelle zur Animation von Massen kleinster Teil- chen von William T. Reeves, entwickelt am New York Institute of Techno- logy, und wurde für das Feuer in Star Trek II: The Wrath of Khan (USA 34 Das derzeit elaborierteste System zur Steuerung von Massen wird von der Firma Mas- sive in Neuseeland angeboten. Dabei sind die autonomen Agenten, aus denen sich die Massen zusammensetzen, mit ‹Wahrnehmungsorganen› ausgestattet, deren Informa- tionen sie auf der Basis von Fuzzy Logic verarbeiten. Siehe http://www.massivesoft- ware.com, wo sich auch diverse Clips befinden, welche die Anwendung der Software veranschaulichen. 35 1997 haben sowohl Greg Hermanovic, Kim Davidson, Mark Elendt und Paul H. Breslin von der Firma Side Effects als auch Richard Chuang, Glenn Entis und Carl Rosendahl von der Firma PDI einen Sci-Tech Award für ihre jeweiligen prozeduralen Animations- systeme erhalten. Prozedurale Animation 133 21–24 The Lawnmower Man: Partikel-Animation mit Blobbies (oben links); Par- tikel-Animation mit Wespen (oben rechts); Feuer als Partikel-Animation (unten links); partikel-animierte absurde Todesarten (unten rechts) 1982, Nicholas Meyer) angewandt. Reeves hat für diese Pionierleistung 1996 einen Sci-Tech Award erhalten. Partikelsysteme kontrollieren das zeitliche Verhalten von – wie Reeves es nannte – Fuzzy Objects, also Objekten ohne scharf begrenzte Oberflä- chen wie Wolken, Feuer oder Wasser. Jedes beteiligte Teilchen wird ‹gebo- ren›, entwickelt sich im Raum und ‹stirbt› wieder. Die Partikel sind sowohl Funktionen unterworfen, die ihr individuelles zeitlich-räumliches Verhal- ten kontrollieren, als auch globalen Parametern, welche die ganze Gruppe betreffen. Sie entwickeln sich aus einer Reihe von Ausgangseigenschaften wie der Position im 3D-Raum, der Ursprungsgeschwindigkeit und -be- schleunigung, der Größe, Farbe, Transparenz, Form und Lebensspanne (Watt 1989: 256). Als Gruppe folgen sie einer stochastisch kontrollierten oder pseudozufälligen Verteilung innerhalb vorgegebener Grenzen. Im Korpus finden sich die frühesten Anwendungen finden sich in The Lawnmower Man (USA 1992, Brett Leonard), teilweise zur Ab- bildung von Naturphänomenen wie einem Feuer oder einem Wespen- schwarm, sowie in der im Film visua li sierten Virtual Reality, in welche die Protagonisten eintauchen, und zur Darstellung absurder Todesarten 134 Animation 25 Pixie-Dust in Moulin Rouge! 26 Die magischen Kräfte in The Green Mile 27–28 The Mummy: Partikel-Animation in der Vorbereitung (links) und als S andsturm (rechts) (Abb. 21–24). Einmal mehr ist es faszinierend, zu sehen, wie sich in einer frühen Anwendung bereits viele der genuin in der Technik enthaltenen Möglichkeiten entfalten. Gleichzeitig lässt die ästhetische Qualität aus heutiger Sicht sehr zu wünschen übrig. Magische oder übernatürliche Erscheinungen werden häufig mit Par- tikel-Systemen animiert, zu nennen wären die magischen Lichter im Pixie- Dust-Stil – wie von den Disney-Animatoren für Fantasia (USA 1940) etabliert –, für die Green Fairy in Moulin Rouge! (Abb. 25), die Heilkräfte von John Coffey in The Green Mile (USA 1999, Frank Darabont; Abb. 26) oder die Heuschreckenplage sowie die Sandstürme mit Personencharakter in The Mummy (USA 1999, Stephen Sommers; Abb. 27–28) und schließlich das Licht der magischen Steine in Luc Bessons The Fifth Element. Neben den erwähnten magischen Erscheinungen sind groteske Todes- arten ein wiederkehrendes Anwendungsfeld von Partikel-Animationen, be sonders jene Darstellungen, in denen Körper sich in allen möglichen Vari- ationen auflösen – so beispielsweise in Interview With the Vampire (USA 1994, Neil Jordan), wo die Körper selbst als Tonrepliken physisch zu Staub zerfallen, während der durch den Zerfallsprozess aufgewirbelte Staub CGI ist, oder die Borg-Queen in Star Trek: First Contact (USA 1996, Jonathan Frakes), die von einem giftigen Gas zerfressen wird, oder die Figuren in der alternativen Realität von The Matrix (Abb. 29), Avalon oder Blade Prozedurale Animation 135 29 The Matrix: Agent Smith löst sich in Partikel auf 30 Die Pulverisierung der Körper in Blade (Abb. 30) mit klaren Reminiszenzen an die Todesdarstellungen in Compu- terspielen. Schon Karl Sims hatte 1988 in Particle Dreams einen menschli- chen Kopf in frei umherschwebende Teilchen aufgelöst, die sich nach einem kunstvollen Flug durch den Raum wieder neu zusammensetzen. Ursprünglich eigneten sich solche Partikel-Animationen speziell, wenn auch nicht ausschließlich, für Effekte mit geringem Realitätseffekt, denn wegen ihrer einfachen Beschaffenheit entwickelten sie eine spezifi- sche Ästhetik, die sich in dieser Weise in der Natur nicht findet, nämlich eine pseudozufällige Verteilung mit deutlich wahrnehmbaren Mustern. In diesen Beispielen verfügen sie über keine räumliche Tiefe, sondern seh en immer gleich aus. Inzwischen haben sich diese Systeme deutlich verbes- sert. Es ist eine Reihe von zusätzlichen Möglichkeiten entstanden, den einzelnen Partikeln ein komplexeres Verhalten und komplexere Eigen- schaften zuzuweisen. So sieht der Schnee in The Polar Express, der auf diese Weise entstanden ist (Abb. 31), ziemlich natürlich aus. Ein fundamentales Problem aller prozeduralen Animation ist der Mangel an Eingriffsmöglichkeiten zur individuellen Steuerung einzelner 136 Animation 31 Schneepartikel in The Polar Express Partikel. Sind die Regeln einmal definiert, ist es sehr schwierig, die Simula- tion punktuell so zu verändern, dass dieser Verlauf der ästhetischen Inten- tion entspricht. Eine Möglichkeit, unerwünschte Effekte zu unterdrücken, besteht darin, die prozedurale Animation in Module zu gliedern, deren Ablauf aufgezeichnet wird und sich daher beliebig wieder abrufen lässt (Bredow et al. 2005: 82). Nur selten noch darf sich die Partikel-Animation in jener ursprünglichen künstlichen Qualität zeigen, die einst den Reali- tätseffekt natürlicher Phänomene bedrohte, für welche Reeves sie eigent- lich entwickelt hatte. Ein Beispiel für diesen abstrakten Einsatz findet sich in den völlig überdrehten Sequenzen von Hulk, in welchen der Titelheld und sein mutierter Vater durch Universen aus Fels, Wasser und Eis eilen. Flocking-Systeme Vogel- oder Fischschwärme, Tierherden oder Menschenmassen sind auto- poietische, also selbstorganisierende Systeme. Anders als in Partikel- Animationen beruhen ihre Organisationsregeln jedoch weniger auf sto- chastischen Prinzipien als vielmehr auf Annahmen über das Verhalten der einzelnen Mitglieder eines Schwarms (flock). Prozedurale Animation 137 Obwohl – wie Carlson (2005, Section 19) schreibt – Susan Am- kraut bereits 1985 an der Ohio State University ein Flocking-System36 entwickelt und für ihren Film Eu- rhythmy (Abb. 32) verwendet hatte, gilt allgemein Craig Reynolds37 von der Firma Symbolics Inc. als Pionier des Flocking-Systems, das er 1987 mit Stanley and Stella in: Brea- ki ng the Ice an der SIGGRAPH vor- 32 Flocking in Eurhythmy stellte. Dieser Film, an dem 50 Leute von Symbolics Inc. und Whitney/Demos Productions gearbeitet hatten, wurde gemäß Masson (1999: 315) von der Fachwelt begeistert aufgenommen. Reynolds nannte die Mitglieder des Schwarms Boids für Bird Objects. Sein System beruht im Kern auf drei Regeln: 1. Kollisionsvermeidung Jedes Boid versucht Kollisionen mit anderen Boids und der Umwelt zu vermeiden. Das gewährleistet einen gewissen Mindestabstand zu anderen Schwarmmitgliedern und Szenenobjekten. Die Boids benutzen ein virtu- elles Kraftfeld, um von Oberflächen wegzusteuern, den Weg durch eine Öffnung zu suchen oder an Oberflächen entlang zu fliegen. Jedes Boid verfügt über Informationen zur gesamten Szenengeometrie und über vir- tuelle Fühler, um mögliche Oberflächen zu entdecken. 2. Geschwindigkeitsannäherung: Jedes Boid hat nur eine kleine Zahl von ‹wahrnehmbaren› Nachbarn, die zur Ermittlung der Durchschnittsgeschwindigkeit dienen. Es passt seine Geschwindigkeit und Richtung diesen Nachbarn an. Die Soll-Geschwin- digkeit wird benutzt, um die Ist-Geschwindigkeit allmählich anzuglei- chen. Abrupte Änderungen werden damit vermieden. 3. Schwarmzentrierung Ein Boid versucht, sich stets in der Nähe von anderen Boids aufzuhalten. In der Gruppe ist keine Hierarchie definiert: Es gibt keinen Führer. Au- 36 Amkrauts System beruhte lediglich auf Kräftefeldern, die bestimmten, wie nah zuei- nander und zu Hindernissen sich die Objekte im Schwarm bewegen sollten. 37 Reynolds, Craig W. (1987): Flocks, Herds, and Schools: A Distributed Behavioral Model. In: Computer Graphics, SIGGRAPH 1987 Conference Proceedings, Bd. 21, Nr. 4, S. 25–34. Ein Link und ein Überblick über die historische Entwicklung der Flocking- Systeme befinden sich auf http://www.red3d.com/cwr. 138 Animation 33–35 Avalon: Die Pfade der Boids (oben links); ein einzelnes Boid (oben rechts); die Boids in das Bild integriert (links) ßerdem ist keine Information über einen globalen Schwarm-Mittelpunkt notwendig. Jedes Boid will beim Schwarm bleiben, mittlere Boids bleiben bei ihrer Richtung, äußere drängen nach innen. Ein Navigationsmodul kombiniert die drei Low-Level-Steuerprin- zipien Kollisionsvermeidung > Geschwindigkeitsannäherung > Schwarmzen- trierung: Je nach den Gewichtungsfaktoren im Navigationsmodul können unterschiedliche Verhaltensweisen modelliert werden. Ermöglicht das Flocking-System von Reynolds den Gruppenmitgliedern eine nahezu vollständige Freiheit im Rahmen des Regelwerkes, erfor- dert die Anwendung von Flocking-Systemen für Spielfilme genauere Verhaltensanweisungen, um den Schwarm gemäß den Intentionen zu choreografieren. Es werden deshalb in der Regel Pfade, Streuungen und Attrak toren definiert, welche die globale Bewegung und die Ausdehnung des Schwarms kontrollieren (Abb. 33–35). Im Gegensatz zu Reynolds’ A pproach können Herden auch einem oder mehreren Führern folgen. Alle diese Anpassungen des Flocking-Systems flossen in die Anima- tion der Stampede in The Lion King (USA 1994, Roger Allers; Rob Min- koff) ein. «Five specially trained animators and technicians […] spent over two years creating the impressive 2.5 minute sequence»38 (Carlson 2005, 38 «Fünf Animations- und Technikspezialisten […] haben mehr als zwei Jahre gebraucht, um die eindrucksvolle 2,5-minütige Sequenz zu erschaffen.» Prozedurale Animation 139 Section 19). Den einzelnen Tieren konnten die Animatoren ein indi- viduelles Verhalten zuweisen und so eine zufällig wirkende Variation der Gruppe erzeugen. Auf ähnliche Weise entstanden die Skarabäen- ströme in The Mummy (Abb. 36). 36 Die Skarabäen in der Testphase zu The Mummy Bereits 1992 wurden in Bat- man Returns Fledermäuse und eine Gruppe von Pinguinen mit einem Flocking-System animiert. Seither sind insbesondere Vogelschwärme ein beliebtes Anwendungsfeld von Flocking-Animationen, die immer dann eingesetzt werden, wenn ein statisches Matte Painting belebt werden soll – so im Maisfeld in Forrest Gump (USA 1994, Robert Zemeckis) oder in der Arena in Marokko sowie in der römischen Stadt von Gladiator (USA 2000, Ridley Scott). Einfache Animationen von Menschenmassen basieren ebenfalls teil- weise auf den Verhaltensregeln von Flocking-Systemen, so in der Traum- stadt in What Dreams May Come (USA 1998, Vincent Ward) oder wiede- rum in Gladiator. Daraus sind komplexere Systeme hervorgegangen wie die Crowd Animation. Weitere Informationen z Wayne E. Carlsons Website, Section 19, The Quest for Visual Realism and Synthetic Image Complexity enthält viele Informationen und Clips mit historisch bedeutsamen Beispielen von Flocking-Systemen, aber auch von anderen prozeduralen Verfahren: http://accad.osu.edu/~waynec/ history/lesson19.html. Artificial Life Ihre Wurzeln haben Programme zur Erzeugung von künstlichem Leben in den Parametern, die Karl Sims in seinem System zur evolutionären Ent- wicklung virtueller Kreaturen bereits beschrieben hatte (siehe Prozedurales Modellieren → 65). Tatsächlich ist es kaum möglich, zwischen diesem Sys- tem und einem ALife-Programm eine überzeugende Trennlinie zu schaf- fen, denn bereits in Sims’ Text (1994) bildeten Verhaltensregeln die Grund- lage zur Modellierung dieser Kreaturen. Viel eher schließen ALife-Sys- teme an Sims’ Entwicklung an, legen aber den Schwerpunkt stärker auf die Autonomie und auf höhere kognitive Funktionen zur Verhaltenssteue- rung computergenerierter ‹Lebewesen›. Schon Sims’ Kreaturen verfügten über ein basales kognitives System – ein Gehirn, wenn man so will – sowie 140 Animation über Wahrnehmungsorgane, die es ihnen erlaubten, auf Reize in der Um- welt zu reagieren, beispielsweise einem roten Licht zu folgen.39 ALife geht darüber hinaus und integriert Ansätze aus der Informatik – dort speziell der Robotik und der Computer Vision – mit biologischen Modellen, um sogenannte autonome Agenten zu erzeugen. Weltweit wurde und wird in vielen akademischen Institutionen an der Kreation von Programmen gearbeitet, deren Ziel es ist, intelligente interaktive Systeme zu erschaffen. Am Horizont dieser Entwicklungen steht jene Form künstlichen Le- bens, die von der Natur nicht mehr zu unterscheiden ist oder die Natur sogar komplett beherrscht. Sie liefert den Stoff zahlreicher literarischer oder filmischer Darstellungen, albtraumhafte Dystopien wahrhaft apoka- lyptischer Dimension. Das ALife, von dem hier die Rede sein soll, ist noch sehr harmlos, si- cher verschlossen hinter der Oberfläche des Computermonitors. Eine sei- ner Leitfiguren ist Demetri Terzopoulos von der University of Toronto. In den frühen 1990er-Jahren leitete er ein Forschungsprojekt zur Erzeugung künstlicher Fische.40 Es waren komplette kybernetische Organismen mit kognitiver Kontrolle der Bewegung und Wahrnehmung in Abstimmung mit den biomechanischen Gesetzen der Fortbewegung in einer Wasser- welt, die ihrerseits den physikalischen Grundlagen der Strömungslehre entsprachen. Sie konnten dank ihres Bewusstseins, dessen Parameter wie Hunger, Angst und Libido durch die Wahrnehmungsinhalte modifiziert wurden, selbstständig ein Set von arttypischen Verhaltensweisen entwi- ckeln und waren sogar fähig zu lernen, zum Beispiel Kunststücke im Stil der Delfinschauen. Das jeweils momentane Verhalten resultierte aus einer Verrechnung von angeborenen Reaktionsmustern, dem Bewusstseins- zustand und den wahrgenommenen Reizen aus der Umwelt. Die Tiere wurden fotorealistisch modelliert und mit einem Muskelsystem versehen, entwickelten ihre Form und ihr Skelett also nicht selbst wie in Sims’ evolu- tionärem Programm. Qinxin Yu installierte 1998 an der SMART in Toronto ein riesiges virtuelles Aquarium, das mit einer Auflösung von 4000*1000 Pixeln Bilder in High-Definition-Qualität mit einer Frequenz von 30 B/s in Echtzeit erzeugte (Terzopoulos 1999: 42). Von direkter Konsequenz für die Filmproduktion sind solche Pro- gramme bisher nur am Rande, nämlich für die Animation von digitalen Stunts und – wie die Flocking-Systeme – von Menschenmassen. Haupt- anwendungsgebiet sind interaktive Echtzeit-Interfaces, vor allem Com- 39 Siehe Clips auf http://www.genarts.com/karl/. 40 Terzopoulos, Demetri; Tu, X.; Grzeszczuk, R. (1994): Artificial Fishes. Autonomous Locomotion, Perception, Behavior, and Learning in a Simulated Physical World. In: Artificial Life. Bd. 1, Nr. 4, Dezember 1994, S. 327–351. Prozedurale Animation 141 puterspiele. Terzopoulos (1999: 39) nennt Creatures (1996),41 das ein kom- merzieller Erfolg war, und Swamped, ein Spiel, das er selbst entwickelt hat. Am bekanntesten dürfte jedoch das Computerspiel Die Sims (2000) sein, ein Spiel mit hohem Suchtpotenzial, in dem es darum geht, menschliche Wesen mit Attributen auszustatten und eine passende Umwelt für sie zu bereiten, damit sie sich wohl fühlen und möglichst erfolgreich sind. Physikalisch-basierte Animationen Mehr im Sinne einer Ergänzung denn als genaue Analyse ist die folgende, sehr geraffte Darstellung der sogenannten physikalisch-basierten Anima- tion (motion dynamics) zu verstehen. Im Unterschied zu den beschriebenen Formen prozeduraler Animation sind dies Simulationen des Verhaltens von Objekten anhand ihrer physikalischen Eigenschaften wie Masse, Viskosität oder/und Elastizität. Berechnet werden die Bewegungspfade und Körper- transformationen auf der Basis der bekannten Gesetzmäßigkeiten der Kine- matik und Dynamik, der Strömungslehre oder der Thermodynamik unter Berücksichtigung von externen Parametern wie Kräften, Impulsen, Energie. Diese Spezialfälle der prozeduralen Animation gliedern sich in die Bereiche Dynamik starrer Körper (rigid body dynamics),42 Dynamik flexibler Körper (soft body dynamics)43 und Flüssigkeitsanimation (fluid dynamics).44 Mit Rigid Body Animation lassen sich die Bewegungen in Abhängigkeit von Masse und Gravitation und das Kollisionsverhalten von starren Körpern berechnen wie beispielsweise die Steinstatuen in Tomb Raider (USA 2001, Simon West), die rollenden Kugeln in Minority Report, die Panzer, die Hulk herumschleudert, oder das brechende Eis in The Day After To- morrow. Die Dynamik umfasst außerdem die Deformationen der Körper unter dem Einfluss externer Kräfte durch Kollision oder Gravitation und interner Bedingungen der Flexibilität und Dämpfung. Modellieren und Animation vermischen sich zunehmend in diesem Ansatz. 41 Das Originalspiel ist nicht mehr verfügbar, mehr Informationen dazu auf http:// en.wikipedia.org/wiki/Creatures mit Links zu Weiterentwicklungen. 42 Zur Animation von starren Körpern siehe: Hahn, James (1988): Realistic Animation of Rigid Bodies. In: Computer Graphics, Annual Conference Proceedings, Bd. 22, Nr. 4, S. 299–308. 43 Zur Animation von flexiblen Körpern: Barr, Al (1986): Dynamic Constraints. A New Paradigm for Computer Graphics Modeling. In: ACM SIGGRAPH, 1986, am CalTech entworfen (Carlson 2005, Section 19). Terzopoulos, Demetri; Witkin, Andrew; Kass, Michael (1988): Constraints on Deformable Models. In: Artificial Intelligence, Bd. 36 , Nr. 1, August 1988, S. 91–123, wofür Terzopoulos, Witkin und Kass 2001 den Computer Graphics Achievement Award erhalten haben. 44 Foster, Nick; Metaxas, Dimitri (1995): Visualization of Dynamic Fluid Simulations. In: Engineering Computations, Bd. 12, S. 109–124. Website von Nick Foster http://www.cis. upenn.edu/~fostern. 142 Animation Paradebeispiel für die Dynamik flexibler Körper ist ein weicher Ball, am schwierigsten aber sind sehr flexible Materialien wie Stoffe45 sowie Haare, Federn oder Pelz zu animieren. Obwohl die Grundlagen schon seit Mitte der 1980er-Jahre erforscht werden, finden diese Techniken erst in den 1990er-Jahren Eingang in die filmische Darstellung: zum Beispiel die wabbelnde Haut der Dinosaurier in Jurassic Park, das Haar in der Transformationsszene des Mädchens Claudia in Interview With the Vampire oder der Stoff der Krawatte in The Mask. In größerem Umfang sind digital animierte Stoffe erst ab der zweiten Hälfte der 1990er-Jahre zu sehen – viel zitiertes Beispiel ist Stuart Little (USA 1999, Rob Minkoff), in dem auch eines der ersten digital erzeugten Pelztiere agiert. Stoffe sind auch essenzieller Bestandteil der digitalen Massen auf der Titanic, deren Bewegungsverhalten jedoch teilweise mit Motion Capture aufgezeichnet wurde. Haar und Pelz stellen bis heute eine große Herausforderung dar, denn jedes Haar ist ein Objekt. Zwar werden sogenannte Hero-Haare de- finiert, die das Verhalten eines ganzen Büschels repräsentieren, aber die Animation ist dennoch extrem datenintensiv. Damit Haar einigermaßen realistisch wirkt, sind sehr viele Parameter zu bestimmen (vgl. Ratner 2003: 171 ff.). Es war darum ein cleverer Zug, Gollum aus The Lord of the Rings mit nur 25 Haarsträhnen auszustatten und mit Maya Cloth Simula- tion zu animieren. Dennoch gehorchten sie der Art Direction nicht immer, verhedderten sich ineinander und versanken auch mal in der Kopfhaut (Creature Lead Eric Saindon in cinefex 92: 89). Fotorealistisch wirkende Haare, die zudem im Wind wehen und der Schwerkraft gehorchen, waren erstmals in größerem Umfang in Final Fantasy zu sehen. Sie wirkten im- mer wie frisch gewaschen und gekämmt: «She never had a bad hair day»,46 wie der Animation Artist auf dem DVD-Bonusmaterial ironisch anmerkt. Mit der Flüssigkeitsanimation lassen sich Materialien wie Wasser, Blut, Bier, Öl oder Lava animieren – mithin Materialien, deren systemi- sche Verknüpfungen der Oberflächentransformationen sich ähnlich wie bei Haaren oder Stoffen mittels Keyframe-Animation nicht wiedergeben lassen, weil man dort alle Veränderungen der Objekte in Raum und Zeit einzeln festlegen muss. Es kommen nochmals andere Faktoren ins Spiel, 45 Der beste Einblick in die Grundprobleme findet sich in Witkin, Andrew; Baraff, David (1998): Large Steps in Cloth Simulation. In: Proceedings of the 25th Annual Con- ference on Computer Graphics and Interactive Techniques (= http://www.ai.stanford. edu/~latombe/cs99k/2000/cloth.pdf). Der Ansatz von Baraff und Witkin modelliert Stoff als ein Netz von Partikeln (Witkin et al. 1998: 44 f.) und wurde später in die Ani- mationssoftware Maya integriert und für Stuart Little und Monsters Inc. (USA 2001, Pete Docter) verwendet. 46 «Sie sah immer frisch geföhnt aus.» Prozedurale Animation 143 besonders die Viskosität der Flüssigkeiten, mit deren Eigenschaften und zeitlichem Verhalten wir bestens vertraut sind. Ob Milch, Öl oder Wasser in ein Glas fließt, können wir sehr gut beurteilen, und wir nehmen kleinste Ungenauigkeiten sofort wahr (vgl. Jackèl et al. 2006: 233). Die komplexen Veränderungen der Oberflächeneigenschaften betreffen jedoch nicht nur das räumlich-zeitliche Verhalten der Flüssigkeiten, sondern auch deren Reaktionsweise auf einfallendes Licht. Ursprünglich hatte man auch zur Animation von Flüssigkeiten Par- tikel-Systeme eingesetzt, ein Approach, den Stephan Trojansky, der für die Münchner Firma Scanline ein weltweit beachtetes System namens Flowline entwickelte, für inadäquat hält: «We had to cheat everything with volumetric particles and stuff like that, but a few projects later I got so sick of seeing particles. They simply don’t work like the real world»47 (Trojansky in Plantec 2005: 3). Für die Darstellung des Meeres in Perfect Storm (USA 2000, Wolfgang Petersen) griff John Anderson als ehemali- ger Professor der University of Wisconsin-Madison auf Erfahrungen mit wissenschaftlichen Wassersimulationen zurück, die er seit 1980 gemacht hatte und die zwar den wissenschaftlichen Ansprüchen nicht genügten, jedoch visuell interessante Resultate lieferten (Anderson in AmC 7/2000: 105). Denn im Gegensatz zu den früheren Anwendungen von CG-Wasser der lange Zeit führenden Software-Firma Areté48 in Titanic und The Fifth Element, wo das Wasser mehr oder weniger als ruhige spiegelnde Ober- fläche umgesetzt war, mussten in Perfect Storm heftige Wellen inklusive Schaumkronen her, was jedoch nicht wirklich überzeugend gelang. Des- wegen hat Stefen Fangmeier, der damals als Visual Effects Supervisor tätig war, für Master And Commander weitgehend auf reale Wasseraufnah- men zurückgegriffen, die er mittels Compositing im Bild anordnete, um möglichst auf CG-Wasser verzichten zu können. Schon in Titanic war ei- nes der größten Probleme der Wassersimulation die Interaktion mit festen Objekten, die von Areté damals noch nicht in die Software integriert war (cinefex 72: 45). Noch kritischer wurde dieser Aspekt in The Day After Tomorrow, in dem eine gigantische Flutwelle mit den Gebäuden, den Au- tos, den Menschen zu interagieren hatte – eine Aufgabe, die monatelange Entwicklungsarbeit erforderte. Denn wie bei allen prozeduralen Verfahren sind die Friktionen zwischen den Automatismen der Simulation und den Zielen der filmischen Darstellung ein notorisches Problem, das meist nur mit Tricks zu meistern ist. 47 «Wir mussten alles mit volumetrischen Partikeln und ähnlichen Verfahren türken. Aber bereits ein paar Projekte später konnte ich keine Partikel mehr sehen. Sie wirken einfach nicht realistisch.» 48 Siehe Beispiele inklusive Filmclips auf http://www.3-dfx.com/Arete.htm. 144 Animation 37 Choreografierte Explosion in Fight Club Um die Friktionen zu überwinden, hat der Animator Richard ‹Doc› Baily für die Explosionen im fulminanten Finale von Fight Club (USA 1999, David Fincher; Abb. 37) die Prinzipien der prozeduralen Animation nur als Basis einer komplexen Choreografie eingesetzt. Ausgehend von einem Set von Parametern für Schwerkraft, Wind, Kollision und explosive Kraft, das ihm die Software zur Verfügung stellte, verwendete er das Partikelsystem lediglich dazu, die einzelnen Trümmer und Splitter der Explosion zu adres- sieren. «When utilizing CG simulation, starting with physics is usually a smart choice. But then the cook adds a little art direction to the recipe»49 (Animation Supervisor ‹Doc› Baily in cinefex 80: 130). Dieses Spannungsfeld zwischen künstlerischer Intention und regelba- sierten Mechanismen prägt das ganze Feld prozeduraler Systeme. Immer geht es darum, den größten Nutzen aus der Komplexität zu ziehen, die das System anbietet, es aber so umzuformen, dass es sich den ästhetischen und narrativen Zielen anpasst. Gleichzeitig besteht die Kunst des kontrollierenden Eingriffs darin, entweder überhaupt keine sichtbare Ordnung entstehen zu lassen oder aber die Ordnung so zu dimensionieren, dass sie wie zufällig erscheint. Weitere Hinweise z Viele kleine physikalisch-basierte Animationen finden sich auf der Website von Ron Fedkiw von der Stanford University, der 2005 den ACM SIGGRAPH Significant New Researcher Award für seine Innova- tionen auf dem Gebiet der Flüssigkeitenanimation erhalten hat: http:// graphics. stanford.edu/~fedkiw. z Jackèl et al. (2006) widmen diesen Verfahren mehrere Kapitel, setzen jedoch Grundkenntnisse der Computeranimation voraus. 49 «Bei CG-Simulationen ist man meistens gut beraten, zunächst von physikalischen Gesetzmäßigkeiten auszugehen. Aber anschließend darf der Koch dem Rezept ruhig seinen eigenen Stempel aufdrücken.» Motion Capture 145 Motion Capture 38–39 Von Etienne-Jules Marey schwarz eingekleideter Darsteller, mit weißen Strei- fen markiert (links); Bewegungsaufnahme der weißen Markierungen (rechts) Menschliche Bewegungsmuster auf animierte Figuren zu übertragen, ist ein uralter Traum, der sich bis ins erste Jahrzehnt des 20. Jahrhunderts zu- rückverfolgen lässt, als Max Fleischer das Rotoskop patentierte. Fleischers Methode findet bis heute Anwendung, so zum Beispiel für die Animation der unsichtbaren Figur in Hollow Man oder für die Gesichtsanimation von Gollum in The Lord of the Rings. Seinen Anwendungsschwerpunkt hat das Rotoskopieren aber verlagert. Es wird heute hauptsächlich einge- setzt, um Wandermasken herzustellen (→ 215). Überraschenderweise finden sich im Werk von Etienne-Jules Marey (1830–1904) viele Versuchsanordnungen, in denen der leidenschaftliche Forscher, Tüftler und Erfinder grundlegende Prinzipien der Extraktion von Bewegungsdaten mittels mechanischer oder fotografischer Auf- zeichnungsverfahren entwickelt hat. Diese Methoden hat Marta Braun in ihrer wunderbaren Monografie Picturing Time (1992) beschrieben und mit historischen Aufnahmen illustriert (Abb. 38–39). Mareys Ziel war es, mit technischen Mitteln hinter die sichtbaren Phänomene von Bewegung zu blicken, um zu essenziellen Einsichten über ihre Funktionsweise zu ge- langen. Dazu versah er die schwarze Kleidung seiner Modelle mit weißen Punkten oder Strichen, was deutlich an die heutigen Motion-Capture- Verfahren gemahnt. Seit den frühen 1960er-Jahren nun gibt es Versuche, die Bewegungs- daten einer menschlichen Figur so aufzuzeichnen, dass sie sich in eine computerkompatible Form wandeln lassen, um damit eine computerge- nerierte Figur zu steuern. 1961 verfasste Lee Harrison III ein Paper mit 146 Animation 40 Performerin und korrespondierende ani- mierte Figur in Animac von Lee Harrison III dem Titel Notes for an Early Animation Device50 – ein wahrhaft verblüffen- der Text, in dem sehr viele Aspekte der zukünftigen Motion-Capture- Technologie bereits angedeutet sind, auch wenn sich das Verfahren in mancher Hinsicht fundamental von den heute gebräuchlichen Syste- men unterscheidet. Harrisons Idee bestand darin, einen Schauspieler in einen Anzug zu stecken, der an den Gelenken mit Potentiometern ausgestattet war. Potentiometer sind regelbare Widerstände zur Span- nungsteilung, wie sie auch bei Lautstärkereglern zum Einsatz kommen. Diesen Potentiometern wurden Wechselströme bestimmter Frequenzen zugeführt. Die Wechselströme hatten zwei Funktionen: einerseits die Synchronisation mit der Bildaufzeichnung im Sinne einer Abtastrate zu gewährleisten, andererseits über eine Phasendrehung Informationen darüber zu erhalten, ob eine Positionsveränderung stattgefunden hatte oder nicht. Durch Verrechnung der verschiedenen Winkeländerungen an den Gelenken in einer Matrix entstanden Informationen über die Po- sitionen des Skeletts im Raum. Daraus ließ sich eine zweidimensionale Projektion dieser Daten erzeugen, die man auf die Kathodenstrahlröhre des Monitors übertragen konnte, um eine computergenerierte Figur zu animieren (Abb. 40). Das ganze System funktionierte analog nur über die Spannungssteu- erung; es fand in keinem Moment eine Wandlung in digitale Werte statt. Wie Carlson (2005, Section 11) schreibt, konnte das Animac genannte Sys- tem Harrisons sogar Haut, Falten, Augen- und Lippenbewegungen auf- zeichnen und damit sogenannte Cathode Ray Marionettes erzeugen – eine Behauptung, die ich anhand der mir zur Verfügung stehenden Informati- onen nicht überprüfen kann. 50 Ein Faksimile dieses handgeschriebenen Texts ist auf http://www.aec.at/de/archives/ festival_archive/festival_catalogs/festival_artikel.asp?iProjectID=9526 abrufbar. Motion Capture 147 41 Verteilung der Marker auf dem Motion- Capture-Anzug 42 Verteilung der Kameras auf der Motion-C apture- Bühne für The Polar Express Von den später entwickelten Motion-Capture-Systemen unterschei- det sich Animac vor allem in zweierlei Hinsicht: Erstens ist es ein funda- mental analoges Verfahren – weder die Figur noch die Bewegungsdaten existieren in digitaler Form –; zweitens werden die Raumkoordinaten nicht von Kameras aufgenommen, sondern am Ort selbst erzeugt. Offenbar dauerte es 20 Jahre, nämlich bis zu Beginn der 1980er, bis die Idee, ein computerbasiertes System zur Aufzeichnung von Bewe- gungen zu entwickeln, wieder aufgegriffen wurde – so 1982 von Tom Calvert et al.51 von der Simon Fraser University, für choreografische Studien und zur klinischen Analyse von Bewegungsanomalien (Stur- man 1994), ebenfalls auf der Basis von Potentiometern. Auch die Bewe- gungen einer frühen digitalen Figur namens Waldo C. Graphic in der Fernsehsendung The Jim Henson Hour (USA 1989), die mit Puppen 51 Calvert, Tom W.; Chapman, J.; Patla, A. (1982): Aspects of the Kinematic Simulation of Human Movement. In: IEEE Computer Graphics and Applications, Bd. 2, Nr. 9, November 1982, S. 41–50. 148 Animation interagierte, wurde durch ein mit Potentiometern versehenes Exoskelett gesteuert. Heute haben sich andere Techniken etabliert, nämlich die Aufnahme von Markern, die man auf einem Anzug an den Gelenken und anderen be- wegungsrelevanten Körperteilen anbringt (Abb. 41). Diese Marker beste- hen bei optischen Verfahren entweder aus einem reflektierenden Material oder leuchten selber, während die heute eher unüblichen magnetischen Verfahren die Bewegungen von magnetischen Markern aufzeichnen.52 Ausgerüstet mit einem solchen Anzug interpretiert ein Schauspieler die Bewegungen der darzustellenden Figur auf einer speziellen Motion- Capture- Bühne unter infrarotem Licht. Eine Reihe von leicht erhöht in 360° angeordneten digitalen Kame- ras – üblicherweise 8 bis 24, manchmal auch wesentlich mehr (Abb. 42) – zeichnet die Bewegungen mit einer Frequenz von 60 Bildern pro Sekunde auf und leitet die Daten an einen Computer. Dort verarbeitet eine Software den einkommenden Datenstrom, indem sie die verschiedenen Bilder mit- einander vergleicht und mittels Triangulation aus den weißen Punkten dreidimensionale Datenwolken berechnet, die sie nun in Analogie zur anatomischen Verteilung auf dem Schauspielerkörper einem digitalen Skelett zuordnet. Wie Sturman (1994) schreibt, wurden die Grundlagen dieses Verfahrens 1983 von Carol M. Ginsberg und Delle Maxwell53 am MIT entwickelt. Nun könnte – wie so oft bei der Beschäftigung mit computergene- rierten Bildern – der Eindruck entstehen, dass dieses Verfahren absolut automatisch abläuft und die Techniker ein paar von den bei Kittler gerne erwähnten Kaffeepausen einlegen können, während der Computer die Arbeit erledigt. Tatsächlich ist der Sachverhalt wesentlich komplizierter, als es auf den ersten Blick scheinen mag, wie Visual Effects Supervisor Jerome Chen in einem fingierten Interview mit Ken Ralston ironisch proto- kolliert: Mr. Ralston at this point is mostly hysterical with very brief moments of lucidity. The patient claims to have vivid recollections of a horrifying experi- ence where a group of clearly nefarious individuals developed a technology to capture the facial and body movements of a number of actors. Afterwards, 52 Zwar ist das magnetische Verfahren nach Tom Tolls von der Motion-Capture-Firma House of Moves komplizierter in der Anwendung, produziert aber verlässlichere Da- ten, da es nicht zu Verdeckungen kommt wie beim optischen System (in Rickitt 2000: 171). 53 Ginsberg, Carol M.; Maxwell, Delle: Graphical Marionette. In: Proceedings of the ACM SIGGRAPH/SIGART Workshop on Motion, ACM Press, New York, April 1983, S. 172– 179. Motion Capture 149 these individuals, using machines with improbable capabilities, somehow reapplied this captured information to virtual beings that moved like the original performers but did not resemble them in shape or form.54 (Chen in Bredow et al. 2005: 89) Es gibt nämlich einige Probleme, welche den Eingriff des Menschen erfor- dern. Eines dieser Probleme resultiert daraus, dass die Marker durch den Körper selbst oder durch andere Marker verdeckt werden, wodurch die Pfade bis zur Unkenntlichkeit verstümmelt und deswegen von Hand res- tauriert werden müssen. Ein zweites Problem ist die ungeheure Datenflut. So entstehen bei 30 Markern – was heute als eher wenig gilt – und der üb- lichen Bildfrequenz von 60 B/s bis zu rund 900 Messpunkte pro Sekunde und Kamera, die je nach Auflösung der Kamera relativ ungenau sind und deswegen ein Rauschen mit sich bringen, das man ausfiltern muss. Ein zweiter Filterungsprozess wird notwendig, weil die Bildfrequenz das 2,5-Fache der Aufzeichnungsfrequenz einer Filmkamera beträgt. Die Aufzeichnungsrate von 60 B/s ist notwendig, um zuverlässigere Daten zu gewinnen, bringt es aber mit sich, dass die einzelnen Positionen durch die Filterung gemittelt werden. Wenn diese Filterungsprozesse nicht mit Fingerspitzengefühl ange- wandt werden, geht eine der Hauptqualitäten von Motion Capture verlo- ren, nämlich die lebendige Nachbildung von kleinsten charakteristischen Bewegungsdetails, welche eine individuelle Persönlichkeit ausmachen und mit Keyframe-Animation nur schwer zu erzeugen sind. Eine weitere Gefahr für die authentische Wiedergabe der ursprünglichen Bewegungs- details entsteht durch das räumliche Off-set, also die Differenz zwischen den Markern, die sich auf dem Anzug befinden, und der exakten Position des Gelenks. «When I look at video reference of a performer doing some- thing […] there is an extra bounciness or softness to the movement in the motion capture that isn’t evident in the video reference»55 (Rob Coleman in cinefex 100: 73). Ein weiteres Problem besteht darin, dass zunächst nur Skelette ani- miert werden, denn die Übertragung auf 3D-Körper ist – wie Kurth (2005: 54 «Mr. Ralston befindet sich zu diesem Zeitpunkt in einem mehrheitlich hysterischen Geisteszustand, der nur von kurzen luziden Momenten durchbrochen wird. Der Patient gibt an, er erinnere sich lebhaft an eine schreckliche Episode: Eine Gruppe ruchloser Individuen habe eine Technik entwickelt, mit der sie Gestik und Mimik von Schauspielern aufzeichnen konnten. Sie hätten mithilfe ihrer unerhörten Apparate versucht, die aufgezeichneten Daten irgendwie auf virtuelle Figuren zu übertragen, die sich zwar wie die Schauspieler bewegten, ihnen aber überhaupt nicht glichen.» 55 «Wenn ich Videoaufzeichnungen mit Motion Capture vergleiche, sieht es in Motion Capture so aus, als würden sich die Schauspieler mit größerem Schwung oder größerer Geschmeidigkeit bewegen als im Video.» 150 Animation 14) schreibt – «nichttrivial». Außerdem fehlen viele Informationen über se- kundäre Bewegungen, zum Beispiel der Finger oder der Kleider. Deshalb hat der Visual Effects Supervisor Rob Legato die digitalen Figuren, welche die Titanic bevölkerten, gleich in ihren Kleidern aufgenommen, um die Bewegungen der schwingenden Röcke der Damen ebenfalls zu erfassen. «The subtle motion from the costumes just added another layer of com- plexity that we didn’t have to calculate. It was physics for free»56 (Motion Capture Supervisor André Bustanoby in cinefex 72: 40). Neben den technischen Schwierigkeiten stellt die Arbeit auf der Motion-Capture-Bühne höchste Anforderungen an die Schauspieler, die in einem abstrakten Raum agieren müssen. Ähnlich wie in der virtuellen Umgebung der Aufnahme vor Green- oder Bluescreen fehlen ihnen An- haltspunkte über die Umwelt und die Interaktion mit anderen Figuren, die ja während der Aufnahme nicht präsent sind. Für die bis dato um- fangreichste Motion-Capture-Anwendung in The Polar Express (USA 2004, Robert Zemeckis),57 in dem Tom Hanks fünf verschiedene Figuren darstellt – den Jungen, den Vater, den Zugschaffner, einen mysteriösen Mann namens Hobo sowie den Nikolaus –, mussten deshalb aufwendige Lösungen gefunden werden, welche diese Interaktion ansatzweise andeu- teten. So hat man die Ausstattung in einem Gitterfeld am Boden durch Sperrholzplatten markiert und Gegenstände aus Gerüstelementen sowie Requisiten aus Drahtgittern nachgebaut, um die Verdeckungen möglichst gering zu halten (Motion Capture Supervisor Demian Gordon und VFX Supervisor Ken Ralston in cinefex 100: 118). Ähnlich komplex sind die Anforderungen an das Timing, das von einer Dialogaufnahme als Mas- ter gesteuert wird. Zunächst hat Hanks in einer Totalen auf einer großen Bühne gespielt; anschließend hat man in kleinen Stücken Details und Großaufnahmen aufgezeichnet (Ralston in cinefex 100: 123). Die spezifi- schen Probleme der Gesichtsaufnahme klammere ich an dieser Stelle aus, denn ich werde mich mit diesem Thema im Abschnitt zur emotionalen Partizipation mit digitalen Figuren beschäftigen (→ 432). Ähnlich war die Strategie für Final Fantasy (USA/JP 2001, Hiro- nobu Sakaguchi et al.), wo man jedoch darauf achtete, die Requisiten mit dem entsprechenden Gewicht auszustatten (DVD-Extra). Beide Filme – zu 100 % computergeneriert – haben unübersehbare Schwächen auch in der Bewegungsdarstellung, vor allem eine zeitweise wie verlangsamt wir- kende Einebnung von abrupten Richtungswechseln; sie ist möglicherweise 56 «Die subtilen Bewegungen der Kostüme verliehen den Aufnahmen eine höhere Kom- plexität, die wir nicht zu berechnen brauchten. Es war sozusagen kostenlose Physik.» 57 Siehe Bredow, Rob; Hastings, Albert; Schaub, David; Kramer, Daniel; Engle, Rob (2005): From Mocap to Movie. The Polar Express. Kurs Nr. 28, SIGGRAPH 2005, Los Angeles. Motion Capture 151 auf die oben beschriebenen Filterungsprozesse zurückzuführen, wie mir ein Ingenieur der Firma Motion Analysis an der SIGGRAPH 2005 erklärte. Es wäre jedoch falsch, diese Schwächen allein der Technik anzulas- ten, auch wenn die Gründe durchaus in der Technik wurzeln. Denn die bis heute überzeugendste Bewegungsdarstellung einer digitalen Figur, näm- lich Gollum in The Lord of the Rings, ist ebenfalls auf der Basis von Mo- tion Capture entstanden. In sehr wenigen Momenten besonders intensiver Interaktion hat man Motion Capture direkt auf dem Set vorgenommen (cinefex 96: 129 f.) – ein Verfahren, das in Zukunft vielleicht häufiger zur Anwendung kommen wird, so inzwischen bei Pirates of the Caribbean: Dead Man’s Chest (USA 2006, Gore Verbinski), wo optisch mit mehre- ren Kameras gearbeitet wurde. Das erklärt jedoch nicht, warum Gollums Bewegungsmuster authentischer wirken. Neben dem gekonnten techni- schen Handling dürfte die Interpretation des Schauspielers Andrew Serkis die wichtigste Rolle gespielt haben, denn Serkis hat die entsprechenden Szenen immer auch am Set gespielt, die Bewegungsabläufe also real im Austausch mit Umwelt und Figuren erfahren. So war er offenbar in der Lage, diese Erfahrung auf der Motion-Capture-Bühne wieder abzurufen. Ein grundsätzliches Problem von Motion Capture entsteht durch Skalierung, wenn wie in The Polar Express Erwachsene Kinder darstel- len. Zemeckis hatte sich dafür entschieden, weil er von den erwachsenen Schauspielern ein größeres Ausdruckspotenzial und mehr Kooperation erwartete. Das bedeutete aber, dass man die Sets ebenfalls um 120 % ska- lieren musste, um die Bewegungen an den Raum anzupassen. Trotzdem blieb das Problem der Übersetzung bestehen: «Adults don’t move like kids. When Tom Hanks came running out of the house, as the boy running up to the train, he still looked as if he was six-feet-one-inch tall»58 (Anima- tion Director David Schaub in cinefex 100: 114). Also beschleunigte man die Daten und fügte mit Keyframe-Animation kindlichere Bewegungsver- läufe hinzu. Dieselben Probleme tauchten auf, als ILM für The Day After Tomorrow (USA 2004, Roland Emmerich) wegen der Kooperations- bereitschaft der dressierten Tiere deutsche Schäferhunde via Motion Cap- ture aufnahm, um ein Rudel Wölfe zu animieren. Auch hier musste der Animation Supervisor Danny Gordon Taylor den zeitlichen Verlauf der Daten bearbeiten, um die Hund/Wolf-Übersetzung natürlich erscheinen zu lassen (cinefex 98: 89 f.). Aus ähnlichen Gründen ist es schwierig, eine bestimmte Masse zu erzeugen, wenn das Gewicht des darstellenden Schauspielers nicht mit 58 «Erwachsene bewegen sich nicht wie Kinder. Wenn Tom Hanks den Jungen spielt, der zum Zug rennt, sieht man seinen Bewegungen immer noch an, dass er 1,85 m groß ist.» 152 Animation dem Gewicht der Figur übereinstimmt, wie beispielsweise in Hulk (USA 2003, Ang Lee), dessen Protagonist streckenweise von Ang Lee selbst dar- gestellt wurde. Dieses Problem war schon zu Zeiten des Rotoskopierens bekannt: «If you are animating a dancing elephant while trying to match the movements of a recorded skinny actor, the performance will ring false like a crackled bell»59 (Ratner 2003: 257). Schon Andy Serkis war wesentlich schwerer und muskulöser als Gollum, sodass die Animatoren das Erschei- nungsbild mittels eines Offset-Programms und von Hand anpassen muss- ten (Motion Capture Supervisor Remington Scott in cinefex 92: 92 und Ani- mation Supervisor Randy Cook in cinefex 100: 73). Noch stärker dürfte das Missverhältnis bei der Darstellung von King Kong (NZ 2005, Peter Jack- son) ins Gewicht gefallen sein, den ebenfalls Andrew Serkis verkörperte. Grundsätzlich wird die Diskussion ‹Motion Capture versus Keyframe- Animation› kontrovers geführt. Besonders Animatoren der alten Schule drücken ihre Skepsis gegen das Ausdruckspotenzial von Motion Capture aus: «Often it is too realistic, however – even for a virtual look-alike human or animal, and can be boring»60 (Kuperberg 2002: 212). Ähnlich Stalf (2004: 218): «Letztlich erhält man auf diese Weise bestenfalls gute Doubles oder schlechtestenfalls Parodien.» Ratner (2003: 297) schreibt den Misserfolg von Final Fantasy ebenfalls dem Motion Capture zu: «A movie that will remain nameless in this book went to great lengths to advertise its use of true-to-life digital actors. Using motion capture, it sought to portray its human characters in a very realistic way. [… But] as actors they lacked interest, and when they died, most people did not care.»61 In den meisten Fällen werden deshalb hybride Kombinationen eingesetzt. In cinefex (100: 73 ff.) betonen die Praktiker einstimmig, dass die Motion-Capture-Daten bearbeitet werden müssen, weil der ihnen innewohnende prozesshafte Charakter nicht zwingend der Intention gehorcht und oftmals Resultate hervorbringt, die nicht stimmig wirken – eine Beobachtung, die sich in ähnlicher Form schon bei der prozeduralen Animation gezeigt hat (→ 131). Klar ist, dass zwischen Motion Capture und Keyframe-Animation grundsätzliche Unterschiede bestehen. Motion Capture ist als Aufzeich- nungsverfahren in den physikalischen Gesetzen der Natur verwurzelt und 59 «Wenn man versucht, einen tanzenden Elefanten zu animieren, indem man seine Be- wegungen einem dürren Schauspieler angleicht, schleichen sich falsche Töne ein.» 60 «Oft aber wirkt es zu realistisch und kann langweilig aussehen, speziell bei einer virtu- ellen menschenähnlichen Figur oder bei einem Tier.» 61 «Ein Film, dessen Titel ich hier nicht nennen möchte, hat seine lebensechten digitalen Figuren großspurig angekündigt. Indem man Motion Capture verwendete, hoffte man, menschliche Figuren sehr realistisch nachbilden zu können. Aber die Figuren wirkten uninteressant, und wenn sie starben, empfanden die Zuschauer kein Mitge- fühl.» Motion Capture 153 eignet sich daher besonders für die Übertragung von Bewegungsmustern von Lebewesen aus der realen Welt – seien dies Hunde, Pferde oder Men- schen. Geht es jedoch darum, Aliens, überdimensionierte Monster oder Superhelden zu animieren, ist Keyframe-Animation das Verfahren der Wahl. So wurde Motion Capture schon für Godzilla (USA 1998, Roland Emmerich) zwar getestet, aber verworfen, denn die Figur wirkte damit wie ein Mensch im Latexanzug (Visual Effects Supervisor Volker Engel in Rogers 1999: 146). Die übernatürlichen Fähigkeiten von Superhelden wie in Daredevil (USA 2003, Mark Steven Johnson) oder Spider-Man lassen sich überhaupt nur mittels Keyframe-Animation darstellen. Auf der anderen Seite ist es sehr schwierig, Keyframe-Animationen mit jenen kleinen Abweichungen von prototypischen Bewegungsmustern zu versehen, jenem Rauschen und jenen Manierismen, die eine Persönlich- keit ausmachen und zur authentischen Wirkung des Ausdrucks beitragen. Will man jedoch eine stilisierte, überhöhte Performance erzielen, ist Key- frame- Animation das perfekte Verfahren. Sein hauptsächliches Anwendungsgebiet findet Motion Capture bis heute bei der Animation von Figuren im Computerspiel, namentlich für Spiele, welche Sportarten zum Inhalt haben wie Tennis, Basket- oder Fußball, für welche die spezifischen Bewegungen berühmter Sportler wie Roger Federer oder Dirk Nowitzki aufgezeichnet werden. «Aside from the near-perfect replication of movement, the beauty of motion capture is that once an action has been translated into digital form, it can be applied to any number of digital characters and photographed from any conceivable angle»62 (cinefex 72: 32). Dieser Vorteil – ein typisches Merkmal digitaler Datenverarbeitung übrigens, das auf den Eigenschaften Transmission und Modularität digitaler Informationen beruht – wird heute in Softwares wie Massive zur Animation von Massen benutzt, indem den Agenten aus einer Datenbank von Bewegungsverläufen die unterschiedlichen Verhaltens- weisen zugewiesen werden. 62 «Neben der annähernd perfekten Nachbildung von Bewegung liegt ein Hauptvorteil von Motion Capture darin, dass sich eine Aktion, sobald sie in die digitale Welt über- setzt ist, auf alle möglichen Figuren übertragen und aus allen denkbaren Blickwinkeln zeigen lässt.» Beleuchtung und Rendern Beleuchtung Ohne Licht kein Bild – diese triviale Feststellung gilt für computergene- rierte Bilder genauso wie für analoge Aufnahmen mit der Kamera. Die beiden Verfahren haben jedoch noch eine weitere Gemeinsamkeit, die man nicht unbedingt vermuten würde, wenn man sich nicht intensiver mit computergenerierten Bildern befasst. Genauso wie sich die Kameraperson auf ihr Wissen über Filmmaterial und Beleuchtungsparameter verlassen muss, um sich während der Aufnahme das fertige Bild vorzustellen, muss sich nämlich der Technical Director, der für die Beleuchtung com- putergenerierter Bilder zuständig ist, auf seine Erfahrung verlassen. Denn während der Arbeit sieht er nur in Andeutungen, was er tut. Erst wenn das Bild gerendert ist – und das kann je nach Verfahren lange dauern –, kann er das Resultat seiner Arbeit beurteilen. Ähnlich wie beim Texturing (→ 80) entzieht sich der Vorgang der direkten Kontrolle. Er ist darum alles andere als intuitiv, wie verschiedene Visual-Effects-Spezialisten in ihren Reflexionen zum State of the Art (cinefex 100: 41) bedauernd feststellen: «Software designers have never sat down with real cinematographers and said, ‹Okay, let’s see how you do this and let’s design a program that ac- tually works the way a cinematographer lights›»1 (VFX Director of Photo- graphy Alex Funke in cinefex 100: 41). Einmal mehr zeigt sich hier, dass die digitale Bildproduktion weit weniger unmittelbar ist als gemeinhin ange- nommen, denn in der Computergrafik entsteht zunächst nur ein opakes Bild (Abb. 1), das sich erst in den anschließenden Prozessen – Entwicklung bzw. Rendern – dem wahrnehmenden Betrachter erschließt (Abb. 2). Neben diesen Nachteilen weist die Beleuchtung im Computerpro- gramm aber auch Vorteile gegenüber den praktischen Verfahren auf, von denen Kameraleute und Beleuchter nur träumen können. So lassen sich Objekte beliebig ein- und ausschalten, das heißt, sie können das Licht blockieren oder aber ungehindert durchlassen. Ebenso kann der Schatten- wurf eines Gegenstands einfach unterdrückt werden, sodass er nicht 1 «Software-Entwickler haben sich nie mit Kameraleuten aus der Praxis zusammenge- setzt, um zu erfahren, wie diese arbeiten, und ein Programm zu schreiben, das deren Beleuchtungsverfahren aufgreift.» Beleuchtung 155 1 Beleuchtete Szene 2 Gerenderte Szene sichtbar wird. Die Scheinwerfer werden nicht heiß, Technical Directors brauchen sich nicht um Stromanschlüsse zu sorgen und müssen auch keine Stative aufstellen, sondern sie können die Beleuchtungskörper nach Belieben dort installieren, wo sie sie brauchen, also auch irgendwo in der Luft oder mitten in einem Objekt. Außerdem können sie ihren ‹Lampen› negative Werte zuweisen, um so aktiv Licht zu absorbieren. Auch sieht man ihre Scheinwerfer nicht, es sei denn, dies wird explizit gewünscht. Die Scheinwerfer können sich also mitten im Bild befinden, was bei realen Aufnahmen nur geht, wenn die Lichtquelle durch das Motiv gerechtfertigt 156 Beleuchtung und Rendern ist. Zusätzlich ist es möglich, die Ausrichtung des Lichts mit einem Objekt zu verknüpfen, dem es folgt, wo immer es sich hinbewegt. Außerdem lässt sich eine ‹Sonne› platzieren, entsprechend einer frei gewählten Jahres- und Tageszeit an einem definierten Standort. Wie Driemeyer (2001: 208) schreibt, haben Lichtquellen in der Natur eine beliebige Helligkeit, während sich historisch in der Computergrafik eine maximale Intensität von 1 für Weiß etabliert hatte. Der Unterschied zu natürlichen Lichtverhältnissen besteht also – ähnlich wie bei Filmauf- nahmen – darin, dass ein potenziell extrem großer Helligkeitsumfang auf einen systemkompatiblen Kontrastumfang reduziert werden muss. Damit computergenerierte Bilder nicht zu dunkel ausfielen, hatte man deshalb den Shadern einen Reflexionskoeffizienten von mehr als 1 zugewiesen – auch dies in Verletzung physikalischer Gesetzmäßigkeiten, denn reale Objekte haben einen Reflexionskoeffizienten von maximal 1, wenn sie sämtliches Licht reflektieren. Anders als bei der Animation sind diese Verletzungen der physikali- schen Gesetzmäßigkeiten – wenn sie schlau genug verborgen werden – für den Betrachter nicht unmittelbar sichtbar, obwohl ein merkwürdig künst- licher Eindruck entstehen kann. Immer aber gilt, dass die Beleuchtung alle Elemente des Computerbildes – Modellierung, Materialisierung, Anima- tion – und nicht zuletzt das verwendete Render-Verfahren berücksichtigen muss, damit das Resultat überzeugend ausfällt. Einführende Literatur z Jeremy Birn (2000, 2. revidierte Auflage 2006): Digital Lighting and Ren- dering. Ich empfehle das englische Original, weil die deutsche Überset- zung leider in den Fachbegriffen ungenau bis falsch ist. Lichttypen Die extrem artifizielle Ästhetik früher Computergrafiken rührte unter anderem daher, dass die Lichtquellen im eigentlichen Sinne punktförmig waren, also keinerlei Ausdehnung aufwiesen. Die Schatten hatten deshalb immer scharfe Kanten; die Render-Verfahren konnten Lichtinteraktionen zwischen mehreren Oberflächen nicht erfassen. Heute verfügt jede 3D-Software über eine Reihe von unterschiedli- chen Lichttypen, deren Parameter – Größe, Lichtstärke, Farbe des Lichts, Diffusion usw. – sich nahezu beliebig bearbeiten lassen, was nötig ist, damit es gelingt, mit den stark vereinfachten Beleuchtungswerkzeugen dieser Programme eine ästhetisch ansprechende Komplexität zu schaffen (vgl. Argy 2001: 80 ff.). Beleuchtung 157 Die verschiedenen Lichttypen werden durch eine Kombination der Parameter ‹Ort› und ‹Ausdehnung› sowie ‹Ausrichtung› definiert. Weitere Eigenschaften des Lichts betreffen die Farbe, die Diffusion sowie den Fall- off – einen Koeffizienten, welcher die Intensitätsabnahme in Relation zur Distanz beschreibt. Ein sogenannter Licht-Shader legt alle diese Parameter fest (Driemeyer 2001: 11). Folgende Typen lassen sich unterscheiden: z Umgebungslicht (ambient light) Es hat weder eine definierte Quelle noch eine Ausrichtung und entspricht einer diffusen Lichtsituation mit vielen Lichtquellen oder auch einer Tageslichtsituation bei bewölktem Himmel. In den meisten Programmen bezieht sich der Begriff Umgebungslicht auf eine flache, gleichmäßig verteilte Helligkeit, die einen unrealisti- schen und wenig ansprechenden Look erzeugt (siehe Birn 2000: 11 f. und Masson 1999: 7). Deshalb hat sich eine Reihe von Tricks herausgebildet, welche diese globalen Effekte imitiert; so wurde in Daredevil (USA 2003, Mark Steven Johnson) über das 3D-Modell der Stadt ein halbkugelförmiger Lichtdom gespannt und die dabei entstehende Lichtverteilung direkt in die Texturen gebacken (cine- fex 93: 33). Ähnlich funktionieren Ambient Occlusion Maps, welche den Schattenwurf der Objekte auf sich selber in Umgebungslicht simulieren und sie damit plastischer erscheinen lassen, als dies mit normalem computergeneriertem Umgebungslicht möglich wäre (Neulander 2003: 3; Reinhard et al. 2006: 452). z Punktlicht Wie Glühbirnen streuen Punktlichter ihre Strahlen in alle Rich- tungen gleichmäßig. In ihrer ursprünglichen Form entsprechen sie in der Computergrafik tatsächlich einem Punkt mit den oben erwähnten Problemen wie harte Schatten, die man jedoch durch entsprechende Einstellungen im Licht-Shader weicher gestalten kann, ohne die Ausdehnung des Punktlichts zu verändern. «In real life you aren’t likely to find any light that is uniformly omni- directional. Most sources emit more light in some directions than others»2 (Birn 2000: 13). z Flächenlicht (area light) Wenn Punktlichtern eine Ausdehnung zugeordnet wird, entstehen sogenannte Bereichslichter mit Formen wie Kugeln, Zylindern 2 «In realen Situationen findet sich kaum eine Lichtquelle, die gleichmäßig nach allen Seiten strahlt. Die meisten Leuchtkörper geben in einige Richtungen mehr Licht ab als in andere.» 158 Beleuchtung und Rendern oder Kuben. Bereichslichter erzeugen weiche Schatten und sind deshalb Punktlichtern vorzuziehen, erfordern aber eine höhere Render- Zeit (Birn 18 f.). z Spot (spotlight) Harte Schatten sind erwünscht, wie beispielsweise für die Nach- bildung von Scheinwerfern. Sowohl die Bündelung als auch die Verteilung innerhalb des Lichtkegels lassen sich festlegen. z Gerichtetes Licht (directional light) Im Gegensatz zu den anderen Lichttypen verlaufen hier die Licht- strahlen parallel. Dies entspricht einer sehr weit entfernten Quelle wie beispielsweise der Sonne. In manchen Programmen lassen sich beliebig große Flächen erzeugen, die gerichtetes Licht abgeben. z Volumetrisches Licht Treffen Lichtstrahlen auf Rauch oder Nebel, werden sie sichtbar. Dieser Effekt wird mit volumetrischem Licht nachgebildet. Mit Noise-Shadern (→ 87) können realistisch wirkende zufällige Licht- verteilungen simuliert werden. Gobos (auch Cookies genannt) eröffnen eine weitere Möglichkeit, den Verlauf der Lichtstrahlen zu verändern. Sie werden als flächige Schablo- nen – in der realen Welt aus Metall – mit ausgestanzten Mustern vor die Lichtquelle gesetzt (Abb. 3). Ihre Transparenz lässt sich durch den Alpha-Kanal (→ 221) verän- dern, und man kann sie mit Farben oder Farbmustern versehen. Schatten- würfe von Blätterwerk oder Jalousien, Licht, das durch Glasmalereien fällt oder von Projektoren in den Raum geworfen wird: Alle diese Effekte wer- den durch Gobos erzeugt, die sich natürlich – wie übrigens alle anderen Lichtquellen – zusätzlich animieren lassen. Auch sie können als Objekte ‹ausgeschaltet› werden, sodass sie im gerenderten Bild nicht sichtbar sein müssen. Weil nur wenige aufwendige Render-Verfahren (→ 177) globale Effekte der Diffusion berechnen können, die durch Reflexion an matten Oberflächen zustande kommen, werden solche Effekte – auch deren Farbe, die mit den Begriffen Farbremission oder Color Bleeding beschrieben wird – üblicherweise imitiert, indem eine Reihe von Lichtquellen diese diffus reflektierenden Oberflächen nachbilden. In der Natur nimmt die Lichtstärke mit der Distanz zur Quelle qua- dratisch ab, das heißt, eine Verdoppelung der Distanz reduziert die Licht- energie auf ein Viertel. Dieses Gesetz trifft auf direktionales Licht nicht zu, da sich die Strahlen parallel zueinander ausbreiten (Driemeyer 2001: 206 f.). Diese Gesetze werden jedoch von den meisten Beleuchtungsmo- Beleuchtung 159 3 Gobo zur Gestaltung des Schattenwurfs dellen der Computergrafik nicht zwingend beachtet, vielmehr lassen sich die Parameter des Energieabfalls arbiträr bestimmen. Klar wird bei allen diesen Informationen, dass sich die Lichtsetzung in den üblichen Softwares fundamental von den physikalischen Vorgängen in der Natur unterscheidet. Lichtschema Im klassischen Hollywood-Film hat sich ein universelles Lichtschema herausgebildet, dessen Strategie auch in der Computergrafik zur Anwen- dung kommt, nämlich die sogenannte Drei-Punkt-Beleuchtung. In der Annahme, dass die meisten Leser damit vertraut sind, beschränke ich mich auf eine sehr konzentrierte Darstellung mit dem Ziel, insbesondere das deutsche Vokabular bereitzustellen, auf das die folgenden Überlegun- gen aufbauen: Die Drei-Punkt-Beleuchtung besteht aus den Elementen Hauptlicht (key light), Aufhellung (fill light) und Gegenlicht (back light), auch Spitzlicht genannt.3 Wegen des oben beschriebenen Mangels an Dif- fusion in vielen Render-Systemen kommt in computergenerierten Bildern meist noch eine Aufhellung (bounce light) durch den Boden hinzu. Wie Birn (2000: 57 f.) zu Recht bemerkt, besteht auch ein Unterschied in Bezug auf die Wirkung des Gegenlichts, das in der Filmaufnahme den Zweck hat, das Objekt, insbesondere die Figur und deren Gesicht, vom Hintergrund abzuheben. Weil computergenerierte Objekte auf ihren Oberflächen weder dünne Staub-, Fett- oder Flüssigkeitsschichten noch kleine Härchen auf- weisen, ist es sehr viel schwieriger, diesen Spitzlichtcharakter zu erzeugen. 3 Das System ist genauer erklärt in Birn (2000: 35 ff.) mit speziellem Fokus auf CGI sowie allgemein in Thompson/Bordwell (2004: 194 f.). 160 Beleuchtung und Rendern Für den Charakter des Bildes sind die Intensitätsverhältnisse der verschiedenen Lichtquellen zueinander – insbesondere des Hauptlichts und der Aufhellung – sowie deren genaue Position und die Härte des Schattenwurfs entscheidend. Im Verlauf der Filmgeschichte haben sich bestimmte Lichtsituationen zu eigentlichen Stereotypen verdichtet, wie helle, luxuriös wirkende Beleuchtung (high-key) für fröhliche Komödien oder, seit den Tagen des deutschen Expressionismus, dunkle, kontrastrei- che Lichtsetzungen (low-key) bei Genres wie Thriller oder Horrorfilm in bedrückenden, beängstigenden oder spannungsgeladenen Situationen. Diese Stereotypen sind bis heute sehr robust, scheinen also den Bedürf- nissen der Zuschauer zu entsprechen, da sie ihre Prägnanz aus vertrauten Alltagssituationen beziehen.4 Schon vor Einführung der Computeranimation haben sich Special- Effects-Szenen überwiegend im Dunkeln abgespielt – dies aus zwei Grün- den: Einerseits weil sie bevorzugt in Genres zum Einsatz kamen, die traditionell düstere Inhalte im Low-Key-Stil präsentierten, andererseits aus praktischen Gründen, nämlich ganz einfach deshalb, weil sich da- durch technische Mängel des Modellbaus und anderer Verfahren besser kaschieren ließen. Ein besonders gutes Beispiel für diesen Look ist der Film Blade Runner (USA 1982, Ridley Scott), einer der letzten großen Vertreter ausschließlich klassischer Verfahren, in dem sich Technik und Ästhetik in idealer Weise unterstützen. Der Film spielt zu großen Teilen in der Dunkelheit. Ein weiteres Mittel, um unerwünschte Artefakte der Special-Effects- Produktion zu unterdrücken, ist die Diffusion durch permanenten Smog, der über der Stadt liegt. Bis heute ist diese Kombination von atmosphä- rischer Diffusion und Dunkelheit ein beliebtes Lichtschema in Visual-Ef- fects-lastigen Filmen wie Interview With the Vampire (USA 1994, Neil Jordan), Johnny Mnemonic (USA 1995, Robert Longo), Blade (USA 1998, Stephen Norrington), Dark City (AUS/USA 1998, Alex Proyas), Fight Club (USA 1999, David Fincher), X-Men (USA 2000, Bryan Singer) und vielen anderen mehr. Laut Gray (AmC 6/2003) haben die Wachowski- Brüder den Kameramann Bill Pope eigens wegen seiner Fähigkeit, dunkle Bilder zu gestalten, ausgewählt. The Matrix gehört aber bereits einer Generation von Filmen an, welche die Dunkelheit auch in CGI-Sequenzen überwinden und ihre narrative Konstruktion auf einer Dichotomie zwischen hellen und dunk- len Szenen in Kombination mit Farbcodierung aufbauen. Schon 1993 in 4 Zu den psychologischen Grundlagen von Stereotypen siehe Flückiger (2001: 176 ff.) und umfassend Schweinitz (2006). Beleuchtung 161 4 Volumetrisches Licht in der Tradition der Romantik in What Dreams May Come Juras sic Park hatten die friedlichen computergenerierten Brontosaurier im hellen Tageslicht geweidet – allerdings in der Ferne, während die Angriffe des Tyrannosaurus Rex in Regen und Dunkelheit stattfanden. Schließlich aber getrauten sich die Visual-Effects-Spezialisten sogar, den Showdown zwischen den Veloziraptoren und dem Tyrannosaurus in einer durchaus moderaten Lichtsituation anzusiedeln. Spätestens mit Titanic (USA 1997, James Cameron), dessen Establishing Shots den Dampfer bei schönem Wetter auf offenem Meer feiern – wenn auch ein leichter Nebelschleier ein paar Übergänge zwischen Modellaufnahmen und computergenerierten Bildteilen mildert –, verlassen die Visual Effects mehr und mehr ihre angestammte Dunkelheit. So präsentieren sich die Stadttotalen in Gladiator (USA 2000, Ridley Scott), in Minority Report (USA 2002, Steven Spielberg), in den Spider-Man-Filmen (USA 2002 und 2004, Sam Raimi) und mehr noch in I, Robot (USA 2004, Alex Proyas) im Tageslicht und lassen zunehmend auch die obligate Diffusion durch Smog und Nebel hinter sich. Überzufällig häufig sind Lichtsituationen, die sich an die erhabene Ästhetik der Romantik anlehnen, wo sich die Sonnenstrahlen ihren Weg durch dräuende Wolken bahnen, wie in What Dreams May Come (USA 1998, Vincent Ward; Abb. 4), Gladiator, The Lord of the Rings oder das Pantheon in The Cell (USA 2000, Tarsem Singh). Diese Effekte sind mit volumetrischem Licht realisiert, genauso wie die Scheinwerfer in der Nacht meist volumetrische Lichtquellen sind, so in Sphere (USA 1997, Barry Levinson), Sky Captain and the World of Tomorrow (USA 2004, Kerry Conran) oder Lara Croft: Tomb Raider (USA 2001, Simon West). Alle diese stilisierten Lichter knüpfen an die filmgeschichtliche Tradition der Lichtdiffusion an, etwa in verrauchten Bars oder diesigen Nachtsze- nen (Abb. 5–7). 162 Beleuchtung und Rendern 5 Volumetrisches Licht mit Film-Noir-Assoziation in Sky Captain and the World of Tomorrow 6 Magisches Licht in Tomb Raider 7 Volumetrisches Licht in The Cell im Stil des Neo-Noir Beleuchtung 163 Wenn die Bilder oder Teile davon in Live-Action-Aufnahmen inte- griert werden müssen, orientiert sich das Beleuchtungsschema an der Arbeit der Kameraperson. Mit den spezifischen Fragen der Kontrastan- passung im Compositing befasse ich mich unter dem Stichwort Ästhetische Kohärenz (→ 256) im entsprechenden Kapitel. Da sich schließlich – wie eingangs erwähnt – viele Parameter der Beleuchtung erst im Austausch mit den Oberflächeneigenschaften und in Abhängigkeit von gewählten Render-Verfahren manifestieren, werden einige von ihnen – namentlich Schatten und Reflexionen – im Kapitel Ren- dern dargestellt. Lichtanimation Bewegte Lichtkörper wurden traditionell von Hand in die Bilder ge- zeichnet. Diese Technik des Rotoskopierens (→ 215) hat sich bis heute erhalten. Auf diese Weise wurden und werden die Laserschwerter im Star Wars-Universum erzeugt ebenso wie Schüsse, Blitze, elektrische Entladungen. Wenn man so will, kommen bewegte Lichter der Essenz des Films sehr nahe, denn – so könnte man fragen – was ist Film anderes als animiertes Licht? Diesen Gedanken aufgreifend hatte Ridley Scott in Blade Runner größten Wert auf bewegte Lichtquellen gelegt, um die Modelle der Stadt zu beleben und den Eindruck von Tiefe und Dreidimensionalität zu er- zeugen: «We produced a lot of elements like running lights and flashing strobe lights on vehicles that are travelling off in the distance, just to create a greater density to the look of the megalopolis»5 (Supervisor John Walsh in cinefex 9: 67). Dazu gehörten die Scheinwerfer der Spinner genannten fliegenden Fahrzeuge ebenso wie die gigantischen Werbespots, die von den Fassaden der Hochhäuser flimmern, und nicht zuletzt die vielen Neonschriften, welche den Nachtszenen ihren eigenen, etwas irrealen und multikulturellen Look verleihen. Die visuelle Dichte, die dabei entstand, korrelierte direkt mit dem sozialen Parameter eines überbordenden Be- völkerungswachstums, das Scotts dystopischem Zukunftsbild entsprach. Solche endzeitlichen Stimmungen gehören zum festen Repertoire vieler Filme – so die Nachtbilder in Fight Club oder die riesigen Fötenfelder in The Matrix und viele andere mehr. Eine völlig andere Ikonografie knüpft an den sogenannten Pixie- Dust-S til der Disney-Animationen an, mit dem magische Erscheinungen, 5 «Wir stellten viele Elemente wie sich bewegende oder pulsierende Lichter an Fahr- zeugen her, die in der Ferne vorbeifuhren, um den Look der Großstadt dichter zu ge- stalten.» 164 Beleuchtung und Rendern aber auch Transformationen wie zum Beispiel die Transporter- und Warp- Speed-Effekte aus der Star-Trek-Serie erzeugt wurden. Sie finden sich in einer Vielzahl von Filmen, etwa in Tron (USA 1982, Steven Lisberger), The Mask (USA 1994, Chuck Russell), bei der Hexe in Willow (USA 1988, Ron Howard) oder dem Auge Saurons und Gandalfs Kräften in The Lord of the Rings sowie für den Zeitsturm und das magische Dreieck in Tomb Raider. Eine andere Schiene schließlich bilden elektrische oder elektroni- sche Störungen, die als Hinweis auf eine simulierte Welt zu deuten sind, so in Johnny Mnemonic, Virtuosity (USA 1995, Brett Leonard) oder The Thirteenth Floor (D/USA 1999, Josef Rusnak). Ich werde diese Phänomene und ihre Geschichte im Abschnitt Magi- sche Erscheinungen (→ 368) wieder aufgreifen und aus einer medienhistori- schen und narrativen Perspektive diskutieren. Bildbasierte Beleuchtung Eine Gruppe um Paul Debevec,6 Pionier des bildbasierten Modellie- rens (→ 70), hat eine Methode entwickelt, um Lichtwerte aus realen Umgebungen – aus der Natur oder beliebigen Innenräumen, also auch künstlich ausgeleuchteten Sets – aufzuzeichnen und in die computerge- nerierte Szene zu importieren. Dieses Verfahren, bildbasierte Beleuchtung (image-based light ing)7 genannt, wird zwar bislang nur selten für Filmauf- nahmen verwendet – so für die Matrix-Sequels (Duiker et al. 2003) und für Spider-Man 2 (cinefex 99 und Robertson 2004). Es ist aber erstens theoretisch interessant, weil sich die Zugangsweise fundamental von her- kömmlichen Verfahren unterscheidet; zweitens kann sich das in Zukunft durchaus ändern, denn die Resultate sehen sehr ansprechend und natür- lich aus.8 Debevec et al. haben an der SIGGRAPH 1999 den Kurzfilm Fiat Lux vorgeführt, eine Installation von computergenerierten schwarzen Monolithen im Innenraum des vatikanischen Petersdoms, die auf diese Weise beleuchtet wurden. Ausgangspunkt der Beleuchtung sind HDR-Bilder (high dynamic range images),9 die den Dynamikumfang natürlicher Lichtsituationen we- sentlich genauer aufzeichnen als herkömmliche Aufnahmen – seien sie analog oder digital. Wie Debevec in seiner Präsentation an der SIGGRAPH 6 Debevec, Paul E. (1998): Rendering Synthetic Objects into Real Scenes. Bridging Tradi- tional and Image-based Graphics with Global Illumination and High Dynamic Range Photography. In: Computer Graphics, Annual Conference Proceedings, S. 189–198. 7 Eine umfassende Darstellung des Verfahrens findet sich in Reinhard et al. (2006: 367 ff.). 8 Eine Reihe von Beispielen findet sich auf Debevecs Website: http://www.debevec.org. 9 Siehe Reinhard et al. (2006: 85 ff.). Beleuchtung 165 8 Belichtungsserie mit unterschiedlichen V erschlusszeiten 2005 darlegte, beträgt der Dynamikumfang einer Tageslichtsituation, in der die Sonne scheint, 1:2*109, jener einer HDR-Aufnahme 1:3*105, ein 8-Bit-codiertes Bild hat hingegen nur 1:28, analoges Negativmaterial mit einem maximalen Belichtungsspielraum von 11 Blenden 1:211. HDR-Bilder entstehen aus einer Serie von Aufnahmen, die entweder mit unterschied- licher Belichtungszeit, unterschiedlichen Blenden oder ND-Filtern (neutral density filters) belichtet werden. Abb. 8 zeigt eine solche Serie, die mit un- terschiedlichen Belichtungszeiten entstanden ist. Zunächst muss man den Bildkontrast verstärken. Um die Farb- und Kontrastwerte anzupassen, dient die Aufnahme einer Gretag-Macbeth- Farbtafel (→ Abb. 60 des Kapitels Compositing 260) sowie eines Graukeils als Referenz. Mit einer Software namens HDR-Shop lassen sich die Bilder zu einem einzigen HDR-Bild zusammenbacken. Inzwischen ist das HDR- Format auch in Photoshop implementiert. In der Praxis nimmt man mit dieser Technik ein 360°-Panorama ent- weder als Fotografie einer verspiegelten Kugel (→ Abb. 62 des Kapitels Compositing 261), mit einer Panorama-Kamera oder einem Fischaugen- objektiv auf – oder aber man fügt verschiedene Einzelbilder zusammen. Das dabei entstehende Bild wird auf eine halbkugelförmige Fläche,10 einen Lichtdom, projiziert, die man über die Szene spannt. Nun werden die Aufnahmen gefiltert, indem man sie mittels einer Funktion der Wahrscheinlichkeitsverteilung (probability distribution func- tion) iterativ in unterschiedliche Bereiche unterteilt, und zwar so, dass jeweils jede Region gleich viel Energie enthält. Dieser Filterungsprozess ist notwendig für die anschließende Abtastung (sampling), wobei die Helligkeitswerte für die Szenenbeleuchtung direkt aus dem Lichtdom entnommen werden. Debevec geht von 16 Samples pro Pixel aus, damit die Resultate überzeugend ausfallen. Diese Abtastung muss man sich so 10 Solche Environment Maps wurden schon zu Beginn der 1980er-Jahre in die Computer- grafik eingeführt, um natürliche Reflexionen aus der Umwelt auf spiegelnde Gegen- stände zu projizieren (siehe Abschnitt Reflexionen → 269). 166 Beleuchtung und Rendern vorstellen, dass pro Pixel 16 Werte für die Beleuchtung aus dem Lichtdom abgetastet werden. Dieses Verfahren klingt weitaus einfacher und natürlicher, als es sich in Wirklichkeit ausnimmt, denn, wie Debevec zeigt, sind verschiedene Eingriffe notwendig, um unerwünschte Resultate zu unterdrücken. So können besonders helle Lichtquellen wie die Sonne zu weißen Punkten führen, denn immer wenn dieser Bereich für die Abtastung herangezogen wird, kommt als Information die maximale Intensität mit dem Wert 1 für Weiß heraus, und das Bild ist von weißen Punkten übersät (siehe Abbildung in Reinhard et al. 2006: 419). Um dieses Problem zu beheben, muss man solche Bereiche zunächst ignorieren und die Lichtinformation in einem separaten Abtastdurchgang hinzufügen. Außerdem bearbeitet Debevec anschließend die gerenderten Bilder mit einer Reihe von vier Gaußschen Diffusionen (Gaussian blur), um den natürlichen Eindruck des Überstrahlens heller Bildteile nachzuahmen (in Reinhard 2006: 377). Die Resultate sind verblüffend. Unter anderem haben die Forscher des Institute for Creative Technologies an der University of Southern Ca- lifornia (USC) während eines Tages einen Himmel in Marina del Rey in Kalifornien aufgenommen und anschließend ein Bauwerk, nämlich das Parthenon, in 3D gescannt und mit den Himmelsaufnahmen beleuchtet. So entstand ein kurzer Film im Zeitraffermodus, der das Parthenon über eine Dauer von 24 Stunden zeigt.11 Abbildungstheoretisch von Interesse ist die Tatsache, dass auch ein solcher Aufzeichnungsprozess durch menschliche Eingriffe modelliert werden muss – eine Feststellung, die ich an entsprechender Stelle wieder aufgreifen werde (→ 292). Im Hinblick auf die grundlegenden Eigenschaf- ten digitaler Bilder ist die Kombination von Filterung und Abtastung von Bedeutung – ein wiederkehrendes Muster digitaler Aufzeichnungsver- fahren. Für die Anwendung im Film stellt sich im Moment noch das Pro- blem, dass die Aufnahmen, die dem Lichtdom zugrunde liegen, an einen Ort gebunden sind. Bei der Beleuchtung einer Szene in Matrix Reloaded (USA 2003, Andy and Larry Wachowski) haben Duiker et al. (2003) darum eine Reihe von Lichtdomen miteinander kombiniert. In einer Art Ausblick weist Schmid (2003: 55) auf den gelungenen Versuch von Kang et al.12 hin, ein HDR-Video zu erzeugen. 11 Siehe auch http://www.debevec.org/Parthenon sowie die Skulpturen in 3D im Format VRML (Virtual Reality Modeling Language) auf http://gl.ict.usc.edu/parthenongallery. 12 Kang, Sing Bing; Uyttendaele, Matthew; Winder, Simon; Szeliski, Richard (2003): High Dynamic Range Video. In: ACM Transactions on Graphics, Bd. 22, Nr. 3, Juli 2003, S. 319–325. Rendern 167 Rendern Am Ende des ganzen Prozesses greift das Render-Verfahren alle Informa- tionen aus der Objekt- und Szenengeometrie, den Shadern und der Be- leuchtung im Hinblick auf zu definierende Kameraparameter auf und berechnet daraus anhand eines Render-Algorithmus die Farbwerte der einzelnen Pixel, aus denen sich das Bild zusammensetzt. Es überführt also die latenten Daten in eine der Wahrnehmung zugängliche Form. Lassen Sie mich im Vorfeld meiner Darstellung der technischen Grundlagen des Renderns etwas philosophieren, und zwar im Austausch mit einigen Äußerungen Friedrich Kittlers im Vortrag Computergraphik. Eine halbtechnische Einführung (1998), in dem er sich mit verschiedenen Aspekten des Renderns auseinandersetzt. Der optimale Algorithmus zur automatischen Bildsynthese lässt sich […] ebenso problemlos wie unalgorithmisch angeben. Er müsste einfach alle optischen und d. h. elektromagnetischen Gleichungen, die die Quantenelek- trodynamik für messbare Räume kennt, auch für virtuelle Räume durchrech- nen, schlichter gesagt also die drei Bände von Richard Feynmans Lectures on Physics in Software gießen. Dann würden Katzenfelle, weil sie anisotrope Oberflächen bilden, wie Katzenfelle schimmern; dann würden Schlieren in Weingläsern, weil sich ihr Brechungsindex an jedem Punkt verändert, die Lichter und Dinge hinter ihnen zu ganzen Farbspektren entfalten. (Kittler 1998: Abschnitt 2) Kittlers süffig und ironisch formulierte Bemerkungen lassen sich in Anleh- nung an Alan Sokal der Kategorie «eleganter Unsinn» zuweisen. Denn da- mit computergenerierte Katzenfelle im gerenderten Bild wie Katzenfelle schimmern könnten, müssten sie nämlich wie Katzenfelle modelliert und die einzelnen Haare wie Katzenhaare materialisiert und animiert werden, dies nicht nur unter Berücksichtigung der perzeptiven Eigenschaften, sondern auf der Ebene ihrer molekularen Struktur, wenn die quantenme- chanischen Eigenschaften des Lichts im Render-Prozess berücksichtigt würden. Der Einbezug molekularer Strukturen aber würde bedeuten, dass Computermodelle auch zellbiologische Prozesse des Wachstums und der Reaktionen von Organismen auf Umwelteinflüsse oder geophysikalische Prozesse der Gesteinsbildung aus Mineralablagerungen nachbilden müss- ten, um die Vielfalt optischer Erscheinungen in der Natur hervorzubrin- gen; denn «wie Katzenhaare schimmern» hat mit Eigenschaften zu tun, die direkt auf den Entstehungsprozess im Haarfollikel zurückgehen. Kurz: Der Computergrafiker müsste ‹die universelle Weltformel› zur Verfügung 168 Beleuchtung und Rendern haben, um die Welt realistisch abzubilden. «It should be noted», schreibt Humphreys (2004: 124) kurz und bündig, «that there is a double element of contingency […] to actual computability. It is obviously contingent upon what is currently available to us in terms of artificial computational devices, but it is also contingent upon the complexity of the world itself.»13 Kittler hat allerdings Recht, wenn er anmerkt, dass sich computerge- nerierte Bilder fundamental von anderen optischen Repräsentationsfor- men unterscheiden: Das Programm, dessen Eingaben solche Ausgabegeräte ja ansteuern, über- führt alle optischen Gesetze, die es berücksichtigt, in algebraisch reine Logik. Das sind, um es gleich zu gestehen, üblicherweise bei weitem nicht alle op- tischen Gesetze, die für Sehfelder und Oberflächen, für Schatten und Licht- wirkungen gelten; aber was abläuft, sind diese ausgewählten Gesetze selbst und nicht bloß, wie in anderen optischen Medien, die ihnen entsprechenden Effekte. (Kittler 1998: 2) In der Tat gibt es diesen Unterschied zwischen Modellbildung und Abbil- dung, dessen Gesetzmäßigkeiten und Konsequenzen ich mich im Kontext der Abbildungstheorie zuwenden will (→ 275). Längst wird aber der aufmerksame Leser begriffen haben, wie vielfältig und komplex sich die Verfahren zur Modellbildung gestalten, wie unterschiedlich die Prämissen sind, auf denen sie fußen, und nicht zuletzt, wie hybrid die meisten dieser Verfahren Grundlagen aus allen möglichen Denk- und Wissenschaftstradi- tionen entnehmen, sodass sich am Ende die Grenzen zwischen Abbildung und Modell fast bis zur Unkenntlichkeit auflösen. Natürlich ist es eine Vereinfachung, wenn Kittler schreibt, dass solche umfassenden Beschreibungsmodelle nur «im Namen der Ungeduld» – wobei er ökonomische Parameter des Zeitmanagements wohl einschließt – unterdrückt würden: «Einzig im Namen der Ungeduld beruht alle existie- rende Computergraphik auf Idealisierungen, die freilich im Gegensatz zur Philosophie wie Schimpfwörter fungieren.» Wie ein Schimpfwort fungiert der Begriff Idealisierung nur darum, weil es sich nicht um Idealisierungen im philosophischen, sondern im physika- lischen Sinne handelt. Abbildungstheoretisch sind sie als Reduktionen zu begreifen – der Computerfachmann spricht von Approximationen. «Idea- lization involves taking a property and transforming that property into one that is related to the original but possesses desirable features that are 13 «Man darf nicht übersehen, dass zwei Formen der Kontingenz die tatsächliche Bere- chenbarkeit [von Phänomenen] einschränken: einerseits der aktuelle Stand der Tech- nik, andererseits die Komplexität der Welt.» Kamera- und Bildparameter 169 lacking in the original»14 (Humphreys 2004: 146). Was wünschbar ist, wird gemäß Humphreys durch das Ziel bestimmt. Unabhängig vom Begriff geht es immer darum, ein Set von komplexen Operationen so zu verän- dern, dass sie den schon im Kapitel Oberflächen und Materialien genannten drei Randbedingungen Genauigkeit, Ausdrucksfähigkeit und Geschwindigkeit (→ 90) entsprechen – dies immer unter Berücksichtigung der Beschaf- fenheit des menschlichen Wahrnehmungssystems. Diese Veränderungen bringen – so könnte man sagen – systematische Fehler mit sich, indem sie gewisse Parameter gegenüber anderen privilegieren und einige Einfluss- größen ignorieren – weil von ihnen kein Beitrag zur intendierten Wirkung erwartet wird, weil sie stören oder weil man sie ganz einfach nicht kennt. Denn wie Heisenberg mit seiner Unschärferelation aufgezeigt hat, weisen selbst die genausten Modelle der Quantenmechanik unbekannte Größen auf, die nur durch statistische Werte annähernd erfasst werden können. Es ist deshalb aus erkenntnistheoretischer Sicht problematisch, wenn Kittler schreibt: «Prinzipiell steht solchen Wundern nichts im Weg. Uni- versale diskrete Maschinen, vulgo mithin Computer, können alles, was überhaupt programmierbar ist.» Denn programmierbar ist überhaupt nur, was auf einem der Maschine vom Menschen diktierten Übersetzungspro- zess beruht – zumindest solange Computer keine autonomen Agenten sind. Und es ist besonders problemastisch, für diesen Übersetzungspro- zess überhaupt umfassende Modelle anzunehmen, weil Modelle – wie oben angedeutet – grundsätzlich nicht umfassend sein können. So äußert sich in Kittlers Betrachtungen eine merkwürdig ambiva- lente Haltung, eine Mischung aus Überschätzung und pejorativer Herab- setzung, wie sie sich immer dort zeigt, wo über Medien und Maschinen im luftleeren Raum philosophiert wird, das heißt ohne Kenntnis der Produk- tionsprozesse oder der Produkte. Kamera- und Bildparameter Nun aber zurück zu den Grundlagen, deren kulturelle Implikationen ich im Kapitel Abbildung (→ 275) wieder aufgreifen werde. Wie eingangs erwähnt, berechnet der Computer im Render-Prozess die Bilddaten. Vo- raussetzung dafür ist die Definition einer betrachtenden Kamera. Schmid (2003: 5) unterscheidet dabei zwischen extrinsischen und intrinsischen Pa- rametern. Mit extrinsischen Parametern sind Position und Ausrichtung der 14 «Idealisierung erfordert ein Herauslösen von Eigenschaften, die so verändert werden müssen, dass sie zwar noch in Beziehung zur ursprünglichen Gestalt stehen, aber nun den gewünschten Anforderungen entsprechen.» 170 Beleuchtung und Rendern Kamera gemeint, während die intrinsischen Aspekte ihre Abbildungsei- genschaften beschreiben, also das Objektiv und damit einhergehend fakul- tative Parameter, beispielsweise die Verzerrung, die Schärfentiefe oder die Bewegungsunschärfe (motion blur). Fakultativ deshalb, weil die virtuelle Kamera einer Computergrafik ursprünglich einer einfachen Lochkamera entspricht, die nur das Bildfeld beschreibt, nicht aber die in der analogen Fotografie üblichen Transformationen – ein Umstand, der weit reichende Konsequenzen für die Ästhetik des Bildes, aber auch für die abbildungs- theoretische Debatte haben wird. Denn ist es nicht frappierend, dass die Computergrafik an eine Tradition der vorfotografischen Aufzeichnung mit Hilfe der Camera obscura anschließt? Deren Funktionsweise hatte der arabische Gelehrte Alhazen15 be- reits im 10. Jahrhundert verstanden, als er die Beschaffenheit des Lichts erforschte (Kebeck 2006: 66, 146), und vermutlich verwendete sie Jan Ver- meer van Delft, um möglichst realistisch wirkende Zeichnungen oder Ge- mälde zu schaffen. Die spezifischen Transformationen jedoch, die durch die eine voll entwickelte Kamera als materielles Objekt und dort insbeson- dere durch die Linsenanordnung im Objektiv zustande kommen, haben eine eigene fotografische Bildtradition und Ästhetik erzeugt, welche heute fester Bestandteil unserer Erwartung an fotografische und eben auch filmi- sche Abbildungen geworden ist (siehe Flückiger 2004). Im Gegensatz zu realen Kameras ist die ‹Kamera› der Computergra- fik eben gerade kein Objekt, nicht einmal eine dreidimensionale Geome- trie wie die computergenerierten Objekte vor der Kamera, sondern ein völlig abstraktes Konstrukt, bestehend aus dem Analogon einer Blenden- öffnung (aperture)16 und einer Brennweite (focal length), welche den Ab- stand zwischen der Öffnung und der Aufzeichnungsebene und somit den Öffnungswinkel definiert (Driemeyer 2001: 35). Das heißt, es gibt in der CG-Kamera keine systemisch verknüpften Eigenschaften, die durch eine bestimmte Bauweise – die materielle Anordnung der einzelnen Teile des Objektivs und des Gehäuses sowie die Mechanik – bedingt sind, sondern die Parameter existieren in modularer Weise unabhängig voneinander. Alle fakultativen Eigenschaften wie Schärfentiefe, durch das Objektiv bedingte Verzerrungen (lens distortion) oder Farbveränderungen (chromatic aberration) muss man entweder durch Kamera-Shader definieren oder aber in einem Postprocessing nachträglich berechnen (Driemeyer 2001: 256). 15 Alhazen ist eine westliche Verballhornung des arabischen Namens Abu Ali al-Hasan Ibn al-Haitham. 16 ‹Blendenöffnung› ist eigentlich ein Euphemismus, denn es handelt sich nur um den Durchmesser des Lochs an der Kamera, der jedoch im Gegensatz zu seiner analogen Entsprechung keinen Einfluss auf die Helligkeit des Bildes oder die Schärfentiefe hat. Kamera- und Bildparameter 171 Dies betrifft insbesondere auch weitere fotospezifische Einflüsse auf die Bildästhetik wie Korn oder Lens Flares. Eine Besonderheit der CG-Kamera ist es zudem, dass sich die vorde- ren und hinteren Begrenzungsebenen (clipping planes)17 willkürlich bestim- men lassen; das bedeutet, dass alles, was sich außerhalb dieses Bereichs befindet, beim Rendern ignoriert wird. Manchmal wird diese Eigenschaft in Computerspielen sichtbar, wenn Dinge plötzlich auftauchen oder ver- schwinden. Fotorealistische Bilder sind aber nur eine von vielen Möglichkeiten der Bildausgabe. Die meisten Renderer können auch Bilder mit deutlichen Konturen im Stil der zweidimensionalen Zeichenanimation oder physi- kalisch weitgehend korrekte Simulationen von Lichtsituationen für die Anwendung in der architektonischen Planung erzeugen. Grundsätzlich stehen alle Möglichkeiten der Bildtransformation offen, wie sie sich bei- spielsweise als Filter in Photoshop herausgebildet haben. So testete Visual Effects Supervisor Ken Ralston für The Polar Express (USA 2004, Robert Zemeckis) einen Caran-d’Ache-Pastellkreiden- und ausgehend von What Dreams May Come einen Ölfarben-Look – alles Versuche, die er am Ende verwarf, weil er die Effekte in Bewegung widerwärtig fand (cinefex 100: 114 ff.; siehe auch SIGGRAPH 2005, Kurs Nr. 28). In den meisten Fällen rendert man jedoch zumeist in fotorealistischer, möglichst optimaler Qualität und verlässt erst in weiteren Schritten – im Compositing oder in der Lichtbestimmung – den neutral erscheinen- den, weil etablierten Fotorealismus, um den Bildern einen eigenen Look zuzuweisen. Dies gilt besonders für computergenerierte Elemente, die im Kontext analoger Aufnahmen erscheinen. Parallel dazu hat sich im Animationsfilm – und zwar besonders in jenen Kurzfilmen, die sich nicht an ein Massenpublikum wenden, sondern experimentellere Ausdrucks- formen suchen – eine Vielzahl von individuellen Ästhetiken entwickelt, welche das schöpferische Potenzial computergenerierter Bilder immerhin ansatzweise ausloten.18 Sind alle Parameter gesetzt, findet der Render-Vorgang völlig auto- matisch statt, meist in Render-Farmen, das heißt großen Netzwerken von Computern. Allerdings gilt dies erst, nachdem im Trial-and-Error-Ver- fahren die gewünschte Ästhetik bestimmt worden ist. Ähnlich wie in der Dunkelkammer, in der man verschiedene Probeabzüge herstellt, um das Resultat im Sinne der anvisierten Intention zu verfeinern, rendert man 17 Die vordere Begrenzungsebene wird hither plane, die hintere yon plane genannt (Drie- meyer 2001: 515 und 523). 18 Siehe Prix Ars Electronica auf http://www.aec.at oder die Dokumentationen der SIGGRAPH. 172 Beleuchtung und Rendern einzelne Bilder zur Probe, bevor man den Vorgang für alle Bilder einer Einstellung startet, denn das Rendering ist äußerst zeitintensiv. Die Zeit, die es braucht, bis ein Bild berechnet ist, hängt von der Rechnerkapazität, der Komplexität der Szene, aber auch vom gewählten Verfahren ab. In der Summe aber bilanziert der Visual Effects Supervisor John Knoll (cinefex 100: 41), einer der Erfinder von Photoshop, dass sich die Render-Zeiten seit The Abyss (USA 1989, James Cameron) konstant an der Schmerzgrenze bewegen. Das können im Extremfall bis zu 40 Stunden pro Bild sein (VFX Supervisor Scott Stokdyk in cinefex 83: 121). Zwar sind die Computer viel schneller geworden, im gleichen Ausmaß ist aber auch die Szenenkomple- xität gewachsen, und es werden anspruchsvollere Render-Algorithmen eingesetzt. Eine ganze Crew von Render-Spezialisten unter Aufsicht eines Technical Director plant den immensen Datenfluss in der Render-Pipeline und überwacht den Prozess. Die heute noch bestehenden ästhetischen Grenzen des Renderns in Echtzeit werden in Computerspielen sichtbar, und obwohl auf diesem Gebiet seit einigen Jahren große Fortschritte erzielt werden, bleibt es schwierig, abzuschätzen, wann diese Verfahren den Ansprüchen an die Bildästhetik des Films gerecht werden. Render-Verfahren Wie sich Licht physikalisch verhält, ist für das Verständnis der Render- Algorithmen nur in Teilen bedeutsam. Denn wie bereits in der Diskussion von Kittlers Text erläutert, kommen keine quantenmechanischen Gesetze der Lichtausbreitung zum Einsatz, sondern lediglich Modelle, die Teil- aspekte berücksichtigen. Obwohl ich keineswegs den Eindruck erwecken möchte, die Physik des Lichts restlos verstanden zu haben, gehe ich doch davon aus, dass ein gewisses Arbeitsverständnis einiger ihrer Grundlagen notwendig ist, damit man begreift, warum sich die einzelnen Render-Ver- fahren in einer bestimmten Art und Weise verhalten, welche Vorteile und welche Grenzen sie aufweisen und – nicht zuletzt – warum sie welche ästhetischen Ergebnisse hervorbringen. Seit der Zeit des antiken Griechenland, also seit rund 450 v. Chr., glaubte man, dass die Augen Licht aussenden, welches die Objekte streift und sie der Wahrnehmung zugänglich macht.19 Es war der bereits er- wähnte arabische Gelehrte Alhazen, der zu Beginn des 11. Jahrhunderts 19 Ein Überblick über die historische Entwicklung der Vorstellungen über die Natur des Lichts findet sich in Kebeck (2006: 60 ff.). Render-Verfahren 173 feststellte, dass Licht sich ausgehend von einer Quelle strahlenförmig ausbreitet (Kebeck 2006: 66). Erst im 17. Jahrhundert verfeinerten sich die Auffassungen von der physikalischen Natur des Lichts, als zunächst Christiaan Huygens20 dessen wellenförmigen Ausbreitungsmechanismus propagierte – eine These, die wenig später von Sir Isaac Newton scheinbar widerlegt wurde. Newton nämlich stellte fest, dass sich Licht durch ein Prisma in seine Bestandteile zerlegen lässt und schloss daraus, dass es aus Partikeln beschaffen sein müsse – eine Theorie, die er 1704 in Optics veröffentlichte. Newtons Vorstellung dominierte bis ins frühe 19. Jahrhun- dert, als Thomas Young und Augustin-Jean Fresnel Phänomene wie die Lichtbeugung und die Polarisation von Licht untersuchten, Phänomene, die sich nur mit der Wellentheorie beschreiben lassen, wie Maxwell 1864 in seinem A Dynamical Theory of the Electromagnetic Field darlegte. Es ist sicher kein Zufall, dass ausgerechnet Maxwell die Dreifarbentheorie des Sehens als Erster für die Farbfotografie nutzte (Anklin/Gschwind 2003: 26). Die Quantentheorie elektromagnetischer Wellen wurde zunächst um 1900 von Max Planck eingeführt mit dem Versuch, das Abstrahlungsver- halten eines schwarzen Körpers (blackbody radiation) zu erklären. Albert Einstein bestimmte 1905 die Natur der Photonen als Bosonen, nämlich als Teilchen, die einen ganzzahligen Spin besitzen. Jedes Photon entspricht ei- ner exakt bestimmbaren Quantität von Energie, die durch seine Frequenz definiert wird. Einstein konnte damit den sogenannt fotoelektrischen Effekt erklären, der dann beobachtet wird, wenn ein Photon mit einer bestimmten Frequenz auf eine Metallplatte in einem Vakuum trifft und dadurch Elektronen freisetzt (Williamson et al. 1983: 141). Wie und warum Licht in einer bestimmten Art und Weise mit Materie interagiert, konnte Niels Bohr 1913 anhand des Wasserstoffatoms zeigen, dessen Spektral- linien er durch die diskreten Zustände des Elektrons erklärte. Die verständlichste Erläuterung dieses Sachverhalts habe ich bei Glassner (1995: 681 ff.) gefunden. Ohne in die Details dieser Darstellung gehen zu wollen, möchte ich doch Glassners Bild von den Slots verwen- den, also von Andockstellen. Ein Photon wird dann absorbiert, wenn es eine bestimmte dem energetischen Zustand der Elektronen eines Atoms entsprechende Wellenlänge aufweist, da die Energie in direktem Verhält- nis zur Wellenlänge steht. Wird es absorbiert, verschwindet es gänzlich, löst sich auf und versorgt ein entsprechendes Elektron mit Energie. Um diese Erkenntnis nun in eine für die weitere Diskussion nutzbare Form zu 20 Huygens, Christiaan (1690): Traité de la lumière, où sont expliquées les causes de ce qui luy arrive dans la reflexion, et dans la refraction. Et particulièrement dans l’etrange refraction du cristal d’Islande. Leiden: Pierre van der Aa. Ein Originaldruck befindet sich in der Bib- liothek der Eidgenössischen Technischen Hochschule in Zürich. 174 Beleuchtung und Rendern bringen, lässt sich sagen, dass die Reaktion eines Materials auf Licht nicht nur von seiner Oberflächenbeschaffenheit abhängt, wie dies von den ent- sprechenden Shading-Modellen in der Computergrafik umgesetzt wird, sondern ebenso von der atomaren bzw. molekularen Struktur, die dafür verantwortlich ist, welche Photonen absorbiert oder reflektiert werden, und damit für das visuell wahrnehmbare Erscheinungsbild. Glassner (1995: 704 ff.) erläutert weiter den Unterschied zwischen thermischer und lumineszierender Lichtemission. Thermische Emission lässt sich dann beobachten, wenn ein Objekt überschüssige Wärmeenergie in Form von Licht abstrahlt, wie zum Beispiel eine Glühlampe, die bei einer Leistung von 100 Watt die enorme Summe von 1020 Photonen pro Sekunde aussendet. Ein Beispiel für Lumineszenz ist Phosphoreszenz, die dann vorhanden ist, wenn Materialien die Energie von Photonen über einen gewissen Zeitraum speichern und dann wieder abgeben. Nach wie vor bleibt der Welle-Teilchen-Dualismus bestehen, den Niels Bohr als zwei komplementäre Sichtweisen bestimmt hat. Das heißt, dass es Phänomene gibt, die sich nur durch die Quantentheorie erklären lassen, während andere Erscheinungen direkt aus der Wellenform resul- tieren – namentlich Interferenzen, wie sie dann zu beobachten sind, wenn sich dünne Materialfilme – wie Öl auf Wasser – auf einem Trägermaterial befinden, oder Phänomene der Lichtbeugung, zu denen auch das blaue Erscheinungsbild des wolkenfreien Himmels zählt. Paul Scherrer pflegte den Welle-Teilchen-Dualismus anhand einer Person zu erläutern, die zwei Pässe hat, aber immer nur einen von ihnen zeigt (Zollinger 1999: 19). Jensen (2001: 12) zitiert vier unterschiedliche physikalische Modelle des Lichts, die sich historisch entwickelt haben: z Strahlenoptik: Fasst Licht als unabhängige Strahlen auf, die sich in unterschiedlichen Medien gemäß einem Set von geometrischen Regeln ausbreiten. Die Strahlenoptik, auch geometrische Optik ge- nannt, kann die meisten sichtbaren Phänomene wie Reflexion und Lichtbrechung (refraction) erklären. z Wellenoptik: Modelliert Licht als elektromagnetische Wellen und kann alle Phänomene der Strahlenoptik erklären sowie zusätzlich Interferenz und Beugung. z Elektromagnetische Optik beinhaltet die Wellenoptik und erklärt darüber hinaus Polarisation, also die räumlich geordnete Aus- richtung der elektromagnetischen Strahlung, und die Dispersion, das heißt den wellenlängenabhängigen Brechungsindex, der dazu führt, dass sich weißes Licht an einem Prisma in seine farbigen Bestandteile auffächert. Render-Verfahren 175 z Photonenoptik: Bietet die Grundlage zum Verständnis der Interak- tion zwischen Licht und Materie. Interessanterweise greift keiner der bisher üblichen Render-Algorithmen die Einsichten der modernen Physik auf. Sie bleiben in ihrem Wesen der Strahlenoptik verpflichtet, also dem archaischsten der aufgeführten Mo- delle. 9 Bewertung und Fehlerkorrektur nach Greenberg et al. (1997) Gemäß Donald Greenberg (et al. 1997: 3), dem langjährigen Leiter des Computergrafik-Programms an der Cornell University,21 gibt es im- mer noch drei kritische Bereiche des Renderns, nämlich genaue lokale Reflexionsmodelle, die Simulation der Lichtausbreitung (light transport) sowie wahrnehmungspsychologische Faktoren, und damit drei mögliche Fehlerquellen, welche die Ergebnisse des Renderns in negativer Weise beeinflussen können. Es ist an dieser Stelle vielleicht nützlich, nochmals darauf hinzuweisen, dass im Rendering alle bereits definierten Informa- tionen zu den Objekten der abzubildenden Szene miteinander verknüpft werden. Das bedeutet ein sehr störungsanfälliges Zusammenspiel von unterschiedlichsten Elementen, die außerdem in unterschiedlichen Kon- texten von verschiedenen Individuen mit verschiedenen Werkzeugen in die Szene eingefügt wurden. Im ersten Schritt, der goniometrischen Messung und Modellierung, geht es um die Oberflächeneigenschaften. Durch die hierarchische Organi- 21 Zu Geschichte und Bedeutung dieses weltweit führenden Programms siehe Carlson (2003, Section 5 auf http://accad.osu.edu/~waynec/history/lesson5.html). 176 Beleuchtung und Rendern 10 Original-Cornell-Box 11 Fotografierte Cornell-Box 12 Gerenderte Cornell-Box 13 Differenz zwischen Abb. 11 und Abb. 12 sation von Shadern in Netzwerken pflanzen sich eventuell problematische Oberflächenbeschreibungen fort (Abb. 9). Es braucht also Feedback-Schlei- fen, welche die gemessenen mit den modellierten Daten vergleichen. Im zweiten Schritt, der Simulation der Lichtausbreitung, geht es im eigentli- chen Sinn um das Render-Verfahren selber und dessen Algorithmen, die gemäß Greenberg mit radiometrischen Informationen aus einer analogen Szene abgeglichen werden sollten. Am Ende steht die visuelle Evaluation des Resultats. Dafür hat sich die sogenannte Cornell-Box (Abb. 10) eta- bliert: eine Anordnung von vier Wänden, wobei die beiden einander ge- genüberliegenden Seitenwände mit zwei Primärfarben – ursprünglich Rot und Blau, heute meist Rot und Grün – ‹gestrichen› sind, die Rückwand grau und der Boden entweder grau oder mit einem Schachbrettmuster eingefärbt ist. An der Decke befindet sich ein diffuses Flächenlicht. Wie der Name vermuten lässt, wurde diese standardisierte Anord- nung ursprünglich an der Cornell University geschaffen, und zwar zu Beginn der 1980er-Jahre, als es darum ging, die Überlegenheit der dort entwickelten Radiosity-Methode, die ich sogleich erläutern werde, zum Render-Verfahren 177 Rendern von realistisch wirkenden Bildern zu belegen (Goral et al. 1984: 220). Aus diesem Grund sind alle Flächen diffus matt – eine Eigenschaft, die sich mit Radiosity am besten rendern lässt. Die visuelle Kontrolle fin- det über den Vergleich des gerenderten mit einem analogen fotografierten Bild statt (Abb. 11–12; zur Methode siehe Goral et al. 1984: 221). Die beiden einander entsprechenden Bilder lassen sich außerdem durch ein Differenz- bild vergleichen, das durch Subtraktion der Farbwerte entsteht (Abb. 13). Meist werden in diese Box spiegelnde oder matt spiegelnde, matte und transparente Kugeln oder Würfel eingefügt, um die Auswirkungen unter- schiedlicher Verfahren zu veranschaulichen, wie wir später sehen werden. Es ist klar, dass sich Greenbergs Überlegungen auf möglichst reali- tätsgetreu wirkende Resultate beziehen; dies ist jedoch nicht als Beleg da- für zu werten, dass sich alle Anstrengungen der Computergrafik-Spezia- listen auf dieses Ziel hinbewegen. Indem Greenberg et al. ans Ende ihrer Evaluationskette die visuelle Kontrolle des Resultats setzen, beschränken sie die physikalische Genauigkeit eines potenziell optimalen Verfahrens auf eine Genauigkeit, die dem Wahrnehmungssystem entspricht (Green- berg et al. 1997: 4). Lokale und globale Beleuchtungsmodelle In der Geschichte der computergenerierten Bilder hat sich eine primäre Aufteilung von Render-Verfahren in zwei Kategorien etabliert, die sich allerdings nicht immer klar unterscheiden lassen: lokale und globale Be- leuchtungsmodelle (local and global illumination). Unter lokaler Beleuchtung versteht man im engeren Sinne nur die di- rekte Interaktion eines Lichts mit einer Oberfläche unter Berücksichtigung der Lichtstärke, -farbe und des Einfallswinkels sowie des Reflexionsver- haltens der Oberfläche. Oder etwas einfacher ausgedrückt: Ein lokales Beleuchtungsmodell verfolgt ausschließlich den direkten Weg der Licht- strahlen vom Beleuchtungskörper über ein Objekt zum Auge des Beob- achters oder der Kamera. In den allerersten Render-Verfahren, die dieser strikten Interpretation lokaler Beleuchtung entsprachen, waren die Ober- flächen ideal diffus im Lambertschen Sinne (→ 95) und das Licht ein Um- gebungslicht von konstanter Intensität – eine Anordnung, die – wie Hall (1989: 67) mit beabsichtigter oder unbeabsichtigter Ironie schreibt – sich sehr gut für isoliert im Raum schwebende Objekte im Sonnenlicht eignet. In allen anderen Situationen nämlich kommen weitere Effekte hinzu, auf jeden Fall Schatten, oftmals auch Reflexionen der Umgebungsgeometrie. Meist werden heute solche Effekte in die lokale Beleuchtung einge- schlossen, obwohl es sich strikt gesehen bereits um Elemente eines globa- 178 Beleuchtung und Rendern 14–15 A Beautiful Mind: Kaustik in Vorbereitung (oben links); an die Szenengeometrie angepasst (oben rechts) 16 Fertig gerendertes Bild mit Kaustik len Beleuchtungsmodells handelt. Denn unter einer globalen Beleuchtung versteht man die Lichtausbreitung inklusive Interaktionen mit weiteren Szenenelementen und Volumina, damit also auch diffuse und gespiegelte Reflexionen, insbesondere die Farbremission und die Kaustik. Als Farb- remission (color bleeding) bezeichnet man die farbige Reflexion von diffusen Oberflächen, wie man sie in der Cornell-Box sehr schön sieht, wo die rote oder grüne Wand einen rötlichen bzw. grünlichen Schein auf die Umge- bung wirft. Kaustik (caustics) ist ein Lichtmuster, wie es am Boden eines Swimmingpools zu beobachten ist. Es entsteht durch Lichtbrechung und interne Reflexionen (Abb. 14–16). In einer realen Umgebung, besonders in Innenräumen mit mehreren Lichtquellen, mit begrenzenden Wänden, Fenstern und Mobiliar unter- schiedlicher Materialisierung, sind die Lichtverhältnisse extrem komplex. Licht wird durch eine Unzahl von Oberflächen reflektiert, gebeugt und gebrochen. Globale Modelle versuchen, diese Komplexität nachzubilden. Terminologisch besteht das Problem der Unterscheidung zwischen lokaler und globaler Beleuchtung darin, dass sich der Gebrauch des Be- griffs lokale Beleuchtung immer stärker ausgedehnt hat. Dies deshalb, weil er eng mit dem Raytracing verknüpft ist – einem spezifischen Render- Verfahren, das ich in Kürze erläutern werde: In dem Maß, wie sich das Render-Verfahren 179 17 Szene gerendert mit lokaler Beleuchtung 18 Szene gerendert mit globaler Beleuchtung Raytracing weiterentwickelt hat, wurde auch der Begriff lokale Beleuchtung erweitert. Manche Autoren, nicht zuletzt Turner Whitted, der das Raytra- cing 1980 in der Computergrafik etabliert hat, ordnen dieses Verfahren deshalb den globalen Beleuchtungen zu. Oftmals bleibt der Begriff globale Beleuchtung aber jenen Verfahren vorbehalten, welche diffuse Reflexionen berücksichtigen. Trotz dieser Unschärfe ist es sinnvoll, über die Unter- schiede nachzudenken (Abb. 17–18). Die Render-Gleichung (rendering equation), die Jim Kajiya22 von der CalTech 1986 formuliert hat, versucht, alle diese Faktoren zu erfassen: I (x, x’) = g (x, x’) [ ε (x, x’) + ∫s ρ (x, x’, x’’) I (x’, x’’) dx’’] Dabei ist z I (x, x’) die Lichtintensität I von Punkt x nach Punkt x’ z g (x, x’) die gegenseitige Sichtbarkeit der Punkte x und x’ z ε (x, x’) die Strahlung von x bis x’ 22 Kajiya, James T. (1986): The Rendering Equation. In: Computer Graphics, Bd. 20, Nr. 4, August 1986; S. 143–150. 180 Beleuchtung und Rendern z ρ (x, x’, x’’) der geometrische Faktor sämtlicher Lichtreflexionen von x’’ nach x über eine Oberffläche am Punkt x’ z I (x’, x’’) die Lichtintensität I von Punkt x’ nach Punkt x’’ Schlicht und ergreifend erfasst diese Gleichung alle in eine Szene abge- gebene Strahlung sowie deren Reflexionen innerhalb der Szene unter Berücksichtigung der Energieerhaltung.23 Nun muss man diese elegant anmutende Gleichung nicht in allen De- tails verstehen; es reicht aus, zu ahnen, wie komplex das Licht sich in einer Szene ausbreitet. Eben deshalb sind die bisher entwickelten Render-Algo- rithmen lediglich Vereinfachungen der Render-Gleichung. Raytracing Nicht nur Mitchell (1992: 154), auch andere Autoren haben darauf hinge- wiesen, dass die Grundidee des Raytracing schon von Albrecht Dürer in seiner Unterweisung der Messung24 (1525) visualisiert wurde (Abb. 19): Man nehme eine Schnur, befestige sie an einem festgelegten Blickpunkt und übertrage die Schnittpunkte dieser Linie mit der Projektionsfläche auf eine Zeichenfläche, um ein genaues Bild zu erhalten (Kebeck 2006: 117). Tatsächlich ist die Idee noch älter – im Grunde so alt wie die geometri- sche Optik, denn sie gründet auf der Einsicht in den Strahlencharakter des Lichts, das sich gemäß einfachen geometrischen Regeln gerade ausbreitet. Schon die Camera obscura machte sich diese Regeln zur Projektion eines dreidimensionalen Raums auf ein zweidimensionales Abbild zunutze. Allerdings gibt es im Rendering einen kleinen, aber nicht unwichtigen Unterschied zur Lichtausbreitung in der Natur, denn der Ausgangspunkt zur Verfolgung der Strahlen wird bei der Berechnung eines Bildes nicht in der Lichtquelle selbst positioniert, sondern geht den umgekehrten Weg vom Auge des Betrachters bzw. der Kamera. Man nennt dies auch Back- ward-Raytracing. Dies aus dem einfachen Grund, weil sich mit dieser Um- kehrung alle jene Lichtstrahlen, die nicht unmittelbar bildwirksam sind, ignorieren lassen. So wird im einfachsten Fall von der Kamera aus durch 23 Eine sehr gute Einführung sind die Skripts zur Computergrafik auf der Website der Brown University (= http://www.cs.brown.edu) oder deutsch beispielsweise: Schie- dermeier, Christian (2004): Computergrafik 1. Vorlesungsskript, Georg-Simon- Ohm- Fachhochschule Nürnberg, Fachbereich Informatik. 24 Originaltitel: Underweysung der messung, mit dem zirckel uñ richtscheyt, in Linien ebnen unnd gantzen corporen durch Albrecht Dürer zusamen getzoge und zu nutz alle kunstlieb habenden mit zu gehörigen figuren in truck gebracht. Nürnberg 1525. Eine Originalaus- gabe befindet sich in der Bibliothek der Eidgenössischen Technischen Hochschule in Zürich. Render-Verfahren 181 19 Der Zeichner der Laute von Albrecht Dürer jeden Pixel der Bildebene ein Strahl in den abzubildenden Raum geschickt, bis er auf ein Objekt trifft und dort den Farbwert abtastet, der sich zusam- mensetzt aus den Shader-Informationen und dem auftreffenden Licht. Dieses Verfahren ist eine einfache Abtastung, die allerdings in gewissen Fällen störende Artefakte erzeugt, mit denen ich mich später beschäftigen werde (→ 183 f.). Diese Methode hat sich in der Computergrafik aus einem spezifischen Problem heraus entwickelt. Da die dreidimensionalen Objekte aus im ei- gentlichen Sinne durchsichtigen Drahtgittern bestanden, ging es zunächst darum, das sogenannte Hidden-Line-Problem und damit das Pro blem der sichtbaren Oberflächen zu lösen. Diese Versuche waren jedoch zu- nächst – nämlich Ende der 1960er-, Anfang der 1970er-Jahre – nicht in der ästhetischen Bildproduktion angesiedelt, sondern in der geometrischen Optik und in der computergestützten Untersuchung des Ausbreitungsver- haltens radioaktiver Strahlen. «We’d trace radiation […] and we observed that if we traced light rays around, instead of neutrons and gamma rays, we would in effect, simulate photography»,25 erklärte der Physiker Phillip Mittelman (cinefex 8: 27).26 Weite Akzeptanz fand das Verfahren aber erst 25 «Wir verfolgten Strahlen […] und beobachteten dabei, dass wir Fotografie simulieren konnten, wenn wir – statt Neutronen oder Gammastrahlen – untersuchten, wie sich das Licht ausbreitet.» 26 Grundlegende Prinzipien des Raytracing hielt Phillip Mittelman, der Begründer der Firma MAGI, in seinen 1967 initiierten Untersuchungen fest, die 1971 von Robert Goldstein und R. Nagel unter dem Titel 3-D Visual Simulation veröffentlicht wurden. In: Simulation, Januar 1971, S. 25–31. Vgl. Appel, Arthur (1968): Some Techniques for Shading Machine Renderings of Solids. In: AFIPS 1968 Spring Joint Computer Conference, S. 37–15, und Warnock, John E. (1969): A Hidden Line Algorithm for Halftone Picture Representation. In: University of Utah, Technical Report, S. 4–15. Masson (1999: 268) führt außerdem eine Abbildung an, die bereits 1963 an der University of Maryland mittels Raytracing entstanden ist. 182 Beleuchtung und Rendern mit der Publik ation An Improved Il- lumination Model for Shaded Display von Turner Whitted 1980.27 Whit- ted baute auf die frühen Versuche auf, die gemäß seiner Darstellung bereits in der Lage waren, in rudi- mentärer Form gespiegelte Refle- xionen, Schatten und Transparenz 20 Raytracing von Turner Whitted darzustellen. Seine erweiterte For- mulierung des Raytracing-Algo- rithmus beinhaltet die zusätzliche, sogenannt rekursive Berechnung von sekundären Strahlen, die entweder vom ersten Objekt auf weitere Objekte reflektiert wurden oder aber mittels Brechung in einem transparenten Ob- jekt ihren Pfad änderten. Mit dieser Erweiterung ließen sich beispielsweise exakte Spiegelungen auf Metall und Verzerrungen durch Lichtbrechung in Glas rendern (Abb. 20). Die Anzahl der Rekursionen lässt sich im Prinzip frei wählen. Sie wird in den Render-Voreinstellungen der Software bestimmt, wobei na- türlich mit jedem zusätzlichen Schritt die Datenmenge und damit die Render- Zeit zunehmen. Im Falle von Abb. 20 waren das 1978, als das Bild im Rahmen eines kleinen Animationsfilms mit dem Titel The Compleat Angler entstand, 74 Minuten bei einer Auflösung von 480 mal 640 Pixeln und einer extrem reduzierten Farbtiefe von 9 Bit pro Pixel. Die Vorteile und Nachteile sowie die ästhetischen Auswirkungen werden in diesem Bild selbst dann sichtbar, wenn man vom Mangel an Farbtiefe und Szenenkomplexität absieht – von zwei Problemen also, die allein den damaligen Limitierungen der Rechnerkapazität zuzuschreiben sind, mit dem Render-Algorithmus als solchem also wenig zu tun haben. Es ist kein Zufall, welche Objekte in welcher Materialisierung Whitted ge- wählt hat, denn Metall- und Glaskugeln geben die positiven Eigenschaften des Raytracing – nämlich die Abbildung von Glanzlichtern, Spiegelungen sowie Transparenz – am besten wieder. Erstens wirken die Oberflächen allzu glänzend. Eine leichte Diffusion der Spiegelung aber hätte ein Sha- ding-Modell mit Mikrofacetten erfordert, das erst später erfunden wurde (→ 96). Zweitens sind die Schatten hart; weiche Schatten lassen sich im Raytracing erst darstellen, wenn Bereichslichter eingesetzt und pro Pixel mehrere Samples berechnet werden. Drittens ist das Bild von vorne bis hinten scharf, weil die virtuelle Kamera – wie oben dargestellt – einer 27 Whitted, Turner (1980): An Improved Illumination Model for Shaded Display. In: Com- munications of the ACM, Bd. 23, Nr. 6, S. 343–349. Render-Verfahren 183 Lochkamera entspricht. Einige dieser ästhetischen Probleme wurden im Lauf der Zeit gelöst, entweder durch verbesserte Shader oder durch Post- processing. Bis heute sind Raytracing-Verfahren jedoch nicht imstande, korrekte Schatten und damit die Kaustik von transparenten Objekten darzustellen, indirektes Licht von reflektierenden Objekten zu berechnen oder diffuse Reflexionen mit Color Bleeding zu erzeugen, also einige der wichtigsten globalen Effekte. Der versierte Computergrafiker hat aber eine Reihe von Hacks zur Hand, um diese Schwachstellen zu tarnen. Darum sind jene Zeiten längst vorbei, in denen man den Raytracing-Look sofort identifizieren konnte. Vielmehr ist es heute das meistverwendete Render- Verfahren in der Filmproduktion, nicht zuletzt deshalb, weil Aufwand und Ertrag in einem angemessenen Verhältnis stehen. Da Abtastung nicht nur das Fundament des Raytracing bildet, son- dern in den meisten digitalen Prozessen eine wichtige Rolle spielt, möchte ich ein paar grundlegende Probleme dieser Technik aufgreifen.28 Schon Whitted hatte darauf hingewiesen, dass ein einfaches Sampling – realisiert durch eine Abtastung pro Pixel – in vielen Fällen nicht ausreicht, weil es Aliasing erzeugt, und zwar namentlich in folgenden Fällen: 1) At regions of abrupt change in intensity such as the silhouette of a surface, 2) at locations where small objects fall between sampling points and disap- pear, and 3) whenever a sampled function (such as texture) is mapped onto the sur- face.29 (Whitted 1980: 346) In allen diesen Fällen ist eine Überabtastung (over sampling) notwendig, das heißt, es wird pro Pixel mehr als eine Stichprobe entnommen. Whitted schlägt beispielsweise vier Samples pro Pixel vor. Diese werden miteinan- der verglichen. Erzeugen sie gleiche Farbwerte, wird noch abgeklärt, ob sich allenfalls ein Objekt geringerer Ausdehnung im abgetasteten Bereich befindet. Ergeben sie unterschiedliche Farbwerte, so müssen diese mög- lichst intelligent gefiltert werden, sodass ein Durchschnitt entsteht, der dem visuellen Eindruck aus Distanz entspricht. Inzwischen hat sich eine Reihe von höher entwickelten Abtasttechniken etabliert, die flexibel an die Aufgabenstellung angepasst werden können: 28 Weitere Informationen zum Themenkreis Abtastung und Filtern finden sich in Poynton (1996). 29 «1) An Stellen mit abruptem Intensitätswechsel wie bei Silhouetten, 2) wenn kleine Objekte zwischen die Stichproben fallen und deshalb verschwinden, und 3) immer wenn eine abgetastete Funktion (wie eine Texture Map) auf eine Oberfläche projiziert wird.» 184 Beleuchtung und Rendern 21 Artefakte bei der Abtastung einer 22 MIP-Map mit Texture Maps in Texture Map u nterschiedlicher Auflösung z Adaptive Abtastung erhöht die Rate selektiv in jenen Bereichen, in denen kleinräumige oder signifikante Veränderungen der Lichtverhältnisse oder der Geometrie festgestellt werden. z Importance Sampling ist sozusagen die lernfähige Variante des adaptiven Abtastens, indem bereits bekannte und bewährte Funktionen anhand der spezifischen Probleme des zu rendernden Bildes modifiziert wer- den. z Stochastische Abtastung: Samples werden aufgrund von einfachen Wahr- scheinlichkeitsfunktionen verteilt. Texturen stellen eine besondere Herausforderung an die Abtastung dar. Ein gutes Beispiel für die Problemlage ist ein Schachbrettmuster, wie es seit Beginn der Computergrafik sehr beliebt ist. Wird damit beispielsweise ein Boden belegt, der sich bis an den Horizont erstreckt, entstehen ohne passende Gegenmaßnahmen die in Abb. 21 dargestellten Artefakte. Entweder werden die Muster durch Mittelwertbildung aufgelöst und unscharf in Grau wiedergegeben, oder die Kanten verschieben sich in kaum vorhersehbarer Weise. Deshalb hat sich eine Technik namens MIP-Mapping etabliert, welche die Abtastungsprobleme von Texturen re- duzieren. MIP ist die Abkürzung von multum in parvo, zu Deutsch viel in wenigem. Dabei werden die Texturen hierarchisch geordnet in verschiede- nen Auflösungen im Shader abgelegt (Abb. 22). Beim Rendern kann dann ad hoc die der Distanz zur Kamera entsprechende Auflösung aufgerufen werden. Die meisten computergenerierten Szenen, die vor 2000 gerendert wurden, haben dazu das Raytracing-Verfahren verwendet. Weiterführende Literatur z Shirley, Peter; Morley, R. Keith (2003): Realistic Ray Tracing. Natick, Mass.: AK Peters. Render-Verfahren 185 Photon Mapping In der zweiten Hälfte der 1990er-Jahre hat Henrik Wann Jensen eine Erweiterung des Raytracing zur Berechnung der globalen Beleuchtung entwickelt und unter dem Titel Realistic Image Synthesis Using Photon Mapping 2001 publiziert.30 Trotz des Namens ist Photon Mapping kein quantenmechanisches Modell, sondern ebenfalls der geometrischen Optik verpflichtet. Photonen in Jensens Verfahren entsprechen nicht dem physi- kalischen Begriff, sondern sind vereinfachte Versionen davon, Pakete von Photonen unterschiedlicher Frequenz, wenn man so will, denn es sind sehr viel weniger als in der Natur. Das Photon-Mapping-Verfahren besteht aus zwei Phasen: dem Photon-Tracing und dem eigentlichen Rendering (Jensen 2001: 54). Im Photon-Tracing werden die Photonen von den Lichtquellen aus in die Szene geschossen, und zwar anhand einer Evaluation, wo in der Szene sich geometrische Strukturen befinden. Die Energie der einzelnen Quel- len wird auf die einzelnen Photonen verteilt. Wenn diese auf ein Objekt treffen, werden sie entweder reflektiert, durchgeleitet oder absorbiert. Das funktioniert ähnlich wie ein Forward-Raytracing, das bei den Lichtquellen beginnt. Wenn das Photon auf eine diffuse Oberfläche trifft, wird es in ei- ner sogenannten Photon-Map gespeichert. Diese Photon-Map ist der eigentliche Clou des Verfahrens. Denn sie enthält alle wichtigen Informationen über das Licht, und zwar in einer von der Komplexität der dreidimensionalen Geometrie unabhängigen Datenstruktur, die beim anschließenden Render-Prozess via Raytracing abgetastet wird. Diese Unabhängigkeit von der Szenenkomplexität ist ein wichtiger Vorteil gegenüber dem Radiosity-Verfahren, das ebenfalls glo- bale Beleuchtung berechnet, denn mit Radiosity nimmt die Berechnungs- zeit mit der Szenenkomplexität exponentiell zu. Und weil die Lichtinfor- mation im Photon Mapping in physikalisch korrekter Weise als Energie gespeichert ist, wird die Energieerhaltung berücksichtigt, und es lassen sich globale Effekte wie Color Bleeding und Kaustik berechnen. Wie beim Raytracing kommen beim Photon-Tracing Abtastungsverfahren zum Ein- satz, und zwar das sogenannte Russian Roulette, ein Importance-Sampling, um diffuse und gespiegelte Reflexionen datensparend mit Wahrschein- lichkeitsfunktionen zu berechnen (Jensen 2001: 61 ff.). Die Resultate sehen sehr gut aus (Abb. 23–24). Ein mögliches Problem ist allenfalls ein Rau- 30 Seine Grundidee hatte er erstmals veröffentlicht in: Jensen, Henrik Wann; Christensen, Niels Jørgen (1995): Photon Maps in Bidirectional Monte Carlo Ray Tracing of Complex Objects. In: Computers & Graphics, Bd. 19, Nr. 2, März 1995, S. 215–224. Siehe auch Jen- sens Website: http://graphics.ucsd.edu/~henrik/. 186 Beleuchtung und Rendern 23 Cornell-Box mit Photon Mapping 24 Szene mit Photon Mapping geren- gerendert inklusive Kaustik und Farb- dert remission schen, das besonders dann sichtbar wird, wenn die Anzahl der Photonen zu gering ist. Literaturhinweis: z Als einfacher einführender Text, auf dem Portal der ACM verfügbar: Yu, Tin-Tin; Lowther, John; Shene, Ching-Kuang (2005): Photon Mapping Made Easy. In: ACM SIGCSE Bulletin, Bd. 37, Nr. 1, 2005, S. 201–205. Radiosity Eine weit ältere Methode zur Berechnung globaler Beleuchtung ist Radio- sity – ein Verfahren, das seine Grundlagen aus der Theorie der Strahlungs- übertragung bezieht, die bereits 1926 von Ziro Yamauti formuliert worden sein soll31 und 1934 von Henry H. Higbie zur Berechnung der Lichtaus- breitung in Lighting Calculations32 vorgestellt wurde – zu einer Zeit also, als die computertechnischen Möglichkeiten noch nicht ausreichten, solche Datenmengen zu verarbeiten. Trotzdem sollen entsprechend der oben zitierten Quelle bereits in den 1940er-Jahren zwei Wissenschaftler vom MIT – Parry Moon und Domina Eberle Spencer – mit Higbies Verfahren die ersten Bilder erzeugt und an der National Technical Conference of the Illu- minating Engineering Society of North America gezeigt haben, indem sie die Luminanz jeder Fläche von Hand berechnet und das Bild aus ausgeschnit- tenem Papier mit den entsprechenden Farben aus den Munsell-Farbta- feln33 zusammengesetzt haben (Abb. 25; siehe auch Masson 1999: 389 f.). 31 Siehe History of Radiosity (= http://www.helios32.com/resources.htm#History). 32 Higbie, Henry H. (1934): Lighting Calculations. New York: John Wiley & Sons. 33 Benannt nach dem Maler Albert Henry Munsell, der zwischen 1905 und 1916 ein wahr- nehmungsgerechtes dreidimensionales Farbsystem entworfen hat. Siehe den Eintrag zu Munsell auf http://www.colorsystem.com. Render-Verfahren 187 Diese Vorarbeiten hatten zu- nächst keinen Einfluss auf die Ent- wicklung der Render-Verfahren. In die Computergrafik eingeführt wurde die Radiosity-Methode nämlich erst 1984 von einer Gruppe um Cindy Goral34 von der Cornell- Universität. Radiosity ist vom Denk- ansatz her ein radikal anderes Ver- fahren als Raytracing, denn es be- ruht auf der Strategie, in einer ab- 25 Radiosity von Parry Moon und Do- geschlossenen Szene im Vakuum mina Eberle Spencer zunächst den Energieaustausch zwischen allen Flächen – den Leuchtkörpern und Reflektoren – zu berech- nen, wobei ausschließlich ideal diffus reflektierende, also Lambertsche Reflektoren vorgesehen sind. Dieses Verfahren geht auf die thermische Berechnung des Wärmeaustauschs in einem geschlossenen Raum zurück. In einem ersten Schritt wird eine hypothetische Begrenzung des Raums (enclosure) definiert, zum Beispiel in Form einer Halbkugel. Die Wände dieser Raumbegrenzung bestehen ebenfalls entweder aus diffusen Reflektoren oder aus ideal diffusen Leuchtkörpern. Gerichtete Strahler werden in diffuse Strahler umgerechnet. In einem zweiten Schritt wird der sogenannte Formfaktor (form factor) erstellt (Abb. 26), der definiert wird als der Bruchteil der von einer bestimmten Fläche abgestrahlten Energie, die auf eine reflektierende Fläche trifft. Im Fall von ideal diffusen Reflektoren ist das eine rein geometrische Berechnung in Abhängigkeit von der Form, der Ausdehnung, der Position und der Orientierung der beteiligten Flä- chen. Er ist proportional dem Pro- dukt des Cosinus von Ausfall- und des Einfallswinkel (zu den mathe- matischen Grundlagen siehe Goral et al. 1984: 126 ff.). Zur Berechnung aller Form- faktoren müssen die Flächen in Meshes, also kleine ebene Flächen- einheiten, aufgegliedert werden. Anschließend werden die Form- faktoren für alle möglichen Flä- 26 Formfaktor mit Variablen 34 Goral, Cindy M.; Torrance, Kenneth E.; Greenberg, Donald P.; Battaile, Bennett (1984): Modeling the Interaction of Light Between Diffuse Surfaces. In: Computer Graphics, Annual Conference Proceedings, Bd. 18, Nr. 3, S. 212–222. 188 Beleuchtung und Rendern chenbeziehungen mittels eines Programms systematisch berechnet und in einer Matrix abgelegt. Eben weil alle möglichen Interreflexio- nen zwischen allen Flächen berech- net werden, ist Radiosity unabhän- gig vom Betrachtungswinkel und muss deshalb nur einmal pro Szene evaluiert werden. Auf der Website der Brown University35 findet sich ein animiertes Java-Applet, das die- sen Vorgang sehr schön illustriert. 27 Cornell-Box mit Radiosity gerendert Schaut man dieses Programm an, so wird sofort klar, wo Radio- sity seine Grenzen hat, denn die Abtastung sämtlicher Formfaktoren wird mit zunehmender Anzahl Mes- hes extrem zeitraubend. Dies schlägt sich in exponentiell ansteigenden Render-Zeiten nieder. Deshalb wird Radiosity oftmals nur für ein Bild gerendert, anschließend mit Raytracing simuliert, indem zusätzliche farbige Lichter die Wirkung der Farbremission nachbilden und mit einer Reihe von weiteren Tricks die Schatten diffundiert werden. Der Chefent- wickler der Render-Software Mental Ray, Thomas Driemeyer, hält Radio- sity deshalb schon lange für eine Sackgasse, denn die Szenengeometrien werden immer komplexer. Die Resultate sehen allerdings sehr natürlich aus, besonders die leuchtende Wirkung der hellen Diffusion auf farbigen Flächen, die schönen weichen Schatten und natürlich das Color Bleeding (Abb. 27). Neben den horrenden Render-Zeiten gibt es einen ästhetischen Nach- teil, der darin besteht, dass die Flächen nur ideal diffus sein dürfen;36 des- halb können mit reinem Radiosity auch keine transparenten Objekte oder atmosphärischen Volumina gerendert werden. Insgesamt eignet sich also das Verfahren nur für bestimmte Szenen mit sehr eingeschränkter Mate- rialisierung. Auch die Berechnung von Radiosity ist der Strahlenoptik verpflichtet, mit den bereits beschriebenen Einschränkungen, und die ide- alisierten Annahmen über diffuse Flächen entsprechen nicht den tatsäch- 35 Siehe http://www.cs.brown.edu/exploratories/freeSoftware/catalogs/lighting_ and_shading.html. 36 Allerdings hat eine weitere Gruppe an der Cornell University später eine Variante vorgeschlagen, welche auch nichtdiffuse Oberflächen berücksichtigt, siehe: Immel, Dav id S.; Cohen, Michael F.; Greenberg, Donald P. (1986): A Radiosity Method for Non-Diffuse Environments. In: Computer Graphics, Annual Conference Proceedings, Bd. 20, S. 133–142. Render-Verfahren 189 lichen Gegebenheiten in der Natur. Dass Radiosity trotz dieser Nach- teile Verwendung findet – wenn auch, wie es scheint, zunehmend weniger –, hat das Verfahren seinen reizvoll anmutenden Ergebnissen 28 Radiosity in Fight Club zu verdanken, wie beispielsweise in Moulin Rouge! (USA/AUS 2001, Baz Luhrmann) oder in Fight Club (Abb. 28). Hybride Verfahren und Multipass-Rendering Schon bald nach Einführung von Radiosity wurde vorgeschlagen, dessen Vorteile zu nutzen und gleichzeitig die Nachteile zu kompensieren, indem man es mit Raytracing zu einem hybriden Render-Paket kombinieren würde. Allerdings ist das nur in zwei separaten Durchgängen als Multi- pass-Rendering möglich (Driemeyer 2001: 169), wie es 1987 von Wallace et al.37 vorgeschlagen und beispielsweise für die Darstellung von New York in Spider-Man (USA 2002, Sam Raimi; cinefex 90: 22, 27; Abb. 29) verwen- det, um die diffusen Reflexionen zwischen den Gebäuden wiederzugeben, oder für das Colosseum in Gladiator (cinefex 82: 27; Abb. 30), um die Aufhellung zu rendern. Mit den bidirektionalen Verfahren wie dem Pho- ton Mapping oder dem Metropolis Light Transport (siehe Dutré et al. 2003: 29 Multipass-Rendering in Spider-Man 37 Wallace, John R.; Cohen, Michael F.; Greenberg, Donald P. (1987): A Two-Pass Solution to the Rendering Equation: Synthesis of Ray Tracing and Radiosity Methods. In: Com- puter Graphics, Annual Conference Proceedings, Bd. 21, S. 311–320. 190 Beleuchtung und Rendern 30 Multipass-Rendering in Gladiator 217 ff.) ist dieser Ansatz aber eigentlich überholt oder zumindest nicht mehr notwendig. Multipass-Rendering hat jedoch unabhängig davon weitere Vor- teile und Anwendungsfelder. In einem der frühesten Langspielfilme mit computergenerierten Bildern, James Camerons The Abyss (USA 1989; Abb. 31), hat das Team um Visual Effects Supervisor Scott E. Anderson (in Rogers 1999: 42) die komplexen Szenen mit dem wässrigen, also sowohl transparenten als auch glänzenden Pseudopod in mehreren Durchgän- gen gerendert, um im Hinblick auf die beschränkte Rechnerkapazität die Komplexität der Vorgänge zu reduzieren. Die einzelnen Elemente – ein Reflexionspass, die Lichtbrechung und ein Glanzlichtpass – wurden an- schließend auf der optischen Bank analog zusammengeführt – eine Tech- nik, die übrigens bei Motion-Control-Aufnahmen von Modellen üblich ist, wo man ebenfalls mehrere Durchgänge aufzeichnet. Ähnlich verfuhr man – wie im Abschnitt Transluzenz (→ 100) be- schrieben – in jüngster Vergangenheit mit dem Rendering des Roboters Sonny in I, Robot (USA 2004, Alex Proyas), dessen halbtransparentes Er- scheinungsbild in mehreren Durchgängen gerendert wurde, um einerseits das komplexe Subsurface Scattering zu umgehen und andererseits im Compositing alle Optionen zur Kontrolle des Looks offenzuhalten. 31 Multipass-Rendering in The Abyss Compositing Historisch gesehen war das Compositing – das Zusammenfügen unter- schiedlicher Bildteile zu einem Ganzen – schon lange da, fast seit Beginn der Fotografie: als Collage oder Fotomontage. Und doch ist es ein Verfah- ren, das – so könnte man etwas pathetisch formulieren – sein Wesen erst mit den digitalen Techniken so richtig entfalten konnte. Denn digitales Compositing beruht auf verschiedenen genuinen Eigenschaften des binä- ren Codes, die ich im Kapitel Digitale Bilder: Eigenschaften (→ 49 f.) schon vorgestellt habe: z der Modularität der einzelnen Datenpakete, welche die Bildinformatio- nen enthalten; z der äquidistanten Organisation der Informationen mit Direktzugriff (random access); z der universellen Verfügbarkeit mit Transmission (Einspeisung in ver- schiedene Mediensysteme) und Transformation (Bildbearbeitung oder Wandlung); z der Synthese, also des Bildaufbaus aus den digitalen Daten, die unab- hängig davon funktioniert, ob diese Daten durch Aufzeichnung einer physikalischen Ausgangsstruktur, durch zeichnerische Nachbildung oder durch Modellieren einer imaginären Welt gewonnen werden; z der Programmierbarkeit, welche ein Set von Handlungsanweisungen bezeichnet, die auf die Ausgangsdaten angewendet werden sollen; z und innerhalb der im Abschnitt Zur Frage des Generationenverlusts (→ 45) angesprochenen Einschränkungen einer deutlich geringeren Qualitätsminderung durch mehrfaches Kopieren und Zusammenfügen als in analogen Verfahren. Alle diese Voraussetzungen tragen unmittelbar dazu bei, dass digitales Compositing eine solche Vielfalt an Möglichkeiten bietet, Bilddaten zu arrangieren, zu verknüpfen und zu überlagern. Auch wenn Collage und Fotomontage, Travelling Mattes und die optische Bank dem Compositing vorausgingen, so zeichnet sich mit dem technologischen Umbruch zur digitalen Domäne doch ein Paradigmenwechsel ab, der sich polyform in den unterschiedlichsten Kommunikationszusammenhängen manifestiert und einen deutlichen Wandel von Wahrnehmungs- und Denkmustern mit sich bringt. Film ist nur ein relativ kleines Anwendungsfeld dieser Tech- nologie, denn wir wenden deren Prinzipien an, wo immer wir Texte oder 192 Compositing Grafiken auf dem Computer erstellen. Sie befördert einen assoziativen Denkstil – weil die Verknüpfungen nicht linear oder logisch-kausal sind – und die parallele Verarbeitung von Informationen. Einmal mehr bestätigt sich im Compositing meine Vermutung, dass Ideen schon lange da sind und oftmals nur mit kruden, mühsamen Metho- den umgesetzt werden können, bis der technologische Wandel einfachere und adäquatere Arbeitsabläufe anbietet. Gleichzeitig müssen die opti- mierten Verfahren nicht auch zwangsläufig optimierte ästhetische Resul- tate hervorbringen. Oft ist es ja so, dass der Widerstand, den eine Aufgabe in sich trägt, die Kreativität herausfordert. Jedenfalls bringt es die reiche und kulturell bedeutsame Vorge- schichte des Compositing in Collage und Fotomontage sowie in den optischen Verfahren des Films mit sich, dass über diese Thematik schon einiges an Reflexionen vorhanden ist, und so können wir das anregende Feld der diskursiven Auseinandersetzung betreten. Damit markiert dieses Kapitel einen fließenden Übergang von der mehr technisch orientierten zur stärker geisteswissenschaftlichen Beschäftigung mit dem digitalen Bild und dessen Auswirkungen auf Ästhetik und Narration. Die Technik des Cut-and-Paste repräsentiert die gegenwärtige digi- tale Kultur wie kaum ein anderes Grundprinzip, das sich in ihr ausgebildet hat. Wo immer wir zeitgenössische mediale oder kulturelle Erzeugnisse rezipieren, erleben wir fragmentierte und künstlich zusammengefügte Raum-Zeit-Gebilde. Die Fenster-Metaphorik ist die vielleicht sinnfälligste Manifestation dieses Umbruchs von der zentralperspektivischen Darstel- lung zur Verknüpfung multipler Perspektiven. Rank-Xerox hatte sie – ba- sierend auf einer Idee aus den 1970er-Jahren – 1981 mit dem Xerox Star als grafischem User-Interface, kurz GUI, in die Computerkommunikation ein- geführt, und Apple verbreitete das System mit dem Macintosh ab 1984 im Consumer-Markt. Zahlreiche Fernsehformate – Nachrichten, Dokumen- tationen, Talkshows – präsentieren simultan heterogenes Material unter- schiedlichster Herkunft: Bilder, Schriften, Diagramme, Studio-Interieurs, Fragmente dokumentarischer Aufnahmen. Genauso sind Websites, Zeit- schriften-Layouts oder Bildbände der Cut-and-Paste-Ästhetik verpflichtet. So entsteht heute jeder Text auf dem Computer mittels Textprozessoren und jede Musik mittels Sampler, Multitrackrecording und digitalem Edi- ting – immer mit der Option, Teile zu verdoppeln, zu verschieben, neu anzuordnen oder zu modifizieren. Die Debatte, deren markanteste Äußerungen ich gleich diskutieren werde, wird von einem ideologiekritischen Standpunkt aus geführt – mit dem Tenor, dass das Zusammenwerfen heterogenen Materials in einen vereinheitlichenden Raum eine ideologisch begründete Praxis sei, die ih- Compositing 193 ren Ursprung in einer generellen Tendenz der heutigen Gesellschaft habe, Dissonanzen zu übertünchen und Unterschiede auszulöschen.1 In der Filmwissenschaft wird dieser Diskurs schon seit Jahrzehnten geführt, denn das Verknüpfen von Fragmenten, die aus unterschiedlichen räumlich-zeitlichen Kontexten stammen – die Montage –, ist ein nahezu unverzichtbares Fundament filmischen Erzählens. Die Idee, dieses Ma- terial in dissonanter Art und Weise anzuordnen, um die Zuschauer mit Kontrasten aufzurütteln und einen dialektischen Diskurs zu entfachen, haben namhafte Theoretiker und Praktiker bereits in den 1920er-Jahren formuliert, allen voran Sergej Eisenstein in seiner Montagetheorie. Ob- wohl gerade Eisenstein mit seinen Überlegungen zu Disney gezeigt hat, dass seine Vorstellungen weit weniger hermetisch sind, als man zunächst annehmen könnte, so hat doch seither die Dichotomie zwischen sichtbaren Brüchen einerseits und dem Verbergen des Apparats andererseits Bestand. In dieser Dichotomie gelten sichtbare Brüche als unverzichtbar für den ideologisch korrekten Auftrag, das Bewusstsein der Massen zu bilden und den Bürger aus seiner tumb-passiven Konsumption industriell hergestell- ter Vergnügungen zu befreien. Auf der anderen Seite befinden sich gemäß dieser Auffassung jene stromlinienförmigen Produkte der Unterhaltungs- industrie, die mit allen Mitteln versuchen, die heterogene Herkunft des dargestellten Materials zu verbergen, um den Bürger einzulullen oder sogar zu anästhesieren, sodass er die Missstände der Welt vergisst oder zumindest leichter akzeptiert. Nun könnte der ironische Unterton meiner Darstellung zur An- nahme verleiten, dass ich selber zu jener Spezies naiver Zeitgenossen gehöre, welche den signifizierenden Einfluss kultureller und besonders technologisch produzierter Konsumgüter nicht begreifen. Dem ist beileibe nicht so. Meine Kritik an dieser wohl etablierten Dichotomie gründet im Wesentlichen darauf, dass ich erstens diese Unterteilung für allzu einfach erachte und zweitens die Haltung von gewissen Theoretikern, die sich über die Massen erheben und für sich eine übergeordnete Beobachterposi- tion beanspruchen, nicht gutheiße. Der Beobachter, das zeigt insbesondere Luhmann (1995: 17), ist immer auch Teil des Systems, und genauso wenig, wie er eine privilegierte Position einnehmen kann, ist ‹der› Zuschauer eine Reiz-Reaktions-Maschine, bei der man nur eine bestimmte Taste drücken muss, um eine gewisse Emotion oder Kognition zu erzeugen.2 Und ich 1 Ein Gedanke, den ich im Hinblick auf eine Aussage in Haraway (1985: 164) bereits im Kapitel Digitale Bilder (→ 47) angesprochen habe. 2 Siehe dazu auch Sobchack (2004: 258), die sich mit der Integration von dokumentari- schem Material in ein fiktionales Umfeld beschäftigt – einer Anordnung, die oft auf Compositing beruht. 194 Compositing bin der Meinung, dass besonders die Technik und Praxis des Composi- ting dazu geeignet ist, die tatsächliche Komplexität der Verhältnisse zu erkunden und allzu simplifizierende Positionen infrage zu stellen. Denn im Compositing treten diverse Eigenschaften der digitalen Bildproduktion sozusagen an die Oberfläche. Was im Modellieren, der Animation und im Rendern in abstrakterer Form geschieht – beispielsweise der Rückgriff auf unterschiedlichste Denktraditionen und Referenzen –, hat im Composi- ting unmittelbar der Wahrnehmung zugängliche Konsequenzen. Natürlich wäre es unlauter und allzu simpel, alle kritischen Stimmen zur postmodernen Praxis des Cut-and-Paste, des Zitierens und des Pas- tiche in einen Topf zu werfen. Es gibt riesige Unterschiede zwischen Fredric Jameson, der seine Überlegungen aus genauesten Beobachtungen herlei- tet – seien das literarische Texte, Architektur oder Kunstwerke wie Warhols Diamond Dust Shoes – und einem Apologeten wie Lev Manovich, der seine Thesen zwar pointiert formuliert, aber kaum überprüft, und dem vor allem ein Mangel an historisch-kritischem Bewusstsein zu attestieren ist. Weil aber Manovich (2001: 136 ff.) sich so deutlich äußert, eignen sich seine Ansichten gut zur Diskussion – dies umso mehr, als sie nicht die Mei- nung eines einzelnen Sonderlings repräsentieren, sondern für eine weit verbreitete Haltung stehen (siehe auch Mitchell 1992; Bolter/Grusin 1999; Spielmann 1999; Gabilondo 2000). Weiter gilt Manovich als einer der wich- tigsten Theoretiker der neuen Medien, weshalb seine Thesen weitherum rezipiert werden und in den theoretischen Diskurs fließen. Manovich greift das Thema ausgehend von der inzwischen schon fast klassisch zu nennenden Szene aus Barry Levinsons Wag the Dog (USA 1997) auf – jener Szene, die ich in der Einleitung ebenfalls zitiert habe, um die Gründe der weit verbreiteten Skepsis gegenüber digitalen Bildern zu illustrieren. Manovich meint dazu: «They are fitted together and adjusted in such a way that their separate identities become invisible. The fact that they come from diverse sources and were created by different people at different times is hidden.»3 Dieses Verbergen der heterogenen Herkunft des Materials diene dem Zweck, eine natürlich aussehende Aufnahme zu simulieren und damit den Eindruck zu erwecken, als ob die Szene real stattgefunden habe und von einer realen Kamera aufgezeichnet worden sei, kurz: das Publikum zu täuschen. Dieses Täuschungsmanöver wird nach Manovich zusätzlich perfektioniert, indem man den verschiedenen Elementen unterschiedliche Schärfen zuordnet, möglicherweise noch 3 «Sie werden so zusammengefügt und einander angepasst, dass ihre Identitäten nahtlos verschmelzen. Damit wird die Tatsache verschleiert, dass sie aus unterschiedlichen Quellen stammen und von mehreren Personen zu verschiedenen Zeiten hergestellt wurden.» Compositing 195 eine virtuelle Kamerabewegung und Artefakte wie Rauschen oder Korn hinzufügt, um die materiellen Unterschiede weiter zu kaschieren – eine Strategie, mit der ich mich an anderer Stelle genauer beschäftigen werde (→ Ästhetische Kohärenz 256 und → Analoge Artefakte 334) An je einem Beispiel aus Cliffhanger (USA 1993, Renny Harlin) – mit Sylvester Stallone vor Bluescreen gedreht und später in eine steile Fels- wand gepasted – und Jurassic Park – die Schauspieler im Außenbereich aufgenommen und später Dinosaurier hinzugefügt – postuliert Manovich (138 f.), dass das digitale Compositing einen virtuellen Raum generiere, der so nie existiert habe. Darin manifestiere sich eine generelle Funktions- weise der Computerkultur, nämlich das Zusammenfügen einer Reihe von Elementen zu einem einzigen nahtlosen Objekt. In dieser Nahtlosigkeit (seamlessness) sieht Manovich das eigentliche Problem des digitalen Compositing.4 Denn darin unterscheide es sich maßgeblich von anderen Techniken des Zusammenfügens von Fragmen- ten, namentlich dem elektronischen Keying – der Videoaufnahme in der Bluebox (→ Travelling Mattes 207) –, und der Filmmontage. Laut Manovich behalten die Elemente im Keying ihre kulturelle Identität, die elektroni- sche Montage konfrontiert den Zuschauer offen mit einem visuellen Zu- sammenprall unterschiedlicher Räume (150). Zwar erwähnt er kurz, es sei schon immer das Ziel des fiktionalen Films gewesen zu täuschen, meint aber doch, dass die Filmmontage visuelle, stilistische, semantische und emotionale Dissonanzen kreiere (144). Ich denke, dass sich spätestens an dieser Stelle beim historisch be- wanderten Filmwissenschaftler Unmut bemerkbar macht, provoziert doch seit Jahrzehnten der nahtlos wirkende Continuity-Stil der Hollywood- Montage eine ähnlich geartete Kritik. Darin manifestiert sich aus meiner Sicht ein grundlegendes Problem solcher Argumentationsweisen: Es ist einfach nicht haltbar, aus einer Technik allein eine bestimmte kulturelle oder ideologische Implikation abzuleiten. Genauso wenig, wie die Film- montage a priori Dissonanzen generiert, erzeugt das digitale Compositing ausschließlich nahtlose Bilder. Auch die Periodisierung, die Manovich vornimmt, ist nicht hieb- und stichfest. Denn er schreibt den 1980er-Jahren eine durch die elektronischen Techniken geprägte visuelle Vielfalt zu und behauptet, in den 1990er-Jahren würden die Unterschiede mit den digita- len Verfahren ausgeblendet und unterdrückt. 4 Dieser Punkt bildet den Kern der meisten kritischen Analysen des digitalen Com- positing. So schreibt Gabilondo (2000: 187), die repräsentationale Kontinuität digital zusammengefügter Bilder führe dazu, dass diese Bilder hyperreal wirken. Abgesehen davon, dass der Begriff des Hyperrealen der eingehenden Klärung bedarf, gibt es für eine solch generelle Annahme keine Anhaltspunkte. 196 Compositing Tatsächlich sind die Verhältnisse wesentlich komplexer, und es spie- len verschiedene Faktoren hinein, die durch engere oder weitere histori- sche und ästhetische Kontextualisierungen bedingt sind. Möglicherweise hatte ein Zuschauer zu Beginn der 1990er-Jahre beim Anblick von grasen- den Dinosauriern ein ähnliches Wow-Erlebnis wie einer jener Zuschauer, die zu Beginn der 1930er-Jahre King Kong auf dem Empire State Building herumturnen sahen. Oder anders ausgedrückt: Offensichtlich hat man da- mals etwas anderes als nahtlos empfunden als heute. Schon Seeber (1927: 144) reklamierte für die Trickaufnahmen mit Wandermasken, «dass bei der Vorführung die Handlung so vollkommen auf dem Hintergrund sich abzuspielen scheint, dass selbst die schärfste Kritik nichts daran auszuset- zen hat». Damals wie heute jedoch resultiert ein Teil der Faszination aus dem schon von Metz konstatierten doppelten Bewusstsein, mit dem der Zu- schauer auf eine fiktionale Situation reagiert, deren Mangel an Plausibili- tät offenkundig ist und deren – historisch gesehen – virtuose Darbietung er dennoch gleichzeitig genießt (→ Theoretische Grundlagen 25). Darin unterscheidet sich die Rezeption von fiktionalen Filmen grundlegend von der Wahrnehmung anderer medialer Darstellungsformen mit do- kumentarischem Charakter. Wie ich im Kapitel Filmische Fiktion (→ 282) ausführlicher erläutern werde, ist das Spiel mit der Täuschung Teil der Re- zeptionssituation im Kino.5 Die erwähnte Szene in Wag the Dog bezieht ihren Charme und ihre Ironie genau daraus, dass sie das Compositing in pointierter Art und Weise in einen fiktionalen Kontext stellt. Ein ähnliches mentales Referenzsystem wird bei der Rezeption von Forrest Gump (USA 1994, Robert Zemeckis) wirksam. Ich stimme Sobchack (2004: 259) zu, dass der Humor dieses Films gerade auf der scheinbar nahtlosen Verflechtung dokumentarischen Materials mit der Spielhandlung fußt, ähnlich übrigens wie in Zelig (USA 1983, Woody Allen).6 5 Ich stimme Buckland (1999: 185) nicht zu, dass die optischen Verfahren mit ihren Matte Lines (den manchmal sichtbaren Kanten der Travelling Mattes), dem Verlust an Auflösung und dem Korn gegenüber den digitalen prinzipiell benachteiligt sei- en. Denn wie erwähnt ist die Abbildungstreue (fidelity) ein sehr elastisches Konzept, das historisch gesehen mit den technischen Verfahren eine Entwicklung durchläuft. Die Beispiele aus der Filmgeschichte sind selten, in denen die Mängel des Compo- siting oder der Special Effects so offensichtlich waren, dass das Publikum die Filme deswegen abgelehnt hätte. Es ist sogar davon auszugehen, dass die emotionale Beteiligung an King Kong (Titel der deutschen Erstaufführung von 1933: Die Fabel von King Kong. Ein amerikanischer Trick- und Sensationsfilm) größer war als an Jurassic Park, obwohl es aus heutiger Sicht einen riesigen technischen Quali- tätsunterschied gibt (siehe dazu auch meine Überlegungen im Kapitel Abbildung → 275). 6 Zelig ist ein sehr frühes Beispiel von digitalem Compositing, von der Firma R/Green- berg (cinefex 50: 82) realisiert zu einer Zeit, als solche Prozesse extrem anspruchsvoll Compositing 197 Nahtlos und in ihrer nahtlosen Perfektion bis heute begeisternd sind auch die optischen Arbeiten in Citizen Kane (USA 1941, Orson Welles), die mit digitalen Technologien kaum zu überbieten wären. Die Integration der Special Effects gelang in diesem Film so gut, dass selbst das Fachgre- mium der Academy of Motion Picture Arts and Sciences so weit getäuscht wurde, dass sie den Film nicht einmal nominierten. Sie waren ebenso naht- los wie in 2001: A Space Odyssey (GB/USA 1968, Stanley Kubrick) oder in Blade Runner (USA 1982, Ridley Scott), die allerdings entweder einen Oscar erhielten (2001) oder zumindest nominiert wurden (Blade Runner). Dies nur als Beleg dafür, dass Nahtlosigkeit an sich weder der Domäne des Digitalen vorbehalten ist noch eine grundsätzlich zweifelhafte Eigenschaft jener filmischen Bilder darstellt, die sich aus Teilen unterschiedlicher Herkunft zusammensetzen. Dass sie nicht grundsätzlich eine zweifelhafte Eigenschaft sein muss, heißt nicht, dass sie nicht eine zweifelhafte Eigen- schaft sein kann. Als problematisch könnten vielleicht nahtlose Bilder in Titanic oder Jurassic Park deshalb bewertet werden, weil sie klassisches Illusionskino konservativen Zuschnitts nicht nur ermöglichen, sondern optimieren und um die Dimension sensorischen Überflusses erweitern, um die Zuschauer effizienter in die Sessel zu drücken. Es sind Beispiele für Filme, die sich erzählerisch in etablierten Schienen bewegen. Dasselbe gilt für Camerons Terminator 2 (USA 1991), von dem heute niemand behaupten würde, dass das Compositing ‹unsichtbar› oder ‹nahtlos› sei. Allen diesen Filmen gemeinsam ist das Element des Exzesses. Dass eine Technik nicht zwangsläufig ein bestimmtes Produkt oder eine bestimmte Ästhetik hervorbringt, bedeutet nicht, dass diese Technik neutral ist. Das digitale Compositing – das habe ich oben erwähnt (→ 191) – führt zu einem deutlichen Umbruch, und zwar schon deshalb, weil es unendlich viel leichter geworden ist, mit diesen Werkzeugen Bilder zusammenzufügen – eben weil die Funktionsweise der mathematischen Codierung digitaler Informationen wie prädestiniert dafür erscheint. Die Ästhetik, die sie aber in den allermeisten Fällen hervorgebracht hat, ist jene Windows-Ästhetik – Bolter/Grusin (1999: 272) nennen diesen exzessiven, präsentationalen Mo- dus Hypermediacy –, wie sie heute Websites, Magazine, Fernsehnachrichten oder insbesondere Musikvideos beherrscht, also eine Ästhetik, die mit Brü- chen und deutlich wahrnehmbaren Fragmenten operiert. Fiktionaler Film ist im Gegensatz dazu eine jener wenigen Gattungen, deren Tradition im Anschluss an Literatur und Theater hermetische Dar- stellungen favorisiert, um den Zuschauer in eine eigene Welt zu führen. waren. Allerdings waren die dort verwendeten Techniken noch rudimentär; viele die- ser Compositings wurden deshalb als Standbilder realisiert. 198 Compositing Während Jahrzehnten galt die Doktrin, den komplexen und arbeitsin- tensiven Herstellungsprozess zu verbergen, die Erzählinstanz möglichst zu maskieren, um die emotionale Partizipation des Zuschauers zu er- leichtern. Es war dem alternativen Kunstkino vorbehalten, diese Doktrin zu unterwandern und andere Darstellungsformen auszutesten. Längst hat jedoch der Mainstream-Film heterogene, gebrochene Erzählweisen übernommen. In der zeitgenössischen Filmproduktion lässt sich eine plu- ralistische Koe xistenz unterschiedlichster narrativer und ästhetischer Aus- drucksformen ausmachen, die keineswegs durch eine einheitliche digitale Ästhetik des Compositing platt gewalzt wird, auch wenn heute kaum ein Film ohne Rückgriff auf diese Technik entsteht. Heterogene Anordnungen finden sich in rund einem Viertel meines Korpus – allerdings werden erzählerische und stilistische Brüche sehr oft diegetisiert als Subjektivie- rungen einer Figur, als medial transformierte Einschübe oder als parallele Welten (→ Sichtbarkeit/Unsichtbarkeit 358). Anders als die oben beschriebenen Verfahren des dreidimensionalen Modellierens und Animierens, deren Produkte durchaus von der Tech- nik – oder vielmehr von ihren jeweils historisch bedingten Limitierun- gen – geprägt sind, hat das Compositing schnell ein Stadium hoher Flexi- bi lit ät und Perfektion erreicht; es erlaubt, Bilder so zu bearbeiten, dass die Eingriffe dann unsichtbar bleiben, wenn es der Intention der kreativen Instanz entspricht und wenn die Compositing Artists über die notwendi- gen technischen Fähigkeiten und entsprechendes ästhetisches Feingefühl verfügen.7 Intention und Können wirken also wie zwei Stellgrößen, wel- che der Technik ihre Flussrichtung vorschreiben. Um diese Metapher weiter auszubauen, könnte man sagen, dass das Compositing eine pluridirektionale Technik darstellt insofern, als sich mit ihr eine Unzahl unterschiedlichster Zielsetzungen verfolgen lassen: Künstliche, kitschige, stilisierte, fragmentierte, überwältigende, patheti- sche oder aber natürliche Bilder können dabei entstehen. In die Technik selbst ist eine Tendenz eingebaut, welche die Produktion heterogener Bilder favorisiert. Nur mit ausgewiesenem Können lassen sich in arbeits- und damit kapitalintensiver Weise jene viel kritisierten nahtlosen Bilder herstellen, wie sie sich beispielsweise in Titanic finden. Man schaue sich 7 Der VFX Supervisor John Knoll schildert, wie das digitale Compositing ein Jahr nach der Arbeit an The Abyss (USA 1989, James Cameron), in dem mit Ausnahme einer ein- zigen Einstellung noch alle CGI optisch in das Bildmaterial integriert wurden, schon Standard geworden war (in cinefex 100: 18). Noch in Terminator 2 (1991) jedoch gibt es einige Szenen, die mit dem optischen Printer bearbeitet wurden, beispielsweise die Endzeitszene mit den Robotern – Go-Motion-Puppen, die vor einer Rückprojektion zusammengefügter Bildteile agieren (cinefex 47: 13) – oder die Ankunft des Terminator (cinefex 47: 17). Compositing 199 private Homepages, Einladungen zur Grillparty oder zum Fasnachtsball des örtlichen Gesangsvereins an, um zu verstehen, was ich meine, wenn ich behaupte, dass a) die Softwares die Herstellung heterogener Produkte begünstigen und b) Heterogenität an sich genauso wenig ein Qualitäts- merkmal darstellt wie Nahtlosigkeit eine zweifelhafte Eigenschaft. Ebenso schwierig und historisch nicht haltbar ist Manovichs Be- hauptung, das Kombinieren von Sylvester Stallone mit der Felswand generiere einen virtuellen Raum. Dann hätte schon Edwin S. Porter 1903 in The Great Train Robbery einen virtuellen Raum erzeugt, indem er die Fensteraussicht auf einen einfahrenden Zug an einem anderen Ort und zu einer anderen Zeit aufgenommen und später mittels einer Maske mit einer Innenansicht kombiniert hat. Seither sind viele Techniken üblich, durch die Kombination von Bildmaterial unterschiedlicher Herkunft räumli- che Beziehungen zu suggerieren, wie Travelling Mattes, Rückprojektion, Frontprojektion, Glasvorsatzaufnahmen, das Schüfftan-Verfahren – auch Spiegeltrick genannt –, Rücksetzer, Matte Paintings usw. Räumliche Mon- tage ist fast genauso alt wie zeitliche Montage – auch wenn es stimmt, wie Manovich (2001: 155) schreibt, dass traditionell die zeitliche, horizontale Montage gegenüber der räumlichen, vertikalen favorisiert wurde. Beide Montageformen stellen jedoch ähnliche Fragen nach der Kohärenz und Plausibilität des zusammengefügten Raum-Zeit-Gebildes. Zu fragen ist beispielsweise nach den Voraussetzungen und Grenzen einer gelingenden Konstruktion der Diegese mit den Mitteln des Com- positing. Zu fragen ist weiter, inwiefern die Kombination der verschie- denen Elemente zu einer gegenseitigen Bedeutungsmodifikation führt. Ist es tatsächlich so, dass die Objekte durch das digitale Compositing ihre Identität verlieren, wie Manovich behauptet? Oder hat die fotografische Abbildung nicht ohnehin die Tendenz – als gleitender Referent im Sinne Barthes’ (1980: 100) –, sich durch eine unscharfe semantische Dimension auszuzeichn en, sodass es äußerst schwierig wäre, eine überzeugende und von den technischen Grundlagen losgelöste Bedeutungsunterscheidung zwischen einer Raumkonstruktion durch Anordnung disparater Elemente vor der Kamera (Studiobauten, Glasvorsatzaufnahmen), in der Kamera (Mehrfachbelichtungen) oder in der Postproduktion (Travelling Mattes, optisches und digitales Compositing) zu begründen? Diese fundamenta- len Fragen der Bedeutungsmodifikation werde ich im Anschluss an dieses Kapitel im Kontext der Abbildungstheorie (→ 275) diskutieren, wenn die technischen Prozesse und ästhetischen Aspekte geklärt sind. Noch eine weitere Eigenschaft fiktionaler Filme ist für die Diskussion von Bedeutung: Sie konstruieren ihre Aussagen von jeher durch ein mehr- schichtiges Geflecht von simultan ablaufenden Bezügen durch Montage, 200 Compositing Text-Bild- und Ton-Bild-Interaktion. Insofern ist die dynamische Bedeu- tungskonstitution, welche über die Interaktion unterschiedlicher seman- tischer Systeme zustande kommt, nicht nur ein Prinzip des Compositing, sondern eine spezifisch filmische Eigenheit, mit der ich mich unter dem Aspekt des Mehrwerts (Flückiger 2001: 142 ff.) schon in meinen Untersu- chungen zum Sound Design eingehend beschäftigt habe. Compositing gleicht den dort beobachteten Mechanismen in mehrfacher Hinsicht. So ist die Tonspur selber seit Einführung der Mischung am Ende der 1920er- Jahre ein Konglomerat simultan überlagerter Schichten, eine Analogie zum Compositing, die auch Wolf (2000: 135 ff.) bemüht. Diese Schichten bilden parallel verlaufende Ströme, die sowohl untereinander als auch im Austausch mit dem Bildmaterial assoziative Netze knüpfen. Damit diese Interaktion gelingt, müssen multiple Randbedingungen eingehalten wer- den, welche das Maß der verfügbaren Konsonanz respektive Dissonanz regeln. Der Transfer von Kompositionsprinzipien aus der akustischen Kunst – besonders der Musik – in die bildende Kunst hat zudem eine rei- che Tradition, die Leitfiguren wie Kandinsky oder Klee zur Zeit des Um- bruchs von der gegenständlichen zur abstrakten Malerei begründeten;8 Kompositionsprinzipien nicht semantischer, sondern sensorischer Natur, ging es doch darum, eine Ästhetik der reinen Struktur zu entwickeln. Während es aber bei der vertikalen Klangmontage zu komplexen Verschmelzungs- und Auflösungsprozessen kommt, welche direkt auf die Eigenheiten der auditiven Wahrnehmung zurückzuführen sind, die prin- zipiell ganzheitlich funktioniert, sind Bildfragmente deutlich robuster: Ein Himmel bleibt ein Himmel, auch wenn er in Montana aufgenommen und in ein Szenario im Jenseits eingefügt wird wie in What Dreams May Come (USA 1997, Vincent Ward). Rauch bleibt Rauch, ein Feuer ein Feuer – dies ebenfalls aus Gründen fundamentaler Eigenschaften der visuellen Wahrnehmung. So extrahiert sie einerseits aus dem Kontinuum optischer Reize Gestalten, andererseits aber ertastet sie in realen Umgebungen ohne- hin Fragmente und fügt sie erst in übergeordneten kognitiven Verarbei- tungsprozessen zu Bildern zusammen. Es finden sich in der Praxis viele weitere Beispiele, welche diese Annahme belegen. Die Frage bleibt also, was Manovich meint, wenn er behauptet, dass die Objekte im nahtlosen Compositing ihre Identität verlören. Natürlich lässt sich bei der Betrachtung eines Bildes vom Laien nicht feststellen, ob die Titanic als Modellbau, als computergeneriertes Element oder als Set in Originalgröße aufgenommen wurde; aber er sieht ein Ob- 8 Siehe Wassily Kandinsky: Über das Geistige in der Kunst (1910) und sein Punkt und Linie zu Fläche (1926) sowie Paul Klee: Pädagogisches Skizzenbuch (1925). Compositing 201 jekt, das er als Titanic identifiziert. Das ist schließlich die Voraussetzung dafür, dass die Geschichte funktioniert. Schon zu Zeiten analoger Aufnah- men ohne optische Tricks gab es Grenzen der detektivischen Suche nach der Herkunft von Bildmaterial. Ob eine abgebildete Felswand aus Stein oder aus Styropor bestand, ließ sich nur schwer entscheiden, solange die Oberflächeneigenschaften den Ansprüchen des Wahrnehmungssystems genügten. Es eröffnen sich also mindestens drei Möglichkeiten, den Begriff Identität zu bestimmen: eine phänomenale – das heißt der Wahrnehmung zugängliche –, eine semantische – das heißt durch kognitive Kategorien bestimmte Form der Objektidentifikation (type/token) – und eine ontolo- gische – das bedeutet absolute – Identität des wahrgenommenen mit dem dargestellten Objekt. So weist Sobchack (2004: 259) darauf hin, dass das allgemeine Weltwissen des Zuschauers ein entscheidender Faktor für des- sen Identifikationsleistung ist. Einen weiteren Kritikpunkt am digitalen Compositing, der um den Komplex der Nahtlosigkeit kreist, machen Skeptiker an der materiellen An gleichung fest, und zwar mit folgender Begründung: Während die Collage unterschiedliche Materialien zusammenfüge, die als solche identifizierbar bleiben, ebne die Digitalisierung der Materialien, die für das Compositing notwendig ist, diese Vielfalt ein und unterwerfe alles ein und demselben Repräsentationsmodus. Diese Argumentation9 geht auf Mitchells (1992: 7) berühmtes und einflussreiches Statement zurück, dass das digitale Bild die etablierte Unterscheidung zwischen Fotografie und Malerei verwische: «A digital image may be part scanned photograph, part computer-syn- thesized shaded perspective, and part electronic ‹painting› – all smoothly melded into an apparently coherent whole. […] we have entered the age of electrobricolage.»10 Besonders die analogen Special-Effects-Techniken neh- men mit gemalten Glasvorsätzen oder Matte Paintings diese heterogenen Herstellungsformen vorweg. Weiter argumentiert Mitchell (1992: 7), dass sich die Fotomontage von jeher außerhalb des Mainstreams fotografischer Praxis abgespielt habe, deswegen als hybride Technik und somit als unfotografisch kriti- siert worden sei. Mitchell nennt sie eine zweifelhafte Form der Fotografie, ein Gedanke, den schon Barthes (1982: 16 f.) äußert, der weiter präzisiert, dass die Konnotation auf diese Weise vollständig die «objektive» Maske der Denotation aufsetze. Bemerkenswert an Mitchells Argumentation ist, 9 Siehe auch Spielmann (1999: 134 ff.). 10 «Ein digitales Bild kann teils einer gescannten Fotografie entstammen, teils als plasti- sche Perspektive in 3D am Computer entstanden oder elektronisch ‹gemalt› worden sein, wobei alle Elemente zu einem kohärenten Ganzen verschmolzen erscheinen. […] Wir sind ins Zeitalter des elektronischen Bastelns eingetreten.» 202 Compositing dass er den semantischen Aspekt überhaupt nicht erwähnt, sondern aus mir nicht einsichtigen Gründen die politisch motivierten Arbeiten von John Heartfield in einen Topf mit der harmlosen viktorianischen Tradition von Oscar G. Rejlander11 und Henry Peach Robinson wirft (1992: 164). Die Möglichkeit, überhaupt eine phänomenale Heterogenität zu erzeugen, sieht er nur von László Moholy-Nagy in dessen eingefrorenen Choreo- grafien oder von David Hockneys kubistischer Fotografie umgesetzt. So spricht er diesen Anordnungen sowie dem Spiel mit Brüchen eine rein ironische oder abwertende Intention zu (1992: 164). Bolter/Grusin (1999: 41 f.) greifen auf eine klassische Unterscheidung der Kunst- und Medientheorie zurück, den Unterschied zwischen looking at und looking through, um die vielfältigen Konsequenzen von Fotomon- tage und Collage zu diskutieren – eine Unterscheidung, die dem medien- theoretischen Begriffsunterschied zwischen Transparenz und Opazität entspricht. Während transparente Repräsentationsformen den Blick auf eine abgebildete Objektwelt freigeben, vergleichbar mit dem Blick aus einem Fenster, ziehen opake Repräsentationsformen die Aufmerksamkeit auf die eigene Materialität oder Oberflächenbeschaffenheit. Diese Un- terscheidung, mit der ich mich in dieser Arbeit unter weiteren Gesichts- punkten beschäftigen werde, hat ihren Ursprung in der Kunsttheorie der Moderne mit der Forderung, dass Kunstwerke ihre eigene Materialität (mit) zu reflektieren hätten. Nun will ich dieser Frage hier nicht auf den Grund gehen, sondern die Unterscheidung lediglich im Hinblick auf das Compositing kurz anrei- ßen, um eine Brücke zwischen dem Thema Materialität, wie ich es im ent- sprechenden Abschnitt (→ 41) dargestellt habe, und der weiteren Beschäf- tigung damit im Kapitel Abbildung (→ 275) und Sichtbarkeit/Unsichtbarkeit (→ 358) zu schlagen. Optische Massenmedien unterscheiden sich im Hin- blick auf andere Darstellungsformen mittels optischer, elektronischer oder digitaler Displays dadurch, dass der repräsentierende Apparat und damit dessen Oberfläche standardisiert sind. Während also ein Medienkünstler, der solche Displays für seine Arbeit verwendet, die Möglichkeit hat, in einer singulären Installation mit der Erscheinungsweise dieses Displays selbst zu spielen – beispielsweise indem er mehrere Monitore anordnet oder den Monitor in einen weiteren gestalteten Kontext stellt –, müssen massenmediale optische Repräsentationssysteme – egal, ob analog als Film, elektronisch oder digital – ihre Information uniform codieren. Das Problem ist deshalb prinzipieller Natur und hat mit der Digitalisierung als Codierungsverfahren nichts zu tun. 11 Siehe http://www.rps.org. Compositing 203 Mit der gleichen materiellen Argumentation kann man auch die Fotomontage als einebnende Technik abwerten. Immerhin weisen Bol- ter/Grusin (1999: 108 ff.) mit Bezug auf die Arbeit Truth and Fictions des Fotografen Pedro Meyer12 auf die Möglichkeit hin, dass Meyer mit seinen Eingriffen versuche, Wahrheiten aufzudecken, «that are more compelling than the factual record to which photography used to lay claim».13 Ob es ihm gelingt, lassen die Autoren offen, und natürlich geht diese Aussage vom Wahrheitsbegriff des Dokumentarischen aus, der hier nicht zur De- batte steht – auch nicht als Gegenstück zu einem Wahrheitsbegriff der Fik- tion. Vielmehr muss man sich die Frage stellen, warum und unter welchen Bedingungen die Verbindung fotografischen Materials zwar – wie etwa in Meyers Arbeiten – auf der Oberfläche homogen erscheinen mag, aber trotzdem eine semantische Veränderung mit sich bringen kann. Obwohl sich im Feld der theoretischen Beschäftigung mit dem digi- talen Compositing die meisten Stimmen ablehnend äußern, gibt es doch ein paar Gegenpositionen. Pierson (1999: 35) unterscheidet zwischen zwei ästhetischen Zielsetzungen: der Simulation und dem Technofuturismus. Zwar sind beide dem Fotorealismus verpflichtet. Während aber die Si- mulation gemäß Pierson mit allen Mitteln versucht, den fotografischen Realismus des Kinobildes zu reproduzieren, beschreibt der Begriff Techno- futurismus eine spezifische digitale Ästhetik, die unmittelbar an das Genre des Science-Fiction-Films der frühen bis mittleren 1990er-Jahre gebunden ist,14 also mithin jenes Übergangsphänomen, dessen exaltierte Zurschau- stellung der eigenen Virtuosität ich an anderer Stelle schon beschrieben habe (→ 21). Pierson setzt das Ende dieser Periode 1996 an und sieht in Independence Day von Roland Emmerich (USA 1996) einen typischen Vertreter einer neuen Ära, in der die computergenerierten Bildteile keine privilegierte Stellung mehr einnehmen, sondern in komplexen Composi- tings neben Modellaufnahmen stehen, in denen der Zuschauer nicht mehr zwischen den verschiedenen Techniken unterscheiden kann (Pierson 1999: 40). Piersons Kategorie des Technofuturismus ist durchaus beden- kenswert. Sie umfasst einen Teil jener Filme, die einen Eye-Candy-Look 12 Siehe zum Werk Meyers auch Amelunxen et al. (1996). 13 … «die überzeugender wirken als die realitätskonforme Aufzeichnung, wie sie übli- cherweise von der Fotografie beansprucht wurde». 14 Als typische Beispiele für die technofuturistische Ästhetik nennt sie: Terminator 2: Judgment Day (USA 1991, James Cameron), Lawnmower Man (USA 1992, Brett Leo- nard), Stargate (USA 1994, Roland Emmerich), Virtuosity (USA 1995, Brett Leonard) und Johnny Mnemonic (USA 1995, Robert Longo). In allen diesen Filmen weisen computergenerierte Bilder wenigstens teilweise auf sich selber hin, machen mithin den eigenen technischen Darstellungsmodus zum Thema – ein selbstreflexives Moment, das ich im Kapitel Dimensionen und Schichten (→ 357) differenzierter unter die Lupe nehme. 204 Compositing aufweisen, also ihre Künstlichkeit im Sinne einer Attraktion ausstellen. Science-Fiction-Filme sind jedoch beileibe nicht das einzige Genre, das mit einer heterogenen Ästhetik arbeitet, sondern auch die seit ein paar Jahren boomenden Comicverfilmungen und andere mehr. Die vielleicht deutlichste Gegenposition zur ideologisch motivierten Kritik am Compositing stammt von Maureen Turim (1999: 46 ff.). Sie inte- ressiert sich mehr für die Unterschiede zwischen Bildern, die nahtlos er- scheinen wie die Werke von Max Ernst, anderen die fantastisch wirken wie die Collagen von Hannah Höch oder die Fotomontagen von John Heart- field, die mit Verknüpfungen semantisch dissonanter Bildteile politische Aussagen formulieren. Im digitalen Compositing sieht sie eine überge- ordnete Technik, die alle vorausgegangenen Verfahren umschließt, indem sie deren Prinzipien nachbildet. So produzieren Computerprogramme Simulacra der traditionellen Bildherstellungsverfahren wie z. B. Pinsel, Spray, Stift. Allerdings sieht Turim im Gegensatz zur weit verbreiteten Auffassung keine Qualitätshierarchie zwischen den Prozessen. Mit ande- ren Worten: Ob etwas von Hand oder am Computer entstehe, entscheide nicht über die Qualität des Werks, denn Prinzipien der Bildherstellung seien nur teilweise durch die verwendete Technologie bestimmt. Digitale Techniken unterscheiden sich nach Turim hauptsächlich dadurch von klassischen Verfahren, dass der Prozess keine Spuren hinterlässt. Diese Aussage ist allerdings etwas unscharf, denn ‹Spuren› können vieles be- deuten: wahrnehmbare Spuren auf der Oberfläche, historische Spuren des Prozesses, materielle Spuren in der mikroskopischen, chemischen oder physikalischen Domäne. Spuren könnten aber auch binär codierte Meta- daten sein, welche durchaus über den Herstellungsprozess, die Urheber und die dabei verwendete Soft- und Hardware informieren. Leider ist Turims Text sehr kurz und geht deshalb zu wenig in die Tiefe. Er ist weinger eine Analyse als vielmehr ein Statement, wenn auch ein sehr erfrischendes, das sich von der Masse kulturpessimistischer Kritik wohltuend abhebt. Die Praktiker jedenfalls würden Turims Auffassung, dass die digitalen Verfahren lediglich bessere und vor allem flexiblere Werkzeuge anbieten, jederzeit unterschreiben (siehe die Diskussion in cinefex 100: 18 ff.). Digitales Compositing verhält sich zur optischen Ar- beit so ähnlich wie der Computer zur Schreibmaschine: Abgesehen von ein paar älteren Sekretärinnen, die Virtuosinnen des Tippens waren, wird kaum jemand Nostalgie nach den Zeiten des Radiergummis mit Scha- blone, nach dem Überkleben mit korrigierten Textstellen, nach schief ein- gefädeltem Papier empfinden, obwohl das alles so schön haptisch war … Wolf (2000: 117 ff.) schließt seine Überlegungen ebenfalls an bereits etablierte Techniken an. So weist er darauf hin, dass die Verfahren des Compositing 205 Schichtens (layering) und des Cut-and-Paste in der traditionellen Folien- animation (cel animation) schon seit Jahrzehnten Usus sind. Eine weitere genealogische Linie sind die elektronischen Techniken, dessen erstes Ver- fahren zur Kombination der Bilder zweier Fernsehkameras 1932 patentiert wurde. Digitales Compositing verknüpfe die besten Elemente seiner ana- logen Vorfahren mit den Möglichkeiten der Folienanimation. Wolf sieht grundsätzlich alle Möglichkeiten der Filmmontage für das Compositing, insbesondere hybride, plurale und dialogische Ausdrucksformen (134 f.). Er ist deshalb der Ansicht, dass Vorstellungen des Raums, der Zeit, der Ein- heit und der Zuschauerpartizipation neu überdacht werden sollten (140). Nicht zuletzt ist es Vivian Sobchack, die bereits in ihren Reflexionen zu Science-Fiction-Filmen (1980/87), die hauptsächlich in der vordigitalen Ära oder in der Frühphase des digitalen Bildes entstanden, über die Fähigkeit der Zuschauer nachdachte, heterogenes Material realer und imaginärer Re- ferenzen zu verarbeiten. Sie ist der Meinung, dass gerade die Inkongruenz dissonanten Materials in ein und demselben Bild eine magische Attraktion darstelle, die aus der emotionalen Konfusion konfligierender Assoziationen resultiere (Sobchack 1980/87: 141 ff.). Dieser Sachverhalt stehe im Zusam- menhang mit der Faszination, die surrealistische Gemälde mit ähnlichen Kompositionsprinzipien ausüben. Im Kontext des Films aber ist nach Sobchack die Faszination noch gesteigert durch die absolute Coolness, mit welcher der kinematografische Apparat selbst die unglaublichsten Inhalte präsentiere (1980/87: 143 f.). In den bereits erwähnten Überlegungen zur In- tegration von dokumentarischem Material in fiktionale Formen (Sobchack 2004: 259 ff.)15 erweitert sie diese Überlegungen noch um eine Metareflexion über die Gründe, warum die Kritiker glauben, das stupide Publikum davor schützen zu müssen, von solchem Material getäuscht zu werden. In der Mehrzahl aller Fälle – mit Ausnahme von Oliver Stones JFK (USA 1991), der die dokumentarischen Aufnahmen in eine große paranoide Fiktion integriert – sind die Beispiele durch verschiedene Systeme so markiert, dass der Zuschauer mithilfe seines allgemeinen Weltwissens selbst eine metare- flektierende Haltung zum dargebotenen Material einnehmen kann.16 15 Als Beispiele führt sie Forrest Gump (USA 1994, Robert Zemeckis), Contact (USA 1987, Robert Zemeckis), The Unbearable Lightness of Being (USA 1988, Philip Kauf- man) und JFK (USA 1991, Oliver Stone) an. 16 Am Rande dieser Tour d’Horizon durch verschiedene theoretische Ansätze zum Compositing möchte ich noch eine persönliche Beobachtung erwähnen: Mir fällt auf, dass die mehrheitlich positiven Stellungnahmen zur technischen Innovation mit Ausnahme des von mir ohnehin sehr geschätzten Wolf von Frauen, genauer von Film- wissenschaftlerinnen, stammen: von Pierson, Turim und Sobchack, während die hier vertretenen Männer – die sich mit dem Thema meist aus einer allgemeinen, medien- übergreifenden Position beschäftigen, so Mitchell, Manovich, Bolter/Grusin – offenbar eine eher abwertende Haltung einnehmen. 206 Compositing Wie sich gezeigt hat, ist das Thema Compositing äußerst vielseitig und für den theoretischen Diskurs fruchtbar. Es wäre mir ohne weiteres möglich, mit dem vorhandenen Material ein ganzes Buch zu füllen. Ich werde mich jedoch im Folgenden auf drei wesentliche Themenkomplexe beschränken: z Layers/Mattes, in deren Kontext ich die verschiedenen Verfahren zur Verknüpfung von Bildmaterial vorstelle; z Interaktion, welche die grundlegenden Probleme der Verbindung von computergenerierten Bildteilen mit Filmaufnahmen am Set aufgreift; z ästhetische Kohärenz – die Frage nämlich, mit welchen Mitteln disparates analoges und digitales Material einander ästhetisch an- geglichen werden kann und welche grundsätzlichen Unterschiede dabei überwunden werden müssen. Weiterführende Literatur z Brinkmann, Ron (1999): The Art and Science of Digital Compositing. San Diego: Morgan Kaufmann. Eine umfassende Einführung in die techni- schen Grundlagen des Compositing. Layers/Mattes Im Lauf der Zeit hatten sich schon im optischen Compositing verschiedene Verfahren herausgebildet, mittels deren sich unterschiedliche Bildteile ent- weder durch Schichtung (layering) oder durch Masken (mattes) miteinander kombinieren ließen. Mit Ausnahme weniger Aspekte lässt sich hier sogar eine relativ stetige genealogische Linie von den optischen zu den digitalen Techniken ausmachen. Die Ausnahmen betreffen zur Hauptsache die Kon- trolle der Transparenz verschiedener Schichten – die Möglichkeit, einzelne flache oder quasi-flache Ebenen durch sogenannt 2.5-dimensionale Bearbei- tungen räumlich anzuordnen – und nicht zuletzt die schiere Quantität von Schichten, die miteinander durch mathematische Verknüpfungsregeln ver- bunden werden können. Denn der massive Umbruch vom analogen zum digitalen Compositing findet unter der Oberfläche auf der Ebene der Codie- rung selbst statt. Wenn sich also zwischen den meisten Verfahren Analogien finden lassen – Bluescreen/Greenscreen, Rotoskopieren, Matte Paintings, Set Extension, die alle sowohl in analogen als auch in digitalen Varianten existieren –, so sind die technischen Abläufe doch völlig unterschiedlich. Das Thema des Schichtens bildet eine jener Motivkonstanten, die sich durch die gesamte Beschäftigung mit dem computergenerierten Bild zie- Layers/Mattes 207 hen. So ähneln die Prinzipien des Compositing jenen der Materialisierung von Oberflächen dreidimensional definierter Modelle durch Shader, und so werden später verschiedene Motive der Staffelung von Bildern im Bild, von medialen Repräsentationen, von labyrinthischen Verspiegelungen, von bewundernden Blicken und der Entblätterung von Realitäten eine Rolle spielen, welche an die russischen, Matroschka genannten, Holzfigu- ren erinnern. Insgesamt reiht sich dieses Thema in einen Motivkomplex, der als typisches Merkmal der Postmoderne gehandelt und mit dem Eti- kett ‹Oberflächenrausch› als obsessives Kreisen um exzessiv herausgear- beitete Details beschrieben wird. Schichten und Oberflächen sind jedoch von jeher eine Obsession des Films, der einen dreidimensionalen Raum auf eine zweidimensionale Fläche reduzieren muss. Es ist die einzige Mög- lichkeit, Räumlichkeit und Bildtiefe zu gestalten. Rahmungen, die Arbeit mit einer selektiven oder sehr großen Schärfentiefe, Rücksetzer und Matte Paintings als Erweiterungen des fiktionalen Raums, das Spiel mit Licht und Schatten, eine sorgfältige Wahl von Stoffen und Ausstattungsobjek- ten: Dies alles und einige mehr sind Gestaltungselemente, welche mittels Staffelungen und Schattierungen Körperlichkeit suggerieren sollen. Optische Verfahren haben sich die spezifischen Mängel des filmi- schen Bildes immer zunutze gemacht. Natürliche Kanten von Objekten und Raum elementen wurden verwendet, um Übergänge zwischen visu- ellen Effekten und am Set vorhandenen Menschen, Gegenständen oder Räumen zu kaschieren. So diente schon der Fensterrahmen in Porters The Great Train Robbery (1903) als plausible Maske für den Blick in den Außenraum; so sind es in Citizen Kane (1941) ebenfalls architektonische Eigenheiten – Durchblicke, Wände – oder in der Eröffnungssequenz von Kubricks 2001: A Space Odyssey (1968) die Felskanten der Studioausstat- tung, welche die Frontprojektion der afrikanischen Landschaft wie einen natürlichen Blick zum Horizont erscheinen lassen. Travelling Mattes Wandermasken, Travelling Mattes, sind das älteste Verfahren zur Extrak- tion bewegter Objekte, besonders von Figuren. Sie stellen eine Erweite- rung von Split-Screen-Aufnahmen dar, bei denen eine fixe Maske vor der Kamera einen Bildteil abdeckte, in den sich später mit unterschiedlichen Techniken weitere Bildteile einfügen lassen. Travelling Mattes beruhen grundsätzlich auf zwei verschiedenen Prinzipien: Entweder nimmt man die zu extrahierende Figur zuerst vor einem monochromen Hintergrund auf und benützt optische oder digitale Prozesse, um automatisch die ent- sprechenden Masken zu erzeugen – oder man schneidet die Maske aus ei- 208 Compositing 1 Prinzip der Travelling Matte ner komplexen Aufnahme nachträglich aus. Beide Prinzipien waren in der langen Geschichte der analogen Filmaufnahme seit Jahrzehnten etabliert. Wann immer es darum ging, Figuren mit fantastischen oder historisch/ geografisch entfernten Welten interagieren zu lassen, die so nur mittels Matte Paintings oder als Modellbauten zu erzeugen waren, ließ man die Schauspieler im Studio vor einer einfarbigen Leinwand vorgeben, eine fiktionale Welt zu bewohnen und auf Reize zu reagieren, die man erst später in der Postproduktion hinzufügte. Mit den gleichen Prinzipien ist es aber auch möglich, Körper oder Körperteile verschwinden zu lassen, indem die Schauspieler in monochrome Anzüge schlüpfen, wie für die verschiedenen Varianten dieses Motivs von The Invisible Man (USA 1933, James Whale) bis Hollow Man (USA 2000, Paul Verhoeven), oder wenn Schauspielerkörper transformiert werden sollen wie in Death Be- comes Her (USA 1992, Robert Zemeckis) oder amputiert wie Lieutenant Dan in Forrest Gump. Das Prinzip der Travelling-Matte-Aufnahme ist relativ simpel, wenn auch die fotochemische Umsetzung – besonders der Farbfilmvarianten – kompliziert ist. Es geht immer darum, je eine ‹männliche›, in der mit Aus- nahme der Figur alles transparent ist, und eine komplementäre ‹weibliche› Maske zu erstellen, bei der nur jener Bildteil, welcher die Figur erfasst, transparent ist und die beide genau den Umrissen der Figur entsprechen Layers/Mattes 209 2 Williams-Prozess (Abb. 1). Durch die Kombination der männlichen Maske mit der weibli- chen entsteht ein Bild, welches die Elemente miteinander kombiniert. Zu Zeiten des Schwarzweißfilms war dies relativ einfach, und es wurden im Besonderen zwei Techniken entwickelt: der Williams-Prozess und das Dunning-Pomeroy-Self-Matting-Verfahren. Im Williams-Pro- zess – gemäß Rickitt (2000: 45 f.) 1918 vom Kameramann Frank Williams patentiert17 – nahm man den Schauspieler vor einer schwarzen, seltener auch weißen Wand auf (Abb. 2), erstellte auf einem Hochkontrastfilm eine männliche Maske und kombinierte die Bildteile mit zwei gestaffelten sogenannten Bi-Pack-Aufnahmen, bei welcher zwei oder mehr übereinan- derliegende Filme gleichzeitig durch die Kamera laufen: einmal Hinter- grund (Nr. 4) plus weiblicher Maske (Nr. 3) auf einen unbelichteten Film, in einem zweiten Durchgang dieser Film mit dem Vordergrund (Nr. 6). Das Dunning-Pomeroy-Verfahren (siehe Rickitt 2000: 47 ff.), 1927 er- funden, unterscheidet sich maßgeblich davon, indem es auf der Reaktion von Schwarzweißfilm auf Farbe beruht. Dabei wird ein orange beleuchte- tes Vordergrundelement vor einer blauen Leinwand aufgenommen und mit einem orange-weißen Hintergrundelement ebenfalls im Bi-Pack-Ver- 17 Ähnliche Verfahren dürften schon früher für Trickaufnahmen verwendet worden sein. So erwähnt der deutsche Trickspezialist Guido Seeber 1927 in seinem Buch Der Trick- film in seinen grundsätzlichen Möglichkeiten (96 f.) eine solche Technik, die bereits 1912 in Frankreich von E. Kress in Trucs et illusions. Applications de l’optique et de la mécanique au cinématographe beschrieben worden war und von Seeber 1923 für Paul Wegeners Film Lebende Buddhas (D) verwendet wurde. 210 Compositing fahren kombiniert. Der Trick besteht darin, dass orangefarbene Teile des Hintergrunds durch orangefarbene Teile des Vordergrunds ausgefiltert werden. Man kann diesen Effekt schnell überprüfen, indem man eine far- bige Folie – beispielsweise ein farbiges Sichtmäppchen – über eine Zeich- nung in der gleichen Farbe auf weißem Papier legt: Schaut man sich die Zeichnung nun durch die Folie an, scheint sie unsichtbar. Dieses Prinzip hat nach Giesen (2001: 292) zunächst Victor Margutti für das Rankstudio in Pinewood 1956 mit dem Sodium-Vapor-Verfahren wie- der aufgenommen, und Petro Vlahos hat es 1958 verfeinert und patentiert.18 Vlahos ist der wohl vielseitigste Entwickler von Travelling Mattes. Er hat 1976 die Firma Ultimatte gegründet, welche das elektronische Bluebox-Ver- fahren entwickelte, mit dem sich in Echtzeit Bilder aus verschiedenen Quellen miteinander kombinieren lassen. 1994 hat er für seine Erfindung zusammen mit seinem Sohn Paul Vlahos einen Academy Award erhalten. Bis heute basieren sämtliche Verfahren auf diesen Prinzipien.19 Immer geht es darum, einen Farb- oder Helligkeitsunterschied so auszunutzen, dass sich durch die Differenz Masken erstellen lassen. Natürlich wurde es mit dem Aufkommen des Farbfilms wesentlich schwieriger, denn die Farbe des Hintergrunds durfte im Objekt nicht vorkommen. Obwohl sich grundsätzlich alle Primärfarben eignen, für welche die einzelnen farbsen- sitiven Schichten des Films konzipiert sind – also Rot, Grün oder Blau –, hat man aus diesem Grund während Jahrzehnten vorzugsweise mit Blue- screen gearbeitet, weil Blau im menschlichen Hautton nicht vorkommt. Es würde zu weit führen, alle die unterschiedlichen optischen Prozesse, die sich seit den frühen 1940er-Jahren für den Farbfilm herausgebildet haben, aufzulisten und zu erklären. Daher beschränke ich mich darauf, einige grundlegende Begriffsunterscheidungen zu erläutern. z Color Separation Ein Bluescreen-Prozess, der das Positiv eines Rotauszugs mit dem Negativ eines Blauauszugs zu einer Maske auf einem Film mit steiler Gradation (high contrast film) kombiniert (Fielding 1972: 221 f.). Gemäß Rickitt (2000: 49) erstmals für The Thief of Bagdad (GB 1940, Ludwig Berger; Michael Powell; Tim Whelan) in Technicolor eingesetzt, war es das dominante Verfahren bis in die späten 1950er-Jahre und wurde 18 Vlahos, Petro (1958): Composite Photography Utilizing Sodium Vapor Illumination, US Patent 3,095,304, 15. Mai 1958. Das Verfahren wurde erstmals in Ben Hur (USA 1959, William Wyler) eingesetzt. 19 «Vielleicht setzt sich dereinst auch die Z-Cam-Entwicklung durch, welche die Ebenen- trennung durch eine Tiefenmessung ermöglicht. Durch Infrarotmessung kann ein zusätzlicher Tiefenkanal gewonnen und abgespeichert werden» (Anmerkung von Andreas Krein, persönliche Mitteilung). Layers/Mattes 211 von Paramounts Special-Effects-Chef John P. Fulton auch in der spek- takulären Teilung des Meeres in The Ten Commandments (USA 1956, Cecil B. DeMille) verwendet – einer Aufnahme, die laut Hamus-Vallée (2001: 27) sechs Monate Arbeitszeit und eine Million Dollar verschlun- gen hat. Nachteile dieses Verfahrens waren die Schwierigkeiten mit halbtransparenten Gegenständen und mit Spiegelungen. z Color Difference Im Vergleich zum Color-Separation-Verfahren ist Color Difference wesentlich ausgefeilter, erlaubt die Wiedergabe von feinen Details, transparenten Objekten und Reflexionen und erfordert darüber hi- naus weniger Generationen. Außerdem kann der Bereich des Blaus so genau bestimmt werden, dass sich damit auch Superman in sei- ner blauen Kleidung als Maske extrahieren ließ (Superman, USA 1978, Richard Donner). Es basiert auf Petro Vlahos’ bereits erwähn- tem Sodium-Vapor-Verfahren und dessen Weiterentwicklungen, ebenfalls durch Vlahos.20 Eine Maske wird durch Kombination eines blauen und später eines grünen Filters auf kontrastreichem Film hergestellt. Nun werden der Rot- und Grünauszug mit einer männlichen Maske, der Blauauszug mit einer weiblichen Maske im Bi-Pack-Verfahren miteinander kombiniert (vgl. Fielding 1972: 227 f. und Rickitt 2000: 51 ff., wo sich auch eine anschauliche Ab- bildung findet). Von Color Difference spricht man aber auch in der digitalen Domäne (Brinkmann 1999: 84). Dieser Prozess umfasst nicht nur das Erstellen einer Maske, sondern auch die Farbkorrektur und die Kombination der Bild- teile. Zunächst geht es darum, Pixel für Pixel die zu ersetzende Farbe auszufiltern, also auch dort, wo sie nicht direkt der Maske zuzuordnen ist. Dieser Vorgang dient der Farbkorrektur, der soge- nannten Spill Suppression, welche Reflexionen des blauen Hinter- grunds auf die Objekte im Vordergrund ausgleicht. In einem zwei- ten Schritt kann man dann innerhalb gewisser, zu definierender Toleranzen einen Farbbereich bestimmen, dem später Transparenz zugeordnet wird. Zur Kombination des Vordergrundbildes mit dem Hintergrund kommen verschiedene mathematische Operati- onen in Frage, die weit über die üblichen Verfahren auf dem opti- schen Printer hinausgehen. Diese spezifisch digitalen Möglichkei- ten werde ich im Abschnitt Der Alpha-Kanal (→ 221) thematisieren. 20 Vlahos, Petro (1964): Composite Color Photography, US Patent 3,158,477, 24. November 1964. Dieses Verfahren kam erstmals in Walt Disneys Mary Poppins (USA 1964, Robert Stevenson) zur Anwendung. 212 Compositing z Difference Matting Darunter versteht man die Extraktion einer Maske durch Subtrak- tion eines Bilds ohne Objekt von einem identischen Bild, welches das Objekt enthält (Brinkmann 1999: 82 f.). Es versteht sich von selbst, dass dieses Verfahren der digitalen Domäne vorbehalten bleibt. Es ist allerdings auf einige wenige Anwendungen beschränkt, denn es setzt voraus, dass entweder die Kameraposition fest ist oder aber zwei identische Durchgänge mit Motion Control aufgezeichnet werden. Der Vorteil dieser Technik besteht darin, dass sich Masken von Objekten vor allen erdenklichen Hintergründen ziehen lassen. z Chroma und Luma Keying In der Videowelt, und zwar sowohl in der analogen als auch in der digitalen, arbeitet man üblicherweise mit Komponentensignalen, die sich aus einer Komponente für Helligkeit (luminance), welche dem Grünkanal entspricht, und zwei Komponenten für die Farbdifferenz im Rot- und Blaukanal zusammensetzen – dies aus Gründen der Da- tenökonomie (siehe auch Flückiger 2003: 35 f.). Keying meint bei die- sen Aufzeichnungsverfahren im Allgemeinen ein Echtzeit-Composi- ting, welches das Erstellen der Maske – entweder basierend auf Hel- ligkeitsdifferenzen (luma keying) oder auf Farbunterschieden (chroma keying) – sowie die Kombination unterschiedlicher Bildteile umfasst, wie es von Petro Vlahos in den 1970er-Jahren eingeführt wurde und seither vor allem bei Fernsehsendungen, seltener in der Postproduk- tion, angewendet wird. Heute wird der Begriff Keying oft synonym mit eine Maske ziehen (pulling a matte) verwendet. Das Photoshop-Pro- gramm verfügt über ein Werkzeug – Zauberstab genannt –, mit dem man Bereiche einer ausgewählten Farbe ersetzen kann. Es ist klar, dass bei allen Travelling-Matte-Verfahren die Objektkanten Kri- senzonen bilden, denn schon bei geringsten Ungenauigkeiten entstehen die gefürchteten Matte Lines: dünne schwarze Linien, die um das Objekt sicht- bar sind. Denn durch einen Vergrößerungsfaktor im Bereich von mehreren Hundert21 wird jede kleinste Abweichung in sichtbare Dimensionen übertra- gen. Dies erfordert bei den analogen Verfahren eine unglaubliche Präzision der mechanischen Toleranzen des Perforationstransports (pin register). Schon während der analogen Phase entwickelte man Techniken, um die Kanten weich zu zeichnen. Heute, im digitalen Zeitalter, sind solche Techniken Bestandteil jeder Compositing-Software (siehe auch Brinkmann 1999: 88 f.). 21 So beträgt beispielsweise bei 35-mm-Film und einer Leinwandbreite von 12 m der Fak- tor circa 343. Layers/Mattes 213 3 Immortel (ad Vitam) Eine weitere Problemzone der Aufnahme von Travelling Mattes be- steht im Spill, also der Farbreflexion von der blauen oder grünen Leinwand auf die Darsteller und Objekte, welche – wie oben erwähnt – durch geeig- nete Techniken herausgefiltert werden müssen. Blue Spill zeigt sich beson- ders in feinen Haarstrukturen22 oder glänzenden Reflexionen. Tatsächlich sind die Verfahren – und zwar besonders die optischen – alles andere als automatisch oder problemlos: Sie bergen viele Risiken – vom Farbmanage- ment über spezielle Anforderungen an die Beleuchtung und die Korn- struktur des Filmmaterials bis hin zur Bestimmung der monochromen Farbe der Leinwand je nach Aufnahmesituation (im Detail nachzulesen bei Probst 1996: 91 ff.; siehe auch die Diskussion in cinefex 100: 63 ff.). Über diese technischen Anforderungen hinaus ist es in verschiede- ner Hinsicht sehr schwierig, vor Blue- oder Greenscreen zu drehen. Denn Schauspieler und Regisseur haben oftmals nur eine vage Ahnung davon, wie das geplante Bild in seiner endgültigen Fassung aussehen wird. Dies gilt besonders dann, wenn die Schauspieler in einer virtuellen, digital er- zeugten Umwelt spielen – so in den Szenen, in denen Bob Hoskins in Toon- town agiert (Who Framed Roger Rabbit? USA 1988, Robert Zemeckis – ein Film übrigens, der noch analog prozessiert wurde), alle Aufnahmen mit dem Kleinkind in Baby’s Day Out (USA 1994, Patrick Read Johnson), in den letzten Star-Wars-Filmen, in großen Teilen von A. I. – Artificial Intelligence (USA 2001, Steven Spielberg), in Sky Captain and the World of Tomorrow (USA 2004, Kerry Conran), in Immortel (ad Vitam) 22 Aus diesem Grund werden im Fernsehen Moderatorinnen und Moderatoren mit glat- tem Haar bevorzugt. 214 Compositing 4 Casshern 5 Sin City 6 Hochbetrieb Layers/Mattes 215 7–8 Big Fish: Greenscreen (links); Compositing (rechts) (F/I/GB 2004, Enki Bilal) sowie Casshern (JP 2004, Kazuaki Kiriya), in Sin City (USA 2005, Frank Miller; Robert Rodriguez), in King Kong (NZ 2005, Peter Jackson) und vielen anderen mehr. Wahrscheinlich der erste Film, der vollständig vor Bluescreen gedreht wurde, ist Maaz (F 2000, Christian Volckman), ein Kurzfilm, der mit dem Prix Ars Electronica aus- gezeichnet wurde. 2001 hat Andreas Krein in Deutschland den mehrfach preisgekrönten Kurzfilm Hochbetrieb ebenfalls komplett vor Bluescreen gedreht. Viele dieser Filme sind ästhetisch sehr eigenwillig (Abb. 3–6). In solchen Fällen muss eine Interaktion zwischen Live-Action- und CG-Elementen nicht nur sorgfältig hinsichtlich der räumlichen und zeit- lichen Anpassung geplant, sondern auch mit verschiedenen technischen Entwicklungen so unterstützt werden, dass die Plausibilität dort, wo sie gefordert ist, erhalten bleibt. Neben der Interaktion zwischen Figuren, Raum und Zeit stellen sich weitere Probleme in Bezug auf die ästhetische Kohärenz (Abb. 7–8). Beiden Themen werde ich eigene Abschnitte wid- men (→ Interaktion 232, → Ästhetische Kohärenz 256). Mit dem digitalen Compositing sind alle Formen von Verknüpfung denkbar, insbesondere Boolesche Operationen (AND, OR, NOR), mit denen ich mich im Kontext der Eigenschaften von digitalen Bildern schon be- schäftigt habe – das heißt, Bilder können addiert, subtrahiert, miteinander multipliziert werden. «Addition und Multiplikation sind die Grundpfeiler des Compositing.»23 Es können alle Farbkanäle einzeln skaliert oder gefil- tert werden, Umrisslinien lassen sich schärfen oder weich zeichnen usw. Der Fantasie sind keine Grenzen gesetzt. Rotoskopieren und Retuschen Weit häufiger als für seinen ursprünglichen Zweck, nämlich die Anima- tion nach Live-Action-Vorlagen, benützt man das bereits erwähnte, von 23 Anmerkung von Andreas Krein (persönliche Mitteilung). 216 Compositing Max Fleischer 1917 patentierte Ro- toskop (rotoscope)24 für das manu- elle, einzelbildweise Verfertigen von Travelling Mattes (Abb. 9). Die wahrscheinlich größte Schlacht am Rotoskop wurde für Tron (USA 1982, Steven Lisberger) geschlagen, für den sämtliche Auf- nahmen der Figuren in der Com- puterwelt rotoskopiert wurden, aus Gründen notabene, die mir bis heute nicht wirklich einleuch- ten.25 Denn die Figuren wurden in Schwarz-Weiß gefilmt und nach- träglich via Backlit-Technik auf dem Animationsstand aufgenom- men – also von hinten durch farbige 9 Original-Rotoskop von Folien beleuchtet, um den Glow-Ef- Max F leischer fekt der elektronischen Schaltkreise auf den Kostümen zu erzeugen. 53 Minuten Film, die in der elektronischen Welt spielen, hat man einem auf- wendigen Prozedere unterzogen, indem man zunächst jedes einzelne Bild des ursprünglich auf 65-mm-Material gedrehten Films auf 12.5*20 Zoll26 große Kodalith-Folien vergrößert hatte. Auf diesem Material haben soge- nannte Rotoscope Artists in mühevoller Kleinarbeit verschiedene Masken gezeichnet, die Umrisslinien der Figur sowie zusätzliche Abdeckmasken für das Gesicht. Außerdem musste der Hintergrund für die Backlit-Technik mit Tusche geschwärzt werden (siehe cinefex 8: 10 f. sowie das Making-of auf der Special-Edition-DVD). Alle diese Masken plus die von Hand ge- 24 Wie Silverman (2004: 2) schreibt, entdeckten Fleischers Anwälte in den 1940er-Jahren, als sie Disney wegen Verletzung des Patents in Snow White (USA 1937, Walt Disney) anklagen wollten, dass die Firma Bosworth, Defresnes and Felton bereits früher eine ähnliche Vorrichtung erfunden hatte, aber nie patentieren ließ. 25 Dazu Harrison Ellenshaw (in cinefex 8: 11): «Certainly, some of this could have been done on the optical printer. You could have shot some of it bluescreen for example, but that would have been far more limiting. Considering we have fifty-three minutes worth, it was actually faster to do it this way. I’d hate to think of doing fifty-three mi nutes of opticals! [Natürlich hätte man einige dieser Arbeiten auf der optischen Bank ausführen können. Man hätte beispielsweise vor Bluescreen aufnehmen können, aber das hätte uns weit mehr Einschränkungen auferlegt. Wenn man bedenkt, dass wir 53 Minuten Material herstellen mussten, konnten wir auf diese Weise schneller arbeiten. Ich hasse die Vorstellung, 53 Minuten Material auf der optischen Bank bearbeiten zu müssen.]» Trotzdem bleibt natürlich die Frage, ob es mit dem Rotoskop einfacher war. 26 = 31,75*50,8 cm Layers/Mattes 217 zeichneten Hintergründe wurden als Folien miteinander kombiniert, wo- bei für jedes Bild 25 Durchgänge auf VistaVision-Film erfolgten. It’s really beautifully simple. The complexity comes when you think about the volume of work. We have seventy-five thousand frames of live-action in the electronic world. That means we have seventy-five thousand continuous tones, seventy-five thousand hi-cons, seventy-five thousand body mattes, seventy-five thousand circuit reveals. Forty percent of the time we have face reveals and face mattes; fifteen percent of the time we have eye reveals. And we’ve got seven hundred backgrounds to worry about – some of which are set pieces that you may have to generate separate elements for, some of which are computer generated, some of which are painted. If you took all of the elements – not counting backgrounds – that we used on the film, and stacked them five feet high, that row would be fifty-eight feet long! I had to figure that out just to see how much room we would need to store it.27 (VFX Supervisor Harrison Ellenshaw in cinefex 8: 11) Ohne Zweifel tendieren diese Dimensionen ins Absurde, aber sie ver- deutlichen einen Aspekt, der immer mit dem Rotoskopieren verbun- den ist, nämlich die extrem zeitraubende und aufwendige Handarbeit. Schließlich gibt es auch Grenzen dessen, was sich rotoskopieren lässt: sanfte Rauchschwaden oder ein Laubbaum im Sturm jedenfalls sind dazu nicht geeignet.28 Jedoch unterstützen seit den frühen 1990er-Jahren Com- puterprogramme das Rotoskopieren: entweder indem sie den Fluss der einzelnen Pixel oder von ausgewählten markanten Bildteilen zwischen den Bildern verfolgen (tracking) und – ähnlich wie in der Keyframe-Ani- mation – In-Betweens mehr oder weniger automatisch berechnen – oder indem sie Verfahren der optischen Gestalterkennung nutzen, so beispiels- weise plötzliche Kontrastu nterschiede, welche als Kanten infrage kom- men (siehe dazu Silverman 2004). Die Umrisse werden auf dem Computer als Spline-Kurven durch eine Polynomfunktion definiert und lassen sich 27 «Es ist wunderbar einfach. Wie komplex das Verfahren ist, merkt man erst, wenn man die Zahl der Arbeitsschritte bedenkt. Wir hatten 75 000 Live-Action-Bilder, die in der elektronischen Welt angesiedelt waren. Das bedeutete je 75 000 Folien in kontinuier- lichen Graustufen, 75 000 Hochkontrast-Folien, 75 000 Körpermasken, 75 000 Schalt- kreismasken. In 40 % der Fälle kamen männliche und weibliche Gesichtsmasken dazu sowie in 15 % der Fälle zusätzliche Augenmasken. Außerdem mussten wir uns um 700 Hintergrundbilder kümmern, wobei einige Sets sich aus mehreren Elementen zu- sammensetzten, andere computergeneriert waren. Schließlich kamen noch die gemalten Hintergründe dazu. Wenn man alle Folien – ohne die Hintergrundbilder – je 1,50 m hoch gestapelt hätte, wäre die Reihe von Stapeln 18 m lang geworden. Ich musste diese Rech- nung aufstellen, um herauszufinden, wieviel Stauraum wir für die Folien brauchten.» 28 Anmerkung von Andreas Krein (persönliche Mitteilung). 218 Compositing 10 Face-Replacement in Jurassic Park deshalb mit weniger Kontrollpunkten von Bild zu Bild angleichen, ohne sich unnatürlich zu verhalten. Außerdem lassen sich die Umrisse beliebig weich zeichnen oder sogar mit dem adäquaten Motion Blur versehen. Warum und wann rotoskopieren? Zum einen erlaubt das Rotosko- pieren die Arbeit in einer natürlichen Drehsituation mit allen Vorteilen der räumlichen Orientierung und der Interaktion. Zum anderen können weit intelligentere und komplexere Masken gezogen werden – besonders dann, wenn sich Figuren zwischen Vordergrund und Hintergrund bewegen, denn es stellt besondere Anforderungen, Bildteile zwischen verschiedene Schichten zu platzieren oder zu sandwichen, wie man es nennt. Hier do- minieren die Fähigkeiten des menschlichen Geistes noch immer über die Maschine, die nach wie vor Schwierigkeiten hat, in komplexen Situationen und unter sich verändernden Bedingungen Gestalten zu erkennen. Aus diesem Grund hat beispielsweise Ub Iwerks die Vögel in The Birds (USA 1963, Alfred Hitchcock) rotoskopiert und erzeugt mit dieser Technik eine weit intensivere Interaktion zwischen den bedrohlichen Tieren und den Protagonisten, als dies mit Bluescreen-Travelling-Mattes möglich gewesen wäre. So wurden weiter einige Twister in The Day After Tomorrow (USA 2004, Roland Emmerich) in die Stadtbilder von Los Angeles eingefügt, die Protagonisten in What Dreams May Come vom Hintergrund isoliert, indem später mittels eines Verfahrens aus der computergestützten Bild- erkennung einzelnen Bildelementen individuell passende Pinselstriche zugeordnet wurden (siehe cinefex 76: 113 f.). Mittels Rotoskopieren hat man Nicholas Cage in Adaptation (USA 2002, Spike Jonze) verdoppelt, weil sein krauses Haar zu unüberwindbaren Problemen bei der Greenscreen-Aufnahme führte oder weil die realen Sets keinen Einsatz von Greenscreen erlaubten (VFX Supervisor Gray Marshall in cinefex 93: 19). Rotoskopiert wurde auch das Mädchen im roten Mantel aus Schindler’s List (USA 1993, Steven Spielberg). VFX Supervisor John Knoll hat sich für Pirates of the Caribbean (USA 2003, Gore Verbinski) bewusst dazu entschieden zu rotoskopieren, um der Regie größtmögliche Layers/Mattes 219 11–12 Forrest Gump: Lyndon B. Johnsons Kopf rotoskopiert (links) und e ingefügt (rechts) Freiheit bei der Inszenierung und gleichzeitig der Kamera unbeschränkte Möglichkeiten bei der Lichtgestaltung einzuräumen (cinefex 100: 63). Auch das viel geschmähte Face Replacement, das beispielsweise durch seine Anwendung in The Crow (USA 1994, Alex Proyas) in Verruf geriet, weil der am Set verstorbene Hauptdarsteller Brandon Lee in einige später gedrehte Einstellungen eingefügt wurde, ist Rotoskopiertechnik. Gesich- ter werden aber nicht nur ersetzt, wenn Schauspieler sterben, sondern auch, wenn die Szenen von Stunts gespielt und mit relativ nahen Aufnah- men umgesetzt werden (Abb. 10). Mit derselben Technik hat man Lyndon B. Johnson für Forrest Gump aus historischem Material extrahiert und in neu gedrehte Szenen eingefügt (Abb. 11–12) oder Brad Pitts Gesicht für Interview with the Vampire (USA 1994, Neil Jordan) aus der Live-Action-Aufnahme ausgeschnitten, von Hand blasser und schattenumwölkter gemalt und wieder eingefügt (VFX Supervisor Rob Legato in cinefex 61: 48). Mit Rotoskopieren lassen sich nicht nur Masken generieren, sondern es eignet sich auch zur punktgenauen Farbkorrektur (spot color correction). Blitze, Schüsse und Laserkanonen kann man weit einfacher direkt in die einzelnen Bilder zeichnen, als sie zuerst in einem 3D-Programm zu erzeu- gen und nachträglich einzufügen. So wurde schon zu Zeiten von Metro- 13–14 Star Wars: Original ‹Laserschwerter› (links); rotoskopierte Laserschwerter (rechts) 220 Compositing 15 Rotoskopierte Blitze in Terminator 2 polis (D 1927, Fritz Lang) verfahren, und das berühmte Laserschwert aus Star Wars wird bis heute auf diese Weise erzeugt (Abb. 13–14). Rotoscope Artists werden oftmals verächtlich als Roto Monkeys bezeich- net, weil man ihre Tätigkeit als hirnlose Fließbandarbeit einstuft. Trotzdem braucht es sehr viel Können und Fingerspitzengefühl, die Linien so zu zeichnen, dass sich nicht von Bild zu Bild kleine Abweichungen ergeben, die als Jitter, als Zittern der Umrisslinien, sichtbar würden. Eine weitere Falle ist Chatter, auch Pixel-Kissing genannt, bei dem sich Vordergrund und Hintergrund ständig leicht gegeneinander verschieben. Im weiteren Sinne gehören Retuschen aller Art zum Komplex des Ro- toskopierens, denn man nimmt sie ebenfalls mit Malprogrammen direkt am Bild vor. Die wohl häufigste Form dieses Eingriffs ins Bildmaterial ist das so- genannte Removal, mit dem man Kabel, technische Apparate des Filmteams, Scheinwerfer, Mikrofone, Gebäude, welche nicht in die intendierte Periode passen, aber auch Team-Mitglieder oder sogenannte Proxys aus dem Bild entfernt – nämlich Schauspieler, welche klassisch animierte oder digitale Fi- guren am Set vertreten wie Betsy Brantley für Jessica in Who Framed Roger Rabbit?, Andrew Serkis für Gollum in The Lord of the Rings oder Alan Tu- dyk für Sonny in I, Robot (USA 2004, Alex Proyas). Je verlässlicher sich mit Malprogrammen Retuschen ausführen lassen, desto mehr verbreitet sich die Fix-it-in-post-Mentalität,29 die Probleme am Set ignoriert, um deren Lösung der Visual-Effects-Crew zu überlassen – eine wenig glamouröse Aufgabe. Dennoch sind viele erzählerische Konstellationen denkbar, die sich ohne Retuschen überhaupt nicht realisieren lassen, und zwar vor allem jene Situationen, in denen Figuren übernatürliche Fähigkeiten besit- zen oder magische Erscheinungen eine Rolle spielen. Die Kabeltechnik (wire work) – längst schon im Theater etabliert und auch punktuell in einzelnen Filmen immer wieder eingesetzt – hat den Umweg über das Hongkong-Kino zurück zum amerikanischen Mainstream genommen. Während man bei traditionell analogen Aufnahmen die Drähte schwarz 29 James Cameron soll beim Drehen von Terminator 2 so begeistert von den neuen Möglichkeiten der digitalen Bildbearbeitung gewesen sein, dass teilweise ein Achtel des Bildes ersetzt werden musste (Effects Producer Julia Gibson in cinefex 47: 21). Layers/Mattes 221 kaschierte und die Beleuchtung sorgsam so auslegte, dass sie nicht sicht- bar wurden, ermöglichen es die digitalen Verfahren, entsprechende Pixel aus der Umgebung zu klonen oder neue durch Interpolation zu erzeugen, um so die Bereiche, in denen sich die Kabel befinden, abzudecken. Tradi- tionell hat man für solche Zwecke eine sogenannte Clean Plate aufgenom- men – dieselbe Einstellung nochmals ohne die zu entfernenden Objekte oder Figuren –, um die Lücken zu füllen. Was bei einzelnen Fotos eine relativ einfache Übung darstellt, ist bei bewegten Bildern weit schwieriger, denn durch die Abfolge werden Un- genauigkeiten sofort auffällig, die sich im einzelnen Bild kaum bemerkbar machen. Dank Wire Work und Removal schwebten in What Dreams May Come ganze Scharen von Engeln an Drähten durch die wundersamen Welten des Jenseits; in der Traumwelt von The Cell (USA 2000, Tarsem Singh) sind die Gesetze der Schwerkraft ebenfalls aufgehoben, und zahllos sind die Helden von Terminator 2 über Lara Croft in Tomb Raider (USA 2001, Simon West) bis XXX (USA 2002, Rob Cohen), die mit ihren Motor- rädern durch die Lüfte brausen – ganz zu schweigen von all den Stunts in The Matrix (USA 1999, Andy und Larry Wachowski), Spider-Man (USA 2002, Sam Raimi) oder Daredevil (USA 2003, Mark Steven John- son). Selbst die bedrückende Einsamkeit auf der verlassenen Insel in Cast Away (USA 2000, Robert Zemeckis) war nur dank Removal-Technik mög- lich, nämlich dank Insel-Removal. Denn damit dass Eiland völlig isoliert erschien, mussten einige in Sichtweite angeordnete Inseln wegretuschiert werden. (AmC 1/2001: 52). So ist die Retusche zwar eine Technik, die we- nig Applaus erntet und sich eher im Verborgenen abspielt, aber trotzdem einen unübersehbaren Einfluss auf die Wahl von Motiven, die Gestaltung von Szenerien und das Handlungsrepertoire der Figuren ausübt. Der Alpha-Kanal Ähnlich wie die bereits erwähnten analogen Masken funktioniert der Al- pha-Kanal, mit welchem sich solche Masken für computergenerierte Ob- jekte direkt im Render-Prozess erzeugen lassen, mit dem aber auch gleich- zeitig die Transparenz eines Objekts variabel definiert werden kann. Diese Transparenz wird durch Grauwerte bestimmt, die bei 8-Bit-Codierung ebenfalls 8 Bit umfassen, sodass für einen Pixel im sogenannten RGBA-For- mat mit integriertem Alpha-Kanal insgesamt 32 Bit – je 8 pro Farbkanal R, G und B, plus 8 für den Alpha-Kanal – zusammenkommen.30 Dabei 30 Gemäß Smith (1995: 6) war die dafür notwendige zusätzliche Speicherkapazität von 25 % der Grund, warum der Alpha-Kanal erst vergleichsweise spät eingeführt wurde, denn Speicherplatz war damals ein teures Gut. 222 Compositing entspricht – etwas kontraintuitiv – Weiß mit dem Faktor 1 voller Opazität, Schwarz mit dem Faktor 0 voller Transparenz. Dies aus dem Grund, weil sich bei der Multiplikation mit 1 nichts verändert, das Objekt also seine Farbe behält, während es multipliziert mit dem Faktor 0 transparent wird. Ed Catmull und Alvy Ray Smith – zwei der einflussreichsten und kreativsten Pioniere der Computergrafik – haben den Alpha-Kanal in der zweiten Hälfte der 1970er-Jahre am New York Institute of Technology entwickelt. In einem späteren Text befasst sich Smith (1995) nochmals aus historischer Distanz mit dieser Entwicklung und reflektiert deren Einfluss auf die Möglichkeiten des digitalen Compositing. Zunächst ist festzuhalten, dass man zwar in der analogen Fotografie mittels Doppelbelichtung auch Transparenz herstellen konnte, aber es lassen sich spezifischere ästhetische Erzeugnisse gestalten, wenn man den einzelnen, einander überlagerten Schichten genau kontrollierte Transpa- renz zuweisen kann. Nicht nur Glas oder Wasser, auch unterschiedlich dichte Atmosphären, Rauch oder Nebel sowie Objekte mit Bewegungs- unschärfe können so via Compositing in eine real aufgenommene Szene integriert werden. Partielle Transparenz spielt zudem eine nicht zu un- terschätzende Rolle für die Bewältigung der notorischen Krisenzone Ob- jektkante, da sich damit weichere Verläufe, die natürlicher wirken, ohne weiteres erzeugen lassen. Die Transparenzinformation lässt sich bereits im Modelliervorgang bestimmen und fließt dann in das gerenderte Bild ein. Ein frühes Beispiel dafür ist der halbtransparente Ritter aus Young Sher- lock Holmes (USA 1985, Barry Levinson). Smith (1995: 7) beschreibt den Stellenwert etwas pathetisch: «The digital contribution here is not simply a simulation of the classic film tech- niques; it is something new: a single concept incorporating both color and transparency – much like the human mind perceives an object. In yet other words, the matte ceases to exist conceptually.»31 Tatsächlich bedeutet die Integration des Alpha-Kanals, dass ein Objekt als diskretes Element exis- tiert und nicht nur als Bestandteil eines Bildes, das unauflöslich mit sei- nem Kontext verschmolzen ist. So richtig stimmt Smith’ Aussage aber erst für das sogenannte Premultiplied Alpha, das 1984 von seinen Mitarbeitern Tom Porter und Tom Duff32 entwickelt wurde. Mit der Multiplikation mit 31 «Das digitale Verfahren leistet mehr als die einfache Nachbildung einer klassischen Filmtechnik. Es ist etwas Neues: ein einheitliches Konzept, das gleichzeitig über Farbe und Transparenz verfügt und damit in ähnlicher Weise funktioniert wie die menschli- che Objektwahrnehmung. Mit anderen Worten: Masken sind überholt.» 32 Porter, Thomas; Duff, Tom (1984): Compositing Digital Images. In: Computer Graphics, Annual Conference Proceedings, Bd. 18, Nr. 3, S. 253–259. Alvy Ray Smith, Ed Catmull, Thomas Porter, Tom Duff haben für ihre Entwicklungen des digitalen Compositing 1995 einen Sci-Tech Award erhalten. Layers/Mattes 223 16–18 Originalaufnahme eines Papageis (links); Alpha-Kanal von Abb. 16 (Mitte); Produkt aus Abb. 16 multipliziert mit Abb. 17 (rechts) Alpha werden jene Teile, die transparent sind, wirklich transparent; nach der Formel x*0=0 behalten hingegen die voll opaken Teile ihre ursprüng- liche Farbe, weil sie mit 1 multipliziert werden, womit sich ihr Wert nicht ändert (Abb. 16–18). Warping, 2.5D und Tiefeninformation Mit der Möglichkeit, Bilder durch Warping in allen erdenklichen Formen zu verzerren, sie räumlich als 2.5D-Elemente anzuordnen sowie die Tie- feninformation exakt zu bestimmen, stehen im digitalen Compositing zusätzliche gestalterische Optionen offen. Warping ist beispielsweise immer dann notwendig, wenn man einen Hintergrund durch ein transparentes Objekt mit einem Brechungsindex oder durch heiße, bewegte Luft sieht. Sehr oft werden Bilder verzerrt, um die subjektive Wahrnehmung von Figuren darzustellen – so die Per- spektive der Cyborgs in Star Trek: First Contact (USA 1996, Jonathan Frakes; Abb. 19). 19 Warping zur Markierung einer Subjektiven der Borgs in Star Trek: First Cont- act 224 Compositing 20 Computergenerierte Szene 21 Tiefeninformation von Abb. 20 Die Tiefeninformation wird ebenfalls in einem graustufencodierten Bild namens Z-depth Image oder Z-depth Buffer gespeichert (Brinkmann 1999: 255; Abb. 20–21). Wenn computergenerierte Bilder diese Information schon enthalten, lässt sich die Anordnung der Elemente in der Bildtiefe (Z-Achse) genau bestimmen. Ansonsten kann man einzelnen Bildteilen die Tiefeninformation auch zuweisen. Was man unter 2.5D versteht, lässt sich sehr gut mit einigen Stills aus Avalon (JP/PL 2001, Mamoru Oshii) illustrieren (Abb. 22–24), wo die Ef- fekte in ihrer ursprünglichen, betont digitalen Qualität für sich selbst bzw. für die Spielwelt stehen. Entsprechend lassen sich die Bildebenen in verschiedener Ausrich- tung anordnen oder auch krümmen. Diese Möglichkeit, die an das bereits erwähnte Kamera-Mapping (→ 82) anschließt, wird oft auch eingesetzt, um Matte Paintings plastischer erscheinen zu lassen, indem man sie halb- 22–24 Avalon: 2.5D-Effekt zur Markie- rung der Spielwelt (oben links); Anschluss an Abb. 22 (oben rechts); Auflösung des Körpers in 2.5D (links) Layers/Mattes 225 25 Postkarten-Effekt in Moulin Rouge! 26 Gekrümmter Monitor in Judge Dredd kreisförmig anordnet oder durch die Staffelung von einzelnen Ebenen eine Parallaxe simuliert. In Moulin Rouge! (AUS/USA 2001, Baz Luhrmann; Abb. 25) wurden viele Fahrten durch Paris auf diese Weise realisiert, um einen theatralischen Kulisseneffekt – mit Verweis auf aufklappbare Postkarten auch Postkarteneffekt genannt – zu simulieren (VFX Supervisor Chris Godfrey in cinefex 86: 19). Oft muss man Bilder im Compositing aber auch krümmen oder räumlich ausrichten, um eine Projektion auf eine Leinwand oder einen Monitor darzustellen. Das wahrscheinlich eindrücklichste Beispiel für dies e Anordnung sind die transparenten Bildschirme in Minority Report (USA 2002, Steven Spielberg; Abb. 26 im Kapitel Oberflächen und Materi- alien), die in ähnlicher Weise schon in Judge Dredd (USA 1995, Danny Cannon; Abb. 26) vorkamen. Die gleichen Probleme sind zu bewältigen, wenn Spiegelungen auf gekrümmte Oberflächen appliziert werden sollen, wie in den zahllosen Beispielen – auf Sonnenbrillen, Löffeln, in zerflie- ßenden Spiegeln – aus The Matrix (Abb. 88–90). Schließlich ist mit 2.5D 226 Compositing außerdem das Supercell genannte Auge des Hurrikans in The Day After Tomorrow entstanden – eine Arbeit, die im Bonusmaterial der DVD sehr schön illustriert wird. Fallstudien Layering Schon in den letzten Filmen, die noch komplett mit analogen Verfahren entstanden – namentlich Star Wars (USA 1977, George Lucas), Blade Runner (USA 1982, Ridley Scott) und Who Framed Roger Rabbit? (USA 1988, Robert Zemeckis) – hatte die Komplexität der einzelnen Schichten und Teilelemente, die sich im optischen Compositing miteinander verban- den oder einander überlagerten, gigantische Ausmaße angenommen. Bei Star Wars war deshalb eine Person, Bert Terreri, allein dafür angestellt, diese Fragmente zu katalogisieren und zu verwalten: «They had created thousands of bits of film and no one knew where they all were. I spent six months tracking down all those different pieces of celluloid»33 (Terreri in Rickitt 2000: 60). Mit der Einführung der digitalen Technologien hat sich diese Kom- plexität nochmals um Potenzen gesteigert; es ist unmöglich, auch nur ei- nen Bruchteil der Prozesse zu identifizieren, wenn man die Endprodukte anschaut. Erschwerend kommt für den Forscher hinzu, dass diese Arbei- ten entweder kaum dokumentiert oder aus urheberrechtlichen Gründen nicht herausgegeben werden. Auch die Praktiker, mit denen ich Inter- views geführt habe, waren deshalb nicht bereit, ihre Arbeitsunterlagen zur Verfügung zu stellen. So ist man bei der Darstellung auf die oftmals mehr als rudimentären Schilderungen in Fachpublikationen oder auf das Bonusmaterial der DVDs angewiesen. Die folgenden Fallstudien können deshalb lediglich Anhaltspunkte vermitteln, wie sich das Compositing heute gestaltet. Obwohl sich in meinem Korpus eine Menge an faszinie- renden Compositing-Arbeiten befindet, muss ich mich aus Platzgründen auf zwei Beispiele beschränken. Fallstudie 1: The OThers (USA/F/Sp 2001, Alejandro Amenábar) Der erste internationale Film des Spaniers Alejandro Amenábar eignet sich sehr gut als Einstieg, denn die Situation ist relativ klar und außerdem im Bonusmaterial des Films dokumentiert und illustriert. Wenn man den Film im Kino sieht, würde man kaum digitale Eingriffe vermuten, denn die Bildsprache ist extrem klassisch, zurückhaltend und verzichtet auf ausge- 33 «Sie hatten Tausende von kleinen Filmstreifen produziert und den Überblick verloren. Ich benötigte sechs Monate, um all die verschiedenen Zelluloidstückchen zusammen- zusuchen.» Layers/Mattes 227 27–28 The Others: Elemente des Compositing (oben); fertiges Compositing (rechts) stellte Effekte. Die bedrückende und beängstigende Stimmung vermittelt sich vielmehr über Andeutungen und klug gewählte Situationen. Ein wesentliches Element dieser Stimmung ist der Nebel, der ständig über der Landschaft hängt und sie in trübes Licht hüllt. Diesen Nebel nun hätte man klassisch auch als Physical Effect in die Landschaft pumpen können. Aber jeder, der schon einmal am Set einen solchen Nebel erlebt hat, kennt dessen Tücken: Zum einen ist es fast unmöglich, Außenräume homogen mit Nebel zu füllen, zum anderen schneidet einem das Material die Luft ab. Diese praktischen Schwierigkeiten dürften zum Entschluss geführt haben, den Nebel digital einzufügen, obwohl auch diese Aufgabe weniger trivial ist, als man denken könnte, weil Nebel mit zunehmender Entfernung dichter wird. Als Beispiel habe ich einen Blick durchs Fenster gewählt (Abb. 27–28). Folgende Schichten lassen sich bestimmen: 1. die Reflexion der Hauptfigur im Fenster, als transparentes Element eingefügt; 2. der Fensterrahmen, aufgenommen vor Bluescreen, damit er sich isolieren lässt; 228 Compositing 3. der Gärtner in der Landschaft, positioniert vor Bluescreen, um da- hinter eine größere Nebelschicht zu platzieren; 4. eine Hintergrundaufnahme der Landschaft. Aus 2 und 3 setzt sich die Maske links unten im Bild zusammen, wobei offenbar der restliche Teil der Erde im Vordergrund links und rechts roto- skopiert wurde.34 Rechts unten sieht man den Alpha-Kanal des Nebels, der zwischen Bild 3 und 4 eingefügt wird. Der Nebel war übrigens computerge- neriert, aber ohne 3D-Geometrie der Landschaft, mit welcher er interagiert, sondern als loses Element. In manchen anderen Einstellungen wird auch die Landschaft mittels Z-Tiefen-Information gestaffelt, damit sich mehrere Nebelschichten einfügen lassen. Hier hat man den Baum rechts, der sich relativ weit vorne befindet, offenbar ebenfalls rotoskopiert und stärker nach rechts verlagert, denn er erscheint im fertigen Bild wesentlich näher am See und an der Figur als in der Landschaftsaufnahme und wird von der Nebel- schicht nicht bedeckt. Insgesamt hat man die hellen Bildstellen der Außen- aufnahme – den Himmel und dessen Reflexion auf der Seeoberfläche – an- gedunkelt und ins Bräunliche farbkorrigiert, um eine bedecktere Stimmung zu erzeugen. Trotz all dieser Eingriffe sieht das Resultat extrem natürlich aus, und es dürfte den Zuschauer kaum interessieren, ob der Nebel tatsäch- lich am Motiv vorhanden war oder nachträglich hinzugefügt wurde. Fallstudie 2: TiTanic (USA 1997, James Cameron) Wie im vorhergehenden Beispiel handelt es sich auch bei Titanic um so- genannt unsichtbare35 Effekte, deren Komplexität jedoch wesentlich größer ist – schon allein deshalb, weil unterschiedliche Verfahren der Bildproduk- tion – Modellaufnahmen, Greenscreen und verschiedene computergene- rierte Bildteile – genutzt werden. Camerons Film war in mancherlei Hin- sicht eine herausragende Leistung, die auf einer beispiellosen, extrem kapi- tal- und arbeitsintensiven Materialschlacht beruhte. Neben der Star-Power besonders von Leonardo DiCaprio waren diese Investitionen ein essenziel- les Verkaufsargument des Marketings. Obwohl ‹unsichtbar›, unterstützen die Visual Effects den mehrdimensionalen Exzess dieses Films auf jeder Stufe: als technisches Spektakel von der pathetischen Bildgestaltung mit 34 Theoretisch wäre es auch denkbar gewesen, gleich eine kombinierte Bluescreen-Auf- nahme von Fensterrahmen plus Gärtner herzustellen. Das wurde wahrscheinlich aus Beleuchtungsgründen nicht gemacht, weil es sehr schwierig ist, Innen- und Außenbe- leuchtung einander anzupassen. 35 Der Begriff unsichtbar ist in der Tat sehr heikel. In der Praxis werden Effekte dann als unsichtbar bezeichnet, wenn sie Situationen dienen, die so auch in der Realität aufge- nommen werden könnten. Ich werde mich an anderer Stelle (Sichtbarkeit/Unsichtbarkeit → 258) eingehender damit beschäftigen. Layers/Mattes 229 29 Compositing in Titanic schwindelerregenden Flügen über den Riesendampfer bis hin zur Katas - trophe biblischen Ausmaßes, aber auch als Spektakel der Emot ionen sowohl in der Liebesgeschichte als auch in den brutalen Szenen der Vernichtung. Als Beispiel habe ich eine Einstellung gewählt, welche die Integration disparater Bildteile in ein plausibles Bildganzes sehr gut illustriert. Diese Einstellung ist in Brinkmann (1999: 288 ff.) in Text und Bild anschaulich dokumentiert. Es handelt sich dabei um die erste Exposition der Titanic in ihrer ursprünglichen Gestalt, nachdem in der vorausgehenden Rahmen- handlung das Wrack sowie die gealterte Protagonistin Rose eingeführt wurden (Abb. 29). Wie Brinkmann schreibt, setzt sich das Bild aus Hunderten von Elemen- ten zusammen, von denen nur die wichtigsten aufgeführt werden können: 1. Das Schiff ist in dieser Einstellung ein Modell im Maßstab 1:20. Wann immer übrigens das ganze Schiff zu sehen ist – mit Aus- nahme vielleicht zweier extremer Totalen, in denen das CG-Schiff eingesetzt wurde –, handelt es sich um ein Modell, wobei Modelle in verschiedenen Maßstäben verwendet wurden (siehe dazu den ausführlichen Artikel in cinefex 72). In diesem Fall war es be- sonders schwierig, eine Maske herzustellen, weil das Schiff im Gegenlicht fotografiert werden sollte. Es wurde deshalb mit einer speziellen Technik – nämlich einem orangefarbenen Hintergrund mit ultraviolettem Licht – mit der Motion-Control-Camera ein Durchgang zur Erzeugung einer Maske (matte pass) aufgenommen, 230 Compositing während der Beautypass vor Schwarz aufgezeichnet wurde (VFX Director of Photography Erik Nash in cinefex 72: 50). 2. Die Docks standen zwar am Drehort in Mexiko zur Verfügung, wo auch ein Teil des Schiffes im Maßstab 1:1 vorhanden war. Wegen der extremen Kamerabewegung jedoch wurden sie in 3D am Com- puter nachgebaut und mit Fotos vom Set texturiert (VFX Supervi- sor Rob Legato in cinefex 72: 49). 3. Die Menschenmassen, welche das Dock bevölkern, bestehen im Vordergrund aus vor Greenscreen aufgenommenen Gruppen, die auf Tafeln projiziert wurden, welche man – wie im Abschnitt zu 2.5D (→ 223) erläutert – in die Tiefe gestaffelt anordnete, um einen dreidimensionalen Eindruck zu erzeugen. Die Schatten stammen ebenfalls aus den Greenscreen-Aufnahmen, wurden jedoch von Hand farbkorrigiert und retuschiert (Brinkmann 1999: 289). Im Hintergrund sind es computergenerierte Figuren. 4. Alle Menschen auf dem Schiff sind computergenerierte Figuren. Die Kameradaten der Modellaufnahme wurden dazu auf die virtuelle Kamera übertragen. Es mussten zusätzlich verschiedene Masken erstellt werden, damit sich die Figuren hinter der Reling platzieren ließen. 5. Der Himmel ist ein Matte Painting, das mit animierten Wolken belebt wurde. 6. Das Wasser ist – wie übrigens in allen Totalen in Titanic – compu- tergeneriert. 7. Die diesige Atmosphäre wird von Z-Tiefen-Bildern kontrolliert, damit sie im Hintergrund zunimmt. Die Tiefeninformation stammt im Falle der Docks von den gerenderten Bildern selbst, wurden im Fall der Modellaufnahme des Schiffs aber von Hand gezeichnet (Brinkmann 1999: 290). 8. Einige computergenerierte Möwen tragen zum lebendigen Ein- druck der Szene bei und verdeutlichen außerdem den Maßstab. Ein ausgeklügeltes Skript verband die mehr als 300 Schichten in einem Netzwerk so miteinander, dass sich Veränderungen in den oberen Hierar- chiestufen prozedural auf die untergeordneten Details übertrugen. Gleich- zeitig ließen sich über dieses Skript die mehreren Dutzend Workstations miteinander verbinden, sodass jeder Compositor über alle Eingriffe infor- miert blieb (siehe Farbtafel 93 in Brinkmann 1999 sowie Abb. 30). Betrachtet man das Resultat dieses aufwendigen Prozesses, erscheint das Bild auf den ersten Blick einigermaßen natürlich, wobei sich die aus- geprägte, leicht überstrahlte Gegenlichtsituation in Verbindung mit dem Layers/Mattes 231 30 Compositing-Netzwerk von Ron Brinkmann Dunst als hilfreich erweist, weil sie viele Krisenzonen in milderndes Licht taucht. Auf den zweiten Blick jedoch wirken die beiden Bildhälften – das Schiff auf der einen, das Dock auf der anderen Seite – weit weniger kon- sistent. Auf dem Schiff fallen die Kontraste deutlich knackiger aus als auf dem Dock und erwecken den Eindruck von einem recht harten Son- nenlicht, wenn auch die Schatten an der vorderen Fassade eine ziemliche Aufhellung aufweisen. Bei all dieser Kritik muss man jedoch zwei wesentliche Faktoren berücksichtigen: Erstens ist das Bild Teil einer fließenden Inszenierung, sodass sich viele Details in der Bewegung verspielen und insgesamt die Aufmerksamkeitssteuerung stärker von den Inhalten und der Kamera- führung beeinflusst wird als von der kritischen Suche nach möglichen Fehlern; zweitens ist es angesichts der Tatsache, dass außer einigen echten, lebendigen Figuren im Vordergrund sämtliche Bildelemente eine absolut künstliche Entstehungsgeschichte haben, eigentlich unglaublich, dass das Bild nicht stärker auseinanderfällt. 232 Compositing Interaktion Wenn Bildteile so unterschiedlicher Herkunft sind, ist die Interaktion zwi- schen den einzelnen Elementen ein extrem kritischer Faktor sowohl für die Plausibilität der Diegese als auch für die emotionale Partizipation des Zu- schauers. Wenn Reaktionen von Figuren auf computergenerierte Monster, Flugzeuge, Roboter oder Umwelten nicht stimmen, kann das dramatische Folgen für die Reaktionen des Rezipienten haben, auch wenn diese sich dessen nicht bewusst sein müssen. Denn in den allerwenigsten Fällen handelt es sich um sichtbare, genau zu lokalisierende technische Fehler wie Matte Lines und dergleichen, sondern eher um intuitiv wahrgenom- mene Unstimmigkeiten. Tatsächlich kommen in meinem Korpus einige Fälle vor, in denen dieses Zusammenspiel nicht klappt. So funktioniert die emotionale Zuwendung zu einer digitalen Figur, wie ich zeigen werde (→ Digitale Figuren 422), bisher nur in seltenen Fällen. Das hat neben ande- ren Gründen auch mit der Interaktion zu tun. Interaktion bedeutet jedoch nicht nur das Zusammenspiel der Figuren untereinander, sondern auch deren Verhalten im Raum – proxemische Anordnung, Handlungsmuster und Blickstrukturen – sowie mit den Objekten in diesem Raum einschließlich der Konsequenzen der Handlun- gen. Außerdem umfasst sie die Integration von Live-Action-Elementen, Modellbauten, Matte Paintings und computergenerierten Bildteilen in ein möglichst überzeugendes Raum-Zeit-Gefüge. In der folgenden Darstel- lung beschränke ich mich auf die Problematik des physischen Handlungs- raums. Die ästhetischen Fragen hingegen, die unweigerlich auftreten, wenn disparates Material in eine Einstellung integriert werden soll – Pro- bleme des Schattenwurfs, der Lichtkonsistenz, der Schärfenebenen, der Farb- und Kontrastanpassung – lagere ich in einen eigenen Abschnitt aus (→ Ästhetische Kohärenz 256). Grundsätzlich ist die Problematik der Interaktion zwischen Live- Action-Teilen und animierten Elementen nicht neu, sondern hat eine läng ere Tradition im Animationsfilm, die sich bis in die Frühzeit zurück- verfolgen lässt. Interessanterweise verfügen fast alle frühen Animations- filme über einen Anteil an Live-Action-Elementen – sei es in Form einer zeichnenden oder modellierenden Hand (The Enchanted Drawing, USA 1900, J. Stuart Blackton; Fun in a Bakery Shop, USA 1902, Edwin S. Porter; Humorous Phases of Funny Faces, USA 1906, J. Stuart Blackton), sei es in Form einer Rahmenhandlung wie in The Teddy Bears (USA 1907, Edwin S. Porter), Dreams of Toyland (USA 1908, Arthur Melbourne Cooper) oder ganz besonders in den Filmen von Winsor McCay: Little Nemo (USA 1911) und Gertie the Dinosaur (USA 1914). In Gertie springt Interaktion 233 McCay, nachdem er mit dem Di- nosaurier einen längeren Dialog in Form von Zwischentiteln oder auf der Bühne geführt hat, am Ende tatsächlich ins Bild und klettert auf Gertie herum (Abb. 31). Zwei der erfolgreichsten ame - rikanischen Trickfilm-Serien der 1920er-J ahre basieren auf der Mi- schung von Animation und Live- 31 Interaktion in Gertie the Dinosaur Action: Out of the Inkwell von Max Fleischer integrierte eine Cartoon-Figur in ein reales Umfeld, die Alice-Serie von Disney umgekehrt eine reale Figur in eine Cartoon-Welt. In diese Kategorie gehört außerdem Gene Kellys Invitation to the Dance (USA 1956). Mary Poppins (USA 1964, Robert Stevenson) ist das wohl bekannteste Beispiel dieser Anordnung. Es folgten in den 1970er-Jah- ren Bedknobs and Broomsticks (USA 1971, Robert Stevenson) und Pete’s Dragon (USA 1977, Don Chaffey), 1988 mit einem qualitativen Quanten- sprung Who Framed Roger Rabbit?, 1996 mit digitaler Animation Space Jam (USA 1996, Joe Pytka), in welchem der Basketball-Star Michael Jordan mit Cartoon-Figuren zusammenspielt. Die grundsätzlichen Probleme sind die gleichen wie heute in den analog-digitalen Hybridformen, nur lassen sie sich viel leichter identifizieren, weil die beiden unterschiedlichen Wel- ten klar markiert sind. So spielen sie auch eine fundamental andere Rolle als die fotorealisti- schen Animationen, welche der gleichen Realitätsebene angehören sollen wie die Live-Action-Elemente, denn sie bewegen sich in einem klar defi- nierten Rahmen als Zusatz, als spektakuläres Element, das den Spaßfaktor erhöht, aber keine illusionistische Verschmelzung anstrebt. Vielleicht ist es sogar korrekt, anzunehmen, dass diese Filme trotz der animierten Teile funktionieren, denn mit Ausnahme von Who Framed Roger Rabbit? und der späteren Produktionen gelingt es keinem, eine plausible Interaktion zu behaupten. Völlig anders präsentiert sich die Situation jedoch bei Filmen wie Metropolis oder King Kong, Mighty Joe Young (USA 1949, Ernest B. Schoedsack) oder Jason and the Argonauts (USA 1963, Don Chaffey), in denen sich die Stop-Motion-Animationen nahtlos in die Diegese einfü- gen sollen. Beide historischen Linien sind für den vorliegenden Diskurs fruchtbar: die Live-Action/Animation als anschauliches Material, welches die Krisenzonen verdeutlicht, und die Live-Action/Stop-Motion-Kombi- nation als Vorläufermodell für zeitgenössische Lösungen. 234 Compositing Previz Mit der zunehmenden Fragmentierung des Produktionsprozesses musste sich auch die Arbeitsorganisation verändern. Nicht nur verlagern sich viele Prozesse in die Postproduktion, sondern bereits in der Vorproduk- tion müssen viele Überlegungen in die Aufteilung und Koordination der einzelnen Abteilungen – Modellbau, Pyrotechnik, Puppenanimation, Stunts, Studiobau, Licht, Computergrafik usw. – einfließen. Um die Vor- stellungen der Regisseure zu konkretisieren und für die Kommunikation mit dem Team verfügbar zu machen, wurden schon seit Jahrzehnten Storyboards erstellt, in denen die einzelnen Einstellungen zeichnerisch möglichst genau festgehalten werden. Wie Lucas während seiner Keynote-Diskussion an der SIGGRAPH 2005 bemerkte, fand er Storyboards für seine Arbeit wenig befriedigend, weil sie nicht in der Lage sind, die speziell kinematografischen Elemente Zeit und Bewegung darzustellen. Er hatte deshalb für Star Wars aus Dokumentarfilmmaterial von Luftkämpfen des Zweiten Weltkriegs kleine Filme geschnitten, welche der Special-Effects-Crew als Anleitung für die Inszenierung der Kampfszenen dienen sollten.36 So problematisch die his- torische Verknüpfung ist, so hat Lucas damit doch auf eine Lücke hinge- wiesen, die man inzwischen mit Computeranimation zu füllen versucht, indem man anstelle der Storyboards rudimentäre Animationen erstellt, sogenannte Animatics, welche der Koordination von Raum und Zeit dienen und damit nicht nur eine Grundlage für die Arbeitsorganisation bieten, sondern auch die korrekte Interaktion der disparaten Elemente sicherstellen. Der ganze Vorgang nennt sich Prävisualisierung, kurz Previz, seltener Previs. Nun ist es jedoch so, dass viele Regisseure es hassen, sich unter dem Diktat der Technik an rigide Planungen zu halten; sie wollen in der Lage sein, am Set mit den Schauspielern, der Kamera, dem Licht in einer konkreten Umgebung spontan und intuitiv nach Lösungen zu suchen. Es manifestiert sich hier ein Konflikt, der grundlegender Art ist und aus der Kollision des Wunschs nach künstlerischer Freiheit einerseits und technisch-industriellen Produktionsformen andererseits resultiert. Nicht zuletzt widerspricht die Sehnsucht nach Spontaneität natürlich auch den Anforderungen des Kapitals nach möglichst schlanker und effizienter Arbeitsorganisation. Auch aus eigener Erfahrung mit verschiedenen Re- 36 Lucas gibt auch offen zu, sich für die Masseninszenierungen in Phantom Menace an Leni Riefenstahls Triumph des Willens (D 1935), dem Propaganda-Film über den Nürnberger Parteitag der NSDAP, orientiert zu haben – genauso wie übrigens Ridley Scott für Gladiator, was insofern nicht der Ironie entbehrt, als sich die Nazis ihrer- seits ihre Vorbilder aus den Massenaufmärschen im alten Rom holten. Interaktion 235 gisseuren und Regisseurinnen am Set weiß ich jedoch, dass sich Kunst und Planung nicht notwendig ausschließen, wie das Zitat des Kunstphilo- sophen RG Collingwood (in Carroll 1998: 92 f.) nahelegen könnte: «For art, in contrast to craft, is exploratory.»37 Vielmehr scheint es unterschiedliche Charaktere zu geben, nämlich jene, die ihre Vorstellungen im Kopf entwi- ckeln – eine Fähigkeit, die beispielsweise Hitchcock besaß –, und jene, die sozusagen das menschliche Material und den haptischen Austausch mit einer Umwelt brauchen, um ihre mehr unbewussten Visionen konkreti- sieren zu können. Zu dieser Sorte soll Stanley Kubrick gehört haben,38 der deshalb schon bei der Arbeit an 2001: A Space Odyssey eine Videokamera eingesetzt hat, um die Wirkung von Modellen zu überprüfen (Special Ef- fects Supervisor Wally Gentleman in cinefex 85: 82). Dieser Dualität entsprechen allerdings auch komplementäre Ent- wicklungen auf der Seite der Technik. Denn es werden ebenso viele Ver- fahren entwickelt, welche den Umgang mit jedwedem, in völliger Freiheit gedrehten Material ermöglichen. Zu nennen wären die verbesserten Roto- skopierverfahren, die den Einsatz von Blue- oder Greenscreen obsolet machen, zu nennen wären aber auch verbesserte Tracking-Instrumente, die selbst aus verwackelten Handkamera-Aufnahmen mit maximaler Lens Distortion noch zuverlässig die Bewegungsdaten herausrechnen, damit sie auf die virtuelle Kamera übertragen werden können. So ist letztlich unter Berücksichtigung verschiedener Faktoren – In- tentionen, Zeit, Geld – die Wahl zu treffen, ob man auf Prävisualisierungen zurückgreift oder nicht. Spielberg wird beispielsweise nachgesagt, dass er gern noch am Drehort spontane Entscheidungen trifft. Für The Terminal (USA 2004) ließ er deshalb die ganze Ankunftshalle des Flughafens vom Production Designer Alex McDowell bauen – ein gigantisches, kostenin- tensives Unterfangen (McDowell 2004). Spielberg wusste genau, dass die- ser Film mit seinem spezifischen Realismus diesen natürlichen Bezug zum Raum brauchte. In anderen Produktionen nämlich – in Jurassic Park, Minority Report (USA 2002) oder War of the Worlds (USA 2005) – hat er sich dem Diktat des fragmentierten Produktionsprozesses gebeugt und deshalb auch Prävisualisierungen eingesetzt, weil diese Filme anders nicht herzustellen waren. Wenn große Teile des Raums fehlen, weil sie compu- 37 «Denn im Gegensatz zu Handwerk ist Kunst explorativ.» 38 «He didn’t really have a visual imagination and could only understand what he was going to get when he saw it finished. [Eigentlich war ihm keine visuelle Vorstellungs- kraft gegeben, und er begriff das Endergebnis erst, wenn es vorlag.]» (Ausstatter Tony Masters in cinefex 85: 93). «Stanley could never fully visualize whether he would like a shot or not until he saw it on the screen. [Stanley konnte sich erst vorstellen, ob ihm eine Einstellung gefiel oder nicht, wenn er sie auf der Leinwand sah.]» (Douglas Trum- bull in cinefex 85: 111). 236 Compositing 32–33 Jurassic Park: Storyboard (links); Animatic (rechts) tergeneriert oder als Modelle gebaut werden, wenn computergenerierte Monster die Protagonisten sind, ist Intuition am Set schwierig, wie auch die Überlegungen zur physischen Interaktion zeigen werden (→ 232). Zu Zeiten von Jurassic Park hatte der Animator Phil Tippett noch in Stop-Motion-Technik einen kleinen Animatic des Tyrannosaurus-Rex-An- griffs erstellt, der die Storyboards dreidimensional inklusive Bewegungen und zeitlicher Abfolge konkretisierte, damit die Schauspieler eine Grund- lage für die Gestaltung ihrer Reaktionen erhielten (Abb. 32–33).39 Später wurde von der gleichen Szene auch noch eine CG-Fassung erstellt. David Fincher gehört zu den Kontrollfreaks und will möglichst alle technischen Probleme lösen, bevor er ans Set geht (Fincher in cinefex 80: 117). Es ist deshalb nicht verwunderlich, dass er Panic Room (USA 2002) als ganzen Film prävisualisiert hat und diese Daten auch gleich auf eine Motion-Control-Kamera am Set übertragen ließ, um damit genau die ge- planten Bewegungen zu erhalten (VFX Supervisor Kevin Haug in cinefex 100: 44 f.). Nur Kerry Conran ging für Sky Captain and the World of Tomorrow noch weiter, erstellte erst Animatics und drehte anschließend den ganzen Film mit Stand-Ins und einfachen Versionen der virtuellen Umgebung, um seine Vorstellungen durchzutesten (VFX Supervisor Darin Hollings in cinefex 98: 19). Schon in Fight Club (USA 1999) machte Fincher Gebrauch von Previz, um seine manchmal ungewöhnlichen Ideen durchzuspielen, so beispielsweise in der absurden Inszenierung eines Flugzeugunglücks. Der Animatic wurde von der Firma Pixel Liberation Front realisiert, die sich auf Previz spezialisiert hat, und codiert die verschiedenen Arbeitsbereiche 39 Andere Vorläufer der computergenerierten Animatics waren das sogenannte Leica- Reel, die Aufnahme der Storyboards zu Musik, Dialogen oder anderen Toninforma- tionen, um den Rhythmus und die Auflösung zu bestimmen, eine Technik, die Baz Luhrmann in Moulin Rouge! auch verwendete, weil für ihn das Zusammenspiel der Bilder mit der Musik essenziell war (cinefex 86: 25). Interaktion 237 in Farben: Blau für Realaufnahmen am Set, CGI Orange, Motion Con- trol Grün. Aus den dreidimensio- nalen Daten ließen sich gleich zwei Animatics herstellen: ein Überblick über die Raumverhältnisse und die Kamerabewegung am Set (Abb. 34) sowie ein Animatic aus der Per- spektive der Kamera, dessen Daten 34 Previz aus Fight Club ebenfalls direkt in die Motion-Con- trol-Kamera gelesen wurden (Previz Supervisor Ron Frankel in cinefex 80: 122). Über die Organisation der Arbeitsteilung und die Konkretisierung von Vorstellungen hinaus dienen die Previz auch als Machbarkeitsstudien insbesondere dann, wenn ungewöhnliche Wege beschritten werden. Die Explorationsphase, die ja nach Collingwood ein Merkmal von Kunst sein soll, wird so einfach aus der Produktionsphase nach vorne verlagert. Aus diesem Grund wurden von den sogenannten Bullet-Time-Aufnahmen, den gefrorenen Momenten in The Matrix, exakte computergenerierte Repliken der Kamera-Arrays erstellt, mit denen sich die Situation durch- testen und so eine optimale Lösung finden ließ, deren geometrische Ko- ordinaten sich direkt auf die Situation am Set übertragen ließen. Denn es war sehr schwierig, das Timing der an Drähten fliegenden Körper mit dem Timing der Kameras abzugleichen und außerdem die Kameras so zu positionieren, dass sie nicht miteinander kollidierten und trotzdem opti- mal auf das Geschehen im Raum ausgerichtet waren. Die Bewegungen wurden deshalb zunächst von einem Stuntman durchgespielt, auf Video aufgezeichnet und in 3D am Computer nachgebaut (Abb. 35; vgl. VFX Su- pervisor John Gaeta in cinefex 79: 70). Ähnliche Trial-and-Error-Verfahren in der Prävisualisierung fanden auch in anderen komplexen Situationen Anwendung – wie beim Crash des Hubschraubers mit der Fensterfront des Hochhauses (Abb. 36). Der nächste Schritt nennt sich On-set Previz, womit ein Echtzeit-Com- positing am Set gemeint ist. Hierzu wurde ein Encodacam40 genanntes System entwickelt, das seine Wurzeln in der Broadcast-Technologie des Fernsehens hat und erstmals in A. I. – Artificial Intelligence sowie spä- 40 Bereits in Who Framed Roger Rabbit? wurde ein einfaches Live-Compositing-Werk- zeug, basierend auf Video, eingesetzt, welches die Aufnahmen von Bob Hoskins in der Bluescreen-Umgebung in aufgenommene Skizzen der Umgebung integrierte (cinefex 65: 47), ebenso für Return of the Jedi (USA 1983, Richard Marquand), das auf dem Ultimatte-Verfahren beruhte (cinefex 65: 27). 238 Compositing 35–36 The Matrix: Previz des Kamera-Array (links); Previz des Hubschrauber- Crashs (rechts) ter in I, Robot eingesetzt wurde (cinefex 99: 97 f.). Es handelt sich um eine Kombination von Echtzeit-Kamera-Tracking und -Compositing, das mit einem Gitter von strichcodierten Targets, die sich an der Decke und an den Wänden befinden, die Ortsdaten und die Ausrichtung der Live-Kamera ermittelt. Gleichzeitig steuert sie die virtuelle Kamera in der vorprodu- zierten 3D-Umgebung, in welche die Figuren in Echtzeit eingefügt wer- den. Damit erhielt Spielberg in A. I. – Artificial Intelligence mitten in einer völlig computergenerierten Umgebung seine künstlerische Freiheit 37 Bluescreen-Aufnahme in A. I. – Artificial Intelligence 38 Compositing in A. I. – Artificial Intelligence Interaktion 239 zurück, konnte spontan Auflösungen und Inszenierungen austesten und mitten in einer Bluescreen-Umgebung ein Gefühl für den Raum behalten (Abb. 37–38). Ein noch ausgeklügelteres System mit einer Brille, in welche auf einem kleinen Bildschirm eine vorproduzierte Animation des Höhlen- trolls eingespielt und ebenfalls ständig an die Blickperspektive angepasst wurde, benützte Peter Jackson in The Lord of the Rings: The Fellowship of the Ring (VFX Supervisor Richard Taylor in Pinteau 2005: 181). Dieses System ermöglichte es ihm, die Schauspieler am Set und deren Reaktionen genau mit dem Verhalten des Höhlentrolls abzugleichen. So futuristisch und vielversprechend sich solche Ansätze anhören, so wird doch – gerade am Beispiel A. I. – Artificial Intelligence – deutlich, dass es sich lediglich um technische Lösungen handelt, die keine überzeu- genden Filme garantieren. Die Praktiker sehen denn auch in den Previz nicht mehr als ein Wegwerfwerkzeug, das die Entscheidung und die Arbeitsorganisation erleichtern soll. Und es birgt auch Gefahren in sich: Das Rhythmusgefühl kann sich ändern, wenn die Texturen detaillierter sind (Animation Director Anthony LaMolinara in cinefex 90: 40); manch- mal wird an Previz so lange herumgefeilt, dass die Kreativität verloren geht, und im schlimmsten Fall werden sie von Leuten erstellt, die wenig Ahnung von der Arbeit mit einer realen Kamera haben (siehe auch die Diskussion in cinefex 100: 42 ff.). Raum- und Bewegungsanpassung: Motion Control und Tracking Während Jahrzehnten waren Special-Effects-Einstellungen dadurch cha- rakterisiert, dass sie starr waren, denn es war kaum möglich, verschiedene Schichten, die man optisch kombinieren wollte, in Bewegung aufzunehmen. Zwar gab es schon früh und wiederkehrend Versuche, eine Kamera mechanisch so zu steuern, dass sich die Bewegung exakt wiederholen ließ, aber offensichtlich waren es marginale Erscheinungen, die sich nicht durch- setzten. In einem kurzen, aber sehr genauen und konzentrierten Artikel im American Cinematographer (AmC 5/1983) berichtet Nora Lee von einer sol- chen Technik, die Edisons Kameramann, James Brautigan, bereits 1914 ent- wickelt hatte, um mittels einer Doppelbelichtung einen Geist mitten in einer Bewegung erscheinen zu lassen (AmC 5/1983: 60). In den späten 1940er- Jahren folgten weitere Versuche von MGM-Toningenieur Olin L. Dupy und von Gordon Jennings von Paramount. Dupys Maschine – Dupy Duplicator genannt – hat die Daten auf Schallplatte aufgezeichnet und wurde erstmals in An American in Paris (USA 1951, Vincente Minnelli) eingesetzt, um Gene Kelly in bewegte Stadtaufnahmen zu integrieren. Jennings Verfahren 240 Compositing beruhte auf mathematischen Berechnungen, die man zur Steuerung der Kamera auf Film speichern konnte. Es wurde gemäß Schechter et al. (1980: 141) für eine Traumsequenz in The Big Clock (USA 1948, John Farrow) verwendet, während Rickitt (2000: 118) und Appelt (1998: 48) von einem Einsatz für die Verwüstung des Tempels in Samson and Delilah (USA 1949, Cecil B. DeMille) berichten, auf die auch Lee (in AmC 5/1983: 61) hinweist. Dupy und Jennings haben 1951 je einen Technical Achievement Award für ihre Verfahren erhalten. Weiter erwähnt Rickitt (2000: 26) ein Motion-Control-System namens Repeater, mit dem einzelne Einstellungen für Forbidden Planet (USA 1956, Fred M. Wilcox) gedreht worden seien.41 Interessant an diesen historischen Vorläufern ist die Tatsache, dass der Mangel an Bewegung in Special-Effects-Einstellungen offenbar wäh- rend Jahrzehnten als Nachteil empfunden wurde, der mit geeigneten technischen Maßnahmen überwunden werden sollte. Und in der Tat un- terstützt Bewegung nach dem Gestaltgesetz des gemeinsamen Schicksals (→ 352) die Illusion von Kohärenz disparater Elemente nachhaltig. Noch Mitte der 1960er-Jahre hat Douglas Trumbull für 2001: A Space Odyssey eine mechanische Vorrichtung verwendet, um Animationen her- zustellen, welche als Computerbilder via Rückpro auf Monitore projiziert wurden (cinefex 85: 82 ff.) – also fast ein Jahrzehnt, nachdem John Whitney Sr. begonnen hatte, mit computergesteuerten Kameras zu experimentie- ren, ironischerweise um für den Film Catalogue (1961) jene abstrakten Farbmuster zu erzeugen (Le Grice 1974: 227), die später unter dem Begriff Slit-Scan in 2001: A Space Odyssey die psychedelische Stargate-Sequenz, eine Reise durch Raum und Zeit – bebilderten. Beide Ideen Whitneys, die Kubrick unterbreitet wurden (cinefex 85: 110), hatte man annektiert, ohne dass Whitney dafür finanziell oder ideell honoriert worden wäre. Nicht nur im öffentlichen Bewusstsein, sondern auch in zahlreichen Fachpubli- kationen (z. B. Hoberg 1999: 92 und Wolf 2000: 120)42 wird die Erfindung von Motion Control Star Wars (1977) und John Dykstra zugeschrieben, obwohl sich die Genealogie der Idee von Whitney über Trumbull zu Dyks- tra rekonstruieren lässt. Dies aus dem Verlangen nach Personifizierung von technischen Erfindungen, die weitaus glamouröser wirken, wenn sie an ein genial erscheinendes Individuum geknüpft sind. Natürlich bewegt sich Dykstras Entwicklung auf einem ungleich ausgeklügelteren Level. Wie Dykstra (in Rogers 1999: 93) berichtet, beruht sein System auf einem modularen Ansatz, den er bereits während seiner Arbeit in Berkeley kennen gelernt hatte, mit dem sich die einzelnen Bewe- 41 Leider nennt Rickitt keine Quellen, sodass ich diese Angabe nicht verifizieren konnte. 42 Noch weniger war es ILM für Who Framed Roger Rabbit?, der übrigens auch kein digitales Compositing benützte, wie Buckland (1999: 187 f.) behauptet. Interaktion 241 gungsdaten individuell berechnen, aufzeichnen, speichern und editieren lassen. Diese Daten ließen sich deshalb zu einer anderen Zeit an einem an- deren Ort wieder abrufen und erlaubten damit eine völlig andere Arbeits- teilung. Allerdings war dieses System nicht im engeren Sinne computer- gesteuert: «The repeatable tracks were recorded on magnetic tape and the calculations were still made independently of the camera system on hand held calculators»43 (AmC 5/83: 61). Vor allem aber veränderte sich die Äs- thetik von Filmen mit Special-Effects-Einstellungen damit nachhaltig. Es setzte jenes Zeitalter des Bewegungsrauschs ein, dessen kinetische Energie nur noch von der virtuellen Kamera der Computeranimation übertroffen wurde. Heute sind die Systeme so komplex, dass sich sämtliche Kamera- parameter damit programmieren und speichern sowie auf die computera- nimierte Kamera übertragen oder umgekehrt – wie oben geschildert – aus der Previz auslesen und in die Motion-Control-Kamera laden lassen. Eine weitere ästhetische Konsequenz betrifft das Haupteinsatzgebiet von Motion Control, nämlich die Aufnahme von Modellen, denn dank der Möglichkeit, die Miniaturen in mehreren Durchgängen zu filmen, lässt sich das Licht viel interessanter gestalten, weil die Belichtungszeit individuell angepasst werden kann. In einem Beauty-Pass nimmt man zu- nächst die Außenansicht des Modells möglichst vorteilhaft auf, es folgen weitere Durchgänge für die Reflexionen, für die Lichter des Modells, für die Aufhellung, für das Gegenlicht, für die Travelling Matte usw. Dies al- les mit Bewegungsunschärfe, da sich die Kamera während der Belichtung weiterbewegen kann. Zu Zeiten des optischen Compositing nahm man alle diese Durchgänge auf einen einzigen Filmstreifen auf, um (Kopier-) Generationen zu sparen. Heute werden die einzelnen Passes separat verar- beitet. Diese ästhetischen Möglichkeiten werden in den Modellaufnahmen in Blade Runner sichtbar, in welchen komplexe Bewegungen der fliegen- den Autos zu sehen sind und Stadtansichten mit Neonlichtern, farbigen Lichtreklamen und kleinen animierten Scheinwerfern, die durch den Smog leuchten (siehe Sammon 1996: 234 und cinefex 9: 31 ff.). Ebenfalls sehr eindrücklich ist die Motion-Control-Arbeit an Close Encounters of the Third Kind (USA 1977, Steven Spielberg). Bis heute spielen Modelle eine überraschend große Rolle – von den bereits erwähnten Variationen der Titanic bis hin zu den Schlössern und Burgen in The Lord of the Rings – und sind außerdem sehr beliebt, wenn es darum geht, sie in die Luft zu sprengen, weil sie so schön explodieren.44 43 «Die wiederholbaren Spuren hatte man auf Magnetband aufgezeichnet, doch die Be- rechnungen mussten nach wie vor unabhängig vom Kamerasystem auf Taschenrech- nern vorgenommen werden.» 44 Immerhin kommen in meinem Korpus Modelle in rund einem Drittel aller Filme vor, 242 Compositing 39 Motion Control in Come into My World 40 Motion-Control-Flug des Spinners in Blade Runner In diesem Kontext wird Motion Control weiterverwendet werden. Außer- dem sind es auch erzählerische Konstellationen, in denen Doppelgänger vorkommen, wie in Multiplicity (USA 1996, Harold Ramis) oder Adap- tation (USA 2002, Spike Jonze), die beide mit Motion Control gedreht wurden – genauso wie das witzige Musikvideo Come Into My World von Michel Gondry (2002), in dem Kylie Minogue viermal um einen beleb- viele davon wurden in der letzten Dekade gedreht. Viele Praktiker lieben den natür- lichen Look von Miniaturen (siehe cinefex 100: 88 ff.), und gemäß Krein (2006) lieben viele Produzenten ihr günstiges Preis-Leistungs-Verhältnis. Interaktion 243 ten Platz herumspaziert (Abb. 39–40). Und es gibt natürlich technikbegeis- terte Regisseure wie David Fincher, welche lieber selber in der Vorberei- tungsphase an Kamerabewegungen herumtüfteln und ihre Vorstellungen am Set 1:1 von der Motion-Control-Kamera umsetzen lassen. Aber abgesehen von diesen Nischen neigt sich die Zeit von Motion Control ihrem Ende zu. Das Verfahren hat eine große Gemeinde von Feinden: «Motion-control is a phrase that strikes fear and loathing in the hearts of even the most seasoned film crews. This painstaking technique traditionally takes longer than normal camera setups and has a greater degree of Murphy’s Law built in it»45 (AmC 8/2000: 46). In Hollow Man, auf den sich diese Aussage bezieht, spürt man förmlich, wie zäh die Ar- beit mit dem monströsen Verfahren gewesen sein muss, wobei man als Rezipient natürlich nicht entscheiden kann, inwiefern dieser Eindruck tatsächlich durch die Technik verschuldet ist. Die Option ‹Motion Control› wurde gewählt, damit die unsichtbare Figur live am Set mit den anderen Figuren interagieren konnte, da man sie auf diese Weise später extrahieren und den fehlenden Bildausschnitt aus einer in einem zweiten Durchgang aufgenommenen Clean Plate einsetzen konnte. Obwohl der zitierte Artikel im American Cinematographer anschließend sein Urteil abmildert, doppelt Verhoeven in einem Interview in der gleichen Ausgabe (AmC 8/2000: 51) nach, dass er die Technik als Albtraum erlebt habe. Sie ist nicht nur schwerfällig, zeitraubend und störanfällig, sondern auch laut. Trotzdem gibt es natürlich Situationen, die nur mit Motion Control gelöst werden können, denn es ist oft schwierig bis unmöglich, in komplexen Bewegun- gen Hintergründe zu rekonstruieren, wenn keine Clean Plate vorhanden ist. Trotzdem äußert sich heute sogar John Dykstra negativ über seine Er- findung und zieht Tracking vor (in cinefex 100: 45). Unter Tracking – manchmal auch Match Moving46 genannt – versteht man allgemein die Extraktion von Bewegungsdaten aus dem Bild, was in- sofern nicht ganz trivial ist, als sich sowohl die Objekte als auch die Kamera in einem dreidimensionalen Raum bewegen, dessen Koordinaten dann auf eine zweidimensionale Fläche projiziert werden. Als weitere Hürde kommt hinzu, dass jedes Objektiv spezifische Verzerrungen (lens distort ion) produziert, welche aus dem Bild herausgerechnet werden müssen. 45 «Motion Control ist ein Begriff, der selbst bei ausgefuchsten Profis Angst und Schrecken auslöst. Diese umständliche Technik erfordert üblicherweise mehr Zeit als eine norma- le Kameraeinrichtung und ist anfälliger für Pannen.» 46 Es wird teilweise ein Unterschied zwischen Tracking und Match Moving gemacht, wobei Tracking als zweidimensionale Operation, Match Moving hingegen als dreidi- mensionale Anpassung einer virtuellen an eine reale Kamerabewegung verstanden wird (z. B. Masson 1999: 117). In den allermeisten Texten, die mir vorliegen, wird diese Unterscheidung allerdings nicht eingehalten. 244 Compositing Das Tracking kann also verschiedene Zielsetzungen verfolgen: Ent- weder es extrahiert die Bewegungsdaten eines Objekts aus dem Bild – weil beispielsweise dem Protagonisten eine computergenerierte magische Maske (The Mask, USA 1994, Chuck Russell) oder übermenschliche Metall- klauen (X-Men, USA 2000, Bryan Singer) appliziert werden müssen –, oder es berechnet die Kamerakoordinaten, um die Bewegung einer virtuellen Kamera an eine Aufnahme am Set oder eine Modellaufnahme anzupassen. Ein Beispiel: Man nimmt einen Hintergrund mit einer bewegten Kamera auf, die Kamera bewegt sich z. B. durch ein Maisfeld. Werden nun die computer- animierten Heuschrecken nicht unter Berücksichtigung genau dieser Kamer- abewegung in das Bild integriert, stimmt also das sogenannte «Tracking» nicht, dann fällt dies dem Auge sofort auf, und zwar auch dem Auge des Laien. Dies ist keine Frage computertechnischer Kennerschaft. In Fachkrei- sen sagt man: ‹Da schiebt etwas.› Die Mustererkennung des Auges reagiert hier äußerst empfindlich. (Stalf 2004: 216) Weil das Auge so empfindlich reagiert, muss die Genauigkeit des Tracking die Dimension des Pixels sogar unterschreiten: Es wird von der Software eine sogenannte Subpixel-Genauigkeit gefordert. Tracking erfordert einige vorbereitende Maßnahmen. Zum einen müssen in der Aufnahme charakteristische Details vorhanden sein, deren Bewegungen sich verfolgen lassen. Das können markante Objekte im Bild selber sein, in der Mehrzahl der Fälle jedoch werden spezielle Tracking- Marker – meist kleine weiße oder andersfarbige Punkte oder Kugeln – in systematischer Weise im Bildfeld oder auf dem zu trackenden Objekt ver- teilt. Zum anderen brauchen die meisten bis heute üblichen Tracking-Pro- gramme genaue Messdaten vom Set bzw. vom Modell. Diese Messdaten werden mit den bereits vorgestellten LiDAR-Scans (→ 64) oder anderen Methoden der Vermessungstechnik erhoben. Genauso wichtig ist es, die Kameradaten – verwendetes Objektiv, Blende, Position und Ausrichtung – möglichst genau zu dokumentieren. Je nach Anzahl verrechneter Bildpunkte – für komplexere Bewegun- gen braucht es mindestens vier, um perspektivische Veränderungen nach- zuvollziehen (siehe Brinkmann 1999: 113 ff.) – ist das Tracking-Programm in der Lage, entweder die Bewegungen des gewünschten Objekts oder aber die Kamerakoordinaten zu erkennen. Diese Berechnung beruht auf Veränderungen der Luminanzinformation in allen drei Kanälen (R, G, B) oder der Kantenerkennung (edge detection), die mittels Korrelation oder schneller Fourier-Transformation (Fast Fourier Transform FFT) die lokalen Daten erfassen und in eine mehrdimensionale Matrix übertragen (siehe Interaktion 245 Benoit Sevigny in Seymour 2004: 4). Eine andere Methode beruht auf Opti- cal Flow, mit welchem die Entwicklung jedes einzelnen Pixels von Bild zu Bild nachvollzogen wird, ein Verfahren der computerisierten Bilderken- nung und -verarbeitung, wie es in What Dreams May Come angewandt wurde (siehe dazu die aufschlussreiche Beschreibung in cinefex 76: 112 ff.). Um die Objektiv-Verzerrungen aus den Bildern zu filtern, gibt es einerseits Datenblätter inklusive Software, andererseits erstellen einige Spezialisten ihre Korrekturen anhand von Messungen der verwendeten Objektive selbst (Associate VFX Supervisor Matthew Butler in cinefex 100: 45). Ich verzichte an dieser Stelle auf eine Darstellung der historischen Entwicklung, die in diesem Fall tatsächlich in der militärischen Anwen- dung ihren Ausgang nahm. Dabei ging es darum, die Flugbahnen von Ra- keten und Bomben aus dem Bildmaterial zu berechnen, und zwar mit dem Zweck, bestimmte Angriffsziele genau zu treffen, eine erschreckende und tödliche Technik, die man im Golfkrieg zu sehen bekam. Die wichtigsten Stationen des Tracking für Film finden sich in Seymour (2004).47 Interes- sant für meine Beschäftigung mit dem Thema sind dabei zwei Einsichten, nämlich erstens, dass ein erstes marktfähiges Produkt, die Software Flame der Firma Discreet Logic, bereits 1992 verfügbar war, und zweitens, dass die Praktiker der Meinung sind, das Tracking befinde sich trotz enormer Fortschritte heute noch in den Kinderschuhen. Am ersten Punkt ist interessant, dass sich die Methodologien der ein- zelnen VFX-Spezialisten offensichtlich sehr stark unterscheiden, obwohl Tracking-Software seit Jahren erhältlich ist. So gibt es Experten, welche die Freiheit der Inszenierung am Set möglichst unterstützen und die techni- sche und arbeitsintensive Herausforderung annehmen, die Folgeprobleme mittels Tracking zu lösen. Andere – wie namentlich jene in Hollow Man (2000) – vertrauen lieber auf Motion Control. Während in Terminator 2 (1991, VFX Supervisor Dennis Muren) noch die Mehrzahl aller Aufnah- men mit fester Kamera gedreht wurde (siehe dazu cinefex 47: 10 ff.), hat VFX Supervisor Ken Ralston in Death Becomes Her (USA 1992, Robert Zemeckis) mit der ersten in meinem Korpus dokumentierten Anwendung die komplexe Aufgabe gelöst, das verdrehte Gesicht von Madeline zu tra- cken. So wurde 1993 bereits die Gallimimus-Szene in Jurassic Park mit Handkamera gedreht, wobei Dennis Muren Golfbälle als Marker in der 47 Folgende Personen und Firmen haben Technical Achievement Awards für Tracking- Software erhalten: 1998 Douglas R. Roble mit TRACK von Digital Domain; ebenfalls 1998 Thaddeus Beier mit ras_track von Hammerhead sowie 1998 Gary Tregaskis, Dominique Boisvert, Philippe Panzini und André Leblanc für Flame von Discreet Logic; 2001 Steve Sullivan, Eric L. Schafer für MARS von ILM und ebenfalls 2001 Uwe Sassenberg und Rolf Schneider für 3D-Equalizer. 246 Compositing Wiese verteilte. Ähnliche Beispiele sind der von Ken Ralston verantwor- tete Forrest Gump (1994), in dem die Kamerainformationen aus dem his- torischen Material extrahiert werden mussten (cinefex 60: 94), Interview With The Vampire (ebenfalls 1994) unter der Leitung von Rob Legato oder der bereits erwähnte The Mask (1994, VFX Supervisor Scott Squires), in welchem das Tracking noch überwiegend von Hand umgesetzt wurde, ähnlich dem Rotoskopieren (cinefex 60: 50 ff.). Diese Beobachtungen sind sowohl aus innovationstheoretischer Sicht als auch im Hinblick auf das Verhältnis von Technik und Ästhetik aufschlussreich. Offensichtlich haben einzelne Figuren wie Dennis Muren, Rob Legato und Ken Ralston als Techniker ein ausgeprägtes Sensorium für ästhetische und narrative Erfordernisse. Weiter finde ich es erhellend, dass sie alle in der optischen Tradition verwurzelt sind und möglicherweise da- raus ein tieferes Verständnis für die Eigenheiten des Films mitbringen. Au- ßerdem gibt es offenbar Regisseure wie Steven Spielberg, Robert Zemeckis oder auch Peter Jackson, die ihre Anforderungen optimal vermitteln und ihren technischen Stab inspirieren können. Nicht immer scheint das kon- fliktfrei abzulaufen: «Peter Jackson broke us down to a point where he shot anything and everything he wanted; and God bless him for it, because if he hadn’t dragged us kicking and screaming to that level of expertise, the film would be much less dynamic»48 (VFX Cinematographer Brian Van’t Hul in cinefex 96: 82). Nur darf man dabei nicht vergessen, dass alle diese Leistungen in einem kapitalkräftigen Umfeld zustande kamen, was krea- tive und damit zeitintensive Entscheidungsprozesse ermöglichte. Der zweite oben angesprochene Punkt – die Auffassung der Prakti- ker, dass sich die Techniken des Tracking noch in einem rudimentären Sta- dium befinden – mag überraschen. So spricht der VFX Director of Photo- graphy Alex Funke von einem Model-T-Stadium (in cinefex 100: 46). Mit Ausnahme des von der deutschen Firma Science-D-Visions in Dortmund entwickelten Programms 3D-Equalizer49 und boujou von der Firma 2d350 sind gemäß Seymour (2004) alle Verfahren auf eine exakte vermessungs- technische Dokumentation angewiesen. Darin manifestieren sich zwei Einsichten: Erstens hat die automatische Gestalterkennung, die Computer Vision, nach wie vor die schon längst prognostizierten Entwicklungs- schritte nicht vollzogen; zweitens ist dies eines jener Gebiete, in denen der menschliche Geist der Maschine noch weit überlegen ist. 48 «Peter Jackson hat uns so lange gequält, bis wir alles akzeptierten, sodass er drehen konnte, was er wollte. Gott segne ihn dafür, denn wenn er uns nicht getreten hätte, bis wir dieses Niveau erreichten, wäre der Film längst nicht so dynamisch geworden.» 49 Siehe http://www.sci-d-vis.com. 50 Siehe http://www.2d3.com. Interaktion 247 In der Summe sind die Raum- und Bewegungsanpassungen, wie sie dank Motion Control und/oder Tracking in Kombination mit Vermes- sungsdaten möglich sind, entscheidende Werkzeuge, mit denen sich über die Grenzen des fragmentierten Produktionsprozesses ein konsistenter Handlungsraum erzeugen lässt; es sind also im eigentlichen Sinne Sutu- ring Devices.51 Denn die Titanic-Modelle können nur mit Leben gefüllt wer- den, weil sich dank dieser Verfahren Hunderte computergenerierter Pas- sagiere darauf platzieren lassen, dies mitten in prallem Sonnenschein und aus der Perspektive einer scheinbar schwerelosen Kamera. Denn wie das Zitat von Stalf darlegt, sind wir äußerst empfindlich, wenn es um diese Raumintegration geht. Schließlich gehört es sowohl phylogenetisch – also in der Entwicklung der Menschheit – als auch ontogenetisch – im Lauf eines individuellen Lebens – zur ständigen Aufgabe des Menschen, räum- liche Anordnungen und die Verteilung und Bewegungen von Objekten in diesem Raum zu entschlüsseln und für die Handlungsplanung zu nutzen. Wenn also die Topologie des Modells und des 3D-Raums der Computer- animation sowie die Bewegungen der beiden Kameras nicht minutiös auf- einander abgestimmt sind, gehen die Passagiere nicht auf den Planken des Schiffes, sondern schweben oder versinken im Boden. Zwar kann man bei eingehender Betrachtung am DVD-Player kleine Fehler entdecken, und es gibt im Internet Foren,52 in denen Aficionados sich genüsslich darüber unterhalten. Es muss also im Computer anhand der Set- oder Modelldaten ein dreidimensionales Terrain gebaut werden, auf dem sich die computer- generierten Figuren bewegen können – Dinosaurier, Menschenmassen, halblebende Mumien, Gollum oder Hulk –, auch wenn dieses Terrain nie sichtbar wird. Ein gutes Beispiel dafür findet sich in The Mummy (USA 1999, Stephen Sommers), in dem sich Ströme von prozedural animierten Skarabäen durch die unterirdischen Labyrinthe bewegen und im Flash- back auf dem lebendig begrabenen Imhotep herumkrabbeln. Die Situation ist im Bonusmaterial sehr schön illustriert (Abb. 41–44). Es wurden also 3D-Repliken des Körpers, des Sargs und des Krugs nachgebaut, der Krug auf die Bewegung im Bild getrackt und die unter- schiedlichen Oberflächen markiert, weil ja die Käfer bevorzugt den Körper bevölkern sollten. In der prozeduralen Animation entspricht jeder Skara- 51 Der Begriff Suture wurde 1969 von Jean-Pierre Oudart geprägt: La suture. In: Cahiers du cinéma, Nr. 211, 1969, S. 36–39, sowie in Nr. 212, 1969, S. 50–55. Englische Überset- zung: Cinema and Suture. In: Screen, Bd. 18, Nr. 4, Winter 1977/78, S. 35–47. Oudart umschreibt damit Mechanismen des Verbindens von Fragmenten analog zum Anlegen einer Naht in der Chirurgie. 52 Siehe http://www.moviemistakes.com/ oder http://www.continuitycorner.com. 248 Compositing 41–44 The Mummy: Markierte Geometrie der Mumie im Sarg (links oben); Bewe- gungsdaten der Mumie (rechts oben); Interaktion der Skarabäen mit der Geometrie (links unten); fertig zusammengesetztes Bild (rechts unten) bäus einem Partikel, wobei die Ausrichtung kritisch ist, denn sie sollten sich ja mehrheitlich aufrecht fortbewegen. Die Körperoberfläche fungiert dabei als Attraktor, dem die Skarabäen zustreben sollen. Die 3D-Modelle des Krugs, des Sargs und des Körpers werden für den Renderer als un- sichtbar markiert und somit nicht in Bilddaten umgerechnet. Prinzipiell nicht anders verhält es sich bei Crowd-Animationen, auch wenn dort die Orientierungsparameter der autonomen Agenten zuneh- mend komplexer werden. In The Lord of the Rings: The Return of the King wurde diese Komplexität potenziert durch extrem verwinkelte Modelle unter anderem der Festung Minas Tirith, welche ihrerseits in die Landschaft der Live-Action-Aufnahmen integriert werden mussten. Oder anders formuliert, lautete die Aufgabe: Man erzeuge aus Landschaften, Modellbauten und 3D-Modellen einen konsistenten Raum, lasse neben 45 The Return of the King: Interaktion mit dem Modell von Minas Tirith Interaktion 249 Schauspielern Horden von computergenerierten Kriegern in dieser Topo- logie miteinander kämpfen und zeichne die Situation mit einer dynamisch bewegten, frei durch den Raum fliegenden Kamera auf (Abb. 45). Wegen der kleinräumigen, detailreichen Geometrie des Festungs- modells wurde eine Firma beauftragt, die sich auf die Erstellung von Karten mittels Luftaufnahmen spezialisiert hatte. Diese Firma erstellte das 3D-Modell mit der oben beschriebenen Methode der Photogrammetrie. Die Landschaften und andere Modellteile hat die Crew mittels der pro- prietären Software Autotracker vermessen, die Tausende von Punkten im Raum trianguliert, und schließlich alle Daten mit der Software 3D-Equa- lizer aufeinander abgestimmt. Natürlich gab es am Ende jede Menge Dis- krepanzen, welche die Crew mühsam von Hand beseitigen musste. Dabei brachte die ewig bewegte Kamera größere perzeptive Toleranzen mit sich (cinefex 96: 79 ff.). Ob es digitale Lebewesen, Feuer, Wasser, Wirbelstürme oder Eis- schichten sind, die mit jedweder Form der Geometrie – Landschaft, Mo- dell oder CG – interagieren. Die Prozesse sind immer ähnlich, wenn auch jede Situation eine individuelle Lösung verlangt, denn die ultimative Soft- ware, die automatisch alles berechnet, lässt noch auf sich warten. Berührungen, Blicke, physische Interaktion, Konsequenzen Neben der topologischen Integration disparater Bildfragmente lässt sich ein zweiter, grundlegend kritischer Aspekt der Interaktion ausmachen, und zwar der Komplex der Interaktion zwischen Figuren und Objekten. Das bedeutet Berührungen, Blicke, die physische Interaktion im weiteren Sinne sowie daraus folgende Konsequenzen. Da die computergenerierten Figuren ontologisch gesehen ja nie- mals denselben Raum bevölkern wie die anderen Protagonisten oder die Objekte am Set, stellen Berührungen ein prinzipielles Problem dar. Gleichzeitig sind Berührungen ein essenzielles Moment für die emotio- nale Beteiligung des Zuschauers, auf das er förmlich zu warten scheint. Denn die Berührung signalisiert einen höheren Grad an Konsistenz und Plausibilität. So wie man seit Metropolis darauf achtet, Transformationen von Körpern möglichst ohne Schnitt darzustellen, so soll die Berührung in ähnlicher Weise die kritische Distanz des Zuschauers abbauen. Der starke emotionale Appell dürfte seinen Ursprung in der Alltagswahrnehmung haben, wo der Tastsinn als unbestechlichster aller Sinne empfunden wird, mit dem sich Täuschungen der Fernsinne Auge und Ohr ausschalten las- sen. Berührungen signalisieren mehr als alles andere, dass zwei Figuren den gleichen Raum bewohnen und in direktem, unvermitteltem Kontakt 250 Compositing 46–48 Taktiler Kontakt mit dem Wass- erwesen in The Abyss (oben links); der Vater berührt seinen mutierten Sohn Hulk (oben rechts); intensive Interak- tion mit dem kranken Triceratops in Jurassic Park (links) miteinander stehen. Hamus-Vallée (2001: 15) postuliert sogar, dass es zu einer Art Übertragung (contagion) der menschlichen Realitätsebene auf die animierte Figur komme. Weiter tragen Berührungen kulturelle und psychische Qualitäten in sich insofern, als kulturell genauestens geregelt ist, wer sich wo, wann und wie berühren darf, und vollzogene Berührungen starke Signale darstellen, auf welcher Stufe der psychischen Nähe man sich mit einem anderen Men- schen befindet. Tatsächlich benutzen praktisch alle Filme meines Korpus Berührun- gen, um virtuelle Wesen emotional stärker in die Diegese einzubinden (Abb. 46–48). Es stellt sich also die grundlegende Frage, wie sich der tatsächliche Graben zwischen den verschiedenen Welten – Live-Action auf der einen, Computeranimation auf der anderen Seite – schließen lässt. Da sich diese Frage jedoch nicht erst seit dem digitalen Zeitalter stellt, sondern eben schon bestanden hat, als fremdartige Wesen in Stop-Motion-Animation mit Schauspielern interagieren mussten, hat man dafür schon früh Lösun- gen gefunden, namentlich in King Kong (USA 1933, Cooper/Schoedsack). Ich nenne diesen Ansatz darum King-Kong-Approach. Dieser Approach nutzt den prinzipiell fragmentierten Darstellungs- modus des Films aus, indem er mit verschiedenen Versionen des Monsters arbeitet und sie via Montage miteinander verbindet. So hat Willis O’Brien in Totalen mit einer kleinen Version von Kong gearbeitet und verschiedene Körperteile im Maßstab 1:1 hergestellt, die sich mechanisch bewegen lie- ßen, zum Beispiel die Hand, welche die Schauspielerin hochheben konnte (Abb. 49–50). Interaktion 251 49–50 King Kong: Interaktion mit dem Handmodell (links); King Kong Total (rechts) In ähnlicher Weise setzte sich E. T. (USA 1982, Steven Spielberg) aus einem Animatronic, einer elektronisch gesteuerten Puppe, und diversen kleinwüchsigen Darstellern in Maske zusammen. Spielberg, der schon bei Jaws (USA 1975) nervenaufreibende Erfahrungen mit einem Animatronic gemacht hatte, hätte gerne auf eine Fortsetzung verzichtet. Aber E. T. ist bis heute eines der besten Beispiele für eine gelungene und emotional be- rührende Interaktion zwischen Menschen und einem fremdartigen Wesen. Und so hat er diesen Ansatz auch in Jurassic Park weitergeführt, in dem sich der Tyrannosaurus Rex aus einem gigantischen Animatro- nic und einer CG-Version zusam- mensetzt (Abb. 51–52). An Jurassic Park lässt sich sehr schön darstellen, dass Berüh- rungen am besten dann funktio- nieren, wenn beide Elemente in der gleichen Domäne vorhanden sind. Der ganze T-Rex-Angriff fin- det in der Nacht bei strömendem Regen statt, was nicht nur atmo- sphärisch günstig ist, sondern auch diverse Problemzonen un- terdrückt. Gleichzeitig war dieser Regen eine Herausforderung für die Funktionsweise des Animatro- 51–52 Jurassic Park: Der Tyrannosau- nic, der durch die Wassermassen rus als Animatronic (oben); die compu- ungleich schwerer wurde. In der tergenerierte Version (unten) 252 Compositing Szene, in welcher der T-Rex zur Belustigung des schadenfrohen Publikums den ekelhaften, besser- wisserischen und feigen Rechtsan- walt von der Kloschüssel wegfrisst, wird die menschliche Figur durch eine digitale Figur ersetzt (cinefex 53 Die Animatronic-Version des 55: 80). Das Muster Schuss/Gegen- T riceratops erlaubt eine vielfältige Interaktion schuss, welches die Berührung von Mensch und Monster vorbereitet, konvergiert in die entscheidende Aufnahme, in der beide zugleich zu sehen sind. Es findet vor den Augen des Zuschauers ein roto- skopierter Übergang von realem zu digitalem Double statt. 54 Untersuchung des Mundes mit Mindestens ebenso wichtig a nimierter Zunge für die Integration der Dinosau- rier in die Welt der Menschen ist eine Szene, in welcher die beiden Paläontologen Dr. Grant und Dr. Sattler einen kranken Triceratops untersuchen und in hellem Tages- licht intensiv an ihm herumtasten. Der Triceratops, als Animatronic 55 Animierte Augen (Abb. 53–55) von Stan Winstons Team gebaut (cinefex 55: 69 ff.), ver- fügt über zahlreiche Funktionen, die seine Lebendigkeit zu beweisen scheinen – Bewegungen des Mundes, der Augen und Atmung – und damit die willing suspension of disbelief,53 jenen willentlichen Modus, die fiktionale Welt zu akzeptieren, nachhaltig unterstützen. Es sind in diesem Film noch viele weitere Beispiele zu finden, so die Szene mit den beiden Veloziraptoren in der Küche, die wie der T-Rex in verschiedenen analogen und digitalen Versionen existierten (cinefex 55: 91 ff.), oder der Showdown in der Rotunde des Museums. Immer lässt sich an diesen Szenen auch zeigen, wie geschickt die Montage die Begegnun- gen vorbereitet und wie eben die Handlung vom Zurschaustellen der Vi- sual Effects gerade nicht verlangsamt wird – dies übrigens im Unterschied 53 Der Begriff geht auf Samuel Taylor Coleridge zurück, der ihn in Biographia Literaria (1817) erstmals verwendet hatte. Interaktion 253 zur ersten Szene, in welcher die Dinosaurier – brave, pflanzenfressende Brontosauri – im Hintergrund auftauchen. Aus dem gleichen Grund wie Spielberg ließ Jackson für The Lord of the Rings ein liegendes Mûmak54 im Maßstab 1:1 bauen: «We wanted to tie our actors into the scene and to anchor the audience’s involvement, so Peter decided we needed a full-size Mûmak fallen to the ground. That also gave us a very useful background to shoot against, so every shot did not have to be a visual effect»55 (Producer Barrie Osborne in cinefex 96: 117). Ein weiteres real vorhandenes Element des Mûmaks war ein 1:1-Modell des Rückens, das von Bühnenarbeitern bewegt wurde. Mit diesen inten- siven Berührungspunkten versuchte Jackson, ein potenziell entfesseltes Spektakel, das aus vielen rein digitalen Interaktionen – einem digitalen Double von Legolas, der auf digitalen Tieren herumturnt – zu erden, nach meinem Empfinden nicht immer mit Erfolg, aber dies vermutlich aus Gründen der Superheldenproblematik, die ich an anderer Stelle diskutie- ren werde (→ Das Superheldenproblem 462). Insofern ist der King-Kong-Approach ein zwar solides, in langer Tra- dition erprobtes Werkzeug zur Integration von disparatem Material, das in vielen Filmen56 die Interaktion auf einen höheren Level der Glaubwür- digkeit hievt, nicht aber ein Garant für die emotionale Partizipation der Zuschauer, die durch viele weitere Faktoren des Erzählens mitbedingt ist. Eine vergleichbare Taktik – dies sei am Rande noch erwähnt – betrifft die Integration von Modellen oder CGI-Objekten, die oft als reale Teilele- mente für jene Aufnahmen zur Verfügung stehen müssen, in denen die Fi- guren direkt mit ihnen operieren, während man die Totalen mit CG- oder Miniatur-Versionen realisiert. Selbst in Sky Captain and the World of Tomorrow standen noch Fragmente von Objekten zur Verfügung (cinefex 98: 22), zum Beispiel das Cockpit, in dem Jude Law saß. 54 Ein Mûmak ist ein elefantenähnliches Tier, wie es in der Welt von The Lord of the Rings vorkommt (→ 84). 55 «Wir wollten die Schauspieler mehr in die Szene einbinden und die Anteilnahme der Zuschauer besser verankern. Deshalb hat Peter entschieden, dass wir ein Mûmak im Maßstab 1:1 brauchten, das zu Boden gefallen war. Das konnte uns auch als Hintergrund dienen und ermöglichte es, in einigen Einstellungen ohne Visual Effects auszukommen.» 56 Beispielsweise wurde die Feder in der Expositionsszene von Forrest Gump (USA 1994, Robert Zemeckis), welche als reales Objekt die ganze Zeit an Forrests Schuh klebt, in einigen Bildern wegradiert und ersetzte am Ende verschiedene vor Bluescreen ge- drehte Federn (cinefex 60: 106); in Lara Croft: Tomb Raider (USA 2001, Simon West) wurde der Kampfroboter teilweise als praktisches Modell, in Totalen als CGI realisiert (cinefex 87: 46 f.); das Verfahren hat man in Guillermo del Toros Hellboy (USA 2004) angewendet; auch der riesige Spinnenroboter in Wild Wild West (USA 1999, Barry Sonnenfeld) ist so entstanden oder das Alien in Alien Resurrection (USA 1997, Jean- Pierre Jeunet), das neben der CG-Version in Nahaufnahmen auch als Mann im Kostüm zu sehen ist (cinefex 73: 108). 254 Compositing 56 Feuer und Rauch verschweißen die getrennten Bildteile in Interview With the Vampire Mindestens genauso alt wie der King-Kong-Approach ist die Split- Screen-Technik, mit der bei geeigneter Anordnung Berührungen simuliert werden können – dies vor allem dann, wenn die Berührung aggressiver Natur ist. In Gladiator (USA 2000, Ridley Scott) ist es der Kampf mit den Tigern, in welchem die Tiger mittels Split-Screen-Compositing wesentlich näher an den Protagonisten herangerückt wurden (cinefex 82: 30), oder sehr ähnlich in Interview With the Vampire (USA 1994, Neil Jordan) der Kampf zwischen dem guten Vampir Louis mit dem bösen Vampir San- tiago, in welchem jedoch in einem zweiten Schritt die Teile der Figur des Santiago via Rotoskopieren gänzlich in die Aufnahme von Louis hinein- gefügt wurde. Zusätzlich hatte der Compositing Artist Adam Stark Feuer und Rauch über die Nahtstelle des Splitscreen gezogen (Abb. 56), um die Teile enger zusammenzuschweißen (in cinefex 61: 54 f.). Im Gegensatz zu diesen beiden etablierten Techniken ist die Anima- tion von Berührungen ein Verfahren, das erst mit den digital erzeugten Bildern innerhalb einer fotorealistischen Darstellungsform Elemente, die aus verschiedenen Verfahrensweisen hervorgehen, in einen phänomenal ununterscheidbaren Zusammenhang stellt. Das wohl früheste Beispiel dafür ist The Abyss (USA 1989, James Cameron), wo die Protagonistin das Wasserwesen berührt, wie um es zu testen. Dieser ersten Berührung war eine längere Face-to-Face-Interaktion vorangegangen, in welcher das Wasserwesen unterschiedliche Gesichtsausdrücke nachahmt, gefolgt von einer Subjektiven des Wasserwurms auf den ausgestreckten Finger der Protagonistin. Ähnlich wie in Jurassic Park wird die Berührung als Interaktion 255 Höhepunkt einer schrittweisen An- näherung inszeniert. Animierte Berührungen ha- ben zwei negative Konsequenzen: nämlich mühsame Handarbeit für den Visual Effects Artist und abstraktes Mimen eines Kontakts für den Schauspieler, womöglich in einer Bluescreen-Umgebung, so in der Begegnungsszene zwischen 57 Forrest Gump: Originalmaterial mit Forrest Gump und Kennedy (Abb. Händedruck Kennedys 57–59). «These kinds of illusions only work if the actor makes them work. […] The actor is crucial – yet the ac- tor often feels more like a prop than a performer, […] it’s so mechani- cal and tedious»57 (Zemeckis in ci- nefex 60: 94). Tom Hanks musste unendlich oft seinen Handschlag wiederholen, bis das Timing und die räumliche Übereinstimmung 58 Bluescreen-Version mit Tom Hanks so weit funktionierten, dass die Be- rührung in Bewegung mittels Mor- phing und Rotoskopieren genü- gend perfekt erschien. In einer wei- teren Einstellung wurde Kennedy zusätzlich der Satz «I believe he said he has to go to pee»58 via Ani- mation in den Mund gelegt. Das Archivmaterial für die Sequenz 59 Fertiges Compositing stammte aus unterschiedlichen Quellen. Wie in der Einleitung zu diesem Kapitel erwähnt, ist Forrest Gump ein Paradebeispiel für die viel kritisierte Nahtlosigkeit des digitalen Compositing, die allerdings nicht nur auf den technischen Errungenschaf- ten beruht, sondern mindestens ebenso sehr auf der umsichtigen Mise-en- 57 «Solche Illusionen funktionieren nur, wenn der Schauspieler sie mit seinem Spiel ausfüllt. […] Tatsächlich ist der Schauspieler essenziell, obwohl er sich in solchen Si- tuationen oft eher wie ein Requisit als wie ein Darsteller fühlt, […] denn die Arbeit ist überaus mechanisch und langweilig.» 58 «Ich glaube, er hat gesagt, er müsse pinkeln gehen.» 256 Compositing Scène, in der Berührung und verbale Interaktion einen essenziellen Stel- lenwert einnehmen. Schließlich gibt es neben der Animation als weitere Strategie des digi- talen Zeitalters den Proxy Approach, nämlich am Set einen stellvertreten- den Schauspieler mit den anderen Figuren interagieren zu lassen. Ich habe auf dieses Verfahren im Rahmen des Rotoskopierens und der Retuschen schon hingewiesen (→ 220), denn ohne diese Techniken, und zwar in weit entwickelter Form, wäre eine solche Anordnung nicht denkbar. Im Ansatz war die Idee für Hollow Man dieselbe, wobei eben nicht die Retusche, sondern Motion Control als technische Lösung diente – mit den oben geschilderten Nachteilen. Ein Proxy, das zeigt insbesondere die Figur Gollum aus The Lord of the Rings, ermöglicht die wohl intensivste Form der Interaktion mit einer digitalen Figur: Timing, Aktionen, Reaktio- nen, Berührungen, Blicke, Dialoge, alle diese Elemente einer gelingenden physischen und verbalen Kommunikation sind so natürlich gegeben wie in jeder anderen Inszenierungssituation. Voraussetzung dafür ist jedoch, dass die digitale Figur annähernd menschliche Dimensionen aufweist und sich zumindest menschenähnlich verhält. Dennoch hat Andrew Serkis, Gollums Proxy, in Jacksons Folgeproduktion auch Kong verkörpert, wenn auch in reduzierter Form. Viele Interaktionen verlangten andere Mittel, sodass es in erster Linie Serkis’ Aufgabe war, der Figur eine konsistente Persönlichkeit zu verleihen, neben der Funktion als Proxy sein wichtigster Beitrag, um das Publikum emotional einzubinden (→ Digitale Figuren 422). Ästhetische Kohärenz Ob aus den vielen Fragmenten am Ende ein Bild wird, das man als Ganzes wahrnimmt, entscheidet sich auf der ästhetischen Ebene. Die Verteilung von Farben und Kontrasten, das Gefühl von Raumtiefe im zweidimensio- nalen Bild, das Spiel mit Schärfe und Unschärfe, Reflexionen, Licht und Schatten, aber auch die Konsistenz von Oberflächeneigenschaften wie Rau- schen und Korn, das alles sind ästhetische Parameter des Bildeindrucks, die unmittelbar die sensorische Dimension der Wahrnehmung betreffen. Gleichzeitig sind es auch Indizien für die Stimmigkeit – diese können die unbewusste Ebene überschreiten, wenn der Betrachter Dissonanzen wahr- nimmt, die ihn veranlassen, das Bild genauer zu überprüfen. Es findet dann ein Wechsel der Wahrnehmungsverarbeitung von der sensorischen auf die semantische Ebene statt: Die Bildgestaltung selbst kann zum Ge- genstand der kognitiven Reflexion werden. Dieses Kippen des Modus gilt es nach der klassischen Doktrin des Mainstream-Films zu vermeiden, Ästhetische Kohärenz 257 denn damit würde sich der Film ja als Artefakt entlarven und seine Funk- tion als Medium der Illusionen untergraben. Aber gleichzeitig beziehen Filmkenner einen Teil ihres Genusses aus dem Hintergrundwissen über Produktionsverfahren, über intertextuelle Bezüge, aber auch über Oberflä- cheneigenschaften und technische Bedingungen der Bildgestaltung. Ohne an dieser Stelle in die Tiefe dieses Gegenstands eindringen zu wollen, möchte ich doch festhalten, dass ich bei der Filmrezeption von einer mehrschichtigen Informationsverarbeitung ausgehe, in der neben Aspekten der Bedeutung und der narrativen Konstruktion auch diese ästhetischen Eigenschaften mitverarbeitet werden, und zwar je nach Kompetenz des individuellen Zuschauers mehr oder weniger ausgeprägt. Gegenüber den statischen Bildern, wie sie in der Kunstgeschichte und der Psychologie der Kunstwahrnehmung untersucht werden, erfordern Film- bilder durch ihre starr definierte zeitliche Organisation eine Echtzeitrezep- tion, die sich von der Kunstbetrachtung deutlich unterscheidet, weil sie das perzeptive System mit einem ununterbrochenen Datenstrom füttert, in dem die Aspekte des Reizes selbst eine womöglich sogar gleich wichtige Funktion einnehmen wie die semantischen Aspekte der erzählerischen Bezüge, die durch das Bildergeflecht vermittelt werden. Auf diese Weise spielt die ästhetische Kohärenz eine mehrfache Rolle, indem sie über ihre rein sensorische Dimension hinaus auch semantische Aspekte der Plausi- bilität der dargestellten Welt kommuniziert, für die der Zuschauer aus der Alltagswahrnehmung ein geschultes Auge mitbringt. Ob Schattenwürfe konsistent sind, ob die Tiefenhinweise stimmig wirken, ob die Reflexionen korrekt sind, kann er aus lebenslanger Erfahrung mit der Umwelt intuitiv beurteilen. Farbe, Kontrast und Licht Wenn analoges und digitales Material in einem Bild zusammenkommen, sind enorme Diskrepanzen der entsprechenden Farbräume zu überwin- den. Es ist keineswegs so, dass mit der Übertragung des analogen Film- materials in die digitale Domäne durch Scannen auch automatisch eine Übertragung des Farbraums gegeben wäre. Vielmehr widersetzt sich die Farbstruktur relativ robust der Wandlung – das haben auch unsere eige- nen Untersuchungen zum digitalen Film deutlich gezeigt (Alleysson 2002; Flückiger 2003). Man könnte sagen, dass jene Bildteile, die auf analogem Weg entstanden sind, in ihrer farblichen Struktur durch diesen Prozess markiert sind, denn das Filmmaterial wandelt die physikalischen Eigen- schaften des Lichts in einer charakteristischen Weise, die in direktem Zu- sammenhang mit dessen chemisch-physikalischen Eigenschaften stehen. 258 Compositing Analoger Film und digitale Farbcodierung unterscheiden sich fun- damental in Bezug auf die Farbverarbeitung. Film operiert mit einem nichtlinearen subtraktiven Farbsystem,59 während die digitale Bilddaten- akquisition und -prozessierung auf einem additiven Farbmodell mit den drei Primärfarben Rot, Grün und Blau (RGB)60 basiert. Wenn analog und digital akquiriertes Material im Compositing aufeinander treffen, kommt es zu einem Zusammenprall vollständig verschiedener Traditionen und Systeme. Eigentlich wären umfangreiche Wandlungsprozesse notwendig, um diese unterschiedlichen Farbprozessierungen einander anzugleichen. Zwar existieren Werkzeuge für ein solches Farbmanagement und insbe- sondere das Tone Mapping, also die Transformation der Parameter eines Farbraums auf einen anderen (siehe dazu Stone 2003: 193 ff. und Reinhard et al. 2006: 223), aber sie werden in der Praxis des Compositing nur teil- weise benützt. Da die eigentlichen Probleme durch die Eigenheiten der visuellen Wahrnehmung des Menschen verursacht werden, die ihrerseits geprägt ist von einer Reihe von Nichtlinearitäten wie Farbkonstanz61 oder Simultankontrast62 (zu den Eigenheiten der visuellen Wahrnehmung siehe Kebeck 2006), ist es am sinnvollsten, dieses Wahrnehmungssystem als Referenz zu nehmen und die Probleme damit zu lösen. Weiter bringen es diese spezifischen Eigenschaften mit sich, dass die Betrachtungsbedin- gungen ein weiterer Faktor für die Wirkung von Farben sind. So weist zum Beispiel Stone (2003) darauf hin, dass die Betrachtungsbedingungen beim Compositing – nämlich die Arbeit am Monitor meist bei dämmriger Beleuchtung – völlig andere sind als bei der Filmrezeption im abgedun- kelten Raum, wodurch sich die Wahrnehmung der Farbrelationen signi- fikant verändert. Die Problematik ist äußerst vielfältig und komplex, und es gibt viele Ansätze zu ihrer Bearbeitung. Obwohl das Wissen und die Werkzeuge zur exakten Kalibrierung des Systems eigentlich vorhanden wären, fehlt offenbar öfter der Wille, dieses Wissen in der Praxis anzu- wenden. 59 Zur analogen Farbwiedergabe fotochemischen Materials siehe Koshofer (1988). 60 Siehe Stone (2003) und Poynton (1995). 61 Die Farbkonstanz des menschlichen Wahrnehmungssystems führt dazu, dass wir Far- ben weitgehend unabhängig von der Farbtemperatur der Beleuchtung wahrnehmen, sodass uns beispielsweise reife Bananen unter Licht mit unterschiedlicher Farbtem- peratur immer gelb erscheinen (vgl. Kebeck 2006: 200 ff.). Dies ist eine Eigenheit des visuellen Reizverarbeitungssystems, die bei analogen und digitalen Videoaufnahmen durch den sogenannten Weißabgleich nachempfunden wird. Im fotochemischen Pro- zess muss die Farbtemperatur stets berücksichtigt werden: entweder in der Wahl des entsprechenden Materials für Tages- oder Kunstlicht oder durch entsprechende Filter. 62 Der Simultankontrast, auch Surround-Effekt genannt, bringt es mit sich, dass die Wahrnehmung einer Farbe immer auch durch die Farbe bzw. den Kontrast der umge- benden Bildteile bestimmt wird (vgl. Kebeck 2006: 194 ff.). Ästhetische Kohärenz 259 Angesichts dieser vielfältigen Anforderungen scheint es geradezu über- raschend, dass die ureigenste Aufgabe des Compositing, nämlich die Bildteile hinsichtlich der Farb- und Kontrastanpassung aufeinander abzustimmen, doch mehrheitlich gut bis sehr gut ausfällt. Zunächst achtet natürlich jede Visual-Effects-Firma darauf, dass ihre Pipeline durchkalibriert ist, also durch Messungen und visuelle Kontrolle sichergestellt wird, dass die Scanner, Mo- nitore und Printer hinreichend aufeinander abgestimmt sind. In der Realität ist diese Kalibrierung jedoch oft nicht gegeben, weil Teilschritte in externen Labors bearbeitet werden und es in der Industrie keine einheitlichen Stan- dards63 gibt; offenbar hat jede Effects-Firma ihr eigenes Farbmanagement. Mitten in diesem Chaos hat sich eine Methodologie etabliert, die man als ‹empirisch› bezeichnen kann – also eine Methode, die nicht die zu- grunde liegenden Mechanismen untersucht und anwendet, sondern ledig- lich aus einem Input-Output-Management besteht, das in erster Linie auf der visuellen Kontrolle und nur am Rande auf messtechnische Verfahren vertraut. Ähnliche Probleme bestanden schon bei den optischen Verfah- ren, wenn es darum ging, Matte Paintings oder Bluescreen-Elemente mit weiterem Filmmaterial zu kombinieren. Dazu hat man einen sogenannten Belichtungskeil (wedge) erstellt, mit dem man systematisch unterschied- liche Beleuchtungs- und Blendenstufen austestet, um am Ende die pas- senden Parameter zu bestimmen. Dies ist insofern interessant, als dieses Verfahren genauso empirisch ist wie die heute üblichen Vorgehensweisen. Zwischen Live-Action-Aufnahme und CGI besteht hinsichtlich Farb- und Beleuchtungsanpassung eine Hierarchie, bei welcher die Filmauf- nahme am Set die Parameter bestimmt, die später für die Beleuchtung der CG nachgebildet werden müssen. Ein nützliches Ausgangselement, damit diese Anpassung gelingt, ist eine Gretag-Macbeth-Farbtafel (Abb. 60), die man in der spezifischen Beleuchtungssituation am Set mit dem gleichen Filmmaterial aufnimmt, anschließend den gleichen Prozeduren des Entwi- ckelns und Scannens unterwirft. Damit steht in der digitalen Domäne eine gute Referenz zur Verfügung, an welche sich die Farb- und Kontrastwerte anpassen lassen. Anders ausgedrückt, bilden sich so die spezifischen Abweichungen von einer standardisierten Aufnahmesituation auf einer Reihe von genau definierten Farb- und Graufeldern ab. In ähnlicher Weise funktioniert der zweite Pfeiler der Farb- und Lichtanpassung, nämlich die Aufnahme einer neutral grauen Kugel 63 Zwar gibt es verschiedene Organisationen, die sich um Standards des Farbmanage- ments bemühen, so das International Color Consortium (ICC, http://www.color.org) oder die Commission Internationale de l’Eclairage (CIE, http://www.colour.org). Aber wie an verschiedenen Präsentationen an der SIGGRAPH 2005 beklagt wurde, scheinen sich bis heute keine allgemein verbindlichen Standards durchgesetzt zu haben. 260 Compositing 60 Gretag-Macbeth- Farbtafel (Abb. 61), welche Informationen über die Farben und Position der Be- leuchtung liefert, die man mittels Farbanalyse oder Pipette direkt auf das computergenerierte Bild übertragen kann. «Die Kugel bekommt so ein Pendant im 3D-Raum gegenübergestellt.»64 Der dritte Pfeiler ist die Aufnahme einer verspiegelten Referenzkugel (Abb. 62), wie sie zur bildbasierten Beleuchtung (→ 164) zur Anwendung kommt. Aus ihr lassen sich Informationen über Helligkeit und Position der einzelnen Lichtquellen entnehmen, die man unmittelbar mit einer äquivalenten, in 3D modellierten Kugel vergleichen kann. Oft werden diese Referenzen noch erweitert durch ein Stand-In in Form einer Replik des zu modellierenden Objekts – dies besonders dann, wenn das Objekt kritische Eigenschaften aufweist. So wurde beispielsweise eine Hulk-Figur modelliert und mit ihrer speziellen grünen Oberfläche in den entsprechenden Lichtsituationen fotografiert, die als Referenz für die Reaktionen von Hulks Hautton auf die Beleuchtung diente (cinefex 94: 79). Auch der Roboter in I, Robot mit seiner komplexen halbtransparenten Materialisierung stand in einer voll ausgeführten physischen Version für diesen Zweck zur Verfügung (Abb. 63), was am Ende nur bedingt hilfreich war, weil sich der CG-Roboter in der Postproduktionsphase laufend ver- änderte. «We just had to judge the realism of the character shot to shot, relying on years of experience in dealing with photo-real CG images»65 (VFX Supervisor Erik Nash in cinefex 99: 102, 108). Schließlich stellt entweder die Beleuchtungs-Crew selber oder ein VFX-Team am Set einen genauen Plan der Lichtsetzung mit allen Koordi- naten und technischen Daten der einzelnen Scheinwerfer plus eine Doku- 64 Anmerkung von Andreas Krein (persönliche Mitteilung). 65 «Wir mussten lediglich den Realitätseindruck der Figur von Einstellung zu Einstellung prüfen, wobei wir uns auf unsere jahrelange Erfahrung mit fotorealistischen CG- Bildern stützen konnten.» Ästhetische Kohärenz 261 61 Graue Referenzkugel 62 Verspiegelte R eferenzkugel 63 I, Robot: Die Referenzv ersion des Roboters mentation über die Kameraparameter – Blende, Belichtungszeit, allfällige Filter – zusammen. Wenn alle diese Möglichkeiten nicht zur Verfügung stehen – beispiels- weise weil das Live-Action-Material aus dem Archiv stammt oder weil digitale Bilder unterschiedlichen Ursprungs zusammenzufügen sind –, müssen entweder die Farben rein visuell oder mittels Histogrammen be- stimmt und einander angeglichen werden. Im Histogramm – einem Dia- 262 Compositing gramm, welches die statistische Verteilung der Farbwerte darstellt – wer- den neben der Analyse von Kontraststufen auch Kompressionsartefakte und andere Defekte der digitalen Codierung sichtbar (siehe Brinkmann 1999: 136 ff.). Außerdem gehört ein Farbanalysesystem, das die RGB-Werte jedes einzelnen Pixels oder auch bestimmter größerer Bildteile berechnet, schon zu jedem einfachen Bildbearbeitungsprogramm. Einen besonders kritischen Bereich der Farbanpassung bilden laut Brinkmann (1999: 238 ff.; Masson 1999: 172) die Schwärzen (black levels), die einerseits in der fotochemischen Welt oftmals sehr eigene Farbstiche aufwei- sen und aus Gründen der Lichtdiffusion bei der Projektion nicht wirklich schwarz wirken, die jedoch oft in der digitalen Domäne ebenfalls nicht Schwarz entsprechen – entweder weil die Monitore kein wirkliches Schwarz wiedergeben können oder weil Schwarz nicht entsprechend codiert ist. Eine völlig andere Methode der Farb- und Belichtungsanpassung möchte ich noch erwähnen, nämlich das bereits vorgestellte Verfahren der bildbasierten Beleuchtung mit High-Dynamic-Range-Bildern (→ 164). Obwohl sich mit dieser Technik reale Lichtsituationen sehr überzeugend in CGI übertragen lassen, sind auch hier Vorkehrungen zur Kalibrierung zu treffen, so die Aufnahme einer Referenzfarbtafel und eines Graustu- fenkeils. Denn auch in diesem Verfahren schlagen sich die verschiedenen Bildbearbeitungsschritte von der Originalaufnahme bis zum Compositing in Farbveränderungen nieder, wie Schmid (2003: 82) erfahren musste, die bei ihrer Arbeit am Werbefilm DIVE auf exakte Kalibrierung verzichtet hatte. Bildbasierte Beleuchtung wurde unter anderem in Daredevil (cine- fex 93: 33 f.) angewandt und erzeugt auch in den Tests von Debevec eine sehr natürlich wirkende Integration von CGI in eine fotografierte Umwelt. Für die Ausbelichtung auf Film wird am Ende ein Belichtungskeil der CG-Teile bzw. des Compositing erstellt, und zwar rund um einen Bereich, den der VFX Artist dank seiner Erfahrung als «best guess» bestimmt, wie Brinkmann (1999: 192) schreibt. Bei der Visionierung dieser Muster wer- den dann all jene Fehler sichtbar, die auf dem Monitor verborgen geblie- ben sind, und so strebt zuletzt das Resultat im Trial-and-Error-Verfahren dem Optimum entgegen. Interaktives Licht ist ein anspruchsvoller Spezialfall der Farb- und Lichtanpassung, bei dem nicht eine stabile Lichtsituation gegeben ist, sondern sich die Beleuchtung ständig ändert – wie bei flackerndem Ker- zenlicht, bei einem Feuer, bei Explosionen, bei Gewitter oder wenn eine computergenerierte oder vor Bluescreen aufgenommene Figur durch wechselnde Lichtsituationen schreitet. Ein Lichtwechsel war beispielsweise in Blade Runner gegeben, als eine Außenansicht der Stadt als Modellaufnahme mit einer Innen- Ästhetische Kohärenz 263 64 Kein interaktives Licht in Death 65 Übertriebenes interaktives Licht in Becomes Her The Fifth Element 66 Magische Ästhetik in Moulin Rouge! aufnahme im Büro der Tyrell Corporation zu kombinieren war. Dabei bewegte sich nicht nur die Sonne, sondern auch die Figur der Rachael vor der Sonne, und schließlich wurde vor dem Fenster eine Sonnenstore akti- viert. Alle diese interaktiven Lichteffekte haben der Animator John Wash und sein Team mit animierten Masken und Rotoskopieren vollständig in der optischen Domäne realisiert (cinefex 9: 19 f.). Wenn man interaktive Lichtsituationen in Compositings untersucht, zeigt sich schnell, dass die Aufgabe offensichtlich wesentlich komplexer ist. Manchmal fehlen schlicht die Effekte – wie in einer Szene mit dem ma- gischen Trank in Death Becomes Her (Abb. 64) –, oder sie sind übertrie- ben wie in der Schlussszene mit den ebenfalls magischen fünf Elementen in The Fifth Element (USA 1997, Luc Besson; Abb. 65) Manchmal ist auch die Übertreibung Teil der intendierten Ästhetik wie in der Szene mit der grünen Fee in Moulin Rouge! (Abb. 66). Wenn die in- teraktiven Lichteffekte nicht schon in der Vorproduktion festgelegt werden wie für den Showdown in Fight Club, in welcher die Previz das Timing für die Choreografie der kollabierenden Hochhäuser genau bestimmte (ci- nefex 80: 129), ließen sich solche Effekte in der Postproduktion simulieren, indem man die zu beleuchtenden Objekte und Figuren in 3D nachbildet, 264 Compositing deren Bewegungen und räumliche Anordnung mittels Tracking genau ermittelt und dann das Licht auf diesen neutral kolorierten Objekten animiert und ins Compositing inte- griert (Brinkmann 1999: 226) – eine äußerst mühevolle Prozedur, die offensichtlich lieber durch einfache Überlagerung von Lichtschichten ersetzt wird, auch wenn die Resul- tate nur mäßig überzeugen. Weil Farbe und Kontrast emi- nent wichtige Strukturierungsele- mente zweidimensionaler Bilder sind (siehe dazu Kebeck 2006: 191 ff.), reagiert das visuelle System extrem sensibel auf einen Mangel an Übereinstimmung. Abbildung 67–68 Forrest Gump: Unkorrigierte 67 aus Forrest Gump zeigt eine Farbe (oben); nach der Korrektur (unten) magenta-stichige Archivaufnahme von Lyndon B. Johnson, die mit ei- ner neuen Aufnahme von Tom Hanks zusammengefügt ist. Obwohl die Anordnung der beiden Figuren, die sich in einer Situation der intensiven Interaktion befinden, völlig korrekt ist, fallen die Bildteile auseinander: Es kommt zu divergierenden Gestalten, die Figur von Forrest wirkt wie aus- geschnitten. In der farbkorrigierten Version hingegen sieht die Integration völlig natürlich aus (Abb. 68). Der Farbstich des historischen Materials wird übrigens als Marker beibehalten – ein Aspekt, der mich im Kontext der analogen Artefakte (→ 334) wieder beschäftigen wird. Damit dürfte auch hinreichend belegt sein, dass die digitale Trans- formation von Material keineswegs per se zu einer phänomenalen Ein- ebnung führt, wie Mitchell und andere behaupten (→ 201); vielmehr schreiben sich speziell in der Wiedergabe von Farben und Kontrasten spe- zifisch fotochemische Eigenheiten ein, die auch ein Laie erkennt. Natürlich ist es möglich, mit diversen Verfahren der Bildbearbeitung solche Spuren zu unterdrücken, nur steht das eigentlich auf einem anderen Blatt. Weil aber die farbliche Integration von unterschiedlichem Material so schwierig ist, sind mir in meiner Forschung einige Beispiele begegnet, in denen am Ende eine monochrome Farbkorrektur wie ein Filter über die ganze Szenerie gelegt wurde, welcher die problematischen Aspekte wie unter einem Schleier versteckt (Abb. 69–70). Eine solche monochrome, Ästhetische Kohärenz 265 69 Farbanpassung in A Beautiful Mind, links die korrigierte Version 70 Farbkorrektur in Master and Commander oftmals auch entsättigt wirkende Farbgestaltung passt jedoch insgesamt in die gegenwärtige Tendenz zu einer eher unbunten Farbdramaturgie – dies wahrscheinlich in Abgrenzung zum hyperchromatischen Look, der bis Mitte der 1990er-Jahre zu beobachten ist. Schärfe Der nächste Aspekt in meinem Panoptikum der ästhetischen Kohärenz digital zusammengefügter Bilder ist die Schärfe, genauer die selektive Schärfentiefe und die Staffelung abgestufter Schärfenebenen. Selektive Schärfentiefe ist ein typisches Merkmal fotografischer Bil- der, das in dieser Form weder in der visuellen Wahrnehmung noch in der 266 Compositing bildenden Kunst vorkommt. Denn das Auge akkomodiert immer in Ab- hängigkeit von höheren kognitiven Prozessen der Aufmerksamkeitssteu- erung. Die Schärfentiefe der Kamera hat ihren Ursprung in der optischen Anordnung von Linsen und Blende und steht in einem systematischen Zusammenhang mit diesen Parametern. Filmästhetisch gesehen ist die selektive Schärfentiefe ein Instrument, um die Aufmerksamkeit des Zuschauers zu lenken. Objekte, die in einem ansonsten unscharfen Bild scharf abgebildet sind, lösen aus psychophysi- schen Gründen eine unmittelbare Aufmerksamkeitsreaktion aus. Eine ge- ringe Schärfentiefe steht darum in enger Verbindung zu erzählerischen und emotionalen Zielen. Sie hebt hervor, was für die Narration von Bedeutung ist, und lässt jene Elemente im Vorder- oder Hintergrund verschwimmen, die dem Zuschauer nur vermittelt präsent sein sollen. Sie isoliert die darge- stellte Figur von ihrer Umwelt und stellt damit eine Verbindung zwischen Figur und Rezipient her, von der es wenig Ablenkung gibt. Minimale Schär- fentiefe führt zu einer plastischen Trennung von Figur und Hintergrund und eignet sich zu subjektiv eingefärbten Darstellungsweisen, die Wahrneh- mungsprozesse aus der Perspektive einzelner Filmfiguren nachzeichnen. Eine große Schärfentiefe auf der anderen Seite lässt dem Zuschauer die Freiheit, mit dem Blick im dargestellten Raum herumzuwandern, selbst zu entscheiden, wohin er seine Aufmerksamkeit steuern will. Sie betont darum stärker die Interaktionen zwischen den Figuren und dem Raum. Bazin sah in einer großen Schärfentiefe ein Gestaltungsideal von revolutionärer Kraft: Während das Objektiv der klassischen Kamera nacheinander auf die ver- schiedenen Orte der Szene gerichtet wird, umschließt die Kamera bei Orson Welles mit gleich bleibender Schärfe das gesamte Blickfeld des dramatischen Schauplatzes. Nicht mehr der Schnitt wählt für uns den Gegenstand aus, den wir sehen sollen und der damit eine ‹Bedeutung› a priori erhält, sondern es ist das Bewusstsein des Zuschauers, das nun gezwungen ist, in dieser Pa- rallelität zwischen Realität und Abbild, da wo sie sich überschneiden, den eigentlichen dramatischen Bereich der Szene zu bestimmen.(Bazin 1958: 143) Während diese Zusammenhänge in der Filmwissenschaft ausgiebig un- tersucht werden, scheint es kaum eine Beschäftigung mit den ästhetischen Qualitäten der Unschärfe zu geben. Denn wie ich schon in meiner Unter- suchung zum gegenwärtigen Stand der digitalen Bilddatenakquisition geschrieben habe (Flückiger 2003: 40 f.), werden unscharfe Bildteile in digitalen Verfahren deutlich anders abgebildet als in analogen. Dies gilt schon für die Aufnahme mit einer digitalen Filmkamera wie der Sony HDW-F900, fällt aber noch ausgeprägter aus, wenn die Unschärfe künst- Ästhetische Kohärenz 267 71–72 Tomb Raider: Selektive Schärfentiefe (links); die gestaffelten Elemente des Compositing (rechts) lich im Rendering oder im Compositing hergestellt wird. Denn wie im Ab- schnitt Rendern (→ 169) beschrieben, entspricht die virtuelle Kamera einer Lochkamera, welche keine selektive Schärfentiefe produziert.66 Der Schär- fenverlauf muss also, losgelöst von den physikalischen Gesetzen, auf das computergenerierte Bild aufgepfropft werden. Dasselbe gilt für jene Bild- teile, die im Compositing unscharf prozessiert werden sollen (Abb. 71–72). Die Algorithmen, die sich dafür entwickelt haben, basieren auf Fil- terungsprozessen beispielsweise nach der Gaußschen Normalverteilung, Gaußsche Unschärfe (Gaussian blur) genannt (Abb. 73; vgl. Reinhard et al. 2006: 233 ff. und 278 ff.). In ästhetischer Hinsicht unterscheidet sich diese synthetische Unschärfe markant von einer als Bokeh67 bezeichneten, liebe- voll gepflegten Eigenschaft fotografischer Unschärfe (Abb. 74–75), welche das Resultat von sphärischen Aberrationen und Streuungen in den Linsen in Kombination mit der leichten Diffusion im fotografischen Material ist. Gutes Bokeh zeichnet sich dadurch aus, dass die Zerstreuungskreise, auf welche das Objektiv Punkte im unscharfen Bildbereich projiziert, ihre größte Dichte im Zentrum haben und nach außen hin unscharf verlaufen. Meiner Ansicht nach wird dieser gravierende ästhetische Unterschied beim Compositing systematisch missachtet, obwohl die Compositing- Softwares gemäß Brinkmann (1999: 233) über Werkzeuge verfügen, mit 66 Eine interessante Bemerkung zum Zusammenhang zwischen selektiver Schärfentiefe und visueller Wahrnehmung des stereoskopischen sogenannten 3D-Films: «‹There are reasons why 3D works better in CG than live-action›, said Hugh Murray, Imax vice president for technical production. ‹Depth of field is one of them. In the real world, because of physical limitations of optics, cameras can’t see everything in focus at the same time. In CG, we can; and in 3D we need everything to be sharp› [‹Es gibt Gründe, warum 3D mit computergenerierten Bildern besser funktioniert als mit Filmaufnah- men›, erklärte Hugh Murray, der stellvertretende Verantwortliche für die technische Produktion bei Imax. ‹Die Schärfentiefe ist einer davon, denn bei Filmaufnahmen ist sie wegen der optischen Beschaffenheit der Objektive immer eingeschränkt – dies im Unterschied zu CG, wo wir alles gleichmäßig scharf abbilden können. Und diese un- eingeschränkte Schärfentiefe ist in 3D notwendig.›]» (cinefex weekly up-date 45). 67 Eine gute Beschreibung des Bokeh findet sich auf http://www.luminous-landscape. com/columns/sm-04-04-04.shtml; der Begriff, ursprünglich boke, ist japanischen Ur- sprungs. 268 Compositing 73–75 Gaußsche Unschärfe (oben rechts); Bokeh (oben links); Bokeh in Magnolia (links) denen sich das Bokeh nachbilden lässt. Am deutlichsten wird dieses Defi- zit in Bildern, die ein scharfes Objekt vor einen großen unscharfen Hinter- grund stellen (Abb. 76). Die unscharfen Bildteile sind oft strukturlose, matschige Flächen, die einen leblosen Eindruck erzeugen. Scharfe und unscharfe Bereiche wirken wie beziehungslos zusammengeklebt – ein Problem, das schon zu Zeiten der optischen Verfahren auftrat, wenn Travelling Mattes mit ihren schar- fen Kanten in Hintergründe integriert werden mussten. Genauso künst- lich sieht es aus, wenn – wie in Jurassic Park (Abb. 77) – ein Vordergrund künstlich unscharf gefiltert wird, während die Schärfenebene auf dem 76 Ein einzelnes scharfes Objekt vor 77 Künstlich wirkender unscharfer einem unstrukturierten unscharfen Vordergrund in Jurassic Park Hintergrund in Resident Evil Ästhetische Kohärenz 269 computergenerierten Dinosaurier liegt. Es haben sich unterschiedli- che Strategien entwickelt, diesem Prob lem zu begegnen. Eine beliebte Strategie ist es, das gesamte Material einer Weichzeichnung mittels Dif- fusion zu unterwerfen wie in Ava- lon (JP/PL 2001, Mamoru Oshii) oder Sky Captain. Andere Filme – zu großen Teilen Spider-Man oder Gladiator – wählen als Option eine große Schärfentiefe, mit dem sich das Problem umgehen lässt – allerdings zum Preis einer gestalte- rischen Einschränkung. Schließlich 78–79 Resident Evil: Schärfenverlage- gibt es aber noch die Möglichkeit, rung die Hintergründe oder unscharfen Vordergrundobjekte von Anfang an unscharf aufzunehmen – eine Mög- lichkeit, von der nach meinem Kenntnisstand relativ selten Gebrauch gemacht wird. Vielmehr scheint es sich oft erst während des Compositing zu entscheiden, wie sich die Schärfenebenen zueinander verhalten sollen. Es herrscht deshalb die Tendenz vor, im Zweifelsfall auf das gestalterische Spiel mit verschiedenen Schärfenebenen zu verzichten und die Bildteile einander anzugleichen. In meinem Korpus finden sich nur wenige Ausnahmen von dieser unerfreulichen Tendenz, unter anderem ein paar Schärfenverlagerun- gen in Resident Evil (GB/D 2002, Paul W. S. Anderson), die durchaus klug Live-Action und CG-Komponenten miteinander verbinden – so in einer jener Szenen, in welcher die Protagonistin den bestialischen Tod eines Gefährten beobachtet (Abb. 78–79). Nur im Standbildmodus wird die künstlich wirkende Unschärfe der computergenerierten Bildteile im Vordergrund sichtbar, die in der Aktion – wohl nicht zuletzt dank dem narrativ motivierten Perspektivwechsel – der Aufmerksamkeit völlig entgehen. Reflexionen Fast schon leitmotivisch beherrscht das Thema Reflexionen die Computer- grafik, seit James F. Blinn und Martin Newell von der University of Utah 1976 eine erste Methode entwickelt haben, mit der sich spiegelnde Refle- 270 Compositing 80–81 Einfache Reflection Map von Blinn und Newell (links); die Reflection Map auf die Utah-Teekanne projiziert (rechts) xionen auf computergenerierte Gegenstände projizieren lassen: das Reflec- tion Mapping68 – eine Technik, die ähnlich funktioniert wie die Projektion von Texturen (Abb. 80–84). Wenn nun solche reflektierenden Oberflächen via Compositing in Umgebungen eingefügt werden, die in der computergenerierten Szene oder in der Bluescreen-Umgebung nicht vorhanden sind, müssen sie künstlich erzeugt werden – entweder indem die Bildinformationen der 82–84 Untexturierter Hund von Ken Perlin (oben links); fotografische Auf- nahme der Reflexion (oben rechts); applizierte Reflection Map aus Abb. 83 (links) 68 Blinn, James F.; Newell, Martin E. (1976): Texture and Reflection in Computer Genera- ted Images. In: Communications of the ACM, Bd. 19, Nr. 10, S. 542–547. Ästhetische Kohärenz 271 85 Die spiegelnde Oberfläche in Terminator 2 Umgebung als Kubus oder Hemisphäre in die 3D-Szene eingefügt, mittels Raytracing aus dem Kamerawinkel korrekt auf das Objekt projiziert wer- den, oder indem man sie mit dem 2D- bis 2.5D-Compositing-Verfahren direkt ins Bild einfügt. John Knoll hatte für The Abyss die Reflexionen am Set aufgenommen, mittels einer Beta-Version seiner Software Photoshop bearbeitet und Stück für Stück zu einer kompletten Umwelt zusammen- gestitcht (in Rogers 1999: 167). Die reflektierenden Oberflächen in diesem Film und auch in Camerons Terminator 2 (Abb. 85) sind kein Zufall, sondern entsprechen in maximaler Weise dem State of the Art, ziehen also den größtmöglichen ästhetischen Nutzen aus einer noch nicht ausgereif- ten Technologie. Reflexionen sind weit mehr als nur ästhetische Spielerei. Sie nehmen einen ähnlichen Stellenwert ein wie Berührungen, indem sie die Relation des Subjekts zum Raum darstellen. Sie affizieren den Realitätsstatus der Figur, die möglicherweise sogar in privaten Momenten gezeigt wird, wo sie in den Spiegel schaut, so in Hulk (Abb. 86) und The Lord of the Rings (Abb. 87), und stellen mit diesen Momenten der Selbstreflexion ein auto- nomes Bewusstsein der Protagonisten dar. 86 Ein Moment der Selbstreflexion in 87 Gollum im Gespräch mit seinem Hulk Alter Ego 272 Compositing 88 The Matrix: Neo wird vom Spiegel v er schlungen 89 Im Griff der Maschine 90 Gewarpte Reflexion im sich verbiegenden Löffel Rahmungen und Schichten sind aber auch eine Obsession des hy- briden, analog-digitalen Films und ein selbstreflexives Moment der Be- schäftigung mit den Themen Schein und Wirklichkeit, Abbildung und Täuschung – so die unendlich vielen Spiegelungen, die in The Matrix in Löffeln und Sonnenbrillen zu sehen sind, im Auge des Roboters und auf dem zerfließenden Spiegel, der schließlich die Retterfigur Neo vollends umhüllt und in eine andere Sphäre der Wirklichkeit transferiert (Abb. 88 bis 90). Alle diese Reflexionen sind Compositing-Arbeiten, die mittels Warpen in 2.5D auf die gekrümmten Oberflächen projiziert wurden. 91 Animierte Pinguine in Mary Poppins Ästhetische Kohärenz 273 92–93 The Matrix: Greenscreen-Aufnahme ohne Schatten (links); Schatten in H intergrund eingefügt (rechts) Schatten Schatten sind seit je nicht nur wesentliche Gestaltungselemente von Bil- dern – von Fotografien und Gemälden gleichermaßen –, sondern auch Indizien für die räumliche Anordnung der Elemente und die Interaktion von Figuren oder Objekten mit dem Raum, die der Rezipient sofort ent- schlüsselt (Kebeck 2006: 176 ff.). Auch in der klassischen Folienanimation hat man im Disney-Imperium peinlich darauf geachtet, die Schatten so präzise und so realitätsnah wie möglich zu gestalten. Nur in Mary Pop- pins (Abb. 91) war das nicht gelungen, weil es wesentlich schwieriger ist, einen glaubwürdigen Schatten in eine fotografierte Szene mit komplexer Geometrie zu rotoskopieren. Wenn aber verschiedene Elemente – Live-Action, Bluescreen, Modell- aufnahmen, CGI – in plausibler Weise einen konsistenten Raum bilden sollen, sind Schatten ein unentbehrliches Mittel, die Bildteile miteinander zu verknüpfen. Ob eine Figur auf dem Boden steht oder schwebt, wird in einer zweidimensionalen Abbildung zuallererst über den Schattenwurf dargestellt. Der Schattenwurf verankert also die Figur in der Raumgeome- trie, vermittelt sozusagen augenscheinlich Bodenhaftung. Wenn die Figuren, deren Schatten in den übrigen Bildteilen zu ge- nerieren ist, als Travelling Matte aufgenommen wurden, kann der Schat- 94 Von Hand animierter Schatten in The Mask 274 Compositing ten gleichzeitig als Schattenwurf in der Aufnahme erzeugt werden. Wenn die Geometrie der Oberflä- che nicht mit der Geometrie in der Aufnahme übereinstimmt oder wenn sich aus der Bluescreen-Auf- nahme kein Schatten extrahieren lässt, kann man ihn nachträglich 95 Schatten des CG-Tiers in eXistenZ durch Drehen, Warpen und/oder Skalieren oder durch andere Pro- jektionsformen der Maske selbst erzeugen (Abb. 92–93). Schatten von CG-Elementen lassen sich direkt rendern. Voraussetzung dafür ist jedoch – ähnlich wie bei der Raum- und Bewegungsanpassung –, dass die Topologie des Bodens ebenfalls in 3D modelliert wird, damit der Schattenwurf geometrisch korrekt ausfällt. Und schließlich kann man die Schatten ins Bild zeichnen, was immer dann nötig ist, wenn die an- deren beiden Herstellungsverfah- ren versagen (Abb. 94). Öfters muss man Schatten eliminieren, nämlich dann, wenn Objekte nicht zu sehen sein sol- len wie in Hollow Man oder der kopflose Reiter in Sleepy Hollow (USA 1999, Tim Burton), Lieu- tenant Dans in Forrest Gump per Bluescreen-Strümpfe amputiertes Bein: eine größere Rotoskopierar- beit, denn zunächst mussten die Schiffsplanken selbst ins Bild ge- 96–97 Forrest Gump: Original- zeichnet und anschließend sämtli- schattenwurf (oben); retuschierte che Schatten rekonstruiert werden V ersion (unten) (Abb. 96–97). Abbildung Zu den Mythen, die sich um das digitale Bild ranken, gehört die Vor- stellung, dass sich mit den digitalen Verfahren das Verhältnis zwischen Realität und Abbildung radikal verändert habe. Mit dem Begriff Simula- tion wird diese neue digitale Abbildungsbeziehung im Anschluss an Jean Baudrillard (1978, 1981) als eine Abbildung ohne Bezug auf einen realen Referenten beschrieben, mithin als «Agonie des Realen», das hinter der medialen Aufbereitung zurückbleibe und am Ende völlig ausgelöscht sein werde. Entsprechend angstbesetzt und irrational wird dieser Diskurs ge- führt, und es wäre ein Leichtes, sich in dieser Irrationalität zu verheddern, indem man alle Argumente verfolgt und zu entkräften versucht. Meine Strategie soll deshalb eine andere sein. Um diesen Diskurs einzugrenzen, werde ich mich in erster Linie mit dem digitalen und dem hybriden, analog/digitalen Bild im Kontext der filmischen Fiktion be- schäftigen, was nicht heißen soll, dass überhaupt kein Blick über den Gar- tenzaun stattfinden wird. Filmische Fiktion fungiert dabei als moderieren- der Bezugsrahmen, der über pragmatische und semantische Aspekte die Abbildung beeinflusst. Als pragmatische Faktoren sind die kulturelle und soziale Praxis der Rezeption wirksam, in deren Rahmen die Abbildung erscheint, während die semantischen Aspekte die Fiktion als eine signifi- zierende Praxis, mithin also den Kommunikationsaspekt der Abbildung beschreiben. Diese Eingrenzung bringt es außerdem mit sich, digitale Bil- der in all ihren Erscheinungsformen in Beziehung zu fotografischen Auf- nahmen und zur Animation zu setzen, welche das Ausgangsmaterial der filmischen Darstellung bilden. Außerdem werde ich mich auf die bereits diskutierten technisch-ästhetischen Grundlagen beziehen und so hoffent- lich einige Früchte der fast schon buchhalterischen Akribie ernten, mit der ich mich bisher diesen Verfahren gewidmet habe. Was nun ist eine Abbildung? Unter dem Begriff Abbildung verstehe ich zunächst ganz allgemein eine Fläche, die etwas repräsentiert, was sie selbst nicht ist. Im Begriff Repräsentation schwingt schon die Einsicht mit, dass zwischen dem Gegenstand der Abbildung – dem Urbild – und der Abbildung selbst eine Transformation stattgefunden hat, indem beispiels- weise eine dreidimensionale Gestalt auf eine zweidimensionale Fläche projiziert wurde. Jede Repräsentation ist durch zwei Grundeigenschaften charakterisiert: durch einen außerbildlichen Bezug – auf reale oder ima- ginierte Gegenstände oder auf ein Bildergedächtnis – und durch eigene, 276 Abbildung interne Merkmale der Bildoberfläche wie die Verteilung von Farben oder das Spiel mit Kontrasten. Der Fragenkomplex, der also den Inhalt dieses Kapitels bilden soll, lässt sich folgendermaßen beschreiben: Mit welchen Strategien konstru- ieren digitale Verfahren eine Abbildung, und wodurch unterscheiden sich diese Prozesse von etablierten Verfahren, insbesondere der fotografischen Abbildung? Ein großer Teil der Verwirrung, die in dieser Debatte herrscht, stammt aus der unscharfen und kritiklosen Übernahme von Begriffen, die aus verschiedenen Denktraditionen und Kontexten stammen. Dies ist ein sys- tematisches Problem, das seine Wurzeln in der umfassenden historischen Entwicklung der Abbildungstheorie seit der Antike hat. Die Beziehun- gen zwischen Abbildung und Realität, Schein und Sein, die das Thema dieser langen und bedeutungsvollen Tradition bilden, sind so komplex und voller Fallstricke, dass es ein äußerst gewagtes Unternehmen ist, dieses Terrain überhaupt zu betreten. Es ist daher aus meiner Sicht eine Notwendigkeit, die verwendeten Begriffe und Präsuppositionen immer mitzureflektieren, ihre Herkunft zu lokalisieren und das weit verzweigte Netz der Abbildungstheorie auf ein Maß zu reduzieren, das im Rahmen der vorliegenden Studie zu handhaben ist. Simulation Bevor ich also mit der systematischen Bearbeitung des Themas beginnen kann, müssen ein paar Begriffe geklärt oder zumindest im Rahmen von Arbeitshypothesen eingegrenzt werden. Einer dieser Begriffe ist die Simu- lation. Weil kaum je das Abbildungsverhalten von digitalen Bildern ohne Hinweis auf ihren simulatorischen Mechanismus thematisiert wird – und zwar entweder implizit oder explizit mit Verweis auf Baudrillard –, werde ich diesen Begriff und seine Verwendung bei Baudrillard funktional im Hinblick auf die Zielsetzung meiner Analyse untersuchen, um ihn vom Begriff der Fiktion differenzieren zu können. In Baudrillards Text Agonie des Realen (1978) steht zunächst folgende Definition von Simulation: Die Vortäuschung, die Verstellung von lat. simulatio: die Verstellung, die Heuchelei, die Täuschung, das Vorschützen (eines Sachverhalts), die Vorspie- gelung, der Vorwand, der Schein, die Vorschiebung; lat. similis: ähnlich, gleichartig, gleich. (Baudrillard 1978: 6) Simulation 277 Dabei ist festzustellen, dass dieses definierende Begriffsfeld eine sehr negative Färbung1 aufweist, welche dessen Verwendung in der Folge wie eine dunkle Aura umwölkt und begleitet. Baudrillard selbst be- schreibt die kranke Kondition einer postmodernen, kapitalistischen Gesellschaft, die im Kern amoralisch ist (28) und in der es keine Unter- scheidung zwischen wahr und falsch mehr gibt, weil sich in dieser Kon- dition nicht mehr sicher entscheiden lässt, ob nicht auch Ordnung und Gesetz den Mechanismen der Simulation anheimgefallen sind. Anstelle der Realität und des Realitätsprinzips hat das Kapital ein radikales Äquivalenz- und Tauschgesetz etabliert, das zur Zerstörung jeder realen Äquivalenz führt (39 f.). [Am Ende] schließt die Simulation das gesamte Gebäude der Repräsentation als Simulakrum ein. Die Phasen, die das Bild dabei sukzessive durchläuft, sind folgende: – es ist Reflex einer tieferliegenden Realität; – es maskiert und denaturiert eine tieferliegende Realität; – es maskiert eine Abwesenheit einer tieferliegenden Realität; – es verweist auf keine Realität: es ist sein eigenes Simulakrum. (Baudrillard 1978: 15) Diese Phasen entsprechen einem stetigen Abstieg: von der Ordnung des Sakraments über das Verfluchen und die Zauberei zur Ordnung der Simu- lation. Nun stellt sich natürlich die Frage, was das alles mit den digitalen Verfahren zu tun hat, auf die Baudrillard sich übrigens noch gar nicht bezieht. Tatsächlich sind die Beziehungen eher metaphorischer Natur, es lassen sich jedoch einige Verbindungen finden. Versteht man – wie im Kap itel Digitale Bilder (→ 33) beschrieben – den digitalen Code als ein Äquiv alenz- und Tauschsystem, so lässt sich sagen, dass einige Formen digitaler Abbildung «Modelle» verwenden (7 f.) oder auf «Befehlsmodel- len» beruhen, die sich «unzählige Male reproduzieren» lassen (8 f.) – und schließlich könnte man aus diesen Andeutungen folgern, dass Baudrillard den digitalen Code in seine Überlegungen hätte einbeziehen können. 1 Laut Dotzler (2003: 526) geht diese negative Bedeutung bereits auf Plato zurück. In der Tat ist Platos Höhlengleichnis die wohl perfekteste Beschreibung eines simulatorischen Apparats. Weiter sei «die Wortgeschichte bis in die jüngere Vergangenheit von theolo- gisch-metaphysischen, rhetorisch-poetologischen und moralistischen Traditionslinien beherrscht» (Dotzler 2003: 512). Auf der anderen Seite stehen die Bemühungen von Technik und Kunst seit der Antike, perfekte Abbilder zu erzeugen, die sich von der Realität nicht unterscheiden. Dazu zitiert Dotzler (2003: 512) das 1535 von Erasmus von Rotterdam formulierte Diktum «caput artis esse, artem dissimulare» («die Haupt- sache der Kunst ist es, die Kunst zu verbergen»). 278 Abbildung Im weiteren Verlauf des Textes jedoch analysiert Baudrillard einige Situationen der zeitgenössischen Gesellschaft, an denen er das Wirken der Simulation exemplifiziert: die Nachbildung der Höhlen von Lascaux (20 f.), Disneyland (24 f.), den Watergate-Skandal (28 f.) und die Fernsehwirklich- keit anhand einer amerikanischen Doku-Soap (44 ff.). Alle diese Beispiele illustrieren eine Differenz, deren Merkmal es ist, dass sich in ihr kein Vek- tor oder keine Hierarchie manifestiert, sondern dass sie sich im Nebel der Simulation auflöst. So ist es der Zweck der imaginären Wirklichkeit von Disneyland, «den Anschein zu erwecken, alles Übrige sei real», und zwar um «zu kaschieren, dass das Reale nicht mehr das Reale ist, um auf diese Weise das Realitätsprinzip zu retten» (25). Denn alles gehört der Ordnung des Hyperrealen an – eines «Realen ohne Ursprung und Realität» (7 f.). Die Simulation ist in Baudrillards Verständnis also ein totalitäres Sys- tem, das sämtliche Bereiche der Repräsentation durchdringt, und es mutet vor diesem Hintergrund geradezu naiv an, wenn digitale Abbildungsver- fahren in Abgrenzung von anderen Techniken als Simulationen bezeichnet werden, denn solche Differenzen haben sich doch gemäß Baudrillard in der alles umfassenden Simulation der postmodernen kapitalistischen Gesell- schaft aufgelöst. Der simulative Charakter des computergenerierten Bildes wäre dann nur dazu da, zu dissimulieren, dass auch die analogen Verfahren der Ordnung des Hyperrealen angehören. Sollte sich diese Argumentation tautologisch anhören, so ist dieser zirkuläre Mechanismus laut Baudrillard gerade das Merkmal eines Systems, in dem sich «alle dualen und polaren Strukturen» in einer «Implosion» auflösen: der «Anfang vom Ende» (50). Als Leserin mit einem Hang zur Bodenhaftung kommt man spätes- tens an dieser Stelle ins Grübeln und fühlt sich ähnlich wie der von Žižek (1999) beschriebene Idiot, der bei der Rezeption von The Matrix gerufen haben soll: «My God, wow, so there is no reality!»2 Wenn nun in der Medientheorie der Begriff Simulation aus einer so umfassenden, hermetischen Analyse eines maroden Gesellschaftszustands herausgelöst und isoliert auf eine spezifische Praxis übertragen wird, ent- stehen ein paar Probleme, die zu lösen sind. Das erste Problem besteht im Vorgang der Isolation selber. Der Begriff wird sozusagen als Baudrillard light ohne die weit reichenden sozialen und ideologischen Implikationen in einen anderen Kontext importiert, ist aber gleichzeitig durch diesen gesellschaftskritischen Hintergrund bestimmt und trägt eine riesige Bürde an (negativen) Konnotationen mit sich, die ihn für die Analyse nahezu unbrauchbar machen. Denn wo immer man hinzielt, riskiert man, selber im Nebel der Baudrillardschen Argumentation zu verschwinden, in deren 2 «Oh, mein Gott, es gibt also keine Realität!» Simulation 279 kreisförmige Mechanik zu geraten und nie wieder einen Ausweg zu fin- den. Will man dieses Problem lösen, muss man also entweder den Begriff ganz verwerfen oder ihn entschlacken und neu bestimmen, um ihn für die Analyse zurückzugewinnen. Obwohl es einfacher und sauberer wäre, den Begriff Simulation ganz fallen zu lassen, entscheide ich mich deshalb für die zweite Lösung, denn Simulation hat noch eine ganz andere Bedeutung als Schein und Täuschung. Auf den Begriff zu verzichten, hieße deshalb, das Kind mit dem Bade ausschütten, denn einige Aspekte dieser zweiten Bedeutung sind durchaus konstitutiv für gewisse spezifische Abbildungsprozesse computergenerierter Bilder, nämlich jene bereits beschriebenen Formen der Modellbildung, die Norbert Wiener (1948) als das Prinzip beschrieben hat, etwas «durch etwas anderes zu ersetzen, das mathematisch gesehen mit dem wirklichen System äquivalent ist» (Dotzler 2003: 517). Computer- simulationen enthalten meist eine dynamische, zeitliche Komponente. Es handelt sich also mehrheitlich um einen regelbasierten Nachvollzug von Prozessen. Aus diesem Grund werden ihre Resultate häufig in Form von Animationen dargestellt. Indem ich den Begriff also neu eingrenze, schließe ich mich der neueren Wissenschaftsforschung an, wie sie unter anderem von Paul Humphreys (2004) vertreten wird, der sich mit den erkenntnistheoreti- schen Aspekten der Simulation auseinandersetzt. Wann immer also in diesem Text von «Simulation» die Rede sein wird, ist diese Bedeutung ge- meint, andernfalls wird die abweichende Verwendung markiert. Mit die- ser Unterscheidung ist es nicht mehr sinnvoll, solche Darstellungsformen im Hinblick auf Baudrillards Simulationsbegriff zu thematisieren (vgl. Schröter 2004 a: 1 f.), denn sie zeichnen sich – zumindest in der Mehrzahl – gerade durch eine reduktionistische Form der Darstellung aus, die jeden Täuschungscharakter von vornherein ausschließt. Das zweite, noch gewichtigere Problem ist der Begriff des Realen, auf den Baudrillards Überlegungen aufbauen, ohne dass er geklärt würde. Baudrillard entwirft ein Gedankengebäude, das wie eine verschachtelte Anordnung von Platos Höhle anmutet, in der sich Höhlen verschiedener Ordnung überlagern und es überhaupt nicht mehr möglich ist, das Höh- lensystem zu verlassen. Als Gedankenexperiment ist diese Anordnung durchaus reizvoll, und es gibt eine ganze Reihe von literarischen und filmischen Werken, deren multiple Diegesen solche paranoiden Fanta- sien durchexerzieren: Die Welt am Draht (BRD 1973, Rainer Werner Fassbinder) oder The Thirteenth Floor (D/USA 1999, Josef Rusnak), die beide auf der Erzählung Simulacron-3 von Daniel F. Galouye (1964) ba- sieren, oder eXistenZ (CDN/GB/F 1999, David Cronenberg). Impliziert 280 Abbildung wird also bei Baudrillard eine Vorstellung von Realität, die hinter einem Schleier des Scheins verschwindet. Obwohl die Annahme nahe liegt, in einer solchen Vorstellung ein Symptom der entfremdeten Befindlichkeit und der fragmentierten Erfah- rung des Subjekts in einer modernen Welt zu sehen, lassen sich ähnliche Annahmen über die Überformung einer wirklichen Realität durch eine Schicht des Scheins und der Täuschung in verschiedenen Kulturen und his torischen Epochen finden (Feyerabend 1994: 180). Es ist eine Spaltung der Welt in eine wirkliche, wahre und echte Sphäre, die eine finstere Macht – bei Baudrillard das Kapital3 – der Menschheit vorenthält, und eine Sphäre des Scheins und der Inszenierung. Wollte ich diese Spur aufnehmen, müsste ich mich mit einer mehr als zweitausendjährigen philosophischen Debatte über den Begriff der Wirklichkeit auseinandersetzen. Das wäre eine unlösbare Aufgabe, die deshalb im Kontext meiner Zielsetzung auf einige unmittelbar notwen- dige Arbeitshypothesen zu reduzieren ist.4 Anstelle einer umfassenden Be- schäftigung mit der Wirklichkeit stelle ich die Wahrnehmung ins Zentrum meiner Überlegungen5 – dies aus der Einsicht, dass die kulturellen Reprä- sentationsdispositive – also auch die kinematografischen Techniken – im Hinblick auf diese Wahrnehmung konzipiert wurden. Wahrnehmung ver- stehe ich dabei als einen Transformationsprozess, der eine physikalische Ausgangsstruktur aufgrund interner Bedingungen – beispielsweise der Beschaffenheit des visuellen Systems – und höherer kognitiver Operatio- nen wandelt und für die Interaktion mit der Umwelt verfügbar macht. Der Realitätseffekt medialer Abbildungen bezieht sich in dieser Kon- zeption auf die Prüfung durch das Wahrnehmungssystem und nicht auf eine absolute, an objektiven Daten zu messende Übersetzung durch einen technischen Apparat. Die Frage lautet deshalb in Anlehnung an Luhmann (1995: 20) nicht, wie die mediale Abbildung eine ferne ontologische Reali- tät verzerrt, sondern, wie sie in Bezug auf die menschliche Wahrnehmung 3 Auch diese Vorstellung wird in der Literatur und im Mainstream-Film gerne themati- siert, in der das Kapital von einem mächtigen Konzern vertreten wird, an deren Spitze der Bösewicht steht, ein Goliath, gegen den ein frommer Ritter als David antritt. Ihm gelingt es am Ende, die Wahrheit freizuschaufeln und die finstere Macht zu liquidieren, so beispielsweise in den Cyberpunk-Märchen Virtuosity und Johnny Mnemonic, aber auch in Tron oder Blade Runner. 4 Empfehlenswerte einführende Texte zur philosophischen Auseinandersetzung mit dem Begriff Wirklichkeit sind Welsch, Wolfgang (1998): «Wirklich». Bedeutungsvarian- ten – Modelle – Wirklichkeit und Virtualität; und Waldenfels, Bernhard (1998): Experi- mente mit der Wirklichkeit, beide in: Sybille Krämer (Hg.): Medien, Computer, Realität. 5 Ich verzichte dennoch auf eine umfassende Darstellung der Charakteristika des visu- ellen Systems und greife lediglich dort, wo es mir sinnvoll erscheint, auf dieses Wissen zurück. Simulation 281 eine Realität oder vielmehr den Eindruck einer Realität konstruiert. In zweiter Instanz könnte man fragen, wodurch sich Medienwahrnehmung von natürlicher, unmediatisierter Wahrnehmung unterscheidet. Diese theoretischen Reduktionen sollen nicht den Zweck haben, die zweifellos bedeutsame Frage nach dem Stellenwert der Wirklichkeit im Abbildungsprozess zu unterdrücken oder auszuschließen, sondern viel- mehr durch eine analytische Reversion den Diskurs zu entlasten. Damit richtet sich das Augenmerk ausschließlich auf jene Dimensionen des Uni- versums, die den menschlichen Sinnesorganen zugänglich sind. Mit dieser Sichtweise wird überdies der Begriff des Hyperrealen problematisch. Denn im Unterschied zur ursprünglichen Konzeption bei Baudrillard (1978: 7), der damit – wie eingangs erwähnt – «ein Reales ohne Ursprung und Realität» bezeichnete, hat es sich inzwischen etabliert, den Begriff mit «realer als real» zu umschreiben. So prophezeit beispielsweise Virilio (1993: 53), dass das digitale Bild «dereinst wirklicher erscheinen werde als die Sache, deren Bild es ist», und bei Manovich (2001: 202) heißt es dazu, dass die Bilder «zu perfekt» und damit paradoxerweise auch «zu real» seien. Setzt man das Wahrnehmungssystem als Bezugsrahmen, ist eine Abbildung, die realer als real ist, unvorstellbar. Vielmehr scheint sich in ihrer «zu perfekten» Anmutung eine allzu ausgeprägte Ordnung zu äu- ßern, die als Hinweis auf ihre artifizielle Entstehungsgeschichte wirkt und damit die ästhetische Erfahrung negativ beeinflusst – ein Aspekt, den ich im Abschnitt Modellbildung wieder aufgreifen werde (→ 312). Hyperreal in diesem Sinne könnte jenes Erdbeer-Joghurt sein, das – ohne Erdbeeren zu enthalten – mehr nach Erdbeeren schmeckt als ein hausgemachtes mit frisch gepflückten Früchten. In einigen Essays, die unter dem Titel Reise ins Reich der Hyperrealität zusammengefasst sind, be- schreibt Umberto Eco (1977) sehr entspannt und eher amüsiert eine Reihe merkwürdiger Erscheinungen, denen er in Amerika begegnet ist, welche als verdichtete und vertiefte Formen der Nachahmung zu verstehen sind – unter anderem auch das von Baudrillard erwähnte Disneyland. Es sind lebensgroße Simulationen wie das Schloss von William Randolph Hearst, das in Citizen Kane (USA 1941, Orson Welles) als Xanadu erscheint, nicht aber flächige Abbildungen welcher Art auch immer. Denn ein Bild, das so täuschend realistisch aussieht, dass es von der Realität nicht zu unterscheiden ist, wird gemeinhin durch den Begriff Illu- sion bezeichnet. Illusionen sind dadurch charakterisiert, dass sie sich naht- los – also auch rahmenlos – in ihre Umgebung einfügen, so die barocke Deckenmalerei Die Apotheose des heiligen Ignatius von Andrea Pozzo (siehe dazu Polanyi 1970; Ndalianis 2004; Kebeck 2006: 141) oder die Kunst des Trompe-l’Œil, der minutiösen Nachbildung insbesondere von Material- 282 Abbildung oberflächen. Wie Ndalianis (2004: 159) schreibt, beschwören diese Illu- sionsmalereien mit einem spielerischen Charakter Chimären, welche die Sinne täuschen, aber schließlich den Betrachter dazu auffordern, die Täu- schung zu erkennen. Ein «illusionsstiftendes Bild aber» – so meint Boehm (1994b: 336) –, «das sich idealenfalls von der Realität, die es darstellt, gar nicht mehr unterscheiden ließe, […] würde sich mit der Erreichung dieses Zieles selbst aufheben», was bedeutet, dass der «Illusionismus mit der perfekten Ikonoklastik konvergiert». Der Konzeption einer Repräsentation ohne Bezug zu einem Referen- ten entspricht am ehesten der Begriff Virtualität. Er hat verschiedene ety- mologische Wurzeln, unter anderem «in der Optik und bezieht sich auf die im Spiegel reflektierten Bilder» (Esposito 1998: 287); eine weitere Wurzel liegt im französischen virtuel, wo es laut Duden «der Kraft oder Möglich- keit nach vorhanden, scheinbar» bedeutet. Aber während Baudrillards Si- mulation eine Differenz maskiert, heben die bis heute üblichen virtuellen Displays diese Differenz hervor, weil sie einen autonomen Raum anbieten, in dem die Gesetze der physischen Realität ausgehebelt sind. Es ist ein sicherer Raum des Experiments, der gefahrlos exploriert werden kann und in dem das explorierende Handeln keine Spuren hinterlässt, sodass es ohne Konsequenzen bleibt (siehe Taekke 2002 und Qvortrup 2002). Die Virtuelle Realität (virtual reality) beruht auf einer Entkoppelung der Sinne vom Körper; eine Kontamination verschiedener Wirklichkeitsstufen ist ausgeschlossen, gleichzeitig unterdrückt sie ihre eigene Präsenz oder den repräsentierenden Apparat, indem sie ihre Daten perfekt an die Anforde- rungen der Wahrnehmung anpasst und möglichst ohne Übertragungsver- luste zu übermitteln versucht. Filmische Fiktion Um nun eine Brücke von der Simulation zur Fiktion zu schlagen, zitiert Baudrillard selbst dazu das «Wörterbuch von Littré: ‹Jemand, der eine Krankheit fingiert, kann sich einfach ins Bett legen und den Anschein er- wecken, er sei krank. Jemand, der eine Krankheit simuliert, erzeugt an sich einige Symptome dieser Krankheit›» (Baudrillard 1978: 10). Anders ausge- drückt wäre die Fiktion eine Täuschung, die als solche zu identifizieren ist. Filmische Fiktion, von der ich an dieser Stelle einige wesentliche, für die weitere Erörterung notwendige Basisfunktionen thematisiere, markiert ihren mimetischen Charakter deshalb sowohl auf der Ebene der sozialen und kulturellen Praxis als auch auf der Ebene der Repräsentation. Der pragmatische Bezugsrahmen der filmischen Fiktion setzt sich aus Filmische Fiktion 283 einem gesellschaftlichen Ort der Rezeption sowie einem größeren Pool an kontextuellen und paratextuellen Informationen zusammen, in dem die filmische Fiktion als medialer Gegenstand selbst thematisiert wird (siehe dazu Tröhler 2002: 20). Mit dem Begriff Paratext bezeichnet Genette (1987) alle jene textuellen Erzeugnisse, welche die Rezeption einer – bei ihm literarischen – Fiktion vorbereiten oder begleiten. Bezogen auf den Film sind das Presseinfor- mationen, Kritiken, Making-ofs, Interviews, Plakate, Trailer, möglicher- weise auch Informationen über Person und Image des Regisseurs. Der Zuschauer geht deshalb mit einem Set an Voreinstellungen ins Kino, das seine Rezeption im Sinne eines Priming – also einer Voraktivierung der Aufmerksamkeit – beeinflusst. Schon bevor das erste Bild von Jurassic Park über die Leinwand flimmert, bestehen also Antizipationen über Genre und Handlung, welche die Bilder und Töne in diesen Bezugsrah- men einsortieren.6 Sie unterstützen die Rezeption und bringen gleichzeitig einen komplexeren Modus der Hypothesenbildung mit sich, der insbeson- dere parallele Ströme der Aufmerksamkeit begünstigt, welche neben der semantisch motivierten Interpretationstätigkeit auch Aspekte der struk- turellen und technischen Aufbereitung der bewussten Analyse zuführen. Die pragmatischen Rahmenbedingungen, das Rahmenwissen, haben so einen weit reichenden Einfluss auf die Wahrnehmung und die kognitive Verarbeitung von filmischer Fiktion. Gemäß Wulff (1999: 74) führt der «kommunikative Kontrakt», der auf diese Bedingungen aufbaut, dazu, dass der Zuschauer «die Besichtigung eines Films als kommunikatives Handlungsspiel erfährt.» Diese Auf- fassung des Spielcharakters filmischer Fiktion wird von vielen Autoren geteilt. Tröhler (2002: 18 f.) verweist auf ähnliche Konzeptionen, welche in diesem Zusammenhang von einer «Als-ob-Struktur» sprechen oder die «textuelle Weltkonstruktion als ‹modellbildende Systeme› betrachtet, welche ‹einen spielerischen Mechanismus› in Gang setzen». Pragmatische und semantische Aspekte der Filmrezeption gehen also ineinander über und sind somit parallel an der Art und Weise beteiligt, wie Filme ihre Diegese konstruieren und vermitteln. Wulff (1999: 69 f.) unterscheidet in diesem Zusammenhang drei For- men von rezeptiven Einstellungen, welche «die Informationsverarbeitung so qualifizieren, dass die Tatsache, es mit einem Element einer Verständi- gungshandlung zu tun zu haben, immer im Bewusstsein erhalten bleibt»: eine propositionale Einstellung, eine modale Einstellung und eine evaluative 6 Wie das konkret geschieht, habe ich in einer Modellanalyse der Expositionssequenz von Jurassic Park beschrieben (Flückiger 2001: 414 ff.). 284 Abbildung Einstellung. Während die propositionale Einstellung sich auf die semanti- sche Verarbeitung des textuellen Angebots bezieht, hält die zweite Form der Einstellung, die modale, die Unterscheidung zwischen der Teilnahme am kommunikativen Austausch und «einer ‹realen Erfahrungssituation›» wach, während die evaluative Einstellung sich auf Metakognitionen über die Rezeption und das dargebotene Material bezieht. Dieser semiopragmatische Ansatz einer mehrschichtigen Verarbei- tung der filmischen Fiktion ist für die vorliegende Fragestellung äußerst fruchtbar. Er erinnert an das in der Einleitung erwähnte Konzept des Dop- pelspiels bei Metz (→ 29), das bei ihm den Charakter eines Spiels zwischen Verdrängung und Bewunderung annimmt, wobei er die Verdrängung für eine unerlässliche Voraussetzung dafür hält, dass die Diegese intakt bleibt, und er deshalb die Bewunderung auf der Ebene des Diskurses ansiedelt. Im Vergleich dazu mutet die semiopragmatische Auffassung wesentlich entspannter an, indem sie nicht einen Akt der Verdrängung, sondern der friedlichen Koexistenz verschiedener Zugangsweisen postuliert. Eine solche mehrschichtige Rezeptionshaltung wird von vielen Ein- sichten gestützt. Zum einen arbeitet die filmische Fiktion selbst mit einem mehrschichtigen Strukturangebot, in dem sich visuelle und akustische Cues sowie verbalisierte Propositionen in Form von Schrift oder Dialog in komplexen Verhältnissen zueinander verhalten können. Über diese multi- modale Anordnung kann sie nicht nur auf bekannte, bereits im Weltwissen der Rezipienten vorhandene Inhalte zurückgreifen, sondern überdies ihre eigenen Wahrnehmungsgegenstände und Weltengebäude autonom erzeu- gen. Ich habe diese mehrschichtige, dynamische Bedeutungskonstitution bereits im Rahmen des Sound Designs am Beispiel des Laserschwerts aus Star Wars analysiert (Flückiger 2001: 144 ff.), wo es darum geht, diesen imaginären Gegenstand inklusive Funktionen und sensorischen Qualitäten zu etablieren. Dieser mehrstufige Prozess, der zunächst über die sprachliche Benennung eine Verbindung zu einer bereits bekannten Kategorie von Objekten – in diesem Fall Waffen – erzeugt, greift im An- schluss auf die intermodale Assoziation des Zuschauers zurück, der die unterschiedlichen Merkmale, die sich aus den bildlichen und klanglichen Repräsentationen ergeben, zu einem sinnvollen Ganzen zusammenfügt. Über solche netzwerkartigen Verknüpfungen ist die filmische Fiktion im kommunikativen Austausch mit dem Zuschauer in der Lage, eigene, in sich konsistente Diegesen zu schaffen, eben fiktionale Welten, die der Imagination entspringen. In Anlehnung an Eco (1989) und Doležel (1998) versteht Tröhler (2002: 16) solche fiktionalen Welten «als nichtaktualisierte, mögliche Zustandsbeschreibungen (states of affairs), die von der aktuellen Welt […] her zugänglich sind, auch wenn ihre Gesetze von jenen der Filmische Fiktion 285 ‹natürlichen› Welt, die wir in der Fiktion als ‹realistisch› wahrnehmen, abweichen». In dieser Aussage sind gleich mehrere wichtige Aspekte angespro- chen: zunächst die Notwendigkeit eines Brückenschlags der abgebildeten Welt zu einem bereits vorhandenen Gedächtnisinhalt – im Beispiel des Laserschwerts die Kategorie der Waffen –, eine Notwendigkeit, die Luh- mann (1995: 35 ff.) als «Anschlussfähigkeit» bezeichnet und die seiner Mei- nung nach eine Voraussetzung jedes kommunikativen Akts ist. Allerdings möchte ich in Ergänzung zu Tröhler festhalten, dass sich diese Anschluss- fähigkeit nicht auf die aktuelle Welt beziehen muss, sondern sich ebenso aus bereits bekannten fiktionalen Welten speisen kann und damit auch intertextuell anbinden lässt. Dieses Anbinden kann durch die Argumen- tationsstruktur der Fiktion selber als eine modale Extension der aktuellen Welt, als eine mögliche Welt (possible world), gestaltet werden (Tröhler 2002: 16, Spiegel 2007: 129 f.), deren ontologischer Status sich sowohl von der autonomen Imagination als auch von aktuellen Zustandsbeschreibun- gen unterscheidet, ausgedrückt durch Fragen wie «Was wäre wenn?» oder «Was hätte sein können?». Eine weitere Beobachtung besteht also darin, dass sich fiktionale Konstruktionen in ihrem Realitätseffekt gegenüber der aktuellen Welt gleitend verhalten können. Es sind Formen denkbar, die sich sehr rea- listisch präsentieren und einen fast schon dokumentarisch wirkenden Authentie-Effekt erzeugen; es sind aber auch extrem fremdartige Kon- stellationen möglich, solange die Anschlussfähigkeit das Verständnis noch sicherstellt. Nicht alle fiktionalen Konstruktionen sind in Bezug auf ihren Realitätseffekt homogen: Es lassen sich oft Anordnungen finden, die verschiedene Stufen des Realitätseffekts ausspielen – so einige jener Filme, die in parallelen Welten angesiedelt sind – Tron (USA 1982, Steven Lisberger), Dark City (AUS/USA 1998, Alex Proyas), The Matrix (USA 1999, Andy und Larry Wachowski), Avalon (JP/PL 2001, Mamoru Oshii), Virtuosity (USA 1995, Brett Leonard) – oder in denen die Protagonisten über zwei Phänotypen verfügen, also in bestimmten Situationen magische Kräfte oder übernatürliche Fähigkeiten besitzen wie in The Mask (USA 1994, Chuck Russell), Daredevil (USA 2003, Mark Steven Johnson), Hulk (USA 2003, Ang Lee), Spider-Man (USA 2002, Sam Raimi), X-Men (USA 2000, Bryan Singer), Blade (USA 1998, Stephen Norrington) oder in denen große Teile aus der Wahrnehmungsperspektive einer Figur dargestellt sind wie in Eternal Sunshine of the Spotless Mind (USA 2004, Mi- chel Gondry), The Cell (USA 2000, Tarsem Singh), Le Fabuleux destin d’Amélie Poulain (F/D 2001, Jean-Pierre Jeunet), Big Fish (USA 2003, Tim Burton), Twelve Monkeys (USA 1995, Terry Gilliam). 286 Abbildung Sobchack (2004: 261) befasst sich mit einigen interessanten Fällen des Oszillierens zwischen verschiedenen Rezeptionsmodi, welche ein mehr- schichtiges Modell des Zugangs zu fiktionalen Welten stützen. Diese als fiktional bzw. dokumentarisch bezeichneten Rezeptionsmodi sind in den von ihr beschriebenen Fällen compossible, kommen also gleichzeitig vor. Ein solcher doppelter Modus ist beispielsweise dann aktiv, wenn Stars Cameo-Auftritte haben, das heißt als sie selbst auftreten wie an einer Party in Hollywood in The Player (USA 1992, Robert Altman), oder wenn sich in der Diegese die Aura der Star-Persona mit der Rolle überlappt wie bei Julia Roberts in Notting Hill (USA/GB 1999, Roger Michell). Es sind Elemente der Selbstreflexivität des Mediums, die der Zuschauer als beson- ders unterhaltsam empfindet. Im Gegensatz dazu steht eine Erfahrung, die Sobchack anhand ihrer Rezeption einer Szene in La Règle du jeu (F 1939, Jean Renoir) beschreibt, nämlich eine Darstellung des Tods eines Kaninchens, den sie als we- sentlich brutaler empfand als den Tod des menschlichen Protagonisten (169 ff.), weil sie wusste, dass das Kaninchen für diese Szene tatsächlich sterben musste. Ungeachtet des repräsentationalen Modus, der die fiktio- nale Darstellung auf allen Ebenen stützte, indem sie den üblichen Kon- ventionen folgte, trat die reale Existenz des Kaninchens plötzlich in den Vordergrund, sprengte also den Rahmen der Fiktion, und zwar aufgrund von extratextuellem Wissen. Dies ist insofern interessant, als in heutigen (amerikanischen) Filmen eine solche Reaktion schon deswegen nicht zu erwarten ist, weil im Abspann versichert wird, dass den im Film in Er- scheinung tretenden Tieren kein Leid angetan wurde (272). Daraus zieht Sobchack den wichtigen Schluss, dass the individual spectator is always also immersed in history and in a culture in which there is general social consensus not only as to the ontological status (if not the interpretation) of what stands as profilmic reality but also as to the her- meneutic ‹rules› that govern how one is to read and take up its representation.7 (Sobchack 2004: 272 f.) Wird die Fiktion mit dem Realen geladen, verändert sich nicht nur die äs- thetische Erfahrung, sondern auch die moralische und ethische Bewertung (284). Ob der dokumentarische oder der fiktionale, der propositionale oder 7 «Der einzelne Zuschauer gehört immer auch einer spezifischen historischen Epoche und Kultur an, in welcher nicht nur ein allgemeiner sozialer Konsens über den onto- logischen Status (wenn auch nicht über die Interpretation) dessen besteht, was als profilmische Realität zu gelten hat, sondern auch über die hemeneutischen Regeln, wie diese Repräsentationen zu lesen sind.» Filmische Fiktion 287 der evaluative Rezeptionsmodus überwiegt, wird somit von unterschiedli- chen Faktoren bestimmt, die sowohl interne als auch externe Referenzsys- teme – mithin einen größeren kulturellen und sozialen Kontext – umfassen. Von Bedeutung ist an Sobchacks Beobachtungen, dass ein Kippen in einen dokumentarischen Rezeptionsmodus genauso eine Gefahr für die Fiktion darstellt wie umgekehrt die Entlarvung als Artefakt durch allzu deutliche Hinweise auf den künstlichen Herstellungsprozess. Dieses la- bile Gleichgewicht versucht die Fiktion, durch eine Reihe von «internen Signalen» (Luhmann 1995: 118) zu stützen, die laufend den fiktionalen Status untermauern. Diese internen Signale sind Konventionen, die alle Ausdrucksformen und ästhetischen Parameter der Filmgestaltung betref- fen: Mise-en-Scène, Kameraführung, Licht, Farbgestaltung, Dialoge, Mu- sik und Sound Design. Sie sind von der Präsentationsform, also auch vom pragmatischen Rahmen, unabhängig und werden sofort sichtbar. Wenn man als medienkundige Rezipientin durch die Fernsehkanäle zappt, kann man meist innerhalb von Sekunden entscheiden, um welches Format es sich handelt, und zwar allein anhand der Farb- und Lichtgestaltung, also noch bevor sprachliche Äußerungen zu hören sind. Filmische Fiktionen bedienen sich dieses Zeichensystems höherer Ordnung, um parallel ge- führte Realitäts-, Zeit- oder Genre-Ebenen voneinander zu unterscheiden, zur Mise-en-Abyme (→ 394), also beispielsweise der Integration von fiktio nalem Fernsehmaterial oder um im Cinéma-vérité-Stil einen doku- mentarischen Rezeptionsmodus zu aktivieren. So können nicht nur ein- zelne Segmente wie Szenen oder Sequenzen, sondern sogar verschiedene Bildteile einen unterschiedlichen fiktionalen Status annehmen. Dieses Spiel mit der ästhetischen und semantischen Mehrdeutigkeit wirkt sich sowohl auf die kognitive als auch die emotionale Verarbeitung des Films aus, die sich aus der Konsonanz oder Dissonanz des Materials ergeben und auf eine weitere Form des mehrschichtigen Zugangs zum fiktionalen Material hindeuten. Denn neben der kognitiven Sinnsuche im strukturellen Angebot der filmischen Fiktion ist immer auch eine sensori- sche Assoziationsschiene wirksam, die man als lyrischen oder perzepti- onsgeleiteten Modus der Rezeption bezeichnet und die sich direkt aus den ästhetischen Qualitäten speist.8 Die Vorstellung von mehreren parallel verlaufenden Verarbeitungs- strömen deckt sich mit neueren Befunden aus den Neurowissenschaften, wo man experimentell und mit bildgebenden Verfahren eine modulare Verarbeitung der Wahrnehmungsinhalte nachweisen kann, die sich in eine 8 Vgl. dazu den Abschnitt Isotopie in Flückiger (2001: 289 ff.) oder das Konzept der per- zeptionsgeleiteten Strukturen in Wuss (1993). 288 Abbildung perzeptive, eine semantische und eine metakognitive gliedern lassen. Man nimmt an, dass diese Module als hierarchische Stufen miteinander ver- knüpft sind (Kebeck 2006: 240). Bild- und ebenso Kinowahrnehmung sind Formen der reduzierten Wahrnehmung, die erstens nur in ein oder zwei Sinnesmodalitäten wirksam sind, zweitens keine direkte Interaktion mit dem Abbildungsgegenstand ermöglichen. «Bei diesen Repräsentations- formen steht das volle Informationsangebot nicht zur Verfügung, das Reizangebot ist unterbestimmt. […] Deshalb haben die höheren geistigen Prozesse hier einen größeren Einfluss» (Kebeck 2006: 259). «Höhere geis- tige Prozesse» bedeutet aktive Hypothesenbildung und gezielte Suche, sogenannte Top-down-Prozesse, die von den oben beschriebenen Vorein- stellungen gesteuert werden und sich im Laufe des Rezeptionsprozesses dynamisch an die Aufgabenstellung anpassen. Die höheren geistigen Pro- zesse schließen weiter die Beteiligung von inneren Vorstellungsbildern mit ein, welche sich aus Gedächtnisinhalten aktualisieren – aktivieren mithin also ein ganzes Netzwerk von Assoziationen und Erinnerungen an eigene Erfahrungen und an andere textuelle Erzeugnisse. Damit sind wir wieder bei Christian Metz, der sich mit der spezifi- schen Wahrnehmungssituation im Kino auseinandergesetzt hat. Durch die Blockade der motorischen Aktivität und die Dunkelheit im Kinosaal sind Auge und Ohr ganz auf das Geschehen auf der Leinwand konzentriert (Metz 1977: 66). Metz interpretiert in Le Signifiant imaginaire (1975) dies e Wahrnehmungsform psychoanalytisch als regressiv und vergleicht sie mit der halluzinatorischen Aktivität des Tagträumens. Ich will nicht weiter auf diesen Ansatz eingehen, sondern lediglich festhalten, dass in einer solchen Konzeption eine aktive mehrschichtige Informationsverarbeitung, wie sie im semiopragmatischen Ansatz postuliert wird, keinen Platz hat. Am Ende meiner Überlegungen zur filmischen Fiktion stellt sich die Frage, ob man Fiktionen in irgendeiner Weise als wahr anschauen kann oder ob sie zur Domäne des Scheins und der Täuschung gehören wie Baudrillards Simulation. Mit dem Wahrheitsaspekt von Fiktion hat sich wie kein Zweiter der Philosoph Nelson Goodman (1968, 1978) befasst. «But truth» – so schreibt er (1978: 31) – «cannot be confined or tested by agreement with ‹the world›.»9 Vielmehr ist die Wahrheit der Fiktion eine Funktion des Zeigens, der metaphorischen Übertragung oder der Exem- plifikation, deren Richtigkeit an ihren eigenen Vorschriften gemessen wird. Man begegnet durchaus immer wieder fiktionalen Filmen, die man in die- sem Sinne als ‹nicht richtig› empfindet, so beispielsweise die Konventions- verletzung in Saving Private Ryan (USA 1999, Steven Spielberg), in dem 9 «Wahrheit kann nicht durch Übereinstimmung mit ‹der Welt› definiert oder geprüft werden.» Aufzeichnung und Modellbildung, Malen und Messen 289 zu Beginn eine Rückblende so gestaltet ist, dass man sie der falschen Figur zuweist, oder das oft zitierte, gefakte Dokumentarmaterial in JFK (USA 1991, Oliver Stone). Es unterscheidet sich von den Szenen in Forrest Gump darin, dass sich die Bearbeitung weder auf der semantischen noch auf der sensorischen Ebene erschließt und überdies nicht durch eine narrative Rah- mung markiert ist. «Much the same considerations count for pictures as for the concepts or predicates of a theory: their relevance and their revelations, their force and their fit»,10 und so versteht Goodman die Künste als Modi der Entdeckung, Erschaffung und Erweiterung des Wissens (1978: 19). Wie schon in der Einleitung erwähnt, hat Morin auf eine fundamen- tale Anlage des Menschen hingewiesen, magische Erscheinungen in sein Weltbild zu integrieren, welche die aufgeklärte Gesellschaft überwunden zu haben postuliert, die aber glücklicherweise in ihren kulturellen Pro- dukten in Form von Imaginationen und Fantasien weiterleben. Von der Freiheit der Animation war Eisenstein begeistert: Welche Magie der Veränderung der Welt – nach seiner Phantasie und Willkür! Einer fiktiven Welt. Einer Welt von Linien und Farben. Der Du zu gehorchen und sich zu verwandeln befiehlst. Du sagst dem Berg: ‹Bewege dich›, und er bewegt sich. Du sagst dem Tintenfisch: ‹Sei ein Elefant›, und er wird zum Ele- fanten. Du sagst zur Sonne: ‹Halt!›, und sie bleibt stehen. (Eisenstein 1941: 797) Aufzeichnung und Modellbildung, Malen und Messen Mit ihrem Anhaften an einen Referenten, mit ihrem Anspruch an Evidenz eines «Es ist so gewesen» nimmt die fotografische Aufzeichnung inner- halb aller Abbildungsverfahren eine einmalige Stellung ein, die Barthes in La Chambre claire (1980) und in L’Obvie et l’obtus (1982) leidenschaftlich beschworen hat. Der Film leitet seine Aura der unmittelbaren Partizipa- tion an einer Wirklichkeit aus diesem besonderen Status ab, den Kracauer (1928 und 1960) und Bazin (1958) als seine eigentliche Essenz beschrieben. Dieser besondere Status wird mit den digitalen Abbildungsverfahren infrage gestellt, die andere Wege der Bildgenese beschreiten und doch den Eindruck von Kamerarealität erzeugen. Mitchell (1992) hat deshalb die Frage nach der visuellen Wahrheit in der postfotografischen Ära aufgeworfen und diesen Diskurs mit seinem Statement, die digitalen Ver- 10 «Sie werden unter ähnlichen Gesichtspunkten erwogen wie die Begriffe und Prädikate einer Theorie: auf ihre Relevanz und die Aufschlüsse hin, die sie geben; auf ihre Kraft und ihre Angemessenheit.» 290 Abbildung fahren würden die Grenzen zwischen Fotografie und Malerei aufheben, nachhaltig beeinflusst. Wo immer dieses Statement auftaucht, schwingt der Verdacht mit, dass mit einer quasi mikrochirurgischen Bearbeitung von Bildern unterhalb der menschlichen Wahrnehmungsschwelle eine als unschuldig eingestufte fotografische Aufzeichnung manipuliert würde. «The digital» – so Elsaesser (1998b: 202) – «has come to function less as a technology than as a cultural metaphor of crisis and transition.»11 Nun haben die Überlegungen zur filmischen Fiktion gezeigt, dass die Konstruktion von Diegesen ein höchst komplexes Unterfangen ist – gerade auch, was den Bezug auf eine wie auch immer geartete lebenswelt- liche Rea lität anbelangt. Denn die Veränderung und Gestaltung dieses Realitätsbezugs sind geradezu genuine Eigenschaften der fiktionalen Kon- struktion, sodass der Manipulationsverdacht von einer seit den frühesten Tagen der Filmkunst bestehenden Praxis überholt wird. Digitale und hybrid zusammengesetzte Bilder, die in diesem Kontext erscheinen, sind deshalb einem spezifischen Kräftefeld unterworfen, das durch Parameter der kulturellen Tradition jeder Form der Fiktion ebenso bestimmt wird wie durch den bereits dargestellten mehrschichtigen Rezeptionsmodus des Films. Es sind also dynamische Austauscherscheinungen zu erwarten, in denen sich Abbildung und Kontext in spezifischer Art und Weise gegen- seitig bedingen und eine Veränderung auslösen. Die Abbildungstheorie12 selber hat einen umfassenden Kriterien- katalog hervorgebracht, mit dem sich verschiedene Aspekte der Trans- formation durch den Abbildungsprozess untersuchen und sozusagen in eine parametrisierte Matrix einfügen lassen, mit Aspekten wie Kausalität, Intention, Ähnlichkeit, Informationsgehalt, Selektion und Konsistenz. Zwar herrscht in Bezug auf den Stellenwert der einzelnen Kriterien – zum Beispiel den Aspekt der Ähnlichkeit – kein Konsens, und es wird in ein- zelnen Fällen sogar in Frage gestellt, ob sie sich überhaupt zur Analyse eignen. Dennoch spielen diese Parameter auch dort, wo sie kritisiert wer- den, in die Diskussion hinein. Das Referenzsystem wird also wie so oft in 11 «Das Digitale ist inzwischen weniger als Technologie wirksam denn als kulturelle Me- tapher für eine Krise und einen Wandel.» 12 Als Basis meiner Ausführungen dienen insbesondere die formal-logische Untersu- chung von Max Black (1972), die philosophischen Metareflexionen über diese Para- meter sowie über die Massenkunst von Noël Carroll (1988, 1998), die Überlegungen von Roland Barthes zur Fotografie (1980, 1982), Mitchells Analyse des Umbruchs von der analogen zur digitalen Bilderzeugung (1992, besonders Kapitel 3: Intention and Artifice), Mark J. P. Wolfs (2000) Bemerkungen zum Übergang von indexikalischen zu symbolischen Darstellungsformen und Nelson Goodmans (1968, 1978) philosophische Untersuchungen der künstlerischen Repräsentation und der Weisen der Welterzeu- gung. Mit vielen dieser Quellen beschäftige ich mich seit Jahren, sodass es vorkommen kann, dass ich gewisse Einsichten losgelöst von ihrem Ursprung darstelle. Aufzeichnung und Modellbildung, Malen und Messen 291 den Wissenschaften als eine bestimmende Größe wirksam, die sich nicht nur auf die Art und Weise auswirkt, wie ein Untersuchungsgegenstand zu thematisieren ist, sondern am Ende sogar die Wahrnehmung des Untersu- chungsgegenstands selbst mitformt. Überblickt man die verschiedenen Verfahren, die bei der Bildgenese am Computer von der Modellierung über die Animation und das Rendern bis hin zum Compositing wirksam sind, so ergibt sich ein erstes Klassifizie- rungssystem sozusagen aus der Sache selbst. Ausnahmslos alle Prozesse lassen sich grob in vier Schubladen einsortieren, wenn auch einige Verfah- ren sich aus Komponenten unterschiedlicher Klassen zusammensetzen. Eine solche Modularität ist selbst ein bestimmendes Merkmal der Genese digitaler Bilder und lässt sich auf mehreren Ebenen beobachten (→ 47). So unterscheide ich also folgende Kategorien: z Aufzeichnungsverfahren (recording) Darunter verstehe ich einen technischen Übersetzungsprozess einer physikalischen Ausgangsstruktur anhand eines mehr oder weniger expliziten Protokolls. Es wird also eine im Wesentlichen indexikalische Beziehung zwischen dem Gegenstand und der Ab- bildung angenommen. In diese Kategorie gehören:  Analoge und digitale Fotografie  3D-Scanning  Bildbasiertes Modellieren, Photogrammetry  Fotografische Texture Maps  Motion Capture und Rotoskopieren im klassischen Sinn  Bildbasierte Beleuchtung  Travelling Mattes  Motion Control und Tracking z Modellbildung Sie ist ein meist regelbasiertes, stark formalisiertes Verfahren zur Erzeugung von zwei- oder dreidimensionalen Strukturen mittels mathematischer Algorithmen. Bei bestimmten Anwendungen ist das zeitliche Verhalten eine weitere Dimension, die sich ebenfalls modellieren lässt. Die Regeln werden dabei entweder aus gene- rellen mathematischen oder physikalischen Prinzipien oder der empirischen Beobachtung und Rekonstruktion abgeleitet.  Modellieren in 3D  Prozedurales Modellieren  Prozedurale Texturen  Shader 292 Abbildung  Shading-Modelle  Prozedurale Animation mit Partikel-Animation, Flocking-Syste- men und Artificial Life  Physikalisch-basierte Animation mit unter anderem der Dyna- mik starrer und flexibler Körper sowie der Flüssigkeitsanimation  Die Render-Verfahren Raytracing, Photon Mapping, Radiosity z Malen Es umfasst sowohl das Malen am Computer mittels spezifischer Malprogramme als auch das Scannen traditionell gemalter Papier- vorlagen mit allen möglichen realen und virtuellen Werkzeugen.  Gemalte Texture Maps  Keyframe-Animation  Rotoskopieren und Retuschen  Warping, 2.5D und Tiefeninformation  Matte Paintings z Messen  Gemessene BRDF  LiDAR-Scans Wenn diese Einteilung zunächst noch etwas abstrakt erscheint, bevor sie sich in der nun anschließenden Diskussion konkretisiert, so sind doch auf den ersten Blick zwei Erkenntnisse zu gewinnen: Erstens siedelt sich der Übergang zwischen analogen und digitalen Verfahren nicht nur zwischen Fotografie und Malerei an, wie Mitchell propagierte, sondern in einer deutlich komplexeren und heterogeneren Matrix, in welcher die Modell- bildung als ein spezifisch digitales Verfahren erscheint, das keine analogen Vorgänger hat. Zweitens stehen Modellbildung und Aufzeichnung quan- titativ fast gleichwertig nebeneinander, wobei die fotografische Aufnahme nur eines von mehreren Aufzeichnungsverfahren darstellt. Aufzeichnung Weil die fotografischen Aufzeichnungsverfahren als Standardpraxis des Films zu werten sind, bilden sie das Zentrum der folgenden Überlegun- gen und dienen außerdem als Referenz, um davon abweichende neuere digitale Entwicklungen zu diskutieren. Im Fokus stehen aber nicht nur die fotografische Aufzeichnung selbst in Relation zu ihrem Gegenstand, sondern auch pragmatische, ästhetische und semantische Aspekte, wie sie im Rahmen fiktionaler Filme zum Tragen kommen. Von der Fotografie heißt es bei Barthes (1980: 90), dass sie eine «Ema- nation eines Referenten» sei. «Von einem realen Objekt, das einmal da war, Aufzeichnung und Modellbildung, Malen und Messen 293 sind Strahlen ausgegangen, die mich erreichen. […] Eine Art Nabelschnur verbindet den Körper des fotografischen Gegenstands mit meinem Blick.» Diese Nabelschnur legt mit ihrem technischen Charakter nahe, zur Ord- nung des Objektiven zu gehören. Nun ist diese Auffassung schon verschiedentlich in Frage gestellt worden – am prominentesten in McLuhans viel zitierter These, das Me- dium selbst sei die Botschaft und enthalte als solche eine Ideologie, die es für den Diskurs zurückzugewinnen gelte: «For the ‹message› of any medium or technology is the change of scale or pace or pattern that it in- troduces into human affairs»13 (McLuhan 1964: 8). Gemäß dieser These ist eine «natürliche» oder gar «objektive» Abbildung prinzipiell unmöglich, weil jedes mediale (Aufzeichnungs-)Verfahren – wenn auch vielleicht nicht zwingend sichtbar auf der Oberfläche – durch seinen ureigenen Me- chanismus zu einer Veränderung der Wahrnehmung führt. Die Aufzeichnungssysteme sind deshalb in einem Raster zwischen Transformation und Objektivität zu thematisieren. Als weitere zu untersu- chende Parameter sind ihre ästhetischen und semantischen Implikationen zu nennen und deren Bezug zum Wesen des Aufzeichnungsverfahrens. Da- bei betrachte ich die fotografische Aufzeichnung als Standardpraxis, welche als Folie für die Diskussion anderer Aufzeichnungsverfahren dienen wird. Es geht und ging bei dieser Diskussion immer auch um den Kunst- aspekt der Abbildung. So zitiert Mitchell (1992: 26) John Bergers Diktum, dass die Fotografie der Kunst nicht näher stehe als ein Kardiogramm, und Manovich überträgt diese Sicht auf das Kino: During cinema’s history, a whole repertoire of techniques […] was developed to modify the basic record obtained by a film apparatus. Yet behind even the most stylized cinematic images, we can discern the bluntness, sterility, and banality of early nineteenth century photographs. […] Cinema is the art of the index; it is an attempt to make art out of a footprint.14 (Manovich 2001: 294 f.) Bazin hingegen sieht wie Barthes genau in dieser Verbindung zur Rea- lität die größte psychologische Kraft der fotografischen Aufzeichnung: «Sie wirkt auf uns wie ein ‹natürliches› Phänomen, wie eine Blume oder Schneeflocke, deren Schönheit nicht trennbar ist von ihrem pflanzlichen 13 «Denn die ‹Botschaft› eines jeden Mediums oder jeder Technik ist die Veränderung des Maßstabes, Tempos oder Schemas, die es der Situation des Menschen bringt.» 14 «Im Laufe der Filmgeschichte hat man ein umfangreiches Repertoire von Techniken […] entwickelt, um die einfache Aufnahme, die der Apparat erzeugt, zu modifizieren. Aber selbst hinter den stilisiertesten Filmbildern entdecken wir immer noch die Stumpfheit, Sterilität oder Banalität der Fotografien des frühen 19. Jahrhunderts. […] Kino ist eine indexikalische Kunst; es ist der Versuch, aus einem Abdruck Kunst herzustellen.» 294 Abbildung oder tellurischen Ursprung» (1958: 24). Wie wir wissen, war Bazin ein glühender Verfechter eines Kinos, das in diesem Ursprung sein eigenes Wesen entfaltet, das alle Schnörkel, alle Tricks hinter sich lässt und zu sei- nem realistischen Kern vordringt. Beide, Barthes und Bazin, machen die Besonderheit der fotografischen Aufzeichnung in ihrem Überwinden von Zeit, in einer Unmittelbarkeit aus, die über die zeitliche Distanz wirksam ist. Barthes nimmt darin eine wahrhaft transzendentale Dimension wahr: Stets versetzt mich die Photographie in Erstaunen, und dieses Erstaunen hält an und erneuert sich unaufhörlich. Vielleicht reicht dieses Erstaunen, dieses Beharren tief in die religiöse Substanz, aus der ich geformt bin; wie man es auch dreht und wendet: die Photographie hat etwas mit Auferstehung zu tun: kann man von ihr nicht sagen, was die Byzantiner vom Antlitz Christi sagten, das sich auf dem Schweißtuch der Veronika abgedrückt hat, nämlich, dass sie nicht von Menschenhand geschaffen sei, acheiropoietos? (Barthes 1980: 92)15 Es ist der ontologische Status der Abbildung selbst, in dem die Wurzeln dieser Wirkung zu suchen sind, «ein fundamentales Bedürfnis der Psy- che: Schutz gegen den Ablauf der Zeit» (Bazin 1958: 21). Das Bild wirkt «durch seine Entstehung, durch die Ontologie des Modells», es ist «die aufregende Gegenwart des in seinem Ablauf angehaltenen Lebens, von ihrem Schicksal befreit nicht durch den Zauber der Kunst, sondern durch die Beharrlichkeit einer leidenschaftslosen Mechanik» (25). Diese Argumentation ist interessanterweise zunächst eine pragmati- sche: Es fließt aus dieser Sicht ein außerbildliches Wissen in die Wahrneh- mung und Bewertung des Bildes ein, eine Argumentationsweise, die später von Mitchell aufgegriffen wird, um den Wahrheitsgehalt des Bildes zu diskutieren. Dabei geht Mitchell von der Differenz der Fotografie zur Ma- lerei aus – einer Differenz, die auch Bazins Überlegungen zugrunde liegt. Denn in der Malerei ist alles immer schon Ausdruck eines Subjekts; jedes Gemälde ist zutiefst geprägt von einer Intention – im Gegensatz zur Foto- grafie, die zutiefst geprägt ist von der kausalen Beziehung, die sie zu ihrem Gegenstand ausdrückt (Mitchell 1992: 28 ff.). Mitchell nimmt explizit Bezug auf Bazins Äußerungen und baut sie zu einem dichten Netz an kritischen Evaluationen aus, die man an eine fotografische Abbildung herantragen kann. Es sind Evaluationen in Bezug auf die interne und externe Kohärenz. Eine interne Kohärenz, deren Parameter ich im Kontext des Compo- siting schon diskutiert habe – Schatten, Schärfe, räumliche Anordnung, 15 Dieser Hinweis auf die Analogie der Fotografie mit der Reliquie des Abdrucks Christi findet sich schon bei Bazin (1958: 25) und später bei Mitchell (1992: 28). Aufzeichnung und Modellbildung, Malen und Messen 295 Reflexionen –, ist in einer fotografischen Aufzeichnung a priori vorhan- den, denn sie ist die Projektion einer dreidimensionalen Struktur auf eine Fläche nach den Regeln der Zentralperspektive. Die Fotografie ist – wie Mitchell (1992: 24) es nennt – «versteinertes Licht», eine Punkt-für-Punkt- Analogie zwischen einer Lichtdistribution in einer natürlichen Umwelt und der fotochemischen Umwandlung dieser Emanation in eine Korn- struktur. Diese Analogie ist nur infrage gestellt, wenn die Standardpro- zedur nicht eingehalten, wenn also die Fotografie auf dem Weg zwischen Aufnahme und Wiedergabe bearbeitet wird. Externe Kohärenz lässt sich anhand von Weltwissen untersuchen. Die Frage nämlich, ob diese Fotografie an dieser Stelle und zu dieser Uhrzeit aufgenommen worden sein kann und tatsächlich das Ereignis darstellt, das sie darzustellen behauptet, ist eine Frage, die sich nicht wirklich klä- ren lässt, wie Mitchell (1992: 40) am Beispiel von Robert Capas Bild des stürzenden Soldaten im Spanischen Bürgerkrieg erörtert. Dies sind jedoch Fragen des Kontexts, die ich später aufgreifen werde. Zunächst geht es darum, den von Bazin, Barthes und Mitchell he- rausg earbeiteten Mangel an Intention, den mechanischen Automatismus der Aufzeichnung im Hinblick auf die Verwendung fotografischer Bilder im Film zu diskutieren. Denn die Intention kommt in der Konstruktion filmischer Diegesen an anderer Stelle ins Spiel, nämlich in der Inszenie- rung und im Aufbau einer profilmischen Anordnung, kurz in der Mise-en- Scène, und in der Verknüpfung von Einstellungen zu Sequenzen durch die Montage, welche die simple Darstellungsfunktion des Bildes durch eine Ausdrucksfunktion überformt. Anders formuliert, könnte man be- haupten, dass die filmische Fiktion parasitär am ontologischen Status des fotografischen Bildes partizipiert und ihn benutzt, um ihrer mimetischen Repräsentation den Anschein von Wirklichkeit zu verleihen. Nochmals an- ders und neutraler ausgedrückt, naturalisiert die fotografische Abbildung den Inszenierungscharakter der filmischen Fiktion, und zwar sowohl auf der pragmatischen Ebene des Rahmenwissens – also des Wissens über die Eigenschaften des Abbildungsprozesses – als auch auf der gleichzeitig wirksamen perzeptiven Ebene. Immer noch innerhalb der pragmatischen Argumentation ist es durchaus so, wie Mitchell schreibt, dass die Möglichkeiten digitaler Ver- fahren, den fotorealistischen Eindruck perfekt zu imitieren, diesen einst- mals gefestigten Status unterhöhlen. Zwar hat es stets verschiedene Mög- lichkeiten gegeben, mit Fotografien zu lügen, sie in einen anderen Kontext zu stellen oder zu bearbeiten. Aber diese Verfahren waren im Bewusstsein nur unterschwellig präsent, und sie konnten den Mythos der Abbildungs- treue durch eine kausale Verbindung nicht auflösen. Das ist nun anders. 296 Abbildung «The traditional origin narrative by which automatically captured shaded perspective images are made to seem causal things of nature rather than products of human artifice […] no longer has the power to convince us»16 (Mitchell 1992: 31). Was sich also verändert hat, ist eine Voreinstellung der Rezipienten, die sich durchaus auch auf die Darstellung von fiktionalen Welten auswirken kann. Dies betrifft beispielsweise die Partizipation an Figuren. Wenn ein fotografisch wirkendes Bild einer Figur – etwa Neo in Matrix Revolutions – nicht mehr als Hinweis auf die reale Präsenz ei- nes Körpers vor der Kamera gelesen wird, sei dies nun des Körpers eines Stuntmans oder eines Schauspielers, droht die Verbindung einzubrechen. Viele Praktiker sind sich dieses Problems bewusst (siehe cinefex 100) und arbeiten auf mehreren Ebenen gegen die Rezeption einer solchen Figur als einer inhaltsleeren Hülle, auf die sich keine Emotionen projizie- ren lassen. So beschränken sie den Handlungsspielraum, lassen die Figur intera gieren oder wählen, wo immer es geht, Aufzeichnungsverfahren wie M otion Capture oder bildbasiertes Modellieren, um den drohenden Verlust der Glaubwürdigkeit abzuwenden. Mit dem allmählichen Ver- schwinden der Fotografie als dominantem Modus der filmischen Darstel- lung kommen an allen Ecken und Enden die anderen eingangs (→ 291) erwähnten Formen der Aufzeichnung zum Einsatz, um – ganz im Sinne Kracauers (1960) – die «äußere Wirklichkeit» zu erretten. Denn die Kraft der kausalen Beziehung zwischen Abbildung und Gegenstand ist keineswegs auf die pragmatische Dimension beschränkt, sondern hat gleichzeitig unmittelbare ästhetische und semantische Im- plikationen. Der sensorische Eindruck von Unmittelbarkeit geht auf eine zumindest punktuelle Symmetrie der Kamera mit dem visuellen Wahr- nehmungsorgan, dem Auge, zurück. Aus dieser Symmetrie leiten einige Theoretiker einen vollständig naturalisierten Wirklichkeitseindruck foto- grafischer Bilder ab. So schreibt Grodal: […] the retinal impact can be indistinguishable from ‹real-world images›. Fundamental aspects of the seen […] exist in such a form that to say that they are ‹analogue› signs of space, object, and colour […] violates the ‹naturalness› and ‹innateness› by which they are perceived.17 (Grodal 1997: 76) 16 «Die traditionelle Auffassung, nach welcher eine mechanische, perspektivisch wir- kende Aufnahme in einem kausalen Verhältnis zum Abbildungsgegenstand steht und deshalb nicht als Ergebnis eines menschlichen Eingriffs […] zu verstehen ist, lässt sich nicht länger aufrechterhalten.» 17 «[…] der Eindruck auf der Netzhaut braucht sich nicht vom ‹realen Bild› zu unter- scheiden. Der visuelle Eindruck [fotografischer Bilder] ist grundsätzlich so ‹natürlich› und ‹angeboren›, dass es nicht angebracht ist, sie als ‹analoge› Zeichen des Raums, des Gegenstands oder der Farbe zu deuten.» Aufzeichnung und Modellbildung, Malen und Messen 297 Diese Auffassung wurde seit den 1950er-Jahren von James J. Gibson18 in seiner ökologischen Psychologie der visuellen Wahrnehmung vertreten. Er ging davon aus, dass eine Abbildung, die in den wesentlichen Punkten mit der optischen Anordnung in der äußeren Welt übereinstimmt, vom Wahrnehmungssystem grundsätzlich gleich verarbeitet werde. Diese These wurde wohl von niemandem so energisch bestritten wie von Nelson Goodman (1968), der beispielsweise nachweist, wie bestimmte perspekti- vische Anordnungen in Fotografien als Verzerrung empfunden werden, weil sie Konventionen der perspektivischen Konstruktion verletzen (1968: 21 ff.). Black (1972: 145) vertritt – gestützt auf ethnologische Untersuchun- gen – ebenfalls die These, dass die Fertigkeit, Fotografien zu lesen, kultu- rell erworben sei. Meiner Ansicht nach liegt die Wahrheit irgendwo in der Mitte. Denn visuelle Wahrnehmung ist ein extrem komplexes Geschehen, das aus ei- nem ständigen Austausch zwischen reizimmanenten Eigenschaften und höheren kognitiven Verarbeitungsmechanismen besteht, die unentwirrbar ineinander greifen. Wir können Fotografien als noch so wirklichkeitsge- treu empfinden und werden sie dennoch nie mit der Wirklichkeit ver- wechseln. Als Aufzeichnungssysteme sind die fotografischen und ganz besonders die filmischen Abbildungsapparate zwar der visuellen Wahr- nehmung nachgebildet, aber diese Analogie – darauf habe ich an anderer Stelle schon hingewiesen – geht nur bis zur anatomischen Geometrie des menschlichen Auges. Schon die Reaktion der Netzhaut auf den Lichteinfall hat mit fotografischen Emulsionen wenig zu tun.19 Es ist geradezu erstaun- lich, dass Gibson, der seine Überlegungen zur Wahrnehmungspsychologie so stark an der evolutionären Entwicklung dieses Systems im Kontakt mit der Umwelt festmacht, die Bildwahrnehmung als natürlich einstuft. Denn das visuelle System hat besonders durch seine phylogenetische Entwick- lung eine Reihe von Unregelmäßigkeiten entwickelt – zu nennen wären insbesondere die Konstanzphänomene20 –, die es für seine Aufgabe rüsten, das Überleben zu sichern. Und in diesen Unregelmäßigkeiten manifestie- ren sich deutliche Unterschiede zu mechanischen Abbildungsprozessen, 18 Zusammengefasst erschienen Gibsons Thesen 1979 in The Ecological Approach to Visual Perception. Hillsdale NJ: Lawrence Erlbaum. 19 Zur Physiologie des Sehens siehe Eysel, U. (1993): Sehen. In: Robert F. Schmidt (Hg.): Neuro- und Sinnesphysiologie. Berlin/Heidelberg/New York: Springer; Engel, Andreas K. (1996): Prinzipien der Wahrnehmung. In: Gerhard Roth, Wolfgang Prinz (Hg.): Kopf- Arbeit. Gehirnfunktionen und kognitive Leistungen. Heidelberg: Spektrum-Verlag. 20 Sicherlich das bekannteste Konstanzphänomen ist die bereits erwähnte Farbkonstanz (→ 258), also die Fähigkeit des menschlichen Auges, die Farbe eines Objekts unter verschiedenen Lichtquellen immer als identisch wahrzunehmen (vgl. Kebeck 2006: 200 ff.). 298 Abbildung welche mit einer breiten Palette an technischen Verfahren diese Irregulari- täten mehr schlecht als recht nachzubilden versuchen. Aus der wahrnehmungsphysiologischen und -psychologischen Per- spektive ist es eher erstaunlich, dass wir in unserer Kultur Fotografien und Filme als so transparent empfinden. Wenn aber Bildwahrnehmung und Umweltwahrnehmung identisch wären, könnten Bilder nicht den kulturellen und ästhetischen Wert annehmen, den sie haben. Denn die spezifischen Eigenheiten jeder Abbildung, die Verzerrungen, wenn man so will, machen ihren eigentümlichen Reiz aus. Ein «starkes Bild» lebt nach Boehm (1994a: 35) «aus der doppelten Wahrheit: etwas zu zeigen, auch etwas vorzutäuschen und zugleich die Kriterien und Prämissen dieser Erfahrung zu demonstrieren. […] Es bindet sich dabei aber an artifizielle Bedingungen, an einen ikonischen Kontrast.» Gleichzeitig ist der visuelle Eindruck fotografischer Abbildungen überaus reich. Fotografien weisen eine hohe ästhetische Dichte auf; sie produzieren einen sensorischen Überfluss mit großer bildinterner Re dun- danz. Alle jene Merkmale, die als interne Kohärenz beschrieben werden, sind wie selbstverständlich vorhanden und stützen den realitätsgetreuen Eindruck von Unmittelbarkeit. Weil die Selektionsprinzipien andere sind als bei der Malerei und vor allem auch andere als bei der Modellbildung, die im Reich computergenerierter Bilder eine so große Rolle spielen, hinterlassen minimale Schwankungen und überflüssig wirkende Details ihre Spuren im Bild. Es sind die Spuren dessen, was man im Englischen mit dem Begriff idiosyncrasies bezeichnet; spezifische Eigenheiten einer einmaligen Existenz. Dieses Einfangen des profilmischen Raums in seiner ganzen organisch wirkenden Zufälligkeit, welche einen Eindruck von Unmittelbarkeit erzeugt, ist eine Eigenheit, von der Computeranimateure nur träumen können; selbst wenn in einem Studio oder einem Modell alles inszeniert und konstruiert ist, ist diese Präsenz in den Materialien und ihrer Reaktion auf die Lichtverteilung noch gegeben. Weitaus am stärksten profitiert die Abbildung der menschlichen Figur und besonders des menschlichen Gesichts von diesem Aufzeichnungsmodus, dem nichts zu entgehen scheint. Jede Narbe, jede Falte, jedes Augenzwinkern fließt in das fotografierte Bild ein – es sei denn, man entscheide sich bewusst dage- gen und treffe Maßnahmen, um diese Merkmale zu unterdrücken. Die Kamera ist deshalb schon als das ‹schärfere Auge› bezeichnet worden – eine Ansicht, die sich in McLuhans Diktum von den Medien als Sinnesextensionen wiederfindet. Mit ihrem mechanischen Heraus- lösen spezifischer Momente und Ansichten legt die Kamera Qualitäten bloß, die der Wahrnehmung üblicherweise verborgen bleiben. Denn die Wahrnehmung blendet unablässig aus, was von höheren kognitiven Pro- Aufzeichnung und Modellbildung, Malen und Messen 299 zessen als irrelevant bestimmt wird; sie unterdrückt mittels Adaptation jene Reizanteile, die stabil bleiben – sie schaut gewissermaßen durch Stö- rungen hindurch; sie nimmt Abstraktionen vor, welche das Perzept den inneren Vorstellungsbildern angleichen. Die Kamera mit ihrer von Bazin beschriebenen mechanischen Beharrlichkeit hingegen präsentiert das ihr dargebotene Universum frei von solchen Interpretationsprozessen und konfrontiert die Wahrnehmung daher mit einer anderen Ordnung, deren spezifische Schärfe sich gerade aus ihrer indifferenten Reduktion der phy- sikalischen Erscheinungen ergibt. Epstein (1935) führt das Entsetzen an, das jemanden befällt, der sich zum ersten Mal auf einer fotografischen Abbildung sieht, um diese Quali- tät des erbarmungslosen Bloßlegens zu beschreiben. Es ist die Kopräsenz von Wichtigem und Unwichtigem, Geplantem und Zufälligem, das diese spezifische Wirkung auslöst und den Eindruck von unverfälschter Wirk- lichkeit erzeugt. Denn diese Kopräsenz verschleiert den ordnenden Ein- griff durch eine menschliche Instanz und wirkt in dieser leicht chaotisch wirkenden Irrationalität lebensechter als eine durch und durch gestaltete Abbildung. Mitchell (1992: 27) weist mit Barthes21 darauf hin, «that works of realistic art often incorporate seemingly functionless detail just ‹because it is there›, to signal that ‹this is indeed an unfiltered sample of the real›».22 Dieses Zufällige resultiert laut Barthes (1980: 14) aus der Anforderung je- der Fotografie, sich «auf irgend etwas oder irgend jemanden» zu beziehen, welches sie «in die maßlose Unordnung der Dinge – aller Dinge dieser Welt» treibe. «Das photographische Bild ist voll, randvoll: es gibt keinen Platz mehr, nichts lässt sich hinzufügen» (1980: 100). Es sind natürlich aus der Geschichte der Fotografie Beispiele be- kannt, die ihre Wirkung gerade daraus ableiten, dass alles minutiös vor der Kamera arrangiert ist, wie die Bilder der Zürcher Moderne um Hans Finsler oder Man Rays Inszenierungen und Licht-und-Schattenspiele. Ähnlich verhält es sich mit einigen stilisierten Studioinszenierungen der Hollywood-Klassik wie beispielsweise The Wizard of Oz (USA 1939, Vic- tor Fleming) oder jüngst mit Tim Burtons Charlie and the Chocolate Factory (USA 2005), die alles daran setzen, das Zufällige zu verbannen und wie gereinigte Modelle zu erscheinen. Während es aber bei der foto- grafischen Aufzeichnung sehr viel Arbeit erfordert, diesen gereinigten Eindruck zu erzeugen, ist es bei computermodellierten Bildern umge- 21 Barthes, Roland (1968): L’Effet de réel. In: Roland Barthes: Le Bruissement de la langue. Paris: Seuil 1984. 22 … «dass realistische Kunstwerke oftmals anscheinend funktionslose Details enthalten, einfach weil solche Details vorhanden sind, um damit anzuzeigen, dass es sich tatsäch- lich ‹um einen ungefilterten Ausschnitt aus der Realität› handelt». 300 Abbildung kehrt. Dort ist zunächst alles Plan, dem die Details und das Zufällige in mühsamer Arbeit überlagert werden müssen. Im Film nun – und damit komme ich von den perzeptiven zu den semantischen Eigenschaften der fotografischen Aufzeichnung – verfügt laut Barthes (1980: 100) «das Photo gleichwohl nicht über diese Vollstän- digkeit». Der Referent des Filmbildes ist gleitend – und dies deshalb, weil Filmbilder aus ihrem ursprünglichen Wirklichkeitszusammenhang herausgelöst und wie alle massenmedialen Bilder in einen anderen Kon- text gestellt werden. Im Gegensatz zur Fotografie im privaten Gebrauch ist die Bedeutung des Bildes im medialen Gebrauch nicht geprägt durch einen emotional besetzten Erinnerungswert. Während ich, wenn ich Fotos meines kürzlich verstorbenen Vaters anschaue, immer meine persönlichen Verknüpfungen ins Bild hineintrage und die Fotografie eine ganze Kette von Assoziationen auslöst, sehe ich im Film nicht oder eher selten Tom Hanks, sondern vielmehr die Rolle, die er verkörpert. Oder anders ausge- drückt, die Präsenz von Tom Hanks tritt im filmischen Bild hinter die Kon- struktion einer Rolle zurück – ein Themenkomplex, den ich im Kontext der Konstruktion von digitalen Figuren wieder aufnehmen werde (→ 434). Zwar bildet – wie Mitchell bemerkt – die fotografische Aufzeichnung im Gegensatz zur Malerei immer ein bestimmtes Pferd ab: «The existence of horses means that you can take a photograph of some particular horse, but it does not prevent a horse painting from showing no horse in parti- cular»23 (1992: 29). Aber das ist eben nur die halbe Wahrheit. Denn mit der Veränderung des Kontexts gehen auch die partikulären Bezüge verloren oder nehmen zumindest eine andere Stellung ein. Zur Diskussion dieses Sachverhalts eignet sich die Unterscheidung zwischen Type und Token. Unter einem Typ (type) versteht man einen Ver- treter einer bestimmten Klasse von Objekten, zum Beispiel ‹einen Hund›. Ein Token hingegen ist ein bestimmtes Exemplar des Typs, also beispiels- weise Tosca, die Hündin meiner Nachbarin. Um Tosca auf einem Foto wiederzuerkennen, muss ich Tosca kennen. Ansonsten sehe ich auf dem Foto nur «einen Hund» und – wenn ich mich mit Hunderassen auskenne – vielleicht einen Mischlingshund mit bestimmten Rassemerkmalen. Der Hund auf dem Foto ist also nur dann ein Token, wenn ich ihn wiederer- kenne, andernfalls ist er ein Typ. Gleichzeitig aber ist er auf der Ebene des Phänomens ein Token mit allen spezifischen Merkmalen, die einen Hund als besonderes Exemplar auszeichnen – dies im Gegensatz zum gemalten Typ, der unterschiedliche Formen der Abstraktion annehmen kann und 23 «Dass Pferde existieren bedeutet, dass man ein Foto von einem bestimmten Pferd ma- chen kann, aber es bedeutet auch, dass ein Gemälde kein bestimmtes Pferd abbilden muss.» Aufzeichnung und Modellbildung, Malen und Messen 301 sich im Einzelfall bis auf ein von allen zufälligen und individuellen Merk- malen befreites Piktogramm reduzieren lässt.24 Dieser besondere Status – Barthes (1982: 37) beschrieb ihn als «Restbotschaft» – macht das Bild extrem kontextsensitiv, und das ist die wichtigste Grundlage der Verwendung von fotografischen Aufzeich- nungen zum Zweck der Konstruktion einer filmischen Diegese mittels Bild-Bild-Assoziationen in der Montage, aber auch mittels Bild-Text- und Bild-Ton-Verknüpfungen oder im Compositing. Alle diese Formen dyna- mischer Bedeutungserzeugung fußen darauf, dass die Kausalgeschichte der indexikalischen Abbildung unterbrochen ist. Deshalb erkenne ich im beschriebenen Compositing aus Titanic nicht ein Schiffsmodell, sondern einen Luxusliner, den die fiktionale Konstruktion als Titanic ausweist, deshalb funktioniert der King-Kong-Approach und deshalb funktionieren alle möglichen Formen der Substitution wie zum Beispiel Stunts. Aber auch die Konstruktion von fiktiven Objekten – siehe Laserschwert – greift diese Schwäche auf und funktioniert, solange gewisse Rahmenbedingun- gen25 eingehalten werden. Deshalb ist es absolut überzogen, wenn Mano- vich behauptet, die Objekte würden im digitalen Compositing ihre Iden- tität verlieren, denn partiell verlieren die Objekte in der massenmedialen Repräsentation immer ihre Identität, aber partiell behalten sie diese auch. Damit komme ich zu der von Mitchell erwähnten externen Kohä- renz zurück, denn wie wir eine bestimmte Fotografie wie Capas Bild vom stürzenden Soldaten lesen, bestimmt so lange die Bildunterschrift, wie es uns unmöglich ist, bildexterne Fakten heranzuziehen. Entspricht es der dramatischen Variante: «Robert Capa’s camera catches a Spanish soldier the instant he is dropped by a bullet through the head in front of Cordoba»,26 wie in Vu 1936 und in Life 1937 behauptet (Mitchell 1992: 40), oder der banaleren Version: «A militiaman slips and falls while trai- ning for action»?27 Ich müsste also externe Quellen haben, beispielsweise einen Kontaktabzug von Capa, auf dem ich sehen kann, was davor und danach fotografiert wurde, um zu untersuchen, in welchem Kontext das Ereignis vor der Kamera stand, ob der Soldat tatsächlich tot war oder aber wieder aufgestanden ist. Damit könnte man den Bildinhalt unab- 24 Sobchack (2004) nennt dieses Phänomen «general particular» – also ein Exemplar, das eine Klasse vertritt. 25 Siehe dazu die semantische Theorie multipler Randbedingungen (multiple constraint satisfaction) in Goschke/Koppelberg (1993), mit der ich mich in Sound Design (2001: 126 f.) ausgiebig befasse. Sie erklärt die dynamische Konstruktion von komplexen Bedeutungen durch die Kombination von Konzepten. 26 «Robert Capas Kamera hält den Moment fest, in dem ein spanischer Soldat vor Cordoba von einer Kugel in den Kopf getroffen wird und zusammenbricht.» 27 «Ein Soldat rutscht während des Trainings aus und fällt hin.» 302 Abbildung hängig von der suggestiven Botschaft der Unterschrift eindeutig identi- fizieren. An anderer Stelle weist Mitchell (1992: 220) deshalb darauf hin, dass der Verwendungszusammenhang – und zwar unbeeinflusst vom Entstehungsprozess – einen deutlichen Einfluss auf den Wahrheitsgehalt des Bildes ausübt.28 «Die Merkmale des buchstäblichen29 Bilds sind also nicht substanzi- ell, sondern immer nur relational» (Barthes 1982: 37), das heißt, sie nehmen immer Bezug auf ein schon vorhandenes Wissen, das unterschiedlich ist, je nachdem, ob die Aufnahmesituation oder der Gegenstand der Abbildung bekannt sind. «Dieser reduzierte Zustand entspricht natürlich einer Fülle von Virtualitäten; es handelt sich um eine äußerst sinnschwangere Abwe- senheit von Sinn», schreibt Barthes (1982: 37) in Der entgegenkommende und der stumpfe Sinn, wo er sich mit dem kommunikativen Aspekt und der Bild-Text-Verknüpfung von Werbung auseinandersetzt. Diese Er- kenntnis knüpft an die Situation der Bildbetrachtung als einer verarmten Wahrnehmungssituation an, welche dazu führt, dass die Abbildung un- terdeterminiert ist. Man kann sich den semantischen Gehalt des Bildes also vorstellen wie ein Fragment mit vielen Leerstellen, dessen Aussage sich durch das Andocken unterschiedlicher Bedeutungszusammenhänge ändert. Kuleschow hat diesen Mechanismus der Bedeutungsmodifikation von Bildern durch Montage schon in den 1920er-Jahren experimentell erfasst – wenn er ihn auch in einer allzu generalisierenden Art und Weise interpretiert hat. Denn die Modifikation bezieht sich immer nur auf be- stimmte, kontextsensitive Aspekte – beispielsweise den Ausdruck eines Gesichts –, während andere Aspekte – nämlich die Tatsache, dass im Bild ein Gesicht zu sehen ist – nicht angetastet werden (siehe dazu Carroll 1988: 152). Nun geht es hier nicht darum, die Montagetheorie zu thematisieren, sondern es geht um den spezifischen semantischen Status des fotografi- 28 Es scheint mir in diesem Zusammenhang bedeutsam, dass Mitchell mit diesem und auch anderen Hinweisen den technischen Determinismus seiner Argumentation relativiert. So geht er auf alle traditionell schon vorhandenen Werkzeuge zur Bild- bearbeitung und Bedeutungsmodifikation ein – dies im Unterschied zur inzwischen etablierten Interpretation seines Werks, welche meist ausschließlich den revolutionä- ren Aspekt des Umbruchs zum digitalen Zeitalter betont. Böhme (2000: 196) schwächt diese allgemein etablierte Auffassung ab, indem er in den digitalen Bearbeitungsmög- lichkeiten lediglich eine Möglichkeit zur Flexibilisierung der Gestaltung sieht, die Be- deutung und Wirkungsweise des Bildes aber als essenziell von «der lebensweltlichen Situation ihres Gebrauchs» bedingt sieht. 29 Das «buchstäbliche Bild» entspricht bei Barthes dem denotativen Bild – also dem Bild, das auf einen Gegenstand hinweist, dessen Abbild es ist. Er grenzt es ab vom symboli- schen Bild, dem eine Bedeutung höherer Ordnung überlagert ist. Aufzeichnung und Modellbildung, Malen und Messen 303 schen Bildes im filmischen Kontext, der gleichzeitig durch seine phäno- menale Redundanz und seine Unterdeterminierung und Mehrdeutigkeit gekennzeichnet ist. Das Bild ist – anders ausgedrückt – polysemisch, «es ist mit einer Unruhe hinsichtlich des Sinns der Objekte und Haltungen verknüpft» (Barthes 1982: 34). Die Filmsprache hat unterschiedliche und heterogene Verfahren entwickelt, den Terror des Unverständlichen einzudämmen, mithin das polysemische Bild in einem intendierten Bedeutungsfeld zu verankern. Das beginnt mit der Selektion, die innerhalb eines kommunikativen Zu- sammenhangs per se schon als Botschaft fungiert – mit den Worten Rudolf Arnheims (1935: 50): «Sobald ein Stück Natur zum Bild wird, betrachten wir es mit anderen Augen.» Max Black (1972: 124) hat diesen Unterschied sehr anschaulich mit dem Vergleich zwischen einer Felsformation, die einem Gegenstand ähnelt, und einer fotografischen Abbildung illustriert. Schon mit der Auswahl eines bestimmten Ausschnitts aus dem natür- lichen Kontinuum kommt die Intention einer menschlichen Instanz ins Spiel, welche eine ganz andere Rezeption auslöst, nämlich die Suche nach dem Sinn, die bei der Felsformation fehlt. Die Sinnsuche erhält noch mehr Gewicht, wenn die Bilder in einen kommunikativen Rahmen gestellt wer- den, in dem alles einer auktorialen Perspektive der extradiegetischen Er- zählinstanz untergeordnet wird – übrigens auch dort, wo diese auktoriale Perspektive maskiert oder in eine Figurenperspektive ausgelagert ist. Wie Carroll (1988: 150) in Bezug auf den prominenten Stellenwert darlegt, den die Erhaltung von Mehrdeutigkeit bei Bazin einnimmt, sind selbst mehr- deutige Strukturangebote immer Produkte eines auktorialen Eingriffs der erzählenden Instanz, wenn sich damit auch die Interpretationstätigkeit des Rezipienten verändert. Ausgehend von einer dreistufigen Terminologie, die Monroe C. Beards ley in Aesthetics. Problems in the Philosophy of Criticism (1958) vor- geschlagen hat, untersucht Carroll (1988: 148 ff.) den spezifischen Prozess der Bedeutungstransformation, den das fotografische Bild im Kontext der Fiktion durchläuft, mit den Begriffen Physical Portrayal, Depiction und Nominal Portrayal. Physical Portrayal umfasst jenen Aspekt der Auf- zeichnung, der durch die Kausalität des Abbildungsprozesses gegeben ist, also jene mechanische Verknüpfung, in der Bazin und Barthes deren Essenz situieren. Das physikalische Porträt bildet einen spezifischen Ge- genstand ab, der mit einem Namen assoziiert wird, also ein Token gemäß der oben (→ 300) eingeführten Unterscheidung, wie beispielsweise Tom Hanks und nicht Forrest Gump. Carroll (150) kritisiert aus dieser Sicht die Realismusdebatte speziell bei Bazin, der den physikalischen Aspekt der Bildentstehung privilegiere und mystifiziere, ohne die spezifische Wir- 304 Abbildung kungsweise der Fiktion zu berücksichtigen. Im Film nämlich überlagert sich der physikalischen Aufzeichnung zunächst die Generalisierung, der Schritt vom Token zum Type, der mit dem Begriff Depiction (Darstellung) erfasst wird. Eine filmische Einstellung von Tom Hanks stellt gleichzeitig ganz allgemein einen Mann dar. Das physikalische Porträt mag in be- stimmten Situationen einen wesentlicheren Stellenwert einnehmen als die Darstellung – nämlich dann, wenn der Film sich in Richtung dokumenta- rischer Modus verlagert wie bei den oben erwähnten Cameo-Auftritten von Stars. Im Allgemeinen aber wird zunächst die Depiction überwiegen, bis die dritte Stufe greift, die mit dem Begriff Nominal Portrayal umschrie- ben wird. «A shot is a nominal portrayal when it represents a particular object, person, place or event, that is different from the one that gave rise to the image» (151). Im Raster der Type/Token-Unterscheidung verlagert sich also der Darstellungsmodus wieder in die Domäne des Token, wenn dieses sich auch vom ursprünglichen Token unterscheidet, also Forrest Gump darstellt und nicht Tom Hanks. An diesem Prozess können sämt- liche an der Konstruktion der filmischen Fiktion beteiligten Parameter wie Text als Schrift, Dialog oder Voice-over, Ton und Montage mitwirken, sodass am Ende dieser diegetische Kontext den polysemischen Charakter des aus dem ursprünglichen Bedeutungszusammenhang gerissenen Bil- des zurückstutzt und auf den kommunikativen Zweck fokussiert. Wäh- rend die Realisten ihre Argumentation auf den mechanischen Prozess der Bildentstehung aufbauen, stützen sich die Vertreter der russischen Mon- tagetheorie im Umfeld von Eisenstein auf die bedeutungsmodifizierende Wirkung des Kontexts. Tatsächlich setzt die Wirkung des Kontexts schon zu Beginn dieses mehrstufigen Prozesses ein, nämlich im profilmischen Raum mit der Mise-en-Scène. Tom Hanks transformiert sich schon in Richtung Forrest Gump, bevor er fotografiert wird. Ganze Abteilungen – nämlich Maske und Kostüm – arbeiten an den Veränderungen seines Erscheinungsbilds, schneiden beispielsweise sein Haar im Stil eines Armeeangehörigen der 1960er-Jahre, stecken ihn in eine Uniform und binden damit die Figur in einen historischen und kulturellen Kontext ein, der sich von demjenigen der Aufnahme unterscheidet. Tom Hanks selbst arbeitet daran, der Figur eine von ihm unterschiedene Persönlichkeit zuzuweisen, indem er einen Südstaatenakzent annimmt, sich hölzern bewegt und teilweise mit seinem Verhalten den Konventionen der Gesellschaft widerspricht. Schließlich findet dieses Verhalten in einem räumlichen Kontext statt, der einen wei- teren modifizierenden Einfluss auf die abgebildete Person ausübt, die ihre Verhaltensmuster mehr oder weniger den Erfordernissen der Situation anpasst. Aufzeichnung und Modellbildung, Malen und Messen 305 Zwar geht Carroll (1988: 139) in einer Replik auf Bazins ästhetisches Primat der Mehrdeutigkeit auf die Einflussgröße der Mise-en-Scène ein, indem er darlegt, dass der technische Aspekt der großen Schärfentiefe in Kombination mit dem Raum-Zeit-Kontinuum einer Plansequenz kei- neswegs a priori Mehrdeutigkeit erzeugt, sondern ebenso sehr eine ein- deutige Intention der Erzählinstanz vermitteln kann wie eine montierte Sequenz. In gewisser Weise unterdrückt er diese Einsicht aber, wenn er dem mehrstufigen Modell Beardsleys eine Richtung zuweist. Vielmehr ist es doch so, dass die verschiedenen Aspekte des externen Kontexts – der Bildverwendung im Rahmen eines mehrschichtigen Präsentationsmodus wie des Films – in ein enges Beziehungsnetz zu internen Kontextuali- sierungen treten, die alle Aspekte der Mise-en-Scène umfassen. So kann Text – das wohl wichtigste Instrument zur Erzeugung eines nominalen Porträts – als Element des profilmischen Raums inszeniert sein – unter anderem dann, wenn eine Ortstafel oder ein Wegweiser ins Bild gesetzt werden. So unterstützen sämtliche oben erwähnten Kontextualisierungen von Tom Hanks – Frisur, Kostüm, Akzent – den nominalen Charakter der Abbildung bereits auf der Stufe des physikalischen Porträts, indem sie die Person Hanks hinter den Insignien der Figur Forrest Gump verschwinden lassen. Diese Transformation findet notabene auf einer extrem harmlosen Stufe statt, die keinerlei Extravaganzen wie drastische Eingriffe des Mas- kenbildners oder des Kostüms umfasst. In Carrolls Argumentation verschwinden diese Formen des Eingriffs mehrheitlich. Auch wenn er den Realismusbegriff von Bazin als zu naiv und in letzter Konsequenz inkompatibel mit fiktionalen Repräsentations- formen darstellt, so lagert er doch die Wirkungsweise der Mise-en-Scène ausschließlich in extreme Beispiele aus wie Das Cabinet des Dr. Caligari (D 1920, Robert Wiene) oder The Wizard of Oz (USA 1939, Victor Fle- ming), wo er ironisch die Frage nach dem realen räumlichen Kontext stellt: «What is next to the land of Oz? The MGM commissary»30 (147). Abweichend von Carrolls Auffassung gehe ich davon aus, dass sol- che Kontextualisierungseffekte annähernd immer greifen, nicht immer aber an der Oberfläche erkennbar sind. Von einem Doku-Drama im Stil von United 93 (USA 2006, Paul Greengrass) mit einem minimalen Anteil an sichtbaren digitalen Eingriffen31 lässt sich ein Kontinuum spannen, in dem die extrem stilisierten Inszenierungen mit einem Höchstmaß an Einfluss der Mise-en-Scène am anderen Ende der Skala anzusiedeln sind. 30 «Was befindet sich neben dem Land Oz? Die MGM-Kantine.» 31 Die gesamte diegetische Konstruktion wird der historischen Glaubwürdigkeit unter- worfen, teilweise stellen sich die Figuren sogar selbst dar – wenn auch nicht immer zum Besten des Films. 306 Abbildung Entschieden komplexer wird die Frage nach dem Einfluss des Kon- texts, wenn man das Compositing einbezieht – hier im Rahmen der Diskussion von Aufzeichnungsprozessen zunächst nur jene Formen, die sich ausschließlich aus fotografiertem Material zusammensetzen. Ist es unabhängig von einem Rahmenwissen über den Entstehungsprozess halt- bar – so habe ich deshalb im Kapitel Compositing (→ 199) gefragt –, einen signifikanten Bedeutungsunterschied zwischen einer Bildkonstruktion durch Anordnung disparater Elemente vor der Kamera (Studiobauten, Glasvorsatzaufnahmen), in der Kamera (Mehrfachbelichtungen) oder in der Postproduktion (Travelling Mattes, optisches und digitales Composi- ting) zu postulieren? Vorläufig lautet meine Antwort: Es kommt darauf an. Zunächst lassen sich am Beispiel «Forrest trifft Kennedy» interne semantische Dissonanzen ausmachen, die einen starken Effekt der Bedeu- tungsmodifikation auslösen, welcher sich von einer Anordnung disparater Elemente vor der Kamera deutlich unterscheidet. Dieser Effekt resultiert aus dem expliziten Rückgriff auf das Bildergedächtnis des Publikums: Wer Kennedy nicht erkennt, wird diese Dissonanz nicht wahrnehmen. Ähnlich verhält es sich, wenn eine grüne Fee durchs Bild fliegt wie in Moulin Rouge! (USA/AUS 2001). Auch dann entstehen auf der Basis des allge- meinen Weltwissens Dissonanzen zwischen den einzelnen Bildteilen, weil sie unterschiedlichen Relationen zur lebensweltlichen Erfahrung gehor- chen, in welcher grüne Feen ausschließlich als magische Erscheinungen fungieren. Nehmen wir aber als Beispiel eine Einstellung aus Master and Commander (USA 2003, Peter Weir), in welcher die Aufnahme eines Mo- dellschiffs in die Aufnahme eines tosenden Meers integriert und von einer Schicht real aufgenommenen Nebels überlagert wird, so entstehen keine phänomenalen oder semantischen Dissonanzen. Das Bild unterscheidet sich nicht signifikant von einer integrierten Aufnahme, in welcher ein Schiff im Maßstab 1:1 entweder im Meer oder in einem Studiotank aufge- nommen wurde. Ähnlich verhält es sich bei Skalierungen, wo es ebenso wenig eine Rolle spielt, ob die Modifikation der Proportionen durch einen übergroßen Studiobau wie in Eternal Sunshine of the Spotless Mind, durch eine bestimmte Kameraperspektive wie in Big Fish oder durch Compositing von Motion-Control-Aufnahmen wie die auf dem Tisch tanzenden Hobbits in The Lord of the Rings: Return of the King ent- standen sind. Alle diese Compositings sind übrigens sogenannt unsichtbar, wobei die grüne Fee vielleicht einen Grenzfall darstellt, der die Problematik des Konzepts Sichtbarkeit verdeutlicht, denn sichtbar ist das Compositing in diesem Fall nicht aus phänomenalen, sondern ausschließlich aus semanti- schen Gründen. Sobald es sichtbar wird, sich mithin phänomenale Disso- Aufzeichnung und Modellbildung, Malen und Messen 307 nanzen über die wahrscheinlichen semantischen Dissonanzen legen, muss ein deutlicher modifizierender Einfluss der verschiedenen Bildteile ange- nommen werden. Beispiele dafür finden sich jedoch nur mit Material, das nicht ausschließlich durch Aufzeichnungsverfahren entstanden, sondern unterschiedlicher Herkunft ist, sodass es die Spuren seines Entstehungs- prozesses auf der Oberfläche trägt. Solange nur die menschliche Wahrnehmung inklusive der daran be- teiligten höheren kognitiven Prozesse als Referenzsystem eingesetzt wird und kein externes Rahmenwissen über den technischen Herstellungs- prozess im Spiel ist, sind die Einflüsse der Entstehung auf das Bildver- ständnis also variabel, aber mehrheitlich gering. Damit ist auch die Frage beantwortet, warum und unter welchen Bedingungen die Verbindung fotografischen Materials zwar auf der Oberfläche homogen erscheinen mag, aber trotzdem eine semantische Veränderung mit sich bringen kann, nämlich dann, wenn kognitive Dissonanzen aufgrund von allgemeinem Weltwissen zu einer internen Spannung zwischen den Bildteilen und da- mit zu einer gegenseitigen dynamischen Bedeutungsmodifikation führen. Solche Re-Kontextualisierungen sind laut Legrady (1999: 107) geradezu ein genuines Merkmal von Kunst. Indem neue Zusammenhänge geschaf- fen werden, verlagert sich die Synthese in eine anspruchsvollere Sphäre, die sich von der banalen Alltagswahrnehmung abhebt. Von der fotografischen Aufzeichnung unterscheiden sich alle ande- ren Aufzeichnungsverfahren (→ 291) durch den Grad der Vollständigkeit, mit der sie jene Parameter erfassen, welche der visuellen Wahrnehmung zugänglich sind. Bildbasiertes Modellieren bzw. Photogrammetrie ist in diesem Vergleichssystem das einzige Verfahren, das mehr Parameter aufzeichnet als die zweidimensionale Fotografie. Wenn man mit einem Array an Kameras die Schauspieler aus mehreren Perspektiven aufnimmt, so tritt die dritte Dimension hinzu. Das aufgezeichnete Material lässt sich in jeder denkbaren räumlichen Situation anordnen, es löst sich von einer vorgegebenen, singulären Kameraperspektive und enthält doch jene Fülle von Details der Oberflächenstruktur und selbst der Bewegungsmuster, welche für die filmische Aufzeichnung so charakteristisch ist. Laurence Fishburne als Morpheus ist in einem ähnlichen Geflecht zwischen physi- kalischem und nominalem Porträt anzusiedeln wie Tom Hanks als Forrest Gump. Zusätzlich eröffnen sich der bildbasierten Figur sämtliche Op- tionen der Modellbildung, die weit über die einfache Integration zwei- dimensionaler Bildteile im Compositing hinausgehen. Sie erreicht eine Plastizität der Transformationen in allen vier Dimensionen des filmischen Raum-Zeit-Koordinatensystems, wie sie bisher nur in der Animation möglich war; dies jedoch, indem sie gleichzeitig alle Aspekte der Unmittel- 308 Abbildung barkeit und des Realitätseffekts umfasst, die bisher ausschließlich der foto- grafischen Aufzeichnung vorbehalten waren – namentlich jene Kopräsenz von Wichtigem und Unwichtigem, jene organisch wirkende Zufälligkeit und jene spezifischen Eigenheiten der einmaligen abgebildeten Existenz. Bisher trennen die Verfahren des bildbasierten Modellierens und der Photogrammetrie streng zwischen Figur und Grund, das heißt, es wird entweder eine Figur im engeren Sinne, nämlich die menschliche Gestalt, erfasst oder aber eine – meist urbane – Umwelt. Der Raum wird also in Fragmente zerlegt, die unabhängig voneinander für die Bearbeitung offen stehen und erst via Compositing wieder zusammengefügt werden. Es sind daher alle Schwierigkeiten, die ich im Abschnitt Ästhetische Kohärenz (→ 256) schon beschrieben habe, zu bewältigen – Schwierigkeiten, die durchaus abbildungstheoretische Relevanz besitzen. Mit dem erhöhten Stellenwert, den die Kontrolle über die räumliche Anordnung und die physische Interaktion erfordert, stellt sich bereits eine prononcierte Verschiebung weg von der automatisierten Kausa- litätsbeziehung, wie sie von Bazin und Barthes postuliert wird, hin zu einem stärkeren Eingriff der schöpferischen Intention ein. Weiter bringt die Fragmentierung der einzelnen Module eine raumzeitliche Flexibilität mit sich, welche die dynamischen Prinzipien der Bedeutungserzeugung durch Montage ins Bild hinein transportieren. Schließlich werden durch Photogrammetrie aus dem Aufzeichnungsprozess selbst jene expliziten Daten gewonnen, welche für die Modellbildung notwendig sind, sodass die Grenzen zwischen diesen prinzipiell unterschiedlichen Verfahren in beide Richtungen überschritten werden können. Mithin lässt sich fotogra- fisch aufgezeichnetes Material modellieren und modelliertes Material mit den Eigenschaften der fotografischen Aufzeichnung ausstatten, und zwar in Abgrenzung von Modellbildungsverfahren im engeren Sinne durch die systemische Integration von Form, Oberfläche und zeitlichem Verhalten. Objekte, Figuren, Umwelten projizieren so ihre Identität von innen nach außen, das heißt, sie sind Erscheinungsbilder, die durch eine aprio- ris che innere Kohärenz schon als Ganzheiten wirken. Ihr spezifischer Charakter muss nicht mühsam aus atomisierten Merkmalen zusammen- gefügt werden wie in den Modellbildungsverfahren, sondern er trägt alle Züge seiner eigenen Geschichte und seiner eigenen Individualität schon in sich. Verwitterte Haut, Falten, Narben, Asymmetrien, das charakte- ristische Zusammenspiel von Augen, Mund und der ganzen Vielzahl an Gesichtsmuskeln tragen die Züge einer individuellen Entwicklung an die Oberfläche, wo sie dem fotografischen Blick ebenso zugänglich sind wie der Alltagswahrnehmung. Nirgends wird dieser Effekt deutlicher als im menschlichen Gesicht – dem wichtigsten Werkzeug zur Kommunikation Aufzeichnung und Modellbildung, Malen und Messen 309 von Emotionen, der unentbehrlichen Projektionsfläche für die Zuschauer- partizipation. Ich werde darum diese Grundlagen in meiner Beschäftigung mit digitalen Figuren wieder aufgreifen und dort die Frage behandeln, wel- chen Einfluss die technischen Verfahren und ihre abbildungstheoretischen Implikation en auf die emotionale Interaktion mit dem Zuschauer ausüben. Ähnlich verhält es sich mit den Umwelten: Der Times Square in Man- hattan in Spider-Man, die historischen Stadtteile von Chicago in I, Robot (USA 2004, Alex Proyas), die U-Bahn-Station in The Matrix – alle diese Schauplätze sind von den Spuren ihrer Entstehungsgeschichte geprägt und bringen teilweise einen Mehrwert ein, der sich unmittelbar aus ihrem öffentlichen Status ergibt. So dockt die Darstellung des Times Square über das «wiedererkennende Sehen» im Sinne von Max Imdahl32 an ein allge- meines Weltwissen an, das die spezifische Stellung des Schauplatzes in die Konstruktion der Diegese einbringt; sie gewinnt damit eine andere Aura der Authentizität als mit einem rein fiktiven Ort der Handlung. Die spezi- elle Fluktuation zwischen realem und virtuellem Raum ist ein besonderes Merkmal dieser Technik, die man mit dem Begriff des Sampelns von Realität wohl am besten erfasst: dem Abtasten von Abbildungsgegenständen, die sich anschließend in beliebiger Weise synthetisieren lassen. Im Gegensatz zum bildbasierten Modellieren unterscheiden sich die anderen genannten Aufzeichnungsverfahren darin von der Fotografie, dass sie weniger Parameter erfassen als diese: entweder nur die Farbdistri- bution der Oberfläche wie bei fotografischen Texture Maps; mit der bildba- sierten Beleuchtung nur die Beleuchtungsparameter; mit Motion Capture ausschließlich spezifische Bewegungsdaten im Raum; mit Rotoskopieren die Veränderungen der Form; mit Travelling Mattes nur die zweidimen- sionalen Umrisse oder mit 3D-Scanning nur die statische Form. Es sind also alles mäßige bis extreme Reduktionen der aufzuzeichnenden Aus- gangsdaten, in denen die Selektion relevanter Aspekte durch Filterung und Protokolle der Datentransformation weit stärker in den Abbildungs- prozess eingreifen als bei der Fotografie. Eine solche Transformation durch Filterung ist schon bei Mareys bereits geschilderten Chronofotografien (→ 145) zu beobachten, der – wie Gunning (1995: 124) schreibt – «strove to overcome the chaotically overspecific imagery of ordinary photogra- phy»,33 um die essenziellen Elemente der Bewegung zu isolieren. Ist – wie oben beschrieben – die Position der gänzlich natürlichen Abbildung durch 32 Max Imdahl hat den Begriff 1980 in einem Aufsatz über Giotto erstmals geprägt: Kontingenz – Komposition – Providenz. Zur Anschauung eines Bildes von Giotto. In: Anschauung als ästhetische Kategorie. Neue Hefte für Psychologie, Nr. 18/19, S. 151–177. 33 … «sich bemühte, von der chaotisch übergenauen Darstellung gewöhnlicher Fotogra- fien abzukommen». 310 Abbildung den kinematografischen Apparat nicht haltbar, so erscheint sie doch im Vergleich mit den hier beschriebenen Verfahren als weitaus transparenter. Alle diese Verfahren lassen sich in einem Raster zwischen Ähnlich- keit und Abstraktion ansiedeln. Der Begriff Ähnlichkeit (similarity) wird besonders von Goodman (1968, 1972) als überflüssig kritisiert. Denn damit sich Ähnlichkeit feststellen lässt, müsse immer auch der Bezugsrahmen berücksichtigt werden: Ähnlich in Bezug auf was? Goodman (1968: 3) schlägt deshalb vor, eine andere Begrifflichkeit zu verwenden, nämlich zu sagen, dass ein Bild, das einen Gegenstand repräsentiert, ihn denotiere. Na- türlich hat Goodman gute Gründe, eine solche Begriffsschärfung einzufor- dern, denn offensichtlich ist die Zeichnung eines Baums in gewisser Weise einem Baum nicht ähnlich. Ich schließe mich aber dennoch Blacks (1972: 136 ff.) gemäßigter Version von Goodmans Kritik an und schlage vor, zu- nächst trotz dieser Einwände vom gemeinverständlichen Begriff der Ähn- lichkeit auszugehen. So situiert Black (138 f.) diesen Begriff in einem Feld «des Vergleichs und des Zusammenpassens». In diesem Raster lassen sich verschiedene Spielformen differenzieren, die von ununterscheidbar über gleichartig bis hin zur punktuellen Entsprechung reichen. Ob zwei Gegen- stände als einander ähnlich eingestuft werden, hängt laut Black (139) vom Gesamtzweck des Vergleichsvorgangs ab. Carroll (1988: 132) weist als Rahmen der Ähnlichkeitsdebatte in der filmischen Repräsentation dem Wiedererkennen (recognizability) einen zentralen Stellenwert zu.34 Der Bildausschnitt einer weißen Wand mag dieser weißen Wand ähnlich sein, aber er repräsentiert sie nicht, weil wir die Wand nicht erkennen. Um einen Effekt des Wiedererkennens sicherzu- stellen, der im Sinne der Anschlussfähigkeit nach Luhmann eine notwen- dige Voraussetzung für den kommunikativen Akt darstellt, sind also zwei Faktoren notwendig: einerseits der bereits beschriebene Bezug auf eine mentale Repräsentation im Langzeitgedächtnis oder, wie erwähnt, zumin- dest eine punktuelle oder kategoriale Anbindung an bereits bekannte Ob- jekte; andererseits muss man die Aufnahmedistanz an die Dimensionen des Wahrnehmungssystems anpassen. Sobald man aber den Rahmen der gewohnten fotografischen Abbildung verlässt und sich mit den anderen Aufzeichnungsverfahren befasst, wird die Frage nach dem Wiedererken- nen schwierig. Inwiefern und unter welchen Bedingungen lässt sich eine fotogra- fische Textur oder ein Bewegungsmuster, das durch Motion Capture aufgezeichnet wurde, wiedererkennen? Von einer fotografischen Textur kann man nur dann sagen, dass sie ein Wiedererkennen auslöst, wenn 34 In ähnlicher Weise ist Max Imdahls Begriff «wiedererkennendes Sehen» zu verstehen. Aufzeichnung und Modellbildung, Malen und Messen 311 sie ein sehr eigenes, typisches Muster wiedergibt – zum Beispiel die Maserung eines Holzes, eine Granitoberfläche, ein Leder. Meist sind al- lerdings enge Begleitfaktoren notwendig, welche das Wiedererkennen stützen, so einzelne Shader, welche die Oberflächeneigenschaften weiter präzisieren, eine bestimmte Abbildungsdistanz oder das Zusammenspiel zwischen Material und Form. Besonders dann, wenn alle Parameter auf ein einziges Objekt hinweisen, ist die Möglichkeit des Wiedererkennens gegeben. Wenn also eine Figur dreidimensional gescannt, ihre Oberfläche fotografisch erfasst und ihre Bewegungsmuster mittels Motion Capture aufgezeichnet werden, verdichten sich die fragmentierten Merkmale zu einer Identität, die mit der Vollständigkeit der Darstellung sogar über die fotografische Aufzeichnung hinausgehen und einen ähnlichen Status wie das bildbasierte Modellieren gewinnen kann. In solchen Fällen summieren sich die punktuellen Entsprechungen zwischen der Abbildung und ihrem Gegenstand auf, und es bilden sich zwischen den einzelnen, isoliert aufge- zeichneten Merkmalen Verknüpfungen aus. Nur zur Konstruktion von digitalen Doubles ergeben solche Ver- bünde Sinn – also dann, wenn es darum geht, die fotografische Aufnahme in einem kontinuierlichen Verlauf von der Live-Action-Aufnahme un- merklich in die Sphäre außermenschlicher Fähigkeiten zu überführen. In der Mehrzahl aller Fälle geht es jedoch darum, mit einem abweichenden Verfahren eine Differenzqualität einzuführen, also beispielsweise eine Figur nicht mittels Motion Capture, sondern mittels Keyframe-Animation mit einem Verhalten auszustatten, zu dem sie in der physikalischen Welt nicht in der Lage ist. Hier sei zunächst nur festgehalten, dass diese punk- tuellen, teilweise sogar schon abstrakten Aufzeichnungen, die nurmehr ein sehr eingegrenztes Arsenal an Merkmalen erfassen, den Zweck haben, die Figur oder das Objekt in der physikalischen Welt zu verankern, ihr eine organisch wirkende Anmutung zu verleihen. Damit geht aber auch immer eine Beschränkung einher, denn die durch Aufzeichnung gewonnenen Daten können immer nur jene Aspekte erfassen, die in der physikalischen Welt auch wirklich vorhanden sind und dem definierten Filterungsprozess entsprechen – also in Motion Capture nur die Gelenkmarkierungen, nicht aber andere Teile der Bewegungsmus- ter, die total ausgeblendet werden. Entspricht die Transformation durch fotografische Aufzeichnung noch in gewisser Weise einigen Grundeigen- schaften des visuellen Wahrnehmungssystems, produziert sie also inner- halb ihrer eigenen Konventionen ein hohes Maß an Ähnlichkeit, verdünnt sich dieser Effekt mit zunehmender Filterung und verdichtet sich damit zu abstrakter Information. Mehr und mehr wird die mechanische Automation der Aufzeichnung durch menschliche Intentionen bestimmt, um explizite 312 Abbildung Daten zu gewinnen, die unabhängig von der Aufnahmeperspektive ein- deutige Positionen im Raum beschreiben, mithin einem abstrakten System zuzuordnen sind. Diese Daten stehen neben analogen Bildteilen, trans- formieren sich in sie oder werden aus ihnen extrahiert. Mit diesen mehr- schichtigen Konstruktionsverfahren im Bild erscheinender Objekte, Figu- ren und Orte werde ich mich im nächsten Abschnitt weiterbeschäftigen. Modellbildung Wann immer vom ‹digitalen Bild› die Rede ist, sind eigentlich Bilder gemeint, die über Verfahren der Modellbildung entstanden sind. Wie in keiner anderen Kategorie von Verfahren drückt sich in ihr eine Essenz des Digitalen aus, die Flusser (1985: 14) das «dimensionslose, einge- bildete Universum der technischen Bilder» nennt. Damit beschreibt er eine zunehmende Abstraktion der Informationsmedien, die er nicht als Verlust, sondern als Annäherung an das eigentliche Ziel der Information versteht – weg von der ursprünglich taktilen Form zu einer Sublimierung, einer Konzentra tion auf das «immaterielle Substrat der menschlichen Einbildungskraft» (39 f.). Gemäß Böhme et al. (2000: 195) ist in Flussers Reflexionen über diesen technisch-kulturellen Umbruch eine «eschato- logische» Dimension auszumachen, die Erlösung des Menschen von der Erdenschwere des Daseins qua Gestaltung virtueller Realitäten. Nun ist diese Interpretation zwar gewagt, aber inspirierend. Immer- hin manifestieren sich darin zwei fundamentale Eckdaten des Model- lierens, die es von den Aufzeichnungsverfahren radikal unterscheiden – nämlich eine potenziell totale Freiheit und damit die Konzentration auf die menschliche Geisteskraft als Ursprung der Bilderzeugung. Während die Aufzeichnungsverfahren immer von einem Abbildungsgegenstand und dessen Verhalten innerhalb der Naturgesetze ausgehen, stehen am Anfang der Modellbildungsverfahren Erkenntnisse, Ideen und Imagina- tionen, die sich über exakt definierte Modelle, Skripte und Algorithmen realisieren und zum Bild werden können. Modellbildungsverfahren imi- tieren nicht – wie die Aufzeichnung – Wahrnehmungen, sondern gehen von abstrakten Konzeptionen aus, die sie zu Bildern werden lassen. In der von Flusser angesprochenen eschatologischen Dimension spie- gelt sich ein uralter Traum der Menschheit, nämlich der Sieg des Geistes über die Materie, die platonische Vorstellung einer reinen Idee. Gleichzeitig schwebt über diesen Verfahren die dunkle Ahnung von einer Simulation im Baudrillardschen Sinn, einer Abbildung ohne Referenten. Unabhängig von jeder ideologisch gefärbten Interpretation erscheint die Modellbil- dung gekennzeichnet durch eine maximale Autonomie gegenüber den Aufzeichnung und Modellbildung, Malen und Messen 313 Erscheinungsformen der physikalischen Welt, die sie dazu befähigt, deren Limitierungen zu überwinden. In dieser Hinsicht sind Ähnlichkeiten zu textuellen Konstruktionen auszumachen – zuallererst zu Konstruktionen mittels Schrift und in zweiter Linie zu fiktionalen Konstruktionen mittels bildlicher Verfahren. Offensichtlich ist die Versuchung groß, Analogien zur Schrift und zur Sprache zu bilden – eine Vorstellung, die allgemein den Vorstoß in die Domäne des Digitalen mit der Rückkehr der Schrift verbin- det. Allerdings hat Goodman schon 1968 (40 f.) davor gewarnt, ein Abbil- dungssystem eine Sprache zu nennen, weil Beschreibungen niemals Bilder werden – und auch die entsprechenden semiotischen Versuche, Bilderver- bünde als Sprache zu thematisieren, sind gescheitert. Schon im Kapitel Di- gitale Bilder (→ 40) habe ich mich Manovichs Ansicht angeschlossen, dass das digitale Bild aus zwei Schichten bestehe: einer Oberfläche und einem darunterliegenden Code. Die Autonomie der Beschreibung ist somit zwar auf der Ebene des Codes, nicht aber auf der Ebene des Bildes vorhanden. Mit dem Autonomiegedanken verbunden ist die Auffassung von einer unendlichen Schöpferkraft: Alles, was der geistigen Vorstellung zu- gänglich ist, lasse sich auch als Bild materialisieren. Diese Idee entspricht dem religiösen Schöpfungsgedanken, ‹etwas› aus dem Nichts zu kreieren. Wie Stafford (1991: 239 ff.) überzeugend darstellt, lässt sich vom Barock bis zur Aufklärung die Suche nach fundamentalen Prinzipien der Schöpfung in der Naturwissenschaft, der Kunst und der Philosophie verfolgen, die sich in der neuplatonischen Idee eines von allem Zufälligen gereinigten Schönen kristallisierten: «Neoclassical art theory and Enlightenment ratio- nalist philosophy and physiology came together on the major question of what organized beings, or indeed, any creations»35 (249). Diese Überlegun- gen haben sich bei Johann Joachim Winckelmann in seiner frühen Publika- tion Gedanken über die Nachahmung der griechischen Werke in der Malerei und Bildhauer-Kunst (1754) als Grundlagen des Neoklassizismus kondensiert: Die Kenner und Nachahmer der griechischen Werke finden in ihren Meister- stücken nicht allein die schönste Natur, sondern noch mehr als Natur, das ist, gewisse idealische Schönheiten derselben, die, wie uns ein alter Ausleger des Plato lehret, von Bildern bloß im Verstande entworfen, gemacht sind. (Winckelmann 1754) Urbild der griechischen Kunst waren gemäß Winckelmann rein mentale Modelle, die den künstlerischen Werken eine abstrakte Perfektion verlie- 35 «Die neoklassizistische Kunsttheorie und die rationalistische Philosophie der Aufklä- rung und der Physiologie waren sich in der grundlegenden Frage nach den Organisa- tionsprinzipien lebendiger Wesen oder sogar alles Kreatürlichen einig.» 314 Abbildung hen, welche die Schönheit der Natur transzendierte. In der Nachahmung der griechischen Werke sah er eine Möglichkeit, die Hässlichkeit der zeit- genössischen, degenerierten spätbarocken Kunst zu überwinden und ein neues, klassisches Ideal zu verfolgen. Die Schönheit der griechischen Kunst folgt unmittelbar aus dem Stellenwert, den die Schönheit in der griechi- schen Kultur allgemein einnahm und die namentlich durch die Arbeit an der Perfektionierung des Körpers durch sportliche Disziplin entstand. Diese in der Natur «zerstreute» Schönheit muss der Künstler durch geistige Tätigkeit bündeln und in sein Werk einbringen. «Die sinnliche Schönheit gab dem Künstler die schöne Natur; die idealische Schönheit die erhabenen Züge: von jener nahm er das Menschliche, von dieser das Göttliche» (1754). Natürlich kann es hier nicht darum gehen, die Modellbildungspro- zesse in die Tradition des Neoklassizismus zu stellen. Vielmehr wird für mich aus der Konfrontation mit diesen Vorstellungen deutlich, dass in ihnen ganz andere Beziehungen zwischen Materie und Geist, Natur und Kunst auszumachen sind als heute gelten. Nicht in der Natur manifestiert sich das Göttliche, sondern in der immateriellen Idee einer perfekten Schön- heit, die auf der rationalen Ordnung allgemein gültiger Prinzipien beruht. In der Modellbildung finden sich ganz ähnliche Verfahrensweisen, wie sie Winckelmann für die griechische Kunst annimmt: die Suche nach allgemein gültigen Regeln durch Analyse der natürlichen Erscheinun- gen – und ihre Kondensation im Modell durch Synthese. Zwar habe ich Kittlers Diktum, dass alle existierende Computergrafik auf Idealisierun- gen beruhe, kritisiert, indem ich den ästhetischen Begriff der Idealisierung durch den mathematischen der Approximation ersetzt habe. Der zweite Halbsatz dieses Zitats aber, nämlich dass der Begriff Idealisierung in der Domäne der Computergrafik wie ein Schimpfwort fungiere, hat durchaus seine Berechtigung. Denn die prinzipiell abstrakten, auf mathematisch definierten, expli- ziten Beschreibungen fußenden Konstruktionsregeln der Modellbildung tendieren dazu, generische Prototypen hervorzubringen. Während Jahr- zehnten war die Ästhetik dieser Bilder von allzu ebenmäßig erscheinen- den, einfachen Objekten geprägt, die oftmals unzureichend als ‹zu per- fekt› beschrieben werden. Unzureichend deshalb, weil der Begriff der Per- fektion speziell in der Geschichte der ästhetischen Wahrnehmung schon immer durch ein fragiles Gleichgewicht von Ordnung und Komplexität bestimmt war (siehe dazu Kebeck 2006: 301 ff.). Dies betrifft im Wesentli- chen auch die von Winckelmann besungene Perfektion der griechischen Kunst, wobei dieses fragile Gleichgewicht von Ordnung und Komplexität einem historischen Wandel unterliegt. Mit dem gesellschaftlichen und wissenschaftlichen Umbruch, der sich unter anderem in den aufkommen- Aufzeichnung und Modellbildung, Malen und Messen 315 den komplexen physikalischen Theorien zu Beginn des 20. Jahrhunderts äußerte, ging eine Ära des ungetrübten, optimistischen Positivismus zu Ende, und damit änderte sich dieses Verhältnis nachhaltig. Kandinsky setzte sich mit diesen Veränderungen in seinem einfluss- reichen Werk Über das Geistige in der Kunst (1910) auseinander. «Unsere Seele» – so schreibt er – «birgt in sich Keime der Verzweiflung, des Nicht- glaubens, des Ziel- und Zwecklosen. […] In unserer Seele ist ein Sprung, und sie klingt, wenn man es erreicht, sie zu berühren, wie eine kostbare in den Tiefen der Erde wiedergefundene Vase, die einen Sprung hat» (1910: 22). Diesem geistigen entsprach ein ästhetischer Umbruch in allen Künsten von der Musik bis zur Malerei. Auch in diesem Umfeld stand die Überwindung der materiellen Welt im Zentrum, sei es durch eine meta- physische Geistigkeit, sei es mit den formalen Mitteln der Abstraktion oder Atonalität. Kunst soll Überzeitliches ausdrücken, soll Systematiken entwi- ckeln und mentale Gesetzmäßigkeiten finden, um Künstler und Rezipienten zu einer höheren geistigen Klarheit zu führen. (Brinckmann 1997: 249 f.) Es war die Aufgabe der Kunst, im Betrachter ein inneres Vibrieren auszu- lösen. Nach Kandinsky ist der seelische Austausch zwischen Werk und Betrachter dann vollkommen, wenn sich beide auf einer höheren geistig- seelischen Ebene treffen. Er postulierte einen Umbruch vom Ideal des Ebenmaßes zu dem der Dissonanz, welche die innere Verfassung des mo- dernen Menschen stimmiger ausdrückte und in welcher er die Konsonanz der Zukunft sah. Gemäß Stafford (1991: 236) hatte dieser Umbruch seine Wurzeln bereits in der Romantik: «For the Romantics, apparent surface disorder, enigmatic deficiency, and dark disguise were metaphors for […] the absent One.»36 Mehr als 20 Jahre nach Kandinsky sieht Benjamin in der «Chockwirkung» des Films einen adäquaten Ausdruck dieser technischen Kunstform für die Kondition des modernen Menschen: Die «Rezeption der Zerstreuung», die sich mit wachsendem Nachdruck auf allen Gebieten der Kunst bemerkbar macht und Symptom tief greifender Veränderungen der Apperzeption ist, «hat am Film ihr eigentliches Übungsinstrument» (1936: 41). Nun greifen weder der historisch überholte Perfektionsbegriff Win- ckelmanns noch dessen modernere Varianten bei Kandinsky oder Benja- min und anderen, um die Anmutung von Computergrafik zu beschreiben, und das hat verschiedene Gründe. Meine erste These lautet, dass diese An- 36 «In der Romantik galten chaotische Oberflächeneigenschaften, rätselhafte Mängel oder dunkle Geheimnisse als Metaphern für […] den großen Abwesenden.» 316 Abbildung mutung zumindest bis dato grundsätzlich nicht – also in keinem historisch verorteten Bewertungssystem – perfekt zu nennen ist, weil sie tendenziell ästhetisch verarmt erscheint. Es wäre deshalb zutreffender, diese Anmu- tung als ‹zu geordnet› zu beschreiben. Das Übermaß an Ordnung mindert den hedonistischen Wert der ästhetischen Erfahrung und wirkt gleich- zeitig als penetranter Hinweis auf den Aspekt des Gemachten, des ord- nenden Eingriffs einer menschlichen Instanz. Ein mathematisch perfekter Kreis ist kein ästhetisch perfekter Kreis – genauso wenig wie ein phy- sikalisch perfekter Sinuston als ästhetisches Klangereignis bewertet wird. Erst die Spannung zwischen Ordnung und Komplexität macht aus einem einfachen optischen oder akustischen Objekt ein ästhetisches Objekt. In Winckelmanns Theorie manifestiert sich diese Spannung in der Überlagerung des geistigen Ordnungssystems über ein natürliches Phä- nomen: die Subordination der Natur unter den Eingriff des menschlichen Geistes, die sich sowohl in der Bewältigung des Materials, des zu behau- enden Steins, als auch in der Überhöhung des Zufälligen der Natur in die erhabene Sphäre der reinen Schönheit manifestiert. In Kandinskys oder Benjamins Konzeption gewinnt diese Spannung zwischen Urbild und Abbild noch weitaus größere Bedeutung. So beruht die «Chockwirkung» des Films auf der sezierenden Tätigkeit der Kamera, welche die Erschei- nungen der Natur zerlegt und sie in der Montage neu zusammenfügt. Deshalb gleicht die Betrachtung eines Films einer Reise durch Trümmer- landschaften (Benjamin 1936: 36). Kandinsky will die zentripetalen Kräfte der Abstraktion der inneren Notwendigkeit unterwerfen, um deren unge- heure Spannung in ästhetische Ereignisse zu transformieren. Eine solche Spannung sucht man in der Modellbildung der Compu- tergrafik vergebens. Dieser Umstand wird vielfach dem Mangel an Wider- stand zugeschrieben, den das Medium Computer aufgrund der Immateria- lität seiner Daten der kreativen Tätigkeit biete – eine Auffassung, der ich mich nicht anschließe. Zwar unterscheidet sich der Widerstand eines Com- puter-Interface von einem zu behauenden Stein beträchtlich, und auch der Widerstand einer leeren Leinwand ist von anderer Beschaffenheit. In der fotorealistischen Computergrafik liegt dieser Widerstand in der verarmten Ästhetik der digitalen Modelle selbst, die unendlich bearbeitet werden müssen, bis sich Oberflächen bilden, die über eine ansprechende Komple- xität und damit hedonistischen Wert verfügen. Zunächst ist immer alles reine Form ohne Sinn und ohne Ausdruck. So bildet sich in der 3D-Mo- dellierung um die Quader, Zylinder und Kugeln von mathematischer Präzision ein Vakuum, das zu füllen ist. Sie verfügen über eine Anmutung ohne sinnliche Details und ohne Tiefe, die ich als hyporeal bezeichnen würde. Dieses Vakuum resultiert direkt aus dem grundsätzlichen Mangel Aufzeichnung und Modellbildung, Malen und Messen 317 an Dimension und Geschichte der artifiziellen Objekte im dreidimensiona- len Koordinatensystem. Oder anders ausgedrückt, Komplexität entsteht immer als Resultat eines Prozesses, das heißt einer Geschichte. Zwar gibt es Algorithmen, die über Prozesse Komplexität erzeugen, fraktale oder stochastische Programme, aber diese berechnete Komplexität mutet öde an, wenn sie nicht durch menschliche Intervention angereichert wird. Die fraktalen Landschaften, die das Programm Terragen produziert, sehen irgendwie immer gleich aus; die Pflanzen, die mit dem L-System (→ 67) erzeugt werden, erreichen erst ihre volle Gestalt, wenn seitenweise Codes geschrieben und die codierten Bausteine aufeinander abgestimmt werden. Und schließlich sind die Kreaturen der ALife-Programme (→ 139) bis dato noch auf niedere Lebewesen eingegrenzt. Der Mangel an Geschichte, der die ästhetische Dichte der Modelle schon prinzipiell bedroht, lässt sich auch in der Entwicklung der Com- putergrafik überhaupt feststellen, die erst vor vergleichsweise kurzer Zeit entstanden ist und ihr eigenes kulturelles Gedächtnis noch entwickeln muss. Die zunehmende Komplexität modellierter Objekte ist nicht nur das Resultat zunehmender Rechenkapazität, sondern auch menschlicher Entwicklungstätigkeit, des Verfassens, Verknüpfens und Umschreibens von Codes. Das lässt sich sehr schön an jenen Materialien beobachten, die sich aufgrund ihrer komplexen Eigenschaften sehr lange gegen Modell- bildungsverfahren gesperrt haben wie Wasser, Stoff, Haar und Pelz. Dort wurden immer erst relativ bescheiden wirkende Phänotypen entwickelt, die auf starker Selektion der eigentlich wirksamen Parameter beruhten. Erst im Laufe der Zeit gelang es, weitere Aspekte zu erfassen, zu analysie- ren und so zu parametrisieren, dass sie für die Verarbeitung am Computer zur Verfügung standen.37 In den Aufzeichnungsverfahren hingegen ist Geschichte in zweierlei Hinsicht immer schon vorhanden, nämlich in der profilmischen Welt und in der geschichtlichen Komponente des Aufzeich- nungsvorgangs an sich, in jenem affirmativen «es ist so gewesen» Roland Barthes’, einer Spur durchaus im Sinne Derridas und Ricœurs, welche die Gegenwart mit der Vergangenheit verknüpft. So werden diese Spuren auch «zur Ursprungsdimension» nicht nur von ästhetischer Dichte, son- dern auch von «Sinnhaftigkeit» (vgl. Angehrn 2001). Es fehlt dem Modell deshalb zunächst nicht nur die sensorische Kom- plexität, sondern auch der Sinn, der sich immer erst in Bezug auf etwas ergibt – auf ein Vorstellungsbild, ein Weltwissen, einen Kontext –, und die- 37 In diesem Sinne entwickeln Computergrafiken eine Geschichtlichkeit eigener Art, die sich in den sichtbaren technischen Limitierungen äußert. So lassen sich viele Bilder eindeutigen Perioden zuweisen: anhand der Oberflächeneigenschaften, der Animation oder der Beleuchtung. 318 Abbildung ser Bezug muss erst geschaffen werden. Im Gegensatz zur fotografischen Aufzeichnung nämlich ist das modellierte Bild zunächst leer. Der Visual Effects Supervisor Rob Legato, eine der herausragenden Figuren seines Metiers, beschreibt diesen Aspekt sehr anschaulich: Say you are looking out of this window […]. That building which was built in 1910 is right next to a building that was built in the 1960s. There’s a palm tree over there that has been there a long time. Everything out there has a story to it. When people create a synthetic background, there is no backstory. They don’t put in the 1910 building because they don’t think of it. They don’t put in the 1960s building because it looks kind of funky. The palm tree, you might put it there, but it would be art-directed to be in just the right place […].38 (Legato in cinefex 100: 57) Das modellierte Bild braucht deshalb wie die Aufzeichnung eine doppelte Geschichte, nämlich eine fiktionale Geschichte, eine Back-Story, die sich in einer Konzeption kondensiert, damit das modellierte Objekt eine Indivi- dualität erhält, und einen Arbeitsprozess, der dem prototypischen Modell die ihm eigenen charakteristischen Details verleiht. Dieser Arbeitsprozess, der sowohl aus geistigen Prozessen der Erfindung (inventio) als auch aus manuellen Prozessen der Anwendung von implizitem oder explizitem Wissen bestehen kann, verändert die Form, aber auch die Oberflächen- eigenschaften auf der Basis der Konzeption. Dabei handelt es sich im buchstäblichen Sinn um eine Überlagerung von Schichten, den Shadern, die dem Modell seine materiellen Eigenschaf- ten zuweisen, und den Texture Maps, die eine spezifische Farbdistribution definieren. In diesem Prozess der Modellbildung müssen Tausende ato- misierter Merkmale in eine übergeordnete Struktur integriert werden. Mit Ausnahme jener wenigen prozeduralen Systeme werden alle diese Aspekte losgelöst voneinander meist in strikt arbeitsteiligen Verfahren von einem Heer unterschiedlicher Spezialisten aufgebaut. Wenn aber diese Merkmale in ihre Komponenten zerfallen und sich zwischen ihnen keine schlüssigen Verbindungen einstellen, wird es nicht gelingen, ein ganzheitliches Objekt, geschweige denn eine Figur mit individualisierten Zügen zu entwerfen. 38 «Nehmen wir an, Sie schauen aus diesem Fenster […]. Jenes Gebäude von 1910 befin- det sich unmittelbar neben einem Bau aus den 1960er-Jahren. Die Palme steht schon eine Ewigkeit dort. Alles, was Sie sehen, hat eine Geschichte. Wenn man jedoch einen künstlichen Hintergrund am Computer erstellt, fehlt eine solche Geschichte. Man kommt nicht auf die Idee, ein Gebäude einzufügen, das um 1910 entstanden ist, und man erfindet keinen Bau aus den 1960er-Jahren, denn er sieht irgendwie fehl am Platz aus. Vielleicht würde man eine Palme kreieren, aber sie wäre perfekt gestylt und würde genau am richtigen Platz stehen.» Aufzeichnung und Modellbildung, Malen und Messen 319 Die grundlegenden Eigenschaften Transmission und Modularität digi- taler Informationen sind in spezieller Weise geeignet, diese fragmentier- ten, teilweise abstrakten Informationen miteinander zu verknüpfen und zu verändern. Es sind also Prozesse der Komposition und Dekomposition, die nicht nur fundamentale Aspekte der digitalen Analyse und Synthese, sondern ganz allgemein Bausteine des menschlichen Verstehens und der Vorstellung sind: Much but by no means all worldmaking consists of taking apart and putting together, often conjointly: on the one hand, of dividing wholes into parts and partitioning kinds into subspecies, analyzing complexes into component features, drawing distinctions; on the other hand, of composing wholes and kinds out of parts and members and subclasses, combining features into com- plexes, and making connections.39 (Goodman 1978: 7) «The amount of labor involved in constructing reality from scratch makes it hard to resist the temptation to utilize preassembled standardized objects»,40 folgert Manovich (2001: 197).41 Solche Datenbanken ergeben durchaus Sinn, wenn es um die Darstellung standardisierter Produkte geht – den Bürostuhl einer bestimmten Marke oder das Auto eines be- stimmten Typs –, nicht jedoch, wenn die individuelle Anmutung selbst Teil der Ausdrucksfunktion wird wie bei einer Figur oder der Konstruk- tion einer fiktiven Umwelt. Des Weiteren sind Datenbanken sinnvoll, wenn es um Grundcharakteristiken bestimmter Materialien – Shader, Texture Maps – geht, die sich aus der Datenbank holen und weiterbear- beiten lassen. Eine weitere Anwendung von Datenbanken ist die Übertragung vorfabrizierter Datensets auf ein individuell modelliertes Objekt oder eine Figur – so die systemischen Interaktionen der verschiedenen Gesichts- 39 «Bei der Welterzeugung besteht vieles, aber keineswegs alles aus Zerlegung und Zu- sammenfügung, häufig aus beiden zugleich: einerseits der Aufteilung von Ganzen in Teile und der Unterteilung von Arten in Unterarten, der Analyse von Komplexen in charakteristische Bestandteile sowie darin, Unterscheidungen zu treffen; andererseits aus der Zusammensetzung von Ganzheiten und Arten aus Teilen, Gliedern und Unter- klassen, aus der Kombination von Merkmalen zu Komplexen und dem Herstellen von Verbindungen.» 40 «Eine realistisch wirkende Szene von Grund auf zu konstruieren, erfordert so viel Arbeit, dass die Versuchung groß ist, auf standardisierte, vorfabrizierte Objekte oder Figuren zurückzugreifen.» 41 Als Beispiele führt Manovich http://www.activeworlds.com/ und http://www. worlds.com an. Beide Websites bieten hervorragendes Anschauungsmaterial dafür, wie weit entfernt die Ästhetik dieser vorfabrizierten Objekte, Figuren und Welten von den Anforderungen fiktionaler Filmgestaltung sind. 320 Abbildung partien nach dem Facial Action Coding System (FACS)42 von Ekman und Friesen (1978), mit dem ich mich im Kontext der digitalen Figur genauer beschäftigen werde (→ 446). Solche Datenbanken lassen sich als Archive von zu Wissensstrukturen geronnener Arbeit verstehen, also durchaus als Fundus eines kulturellen Gedächtnisses in der Domäne der Modellbil- dung. Schon in meinen Untersuchungen zum Sound Design habe ich diese Tendenz digitaler Verfahren festgestellt, aus der Natur gewonnene Daten als Rohmaterial zu verwenden, die Welt sozusagen in ihre Bestandteile zu zerlegen und unter neuen Gesichtspunkten wieder zusammenzusetzen. Mit allen diesen Überlegungen ist noch nichts gesagt worden über die Repräsentationsfunktion der Modellbildung im Kontext der filmi- schen Fiktion. Was sind ihre Eigenheiten, insbesondere im Vergleich zu traditionellen Standardverfahren der fotografischen Aufzeichnung? Als Ausgangspunkte der Debatte eignen sich zunächst zwei Begriffsfelder, nämlich das Kontinuum zwischen Ähnlichkeit und Abstraktion (→ 310) und die Type/Token-Unterscheidung im dreistufigen Modell nach Beards- ley (→ 303). Produzieren fotografische Aufzeichnungen innerhalb ihrer eigenen Konventionen und unter der Voraussetzung, dass die Standardverfahren eingehalten werden (Black 1972: 120), a priori eine mehr oder weniger deutliche Analogie zu ihrem Abbildungsgegenstand, deren Prüfstein ge- mäß Carroll (1988) die Wiedererkennbarkeit ist, so gilt dies keineswegs für Modellbildungsverfahren. Eine solche Analogie muss vielmehr auf Umwegen hergestellt werden, selten durch empirische Beobachtung und Nachbildung eines Exemplars des zu modellierenden Gegenstands – zum Beispiel beim Modellieren in 3D oder bei der Arbeit an Shadern –, häufiger durch Extraktion von allgemein gültigen expliziten Regeln wie bei allen prozeduralen Verfahren, die sich als Modellbildung im engeren Sinne beschreiben lassen. Damit etwas modelliert werden kann, muss es erkannt und in seine Bestandteile zerlegt werden. «Was sich nicht definie- ren lässt, lässt sich nicht simulieren», meint Herken (1988: 137) kurz und bündig. Großklaus (1995: 136) geht noch weiter: «Simuliert aber kann nur das werden, was widerspruchsfrei und eindeutig verstanden worden ist.» Dieses Postulat ist jedoch nicht haltbar, denn die Parameter müssen nicht eindeutig verstanden werden. Das lässt sich sehr schön an den Flocking-Systemen zeigen, die mit einigen wenigen Regeln komplexe Verhaltensmuster von Gruppen simulie- ren. Diese Regeln gehen nicht aus dem eindeutigen Verständnis des Grup- 42 Das Facial Action Coding System beruht auf der Analyse des Gesichtsausdrucks anhand der darunterliegenden Muskelstruktur. Eine Reihe von Beschreibungen dieses Systems findet sich auf http://face-and-emotion.com. Aufzeichnung und Modellbildung, Malen und Messen 321 penverhaltens von Vögeln hervor, sondern lediglich aus einigen sinnvollen Parametern, welche es durch Approximationen erlauben, diese Muster nachzubilden. Zwar müssen die Naturphänomene analysiert und in quan- tifizierbare Variablen und Relationen zerlegt werden. Ob das aber auf der Basis von wissenschaftlich fundierten Einsichten oder aber lediglich auf der Basis von empirisch erfassten Gesetzmäßigkeiten geschieht, ist nicht entscheidend dafür, wie akzeptabel die Ergebnisse im Hinblick auf das Be- wertungssystem – im Falle von mimetischen Repräsentationen die mensch- liche Wahrnehmung – ausfallen. Die Parameter und Algorithmen müssen nur robust genug sein, um den spezifischen Anforderungen zu genügen. Damit unterscheiden sich die Anforderungen an die Modellbildung im Kontext filmischer Darstellungen grundlegend von den Anforderun- gen an Computersimulationen in der wissenschaftlichen Forschung, wie sie Humphreys (2004: 104 ff.) beschreibt. Will man Wasser als ruhige bis stark gewellte Oberfläche eines Meeres darstellen, müssen nicht sämtliche Aspekte irgendeines Verhaltens und irgendeiner Erscheinungsform von Wasser erfasst werden, sondern nur jene, die für das Ziel der Darstellung erforderlich sind. Immer gehen mit dieser Analyse und Selektion von Pa- rametern Verluste einher, eben weil die internen Bedingungen, ja sogar die Oberflächenstruktur der Objekte oder Materialien, nur innerhalb gewisser Rahmenbedingungen parametrisiert sein müssen. Diese Selektions- und Reduktionsprozesse sind von fundamental an- derer Natur als jene der Aufzeichnungsverfahren. Anders als dort fließen eben keine vorgeformten Entitäten in die Abbildung ein, sondern alles muss von Grund auf neu gebildet werden. Es finden sich darin Analogien zu natürlichen Wahrnehmungsprozessen und wissenschaftlichen Syste- men, deren Reduktionsprinzipien Goodman folgendermaßen beschreibt: And even within what we do perceive and remember, we dismiss as illusory or negligible what cannot be fitted into the architecture of the world we are building. The scientist is no less drastic, rejecting or purifying most of the entities and events of the world of ordinary things while generating quan- tities of filling for curves suggested by sparse data, and erecting elaborate structures on the basis of meager observations.43 (Goodman 1978: 15) 43 «Sogar in den Bereich dessen, was wir tatsächlich wahrnehmen und erinnern, greifen wir ein und schließen alles als Täuschung oder als vernachlässigbar aus, was sich der Architektur der Welt, die wir bauen, nicht einfügen lässt. Der Wissenschaftler verfährt nicht weniger drastisch, wenn er die meisten Dinge und Ereignisse, die in unserer All- tagswelt vorkommen, ausrangiert und einem Reinigungsprozess unterwirft, während er andererseits jede Menge Ergänzungen vornimmt, um Kurvenverläufe zu vervoll- ständigen, die durch verstreute Daten angedeutet werden, und auf dürftiger Beobach- tungsbasis komplizierte Strukturen errichtet.» 322 Abbildung Besonders ausgeprägt – so führt Goodman weiter aus – sind diese Re- duktionsprozesse in den digitalen Systemen, die durch Tilgung diskrete Stufen erzeugen. Mit den geistigen Operationen der Analyse, der Selektion und Re- duktion sowie schließlich der Synthese, die sich vor den Abbildungspro- zess schieben, verlagert sich das Referenzsystem von der äußeren Welt in die innere der mentalen Repräsentation, der Schemata und Skripte, mit deren Funktionsweisen ich mich im Folgenden beschäftigen werde. Eine Minimalvoraussetzung zur Modellierung eines Objekts, das die Grundlage des Wiedererkennens darstellt, ist die Bildung spezifischer physikalischer Reizeigenschaften, die in einer regelhaften, typischen An- ordnung angewandt werden müssen, um damit auf bereits vorhandenes Wissen Bezug zu nehmen. Für diese großen Wissenseinheiten hat die Kog- nitionspsychologie den Begriff Schema geprägt: [Schemata] umfassen sowohl abstraktes als auch konkretes Wissen. Schemata bestehen aus Variablen, die bestimmte Wertebereiche annehmen können. Exemplare eines Schemas lassen sich auf einem Kontinuum bezüglich ihrer Distanz zu einem Prototypen anordnen. (Kluwe 1990: 155) Jedes Objekt besteht in dieser Sicht aus einem Bündel von Merkmalen der Form, der Oberflächeneigenschaften, aber auch des Verhaltens im psychologischen und im zeitlichen Sinn, die es eindeutig charakterisie- ren. Einige dieser Merkmale sind immer vorhanden, also obligatorisch – andere beschreiben in differenzierter Form weitere Attribute, sind also fakultativ. Die obligatorischen Merkmale sind notwendig, damit sich ein Objekt identifizieren und damit wiedererkennen lässt: Es sind Invarianten. Fakultative Merkmale – manche Autoren (z. B. Eco 1979) verwenden auch den Begriff akzidentielle Merkmale – charakterisieren weiter gehende Eigen- schaften eines Objekts – etwa bestimmte materielle Eigenschaften. Haare beispielsweise sind ein fakultatives Merkmal einer menschlichen Figur, das sich in weitere fakultative Merkmale ausdifferenzieren lässt: Farbe, Dichte, Verteilung, Länge, Beschaffenheit. Ein Prototyp zeichnet sich dadurch aus, dass er die Komponenten in einem idealen Verhältnis in sich vereinigt. Prototypen liegen also in einer von allen Spezifika eines bestimmten Exemplars gereinigten Form als mentale Repräsentation vor und sind daher als Typ im Sinne der be- reits vorgestellten Type/Token-Unterscheidung zu verstehen. Um also ein bestimmtes Exemplar, ein Token, zu erzeugen, muss man sämtliche fakultativen Merkmale, welche es charakterisieren, dem Typ überlagern. Diese Merkmale entsprechen den Variablen in Kluwes Beschreibung. Aufzeichnung und Modellbildung, Malen und Messen 323 Von besonderer Bedeutung im vorliegenden Zusammenhang ist es, dass diese Variablen nur bestimmte Wertebereiche annehmen können, oder anders ausgedrückt: Es bestehen sowohl eine gewisse Flexibilität in den Kombinationsmöglichkeiten dieser Variablen als auch gewisse Grenzen. Dies betrifft insbesondere die Ausdifferenzierung von Merkmalskombina- tionen innerhalb der Grenzwerte Ähnlichkeit und Abstraktion. Ein Pinguin beispielsweise lässt sich mit allen Details nachbilden, als stilisierte Version im Stil eines Cartoons oder aber als Piktogramm. Es ist faszinierend, zu be- obachten, wie weit die Abstraktion gehen kann, ohne die Repräsentations- funktion und damit das Wiedererkennen zu gefährden. Ein sehr nützliches Rahmenmodell, um diese Bedingungen und Funktionsweisen zu diskutieren, sind semantische Netzwerke, die in ver- blüffender Weise sowohl heutigen Konzeptionen der mentalen Verarbei- tung durch Wahrnehmung und Gedächtnis in neuronalen Netzen als auch den netzwerkartigen Strukturen entsprechen, welche die einzelnen Mo- dule computergenerierter Bilder, beispielsweise der Shader, aber auch der Skeletthierarchien oder der Parameter prozeduraler Verfahren, beschrei- ben.44 Solche semantischen Netzwerke kann man sich als Verknüpfungen von Propositionen vorstellen, wobei diese Propositionen wiederum Merk- male oder Bündel von Merkmalen repräsentieren (siehe Kluwe 1990: 155; Goschk e 1996: 361 f.; Kebeck 2006: 253 f.). Zur Diskussion bildlicher Reprä- sentation ist es jedoch sinnvoller, eine 1:1-Relation zwischen Propositionen und Merkmalen anzunehmen, in welcher jede Proposition lediglich ein Merkmal beschreibt.45 Diese Merkmale nun entsprechen im semantischen Netzwerk Knoten, zwischen denen Verbindungen bestehen. Nehmen wir als Beispiel für ein solches Netzwerk den Begriff Vogel, so lassen sich dessen obligatorische Merkmale durch folgende Propositionen beschreiben: ‹hat Flügel›, ‹hat einen Schnabel›, ‹hat Federn›, ‹hat zwei Füße», also Merkmale, die einen proto typischen Vogel, zum Beispiel eine Amsel, darstellen. Nehmen wir aber als Beispiel den Pinguin, so ergeben sich gewisse Differenzen zu dieser prototypischen Repräsentation, welche durch fakultative Merkmale wie ‹kann schwimmen›, ‹kann nicht fliegen› erfasst werden. Ein Biologe nun, der sich zeit seines Lebens mit Pinguinen befasst, kann noch sehr viel mehr 44 Diese verblüffende Konvergenz medialer und mentaler Repräsentationsformen lässt sich schon seit dem Auftreten des Films beobachten, indem Erinnerungen zunächst als Filme aufgefasst wurden (vgl. Kittler 2002: 30). Später wurde diese Vorstellung durch die Speichermetapher des Computers ersetzt, bis sie sich zur heutigen Form der neu- ronalen Netze weiterentwickelte. 45 Im Unterschied dazu werden für neuronale Netzwerke sehr klein dimensionierte Merkmale angenommen, so die Ausrichtung einer Kante oder die Farbe eines be- stimmten Punkts. 324 Abbildung differenzierende Merkmale ange- ben bis hin zur Unterscheidung zwischen einzelnen Token von Pin- guinen, denen er vermutlich sogar einen Namen oder zumindest eine Abstrakte Visualisierung des Daten- Nummer zuweist: Die Differenzie-1 raums in Swordfish rungsfähigkeit ist also eine Funk- tion der Erfahrung. Dies zeigt sich in der menschlichen Sphäre ganz allgemein in der ungeheuren Sensibilität für kleinste Unterschiede in Gesichtern, in denen sich jedes einzelne Merk- mal in eine Vielzahl von relevanten Details auffächert, die ein bestimmtes Gesicht im Sinne eines Tokens charakterisieren. Umgekehrt brauchen bei- spielsweise bildliche Darstellungen von Vögeln nicht alle obligatorischen Merkmale zu umfassen. Das Piktogramm eines Vogels wird im Allgemeinen einer Amsel ähneln und mindestens die Merkmale ‹Schnabel›, ‹Schwanz› und ‹Füße›, nicht aber zwingend die Darstellung der Federn umfassen. Durch kontextuelle Stützen wie beispielsweise Text oder durch exakt definierte Transformationsregeln kann diese Abstraktion noch weiter ge- trieben werden. So kann ein Simulationsprogramm für die Untersuchung der Migration einer Rentierpopulation in Finnland die einzelnen Tiere nur noch als Punkte auf einer Karte repräsentieren. Die Assoziation zum Abbil- dungsgegenstand – das Wiedererkennen, wenn man so will – wird damit arbiträr durch eine symbolische Funktion konstruiert, die jede Ähnlich- keitsbeziehung unterdrückt. «Any definable range of phenomena including definable characteristics of human psychology or social relationships can be given values und be mapped into a virtual, multidimensional space»46 (Le Grice 2001: 284). Solche Diagramme sind zwar ein Grenzfall bildlicher Dar- stellung, mit dessen Eigenschaften sich Goodman (1968: 170 ff.) beschäftigt, aber sie erinnern auch an die Herkunft des digitalen Displays aus dem Os- zilloskop, können also als Urform der digitalen Repräsentation betrachtet werden. Selbst die abstraktesten Darstellungsformen jedoch brauchen noch den Rekurs auf Schemata, um eine kommunikative Funktion auszuüben. Im Kontext filmischer Fiktion sind alle Spielformen des Kontinuums zwischen Ähnlichkeit und Abstraktion vertreten, von der abstrakten Dar- stellung mit kruden Visualisierungen (Abb. 1) bis hin zu ausdifferenzier- ten Darstellungsformen mit fotorealistischer Bildoberfläche (Abb. 2). Diese Abstufungen – besonders jene am abstrakteren Ende – sind meist mit narrativen Funktionen verknüpft, mit denen ich mich an ent- 46 «Jedes definierbare Spektrum von Phänomenen wie etwa exakt beschreibbare Charak- teristika der menschlichen Psyche oder sozialer Beziehungen kann mit Werten verse- hen und in einen virtuellen mehrdimensionalen Raum projiziert werden.» Aufzeichnung und Modellbildung, Malen und Messen 325 2 Perfekt fotorealistisch gerenderte Stadt in I, Robot sprechender Stelle beschäftigen werde; beispielsweise fungieren abstra- hierte Repräsentationsformen als Kommentare oder als medial gerahmte sekundäre Erzählstränge, die auf Monitoren erscheinen (→ 394). Modellbildungsverfahren bewegen sich aus zwei Gründen in erster Linie zu Abstraktionen und in zweiter Linie zur Produktion von Proto- typen: erstens wegen ihrer prinzipiell der Regelbildung verpflichteten Entstehungsform, also auf der Ebene ihrer internen Bedingungen, zwei- tens wegen ihres Rekurses auf mentale Repräsentationen, besonders Schemata, die – wie erwähnt – von akzidentiellen Merkmalen abstrahieren und den prototypischen Kern der Erscheinungen repräsentieren. Diese Verschränkung des technischen Prinzips mit kognitiven Funktionsweisen der Kommunikation erkannte der Internet- und Computerpionier JCR Licklider bereits 1968: […] modeling, we believe, is basic and central to communication. Any com- munication between people about the same thing is a common revelatory experience about informational models of that thing. Each model is a con- ceptual structure of abstractions formulated initially in the mind of one of the persons who would communicate, and if the concepts in the mind of one would-be communicator are very different from those in the mind of another, there is no common model and no communication.47 (Licklider et al. 1968: 22) 47 «Modellbildung – so glauben wir – ist ein grundlegendes und zentrales Element der Kommunikation. Denn jede zwischenmenschliche Kommunikation beruht auf einer Übereinkunft über die modellhaften Eigenschaften des kommunizierten Gegenstands. So ist jedes Modell eine abstrakte Struktur, die ihren Ursprung im Kopf eines der Kom- munikationspartner hat. Wenn dieses Konzept sich von demjenigen einer anderen am Kommunikationsprozess beteiligten Person unterscheidet, gibt es kein gemeinsames Modell, und daher ist auch keine Kommunikation möglich.» 326 Abbildung Modelle, die der Kommunikation dienen, müssen sich von individuellen Schemata unterscheiden, die gemäß Licklider mehr den persönlichen Hoffnungen und Wünschen entsprechen als dem kühlen Verstand. Er forderte deshalb «kooperative Modelle», also intersubjektive Schemata, die den Austausch von Informationen erleichtern. Allerdings stellte Lick- lider, dessen psychologischer Hintergrund in allen seinen Reflexionen zur Rolle des Computers in der Gesellschaft durchscheint, nicht die äs- thetische Kommunikation ins Zentrum seiner Überlegungen. Wie jedoch schon im Abschnitt Aufzeichnung deutlich wurde, sind die spezifischen Anforderungen und Funktionsweisen eines Repräsentationssystems von großer Relevanz für die Ausgestaltung eines bestimmten Abbildungsver- fahrens. Während also Aufzeichnungsverfahren im dreistufigen Modell von Beardsley (→ 303) als physikalische Porträts immer zunächst Token ab- bilden, die erst durch weitere Schritte der Kontextmodifikation zu Gene- ralisierungen oder zu nominalen Porträts werden, sind Modellbildungen immer zunächst Generalisierungen im Sinne eines Typs, der mittels Spezi- fikation fakultativer Merkmale zum Token ausdifferenziert werden muss. Damit fotorealistische Repräsentationen entstehen können, müssen also die genuinen Eigenschaften der Modellbildung durch Überlagerung von Schichten maskiert werden oder, anders ausgedrückt, ist die mimetische und ganz besonders die fotorealistische Repräsentation eine rein optionale Darstellungsform, die den Modellbildungsverfahren aus Gründen der medialen Tradition – des kulturellen Rahmens, in dem das Bild erscheint – aufoktroyiert wird. Die Konvergenz der technischen und formalen Prinzipien des Bild- aufbaus mit den Organisationsformen des kognitiven Systems bringt es mit sich, dass diese Bilder zur Eindeutigkeit tendieren. Alles ist in ihnen organisiert, alles wird der Planung und Intention unterworfen, alles kann und muss kontrolliert werden. Dieses Übermaß an Ordnung, deren ästhe- tische Unzulänglichkeiten ich schon beschrieben habe, sperrt sich auch in semantischer Hinsicht gegen die Fülle und damit auch gegen die Lust des Zuschauers, ein mehrdeutiges Strukturangebot zu erkunden. Diese Bilder verfügen a priori nicht über jenes Maß an innerer Unordnung, welche die aktive Interpretationstätigkeit herausfordern und das kognitive System füttern. Sie tendieren dazu, die Welt gewissermaßen schon vorverdaut zu präsentieren, und dies in einer viel tiefgreifenderen Art als in der von Bazin kritisierten Montage. Denn die Analyse und Konzeption jedes ein- zelnen Details, die notwendig jeder Modellbildung schon vorausgehen, greift bis in die Tiefe des Bildes. Der Visual Effects Supervisor Robert Sko- tak (cinefex 100: 65) beschreibt diesen Wandel als eine Verschiebung vom Aufzeichnung und Modellbildung, Malen und Messen 327 3 Xerox-Kopie von Piet Mondrians 4 A. Michael Noll: Computer Composition Komposition mit Linien With Lines Abbildungs- in den Illustrationsmodus, weil die Bilder zu einer überdeter- minierten Darstellungsweise neigen. Das Bild ist aus diesem Grund zunächst nicht polysemisch, sondern in erstickender Weise in jedem Pixel von Intention durchtränkt, denn es fehlen die zufälligen, leicht irrational wirkenden Abweichungen, welche die lebensweltlichen Erscheinungen prägen. There is something about serendipity and the ‹happy accident› that you can’t get on the computer. […] Every result must be thought of and programmed. It is often that unexpected happenstance that makes the shot real, and organic and truly satisfying.48 (VFX Supervisor Richard Edlund in Rogers 1999: 107) Mit allen Mitteln und auf mehreren Ebenen arbeiten die Visual-Effects-Spe- zialisten daran, ihre Spuren zu verwischen, um so etwas wie ein organisch wirkendes Nebeneinander von Geplantem und Zufälligem wiederherzu- stellen, das durch den mehrfachen Filterungs- und Selektionsprozess der physikalischen Ausgangsdaten ausgelöscht wurde. Im Rahmen der Modellbildungsverfahren haben sich verschiedene Strategien herausgebildet, den Zufall wieder zu implementieren. Die frü- heste Strategie betrifft den Einbezug stochastischer Algorithmen, mit de- nen sich der Computerkünstler A. Michael Noll schon in den 1960er-Jah- ren in jeder Hinsicht experimentell beschäftigte. Denn er arbeitete nicht 48 «Es gibt so etwas wie den ‹glücklichen Zufall›, den man am Computer nicht erzeugen kann. […] Jedes Ziel muss hier bedacht und programmiert werden. Aber es ist oft gera- de das zufällige, unerwartete Detail, das eine Einstellung realitätsnah wirken lässt und damit organisch und zutiefst überzeugend.» 328 Abbildung nur selbst mit solchen Algorithmen, in denen er das Fundament der Computerkunst überhaupt sah, sondern führte auch ein psychologisches Experiment durch, um den Einfluss des Zufalls auf die Bewertung des Bil- des zu messen. 1965 erzeugte er auf dem Computer eine Nachahmung von Piet Mondrians Bild Komposition mit Linien (1917, Abb. 3), das er Computer Composition With Lines (Abb. 4) nannte: «a computer-generated picture composed of pseudorandom elements but similar in overall composition to the Mondrian painting»49 (Noll 1967: 92).50 Von seinem Vorbild unterschied sich die Computerversion, indem sie die Bildbestandteile – horizontale und vertikale Linien – weniger geordnet verteilte. Anschließend stellte er von beiden Bildern Xerox-Ko- pien her und präsentierte sie 100 Probanden mit den Fragen, welches der Bilder sie bevorzugten und welches sie Mondrian zuschreiben würden. 59 % der Betrachter zogen das computergenerierte Bild vor, und nur 28 % identifizierten das Mondrian-Bild korrekt. Aus diesen Resultaten zog Noll (1967: 92 f.) den Schluss: «In general, these people seemed to associate the randomness of the computer-generated picture with human creativity wherea s the orderly bar placement of the Mondrian painting seemed to them machinelike.»51 Noll selber problematisiert die Reduktion des Mondrian-Bildes durch eine Xerox-Kopie, denn diese Reduktion eliminiert eines der wesentlichen Elemente künstlerischer Tätigkeit, nämlich die subtile Ausgestaltung der Bildoberfläche selbst. Insofern betrifft die Schlussfolgerung stärker den evaluierenden Anteil der Bildbetrachtung als die ästhetische Dimension – eine Verlagerung, die übrigens schon durch die Fragestellung selbst beför- dert wurde. Der Einbezug von stochastischen Variablen, später auch von Frak- talen, in die Modellbildung ist bis heute von großer Bedeutung für die Maskierung des computergestützten Entstehungsprozesses. Ganz abgese- hen von prozeduralen Verfahren, die fundamental auf diesen Parametern beruhen – so etwa die Partikel-Animation inklusive aller ihrer Ableger, Noise-Shader oder die L-Systeme –, kommen diese Variablen ins Spiel, wo immer es darum geht, eine komplexe Interaktion mehrerer Elemente 49 … «ein computergeneriertes Bild, das sich aus pseudozufälligen Elementen zusam- mensetzt, aber in der Komposition dem Gemälde von Mondrian ähnelt». 50 Eine Kurzfassung des Experiments findet sich in Noll (1967). Ursprünglich hatte er es bereits 1966 veröffentlicht: Human or Machine. A Subjective Comparison of Piet Mondrian’s Composition with Lines (1917) and a Computer-generated Picture. In: The Psychological Rec., Bd. 16, Januar 1966, S. 1–10. 51 «Im Allgemeinen schienen die Probanden die Zufälligkeit des computergenerierten Bildes mit menschlicher Kreativität in Beziehung zu setzen, während sie die geordnete Linienstruktur des Mondrian-Gemäldes als maschinell einstuften.» Aufzeichnung und Modellbildung, Malen und Messen 329 zu choreografieren: bei der Bildung von Städten, bei der Animation von Verkehrsströmen, bei der Farbverteilung von Autos, bei Explosionen usw. Im Gegensatz zur Anwendung bei Noll, die noch ganz der Abstraktion verpflichtet war, müssen sich Chaos und Zufall in diesen Applikationen der mimetischen Repräsentation unterordnen, unterliegen also anderen Randbedingungen. Mit den Mitteln der Artificial Intelligence kommen heute besonders in der Animation von Menschenmassen weitere Variablen ins Spiel, deren Grundlagen ich an anderer Stelle schon diskutiert habe (→ 139), welche die Kontrollfunktion der kreativen Instanz bereits mit Ansätzen eines freien Willens unterwandern, indem sie ursprünglich definierte Parameter aufgrund ihrer ‹Wahrnehmungsinhalte›, ihrer ‹Bedürfnisse› und interner Bedingungen ihres ‹kognitiven Systems› mit neuronalen Netzwerken oder Fuzzy Logic52 modifizieren, die in autonomen Agenten implementiert sind. Im Extremfall können sich diese künstlichen Geschöpfe sogar gegen die ursprünglichen Intentionen ihrer Erzeuger wenden, beispielsweise im Krieg davonlaufen – dies allerdings nicht ungestraft, denn noch haben die Erzeuger die Hoheit, solche Auswüchse mit einer Veränderung der Aus- gangsparameter kurzerhand zu stoppen … Eine weitere Strategie zur Maskierung des menschlichen Eingriffs unterliegt weniger der Intention des Einzelnen, als dass sie sich aus der Entwicklung der Technologie insgesamt ableitet. Sie betrifft die Opakisie- rung des Interface. Wir arbeiten mit einem opaken Interface, wenn wir am Computer schreiben. Dieses Interface, dessen Zugänglichkeit mit einer Metaphorik von ‹Seiten›, ‹Fenstern› und ‹Ordnern› gewährleistet ist, ver- birgt die harten mathematischen Operationen, die unter dieser Oberfläche ablaufen. Das war bis in die frühen 1980er-Jahre noch anders, als man zu- mindest eine einfache Programmiersprache wie Basic beherrschen musste, um mit dem Computer zu kommunizieren – bis zu Beginn des Jahrzehnts das bereits erwähnte Graphical User Interface, kurz GUI genannt, einge- führt wurde (→ 53) und langsam Verbreitung fand. Noch mehr Experten- wissen im Bereich der Informatik brauchte man bis in diese Zeit, um am Computer dreidimensionale Objekte zu entwerfen. Erst mit der Einfüh- rung und Verbreitung kommerzieller Softwares ab Mitte der 1980er-Jahre (→ 117) setzte ein Wandel ein, der mehr künstlerische Intuition erlaubte und damit stärker an traditionelle Methoden der Gestaltung anschloss. 52 Unter Fuzzy Logic versteht man ein logisches System, das im Unterschied zur Boole- schen Konzeption nicht nur die Zustände ‹wahr› oder ‹falsch› verarbeitet, sondern auch Zwischenwerte, die Aussagen wie ‹ungefähr› oder ‹ein bisschen› entsprechen. Eine gute Einführung findet sich auf http://www.iicm.tugraz.at/Teaching/the- ses/2000/_idb9e_/greif/node9.html. 330 Abbildung Dieser Umbruch hatte durchaus seine negativen Seiten. So beklagte zu Beginn der 1990er-Jahre die Jury des Prix Ars Electronica eine zunehmende Standardisierung der Wettbewerbsbeiträge, die stärker von den Möglich- keiten der verwendeten Software und weniger von künstlerischer Intention geprägt erschienen. Es handelt sich dabei allerdings um ein typisches Über- gangsphänomen, das immer in Zeiten sprunghafter technischer Innovation zu beobachten ist. Seit Mitte der 1990er-Jahre nämlich stehen die kreativen Intentionen wieder stärker im Vordergrund, viele Animationen zeigen eine eigene Handschrift. Indem jedoch der Visual Effects Artist seine Vorstel- lungen und Imaginationen nicht mehr hart codiert, sondern die hinter der Oberfläche verborgenen Parameter mit metaphorischen Werkzeugen – Pin- seln, Messern, Emittern – und immer komplexeren Einflussmöglichkeiten bearbeitet, gewinnt die Intuition wieder stärker die Oberhand. Gleichzeitig stellt sich ein Geflecht von parallel verlaufenden Einflüssen ein, von denen einige aus den Programmen selbst stammen, andere durch die spezifische Tätigkeit der kreativen Individuen zustande kommen, welche die vorhan- denen Tools in einer unvorhergesehenen Weise anwenden. Mit der Opaki- sierung des Interface geht also ein gewisser Kontrollverlust einher, welcher aber den happy accidents und der Vielfalt die Tore öffnet. Noch trifft Manovichs (2001: 196) Beobachtung zu, dass der Foto- realismus des modellierten Bilds hochgradig uneben, voller Lücken und weißer Flecken sei. Allerdings haben sich einige der von ihm erwähnten Lücken – die Darstellung von Haar oder Textilien – in der Zwischenzeit schon geschlossen. Zwar sind diese Probleme, wie er erwähnt, prinzipiel- ler Natur, weil sich diese Materialien aufgrund ihrer komplexen Eigen- schaften nur schwer modellieren lassen, nicht jedoch so fundamental, dass sie nicht überwunden werden könnten. Das hat sich in den letzten Jahren bei der Darstellung von Fell gezeigt, von Stuart Little (USA 1999, Rob Minkoff) bis King Kong (NZ 2005, Peter Jackson). Und noch sind die Konventionen der filmischen Konstruktion, in die das modellierte Bild eingefügt wird, stärker als die Eigenheiten dieses Bildes. Darum gilt gerade nicht, was Hoberg beschreibt: Computergenerierte Bilder reagieren auf das Unsinnlichwerden zentraler gesellschaftlicher Bereiche, auf die real anwachsende Abstraktion, durch ihre Abkehr von der Mimesis […]. Der ‹Wirklichkeitsverlust der Wahrnehmung› […] wird konsequent weiter entwickelt zur Produktion von technischen Bil- dern, die kein objektives Korrelat mehr haben. (Hoberg 1999: 212) Diese implizit an Baudrillards Simulationsbegriff anknüpfende Feststel- lung ist historisch nicht haltbar, denn in einigen Entwicklungen der Mo- Aufzeichnung und Modellbildung, Malen und Messen 331 dellbildungsverfahren wird eine zunehmende Anpassung an mimetische Repräsentationsformen sichtbar, so in den Render-Verfahren, aber auch bei vielen prozeduralen Techniken zur Erzeugung bestimmter Materialien wie Textilien oder Wasser.53 Noch problematischer ist allerdings der Hinweis, dass diese Bilder kein objektives Korrelat mehr hätten, verfügt doch selbst die abstrahierte Form des Diagramms noch über ein solches Korrelat – wenn auch die Ähn- lichkeitsbeziehung durch eine arbiträre Beziehung ersetzt wurde. So genü- gen Computersimulationen in verschiedenen Bereichen wissenschaftlichen Anforderungen, wie schon Mitchell (1992: 119) feststellte: als Beweisma- terial vor Gericht, zur Visualisierung von Architektur oder medizinischen Eingriffen.54 Dieser Evidenzcharakter ist nicht auf den sichtbaren Bereich beschränkt, sondern kann auch Dimensionen und Anordnungen umfassen, die der visuellen Wahrnehmung nicht zugänglich sind. Das Referenzsys- tem für die Wahrheit einer solchen Darstellung sind dann – wie im Bereich der Fiktion – die jeweils eigenen Regeln. Wolf (2000: 274) beschreibt das Gerichtsverfahren nach dem Absturz des Delta-Flugs 191 beim Anflug auf Dallas, bei dem 1985 verschiedene Computersimulationen zum Einsatz kamen. Einige von ihnen verarbeiteten direkt die an Bord aufgezeichneten Daten der Blackbox – 700 Variablen, von denen 500 die Stellung der Bordin- strumente bezeichnen – sowie die Sprachaufnahmen der Piloten, die zu den Raum- und Zeitkoordinaten des Absturzes in Beziehung gesetzt wurden. Solche Computersimulationen eignen sich in besonderer Weise dazu, einige weitere charakteristische Eigenschaften von Modellbildungsver- fahren zu diskutieren und in Beziehung zur filmischen Fiktion zu stellen. Denn sie verdeutlichen einige ihrer Eigenschaften, welche durch die media len Bedingungen des Films bis zur Unkenntlichkeit maskiert oder sogar ganz unterdrückt werden.55 53 Interessanterweise fielen die Haare und das Wasser in The Incredibles (USA 2004, Brad Bird) aus dem ansonsten sehr stilisierten Universum heraus, weil sie deutlich realitätsgetreuer wirkten. Dieser überschießende Realitätseffekt könnte sich dadurch erklären, dass sich Zwischentöne mit diesen Techniken schlechter herstellen lassen. 54 Mitchell äußert allerdings an anderer Stelle (1992: 189) seine Skepsis gegenüber dieser Praxis: «But an electronically assembled event has unascertainable coordinates and there is no flesh-and-blood photographer – alive or dead – to find. Nobody can claim to have stood behind the camera and made the decision to record: there are no shoes in which we can step. It creates an ontological aneurism – a blowout in the barrier separating visual fact and fancy. [Aber ein elektronisch erstelltes Bild kommt scheinbar aus dem Nichts, es lässt sich kein Fotograf aus Fleisch und Blut finden – tot oder leben- dig –, dem man es zuschreiben könnte. Niemand kann behaupten, hinter der Kamera gestanden und die Entscheidung zur Aufnahme getroffen zu haben: keine Instanz, deren Standpunkt wir uns zu Eigen machen könnten. So entsteht ein blutleeres Kon- strukt, in dem sich die Grenzen zwischen Fakt und Fantasie verwischen.]» 55 In einzelnen Fällen werden solche Computersimulationen in Spielfilme integriert, so 332 Abbildung Wolf (2000: 262) hat den Repräsentationsmodus dieser Simulationen als Dokumentarfilm im Konjunktiv (subjunctive documentary) beschrieben, da sie darstellen, «what could be, would be or might have been».56 Schrö- ter (2003: 5) schreibt, dass Simulationen «Vorbilder» liefern und damit «nicht bloß semantisch auf die Zukunft verweisen» können. Schon 1988 hatte Flusser postuliert, dass sich mit den Computerbildern das Verhältnis zwischen Abbild und Vorbild umkehre: Während die analogen Verfahren Abbilder erzeugen, «die als Vorbilder dienen», erzeugen «synthetische Computerbilder» Vorbilder «für mögliche, nicht von tatsächlichen Gegen- ständen» (Flusser 1988: 27). Warnke (2004: 10) spricht von «Mimesis als Vor-Ahmung», allerdings nicht in Bezug auf Simulationen als Evidenz, sondern im Rahmen ihrer Anwendung in der interaktiven Computer- kunst, und Hoberg hatte schon 1999 geschrieben, dass der «Möglichkeits- sinn tendenziell wichtiger» werde «als der Wirklichkeitssinn» (1999: 212). Boehm schlägt, ausgehend von Nietzsches Text Wahrheit und Lüge im au- ßermoralischen Sinne (1873), vor, einen vermittelten Modus der Abbildung als metaphorisch zu beschreiben: Wenn es eine Illusion war, Erkenntnis von Realität nach dem Modell des Abbildes zu begreifen, wenn Kausalitäten zwischen Objekt und Subjekt aus- zuschließen sind, dann bietet sich die Metapher als Brückenschlag besonders an. Denn sie verbindet auf eine schöpferische Weise, ihre luftigen Konstrukte schwingen sich über die Abgründe des logisch scheinbar Verbindungslosen hinweg. […] Sie stellen nicht fest, was ‹ist› […]. Sie bilden nicht ab, sie brin- gen vielmehr hervor. (Boehm 1994a: 16) Von diesen Interpretationen lässt sich ohne große Verbiegungen eine Brü- cke zur Konzeption gewisser Fiktionen als possible worlds (→ 285) schlagen, deren Realitätsbezug sich irgendwo zwischen der völlig autonomen Ima- gination und aktuellen Zustandsbeschreibungen ansiedeln lässt. Wenn auch in fiktionalen Spielformen schon eine große Flexibilität gegenüber dokumentarischen Repräsentationen auszumachen ist, so wird diese Fle- xibilität von den Computersimulationen noch übertroffen, denn sämtliche räumlichen und zeitlichen Koordinaten stehen der Flexibilisierung offen. Oder, anders ausgedrückt, die Räume und Zeiten sind ebenso wie die Rea- li tätsbeziehungen navigierbare Dimensionen, die man auf unterschied- liche Art und Weise explorieren kann. Zwar lassen sie sich ebenso wie Filme in lineare Reihen von Sequenzen verfestigen, aber das ist nicht ihr der Prozess des Untergangs in Titanic. Mit dieser Anordnung befasse ich mich im Abschnitt Rahmungen und Mise-en-Abyme (→ 394). 56 … «was sein könnte, sein würde oder gewesen sein könnte». Aufzeichnung und Modellbildung, Malen und Messen 333 eigentliches Wesen und dient nur einer bestimmten Form der Rezeption, nämlich der Rezeption in der Tradition des Films. Viel ungefilterter kommen diese Qualitäten in den virtuellen Welten des Computerspiels zur Entfaltung, in welchen ein User verschiedene Per- spektiven gemäß seiner eigenen Zielsetzung aktualisiert. Multiple zeitliche und räumliche Perspektiven sind je als Potenzialitäten simultan vorhanden. Die modale Logik der possible worlds erweitert sich damit durch die Logik des Direktzugriffs (random access) und des Hypertexts, in dem sich unter- schiedliche semantische Schichten überlagern, zwischen denen der Nutzer flexibel hin und her schalten kann. «Das Operationsfeld der Simulation ist zweifellos die ‹ganze Zeit›», umreißt Großklaus (1995: 54) diese Eigenart. Diese Aussage müsste man vielleicht noch präzisieren und sagen, dass das Operationsfeld die «ganze Zeit» sein kann, und zwar nicht nur die «ganze Zeit», sondern auch der «ganze Raum». Dieses Postulat, dass Raum und Zeit mit der zunehmenden Vernetzung der postmodernen Gesellschaft kollabieren, lässt sich in den gegenwärtigen theoretischen Reflexionen – aus- gehend von Jamesons (1984) Diagnose der Ahistorizität der postmodernen Gesellschaft und Virilios (1993) Diagnose der Dromologie, der Beschleuni- gung – überall finden. Aber das Verschwinden von Zeit und Raum ist keine Errungenschaft ausschließlich der technischen Entwicklung. Vielmehr er- kenne ich darin den Trieb, die immer schon vorhandene mentale Flexibilität, mit der jeder denkende Mensch durch Räume und Zeiten flitzen kann, auch mit technischen Mitteln zu konkretisieren, ihnen in den technischen Disposi- tiven Ausdruck zu verleihen. Mit dem Begriff der Reversibilität gedanklicher Operationen hatte Piaget schon 194257 diese Eigenart des kognitiven Systems beschrieben, lange bevor sie in die medialen Repräsentationen Einzug hielt: die Eigenart nämlich, Gedankenketten nicht nur kausal in Richtung von Ursache und Wirkung, sondern in jeder beliebigen Richtung anzuordnen. Schon die Rezeptionssituation im Kino ist auf mehreren Ebenen durch die Kopräsenz multipler räumlicher und zeitlicher Perspektiven gekennzeichnet, in denen die Repräsentationen von vornherein durch einen dualen Modus von An- und Abwesenheit gekennzeichnet sind, wie es Metz (1975b) so schön ausgearbeitet hat. Außerdem lässt sich das räumliche und zeitliche Kontinuum in viele Fragmente zerlegen, die sich zudem einzeln allen möglichen Transformationen unterwerfen lassen wie Zeitlupe, Zeitraffer oder Skalierungen. Aber alle diese Operationen kris- tallisieren sich in einer genau festgelegten Struktur, während sie in den Computersimulationen flüssig bleiben, wo zudem die Fragmentierungen 57 Piaget, Jean (1942): Classes, relations et nombres. Essai sur les groupements de la logistique et sur la reversibilité de la pensée. Paris: J. Vrin. 334 Abbildung im Sinne eines Filmschnitts völlig optional sind. Die Spielmetapher der Fiktion erweitert sich so um die autonome Perspektive eines mit der digi- talen Datenstruktur spielenden Rezipienten. Zwar ist es zweifellos richtig, dass die Technisierung der Umwelt zu einem beschleunigten Wahrnehmungsmodus geführt hat, aber gleichzei- tig folgt die Technisierung besonders der medialen Dispositive schon seit Beginn den Erkenntnissen der psychophysischen Vermessung des Wahr- nehmungsapparats. So ist in diesem Geschehen nicht ein eindimensiona- ler Vektor auszumachen, der von A nach B führt, sondern vielmehr eine systemische Interaktion aller an der Entwicklung beteiligten Größen: der Wahrnehmung, der Bedingungen technisch verfasster Repräsentation und der mentalen Operationen Analyse und Synthese. Analoge Artefakte Erst seit den 1990er-Jahren haben sich diverse Strategien etabliert, foto- grafische Artefakte in computergenerierte Bilder hineinzurechnen. Solche Artefakte habe ich im Abschnitt Kamera- und Bildparameter (→ 169) als intrinsische Aspekte der fotografischen Aufnahme bezeichnet. Es handelt sich dabei um Eigenschaften, die von der Funktionsweise der Kamera und der Beschaffenheit des Aufzeichnungsmaterials selbst erzeugt wer- den und die unsere Vorstellung von fotografischen Bildern maßgeblich geprägt haben. So unter anderem die Bewegungsunschärfe (motion blur) oder Verzerrungen, die durch das Objektiv entstehen (lens distortion), oder aber das Filmkorn, um nur einige zu nennen.58 Die Integration solcher analogen Artefakte in digitale Bilder kann ver- schiedene Ziele verfolgen. Nahe liegend ist die Absicht, den allzu geordnet wirkenden, allzu artifiziellen Charakter des computergenerierten Bildes zu maskieren. Es wird den inzwischen als ‹natürlich› empfundenen Eigen- heiten der analogen Fotografie angepasst, sodass ein fotorealistischer Ein- druck entsteht und es sich nahtlos in Live-Action-Material einfügen lässt. Eines der prominentesten Beispiele für diese Strategie dürfte Forrest Gump (USA 1994, Robert Zemeckis) sein, in dem der Protagonist in wech- selndes dokumentarisches Material eingefügt wird, um historisch bedeut- 58 Die folgenden Ausführungen gehen auf meinen Aufsatz Zur Konjunktur der analogen Störung im digitalen Bild (Flückiger 2004) zurück, den ich hier in leicht überarbeiteter Form aufnehme. Obwohl ich damals den Begriff Störung wertfrei konzipiert hatte, zeigte eine hitzige Diskussion im Forschungskolloquium des Seminars für Filmwissen- schaft Zürich, dass diese Wortwahl einen negativen semantischen Hof mitbringt, den ich nunmehr zu vermeiden versuche. Analoge Artefakte 335 samen Personen zu begegnen. Hier dienen das gerechnete Korn sowie die Nachahmung anderer filmspezifischer Materialeigenschaften – beispiels- weise Kratzer, eine beschränkte Auflösung oder das Kontrastverhalten einer älteren 16-mm-Schwarz-Weiß-Emulsion – dem Zweck, die Figur des Protagonisten unsichtbar ins Bildumfeld zu integrieren.59 Dies nicht – das dürfte inzwischen klar geworden sein –, um die Zuschauer zu täuschen, sondern um, wie im Kapitel Compositing (→ 196) erwähnt, einen doppel- sinnigen, ironisch besetzten Rezeptionsmodus zu erzeugen. Er entsteht gerade dadurch, dass wir zwar wissen, dass Forrest Kennedy natürlich nie getroffen hat, aber trotzdem sehen, wie perfekt die Begegnung formal umgesetzt ist.60 Auch den computergenerierten Dinosauriern in Jurassic Park (USA 1992, Steven Spielberg) wurde ein chaotisch ausgelegtes Korn- muster überlagert, damit sie zum Live-Action-Material passten – eine Stra- tegie, die der Herstellung von ästhetischer Kohärenz dient (→ 256). In zweiter Linie können fotografische Artefakte einen durchaus kommunikativen Gehalt annehmen, und zwar dann, wenn sie sich in auffälliger Weise von den zeitgenössischen Standards unterscheiden oder aber spezifische Gebrauchsspuren von Filmmaterial imitieren wie Kratzer oder Staub.61 Dies ist unter anderem der Fall, wenn ein Film in Teilen oder als Ganzes eine historische Periode oder eine frühere Zeitebene evozieren will, indem er die damals üblichen Standards nachzubilden versucht oder sogar mit signifikanten Übertreibungen betont. In diese Kategorie gehört schon das weit verbreitete Codierungsverfahren, das mit der Opposition zwischen Schwarz-Weiß- und Farbmaterial arbeitet, um verschiedene Zeite benen zu markieren. Historizität mit filmtypischen Eigenheiten zu behaupten, hat eine Geschichte bereits in der traditionellen analogen Filmproduktion – man denke etwa an die als Wochenschau inszenierte Sequenz News on the March in Citizen Kane (USA 1941, Orson Welles), die – mit Kratzern überlagert – am Ende jaulend abbricht, oder an eine als Familienfilm in Raging Bull (USA 1980, Martin Scorsese) eingeschobene Sequenz im Super-8-Look. Sol- che Einschübe, die sehr oft medial gestaffelt auf einem Monitor erscheinen, stützen im Biopic den historisch-öffentlichen Status der Figuren. In einem Film hingegen wie Le fabuleux destin d’Amélie Poulain (F 2001, Jean- 59 Interessanterweise hat das Team um VFX Supervisor Ken Ralston zunächst die Origi- nalaufnahmen stabilisiert und das Korn herausgerechnet, anschließend Tom Hanks mit dem besten verfügbaren Filmmaterial in Farbe aufgenommen, um die größtmögliche Flexibilität zu haben, die Artefakte wie das Korn zu kontrollieren (cinefex 90: 93 f.). 60 Gemäß VFX Supervisor Ken Ralston wollte man gerade mit diesem mehrdeutigen Mo- dus zwischen Glauben und Nichtglauben die Zuschauer aktivieren (in Thompson 2005). 61 Wolf (2000: 58) weist darauf hin, dass solche Alterungsprozesse bei digitalem Material nicht zu erwarten sind, denn dort sind die Informationen entweder zu lesen oder aber nicht. 336 Abbildung 5 Amélie an ihrer eigenen Beerdigung (links) 6–7 Analoge Artefakte als Elemente eines überzogenen ‹historischen› Stils in Moulin Rouge! (unten) Pierre Jeunet; Abb. 5), der mit innovativen digitalen Bildtransformatio- nen arbeitet, wird diese Konvention auf ein höheres Abstraktionsniveau gehievt. Dort geht es darum, einen imaginierten öffentlichen Status der tagträumenden Protagonistin in den Film zu implementieren – ein Un- terfangen, dessen Absurdität noch gesteigert wird, indem Amélie beim Betrachten ihrer eigenen Beerdigung am Fernsehen in Tränen ausbricht. Einen ebenso postmodern überzogenen ‹historischen› Stil setzt Baz Luhrmann in seinem Bohème-Märchen Moulin Rouge! (USA/AUS 2001; Abb. 6–7) ein. In überdrehter Manier überlagert er in der Titel- und Er- öffnungssequenz ein Maximum an Artefakten, grobkörnige Strukturen, Schmutz und Klebestellen, ausgefressene Highlights, diffus auslaufende Analoge Artefakte 337 8 Terra Incognita 9 Alive in Joburg 10 Alive in Joburg: Alien mit ver- pixeltem Gesicht Konturen bis hin zu Flicker- und Vignettierungseffekten. Die Zeitgestal- tung in einer rasenden Fahrt durch das Paris auf der Schwelle zum 20. Jahrhundert ahmt die Schwankungen einer handbetriebenen Stumm- filmkamera nach, nicht ohne ihre atemberaubende Beweglichkeit ins Absurd-Körperlose zu transformieren. Schockhaft verzerrt, von expressio- nistisch bis grotesk wirkt Luhrmanns Stil, den er «Artificial Reality» nennt und dessen Künstlichkeit er dem Zuschauer bewusst aufs Auge drücken will. «He wanted the visual effects to have a handmade feel, to hark back to those olden days rather than be seamless in terms of their digital perfec- tion»62 (cinefex 86: 16). 62 «Er wollte den Visual Effects ein handwerkliches Flair verleihen, das eher an alte Zei- ten erinnert, denn als nahtlos im Sinne einer digitalen Perfektion zu erscheinen.» 338 Abbildung 11–12 Virtual History: Digitale Rekonstruktion historischer Figuren (links); Korn, Schmutz und Kratzer (rechts) In ähnlicher Weise greifen Spielfilme Charakteristika des Dokumen- tarischen auf, um Faktizität zu behaupten und/oder auf ein kollektives Bildergedächtnis zurückzugreifen, das mit diesen Darstellungsmodi asso- ziiert wird. Eine Sonderform dieser Strategie sind die sogenannten Mocku- mentaries – Spielfilme, die durchgehend mit den formalen Mitteln des Dokumentarfilms operieren, um in ironischer Weise den kommunikativen Kontrakt mit dem Zuschauer zu reflektieren. So etwa Forgotten Silver von Peter Jackson (NZ 1995), eine fingierte Dokumentation über einen angeblichen Pionier des neuseeländischen Films, Terra Incognita (CH 2004, Peter Volkart; Abb. 8), ein überaus fantasievoll gestaltetes Porträt eines fiktiven Wissenschaftlers und Erfinders, oder Alive in Joburg (CDN 2005, Neill Blomkamp; Abb. 9–10)63 über die Problematik von Aliens in den Townships von Johannesburg. Während in den Mockumentaries der spielerische Charakter über- wiegt, bewegt sich der inszenierte ‹Dokumentarfilm› Virtual History: The Secret Plot to Kill Hitler (GB 2004, David McNab) auf jenem bedenklichen Terrain, in welchem ein Werk seine eigenen Regeln ver- letzt (→ 288). Denn es stellt historische Fakten mit computergenerierten Nachbildungen berühmter Figuren der Weltgeschichte dar, ohne den Inszenierungscharakter explizit oder implizit zu markieren – dies unter Verwendung einer Reihe von analogen Artefakten, welche das Material als ‹alt› ausweisen (Abb. 11–12). Zwei geradezu lehrbuchhafte Beispiele für die Strategie, in Spielfil- men solche Charakteristika zu verwenden, sind Steven Spielbergs War of the Worlds (USA 2005) und Saving Private Ryan (USA 1999). War of the Worlds versucht, mit deutlichen Anlehnungen an die mediale Darstellung der Ereignisse um 9/11 ein Gefühl der Paranoia zu erzeugen: «The gritty look was inspired by amateur 9/11 footage, with dust and de- bris falling from the sky, and hand-held shots of pandemonium. […] The 63 http://video.google.de/videoplay?docid=-1185812222812358837&q=joburg Analoge Artefakte 339 13 War of the Worlds 14 Historizität und Faktizität in Saving Private Ryan vfx shots occur behind smoke, ambience and camerawork»64 (Desowitz 2005: 1; Abb. 13). Damit greift Spielberg ein Verfahren auf, das er schon in der Eröffnungssequenz von Saving Private Ryan (USA 1999; Abb. 14) praktiziert hatte, um die Zuschauer emotional in die Wahrnehmungsper- spektive der Soldaten zu zwingen und über die Reizdimension die Kriegs- erfahrung als solche im Sinne eines Authentie-Effekts unmittelbar zu- 64 «Der schmuddelige Look war von Amateuraufnahmen inspiriert, die mit Handkamera während 9/11 entstanden waren und den Staub und die Trümmer zeigten, die vom Himmel fielen – ein wahres Inferno. […] In diesem Sinne setzen die VFX-Aufnahmen Rauch, atmosphärische Dichte und die Eigenheiten dieses Kamerastils ein.» 340 Abbildung 15 Film-Look in Sky Captain and the World of Tomorrow 16 Ein malerischer Film-Look in 300 gänglich zu machen. Er operierte dabei mit allen traditionellen Mitteln der Technologie – mit Handkamera, exzessiver Lautstärke, Physical Effects sowie einer chaotisch wirkenden Inszenierung der Figuren, die wie zufäl- lig durchs Bild taumeln –, aber überraschend wenig digitalen Effekten.65 Eine dritte Linie der Integration von analogen Artefakten ist der bloßen Lust am speziellen Film-Look verpflichtet, mithin rein ästhetisch motiviert. Sinn und Zweck einer solchen Strategie ist es, die oben geschil- derte (→ 318) drohende Leere modellierter Bilder zu füllen und sie mit 65 Die digitalen Effekte haben vornehmlich den Zweck, die physikalischen Effekte zu unterstützen, beispielsweise via Partikel-Animation von Sand und Staub sowie Flüssigkeits-Animation von herumspritzendem Blut. Weiter wurden CG-Bilder als Set Extension eingesetzt – namentlich in der Totalen, in welcher der gesamte Strand mit den landenden Schiffen zu sehen ist (siehe AmC 12/1998). Analoge Artefakte 341 ansprechenden Texturen zu überlagern, also ästhetische Dichte zu erzeu- gen. A ußerdem scheint es durchaus der Fall zu sein, dass eher jene Genres diese Strategie verfolgen, die fantastische Welten entwerfen, nämlich Science-Fiction oder Fantasy.66 Moulin Rouge! passt mit seiner künstlich überhöhten Darstellung eines mythisch besetzten Cabarets ebenfalls in diese Kategorie. Oft geht es dabei nicht darum, digitales Material unsicht- bar an das Vertraute anzupassen, sondern darum, den Film-Look zu über- höhen, ihn auszustellen, um dem Rezipienten ein Erlebnis anzubieten, das sich von der Alltagswelt abhebt. Besonders seit Ende der 1990er-Jahre lässt sich zunehmend die Ten- denz beobachten, analoge Artefakte massenhaft anzuhäufen, und nach wie vor ist es durchaus gerechtfertigt, von einer eigentlichen Konjunktur zu sprechen. Neben Moulin Rouge! sind interessanterweise zwei der typischs- ten Vertreter dieser Linie Sky Captain and the World of Tomorrow (USA 2004, Kerry Conran; Abb. 15) und 300 (USA 2006, Zack Snyder; Abb. 16), die beide fast vollständig in computergenerierten Umwelten spielen. Dieses auffällige Spiel mit den ästhetischen Eigenheiten des Film- Looks widerspricht der weit verbreiteten Annahme, dass sich Medien auf eine zunehmende Transparenz hin bewegen, wie sie unter anderem von Sybille Krämer (1998: 74) vertreten wird: «Medien wirken wie Fenster- scheiben: Sie werden ihrer Aufgabe um so besser gerecht, je durchsichtiger sie bleiben, je unauffälliger sie unterhalb der Schwelle unserer Aufmerk- samkeit verharren.» Sehr oft äußern sich Regisseure explizit dahin gehend, dass sie zu glatte, unauffällige Kompositionen aufrauen wollen. So wies James Came- ron die Visual-Effects-Spezialisten an, einen allzu wundersamen Heilungs- prozess des T-1000-Cyborgs in Terminator 2 – Judgment Day künstlich zu verschmutzen: «Don’t think of yourselves as Industrial Light and Magic, think of yourselves as Industrial Light and Dirt»67 (in cinefex 47: 33). Und auch Michel Gondry forderte für Eternal Sunshine of the Spotless Mind (USA 2004) eine durchgängige Präsenz von Staub und Korn (Feeny 2004). Solche Auffassungen decken sich perfekt mit einem Postulat von Žižek (1999: 8), dass sich Realität durch ein gewisses Maß an Widerstand auszeichne. So können wir von zwei Aspekten ausgehen, welche das Verhältnis der Medien zu ihrem Gegenstand prägen, die Luhmann (1995: 16 f.) als doppelte Realität der Massenmedien beschreibt, nämlich die Rea- lität der Massenmedien selbst sowie jene ihnen äußere Realität, auf die sie sich beziehen. Indem Filme diese doppelte Realität zum Gegenstand ihrer 66 Auf diesen Gedanken hat mich Simon Spiegel gebracht. 67 «Verstehen Sie sich nicht als Industrial Light & Magic, sondern als Industrial Light und Dreck.» 342 Abbildung Darstellung machen, bilden sie eine mehrfache Referenzialität oder auch eine Referenzialität höherer Ordnung, die jenem Komplex zuzuordnen ist, den Barthes (1957) als Mythos bezeichnete. Mythen treten in dieser Kon- zeption immer dann auf, wenn eine kulturelle Praxis zur reinen Materie hinzutritt und ihre Bedeutung verändert. Solche Prozesse der Bedeutungs- modifikation werden sich im Folgenden sehr schön zeigen lassen. Alle drei Strategien der Verwendung analoger Artefakte, um ästhe- tische Kohärenz, Historizität/Faktizität oder ästhetische Dichte zu erzeu- gen, können einander überlagern, sodass es mitunter schwierig ist, die Phänomene funktional zu bestimmen und eindeutig zu kategorisieren. So sind diese Vorüberlegungen lediglich dazu gedacht, im Sinne einer Ar- beitshypothese ein vorläufiges Ordnungssystem bereitzustellen, das ich in den nun folgenden Analysen weiter ausdifferenzieren werde. Korn Im Unterschied zum Pixel, der durch eine feste Position innerhalb des geometrischen, horizontalen und vertikalen Bildrasters definiert wird, sind die Körner in der analogen Filmemulsion zufällig verteilt. Sie befinden sich in jedem Bild an anderer Stelle und scheinen sich so von Kader zu Kader zu bewegen, zu tanzen. Diese Eigenschaften des Filmkorns bewir- ken verschiedene Eindrücke, die das Erscheinungsbild des analogen Films charakterisieren. Einerseits führen sie zu mildernden Ausgleichsprozessen, da Konturen oder Bildteile nicht absolut festgelegt sind, sondern sich inner- halb minimaler Toleranzen von Bild zu Bild leicht verschieben. Gleichzeitig reichern sie homogene Flächen mit leichten stochastischen Rastern an und entwickeln damit spezifische Texturen. In dritter Linie markieren sie den Film als Medium, und zwar besonders in seiner Zeitgebundenheit. Indem die Bilder sich durch die Verteilung der Körner minimal voneinander un- terscheiden, wirkt auch eine statische Filmeinstellung ohne bewegte Ob- jekte lebendig und scheint eine eigene Form der Zeitlichkeit zu entwickeln. Eine hochauflösende digitale Aufnahme derselben Situation hinge- gen mutet auf den ersten Blick tatsächlich transparent wie der Blick aus einem Fenster an. Diese Transparenz – so meinen einige Praktiker, die mit dem Format gearbeitet haben – lasse mit ihrem ungebrochenen Realitätsef- fekt das Medium ungeeignet dafür erscheinen, Geschichten zu erzählen.68 68 So hat der Regisseur Philip Gröning an der Tagung des Forschungsprojekts Digitales Kino (2002) in Zürich geäußert, dass die kornlose Qualität digitaler Aufnahmen den Deutungsraum des Zuschauers einschränkt. Ähnliches merkte Thomas Repp an, der Kameramann und Regisseur des Kurzfilms Die Augenfalle (D 2001), der parallel digital und analog produziert wurde. Analoge Artefakte 343 17 Entsättigter Look in Minority Report Vielmehr tauge es prinzipiell nur für dokumentarische Zwecke. Die grund- sätzlichen Unterschiede sind aber bis heute kaum von praktischer Rele- vanz, da auch digital produzierte Filme am Ende auf analoges Bildmaterial ausbelichtet und dem Zuschauer in dieser Form präsentiert werden.69 Die Filmmaterialien haben sich in puncto Körnigkeit im Lauf der Zeit zu immer unsichtbareren Kornstrukturen hin entwickelt. Die heutigen T-förmigen Körner (T-grains) greifen wie zufällig ineinander und erzeugen homogen wirkende Farbwolken unterschiedlicher Dichte – sind als Korn im herkömmlichen Sinn also kaum mehr wahrnehmbar. In Opposition zu dieser Entwicklung pushen Kameraleute ums Jahr 2000 Emulsionen ans Limit, unterwerfen sie Stressprogrammen wie dem Bleach-Bypass-Verfah- ren, in dem das Bleichbad bei der Farbentwicklung übersprungen wird, um einen körnigen, entsättigten Schmuddel-Look zu erzeugen. So zum Beispiel für Minority Report (USA 2002, Steven Spielberg; Abb. 17) – ein Film notabene, der eine große Anzahl von computergenerierten Visual Effects einsetzt, welche zum Entsetzen der Techniker bei ILM allesamt diesen Look nachbilden mussten (AmC 07/2002: 47).70 Mit diesem Verfah- ren wurden der Emulsion 40 % der Farbinformationen entzogen, die der Kameramann Janusz Kaminski später in der Color Correction selektiv den Lichtern wieder hinzufügen ließ. Um die Körnigkeit maximal zu betonen, 69 Bis heute sind nur wenige Kinofilme ausschließlich digital produziert worden. Wenn solche Filme ab digitalem Master auf DVDs gespielt werden, haben sie tatsächlich nie ein analoges Stadium durchlaufen. 70 An der Tagung fmx 2003 stellte Alex McDowell, der Art Director von Minority Re- port, sein künstlerisches Konzept inklusive Farbschema vor, das auf einer Dominanz von Grün basierte. Durch den Bleach-Bypass-Prozess wurde jedoch vor allem das Grün eliminiert, das jetzt bestenfalls noch leicht türkisfarben aussieht. Im Interview (2005) befragt nach seiner Einschätzung dieser Veränderung, meinte er lapidar, dass Film eben eine kollaborative Kunst sei, in welcher jeder sein Ego zurückstellen müsse. 344 Abbildung 18–19 Sleepy Hollow: Entsättigtes, monochrom wirkendes Bild (links); im Kont rast dazu die rote Farbe von Blut (rechts) hat er sogar Tagesszenen mit dem hochempfindlichen und entsprechend körnigen Material Kodak Vision 800T gedreht (AmC 07/2002: 36). Ein ähnliches Verfahren wie Bleach Bypass, Color Contrast Enhance- ment (CCE) genannt, das seine Berühmtheit mit David Finchers Se7en erlangte, setzte Kameramann Emanuel Lubezki in Sleepy Hollow (USA 1999, Tim Burton; AmC 12/99: 50) ein. Im CCE-Prozess wird ebenfalls das Silber in der Emulsion belassen, das Bild wirkt monochrom mit leichten Grün-, Blau- und Brauntönen, betonter Kornstruktur und grafisch wirken- den Schwarz-Weiß-Kontrasten (Abb. 18), einzig die Farbe Rot – die Farbe des Blutes – beherrscht in Gewaltszenen betont gesättigt das Bild und gewinnt damit symbolische Bedeutung (Abb. 19). Fast mag es paradox erscheinen, dass man den Compositing Artists die Arbeit erschwert, indem man die Differenz zwischen kornfreien di- gitalen Bildteilen und analog gedrehtem Material mit solchen Verfahren maximiert. Schon in den 1960er- und 1970er-Jahren gab es in der künstle- risch ambitionierten Fotografie und in gewissen Strömungen des Indepen- dent-Film eine Tendenz, die Kornstruktur hervorzuheben. Dies teilweise mit dem Ziel grafischer Abstraktion, vor allem aber, um eine höhere Form des Realismus zu erreichen, indem man sich für diesen Look an der Foto- reportage und am Dokumentarfilm orientierte – mithin also an Produkten, die unter technisch ungünstigen Bedingungen mit wenig Licht und unter großem zeitlichem Druck entstehen. Seither ist diese Ästhetik nie wieder verschwunden, hat sich aber in Werbung und Videoclip zum stylish-mo- dischen Attribut hin entwickelt. In Sleepy Hollow jedoch ist ein solcher Einfluss nicht zu spüren. Dort orientiert sich die Bildgestaltung an einem piktorialen, expressionis- tischen Stil, steht das unbunte Bild eher für eine düstere Stimmung in einer heil wirkenden, ländlichen Idylle. Für Janusz Kaminski ist das Korn aber die Essenz des Films schlechthin, trägt also eben jene Bedeutung höherer Ordnung mit sich, die ich mit Barthes als Mythos bezeichnet habe: «To me, movies are a social event […]. They don’t necessarily help us escape reality, but they offer us a reality that is different from what we see at home. If you Analoge Artefakte 345 can’t see or sense grain in the image, you’re not experiencing the magic of movies»71 (Kaminski in AmC 07/2002: 35). Motion Blur Nicht nur die Körnigkeit, auch die verwischte, unscharfe Aufzeichnung von bewegten Objekten ist ein typisches Artefakt traditioneller Filmaufnahmen. Diese Bewegungsunschärfe – im Fachjargon Motion Blur genannt – ist die Folge einer zu geringen Aufzeichnungsrate von 24 Bildern pro Sekunde – zu gering ist diese Rate im Hinblick auf die zeitliche Auflösungsfähigkeit des Auges. Wie mehrheitlich bekannt sein dürfte, wird dieser Mangel bei der Wiedergabe durch eine Flügelblende so kompensiert, dass der Pro- jektor jedes Bild zweimal auf die Leinwand wirft, damit den Flickereffekt unterdrückt und Bewegungen dennoch fließend erscheinen lässt. Die Film- technik hat sich aus ökonomischen Gründen auf diese Aufzeichnungsrate geeinigt, weil man damit Material sparen konnte, sogar sehr viel Material. Mit den derzeitigen digitalen Formaten ist diese Sparübung jedoch obsolet geworden, da die Materialkosten im Verhältnis zum Gesamtbudget nicht mehr ins Gewicht fallen. Theoretisch wäre eine Bildrate von 50 Vollbildern pro Sekunde wünschbar, um Bewegungen möglichst fließend darzustellen. Dieses theoretische Desiderat scheitert im Moment jedoch sowohl an der analogen Distributionsform als vielleicht auch am Wunsch des Publikums, im Kino weiterhin den gewohnten Bildeindruck vorzufinden. Während Jahrzehnten sind klassische Visual Effects ohne Motion Blur entstanden. Mit der damals üblichen Technik der Stop-Motion-Animation (→ 108), bei der die Animatoren Modelle einzelbildweise bewegen und im Ruhezustand aufnehmen, entfällt diese Form der Unschärfe. Es stellt sich ein ganz eigener Bildeindruck ein, den viele mit der spezifischen, ohnehin künstlichen Qualität von mythischen Fabelwesen und magischen Mons- tern verbinden wie die prähistorischen Kreaturen in King Kong (USA 1933, Cooper/Schoedsack) oder die kämpfenden Skelette in Jason and the Argonauts (USA 1963, Don Chaffey). Solche Assoziationen sind jedoch unerwünscht, wenn die animierten Modelle lebensecht erscheinen sollen. Deshalb haben findige Tüftler verschiedene analoge Methoden ausge- dacht, um Motion Blur künstlich zu erzeugen: von der Diffusion bewegter Bildteile durch partielle Fettschichten auf dem Objektiv bis hin zu Mehrfach- belichtungen. Ladislaw Starewicz hat schon in den 1920er-Jahren in seinen Stop-Motion-Animationsfilmen mit Bewegungsunschärfe gearbeitet – mög- 71 «Für mich sind Filme ein soziales Ereignis […]. Sie mögen uns nicht zur Flucht aus der Realität verhelfen, offerieren uns aber eine Realität, die sich von unserem Alltag unter- scheidet. Wenn man das Korn weder sieht noch spürt, geht diese Magie verloren.» 346 Abbildung licherweise indem er die Objekte mit schwarzen Handschuhen oder mit Drähten während der Belichtung leicht bewegt hat (Pinteau 2003: 216). Eine überzeugende und praktikable Lösung hat sich jedoch erst mit dem Compu- ter entwickelt. Kameras konnten nun via Motion Control (→ 239) präzise Be- wegungen mehrfach wiederholen, Modelle ließen sich mit der Go-Mot ion- Animation (→ 111) so steuern, dass sie genau während der Aufnahme win- zige Bewegungen ausführten. Heute, im Zeitalter der computergenerierten Objekte und Figuren, haben sich Motion-Blur-Tools etabliert, die den Effekt auf die Computeranimation rechnen und den Eindruck in Abhängigkeit von Objekt- und Kamerabewegung sowie Belichtungszeit perfekt nachbilden. Eigentlich unglaublich, dass einem so unwichtig scheinenden Detail solche Aufmerksamkeit zukommt und so viel Erfindungsgeist investiert wurde, um ein Artefakt künstlich zu erzeugen. Und warum konnte man während 70 Jahren dennoch darauf verzichten? Motion Blur bewegt sich auf dem schmalen Grat zwischen Konvention und natürlichem Wahrneh- mungshintergrund. Zwar nimmt auch das menschliche Auge Objekte in rascher Bewegung unscharf und halbtransparent wahr: Beobachtet man einen Kolibri im Flug, sind seine Flügel deshalb kaum sichtbar. Doch ist dieser Effekt bei der Filmaufzeichnung wesentlich ausgeprägter, da die zeitliche Auflösungsfähigkeit mit 40 ms ungefähr doppelt so träge ausfällt wie jene des menschlichen Sehens, die bei circa 20 ms angesetzt wird. Elek- tronische Medien, die auf Zeilenabtastung basieren, unterscheiden sich in ihrer Verzeichnungscharakteristik bei Bewegungsaufnahmen signifikant vom filmischen Eindruck. In 3D-Programmen muss man die Quantität an Motion Blur daher künstlich bestimmen (Driemeyer 2001: 217). Simulierter Motion Blur auf digital modellierten Effekten kann wie das gerechnete Korn dem Zweck dienen, die Differenz zwischen analog und digital produzierten Bildteilen im Sinne der ästhetischen Kohärenz (→ 256) zu verwischen und damit einen Pop-out-Effekt72 zu vermeiden, der den Zuschauer unweigerlich auf die künstliche Herkunft der CGI hin- weisen würde. In der Mehrzahl aller Fälle dürfte diese Erklärung zutref- fen. Wiederum wird diese vordergründig plausible Zielsetzung aber in ei- nigen Fällen mit Übertreibungen ad absurdum geführt – nicht nur bei den bereits zitierten Dinosauriern, bei denen Steven Spielberg laut Interview den korrekten Motion Blur als unabdingbar für den Realitätseffekt hielt. Übertreibungen des Motion Blur kommen in verschiedenen Abstufun- gen vor: von relativ diskret am Rande der Konvention angesiedelten Versio- nen bis zu grotesk ausgestellten Effekten mit kommunikativem Gehalt. Ver- 72 Ein Pop-out-Effekt wird durch ein singuläres Ereignis ausgelöst, das aufgrund seines Kontrasts zum Umfeld eine unwillkürliche Aufmerksamkeitsreaktion hervorruft, zum Beispiel ein roter Kreis inmitten von schwarzen Kreisen. Analoge Artefakte 347 20–21 The Mummy: Hero-Scarab mit (links) und ohne (rechts) Motion Blur schiedene Tierarten beispielsweise, die den Protagonisten in The Mummy (USA 1999, Stephen Sommers; Abb. 20–21) das Leben schwer machen, vom massiven Aufgebot an Heuschrecken in biblischer Tradition bis zu den Heerscharen von zerstörungswütigen Skarabäen, wischen in ungewohnt unscharfer Manier durchs Bild. In der Mehrzahl ergießen sich prozedural animierte Ströme über Stock und Stein oder schwirren ganze Wolken durch die Lüfte. Hie und da aber wird ein einzelnes Exemplar – von den Anima- toren Hero-Scarab genannt – sehr scharf und wenig bewegt abgebildet, und dann drängt sich die Vermutung auf, dass die 3D-modellierten Skarabäen der genaueren visuellen Analyse nur bedingt standhalten und der Motion Blur die harsche Schärfe des computergenerierten Bildes mildern soll. Skarabäen, auch wenn sie nicht in Massen in unserer Alltagswelt vorkommen, wirken als niedere Insekten weit weniger spektakulär als Dinosaurier und werden darum vom Zuschauer unbefangener analysiert als prähistorische Tiere, die bei ihrem bildhaften Erscheinen erst einmal ungläubiges Staunen hervorrufen. 22–25 The Matrix: Neo bestellt im Construct Waffen, die mit maximaler Geschwin- digkeit und maximalem Motion Blur geliefert werden 348 Abbildung In einigen Fällen geht die Über- treibung weiter, wie zum Beispiel dort, wo Neo in The Matrix (USA 1999, Larry und Andy Wachowski; Abb. 22–25) Waffen bestellt, die in fantastischer Geschwindigkeit geliefert werden, wobei diese Ge- schwindigkeit analog zu grafischen Darstellungen in Kunst (Abb. 26) und Comic mit maximalem Motion Blur einhergeht. In diese Tradition sind auch die Slit-Scan-Aufnahmen aus 2001: A Space Odyssey (GB/ USA 1968, Stanley Kubrick; Abb. 27) einzuordnen, welche die Reise am Ende visualisieren – genauso wie 26 Gemälde mit Bewegungsdarstellung die als Herumwirbeln inszenierten des Futuristen Luigi Russolo Transformationen in Mask (USA 1994, Chuck Russell; Abb. 28). Ein auffällig wirkender Mo- tion Blur wird aber auch dort appli- ziert, wo es darum geht, mentale Vorstellungen in Bildmetaphern zu übersetzen, also Subjektivie- rungen aus der Perspektive einer Figur zu markieren oder nachzu- bilden – so unter anderem in Dark City (AUS/USA 1998, Alex Proyas; 27 Slit-Scan-Aufnahme aus 2001: A Space Odyssey Abb. 38–39 des Kapitels Dimensio- nen und Schichten → 389). Mit analogen oder teildigita- len Mitteln wird dies bereits seit einiger Zeit praktiziert, unter an- derem zu sehen in Chungking Express (Hongkong 1994, Wong Kar- wai), indem solche Szenen mit einer Rate von weniger als zehn Bildern pro Sekunde aufgenom- men werden, wodurch sich die Be- 28 Transformation mit Motion Blur in wegungsunschärfe mehr als ver- The Mask doppelt und ein Smear-Effekt ent- Analoge Artefakte 349 steht. Anschließend kopiert man jedes dieser Bilder mehrfach – ein Vorgang, den man Step-Printing nennt, oder interpoliert dazwi- schenliegende Frames mit der ent- sprechenden Software, die es als Motion-Estimation-Tools auf dem Markt gibt, sodass das Bild in Zeit- 29 Motion Blur in Fight Club lupe erscheint. Elektronische Ka- meras enthalten eine solche Auf- nahmetechnik manchmal schon als Standardausrüstung. Auf dieses Prinzip greifen Bil- der einer Sexszene in Fight Club (USA 1999, David Fincher; Abb. 29) zurück, in welcher der Protagonist sein Alter Ego in entfesselter Ver- 30 Der Agent als vielköpfiges Monster einigung mit Marla Singer imagi- in The Matrix niert. «It was supposed to look like one of the heads from Mount Rushmore was fucking the Statue of Liber- ty»73 (David Fincher in cinefex 80: 125). Die grotesk wirkende Umformung des Körpers sollte eine fantastische, traumähnliche Qualität haben. Auf- nahmen mit einer Belichtungszeit von 1/250 s zu Beginn und am Ende des Aktes wurden kombiniert mit Fotos, die man zwei Sekunden lang belichtet hatte. Die Fotos dienten als Ausgangsmaterial für die bildbasierte Modellierung und Animation der Szene. Ein ähnliches Prinzip wird in der übermenschlichen Bewegungsfähigkeit eines Agenten aus The Matrix wirksam, der im Shootout zur vielköpfigen Hydra mutiert. In den sogenannten Bullet-Time-Szenen hingegen – den eingefrore- nen Momenten, die inzwischen zum Markenzeichen der Matrix-Welt sti- lisiert und unzählige Male kopiert wurden – wird ein gegenteiliger Effekt wirksam. Die Fotokamera-Arrays – eine Serienschaltung von bis zu 120 Kleinbildkameras, die ein Computer in exakt definierten Zeitintervallen auslöst – haben die einzelnen Bilder mit der Belichtungszeit von 1/1000 s aufgenommen, um jede Bewegungsunschärfe zu unterdrücken. Sowohl im Smear-Effekt als auch in den eingefrorenen Momenten entstehen paradoxe Eindrücke entweder durch extreme Verlangsamung, kombiniert mit maximalem Motion Blur, oder durch extreme Beschleuni- 73 «Es sollte so aussehen, als triebe es einer der Präsidentenköpfe vom Mount Rushmore mit der Freiheitsstatue.» 350 Abbildung gung mit minimaler Bewegungs- unschärfe. Beide Wirkungen bele- gen den ungeahnt bedeutsamen, wenn auch völlig verinnerlichten Status eines analogen Artefakts, das ein durchschnittlicher Zuschauer 31 Halo in The Cell kaum bewusst wahrnehmen dürfte. Trotzdem hat sie sich im Lauf einer hundertjährigen Geschichte analo- ger Bildaufzeichnung offenbar fest mit dem Medium verbunden. Diffusion, Lens Flares, optische Verzeichnungen, Vignettierungen Computergenerierte Bilder wirken frappierend scharf. Nicht nur weil – wie bereits erwähnt – statistisch ausgleichende Prozesse des zufäl- lig verteilten Filmkorns wegfallen, sondern weil die Pixel das Licht wie Gefäße umfassen, während die Halogenidkristalle in der analogen Emulsion zu einer leichten, aber es- senziellen Lichtdiffusion führen. Dieser Diffusionseffekt wurde im klassischen Hollywood-Kino durch weitere Maßnahmen ausge- baut. Eine Reihe von weich zeich- 32–34 Avalon: Dunkler Halo (oben); Compositing (Mitte); Compositing nenden Filtern, Fettschichten vor farbkorrigiert mit zusätzlicher Diffusion den Objektiven oder eine bestimmte (unten) Sorte von schwarzem Dior-Damen- strumpf unterstützen den Schmelz klassischer Staraufnahmen, indem sie Unebenheiten ausgleichen und durch Diffusion des Spitzlichts die schimmernde Aura des Stars her- vorheben. Bewusst oder unbewusst 35 Diffus überstrahltes Spitzlicht in knüpft dieser Abbildungsmodus an Minority Report die Ikonografie des Heiligenbilds Analoge Artefakte 351 an, wie er in The Cell (USA 2000, Tarsem Singh; Abb. 31) zu sehen ist – besonders an jene romanti- schen bis kitschigen Darstellungen, in denen sich die Sonnenstrahlen ihren Weg durch eine dräuende Wolkenschicht auf das Haupt des Heiligen bahnen. Kein Wunder also, 36 Diffusion im Stil der 1940er-Jahre in Sky Captain and the World of dass man von einem Halo spricht, Tomorrow wenn wie in Avalon (JP/PL 2001, Mamoru Oshii; Abb. 32–34) die Schwärzen Höfe bilden, die Lichter überstrahlen oder wie in Minority Report das Spitzlicht diffus aus- brennt (Abb. 35). Sowohl in der The Lord of the Rings-Trilogie als auch in Sky Cap- tain and the World of Tomor- 37 Diffusion zur Betonung des Fantas- row hat man solche Effekte in der tischen in The Return of the King Postproduktion mit der digitalen Nachbildung von ProMist-Filtern erzeugt – in Sky Captain, um den roman- tischen Vierziger-Jahre-Look zu imitieren (cinefex 98: 23; Abb. 36),74 in The Lord of the Rings, um eine irreal wirkende, fantastische Atmosphäre zu schaffen (Supervising Digital Colorist Peter Doyle in Gööck 2002; Abb. 37). In den romantischen Darstellungsmodus wurde außerdem ein Ar- tefakt des technischen Apparats integriert, das man klassischerweise zu vermeiden pflegte, sogenannte Lens Flares oder Objektivreflexe. Sie entste- hen, weil Objektive aus einer Reihe von Linsen gebildet sind, in denen sich direkt einfallende Lichtstrahlen mehrfach brechen und reflektiert werden. Dabei bilden sich unregelmäßige, häufig sechseckige Lichtflecken, die sich bei Kamerabewegungen in komplexen Mustern über das Bild verschieben (Abb. 38–40). Da es sich bei der auslösenden Lichtquelle meist um die Sonne han- delt, werden Lens Flares mit angenehm warmen Temperaturen und süd- lich angehauchten Idyllen assoziiert. Eine weitere Quelle können Auto- scheinwerfer oder Sterne in den Galaxien des Universums sein, die je eigene Assoziationen befördern. In voll computergenerierten Bildern knüpfen Lens Flares nicht nur daran an, sondern suggerieren gleichzeitig 74 Bei der Arbeit vor Bluescreen ist es nicht möglich, Diffusionsfilter einzusetzen, denn die Masken müssen möglichst scharf ausfallen. 352 Abbildung 38 Lens Flares in The Day After Tomorrow 39 Lens Flares in Spider- Man 40 Auffällige Lens Flares in Minority Report eine real vorhandene Kamera, mithin die Präsenz eines Beobachters in der Szene, da sich durch die Lens Flares die dreidimensionale Materialität der Kamera in die Aufnahme einschreibt. In Bildern, die im Compositing-Ver- fahren montiert werden, wirken die Flares als Suturing Device: als verbin- dende Elemente, welche die Bildteile durch das aus der Gestaltpsychologie bekannte Prinzip des gemeinsamen Schicksals75 zu einem einheitlichen Wahr- nehmungsgegenstand verschmelzen. Inzwischen sind Lens Flares beson- ders in modellierten Einstellungen ein weit verbreitetes Klischee (Masson 1999: 26; Brooker 2003: 222), sodass der Effekt fast schon als Hinweis auf die künstliche Entstehung des Bildes zu lesen ist – eine Wirkung, die ver- stärkt wird, indem die Reflexe auffällig wohlgeordnet im Bild auftauchen. Optische Verzeichnungen wie die Krümmung von Linien gegen den Bildrand hin, die bei Weitwinkelaufnahmen auftreten, gehören zu 75 Dieses Prinzip besagt, dass miteinander verbundene Wahrnehmungsinhalte dazu tendieren, sich gemeinsam in eine Richtung zu bewegen (vgl. Abbildung in Flückiger 2001: 255). Analoge Artefakte 353 jenen analogen Störungen, die noch weniger Beachtung finden als die Bewegungsunschärfe. Dennoch hab en auch sie sich mit unserer Wahrnehmung von analogen Bild- aufnahmen verknüpft und sind be- sonders dort spürbar, wo Kamera- bewegungen stattfinden. Perspek- tivische Verkürzung – ein Effekt, 41 Fischaugenaufnahme in der durch Teleobjektive hervorge- The Matrix rufen wird – lässt sich ebenfalls der Kategorie optischer Verzeichnungen zuordnen. Offenbar sind diese Ver- zeichnungen von geringer Wichtigkeit und werden höchstens dann auf das digitale Bild gerechnet, wenn es um die Anpassung an ein analoges Umfeld geht. Hier bildet The Matrix allerdings eine bedeutsame Aus- nahme: Optische Verzerrungen sind dort nicht nur verschämte Störungen am Rande, sondern werden geradezu zum Bildinhalt. Wie im Abschnitt Reflexionen (→ 269) erwähnt, reizen zahlreiche Spiegelungen in gekrümm- ten Flächen, Löffeln, Sonnenbrillen die tonnenförmigen Verzerrungen bis zum Exzess aus. Als Krönung erscheint ein Stadtbild in Vogelperspektive, wobei die Wolkenkratzer als Fischaugenaufnahme in ein kreisrundes Bild- fenster gepfercht werden (Abb. 41). Spiegelungen, die in diesem Film leitthematisch die verwirrende Verstrickung von Wirklichkeit und Simulation symbolisieren, entstehen bemerkenswerterweise nicht auf glatten, sauberen Oberflächen, sondern verzerrt und schmutzig auf Alltagsgegenständen. Trotzdem sind alle diese Spiegelungen digitale Kompositionen, welche die Verzerrungen nur imi- tieren, statt sie abzubilden. So nämlich ließen sie sich nach Belieben extrem entstellen und nehmen damit wiederum ein anderes Motiv dieses Films auf: die Deformation des Körpers. Als Vignettierung schließlich bezeichnet man die Abnahme von Licht zum Bildrand und besonders zu den Ecken hin, die besonders bei Weit- winkelaufnahmen zu beobachten ist. Diese letzte, durch Objektive be- dingte Störung in meinem Streifzug durch die Phänomene kommt heute in der professionellen Praxis bei analogen Bildaufnahmen kaum mehr vor. Entsprechend wirken sie als Hinweise entweder – wie in Moulin Rouge! – auf eine historische oder aber auf eine amateurhafte Aufnahme. Dem Kontext solcher Aufnahmen zuzurechnen sind filmische Erin- nerungsbilder, die den Fotos vertrauter Menschen und Situationen nach- empfunden und darum mit Vignettierungen versehen sind. Das heißt, die Erinnerung oder vielmehr die Darstellung von Erinnerung knüpft 354 Abbildung 42–44 Die Vorahnungen der Precogs als historisch anmutende Erinnerungs- bilder mit Vignettierung in Minority Report an die formale Erscheinungsweise eines medial repräsentierten Bilderge- dächtnisses an. Speziell komplex ist diese Codierung in Minority Report (Abb. 42–44), in dem drei Wahrsager, so genannte Precogs, die Zukunft nach Verbrechen absuchen, damit das Precrime-Department die mutmaß- lichen Täter noch vor der Tat verhaften kann. Diese Zukunftsbilder lehnen sich an Erinnerungsbilder an und grün- den auf psychologischen Konzepten von Traum und Erinnerung. Die Vignettierung symbolisiert nicht nur einen Mangel in der Darstellung, sondern ist zugleich Konzentration auf den wesentlichen Bildinhalt, der sich – aus einem dunklen Umfeld herausgelöst – ins Zentrum der Wahr- nehmung schiebt und ein Spiel zwischen Verdrängung und Fokussierung nachzeichnet. Rauschen, Zusammenbruch des Signals Jene in der Einleitung angeführte fingierte Dokumentation aus Wag the Dog (USA 1997, Barry Levinson; Abb. 45) über einen Krieg, den es gar nicht gibt, wird vom Fernsehen im Rahmen einer klassischen Nachrichten- Analoge Artefakte 355 situation gesendet, nun zusätzlich mit Rauschen und einem kurzfristi- gen Drop-out des Signals versehen. Solche elektronischen Bild- störungen – vor allem Rauschen und Signalunterbrechungen – sind längst zum Zeichen des Authenti- schen mutiert, besonders dort, wo dieses Authentische erzählt, also konstruiert werden soll. Insofern 45 Zusammenbruch des Signals in Wag the Dog ist die beschriebene Szene aus Wag the Dog ein seltenes Lehrstück, bei dem die Zeichenhaftigkeit der elek- tronischen Artefakte zum Gegenstand der Erzählung selbst erhoben wird. Dabei sind solche Eingriffe Legion. Wo immer Bilder medial gestaffelt über einen Monitor im Filmbild zu sehen sind – eine Anordnung, der ich einen eigenen Abschnitt widmen werde (→ 394) – sind sie mit medientypischen Störungen angereichert. Damit suggerieren sie stressige Aufnahmesitua- tionen, wie sie in Krisengebieten vorkommen, wo die Reporter nur unter schwierigsten Bedingungen live drehen können, ständig bedroht durch Stromausfälle und Übertragungsfehler. Das war allerdings nicht immer so. Eines der frühesten Beispiele ei- ner medialen Staffelung dürfte das Bildtelefongespräch aus Metropolis (D 1927, Fritz Lang) sein. Hier allerdings trug diese technische Errungen- schaft noch die Züge des futuristischen Traums und sollte die Zuschauer in Staunen versetzen. Doch längst ist in der filmischen Darstellung auch die Zukunft nicht mehr, was sie einmal war, und so ist es zu erklären, dass beispielsweise in Minority Report derzeit noch inexistente Technik-Gad- gets wie die interaktive 3D-Projektion mit einem Zeilenmuster in geringer Auflösung versehen wird. «Steven wanted to see mistakes. […] He wan- ted to see the workings of these things»76 (VFX Supervisor Scott Farrar in cinefex 91: 48). Um diese Fehler zu erzeugen, quälte der Sequence Super- visor Steve Braggs das Material durch eine JPEG-Kompression und fügte animierte Streifen hinzu (cinefex 91: 48; Abb. 46). Und auch in The Matrix entsprechen die Bildschirme der Zukunft in Auflösung und Transparenz nicht den Prophezeiungen der New Economy (Abb. 47). Vielmehr könnte man diese mit Artefakten überfrachteten Darstel- lungsweisen als Ausdruck eines massiven Technikskeptizismus werten, wie überhaupt die zukünftigen Welten im Science-Fiction-Film seit Blade Runner (1982) ihre polierten Oberflächen mehrheitlich abgelegt haben. 76 «Steven wollte Fehler einbauen. […] Er wollte sehen, wie diese Dinge funktionieren.» 356 Abbildung 46 Holografische Projektion mit Artefakten in Minority Report 47 Verrauschter Bildschirm der Zukunft in The Matrix Ridley Scott nannte das Verfahren Retrofitting. Es gründete auf der An- nahme, dass in Zukunft große Unternehmen oder herrschende Klassen die Massen vom Zugriff auf die neuste Technologie abschneiden und sie somit dazu zwingen würden, ihre Behausung und ihre Konsumgüter nur behelfsmäßig zu flicken (cinefex 9: 8). Davor hatte schon George Lucas den Begriff Used Future geprägt. Mit einem rostigen und staubigen Look wollte er sich bewusst von der Science-Fiction-Ästhetik früherer Zeiten dis tanzieren. Allerdings wäre es völlig verfehlt, dem Star-Wars-Univer- sum eine technik- und zivilisationskritische Haltung anzudichten. Oder um es anders zu formulieren: Nicht überall decken sich Form und Inhalt, nicht überall sind sichtbares Rauschen und Drop-outs Ausdruck einer pessimistischen Haltung gegenüber den langfristigen Auswirkungen technologischer Entwicklungen auf die Befindlichkeit von Individuum und Gesellschaft. Vielmehr ist der Retro-Look oftmals nur ein modischer Trend, der in der Konsumwelt seit Jahren seine Nischen hat, von den nach- gebauten Antiquitäten bis hin zur ‹stone-washed› Jeans. Dimensionen und Schichten Mit den modellbildenden und den hybriden Bilderzeugungsverfahren kann das Universum in einer ganz anderen Form durchmessen werden als mit den herkömmlichen Techniken der fotografischen Aufzeichnung. Medien als Extensionen der Sinne – mit diesem griffigen Slogan hatte Marshall McLuhan (1964: 45 ff.) schon die grundlegende Eigenschaft der Medien beschrieben, den Erfahrungs- und Wissensraum des Menschen zu erweitern, indem sie Natur in Informationen übersetzen. Durch ihren totalitären Anspruch unterscheiden sich gemäß McLuhan die elektromag- netischen Technologien radikal von ihren Vorläufern, welche schon immer den Zweck hatten, die Menschen mit Extensionen zu versorgen, mit Klei- dern und Häusern als Extensionen der Haut, mit Rädern als Extensionen der Füße usw. Blieben alle diese Extensionen partiell und fragmentarisch, so sind die elektromagnetischen Technologien als Extensionen des zentra- len Nervensystems zu begreifen. Sie sind nach McLuhan darum total und umfassend und durchdringen das Bewusstsein in einer noch nie da gewe- senen Art und Weise: «In this electric age we see ourselves translated more and more into the form of information, moving toward the technological extension of consciousness»1 (63). Als McLuhan diese These formulierte, steckte das digitale Zeitalter noch in den Kinderschuhen, aber vieles, was er andeutete und noch auf die elektrischen und elektromagnetischen Medien münzte, hat sich mit den digitalen Darstellungsformen weiterentwickelt und konkretisiert – besonders dort, wo explizite Wissensstrukturen das Fundament der Bild- produktion darstellen, wie in den Prozessen der Modellbildung (→ 312). So revolutionär dieser Umbruch erscheinen mag, so thematisiert McLuhan doch dessen traditionelle Wurzeln besonders in der Schrift und der Kunst. Er geht von einem dynamischen Prozess des Formens und Umfor- mens zwischen Mensch und technischem Display aus: «Physiologically, man in the normal use of technology (or his variously extended body) is perpetually modified by it and in turn finds new ways of modifying his technology»2 (51). Und er sieht in diesem fortschreitenden Austausch zwi- 1 «Im elektronischen Zeitalter sehen wir uns zunehmend in Information übersetzt und bewegen uns damit in Richtung einer technischen Erweiterung des Bewusstseins.» 2 «Physiologisch verändert sich der Mensch (oder sein erweiterter Körper) laufend durch den Gebrauch der Technologie und findet gleichzeitig neue Methoden, seine Technologie umzugestalten.» 358 Dimensionen und Schichten schen Mensch und Technologie eine ständige Suche nach einer je neuen Homöostase, in welcher das Gleichgewicht zwischen Verlusten auf der ei- nen Seite und Erweiterungen auf der andern immer wieder neu angestrebt und installiert wird (51). Ausgehend von diesem kurzen Seitenblick auf McLuhans prinzipielle Überlegungen wird es in diesem letzten Kapitel darum gehen, die Erwei- terung und Verdichtung des Erfahrungsraums durch digitale Abbildungs- verfahren zu thematisieren. Es sind dies Formen der Erweiterung in alle Dimensionen, es sind Schichtungen und multiple Perspektiven, die sich sowohl in der Art und Weise, wie das Bildmaterial formal aufbereitet wird, als auch in textuellen und motivischen Anordnungen niederschlagen. Sichtbarkeit/Unsichtbarkeit Kaum ein anderer Bereich der theoretischen und praktischen Beschäfti- gung mit Visual Effects ist so fruchtbar und so vielfältig wie die Unter- scheidung zwischen Sichtbarkeit und Unsichtbarkeit, die im Rahmen dieser Studie so etwas wie ein subtextuelles Leitmotiv bildet, das immer wieder an die Oberfläche dringt. So nimmt diese Unterscheidung schon in Metz’ Überlegungen zur Funktionsweise von Special Effects im Film eine wichtige Rolle ein, die er als Doppelspiel zwischen Bewunderung und Verdrängung thematisiert; so ist das Thema der artifiziell wirkenden Ästhetik besonders der frühen Computergrafik in allen technisch orien- tierten Kapiteln genauso wie in den abbildungstheoretischen Überlegun- gen zur Unterscheidung zwischen Aufzeichnung und Modellbildung präsent. Weitaus am ausführlichsten aber habe ich mich bisher mit die- sem Themenkomplex beschäftigt, als es darum ging, Manovichs Thesen zum digitalen Compositing zu diskutieren, denn besonders dort werden unterschiedliche Strategien der Integration von heterogen produziertem Bildmaterial deutlich. Nicht zuletzt wird das Moment des Spektakels als ein Moment der sichtbaren Inszenierung von Bildern diskutiert, die ihren Reiz aus dem betonten Kontrast zu einem als natürlich empfundenen, un- auffälligen Darstellungsmodus beziehen. Es sammeln sich im Themenpool dieser Unterscheidung also ästhe- tische, narrative, technische, abbildungstheoretische und ideologische Komponenten, deren Auswirkungen einander je wechselseitig bedingen, und es wird das Ziel der folgenden Darstellung sein, auf der Basis der bereits gewonnenen Erkenntnisse die einzelnen Facetten nochmals auf- zugreifen und neu zusammenzuführen – dies im Hinblick auf einige mo- tivische Bausteine des zeitgenössischen Films. Denn wie die Analyse des Sichtbarkeit/Unsichtbarkeit 359 Korpus gezeigt hat, haben sich aus der technologischen Veränderung der Bildproduktion selbst einige Motive und Darstellungsformen entwickelt, mit denen ich mich in diesem Kapitel beschäftigen werde. Was als sichtbar eingestuft wird, ist historisch und kulturell einer ständigen Veränderung unterworfen. Denn Sichtbarkeit ist nicht nur eine Funktion des visuellen Wahrnehmungsapparats, sondern auch des Wissens und der Erkenntnis. Mit den großen wissenschaftlichen Theo- rien über das Licht und die optischen Gesetze seiner Ausbreitung durch Newton und Huygens Ende des 17., Anfang des 18. Jahrhunderts, mit der Erfindung optischer Hilfsmittel wie des Teleskops durch Hans Lipper- shey um 1608 und des Mikroskops ebenfalls im 17. Jahrhundert wurden tradition elle Glaubenssysteme erschüttert. «Nothing was as it appeared to be on the surface»3 (Ndalianis 2004: 174). Wie Barbara Maria Stafford (1994: 1 ff.) schreibt, drehten sich die wis- senschaftlichen und philosophischen Bemühungen in der Aufklärung um dieses neue Verhältnis zwischen sichtbarer Oberfläche und unsichtbarer Tiefe und entfachten einen bis heute anhaltenden Drang, die Geheimnisse hinter der Welt der Erscheinungen zu erkunden. Aber dieses Verschieben der Wissensgrenzen selbst kreiert immer neue Rätsel, es ist ein unendlich scheinender Prozess, der besonders mit den wissenschaftlichen Theorien des frühen 20. Jahrhunderts Fragestellungen berührt, die sich der mensch- lichen Vorstellungskraft weitgehend entziehen und mit denen – wie Humphreys (2004: 122) schreibt – «the idea of a sharp, uniform, perma- nent boundary between the observable and the unobservable has to be abandoned».4 Je tiefer das menschliche Bewusstsein und die menschliche Erkenntnis in die Materie und die Welt der Erscheinungen eindringt, desto fremdartiger und abgekoppelter wird sie wahrgenommen, wie Bukatman (1998: 79) mit Bezug auf Terry Castle5 bemerkt. Dieses Verschieben der Grenzen der Wahrnehmung und des Wissens entfachte früh eine neue Skepsis gegenüber dem Sichtbaren, das nun als Fälschung, Fiktion oder somatische Halluzination erschien und einen neuplatonischen Wunsch nach exakter Bestimmung von ungenau wirkenden Erscheinungen er- zeugte (Stafford 1994: 12). In einem größeren kulturellen Kontext des als Schwellenzeit zu be- zeichnenden späten 18. Jahrhunderts ist ein umfassender Umbruch der 3 «Nichts war, wie es schien.» 4 «Die Vorstellung, dass es eine scharfe, einheitliche und permanente Grenze gibt zwi- schen dem, was zu beobachten, und dem, was nicht zu beobachten ist, lässt sich nicht mehr halten.» 5 Castle, Terry (1996): The Female Thermometer. Eighteenth-Century Culture and the Inven- tion of the Uncanny. Oxford: Oxford University Press. 360 Dimensionen und Schichten sozialen, aber auch der religiösen Systeme zu beobachten, der sämtliche zuvor gültigen Gesetze aufzulösen schien. In diesem Umbruch sieht Staf- ford (1994: 18) weiter die Grundlage eines tief greifenden Bedürfnisses nach Ordnung und Systematisierung, das alle Bereiche der Wissenschaf- ten erfasste und das bis heute anhaltende Bestreben auslöste, Unsichtbares in Sichtbares zu transformieren und die Grenzen zwischen innen und außen zu überschreiten, wie ich im Kontext der Körperdebatte weiter aus- führen werde (→ 417). Stafford (1994: 28) macht darin sogar eine Tendenz aus, alle sensorischen Erfahrungen in visuelle zu kollabieren – ein Ge- danke, dem ich nur bedingt folgen kann, denn die ursprünglich optischen Medien transformieren sich seit dem frühen 20. Jahrhundert immer mehr in audiovisuelle Verbundmedien. Aber auch diese sind als telematische Medien zu verstehen, welche die unmittelbare Erfahrung in Fernerfahrun- gen übersetzen und damit ganz im Sinne McLuhans den Erfahrungsraum des Menschen erweitern. Mit der Visualisierungstendenz einher ging die Entwicklung neuer ikonischer Ordnungssysteme, Schemata, Diagramme, welche inexakte Erfahrungen in geometrisch exakte Beziehungen projizie- ren (Stafford 1994: 42; vgl. auch Goodman 1968: 170 ff.). Interessanterweise sind die Regeln, auf welchen diese Ordnungssysteme gründen, nicht visu- ell, sondern abstrakt logisch. In verblüffender Weise schließen diese Beobachtungen an die Einsich- ten an, die ich im Abschnitt Modellbildung (→ 312) schon geäußert habe, wo rationale, explizite Beschreibungssysteme mentale Vorstellungsbilder in die äußere Welt der optischen Darstellung projizieren, was natürlich alles andere als Zufall ist. Vielmehr stand genau der Wunsch, Unsichtbares zu visualisieren, am Anfang der Computergrafik, als es – wie bei der Fo- tografie als Visualisierungssystem – zunächst nicht um die künstlerische, sondern um die wissenschaftliche Anwendung der neuen Technik ging. Die optischen Displays sollten der Erkenntnis dienen und schlossen damit an die Frühgeschichte der Fotografie an und deren Wunsch, unsichtbare, ja sogar fantastische oder okkulte Erscheinungen aufzudecken und sicht- bar zu machen: so die Bewegungsstudien Eadweard Muybridges (Abb. 1) oder Etienne-Jules Mareys schon verschiedentlich erwähnte Chronofoto- grafie und seine anderen wissenschaftlichen fotografischen Abbildungen der Bewegung von Flüssigkeiten und Gasen (Abb. 2; vgl. Braun 1992), die Röntgenbilder ab dem Ende des 19. Jahrhunderts, Gespensterfotografien, Mikrofotografien usw. (siehe Hagen 2002: 203). Dieses eigentlich wissenschaftliche Verständnis von Fotografie als Mittel, die Domäne des mit bloßem Auge Sichtbaren zu überschreiten, um in die Geheimnisse der Materie einzudringen, hatte früh in die damals üblichen theoretischen Reflexionen zu den grundsätzlichen Möglichkei- Sichtbarkeit/Unsichtbarkeit 361 1 Bewegungsstudie von Eadweard Muybridge 2 Etienne-Jules Marey: Fotografie des Strömungs- verhaltens von Luft ten der filmischen Darstellung Einzug gehalten. «Künftighin gestattet der Kinematograph […] Siege über die geheime Wirklichkeit, in der alle Erscheinungen ihre noch nicht gesehenen Wurzeln haben» (Epstein 1935: 263). Es ist die Auffassung von der Kamera als schärferem Auge, als unbe- stechlicher Apparat, der die Wirklichkeit mitleidlos durchdringt, die sich später bei Benjamin, Bazin und Kracauer findet. Mit dem Umbruch in die digitalen Techniken, mit den bildgebenden Verfahren in der Medizin – Computertomografie, Positronen-Emissions- Tomografie, Kernspintomografie – und in anderen Zweigen der Naturwis- senschaften werden weitere Dimensionen des einstmals Unsichtbaren er- schlossen, mithin sogar die intimsten Bereiche sämtlicher innerer Organe, der Fortpflanzung und der Geistestätigkeit. Diese Beobachtungen schlie- ßen an die von Benjamin inspirierte Diagnose des Computergrafikers als des unerbittlicheren Chirurgs an, der die Erscheinungen schärfer seziert als der Kameramann. Solche bildgebenden Verfahren gehören inzwischen zum Darstellungsrepertoire des Films selber. Waren durchleuchtete Körper in Total Recall (USA 1990, Paul Verhoeven) noch als Röntgenbilder zu sehen, so war es in Alien 3 (USA 1992, David Fincher) bereits eine Computertomografie, die den Blick in die von einem Alien geschwängerte Ripley erlaubte. In X-Men (USA 2000, Bryan Singer) sah man die metallische Struktur im Körper von Wolverine wiederum als Röntgenaufnahme, und in XXX (USA 2002, Rob Cohen) ist dieses Eindringen in die verborgenen Schichten von Körpern im An- schluss an die James-Bond-Tradition als Blick durch ein Hightech-Spio- 362 Dimensionen und Schichten 3–6 Blick durch das Mikroskop auf die Vampirzellen in Blade (oben links); ein Hightech-Spionage-Gadget ermöglicht den Blick durch die Materie in XXX (oben rechts); Satellitenaufnahme in Enemy of the State (unten links); Zoom in die Tiefe des Bildes in Blade Runner (unten rechts) nage-Gadget inszeniert (Abb. 4). Noch stärker in das materielle Substrat schließlich dringen nachgeahmte Blicke durch gewaltige Mikroskope in den Titelsequenzen beispielsweise von X-Men oder von Hulk (USA 2003, Ang Lee), deren Materie bis in die DNA hinein erforscht wird, Fahrten durch die neuronalen Strukturen des Gehirns in Fight Club (USA 1999, David Fincher) und in Daredevil (USA 2003, Mark Steven Johnson), die fliegenden Viren in Outbreak (USA 1995, Wolfgang Petersen), der Blick aus dem All mit Satellitenbildern in Enemy of the State (USA 1998, Tony Scott; Abb. 5). Solche Bilder greifen teilweise ein Motiv auf, das mit ana- logen Mitteln schon in Michelangelo Antonionis Blow-up (GB 1966) und Ridley Scotts Blade Runner (USA 1982; Abb. 6) eine zentrale Rolle spielte, nämlich den Blick hinter die Oberfläche, die Suche nach einer verborgenen Wahrheit durch das immer tiefere Eindringen in ein technisch verfasstes Abbild. Vielfach sind diese dimensionssprengenden Blicke gerahmt und er- scheinen auf Monitoren und anderen technischen Displays wie von jeher der Blick durchs Fernrohr – eine gleichermaßen erzählerische wie ästheti- sche Anordnung – mit der ich mich im Abschnitt Rahmungen und Mise-en- Abyme (→ 394) eingehender beschäftigen werde. In manchen Fällen aber stehen sie isoliert und gehen somit stillschweigend davon aus, dass die Zuschauer bereits über ein entsprechendes Bildergedächtnis verfügen und in der Lage sind, solche codierten Botschaften im intendierten Sinne zu lesen. Teilweise sind die Visualisierungen von unsichtbaren, hinter der Oberfläche verborgenen Strukturen auch als Subjektivierungen von Figuren inszeniert, die über ungewöhnlich scharfe Sinne verfügen, wie Sichtbarkeit/Unsichtbarkeit 363 7 ‹Auditive Visualis ierung› des blinden D aredevil schon der Vampir Louis in Interview With the Vampire (USA 1994, Neil Jordan), wie die Superhelden in Spider-Man (USA 2002, Sam Raimi) oder Daredevil (USA 2003, Mark Steven Johnson; Abb. 7). Aus dieser Erweiterung des visuellen Systems in jene Bereiche, die zunächst kognitiv erkundet und aufgeschlüsselt werden mussten, um in visuelle Metaphern übersetzt zu werden, resultieren zwei Linien der Bild- produktion, die sich heute besonders in der Computergrafik niederschla- gen: einerseits eine unübersehbare Abstraktionstendenz – die Tendenz nämlich, in allen Bereichen der Kommunikation mit abstrakten Visuali- sierungen Inhalte zu vermitteln, andererseits die damit unmittelbar ver- knüpfte Tendenz, auf die Repression des einstmals Unsichtbaren, Geheim- nisvollen unter dem Gebot der vernunftgesteuerten Durchdringung des Alltags mit einer kulturellen Produktion des Magischen und Fantastischen zu reagieren, das seinen Ausgang in der literarischen Textproduktion der Romantik nimmt (→ Magie und magische Erscheinungen 336). An die gleitenden Abstufungen zwischen den Polen Ähnlichkeit und Abstraktion, wie ich sie im Kapitel Abbildung thematisiert habe, schließt weiter jener Aspekt des Themenfelds Sichtbarkeit/Unsichtbarkeit an, der medientheoretisch als Kontinuum zwischen Transparenz und Opazität diskutiert wird. Zwischen sichtbaren und sogenannt unsichtbaren Visual Effects bestehen vielfältige Unterschiede, die zunächst zu einer katego- rialen Einteilung des Arbeitsfelds selbst geführt haben. Während große Effects-Filme ebenso wie einige Billigproduktionen ihre computergene- rierten Elemente mehr oder weniger ungehemmt als virtuoses Spektakel ausstellen, sind andere Produktionen bemüht, ihre Effects-Arbeit eher beiläufig erscheinen zu lassen. Tatsächlich schätzen verschiedene Quellen (Buckland 1999: 184; cinefex 100) den Anteil an unsichtbaren Effekten auf 90 % aller CGI. Dies widerspricht dem unmittelbaren Eindruck, den die Visual Ef- fects hervorrufen, nämlich eben jenem Moment der Virtuosität, der Hyper- mediacy, wie Bolter/Grusin (1999: 272) den selbstbewusst präsentationalen Modus der Darstellung bezeichnen. Dieses scheinbare Paradox resultiert daraus, dass erstens die unsichtbaren Effekte der Wahrnehmung entwi- 364 Dimensionen und Schichten schen und dass sie zweitens auch in den paratextuellen Erzeugnissen – Bonumaterial, Drehberichte, Making-ofs – unter den Tisch fallen oder bewusst unter den Tisch gekehrt werden. Aber diese unspektakulären, unsichtbaren Effekte – VFX Supervisor Van Ling (in cinefex 100: 25) nennt sie treffend «pedestrial, unheralded»6 – sind vielleicht noch entscheiden- der für den Einfluss computergenerierter Bilder auf die ästhetischen und narrativen Strategien der filmischen Darstellung. Es sind Retuschearbei- ten, Tracking, Compositing, Enhancement, Travelling Mattes und Matte Paintings, die so natürlich wirken, dass selbst der Spezialist sie nicht mehr erkennt. Die ganze Technik der Set-Extension fällt in diesen Bereich, mit dem in vielen Filmen wie Casino (USA 1995, Martin Scorsese) oder The Truman Show (USA 1998, Peter Weir) rudimentäre Studiobauten in alle Dimensionen erweitert werden. Vielfach sieht man im Kino Filme wie Cold Mountain (USA 2003, Anthony Minghella) mit 300 Visual-Effects- Einstellungen, Master and Commander (USA 2003, Peter Weir) mit 800, United 93 (USA 2005, Paul Greengrass) mit vermutlich über 600, wo sich selbst der Profi verwundert fragt, wo diese ganze Effects-Arbeit versteckt gewesen sein mag. Inzwischen hat die Visual Effects Society eine spezielle Preiskategorie eingerichtet, die Awards for Best Effects in a Supporting Role,7 um solche Arbeiten zu honorieren. Während einige Praktiker jene CGI als ‹schlecht› bezeichnen (z. B. Birn 2000 oder VFX Supervisor Eric Brevig), die auf Anhieb zu erkennen, also im engeren Sinne sichtbar, sind, dürften die Facetten sichtbarer VFX weit- aus vielfältiger sein. So können sie mit einem bewusst trashigen Look von vornherein an eine kultige Low-tech-Subkultur anschließen wie beispiels- weise Mars Attacks (USA 1996, Tim Burton), teilweise X-Men oder die Star-Trek-Filme; sie können in experimenteller Form individuellere, sub- jektivere Erzählformen unterstützen wie in Le fabuleux destin d’Amélie Poulain (F/D 2001, Jean-Pierre Jeunet), in den drei Charlie-Kaufman-Ver- filmungen Being John Malkovich (USA 1999, Spike Jonze), Adaptation (USA 2002, Spike Jonze) und Eternal Sun shine of the Spotless Mind (USA 2004, Michel Gondry); sie können einen selbstreflexiven Modus der Stilisierung unterstützen, der entweder komisch überzogen wirkt wie in The Mask (USA 1994, Chuck Russell) oder aber mit multiplen Diegesen oder parallelen Welten die Unterscheidung zwischen Sichtbarkeit und Unsichtbarkeit selbst thematisieren wie The Matrix (USA 1999, Andy und Larry Wachowski), Virtuosity (USA 1995, Brett Leonard) und Johnny Mnemonic (USA 1995, Robert Longo). 6 … «prosaisch, unauffällig». 7 Siehe http://www.visualeffectssociety.com. Sichtbarkeit/Unsichtbarkeit 365 Die allermeisten Filme sind irgendwo dazwischen angesiedelt, sie oszillieren zwischen sichtbar-spektakulären Gesten des Zeigens und un- sichtbar-unspektakulären Gesten des Verbergens und spielen mit einer Fluktuation des Wissens/Nichtwissens auf Seiten der Zuschauer. Dies gilt insbesondere für jene viel zitierten Filme wie Jurassic Park, Titanic, For- rest Gump, die als Paradebeispiele das ganze Spektrum an Visual Effects umfassen. Es gilt aber auch für jene Filme, die an der Oberfläche spekta- kulär stilisiert wirken wie Sleepy Hollow (USA 1999, Tim Burton) oder Lemony Snicket’s A Series of Unfortunate Events (USA 2004, Brad Silberling), aber ihre eigentlich virtuosen Momente wie beiläufig unter der schillernden Oberfläche verschwinden lassen. Sichtbarkeit – damit knüpfe ich an die eingangs getätigten Überle- gungen zur Kulturgeschichte der Unterscheidung an – ist eben auch eine Funktion des Wissens und bringt damit viele Implikationen besonders auch der Rezeption mit sich, wie sie schon Metz thematisiert hat. So bre- chen zwar die paratextuellen Presseerzeugnisse die angestammten Re- viere des Spezialisten auf, gleichzeitig aber schaffen sie ein Expertentum und eine Fan-Kultur, die ihrerseits einen Lustgewinn aus der Partizipation an diesem Wissen bezieht – dies nicht zuletzt aufgrund der Fetisch- und Totemfunktion der Technologie, wie Elsaesser (1998b: 210) bemerkt, mit je- nem evaluativen Rezeptionsmodus, den ich im Abschnitt Filmische Fiktion (→ 284) beschrieben habe. So spricht David Fincher diesen evaluativen Modus direkt an, indem er in Fight Club einzelne Bilder von Tyler Durden schon in den Film mon- tiert, bevor die Figur erzählerisch etabliert wurde. «The idea […] is that our hero is creating Tyler Durden in his own mind. […] But no one will see any of this in the theater – we did this for the DVD crowd»8 (Fincher in cinefex 80: 121). Trotz all dieses Wissens, trotz des Pseudoexpertentums der Fans, bleibt das Geheimnis ein Schlüsselbegriff aller Visual-Effects-Produktion – das Geheimnis, das sich in jenem Zwischenbereich der Andeutungen und der bloßen Vorstellungen ansiedeln lässt. Rauch, Nebel, Dunkelheit: Alle diese angestammten Strategien schon der traditionellen Special Effects, den künstlichen Eingriff in eine natürlich wirkende Abbildung zu verber- gen, waren, sind und bleiben wirksame Elemente zur Fütterung der je ei- genen Imagination des Zuschauers, der es genießt, die vielfältige Struktur zu erkunden. Angeblich war es in Jaws (USA 1975) reine Not mit einem schlecht funktionierenden Animatronic-Hai, der Spielberg veranlasst ha- 8 «Die Idee besteht darin, dass unser Held Tyler Durden in seiner Vorstellung erschafft. […] Aber das ist im Kino nicht zu erkennen – wir haben die Bilder für die DVD-Fans eingefügt.» 366 Dimensionen und Schichten ben soll, das Monster selten zu zeigen, sondern es lieber nur anzudeuten und in entscheidenden Momenten sogar die Perspektive seines Blicks zu übernehmen (vgl. Hamus-Vallée 2001: 31 sowie Spielberg in cinefex 55: 69). Eine ähnliche Ökonomie des Verbergens hatte aber schon 1933 den ersten Auftritt von King Kong vorbereitet, der zunächst nur zu hören war. Und sowohl in E. T. als auch in Jurassic Park zog es Spielberg vor, die Special-Effects-Attraktion zunächst nur in Fragmenten zu präsentieren und deren Enthüllung so weit wie möglich hinauszuzögern,9 um die Span- nung zu steigern. «There is […] a long tradition in horror fiction that leaves off graphic description or depiction, since, it is claimed, the audience will do a more effective job of imagining unseen monsters than the author ever could»10 (Carroll 1998: 38). Im Gegensatz zu dieser Tradition spielen S aving Private Ryan (USA 1998) und Minority Report (USA 2002) ihre Trümpfe gleich zu Beginn aus. Vielleicht trifft es wirklich zu, dass in Zei- ten des leichteren Zugriffs zu allen Formen von Visual Effects diese Kunst des Andeutens erst einmal zurückgedrängt wird; viele Filme der letzten Jahre – dies zeigen die Beispiele von vollständig computergenerierten Bildern – ziehen es vor, ihre Visual Effects bei vollem Sonnenschein und in Nahaufnahme zu zeigen – einfach weil es möglich ist. Andererseits produzieren einige Strategien des Exzesses ebenfalls Mehrdeutigkeit, wenn auch auf gegensätzliche Weise, nämlich nicht in- dem sie verbergen, sondern indem sie zu viel zeigen. Hektische Schnitte, komplexe ästhetische Strukturen, Zeitraffer, kombiniert mit ausgedehnten Fahrten, verschachtelte narrative Anordnungen überfordern den Zu- schauer, der beim ersten Sehen nur einen Bruchteil des Gezeigten erfassen kann: so Moulin Rouge! (USA/AUS 2001, Baz Luhrmann), Eternal Sunshine of the Spotless Mind, Amélie oder in etwas verunglückter Art und Weise The Cell (USA 2000, Tarsem Singh) und noch mehr, wenn auch wiederum gänzlich anders, Timecode (USA 2000, Mike Figgis), in wel- chem vier Filme gleichzeitig im Bild präsent sind. Schon Peter Greenaway hatte für Prospero’s Book (GB/F 1991; Abb. 8), dem wahrscheinlich ersten Kinofi lm, der voll digital produziert wurde, ausgiebig mit dem Bildmischer 9 Siehe dazu auch meine Modellanalyse der Eröffnungsszene in Sound Design (Flückiger 2001: 414 ff.). Spielberg wiederholt diese Strategie während des Films mehrmals – so in jener Szene, in welcher ein Kran eine Kuh transportiert und hinter sich bewegenden Büschen lediglich ein Schmatzen und Knacken zu hören ist, sowie im berühmten Angriff des Tyrannosaurus rex, der sich zunächst durch Ringe, die sich im Wasserglas bilden, ankündigt und anschließend im Off eine Ziege verschlingt, von der lediglich Spuren zu sehen sind. 10 «Im Horrorfilm existiert seit längerem die Tradition, krasse Beschreibungen oder Dar- stellungen auszuklammern, weil man davon ausgeht, dass sich das Publikum unsicht- bare Monster weitaus schrecklicher vorstellt als dies der Autor könnte.» Sichtbarkeit/Unsichtbarkeit 367 gearbeitet, um komplexe Schichten zu erzeugen, die mehr verbergen, als sie zeigen, genauso wie Jean- Luc Godard für Histoire(s) du cinéma (F/CH 1998; Abb. 9). Nun hat die Diskussion der Opposition Sichtbarkeit/Unsicht- barkeit schon seit Jahrzehnten ei- 8 Schichten in Prospero’s Book nen ideologischen Kern, den ich in meiner Auseinandersetzung mit Manovich im Kapitel Compositing (→ 192) angesprochen habe – die Auffassung nämlich, dass der sicht- bare Eingriff einer künstlerischen Instanz per se einen Wert darstelle, indem sie dem Zuschauer die pas- sive Konsumption einer nahtlos wirkenden Illusion vorenthält. Bekanntermaßen hat diese Dis- 9 Jean-Luc Godard: Histoire(s) du kussion ihre Wurzeln dort, wo der Cinéma technische Apparat – zunächst die Fotografie, dann das Kino – Illusionen zu erzeugen begann, welche die traditionellen Künste – die Malerei und das Theater – in ihrem Fundament erschütterten. Die Auffassung, dass der Kunstwert eines Gemäldes in seinem Kontrast zum Abbildungsgegenstand bestehe, dass weiter diese Differenz auch auf der Ebene der Materialität des Kunstwerks zu bearbei- ten sei, hat ihren Ursprung in jenem Moment der Krise. Ähnlich verhält es sich mit dem von Brecht postulierten Verfremdungseffekt des Theaters, der wie Kittler (2002: 110) zu Recht anmerkt, durchaus als eine Antwort auf die illusionsbildende Kraft des Kinos zu verstehen ist.11 Aber zeitgleich hatte Eisenstein aus ähnlichen Überlegungen in sei- ner Montagetheorie den Ansatz vertreten, das filmische Kunstwerk habe mit Dissonanzen und Kontrasten zu arbeiten, um die Wahrnehmung der Zuschauer aufzurauen und ihr Bewusstsein zu schärfen. Diese Auffassung hat bis heute Bestand; sie schwingt unterschiedlich ausgeprägt in den kri- tischen Reflexionen zur simulatorischen Kraft computergenerierter Visual Effects mit, die ja – wie ich an unterschiedlichen Stellen schon erwähnt habe – gemäß dieser Kritik versuchen sollen, das Publikum zu täuschen und dessen Verstandestätigkeit zu anästhesieren. «Assenting to the ideo- 11 Zur Diskussion der Verfremdung im Film siehe Spiegel (2007: 201 ff.). 368 Dimensionen und Schichten logy of the invisible may be relaxing, but […] it is not safe»,12 schreibt beispielsweise Kolker (1999: 57), denn die Gefahr liege darin, von diesem transparent wirkenden Angebot unmerklich verformt zu werden und dem möglicherweise schädlichen Einfluss hilflos ausgesetzt zu sein. Eine solche Sicht wird – das dürfte inzwischen deutlich geworden sein – der Komple- xität sämtlicher Schattierungen zwischen den Polen Sichtbarkeit/Unsicht- barkeit nicht gerecht. Denn diese Pole sind nicht losgelöst vom Kontext zu betrachten, sondern – wie ich versucht habe darzustellen – immer auch in Relation zu einem bereits vorhandenen Wissen zu setzen. Magie und magische Erscheinungen Arthur C. Clarkes drittes Gesetz:13 «Any sufficiently advanced technology is indistinguishable from magic»,14 wird zitiert, wo immer es um den merk- würdigen Zusammenhang zwischen Technologie und Magie geht, der die ganze Geschichte des Kinos prägt – ein Zusammenhang, den verschiedene Theoretiker bereits mit unterschiedlichen Zielsetzungen bearbeitet haben. So stellt Vivian Sobchack (1980/87: 56 ff.) fest, dass diese Beziehung zum etablierten Motivbestand des Science-Fiction-Films gehört – wie beispielsweise die übernatürlichen Kräfte der Krell in Forbidden Planet (USA 1956, Fred M. Wilcox) oder in materieller Form der Monolith in 2001: A Space Odyssey (GB/USA 1968, Stanley Kubrick). Diese Achse erfährt laut Sobchack seit Close Encounters of the Third Kind (USA 1977, Ste- ven Spielberg) zunehmend eine Erweiterung um religiöse oder esoterische Motive. Von diesem Wandel ausgehend wirft sie die Frage auf, woher die- ses überraschende Interesse an übernatürlichen Erscheinungen rührt in ei- ner Gesellschaft, die fest im materiell-rationalen Denken verhaftet scheint. Wie schon an anderer Stelle bemerkt, muss diese eskapistisch anmutende Tendenz einem grundlegenden Bedürfnis nach Ausgleich entsprechen, so- dass sowohl die magisch-religiösen Inhalte als auch der magische Aspekt der kinematografischen Technologie selbst als reaktive Strategien zur Be- hebung eines Mangels zu verstehen wären. Sobchack sieht darüber hinaus grundsätzlich in Wissenschaft, Magie und Religion drei Bereiche, die zwar unterschiedliche soziale Funktionen übernehmen, aber alle das Bedürfnis 12 «Sich der Ideologie des Unsichtbaren hinzugeben, mag entspannend sein, aber […] es ist nicht ungefährlich.» 13 Arthur C. Clarke ist Science-Fiction-Autor und Koautor von 2001: A Space Odyssey. Seine drei Gesetze hat er 1962 in Profiles of the Future. An Inquiry into the Limits of the Pos- sible aufgestellt. 14 «Jede hinreichend fortschrittliche Technologie ist von Magie nicht zu unterscheiden.» Magie und magische Erscheinungen 369 des Menschen nach Sicherheit und Kontrolle befriedigen, indem sie Ant- worten auf fundamentale, kosmische Fragen liefern. Since all three modes of action affect man in society, they are always in constant interaction in every society […]. And since they all deal with the unknown, where one fails to satisfy, another will step into the breach. It is, therefore, not surprising that in today’s highly complex and technologized world, magic and religion still flourish.15 (Sobchack 1980/87: 63) Während die Ausgleichsfunktion von Magie und Religion vielleicht ein- leuchtet, ist weniger klar, inwiefern die Technologie einer ähnlichen Ziel- setzung folgen sollte. Mit dieser Thematik beschäftigt sich Michele Pierson umfassend in ihrer Monografie Special Effects. Still in Search of Wonder (2002). Sie zieht darin eine historische Verbindung von den wissenschaftlichen Demons- trationen und Vorlesungen im 19. Jahrhundert, in denen Erkenntnisse und technologische Erfindungen gleichermaßen als Wunder präsentiert wurden, zu den zeitgenössischen Visual Effects (11 f.). Besonders ab 1870 diagnostiziert sie eine Bewegung zu ausgeprägt dramatischen und narra- tiven Formen der wissenschaftlichen Vermittlung, welche sich vor allem in der traditionellen wissenschaftlichen Zeitschrift Scientific American nieder- schlägt, die ab 1845 publiziert wurde und zu einer weit verbreiteten Ken- nerschaft von wissenschaftlichen Erkenntnissen führte. In einem größeren historischen Zusammenhang ist gemäß Pierson (17 f.) davon auszugehen, dass diese Entwicklungslinie bis zu Giovanni Battista della Portas16 Magiae Naturalis (1558)17 zurückgeht – eine Spur, die auch Ndalianis (2004: 233) verfolgt, und zwar unter Hinweis auf Tom Gunnings Animated Pictures. Tales of Cinema’s Forgotten Future, After 100 Years of Films (1995). Gunning sieht in der Vorgeschichte des Films einen ständigen Austausch zwischen «a Renaissance preoccupation with the magical power of images and a secular discovery of the processes of light and vision»18 (319). Die wissen- schaftlichen Demonstrationen verfolgten zwar den Zweck, abergläubische 15 «Da alle drei Modi den Menschen als soziales Wesen betreffen, befinden sie sich in allen Gesellschaften in ständiger Interaktion […]. Und weil sie sich alle mit dem Unbe- kannten beschäftigen, springt ein anderer Modus ein, wenn einer von ihnen nicht mehr überzeugt. Insofern ist es nicht überraschend, dass Magie und Religion in unserer hochkomplexen und technisierten Welt immer noch gedeihen.» 16 Alternativ wird della Portas Vorname in der zusammengezogenen Version als Giam- battista angeführt. 17 Die ursprüngliche lateinische Version sowie die englische Übersetzung finden sich als Volltext auf http://homepages.tscnet.com/omard1/jportab1.html. 18 … «eine der Renaissance entstammende Beschäftigung mit der Magie des Bildes und eine säkulare Entdeckung der Grundlagen des Lichts und des Sehens». 370 Dimensionen und Schichten Vorstellungen zu demontieren, und doch ist es schwierig, zwischen einem naiven Staunen und einer wissenschaftlich fundierten Ehrfurcht vor den Erscheinungen der Natur zu unterscheiden. Schon della Porta reflektiert diese auffällige, doppelte Strategie des Belehrens und Staunens zwischen Wissen und Nichtwissen. Er unter- scheidet zwei Arten von Magie, die Hexerei, die sich als schwarze Magie verstehen lässt, und die natürliche Magie, die sich mit den Eigenschaften der verborgenen Dinge und dem Wissen über den Verlauf der Natur be- schäftigt. «The effects created with this knowledge were […] more preter- natural than natural, their ultimate causes remaining hidden even as their modus operandi was revealed»19 (Pierson 2002: 18). Damit sind wir wieder bei dem von Metz beschriebenen Doppelspiel, das nun aber eine kulturelle und historische Erweiterung erfährt als eine Praxis, die über Jahrhunderte schon in unterschiedlichen Kontexten gepflegt wurde, nämlich ein Wissen teilweise zu enthüllen, teilweise aber auch zu verbergen und in diesem Zwischenbereich eine breite Palette von Emotionen des Staunens zwi- schen Furcht und Begeisterung zu erzeugen. Nun bin ich während meiner Forschungen zum Sound Design auf an- dere Wurzeln dieses Phänomens bereits in der Antike gestoßen, und zwar in Hammersteins Publikation zu tönenden Automaten in der alten und mittelalterlichen Welt. Laut Hammerstein (1986: 16 ff.) hatte Heron von Alexandria bereits im 1. Jahrhundert v. Chr. in den Schriften Pneumatica und Automata die Funktionsweisen und Konstruktionsprinzipien solcher Automaten beschrieben. Sie hatten gleichzeitig mimetische und kultische Funktion, denn sie sollten nicht nur darstellen, sondern auch durch Stau- nen belehren. Die kultische Dimension war an die sorgfältige Maskierung des Mechanismus gebunden, der in geheimen Räumen verborgen war, sodass es schien, als ob übernatürliche Kräfte am Werk waren. In diesen Automaten der Antike zeigen sich einige Grundelemente des Zusam- menhangs zwischen Religion, Magie und Technologie in unverhüllter Form – so das Verständnis der schöpferischen Tätigkeit eines Technikers als Teilhabe an einem großen göttlichen Ordnungssystem des Univer- sums. Indem der Techniker dessen Prinzipien durchdringt und sie für sich verfügbar macht, erwirbt er selbst etwas von diesem göttlichen Funken. Er profiliert sich sozusagen als menschliche Instanz des universellen göttli- chen Prinzips, das sich in seinen technischen Erzeugnissen niederschlägt. Della Porta (1558, Kapitel II) selbst, der sich in seinem gesamten Text als fundierter Kenner der griechischen Naturgeschichte und Philosophie 19 «Die Effekte, die mit diesem Wissen entstanden, […] waren eher übernatürlicher als natürlicher Art, indem ihre eigentlichen Ursachen selbst dann verborgen blieben, wenn ihre Funktionsweise offen gelegt wurde.» Magie und magische Erscheinungen 371 erweist, bezieht sich auf die antiken Wurzeln der Beziehungen zwischen Technik, Magie und Religion. Nun mag die Annahme einer historischen Verbindung, die bis in die Antike reichen soll, gewagt erscheinen – umso mehr, als die dort vertretene Auffassung der in unserer Kultur fest verankerten Opposition zwischen Natur und Technik widerspricht. Die Technik hat längst ihre ursprünglich natürliche Herkunft überschritten, und sie scheint auch nicht mehr im Dienst einer religiösen Vermittlung göttlicher Prinzipien zu stehen. An- dererseits ist – wie Kittler (2002) an unterschiedlichen Stellen zeigt – die ganze Geschichte der optischen Medien von einer Verquickung zwischen Belehrung und Erstaunen im magisch-religiösen Sinne geprägt – also von jener Verbindung, wie sie besonders Pierson (2002) postuliert. In der Kino- technik schließlich wird diese Verbindung vollends evident, wie schon Erik Barnouw in seiner Untersuchung zum frühen Kino The Magician and the Cinema (1981) aufzeigt und wie schließlich auch die Thesen Tom Gunnings zur Rolle der Attraktion in der kinematografischen Darstellung belegen. «The men who invented movies – Edison, Lumière, and Méliès – were scientists with the spirit of showmen, […] they were visionaries who attempted to convert science into a magical form of entertainment»,20 hat Martin Scorsese in einem Interview dazu angemerkt (Ndalianis 2004: 227). Niemand bringt diese Verquickung besser auf den Punkt als Stanley Cavell in The World Viewed. Reflections on the Ontology of Film (1971: 38 ff.). Er postuliert, dass der religiöse Charakter schon dem Ursprung jeder Kunst eigen sei. Im Falle des Films aber erhalte dieser religiöse Aspekt einen magischen Touch gerade durch seine Mechanisierung, den ver- borgenen automatischen Prozess der Aufzeichnung und schließlich die Rezeptionssituation in einem abgedunkelten Raum, in welchem nicht nur die Technik verborgen wird, sondern in dem auch wir als Zuschauer un- sichtbar bleiben. Im Vergleich zum spektakulären, ja magischen Charakter des Kinos an sich bleibe die Tricktechnik im Stil von Das Cabinet des Dr. Caligari (D 1920, Robert Wiene) oder Le Sang d’un poète (F 1930, Jean Cocteau) trivial. In der digitalen Tricktechnik der Visual Effects wird diese Verbindung zwischen Technik und Magie noch einmal virulent, und zwar in einer viel grundlegenderen Weise als die Diskussion um das Verhältnis zwischen Spektakel und Narration vermuten lässt, nämlich nicht nur in ihren Inhal- ten, den formalen Aspekten oder der kulturellen Funktion, sondern darü- ber hinaus in der gesellschaftlichen Inszenierung der Technologie selbst. 20 «Die Erfinder des Kinos – Edison, Lumière und Méliès – waren Wissenschaftler mit der Haltung von Schaustellern, […] es waren Visionäre, die versuchten, Wissenschaft in eine magische Form der Unterhaltung zu verwandeln.» 372 Dimensionen und Schichten Davon zeugen schon die Fanzines und jene Lifestyle-Journale wie Wired, welche die Visual-Effects-Supervisors notorisch als Effects Wizards bezeich- nen, sie mitunter sogar F/X-Götter nennen und zu Hollywoods neuer A-Liste hochstilisieren (Thompson 2005). Es sind außerdem die Statements jener symbolisch überhöhten Protagonisten des Wandels wie George Lucas und James Cameron. Darin zeigt sich, dass – wie Böhme et al. (2000: 200) schreiben – «der magische Ursprung von Medien keineswegs erledigt ist, sondern in der digitalen Ära nur eine Fortsetzung mit anderen Mitteln er- fährt.» So führt Cameron selbst Arthur C. Clarkes drittes Gesetz an und gibt unverhohlen zu, es sei sein Ziel, das Publikum glauben zu lassen, dass es sich bei der neuen Technologie um reine Magie handle (Pierson 2002: 47). Weiter wird der explizite Rückgriff auf Magie im Namen der bekanntesten Visual-Effects-Firma, nämlich Industrial Light & Magic, evident, in deren 1975 entworfenem Logo ein Zauberer in einem Zahnrad diese Verbin- dung visualisiert. Der magische Faktor der digitalen Technologie gründet unmittelbar auf der Materialität des Digitalen, die sich – wie an entspre- chender Stelle gezeigt (→ Materialität 41) – der unmittelbaren Anschauung und in weiten Teilen sogar der Intuition entzieht – dies im Gegensatz zur traditionellen Kinotechnologie mit ihrer mechanisch greifbaren Apparatur. So paradox es klingt, ist doch anzunehmen, dass die umfangreichen Erklärungen im Bonusmaterial der DVDs entgegen den Bedenken einiger Visual-Effects-Spezialisten den magischen Charakter nicht unterminieren, sondern vielmehr stützen. «Spectators are placed in an ambiguous relation- ship with the screen in that they are invited to understand and be immersed both in the illusion as a reality (the magic) and in the methods used to cons- truct that illusion (which ruptures that reality)»21 (Ndalianis 2004: 187). Teil dieser mehrdeutigen Strategie ist es, durch die so erzeugte Pseudokenner- schaft die Bewunderung für die enormen Leistungen zu verstärken. Weiter ist es so, dass dieses Doppelspiel durch eine strenge Limitierung des Ein- blicks in die Funktionsweise und die Konzeption der computergenerierten Visual Effects unterstützt wird. Nur wenige dieser angeblich belehrenden Kurzfilme über die Entstehung der Visual Effects sind tatsächlich einer didaktischen Zielsetzung verpflichtet.22 Viel öfter unterscheidet sich für den durchschnittlichen Zuschauer das Fachvokabular der Experten kaum vom wissenschaftlich anmutenden Gebabbel in Science-Fiction-Filmen, in 21 «Die Zuschauer werden in eine widersprüchliche Beziehung zur Leinwand gestellt: So sollen sie die Illusion als eine Realität mit magischen Zügen wahrnehmen und in sie eintauchen, gleichzeitig aber auch die Techniken bewundern, die diese Illusion erst ermöglicht haben (was wiederum die filmische Realität bricht).» 22 Bonusmaterial, das mit seinem didaktischen Aufbau das Verständnis auch von Laien unterstützt, findet sich unter anderem auf folgenden DVDs: Forrest Gump; The Mum- my; I, Robot. Magie und magische Erscheinungen 373 denen unbekannten Materialien und esoterisch aussehendem technischem Equipment fantastische Wirkungsweisen zugesprochen werden, so in den Laboratorien der notorisch verrückten Wissenschaftler. Dies hat unter anderem eine nicht-standardisierte Befragung einer Gruppe von Studierenden der Medienwissenschaften nach der Visio- nierung des Bonusmaterials zu The Day After Tomorrow (USA 2004, Roland Emmerich) ergeben, die zeigte, dass sie lediglich die von ILM ver- mittelte Modellierung der Wölfe einigermaßen verstanden hatten. Selbst- verständlich wäre dieser Befund noch empirisch zu stützen, aber es deutet sich doch an, dass die Erklärungen im Bonusmaterial eher den Status von magisch aufgeladenen Beschwörungsformeln einnehmen als wirklich Einblick zu gewähren. Wie Gunning (1995: 320 f.) schreibt, wussten schon die Schausteller, die optische Illusionen in früheren Jahrhunderten prä- sentierten, «that attributing their tricks to explainable scientific processes did not make them any less astounding, because the visual illusion still loomed before the viewer, however demystified by rational knowledge that illusion might be.»23 Weiter wird der magische Charakter der technischen Innovation auf den DVDs durch eine vielseitig angelegte Mythisierungstendenz unterstützt. So wird unter anderem unentwegt der Frontier-Mythos des Vorstoßes in unbekanntes Gebiet bemüht. Es ist die Rede von nie da gewe- senen Kunststücken, unglaublichen Entwicklungssprüngen und nahezu grenzenlosem Schöpfertum, während die glanzlose Entwicklungsarbeit einer ganzen Generation von wenig magischen Ingenieuren und Grund- lagenforschern gerne übergangen wird – genauso wie die unermüdliche Kleinarbeit des Fußvolks, das während Monaten retuschiert und an Tau- senden von anderen unwichtig erscheinenden Details gearbeitet hat. Wie in den üppigen Inszenierungen wissenschaftlicher Präsentationen im 19. Jahrhundert geht es darum, eine emotional befrachtete Aura des Überna- türlichen zu erzeugen (Pierson 2002: 22 f.). Magie schwingt nicht nur als Grundthema im Sinne der Kino magie mit den erwähnten kulturellen und sozialen Implikationen im Hinter- grund der Visual-Effects-Arbeit mit, sondern magische Erscheinungen bilden ein essenzielles Anwendungsfeld dieser Arbeit. Ähnlich wie im Themenkreis Sichtbarkeit/Unsichtbarkeit, zu dem die Magie in enger Verbindung steht, spiegelt sich ein tief greifender kultureller und sozialer Aspekt der Technologie auf textueller Ebene, es findet in gewisser Weise eine Reflexion der eigenen technologischen Bedingungen statt, mithin 23 … «dass die Bewunderung für die Tricks nicht abnahm, wenn sie mit wissenschaftli- chen Verfahren erklärt wurden, denn die Illusion stand ja weiterhin dem Betrachter in voller Intensität vor Augen, wie sehr sie auch rational entmystifiziert wurde». 374 Dimensionen und Schichten jene doppelte Bedeutung, die schon Morin (1956: 63) in Bezug auf die Ver- wandlung als Technik und Motiv des frühen Films bemerkt hatte (→ 27). Wie Sobchack (1980/87) am Beispiel des Science-Fiction-Films zeigt, ist es besonders in diesem Genre der Zusammenhang zwischen Technologie und Magie, der sich motivisch niederschlägt, so schon in Metropolis die Tätigkeit des verrückten Wissenschaftlers Rotwang und die Transforma- tion des Roboters in die falsche Maria. Ähnliche Transformationsszenen sind fester Gegenstand vieler ande- rer Filme und zwar besonders jener, die auf Comics beruhen, die wiede- rum als dystopische Reaktionen auf die Auswüchse der Technologie und die Bedrohung des kalten Krieges zu verstehen sind. Im Gegensatz zum Comic aber ist in der filmischen Umsetzung des Themas ein merkwürdiger innerer Widerspruch zwischen Botschaft und Darstellung zu beobachten, der sich ebenfalls schon in Metropolis manifestiert, nämlich einerseits in der kritischen Beschäftigung mit den Auswüchsen der Technik und ihrem bedrohlichen Potenzial und andererseits der ungehemmten Feier des technologischen Wunders auf der Ebene der formalen Umsetzung. Dieser Widerspruch beherrscht den Science-Fiction-Film von Forbidden Planet über 2001 bis zu The Matrix (vgl. Spiegel 2007: 107 ff.). Die meisten magischen Erscheinungen sind von einem stark codier- ten Rahmen umgeben, beginnend mit dem Genre, in dem sie erwartungs- gemäß auftreten, und weiter mit den formalen Strategien der Darstellung. Todorov hatte 1970 in Introduction à la littérature fantastique das Fantasti- sche noch in einem Zwischenbereich zwischen dem Natürlichen und dem Übernatürlichen angesiedelt, das im Zuschauer ein Zögern ( hésitation) hin- sichtlich des Verständnisses auslöse – ein Zögern notabene, das sich auch im Verhalten des Protagonisten wiederfinde, der sich den fantastischen Elementen gegenübergestellt sieht (Todorov 1970: 37 f.). Belege für dieses doppelte Zögern finden sich unter anderem in Sleepy Hollow (USA 1999, Tim Burton) oder The Green Mile (USA 1999, Frank Darabont), in welchen die Protagonisten eine skeptisch-nüchterne Haltung mitbringen und erst nach und nach dem Sog des Fantastischen erliegen. Besonders in The Green Mile spiegelt sich dieses Zögern auch formal in einem sehr diskreten Zugang zur Darstellung der wundersamen Kräfte: ein Under- statement, das sich der Regisseur von Anfang an als Ziel gesetzt hatte: «Frank didn’t want those shots to look like effects shots […]. He wanted the audience to have a sense of amazement and to empathize with the cha- racters»24 (VFX Supervisor Ellen Poon in AmC 1/2000: 93). 24 «Frank wollte keinesfalls, dass diese Einstellungen wie Special Effects aussahen […]. Denn er wollte die Zuschauer in Erstaunen versetzen und sie mit den Figuren mitfüh- len lassen.» Magie und magische Erscheinungen 375 Insgesamt reicht die Palette magischer Erscheinungen von überaus fantastischen, deftig ausgestellten Effekten spektakulären Ausmaßes zu kleinen magischen Alltagserscheinungen. Es lässt sich zwar nicht unbe- dingt empirisch bestimmen, welchen Anteil magische Erscheinungen am Gesamtvolumen der sichtbaren Visual-Effects-Arbeit ausmachen, aber in immerhin rund einem Drittel aller im Korpus erfassten Filme sind kleinere oder größere magische Elemente zu beobachten. Von Bedeutung ist aller- dings, dass diese Elemente ihre ursprünglichen Anwendungsfelder beson- ders im Fantasy-Film, in zweiter Linie im Horrorgenre, in dritter Linie in Action- und Science-Fiction-Filmen mehr und mehr verlassen und ein wie selbstverständlich wirkender Bestandteil sämtlicher Genres werden. Der Flug der Feder in Forrest Gump ist dabei noch eines der harmlosesten Beispiele. Das Staunen entsteht eher durch die Kombination eines zufällig wirkenden Elements mit einer ausgeklügelten Kranfahrt – also durch die Reibung zwischen einem ungeplant wirkenden Bildinhalt, dessen Zu- fälligkeit den Kern seiner Botschaft bildet, und einer überaus geplanten formalen Umsetzung. Fester Bestandteil des magischen Repertoires von Filmen ist die An- thropomorphisierung von unbelebten Objekten, wie sie schon im Moloch, der Monster gewordenen Maschine in Metropolis (Abb. 10), sichtbar wurde und seither des Öfteren ‹das Böse› in menschlicher oder tierischer Gestalt visualisiert, unter anderem das verdrängte Böse in Forbidden Pla- net (USA 1956, Fred M. Wilcox; Abb. 11), die Plagen biblischer Symbolik in The Mummy (USA 1999, Stephen Sommers), die sogenannte Brain Flame (cinefex 65: 116) in Backdraft (USA 1991, Ron Howard) oder Evil, die Bedrohung durch eine ferne Zivilisation in The Fifth Element (F/USA 1997, Luc Besson; Abb. 12). Bevor mit der Computeranimation Verfahren wie die Partikel-Animation und andere prozedurale Systeme aufkamen, mussten diese magischen Erscheinungen entweder von Hand rotoskopiert oder als physische Effekte real aufgenommen und ins Bild kopiert werden. Ikonografisch lassen sich zwei Linien der Darstellung von solchen ma- gischen Erscheinungen ausmachen: die Pixie-Dust-Linie des leuchtenden Sternenstaubs aus dem Disney-Imperium und die Blitz-Schiene, welche an die symbolische Bedeutung des Blitzes als göttliches Strafgericht, ja sogar als Apokalypse andockt und den Aspekt einer außerweltlichen, dem Men- schen überlegenen und irrationalen Macht ausdrückt. Diese beiden Formen der Lichtanimation zur Visualisierung von magischen Erscheinungen kön- nen durchaus als stereotypisiert angesehen werden, als fest codierte Einhei- ten, die ein ganzes Netz von Assoziationen ansprechen. In den vielen Wer- ken des Fantasy-Films oder verwandter Genres mit fantastischen Elemen- ten wird dieses Ausdrucksrepertoire sofort evident, wenn es darum geht, 376 Dimensionen und Schichten 10 Die zum Moloch t ransformierte Maschine in Metropolis 11 Das verdrängte Böse in Forbidden Planet 12 «Evil» in The Fifth Element magische Handlungen darzustellen – so die Phiole in Death Becomes Her (USA 1992, Robert Zemeckis), die Eingriffe der Hexen unterschiedlicher Ab- sichten in Willow (USA 1988, Ron Howard), das Auftreten des kopflosen Reiters in Sleepy Hollow, die magische Maske in The Mask (Abb. 13), das All-Seeing-Eye oder der Zeitsturm (Abb. 14) in Tomb Raider (USA 2001, Simon West) und nicht zuletzt die vielen magischen Erscheinungen in The Lord of the Rings (Abb. 15). Wenn die Ankunft des ‹guten› Terminators in Terminator 2 (USA 1991, James Cameron) in ebendieser Form inszeniert wird, spricht somit schon deren ikonografische Verknüpfung Bände. Weit weniger stark codiert sind die immer häufiger auftretenden Formen von Alltagsmagie. Das Paradebeispiel dafür ist Le fabuleux des- Magie und magische Erscheinungen 377 13 Die Zaubermaske in The Mask 14 Der Zeitsturm in Tomb Raider 15 Das magische Auge Saurons aus Return of the King tin d’Amélie Poulain. Angefangen mit den Häschen und Bärchen in den Wolkenformationen (Abb. 16), den redenden Bildern (Abb. 17) und der animierten Lampe ist von subtilen Randerscheinungen bis zu betont stilisierten Einlagen – so dem beglückten Rentner oder Amélie als Zorro – ein breites Panoptikum an magischen Elementen wirksam – eben die märchenhafte Welt der Amélie, die nicht eine magische Welt im engeren Sinne darstellt, sondern einen eigenwilligen Zugang zu einer eigentlich öden Alltagswelt, in welcher die Magie in jenen Details verborgen ist, die einem großen Teil der gehetzten und fantasielosen Menschheit entgehen. In diese Kategorie gehört jene Szene in A Beautiful Mind (USA 2001, Ron Howard), in welcher John Nash für seine Geliebte Sterne an den Himmel zaubert, oder jener magische Moment der ersten Liebe in Big Fish (USA 2003, Tim Burton; Abb. 18), in welchem die Zeit stillsteht, sowie die zahl- reichen Schriften und Zeichen, ebenfalls in Big Fish (Abb. 19), in Sexy Beast (GB/Sp 2000, Jonathan Glazer) oder The Mask, die übrigens meist mit einem Augenzwinkern dargestellt werden. 378 Dimensionen und Schichten 16 Die magische Welt von Amélie 17 Sprechende Bilder in Le Fabuleux destin d’Amélie Poulin 18 Der magische Moment der ersten Liebe in Big Fish 19 Eine fantastische Bot- schaft in Big Fish Mit den magischen Erscheinungen verwandt ist schließlich jener weitläufige Bereich von übernatürlichen Fähigkeiten, von den außer- menschlichen Kräften der Krell in Forbidden Planet, der Tuning genann- ten Fähigkeit zur mentalen Veränderung der Welt in Dark City (AUS/ USA 1998, Alex Proyas), der Telekinese des hochgezüchteten Lawnmower Man (USA 1992, Brett Leonard) bis hin zu dem überaus prononcierten und weiten Spektrum an speziellen Begabungen der X-Men. Magie und magische Erscheinungen 379 Ein Unterbereich der überna- türlichen Fähigkeiten sind jene Ei- genschaften übermenschlicher Kör- per, jedem Angriff zu trotzen und unglaubliche Selbstheilungskräfte zu mobilisieren – ein Motiv, das prominent und überaus nachhal- tig in Terminator 2 (Abb. 20–21) in allen erdenklichen Spielformen durchexerziert wurde und eben jene bedrohliche, weil unschlagbare Komponente des Superbösewichts einführt, mit der ich mich im Kon- text der Superheldenproblematik (→ 462) weiter auseinandersetzen werde. Stärker als der übrige For- menkreis magischer Erscheinungen und übernatürlicher Fähigkeiten sind diese Selbstheilungskräfte un- 20–21 Terminator 2: Der plastische mittelbar mit den digitalen Verfah- Körper des Terminators T-1000 (oben); ren des Morphens und der Retusche übermenschliche Selbstheilungskräfte verbunden. Selbst dort, wo prothe- (unten) tische Applikationen zum Einsatz kommen wie in The Mummy oder im Terminator müssen die unterschied- lichen Zustände mittels Morphing miteinander verknüpft werden. Nun ist dieses Flüssige, Dynamische und Elastische nicht nur auf die Darstellung des Körpers beschränkt, sondern umfasst ebenso alle Berei- che des Magischen, das sich mit digitalen Mitteln ungleich fantasievoller, subtiler oder auch weitaus gröber, ironisiert oder stilisiert darstellen lässt. Denn in einem fundamentaleren Ausmaß als noch im optischen Zeitalter ist die Aufzeichnung nur mehr das Rohmaterial, das wie in der klassischen Zeichena nimation fast allen erdenklichen Fantasien unterworfen werden kann. Rides und das geistige Auge Bewegung galt schon seit Beginn als die Essenz des Films, welche ihn von den früheren Künsten der Abbildung unterschied. So schrieb unter an- derem Panofsky (1947: 283), dass die Dynamisierung des Raums und die Verräumlichung der Zeit als die spezifischen und einmaligen Eigenschaf- 380 Dimensionen und Schichten ten des Films zu betrachten seien, und zwar in einer so überdeutlichen Art und Weise, dass diese Feststellung schon als trivial gelten könnte, wenn sie nicht so ungeheuer wichtig wäre. Inzwischen ist diese Dynamisierung des Raums und die Transformation der Raumdimension in einen elastischen Zeitfaktor zum bestimmenden Merkmal der modernen Mediengesell- schaft überhaupt geworden, dessen Charakteristika beispielsweise Paul Virilio 1993 in Revolutionen der Geschwindigkeit beschrieben hat. So passen jene irrsinnig beschleunigten Kamerafahrten, die als Signa- tur-Effekt der Computeranimation in Windeseile sämtliche Dimensionen des Raums durchmessen, perfekt in die – von der kinematografischen Dynamisierung inspirierte – Auffassung der Beschleunigung und Ver- nichtung des Raums in allen Lebensbereichen. Sie wären – so könnte man im Anschluss an Panofsky sagen – die chemisch reine, von allem Ballast physischer Einschränkungen befreite Essenz des Kinos. Und doch sind es gerade diese als Rides bekannten Kameraflüge, die in erster Linie als Es- senz des hirnlosen Spektakels kritisiert werden. Schon im beschriebenen Genesis-Effekt für Star Trek II: The Wrath of Khan (USA 1982, Nicholas Meyer; → 116) war der Vorbeiflug der virtu- ellen Kamera so ausgelegt, dass er George Lucas «aus den Socken hauen» sollte. Für eine Einstellung des Jongleurs (→ Digitale Figuren 424) im Demo-Band der Firma Triple-I (1981) lautete die Anweisung, eine Kran- fahrt zu programmieren, für welche Busby Berkeley «sein letztes Hemd gegeben» hätte. Ohne Zweifel waren also diese Rides von Anfang an als Spektakel konzipiert. Sie sollten in deutlicher Art und Weise die genuine Eigenschaft der Computeranimation ausstellen, wenn auch – wie ja Alvy Ray Smith (1998) betont hatte – unter sorgfältiger Berücksichtigung der er- zählerischen Intention, also im Idealfall eines Sowohl-als-auch von Spek- takel und Narration. Seit diesen frühen Tagen der Computeranimation ist der Ride das Herzstück einer ganz neuen Erfahrung geblieben. Er bezieht seine Faszination spezifisch aus dem Unterschied zu allen früher mögli- chen Methoden, die Dimensionen der Welt zu durchmessen. Im ersten Jahrzehnt des Films wurden Aufnahmen als Phantom Rides bezeichnet, in denen die Kamera auf Zügen montiert durch die Land- schaft zockelte und den schwindelerregenden, entmenschlichten Blick der Maschine vermittelte. Am ehesten aber sind es jene Flugaufnahmen, mit denen schon Leni Riefenstahl in Triumph des Willens (D 1935) mit propagandistischer Absicht die Großartigkeit des Nürnberger Parteitags vermitteln wollte, die als Vorläufer zahlreicher späterer Flüge mit der virtuellen Kamera gelten können. Sie enthalten schon jene Mischung aus überwältigendem kinästhetischem Erleben und Pathos, das in den erwähnten Schlüsseleinstellungen (→ 130) aus Titanic, Gladiator (USA Magie und magische Erscheinungen 381 22–24 Forbidden Planet: Fahrt durch das Labyrinth der Krell 2000, Ridley Scott) oder The Lord of the Rings gezielt eingesetzt wird, um die gigantischen Schauplätze emotional aufzuladen. Merkwürdiger- weise greifen viele Rides eine Ikonografie auf, die schon in Triumph des Willens zu beobachten ist, nämlich das Durchstoßen von dünnen Wol- kenschichten, welche als bewegte Elemente nahe bei der Kamera durch die Parallaxe25 die Bewegungserfahrung stützen. Sie findet sich in Michael Jacksons Black Or White (USA 1991, John Landis), in Gladiator oder in Moulin Rouge!. In den wenigsten Fällen sind diese spektakulären Flüge reine Be- wegungen einer virtuellen Kamera, viel öfter scheinen sie Compositings zu sein, die mit einem Zoom in die extreme Totale beginnen, dann an geeigneten Übergängen – der Fahrt durch ein Fenster, eine Wand, einen Ventilator – durch unsichtbaren Schnitt an virtuelle Aufnahmen, Modell- aufnahmen oder Kranfahrten mit einer realen Kamera andocken. Diese Technik hatte in Citizen Kane (USA 1941) schon Orson Welles für die 25 Unter Parallaxe versteht man die wahrgenommene Verschiebung eines Objekts gegen- über dem Hintergrund bei Bewegungen. Diese Verschiebung fällt bei kleiner Distanz zum Objekt deutlicher aus als bei großen Distanzen. 382 Dimensionen und Schichten 25 Zeitraffung in Lola rennt Kranfahrt durch das Dach von Susans Nachtclub angewandt und ebenso Alfred Hitchc ock in Notorious (USA 1946) in jener berühmten Kranfahrt auf den Schlüssel in Ingrid Bergmans Hand. Weitaus extremer fällt die Fahrt in Forbidden Planet aus, ebenfalls als Compositing unter Verwen- dung von Modellaufnahmen und Lichtanimation ausgeführt, in welchem die Protagonisten mit einem von den Krell gebauten Fahrzeug durch die unterirdischen Labyrinthe fahren (Abb. 22–24). Sehr oft hinterlässt das Moment der Beschleunigung seine Spuren als Bewegungsunschärfe, aber auch als mehrfach ins Bild kopierte Einstellun- gen, wie in Lola rennt (D 1998, Tom Tykwer; Abb. 25). Jene weitere Möglichkeit, Standaufnahmen (stills) in Datenbanken abzulegen und miteinander zu verknüpfen, die diese Compositing-Tech- niken aufgreift, ist inzwischen mit dem Programm Google Earth26 für je- den Laien zugänglich, der so unter Verwendung von Satellitenaufnahmen und immer mehr 3D-Modellen in unterschiedlicher Auflösung an jeden beliebigen Punkt auf der Erde fliegen kann. Allerdings sind einzelne Land- striche weit besser erfasst als andere. Seit einiger Zeit sind solche und ähnliche Bewegungen auch mit ei- ner realen Kamera möglich: entweder mit Minihubschraubern, die mittels Fernsteuerung in die entlegensten Winkel fliegen können, oder mit der Cable Cam genannten Technik, in welcher die Kamera ähnlich einer Seil- bahn in luftiger Höhe zum Beispiel durch die Häuserschluchten von Man- hattan fliegen kann wie für Spider-Man oder über die Köpfe von Men- schenmassen wie in Troy (USA/Malta/GB 2004, Wolfgang Petersen), wo Cable-Cam-Aufnahmen reine Computeranimationen ergänzen. Das Phä- nomen ist insofern aufschlussreich, als an ihm eine Art Rückkoppelungs- Effekt sichtbar wird, in welchem sich digitale Möglichkeiten auf analoge Anwendungen auswirken und deren Entwicklung vorantreiben. Denn mit dem virtuellen Kameraflug allein ist es nicht getan, es müssen ja die 26 Siehe http://earth.google.de. Magie und magische Erscheinungen 383 ausgedehnten Städtebilder oder Landschaften erst modelliert werden, damit man durch sie und über sie hinwegfliegen kann. Da ist es unter Umständen einfacher, eine Kamera durch die bereits existierenden Topo- grafien zu schicken. Inzwischen – auch das ist eine Bestätigung der These, dass Komplexität das Resultat einer Geschichte sei – werden immer mehr Landstriche und vor allem Gebäude in 3D nachgebaut – oft mit bildba- sierten Verfahren.27 Noch genügen diese Modelle nicht den ästhetischen Anforderungen des Films, aber das wird nur eine Frage der Zeit sein. Haben alle diese Typen von Rides noch eine zumindest hypothetische physische Basis insofern, als sie auszuführen wären, wenn es ein entspre- chendes Transportmittel gäbe, ist dies in anderen Anwendungen nicht mehr der Fall. Denn dort wird die Materie selbst durchflogen – dort sind es unsichtbare, oftmals nur gedachte Strukturen, durch welche die Kamera geschickt wird. Es sind also im engeren Sinne Impossible Shots wie die be- rühmt-berüchtigten Einstellungen aus dem Kühlschrank oder aus dem Kamin, in denen keine Kamera Platz hätte. Schon in Tron hatte man einen solchen Flug durch die Datenräume eingesetzt, der mit digitalen Mitteln an den endlosen Slit-Scan-Flug in 2001: A Space Odyssey anknüpft und mehr einem Geisteszustand als einer körperlichen Bewegung entspricht. Typischerweise pflegten diese Rides zunächst einen dezidiert digitalen Look. Es geht bei solchen Flügen durch die Innereien des Digitalen in erster Linie darum, eine Verbindung zwischen zwei parallelen Universen herzustellen, von denen das eine als ‹reale Welt› ausgewiesen, das andere ein gedachtes Paralleluniversum ist, dessen Materie – wie im Abschnitt Materialität (→ 41) erörtert – der Wahrnehmung nicht mehr unmittelbar zugänglich ist. Mit diesen Flügen in eine gedachte Welt wird einer der wichtigsten Anwendungskomplexe von Rides deutlich, die ich unter dem Begriff geis- tiges Auge (the mind’s eye)28 subsumiere. Wolf (2000: 181) definiert the Mind’s Eye als einen kognitiven Raum, in dem sich Vorstellungen bilden, das Den- ken stattfindet oder Gedächtnisinhalte abgerufen werden. Diese Form des Ride ist also eine Reise durch kognitive Strukturen, die weder den Konkreta einer wie auch immer gearteten Wirklichkeit zuzu- ordnen noch notwendig als Subjektivierungen einer bestimmten Figur zu verstehen sind. Subjektivierungen im engeren Sinne, also die Verlagerung 27 Siehe unter anderem das 3D-Warehouse unter http://earth.google.de/3d.html. 28 Schon Hoberg (1999: 71) hatte im Hinblick auf die Möglichkeiten der Computeranima- tion von einem Auge des Geistes gesprochen, ohne diesen Ausdruck auf eine bestimmte Darstellungsform oder narrative Funktion einzugrenzen. Auch die Praktiker nennen diese Darstellungsform entweder Mind’s Eye View (z. B. David Fincher in cinefex 80: 116 sowie cinefex 86: 27) oder aber Powers of Ten Shot (z. B. cinefex 65: 29), wobei dieser Begriff eher umfassend für Rides steht. 384 Dimensionen und Schichten der optischen, akustischen oder narrativen Perspektive des Films in die Wahrnehmungsperspektive einer Figur,29 sind nur eine Ausprä- gung des geistigen Auges. Es han- delt sich jedoch weder um eine vi- suelle Wahrnehmungsperspektive noch eine narrative Perspektive im klassischen Sinn, sondern eine oft- mals rein hypothetische mentale, deren Inhalt in mehr oder weniger abstrakter Form visualisiert wird. Schon 1992, in The Lawnmo- wer Man spielten solche mentalen Perspektiven eine wichtige Rolle, um die geistige Entwicklung des Protagonisten zu verbildlichen. Wenn auch die Bildmetaphern noch etwas grob und wenig nuanciert ausfielen, so deutete dieser Film doch schon einige Verfahren an, mit denen später innere Zustände visualisiert wurden. Insbesondere Johnny Mnemonic hatte diese Möglichkeiten erkundet, indem zwi- schen der virtuellen Realität, mittels deren Johnny seine Tätigkeit als Datenkurier plant, und den Flash - backs, die eine gelöschte, individu- 26–29 Aus der virtuellen Realität in elle Erinnerung aufflackern lassen, Johnny Mnemonic schält sich lang- ein enger Zusammenhang besteht, sam ein persönliches Erinnerungsbild der äußerst fantasievoll in Bilder heraus. umgesetzt wird (Abb. 26 bis 29).30 Paradebeispiel für die Verwendung des geistigen Auges aber ist Da- vid Finchers Fight Club (USA 1999). Fincher suchte eine Ausdrucksform, 29 Siehe dazu meine ausführliche Darstellung der theoretischen Grundlagen der Subjek- tivierung (Flückiger 2001: 362 ff.). 30 Ein ganz anderer Strang in diesem Themenfeld ist die Rolle des Gedächtnisses an sich, die schon in Blade Runner eine zentrale Stellung zur Konstitution des Individuums spielt. Interessanterweise knüpfen viele Flashbacks in Johnny Mnemonic formal eng an Blade Runner an. Magie und magische Erscheinungen 385 um die Gedankenwelt seines Protagonisten zu visualisieren. Schon die Titelsequenz, die inzwischen berühmte und verschiedentlich zitierte Fahrt durchs Gehirn, aus der Haut und in die Pistole etabliert dieses formale Ele- ment zur Darstellung einer gestörten Psyche. Es war Finchers ausdrückli- che Absicht, den Zuschauer schon zu Beginn an diese Erzählform heran- zuführen, auch wenn er sie erst sehr viel später wirklich begreifen wird. Eine prozedurale Animation mit dem L-System generiert – unterstützt von einer tieffrequenten Rauschfunktion – dieses komplexe Neuronengeäst fortlaufend (→ 67). In vier weiteren Szenen spielen solche Rides eine Rolle: so eine ra- sante Fahrt der Verdrahtung entlang, welche die Explosion der Hochhäu- ser vorbereitet; der Flug in den Papierkorb, der den Beginn der Krise mar- kiert; der imaginäre Ride mit dem Funken, der schließlich die Explosion in der Küche auslösen wird, kommentiert von einem distanzierten Voice- over des Protagonisten: «The police later told me …»;31 und schließlich eine Fahrt durch die Kabel des Überwachungssystems im Hochhaus, von dem aus der Erzähler später den Showdown beobachten wird. In einem Großteil dieser Visualisierungen von Gedanken besteht eine thematisch-visuelle Assoziation zwischen dem Funken als Feuern der Neuronen und den zahlreichen Explosionen, die dem Grundthema einer eruptiven Gewalt entsprechen, die unter der sorgsam gepflegten, all- tagstauglichen Oberfläche lauert. Die Rides drücken ein weiteres Grund- thema aus, nämlich das einer in alle Richtungen zerfließenden Identität, deren Ubiquität sich in einer ortslosen, aber überaus geschäftigen und rastlosen Gedankentätigkeit äußert – dies mit einer «frantic, slightly other- worldly quality»32 (Fincher in cinefex 80: 117). In exemplarischer Weise versammeln sich in diesen Einstellungen einige essenzielle Eigenschaften computergenerierter Bilder, nämlich deren spezifische Möglichkeit, gedachte Räume zu visualisieren, mit der ich mich im Abschnitt Modellbildung (→ 312) schon umfassend beschäftigt habe; weiter deren Fähigkeit, die physikalischen Gesetze nach Belieben auszuhe- beln, und nicht zuletzt die aus diesen beiden Eigenschaften hervorgehende Möglichkeit der Extension der Sinne in alle Koordinaten des Universums. Die Filmgeschichte ist reich an Beispielen von Subjektivierungen oder metaphorischen Verknüpfungen, welche die Tendenz des Bildes zum Konkreten durch die Möglichkeiten der Montage, der Ton/Bild- und Text/Bild-Assoziationen und anderer Techniken überwinden, um Gedan- ken und andere, abstraktere mentale Konzeptionen auszudrücken. Diese 31 «Die Polizei erzählte mir später …» 32 … mit einer «nervösen, leicht übernatürlichen Qualität». 386 Dimensionen und Schichten 30–33 Ein Ride in Star Trek: First Contact be- ginnt im Auge von Picard, geht über in die Totale des Raums und schließlich in die Totale der Raumstation Tradition wird seit Beginn der 1990er-Jahre mit den Mitteln der Compu- teranimation signifikant erweitert. Inzwischen gehören solche Ausdrucks- formen zum Standardrepertoire auch jener als trivial empfundenen Gen- res wie des Action- oder Science-Fiction-Films, so Paycheck (USA 2003, John Woo), X-Men oder Superman Returns (USA 2006, Bryan Singer). Selbst US-amerikanische Fernsehserien wie Six Feet Under, CSI oder Angels in America integrieren komplexe innere Vorstellungsbilder wie selbstver- ständlich in die Darstellung. Sogar im notorisch konservativen Universum von Star Trek mit seinen in Stein gemeißelten Regeln sind inzwischen sol- che Gestaltungselemente zu beobachten, so in Star Trek: First Contact Magie und magische Erscheinungen 387 34–36 Ride durch abstrakte Welten in The Cell (USA 1996, Jonathan Frakes), in welchem ein langer Ride aus Picards Auge bis in eine Totale der fremden Raumstation einen doppelt verschachtelten Flashback einleitet (Abb. 30–33). Oft sind es Übergänge von einem Status, einem Ort oder einem Uni- versum in ein anderes, die mit den Mitteln des Ride oder im engeren Sinne als geistiges Auge umgesetzt werden – so auch in den Comic-Verfilmun- gen Daredevil oder Spider-Man, ebenso in The Cell das Eindringen der Psychologin in die Gedankenwelt ihrer Patienten (Abb. 34–36). Die ganze Folge von Transformationen am Ende von Hulk ist als eine nacheinander geschaltete Serie von Rides gestaltet wie schon die Flashbacks, die zunächst noch in abstrakter Form, dann immer konkreter die Erinnerungen des Protagonisten an sein Kindheitstrauma darstellen. Dabei wird die Bewegung selbst zum symbolischen Ausdruck des Über- gangs von einer Sphäre in die andere als ein Überschreiten von Grenzen. In allen diesen Beispielen ist das Formenrepertoire auffällig hetero- gen. Es knüpft unverhohlen an eine Tradition des abstrakten Films oder des Experimentalfilms an, wie schon die Stargate-Sequenz aus 2001 unmit- telbar auf die von John Whitney Sr. entwickelte Slit-Scan-Technik zurück- 388 Dimensionen und Schichten 37 Traumsequenz in Vertigo griff, oder ganz allgemein an die Tradition einer Avantgarde, in welcher der visuelle Exzess Teil der künstlerischen Intention war. Im Sinne einer Enunziationsmarkierung, also einer direkten Äuße- rung der narrativen Instanz, wird der formale Bruch zu einer ansonsten fotorealistisch dargestellten Diegese zum rhetorischen Operanten. Das war schon immer so, wenn Träume, Halluzinationen oder andere mentale Inhalte darzustellen waren. Orson Welles wird das Diktum zugeschrieben, dass man eine Sequenz nur als Traum verkaufen müsse, um die Kon- ventionen auszuhebeln. Trotzdem fristeten solche Darstellungsformen während langer Zeit eher ein Nischendasein, waren Werken vorbehalten, welche einen mehr oder weniger expliziten Kunstanspruch verfolgten oder zumindest einige vom Mainstream-Film abweichende Erzähl- und Darstellungsmuster anstrebten wie beispielsweise der Film noir. Eines der explizitesten Beispiele für eine solche Integration heterogenen Materials durchaus in Antizipation des Ride ist Vertigo (USA 1958, Alfred Hitch- cock; Abb. 37), in welchem der Schwindel selbst das zentrale Motiv bildet. Bukatman (1998) hat sich im Kontext des Science-Fiction-Films mit einigen ästhetischen und narrativen Elementen von Rides auseinander- gesetzt, die er unter dem Begriff kaleidoskopische Wahrnehmung diskutiert. In seinen Überlegungen schreibt er diese Form der Wahrnehmung der besonderen Eigenschaft von Science Fiction zu, alltägliche Sichtweisen zu verlassen und einen «vertiginous sense of displacement and defamiliariz- ation»33 (80) zu erzeugen (vgl. Spiegel 2007: 201 ff.). Dieses Gefühl der Ent- 33 … «ein schwindelerregendes Gefühl von Verschiebung und Verfremdung». Magie und magische Erscheinungen 389 38–39 Dark City: Ride in die Erinnerung fremdung, der Differenz zum Vertrauten wird gespiegelt als ein Verlassen der Narration und ein Vordringen in die Lust am Spektakel (80). Nochmals fundamentaler entsprechen diese Bewegungen gemäß Bukatman einer Erforschung der Utopie, die schon immer durch eine Opposition «bet- ween the reassuring boundary represented by the frontier (law) and the unreachable, and thus infinitely distant, line of the horizon (liberty)»34 (86) geprägt war. Diese Opposition und der Frontier-Mythos haben mich schon an anderer Stelle beschäftigt, nämlich im Kontext der Magie. Bukatmans Überlegungen lassen sich ohne weiteres in meine Beobachtung integrie- ren, dass sich die Mechanismen und Eigenschaften der technischen Inno- vation in den Motiven und Darstellungsformen wiederfinden. Es ist kein Zufall, dass Bukatman den magischen Charakter dieser Rides ebenfalls 34 … «zwischen der Sicherheit vermittelnden Grenze (Gesetz) und dem unerreichbaren und deshalb unendlich entfernt erscheinenden Horizont (Freiheit)». 390 Dimensionen und Schichten anspricht, und zwar unter Hin- weis auf Arthur C. Clarkes bereits zitiertes drittes Gesetz (81). Im Un- terschied zur etablierten Hie rarchie zwischen nobler Narration und trivialem Spektakel schreibt Bu- katman (82) jedoch dem Verlassen der narrativen Logik eine Form des Widerstands gegen Autorität und Kontrolle zu. Allerdings situ- iert er diesen Befund im Rahmen eines Genres, nämlich des Science- Fiction- Films, der wie das Kalei- doskop Spielzeugcharakter habe. Wie die zuvor erwähnten Bei- spiele zeigen, haben die Rides und besonders auch deren Spezialform, das geistige Auge, diesen affirmati- 40–42 Ride als Übergang in The Thir- teenth Floor: Dynamisierung des ven Rahmen eines Genres mit spe- Ride durch Bewegungsunschärfe und ziellen Konventionen inzwischen schließlich die Auflösung in ein kom- verlassen, der noch in Filmen wie plexes, neuronenähnliches Muster Tron, The Lawnmower Man oder Johnny Mnemonic zu beobachten war. Dennoch sind häufig Codierungsformen wirksam, welche die ab- weichende Sequenz rahmen und damit das Verständnis erleichtern. Eines dieser Verfahren ist die Fahrt ins Auge, welche den Übergang einleitet wie in Dark City, wo die Gedankenwelt der Fremden erkundet wird, die sich der Erinnerungen der Menschen zu bemächtigen suchen. Kontrastierend zur monochrom dunklen, fast farblosen Welt der Fremden sind die Rides (Abb. 38) in die Erinnerungen des Protagonisten, dem es gelingt, Wider- stand zu leisten, hell und in gesättigten Farben wiedergegeben (Abb. 39), wobei der Kontrast selbst als Codierung ausreicht. Ähnliche Verfahren, welche das symbolisch besetzte Motiv der Au- gen als Tor zur Innenwelt aufgreifen, sind überall auszumachen – proto- typisch in The Thirteenth Floor (D/USA 1999, Josef Rusnak, Abb. 40– 42), wo die Übergänge mehrere Bedeutungen haben, nämlich als Über- gänge zwischen Realitäts- und Zeitebenen, aber ebenso zwischen echten und fingierten, das heißt vom Computer implementierten, Gedächtnis - inhalten. Eine weitere etablierte Codierungsform schreibt die Wahrnehmungs- inhalte von Rides einem Mensch/Maschine-Interface zu, das diese Inhalte Magie und magische Erscheinungen 391 43–45 Ein Gerät namens Cerebro erlaubt es Dr. Xavier in X-Men mit der Kraft seiner Gedanken entfernte Orte wahrzunehmen entweder über die Sinnesorgane vermittelt oder direkt im Hirn erzeugt. Schon in Rainer Werner Fassbinders Die Welt am Draht (BRD 1973) war diese Anordnung zu beobachten und seither in zahllosen Folgeproduktio- nen wie Brainstorm (USA 1983), dem Regiedebüt des VFX-Spezialisten Douglas Trumbull, oder Strange Days (USA 1995, Kathryn Bigelow), welche Mensch/Maschine-Interfaces thematisieren, mittels deren man die Wahrnehmung und Gedankenwelt einer anderen Person erkunden kann. In The Cell nutzt die Psychologin diese Möglichkeit, um Patienten zu be- handeln, indem sie direkt in deren Psyche eingreift. Dr. Xavier, der ‹gute› Führer in X-Men, scannt im Bedarfsfall die Welt mit einem Gerät namens Cerebro ab, das die eigene geistige und sensorische Kapazität verstärkt und damit eine Telepräsenz ermöglicht, die weit über den unmittelbaren Wahrnehmungshorizont hinausgeht, um Verbrechen zu verhindern oder verlorene Schafe aufzuspüren (Abb. 43–45). Interfaces, welche wie in Die Welt am Draht die gesamte Wahrnehmung und damit auch das Be- wusstsein kontrollieren, sind das zentrale Motiv in eXistenZ (CDN/GB/F 1999, David Cronenberg) und natürlich in The Matrix. 392 Dimensionen und Schichten Interessant ist dabei, dass die Übergänge zwischen der mediatisierten und unmediatisierten Wahrnehmung unterschiedlich markiert sind. In The Matrix ist es der erste Übergang, sozusagen die Geburtsszene von Neo als einem bewussten, von der Simulation der Matrix unabhängigen Menschen, der als Ride umgesetzt ist. Zunehmend verblasst die Unter- scheidung zwischen den verschiedenen Welten – die Übergänge werden nicht mehr markiert, sondern man überlässt es dem Zuschauer, sich an- hand der etablierten Unterschiede zu orientieren. Ähnlich funktioniert die Anordnung in The Thirteenth Floor, wo die einzelnen Ebenen sich immer weniger unterscheiden. Vergleicht man stark markierte Divergenzen wie in The Lawnmower Man oder Johnny Mnemonic mit diesen und anderen jüngeren Wer- ken, die mehr und mehr die Differenzen verwischen, teilweise sogar bis zur Unkenntlichkeit wie eXistenZ oder The Island (USA 2005, Michael Bay), so könnte man die Hypothese aufstellen, dass die Entwicklung sich auf eine zunehmende Verunsicherung des Rezipienten hinbewegt, dem formale oder narrative Hinweise zur Orientierung mehr und mehr entzo- gen werden. Man könnte darin die Absicht erkennen, eine gesamtgesell- schaftliche Tendenz des Misstrauens gegenüber der medialen Abbildung aufzunehmen und gezielt mit den Emotionen der Angst und der Verunsi- cherung zu spielen. Teilweise dürfte dieser Befund zutreffen. Teilweise gehe ich aber auch davon aus, dass weite Teile des Publikums eine solche Verrätselung dankend annehmen, denn triviale Werke, in denen alles bis ins letzte Detail geklärt ist, haben wir nun genug gesehen. Gleichzeitig wird diese Hypothese durch Die Welt am Draht infrage gestellt, in welchem es überhaupt keine Markierung der verschiedenen Realitätsebenen gibt, aber auch keine Rides, die von einer Ebene in die andere führen, sondern nur vereinzelte Bilder von ‹Probanden›, die am Mensch/Maschine-Interface hängen. Nun könnte man argumentieren, dass eben Fassbinder diesen Film verantwortet habe und dass es dem genuinen Kunstcharakter seines Werks zuzuschreiben sei, dass Fassbinder Mehrdeutigkeit nicht nur zu- lasse, sondern sie geradezu als Notwendigkeit eines künstlerischen Werks betrachte. Tatsächlich ist Welt am Draht als Fernseharbeit entstanden und, abgesehen von der komplexen Verschachtelung, die – wie ich schon erwähnt habe (→ Simulation 279) – auf die literarische Vorlage zurückgeht, eines von Fassbinders weniger ambitiösen Werken. Einmal mehr mischen diese Beispiele die angestammte und bereits kritisierte Dichotomie zwischen Sichtbarkeit/Unsichtbarkeit, Transparenz und Opazität auf, aber auch zwischen Spektakel und Narration. Zunächst gehören markante Rides zur Kategorie des Sichtbaren. Sie belegen also Magie und magische Erscheinungen 393 nicht die These, dass die Domäne des Digitalen einen Hang zur Nahtlosig- keit aufweise, sondern sie zerschneiden das ästhetisch-narrative Gewebe in auffälliger Art und Weise. Schon durch ihre dynamische, betont artifi- zielle Form sind sie der Kategorie des Spektakels zuzuordnen – eine Zu- ordnung, welche die meist spektakulären, nie da gewesenen Darstellun- gen bisher unsichtbarer Materie unterstützen. Gerade in dieser Differenz- qualität jedoch sind sie als Codierungssystem wirksam und erleichtern die Orientierung in der raumzeitlichen Struktur der Diegese, sie sind also als Spektakel sozusagen ein narratives Element, welches das Verständnis er- leichtert und damit eine affirmative Funktion hat. Ich kann Bukatman, der in den Rides ein Verlassen der narrativen Logik sieht, deshalb nur bedingt zustimmen. Zwar gibt es Rides, die reines, irrationales Spektakel sind – Matrix Reloaded (USA 2003, Andy und Larry Wachowski) mit seinen Superman-haften Flügen könnte als Beispiel dienen –, aber schon in Tron hat der Ride eine signifizierende Funktion, indem er narrative Segmente betont und gleichzeitig überbrückt. Aufschlussreich als Vergleichsobjekte sind jene Filme, die in ausge- prägter Weise Gedankenwelten erforschen, ohne auf Rides zurückzugrei- fen, so Being John Malkovich (USA 1999, Spike Jonze) und Eternal Sunshine of the Spotless Mind (USA 2004, Michel Gondry) – beides Filme, zu denen Charlie Kaufman das Drehbuch verfasst hat. Beide sind durch subjektive Perspektiven geprägt, welche die Erfahrungsräume ihrer Protagonisten auf experimentelle Art und Weise erkunden. Sie sind – so ließe sich dieser Typus beschreiben – spektakulär in Form und Inhalt. Trotzdem bieten sie kein visuelles Spektakel im Sinne einer ausgestellten Virtuosität, denn viele formale Elemente fallen betont trashig und simpel aus. So kriechen die Protagonisten in Being John Malkovich durch ei- nen Tunnel, um in die Wahrnehmungsperspektive von John Malkovich einzudringen – ein Übergang, den man ansonsten als Ride inszeniert hätte; so ist die ungemein komplexe Verflechtung von Wahrnehmung und Erinnerung in Eternal Sunshine oftmals nur durch einfache Retuschen, durch Warping oder Diffusion, realisiert – digitale Techniken zwar, aber mit Lowtech-Anspruch. Beide Filme sind überaus heterogen und sperrig. Anders als in den vorgenannten Beispielen hat diese Heterogenität jedoch nicht eine unmittelbare narrative Funktion, sondern überlagert die Orien- tierungssysteme, die weitaus subtiler und weniger offensichtlich sind. In Eternal Sunshine ist es beispielsweise die Haarfarbe der Protagonistin, die unterschiedliche Zeit- und damit Wahrnehmungsebenen codiert. Mit dem geistigen Auge hat eine zutiefst psychologische Sicht auf die Gedankenwelt von Filmfiguren eine mögliche Erweiterung gefunden. Morin (1956: 69 f.) hatte seine Faszination für ein Kino, in dem sich die 394 Dimensionen und Schichten Zeit und der Raum losgelöst von allen materiellen Hindernissen gestalten ließen, schon ausgedrückt: «Temps psychologique, c’est à dire subjectif, af- fectif, temps dont les dimensions […] se retrouvent […] en osmose, comme dans l’esprit humain»,35 und dieser osmotische Austausch zwischen den Formen einer flüssigen Zeitgestaltung wird erweitert um eine räumliche Freiheit der Kamera, die sogar in jene Winkel vordringen könnte, «où nul œil humain n’a jamais pu se nicher ou se jucher».36 Rahmungen und Mise-en-Abyme Netzwerke, Schichten, Module sind Grundformen der Organisation von digitalen Daten, die an den unterschiedlichsten Orten auftreten – so in der Organisation von Oberflächeneigenschaften durch Shader-Netzwerke, im Compositing, in der Konzeption und im Aufbau von computergene- rierten Objekten mit multiplen Referenzen. Es sind dies Strukturen, die sich unmittelbar aus den Eigenschaften Modularität, Direktzugriff und Transmission digitaler Daten ergeben, welche deren Austausch sowohl ermöglichen als auch regeln. Im fiktionalen Film bleiben diese Organisationsstrukturen computer- generierter Bilder weitgehend unsichtbar als latente Möglichkeiten hinter der Oberfläche verborgen. Im Gegensatz dazu bilden sie die spezifischen Eigenschaften des World Wide Web – von der heterogenen, meist dyna- misch zusammengesetzten Oberfläche aus Bild- und Textelementen zur Hypertextarchitektur mit Links – welche unterschiedslos den Direktzu- griff zu parallel verlaufenden Schichten sowie zu den entferntesten Orten des gesamten Netzwerks ermöglichen bis hin zum kulturellen Vernet- zungsgedanken des WWW als einer global distribuierten Struktur von Gemeinschaften mit Foren, Chats, Mailing-Listen. Es sind dies assoziative, thematisch organisierte Verbünde, deren Strukturen in scharfer Oppo- sition zu klassischen, linearen Repräsentationsformen wie speziell des Texts, aber auch des Films stehen, die je mit ihrer strukturellen Anordnung immer auch eine bevorzugte Lesart mittransportieren. Wie schon im Kapitel Das digitale Bild (→ 44) angesprochen, hatte Flusser (1988) diesen Umbruch scharfsichtig als Krise der Linearität be- schrieben, welche einen tief greifenden Wandel der Denkstrukturen mit sich bringen werde. Auch wenn sich viele ähnliche Prognosen eines revo- lutionären Bruchs zwischen analogen und digitalen Darstellungsformen 35 «Die psychologische Zeit ist zu verstehen als eine subjektive, affektiv besetzte, eine Zeit, deren Dimensionen sich wie im menschlichen Geist osmotisch durchdringen.» 36 … «wo kein menschliches Auge sich jemals hinwagen oder verweilen konnte». Rahmungen und Mise-en-Abyme 395 im Laufe dieser Arbeit relativiert, lassen sich mehr Kontinuitäten als Dis- kontinuitäten feststellen; so gehe ich mit Flusser einig, dass sich mit der Opposition zwischen den traditionell linearen und den digitalen, äquidis- tanten Repräsentationsformen ein fundamentaler Wandel anbahnt – weg von einem logisch-kausalen hin zu einem assoziativen Denkstil: einem Denken in Hypertext, wie ich es an mir beobachte, welches die Arbeit mit linearen Ausdrucksformen zunehmend erschwert. Falsch wäre es dennoch, diesen Wandel ahistorisch als einen Umbruch ex nihilo zu deuten. Literarische Romane nutzten von jeher die Möglich- keit, assoziative Ausdrucksformen in unterschiedliche Gattungen zu inte- grieren; sie konnten mehrere Stränge parallel anordnen und die Zeitformen mühelos in komplexer Art und Weise staffeln, verschränken, fragmen- tieren. Im Prozess des Lesens war es die Aufgabe des Rezipienten, diese Strukturen – in der Literaturwissenschaft mit dem Begriff Erzählung (récit) gefasst – zu entschlüsseln und aus ihnen ein kohärentes Destillat, die Ge- schichte (histoire), herauszufiltern. Die filmische Fiktion hat viele dieser komplexen erzählerischen Anordnungen übernommen und sogar weitergetrieben, denn durch seine spezifische multimodale Dar- stellungsform mit Elementen aus Sprache, Bild, Geräuschen und 46 Wort, Diagramm und Bild in Musik lassen sich mehr und unter- Virtuosity schiedlichere Fäden spannen als mit Sprache allein. Wie im Kapitel Com- positing (→ 199) schon erwähnt, las- sen sich (Spiel-)Filme als polyfone Anordnungen eines mehrschichti- gen Geflechts von simultan ablau- fenden Bezügen verstehen, welche 47 Kerninformationen als Schrift in Bedeutung dynamisch über die In- Sphere teraktion unterschiedlicher seman- tischer Systeme konstruieren. Mit den Techniken des digitalen Com- positing hat sich die Tendenz ver- stärkt, solche Bezüge auch innerhalb des einzelnen Bildes herzustellen. Nach wie vor bleibt zwar Film eine prinzipiell lineare Darstellungs- 48 Die heterogene Welt des Videospiels form, bildet jedoch zunehmend in Avalon 396 Dimensionen und Schichten die Fähigkeit aus, hypertextartige Strukturen zu übernehmen, indem er sich Darstellungskodes der di- gitalen Medien einverleibt und am heterogenen Look des Windows- Stils partizipiert. Computermoni- tore, Fernsehbilder, Überwachungs- kameras, Satellitenfotografien, Websites, wissenschaftliche Visua- lisierungen, Diagramme, Collagen aus Text und Bild: Dies alles sind Elemente der Informationsvermitt- lung mit je eigenen Zeichensyste- men (Abb. 46–51). Meist sind diese heterogenen Darstellungsformen diegetisiert, indem sie auf technischen Displays innerhalb der Diegese erscheinen. 49–51 Zwischen den Realitätsebenen hin und her zappen in The Matrix Diese Displays sind als codierende Rahmen zu verstehen, die sich je- doch auch auflösen können. Eine weitere Codierungsstrategie fußt unmit- telbar auf den technischen und ästhetischen Eigenheiten der rahmenden Medien, indem die spezifischen Oberflächeneigenschaften als Marker wirksam werden, wie die Fernsehzeilen, die ich im Abschnitt Analoge Artefakte (→ 334) schon angesprochen habe, und darüber hinaus auch grafische Elemente und weitere typische Merkmale der integrierten Me- diensysteme. Gewöhnlich handelt es sich um Elemente, die einem nicht fiktionalen Kontext angehören, aber im Rahmen des Spielfilms, in dem sie auftreten, fiktionalisiert werden. Immer sind diese Anordnungen geprägt durch eine räumliche und/oder zeitliche Kopräsenz von verschiedenen Situationen, Prozessen, Ansichten. Sie bringen damit eine Vervielfachung der Perspektiven mit sich, die entweder miteinander verschmelzen oder aber in ihrer Vielfalt nebeneinander bestehen bleiben. Nun bieten sich unterschiedliche theoretische Modelle an, mit de- nen diese Phänomene zu beschreiben sind. Erzähltheoretisch schließen sie an die Mise-en-Abyme an, die Prince (1987: 53) kurz als «a textual part reduplicating, reflecting, or mirroring (one or more than one aspect of) the textual whole»37 definiert. Es sind dies oft durch ein Moment der Selbstre- 37 … «ein Teil des Textes, der einen oder mehrere Aspekte des Ganzen verdoppelt, reflek- tiert oder spiegelt». Rahmungen und Mise-en-Abyme 397 flexivität geprägte Einschübe, die klassischerweise als Erzählungen in der Erzählung ausgelegt sind. Zwischen diesen Verschachtelungen stellt sich eine Vielzahl von Bezügen ein, die durch unterschiedliche Maße der Konsonanz bzw. Dissonanz geprägt sein können. Es entspinnt sich also zwischen den Schichten und Verschachtelungen eine diskursive Interak- tion, die ihren Reiz gerade aus der Vielzahl an Erzählperspektiven bezieht, welche sich auf diese Weise in den Text einbringen lassen. «Abimisierung kann über mehrere Stufen hinweg wiederholt werden», schreibt Wulff (1999: 71 f.), «einer erzählt eine Geschichte, in der einer eine Geschichte erzählt, in der einer einen Traum hatte.» Eine Reihe von metaphorisch zu verstehenden Bildern bietet sich an, das Bild vom Bild im Bild, die Abbil- dungen von Spiegelungen und Reflexionen, in welchen sich ein primärer Inhalt vervielfältigt und dabei oft bis zur Unkenntlichkeit verformt. Der Schweizer Troubadour Mani Matter hatte in seinem Chanson Bim Coiffeur das metaphysische Gruseln besungen, das sich einstellt, wenn man – beim Friseur zwischen zwei Spiegeln – sich selbst unendlich vervielfacht gegen- übersitzt. Die Mise-en-Abyme hat eine reiche Tradition in Literatur und bilden- der Kunst. Ndalianis (2004: 90) beschreibt die Deckenmalerei des Barock wie auch andere barocke Formen religiöser Darstellung beispielsweise auf Altären, in denen sich eine Vielfalt von Techniken der Architektur, der Malerei oder der Bildhauerei und von Motiven aus unterschiedlichen Tradition en miteinander verbinden. Jan van Eycks auch in der Blickpunkt- theorie des Films ausgiebig diskutiertes Spiel mit Spiegeln, über welche der Maler selbst seinen Standpunkt ins Bild integriert, Diego Velázquez’ Las Meninas (1656, Abb. 52) und Picassos obsessive Beschäftigung mit die- sem Bild (Abb. 53) drängen sich als Beispiele auf. Als Betrachter von Las Meninas gerät man in einen Strudel des Nach- denkens über die Bildanordnung, die zunächst paradox erscheint und sich nur erklären lässt, wenn man annimmt, das ganze Bild sei als Reflexion eines großen Spiegels gemalt worden – eine Annahme, an die sich sofort die Frage nach dem eigenen Standpunkt anschließt. Picassos Obsession lässt sich durch diese Integration von kopräsenten Standpunkten erklären, welche er in anderer Form durch die kubistische Darstellungsweise von multiplen Perspektiven schon durchexerziert hatte. Wenn also Picasso im kubistischen Stil ein Gemälde interpretiert, das seinerseits durch ein kom- plexes Gefüge von Perspektiven gekennzeichnet ist, sind wir wieder bei jenem metaphysischen Schauer. Dieser Aspekt der Bodenlosigkeit einer transzendenten, möglicherweise unendlichen Anordnung ist im Begriff Mise-en-Abyme schon enthalten, denn abîme (frz.) bedeutet Abgrund und mise en abîme daher, etwas freier übersetzt, «in den Abgrund geschickt». 398 Dimensionen und Schichten 52 Diego Veláz- quez’ Las Meninas (1656) 53 Pablo Picassos Interpretation von Las Meninas Rahmungen und Mise-en-Abyme 399 Alle diese Anordnungen sind durch jenen ikonischen Kontrast geprägt, in welchem sich laut Boehm (1994b: 332 ff.) stets ein Moment der Reflexion über den Abbildungsprozess selbst äußert: «Was immer wir auf der Fläche identifizieren, wir werden auf die bildnerischen Mittel zurückverwiesen, vollziehen den Kontrast der beteiligten Komponenten, hin und zurück.» Dieser ikonische Kontrast manifestiert sich in vielen Abstufungen, von de- nen einige als Störung im Sinne eines Verfremdungseffekts zu werten sind, während andere eher Verschmelzungsprozessen unterworfen werden, in denen entweder die Heterogenität der unterschiedlichen Komponenten stärker maskiert wird oder aber sich die Rahmen gänzlich auflösen. Nicht zuletzt kann der ikonische Kontrast unterschiedliche Realitätsebenen mar- kieren, denen die einzelnen Elemente zuzuweisen sind. In der medientheoretischen Reflexion werden solche Phänomene unter den Begriffen Mixed Media und Intermedialität diskutiert. Während Mixed Media im eigentlichen Sinn jenen Installationen vorbehalten ist, in welchen die einzelnen Medienformen im Rahmen ihres ursprünglichen Displays erscheinen, sich mithin die Heterogenität des Materials in der Präsentationsform erhält, sind filmische Anordnungen von gemischten Medien selbstverständlich jener Standardisierung der Oberfläche unter- worfen, in welche sie mittels Compositing integriert werden. Mit den ver- schiedenen Überlegungen mehrheitlich kritischer Art, die dazu angestellt wurden, habe ich mich im Kapitel Compositing (→ 191) bereits auseinan- dergesetzt und dort insbesondere die Annahme infrage gestellt, dass diese Integration disparater Elemente in einen Bildzusammenhang schon allein wegen der Vereinheitlichung der materiellen Bildeigenschaften zu einer in jeder Hinsicht bedenklichen Verflachung führe. Mit den folgenden Ana- lysen unterschiedlicher Formen der Rahmung und der Mise-en-Abyme werde ich diese Diskussion wieder aufgreifen und weiterführen. Denn Medienmischungen in der filmischen Darstellung sind nicht nur erzähle- risch und ästhetisch ein Sonderfall des Compositing, sondern entstehen auch oft mit den dort beschriebenen technischen Verfahren. Im zweiten Begriff, der Intermedialität, den Bleicher (2002a: 97) defi- niert als «medienübergreifende Intertextualität, das heißt, durch die Inte- gration von Formen, Zeichensystemen und Inhalten, die für ein Medium als spezifisch angesehen werden», in andere mediale Darstellungsformen. Intermedialität als Spielform der Intertextualität mit anderen Mitteln zu begreifen, öffnet ein weites Feld von fruchtbaren Ansätzen zur Diskussion der anstehenden Phänomene. Denn Intertextualität ist immer durch einen intensiven Austausch semantischer Felder erster und höherer Ordnung gekennzeichnet, die sich durch den Import assoziativ mit der primären Be- deutung verbinden. Bedeutungen höherer Ordnung von Medien bilden sich 400 Dimensionen und Schichten durch deren Gebrauch und deren gesellschaftliche und kulturelle Funktion. Verschiedene Autoren (Sobchack 1980/87; Bolter/Grusin 1999; Bleicher 2002a) nennen das Fernsehen als überaus eklektizistisches Medium, das an den unterschiedlichsten Medien partizipiert und sie in einem neuen, eige- nen Gebrauchszusammenhang synkretistisch verschmelzt. Sobchack (1987: 186 ff.) zeigt am Beispiel der Integration von Fernsehsendungen, besonders Nachrichtensendungen in den Science-Fiction-Filmen, wie wiederum die Inszenierung mit allen medientypischen, ritualisierten Elementen – emo- tionslose Diktion, Studiosituation, Text im Bild – genutzt wird, um die Fik- tion mit dem öffentlichen Status dieses Formats anzureichern – mit einem Flair von dokumentarischer Authentizität und objektiver Autorität. Es ist also ein komplexes Rückkopplungssystem zwischen den verschiedenen am Bedeutungsaufbau beteiligten Medienformen auszumachen. Das Internet lässt sich in diesem System als eine Steigerung des Fern- sehens auffassen, das mit zunehmender Bandbreite sämtliche bereits exis- tierenden Medien in sich aufnimmt und sie miteinander dynamisch unter der Hand des Benutzers verknüpft. Teilweise entspricht dieser Prozess des Einverleibens McLuhans Auffassung, dass der Inhalt jedes Mediums ein historisch gesehen früheres sei. Aber der Prozess geht ja über das Aufneh- men hinaus. Er ist als ständiges Konfigurieren und Umkonfigurieren von Erscheinungsformen und Inhalten in einem gesellschaftlichen und kultu- rellen Rahmen zu denken – eben als Netzwerk und nicht als ein Matroschka- Modell, das eine Vielzahl von Schalen aufweist, die man stückweise ent- fernen kann, um zum Kern vorzudringen. Im Ansatz entspricht das von Bolter/Grusins (1999: 59 ff.) bereits er- wähntes Konzept der Remediation (→ 107), mit dem sie die Entwicklung von neuen Medien beschreiben, einem solchen Austauschmodell. Wie Bolter/ Grusin schreiben, ging dieses Konzept ursprünglich teleologisch von einem Fortschritt aus, in dem das Ziel der Entwicklung als anthropotopisch, also auf den Menschen zugeschnitten, beschrieben wurde. Aber es bleibt am Ende doch einem linearen Fortschrittsdenken verhaftet und ist im Einzel- nen schwer nachzuvollziehen – speziell dort, wo Bolter/Grusin Beispiele anführen. Ihre These, dass das Computerspiel Myst ein «refashioning»38 von Film sei («Myst is trying to be like film, only better»),39 ist nicht haltbar, denn Myst hat mit Film nur wenig zu tun – weder in ästhetischer noch in narrativer Hinsicht und schon gar nicht in Bezug auf die Rezeption.40 38 … eine «Wiederauflage». 39 «Myst möchte wie Film sein, nur besser.» 40 Das Spiel besteht aus einer in einer Datenbank abgelegten Serie von statischen Einzel- bildern, die der Benutzer per Maus sukzessive abrufen kann, wobei gewisse Pfade vorgeschrieben sind, andere frei gewählt werden können. Für den Spielerfolg ist es ent- Rahmungen und Mise-en-Abyme 401 Ebenso schwierig nachzuvollziehen ist ihr Konzept einer doppelten Logik der Remediation, die sie am Beispiel von Strange Days vorstel- len, in welchem die Vervielfältigung der Medien schließlich zu einem Auslöschen aller Spuren der Mediation führe, die sich in einem völlig transparenten, multimodalen Mediensystem der virtuellen Realität kris- tallisiere. Es ist jedenfalls problematisch, einen einzigen solchen Flucht- punkt anzunehmen, auf den hin sich die Entwicklung bewegt. Im Moment zeichnet sich ein solcher Trend nicht ab, und es ist sogar fraglich, ob nicht ein vollständig transparentes Medium als ultimativ banal empfunden würde. Analog zu Boehms (1994b: 336) bereits zitierter Diagnose, dass der «Illusionismus mit der perfekten Ikonoklastik konvergiere», würden einem solchen Mediensystem alle jene Elemente fehlen, die bis heute ihren Mehrwert gegenüber der Alltagserfahrung ausmachen, nämlich die Ver- dichtung, die ästhetische, narrative und funktionale Transformation von Wahrnehmung und Erfahrung und nicht zuletzt der Spielwert, der – wie im Kapitel Filmische Fiktion (→ 282) dargelegt – in engem Zusammenhang mit der mehrschichtigen Rahmung der medialen Repräsentation steht, die ihre rituelle Funktion sichert. Daher bietet es sich an, diese Entwicklung, die Bolter/Grusin (1999) durchaus sinnvoll, aber nicht originell in einem Rahmen zwischen Trans- parenz, die sie als Immediacy beschreiben, und Opazität, die sie Hyper- mediacy nennen, ansiedeln, eher als ein autopoietisches System anzu- schauen. Denn speziell die hier zu beschreibenden Formenkreise von multipers pektivischen Anordnungen im filmischen Bild sind als ein un- übersehbarer Trend in Richtung Opazität zu verstehen und somit als ein Ausgleichsp rozess zu nahtlosen, unsichtbaren Eingriffen ins Bild, die der Transparenz zuzuordnen wären. Über die erzähl- und die medientheoretischen Ansätze hinaus können die verschachtelten, heterogenen Anordnungen in einem weiteren kultu- scheidend, dass man im Kopf eine genaue Karte der räumlichen Anordnung entwirft; denn die Aufgabe besteht darin, Rätsel zu lösen, indem man Hinweise, Werkzeuge und Aufgabenstellungen an unterschiedlichen Orten sammelt und miteinander verknüpft. Myst offeriert nur am Rande ein narratives Modell, indem es in einem kleinen Filmein- schub, einem sogenannten Cinematic, und einem Buch eine Rahmenhandlung etabliert. Sie hat für den Spielverlauf indes keine große Bedeutung, sondern dient in erster Linie dem Zweck, zur Spannungserzeugung eine emotionale Komponente der Be- drohung einzuführen. Auch die Behauptung von Bolter/Grusin (1999: 97), dass Myst an voyeuristische Detektivfilme im Stil von Vertigo (USA 1958, Alfred Hitchcock) oder Chinatown (USA 1974, Roman Polanski) anknüpfe, ist nicht haltbar. Denn es ist schon problematisch, Vertigo als Detektivfilm zu klassifizieren. Noch stärker fällt ins Gewicht, dass Voyeurismus als lusterzeugendes Beobachten der Intimsphäre anderer zu verstehen ist, und das kann von Myst nun überhaupt nicht behauptet werden, denn die Tableaus sind menschenleer. Vielmehr spricht das Spiel eine kindliche Neugier des Explorierens unbekannter Räume an. 402 Dimensionen und Schichten rellen Feld unter dem Gesichtspunkt einer Cut-and-Paste-Kultur reflektiert werden – des ungehemmten Ausleihens und Zitierens, die Fredric Jameson mit dem Begriff Pastiche verbindet.41 Jameson kreist den Begriff ein, indem er ihn zunächst von der Parodie abgrenzt, denn die Parodie zeichnet sich dadurch aus, dass sie sich aus einer definierten Haltung mit einem be- stimmten Stil auseinandersetze, wie er in den Eigenheiten der Moderne zu finden sei, also beispielsweise in den langen Satzkonstruktionen William Faulkners mit seinen atemlosen Gerundiven. An diese Phase des Moder- nismus mit einer Verschiebung von der Quantität zur Qualität schloss laut Jameson (16 f.) eine Explosion der modernen Literatur in Myria den von unterschiedlichen, privaten Stilen und Manierismen an, mit der eine sprachliche Fragmentierung des sozialen Lebens einherging bis hin zu einer Vernichtung jedweder Norm: «Modernist styles thereby become postmodernist codes»42 (17). Dieser Sprachenwandel, der sich in der vielfäl- tigen Produktion unterschiedlicher professioneller und fachlicher Jargons niederschlägt, sei zugleich als politisches Phänomen zu verstehen: «If the ideas of a ruling class were once the dominant (or hegemonic) ideology of bourgeois society, the advanced capitalist countries today are now a field of stylistic and discursive heterogeneity without a norm.»43 In dieser politi- schen Situation findet die Parodie keinen Ansatzpunkt mehr, der Pastiche nimmt überhand, den Jameson auf der Basis dieser Analyse folgenderma- ßen definiert: Pastiche is, like parody, the imitation of a peculiar or unique, idiosyncratic style, the wearing of a linguistic mask, speech in a dead language. But it is a neutral practice of such mimicry, without any of parody’s ulterior motives, amputated of the satiric impulse, devoid of laughter and of any conviction that […] some healthy linguistic normality still exists. Pastiche is thus blank parody, a statue with blind eyeballs. (Jameson 1984: 17)44 41 Gemäß Jameson (1984: 16) geht dieser Begriff auf Thomas Manns Doktor Faustus (1947) zurück, der ihn wiederum aus Adornos nicht näher benannter Arbeit über die ver- schiedenen Pfade experimenteller Musik abgeleitet haben soll. Nach der jüngst von Richard Dyer vorgelegten Publikation Pastiche (2007) stammt der Begriff vom italieni- schen Wort pasticcio ab, das von pasta stammt und ein mit Teig bedecktes Gericht be- zeichnete. Pastiche nun bezieht sich auf zwei ästhetische Sachverhalte, nämlich erstens eine Mischung von Elementen aus unterschiedlichen Quellen und zweitens das Zitat, die Imitation früherer Werke (Dyer 2007: 8). Jameson befasst sich im Kontext seiner Diskussion der Postmoderne mit beiden Bedeutungen. 42 «Der Stil der Moderne wird so zum postmodernen Code.» 43 «Während die Vorstellungen der herrschenden Klasse einst die dominante (oder he- gemoniale) Ideologie der bürgerlichen Gesellschaft darstellten, herrscht in hochentwi- ckelten kapitalistischen Ländern nun eine stilistische und diskursive Heterogenität, die keine Norm herausbildet.» 44 «Wie die Parodie ist Pastiche die Nachahmung eines besonderen oder einzigartigen, Rahmungen und Mise-en-Abyme 403 Somit ist Pastiche sozusagen eine degenerierte Form – eine Parodie ohne Biss. Jamesons Analyse kontrastiert auffällig mit der weitgehend positiven Diskussion der Mise-en-Abyme und der Intertextualität in der filmtheore- tischen Debatte, die zwar durchaus einen Zusammenhang zwischen der historischen Entwicklung postuliert, aber gerade in der Appropriation von Stilen im postmodernen Filmschaffen großes kreatives Potenzial sieht (vgl. verschiedene Aufsätze in Eder 2002). Es sind mindestens zwei Erklä- rungsmodelle denkbar, welche diesen scheinbaren oder auch tatsächlichen Widerspruch lösen könnten. Entweder ist Jamesons Position historisch überholt – es haben sich also inzwischen aus einer Situation der Lähmung und des Stillstands in einem extensiven Pluralismus der Beliebigkeiten wie Phönix aus der Asche neue Positionen formiert –, und/oder Jamesons Analyse bezieht sich auf eine andere Praxis, die im Konsumismus der Ge- genwart durchaus zu konstatieren ist und sich beispielsweise in der Kom- merzialisierung von Subkulturen in der Musik äußert. Solche Phänomene lassen sich unter anderem im Hip-Hop und im Techno beobachten, die alle ursprünglich als dezidierte Gegenpositionen zum Mainstream angelegt waren, oder im Theater, in welchem die provokative Geste zum Stereotyp versteinert ist. Im Film gab es schon immer Formen des Recyclings – viele waren fern davon, innovativ mit dem rezyklierten Material umzugehen, aber es lassen sich besonders seit den 1990er-Jahren eine Vielzahl von Wer- ken ausmachen, die ihr Potenzial gerade aus dem Spiel mit Versatzstücken des Genre-Kinos beziehen, so die Werke von Quentin Tarantino, Tim Bur- ton, Baz Luhrmann, David Fincher, um nur einige Exponenten zu nennen. Nun aber zurück zur konkreteren, analytischen Ebene. Ich habe zu- nächst die verschiedenen Erscheinungsformen der Mise-en-Abyme nach den medialen Gebrauchszusammenhängen, aus denen sie stammen, oder den ästhetischen Eigenschaften analysiert. Viele Systeme arbeiten grund- sätzlich mit verschiedenen Darstellungskodes wie beispielsweise die Überwachung, die sich aus abstrakten Visualisierungen kombiniert mit Videos zusammensetzen kann. Im Vordergrund der Analyse stehen die unterschiedlichen narrativen Funktionen und ihr Zusammenhang mit den ästhetischen Strategien der Codierung. spezifischen Stils, den man als Tragen einer sprachlichen Maske, als Sprechen in einem toten Idiom verstehen könnte. Aber es handelt sich dabei um eine neutrale Praxis der Nachahmung, die gerade das vermissen lässt, was die Parodie auszeichnet, nämlich den satirischen Impuls, das Gelächter und die Überzeugung, dass es eine gesunde sprachliche Normalität immer noch gibt. Pastiche ist deshalb zur hohlen Parodie ver- kommen, zu einer blinden Statue.» 404 Dimensionen und Schichten Formen und erzählerische Funktionen Abbildungstheoretisch zeichnen sich Visualisierungen durch einen flexi- blen Grad an Analogiebildung zum Abbildungsgegenstand aus, von einer ziemlich genauen Übersetzung einer Vielzahl von Parametern über punk- tuelle Analogien bis hin zu Diagrammen, die als Grenzfall der bildlichen Darstellung zu gelten haben. Mit dem Umbruch zu den digitalen Reprä- sentationssystemen hat sich ihr Gebrauch in praktisch allen Formen der visuellen Kommunikation explosionsartig vermehrt, und sie sind damit Symbol des computergenerierten Bilds schlechthin geworden. In dieser Funktion spielen Visualisierungen schon seit Jahrzehnten eine wichtige Rolle im Science-Fiction-Film, der diese Abbildungsform über eine Vielzahl von Monitoren in die Diegese einbrachte, lange bevor Computer als PCs zum universellen Gebrauchsgegenstand wurden. Ihre Funktion ging unmittelbar aus dieser Differenz zwischen der Darstellung einer zukünftigen Technologie und dem technologischen Entwicklungs- stand der jeweiligen historischen Periode hervor. Diese Funktion kann als eine utopisch oder aber dystopisch angelegte Mythisierung des Com- puters im Sinne Barthes’ (1957: 194 f.) angesehen werden, also als Import eines semantischen Systems höherer Ordnung, und schließt damit an Beob achtungen an, die ich im Abschnitt Analoge Artefakte (→ 334) schon angesprochen habe. Denn die Abbildung des Computers und seiner Oberfläche verweist nicht nur auf den Computer als Gegenstand, sondern überträgt auch eine übergeordnete Bedeutung, die sich aus der Bewertung der Technologie innerhalb der Gesellschaft ergibt. Darüber hinaus hat die 54 Monitore als Requi- siten in Blade Runner 55 Computerdisplays ebenfalls als Requisiten in 2001: A Space Odyssey Rahmungen und Mise-en-Abyme 405 filmische Darstellung die Möglichkeit, eine solche Bedeutung höherer Ordnung selber zu generieren – entweder durch die Rolle, welche dem Computer intratextuell im einzelnen Film zugewiesen wird, oder durch intertextuelle Bezüge insbesondere der Genre-Konvention. So ist das Computerdisplay ähnlich wie das Techno-Vokabular der Protagonisten ein Stereotyp des Science-Fiction-G enres und bringt als solches selbst ein Netz an Assoziationen in den Text hinein. Oft ist es dennoch wenig auf- fällig in die Ausstattung integriert und daher nicht mehr als ein Gadget, welches die Ausstattung visuell aufwertet (Abb. 54–55). Nur am Rande sei vermerkt, dass die Computerdarstellungen in 2001: A Space Odyssey noch mit analogen Mitteln, entweder als Xerox-Kopien aus dem Scientific Ame- rican, von Hand animiert oder als ‹analoge Drahtgittermodelle› tatsächlich aus Drahtgitter geformt und als 16-mm-Filme per Rückprojektion auf die Monitore geworfen wurden (cinefex 85: 82 ff.). Speziell in 2001 wird evident, wie sich aus einer allgemeinen Genre- Konvention heraus eine Mise-en-Abyme im eigentlichen Sinne entwickeln kann, die sich direkt auf die Primärerzählung auswirkt und deren Motive weiterführt. Die Wandlung des Computers Hal von der neutral bis de- voten Maschine zur autonomen und bedrohlichen Instanz spiegelt sich maßgeblich auf diesen Displays in Kombination mit Text als Dialog und Schrift, dem ‹Auge› und dem Blick der Maschine. So vermitteln die kühlen, zunächst wenig bedeutungsvollen Dia- gramme, welche die Vitalfunktionen der im Kälteschlaf vor sich hin dämmernden Besatzung darstellen (Abb. 56), über diese Verknüpfung das ganze Drama des Menschen in den Klauen der unkontrollierbar geworde- nen Maschine. Die Emotion resultiert gerade aus der Opakisierung dieser Erfahrung durch ein emotionsloses Display, welches das Leben auf nichts anderem als eine modulierte Linie reduziert und den Tod als eine simple Linie darstellt (Abb. 57). Diese metonymische Figur ist sehr oft zu beob- achten, und sie reiht sich nahtlos in eine Todessymbolik des gezogenen Vorhangs, des zerbrechenden Glases, des Schließens der Leichenhülle ein, welche stumm den Tod kommentieren und darauf schließen lassen, dass 56–57 2001: A Space Odyssey: Überwachen der Vitalfunktionen der Besatzung im Kälteschlaf (links); Tod als ausgezogene Linie (rechts) 406 Dimensionen und Schichten die Darstellung des Sterbevorgangs im fiktionalen Mainstreamfilm als Tabu zu betrachten ist, solange es sich nicht um einen zu eliminierenden Bösewicht handelt. Schon in diesen wenigen Anordnungen wird sichtbar, wie vielfältig die Computerdisplays an außerfilmische und intertextuelle Codierungs- und Symbolsysteme anschließen und damit die primäre Erzählung an- reichern. Außerdem bestehen schon die simpelsten Grafiken auf den Dis- plays der vordigitalen Ära aus Bild-Text-Verbünden, die oftmals zudem farbig codiert sind wie im erwähnten Beispiel aus 2001, wo schon die Warnmeldungen alle rot eingefärbt sind und am Ende auch die Schriftfel- der rot erscheinen. Oft sind Visualisierungen parallel zur Handlung angeordnet und ha- ben eine kommentierende Funktion, um das Verständnis des Geschehens zu erleichtern. Filmhistorisch schließt diese Funktion des Monitors an frü- here Darstellungen von Gleichzeitigkeit an: die Parallelmontage und den Splitscreen. Von diesen Vorläufern unterscheidet sie sich jedoch durch jene Übertragung der Bedeutung höherer Ordnung, die mit dem gesellschaft- lichen Status des Mediums assoziiert wird, sowie durch die Erweiterung des ikonischen Vokabulars durch den Import aus einem filmfremden Co- dierungssystem. Am deutlichsten kommt diese Funktion interessanterweise in einigen Szenen vor, welche die Verwandlung des Protagonisten darstellen, so un- ter anderem in Face/Off (USA 1997, John Woo), der ansonsten nur wenig Gebrauch von CG macht, sowie in The Fifth Element, Hollow Man, Spider-Man und Hulk. In solchen Szenen kommt der Visualisierung eine affirmative Rolle zu, denn die Verwandlungen sind Krisenzonen der Fiktion. Der Held ändert seine Gestalt, es besteht die Gefahr, dass seine Identität und damit die Partizipation des Zuschauers einbricht. Dies lässt sich sehr gut an je- ner Kernszene aus Face/Off zeigen, in welcher der Held das Gesicht des Bösewichts transplantiert erhält, um in dessen Identität zu schlüpfen, den Mord an seinem Sohn aufzuklären und schließlich zu rächen. Diese erzäh- lerische Anordnung ist mehr als gewagt und wirft viele Fragen auf, die der Protagonist dem Chirurgen stellvertretend für den Zuschauer stellt. In dieser ersten Phase hat die Visualisierung eine simulatorische Funktion: sie projiziert ein zukünftiges Ereignis in die Gegenwart, ohne im eigent- lichen Sinne ein Flashforward zu sein, ist also ein stärker dem Futur als dem Konjunktiv verpflichtetes Durchspielen eines geplanten Handlungs- ablaufs (Abb. 58–60). Zu sehen sind dabei zwei Monitore, als ‹Zwillinge› nebeneinander angeordnet, auf welchen das Morphen zwischen den verschiedenen Sta- Rahmungen und Mise-en-Abyme 407 58 Face/Off: Vorberei- tung der Operation 59 Mit Wire-Frame-Look als Bedeutungsträger h öherer Ordnung 60 Raster als Referenz 61 Morphen der Veränderung dien stattfindet (Abb. 61). Die Oberfläche ist bewusst opak gestaltet und dies weit stärker als nötig, mit Schriftelementen und Diagrammen, die we- nig zum Informationstransfer beitragen, weil sie nichts erklären, sondern vielmehr dem Zweck dienen, einen wissenschaftlich anmutenden Look zu erzeugen, um den medizinischen Fachjargon visuell zu unterfüttern.45 Die beiden Figuren sind mitunter auf den Monitoren als Wire Frames zu sehen, die sich in unterschiedlicher Form materialisieren. Der Wire- Frame- Look 45 Zu dieser Naturalisierungstendenz vgl. Spiegel (2007: 209 ff.). 408 Dimensionen und Schichten ist als Signifikant zweiter Ordnung wirksam mit der Bedeutung ‹fort- geschrittene Technik›. Ähnliches gilt für ein Raster, das über die Fotografien der beiden Gesichter gelegt wird, um den Aspekt des Vermessens zu repräsentieren. Tatsächlich ist die Visualisierung weit entfernt davon, einen State of the Art wiederzugeben. Im Ge- gensatz zu den anderen erwähnten Transforma tionen verzichtet Woo auch darauf, mit Nachbildungen der üblichen bildgebenden Verfah- ren in jene unsichtbaren Strukturen des Körpers vorzudringen. Trotzdem wirkt die Verwand- lung ungemein verstörend, und zwar gerade wegen der letztlich irrealen ‹Was wäre wenn›-Anord- nung, welche auch die Visualisie- rung nicht ins Möglichkeitsfeld des Realen verschiebt. Dieses anhal- tende Moment des Zweifels stützt den fiktionalen Charakter der Handlung. Als Zuschauer bleibt man in einem fortwährenden Zu- stand des Oszillierens zwischen Glauben und Nichtglauben, zwi- 62–65 Beginnend mit einem Over- schen emotionaler Partizipation shoulder über das Publikum auf den Schulungsfilm in Jurassic Park: und intellektueller Distanz. Dem Vom kindgerechten Cartoon-Stil hin Monitor kommt dabei eine doppel- zur wissenschaftlich erscheinenden sinnige Funktion zwischen affir- Visualisierung mativem Kommentar und distan- zierender Opazität zu. Was dort zu sehen ist, hat wenig mit der Wirklichkeit zu tun, als vielmehr jenem mehr angedeuteten Modus des spielerischen Als-ob an, in welchem im kindli- chen Rollenspiel Streichholzschachteln zu Autos werden. Mit der aufkommenden Computeranimation bewegt sich die Ein- bindung von Monitoren deutlich weg von der generischen Ausstattungs- funktion, aber auch von der Kommentarfunktion. Immer mehr entwickeln Rahmungen und Mise-en-Abyme 409 sich die Inhalte zu eigenständigen kleinen Erzählungen und verlassen ihren ursprünglichen Platz als Stereotyp des Science-Fiction-Films. Dieser Funktionswandel deutet sich schon in Jurassic Park an verschiedenen Stellen an – so mit dem kleinen Schulungsfilm im Informationszentrum (Abb. 62–65), obwohl die Mehrzahl der dort verwendeten Bilder noch im traditionellen Zeichentrickstil oder als fotografische Abbildungen reali- siert sind. Der kleine Film zeigt die wissenschaftlichen Grundlagen der DNS-Ex- traktion aus dem Blut einer in Bernstein konservierten Mücke und die an- schließende Replikation der DNS zur Züchtung der Dinosaurier. Erzähl- theoretisch ist er als Summary im Sinne Genettes (1972) zu klassifizieren: als eine geraffte Zusammenfassung eines umfangreichen Ablaufs. In dieser Funktion ist er identisch mit dem bereits erwähnten Wochenschaubericht zu Kanes Tod zu Beginn von Citizen Kane (→ 335). Die Parallelen gehen allerdings weiter, denn in beiden Filmen greift diese Mise-en-Abyme stark codierte, nicht fiktionale Darstellungsformen auf mit dem Ziel, im Sinne der angeführten Possible-World-Strategie eine historische oder wissen- schaftliche Faktizität als Brückenschlag anzubieten. Gleichzeitig parti- zipiert die Fiktion damit an einem bereits etablierten gesellschaftlichen Status dieser Medienrepräsentationen, analog zur Funktion der Nachrich- tensendung im Science-Fiction-Film, welche Sobchack ausgearbeitet hat. Mit dieser mehrfachen Strategie erweist sich die Mise-en-Abyme als effizientes Mittel, in kondensierter und gleichzeitig spielerischer Form In- formationen zu vermitteln und zusätzlich im Sinne eines Symbolsystems höherer Ordnung jene Aura der Objektivität und Autorität zu importie- ren, die diesen der Faktenvermittlung verpflichteten Darstellungsformen anhaftet. In diesem Prozess ist die ikonische Differenz von Bedeutung, denn solche Visualisierungen haben einen eigenen Formenkreis der bildlichen Darstellung hervorgebracht, in welcher das Diagramm und die Schrift ebenso wie die Überschreitung von Dimensionen der Wahrnehmung eine essenzielle Rolle spielen. Weil sich der fiktionale Schulungsfilm an ein künftiges, voraussichtlich aus Kindern bestehendes Publikum wendet, werden diese Elemente zunächst in jene Form gebracht, die als kindge- recht gilt und deshalb mit Anthropomorphisierungen – ein Mr. DNA als Figur gewordene DNS – des komplexen Sachverhalts arbeitet. Dann aber – und das ist bemerkenswert – schwenkt die Darstellung im Cartoon-Stil um in eine typisch computergenerierte, wissenschaftlich anmutende Visuali- sierung der Doppelhelix der DNS, die auf einem Bildschirm erscheint, also als eine Mise-en-Abyme zweiter Ordnung. Sie leitet direkt über auf die Laborarbeit, die im Anschluss daran zu sehen ist. Mit dieser stufenweisen 410 Dimensionen und Schichten Veränderung des visuellen Darstellungskodes geht also auch ein Wechsel des erzählerischen Tons einher, von der rein unterhaltsamen Annäherung an das Thema hin zu einer wissenschaftlichen, deren Prämissen jedoch von den Protagonisten und zunehmend auch von der narrativen Entwick- lung in Frage gestellt werden. Schließlich ist zudem die Art und Weise aufschlussreich, wie dieser eigentlich aus dem erzählerischen Ablauf herausfallende Block in die Spielhandlung integriert ist. Denn zunächst sehen wir den Bildschirm als Overshoulder der beiden Kinder, also aus einer gestaffelten Blickper- spektive, in welcher wir mit den Protagonisten einen Inhalt wahrnehmen. Darauf folgt der obligate Umschnitt auf die Wahrnehmenden – diesmal die Erwachsenen. Anschließend löst sich der Rahmen auf, und der Inhalt wird ungerahmt präsentiert. Eine sehr ähnliche Konfiguration findet sich in Titanic mit der com- putergenerierten Visualisierung ihres Untergangs, den die Forscher der gealterten Protagonistin zeigen (Abb. 66–69). Es handelt sich ebenfalls um ein Summary, das den Vorgang auf die wichtigsten Stationen reduziert. Im Unterschied zum Film in Jurassic Park ist das Material durch einen kruden computergenerierten Stil ge- prägt. Alle Oberflächen weisen denselben matten Look eines einfachen diffusen Shaders auf – eine Ästhetik, welche die Technizität der Darstel- lung unterstützt und ihr einen objektivierten Status zuweist. Die Per- spektive ist als privilegierte Sicht auf die Totalität des Vorgangs inszeniert, die zusätzlich dadurch unterstützt wird, dass einige Wände aus dem Render-Vorgang eliminiert werden und damit den Blick auf die eigentlich unsichtbare Struktur des Schiffs freigeben. Auch hier wird also jene Eigen- schaft der Modellbildung eingesetzt, die Grenzen der Wahrnehmung nach Belieben zu überschreiten und kognitive Inhalte unmittelbar in Bildmeta- phern zu übertragen. Auch hat die Visualisierung die Funktion, die Fiktion in einem ausge- dehnten Zusammenhang zu verorten, sie mit einer außerfilmischen Wirk- lichkeit zu verknüpfen. Anders als in Jurassic Park geht es dabei jedoch nicht um eine wissenschaftliche Hypothese, sondern die Visualisierung wird als faktische historische Rekonstruktion präsentiert. Auch das Zeit- verhältnis der Summary zur primären Erzählung ist ein anderes. Ging es in Jurassic Park darum, einen vor der Primärerzählung liegenden Sach- verhalt zu verdichten, ist das Summary in Titanic einem Segment der primären Erzählung gewidmet, das erst gegen Ende zu sehen sein wird, nämlich die – dem Zuschauer bereits bekannte – Katastrophe. Gerade weil der Inhalt der Visualisierung historisch verbürgt und weitgehend bekannt ist, kann es nicht ihr primärer Zweck sein, Informationen zu vermitteln, Rahmungen und Mise-en-Abyme 411 66 Titanic: Krude Visualisierung des Untergangs 67 Die Titanic während des Sinkens mit freigeleg- tem Schiffsinnern 68 Inszenierung des Monitors 69 Die gealterte Rose als Zeitzeugin sondern die Visualisierung soll zunächst dieses Vorwissen aktualisieren, um die Fiktion stärker damit zu verknüpfen. Ebenso interessant ist die Integration des Monitors in die Inszenie- rung. Als Adressatin der Vorführung wird Rose in Szene gesetzt. Der Expe- ditionsleiter spricht live zur ungerahmten Darbietung der Visualisierung einen betont schnoddrigen Kommentar ein und ist in einer Totalen zu sehen, welche zusätzlich Rose von hinten sowie den Monitor umfasst, in welcher der Leiter die Visualisierung gestenreich begleitet. Dieses deutli- che Understatement dient dem Zweck, einen Kontrast zur emotionalisier- 412 Dimensionen und Schichten ten fiktionalen Umsetzung des im Summary präsentierten Ereignisses zu bilden – ein Kontrast, den die verbale Reaktion von Rose nachdrücklich hervorhebt: «Thank you for that fine forensic analysis, Mr. Bodine. Of course, the experience of it was … somewhat different.»46 Mit dem Kon- trast stellt sich also eine Hierarchie zwischen einer auf Fakten beruhenden Wahrheit der Computeranimation und der Wahrheit einer persönlichen Erfahrung her. Die dokumentarisch wirkende Rahmenhandlung, zu welcher schon das Material der ferngesteuerten Videokamera gehört, die das Wrack aufnimmt, stützt den Evidenzcharakter der Computervisuali- sierung und lädt Rose mit einer Aura der Authentizität auf. Ausgehend von diesem Vorspiel springt die Erzählung dann nach dem Muster einer konventionellen Rahmenhandlung in der Zeitachse zurück. Die Primär- erzählung beginnt. In all diesen Funktionen sind Monitore und Displays als Knoten- punkte zwischen verschiedenen Modi des Erzählens wirksam. Zusätzlich bilden sie oft Schnittstellen, die zwischen verschiedenen Stufen des Rea- lit ätsbezugs vermitteln – eine Anordnung, die im Beispiel aus Titanic ansatzweise schon vorhanden ist. Ihr eigentliches Einsatzgebiet sind jedoch alle jene erzählerischen Konstruktionen, in denen Diegesen mit unterschiedlichem Authentizitätsanspruch als parallele Welten ausgelegt sind wie in The Matrix, Virtuosity, The Thirteenth Floor, eXistenz, Avalon. Über diese Konstruktion, besonders in The Matrix, ist viel ge- schrieben worden (z. B. Žižek 1999; Weibel 1999; Kampmann Walther 2002; Meyer 2002). Doch es ließe sich nach wie vor einiges dazu sagen, denn auch hier wird jenes Moment der Selbstreflexion wirksam, in welcher die motivische Bearbeitung als Reflex auf einen technologischen Wandel und seine kulturellen Implikationen zu verstehen ist. Der Monitor ist in diesen Konfigurationen oft als eine Projektions- fläche inszeniert, die wie ein Fenster den Blick vom einen ins andere Uni- versum eröffnet oder, wie Meyer (2002: 311) zu jener Kernszene aus The Matrix bemerkt, in welcher Morpheus Neo über deren simulatorische Funktion aufklärt und ein Wechseln zwischen den Wirklichkeitskanälen per Fernbedienung ermöglicht. Darüber hinaus kann das technische Display aber auch als ein sicher- heitsstiftender Rahmen wirksam sein, der die verschiedenen Realitäten voneinander unterscheidet wie üblicherweise in allen bis heute genutzten Formen der audiovisuellen Medienvermittlung, des Fernsehens, des Kinos und des Computers. Diese Funktion, unterschiedliche Realitäten voneinan- 46 «Besten Dank für diese hervorragende forensische Analyse, Mr. Bodine. Allerdings war die persönliche Erfahrung … irgendwie anders.» Rahmungen und Mise-en-Abyme 413 der zu trennen, kann durch verschiedene mit diesem Rahmen assoziierte Codierungen, mit denen ich mich an anderer Stelle (→ 335) schon ausei- nandergesetzt habe, verbunden werden. Es sind dies formale, technische und ästhetische Eigenheiten des codierenden Mediums, aber auch arbiträre Zuordnungen wie Farbcodierungen, unterschiedliche Stile oder Stilzitate in der Mise-en-Scène, unter anderem die Kleidung und die Ausstattung, welche die Orientierung in der Raum-Zeit-Verschachtelung der multiplen Diegesen erleichtern oder aber durch nuancierte Abstufungen bis hin zur Auslöschung jedweden sichtbaren Unterschieds erschweren können. Wenn diese etablierte Barriere des Bildschirms sich auflöst, wenn sozusagen eine fremdartige Welt aus diesem Rahmen herausschwappt und sich direkt ins Wohnzimmer ergießt, dann deutet sich ein Albtraum der besonderen Art an, wie ihn The Ring (USA 2002, Gore Verbinski), das amerikanische Remake des japanischen Films Ringu (JP 1998, Hideo Nakata) präsentiert. Zwar im weiteren Sinne dem Horror-Genre zuzu- ordnen, zeichnet sich der Film durch jene groteske, überdrehte Form des Zusammenwerfens von stereotypen Versatzstücken aus, die wiederum in ihrer postmodernen Häufung eine ironisierende Distanz in die Rezeption einbringen. Die Geschichte – kurz zusammengefasst: dass man sieben Tage, nach- dem man ein bestimmtes Video angeschaut hat, stirbt – gehört zu jenem abgelutschten Fundus von Sommerloch-Storys oder Urban Legends, die man immer wieder neu aufwärmen und mit anderen Details anreichern kann, und als solche wird sie auch eingeführt. Bereits in der Exposition kommt also eine rahmende Distanz ins Spiel: Die Geschichte ist schon als Geschichte fertig angelegt, bevor die Erzählung beginnt. Genauso stereo- typ geht es weiter: Eine Journalistin kommt zufällig in Kontakt mit einem Todesfall, der auf diese Weise ausgelöst worden sein soll. Sie beginnt zu recherchieren und sucht die einzelnen Stationen auf, die sowohl zum Uni- versum der fiktionalen Rezipienten als auch zu demjenigen des Videos gehören. Die beiden Welten durchdringen einander immer stärker, der Fernsehbildschirm wird – und das ist in diesem Kontext essenziell – in alle Richtungen überschritten. Nicht nur gibt es eine Welt, die im abgebildeten Universum außerhalb des Bildrahmens liegt, sondern es gibt eine solche Welt auch auf dem Abbildungsmedium selbst, nämlich neben der eigentli- chen Bildspur. Dort sind jene Teile verborgen, welche die Fähigkeit haben, den Bildschirm zu verlassen: zu Beginn eine Fliege, später das Mädchen Samara, das als Geist im Videoband lebt und – um sein Überleben zu si- chern – fortwährendes Kopieren einfordert. Es tun sich also allerorten Abgründe auf, eine Mise-en-Abyme im wahrsten Sinne des Wortes. Das Motiv verschiedener Realitätsebenen vor, 414 Dimensionen und Schichten hinter und im Bildmedium wieder- holt sich in einer Reihe von para- doxen Spiegelungen sowie in der Transformation von Abbildungen (Abb. 70–73). So sind nicht nur die Bildstö- rungen als Spuren einer im Bild 70 Ausschnitt aus dem unheimlichen verborgenen Existenz zu werten, Videofilm in The Ring sondern jene Personen, die durch den Geist im Video kontaminiert sind, können nicht mehr unver- zerrt abgebildet werden. Ihr Ge- sicht löst sich zu einer unscharfen, verwischten Fläche auf, als be- finde sich die Identität bereits in einem Prozess des Zerfalls. Mithin ist The Ring ein gutes Beispiel, 71 Die Fläche des Monitors wird in alle wie man mit einem Minimum an Richtungen überschritten technischen Mitteln ein Maximum an Effekt erzeugt. Gerade die auf vielen Ebenen vorhandene redu- zierte Form der Erzählung und ihre formale Umsetzung stützen das augenzwinkernde Spiel mit dem Zuschauer, der als Komplize die ironische Distanz zur Darstellung teilt. So jedenfalls lese ich das Werk. 72 Sobald eine Person kontaminiert ist, löst sich ihr Gesicht in der Abbildung auf Am Ende dieses Abschnitts stellt sich nochmals die Frage, ob sich in diesen erzählerischen Anord- nungen ein grundlegender Wandel zu herkömmlichen Formen der fil- mischen Narration zeigt. Insbeson- dere Manovich (2000: 218 ff.) hatte postuliert, dass das Computerzeit- alter eine neue Logik der medialen 73 Am Ende ergießt sich das Grauen Darstellung mit sich bringe, die er direkt ins Wohnzimmer die «Logik der Datenbank» nennt. Kennzeichnendes Merkmal dieser Logik ist eine flache Anordnung der Elemente, die sich unsortiert im Daten- raum befinden: «They are collections of individual items, with every item Rahmungen und Mise-en-Abyme 415 possessing the same significance as any other»47 (218). Darin manifestiere sich ein völlig anderer Zugang zur Welt, die als eine endlose und unstruktu- rierte Sammlung von Bildern, Texten und anderen Daten erscheine: «Thus narrative becomes just one method of accessing data among many»48 (220). Hier sieht Manovich eine Parallele zur angestammten Strategie des Schneideraums, die aus einer Datenbank von Fragmenten ein Ganzes herstelle: «During editing, the editor constructs a film narrative out of this database, creating a unique trajectory through the conceptual space of all possible films that could have been constructed»49 (237). Als prominente Beispiele der Datenbank-Logik innerhalb des Filmschaffens nennt er ei- nige Werke von Peter Greenaway – namentlich The Draughtsman’s Con- tract (GB 1982) und Prospero’s Book (GB/F 1991) –, die in einer solch freien Struktur um die Zeichnungen bzw. Bücher angeordnet seien. Vor allem aber widmet er sich Dziga Vertovs Tscheloweks Kinoapparatom (Der Mann mit der Kamera, Sowjetunion 1929), der sich die Aufgabe gesetzt habe, soziale Strukturen aus einer Vielzahl von beobachteten Ein- zelphänomenen zu destillieren. Tatsächlich kondensiert sich aus Manovichs Thesen die etablierte Unterscheidung zwischen assoziativen und logisch-kausal konzipierten Erzählmustern heraus – nicht als eine Opposition, sondern als zwei sich ergänzende formale Strategien der filmischen Darstellung. Immer sind bei der Rezeption des Films solche mehr perzeptiv ausgerichtete, lyrische oder assoziative Modi wirksam – besonders in jenen ästhetischen Eigen- schaften wie Klang oder Farbe, die nicht unbedingt kognitiv durchdrun- gen werden müssen, sondern eher wie zusätzliche Schichten den Rezep- tionsprozess begleiten, emotional vertiefen und sensorisch anreichern. Assoziative Modi sind darüber hinaus häufig thematisch wirksam, indem der Film ähnliche oder aber divergente Blöcke nebeneinander stellt, ohne zwischen ihnen eine explizite Verbindung zu schaffen. Schon 1993 hatte Malcolm Le Grice auf ein universelles Prinzip jeder künstlerischen Arbeit hingewiesen, das unterschiedliche Daten (Frag- mente, Einstellungen, Objekte) miteinander verbindet: «It carries with it the implication of signification and a relationship between the artistic con- struct and the world on which it reflects»50 (Le Grice 2001: 246). Diese Sicht 47 «Es handelt sich dabei um Sammlungen von Einzelstücken, die alle gleich wichtig sind.» 48 «So sind Erzählungen nur mehr eine Form der Vermittlung unter anderen.» 49 «Während des Schnittprozesses erstellt man aus den Elementen dieser Datenbank eine filmische Erzählung und konstruiert so einen einzigen Pfad durch den konzeptuellen Raum aller Filme, die aus diesem Material hätten entstehen können.» 50 «Es führt implizit eine Bedeutung mit sich und damit eine Beziehung zwischen dem künstlerischen Werk und der Welt, auf die es sich bezieht.» 416 Dimensionen und Schichten unterscheidet sich signifikant von Manovichs Auffassung. Denn obwohl Computermedien durch den Direktzugriff unterschiedlichste Daten in ei- ner riesigen Anzahl von Modalitäten nicht-linear miteinander verknüpfen können, dominieren kulturell gegebene und traditionell etablierte Strate- gien, welche der Vermittlung der Daten dienen und ihnen Sinn verleihen. Auch Buchstaben lassen sich prinzipiell in jeder beliebigen Reihenfolge anordnen, aber wenn ich einen Text erstellen will, wird diese Anordnung durch die Konventionen der Sprache eingeschränkt. Zwar trifft es – wie zu Beginn dieses Abschnitts beschrieben – aus meiner Sicht zu, dass der Direktzugriff einen assoziativen Denkstil beför- dert. Gleichzeitig aber ist diese Veränderung – zumindest so, wie sie sich bis heute präsentiert – im Kontext des Kinos nicht als revolutionärer Um- bruch zu verstehen, sondern als eine Erweiterung tradierter Erzählweisen um mehrschichtige, zeitlich und räumlich parallel verlaufende Formen. Sie können den Zuschauer weit stärker in die Interpretationsarbeit einbin- den als einfachere, rein lineare Anordnungen. Körper Im Zentrum des fiktionalen Kinos standen schon seit der Frühzeit die menschliche Figur und besonders deren Gesicht als Projektionsfläche für die Emotionen des Zuschauers. Schon immer hat der filmische Apparat den menschlichen Körper fragmentiert, transformiert und hochgerüstet – vor, in oder nach der Kamera. So schrieb Dziga Vertov1 1923 in seinem Aufsatz Kinoki – Umsturz: Ich bin Kinoglaz, ich schaffe einen Menschen, der vollkommener ist als Adam, ich schaffe Tausende verschiedener Menschen nach verschiedenen, vorher entworfenen Plänen und Schemata. […] Von einem nehme ich die geschicktesten Hände, von einem anderen die schlankesten Beine, von einem dritten den schönsten und ausdrucksvollsten Kopf und schaffe durch Mon- tage einen neuen, vollkommenen Menschen. (Vertov 1923: 33) Und doch haben sich die Techniken des Fragmentierens, Transformierens und Hochrüstens des Körpers mit den digitalen Verfahren sprunghaft entwickelt. Es ist diese Arbeit am Körper, in welchem sich die signifikan- testen Veränderungen beobachten lassen, und es wäre mir ohne weiteres möglich, mit dem gesammelten Material ein ganzes Buch zu füllen: von fremden Körpern unbekannter Völker, außerirdischer Humanoiden und andersartiger Lebewesen; von modifizierten oder voll digitalen Körpern, die Unglaubliches leisten oder aber versehrt sind, die sich in Auflösung befinden, unsichtbar sind oder Opfer grotesker Todesarten werden; von sich verwandelnden Körpern als Morphs; von Cyborgs als Mensch-Ma- schinen-Hybriden; von Körpern als Texturen mittels Crowd Animation; von Körpern als Material oder als Baustelle; von der Verletzung der Haut als Layering und schließlich von der technischen Extension des Körpers. Vielerorts wird diese Konjunktur als reflexartiges Symptom einer hoch technisierten Informationsgesellschaft gesehen, welche den Körper mehr und mehr marginalisiert, der als störendes Hindernis wahrgenom- men wird, als träge, unperfekte, schmerzempfindliche und sterbliche Masse, die mit den geistigen und technologischen Möglichkeiten des 21. Jahrhunderts nicht mehr kompatibel ist (vgl. mehrere Aufsätze in 1 Nach Duden lautet die korrekte deutsche Transkription «Dsiga Wertow», der Name wird jedoch meist als «Dziga Vertov» angegeben, so auch in der hier aus Albersmeier (1979) zitierten Übersetzung. 418 Körper Frölich et al. 2001). Es findet so etwas wie eine hypertrophe Dissonanz zwischen Körperkult und Entkörperlichung statt. Im Körperkult erscheint der Körper als Projekt, den primäre Eingriffe – Fitness, ästhetische Chirur- gie, Piercing und Tätowierung – laufend transformieren und optimieren, das Körperbild zur performativen Ausdrucksgestalt formen, die Natur mit gesellschaftlich bedingten semiotischen und symbolischen Funktion en überformen. Sekundäre Symbolsysteme, die durchaus im Sinne Barthes’ (1957) als Mythen zu verstehen sind, wie Kleidung, Schmuck, M ake-u p, Frisur befördern diese hochkomplexe Bedeutungserzeugung durch die performative Darbietung des Körpers weiter (Weingarten 2004: 31 ff.). Auf der anderen Seite findet mit Beginn der Industrialisierung und noch mehr mit den aufkommenden elektrischen, elektronischen und schließlich digitalen Technologien in vielen lebensweltlichen Sphären – namentlich in der Kommunikation, der Arbeit und der Unterhaltung – eine Entkörperli- chung statt. Die moderne, urbane Gesellschaft ist geprägt durch «eine bis dato unbekannte, intensive Verwebung von Anonymität und Intimität», wie Koch (2002: 230) unter Bezugnahme auf Simmel schreibt – ein dualer Modus der sozialen Interaktion, der sich mit den massenmedialen Reprä- sentationen noch einmal neu formuliert, welche mit den «Vorteilen intimer Nähe bei gleichzeitiger sozialer Distanz» einen «neuen Erfahrungshori- zont» schaffen (Koch 2002: 232). Niemand hat diesen veränderten Status des Körpers in der zeitgenös- sischen Gesellschaft pointierter analysiert als Donna Haraway in ihrem einflussreichen A Cyborg Manifesto (1985), in welchem sie am Modell des Cyborgs durchexerziert, wie sich traditionell kategoriale Grenzen im Kräf- tefeld der zeitgenössischen Wissenschaften und Technologien zunehmend verwischen, die Grenzen zwischen Tier und Mensch, zwischen belebter Natur und Maschine und schließlich diejenigen zwischen physikalisch und nicht physikalisch. Für den vorliegenden Diskurs ist namentlich ihre zweite Diagnose fruchtbar: Late twentieth-century machines have made thoroughly ambiguous the dif- ference between natural and artificial, mind and body, self-developing and externally designed, and many other distinctions that used to apply to organ- isms and machines. Our machines are disturbingly lively, and we ourselves frighteningly inert.2 (Haraway 1985: 152) 2 «Die Maschinen des ausgehenden 20. Jahrhunderts haben die Grenzen zwischen na- türlich und künstlich, Geist und Körper, selbsttätig sich entwickelnd oder von außen gestaltet sowie viele weitere Unterscheidungen verwischt, die üblicherweise Organis- men von Maschinen getrennt haben. Nun erscheinen die Maschinen beunruhigend lebendig und wir Menschen erschreckend leblos.» Körper 419 1 Star Trek – First Contact: In den Arm des Cyborgs Data implan- tierte menschliche Haut 2 Sensorische Reaktion Haraway exemplifiziert diesen Sachverhalt unter anderem an der mo- dernen Reproduktionsmedizin, in welcher eine enge Kupplung zwischen Körper und Maschine zu beobachten ist, die Maschine immer tiefer in den Körper eindringt und die natürliche Körperhülle obsolet erscheinen lässt. In Haraways Verständnis ist dieser Wandel gleichzeitig verstörend und hoffnungsvoll utopisch, sieht sie doch im Überschreiten von Grenzen zu- gleich eine Bedrohung und ein revolutionäres Aufbrechen von erstarrten Mustern, das Dämmern einer neuen Ordnung, einer Ideologie des Netz- werks. Sie folgt damit – zumindest implizit – einer Vorstellung McL uhans, der technologisch verfasste Medien als Extensionen des Menschen be- greift, sodass der Erfahrungsraum schließlich in einer netzwerkartigen Struktur zu einem globalen Dorf zusammenschrumpft. In geradezu frappierender Weise erfasst Haraways metaphorisches Modell die Mensch-Maschine-Interaktion der filmischen Körperreprä- sentation. Die sezierende Operation der Kamera – Haraway nennt sie ein Jagdinstrument (168) – kommt schon in Vertovs eingangs zitiertem Statement zum Ausdruck, während Benjamin (1936: 31) den Kameramann mit einem Chirurgen verglich. Das Publikum übernehme – so Benjamin (24) – die erbarmungslose Haltung der Kamera: Es «teste» die Leistung des Darstellers. Im Hinblick auf den Umbruch in die Domäne des Digitalen sind Ha- raways Bemerkungen von prophetischer Qualität, denn mit der digitalen Kultur des Quantifizierens, des Zergliederns und neu Zusammensetzens dringen die Modifikationen und Konstruktionen des Körpers in völlig neue Dimensionen vor (Abb. 1 und 2). 420 Körper Waren es bisher mit den traditionellen Techniken immer Extensionen des Körpers – Latexanzüge, Prosthetik, aufgeklebte Wunden –, welche die Transformationen der Darsteller in fremdartige oder versehrte We- sen unterstützten, dringen die digitalen Verfahren tief in die fleischliche Materie ein, legen sie Schicht um Schicht bloß, wie in The Mummy (USA 1999, Stephen Sommers) oder Hollow Man (USA 2000, Paul Verhoeven), oder pulverisieren sie mit einem weit ausladenden Arsenal an grotesken Todesarten mittels Partikel-Animation. Schon jeder Konstruktion und mehr noch jeder Auflösung eines digitalen Körpers muss eine Analyse bis in den letzten Winkel vorausgehen; jedes noch so unscheinbare Merkmal muss isoliert und registriert werden, damit es sich in den Datenraum der digitalen Repräsentation einfügen lässt. Der Computergrafiker ist – um Benjamins Metapher aufzunehmen – der noch gnadenlosere Chirurg. Am Ende dieser Operationen entsprechen die digitalen Re-Konstruktionen und Modifikationen des Körpers jenen hybriden Körperbildern, die ge- mäß Haraway (180) während Jahrhunderten als Monster marginalisiert wurden. Es sind unreine Gestalten wie die Zentauren und Amazonen, die Haraway (180) als Kontamination des männlichen Kriegers in der griechi- schen Mythologie beschreibt. Verändert hat sich die Mensch-Maschinen-Interaktion im Film noch in anderer Hinsicht. Zwar erschienen die Helden im Kino schon immer aufgerüstet durch Apparaturen in Form von Waffen, Fahrzeugen oder zuletzt Computern, Sensoren und Steuerungen (Hoberg 1999: 120). Nun führen die Apparaturen des Helden ein weitaus komplexeres Doppelle- ben als sichtbare Requisiten und gleichzeitig als unsichtbare Hilfsmittel, als retouchierte Drähte, welche die übermenschlichen Bewegungen erst ermöglichen, oder als nahtlose Morphs zwischen Schauspielerkörper und digitalem Double. Im Gegensatz zu einer Mehrheit der Theoretiker, wel- che – dicht verschränkt mit den dystopischen Visionen der Populärkul- tur – in der zunehmend enger werdenden Mensch-Maschine-Kopplung eine Bedrohung sehen, betont Haraway (180) den ironischen und spieleri- schen Aspekt: «Intense pleasure in skill, machine skill, ceases to be a sin, but an aspect of embodiment.»3 In dieser Sicht würde sich die Natur die Technik einverleiben, nicht umgekehrt. Mit den digitalen Möglichkeiten lösen sich nicht nur die Grenzen zwischen Innen und Außen auf, sondern das Bild des menschlichen Körpers wird wandlungsfähiger und nähert sich damit «dem flüssigeren Selbstbild eines Menschen auf früheren Stufen der Menschheitsentwick- 3 «Intensive Freude an den Fähigkeiten – [auch] der Maschinen – wird nicht mehr als Sünde wahrgenommen, sondern als ein Aspekt der Körperlichkeit.» Körper 421 lung» an, das Elias (1988: 36 f.) beschreibt, wo die Menschen «nach einem Initiationsritus oder nach dem Einnehmen einer neuen gesellschaftlichen Position sich selbst als eine andere Person mit einem anderen Namen erle- ben und von anderen erlebt werden». Im Unterschied zu solchen diskon- tinuierlichen Formen der Selbst- und Fremdwahrnehmung sieht Haraway (180) die Flüssigkeit zeitgenössischer Identitäten eher als kontinuierliche Regeneration, als Kontinuität im Wandel einer Gesellschaft, die lernen musste, mit Verletzungen umzugehen. Als metaphorisches Modell dieser Körperkonzeption führt sie die Salamander an, die sich nach Verletzungen regenerieren, indem sie die verletzten Strukturen neu bilden – oftmals mit deutlichen Veränderungen gegenüber der ursprünglichen Anatomie. Nirgends manifestiert sich das viel geschmähte Spektakel des zeit- genössischen Mainstream-Films deutlicher als in den spektakulären In- szenierungen digitaler oder digital modifizierter Körper, welche die physischen Begrenzungen realer, fleischlicher Körper in alle Richtungen überschreiten und deren Möglichkeiten nahezu grenzenlos erscheinen. Das ist kein Zufall; Linda Williams (1991) hat den traditionell etablierten Zusammenhang zwischen Exzess und körperzentrierten Genres nachhal- tig beschrieben. Mehr noch als alle anderen Formen des Spektakels ernten solche maßlosen Körperbilder harsche Kritik (siehe modellhaft Stiglegger 2001), in der das puritanische Erbe der deutschen Aufklärung noch unver- blümter zum Ausdruck kommt, indem die von Descartes verfasste Dicho- tomie zwischen Körper (res extensa) und Geist (res cogitans) zu Ungunsten des Körpers ausgelegt wird. Schon zu Zeiten der Aufklärung aber – stellt Barbara Maria Stafford (1991: 253 f.) fest – gab es im französischen Materialismus einen Gegenpol zu Winckelmanns vergeistigtem Sensualismus, der in den makellosen Körperbildern der Griechen sein Ideal gefunden hatte. Der in der Cyborg- Theo rie viel zitierte Homme machine (1748) von Julien Offray de La Mettrie und Denis Diderots Eléments de physiologie (1778) begründeten gemäß Stafford (253) eine flüssige und instinktiv erotische Phänomenologie, in welcher Körper und Geist eins waren. Alles war physikalischer und che- mischer Natur, «incessantly destroying, rebuilding, and transmuting rudi- mentary particles […] to infinity. […] As Diderot wittily quipped: ‹the wise man is only a composite of mad molecules›»4 (Stafford 1991: 254). Umso überraschender erscheint es, dass die Körper/Geist-Dualität den zeitgenössischen Diskurs zum Verhältnis von Spektakel und Narra- tion noch so heftig in ihren Klauen hält. Jedenfalls ist diese Dualität in der 4 … «unaufhörlich im Prozess der Vernichtung, des Wiederaufbaus oder der Verwand- lung rudimentärer Teilchen […] begriffen. Wie Diderot geistreich bemerkte: ‹Selbst ein Weiser besteht nur aus verrückten Molekülen.›» 422 Körper digitalen Domäne, so könnte man sagen, nur mehr eine Pseudodifferenz, ist doch der digitale Körper selbst keine res extensa mehr, sondern eine im- materielle, ephemere Erscheinung, selbst wenn er mit allen Insignien des Somatischen ausgestaltet ist wie eine echte wetware: mit Blut, Schweiß und allen anderen Körpersäften. Weil das Gebiet der computergenerierten Körpertransformation und -repräsentation so umfassend ist, habe ich mich – wenn auch schweren Herzens – entschlossen, mich auf einige wenige Aspekte zu konzentrieren, nämlich den Zusammenhang zwischen verschiedenen Formen der digita- len Körperkonstruktion und der Zuschauerpartizipation. Auch mit diesen Themen ließen sich Hunderte von Seiten füllen, weswegen ich jeden umfassenden Anspruch von vornherein ausschließen muss. Meine Über- legungen sind vielmehr als Anstoß für die weitere Forschung – auch em- pirischer Art – und weiter gehende Grundsatzüberlegungen zu verstehen. Digitale Figuren Historischer Überblick Beschäftigt man sich mit der historischen Entwicklung digitaler Figu- ren, ist es faszinierend, zu beobachten, wie früh Versuche unternom- men wurden, die menschliche Gestalt mit den Mitteln der Compu- tergrafik zu erfassen und abzubilden. Wie eine Obsession erscheint das wiederkehrende Kreisen um dieses Bildthema, das sich mit seiner spezifisch organischen Struktur schon prinzipiell so prononciert gegen die digitale Konstruktion am Computer sträubt.5 Als Vorläufer dieser Entwick- lung ist einmal mehr die noch ana- loge Version einer computergene- rierten Figur von Lee Harrison III zu sehen, nämlich Mr. Computer Image ABC (USA 1968) – ein einfa- ches, aus den Buchstaben ABC zu- sammengesetztes Strichmännchen, das mittels der ausführlich im Ka- 3 Digitale Figur von William Fetter pitel Motion Capture (→ 145) dar- (1963) gestellten Technik belebt wurde. 5 Die folgende Darstellung der digitalen Figuren folgt in Teilen meinem bereits veröf- fentlichten Text Emotion Capture. Wie es einer digitalen Figur gelingt, Gefühle zu erzeugen (Flückiger 2007). Digitale Figuren 423 Bis Mitte der 1970er-Jahre blieb die computergenerierte Figur dem Strichmännchen-Look in 2D ver- haftet – so die ab 1963 von William Fett er für die Flugsimulatoren von Boeing entworfenen Figuren (Abb. 3). Wie ein unglaublicher Quan- tensprung mutet es an, dass Gary Demos und John Whitney Jr. von der Firma Triple-I (Information In- ternational Inc.) für den Film Fu- tureworld (USA 1976, Richard T. Heffron) das Gesicht von Peter Fonda vollständig in 3D nachbil- deten (Rickitt 2000: 125, cinefex 6: 20 f.). Der Film behandelt ein Ur- motiv des Science-Fiction-Films, nämlich wie in Metropolis (D 1927, Fritz Lang) die Schaffung ei- nes Roboterklons nach dem Bild eines Menschen. Eine animierte Sequenz stellt die Phasen der Entstehung von der flachen Poly- gonversion über eine glatte und schließlich leuchtende, glänzende Oberfläche dar (Abb. 4 bis 6). Dazu hatten Demos und Whitney das Gesicht Peter Fondas mit weißem Make-up bedeckt, ein Gitter darauf projiziert und es mit zwei Kame- 4–6 Futureworld: Gesicht mit Flat ras aus unterschiedlichen Winkeln Shading (oben); mit glatter Oberfläche fotografiert, also sozusagen eine als Gouraud-Shading (Mitte); schließ- lich als glänzende Oberfläche (unten) archaische Form des bildbasierten Modellierens angewendet. Mittels eines Grafiktabletts haben sie anschließend die einzelnen Datenpunkte aus den Fotografien in den dreidimensionalen Raum übertragen, «giving the computer a database from which it could model the face from any angle»6 (cinefex 6: 20). Laut Sørensen (cinefex 6: 20) soll der spektakuläre Effekt so 6 … «dem Computer eine Datenbank zur Verfügung stellen, aus welcher er das Gesicht aus jedem Blickwinkel modellieren kann». 424 Körper perfekt ausgefallen sein, dass die Zuschauer die Virtuosität dieses Kunststücks überhaupt nicht reali- sierten. Offenbar spezialisierte sich die 1974 von John Whitney Jr. und Gary Demos gegründete Motion Pictures Product Group der Firma Triple-I auf die Darstellung menschlicher Figuren, denn 1981 folgten die digi- tale Replik einer Schauspielerin im Film Looker (USA 1981, Michael Crichton) sowie Adam Powers der Jongleur (genannt The Juggler, 7 The Juggler zu sehen auf dem 1981er-Demo- Band der Firma). Looker webt das Motiv des synthetischen Doubles aus Future world weiter und perfektioniert es auch in technischer Hinsicht – diesmal mit 3D-Körper-Scans. Der Film kann als Geburtsstunde des Syn- thespian,7 des synthetischen Schauspielers, gelten, ausgestattet mit den entpersönlichten, idealisierten Zügen des (männlichen) Traums von einer weiblichen Gestalt, wie später Dozo,8 Lara Croft, Kyoko Date oder S1m0ne im gleichnamigen Film (USA 2002, Andrew Niccol). Wie in Westworld (USA 1973, Michael Crichton) ist die Konstruktion der digitalen Figur gleichzeitig als Thema der Narration präsent; es findet im engeren Sinn keine Illusionierung des künstlichen Körpers statt, sondern die Darstel- lung ist als eine technisch verfasste gerahmt, was Réjane Hamus-Vallée (2001: 34) korrekt als eine Mise-en-Abyme per Computer bezeichnet. Adam Powers The Juggler (Abb. 7) gehört einer anderen Entwick- lungslinie der Computeranimation an: der stilisierten Form, die sich wie schon Mr. Computer ABC mehr an der Tradition des klassischen Anima- tionsfilms ausrichtet und auch in einem vollanimierten Universum agiert. Seine Funktion war es, als Showcase die Kundschaft und die Fachgemeinde der Computergrafik zu beeindrucken. «We thought it would be absolutely necessary to do a human figure», erklärte VFX-Spezialist Richard Taylor (cinefex 6: 21 f.), «otherwise people would be bound to say: ‹Obviousl y, you can do geometric shapes. But can you do a human being?› Well, we’ve 7 Der Begriff wurde 1988 von Jeff Kleiser und Diana Walczak geprägt als Zusammenset- zung aus synthetic und thespian (ein Begriff für Schauspieler, abgeleitet von Thespis von Icaria), siehe http://www.kwcc.com/works/sp/lead.html. 8 Von Kleiser/Walczak geschaffene, mittels Motion Capture animierte Sängerin des Mu- sikvideos Don’t Touch Me. Digitale Figuren 425 done a human being. And […] he juggles.»9 Wie in der Genesis- Sequenz hatte Triple-I so ziemlich jede verfügbare Technik eingesetzt, um die Figur so spektakulär wie möglich zu präsentieren. «He can walk in carrying his head, screw it on, become transparent, turn himself inside out, and do all kinds of things a normal person couldn’t do.»10 Die spektakuläre Inszenie- rung wurde durch eine Kranfahrt im Stil Busby Berkeleys gesteigert (VFX Supervisor Richard Taylor in cinefex 6: 21). Zur Animation der Figur hat das Team um Taylor einen Jongleur mit zwei vorne und oben platzierten Kameras simultan aufgezeichnet, einzelne Punkte mittels Tracking ver- folgt und ihre Position im dreidimensionalen Koordinatensystem in den Computer geladen – also das für Futureworld entwickelte Verfahren um die vierte Dimension der Zeit erweitert und damit eine krude Form von bildbasiertem Motion Capture angewendet. Zusätzlich wurden einzelne Posen rotoskopiert. Zwar entspricht der Gesamteindruck genau jenem zu Beginn der 1980er-Jahre üblichen plastifizierten Look, aber die Bewe- gungsmuster wirken verblüffend natürlich. Damit klafft eine irritierende Lücke zwischen der Gestik und den limitierten Oberflächenparametern – eine Lücke, die der völlige Mangel an mimischem Ausdruck betont. Mit diesen frühen Anwendungen ist schon so etwas wie ein Feld auf- gespannt, in welches spätere digitale Figuren eingepasst werden können, zumindest bis Ende der 1990er-Jahre ein nächster Schub zu verzeichnen ist – ein Vorstoß in den Bereich fotorealistischer Abbildung der mensch- lichen Gestalt. Zunächst sind die Figuren eher stilisiert; es sind abstra- hierte Reduktionen von menschlichen Körpern. In Hard Woman (1986), dem Musikvideo für den Song der Rolling Stones, ist es eine leuchtende Strichfigur (Abb. 8), die sich jedoch sehr naturalistisch und lasziv in 3D bewegt – 1986 geschaffen von Brad deGraf, Bill Kroyer, Kevin Rafferty von deGraf/Wahrmann, oder es sind die von Rebecca Allen vom New York Institute of Technology entworfenen Figuren mit Wire-Frame-Charme für das Musikvideo Musique Non Stop (1986) der Techno-Band Kraftwerk. Dies alles sind überzeugende Beispiele, wie man fantasievoll mit techni- schen Limitierungen umgehen kann, genauso wie der sogenannte Sexy Robot von Abel & Associates für den Werbefilm Brilliance (1984) – eine verspiegelte, sehr weiblich wirkende und sich bewegende Robotresse (Abb. 9). Musikvideos und Werbefilme boten so etwas wie einen Schutz- 9 «Wir dachten, es sei zwingend notwendig, eine menschliche Gestalt zu schaffen, denn sonst würden die Leute bestimmt sagen: ‹Offensichtlich könnt ihr geometrische For- men modellieren. Aber gelingt euch auch ein menschliches Wesen?› Tatsächlich haben wir einen Menschen modelliert, und zwar einen, […] der sogar jonglieren kann.» 10 «Er kann mit dem Kopf unter dem Arm hereinspazieren und ihn aufschrauben, kann durchsichtig werden, sich von innen nach außen stülpen und eine Menge anderer Din- ge tun, die eine normale Person niemals schaffen würde.» 426 Körper raum, in welchem sich digitale Fi- guren nach ihren eigenen Gesetz- mäßigkeiten entwickeln konnten, ohne an einem von der Kino-Tra- dition vorgeschriebenen Anspruch zu scheitern. In den 1980er-Jahren war diese 8 Strichfigur im Musikvideo Hard Woman der Rolling Stones Entwicklung eng verzahnt mit den Fortschritten von Motion Capture (→ 145) bzw. deren Vorläufer, der sogenannten Performance Anima- tion, mit welcher ein Darsteller – teilweise in Echtzeit – eine digitale (Fernseh-)Figur steuerte wie Waldo C. Graphic oder Mike the Talking Head.11 Diese Figuren waren so et- was wie digitale Marionetten, die entweder direkt oder indirekt an 9 Sexy Robot aus Brilliance die Performance eines menschli- chen Darstellers gekoppelt waren. Musikvideos, Fernsehshows und Werbefilme bildeten nicht nur Schutzräume, sondern auch Plattformen, um die im Verborgenen, nur einer Fachwelt zugänglichen Forschung in den Computergrafiklabors zum Publikum zu bringen. Dennoch löste eine solche Präsentation 1987 ungeahnte Resonanz weit über die Fachwelt hinaus aus: Rendez-vous à Montréal (CDN 1987, Abb. 10) von Nadia Magnenat-Thalmann und Da- niel Thalmann,12 in welchem digitale Nachbildungen von Marilyn Monroe und Humphrey Bogart auftraten. In diesen Nachbildungen flackerte die besorgniserregende Ahnung eines posthumanen Kinos auf, welches die Leistungen längst verstorbe- ner Stars endlos recycelt und rücksichtslos umformuliert – eine nekro- phile Idee, die einen weit reichenden ethischen Diskurs entfachte, den ich an dieser Stelle unterdrücke. Es ist in Rendez-vous à Montréal wie 11 Waldo C. Graphic wurde von Pacific Data Image für die Fernsehsendung The Jim Henson Hour (USA 1989) produziert und verlieh der Steuerungseinheit den Namen Waldo; Mike the Talking Head wurde zu Demo-Zwecken für die neue Silicon Graphics 4D Workstation von Brad deGraf und Michael Wahrman entwickelt (siehe Robertson, Barbara (1988): Mike the Talking Head. In: Computer Graphics World, Bd. 11, Nr. 7, S. 57; vgl. auch Masson 1999: 233, Sturman 1994). 12 Der rund 10-minütige Animationsfilm entstand an der Universität Montreal und ist auf der Website des MIRALab der Universität Genf zu sehen, das Nadia Magnenat- Thalmann leitet (= http://www.miralab.unige.ch). Digitale Figuren 427 bei vielen frühen digitalen Figuren auffällig, wie stark die Geschlech- terdifferenzen betont werden: das Kantige bei Bogart in Bewegungen und Gesicht und das Weiche in Monroes Bewegungen, in welche sogar kleine Manierismen der Lip- penbewegungen einfließen. Trotz State-of-the-Art-Technologie sind die Figuren weit entfernt von ihren 10 Marilyn aus Rendez-vous à Vorbildern aus Fleisch und Blut – Montréal ein Umstand, den Magnenat-Thal- mann/Thalmann ironisierend in die Handlung integrieren. Im Kino konnte man in den 1980er-Jahren nur entfernt an Men- schen angelehnte digitale Figuren sehen, so in Tron (USA 1982, Steven Lisberger) die Figur MCU (Master 11 MCU aus Tron Control Unit, Abb. 11), einen äußerst rudimentär an ein menschliches Gesicht erinnernden Zylinder, in Young Sherlock Holmes (USA 1985, Barry Levinson) den Glasmalerei-Ritter oder in The Abyss (USA 1989, James Cameron) die Imitation von Mary Elizabeth Mastrantonios Gesicht durch das Wasserwesen. So richtig fängt die Geschichte der digitalen Figur im Spielfilm aber erst in den 1990er-Jahren an: mit Terminator 2 (USA 1991, James Came- ron), The Lawnmower Man (USA 1992, Brett Leonard) und der kurzen Ein- lage eines digitalen Doubles in Jurassic Park (USA 1993, Steven Spielberg). Immer noch sind diese Figuren – mit Ausnahme des Doubles in Jurassic Park, das nur für Sekunden zu sehen ist und in der Bewegungsunschärfe ohnehin verschwindet – stark stilisiert. Sie weisen glatte Oberflächen auf, verchromt bis quecksilberartig der Terminator (Abb. 12), verchromt bis plastifiziert der Lawnmower Man und seine Geliebte (Abb. 13). Schon von der Konzeption her versuchen diese Figuren überhaupt nicht, einem natür- lichen Menschenbild zu entsprechen, sondern sie betonen die Differenz, das Fremdartige der digitalen Kreatur. Gerade in dieser Differenz jedoch wird das Moment des Spektakels gesehen, denn würden sie vollkommen orga- nisch und natürlich wirken, würde man sie nicht weiter beachten; sie wür- den sozusagen in die Narration sinken und von ihr naturalisiert werden. Aus den Darstellungen zur Entwicklung der Technik in den Kapi- teln Modellieren (→ 51) bis Rendern (→ 167) wird klar, dass zu Beginn der 428 Körper 12 Der Terminator T-1000 13 Digitale Figuren in The Lawnmower Man 1990er-Jahre an fotorealistische computergenerierte Figuren noch nicht zu denken war. Vielmehr schien ein solches Ziel in weiter Ferne zu liegen, und viele vertraten die Auffassung, dass dieser ferne Horizont nie zu erreichen sein werde. Aus diesem Grund musste die Wahl lauten, entwe- der ohne Computerfiguren zu erzählen oder aber eine Erzählung so zu konzipieren, dass der je gegenwärtige Stand der Technik in sie einfließen konnte. Immer werden diese spektakulären Elemente jedoch diegetisiert, selbst wenn sie in der ästhetischen Anmutung noch deutliche Brüche zei- gen. In The Lawnmower Man ist es – wie schon in Tron – das parallele Universum der Computerwelt, visualisiert als virtuelle Realität, in Termi- nator 2 das Morphing, das die unterschiedlichen Phänotypen der Figur miteinander verschmilzt und den Bruch naturalisiert. Als parallele Uni- versen sind weiter die diegetischen Umwelten konzipiert, in welchen die digitalen Repliken von Michael Douglas und Demi Moore in einem kur- zen Virtual-Reality-Intermezzo in Disclosure (USA 1994, Barry Levin- son) auftauchen; ebenso die Virtual-Reality-Welten in Johnny Mnemonic (USA 1995, Robert Longo) und Virtuosity (USA 1995, Brett Leonard), in welchen digitale Versionen der Protagonisten zu sehen sind, oder die Dis- ney-fizierten Geistchen in Casper (USA 1995, Brad Silberling), von denen Digitale Figuren 429 zwei ziemlich menschliche Züge tragen. Zur Strategie der Anpas- sung im Anschluss an die von Ter- minator 2 begründete Linie gehö- ren die digitalen Zwischenstadien im Transformationsprozess in The Mask (USA 1994, Chuck Russell; Abb. 14 bis 16), ein als signature effect bezeichneter ‹Tornado›, in welchem sich die Figur, wie sie im Alltag erscheint, in den magischen Phänotyp verwandelt. Als weiterer Zweig der Funk- tionen digitaler Figuren sind CG- Stuntdoubles zu nennen. Vom kur- zen Einsatz in Jurassic Park an baut sich dieser Zweig immer mehr aus, von Judge Dredd (USA 1995, Danny Cannon), in welchem Sylvester Stallone mitsamt Motor- rad digitalisiert wurde, und Spe- cies (USA 1995, Roger Donaldson), in welchem die transformierte Version der Hauptfigur als CG zu sehen war, um zwei frühe, aber auch sehr trashige B-Pictures zu nennen. Inzwischen gibt es eine kaum mehr überblickbare Anzahl von Produktionen, in welchen Su- perhelden nach dem Muster von 14–16 The Mask: Verwandlung der Comics oder Videogames gebildet Figur (oben); im Übergangsstadium als ‹Tornado› (Mitte); in der neuen wurden – wie in XXX (USA 2002, Gestalt (unten) Rob Cohen), X-Men (USA 2000, Bryan Singer), Blade (USA 1998, Stephen Norrington), Daredevil (USA 2003, Mark Steven Johnson), Spider-Man (USA 2002, Sam Raimi) usw. Immer geht es dabei darum, die physischen Möglichkeiten des menschli- chen Körpers zu überschreiten, die kohlenstoffbasierte Materie – wie das Enfant terrible des digitalen Films, Scott Billups, in der Zeitschrift Wired (Parisi 1995) die Schauspieler verächtlich nannte – hinter sich zu lassen und ins annähernd unlimitierte Möglichkeitsfeld des digitalen Körpers vorzudringen. 430 Körper 17 Originalaufnahme in Forrest Gump 18 Aufnahme von einzelnen Gruppen 19 Endbild mit den replizierten Massen 20 Computergenerierte Massen in The Return of the King Wie sich zeigen wird, stellt dieses Feld ganz andere Anforderun- gen an die erzählerische Konzeption dieser Superheldenfiguren; denn wenn alle Gefahren prinzipiell zu meistern sind, geht ein fundamentales Prinzip der Spannungserzeugung verloren; die Dramaturgie kann nur verflachen, und die Zuschauerpartizipation fällt in sich zusammen. Mit dieser Superheldenproblematik eng verknüpft ist die Rolle des paratex- tuellen Wissens, des pragmatischen Rahmens, den ich im Kontext der Abbildungstheorie schon kurz erwähnt habe. Wenn Zuschauer wissen, dass der abgebildete Körper nichts weiter als ein Pixelfeld ist, besteht die Gefahr, dass sie keine empathische Beziehung zur Figur mehr eingehen. Digitale Figuren 431 Parallel dazu entwickelt sich ab Forrest Gump (USA 1994, Robert Zemeckis) die Crowd Replication, das digitale Ornament der Masse, wie man es im Anschluss an Kracauer nennen könnte. Für Forrest Gump hatte Ken Ralston die Massenaufmärsche in den Baseballstadien, am Washington Memorial und in China noch analog aufgenommen und in 2.5D digital repliziert (Abb. 17 bis 19). Hingegen setzte das Team unter der Leitung von Rob Legato auf eine Kombination von Aufzeichnungsverfahren im dreidimensionalen Raum mit Motion Capture, 3D-Scans und fotografischen Texturen, um die Titanic (USA 1997, James Cameron) zu bevölkern, und erstellte eine Datenbank an volldigitalen, dreidimensionalen Figuren, die sich an- schließend weiter modifizieren und variieren ließen. Ähnlich, aber etwas einfacher verfuhr man für die Zuschauermassen von Gladiator (USA 2000, Ridley Scott; siehe cinefex 82). Inzwischen hat sich die Crowd Ani- mation zur hochkomplexen Kombination von Aufzeichnungs- und Mo- dellbildungsverfahren entwickelt (Abb. 20) und koordiniert das Verhal- ten der in Datenbanken abgelegten Agenten mit intelligenten prozedu- ralen Verfahren, die an die ALife-Techniken anschließen, die ich bereits erwähnt habe (→ 139). Mit der Crowd Animation stellen sich ähnliche dramaturgische und pragmatische Probleme wie bei den Superhelden. Ein vergleichbarer Quantensprung wie in der Crowd Animation hat sich in den letzten Jahren auch in der Darstellung einzelner digitaler Figuren ereignet, die nicht mehr nur in der Totalen als digitale Doubles die Physis der Protagonisten entlasten und ihren Handlungsraum in neue Dimensionen erweitern, sondern sich zu Hauptfiguren gemausert haben, deren Gesichter sogar in Großaufnahme zu sehen sind. Final Fantasy (USA/JP 2001, Hironobu Sakaguchi et al.; Abb. 21) gilt als grandios gescheiterter Meilenstein dieser Entwicklung. Erstmals sind dort im volldigitalen Animationsfilm fotorealistisch gerenderte Figuren zu sehen – dies im Unterschied zu ihren stilisierten Vorläufern in Alad- din (USA 1992, Ron Clements) oder Toy Story (USA 1995, John Lasse- ter). Es folgten Hulk (Abb. 22), die Matrix-Sequels (USA 2003, Andy und Larry Wachowski; Abb. 23) und Virtual History: The Secret Plot to Kill Hitler (GB 2004, David McNab; Abb. 24): der bereits er- wähnte inszenierte ‹Dokumentarfilm› (→ 338) mit computeranimierten Nachbildungen historischer Figuren von Roosevelt über Churchill bis Hitler. Alle diese Werke zeigten Schwierigkeiten unterschiedlichen Aus- maßes – Schwierigkeiten jedoch, die sich immer auf die Zuschauerparti- zipation auswirkten. Einzig Gollum, die koboldhafte Figur aus The Lord of the Rings, welche die Reise der Protagonisten in denkwürdiger Art 432 Körper 21–24 Final Fantasy (oben links); Hulk (oben rechts); computergeneriertes Ge- sicht von Agent Smith in The Matrix (unten links); computergenerierte historische Figuren in Virtual History (unten rechts) und Weise begleitet, wird von Fachleuten und Publikum gleichermaßen als gelungenes Beispiel einer digitalen Figur angesehen. Ich werde in den nächsten Abschnitten einige Gründe für dieses Ge- lingen darstellen, Gollum sozusagen als derzeit möglichen Standard set- zen. Zunächst werde ich – aufbauend auf Einsichten aus den technischen und abbildungstheoretischen Überlegungen – einen Blick auf einige prin- zipielle Probleme der digitalen Figurenkonstruktion werfen, anschließend die technischen Methodiken zu systematisieren versuchen, um auf dieser Basis den Zusammenhang zwischen ästhetischen, narrativen und emotio- nalen Aspekten der Figurenrezeption darzustellen. Grundsätzliche Probleme digitaler Figurenkonstruktion Im Laufe unseres Lebens entwickeln wir eine ausgeprägte Kompetenz im Decodieren von Körper- und Gesichtsausdruck. Von frühester Kindheit an trainieren wir unser Wahrnehmungssystem auf das Erkennen und Interpretieren menschlicher Verhaltensweisen: Wann immer wir uns in kommunikativen Situationen befinden, spielen nonverbale Signale des Kommunikationspartners eine entscheidende Rolle für den Verstehens- prozess. Deshalb haben wir gelernt, auf die subtilsten Nuancen besonders der Mimik zu achten – jene feinen Unterschiede beispielsweise, die ein falsches von einem echten Lächeln unterscheiden. Digitale Figuren 433 25 Dynamisch-inter- aktionistische Persön- lichkeitskonzeption Die einzelnen Informationseinheiten des Körper- und Gesichts- ausdrucks sind in der lebensweltlichen Erfahrung in systemischer Art und Weise in einem Gesamteindruck integriert, der sich zu analytischen Zwecken in die zwei Kategorien Erscheinungsbild und Verhalten aufspalten lässt. Das Erscheinungsbild setzt sich weiter aus den Parametern Form und Oberflächeneigenschaften zusammen. Zwischen Erscheinungsbild und Verhalten besteht ein komplexes, netzwerkartiges Verbindungssystem, das einerseits auf genetischen Infor- mationen, andererseits auf Einflussgrößen aus der Umwelt und der Kul- tur basiert, in welcher das Individuum aufwächst. Dieser Ansatz ist dem dynamisch-interaktionistischen Paradigma der Persönlichkeitspsychologie verpflichtet, welches von einer engen Wechselwirkung zwischen Person und Umwelt ausgeht (Asendorpf 2004: 84 ff.). In diesem Modell werden verschiedenartige Interaktionen angenommen, in welchen einerseits Um- welteinflüsse auf die biologisch gesteuerten Reifungsprozesse einwirken, andererseits das Individuum durch Auswahl, Herstellung und Verände- rung auf seine Umwelt einwirkt. In diesem Geflecht (Abb. 25) kommt der individuellen Entwicklung höchste Priorität zu. Das Erscheinungsbild wird hauptsächlich durch das Genom definiert, während – wie schon erwähnt – dessen sekundäre Eigen- schaften wie Kleidung oder Frisur ein von kulturellen Codes beeinflusstes symbolisches System zweiter Ordnung bilden. Es findet in der Psycholo- gie der Persönlichkeit keine nennenswerte Beachtung, doch kommt ihm in der filmischen Fiktion ein essenzieller Stellenwert als Ausdrucksfunktion zu. Im Verhalten sind in ähnlicher Weise beide Faktoren wirksam, denn einige Verhaltensformen werden von angeborenen Programmen gesteu- ert, andere entstehen durch Anpassung an die Regeln einer Kultur. Zuletzt sind zwischen Erscheinungsbild und Verhalten weitere Interdependenzen auszumachen. So bewegt sich eine korpulente Figur anders als eine kleine dünne, oder der Muskelaufbau resultiert zu weiten Teilen aus den Bewe- gungsformen und wirkt auf sie zurück. 434 Körper Schon in der filmischen Fiktion besteht zwischen Erscheinungsbild und Verhalten nur eine lose Verbindung. Der Schauspieler leiht der Figur seinen Körper und versucht, die Kluft zwischen Körper und Verhalten durch seine Interpretation zu schließen. Es wird aus diesem Grund oft von zwei Körpern gesprochen – dem Körper des Schauspielers und dem Filmkörper –, zwischen denen sich mannigfaltige Verbindungen knüpfen lassen, welche durch textuelle, aber auch intertextuelle und extradiegetische Einflüsse geformt werden. «Das Körperbild […] ist die sinnlich materielle Grundlage der Figur», das kinematografische Körperbild ist jedoch a priori «eine ästhetische und soziale Konstruktion mit einem physisch-psychischen Ausdruckspotential» (Taylor/Tröhler 1999: 139). Es wird durch unterschied- liche Prozesse der Bedeutungsmodifikation geformt, die ich teilweise im Kontext der Abbildungstheorie schon anhand von Tom Hanks als Forrest Gump besprochen habe (→ 304). Sie sind mitbedingt durch die spezifische Mensch-Maschine-Interaktion der filmischen Körperrepräsentation, aber auch durch die individuelle Geschichte des Schauspielers, seine «extradie- getische Existenz» (Weingarten 2004: 22), sowie durch ein intertextuelles Be- deutungsfeld, das sich aus dessen Darstellung früherer Filmfiguren speist. Ist diese Verbindung im Rahmen der filmischen Fiktion schon kom- plex und potenziell brüchig – man denke an Fehlbesetzungen wie Tom Hanks als Harvard-Professor in The Da Vinci Code (USA 2006, Ron Howard) –, so stellt die Konstruktion digitaler Figuren noch weitaus anspruchsvollere Herausforderungen. Denn damit eine Figur als Entität wahrgenommen wird, mithin im Rahmen der darstellenden und narrati- ven Aspekte fiktionaler Figurenkonzeption jene eigene, charakteristische Konsistenz entwickelt, die Murray Smith (1995: 110) als Personenschema bezeichnet, müssen im Prozess des Modellierens und der Animation eine Vielzahl fragmentierter Merkmale in eine übergeordnete Struktur inte- griert werden. Mit Ausnahme einiger weniger prozeduraler ALife-Sys- teme, die – wie bereits dargestellt (→ 139) – bis heute nur sehr einfache Lebewesen wie Fische hervorbringen können, werden ja die Aspekte Er- scheinungsbild mit Form (→ Modellieren 51) und Oberflächeneigenschaf- ten (→ Oberflächen und Materialien 78) sowie das Verhalten (→ Animation 105) oft losgelöst voneinander in arbeitsteiligen Verfahren aufgebaut. Wenn aber die Merkmale des Erscheinungsbilds und des Verhaltens in ihre Komponenten zerfallen, sodass sich zwischen ihnen keine schlüssigen Ver- bindungen einstellen, wird es nicht gelingen, eine ganzheitlich wirkende Figur mit individualisierten Eigenschaften zu entwerfen. Damit wird es schwierig, die emotionale Partizipation der Zuschauer zu gewinnen, denn der Aufbau einer Beziehung zur dargestellten Person ist wesentlich an eine wahrgenommene Identität gebunden. Gemorphte Figuren – der T-1000 in Digitale Figuren 435 Teminator 2, die Agenten in The Matrix, Mystique in X-Men – sind des- halb so verstörend, weil sie diesen Identitätsbegriff aufmischen. Neben der Figurenkonsistenz besteht das zweite Grundproblem im Modellieren von Komplexität, mit dem ich mich aus abbildungstheoreti- scher Sicht schon eingehend auseinandergesetzt habe (→ 317). Dort wurde bereits dargelegt, dass Komplexität immer das Resultat einer Geschichte sei. Zwar gibt es stochastische und fraktale Algorithmen, welche Komple- xität erzeugen können, Komplexität von Pflanzen oder Landschaften. Das Kreatürliche der menschlichen Gestalt aber gehört einer anderen Ordnung an, deren spezifische Komplexität durch die phylogenetische und die ontogenetische Entstehungsgeschichte des Individuums gekennzeichnet ist, welche dessen Eigenheiten aufbauen. Dieser Reichtum an Details stellt besonders hohe Ansprüche an die Herstellung einer digitalen Figur. Allein das Gesicht mit Augen, Mund und Nase, Augenbrauen und Haaren besteht aus vielen winzigen und doch essenziellen Elementen. Wer denkt schon an die Caruncula lacrimalis, das zwischen den Tränenpünkt- chen gelegene Tränenwärzchen am inneren Augenwinkel? Und so ist der Augapfel keine Kugel, sondern leicht unregelmäßig mit kleinen Erhebun- gen und Facetten, welche das reflektierte Licht in ein Funkeln verwandeln, die sich mit ihren Nuancen von einem simplen Glanzlicht unterscheiden (vgl. Animation Supervisor Colin Brady in cinefex 94: 98). Jede Wimper wie überhaupt jedes Haar ist ein einzelnes Objekt mit komplexen Bewegungs- mustern, und genauso besteht der Mund aus vielen einzelnen Elementen: den Lippen mit kleinen Furchen, den Zähnen, der Zunge und anderen mehr. Die Haut gehört zu den anspruchsvollsten Materialien überhaupt, deren geschichteter Aufbau mit seinem spezifischen Reflexionsv erhalten sich bis heute kaum befriedigend am Computer erzeugen lässt, denn sie ist halbtransparent, an einigen Stellen eher matt, an anderen reflektiert sie glänzend. Die Lichtstrahlen dringen in sie ein und akquirieren durch Sub- surface Scattering (→ 100) auf komplexen Wegen die Farbdistribution der darunterliegenden Strukturen. Es gibt keinen Haut-Shader, der alle diese Eigenschaften in sich vereinigt, sondern es müssen komplexe Shader- Netzwerke mit manchmal Hunderten von Maps entworfen werden, welche dieses Reflexionsverhalten nachbilden. Ich werde mich mit diesen Eigenschaften später genauer auseinandersetzen und unterschiedliche Methodiken, Haut zu modellieren, vorstellen (→ 440). Sind alle diese anatomischen Bausteine schon ungemein schwierig zu modellieren, so potenziert sich diese Komplexität, sobald die Figur sich bewegt. Haare beispielsweise stellen – wie alle Materialien, deren Erschei- nungsbild eng mit ihrem zeitlichen Verhalten gekoppelt ist – bis heute höchste Anforderungen an die Animation. Gerade deshalb ist es so inte- 436 Körper res sant und aufschlussreich, sich mit den unterschiedlichen Computerver- fahren zu beschäftigen, mit denen die Komplexität menschlicher Gestalten aufgebaut wird, denn wie in kaum einem anderen Gebiet zeigen sich hier die Probleme der Computeranimation und erlauben tiefere Einsichten in einige ihrer grundlegenden Bedingungen. Als drittes Basisproblem erscheint die Interaktion der digitalen Figur mit den anderen Figuren, mit dem Terrain und den Requisiten – eine Pro- blematik, mit deren grundsätzlichen Fragestellungen ich mich im Kontext des Compositing ausführlich beschäftigt habe, und zwar unter den Ge- sichtspunkten der Raum- und Bewegungsanpassung (→ 239) sowie der Berührungen, der Blicke und der physischen Interaktion (→ 249). Diese In- teraktion ist von größter Bedeutung für die tiefere Schicht der Zuschauer- partizipation, denn die Empathie, die eine Figur auslöst, wird nicht zuletzt im Hinblick auf deren Position in der Gruppe evaluiert (Wulff 2003: 139). Nun ist diese Interaktion natürlich nicht durch die physischen und ver- balen Aspekte einer Szene allein bestimmt, sondern fügt sich ein in den größeren textuellen Verbund mehrschichtiger narrativer Konstruktion. Technische Verfahren der Figurenkonstruktion 26 Übersicht über die Techniken zur Figuren- konstruktion Ausgehend vom Klassifikationssystem, das ich im Abschnitt Aufzeichnung und Modellbildung, Malen und Messen (→ 289) entworfen habe, lässt sich eine Matrix (Abb. 26) erstellen, mit welcher sich die unterschiedlichen Methodologien, die der Figurenkonstruktion zugrunde liegen, systema- tisch erfassen lassen. In dieser Tabelle sind die verschiedenen Kategorien farblich codiert: mit Gelb für die Modellbildung, Blau für Aufzeichnungs- verfahren und Grün für gemalte Elemente. Alle für die Figurenkonstruktion verwendeten Techniken lassen sich in diese Tabelle projizieren. Davon ausgehend kann man anschließend den Zusammenhang zwischen technischen, ästhetischen und narrativen Aspekten systematisch diskutieren. Digitale Figuren 437 Form 1: Modellieren in 3D Wenn es gilt, eine (fantastische) Fi- gur zu kreieren, für die sich in der Natur kein Vorbild findet, muss die Form modelliert werden. Am Anfang, in der Konzeptionsphase, entstehen – ausgehend von der Beschreibung in der literarischen Vorlage und/oder im Drehbuch – meist Hunderte von Zeichnungen und Tonfiguren (clay maquettes), die oft ein riesiges Einzugsgebiet an Einflüssen verarbeiten, bis sie sich im Laufe der Zeit zu einer Form verdichten. Dem Modellieren im dreidimensionalen Datenraum geht also häufig ein traditionelles, manuelles Modellieren voraus. Wie erwähnt, ist es in einem nächsten Schritt üblich, das Tonmodell in 3D zu scannen (→ 62), um so dessen Grundform in das dreidimensio- nale Koordinatensystem des Com- puters zu importieren, es dort wei- terzubearbeiten, zu verfeinern und mit dem Skelett- und Muskelsys- tem zu versehen (Abb. 27 und 28). Über diese Form wird die Haut gelegt – ein Vorgang, der sich Skinning nennt (Abb. 29) und das 27–29 The Mummy: Skelettaufbau Verhalten dieser Haut mit der da- (oben); Muskeln (Mitte); Skinning runterliegenden Skelett- und Mus- (unten) kelstruktur in engerer oder weiterer Anlehnung an die Maßgaben der Anatomie verknüpft. Die Skinning-Sys- teme sind inzwischen so gut, dass sie sowohl die Faltenbildung als auch das Gleiten der Haut über die darunterliegende Struktur erlauben. Im Falle von Gollum waren es 700 Muskeln, die in leichter Abweichung von der menschlichen Anatomie angelegt waren, um dessen charakteristische Bewegungsmuster zu ermöglichen, und das Skelettsystem erlaubte so- wohl Forward als auch Inverse Kinematik (Creature Lead Eric Saindon in cinefex 92: 85; → 123). 438 Körper Form 2: 3D-Scanning Geht es darum, eine vollständig menschliche Figur per Computer zu schaf- fen, wenn – wie erwähnt – in Looker oder in S1m0ne ein Schauspieler auch als digitale Replik auf dem Computermonitor zu sehen sein soll, wenn ein Schauspielerkörper nahtlos in ein digitales Double oder sichtbar in ein artifizielles Alter Ego gemorpht werden muss, wenn ein Körper sich auflö- sen soll wie in The Mummy, in Hollow Man oder die Borgs in Star Trek: First Contact (USA 1996, Jonathan Frakes), kurz: Immer dann, wenn die digitale Version entweder besonders fotorealistisch aussehen oder sich auf einen schon vorhandenen Körper beziehen soll, wird in 3D gescannt. Im Ge- gensatz zum Modellieren erfasst das Scanning als Aufzeichnungsverfahren sämtliche Details bereits in der natürlich vorhandenen Komplexität und bildet außerdem ein individuelles, mit allen Merkmalen einer realen Exis- tenz ausgestattetes Körperbild ab. Hingegen erfasst es nicht die dar unter liegende Struktur, die genauso wie beim Modellieren als Skelett- und Mus- kelsystem aufgebaut werden muss. Dies gilt besonders für Körper, deren Haut verletzt wird und den Blick auf diese Struktur freigibt, so in Virtuo- sity, The Mummy oder Hollow Man, und für Figuren, die eines bizarren Todes sterben wie in Resident Evil (GB/D 2002, Paul W. S. Anderson) oder Cube (CDN 1997, Vincenzo Natali), in denen die Körper von Laserstrahlen zerlegt werden, oder in Blade, wenn die Vampire explodieren. Form 3: Bildbasiertes Modellieren Noch umfassender zeichnen die Methoden des bildbasierten Modellierens (→ 70) sämtliche Details der Form und der Oberfläche gleichzeitig auf. Mei- nes Wissens die ersten Anwendungen dieses Verfahrens waren die Figuren aus Fight Club (USA 1999, David Fincher): Marla in der bereits beschriebe- nen Sexszene sowie der Protagonist in der Selbstmordszene, der ebenfalls von einem Kamera-Array aufgezeichnet wurde. Meistens erstellt man zusätzlich einen 3D-Scan, um genauere Informationen über die Form zu ak- quirieren. Es handelt sich dabei also um explizites bildbasiertes Modellieren. Seither wurde dieses Verfahren unermüdlich weiterentwickelt, denn wenn digitale Doubles in Großaufnahme zu sehen sein sollen, werden damit die weitaus besten Resultate erzeugt. Angepeilt werden im Moment noch umfassendere Verfahren wie Universal Capture, das für die Matrix- Sequels verwendet wurde, oder Light Stage (Abb. 30), mit welcher die Figuren in Spider-Man 2 (USA 2004, Sam Raimi) in die digitale Domäne übertragen wurden (→ Bildbasierte Beleuchtung 164). Mit Light Stage13 lassen 13 Lemmon, Dan (2001): Image Based Lighting, High Dynamic Range Images, and Global Illumination in a Production Environment. In: SIGGRAPH 2001, Kurs Nr. 14, Image- Based Lighting, S. 17 ff. (= http://www.debevec.org/IBL2001); siehe auch Reinhard Digitale Figuren 439 30 Langzeitaufnahme der Light Stage sich die Oberflächen in unterschiedlichen Lichtsituationen – von Dioden in den drei Primärfarben Rot, Grün und Blau erzeugt – aufnehmen. Damit fotografiert man die Oberflächen nicht nur als Texture Maps, sondern zeichnet darüber hinaus ihre Reaktionen auf Licht auf, wie von Spider-Man und Dr. Octopus in Spider-Man 2. Zwar liefert das Verfahren absolut fotorealistische Resultate, aber es ist extrem aufwendig, sodass CG Supervisor Peter Nofz (in Robertson 2004: 6) prophezeit, es werde überholt sein, sobald die Subsurface-Scattering-Verfahren besser sind: «Ultimately, math will win over photography.»14 Alle diese Verfahren wollen möglichst viele Parameter der aufzuzeich- nenden Figur gleichzeitig erfassen, um die bereits erwähnte Figurenkonsis- tenz mit den ganzen internen Beziehungen annähernd vollständig in den digitalen Raum zu übertragen. Noch ist es aber so, dass – abgesehen von der Gesichtsanimation, auf die ich später zurückkomme – die Bewegungsmus- ter separat aufgezeichnet oder von Hand animiert werden müssen, denn die Schauspieler sitzen starr im Zentrum des Kamera-Array oder der Light Stage und können ihren Körper während der Aufzeichnung nicht bewegen. et al. (2006: 454) und zur derzeit neusten Version Light Stage 6: http://www.fxguide. com/article363.html. 14 «Am Ende wird die Mathematik über die Fotografie siegen.» 440 Körper Außerdem ist der Anwen- dungsbereich relativ eng, denn es können ja nur reale Körper auf- gezeichnet werden, und zwar ge- nauso, wie sie aussehen. Daher hat der Visual Effects Supervisor Den- nis Muren schon die Frage gestellt, welchen Sinn eine Technik habe, die alle Parameter erfasst, denn in einem solchen Fall könne man die Person auch einfach mit traditionel- len Mitteln aufnehmen (in cinefex 100: 77). Tatsächlich geht es immer darum, den fotorealistischen Ein- druck möglichst präzise einzufan- gen, aber gleichzeitig den Hand- lungsraum zu erweitern, ein Spiel aus Ähnlichkeit und Differenz zu erzeugen. Schon in der erwähnten Selbstmordszene von Fight Club 31 Das Super-Kleinkind aus Lemony (→ 74) sollte der Kopf des Protago- Snicket’s A Series of Unfortunate Events nisten in Großaufnahme durch den Einschlag der Kugel explodieren – dies alles unter Aufrechterhaltung eines natürlich wirkenden Gesichts des Schauspielers, dessen Reaktion durch einen im Zentrum des Kamera- Array zugefügten Luftstoß zumindest angedeutet werden sollte. In Lemony Snicket’s A Series of Unfortunate Events (USA 2004, Brad Silberling) sind einige Verhaltensweisen des toughen Super-Klein- kinds nur möglich, weil die darstellenden Zwillinge digitalisiert wurden (Abb. 31), und zwar mit einem proprietären bildbasierten System von ILM (cinefex 100: 142 ff.); genauso in Spider-Man 2, in welchem der krakenar- tige Bösewicht Dr. Octopus mit Light Stage aufgenommen wurde, dessen digitale Tentakel die Fortbewegungsmuster deutlich ins Außermenschli- che transponieren. Und schließlich überlegt der Visual Effects Supervisor Joel Hynek (cinefex 100: 77) noch, ob nicht in naher Zukunft die Studios und Versicherungsgesellschaften eine digitale Kopie ihrer Darsteller ein- fordern sollten – als Absicherung im Falle des Todes … Haut Menschliche Haut – so wurde schon erwähnt – ist eines der komplexes- ten Materialien, das sich notorisch gegen seine Erzeugung im Computer Digitale Figuren 441 sträubt, denn sie besteht aus einer Vielzahl an Schichten und Eigenschaf- ten, die in den Modellbildungsverfahren alle einzeln zu definieren sind. Diese Oberflächeneigenschaften setzen sich zusammen aus gemalten, berechneten oder fotografierten Texture Maps, welche die komplexe Farb- verteilung der Hautoberfläche beschreiben, über Displacement Maps, welche die kleinräumige Geometrie von Poren, Falten und Narben ab- bilden, bis hin zu Specularity, Reflection und Diffuse Maps, welche die Reaktionen der Haut auf das einfallende Licht charakterisieren (→ Shader 88). Schon in der Malerei galt die Wiedergabe von Haut als anspruchsvoll, und wie Kebeck (2006: 183) schreibt, zeigte sich wahre Meisterschaft im Differenzieren von Nuancen, die beispielsweise gesunde von kranker Haut unterscheiden. Wegen dieser Schwierigkeiten waren und sind viele digitale Figuren in Ganzkörperanzüge gepackt, die sich eng an den Körper anschmiegen, also auch keine nennenswerte Stoffanimation benötigen, und aus Materialien wie Leder, Metall oder Plastik bestehen. Weil die Haut so schwierig wiederzugeben ist, sind Mischformen die Regel. Eine Ausnahme bilden die bildbasierten Verfahren, die beispiels- weise auf Light-Stage (→ 438) sogar alle Details sowie das Lichtreflexions- verhalten – mit Ausnahme des Highlights – aufzeichnen: «With this system, the question of whether the skin looked right or not went away. This is his skin, it looks right right away»15 (CG Supervisor Peter Nofz in Robertson 2004: 3). Eine weitere Ausnahme sind durchgehend gemalte Maps, mit denen die Haut stärker stilisierter Figuren wie Shrek, aber auch Hulk aufgebaut wird. Dabei geht man normalerweise zumindest von ei- ner fotografierten Texture Map aus. Displacement Maps und/oder Bump Maps, welche die zahlreichen Erhebungen und Vertiefungen der Haut wiedergeben, lassen sich – wie oben (→ 87) erwähnt – durch hochauflö- sende 3D-Scans erstellen – so für die Matrix-Sequels wie auch für Gollum, bei welchem sie teilweise aus einem hochauflösenden 3D-Scan der Ton- figur extrahiert wurden. Wenn bereits bekannte Figuren digital repliziert werden sollen, etwa digitale Doubles oder in geringerem Maß historische Persönlichkeiten, ist die genauste Wiedergabe sämtlicher Details absolute Notwendigkeit. Dazu gehörten unter anderem die charakteristischen Aknen arben von Laurence Fishburne für die Matrix-Sequels oder die leicht gräulichen Tränensäcke von Hitler für Virtual History. Bis heute besteht die größte Hürde der Wiedergabe von Haut in com- putergenerierten Bildern in ihrer halbtransparenten Eigenschaft, der soge- nannten Transluzenz (→ 100), die nur mit dem erwähnten Subsurface Scat- 15 «Mit diesem System wurde die Frage gegenstandslos, ob die Haut korrekt aussah oder nicht, denn dies ist seine Haut, und sie sieht von vornherein korrekt aus.» 442 Körper tering befriedigend gerendert werden kann. Zwar hat Jensen (2001: 127 ff.) ein Verfahren entwickelt, um diesen Effekt zu modellieren; bis heute jedoch schrecken viele Visual-Effects-Spezialisten davor zurück, weil es sehr datenintensiv ist. Echtes Subsurface Scattering kam nach Angabe der Visual-Effects-Spezialisten unter anderem in XXX (cinefex 92: 49), in Dare- devil (cinefex 93: 34) oder in Big Fish (USA 2003, Tim Burton) – dort zur Wiedergabe des Dekolletés der siamesischen Zwillinge (cinefex weekly- update 17: 3) – zum Einsatz. Viel öfter jedoch greifen die Visual Effects Artists zu unterschiedlichen Tricks, um diesen Effekt nicht zu berechnen, sondern zu imitieren. So hat der Prosthetik-Supervisor Gino Acevedo für Gollums Haut seine Technik des Airbrushens in Schichten, mit welcher er üblicherweise die Transluzenz der Haut von Silikonmodellen kontrolliert, unter Anleitung eines ganzen Stabs von Technical Directors in die Com- puterwelt übertragen. Er war davon begeistert: «I’ve got all my favorite colors, they never run out, and they never spill. I told the guys at Digital, if they could just put a couple of vents on the side of the monitor and blow toxic fume in my face, it would be perfect»16 (Acevedo in cinefex 92: 89). Referenz war dabei nicht die reale Haut, sondern die künstliche Haut der Prosthetik. Das Malen in Schichten geht zurück auf die Ölmalerei, in wel- cher halbtransparente Schichten nach und nach auf eine Grundierung auf- getragen werden, bis die Wirkung überzeugt. Ähnliche Techniken hatte man in ViewPaint für Hulks Haut angewandt: ‹Hulk looked like Play-Doh if we made him simply green›, observed [ViewPaint Lead Susan] Koch, ‹so we added […] underlying colors, which really made him look alive.› Hulk tissue was ultimately comprised of a green-pigmented dermis with red flesh underneath, combined with subtle hues of yellow.17 (cinefex 94: 86) Schließlich bestand die Haut aus rund 100 Schichten, in komplexen Shader- Netzwerken organisiert, für welche insgesamt rund 12 000 Maps erstellt wurden, denn die einzelnen Maps müssen sich ja in Abhängigkeit von der Animation verändern können, wobei die Gesichtsfarbe allein schon ein Ausdrucksmittel darstellt. «No believable facial rendering can 16 «Mir stehen alle meine Lieblingsfarben zur Verfügung, sie gehen nie zur Neige, und sie kleckern nicht. Ich habe den Jungs von Digital erklärt, sie müssten nur noch ein paar Ventilatoren neben den Monitor stellen, die mir giftige Dämpfe ins Gesicht pusten, dann wäre alles perfekt.» 17 «‹Hulk sah wie eine Knetfigur aus, wenn wir ihn einfach grün färbten›, bemerkte [View Paint Lead Susan] Koch, ‹wir mussten ihm weitere Farbschichten unterlegen, um einen lebendigen Eindruck zu erzeugen.› So bestand die Haut von Hulk schließlich aus einer grün pigmentierten Epidermis und einem darunter liegenden roten Gewebe, das mit feinen Gelbtönen durchsetzt war.» Digitale Figuren 443 be done without varying the face texture over time»18 (Borshukov et al., Universal Capture 2003). Der Haut überlagert, aber immer noch bestimmend für ihr Aussehen, können je nach Situation Schmutz, Wasser, Fett und Schweiß sein, für wel- che wiederum je eigene Shader definiert werden müssen, die zudem aus einer Reihe von einander überlagerten Maps bestehen. So ist computergenerierte Haut nicht nur eine technische Hürde, die es zu überwinden gilt, sondern auch ein seltenes Lehrstück für deren Mo- dularität, die sich in einer komplexen Netzwerkstruktur einzelner, nuan- cierter Merkmale niederschlägt. Körperanimation 1: Keyframe-Animation Wie im entsprechenden Kapitel (→ 119) schon dargelegt, ist Keyframe-Ani- mation erste Wahl, wenn magische oder übermenschliche Bewegungsab- läufe zu animieren sind. Typische Beispiele sind deshalb die Superhelden von X-Men, XXX, Daredevil, Spider-Man. So hieß es zu Daredevil, dass er völlig menschlich wirken sollte. «Mark Steven Johnson didn’t want to put Daredevil into any situation that a very strong, very gutsy human couldn’t handle»19 (Visual Effects Supervisor Rich Thorne in cinefex 93: 30). Trotzdem haben sie sich gegen Motion Capture entschieden: «The con- sensus was that motion capture was not going to give us exactly what the director wanted»20 (VFX Supervisor Derek Spears in cinefex 93: 31). Denn schließlich sollte die Figur von einem 40 Stockwerke hohen Gebäude hi- nun terhechten – eine Aufgabe, die sich nicht wirklich mit Motion Capture aufzeichnen ließ und außerdem die Fähigkeiten selbst eines durchtrainier- ten Athleten übersteigt. Aber das ist ein Thema, das uns an anderer Stelle beschäftigen wird (→ Das Superheldenproblem 462). Selbst in Produktionen, die sich prinzipiell der Motion-Capture-Tech- nik verpflichtet sehen, gibt es Momente, die mit Keyframe-Animation gelöst werden müssen. Dies galt für die digitalen Massen auf der Titanic genauso wie für Gollum und ganz besonders für Hulk. Bei Titanic hatte man zunächst versucht, Stuntmen die Stürze vom zerberstenden Dampfer ausführen zu lassen. Aber nach mehreren Unfällen musste man zu digita- len Versionen greifen, wenn die Figuren mehrfach auf Schiffsteile knallen und am Ende von der Schiffsschraube zermalmt werden sollten – alles Bewegungsmuster, welche sich nicht via Motion Capture erfassen lassen 18 «Nur wenn sich die Texturen eines Gesichts dauernd verändern, wirkt es glaubwürdig.» 19 «Mark Steven Johnson wollte Daredevil in keine Situation versetzen, die ein durchtrai- nierter, mutiger Mensch nicht bewältigen könnte.» 20 «Wir stimmten darin überein, dass uns Motion Capture nicht das Resultat liefern konn- te, das der Regisseur sich wünschte.» 444 Körper (cinefex 72: 73 f.). Für Hulk galt Ähnliches, wobei prozedurale Verfahren der Dynamik starrer Körper seinen Flugbahnen eine physikalische Basis verleihen sollten. Nicht zuletzt gab es auch bei Gollum Situationen, die sich weder mit Rotoskopieren noch mit Motion Capture umsetzen ließen, sondern Keyframe-Animation notwendig machten. Voraussetzung für plausibel wirkende Resultate sind die erwähnte Skelett- und Muskelstruktur sowie weitere physikalische Parameter, wel- che insbesondere die Masse des Körpers berücksichtigen. Keyframe-ani- mierte Körper wirken häufig zu leicht, ihre Bewegungen fallen wegen der Interpolationskurven oft zu harmonisch aus. Weil sich aber wegen der po- tenziellen Grenzenlosigkeit keyframe-animierter Bewegungsabläufe die physischen Beschränkungen der realen Welt überwinden lassen, sind los- gelöste Balletteinlagen hoch über den Dächern von Manhattan in den Be- reich des Möglichen gerückt. Jede beliebige Pose aus einer Comic-Vorlage kann den Weg auf die Leinwand finden. «As an animation director, I am ready to push the character as far as it can be pushed», bemerkt LaMoli- nara zu Spider-Man (cinefex 90: 21). «Sometimes that means ‹breaking› the character. Physiquers like to put limits on, and we like to turn them off! […] the animators and I always wanted the pose to ‹sing›, to shine.»21 Körperanimation 2: Motion Capture Seit Beginn der Figurenanimation am Computer gilt Motion Capture als ideales Verfahren, um der Animation Persönlichkeit zu verleihen, denn die hochgradig arbeitsintensive Keyframe-Animation führt auch zu einer extensiven Arbeitsorganisation. Damit droht der Figurenkonsistenz schon im Bereich des Verhaltens ein Zerfließen des Ausdrucksrepertoires. Dennoch ist es offenbar keineswegs selbstverständlich, dass ein ein- zelner Darsteller die Bewegungen auf der Motion-Capture-Bühne ausführt. Ganz anders für die Figur Gollum, die allein von Andy Serkis gespielt wurde, und zwar zweimal: einmal am Set in der direkten Interaktion mit den beiden Gefährten Sam und Frodo, ein zweites Mal auf der Motion-Cap- ture-Bühne. Akustische Cues – Dialogteile oder abstrakte elektronische Töne, welche einzelne Aktionen repräsentieren – steuerten das Timing. «Mocap is only as good as the ‹mo› you ‹cap› – and fortunately Andy pro- vided some terrific ‹mo›»22 (Animation Supervisor Randall William Cook 21 «Als Animationsregisseur bin ich bereit, die Figur an ihre Grenzen zu führen. Manchmal geht das so weit, dass wir die Figur zu ‹brechen› versuchen. Die Techniker, welche die Ana- tomie konstruieren, versehen das Skelett mit Beschränkungen, und wir hebeln diese wieder aus. […] die Animatoren und ich wollen Posen schaffen, die ‹vibrieren›, die leuchten.» 22 «Mocap ist nicht besser als die ‹Mo› [die Bewegung], die man ‹cappen› [von to capture, also aufzeichnen] kann – und glücklicherweise hat Andy uns einige tolle Bewegungen geliefert.» Digitale Figuren 445 in cinefex 90: 92). Wie in vielen anderen Fällen mussten die Proportionen verändert werden, weil Gollum über eine deutlich andere Physis verfügt als Andy Serkis, sodass mit einem komplexen Übertragungsverfahren die Off- sets der einzelnen Punkte verrechnet werden mussten – dies alles möglichst in Echtzeit, damit Peter Jackson die Qualität der Darstellung am Monitor sofort beurteilen konnte. Motion Capture ist inzwischen das Standardprozedere für die Ani- mation von Figuren mit einem Bewegungsrepertoire, das sich an den physikalischen Gesetzmäßigkeiten orientiert. Erstes Anwendungsobjekt war der brennende Priester in The Lawnmower Man. Weiter wurden die sich auflösende Mumie nach der Darstellung von Arnold Vosloo für The Mummy damit animiert oder in Gladiator einzelne Römer, welche sich auf dem physisch nicht vorhandenen Velarium, dem Stoffdach über der Arena, betätigten. Sämtliche Bewegungen in den vollcomputeranimierten Filmen Final Fantasy, viele Bewegungen in Hulk sowie jene Teile der Ro- boterbewegungen in I, Robot (USA 2004, Alex Proyas), die innerhalb der Reichweite menschlicher Bewegungsabläufe stattfinden sollten, hat man ebenfalls mittels Motion Capture auf die Figuren übertragen. Körperanimation 3: Rotoskopieren Als Vorform von Motion Capture hat Rotoskopieren seine Bedeutung für die Animation weitgehend verloren (→ 215) und wird hauptsächlich an- gewandt, um Proxys (→ 256) aus dem Hintergrund zu retuschieren – so für Hollow Man, für The Lord of the Rings oder für I, Robot. In allen diesen Filmen kam ein komplexes Mischverfahren zum Einsatz, das die Techniker Rotomation nannten (cinefex 96: 69), in welchem zunächst der Proxy aus dem Hintergrund gelöst und, in einem zweiten Schritt, aufbau- end auf der Performance des Proxy, die digitale Figur ins Bild eingefügt wurde. Deren Bewegungen bildete man mittels Motion Capture in Kom- bination mit Keyframe-Animation der Performance des Proxy nach. Enger dem Gedanken des Rotoskopierens nachempfunden war die Übertragung des Gesichtsausdrucks vom Proxy auf die digitale Figur – ein Thema, das ich gleich im Kontext der Gesichtsanimation behandeln werde. Gesichtsanimation 1: Keyframe-Animation Alle Anforderungen an die Körperanimation werden für die Gesichtsani- mation bei weitem übertroffen, denn das Gesicht ist die wohl dichteste Flä- che überhaupt, mit einer ungeheuren Anzahl an subtilen Bewegungsmög- lichkeiten. Schon in der lebensweltlichen Erfahrung kommt diesen Nuan- cen größte Bedeutung zu. In der audiovisuellen Kommunikation besonders des Films finden sich in Großaufnahmen Momente höchster Konzentration 446 Körper auf das Gesicht, die für die Zuschauerpartizipation entscheidend sind (vgl. Plantinga 1999: 239 ff. sowie mehrere Texte in Blümlinger/Sierek 2002). In den letzten Jahren hat sich bei der Gesichtsanimation eine Metho- dologie herausgebildet, welche Einsichten in die Universalität des Ge- sichtsausdrucks aufgreift und verarbeitet, wie sie insbesondere in den psychologischen und anthropologischen Studien von Paul Ekman et al. ab Beginn der 1970er-Jahre beschrieben wurden. Ekman hatte seinerseits Thesen zur biologischen Fundierung des Gefühlsausdrucks aufgegriffen, die Charles Darwin 1872 in The Expression of Emotions in Man and Animals formuliert hatte.23 Ekmans Idee nun war es, den Gesichtsausdruck in dis- krete Einheiten zu zerlegen, und zwar basierend auf der Muskelstruktur. Aus diesem Ansatz ging Ende der 1970er-Jahre das Facial Action Coding System (FACS)24 hervor (Ekman/Friesen 1978), das den Zusammenhang zwischen der Tätigkeit dieses Muskelsystems mit 44 mimischen Einhei- ten und den sechs Basisemotionen Glück, Überraschung, Trauer, Angst/ Furcht, Ekel/Abscheu und Zorn systematisiert. Dieses System integriert keineswegs nur schematische Positionen der Basisemotionen in Reinform, sondern ebenso komplexe Mischformen und subtile Übergänge. Weitere Aspekte des Gesichtsausdrucks, mit denen sich Ekman et al. befassten, waren kulturell bedingte Darbietungsregeln (display rules) sowie Disso- nanzen zwischen erlebtem Gefühl und Gesichtsausdruck, um innere Zu- stände – beispielsweise beim Lügen – zu verbergen. Somit ist das System gleichzeitig sehr komplex und doch übersichtlich und eignet sich deshalb hervorragend für die Implementierung in die Gesichtsanimation. Nun gibt es grundsätzlich zwei Möglichkeiten, ein solches System zu integrieren. Die eine Strategie beschränkt sich auf Veränderungen der Oberfläche – die andere baut tatsächlich ein der Gesichtsanatomie analoges Muskelsystem auf und verknüpft die Haut mit einem Skinning-System. Alle Systeme jedoch modellieren zunächst auf die eine oder andere Weise basale Elemente des Gesichtsausdrucks – zum Beispiel der Augenbrauen oder der Augenlider in verschiedener Form – als Morph Targets oder Blend Shapes (→ 121), die in einer Datenbank-Struktur gespeichert werden, und definieren Regler, mit denen diese Morph Targets ineinander überführt werden können. Dieses Morphen von einer Position in die andere kann annähernd stufenlos erfolgen, ganz ähnlich wie im FACS. 23 Umfassende Informationen zu sämtlichen Aspekten des Gesichtsausdrucks finden sich in Bruce (1998). 24 Eine Vielzahl von Texten zum FACS sowie einige Illustrationen finden sich auf der Website von Joseph Hager, einem Mitarbeiter Ekmans: http://face-and-emotion.com, eine Flash-Animation mit der Muskelstruktur auf http://www.artnatomia.net/uk/ index.html. Digitale Figuren 447 Für Gollum griff man zwar nicht auf das wissenschaftlich fundierte FACS, sondern auf eine künstlerisch orientierte Version, nämlich The Ar- tist’s Complete Guide to Facial Expression, von Gary Faigin zurück. Unter der Leitung des Creature Facial Lead Bay Raitt hatte ein Team von Animatoren 675 typische Gesichtsausdrücke – basierend auf 9000 Muskelformen – modelliert (cinefex 92: 85). Mittels eines Systems, das Baitt «combination sculpting» nennt, konnte man die Hautverteilung, unter der Oberfläche liegende Formen und deren Flexibilität miteinander verbinden, und zwar innerhalb eines festgelegten Ausdrucksrahmens, um die Figurenkonsis- tenz zu stützen (Raitt in Serkis 2003: 77 ff.). Während der Arbeit mit diesem System ließen sich bestimmte Ausdruckskombinationen sichern und mi- schen. «Gollum wasn’t the kind of character where we could sculpt a pose, bend that and call it a performance»,25 erläutert Raitt seinen Ansatz (in cinefex 92: 80). «He needed to be able to cry, to have his whole face in com- plete compression, then to be able to act from there.»26 Dieses expressive Repertoire mussten die Animatoren in Echtzeit einsetzen und überprüfen können; deshalb haben Raitt und sein Team mit einem Gaming-Programm gearbeitet, das wie ein Videospiel eine intuitive Steuerung in Echtzeit erlaubt. Nach Ansage von Peter Jackson, welcher Gollum stärker an die Physiognomie von Andy Serkis angleichen wollte, wurden verschiedene Ausgangsposen – interpretiert von Serkis – gescannt (cinefex 92: 80). Ein zweites Animationssystem nach ähnlichem Muster diente der Sprachartikulation. Zunächst bauten Raitt und sein Team, wie es üblich ist (vgl. Kerlow 2004: 358 f.), eine Datenbank auf, welche die einzelnen Phoneme oder vielmehr Viseme – das heißt die visuelle Ausformung der Phonemartikulation – umfasste, und systematisierten mittels dreier gol- dener Regeln die audiovisuelle Beziehung zwischen Mundform und Laut: Erstens sollten alle Phoneme des Dialogs notiert werden, zweitens sollte man nicht jedes Phonem deutlich zuordnen, sondern sie verschmelzen las- sen und vor allem die Explosivlaute betonen, drittens das Bild um je zwei Bilder nach vorne verschieben, um einen besseren Abgleich zwischen Bild und Ton zu erhalten (Raitt in cinefex 92: 85). Die eigentliche Kunst beginnt jedoch erst danach, denn essenziell für eine stimmige Gesichtsanimation sind das Timing, die Übergänge zwischen den Posen und die Beteiligung der einzelnen Gesichtsteile. Key- frame-animierte Gesichter laufen Gefahr, zu tranig zu wirken, zu verlang- samt, zu wenig sprunghaft. Selbst im stoischsten Gesichtsausdruck sind 25 «Gollum gehörte nicht zu jenem Typ von Figur, bei der man eine Pose modellieren, leicht verformen und direkt als Darstellung verkaufen kann.» 26 «Er musste in der Lage sein zu weinen, sein ganzes Gesicht musste sich in völliger Auflösung befinden können, um sich dann im Spiel weiterzuentwickeln.» 448 Körper kleine Bewegungen festzustellen, sogenannte Mikroexpressionen. Wie Untersuchungen gezeigt haben, können Veränderungen innerhalb von Zehntelsekunden ablaufen (Schneider 1990: 429), und dieses Zeitmuster selbst ist von Bedeutung (Bruce 1998: 191). Genauso kritisch, wenn nicht noch kritischer sind die Übergänge zwischen den Posen, denn sie verlaufen nicht koordiniert, sondern ver- schieben sich ständig leicht gegeneinander. Ein Auge blinkt, eine Wange bläst sich leicht auf, die Lippen öffnen sich etwas asymmetrisch: Solche minimalen Details sind extrem schwer mit Keyframe-Animation herzu- stellen. Schließlich wird der Gesichtsausdruck doch ganzheitlich interpre- tiert, als ein Zusammenspiel aller beteiligten Elemente, wobei speziell die Abweichungen an Bedeutung gewinnen können, wie wir alle wissen. So sehen wir jemandem eine Unsicherheit an, weil plötzlich die Lider leicht flackern. Animatoren verfügen deshalb über ein fundiertes Wissen in Kombination mit einer sehr differenzierten Imagination. Aber auch dann noch bleiben die grundsätzlichen Probleme, die ich im Kapitel Modellbil- dung schon beschrieben habe: Es fehlen jene zufällig wirkenden Störungen allzu glatter, allzu konzipierter Abläufe. Zum reduzierten, stoischen Spiel von Anthony Hopkins in The Remains of the Day (GB/USA 1993, James Ivory) meint VFX Supervisor Richard Edlund (in cinefex 100: 73): «Just think how difficult that would be to animate.»27 Gesichtsanimation 2: Facial Motion Capture Mehr oder weniger parallel zu dieser hoch entwickelten Form der Ge- sichts animation hat sich ein Motion-Capture-Verfahren entwickelt, um die Mimik aufzuzeichnen. Analog zu Motion Capture des Körpers werden auf dem Gesicht kleine Marker verteilt und mit einem Infrarotkamera-Array aus verschiedenen Perspektiven aufgenommen. In einer leicht abgewan- delten Form, die für Virtual History verwendet wurde, sind es farbige Punkte, die man auf das Gesicht malt – in Kombination mit einem Raster, das man darauf projiziert. Diese gemalten oder applizierten Punkte ent- sprechen signifikanten Details des Gesichts, beispielsweise den inneren und äußeren Augenwinkeln, dem oberen und unteren Rand der Augen- brauen sowie einigen entscheidenden Muskelansatzpunkten, wenn mit einem Muskelsystem gearbeitet wird. Üblicherweise – so war es auch bei Virtual History – sitzen die Darsteller und mimen ausschließlich ihren Dialog sowie ihren Gesichts- ausdruck. Dass dieser Ansatz die Ausdrucksfähigkeit des Schauspielers extrem beeinträchtigt – wie übrigens auch die stimmliche Ausdrucksfä- 27 «Stellen Sie sich vor, wie schwierig es wäre, so etwas zu animieren.» Digitale Figuren 449 higkeit bei der Nachsynchronisa- tion am Sprecherpult –, liegt auf der Hand, denn Gesichtsausdruck und Körperbewegungen bedingen einander, das Gesicht verändert sich anders, wenn sich der Körper gleichzeitig bewegt. Außerdem ist 32 Markierungspunkte des Gesichts für es sehr schwierig, nachträglich Ge- The Polar Express sichts- und Körperbewegungen ei- nander anzupassen. «Anything from a head turn to footsteps, from walk- ing to running, are all extremely difficult to line up if the face and body aren’t captured together»28 (SIGGRAPH Kurs Nr. 28: 23). Aus all diesen Gründen hat ein Team um Ken Ralston von Sony Imagew orks für The Polar Express (USA 2004, Robert Zemeckis) einen integrierten Ansatz entwickelt, den sie Performance Capture nennen, um Körper- und Gesichtsbewegungen simultan aufzuzeichnen. Obwohl die Resultate meiner Ansicht nach nicht überzeugen – aus Gründen, über die noch nachzudenken sein wird –, werde ich im Folgenden die Technik von diesem Beispiel ausgehend vorstellen, und zwar anhand der Informatio- nen, die in einem Kurs an der SIGGRAPH 2005 vermittelt wurden (Kurs Nr. 28, 2005), sowie zusätzlichen Informationen aus cinefex 100. Ein ähnli- ches System war übrigens für Gollum vorgesehen: mit schwarzen Punkten auf Andy Serkis’ Gesicht. Es wurde aber verworfen, weil die Technik nicht ausgereift war. Für The Polar Express hatten die Techniker nach einem zuvor fest- gelegten Schema 151 Marker mit 2,4 mm Durchmesser auf den Gesichtern verteilt (Abb. 32) – dies im Unterschied zu üblichen Systemen, die lediglich mit 30 bis 60 Markern auskommen. Wegen der extremen Datenflut, die aus der Kombination von Gesichts- und Körperaufzeichnung entstand, konnte man lediglich kleine Segmente aufnehmen, musste also alle Einstellungen in kleinere Einheiten auflösen. Es ist klar, dass damit zwar die Einheit von Körper- und Gesichtsbewegung gegeben ist, gleichzeitig aber die Aus- drucksmöglichkeit auf eine andere Art und Weise beschnitten wird. Damit die Markerbewegungen verfolgt werden konnten, musste zunächst die Be- wegung des Kopfes mit einer Tracking-Software extrahiert, der Kopf also rechnerisch stabilisiert und auf das digitale Gesicht übertragen werden. Ein besonderes Problem boten die Augen, denn obwohl Kerlow (2004: 360) spezielle Kontaktlinsen erwähnt, mit denen sich die Augen- 28 «Kopfbewegungen ebenso wie Schritte, Gehen oder Laufen – alle Bewegungen sind sehr schwer zu koordinieren, wenn Gesicht und Körper nicht zusammen aufgezeich- net werden.» 450 Körper bewegungen erfassen lassen, hat das Team um Ralston die Augen ausge- spart und nachträglich keyframe-animiert. Das ‹Augenproblem› wurde verschärft durch grundsätzliche Probleme des Facial Motion Capture, denn die winzigen Marker verschwanden in der Lidfalte, und es entstand rund um die Augen ausschließlich Rauschen. Insgesamt hatte das System mit starken Verdeckungen zu kämpfen, eben weil die Marker so winzig waren, und es generierte aus minimalen Offsets groteske Ausdrucksver- zerrungen. Am Ende konnte man die Augenmarker bestenfalls für das Timing des Blinzelns verwenden. Blickrichtung, Auge, Lider wurden mit einem komplexen dynamischen System so verknüpft, dass die Augenpar- tie dem Auge mit einer durch die Viskosität des Tränenfilms verursachten Verzögerung folgte. «It took a lot of time to create an emotional connection with the characters», räumt Ralston ein (cinefex 100: 125), «and the eyes were key to making that believable. I’m not a minutia guy, but I had to become one for this film.»29 Schließlich ging es sogar darum, die sakkadi- schen Augenbewegungen nachzubilden, jeweils gefolgt von einer kurzen Fixierungsphase. «When we coupled that with eye-shape changes and lighting, we started to see thought»30 (Animation Director David Schaub in cinefex 100: 126). In vielen Fällen musste man ohnehin – wie oft bei Motion Capture, wenn auch vielleicht weniger häufig – die Motion-Capture- durch Key- frame-Animation ersetzen, besonders dort, wo Erwachsene Kinder mim- ten. Weil alle Motion-Capture-Sessionen auch von mehreren Videoka- meras aufgezeichnet wurden, griff man auf dieses Material als Referenz zurück. In der schon mehrfach erwähnten Diskussion in cinefex 100 (75 ff.) melden viele Visual-Effects-Spezialisten grundsätzliche Zweifel an der Praktikabilität und der ästhetischen Wirkung von Facial Motion Capture an. «No matter how many markers you put on the face, you’re still filtering the movement of the skin – and it looks like that»31 (Animation Director Andy Jones, der ein solches System für Final Fantasy testete, in cinefex 100: 75). Denn die Punkte sind zu grob verteilt, es bleiben immer Lücken, und es ist schwierig bis unmöglich, diese Lücken glaubwürdig zu füllen, wenn ein Gesicht in fotorealistischem Rendering in Großaufnahme zu se- hen ist. Im Rahmen des Motion-Capture-Ansatzes, also der Aufzeichnung 29 «Es dauerte lange, bis wir es schafften, eine emotionale Verbindung zu den Figuren herzustellen, und die Augen waren dabei entscheidend für die Glaubwürdigkeit. Ich bin kein Erbsenzähler, aber ich musste für diesen Film einer werden.» 30 «Erst als wir das mit Veränderungen der Augenform und der Beleuchtung kombinier- ten, begann man zu sehen, dass die Figur denkt.» 31 «Egal, wie viele Marker man im Gesicht platziert, man filtert auf jeden Fall die Haut- bewegungen – und so sieht es auch aus.» Digitale Figuren 451 und Übertragung des Gesichtsausdrucks eines Schauspielers, sehen die Praktiker nur in den bildbasierten Verfahren eine Chance, in denen der Fluss jedes einzelnen Pixels (pixel flow) verfolgt wird. Ein solches System ist Universal Capture (→ 75) oder Light Stage (→ 438 f.), und ein solches System wurde von VFX Supervisor Hoyt Yeatman (cinefex 100: 75) wäh- rend Jahren für einen nie gedrehten Film namens Gemini Man entwickelt und am Ende von Disney verworfen. Gesichtsanimation 3: Rotoskopieren Zwar rotoskopiert man das Gesicht im engeren Sinne nicht mehr, aber im weiteren Sinne kann man durchaus von Rotoskopieren sprechen, wenn die Gesichtsanimation der Interpretation eines Schauspielers folgt wie im Falle von Gollum, für den die Mimik von Andy Serkis als Vorlage diente. Natürlich sind gewisse technische Voraussetzungen nötig, die eine solche Übertragung erst möglich machen, nämlich eine schon perfekte Grund- struktur des zu animierenden Gesichts und ein intuitives Keyframe-Ani- mations-System mit passender Datenbank an Morph Targets. Darüber hinaus war in diesem Fall die Übertragung nochmals komplizierter als ein traditionelles Rotoskopieren, weil sich die Gesichtsproportionen zwi- schen Andy Serkis und Gollum stark unterscheiden. Solche Unterschiede aber, das haben die Überlegungen zu Facial Motion Capture gezeigt, sind schwer zu bewältigen und brauchen ein ausgeprägtes Fingerspitzen- gefühl für alle Nuancen des Gesichtsausdrucks. Schließlich aber war es ohnehin nicht möglich, die gesamte Mimik von Andy Serkis zu erfassen, denn zunächst einmal deckte der Anzug, in welchem er am Set spielte, Teile des Gesichts ab. Zum Entsetzen der Animatoren wurden damit die Live- Action-Aufnahmen für die Gesichtsanimation unbrauchbar. Außer- dem gab es auch Situationen, die Serkis nicht spielen konnte wie gewisse Kletterpartien in den Felsen oder den Fall in den Lavastrom, der Gollums Ende bedeutet. Von der Fallstudie Gollum zu grundsätzlichen Überlegungen Wie im Abschnitt zur digitalen Figurenkonstruktion (→ 434) erwähnt, stellt die Konsistenz eines der größten Probleme computergenerierter Figuren dar. Tatsächlich ist in Gollums Fall die Verbindung zwischen Erscheinungsbild und Verhalten sehr brüchig. Denn diese beiden Kate- gorien sind mit ganz unterschiedlichen Techniken entstanden, und sie nähren sich aus völlig verschiedenen Quellen. Oberfläche und Form sind annähernd vollständig modelliert – wenn auch mit Unterstützung eini- ger zusätzlicher Techniken aus dem Bereich des Aufzeichnens und des 452 Körper Malens; das Verhalten hingegen ist mehrheitlich mittels komplexer, com- putergestützter Aufzeichnungsverfahren unter Rückgriff auf Keyframe- Animation entstanden. Zwischen der Figur Gollum und Andy Serkis bestehen weitgehend vermittelte Verbindungen, und doch bildet Serkis den Ausgangspunkt des Verhaltens, das fast vollständig den physikali- schen Naturgesetzen gehorcht und allenfalls marginal in den Bereich des Fantastischen vordringt. Wichtigstes Verbindungsglied zwischen Verhalten und Erscheinungs- bild ist daher weder die technische Konsistenz noch eine einheitliche Re- ferenz, sondern die narrative Konstruktion der Figur, die auf einer starken Back-Story und einer intelligent konstruierten Persönlichkeitsstruktur gründet, die wiederum auf Tolkiens literarische Vorlage zurückgeht. Gollums Herkunft, seine individuelle Entwicklung unter dem Einfluss der magischen und korrumpierenden Kraft des Rings ist Teil der Geschichte und wird in einer Rückblende als Transformation von einer Figur mit nor- malen menschlichen Zügen zu einer alterslosen Figur irgendwo zwischen Kind und Greis mit aufgerollt. Speziell die schizophrenen Anwandlungen, die Gollum/Sméagol immer wieder heimsuchen, könnten die Figuren- konsistenz bedrohen, führen aber – so denke ich – eher zu einer verstärk- ten Partizipation an diesem merkwürdigen Geschöpf, dessen Position in der Gruppe ich später betrachten werde, denn sie verlagert die Figur im Kontinuum zwischen flachen und tiefen Charakteren32 nach und nach über zunehmende Komplexität in den Bereich eines tiefen Charakters. Die zweite Hürde, nämlich das Modellieren von Komplexität, nimmt die Konzeption der Figur mittels einiger äußerst cleverer Tricks (Abb. 33): Zunächst der sehr spärliche Haarwuchs von 25 Strähnen, welcher die An- forderungen an die Haarmodellierung und -animation extrem vereinfachte, weiter die übertrieben großen Augen und Ohren, die einen Abgleich mit der Realität von vornherein unterbinden. Der Mund mit den schlechten Zähnen und der dunklen Zunge überdeckt eine notorische Problemzone der Com- puteranimation, nämlich dass der Mund oft wie eine schwarze Höhle wirkt. Schließlich bricht die schmutzige, verwitterte Haut mit vielen Narben und Falten die allzu ebenmäßige Anmutung der Computergrafik durch sorg- fältig gepflegte Hässlichkeit auf. Diese Hässlichkeit selbst ist im Übrigen funktional in die Figurenkonzeption integriert, indem sie ein eigenes viel- schichtiges Ausdruckspotenzial darstellt, in welchem die Physis – wie so oft in der filmischen Darstellung – über sichtbare Merkmale innere psychologi- sche Gegebenheiten an die Oberfläche trägt (vgl. Murray Smith 1995: 113). 32 Diese Unterscheidung geht auf Edward M. Forster zurück (siehe Taylor/Tröhler 1999: 142; Murray Smith 1995: 117). Digitale Figuren 453 33 Gollum Um das Problem der Interaktion zu lösen, agierte Andy Serkis als Proxy am Set. Die Proxy-Technik habe ich im Kapitel Compositing schon ausführlich vorgestellt (→ 220). Gollum ist ein besonders einleuchtendes Beispiel dafür, wie deutlich sich Inszenierung, Timing, physische Interak- tion mit dem Proxy-Ansatz verbessern. Ohne weit entwickelte technische Voraussetzungen jedoch wäre dieses Verfahren nicht möglich: Es erfordert Fortschritte im Erstellen von Travelling Mattes (→ 207) und Fortschritte in der digitalen Retusche (removal, painting). Schon die Retusche ist sehr an- spruchsvoll und arbeitsintensiv, denn der Schauspieler in seinem Anzug muss nicht nur aus dem Material entfernt, sondern fehlende Stellen – Hin- tergründe, Objekte, aber auch Figuren – müssen mühevoll rekonstruiert werden, weil Gollums drahtige Konstitution im Bild deutlich weniger Raum einnahm als Serkis. Fehlende Bildinformationen können im Ideal- fall der Aufnahme mit einer computergesteuerten Motion-Control-Ka- mera aus einem sogenannten Clean Pass ohne Schauspieler extrahiert werden; in allen anderen Fällen erfordert es mühevolle Handarbeit, die für The Lord of the Rings ein Team von 45 Compositors im Verbund mit 25 Rotoscope und Paint Artists leistete (cinefex 92: 90). Weiter ist eine exzel- lente Tracking-Software (→ 243) notwendig, um die Kameradaten aus den Bildern zu extrahieren, wenn ohne Motion Control gedreht wurde, oder um die Bewegungsdaten der Figur aus den Bildern zu berechnen und um schließlich in Kombination mit Vermessungsdaten des Sets die Topologie zu rekonstruieren, in welcher sich die digitale Figur bewegen soll. Sind die konzeptionellen und technischen Grundprobleme gemeis- tert, stellt sich die Frage nach den tieferen Schichten der Zuschauerpartizi- pation, die sich am besten mit dem Begriff Empathie fassen lässt. Im Gegen- satz zur Identifikation impliziert die Empathie eine nicht nur psychische Anteilnahme an den Gefühlen der Figuren, sondern auch eine kognitive Evaluation ihres Verhaltens. Es ist verschiedentlich gezeigt worden, dass 454 Körper die emotionalen Reaktionen auf eine Figur als äußerst komplex zu verste- hen sind, denn es kommt zu einer Überlagerung von narrativen Informa- tionen und deren Bewertung sowohl anhand von textuellen Hinweisen als auch anhand eines lebensweltlichen Wissens und/oder einer kulturell verbindlichen Moral (vgl. Smith 1999: 220 ff.). Dies betrifft insbesondere die emotionalen Reaktionen auf einen Antagonisten, als welcher Gollum durchaus zu verstehen ist. Es ist im Übrigen wesentlich einfacher, einen Antagonisten mittels Computergrafik zu schaffen als einen Sympathie- träger, denn die wahrgenommene Distanz zur digitalen Figur unterstützt negative Emotionen, wie am Beispiel des T-1000 aus Terminator 2 (USA 1992, James Cameron) deutlich wird. Gollums konfligierende Absichten sind so essenziell wie bedrohlich für das Ziel des Protagonisten, nämlich die zerstörerische Kraft des Rings zu brechen. Damit erzeugt seine Position in der Gruppe gemischte Ge- fühle, in welchen Anteile von Wut, vielleicht sogar Hass und Ekel in Kom- bination mit Belustigung oder sogar Fürsorge vorkommen. Diese mehr- deutigen Reaktionen sind in der Figurenkonzeption schon angelegt durch die schizophrenen Züge der Persönlichkeit, die sich namentlich in zwei Schlüsselszenen in The Two Towers (2002) und The Return of the King (2003) zeigen, da Gollum sein Alter Ego als Reflexion im Wasser anspricht. Erzähltechnisch versehen diese sowie einige weitere Szenen, in welchen er in kindlicher Manier Selbstgespräche führt, den Zuschauer mit einem Wis- sensvorsprung gegenüber den Protagonisten, indem Gollum seine Absicht klar äußert, die Hobbits umzubringen, um den Ring für immer zu behal- ten. Solche privaten Momente des Selbstgesprächs oder der Reflexion im Spiegel, die übrigens auch in Hulk, in The Mask und Spider-Man eine zentrale Rolle spielen, sind Momente der Wahrheit, denn in diesen Mo- menten sind die kulturellen und sozialen Regeln ausgehebelt; das wahre Selbst findet seinen ungefilterten Ausdruck (vgl. Plantinga 1999: 251). Immer wieder mischen sich jedoch Momente der Belustigung – des Comic Relief – über diese schrullige Figur in die Rezeption. Gollum wirkt witzig und niedlich – und dies nicht nur wegen seiner oftmals naiven Art, sondern auch wegen seiner Gestalt, die in weiten Teilen dem von Konrad Lorenz 1943 beschriebenen Kindchenschema33 entspricht. Dieses besteht aus einem Set von Eigenschaften – Pausbacken, Stupsnase, große Augen, hohe Stirn, großer Kopf –, die gemäß Lorenz als Schlüsselreize automatisch eine instinktive Fürsorgereaktion auslösen und damit eventuell vorhandene aggressive Reaktionen hemmen. 33 In: Lorenz, Konrad (1943): Die angeborenen Formen möglicher Erfahrung. In: Zeit- schrift für Tierpsychologie, Bd. 5, Nr. 2, 235–409. Digitale Figuren 455 Interessanterweise beginnt die Geschichte des Kindchenschemas in der filmischen Darstellung, be- vor Lorenz diesen Zusammenhang analytisch erfasste. So entspricht schon Betty Boop (Abb. 34), die Max Fleischer in den 1930er-Jah- ren schuf, diesem Schema; es fol- gen viele weitere Beispiele in Film und Comics – in jüngster Zeit be- sonders im japanischen Anime. Zu nennen wäre vor allem E. T. – The Extraterrestrial (USA 1982, Ste- ven Spielberg; Abb. 35), der in ähn- licher Weise wie Gollum kindliche Eigenschaften mit greisen Zügen kombiniert. Auch dort hatte ein rudimen- tärer, kindlicher Sprachgebrauch mit typischen grammatikalischen Fehlern – Gebrauch der dritten 34 Kindchenschema bei Betty Boop Person statt der Ich-Form, Über- generalisierungen, Auslassungen – den niedlichen Eindruck verstärkt. Insgesamt entsteht mit verschiede- nen, oft widersprüchlichen Cha- rakterzügen das Bild einer gerisse- nen, teilweise gefährlichen, gleich- zeitig aber auch witzigen Figur voller Überraschungen, die den mitunter erdrückend pathetischen Impetus des Fantasy-Universums in erfrischender Weise aufbricht – 35 E. T. – zwischen Kind und Greis auch dann, wenn man sich der technischen Virtuosität nicht einmal bewusst ist, also ohne paratextuelles Wissen. In einem weiteren kulturellen Zusammenhang ist es sinnvoll, eine populäre Theorie in die Überlegungen einzubeziehen, die sich allgemein mit der Akzeptanz künstlicher Figuren beschäftigt, nämlich die 1970 von Masahiro Mori im Kontext der Robotik entworfene Theorie des Uncanny Valley (japanisch bukimi no tani, Mori 1970). Mori geht in seiner These von 456 Körper 36 Der Effekt des Uncanny Valley folgenden Regeln aus: Je anthropomorpher eine künstliche Figur wie bei- spielsweise ein Roboter aussieht, desto vertrauter wirkt er und desto mehr Emotionen wird er auslösen. Erscheint er aber fast vollständig mensch- lich, setzt im Gegenteil ein distanzierender Effekt ein, den Mori Uncanny Valley nennt. Erst wenn die Figur vollständig menschlich wirkt, nimmt die positive Wirkung wieder überhand und erreicht einen maximalen Wert (Abb. 36). Mori führt als Beispiel eine Handprothese an, die ganz natürlich aussieht, sich aber unnatürlich anfühlt. Diese Theorie ist bei den Visual- Effects-Spezialisten bekannt (cinefex 100: 77). In der Fachwelt gelten die Figuren aus Final Fantasy als Paradebeispiel für den Einfluss des Uncanny Valley auf deren Rezeption. An der Oberfläche fotorealistisch wirkend, fehlen ihnen einige menschliche Eigenschaften. Sie atmen nicht und verfügen über ein sehr beschränktes Ausdrucksrepertoire, kurz: Sie wirken irgendwie tot. Diese Assoziation zum Tod oder genauer zu lebenden Toten, also Zombies, ist es denn gemäß Mori auch, was den dis- tanzierenden Effekt hervorruft. Ein anderer denkbarer Erklärungsansatz wäre das Gefühl der Befremdung, das sich einstellt, wenn das Verhalten eines Kommunikationspartners von den sozialen und kulturellen Normen abweicht, wenn jemand beispielsweise keinen Blickkontakt hält und statt- dessen die Augen verdreht, wenn man mit ihm spricht, ohne dass diese Normverletzung durch ein Gebrechen erklärt würde. Nicht alle digitalen Figuren passen jedoch in dieses Modell; eine davon ist Gollum, der zu weiten Teilen menschlich erscheint, in einigen Punkten aber abweicht. Es gilt also, alternative Erklärungsmodelle zu su- chen, welche möglichst auch diese Fälle erfassen. Ein Ansatz ist das Modell der Distanz, das ich im Folgenden vorstelle. Dabei handelt es sich weniger um eine Theorie als um einen Approach. Den Begriff Distanz verwende ich dabei in Anlehnung an die Prototypentheorie als Maß für eine Abwei- chung von einem gesetzten Standardwert (vgl. Kluwe 1990: 155). Digitale Figuren 457 37 Das Modell der Distanz Um diesen Ansatz zu diskutieren, stelle ich eine Matrix (Abb. 37) zur Verfügung, in welcher die einzelnen beteiligten Parameter aufgeführt sind – auf der linken Seite ein Kontinuum vom Natürlichen zum Abstrak- ten. Am einen Pol stehen hypothetische, transparente Repräsentationsfor- men, die einen unverzerrten Blick auf eine abgebildete Objektwelt freige- ben, vergleichbar mit dem Blick aus einem Fenster, und damit Emotionen durch Mimesis34 erzeugen, während die opaken Repräsentationsformen auf der anderen Seite die Aufmerksamkeit auf die eigene Materialität und/oder Virtuosität lenken und Artefakt-Emotionen auslösen (Tan 1996). Meine Hypothese lautet, dass sich die verschiedenen Aspekte einer Figur in einer ähnlichen Distanz zu einem transparenten Darstellungsmodus befinden sollten. Insbesondere zwischen fotorealistischen und stilisier- ten Abbildungen befindet sich eine feine, aber essenzielle Linie, welche grundsätzlich unterschiedliche Darstellungsformen trennt. Alle Merkmale einer digitalen oder künstlichen Figur lassen sich in diese Matrix projizie- ren, wobei die Aspekte ‹Erscheinungsbild› und ‹Verhalten› als isolierte Entitäten zu behandeln sind aus Gründen, die ich im Kontext der Figuren- konsistenz bereits dargestellt habe (→ 434). Gemäß dieser Hypothese scheitern die Figuren aus Final Fantasy, weil zwischen stilisiertem Verhalten und fotorealistischem Erscheinungs- bild die erwähnte essenzielle Linie verläuft. Animatoren der klassischen Schule betonen ohne Unterlass, wie wichtig es sei, Regel Nr. 10 von Disneys Animationsregeln (→ 125 ff.) einzuhalten und Bewegungen zu übertreiben, damit die Figuren ihre Emotionen vermitteln können. Viele voll computeranimierte Filme von Shrek (USA 2001, Adamson/Jenson/ Marshall) über Finding Nemo (USA 2003, Stanton/Unkrich) bis The In- 34 Die Mimesis-Emotionen unterscheiden sich in meiner Konzeption leicht, aber entschei- dend von Tans Begriff F-emotions (Tan 1996: 65 f.), welcher fiktionale, das heißt durch die Fiktion erzeugte, Emotionen beschreibt; denn im Zentrum der Mimesis-Emotion steht das Moment der Nachahmung einer vertrauten, natürlich erscheinenden Welt. 458 Körper credibles (USA 2004, Brad Bird) greifen das Regelwerk des Cartoons mit stilisierten bis künstlichen Figuren und stark akzentuierten Handlungsele- menten auf – dies in Übereinstimmung mit dem Modell der Distanz. Gollum ist nochmals ein anderer Fall. Verhalten und Erscheinungs- bild wirken mehrheitlich fotorealistisch und organisch mit einigen Abwei- chungen, die als fantastisch oder zumindest ungewöhnlich einzustufen sind, so die großen Ohren und Augen oder Gollums Fortbewegung auf allen vier Extremitäten. Diese Abweichungen sind wie Satelliten zu ver- stehen, die jedoch das Gleichgewicht der Darstellung nicht stören, weil sie in beiden Kategorien (Verhalten und Oberfläche) gleichermaßen vor- kommen. Es stellt sich nun die erwähnte Frage, ob sich zwischen dieser Hypo- these und den für die Figurenkonstruktion verwendeten Verfahren ein Zusammenhang herstellen lässt. Ein gutes Vergleichsobjekt zu Gollum ist der Roboter Sonny aus I, Ro- bot, denn er wurde mit ähnlichen Techniken realisiert: mit Bezugnahmen auf die Darstellung eines Proxy, Alan Tudyk, der am Set die Interaktion mit den anderen Figuren sichergestellt und auf der Motion-Capture-Bühne dieselbe Performance wiederholt hat, sowie mit Keyframe-Animation des Gesichts in enger Anbindung an Tudyks Mimik, während die Figur selber modelliert war. Auch innerhalb des Figurengeflechts ist seine Position ähnlich, er wirkt als unberechenbarer Antagonist und erscheint oftmals naiv, weil ihm essenzielle Wissensbausteine zum Verständnis der Welt feh- len. Typisch dafür ist eine Szene, in welcher er beobachtet, dass Detektiv Spooner einem Kollegen zuzwinkert (Abb. 38), und nach der Bedeutung dieses mimischen Ausdrucks fragt.35 Diese Naivität ist jedoch nicht in einer kindlichen Physis im Sinne ei- nes Kindchenschemas gespiegelt (Abb. 39), und genauso wenig kindlich ist Sonnys Sprachgebrauch. Ohnehin ist das Erscheinungsbild weit von einer organischen Form entfernt, was die empathische Partizipation sehr er- schwert, denn Sonny wirkt kalt und plastifiziert – eine Materialität, die ei- nen deutlich distanzierenden Effekt hat: Man möchte ihn ungern anfassen. In einer entscheidenden Szene, in welcher Sonny getötet werden soll, verlagert die Erzählung die Wahrnehmung als Subjektivierung teilweise in seine Perspektive. Musik, Erinnerungsfetzen im Sinne von Flashbacks, die allerdings eher dem Ermittler Spooner zuzuordnen sind, sowie eine lang- same, pathetisch wirkende Kreisfahrt sollen die Emotionalität der Szene unterstützen. Ohne empirische Untersuchung wird es nicht gelingen, zu 35 Ähnliche Momente sind typisch für die Charakterisierung von Cyborgs. Sie sind unter anderem ein wiederkehrendes Motiv im Sinne eines Running Gag für Data im Star Trek-Universum. Digitale Figuren 459 38 Subjektive des Roboters in I, Robot 39 Kein Kindchen schema: Sonny in I, Robot entscheiden, ob es dieser rührseligen Szene zuzuschreiben ist, aber irgend- wann stellt sich durchaus eine Verbindung zu der eher abweisend wirken- den Figur her. Dies ist umso erstaunlicher, als der Gesichtsausdruck sehr stilisiert wirkt und über ein begrenztes Repertoire verfügt. Trotz Motion Capture verlassen die Bewegungsmuster häufig eine plausible physikali- sche Grundlage und verlagern sich damit in den Bereich superheldischer Unbesiegbarkeit. Wichtigste emotionale Grundlage ist somit auch in I, Ro- bot die narrative Konstruktion, die ebenfalls über eine starke Back-Story verfügt, denn Sonny entpuppt sich am Ende als eine Roboter gewordene Inkarnation der Gedankenwelt seines Schöpfers. Obwohl diese Figuren- konstruktion in ein ziemlich stereotypes Grundmuster – Kampf David gegen Goliath, Individuum gegen Kapital – eingefügt ist, vermag sie sich mit ihrer Komplexität zu einer runden Figur zu entwickeln. Versucht man nun, Sonny in das Modell der Distanz zu projizie- ren, so ergibt sich im Vergleich mit Gollum ein fast komplementäres Muster, denn sein Erscheinungsbild ist stilisiert mit einem fotorealen Look – ebenso ist sein Verhalten stilisiert mit Satelliten im Bereich des Organischen bis Natürlichen. Tudyk und die anderen Proxys, welche die Roboter darstellen, haben sich unter Anleitung eines Choreografen aus- drücklich ein spezifisches Bewegungsmuster angeeignet, das anschlie- ßend mittels Motion Capture auf die Roboter übertragen wurde. Mit diesen Verknüpfungen zwischen fotorealer und stilisierter Darstellungs- form lässt sich sozusagen ein Gewebe ausmachen, welches die Trennlinie überwindet – dies jedoch in ausgeglichener Weise in Bezug auf Erschei- nungsbild und Verhalten. 460 Körper Sicher ist das Proxy-Modell neben der narrativen Konstruktion ein verlässliches Verfahren, um der Figurenkonsistenz ein tragfähiges Fun- dament zu verleihen. Darüber hinaus bringt ein Proxy noch ein weiteres Moment in die Darstellung der Figur, und das ist seine außerfilmische Existenz, die – wie ich oben angesprochen habe (→ 434 – über ein Bündel von ihr eigenen Assoziationen eine Bedeutungserweiterung in die Kon- struktion der Figur einbringt, nämlich genau jene Geschichte, die einer digitalen Figur oftmals fehlt. Es wurde verschiedentlich und zu Recht kri- tisiert (vgl. Diskussion in cinefex 100), dass das Studio und Peter Jackson die Darstellungsleistung allzu stark in den Vordergrund gestellt und dabei die ungeheure Leistung des CG-Teams, vor allem der Animatoren um Raitt, in den Hintergrund gedrängt haben. Aus rezeptionspsychologischer Sicht jedoch war das ein cleverer Schachzug, denn indem diese Leistung einer Person attribuiert wird, erlangt die digitale Figur so etwas wie eine physische Präsenz, die weitaus konkreter ist als die abstrakte und unver- ständliche Tätigkeit eines Heers von Animatoren. Dieser Personenkult dringt ja selbst in den wissenschaftlichen Diskurs, indem spezifisch in- novative Leistungen am liebsten einer Person zugeschrieben werden, die ihrerseits schon symbolische Wirkung erlangt hat, wie George Lucas, Ste- ven Spielberg oder allenfalls noch Dennis Muren von George Lucas’ ILM. Dieses fundamentale Bedürfnis wird durch den Fokus auf Andy Serkis befriedigt, der nicht nur auf dem Bonusmaterial der DVD eine prominente Stellung einnimmt, sondern sogar zu PR-Zwecken ein eigenes Tagebuch veröffentlich hat (Serkis 2003). Zum Abschluss dieser Überlegungen möchte ich auf das Beispiel The Polar Express zurückkommen, das ich als gescheitert einstufe, dies in Übereinstimmung mit der New York Times, welche die Figuren als «creepily unlifelike»36 beschrieb (Thompson 2005).37 The Polar Express ist wie Fi- nal Fantasy ein Paradebeispiel für das Uncanny Valley, denn die Figuren haben eine nur fast menschliche Ausstrahlung. Differenziertere Einsichten über die Gründe des Scheiterns bekommt man, wenn man sich über das Verhältnis von Stilisierung und Fotorealismus Gedanken macht. Ein Teil des Problems stammt nämlich von einer merkwürdigen Dissonanz eines zu menschlichen Verhaltens bei stilisiertem Aussehen. Das betrifft aller- dings hauptsächlich die Kinder, den Vater und die Figur des Schaffners, von denen immerhin drei von Tom Hanks interpretiert wurden. Es betrifft 36 … als «unheimlich wenig lebensecht». 37 Noch deutlicher dürfte das Fehlen von Auszeichnungen als Beweis dafür gelten, dass auch die Fachwelt den Film als Misserfolg einstuft. Einzig die Figur des Steamers hat eine Nomination der Visual Effects Society (VES) in der Kategorie Outstanding Perfor- mance by an Animated Character in an Animated Motion Picture erhalten. Digitale Figuren 461 jedoch weniger Hobo und den Nikolaus, weil deren Verhalten deutlich im Bereich der Fantasy angesiedelt ist, und zwar durch die Narration als Teil des parallelen Fantasieuniversums und durch ihr Verhalten, das schon weitaus pointierter angelegt ist. Damit wirken Verhalten und Aussehen konsistenter. Aber am wenigsten betrifft es die Figur Steamer, die zwar von einem Schauspieler verkörpert, am Ende jedoch völlig keyframe-animiert wurde (SIGGRAPH 2005, Kurs Nr. 28: 36) – womit sich die Lücke zwischen Erscheinungsbild und Bewegungsmustern weiter schließt, denn beide sind dezidiert artifiziell. Das ist ein interessanter Befund, der perfekt in die Theorie des Uncanny Valley, aber auch in das Modell der Distanz passt. Gleichzeitig fehlen den zu menschlich wirkenden Figuren essenzi- elle Bestandteile eines anrührenden Gesichtsausdrucks, was wiederum deutlich technische Ursachen hat. Wenn man sich die Gesichtsanimations- Pipeline anschaut, die ich oben ausführlich beschrieben habe, dann gehen in dieser Anordnung einerseits zu viele Details unter – wegen der Filte- rung und der Übertragung auf komplett andere Gesichtsproportionen. Andererseits suggeriert Motion Capture, dass jede Gesichtsregung ja eine reale Basis habe, weshalb womöglich Korrekturen per Keyframe-Anima- tion ausgeblieben sind, die dringend notwendig gewesen wären. Weitaus am gravierendsten ist jedoch das Augenproblem, das ich gleich bei der ersten Visionierung wahrgenommen habe, also lange bevor ich von den technischen Schwierigkeiten wusste: Die Blicke scheinen zu schwimmen, sie sind zu wenig dezidiert, und es vermittelt sich nie das Gefühl, dass die Figuren einander tatsächlich ansehen, was befremdlich wirkt. Vor allem fehlt das Staunen in den Augen des Jungen, und dieses Staunen wäre essenziell zur Darstellung der magischen Qualität der fantastischen Welt. Im Gegensatz zu I, Robot und The Lord of the Rings kann die Narration nicht jene grundlegende Aufgabe leisten, den Figuren psychologische Tiefe zu verleihen. Es fehlt das narrative Zentrum. Nicht nur die einzelne Figur, auch die Figurenkonstellation fällt auseinander. Nun beruht dieser Film auf einem sehr bekannten Kinderbuch, und er war auch kommerziell recht erfolgreich. Dieser Erfolg dürfte aber eher der literarischen Vorlage und einer sehr cleveren Marketingstrategie zu verdanken sein, in welcher Tom Hanks gegenüber dem Publikum jenem Bedürfnis nach Personalisie- rung entspricht und welche außerdem die Tradition des Weihnachtsfami- lienfilms aufgreift. Alle diese Analysen machen deutlich, dass die Konstruktion digitaler Figuren sehr viele voneinander losgelöste Faktoren in ein Gleichgewicht bringen muss. Die Technik allein reicht dafür nicht aus – aber wenn schon die Technik nicht stimmt, können deren Mängel nur in Maßen durch eine geschickte Narration aufgefangen werden. 462 Körper Das Superheldenproblem Ausgehend von diesen Überlegungen, möchte ich am Ende dieses Kapi- tels die Frage aufwerfen, ob sich allgemeine Prinzipien finden lassen, ob, wann und warum die Zuschauerpartizipation auch dann noch gelingt, wenn Figuren über außermenschliche Fähigkeiten verfügen, spektakuläre Körper darbieten und einsetzen, sich in dramatischer Weise verwandeln oder in gigantischen Massen auftreten – kurz: wenn Filme ungehemmt dem Exzess frönen. Es ist allerdings nicht zu erwarten, dass sich allgemein gültige, harte Regeln finden lassen, und das hat prinzipielle methodische Gründe. Ers- tens ist Zuschauerpartizipation historisch und kulturell verortet: Was in einer bestimmten Zeit und in einem bestimmten Umfeld gelingt, muss in einem anderen Kontext nicht auch gelingen. Zweitens sind individuelle Unterschiede zu beobachten wie bei jeder emotionalen Reaktion. Man könnte sich vorstellen, mit Persönlichkeitsprofilen zu arbeiten, um den Zusammenhang zwischen Zuschauerdispositionen und emotionalen Reaktionen auf einzelne Filme zu untersuchen, aber dann wäre die Frage nach den ästhetischen und narrativen Anteilen an dieser Interaktion noch nicht geklärt – ganz abgesehen von der Frage, welche emotionalen Reak- tionen man wie messen wollte. Gäbe es nicht prinzipielle Hürden, hätte Hollywood schon längst ein solches Regelwerk entworfen, um nur noch erfolgreiche Filme zu produzieren und die Kassen unendlich klingeln zu lassen, denn die Zuschauerpartizipation ist ein hohes Gut. Schließlich ge- hen die meisten Menschen ins Kino, um Emotionen zu erleben. Mit der Digitalisierung oder digitalen Veränderung des repräsentier- ten Körpers im Kino hat sich die Fragestellung verschärft, wie stark sich solche Körper-Displays von ihrer physikalisch-physiologischen Grund- lage lösen dürfen, ohne gleichzeitig die Verbindung zum Zuschauer zu verlieren. Viele Praktiker sprechen diese Gefahr an. Alex Laurant, der während Jahren bei Industrial Light & Magic als Visual Effects Art Di- rector gearbeitet hat, erzählte in einem Interview (2005), dass bei ILM die Regel galt, jede Aktion von Figuren und jede Kamerabewegung strikt den physikalischen Gesetzmäßigkeiten zu unterstellen. Aber entweder wurde das Gesetz mittlerweile widerrufen, oder es wird partiell unterwandert, denn ein typisches Beispiel für das Superheldenproblem ist Hulk, dessen Visual Effects von ILM unter der Leitung von Altmeister Dennis Muren verantwortet wurden. Wie ein Überblick über einige Figuren zeigt, die zumindest zeitweise den menschlichen Handlungsraum überschreiten und ihre kontinuierli- che Identität aufgeben, indem sie zwischen verschiedenen Gestaltformen, Digitale Figuren 463 Verhaltensrepertoires und Charakterzügen wechseln können, scheint es Rahmenbedingungen zu geben, welche diesen Modus stützen. Diese Rah- menbedingungen sind erzählerischer und/oder stilistischer Art. Die meis- ten Superhelden sind in einen moralischen Konflikt involviert, der Teile ihrer Persönlichkeit deutlich schwächt, wie Oropeza (2005: 1 ff.) darlegt. Sie sind elternlos und stehen mit dem Gesetz in Konflikt. Dieser Konflikt hat seine Wurzeln oft in dem traumatischen Erlebnis, das zu ihrer Muta- tion und zur Ausbildung der übermenschlichen Fähigkeiten geführt hat. Batman, Superman, Spider-Man, X-Men, Daredevil, Blade sind typische Exemplare dieses Musters, das sich speziell an adoleszente Rezipienten wendet und ihnen in gleichnishafter Form ein Lösungsmodell für ihre Pubertätsprobleme anbietet, die durch die typische Fluktuation zwischen Verlust- und Versagensängsten einerseits und Omnipotenzfantasien an- dererseits gekennzeichnet sind. Diese Figuren stellen dem Gesetz einen eigenen, höheren Begriff der Gerechtigkeit gegenüber, denn sie erleben es als von finsteren Mächten korrumpiert. Sie sind also zutiefst moralisch in ihrem Sendungsbewusstsein. Oftmals als Erlöserfiguren konzipiert, orien- tieren sie sich durchaus an religiösen Motiven, sind also im christlichen Sinne als Jesusfiguren zu verstehen wie besonders Superman (vgl. Kozloff 1981) oder Neo in The Matrix. Erzählerisch gibt es mehrere Strategien, um die grenzenlosen Mög- lichkeiten des Superhelden einzuschränken, ihn zu gefährden und damit die Spannung zu erhalten. Denn die Vorbehalte gegenüber Figuren, die mit ihrem Verhaltensrepertoire jedes menschliche Maß sprengen, lauten ja, dass einerseits die Partizipation mit ihnen verloren geht, weil ihre Hand- lungen den Rahmen des Nachvollziehbaren hinter sich lassen, und dass andererseits die Spannung einbricht, weil sie zu allem fähig sind. In den meisten Fällen sind die gefährdenden Kräfte durch einen Anta gonisten personifiziert, der zugleich als Repräsentant der zu bekämp- fenden finsteren Macht in einem weiteren Sinne zu verstehen ist – so wie Magneto in X-Men, der die Menschheit auslöschen will und sich dazu des politischen Establishments bedient, oder wie die Agenten, allen vo- ran Agent Smith, als Personifizierungen der Matrix, welche die Mensch- heit ausbeuten will, oder wie Norman Osborn, der mutierte Vater von Spider-Mans Freund Harry, der das korrupte Kapital repräsentiert. Die Liste ließe sich fortsetzen. Indem die Antagonisten meist noch über ein ausgereifteres Arsenal an Waffen und Fähigkeiten verfügen, bleibt das Gleichgewicht des Schreckens gewahrt, der Protagonist ist trotz seiner fantastischen Kräfte bedroht. In den Matrix-Sequels beispielsweise ist es vermutlich dem Mangel an Gleichgewicht zuzuschreiben, dass die Partizipation einbricht und die 464 Körper Auseinandersetzungen als sinnloses Spektakel erscheinen. Stand Neo im ersten Teil noch als naiver Tor einer Entwicklung gegenüber, die er weder überblicken noch beherrschen konnte, hatte sich diese Entwicklung am Ende des ersten Films konsolidiert, als er in der Lage war, seine mentalen Fähigkeiten gezielt und kontrolliert einzusetzen, um die Agenten zu einer Pixel-Wolke zu pulverisieren. Schon in jenem ersten Teil jedoch bestand die Gefahr, dass die Handlungen in der simulierten Welt der Matrix als ab- gekoppelt von der lebensweltlichen Realität erscheinen und ihnen deshalb jede Relevanz fehlt. «Gewalt und Tod werfen lediglich zurück auf einen anderen Level», meint Stiglegger (2001: 25 f.), und es bedarf in der Tat eini- ger rhetorischer Einlagen von Morpheus,38 um den reinen Spielcharakter einzudämmen und den Handlungen in der Simulation Konsequenzen in der Realität zuzuweisen. Zum gefährlichen Arsenal der Bösewichte und anderer ambivalenter Figuren gehört die Fähigkeit, sich via Morphing nach Belieben in einen an- deren Phänotyp zu verwandeln, dessen Urtypus der bösartige Terminator T-1000 darstellt. Es folgte die Borg-Queen aus Star Trek: First Contact (USA 1996, Jonathan Frakes), die Figur Mystique aus X-Men, Agent Smith aus The Matrix. Es ist ein Feind, der mit seiner wechselhaften Gestalt als eine via Mimikry perfekt an die jeweilige Situation angepasste Figur die traditionellen Formen des Erkennens und der Identifikation einer Person in Frage stellt. Diese extrem flüssige Figurenkonzeption hebelt auf teuflische Weise die Wahrnehmungs- und Unterscheidungsfähigkeit des Protagonisten aus und verunsichert damit ihn sowie in zweiter Linie die Zuschauer fundamental, wie schon in der vordigitalen Ära in Metropolis die falsche Maria, die der echten täuschend ähnlich sah. Bereits The Fifth Element (F/USA 1997, Luc Besson) nimmt dieses Motiv ironisierend auf und lässt die bösen Mondoshawans, die sich hinter dem unschuldigen Er- scheinungsbild netter Afroamerikaner (Abb. 40) zu verbergen suchen, par- tiell unwillkürlich in ihre ursprüngliche Gestalt zurückmorphen (Abb. 41). Meist sind solche perfekten Maschinen, die sich wie schon die Repli- kanten in Blade Runner (USA 1982, Ridley Scott) von Menschen kaum unterscheiden lassen, keine digitalen Figuren, sondern werden – wie Samocki (2002: 135) richtig bemerkt – von Schauspielern aus Fleisch und Blut verkörpert, so das Roboterkind David aus A. I. – Artificial Intel- ligence (USA 2001, Steven Spielberg), Daryl aus Virtuosity, zu weiten Teilen S1m0ne, Data aus dem Star-Trek-Universum, die Terminatoren, die ihre außermenschlichen Fähigkeiten nur partiell ausspielen – dies im 38 Neo: «If you are killed in the matrix, you die here?» Morpheus: «The body cannot live without the mind.» [«Neo: «Stirbt man in dieser Welt, wenn man in der Matrix getötet wird?»] Morpheus: «Ein Körper ohne Geist ist nicht lebensfähig.»] Digitale Figuren 465 40–41 Morphing in The Fifth E lement Gegensatz zur virtuellen Figur Daryl aus Virtuosity, die als annähernd unbesiegbarer Antagonist konzipiert ist. Neben der personifizierten Bedrohung durch einen Kontrahenten haben alle diese Figuren eine Achillesferse, die sie für Verletzungen emp- fänglich macht. Oft sind ihre Schwächen eng an das moralische Dilemma geknüpft wie in Spider-Man und Daredevil, in denen die Grenzen eines moralisch verantwortlichen Ausagierens der Kräfte ein Dauerthema bil- den. Dieses Dilemma wird weiter verstärkt durch die Notwendigkeit der Protagonisten, ein Doppelleben zu führen, ihre zweite Identität als Super- helden vor ihrer Alltagsumgebung zu verbergen. Beide Helden haben in ihrer bescheideneren Existenz als Durchschnittsmenschen ein Love Inte- rest, sie haben weitere Beziehungen, die gefährdet wären, wenn ihre zweite Identität bekannt würde. Spider-Man macht sich schuldig, Daredevil erscheint schuldig, weil sie ihre Kräfte in entscheidenden Momenten falsch einsetzen oder nicht dosieren können. In Daredevil kommt zusätzlich ein dramaturgischer Trick zum Einsatz, welcher die Verletzlichkeit des Prota- gonisten unterstreicht, nämlich der Vorgriff auf ein Nahtod-Erlebnis, aus dessen Perspektive das Leben nochmals aufgerollt wird. Dieser Flashfor- ward in die Zukunft versorgt den Zuschauer mit einem Wissensvorsprung gegenüber den Figuren und trägt damit zur Spannungserzeugung bei. In Sleepy Hollow (USA 1999, Tim Burton), The Mummy, Death Becomes Her (USA 1992, Robert Zemeckis) und Interview With the Vampire (USA 1994, Neil Jordan) sind die Antagonisten Untote oder Un- sterbliche, in Blade und The Crow (USA 1994, Alex Proyas) sind es die Protagonisten, die in einer Schattenwelt zwischen Leben und Tod existie- 466 Körper ren. Dieses Leben ist mit besonderen Bürden behaftet – die Unfähigkeit zu sterben, ist ein Fluch, den nur Death Becomes Her ironisch auf die Schippe nimmt. Gerade die Gothic-Versionen der Superhelden wie Blade und Crow sind alles andere als ironisch distanziert; sie bleiben ganz dem Ernst und damit der Empathie mit den Figuren verhaftet. So sind alle diese Superheldenfilme figurenzentriert und einer klas- sischen Opposition zwischen Gut und Böse verpflichtet. Sie gehören mit anderen Worten nicht jenem posthumanen Kino an, als welches Beebe (2000: 163) The Terminator 2 bezeichnet, weil dort das Fehlen eines menschlichen Zentrums zu einer Verlagerung der affektiven Partizipation in jenen Modus führt, welchen Tan (1996: 65 f.) als Artefakt-Emotion be- zeichnet hat, nämlich den affektiven Gehalt der sensorischen Dimension, das Spektakel, wenn man so will. Mit Einschränkungen lassen sich einige wenige Werke des untersuchten Korpus in dieses Schema einfügen: so The Mummy, Hollow Man, XXX, Tomb Raider (USA 2001, Simon West), die mehrheitlich als Action-Filme konzipiert sind mit Figuren, die über keine psychologische Tiefe verfügen. Alle Superheldenfilme jedoch sind geprägt von einer überaus poin- tierten Stilisierung, die unterschiedlich geglückt wirkt, und alle diese Filme operieren mit Gewaltdarstellungen, die sich sowohl bildästhetisch als auch im Schnittrhythmus als spektakuläre Momente deutlich vom Kontext abheben. Diese ästhetisierende Codierung der Gewaltdarstellung ist zwischen zwei Polen anzusiedeln, die beide einen distanzierenden Effekt ausüben: der sich selbst reflektierenden, ironisch überhöhten Gewalt im Cartoon-Stil und der überpointierten bizarren Gewalt, die sich selbst zu feiern scheint. Beide Formen haben ihren Ursprung in den körperbetonten Genres der Burleske und des Slapstick, in welcher sich die physiologische Schockwir- kung und die Subjektdekonstruktion am glücklichsten verbinden. Die Ästhetisierung dieser einstmals rohen Gewalt bringt einen wei- teren distanzierenden Effekt mit sich und maximiert damit den Raum für die spielerische Erfahrung von Gewalt und Aggression aus der sicheren Distanz des Kinosessels (Smith 1999: 230). Schon Benjamin bezeichnete die stilisierte Spielform von Gewalt, wie sie von Micky Maus vorgeführt wird, als eine «Probehandlung im Geiste» mit einem kathartischen Effekt, der «ein Ausagieren der Gewalt in der Praxis erübrigt» (Bratze-Hansen 1995: 262). Immer jedoch war die Ästhetisierung von Gewalt mit einem Makel behaftet, hatte etwas Faschistoides an sich, das bereits in der Gewaltver- herrlichung des Futurismus aufschien. Nun hat aber diese Ästhetisierung selbst einen Wandel erfahren: Es geht nicht mehr um den Aspekt des Schö- nen oder Reinen, sondern um ein Herausarbeiten der direkten körperli- Digitale Figuren 467 chen Erfahrung, eine Stilisierung des Rohen und Unkultivierten – eine Tendenz, für die Se7en (USA 1995) und Fight Club von David Fincher, die Filme von Tarantino oder zuletzt Sin City (USA 2005, Miller/Rodriguez) stehen. Diese Filme brauchen – wie Smith (1999: 232 f.) richtig feststellt – die Entrüstung eines bürgerlich-gebildeten, erwachsenen Publikums, um als cool und hip wahrgenommen zu werden und damit in einer bestimm- ten Zuschauerszene einen Genuss höherer Ordnung hervorzurufen, soge- nannte Meta-Emotionen (vgl. Bartsch 200539). Mit dem Impetus des épater le bourgeois treffen sich dann unterschiedliche antibürgerliche Tendenzen, wie ich schon andernorts geschildert habe, in der Feier des puren Reizes. Schließlich sind es diese Reizdimensionen selbst, die von Körpern dargestellten Extremzustände, die noch eine dritte Form des Affektes hervorrufen, nämlich das «Phänomen eines mehr oder weniger virtuellen, mehr oder weniger automatischen körperlichen Mitvollzugs», welche Brinckmann (1999: 111 f.) unter dem Begriff somatische Empathie (motor mimicry) darstellt. Diese unmittelbare Form der affektiven Partizipation dürfte in all jenen Momenten zum Ausdruck kommen, in welchen die Superhelden extreme Gewalt ausüben oder erfahren, genauso wie in jenen Momenten, in denen sie ihre Körper in übermenschlicher Art und Weise beherrschen, wenn sie von Dächern hechten, wenn sie die Kampfkunst beherrschen, wenn sie sich durch die Straßenschluchten schwingen, vo- rausg esetzt, dass die Spannung erhalten bleibt – womit wir wieder bei den erzählerischen Strategien wären. Denn wenn die Extreme nicht durch ein Geflecht parallel geführter Stränge unterfüttert werden, welche sowohl die kognitive als auch die emotionale Partizipation stützen, bricht vermutlich auch diese Form der unmittelbaren Reaktion ein. So erlebe zumindest ich es in Filmen, aus de- nen ich – von Langeweile gepeinigt – mental und emotional ausgestiegen bin. Spektakel statt Narration dürfte daher die absolute Ausnahme sein, Spektakel in Verbindung mit Narration die Regel, zumindest im Holly- wood- Blockbuster. 39 A Three Level Approach to Meta-emotion. Vortrag, gehalten an der Tagung Audiovisual Emotions, Hamburg, 3.12.2005. Schlusswort Wie kaum eine andere technische Entwicklung hat die Umformung des Kinos von einem analogen zu einem hybriden, analog-digitalen Medium in den letzten beiden Jahrzehnten den Eindruck eines radikalen Wandels hervorgerufen, in seiner Bedeutung und Ausstrahlung allenfalls vergleich- bar mit dem Umbruch vom Stummfilm zum Tonfilm. Trotzdem wäre eine voreilige Analogiebildung falsch, denn das Geschehen ist beim Umbruch zum hybriden Film sehr viel komplexer, wenn auch einige grundlegende Merkmale durchaus in beiden Fällen vorhanden sind. So ist beiden Ent- wicklungen eine Interaktion von technologischen Aspekten, ästhetischen Anforderungen, Zuschauererwartungen und ökonomischen Zielsetzun- gen gemein. Zwar stand beim Umbruch zum Tonfilm die Technologie im allge- meinen Kontext der Tonaufzeichnung und -wiedergabe für Radio und Schallplatte, doch die Stoßrichtung war von Beginn an zugleich filmspe- zifisch: Es wurde explizit nach Möglichkeiten gesucht, eine audiovisuelle Filmtechnik zu schaffen. Ganz anders präsentiert sich die Entwicklung der computergenerierten Visual Effects. Während mehrerer Jahrzehnte haben sich die Grundlagen außerhalb der Filmindustrie an den Universitäten formiert. Von wenigen Ausnahmen abgesehen, sträubten sich zunächst die Exponenten der Filmproduktion – die Studios, Produzenten und Re- gisseure – teils aktiv, teils passiv gegen eine Integration digitaler Technolo- gien. Mindestens ebenso wichtig wie die treibenden Kräfte der Innovation waren also die spezifischen Widerstände gegen die neuen Verfahren. Auf jeden Fall wird bei genauer Betrachtung deutlich, wie zufällig manche Techniken Eingang in die Filmproduktion gefunden haben. Alvy Ray Smith (1998: 48) – einer jener Pioniere der Computergrafik, die aus der wissenschaftlichen Grundlagenforschung ins Team der Lucasfilm Computer Division umgestiegen sind – spricht deshalb, wie erwähnt, von accidental visionaries. So groß der Appetit der Öffentlichkeit auf Leitfiguren ist, welche den Fortschritt personifizieren – regelmäßig genannt werden George Lucas, Steven Spielberg oder James Cameron –, so wenig ist das Bild von einzelnen großen Zeremonienmeistern der Entwicklung haltbar. Diesen Leitfiguren kommt daher eher Symbolcharakter zu, auch wenn sie durchaus als ökonomische Gatekeeper wirken, welche die Macht besitzen, Kräfte zu akquirieren und zu bündeln. Das wird besonders bei George Lucas und der Geschichte von Industrial Light & Magic deutlich, doch hat Schlusswort 469 sich die Personifizierungsstrategie allseits als erfolgreich erwiesen. Nicht nur profitiert die Filmindustrie direkt, indem sie damit über ein wirkungs- mächtiges Marketing-Instrument verfügt; die Leitfiguren erwerben auch unabhängig vom Produkt Kultstatus und dienen als emotional besetzte Projektionsflächen für die Wünsche und Hoffnungen des Publikums. Die- sen Aspekt der Mythenbildung habe ich im Rahmen meiner Überlegun- gen zum stereotypisierten Fortschrittskonstrukt mit magischem Charakter im Bonusmaterial der DVDs diskutiert (→ 372). Wie Böhme et al. (2000: 169) darstellen, ist die Kulturgeschichte der Technik insgesamt geprägt von einem Spannungsfeld zwischen «eschato- logischen Hoffnungen, millenaristischen Utopien und selbstvergöttlichen- den Größenphantasien auf der einen Seite und den komplementären Tech- nikängsten» auf der anderen, welche nach apokalyptischem Muster die Unterwerfung allen Lebens unter die Diktatur einer menschenfeindlichen Maschinerie beschwören. In der Medientheorie ist die kulturpessimisti- sche Interpretation von technologischen Entwicklungen weit verbreitet. So unterschiedlich die geistigen Prämissen dieser Theorien sind, ist man sich doch seltsam einig darin, dass die Geschichte der technologischen Entwicklungen die Geschichte eines Verlusts darstellt. Dabei ähneln sol- che «grands récits» (Lyotard 1979) mit ihren monokausalen Denkmodellen verblüffend dem simplifizierenden Fortschritts-Hype am anderen Ende des Spektrums. Sicherlich sind die ökonomischen Aspekte, besonders die Steigerung der Effizienz und der Neuheitsfaktor im Sinne einer Produktdifferenzie- rung oder eines Mehrwerts, ausgeprägte Kräfte der Entwicklung von com- putergenerierten Visual Effects im kommerziellen Mainstream-Film. Nur können auch diese massenkulturellen Konsumgüter nicht in der Retorte entstehen, sondern müssen ein fragiles Gleichgewicht von allgemeinen sozialen und kulturellen Bedingungen berücksichtigen, wobei die Erwar- tungen des Publikums eine schwer fassbare, aber entscheidende Größe für den ökonomischen Erfolg darstellen. Der weitere kulturelle Kontext kann eben gerade nicht von der Industrie kontrolliert werden, so sehr die Öko- nomen der Filmwirtschaft von einer solchen Kontrolle träumen. Auch ist Effizienz eine problematische Größe. Denn wie die stich- probenartige Analyse von benötigter Zeit und Arbeitskraft zeigt, haben die Kosten in all diesen Bereichen deutlich zugenommen. Insgesamt geht der Trend im letzten Jahrzehnt zu einem immer größeren Anteil des Effects-Budgets an den Gesamtkosten, gemäß Thompson (2002: 2) von durchschnittlich 5 auf 40 Millionen Dollar. Dem steht natürlich eine Gewinnsteigerung gegenüber, die aber wesentlich schwerer zu fassen ist. Zwar ist der Anteil von Visual-Effects-lastigen Filmen an Box-Office-Er- 470 Schlusswort folgen sehr hoch, aber es lässt sich keineswegs eine lineare Funktion ausmachen, die dem Gesetz «Investition = Gewinnzunahme» entsprechen würde. Regelmäßig ist in Interviews mit den Exponenten der Filmindus- trie die Rede davon, dass Nachfolgeproduktionen einen immer höheren finanziellen und produktionellen Aufwand betreiben. Trotzdem sind es oft die ersten Filme einer Reihe – so unter anderem der Alien-Serie –, die den größten Erfolg verzeichnen. Auch war Kerry Conrans Sky Captain and the World of Tomorrow (USA 2004), in dem die Live-Action-Auf- nahmen komplett in computergenerierte Umwelten gestellt wurden, ein eher magerer Erfolg beschieden. Dies im Gegensatz zu George Lucas’ letzter Folge des Star-Wars-Epos Revenge of the Sith (USA 2004) oder Steven Spielbergs War of the Worlds (USA 2005): Beide Filme, die jenem sicheren Blockbuster-Modell von maximalem Fan-Potenzial, gigantischer Marketingmaschinerie und Starpower entsprechen, erzielten einen Ge- winn von mehr als 100 %. Die Visual Effects spielen in dieser Anordnung von Erfolgsfaktoren eine komplexe Rolle, sind sie doch ein unverzichtba- res Instrument zur Erzählung der beiden Science-Fiction-Geschichten und ebenso untrennbar mit dem Star-Status der beiden Regisseure verknüpft. Innovation an sich ist jedoch kein zuverlässiger Erfolgsfaktor. Wie die Beispiele Tron (USA 1982, Steven Lisberger) oder Final Fantasy (USA/ JP 2001, Hironobu Sakaguchi et al.) zeigen, können sich Neuerungen unter bestimmten Bedingungen auch erfolgsmindernd auswirken. Dies insbe- sondere dann, wenn die technische Innovation den traditionell etablierten Standards des Erzählkinos nicht genügt, wenn sie also ein ästhetisches Produkt erzeugen soll, dessen Anforderungen sie noch nicht gewachsen ist. Insbesondere in der Diskussion der emotionalen Partizipation an digi- talen Figuren (→ 422) hat sich gezeigt, wie fragil ein solcher Prozess sein kann. Darum greifen auch ökonomisch einfaktorielle Modelle zu kurz, beispielsweise Jamesons (1984: 4 f.) These, dass die ästhetische Produktion im Zuge der postmodernen Globalisierung ein Zweig der generellen Kon- sumgüterproduktion geworden sei, dessen Entwicklungsmotor die Suche nach immer neuen Verkaufsargumenten sei. Ähnliches ist bei Gehr (1998: 15) zu lesen, der postuliert, dass «die Perfektionierung filmischer Trick- technik nicht in einem bestimmten ästhetischen Ausdrucks- und Gestal- tungswillen begründet [sei], sondern in dem vom Marktgesetz diktierten Zwang zur Ökonomisierung der Produktionsprozesse». In Tron hatte die heterogene Ästhetik der Computerwelt mehrere Ursachen. Einerseits ist sie der Mischung aus traditionellen Verfahren mit computergenerierten Elementen zuzuschreiben – jener Mischung nota- bene, die bis heute Bestand hat –, andererseits geht sie auf die Arbeitstei- Schlusswort 471 lung bei der Produktion der computergenerierten Bilder zurück: «It was immediately apparent that none of the computer simulation companies was going to be able to handle the load. Each has its own hybrid system, and none of them shares common software or techniques – each one has its own way of looking»1 (Visual Effects Supervisor Richard Taylor in ci- nefex 8: 19). Ein solches Outsourcing an verschiedene Effects-Firmen ist bis heute üblich. Im Unterschied zu den frühen 1980er-Jahren, in denen Tron entstand, haben sich inzwischen Standardisierungen und vor allem Kommunikationsformen inklusive Previz (→ 234) entwickelt, welche eine ungewollte Heterogenität mindern oder bestenfalls völlig abbauen. Trotzdem ist nach wie vor die Gefahr gegeben, dass sich die arbeitsteiligen Produktionsprozesse und überaus hybriden Techniken negativ auf die ästhetische Stimmigkeit auswirken. Verkürzungen der vernetzten Kräfte, also Aussagen wie «Visual Effects streben einem immer höheren Fotorealismus zu», sind jedenfalls nicht haltbar. So konstruiert Mitchell (1992: 161) eine Analogie zwischen zwei Entwicklungslinien, die sich nicht stärker unterscheiden könnten, nämlich einerseits von der mystisch-religiösen Malerei des Mittelalters zum Realismus der Fotografie des 19. Jahrhunderts und andererseits vom Phong-Shading zu den komplex texturierten Modellen zu Beginn der 1990er-Jahre. Auch im Entwicklungshorizont von Bolter/Grusin kommt mit dem Begriff Immediacy die Ansicht zum Ausdruck, dass die visuel- len Medien ihre Transparenz zunehmend steigern. Und selbst George Lucas nannte an der SIGGRAPH 2005 den Einsatz immer fotorealistischer wirkender Bilder als Ziel der von ihm angekurbelten Innovation – eine Äußerung, die angesichts des stilisierten Fantasy-Universums seiner Star-Wars-Saga merkwürdig anmutet und verdeutlicht, wie unscharf der Begriff Fotorealismus gebraucht wird. Wie schon bei meinen Untersuchungen zur Frühgeschichte des Ton- films sichtbar wurde (Flückiger 2001: 73), stellt die audio-visuelle Fiktion besonders hohe Anforderungen an die technische Produktion. So war CGI in den frühen 1980er-Jahren zunächst in Gestalt von Flying Logos im Fernsehen zu sehen und wurde zeitgleich in die Produktion von Werbung und Musikvideos übernommen. Commercials und Musikvideos aber sind dem Look verhaftete Eye Candies, die im Sekundentakt sensorische Reak- tionen generieren dürfen, nicht aber während zwei und mehr Stunden ein plausibles und fesselndes erzählerisches Universum konstruieren müssen. Einmal mehr zeigt sich an Final Fantasy, dass jedes Medium eigene 1 «Es wurde sofort deutlich, dass keine der Computerfirmen alle Aufgaben bewältigen konnte. Jede verfügt über eigene hybride Systeme, und keine zwei benützen eine ge- meinsame Software oder Technik – jede bringt ihre eigene Ästhetik hervor.» 472 Schlusswort Anforderungen an die technische Produktion stellt, die in einer globalen Theorie medialer Innovation prinzipiell nicht erfasst werden. Als Gegenkräfte der Innovation wirken sich die kulturellen Konstan- ten eines bestimmten Mediums sowie die daran orientierte Erwartungs- norm des Publikums aus. Massenkulturelle Systeme – und darin äußert sich wiederum ein allgemeines Prinzip, das auch den Mainstream-Film umfasst – bevorzugen gemäßigte Erneuerungen. Der Genuss von Popu- lärkultur besteht unter anderem im Wiedererkennen des Bekannten, in der rituellen Freude an der immer neuen Variation des Vertrauten. Regeln und Konventionen haben die Funktion, Automatismen in der Rezeption zu verankern, welche die Kommunikation erleichtern und die potenzielle Mehrdeutigkeit des Werks reduzieren. Der Sinn der gemäßigten Erneue- rung wird besonders dort sichtbar, wo narrative Systeme im Serienformat ein eigenes Universum schaffen wie beispielsweise in der Star-Trek-Welt, in welcher eingefleischte Fans als Experten jede Abweichung kritisch be- äugen. Neuerung als Wert ist noch einem anderen Regulationsmechanismus unterworfen. Denn besonders dort, wo sie im Sinne eines Verkaufsargu- ments ausgestellt wird, sind schnell Sättigungseffekte zu verzeichnen. Schon Arnheim (1931: 191 f.) hatte festgestellt, dass in verschiedenen künstlerischen Entwicklungen «das Neue immer das Jüngstvergangene» desavouiere: «Was heute noch eine außenseiterische Kühnheit ist, wird in zwei Jahren Gemeingut.» Le Grice (1998: 122) stellt fest, dass schon heute die Arbeiten von Nam June Paik archaisch anmuten oder sogar nostalgi- sche Gefühle auslösen. Selbst der Realitätseffekt ist einem historischen Wandel unterworfen: Was gestern noch als realistisch empfunden wurde, erscheint heute von den Zeichen eines überholten Stils als gestrig mar- kiert. Solche Abnützungserscheinungen lassen sich überall beobachten. Ein gutes Beispiel dafür bildet die sogenannte Bullet-Time – jene eingefro- renen Momente in The Matrix (USA 1999, Larry und Andy Wachowski), die mit diesem Film erstmals einem breiteren Kinopublikum präsentiert wurden.2 Die Bullet-Time-Technik wirkte bald so überholt, dass sie schon in Shrek (USA 2001, Adamson/Jenson/Marshall) als Persiflage mit hohem Spaßfaktor funktionierte. Einen ähnlichen Effekt befürchten die Visual-Effects-Spezialisten heute für die Crowd Animation, den Einsatz 2 Tatsächlich war diese Technik keinesfalls eine Entwicklung der Wachowskis oder des Visual-Effects-Teams um VFX Supervisor John Gaeta, wie das Making-of und andere Presseerzeugnisse suggerieren. Vielmehr wurde es bereits ab den frühen 1980er-Jahren von Tim Macmillan (siehe http://www.timeslicefilms.com) sowie etwas später und mit einer anderen Anordnung von Dayton Taylor (siehe Taylor 1996) entwickelt. Eine breitere Öffentlichkeit lernte den Effekt im Musikclip Like a Rolling Stone von Mi- chel Gondry (1995) kennen. Schlusswort 473 riesiger digitaler Massen, wie sie in der Lord-of-the-Rings-Trilogie zu sehen waren. Allgemein führt das Zusammenspiel von Neuerung und Sättigung zu Ausgleichsprozessen und damit zu zyklischen Erscheinungen: Nach ei- ner von klinischen Studioproduktionen geprägten Ära entstanden Bewe- gungen wie der Neorealismus oder die Nouvelle Vague, welche auch die Hollywood-Ästhetik aufmischten. In einem Umfeld ausgeprägter Tech- nisierung der Filmproduktion kamen in den 1990er-Jahren die Dogma- Filme auf, die den Einsatz der Technik auf ein Minimum beschränken, indem sie Postproduktionsprozesse und insbesondere Bildbearbeitungen kategorisch ablehnen. Außerdem gibt es extrem erfolgreiche Low-Budget- Produktionen wie The Blair Witch Project (USA 1999, Daniel Myrick, Eduardo Sánchez) oder Open Water (AUS 2003, Chris Kentis), die auf digitalem Video im Consumer-Format gedreht sind, und ein ganzes Netz von billigen, über das Internet im Direktvertrieb zugänglichen, halb- professionellen Produktionen steht als kulturelle Einflussgröße erst am Anfang. Häufig formieren sich solche Gegenbewegungen an den Rändern oder in Filmkulturen außerhalb der US-amerikanischen Produktion und wirken erst mit zeitlicher Verzögerung auf den Mainstream zurück. Eine Generation jüngerer Regisseure zieht analoge Techniken oft vor – so Tim Burton, der mit The Corpse Bride (USA 2005) einen Stop-Motion-Anima- tionsfilm gedreht hat, oder Michel Gondry, der Regisseur von Eternal Sunshine of the Spotless Mind (USA 2004), und ebenso Quentin Taran- tino, der den Kultstatus von Kill Bill, Vol. 1 (2003) und 2 (2004) genau damit begründet, dass die Stunts und Gewaltorgien ‹echt› seien, weil sie ohne Computertechnik entstanden sind. In einer Zeit, in der es scheint, als ob alles, was im Kino Erfolg hat, mit viel Geld und den ausgefeiltesten Techniken entsteht, diskutieren Filmpraktiker aus der Visual-Effects-Branche (cinefex 100: 97) einen Verfall des Qualitätsbewusstseins. Wurden Großproduktionen in den 1950er- und 1960er-Jahren noch auf 70-mm-Film gedreht, ist heute Super-35-mm Stan- dard. Mit verschiedenen Prozessen, welche die Körnigkeit des Filmmate- rials erhöhen, wie dem Bleach-Bypass-Verfahren bilden selbst Big-Budget- Produktionen den schmutzigen Look schnell gedrehter Amateurfilme nach (→ Korn 342). Dass technologische Entwicklungen manchmal ganz unspektakulär das kreative Repertoire erweitern, ohne im Sinne eines ökonomischen Fortschritts funktionalisiert zu werden oder einem anderen utilitaristi- schen Modell zu gehorchen, geht bei der kritischen Darstellung häufig unter. Sobald nämlich die Phase des spektakulären Schauwerts und die Phase der Abnützung und Trivialisierung vorbei sind, steht einfach ein 474 Schlusswort neues Werkzeug zur Verfügung, das nun das Erzählen von Geschichten bereichert. Oftmals unsichtbar vollzieht sich ein solch evolutionärer Wan- del in einer Sphäre technischer Problemstellungen, die weder dem Pub- likum noch weiten Teilen der Kritik bewusst sind, sodass die Innovation weder als Verkaufsargument dienen kann noch die Virtuosität befördert. Ein Beispiel dafür ist das Tracking oder das Matchmoving, mit dem sich die Kamerabewegungen unterschiedlicher Bildteile – von Modellauf- nahmen, Live Action oder Computeranimation – aufeinander abstimmen lassen (→ Raum- und Bewegungsanpassung 239). Mit zunehmender Verfei- nerung dieser Technik kann sich die Bildgestaltung mehr und mehr von der statischen Ästhetik klassischer Effects-Aufnahmen lösen, mehr und mehr komplexe Kamerabewegungen auch dort einsetzen, wo sehr viele und sehr unterschiedliche Elemente in eine Einstellung integriert wer- den sollen. Ebenso ist es dank dem heutigen Stand der Technik möglich, Visual- Effects-Aufnahmen, die während Jahrzehnten nur in Szenen mit Dunkelheit, Rauch oder Nebel möglich waren, auch bei prallem Sonnen- licht einzusetzen oder statt Totalen andere Einstellungsgrößen bis hin zur Großaufnahme zu verwenden. Denn wenn die Technik nicht mehr sichtbar ist, wird sie nicht mehr gefeiert, sondern allenfalls wegen ihrer Unsichtbarkeit kritisiert. Zwar ist bis heute ein Hang zur spektakulären Präsentation der neuen technischen Möglichkeiten zu beobachten, aber dieser Hang ist we- niger als eine zielgerichtete Bewegung weg von der Narration zu verste- hen, als vielmehr als jenes in der Einleitung erwähnte typische Übergangs- phänomen, das sich bei vielen technischen Umbrüchen schon gezeigt hat. Noch sind die neuen Technologien nicht so selbstverständlich und für jedermann zugänglich, dass sie in großem Umfang in billigere, weniger dem kommerziellen Erfolg verpflichtete und damit eigenwilligere Pro- duktionen Eingang finden. Aber das ist nur eine Frage der Zeit. Bis heute jedenfalls haben wir im Kino erst einen Bruchteil dessen gesehen, was mit computergenerierten Bildern möglich wäre. Literaturverzeichnis Artikel aus den Zeitschriften cinefex und American Cinematographer (AmC), die sich auf einzelne Filme beziehen, sowie technische Grundlagenpapiere werden ausschließlich im Text aufgeführt. Adams, Ansel 1980 The Camera. Boston: Little, Brown & Co. Albersmeier, Franz-Josef (Hg.) 1979 Texte zur Theorie des Films. Stuttgart: Reclam (= Reclams UB 9943). Albert, Mary Scott 1996 Towards a Theory of Slow Motion. In: Colin MacCabe und Duncan Petrie (Hg.): New Scholarship from BFI Research. London: British Film Institute. Allen, Richard 1995 Projecting Illusion. Film Spectatorship and the Impression of Reality. Cambridge: Cambridge University Press. Alleysson, David 2002 Caractérisation couleur dans la chaîne cinématographique numérique. Projection et visualisation. Unveröff. Ms. Lausanne: Ecole Polytechnique Fédérale. Amelunxen, Hubertus von; Iglhaut, Stefan; Rötzer, Florian (Hg.) 1996 Fotografie nach der Fotografie. Dresden: Verlag der Kunst. Angehrn, Emil 2001 Schrift und Spur bei Derrida. In: Hans-Georg von Arburg et al. (Hg.): «Wun- derliche Figuren». Über die Lesbarkeit von Chiffrenschriften. München: Fink. Anklin-Mühlemann, Regula; Gschwind, Rudolf 2001 Script zur Vorlesung Farbphotographie (= http://www.abmt.unibas.ch/index. php?content=22). Appelt, Christian 1998 Film und Computer. Alchemie und Silikon. In: Herbert Gehr (Hg.): Film & Computer. Digital Media Visions. Frankfurt a. M.: Deutsches Filmmuseum. Argy, Stephanie 2001 Painting With (Virtual) Light. In: American Cinematographer, März 2001. Arnheim, Rudolf 1932 Film als Kunst. Berlin: Ernst Rowohlt. Asendorpf, Jens B. 2004 Psychologie der Persönlichkeit. Berlin: Springer. Ashcraft, Brian 2005 The Man Who Shot Sin City. In: Wired, Nr. 13.04, April 2005. Aumont, Jacques 1992 Du Visage au cinéma. Paris: Editions de l’Etoile. 476 Literaturverzeichnis Aurich, Rolf; Jacobsen, Wolfgang; Jatho, Gabriele 2000 Manische Maschinen. Kontrollierte Körper. In: Rolf Aurich et al. (Hg.): Künstli- che Menschen. Manische Maschinen, kontrollierte Körper. Berlin: Jovis Verlagsbüro. Bakel, Rogier van 1995 Remembering Johnny. William Gibson on the Making of Johnny Mnemonic. In: Wired, Nr. 3.06, Juni 1995. Balázs, Béla 1931 Farbenfilm und andere Möglichkeiten. In: Béla Balázs: Schriften zum Film. München: Hanser. 1949 Der Film. Das Werden und Wesen einer neuen Kunst. Wien: Globus, 1961. Barnouw, Erik 1981 The Magician and the Cinema. Oxford: Oxford University Press. Barthes, Roland 1957 Mythologies. Paris: Editions du Seuil (Dt. Mythen des Alltags. Frankfurt a. M.: Suhrkamp, 1964). 1980 La Chambre claire. Note sur la photographie. Paris: Editions du Seuil (Dt. Die helle Kammer. Frankfurt a. M.: Suhrkamp, 1989). 1982 L’Obvie et l’obtus. Essais critiques III. Paris: Editions du Seuil (Dt. Der entgegen- kommende und der stumpfe Sinn. Frankfurt a. M.: Suhrkamp, 1990). Bas, Frédéric 2000 «Tournage» d’un jeu vidéo. In: Cahiers du cinéma, Hors-série, April 2000. Baudrillard, Jean 1978 Agonie des Realen. Berlin: Merve. 1981 Simulacres et simulation. Paris: Editions Galilée. 1989 Videowelt und fraktales Subjekt. In: Ars Electronica (Hg.): Philosophien der neuen Technologie. Berlin: Merve. Bazin, André 1958 Qu’est-ce que le cinéma? Paris: Cerf, 1975 (Dt. Was ist Kino? Köln: DuMont, 1975). Beau, Frank 2001 La solitude du technobole. Puissance politique des effets spéciaux. In: Réjane Hamus-Vallée (Hg.): Du Trucage aux effets spéciaux. Condé-sur-Noireau: Ed. Corlet. Beau, Frank; Dubois, Philippe; Leblanc, Gérard 1998 Cinéma et dernières technologies. Paris; Bruxelles: INA; De Boeck & Larcier. Beebe, Roger Warren 2000 After Arnold. Narratives of the Posthuman Cinema. In: Vivian Sobchack (Hg.): Meta-morphing. Visual Transformation and the Culture of Quick Change. Minneapolis: University of Minnesota Press. Beier, Thaddeus; Neely, Shawn 1992 Feature-Based Image Metamorphosis (= http://www.hammerhead.com/thad/ morph.html). Literaturverzeichnis 477 Belton, John 2002 Digital Cinema. A False Revolution. In: October, 100, Spring 2002 (Dt. Das digitale Kino – eine Scheinrevolution. In: montage/av, Nr. 12:1, 2003). Benjamin, Walter 1936 Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit. Frankfurt a. M.: Suhrkamp, 1979. Birbaumer, Niels; Schmidt, Robert F. 1993 Kognitive Funktionen und Denken. In: Robert F. Schmidt (Hg.): Neuro- und Sinnesphysiologie. Berlin; Heidelberg; New York: Springer. Birn, Jeremy 2000 Digital Lighting & Rendering. Indianapolis: New Riders. Black, Max 1972 Wie stellen Bilder dar? In: Ernst H. Gombrich, Julian Hochberg und Max Black: Kunst, Wahrnehmung, Wirklichkeit. Frankfurt a. M.: Suhrkamp, 1977. Bleicher, Joan Kristin 2002 a) Die Intermedialität des postmodernen Films. In: Jens Eder (Hg.): Oberflächen- rausch. Postmoderne und Postklassik im Kino der 90er Jahre. Münster: Lit. 2002 b) Zurück in die Zukunft. Formen intertextueller Selbstreferentialität im postmodernen Film. In: Jens Eder (Hg.): Oberflächenrausch. Postmoderne und Postklassik im Kino der 90er Jahre. Münster: Lit. Blüher, Dominique 1999 Französische Ansätze zur Analyse der filmischen Figur – André Gardies, Marc Vernet, Nicole Brenez. In: Heinz B. Heller et al. (Hg.): Der Körper im Bild. Schauspielen – Darstellen – Erscheinen. Marburg: Schüren. Blümlinger, Christa; Sierek, Karl 2002 Gesichtsverlust, ein Vorwort. In: Christa Blümlinger und Karl Sierek (Hg.): Das Gesicht im Zeitalter des bewegten Bildes. Wien: Sonderzahl. Boehm, Gottfried 1994 a) Die Wiederkehr der Bilder. In: Gottfried Boehm (Hg.): Was ist ein Bild? München: Fink. 1994 b) Die Bilderfrage. In: Gottfried Boehm (Hg.): Was ist ein Bild? München: Fink. Böhme, Hartmut 2001 Konjunkturen des Körpers. In: Margrit Frölich et al. (Hg.): No Body is Perfect. Körperbilder im Kino. Marburg: Schüren. Böhme, Hartmut; Matussek, Peter; Müller, Lothar 2000 Orientierung Kulturwissenschaft. Reinbek: Rowohlt. Bolter, Jay David; Grusin, Richard 1999 Remediation. Understanding New Media. Cambridge, Mass.: MIT Press. Bordwell, David 1985 Narration in the Fiction Film. London: Routledge. 1989 Historical Poetics of Cinema. In: R. Barton Palmer (Hg.): The Cinematic Text. Methods and Approaches. New York: AMS Press. 478 Literaturverzeichnis Borshukov, George 2003 Measured BRDF in Film Production. Realistic Cloth Appearance for «The Matrix Reloaded» (= http://www.virtualcinematography.org/publications/acro- bat/BRDF-s2003.pdf). 2004 Making of The Superpunch (= http://www.virtualcinematography.org/publi- cations/acrobat/Superpunch.pdf). Borshukov, George; Lewis, J. P. 2003 Realistic Human Face Rendering for «The Matrix Reloaded» (= http://www. virtualcinematography.org/publications/acrobat/Face-s2003.pdf). Borshukov, George; Piponi, Dan; Larsen, Oystein; Lewis, J. P.; Tempelaar-Lietz, Christina 2003 Universal Capture. Image-based Facial Animation for «The Matrix Reloaded» (= http:// www.virtualcinematography.org/publications/acrobat/UCap-s2003.pdf). Bratze-Hansen, Miriam 1995 Dinosaurier sehen und nicht gefressen werden. Kino als Ort der Ge- walt-Wahrnehmung bei Benjamin, Kracauer und Spielberg. In: Gertrud Koch (Hg.): Auge und Affekt. Wahrnehmung und Interaktion. Frankfurt a. M.: Fischer Taschenbuch. Braun, Marta 1992 Picturing Time. The Work of Etienne-Jules Marey (1830–1904). Chicago: Univer- sity of Chicago Press. Bredow, Rob; Hastings, Albert; Schaub, David; Kramer, Daniel; Engle, Rob 2005 From MoCap to Movie. The Polar Express. Kurs Nr. 28, SIGGRAPH 2005. Brenez, Nicole 1998 De la Figure en général et du corps en particulier. L’invention figurative au cinéma. Paris: De Boeck. Brinckmann, Christine N. 1981 Ichfilm und Ichroman. In: Christine N. Brinckmann: Die anthropomorphe K amera. Zürich: Chronos, 1997. 1997 «Abstraktion» und «Einfühlung» im deutschen Avantgardefilm der 20er Jahre. In: Ch. N. Brinckmann: Die anthropomorphe Kamera. Zürich: Chronos. 1997 Empathie mit dem Tier. In: Cinema, Nr. 44. Basel; Frankfurt a. M.: Stroemfeld 1999 Somatische Empathie bei Hitchcock. In: Heinz B. Heller et al. (Hg.): Der Kör- per im Bild. Schauspielen – Darstellen – Erscheinen. Marburg: Schüren. 2001 Filmische Farbe, als Abbild und Artefakt. In: Hans-Georg von Arburg et al. (Hg.): «Wunderliche Figuren». Über die Lesbarkeit von Chiffrenschriften. Mün- chen: Fink. Brinkmann, Ron 1999 The Art and Science of Digital Compositing. San Diego: Morgan Kaufmann. Bronfen, Elisabeth 2000 Leben spenden. Macht und Ohnmacht des weiblichen Cyborgs. In: Rolf Aurich et al. (Hg.): Künstliche Menschen. Manische Maschinen, kontrollierte Kör- per. Berlin: Jovis Verlagsbüro. Brooker, Darren 2003 Essential CG Lighting Techniques. Oxford: Focal Press. Literaturverzeichnis 479 Bruce, Vicki 1998 In the Eye of the Beholder. The Science of Face Perception. Oxford: Oxford Univer- sity Press. Buckland, Warren 1999 Between Science Fact and Science Fiction. Spielberg’s Digital Dinosaurs, Pos- sible Worlds, and the New Aesthetic Realism. In: Screen, Bd. 40, Nr. 2. Bühler, Gerhard 1998 Glossar. In: Herbert Gehr (Hg.): Film & Computer. Digital Media Visions. Frank- furt a. M.: Deutsches Filmmuseum. Bukatman, Scott 1998 The Ultimate Trip. Special Effects and Kaleidoscopic Perception. In: Iris, Nr. 25, Frühling 1998. 2000 Taking Shape. In: Vivian Sobchack (Hg.): Meta-morphing. Visual Transformation and the Culture of Quick Change. Minneapolis: University of Minnesota Press. Buttazzo, Giorgio C. 2000 Kann je eine Maschine sich ihrer selbst bewusst werden? In: Rolf Aurich et al. (Hg.): Künstliche Menschen. Manische Maschinen, kontrollierte Körper. Berlin: Jovis Verlagsbüro. Carlson, Wayne E. 2003 A Critical History of Computer Graphics and Animation (= http://accad.osu. edu/~waynec/history/lessons.html). Carringer, Robert L. 1985 The Making of Citizen Kane. Berkeley; Los Angeles: University of California Press, 1996. Carroll, Noël 1988 Philosophical Problems of Classical Film Theory. Princeton NJ: Princeton Univer- sity Press. 1998 A Philosophy of Mass Art. Oxford: Clarendon Press. 1999 Film, Emotion, and Genre. In: Carl Plantinga und Greg M. Smith (Hg.): Passionate Views. Film, Cognition, and Emotion. Baltimore: Johns Hopkins University Press. Cavell, Stanley 1971 The World Viewed. Reflections on the Ontology of Film. New York: Viking Press. Cotton, Bob; Oliver, Richard 1995 The Cyberspace Lexicon. An Illustrated Dictionary of Terms from Multimedia to Virtual Reality. London: Phaidon Press. Coy, Wolfgang 2000 Analog/Digital. Schrift, Bilder und Zahlen als Basismedien (= http://sammel- punkt.philo.at:8080/archive/00000149/). Cresci, Monique 2001 Effets spéciaux et théories du cinéma. Les Trucages et leurs effets de sens. In: Réjane Hamus-Vallée (Hg.): Du Trucage aux effets spéciaux. Condé-sur-Noireau: Ed. Corlet. 480 Literaturverzeichnis Cubitt, Sean 1998 Digital Aesthetics. London: Sage. 1999 a) Phalke, Méliès, and Special Effects Today. In: Wide Angle, Bd. 21, Nr. 1. 1999 b) Introduction. Le réel, c’est l’impossible. The Sublime Time of Special Ef- fects. In: Screen, Bd. 40, Nr. 2. 2004 The Cinema Effect. Cambridge, Mass.; London: MIT Press. Daly, James 1997 Hollywood 2.0. In: Wired, Nr. 5.11, November 1997. Darley, Andrew 2000 Visual Digital Culture. Surface Play and Spectacle in New Media Genres. London; New York: Routledge. Debevec, Paul 1996 Modeling and Rendering Architecture from Photographs (= http://athens.ict.usc. edu/Thesis). 2004 The Story of Reflection Mapping (= http://athens.ict.usc.edu/ReflectionMap- ping/). Debord, Guy 1967 La Société du spectacle. Paris: Les Éditions Gallimard, 1992 (Dt. Die Gesellschaft des Spektakels. Wien: Revolutionsbräuhof, 1994). della Porta, Giovanni Battista 1558 Magiae Naturalis (= http://homepages.tscnet.com/omard1/jportab1.html). DeMarsh, LeRoy; Giorgianni, Edward J. 1989 Color Science for Imaging Systems. In: Physics Today, September 1989. Dietrich, Frank 1986 Visual Intelligence. The First Decade of Computer Art. In: Leonardo, Bd. 19, Nr. 2. Distelmeyer, Jan 2002 Die Tiefe der Oberfläche. In: Jens Eder (Hg.): Oberflächenrausch. Postmoderne und Postklassik im Kino der 90er Jahre. Münster: Lit. Dotzler, Bernhard J. 2003 Simulation. In: Karl-Heinz Barck et al. (Hg.): Ästhetische Grundbegriffe. Histo- risches Wörterbuch in sieben Bänden. Stuttgart: J. B. Metzler. Driemeyer, Thomas 2001 Rendering with mental ray. Berlin: Mental Images. Duiker, Haarm-Pieter 2003 Lighting Reconstruction for «The Matrix Reloaded» (= http://www.virtualcine- matography.org/publications/acrobat/Lighting-s2003.pdf). Dutré, Philip; Bekaer, Philippe; Bala, Kavita 2003 Advanced Global Illumination. Wellesley, MA: AK Peters Limited. Dyer, Richard 2007 Pastiche. London: Routledge. Literaturverzeichnis 481 Eco, Umberto 1977 Über Gott und die Welt. Essays und Glossen. München; Wien: Carl Hanser, 1988. 1979 Lector in fabula. Milano: Bompiani (Dt. Lector in fabula. München: Carl Hanser, 1987). Edelman, Gerald M.; Tononi, Giulio 1997 Neuronaler Darwinismus. Eine selektionistische Betrachtungsweise des Ge- hirns. In: Heinrich Meier und Detlev Ploog (Hg.): Der Mensch und sein Gehirn. Die Folgen der Evolution. München; Zürich: Piper. Eder, Jens 2002 a) Einleitung. In: Jens Eder (Hg.): Oberflächenrausch. Postmoderne und Postklas- sik im Kino der 90er Jahre. Münster: Lit. 2002 b) Die Postmoderne im Kino. Entwicklungen im Spielfilm der 90er Jahre. In: Jens Eder (Hg.): Oberflächenrausch. Postmoderne und Postklassik im Kino der 90er Jahre. Münster: Lit. Eimer, Martin; Nattkemper, Dieter; Schröger, Erich; Prinz, Wolfgang 1996 Unwillkürliche Aufmerksamkeit. In: Odmar Neumann und Andries F. San- ders (Hg.): Aufmerksamkeit. Göttingen: Hogrefe. Eisenstein, Sergej M. 1929 Dramaturgie der Film-Form. In: Franz-Josef Albersmeier (Hg.): Texte zur The- orie des Kinos. Stuttgart: Reclam, 1979. 1941 Disney (Dt. Übersetzung von Dietmar Hochmuth und Oksana Bulgakowa). In: Kunst und Literatur, Bd. 36, Nr. 6, 1988; Bd. 37, Nr. 1, 1989. Ejchenbaum, Boris M. 1927 Probleme der Filmstilistik. In: Franz-Josef Albersmeier (Hg.): Texte zur Theorie des Kinos. Stuttgart: Reclam, 1979. Ekman, Paul; Friesen, W. 1978 Facial Action Coding System. A Technique for the Measurement of Facial Mo- vement. Palo Alto: Consulting Psychologists Press. Elias, Norbert 1988 Über die Zeit. Frankfurt a. M.: Suhrkamp. Elsaesser, Thomas 1998 a) Specularity and Engulfment. Francis Ford Coppola and Bram Stoker’s Dracula. In: Stephen Neale und Murray Smith (Hg.): Contemporary Hollywood Cinema. London; New York: Routledge. 1998 b) Digital Cinema. Delivery, Event, Time. In: Thomas Elsaesser und Kay Hoff- mann (Hg.): Cinema Futures. Cain, Abel or Cable? Screen Arts in the Digital Age. Amsterdam: Amsterdam University Press. Engel, Andreas K. 1996 Prinzipien der Wahrnehmung. In: Gerhard Roth und Wolfgang Prinz (Hg.): Kopf-Arbeit. Gehirnfunktionen und kognitive Leistungen. Heidelberg: Spektrum. Epstein, Jean 1935 Photogénie des Unwägbaren. In: Christa Blümlinger und Karl Sierek (Hg.): Das Gesicht im Zeitalter des bewegten Bildes. Wien: Sonderzahl, 2002. Esposito, Elena 1998 Fiktion und Virtualität. In: Sybille Krämer (Hg.): Medien, Computer, Realität. Wirklichkeitsvorstellungen und neue Medien. Frankfurt a. M.: Suhrkamp. 482 Literaturverzeichnis Eugeni, Ruggero 1998 Myst: Multimedia Hypertexts and Film Semiotics. In: Iris, Nr. 25. Eysel, U. 1993 Sehen. In: Robert F. Schmidt (Hg.): Neuro- und Sinnesphysiologie. Berlin; Heidel- berg; New York: Springer. Faden, Eric S. 2002 Chronophotography and the Digital Image. Whoa … Déjà vu! In: François Albera, Marta Braun und André Gaudreault (Hg.): Arrêt sur image, fragmenta- tion du temps. Aux sources de la culture visuelle moderne. Lausanne: Payot. Feagin, Susan L. 1999 Time and Timing. In: Carl Plantinga und Greg M. Smith (Hg.): Passionate Views. Film, Cognition, and Emotion. Baltimore: Johns Hopkins University Press. Feyerabend, Paul 1994 Die Vernichtung der Vielfalt. Ein Bericht. Wien: Passagen, 2005. Fielding, Raymond 1972 The Technique of Special Effects Cinematography. London: Focal. Flanagan, Mary 1999 Mobile Identities, Digital Stars, and Post-Cinematic Selves. In: Wide Angle, Bd. 21, Nr. 1. Flohr, Hans 1993 Hirnprozesse und phänomenales Bewusstsein. Eine neue, spezifische Hypo- these. In: Helmut Hildebrandt und Eckart Scheerer (Hg.): Interdiszi plinäre Perspektiven der Kognitionsforschung. Frankfurt a. M.: Lang. Flückiger, Barbara 2001 Sound Design. Die virtuelle Klangwelt des Films. Marburg: Schüren (= Zürcher Filmstudien, Bd. 6). 2003 Das digitale Kino. Eine Momentaufnahme. In: montage/av, Nr. 12:1. 2004 Zur Konjunktur der analogen Störung im digitalen Bild. In: Alexander Böhnke und Jens Schröter (Hg.): Analog/Digital – Opposition oder Kontinuum? Beiträge zu Theorie und Geschichte einer Unterscheidung. Bielefeld: T ranscript. 2004 Where’s the Link? In: Cinema, 01/04. 2007 Emotion Capture. Wie es einer digitalen Figur gelingt, Gefühle zu erzeugen. In: Jens Eder, Kathrin Fahlenbrach und Anne Bartsch (Hg.): Audiovisuelle Emotionen. Köln: Von-Halem. Flusser, Vilém 1985 Ins Universum der technischen Bilder. Göttingen: European Photography, 1999. 1988 a) Krise der Linearität. Bern: Benteli. 1988 b) Gedächtnisse. In: Ars Electronica (Hg.): Philosophien der neuen Technologie. Berlin: Merve, 1989. Foerster, Heinz von 1988 Wahrnehmen. In: Ars Electronica (Hg.): Philosophien der neuen Technologie. Berlin: Merve, 1989. Ford, Larry 1994 Sunshine and Shadow. Lighting and Color in the Depiction of Cities in Film. Literaturverzeichnis 483 In: Stuart C. Aitken et al. (Hg.): Place, Power, Situation, and Spectacle. A Geogra- phy of Film. Lanham, MD: Rowman and Littlefield Publishers. Franke, Herbert W. 1984 Bildende Kunst aus dem Computer (= http://www.aec.at/de/archives/festi- val_archive/festival_catalogs/festival_artikel.asp?iProjectID=9331). Freeland, Cynthia A. 1999 The Sublime in Cinema. In: Carl Plantinga und Greg M. Smith (Hg.): Passio- nate Views. Film, Cognition, and Emotion. Baltimore: Johns Hopkins University Press. Freyermuth, Gundolf S. 1997 Der Tod des Tonfilms (= http://www.heise.de/tp/r4/artikel/6/ 6106/2.html). Friederici, Angela 1993 Über die Eigenschaften kognitiver Module. In: Helmut Hildebrandt und Eckart Scheerer (Hg.): Interdisziplinäre Perspektiven der Kognitionsforschung. Frankfurt a. M.: Lang (= Europäische Hochschulschriften, Reihe 6, Bd. 434). Gabilondo, Joseba 2000 Morphing Saint Sebastian. Masochism and Masculinity in Forrest Gump. In: Vivian Sobchack (Hg.): Meta-morphing. Visual Transformation and the Culture of Quick Change. Minneapolis: University of Minnesota Press. Gaut, Berys 1999 Identification and Emotion in Narrative Film. In: Carl Plantinga und Greg M. Smith (Hg.): Passionate Views. Film, Cognition, and Emotion. Baltimore: Johns Hopkins University Press. Gehr, Herbert 1998 Neuer Wein in alten Schläuchen? Technische Bildeffekte im Kino. In: Herbert Gehr (Hg.): Film & Computer. Digital Media Visions. Frankfurt a. M.: Deutsches Filmmuseum. Geib, Romain 2002 Die nahe Zukunft des Kinos: 24p. Die Praxis der digitalen Filmproduktion. In: Weltwunder der Kinematographie, 6. Ausgabe, 2002. Geis, Barbara 1998 a) Das zweite Leben der Spielzeuge. Die computeranimierten Filme von John Lasseter. In: Herbert Gehr (Hg.): Film & Computer. Digital Media Visions. Frankfurt a. M.: Deutsches Filmmuseum. 1998 b) Die Welt des Films neu erfinden. Interview mit Helmut Herbst. In: Herbert Gehr (Hg.): Film & Computer. Digital Media Visions. Frankfurt a. M.: Deutsches Filmmuseum. Genette, Gérard 1972 Figures III. Paris: Editions du Seuil. 1983 Nouveau discours du récit. Paris: Editions du Seuil. 1987 Paratexte. Paris: Editions du Seuls (Dt. Paratexte. Das Buch vom Beiwerk des Buches. Frankfurt a. M.: Suhrkamp, 1992). 1994 Die Erzählung. München: Wilhelm Fink (Übersetzung von Figures III und Nouveau discours du récit). 484 Literaturverzeichnis Gibson, James J. 1979 The Ecological Approach to Visual Perception. Hillsdale NJ: Lawrence Erlbaum, 1986. Giesen, Rolf 1985 Special effects. King Kong, Orphée und die Reise zum Mond. Ebersberg: Edition Achteinhalb Lothar Just. 1986 Der Trickfilm. In: cinefex, Nr. 25. 2000 Cybernauten und andere Androiden. Der synthetische Mensch aus der Me- dienretorte. In: Rolf Aurich et al. (Hg.): Künstliche Menschen. Manische Maschi- nen, kontrollierte Körper. Berlin: Jovis Verlagsbüro. 2001 Lexikon der Special Effects. Berlin: Lexikon Imprint. Ginsburg, Herbert; Opper, Silvia 1969 Piagets Theorie der geistigen Entwicklung. Stuttgart: Klett-Cotta, 1993. Glassner, Andrew S. 1995 Principles of Digital Image Synthesis. San Francisco: Morgan Kaufmann. Gööck, Michael 2002 Der Herr der Farben von Hobbingen und Lothlórien. Interview mit Peter Doyle. In: Camera-Magazin, Nr. 7, März/April 2002. Goodman, Nelson 1968 Languages of Art. Indianapolis: Hackett, 1976. 1978 Ways of Worldmaking. Indianapolis: Hackett, 1990. Goschke, Thomas; Koppelberg, Dirk 1993 Konnektionistische Repräsentation, semantische Kompositionalität und die Kontextabhängigkeit von Konzepten. In: Helmut Hildebrandt und Eckart Scheerer (Hg.): Interdisziplinäre Perspektiven der Kognitionsforschung. Frankfurt a. M.: Lang (= Europäische Hochschulschriften, Reihe 6, Bd. 434). Goulekas, Karen E. 2001 Visual Effects in a Digital World. San Diego: Morgan Kaufmann. Grau, Oliver 2001 Virtuelle Kunst in Geschichte und Gegenwart. Visuelle Strategien. Berlin: Reimer. Greenberg, Donald P.; Torrance, Kenneth E.; Shirley, Peter et al. 1997 A Framework for Realistic Image Synthesis (= http://www.cs.utah.edu/~shir- ley/papers/framewrk.pdf). Greenwald, Jeff 1997 Trumbull’s Vision. In: Wired, Nr. 5.01. Grodal, Torben Kragh 1994 Cognition, Emotion, and Visual Fiction. Theory and Typology of Affective Patterns and Genres in Film and Television. Copenhagen: University of Copenhagen. 1997 Moving Pictures. Oxford: Clarendon Press. Großklaus, Götz 1995 Medien-Zeit, Medien-Raum. Zum Wandel der raumzeitlichen Wahrnehmung in der Moderne. Frankfurt a. M.: Suhrkamp. Guillon, Christian 2001 Les trucages sont-ils bio? Le numérique est-il de gauche? In: Réjane Hamus- Vallée (Hg.): Du Trucage aux effets spéciaux. Condé-sur-Noireau: Ed. Corlet. Literaturverzeichnis 485 Gunning, Tom 1986 The Cinema of Attraction. Early Film, Its Spectator and the Avant-Garde. In: Toby Miller und Robert Stam (Hg.): Film and Theory. An Anthology. Malden, Mass.; Oxford: Blackwell Publishers Ltd. 1995 «Animated Pictures». Tales of Cinema’s Forgotten Future, After 100 Years of Films. In: Christine Gledhill und Linda Williams (Hg.): Reinventing Film Studies. London: Arnold, 2000. Hagen, Wolfgang 2002 Die Entropie der Fotografie. Skizzen zu einer Genealogie der digital-elektro- nischen Bildaufzeichnung. In: Herta Wolf (Hg.): Paradigma Fotografie. Frank- furt a. M.: Suhrkamp. Hager, Joseph C. 2002 Description of Facial Action Coding System (FACS) (= http://face-and-emotion. com/dataface/face/description.jsp). Hager, Joseph C.; Ekman, Paul 1983 The Inner and Outer Meanings of Facial Expressions. In: J. T. Cacioppo und R. E. Petty (Hg.): Social Psychophysiology. A Sourcebook (= http://face-and-emotion. com/dataface/misctext/inner_outer.html). Hall, Roy 1989 Illumination and Color in Computer Generated Imagery. New York: Springer. Hammerstein, Reinhold 1986 Macht und Klang. Tönende Automaten als Realität und Fiktion in der alten und mittelalterlichen Welt. Bern: A. Francke. Hamus, Réjane 1998 Le morphing. In: Frank Beau et al. (Hg.): Cinéma et dernières technologies. Paris; Bruxelles: INA; De Boeck & Larcier. 2000 Retour vers le passé. Images de synthèse et cinéma. In: Cahiers du cinéma, Hors-série, April 2000. Hamus-Vallée, Réjane 2001 Histoire des effets spéciaux. De Méliès à Jurassic Park en passant par King Kong, L’homme invisible, Star Wars et 2001, L’odyssée de l’espace. In: Réjane Ha- mus-Vallée (Hg.): Du Trucage aux effets spéciaux. Condé-sur-Noireau: Ed. Corlet. Haraway, Donna 1985 A Cyborg Manifesto. Science, Technology, and Socialist-Feminism in the Late Twen- tieth Century (= http://www.medienkunstnetz.de/quellentext/115. Dt. Ein Manifest für Cyborgs, Feminismus im Streit mit den Technowissenschaften. In: Donna Haraway: Die Neuerfindung der Natur, Primaten, Cyborgs und Frau- en. Frankfurt a. M.: Campus, 1995) Hase, Dietrich von 1988 Computerfilm – State of the Art 1987. In: Angela Schönberger (Hg.): Simula- tion und Wirklichkeit. Köln: DuMont. Herken, Rolf 1988 Eine Bemerkung zur Computerkunst. In: Angela Schönberger (Hg.): Simulation und Wirklichkeit. Köln: DuMont. 486 Literaturverzeichnis Hoberg, Almuth 1999 Film und Computer. Wie digitale Bilder den Spielfilm verändern. Frankfurt a. M.: Campus (= Campus Forschung, Bd. 788). Holenstein, Elmar 1992 Mentale Gebilde. In: Dieter Münch (Hg.): Kognitionswissenschaft. Grundlagen, Probleme, Perspektiven. Frankfurt a. M.: Suhrkamp. Horkheimer, Max; Adorno, Theodor W. 1944 Kulturindustrie. Aufklärung als Massenbetrug. In: Max Horkheimer und Theodor W. Adorno: Dialektik der Aufklärung. Philosophische Fragmente. Frank- furt a. M.: Suhrkamp, 1996. Hubp, Daniel 2002 24p is Coming to a D-Cinema Near You. In: Weltwunder der Kinematographie, 6. Ausgabe. Humphreys, Paul 2004 Extending Ourselves. Computational Science, Empiricism, and Scientific Method. Oxford: Oxford University Press. Hunt, Robert William Gainer 2004 The Reproduction of Colour. Chichester: Wiley. Hurst, Jan 1989 a) Retrospectives I. The Early Years in Computer Graphics at MIT, Lincoln Lab and Harvard. In: Computer Graphics, Annual Conference Proceedings, Bd. 23, Nr. 5. 1989 b) Retrospectives II. The Early Years in Computer Graphics at MIT, Lincoln Lab and Harvard. In: Computer Graphics, Annual Conference Proceedings, Bd. 23, Nr. 5. Husserl, Edmund 1893–1917 Texte zur Phänomenologie des inneren Zeitbewusstseins. Hamburg: Felix Meiner, 1985. Iversen, Leslie L. 1997 Die Chemie des Gehirns. In: Heinrich Meier und Detlev Ploog: Der Mensch und sein Gehirn. Die Folgen der Evolution. München; Zürich: Piper. Jackèl, Dietmar; Neunreither, Stephan; Wagner, Friedrich 2006 Methoden der Computeranimation. Berlin: Springer. Jameson, Fredric 1984 Postmodernism, or, the Cultural Logic of Late Capitalism. London: Verso, 2001. Jensen, Henrik Wann 2001 Realistic Image Synthesis Using Photon Mapping. Natick, Mass.: A K Peters. Joyrich, Lynne 1990 Critical and Textual Hypermasculinity. In: Toby Miller und Robert Stam (Hg.): Film and Theory. An Anthology. Malden, Mass.; Oxford: Blackwell Pub- lishers Ltd. Literaturverzeichnis 487 Kalberer, Gregor A. 2003 Realistic Face Animation for Speech (= Diss. ETH Zürich, Nr. 15277). Kampmann Walther, Bo 2002 The Ontology of Virtual Space. In Search of Matrixes and Cube-machines. In: Lars Qvortrup (Hg.): Virtual Space. Spatiality in Virtual Inhabited 3D Worlds. London: Springer. Kandinsky, Wassily 1910 Über das Geistige in der Kunst. Bern: Benteli, 1952. 1926 Punkt und Linie zu Fläche. Bern: Benteli, 1955. Kebeck, Günther 2006 Bild und Betrachter. Auf der Suche nach Eindeutigkeit. Regensburg: Schnell und Steiner. Keitz, Ursula von 2004 Zwischen Welten. Zur Funktion postfilmischer «Medien» im Kino der 90er Jahre. In: Harro Segeberg (Hg.): Die Medien und ihre Technik. Theorie, Modelle, Geschichte. Marburg: Schüren. Kerlow, Isaac V. 2004 The Art of 3D. Computer Animation and Effects. Hoboken, NJ: Wiley. King, Geoff 2000 Spectacular Narratives. Hollywood in the Age of the Blockbuster. London: I. B. Tau- ris. Kingslien, Ryan 2004 ZBrush 2.0 Review (= http://vfxworld.com/?atype=articles&id= 2310). Kittler, Friedrich A. 1988 Fiktion und Simulation. In: Ars Electronica (Hg.): Philosophien der neuen Tech- nologie. Berlin: Merve, 1989. 1998 Computergraphik. Eine halbtechnische Einführung (= http://www.hydra.umn. edu/kittler/graphik.html). 2002 Optische Medien. Berliner Vorlesung 1999. Berlin: Merve. Klee, Paul 1925 Pädagogisches Skizzenbuch. Berlin: Gebr. Mann, 1997. Klein, Norman N. 2000 Animation and Animorphs. A Brief Disappearing Act. In: Vivian Sobchack (Hg.): Meta-morphing. Visual Transformation and the Culture of Quick Change. Minneapolis: University of Minnesota Press. Kluwe, Rainer H. 1990 Gedächtnis und Wissen. In: Hans Spada (Hg.): Lehrbuch Allgemeine Psycholo- gie. Bern: Hans Huber, 1992. Koch, Gertrud 1995 Auge und Affekt. Wahrnehmung und Interaktion. Frankfurt a. M.: Fischer Ta- schenbuch. Kolker, Robert 1999 Film, Form and Culture. Boston: The McGraw-Hill Companies. 488 Literaturverzeichnis Konermann, Silvana 2003 Farbcodes in der Printwerbung. Unveröffentlichtes Manuskript, Zürich. Kopf, Christine 1998 Kino-Visionen. Expanded Cinema zwischen Cyberspace und Freizeitpark. In: Herbert Gehr (Hg.): Film & Computer. Digital Media Visions. Frankfurt a. M.: Deutsches Filmmuseum. Kornacher, Hans 2004 Technologische Entwicklung von nonlinearem Schnitt, Visual Effects und Computeranimation. In: Peter C. Slansky (Hg.): Digitaler Film – digitales Kino. Konstanz: VK-Verlagsgesellschaft. Kozloff, Sara R. 1981 Superman as Saviour. Christian Allegory in the Superman Movies. In: Journal of Popular Film and Television, Bd. 9, Nr. 2. Kracauer, Siegfried 1928 Film 1928. In: Siegfried Kracauer: Das Ornament der Masse. Frankfurt M.: Suhrkamp, 1977. 1960 Theorie des Films. Die Errettung der äußeren Wirklichkeit. Frankfurt a. M.: Suhr- kamp. Krämer, Sybille 1998 Das Medium als Spur und als Apparat. In: Sybille Krämer (Hg.): Medien, Computer, Realität. Wirklichkeitsvorstellungen und neue Medien. Frankfurt a. M.: Suhrkamp. Krause, Rainer 1995 Gesicht – Affekt – Wahrnehmung und Interaktion. In: Gertrud Koch (Hg.): Auge und Affekt. Wahrnehmung und Interaktion. Frankfurt a. M.: Fischer Ta- schenbuch. Kreimeier, Klaus 1998 Alte Bilder – neue Bilder. In: Herbert Gehr (Hg.): Film & Computer. Digital Media Visions. Frankfurt a. M.: Deutsches Filmmuseum. 2000 Vom Vampir zum Vamp. In: Rolf Aurich et al. (Hg.): Künstliche Menschen. Manische Maschinen, kontrollierte Körper. Berlin: Jovis Verlagsbüro. Kriz, Jürgen 1992 Chaos und Struktur. München: Quintessenz. Krützen, Michaela 2004 Dramaturgie des Films. Wie Hollywood erzählt. Frankfurt a. M.: Fischer Taschen- buch. Kühn, Heike 2001 Körperbilder. Transformationen des Körpers im neueren Kino. In: Margrit Frölich et al. (Hg.): No Body is Perfect. Körperbilder im Kino. Marburg: Schüren. Kuperberg, Marcia 2002 A Guide to Computer Animation for TV, Games, Multimedia and Web. Oxford; Amsterdam; Boston: Focal Press. Kurth, Winfried von 2005 Keyframe-Animation (= Vorlesungsskript der Technischen Universität Cottbus). Literaturverzeichnis 489 La Valley, Albert 1985 Traditions of Trickery. The Role of Special Effects in the Science Fiction Film. In: George Slusser und Eric S. Rabkin (Hg.): Shadows of the Magic Lamp. Fantasy and Science Fiction in Film. Carbondale: Southern Illinois University Press. Le Breton, David 2001 Le corps et le monde comme «effets spéciaux». In: Réjane Hamus-Vallée (Hg.): Du Trucage aux effets spéciaux. Condé-sur-Noireau: Ed. Corlet. Le Grice, Malcolm 1998 Kunst im Reich der Hydra-Medien. In: Herbert Gehr (Hg.): Film & Computer. Digital Media Visions. Frankfurt a. M.: Deutsches Filmmuseum. 1999 Digital Cinema and Experimental Film. In: Yvonne Spielmann und Gundolf Winter (Hg.): Bild – Medium – Kunst. München: Wilhelm Fink. 2001 Experimental Cinema in the Digital Age. London: BFI. Lee, Nora 1983 Motion Control. In: American Cinematographer, Nr. 5, Mai 1983. Legrady, George 1999 Intersecting the Virtual and the Real. Space in Interactive Media Installat ions. In: Wide Angle, Bd. 21, Nr. 1. Lévy, Francine 2001 Le Point de vue de la matière. In: Réjane Hamus-Vallée (Hg.): Du Trucage aux effets spéciaux. Condé-sur-Noireau: Ed. Corlet. Licklider, J. C. R. 1960 Man-Computer Symbiosis. In: IRE Transactions on Human Factors in Electro- nics, Bd. HFE-1, März 1960. Licklider, J. C. R.; Taylor, Robert W. 1968 The Computer as a Communication Device. In: Science and Technology, April 1968. Lindbloom, Bruce J. 1989 Accurate Color Reproduction for Computer Graphics Applications. In: Com- puter Graphics, Bd. 23, Nr. 3, Juli 1989. Loleit, Simone 2004 «The Mere Digital Process of Turning over Leaves». Zur Wort und Begriffsge- schichte von «digital». In: Alexander Böhnke und Jens Schröter (Hg.): Analog/ Digital – Opposition oder Kontinuum? Beiträge zu Theorie und Geschichte einer Unterscheidung. Siegen: Transcript. Luhmann, Niklas 1995 Die Realität der Massenmedien. Wiesbaden: VS, 2004. Lunenfeld, Peter 1996 Digitale Fotografie. Das dubitative Bild. In: Herta Wolf (Hg.): Paradigma Foto- grafie. Frankfurt a. M.: Suhrkamp. Lyotard, Jean-François 1979 La Condition postmoderne. Rapport sur le savoir. Paris: Edition de Minuit. 490 Literaturverzeichnis Machert, Torsten 1997 Theorie und Praxis fotorealistischer Computergrafiken. Braunschweig: Vieweg. Makowsky, Janos Andreas 1988 Computeranimation: High-Tech-Trickfilm oder Aufbruch in neue Visualisie- rungsmöglichkeiten. In: Angela Schönberger (Hg.): Simulation und Wirklich- keit. Köln: DuMont. Mandelbrot, Benoît B. 1975 Les Objets fractals, form, hasard et dimension. Paris: Flammarion. 1982 The Fractal Geometry of Nature. San Francisco: W. H. Freeman and Company. Mannoni, Laurent 1995 Le Grand Art de la lumière et de l’ombre. Archéologie du cinéma. Paris: Nathan. Manovich, Lev 1999 What Is Digital Cinema? (= http://www.heise.de/tp/r4/artikel/6/6110/ 1.html). 2001 The Language of New Media. Cambridge, Mass.: MIT Press. Masson, Terrence 1999 CG 101. A Computer Graphics Industry Reference. Indianapolis: New Riders. McDowell, Alex 2004 The Terminal Diary (= http://vfxworld.com/?sa=adv&code=319b255d&- atype= articles&id=2134). McLuhan, Marshall 1964 Understanding Media. The Extension of Man. London: Routledge, 2001. McMahan, Alison 1999 The Effects of Multiform Narrative on Subjectivity. In: Screen, Bd. 40, Nr. 2. Menzel, Randolf; Roth, Gerhard 1996 Verhaltensbiologische und neuronale Grundlagen des Lernens und des Ge- dächtnisses. In: Gerhard Roth und Wolfgang Prinz (Hg.): Kopf-Arbeit. Gehirn- funktionen und kognitive Leistungen. Heidelberg: Spektrum. Metz, Christian 1971 Trucage et cinéma. In: Christian Metz: Essais sur la signification au cinéma. Pa- ris: Klincksieck, 1972. 1975 a) Le perçu et le nommé. In: Christian Metz: Essais sémiotiques. Paris: Klinck- sieck, 1977. 1975 b) Le Signifiant imaginaire. Paris: Christian Bourgois, 1977 (Dt. Der imaginäre Signifikant. Psychoanalyse und Kino. Münster: Nodus, 2000). 1991 L’Enonciation impersonelle, ou le site du film. Paris: Méridiens Klincksieck (Dt. Die unpersönliche Enunziation oder der Ort des Films. Münster: Nodus, 1994). Meunier, Jean-Pierre 1969 Les Structures de l’expérience filmique. L’identification filmique. Louvain: Vander. Meyer, Petra Maria 2002 Matrix: Körper- und Medieninszenierung im postmodernen Kino. In: Jürgen Felix (Hg.): Die Postmoderne im Kino. Ein Reader. Marburg: Schüren. Literaturverzeichnis 491 Mihashi, Tadao; Tempelaar-Lietz, Christina; Borshukov, George 2003 Generating Realistic Human Hair for «The Matrix Reloaded» (= http://www. virtualcinematography.org/publications/acrobat/Hair-s2003.pdf ). Minnis, Stuart 1998 Digitalization and the Instrumentalist Approach to the Photographic Image. In: Iris, Nr. 25. Mitchell, William John 1992 The Reconfigured Eye. Visual Truth in the Post-Photographic Era. Cambridge, Mass.: The MIT Press. Möller, Simon 2002 Zeit-Räume. Nichtlineare Dramaturgien. Vom Manga in den Kino-Film? In: Weltwunder der Kinematographie, 6. Ausgabe, 2002. Möller, Thomas; Ott, Stephan 1998 Media-Crosses. Computer, Spiele und Kino – ein Gespräch mit Gerd Brünig und Markus Friedrich. In: Herbert Gehr (Hg.): Film & Computer. Digital Media Visions. Frankfurt a. M.: Deutsches Filmmuseum. Moles, Abraham A. 1990 Art et ordinateur. Paris: Blusson Editeur. Mori, Masahiro 1970 Bukimi no tani. (The Uncanny Valley.) In: Energy, Nr. 7. Morin, Edgar 1956 Le Cinéma ou L’homme imaginaire. Paris: Editions de Minuit. Morse, Margaret 1999 Body and Screen. In: Wide Angle, Bd. 21, Nr. 1. Mühl-Benninghaus, Wolfgang 2002 Vom Aufstieg des Tonfilms zur digitalen Bildproduktion. In: Weltwunder der Kinematographie, 6. Ausgabe, 2002. Münch, Dieter (Hg.) 1992 Kognitionswissenschaft. Grundlagen, Probleme, Perspektiven. Frankfurt a. M.: Suhrkamp. Murray, Timothy 1999 By Way of Introduction. Digitality and the Memory of Cinema, or, Bearing the Losses of the Digital Code. In: Wide Angle, Bd. 21, Nr. 1. Myers, Brad A. 1998 A Brief History of Human Computer Interaction Technology. In: ACM Inter- actions, Bd. 5, Nr. 2, März 1998. Ndalianis, Angela 2004 Neo-Baroque Aesthetics and Contemporary Entertainment. Cambridge, Mass.: The MIT Press. Netzley, Patricia D. 2001 Encyclopedia of Movie Special Effects. New York: Checkmark Books. 492 Literaturverzeichnis Neulander, Ivan 2003 Image-Based Diffuse Lighting Using Visibility Maps. Additional Notes (= http:// www.rhythm.com/~ivan/pdfs/sketch2003Notes.pdf). Noll, A. Michael 1967 The Digital Computer as a Creative Medium. In: IEEE Spectrum, Bd. 4, Nr. 10. Oropeza, B. J. 2005 Introduction. Superhero Myth and the Restoration of Paradise. In: B. J. Oro- peza (Hg.): The Gospel According to Superheroes. Religion and Popular Culture. New York: Peter Lang. Ott, Stephan 1998 a) Entscheidend ist letztlich die Geschichte. Interview mit Jost Vacano. In: Herbert Gehr (Hg.): Film & Computer. Digital Media Visions. Frankfurt a. M.: Deutsches Filmmuseum. 1998 b) Du brauchst sehr, sehr viel Geduld. Interview mit Philipp Timme. In: Herbert Gehr (Hg.): Film & Computer. Digital Media Visions. Frankfurt a. M.: Deutsches Filmmuseum. Paech, Joachim 1999 Der Bewegung einer Linie folgen … In: Yvonne Spielmann und Gundolf Win- ter (Hg.): Bild – Medium – Kunst. München: Wilhelm Fink. Panofsky, Erwin 1936–1947 Style and Medium in the Motion Pictures. In: Leo Braudy und Marshall Cohen (Hg.): Film Theory and Criticism. Introductory Readings. New York; Lon- don: Oxford University Press, 2004 (Dt. Stil und Medium im Film. Übers. von Helmut Färber. In: Filmkritik, Nr. 11, 1967). Parisi, Paula 1995 The New Hollywood (= http://www.wired.com/wired/archive/3.12/new. hollywood_pr. html). Parke, Fred; Terzopoulos, Demetri; Sejnowski, Terrence; Stucki, Peter; Williams, Lance; Ballard, Dana; Sadler, Lewis; Hager, Joseph 1991 Computer-Based Facial Expression Models and Image Databases (= http://fa- ce-and-emotion.com/dataface/nsfrept/models.html). Piehler, Heike M. 2002 Die Anfänge der Computerkunst. Frankfurt a. M.: Dot. Pierson, Michele 1999 No Longer State-of-the-Art. Crafting a Future for CGI. In: Wide Angle, Bd. 21, Nr. 1. 2002 Special Effects. Still in Search of Wonder. New York: Columbia University Press. Pinteau, Pascal 2003 Special Effects. An Oral History. New York: Harry N. Abrams. 2004 Plantec, Peter 2005 Fluid Dynamics. A Look at Two Giants (= http://vfxworld.com/sa=adv&- code=32a8adeb&atype=articles&id=2597). Literaturverzeichnis 493 2006 The Convergence of Digital Acting and VFX (= http://vfxworld.com/?atype= articles&id=2732). Plantinga, Carl 1999 The Scene of Empathy and the Hu man Face on Film. In: Carl Plantinga und Greg M. Smith (Hg.): Passionate Views. Film, Cognition, and Emotion. Balti- more: Johns Hop kins University Press (Dt. Die Szene der Empathie und das menschliche Gesicht im Film. In: montage/av, Nr. 13:2, 2004). Plantinga, Carl; Smith, Greg M. 1999 Introduction. In: Carl Plantinga und Greg M. Smith (Hg.): Passionate Views. Film, Cognition, and Emotion. Baltimore: Johns Hopkins University Press. Polanyi, Michael 1970 Was ist ein Bild? In: Gottfried Boehm (Hg.): Was ist ein Bild? München: Fink, 1994. Popper, Karl R.; Eccles, John C. 1977 Das Ich und sein Gehirn. München: Piper. Poynton, Charles A. 1995 Frequently Asked Questions about Colour (= http://www.poynton.com/ ColorFAQ.html). 1996 A Technical Introduction to Digital Video. New York: Wiley. Prince, Gerald 1987 A Dictionary of Narratology. Lincoln; London: University of Nebraska Press. Prince, Stephen 1996 True Lies. Perceptual Realism, Digital Images, and Film Theory. In: Leo Braudy, Marshall Cohen (Hg.): Film Theory and Criticism. Introductory Rea- dings. New York; London: Oxford University Press, 2004. Probst, Christopher 1996 Bluescreen/Greenscreen 101. In: American Cinematographer, Dezember 1996. 2001 The Frozen Moment. In: American Cinematographer, März 2001. Prusinkiewicz, Przemyslaw; Lindenmayer, Aristid 1990 The Algorithmic Beauty of Plants. New York: Springer (= http://algorithmicbo- tany.org/papers/). Qvortrup, Lars 2002 Cyberspace as Representation of Space Experience. In Defence of a Phen- omenological Approach. In: Lars Qvortrup (Hg.): Virtual Space. Spatiality in Virtual Inhabited 3D Worlds. London: Springer. Qvortrup, Lars (Hg.) 2002 Virtual Space. Spatiality in Virtual Inhabited 3D Worlds. London: Springer. Rabinovitz, Lauren 1998 Introduction. Film Theory and the Digital Image. In: Iris, Nr. 25, Frühling 1998. Rall, Veronika 2000 Die Dyade. Ripley inside out. In: Rolf Aurich et al. (Hg.): Künstliche Menschen. Manische Maschinen, kontrollierte Körper. Berlin: Jovis Verlagsbüro. 494 Literaturverzeichnis Ratner, Peter 2003 3-D Human Modeling and Animation. New York: Wiley. Reinhard, Erik; Ward, Greg; Pattanaik, Sumanta; Debevec, Paul 2006 High Dynamic Range Imaging. Acquisition, Display, and Image-based Lighting. Amsterdam: Morgan Kaufman. Reitz, Edgar 1998 Speed is the Mother of Cinema. In: Thomas Elsaesser und Kay Hoffmann (Hg.): Cinema Futures. Cain, Abel or Cable? Screen Arts in the Digital Age. Am- ster dam: Amsterdam University Press. Rickitt, Richard 2000 Special Effects. The History and Technique. New York: Billboard Books. Robertson, Barbara 2004 Another Big Leap. In: Computer Graphics World, Bd. 27, Nr. 7. Röskau, Benedikt 1998 Der digitale Drehbuchautor. In: Herbert Gehr (Hg.): Film & Computer. Digital Media Visions. Frankfurt a. M.: Deutsches Filmmuseum. Rogers, Pauline B. 1999 The Art of Visual Effects. Interviews on the Tools of the Trade. Boston: Focal Press. Rosch, Eleanor 1973 Natural Categories. In: Noel Sheehy und Anthony J. Chapman (Hg.): Cogni- tive Science. Aldershot : Edward Elgar. Rosebush, Judson 1985 The French Touch in Computer Animation. In: Computer Graphics World Ok- tober 1985. Roth, Gerhard 1996 Das Gehirn des Menschen. In: Gerhard Roth und Wolfgang Prinz (Hg.): Kopf-Arbeit. Gehirnfunktionen und kognitive Leistungen. Heidelberg: Spektrum. Rudolph, Eric 2001 A Favorable Verdict for 24p. In: American Cinematographer, April 2001. Rushing, Janice Hocker; Frentz, Thomas S. 1995 Projecting the Shadow. The Cyborg Hero in American Film. Chicago; London: The University of Chicago Press. Rushmeier, Holly; Dorsey, Julie 2005 Digital Modeling of the Appearance of Materials (= SIGGRAPH Kurs Nr. 24). Salt, Barry 1992 Film Style and Technology. History and Analysis. London: Starword. Sammon, Paul M. 1996 Future Noir. The Making of Blade Runner. New York: Harper Paperbacks. Samocki, Jean-Marie 2002 Neue Fiktionen des Gesichts. In: Christa Blümlinger und Karl Sierek (Hg.): Das Gesicht im Zeitalter des bewegten Bildes. Wien: Sonderzahl. Literaturverzeichnis 495 Schmid, Katrin 2003 Animation mit bildbasierter Szenenrepräsentation (= Diplomarbeit, Bauhaus-Uni- versität Weimar). Schmidt, Nicolas 2001 Vision impossible. In: Réjane Hamus-Vallée (Hg.): Du Trucage aux effets spéci- aux. Condé-sur-Noireau: Ed. Corlet. Schmidt, Ulrich 2002 Digitale Film- und Videotechnik. Leipzig: Fachbuchverlag. Schneider, Klaus 1990 Emotionen. In: Hans Spada (Hg.): Lehrbuch Allgemeine Psychologie. Bern: Hans Huber, 1992. Schröter, Jens 2003 Virtuelle Kamera. Zum Fortbestand fotografischer Medien in computergenerierten Bildern (= http://www.theorie-der-medien.de/text_detail.php?nr=34). 2004 a) Analog/Digital – Opposition oder Kontinuum? In: Alexander Böhnke und Jens Schröter (Hg.): Analog/Digital – Opposition oder Kontinuum? Beiträge zu Theorie und Geschichte einer Unterscheidung. Bielefeld: Transcript. 2004 b) Computer/Simulation. Kopie ohne Original oder das Original kontrollierende Kopie? (= http://www.theorie-der-medien.de/text_druck.php?nr=41). Seeber, Guido 1927 Der Trickfilm in seinen grundsätzlichen Möglichkeiten. Frankfurt a. M.: Deut- sches Filmmuseum, 1979. Seeßlen, Georg 2000 Traumreplikanten des Kinos. In: Rolf Aurich et al. (Hg.): Künstliche Menschen. Manische Maschinen, kontrollierte Körper. Berlin: Jovis Verlagsbüro. 1998 Schöne neue Bilderwelt. Computer & Kino. In: Herbert Gehr (Hg.): Film & Computer. Digital Media Visions. Frankfurt a. M.: Deutsches Filmmu seum. Serkis, Andy 2003 Gollum («Lord of the Rings»). How We Made Movie Magic. New York: Harper Collins (Dt. Der Herr der Ringe, Gollum. Stuttgart: Klett-Cotta). Seymour, Mike 2004 The Art of Tracking (= http://www.fxguide.com/article209-print.html). 2005 The Art of Keying (= http://www.fxguide.com/article314.html). 2006 Light Stage 6! (= http://www.fxguide.com/article363.html). Shay, Don 1982 Willis O’Brien. Creator of the Impossible. In: cinefex, Nr. 7. Sheehy, Noel; Chapman, Anthony J. 1995 Cognitive Science. Aldershot: Edward Elgar. Shirley, Peter; Morley, R. Keith 2003 Realistic Ray Tracing. Natick, Mass.: AK Peters. Shlain, Leonard 1993 Art & Physics. Parallel Visions in Space, Time, and Light. New York: Quill / W. Morrow. 496 Literaturverzeichnis Silverman, Matt 2004 Art of Roto (= http://www.fxguide.com/fxtips-234.html). Simons, Jan 1999 What’s a Digital Image? In: Yvonne Spielmann und Gundolf Winter (Hg.): Bild – Medium – Kunst. München: Wilhelm Fink. Sims, Karl 1994 Evolving Virtual Creatures. In: Computer Graphics, Annual Conference Pro- ceedings, Juli 1994. Singer, Wolf 1997 Der Beobachter im Gehirn. In: Heinrich Meier und Detlev Ploog (Hg.): Der Mensch und sein Gehirn. Die Folgen der Evolution. München; Zürich: Piper. Sitney, P. Adams 2002 Visionary Film. The American Avantgarde, 1943–2000. London: Oxford Univer- sity Press. Skweres, Mary Ann 2004 Getting Respect for Invisible VFX (= http://vfxworld.com/?atype=articles&id =2339). Slawney, James 2001 Die Illusion der Metamorphose. In: Margrit Frölich et al. (Hg.): No Body is Perfect. Körperbilder im Kino. Marburg: Schüren. Smid, Tereza 2006 Jenseits der Aufmerksamkeitslenkung: Narrative und ästhetische Wirkungs- möglichkeiten der Schärfenverlagerung. In: Thomas Koebner und Thomas Meder (Hg.): Bildtheorie und Film. München: edition text+kritik. Smith, Alvy Ray 1995 Alpha and the History of Digital Compositing (= http://www.cs.prince ton.edu/ courses/archive/fall00/cs426/papers/smith95c.pdf). 1998 George Lucas Discovers Computer Graphics. In: IEEE Annuals of the History of Computer Graphics, Bd. 20, Nr. 2. Smith, Greg M. 1999 Local Emotions, Global Moods, and Film Structure. In: Carl Plantinga und Greg M. Smith (Hg.): Passionate Views. Film, Cognition, and Emotion. Baltimore: Johns Hopkins University Press. Smith, Murray 1995 Engaging Characters. Fiction, Emotion, and the Cinema. Oxford: Clarendon Press. 1999 Gangsters, Cannibals, Aesthetes, or Apparently Perverse Allegiances. In: Carl Plantinga und Greg M. Smith (Hg.): Passionate Views. Film, Cognition, and Emotion. Baltimore: Johns Hopkins University Press. Smith, Thomas G. 1991 Industrial Light & Magic. The Art of Special Effects. London: Virgin. Sobchack, Vivian 1980 Screening Space. The American Science Fiction Film. New York: Ungar, 1997. Literaturverzeichnis 497 1999 «At the Still Point of the Turning World». Meta-Morphing and Meta-Stasis. In: Yvonne Spielmann und Gundolf Winter (Hg.): Bild – Medium – Kunst. München: Wilhelm Fink. 2004 Carnal Thoughts. Embodiment and Moving Image Culture. Berkeley: University of California Press. Sobottka, Eva 2002 Im Zeichen des Drachen. Das Actionkino der 90er Jahre. In: Jens Eder (Hg.): Oberflächenrausch. Postmoderne und Postklassik im Kino der 90er Jahre. Münster: Lit. Sørensen, Peter 1981 Computer Imaging. In: cinefex, Nr. 6. Solomon, Matthew 2000 «Twenty-Five Hats under One Hat.» Quick Change in the 1890s. In: Vivian Sobchack (Hg.): Meta-morphing. Visual Transformation and the Culture of Quick Change. Minneapolis: University of Minnesota Press. Spiegel, Simon 2007 Die Konstitution des Wunderbaren. Zu einer Poetik des Science-Fiction-Films. Mar- burg: Schüren. Spielmann, Yvonne 1999 Schichtung und Verdichtung im elektronischen Bild. In: Yvonne Spielmann und Gundolf Winter (Hg.): Bild – Medium – Kunst. München: Wilhelm Fink. 1999 Aesthetic Features in Digital Imaging. Collage and Morph. In: Wide Angle, Bd. 21, Nr. 1. Stacey, Jackie 1994 Star Gazing. Hollywood Cinema and Female Spectatorship. London; New York: Routledge. Stafford, Barbara Maria 1991 Body Criticism. Imaging the Unseen in Enlightenment, Art and Medicine. Cam- bridge, Mass.: MIT Press. 1994 Artful Science. Enlightenment, Entertainment and the Eclipse of Visual Education. Cambridge, MA: MIT Press. Stalf, Stefanie 2004 Von Heuschrecken und Pixeln. Was haben Visual Effects mit Wahrnehmungs- psychologie zu tun. In: Peter C. Slansky (Hg.): Digitaler Film – digitales Kino. Konstanz: VK-Verlagsgesellschaft. Stam, Robert; Burgoyne, Robert; Flitterman, Sandy 1992 New Vocabularies in Film Semiotics. Structuralism, Poststructuralism and Beyond. London: Routledge. Stewart, Garrett 1985 The «Videology» of Science Fiction Film. In: George Slusser und Eric S. Rab- kin (Hg.): Shadows of the Magic Lamp. Fantasy and Science Fiction in Film. Car- bondale: Southern Illinois University Press. Stiglegger, Marcus 2001 Zwischen Konstruktion und Transzendenz. Versuch einer filmischen An- thropologie des Körpers. In: Margrit Frölich et al. (Hg.): No Body is Perfect. Körperbilder im Kino. Marburg: Schüren. 498 Literaturverzeichnis Stone, Maureen C. 2003 A Field Guide to Digital Color. Natick, Mass.: AK Peters. Sturman, David J. 1994 A Brief History of Motion Capture for Computer Character Animation (= http:// www.siggraph.org/education/materials/HyperGraph/animation/charac- ter_animation/motion_capture/history1.htm). Suter, Urs 1996 Cyborgs können nicht weinen. Zur empathischen Partizipation mit Cyborg-Figuren in Terminator 2 (= Lizentiatsarbeit der Philosophischen Fakultät I der Univer- sität Zürich). Taekke, Jesper 2002 Cyberspace as a Space Parallel to Geographical Space. In: Lars Qvortrup (Hg.): Virtual Space. Spatiality in Virtual Inhabited 3D Worlds. London: Springer. Tan, Ed S. 1996 Emotion and the Structure of Narrative Film. Film as an Emotion Machine. Mahwah, NJ: Lawrence Erlbaum. Taylor, Dayton 1996 Virtual Camera Movement. The Way of the Future? In: American Cinematogra- pher, September 1996. Taylor, Henry M.; Tröhler, Margrit 1999 Zu ein paar Facetten der menschlichen Figur im Spielfilm. In: Heinz B. Heller et al. (Hg.): Der Körper im Bild. Schauspielen – Darstellen – Erscheinen. Marburg: Schüren. Terzopoulos, Demetri 1999 Artificial Life for Computer Graphics. In: Communications of the ACM, Bd. 42, Nr. 8, August 1999. Tesson, Charles 2000 Eloge de l’impureté. In: Cahiers du cinéma, Hors-série, April 2000. Thompson, Anne 2005 F/X Gods. In: Wired, Nr. 13, Februar 2005. Thompson, Kristin 1988 Breaking the Glass Armor. Neoformalist Film Analysis. Princeton: Princeton Uni- versity Press. 1999 Storytelling in the New Hollywood. Understanding Classical Narrative Technique. Cambridge, Mass.: Harvard University Press. Thompson, Kristin; Bordwell, David 1993 Film Art. An Introduction. New York: Knopf, 2004. Thomson, Patricia 2001 Horror in Hi-Def. In: American Cinematographer, April 2001. Thoret, Jean-Baptiste 2001 «Le Monde entier est ma cachette.» De quelques avantages d’être invisible … In: Réjane Hamus-Vallée (Hg.): Du Trucage aux effets spéciaux. Condé-sur-Noi- reau: Ed. Corlet. Literaturverzeichnis 499 Todorov, Tzvetan 1970 Introduction à la littérature fantastique. Paris: Edition du Seuil. Tröhler, Margrit 2002 Von Weltenkonstellationen und Textgebäuden. In: montage/av, Nr. 11:2. 2007 Offene Welten ohne Helden. Marburg: Schüren (= Zürcher Filmstudien, Bd. 15). Turim, Maureen 1999 Artisanal Prefigurations of the Digital. Animating Realities, Collage Effects, and Theories of Image Manipulation. In: Yvonne Spielmann und Gundolf Winter (Hg.): Bild – Medium – Kunst. München: Wilhelm Fink. Uhl, Matthias 2004 Ist Denken digital? In: Alexander Böhnke und Jens Schröter (Hg.): Analog/ Digital – Opposition oder Kontinuum? Beiträge zu Theorie und Geschichte einer Unterscheidung. Bielefeld: Transcript. Vertov, Dziga 1923 Kinoki – Umsturz. In: Franz-Josef Albersmeier (Hg.): Texte zur Theorie des Kinos. Stuttgart: Reclam, 1979. Virilio, Paul 1986 Krieg und Kino. München: Hanser. 1993 Revolutionen der Geschwindigkeit. Berlin: Merve. Visarius, Karsten 2001 Die vertauschten Köpfe. In: Margrit Frölich et al. (Hg.): No Body is Perfect. Körperbilder im Kino. Marburg: Schüren. Waldenfels, Bernhard 1994 Ordnungen des Sichtbaren. In: Gottfried Boehm (Hg.): Was ist ein Bild? Mün- chen: Fink. 1998 Experimente mit der Wirklichkeit. In: Sybille Krämer (Hg.): Medien, Compu- ter, Realität. Wirklichkeitsvorstellungen und neue Medien. Frankfurt a. M.: Suhr- kamp. Warnke, Martin 2004 Kunst aus der Maschine. Informationsästhetik, Virtualität und Interaktivität, Di- gital Communities (= http://kulturinformatik.uni-lueneburg.de/warnke/ Kunst_aus_der_Maschine.pdf). Watt, Alan H. 1989 Fundamentals of Three-Dimensional Computer Graphics. Reading: Addison-Wesley. 2002 3D-Computergrafik. München: Addison-Wesley, Pearson Studium. Webers, Johannes 1993 Handbuch der Film- und Videotechnik. Die Aufnahme, Speicherung, Bearbeitung und Wiedergabe audiovisueller Programme. München: Franzis. Weibel, Peter 1999 Endo-Universen von Simulacron III bis Matrix (= http://container.zkm.de/ netcondition/matrix/weibel.html). 500 Literaturverzeichnis 2003 Expanded Cinema. Video and Virtual Environments. In: Jeffrey Shaw und Peter Weibel (Hg.): Future Cinema. Cambridge, Mass.; London: MIT Press. Weingarten, Susanne 2004 Bodies of evidence. Geschlechtsrepräsentationen von Hollywood-Stars. Marburg: Schüren. Welsch, Wolfgang 1998 «Wirklich». Bedeutungsvarianten – Modelle – Wirklichkeit und Virtualität. In: Sybille Krämer (Hg.): Medien, Computer, Realität. Wirklichkeitsvorstellungen und neue Medien. Frankfurt a. M.: Suhrkamp. Whitehurst, Andrew 2001 Depth Map Based Ambient Occlusion Lighting (= http://www.andrew-white- hurst.net/amb_occlude.html). Williams, Linda 1991 Film Bodies. Gender, Genre and Excess. In: Toby Miller und Robert Stam (Hg.): Film and Theory. An Anthology. Malden, Mass.; Oxford: Blackwell Pub- lishers Ltd. Williamson, Samuel J.; Cummins, Herman Z. 1983 Light and Color in Nature and Art. New York: Wiley. Willis, Holly 2005 New Digital Cinema. Reinventing the Moving Image. London: Wallflower Press. Wilson, George 1997 On Film Narrative and Narrative Meaning. In: Richard Allen und Murray Smith (Hg.): Philosophy and Film Theory. Oxford: Clarendon Press. Winckelmann, Johann Joachim 1754 Gedanken über die Nachahmung der griechischen Werke in der Malerei und Bildhauer-Kunst. 2. Auflage, 1756 (= http://gutenberg.spiegel.de/winckelm/ nachahm/). Winkler, Hartmut 1992 Der filmische Raum und der Zuschauer: «Apparatus» – Semantik – «Ideology». Heidelberg: Carl Winter Universitätsverlag. Winter, Gundolf 1999 Das Bild zwischen Medium und Kunst. In: Yvonne Spielmann und Gundolf Win- ter (Hg.): Bild – Medium – Kunst. München: Wilhelm Fink. Wolf, Mark J. P. 2000 Abstracting Reality. Art, Communication, and Cognition in the Digital Age. Lan- ham, MD: University Press of America. 2000 a) A Brief History of Morphing. In: Vivian Sobchack (Hg.): Meta-morphing. Visual Transformation and the Culture of Quick Change. Minneapolis: University of Min- nesota Press. Wulff, Hans J. 1990 Die Unnatürlichkeit der Filmfarben. Neue Überlegungen zur Signifikation und Dramaturgie der Farben im Film. In: European Journal for Semiotic Studies, Bd. 2, Nr. 1. Literaturverzeichnis 501 1999 Darstellen und Mitteilen. Elemente der Pragmasemiotik des Films. Tübingen: Gunter Narr. 2003 Empathie als Dimension des Filmverstehens. Ein Thesenpapier. In: montage/ av, Nr. 12: 1. Wuss, Peter 1993 Filmanalyse und Psychologie. Strukturen des Films im Wahrnehmungsprozess. Berlin: edition sigma (= Sigma Medienwissenschaft, Bd. 15). Wyatt, James 1994 High Concept. Movies and Marketing in Hollywood. Austin: University of Texas Press. Wyszecki, Günter; Stiles, Walter Stanley 2001 Color Science. New York: Wiley. Youngblood, Gene 2003 Cinema and the Code. In: Jeffrey Shaw und Peter Weibel (Hg.): Future Cine- ma. Cambridge, Mass.; London: MIT Press. Yu, Tin Tin; Lowther, John; Shene, Ching Kuang 2005 Photon Mapping Made Easy. In: ACM SIGCSE Bulletin, Bd. 37, Nr. 1. Zillmann, Dolf 1988 Mood Management. Using Entertainment to Full Advantage. In: Lewis Do- nohew, Howard E. Sypher und E. Tory Higgins (Hg.): Communication, Social Cognition, and Affect. Mahwah, NJ: Lawrence Erlbaum. Žižek, Slavoj 1999 The Matrix, Or, The Two Sides of Perversion (= http://container.zkm.de/net- condition/matrix/zizek.html). Zollinger, Heinrich 1999 Farbe. Eine multidisziplinäre Betrachtung. Zürich: Helvetica Chimica Acta, 2005. Zorin, Denis; Schröder, Peter (Hg.) 2000 Subdivision for Modeling and Animation. SIGGRAPH 2000, Course Notes. (= http://mrl.nyu.edu/publications/subdiv-course2000). Korpus (chronologisch nach Entstehungsjahr) Charcutérie mécanique (F 1895, Louis Hunger (Kanada 1974, Peter Foldes) Lumière) Futureworld (USA 1976, Richard The Enchanted Drawing (USA 1900, T. Heffron) J. Stuart Blackton) Cosmos (USA 1980, James Blinn) Fun in a Bakery Shop (USA 1902, Ed- Best of Imagina: Les plus belles win S. Porter) images de synthese du monde (di- Humorous Phases of Funny Faces verse Produktionsländer 1981, di- (USA 1906, J. Stuart Blackton) verse Regisseure) Teddy Bears (USA 1907, Edwin S. Porter) Blade Runner (USA 1982, Ridley Scott) Drame chez les fantoches (F 1908, Tron (USA 1982, Steven Lisberger) Emile Cohl) Zelig (USA 1983, Woody Allen) In the Land of Nod (USA 1909, Arthur Brainstorm (USA 1983, Douglas S. Cooper) Trumbull) Little Nemo (USA 1911, Winsor McCay) The Last Starfighter (USA 1984, Nick Mjest Kinooperatora (The Cam era- Castle) man’s Revenge, Russland 1912, La- Brilliance (USA 1985, Robert Abel) dislaw Starewicz) Young Sherlock Holmes (USA 1985, Bewitched Matches (USA 1913, Emile Barry Levinson) Cohl) Star Trek IV: The Voyage Home (USA Gertie the Dinosaur (USA 1914, Win- 1986, Leonard Nimoy) sor McCay) Flight of the Navigator (USA 1986, The Dinosaur and the Missing Link: Randal Kleiser) A Prehistoric Tragedy (USA 1915, Luxo Jr. (USA 1986, John Lasseter) Willis O’Brien) Who Framed Roger Rabbit? (USA The Sinking of the Lusitania (USA 1988, Robert Zemeckis) 1918, Winsor McCay) Willow (USA 1988, Ron Howard) Metropolis (D 1927, Fritz Lang) Red’s Dream (USA 1988, John Lasseter) The Mummy (USA 1932, Karl Freund) The Abyss (USA 1989, James Cameron) King Kong (USA 1933, Merian C. Co- Broken Heart (USA 1989, Joan Sta- oper; Ernest B. Schoedsack) veley) Invisible Man (USA 1933, James Whale) Delicatessen (F 1990, Jean-Pierre Jeu- Citizen Kane (USA 1941, Orson Welles) net; Marc Caro) Forbidden Planet (USA 1956, Fred Total Recall (USA 1990, Paul Verhoeven) M. Wilcox) Terminator 2 – Judgment Day (USA Jason and the Argonauts (USA 1963, 1991, James Cameron) Don Chaffey) Prospero’s Book (GB/F 1991, Peter Mary Poppins (USA 1964, Robert Ste- Greenaway) venson) Panspermia (USA 1991, Karl Sims) Fantastic Voyage (USA 1965, Richard Death Becomes Her (USA 1992, Ro- Fleischer) bert Zemeckis) 2001: A Space Odyssey (GB/USA 1968, The Lawnmower Man (USA 1992, Stanley Kubrick) Brett Leonard) Westworld (USA 1973, Michael Crich- Liquid Selves/Primordial Dance ton) (USA 1992, Karl Sims) Korpus 503 Jurassic Park (USA 1993, Steven Spiel- Enemy of the State (USA 1998, Tony Scott) berg) Blade (USA 1998, Stephen Norrington) In the Line of Fire (USA 1993, Wolf- Dark City (Australien/USA 1998, Alex gang Petersen) Proyas) Forrest Gump (USA 1994, Robert Ze- Star Trek: Insurrection (USA 1998, meckis) Jonathan Frakes) The Crow (USA 1994, Alex Proyas) The Truman Show (USA 1998, Peter Weir) The Mask (USA 1994, Chuck Russell) The Matrix (USA 1999, Andy und Interview With the Vampire (USA Larry Wachowski) 1994, Neil Jordan) The Green Mile (USA 1999, Frank Da- Disclosure (USA 1994, Barry Levinson) rabont) The Hudsucker Proxy (USA 1994, Joel Saving Private Ryan (USA 1999, Ste- und Ethan Coen) ven Spielberg) Star Trek: Generations (USA 1994, The Mummy (USA 1999, Stephen Som- David Carson) mers) La Cité des enfants perdus (F 1995, Fight Club (USA 1999, David Fincher) Marc Caro; Jean-Pierre Jeunet) Wild Wild West (USA 1999, Barry Son- Twelve Monkeys (USA 1995, Terry Gil- nenfeld) liam) Sleepy Hollow (USA 1999, Tim Burton) Johnny Mnemonic (USA 1995, Robert Notting Hill (USA/GB 1999, Roger Longo) Michell) Casper (USA 1995, Brad Silberling) eXistenZ (Kanada/GB/F 1999, David Strange Days (USA 1995, Kathryn Bi- Cronenberg) gelow) American Beauty (USA 1999, Sam Judge Dredd (USA 1995, Danny Cannon) Mendes) Outbreak (USA 1995, Wolfgang Petersen) Magnolia (USA 1999, Paul Thomas Species (USA 1995, Roger Donaldson) Anderson) Toy Story (USA 1995, John Lasseter) Bunny (USA 1999, Chris Wedge) Virtuosity (USA 1995, Brett Leonard) The Thirteenth Floor (D/USA 1999, Dragonheart (USA 1996, Rob Cohen) Josef Rusnak) Mission: Impossible (USA 1996, Brian Being John Malkovich (USA 1999, de Palma) Spike Jonze) Multiplicity (USA 1996, Harold Ramis) Gladiator (USA 2000, Ridley Scott) Star Trek: First Contact (USA 1996, Hollow Man (USA 2000, Paul Verhoe- Jonathan Frakes) ven) Trainspotting (GB 1996, Danny Boyle) The Perfect Storm (USA 2000, Wolf- Sphere (USA 1997, Barry Levinson) gang Petersen) Titanic (USA 1997, James Cameron) O Brother Where Art Thou? (USA Gattaca (USA 1997, Andrew Niccol) 2000, Joel Coen) Alien Resurrection (USA 1997, Jean- X-Men (USA 2000, Bryan Singer) Pierre Jeunet) The Cell (USA 2000, Tarsem Singh) The Fifth Element (F/USA 1997, Luc Sexy Beast (GB/Sp 2000, Jonathan Glazer) Besson) Maaz (F 2000, Christian Volckman) Wag the Dog (USA 1997, Barry Levinson) Le Processus (F 2000, Xavier de l’Her- Cube (Kanada 1997, Vincenzo Natali) muzière; Philippe Grammaticopou- Face/Off (USA 1997, John Woo) los) The Big Lebowski (USA 1998, Joel Coen) A. I. – Artificial Intelligence (USA What Dreams May Come (USA 1998, 2001, Steven Spielberg) Vincent Ward) A Beautiful Mind (USA 2001, Ron Ho- Lola rennt (D 1998, Tom Tykwer) ward) 504 Korpus Le fabuleux destin d’Amélie Pou- Big Fish (USA 2003, Tim Burton) lain (F/D 2001, Jean- Pierre Jeunet) Down With Love (USA 2003, Peyton Moulin Rouge! (USA/Australien Reed) 2001, Baz Luhrmann) Animatrix (USA 2003, Peter Chung; Tomb Raider (USA 2001, Simon West) Andy Jones; Yoshiaki Kawajiri; Ta- Final Fantasy (USA/Japan 2001, keshi Koike; Mahiro Maeda; Kôji Hironobu Sakaguchi et al.) Morimoto; Shinichirô Watanabe) Swordfish (USA 2001, Dominic Sena) Master and Commander (USA 2003, The Others (USA/F/Sp 2001, Aleja- Peter Weir) ndro Amenábar) Dogville (Dänemark/Schweden 2003, The Lord of the Rings: The Fellows- Lars von Trier) hip of the Ring (NZ/USA 2001, Finding Nemo (USA 2003, Andrew Peter Jackson) Stanton, Lee Unkrich) Shrek (USA 2001, Andrew Adamson; Pirates of the Caribbean (USA 2003, Vicky Jenson; Scott Marshall) Gore Verbinski) Le Pacte des loups (F 2001, Christophe The Day After Tomorrow (USA 2004, Gans) Roland Emmerich) Avalon (Japan/Polen 2001, Mamoru Oshii) Eternal Sunshine of the Spotless The Man Who Wasn’t There (USA Mind (USA 2004, Michel Gondry) 2001, Joel Coen) I, Robot (USA 2004, Alex Proyas) Minority Report (USA 2002, Steven Harry Potter and the Prisoner of Spielberg) Azkaban (GB/USA 2004, Alfonso Resident Evil (GB/D/F/USA 2002, Cuaron) Paul W. S. Anderson) Sky Captain and the World of To- Spider-Man (USA 2002, Sam Raimi) morrow (USA 2004, Kerry Conran) Solaris (USA 2002, Steven Soderbergh) Virtual History – The Secret Plot to XXX (USA 2002, Rob Cohen) Kill Hitler (GB 2004, David McNab) The Lord of the Rings: The Two To- Spider-Man 2 (USA 2004, Sam Raimi) wers (NZ/USA 2002, Peter Jackson) The Polar Express (USA 2004, Robert Adaptation (USA 2002, Spike Jonze) Zemeckis) Star Trek Nemesis (USA 2002, Stuart Ryan (Kanada 2004, Chris Landreth) Baird) 2046 (China/F/D/Hongkong 2004, S1m0ne (USA 2002, Andrew Niccol) Wong Kar-wai) The Ring (USA 2002, Gore Verbinski) Lemony Snicket’s A Series of Unfor- Cidade de deus (Brasilien 2002, Fer- tunate Events (USA 2004, Brad nando Meirelles; Katia Lund) Silberling) Tim Tom (F 2002, Christel Pougeoise; The Incredibles (USA 2004, Brad Bird) Romain Segaud) Casshern (Japan 2004, Kazuaki Kiriya) Come Into My World (F 2002, Michel Immortel (ad Vitam) (F/I/GB 2004, Gondry) Enki Bilal) The Lord of the Rings: The Return of The Terminal (USA 2004, Steven Spiel- the King (NZ/USA 2003, Peter Jack- berg) son) Terra Incognita (CH 2004, Peter Matrix Reloaded (USA 2003, Andy Volkart) und Larry Wachowski) King Kong (NZ 2005, Peter Jackson) Matrix Revolutions (USA 2003, Andy Sin City (USA 2005, Frank Miller; Ro- und Larry Wachowski) bert Rodriguez) Hulk (USA 2003, Ang Lee) Charlie and the Chocolate Factory Daredevil (USA 2003, Mark Steven (USA 2005, Tim Burton) Johnson) United 93 (USA 2006, Paul Greengrass) Glossar und Index 2.5D Positionierung von ebenen oder ge- Objekts, die nicht obligatorisch sind krümmten Flächen in die Tiefe des drei- → 322, 325 dimensionalen Raums → 103, 206, 223 ff., 230, 271 f., 292, 431 Algorithmus, pl. Algorithmen operative Vorschrift zur Lösung eines 2D (mathematischen) Problems zweidimensionale, also flächige Com- → 65 ff., 92 f., 132, 167 f., 172, 180, 182, puterbilder 267, 291, 312, 317, 321, 327 f., 435 → 31, 81, 88, 107, 113, 271, 423 Aliasing 3D treppenartiges → Artefakt, das insbe- dreidimensional computermodellierte sondere bei diagonalen Bildelementen Szenen sichtbar wird; resultiert aus der starren → 56 ff., 70 ff., 93, 107 f., 114 ff., 156, 237 f., Anordnung der Pixel in gitterförmigen 247 f., 249, 267, 271, 274, 291, 316, 320, Rasterstrukturen 423, 437 → 46, 183 3D-Scanning ALife Laserabtastung eines Objekts zur Auf- → Artificial Life zeichnung von Oberflächeninformatio- nen in 3D Alpha-Kanal → 62 ff., 75 f., 81, 291, 309, 431, 438, 441 bestimmt die Transparenz von com- putergenerierten Bildern durch Grau- Abstraktion werte. Dabei entspricht Weiß mit dem Vereinfachung von Objekten zur Ana- Faktor 1 voller Opazität, Schwarz mit lyse oder bildnerischen Darstellung dem Faktor 0 voller Transparenz. durch Selektion einzelner Merkmale → 99, 158, 211, 221 ff., 228 → 38, 299 f., 310, 312, 315 f., 320, 323 ff., 329 f., 344, 363 Ambient Occlusion Map bilden den Schattenwurf der Objekte auf Abtastung (sampling) sich selber in Umgebungslicht nach und entnimmt den zu verarbeitenden Daten lassen sie damit plastischer erscheinen zeitlich und örtlich in Intervallen Stichpro- → 157 ben, und zwar entweder mit einer Probe (sample) pro Pixel, mit mehreren Proben Animatronic pro Pixel (oversampling) oder mit weniger elektronisch gesteuerte Puppe als einem Sample pro Pixel (subsampling) → 24, 251 f., 365 → 36, 64, 165 f., 181, 183 ff., 188 anisotrop äquidistant anisotrope Oberflächen reflektieren das gleich weit voneinander entfernt Licht in unterschiedliche Richtungen → 49, 191, 395 verschieden; man kennt diesen Effekt von gebürsteten Metallen, von Samt akzidentielle Merkmale oder von glattem Haar. charakterisieren Eigenschaften eines → 92, 98, 167 506 Glossar und Index Anti-Aliasing Banding Reduktion des Treppeneffekts (→ Alia- digitales → Artefakt, wandelt feine sing) kontinuierliche Verläufe von Farb- oder → 46 Helligkeitsnuancen in sichtbare Stufen → 46 Artefakt Bildfehler, der durch materielle Eigen- Belichtungskeil (wedge) schaften von Kamera oder Trägermate- Aufnahmetest, mit dem man systema- rial sowie durch Fehler in der elektroni- tisch unterschiedliche Beleuchtungs- schen oder digitalen Prozessierung von und Blendenstufen erfasst, um für das Bilddaten entstehen kann. Compositing passende Parameter zu → 36, 46 f., 76, 160, 181, 184, 195, 262, bestimmen 334 ff., 396 → 259, 262 Artificial Life (künstliches Leben) integriert Ansätze aus der Informatik Bidirectional Reflectance Distribution mit biologischen Modellen, um auto- Function nome Agenten zu erzeugen kurz BRDF, beschreibt die lokalen Licht- → 69, 131, 139 f., 292, 317, 431, 434 effekte → Diffusion und → Reflexion modellhaft mit dem Einfalls- sowie Aufhellung (fill light) dem Ausfallswinkel in einer Halbkugel. dient der Minderung des Kontrasts BRDFs einzelner Materialien lassen sich zwischen beleuchteten und im Schatten auch messen. liegenden Bildteilen und vermindert → 90 ff., 96 ff., 101, 292 allzu harte Kontraste → 159 f., 189, 231, 241 bildbasierte Beleuchtung (image-ba- sed lighting) Aufhellung (bounce light) ein Verfahren, bei welchem die Be- Neben der Aufhellung, die seitlich an- leuchtung aus der Fotografie einer re- geordnet ist, können in computergene- alen Umgebung abgetastet und in die rierten Szenen auch Lichtquellen unter computergenerierte Szene importiert dem Boden installiert werden, um die wird Szenerie von unten aufzuhellen. → 76, 164 ff., 291, 309, 438 → 159 Aufzeichnung (recording) bildbasiertes Modellieren technischer Übersetzungsprozess einer Rekonstruktion von Objekten und be- physikalischen Ausgangsstruktur an- sonders Gebäuden im dreidimensiona- hand eines mehr oder weniger expli- len Datenraum mittels fotografischer ziten Protokolls. Es wird also eine im Aufzeichnungen Wesentlichen indexikalische Beziehung → 59, 70 ff., 75 ff., 80, 85, 164, 291, 296, zwischen dem Gegenstand und der Ab- 307 f., 311, 349, 383, 423, 438, 440 f., 451 bildung angenommen. → 32, 34, 48, 70 f., 75, 126, 145 ff., 166, binär 170, 191, 203, 212, 289 ff., 292 ff., 334 ff., durch zwei Werte (in der Regel 0 und 357 f., 371, 379, 431, 436, 438 f., 449 f. 1) codiert → 31, 33 ff., 40, 47, 50, 191, 204 Backward-Raytracing spezielle Form des → Raytracing, die Bit ihren Ursprung bei den einzelnen Licht- Abkürzung von binary digit; kleinste quellen nimmt Einheit einer digitalen Information → 180 → 35, 37, 221 Glossar und Index 507 Blackbody Radiation Bullet Time Strahlung eines schwarzen Körpers → Frozen Moment → 173 → 73, 76, 237, 349, 472 Blend Shape Bump Maps → Morph Target Im Gegensatz zu → Displacement Maps simulieren Bump Maps kleinräumige Blobbies Variationen von Oberflächen, ohne die implizite, das heißt als dreidimensio- Geometrie zu verändern. nale Konturen generierte Oberflächen, → 65, 85 ff., 441 die man sich wie Quecksilbertropfen vorstellen kann, die zusammenlaufen, Byte wenn sie sich nahe genug beieinander besteht aus mehreren → Bits, zum Bei- finden spiel aus 8 Bits → 61 → 35 Bluescreen Cable Cam monochrom blau eingefärbter Hinter- an einem Draht befestigte Kamera, die grund, der sich in einem → Matting- sich sehr schnell wie eine Luftseilbahn Verfahren optisch, elektronisch oder di- vorwärts bewegen und damit flugähn- gi tal entfernen lässt liche Bewegungen erzeugen kann → 24, 150, 195, 206, 210, 213, 215 ff., → 382 227 f., 235, 237 ff., 253, 255, 259, 262, 270, 273 f., 351 CAD Abkürzung von → Computer Aided Boids Design Abkürzung von Bird Objects; einzelne Objekte im → Flocking-System von CCD (charge-coupled device) Craig Reynolds Bildsensor für die digitale Aufnahme → 137 f. → 62 Bokeh Cel Animation Eigenschaft fotografischer Unschärfe. → Folienanimation Gutes Bokeh zeichnet sich dadurch aus, dass die Zerstreuungskreise, auf wel- CG che das Objektiv Punkte im unschar- Abkürzung von Computergrafik fen Bildbereich projiziert, ihre größte Dichte im Zentrum haben und nach au- CGI ßen hin unscharf verlaufen Abkürzung von → Computer Genera- → 267 f. ted Imagery Boolesche Operationen Character Animation logische Verknüpfungen nach George Animation von Figuren Boole (1815–1864) → 124 ff. → 34, 57, 215, 329 Chatter BRDF leichte Verschiebung von Vordergrund Abkürzung von → Bidirectional Reflec- und Hintergrund im Compositing tance Distribution Function → 220 508 Glossar und Index Children Blauauszugs zu einer Maske auf einem untere Stufen in einer → Skeletthierarchie Film mit steiler Gradation (high contrast → 122 film) kombiniert → 210 f. Chroma Keying Erstellen einer → Wandermaske, die Comic Relief auf Farbunterschieden basiert kurze Momente der Komik, die der Ent- → 212 spannung dienen → 454 Chromatic Aberration optische Verschiebung der Farbanteile Compositing durch das Objektiv Kombination von mehreren Bildteilen → 170 zu einem Ganzen oder zu heterogen zu- sammengesetzten Bildern ähnlich der Cinematics Collage oder Fotomontage kleine vorgefertigte Filme in Computer- → 16, 24 f., 27, 31 f., 34, 37, 47, 49, 102, spielen 104, 143, 163, 171, 190, 191–274, 301 ff., → 33 344, 352, 358, 364, 367, 381 f., 394 f., 399, 436, 453 Clean Pass Aufnahmedurchgang ohne Schauspie- Computer Aided Design (CAD) ler mit der Motion-Control-Kamera computergestütztes Erstellen von archi- → 221, 243, 453 tektonischen Plänen oder Aufrissen zur Produktion von Objekten, die sich meist Clipping auch dreidimensional darstellen lassen scharfe Begrenzung → 54 → 35 Computer Generated Imagery (CGI) Color Bleeding digitale Verfahren der Bilderzeugung, → Farbremission sogenannt computergenerierte Bilder → 24 f., 31, 65, 92, 97, 114, 118, 134, 160, Color Correction 198, 259, 262, 273, 346, 363 f., 471 auch Color Grading genannt → Farb- korrektur Computer Graphics → Computergrafik Color Difference ein Bluescreen-Prozess zur Herstellung Computergrafik von → Wandermasken. Im Vergleich bezeichnet im Gegensatz zu → Compu- zum → Color-Separation-Verfahren ist ter Generated Imagery eher das histo- Color Difference wesentlich ausgefeil- risch frühere Feld der zweidimensiona- ter, erlaubt die Wiedergabe von feinen len Computerbilder Details, transparenten Objekten und → 25, 34, 54, 59, 78 f., 88, 93, 95 ff., 99, Reflexionen und erfordert darüber hi- 116, 154, 156 ff., 165, 170, 174, 179, 181, naus weniger Generationen. 184, 187, 222, 269, 314 ff., 368, 360, 363, → 211 422, 424, 426, 454, 468 Color Separation Computer Vision ein Bluescreen-Prozess zur Herstellung computergestützte Verfahren der Bild- von Wandermasken, der das Positiv ei- erkennung nes Rotauszugs mit dem Negativ eines → 140, 246 Glossar und Index 509 Cook-Torrance-Shading adressieren, wie beispielsweise in der ein → Shading-Modell, das spiegelnd Datenbank-Suche. reflektierende → Mikrofacetten auf der → 49 f., 191, 333, 394, 416 Oberfläche beschreibt → 96 diskret getrennt; so entsprechen die Werte digi- Cookie taler Daten genau definierten Stufen, flächige Schablone – in der realen Welt zwischen denen es keinen kontinuierli- aus Metall – mit ausgestanzten Mus- chen Übergang gibt. tern, die man vor die Lichtquelle stellen → 31, 34 f., 38 ff., 169, 173, 222, 322, 346, kann. Ihre Transparenz lässt sich durch 374, 446 den → Alpha-Kanal verändern, und man kann sie mit Farben oder Farb- Dispersion mustern versehen. wellenlängenabhängige Änderung des → 158 Brechungsindex → 174 Crowd Animation Animation von Menschenmassen; ko- Displacement Map ordiniert das Verhalten der in Daten- beschreibt mittels Grauwerten geome- banken abgelegten Agenten mit intelli- trisch kleinräumige Variationen von genten prozeduralen Verfahren, die an Oberflächen wie Hautporen oder Holz- die → ALife-Techniken anschließen maserungen → 132, 139, 248, 417, 431, 472 → 85 ff., 441 Crowd Replication Drahtgittermodell (wire frame) Vervielfachung von Menschengruppen entsteht durch Verknüpfung von → Po- durch → Compositing lygonfeldern → 431 → 52, 54, 56 f., 74, 405, 407, 425 Difference Matting Dynamik flexibler Körper (soft body Extraktion einer → Wandermaske durch dynamics) Subtraktion eines Bilds ohne Objekt von Unterkategorie der → physikalisch-ba- einem identischen Bild, welches das sierten Animation. Paradebeispiel für Objekt enthält. Es handelt sich dabei um die Dynamik flexibler Körper ist ein ein ausschließlich digitales Verfahren. weicher Ball. → 212 → 131, 141 f., 292 diffundieren Dynamik starrer Körper (rigid body streuen dynamics) → 95 Unterkategorie der → physikalisch-ba- sierten Animation, mit welcher sich Diffusion die Bewegungen in Abhängigkeit von Streuung von Licht an Partikeln wie Masse und Gravitation und das Kol- Wassertröpfchen oder Staub in der Luft lisionsverhalten von starren Körpern → 88, 90, 95 ff., 101 f., 156 ff., 166, 182, berechnen lassen 188, 262, 267, 269, 345, 350 f., 393 → 141, 292, 444 Direktzugriff (random access) Eckpunkt (vertex, pl. vertices) Durch ihre mathematisch definierte wird durch die Werte x, y, z im Koordi- Form lassen sich digitale Daten direkt natensystem beschrieben und definiert 510 Glossar und Index die Koordinaten von Linien oder Poly- Fall-off gonen im dreidimensionalen Raum ein Koeffizient, welcher die Intensitäts- → 56, 59 ff., 94 abnahme von Licht in Relation zur Dis- tanz beschreibt elektromagnetische Optik → 157 beinhaltet die → Wellenoptik und er- klärt darüber hinaus → Polarisation Farbkorrektur und → Dispersion Anpassung oder künstlerisch moti- → 174 vierte Veränderung der Filmfarben in der Postproduktion Empathie → 211, 219, 264 f., 343 Einfühlung der Zuschauer in die darge- stellten Figuren Farbremission (color bleeding) → 118, 436, 453, 466 Farbabstrahlung von diffusen farbigen Flächen auf die Umgebung. Endeffektor → 158, 178, 183, 185 f., 188 Endglied einer → Skeletthierarchie → 123 Filmkörper im Film dargestellter Körper im Unter- Enunziationsmarkierung schied zum realen Schauspielerkörper Begriff von Christian Metz (1991) für di - → 434 rekte kommunikative Eingriffe der Er- zählinstanz Filtern → 28 definiert die örtliche und zeitliche Ver- teilung des → Abtastens und bestimmt, Environment Map welche Ausschnitte aus dem zeitlichen in der Regel halbkugelförmig über die und örtlichen Datenfluss welchen Stich- 3D-Szene gespanntes Bild, das die Hin- proben zugeführt werden, um Zufalls- tergrundinformation enthält, aus wel- artefakte, also Bildfehler, zu vermeiden cher entweder Lichtwerte oder Reflexi- → 24, 36, 183 onen entnommen werden können → 165 Flächenlicht entsteht, wenn Punktlichtern eine Aus- extrinsische Parameter dehnung zugeordnet wird mit Formen erfassen Position und Ausrichtung der wie Kugeln, Zylindern oder Kuben Kamera → 157 f., 176 → 169 f. Flocking-System Face Replacement prozedurales System zur Animation Ersetzen des Gesichts durch digitale von Schwärmen, das von Annahmen Retusche über das Verhalten der einzelnen Mit- → 218 f. glieder eines Schwarms ausgeht → 124, 136 ff., 292, 320 f. Facial Action Coding System (FACS) System zur Beschreibung des emotio- Flüssigkeitsanimation (fluid dynam ics) nalen Ausdrucks auf dem menschli- Unterkategorie der physikalisch-basier- chen Gesicht; beruht auf der Analyse ten Animation. Mit der Flüssigkeitsani- des Gesichtsausdrucks anhand der da- mation lassen sich Materialien wie Was- runter liegenden Muskelstruktur ser, Blut, Bier, Öl oder Lava animieren. → 319, 446 f. → 141 f., 292 Glossar und Index 511 Fluid Dynamics Frontprojektion (Frontpro) → Flüssigkeitsanimation Projektion von bewegten Hintergrund- aufnahmen über einen halb durchlässi- Flying Logo gen Spiegel auf eine speziell beschich- animiertes Logo von Firmen oder Titeln tete, stark reflektierende Leinwand von Fernsehsendungen, wie sie Ende → 24, 199, 207 der 1970er-Jahre aufkamen → 114 f., 471 Frozen Moment auch Time-Slice-Fotografie genannt: Auf- Folienanimation (cel animation) zeichung von einzelnen Momenten Spielform der Zeichenanimation, bei durch eine Anordnung von mehreren welcher die einzelnen Elemente (Figu- Fotoapparaten mit dem Effekt, dass sich ren, Objekte und Hintergrundelemente) der Betrachtungswinkel ändert, wäh- getrennt auf einzelne Folien gezeichnet rend der abgebildete Gegenstand wie werden eingefroren, also starr erscheint. Mit The → 205, 273 Matrix wurde dieser Effekt populär. Er wurde dort als → Bullet Time bezeichnet. Forward Kinematik → 73, 472 Bei Forward Kinematik arbeitet der Ani- mator die → Skeletthierarchie hinunter, Fuzzy Logic bewegt also zuerst die oberen Stufen der ein logisches System, das im Unter- Hierarchie, um dann die unteren Stufen schied zur Booleschen Konzeption anzupassen, beispielsweise zuerst den nicht nur die Zustände ‹wahr› oder Oberarm, dann den Unterarm, dann die ‹falsch› verarbeitet, sondern auch Zwi- Hand und schließlich die Fingerglieder. schenwerte, die Aussagen wie ‹unge- → 123, 437 fähr› oder ‹ein bisschen› entsprechen → 131 f., 329 fraktale Geometrie System zur mathematischen Beschrei- Gaußsche Diffusion bung von komplexen organisch wirken- Diffusion mittels der → Gaußschen den Gebilden Norm alverteilung → 65 f., 87 f., 116, 317, 328, 435 → 166 Free-form Surfaces Gaußsche Normalverteilung Oberflächen, die durch gekrümmte, ma- auch Gaußsche Glockenkurve genannt, thematisch definierte Kurven beschrieben beschreibt eine symmetrische, glocken- werden wie der berühmte → Utah Teapot förmige Verteilung von statistischen → 56, 58 Werten um einen Mittelwert → 66, 96, 267 Fresnel-Effekt Nach dem französischen Physiker Gegenlicht (back light) Augus tin-Jean Fresnel (1788–1827) be- wird hinter den Objekten positioniert, nannte Erscheinung, welche eine Zu- um mit einem Spitzlicht die Konturen nahme der Spiegelung in Abhängigkeit zu betonen des Betrachtungswinkels beschreibt. → 159, 229 f., 241 Schaut man senkrecht auf Glas oder Wasser, so wirkt es durchsichtig; mit zu- geistiges Auge (the mind’s eye) nehmend flacherem Betrachtungswin- Darstellungsform von Gedanken einer kel setzt eine spiegelnde Reflexion ein. Figur, oftmals in Form eines → Rides → 100 → 74, 130, 379, 383 f., 387, 390, 393 512 Glossar und Index geometrische Optik Gouraud-Shading → Strahlenoptik ein → Shading-Modell, das matt reflek- tierende Oberflächen mittels linearer gerichtetes Licht Interpolation zwischen den Oberflä- sehr weit entfernte Lichtquelle wie die chennormalen beschreibt. 1971 von Sonne, deren Strahlen parallel verlau- Henri Gouraud entwickelt. fen → 93, 95, 423 → 158 Graph Editor Glanz-Map Werkzeug zur Bestimmung von Bewe- definiert die Verteilung von glänzenden gungsabläufen in Computeranimation und diffusen Partien auf Oberflächen → 121, 127 → 98 Graphical User Interface (GUI) Glanzreflexion Standardoberfläche auf Computern, Reflexion mit einem weißen Glanz- auf denen sich grafische Symbole für punkt, wie sie auf Plastikoberflächen Ordner, Dateien, Programme anklicken oder glänzendem Lack zu beobachten und die Inhalte in Fenstern darstellen ist lassen → 94 → 53 f., 192, 329 Glasvorsatz Greenscreen enthält auf Glas gemalte Bildteile, die monochrom grün eingefärbter Hinter- vor die agierenden Schauspieler und grund, der sich in einem → Matting- die vorhandenen Set- oder Landschafts- Verfahren optisch, elektronisch oder di- teile platziert werden git al entfernen lässt → 23, 199, 201, 306 → 24, 76 f., 150, 206, 213, 215, 218, 228, 230, 235, 273 globale Beleuchtung Modell der Lichtausbreitung inklusive GUI Interaktionen mit weiteren Szenen- Abkürzung von → Graphical User In- elementen und Volumina, umfasst also terface auch diffuse und gespiegelte → Refle- xionen sowie → Farbremission und → Hauptlicht (key light) Kaustik Lichtquelle, welche den Schattenwurf → 157, 158, 177 ff., 185 f. in einer Szene bestimmt → 159 f. Go-Motion-Animation Variation der → Stop-Motion-Anima- HD tion, bei welcher die Objekte während Abkürzung von → High Definition der Aufnahme leicht bewegt werden, damit ein → Motion Blur entsteht HDCam → 111, 198, 346 digitale Kamera, die Bilder in hoher Auf- lösung produziert → High Definition Gobo → 75 → Cookie HDR-Bilder (high dynamic range goniometrisch images) die Winkelfunktion betreffend erfassen einen größeren Dynamikum- → 175 fang, welcher natürlichen Lichtsitua- Glossar und Index 513 tionen besser gerecht wird, indem sie Interferenz eine Serie von Aufnahmen, die entwe- Überlagerung zweier Wellen der mit unterschiedlicher Belichtungs- zeit, unterschiedlichen Blenden oder → Intermedialität ND-Filtern belichtet werden, enthalten Austausch zwischen verschiedenen → 164 ff., 262 medialen Darstellungsformen → 399 High Definition Abkürzung HD: hochaufgelöstes digi- intrinsische Parameter tales Bild mit mindestens 1440, meist beschreiben interne Abbildungseigen- 1920 horizontalen Bildpunkten schaften der Kamera und damit ein- → 140, 266 hergehend fakultative Parameter, bei- spielsweise die Verzerrung, die Schär- High-Key fentiefe oder den → Motion Blur Beleuchtungsstil, der sehr hell und luxu- → 169 f., 334 riös wirkt → 160 Inverse Kinematik beginnt bei der untersten Stufe der → Hypermediacy Skeletthierarchie, dem sogenannten selbstbewusst präsentationaler Modus Endeffektor, beispielsweise dem Fuß. der Darstellung, der ihre Gemachtheit Voraussetzung für funktionierende In - betont (nach Bolter/Grusin 1999) verse Kinematik ist ein perfektes Ske- → 197, 363, 401 lett, das die Bewegungen in anatomisch sinnvoller Weise umsetzt Image Based Modelling → 123, 437 → bildbasiertes Modellieren Jitter Image Processing (Bildbearbeitung) Zittern der Umrisslinien, das beim → die Veränderung von Bildern mittels Rotoskopieren entstehen kann Filtern oder komplexeren Programmen → 220 → 24, 31 f., 49 Kabeltechnik (wire work) implizites bildbasiertes Modellieren Bühnentechnik, bei welcher die Schau- Variante des → bildbasierten Modellie- spieler von Drähten gehalten werden, rens, bei welcher die Geometrie ledig- um übermenschliche Sprünge oder lich aus den fotografischen Aufzeich- Drehungen auszuführen nungen berechnet wird → 24, 220 f. Impossible Shot Kalibrierung Einstellung aus einer Position, die keine Anpassung verschiedener Systeme an Kamera einnehmen könnte, wie aus einen gemeinsamen Standard, beispiels- dem Kühlschrank oder dem brennen- weise der Farbaufnahme und -wied er - den Kamin gabe → 383 → 258 f., 262 In-Betweening Kamera-Mapping Animation der Phasen zwischen den Applikation einer → Texture Map aus Schlüsselposen → Keyframe-Animation der Perspektive der Kamera → 119, 217 → 82, 224 514 Glossar und Index Kantenerkennung (edge detection) Kollisionsvermeidung (collision Verfahren der → Computer Vision, wel- detection) ches abrupte Veränderungen im Bild- eine automatische Funktion, die eva- material erfasst, die auf Kanten schlie- luiert, ob Oberflächen verschiedener ßen lassen Objekte den gleichen Raum besetzen → 224 → 124, 137 f. Kaustik (caustics) L-System (L-systems) Lichtmuster, wie es am Boden eines benannt nach dem Biologen Aristid Lin - Swimmingpools zu beobachten ist. Es denmayer, der ab 1968 eine universelle entsteht durch Lichtbrechung und in- Formengrammatik des pflanzlichen terne Reflexionen. Wachstums entworfen hat, die nun zur → 178, 183, 185 f. Modellierung von Pflanzen am Com- puter dient Keyframe-Animation → 67, 317, 328, 385 Animation von Schlüsselposen (key- frames), die von einem Keyframe-Artist Lambert-Shading festgelegt werden ein → Shading-Modell, das ideal dif- → 55, 113 f., 119 ff., 126, 130, 142, 149, fuse Oberflächen mittels des Cosinus- 151 ff., 217, 292, 311, 443 ff., 448, 450 ff., gesetzes beschreibt, das der Mathema- 458, 461 tiker und Philosoph Johann Heinrich Lambert formulierte Keying → 95 ursprünglich ein Echtzeit-Compositing. Heute wird der Begriff oft synonym mit Lens Distortion ‹eine Maske ziehen› (pulling a matte) Verzerrung durch die materiellen Eigen- verwendet. schaften des Objektivs → 195, 212 → 73, 170, 235, 243, 334 Kindchenschema Lens Flare besteht aus einem Set von Eigenschaf- Unregelmäßige, häufig sechseckige ten – Pausbacken, Stupsnase, große Lichtflecken, die sich bei Kamerabewe- Augen, hohe Stirn, großer Kopf –, die gungen in komplexen Mustern über das gemäß Konrad Lorenz als Schlüssel- Bild verschieben. Sie entstehen, weil reize eine instinktive Fürsorgereaktion Objektive aus einer Reihe von Linsen auslösen und damit aggressive Reaktio- bestehen, in denen sich direkt einfal- nen hemmen lende Lichtstrahlen mehrfach brechen → 454 f., 458 f. und reflektiert werden. → 171, 350 ff. King-Kong-Approach nutzt den prinzipiell fragmentierten Lichtbeugung Darstellungsmodus des Films aus, in- Ablenkung von Lichtwellen an einem dem er mit verschiedenen Modellversi- Hindernis onen von Monstern oder Aliens arbeitet → 88, 173 f. und sie via Montage miteinander verbin- det. Dabei stehen meist eine Version im Lichtbrechung Maßstab 1:1 zur Verfügung, die der In- Veränderung der Ausbreitungsrichtung teraktion dient, sowie weitere, entweder von Licht am Übergang von einem Me- analoge oder digitale Versionen, welche dium zum anderen (z. B. Luft/Wasser) für Totalen verwendet werden können. in Abhängigkeit der Wellenlänge → 250 ff., 301 → 79, 88, 174, 178, 182, 190 Glossar und Index 515 LiDAR Mesh Abkürzung für Light Detection and Ran- Fläche, definiert durch eine Gruppe ging. Das Verfahren stammt aus der von → Polygonen Vermessungstechnik und beruht auf → 56, 60, 187 f. der Abtastung von Landschaften oder Gebäuden mit Laserstrahlen. Metaballs → 64, 76, 81, 244, 292 → Blobbies Light Stage Metadaten Anordnung zur Aufzeichnung der Daten, welche die Eigenschaften ande- Oberflächeneigenschaften einer Figur rer Daten beschreiben – etwa Informa- in unterschiedlichen Lichtsituationen tionen über das Speicher-, Kompressi- → 438 ff. ons- und Ausgabeformat liefern lokale Beleuchtung → 48, 204 berücksichtigt nur die direkte Interak- tion eines Lichts mit einer Oberfläche Mikrofacetten mit den Faktoren Lichtstärke, -farbe mikroskopische V-förmige Vertiefun- und Einfallswinkel sowie das Reflexi- gen in den Oberflächen onsverhalten der Oberfläche → 96 f., 182 → 90, 177 ff. Miniaturen Low-Key → Modellbau dunkler, düster wirkender Beleuch- tungsstil MIP-Mapping → 160 MIP ist die Abkürzung von lat. multum in Luma Keying parvo, dt. viel in wenigem. Dabei werden Erstellen einer → Wandermaske, basie- die Texturen hierarchisch geordnet in rend auf Helligkeitsunterschieden verschiedenen Auflösungen im → Sha- → 212 der abgelegt. Beim → Rendern kann ad hoc die der Distanz zur Kamera entspre- Making-of chende Auflösung aufgerufen werden. Dokumentation über die Herstellung → 184 eines (Spiel-)Films → 83, 216, 283, 364, 472 Mise-en-Abyme ein Teil des Textes, der einen oder meh- Matte Painting rere Aspekte des Ganzen verdoppelt, re - gemalte, ins Filmbild einkopierte Hin- flektiert oder spiegelt, beispielsweise Er - tergrundbilder zählungen in der Erzählung oder media- → 23, 25, 76, 104, 139, 199, 201, 206 ff., tisierte Darstellungen der Erzählung über 224, 230, 232, 259, 292, 364 Fernseher, Radio oder in der Zeitung → 287, 332, 362, 394–416, 424 Matting Verfahren zur Extraktion einer → Wan- Modellbau dermaske Bau von Objekten oder Teilen des Sets → 24 in verkleinertem Maßstab → 23, 25, 160, 200, 208, 232, 234, 248 Mehrfachbelichtung Aufnahme mit mehreren Belichtungs- Modellbildung durchgängen in der Kamera regelbasiertes Verfahren zur Erzeugung → 24, 28, 199, 306, 345 von zwei- oder dreidimensionalen Struk- 516 Glossar und Index turen. Bei bestimmten Anwendungen ist sich ein Bild A nahtlos in ein Bild B zu das zeitliche Verhalten eine weitere Di- transformieren scheint. mension, die sich ebenfalls modellieren → 55, 73, 114, 118, 255, 379, 406 f., 417, lässt. Die Regeln werden dabei entwe- 420, 428, 434, 438, 464 f. der aus generellen mathematischen oder physikalischen Prinzipien – oder aber Motion Blur (Bewegungsunschärfe) aus der empirischen Beobachtung und Form der Unschärfe, die entsteht, wenn Rekonstruktion abgeleitet. sich Objekte oder die Kamera während → 51, 93, 168, 279, 281, 289, 291 f., 298, der Belichtungszeit bewegen 307 f., 312 ff., 325 ff., 331, 357 f., 360, 385, → 111, 170, 218, 334, 345–350 410, 431, 436, 441, 448 Motion Capture Modellieren Aufzeichnung von Bewegungsdaten ei- Erstellen von Objekten in einem dreidi- nes Darstellers zur Übertragung auf eine mensionalen Koordinatensystem digitale Figur. Dazu werden entweder → 34, 51 f., 56–77, 99, 106, 122, 141, 191, optische oder aber magnetische Marker 194, 198, 291, 312, 320, 427, 434 f., 437 f., auf einem Anzug befestigt, deren Bewe- 446, 452 gungspfade im Raum von einer Reihe von Kameras aufgezeichnet und an ei- Modularität nen Computer weitergeleitet werden. Das digitale Bild kann aus verschiede- → 126, 128, 142, 145–153, 291, 296, 309 f., nen Bildteilen oder Bildschichten (Mo- 311, 422, 424 ff., 431, 443 f., 444 f., 448– dulen) bestehen, zwischen denen sich 451, 458 f., 461 komplexe räumliche oder zeitliche Be- Motion Control ziehungen definieren lassen. eine computergesteuerte Kamera, die → 49, 153, 191, 291, 319, 394, 443 bildgenau sämtliche Bewegungen und anderen Parameter, wie zum Beispiel Moiré Blende und Belichtungszeit, aufzeich- Interferenz zwischen zwei einander net und damit mehrere Durchgänge überlagerten Linienmustern, die da- (passes) erlaubt durch zustande kommt, dass sich ge- → 24 f., 111, 190, 212, 229, 236 f., 239–249, wisse Informationen ungleichmäßig 256, 291, 306, 346, 453 auf benachbarte Pixel aufteilen. Das Moiré wird besonders dort sichtbar, wo Motion Dynamics feine diagonale Linienmuster digital → physikalisch-basierte Animation abge bildet werden. → 46 ND-Filter (neutral density filter) ein Objektiv-Filter, der lediglich die Morph Target Lichtmenge verringert, ohne Farbe und legt einzelne Posen in dreidimensionaler Kontraste zu verändern Version fest, zwischen denen während → 165 der Animation geblendet oder eben ge- morpht werden kann. Besonders ver- NURBS breitet zur Animation der Mimik und Abkürzung von Non-Uniform Rational der Lippenbewegungen beim Sprechen. B-Splines. NURBS sind eine parametri- → 121, 446, 451 sierte Form der Oberflächendarstel- lung, die aufgrund der mathematischen Morphing Beschreibung datensparend und auflö- Mittels Interpolation wird ein Effekt sungsunabhäng ist → Spline-Kurven. der Verwandlung erzeugt, in welchem → 56, 59, 81 Glossar und Index 517 Opacity Map Pastiche weist dem Objekt oder Teilen des Ob- bezieht sich auf zwei ästhetische Sachver- jekts ein genau bestimmtes Maß an halte, nämlich erstens eine Mischung von Transparenz von ganz durchsichtig bis Elementen aus unterschiedlichen Stil- voll opak zu richtungen oder Quellen und zweitens → 99 das Zitieren, die Imitation früherer Werke → 194, 402 f. Optical Flow Verfahren der → Computer Vision, wel- Performance Capture che die Positionsveränderungen der Pi- integrierter Ansatz von → Motion Cap- xel zwischen Einzelbildern erfasst ture, um Körper- und Gesichtsbewe- → 245 gungen simultan aufzuzeichnen → 449 Oren-Nayar-Shading ein → Shading-Modell, das ideal dif- Phong-Shading-Modell fuse → Mikrofacetten auf der Oberflä- ein Shading-Modell, das Informationen che beschreibt über die Lichtfarbe, einen leicht diffu- → 96 f. sen Anteil und ein Glanzlicht enthält Oszilloskop und damit einen Plastik-Look erzeugt; Messgerät zur Darstellung eines elek- 1975 von Phong Bui-Tuong entwickelt trischen Spannungsverlaufs → 94 f., 471 → 52 f., 66, 112, 324 Photogrammetrie Paratext aus der Vermessungstechnik stammen- Nach dem französischen Literaturwis- de Technik des → bildbasierten Model- senschaftler Gérard Genette außertex- lierens tuelle Informationen, welche die Rezep- → 70, 76, 249, 307 f. tion einer Fiktion vorbereiten oder be- gleiten. Bezogen auf den Film, sind das Photon Mapping Presseinformationen, Kritiken, Making- Erweiterung des Raytracing zur Berech- ofs, Interviews, Plakate, Trailer, mög- nung der globalen Beleuchtung inklu- licherweise auch Informationen über sive Kaustik und Farbremission Person und Karriere des Regisseurs → 185 f., 189, 292 → 283, 364 f., 430, 445 Photonenoptik Parent bietet die Grundlage zum Verständnis der obere Stufe in einer → Skeletthierarchie Interaktion zwischen Licht und Materie → 122 → 175 Partikel-Animation Physical Effects Partikel-Systeme kontrollieren das zeit - umfasst mechanische Effekte wie hy- liche Verhalten von Objekten ohne scharf draulische Plattformen, spezielle Fahr- begrenzte Oberflächen wie Wolken, zeuge oder präparierte Bühnenteile so- Feuer oder Wasser wie pyrotechnische Effekte wie Feuer → 132–136, 142 ff., 248, 292, 328, 340, und Explosionen 375, 420 → 23, 25, 340 Pass, pl. Passes physikalisch-basierte Animation Aufzeichnungsdurchgang in der Kamera Animation von Objekten anhand ih- → 24, 229 f., 241, 453 rer physikalischen Eigenschaften wie 518 Glossar und Index Masse, Viskosität oder/und Elastizität. Priming Berechnet werden die Bewegungspfade Voraktivierung der Aufmerksamkeit und Körpertransformationen auf der der Rezipienten Basis der bekannten Gesetzmäßigkei- → 283 ten der Kinematik und Dynamik, der Strömungslehre oder der Thermodyna- proxemisch mik unter Berücksichtigung von exter- bezieht sich auf die räumliche Anord- nen Parametern wie Kräften, Impulsen, nung von Personen und drückt ihre Energie. Nähe oder Distanz zueinander aus → 123, 141–144, 292 119, 232 Pixel Proxy (Stellvertreter) Bildpunkt (Abkürzung von Picture Ele- Schauspieler, welche klassisch ani- ment) mier te oder digitale Figuren am Set → 16, 31, 33, 35 f., 39, 46 f., 75, 140, 167, vertreten 181 ff., 217, 221, 244 f., 262, 342, 350, 451 → 220, 256, 445, 453, 458, 460 Pixillation prozedurale Animation Animationstechnik, in welcher die Fi- Animation mittels → Algorithmen, die guren ruckhaft verschoben werden, um das zeitliche Verhalten von Objekten Zeitraffer-Effekte zu erzeugen oder Materialien beschreiben → Flo- → 108 cking-Systeme → physikalisch basierte Animation Polygon → 126, 131–144, 152, 247, 292, 347, 375, Vieleck, meist drei- oder viereckige Flä- 431 che, die durch → Eckpunkte im Koordi- natensystem definiert wird prozedurales Modellieren → 56 ff., 81, 93 Modellieren mittels allgemeiner Be- schreibungsregeln (→ Prozeduren) wie Polygonfelder (polygon meshes) → fraktalen Algorithmen zur Erzeu- Flächen, bestehend aus einer Gruppe gung von Landschaften von → Polygonen → 65–69, 291 → 56 Prozeduren Polygonmodellierung Funktionen oder Programme, welche Verfahren zur Modellierung, bei wel- einen Verlauf bestimmen. Grundsätz- chem → Polygonfelder (polygon meshes) lich geht es bei Prozeduren immer da- miteinander verknüpft werden. Damit rum, komplexe und oftmals organisch entsteht ein → Drahtgittermodell (wire wirkende Muster – seien es Objekte frame). oder Verhaltensmuster – nach gene- → 57 ff. rellen Regeln zu erzeugen → proze- durales Modellieren → prozedurale Previz Animation. kleine, rudimentär wirkende Compu- → 65 teranimationen, welche die geplanten Szenen visualisieren, also animierte Punktlicht Versionen von Storyboards. Sie dienen streut seine Strahlen wie eine Glühlampe der Koordination aller am Prozess be- gleichmäßig in alle Richtungen teiligten Abteilungen. → 157 f. → 234–239, 241, 263, 471 Glossar und Index 519 Quantisierung Remediation Übersetzung der analogen Werte in bi- Modell gemäßigter Neuerung, in dem när codierte Daten neuere Entwicklungen aus alten her- → 33–40 vorgehen und sie dabei verbessern oder reformieren (Bolter/Grusin 1999) Radiosity → 107, 400 f. → Render-Verfahren, beruht auf der Strategie, in einer abgeschlossenen Sze- Removal ne im Vakuum zunächst den Energie- manuelles oder computergestütztes Ent- austausch zwischen allen Flächen zu fernen von unerwünschten Bildteilen berechnen, wobei ausschließlich ideal → 220 f., 453 diffuse Reflektoren vorgesehen sind. Diese Informationen werden in einer Render-Gleichung Matrix abgelegt und stehen daher un- 1986 von Jim Kajiya am CalTech for- abhängig vom Betrachtungswinkel zur muliert, enthält alle Lichtinteraktionen Verfügung. eines → globalen Beleuchtungsmodells → 176 f., 185, 186–189, 292 → 179 f. Random Access Rendern → Direktzugriff Berechnung der Bilddaten unter Be- rücksichtigung der Objekt- und Sze- Rastergrafik nengeometrie, den → Shadern und der besteht aus horizontal und vertikal an- Beleuchtung im Hinblick auf zu defi- geordneten → Pixeln nierende Kameraparameter → 33 → 25, 33, 52, 60, 78, 83 f., 93, 101 ff., 154 ff., 167–190, 221, 267, 292, 331, 410, Rauschen (noise) 442 diffuse Störung eines akustischen oder optischen Signals. Rauschfunktionen Repräsentation werden künstlich mittels stochastischer Darstellungsform, die eine Transforma- Algorithmen erzeugt, um Oberflächen tion zwischen Abbildungsgegenstand komplexer zu gestalten. und Abbildung enthält → 43, 149, 153, 186, 195, 256, 354–356, → 107, 275, 277 f., 280, 282, 284, 286, 290, 385, 450 295, 310, 321 ff., 329, 332 ff., 420 Raytracing Retusche → Render-Verfahren; gründet auf der manuelle oder computergestützte Bild- → Strahlenoptik. Im Unterschied zur korrektur Lichtausbreitung in der Natur wird als → 215–221, 256, 274, 292, 364, 379, 393, Ausgangspunkt zur Verfolgung der 445, 453 Strahlen nicht die Lichtquelle, sondern das Auge des Betrachters bzw. der Ka- Ride mera angenommen. Man nennt dies extrem beschleunigte Kamerabewe- auch Backward-Raytracing. gung, die meist sehr ausgedehnte Räu- → 178 f., 180–184, 185, 187 ff., 271, 292 me durchmisst → 74, 130, 379–394 Reflection Map → Texture Map, die der Darstellung Rigging von Reflexionen auf Objekten dienen Ausrüstung einer digitalen Figur mit → 270 einer durchdachten, mehr oder weni- 520 Glossar und Index ger anatomisch korrekten Skelett- und 176, 181, 183 f., 207, 291, 311, 318 ff., 323, Muskelstruktur 328, 410, 435, 443 → 123, 128 Shader-Netzwerk Rigid Body Dynamics netzwerkartige Verknüpfung von ein- → Dynamik starrer Körper zelnen → Shadern zur Beschreibung von komplexen Materialeigenschaften Rotomation → 176, 394, 435, 441 f. automatisierte Version des → Rotosko- pierens Shading-Modell → 445 bezeichnet den spezifischen Algorith- mus, der verwendet wird, um aus- Rotoskopieren gehend von einer Lichtquelle im 3D- manuelle oder computergestützte Ex- Raum die Farbe einer Oberfläche zu traktion von → Wandermasken, be- berechnen. Das Shading gibt den dar- nannt nach dem von Max Fleischer gestellten Körpern eine dreidimensio- 1917 patentierten Rotoskop, das ur- nale, materielle Präsenz, indem es die sprünglich dazu diente, gefilmte Per- Licht- und Schattenverhältnisse auf ih- sonen einzelbildweise zeichnerisch rer Oberfläche bestimmt. nachzubilden und damit natürliche Be- → 80, 88–90, 93–97, 101, 116, 174, 182 wegungen auf eine gezeichnete Figur zu übertragen. Simulation → 110, 113, 126, 145, 152, 163, 206, 215– 1. Computersimulation: regelbasierte 221, 228, 235, 246, 252, 254 ff., 263, 273 f., Modelle zur Beschreibung der Ent- 291 f., 309, 375, 425, 444 f., 451 wicklung und/oder des Verhaltens von (komplexen) Systemen; Rückprojektion (Rückpro) → 115, 131, 141, 143 f., 171, 175 f., 279 ff., Projektion bewegter Hintergrundauf- 324, 331 ff. nahmen von hinten auf eine halbtrans- 2. Simulation bei Baudrillard (1978: 6): parente Leinwand, vor der die Darstel- «Die Vortäuschung, die Verstellung von ler agieren lat. simulatio: die Verstellung, die Heu- → 24, 110 f., 198 f., 240, 405 chelei, die Täuschung, das Vorschützen (eines Sachverhalts), die Vorspiegelung, Sampling der Vorwand» → Abtastung → 275, 276–282, 288, 312, 321, 330, 353, 392, 396, 464 Schüfftan-Verfahren → Spiegeltrick Skalierung Veränderung des Maßstabs Shader → 47, 151, 306, 333 beschreiben die Reaktionen von Ober- flächen auf das einfallende Licht. Dazu Skeletthierarchie gehören das spezifische Reflexionsver- Skelette sind hierarchisch organisiert, halten sowie Aspekte der → Lichtbre- sodass sich die Bewegung von den obe- chung, der → Diffusion, des → Subsur- ren Stufen (parents) auf die untergeord- face Scattering, der → Lichtbeugung neten Stufen (children) fortpflanzt und → volumetrischer Effekte. Inzwi- → 122 f., 323 schen werden auch kleine Unterpro- gramme als Shader bezeichnet. Skinning → 68, 73, 88–90, 98, 102, 104, 156 ff., 167, Applikation von Haut auf ein dreidi- Glossar und Index 521 mensionales Skelett- und Muskelsys- Darstellung von parallel verlaufenden tem Handlungen. Meist, aber nicht zwin- → 437, 446 gend, ist diese Aufteilung sichtbar. → 207, 254, 406 Soft Body Dynamics → Dynamik flexibler Körper Spot Scheinwerfer, der sowohl über einen somatische Empathie (motor mimicry) definierten Ort als auch eine bestimmte unwillkürliche affektive Partizipation Ausrichtung verfügt und das Licht ke- an Figuren durch Mitvollzug körperli- gelförmig abgibt cher Aktivität → 158 → 467 Spot Color Correction Special Effects punktgenaue → Farbkorrektur eine Reihe filmtechnischer Verfahren, → 219 die von bühnentechnischen, mechani- schen Effekten inklusive Pyrotechnik Squash and Stretch über optische Verfahren in der Kamera beschreibt die Eigenschaft von weichen bis hin zu Techniken der Postproduk- Objekten, sich unter Einwirkung von tion reichen Kräften zu stauchen oder zu strecken → 13 ff., 22 ff., 25 ff., 106, 110, 116, 160, → 125, 127 196 f., 201, 239 ff., 358, 365 f. Staging spiegelnde Reflexion Positionierung der Figuren und Anord- kommt auf glatten Oberflächen vor, die nung der Aktionen in einer Szene das Licht weder streuen noch absor- → 126 f. bieren → 94, 96, 100 Stitchen Zusammenfügen von einzelnen Foto- Spiegeltrick grafien zu Panoramen oder Halbkugeln nach dem Erfinder auch Schüfftan-Verfah- → 76, 271 ren genannt: Mithilfe eines teildurchläs- sigen Spiegels werden Teile des Sets oder stochastisch eines veränderten Sets eingeblendet. zufällig, nach Stochastik (Wahrschein- → 23, 199 lichkeitslehre) → 65 f., 133, 136, 184, 317, 327 f., 342, 435 Spill unerwünschte Reflexionen von → Blue- Stop-Motion-Animation screens oder → Greenscreens in der Animationstechnik, die mit einzelbild- Szene weiser Bewegung von Objekten ope- → 211, 213 riert, zum Beispiel Puppenanimation → 57, 108 ff., 233, 236, 250, 345, 473 Spline-Kurven gekrümmte, durch Polynome definierte Stopp-Trick Kurven bereits 1895 in Edisons The Execu- → 59 ff., 121, 127, 130, 217 tion of Mary – Queen of Scots ange- wandte Technik, die Kamera zu stop- Splitscreen pen, um der Szene Objekte oder Per- Aufteilung des Bildes in verschiedene sonen hinzuzufügen oder sie daraus Sektoren, in der Regel zwei bis vier, zur zu entfernen und anschließend wei- 522 Glossar und Index terzudrehen, sodass die Objekte wie Texture Map von Geisterhand erscheinen respektive Bild zur Beschreibung von lokalen verschwinden Oberflächeneigenschaften, zum Bei- → 15, 24 spiel der Farbverteilung → 64 f., 75, 80 ff., 87 f., 93, 157, 183 f., 270, Strahlenoptik 291 f., 309, 318 f., 439, 441 fasst Licht als unabhängige Strahlen auf, die sich in unterschiedlichen Me- Texturing dien gemäß einem Set von geometri- Zuweisung von zweidimensionalen schen Regeln ausbreiten. Die Strahlen- Bildern auf dreidimensionale Objekte optik, auch geometrische Optik ge- zur Gestaltung der Oberflächeneigen- nannt, kann die meisten sichtbaren schaften Phänomene wie → Reflexion und → → 47, 80–85 Lichtbrechung erklären. → 174 f., 188 Token ein bestimmtes Exemplar des → Typs Subdivision Surfaces → 201, 300, 303 f., 320, 322, 324, 326 vereinen als eine Art Mischform die Vorteile aus der Modellierung mit → Tracking Polygonen und mit → NURBS. Durch Extraktion von Bewegungsdaten aus rekursive Teilung der Oberflächenab- dem Bild zur Übertragung auf eine vir- schnitte entstehen zunehmend feiner tuelle Kamera aufgelöste, glatter wirkende Kurven. → 217, 235, 238, 239–249, 264, 291, 364, → 56, 59 ff. 425, 449, 453, 474 Subsurface Scattering Transluzenz Lichtstreuung unter der Oberfläche, im Unterschied zu Transparenz jene Ma - wobei die Lichtstrahlen an einem Ort terialeigenschaften, welche das Licht eintreten, dann im Material selbst auf in ihrem Inneren diffundieren, wie komplexe Weise reflektiert werden und zum Beispiel bei Eis, Marmor, Haut. auf diesem Weg auch ihre Farbe ändern Die physikalische Grundlage dieser Er- können. Kommt in halbtransparenten scheinung ist das → Subsurface Scat- Materialien wie Haut oder Marmor tering. vor. → 100–102, 190, 441 f. → 88, 91 f., 100 f., 190, 435, 439, 441 f. Transmission Summary Einspeisung von digitalen Daten in ver- geraffte Zusammenfassung eines um- schiedene Mediensysteme fangreichen Ablaufs → 47, 153, 191, 319, 394 → 409 f., 412 Travelling Matte Synthese → Wandermaske Zusammensetzen von digitalen Codes zu einem Wahrnehmungsgegenstand Trucage → 48 f., 106, 191, 319, 322, 334 Begriff von Christian Metz (1971), unter dem er In-Kamera-Effekte, Montage- Taxem verfahren inklusive Compositing sowie kleinstes grammatisches Formelement optische Arbeiten in der Postproduk- → 28 tion zusammenfasst → 22, 27 f. Glossar und Index 523 Typ tergrafik die Bildelemente mittels ma- Vertreter einer bestimmten Klasse von thematischer Funktionen Objekten, zum Beispiel ‹ein Hund› → 53, 112 → 201, 300, 304, 320, 322, 326 VFX Umgebungslicht (ambient light) Abkürzung von → Visual Effects hat weder eine definierte Quelle noch eine Ausrichtung und entspricht einer View Morphing diffusen Lichtsituation mit vielen Licht- Berechnung von Zwischenstadien zwi- quellen oder auch einer Tageslichtsitua- schen zwei Fotografien eines Objekts tion bei bewölktem Himmel aus verschiedenen Perspektiven, wobei → 157, 177 intermediäre Perspektiven interpoliert werden Uncanny Valley → 73, 76 1970 von Masahiro Mori im Kontext der Robotik entworfene Theorie zur emo- View-dependent Mapping tionalen Reaktion auf künstliche Men- Projektionstechnik zur Applikation von schen: Je stärker ein künstlicher einem fotografierten → Texture Maps aus der lebendigen Menschen ähnelt, desto Aufnahmeposition eher löst er ein unheimliches (uncanny) → 72 Gefühl der Befremdung aus. → 455 f., 460 f. Virtual Reality (Virtuelle Realität) technische Displays, die mit audio- Universal Capture visuellen, kinetischen und oft auch Aufzeichnungsverfahren von Gesich- haptischen Reizen die möglichst umfas- tern inklusive Mimik mittels einer An- sende Erfahrung einer virtuellen Welt ordnung von mehreren Kameras. Dabei ermöglichen sollen wird der Verlauf jedes einzelnen Pixels → 43, 133, 282, 428 verfolgt mit dem Ziel, analog zu → Mo- tion Capture die Bewegungen auf ein Visem digital modelliertes Gesicht zu über- visuelle Ausformung der Phonem arti- tragen. kul ation, das heißt der Lippen- und → 75, 438, 443, 451 Zungenbewegungen → 447 Universalität Möglichkeit digitaler Daten, als quasi Visual Effects universelles Tauschsystem alle denk- digitale Verfahren der Bilderzeugung, baren Informationsprozesse zu codie- sogenannt computergenerierte Bilder ren (computer generated imagery, kurz CGI) → 47–50 sowie digitale Verfahren der Bildbe- arbeitung wie → Compositing und → Utah Teapot Imageprocessing, wobei auch → Wan- 1975 von Martin Newell an der Univer- dermasken, → Motion-Control-Auf- sity of Utah digital modellierte Tee- nahmen und digitale → Matte Pain- kanne, die inzwischen zur Ikone der tings eingeschlossen sind Computergrafik geworden ist → 59, 86 Volumen-Shader bestehen aus einer Kombination von Vektorgrafik Informationen zu Oberflächen- sowie beschreibt im Unterschied zur → Ras- internen Materialeigenschaften, um → 524 Glossar und Index volumetrische Effekte wie Wolken oder eine fiktionale Welt als ‹real› zu akzep- Feuer zu beschreiben tieren (Begriff des englischen Romanti- → 102–104 kers Samuel Taylor Coleridge) → 252 volumetrische Effekte werden von Materialien erzeugt, die aus Wire Frame einem Trägermedium (z. B. Luft oder → Drahtgittermodell Wasser) mit darin verteilten Partikeln bestehen, wie Nebel, Rauch oder Feuer Wire Work → 88, 103 f., 131 → Kabeltechnik Voxel Worldspace elementare Würfel, aus denen sich Kör- ein Koordinatensystem, das alle denk- per zusammensetzen können baren Punkte relativ zu einem Null- → 56, 70 punkt umfasst → 66 Wandermaske (travelling matte) wird auf der Basis von → Bluescreen WYSIWYG oder → Greenscreen-Aufnahmen herge- Abkürzung von → What You See Is stellt, um bewegte Objekte oder Figuren What You Get aus der Aufnahme zu isolieren und im Compositing mit separat aufgenomme - Z-depth Image nen Hintergrundbildern zu kombinieren auch Z-depth Buffer genannt; grau- → 24 f., 191, 195 f., 199, 207–215, 216, stufencodiertes Bild, das die Tiefenin- 218, 241, 268, 273, 291, 306, 309, 364, 453 formation eines computergenerierten Bildes enthält Warping → 224 Verformen oder Verzerren von Bildern → 223–226, 292, 393 Zeichenanimation Animation von einzelnen Zeichnungen Wellenoptik auf Papier oder auf Folien modelliert Licht als elektromagnetische → 108 f., 119, 171, 379 Wellen und kann alle Phänomene der Strahlenoptik erzeugen sowie zusätz- Zeitlupe lich → Interferenz und → Lichtbeugung Verlangsamung des Bewegungsein- → 174 drucks durch eine höhere Bildrate bei der Aufzeichnung What You See Is What You Get → 24, 333, 349 (WYSIWYG) unmittelbare Verfügbarkeit von Bildern Zeitraffer mittels Echtzeit-Darstellung zur Über- Beschleunigung des Bewegungsein- prüfung der Bildeigenschaften drucks durch eine geringere Bildrate → 54 bei der Aufzeichnung → 24, 108, 166, 333, 366 Willing Suspension of Disbelief willentlicher Modus des Zuschauers, Filmregister 0–9 Birds, The 218 Crow, The 219, 465 f. 2001: A Space Odyssey Blade 134 f., 160, 285, Cube 438 57, 197, 207, 235, 240, 362, 429, 438, 463, 348, 368, 38 465 f. D 300 340 f. Blade Runner 14, 160, Da Vinci Code, The 163, 197, 226, 241 f., 434 A 262, 280, 355, 362, Daredevil 81, 153, 157, A. I. – Artificial Intel li - 384, 404, 464 221, 262, 285, 362 f., g ence 213, 237 f., 464 Blair Witch Project, 387, 429, 442 f., 463, Abstronic 53 The 473 465 Abyss, The 83, 97, 99, Blow-up 362 Dark City 160, 285, 172, 190, 198, 250, Brainstorm 391 348, 378, 389 f. 254, 271, 427 Day After Tomorrow, Adaptation 218, 242, C The 64, 86, 102 f., 364 Cabinet des Dr. Cali- 123, 129, 141, 143, Aladdin 431 gari, Das 26, 305, 151, 218, 226, 352, 373 Alien 3 361 371 Death Becomes Her Alien Resurrection Casino 364 208, 245, 263, 376, 63, 253 Casper 99, 428 465 f. Alive in Joburg 337 f. Casshern 214 f. Dinosaur and the Mis- American in Paris, An Cast Away 221 sing Link, The 110 239 Catalogue 240 Disclosure 428 Arabesque 112 Cell, The 161 f., 221, Douze travaux d’Her- Augenfalle, Die 342 285, 350 f., 366, 387, cule, Les 109 Avalon 99, 134, 138, 391 Dragonslayer 111 224, 269, 285, 350 f., Charcutérie méca- Draughtsman’s Cont- 395, 412 nique 15 ract, The 415 B Charlie and the Cho- Dreams of Toyland Baby’s Day Out 213 colate Factory 299 108, 232 Backdraft 375 Chinatown 401 Batman 463 Chungking Express 348 E Batman Returns 139 Citizen Kane 197, 207, E. T. – The Extraterres- Beautiful Mind, A 178, 281, 335, 381, 409 trial 251, 366, 455 265, 377 Cliffhanger 195 Enchanted Drawing, Bedknobs and Broom- Close Encounters of The 109, 232 sticks 233 the Third Kind Enemy of the State Being John Malkovich 241, 368 362 364, 393 Cold Mountain 364 Eneri 53 Ben Hur 210 Compleat Angler, The Eternal Sunshine of Big Clock, The 240 182 the Spotless Mind Big Fish 215, 285, 306, Corpse Bride, The 473 285, 306, 341, 364, 377 f., 442 Cosmos 115 366, 393, 473 526 Filmregister Eurhythmy 137 Gladiator 75, 130, 139, Invisible Man, The 27, Execution of Mary, The 161, 189 f., 234, 254, 208 15 269, 380 f., 431, 445 Invisible Man, The 208 eXistenZ 273, 279, Godzilla 153 Invitation to the 391 f., 412 Golden Child, The 117 Dance 233 Great Train Robbery, Island, The 392 F The 199, 207 Jason and the Argo- Fabuleux destin Green Mile, The 134, nauts 111, 233, 245 d’Amélie Poulain, 374 Le 285, 335, 336, 364, J 366, 377 f. H Jaws 365 Face/Off 406 f. Haunted Hotel, The JFK 205, 289 Fantasia 134 109 Johnny Mnemonic Fantasmagorie 109 Hellboy 253 160, 164, 203, 280, Fellowship of the Histoire(s) du cinéma 364, 384, 390, 392, 428 Ring, The; siehe Lord 367 Joyeux microbes, Les of the Rings: The Hochbetrieb 215 109 Fellowship of the Hollow Man 59, 83, Judge Dredd 225, 429 Ring 103, 124, 145, 208, Jurassic Park 63, 83, Fiat Lux 164 243, 245, 256, 274, 97, 111, 128, 142, 161, Fifth Element, The 61, 406, 420, 438, 445, 466 195 ff., 218, 235 f., 245, 88, 134, 263, 375 f., Hotel Eléctrico, El 250 f., 255, 268, 283, 406, 464 f. 109 335, 365 f., 408 ff., 427, Fight Club 67 f., 73 f., Hulk 62, 83, 87, 124, 429 144, 160, 163, 189, 128, 136, 141, 152, 236 f., 263, 349, 362, 247, 250, 260, 271, K 365, 384, 438, 440, 467 285, 362, 387, 406, Kill Bill 473 Final Fantasy 142, 150, 431 f., 441 ff., 454, 462 King Kong (1933) 27, 152, 431 f., 445, 450, Hummingbird 112 ff. 110, 196, 233, 250 f., 456 f., 460, 470 f. Humorous Phases of 345, 366 Finding Nemo 128, 457 Funny Faces 109, King Kong (2005) 152, Flight of the Naviga- 232 215, 330 tor 117 Humpty Dumpty Circus Knick Knack 109 Forbidden Planet 240, 108 368, 374 ff., 378, 381 f. Hunger 54 f., 113 f. L Forgotten Silver 338 Lara Croft: Tomb Forrest Gump 139, 196, I Raider 61, 63, 141, 205, 208, 219, 246, I, Robot 64, 76, 101, 161 f., 164, 221, 253, 253, 255, 264, 274, 161, 190, 220, 238, 267, 376 f., 466 289, 303 ff., 334 f., 365, 260 f., 309, 325, 372, Last Starfighter, The 372, 375, 430 f. 445, 458 f., 461 97 Frankenstein 27 Immortel (ad Vitam) Lawnmower Man, The Fun in a Bakery Shop 213 133, 203, 378, 384, 232 Incredibles, The 104, 390, 392, 427 f., 445 Futureworld 115, 423 f. 128, 331, 458 Lebende Buddhas 209 Independence Day 203 Lemony Snicket’s A G Interview With the Series of Unfortu- Geri’s Game 61 Vampire 134, 142, nate Events 365, Gertie the Dinosaur 160, 219, 246, 254, 440 109, 232 f. 263, 465 Lion King, The 138 f. Filmregister 527 Little Nemo 109, 232 Metropolis 110, 219, Polar Express The 104, Lola rennt 382 233, 249, 355, 374 ff., 135 f., 147, 150 f., 171, Looker 62, 424, 438 423, 464 449, 460 f. Lord of the Rings-Tri- Midwinter Night’s Prospero’s Book 366 f., logie (LOTR) 46, 59, Dream, A 108 415 76, 84, 142, 145, 151, Mighty Joe Young 110, 161, 164, 220, 241, 233 R 253, 256, 271, 351, Minority Report 75, Raging Bull 35 376, 381, 431, 453, 85, 99, 129, 141, 161, Règle du jeu, La 286 461, 472 225, 235, 343, 343, Remains of the Day, Lord of the Rings: The 350 ff., 354 ff., 366 The 448 Fellowship of the Monsters Inc. 142 Rendez-vous à Mon- Ring 239 Moulin Rouge! 86, tréal 426 f. Lord of the Rings : The 103 f., 134, 189, 225, Resident Evil 99, Return of the King 236, 263, 306, 336, 268 f. 438 59, 63, 84, 99, 130, 341, 353, 366, 381 Return of the King, 248, 306, 351, 377, Mr. Computer Image The; siehe Lord of 430, 454 ABC 422 the Rings : The Re- Lord of the Rings: The Multiplicity 242 turn of the King Two Towers 59, 454 Mummy, The 83, 99, Ring, The 413 f. Lost World, The 110 134, 139, 247 f., 347, Ringu 413 Luxo Jr. 117 372, 375, 379, 420, 437 f., 445, 465 f. S M S1m0ne 14 f., 424, 438, Maaz 215 N 464 Magnolia 268 Nosferatu 26 Samson and Delilah Mars Attacks 364 Notorious 382 240 Mary Poppins 233, Notting Hill 286 Sang d’un poète, Le 371 272 f. Saving Private Ryan Mask, The 142, 164, O 289, 338 f., 366 244, 246, 274, 285, Open Water 473 Schindler’s List 218 348, 364, 376 f., 429, Others, The 226 ff. Se7en 344, 467 454 Out of the Inkwell 233 Sexy Beast 377 Master and Comman- Outbreak 362 Shrek 63, 104, 128, 441, der 103, 143, 265, 457, 472 306, 364 P Sin City 214 f., 467 Matches: An Appeal Panic Room 236 Sky Captain and the 108 Particle Dreams 135 World of Tomor- Matrix Reloaded 393, Paycheck 386 row 161 f., 213, 236, 438, 441 Peintre Néo-Impressio- 253, 269, 340 f., 351, Matrix Revolutions niste, Le 109 470 296, 438, 441 Perfect Storm 129, 143 Sleepy Hollow 103 f., Matrix, The 59, 73, Permutations 112 129, 274, 344, 365, 75 ff., 87, 92, 134 f., Pete’s Dragon 233 374, 376, 465 160, 163 f., 166, 221, Pirates of the Carib- Snow White 216 225, 237 f., 244, 272 f., bean 218 Space Jam 233 278, 285, 309, 347 ff., Pirates of the Carib- Species 429 353, 355 f., 364, 374, bean: Dead Man’s Spider-Man 64, 81, 98, 391 f., 396, 412, 431 f., Chest 151 153, 161, 189, 221, 435, 463 f., 472 Player, The 286 269, 285, 309, 350, 528 Filmregister 363, 383, 387, 406, Ten Commandments, U, V 429, 439, 443 f., 454, The 211 United 93 305, 364 463, 465 Terminal, The 235 Vertigo 112, 388. 401 Spider-Man 2 63, 164, Terminator 2 64, 83, Virtual History: The 438, 439 f. 95, 97, 197 f., 203, Secret Plot to Kill Stanley and Stella in: 220 f., 245, 271, 341, Hitler 338, 431 f., Breaking the Ice 376, 379, 427 ff., 454, 441, 448 137 464, 466 Virtuosity 164, 203, Star Trek: First Con- Terra Incognita 338 280, 285, 364, 395, tact 82, 134, 223, Thief of Bagdad, The 412, 428, 438, 464 f. 386, 419, 438, 464 210 Vol Libre 66, 116 Star Trek II: Wrath of Thirteenth Floor, The Khan, The 66, 116, 164, 279, 390, 412 W 132, 380 Timecode 366 Wag the Dog 13, 194, Star Trek: Insurrec- Tin Toy 109Titanic 196, 354 f. tion 102 130, 142 f., 150, 161, War of the Worlds Star Trek IV: The Voy- 197 f., 200, 228 ff., 241, 338 f., 470 age Home 117 247, 301, 332, 365, Welt am Draht, Die Star Wars 115, 163, 380, 410 ff., 431, 443 279, 391 f. 213, 219 f., 226, 234, Tomb Raider; siehe Lara Westworld 115, 424 f. 240, 284, 356, 470 f. Croft: Tomb Raider What Dreams May Star Wars: Episode I – Total Recall 361 Come 64, 67, 139, The Phantom Me- Tout petit Faust, Le 161, 171, 200, 218, nace 234 109 221, 245 Star Wars: Episode Toy Story 109, 431 Who Framed Roger III – Revenge of the Triumph des Willens Rabbit? 213, 220, Sith 470 234, 380 f. 226, 233, 237, 240 Star Wars: Episode V – Tron 57, 97, 117 f., 164, Wild Wild West 253 The Empire Strikes 216, 280, 285, 383, Willow 118, 164, 376 Back 111 390, 393, 427 f., 470 f. Wizard of Oz, The 299, Star Wars: Episode Troy 382 305 VI – Return of the Truman Show, The 364 Works, The 115 f. Jedi 237 Tscheloweks Kinoappa- Stargate 203 ratom (Der Mann X, Y, Z Stealth 67 mit der Kamera) X-Men 160, 244, 285, Strange Days 391, 401 415 361 f., 362, 378, 386, Stuart Little 142, 330 Twelve Monkeys 285 391, 429, 435, 443, Superman 211, 463 Two Towers, The; siehe 463 f. Superman Returns 386 Lord of the Rings: XXX 129, 221, 361, 429, Swordfish 324 The Two Towers 442 f., 466 Unbearable Lightness Young Sherlock T of Being, The 205 Holmes 117, 222, Teddy Bears, The 108, 427 232 Zelig 196 Abbildungsverzeichnis 2001 DVD (Warner Home Video) 7/27, 3), Come into My World 6/39 Like a 8/55, 8/56, 8/57 Rolling Stone 2/25, 2/26 300 http://entertainment.howstuff- Compositing von Alvy Ray Smith 4/11 works.com/inside-3002.htm 7/16 CS Brown 5/27, 5/11, 5/12, 5/13, /17, Alive in Joburg http://video.google. 5/18 de/videoplay?docid=-11858122228 Daredevil DVD (20th Century Fox 12358837&q=joburg 7/9, 7/10 Home Entertainment) 8/7 A Beautiful Mind DVD (Universal Dark City DVD (Arthaus Video) 8/38, Pictures Germany) 5/14,5/15, 8/39 5/16, 6/69 Death Becomes Her DVD (Universal Alexander Wilhelm, http://www.dma. Pictures Germany) 6/64 ufg.ac.at/app/link/%253Fbungen Diego Velázquez Las Meninas (1656) %3A3D-Grafik/module/4875 4/17 8/52 A. Michael Noll (1967) 7/3, 7/4 E. T. DVD (Universal Pictures Ger- Amélie DVD (Universal Pictures Ger- many) 9/30 many) 7/5, 8/16, 8/17 Eadweard Muybridge 8/1 Andreas Krein 6/4, 6/61 Enemy of the State DVD (Touchstone Artificial Intelligence DVD (War- Home Video) 8/5 ner Home Video) 6/37, 6/38 Etienne-Jules Marey 4/15, 4/38, 4/39, Avalon DVD (AFDF Korea) 3/1, 4/33, 8/2 4/34, 4/35, 6/22, 6/23, 6/24, 7/32, Eurythmy DVD Computer Animation 7/33, 7/34, 8/51 Classics (Odyssey) 4/32 Barbara Flückiger 3/2, 3/3, 9/20, 9/32, eXistenZ DVD (Momentum Pictures) 9/31 nach Masahiro Mori (1970) 6/94 Big Fish DVD (Columbia Tristar Home Face/Off DVD (Touchstone Home Vi- Entertainment) 8/18, 8/19 deo) 8/58, 8/59, 8/60, 8/61 Blade DVD (New Line Cinema) 4/30, Fight Club DVD (20th Century Fox 8/3 Home Entertainment) 2/18, 2/27, Blade Runner DVD (Warner Home 2/28, 2/29, 2/30, 4/37, 5/28, 6/34, Video) 6/40, 8/6, 8/54 7/29 Borshukov /Lewis (2003) 2/31, 2/32 Final Fantasy DVD (Columbia Tristar Brilliance DVD Computer Animation Home Video) 9/16 Classics (Odyssey) 9/6 Forbidden Planet DVD (Warner Casshern DVD (I-ON New Media) Home Video) 8/11, 8/22, 8/23, 6/5 8/24 Charles Csuri und James Shaffer in Forrest Gump DVD (Paramount Franke (1984) 4/3 Home Entertainment UK) 6/11, Cinefex Weekly Up-date, Nr. 17 6/7, 6/12, 6/57, 6/58, 6/59, 6/67, 6/68, 6/8 6/95, 6/96, 9/12, 9/13, 9/14 Cinema 4D CD 4/16 Dürer, ETH-Bibliothek Zürich, Samm- Michel Gondry, DVD The Work of Mi- lung Alte Drucke 4/14, 5/19 chel Gondry, (Director´s Series Part George Borshukov (2004) 3/17, 9/18 530 Abbildungsverzeichnis Goral et al. (1984) 5/10 Lola rennt DVD (Laser Paradise) 8/25 Greenberg et al. (1997) 3/16 Luigi Russolo 7/26 Gretag-Macbeth-Farbtafel 6/60 Luxo Jr. von John Lasseter, http:// Hard Woman, http://www.iua.upf. www.khs-linz.ac.at 4/13 es/~berenguer/cursos/filmogra- Magnenat-Thalmann, http://www. fia3D/rec/otras.htm 9/5 miralab.unige.ch 9/7 Henrik W. Jensen, http://graphics. Magnolia DVD (New Line Cinema) ucsd.edu/~henrik/ 3/29, 5/23, 6/75 5/24 Mary Poppins (Buena Vista Home Hulk DVD (Universal Pictures Ger- Entertainment) DVD 6/91 many) 6/47, 6/86, 9/17 Master and Commander DVD (20th I, Robot DVD (20th Century Fox Home Century Fox Home Entertainment) Entertainment) 3/30, 6/63, 7/2, 6/70 9/33, 9/34 Matrix DVD (Warner Home Video) Immortel (ad Vitam) DVD (Tiberius 2/33, 2/34, 3/12, 4/29, 6/35, 6/36, Home Entertainment) 6/6 6/88, 6/89, 6/90, 6/92, 6/93, 7/22, Interview With the Vampire DVD 7/23, 7/24, 7/25, 7/30, 7/41, 7/47, (Warner Home Video) 6/56 8/48, 8/49, 8/50 James Blinn und Martin Newell in De- Metropolis DVD (Universum Film) bevec (1994) 6/80, 6/81 8/10 Jean-Luc Godard: Histoire(s) du Minority Report DVD (20th Century Cinéma Buch 8/9 Fox Home Entertainment) 3/9, Jeremy Engleman 3/6, 3/7, 5/1, 5/2 3/26, 7/17, 7/35, 7/40, 7/42, 7/43, Johnny Mnemonic DVD (Columbia 7/44, 7/46 Tristar Home Video) 8/26, 8/27, Moulin Rouge! DVD (20th Century 8/28, 8/29 Fox Home Entertainment) 3/33, Judge Dredd DVD Widescreen (Pathé) 4/25, 6/25, 6/66, 7/6, 7/7 6/26 nach Seeber (1927) 6/2 Jürgen Hagler, http://www.dma.ufg. nach Zorin/Schröder (2000) 2/10, 2/11 ac.at/assets/10087/intern/lights- Pablo Picasso: Interpretation von Las hape2.jpg 5/3 Meninas, http://www.artchive. Jurassic Park DVD (Columbia Tristar com/artchive/p/picasso/meninas. Home Video) 4/12, 6/10, 6/32, jpg 8/53 6/33, 6/48, 6/51, 6/52, 6/53, 6/54, Parry Moon und Domina Eberle Spen- 6/55, 6/77, 8/62, 8/63, 8/65 cer in Masson (1999) 5/25 Karl Sims in Sims (1994) 2/20 Password Swordfish DVD (Warner Karl Sims, Prix Ars Electronica 1991 Home Video) 7/1 2/19 Patentschrift Max Fleischer 1917 6/9 Ken Perlin in Debevec (1994) 6/82, Paul Debevec (1996) 2/22, 2/23, 2/24 6/83, 6/84 Paul Debevec, http://www.debevec. Ken Perlin http://mrl.nyu.edu/~per- org 2/21, 5/8, 6/62, 9/25, 4/20 lin 3/13 Phong-Shading Wikipedia 3/19 King Kong DVD 6/49, 6/50 Prospero’s Book VHS 8/8 Lawnmower Man DVD (Prism Leisure Rebecca Allen 2/5 Corporation) 4/21, 4/22, 4/23, Reinhard Zschoche 2/4, 3/15, 3/18, 4/24, 9/8 3/21, 3/27, 3/28, 5/22, 5/26, 9/21, Lemony Snicket, http://www.pa- nach Greenberg et al. (1997) 5/9 noscan.com/PanoPress/2005Press/ Resident Evil DVD (Constantin Video) Lemony/LemonySnicket .html 6/76, 6/78, 6/79 9/26 Return of the King DVD (New Line Abbildungsverzeichnis 531 Cinema) 3/8, 3/24, 6/45, 6/87, The Juggler DVD Computer Anima- 7/37, 8/15, 9/15, 9/28 tion Classics (Odyssey) 9/4 Richard Rickitt 4/1, 6/1 The Last Starfighter (Universal Pic- Ron Brinkmann 6/16, 6/17, 6/18, tures) DVD 3/22 6/20, 6/21, 6/30, 6/73, 6/74 The Mask DVD (New Line Cinema) Saving Private Ryan DVD (Paramount 6/95, 7/28, 8/13, 9/9, 9/10, 9/11 Home Entertainment) 7/14 The Mummy DVD (Universal Pictures S1m0ne DVD (New Line Cinema) 0/3, Germany) 3/5, 4/27, 4/28, 4/36, 0/4, 0/5 6/41, 6/42, 6/43, 6/44, 7/20, 7/21, SIGGRAPH 2003 2/16 9/22, 9/23, 9/24 SIGGRAPH 2005, Course Notes Nr. 28 The Others DVD (Dimension Home 4/31, 4/41, 4/42, 9/27 Video) 6/27, 6/28 Sin City DVD (Buena Vista) 6/3 The Ring DVD (Dreamworks Home Sky Captain and the World of To- Entertainment) 8/70, 8/71, 8/72, morrow DVD (Paramount Home 8/73 Entertainment) 5/4, 7/15, 7/36 The Thirteenth Floor DVD 8/40, Sleepy Hollow DVD (Mawa Film und 8/41, 8/42 Medien Verlagsgesellschaft) 3/34, The Works http://www.cs.cmu. 7/18, 7/19 edu/~ph/nyit 4/9, 4/10 Sphere DVD (Warner Home Video) Titanic DVD (20th Century Fox Home 8/47 Entertainment) 6/29, 8/66, 8/67, Spider-Man DVD Widescreen Edition 8/68, 8/69 (Columbia Tristar Home Entertain- Tomb Raider DVD (Concorde Home ment) 3/23, 5/29, 7/39 Entertainment) 2/13, 2/14, 2/15, Star Trek: First Contact DVD (Pa- 5/5, 6/71, 6/72, 8/14 ramount) 3/4, 6/19, 8/30, 8/31, Tron DVD (Touchstone Home Video) 8/32, 8/33, 9/1, 9/2 2/6, 2/7, 9/6 Star Trek: Insurrection DVD (Para- Vertigo DVD (Universal Pictures Ger- mount) 3/31 many) 8/37 Star Wars DVD 6/13, 6/14 Virtual History http://www.discovery- Terra Incognita DVD Look Now! 7/8 channel.co.uk/virtualhistory/_pa- Terminator 2 DVD (Kinowelt Home ges/making_of/back_to_life.shtml Entertainment) 3/20, 6/15, 6/85, 7/11, 7/12, 9/19 8/20, 8/21, 9/7 Virtuosity DVD (Paramount Home The Abyss DVD (20th Century Fox Entertainment) 8/46 Home Entertainment) 3/25, 5/31, Wag the Dog DVD (New Line Cinema) 6/46 0/1, 0/2, 7/45 The Cell DVD (New Line Cinema) War of the Worlds 7/13 5/7, 7/31, 8/34, 8/35, 8/36 Wayne E. Carlson http://accad.osu. The Day After Tomorrow DVD (20th edu/~waynec 2/1, 2/2, 2/3, 2/12, Century Fox Home Entertainment) 4/2, 4/5, 4/6, 4/7, 4/8, 4/40, 9/3 3/11, 3/32, 4/18, 7/38 What Dreams May Come DVD (Uni- The Fifth Element DVD (BMG Video) versal Pictures Germany) 2/17, 5/6 8/12, 9/35, 9/36, 3/14, 6/65 Whitted (1980) 5/20 Gladiator DVD (Columbia Tristar X-Men DVD (20th Century Fox Home Home Entertainment) 5/30 Entertainment) 8/43, 8/44, 8/45 The Green Mile DVD (Warner Home XXX DVD (Columbia Tristar Home Video) 4/26 Entertainment) 4/19, 8/4