Gabriele Gramelsberger Computerexperimente 2009-11-23 18-05-57 --- Projekt: transcript.titeleien / Dokument: FAX ID 0334226896820286|(S. 1 ) T00_01 schmutztitel - 986.p 226896820294 Gabriele Gramelsberger (Dr. phil.) lehrt Wissenschafts- und Tech- nikphilosophie an der Freien Universität Berlin. Ihre Forschungs- schwerpunkte sind der Wandel von Wissenschaft und Gesellschaft durch den Computer, Computersimulationen als neue Instrumente der Wissensproduktion, die ubiquitäre Informationsgesellschaft und die Philosophie der angewandten Mathematik. 2009-11-23 18-05-57 --- Projekt: transcript.titeleien / Dokument: FAX ID 0334226896820286|(S. 2 ) T00_02 seite 2 - 986.p 226896820318 Gabriele Gramelsberger Computerexperimente Zum Wandel der Wissenschaft im Zeitalter des Computers 2009-11-23 18-05-57 --- Projekt: transcript.titeleien / Dokument: FAX ID 0334226896820286|(S. 3 ) T00_03 titel - 986.p 226896820334 Das dieser Publikation zugrundeliegende Vorhaben wurde mit Mit- teln des Bundesministeriums für Bildung und Forschung unter dem Förderkennzeichen 07 SPR 60 gefördert. Die Verantwortung für den Inhalt dieser Veröffentlichung liegt bei der Autorin. This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivatives 3.0 License. Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © 2010 transcript Verlag, Bielefeld Die Verwertung der Texte und Bilder ist ohne Zustimmung des Ver- lages urheberrechtswidrig und strafbar. Das gilt auch für Vervielfälti- gungen, Übersetzungen, Mikroverfilmungen und für die Verarbei- tung mit elektronischen Systemen. Umschlaggestaltung: Kordula Röckenhaus, Bielefeld Umschlagabbildung: Gabriele Gramelsberger Lektorat & Satz: Gabriele Gramelsberger Druck: Majuskel Medienproduktion GmbH, Wetzlar ISBN 978-3-89942-986-2 Gedruckt auf alterungsbeständigem Papier mit chlorfrei gebleichtem Zellstoff. Besuchen Sie uns im Internet: http://www.transcript-verlag.de Bitte fordern Sie unser Gesamtverzeichnis und andere Broschüren an unter: info@transcript-verlag.de 2009-11-23 18-05-58 --- Projekt: transcript.titeleien / Dokument: FAX ID 0334226896820286|(S. 4 ) T00_04 impressum - 986.p 226896820390 INHALT Vorwort 7 Einleitung 11 I HISTORISCHER KONTEXT 1 Rechnen – Motor der Wissenschaft und Technik 17 Rechnen als Kulturtechnik 18 Handwerk des Rechnens 23 Automatisierung des Rechnens 29 Numerische Simulation unbekannter Lösungen 32 2 Vom Experiment zum Computerexperiment 39 Sciencia experimentalis 44 Quantifizierung 50 Mathematisierung und Momentum 58 Mit Experimenten rechnen 69 John von Neumanns digitaler Windkanal 76 3 Entstehung der Computational Sciences 85 Mit Rechnern experimentieren 86 Computational Departments 92 e-Science 96 II WISSENSCHAFTSFORSCHUNG 1 Von einfachen Modellen zu Erdsystemen 105 Forschungsobjekt Atmosphäre 105 Synoptische Wetterkarten 110 Vilhelm Bjerknes Konzept einer Physik der Atmosphäre 114 Berechenbare Modelle der Atmosphäre 121 Von Wetter- zu Klimamodellen 127 Erdsysteme 137 2 Forschen mit Algorithmen 141 Wissenschaftliche Programmierung 141 In-silico Experimentalsysteme 145 Atmosphärenmodell 154 Rechnen als Experiment 157 Story Telling with Code 161 Fehlersuche im Modell 171 3 Professionalisierung der Modellierung 177 Standardisierung 178 Synchronisierung 184 Modell-komplexität 191 Evaluierung 194 Reshaping Science 197 III PHILOSOPHISCHE VERORTUNG 1 Computerexperimente 203 Allgemeine Bedingungen 204 Vergleichsbeispiele 211 Erkenntniswert 219 2 Denken in mathematischen Möglichkeitsräumen 233 Extreme Welten I 234 Extreme Welten II 241 Erweiterung der mathematischen Anschauung 248 3 Simulation als neue symbolische Form des Forschens 255 Symbolische Formen des Forschens 257 Von der Schrift zum Computer 263 Experimentalisierung der Mathematik 268 Sinnverschiebungen 275 Literatur 283 VORWORT Computer, wie sie uns heute vertraut sind, gründen in den Erfindungen des 16. und 17. Jahrhunderts: in der symbolischen Algebra von Francois Vieta, in der Verknüpfung von Geometrie und Algebra bei Rene Des- cartes und in den binären Rechenregeln von Gottfried W. Leibniz. All diesen Entwicklungen ist gemeinsam, dass sie den Zeichengebrauch formalisieren und regelbasiert in Form von Kalkülen operationalisieren. Es ist dann nur eine Frage der Zeit, bis Alan Turing Mitte des 20. Jahr- hunderts mit seiner Idee der Turing-Maschine eine so allgemeine Praktik des Zeichengebrauchs konzipiert, dass jede in Form von Programman- weisungen explizierbare Zeichenmanipulation maschinell ausgeführt werden kann. Auch wenn Computer zu der Zeit eher Registriermaschi- nen gleichen, so sind mit Turings Idee, der von George Boole bereits 1847 beschriebenen Algebra und John von Neumanns Rechnerarchitek- tur die wichtigsten Komponenten zum Bau dieser grauen kleinen Kisten gelegt, obgleich es sich damals noch um Schränke gewaltigen Ausmaßes und echte Schreinerarbeit handelte. Seither ist viel geschehen. Computer erobern in immer kleineren Ausführungen Institute, Fabriken, Büros und Wohnzimmer, verbesserte Visualisierungstechnologien transformieren die vormals grün-orangen Computerdialoge in die bunte Welt des Cyberspace und das Internet bringt die Vernetzung der Rechner mit sich. Die in die Computer im- plementierte Logik des Zeichengebrauchs hat sich mittlerweile weltweit durchgesetzt und prägt die Organisation von Arbeitsvorgängen, Kom- munikationsbedingungen und Denkweisen. Diese Prägung und die sich daraus ergebenden Folgen für die Wissenschaft zu studieren, ist Thema dieses Buches. Dabei ist aus wissenschaftsphilosophischer Perspektive vor allem der Wandel der Wissenschaft in Computational Sciences inte- 7 COMPUTEREXPERIMENTE ressant. Dieser Wandel zeigt sich in der zunehmenden Verwendung des Computers als in-silico Experimentalsystem und in der Durchführung von Computerexperimenten, auch Simulationen genannt. Diese Ver- wendungsweisen findet man mittlerweile in allen Disziplinen. Nirgends zeigt sich der Einfluss des Computers auf die Wissenschaft deutlicher als in den Computerexperimenten, denn er geht mit einer neuen Form der Wissensproduktion einher, welche die klassischen Methoden der Naturwissenschaften – Theorie, Experiment, Beobachtung, Messung – erweitert. Die Folgen dieses Wandels wissenschaftlicher Wissensproduktion wirken sich zunehmend auf Gesellschaft und Alltag in Form neuer Technologien und Prognostiken aus. Prominentestes Beispiel sind wohl die Computerexperimente zur Erforschung des Klimas, die heutigen Ge- sellschaften nicht nur einen Spiegel ihrer problematischen Realexperi- mente mit dem Klima vorhalten und zum Handeln auffordern, sondern auch paradigmatisch die Möglichkeiten und die Grenzen computerba- sierter Forschung aufzeigen. Andere Beispiele sind die Simulation neuer Materialien und Moleküle oder das simulationsbasierte Design und En- gineering der Technikwissenschaften. Es sind genau diese Disziplinen, die in den aktuellen Wandel der Wissenschaften im Zeitalter des Com- puters involviert sind. Von daher stehen die Epistemik und Praktik wis- senschaftlicher Simulationen, am Beispiel der Klimamodellierung, im Mittelpunkt dieser Untersuchung. Die vorliegende Publikation gliedert sich in drei Teile: I. Die Rekons- truktion des historischen Kontexts der Computerexperimente, II. eine Computerlaborstudie zur Klimamodellierung in Deutschland und III. die philosophische Verortung der Computerexperimente und des Wandels wissenschaftlicher Wissensproduktion. Während in der historischen Re- konstruktion zahlreiche Wissenschaftler ihrer Zeit in Form von Zitaten zu Wort kommen, zeichnet die Computerlaborstudie anhand von Inter- viewausschnitten und Materialien ein Bild der aktuellen Forschungs- praktiken in den Computational Sciences. Die abschließende philosophi- sche Diskussion wiederum lässt die wissenschaftsphilosophischen und -theoretischen Einordnungsversuche der Simulation als neue Methode Revue passieren und fügt dieser eine eigene Verortung hinzu. Die Publikation ist das Resultat von fünf Jahren Forschung im Rah- men des Forschungsprojekts „Computersimulationen – Neue Instrumen- te der Wissensproduktion“ (2004 bis 2007) an der Freien Universität Berlin sowie eines Gastaufenthaltes am Max-Plank-Institut für Meteoro- logie Hamburg (2008). Das Forschungsprojekt war eines von zwölf Pro- jekten der Förderinitiative „Science Policy Studies“ des BMBF Bun- 8 VORWORT desministerium für Bildung und Forschung, die von der Berlin- Brandenburgischen Akademie der Wissenschaften koordiniert wurde. Die Computerlaborstudie zur Klimamodellierung in Deutschland wurde vor allem am Max-Plank-Institut für Meteorologie Hamburg durchge- führt, am PIK Potsdam-Institut für Klimafolgenforschung und am Insti- tut für Meteorologie der Freien Universität Berlin. Insgesamt wurden in diesem Zeitraum fünfundzwanzig Interviews sowie zahlreiche Gesprä- che mit Klimamodellierern und -modelliererinnen geführt. Für die Unterstützung und Förderung meiner Forschung möchte ich insbesonde- re Sybille Krämer (Freie Universität Berlin), Johann Feichter (Max- Plank-Institut für Meteorologie Hamburg), Renate Mayntz, Ulrich Wen- genroth und Monika Wächter (BMBF Förderinitiative „Science Policy Studies“) sowie den zahlreichen Interviewpartnerinnen und Interview- partnern aus der Klimaforschung danken. Berlin, September 2009 9 E INLEITUNG „Serienweise kann die präzise elektronische Phantasie der Automatenhirne Gedankenexperimente ablaufen lassen und dabei neue Theorien oder technische Konstruktionen erproben – die Realisierung teurer oder gefährlicher Experimente ist nicht mehr nötig“ (Der Spiegel 1965: 115). Elektronische Computer sind Anfang der 1960er Jahre noch keine zwanzig Jahre alten Erfindungen und gerade einmal so leistungsfähig wie heutige Taschenrechner. Dennoch kündigt sich bereits ein tiefgrei- fender Wandel der Wissenschaften an, der das Verständnis wissen- schaftlicher Erfahrung revolutioniert. Die zunehmende Leistungsfähig- keit der Computer – von zehntausend Operationen pro Sekunde 1965 zu mehreren Billionen Operationen heutzutage – verändert die Experimen- talkultur der Wissenschaften: Experimente finden immer öfter im Com- puter statt, und das digitale Labor wird in vielen Wissenschaftsdiszipli- nen dem Experimentallabor vorgeschaltet. Histor ischer Kontext Doch was sind Computerexperimente? In welchem Zusammenhang ste- hen sie mit der bisherigen Experimentalkultur der Wissenschaften, mit Theorie, Messung und Beobachtung? Inwiefern revolutionieren sie die 11 COMPUTEREXPERIMENTE wissenschaftliche Erfahrung und die Forschungslogik? Um diesen Fra- gen nachgehen zu können, werden Computerexperimente – numerische Berechnungen (Simulationsläufe) von algorithmierten Modellen – in einen größeren historischen Kontext eingeordnet. Denn mit der Heraus- bildung des neuzeitlichen Wissenschaftsverständnisses im 17. Jahrhun- dert formieren sich bereits die epistemischen Grundlagen heutiger Com- puterexperimente: Die Nutzung von Instrumenten, um neue Einsichten gewinnen und objektivieren zu können, die Verwendung der Mathema- tik als universelle Sprache der Wissenschaft und die Idee, durch Berech- nung Vorhersagen treffen und Optimierungen erzielen zu können. Ins- trumentenbasierte Erkenntnis, mathematische Darstellungsweise und immer effizientere Berechnungsmethoden konvergieren in den 1940er Jahren mit der Mechanisierung und Automatisierung des Rechnens zu Computerexperimenten. Die Folge ist die zunehmende Transformation der Wissenschaften in Computational Sciences. Diese Entwicklung zeigt sich heute weltweit in der Entstehung von Computational Departments der Physik, der Chemie, der Biologie und anderer Disziplinen. Trotzdem sich Computerexperimente in dieser historischen Tradition verorten lassen, brechen sie mit grundlegenden Bedingungen des empi- rischen Wissenschaftsverständnisses. Einer dieser Brüche besteht in der Nivellierung der ontologischen Differenz der material realisierten Expe- rimente im Labor und der symbolischen Darstellungsweise der experi- mentellen Resultate. Indem das komplette Experimentalsystem ins Digi- tale des Computers transferiert wird, fehlt die materiale Widerständig- keit als Teil der experimentellen Anordnung wie auch als Evaluations- kriterium der Resultate. Um Computerexperimente als wissenschaftlich valide Erkenntnismedien zu nutzen, müssen daher neue Evaluationsstra- tegien entwickelt werden. Eine weitere Bruchstelle ist wesentlich diffizi- ler, denn sie betrifft die Struktur wissenschaftlicher Erkenntnis selbst. Die Transformation ins Digitale des Computers bedeutet, Experimente unter dem Diktat von Algorithmen, diskreten Zuständen und rechneri- schen Effizienzen zu gestalten, auszuführen und zu interpretieren. Da- durch sind Computerexperimente einer anderen Logik unterworfen als Experimente im Labor. Sie repräsentieren eine eigenständige epistemi- sche Kultur der Wissensgenerierung. Da Computerexperimente relativ neue Erkenntnisinstrumente sind, ist es sinnvoll, diese vor Ort zu erfor- schen. 12 EINLEITUNG Vor Ort im Computer labor Die numerische Meteorologie ist bestens geeignet diese neue epistemi- sche Kultur des Simulierens zu untersuchen. Wettermodelle gehören zu den ersten Computersimulationen, die Anfang der 1950er Jahre auf Rechnern wie ENIAC und NORC berechnet wurden. Die Meteorologie mit ihren Wettervorhersagen, und ab den 1960er Jahren mit Klimasimu- lationen, entwickelt sich seither zur führenden Simulationswissenschaft. Ähnlich der Astronomie des 17. Jahrhunderts bezüglich des neuen Um- gangs mit wissenschaftlichen Instrumenten und mathematischen Metho- den setzt die Meteorologie heute Standards für den Umgang mit der Si- mulation als neuem Erkenntnisinstrument. Dabei stellt sich die Frage, ob die codierte und computerprozessierte Weise der Erkenntnisgewinnung denselben Bedingungen unterliegt wie die traditionell naturwissenschaft- liche Handhabung von Erkenntnissen, die ihre Wissensbestände in Form mathematisierter und quantifizierter, aber eben noch nicht algorithmier- ter und numerisch simulierter Weise gewinnt. Diese Frage zielt auf den epistemischen Kern des Wandels der Wissenschaft im Zeitalter des Computers. Es erscheint einleuchtend, dass ein weiterer Transforma- tionsschritt sowie der mediale Wechsel zum Computer neue Bedingun- gen generieren. Welche dies sind, soll anhand eines konkreten Fallbei- spiels aus der Klimamodellierung untersucht werden. Die Analyse der numerischen Meteorologie soll dabei nicht nur Einblicke in die Praktik und Epistemik der Computerexperimente geben, sondern auch Anhalts- punkte für eine Philosophie des Simulierens liefern, die den Wandel der Wissenschaft im Zeitalter des Computers zu erfassen im Stande ist. Philosophische Verortung Eine solche Philosophie des Simulierens hat die mathematischen und informatischen Bedingungen der Computerexperimente zum Untersu- chungsgegenstand. Sie analysiert den Einfluss dieser Bedingungen auf die Forschungslogik und den wissenschaftlichen Erfahrungsbegriff. Da- zu wird, basierend auf Ernst Cassirers Philosophie der Symbolischen Formen, der semiotische und epistemische Status der Computerexperimen- te untersucht. Weiter wird danach gefragt, ob sich die Veränderung des wissenschaftlichen Erfahrungsbegriffs in einem co-evolutionären Pro- zess auch nachhaltig auf unseren alltäglichen Erfahrungsbegriff auswir- ken wird. So wie Edmund Husserl bereits 1935 in seinem Krisis Vortrag die Sinnverschiebungen kritisierte, die in Form eines universalen Kau- salstils der mathematisierten Wissenschaften als Apriori in unsere Le- 13 COMPUTEREXPERIMENTE benswelt einprogrammiert sind, haben wir es heute mit weiteren Sinn- verschiebungen aufgrund der simulierenden Wissenschaften zu tun. Welche Sinnverschiebungen dies sein werden, lässt sich aufgrund der fehlenden historischen Distanz nur andeuten. Aber die Bedingungen ihrer Möglichkeit lassen sich bereits heute untersuchen und in einer Phi- losophie des Simulierens formulieren. 14 I HISTORISCHER KONTEXT 1 RECHNEN – MOTOR DER WISSENSCHAFT UND TECHNIK „It took me the best part of six weeks to draw up the computing forms and to work out the new distribution in two vertical columns for the first time. My office was a heap of hay in a cold rest billet. With practice the work of an average computer might go perhaps ten times faster. [...] If the coordinate chequer were 200 km square in plan, there would be 3200 columns on the complete map of the globe. In the tropics, the weather is often foreknown, so that we may say 2000 active columns, so that 32x2000 = 64,000 computers would be needed to race the weather for the whole globe. That is a staggering figure“ (Richardson 1922: 219). Als Lewis Fry Richardson 1922 in seinem Buch Weather Prediction by Numerical Process einen Parallelcomputer entwarf, um das Wetter der nächsten Tage zu simulieren, ging er von menschlichen Computern aus: Jeweils ein Rechner sollte für die Kalkulationen eines Punktes des Be- rechnungsgitters zuständig sein. In seiner Wettervorhersagefabrik sollten 64.000 menschliche Computer per Hand die globale Wetterentwicklung berechnen, in der Hoffnung, dass sie nicht nur schneller rechnen als das tatsächliche Wetter sich entwickeln würde, sondern dass die Anzahl der menschlichen Rechner genügen würde, um eine ausreichend hohe Dich- te an Berechnungen für aussagekräftige Prognosen zu erzielen. Denn je feiner das Berechnungsgitter einer solchen numerischen Simulation ist, desto genauer sind ihre Resultate. Eine höhere Auflösung des Berech- nungsgitters geht jedoch mit einer enormen Erhöhung der dafür nötigen Berechnungen einher. Selbst mit 64.000 menschlichen Rechnern hätte Richardson seine Idee, das Wetter der nächsten Tage zu simulieren, wie es uns heute aus jedem Wetterbericht vertraut ist, nicht realisieren kön- 17 I HISTORISCHER KONTEXT nen. Erst seit den 1970er Jahren, als die Computer entsprechend leis- tungsfähig wurden, sind solche numerischen Prognosen möglich. Diese Leistungsfähigkeit der Rechner, die aktuell bei Billionen von Operatio- nen pro Sekunde liegt, erzeugt mittlerweile eine Dichte an Berechnun- gen, die ausreicht, um den Computer als digitales Labor für Experimente zu nutzen. Heutige Supercomputer halten nicht nur Schritt mit dem rea- len Wetter, sie berechnen die Klimaentwicklung über einen Zeitraum von Jahrzehnten innerhalb weniger Tage, sie designen neue Moleküle und Materialien, lassen Flugzeuge und Autos crashen. Mit diesen auto- matisierten Rechenmaschinen blicken Forscher in die Zukunft und opti- mieren die Natur. Sie machen bislang unsichtbare Welten sichtbar und führen eine neue Logik und Praktik des Forschens in Wissenschaft und Technik ein. In diesem Sinne war Richardsons Idee visionär, denn mit seiner Wettervorhersagefabrik entwarf er – basierend auf numerischen Simulationen, parallel arbeitenden Recheneinheiten und berechneten Vorhersagen – ein modernes Wissenschaftsszenario, wie es heute in vie- len mathematisierten Natur- und Ingenieurswissenschaften, den so ge- nannten Computational Sciences, zu finden ist. Rechnen a ls Kulturtechnik Grundlage dieses modernen Wissenschaftsszenarios ist die Erfindung der Zahl und des Rechnens. Die Entwicklung bis hin zu den numeri- schen Simulationen von heute macht deutlich, dass das Rechnen eine der einflussreichsten Kulturt 1echniken des Menschen ist. Zahlen spielen seit Jahrtausenden in jeder Kultur eine wichtige Rolle, sei es zum Registrie- ren von Waren, zur Bestimmung astronomischer Ereignisse oder zur Dokumentation klimatischer Regelmäßigkeiten. Um Vorräte und andere Wirtschaftsgüter zu registrieren, wurden anfangs Zählsteine oder Zähl- 1 „Kulturtechnik befördert die Leistungen der Intelligenz durch Versinnli- chung und exteriorisierende Operationalisierungen des Denkens. […] Kul- turtechniken sind (1) operative Verfahren zum Umgang mit Dingen und Symbolen, welche (2) auf einer Dissoziierung des impliziten ‚Wissens wie‘ vom expliziten ‚Wissen, dass‘ beruhen, somit (3) als ein körperlich habitualisiertes und routiniertes Können aufzufassen sind, das in alltägli- chen, fluiden Praktiken wirksam wird, zugleich (4) aber auch die aistheti- sche, material-technische Basis wissenschaftlicher Innovation und neu- artiger theoretischer Gegenstände abgeben kann. Die (5) mit dem Wandel von Kulturtechniken verbundenen Medieninnovationen sind situiert in einem Wechselverhältnis von Schrift, Bild, Ton und Zahl, das (6) neue Spielräume für Wahrnehmung, Kommunikation und Kognition eröffnet“ (Bredekamp, Krämer 2003: 18). 18 1 RECHNEN – MOTOR DER WISSENSCHAFT UND TECHNIK kugeln verwendet, die in Lederbeuteln und später in versiegelten Tonge- fäßen aufbewahrt wurden. Als man begann, auf die Außenseite der Ton- gefäße Zeichen für die Anzahl der Kugeln in den Gefäßen zu ritzen, hat- te man die Zahlen als symbolische Darstellungen von Einheiten erfun- den. Diese Abstraktionsleistung – materiale Äquivalente für Wirt- schaftsgüter (Zählsteine und -kugeln) in symbolische Notationen zu übersetzen – stellte vor gut achttausend Jahren nicht nur eine Medien- wende vom Materialen zum Symbolischen dar, sondern den Ursprung von Schrift generell. Denn nachdem sich „die Verfahren des Zählens und des Referierens graphisch voneinander emanzipiert haben, spricht jetzt in der Tat nichts mehr dagegen, Referenten, die nicht gezählt wer- den sollen, – außerhalb des pragmatischen Zwecks der Registrierung – graphisch zu symbolisieren, also graphische Symbole für immer mehr pragmatische Zwecke und für immer mehr sprachliche Zeichen zu ent- wickeln“ (Koch 1997: 56). Der nächste fundamentale Schritt bestand dann in der Erfindung der Zählreihen. Indem einzelne Zeichen (Ziffern) aneinandergereiht wurden, ließen sich auf diese Weise neue Zahlen erz ug .2e en Ziffernsysteme, wie das römische, das sich in Europa im 5. Jahrhundert v. Chr. etablierte, dokumentieren eindrucksvoll diese neue Möglichkeit, mit Symbolen operativ zu hantieren: Mit wenigen Ziffern lässt sich eine große Menge an Zahlen erzeugen. Der Zahlenraum, der sich dadurch eröffnete, über- stieg nicht nur die Anzahl alltäglicher Güter. Er dehnte als Idee der Konstruierbarkeit unendlich vieler Zahlen das menschliche Denken in neue und abstrakte Bereiche aus, die in ihrer Unendlichkeit bis dahin allein dem mythischen Denken vorbehalten waren. Diese Ausdehnung ins Abstrakte, als das dem Gegenständlichen nicht Verhaftete und daher ins Unendliche Verlängerbare, konstituiert bis heute den Objektbereich der Mathematik. Ziffernsysteme ermöglichen jedoch nicht nur die Konstruktion be- liebig vieler Zahlen, sie animieren auch dazu, Anzahlen zu addieren oder zu subtrahieren, also einfache Berechnungen durchzuführen. Dabei zeig- te sich bald die Unhandlichkeit des römischen Ziffernsystems, dessen 2 „Seit dem 3. Jahrtausend v. Chr. sind uns Dokumente überliefert, aus denen zu schließen ist, daß verschiedene antike Hochkulturen unabhängig voneinander Zählreihen durch Zählsysteme bildeten, in denen nicht nur ein und dasselbe Zeichen fortlaufend aneinandergefügt, sondern Zeichen- gruppen gebildet und diese durch Individualzeichen ersetzt wurden: die Zählreihe ist mit Hilfe von Ziffern gebildet“ (Krämer 1988: 9). 19 I HISTORISCHER KONTEXT Zählreihen sehr lang u 3nd daher unübersichtlich werden konnten. Um mit römischen Ziffern rechnen zu können, musste auf Hilfsmittel wie Rechensteine, Rechenkugeln oder Rechenbretter zurückgegriffen wer- den. Diese Unhandlichkeit machte das Rechnen zu einer Kunst, die eine entsprechende Ausbildung voraussetzte und die damit das Rechnen für lange Zeit einer gebildeten Elite vorbehielt. Doch gesellschaftliche Ver- änderungen im frühen Mittelalter, insbesondere militärische und öko- nomische Entwicklungen, führten zu einem wachsenden Bedarf an Be- rechnungen und ließen das Rechnen mit römischen Ziffern an seine Grenzen stoßen. Es bedurfte eines neuen Ziffernsystems, um das Rech- nen effizienter und einfacher zu gestalten. Als Leonardo Fibonacci 1209 in seiner Schrift Liber Abaci das indisch-arabische Ziffernsystem in Europa bekannt machte, führte er damit nicht nur ein neues Zeichensys- tem ein, sondern transformierte das Rechnen vom Materialen ins Sym- bolische. Aufgrund seiner Besonderheit mit nur wenigen Ziffern auszu- kommen, erlaubte es das indisch-arabische Ziffernsystem, Berechnun- gen im Medium der Ziffern selbst, also auf Papier auszuführen und machte dadurch Rechenbretter oder Rechensteine überflüssig. Damit war die erste Medienwende vom Materialen zum Symbolischen – die Jahrtausende zuvor mit der Ablösung von Zählkugeln durch Zahlzeichen begonnen hatte – abgeschlossen. Die zweite Medienwende, vom Papier zum Computer, sollte gut achthundert Jahre später stattfinden. Doch obwohl Fibonacci das indisch-arabische Ziffernsystem und das Rechnen auf Papier bereits 1209 beschrieben hatte, dauerte es weitere dreihundert Jahre, bis sich diese neue Kulturtechnik in Europa vollstän- dig durchgesetzt hatte. Ein Grund dafür war die Ziffer Null, die dem römischen Ziffernsystem unbekannt wa 4r. Die Null wurde in Indien be- reits im 9. Jahrhundert als die Symbolisierung des Nichts eingeführt und ermöglichte es, die bis heute gültigen Rechenregeln der vier Grundre- chenarten zu entwickeln. Das indisch-arabische Ziffernsystem konnte dank der Null ein neues Prinzip der Konstruktion von Zahlen entwi- 3 Um die römischen Zahlen nicht beliebig lang werden zu lassen, mussten Zahlen immer wieder zu Individualzeichen zusammengefasst werden: I (1), V (5), X (10), L (50), C (100), D (500), M (1.000), etc. 4 Die Null symbolisiert das Nichts, das in Indien mit dem Nirwana gleich- gesetzt eine positive Konnotation hatte, im christlichen Europa des Mittel- alters jedoch negativ besetzt war. Trotz des heftigen Kampfes der katholi- schen Kirche gegen die neue Rechenkunst gewannen das indisch- arabische Zahlensystem und das Rechnen auf Papier aufgrund seiner Prak- tikabilität zunehmend an Bedeutung. Populäre Rechenbücher wie Rech- nung auff der linihen von Adam Ries aus dem Jahr 1518 und Rechenschu- len brachten die neue Kunst des Rechnens unter das Volk (vgl. Folkerts 1997; Menninger 1958). 20 1 RECHNEN – MOTOR DER WISSENSCHAFT UND TECHNIK k 5c eln: das Stellenwertprinzip. Dieses Prinzip besteht nicht in der endlo- sen Aneinanderreihung von Zahlzeichen, die schließlich zu enorm lan- gen Zahlendarstellungen führten wie mit römischen Ziffern. Das Stel- lenwertprinzip basiert lediglich auf zehn Individualzeichen (0 bis 9), wobei die Position der Zeichen – als Einer, Zehner, Hunderter, etc. – den Wert einer Zahl erzeugt. Anstatt Zeichen aneinanderzureihen wird nun die Konstruktion von Zahlen mit Hilfe eines Alphabets einiger weniger Ziffern formalisierbar. Formalisierung ist immer dann gegeben, wenn auf Basis endlich vieler Zeichen und expliziter Regeln beliebig viele neue Zeichen hergestellt werden können, ohne dazu das Alphabet ver- größern zu müssen. Das römische Ziffernsystem basierte zwar auf einer expliziten Regel, das Aneinanderreihen von Einheiten, aber die Indivi- dualzeichen müssen erweitert werden, will man größere Zahlen konstru- ieren. Im Unterschied dazu funktioniert das indisch-arabische Ziffern- system, dank der Null und dem Stellenwertprinzip, wie eine ‚symboli- sche Maschine‘ (vgl. Krämer 1988, 1991), die aus wenigen Komponen- ten beliebig viele Variationen herstellen kann. Dies ist die Vorausset- zung, um auch das Rechnen auf Papier formalisieren zu kö 6nnen. Dazu muss jedoch die Fläche des Papiers genutzt werden, indem man die zu addierenden oder zu subtrahierenden Zahlen untereinander schreibt und bei der senkrechten Spalte der Einer beginnend, von rechts nach links, die Zahlenwerte zusammenzählt oder voneinander abzieht. Diese Re- chentechnik, heute jedem Schulkind vertraut, wurde 1209 von Fibonacci erstmals in Europa demonstriert und später – als Rechnen auf der Linie bezeichnet – durch Rechenmeister wie Adam Ries verbreitet (vgl. Ries 1518). Fibonacci selbst nutzte das neue Ziffernsystem, um die Folge der so genannten Fibonacci-Zahlen zu studieren. Diese Folge entsteht, wenn man eine Zahl mit der jeweils vorausgehenden Zahl addiert: 0, 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, usf. Das Rechnen mit natürlichen Zahlen führte jedoch schnell zu neuen Zahlen. Bereits die Subtraktion einer größeren von einer kleineren Zahl sprengt den Raum natürlicher Zahlen und dehnt ihn jenseits der Null in 5 „The world suffered long for lack of positional numeration, and for a symbol for zero. Neither of these were invented by formalists. Both were the product of instrumental analysis. They came as the direct and inevita- ble result of the use of the abacus. [...] The mechanical fact that it [Aba- kus] is convenient to mount rods or wires parallel to one another in a fra- me produced the idea of positional numeration, and the necessity for no- ting down complete absence of counters under such circumstances gave us the zero” (Bush 1936: 650). 6 Beim Medienwechsel vom Papier zum Computer werden sich die zehn Zeichen des indisch-arabischen Ziffernsystems (0 bis 9) auf zwei Zustände (0, 1 materialisiert als on/off) reduzieren. 21 I HISTORISCHER KONTEXT den Bereich negativer Zahlen aus. Dieser Ausdehnungsprozess setzt sich mit der Division fort und spaltet die ganzen Zahlen in Teile auf, die sich in einer neuen Unendlichkeit – zwischen zwei ganzen Zahlen eingebettet (z.B. 1:3 = 0,33333…) – v .7erlieren Was mit dem Registrieren von Wa- rengütern und Rechenkugeln im Konkreten begann, entwickelte sich ab dem Mittelalter zu einer Kulturtechnik, welche die Zahlen und das Rechnen von realweltlichen Bezügen ablöste. Das Rechnen verselbstän- digt sich zu einem rein formalen Prinzip und erhält dadurch eine Auto- nomie, welche die Mathematik bis heute in die Lage versetzt, die Zahlen und Rechenoperationen in neue und immer abstraktere Bereiche zu er- weitern. Dabei gelangt die Mathematik von den natürlichen zu den gan- zen Zahlen, von den rationalen und den reellen zu den komplexen Zah- len, von Quaternionen und den hyperreellen zu den surrealen Zahlen (vgl. Landau 1984). Diese Autonomie der Zahlen und des Rechnens findet einen ersten Höhepunkt bei Francois Vieta, der im 16. Jahrhundert die Algebra – das Rechnen mit Buchstaben und Formeln – entwickelte (vgl. Klein 1992). Gefolgt von René Descartes, der im 17. Jahrhundert Algebra und Geo- metrie miteinander verknüpfte, indem er ein Koordinatensystem in die Geometrie einführte. Durch diese Metrisierung wurden die geometri- schen Objekte berechenbar. In der Geometrie schrieb Descartes 1637: „Und ich werde mich nicht scheuen, diese der Arithmetik entnommenen Ausdrücke in die Geometrie einzuführen, um mich dadurch verständli- cher zu machen“ (Descartes 1637/1981: 1). Mit dieser Algebraisierung der Geometrie bereitete Descartes sowohl der Anschaulichkeit der Geo- metrie ein Ende, als auch ihrer Beweiskraft basierend auf der geometri- schen Konstruktion. Der Beweis durch Konstruktion hatte seit Euklids Werk Die Elemente 325 v. Chr. als Wissenschaftsideal gegolten, das bis weit ins Mittelalter vorherrschte. Die griechische Mathematik, die auf einem geometrischen Zahlenverständnis und der axiomatisch-dedukti- ven Methode der Beweisführung basierte, stellte Zahlen grafisch als Strecken dar. Die Entdeckung der Inkommensurabilität zweier Strecken als Verhältnis einer Seite zur Diagonale eines Quadrats und die Folge- rung, dass sich beide Strecken nicht wie rationale Zahlen zueinander verhalten, stärkte die Vorrangstellung der Geometrie gegenüber der Arithmetik. Nichts Geometrisches durfte, so das Dogma der griechi- 7 „Im 16. und z.T. im 17. Jh. haben sich nicht nur die Brüche und irrationa- len Zahlen, sondern auch die Null, die negativen und die komplexen Zah- len in der Algebra durchgesetzt, und sie werden auch alle als Zahlen be- handelt, d.h. man führt mit ihnen die üblichen Rechenoperationen durch“ (Gericke 1970: 68). 22 1 RECHNEN – MOTOR DER WISSENSCHAFT UND TECHNIK schen Mathematik, durch die Arithmetik bewiesen w 8erden. Dies schränkte jedoch den Bereich der Algebra erheblich ein, da Ausdrücke wi 4e a , die sich geometrisch nicht konstruieren ließen, nicht zulässig waren. Descartes analytische Geometrie hingegen erlaubte Ausdrücke wi a4e , die den dreidimensionalen Anschauungsraum sprengten und die Konstruierbarkeit geometrischer Objekte durch ihre Berechenbarkeit ersetzte. Damit sicherte er im Europa des 17. Jahrhunderts dem Rechnen gegenüber der Geometrie die Vorherrschaft. Für die Entwicklung der neuzeitlichen und modernen Wissenschaft war diese Vorherrschaft der Algebra von entscheidender Bedeutung. Handwerk des Rechnens 1623 behauptete Galileo Galilei in seiner Schrift Saggiatore, dass das Buch der Natur in der Sprache der Mathematik geschrieben sei. Doch um dieses Buch entschlüsseln zu können, bedurfte es langwieriger Be- rechnungen per Hand. „It is this,“ konstatierte der Philosoph und Mathematiker Gottfried Wilhelm Leibniz, „that deters them from com- puting or correcting tables, from the construction of Ephemerides, from working on hypotheses, and from discussions of observations with each other. For it is unworthy of excellent men to lose hours like slaves in the labour of calculation which could safely be relegated to anyone else if machines were used“ (Leibniz 1685, übersetzt in: Goldstine 1993: 8). Von daher verwundert es nicht, dass ein Kollege Keplers, der Astronom Wilhelm Schickard 1623 die erste mechanische Rechenmaschine kons- truierte, die alle vier Rechenarten ausführen konnte, wie er euphorisch in Briefen an Kepler schrieb (vgl. Seck 1978). Allerdings wurde Schi- ckards Maschine bei einem Feuer zerstört, so dass nur Konstruktions- zeichnungen erhalten sind. Daher ist es die 1642 von Blaise Pascal ge- baute Pascaline, die als erste funktionstüchtige Rechenmaschine in die Geschichte einging, auch wenn sie nur die Addition und Subtraktion beherrschte. Obwohl die Idee, mechanische Rechenmaschinen zu bauen, seit dem 17. Jahrhundert die Wissenschaft beherrschte, konnte der Traum vom mechanischen Rechnen bis ins 20. Jahrhundert nur für die Grundrechenarten verwirklicht werd 9en. Da solche Rechenmaschinen in 8 Dieser griechische Denkstil wird jedoch nicht strikt eingehalten und von Mathematikern wie Diophant von Alexandrien durchbrochen. 9 Leibniz entwarf eine Rechenmaschine basierend auf einer Staffelwalze, mit der alle vier Grundrechenarten ausgeführt werden konnten. Er präsen- tierte seine Maschine, die heute im Landesmuseum Hannover ausgestellt ist, 1675 der Pariser Académie Royale des Sciences. Später stellte er Re- 23 I HISTORISCHER KONTEXT der Regel Einzelstücke waren, musste sich die Mehrheit der Forscher mit anderen Hilfsmitteln zufrieden geben. Um jedoch den ständig zu- nehmenden Bedarf an Berechnungen, der allein auf Papier nicht mehr effizient durchführbar war, zu bewältigen, wurde seit dem Mittelalter eine Vielzahl von mathematischen Hilfsmitteln entwickelt. Sie basieren auf zwei Traditionen des Rechnens: Der numerischen Berechnung auf Basis des indisch-arabischen Ziffernsystems und auf der grafischen Konstruktion von Zahlen basierend auf geometrischen Verfahren. Für das Rechnen mit Zahlen wurden seit der Antike Hilfsmittel wie der Abakus, Rechensteine und Rechentücher benutzt. Als John Napier 1614 eine neue Rechentechnik, die er Logarithmus nannte, in Europa einführ- te, vereinfachte er damit das Rechnen mit Zahlen ganz entscheidend. Der Logarithmus ist die Umkehrung der Exponentialfunktion und er- möglicht es, die Division auf Subtraktion und die Multiplikation auf Addition zurückzuführ 10en. Bereits drei Jahre später veröffentlichte der Mathematiker Henry Briggs die ersten logarithmischen Tabellen, die er mit Hilfe von Napiers Rechenstäbchen berechnet hatte. Diese Tabellen ersparten die Mühe des Ausrechnens für einfachere Anwendungen und entwickelten sich zu weit verbreiteten Hilfsmitteln, die bereits hundert Jahre später zu Nachschlagewerken mit Millionen von Zahlen ange- wachsen waren. Beispielsweise enthielt der Thesaurus Logarithmorum Completus von Juri Vega Mitte des 18. Jahrhunderts bereits mehr als zwei Millionen Zahlen (vgl. Whittaker, Robinson 1967). Zehn Jahre nach Napires Einführung des Logarithmus entwickelte der Mathemati- ker Edmund Gunter eine logarithmisch angeordnete Skala, die auf einen Stab übertragen den bis dahin einfachen Rechenschieber als mechani- sches Hilfsmittel weiter- entwickelte. Dabei wurden zwei Skalen auf zwei Stäben so angeordnet, dass man sie gegeneinander verschieben und Berechnungen ausführen konnte (vgl. Gunter 1624, Mayer 1908). Loga- chenregeln für die Kalkulation mit Binärzahlen auf und entwarf einen me- chanischen Digitalcomputer, den er jedoch nie baute (vgl. Leibniz 1703). 10 Darüber hinaus sind Logarithmen geeignet, um Integrale und Gleichungen mit unbekannten Exponenten zu berechnen. 1614 publizierte John Napier seine Schrift Mirifici logarithmorum canonis descriptio ejusque usus in utraque trigonometria etc. und führte damit das Rechnen mit Logarithmen ein. Hilfsmittel wie Napiers Rechenstäbchen erleichterten das Rechnen per Hand erheblich (vgl. Bryden 1992; Gladstone-Millar 2003). Ohne diese neue Rechentechnik hätte Johannes Kepler seine Berechnungen des Mar- sorbits, für die er vier Jahre benötigte, kaum zu seinen Lebzeiten schaffen können. Allerdings basierten Keplers Kenntnisse auf den Logarithmenta- feln von Jost Bürgi, der diese parallel zu Napier entwickelt hatte. Kepler selbst schrieb 1611 ein Lehrbuch mit Tafeln, das 1624 unter dem Titel Chilias logarithmorum veröffentlicht wurde. 24 1 RECHNEN – MOTOR DER WISSENSCHAFT UND TECHNIK rithmische Tabellen und Rechenschieber gehörten bis Mitte des 20. Jahrhunderts zu den weit verbreitetsten mathematischen Hilfsmitteln, die in jedem Laboratorium und Ingenieurbüro zu finden waren, bevor elek- tronische Computer und Taschenrechner die Vielfalt der Rechenmetho- den und -instrumente eliminierte. Abbildung 1: Logarithmische Spirale, logarithmischer Zirkel und logarithmischer Rechenschieber (Mayer 1908: 99, 102, 22)11 Eine ganz andere Methode, Berechnungen per Hand auszuführen, war das grafische Rechnen. Mit Zirkel, Lineal, Maßstab und anderen Zeichengerä- ten wurden reelle Zahlengrößen durch Strecken dargestellt. Neben der geometrischen Addition, Subtraktion, Multiplikation und Division ließen sich grafisch auch das Potenzieren und Radizieren ausführen. Im Laufe der Zeit entwickelten sich immer komplexere mechanische Apparate, um anspruchsvollere Rechenoperationen zu lösen. Es entstanden ästhetische Konstruktionen wie die logarithmische Spirale (s. Abbildung 1), die zum Radizieren von Quadratwurzeln diente und bereits von René Descartes und Jakob Bernouli untersucht wurde (vgl. Archibald 1918). Das grafi- 11 Das Deutsche Museum in München verfügt über eine der umfangreichsten Sammlungen mathematischer Instrumente weltweit. 25 I HISTORISCHER KONTEXT sche Rechnen basierte auf der Verschmelzung von Geometrie und Alge- bra durch Descartes und brachte faszinierende Bilder hervor, welche die Ästhetik mathematischer Strukturen sichtbar machte. Diese Ästhetik der Mathematik hat bis heute nichts von ihrer Faszination verloren. Trotz der Vielzahl verschiedener Methoden ließ sich das Rechnen bis Mitte des 20. Jahrhunderts nur teilweise an Maschinen und Hilfsmit- tel delegieren. Nichtsdestotrotz wurden Berechnungen zum Motor wis- senschaftlicher und technischer Entwicklung, seit die Astronomen des Mittelalters mathematische Strukturen auf Naturvorgänge übertragen hatten. Allerdings widerspricht die damals angewandte Mechanik des Rechnens unserem heutigen Verständnis von Exaktheit. Grafische und logarithmische Rechenmethoden waren Näherungsverfahren. Die Ex- aktheit der Berechnungen war durch die Rechenmethoden, die Mechanik der Hilfsmittel und die Erfahrung des rechnenden Wissenschaftlers oder Ingenieurs begrenzt. Rechnen war ein Handwerk, dessen Güte an die taktile Geschicklichkeit und sinnliche Wahrnehmung gebunden war. „Die Benutzung des Rechenschiebers erfordert die richtige Schätzung von Abständen und da bildet ein Abstand von 0,1 mm etwa die Grenze des mit bloßem Auge Erkennbaren. Beim Einstellen oder Ablesen einer Zahl wird also ein mittlerer Längenfehler von 0,1 mm zu erwarten sein“ (Runge/König 1924: 11).12 Allerdings ließen sich „bei großer Übung und langsamerem Rechnen […] die Genauigkeitsergebnisse selbstredend bedeutend steigern. […] Andererseits muß sich der weniger Geübte mit schlechteren Resultaten begnügen“ (Mayer 1908: 34). Die fortschreiten- de Entwicklung in Wissenschaft und Technik ließ jedoch nicht nur den Bedarf an Rechenpersonal immens steigen, sie erforderte auch immer exaktere Berechnungen. Daher lag die Idee einer Maschine in der Luft, die „[exact] algebraic patterns, just as the Jacquard-loom weaves flowers and leaves“ (Lovelace 1842) erzeugen konnte, als Charles Babbage 1822 die Konstruktion seiner Difference Engine und später der komplexeren Analytical Engine begann. Motiviert wurde er durch die hohe Fehler- quote in den logarithmischen Tabellen. „I am thinking that all these ta- bles (pointing to the logarithms) might be calculated by machinery“ (Babbage 1989: 30, 31). Sein Konzept kam dabei den Entwürfen moder- ner Computer erstaunlich nahe: Babbage konzipierte mit der Analytical Machine einen frei programmierbaren Rechner, der zwischen Daten und Programm unterschied, und der über die 1805 von Joseph-Marie Jac- quard für Webstühle entwickelten Lochkarten programmiert werden 12 Die Genauigkeit der graphischen Methoden basierte auf der Erkennbarkeit der markierten Koordinaten. Die Exaktheit der Logarithmen wurde durch die Länge der Rechenschieber begrenzt, der durchschnittlich siebenund- zwanzig Zentimetern lang war und zu einem Fehler von 1/1250 führte. 26 1 RECHNEN – MOTOR DER WISSENSCHAFT UND TECHNIK sollte, wie es für die Digitalrechner bis in die 1960er Jahre üblich war. 1843 schrieb Ada Lovelace den ersten maschinentauglichen Algorith- mus für Babbages Rechner. Aufgrund der Begrenzungen der Feinme- chanik seiner Zeit konnte Babbage die Analytical Machine jedoch nie bauen und es gelang ihm auch nur drei Exemplare der Difference Engine zu realisieren, die jedoch alle nicht funktionstüchtig waren. Abbildung 2: Werbung für eine Rechenmaschine, um 1900 (Mayer 1908: Anhang) Es waren also nach wie vor einfachere Rechenmaschinen, wie in Abbil- dung 2 dargestellt, die für den alltäglichen Rechenbedarf an Grundre- chenarten eingesetzt wurden. Im 18. Jahrhundert noch als Einzelexem- plare in Handwerksbetrieben gebaut, entwickelte sich im 19. Jahrhundert eine blühende Industrie für mathematische Geräte. Beispielsweise pro- duzierten die Thomas Werkstätten in Colmar mit dem Arithmometer den ersten mechanischen Tischrechner in Serie und lieferten bis 1878 welt- weit mehr als 1.500 Stück davon aus. Damit versorgten sie die wachsen- den Armeen menschlicher Rechner in den Rechensälen des Militärs, der Forschung und der Wirtschaft. Der Beruf des Computers war nicht nur 27 I HISTORISCHER KONTEXT ein Handwerksberuf. Das Rechnen war als arbeitsteilige Tätigkeit ein mechanischer Vorgang geworden, ähnlich der Fließbandarbeit eines Arbeiters in den aufkommenden Fabriken. „One eighteenth-century computer remarked that calculation required nothing more than ‚preserv- ing industry and attention, which are not precisely the qualifications a mathematician is most anxious to be thought to posses’. It might be best described as ‚blue-collar science’“ (Grier 2005: 4, 5). Heute sind vor allem die weiblichen Computer der Moore School of Engineering der Universität von Pennsylvania bekannt, die während des Zweiten Welt- kriegs Tabellen für Raketenbahnen berechneten. An eben demselben Ort wurde 1946 ENIAC Electronic Numerical Integrator and Computer, einer der ersten elektronischen Computer, gebaut. Nicht nur der steigen- de Rechenbedarf oder die Absicht, den Menschen die eintönige Arbeit des Rechnens abzunehmen, waren ausschlaggebend für die forcierten Bemühungen, Computer zu bauen. Es waren ökonomische Gründe, die für eine Automatisierung sprachen: “It seems that the [SSEC Self-Sequencing Electronic Computer von IBM] machine could be rented this fall for several weeks,“ schrieb der Computerpi- onier John von Neumann 1948. “The price is likely to be $300-$400 per hour of actual computing time. Regarding this price the following should be said: The machine multiplies (two 14 decimal digit numbers) in 20 msec. In parallel with this, it consumes 20 msec in sensing and obeying any kind of order. My judgment is that it takes 3 to 4 orders to ‚administer’ a multiplication. Hence it is reasonable to allow about 70 msec, or with checking 140 msec per multipli- cation. This amounts to 7 multiplications per second, that is, 25.000 per hour. At $350 per hour, this is 1.4 cents per multiplication. In a human computing group a (10 decimal digit) multiplication (with a ‚Friden’ or ‚Merchant’) takes about 10 sec. […] Allowing $50 per computer-week and a factor 2 for general overheads, this gives 12.5 cents per multiplication. Hence, the SSEC is, at these prices, 12.5/1.4 = 9 times cheaper than a human computer group“ (von Neumann 1948/1963: 665).13 Es ist diese Automatisierung des Rechnens, die den Anfang vom Ende des Rechnens per Hand, des Berufs des Computers und einer Fülle alter- nativer Rechenmethoden und Hilfsmittel markierte. 13 Die Friden wurde in den 1930er Jahren von Carl M. Friden entwickelt und von der Friden Calculating Machine Co., Inc. in den USA vertrieben. Die Marchant war ein Tischrechner der Marchant Calculating Machine Com- pany, der 1911 erstmals vertrieben wurde. 28 1 RECHNEN – MOTOR DER WISSENSCHAFT UND TECHNIK Automat isierung des Rechnens Die Entwicklungen des 17. Jahrhunderts hatten einen wachsenden Ein- fluss der Formalisierung und Mechanisierung auf Wissenschaft, Technik und Alltag zur Folge. Algorithmen, Kalküle, mechanische Instrumente, aber auch die Idee der industriellen, arbeitsteiligen Produktion stehen im Zeichen der regelbasierten Ordnung von Aktivitäten.14 Ohne Formalisie- rung ist Mechanisierung nicht denkbar (vgl. Krämer 1988, 1991). Be- reits 1637 stellte René Descartes in seiner Schrift Von der Methode des richtigen Vernunftgebrauchs und der wissenschaftlichen Forschung da- für die Regeln auf: „Niemals eine Sache als wahr anzuerkennen, von der ich nicht evidentermaßen erkenne, dass sie wahr ist […] Jedes Problem, das ich untersuchen würde, in so viele Teile zu teilen, wie es angeht und wie es nötig ist, um es leichter zu lösen […] Mit den einfachsten und am leichtesten zu durchschauenden Dingen zu beginnen, um so nach und nach, gleichsam über Stufen, bis zur Erkenntnis der zusammengesetztes- ten aufzusteigen, ja selbst in Dinge Ordnung zu bringen, die natürli- cherweise nicht aufeinander folgen […] Überall so vollständige Aufzäh- lungen und so allgemeine Übersichten auszustellen, daß ich versichert wäre, nichts zu vergessen“ (Descartes 1637/1960: 15, 16). Damit skiz- zierte Descartes das Vorgehen der neuzeitlichen Wissenschaft, indem sie in analytischer Weise alle Probleme in Teilprobleme und alle Lösungen in Lösungsschritte zerlegt. Das derart gewonnene und dargestellte Wis- sen, so die Hoffnung Descartes, würde für jedermann nachvollziehbar, wiederholbar und überprüfbar sein. Mit seiner Methode, die er der geo- metrischen Beweisführung entlehnte, sollten alle geometrischen und algebraischen Probleme lösbar seien, solange man diesen Regeln folgte. Jedes Kind könne, falls es die Regeln befolge, solche Probleme lösen: Warum nicht auch eine Maschine? Descartes Methode basierte zwar auf einem mechanisierbarem Kon- zept des Problemlösens und damit auch des Rechnens, tatsächlich aber war die praktikable Delegation einer breiten Fülle von Problemlösungen an Maschinen mit dem damaligen Verständnis von algorithmischem, also regelbasiertem Problemlösen nicht möglich. Descartes Vorschlag erinnert heute eher an vage Kochrezepte als an maschinentaugliche Al- gorithmen. Tatsächlich dauerte es weitere zweihundert Jahre bis die Ma- thematikerin Ada Lovelace eine erste Maschinenanweisung für die von 14 Beispielsweise wäre Adam Smiths Werk The Wealth of Nations von 1776 ohne die Formalisierung und Mechanisierung von Abläufen nicht denkbar. Im 18. und 19. Jahrhundert kommt es zu einer regelrechten Normierungs- und Quantifizierungswut, die bis heute anhält (vgl. Porter 1988, 1996; Poovey 1998; Star, Bowker 2000). 29 I HISTORISCHER KONTEXT Charles Babagge konzipierte, aber niemals gebaute Analytical Engine formulierte. 1843 schrieb sie: „I want to put in something about Ber- noullis Numbers [...] as an example of how an implicit function may be worked out by the engine, without having been worked out by human head and hand“ (Lovelace 1843). Bis zum Beginn des 20. Jahrhunderts blieben Rechenmaschinen jedoch rein mechanische Geräte. Ihre Mecha- nik war mit den Operationen, die sie ausführen konnten, identisch. Oder in anderen Worten: Die Hardware war zugleich die Software. Beispiels- weise basierte der Arithmometer auf einer Staffelwalze, die bereits 1627 von Leibniz erfunden worden war (vgl. Leibniz 1703). Die Verteilung der Zähne auf der Staffelwalze entsprach den mathematischen Operatio- nen, welche die Maschine ausführen konnte. Doch über die vier Grund- rechenarten kamen diese mechanischen Rechenmaschinen nie hinaus.15 Daher bedurfte es anderer Hilfsmittel, um komplexe Operationen wie das Wurzelziehen oder das Lösen anspruchsvoller Gleichungen in einer einzigen Maschine zu automatisieren. Diese Revolution des maschinellen Rechnens begann mit einem Gedan- kenexperiment des Mathematikers Alan Turing zur Frage, was ein Algo- rithmus denn genau sei. Turing gab keine Definition eines Algorithmus, sondern er konzipierte 1936 eine ideelle Maschine, die den Prozess des Schreibens selbst mechanisierte (vgl. Turing 1936; Church 1936). „Tu- ring greift dazu auf seine Schulzeit zurück und beschreibt den Vorgang des Rechnens als Notieren von Zahlen nach festen Regeln in den Re- chenkästchen karierter Schulhefte. Dies ist ein völlig mechanischer Pro- zeß, und Turing beschreibt ihn deshalb angemessen im Modell einer programmierten Maschine, der Turing-Maschine“ (Coy 1994: 71). Die Turing-Maschine sollte Zeichen schreiben, lesen und löschen können, indem sie sich nach den Anweisungen eines Programms entlang eines Papierbandes von einem Feld zum nächsten bewegte. Jede Anweisung musste derart formuliert sein, dass sie schrittweise ausgeführt werden konnte. Dabei war das Ziel, eine Ausgangskonfiguration von Zeichen in endlich vielen Feldern in eine neue Konfiguration zu überführen. „If at each stage the motion of a machine [...] is completely determined by the configuration, we shall call the machine an ‚automatic machine’ (a- machine)“ (Turing 1936/1964: 118). Turing behauptete, dass jeder Algo- 15 Eine Ausnahme bilden mechanische Rechenmaschinen, die eine bestimm- te Gleichung lösen konnten, beispielsweise zur Berechnung der Gezeiten. Als einzige frei programmierbare, mechanische Rechenmaschine kann Vannevar Bushs Differential Analyzer gelten, den er zwischen 1928 und 1932 am Massachusetts Institute of Technology entwickelte (vgl. Bush 1936). 30 1 RECHNEN – MOTOR DER WISSENSCHAFT UND TECHNIK rithmus, der diesen Regeln folgt, berechenbar und daher von einer frei programmierbaren Maschine ausführbar sei. Mit dem Konzept der Tu- ring-Maschine spezifizierte er Descartes Regeln von 1637, wie ein Pro- blem zu analysieren und zu lösen sei, und er verschob die Problematik, eine frei programmierbare Rechenmaschine zu bauen, von der Hardware auf die Software. Die Hardware musste lediglich in der Lage sein, in normierter Weise mit Symbolen umzugehen und diese gemäß einem Programm regelbasiert zu manipulieren. Doch Turings Idee einer a- Machine und Babbages Analytical Engine existierten lediglich auf dem Papier. Solange kein geeignetes Medium für die Ausführung unter- schiedlichster Symboloperationen gefunden war, ließen sich diese Papiermaschinen nicht in die Realität umsetzen. Erst als die Mechanik durch Elektrik und später Elektronik ersetzt wurde, gelang es, solche frei programmierbaren Maschinen zu bauen. Führte die erste Medienwende von der Räumlichkeit der Zähl- und Rechenobjekte auf die Ebene des Papiers, so transformierte die zweite Medienwende die Statik des Papiers in das fluide Medium des Stroms. Der Computer als symbolver- arbeitende Maschine simuliert dabei den Prozess des Schreibens selbst. Was geschrieben wird, hängt vom Programm ab. Doch erst in den 1940er Jahren begann die Geschichte der tatsächlich gebauten Computer mit Rechnern, die so groß waren, dass sie Maschinenhallen füllten: 1938 stellte Konrad Zuse seine Z1 und 1941 seine Z3 fertig, 1942 bauten John Atanasoff und Clifford Berry den ABC Computer sowie Howard H. Aiken Mark I, gefolgt von Tommy Flowers Colossus 1944, John Mauchlys und Presper Eckerts ENIAC 1946 und dem SSEC Rechner von IBM 1948 (vgl. Campbell-Kelly/Aspray 1996; Ceruzzi 1998; Ifrah 2001). Diese ersten Großrechner kamen ohne Software, Bildschirme oder Drucker aus. Sie konnten jedoch mehrere Operationen pro Sekunde ausführen, weshalb sie bald als Elektronengehirne bezeichnet wurden. Die Programmierung dieser Großrechner war schweißtreibende Arbeit. Für ENIAC beispielsweise, der aus 18.000 Vakuumröhren bestand, mussten Tausende von Steckverbindungen verkabelt werden. „Setting up the ENIAC meant plugging and unplugging a maze of cables and setting arrays of switches. In effect, the machine had to be rebuilt for each new problem it was to solve“ (Ceruzzi 1998: 21). Die Programmie- rer befanden sich buchstäblich in Mitten der Computer, die nicht annä- hernd die Leistungsfähigkeit eines heutigen Mikrochips hatten. Auch Computerbugs waren noch echte Käfer, die Kurzschlüsse verursachten. Grace Hopper, die erste Programmiererin des Harvard Computers Mark I, fand im September 1945 eine Motte in einer der Vakuumröhren und schrieb in das Entwicklungslogbuch: “First actual case of bug being found“ (Hopper 1945). Doch im Laufe der Jahre wurden die Rechner 31 I HISTORISCHER KONTEXT nicht nur schneller und einfacher in ihrer Bedienung, ihre Verbreitung nahm rapide zu. Bereits in den frühen 1960er Jahren waren weltweit Computer im Wert von rund 100 Millionen Dollar installiert. Automati- sierung, Planung und Prognose industrieller Prozesse beanspruchten da- bei die meiste Rechenzeit. 1969 eroberte die NASA mit einem IBM Sys- tem/360 Großrechner, der 10.000 Operationen pro Sekunde ausführte, den Mond, und 2001 entschlüsselten Supercomputer das menschliche Genom. Die Supercomputer der TOP-500 Liste der weltweit schnellsten Rechner okkupieren nach wie vor hallengroße Gebäude und haben eige- ne Namen wie BlueGene/L‚ Earth Simulator, Red Storm, Frontier, Mare Nostrum oder Thunderbird (vgl. TOP-500 2008). Diese Number Crun- cher führen Billionen von Operationen pro Sekunde aus und stoßen mitt- lerweile an ihre physikalischen Grenzen. Ein Vergleich zwischen frühen und aktuellen Computern zeigt: Wofür der Earth Simulator, von Juni 2002 bis Juni 2004 schnellster Rechner der Welt, sechs Tage Berech- nungszeit benötigt, hätte einen Cray-1 Computer, schnellster Rechner des Jahres 1978, mehr als sieben Millionen Jahre beschäftigt. Menschli- che Rechner müssten dafür bis in alle Ewigkeit rechnen. Diese Rechen- kapazitäten werden heute nicht nur für die Automatisierung, die Planung oder den Betrieb von Benutzersoftware benötigt, sie werden hauptsäch- lich für die Ausführung numerischer Simulationen gebraucht. Neben allen Veränderungen, die der Computer für Wissenschaft und Technik in der Vergangenheit mit sich brachte, ist es die Entwicklung und Nutzung numerischer Simulationen, die Wissenschaft und Technik aktuell grund- legend revolutionieren. Numerische Simulationen erlauben es, auf Basis von Berechnungen Computerexperimente durchzuführen, in die Zukunft zu prognostizieren und die Natur zu optimieren – vorausgesetzt die Na- tur verhält sich wie die berechenbare Mechanik eines exakten Uhrwerks. Numerische Simulat ion unbekannter Lösungen Als Isaac Newton und Gottfried Wilhelm Leibniz Ende des 17. Jahrhun- derts die Differentialrechnung erfanden und damit das Rechnen mit Un- endlichkeiten operationalisierten, hatten sie sich sicherlich keine Vor- stellung davon, welchen gewaltigen Einfluss ihre Entwicklung auf Wis- senschaft, Technik und Alltag haben würd 16e. War die Beherrschung des Nichts die herausragende intellektuelle Leistung des frühen Mittelalters, so stellte die Beherrschung des Unendlichen die maßgebliche Leistung 16 Eine ausführliche Darstellung der Entwicklung des Differentialkalküls wird im nächsten Kapitel im Abschnitt Mathematisierung und Momentum gegeben. 32 1 RECHNEN – MOTOR DER WISSENSCHAFT UND TECHNIK am Übergang zur Neuzeit dar. Die Operationalisierung beider Konzepte mit Hilfe von Symbolen und Rechenregeln erlaubt es Wissenschaftlern und Ingenieuren, die Entwicklung von Prozessen in Raum und Zeit ma- thematisch zu beschreiben. Das Differentialkalkül ist dabei die maßgeb- liche Methode, um die Bewegung und Dynamik eines Geschehens dar- zustellen. Es nimmt Bezug auf die neuzeitliche Idee einer Welt, die wie die Mechanik eines exakten Uhrwerks funktioniert. 1814 formulierte Pierre-Simon de Laplace optimistisch: „Wir müssen also den gegenwär- tigen Zustand des Weltalls als die Wirkung seines früheren Zustandes und andererseits als die Ursache dessen, der folgen wird, betrachten. Eine Intelligenz, welche für einen gegebenen Augenblick alle Kräfte, von denen die Natur belebt ist, sowie die gegenseitige Lage der Wesen, die sie zusammen setzen, kennen würde, und überdies umfassend genug wäre, um diese gegebenen Grössen einer Analyse zu unterwerfen, würde in derselben Formel die Bewegungen der grössten Weltkörper wie die des leichtesten Atoms ausdrücken: nichts würde für sie ungewiss sein und Zukunft wie Vergangenheit ihr offen vor Augen liegen. Der menschliche Geist bietet in der Vollendung, die er der Astronomie zu geben gewusst hat, ein schwaches Bild dieser Intelligenz“ (de Laplace 1814: Einleitung). Das deterministische Wissenschaftsverständnis, wie es Laplace tref- fend beschrieb, resultierte aus der Entdeckung der Naturgesetze durch Galileo, Kepler und Newton: 1590 hatte Galileo das Gesetz der fallen- den Körper formuliert, 1609 beschrieb Kepler das Gesetz der Planeten- bewegung und 1687 verfasste Newton die drei fundamentalen Gesetze der Bew 17egung. Basierend auf diesen Gesetzen wurde für die Wissen- schaft das Verhalten der Natur in Form von Bewegungsgleichungen be- schreibbar, und damit berechenbar und vorhersagbar. Im Kontext dieser mechanistischen Auffassung wurde Bewegung als Änderungsrate von Quantitäten im Verhältnis zu anderen Quantitäten artikuliert (dx/dy). Diese Verhältnisse lassen sich mit Differentialen auf Papier schreiben oder als Kurven grafisch darstellen. Zahlreiche mathematische Modelle wissenschaftlicher Sachverhalte basieren seither auf Differentialglei- chungen. Um diese Modelle zu berechnen, müssen aus den Gleichungen Lösungsfunktionen analytisch abgeleitet werden, die dann das Verhalten des realweltlichen Systems für jeden Moment beschreiben. Berechnen ist hier algebraisch, als Umformung von Gleichungen in allgemein gül- tige exakte, d.h. für alle Raum- und Zeitpunkte geltende Lösungsfunk- 17 Galileo formulierte 1590 in De motu antiquiora die Fallgesetze, Kepler beschrieb 1609 in Astronomia Nova die Bewegung der Planeten auf elipti- schen Bahnen und Netwon postulierte 1687 in seinem Werk Philosophiae Naturalis Principia Mathematica die Bewegungsgesetze. 33 I HISTORISCHER KONTEXT tionen, zu verstehen. Indem Zahlwerte in die Lösungsfunktion eingesetzt werden, lassen sich diese dann für konkrete Problemstellungen nume- risch berechnen und in die Zukunft extrapolieren. Auf diese Weise wer- den die Umlaufbahnen von Planeten, die ballistischen Kurven von Ka- nonenkugeln oder der Landeanflug einer Marssonde berechen- und vor- hersagbar. Abbildung 3: Berechnungsgitter für die numerische Simulation der Strömung um ein Flugzeu, (SCAI Report 1998: 16) Eines der wichtigsten Differentialgleichungssysteme der Wissenschaft sind die Navier-Stokes-Gleichungen, die in Form nicht-linearer Diffe- rentialgleichungen zweiter Ordnung das Strömungsverhalten von Flüs- sigkeiten und Gasen beschreiben. Diese Gleichungen der Strömungsme- chanik finden in der Meteorologie, der Physik und der Technik eine breite Anwendung und gehen auf die Arbeiten der Physiker Claude- Louis Navier und George Gabriel Stokes Mitte des 19. Jahrhunderts zu- rück (vgl. Navier 1822, Stokes 1845). Das Problem der Strömungsdy- namik ist jedoch, dass diese Gleichungen nur für stark idealisierte Rand- bedingungen analytisch lösbar sind, beispielsweise für langsam fließen- de Flüssigkeiten in einem geraden Rohr ohne Reibung und Hindernisse. Soll jedoch die Strömung für realistischere Randbedingungen wie Hin- dernisse in der Strömung, raue Oberflächen oder geknickte Rohre be- rechnet werden, dann werden die Gleichungen zu komplex, um sie ana- lytisch lösen zu können. Dies bedeutet, dass sich keine Lösungsfunktion aus den Gleichungen ableiten lässt, dass man die exakte Lösung also nicht kennt. Diese komplexen, aber analytisch unlösbaren Gleichungen sind jedoch für viele Bereiche der Wissenschaft und Technik unver- 34 1 RECHNEN – MOTOR DER WISSENSCHAFT UND TECHNIK zichtbar, soll das Wetter von Morgen, die Klimaentwicklung der nächs- ten Jahrzehnte oder die Strömung um einen Flugzeugflügel berechnet werden. Die mathematische Alternative zur analytischen Lösung ist nun die numerische Simulation der Gleichungen. Dabei wird keine exakte Lö- sungsfunktion algebraisch abgeleitet, sondern die Variablen der Glei- chung werden numerisch berechnet. Möglich wird dies, indem die Glei- chungen mit numerischen Werten – Zahlenwerte, die meist aus Messun- gen stammen – initialisiert und von Zeitschritt zu Zeitschritt für einzelne Berechnungspunkte, wie in Abbildung 3 dargestellt, berechnet werden. Dabei liegt der numerischen Simulation die Idee zugrunde, dass je höher die Auflösung der raum-zeitlichen Berechnungen ist – also je dichter das Netz an Berechnungspunkten und die Anzahl der Zeitschritte wird – des- to mehr nähert sich die approximierte Lösung der exakten, aber unbe- kannten Lösung an. Die Simulation simuliert so zusagen numerisch die unbekannte algebraische Lösung. Simulationen sind daher immer nur Näherungsverfahren und sie gelten nur für den berechneten Raum-Zeit- Ausschnitt auf Basis der gewählten Anfangswerte, mit welchen sie ini- tialisiert wurden. Solche numerischen Simulationen können zwar für sehr grobe Berechnungsgitter und sehr einfache Gleichungen prinzipiell per Hand berechnet werden, so wie dies Lewis Fry Richardson in den 1920er Jahren versuchte. Angesichts des enormen Rechenaufwandes für etwas komplexere Gleichungen und Randbedingungen sowie höhere Auflösungen bedarf es jedoch leistungsfähiger automatischer Rechen- maschinen. Denn je feiner die Auflösung, aber auch je mehr Variablen und realitätsnahe Annahmen berücksichtigt werden, desto höher ist der Rechenaufwand. Beispielsweise werden heutige Klimamodelle global gerechnet, mit einer Auflösung von hundert Kilometern. Die Simulatio- nen durchlaufen für diese Berechnungen allein für einen Zeitschritt be- reits Millionen von Rechenoperationen. Selbst heutige Supercomputer benötigen einen ganzen Tag, um die Klimaentwicklung für drei Jahre zu simulieren, denn pro simuliertem Jahr müssen einige Quadrillionen Be- rechnungen durchgeführt werden. Daher verwundert es nicht, dass es die neue Rechentechnik der Simulation ist, die von Beginn an die Compu- terentwicklung angetrieben hat und dies bis heute tut. Anfangs aus mili- tärischen Notwendigkeiten des zweiten Weltkrieges, aber bald danach aufgrund wissenschaftlicher, technischer und industrieller Erfordernisse. Was mit der Revolution des Rechnens und den mechanischen Rechen- instrumenten im Mittelalter begann, hat sich mittlerweile zu komplexen Berechnungen auf Basis umfangreicher Simulationsmodelle und Num- ber Crunchern enormen Ausmaßes entwickelt. Ziel dieser Berechnungen ist nichts weniger als die Natur in Form numerischer Computerexperi- 35 I HISTORISCHER KONTEXT mente zu optimieren und die Zukunft vorherzusagen. Doch diese Com- puterexperimente bergen ein Problem in sich. Blickt man auf die historische Entwicklung des Rechnens zurück, so enthüllt sich der mechanistische und deterministische Blick der Wissen- schaften auf die Welt. Dieser Blick wurde spätestens mit Newtons Werk Philosophiae Naturalis Principia Mathematica von 1687 in seinem vol- len Ausmaß deutlich. Mit dieser Schrift verankerte er die Idee, nach der alles, was berechenbar ist, auch wissenschaftlich wahr ist. Motiviert wurde er dabei von Keplers Berechnung und erfolgreicher Vorhersage der Bahn zweier Planeten. Doch was als Newtons Traum von einem de- terministischen und komplett berechenbaren Universums begann, wan- delte sich zweihundert Jahre später in einen Alptraum. Der Mathemati- ker Henri Ponicaré konnte 1889 in seiner Antwort auf die Preisfrage von Schwedens König Oskar II nach der Stabilität des Sonnensystems nach- weisen, dass sich bereits ein Drei-Körper-System instabil und chaotisch verhalten kann und dass das Sonnensystem als Mehr-Körper-System irgendwann kollabieren würde (vgl. Poincaré 1891). „Würden wir die Gesetze der Natur und den Zustand des Universums für einen gewissen Zeitpunkt genau kennen, so könnten wir den Zustand dieses Univer- sums für irgendeinen späteren Zeitpunkt genau voraussagen. Aber selbst wenn die Naturgesetze für uns kein Geheimnis mehr enthielten, können wir doch den Anfangszustand immer nur näherungsweise kennen. Wenn wir dadurch in den Stand gesetzt werden, den späteren Zeitpunkt mit dem selben Näherungs- grade vorauszusagen, so ist das alles, was man verlangen kann; wir sagen dann: die Erscheinung wurde vorausgesagt, sie wird durch die Gesetze be- stimmt. Aber es ist nicht immer so; es kann der Fall eintreten, dass kleine Unterschiede in den Anfangsbedingungen große Unterschiede in den späteren Erscheinungen bedingen; ein kleiner Irrtum in den ersteren kann einen außer- ordentlich großen Irrtum für die letzteren nach sich ziehen. Die Vorhersage wird unmöglich und wir haben eine ‚zufällige Erscheinung’“ (Poincaré 1908/1973: 56-57). Die Vorstellung eines instabilen Sonnensystems schockierte Poincarés Zeitgenossen zutiefst. Der strenge Determinismus Newtons, ein Univer- sum, in dem sich alle Objekte in vorhersagbaren Bahnen bewegen, löste sich vor ihren Augen in Chaos auf und damit der Traum neuzeitlicher Wissenschaft, die Welt exakt berechnen und prognostizieren zu können. Wenn selbst kleine Unterschiede in den Anfangsbedingungen große Unterschiede in den späteren Erscheinungen bedingen konnten, so ließ das ungenaue Wissen über die Naturgesetze und Anfangszustände es nicht zu auf den Endzustand zu schließen. Dies stand konträr zur deter- 36 1 RECHNEN – MOTOR DER WISSENSCHAFT UND TECHNIK ministischen Doktrin linearer Systeme, in welcher kleine Unterschiede in den Anfangsbedingungen ebenso kleine und vor allem genau bere- chenbare Unterschiede in den späteren Erscheinungen bedingen. Das idealisierte Zwei-Körper-System mit perfekten Kugelplaneten, wie es Kepler für seine Planetenbahn berechnet hatte, verhielt sich linear, so- lange es keinen störenden Einfluss gab. Ein Drei-Körper-System verhält sich durch den Einfluss des dritten Körpers bereits nicht mehr linear und damit, unter bestimmten Umständen, chaotisch. Exakte und damit siche- re Prognosen sind für Drei-Körper-Systeme nicht möglich, da bereits jede Messung Ungenauigkeiten in sich birgt. Die Simulation des Wet- ters, des Klimas oder von Molekülen beschreibt Systeme, die um ein Vielfaches komplexer sind. Die moderne Wissenschaft muss sich daher von der Idee einer exakt berechenbaren und vorhersagbaren Welt verab- schieden, unabhängig davon wie leistungsfähig die Computer sind oder in Zukunft noch werden. Daraus folgt, dass Prognosen für komplexe Systeme prinzipiell von Unsicherheiten gekennzeichnet sind. Selbst wenn sich die Welt gemäß des strengen Determinismus eines Newton oder Laplace verhalten würde, die Wissenschaft könnte sie mit ihren mathematischen Modellen und schnellen Computern niemals exakt be- rechnen. 37 2 VOM EXPERIMENT ZUM COMPUTEREXPERIMENT Mathematik und Berechnung sind das eine Standbein moderner Wissen- schaft, Empirie in Form von Beobachtung, Experiment und Messung das andere. Um beide miteinander zu verbinden, bedarf es nicht nur geeigne- ter Rechentechniken wie sie die frühe Neuzeit entwickelt hat, sondern auch einer entsprechend angepassten Forschungslogik und eines Ver- ständnisses dessen, was als real angesehen wird. Wie dem Rechnen, geht auch der empirischen Forschung eine Entwicklungsgeschichte voraus, welche die Voraussetzungen dafür schuf, dass sich Wissenschaft aktiv mit den Phänomenen und Prozessen der Natur auseinandersetzt und die- se reproduzierbar macht. Die Geschichte des empirischen Wissens reicht weit ins Mittelalter zurück und dokumentiert die Transformation dessen, was unter wissenschaftlicher Erfahrung und Forschung, aber auch unter Realität und dem Verhältnis des Menschen zur Realität verstanden wur- de. Diese Transformation kumuliert in der neuzeitlichen Konzeption des mechanistischen Weltbildes und dessen Verständnis von Empirie als instrumentenvermittelter Beobachtung, Messung und Experiment. Zu Beginn dieser Entwicklung im frühen Mittelalter sind Experimente, die in die natürliche Ordnung eingreifen, noch undenkbar. Zwar hatte Aristoteles als die maßgebliche philosophische Autorität des Mittelalters 350 v. Chr. bereits empirische Studien betrieben, doch basierten diese vor allem auf Beobachtungen. Zwei Aspekte prägen entscheidend die mittelalterliche Wissenschaftsauffassung und dokumentieren den Unter- schied zum Denkstil der Neuzeit und Moderne. Das eine ist die theologi- sche Interpretation der Welt, denn in der Natur zeige sich der Schöpfer- 39 I HISTORISCHER KONTEXT wille Gottes und diesen galt es in ehrfürchtigem Staunen zu betracht n.1e „Das Staunen hatte seinen Ursprung in der philosophischen Kontempla- tion. […] Neugier dagegen war das moralisch zweifelhafte Begehren, Sachen herauszufinden, die einen nichts angingen, seien es die Geheim- nisse der Natur oder die der Nachbarn“ (Daston 2001: 81). Neugierde oder gar Eingriffe in die natürliche Ordnung durch Experimente verbo- ten sich daher von selbst und so waren theologischen Spekulationen über Naturphänomene Tür und Tor geöffnet. Aus heutiger Sicht wunderlich anmutende Theorien über die Wasser des Himmels oder die Transmuta- tion unedler Metalle in Gold waren anerkannte und diskutierte Themen. Vor diesem spekulativen Hintergrund ist Albertus Magnus Bemerkung anlässlich der Gründung des ersten Studiums Generale im deutschspra- chigen Raum 1248 in Köln zu verstehen: „Wenn wir Naturwissenschaf- ten betreiben, dann müssen wir danach forschen, was auf natürliche Weise in der natürlichen Wirklichkeit geschehen kann, nach den inneren Ursachen der Natur, und nicht nach der Art und Weise erkunden zu su- chen, nach der Gott, der Schöpfer, gemäß seinem freien Willen das von ihm geschaffene Wunder vollbringt, um seine Macht zu demonstrieren“ (Albert 1248, übersetzt in: Sturlese, 1993: 344). Der zweite Aspekt scholastischer Wissenschaftsauffassung zog sich als Disput durch das gesamte Mittelalter und verhandelte die Frage, was als real anzusehen sei: die Allgemeinbegriffe und Prinzipien oder das Einzelne, sinnlich Wahrnehmbare. Setzten sich im so genannten Univer- salienstreit zunächst die idealistischen Realisten mit ihrer Auffassung durch, die Universalien seien als reale Wesenheiten zu denken, so ent- wickelten sich ab dem 10. Jahrhundert konträre Ansichten. Die Nomina- listen, allen voran Anselm von Canterbury, waren der Auffassung, dass nur Dinge, die wir mit unseren Sinnen wahrnehmen können, real seien. Begriffe hingegen seien nur Bezeichnungen. Diese Via moderna kriti- sierte die reale Existenz allgemeiner Begriffe, auch die eines Gottes oder 1 „War das Interesse an methodisch strenger Erforschung der Natur schon in der Spätantike auf die Herausarbeitung des Exempelhaften und Wunderba- ren zusammengeschrumpft, so verstärkte sich diese Tendenz bei den Kir- chenvätern noch. Sie betrachteten die Natur vornehmlich als Symbol der Weisheit Gottes und als einen Weg, der über die Natur hinausführte. Au- gustinus warnte davor, ihr zu viel Eigeninteresse zuzuwenden. Was wir heute Naturwissenschaft nennen, war in seinen Augen verwerfliche Neu- gier (curiositas), weil sie nicht darauf abzielte, über die sichtbare Natur hi- nauszugehen“ (Flasch 1995: 117). Das Mittelalter berief sich bezüglich der Naturerscheinungen vor allem auf Plinius Naturgeschichte aus dem ersten Jahrhunderts n. Chr. Plinius behandelte darin die Kosmologie, die Erdteile, den Menschen, Tiere, Pflanzen und Mineralien. 40 2 VOM EXPERIMENT ZUM COMPUTEREXPERIMENT der Seel 2e. Die Frage nach der Natur der Allgemeinbegriffe war jedoch für die Entwicklung eines wissenschaftlichen Denkens entscheidend, denn sie klärte die Grundlage wissenschaftlicher Erkenntnis und den Gegenstand von Forschung. Solange das Allgemeine die Grundlage bil- dete, konnte man den Einzeldingen – sei es durch Beobachtung oder Experiment – nichts Interessantes entlocken. Wenn aber die Einzeldinge das Reale waren, dann ließen sich auf dieser Grundlage durch Beobach- tung und Experiment wichtige Erkenntnisse gewinnen. Der Universalienstreit war eng verknüpft mit den maßgeblichen Quellen des mittelalterlichen Denkens, insbesondere mit den Auslegun- gen der Schriften des Aristoteles und, durch diesen vermittelt, Platons. Da bis weit ins Mittelalter nur die logischen Schriften Aristoteles be- kannt waren, konnte sich das Ideal, Erkenntnis aus dem Allgemeinen zu deduzieren, behaupten: Ausgehend von obersten Grundsätzen sollten – wie es die Geometrie mit ihrer Axiomatik seit Euklid praktizierte – mit- tels Beweise Erkenntnisse deduziert werd n.3e Zwar konnten sinnliche Erfahrungen herangezogen werden, um induktiv zu Axiomen zu gelan- gen, doch mussten diese, allgemein einsichtige Sachverhalte darstellen. Wissenschaft wurde nicht als Aufzählung einzelner Fakten verstanden, geschweige denn als experimentelle Einzeluntersuchungen. Erst im 12. Jahrhundert drangen über die arabischen Kommentatoren die realwis- senschaftlichen Texte des Aristoteles ins mittelalterliche Bewusstsein und damit neue Konzepte wissenschaftlicher Praxis. Aristoteles hatte über Meteorologie, Biologie, Botanik, Medizin, Astronomie und vieles mehr geschrieben und legte dabei ein strukturiertes Vorgehen basierend auf wissenschaftlichen Beobachtungen an den Tag. Als empirischer For- 2 Mit ihrem gemäßigten Realismus bemühten sich Albertus Magnus und Thomas von Aquin um einen gangbaren Mittelweg, indem sie dem All- gemeinen keine eigene Realität zusprachen, es aber in den Einzeldingen realisiert sahen. Ohne diese Realisierung in den Einzeldingen sei dass All- gemeine nur ein Gedanke. 3 Die aristotelische Axiomatisierung und die Geometrie Euklids, die als Paradebeispiel der geometrischen Beweiskunst galt, stellten die Grundlage des frühmittelalterlichen Wissenschaftsideals dar. Eingeführt wurde dieses Ideal durch die Kommentare des Proclus Diadochus zu Euklids Werk Elemente im 5. Jahrhundert, Boethius Übersetzung der logischen Schriften des Aristoteles im 6. Jahrhundert sowie durch die Übersetzung des fälsch- licherweise Aristoteles zugeschriebenen Liber Causis im 12. Jahrhundert ins Lateinische (vgl. Schüling 1969; Flasch 1995). „Wissenschaftlich den- ken, das hieß: die Logik des Aristoteles auf ein gegebenes Feld anwenden“ (Flasch 1995: 48). Im Unterschied zu Aristoteles war Platon nur durch Aristoteles Platon-Kritik bekannt. Von den Platonischen Dialogen waren vor dem 12. Jahrhundert nur Menon, Phaidon, Timaios und Parmenides ins Lateinische übersetzt. 41 I HISTORISCHER KONTEXT scher gründete er seine naturwissenschaftlichen Überlegungen auf Fak- tensammlungen, beispielsweise von Tieren und Pflanzen. Er dokumen- tierte deren charakteristische Eigenschaften und klassifizierte sie nach gemeinsamen Merkmalen bzw. grenzte sie durch Unterschiede vonei- nander ab.4 Auf Basis solcher Faktensammlungen und den daraus ge- wonnenen Induktionen, gab er dann Erklärungen für mögliche Ursachen der Erscheinungen an. Dabei wurden die Induktionen als Prämissen für d 5eduktive Schlüsse in Form von Syllogismen gewonnen. Auch wenn diese Form der Schlussfolgerung dem antiken Wissenschaftsideal ver- pflichtet war und neuzeitlichen Ansprüchen nicht genügte, so vermittel- ten die realwissenschaftlichen Texte des Aristoteles dem späten Mittelal- ter eine Vorstellung davon, was es hieß, Wissenschaft basierend auf ge- nauen Beobachtungen zu betreiben und empirische Ordnungen vorzu- nehmen. Allerdings hatte die aristotelische Naturforschung ihre Grenzen. Obwohl die Praktik recht modern wirkte, die epistemische Verankerung der aristotelischen Naturstudien war es nicht. Aristoteles führte zwar das induktiv-deduktive Schema wissenschaftlicher Forschung in seinen realwissenschaftlichen Schriften ein. Studien der Natur mussten aber allein auf allgemein einsichtige Beobachtungen basieren. Oder, wie Pe- ter Dear es in seiner Studie Discipline and Experience beschrieb: „Sin- gular, unusual events were of course noticed and reported, but they were not, by definition, revealing of how nature behaves ‚always or for the most part’, as Aristotle said; instead, they might be classified as ‚mon- sters’ or even ‚miracles’“ (Dear 1995: 14). Beobachtungen und Experi- mente mit Hilfe von Instrumenten, die Einblicke in die Natur gaben, die nicht von jedermann nachvollzogen werden konnten, galten im aristote- lischen Sinne als nicht wissenschaftlich. Noch im 17. Jahrhundert muss- te sich Galileo, als er durch sein Teleskop die raue Oberfläche des Mon- des und die Jupitermonde entdeckte, gegen die Spekulationen seiner 4 Für Aristoteles wurden Verallgemeinerungen induktiv aus allgemein ein- sichtigen Sinneserfahrungen gewonnen. Induktionen sind dabei einfache Aufzählung der Art: x1 hat Eigenschaft P, x2 hat Eigenschaft P, etc. aus welchen folgt, dass alle x die Eigenschaft P besitzen. Induktionen dienten als Prämissen für Deduktionen. Dieses induktiv-deduktive Schema ist ty- pisch für die aristotelische Realwissenschaft. Es wurde von den mittel- alterlichen Philosophen und Naturforschern als Methode der Auflösung und Zusammensetzung der Phänomene betitelt, um die natürlichen Phä- nomene zu rekonstruieren (vgl. Losee 1977: 17ff). 5 Eine dieser typischen Schlussfolgerungen Aristoteles war, dass alle Lebe- wesen, die eine Lunge aufwiesen einen Hals haben müssen. Den Grund dafür sah Aristoteles in der Funktionsweise der Lunge. Er hatte in seiner Faktensammlung festgestellt, dass Lebewesen mit Lunge eine Luftröhre aufweisen. 42 2 VOM EXPERIMENT ZUM COMPUTEREXPERIMENT Kollegen zur Wehr setzen. Entsprechend der scholastischen Kosmologie galten die Planeten als perfekte Kugeln und die Erde als das Zentrum des Universums. Raue Oberflächen und Trabanten, die sich um Jupiter bewegen, passten nicht in das Weltbild. In einem Brief an Johannes Ke- pler amüsierte sich Galileo über einen Kollegen, „professor of philoso- phy at Pisa labouring before the Grand Duke with logical arguments, as if with magical incantations, to charm the new planets out of the sky“ (Galileo, übersetzt in: Roberts 1937: 55). Doch bereits frühe Experimentatoren wie Roger Bacon, die davon überzeugt waren, dass „wir nur durch die eigene Forschung und durch das Experiment zur Wahrheit gelangen können“ (Bacon 1268, übersetzt in: Vogel, 1904: 17) begannen, diese allgemeine Einsichtigkeit in Frage zu stellen. Sie forderten eine Scientia experimentalis, deren Forschungs- logik alle unnötigen und komplizierenden Erklärungen und vor allem unbelegten Spekulationen vermeidet. Die den Ursprung von Erkenntnis hinterfragt und diese nur durch direkte Gegenstandserfassung erzielt, indem sie die Verknüpfung der Dinge oder Eigenschaften auf ihre Kau- salität hin untersucht. Diese Forderungen verfestigten das Verständnis, dass alles was real sei nicht nur sinnlich wahrnehmbar, sondern auch individuell sei und damit Gegenstand von Erkenntnis. Roger Bacons Auffassung markierte die Wende im mittelalterlichen Naturverständnis und bereitete den Weg für die neuzeitliche Wissenschaft, die sich am deutlichsten zweihundert Jahre später im Wissenschaftsprogramm Fran- cis Bacons artikuli 6erte. Aus der Passivität des Staunens wird nun die Aktivität der forschenden Neugierde, die als intellektuelle Begierde maßgeblich das wissenschaftliche wie technische Handeln bis heute prägt. Denn, so die Meinung Roger Bacons, man könne das induktive Verfahren nur dann erfolgreich anwenden, wenn man ein genaues und umfassendes Tatsachenwissen besäße, und dazu sei aktives und syste- matisches Experimentieren notwendig. Das Ideal des Erkenntnisfort- schritts gründet ebenso in diesem kognitiven Wechsel wie die Idee der Beherrschbarkeit der Natur. 6 Diese Entwicklung zeigte sich auch an den veränderten Studienbedingun- gen. Galten seit der Antike neben der Theologie das Quadrivium (Arith- metik, Geometrie, Musik und Astronomie) und Trivium (Grammatik, Rhe- torik und Dialektik) als klassische Ausbildungsfächer, so kristallisierte sich im 13. Jahrhundert eine neue Einteilung des Studiums in theoretische Philosophie (Naturphilosophie, Mathematik und Metaphysik), praktische Philosophie (Ethik, Ökonomie und Politik) sowie Logik heraus (vgl. Flasch 1995: 306ff). 43 I HISTORISCHER KONTEXT Sciencia exper imental is In seiner Fabel Neu-Atlantis beschrieb Francis Bacon 1642 eine Institu- tion, die den Zweck habe „die Ursachen des Naturgeschehens zu er- gründen, die geheimen Bewegungen in den Dingen und die inneren Kräfte der Natur zu erforschen und die Grenzen der menschlichen Macht so weit auszudehnen, um alle möglichen Dinge zu bewirken“ (Bacon 1642/1982: 43). Dazu seien Forschungen in systematischer Form nötig, um „den kausalen Zusammenhang der Dinge möglichst klar darzulegen, der Natur ihre tiefsten Geheimnisse zu entlocken und eine leichtver- ständliche, eindeutige Auskunft über die unbekannten Bestandteile und Kräfte in den verschiedenen Körpern zu erhalten“ (Bacon, 1642/1982: 55). Damit skizzierte Bacon das Programm der neuzeitlichen Wissen- schaft, die instrumentelle Beobachtung und Experiment zu ihren Er- kenntnismedien machte. War der mittelalterliche Mensch Teil der Schöpfung, die er bestaunte, so begann er jetzt als Homo faber die Natur gezielt zu ergründen, sie zunehmend durch Technik zu beherrschen und ihre Ressourcen auszubeuten. Wissen sollte von nun an nützlich sein und der Verbesserung der Lebensumstände dienen, statt kontemplativ oder moralistisch zu sein. Diese Entwicklung zeichnete sich bereits im Aufstieg des Merkantilismus und der Handelszentren seit 1300 ab sowie durch die pragmatische Position des Franziskanerordens, vor allem aber durch die Ansichten Roger Bacons in Oxford.7 Doch Nützlichkeit stellt andere Anforderungen an die Produktion und Vermittlung von Wissen, als kontemplatives Staunen oder theologische Dogmen. Auch wenn die frühen Experimente nicht den heutigen Standards entsprechen, so revo- lutionierten sie doch im Laufe des 17. und 18. Jahrhunderts die wissen- schaftliche Erkenntnisproduktion. 1666 beschrieb Robert Hooke in seinem Essay A General Scheme, or Idea of the Present State of Natural Philosophy, and How its Defects may be Remedied by a Methodological Proceeding in the making of Experiments and collecting Observations, whereby to compile a Natural History, as the Solid Basis for the Super- structure of True Philosophy unterschiedliche Möglichkeiten der Beo- bachtung und des Experiments je nach wissenschaftlichem Interesse: „By observing how nature proceeds in distributing the same property in 7 Roger Bacon beschäftigte sich im 13. Jahrhundert als einer der ersten Na- turforscher mit experimentellen Studien. Er prangerte „das Schwören auf eine unwürdige und hinfällige Autorität, die Macht der Gewohnheit, die Denkweise der gewöhnlichen großen Masse und die Blindheit gegen die eigene Unwissenheit verbunden mit Prahlerei mit der eigenen Weisheit“ (Bacon 1268, übersetzt in: Vogel 1904: 17) als hinderlich für den Er- kenntnisfortschritt an. 44 2 VOM EXPERIMENT ZUM COMPUTEREXPERIMENT several bodies [...] by observing the transitions it makes from one prop- erty to another [...] by taking notice of all such processes of nature, wherein by the same effective principle it causes quite different prod- ucts,“ etc. (Hooke 1666: 992). Typische Experimente jener Zeit waren Studien zur Lichtbrechung und Optik, zur Bewegung und Geschwindigkeit von Gegenständen, zur Erzeugung eines Vakuums oder zur Funktionsweise des Auges. Experi- mentieren war zu Beginn der Neuzeit eine Angelegenheit einzelner Na- turforscher in privaten Studierzimmern, Universitäten oder Klöstern. Auch waren Experimente oft mit öffentlichen Demonstrationen auf Messen und Märkten verbunden.8 Forschungsinstitute gab es noch nicht und erst im Laufe des 17. Jahrhunderts begannen sich Gelehrtengesell- schaften in Form von Akademien zu etabli 9eren. Mess- und Experimen- tiergeräte waren ungeeichte Einzelanfertigungen und viele Messgrößen waren noch nicht bekannt. Präzise Beschreibungen und vertrauenswür- dige Zeugen waren daher für die Glaubwürdigkeit der experimentellen Resultate von entscheidender Bedeutung. Robert Boyle, einer der erfolg- reichsten Experimentatoren jener Zeit, forderte nicht nur von seinen Zeitgenossen, dass sie ihre Experimente präzise beschreiben und da- durch nachvollziehbar und wiederholbar mach 10en sollten. Er selbst wiederholte sein Vakuumexperiment, mit dem er zeigen konnte, dass das Barometer den Druck der Atmosphäre anzeigte und nichts anderes, in Anwesenheit namhafter Forscher wie John Wallis, Seth Ward und Christopher Wren (vgl. Crombie 1994: 954). Diese frühe Experimental- kultur wurde in den bildhaften Darstellungen von Experimenten samt Experimentator und Zuschauer bis weit ins 18. Jahrhundert dokumen- tiert. Die Forderung nach der Standardisierung empirischer Forschung spiegelte das zunehmende Verständnis von Wissenschaft als Gemein- 8 „Auch Theater wurden bis weit ins 19. Jahrhundert benutzt, um naturwis- senschaftliche Experimentalkunst angemessen in Szene zu setzen, woraus sich schließlich unter Titeln wie Lecture Theatre oder auch Automatical Theatre spezialisierte Einrichtungen entwickelten“ (Schramm 2006: XVI). 9 Die Akademien waren Gelehrtengesellschaften, die sich zu Wissenschafts- institutionen entwickelten. So wurde die Accademia Nazionale dei Lincei 1603 in Rom, die Deutsche Gesellschaft der Naturforscher Leopoldina 1652 in Schweinfurt und die Royal Society 1660 in London gegründet. Weitere Akademiegründungen folgten wie die Académie des Sciences in Paris 1666, die Akademie der Wissenschaften in Berlin 1700 und andere. 10 Galileo Galilei wurde für seinen Stil bewundert, den Weg der Erkenntnis in seinen Schriften offen darzulegen, so dass dieser nachvollziehbar war, während Isaac Newton – nach der Praktik der antiken Geometer – die ge- fundenen Resultate diskutierte, ohne ihren Entstehungskontext allzu genau zu beschreiben. 45 I HISTORISCHER KONTEXT schaftsunternehmen wider, in das sich im Laufe des 17. und 18. Jahr- hunderts die einzelnen Naturforscher einordneten. Dazu galt es, die Be- dingungen der Erkenntnisproduktion neutral, also kontext- und interpre- tationsunabhängig, zu gestalten und offenzulegen. Jeder Forscher sollte in der Lage sein, die Experimente, Beobachtungen und Messungen sei- ner Kollegen zu wiederholen und gegebenenfalls die dazu nötigen Ins- trumente nachzubauen. Um eine solche Nachvollziehbarkeit zu gewähr- leisten, bedurfte es einheitlicher Beschreibungsformate, Nomenklaturen und Standards. Zur Durchsetzung dieser Standards waren wissenschaft- liche Institutionen, wie eben die Akademien, wissenschaftliche Kom- munikations- und Publikationsmedien, wie Briefe, Bücher und Journa- le,11 aber auch ein Verständnis von Wissenschaft als intersubjektives und kollaboratives Unternehmen von Nöten. In diesem Wechselspiel von Standardisierung und Institutionalisierung bildete sich nicht nur das neuzeitliche und moderne Wissenschaftsverständnis heraus, sondern auch die Identifikation der Forscher als Scientific Community. Die Glaubwürdigkeit wissenschaftlicher Erkenntnisse löste sich im Zuge dieser Entwicklungen von individuellen Zeugen ab und wurde an Ins- trumente, Methoden und Standards delegi rt.12e Wissenschaft emanzi- pierte sich von der Sphäre subjektiver Praktiken zu einem intersubjekti- ven und reglementierten Unternehmen, das zunehmend Anspruch auf objektives Wissen erhob. Dieser Anspruch fand Ende des 19. Jahrhun- derts in der Rede von der exakten Wissenschaft seinen Höhepunkt. Obwohl dieser Prozess der Standardisierung und Institutionalisierung bis ins 19. Jahrhundert andauerte, war es die maßgebliche Leistung des 17. Jahrhunderts, die Argumentation auf Basis experimenteller Ergebnisse 11 Es ist kein Zufall, dass ab dem 14. Jahrhundert die ersten Papiermühlen in den intellektuellen Zentren gegründet wurden (Bologna 1293, Padua 1340, Troyes 1338, Nürnberg 1390). Mit der Erfindung des Buchdrucks entstan- den ab dem 15. Jahrhundert die ersten Druckereien. Um 1500 gab es euro- paweit bereits mehr als 1.000 Drucker und Verleger, die 27.000 Titel mit einer geschätzten Gesamtauflage von insgesamt eins- bis acht Millionen Bänden druckten. Im 17. Jahrhundert waren bereits über eine Million unterschiedlicher Titel im Umlauf. 1682 erschien mit den Leipziger Acta eruditorum das erste wissenschaftliche Journal im deutschsprachigen Raum (vgl. Flasch 1995: 146f; Hiebel 1997: 49ff). 12 „Um die Mitte des achtzehnten Jahrhunderts war das Staunen der Natur- philosophie fremd geworden und noch dazu in schlechte Gesellschaft ge- raten. … Die Pariser Académie Royale des Science war so besorgt darum, dieser verbreiteten ‚Liebe zum Staunen’ keinen Vorschub zu leisten, dass sie sich jahrzehntelang weigerte, Berichten über Meteoriten Glauben zu schenken, weil vom Himmel fallende Steine einen Beigeschmack von Wunderzeichen hatten“ (Daston 2001: 92). 46 2 VOM EXPERIMENT ZUM COMPUTEREXPERIMENT wissenschaftlich zu etablieren. Dabei lieferten die instrumentenbasierten Experimente und Beobachtungen eine wachsende Sammlung von Fak- ten, die es mit Hilfe von Annahmen und Theorien zu erklären galt. Auch hier waren geeignete Praktiken und Standardisierungen gefordert. Erfah- rene Experimentatoren wie Robert Boyle kritisierten die Lust ihrer Kol- legen an spekulativen Interpretationen magerer, experimenteller Befun- de und forderten „that men, in the first place, would forbear to establish any theory, till they have consulted with [...] a considerable number of experiments, in proportion to the comprehensiveness of the theory to be erected on them. And, in the next place, I would have such kind of superstructures looked upon only as temporary ones“ (Boyle 1661 in: Crombie 1994: 948). Auch wenn von systematischer, theoriegeleiteter Wissenschaft noch nicht die Rede sein konnte – und dessen waren sich die frühen neuzeitlichen Forscher durchaus bewusst – so stellte die sorg- fältige Sammlung von Fakten und Beobachtungen die Grundlage für spätere Systematisierungen dar.13 Bernard de Fontenelle forderte daher 1709 im Programm der Pariser Académie des Science: „Die Akademie ist auf der ersten Stufe, auf der sie einen großen Bestand von gut be- gründeten Beobachtungen und Tatsachen sammelt, die eines Tages die Grundlage für ein System sein werden. Denn die systematische Physik muß von der Errichtung ihres Gebäudes solange Abstand nehmen, bis die experimentelle Physik in der Lage ist, sie mit den nötigen Materia- lien zu versorgen“ (Fontenelle 1709, übersetzt in: Böhme, van den Dae- le, Krohn 1977: 190). Doch worauf sollte eine systematische Wissenschaft basieren, auf empi- rischen Ordnungen oder allgemeinen Prinzipien? Für Bereiche, die der direkten Beobachtung zugänglich waren und eine Fülle an Erscheinun- gen boten wie die Botanik, die Biologie oder die Mineralogie, wurden seit der Antike Versuche unternommen, diese zu klassifizieren. Dabei dienten die empirischen Ordnungen dem Zweck, die unüberschaubare Fülle von Einzelerscheinungen zu strukturieren. Bereits Aristoteles hatte in seinen botanischen Studien über sechshundert Pflanzenarten aufgelis- tet. Im 17. Jahrhundert waren bereits mehr als sechstausend Pflanzenar- ten bekannt und bis Mitte des 20. Jahrhunderts waren es achtzehntau- send. Anhand von Beobachtungsvariablen bestimmten Botaniker rele- 13 Während den Baconischen Wissenschaften theoretische Entwicklungsli- nien fehlten – Thomas Kuhn bezeichnete diese Phase in seiner Studie Die Struktur wissenschaftlicher Revolutionen als strukturlosen Empirismus (vgl. Kuhn 1962) – sind Astronomie, Mechanik und Optik bereits im 17. Jahrhundert systematische, d.h. theoriegeleitete Wissenschaften, die Empi- rie mit mathematisierter Theorie verbinden. 47 I HISTORISCHER KONTEXT vante Merkmale, auf deren Basis sie dann durch Merkmalskombinatio- nen und Unterscheidungen Klassifikationen entwickelten. Dabei kam es vor, dass sich Klassifikationssysteme als hinderlich für den Erkenntnis- fortschritt 14erwiesen. In seiner Geschichte der Botanik vom 16. Jahr- hundert bis 1860 schrieb Julius Sachs: „Die Botaniker in den letzten drei Decennien des 17. Jahrhunderts mussten erkennen, daß die von Lobelius und Bauhin aufgestellten Verwandtschaftsrei- hen auf dem von Caesalpin betretenen Weg durch a priori festgestellte Merk- male nicht charakterisiert und nicht zu einem wohlgegliederten System ausge- bildet werden können“ (Sachs 1875: 69). „Eine beinahe 300jährige ununter- brochene Arbeit, welche immer wieder von dem selben Grundsatz ausging oder factisch sich doch in dieser Weise beschäftigte, hat den inductiven Be- weis geliefert, dass der von Caesalpin [1583] eingeschlagene Weg ein Irrweg ist. Wenn dennoch bei der Verfolgung desselben bis zur Mitte des 18. Jahr- hunderts die natürlichen Verwandtschaftsgruppen immer deutlicher hervortre- ten, so geschah es, weil eben auch der auf einem Irrweg Begriffene nach und nach die Gegend, in welcher er umherirrt, immer besser kennen lernt und end- lich ahnt, welcher Weg der richtige gewesen sein würde“ (Sachs 1875: 63).15 Ein Großteil der beobachteten Phänomene waren jedoch nicht Objekte, sondern Prozesse wie die Brechung des Lichts, die Verbrennung organi- scher Stoffe oder die Fortpflanzung von Lebewesen. Klassifikationen anhand von Beobachtungsmerkmalen lieferten kaum Informationen, denn Klassifikationen sind lediglich Beschreibungen und keine wissen- schaftlichen Erklärungen. Erst empirisch fundierte Modelle und Theo- rien, basierend auf Experimenten und Messungen, ermöglichten entspre- chende Erklärungen der Phänomene und Prozesse, um die zugrundelie- 14 Die frühen botanischen Systeme waren Mischgebilde künstlicher und na- türlicher Ordnungen. Erst Carl von Linné beschränkte sich in seiner Ab- handlung Species Plantarum von 1753 auf eine Art von Systematik. Ba- sierend auf mehr als dreißig verschiedenen Beobachtungsvariablen er- arbeitete er ein künstliches System von Klassen und Ordnungen, das sich unabhängig von natürlichen Pflanzenverwandtschaften auf die Form der Pflanzen konzentrierte. Allerdings wurde Linnés künstliches System stark kritisiert, schließlich erhoffte man sich von der natürlichen Ordnung Auf- schlüsse über die Entstehung und Entwicklung der Pflanzenarten. Ähnli- che Klassifikationen wurden im Laufe des Mittelalters und der Neuzeit für die Welt der Tiere, Gesteine oder chemische Verbindungen in zunehmend umfangreicherer Weise erstellt. 15 Andrea Cesalpino beschrieb in seinem De Plantis Libri 1583 bereits 840 Arten. „Caesalpin war der erste, der ein Pflanzensystem nach der Form- verschiedenheit und Ähnlichkeit beschrieb ohne auf ihre Eigenschaften und Kräfte zu sehen. Mit ihm beginnt die wahre methodische Systematik“ (Schultz 1832: 17-18). 48 2 VOM EXPERIMENT ZUM COMPUTEREXPERIMENT genden Prinzipien zu verstehen. Denn das Ziel der Naturforschung des 17. Jahrhunderts war es, die Gesetze der Natur in ihren Erscheinungen zu erkennen und diese zu formulieren. Vorbild war dabei die Astrono- mie und ihre Himmelsmechanik, die mit Newtons Mechanik auf die Bewegung aller physischen Objekte anwendbar wird und sich mathema- tisch formulieren lässt. Doch um „eindeutige Auskunft über die unbe- kannten Bestandteile und Kräfte in den verschiedenen Körpern zu erhal- ten“ (Bacon, 1642/1982: 55), müssen die Forscher tiefer blicken als es die Wahrnehmung erlaubt. Sie müssen ihren Blick anders gestalten als das natürliche Sehen, denn „[...]every natural action depends on things infinitely small, or at least too small to strike the sense,“ schrieb Bacon im New Organon. „No one can hope to govern or change nature until he has duly comprehended and observed them“ (Bacon 1620/2004: II. Buch VI). Der Wunsch, Einblicke jenseits des direkt Beobachtbaren zu ge- winnen, zeigt sich in den verschiedenen Formen des wissenschaftlichen Blicks, die seit der Neuzeit die Forschung maßgeblich bestimmen: Im beobachtenden Blick mit Hilfe von Instrumenten in mikroskopische und makroskopische Bereiche. Im messenden Blick in Bereiche jenseits des Sichtbar- und Wahrnehmbaren. Im experimentellen Blick auf kausale Zusammenhänge. Im theoretischen Blick auf die den Phänomenen zu- grunde liegenden Gesetzlichkeiten und schließlich im mathematischen Blick auf allgemein formulierte Prinzipien. Diese Einblicke veränderten das, was wissenschaftlich als real galt und bis heute gilt. Vor allem mit dem Blick auf das Kausale versuchen die Forscher immer tiefer in die Phänomene einzudringen. „In the seventeenth century old practices changed and new ones appeared. Those changing practises represent shifts in the meaning of experience itself – shifts in what people saw when they looked at the events in the natural world“ (Dear 1995: 12-13). Ohne Instrumente der Messung, der Beobachtung und des Experi- mentierens sind diese Einblicke nicht denkbar. Die Entwicklung leis- tungsfähiger und zunehmend genauerer Instrumente spielt daher eine maßgebliche Rolle im wissenschaftlichen Erkenntnisfortschritt, denn verbesserte oder neue Instrumente erlauben Einsichten in neue Bereiche, generieren neue Entdeckungen und erweitern wissenschaftliche Erfah- rung. „Das Projekt der neuzeitlichen Wissenschaft leitet seine Macht aus dem spezifisch technologischen Charakter der Darstellungsräume her. Die Kräfte und die Art von Überlegungen, die sie freisetzen, ebenso wie die Regeln, denen sie gehorchen, sind weniger die von cartesischen Sub- jekten als vielmehr die von technologisch-epistemischen Texturen“ (Rheinberger 2002: 243, 244). Natur wird mit Hilfe experimenteller Versuchsanordnungen, systematischer Beobachtungen und instrumentel- ler Messungen rekontextualisiert. Der technologische Charakter leitet 49 I HISTORISCHER KONTEXT sich dabei aus den methodischen und reglementierten Praktiken des For- schens ab, die zunehmend an Instrumente delegiert werden. Mit der fort- schreitenden Standardisierung und Normierung dieser Praktiken erwirbt die neuzeitliche Wissenschaft die Fähigkeit, aus der Komplexität natür- licher Erscheinungen Phänomene zu isolieren, zu stabilisieren und unter kontrollierten Bedingungen beherrschbar zu machen. Diese ‚Revolution der Denkart‘, wie Immanuel Kant sie in seiner Vorrede zur Kritik der reinen Vernunft 1787 betitelte, setzte ein, als: „Galilei seine Kugeln die schiefe Fläche mit einer von ihm selbst gewählten Schwere herabrollen, oder Torricelli die Luft ein Gewicht, was er sich zum voraus dem einer ihm bekannten Wassersäule gleich dachte, tragen ließ … Sie begriffen, dass die Vernunft nur das einsieht, was sie selbst nach ihrem Entwurf hervorbringt“ (Kant 1787/1993: B XIII). Der Preis, den die Naturfor- schung dafür zahlen muss, ist die zunehmende Abhängigkeit von den immer komplizierter werdenden Apparaten. Die Konstruiertheit wissen- schaftlicher Realitäten als Labor-Realitäten entfernt sich im Laufe der Wissenschaftsentwicklung immer weiter von der lebensweltlich erfahr- baren Realität.16 Aus heutiger Perspektive lässt sich feststellen, dass die „durch die Fundamentalaussagen eines Forschungsprogramms darge- stellten Sachverhalte … [sich] in der Regel überhaupt nicht in der ‚unbe- rührten Natur’ beobachten [lassen]. Es bedarf äußerst umfangreicher technisch-apparativer Vorkehrungen und die führen meist nicht zu einer vollständigen, sondern nur zu einer angenäherten Realisierung der Fun- damentalaussagen eines Forschungsprogramms“ (Tetens 1987: 9). Quanti f iz ierung Ein maßgeblicher Faktor der Rekontextualisierungen natürlicher Phäno- mene und Prozesse ist deren Quantifizierung. Quantifizierung schafft Ordnungen als ein Mehr oder Weniger, als ein Wärmer oder Kälter, ein Größer oder Kleiner, oder allgemein, als ein Schwächer oder Stärker einer Intensität. Quantitative Ordnungen unterscheiden sich von qualitativen, insofern sie das Nebeneinander der Zustände in eine Reihenfolge bringen. Qualitative Ordnungen können Klassen und Gruppen mit ähnlichen Merkmalen bilden, aber sie stellen keine Reihenfolgen innerhalb der Klassen oder zwischen diesen dar. Erst die Quantifizierung erlaubt eine 16 Laborforschungen rekonstruieren die aktuellen konstruktiven Prozesse der Forschung anhand von Fallstudien (vgl. beispielsweise Latour, Woolgar 1979; Knorr Cetina 1981; Lynch 1985; Rheinberger 2002). 50 2 VOM EXPERIMENT ZUM COMPUTEREXPERIMENT komparative Ordnung der Phänomene und Prozesse.17 „Von einer bloß- empirischen, schlechthin ‚gegeben‘ Vielheit wird ausgegangen: aber das Ziel der theoretischen Begriffsbildung ist darauf gerichtet, sie in eine ra- tional-überschaubare, in eine ‚konstruktive‘ Vielheit zu verwandeln. Die- se Verwandlung ist niemals abgeschlossen – aber sie wird stets von neu- em und mit immer komplexeren Mitteln in Angriff genommen. [… Da- bei] wird den Phänomenen gewissermaßen gewaltsam ein anderer Ord- nungstyp aufgedrückt“ (Cassirer 1929/1990: 482), der sie der rationalen Kontrolle zugänglich macht. Historisch zeigt sich dieser Prozess in der Verschmelzung von Beobachtung, Experiment und Messung. Nicht nur entdecken die Astronomen des 16. und 17. Jahrhunderts dank der Fern- rohre neue Monde und die Naturforscher mit Hilfe des Mikroskops neue Welten jenseits der natürlichen Wahrn hmungsgr nz .18e e e Es dauert nicht lange, bis den Beobachtungen ein geometrisches Ordnungsraster unterlegt wird und diese dadurch metrisiert werden.19 Die Phänomene werden mit Hilfe von Messinstrumenten unter die- sen neuen, da quantitativen Ordnungstyp subsumiert. Die typischen Messinstrumente der neuzeitlichen Experimentierstuben waren Pendel, Thermometer, Barometer, Luftpumpe, Waage und Kompass.20 1667 17 Dabei ist die Quantifizierung eine gängige Praktik, die so alt ist wie die Zahlen. Mit dem aufkommenden Merkantilismus des Mittelalters verstärk- te sich jedoch ihr Einfluss auf alle Bereiche der Gesellschaft. „Die Zahlen, die Zählbarkeit der Dinge, die rationale Kontrolle und die Abzweckung auf Nützlichkeit prägte das merkantile Denken in den Handelszentren, die gegen 1300 die kulturelle Führung an sich gerissen hatten. Wenn nun ein Chronist über irgendeinen Vorgang berichtete, z.B. über einen Brücken- bau, dann gab er Länge und Breite, Arbeitszeit und Zahl der Arbeiter prä- zise an“ (Flasch 1995: 484). Diese Praktik der rationalen Kontrolle wurde nach und nach in Form von Messung auf die Natur übertragen und ersetzte die qualitativen Erklärungen der aristotelischen Physik. 18 Im 17. Jahrhundert gelangen zahlreiche Entdeckungen mit Hilfe des Tele- skops, aber auch des Mikroskops wie beispielsweise die 1661 von Marcel- lo Malpighi dokumentierten mikroskopischen Befunde über die Kapilla- rendurchströmung in Zellen oder die 1683 von Anthony van Leeuwenhoek an die Royal Society gesandten Zeichnungen von Bakterien. 19 Zu Beginn des 18. Jahrhunderts wurden Mikrometer, feine Raster zur Be- stimmung der Größenverhältnisse, mit Mikroskopen kombiniert. Dabei sind Messungen mehr als das Abzählen oder Ordnen sichtbarer Objekte. Sie stellen Vergleiche von Zuständen einer zu messenden Größe quantita- tiv dar und erfassen nicht sichtbare, oft auch nicht wahrnehmbare Größen der Phänomene und Prozesse. Allgemein gesprochen sind Messungen ho- momorphe Abbildung von Objekten und Zuständen auf Zahlen (vgl. Sup- pes, Zinnes 1963). Im einfachsten Falle heißt dies: Je intensiver der ge- messene Effekt, desto größer der Zahlwert. 20 Grundlegend für die Entwicklung der neuzeitlichen Wissenschaft war die Verbesserung der Zeitmessung. Galileo hatte in seinen Studien zum Pen- 51 I HISTORISCHER KONTEXT zählte Thomas Sprat bereits mehr als fünfzig Instrumente, die von Mit- gliedern der Royal Society erfunden worden waren (vgl. Letwin 1963). Diese Instrumente wurden zu Beginn vor allem qualitativ genutzt. Auf- grund mangelnder theoretischer Bestimmungen der zu messenden Grö- ßen galten die Messungen mehr der experimentellen Untersuchung der Instrumente selbst, als den zu messenden Phänomenen. Erst im Wech- selspiel zwischen empirischen Studien, theoretischen Entwicklungen sowie der experimentellen Überprüfung und Normierung der Apparate entwickelten sich die Messinstrumente von einfachen Anzeigen zu kom- plizierten Apparaten, die immer genauer wurden. So zog sich beispiels- weise die Verbesserung der Wärmemessung von Galileos erstem Ther- mometer um 1600 über mehr als ein Jahrhundert hin, bis 1724 mit dem Gefrierpunkt von Wasser ein geeigneter Fixpunkt für die Vergleichbar- keit der Messungen gefunden worden war. Im Laufe der Zeit konnte Temperatur als Messgröße generalisiert und unabhängig von spezifi- schen Instrumenten exakt messbar gemacht werden. Dazu waren expe- rimentelle und theoretische Arbeiten von Daniel Fahrenheit zur Kon- stanz des Eispunktes (1724), von Anders Celsius zur Abhängigkeit des Siedepunktes vom Luftdruck (1742), von Robert Boyle zur Kompressi- bilität von Flüssigkeiten (1662), von Jean-André Deluc zur Wärmeaus- dehnung von Flüssigkeiten (1772) und anderen Forschern nötig (vgl. Böhme, van den Daele, 1977: 201ff). Die Instrumentenentwicklung, nicht nur die des Thermometers, unterläuft dabei charakteristische Sta- dien. Messungen unterschiedlicher Instrumente werden zunehmend mit- einander vergleichbar und von den technischen Grenzen einzelner Ins- trumente unabhängig. Die damals geläufigen Basisgrößen sind die Län- ge, die Masse und die Zeit. „The numerical measures of angle, length, time and weight or mass continued to be the quantities in terms of which almost all other quantities were measured, even the newly quantified properties of physics such as ‚magnetic intensity’ or fluid pressure“ (Roche 1998: 52). Beispielsweise definierte Isaac Newton 1687 das Maß der Kraft als Produkt von Masse und Beschleunigung oder Carl Fried- rich Gauß bestimmte 1838 die erdmagnetische Intensität durch die Ba- sisgrößen Länge, Masse und Zeit. Doch Messinstrumente alleine genügen nicht, um quantitativ aussagekräf- tige Resultate zu erzielen. Dazu bedarf es der Spezifizierung dessen, was aussagekräftig ist. Durchschnittswerte und Naturkonstanten spielen eine del dessen Eigenschaften für die Zeitmessung entdeckt. Pendelschwingun- gen wurden zum wichtigsten Instrument wissenschaftlicher Zeitmessung, bis im 20. Jahrhundert Quarzkristallschwingungen und schließlich der Zerfall von Atomen für die Zeitbestimmung genutzt wurden. 52 2 VOM EXPERIMENT ZUM COMPUTEREXPERIMENT entscheidende Rolle, denn sie geben Referenzpunkte zur Beurteilung der Resultate an. Um diese Werte zu ermitteln, bedarf es unzähliger Messun- gen und Berechnungen auf Basis gut bestätigter Theorien. Zudem wird eine Theorie der Fehlerrechnung benötigt, da jedes Messinstrument in- nerhalb einer Fehlerspanne operiert.21 Als Charles Babbage 1832 eine Tabelle mit allen damals bekannten Durchschnittswerten und Konstanten wie astronomische Größen, Atomgewichte, geographische, biologische und andere Größen veröffentlichte, hatte sich die Idee der Quantifizierung der Natur vollends durchgesetzt. Babbage brachte mit seiner Tabelle zum Ausdruck „was vielen seiner Zeitgenossen vorschwebte, nämlich daß man die Welt mit Hilfe einer Reihe von Zahlen definieren könne, und diese Zahlen sollten Konstanten heißen“ (Hacking 1996: 387). Babbages Tabelle dokumentierte nicht nur die zunehmende Vermes- sung der Natur, sie kondensierte die Arbeit kollaborativer und zunehmend standardisierter Forschung eines ganzen Jahrhunderts.22 Schon im 17. Jahrhundert wurden von den Akademien, vor allem im Bereich der Me- teorologie, groß angelegte Messprogramme initialisiert. So verfasste Robert Hooke bereits 1663 für die Royal Society A Method for Making a History of the Weather. Beobachtungsdimensionen wie Temperatur, Nie- derschlag oder Luftdruck wurden darin ebenso vorgeschrieben wie die Konstruktionen und Skalen der Messinstrumente sowie die tabellarischen Noti rungsstandards.23e Wie aufwendig die Organisation von Messkampa- gnen war, um geeignete Mittelwerte zu erhalten, zeigen die Aufzeichnun- gen von Carl Friedrich Gauß, die er in den 1830er Jahren über seine ma- gnetischen Beobachtungen zur Bestimmung der Deklinationen machte. Deklinationen geben den Winkel zwischen der Richtung der magneti- schen Feldlinien und der Richtung auf den geographischen Nordpol am Beobachtungsort an. Da sich die Abweichung zwischen dem magneti- 21 1809 gelang es Carl Friedrich Gauß eine solche Fehlertheorie zu formulie- ren, die er in seinem Werk Theoria Motus Corporum Coelestium in sec- tionibus conicis solem ambientium als Methode der kleinsten Quadrate publizierte (vgl. Gauß 1809, 1816; Knobloch 1992). 22 Die älteste bekannte Naturkonstante ist die Gravitationskonstante (G), die seit 1798 bekannt war. Andere sind die Elementarladung (e), die magneti- sche Feldkonstante (µ0), die Lichtgeschwindigkeit (c) oder das Plancksche Wirkungsquantum (h). 23 1781 nahm die Pfälzische Meteorologische Gesellschaft erstmals weltweit synchron Messungen vor. Ende des 19. Jahrhunderts gab es in Europa be- reits ein gut ausgebautes Netz an Wettermessstationen. „In principle, everybody was measuring the same quantities. But instruments and practi- ces remained discrepant, and it was enormously difficult to coordinate them. For years, as the Norwegian Vilhelm Bjerknes complained, the fai- lure of coordination appeared on most weather maps in the form of a wholly artifactual cyclon over Strasbourg” (Porter 1995: 27). 53 I HISTORISCHER KONTEXT schem und dem geographischem Nordpol jährlich um einige Kilometer verschiebt, ändern sich die Deklinationen laufend. Die aktuellen Abwei- chungen müssen jedoch erfasst werden, um mit einem magnetischen Kompass navigieren zu können. Diese Abweichungen wurden bis ins 15. Jahrhundert als Messfehler gedeutet, da man das Magnetfeld für konstant hielt. Als 1634 Henry Gellibrand in London Messungen durchführte und diese mit Messungen von William Borough aus dem Jahr 1580 und Ed- mund Gunters Messungen von 1622 verglich (vgl. Gunter 1624a), stellte er die Veränderung der Deklination in London zwischen 1580 bis 1634 um etwa sieben Bogengrad fest und schärfte das Bewusstsein für die Va- riabilität der Deklinationen (Gellibrand 1935). Zweihundert Jahre nach Gellibrand startete Gauß in Göttingen seine umfangreichen Messungen des Erdmagnetfeldes, um einen Atlas des Erdmagnetismus zu erstellen. Unter seiner Leitung führte der Göttinger Magnetische Verein von 1836 bis 1841 eine internationale Messkampagne durch. An den Messungen, deren Vorgehen Gauß 1836 in der Schrift Das in den Beobachtungstermi- nen anzuwendende Verfahren festlegte, beteiligten sich bis zu fünfzig erdmagnetische Observatorien in aller Welt. Auf über achtzehn Seiten diskutierte Gauß die verschiedenen Aspekte, die es zu berücksichtigen galt, um vergleichbare Resultate über einen längeren Messzeitraum zu erzielen: An festgelegten Tagen waren im 5-minütigen Takt Messungen durchzuführen, um jeweils 289 Messresultate zu erhalten. Da die Green- wich Mean Time erst 1884 eingeführt wurde, mussten die an der Messung beteiligten Personen ihre Uhren auf eine bestimmte Zeit ausrichten, in diesem Fall die Göttinger Zeit. Die Anweisungen von Gauß gingen so- weit, dass in der wärmeren Jahreszeit vor den Messungen darauf zu ach- ten sei, ob sich „eine Spinne im Kasten“ (Gauß 1836: 551) befände, deren Netz die freie Schwingung der Magnetnadel behindern könne. Auch den Einfluss der Beleuchtung bei nächtlichen Messungen auf das Ablesen der Skala oder die unterschiedlichen Sehschärfen der messenden Personen wurden besprochen. Abbildung 4: Berechnetes Beobachtungsresultat vom 15. August 1836 für T 15:30:00 Uhr in Göttingen (Gauß 1836: 545) 54 2 VOM EXPERIMENT ZUM COMPUTEREXPERIMENT Ein weiteres Problem ergab sich durch das von Gauß 1832 verbesserte Messinstrument, den Magnetometer. „Bei den viel grösseren Forderun- gen, die man an die Genauigkeit der Bestimmung durch die jetzt einge- führten Apparate machen kann und machen muss, kann aber von einer solchen unmittelbaren Bestimmung nicht mehr die Rede sein. Es steht nicht in unserer Macht, die Nadel des Magnetometers so vollkommen zu beruhigen, dass gar keine erkennbaren Schwingungsbewegungen zu- rückbleiben. […] Es werden daher an die Stelle der unmittelbaren Beob- achtung solche mittelbaren Bestimmungen treten müssen, zu denen eine vollkommene Beruhigung unnöthig ist“ (Gauß, 1836: 542). Gauß gibt verschiedene Möglichkeiten an, die Abweichungen auszugleichen: Zum einen per Hand, indem man das Minimum und Maximum der Schwin- gungsbewegung auf der Skala anzeichnet und das Mittel zwischen bei- den nimmt. Zum anderen indem man für einige Zeitmomente um den eigentlichen Messzeitpunkt T Messungen durchführt und dann das Mit- tel als Endresultat daraus errechnet, wie in Abbildung 4 dargestellt. Als Mathematiker plädierte er für letztere Methode. Aufgrund all dieser Un- sicherheitsfaktoren ging er davon aus, dass man „eben deshalb […] zu einer genauen Bestimmung der Mittelwerthe erst durch mehrjährige Be- obachtungen gelangen [wird] können“ (Gauß 1836: 560). Vier Jahre später veröffentlichte er gemeinsam mit Wilhelm Weber den Atlas des Erdmagnetismus mit umfangreichem Kartenmaterial der gemessenen Werte (vgl. Gauß 1840).24 Drei Entwicklungen charakterisieren ab Mitte des 19. Jahrhunderts die zunehmende Vermessung der Welt durch die Wissenschaft. Die erste forcierte die Standardisierung der Messresultate durch internationale Kooperationen. Isolierte Messungen und Expeditionen, wie sie bei- spielsweise Alexander von Humboldt 1799 bis 1804 in Amerika unter- nahm, lieferten zwar wichtige Erkenntnisse, aber keine international vergleichbaren Messresultat .25e Carl Weyprecht, Vordenker des 1. Inter- nationalen Polarjahres, formulierte dieses Problem 1875 auf der 48. Ver- sammlung der Deutschen Naturforscher und Ärzte in Graz: „Stellt man die wissenschaftlichen Resultate der vergangenen Expeditionen zusam- 24 Deklinationen werden in Isogonenkarten dargestellt. Eine der ersten Iso- gonenkarten stammt aus dem Jahre 1753 von Leonhard Euler. Seit 1979 werden die Veränderungen des Erdmagnetfeldes von Satelliten gemessen. 25 Alexander von Humboldt führte bei seiner Expedition in die Neue Welt rund fünfzig Messinstrumente mit sich. Das Resultat seiner Reisen publi- zierte er unter dem Titel Voyage aux régions équinoxiales du nouveau continent, fait en 1799, 1800, 1801, 1802, 1803 et 1804 (vgl. Humboldt 1997). 55 I HISTORISCHER KONTEXT men, so wird man finden, dass sie den darauf verwendeten Mitteln durchaus nicht entsprechen. […] Mit den Mitteln, welche eine einzige neue Expedition zur Erreichung der höchsten Breite kostet, ist es mög- lich, diese sämtlichen Stationen auf ein Jahr zu beziehen. Die Aufgabe wäre die, mit gleichen Instrumenten zu möglichst gleichen Zeiten durch ein Jahr Beobachtungen anzustellen“ (vgl. Weyprecht 1875). Das 1. Internationale Polarjahr von 1882/1883 bildete den Auftakt zu interna- tional koordinierten Messkampagnen, wie sie heute in zahlreichen Wis- senschaftsbereichen, insbesondere in der Klimaforschung, die Regel sind.26 Die zweite Entwicklung basierte auf internationalen Absprachen und Konventionen zu Maßeinheiten. Am 20. Mai 1875 übernahmen zahlrei- che Staaten in der Internationalen Meterkonvention das in Frankreich 1795 eingeführte metrische System. Normale wie das Urkilo oder der Urmeter, die der Kalibrierung von Messgeräten dienen, sollten Messun- gen weltweit vergleichbar machen.27 1884 wurde die Greenwich Mean Time, basierend auf der mittleren Sonnenzeit am Nullmeridian, dessen Verlauf die Internationale Meridian-Konferenz im Oktober 1884 durch das Observatorium in Greenwich festgelegt hatte, zur Weltzeit erklärt.28 Dadurch ließen sich weltweit Messungen synchronisieren, indem sie von jedem Ort der Welt auf einheitliche und ortsunabhängige Raum-Zeit- Koordinaten bezogen werden konnten. Doch nicht nur die Forschung 26 1932/33 folgte das 2. Internationale Polarjahr und 1957/58 wurden die Messungen im Internationalen Geophysikalischen Jahr auch auf Gebiete außerhalb der Polarregionen ausgedehnt (vgl. Internationales Polarjahr 2008). 27 Metrische Einheiten werden heute im Internationalen Einheitensystem des BIMP Internationales Büro für Maß und Gewicht in Sèvres bei Paris gere- gelt. Bislang wurden sieben Basiseinheiten eingeführt – Kilo (kg), Meter (m), Sekunde (s), Ampere (A), Grad Kelvin (K), Candela (cd) und Mol (mol) – sowie zahlreiche abgeleitete Einheiten wie Pascal (Pa) für den Druck (m-1 · kg · s-2), Hertz (Hz) für die Frequenz (s-1), Coulomb (C) für di -2e elektrische Ladung (s · A) oder Newton (N) für die Kraft (m · kg · s ) (vgl. Haustein 2001; BIMP 2009). 28 Bereits 1766 legte der Astronom Nevil Maskelyne seine Berechnungen des Nautical Almanac auf die Ortszeit des Observatoriums von Greenwich aus. 1972 wurde die Greenwich Mean Time durch die koordinierte Welt- zeit (UTC), die immer noch am Greenwich Nullmeridian ausgerichtet ist, abgelöst. Seit den 1970er Jahren vollzieht sich eine Zeitnormierung ganz anderer Art. Die Zeitdefinition des Computerbetriebssystems UNIX, die seit dem 1. Januar 1970 00:00 h UTC die vergangenen Sekunden zählt, hat sich im Computerbereich als UNIX-Epoche gegen die UTC durchgesetzt. (1218126923 UNIX Zeit entspricht dem 7.8.2008 um 18:25:23 h UTC.) Da die UNIX-Zeit jedoch Schaltsekunden nicht berücksichtigt, sind die Zeitsysteme nicht eindeutig aufeinander abbildbar. 56 2 VOM EXPERIMENT ZUM COMPUTEREXPERIMENT forderte zunehmend Standardisierungen ein. Im Zuge der industriellen Revolution und ihrer technischen Produkte gewannen Normierungen praktisch wie ökonomisch an Bedeutung. Es ist kein Zufall, dass Wis- senschaftler und Ingenieure gemeinsam – Karl-Heinrich Schellbach, Werner von Siemens und Hermann von Helmholtz – 1887 in Berlin die Gründung der Physikalisch-Technischen Reichsanstalt vorantri 29eben. Die Reichsanstalt sollte als Eichamt fungieren und konnte bereits 1893 mit der Durchsetzung der elektrischen Einheiten auf dem Internationalen Elektrischen Kongress in Chicago ihren ersten Erfolg verbuchen (vgl. Vec 2006: 194). Die dritte Entwicklung zeigte sich darin, dass zunehmend indirekte Messungen, die auf mathematischen Ableitungen basieren, eingeführt wurden. Während direkte Messungen aus dem Vergleich einer Messgrö- ße mit einem vorher definierten Maßstab resultieren, werden indirekte Messungen in Bezug auf eine leicht zugängliche Größe bestimmt oder aus einer Kombination verschiedener Messgrößen abgeleitet. „Überall daher, wo physikalische Größen nur auf diesem indirecten Weg ge- messen werden können, sind mathematische Hülfsoperationen die Werkzeuge solcher Messung. Weil aber nur an verhältnismässig wenige unter den Er- scheinungen, auf deren genaue Kenntnis es uns ankommt, unsere verschiede- nen Maße direct angelegt werden können, so fällt die Mehrzahl der physika- lisch wichtigen Größen einer indirecten Messung anheim, die in der mathema- tischen Ableitung der gesuchten Grössen aus anderen durch die directe Mes- sung gefundenen besteht. Da alle physikalischen Maße auf Raummaße zurück- führen, so bildet die geometrische Construction den natürlichen Ausgangs- punkt dieser Hülfsoperationen, und erst an sie schliessen sich die arithmeti- schen Verfahrensweisen an, durch welche es schliesslich möglich wird, die gefundenen Größen in bestimmten Zahlenwerthen auszudrücken“ (Wundt, 1894: 416-417). Ein Beispiel für verschiedene Möglichkeiten der Wärmemessung gibt Carl Runge in seinem Kapitel über Indirekte Vergleiche und Messungen in der Encyklopädie der mathematischen Wissenschaften. Die 1887 vom Comité International des Poids et Mesures festgelegte Definition der Temperatur durch das Wasserstoffthermometer, bezogen auf den Ge- frierpunkt von Wasser unter normalem atmosphärischem Druck als Nullpunkt, lässt sich auch als Strahlungsenergie schwarzer Körper be- 29 Für moderne Messsysteme gelten normierte Prüfvorschriften zur Evaluie- rung der Messabweichungen, um Genauigkeit, Kalibrierung, Wiederhol- präzision und Vergleichbarkeit festzulegen. Die seit 1942 bestehende DIN Norm 1319 regelt die Grundbegriffe der Meßtechnik; Messen, Zählen, Prüfen (vgl. DIN 2009). 57 I HISTORISCHER KONTEXT stimmen. „Danach heißen zwei Temperaturen einander gleich, wenn die Energie der Strahlung, welche ein Oberflächenteil des schwarzen Kör- pers von gegebener Fläche in gegebener Zeit in einem gegebenen Raum entsendet, bei beiden Temperaturen die gleiche ist. Zwei Temperatur- unterschiede sollen gleich heißen, wenn die Unterschiede der Strah- lungsenergie einander gleich sind“ (Runge 1902: 8). Damit erhält man eine Skala, jedoch keinen Nullpunkt als Referenzpunkt. Beide Skalen – Wasserstoffthermometer und Strahlungsenergiemessung – sind keine ähnlichen Abbildungen aufeinander. „Es zeigt sich aber, dass bei geeig- neter Annahme der Nullpunkte die Abbildung durch eine einfache rech- nerische Beziehung der Zahlen dargestellt wird, soweit die Beobachtun- gen reichen. Die Zahlen des Wasserstoffthermometers sind bei geeigne- ter Annahme der Nullpunkte sehr nahe proportional den vierten Wurzeln der Zahlen aus den Skalen der Strahlungsenergien“ (Runge 1902: 8). Durch dieses indirekte Verfahren lässt sich anhand der Helligkeitsmes- sung die Temperatur für Körper bestimmen. Vor allem die Astronomie nutzt dieses indirekte Verfahren zur physikalischen Fernerforschung der Sterne. Im 19. und 20. Jahrhundert wurden die unterschiedlichsten Zu- sammenhänge zwischen Temperatur und physikalischen Effekten ent- deckt, wie die Veränderung des elektrischen Widerstandes in Metallen, die Diffusion und der Brechungsindex von Gasen oder die Drehung der Polarisationsebene in Quarz, und für Temperaturmessungen genutzt. Mathemat is ierung und Momentum Quantifizierung, Standardisierung und Koordinierung instrumentenba- sierter Einsichten auf Basis immer genauer arbeitender Messinstrumente leiten Mitte des 19. Jahrhunderts einen Wandel der Forschungslogik ein. Während zu Beginn der Neuzeit Beobachtung, Experiment und Messung noch weitgehend voneinander getrennt sind, da die vereinheitlichende Struktur der Quantifizierung noch wenig ausgebildet ist, fallen im Laufe der Wissenschaftsentwicklung alle drei Formen der empirischen Er- kenntnisproduktion zusammen. Bei genauer Betrachtung zeigt sich, dass in der Quantifizierung, Standardisierung und Koordinierung empirischer Forschung die zunehmende Mathematisierung der Wissenschaft zur Ent- faltung kommt. „Es ist höchst bemerkenswert,“ schreibt 1947 Max Planck rückblickend auf die Entwicklungen in der Physik, „daß, obwohl der Anstoß zu jeder Verbesse- rung und Vereinfachung des physikalischen Weltbildes immer durch neuartige Beobachtungen, also durch Vorgänge in der Sinnenwelt, geliefert wird, den- 58 2 VOM EXPERIMENT ZUM COMPUTEREXPERIMENT noch das physikalische Weltbild sich in seiner Struktur immer weiter von der Sinnenwelt entfernt, daß es seinen anschaulichen, ursprünglich ganz anthro- pomorph gefärbten Charakter immer mehr einbüßt, daß die Sinnesempfindun- gen in steigendem Maße aus ihm ausgeschaltet werden – man denke nur an die physikalische Optik, in der vom menschlichen Auge gar nicht mehr die Rede ist – daß damit sein Wesen sich immer weiter ins Abstrakte verliert, wobei rein formale mathematische Operationen eine stets bedeutendere Rolle spielen und Qualitätsunterschiede immer mehr auf Quantitätsunterschiede zurückge- führt werden“ (Planck 1947a: 14).30 Die Voraussetzung für die von Max Planck angesprochene Mathemati- sierung der Physik liegt in der Transformation der Mathematik zu Be- ginn der Neuzeit. Diese lässt sich am plakativsten als Transformation von der geometrischen Anschaulichkeit und Konstruierbarkeit in die abstrakte Darstellung der Algebraisierung und Arithmetisierung der Geometrie charakterisieren. Oder mit den Worten von Felix Klein ge- sprochen: „Gemeinhin verbindet man mit dem Begriffe der Mathematik schlichtweg die Idee eines streng logisch gegliederten auf sich selbst ruhenden Systems, wie uns ein solches etwa in der Geometrie des Euklid entgegentritt. Indes ist der Geist, aus dem die moderne Mathematik geboren wurde, ein ganz anderer. Von der Naturbeobachtung ausgehend, auf Naturerklärung gerichtet, hat er ein philosophisches Prinzip, das Prinzip der Stetigkeit an die Spitze gestellt. So ist es bei den großen Bahnbrechern bei Newton und Leibniz, so ist es das ganze 18. Jahrhundert hindurch, welches für die Entwicklung der Mathematik recht eigentlich ein Jahrhundert der Entdeckungen gewesen ist. Allmählich erst er- wacht wieder eine strenge Kritik, welche nach der logischen Berechtigung der kühnen Entwicklungen fragt“ (Klein 1895: 232). Diese Transformation spielt für die Entwicklung der neuzeitlichen Na- turwissenschaft eine ebenso große Rolle wie die Einführung des Expe- riments. Der Auftakt zu dieser Entwicklung liegt in der Ablehnung des vorherrschenden, auf der klassischen Geometrie basierenden Wissen- schaftsideals. Die experimentellen Naturforscher wenden sich am Be- ginn der Neuzeit nicht nur gegen die theologischen Spekulationen, son- dern auch gegen die Demonstratio more geometrico, also die aus geoem- 30 Zwar hatte Planck bereits die weit reichenden Folgen der Mathematisie- rung, die Formulierung des Quantenprinzips (vgl. Planck 1900) und des Relativitätsprinzips (vgl. Einstein 1905), vor Augen. Vorbereitet wurde diese Entwicklung eines neuen Forschungsstils jedoch bereits Mitte des 19. Jahrhunderts, beispielsweise in Wilhelm Webers Arbeiten zur Elektro- dynamik, der wiederum die erdmagnetischen Forschungen von Gauß zum Vorbild nahm (vgl. Weber 1846). 59 I HISTORISCHER KONTEXT trischen Axiomen abgeleiteten Folgerungen. In seinen Hydrostatical paradoxes von 1666 formulierte Robert Boyle diese Auffassung deut- lich. „And, about the very Subjects we are now upon, the following Par- adoxes will discover so many mistakes of eminent writers, that pretend to have Mathematically demonstrated what they teach, that it cannot but make wary Naturalists [...] be somewhat diffident of Conclusions, whose proofs they do not well understand. And it cannot but, to such, be of great satisfication to find the things, that are thought them, verified by the visible testimony of Nature herself“ (Boyle 1666: Einleitung). Expe- rimentelle Physik – Pneumatik, Hydrostatik, Elektrizitätslehre, Wärme- lehre, etc. – bleibt bis ins 19. Jahrhundert qualitativ orientiert. „Unlike physico-mathematics, experimental physics was not presented in a mathematical framework until the nineteenth century“ (Roche 1998: 51). Zum anderen wird in der Astronomie und später in der Mechanik die Mathematisierung den Beobachtungen angepasst, indem geometrische Modelle induktiv aus den Daten gewonnen werden. Noch in seinem Frühwerk, Mysterium Cosmographicum von 1596, versuchte Johannes Kepler die Harmonie des Kosmos geometrisch-spekulativ auf Basis der Platonischen Körper zu erklären.31 Doch schon in seiner Astronomia Nova trug er 1609 dem Problem Rechnung, dass Tycho Brahes Beob- achtungsdaten der Marsumlaufbahn, in die er als dessen Nachfolger 1602 Einsicht erhalten hatte, nicht mit den von Claudius Ptolemäus be- rechneten epizyklischen Bahnen übereinstimmten.32 In jahrelangen Be- 31 Im Timaeus beschrieb Platon fünf regelmäßige Körper als Erklärungs- grundlage der Materie und ihrer Eigenschaften – Tetraeder (Feuer), Wür- fel (Erde), Oktaeder (Luft), Ikosaeder (Wasser), Dodekaeder (Himmels- materie) – und folgte damit der pythagoreischen Tradition mathematisch- spekulativer Naturtheorien. „Greek geometers and applied mathematicians found many ways of applying geometry to nature and to artifacts, without sacrificing its ideal character. All of the Greek exact sience and arts, in- cluding the Pythagorean science of musical harmonics, geometrical as- tronomy, solar horology, geodesy, cartography, ray optics, the theory of machines, the determination of centers of gravity and hydrostatics were heavily geometrical“ (Roche 1998: 38). 32 Claudius Ptolemäus hatte in den dreizehn Büchern des Almagest ca. 150 n. Chr. versucht, die Beobachtungsdaten mit dem aristotelischen, geozentri- schen Modell kreisförmiger Planetenbahnen zur Deckung zu bringen. Da- zu konzipierte er ein epizyklisches Modell, in dem die Planeten kleine Kreise entlang eines größeren Kreises durchlaufen. Das ptolemäische Epi- zykloiden-Modell deckte sich weitgehend mit der Mess(un)genauigkeit der antiken Beobachtungsdaten. Auch Nikolaus Kopernikus konzipierte sein heliozentrisches Modell als epizyklisches Modell. Erst Johannes Kep- ler führte 1609 die ellipsenförmige Bahn aufgrund wesentlich genauerer Beobachtungsdaten der Planetenbewegung ein. 60 2 VOM EXPERIMENT ZUM COMPUTEREXPERIMENT rechnungen extrahierte Kepler aus Brahes Beobachtungsdaten die tat- sächliche Gestalt der Planetenbahn des Mars und passte schließlich die Geometrie als Modell ellipsenförmiger Bahnen den Beobachtungen an. Resultat seiner Bemühungen waren die ersten beiden Keplerschen Ge- setze, auf deren allgemeiner Herleitung Newton später seine Mechanik aufbaute. Diese induktive Vorgehensweise Keplers revolutionierte die Astronomie und im Anschluss daran die Mechanik. In diesem Sinne ist auch Galileos Auffassung zu deuten, wenn er die Ordnung der Phäno- mene durch Mathematik gestaltet sieht. „Philosophie steht in diesem großen Buch – ich meine das Universum – das stets offen vor uns liegt; aber wir können es erst verstehen, wenn wir Sprache und Buchstaben verstehen, in denen es geschrieben ist. Es ist in der Sprache der Mathe- matik geschrieben,“ formulierte Galileo 1623 im Il Saggiatore, „seine Buchstaben sind Dreiecke, Kreise und andere geometrische Figuren, ohne die es dem Menschen unmöglich ist, ein einziges Wort daraus zu verstehen“ (Galileo 1623, übersetzt in: Losee 1977: 25, 26). Selbst wenn sich die geometrisch inspirierten Modelle zunehmend den Beobach- tungsdaten anpassen, so verdeutlicht Galileos Bemerkung doch den ho- hen Idealisierungsgrad dieser Modelle aufgrund ihrer idealisierten Ele- mente. Der wirklich revolutionäre Schritt, hin zu einer neuzeitlichen und mo- dernen Form der Mathematisierung von Wissenschaft, basierte jedoch auf der Integration neuer Konzepte in die Geometrie und damit auf ihrer Transformation in Analytische und Differential Geometrie. Diese Ent- wicklung setzt ein, als sich Naturforscher und Mathematiker zunehmend für die konzeptuelle Handhabung von Bewegung interessieren. Statt der statischen, auf Endlichkeit und Anschaulichkeit konzentrierten klassi- schen Geometrie mit ihrem Ideal der Konstruierbarkeit verhaftet zu bleiben, werden nun die Konstruktionsmechanismen selbst – Herstel- lung geometrischer Figuren mit Zirkel und Lineal auf Papier – mit Hilfe der Algebra operationalisiert. Dazu müssen die, zuvor per Hand ausge- führten oder gedachten Bewegungen, in typographische Operationen übersetzt werden. Vorbild sind zeichenbasierte, sukzessive Bewegungen in Form von Zahlen und Reihenbildung. Voraussetzung dafür ist die Verknüpfung der beiden mathematischen Darstellungssysteme – kons- truktive Geometrie einerseits, operative Algebra und Arithmetik ande- rerseits – wie sie 1637 von René Descartes in seiner Geometrie vorge- schlagen wurde, indem er auf das im 16. Jahrhundert von Francois Vieta eingeführte Rechnen mit Buchstaben zurückgreift. Dies führt zur alge- braischen und arithmetischen Generierung geometrischer Figuren in der Weise, dass „die verschiedenen Gestalten der ebenen Kurve dadurch 61 I HISTORISCHER KONTEXT entstehen,“ schreibt Ernst Cassirer in seiner Untersuchung zu Substanz- begriff und Funktionsbegriff, „daß wir einem bestimmten Punkt, den wir als Grundelement fixieren, relativ zu einer vertikalen und einer horizon- talen Achse, verschiedene Arten des Fortschritts vorschreiben. Aus der Festhaltung und Vereinigung dieser Fortschrittsarten muß sich die Be- stimmtheit der Linien, die auf diese Weise als ‚Bahnen’ von Punkten erzeugt werden, zuletzt vollständig und eindeutig ableiten lassen. […] Die anschauliche geometrische Linie löst sich kraft dieses Verfahrens in eine reine Wertfolge von Zahlen auf, die durch eine bestimmte arithme- tische Regel miteinander verknüpft sind“ (Cassirer 1910: 94, 95). Die Bewegung der Punkte – ob als sinnliche Vorstellung oder geometrisches Konstruieren – wird zu einer aufeinander bezogenen, regelbasierten Re- lation innerhalb eines, durch Koordinaten metrisierten Raumes. Des- cartes gelingt damit die Kalkülisierung der Geometrie als typographi- sches Operi 33eren. Doch er lässt nur solche Kurven gelten, die sich durch arithmetische Regeln konstruieren lassen. So genannte transzen- dente Kurven werden von ihm explizit ausgeschlossen. Damit wird der Anwendungsbereich dieser frühen analytischen Geometrie erheblich eingeschränkt. Der nächte Schritt besteht deshalb darin, den Verlauf einer Bahn aus dem Punkt selbst heraus zu bestimmen, wobei die Verlaufsbestimmung über die arithmetische Operationalität hinausgeht. Dazu bedarf es zum einen der Durchdringung des Zahlenbegriffs mit dem Funktionsbegriff, der neue Relationen zwischen den Größen ermöglicht. Tatsächlich taucht der Begriff ‚Function‘ erstmals 1694 bei Leibniz auf und nimmt in den folgenden Diskussionen mit Jakob Bernoulli und später durch Leonhard Euler allmählich Gestalt an (vgl. Leibniz 1694; Euler 1748). Zum anderen muss sich die Vorstellung durchsetzen, dass geometrische Figuren wie Linien, Flächen und Körper aus unendlich vielen Punkten ohne Größen bestehen.34 Akzeptiert man diese Vorstellung und damit die Lockerung des Exaktheitsanspruches der endlichen Geometrie – denn die neuen Relationen sind nur dann handhabbar, wenn unendlich 33 „So, wie die Einführung des Ziffernrechnens die Zahlbildung ablöste vom Zählen und zurückführte auf das regelgeleitete Herstellen von Ziffernkon- figurationen, wird die Bildung von Typen geometrischer Gegenstände zu- rückgeführt auf das regelgeleitete Erzeugen von Buchstabenkonfiguratio- nen. Konstruieren wird zum typographischen Operieren“ (Krämer 1991: 151). 34 Der Umgang mit infinitesimalen Größen bleibt nicht unwidersprochen. Beispielsweise greift George Berkeley in seiner Streitschrift The analyst: or a discourse addressed to an infidel mathematician die neue Mathematik und Naturlehre von Newton und Leibniz heftig an (vgl. Berekeley 1734/1951). 62 2 VOM EXPERIMENT ZUM COMPUTEREXPERIMENT kleine Terme in den Berechnungen vernachlässigt werden können – dann werden Abstraktionen für Näherungsverfahren, wie die von Isaac Barrow geschilderte, möglich: „Wenn in die Berechnung ein unendlich kleines Stück einer Curve eingeht, so wird stattdessen ein richtig ge- wähltes Stück der Berührungslinie oder irgend eine wegen der unendli- chen Kleinheit des Curvenstücks gleichwerthige gerade Strecke ge- nommen“ (Barrow 1670, übersetzt in: Cantor 1901: 135). Doch noch fehlt ein Kalkül zur Erzeugung solcher Kurvengebilde. Ein derartiger Algorithmus muss folgendes leisten: „Die Synthese […] unendlich vieler Richtungsbestimmtheiten zu einem einheitlichen, be- stimmten Gebilde“ zusammenzufassen (Cassirer 1910: 97). Interessan- terweise haben sich zwei unterschiedliche Betrachtungsweisen der sym- bolbasierten Generierung von Kurven herausgebildet, die in jeweils eigener Weise den neuen Begriff des Infinitesimalen begreifen: Entwe- der lässt sich eine Kurve aus der Bewegung eines Punktes entstehend denken oder als unendliches Vieleck permanenter Richtungsänderungen. Newtons Momentum und d ss 35e en Fluxionen sowie Leibniz’ infinitesi- male Dreieckchen dokumentieren diese verschiedenen Denkansätze, die Ende des 17. Jahrhunderts zu einem Kalkül der Infinitesimalrechnung führen. Während Newton, durch physikalische Überlegungen inspiriert, die Momentangeschwindigkeit eines bewegten Körpers mit Hilfe seiner Fluxionsmethode zu ermitteln sucht, geht Leibniz geometrisch anhand des Tangentenproblems vor. „Am 29. October 1675 erfolgt der grosse Schritt der Erfindung des neuen Algorithmus [durch Leibniz]. […] es wird nützlich sein ∫ statt omnia zu schreiben, um die Summe einer Ge- samtheit zu bezeichnen. Hier zeigt sich, heisst es in der an demselben Tag geschriebenen Fortsetzung weiter, eine neue Gattung des Calcüls, sei dagegen ∫l = ya gegeben, so biete sich ein entgegengesetzter Calcül mit der Bezeichnung l = ya/d […]: Wie nämlich ∫ die Abmessung ver- mehrt, so vermindert sie d. ∫ aber bedeutet Summe, d Differenz“ (Cantor 1901: 166).36 Mit diesem Kalkül eröffnet sich der Bereich transzenden- 35 Die Geschwindigkeitsveränderung der einzelnen Fluenten heißen bei Newton Fluxionen und sind Ableitungen der Momentangeschwindigkeit. 36 Zwischen Newton und Leibniz kam es zu einem Streit, wer der Erfinder des Differentialkalküls sei. Newton stellte seine Schrift De methodis serie- rum et fluxionum 1671 fertig, die jedoch erst 1736 veröffentlicht wurde. In dieser Schrift wie auch in seinem Hauptwerk Philosophiae Naturalis Principia Mathematica von 1687 beschreibt er die Fluxionsrechnung. Leibniz konzipierte 1673 in seiner Schrift Novae methodus pro maximis et minimis die Differentialrechnung, die im Oktober 1684 in den Acta erudi- torum erschien. Jason Bardi beschreibt in seiner Studie The Calculus Wars detailliert die Verwicklungen zwischen Newton und Leibniz (vgl. Bardi 2006). Auch Moritz Cantor beschreibt in seinen vierbändigen Vorlesungen 63 I HISTORISCHER KONTEXT ter Gleichungen, in die unendlich kleine Größen eingehen und die Leib- niz mit seinem ‚nouveau calcul des transcendantes‘ zu konstruieren in d r Lag ist.37e e Der Preis ist der Verlust der Anschaulichkeit dieser Kur- ven, die sich nur noch algebraisch begreifen lassen, sowie die Aufgabe des Exaktheitsanspruches der antiken Geometrie. Zudem sind viele Re- geln der Infinitesimalrechnung nur durch Intuition und Praktikabilität motiviert. Erst im 19. Jahrhundert versucht man, die Infinitesimalrech- nung in der für die Mathematik übliche logischen Strengen zu begrün- den. Nichtsdestotrotz schafft die Transformation der Geometrie die Grundlagen der neuzeitlichen und modernen Mathematisierung der Wis- senschaft, welche es erlauben, die physikalischen Grundbegriffe in ihrer relationalen Veränderlichkeit zu erfassen, in mathematische Formeln zu übersetzen und analytisch zu behandeln. Physikalische Phänomene wer- den nicht mehr qualitativ, sondern quantitativ in einem raum-zeitlichen Raster als reine Wertefolgen von Zahlen verortet erfasst. Ihre relationale Veränderlichkeit wird in Form quantitativer Bilder – zumeist als Kur- venverläufe für einfache Abhängigkeiten – darstellbar und operational handhabbar. Bereits Isaac Barrow nutzte in seinen Lectiones opticae et geometricae von 1670 quantitative Bilder zur Versinnbildlichung physi- kalischer Vorgänge. Senkrecht zur Zeitlinie gezogene Geraden dienten ihm zur Veranschaulichung von Momentangeschwindigkeiten, die je nach Geschwindigkeit eine unterschiedliche Länge aufweisen. Dabei ergeben die geometrische Darstellung der Zeitlinie und einiger Augen- blicksgeschwindigkeiten eine Zusammenschau der vollzogenen Bewe- gung: beispielsweise bei gleichförmig abnehmender Geschwindigkeit ein spitz zulaufendes Dreieck. Ungleichförmige und zusammengesetzte Bewegungen hingegen erzeugen komplexere Gebilde, für die Barrow zur Geschichte der Mathematik ausführlich die Entstehung der Infinitesi- malrechnung inklusive des Prioritätenstreites der Anhänger von Newton und Leibniz (vgl. Cantor 1901: Abschnitt XVII). Interessant ist folgende Einschätzung Cantors: „Wir haben das Hauptgewicht auf die Bezeichnung legen zu müssen geglaubt. Das steht im Zusammenhang mit unserer wie- derholt ausgesprochenen Ansicht, dass die Infinitesimalbetrachtungen selbst schon vor Newton und Leibniz so weit gediehen waren, dass es hauptsächlich auf die Erfindung einer zweckmäßigen Bezeichnung ankam, ehe wesentliche Fortschritte möglich waren“ (Cantor 1901: 167). Es ist Leibniz’ Notation, die sich durchsetzt. 37 Diese Kurven sind zum Teil visuell nicht mehr darstellbar. Sie sprengen den Darstellungsbereich der Geometrie, lösen die Analysis von der geo- metrischen Anschaulichkeit und verhelfen der algebraischen Formel zur Autonomie. 64 2 VOM EXPERIMENT ZUM COMPUTEREXPERIMENT die Tangentenberechnung, eine Vorform der Infinitesimalrechnung, nutzte.38 Einen ersten Höhepunkt findet diese physico-mathematische Betrach- tungsweise in Newtons Philosophiae Naturalis Principia Mathematica (vgl. Newton 1687). Physikalische Vorgänge werden als Wechselwir- kungen von Raum, Zeit und Materiepunkten betrachtet. Entsprechend des Trägheitsgesetzes bewegen sich diese, zu Körpern zusammengefass- ten Materiepunkte auf determinierten Bahnen im metrisierten Raum, seien es Planeten, Billardkugeln oder Sandkörnchen. Newton orientierte sich dabei an Descartes mechanistischem Konzept, auch wenn er Begrif- fe wie den der Bewegung neu fasste. „Die ‚Errungenschaften’ dieses Weltbildes [von Descartes] waren: ein neuer Begriff der Materie (Exten- sion als physische Substanz), die Beseitigung des Unterschieds von himmlischer und irdischer Physik, die Errichtung eines neuen Erklä- rungsideals (physische Prozesse galten als erklärt, wenn sie auf Stoff- prozesse zurückgeführt waren), die Formulierung universeller Prinzipien für diese Erklärungen (Erhaltung der Bewegungsgröße, Trägheitsge- setz)“ (Böhme 1977: 242). Die Bahnen der Materialpunkte werden mit Hilfe der Fluxionsmethode näherungsweise berechenbar. „Die Einheit,“ schreibt Newton, „für die Augenblicksveränderung ist Oberfläche wo es um Körperinhalte, Linie wo es um Flächenräume, Punkt wo es […] um Längen sich handelt, und ich scheue mich nicht von Punkten oder un- endlich kleinen Linien als Einheiten zu reden“ (Newton 1669, übersetzt in: Cantor 1901: 160). Die Geometrie erlaubt es Newton, die physikali- schen Begriffe als Maße – bezogen auf Raum und Zeit – zu definieren. Dadurch wird es möglich, „den alten Begriff der Kraft zu mathematisie- ren, indem ihr Maß definiert wird als das Produkt von Masse und Be- schleunigung oder nach der ursprünglichen Form Newtons F = mš (š = zweite Ableitung des Weges), woraus dann bei Leibniz die Formel für die ‚lebendige Kraft’ K = mv2 geworden ist. Dabei sind Masse sowie Geschwindigkeit und Beschleunigung zunächst durchaus als kontinuier- liche Größen gedacht und werden auch mathematisch als solche behan- delt“ (von Fritz 1971: 103). Erst wenn diese physikalischen Konzepte als raum-zeitlich differenzierbar aufgefasst werden, beginnt das Prinzip der Stetigkeit, das Felix Klein als das philosophische Prinzip der neu- zeitlichen und modernen Mathematik der Naturerklärung bezeichnete, in 38 Barrow stand in engem Kontakt mit Newton und kannte dessen Fluxions- methode lange bevor diese veröffentlicht wurde. Die Tangentenbestim- mung wie von Barrow vorgeschlagen war bereits seit der Antike bekannt und wurde von Pierre de Fermat in De maximis et minimis 1629 alge- braisch formuliert. 65 I HISTORISCHER KONTEXT Form von Differentialgleichungen die Physik zu durchdringen. Diese Entwicklung findet 1788 mit Joseph-Louis Lagranges Mécanique analy- tique und 1798-1825 mit Pierre de Laplaces Traité de mécanique céleste einen vorläufigen Abschluss. In Lagranges Werk wird die Analysis auf die Theorie bewegter Körper in Form unzähliger Differentialgleichun- gen angewandt, ohne jegliche geometrische Darstellung. Die Folge dieser neuen Forschungslogik ist nicht nur ihre zuneh- mende Unanschaulichkeit, sondern die Identifikation von wahrem Wis- sen mit mathematisch explizierbarem und berechenbarem Wissen, die zur dominanten Struktur der physikalischen Interpretation von Wirk- lichkeit wird: Empirische Einzeldaten lassen sich unter Gesetze subsu- mieren, die mit Hilfe mathematischer Gleichungen strukturiert, in die Zukunft extrapolierbar werden. ‚Hypotheses non fingo!‘ konstatierte Newton zur Rechtfertigung seiner mathematischen Annahmen. Damit kehrt sich die auf Aristoteles gründende Methode der Auflösung und Zusammensetzung der Phänomene in eine induktiv-deduktive Rekons- truktion der Phänomene. „When the Fellows adopted Newton as their champion, the mathematical sciences achieved their final triumph over scholastic natural philosophy. But in the process, those sciences had themselves mutated into something new, because explicitly experimen- tal. When John Wilkins spoke of ‚Physico-Mathematicall-Experimentall Learning’ as the intended business of the new Royal Society, he invoked a form of knowledge that Newton´s work would be the first fully to ex- emplify“ (Dear 1995: 247). Die Richtigkeit dieses Weltbildes scheint sich 1848 eindrucksvoll zu bestätigen, als Urban Le Verrier, allein auf Basis von Berechnungen, den Planeten Neptun entdeckte. Le Verrier hatte die Planetenbahn des Uranus unter der Annahme des Einflusses eines bis dahin unentdeckten Planeten per Hand berechnet. Seine Pro- gnose wurde mit der tatsächlichen Entdeckung des Planeten Neptuns innerhalb einer Nacht von dem Astronomen Johann Galle des Berliner Observatoriums bestätigt (vgl. Galle 1846). Die Metrisierung der physikalischen Begriffe, die Mathematisierung der physikalischen Theorie sowie die Erweiterung der Geometrie durch die Infinitesimalrechnung koordinieren Experiment, Messung und Theorie im selben Darstellungsraum: einem durch Koordinaten metrisierten, rein symbolischen Raum der Mannigfaltigkeiten. Allerdings erweitert sich dieser Symbolraum auf Seiten der mathematisierten Theorie durch im- mer komplexere Formen seiner Generierung in zunehmend abstrakterer Weise, während der empirische Anschauungsraum der orthogonalen Dreidimensionalität der euklidischen Geometrie verhaftet bleibt. Dies erlaubt einerseits die Konstitution neuer physikalischer Konzepte, bedarf 66 2 VOM EXPERIMENT ZUM COMPUTEREXPERIMENT aber andererseits der Anpassung an die Struktur des empirischen An- schauungsraumes mit seiner Dreidimensionalität, die in den Netzen der Messpunkte und im experimentellen Setting erhalten bleibt. Je weiter jedoch die Mathematik in das Abstrakte vordringt, desto verwickelter wird das Kopplungsverhältnis zwischen empirischem Datenraum und physico-mathematischem Theorieraum. Die Folge ist Mitte des 19. Jahr- hunderts die Zuspitzung der physico-mathematischen Forschungslogik im hypothetisch-deduktiven Forschungsstil der modernen Physik und Ingenieurswissenschaften. Dieser Forschungsstil setzt Experimentalfor- schung mit Präzisionsmessung gleich. Eindrucksvoll belegt wird dies durch den von Carl Friedrich Gauß 1838 in seiner Allgemeinen Theorie des Erdmagnetismus beschrieben Zweck seiner Messungen. „Vom höheren Standpunkt der Wissenschaft aus betrachtet ist aber diese mög- lichst vollständige Zusammenstellung der Erscheinungen auf dem Wege der Beobachtung noch nicht das eigentliche Ziel selbst: man hat damit nur ähnli- ches gethan, wie der Astronom, wenn er z.B. die scheinbare Bahn eines Ko- meten auf der Himmelskugel beobachtet hat. Man hat nur Bausteine, kein Ge- bäude, so lange man nicht die verwickelten Erscheinungen einem Princip unterwürfig gemacht hat. Und wie der Astronom, nachdem sich das Gestirn seinen Augen entzogen hat, sein Hauptgeschäft erst anfängt, gestützt auf das Gravitationsgesetz aus den Beobachtungen die Elemente der wahren Bahn berechnet, und dadurch sogar sich in den Stand setzt, den weiteren Lauf mit Sicherheit anzugeben: so soll auch der Physiker sich die Aufgabe stellen, […] die die Erscheinungen des Erdmagnetismus hervorbringenden Grundkräfte nach ihrer Wirkungsart und nach ihren Grössenwerthen zu erforschen, die Be- obachtungen so weit sie reichen, diesen Elementen unterwerfen, und dadurch selbst wenigstens mit einem gewissen Grade von sicherer Annäherung die Erscheinungen für die Gegenden, wohin die Beobachtung nicht hat dringen können, zu anticipiren“ (Gauß 1838: 122). Das Unterwerfen der gemessenen Beobachtungen unter die mathemati- sierte Theorie ermöglicht es der physikalischen Forschung, hypotheti- sche Annahmen aufzustellen. Dadurch wird das ontologische Primat der Empirie desavouiert und das Verhältnis von Theorie und Empirie be- stimmt sich neu, denn die Annahmen sind nicht mehr zwingend an vor- theoretische Beobachtungen gebunden. Sie müssen jedoch durch quanti- tative Prognosen der mathematisierten Theorie in der messenden Expe- rimentalforschung bestätigt werden. Extrapolation wird im Zuge dieser Entwicklung zu einem wichtigen Forschungsinstrument, um quantifi- zierbare Prognosen aus der Theorie ableiten zu können. Wissen schaffen wird zunehmend zu einem Unterfangen der ins Unbekannte und in die Zukunft projizierenden Mathematik. „Wir [Mathematiker] sind daran 67 I HISTORISCHER KONTEXT gewöhnt zu extrapolieren; das ist ein Mittel, die Zukunft aus der Ver- gangenheit und aus der Gegenwart abzuleiten“ (Poincare 1914: 17). Quantitative Prognose und Experimente als Präzisionsmessungen ver- zahnen sich dabei „zu einem eng verknüpften Forschungsprozeß. […] Die Antwort, die das Experiment gibt, ist nicht mehr ein einfaches ‚ja‘ oder ‚nein‘, vielmehr ein gemessener Zahlenwert, der immer in gewis- sem Grade vom Erwartungswert differiert“ (Stichweh 1984: 232, 233).39 Statt eines experimentellen Gelingens oder Fehlschlagens tritt nun die exakte Messung. Exakt, insofern Wissenschaft „allenthalben mit Maß und Zahl [rechnet]“ (Planck, 1941: 5), aber von da an auch den Grenzen der Präzision unterworfen ist, denn Messungen sind immer mit Fehlern behaftet und Infinitesimalberechnungen sind immer nur Näherungsver- fahren. Tatsächlich wird das Ringen um Präzision zu einem entschei- denden Charakteristikum moderner Wissenschaft bis heute. 1835 schreibt Heinrich Wilhelm Dove in seinem Buch Über Maass und Mes- sen: „Die Wahrscheinlichkeit der aus vielen Beobachtungen abzuleiten- den Bestimmungen muss daher das Resultat einer Rechnung sein, wel- che lehrt, aus lauter unrichtigen Beobachtungen, nicht das richtige Re- sultat abzuleiten, denn dies ist unmöglich, sondern eins, welches wahr- scheinlicher ist, als eine einzelne Beobachtung. Die Beobachtungskunst verdankt ihre hohe Vollendung in neuerer Zeit vielleicht eben so sehr der Entwickelung der sich auf sie beziehenden mathematischen Metho- den, als der technischen Vervollkommnung der Beobachtungsmittel“ (Dove 1935: 166). Die Geschicklichkeit des Experimentators wird durch die theoretischen und mathematischen Kenntnisse erweitert, wenn nicht sogar abgelöst, denn Messfehler lassen sich mithilfe der Mathematik im Voraus berechnen und der Versuchsaufbau exakt planen. Fehlertheorie und Kontrollmessungen – Messungen unter Beibehaltung des Versuchs- aufbaus bei variierenden Experimentalbedingungen – werden zu grund- legenden Bestandteilen des Messexperiments. Was Gauß 1832 mit sei- nen magnetischen Messungen vorexerzierte, wird Mitte des 19. Jahr- hunderts zur beherrschenden Forschungslogik der experimentellen Na- turwissenschaften. Diese neue Weise des Experimentierens birgt jedoch die Gefahr in sich, den Zufall als Möglichkeit neuer Entdeckungen zu eliminieren. Zum einen lassen sich Variationen als wahrscheinliche Be- obachtungsfehler deklarieren und nicht als Hinweise auf bislang unbe- 39 Rudolf Stichweh beschreibt in seiner Studie Zur Entstehung des modernen Systems wissenschaftlicher Disziplinen: Physik in Deutschland 1740 – 1890 den Prozess der Mathematisierung der Physik, der im hypothetisch- deduktiven Forschungsstil gipfelt, als Folge institutioneller Entwicklungen in der Physik und Mathematik in Deutschland (vgl. Stichweh 1984; Hem- pel, Oppenheim 1948). 68 2 VOM EXPERIMENT ZUM COMPUTEREXPERIMENT kannte Effekte. Zum anderen führt die Planung und Vorausberechnung der Experimente mehr oder weniger zu den erwarteten Resultat n.40e M i t Exper imenten rechnen Die Möglichkeit, Beobachtungen aus Theorien zu prognostizieren und anhand von Messexperimenten zu verifizieren, lässt sich nur für einige Wissenschaftsbereiche und insbesondere nur für einfache Phänomene erfolgreich anwenden. Für komplexe Vorgänge ist es wesentlich schwie- riger, Prognosen abzuleiten. Entweder weil es keine allgemeine Theorie dafür gibt und man nur empirische Gesetze mit beschränkter Reichweite kennt. Oder weil die mathematischen Gleichungen der allgemeinen Theorie zu komplex sind und sich aus ihnen keine mathematischen Lö- sungen und damit quantitative Prognosen analytisch deduzieren lassen. Die Folge ist eine Spaltung in theoretische Forschung und experimentel- le Anwendungsforschung wie sie für zahlreiche Bereiche der Physik des 19. Jahrhunderts charakteristisch ist. Die wachsende Bedeutung techni- scher Entwicklungen in dieser Zeit verstärkte diese Kluft zunehmend. Ein typisches Beispiel für diese Situation ist die Strömungsdynamik. „More than a hundred years after Beroulli’s and Euler’s work, hydrody- namics and hydraulics were certainly no longer regarded as synonymous designations for a common science. Hydrodynamics had turned into a subject matter for mathematicians and theoretical physicists – hydraulics became technology. Aerodynamics, too, became divorced from its theo- retical foundations in hydrodynamics. […] In all these areas of applica- tion, air resistance was the central problem. Aerodynamic theory could not provide a single formula that accounted for the various practical goals. Therefore, empirical formulae derived from experimental investi- gations were introduced for each special area“ (Eckert 2006: 25, 26). Das Scheitern der theoretischen Strömungsdynamik, die empirischen Gesetze zu generalisieren, gründete in deren stark idealisierten Model- len. Diese mathematischen Modelle beschrieben das Verhalten idealer Fluide und vernachlässigten dabei die Dichteänderungen, die Reibung sowie die Bildung von Wirbeln. Die grundlegende Bewegungsgleichung für idealisierte Strömungsprozesse wurde 1755 von Leonhard Euler in seiner Schrift Principes généraux du mouvement des fluides formuliert. Sie basiert auf Newtons zweitem Axiom F = dp/dt, das den Einfluss von 40 Phänomennahe Experimente, die weniger auf Messung, denn auf unerwar- tete Effekte und Phänomene ausgerichtet sind, bleiben daher weiterhin Be- standteil der Experimentalkultur. Beide Experimentalstile prägen die mo- derne Physik wie auch andere naturwissenschaftliche Disziplinen. 69 I HISTORISCHER KONTEXT Kräften (F) auf die zeitliche Veränderung (dt) von Impulsen (dp als Pro- dukt von Masse m und Geschwindigkeit ν) beschreibt. Die so genannte Euler-Gleichung formuliert die Bewegung reibungsfreier Fluide in Form eines partiellen Differentialgleichungssystems erster Ordnung. Doch mit dieser Gleichung für ideale Gase sind nur wenige praktische Probleme darstellbar. Daher fügte Claude M. Navier 1822 einen weiteren Term hinzu, der Eulers Gleichung in eine Beschreibung für viskose Fluide überführte. Viskosität ist die innere Reibung eines Fluids, die von dünn- bis zähflüssig reichen kann, und als Stoffkenngröße eine wichtige Rolle spielt.41 Unabhängig von Navier formulierte George G. Stokes 1845 in seiner Abhandlung On the theories of the internal friction of fluids in motion die Viskosität als ‚tangential force‘, wie in Abbildung 5 dargestellt. „In reflecting on the principles according to which the motion of a fluid ought to be calculated when account is taken of the tangential force, and consequently the pressure not supposed the same in all directions, I was led to construct the theory [...] which consists of equations (13), and of the principles on which they are formed“ (Stokes 1885: 76). „These equations [13] are applicable to the determination of the motion of water pipes and canals, to the calculation of the effect of friction on the mo- tions of tides and waves, and such questions“ (Stokes 1845: 93).42 In seinem Report on recent researches in hydrodynamics präsentierte Sto- ckes 1846 auf dem Treffen der British Association in Cambridge seine entscheidenden Ideen, die zur Navier-Stokes-Gleichung als der grundle- genden Gleichung der Strömungsmechanik bis heute führte. „M. Navier was, I believe, the first to give equations for the motion of fluids without supposing the pressure equal in all directions. His theory is contained in a memoir read before the French Academy in 1822. He considers the case of a homogeneous incompressible fluid. He supposes such a fluid to be made up of ultimate molecules, acting on each other by forces which, when the molecules are at rest, are functions simply of the distance, but which, when the molecules recede from, or approach to each other, are modified by these cir- cumstances, so that two molecules repel on each other less strongly when they are receding, and more strongly when they are approaching, that they do when 41 Beispielsweise ist die Viskosität von Wasser 1,002, die von Quecksilber 1,55 und die von Glyzerin 1480,0. Die zweite Stoffkenngröße ist die Dich- te. In der Regel geht man von räumlich und zeitlich konstanter Dichte eines Fluids aus. 42 „I afterwards found that Poisson had written a memoir on the same sub- ject, and on referring to it I found that he had arrived at the same equa- tions. The method which he employed was however so different from mi- ne that I feel justified in laying the latter before this Society” (Stokes 1885: 77). 70 2 VOM EXPERIMENT ZUM COMPUTEREXPERIMENT they are at rest“ (Stokes 1846: 182). „In a paper read last year before the Cam- bridge Philosophical Society, I have arrived at the equations of motion in a different manner. The method employed in this paper does not necessarily require the consideration of ultimate molecules. Its principle feature consists in eliminating from the relative motion of the fluid about any particular point the relative motion which corresponds to a certain motion of rotation, and examin- ing the nature of the relative motion which remains. The equations finally adopt in the case of a homogeneous incompressible fluid, and of an elastic fluid in which the change of density is small, agree with those of Poisson“ (Stokes 1846: 184, 185). Abbildung 5: Bewegungsgleichung unter Berücksichtigung der Viskosität µ (Stokes 1845: 93)43 Die Navier-Stokes-Gleichung beschreibt in Form einer nichtlinearen partiellen Differentialgleichung zweiter Ordnung die Änderung des Be- trags und der Richtung der Geschwindigkeit eines Fluidelements gewis- ser Masse in Abhängigkeit von den einwirkenden Kräften wie Druck, Schwerkraft und Viskosität. Charakteristisch für die Ablenkung eines Fluids ist seine Trägheit, die von seiner Dichte bestimmt ist.44 Die Kom- plexität dieser Gleichung hat jedoch zur Folge, dass sie nur für seltene Fälle analytisch zu lösen ist. „Könnte man diese Gleichungen allgemein analytisch lösen, so ergäben sich ungeahnte Einblicke in die Natur von Strömungen und Turbulenzen; man würde vieles verstehen, was uns heute noch rätselhaft ist. Hier stehen wir vor einer Situation, in der die Unzulänglichkeit mathematischer Methoden den physikalischen Fort- 43 „Let us now consider in what case it is allowable to suppose µ to be inde- pendent of the pressure. It has been concluded by Dubuat, from his expe- riments on the motion of water in pipes and canals, that the total retarda- tion of the velocity due to friction is not increased by increasing pressure. The total retardation depends, partly on the friction of the water against the sides of the pipe or canal, and partly on the mutual friction, or tangen- tial action, of the different portions of the water. Now if these two parts of the whole retardation were separately variable with p, it is very unlikely that they should when combined give a result independent of p. The amount of internal friction of the water depends on the value of µ. I shall therefore suppose that for water, and by analogy for other incompressible fluids, µ is independent of the pressure” (Stokes 1885: 92, 93). 44 Die Volumenkraft eines inkompressiblen, elektromagnetisch neutralen und makroskopischen Fluids wird durch die SI-Einheit N/m3 = kg s-2 m-2 dargestellt. 71 I HISTORISCHER KONTEXT schritt ernsthaft behindert“ (Bergmann 1998: 478, 479). Da eine allge- meine Lösung der Navier-Stokes-Gleichung nicht zu erwarten war – und bis heute auch nicht zu erwarten ist – musste sich die Physik mit nume- rischen Berechnungen der Gleichung für spezifische Rand- und An- fangsbedingungen, mit idealisierten Modellen oder mit experimentellen Resultate begnügen. Beispielsweise beschreibt Stokes Law den speziel- len Fall des Widerstandes einer Kugel in einer Flüssigkeit mit konstanter Fließgeschwindigkeit. Die Idealisierung des Reibungswiderstandes ver- nachlässigt jedoch die Bildung von Wirbeln, ein wichtiges Phänomen jeder Strömung. Verwirbelungen konnten nur auf Phänomenebene beob- achtet, aber nicht mathematisch beschrieben werden. Einer der erfol- greichsten Experimentatoren in diesem Gebiet, Osborn Reynolds, kon- statierte: „Now the reason why mathematicians have thus been baffled by the internal motions of fluids appears to be very simple. Of the inter- nal motions of water or air we can see nothing. On drawing the disc through the water there is no evidence of the water being in a motion at all, so that those who have tried to explain these results have had no clue; they have had not only to determine the degree and direction of the motion, but also its character“ (Reynolds 1877: 185). Mithilfe von Rauch, dem Einspritzen einer farbigen Flüssigkeit in einen Wassertank oder mit Seifenblasen machte man in aufwendigen Ex- perimenten das Verhalten turbulenter Strömungen sichtbar und analysier- bar. In den Proceedings der Philosophical Society of Manchester vom Februar 1877 werden die Experimente von Reynolds beschrieben: „Pro- fessor Osborn Reynolds exhibited various forms of vortex motion in a large glass tank by means of colour, or bubbles of air, the vortex lines behind an oblique vane, the vortex ring behind a circular disc, the vortex rings caused by raindrops, and the vortex rings caused by a puff of water. The various ways in which these vortices move were also shown“ (Rey- nolds 1877a: 183). Reynolds gelang es mit diesen Experimenten den Übergang von laminarer zu turbulenter Strömung aufzuklären. Durch das Studium der Größen der Navier-Stokes-Gleichung konnte er eine dimen- sionslose Verhältniszahl, die so genannte Reynoldszahl, ableiten. Diese Zahl gibt das Verhältnis zwischen kinetischer Energie und Reibungsener- gie an und charakterisiert den Zustand einer Strömung: Mit zunehmender Reynoldszahl überwiegt der Anteil der kinetischen Energie. Ab einer Reynoldszahl von 103 verhält sich die Strömung, abhängig von den Rand- bedingungen, turbulent. Für eine unendlich große Reynoldszahl geht die Navier-Stokes-Gleichung in die Euler-Gleichung für idealisierte Fluide 72 2 VOM EXPERIMENT ZUM COMPUTEREXPERIMENT ohne Reibung über, die Viskosität spielt keine Rolle mehr.45 Trotz dieser Erfolge gibt es bis heute keine hinreichende Theorie der Turbulenz und man behilft sich mit unterschiedlich 46en Turbulenzmodellen. Die zuneh- mende Bedeutung technischer Entwicklungen und das Problem der Tur- bulenz vergrößerte die Spaltung zwischen Theorie und experimenteller Forschung. In einem Lehrbuch für Flugzeugbau von 1929 heißt es: „A broad discussion of the motion of air under the influence of friction is of little real use. We discuss as briefly as possible a few terms often found and enter into the practical part of the theory, - the model rules. The simple model rules are only approximations, but as such they are of immense practical use, and they refer to all kinds of flow, not only to theoretical ones. They are used by employing coefficients of the air forces, assumed to be constant. The model rules that include friction deal with the variations of these coefficients. They occur chiefly in connection with the interpretation of model tests, a subject of great practical importance. [...] Our knowledge of the surface air friction is wholly based on experience, but the model rules suggest a convenient formula for its magnitude“ (Munk 1929: 137). Wissenschaft und Technik fanden sich in der Zwickmühle zwischen Idea- lisierung und Komplexität, zwischen Stagnation der Analytik und dem Mangel an Rechenkraft gefangen. Die Anwendungsforscher waren ge- zwungen, das Dilemma durch experimentell gewonnene Gleichungen und Koeffizienten zu überbrücken. Sie mussten mit Experimenten rechnen, wollten sie neue und dringend benötigte Erkenntnisse gewinnen, auch wenn diese nur eine eingeschränkte Reichweite besaßen. „In 1896 a text- book on ballistics lists in chronological order 20 different ‚laws of air re- sistance,’ each one further divided into various formulae for different ranges of velocity. […] No physical theory could provide a logical framework for justifying these empirical ‚laws’“ (Eckert 2006: 26). Der Nachteil dieser spezifischen Gleichungen in Form empirischer, also ana- loger Berechnungen lag in ihrer Beschränkung auf die analysierten Fall- 45 Beispielsweise hat ein Flugzeugrumpf eines modernen Passagierflugzeugs bei einer Geschwindigkeit von 300 m/s eine Reynoldszahl von 109. Eine Schnecke hingegen kommt auf Re = 2 und verursacht kaum Turbulenzen. 46 „Die Schließungsannahmen zur Beschreibung der Reynoldsschen Span- nungen werden als ‚Turbulenzmodell’ bezeichnet, die nach empirischen Annahmen in Hierarchien gegliedert sind. Man unterscheidet algebraische Modelle, die eine turbulente Zähigkeit beschreiben, Eingleichungsmodel- le, in denen die Transportgleichung für die turbulente kinetische Energie gelöst wird, Zweigleichungsmodelle, die die Transportgleichung für die turbulente kinetische Energie und eine zum Teil mit empirischen Ansätzen entwickelte Differentialgleichung zur Beschreibung der turbulenten Dissi- pationsrate (k-є-Modell) beinhalten“ (Hoßfeld 1996: 20). 73 I HISTORISCHER KONTEXT studien. Sie gaben keinen mathematisch verallgemeinerten Einblick in die grundlegenden Probleme der Strömungsdynamik. „The practical impor- tance of such questions as those above mentioned [magnitude and form of an aqueduct] has made them the object of numerous experiments, from which empirical formulae have been constructed. But such formulae, al- though fulfilling well enough the purposes for which they were con- structed, can hardly be considered as affording us any material insight into the laws of nature; nor will they enable us to pass from consideration of the phenomena from which they were derived to that of others of a dif- ferent class, although depending on the same causes“ (Stokes 1845: 76). Zur Bestimmung der empirischen Gleichungen und ihrer Reichweite wurden immer aufwendigere Experimente durchgeführt. Ab Ende des 19. Jahrhunderts kamen Windkanäle in Gebrauch, um numerische In- formationen unter variierenden Bedingungen zu gewinnen. Mangels theoretisch anwendbarer Ansätze und mangels Rechenkapazitäten wur- den Windkanäle als Analogrechner benutzt. Dafür wurden neue Mess- instrumente entwickelt. Beispielsweise benutzten Forscher an der Uni- versität Delft in den 1920er Jahren Modelle aus Draht, um die Windge- schwindigkeit an deren Oberfläche im Windkanal zu messen. Dabei machten sie sich das Prinzip zunutze, dass der elektrische Widerstand des Drahtes von dessen Temperatur abhängt. Die Abkühlung durch den Luftstrom gibt indirekt Aufschluss über die Windgeschwindigkeiten. „The velocity of the air stream, therefore, can be electronically moni- tored by accounting for the ensuing changes in electrical resistance. This method has already been described before the First World War, but only with the use of extremely thin wires (with a diameter of approximately 0.015 mm) and sophisticated electronic circuits did it become feasible for measurements of velocity fluctuations“ (Eckert 2006: 109). Doch auch wenn diese empirischen Ergebnisse für die praktischen Anwen- dungen unverzichtbar waren, die numerische Darstellung auf Basis phy- sikalischer Größen war ungenau. „The validity of such estimates is at any rate limited by the wide variety of existing analog devices, which use a great number of different mechanical, elastic, and electrical meth- ods of expressing and of combining quantities as well as mixtures of these, together with most known methods of mechanical, electrical and photo electrical control and amplification. Moreover, all analogy ma- chines have a marked tendency towards specialized, one-purpose char- act rs“ (Goldstin , von N umann 1946: 9).47e e e 47 Eine einfache Weise die Ableitung einer Funktion analog zu berechnen ist die Verwendung von Elektrizität. „If the form of a varying current through a pure inductance represents a function, the voltage across the inductance 74 2 VOM EXPERIMENT ZUM COMPUTEREXPERIMENT Beispielsweise erzeugten die ersten Windtunnel keine gleichförmig strömenden Luftmassen, sondern turbulente Ströme. Solange es sich um kleine Testmodelle oder langsame Strömungsgeschwindigkeiten handelte, konnten die Effekte der turbinenerzeugten Turbulenzen vernachlässigt werden. Doch mit höheren Geschwindigkeiten und größeren Modellen wirkte sich die Konstruktion der Windtunnel auf die Resultate aus. Die Frage, wie zuverlässig die gewonnen Daten für die Ableitung empirischer Gleichungen waren, wurde daher zu Beginn der 1920er Jahren laut. In einem Bericht des US-amerikanischen NACA National Advisory Commit- tee for Aeronautics von 1925 hieß es: „The data collected here [Langley Laboratory] must be considered, primarily, as data concerning the tunnel, and not the models tested here“ (Reid 1925: 219). Zudem war es nicht möglich, die Ströme der verschiedenen Windtunnel zu standardisieren, d.h. dasselbe Modell erzeugte in verschiedenen Tunneln unterschiedliche Er- gebnisse. Die Ironie dabei war, dass das zu untersuchende Phänomen, die Turbulenz verursacht durch die Testmodelle, als Turbulenz des erzeugten Windstromes zum Problem der Experimentaleinrichtung wurde. Da es im- mer noch an einer allgemeinen Theorie der Turbulenz fehlte, waren die Forscher gezwungen, ihre Windtunnel auf Basis empirischer Versuche zu verbessern und die Experimente trotzt allem zum Rechnen zu nutzen. Denn der Zweck dieser Experimente war es nicht, theoretische Annahmen zu verifizieren, sondern „to replace a computation from an unquestioned theo- ry by direct measurement. Thus wind tunnels are, for example, used at pre- sent, at least in large parts, as computing devices of the so-called analogy type […] to integrate the non-linear partial differential equations of fluid dynamics“ (Goldstine, von Neumann 1946: 4). Doch in den 1940er Jahren begann sich ein neuer Weg abzuzeichnen. „It seems clear, however, that digital wind (in the Wiener – Caldwell termi- nology: counting) devices have more flexibility and more accuracy, and could be made much faster under present conditions. We believe, there- fore,“ schreibt John von Neumann – Computerpionier wie Erfinder der Computersimulation – 1946 in seinem grundlegenden Bericht On the Principles of large Scale Computing Machines, „that it is now time to concentrate on effecting transition to such devices, and that this will in- crease the power of the approach in question to an unprecedented ex- tent“ (Goldstine, von Neumann 1946: 4). Die Resultate der Computer- experimente, so hoffte er, sollten wesentlich akkurater und problemlos represents the derivative. Unfortunately it is not easy either to cause a cur- rent to vary precisely in a prescribed manner, nor to measure precisely a varying voltage. [...] None of these applications require the precision desi- rable in mathematical instruments” (Bush 1936: 657). 75 I HISTORISCHER KONTEXT miteinander vergleichbar sein. Damit sollte nicht nur in der Strömungs- dynamik ein Meilenstein gesetzt werden. „Das Schisma zwischen der Ingenieurshydraulik und der theoretischen Hydrodynamik der Physiker (‚Tabellenkunde gegen realitätsferne Theorie’) wurde lange nicht über- wunden. […] Erst die numerische Simulation eröffnete die Möglichkeit, die Hydrodynamik realer Fluide auch praktisch anzuwenden“ (Malche- rek 2001: 37). Die Idee, nicht mit Experimenten zu rechnen, sondern mit Rechnern zu experimentieren hat ihren Ursprung in dem Schisma von Theorie und Anwendung, das für viele Bereiche der Natur- und Tech- nikwissenschaften zu Beginn des 20. Jahrhunderts kennzeichnend war. Die Entwicklung automatischer Rechenmaschinen geht auf die Notwen- digkeit numerischer Simulationen zurück und diese treiben bis heute die Entwicklung der Supercomputer an. John von Neumanns digita ler Windkanal Zu Beginn der computerbasierten Simulation taucht ein Name wiederholt auf: John von Neumann, ein ungarischer Mathematiker, der 1929 in die Vereinigten Staaten emigrierte. Von Neuman war während des Zweiten Weltkrieges in das Manhattan-Projekt involviert, er publizierte 1944 zu- sammen mit Oskar Morgenstern The Theory of Games and Economic Be- havior, er entwarf die grundlegende Architektur moderner Computer und er entwickelte eine Methode, um Differentialgleichungen auf Computern zu berechnen. Aus seiner Feder stammten maßgebliche Beiträge zur Quantenmechanik, zur Mengenlehre und zur Statistik. Von Anfang an war sich von Neumann über die Bedeutung automatischer Rechenma- schinen für Wissenschaft und Technik bewusst und er forcierte daher in den 1940er Jahren die Entwicklung von Rechnern wie ENIAC Electronic Numerical Integrator and Calculator, EDVAC Electronic Discrete Variab- le Computer und NORC Naval Ordnance Research Calculator. Herman Goldstine, Offizier der U.S. Army und Koordinator des ENIAC Projekts, nannte John von Neumann den Doyen der Computerentwicklung wie auch der numerischen Simulation. Goldstine hatte von Neumann 1943 in Los Alamos kennen gelernt. Von Neumann war dort für die Berechnung von partiellen Differentialgleichungen kugelförmiger Explosionswellen zuständig, die zu komplex waren, um sie algebraisch lösen zu können. In Los Alamos entwickelte er sich zu einem der ersten Experten in der nu- merischen Simulation komplexer Differentialgleichungen, damals aller- dings noch als Berechnungen per Hand. „The blackboard was filled with very complicated equations that you could encounter in other forms in other offices,“ beschrieb Stanislav Ulam die Situation 1943 in Los Ala- 76 2 VOM EXPERIMENT ZUM COMPUTEREXPERIMENT mos. „This sight scared me out of my wits: looking at these I felt that I should never be able to contribute even an epsilon to the solution of any of them. But during the following days, to my relief, I saw that the same equations remained on the blackboard. I noticed that one did not have to produce immediate solutions. […] Little as I already knew about partial differential equations or integral equations, I could feel at once that there was no hope of solution by analytical work that could yield practical an- swers to the problems that appeared“ (Ulam 1980: 95). Im selben Jahr, 1943, begann eine Gruppe von Wissenschaftlern und In- genieuren an der Moore School of Engineering der Universität von Penn- sylvania den Rechner ENIAC zu entwickeln. Herman Goldstine war der verantwortliche Koordinator seitens der U.S. Army, J. Presper Eckert der Chefingenieur, John Mauchly sein Assistent und J.G. Brainerd der Pro- jektmanager. „The ENIAC was an electronic calculator that inaugurated the era of digital computing in the United States. Its purpose was to calcu- late firing tables for the U.S. Army, a task that involved the repetitive so- lution of complex mathematical expressions“ (Ceruzzi 1998: 15). Ziel war es, einen elektronischen Computer zu bauen, der auf Basis einfachster Rechenregeln komplexere Funktionen für die Lösung von Differential- gleichungen ausführen sollte. „The arithmetic design of ENIAC was in- fluenced mainly by two kinds of calculators: mechanical desk calculators, electrically powered and hand operated; and electromechanical card oper- ated IBM machines“ (Burks 1980: 315). ENIAC war für seine Zeit ein unglaublich schneller Computer, basierend auf 18.000 Vakuumröhren, dessen Leistungsfähigkeit jedoch durch mangelnde Speicherkapazitäten limitiert wurde.48 Nur zwanzig Dezimalzahlen konnten im Computer ab- gespeichert werden. Zwischen- und Endresultate mussten auf Lochkarten gestanzt werden und das Programm wurde durch Steckverbindungen ma- nuell für jedes Programm aufs Neue ausgeführt. Das manuelle Program- mieren und das Stanzen der Lochkarten verlangsamte ENIAC erheblich und inspirierte von Neumann, der 1944 von Goldstine als Experte für das Lösen von Differentialgleichungen in das ENIAC Team geholt worden 48 „John [Mauchly] and Pres [Eckerts] proposed to achieve this very high computing speed by operating vacuum-tube circuits at 100,000 pulses/sec. [...] The first development task on the ENIAC project was to design relia- ble counters that worked at 100,000 pulses/sec and to show by test that switching circuits could work at a comparable speed. The final ENIAC operated at 100,000 pulses/sec and this became the first computer to ex- ploit fully the vacuum-tube technology of the time” (Burks, 1980: 314). J. Presper Eckert und John W. Mauchly verließen 1946 das ENIAC Team, um die Eckert-Mauchly Computer Corporation zu gründen und UNIVAC Universal Automatic Computer zu bauen. 77 I HISTORISCHER KONTEXT war, zu der Idee, Programme und Daten im selben Speicher abzuspei- chern. In einem Bericht von 1945 an die U.S. Army, First Draft of a Re- port on the EDVAC, schlug von Neumann deshalb mit EDVAC ein Nach- folgemodell für ENIAC vor. Neben zahlreichen Verbesserungen sollte EDVAC einen umfangreichen Speicher für Programme wie Daten erhal- ten, die so genannte von-Neumann-Architektur. Arthur W. Burks, Her- man H. Goldstine und John von Neumann beschrieben später das neue Design detailliert in dem Artikel Preliminary Discussions of the Logical Design of an Electronic Computing Instrument, der seither als einer der wegweisenden Publikationen der Computerentwicklung gilt (vgl. Burks, Goldstine, von Neumann 1946). John von Neumanns Motivation automatische Rechner zu bauen, lag in der Überwindung der Begrenzung der analytischen Methode bei der Lösung nicht-linearer Differentialgleichungen. Um Computer jedoch ex- perimentell nutzen zu können, beispielsweise als digitalen Windkanal, bedarf es einer Mathematik, die an die Arbeitsweise der Computer ange- passt ist. Denn die Berechnungen der Gleichungen müssen in Einzel- schritte zerlegt werden, damit der Computer sie schrittweise ausführen kann. Diese Form der Mathematik existierte bis in die 1940er Jahre nur rudimentär. Zwar gab es Erfahrungen für die arbeitsteilige Berechnung einfacher Gleichungen, seit Berechnungen in größerem Umfange an menschliche Computer delegiert wurden. David A. Grier beschreibt in seinem Buch When Computers were human die Geschichte dieser zu- nehmenden Arbeitsteilung sowie ihrer praktischen Anforderungen, bei- spielsweise in der Astronomie. „[Andrew] Crommlin, with the assistance of an observatory colleague, Phil Crowell (1879 – 1949), identified the basic differential equations that described the path of the comet and created a computing plan for the Greenwich Observa- tory computing staff. The computing plan had certain similarities to the plan that Clairaut had used in 1757. It located all the key objects in space and described the forces acting between them. At each step of the calculation, the computers advanced the comet, Saturn, Jupiter, and the other planets forward by a small distance. They did not worry about elliptical orbits but instead followed the di- rection of the forces. Once they had moved the objects, they had to recalculate all the forces. It was a slow and methodological process, one that required much grinding of Brunsvigas and other calculating machines“ (Grier 2005: 121). Doch die Methoden, die gebraucht wurden, um umfangreiche Berechnun- gen an einen automatischen Rechner zu delegieren, stellten eine weitaus größere Herausforderung dar als die ‚computing plans‘, die vor Erfindung der Computer entworfen und ausgeführt wurden. Denn es ging nicht nur um ausgefeilte Berechnungspläne in Form maschinentauglicher Algo- 78 2 VOM EXPERIMENT ZUM COMPUTEREXPERIMENT rithmen, die angaben, wie die Berechnungen schrittweise auszuführen seien oder wie Daten abgerufen und gespeichert werden. Es ging um neue Methoden einer diskreten und an Maschinen delegierbaren Mathematik. Im Falle von Differentialgleichungen, die das Verhalten von Syste- men in einem Raum-Zeit-Kontinuum beschreiben, bedeutet dies, dass Menschen oder Computer, je nach Leistungskapazität, nur einige wenige Raum-Zeit-Punkte näherungsweise berechnen können. Ende der 1940er Jahre entwickelte von Neumann die Differenzenmethode für den Compu- ter weiter. Diese Methode ersetzt die Differentiale der Differentialglei- chungen durch Differenzenquotienten und wurde erstmals 1759 von Jo- seph-Luis Lagrange verwendet. Dadurch werden die Gleichungen für ein Gitter an Berechnungspunkten berech nbar.49e Durch die schiere Rechen- gewalt erhoffte sich von Neumann wissenschaftliche Durchbrüche, die durch die Stagnation der analytischen Methode bisher unerreichbar wa- ren. Noch in Los Alamos schrieb er bezüglich der numerischen Simula- tion von Wellengleichungen: „The solution of hyperbolic equations with more than two independent variables would afford a great advance to fluid dynamics since most problems there involve two or three spatial variables and time, i.e. three or four independent variables. In fact the possibility of handling hyperbolic systems in four independent variables would very nearly constitute the final step in mastering the computational problems of hydrodynamic“ (Goldstine, von Neumann 1946: 12). Obwohl di 50ese Prognose zu optimistisch war, zeichnete sie den Weg vor, den die computerbasierte Simulation in den folgenden Jahren und Jahrzehnten nehmen sollte. Rechengeschwindigkeit wurde dabei zum ent- scheidenden Kriterium der neuen Simulationswissenschaften und ist es bis h ut 51e e. Denn um beispielsweise die möglichen Kurvenbahnen der 49 „In fact, in an early paper (1759) we see him [Lagrange] solving linear difference equations with constant coefficients with the help of the so- called characteristic equation” (Goldstine 1977: 145). Später wurde die Differenzenmethode von den Human Computing Laboratories zur Be- rechnung verschiedenster Tabellen benutzt. Beispielsweise organisierte Gertrude Blanch 1941 „a series of eight mathematics courses. [...] The fi- nal course presented the methods of the planning committee: matrix calcu- lations, the theory of differences, and special functions“ (Grier 2005: 259). 50 „The intrinsic difficulties of science have delayed the attainment of the goal. The coupling between very short and very long length scales within a single problem, and the proliferation of degrees of freedom are examples typical of these difficulties. Their importance was not fully appreciated by von Neumann” (Glimm 1990: 186). 51 Bereits die Rechengewalt dieser ersten elektronischen Computer war überzeugend im Kampf gegen die Begrenzungen der analytischen Mathe- matik. Gleichwohl ließ die Kritik an dieser Art, Mathematik zu betreiben, nicht lange auf sich warten. Bereits zu Beginn der 1940er Jahre in Los 79 I HISTORISCHER KONTEXT Masseteilchen (Trajektorien) entsprechend der Wellengleichungen im dreidimensionalen Raum näherungsweise berechnen zu können, bedarf es unzähliger Rechenoperationen, wie in Abbildung 6 dargestellt und von John von Neumann und Herman Goldstine vorgerechnet: „For such pro- blems the number of multiplications rises enormously due to the number of lattice points. It is not unreasonable to consider between 106 and 5 x 106 multiplications for a 3-variable problem and between 2.5 x 107 and 2.5 x 108 multiplications for a 4-dimensional situation. Hence these are roughly equivalent to 1,300 to 6,700 trajectories and to 33,000 to 330,000 trajectories“ (Goldstine, von Neumann 1946: 12). Erfahrenes Rechenper- sonal benötigte per Hand sieben Personenstunden, um die 750 Operatio- nen für die Berechnung einer einzigen Trajektorie auszuführen. Der Dif- ferential Analyzer, ein mechanischer Analogrechner, der zwischen 1928 und 1932 von Vannevar Bush am MIT Massachussets Institute of Tech- nology gebaut und betrieben wurde, benötigte zehn bis zwanzig Minuten für dieselbe Berechnung (vgl. Bush 1931, 1936). ENIAC konnte die 750 Operationen in 2,25 Sekunden ausführen. 3D (Ebene/Zeit) 4D (Raum/Zeit) 1 Trajektorie = Ø 4.000 Traj. = Ø 165.000 Traj. = Computer 750 Operationen 3 Mio. Op. 124 Mio. Op. Per Hand 7 std. 3,2 Jahre 131,8 Jahre Analogrechner Dif. Analyzer 15 min. 41,5 Tage 4,7 Jahre 1932 Digitalrechner ENIAC 2,25 sec. 2,5 std. 4,3 Tage 1946 Parallelrechner BlueGene/L 1,5 piko sec. 6 nano sec. 0,25 mikro sec. 2007 Abbildung 6: Entwicklung der Rechengeschwindigkeit am Beispiel der Berechnungen nach John von Neumann 1948 (Gramelsberger 2008) Eine diskrete und an Maschinen delegierbare Mathematik geht jedoch mit dem basalen Konzept der Neuzeit – dem Prinzip der Stetigkeit wie Alamos, als man die numerischen Berechnungen per Hand anstelle der analytischen Theorie vorantrieb, zeigte sich die Spaltung zwischen Nume- rikern und Analytikern. Stanislav Ulam, ein Kollege von John von Neu- mann in Los Alamos, stellte fest: „Proceeding by ‚brute force’ is consid- ered by some to be more lowbrow” (Ulam 1980: 94). Nichtsdestotrotz ging man im ENIAC-Team davon aus, dass die Praktikabilität und Kos- teneffizienz schneller automatischer Rechner entscheidende Kriterien der zukünftigen Entwicklung von Wissenschaft und Technik seien. 80 2 VOM EXPERIMENT ZUM COMPUTEREXPERIMENT Felix Klein es 1895 genannt hatte – anders um, als die analytische Me- thode. Denn grundsätzlich stellt die numerische Simulation eine Appro- ximation dar. Es lässt sich nicht immer beweisen, dass die numerische Simulation einer Gleichung sich der exakten, aber unbekannten Lösung stetig annähert oder ob überhaupt eine Lösung existiert.52 Ob die be- rechneten Punkte der exakten und kontinuierlichen Lösung tatsächlich nahe kommen, ist nicht einfach zu entscheiden. Daher erhalten prakti- sche Kriterien wie die Stabilität der Lösung eine grundlegende Bedeu- tung. „Der Laxsche Äquivalenzsatz sagt aus, daß der Nachweis der nu- merischen Stabilität die notwendige und hinreichende Bedingung für die Konvergenz der Lösung darstellt, wenn die Differenzenapproximation konsistent formuliert ist. Unter einer konsistenten Formulierung versteht man, daß die Differenzenapproximation wieder in die zu approximie- rende Differentialgleichung übergeht, wenn die Abstände der Gitter- punkte gegen Null streben. Eine Differenzenapproximation wird nume- risch stabil genannt, wenn bei der Auflösung der resultierenden Diffe- renzengleichungen Abbruch-, Rundungs- und Verfahrensfehler nicht beliebig anwachsen“ (Krause 1996: 15).53 Verhält sich die Lösung nicht stabil, ist sie entweder falsch oder man hat es mit einer mehrdeutigen Lösung zu tun. Bei der Diskretisierung, also der Umwandlung einer Dif- ferential- in eine Differenzengleichung, gilt es, Stabilitätskriterien zu befolgen, damit die berechneten Näherungswerte aussagekräftig sind. Dazu müssen die zeitlichen und räumlichen Auflösungen der Berech- nungen aufeinander abgestimmt sein. 1947 beschrieb von Neumann die- se Erkenntnis in dem Bericht On the Numerical Solution of Partial Dif- ferential Equations of Parabolic Type. „A method is described for solution of parabolic differential equations by cal- culating routines involving stepwise integration of both variables. The main features of the method arise from manipulation introduced to avoid instabili- ties that generally appear when partial differential equations are converted into difference equations“ (von Neumann, Richmyer 1947: 652). „The difference equations may be unstable, that is, under some circumstances irregularities 52 Beispielsweise deutet „alles darauf hin, daß die Lösungen der Navier- Stokes-Gleichungen echt mehrdeutig sind. Die Gründe dafür werden der- zeit im Rahmen der Nichtlinearen Dynamik und Chaostheorie erforscht“ (Malcharek 2001: 51). 53 Stabilität bedeutet, dass ein numerisches Verfahren gegenüber kleinen Änderungen der Daten (Eingabedaten wie auch Rundungsfehlern) unemp- findlich ist. Weitere Kriterien sind die Kondition und die Konsistenz eines numerischen Verfahrens. Die Kondition beschreibt die Abhängigkeit der Lösung von den Eingabedaten, die Konsistenz bedeutet, dass das numeri- sche Verfahren tatsächlich das gegebene Problem löst und kein anderes. 81 I HISTORISCHER KONTEXT may be amplified and grow without limit as time goes on; a solution of (2) [Differenzengleichung] does not in general approach a solution of (1) [Differ- entialgleichung] as the mesh is made finer and finer unless a certain restriction […] is applied to the relation between ∆y [Abstand der Berechnungspukte] and ∆t [zeitliche Auflösung] at each stage of the limiting process. […] The condi- tion for stability (condition that all disturbance get smaller as t increases) is clearly that the real part of ά should be negative for all real β, or that the quan- tity ά∆te […] should be lie between -1 and +1. […] if ∆y is chosen very small in the interest of accuracy, ∆t must be chosen very very small in the interest of stability“ (von Neumann, Richtmyer 1947: 653, 654). Stabilitätsbedingungen sind bis heute für explizite Verfahren der nume- rischen Simulation von Differentialgleichung 54en zu befolgen. Werden sie nicht berücksichtigt, verhält sich die Simulation instabil, da sich Feh- ler aufsummieren können. Damit laufen die Resultate ins Fiktive. Com- puterbasierte Berechnungen können verschiedenen Fehlerquellen unter- liegen, wobei einige dieser Fehler unvermeidbar sind. Beispielsweise ergeben sich zwangsläufig Fehler durch die Ungenauigkeiten der Einga- bedaten. „Any uncertainty of all these inputs (data as well as equations) will reflect itself as an uncertainty (of the validity) of the results. […] This type of error is absolutely attached to any mathematical approach to nature, and not particularly characteristic of the computational ap- proach“ (Goldstine, von Neumann 1946: 16). Eine weitere Fehlerquelle liegt in der Natur der Simulation selbst, da die Diskretisierung als Ver- fahren mathematisch nicht eindeutig ist. Unter Umständen kann die ge- wählte Differenzenapproximation zu falschen Lösungen führen. Schließlich ist zu beachten, „that no machine, no matter how it is con- structed, is really carrying out the operations of arithmetic in the rigor- ous mathematical sense“ (Goldstine, von Neumann 1946: 16). Computer verwenden endliche Zahlen, die in ihrer Genauigkeit begrenzt sind. Rundungsfehler können sich daher auf die Berechnungen auswirken. Es bedarf daher der Untersuchung des Lösungsverhaltens simulierter Glei- chungen anhand der durchgeführten Simulationsläufe. Hier zeigt sich aber auch der Erkenntnisgewinn von Computerexperimenten, denn die- ser liegt im Studium des Lösungsverhaltens komplett mathematisierter, diskretisierter und in Algorithmen formulierter Modelle. Dies ist eine relativ neue und durch die Effizienzsteigerung der Computer zunehmend die Naturwissenschaft dominierende Erkenntnisstrategie. Diese Ver- 54 Die explizite Methode nutzt für die Berechnung von tn+1 nur die Werte tn. Die implizite Methode hingegen nutzt für die Berechnung für tn+1 die Wer- te tn und tn+1. Die Stabilitätsbedingungen sind nur für explizite Simula- tionsverfahren zu berücksichtigen. John von Neumann konzipierte auch ein implizites Verfahren (vgl. von Neumann, Richmyer 1947). 82 2 VOM EXPERIMENT ZUM COMPUTEREXPERIMENT wendungsweise des Computers, wie John von Neumann sie in den 1940er Jahren vorschlug, markierte den Beginn der Überwindung der Stagnation in der Analysis und setze damit den Auftakt zur Nutzung von Computerexperimenten in den Wissenschaften. „John von Neumann wollte den ‚digitalen Windkanal’! Er erwartete, daß wirk- lich effiziente digitale Hochleistungsrechner den toten Punkt bei den rein ana- lytischen Methoden zur Behandlung nichtlinearer Probleme überwinden und daß aus der derart numerisch erschlossenen Hydrodynamik die mathematische Durchdringung des Gebietes der nichtlinearen partiellen Differentialgleichun- gen stimuliert werden könnte, indem sich aus den Computerresultaten jene heuristischen Fingerzeige ergäben, die von jeher in allen Bereichen der Wis- senschaft den Schlüssel für entscheidende mathematische Ideen liefern könn- ten. In gewissem Sinne klingen seine damaligen Argumente jung und vertraut, denn die weltweit initiierten nationalen Förderprogramme des Höchstleis- tungsrechnens folgen dieser Zielsetzung, allerdings nicht nur mit dem Blick auf Strömungsprobleme, sondern auf der breiten Ebene der Computational Sciences & Engineering“ (Hoßfeld 1996: 4). 83 3 ENTSTEHUNG DER COMPUTATIONAL SC IENCES Mit dem Erscheinen der elektronischen Computer und ihrer weltweiten Verbreitung verändert sich die wissenschaftliche Forschung wie auch Forschungslandschaft. Keine Disziplin und keine wissenschaftliche Me- thode bleiben von der Nutzung der Computer unberührt. Wissenschaftler und Ingenieure setzen den Computer als Forschungs-, Experimentier- und Prognoseinstrument in der täglichen Arbeit ein und Datenleitungen sorgen für eine globale Vernetzung der computerbasierten Forschung. Heute ist nahezu jedes naturwissenschaftliche Institut und Labor an ein Rechenzentrum angeschlossen, in jedem Messinstrument finden sich Computerchips und Theorie wird zunehmend in Algorithmen transfor- miert. Computer und Algorithmen verwandeln die Welt der Phänomene und Fakten in eine Parallelwelt aus PetaBytes von Daten. Ein so grund- legender Wandel des wissenschaftlichen Instrumentariums bleibt nicht ohne ebenso grundlegende Auswirkungen auf die Epistemik wie Praktik des Forschens. Dabei handelt es sich um nichts weniger, als die zweite Hälfte der wissenschaftlichen Revolution der Neuzeit. „John von Neumann foresaw that the equations describing scientific phenom- ena, once expressed in mathematical terms, could be solved numerically, without recourse to routine or repetitive experiment. This vision is nothing less than the second half of the scientific revolution. Throughout four centuries we have expected that a successful scientific theory would have its major concepts expressed quantitatively as numbers and its major relationships expressed as mathematical equations; the truth of this theory was settled by experimental tests and hand calculations, often in idealized situations. The second half of the scientific revolution is no less sweeping in its goals. The solutions of the equations are also to be obtained on mathematical grounds, by numerical computation, without restriction to idealized cases“ (Glimm 1990: 185). 85 I HISTORISCHER KONTEXT M i t Rechnern experiment ieren Ziel dieser Vollendung der wissenschaftlichen Revolution in Form der Computational Sciences ist zum einen die Substitution herkömmlicher Experimente durch Computerexperimente, zum anderen die Konkretisie- rung der bis dahin stark idealisierten Modelle, sowohl bezüglich der prozessualen Komplexität als auch realitätsnahe Details. Mit Hilfe der Computer können realitätsnahe Modelle berechnet und ausgewertet werden. Der Erkenntnisgewinn liegt dabei in der Erforschung komplexer Wechselwirkungen anhand numerischer Studien des Lösungsverhaltens der simulierten Modelle. Triebfeder der Entwicklung ist die zunehmende Anwendbarkeit der Modelle, denn sowohl in den Ingenieurs- wie Na- turwissenschaften genügt das rein qualitative Verständnis von Prozessen auf abstrakter Ebene nicht mehr, wie das Beispiel der Strömungsdyna- mik zeigte. Die so genannten ‚first principles‘ – mathematische Darstel- lungen naturwissenschaftlicher Gesetze wie Eulers Bewegungsgleichung basierend auf Newtons zweitem Axiom – sind zu stark idealisiert, als dass sie auf Anwendungskontexte übertragen werden könnten. Compu- terexperimente bieten nun erstmals die Möglichkeit, die idealisierten Modelle mit empirischen Details anzureichern und in ihrem Verhalten zu erforschen. Die Folge ist die zunehmende Verknüpfung von qualita- tiv-theoretischem und quantitativ-empirischem Verstehen komplexer Prozesse als charakteristische Epistemik einer computerbasierten Wis- senschaft. Diese Epistemik war bislang als Wechselspiel zwischen idea- lisierten Modellen und „numerous experiments, from which empirical formulae have been constructed“ (Stokes 1845: 76) realisert. Mit dem Problem, dass „such formulae, although fulfilling well enough the pur- poses for which they were constructed, can hardly be considered as af- fording us any material insight into the laws of nature“ (Stokes 1845: 76). Diese Epistemik verknüpft sich nun im Computer zu einer neuen Form von Theorieexperimenten. Computerexperimente sind eine Mi- schung aus Theorie basierend auf first principles, empirischen Annah- men und Heuristiken. Sie führen nicht nur ein neues Verhältnis zwi- schen bestehender Theorie, Experiment, Messung und Beobachtung ein, sie vereinen dieses neue Verhältnis in sich und implementieren es in ihrer charakteristischen Forschungslogik. Heutige Computerexperimente beinhalten jedoch wesentlich mehr als nur die diskretisierten Grundglei- chungen, wie dies von John von Neumann gedacht und mit den damali- gen Rechnern auch nur möglich war. Computerexperimente werden nicht nur mit umfangreichen Messdaten für spezifische Randbedingun- gen initialisiert, sie berücksichtigen auch immer zahlreiche Aspekte der 86 3 ENTSTEHUNG DER COMPUTATIONAL SCIENCES Anwendungskontexte in Form subskaliger Param trisi rung n.1e e e Vor allem letzteres unterscheidet aktuelle Computerexperimente von den ersten computerbasierten Berechnungen der 1940er Jahre und lässt die heutigen Simulationsmodelle in ihrem Umfang erheblich anwachsen. „Man hat verschiedene Namen für diese Verbindung von Modellierung und Berechnung geprägt: computational science oder Computersimulation oder einfach, wie der russische Mathematiker A.A. Samarskij, Computerexperi- ment. Er unterscheidet drei Phasen bei so einem Experiment: Modell – Algo- rithmus – Programm (MAP, vielleicht die Abbildung = map der Wirklichkeit in den Computern). Algorithmen sind die Vorschriften zur (im allgemeinen näherungsweisen) Lösung der Modellgleichungen; Programm meint die Reali- sierung dieser Vorschriften, die Erstellung von Software. Programme sind letztendlich auch die Instrumente dieses Experiments; sie werden von Anwen- dern oft als Black box, das heißt ohne genaue Kenntnis des Modells und des Algorithmus, benutzt. Dabei verliert der Experimentator leicht die Mathematik aus den Augen, und, nur wenn etwas nicht funktioniert, etwa wenn das Expe- riment unglaubwürdige Werte liefert (oder jemand anderes mit anderen Ins- trumenten andere Ergebnisse erzielt), beginnt man über die ‚Richtigkeit’ des Modells, über die Korrektheit der Algorithmen nachzudenken“ (Neunzert 1995: 49, 50). Dass man bei den ersten Computerexperimenten die Mathematik aus den Augen verloren hätte, kann man nicht behaupten. Tatsächlich war zu Beginn der Computerentwicklung die Umsetzung der Modelle in ma- schinentaugliche Befehle eine rein mathematische Angelegenheit, da direkt – ohne Zwischenebenen wie Betriebssysteme, Software, spezifi- sche Hardwarefunktionen – mit den Computern gearbeitet wurde. „Ap- plying the modern term ‚to program’ to a computer probably originated with the ENIAC team at Moore School. More often, though, they used the phrase ‚set up’ to describe configuring the ENIAC to solve different problems. Setting up the ENIAC meant plugging and unplugging a maze of cables and setting arrays of switches. In effect, the machine had to be rebuilt for each new problem it was to solve. When completed in late 1945, the ENIAC operated much faster than any other machine before it. But while it could solve a complex mathematical problem in seconds, it might take days to set up the machine properly to do that“ (Ceruzzi 1 Parameter sind Eigenschaften und Kenngrößen. In der Strömungsdynamik spielen subskalige Parametrisierungen eine wichtige Rolle, denn sie be- schreiben all die Eigenschaften, Prozesse und Kenngrößen, die in den Gleichungen nicht enthalten sind und daher durch das Berechnungsraster fallen. 87 I HISTORISCHER KONTEXT 1998: 21).2 Um die automatischen Rechenmaschinen der ersten Stunde bedienen zu können, musste die Ausführung von Berechnungen direkt als Befehle auf Maschinensprachebene formuliert oder wie bei ENIAC als Steckverbindungen eingestöpselt werden. Dabei folgten diese ma- schinentauglichen Befehle dem Prinzip der grundlegenden Rechnerar- chitektur, komplexere Funktionen in einfache Grundfunktionen aufzulö- s n.3e Programmieren zu Beginn der Computerentwicklung bedeutete, per Hand eine Berechnung in einfachste, schrittweise abarbeitbare Ope- rationen zu zerlegen. Typische ENIAC-Befehle waren „S(x)  Ac: Clear accumulator and add number located at position x in the Sceletrons into it“ (Goldstine, von Neumann 1947: 85). 1947 stellten von Neumann und Goldstine in dem Report Planning and Coding Problems for an Electro- nic Computing Instrument eine Methode vor, um die Abfolge der ma- schinentauglichen Befehle eines Berechnungsprozesses mit Hilfe von Flussdiagrammen zu vereinfachen. Für ihre graphische Methode entwi- ckelten sie eine Darstellungsweise, die an eine Choreographie linearer Abläufe, Schleifen und Entscheidungspfade für die Verknüpfung der Operationen erinnert. Dabei definierten sie, was unter Coding zu verste- hen ist: „Coding is, of course, preceded by a mathematical stage of preparations. The mathematical or mathematical-physical process of understanding the problem, of deciding with what assumptions and what idealizations it is to be cast into equations and conditions, is the first step in this stage. The equations and con- ditions thus obtained are rigorous, with respect to the system of assumptions and idealizations that has been selected. Next, these equations and conditions, which are usually of an analytical and possibly of an implicit nature, must be replaced by arithmetical and explicit procedures. (These are usually step-by- step processes or successive approximation processes, or processes with both of these characteristics – and they are almost always characterized by multiple inductions.) Thus a procedure obtains, which is approximate in that sense in which the preceding one was rigorous. This is the second step in this stage. It should be noted that the first step has nothing to do with computing or with machines: It is equally necessary in any effort in mathematics or applied 2 Dies änderte sich im Laufe der Entwicklung von schnelleren Rechnern, höheren Programmiersprachen, Ein- und Ausgabegeräten wie Tastatur, Mouse und Bildschirm sowie allmählich anwachsenden Bibliotheken von Algorithmen für standardisierte und häufig verwendete Operationen. 3 Computer waren und sind bis heute auf unterster Maschinenebene ledig- lich im Stande einfache Operationen auszuführen wie arithmetische und logische Operationen, bit-orientierte Operationen, Speicher-, Vergleichs- und Steueroperationen. Selbst heutige Rechner haben sich diesbezüglich nicht verändert, auch wenn auf der Ebene höherer Programmsprachen komplexere Berechnungen möglich geworden sind. 88 3 ENTSTEHUNG DER COMPUTATIONAL SCIENCES mathematics. Furthermore, the second step has, at least, nothing to do with mechanization: It would be equally necessary if the problems were to be com- puted ‚by hand’. Finally, the precision of the approximation process, intro- duced by the second step, must be estimated. [...] It may be carried out by the planner, ‚mathematically’, or it may be set up for computation, in which case it may be adventageous to have it, too, carried out by the machine. Coding begins with the drawing of the flow diagrams. This is the dynamic or macroscopic stage of coding. [...] It has been our invariable experience that once the problem has been understood and prepared in the sense of the preced- ing first remark, the drawing of the flow diagram presents little difficulty“ (Goldstine, von Neumann 1947: 99, 100). „The next stage consists of the indi- vidual coding of every operation box, alternative box and variable remote connection. This is the static or microscopic stage of coding. Its main virtue is that the boxes in question can now be taken up one by one, and that the work on each one of them is essentially unaffected by the work on the others“ (Goldstine, von Neumann 1947: 101). „The last stage of coding consist of as- signing all storage positions and all orders their final numbers. [...] These prin- ciples express all the restrictions that need be observed in the final, linear or- dering of the boxes“ (Goldstine, von Neumann 1947: 103). Diese mathematik- und maschinennahe Praktik der Codierung, die in ihrer Allgemeinheit bis heute zutreffend ist, thematisiert zwei neue Prin- zipien computerbasierter Mathematik. Zum einen die Überwindung sta- tischer Konzepte durch dynamische Abläufe und zum anderen die Im- plementierung von alternativen Pfaden, die sich in höheren Program- miersprachen als ‚goto‘-, ‚while‘- oder ‚if-else‘-Befehle wieder finden. Die Codierung zerlegt ein mathematisches Problem gemäß dieser Logik. Sowohl die Dynamik wie auch die Wahl alternativer Abläufe bildet die Basis, um das naturwissenschaftliche Prozessverständnis nicht nur zu beschreiben, sondern adäquat darzustellen und durch schrittweise Be- rechnungen im Computer auszuführen. Was bis dahin in seiner Dynamik den Experimenten in realiter vorbehalten war, lässt sich nun im rein Se- miotischen der Computerexperimente realisieren. Codierung, wie von Neumann und Goldstine 1947 beschrieben, war bis in die 1950er Jahre Handarbeit mit Bleistift und Papier. Ein Großteil der Codierung bestand jedoch aus Standardroutinen, die sowohl in der Codierung per Hand wie auch in ihrer maschinellen Ausführung zeit- aufwendig waren. Insbesondere die Handhabung von Zahlen in der bis dahin üblichen Darstellung der Festkommazahlen kostete viel Zeit, um Fehler bei arithmetischen Überläufen, zu vermeiden. Waren die Ergeb- nisse einer Berechnung für den darstellbaren Zahlenraum eines Spei- chers zu groß, dann liefen sie über und verursachten Fehlberechnungen. „This meant that most of a programmer´s effort was scaling his calcula- 89 I HISTORISCHER KONTEXT tion, not coding“ (Knuth, Prado 1980: 232). Berechnungen mussten für jeden Berechnungsschritt neu skaliert werden. Das heißt, es musste an- gegeben werden, ob das Ergebnis Einer, Zehner, Hunderter oder Tau- sender bedeutete, denn die Zahlenspeicher der ersten Computer waren zu klein, um längere Zahlen darzustellen. ENIAC beispielsweise konnte nur 20 Zahlen von je 10 Dezimaleinheiten speichern. „Thus even large inefficiencies in compiling or interpreting looping and testing operations and in computing addresses were masked by the fact that the most op- eration time was spent in floating-point subroutines. But the advent of the 704 with built-in floating-point and indexing radically altered the situation. [...] First it removed the raison d’être of earlier systems by providing in hardware the operations they existed to provide, and sec- ond, it increased the problem of generating efficient programs by an or- der of magnitude by speeding up floating-point operations by a factor of ten“ (Backus 1980: 131). 4 Mit dem IBM 704 Computer wurde 1957 erstmals die Gleitkommaarithmetik eingeführt. Ein weiterer Schritt zum wissenschaftlichen Rechnen, wie es heute üb- lich ist, war die Automatisierung der Codierung selbst durch die Ent- wicklung von Compilern und Programmiersprachen. Bis dahin mussten die Programmierer die Computer direkt in Maschinensprache instruie- ren. „At that time [1954], most programmers wrote symbolic machine instructions exclusively [...] they firmly believed that any mechanical coding method would fail to apply the versatile ingenuity which each programmer felt he possessed and constantly needed in his work“ (Backus 1964: 382). Doch Compiler, die die Befehle der Programmier- sprache in Maschinensprache übersetzen, erleichtern die Arbeit und er- möglichen es, Programmiersprachen zu entwickeln. Der erste Compiler A-0 geht 1952 auf Grace Hopper, Nora Moser und Kollegen im UNIVAC-Team zurück. „To compile means to compose out of materials from other documents. Therefore, the compiler method of automatic programming consists of assembling and organizing a program from programs or routines or in general from sequences of computer code which have been made up previously“ (Moser zitiert in: Knuth, Pardo 4 Fließkommazahlen approximieren reelle Zahlen und speichern zum Wert einer Zahl die Stelle des Kommas ab. Beispielsweise wird die Angabe der Lichtgeschwindigkeit nicht als 299.792.458 m/s, sondern als 2,99792458 · 108 m/s gespeichert, wobei der Wert der Mantisse für einen Wertebereiche [1, 10[ normalisiert wird. In Digitalrechnern werden Fließ- kommazahlen mit 32 oder 64 Bit dargestellt und beschränken daher die Länge der Zahlen. Dies kann zu Rundungsfehlern führen, was vor allem für die Simulation zu Problemen führte. 90 3 ENTSTEHUNG DER COMPUTATIONAL SCIENCES 1980: 234). Allerdings dauerte es eine Weile, bis Compiler und andere Programmierhilfen benutzt wurden. Die erste, tatsächlich realisierte Programmiersprache war FORTRAN Formula Translation, die zu Beginn der 1950er Jahre von John Backus entwickelt wurde und bis heute für zahlreiche Simula- tionsmodelle in den Naturwissenschaften verwendet wird (vgl. Backus 1954).5 Hinter der Entwicklung von FORTRAN stand laut Backus die Frage, „what could be done now to ease the programmer’s job? Once asked, the answer to this question had to be: Let him use mathematical notations. But behind that answer (in the new 704 environment) there was the really new and hard question: Can a machine translate a suffi- ciently rich mathematical language into a sufficiently economical ma- chine program to make the whole affair feasible?“ (Backus 1980: 131). Letztere Frage ist nicht trivial und betrifft die Konsistenz eines Pro- gramms. Denn es muss sichergestellt sein, dass der Computer tatsächlich die programmierte Berechnung ausführt. Solange der Codierer seine Be- rechnungen direkt in maschinentaugliche Befehle überträgt, kann er selbst die Konsistenz überprüfen. Wird die Übersetzung jedoch an eine Programmiersprache und einen Compiler delegiert, muss sich der Pro- grammierer auf das Tool verlassen. FORTRAN erlaubte es nun, die bis dahin per Hand codierten, maschinentauglichen Befehle mathematischer Berechnungen bequem in den gewohnten mathematischen Notationen darzustellen wie die Berechnung von Funktionen (COSF (X), SINF (X), EXPE (X), etc.). Gleichwohl andere Programmiersprachen in dieser Zeit entwickelt wurden, beispielsweise MATH-MATIC von Grace Hopper für UNIVAC Computer, setzte sich FORTRAN, das ab 1957 mit den IBM 704 Computern ausgeliefert wurde, in den Natur- und Ingenieurs- wiss 6enschaften durch. FORTRAN verrät den Ursprung der Computerentwicklung, der in der Effizienzsteigerung des wissenschaftlichen Rechnens lag. Heute gibt 5 Als erste Programmiersprache gilt mittlerweile Konrad Zuses Plankalkül aus dem Jahr 1945. Allerdings publizierte Zuse aufgrund der Wirren der Nachkriegszeit seine Konzepte erst wesentlich später (vgl. Zuse 1972). 6 Mit dem IBM 704 Computer brach die Ära der Massenfertigung von Großrechnern an und dementsprechend vergrößerte sich die Gruppe der FORTRAN-Anwender laufend. Im April 1958 benutzte bereits die Mehr- zahl der Nutzer, der bis dahin 26 installierten 704 Systeme, FORTRAN (vgl. Backus 1958). FORTRAN wurde seither mehrmals verändert, ins- besondere als FORTRAN-77 (‚do‘-Schleifen, ‚if-then-else-endif‘- Statement, etc.) und Fortran90 (Modules, etc). „The latest version, For- tran90, has incorporated many new ideas, including some of those used in object-oriented programming, but scientific programmers generally are aware of only one of them: array syntax” (Decyk, Norton, Szymanski 1997: 13). 91 I HISTORISCHER KONTEXT es nicht nur weitere Programmiersprachen wie Simula, Pascal, C oder C++, sondern kommerzielle mathematische Werkzeuge wie Mathemati- ca, MathWorks oder MATLAB sowie einen ständig wachsenden Markt für spezielle Modellierungssoftware vor allem für den technischen Be- reich (vgl. Softguide 2009). Zahlreiche standardisierte Tools wie PDE Partielle Differentialgleichungen Löser erleichtern die Programmierung von Simulationsmodellen. Die Tendenz geht mittlerweile dahin, kom- plette Computerexperimente als vorgefertigte Softwareprodukte anzu- bieten. Diese Entwicklung zeigt, dass mathematische Verfahren zu einem weit verbreiteten Handwerkszeug geworden sind. Es zeigt aber auch, dass die Softwareentwicklung die zugrunde liegenden mathemati- schen Prozesse zunehmend als Blackboxes maskiert. Damit werden ma- thematische Wissensbestände in Algorithmen festgeschrieben und popu- larisiert. Was sich bereits 1936 als Entwicklung abzuzeichnen begann – „there is a great deal more arithmetic and better arithmetic in the world than there used to be“ (Bush 1936: 652) – gilt heute in einem nie da ge- wesenen Umfang. Computat ional Departments Der Zuwachs an Arithmetik durch die Entwicklung automatischer Re- chenmaschinen zeigt sich an den Universitäten und Forschungsinstituten in der Gründung von Computational Departments. Die Vorläufer dieser Departments waren die Human Computing Laboratories. „The Winter of 1943 marked the start of the imperial age of the human com- puters, the era of great growth for scientific computing laboratories. It seemed as if all the combatants discovered a need for organized computing this winter. A German group started preparing mathematical tables at the Technische Hochschule in Darmstadt. Japan [...] formed a computing group in Tokyo. The British government operated computing groups in Bath, Wynton, Cambridge, and London. Within the United States, there were at least twenty computing organizations at work that winter, including laboratories in Washington, Hampton Roads, Aberdeen, Philadelphia, Providence, Princeton, Pasadena, Ames, Lynn, Los Alamos, Dahlgren, Chicago, Oak Ridge, and New York. Most of these calculating staffs were small, consisting of five to ten com- puters. [...] Only a few computing laboratories were as large as the New York Hydrographic Project with its forty-nine veterans of the Mathematical Table Project or the thirty-person computing office of the Naval Weapons Labora- tory at Dahlgren, Virginia“ (Grier 2005: 257). 92 3 ENTSTEHUNG DER COMPUTATIONAL SCIENCES Daher ist es kein Zufall, dass die ersten automatischen Rechenmaschi- nen vom Militär in Auftrag gegeben wurden, um die Berechnungen zu beschleunigen und dadurch Mitarb 7eiter einzusparen. So entstanden ENIAC und später EDVAC zwar an der Moore School of Electrical En- gineering der Universität von Pennsylvania, doch Auftraggeber war das US-Militär. ENIAC wurde 1947 und EDVAC 1949 an das Ballistic Re- search Laboratory der US Army in Aberdeen Maryland ausgeliefert. Beide Computer entstanden unter Mitwirkung von John von Neumann, der sowohl Mitglied im wissenschaftlichen Beirat des Ballistic Research Laboratory als auch im Navy Bureau of Ordnance war. Das Ballistic Research Laboratory in Aberdeen mit ENIAC 1947 und EDVAC 1949 als auch das Naval Surface Weapons Center in Dahlgren mit den IBM Computern Mark II 1948, Mark III 1951 und NORC 1954 können wohl als die ersten Computational Departments bezeichnet werden. Umso erstaunlicher ist es, dass sich John von Neumann 1945 – auf der Suche nach einem geeigneten mathematischen Problem zum Test seines ge- planten Princeton IAS Computers – für ein rein wissenschaftliches Pro- jekt entschi 8ed. „[Carl-Gustav] Rossby, Vladimir Zworykin of RCA, and Weather Bureau Chief Francis Reichelderfer, had succeeded in convinc- ing von Neumann that weather prediction was a good candidate for his computer“ (Phillips 2000: 15). Die Wettervorhersage, bis weit in die 7 Welcher Computer nun als der erste Computer gelten kann, ist nicht ein- fach zu beantworten. Auch standen nicht alle Computer im Dienste militä- rischer Zwecke. Beispielsweise wurde der elektrisch angetriebene mecha- nische Rechner Z1 von Konrad Zuse 1938 im elterlichen Wohnzimmer gebaut, jedoch während des Krieges zerstört. 1941 baute Zuse ebenfalls in seiner Privatwohnung die Z3, den ersten vollautomatisch arbeitenden Computer mit binärer Gleitkommarechnung, Speicher und Zentralrechen- einheit. Weitere Computer waren der nicht frei programmierbare ABC Atanasoff-Berry-Computer, den John Atanasoff und Clifford Berry in den Jahren 1937 bis 1941 am Iowa State College konstruierten, Mark I, der 1944 als Dezimalrechner von IBM für die Harvard Universität gebaut, sowie Colossus, der 1943 in Bletchley Park unter Mitwirkung von Alan Turing erstellt wurde. Colossus war wie ENIAC nur durch Neuverkabe- lung programmierbar und diente der Entzifferung der deutschen Lorenz- Schlüsselmaschine. Die Kriterien für einen modernen Computer sind: Bi- näre Zahlendarstellung, elektronische Realisierung, freie Programmierbar- keit, Turingmächtigkeit und ggf. Gleitkommaarithmetik. 8 John von Neumann war seit 1933 Mitglied des IAS Institute for Advanced Study in Princeton und gründete dort eine Gruppe für die Konzeption und den Bau des IAS Computers, der im Frühjahr 1951 fertig gestellt wurde. „During the summer of 1951, a team of scientists from Los Alamos came and put a large thermonuclear calculation on the IAS machine; it ran for 24 hours without interruption for a period of about 60 days“ (Bigelow 1980: 308). 93 I HISTORISCHER KONTEXT 1960er Jahre eine Erfahrungswissenschaft und Kunst, gehörte zu jenen Disziplinen, die am Schisma zwischen Theorie und Anwendung labo- rierten. 1904 hatte Vilhelm Bjerknes zwar die theoretischen Grundlagen auf Basis der Navier-Stokes-Gleichungen der Strömungsdynamik gelegt (vgl. Bjerknes 1904), doch die Gleichungen waren zu komplex, um sie per Hand zu berechnen, geschweige denn, um sie auf ein einfaches Erdmodell anzuw nd 9e en. Carl Gustav Rossby, ein Meteorologe der Uni- versität Chicago, erhoffte sich von einem Simulationsmodell einen ent- scheidenden Durchbruch für die theoretische Fundierung der Meteoro- logie. „To lay the foundation for a computational approach to theoretical meteorology, it would be necessary to organize a small and versatile group of competent theoretical meteorologists to work with Professor von Neumann“ (Rossby 1946, in: Harper 2004: 85). Es dauerte jedoch noch zwei Jahre bis sich 1948 mit Jule Charney eine erste Gruppe wis- senschaftlicher Modellierer zusammenfand, die am IAS Institute for Advanced Study in Princeton an einem computertauglichen Wettervor- hersagemodell arbeiteten. Dabei handelte es sich um ein sehr einfaches Modell basierend auf den Navier-Stokes-Gleichungen. Die sieben Va- riablen zur Bestimmung der Atmosphäre sollten für ein sehr grobes Be- rechnungsgitter einer gleichmäßig rotierenden Erde gelöst werden. Erste Modellrechnungen waren für 1950 geplant. Da der IAS Computer je- doch noch nicht fertig gestellt war, wurden die Berechnungen im April 1950 auf ENIAC ausgeführt. Eine 24-Stunden-Vorhersage benötigte 24 Stunden reine Rechenzeit auf ENIAC. Da ENIAC zu dieser Zeit bereits vom Ballistic Research Laboratory für ballistische Berechnungen ge- nutzt wurde, konnten nicht mehr als vier 24-Stunden-Vorhersagen und zwei 12-Stunden-Vorhersagen durchgeführt werden (vgl. Phillips 2000). Die Forschergruppe des Meteorological Projects des Institute for Advanced Study in Princeton um Charney, von Neumann und, in wech- selnder Besetzung weiterer Wissenschaftler unterschiedlicher Diszipli- nen, wie Norman Phillips, Joseph und Margaret Smagorinsky, bestand zwischen 1948 und 1955 als eine der ersten Modellierungs- und Simula- tionsgruppen der sich formierenden Computational Sciences. Sie nutzten neben ENIAC den IAS Computer und NORC. Auch wenn das Office of Naval Research das Projekt finanzierte, kann das meteorologische Com- puterexperiment von 1950 als eines der ersten, wenn nicht sogar als das erste Computerexperiment der akademischen Naturwissenschaften gel- ten. Auf alle Fälle gilt es als Beginn der numerischen Wettervorhersage und wurde im Jahr 2000 zum 50-jährigen Jubiläum mit einem interna- 9 Lewis F. Richardson hatte 1922 versucht, eine Berechnung per Hand durchzuführen, doch er scheiterte (vgl. Richardson 1922, Lynch 1999). 94 3 ENTSTEHUNG DER COMPUTATIONAL SCIENCES tionalen Symposium gefeiert (vgl. Spekat 2000). Dieses erste Compu- terexperiment dokumentiert die enge Zusammenarbeit zwischen Compu- terdesignern und Modellierern, die bis heute besteht. 1954 zog John von Neumann auf einem Vortrag in Deutschland die Bilanz seiner Erfahrun- gen mit diesem ersten Computerexperiment: „Übrigens waren diese Bemühungen recht erfolgreich, so daß der Wetterdienst der Vereinigten Staaten zusammen mit der Marine und der Luftwaffe auf Grund unserer Methoden einen dauernden rechnerischen Wettervorhersagedienst ein- richtet. Dieser wird wohl im Laufe des nächsten Jahres mit einer großen, vollautomatischen Schnellrechenmaschine (vom Typ ‚701’ der IBM International Business Machine Corporation) regelmäßig funktionieren“ (von Neumann 1954: 264).10 Ein Jahr später gründete Joseph Smago- rinsky auf von Neumanns Betreiben die General Circulation Research Section im U.S. Weather Bureau, die 1986 als GFDL Geophysical Fluid Dynamics Laboratory in Princeton angesiedelt wurde. Diese Entwicklung, ausgehend von einer kleinen Gruppe von Wissen- schaftlern, ist charakteristisch für die Entstehung der Computational Sciences und den sich institutionell etablierenden Computational De- partments. In nahezu allen naturwissenschaftlichen Disziplinen sind in den letzten fünfzig Jahren – neben den klassischen Instituten und De- partments für experimentelle Forschung und Theorie – Computational Departments entstanden. Diese neuen Departments dokumentieren die Revolution der wissenschaftlichen Methoden. Neben Theorie, Experi- ment, Beobachtung und Messung kommt in den 1950er Jahren, verstärkt ab den 1970er Jahren, nun die Simulation als neues Erkenntnisinstru- ment hinzu. Die neu eingerichteten Computational Departments folgen einer eigenen Forschungslogik, die durch die numerische Analyse kom- plexer Systeme, anwendungs- wie problemorientierte Forschungsfragen, eine hochgradig interdisziplinäre Zusammenarbeit und internationale Vernetzung sowie die Abhängigkeit des Erkenntnisfortschritts von der Leistungsfähigkeit der Rechner gekennzeichnet ist. Und sie verfügen über eine eigene Infrastruktur (e-Science). Exemplarisch zeigt sich die Konzeption eines solchen Departments am Center for Computational Geophysics der Rice Universität: „The Center for Computational Geo- 10 „By 1954, both modeling capability and computer power had advanced to a point where the possibility of real-time operational numerical weather prediction was under active consideration in Europe and the United States. On July 1, 1954, the Joint Numerical Weather Prediction Unit (JNWPU) was organized, staffed, and funded by the U.S. Weather Bureau, the U.S. Air Force, and the U.S. Navy” (NOAA 2008: Foundations, The History of Numerical Weather Prediction). 95 I HISTORISCHER KONTEXT physics was established in 1998 to promote cross-disciplinary studies of the Earth requiring large computational resources. Comprised of 11 fac- ulty members and research associates from the Earth Science, Computa- tional & Applied Mathematics, and Electrical & Computer Engineering Departments, the Center has research areas in petroleum, environmental, and academic seismology, lithosphere and whole mantle geodynamics, and fault m chanics“ (Ric Univ rsity 2008: Earth Sci nc ).11e e e e e „Computational Science,“ schreibt Friedel Hoßfeld, einer der Pioniere des wissenschaftlichen Rechnens in Deutschland, „ist synonym mit der Untersu- chung komplexer Systeme; ihr Instrument ist der Supercomputer, ihre Metho- de die Simulation. […] sie zielt auf die großen ungelösten, wissenschaftlichen Probleme, die in ihrer Wichtigkeit und Tiefe nicht nur die betreffende wissen- schaftliche Disziplin herausfordern, sondern von außerordentlicher Bedeutung und Auswirkung für die Gesellschaft und ihrer Bewältigung der Zukunft sind. Die Identifizierung solcher Probleme hat in den USA zur Klassifizierung als ‚Grand Challenges to Computational Science’ geführt, zu denen heute die Kernfragen aus den Gebieten der atmosphärischen Chemie (d.h. der Umwelt- forschung), der Astrophysik, der Materialforschung, der Molekularbiologie, der Elementarteilchenphysik und der Aerodynamik gezählt werden“ (Hoßfeld 1991: 1). e-Science Die Nutzung von Computern als Forschungsinstrumente, die weltweite Vernetzung der elektronischen Infrastrukturen und die flächendeckende Vermessung der Welt durch computerchipgesteuerte Detektoren führte Anfang des 21. Jahrhunderts zum Begriff der e-Science. „e-Science is about enhancing science through global collaboration using computing and communications technologies. e-Science integrates grid computing, programming tools, and data and visualization technologies enabling scientists to gain greater insight into their research through direct com- parisons of simulations, experiments and observations. Knowledge re- positories maintaining relationships, concepts and inference rules will be accessible through e-Science to facilitate these new insights“ (Berg et al. 2003: 5). Ziel der e-Science ist es, alle größeren Rechenzentren, Expe- rimentier- und Messgeräte miteinander zu vernetzen und über Institutio- 11 Da es noch keinerlei infrastrukturelle Forschungen zu diesem Umbau der Naturwissenschaften gibt, fehlt ein deutschlandweiter und internationaler Überblick der Computational Departments. Einen indirekten Einblick in die Orte der Computational Sciences gibt die TOP500 Liste der weltweit schnellsten Rechner (vgl. TOP500 2009). 96 3 ENTSTEHUNG DER COMPUTATIONAL SCIENCES nen- und Ländergrenzen hinweg als virtuelles Labor verfügbar zu ma- chen (Grid-Computing). Zahlreiche Länder konzipieren mittlerweile umfangreiche Förderprogramme für solche virtuellen Labore. Dabei stellen die Supercomputer in den weltweiten Rechenzentren sowie die Datenleitungen zwischen diesen Zentren die Kerninfrastruktur des ver- teilten Rechnens und Forschens dar. Die Voraussetzung dafür sind Entwicklungen aus den 1970er Jahren. 1976 kam mit dem Cray-1 Vektorrechner der erste Supercomputer mit einer Geschwindigkeit von 80 Millionen Gleitkommazahl-Operationen pro Sekunde auf den Markt.12 Im selben Jahr wurde an der Universität Illinois der erste Parallelrechner mit 256 Prozessoren gebaut (ILLIAC 4). Bereits 1975 waren weltweit 57 Großrechner im ARPANET Advan- ced Research Projects Agency Network miteinander vernetzt, die meis- ten davon in den USA. Das ARPANET war 1969 mit der Vernetzung von vier Forschungseinrichtungen gestartet: Stanford Research Institute (SDS 940), Universität von Utah (DEC PDP-10), Universität von Kali- fornien in Los Angeles (SDS Sigma 7) und in Santa Barbara (IBM 360/75). Doch erst die Entwicklung des Mehrbenutzter-Betriebssystems UNIX Anfang der 1970er Jahre in den Bell Laboratories – bis heute das gängige Betriebssystem der Großrechner – und die ebenfalls zu Beginn der 1970er Jahre in den Bell Laboratories entwickelte Programmierspra- che C verhalfen der Vernetzung von Computern zum Durchbruch. Die- ser Durchbruch führte 1982 zum Internet und 1989 zum World Wide Web, wobei es das erklärte Ziel des World Wide Web war, Forschungs- ergebnisse leichter austauschen zu können (vgl. Berners-Lee 1989). 12 Von den insgesamt achtzig gebauten Cray-1 wurde der erste dieser Rech- ner 1976 an das Los Alamos National Laboratory, der zweite ein Jahr spä- ter an das 1960 gegründete NCAR National Center for Atmospheric Re- search ausgeliefert und der dritte Computer an das 1975 gegründete ECMWF European Centre for Medium Range Weather Forecasts ausge- liefert. In den 1960er und frühen 1970er Jahren gab es neben IBM sechs kleinere Hersteller von Großrechnern in den USA: Burroughs, UNIVAC, NCR National Cash Register, CDC Control Data Corporation, Honeywell, RCA Radio Corporation of America und General Electric. CDC baute mit dem CDC 6600 Rechner (3 MegaFLOPS Rechenleistung) bereits 1964 einen Großrechner, der mit dem Begriff Supercomputer bezeichnet wurde. CDC Chefentwickler Seymour Cray verließ 1972 das Unternehmen und gründete die Cray Research, ein weiteres Großrechner-Unternehmen. 1997 wurde mit dem Intel ASCI Red/9152 (1,338 TeraFLOPS Rechenleistung) für die Sandia National Laboratories in New Mexiko die TeraFLOP- Grenze überschritten. Heute stößt man in den Bereich der PetaFLOPS vor. In Deutschland stellte Konrad Zuse mit seinem Unternehmen die ersten kommerziell vertriebenen Großrechner her. 97 I HISTORISCHER KONTEXT In den 1970er Jahren wurden auch die Ein- und Ausgabegeräte zuneh- mend benutzerfreundlich. 1973 wurde mit dem Xerox Alto der erste Computer mit Maus, graphischer Benutzeroberfläche und Ethernetkarte ausgeliefert. Die Monitore wurden verbessert und Magnetbänder als auch Festplatten lösten zunehmend die Lochkarten und Lochstreifen als Eingabegeräte ab.13 Die zunehmende Leistungsfähigkeit der Computer sowie der Kernspeicher – Ende der 1970er Jahre verfügten die Groß- rechner über rund 1 MegaByte Arbeitsspeicher – erlaubten die ersten Visualisierungen. Schließlich begann mit dem Intel 4004 Chip, der 2.300 Transistoren zu einer CPU Central Processing Unit zusammen- fasste, in den 1970er Jahren das Zeitalter der Mikroprozessoren (vgl. Flik 2004). Zum Vergleich: ENIAC war ein zimmergroßer Prozessor bestehend aus rund 18.000 Elektronenröhren. Mit der Installation des Cray X-MP Vektorrechners und der Grün- dung des HLRZ Höchstleistungsrechenzentrums an der Universität Stuttgart begann in Deutschland 1983 die Ära des Höchstleistungsrech- nens. Die Supercomputer sind die Stars di s r Ära.14e e „Was die Teil- chenbeschleuniger für die Experimentalphysik sind, leisten die Höchst- leistungsrechner für die Computational Sciences: Die Supercomputer sind die Beschleuniger der Theorie! Der Transfer des Wissens und Kön- nens auf dem Gebiet des Supercomputing, insbesondere des Parallel- rechnens, wird jedoch für die zukünftige Konkurrenzfähigkeit der Indus- trie im nationalen Wettbewerb ein wichtiger Wirtschaftsfaktor werden [… und] man ist wohl auch genötigt, eine enge Korrelation zwischen Verfügbarkeit des Supercomputing für die Industrie und deren Leis- tungsfähigkeit am Weltmarkt zu vermuten“ (Hoßfeld 1992: 3; Jarp 13 1952 stellte IBM mit dem IBM 726 Bandgerät das erste Datenspeicherme- dium auf Basis von Magnetbändern her. Das Gerät konnte 1,4 Megabyte aufzeichnen. 1956 entwickelte IBM mit RAMAC 305 die erste Festplatte, ein tausend Kilo schweres Ungetüm von 60 Platten für 5 Megabyte Daten (vgl. Magnetbandmuseum 2009). 14 Während in den USA etliche Hersteller von Supercomputern ansässig wa- ren, hatte in Deutschland die Zuse KG, die 1949 mit der Z4 den ersten kommerziell vertriebenen Großrechner in Europa an der ETH Eidgenössi- sche Technische Hochschule Zürich installiert hatte, den Betrieb einge- stellt bzw. war 1969 in den Besitz der Siemens AG übergegangen (vgl. Zuse 2008). Siemens und Telefunken bauten in den 1970er und 1980er Jahren Großrechner wie den Siemens VP200-EX, den Siemens S100/10 oder den Telefunken TR440. 1985 nahm die GMD Gesellschaft für Ma- thematik und Datenverarbeitung mit dem Bau des SUPRENUM Rechners, einem Parallelrechner mit 256 Prozessoren, ein innovatives Projekt in An- griff. 1990 wurde der Rechner in St. Augustin in Betrieb genommen, aber obwohl die Architektur richtungsweisend war, scheiterte das Projekt kommerziell. 98 3 ENTSTEHUNG DER COMPUTATIONAL SCIENCES 1991). Diese Einsicht in die Bedeutung des Höchstleistungsrechnens für Industrie, aber auch Wissenschaft und Forschung setzte sich in Deutsch- land jedoch nur langsam durch. Die Situation der Klimaforschung bei- spielsweise verbesserte sich erst 1985, als das Max-Planck-Institut für Meteorologie in Hamburg mit einem CYBER 25 Supercomputer ausge- stattet wurde und 1988 die Gründung des DKRZ Deutsches Klimare- chenzentrum in Hamburg mit einem CRAY-2 System erfolgte. Während in Deutschland im Jahr 1992 43 Großrechner installiert waren, davon 26 in wissenschaftlichen Institutionen,15 und insgesamt 31 Mio. Mark für paralleles Höchstleistungsrechnen ausgegeben wurden, waren im selben Jahr in den USA 240 der weltweit 616 Supercomputer installiert und es wurden 657 Mio. US Dollar für HPCC High Performance Computing and Communication ausgegeben (vgl. BMFT 1993).16 „Relativ spät, aber vielleicht noch rechtzeitig, wurde der Stellenwert der Com- putational Sciences und des Supercomputing wie die Notwendigkeit für ent- sprechendes Handeln auch in Europa erkannt: Der Rubbia-Report liefert für die EG eine eingehende Analyse der europäischen Situation auf dem Gebiet des Supercomputing und seines industriellen Umfeldes und eine Reihe strate- gischer Empfehlungen; mehrere Arbeitsgruppen haben Aktionslinien identifi- ziert und Rahmenempfehlungen für die Umsetzung des High Performance Computing and Networking (HPCN) Program in einem 7-Jahres-Plan ausge- arbeitet, das im Mittel ein jährliches Fördervolumen von 900 Mio. Ecu umfas- sen soll. Es ist zu hoffen, daß das Programm bald und im empfohlenen Um- fang von der EG verwirklicht wird“ (Hoßfeld 1992: 3; vgl. Rubbia 1991).17 15 Unter diesen 26 Großrechnern des Jahres 1992 in fünf Forschungszentren (MPI Max Planck Institut Garching, DLR Deutsches Luft- und Raum- fahrtzentrum Oberpfaffenhofen, DKRZ Deutsches Klimarechenzentrum Hamburg, Forschungszentren Jülich und Karlsruhe), dem DWD Deutscher Wetterdienst Offenbach sowie sechzehn Universitäten (Berlin, Stuttgart, Karlsruhe, Kiel, Kaiserslautern, Köln, München, Hannover, Aachen, Dresden, Bremen, Gießen, Kassel, Frankfurt, Hamburg, Darmstadt) waren zwölf Cray, zwölf Siemens und ein NEC Computer (BMFT 1993: 12). 16 Zum Vergleich: 1992 standen 240 Supercomputer in den USA/Kanada und 138 in Europa, darunter 43 in Deutschland, 35 in Frankreich und 24 in Groß Britannien (vgl. Meuer 1992). 17 „Besonders traurig in diesem Zusammenhang ist es, wenn staatliche För- derungsinitiativen außer Sitzungen nichts produzieren: Während die US- Amerikaner den Ernst der Stunde anscheinend erkannt und konzentrierte Aktivitäten gestartet haben, erweckt die europäische Rubbia-Initiative den Eindruck eines Debattierclubs, der wegen diverser Partikularinteressen Gefahr läuft, Zeit und den Anschluß an das ‚Weltniveau’ im Supercompu- ting zu verlieren“ (Jehnsen 1992). Die Situation Anfang der 1990er Jahre hatte sich bezüglich des Baus von Supercomputern verändert. Während in Europa keine Großrechner mehr gebaut wurden, drohten die US- amerikanischen Hersteller gegenüber den japanischen Unternehmen wie 99 I HISTORISCHER KONTEXT Doch es geht in den 1990er Jahren nicht nur um Großrechner. „Die In- stallation von Höchstleistungsrechnern setzt notwendigerweise voraus, daß einem breiten Kreis potentieller Nutzer auch von außen Zugriff auf diese Rechner ermöglicht wird. Erforderlich ist dazu die Einbettung der Rechner in ein leistungsfähiges Netz, das insbesondere für den schnellen Austausch von Massendaten […] geeignet ist. Für den Anwender muß der Zugriff auf den Rechner so erfolgen können, als ob dieser im eige- nen lokalen Netz zur Verfügung stünde“ (BMFT 1993: 25). Es ist dieser direkte Zugriff und die damit einhergehende infrastrukturelle Umgestal- tung der Wissenschaft, welche die e-Science charakterisiert. Heute ist im Zuge dieser Umgestaltung von Parallelrechnern mit 212.992 Prozesso- ren (IBM BlueGene/L) die Rede, von Datennetzen mit Transferleistun- gen von 10 Gigabit/sec, von Programmen, die via Internet den weltwei- ten Zugriff auf Supercomputer, Experimentier- und Messgeräte erlau- ben, sowie von Rechenzentren, die zunehmend als Dienstleister für Na- tur- und Ingenieurswissenschaften fungi r 18e en. Im Zuge dieser neuen Dienstleistungen der e-Sciences schließen sich immer mehr Rechenzen- tren zusammen. So wurde 2007 Europas größtes Rechenzentrum, das Gauss Centre for Supercomputing, durch den Zusammenschluss dreier Rechenzentren gegründet (NIC John von Neumann-Institut für Compu- ting Jülich, LRZ Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften in Garching und HLRZ Höchstleistungsrechenzentrum der Universität Stuttgart). Das Gauss Centre wiederum ist mit fünfzehn weiteren Supercomputerzentren Teil von PRACE Partnership for Ad- vanced Computing in Europe. In dem EU Memorandum vom April 2007 heißt es dazu: „Computation has become essential for the advancement of all research across science. But the high-performance computing re- sources are limited and a European effort is needed to treat the provi- sioning in a strategic way. Together the 16 members of PRACE, the Partnership for Advanced Computing in Europe, will strengthen Euro- pean science, engineering and supercomputer technologies and thus se- Fujitsu, Hitachi und NEC zunehmend ins Abseits zu geraten. Der in An- lehnung an den Sputnik Schock der 1950er Jahre als ‚computnic race‘ be- titelte Wettlauf zwischen US-amerikanischen und japanischen Unterneh- men wurde Ende der 2004 mit dem IBM BlueGene/L entschieden. 18 Die Bestandsaufnahme der aktuellen Situation in Deutschland zeigt, dass hier zwar keine Supercomputer mehr gebaut werden, dass aber mit dem im Forschungszentrum Jülich Anfang 2008 installierten und 2009 erweiterten JUGENE Blue Gene/P (294.912 Prozessoren), der weltweit drittschnellste Computer steht. Die Liste der TOP500 Rechner zeigte im Juni 2009, dass nur sechs Prozent der Rechenkraft der fünfhundert leistungsfähigsten Computer in Deutschland zur Verfügung stehen (vgl. TOP500 2009). 100 3 ENTSTEHUNG DER COMPUTATIONAL SCIENCES cure Europe a pioneering role in the global competition“ (PRACE 2007: Memorandum). Um diese Ressourcen zu vernetzen, bedarf es leistungsfähiger Datennetze und Softwareprogramme, die das verteilte Höchstleistungs- rechnen ermöglichen. In Deutschland vernetzt seit 1990 das WIN Wis- senschaftsnetz des Deutsches Forschungsnetz e.V. die Forschungsinsti- tutionen und Universitäten. Heute bietet diese Infrastruktur eine Trans- ferleistung im Gigabit/s-Bereich und wird zunehmend ausgebaut,19 denn „nachdem in den 90er Jahren das World Wide Web das Internet revolu- tionierte, sehen wir uns nun einer weiteren revolutionären Entwicklung gegenüber: dem Grid-Computing. Während das Web in der Regel nur statische Informationen bereitstellt, ermöglicht das Grid nun den direk- ten Zugriff auf die Ressourcen selbst, wie Rechner, Speicher, wissen- schaftliche Instrumente und Experimente, Anwendungen und Daten, Sensoren und sogenannte Grid-Middleware Dienste. Letztere basieren auf weit verbreiteten Grid- und Web-Services-Standards, die die effizi- ente Kommunikation der Ressourcen untereinander ermöglichen“ (Neu- roth, Kerzel, Gentzsch 2007: 9, vgl. D-Grid 2009). Dazu wird ein Inter- face benötigt, das sowohl die verschiedenen Computer und Geräte von einer gemeinsamen Oberfläche aus zugänglich macht, als auch das Datenmanagement der Massendaten ermöglicht. Mit dem Projekt UNICORE Uniform Interface to Computing Resources wurde ab 1997 ein solches Interface auf Basis der Erfahrungen des Höchstleistungs- rechnens in den Großrechenzentren programmiert (vgl. UNICORE 2008). Das Deutsche Forschungsnetz wie auch das D-Grid, UNICORE oder das Gauss Centre (vgl. GCS 2009) sind wiederum Teil europäi- scher Initiativen wie dem europäischen Wissenschaftsnetz GEANT ba- sierend auf 26 nationalen Forschungsnetzen (vgl. GEANT 2009), dem e-Infras truc ture Programm der EU Europä ischen Union (vgl . e-Infrastructure 2009), dem I2G Interactive European Grid Project (vgl. I2G 2009) oder der DEISA Distributed European Infrastructure for Supercomputing Applications (vgl. DEISA 2009). Schließlich bildet sich mit der Gründung des IAS Institute for Advanced Simulation 2008 am Forschungszentrum Jülich ein neuer Typ wissenschaftlicher Institute 19 Das WIN Wissenschaftsnetz wird vom DFN Deutsches Forschungsnetz e.V. verwaltet, der 1984 gegründet wurde. 1994 wurde ein Testbed mit einer Transferleistung von 34 Mbit in Nordrhein-Westfalen, Bayern, Ber- lin, Norddeutschland und Hessen sowie ein regionales Hochgeschwindig- keitsnetz von 155 Mbit/s in Baden-Württemberg installiert. 1996 wurde es bundesweit zum B-WIN Breitband-Wissenschaftsnetz (155 Mbit/s) und seit 2000 zum G-WIN Gigabit-Wissenschaftsnetz (2,5 – 10 Gbit/s) ausge- baut (vgl. Wissenschaftsrat 2002, DFN 2008). 101 I HISTORISCHER KONTEXT heraus: ausschließlich jene Wissenschaftsbereiche werden unterstützt, deren Erkenntnisfortschritt ausschließlich von Simulationen abhängt. Typische Anwendungsfelder sind quantentheoretische Untersuchungen, Astrophysik, Materialforschung, Biophysik sowie die Theorie der Struk- turbildung (vgl. IAS 2009). Die Umgestaltung der Naturwissenschaften zur e-Science beinhaltet vielfältige Aspekte wie die Entwicklung neuer Infrastrukturen, die Um- und Neuverteilung von Ressourcen, die Entstehung neuer Grid- Communities bis hin zu veränderten Anforderungen an die naturwissen- schaftliche Ausbildung. Es entstehen neue Studiengänge wie Technoma- thematik, Scientific Computing oder Wissenschaftliches Rechnen sowie Graduiertenschulen wie die Heidelberg Graduate School of Mathemati- cal and Computational Methods for the Sciences (vgl. MATHCOMP 2009). Die beiden maßgeblichsten Einflüsse zeigen sich jedoch in der Transformation der Epistemik und Praktik wissenschaftlichen For- schens. Computerexperimente werden aufgrund der Rechnerkapazitäten nicht nur zunehmend realitätsnaher. Ihre Einbindung in den bisherigen Kanon der Wissensproduktion von Beobachtung, Experiment und Mes- sung – alle drei Erkenntnisinstrumente haben sich mittlerweile zu algo- rithmierten und hochgradig datenproduzierenden Forschungsmethoden entwickelt – wird durch automatisierte Datenvergleiche, Datenauswer- tungen und Daten-Reinterpretationen professionalisiert und standardi- siert. Die Infrastrukturen der e-Science verändern die Forschungsprakti- ken grundlegend, nicht nur im digitalen Labor des Computers, sondern in den zu virtuellen Laboratorien vernetzen Supercomputern, Experi- mentier- und Messgeräten. Die Folge all dieser Veränderungen ist: „Software is the new physical infrastructure of [...] scientific and techni- cal research“ (PITAC 1999: 27). In anderen Worten: Das komplette Wissen der Naturwissenschaften wird sukzessive in Algorithmen trans- formiert. 102 II WISSENSCHAFTSFORSCHUNG 1 VON E INFACHEN MODELLEN ZU ERDSYSTEMEN In keiner Disziplin anderen zeigt sich die Bedeutung des Computers als Forschungs-, Experimentier- und Prognoseinstrument deutlicher als in der Klimaforschung. Das sozio-politische Interesse an den Resultaten der Klimamodellierer hat die Klimaforschung zu einer der führenden Simulationswissenschaft werden lassen. Der Computer wird als Labor für Experimente mit dem simulierten Klima genutzt, und durch diese Computerexperimente hat sich die Klimaforschung in den letzten Jahr- zehnten zu einer experimentellen Wissenschaft gewandelt. Diese neue Form der Experimentalkultur wird seit 1989 durch die alle fünf bis sechs Jahre erscheinenden Assessment Reports des IPCC Intergovernmental Panel on Climate Change in einzigartiger Weise synchronisiert. Die internationale Koordinierung von mehr als zwanzig Klimamodellen hat eine prototypische, epistemische Kultur des Simulierens geschaffen, mit einer internationalen Infrastruktur der Modellentwicklung, des Modell- tests und des Vergleichs von Simulationsmodellen und -resultaten. Da- her ist die Klimaforschung wie kein anderes Wissenschaftsfeld prädesti- niert, die neue Kultur der Computerexperimente vor Ort in den For- schungsinstituten der Klimamodellierer zu untersuchen. War die Astro- nomie die Leitdisziplin des Umbruchs von der mittelalterlichen zur neu- zeitlichen Wissenschaft, so stellt die Klimaforschung die Leitdisziplin in den sich aktuell entwickelnden Simulationswissenschaften dar. Forschungsobjekt Atmosphäre „Im Laboratorium des Meteorologen, in der uns umgebenden Atmo- sphäre,“ schreibt August Schmauß 1942 in seinem Buch Das Problem 105 II WISSENSCHAFTSFORSCHUNG der Wettervorhersage, „ist jedes Element in dauernder Veränderung; es gibt immer neue Bilder, wie in einem Kaleidoskop, das uns mit jeder Drehung einen neuen Anblick verschafft. Der Vergleich ist noch zu günstig, denn im Kaleidoskop sind wenigstens die einzelnen Farbgläs- chen voneinander unabhängig; im meteorologischen Kaleidoskop aber ändern die Teilstücke auch noch ihre Eigenschaften bei der Bewegung“ (Schmauß 1942: 3). Die Aufgabe des Meteorologen ist es daher, dieses Wechselspiel der atmosphärischen Zustände und der daraus resultieren- den Wetter- und Witterungsphänomene zu erforschen, zu verstehen und schließlich vorherzusagen. Doch die Aufgabe wird noch komplizierter, wenn man den Blickwinkel auf dieses Wechselspiel der Variablen ver- ändert und sich von den erlebbaren Wetter- und Witterungserfahrungen löst, um langfristige und globale Veränderungen zu studieren. Seit es möglich ist, globale Messdaten der Atmosphäre zu erheben und langfris- tige Messreihen zu rekonstruieren, zeugt die Zweiteilung der Meteoro- logie in Wetterkunde und Klimaforschung von diesem neuen Blickwin- k l.1e Mit den aktuellen Debatten um den von Menschen verursachten Klimawandel steht die Meteorologie vor einer weiteren Verkomplizie- rung ihrer Aufgabe, denn sie hat nun auch die sich verändernden klima- tischen Faktoren auf aktuelle Wetterphänomene zu berücksichtigen. Dieses zunehmend komplexe meteorologische Kaleidoskop zeigt sich im epistemischen Wandel des Forschungsgegenstandes der Meteo- rologie während der letzten Jahrhunderte. Zu Beginn stand die kosmolo- gisch-geometrische Sicht auf meteorologische Phänomene, die auf das 340 v. Chr. von Aristoteles verfasste Werk Meteorologica zurückgeht. Aristoteles diskutierte Erscheinungen wie Wirbelwinde, Erdbeben oder Kometen und gliederte diese in Empedokles kosmologisches System der vier Elemente ein. Dazu teilte er – beginnend mit der Erde, gefolgt von Luft, Wasser und Feuer – den Kosmos in vier Sphären auf (vgl. Aristote- les 1970). Diese Eingliederung der Meteorologie in ein kosmologisches System hielt sich bis ins Mittelalter. El-Kazwini, ein arabischer Gelehr- ter des 13. Jahrhunderts, ordnete in seiner Kosmographie den Himmels- sphären bestimmte Temperatureigenschaften zu: „Die Luft ist ein einfacher Körper, dessen natürliche Beschaffenheit darin be- steht, dass er heiß und feucht, durchsichtig und fein und in steter Bewegung nach der Stelle ist, die unterhalb der Feuersphäre und oberhalb der Wassersphä- 1 Paläoklimadaten der letzten Jahrhunderte bis Jahrtausende werden aus Proxy- Daten durch Analyse von Eisbohrkernen, Sedimentablagerungen oder fossi- len Materialien rekonstruiert. Diese Datenarchäologie des Klimas gibt ledig- lich Auskunft über die lokalen Wetterbedingungen am Fundort und lässt da- her nur bedingt Rückschlüsse auf das Klima vergangener Epochen zu. 106 1 VON EINFACHEN MODELLEN ZU ERDSYSTEMEN re liegt. Man behauptet, die Tiefe des Himmels lasse sich in drei Abtheilungen zerlegen, deren erste in der Nähe der Mondsphäre, deren zweite nahe der Ober- fläche des Wassers oder der Erde und deren letzte das Dazwischenliegende sei. Die am Mondhimmel befindliche Luft ist Feuer von äußerster Hitze […] das in der Mitte liegende ist äußerst kalt […] das der Erde Naheliegende endlich ist an einem Orte gemäßigt, an einem anderen weniger und heißt die sanfte Luft“ (El- Kazwini 1904: 127). Die meteorologische Kenntnis jener Zeit basierte auf direkt erlebbaren Wettererscheinungen wie Stürme, Niederschläge, Wolkenformationen, Temperaturveränderungen. Informationen zu klimatischen Unterschieden polarer und tropischer Witterungen, unterschiedliche Jahresgänge und regelmäßige Winde wurden durch Reisebericht üb 2e erliefert. Das Me- dium, in welchem sich diese meteorologischen Erscheinungen ereignen, bezeichnete man als Luftkörper der Erde, als Atmosphäre – griechisch: atmos (Dunst, Dampf) und spharia (Kugel) – oder als Luftmeer (vgl. Humboldt 1858). Über die Beschaffenheit und Bewegungsursache dieses Luftmeeres wurden zahlreiche Spekulationen angestellt. So wird in der Schrift von El-Kazwini die Ursache der Bewegung der sanften Luft, die wir als Winde erleben, durch ihr Hin- und Herwogen erklärt, ähnlich dem Wellenschlag des Meeres. Wobei das Wogen durch den Aufstieg warmer Luft, deren Abkühlung in der mittleren Sphäre und dem dadurch verur- sachten Herabsinken erklärt wird. El-Kazwini verweist auf die Sonnen- einstrahlung als Ursache der Erwärmung und Bewegung der Luft. Diese Erklärung mutet im Unterschied zum kosmologischen Gesamtrahmen fast modern an. Sie erinnert an Edmond Halleys 1686 publizierte Entdeckung, dass niedere Breitengrade mehr solare Einstrahlung erhalten als höhere und dass der daraus resultierende Temperaturgradient den Motor der at- mosphärischen Zirkulation darstellt (vgl. Halley 1686). Die unterschiedli- che Erwärmung der Luft führt zur Ausdehnung und Druckveränderung und damit zur Zirkulation. Halley war damit der Erste, der nach strikt physikalischen Ursachen dieser Bewegung forschte, und lange Zeit galt die Druckveränderung aufgrund von unterschiedlichen Temperaturein- strahlungen als einzige Bewegungsursache der Winde. Erst 1735 brachte 2 „Während die Begleiter des Columbus vor der Beständigkeit des Passates erschraken, dessen unveränderte Richtung ihnen jeden Rückweg zu ver- sperren schien, nannten die spanischen Matrosen schon zu Don Ulloas Zeiten dieselben tropischen Gewässer ‚das Meer der Damen’, weil die Schiffahrt dort so leicht sei, dass ein Mädchen das Steuer führen könne […] da der stetige Wind sie doch sicher an das Ziel ihrer Reise nach den Philippinen führe. Der Name ‚Trade-Winds’, welchen die Engländer dem Passat gegeben, könnte aber auch mit vollem Recht den Monsoons oder Moussons beigelegt werden“ (Dove 1837: 243). 107 II WISSENSCHAFTSFORSCHUNG George Hadley eine weitere Kraft ins Spiel, als er die Rotation der Erde als Ursache mitdachte (vgl. Hadley 1735). Doch sowohl Halley wie Had- ley hatten die regelmäßigen Strömungsverhältnisse der Tropen vor Au- gen. Die sehr viel komplizierteren Windverhältnisse der gemäßigten Brei- ten konnten sie damit nicht erklären. „Alle Physiker, welche eine Theorie der Winde zu geben versucht haben,“ schreibt Heinrich Dove 1837, „sind bei der Erörterung der regelmässigen Erscheinungen unter den Tropen stehen geblieben, welches ihnen gewiss nicht verdacht werden kann, da es passend ist, in einer sehr verwickelten Aufgabe den einfachsten Fall zu- erst zu betrachten“ (Dove 1837: 124). Dove hingegen wollte eine Be- gründung der Strömungsverhältnisse geben, die nachweist, „dass die Er- scheinung der Passate, der Moussons und die verwickelten Windverhält- nisse der gemäßigten und kalten Zonen nothwendige und einfache Folgen derselben physikalischen Grundbestimmungen sind“ (Dove 1837: 124, 125). Dove erklärt aus dem Gradienten der Rotationsgeschwindigkeit die verschiedenen Windmuster der Regionen: „Die Rotationsgeschwindigkeit der einzelnen Punkte der Oberfläche der Erde verhält sich wie die Halbmesser der Parallelkreise, unter welchen sie liegen, sie nimmt also zu von den Polen, wo sie Null ist, bis zum Äquator. Im Ruhe- zustand nimmt die Luft Theil an der Drehungsgeschwindigkeit des Ortes, über welchen sie sich befindet. […] Wird aber die Luft durch irgendeine Ursache von den Polen nach dem Äquator getrieben, so kommt sie von Orten, deren Rotationsgeschwindigkeit gering ist, nach Orten, an welchen sie größer ist. Die Luft dreht sich dann mit einer geringeren Geschwindigkeit nach Osten, als die Orte, mit welchen sie in Berührung kommt […] Daraus folgt: auf der nörd- lichen Halbkugel gehen Winde, welche als Nordwinde entstehen, bei den all- mählichen Fortrücken durch NO immer mehr in Ost über (Dove 1837: 125). Abbildung 7: Großräumige Zirkulationsmuster (Lewis 2000: 96) 108 1 VON EINFACHEN MODELLEN ZU ERDSYSTEMEN Auf diese Weise entstand ein erstes konzeptionelles Modell der Atmo- sphäre und ihrer großräumigen Zirkulationsmuster, wie in Abbildung 7 dargestellt. Dieses Modell wurde 1858 von William Ferrel komplettiert, indem er die Coriolis Kraft auf die Atmosphäre anwandte, also die Ab- lenkung eines Partikels durch seine Beschleunigung, hervorgerufen durch die Erdrotation. Diese Ablenkung, so stellte Ferrel fest, gehe in der nördlichen Hemisphäre nach rechts, in der südlichen nach links. „With this ‚new force’ taken into account, the earth’s atmosphere gener- ated three circulation cells and oblique wind in mid-latitudes with high velocities from the west. Moreover, high pressure at the poles which would be expected because of low temperature was reversed to low pressure by the excessive centrifugal force of the whirling winds. Con- versely, high pressure was generated near the tropics. Ferrel’s theoretical results, which Cleveland Abbe called the principia meteorologica, were in accordance with the latest observations“ (Fleming 2002: 210). Parallel zu diesen empirisch motivierten Untersuchungen der atmo- sphärischen Strömungen beschäftigte sich die Hydrodynamik mit dem Bewegungsverhalten von Gasen und Flüssigkeiten. Allerdings behandel- ten die hydrodynamischen Konzepte Strömungen in idealisierten, also inkompressiblen und reibungsfreien Fluiden. Basierend auf Isaac New- tons zweitem Axiom hatte Leonhard Euler 1755 die grundlegende Be- wegungsgleichung für Strömungsprozesse in idealisierten Fluiden for- muliert. 1822 fügte Claude M. Navier einen weiteren Term hinzu, der Eulers Gleichung in eine Beschreibung für viskose Fluide überführte. Viskosität beschreibt die innere Reibung eines Fluids, die von dünn- bis zähflüssig reichen kann. Unabhängig von Navier formulierte George Stokes 1845 Eulers Gleichungen ebenfalls für viskose Fluide um. Die Navier-Stokes-Gleichungen werden bis heute verwendet, um die Ände- rung des Betrags und der Richtung der Geschwindigkeit eines Fluidele- ments gewisser Masse in Abhängigkeit von den einwirkenden Kräften wie Druck, Schwerkraft und Reibung mathematisch zu formulieren. Doch die Gleichungen sind zu komplex, als dass man sie für konkrete Probleme wie die Strömungsverhältnisse der Atmosphäre anwenden konnte. Daher musste man auf die einfacheren, aber idealisierten Bedin- gungen zurückgreifen. Das Problem der einfacheren Konzepte war je- doch, dass sie die Entstehung von Turbulenzen und Wirbeln in ideali- sierten Fluiden nicht erklären konnten. Beides spielt jedoch für jedes praktische Strömungsproblem eine wichtige Rolle. Zwar postulierte Hermann von Helmholtz 1858, dass auch in idealisierten Fluiden Wirbel existieren können. Doch diese mussten als vorhanden angenommen werden und konnten weder vergehen, noch entstehen (vgl. Helmholtz 1858). Dieses Postulat war für die Meteorologie, die es permanent mit 109 II WISSENSCHAFTSFORSCHUNG dem Entstehen und Vergehen von Luftwirbeln – kleinen lokalen Ver- wirbelungen wie Windhosen bis hin zu den großen globalen Zirkula- tionsprozessen – zu tun hatte, nicht nur unbrauchbar. Es führte auch zu eigenartigen Schlussfolgerungen wie die, dass Wirbel in universalen Fluiden wie dem Äther „‚as permanent as the solid hard atoms assumed by Lucretuis’, [as] Kelvin wrote to Helmholtz in a letter in 1867“ seien (Eckert 2006: 20). Synopt ische Wetterkarten Um sich ein Bild der tatsächlichen Strömungsverhältnisse zu machen, behalfen sich Meteorologen daher mit synoptischen Klima- und Wetter- karten. In diese Karten wurden Messdaten für einen bestimmten Zeit- punkt zusammengetragen und Messungen selben Werts durch Isolinien miteinander verbund 3en. Bereits 1817 nutzte Alexander von Humboldt dieses Verfahren für Temperaturverteilungen und zeichnete eine erste Isothermenkarte. Ab 1863 trug Urban Le Verrier die Luftdruckvertei- lung in die täglichen Wetterkarten ein. Dabei verband er Orte gleichen Luftdrucks mit Linien, den Isobaren. Diese Karten lieferten eine Zu- sammenschau klima- oder wetterrelevanter Zustände (Synopsis). Bis zur Erfindung der Telegrafie konnten solche Wetterkarten jedoch erst Mona- te nach den eigentlichen Messungen hergestellt werden, nachdem die nötigen Daten in meteorologischen Jahrbüchern publiziert waren. Mit 3 Erste, für die Meteorologie wichtige Messinstrumente waren das 1597 von Galileo Galilei erfundene Wasserthermometer und das 1714 von Daniel Fahrenheit weiterentwickelte Quecksilberthermometer samt Temperatur- skala (vgl. Fahrenheit 1714). Hinzu kamen das 1643 von Evangelista Tor- ricelli erfundene Barometer zur Luftdruckbestimmung (vgl. Torricelli 1644) sowie die Entwicklung von Hygrometern zur Messung der Luft- feuchte. Mit diesen Instrumenten wurden ab Mitte des 17. Jahrhunderts vereinzelt Messreihen vor Ort durchgeführt und später durch Messung der Windrichtung und -stärke sowie der Niederschlagsmenge ergänzt. Es wur- de jedoch deutlich, dass lokale Messungen mit nicht normierten Instru- menten nicht genügten. Bereits 1667 präsentierte Robert Hooke seine Method for Making a History of the Weather der Royal Society in London, deren Ziel die Normierung der Messungen war (vgl. Hooke 1667; Flem- ming 2002). Ab 1781 nahm die Pfälzische Meteorologische Gesellschaft (Societas Meteorologica Palatina) erstmals weltweit synchrone Messungen vor. Neununddreißig Stationen vom Ural bis Nordamerika führten mit baugleichen Instrumenten zur Mannheimer Stunde um 7, 14 und 21 Uhr Messungen durch und definierten damit einen bis heute gültigen Standard der meteorologischen Messung (vgl. Wege, Winkler 2005). Ende des 19. Jahrhunderts gab es in Europa bereits ein gut ausgebautes Netz an Wet- termessstationen und die Resultate wurden telegraphisch weitergegeben. 110 1 VON EINFACHEN MODELLEN ZU ERDSYSTEMEN der Einführung der Telegrafie verbesserte sich die Situation erheblich, denn nun konnten Messwerte schnell und weltweit ausgetauscht werden. „Zum erstenmal wurde der Draht auf der Londoner Weltausstellung 1851 in den Dienst der Meteorologie gestellt, wo man, um die Anwen- dung der neuen Erfindung zu zeigen, täglich eine, wenn auch bescheide- n W tt rkart g b n konnt “ (Schmauß 1942: 40).4e e e e e e e Die Synopsis der Beobachtungen war möglich, weil eine neue Dar- stellung der Daten gefunden worden war. Indem einzelne Messwerte zu Isolinien zusammengefasst wurden, machten sie das Muster der Zustän- de aktueller Wetterlagen sichtbar. Auf Basis von Erfahrungswissen über ähnliche Wetterlagen und Verteilungsmuster versuchten Meteorologen dann, die weitere Entwicklung des Wetters abzuschätzen. „Der Gewinn aus solchen Verbesserungen kommt aber nur langsam und allmählich,“ schreibt Nils Ekholm 1904, „denn die benützten Methoden sind ja rein empirisch, indem nur durch Sammeln und Vergleichung ähnlicher Fälle ein Fortschritt der Prognosekunst möglich ist. Der berühmte englische Meteorologe Clement Ley schlug ja einst vor, viele tausende von Wet- terkarten systematisch zu ordnen, um sie als eine Art Wetter-Wörterbuch zu verwenden. […] Jede Prognose sollte demnach nur oder doch haupt- sächlich in der Angabe einer bestimmten Nummer des Wetter- Wörterbuches bestehen“ (Ekholm 1904: 346, 347). Ein solches Wörter- buch des Wetters für gemäßigte Breiten zu erstellen, erwies sich als schwierig. Denn das Charakteristische der Wetterlagen gemäßigter Brei- ten ist ihre Veränderlichkeit. Im Unterschied zu den kontinuierlichen Prozessen in den Tropen, zeichnet sich das Wetter in gemäßigten Brei- ten durch diskontinuierliche Austauschvorgänge von Kälte- und Wär- mewellen aus. Um dennoch Vorhersagen über zukünftige Wetterentwicklungen machen zu können, führten Meteorologen Vergleiche zwischen zwei synoptischen Karten durch, indem sie die beiden Karten auf ein transpa- rentes Papier übertrugen und übereinander legten. Durch die sich verän- dernden Isolinien wurden so die Veränderung der Wetterlagen sichtbar und es zeigten sich die, „über die Wetterkarte hin und her wandernden Hochs und Tiefs“ (Bjerknes 1938: 50). Verschob man diese Hochs und Tiefs entsprechend dem bisherigen Muster weiter, so ergab sich eine Prognose für die kommenden Stunden. Dabei durfte das „Intervall zwi- 4 Die Londoner Wetterkarten waren jedoch nur Demonstrationen der Nütz- lichkeit telegrafierter Informationen. Erst die Einrichtung der telegraphi- schen Wetterdienste in den 1890er Jahren und Messungen zu festgelegten Zeiten – in Deutschland damals durch die Seewarte Hamburg – lieferten die nötigen Zustandswerte der Atmosphäre, um aussagekräftigere Wetter- karten zu erstellen. 111 II WISSENSCHAFTSFORSCHUNG schen zwei sukzessiven synoptischen Karten nicht größer als 12 Stunden sein“ (Ekholm 1904: 349), wollte man einigermaßen aussagekräftige Prognosen erzielen. Allerdings wäre es vorteilhafter gewesen, doch messtechnisch 1904 noch nicht praktizierbar, „das Intervall auf 6 Stun- den zu reduzieren, damit die Kontinuität deutlich bemerkbar sei und so- mit eine nach regulären Methoden auszuführende Interpolation und Ex- trapolation [als Vorhersage in die Zukunft] möglich sei“ (Ekholm 1904: 349). Die synoptischen Wetterkarten zu Beginn des 20. Jahrhunderts zeig- ten jedoch nur unvollständige Momentaufnahmen eines hoch dynami- schen Geschehens, dessen zukünftige Entwicklung unter diesen Bedin- gungen nicht wirklich vorhersagbar war. Zum einen gab es nur Daten bodennaher Messungen, zum anderen waren die Beobachtungsnetze noch nicht ausreichend dicht und wiesen große Lücken über den Meeren oder Kontinenten wie Afrika auf. Die Analyse aufeinander folgender, synoptischer Karten ‚simulierte’ zwar ein dynamisches Bild meteorolo- gischer Ereignisse in der Atmosphäre. Doch den Meteorologen wurde bald klar, dass diese, sich im Zweidimensionalen darstellenden Ereignis- se – sowohl auf der Fläche der Karte wie auch auf bodennaher Ebene der Messungen – nur ein Schnitt durch Vorgänge sind, die sich im Drei- dimensionalen abspielen. Man erkannte, „daß Witterungsänderungen meistens mit einer Änderung des ‚Luftkörpers’ einhergehen. Wenn z.B. nach längerer Schönwetterlage von Westen ein Tief heranrückt, wird die ‚kontinentale Luft’, die wir bis dahin geatmet haben, ersetzt durch ‚mari- time Luft’, die ihre vom Ozean stammenden Eigenschaften um so unver- fälschter mitbringt, je rascher die Ablösung erfolgte“ (Schmauß 1942: 2,3). Diese Luftkörper sind im Grunde nichts anderes als Binnenstruktu- ren innerhalb der drei globalen Zirkulationsmuster, die bereits von Hal- ley, Hadley, Dove und Ferrel beschrieben wurden. Es bedurfte also eines theoretischen Verständnisses der Atmosphäre als dreidimensionales Ob- jekt und es war notwendig, „die synoptischen Beobachtungen vom zweidimensionalen Raum der Erdoberfläche auf den dreidimensionalen Raum, das Luftmeer“ auszudehnen (Nimführ 1904: 409). Erst im Drei- dimensionalen zeigen sich die Ursachen der Veränderungen der Luft- massen. Dazu braucht es ein räumliches, möglichst hoch aufgelöstes Messbild der Atmosphäre. Doch zu Beginn des 20. Jahrhunderts standen nur Ballone und Drachen zur Verfügung, um die Zustände der höheren Luftschichten zu 5erforschen. Erst später kamen Luftschiffe und Flug- zeuge für aerologische Messungen hinzu. 5 „Wir haben gegenwärtig in dem Drachen und dem Drachenballon zwei neue Forschungsmittel, die es uns ermöglichen, jederzeit bis zu Höhen von 2000 m und darüber die Werte der Wetterfaktoren in der freien Atmosphä- 112 1 VON EINFACHEN MODELLEN ZU ERDSYSTEMEN Eine wichtige Theorie der Luftkörper für die gemäßigten Breiten ent- stand 1917 mit der Polarfronttheorie von Vilhelm Bjerknes und seines Sohnes Jakob. Die Polarfront markiert, wie in Abbildung 8 dargestellt, die Grenze der polaren Luftmassen, die an Stellen geringen Widerstan- des in Form von Kälteeinbrüchen in die gemäßigten Breiten vordringen und zwischen kalten und warmen Luftmassen Tiefdruckgebiete (Zyklo- nen) verursachen. Die Schematisierung der Zyklonen sowie die Voraus- sage des dazugehörigen Wetters wurden durch Messungen sowie durch die Beobachtungen struktureller Indikatoren für Veränderungen in den Luftmassen gewonnen. Solche Indikatoren sind Wolken, welche die Bewegungen warmer und kalter Luftmassen zueinander anzeigen. Die Ausarbeitung der theoretischen Grundlagen, die Bjerknes im norwegi- schen Bergen mit seinen Kollegen vorantrieb, ermöglichte es, bessere Vorhersagen zu erzielen. Rückblickend auf seine Polarfronttheorie for- muliert er 1938 die Fortschritte als Resultat der Synopsis: „Durch die jetzt immer schärfere Wetterkartenanalyse traten die früher nur als Ausnahmeerscheinungen beobachteten Diskontinuitätslinien als tägliche Gäste auf den Wetterkarten auf. In dieser Weise wurden allmählich die jetzt so be- kannten Tatsachen der ‚Polarfrontmeteorologie’ oder der ‚Luftmassenmeteo- rologie’ gefunden. Man lernte die großen atmosphärischen Diskontinuitätsflä- chen kennen, die sich, je nach ihrer Bewegungsrichtung, als ‚Kaltfronten’ oder ‚Warmfronten’ am Erdboden zu erkennen gaben. Es wurde beobachtet, wie die Zyklonen mit einer wellenförmigen Vertiefung in einer Diskontinuitätsflä- che anfingen. Die Vertiefung nahm zu, mit dem Erfolg, daß die ursprüngliche Welle durch das Bergeronsche Okklusionsstadium sich allmählich in einen Horizontalwirbel umbildete. Das Paradoxon von dem Wellenursprung der Zy- klonen war aufgeklärt, und die – schwierige – Ausarbeitung der mathemati- schen Theorie der Zyklonenbildung konnte beginnen. Und schließlich: die praktische Wettervorhersage, die sich auf dieser Grundlage entwickelte, ver- lief sozusagen von selbst nach dem von Anfang an aufgestellten Programm: die Ortsveränderungen der bewegten Luftmassen zu bestimmen, und die Zu- stände, in denen sie anlagen“ (Bjerknes 1938: 58, 59). „In den Händen solcher Forscher hat sich die moderne Wetterkarte zu einem grundlegenden – immate- riellen – Instrument der Physik der Atmosphäre entwickelt, entsprechend dem materiellen Instrumenten der Laborphysik“ (Bjerknes 1938: 61). re zu bestimmen. Unter günstigen Umständen kann man, wie die Erfah- rung gezeigt hat, schon bis zu Höhen von 5000 m mittelst Drachen Regis- trierapparate hochbringen“ (Nimführ 1904: 411). 113 II WISSENSCHAFTSFORSCHUNG Abbildung 8: Polarfronttheorie (Bjerknes 1919: 128) Die Wetterkarte als Erkenntnisinstrument markierte den Beginn dreidimen- sionaler Modelle atmosphärischer Prozesse, auch wenn die Dreidimensiona- lität sich erst in einzelnen Querschnitten vertikaler Prozesse zeigte, die Messdaten noch dürftig und Modelle noch einfach waren. Dennoch bereite- te diese Entwicklung den weiteren Weg der Meteorologie zu einer dynami- schen Meteorologie und einer Physik der Atmosphäre vor.6 Vilhelm Bjerknes Konzept e iner Physik der Atmosphäre Obwohl Bjerknes mit der Polarfronttheorie, die sich ab den 1920er Jah- ren als äußerst erfolgreiche Methode der Wettervorhersage erwies, die 6 Darüber hinaus verbanden die synoptischen Wetterkarten Wetter- und Klimaforschung in neuer Weise miteinander. „Der Wetterdienst hat er- kennen lassen, daß die Atmosphäre gewisse konservative Eigenschaften hat, so daß wir gelegentlich an den Bedingungen, die über ganz anderen Gebieten der Erde Geltung haben, teilnehmen; die Klimatologie hat eine Veredelung erfahren, indem man neben den gewohnten und auch notwen- digen Mitteln einer Pentade, einer Woche, eines Monats die mittleren Temperaturen, Feuchtigkeiten usw. bestimmter Luftkörper zu bestimmten Zeiten des Jahres berechnen mußte“ (Schmauß 1942: 2). 114 1 VON EINFACHEN MODELLEN ZU ERDSYSTEMEN Meteorologie als Praxis vorangebracht hatte, entsprach diese angewand- te Prognostik nicht seinem ursprünglichen Programm einer rationellen Wettervorhersage basierend auf der Meteorologie als exakter Wissen- schaft. 1913 hatte er anlässlich seiner Antrittsvorlesung als Professor für Geophysik an der Universität Leipzig sein Ziel, eine Physik der Atmo- sphäre zu schaffen, formuliert. „Die Physik der Atmosphäre behandelt denselben Gegenstand wie die Meteorologie. Deshalb darf man aber nicht diese Wissenschaften miteinander identifizieren. Der Unterschied wird dadurch gekennzeichnet, daß man die Physik zu den sogenannten exakten Wissenschaften rechnet, während man versucht sein könnte, die Meteorologie als Beispiel einer höchst inexakten Wissenschaft anzufüh- ren. Die Meteorologie wird erst in dem Maße exakt, in dem sie sich zu einer Physik der Atmosphäre wandelt“ (Bjerknes 1913: 4). Diese Physik der Atmosphäre gründet in den physikalischen Kon- zepten von Halley, Hadley, Dove und Ferrel sowie in den hydrodynami- schen Theorien von Euler, Navier, Stokes, Helmholtz, Kelvin und ande- ren Forschern. Bjerknes selbst hatte Ende der 1890er Jahre den ent- scheidenden Durchbruch erzielt, um die Hydrodynamik für meteorologi- sche Anwendungen fruchtbar zu machen. Bei seinen Bemühungen, die idealisierten Gleichungen für kompressible Fluide zu erweitern, stieß er auf mathematische Probl m .7e e „Attractive and repulsive phenomena between the fluid bodies seemed to occur with an accompanying produc- tion of vortices in the boundary layer between the fluid bodies and the surrounding fluid. This result contradicted the well-established theorems of Helmholtz and Lord Kelvin which claimed vortex motions and circu- lations in frictionless, incompressible fluids are conserved“ (Friedman 1989: 19). Indem Bjerknes die Annahmen von Helmholtz und Kelvin für kompressible Fluide in Frage stellte, postulierte er sein allgemeines Zir- kulationstheorem. Dieses Theorem besagt, dass die Dichte eines Fluids von verschiedenen Variablen wie Feuchtigkeit, Temperatur als auch Druck bestimmt sein konnte, oder mathematisch formuliert: Die Dichte war nicht nur eine Funktion des Drucks, sondern auch anderer Faktoren (vgl. Bjerknes 1898, 1900). Als er im März 1897 und im Februar 1898 sein Zirkulationstheorem in der Physikalischen Gesellschaft in Stock- 7 Es war ein Glücksfall für die Meteorologie, als sich Vilhelm Bjerknes, von Hause aus Physiker, zu Beginn der 1890er Jahre mit den hydrodynami- schen Gleichungen beschäftigte. Sein Ziel war es, die hydrodynamischen Gleichungen für die Elektrodynamik fruchtbar zu machen. Er hatte 1890 und 1891 Heinrich Hertz bei seinen elektromagnetischen Experimenten assistiert und wurde 1895 als Professor für Angewandte Mechanik und Mathematische Physik nach Stockholm gerufen. 115 II WISSENSCHAFTSFORSCHUNG holm präsentierte, erkannten die dort anwesenden Meteorologen Svante Arrhenius und Nils Ekholm sofort die Bedeutung von Bjerknes Konzept für die Meteorologie. Denn damit war es möglich geworden, das Entste- hen und Vergehen von Strömungen in kompressiblen Fluiden, wie sie in der Atmosphäre vorkommen, zu erklären und mathematisch konzeptuell handhabbar zu machen. Bereits im Frühjahr 1900 wurden Bjerknes revo- lutionäre Ideen über Das dynamische Prinzip der Cirkulationsbewegung in der Atmosphäre in der Meteorologischen Zeitschrift veröffentlicht. Er leitet seinen Artikel wie folgt ein: „Die hydrodynamischen Bewegungsgleichungen erhalten ohne Zweifel den Schlüssel zu dem Verständnis atmosphärischer Bewegungen. Man begegnet aber der grossen Schwierigkeit, dass man die Integrale dieser Gleichungen nicht darstellen kann für die in der Atmosphäre vorliegenden komplicirten Verhältnisse. Um deshalb in der Meteorologie rationelle dynamische Metho- den einzuführen, muss man versuchen, einen solchen Weg einzuschlagen, dass man die in diesen Gleichungen enthaltenen dynamischen Principien in Ver- wendung bringt, ohne nöthig zu haben, die Gleichungen integrieren zu müs- sen. Dabei wird man kaum einen besseren Weg einschlagen können als denje- nigen, welchen v. Helmholtz und Lord Kelvin betreten haben, […] aber unter der Voraussetzung von Eigenschaften, die denjenigen der natürlichen Flüssig- keiten näher kommen, um […] die Gesetze der Bildung und der Vernichtung der atmosphärischen Cirkulations- und Wirbelbewegungen zu erhalten. […] 1. Man geht mit v. Helmholtz und Lord Kelvin von den Bewegungsgleichungen für reibungslose Flüssigkeiten aus, führt aber im Verlaufe der Rechnung keine beschränkenden Voraussetzungen in Bezug auf die Dichtigkeit der Flüssigkeit ein. 2. Man entwickelt die entsprechenden Sätze, indem man von den Bewe- gungsgleichungen der reibenden Flüssigkeiten ausgeht. […] 3. Man bezieht alle Sätze auf ein rotierendes Koordinatensystem, um in den Anwendungen nur die Cirkulations- oder Wirbelbewegungen relativ zu der rotierenden Erde betrachten zu brauchen“ (Bjerknes 1900: 12, 13). Als Bewegungsursache werden in Bjerknes mathematischem Modell die temperaturbedingten Dichteunterschiede berücksichtigt, welche darüber hinaus durch die Rotation der Erde sowie durch die Reibung der Partikel modifiziert werden. Bjerknes erläuterte in seinem umfangreichen Artikel ausführlich, wie er das Konzept von Helmholtz und Kelvin mathema- tisch erweitert und wie er die Dynamik des von ihm konzipierten Mo- dells geometrisch konstruiert, um letztendlich berechenbare Resultate zu erhalten. Dazu stellte er sich Flächen gleichen Drucks (isobare Flächen) mit einem senkrecht zur isobaren Fläche stehenden Gradienten abneh- menden Drucks vor. Analog postuliert er Flächen gleichen spezifischen Volumens (isostere Flächen) mit einem Beweglichkeitsvektor der sich 116 1 VON EINFACHEN MODELLEN ZU ERDSYSTEMEN verändernden spezifischen Volumen, da die Beweglichkeit mit wach- sendem spezifischem Volumen zunimmt.8 Er stellte fest, dass isobare wie auch isostere Flächen entweder gegen sich selbst zurücklaufen und Kurven bilden oder an der Grenzfläche der Flüssigkeit enden, nie aber in der Flüssigkeit abrupt abbrechen. Außerdem können sich isobare Flä- chen unterschiedlichen Drucks nicht schneiden. Selbiges gilt für isostere Flächen. Wäre wie bei Helmholtz die Dichte nur eine Funktion des Drucks, dann würden sich auch die isobaren und isosteren Flächen nie schneiden. In Bjerknes Modell ist die Dichte bzw. das spezifische Vo- lumen der Luft jedoch nicht nur eine Funktion des Drucks, sondern auch der Temperatur und, allerdings vernachlässigbar, der Feuchtigkeit. Da- her können sich die isobaren und isosteren Flächen schneiden und isoba- re-isostere Röhren bilden. „Vorausgesetzt, dass wir […] Einheiten pas- sender Grössenordnungen benützen, werden wir die entsprechenden als infinitesimal aufzufassenden Einheitsröhren Solenoide nennen. Die Querschnitte der grösseren isobare-isosteren Röhren haben die Form von krummlinigen Vierecken, die Querschnitte der Solenoide sind gradlinige Parallelogramme“ (Bjerknes 1900: 103).9 Der Vorteil dieser Einheits- röhren oder Solenoide ist, dass sich mit ihnen nun die dynamischen Be- dingungen einer Zirkulation geometrisch untersuchen lassen. Bjerknes zeigt, dass der Zuwachs der Zirkulation in einer Flüssigkeit der Anzahl der Solenoide entspricht, die durch die geschlossene Kurve von Flüssig- keitspartikeln umschloss 10en wird. „Zu beachten ist dann, dass wo die 8 „Die Beschleunigung, welche der Gradient einem Partikelchen der Flüs- sigkeit mittheilt, hängt von der Trägheit, das heisst von der Dichte des Par- tikelchens ab: sie ist gleich dem Gradienten dividirt durch die Dichte; oder noch einfacher: sie ist gleich dem Gradienten multiplicirt mit dem specifi- schen Volumen k des betreffenden Flüssigkeitselements. Um die Verthei- lung der auf dem Druck beruhenden Beschleunigung angeben zu können, genügt es deshalb, ausser der Druckvertheilung zugleich die Vertheilung des specifischen Volumens in der Flüssigkeit zu nennen“ (Bjerknes 1900: 102). 9 Den Begriff Solenoide übernimmt Bjerknes aus der Elektrodynamik. Dort bezeichnet dieser einen elektromagnetischen Induktionsgenerator. Die Einheitsgröße ergibt sich aus der Wahl der Eins für Druckunterschiede der isobaren Flächen. „Durch die zweckmäßige Wahl der Einheit kann man dennoch immer erreichen, dass die isobaren Flächen hinlänglich nahe an- einander verlaufen, um in befriedigender Vollständigkeit die Druckver- theilung in der Flüssigkeit wiederzugeben“ (Bjerknes 1900: 102). 10 Idealer Weise ergeben in einem genügend kleinen Teil der Flüssigkeit die Querschnitte der Solenoide ein System von kongruenten Parallelogram- men, d.h. der Druckgradient und der Beweglichkeitsvektor haben überall eine unveränderliche Größe und Richtung. Da aber das spezifische Volu- men und damit die Beschleunigung der Flüssigkeitsteilchen von Punkt zu Punkt unterschiedlich sind, werden die Teilchen anfangen zu rotieren: 117 II WISSENSCHAFTSFORSCHUNG Temperatur hoch ist, das specifische Volumen der Luft grösser ist, und wo die Temperatur niedrig ist, das specifische Volumen kleiner ist, als man es nach dem Werth des Druckes erwartet. […] Die isosteren Flä- chen müssen also von den isobaren abweichen, und zwar immer in der Weise, dass sie in den heißen Gegenden niedriger, in den kalten höher als die entsprechenden isobaren Flächen liegen. Die beiden Flächen- schaaren müssen also einander nothwendig schneiden und Solenoide bilden, welche Cirkulationsbewegungen der Luft erzeugen“ (Bjerknes 1900: 145). Bei Kenntnis der tatsächlichen Druck- und Temperatur- schwankungen, so Bjerknes, lässt sich auf diese Weise die Zirkulation berechnen. Da es ihm um eine rationelle dynamische Methode geht, welche die in den hydrodynamischen „Gleichungen enthaltenen dynami- schen Principien in Verwendung bringt“ (Bjerknes 1900: 12), hofft er, diese Methode auch für die Wettervorhersage nutzen zu können. „Aus der Anzahl der Solenoide wird man schließen können, in wie weit der Wind in der nächsten Zukunft an Intensität zu- oder abnehmen wird. Alles wird zuletzt nur davon abhängen, ob man hinlänglich viele syste- matische Beobachtungen aus den höheren Luftschichten erhalten kann“ (Bjerkn 11es 1900: 158). Damit legte Bjerknes den Grundstein einer Physik der Atmosphäre. Doch erst mit seinem Konzept, das er in dem Artikel Das Problem der Wettervorhersage, betrachtet vom Standpunkt der Mechanik und der Physik im Januar 1904 vorstellt, beschreibt er die Physik der Atmosphä- re, wie sie bis heute Grundlage der Meteorologie ist. Dabei appelliert Bjerknes an das deterministische Wissenschaftsverständnis wie es für die Physik als exakte Wissenschaft obligatorisch ist. „Wenn es sich so verhält, wie jeder naturwissenschaftlich denkende Mann glaubt, daß sich die späteren atmosphärischen Zustände gesetzmäßig aus den vorherge- henden entwickeln, so erkennt man, daß die notwendigen und hinrei- chenden Bedingungen für eine rationelle Lösung des Prognoseproblems der Meteorologie die folgenden sind: 1. Man muß mit hinreichender Ge- nauigkeit den Zustand der Atmosphäre zu einer gewissen Zeit kennen. 2. Man muß mit hinreichender Genauigkeit die Gesetze kennen, nach geometrisch ist dies als Zirkulation der aus den Teilchen bestehenden ge- schlossenen Kurven dargestellt. 11 „Zuletzt wird die Theorie auch ihre Anwendbarkeit behalten, wenn man die Atmosphäre und das Meer zusammen als ein einziges flüssiges Me- dium betrachtet. Dies ist von grosser Bedeutung wegen der ausgedehnten Wechselwirkungen zwischen den Bewegungen der Luft und des Meeres“ (Bjerknes 1900: 158). Heutige Wetter- und Klimamodelle basieren auf der Hydrodynamik der Atmosphäre wie auch der Ozeane. 118 1 VON EINFACHEN MODELLEN ZU ERDSYSTEMEN denen sich der eine atmosphärische Zustand aus dem anderen entwi- ckelt“ (Bjerknes 1904: 1). Auch wenn Bjerknes dabei allzu optimistisch von einer „vollständigen Diagnose des Zustandes der Atmosphäre“ (Bjerknes 1904: 1) in näherer Zukunft ausging, so zeichnete er ein klares Bild der Gesetzmäßigkeiten atmosphärischer Prozesse, wie sie bis heute jedem Wetter- und Klimamodell zugrundeliegen: „Die atmosphärischen Prozesse sind gemischte Vorgänge mechanischer und physikalischer Natur. Für jeden einzelnen dieser Vorgänge können wir nach mechanischen oder physikalischen Prinzipien eine oder mehrere mathemati- sche Gleichungen aufstellen. Die genügende Kenntnis der Gesetze, nach wel- chen sich die atmosphärischen Prozesse entwickeln, haben wir, wenn wir in dieser Weise ebenso viele voneinander unabhängige Gleichungen aufschreiben können, als unbekannte Größen zu berechnen sind. Der Zustand der Atmo- sphäre zu einer beliebigen Zeit wird in meteorologischer Hinsicht bestimmt sein, wenn wir zu dieser Zeit in jedem Punkt die Geschwindigkeit, die Dichte, den Druck, die Temperatur und die Feuchtigkeit der Luft berechnen können. Als Vektor wird die Geschwindigkeit durch drei skaläre Größen, die drei Ge- schwindigkeitskomponenten, dargestellt, und es handelt sich deshalb um die Berechnung von 7 unbekannten Größen“ (Bjerknes 1904: 2). Um die sieben meteorologischen Variablen berechnen zu können, benö- tigt man die drei hydrodynamischen Bewegungsgleichungen, die Konti- nuitätsgleichung der Erhaltung der Masse, die Zustandsgleichung der Atmosphäre sowie die beiden Hauptsätze der mechanischen Wärme- theorie. Die drei hydrodynamischen Bewegungsgleichungen sind „Dif- ferentialrelationen zwischen den drei Geschwindigkeitskomponenten, der Dichte und dem Druck. […] Die Kontinuitätsgleichung, welche das Prinzip von der Erhaltung der Masse während der Bewegung ausspricht […] ist wieder eine Differentialrelation und zwar zwischen den Ge- schwindigkeitskomponenten und der Dichte. [Ebenso] die Zustandsglei- chung der atmosphärischen Luft, welche eine Relation in endlicher Form zwischen Dichte, dem Druck, der Temperatur und der Feuchtigkeit einer beliebigen Luftmasse ist“ (Bjerknes 1904: 2). Die beiden Hauptsätze der mechanischen Wärmetheorie lassen sich ebenfalls als Differentialglei- chungen schreiben und geben an, wie sich die Energie und die Entropie einer Luftmasse durch die Zustandsänderungen in der Atmosphäre ver- ändern.12 Für die Berechnung dieser sieben Zustandsvariablen der At- 12 „Auch durch diese Gleichungen werden keine neuen Unbekannten in dem Probleme eingeführt, denn die Energie und Entropie drücken sich durch dieselben Veränderlichen aus, welche in der Zustandsgleichung eingehen und setzen die Änderungen dieser Größen mit der Änderung anderer, als bekannt anzusehenden Größen in Verbindung. Diese anderen Größen sind 119 II WISSENSCHAFTSFORSCHUNG mosphäre ergeben sich sieben, voneinander unabhängige Gleichungen. Alle Gleichungen, mit Ausnahme der Zustandsgleichung, sind partielle Differentialgleichungen. Das sich daraus zusammensetzende Glei- chungssystem ist jedoch zu komplex, als dass es sich analytisch lösen ließe. Hier endete Bjerknes Optimismus, den er bezüglich der Möglich- keit flächendeckender Messungen der Atmosphäre in naher Zukunft hegte: „Schon die Berechnung dreier Punkte, die sich nach einem so einfachen Ge- setze wie dem Newtonischen gegenseitig beeinflussen, übersteigt bekanntlich weit die Hilfsmittel der heutigen mathematischen Analyse. Für die unter weit komplizierteren Wechselwirkungen vor sich gehenden Bewegungen sämtli- cher Punkte der Atmosphäre ist dann selbstverständlich nichts zu hoffen. Die exakte analytische Lösung würde aber, selbst wenn wir sie aufschreiben könn- ten, auch nicht das geben, was wir brauchten. Denn um praktisch nützlich zu sein, muß die Lösung vor allem übersichtliche Form haben und deshalb unzäh- lige Einzelheiten unbeachtet lassen, die in jede exakte Lösung eingehen wür- den. Die Vorhersage darf sich also nur mit Durchschnittsverhältnissen über größere Strecken und für längere Zeiten beschäftigen, sagen wir beispielswei- se für Meridiangrad zu Meridiangrad und von Stunde zu Stunde, nicht aber von Millimeter zu Millimeter und von Sekunde zu Sekunde“ (Bjerknes 1904:2). Bjerknes Einschätzung, dass man auf eine analytische Lösung der kom- plexen Wechselwirkungen des Vielteilchensystems der Atmosphäre nicht hoffen kann, trifft bis heute zu. Eine analytische Lösung gibt es nicht, und die Computersimulation stellt lediglich die numerische Ap- proximation der unbekannten, analytischen Lösung für ein definiertes Raum-Zeitgitter dar. Allerdings trifft Bjerknes Vermutung, dass die Be- rücksichtigung zu vieler Einzelheiten ohne größeren Nutzen sei, nicht zu und lässt sich allein aus den beschränkten Berechnungsmethoden der damaligen Zeit erklären. Heutige Modelle verbessern sich gerade in ihrer Detailliertheit in Form höherer raumzeitlicher Auflösungen und subskaliger Parametrisierungen. Die computergestützten Rechenmetho- den und Auswertungsmöglichkeiten erlauben es, aus der Masse an Ein- zeldaten Durchschnittsverhältnisse zu errechnen. Doch zu Beginn des 20. Jahrhunderts waren die Meteorologen auf einige wenige Berechnun- erstens die von der Luftmasse ausgeführte Arbeit, welche durch dieselben Veränderlichen bestimmt ist, die in den dynamischen Gleichungen einge- hen, zweitens die von außen aufgenommenen oder die nach außen abge- gebenen Wärmemengen, welche durch die physikalischen Daten über Ein- und Ausstrahlung sowie über die Erwärmung der Luft bei Berührung mit der Erde gegeben sein werden (Bjerknes 1904: 2). 120 1 VON EINFACHEN MODELLEN ZU ERDSYSTEMEN gen per Hand angewiesen. Die Dynamik der Atmosphäre war noch nicht durch ihre Mechanik und Physik für einzelne Variablenpunkte auflösbar und berechenbar. Es fehlte nicht nur an Rechenkapazitäten und Mess- daten, sondern an praktikablen Umsetzungskonzepten und messtechni- schen Standardisierungen. Bjerknes selbst versuchte zwar ab 1913 als Direktor des geophysikalischen Instituts der Universität Leipzig seine rationelle dynamische Methode anzuwenden und mit Hilfe graphischer Rechenmethoden für Wettervorhersagen nutzbar zu machen. Bereits 1911 war ihm klar: „The development of proper graphical methods for performing these operations directly upon the charts will be of the same importance for the progress of dynamic meteorology and hydrography as the methods of graphical statistics and of graphical dynamics have been for the progress of technical sciences“ (Bjerknes 1911: 69). Doch aufgrund mangelnder Rechenkapazitäten musste er sein Konzept einer Physik der Atmosphäre mit qualitativen Methoden kombinieren oder gar durch solche ersetzen. „Ideally, he claimed [in 1919], the prognostic problem could be solved mathematically with the help of mechanics and thermodynamics; practical meteorological methods could perhaps be devised that qualitatively use the knowledge implicit in the mechanical and thermodynamical equations“ (Friedman 1989: 157). Berechenbare Modelle der Atmosphäre Bjerknes lieferte 1904 ein mathematisches Modell der Physik der Atmo- sphäre in Form eines Systems aus sieben Gleichungen für die sieben meteorologischen Variablen der Dichte, der Feuchtigkeit, des Drucks, der Temperatur sowie der Geschwindigkeit der Luft in drei Richtungen. Das Gleichungssystem beschreibt dabei den Zustand der Luftmassen (Dichte, Druck, Temperatur, Feuchte), ihre Bewegung (Geschwindig- keitskomponenten, Dichte, Druck), die Massenerhaltung während der Bewegung (Geschwindigkeitskomponenten, Dichte) sowie die Verände- rung der Energie und Entropie der Zustandsänderungen der Luftmassen (Variablen im Zusammenhang mit der von den Luftmassen ausgeführten Arbeit sowie den aufgenommenen und abgegebenen Wärmemengen durch solare Ein- und Ausstrahlung und vom Boden aufgenommener Energie). Da dieses mathematische Modell sich analytisch nicht lösen lässt, bedarf 13es eines praktikablen Rechenschemas. Dazu muss das Ge- 13 Sein Programm einer Wettervorhersage, wie er es in der Bergen-Schule ab 1917 entwickelte, wich aus pragmatischen Gründen immer mehr von sei- nem 1904 formulierten Ansatz ab. Erst mit der Erfindung des Computers 121 II WISSENSCHAFTSFORSCHUNG samtproblem der rationellen Vorhersage, basierend auf diesem System der sieben Gleichungen, in Teilprobleme zerlegt werden, die dadurch rechnerisch handhabbar werden. „Zu rechnerischen Zwecken kann man die gleichzeitigen Variationen mehrerer Veränderlichen durch aufeinan- der folgende Variationen der einzelnen Veränderlichen oder einzelner Gruppen der Veränderlichen ersetzen. […] Behält man die endlichen Intervalle bei, so kommt man auf die Annäherungsmethode der endli- chen Differenzenrechnung“ (Bjerknes 1904: 4). Die Ausführung dieser Differenzenrechnung des Modells ist nichts anderes als die numerische Simulation gemäß eines schrittweise abarbeitbaren Schemas – ob per Hand oder ab den 1940er Jahren mit Hilfe automatischer Rechenma- schinen. Allerdings lässt sich das Gesamtproblem nicht in beliebiger Weise zerlegen. Bjerknes weist darauf hin, dass die Gruppierung der Veränderlichen erhalten bleiben muss. Das Resultat einer solchen Unter- teilung müssen mathematisch und physikalisch wohldefinierte Teilpro- bleme sein, die „einer natürlichen Teilungslinie im Hauptproblem fol- gen. Eine solche Teilungslinie läßt sich auch angeben. Sie folgt der Grenzlinie zwischen den speziell dynamischen und den speziell physika- lischen Prozessen, aus welchen die atmosphärischen Prozesse zusam- mengesetzt sind“ (Bjerknes 1904: 4). Dieser Grenzlinie folgend ergibt sich die Zerlegung in rein thermodynamische sowie hydrodynamische Teilprobleme, indem man das Schranier zwischen beiden Teilen – die Zustandsgleichung, welche die Dichte, den Druck, die Temperatur und die Feuchte der Luftmassen beschreibt – kappt. Würde man jedoch dabei aus Vereinfachungsgründen die Temperatur und Feuchtigkeit eliminie- ren – wie dies von den Hydrodynamikern vor Bjerknes Zirkulationstheo- rem gemacht wurde, um die thermodynamischen Prozesse nicht explizit berücksichtigen zu müssen – dann würde die Dichte nur vom Druck ab- hängen, wie in Helmholtz’ und Kelvins mathematischen Modellen. Doch die Physik der Atmosphäre erfordert gerade die Berücksichtigung dieser Variablen für eine realistische Formulierung des Vorhersagepro- blems. Daher schlägt Bjerknes vor, „anstatt die Temperatur und die Feuchtigkeit aus der Zustandsgleichung ganz verschwinden zu lassen, können wir sie aber für kürzere Zeitintervalle als gegebene Größen an- sehen, mit Werten, welche entweder aus den Beobachtungen oder aus den vorhergehenden Rechnungen hervorgegangen sind. Ist das dynami- sche Problem für dieses Zeitintervall gelöst, so berechnet man nachher nach rein thermodynamischen Methoden neue Werte von Temperatur und Feuchtigkeit. Diese sieht man als gegebene Größen an, wenn man rückte Bjerknes Konzept einer rationellen Wettervorhersage basierend auf Berechnungen wieder in greifbare Nähe. 122 1 VON EINFACHEN MODELLEN ZU ERDSYSTEMEN das hydrodynamische Problem für das nächste Zeitintervall löst und so weiter“ (Bjerknes 1904: 5). Die hydrodynamischen Gleichungen sind die eigentlichen prognosti- schen Gleichungen, da nur sie die Zeit als unabhängige Variable be- inhalten. Für ihre Berechnung schlägt Bjerknes eine graphische Berech- nungsmethode vor, indem für bestimmte Berechnungspunkte eine Pro- gnose mit Hilfe der Parallelogrammkonstruktion ermittelt wird. Aller- dings gilt es, die Beschränkungen der Bewegungsfreiheit dieser graphi- schen Verschiebungen durch die Kontinuitätsgleichung sowie Grenzbe- dingungen wie die Topographie des Bodens zu berücksichtigen. Auch wenn Bjerknes, wie er 1904 schrieb, „keine großen mathematischen Schwierigkeiten“ bei der graphischen Berechnung der Hydrodynamik erwartete, so weist er darauf hin, dass die unvollständige Kenntnis des Reibungswiderstandes der Luft eine empfindliche Lücke in der Kenntnis der atmosphärischen Zustände sei.14 Auch bezüglich der thermodynami- schen Zustände, welche die Verteilung von Temperatur und Feuchtigkeit bestimmen, sieht er kein Berechnungsproblem. Aber hier liegt ebenfalls eine unvollständige Kenntnis verschiedener Faktoren vor, beispielsweise bezüglich der Wärmemengen, welche die Luftmassen durch solare Ein- und Ausstrahlung erhalten, aber auch durch den Austausch mit der Oberfläche der Ozeane. Generell ist Bjerknes optimistisch, dass sich sein komplexes Modell graphisch berechnen lässt. „Wenn die graphi- schen Methoden fertig ausgearbeitet vorliegen und die nötigen tabellari- schen Hilfsmittel zuwege gebracht sind, so werden sich wahrscheinlich auch die einzelnen Operationen leicht ausführbar zeigen“ (Bjerknes 1904: 6). Die einzige Frage, die es dann noch zu klären gilt, ist die zeit- liche und räumliche Auflösung der Berechnungen. Je höher die Auflö- sung ist, desto mehr Berechnungen müssen ausgeführt werden. Ist die Auflösung zu gering, sind die Resultate wenig aussagekräftig. Bjerknes geht von einer zeitlichen Auflösung von einer Stunde und einer räumli- 14 „Die Reibung hängt von den Geschwindigkeitsdifferenzen im unendlich Kleinen ab, während die Meteorologen gezwungen sind, mit den Durch- schnittsbewegungen ausgedehnter Luftmassen zu rechnen. Man kann des- halb nicht die Reibungsglieder der hydrodynamischen Gleichungen unter Anwendung der in den Laboratorien gefundenen Reibungskoeffizienten benutzen, sondern man muß empirische Resultate über den effektiven Wi- derstand gegen die Bewegung der großen Luftmassen hinzuziehen. Hin- längliche Daten dieser Art besitzt man aber schon, um die ersten Versuche mit der Vorausberechnung von Luftbewegungen anzustellen“ (Bjerknes 1904: 5, 6). 123 II WISSENSCHAFTSFORSCHUNG chen Auflösung von einem Meridiangrad aus, denn schneller, so Bjerk- nes, würden sich die Luftmass 15en selten bewegen. Bjerknes Optimismus hinsichtlich der praktischen Berechenbarkeit sei- nes mechanisch-physikalischen Modells der Atmosphäre bestätigte sich in den darauf folgenden Jahren nicht. Zum einen mangelte es an Mess- daten, zum anderen wurde die graphische Berechnungsmethode des Wetters, wie 1904 vorgeschlagen, von Bjerknes nie voll entwickelt. Noch 1913, als er seine Professur für Geophysik in Leipzig antrat, war es sein Ziel, „alle mathematischen Rechenoperationen zu graphischen Operationen mit den Karten um[zu]formen. Wir haben uns in dieser Weise die Anfangsgründe einer graphischen Mathematik entwickelt, durch die wir die eine Karte aus der anderen ableiten, genau wie man sonst durch Rechnung die eine Gleichung aus der anderen ableitet“ (Bjerknes 1913: 16).16 Doch 1938 musste Bjerknes eingestehen, dass „die Ortsveränderungen der bewegten Luftmassen zu bestimmen, und die Zustände in denen sie angelangt [in der Praxis der Wettervorhersage] nach schnellen Schätzungen, nicht durch jahrelange Berechnungen, die ich bei meiner Antrittsrede in Leipzig in Aussicht gestellt hatte“ erfolgte (Bjerknes 1938: 59). Das „Bild der zukünftigen [atmosphärischen] Zu- stände zu konstruieren“ (Bjerknes 1904: 7), auf Basis des aktuellen phy- sikalischen Zustandsbildes, wurde zuerst durch die Synopsis gepaart mit Beobachtungen möglich und erst wesentlich später mit dem Aufkommen leistungsfähiger Computer durch berechenbare Modelle. 15 Die Frage nach der Auflösung wird zu einer entscheidenden Frage der numerischen Simulation werden. Doch zu Beginn gibt es kaum Erfah- rungswerte über eine adäquate zeitliche und räumliche Auflösung, ge- schweige denn stündlich erhobene Messwerte. In einem Artikel vom Au- gust 1904 geht Nils Ekholm für die zeitliche Diskretisierung von Luft- druckprognosen auf Basis synoptischer Karten von einem zwölf Stunden Intervall aus (vgl. Ekholm 1904). Und in einem Artikel vom September desselben Jahres weist R. Nimführ auf die Notwendigkeit hin, „auch die Wetterfaktoren aller umliegenden Wetterräume bis zur Grenze der in Be- tracht kommenden Wetterzone“ bei einer quantitativen Wetterprognose zu berücksichtigen (Nimführ 1904: 408). 16 „Ich würde aber mehr als froh sein, wenn ich die Arbeit soweit führen könnte, daß ich durch jahrelange Rechnungen das Wetter von nur einem Tage auf den anderen ausrechnen könnte. Wenn nur die Rechnung stimm- te, so wäre der wissenschaftliche Sieg errungen. Die Meteorologie wäre dann eine exakte Wissenschaft, eine wirkliche Physik der Atmosphäre geworden“ (Bjerknes 1913: 13, 14). 124 1 VON EINFACHEN MODELLEN ZU ERDSYSTEMEN Dennoch versuchte Lewis Fry Richardson in den 1910er Jahren ein numerisches Wettermodel per Hand zu berechnen.17 „The fundamental idea is that atmospheric pressures, velocities, etc. should be expressed as numbers, and should be tabulated at certain latitudes, longitudes and heights, so as to give a general account of the state of the atmosphere at any instance, over an extended region, up to the height of say 20 kilome- ters. […] It is shown that there is an arithmetical method of operating upon these tabulated numbers, so as to obtain a new table representing approximately the subsequent state of the atmosphere after a brief inter- val of time, dt say. The process can be repeated so as to yield the state of the atmosphere after 2dt, 3dt and so on“ (Richardson 1922: 1). 1922 beschreibt Richardson auf über zweihundert Seiten in seinem Buch Nu- merical Weather Prediction, wie die schrittweisen Berechnungen auszuführen sind: „But whereas Prof. Bjerknes mostly employs graphs, I have thought it better to proceed by way of numerical tables. The reason for this is that a previous comparison of the two methods, in dealing with differential equations, had convinced me that the arithmetical pro- cedure is the more exact and more powerful in coping with otherwise awkward equations“ (Richardson 1922: VIII). Um sein Modell zu be- rechnen, wählte Richardson ein Berechnungsgitter, dessen Abstand der Berechnungspunkte voneinander dem realen Abstand von 130 Kilome- tern nahe kam. Dies entsprach der damaligen Verteilung der zweiund- dreißig Messstationen in Großbritannien, würde man sie jeweils ins Zen- trum eines Polygons des Berechnungsgitters setzen. Tatsächlich waren die Stationen jedoch unregelmäßig verteilt. Für die vertikale Verteilung wählte er sieben Schichten. Damit erhielt er ein dreidimensionales Be- rechnungsmodell, welches den Zustand der Luftmassen in deren hori- zontalen wie auch vertikalen Veränderungen darstellte. Für die zeitliche Diskretisierung richtete sich Richardson ebenfalls nach dem damals ak- tuellen Standard von 12-stündlichen Messungen. Trotz der detaillierten Überlegungen bezüglich des mathematischen Modells, der vertretbaren Vereinfachungen sowie möglicher Fehlerquellen gelang es Richardson nicht, eine akkurate Vorhersage für ein einfaches Beispiel wie die Ver- änderung des Luftdrucks innerhalb von sechs Stunden zu berechnen. Obwohl er mehr als sechs Wochen damit zubrachte, die Berechnungs- 17 Richardson arbeitete die Berechnungen während seiner Dienstzeit als Sa- nitäter im ersten Weltkrieg aus. „In his spare time in France he set up and designed various simple meteorological instruments and took readings. Also, he had brought along the first draft of his book on numerical weather prediction, and during a six-week period he worked on a specific calcula- tion […] to show how the numerical forecasting system might be used in practice” (Hunt 1997: XIX). 125 II WISSENSCHAFTSFORSCHUNG schritte auszuarbeiten und die einzelnen Berechnungen durchzuführen, lag seine Prognose von 145 hPa Luftdruckänderung um das fünfzigfache über der tatsächlich gemessenen Luftdruckänderung. Die unzureichen- den und ungenauen Messdaten zur Initialisierung seiner Berechnungen waren ein Grund für sein Scheitern.18 Dennoch demonstrierte Richard- son eindrucksvoll die Prinzipien der numerischen Wettervorhersage, wie sie später mit den Computermodellen zum Alltag wurde. Dabei ging seine Vorstellung so weit, dass er sich eine Wettervorhersagefabrik ausmalte, in welcher 64.000 menschliche Computer parallel das Wetter von morgen berechnen sollten. Seine Vision beschreibt dabei recht zu- treffend die Arbeitsweise heutiger Parallelrechner: „Imagine a large hall like a theatre except that the circles and galleries go right round through the space usually occupied by the stage. The walls of this chamber are painted to form a map of the globe. The ceiling represents the north polar regions, England is in the gallery, the tropics in the upper circle, Australia on the dress circle and the antarctic in the pit. A myriad computers are at work upon the weather of the part of the map where each sits, but each computer attends only to one equation or part of an equation. The work of each region is coordinated by an official of higher rank. Numerous little ‚night signs’ display the instantaneous values so that neighboring computers can read them. Each number is thus displayed in three adjacent zones so as to maintain communication to the North and the South on the map. From the floor of the pit a tall pillar rises to half the height of the hall. It carries a large pulpit on its top. In this sits the man in charge of the whole theatre; he is surrounded by several assistants and messengers. One of his duties is to maintain a uniform speed of progress in all parts of the globe. In this respect he is like the conduc- tor of an orchestra in which the instruments are slide-rules and calculating ma- chines. But instead of waving a baton he turns a beam of rosy light upon any region that is running ahead of the rest, and a beam of blue light upon those who are behindhand. Four senior clerks in the central pulpit are collecting the future weather as fast as it is being computed, and dispatching it by pneumatic carrier to a quiet room. There it will be coded and telephoned to the radio transmitting station“ (Richardson 1922: 219). 18 „Richardson ascribed the unrealistic value of pressure tendency to errors in the observed winds which resulted in spuriously large values of calcu- lated divergence. This is true as far as it goes. However, the problem is deeper [...] A subtle state of balance exists in the atmosphere between the pressure and wind fields, ensuring that the high frequency gravity waves have much smaller amplitude than the rotational part of the flow. Minor errors in observational data can result in a disruption of the balance, and cause large gravity wave oscillations in the model solution” (Lynch 1999: 15). 126 1 VON EINFACHEN MODELLEN ZU ERDSYSTEMEN Richardsons Computerschema zur Berechnung eines relativ komplexen Modells der Wetterentwicklung demonstrierte trotz Fehlprognose die Machbarkeit der numerischen Wettervorhersage. Fortschritte in der Dif- ferenzenmethode, also der diskreten Approximation von Differential- gleichungen, bilden die mathematische Grundlage hierfür. Entwickelt wurde die Differenzenmethode erstmals 1759 von Joseph Luis Lagran- g .19e Gleich zu Anfang schreibt Richardson: „Finite arithmetical diffe- rences have been proved remarkably successful in dealing with differen- tial equations“ (Richardson 1922: 1). Das ist auch der Grund, warum er sich gegen eine graphische Berechnungsmethode im Sinne Bjerknes ent- scheidet und für die numerisch 20e plädiert. Doch der Mangel an Rechen- kraft limitierte seine Möglichkeiten derart, dass die numerische Methode zu diesem Zeitpunkt nicht ernsthaft für die Wetterprognose in Betracht gezogen werden konnte. Erst dreißig Jahre später mit dem Aufkommen der ersten automatischen Rechenmaschinen gewinnt die numerische Prognose an Bedeutung. Bereits 1954 in Schweden und ab 1955 in den USA beginnt die Ära der numerischen, computerbasierten Wettervorher- sage. Von Wetter- zu Klimamodellen Am Beginn der computerbasierten Modellierung atmosphärischer Phä- nomene stehen nicht die Klimamodelle, sondern einfache Wettermodel- le. Im August 1946 traf sich auf Einladung von John von Neumann eine Gruppe US-amerikanischer und skandinavischer Meteorologen am IAS Institute for Advanced Study in Princ 21eton. Von Neumann, der am Bau 19 Herman Goldstine schreibt in seiner historischen Analyse des Calculus: „I am not able to find in Euler any suggestion that his method for finding a root of an algebraic equation is intimately related to linear difference equations. It appears that Lagrange was the first to have made the connec- tion. In fact, in an early paper (1759) we see him solving linear difference equations with constant coefficients with the help of the so-called charac- teristic equation. Moreover, it is here that he introduces his ‚method of variation of parameters for solving a nonhomogeneous equation given so- lutions of the homogeneous one’” (Goldstine 1977: 145). 20 Ab den 1920er Jahren wurden Hollorith-Maschinen für die Wetterprogno- se verwendet. „In the late 1930s the weather service of every major Euro- pean country was analyzing data by means of punched cards. […] Tabula- ting equipment thus made it possible to use many more data than was pos- sible before. Another important result was a higher standard of weather data“ (Nebeker 1995: 93). 21 Der Einfluss der beiden Weltkriege auf die Fortschritte der Wissenschaft, auch der Meteorologie ist enorm. 1946 sieht die Situation für Meteorolo- 127 II WISSENSCHAFTSFORSCHUNG seines programmierbaren IAS Computers arbeitete, hatte ein meteorolo- gisches Problem für den Test seines Computers ausgewählt. Jule Char- ney, der zu diesem Treffen eingeladen worden war, arbeitete zu jener Zeit an einer Theorie quasi-geostrophischer Bewegung, welche im Kon- text der numerischen Anwendung genau jene Probleme vermied, die Richardson zuvor zu seiner verhängnisvollen Fehlprognose geführt hat- ten (vgl. Charney 1948).22 Ab 1948 übernahm er die Leitung der meteo- rologischen Gruppe in von Neumanns Computerprojekt und entwickelte mit Kollegen ein erstes Computermodell für die Wettervorhersage (vgl. Charney, Eliassen 1949). In seinem Artikel On a physical bias for nu- merical prediction of large-scale motions in the atmosphere beschreibt Charney sein Programm einer numerischen Wettervorhersage: „First justifying the geostrophic system, then beginning with simple models and finally progressing to more complicated models. [...] NWP should proceed by gradually including those factors that experienced forecasters had found useful“ (Charney zitiert nach Phillips 2000: 16; vgl. Charney 1949). Die Grundlage dieses ersten Computermodells bildete ein barotropes Modell, in welchem der Luftdruck eine Funktion der Dichte ist und in dem die Flächen gleichen Drucks (Isobaren) parallel zu den Flächen gleicher Temperatur verlaufen. In einem solchen, stark idealisierten Mo- dell ist die Windgeschwindigkeit konstant. Aufbauend auf dieses ideali- sierte Modell entwickelten Charney und seine Kollegen Randbedingun- gen für die vertikale und horizontale Auflösung des Modells, um es für eine 500 mb Höhe auf dem Computer berechnen zu können.23 Von Neumann beschrieb das Modell auf einem Vortrag 1954 in Deutschland: gen komplett anders aus als 1904. Es standen wesentlich mehr Messdaten zur Verfügung, leistungsfähigere mechanische Rechenmaschinen, ausge- feiltere Methoden der Prognose auf Basis synoptischer Karten und wesent- lich mehr Spezialisten. 22 Die geostrophische Bewegung ist ein idealisiertes Wind-Modell, bei dem sich der Wind parallel zu den Isobaren bewegt und in welchem sich Druckgradient und Corioliskraft gegenseitig aufheben. „By the end of 1947, he had found a ‚filtering’ method which would remove ‚noise’ – energy waves that did not contribute to the solution, but which complica- ted the solution. Von Neumann was pleased when he found out that Char- ney was interested in the Meteorological Project“ (Harper 2004: 86). 23 500mb entsprechen nach der barometrischen Höhenformel in etwa der Höhe von 5.000 Metern und damit der Mitte der Troposphäre, in der sich nahezu alle wetterrelevanten Phänomene abspielen und die in 10 bis 12 km Höhe reicht. 128 1 VON EINFACHEN MODELLEN ZU ERDSYSTEMEN „Das vereinfachte Modell der atmosphärischen Hydrodynamik, das wir be- nutzten, beruhte darauf, nur die Druckverteilung in der Atmosphäre anzuge- ben. Das liegt daran, daß die rein hydrodynamischen Luftkräfte dominiert sind […] nämlich in erster Linie durch die Schwerkraft und in zweiter Linie durch die von der Drehgeschwindigkeit der Erde herrührende Corioliskraft (die letz- tere aber nur außerhalb der Äquatorialzone!). Hieraus folgen – durch gewisse legitime Vernachlässigungen – zwei wichtige vereinfachende Prinzipien, näm- lich das ‚hydrostatische Prinzip’ (der Schwerkraft entsprechend) und das ‚geo- strophische Prinzip’ (der Corioliskraft entsprechend). Mit ihrer Hilfe bestimmt die Druckverteilung die Temperaturverteilung (hydrostatisches Prinzip) und daher auch die Entropieverteilung sowie die Horizontalkomponenten der Ge- schwindigkeitsverteilung (geostrophisches Prinzip) und, wenn nötig, auch de- ren Vertikalkomponente (Erhaltung der invarianten Kombination von Entropie und Wirbelvektor – die ‚spezifische Wirbelstärke’ von C.A.G. Rossby). Daher lassen sich in dieser (sehr günstigen!) Situation die üblichen Dif- ferentialgleichungen der Hydrodynamik derart umformen, daß in ihnen nur die Druckverteilung vorkommt. […] Diese Umformung der hydrodynamischen Differentialgleichung […] ist eine der schönen Leistungen J. Charney. In die- ser Form können die Differentialgleichungen dann für irgendwelche ausge- dehnte, in Bezug auf meteorologische Phänomene in allen Höhenlagen und jederzeit wohlbeobachtete Teile der Erdoberfläche angesetzt werden“ (von Neumann 1954: 262, 263). Die erste Wettersimulation wurde 1950 auf ENIAC durchgeführt, da der IAS Computer noch nicht fertig gestellt war. Eine 24-Stunden Prognose der Luftdruckänderung für eine einzige Luftschicht benötigte auf ENIAC 24 Stunden Rechenzeit, während sie später auf dem IAS Com- puter nur noch 6 Minuten dauerte. Denn die „1-Lagen-Rechnung erfor- derte etwa 200 000 Multiplikationen“ (von Neumann 1954: 266).24 Ins- gesamt berechneten Charney et al. 1950 vier 24-Stunden und zwei 12- Stunden-Vorhersagen. Die Ergebnisse dieser Berechnungen wurden auf über hunderttausend Lochkarten gespeichert. Optimistisch verkündete von Neumann in Folge der geglückten Berechnungen: „Wir wissen, daß das 1-Lagen-Modell in der Regel ungefähr so gut ist wie ein erfahrener ‚subjektiver’ Wettersachverständiger […] während das 3-Lagen-Modell wesentlich besser ist“ (von Neumann 1954: 266). Dieser Optimismus war jedoch zu Beginn der numerischen Wettervorhersage kaum gerecht- fertigt. Es zeigten sich schnell die intrinsischen Probleme von Charneys barotropem Modell. Sobald man das Modell mit schnelleren Computern für eine Halbkugel berechnen konnte, traten Fehler in der Ausbreitung großräumiger Wellen auf. Die Kritik wurde laut, dass die Berechnung 24 1-Lagen-Rechnung meint die vertikale Auflösung in einer Schicht. Es handelt sich um ein einfaches, zweidimensionales Modell. 129 II WISSENSCHAFTSFORSCHUNG des Luftdrucks noch keine Wettervorhersage darstelle: „‚500 mb geopo- tential is not weather’. According to Charney, Norbert Wiener at MIT, who proposed to employ linear ‚black box’ prediction methods based on long time series of past data, stated: Von Neumann and Charney were misleading the public by pretending that the atmosphere was predictable as determinsitic system“ (Arakawa 2000: 6). Zudem entsprachen die Vereinfachungen dieses ersten Modells weitgehend jenen Vereinfachun- gen, die Bjerknes in seiner Konzeption von 1904 ablehnte. Dennoch setzten sich die barotropen und baroklinen Modelle, und damit die de- terministische Methode für die Wettervorhersage durch (vgl. Phillips 1951; Eliassen 1952; Charney, Phillips 1953; Bolin 1953). Die barokli- nen Modelle wurden später durch so genannte primitive barokline Glei- chungen abgelöst (vgl. Smagorinsky 1958; Hinkelmann 1959). „Diese frühen numerischen Vorhersagen (für eine trockene Atmosphäre in einer begrenzten Region) führten zur Entwicklung von Mehrschichtenmodel- l 25en, wie sie bis heute andauert“ (Gates 2003: 4). Akio Arakaw be- zeichnete den Zeitraum von 1950 bis 1960 als „epoch-making first pha- se. […] Through this work, the relevance of such a simple dynamical model for daily change of weather was demonstrated for the first time in history, and thus dynamic meteorologists began to be directly involved in the practical problem of forecasting. In this way, dynamic meteorol- ogy and synoptic meteorology began to merge during this phase“ (Ara- kawa 2000: 6, 7). Der Erfolg der baroklinen Modelle veranlasste Meteorologen wie Nor- man Phillips dazu, die Frage zu stellen, ob diese Modelle auch für die Prognose allgemeiner atmosphärischer Zirkulationseffekte genutzt wer- den konnten. Phillips, der ab 1952 mit Charney in von Neumanns meteo- rologischem Projek t arbeitete, programmiert e ei n Modell, mi t dem e r zei- gen wollte, dass sich die grundlegenden Muster der globalen Zirkulation auf Basis mathematischer Gleichungen erzeugen lassen. Sein numeri- sches Experiment von 1956 gilt heute als Auftakt der Klimamodellie- rung, wenngleich es sich dabei um ein sehr einfaches 2-Schichten- Modell handelte. In dem Artikel The general circulation of the atmo- sphere: a numerical experiment beschrieb er sein Experiment, das die konzeptuellen Modelle der Zirkulation von Halley, Hadley, Dove, Ferrel 25 In Schweden hatten die Meteorologen Zugriff auf BESK, einen Computer, der Anfang der 1950er Jahren nach dem Vorbild von John von Neumanns IAS Computer gebaut worden war. Zwischen den Gruppen in Princeton und Stockholm bestand ein reger Austausch. Bereits Mitte 1952 nutzte Ernst Hovmöller vom Schwedischen Meteorologischen und Hydrologi- schen Institut barokline Modelle zur Wettervorhersage (vgl. Harper 2004). 130 1 VON EINFACHEN MODELLEN ZU ERDSYSTEMEN und andere im Computer fortführte und verfeinerte (vgl. Phillips 1956). Dieses konzeptuelle Modell der drei Zirkulationsregime – Tropen (Had- ley cell), gemäßigte Breiten (Ferrel cell) und polares Regime (s. Abbil- dung 7) – war zu Beginn des 20. Jahrhunderts zunehmend detailliert (vgl. Rossby 1927, 1938; Palmen 1949; Riehl et al. 1954) und mit den hydro- und thermodynamischen Gleichungen verknüpft worden (vgl. Bjerknes 1904). In seinem Experiment untersuchte Phillips die ver- schiedenen Muster der Zirkulation: „We see the appearance of a definite three-cell circulation, with an indirect cell in middle latitudes and two somewhat weaker cells to the north and south. This is a characteristic feature of the unstable baroclinic waves in the two-level model“ (Phil- lips 1956: 144, 145). Allerdings lösten sich die Strömungsmuster nach einem Monat aufgrund von Rundungsfehlern durch die Diskretisierung in Chaos auf.26 Dennoch stellte in der anschließenden Diskussion des Experiments unter Meteorologen Eric Eady fest: „Numerical integration of the kind Dr. Phillips has carried out give us a unique opportunity to study large-scale meteorology as an experimental science. By using a simple model and initial conditions which never occur in the real atmos- phere he has been able to isolate, and study separately, certain funda- mental properties of atmospheric motion – the kind of procedure adopted by all good experimenters“ (Eady zitiert nach Lewis 2000: 117). Mit Phillips’ numerischem Experiment von 1956 eröffnete sich der Weg, auf Basis numerischer Computerexperimente klimatische Prozesse zu studieren, und die „magnificent second phase“ (Arakawa 2000: 21) der globalen Zirkulationsmodelle begann, welche die baroklinen Model- le ablösten.27 Arakawa, ein führender Klimaforscher dieser zweiten Phase, berichtete über diese Zeit: „I myself was also extremly inspired by Phillips’ work. […] Phillips’ work highlighted the fact, which people began to recognize around that time, that the dynamics of cyclones and that of general circulation are closely related“ (Arakawa zitiert nach Lewis 2000: 119). Dieser Zusammenhang zwischen der globalen Zirku- 26 „After 26 days, the field of V became very irregular owing to large trunca- tion errors” (Phillips 1956: 145). Die Problematik von Rundungsfehlern, die sich im Laufe der Iterationen von Zeitschritt zu Zeitschritt aufschau- keln können, war bereits John von Neumann bekannt (vgl. von Neumann 1946). Noch während Phillips’ Experiment organisierte von Neumann 1955 die Tagung On the Application of Numerical Integration Techniques to the Problem of the General Circulation (vgl. Pfeffer 1960; Küppers, Lenhard 2005). 27 „Between the late 1950s and the early 1960s, four separate groups began – more or less independently – to build many-leveled, three-dimensional GCMs based on the primitive equations of Bjerknes and Richardson” (Edwards 2000: 71). 131 II WISSENSCHAFTSFORSCHUNG lation und dem Entstehen von Zyklonen, welche regionale Wetterphä- nomene verursachen, stellt das Scharnier zwischen Klimaforschung und Wettervorhersage dar. Es zeigt sich darin, dass sowohl Klima- wie auch Wettermodelle seit den 1960er Jahren auf globalen Zirkulationsmodel- len basieren. Mit der zunehmenden Leistungsfähigkeit der Computer wurden auch die Modelle komplexer und die numerischen Experimente umfangreicher. Vor allem die räumliche Auflösung der Modelle nahm zu. Während Charneys Berechnungen noch auf das Gebiet der USA begrenzt waren, wurden die folgenden Modelle anfangs für eine Hemisphäre und später für den gesamten Globus berechnet. Parallel dazu verfeinerte sich die horizontale Auflösung der Modelle wie auch die vertikale Auflösung in Schichten. Mussten sich Charney und von Neumann noch mit einer be- ziehungsweise mit drei Schichten begnügen, so wurden die Modelle der 1960er und 1970er Jahre für bis zu neun Schichten berechnet. Die höhe- re räumliche Auflösung erfordert wiederum eine feinere zeitliche Auflö- sung. Auf diese Weise schrauben sich die Auflösung und damit der Re- chenaufwand der Modelle kontinuierlich nach oben. Heutige Atmosphä- renmodelle werden global für eine horizontale Auflösung von 60 bis 110 Kilometern und einer vertikalen Auflösung von mehreren Duzend Schichten im 10-Minuten-Takt berechnet. Die Entwicklungen der zweiten Phase vom Beginn der 1960er bis zum Ende der 1980er Jahre führte zu einer Fülle unterschiedlicher Modelle und Modellierungsstrategien. Neben einfachen Energiebilanzmodellen, welche die Ein- und Ausstrahlung der solaren Energie und damit einen möglichen Treibhauseffekt simulieren, entstanden die zunehmend kom- plexeren, globalen Zirkulationsmodelle der Atmosphäre. Zudem wurden Ozean-, Eis- und Landmodelle entwickelt. Bereits 1969 koppelten Syu- kuro Manabe und Frank O. Bryan ein Atmosphären- mit einem Ozean- modell und gaben damit die zukünftige Entwicklung gekoppelter Model- le vor (vgl. Manabe, Bryan 1969). Während sich jedoch zu Beginn der zweiten Phase der Ehrgeiz auf die zunehmend realistischere Modellie- rung der Zirkulationsmuster konzentrierte, wurden die Modelle nach und nach für experimentelle Fragestellungen zu Klimaprozessen genutzt. Grundlegende Voraussetzung dafür war die Überwindung zahlreicher Modellierungsprobleme sowie die Einbeziehung von Prozessen, die nicht durch die großskalige Zirkulation berücksichtigt werden. Die Be- rücksichtigung dieser subskaligen Prozesse findet in Form von Parame- trisierungen statt, beispielsweise „if the grid points in a horizontal plane are 100 km apart, then thunderstorms, which are typically several kilo- 132 1 VON EINFACHEN MODELLEN ZU ERDSYSTEMEN meters across, cannot be directly represented. Their cumulative effect on, say, temperature or moisture content of the air in a region can, how- ever, be estimated using statistical information about the likelihood, size, and intensity of thunderstorms in a larger region whose average proper- ties are known“ (N 28ebeker 1995: 179). Diese kumulativen Effekte müs- sen dann als global gemittelte Parametrisierungen dem Modell hinzuge- fügt werden. Typische Parametrisierungen umfassen die solaren und terrestrischen Strahlungsprozesse, die Phasenänderungen des Wassers in Form von Eis- und Wolkenbildung, die Konvektion sowie turbulente Austauschprozesse in der atmosphärischen Grenzschicht an der Erdober- fläche. Es sind die Parametrisierungen, welche die Modelle zunehmend in ihrem Codierungsumfang anwachsen und dadurch realitätsnaher wer- den lassen, welche aber erst dadurch die Experimente zum Klimawandel ermöglichen. Solche ersten Experimente zur Auswirkung der Verdopp- lung der Kohlendioxidmenge in der Atmosphäre (vgl. Manabe, Wether- ald 1975), zum klimatischen Einfluss der Waldrodungen in den Tropen (vgl. Charney 1975) oder zum Paläoklima (vgl. Gates 1976) gaben Ein- blicke in die komplexen Zusammenhänge des Klimas und Ausblicke auf mögliche Zukunftsszenarien. Eine wichtige Entwicklung dieser zweiten Phase der computerbasierten Meteorologie war die Einführung neuer Modellierungsstrategien. Bei- spielsweise eliminierte Arakawa 1966 an der UCLA University of Cali- fornia in Los Angeles die Instabilitäten in Phillips’ Experiment.29 Indem er anstelle der Glättungsmethoden, mit welchen andere Modellierer die Instabilitäten auszugleichen versuchten, die Erhaltung der kinetischen Energie in sein Modell einführte, gelang es ihm, die Simulationsresultate zu stabilisier 30en. In der General Circulation Research Section, welche 28 „With the introduction of the computer into meteorology came a new style of research in which numerical modeling was the dominant methodology. […] A conspicuous effect of numerical modeling on research style was that parameterization became an important activity” (Nebeker 1995: 177, 178). 29 Akio Arakawa, der 1961 von Yale Mintz an das Department of Meteor- ology der UCLA University of California in Los Angeles geholt wurde, gehörte zu den einflussreichsten Innovatoren der Klimamodellierung in den 1960er und 1970er Jahren. 30 „So ging er von der Erhaltung der kinetischen Energie in der Atmosphäre aus, obwohl klar war, dass diese Energie durch Reibung in Wärme umge- setzt wird, also definitiv nicht erhalten wird. […] Physikalisch argumen- tiert kann man sagen, dass Arakawa mit der Erhaltung der kinetischen Energie künstlich das Anwachsen der Instabilitäten begrenzt hat. In der wirklichen Atmosphäre besorgt dies die Reibung“ (Küppers, Lenhard 2005: 322). 133 II WISSENSCHAFTSFORSCHUNG später als GFDL Geophysical Fluid Dynamics Laboratory an die Uni- versität Princeton umsiedelte, entwickelten Syukuro Manabe und Joseph Smagorinsky ein Modell, das erstmals die konvektiven Prozesse berück- sichtigte (vgl. Manabe et al. 1965). Konvektive Prozesse sorgen für die Erwärmung der Atmosphäre sowie deren Stabilisierung. Da diese Pro- zesse auf Skalen von Mikrometern bis Kilometern stattfinden, werden sie nicht durch die Modelldynamik aufgelöst und müssen parametrisiert werden. Da es jedoch kein empirisches Referenzmodell als Orientie- rungshilfe für eine adäquate Parametrisierung gibt, behilft man sich mit einer Anpassung der vertikalen Temperaturprofile während des Simula- tionslaufs. Dabei werden die Temperaturprofile für jeden Zeitschritt ge- prüft und gegebenenfalls durch Umverteilung stabilisiert. „Tritt in ir- gendeiner Modellschicht Übersättigung auf, so wird der überschüssige Wasserdampf als Niederschlag ausgeschieden. Das convective adjust- ment sorgt damit für einen Wärmeübergang von der Erdoberfläche in die Atmosphäre (wenn die unterste Modellschicht instabil wird), erwärmt die Atmosphäre durch Freisetzung latenter Wärme bei der Kondensation und stabilisiert die Atmosphäre durch vertikale Umverteilung der Ener- gie“ (Roekner 2003: 9). Dieser Ansatz ist bis heute in Zirkulationsmo- dellen weit verbreitet. Eine Fülle weiterer Modellierungsstrategien von Prozessen folgte. In einem Vergleich der ersten drei Zirkulationsmodelle durch Charney 1978 bestach Arakawas Modell aufgrund seiner realisti- schen Ergebnisse. „Three general circulation models [Cecil E. Leiths Modell (LLNL Lawrence Livermore National Laboratories), Joseph Smagorinskys Modell (GFDL Geophysical Fluid Dynamics Laboratory, Princeton) und Aiko Arakawas Modell (UCLA University of California, Los Angeles)] were used for parallel integrations of several weeks to determine the growth of small initial errors. Only Arakawa’s model had the aperiodic behavior typical of the real atmosphere in extratropical latitudes, and his results were therefore used as a guide to predictability of the real atmosphere“ (Phillips 2000a: XXIX). In dieser zweiten Phase formierten sich verschiedene Gruppen von Modellieren an unterschiedlichen Institutionen, welche einflussreiche Modellgenerationen entwickelten. Zwischen 1961 und 1963 hatten Yale Mintz und Akido Arakawa das erste UCLA Modell entwickelt, ein 2- Schichten Zirkulationsmodell, das eine realistische Land- und See-Eis- Verteilung berücksichtigte. Diesem Prototyp folgten vier Generationen von Zirkulationsmodellen, die unter anderem vom GISS Goddard Insti- tute for Space Studies der NASA, der US Navy und anderen Institutio- nen verwendet wurden (vgl. Edwards 2000). Am GDFL Geophysical Fluid Dynamics Laboratory an der Universität Princeton entwickelten Joseph Smagorinsky, Gründer der General Circulation Research Sec- 134 1 VON EINFACHEN MODELLEN ZU ERDSYSTEMEN tion/Laboratory des U.S. Weather Bureau, der die Arbeit von Charney und von Neumann fortführte, und Syukuro Manabe verschiedene und sehr einflussreiche Modellgenerationen.31 Der MARKFORT-Serie der 9-Schichten Zirkulationsmodells mit ‚convective adjustment‘ folgte die Zodiac-Serie, deren Modelle bis in die 1970er Jahre genutzt wurden. Die anschließenden Sector Modelle berücksichtigten bereits eine idealisierte Land-Ozean Verteilung, während die Skyhigh-Modelle eine hohe verti- kale Auflösung aufwiesen. „In the mid-1970s, GFDL imported a copy of the spectral GCM code developed by W. Bourke at the Australian Nu- merical Meteorological Research Centre (Bourke, 1974; Gordon, 1976; Gordon and Stern, 1974). Interestingly, Bourke and Barrie Hunt had originally worked out the spectral modeling techniques while visiting GFDL in the early 1970s“ (Edwards 2000: 73).32 Weitere wichtige Orte der Modellentwicklung in den USA waren die LLNL Lawrence Liver- more National Laboratories mit Cecil E. Leiths LAM Modell, das 1960 gegründete NCAR National Centre for Atmospheric Research mit den NCAR 1-3 Modellen von Akira Kasahara und Warren Washington so- wie ab den späten 1970er Jahren den CCM 0-1 Community Climate Models. Außerhalb der USA begann die Entwicklung globaler Zirkulations- modelle in den 1960er Jahren am Australian Numerical Meteorological Research Centre, in den 1970er Jahren am britischen Meteorological Office, gefolgt von Modellentwicklungen am ECMWF European Centre for Medium Range Weather Forecast in Großbritannien, dem Max- Planck-Institut für Meteorologie in Hamburg und an anderen Orten. 31 Die 1955 gegründete General Circulation Research Section des U.S. We- ather Bureau war in Suitland, Maryland ansässig, unweit der JNWP Joint Numerical Weather Prediction Unit. 1959 wurde die Sektion in General Circulation Research Laboratory umbenannt und nach Washington, D.C. umgesiedelt. 1963 erfolgte eine weitere Umbenennung in GFDL Geophy- sical Fluid Dynamics Laboratory und 1968 zog das GFDL an die Univer- sität Princeton, wo es zu einem der einflussreichsten Departments der Klimamodellierung bis heute wurde. 32 Die Diskretisierung der Modelle durch die Differenzenmethode erfolgte in einem rechtwinkligen Koordinatensystem (Berechnungsgitter). Dies führte zu numerischen Instabilitäten. Die Nutzung von Spektralfunktionen zur Berechnung der globalen Zirkulationsprozesse im Spektralraum vermeidet diese Instabilitäten (vgl. Bourke 1974). „Ungefähr die Hälfte der moder- nen GCMs haben eine spektrale Formulierung, jedoch werden die physi- kalischen Parametrisierungen in jedem Fall auf Gittern mit finiten Diffe- renzen berechnet“ (Gates 2003: 4). Dabei entspricht beispielsweise einer Auflösung von 110 Kilometern im rechtwinkligen Berechnungsgitter, wie sie im vierten Assessment Report des IPCC 2007 verwendet wurde, eine T106 Auflösung im Spektralraum. Die Zahl T106 gibt die Anzahl der Wellen im Spektralraum an. 135 II WISSENSCHAFTSFORSCHUNG Einen aktuellen Überblick führender Klimamodelle bietet die Liste der am IPCC Assessment Report 2007 beteiligten Institutionen, wie in Ab- bildung 9 dargestellt. Modelle Institute 1: BCC-CM1, 2005 Beijing Climate Center, China 2: BCCR-BCM2.0, 2005 Bjerknes Centre for Climate Research, Nor- way 3: CCSM3, 2005 National Center for Atmospheric Research, USA 4: CGCM3.1(T47), 2005 Canadian Centre for Climate Modelling and 5: CGCM3.1(T63), 2005 Analysis, Canada 6: CNRM-CM3, 2004 Météo-France/Centre National de Re- cherches Météorologiques, France 7: CSIRO-MK3.0, 2001 Commonwealth Scientific and Industrial Re- search Organisation (CSIRO) Atmospheric Research, Australia 8: ECHAM5/MPI-OM, 2005 Max Planck Institute for Meteorology, Ger- many 9: ECHO-G, 1999 Meteorological Institute of the University of Bonn, Meteorological Research Institute of the Korea Meteorological Administration (KMA), and Model and Data Group, Ger- many/Korea 10: FGOALS-g1.0, 2004 National Key Laboratory of Numerical Model- ing for Atmospheric Sciences and Geophysi- cal Fluid Dynamics (LASG)/Institute of At- mospheric Physics, China 11: GFDL-CM2.0, 2005 U.S. Department of Commerce/National Oceanic and Atmospheric Administration 12: GFDL-CM2.1, 2005 (NOAA)/ Geophysical Fluid Dynamics Labo- ratory (GFDL), USA 13: GISS-AOM, 2004 National Aeronautics and Space Administra- 14: GISS-EH, 2004 tion (NASA)/Goddard Institute for Space 15: GISS-ER, 2004 Studies (GISS), USA 16: INM-CM3.0, 2004 Institute for Numerical Mathematics, Russia 17: IPSL-CM4, 2005 Institut Pierre Simon Laplace, France 18: MIROC3.2(hires), 2004 Center for Climate System Research (Uni- 19: MIROC3.2(medres), versity of Tokyo), National Institute for Envi- 2004 ronmental Studies, and Frontier Research Center for Global Change (JAMSTEC), Ja- pan 20: MRI-CGCM2.3.2, 2003 Meteorological Research Institute, Japan 21: PCM, 1998 National Center for Atmospheric Research, USA 22: UKMO-HadCM3, 1997 Hadley Centre for Climate Prediction and 23: UKMO-HadGEM1, 2004 Research/Met Office, UK Abbildung 9: IPCC Modelle (vgl. IPCC AR4 WG1 2007: 597 - 599) 136 1 VON EINFACHEN MODELLEN ZU ERDSYSTEMEN Erdsysteme Nach der ersten ‚epoch-making‘ (bis 1950) und der zweiten ‚magnifi- cent‘ Phase (1950 bis 1990) befindet sich die computerbasierte Meteoro- logie heute in ihrer dritten Phase der gekoppelten Modelle, die Arakawa die ‚great challenge phase‘ nannte (vgl. Arakawa 2000: 723ff). Dabei basiert der aktuelle Standard der Klimamodelle auf gekoppelten Atmo- sphären-Ozeanmodellen, welche durch Land-, Eis-, Vegetations- und verschiedene chemische Modelle ergänzt werden. Das Ziel ist es, ganze Erdsysteme zu modellieren und mit ihnen zu experimentieren. Dabei wird deutlich, dass sich das Klimasystem nicht nur auf die atmosphäri- schen Prozesse beschränken lässt, sondern dass die Atmosphäre eines von mehreren Subsystemen ist. Erdsysteme beschreiben die Wechsel- wirkungen dieser verschiedenen Subsysteme des Klimas wie der Atmo- sphäre, der Hydrosphäre (Ozeane, Seen, Flüsse), der Kryosphäre (Eis und Schnee), der Lithosphäre (Boden und Gesteinsschichten) und der Biosphäre (Pflanzen und Tiere) auf Zeitskalen von zehn bis Hunderten von Jahren. Die Frage nach dem vom Menschen verursachten Klima- wandel bringt seit neuestem die Anthroposphäre (sozio-ökonomische Entwicklungen) als ein weiteres Subsystem des Klimas ins Spiel. Die Modellierung solcher umfangreichen Modelle stellt eine große Heraus- forderung für die Wissenschaft dar. Zum einen müssen verschiedene Wissenschaftsbereiche mit unterschiedlichen Wissensbeständen in ein Erdsystem integriert werden. Dabei können nicht alle Bereiche auf eine so lange Modellierungserfahrung verweisen wie die Meteorologie. Zum anderen sind Erdsysteme gigantische Modelle, an welchen Duzende von Wissenschaftlern gleichzeitig arbeiten. Den Überblick zu behalten, ist dabei nicht leicht. Ein einzelner Forscher kann allenfalls seinen Model- lierungsbereich überblicken und muss sich ansonsten auf die Expertise seiner Kollegen verlassen. Darüber hinaus lassen sich die verschiedenen Subsysteme nicht so einfach koppeln. Was für die Kopplung von Atmo- sphären- und Ozeanmodellen noch zu bewerkstelligen war, da beide Modelle auf denselben strömungsdynamischen Gleichungen basieren, gestaltet sich für die Biosphäre oder die Anthroposphäre weitaus schwieriger. Hier lassen sich keine physikalischen Grundgleichungen angeben, da die Entwicklung dieser Sphären nicht auf mechanischen Prozessen basiert. 137 II WISSENSCHAFTSFORSCHUNG Abbildung 10: Entwicklung der Klimamodelle (IPCC TAR WG1 2001: 48) Die aktuellen Subsystem-Modelle des Erdsystems unterscheiden sich dabei stark von den ersten Modellen, wie in Abbildung 10 dargestellt. Auch wenn für die Atmosphärenmodelle immer noch dieselbe Dynamik, basierend auf Bjerknes konzeptuellem Modell der sieben meteorologi- schen Variablen von 1904, verwendet wird, haben heutige Zirkulations- modelle mit Phillips numerischem Experiment von 1956 oder dem ers- ten gekoppelten Ozean-Atmosphärenmodell von Bryan und Manabe von 1967 kaum noch etwas gemeinsam. Der Fortschritt besteht in neuen Modellierungsstrategien, neuen Parametrisierungen und in verbesserten Auflösungen. Ähnliches gilt für Ozean-, Land-, Eis- und Vegetations- modelle sowie die weiteren Modelle eines Erdsystems. Im aktuellen IPCC Bericht heißt es dazu: „Replacing ‚slab’ ocean models by fully coupled ocean-atmosphere models may arguably have constituted one of the most significant leaps forward in climate modelling during the last 20 years, although both the atmospheric and oceanic components themselves have undergone highly significant improve- ments. This advance has led to significant modifications in the patterns of simulated climate change, particularly in oceanic regions. It has also opened up the possibility of exploring transient climate scenarios, and it constitutes a step toward the development of comprehensive ‚Earth-system models’ that include explicit representations of chemical and biogeochemical cycles“ (IPCC AR4 WG1 2007: 117). 138 1 VON EINFACHEN MODELLEN ZU ERDSYSTEMEN Ein weiterer Unterschied der heutigen Forschung mit Erdsystemen zu bisherigen Atmosphärenmodellen besteht in ihrem sozio-politischen An- spruch. Je komplexer und umfangreicher das Modellsystem ist, desto mehr Antworten erhofft man sich auf die drängenden Fragen nach den Folgen des Klimawandels. Dabei verlässt die Wissenschaft ihren neutra- len Platz und versucht, Aussagen über gesellschaftliche Entwicklungen zu geben. Dies hat Folgen, denn wissenschaftliche Forschung wird dabei zunehmend in problemorientierte Forschung transformiert. Diese Ent- wicklung lässt sich in der Klimaforschung seit den 1970er Jahren beob- achten, aber die Entwicklung hin zur Forschung mit Erdsystemen do- kumentiert dies besonders deutlich (vgl. Beckmann et al. 1995). Vor allem deshalb, weil „Earth scientists are unable to perform controlled experiments on the planet as a whole and then observe the results. In this sense, Earth science is similar to the disciplines of astronomy and cos- mology that cannot conduct experiments on galaxies or the cosmos. This is an important consideration, because it is precisely such whole-Earth, system-scale experiments, incorporating the full complexity of interact- ing processes and feedbacks, that might ideally be required to fully ver- ify or falsify climate change hypotheses“ (IPCC AR4 WG1 2007: 98). Erdsysteme nun stellen eine vielversprechende Alternative dar, um kli- matische Interkationen und Prozesse zu verstehen, aber auch um Ant- worten und Prognosen zu liefern. Dabei vereinigen sie immer mehr Wis- senschaftsbereiche in sich. In diesem Sinne sind Erdsysteme im Begriff, sich zu den elaboriertesten Experimentalsystemen der Computational Sciences zu entwickeln. 139 2 FORSCHEN M IT ALGORITHMEN Erdsysteme als komplexe, computerrealisierte Experimentalsysteme sind Instrumente einer Wissenschaft, die sich im Bereich der Algorithmen verortet. Dies aber bedeutet, dass nur das, was sich mit Algorithmen und quantitativen Datenstrukturen fassen lässt, der Forschung zugänglich ist. In der Meteorologie gewinnt dieser neue Forschungsstil mit den ersten Computerexperimenten an Bedeutung. Frederik Nebeker bezeichnet in seiner Studie Calculating the Weather die 1950er Jahre als paradigmati- sche Umbruchphase: „A new style of meteorology evolved in the 1950s. It was much the style prac- tised by Richardson some 35 years earlier, a style that results from making a forecasting algorithm one’s ultimate objective. This style is characterized by interest in only certain types of data (quantitative, and with accuracy and geo- graphic distribution determined by needs of the algorithms), interest in only certain types of theories (quantitative, and ‚meshing’ with other quantitative theories, and dealing with only those phenomena the algorithm indicates are important), and interest in numerical analysis and computing aids. In the 1950s it was the availability of electronic computers that turned many meteorologists in the direction taken by Richardson much earlier“ (Nebeker 1995: 152). Wissenschaft l iche Programmierung 1956 begann mit der Einführung der mathematiknahen Programmier- sprache FORTRAN Formula Translator die Epoche des wissenschaftli- chen Programmierens. Der Grund, warum FORTRAN schnell zur Uni- versalsprache der wissenschaftlichen Programmierung avancierte, lag in 141 II WISSENSCHAFTSFORSCHUNG deren Philosophie, „a concise, fairly natural mathematical language“ (Herrick, Backus 1954: 112) für die Programmierung zu verwenden. 1954 wurden die meisten Programme noch direkt als kryptische Ma- schinenanweisungen an die Computer delegiert. Mathematik als natürli- che Sprache der Programmierung zu verwenden, basiert dabei zum einen auf der Logik der Computer als Rechenmaschinen, zum anderen auf der zunehmenden Mathematisierung der Natur- und Ingenieurswissenschaf- t n.1 e Beides erklärt den Erfolg dieser ersten Programmiersprache. „Fortran spread rapidly as it fulfilled a real need“ (Metcalf, Reid, Cohen 2004: 2).2 Bruce Rosenblatt, einer der ersten Anwender, bestätigte, dass es einfach und naheliegend war, FORTRAN zu lernen, dass es schnell an Studenten weitergegeben wurde und, vor allem, dass die Program- miersprache verfügbar war (vgl. Rosenblatt 1984). „The general availability of FORTRAN was probably one of the most impor- tant aspects of its perpetuation. There has been a synergistic effect in the case of the technical and scientific users. They built up great libraries of programs and subroutines that could be quickly put on new machines as they were intro- duced, providing they had a FORTRAN compiler. So it was fairly natural to build FORTRAN compilers for all of the new machines as they were intro- duced to the scientific and technical industry. […] Probably the most impor- tant thing about FORTRAN has been its adaptability. Subroutines, on-line computer programming, operating systems, and structured programming have all been added to FORTRAN systems naturally and easily. FORTRAN has been able to keep up with the latest ideas in programming art. Several lan- guages have been built on FORTRAN base: FORMAC, PROSPRO, in the process-control business, PLAGO in the construction business, SIMSCRIPT, and Vector FORTRAN, just to name a few. All this has helped FORTRAN and its work in the scientific community. […] In many scientific organiza- tions, the whole problem can be readily expressed in FORTRAN; therefore, there has been no incentive to switch“ (Rosenblatt 1984: 39, 40). 1 „Fortran’s superiority had always been in the area of numerical, scientific, engineering, and technical applications” (Metcalf, Reid, Cohen 2004: 3). Interessanter Weise lässt sich die Verbesserung von FORTRAN mit Ein- schränkung als ein frühes ‚open source’ Projekt verstehen. Der Austausch zwischen den Programmiersprachenentwicklern und Anwendern erfolgte über Treffen mit den Benutzergruppen. „Soon there were hundreds of cus- tomers making hundreds of suggestions for improvements. […] The sug- gestions just poured in, and we put them in as fast as we could“ (Heising 1984: 32). 2 „Inevitably dialects of the language developed, which led to problems in exchanging programs between computers, and so in 1966 the then Ameri- can Standards Association (later the American National Standards Institu- te, ANSI) brought out the first ever standard of a programming language, now known as Fortran 66” (Metcalf, Reid, Cohen 2004: 2). 142 2 FORSCHEN MIT ALGORITHMEN Die Akzeptanz von FORTRAN als Programmiersprache für wissen- schaftliche Modelle, die Adaption neuer Programmieranforderungen – nach FORTRAN O bis IV folgten FORTRAN f66, f77, f90, f95, 2003 und 2008 – sowie der permanente Zuwachs an programmierten Funktio- nen und Subroutinen der FORTRAN Libraries machen FORTRAN neben C, respektive C++, zur wichtigsten Programmiersprache der Wis- senschaft. Bis heute sind die meisten Wetter- und Klimamodelle in FORTRAN geschrieben. Abbildung 11: Klimamodellierer, der an der Parallelisierung des Modells arbeitet (Gramelsberger 2006) Die Folge der wissenschaftlichen Programmierung ist, dass seit den 1950er Jahren große Wissensbestände auf Basis codierter Theoriemodel- le in den Computer transferiert werden. Dies hat sowohl epistemische wie praktische Folgen für die Forschung. Die Praxis des wissenschaftli- chen Programmierens verändert die alltägliche Arbeitsweise der For- scher, denn die vorrangigen Arbeitsinstrumente sind nicht mehr die Mess- oder Experimentierapparate, sondern die Algorithmen und Daten. Konnte man vor der Einführung der Computer an den Tätigkeiten der Forscher meist ablesen, welcher Disziplin sie angehörten – wie dies bei- spielsweise Bruno Latour in seiner Studie über Bodenforscher mit Foto- grafien eindrucksvoll belegte (vgl. Latour 2000) – so lässt sich dies für die Computational Sciences nicht mehr erkennen. Ob ein Biologe, ein Klimaforscher oder ein Physiker vor dem Computer sitzen und ihrer Arbeit nachgeht, lässt sich von außen betrachtet nicht entscheiden. Alle tun dasselbe, sie schreiben Codes. Dies zeigt, dass der Computer eine enorme Vereinheitlichung der Forschungspraxis mit sich gebracht hat und dass sich diese Vereinheitlichung auch epistemisch, in die Computer 143 II WISSENSCHAFTSFORSCHUNG und Modelle hinein, fortsetzt. Deutlich wird dies daran, dass codierte Modelle Schnittstellen bieten, um algorithmierte Wissensbestände ande- rer Disziplinen einzubinden. Erdsysteme sind hierfür gute Beispiele. Sie fungieren dabei als Attraktoren für Interdisziplinarität. Ein Klimafor- scher formulierte es in einem Interview wie folgt: „Wir haben jetzt die Klimamodelle um Vegetationsmodelle erweitert, wir inte- ressieren uns für Mikrobiologie in den Böden, weil da Spurenstoffe aufge- nommen und abgegeben werden. Wir interessieren uns für marine Biosphäre, d.h. wir arbeiten mit Zoologen zusammen. Wir arbeiten teilweise mit Wirt- schaftswissenschaftlern zusammen, weil es auch um Emissionsszenarien, Energieszenarien usw. geht. [...] Meistens beginnt die Modellentwicklung erst als Folge der Zusammenarbeit. Einfach weil ein Mikrobiologe vielleicht Mo- dellvorstellungen entwickeln wird, um seine eigenen Messungen zu interpre- tieren. Aber das sind so klein-skalige Modelle, die können wir für Klimamo- dellierung überhaupt nicht verwenden. Wir arbeiten auf Skalen von Hunderten von Kilometern. Da versuchen wir Prozesse zu beschreiben, die vielleicht teilweise im Nanobereich liegen, wenn ich an Aerosolpartikel denke. Es ist ein neues Denken für viele Leute, dass solche Modelle in Zusammenarbeit ge- macht werden“ (Interview 1, 2003). Diese interdisziplinäre Zusammenarbeit setzt voraus, dass mathemati- sche Modellierung und Programmierung, ob in FORTRAN oder C++, zum Handwerkszeug einer Disziplin und ihrer Forscher gehören. Ohne diese gemeinsame Lingua franca der Modellierung und Programmierung wären die Fortschritte in den Computational Sciences nicht denkbar. Daher verwundert es nicht, dass dieselben mathematischen Gleichungen, Modelle und gegebenenfalls Programmteile sich in unterschiedlichen Disziplinen finden lassen. So werden beispielsweise die Navier-Stokes- Gleichungen der Strömungsdynamik sowohl in Atmosphären- wie Ozeanmodellen, als auch in medizinischen wie technischen Strömungs- simulationen verwendet. Dies legt die Schlussfolgerung nahe, dass die wissenschaftliche Programmierung mit Theorie in modulare Art und Weise verfährt, insofern „sich Stücke aus [mathematisierten] Theorien verschiedener Disziplinen herauslösen lassen, um sie als Bausteine einer neuen Theorie zu verwenden, wobei sich in den neuen Kombinationen deren Bedeutungen wandeln“ können (Lüdtke 1993: 112). Doch Wis- senschaft macht dies seit jeher, wenn es dem Forschungszweck dienlich ist, beispielsweise um komplexe Theorien oder Experimentalsysteme zu realisieren. Das Neue daran ist, dass nun mit Theorie ganz konkret in Form eines Baukastens – zusammengesetzt aus codierten Theoriebau- steinen wie in Erdsystemen – experimentiert werden kann. 144 2 FORSCHEN MIT ALGORITHMEN In-s i l ico Experimentalsysteme Solche Theoriebaukästen lassen sich auch als in-silico Experimentalsys- teme beschreiben. Das Adjektiv in-silico bezieht sich auf die siliziumba- sierten CPU Central Processing Units der Computerchips, also auf eine rein computerbasierte Realisation, während sich der Begriff des Experi- mentalsystems auf die Nutzung des Computers als Experimentierappara- tur b 3ezieht. Dabei handelt es sich um eine sehr spezielle Experimentier- apparatur, die rein im semiotischen Medium der Zahlen operiert. Hans- Jörg Rheinberger entwickelte in seiner Studie Experimentalsysteme und epistemische Dinge. Die Geschichte der Proteinsynthese im Reagenzglas den Begriff des Experimentalsystems am Beispiel biologischer Labor- forschung (vgl. Rheinberger 2002). „Der Begriff Experimentalsystem wird jedenfalls von Wissenschaftlern in der Biomedizin, Biochemie, Biologie und Molekularbiologie häufig benutzt, um die Rahmenbedingungen der eigenen Forschungsarbeit zu charakterisieren. Fragt man heute einen Biowissenschaftler, der im Labor tätig ist, nach seiner Arbeit, so wird er von seinem ‚System‘ erzählen und dem, was alles in diesem System passiert. Es ist also in erster Linie ein Begriff der Praktiker. […] Be- trachtet man Experimentalsysteme etwas näher, so wird man feststellen, daß in ihnen zwei verschiedene, jedoch voneinander nicht trennbare Strukturen inei- nandergreifen. Die erstere kann man als Gegenstand der Forschung im engeren Sinne, Wissensobjekte oder auch epistemische Dinge bezeichnen. Als episte- mische präsentieren sich diese Dinge in einer für sie charakteristischen, irre- duziblen Verschwommenheit und Vagheit“ (Rheinberger 2002: 23, 24). Um diese epistemischen Dinge zu erforschen, benötigen Forscher „stabile Umge- bungen, die man als Experimentalbedingungen oder als technische Dinge be- zeichnen kann; die epistemischen Dinge werden von ihnen eingefaßt und da- durch in übergreifende Felder von epistemischen Praktiken und materiellen Wissenskulturen eingefügt. Zu den technischen Dingen gehören Instrumente, Aufzeichnungsapparaturen und, in den biologischen Wissenschaften besonders wichtig, standardisierte Modellorganismen mitsamt den in ihnen sozusagen verknöcherten Wissensbeständen“ (Rheinberger 2002: 25). Die Beobachtung vor Ort zeigt, dass epistemische Objekte zu techni- schen werden können und umgekehrt. Tatsächlich ist Laborforschung ein komplexes Wechselspiel zwischen beiden Komponenten, das sich oft in jahrzehntelanger Forschungsarbeit entfaltet, bis es zu einem be- 3 In-silico grenzt sich dabei von üblichen Charakterisierungen wie in-situ (Experimente vor Ort), in-vivo (Experimente an lebenden Organismen), in-vitro (Experimente an organischen Prozesse außerhalb lebender Orga- nismen) ab. 145 II WISSENSCHAFTSFORSCHUNG friedigenden Ende kommt. Diese Perspektive auf die konkrete For- schung im Labor lässt den Werkstattcharakter der Experimentalsysteme sichtbar werden und widerspricht der wissenschaftstheoretischen Auf- fassung, dass Experimente wohldefinierte Verfahren seien, um Theorien zu prüfen. Geprüft werde, so Karl Popper 1935 in Logik der Forschung, „ob sich das Neue, das die Theorie behauptet, auch praktisch bewährt, etwa in den wissenschaftlichen Experimenten oder in der technisch- praktischen Anwendung. Auch hier ist das Prüfungsverfahren ein deduk- tives: Aus dem System werden (unter Verwendung bereits anerkannter Sätze) empirisch möglichst leicht nachprüfbare bzw. anwendbare singu- läre Folgerungen (‚Prognosen‘) deduziert [… und in] den Experimenten usw., entschi 4eden“ (Popper 1935/1989: 8). Solange ein eindeutiges System mathematisierter Sätze einer Theorie vorliegt, wie dies für die neuzeitliche Mechanik der Fall ist, dienen die Experimente der Überprüfung wie von Popper gefordert. Doch für die meisten Wissenschaftsbereiche ist die Situation weniger eindeutig. Das Experimentieren in der Realität der Labore folgt einer anderen For- schungslogik. Hier geht es weniger um die Überprüfung von theorieba- sierten Hypothesen und Prognosen, als um die Stabilisierung wissen- schaftlichen Wissens in einem unterdeterminierten Theorieraum flüchti- ger Phänomene und vager Vermutungen. Insofern sich diese im Laufe der Laborforschung nicht stabilisieren lassen, sind sie wissenschaftlich uninteressant. Es bedarf der Stabilisierung und des evidenten Nachwei- ses dieser Phänomene, um wissenschaftlich triftige Fakten zu generie- ren. Diese Fakten bedeuten nicht das Ende der Forschung, sondern meist deren Weiterführung unter neuen Bedingungen. Forschung in diesem Sinne verstanden ist ein rekursiver Prozess, dessen rekursive Differen- zialität sich aus der Einfügung und Weiterverarbeitung der gewonnenen 4 Ein solches Wissenschaftsverständnis geht von mathematisierten Theorien aus, deren Prognosen sich im Experiment in Form von Ja-/Nein- Antworten entscheiden lassen: „Aus der vorläufigen Antizipation, dem Einfall, der Hypothese, dem theoretischen System, werden auf logisch- deduktivem Weg Folgerungen abgeleitet; […] Dabei lassen sich insbeson- dere vier Richtungen unterscheiden, nach denen die Prüfung [der Folge- rungen] durchgeführt wird: der logische Vergleich der Folgerungen unter- einander, durch den das System auf seine innere Widerspruchslosigkeit hin zu untersuchen ist; eine Untersuchung der logischen Form der Theorie, mit dem Ziel, festzustellen, ob es den Charakter einer empirisch- wissen- schaftlichen Theorie hat, also z.B. nicht tautologisch ist; der Vergleich mit anderen Theorien, um unter anderem festzustellen, ob die zu prüfende Theorie, falls sie sich in den verschiedenen Prüfungen bewähren sollte, als wissenschaftlicher Fortschritt zu bewerten wäre; schließlich die Prüfung durch ‚empirische Anwendung‘ der abgeleiteten Folgerungen“ (Popper 1935/1989: 8, 9). 146 2 FORSCHEN MIT ALGORITHMEN Erkenntnisse generiert. Experimentalsysteme sind dabei „jene materiel- len Formationen oder Dispositionen der epistemischen Praxis, innerhalb derer Wissenschaftler die epistemische Produktion erzeugen, die sie als die ‚Resultate‘ ihrer Arbeit apostrophieren. Ein - positives – Resultat ist ein Befund, der im Prinzip als Komponente wieder in das System einge- baut werden und es damit erweitern und verändern kann“ (Rheinberger 2002: 146). Genau in dieser Weise charakterisiert sich auch die Verwendung von in-silico Experimentalsystemen in der täglichen Forschungspraktik. Ebenso wie die Experimentalsysteme der biologischen Laborforschung sind in-silico Experimentalsysteme evolvierende Systeme, die sich im Laufe der Forschung verändern, indem sie die erreichten Resultate in- korporieren und dadurch neue Forschung inspirieren. Im Falle der in- silico Experimentalsysteme lässt sich diese Evolution anhand des per- manent wachsenden Umfanges des Codes und der aufeinander folgen- den Modellversionen und -generationen explizit nachvollziehen. Eine Archäologie des Codes dieser Systeme würde deren Entwicklung re- konstruieren, da in-silico Experimentalsysteme keine materialen Forma- tionen sind, sondern rein zeichenbasierte Objekte. Betrachtet man ein konkretes, computerrealisiertes Experimentalsystem – im Rahmen dieser Studie wäre dies das Atmosphärenmodell ECHAM5 des Max-Planck- Instituts für M 5eteorologie – so wird bereits in der Modellbeschreibung, die jedem Wetter- oder Klimamodell beigefügt ist, auf den evolutionären Prozess der Generierung hingewiesen: „The fifth-generation of atmospheric general circulation model (ECHAM5) developed at the Max Planck Institute for Meteorology (MPIM) is the most recent version in a series of ECHAM models evolving originally from the spectral weather prediction model of the European Centre for Medium Range Weather Forecasts (ECMWF; Simmons et al. (1989))“ (Roeckner et al. 2003: 5). „The climate model ECHAM5 has been developed from the ECMWF op- erational forecast model cycle 36 (1989) (therefore the first part of its name: EC) and a comprehensive parametrisation package developed at Hamburg (therefore the abbreviation HAM). The part describing the dynamics of ECHAM is based on the ECMWF documentation, which has been modified to describe the newly implemented features and the changes necessary for cli- mate experiments. Since the release of the previous version, ECHAM4, the whole source code has been extensively redesigned in the major infrastructure and transferred to Fortran 95. ECHAM is now fully portable and runs on all 5 ECHAM5 ist, gekoppelt mit dem OM Ozeanmodell, eines der dreiund- zwanzig globalen Referenzmodelle des vierten IPCC Reports (vgl. IPCC AR4 WG1 2007). 147 II WISSENSCHAFTSFORSCHUNG major high performance platforms. The restart mechanism is implemented on top of netCDF and because of that absolutely independent on the underlying architecture“ (Roeckner et al. 2003: 7). Dieser evolutionäre Prozess der Generierung von Code macht deutlich, dass diese Systeme das Resultat einer kollaborativen Schreibarbeit zahl- reicher Autoren sind. Ein in-silico Experimentalsystem wie ECHAM5 ist ein Korpus aus gut zweihundert miteinander in Interaktion stehenden Dateien und hat sich über Jahre, oder gar Jahrzehnte, in Generationen von Modellversionen in einem kollektiven Schreibprozess entwickelt. Allerdings unterscheidet sich das Schreiben von Code vom herkömmli- chen Produzieren und Publizieren von Theorie in Artikeln oder Fachbü- chern ganz erheblich. In Forschungsberichten und Artikeln über Compu- termodelle finden sich Metaphern für diese neue Art des Schreibens wie ‚numerische Realisierung aktuellen Wissens‘, ‚komplexe mathematische Abbilder der Realität‘ oder ‚dynamisch-basierte Ansätze zur Systembe- schreibung‘. Oft ist in Gesprächen mit Modellieren von Reparatur oder Tricks di 6e Rede. Das Experimentalsystem wird als Experimentierma- schinerie objektiviert, an deren Schrauben man drehen kann, die sich notfalls mit behelfsmäßigen Tricks reparieren lässt. Schreiben in diesem Zusammenhang bedeutet, dass das was als Code notiert wird, aufgrund seiner Operativität funktionieren muss. Lässt sich Theorie durch Beob- achtung, Messung oder Argumente bestätigen, so muss codierte Theorie zu aller erst funktionieren, also auf dem Computer laufen, bevor damit wissenschaftlich gearbeitet werden kann. Dazu müssen alle Fehler be- hoben sein, welche zu einem Computerabsturz führ n könn n.7e e 6 Beispielsweise: „Eine einfache Reparatur [der Klimadrift], etwa durch Modifikation der Parametrisierung des Impulsflusses an der Ozeanober- fläche ist nicht möglich, so dass als einzige Möglichkeit langwieriges Ausprobieren bleibt. Diese Möglichkeit ist jedoch in der Regel einfach aus Gründen der Rechenzeit nicht gegeben. […] Man versucht stattdessen mit Hilfe eines unphysikalischen Tricks, der Flusskorrektur (flux adjustment), diese Klimadrift zu vermeiden. […] Der Trick besteht nun darin, dass man die zeitlich gemittelten Differenzen dieser Felder [Felder für Wärmeflüsse, die von den Teilmodellen separat auf Basis vorgegebener Meeresoberflä- chentemperaturen berechnet wurden] in den Flüssen zwischen Ozean und Atmosphäre im Zuge der gekoppelten Rechnung immer wieder hinzufügt“ (von Storch, Güss, Heimann 1999: 127, 128). 7 Fehler der codierten Theorie sind dabei noch nicht berücksichtigt. Anders gewendet: Auch wenn das Modell läuft und Resultate produziert, bedeutet dies nicht, dass es wissenschaftlich korrekte Resultate liefert. Da die mate- rielle Widerständigkeit als experimentelles Korrektiv fehlt, müssen neue Evaluationsstrategien für die in-silico Forschung entwickelt werden. 148 2 FORSCHEN MIT ALGORITHMEN Dieser Entstehungs- und Veränderungsprozess eines computerrealisier- ten Experimentalsystems wird nicht nur in den Modellbeschreibungen dokumentiert, sondern auch in den Kommentaren in den einzelnen Dateien. Im Unterschied zu Forschungsergebnissen, die klassisch in Form von wissenschaftlichen Artikeln und Vorträgen publiziert werden, stellen die Modellbeschreibungen und -programme selbst eine neue Textform dar, die sich eventuell mit Laborbüchern vergleichen lässt. Die Möglichkeit, Kommentare in Programmdateien zu schreiben, erlaubt es, Informationen über das Experimentalsystem in den Dateien zu spei- chern. Üblicherweise werden so die Autoren eines Modells oder einer Datei benannt, die verwendeten Konzepte unter Hinweis auf die Fachli- teratur referenziert sowie Beschreibungen einzelner Funktionen oder Restriktionen des Modells gegeben. In Abbildung 12 is dies anhand der Wolkendatei cloud.f90 des Atmosphärenmodells ECHAM5 dargestellt. Unabhängig vom Code erschließt sich über die Kommentare die Ge- schichte des Experimentalsystems. Wie umfangreich der Kontext eines Modells rekonstruiert werden kann, hängt davon ab, wie sorgfältig der Code kommentiert wurde. 149 II WISSENSCHAFTSFORSCHUNG *Cloud* computes large-scale water phase changes, precipitation, ! Subject. ! -------- ! 35: ! This routine computes the tendencies of the four prognostic ! variables (temperature t, specific humidity q, cloud liquid ! water xl, cloud ice xi) due to phase changes (condensation/ ! deposition, evaporation/sublimation of rain/snow falling ! into the unsaturated part of the grid box, melting of snow, 40: ! melting/freezing of cloud ice/cloud water, sedimentation of ! cloud ice, and precipitation formation in warm, cold and ! mixed phase clouds. ! The precipitation at the surface (rain and snow) is used in ! later for computing the land surface hydrology in *surf*. 45: ! The cloud parameters (cloud cover, cloud liquid water and ! cloud ice are used for the calculation of radiation at the ! next timestep. […] 110: ! References. ! ---------- ! ! Lohmann and Roeckner, 1996: Clim. Dyn. 557-572 ! Levkov et al., 1992: Beitr. Phys. Atm. 35-58.(ice phase) 115: ! Beheng, 1994: Atmos. Res. 193-206.(warm phase) ! Lenderink et al., 1998; KNMI-REPORT NO. 98-13 (condensation) ! Tompkins 2002, J. Atmos. Sci. (cloud cover) ! ! Authors. 120: ! ------- ! M.Esch MPI-Hamburg 1999 ! G.Lenderink KNMI, de Bilt 1998 ! U.Lohmann MPI-Hamburg 1995 ! 125: ! Modifications. ! -------------- ! E.Roeckner MPI-Hamburg 2000 ! A.Tompkins MPI-Hamburg 2000 ! U.Schlese MPI-Hamburg 2003 Abbildung 12: Kommentare zu Beginn der cloud.f90 Datei des Atmosphärenmodells ECHAM 5 (MPI-Met 15. Juli 2005) Um den kollektiven Schreibprozess am Modell innerhalb einer Institu- tion zu koordinieren und um jede Änderung des Codes sichtbar und nachvollziehbar zu machen, nutzen die Forscher CVS Concurrent Ver- sioning Systeme. CVS Systeme sind gängige Instrumente der Software- entwicklung, um Programmierern die aktuellste Version einer Datei für Überarbeitungen zur Verfügung zu stellen, um eine Historie der Ände- rungen anzulegen und um die Autoren der Änderungen zu registrieren und zu dokumentieren, wie in Abbildung 13 dargestellt. Dies ist für ein in-silico Experimentalsystem von entscheidender Bedeutung, denn jede Änderung des Codes verändert die codierte Theorie und damit das Expe- rimentalsystem. Ein Klimamodellierer formulierte es folgendermaßen: „Wenn ich mit einem Kollegen bespreche, was ich an einem Modell än- dern möchte, dann bespreche ich das im Detail und gehe unter Umstän- den in den Code. Wir schauen uns ein paar Zeilen vom Code an und sa- 150 2 FORSCHEN MIT ALGORITHMEN gen, das und das möchten wir ändern oder das und das habe ich geän- dert“ (Interview 6, 2005). Welche Änderungen im Laufe der Modellver- besserung dabei durchgeführt werden, ist Teil der sozialen Forschungs- praxis in Form von Entscheidungen und Aushandlungen. Da die Dyna- mik für alle Zirkulationsmodelle dieselbe ist, variieren die Modelle in der Ausgestaltung des Klimasystems mit klimarelevanten Prozessen und in der Art, wie diese Prozesse parametrisiert und programmiert sind. Dies macht den Unterschied der verschiedenen Klimamodelle aus. Abbildung 13: Änderungen der cloud.f90 Datei des Atmosphärenmo- dells ECHAM5 von Version 5.0.00 bis 5.3.01 (MPI-Met 2006) 151 II WISSENSCHAFTSFORSCHUNG Die permanenten Verbesserungen und Veränderungen am Code lassen aktuelle Klimamodelle zu komplexen Strukturen anwachsen, deren Ein- bettung in die Rechnerumgebung sich nicht einfach gestaltet. Denn auch die Rechnerumgebung ist durch Supercomputercluster, verteiltes Rechnen und Grid-Computing zunehmend komplexer und serviceintensiver ge- worden. Dies führt dazu, dass die Modelle durch adäquates Software- Engineering für die jeweilige Computerarchitektur optimiert werden müs- sen. Bei der zunehmenden Größe der Modelle erfordert dies ein neues Programmierparadigma, das die Kapselung der Programmteile vornimmt und dadurch die Komplexität eines Modells reduziert. Indem gekapselte Teile als geschlossener Baustein oder Blackbox definiert werden, lassen sich diese als Module über Schnittstellen für die Dateneingabe und - ausgabe ansteuern. „Was man dabei kapseln muss, ist nicht die Routine, die wissenschaftliche Rechnungen ausführt (z.B. Vertikaldiffusion oder allgemein Advektion),“ wie ein Klimaforscher im Interview verdeutlichte, „sondern die Verwaltung von Feldern, der Zeitsteuerung des Modells, der Parametrisierung. So entstehen Schnittstellen, an welchen man Pro- grammteile einhängen kann, für die die benötigten Variablen geliefert und am Ende ausgeschrieben werden. Dafür gibt es Mechanismen, die einfach zu übersehen sind und die man benutzen kann. Und dann können die Wis- senschaftler ihren Code einklinken“ (Interview 7, 2005). Der Code wird dadurch in Module zerlegt, die dann zu verschiedenen Experimentalsys- temen kombiniert werden können. Auf diese Weise lassen sich auch ältere Modellteile einfügen, Standardisierungen einführen und Modellkompo- nenten ohne viel Aufwand in noch größere Systeme einbinden. Die Software-Einbettung auf diese Weise zu verbessern, ist eine ak- tuelle Herausforderung vor der die Klimamodellierung steht, insbeson- dere wenn sie Erdsysteme realisi 8eren will. „Das Hauptaugenmerk wird dabei darauf gelegt, möglichst allgemeine Lösungen zu entwickeln, die nicht nur in anderen Erdsystem-Modellen, sondern auch für andere Fra- 8 Dabei gilt es, die Autonomie der Forscher bei der Erstellung codierter Theorie zu erhalten. Die Delegation der Programmierung eines Modells an fachfremde Programmierer ist ein heikles Unterfangen, weil Programmie- rung hier wissenschaftliche Modellierung codierter Theorie bedeutet. An- dererseits erfordert die zunehmende Komplexität der Rechnerarchitekturen die verstärkte Unterstützung durch Programmierer. Informatiker arbeiten jedoch meist mit anderen Programmiersprachen und wesentlich elaborier- teren Softwarekomponenten als Wissenschaftler, für die die Programmie- rung lediglich ein Mittel zum Zweck ist. Der Einsatz professioneller Pro- grammierer kann einerseits eine unbeabsichtigte Einflussnahme auf die Theorie bedeuten, aber andererseits auch neue Potenziale eröffnen. Da diese Entwicklungen mit Standardisierungen einhergehen, vereinfacht es beispielsweise den Modellvergleich und damit die Evaluierung der Model- le. 152 2 FORSCHEN MIT ALGORITHMEN gestellungen und auch in Disziplinen außerhalb der Klimaforschung, wie beispielsweise der Strukturmechanik und der Strömungsmechanik, Anwendung finden können. Dies geschieht insbesondere durch modula- re Kapselung von Einzelaufgaben“ (MPI Met 2008: 3). Auf diese Weise werden zunehmend komplexere und modularere Theoriebaukästen in den Computational Sciences realisiert. Die forschungspraktische Idee dabei ist, nicht nur immer umfangreichere Experimentalsysteme kolla- borativ zu realisieren, sondern ein, auf die jeweilige Forschungsfrage hin zugeschnittenes Experimentalsystem nur für das jeweilige Experiment zusammenstellen zu können. Daher ist die Idee, die codierte Theorie in eine avancierte Software-Einbettung einzuklinken eine zukunftsweisen- de Weiterentwicklung der aktuellen Forschungspraxis mit in-silico Ex- perimentalsystemen. Im vollen Umfange soll diese Idee im Rahmen der US-amerikanischen Initiative des ESMF Earth System Modeling Fra- meworks Wirklichkeit werden. „The Earth System Modeling Framework (ESMF) collaboration is building high-performance, flexible software infrastructure to increase ease of use, per- formance portability, interoperability, and reuse in climate, numerical weather prediction, data assimilation, and other Earth science applications. The ESMF defines an architecture for composing complex, coupled systems and includes data structures and utilities for developing individual models. We are aiming to create a framework usable by individual researchers as well as major opera- tional and research centers, and seek to engage the community in its develop- ment. The basic idea behind ESMF is that complicated applications should be broken up into smaller pieces, or components. A component is a unit of soft- ware composition that has a coherent function, and a standard calling interface and behavior. Components can be assembled to create multiple applications, and different implementations of a component may be available. In ESMF, a component may be a physical domain, or a function such as a coupler or I/O system. ESMF also includes toolkits for building components and applica- tions, such as regridding software, calendar management, logging and error handling, and parallel communications“ (ESFM 2009: About ESFM) Allerdings besteht bei diesem plug-n-play Konzept die Gefahr, die Autonomie der Forscher zu unterlaufen. Plug-n-play meint das nutzer- orientierte Zusammenstecken benötigter Modellkomponenten analog einem Baukastensystem, ohne die Teile im Detail kennen und anpassen zu müssen. Das setzt eine Software-Einbettung voraus, die die Modell- komponenten als funktionale Blackboxes nicht nur kapselt, sondern ab- kapselt. Selbst unerfahrene Anwender können dann Experimente auf Knopfdruck ausführen. Der Modellcode wird in dieser Konzeption als abgeschlossene Funktionsmaschinerie zur Produktion von Outputdaten 153 II WISSENSCHAFTSFORSCHUNG definiert. Forschung und Programmierung werden dadurch strukturell wie organisationell auseinanderdividiert. Programmierten die Forscher in FORTRAN die Modelle bisher selbst, so erfordern solche großen Modellsysteme einen operationellen Betrieb. Atmosphärenmodel l Die konkrete Ausgestaltung eines in-silico Experimentalsystems lässt sich am Beispiel des Atmosphärenmodells ECHAM5 beschreiben. Dabei re- präsentiert ECHAM5 ein ‚state-of-the-art‘ Experimentalsystem der aktu- ellen Klimaforschung. Es ist eines von dreiundzwanzig Referenzmodel- len, die für die Szenarienberechnungen des vierten IPCC Reports ver- wendet wurden (vgl. IPCC AR4 WG1 2007). ECHAM5 besteht aus gut zweihundert Dateien, welche in ihrer Gesamtheit die Prozesse der Atmo- sphäre darstellen. Dabei teilen sich die Dateien in zwei Gruppen auf: Dateien, welche die globale Dynamik beschreiben und Dateien, welche die subskalige Parametrisierungen modellieren. Die Dynamik der Atmo- sphäre ergibt sich, wie bereits ausführlich dargestellt, aus den Wechsel- wirkungen der sieben Zustandsgleichungen der meteorologisch Variablen (Temperatur, Druck, Dichte, Feuchte sowie die Windgeschwindigkeit in drei Richtungen), die im Modell in diskretisierter Form global beschrie- ben sind. Hinzukommen die Wirkungen der Energieflüsse – solare Ein- strahlung und terrestrische Abstrahlung in Abhängigkeit von dem jeweili- gen Reflexionsvermögen der Oberflächen – auf die Dynamik, die Wärme- flüsse der fluiden Medien Atmosphäre und Ozeane sowie die Energie- transporte der Wasserkreisläufe. Die Dynamik des Klimas ergibt sich aus den globalen Zirkulationsprozessen, die durch die Ungleichgewichte der Energiezufuhr und -abfuhr in Gang gehalten werden. Dabei spielt die Ad- vektion, die sich aus der verstärkten Einstrahlung in den Tropen und der verstärkten Abstrahlung in den polaren Gebieten ergibt, eine wichtige Rolle: Erwärmte Luft- oder Wassermassen fließen in kältere Regionen (sensibler Wärmefluss). Aber auch die Konvektion, das Aufsteigen er- wärmter Luftschichten in der Atmosphäre und die daraus entstehenden Druckunterschiede, durch das seitliche Abfließen warmer Luftmassen, ist ein maßgeblicher Faktor. Denn die räumliche Differenz von Druck und Temperatur erzeugt als eine Art Wärmekraftmaschine Bewegung in Form mechanischer Energie, also Strömung. Ein weiterer, im Modell zu be- schreibender Faktor ist die Erdrotation, deren Effekt von den Tropen zu den Polen, abhängig vom relativen Abstand zur Rotationsachse der Erde, zunimmt und ein komplexes Zirkulationsmuster zur Folge hat. 154 2 FORSCHEN MIT ALGORITHMEN Zu diesen globalen Prozessen gesellen sich lokale und regionale Ef- fekte, die von den topographischen Gegebenheiten beeinflusst werden. Darüber hinaus unterliegt das klimatische Geschehen natürlichen Varia- bilitäten wie dem Jahres- und Tagesgang, Wetterereignissen und inter- annualen Anomalien wie den ENSO El Niño-Southern Oscillation Phä- nomen, der Nordatlantik Oszillation oder Sonnenflecken. All dies muss in seiner Wechselwirkung codiert und dem Modell hinzugefügt werden. Dasselbe gilt für die zahlreichen klimarelevanten Prozesse, die sich unterhalb der Auflösungsgrenze des Modells vollziehen. Sie werden als subskalige Parametrisierungen in das globale Modell integriert. Dazu gehören beispielsweise der Einfluss der Aerosole oder der Wolkenbil- dung. Das maßgebliche Ziel eines jeden Klimamodells ist es, die Ener- giebilanz des Klimasystems adäquat zu errechnen. Gleichen sich die Energieflüsse der Ein- und Ausstrahlung nicht aus, ergibt die Bilanz einen Nettofluss in Form von Erwärmung bzw. Abkühlung.9 Abbildung 14: Ortsfeste Volumen (l.) sowie Zu- und Abflüsse in einem Volumen (r.) (DKRZ 2000, von Storch, Giss, Heimann 1999: 100) 9 Ohne Atmosphäre würde die Strahlungsbilanz der Erde eine gemittelte Temperatur von -15° ergeben, während das globale Temperaturmittel dank des Treibhauseffekts der Atmosphäre bei +15° liegt. Bereits 1896 stellte der Meteorologe Svante Arrhenius mit einem einfachen (nulldimensiona- len) EBM Energiebilanzenmodell – Einstrahlung, kurzwellige Rückstreu- ung und langwellige Ausstrahlung – die Theorie der Erderwärmung durch Treibhausgase auf (vgl. Arrhenius 1986, 1903). Die Temperaturänderung und damit der Nettofluss hängen dabei vom Wärmespeichervermögen der Erdoberflächen ab. Allerdings erfassen nulldimensionale EBMs nur ein global gemitteltes Gleichgewicht der Strahlungsenergien und vernachläs- sigen die Energietransporte von den Tropen zu den polaren Breiten. Ein- dimensionale EBMs modellieren diesen Energietransport als Band aus Modellvolumina vom Nord- zum Südpol. Dabei werden die an sich drei- dimensionalen Energietransporte im eindimensionalen Modell als Volu- menmischung vereinfacht: Ein warmes Volumenelement kühlt ab, wäh- rend das benachbarte Element sich erwärmt. Zweidimensionale EBMs er- lauben es, die Energieflüsse horizontal und vertikal darzustellen. Aufgrund der steigenden Rechenkapazitäten basieren heutige Klimamodelle auf dreidimensionalen, globalen Zirkulationsmodellen, so genannten GCMs Global Circulation Models. 155 II WISSENSCHAFTSFORSCHUNG Die beschriebenen Prozesse, die Dynamik wie die Parametrisierungen, finden Eingang in ein globales Atmosphärenmodell wie ECHAM5 und konstituieren ein komplexes in-silico Experimentalsystem. Doch um ein solches Experimentalsystem auf dem Computer zum Laufen zu bringen, bedarf es geeigneter Modellierungsstrategien, um die verschiedenen Pro- zesse im endlichen Berechnungsraum des Computers in effektiver Zeit zu realisieren. Das basale Konzept numerischer Klimamodellierung besteht nun darin, das Klimaverhalten als Wirkung auf Fluide in ortsfesten Vo- lumenelementen zu betrachten, wie in Abbildung 14 dargestellt. Ein Zir- kulationsmodell beschreibt also, wie sich der Zu- und Abfluss der Mas- senelemente in einem Volumenelement verhält (Kontinuitätsgleichung), wie sich die Energieumwandlung darstellt (Energiebilanzen für Strahlung, Wärme, mechanischer Energie), welche Kräfte auf die Fluide wirken und wie sich dadurch der Betrag und die Richtung ihrer Geschwindigkeit ver- ändern (Impulserhaltung: Bewegungsgleichungen bzw. Navier-Stokes- Gleichungen), wie die Zu- und Abnahme der Beimengungen vonstatten geht (Transportgleichungen für Salz, Wasserdampf, Spurengase, Wasser etc.) und wie sich die Dichte der Fluide in Abhängigkeit von Druck, Temperatur und Wassergehalt wandelt (Zustandsgleichungen). All diese Gleichungen beeinflussen sich wechselseitig. Sie sind die Grundlage der Klimasimulation, die für jedes Volumenelement den Zustand der sieben Variablen berechnet (vgl. von Storch, Giss, Heimann 1999). Hinzukom- men die subskaligen Prozesse, die sich innerhalb der Volumenelemente abspielen und als Parametrisierungen in die Berechnungen einfließen. Sobald die Programmierung einer Modellvariante, beispielsweise für ECHAM5, abgeschlossen ist, kann damit experimentiert werden, sei es zu Testzwecken, für die Forschung oder für die Erstellung von Prognosen. Doch das Experimentieren mit in-silico Experimentalsystemen unter- scheidet sich in zwei Punkten grundlegend von den realweltlichen Expe- rimenten im Labor: Zum einen gehen die Forscher nicht direkt mit Mate- rialitäten und Objekt-Welten um, sondern lediglich mit Repräsentationen davon, in Form von Messwerten und konzeptuellen Zeichenäquivalenten. Dieser Unterschied ist entscheidend, denn während im Labor die Widers- tändigkeit des Materiellen über das experimentelle Gelingen oder Schei- tern entscheidet, fehlt diese Widerständigkeit im rein Semiotischen der in- silico Experimentalsysteme. Daher braucht es neue Kriterien der Falsifi- zierung für Computerexperimente oder, positiv gewendet, neuer Evalua- tionsstrategien. Zum anderen bewegen sich die Experimente mit in-silico Experimentalsystemen in überdeterminierten Theorieräumen, denn diese Systeme sind als Theoriebaukästen konzipiert. Die Frage, welcher For- schungslogik sie dabei unterliegen – der Popperschen Variante der Über- prüfung von theoriebasierten Hypothesen und Prognosen oder der Logik 156 2 FORSCHEN MIT ALGORITHMEN der Laborforschung – ist einfach zu beantworten. Es handelt sich um eine neue Art des Experimentierens mit Theorien, die dem Experimentieren in den Laboren der Biologen ähnelt. Denn die Neukombination modularer Theoriebausteine erzeugt neue Bedingungen, die es anhand des simulier- ten Systemverhaltens zu erforschen gilt. Der Werkstattcharakter der in- silico Experimentalsysteme zeigt sich in den Tausenden von Codezeilen. Jede Änderung der Programmierung verändert gleichzeitig das Experi- mentalsystem und das theoriebasierte Setting wie auch das Experiment. Forschung mit Computerexperimenten gleicht daher eher einem perma- nenten Rekonfigurieren, Differenzieren und (Re-)Arrangieren als einem exakt definierten, deduktiven Frage-und-Antwort-Vorgang. Rechnen a ls Experiment Experimentieren mit in-silico Experimentalsystemen bedeutet im Kon- kreten, dass Simulationsläufe durchgeführt werden. Ein Klimamodellie- rer beschreibt diese Art des Experimentierens wie folgt: „Wir sprechen von Experimenten. Wir betrachten das Modellsystem als Labor. Wir machen ein Experiment, wo wir etwas ändern und sehen, was heraus- kommt. Das sind Computerexperimente, die wir ja in der Natur nicht durchfüh- ren können oder sollten. […] Letztendlich ist die Herangehensweise ganz ähn- lich wie bei jemanden, der Messungen durchführt. Wir ändern etwas in der Mo- dellanordnung, im System, und schauen dann, wie reagiert das System darauf und versuchen es zu verstehen. Im Idealfall läuft es so: Die Messleute finden irgendetwas, was sie sich nicht erklären können. Und dann versucht man es mit dem Modell zu erklären, versucht es zu simulieren. Das sind für uns die interes- santeren Aufgaben. Man hat eine Frage, die man beantworten will. Häufig ist es umgekehrt, etwas ironisch formuliert, dass wir jede Menge Antworten produzie- ren und uns dann auf die Suche nach den Fragen machen“ (Interview 1, 2003). Konkret bedeutet dies, dass die einzelnen Dateien eines Atmosphärenmo- dells entsprechend einem festgelegten Schema, wie in Abbildung 15 dar- gestellt, nacheinander ablaufen, um so – ausgehend von Anfangswerten basierend auf Messdaten für t0 – den Zustand der meteorologischen Va- riablen für den Zeitpunkt t1 zu berechnen. Indem die Resultate von t1 als Anfangszustand für die Berechnung von t2 verwendet werden, usf., rech- net sich das Modell Zeitschritt für Zeitschritt in die Zukunft, oder auch zurück in die Vergangenheit. In ihrer Gesamtheit bilden die Dateien das in-silico Experimentalsystem. Die spezifischen Messdaten zur Initialisie- rung der Simulation, die gewählte räumliche und zeitliche Auflösung so- wie die spezifischen Werte für Parameter, Konstanten und Randbedin- 157 II WISSENSCHAFTSFORSCHUNG gungen charakterisieren als Modellkonfiguration das Experiment. Diese Informationen sind in so genannten batch files gespeichert und initialisie- ren das Experiment. Batch files beinhalten Anweisungen über den Start des Programms, über die Modellkonfigurationen des konkreten Experi- ments, über die Anzahl der benötigten Prozessoren, das Abspeichern der Zwischenschritte (Ausschreiben der berechneten Daten für einen Zeit- schritt) sowie die Nachbereitung der Resultate. Für die wissenschaftliche Spezifikation des Experiments sind vor allem die Modellkonfigurationen der Anfangs- und Randbedingungen des Experiments von Bedeutung. Die in netCDF Network Common Data Form, einem der Standardformate wissenschaftlicher Datendarstellung, gespeicherten Anfangsdaten (Mess- werte) werden als Anfangsbedingungen in das Programm eingelesen. Nach dieser Initialisierung erfolgt die lineare Abarbeitung der im Quell- code beschriebenen Anweisungen von Zeitschritt zu Zeitschritt. Dabei werden die Dateien in einer festgelegten Reihenfolge aufgerufen und durchlaufen, bis die Ergebnisse für den ersten Zeitschritt vorliegen und im gängigen netCDF Format in eine Datenbank ausgeschrieben werden. Die- se Daten dienen dann der Initialisierung der Berechnung des nächsten Zeitschritts. Auf diese Weise arbeitet sich das Modell voran. Die Mo- mentaufnahmen der einzelnen Zeitschritte lassen sich später als Grafiken, Bilder oder als animierter Film der Klimaentwicklung visualisieren.  Abbildung 15: Dateidurchlauf von links nach rechts während der Be- rechnung des Atmosphärenmodells ECHAM5. Der Pfeil markiert die cloud.f90-Datei des Modells (Gramelsberger 2006) 158 2 FORSCHEN MIT ALGORITHMEN Bevor Simulationsläufe jedoch zu Prognosezwecken genutzt werden können, bedarf es einer ausreichenden Testphase zur Evaluation des Modells anhand von Messdaten. Für das Atmosphärenmodell ECHAM5 dauerte diese Testphase im Zuge der Modellrechnungen für den vierten IPCC Bericht gut zwei Jahre. In dieser Zeit wurde, jeweils als Antwort auf die Testergebnisse, die Modellierung immer wieder verbessert. Aber auch während eines Experiments mit einer getesteten Modellversion werden immer wieder Testläufe in höherer Auflösung durchgeführt, um die Stabilität der Resultate während des Experiments zu kontrollieren. Ein experimentelles Setting besteht daher aus Szena- rien- und Testläufen. Ein konkretes Experiment, das 2003 der Evaluation von ECHAM5 dien- te, waren die Simulationsläufe zur Wetterlagenklassifikation von Jana Sillmann (vgl. Sillmann 2003). Das Experiment basierte auf der Zuord- nung atmosphärischer Zirkulationsmuster zu bestimmten Wetterlagen eines konzeptuellen Wetterlagenmodells (vgl. Enke, Spekat 1997) an- hand vergleichbarer Simulationsläufe mit dem gekoppelten Atmosphä- ren-Ozeanmodell ECHAM5/MPI-OM1 und dem ungekoppelten ECHAM5 Atmosphärenmodell. Die experimentell zu bestimmenden Leitgrößen waren dabei die gemittelte Tagessumme der Niederschläge (Klassifikation von „sehr trocken“ bis „sehr starker Niederschlag“ ge- mäß der Niederschlagsmenge) sowie die gemittelte maximale Tempera- tur (Klassifikation „extrem kalt“ bis „extrem warm“ anhand jahreszeit- lich bedingter Temperaturzuweisungen). Mit dem Experiment sollte die Prognosegüte des Modells für die Bestimmung der Wetterlagen eines konkreten Tages im Jahresverlauf getestet werden. Im Ergebnis wiesen die im Experiment berechneten Wetterklassen beider Modellvarianten gegenüber den Messdaten (NCEP/NCAR-Datensatz) eine neunzig- prozentige Prognoserate für die Temperatur und eine achtzig-prozentige für den Niederschlag auf.10 Darüber hinaus zeigte das Experiment in Hinblick auf die Evaluierung des gekoppelten Modells, dass die „relati- ven Häufigkeiten der Wetterlagen aus den ECHAM5/MPI-OM1 Mo- delldaten im Vergleich zu den NCEP/NCAR-Reanalysen deutlich zu kälteren Wetterlagen hin verschoben [waren]. Dies kann hauptsächlich durch den systematischen Fehler im ECHAM5/MPI-OM1 Modell be- gründet sein, welcher einen so genannten ‚cold bias‘ über Eurasien ver- 10 Der NCEP/NCAR-Datensatz ist ein Referenzdatensatz des US-amerikani- schen NCEP National Centers for Environmental Prediction und dem NCAR National Center for Atmospheric Research, der eine modellbasierte Reanalyse von Messdaten für einen bestimmten Zeitraum zusammenstellt (vgl. NCEP/NCAR 2009: Reanalysis). 159 II WISSENSCHAFTSFORSCHUNG ursacht. Das bedeutet, dass das gekoppelte Modell generell über Europa zu kalt ist. Der Temperaturfehler kann bis zu -10°C über Eurasien betra- gen. Dieser systematische Fehler wirkt sich besonders im Winter auf die Häufigkeitsverteilung der Wetterlagen des ECHAM5/MPI-OM1 Mo- dells aus“ (Sillmann 2003: 28). Auf Basis dieser Ergebnisse lässt sich dann nach Ursachen für die- sen ‚cold bias‘ suchen, um das Modell zu verbessern. Aber das Experi- ment gab noch weitere Einblicke in das Modellverhalten. Interessanter Weise zeigte sich, dass die Szenarienläufe des gekoppelten Modells die Wetterlagen schlechter repräsentieren als die Szenarienläufe des unge- koppelten Atmosphärenmodells. Darüberhinaus wurde deutlich, dass die Wahl des Zeitpunkts für das Ausschreiben der Ergebnisdaten der Szena- rienläufe (0 UTC, 12 UTC) auf die Berechnung der gemittelten maxima- len Temperatur einen wesentlich größeren Einfluss hatten als auf die ebenfalls untersuchten Niederschlagswerte. Der Versuch, diese Ergeb- nisse zu verstehen, vermittelt einen Eindruck von der Komplexität des Experimentierens mit in-silico Experimentalsystemen. „Die Wetterlagen im Temperaturregime werden vor allem durch die Schicht- dicke 1000/850 hPa und 1000/700 hPa bestimmt. Diese auch als relative To- pographie bezeichnete Schichtdicke wird wiederum vom Tagesgang der Tem- peraturen beeinflusst. Da die veränderte Schichtdicke direkt Einfluss auf die Berechnung der Wetterlagen nimmt, können Unterschiede im Tagesgang der Temperaturen bzw. der Veränderung der relativen Topographie in den ECHAM-Modellversionen zu unterschiedlichen Ergebnissen in der eindeuti- gen Zuordnung der Wetterlagen im Wetterlagenklassifizierungsmodell führen. Besonders im Frühling und Sommer treten größere Differenzen zwischen Tag- und Nachttemperaturen auf, so dass in diesen Jahreszeiten der Temperatur- unterschied zwischen 0 und 12 UTC bemerkbare Unterschiede in der eindeuti- gen Wetterlagenzuordnung hervorruft. Das Modell ECHAM5/MPI-OM1 weist eine höhere Sensitivität in diesen Vorgängen auf. Veränderungen in dieser Modellversion hinsichtlich der Parametrisierung einiger Prozesse, wie Wol- kenbildung, saisonale Vegetation und Albedo wirken sich eventuell stark auf die Tages- und Nachttemperaturen aus und beeinflussen so die geopotentielle Höhe bzw. relative Topographie“ (Sillmann 2003: 60). Ähnlich wie in den Laboren der Biologen sind die experimentellen Er- gebnisse Ausgangspunkt für weitere Modifikationen des Experimental- systems. Denn nur durch Rekonfigurationen von Teilen des Codes sowie neuen Experimenten kann herausgefunden werden, warum beispielswei- se die Wahl des Zeitpunkts einen so großen Einfluss auf die Resultate hat. Dies ist nur ein Beispiel der Fehler- und Problemsuche, das während einer Testphase oder auch während der Forschung mit in-silico Experi- 160 2 FORSCHEN MIT ALGORITHMEN mentalsystemen hervortreten kann. Während jedoch im realweltlichen Labor die Forscher bei „der Konfiguration und Rekonfiguration episte- mischer Dinge […] auf mehr oder weniger hartnäckige Widerstände und Widerspenstigkeiten des Materials, mit dem sie umgehen“ stoßen (Rheinberger 2002: 245), werden die Forscher im Computerlabor mit einer anderen Art von Widerständigkeiten konfrontiert. Da aber selbst im biologischen Labor, die „Wissenschaftsobjekte, nicht als materielle Dinge an sich, sondern als epistemisch konfigurierte Objekte“ angese- hen werden müssen, hat man es auch hier mit „ständig im Fluß befindli- chen transversalen Verkettungen von Darstellungen“ zu tun (Rheinber- ger 2002: 246). Analog dazu lassen sich die Wissenschaftsobjekte der in-silico Experimentalsysteme ebenso als transversale Verkettungen von Darstellungen charakterisi 11eren. Allerdings handelt es sich um codierte Formen von Darstellungen, die anderen Bedingungen unterliegen, wie zu zeigen sein wird. Story Te l l ing with Code Ein Klima- oder Erdsystem erhebt den Anspruch, die relevanten klimati- schen Prozesse unseres Planeten adäquat zu modellieren. Mit Submodel- len und hunderten von Prozessen wird dabei eine bestimmte Geschichte des Klimasystems erzählt, die in der Tradition einer bestimmten Sicht- weise der Naturwissenschaft auf das realweltliche Klima steht. Diese Sichtweise hat sich im Laufe der letzten vierhundert Jahre entwickelt und verfeinert. Sie zeigt sich in der Quantifizierung und Mathematisie- rung realweltlicher Phänomene, in deren Modellierung und, mit der Er- findung der elektronischen Rechenmaschinen, in der Codierung und computerbasierten Ausführung eben dieser Modelle in Form numeri- scher Prozesse. Die Frage, ob die codierte und computerprozessierte Sichtweise denselben Bedingungen unterliegt wie die traditionell natur- wissenschaftliche – also die mathematisierte und quantifizierte, aber noch nicht algorithmierte und numerisch simulierte – zielt auf den epis- temischen Kern des Wandels der Wissenschaft im Zeitalter des Compu- ters. Es erscheint einleuchtend, dass ein weiterer Transformationsschritt sowie der mediale Wechsel in den Computer neue Bedingungen hinzu- fügen. Welche dies sind, soll am konkreten Beispiel der Para- metrisierung stratiformer Wolken anhand der cloud.f90 Datei von ECHAM5 untersucht werden. Dabei werden die mathematische Model- 11 Einzig die materiale Widerständigkeit als experimentelles Korrektiv fehlt in den in-silico Umgebungen. Was dieses experimentelle Korrektiv er- setzt, wird zu klären sein. 161 II WISSENSCHAFTSFORSCHUNG lierung und die Codierung des Schmelzvorgangs Qmli von Wolkeneis ri miteinander verglichen.12 Grundsätzlich werden Wolken in globalen Zirkulationsmodellen parametrisiert, da die Auflösung dieser Modelle mit 60 bis 500 Kilo- meter in der Horizontalen und 16 bis 30 Schichten in der Vertikalen zu grob ist. Wolken fallen buchstäblich durchs Raster der Simulation, denn erst ab circa einem Kilometer lassen sich die für die Wolken- physik relevanten Bewegungen auflösen. Wolken sind jedoch wichti- ge Klimafaktoren, denn sie beeinflussen maßgeblich die Strahlungsbi- lanz sowie den Wasserkreislauf der Atmosphäre. Wolken werden da- her in Form subskaliger Parametrisierungen in das Modell integriert. Für ECHAM5 geschieht dies anhand zwei verschiedener Wolken- schemata für konvektive und stratiforme Wolken, wobei letztere in der cloud.f90 Datei beschrieben werden. Das stratiforme Wolken- schema basiert auf den prognostischen Gleichungen der drei Wasser- phasen, der Wolkenmikrophysik sowie einem statistischen Wolken- bedeckungsschema. In der Modellbeschreibung, welche die mathema- tische Modellierung darlegt, werden die ‚governing equations‘ wie folgt beschrieben (vgl. Roeckner et al. 2003). „The scheme for the representation of stratiform clouds consists of prognostic equations for the vapor, liquid, and ice phase, respectively, a cloud micro- physical scheme (Lohmann and Roeckner (1996); with some revisions), and a statistical cloud cover scheme including prognostic equations for the distribu- tion moments (Tompkins, 2002). […] The governing equations for the grid- cell mean mass mixing ratios of water vapor, rv, cloud liquid water, rl, and cloud ic , r , ar writt n in symbolic form as follows (units ar kgkg_1s_1e i e e e ) [Änderung des Wasserdampfs rv in Wolken] ∂rv/∂t = QTv + Qevr + Qevl + Qsbs + Qsbis + Qsbi - Qcnd - Qdep - Qtbl - Qtbi (10.1) [Änderung der Flüssigkeit rl in Wolken] ∂rl/∂t = QTl + Qmli + Qmlis + Qcnd + Qtbl - Qevl - Qfrh - Qfrs - Qfrc - Qaut - Qracl - Qsacl (10.2) [Änderung des Eis ri in Wolken] ∂ri/∂t = QTi + Qsed + Qdep + Qtbi - Qmli - Qsbi + Qfrh + Qfrs + Qfrc - Qagg - Qsaci (10.3)“ (Roeckner et al. 2003: 61). Das mathematische Modell gibt gemäß der Modellbeschreibung an, wie die Vorgänge in den stratiformen Wolken konzipiert sind. Daraus leitet sich nun die Modellierung für das programmierte Modell ab. Beispielsweise wird die Wolkenbedeckung als Verteilung von Wasser in den ortsfesten Volumen (grid-cell) modelliert, wobei sich die Ver- 12 Qmli beschreibt das „instantaneous melting of ri if the temperature exceeds the freezing point” (Roeckner et al. 2003: 62). 162 2 FORSCHEN MIT ALGORITHMEN teilung statistisch-dynamisch berechnen lässt. „The fractional cloud cover can be expressed as [...] probability density function (PDF) of rt = rv + rl + ri. [...] The remaining task is to choose an appropriate PDF and to determine its moments. The choice of the PDF was guided by simulations with a cloud resolving model (CRM) which was run on a horizontal domain of about 90 km x 90 km and 21 km in the vertical (Tompkins, 2002)“ (Roeckner et al. 2003: 63). Die Varianz resultiert aus den prognostischen Gleichungen, welche die Produktion, den tur- bulenten Transport und die Dissipation der Varianz berücksichtigen. Das mikrophysikalische Schema beschreibt die Änderungen der Was- serphasen sowie verschiedene Niederschlagsprozesse. In Abschnitt 10.3.3 der ECHAM5 Modellbeschreibung wird das ‚freezing of cloud liquid water and melting of cloud ice‘ beschrieben: „At temperatures T < -35°C, the total amount of cloud liquid water freezes homogeneously and instantaneously, during one time step ∆t, to cloud ice Levkov et al. (1992) so that Qfrh = rl/∆t (10.40). For stochastical and heterogeneous freezing in the temperature range -35°C ≤ T < 0°C, we use the extrapolated equation by Bigg (1953) down to the cloud droplet size (Levkov et al., 1992; Murakami, 1990). Qfrs = Ca1 {exp[b1 (T0 – T)] - 1} pr 2 l /pwNl (10.41) where the constants a = 100 m31 s -1 and b1= 0.66 K -1 are taken from labora- tory experiments, T0 = 273.15 K is the freezing point, pw = 1000 kgm -3 is the density of water, ρ the air density, T the grid-cell mean temperature, rl the in- cloud liquid water mixing ratio, Nl is the cloud droplet number concentration, and C the fractional cloud cover. In the standard version of ECHAM5, Nl is pr scrib d within th atmosph ric boundary lay r (= 220 · 106 -3e e e e e m over land and 80 · 106 m-3 over sea, respectively). Above the boundary layer, Nl de- creases exponentially to 50 m-3 in the upper troposphere over both land and ocean. Brownian diffusion contact nucleation results from random collisions of aerosol particles with supercooled cloud droplets. It may be written as (e.g. Levkov et al. (1992)) Qfrc = CmioF1DFar (10.42) where mio = 10 -12 kg is the initial mass of a nucleated ice crystal, DFar = 1.4 · 10-8 m-2s-1 the aerosol diffusivity (Pruppacher and Klett, 1978), and F1 = (4πRvlNlNa)/ρ. The concentration of active contact nuclei is approximated as Na = max[Na0(T0 –T -3), 0], with N 5 ao = 2 · 10 m -3, and the mean volume droplet radius, Rvl, is obtained from 163 II WISSENSCHAFTSFORSCHUNG 4/3π R 3vl Nl ρw = rlρ (10.43) Following Levkov et al. (1992), cloud ice is assumed to melt completely when T > T0, giving Qmli = ri/∆t (10.44)“ (Roeckner et al. 2003: 69, 70). Die Umsetzung des Schemas für stratiforme Wolken in der cloud.f90- Datei setzt sich aus verschiedenen Teilprozessen zusammen, die nachei- nander abgearbeitet werden, wie die Kommentare der einzelnen Ab- schnitte des Programms der cloud.f90-Datei angeben. Der Schmelzvor- gang Qmli für die eingehende Niederschlagsmenge in den stratiformen Wolken ist unter Punkt 3.1 programmiert. Die Prozessabläufe der Datei lassen sich mit einem Flow Chart visualisieren, wie in Abbildung 16 dargestellt. Der Prozess des Schmelzvorgangs ist im Flow Chart mit einem Pfeil markiert. „SUBROUTINE cloud 1. Top boundary conditions, air density and geopotential height at half lev- els 1.1 Set to zero precipitation fluxes etc. 1.2 Air density 1.3 Geopotential at half levels 2. Set to zero local tendencies (increments) 3. Modification of incoming precipitation fluxes by melting, sublimation and evaporation 3.1 Melting of snow and ice 3.2 Sublimation of snow and ice (Lin et al., 1983) 3.3 Evaporation of rain (Rotstayn, 1997) 4. Sedimentation of cloud ice from grid-mean values. Updating the tendency 'pxite' to include sedimentation. At jk=klev, the sedimentation sink is balanced by precipitation at the surface (through 'zzdrs', see 7.3). Finally: In-cloud cloud water/ice. 5. Condensation/deposition and evaporation/sublimation 5.1 Turbulence: Skewness - equation solved implicitly. This solver only works if phmixtau has non-zero timescale 5.2 Turbulence: variance - equation solved implicitly 5.3 Deposition/sublimation of cloud ice and condensation/evaporation of liquid water due to changes in water vapour and temperature (advection, convection, turbulent mixing, evaporation of rain, sub- limation and melting of snow). Translate PDF laterally to calculate cloud after one timestep 164 2 FORSCHEN MIT ALGORITHMEN 5.4 Accounting for cloud evaporation in clear air and checking for su- persaturation 5.5 Change of in-cloud water due to deposition/sublimation and con- densation/evaporation (input for cloud microphysics) 6. Freezing of cloud water 6.1 Freezing of cloud water for T < 238 K 7. Cloud physics and precipitation fluxes at the surface 7.1 Warm clouds: Coalescence processes after Beheng (1994): Auto- conversion of cloud droplets and collection of cloud droplets by falling rain. Accretion of cloud droplets by falling snow (zsacl) is calculated under 7.2 7.2 Cold clouds: Conversion of cloud ice to snow after Levkov et al. 1992: Aggregation of ice crystals to snow and accretion of ice by falling snow. Accretion of cloud droplets by falling snow. Effec- tive radius of ice crystals after Moss (1995) 7.3 Updating precipitation fluxes. In the lowest layer (klev), the sedi- mentation sink of cloud ice is balanced by precipitation at the sur- face (through 'zzdrs'). Fraction of precipitating clouds (zclcpre) used for the calculation of evaporation/sublimation of rain/snow in the next layer 8. Updating tendencies of t, q, xl, xi and final cloud cover 8.10 Cloud cover scheme tendencies 8.11 Simple linearized effect of microphysics on skewness 8.2 New skewness and variance 8.3 Tendencies of thermodynamic variables Attn: The terms zxisub and zximlt do not appear in pxite because these processes have already been included in pxite via changes in cloud ice sedimentation (see 3.1, 3.2 and 4) 8.4 Corrections: Avoid negative cloud water/ice 9. Diagnostics 9.1 Accumulated precipitation at the surface 9.2 Total cloud cover 9.3 Vertical integrals of humidity, cloud water and cloud ice END SUBROUTINE cloud“ (MPI-Met 2005: cloud.f90, Kommentare) 165 II WISSENSCHAFTSFORSCHUNG  Abbildung 16: Flow Chart der Prozessabläufe der cloud.f90-Datei. Der Pfeil markiert den Schmelzvorgang 3.1 (MPI-Met 15. Juli 2005) 166 2 FORSCHEN MIT ALGORITHMEN ! 3. Modification of incoming precipitation fluxes by ! melting, sublimation and evaporation ! 285: IF (jk .GT. 1) THEN ! ! DIR$ CONCURRENT DO 331 jl = 1,kproma ! 290: ! 3.1 Melting of snow and ice ! zcons = zcons2*zdp(jl)/(zlsdcp(jl)-zlvdcp(jl)) ztdif = MAX(0.0,ptm1(jl,jk)-tmelt) zsnmlt = MIN(zxsec*zsfl(jl),zcons*ztdif) 295: zrfl(jl) = zrfl(jl)+zsnmlt zsfl(jl) = zsfl(jl)-zsnmlt zsmlt(jl) = zsnmlt/(zcons2*zdp(jl)) zximelt = MIN(zxsec*zxiflux(jl),zcons*ztdif) zxiflux(jl)=zxiflux(jl)-zximelt 300: zximlt(jl) =zximelt/(zcons2*zdp(jl)) IF (ztdif.GT.0.0) THEN zimlt(jl) = MAX(0.0,pxim1(jl,jk)+pxite(jl,jk)*ztmst) ELSE zimlt(jl) = 0.0 305: END IF Abbildung 17: Programmierung des Schmelzvorgangs in der cloud.f90 Datei des Atmosphärenmodells ECHAM5 (MPI-Met 15. Juli 2005) Die Programmierung, die nun dem Kommentar in ‚3.1 Melting of snow and ice‘ folgt, ist in Abbildung 17 dargestellt. Sie beschreibt explizit die Vorgänge, welche im mathematischen Modell in allgemeiner Form no- tiert sind. Um das Programm tatsächlich zum Laufen zu bringen, muss die mathematische Beschreibung in eine konkrete Narration übersetzt werden. Im Falle des Schmelzens von Eis entspricht der mathematische Term Qmli dem Ausdruck (zsnmlt) in Codezeile 294. Der Wert für (zsnmlt) wird im Programm durch in Minimum-Funktion13e e aus den beiden Argumenten (1) vorhandenes Eis/Schnee (zxsec*zsfl(jl)) und (2) Temperaturänderung (zcons*ztdif) gewonnen, analog der mathemati- schen Beschreibung in Formel 10.44: Qmli = ri/∆t, welche die Schmelzra- te als Veränderung des Wolkeneises im Laufe der Zeitveränderung be- schreibt.14 Um die konkrete Parametrisierung im Rahmen des Teilpro- zesses „3. Modification of incoming precipitation fluxes by melting, sublimation and evaporation“ zu programmieren, bedarf es folgender Spezifikationen: (1) zxsec*zsfl(jl): Wie viel Eis/Schnee (zsfl) ist in einer 13 Minimum- und Maximumfunktionen sind Funktionen zur Auswahl eines Wertes von zwei Werten. Die Funktion liefert dann einen Wert zurück: den kleinsten oder größten. 14 Zu beachten ist, dass die Schmelzrate von Wolkeneis Qmli wiederum selbst ein Teil des Terms zur Berechnung des Wolkeneises ist: [Änderung der Flüssigkeit rl in Wolken] ∂rl/∂t = QTl +Qmli + Qmlis + Qcnd + Qtbl - Qevl - Qfrh - Qfrs - Qfrc - Qaut - Qracl - Qsacl (10.2). 167 II WISSENSCHAFTSFORSCHUNG Schicht (jl) vorhanden, das überhaupt schmelzen kann (zsfl (jl))? Der Wert ergibt sich aus den vorhergegangenen Berechnungen des Wolken- eises (zsfl). Um jedoch zu verhindern, dass der Wert des verfügbaren Eises null sein kann – denn dies würde bei einer Division zu mathemati- schen Problemen führen – wird dieser mit einem Sicherheitsfaktor (zxsec) multipliziert, der etwas kleiner als 1 ist und sich wie folgt ergibt: zxsec = 1.0-zeps 12ec, wobei zepsec = 1.0e- ist, also 1,0 - 1,0 · 10-12.15 (2) (zcons*ztdif): Welche Temperaturveränderung (ztdif) liegt kon- kret vor, um das Schmelzen nun in Gang zu bringen? In anderen Wor- ten: Wie viel Energie steht für das Schmelzen von Eis zur Verfügung? Die Temperaturveränderung wurde in der vorhergehenden Codezeile 293 als Maximum-Funktion wie folgt berechnet: ztdif = MAX(0.0, ptm1(jl,jk)-tmelt). Dabei ergibt sich die Temperaturveränderung aus dem Eingabewert der Temperatur (ptm1) zwischen zwei Schichten (jl, jk), der entweder zu Beginn aus Messungen stammt oder im Laufe der Simulation einen Zeitschritt zuvor berechnet wurde, abzüglich der Schmelztemperatur (tmelt) von 273,15 Kelvin, also 0° Celsius. Als Ma- ximum-Funktion kann die Temperaturveränderung (ztdif) an dieser Stel- le im Code nie unter 0° Celsius sinken. Die so berechnete Temperaturveränderung wird mit einer Konstante (zcons) multipliziert, die ebenfalls zwei Codezeilen zuvor, in Zeile 292, berechnet wurde: zcons = zcons2*zdp(jl)/(zlsdcp(jl)-zlvdcp(jl)). Diese Konstante (zcons) wird als Verhältnis von (zcons2*zdp(jl)) zu (zlsdcp(jl)-zlvdcp(jl)) angegeben, wobei zcons2 = 1./(ztmst*g) sich aus dem Verhältnis von 1 zur Zeitschrittweite (ztmst) von 1/∆t multipliziert mit der Gravitationsbeschleunigung (g) von 9,80665 m/s2 ergibt. Das Ganze (zcons2) wird dann mit der Dicke (zdp) der Schicht (jl) multipli- ziert (zcons2*zdp(jl)). Der zweite Teil des Ausdrucks (zlsdcp(jl)- zlvdcp(jl)) berechnet als erstes den Wert der Sublimationswärme (zlsdcp(jl)), der sich an anderer Stelle in der Datei als (zlsdcp = als*zrcp) ergibt, also als Sublimationswärme (als) von 2.83456 J/kg mul- tipliziert mit dem Wert der spezifischen Feuchte und Wärme (zrcp), der ebenfalls in der Datei an anderer Stelle als zrcp = 1./(cpd+zcons1*MAX(pqm1(jl,jk), 0.0)) b 16erechnet wird. Von dem so 15 Der Wert des verfügbaren Eises wird null, wenn im Laufe der Berechnun- gen zwei gleiche Größen miteinander dividiert werden. Um diesen Fall im weiteren Verlauf zu vermeiden, wird der ‚security parameter‘ (zxsec) an dieser Stelle eingeführt. Insgesamt gibt es in dieser cloud.f90-Datei drei verschiedene Sicherheitsparameter. 16 zrcp = 1./(cpd+zcons1*MAX(pqm1(jl,jk) stellt das Verhältnis von 1 zur spezifischen Wärme trockener Luft bei konstantem Druck (cpd) von 1005,46 J/K/kg addiert mit der Konstante (zcons1) dar. zcons1 = cpd*vtmpc2 wiederum ist das Produkt der spezifische Wärme trockener 168 2 FORSCHEN MIT ALGORITHMEN errechneten Wert der Sublimationswärme (zlsdcp(jl)) wird nun der Wert der Verdunstungswärme (zlvdcp(jl)) subtrahiert, der sich als Produkt (alv*zrcp) der latenten Wärme bei Verdunstung (alv) von 2.50086 J/kg multipliziert mit (zrcp), wie bereits beschrieben, ergibt. Abbildung 18: Schmelzvorgang (Codezeile 292 bis 294) der cloud.f90 Datei des Atmosphärenmodells ECHAM5 (MPI-Met 15. Juli 2005) Der ausbuchstabierte Code der Zeilen 292 bis 294 der cloud.f90-Datei, wie in Abbildung 18 dargestellt, errechnet das Resultat des Schmelzvor- ganges, um dann in Codezeile 295 (zrfl(jl) = zrfl(jl)+zsnmlt) das zum Berechnungszeitpunkt in der Wolke enthaltene Wasser (zrfl) aus dem bislang verfügbaren Wolkenwasser zuzüglich des geschmolzenen Eises zu berechnen. Analog dazu wird in Codezeile 296 (zsfl(jl) = zsfl(jl)- Luft bei konstantem Druck multipliziert mit der dimensionslosen Konstan- te (vtmpc2). vtmpc2 = cpv/cpd-1. ergibt sich aus dem Verhältnis der spe- zifischen Wärme von Wasserdampf bei konstantem Druck (cpv) von 1869,46 J/K/kg zur spezifischen Wärme trockener Luft bei konstantem Druck minus 1. Der Ausdruck (cpd+zcons1) wird schließlich mit (MAX(pqm1(jl,jk), 0.0) multipliziert, wobei (pqm1) die maximale spezifi- sche Feuchte bezeichnet, welche als Wert dem Modell vorgegeben wurde. 169 II WISSENSCHAFTSFORSCHUNG zsnmlt) das aktuelle Wolkeneis (zsfl) aus dem bisher verfügbaren Wol- keneis (zsfl) minus dem geschmolzenen Eis (zsnmlt) berechnet. Wäh- rend der Berechnung wird mit Werten aus Konstanten, aus Eingabedaten – durch Messung bei der Initialisierung vorgegeben oder im Zeitschritt zuvor berechnet – und aus temporären Daten, die erst im Laufe der wei- teren Berechnung neu berechnet werden, gearbeitet. Ziel der Datei ist es, Ausgabewerte für Schnee, Regen, Temperatur und Wolkenbedeckung zu errechnen. Diese Werte werden dann für die weiteren Berechnungen des Atmosphärenmodells verwendet. Der Zoom in den Code macht deutlich, dass das Programm – im Unterschied zum mathematischen Modell – eine explizite Geschichte erzählt, welche für die Berechnung mit numerischen Werten konkreti- siert wird. Dies ist mit ‚story telling with code‘ gemeint. Die Geschichte von Codezeile 292 bis 296 in Prosa erzählt, lautet: Wenn sich das Ver- hältnis von Druck, Sublimations- und Verdunstungswärme sowie Feuch- tigkeit verändert (Zeile 292), dann verändert sich die Temperatur in der Wolkenschicht (Zeile 294). Falls die Temperatur dabei über den Ge- frierpunkt steigt (Zeile 293), schmilzt das Wolkeneis (Zeile 294) und das Verhältnis von Eis und Wasser in der Wolkenschicht verändert sich im Unterschied zum vorherigen Zeitschritt (Zeilen 295, 296). Bei ausrei- chender Menge und Schwere der Wassertropfen, fängt es unter entspre- chenden Umständen an zu regnen. Der Schmelzvorgang wird für jede Gitterbox und für alle Schichten des Modells berechnet und ist nur einer von zahlreichen Prozessen der Wolkendatei, die insgesamt 1.110 Zeilen Code umfasst. Um die Geschichte numerisch erzählen, also simulieren zu können, wird jeder Konstante ein numerischer Wert zugewiesen und für jede Variable gilt es, eine konkrete Berechnungsprozedur anzugeben, die mit Messwerten oder berechneten Werten des Zeitschritts zuvor ini- tialisiert wird. Die Berechnungsprozedur entspricht dabei nicht eins zu eins dem mathematischen Modell. „Die eigentliche Parametrisierung,“ wie ein Klimaforscher im Interview erklärte, „muss man sich aus dem Quellcode herausziehen“ (Interview 18, 2005). Genau hier liegt die Arbeit des Modellierers, denn das mathematische Modell beschreibt die konzeptuelle Herangehensweise in einer wesentlich allgemeineren Ver- sion als der Code. Daher sind das mathematische Modell auf dem Papier und das programmierte Computermodell nicht identisch, zumal das Computermodell mit einer diskretisierten, computertauglichen Version des mathematischen Modells arbeitet. Diese Version unterliegt Verzer- rungseffekten, wie beispielsweise, dass die verschiedenen Ströme eines Klimamodells von Schicht zu Schicht springen und sich nicht kontinu- ierlich bewegen. Am folgenden Beispiel der Fehlersuche im Modell werden einige dieser Verzerrungseffekte deutlich. 170 2 FORSCHEN MIT ALGORITHMEN Fehlersuche im Model l Bei der Vielzahl der Prozesse eines Modells, in welchen sich die ver- schiedenen Konstanten und Variablen oft wiederholen, ist es nicht ein- fach, den Überblick zu behalten. Daher können sich leicht Fehler in die Programmierung einschleichen. Diese Fehler zu erkennen, ist nicht nur schwierig, sondern mühsam und zeitaufwendig. Die Fehlersuche ist je- doch ein wichtiger Teil der Modellierungsarbeit, denn jeder Fehler kann mehr oder weniger großen Einfluss auf die Resultate und damit auf die Erklärungs- und Prognosegüte des Modells haben. Letztendlich ist es die Güte eines in-silico Experimentalsystems, welche die Evidenz der ge- wonnen Ergebnisse garantiert. Anhand der Fehler zeigt sich aber auch die Diskrepanz zwischen mathematischem Modell und Programm. Diese Diskrepanz ist Ausdruck der Zugeständnisse an die Logik der Rechner und lässt die Eigenart der Beschaffenheit dieser in-silico Experimental- systeme zu Tage treten. Ein Beispiel für eine zwei Jahre andauernde Modellentwicklung mit einer nahezu einjährigen Fehlersuche ist die Modellierung eines Vulkanausbruchs im Atmosphärenmodell ECHAM5. Dabei handelt es sich nicht um die Modellierung einer Vulkaneruption, sondern um die Simulation der Freisetzung langlebiger Stoffe wie Asche und Schwefel- dioxid in der Stratosphäre und den Folgen für das Klima. „Eine Vulkan- explosion sieht bei uns so aus, dass es in einer Gitterbox in der Strato- sphäre, also etwa in 25 Kilometer Höhe, ‚plupp‘ macht und dann ist da auf einmal ganz viel Asche und Schwefeldioxid“ (Interview 25, 2008). Vorbild für die Lokalisierung der Gitterbox, die Höhe der Freisetzung, die zeitliche Entwicklung wie auch die Menge der freigesetzten Stoffe war der Ausbruch des philippinischen Vulkans Pinatubo im Juni 1991.17 Er diente als Beispiel, um die Modellierung zu evaluieren. Allerdings waren für das Modell nur feine Asche und Sulfataerosole von Interesse, da sich diese länger in der Atmosphäre halten und daher einen klimare- levanten Einfluss haben. Dieser Einfluss entfaltet sich in den chemi- schen und physikalischen Prozessen infolge der Emission. Das freige- setzte Schwefeldioxid wird in der Atmosphäre in gasförmiges Sulfat und weiter in Sulfat-Aerosole umgewandelt. Die Aerosole werden von den 17 Der Ausbruch des Pinatubo zog sich vom 7. bis 15. Juni 2001 hin, mit einer Haupteruption am 15. Juni. Bei dieser wurden 100 Mega Tonnen Asche und Staub, ca. 1% der gesamten Eruptionsmasse, und 17 Megaton- nen Schwefeldioxid in die Stratosphäre geschleudert, die sich drei Jahre lang als Wolken in der Stratosphäre hielten und die Sonneneinstrahlung reduzierten. Das führte zu einem globalen Temperaturabfall von 0,4 °C und zur Verringerung des Ozons. 171 II WISSENSCHAFTSFORSCHUNG atmosphärischen Strömungen transportiert. Sie beeinflussen die Strah- lungsbilanz und damit die meteorologischen Prozesse. Die Programmie- rung der Freisetzung von Asche und Schwefeldioxid in der Stratosphäre erfolgte im Rahmen des bestehenden Atmosphärenmodells ECHAM5 sowie des Aerosolmodells HAM, wobei die chemischen und aerosolmi- krophysikalischen Prozesse mit Hilfe von HAM und die Transportpro- zesse der Aerosole mit ECHAM5 berechnet wurden. „Also man könnte in ECHAM beispielsweise angeben, dass man nur mit pas- siven Tracern rechnet, wie z.B feiner Asche, die nicht chemisch reagiert son- dern nur emittiert und vom Modell transportiert wird und in Form von Ab- sinkprozessen, also Sedimentations- und Depositionsprozessen aus der Atmo- sphäre entfernt wird. Weiter gibt es zusätzlich die Möglichkeit mit HAM, also mit dem Aerosol-Modell zu rechnen. HAM hat fest definierte Tracer (Schad- stoffe). Das ist Staub, Seesalz, Ruß, also ‚Black Carbon‘ und ‚Organic Car- bon‘, Sulfat. […] Oder man rechnet mit Chemie, die umfasst bis zu hundert- fünfzig Reaktionen und sechzig verschiedene Tracer, also sechzig verschiede- ne chemische Stoffe. (Und HAM oder das Chemiemodell geben die Ergebnis- se dann an ECHAM weiter?) Ja, HAM berechnet nur die Aerosolmikrophysik, also die Umwandlung von gasförmig ins Aerosol und die Reaktion der Teil- chen untereinander. Am Anfang entstehen kleine Teilchen, die wachsen mit der Zeit. Das passiert alles in HAM. Aber alle meteorologischen Prozesse, sprich der Transport, auch die Wechselwirkung mit Wolkenwasser und Regen, geschieht in ECHAM. Entsprechendes gilt auch für die Chemie. Die Chemie berechnet die Reaktionen der Stoffe untereinander, aber der Transport findet in ECHAM statt. […] Im Prinzip haben wir in ECHAM je eine Variable für diese Tracer. Zu jedem Zeitpunkt und in jeder Gitterbox wird die Veränderung der Konzentration (Deltas), z.B. durch Transport oder Emission, ausgerechnet. Für die Vulkanerption geben wir die gesamte emittierte Masse und die Eruptions- zeit vor und berechnen daraus einen Fluss, also wie viel pro Sekunde emittiert wird. Die emittierte Konzentration pro Zeitschritt addieren wir auf das Delta, welches schon Konzentrationsänderungen durch andere physikalische Prozes- se aus HAM und ECHAM enthalten kann. Am Ende des Zeitschrittes wird die Änderung der Konzentration, also das Delta, auf die Konzentration des Tra- cers in ECHAM aufaddiert. Der Tracer ist schon im Modell enthalten“ (Inter- view 25, 2008).18 Allerdings zeigte sich schnell, dass die Berechnungen nicht stimmten. „Es wurde viel zu viel Schwefeldioxid (SO2) in Sulfat umgewandelt und 18 „Zu dem Tracer SO2 (Schwefeldioxid) fügt man eine gewisse Menge hin- zu, so wie das am Boden für alle anderen Emissionen auch gemacht wird. Das ist fast das gleiche nur sind es Emissionen vom Straßenverkehr oder Waldbrände. Bei uns ist der Vulkan und es ist in einer ganz anderen Hö- he“ (Interview 25, 2008). 172 2 FORSCHEN MIT ALGORITHMEN das SO2 hatte eine viel zu geringe Lebensdauer. Wir hatten eine Lebens- dauer von knapp 14 Tagen und wir brauchten eigentlich eine von gut 30 Tagen“ (Interview 25, 2008), wie die empirischen Daten des Pinatubo- Ausbruchs vorgab n.19e Die Fehlersuche konzentrierte sich daher zu- nächst auf den Umwandlungsprozess von Schwefeldioxid in Sulfat und anschließend auch auf die Lebensdauer des Sulfats, denn „das Sulfat fiel [im Computerexperiment] wie Steine vom Himmel. Anstatt einem hal- ben Jahr Halbwertszeit waren es bei uns nur ein paar Wochen. […] Das legte die Vermutung nahe, dass es eventuell zu große Teilchen waren. Dann die Frage: Warum?“ (Interview 25, 2008). Um die Fehlerquellen zu entdecken, benötigten die Modellierer fast ein Jahr Detektivarbeit. Es wurden Vermutungen aufgestellt, überprüft und wieder verworfen bis die Fehler gefunden waren und behoben werden konnten. „Das eine Problem war, dass sich die Vulkanwolke in dieser großen Höhe in der Stratosphäre befindet. 25 km, oder 30 bis 50 hPa, das ist eine Höhe, die in einem normalen Modell an der Obergrenze ist. Deswegen mussten wir eine andere Modellversion nehmen, nämlich das Modell der Mittleren Atmosphä- ren, und das wurde zuvor noch nie mit HAM gekoppelt. Da HAM keine eige- ne Chemie rechnet, muss man beispielsweise die Konzentration der Hydroxyl- Radikale (OH) dem Modell vorgeben, um Schwefeldioxid (SO2) umzuwan- deln. Wir brauchten also neue Daten, die diese Höhe miterfassten und die wa- ren erstmal nicht in Ordnung. Es hat relativ lange gedauert, um genau heraus- zufinden: Da ist der Fehler! Die [Mengen] waren um den Faktor zwei zu groß und dadurch wurde viel zu viel Schwefeldioxid in Sulfat umgewandelt, wo- durch die viel zu geringe Lebensdauer entstand. […] Nachdem wir dann wuss- ten, ok das Schwefeldioxid hat die Lebenszeit wie wir sie haben wollen, wurde genauer auf das Sulfat geschaut. Dabei merkten wir, das Sulfat fiel wie Steine vom Himmel. […] Wir haben in den Prozessen der Sedimentation [von ECHAM] gesucht, da wir vermuteten, vielleicht ist hier etwas nicht in Ord- nung, z.B. ungenaue numerische Prozesse. […] Die Sedimentation beschreibt über die Fallgeschwindigkeit, wie schnell und wie viele Teilchen nach unten fallen. Das Ergebnis hängt von der Modellauflösung ab, wie viele einzelne vertikale Schichten man hat. Innerhalb einer Schicht wird alles als gleich ver- teilt angenommen: Ein Teilchen, oder eine bestimmte Menge, kommt von oben herunter und wird als gleichverteilt in dieser Box angesehen. D.h. es kommt ganz schnell etwas unten in der Box an und kann im nächsten Zeit- schritt schon in die nächste Box fallen, während es in Wirklichkeit noch weiter 19 „Wir haben alles am Pinatubo validiert. Wir wissen ungefähr wie groß die Teilchen werden und auch wie lange sich die Sulfate in der Stratosphäre halten bzw. welche Wechselwirkungen mit der Strahlung stattfinden. Da- für gibt es gemessene Werte und die können wir natürlich vergleichen“ (Interview 25, 2008). 173 II WISSENSCHAFTSFORSCHUNG oben bliebe und die ganze Schicht langsam durchwandern müsste. So eine Schicht ist ca. zwei Kilometer hoch. Wenn man nun statt mit 39 Schichten mit 90 rechnet, sieht man einen deutlichen Unterschied. Man hat dreimal so viele Schichten und die Teilchen fallen dadurch langsamer. Aber wir haben gesehen, das war es nicht! Wir merkten, dass auch mit der höheren Auflösung die Konzentration der Teilchen immer noch viel zu schnell abnahm. Sie waren alle immer viel zu schnell weg. In den Ergebnissen ließ sich anhand von Plots erkennen, dass eine Aerosolwolke schnell nach unten wanderte. Wir machten Abbildungen mit zweidimensionalen Schnitten durch das Modellgebiet und konnten sehen, wie der Durchmesser der Teilchen schnell größer wurde und dass sie einfach zu groß waren. Dann wurde relativ schnell klar, dass es ein Problem in der Aerosolmikrophysik [des HAM Mo- dells] sein musste. […] Ein Kollege machte dann den Vorschlag, dass es ein Boxmodell für HAM gab. Das rechnet nur eine Gitterbox aus. Das ist natürlich viel einfacher, viel schneller. Man kann viel direkter sehen, was passiert. Mit diesem Boxmodell haben wir dann auch erkannt, dass etwas nicht richtig funk- tionierte, dass ein physikalischer Prozess überhaupt nicht angesprochen wurde, weil wir außerhalb des Gültigkeitsbereiches waren. Wir hatten das als Effekt eigentlich im Prinzip schon immer gesehen, auch vorher, da in unserer Wolke in der Mitte irgendwie immer ein Loch mit sehr niedrigen Konzentrationen war. […] Mit dem anderen [Boxmodell] konnte man ganz schnell mal Schalter im Code ein- und ausschalten und sehen, was passiert. Und dann stellte ich fest, hier stehen nur Nullen. Wir haben dann eine finnische Kollegin, die für diese Nukleationsprozesse – das war das eben – verantwortlich war, ange- schrieben und ihr das Problem erklärt. Sie hat uns Formeln und auch ein biss- chen Code geschickt und meinte, wir sollten es mal damit versuchen. Das habe ich dann für uns passend umgesetzt und danach merkten wir schon: Ja, es wird besser! Es war aber noch nicht gut. Also mussten wir natürlich weiter suchen. Man hat immer wieder überlegt, was es denn sein könnte? Was kann man denn noch machen? Immer wieder hatte jemand eine Idee. Dann schmeißt man das Modell wieder an und probiert es nochmal. Und sieht im Ergebnis wieder: Es hat nichts gebracht. Das war ziemlich frustrierend“ (Interview 25, 2008). Der Durchbruch ergab sich schließlich, als sich herausstellte, dass es im Institut vier verschiedene Boxmodelle der Aerosolmikrophysik gab. HAM, das Teil von ECHAM war, das Boxmodell (B2) des Kollegen, das bereits für Vergleiche m itHAM in Tests verwendet worden war, so- wie zwei weitere Modelle (B3, B4). „Ein Kollege war dabei, eine andere Mikrophysik in ECHAM einzubauen und dazu gab es auch ein Boxmo- dell [B3]. Und schließlich hatte eine Kollegin ursprünglich auch mal ein Mikrophysikmodell geschrieben, und dazu gab es ebenfalls ein Boxmo- dell [B4]“ (Interview 25, 2008). Charakteristische Ergebnisse, die sich aus der Simulation mit HAM ergeben hatten, wurden nun mit allen vier 174 2 FORSCHEN MIT ALGORITHMEN Boxmodellen getestet. Die Ergebnisse unterschieden sich erheblich von HAM und es zeigten sich verschiedene Hinweise zur Lösung des Pro- blems. „Wir stellten fest, dass wir sehr stark vom Zeitschritt abhängen. Das galt nicht nur für uns (HAM), das galt zum Teil auch für die ande- ren Modelle“ (Interview 25, 2008). Darüber hinaus wurde deutlich, dass die verschiedenen Teilchengrößen (Moden) des Sulfats im HAM Modell „sehr schön für die Troposphäre sind, dass es aber überhaupt nicht der Situation in der Stratosphäre entspricht. Und überhaupt nicht der Situa- tion, die sich mit so einem Vulkan ergibt“ (Interview 25, 2008). Die Re- sultate des HAM Modells ergaben eine breite Kurve der Teilchengröße im Verhältnis zur Anzahl der Teilchen und wiesen damit auf die Bildung sehr kleiner als auch sehr großer Teilchen hin. „Und die viel größeren fielen eben wie Steine vom Himmel. Dadurch haben wir so viel Masse verloren“ (Interview 25, 2008). Im Unterschied dazu ergaben die Resul- tate des Boxmodells B2 eine schmale Kurve, also einen schmalen Be- reich von Teilchengrößen. „Dann haben wir angefangen, die Einstellung der Moden zu verändern und sind auf Ergebnisse gekommen, die den anderen Modellen sehr ähnlich waren. Wir mussten dann noch ein bisschen Rücksicht auf die Strahlungsparametri- sierung nehmen, damit wir innerhalb des Gültigkeitsbereichs blieben. Und haben dann Einstellungen gefunden, die erheblich bessere Ergebnisse hatten. Dazu kam dann noch, dass inzwischen in HAM ein anderes Zeitintegrations- schema eingebaut wurde, das nicht mehr so empfindlich auf diesen Zeitschritt [der Modellsimulation] reagierte. Damit hatten wir dann eine Version, die recht zufriedenstellende Ergebnisse brachte. […] Dadurch sind wir jetzt an einem Punkt, dass wir sagen: So, den Pinatubo können wir ganz gut simulie- ren, auch die Strahlungswechselwirkungen. Das sieht gut aus“ (Interview 25, 2008). Nachdem das Modell für die Reproduktion des Pinatubo Ausbruchs gut funktionierte, kann es nun für die Simulation weiterer Vulkanausbrüche verwendet werden. Im Kontext der Forschung ist die Integration von Vulkaneruptionen noch weitgehend Neuland. „Es gibt verschiedene Gruppen, die versucht haben, den Einfluss des Sulfats zu berechnen. Aber so wie wir das jetzt machen, dass wir die Asche und das Sulfat ha- ben und zudem richtig mit einer Aerosolmikrophysik rechnen, das hat eben noch keiner gemacht. Deswegen hatten wir auch so viele Probleme und mussten sehen, was alles passiert“ (Interview 25, 2008). Das eigent- liche Ziel ist es, Supervulkanausbrüche zu simulieren, die um den Faktor 100 stärker sind als der Ausbruch des Pinatubo. Erhöhte Messwerte im Yellowstone Park, in dem ein Supervulkan vermutet wird, lassen die 175 II WISSENSCHAFTSFORSCHUNG Vulkanforscher weltweit aufmerken, und es stellt sich die Frage: Was wäre wenn? „Dafür hat man Modelle. Das sind diese schönen Spielchen, die man eben nur mit Modellen machen kann. Und insofern ist das eigentliche Ziel, so eine Megaeruption zu berechnen. Und dann zu sehen, was für Auswirkungen hat das? […] Deshalb möchten wir gleich mal gerne einen richtigen Supervulkan rechnen. ‚Mach das doch mal vor den Ferien.‘ Und, wie das so ist: Es geht nicht! Dieses mal ist es ECHAM, das wissen wir schon. Irgendetwas in der Konvektion streikt und es ist ein richtiger Modellcrash. Das Modell steigt rich- tig aus“ (Interview 25, 2008). Das Problem liegt in der Wechselwirkung mit der Strahlung, die einer großen Detailtiefe in der Modellierung bedarf. „Ich habe vor einem Jahr schon einmal eine Supervulkaneruption berechnet. Und damals ging das. Da hatte ich noch keine Wechselwirkung mit der Strahlung. D.h. in der Gegend wo diese dunkle Wolke aus Vulkanasche und Sulfat war, heizt sich jetzt alles auf. Und die Prozesse, die das auslöst, waren vor einem Jahr lange nicht so im Detail da, wie jetzt. Entsprechend bin ich damals ohne Probleme [Crash] durchgekommen, außer dass ich bereits gesehen hatte, dass die ganze Masse, die oben reingegeben wurde zu schnell wieder weg war. Im ersten Monat nach der Eruption wurde es eiskalt in Nordamerika und im nächsten Monat war die Temperatur schon fast wieder normal. Da war schon klar, da stimmt was nicht“ (Interview 25, 2008). Das Beispiel macht deutlich, wie Modellierung im Forschungsalltag vo- rangeht und welcher Eigenlogik die komplexen in-silico Experimental- systeme unterliegen. Dass jedoch eine solche Form der computerbasier- ten Forschung überhaupt möglich ist, liegt nicht zuletzt an der zuneh- menden Standardisierung der Modelle und Daten in der Meteorologie. Denn vor allem der Modellvergleich ist eine wichtige Basis der Evalua- tion der Modelle und ihrer Ergebnisse. Die Klimaforschung kann wie kaum eine andere Wissenschaft auf eine Geschichte der Professionalisie- rung verweisen, welche sich in der weltweiten Synchronisierung und Standardisierung der Modellentwicklung zeigt. Motor dieser Professio- nalisierung ist die soziopolitische Frage: Was wäre wenn? 176 3 PROFESSIONALISIERUNG DER MODELLIERUNG Rückblickend auf die letzten zwanzig Jahre lässt sich in der Klimamo- dellierung eine interessante Beobachtung machen. Aufgrund des enor- men sozio-politischen Drucks, möglichst treffende Prognosen zukünfti- ger Klimaentwicklungen zu geben, und dem Umstand, dass diese Pro- gnosen nur auf Basis der Computermodelle zu erstellen sind, findet seit gut zwei Jahrzehnten eine zunehmende Professionalisierung der Model- lierung statt. Diese Professionalisierung zeigt sich an der internationalen Koordinierung und Synchronisierung der Modellierung, an der Ausdiffe- renzierung von Sub-Communities und an neuen Evaluationsstrategien. Vor allem die Synchronisierung ist einzigartig in der Wissenschaft und wird seit 1990 maßgeblich durch die Assessment Reports des IPCC In- tergovernmental Panel on Climate Change vorangetrieben. Die Syn- chronisierung der IPCC Referenzmodelle umfasst dabei die Verbes- serung, Evaluierung und Standardisierung der Modelle in einem interna- tional konzertierten Rhythmus. Vor allem die Möglichkeit, Modelle mit- einander vergleichen zu können, basiert auf dieser Synchronisierungs- leistung. Daher entwickelt sich die Klimamodellierung zur paradigmati- schen Simulationswissenschaft, die neue Standards der Modellierung, des Experimentierens mit diesen Modellen und der Evaluation generiert, welche auch für andere Wissenschaftsbereiche handlungsleitend werden könnten. Ähnlich der Astronomie im 17. Jahrhundert, die im Kontext der neuzeitlichen Form der Erkenntnisproduktion auf Basis wissen- schaftlicher Instrumente und mathematischer Methoden eine Leitfunk- tion innehatte, übernimmt die Klimaforschung eine ähnliche Leitfunk- tion für die Computational Sciences. Dabei durchläuft sie Restrukturie- rungsprozesse, die sie zu einer paradigmatischen E-Science machen. 177 II WISSENSCHAFTSFORSCHUNG Standardis ierung Voraussetzung für die Standardisierung der Modellierung ist die Etablie- rung einer internationalen Infrastruktur für den Austausch zwischen den einzelnen Forschergruppen und Institutionen. Die Meteorologie kann hier auf eine lange Tradition gemeinsamer Forschung und Messung zu- rückblicken. Bereits 1873 wurde die IMO International Meteorological Organisation gegründet und 1882/1883 bildete das 1. Internationale Po- larjahr den Auftakt zu international koordinierten Messungen und For- schung 1en. Heute vertritt die Nachfolgeorganisation WMO World Me- teorological Organisation der UN United Nations 188 Nationen und führt mit dem WCP World Climate Programme seit 1980 zahlreiche Ak- tivitäten der internationalen Koordinierung der Klimaforschung durch (vgl. WMO 2009, WCP 2009). Dazu gehören seit 1979 das WCIRP World Climate Impact Assessment and Response Strategies Programme, seit 1980 das WCRP World Climate Research Programme, seit 1989 das IPCC Intergovernmental Panel on Climate Change und seit 1992 das GCOS Global Climate Observing System (vgl. WCRP 2009, IPCC 2009, GCOS 2009). Vor allem das WCRP Programm ist für die Stan- dardisierung der Modellierung interessant, denn seine Mission ist es „to develop and evaluate climate system models for understanding, assess- ing and predicting Earth climate change and variations“ (WCRP 2009: Activities). Im Rahmen dieses Programms wurden 1980 die Working Group on Numerical Experimentation und 1997 die Working Group on Coupled Modelling gegründet. Dies sind nur einige Beispiele der inter- national hochgradig vernetzten Meteorologie. Ein weiteres Beispiel auf EU Ebene ist das PRISM Programme for Integrated Earth System Mo- delling des ENES European Network for Earth System Modelling (vgl. PRISM 2009, ENES 2009), denn seit Anfang 2000 ist die Integration der bislang heterogenen Modelle und Modellkomponenten zu Erdsyste- men das maßgebliche Ziel. So ist es Aufgabe von ENES „to develop an advanced software and hardware environment in Europe, under which the most advanced high resolution climate models can be developed, improved, and integrated“ (ENES 2009: Welcome). Voraussetzung für diese Integration ist die Standardisierung der Modellkopplungen und Softwareeinbettungen. Ein an diesen Prozessen beteiligter Klimafor- scher formulierte die Situation 2005 folgendermaßen: 1 Gefolgt vom 2. Internationalen Polarjahr 1932/33, vom Internationalen Geophysikalischen Jahr 1957/58 und vom 3. Internationalen Polarjahr 2007/2008 178 3 PROFESSIONALISIERUNG DER MODELLIERUNG „Die Idee ist, eine höhere Modularität zu erzielen, wenn man Standardkoppler für die Kommunikation der Modellteile benutzt. Dann kann man einen Mo- dellteil durch einen anderen austauschen, der auch diesen Standard befolgt. Es gibt jetzt eine Reihe von Institute in Europa, die diese Koppler benutzen und damit ihre eigenen Komponenten mit anderen Komponenten koppeln. Also es gibt Institute, die benutzen unser Atmosphärenmodell, aber ein anderes Ozeanmodell oder umgekehrt. […] Man kann mehrere Realisationen aus einem Pool von Modellen zusammenstellen und, vorausgesetzt es funktioniert auch wissenschaftlich gut, hat man die Möglichkeit, verschiedene Simulatio- nen durchzuführen. Man bekommt eine größere Vielfalt und kann dann sehen: Ja, es kommt annäherungsweise die gleiche Antwort heraus, auch wenn ich technisch ein anderes System benutze. Oder es kommt etwas ganz anderes heraus“ (Interview 6, 2005). Mittlerweile gehören gekoppelte Modelle zum Standard der Klimafor- schung. In welche Richtung die aktuelle Entwicklung führt, dokumen- tiert das britische Projekt GENIE Grid Enabled Integrated Earth System Model: „Our objectives are to build a model of the complete Earth system which is capable of numerous long-term (multi-millennial) simulations, using compo- nents which are traceable to state-of-the-art models, are scalable (so that high resolution versions can be compared with the best available, and there is no barrier to progressive increases in spatial resolution as computer power per- mits), and modular (so that existing models can be replaced by alternatives in future). Data archiving, sharing and visualisation will be integral to the sys- tem. The model will be used to quantitatively test hypotheses for the causes of past climate change and to explore the future long-term response of the Earth system to human activities“ (GENIE 2009: Scientific Research Challenge). „The system will be accessed via a portal, which will allow a user to compose, execute and analyse the results from an Earth system simulation. After authen- ticating themselves with the portal, a user will have access to a library of com- ponents of the Earth system (for example, ocean, atmosphere) at different resolutions. The user constructs a composite application by selecting from these components; a selection informed by meta-data provided by a compo- nent's author and made available in the library. Together with these compo- nents the user selects appropriate mesh conversion tools, to enable data ex- change at model boundaries, and defines an event-queue, which specifies the timing of the data exchanges and indicates what simulated data is to be ar- chived for later inspection. The user also provides the data necessary to initial- ise the model. From this, an intelligent meta-scheduler determines the resource requirements and maps the processing required to a distributed Grid of com- pute resources using middleware such as Globus and Condor. At runtime each component produces distributed data, which can be monitored during execu- 179 II WISSENSCHAFTSFORSCHUNG tion and is also archived automatically as specified by the user. From the por- tal it is possible to browse this archive of results using post-processing visuali- zation tools and reuse results from the archive to seed new calculations“ (GENIE 2009: Vision). Die Komponenten für das Erdsystem liegen bereits vor. Woran gearbei- tet wird, sind kompatible und effiziente Grid-fähige Koppler. Die Idee des Grid Computing ist es, auf einer internetbasierten Oberfläche Zu- gang zu Supercomputern, Simulationen und Messinstrumenten zu ge- ben. In diesem Zusammenhang ist vom ‚virtual lab‘ und vom ‚web- portal based experiment management‘ die Rede. Ohne dass der Forscher sein Büro verlassen muss, kann er umfangreiche Experimentalsysteme je nach Fragestellung zusammenstellen und damit Experimente durchfüh- ren, da er auf Hard- und Software-Ressourcen weltweit Zugriff hat. Vo- raussetzung dafür sind nicht nur die als kompatible Module standardi- sierten Modelle und Koppler, sondern auch entsprechend vereinheitlich- te Datenformate wie netCDF oder HDF5. netCDF Network Common Data Form ist das gängige Format wissenschaftlicher Daten und ein Standard-Interface für den Datenaustausch. HDF5 Hierarchical Data Format ist ein weitverbreitetes Satelliten-Datenformat. Ein weiteres, von der WMO standardisiertes Format ist GRIB Gridded Binary, das für me- teorologische Reanalyse- und Vorhersagedaten verwendet wird. „In these [GRIB] codes the data are described in the message itself: it is the self-description feature. There will be sections at the beginning of the report, which define what data are transmitted in this message. These sections will in fact contain pointers towards elements in predefined and internationally agreed tables (stored in the official WMO Manual on Codes). Once these sections are read, the following part of the message containing the data (the Data Section) can be understood“ (WMO 2003: 2). Darüberhinaus gibt es Anstrengungen, die Metadaten wie Variablen- namen, Koordinatensysteme oder Einheiten zu standardisi 2eren. 2 “The netCDF library is designed to read and write data that has been struc- tured according to well-defined rules and is easily ported across various computer platforms. The netCDF interface enables but does not require the creation of self-describing datasets. The purpose of the CF conventions is to require conforming datasets to contain sufficient metadata that they are self-describing in the sense that each variable in the file has an associ- ated description of what it represents, including physical units if appropri- ate, and that each value can be located in space (relative to earth-based co- ordinates) and time. An important benefit of a convention is that it enables software tools to display data and perform operations on specified subsets of the data with minimal user intervention. […] This standard is intended for use with climate and forecast data, for atmosphere, surface and ocean, 180 3 PROFESSIONALISIERUNG DER MODELLIERUNG Doch Computerexperimente setzen eine weitere Standardisierung vo- raus, nämlich die der Verteilung der Messdaten. Bis heute liefert das verzweigte Netz aus Bodenstationen (ca. 260.000 Messdaten), Radio- sondierungen bzw. Wetterballons (ca. 600 Messdaten) und Satelliten (ca. 250.000 Messdaten) keine ausreichende globale Abdeckung. Die Stationen sind unregelmäßig verteilt und die Messdaten fehlerhaft. Da Simulationen in einer gleichmäßigen Gitterstruktur gerechnet werden – typischerweise in einem rechtwinkligen Euklidischen Gitter und seit Neuestem in einem Ikosaeder Gitter – müssen die Messdaten assimiliert, d.h. durch Interpolation in gleichmäßig verteilte Datenstrukturen über- führt werden. Dies ist keine triviale Aufgabe, wie die Beschreibung des DWD Deutschen Wetterdienstes illustriert: „Die Grundaufgabe der vierdimensionalen (3 Raum plus 1 Zeitdimension) Datenassimilation lautet somit: Aus unvollständigen und fehlerhaften Beob- achtungen zusammen mit einer näherungsweisen Beschreibung der Atmo- sphäre durch die prognostischen Gleichungen des Vorhersagemodells soll der wahrscheinliche augenblickliche Zustand der Atmosphäre analysiert so- wie der Fehler dieser Analyse bestimmt werden. Die ‚operationell’, also rou- tinemäßig täglich angewandten Verfahren der vierdimensionalen Datenassi- milation [...] beruhen auf zahlreichen Vereinfachungen, wie etwa Linearisie- rung einiger wichtiger Operationen und ad-hoc Spezifikation der erforderli- chen Beschreibung (mathematisch gefasst in ’Kovarianzmatrizen’) der statis- tischen Fehler der verschiedenen Eingangsinformationen“ (DWD 2009: Datenassimilation). Abbildung 19: Datenassimilation (l.) und ENVISAT Messdatenverteilung (r.) (DEKLIM 2009)3 and was designed with model-generated data particularly in mind” (CF Metadata Convention 2009: 1). 3 „Ozonwerte aus rund 33 km Höhe, von einem Messinstrument des ENVISAT-Satelliten gewonnen, wurden mit Hilfe des neuen Verfahrens bearbeitet [SACADA Synoptic Analysis of Chemical Constituents by Ad- vanced Satellite Data Assimilation]. Die rechte Graphik zeigt [das] Ergeb- 181 II WISSENSCHAFTSFORSCHUNG Primärdaten gibt es heute kaum noch. Messdatensätze werden mit Hilfe von Algorithmen automatisch in standardisierter Form aufbereitet und dafür nutzt man verschiedene mathematische Verfahren, aber auch Mo- delldaten. Noch deutlicher zeigt sich dies an den Satellitenbeobachtun- gen. Auch Satelliten liefern keine regelmäßig verteilten Messdaten und müssen entsprechend assimiliert werden. Wie umfangreich Datenassimi- lationen die Lücken ausgleichen, zeigt die Assimilation der ENVISAT Daten zur Ozonmessung, wie in Abbildung 19 dargestellt. Darüber hi- naus sind Satellitendaten indirekte Daten, die erst durch Datenretrievals gewonnen werden. „Die Datensignale der Satelliten müssen umgedeutet werden,“ wie ein Klimamodellierer, spezialisiert auf Satellitendaten, erklärte. „Umdeuten heißt, interpretieren auf Basis von Modellen. Satel- liten messen beispielsweise die Helligkeit im Blaubereich. Um daraus Informationen abzuleiten, müssen Annahmen über die Bewölkung ge- troffen werden, über die Dichte, Teilchengröße etc. Diese Unterschei- dungen kann die Momentaufnahme nicht liefern. Man muss adäquate Annahmen [basierend auf Modellerkenntnissen] treffen. Praktisch sieht es so aus, dass es bessere oder schlechtere Datenretrievals gibt“ (Inter- view 9, 2005). Dennoch werden Satellitendaten als „Messdaten einge- stuft, aber das sind sie eben nicht nur“ (Interview 9, 2005). Solche Datenretrievals werden automatisch auf Basis von Auswertungsalgo- rithmen durchgeführt. Ein weiterer, wichtiger Bereich der Standardisierung sind Referenz- datensätze. Referenzdatensätze werden weltweit benutzt, um Modelle zu testen und zu evaluieren. Die Standardisierung liegt hier in der Auswahl bestimmter Daten und deren Aufbereitung für die gesamte Scientific Community. Zu diesen Referenzdatensätzen zählen auch Reanalysen historischer Daten. Historische Daten sind für die Evaluierung von Kli- mamodellen wichtig. Reproduzieren Modelle, initialisiert auf Basis his- torischer Messdaten, das aktuelle Klima, dann wird davon ausgegangen, dass sie auch zukünftige Entwicklungen prognostizieren können. Histo- rische Messdaten liegen jedoch in einer sehr heterogenen Verteilung vor. Natürliche Datenarchive wie Eisbohrkerne, Baumstämme und Sedimen- te liefern nur lokale Informationen. Atmosphärendaten wurden bis in die 1940er Jahre in der Regel vom Boden her und Ozeandaten überhaupt nicht erhoben. Seit einiger Zeit werden daher historische Messdaten mit Assimilations-Techniken rekonstruiert bzw. neu berechnet, um räumlich nis einer zehntägigen, fortschreitenden Assimilation“ (DEKLIM 2006: SACADA). Ozonmessungen mit Hilfe von Fernerkundung sind relativ ge- nau, indem sie das reflektierte UV-Licht messen und damit auf die Ozon- werte rückschließen. 182 3 PROFESSIONALISIERUNG DER MODELLIERUNG wie zeitlich gleichmäßig verteilte Datensätze zu erhalten. Ein Beispiel sind die NCEP/NCAR Reanalysedaten des US-amerikanischen NCEP National Centers for Environmental Prediction und des NCAR National Centre for Atmospheric Science. Mit diesen Daten werden verschiedene, rekonstruierte Messdatensätze der meteorologischen Variablen für den Zeitraum von 1948 bis 2002 im netCDF Format zur Verfügung gestellt (vgl. NCEP/NCAR 2009: Reanalysis). Mit diesem Referenzdatensatz werden Modelle weltweit evaluiert und für Prognosen initialisi 4ert. Ein weiterer Reanalysedatensatz ist die ECMWF 40 Year Reanalysis (ERA- 40) des ECMWF European Centre for Medium-Range Weather Fore- casts. „The re-analysis project ERA-40 will cover the period from mid- 1957 to mid-2002, overlapping the earlier ECMWF re-analysis, ERA- 15, 1979 to 1993. [...] The data sets are based on quantities analysed or computed within the ERA-40 data assimilation scheme or from forecasts based on these analyses“ (ERA-40 2009). Referenzdatensätze liegen in der Regel im netCDF Format vor und können von internetbasierten Plattformen heruntergeladen werden. Eine Alternative dazu ist die Zu- sammenstellung eines individuellen Datensatzes aus einer Datenbank, die via Internet zugänglich ist. So bietet etwa das WDC World Data Center for Paleoclimatology mit der Ice Core Data Search einen solchen Service für Paleodaten an (vgl. NCDC/NOAA 2009: Ice Core Data S 5earch). Insgesamt gibt es 52 dieser World Data Center. 4 „The NCEP/NCAR Reanalysis 1 project is using a state-of-the-art analy- sis/forecast system to perform data assimilation using past data from 1948 to the present. A large subset of this data is available from PSD in its ori- ginal 4 times daily format and as daily averages. However, the data from 1948-1957 is a little different, in the regular (non-Gaussian) gridded data. That data was done at 8 times daily in the model, because the inputs avai- lable in that era were available at 3Z, 9Z, 15Z, and 21Z, whereas the 4x daily data has been available at 0Z, 6Z, 12Z, and 18Z. These latter times were forecasted and the combined result for this early era is 8x daily. The local ingestion process took only the 0Z, 6Z, 12Z, and 18Z forecasted va- lues, and thus only those were used to make the daily time series and mon- thly means here” (NCEP/NCAR 2009: Reanalysis 1, Summary). 5 “The World Data Center (WDC) system was created to archive and distri- bute data collected from the observational programs of the 1957-1958 International Geophysical Year. Originally established in the United States, Europe, Russia, and Japan, the WDC system has since expanded to other countries and to new scientific disciplines. The WDC system now includes 52 Centers in 12 countries. Its holdings include a wide range of solar, geophysical, environmental, and human dimensions data. These data cover timescales ranging from seconds to millennia and they provide base- line information for research in many ICSU [International Council for Sci- ence] disciplines, especially for monitoring changes in the geosphere and 183 II WISSENSCHAFTSFORSCHUNG Synchronisierung Neben den zahlreichen Aktivitäten der Standardisierung von Daten, Modellen und Experimentalvoraussetzungen spielt die Synchronisierung der Klimamodellierung eine herausragende Rolle. Die seit 1990 publi- zierten IPCC Berichte – FAR First Assessment Report 1990, SAR Se- cond Assessment Report 1995, TAR Third Assessment Report 2001, AR4 Forth Assessment Report 2007 - führten zu einer Umstrukturierung der Klimaforschung, die einzigartig in der Wissenschaftslandschaft ist. Die sich beteiligenden Institutionen waren aufgrund des Publikations- rhythmus gezwungen, ihre Entwicklungsarbeit an den Modellen zeitlich anzupassen. Dies bedeutet, dass bereits während der Publikation eines IPCC Reports über Modellverbesserungen für den nächsten Report bera- ten wird. Institute, die IPCC Szenarien berechnen, durchlaufen dann einen international konzertierten Zyklus der Modellverbesserung, der Modellevaluation und schließlich der Szenarienberechnung und -aus- wertung von fünf bis sechs Jahren. Mit dieser Synchronisation werden die Vergleichbarkeit der Modelle, Simulationsbedingungen und Ergeb- nisse sowie die Güte der Forschung sichergestellt. Dieser Turnus ist be- reits weltweit viermal durchlaufen worden und hat nun für den fünften Bericht, der 2014 publiziert werden soll, begonnen. Auf einer Experten- tagung im Juli 2009 wurden die Ziele für den nächsten Bericht bespro- chen. Für die Klimamodellierung, die in WGI Working Group I organis- iert ist, bedeutet dies: „The WGI assessment will address the full range of time scales (from decades to millennia) and space scales (from global to regional). This requires the consideration of the couplings between physical and biogeochemical processes and their influence on the sensi- tivity of the climate system, as well as the assessment of irreversible changes on the range of spatial scales in various components of the cli- mate system. [...] Efforts targeted in these directions are already under- way or planned within the climate modelling community (e.g. CMIP5 of WCRP)“ (IPCC 2009; 9, 10).6 biosphere - gradual or sudden, foreseen or unexpected, natural or man- made” (WDC 2009: About WDC). 6 „The IPCC Working Group I (WG I) assesses the physical scientific aspects of the climate system and climate change. The main topics asses- sed by WG I include: changes in greenhouse gases and aerosols in the at- mosphere; observed changes in air, land and ocean temperatures, rainfall, glaciers and ice sheets, oceans and sea level; historical and paleoclimatic perspective on climate change; biogeochemistry, carbon cycle, gases and aerosols; satellite data and other data; climate models; climate projections, causes and attribution of climate change” (IPCC 2009: Working Groups/ Task Force). 184 3 PROFESSIONALISIERUNG DER MODELLIERUNG Die Anforderungen an die Modellverbesserungen für AR5 sind auf- grund neuer Möglichkeiten wie Grid-Computing umfangreich. Bereits für AR4 waren die Modelle entscheidend verändert worden, denn es wurde erstmals mit gekoppelten Atmosphären-Ozeanmodellen gerech- net. Viele der Modelle waren zudem für Parallelrechner neu codiert und gleichzeitig umfangreich verbessert worden. Im vierten Bericht hieß es dazu: „Model improvements can, however, be grouped into three cate- gories. First, the dynamical cores (advection, etc.) have been improved, and the horizontal and vertical resolutions of many models have been increased. Second, more processes have been incorporated into the mod- els, in particular in the modelling of aerosols, and of land surface and sea ice processes. Third, the parametrizations of physical processes have been improved. […] These various improvements, developed across the broader modelling community, are well represented in the climate mod- els used in this report“ (IPCC AR4 WG1 2007: 596). Auf Basis der ver- besserten Modelle, zu welchen auch das Atmosphärenmodell ECHAM5 gekoppelt mit dem MPI-OM Ozeanmodell gehörte, wurden ab 2005 ver- schiedene Szenarien berechnet. Beispielsweise simulierte das Max- Planck-Institut für Meteorologie mit seinem gekoppelten ECHAM5/ MPI-OM Modell insgesamt achtzehn Szenarien. Dafür wurden allein im Jahr 2005 400.000 Rechnerstunden benötigt (vgl. Böttinger 2005). Generell handelt es sich bei den IPCC Berichten um eine außergewöhn- liche Form der Publikation. An den vierzehn Kapiteln des dritten Be- richts, der Ende 2001 veröffentlicht wurde, arbeiteten ab Mitte 1998 122 verantwortlichen Autoren und 515 Co-Autoren. „One and a half year later, in January 2001, when the final versions of the chapters were ac- cepted at the IPCC WGI plenary session in Shanghai, four revisions had been made of drafts of the chapters. The review rounds involved 420 experts and 100 governments. At the plenary session in Shanghai, the Summery for Policymaker (SPM) of the report was approved line by line by the governments in four days“ (Petersen 2006: 148). Jeder Kommentar im Rahmen des öffentlichen Schreibprozesses musste von den führenden Autoren berücksichtigt und geprüft werden. Einer der führenden Authoren des vierten Berichts erzählte im Gespräch, dass er über ein Jahr lang ausschließlich mit dem Schreiben und Korrigieren seines Kapitels beschäftigt war und auf hunderte Kommentare eingehen musste. Der Hintergrund für diesen Aufwand liegt in dem Wunsch, den Entstehungsprozess so offen und transparent wie möglich zu gestalten. Nahezu die gesamte Scientific Community der Klimaforschung ist in der einen oder anderen Weise an den Berichten beteiligt. Daher repräsentie- ren die IPCC Berichte den aktuellen Stand der Klimaforschung und die- 185 II WISSENSCHAFTSFORSCHUNG nen auch den Forschern selbst als Informationsquelle zu benachbarten Wissenschaftsgebieten. Doch der Aufwand der IPCC Berichte hat einen weiteren Grund. Der soziopolitische Einfluss ist unübersehbar und die Berichte sind nicht unumstritten (vgl. beispielsweise Shackley et al. 1999; Skodvin 2000; Miller, Edwards 2001; Voss 2008). Ausgangspunkte der Kritik sind die enge Verbindung von Wissenschaft und Politik und die Unsicherheit der Prognosen. Während die beiden ersten Berichte relativ konkrete Anga- ben in Form von ‚best guess‘ Aussagen für ein ‚business-as-usual‘ Sze- nario machten – beispielsweise eine globale Erwärmung bis 2100 von 3°C (FAR) respektive 2°C (SAR) und eine Erhöhung der Meeresspiegel um 65 cm (FAR) respektive 15-95 cm (SAR) – formulierte man im drit- ten und vierten Bericht vorsichtig 7er. Zum einen wurden unterschiedli- che sozioökonomische Szenarien als Ausgangsbasis der Projektionen entwickelt, zum anderen versuchte man, die Ergebnisse in Form von Wahrscheinlichkeitsaussagen zu relativieren. Bereits 1992 hatte man erstmals sechs Emissionsszenarien entwickelt, die für die Berechnung von Zukunftsprojektionen genutzt wurden (vgl. Leggett et al. 1992). Zwischen 1996 und 2000 wurden neue Szenarien entwickelt, welche den Projektionen des dritten und vierten Berichts zugrunde liegen und im SRES Special Report on Emission Scenarios veröffentlicht wurden (vgl. SRES 2000). In diesem Bericht sind vier Storylines (A1, A2, B1, B2) denkbarer sozioökonomischer Zukunftsentwicklungen auf Basis von Annahmen zum Bevölkerungszuwachs, zu technologischen und ökono- mischen Entwicklungen, zum Energieverbrauch und der Landnutzung formuliert. Anhand dieser Szenarien berechnete man für insgesamt vier- zig Szenarien die zu erwartenden Freisetzungen von Treibhausgasen, um damit Vorhersagen zum Klimawandel zu ermöglichen, unter dem Motto: Was wäre wenn? Die Antworten finden sich in den beiden Berichten von 2001 und 2007. So wird im vierten Bericht für das moderateste der Szenarien (B1) eine globale Erwärmung bis 2099 von 1,1 bis 2,9°C und ein Anstieg des Meeresspiegels von 18 bis 38 cm prognostiziert. Für das 7 „In preparation of the TAR, a strong demand for a more systematic appro- ach to uncertainties was identified and the subsequent discussions led to a so-called cross-cutting ‚Guidance Paper’ on uncertainties (Moss and Schneider 2000). In that guidance paper, Moss and Schneider proposed that authors should use a probabilistic scale that expresses Bayesian confi- dence estimates about claims in five categories: very low confidence (0- 5%), low confidence (5-33%), medium confidence (33-67%), high confi- dence (67-95%) and very high confidence (95-100%). […] In WG1, how- ever, the scale proposed by Moss and Schneider was changed into a likeli- hood scale which was not unequivocally defined by a Bayesian scale” (Pe- tersen 2006: 160, 161). 186 3 PROFESSIONALISIERUNG DER MODELLIERUNG dramatischste Szenario (A2FI) hingegen werden eine globale Erwär- mung von 2,4 bis 6,4°C und ein Anstieg des Meeresspiegels von 26 bis 59 cm errechnet (vgl. IPCC AR4 WG1 Summary 2007: 13).8 Diese Pro- jektionen werden im Kontext einer Wahrscheinlichkeitszuordnung als ‚likely‘ (66-90% Wahrscheinlichkeit) 9eingestuft. Die soziopolitische Bedeutung der IPCC Berichte sowie ihre Entstehung sind Thema sozial- und politikwissenschaftlicher Forschung. Ihre Be- deutung für die Modellierung und die Professionalisierung der Klima- forschung als Simulationswissenschaft ist bislang noch nicht im Detail untersucht worden. Doch bei näherer Betrachtung zeigt sich, dass die Synchronisierung der Modellierung und des Experimentierens im Rah- men der IPCC Berechnungen ein wichtiges Instrument im Umgang mit in-silico Experimentalsystemen vorangetrieben hat: den Modellver- gleich. „Das ist ja das schöne am IPCC Prozess, es gibt da Modellvergleiche. D.h. die Läufe werden ausgewertet. Derzeit ist es so, dass jede [an den IPCC Szenarien beteiligte] Gruppe einen Standardlauf macht. D.h. unter den gleichen Bedin- gungen führen alle Gruppen die gleichen Experimente durch. Und das liefert man Lawrence Livermore. Mit ihren riesigen Rechnern und einem großen Stab an Mitarbeitern schaufeln die das alles durch und werten alle Modellergebnis- se aus und zwar so, dass sie wirklich vergleichbar sind. Und daher weiß man auch nach jedem IPCC Prozess, wie steht man denn selbst da. Wie verhält man sich zu anderen Modellen? Wo ist man besser, wo ist man schlechter? Vergli- chen zu Beobachtungen natürlich. D.h. man sucht sich dann die Punkte heraus, wo man schwach ist und versucht sie zu verbessern. Sei es, dass man Parame- 8 „The B1 storyline and scenario family describes a convergent world with the same global population, that peaks in mid-century and declines there- after, as in the A1 storyline, but with rapid change in economic structures toward a service and information economy, with reductions in material in- tensity and the introduction of clean and resource-efficient technologies. The emphasis is on global solutions to economic, social and environmen- tal sustainability, including improved equity, but without additional clima- te initiatives. […] The A2 storyline and scenario family describes a very heterogeneous world. The underlying theme is self reliance and preserva- tion of local identities. Fertility patterns across regions converge very slowly, which results in continuously increasing population. Economic development is primarily regionally oriented and per capital economic growth and technological change more fragmented and slower than other storylines” (IPCC AR4 WG1 2007: 18). 9 „Virtually certain > 99% probability of occurrence; very likely > 90% probability; likely > 66% probability; about as likely as not 33 to 66% probability; unlikely < 33% probability; very unlikely < 10% probability; exceptionally unlikely < 1% probability” (vgl. IPCC 2005: 4). 187 II WISSENSCHAFTSFORSCHUNG trisierungen, die Andere schon verwenden auch verwendet, weil man das Ge- fühl hat, das könnte die Ursache sein dafür, dass sie besser sind. Sei es, dass man sich nach Neuem umsieht. Sei es, dass man selbst etwas entwickelt“ (Interview 19, 2006). Bereits 1978 hatte Jule Charney drei Atmosphärenmodelle miteinander verglichen (vgl. Phillips 2000a). Doch für Klimamodelle begann die Ära des Modellvergleichs erst in den 1990er Jahren mit den großange- legten Projekten des WCRP World Climate Research Programme: AMIP und CMIP. Ab 1990 wurden umfangreiche Studien zum Mo- dellvergleich im AMIP Atmospheric Model Intercomparison Project organisiert, das 1995 in das CMIP Coupled Model Intercomparison Project überführt wurde (vgl. AMIP 2009, CMIP 2009). Beide Projekte stehen im direkten Zusammenhang mit den IPCC Referenzmodellen und Szenarienberechnungen. Doch Modellvergleiche leisten mehr: „Overall, the vigorous, ongoing intercomparison activities have in- creased communication among modelling groups, allowed rapid identi- fication and correction of modelling errors and encouraged the creation of standardised benchmark calculations, as well as a more complete and systematic record of modelling progress“ (IPCC AR4 WG1 2007: 594). Eine Folge des verstärkten Austausches zwischen den Forscher- gruppen ist die Einrichtung von internetbasierten Plattformen, von welchen Modelle, Ergebnisse und Testberichte heruntergeladen werden können. Die M&D Modelle & Daten Gruppe in Hamburg administriert neben dem World Data Center for Climate eine solche Plattform für den Modell- und Datenaustausch. „While the development and operation of numerical climate models is becom- ing more complex, the model development is distributed among an increasing number of institutes. It is not just the pure number of program code-lines and the challenges for software engineers that are growing by the increasing com- plexity of models, model environments and computer architecture, but also the number of computed results and aspects of analysis. […] The considered workflows are * Integration of new model components, like e.g. atmospheric chemistry, land surface processes and inland-ice, into a coupled numerical model system (Earth System model), * Porting of Earth System models to different computer architectures, * Operating complex Earth System models for cost-effective computa- tions via chain experiments, * Postprocessing, analysis and visualisation of the computation results, size of data sets amounting to several Terrabytes, 188 3 PROFESSIONALISIERUNG DER MODELLIERUNG * Documentation, application-oriented long-term data storage and vali- dation of the computation results for own and external projects, * International distribution of Earth System research data and their inte- gration into common information systems. The workflows are processed exemplarily by M&D and abstracted. From this knowledge tool sets are developed, which will facilitate the day-to-day work of scientists. The development of tool sets was highly supported by the coop- erative work in the EU-project PRISM. In the framework of this project sev- eral Earth System models from different institutes equipped with a variety of computer architectures were made available for testing purposes. The aim of the activities of M&D is to develop and promote best practice methods to han- dle Earth System models and their results“ (M&D 2009: About us, Mission). Modelle, die früher nur in den jeweiligen Instituten oder im informellen Austausch kursierten, werden nun auf solchen Plattformen als Commu- nity Modelle öffentlich zugänglich koordiniert. Dies bedeutet, dass wei- tere Standardisierungen von Nöten sind, da neue Nutzergruppen die Modelle und Daten für ihre Forschung verwenden. Während es in den Experimentalwissenschaften üblich ist, akribische Dokumentationen der Experimente und Experimentalanordnungen zu geben, „[is] this same level of methodological detail […] only rarely provided for in numerical simulation or modeling studies. This is true in spite of the fact that nu- merical experimental systems are inherently reproducible; unlike a physical experiment, which may be subject to many sources of uncon- trollable variability, a valid numerical result can always be replicated exactly“ (Thornton et al. 2005: 431). Mit der CERA Datenbank des World Data Center for Climate wird versucht, diese Standardisierung voranzutreiben. „Model describing MD helps data users to understand how data have been generated. This becomes an important issue in pro- jects where multi-model data are analyzed by scientists not knowing the numerical models in detail (e.g. CMIP projects, IPCC). For these users it may be sufficient to know which schemes have been used and perhaps the values of characteristic parameters. While this will not enable them to reproduce model output, it may put them into the position to under- stand differences in model results from different models“ (M&D 2009: IMID, Model Metadata). Diese neuen Nutzer führen in der Forschung mit den in-silico Experi- mentalsystemen zur Ausdifferenzierung von Sub-Communities: Neben den Modellierern wächst die Anzahl der Modellnutzer und auch der Modelldatennutzer. Diese Sub-Communities sind zumeist institutionell voneinander unterschieden. Während die Modellierung von gekoppelten 189 II WISSENSCHAFTSFORSCHUNG Atmosphären-Ozean Modellen, wie sie mittlerweile Standard für IPCC Szenarien sind, in einer überschaubaren Anzahl von Instituten wie dem GDFL Geophysical Fluid Dynamics Laboratory in Princeton (GDFL- CM), dem Max-Planck-Institut für Meteorologie in Hamburg (ECHAM/MPI-OM), dem IPSL Institut Pierre Simon Laplace in Paris (IPSL-CM), dem BCC Beijing Climate Centre in Beijing (BCC-CM) oder dem Hadley Centre for Climate Prediction in Exeter (UKMO- HadCM) geschieht, finden sich die Modell- und Modelldatennutzer vor allem im universitären Bereich oder in Instituten, die im Rahmen der zunehmenden Interdisziplinarität der Erdsysteme für ihre Forschungen auf spezifische Modell- und Datenauswertungen der Klimaforscher an- gewiesen sind. Durch den aktuellen Trend zur Modellierung von Erdsys- temen mit Biosphäre, Ökosphäre und Anthroposphäre ist ein weiterer Zuwachs der Nutzergruppen zu erwarten. Während Modellnutzer be- stehende Modelle modifizieren und dann für ihre spezifischen Experi- mente verwenden, greifen Datennutzer auf die in-silico und in-situ Daten der Community zurück und analysieren diese auf spezifische Fra- gestellungen hin. Diese Spezialisierung kann als ein Indiz der Professio- nalisierung im Umgang mit den Modellen gewertet werden. Der Wis- sensaustausch geht dabei in beide Richtungen. Die Nutzer von Modellen geben in der Regel den Modellierern ein Feedback mit Hinweisen zu Problemen und Modellverbesserungen, die dann in die Programmierung der nächsten Modellversion einfließen. Ebenso nutzen die Modellierer Analysen der Datennutzer zu ihren in-silico Experimentaldaten, um ggf. die Modelle zu verbessern. Meist werden diese Austauschprozesse in Workshops organisiert. Modellierer Mod ellnutzer Konstruktion/Evaluation: Modelle ↔ Modelle: Modifikation/Evaluation Experimente: Daten Experimente: Daten ↕ ↕ Datennutzer Daten: Analyse und Vergleiche Abbildung 20: Sub-Communities der gekoppelten Atmosphären-Ozean- Modelle und Erdsysteme (Gramelsberger 2009) 190 3 PROFESSIONALISIERUNG DER MODELLIERUNG Modellkomplexität Die Ausdifferenzierung in Sub-Communities und die Zunahme der Mo- dell- und Datennutzer weist auf eine weitere Entwicklung hin: die zu- nehmende Modellfülle und Modellkomplexität. Zirkulationsmodelle sind nur eine Art von Modellen, die in der Klimaforschung Verwendung finden. EMICs Earth System Models of Intermediate Complexity, Box- modelle, konzeptuelle Modelle und Prozessmodelle sind weitere gängige Modellarten. EMICs werden seit gut zehn Jahren entwickelt und sie werden vor allem dafür genutzt, die Interaktion zwischen verschiedenen Modellkomponenten zu untersuchen. Da sie vereinfachte Versionen der gekoppelten Atmosphären-Ozean-Modelle sind und daher weniger Re- chenkapazitäten benötigen, lassen sich mit ihnen wesentlich mehr Expe- rimente und diese über längere Zeiträume durchführen. EMICs sind auch für Sensitivitätsstudien geeignet, um die Sensitivität des Modells auf Parameterjustierungen zu testen. Die verschiedenen Modellarten werden oft in einer hierarchischen Einteilung von großen Modellen (Erdsysteme, Zirkulationsmodelle) zu kleinen Modellen (EMICs, konzeptuelle Modelle) gewertet (vgl. Hen- derson-Sellars, McGuffie 1987). Die Erfahrung der letzten Jahre bezüg- lich der Modellevaluierung zeigt jedoch, dass das gesamte Spektrum an Modellen notwendig ist, da sich die Modelle gegenseitig ergänzen und voneinander abhängig sind. So benötigen EMICs die getesteten Parame- trisierungen der großen Modelle, während diese oft zu komplex sind, um detaillierte Studien zur Sensitivität der Modelle durchzuführen. Boxmo- delle dienen, wie das Beispiel der Fehlersuche in der Vulkanparametri- sierung zeigte, dem Test einzelner Modellkomponenten und konzeptuel- le Modelle wiederum sind für die Veranschaulichung grundlegender Prozesse unabdingbar. „Definition of climate in terms of the state and statistics of the climate system components is now commonly accepted, at least in the community of climate modelers. Because of the broad spectrum of typical time scales of the different components of the climate system, simulation of climate system dynamics requires different types of models. […] Generally, we argue that there is a clear advantage in having available a spectrum of climate system models. Most EMICS are specifically designed for long-term simulations over many millennia, and some are designed to simulate the interaction of as many com- ponents of the climate system as possible in an efficient manner. Moreover, EMICs can explore the parameter space with some completeness. Thus, they are more suitable for assessing uncertainty, which CGCMs [coupled atmos- phere and ocean general circulation models] can do to a significant lesser ex- tent. On the other hand, it would not be sensible to apply EMICs to studies 191 II WISSENSCHAFTSFORSCHUNG which require high spatial resolution. EMICs can also be used to screen the phase space of climate or the history of climate to identify interesting time slices, thereby providing guidance for more detailed investigations to be un- dertaken by CGCMs. For the interpretation of model results, conceptual mod- els appear to be very useful“ (Claussen et al. 2002: 584, 595). Der Trend zur Modellierung von Erdsystemen zeigt, dass die Vielfalt der Modelle sowie ihre Kombinationsmöglichkeiten steigen. Die Vision einer ‚plug-and-play‘ Umgebung für in-silico Experimentalsysteme lässt jede Art von Modell zum integrierbaren Modul werden. Standardisie- rungen sowie die Entwicklungen im Software Engineering der Modelle – Kapselung, definierte Input/Output-Schnittstellen, etc. – unterstützen diese Tendenz. Doch neben der zunehmenden Fülle an Modellen steigt auch die Modellkomplexität rapide an.10 Während der dynamische Kern der Zirkulationsmodelle relativ alt ist und auf Vilhelm Bjerknes Konzept von 1904 zurückgeht, wächst die Anzahl der integrierten Prozesse in Form von Sub-Modellen und Parametrisierungen. Parametrisierungen sind notwendig, da die Diskretisierung der dy- namischen Grundgleichungen den meteorologischen Variablen nur einen Mittelwert je Volumenelement zuordnet, der subskalige Bewegungs- und Transportvorgänge nicht erfasst. Um diese subskaligen Prozesse in ihrer Wirkung auf die gemittelten Größen zu berücksichtigen, bedarf es expliziter Beschreibungen in Form von Parametrisierungen, wie das Beispiel des Schmelzvorgangs in stratiformen Wolken illustrierte. „Man löst dies Problem durch Hinzufügungen von Parametrisierungen, d.h. von Termen, die den Netto-Effekt der nichtaufgelösten Prozesse auf die durch Diskretisierung aufgelösten Prozesse darstellen. Diese Terme, oder Einflüsse von im wesentlichen Unbekanntem, werden als (determi- nistische) Funktionen der aufgelösten, mittleren Zustandsvariablen for- muliert“ (von Storch, Güss, Heimann 1999: 109). Interessanter Weise gibt es weder in der Mathematik noch in der Meteorologie eine einheit- liche Definition dessen, was unter dem Begriff des Parameters verstan- den wird. „There are four possibilities to derive parameterizations: 1) derive an analytical expression of the process of interest from first prin- ciples. 2) Use results from laboratory studies and assume that the rela- tionship amongst the variables is still valid in the real atmosphere. 3) Use data from field measurements: either long-term measurements or measurement campaigns. 4) Use detailed models which resolve the 10 Komplexität nimmt hier Bezug auf die Anzahl der integrierten Prozesse und nicht auf die mathematische Komplexität nicht-linearer Prozesse, wie sie in der Dynamik der Modelle Anwendung findet. 192 3 PROFESSIONALISIERUNG DER MODELLIERUNG process of interest and derive a parameterization based on that“ (Loh- mann et al. 2006: Submission). Die Parametrisierungen in den Modellen wachsen enorm an und ermög- lichen es, immer mehr Prozesse zu integrieren. So ‚schwimmen‘ in den simulierten Ozeanen mittlerweile Fische, denn auch sie haben Einfluss auf den Kohlendioxidhaushalt der Meere.11 Doch Parametrisierungen gelten als problematisch, da sie nur selten auf physikalischen Grund- prinzipien basieren (first principles). Meist beruhen sie auf funktionalen Zusammenhängen oder empirisch begründeten Annahmen, die aus Be- obachtungen und Messkampagnen stammen. Die Problematik resultiert aus der Anpassung der empirisch gewonnenen Parametrisierungen an die großskaligen und gemittelten Modelle anhand von Messergebnissen, die sich auf Punktmessungen oder kleine Messareale beziehen und somit kleinräumige Effekte widerspiegeln. Parametrisierungen sind daher oft lokalen Beschränkungen unterworfen, während sie im Modell global gültig sind. Als Alternative zu diesen empirischen Parametrisierungen sind Prozessmodelle für kleinskalige Prozesse denkbar, beispielsweise hoch aufgelöste Wolkenmodelle, aus welchen dann Parametrisierungen gewonnen werden. Ein Großteil der Forschungs- wie der Modellie- rungsarbeit konzentriert sich daher auf die Integration adäquater Para- metrisierungen in die Modelle. „Man benötigt viel Zeit, bis man neue Parametrisierungen modelliert und codiert hat. Diese werden erst im Einzelnen getestet und dann im Ensemble“ (Interview 19, 2006). Die 11 Ozeane nehmen CO2 auf und speichern es. Daher ist es für die Klimafor- scher von Interesse, diese Speicherprozesse in das Modell zu integrieren. CO2 wird von dem, an der Ozeanoberfläche schwimmenden Phytoplank- ton aufgenommen. Phytoplankton steht am Beginn der Nahrungskette und wird von Zooplankton und Fischen gefressen. Dadurch gelangt der Koh- lenstoff relativ schnell wieder in den Ozean und die Atmosphäre zurück. Sinkt das Plankton hingegen zu Boden, wird Kohlenstoff langfristig ge- speichert. Dieser Prozess lässt sich modellieren und in die Ozeanmodelle integrieren. Aktuell geschieht das in Form eines Plankton-Fisch-Kohlen- stoff Parameters. Dieser Parameter ist, wie all die anderen Parameter eines Klimamodells, ein mathematischer Term der charakteristischen Plankton- Fisch-Kohlenstoff Veränderungsrate gemittelt auf den gesamten Ozean. Veränderungsraten basieren auf mathematischen Termen, welche die Ab- nahmen (Senken) und Zunahmen (Quellen) eines Prozesses angeben. Im Beispiel des Plankton-Fisch-Kohlenstoff Parameters nimmt der freigesetz- te Kohlenstoff zu, wenn die Anzahl der Fische zunimmt, da dann mehr Plankton konsumiert wird und dadurch der im Plankton gespeicherte Koh- lenstoff über die Fische freigesetzt wird. Dieser komplexe Prozess wird als global gemitteltes, relativ einfaches Verhältnis abstrahiert und als mathe- matischer Term in das Modell eingefügt. Auf diese Weise werden zahlrei- che subskalige Prozesse in die Modelle integriert. 193 II WISSENSCHAFTSFORSCHUNG Problematik der Parametrisierungen liegt darüber hinaus in jenen Para- metern, die sich nicht messen lassen. Sie müssen justiert werden, doch es gibt kaum Anhaltspunkte, wie die Justierungen geeicht werden kön- nen. Dies ist einer der Hauptkritikpunkte an Klimamodellen. „The parametrizations also involve numerical parameters that must be speci- fied as input. Some of these parameters can be measured, at least in principle, while others cannot. It is therefore common to adjust parameter values (possi- bly chosen from some prior distribution) in order to optimise model simulation of particular variables or to improve global heat balance. This process is often known as ‚tuning’. It is justifiable to the extent that two conditions are met: 1. Observationally based constraints on parameter ranges are not exceeded. Note that in some cases this may not provide a tight constraint on parameter values (e.g., Heymsfield and Donner, 1990). 2. The number of degrees of freedom in the tuneable parameters is less than the number of degrees of freedom in the observational constraints used in model evaluation. This is believed to be true for most GCMs“ (IPCC AR4 WG1 2007: 596). Da die Zirkulationsmodelle jedoch alle auf derselben Dynamik beruhen, unterscheiden sie sich in erster Linie in ihren Parametrisierungen. „Es ist eigentlich so, dass wir neue Parametrisierungen einführen, die über das hinausgehen, was andere haben und wir von daher neue Fragen stellen und beantworten. Und es hat jedes Institut so seine Spezialitäten. Aber im Großen und Ganzen wird schon viel von der Community vorgege- ben“ (Interview 19, 2006). Evaluierung Computerexperimente benötigen auf Grund ihres rein semiotischen Sta- tus neue Evaluierungsstrategien. Im Unterschied zu Laborexperimenten können sie nicht auf das Korrektivum der materialen Widerständigkeit hoffen und insofern auch nicht sch 12eitern. Als Erkenntnisinstrumente, die in der Tradition von quantitativen Prognosen und Präzisionsmessun- gen stehen, werden mit Computerexperimenten Fluten von Daten gene- riert. Die klassische Version der Hypothesenprüfung an „empirisch möglichst leicht nachprüfbare bzw. anwendbare singuläre Folgerungen 12 Allenfalls ein Computercrash lässt vermuten, dass innerhalb des Modells etwas konfligiert, wie das Beispiel der Fehlersuche in der Vulkanparame- trisierung verdeutlichte. Dies muss allerdings nicht automatisch bedeuten, dass die neu hinzugefügte, codierte Theorie falsch ist. Ein Computerab- sturz kann auch auf bereits bestehende Fehler oder Unzulänglichkeit im Modell hinweisen, die zuvor nicht zu Tage getreten sind. 194 3 PROFESSIONALISIERUNG DER MODELLIERUNG (‚Prognosen‘)“ (Popper 1935/1989: 8) entspricht der Ja/Nein-Logik phy- sikalischer Experimente. Die Evaluierungsstrategien, die in den letzten Jahrzehnten entwickelt wurden, tragen jedoch der Eigenart der Compu- terexperimente und ihren Datenfluten Rechnung. Einen guten Überblick über die Entwicklung liefert das achte Kapitel Climate Models and Their Evaluation des aktuellen IPCC Berichts (vgl. IPCC AR4 WG1 2007: 589-662). Dabei lassen sich zwei Arten von Evaluationsstrategien für die Resultate der Computerexperimente aufzeigen: die Evaluation an der Empirie (Messdaten) wie auch an Modellen. Zudem haben sich zwei unterschiedliche Perspektiven der Evaluation von in-silico Experimen- talsystemen herausgebildet: die Evaluation auf Systemeben als auch auf Komponentenebene. „A climate model is a very complex system, with many components. The model must of course be tested at the system level, that is, by running the full model and comparing the results with observations. Such tests can reveal problems, but their source is often hidden by the model’s complexity. For this reason, it is also important to test the model at the component level, that is, by isolating particular components and testing them independent of the complete model“ (IPCC AR4 WG1 2007: 594). Die Auflösung der Komponentenevaluie- rung reicht von Modellteilen und Modulen bis zu einzelnen Parametri- sierungen. Mathematische Tests zu numerischen Verfahren und Fallstudien zu Parametrisierungen werden in internationalen Messkampagnen, Projek- ten und Workshops organisiert. In solchen Workshops wird beispiels- weise die Dynamik der teilnehmenden Modelle hinsichtlich ihrer Per- formance und Zuverlässigkeit unter standardisierten Vorgaben getestet und miteinander verglichen. Parametrisierungen werden in aufwendigen Kampagnen überprüft und verbessert. Das EUROCS European Cloud Systems Projekt beispielsweise untersuchte die Parametrisierung von Wolken in Klimamodellen. Ziel war es, durch Analyse von Mess- und Simulationsdaten die Wolkenschemata zu verbessern. „Clouds probably remain the largest source of uncertainty affecting evalua- tions of climate change in response to anthropogenic change. That explains for a large part why the range of simulated temperature changes in response to a CO2 doubling (1.5 to 4.5 C) is quite invariant for almost 20 years [...]. The recent interest to develop capability to predict regional climate changes stress the importance to better represent clouds in models. [...] The strategy used in EUROCS to address these issues is based on the use of a hierarchy of models and observations to integrate cloud studies across the full range of scales. Nu- merical models range from General Circulation Models (GCMs) through Sin- gle Column Models (SCMs) to Cloud Resolving Models (CRMs) and Large Eddy Simulations (LES). Observations which will be used will vary from 195 II WISSENSCHAFTSFORSCHUNG global satellite measurements to local observations of individual clouds through lidar and millimetric radars.“ (EUROCS 2003: Project Description). Das Ziel der Evaluation einzelner Komponenten ist es, Benchmark Tests der Prozesse und Metriken zur Zuverlässigkeit der Resultate zu entwi- ckeln.13 Doch um überhaupt Komponenten testen zu können, bedarf es zu allererst einer Evaluation des gesamten Modells auf Systemebene. Grundlegendster Test hierbei ist die Evaluation der Modellergebnisse im Vergleich zum aktuellen Klima. Dazu werden die Modelle mit histori- schen Daten gestartet, beispielsweise mit Klimadaten aus der Zeit vor der Industrialisierung oder noch früher. Repräsentieren die Ergebnisse das aktuelle Klima, dann wird davon ausgegangen, dass man das Modell auch für Zukunftsprojektionen nutzen kann. Die Evaluation eines Mo- dells berücksichtigt auch bestimmte Muster, die im Wechsel der berech- neten Jahreszeiten auftreten, wie die Konversion der Wetterlagen oder regelmäßig auftretende Wetterphänomene. Bildet ein Modell diese Mus- ter nicht aus, ist es fehlerhaft. Eine weitere Möglichkeit der Evaluation bietet sich im Vergleich zwischen Klima- und Wettermodellen. Beide basieren auf derselben Dynamik und auf ähnlichen Prozessen. Doch Wettermodelle sind wesentlich höher aufgelöst, in der Regel auf einige Kilometer. Dadurch lassen sich bestimmte Prozesse zwischen beiden Modelltypen vergleichen und untersuchen. Eine relative neue Art, Klimamodelle zu evaluieren sind Ensemble- prognosen. Mit der steigenden Leistungsfähigkeit der Computer ist es möglich geworden, zunehmend umfangreichere aber auch zahlreichere Simulationsläufe zu berechnen. Da Klimamodelle komplexe Systeme sind, die sensitiv auf die gewählten Anfangsbedingungen reagieren, ver- sucht man mit Ensemble-Prognosen den Grad der Sensitivität eines Mo- dells zu bestimmen. Indem Hunderte von Modell-Läufen bei leicht vari- ierenden Anfangsbedingungen durchgeführt werden, lässt sich erkennen, wie sensitiv sich das Modell verhält. Weichen die Resultate der einzel- nen Modell-Läufe zu stark voneinander ab, da das Modell zu sensitiv reagiert, gilt es, die Prognosekraft des Modells kritisch zu hinterfragen. Doch Ensemble-Prognosen leisten noch mehr. Es wird davon ausgegan- gen, dass der aus den zahlreichen Läufen errechnete Mittelwert statis- 13 „A number of different observationally based metrics have been used to weight the reliability of contributing models when making probabilistic projections [...] The above studies show promise that quantitative metrics for the likelihood of model projections may be developed, but because the development of robust metrics is still at an early stage, the model evalua- tions presented in this chapter are based primarily on experience and physical reasoning, as has been the norm in the past” (IPCC AR4 WG1 2007: 594, 595). 196 3 PROFESSIONALISIERUNG DER MODELLIERUNG tisch betrachtet eine höhere Prognosegüte hat als einzelne Experimente. Daher sind Projektionen basierend auf Ensembleprognosen zuverlässi- ger. Ziel dieser Evaluationsbemühungen ist es, die Modelle wie auch Modellergebnisse verlässlicher zu machen. Wie die zu niedrigen Tempe- raturen in bestimmten Höhen basierend auf einer nicht adäquaten Was- serdampfverteilung im Modell (cold bias) zeigt, repräsentieren globale Klimamodelle regional nie exakt das aktuelle Klima. In der Summe gleichen sich diese Schwächen jedoch oft aus. Da Klima, dem Pro- gramm von Julius Hann folgend, der gemittelte Zustand der Atmosphäre basierend auf der Summe aller meteorologischen Phänomene ist (vgl. Hann 1908), ist die Regionalisierung in globalen Modellen eine Heraus- forderung für die Klimamodellierung. Da man sowohl für die Vorhersa- ge zukünftiger Entwicklungen, als auch für Experimente mit dem Klima allein auf in-silico Experimentalsysteme angewiesen ist, lässt sich nach- vollziehen, warum ein derartiger Aufwand für die Modellierung und Evaluierung betrieben wird. Dabei verändert sich sozusagen nebenbei die Forschungslandschaft als auch die Forschungspraxis und gestaltet die Meteorologie in eine paradigmatische e-Science um. Reshaping Science Die Umgestaltung der Meteorologie zur paradigmatischen e-Science mit ihrer Leitfunktion im Umgang mit in-silico Experimentalsystemen und Computerexperimenten, zeigt sich an den dargestellten Indikatoren: Der Standardisierung und Synchronisierung der in-silico basierten For- schungspraxis, der Ausdifferenzierung von Sub-Communities, der koor- dinierten und zunehmend standardisierten Modelldistribution innerhalb der Klima- und Erdsystemforschung, der Möglichkeit des Modellver- gleichs, der Etablierung einer internationalen Infrastruktur der Modell- evaluierung, der zunehmenden Standardisierung der Modelleinbettung für plug-and-play Erdsysteme und der, mit diesen Entwicklungen ein- hergehenden Professionalisierung der Modellierung. Eine wesentliche Voraussetzung hierfür ist, dass der Einfluss des Computers seit den 1950er Jahren zu einer Vereinheitlichung der Meteorologie führte. „As a result of the growth of science, the availability of computers, and the new style of research and practice, meteorology became a much more unified discipline“ (Nebeker 1995: 184). Wurde die Meteorologie be- züglich ihrer Messkampagnen im 20. Jahrhundert zur Großforschung, so ist sie es nun auch bezüglich ihrer in-silico Experimentalsysteme gewor- den. Aktuell werden die Vorhersagemodelle, wie die gekoppelten Atmo- 197 II WISSENSCHAFTSFORSCHUNG sphären-Ozean-Modelle oder die Erdsysteme, aus der Forschung he- rausgenommen und in einen operation 14ellen Betrieb überführt. Die Administration dieser Modelle sowie ihre Zurverfügungstellung für im- mer mehr Nutzer, auch außerhalb der Meteorologie, erfordert diesen Schritt. Die Folge ist, dass sich die in-silico Experimentalsysteme in ihrem Status zunehmend zu Großforschungsinstrumenten ähnlich Satel- liten wandeln, die Serviceleistungen erbringen – für die Wissenschaft oder, wie im Falle der Wettervorhersage und der Klimaprojektionen, für Industrie und Gesellschaft. In Hinblick auf die Neuheit der Simulation als Instrument wissenschaft- licher Erkenntnisproduktion, lässt sich diese Entwicklung als zuneh- mende Etablierung der Simulation als gängiges Erkenntnisinstrument deuten. Dabei verändert sich jedoch nicht nur die Forschungspraxis er- heblich, sondern auch die Logik und Epistemik der Forschung. „The large computer models, either for forecasting or for climate simulations, provided a way of tying together theoretical results. […] Indeed, the re- search on the individual processes was often motivated by the desire to improve large models“ (Nebeker 1995: 184). Diese Entwicklung führt dazu, dass “a variety of physical processes could be synthesized mathe- matically within the computer“ (Charney 1972: 117). Als Synthesizer für Theorien verstanden, als synoptisches Theorieinstrument oder als Theoriebaukasten unterliegt der Computer einer anderen Logik, als der analytischen, auf einzelne Prozesse konzentrierten Erkenntnisinstrumen- te. Es geht um eine neue Art des Experimentierens mit Messdaten aufge- ladenen Theorien. Doch wenn sich die Epistemik und Forschungslogik ändert, dann ändert sich auch das Bild der Welt, wenn sie aus dieser neuen Perspektive betrachtet wird. Der Vergleich mit der wissenschaft- lichen Revolution in der Neuzeit scheint daher angebracht. Ebenso wie sich damals die Methoden und Blickweisen änderten und damit das, was als wissenschaftliche Erfahrung galt, vollzieht sich mit dem Computer eine ähnliche Veränderung. Analog zu den Transformationen des 17. Jahrhunderts verändert sich die Wissenschaft als Computational Science heute. „There is no one independently given class of practises that natu- rally correspond to the label „scientific experimentation“[heute: scien- tific simulation]; there are many different practices, with their associated epistemological characterizations, that relate to experience and its place 14 Diese Entwicklung der Klimamodellierung hin zur Großforschungsein- richtung und zum operationellen Betrieb der Modelle lässt sich an den ak- tuellen Umstrukturierungen des NCAR National Center for Atmospheric Research in Boulder und dem dortigen CCM Climate Community Model erkennen. 198 3 PROFESSIONALISIERUNG DER MODELLIERUNG in the creation of natural knowledge. In the seventeenth century [heute: twenty-first century] old practices changed and new ones appeared. Those changing practises represent shifts in the meaning of experience itself – shifts in what people saw [heute: see] when they looked at the events in the natural world“ (Dear 1995: 12, 13). Wie dieser „shift in the meaning of experience itself“ heute aussieht, wird im Rahmen der philo- sophischen Verortung der Computerexperimente zu klären sein. 199 III PHILOSOPHISCHE VERORTUNG 1 COMPUTEREXPERIMENTE Der Einblick in die Klimamodellierung und ihren Umgang mit Compu- terexperimenten zeigt, dass sich die Meteorologie in den letzten zehn Jahren zu einer paradigmatischen e-Science entwickelt hat. Doch die Meteorologie steht damit nicht alleine da, auch wenn ihre besonderen Voraussetzungen diese Transformationen forciert haben. In nahezu allen naturwissenschaftlichen Disziplinen lassen sich ähnliche Entwicklungen ausmachen. Der Computer als Forschungs-, Erkenntnis- und Prognose- instrument hat mittlerweile jeden Winkel der wissenschaftlichen Welt erreicht und hinterlässt seine Spuren. Damit hat die zweite Hälfte der wissenschaftlichen Revolution, von der James Glimm in der bereits zi- tierten Hommage an John von Neumann sprach, begonnen.1 Für die wis- senschaftsphilosophische Verortung der Computerexperimente ist es daher hilfreich, die allgemeinen Bedingungen ihrer Möglichkeit aus dem historischen Kontext sowie dem Fallbeispiel der Klimamodellierung zu rekonstruieren. 1 „John von Neumann foresaw that the equations describing scientific phe- nomena, once expressed in mathematical terms, could be solved numeri- cally, without recourse to routine or repetitive experiment. This vision is nothing less than the second half of the scientific revolution. Throughout four centuries we have expected that a successful scientific theory would have its major concepts expressed quantitatively as numbers and its major relationships expressed as mathematical equations; the truth of this theory was settled by experimental tests and hand calculations, often in idealized situations. The second half of the scientific revolution is no less sweeping in its goals. The solutions of the equations are also to be obtained on mathematical grounds, by numerical computation, without restriction to idealized cases”(Glimm 1990: 185). 203 III PHILOSOPHISCHE VERORTUNG Al lgemeine Bedingungen Wie die historische Rekonstruktion zeigte, gründen Computerexperi- mente in der wissenschaftlichen Revolution des 17. Jahrhunderts. Die maßgeblichen Leistungen dieser Revolution waren die Substitution le- bensweltlicher Wahrnehmungen durch instrumentenbasierte Handlungen (Experimente) und Aufzeichnungen (Messungen) als auch die Quantifi- zierung und Mathematisierung dieser instrumentenvermittelten Erkennt- nisse. Indem die theoretischen Begriffe nicht mehr substantiell, sondern operationell konzipiert wurden – Isaac Newton betrachtete physikalische Vorgänge als Wechselwirkungen von Raum, Zeit und Massepunkten (vgl. Newton 1687) – ließen sie sich als Maße, bezogen auf Raum und Zeit, definieren. Und indem Raum und Zeit nicht mehr als kontinuierli- che Größen verstanden wurden, sondern als differenzierbar – und mit dem Differenzialkalkül ein geeignetes mathematisches Instrument zur Erfassung von Veränderung geschaffen worden war – schloss sich der Kreis zwischen Quantifizierung und Mathematisierung realweltlicher Phänom 2ene. Diese Entwicklungen schafften die Voraussetzung für die Neudefinition dessen, was unter wissenschaftlicher Erfahrung und unter Wahrheit, besser gesagt: Evidenz, zu verstehen war. Nicht mehr die all- gemeine Einsichtigkeit der Phänomene, wie seit Aristoteles gefordert, war das entscheidende Evidenzkriterium, sondern ihre Quantifizierbar- keit und Berechenbarkeit. Damit war „die Basis dafür gelegt, wahr mit mathematisch zu identifizieren“ (Böhme 1977: 252) und die Legitima- tion wissenschaftlicher Fakten an mathematische Verfahren und Instru- m nt zu d l gi r n.3e e e e e e Möglich wurde dies durch die Lockerung der an- 2 Dieser Kreis meint den Zusammenschluss der „concepts expressed quanti- tatively as numbers“ (Messung) mit den „major relationships expressed as mathematical equations“ (Gesetze) und begründet die Basis der strukturel- len Isomorphie zwischen mathematischer Beschreibung und Welt (vgl. Glimm 1990). 3 In ihrer Studie Experimentelle Philosophie. Ursprünge autonomer Wissen- schaftsentwicklung rekonstruieren Gernot Böhme, Wolfgang van den Dae- le und Wolfgang Krohn diesen Übergang als einen Prozess der kognitiven Ausdifferenzierung eines neuen Subjekt-Objekt-Verhältnisses. Rekurrie- rend auf Jean Piaget zeigen sie den Übergang zu einem konstruktivisti- schen Subjekt-Objekt-Verhältnis auf, dessen Prinzipien auf die Wissen- schaft angewandt „Gesetzmäßigkeit der Erfahrung, Fortschrittsbewußt- sein, konstruktives Modelldenken“ bedeuten (Böhme, van den Daele, Krohn 1977: 8; vgl. Piaget 1972, 1973). Eine der Folgen dieses neuen Verhältnisses ist die Relativierung der Erkenntnis: „Das Bewußtsein da- von, daß die Erkenntnis des Menschen von den Bedingungen abhängt, unter denen er sie beginnt, erfährt die Präzisierung, daß der Mensch zwi- schen sich und die Natur Instrumente einfügt, von deren Sicherheit er überzeugt ist“ (Krohn 1977: 114). 204 1 COMPUTEREXPERIMENTE tiken Exaktheitsforderung und durch das neue ‚Prinzip der Stetigkeit‘ (vgl. Klein 1895). Indem die zunehmend zahlreicher werdenden, empirischen Einzel- daten unter Gesetze subsumierbar und Prognosen extrapolierbar wurden, transformierte sich die induktiv-deduktive Rekonstruktion der Phäno- mene in den hypothetisch-deduktiven Forschungsstil der Moderne. Die- ser neue Forschungsstil setzte Experimentalforschung mit Präzisions- messung gleich und koordinierte Experiment, Messung und Theorie in ein und demselben Darstellungsraum: einem durch Koordinaten metri- sierten, rein symbolischen Raum der Mannigfaltigkeiten. Dadurch kehr- te sich das Verhältnis von Theorie und Empirie um: Hypothesen waren nicht mehr zwingend an vortheoretische Beobachtungen gebunden, son- dern konnten durch quantitative Prognosen der mathematisierten Theo- rien gewonnen und in der messenden Experimentalforschung bestätigt werden. Die Extrapolation avancierte zum maßgeblichen Forschungsins- trument der Mod 4erne. Solange es sich dabei um „empirisch möglichst leicht nachprüfbare bzw. anwendbare singuläre Folgerungen (‚Progno- sen‘)“ handelte, konnte deren Richtigkeit oder Falschheit in „den Expe- rimenten usw., entschieden“ werden (Popper 1935/1989: 8). Doch an- stelle eines experimentellen Gelingens oder Fehlschlagens trat nun zu- nehmend die exakte Messung: „Die Antwort, die das Experiment gibt, ist nicht mehr ein einfaches ‚ja‘ oder ‚nein‘, vielmehr ein gemessener Zahlenwert“ (Stichweh 1984: 233) beziehungsweise eine Flut an Mess- daten. Doch wenn die experimentellen Antworten komplexer wurden, dann mussten auch die Fragen, in Form von deduzierten Folgerungen, komplexer werden. Damit gelangte die wissenschaftliche Revolution der Neuzeit in der Moderne an ihr vorläufiges Ende, denn die Mathematik konnte mit der Quantifizierung nicht mehr Schritt halten. Ende des 19. Jahrhunderts kehrt sich das produktive Verhältnis des hypothetisch- deduktiven Forschungsstils in ein trial-and-error Verfahren auf Basis empirischer Formeln und eines experimentellen Rechnens um, als: „to replace a computation from an unquestioned theory by direct measure- ment“ (Goldstine, von Neumann 1946: 4). Dieser Schnelldurchlauf durch gut dreihundert Jahre Wissenschaftsent- wicklung legt die Bedingungen der Ermöglichung von Computerexpe- rimenten offen. Die Wissenschaft bedurfte zwingend der Automatisie- rung der Extrapolation, um den eingeschlagenen Weg fortsetzen zu kön- nen. Die Stagnation der Analytik, die bis heute nicht überwunden ist, 4 „Wir [Mathematiker] sind daran gewöhnt zu extrapolieren; das ist ein Mit- tel, die Zukunft aus der Vergangenheit und aus der Gegenwart abzuleiten“ (Poincare 1914: 17). 205 III PHILOSOPHISCHE VERORTUNG führte in zahlreichen Wissenschaftsdisziplinen zu einem Schisma zwi- schen Theorie und Empirie. Die analytisch deduzierbaren Folgerungen waren zu simpel, als dass sie praktische Relevanz für die neuen Wissen- schaftsbereiche des 19. Jahrhunderts besessen hätten. Die Automatisie- rung der Extrapolation aber bedeutete, nach der Messung und dem Ex- periment nun auch die Theorie an Instrumente zu delegieren. Die Ma- thematisierung, welche die Theorie bereits in ‚symbolische Maschinen‘ (vgl. Krämer 1988, 1991) transformierte hatte, hatte zwar die Vorausset- zungen dafür geschaffen. Doch solange ein geeignetes Instrument fehlte, sah sich die Wissenschaft der Stagnation ausgeliefert (vgl. Goldstine, von Neumann 1946). Der frei programmierbare Computer war das ge- suchte Instrument, doch erst in den 1940er Jahren gelang es, diese Art von Maschine zu bauen. Denn es ging nicht darum, ein bestimmtes Ver- fahren zu automatisieren, sondern eine allgemeine Extrapolationsma- schine zu bauen. Dies bedeutete, dass der Zeichengebrauch selbst zu formalisieren und zu mechanisieren war. Vorbild dafür war die Mathe- matik, ihre rekursive Besonderheit, unendlich viele Zeichen aus einem einzigen Mechanismus (Regel) erzeugen zu können. Sofern sich ein me- chanisch ausführbarer Mechanismus für eine bestimmte Folge von Zei- chen angeben ließ, hatte man einen Algorithmus zur Beschreibung des durch die Zahlenfolge strukturell dargestellten Gegenstandsbereichs ge- funden. Die Delegation dieses Mechanismus an die Maschine erlaubte es nun, die Generierung der Zahlenfolgen fast ins Unendliche weiterzufüh- ren, also zu extrapolieren und somit die aus infinitesimalen Massen- punkten bestehende, physikalische Welt in ihrer Veränderung für ein diskretes Berechnungsraster ein gutes Stück w 5eit zu berechnen. Was zuvor per Hand nur ein kleines Stück weit in den mathematischen Mög- lichkeitsraum verlängerbar war, wird durch die steigende Rechenkraft der Computer immer weiter vorangetrieben. Immer zahlreicher lassen sich die Punktbahnen in den mathematischen Möglichkeitsraum hinein errechnen und dadurch zunehmend dichtere, quantitative Bilder des sich entfaltenden Möglichkeitsraumes generieren.6 5 Die entscheidende Frage war nun nicht mehr nur, ob es einen solchen Me- chanismus gab, sondern ob ein Mechanismus so beschaffen war, dass eine Maschine ihn ausführen konnte und dies in effektiver Zeit (primitive Re- kursivität (for-Schleife) und µ-Rekursivität (while-Schleife)). 6 Was 1670 mit Isaac Barrows senkrecht zur Zeitlinie gezogenen, abneh- menden Geraden zur Veranschaulichung von Momentangeschwindigkei- ten begann, sind heute dichte Bilder von Projektionen zukünftiger Klima- entwicklungen oder dreidimensionale Animationen von Molekülen (vgl. Barrow 1670; Gramelsberger 2001). 206 1 COMPUTEREXPERIMENTE Ob die so erzeugten Trajektorien weiterhin realen Entwicklungslinien entsprechen,7 beispielsweise als Projektionen zukünftiger Klimaszena- rien, kann durch das neuzeitliche Diktum, wahr mit mathematisch zu identifizieren, allein nicht mehr entschieden werden. Hatte noch Newton optimistisch behauptet, ‚Hypotheses non fingo!‘, so lässt sich dies heute auf Basis automatisierter Extrapolationen nicht mehr so einfach postulie- ren. Der Grund hierfür ist, dass mit zunehmender Komplexität die Ga- rantie der Determiniertheit der Folgerungen, wie sie für analytisch dedu- zierte Prognosen gewährleistet war, nicht mehr gilt. Solange sich die mathematisierte Wissenschaft in streng deterministischen Systemen be- wegt, lässt sich berechenbar mit wahr gleichsetzen. Doch sobald sie die- se Systeme hinter sich lässt, kann dieses Evidenzkriterium nicht mehr als alleiniges aufrechterhalten werden, denn der eineindeutige Zusam- menhang zwischen Annahmen und Schlussfolgerungen ist in komplexe- ren Systemen nicht mehr g 8egeben. Dadurch ist es nicht immer ent- scheidbar, ob Extrapolationen ins Fiktive laufen oder ob der extrapolier- te Möglichkeitsraum tatsächliche Entwicklung 9en beschreibt. Dies be- deutet, dass nicht mehr allein die Quantifizierbarkeit und Berechenbar- keit, wie seit Newton und Leibniz gefordert, das alleinige Evidenzkrite- rium sein kann, da es an Kohärenz verloren hat, vielmehr bedarf es neu- er Evaluationsstrategien. Das Beispiel der Klimamodellierung zeigt, welche Versuche aktuell unternommen werden, um solche neuen Strate- gien zu gewinnen. Obwohl die Simulationswissenschaften erst am Be- ginn der Entwicklung stehen, lassen sich doch einige interessante Beob- achtungen machen. Zum einen ist absehbar, dass sich der strenge Kohärenzanspruch für komplexe Systeme nicht wiedergewinnen lassen wird und der Traum vom sicheren Wissen ausgeträumt ist. Doch dieser Traum ist bereits seit 1889 ausgeträumt (vgl. Poincaré 1891) und das zu Recht, denn der Tri- but war zu hoch: Nur stark idealisierte Systeme konnten dem streng de- terministischen Anspruch gerecht werden. Doch solche Systeme lassen sich selten in Anwendungskontexten finden. Das bedeutet, dass unsiche- 7 Ob die erzeugten strukturellen Ordnungen von Mannigfaltigkeiten tatsäch- lich empirischen Sachverhalten wie Messwerten entsprechen, lässt sich aufgrund der Möglichkeit ihrer Berechenbarkeit nicht entscheiden. 8 Dies bedeutet nicht, dass die aktuelle Naturwissenschaft das alte Diktum aufgegeben hätte, aber sein Evidenzanspruch ist geschwächt und muss durch neue Evaluationsstrategien gestützt werden. 9 Dies ist der Grund, warum jeder Simulationslauf eines Computerexperi- ments mit einem höherer aufgelösten Testlauf verglichen wird. Verhalten sich die Resultate stabil, selbst bei höher Auflösung des Berechnungsgit- ters, dann kann davon ausgegangen werden, dass man sich der exakten, aber unbekannten Lösung annähert. 207 III PHILOSOPHISCHE VERORTUNG re Prognosen zur approximativen Logik der Computerexperimente gehö- ren, dass sich aber der Grad der Unsicherheit zunehmend durch Metri- ken bestimmen lässt. Das Vorgehen der Klimaforschung anlässlich der beiden letzten IPCC Berichte zeigt, wie mühsam und aufwendig es ist, solche Metriken auf Komponenten- und Systemebene zu entwickeln. Doch es ist derzeit der beste Weg, um den Mangel an Kohärenz durch einen gewissen Grad an Kohäsion auszugleichen. Während die Kohä- renz sich automatisch aus der Strenge des Verfahrens – beispielsweise der Deduktion – ergibt, muss die Kohäsion hergestellt werden.10 For- schungspraktisch bedeutet dies, Modelle unter standardisierten Bedin- gungen zu testen und zu vergleichen, um Resultate zu erzielen, die als ‚likely‘ und unter besten Bedingungen als ‚very likely‘ einzustufen sind, also mit 66- bis 90-prozentiger oder gar mit mehr als 90-prozentiger Wahrscheinlichkeit eintreten. Die Analyse der Klimaforschung hat auch gezeigt, dass eine hohe Kohäsion zwischen Projektionen und tatsächli- chen Entwicklungen nur unter bestimmten Bedingungen zu erreichen ist. Es erfordert einen gewissen Grad an Standardisierung, an Vergleichbar- keit der verschiedenen in-silico Experimentalsysteme sowie an Refe- renzdaten, basierend auf einer relativ guten Datenlage an empirischen Informationen. Oder in den Worten Vilhelm Bjerknes: „1. Man muß mit hinreichender Genauigkeit den Zustand der Atmosphäre zu einer gewis- sen Zeit kennen“ (Bjerknes 1904: 1). Desweiteren setzt eine hohe Kohä- sion ein relatives Vertrauen in die zugrundeliegenden Theorien voraus. Im Falle der Meteorologie gilt das Motto: Je physikalischer ein Prozess beschrieben und modelliert werden kann, desto besser. Dabei rekurriert die physikalische Beschreibbarkeit auf first principles, also auf Newtons Mechanik. Noch einmal mit Bjerknes gesprochen: „2. Man muß mit hin- 10 Der Begriff der Kohäsion ist der Literaturwissenschaft entlehnt, die damit den textlichen Zusammenhalt, im Unterschied zur inhärenten Struktur (Kohärenz des Textes), bezeichnet. Im vorliegenden Falle wäre zwischen einer Kohärenz des Verfahrens (analytische Deduktion zur Generierung von Aussagen) und der Kohärenz zwischen diesen Aussagen und dem, worauf sich die Aussagen beziehen (untersuchtes Realsystem) zu unter- scheiden. Letztere wird bislang in den mathematisierten Naturwissen- schaften als strukturelle Isomorphie der Gesetze durch Experiment und Messung als hinreichend begründet angesehen. Im Falle der Kohäsion ge- staltet sich die Situation schwieriger, aber auch hier geht es zum einen um die Kohäsion des Verfahrens, beispielsweise durch Modellvergleich und Evaluation getestete Simulationsmodelle, aber auch um die Kohäsion der mit Computerexperimenten generierten Aussagen und den untersuchten Realsystemen. Dass trotz der schwächeren Evidenzbedingungen der Ko- häsion die grundlegende Voraussetzung der strukturellen Isomorphie zwi- schen mathematischer Beschreibung und Welt in Frage gestellt wird, lässt sich in den Computational Sciences nicht beobachten. 208 1 COMPUTEREXPERIMENTE reichender Genauigkeit die Gesetze kennen, nach denen sich der eine atmosphärische Zustand aus dem anderen entwickelt“ (Bjerknes 1904: 1). Dies zeigt, dass Computerexperimente zwar neue Berechnungsins- trumente sind, dass sie aber im Falle der deterministischen Simulation nach wie vor im klassischen Wissenschaftsverständnis der Neuzeit ver- ankert sind. Mit diesem Ansatz geht in der Regel ein entsprechendes Systemverständnis der simulierenden Wissenschaft einher. Klima als System verstanden, lässt sich in Subsysteme unterteilen, die den grund- legenden Gesetzen ebenso folgen, wie das Gesamtsystem. Anders ge- wendet: Digitales Klima lässt sich aus vielen Subsystemen konstruieren und modellieren, die alle miteinander in Interaktion stehen. Erdsysteme sind die besten Beispiele hierfür.11 Schließlich liegt es zwar in der ap- proximativen Logik der Computerexperimente begründet, dass die De- terminiertheit der Folgerungen nicht mehr gegeben ist und dass die ex- akte, aber unbekannte Lösung für ein Berechnungsraster nur angenähert werden kann. Aber auch hierfür haben sich mit den Stabilitätsanforde- rungen (vgl. von Neumann, Richmyer 1947) und den Konvergenztests Metriken entwickelt, welche es erlauben, die Güte der approximierten Resultate zu testen und zu beurteilen. Zwar handelt es sich dabei um Erfahrungswerte und sozusagen ‚empirische Tests‘, die jeglicher stren- gen Beweiskraft entbehren, die sich aber in der Forschungspraxis als gangbarer Weg herauskristallisiert haben, wie der Laxsche Äquivalenz- satz dokumentiert. Das bisher behandelte Beispiel der Klimamodellierung und die aufge- zeigten allgemeinen Bedingungen nehmen Bezug auf eine bestimmte Klasse von Computerexperimenten: Deterministische Simulationen auf Basis partieller Differentialgleichungen, die sich seit dem 17. Jahrhun- dert mit der Entwicklung des Differentialkalküls für die Beschreibung von Prozessen in den Naturwissenschaften etabliert haben. Auch wenn diese Klasse von Computerexperimenten sicherlich die am meisten ge- nutzte ist, so gibt es weitere Arten, die auf anderen mathematischen Ver- fahren basieren (vgl. Gramelsberger 2004). Stochastische Simulationen wie die Monte-Carlo-Simulation gehören ebenso dazu (vgl. Galison 1996), wie probabilistische Simulationen, die auch in der Klimamodel- lierung eingesetzt werden und Klima als ein rein statistisches und nicht als ein deterministisches Phänomen begreifen (vgl. Murphy 1998). In der Chemie lassen sich quantenmechanische Simulationen finden, die auf den Schrödinger-Gleichungen basieren und diese entweder stochas- 11 Es gilt jedoch erhebliche Einpassungsprobleme zu überwinden, zum einen bezüglich Parametrisierungen, zum anderen bezüglich Subsystemen, die anderen Gesetzen folgen. 209 III PHILOSOPHISCHE VERORTUNG tisch mit Hilfe der Quanten-Monte-Carlo-Simulation, quantenmecha- nisch mit Ab-initio Verfahren oder quasi-deterministisch lös 12en. Seit einiger Zeit gibt es zudem Verfahren des sogenannten Soft Computing, mit welchen sich für bestimmte Fragestellungen Computer- experimente durchführen lassen. Zu diesen Verfahren gehören Geneti- sche Algorithmen für Optimierungs- und Selektionsprobleme, Künstli- che Neuronale Netze oder Zelluläre Automaten für Regelungs-, Bewer- tungs- und Mustererkennungsaufgaben, Bayesian Networks zur Simula- tion von Einstellungen und Annahmen für Schlussfolgerungen sowie Multiagentensimulationen für Interaktionsaufgaben. Diese Verfahren findet man in spezifischen Anwendungsbereichen unterschiedlicher Dis- ziplinen, die auch als Complexity Sciences bezeichnet werden, bei- spielsweise in den Sozialwissenschaften zur Simulation von Aushand- lungsprozessen, in der Medizin zur Automatisierung der Datenauswer- tung, in den Wirtschaftswissenschaften zur Simulation von Verbrau- cherverhalten aber auch in der Physik zum Studium instabiler Systeme. Dabei wird davon ausgegangen, dass sich auf Basis einfacher Regeln komplexes Verhalten generieren lässt. 13 12 In der Chemie bedarf es Simulationsverfahren, die die Wechselwirkungen aller Elektronen berücksichtigen. In der Regel basiert die potenzielle Energie der Teilchen dabei nicht auf experimentell ermittelten Werten, sondern wird mit iterativen Verfahren errechnet (Ab-initio Methoden). In- dem die Wechselwirkung eines Elektrons so behandelt wird, als bewege es sich in einem mittleren, elektrostatischen Feld (lokale Dichtefunktionsme- thode), erhält man durch iterative Berechnungen ein System der geringsten Energie. Dies ist für Aussagen über chemische Reaktionsraten von Bedeu- tung. Für größere Moleküle wären die Ab-initio Methoden zu aufwendig. Deshalb findet hier eine Mischung aus klassischen und quantenmechani- schen Verfahren Anwendung. Moleküle werden dabei als System aus Massenpunkten (Atome) dargestellt, die sich in einem durch Wechselwir- kungen erzeugtem Kräftefeld bewegen. Nachdem die Kraftfelder ermittelt sind, lassen sich die Molekülbewegungen wie Verdrillungen, Verformun- gen oder Vibrationen mit den Newtonschen Bewegungsgesetzten ermit- teln. 13 Soft Computing (vgl. beispielsweise zum Perceptron, dem Vorläufer neuronaler Netze, Rosenblatt 1958 versus Minsky, Papert 1969; zu zellu- lären Automaten von Neumann 1951; Ulam 1960; von Neumann, Burks 1966; zu Bayesian Networks Bayes 1763; Pearl 1985, 2000; zu Fuzzy Lo- gik Zadeh 1965, 1994; zu genetischen Algorithmen Holland 1975; zu an- deren Artificial Inteligence Verfahren Bond, Gasser 1988; European Cen- tre for Soft Computing 2009; zur Simulation in den Sozialwissenschaften Klüver 1995; Conte 1997). Schwarmsimulationen (vgl. Beni, Wang 1989), fraktale Geometrien (vgl. Mandelbrot 1982) oder L-Systeme (vgl. Rozen- berg, Salomaa 1980; Prusinkiewicz, Lindenmayer 1990) sind weitere und vor allem illustrative Beispiele des Soft Computing. 210 1 COMPUTEREXPERIMENTE Vergle ichsbeispie le Vergleicht man nun den Status quo des Umgangs mit deterministischen in-silico Experimentalsystemen und den entsprechenden Computerexpe- rimenten in den verschiedenen Computational Sciences, so zeigen sich unterschiedliche Verortungen, wenn es um Standardisierungen, neue Evaluationsstrategien, das mathematisierbare Systemverständnis sowie geeignete Konvergenzbedingungen geht. Gute Vergleichsbeispiele zur Klimamodellierung liefern die Gravitationsphysik und die Zellbiolo- gi .14e Die Gravitationsphysik kann als einzige Naturwissenschaft auf ein ge- schlossenes Theoriesystem zurückgreifen: auf Albert Einsteins allge- meine Relativitätstheorie. Für Simulationen in diesem Bereich, bei- spielsweise um die Gravitationswellen kosmischer Ereignisse wie den Zusammenstoß zweier schwarzer Löcher zu simulieren, lässt sich Ein- steins Theorie in Form von zehn partiellen Differentialgleichungen for- mulieren. Es handelt sich um „ein gekoppeltes, nicht-lineares System und jede Gleichung hat mehrere hundert Terme“ (Interview A 2004). Damit erfüllt die Gravitationsphysik einen ähnlich hohen Grad an ma- thematisierbarem Systemverständnis wie die Meteorologie, beide basie- ren auf first principles wenn auch unterschiedlicher Art. Dieses System an Differentialgleichungen bildet die Basis des mathematischen Modells der in-silico Experimentalsysteme. Allerdings entbehrt die Gravitations- physik im Unterschied zur Meteorologie jeglicher Messdaten. Die Folge ist, dass es keine Möglichkeit der empirischen Evaluation der Compu- terexperimente gibt und dass keine Informationen zu realistischen Rand- und Anfangsbedingungen sowie zur Justierung wichtiger Parametrisie- rungen zur Verfügung stehen. Man kennt den Zustand des Ereignisses, das man simulieren möchte, nicht. „Unser Problem ist das schwarze Loch und die Singularität. Wir müssen es umgehen, um damit zu arbeiten. D.h. wir benutzen besondere Techniken wie Singularity Excision. Wir schneiden das Zentrum des schwarzen Loches in der Simulation heraus, d.h. das schwarze Loch steht nicht drin. Oder wir müssen Randbedingungen auf das Loch setzen, die physikalisch zutreffend sein soll- ten. Aber wir kennen die Physik dort nicht. Wir haben nur die Gleichungen, 14 In beiden Bereichen wurden Interviews geführt. Ein Interview (Interview A) mit einem Modellierer aus der Gravitationsphysik sowie zwei Inter- views mit Zellbiologen, hier bezeichnet als Interview B und Interview C sowie weiterer Gespräche mit Biologen. Interview A und B sind in Aus- zügen bereits veröffentlicht (vgl. Gramelsberger 2004). 211 III PHILOSOPHISCHE VERORTUNG aber wir kennen die realistischen Randbedingungen nicht. Aber aus dem schwarzen Loch, das wir in der Simulation ausschneiden, darf eigentlich keine physikalische Information herauskommen. Wir können sehr einfach mit den Randbedingungen umgehen, auch wenn sie nicht physikalisch sind: Die In- formationen dürfen nicht aus dem schwarzen Loch gelangen“ (Interview A, 2004). Ziel des Computerexperiments ist eine Beschreibung der typischen Raum-Zeit-Krümmung für ein spezifisches Ereignis. Denn die Verände- rung der Raum-Zeit-Geometrie selbst ist Gegenstand der gravitations- physikalischen Forschung. Da man keine Messdaten hat, lassen sich we- der die Zuverlässigkeit des in-silico Experimentalsystems noch die der Resultate überprüfen. Allerdings kann die Gravitationsphysik auf ein Referenzbeispiel zurückgreifen, auf eine exakte Lösung von Einsteins Gleichungen für ein einzelnes schwarzes Loch (Schwarzschild-Lösung). Damit lässt sich das Experimentalsystem zumindest für diesen einfachen Fall evaluieren. Doch „für dynamische Raumzeiten gibt es keine exakten Lösungen. Wir können also nicht mit einer exakten Lösung vergleichen, d.h. wir müssen darauf vertrauen, dass unsere Simulation richtig ist“ (Interview A, 2004).15 Da sich die Simulationen für den Zusammenstoß zweier schwarzer Löcher jedoch extrem instabil verhalten, sind die Er- gebnisse noch wenig vertrauenswürdig. Zudem gibt es weltweit nur ei- nige Forschergruppen, die solche Computerexperimente durchführen. Koordinierte Standardisierungsbemühungen sind also nicht zu erwarten, geschweige denn ein Modellvergleich. Pikant wird dies vor dem Hinter- grund, dass die Gravitationsphysik im Begriff ist, sich zu einer experi- mentellen Wissenschaft zu entwickeln. Weltweit befinden sich dazu vier Gravitationsdetektoren im Testbetrieb, unter anderem in Hannover. „Wir arbeiten mit dem GEO 600 Teleskop in Hannover zusammen, die Gravi- tationswellen messen möchten. Wir sollen realistische Wellenformen simulie- ren, damit sie es mit ihren Daten vergleichen können. [...] In Hannover und in den USA gibt es Detektoren. Sie messen erst seit ein paar Monaten. Das Si- gnal der Gravitationswellen ist ziemlich schwach. Sie haben viel Rauschen in 15 Die Richtigkeit wird rein mathematisch geprüft: „Wir benutzen Konver- genztests. Wenn man die Gleichung auf einem Gitter mit ‚finite differen- cing‘ schreibt, erhält man einen Fehler, der abhängig von der Gittergröße ist. Geht man auf ein kleineres Gitter mit höherer Auflösung, hat man einen kleineren Fehler usf. Wenn man auf drei verschiedenen Gittergrößen simuliert, kann man die relativen Fehler zwischen den dreien messen. [...] Mit drei Auflösungen kann man sehen, ob man in die richtige Richtung geht, ob alle drei Auflösungen auf dieselbe Lösung konvergieren“ (Inter- view A, 2004). 212 1 COMPUTEREXPERIMENTE ihrem Detektor und wenig Signal. Sie müssen irgendwie das Signal aus dem Rauschen herausfiltern. Sie hoffen, dass sie Gravitationswellensimulation da- für benutzen können, um das Signal vom Rauschen effektiver unterscheiden zu können. Das ist der Grund warum wir ziemlich akkurate Simulationen brauchen. Das Signal-Processing-Problem ist ziemlich schwierig. Sie brauchen akkurate Wellenformen. [...] Andererseits, wenn sie ein Signal finden, möch- ten sie wissen, was für ein System sie gesehen haben. D.h. sie benötigen eine Simulation, die ihnen sagt, das waren zwei schwarze Löcher mit dieser Masse und solcher Geschwindigkeit“ (Interview A, 2004). Eine ganz andere Situation der in-silico Experimentalsysteme und der Computerexperimente mit ihnen findet sich in der Zellbiologie. Trotz des zunehmenden Systemverständnisses gibt es keine first principles, welche die grundlegenden Prozesse in einer Zelle beschreiben. Hinzu kommt, dass Zellen im Unterschied zu schwarzen Löchern oder der At- mosphäre hochgradig offene Systeme sind, deren Zustand maßgeblich vom umgebenden Milieu abhängt. Ein weiterer Unterschied liegt darin, dass in Zellen verschiedene Kreisläufe wirken, die miteinander in kom- plexer Wechselwirkung stehen. Bei einem Systemverständnis muss da- her von verschiedenen Systemen ausgegangen werden, die allerdings nicht unbedingt denselben Gesetzen unterliegen müssen. Möchte man etwas über gengesteuerte Prozesse in der Zelle herausfinden, gilt es ver- schiedene Fragen zu beantworten. „Erstens, ist das Gen überhaupt da? Zweitens, ist das Gen überhaupt aktiv? Dann wäre man bei den Microarrays. Dritte Ebene: Die Gene kodieren für Proteine. Ist das Protein da? Vierte Ebene wäre, ist das Protein aktiv? Fünfte Ebene: Viele dieser Proteinen sind Enzyme, die Stoffwechselreaktionen be- schleunigen. Für so eine Reaktion braucht man ein Edukt und es kommt ein Produkt heraus, manchmal auch mehrere Edukte oder Produkte. Ist das Protein nicht nur da, sondern sind auch die Edukte ausreichend vorhanden? Dann wäre man bei dem, was man gemeinhin Metabolomics nennt. Wenn man dann noch eine Ebene weiter runter geht: Wie ist das mit den Stoff-Flüssen? Nicht nur, wie viel von meinem Edukt habe ich und ist mein Protein aktiv, sondern wie viel Edukt pro Zeit setzt es denn um? Dann hat man eigentlich den kompletten Überblick.“ (Interview C, 2007). Das Ausmaß der Komplexität in der Zellforschung wird an folgendem Beispiel weiter verdeutlicht: Möchte man in einem Laborexperiment herausfinden, ob ein bestimmter Stoffwechselprozess die Generierung eines bestimmten Proteins gegenüber einem anderen Prozess begünstigt, lassen sich zwei Vergleichssystem herstellen, deren Proteinentwicklung dann mit Hilfe von Proteinanalysen nachvollzogen werden kann. Im ein- 213 III PHILOSOPHISCHE VERORTUNG fachsten Falle würden sich beide Proteinanalysen bis auf ein Protein gleichen. Doch die Realität im Laboralltag ist eine andere. „Das passiert aber nie, leider. Man kann nicht alle Proteine auflösen mit der derzeiti- gen Technologie, aber wir können ungefähr 1000 bis 1200 Proteine auf- lösen. Und wenn wir uns dann ansehen, wie viele von ihnen unterschied- lich sind […] ja, dann sind fast 600 unterschiedlich. D.h., es passiert eine ganze Menge und das meiste davon wird wahrscheinlich nichts mit dieser Änderung in der Produktbildung zu tun haben. Jetzt gilt es natür- lich herauszufinden, welche sind denn das. Das sind so Punkte, wo man dann ohne Bioinformatik eigentlich nicht mehr weiterkommt“ (Inter- view C, 2007). Nachdem sich ein Teil der 600 Proteine identifizieren li ß, b ginnt di ig ntlich Forschungsarb it.16e e e e e e e „Jetzt redet man mit den Zellbiologen, was wisst ihr über dieses Protein? Wo- mit wechselwirkt es? In welchen Fällen ist das stark oder schwach? Gibt es Erfahrungen, die wir auf unseren Prozess übertragen können? Damit man wie so ein Mosaik das irgendwann aufbauen kann: Dieser Prozess wird in der Zel- le ausgelöst und jener und von dem zweigt sicher aber noch was ab, weil das mit Sicherheit ziemlich verschachtelte Netzwerke sein werden. Es reicht auch nicht, wenn man alles nur einmal macht, sondern man muss es natürlich wie- derholen. So ein Verfahren ist nie identisch, […] denn es ist lebende Materie mit der man arbeitet. Die verhält sich niemals gleich. Kleinste Unterschiede führen unter Umständen zu deutlichen Änderungen und das wirkt sich später auch in diesem Muster aus. Insofern haben wir erstmal eine ganze Reihe von Wiederholungen gemacht. […] Das ist der Status quo im Moment: Man erkennt, wie stark selbst Kleinigkeiten solche Netzwerke beeinflussen und damit werden wir wahrscheinlich die nächsten 10, 15 Jahre noch mit zu tun haben. Wir sind jetzt dazu übergegan- gen, uns noch stärker um diesen Bereich zu kümmern und stattdessen die Zahl der Prozesse, die wir untersuchen, zu reduzieren. […] Wir versuchen mög- lichst viele von diesen funktionellen Genom-Analysemethoden auf diese drei verschiedenen Beispiele anzuwenden, um wenigstens die Variationsbreite auf 16 „Früher musste man sagen, na ja ich interessiere mich für zwei oder drei Proteine und die untersuche ich jetzt im Detail. Das geht bei so einer Flut überhaupt nicht. Man muss von diesen fast 600 Proteinen sehen: Wie viele kann ich denn überhaupt identifiziert? D.h., man muss diesen kleinen Fleck dann ausstechen und dann kann man das Protein – nach entspre- chender Vorbehandlung im Massenspektrometer – hoffentlich vielleicht nachweisen. Je mehr genomische Informationen man hat, desto leichter ist das. Also bei Maus oder Mensch kommt man durchaus auf 50 bis 60 Pro- zent Trefferquote. Da sind wir noch deutlich von weg, wir haben jetzt von diesen 600 [Hamster-Proteinen], 120 oder 130 identifiziert, damit fängt die eigentliche Arbeit aber jetzt erst an“ (Interview C, 2007). 214 1 COMPUTEREXPERIMENTE der Prozessseite möglichst klein zu halten. [...] Also man versucht aus diesen extrem komplexen Netzen [...] Ausschnitte herauszunehmen und zu verstehen, welche Proteine eine Rolle spielen, insbesondere Enzyme. Welche Enzyme katalysieren welche Reaktionen, welche Edukte sind relevant, welche Produk- te sind relevant. Man möchte möglichst viele quantitative Informationen be- kommen, um dann sagen zu können, jetzt müssen wir bestimmte Experimente machen. (Oder Computerexperimente?) Die Modellierung gibt mir immer ein Ergebnis, aber es würde nicht stimmen, weil Reaktionen fehlen. Denn wenn ich dem Computer sage, ich habe hier mein Netzwerk und ich vergesse diesen Abzweig da, dann rechnet der Computer natürlich aus, wie sich das verteilt. Aber es fehlt etwas, d.h. das was herauskommt ist falsch. [...] Da sind nun Markierungsexperimente [mit Kohlenstoff-13 markierter Glukose] ganz gut, denn ich sehe, wie viele Markierungen rein gehen, wie viel kommt unten an. Wenn das unten weniger ist, dann wurde irgendwo [im Computermodell] et- was vergessen. Das ist aber bei dieser Komplexität nicht so einfach. Wir fan- gen gerade erst an, das in Modelle umzusetzen“ (Interview C, 2007). Im Unterschied zur Meteorologie beginnt die Zellsimulation nicht mit einem übergeordneten, generellen Ansatz der Prozesse (globale Zirkula- tion), um dann in Form von Sub-Modellen (z.B. Ozean, Eis, Vegetation) und Parametrisierungen (z.B. Wolken) immer detailreichere in-silico Experimentalsysteme zu kreieren. Zellsimulationen folgen eher einem ‚bottom-up‘ Prinzip. Es gibt eine unüberschaubare Anzahl von Modellen zu sehr spezifischen Teilprozessen der Zelle. Das führt zu dem Problem, – wie ein Zellbiologe in einem Gespräch darlegte – dass es kaum Ver- gleichsmöglichkeiten für diese Fülle an Modellen gibt. Sie sind zu spezi- fisch. Auch lassen sich diese Modelle nicht als Module eines Zellsys- tems, ähnlich einem Erdsystem, nutzen. Es gibt zwar Ansätze, die Mo- dellierungssprache zu vereinheitlichen und dadurch die Modelle kompa- tibler zu gestalten, aber diese konnten sich bisher noch nicht durchset- zen. Nichtsdestotrotz ist es auch in der Zellbiologie das Ziel, die e-Cell zu programmieren (vgl. e-Cell Initiative 2009). „Das Idealmodell wäre eigentlich ein wirklich komplettes Abbild der Zelle, was es mir erlaubt jegliches Experiment vorweg zu nehmen. [...] So ein Modell wäre dann in der Lage zu sagen, bei soviel Medium und der Nährstoffmenge da drin, wachsen die Zellen so und so schnell zu der und der Zelldichte he- ran, produzieren so und so viel Produkt, so und so viel Stoffwechselab- fallprodukte. [...] Ich weiß nicht, ob man jemals so weit kommt, ich glaube nicht. Also man soll nie ‚nie‘ sagen, aber ich glaube nicht, dass ich das noch in meiner Laufbahn erleben werde“ (Interview C, 2007). Derzeit werden in der Zellbiologie große Anstrengungen unternom- men, um die relevanten Parameter der Zellprozesse durch Laborexperi- mente zu identifizieren und zu quantifizieren, um sie schließlich model- 215 III PHILOSOPHISCHE VERORTUNG lieren und simulieren zu können. Es wird vermutet, – so ein Zellbiologe im Gespräch – dass nur rund dreißig Prozent der Zellprozesse bekannt sind. Zudem wurden diese Prozesse an einer Vielzahl unterschiedlicher Modellorganismen erforscht, angefangen von Bakterien, über Mäuse und Hamster, zu menschlichen Zellen wie beispielsweise Leberzellen. In wieweit diese Ergebnisse anhand unterschiedlicher Zellen miteinander vergleichbar und nutzbar sind, lässt sich nicht beantworten. „Erstens sind die Schemata nicht komplett, die die Biologen experimentell be- stimmen. Man vergisst Interaktionen. Sie sind nicht vollständig und wenn sie vollständig sind, sind sie unüberschaubar. […] Und zweitens sind viele Parameter – Zerfallsraten, Reaktionskonstanten, Temperatur- abhängigkeiten – nicht bekannt“ (Interview B, 2004). Für die Simulation selbst einzelner Zellprozesse bedeutet dies: „Man muss bei der Simula- tion die Parameter oft erst einmal raten bzw. vernünftig wählen. Die Daten fehlen. Damit ist die Simulation mehr eine Karikatur der wirkli- chen Prozesse. Aber eine gute Karikatur betont das Wesentliche und damit kann man trotzdem etwas über die Prozesse lernen“ (Interview B, 2004).17 Die Arbeit mit diesen Modelle und Simulationen hat für die Forschung jedoch einen entscheidenden Vorteil: „Das ist das angestrebte Ziel: Ein Loop. Man lernt vom Experimentator: Was ist das Problem? Was weiß man? Er hat in der Regel einen sehr guten Litera- turüberblick. Dann simuliert man mehr oder weniger ins Blaue. Man stellt dumme Fragen an den Experimentator. Das ist vielleicht das Wichtigste und er antwortet dann typischerweise: Das habe ich mir noch nie überlegt? Ist das denn so wichtig? Zum Beispiel: Wie groß sind die Konzentrationen verschie- dener Signalmoleküle? Kann man das deterministisch oder stochastisch simu- lieren? Ist der Feedback überhaupt schnell genug für das System? Wie lange dauert das? Was für eine Funktion ist das, mit der sich die Aggregate bilden? Usw. Das sind typische Fragen der Theoretiker, die bei der Modellierung be- nötigt werden und die oft nicht im Mittelpunkt der experimentellen Untersu- chung stehen. Dann wird nachgedacht und es stellt sich heraus, das sind inte- ressante Fragen. Man kann wirklich eine Menge lernen, wenn man das sorgfäl- 17 Referiert wird hier auf reaktionskinetische Simulationen: „Die Simulation von reaktionskinetischen Systemen hat eine lange Tradition in der Che- mie. Daran knüpfen wir an. Man kann eine Zerfallsreaktion durch eine Exponentialfunktion approximieren, die durch eine Differentialgleichung den Zerfall beschreibt. Man kann eine bimolekulare Reaktion durch ein Produkt der beiden Konzentrationen beschreiben und enzymatische Reak- tionen mit der Michaelis-Menten-Kinetik. Letztendlich, wenn man ein Schema der Reaktionen hat - Diagrammzeichnungen mit Pfeilen, Reaktio- nen und Rückkopplungen - dann ist es für einen Theoretiker relativ ein- fach, dieses Schema in Differentialgleichungen zu übersetzen“ (Interview B, 2004). 216 1 COMPUTEREXPERIMENTE tig misst. Und dann werden die Experimente entworfen, meistens gemeinsam“ (Interview B, 2004). Die Heterogenität der Beispiele zeigt, dass sich nicht nur die for- schungspraktische Bedeutung der Computerexperimente in den einzel- nen Disziplinen unterscheidet, sondern dass sich aus der jeweils spezifi- schen Einbettung der Simulation in das disziplinäre Setting von Theorie, Experiment, Messung und Beobachtung die Relevanz der mit Simula- tionen produzierten Resultate ableitet. Wenn, wie in der Wettervorher- sage eine gute Grundlage empirischer Daten, Modelle, die auf grundle- genden Theorien basieren, eine Infrastruktur der Standardisierung und des Austauschs vorhanden sind und adäquate Evaluationsstrategien ent- wickelt wurden, dann lassen sich mit solchen Simulationsmodellen Kurzzeitvorhersagen mit hoher Aussagekraft erreichen. Dies ist im Grunde erstaunlich, denn Wettersimulationen als die paradigmatischen deterministischen Simulationen sind aufgrund ihrer sensitiven Abhän- gigkeit von den Anfangsbedingungen problematische Simulationen.18 Es waren gerade die Wettersimulationen, die in den 1960er Jahren das Pro- blem der prinzipiellen Instabilität der Prognosen ins Bewusstsein der Wissenschaftler brachten (vgl. Lorenz 1963). Zwar ist das Problem der Instabilität in komplexen Systemen spätestens seit Henri Poincarés Arbeit über die Instabilität des Sonnensystems bekannt (vgl. Poincaré 1891), doch erst mit den Computerexperimenten bekommt die Instabili- tät des Verhaltens komplexer Systeme eine zentrale Bedeutung für die Forschung, da die Aussagekraft der berechneten Prognosen problema- tisch wird. In seinem Buch Instabilitäten in Natur und Wissenschaft unterscheidet Jan Schmidt drei Arten prinzipieller Instabilität. „Von statischer Instabilität kann gesprochen werden, wenn ähnliche Anfangs- bedingungen während der Zeitentwicklung auseinanderlaufen und sich nie- mals mehr annähern, so wie dies bei der dynamischen Instabilität der Fall ist. Der populäre Begriff des deterministischen Chaos bezeichnet die dynamische Instabilität der kontinuierlichen sensitiven Abhängigkeit von den Anfangsbe- dingungen. Bei der dynamischen Instabilität steht die Dynamik kontinuierlich auf ‚Messers Schneide‘; bei der statischen Instabilität ist dies lediglich der Fall auf die Anfangspunkte bezogen. […] Doch neben diesen gibt es einen weite- ren, viel fundamentaleren Typ von Instabilität, welcher in seiner physikali- schen Relevanz bislang kaum eine grundlegende, wissenschaftstheoretische Reflexion erfahren hat und der auf das Modell- und Theorieverständnis der Physik zielt: die strukturelle Instabilität. Hier geht es um die Instabilität der 18 Im Unterschied zu Wettersimulationen sind Klimasimulationen nicht von Anfangsbedingungen sensitiv abhängig, sondern von Randbedingungen. 217 III PHILOSOPHISCHE VERORTUNG Gesetze selbst bzw. um deren Gesamtdynamik, d.h. um die Instabilität der Gleichungen unter ihren kleinsten Veränderungen, etwa unter Parameterver- änderungen“ (Schmidt 2008: 93). Aus diesen Bedingungen beziehen die Konvergenztests ihre Bedeutung für die Forschung mit Computerexperimenten. Wie am Beispiel der Klimasimulation dargelegt, folgt jedem Experimentallauf ein Testlauf in höherer Auflösung. Im Falle der gravitationsphysikalischen Simulation gibt es noch weitere Testmöglichkeiten, beispielsweise die Überprüfung der Simulationsergebnisse an einem einfachen, aber analytisch gelösten Fall wie der Schwarzschild-Lösung oder den Abgleich mit Gleichungen zur Überprüfung. „Wir haben Instabilitäten und können zwei schwarze Löcher nur für eine be- stimmte Zeit simulieren. Die ‚evolution equations‘ sagen uns, wie man von den Daten eines Zeitpunktes zum nächsten kommt. Aber wir haben auch ‚constrained equations‘, die zufriedenstellend gelöst werden müssen. Wenn wir in der Zeit vorwärts gehen, können wir die ‚constrained equations‘ rech- nen und sehen, ob wir sie immer noch zufriedenstellend lösen. Wenn nicht, wissen wir, dass wir uns mit den ‚evolution equations‘ von Einsteins Glei- chungen entfernen. Wir benutzen die ‚evolution equations‘, um vorwärts zu gehen, mit den ‚constrained equations‘ können wir sehen, ob wir Einsteins Gleichungen lösen. Wenn die ‚constrained equations‘ richtig sind, wissen wir, dass wir immerhin noch Einsteins Gleichungen lösen“ (Interview A, 2004). Konvergenztests und Abgleiche mit analytischen Lösungen gehören daher zur mathematischen Praktik des Computerexperimentierens. Unter Umständen lassen sich Computerexperimente in ein Beziehungssystem von Bedingungen einordnen, das Aussagen über ihren Erkenntniswert liefert. Ein solches ‚framework of cohesion‘, wie man es nennen könnte und es in Abbildung 21 skizziert ist, müsste folgende Skalen umfassen: Skala der Standardisierung, des umsetzbaren Systemverständnisses, der Evaluationsstrategien und der Konvergenzbedingungen. Aus diesem Bezugssystem könnte sich dann eine Matrix des Erkenntniswertes und der Prognosekraft ergeben. Es könnte sich aber auch die weitere Ent- wicklungsrichtung einer Disziplin ableiten lassen, die sie beschreiten müsste, um den Erkenntniswert und die Prognosegüte ihrer Computer- experimente zu erhöhen. Durch diese Entwicklungsrichtung wird auch die Tendenz zur Vereinheitlichung von Wissenschaft durch den Compu- ter deutlich, denn um diese simulationsadäquaten Entwicklungen zu er- reichen, bedarf es der strukturellen Anpassung der Wissensbestände einer Disziplin an deren Quantifizierbarkeit und Mathematisierbarkeit. 218 1 COMPUTEREXPERIMENTE (niedrig) Konvergenzbedingungen (hoch)  Klimamodellierung   Gravitation sphysik    Zellbiologie (niedrig) Systemverständnis (hoch) Abbildung 21: Framework of Cohesion (Gramelsberger 2009) Erkenntniswert Die drei Beispiele machen deutlich, dass Computerexperimente analog den Experimenten als „[a] class of practises that naturally correspond to the label scientific [computational] experimentation“ (Dear 1995: 12) zu bezeichnen sind. Das Computerexperiment oder das in-silico Experi- mentalsystem schlechthin gibt es nicht. Computerexperimente sind sehr variable Instrumente der Wissensproduktion, die nur eines gemeinsam haben, nämlich dass sie auf Computern laufen. Und dennoch unterschei- den sie sich von simplen Berechnungen oder von Computerspielen. Doch was kennzeichnet sie und welchen Erkenntniswert tragen sie zur Forschung bei? Bislang wurden vor allem forschungspraktische Aspekte der Computerexperimente beleuchtet. Das kommt nicht von ungefähr, denn es geht in dieser Studie vor allem darum, die Tradition dieser neu- en Erkenntnisinstrumente zu rekonstruieren sowie den Umgang mit ih- nen in der aktuellen Forschung und die damit einhergehenden Transfor- mationen zur e-Science zu beleuchten. Doch eine wissenschaftsphiloso- phische Verortung der Computerexperimente geht über solche for- schungspraktische Aspekte hinaus, insofern sie die Epistemologie der Computerexperimente als Erkenntnisinstrumente analysiert. Eine solche Verortung knüpft einerseits an die wissenschaftstheoretischen Diskurse zum Verhältnis von Theorien, Modellen und Phänomenen an, insbeson- dere an Überlegungen zu mathematischen Modellen und Simulationen, andererseits an (Computer)-Laborstudien. Anhand der beiden oben ge- nannten Fragen werden einige Positionen der aktuellen Debatte zur Si- 219 (niedrig) Standardisierung (hoch) (hoch) Evaluationsstrategien (niedrig) III PHILOSOPHISCHE VERORTUNG mulationen untersucht. Was jedoch generell bei der Lektüre auffällt ist, dass dem Computer selbst in seiner Notwendigkeit zur Algorithmierung von Theorie keine wirkliche Beachtung geschenkt wird. Dies zeigt sich insbesondere darin, dass zwischen Theorie, mathematischem Modell, algorithmiertem Modell (in-silico Experimentalsystem) und Simulation (Computerexperiment) nicht unterschieden wird. In der Regel wird vom theoretisch-mathematischen Modell und seiner Anwendung (Simulation) gesprochen. Doch es ist die Transformation vom theoretisch-mathema- tischen Modell zum Code und danach erst zur numerischen Anwendung, die den epistemischen Kern des Wandels der Wissenschaft im Zeitalter des Computers kennzeichnet. Zu rein mathematischen und experimentel- len Bedingungen kommen informatische hinzu. Vor allem um diese in- formatischen Bedingungen geht es in der vorliegenden philosophischen Verortung, denn die Transformation von Theorie in den Computer – konkreter in maschinentaugliche Algorithmen – kommt einer Medien- wende ähnlichen Umfanges gleich wie die Transformation materialer Äquivalente in symbolische Notationen. „What is a simulation and what is the difference and the relation be- tween a model and a simulation?“, fragt Stephan Hartmann in einem Aufsatz aus der Perspektive der Wissenschaftstheorie. „I maintain that the most significant feature of a simulation is that it allows scientists to imitate one process by another process […] carried out by a computer“ (Hartmann 1996: 77, 79). Und weiter, nach einem kurzen Überblick über modelltheoretische Ansätze: „More concretely, a simulation results when equations of the underlying dynamic model are solved“ (Hartmann 1996: 83). Die Dynamik respektive Prozesshaftigkeit von Simulationen ist sicherlich das wichtigste Kennzeichen. Mit Computersimulationen überwindet die Wissenschaft statische Modelle aus Holz, Draht oder anderen Materialien. ‚Scale models‘, die zum Studium von Eigenschaf- ten und Verhalten eines Objekts verwendet werden, wie Flugzeugmodel- le im Windkanal, können nun im Digitalen untersucht werden. Aber es sind vor allem die theoretischen Modelle, die zuvor nur in einfachster Weise auf dem Papier skizzierbar oder als Gedankenexperiment vor- stellbar waren, die sich jetzt mit Computern analysieren lass 19en. Dies 19 Eine treffende Beschreibung dieser Transformation vom Papier in den Computer gibt ein Biologe in einem der Interviews: „Dann haben wir uns die Kinetik überlegt. Was wäre der einfachste, sinnvollste Ansatz für die verschiedenen, auf Papier gezeichneten Pfeile? In der nächsten Phase wird es schon präziser: Welche Moleküle spielen eine Rolle? Nachdem man es aufgeschrieben hat, kann man vereinfacht auf dem Papier abschätzen, was zu erwarten ist, indem man eine Bifurkationsanalyse macht, Matrizen, 220 1 COMPUTEREXPERIMENTE eröffnet den Spielraum für Untersuchungen, die in realiter nicht möglich wären. Der Computer verlängert, ähnlich den Beobachtungs- und Mess- instrumenten, den Blick in bislang unzugängliche Bereiche, die zu klein, zu groß, zu schnell, zu langsam, zu gefährlich oder eben zu komplex sind. Doch der Computer führt weiter: Im Unterschied zu den Beobach- tungs- und Messinstrumenten erweitert er nicht nur den Blick in neue Bereiche, sondern ermöglicht die experimentelle Manipulation in diesen Bereichen, aber eben nur in rein symbolischer Form. Paul Humphreys untersucht diesen Aspekt in seinem Buch Extending Ourselves. Compu- tational Science, Empiricism, and Scientific Methods. Er schreibt: „What rarely happens is an analogue of the third type of empirical extension, augmentation, giving us instrumental access to new forms of mathemat- ics that are beyond the reach of traditional mathematics. Here the ques- tion naturally arises: Could instrumentally enhanced mathematics allow an investigation of new areas of mathematics to which our only mode of access is the instrument itself?“ (Humphreys 2004: 5).20 Dieser Erweite- rungsgedanke, der bereits seit den Debatten der frühen Neuzeit über die Zulässigkeit von Beobachtungsinstrumenten für die wissenschaftliche Erkenntnis diskutiert wird, charakterisiert das Neue der Simulation, das Stabilitätsanalysen. Dazu braucht man noch keinen Computer. Schließlich kann man das Modell im Computer implementieren. Und wir haben die Bifurkationen, die wir vorhergesagt haben, auch tatsächlich gefunden. [...] Das Modell ist jedoch noch ohne Rückkopplungsschleifen, also ein redu- zierter Ansatz. Wenn man Rückkopplungsschleifen integriert, braucht man unbedingt die Computer, dann ist es nicht mehr auf dem Papier zu ma- chen.“ (Interview B, 2004). 20 In dem Versuch diese Erweiterungsfunktion zu fassen, führt Humphreys ‚theoretical‘ und ‚computational templates‘ ein. Erstere sind allgemeine Gleichungen wie Newtons zweites Axiom, letztere die berechenbaren Gleichungen, die allerdings nicht immer auf Gesetzen basieren müssen. „The first thing to note about Newton’s Second ‚Law‘ is that it is only a schema, what I shall call a theoretical template. It describes a very general constraint on the relationship between any force, mass, and acceleration, but to use it in any given case, we need to specify a particular force func- tion, such as a gravitational force, an electrostatic force, a magnetic force, or some other variety of force. If the resulting, more specific, equation form is computationally tractable, than we have arrived at a computational template” (Humphreys 2004: 61). Üblicherweise werden diese ‚computa- tional templates’ in der Literatur als mathematisches Modell bezeichnet, das die allgemeinen Gleichungen konkretisiert und ausführbar macht. Von daher ist auch Humphreys Definition einer Simulation nicht überraschend: „A computer simulation is any computer-implemented method for explor- ing the properties of mathematical models where analytic methods are un- available“ (Humphreys 1991: 501). Auch wenn von manchen Autoren die- se Definition als zu eng empfunden wird, so trifft sie den Kern der Simula- tionen, die auf Differenzialgleichungen basieren. 221 III PHILOSOPHISCHE VERORTUNG es epistemologisch zu fassen gilt. Die Schlussfolgerung von Humphreys, „the fact that extending ourselves, scientific epistemology is no longer human epistemology“ (Humpherys 2004: 8), scheint angesichts von über vierhundert Jahren instrumentenbasierter Wissenschaft mit Vorsicht zu genießen sein. Diese Instrumente wie auch der Computer sind menschli- chen Ursprungs, insofern unterliegen sie, ebenso wie die damit produ- zierten Einblicke, den von Menschen konzipierten Bedingungen. In eben diesen Erweiterungsleistungen hat sich Zivilisation im Unterschied zu einem, wie auch immer gearteten Urzustand schon imm r d fini rt.21e e e Genau in diese Erweiterung – nicht nur der Sinneswahrnehmung, son- dern nun auch der auf Mathematik basierten Anschauung in neue Berei- che – ist es, die die Wissenschaftsphilosophie an der Computersimula- tion fasziniert, ohne von einer ‚non-human epsitemology‘ sprechen zu müssen. Im Gegenteil, es handelt sich durch und durch um eine mensch- liche, da fabrizierte Epistemologie. Doch was bedeutet es nun, die ma- thematikbasierte Anschauung durch die Computer zu erweitern? Leider beschreibt Humphreys nur, dass der Computer, ähnlich dem Mikroskop, unsere Berechnungsmöglichkeiten erweitert, indem beispielsweise kom- plexere Modelle in höherer Auflösung berechnet werden könn n.22e Was dies konkret bedeutet, wird nicht weiter thematisiert. Und genau hier liegt das Problem der Analyse von Simulation. Es lassen sich gewisse Kennzeichnungen der Simulation durch Methodenvergleiche, Fallbei- spiele und Abgrenzungen zu bereits bestehenden wissenschaftsphiloso- phischen Theorien herausarbeiten. Doch es ist wesentlich schwieriger, den Erkenntniswert, die epistemische Neuheit und die Folgen für die wissenschaftliche Erfahrung und damit das wissenschaftliche Weltbild 21 Solche ‚human enhancement‘ Diskussionen, die aktuell im Kontext der Converging Technologies wieder verstärkt diskutiert werden, sind mit Vorsicht zu genießen, da hier oft nostalgische, auf einen natürlichen Zu- stand rekurrierende und transhumanistische Positionen in eigenartiger Manier aufeinandertreffen (vgl. Coenen 2008). 22 „I have argued that computational devices are the numerical analogues of empirical instruments: They extend our limited computational powers in ways that are similar to the ways in which empirical instruments extend our limited observational powers” (Humphreys 2004: 116). „As with mi- croscopes, a desirable property of computer simulations is resolving power – the greater the degree of resolution, the more detail the simulation pro- vides. […] Because of the quantity of data available, by using graphical representations for the solutions one often can literally see more detail with increased computational power” (Humphreys 2004: 118). Was wird nun erweitert dadurch? „We can thus see, through the vehicle of the mi- croscopic metaphor, how progress of theoretical science is dependent upon technological extensions of our mathematical abilities. The realm of the [computationally] tractable, like the realm of the observable, is an expand- ing universe” (Humphreys 2004: 121). 222 1 COMPUTEREXPERIMENTE zu fass 23en. Das kommt nicht von ungefähr, denn zum einen sind Simu- lationen relativ neue Erkenntnisinstrumente und zum anderen ist ihre Vielfalt ebenso groß wie die der Mod 24elle. Letztendlich entscheidet in der Forschungspraxis der Zweck darüber, welche Art von Simulation wie genutzt wird.25 Dies macht deutlich, dass Simulationen in erster Li- nie praktische Werkzeuge sind. „Whereas theories, like local claims, can be true or false, models and simulations are typically seen in more pragmatic terms, being more or less useful, rather than more or less true. Scientific models and simulations are given the status of tools, as well as representations; they are objects, as well as ideas. They easily cross categories, such as ‚theory’ and ‚experiment’, the bounds of which are otherwise well-established. And modeling and simulation sit uncom- fortably in science both socially and epistemically, because of the boundaries they cross“ (Sismondo 1999: 247). Es sind diese Grenzüberschreitungen, die es so schwierig machen, Simulationen epistemologisch zu bestimmen. Sie liegen als Hybride „somewhere intermediate between traditional theoretical […] science and its empirical methods of experimentation and observation“ (Rohr- lich 1991: 507). Fast poetisch artikuliert es Peter Galison in seiner Stu- die zur Entwicklung der Monte-Carlo-Simulation in den 1940er Jahren in Los Alamos. Simulation „ushered physics into a place paradoxically 23 Ebenso vielfältig wie die Modelle und Simulationen sind daher die Versu- che, beides epistemologisch zu bestimmen. Es überrascht nicht, dass die wissenschaftstheoretischen und -philosophischen Verortungen dabei stark von den jeweiligen Fallbeispielen abhängen, die sich üblicherweise auf physikalische Beispiele, manchmal auch auf ökonomische, meteorologi- sche oder biologische und chemische, seltener auf Beispiele aus der Tech- nik, der Medizin oder anderen Disziplinen beziehen. Von daher sind Aus- sagen nur im jeweiligen Kontext der untersuchten Fallbeispiele zu bewer- ten, wie dies auch für die vorliegende Studie gilt. In anderen Kontexten mag die Situation des Simulierens sowie der Einbettung in Theorie, Mo- dell, Experiment, Beobachtung und Messung eine andere sein. 24 Einen Überblick in punkto Modellvielfalt bietet der Einführungsartikel zum Thema Models in Science der Stanford Encyclopedia of Philosophy (Stanford Encyclopedia of Philosophy 2006). 25 So unterscheiden beispielsweise Friedemann Mattern und Horst Mehl kon- tinuierliche und diskrete Simulationen. Diskrete Simulationen differenzie- ren sie je nach Zweck und Perspektive weiter in ereignisgesteuerte (bei- spielsweise Verkehrssimulationen), zeitgesteuerte (beispielsweise Game of Life), aktivitätsgesteuerte, prozessgesteuerte und transaktionsorientierte (beispielsweise Ablaufsteuerung in Fabriken) Simulationen (vgl. Mattern, Mehl 1989). Im Laufe der letzten Jahrzehnte wurden verschiedene Simula- tionsverfahren entwickelt wie beispielsweise die Differenzenmethode, die Finite Elemente Methode sowie Zelluläre Automaten, und Methoden wie adaptive Gitteranpassung oder genestete Modelle. 223 III PHILOSOPHISCHE VERORTUNG dislocated from the traditional reality that borrowed both the experimen- tal and theoretical domains, bound these borrowings together, and used the resulting bricollage to create a marginalized netherland that was once nowhere and everywhere on the usual methodological map. In the proc- ess of negotiation the relationship of Monte Carlo to traditional catego- ries of experiment and theory, the simulators both altered and helped define what it meant to be an experimenter or theorist in the decades following World War II“ (Galison 1996: 120). Diesen neuen Status der simulierenden Forscher hat Deborah Dowling in einer Interviewstudie hinterfragt. „The authority of scientific simulation relies on an analytical knowledge of the underlying ‚theoretical‘ mathematics, while the prag- matic utility of simulation relies on the scientist’s ability to black-box the program, to delegate the computations to the machine and to interact ‚experimentally’ with the surface“ (Dowling 1999: 271; vgl. Dowling 1998). Die Unterscheidung zwischen mathematischer Grundlage und experimenteller Oberfläche, die auf Sherry Turkles Untersuchungen zu Human-Computer-Interaktionen zurückgeht (vgl. Turkle 1995), legt einen „playing around [Modus und …] creative experimentation with a mathematical model“ nahe (Dowling 1991: 271). Nicht von ungefähr lautet der Titel von Dowlings Artikel Experimenting on theories. In ähn- licher Weise sprechen Günter Küppers und Johannes Lenhard von Com- putersimulationen: Modellierungen 2. Ordnung und meinen damit, dass „Computersimulationen als ein Experimentieren mit Theorien zu begrei- fen“ sind (Küppers, Lenhard 2005: 326).26 Dieses Experimentieren wird von Evelyn Fox Keller weiter unterschieden als ‚experiments in theory‘ und ‚computer experiments‘ (vgl. Fox Keller 2003). Die experimentelle Verwendung von Simulationen lässt sich in viel- fältiger Weise in der Wissenschaft finden. Daher ist es wichtig, Comput- ersimulationen und ihre „complex chain of inferences that serve to trans- form theoretical structures into specific concrete knowledge […] that has its own unique epistemology“ (Winsberg 1999: 275) genau zu unter- suchen. Diese Epistemologie, so Eric Winsberg, der sich an Allen Franklins Frage orientiert ‚How do we come to believe rationally in an experimental result?’ (vgl. Franklin 1986), generiert sich aus den ver- schiedenen Komponenten einer Simulation. „A calculational structure of theory; techniques of mathematical transforma- tion; a choice of parameters, initial conditions, and boundary conditions; re- 26 Das Konzept der Modellierung zweiter Ordnung bezieht sich bei Küppers und Lenhard darauf, dass Simulation „die modellierte Dynamik imitiert und nicht etwa numerisch eine Lösung berechnet“ (Küppers, Lenhard 2006: 324). 224 1 COMPUTEREXPERIMENTE duction of degrees of freedom; ad hoc models; a computer and computer algo- rithm; a graphics system; and an interpretation of numerical and graphical out- put coupled with an assessment of their reliability. A thorough epistemology of simulation requires a detailed analysis of the role of each of these compo- nents and an analysis of how a skilled simulationist can manage each potential contribution as a source of error. Here, I will have to be satisfied to note a few crucial features of the process of scrutiny“ (Winsberg 1999: 289).27 Die Schlussfolgerung, welche Winsberg aus seiner Analyse zieht, ist, dass das Vertrauen in Simulationen nicht unbedingt auf deren theore- tischer Fundierung resultiert, sondern dass „the epistemology of simula- tion […] is very much an empirical epistemology, and not merely a mathematical-logical one […] our theoretical knowledge is just one of several ingredients that simulationists use to produce their end product – a model of the phenomena“ (Winsberg 1999: 290, 291). Winsberg entschuldigt sich für diese unbefriedigende Konklusion mit dem Hin- weis: „Unfortunately, this conclusion is simply the result of a fundamen- tal limitation of our cognitive power. When it comes to complex sys- tems, we simply cannot bend our theories to our cognitive will – they will not yield results with any mechanical turn of a crank“ (Winsberg 1999: 291). Ob dies aber bedeutet, dass sich das Verstehen nur auf der Oberfläche der Bildschirme, also an den simulierten Phänomenen ab- spielt, gilt es zu hinterfragen. Denn in der Forschungspraxis ist es in der Regel nicht so, dass erst ein Simulationsmodell programmiert und damit dann experimentiert wird oder dass eine Modellhierarchie durchlaufen wird, an deren Ende die Simulation als Experiment steht. Modellierung, Programmierung und Simulation – zu Test- wie experimentellen Zwe- cken – sind miteinander rückgekoppelt und die Modellierer gehen in diesem Arbeitsprozess immer wieder zurück zur Theorie, zum mathema- tischen Modell und zum Code, nehmen Veränderungen vor, um dann erneut Simulationsläufe zu starten. Das vorläufige Ende – als ‚release‘ einer Modellversion bezeichnet – geschieht meist willkürlich aus Zeit- gründen, etwa in der Klimamodellierung, um zugesagte IPCC Szenarien zu rechnen oder ein Modell der Community zur Verfügung zu stellen. Doch schon am nächsten Tag wird das in-silico Experimentalsystem 27 In einem anderen Aufsatz spricht Winsberg von einer Modellhierarchie: Die Theorie wird durch das ‚mechanische‘, also theoretische Modell spe- zifiziert (Anfangs- und Randbedingungen, Parametrisierungen), in ein dy- namisches Modell transformiert (ad-hoc Modellierungen, Annahmen, Ap- proximationen, etc.) und schließlich diskretisiert und codiert in ein ‚com- putational model‘ überführt, das dann berechnet wird. Die Resultate wer- den visuell aufbereitet, analysiert sowie interpretiert und ergeben schließ- lich das ‚model of the phenomena‘ (vgl. Winsberg 1999a). 225 III PHILOSOPHISCHE VERORTUNG weiter verändert, eine neue Version generiert und neue Simulationen durchgeführt. Diese Rückkopplungen und (Re-)Konfigurationen auf al- len Ebenen charakterisieren das Forschen mit Comput 28erexperimenten. Ein Großteil des Erkenntnisgewinns resultiert gerade aus diesen perma- nenten Verbesserungen und Tests, also durch das Einrichten, Justieren und Verändern des in-silico Experimentalsystems, und nicht nur aus dem Experimentieren mit dem fertigen Konstrukt. Der epistemisch wohl fruchtbarste Prozess ist vielleicht sogar die Fehlersuche im Modell wie das Beispiel der Vulkanparametrisierung illustrierte. Für viele Wissen- schaftsbereiche spielen diese immer wieder hergestellten Rückkopplun- gen zu Teilen der zugrundeliegenden Theorie, des Codes, aber auch zu den empirischen Quellen während des Konstruktionsprozesses die wich- tigste Rolle für den Erkenntnisgewinn. Daher wäre es wichtig, diese von Winsberg angesprochene „complex chain of inferences that serve to transform theoretical structures into specific concrete knowledge“ (Winsberg 1999: 275) an konkreten Fallbeispielen in ihren verwickelten Zusammenhängen im Laufe der Arbeitsprozesse zu untersuchen. Dabei würde es allerdings weniger um die Frage gehen, „whether or not, to what extent, and under which conditions, a simulation reliably mimics the physical system of interest“ (Winsberg 2003: 115), als mehr um die methodologischen wie epistemischen Transformationen, die in- nerhalb dieser Kette an Folgerungen stattfinden. Wissen wird während des Modellierens, Codierens und Simulierens von einem Modus in einen anderen transformiert und stellt damit einen sehr komplexen Prozess der Erkenntnisgewinnung dar. Genau diese Transformationen sind für den Entdeckungszusammenhang simulationsbasierter Erkenntnisse charakte- ristisch und kennzeichnen den Unterschied zu anderen Formen wissen- schaftlicher Erkenntnisgenerierung. Sich allein auf das fertige Konstrukt oder den Begründungszusammenhang zu fixieren, ist dabei wenig hilf- reich. Denn was häufig ignoriert wird, ist, dass Simulationsmodelle weit mehr als computerberechenbare Umsetzungen von basalen Gleichungen respektive Modellierungen zweiter Ordnung sind. Die hauptsächliche Arbeit steckt in der Programmierung der zusätzlichen Parametrisierun- gen, nicht nur in der Diskretisierung der zugrundeliegenden Gleichun- gen und den dafür nötigen Randbedingungen. Meist geht dies auch mit einer interdisziplinären Ausweitung der Simulationsmodelle einher, 28 Natürlich spielt hier auch wieder das gewählte Fallbeispiel eine Rolle. Vielleicht lässt sich ein Durchlauf durch eine Modellhierarchie bis zum Simulationslauf in manchen Wissenschaftsdomänen und vor allem für ein- fache Modelle finden. Doch im Falle der Klimamodellierung, aber auch der Biologie und der Gravitationspysik ist das in realiter sicherlich nicht der Fall. 226 1 COMPUTEREXPERIMENTE denn oft wird Information aus weiteren Wissenschaftsdisziplinen benö- tigt. Dies hängt natürlich vom Ziel der Simulation ab. Computerlabor- studien, wie die von Martina Merz zu Simulationen in der Elementar- teilchenphysik, von Erika Mattila zu Epidemiesimulationen oder von Mikaela Sundberg zur Klimaforschung, wissen um die Bedeutung dieses Restes jenseits der basalen Gleichungen (vgl. Merz 1999, 2002; Mattila 2006; Sundberg 2005). Sie decken die verwickelten, epistemischen Pro- zesse des Modellierens und Simulierens auf. Mattila beispielsweise be- schreibt die Einsicht, die sie aus ihrer empirischen Studie gewonnen hat, wie folgt: „The empirical analysis conducted in this study supplies an account of the multiple functions of models within their life span: there was a change during the modeling process from research objects to tool, depending on the corre- sponding uses and applications. As tools they were material for other models, and they also nurtured the skills of the modellers to expand their research to other fields. […] The modellers stressed that the models functioned as ‚media’ for communication. The starting point was the need to find ways of organizing and managing interdisciplinary research work in order to build infectious- disease models. Although regular collaborative means, such as joint seminars and literature reviews were also used, the models played a special role in fa- cilitating the communication: the difficult technical details, the mathematical formalisms, and the specificities of the infection were communicated in them“ (Mattila 2006: 187, 188). „Did the models fulfill any experimental functions (i.e. were bound up with experimental practice)? They were used in predicting possible scenarios by answering ‚what-happens-if’ types of questions, which could be considered to carry their experimental function“ (Mattila 2006: 189). In der Forschungspraxis stellt sich das Verhältnis zwischen Simula- tionsmodellen und Modellierern als ein komplexes dar, in welchem den Modellen allerlei unterschiedliche Funktionen zukommen. Das Experi- mentieren ist dabei nur eine unter vielen Funktionen, und steht dabei meist unter der prognostischen ‚was-wäre-wenn‘-Fragestellung. Merz fasst diese verschiedenen Funktionen einer Simulation unter dem Begriff ‚Multiplexität‘ zusammen (vgl. Merz 1999). Mit Lorenzo Magnani, der sich dabei allerdings nicht auf Simulationsmodelle, sondern auf klassi- sche Modelle bezieht, könnte man Simulationen aufgrund ihrer vielfälti- gen Funktionen als ‚epistemic mediators‘ bezeichnen (vgl. Magnani 2001). Sundberg meint Ähnliches, wenn sie von einer ‚line of work’ spricht: „The practices more literally constitute a line of work, ranging from theoretical construction, explorative use, pragmatic construction, to applied use. However, it is the simulation model, rather than collabora- tive projects, that brings the working practices in modeling together as a 227 III PHILOSOPHISCHE VERORTUNG collective (subworld)“ (Sundberg 2005: 159). Diese vielfältigen Funk- tionen der Computerexperimente gestalten Forschungspraxis um, die einer neuen Syntax folgt, wie sie Matthias Heymann in seiner histori- schen Studie zu atmosphärenchemischen Simulationen rekonstruiert hat. „The use of computer as a tool required a change of practices towards a drastic simplification, the collection and preparation of an enormous amount of input data, the adoption of control procedures to validate the models, and the execution of ‚computer experiments’ in sensitivity stud- ies. The range and order of practices, which evolved in atmospheric modeling, may be regarded as what Rohrlich called ‚new syntax’ of sci- entific practices or as a specific new form of knowledge production“ (Heymann 2006: 78). „It produces ‚computer observations’, which make a new entry into the heterogeneous set of elements of knowledge“ (Heymann 2006: 84). Diese ‚computer observations’ generieren zuneh- mend einen neuen Raum quasi-empirischer Analysen. Doch was bedeutet es für den einzelnen Wissenschaftler im Alltag, wenn Computer eine neue Form der Arbeitsteilung einführen, nämlich die zwischen Forschern und Computern? „Das Gelingen von Koopera- tion zwischen Objekt und Subjekt setzt auf Seiten der Wissenschaftler Fertigkeiten, Erfahrungen und Kooperationsbereitschaft voraus“ (Merz 2002: 271), schreibt Martina Merz in ihrem Artikel Kontrolle – Wider- stand – Ermächtigung: Wie Simulationssoftware Physiker konfiguriert, der das Wechselverhältnis zwischen Modellierern und ihren Modellen untersucht. „Auf dieser Grundlage ist eine Arbeitsteilung zwischen Ob- jekt und Subjekt möglich: Wissenschaftler bereiten die Simulationssoft- ware vor und setzen Anfangsbedingungen. Sie übergeben darauf die Ini- tiative an das Computerprogramm, das nun seine Daten eigenständig produziert. Während das Programm läuft, entzieht es sich dem Zugriff von außen. […] Im Anschluss an den Prozess der Datenproduktion er- greifen wiederum die Wissenschaftler die Initiative, indem sie den Soft- wareoutput verarbeiten und interpretieren“ (Merz 2002: 271). Die Wechselwirkungen zwischen Modellierern und ihren Modellen werden von beiden Seiten gesteuert, wobei die Modelle als komplexe bezie- hungsweise multiplexe Objekte die Zugriffsformen regulieren. „Insbe- sondere jene Bestandteile [der Simulationssoftware], die den identitäts- stiftenden konzeptionellen Kern des Programms stützen und ausmachen, sind für die große Mehrheit der Anwender unzugänglich, während rela- tiv eigenständige Programmkomponenten von Anwendern nach Bedarf 228 1 COMPUTEREXPERIMENTE an- und ausgeschaltet werden können“ (Merz 2002: 275, 276).29 Aus dieser Reglementierung ergeben sich Gebrauchsanweisungen im Um- gang mit der Simulation. Kontrollentzug und Widerstand gegenüber den geplanten Simulationsexperimenten sind die Folge. Dabei erscheint das Objekt den Forschern, so Merz, aus zwei Gründen widerständig. „Zum einen geben simulierte Daten den Grad ihrer Zuverlässigkeit nicht ohne weiteres preis; zum anderen sind die potenziellen Ursachen für unerwar- tete Ereignisse vielfältig. Das Objekt mutiert quasi unter der Hand von einer Antwortmaschine in eine (die Physiker herausfordernde) Fragema- schine“ (Merz 2002: 280). Ein Physiker, der für die Studie interviewt wurde, bringt es auf den Punkt: „A lot of people really trust the Monte Carlo as a sort of absolute prediction of QCD [Quantenchromodynamik] whereas most people who know a bit more about what happens inside a program distrust it maybe more“ (Merz 2002: 280).30 Doch es lässt sich noch eine weitere Konfiguration feststellen und zwar hinsichtlich des Sozialen des Forschungsalltags, und genau hierin liegt auch ein wichti- ger Aspekt für den Erkenntnisgewinn. „Simulation versetzt Physiker in die Lage, den Grenzbereich von Theorie und Experiment als einen Raum der Interaktion, Kooperation, Verhandlung, Manipulation und Entdeckung zu entfalten. Diese Konfiguration des Sozialen beruht auf verschiedenen Modi der Verbindung und Überbrückung“ (Merz 2002: 283, 284). Dabei spielt die Visualisierung der Resultate eine Rolle. Die- se entsprechen eher der Vorstellungswelt der Experimentalphysiker und ermöglichen daher theoretischen Physikern einen neuen Zugang zur Theorie. Das Experimentieren mit dem Simulationsmodell leistet Ähnli- ches. Auf der anderen Seite werden Experimentalphysiker „durch die Simulation befähigt, neues epistemisches Terrain zu betreten und explo- rieren. Dabei erkunden sie einen Teil des epistemischen Raums theoreti- scher Physiker. […] Simulation verkoppelt und erweitert epistemische Räume und ermöglich die Etablierung neuer Formen der Arbeitsteilung und Kooperation zwischen Physikern verschiedener Ausrichtung. […] Simulation [ermächtigt] Physiker insbesondere auch zu neuen Formen des Forschungshandelns“ (Merz 2002: 285, 286).31 29 Das gilt nicht nur für Anwender von Simulationssoftware. Im Falle großer Modelle wie in der Klimaforschung hat ein einzelner Modellierer nur auf einen Teil des Gesamtmodells Zugriff und muss sich mit den anderen Pro- grammteilen arrangieren. 30 Von daher sollten nicht nur Naturwissenschaftler, sondern vor allem Wis- senschaftstheoretiker und -philosophen, Simulationen nicht nur als neue experimentelle Antwortmaschinen betrachten, sondern vor allem ihren Wert als Fragemaschinen anerkennen. 31 „Dabei hat Simulation zwei epistemische Funktionen: Zum einen erlaubt sie ein Experimentieren am Computer (in ‚dry lab‘-Experimenten) […]. 229 III PHILOSOPHISCHE VERORTUNG Diese neuen Formen des Forschungshandelns, die neue Syntax der For- schungspraxis, beschäftigt auch eine Reihe von Autoren im Kontext ökonomischer Simulationen. Im Unterschied zu den naturwissenschaft- lichen Simulationsverortungen kommt hier eine weitere Komponente ins Spiel. „I suggest that the umbrella term ‚simulation‘ […] was formed from a set of four interlocking elements, namely: ‚experi- ment‘,‚model‘,‚game‘ and ‚the computer‘ (Morgan 2004: 362). Mary Morgan, die in ihrem Artikel Simulation: The birth of a technology to create ‘evidence’ in economics die Entstehung der Simulation in den 1960er Jahren untersucht, zitiert einige der Simulationspioniere, unter anderem Geoffrey P. Clarkson und Herbert A. Simon: „Simulation is a technique for building theories that reproduces part or all of the output of a behaving system […] The process of simulation involves construct- ing a theory, or model, of a system that prescribes the system’s proc- esses […] By carrying out the processes postulated in the theory, a hy- pothetical stream of behavior is generated that can be compared with the stream of behavior of the original system“ (Clakrson, Simon 1960: 920). Dieses Zitat verortet Simulationen nicht nur in den Bereich von Techno- logien, und diesem Vorschlag folgt Morgan in ihrer Analyse,32 sondern kennzeichnet den wichtigsten Zweck ökonomischer Simulationen, näm- lich Verhalten zu simulieren. Es wird aber auch deutlich, dass die benö- tigte Theorie oder das Modell eines spezifischen ökonomischen Settings parallel zur Simulation entsteht. Im Unterschied zur Physik handelt es sich nicht um einen jahrhundertealten Formelkanon, der nun dank Simu- lationen numerisch approximiert und somit in neuer Weise analysiert werden kann. Simulationen erschließen den Wirtschaftswissenschaften in den 1960er Jahren, neben realen Rollenspielen, erst die Möglichkeit zu experimentieren und dafür braucht es entsprechende Modelle respek- tive Theori n.33e „By tradition, economics was not regarded as an ex- perimental science, a view which had to be overcome“ (Morgan 2004: Zum anderen unterstützt sie die Erforschung von Analysestrategien und alternativen Modellbeschreibungen und dient damit einer Vertiefung des theoretischen Verständnisses“ (Merz 2002: 270). 32 „Labeling simulation a technology gives two advantages. First, as a tech- nology, it presents itself in various forms, with each of the combined ele- ments having more or less importance for any particular version, so we can be less concerned about the specifies of the techniques. Second, it draws attention to the combination of human know-how and material things associated with the meaning of ‚technology’” (Morgan 2004: 363). 33 „The, now classic, first market experiment in economics was reported by Edward Chamberlin (1948) who described a set of forty-six classroom (‚laboratory‘) experiments“ (Morgan 2002: 46, vgl. Chamberlin 2948). 230 1 COMPUTEREXPERIMENTE 369). Ähnlich wie in der Biologie stimulieren Simulationen neue Arten von Theorien, von Modellen und von Experimenten. Daher sollten Simulationen, wie das Margaret Morrison für Modelle fordert, als „autonomous agents“ verstanden werden (vgl. Morgan, Mor- rison 1999). In ihrem Buch Models as Mediators postulieren Morgan und Morrison: „We believe there is a significant connection between the autonomy of models and their ability to function as instruments of inves- tigation. It is precisely because models are partially independent of both theories and the world that they have this autonomous component and so can be used as instruments of exploration in both domains“ (vgl. Morri- son, Morgan 1999: 10). In dieser Interpretation wird der Simulation ein wichtiger, aber leider nicht autonomer Stellenwert zugewiesen. Simula- tion wird hier als eine modellspezifische Form der Repräsentation ange- sehen, die den autonomen Charakter der Modelle stärkt. „Although simulation and modelling are closely associated it is important to isolate what it is about a model that enables it to ‚represent‘ by producing simu- lations. This function is, at least in the first instance, due to certain struc- tural features of the model, features that explain and constrain behavior produced in simulations. In the same way that general theoretical princi- ples can constrain the ways in which models are constructed, so too the structure of the models constrains the kinds of behavior that can be simulated“ (vgl. Morrison, Morgan 1999: 29).34 Doch möglicherweise lässt sich der Spieß umdrehen und fragen, ob nicht mittlerweile die Simulation die Struktur der simulierbaren Modelle und Theorien bedingt und damit zu einer neuen Klasse von Modellen und Theorien als auch Experimenten führt. 34 Hier fehlt die Differenzierung zwischen mathematischem Modell, ins- silico Experimentalsystem (algorithmiertem Modell) und experimentellem Setting, also dem konkreten Computerexperiment. Das Verhalten der Si- mulation wird entscheidend von den Anfangs- und Randbedingungen be- stimmt, nicht nur durch die vom Modell vorgegebene Struktur. 231 2 DENKEN IN MATHEMATISCHEN MÖGLICHKE ITSRÄUMEN In der diskutierten Literatur wird auf verschiedene epistemische und for- schungspraktische Kennzeichen von Simulationen hingewiesen. Vor allem die Prozesshaftigkeit von Simulationen und ihre Erweiterungs- funktion mathematischer Erkenntnis sowie die Grenzüberschreitungen zwischen Theorie und Experiment, indem mit Theorie experimentell umgegangen wird, werden thematisiert.1 Dennoch ist es schwierig, den Erkenntniswert, die epistemische Neuheit sowie die Folgen für die wis- senschaftliche Erfahrung und das damit verbundene wissenschaftliche Weltbild zu erfassen. Unter Umständen liegt dies daran, dass Simulatio- nen aus der falschen Blickrichtung untersucht werden. Der Blick richtet sich dabei ausgehend von den traditionellen Verfahren – Theorie, Mo- dell, Messung, Beobachtung – auf die Simulation. Vielleicht ist dies der Grund, dass der Computer im Kontext der Computersimulationen so augenfällig marginalisiert, dass die Simulation allzu bereitwillig dem Modell untergeordnet und dass versucht wird, die grenzüberschreitende Funktion von Simulationen klassisch zu fassen. Ein Wechsel der Blick- richtung ist dringend erforderlich, damit Simulationen aus der Perspek- tive des Computers als notwendiger Bedingung computerbasierter Wis- senschaft hinterfragt werden können. 1 Vielleicht könnte man noch hinzufügen, dass Simulationen datenbasierte Schnittstellen zwischen Theorie und Experiment respektive Messung sind (vgl. Gramelsberger 2004: 48ff), dass sie Bilder von Theorien generieren (vgl. Gramelsberger 2001: 148ff) und dass sie semiotisch gesehen Techno- logien des Überschreibens sind (vgl. Gramelsberger 2001, 2004a). 233 III PHILOSOPHISCHE VERORTUNG Ein solcher Perspektivwechsel soll nun vorgenommen werden. Das Ziel ist es dabei, den epistemischen Kern des Wandels der Wissenschaft im Zeitalter des Computers zu erfassen, diesen Kern als Medienwende in der Mathematik zu beschreiben, die den mathematischen Anschau- ungs- und Handlungsraum erweitert, und Simulationen respektive Com- puterexperimente dabei als neue symbolische Form von Forschung in Anlehnung an Ernst Cassirers Philosophie der Symbolischen Formen zu verstehen (vgl. Cassirer 1923, 1929). Vor dem Hintergrund des Wech- sels der Blickrichtung ergeben sich drei Fragen: Nach der Rolle des Computers, nach dem Verhältnis von mathematischem Modell und Si- mulation und schließlich nach dem Status der klassischen erkenntnisge- nerierenden Verfahren im Zeitalter des Computers. Extreme Welten I Der Computer wird als Instrument angesehen, das theoretische Modelle in dynamische wandelt, das dank seiner unglaublichen Schnelligkeit die numerischen Möglichkeiten erhöht und das aus diesem quantitativen Vorteil einen qualitativen generiert. Qualitativ, indem mit theoretischen Modellen durch Visualisierung auf Phänomenebene, im Sinne eines Be- obachtens des simulierten Systemverhaltens, gearbeitet werden kann. Vor allem hierin wird die Erweiterungsfunktion des Computers gesehen, ähnlich dem Mikroskop. Er gibt n u 2e e Einblicke in neue Welten. Doch auch wenn der Computer in seiner Erweiterungsfunktion hoch geschätzt wird, noch fehlt eine konkrete Analyse dieses „third type of empirical extension“ (Humphreys 2004: 5), die den Computers als das ermögli- chende Medium berücksichtigt. Denn die grundlegende Bedingung die- ser neuen Wahrnehmungsform ist die Algorithmierung der theoretischen Modelle, also die Codierung von Theorie. Eine Analyse des Codes oder der Praktiken des wissenschaftlichen Programmierens findet man jedoch in keinem der Beiträge über Computersimulationen.3 Dies kann nur be- 2 Dieser „third type of empirical extension“ (Humphreys 2004: 5) ist es, der Wissenschaftsphilosophen inspiriert, Empiristen hingegen herausfordert. Denn der Computer wird als Weltengenerator wahrgenommen, aber als einer, der lediglich virtuelle Welten generiert – im Unterschied zu Mess- und Experimentierinstumenten. Daher widmet Paul Humphreys einen Großteil seines Buches dem wissenschaftlichen Empirismus in seiner ins- trumentenvermittelten Form, um diese Einschätzung zu relativieren. 3 Einige konkrete Hinweise zur wissenschaftlichen Programmierung lassen sich bei Martina Merz und Mikaela Sundberg finden und in sehr allgemei- ner Beschreibung bei Eric Winsberg (vgl. Merz 1999, 2002; Sundberg 2005; Winsberg 1999, 1999a). 234 2 DENKEN IN MATHEMATISCHEN MÖGLICHKEITSRÄUMEN deuten, dass entweder davon ausgegangen wird, dass das mathematische Modell sich ohne größere Probleme in ein Programm übersetzen lässt. Oder dass der Computer nur als eine theoretische Größe im Sinne der Ermöglichung der Berechenbarkeit verstanden wird und es daher zuläs- sig erscheint, nur sehr allgemein über bestimmte Eigenschaften zu spre- chen. Doch beide Marginalisierungen sind nicht zutreffend, und dies soll anhand des Antagonismus zwischen der epistemischen Komplexität wis- senschaftlicher Forschung und der jeweils unterschiedlich gelagerten Extremalität mathematischer wie programmierter Modelle näher unter- sucht werden. Die Grundvoraussetzung für Simulationen, so wird es einhellig ge- sehen, sind die mathematischen Modelle. Dies gilt es weder theoretisch noch forschungspraktisch in Zweifel zu ziehen, doch mathematische Modelle sind extreme Gebilde, die einer anderen Logik folgen als die programmierten Modelle, und dies nicht nur aus Gründen der Numerik oder der effizienten Berechenbarkeit. Dieser Unterschied wird deutlich, wenn man die Praktiken der mathematischen Modellierung mit denen der wissenschaftlichen Programmierung vergleicht. In dem schon etwas älteren, aber in seiner Konzeption einzigartigen Buch, Angewandte Ma- thematik. Gegenstand, Logik, Besonderheiten von 1976 (deutsche Über- setzung von 1984), analysieren die Mathematiker Ilja Blechmann, Ana- tolij D. Myskis und Jakow G. Panovko die Vorgehensweise der Model- lierung in der angewandten Mathematik, zumeist an Beispielen aus der Physik.4 „Die spekulativen [theoretischen] physikalischen Modelle simulieren das reale Objekt mit Hilfe abstrakter Darstellungen in physikalischer Sprache, und das nicht selten unter breiter Nutzung der Sprachen und der Mittel der Mathema- tik. Sie liefern eine mehr oder weniger vereinfachte Beschreibung des Objekts. […] Zum Beispiel werden in der Mechanik bei der spekulativen Modellbil- dung solche Begriffe wie Massenpunkte, absolut starre Körper, elastisches oder plastisches Medium, zähe Flüssigkeit u.a. verwendet. Diese Abstraktio- nen erlangten die Bedeutung von fundamentalen Modellen in der Mechanik. Bei der Modellierung von Aufgabenstellungen verwendet man Vorstellungen der absolut glatten oder der absolut unebenen Fläche, der Unbegrenztheit des betrachteten Objekts […] oder zweckmäßige Vereinfachungen kinematischer Art (zum Beispiel: die Flüssigkeitsströmung in einem Rohr ist eindimensional; die Querschnitte eines Balkens bleiben bei der Biegung eben)“ (Blechmann, Myskis, Panovko 1984: 145, 146). 4 Es geht den Autoren um eine Grundlegung des rationalen Schließens in der angewandten Mathematik in Abgrenzung zum deduktiven Schließen der reinen Mathematik. Dabei entspricht der Begriff des rationalen Schlie- ßens George Polyas Begriff des plausiblen Schließens (vgl. Polya 1954). 235 III PHILOSOPHISCHE VERORTUNG Diese Idealisierungen der Physiker kreieren bereits im Hinblick auf ihre Mathematisierung extreme Welten, welche sich in mathematischen Ver- fahren, beispielsweise der Bestimmung von Minima und Maxima einer Funktion, in der Periodisierung von Bewegungen oder in der Linearisie- rung von Beziehungen zweier Größen fortsetzen. Diese Idealisierungen im physikalischen und später im mathematischen Modell dokumentieren die begrenzten Darstellungsmöglichkeiten der Mathematik als Modellie- rungssprache, deren Elemente „eine geometrische Form, eine Funktion, ein Vektor, eine Matrix, eine skalare Größe oder sogar eine konkrete Zahl“ sind (Blechmann, Myskis, Panovko 1984: 146). Es wird zwar von den Autoren behauptet, dass das physikalische Modell mehr oder weni- ger die Struktur des mathematischen vorgibt. Doch dabei wird überse- hen, dass dies vor einem sich seit Jahrhunderten vollziehenden Co- Evolutionsprozess stattfindet, der Naturlehre in mathematische Physik transformierte. Physikalisch zu denken und zu modellieren bedeutet automatisch, sich in der Sprache der Mathematik zu bewegen und die Phänomene und Objekte aus der Perspektive der Grammatik dieser Sprache zu sehen.5 Was sich dabei mathematisch nicht fassen lässt, ent- zieht sich (zumindest fürs Erste) der Untersuchbarkeit und Beschreib- barkeit, solange nicht eine neue mathematische Darstellungsform gefun- den ist. Die Geschichte des Differentialkalküls, wie von Herman H. Goldstine eindrucksvoll rekonstruiert, ist ein gutes Beispiel dafür (vgl. Goldstine 1977, 1980). Ein vielleicht noch besseres Beispiel ist die Re- lativitätstheorie. Provokant schreibt Albert Einstein 1938: „Es gibt keine induktive Methode, welche zu den Grundbegriffen der Physik führen kann. Die Verkennung dieser Tatsache war der Grundirrtum so mancher Forscher des 19. Jahrhunderts“ (Einstein 1938: 1). Auch wenn Einsteins Behauptung aus epistemologischen Gründen hinterfragt werden kann, so macht sie doch deutlich, dass hier auf der selbstverständlichen Grundla- ge der Mathematisierung der Physik argumentiert wird. Das ist kein Zu- fall, denn wie Einstein selbst berichtet, war es die Vereinheitlichung von mathematisch formulierten Inertialsystemen, die letztendlich dazu führ- te, dass „die Zeit ihren absoluten Charakter [verlor] und […] den ‚räum- lichen‘ Koordinaten als algebraisch (nahezu) gleichartige Bestimmungs- größe zugeordnet“ wurde (Einstein 1938: 2). Die Grammatik der mathematischen Sprache hat die Naturwissen- schaft voll im Griff und produziert extreme Welten, die unter dem Be- 5 Ein weiteres Motiv der Idealisierung und Abstraktion ist sicherlich die von René Descartes geforderte Einfachheit als Voraussetzung der Analyse von Phänomenen (vgl. Descartes 1637). 236 2 DENKEN IN MATHEMATISCHEN MÖGLICHKEITSRÄUMEN griff der mathematischen Modelle gehandelt werden.6 Losgelöst vom extrasymbolischen Kontext einer Physik, einer Chemie oder einer Me- teorologie, lassen sich weitere Idealisierungen vornehmen, die der einfa- cheren mathematischen Zugänglichkeit der Modelle verpflichtet sind. „Manchmal können in den Gleichungen das eine Glied beibehalten und das andere vernachlässigt werden; nichtlineare Abhängigkeiten können linearisiert, komplizierte geometrische Formen durch einfachere ersetzt werden usw.“ (Blechmann, Myskis, Panovko 1984: 148). Allerdings sind die Folgen eines ‚un-sachgemäßen‘ Umgangs mit den mathemati- schen Modellen nicht nur anwendungsferne Idealisierungen wie in Eu- lers Bewegungsgleichung, sondern es können auch „gewisse ‚Monster‘ auftreten, d.h. parasitäre Ergebnisse mit dem Charakter von rein logi- schen Folgerungen, die keine reale Interpretation zulassen“ (Blechmann, Myskis, Panovko 1984: 65).7 Auch wenn sich zahlreiche unsachgemäße Fälle mathematischer Modellierung finden lassen, so ist die Adäquatheit des Modells in Hinblick auf das zu untersuchende Objekt oder Phäno- men erste Priorität. Da es keine allgemeine Methode zur Überprüfung der Adäquatheit eines Modells gibt, behilft man sich mit verschiedenen mathematischen Strategien. Blechmann, Myskis und Panovko sprechen von „Regeln der begleitenden Selbstkontrolle“ des mathematischen Mo- dells. Dazu gehören die Kontrollen der Dimensionen, der Größenord- nungen, des Charakters der Abhängigkeiten, des Definitionsgebiets der Randbedingungen, der mathematischen Abgeschlossenheit und extremer Situationen. Bei einer sorgfältigen Analyse bestätigt sich nicht nur die Adäquatheit, sondern es zeigt sich auch, dass das Modell Nebenad- äquatheit aufweisen kann. Das bedeutet, „es ermöglicht eine richtige 6 Von der Semantik der mathematischen Sprache zu sprechen würde falsche Vorstellungen wecken, denn diese Semantik taugt lediglich zur Konkreti- sierung von Kalkülsystemen anhand erzeugter Zeichenfolgen. Der Gewinn der ersten Medienwende der Mathematik vom Material zum Zeichen führ- te im 16. und 17. Jahrhundert zur Loslösung von extrasymbolischen Bezü- gen, die üblicherweise als Semantik eines natürlich-sprachlichen Zeichen- systems bezeichnet werden. Die Semantik eines künstlichen Zeichensys- tems wie das der Mathematik wird hingegen rein intrasymbolisch geregelt. Durch diese Formalisierung, die Voraussetzung der Kalkülisierung ist, ist überhaupt die Mechanisierung der Mathematik in Form berechenbarer Funktionen denkbar (vgl. Krämer 1991, Gramelsberger 2001, 2005a). 7 Ein solches ‚Monster‘ wurde bereits erwähnt, nämlich dass, basierend auf Hermann von Helmholtz’ Postulat von 1858, in idealisierten Fluiden Wir- bel existieren können, die aber weder vergehen noch entstehen können. Dies führte zu eigenartigen Schlussfolgerungen wie etwa der: Wirbel seien in universalen Fluiden wie dem Äther „‚as permanent as the solid hard atoms assumed by Lucretuis’, [as] Kelvin wrote to Helmholtz in a letter in 1867” (Eckert 2006: 20). 237 III PHILOSOPHISCHE VERORTUNG qualitative und quantitative Beschreibung nicht nur der Charakteristiken, für die es gebildet wurde, sondern auch noch einer Reihe anderer unab- hängiger Nebencharakteristiken, deren Untersuchung sich erst im weite- ren als notwendig erweisen kann“ (Blechmann, Myskis, Panovko 1984: 155).8 Diese kurze und sicherlich bezüglich der Adäquatheitsprüfung unbefrie- digende Darstellung – beispielsweise können im Laufe der Modellierung unberücksichtigte Faktoren eine große Rolle spielen – zeigt, dass ma- thematische Modelle idealisierte Darstellungen generieren, die man als extreme Welten bezeichnen kann. Die Vereinheitlichung des zugrunde- liegenden wissenschaftlichen Kontexts hat jedoch noch weitere Folgen. Mathematische Modelle bestehen aus den bereits genannten mathemati- schen Elementen und aus Beziehungen zwischen diesen Elementen. Wovon sie dabei vollständig abstrahieren, ist die epistemische Komple- xität der zugrundeliegenden wissenschaftlichen Kontexte. Diese zeigt sich in den unterschiedlichen epistemischen Quellen der mathematisier- ten Beziehungen. Diese Quellen können physikalische (first principles) und phänomenologische Gesetze sein. Letztere sind zwar hinreichend begründet, haben aber nur einen eingeschränkten Gültigkeitsbereich, wie beispielsweise das Hooksche Gesetz. Quellen können aber auch halb- empirische Hypothesen sein, die auf theoretischen Überlegungen basie- ren, jedoch nur empirisch überprüfbar sind. Schließlich fließen in die mathematischen Modelle auch rein empirische Hypothesen ein, die aus experimentellen Untersuchungen stammen und nur lokale Gültigkeit besitzen. 9 Die Rede vom mathematischen Modell als dem theoretischen Modell einer wissenschaftlichen Simulation ist also mit Vorsicht zu ge- nießen. Das mathematische Modell ist ein Sammelsurium theoretischer, phänomenologischer und empirischer Versatzstücke, deren unterschied- liche Gültigkeitsbereiche durch die mathematische Struktur nivelliert 8 Diese Nebenadäquatheit eines mathematischen Modells erweist sich als wichtiger Faktor. „Je größer die Nebenadäquatheit, desto breiter ist der Anwendungsbereich des Modells und desto ‚zuverlässiger‘, ‚dauerhafter‘ ist das Modell. Die Nebenadäquatheit eines Modells erhöht sich mit Ver- stärkung der Rolle, die in ihm universelle physikalische Gesetze (wie zum Beispiel der Energieerhaltungssatz), geometrische Sätze, im untersuchten Bereich bewährte Anwendungsformen der mathematischen Analysis u.a. spielen“ (Blechmann, Myskis, Panovko 1984: 155). 9 Die Strömungsdynamik als empirische Wissenschaft wurde bereits als typisches Beispiel genannt: „In 1896 a textbook on ballistics lists in chronological order 20 different ‚laws of air resistance,’ each one further divided into various formulae for different ranges of velocity. […] No physical theory could provide a logical framework for justifying these em- pirical ‚laws’“ (Eckert 2006: 26). 238 2 DENKEN IN MATHEMATISCHEN MÖGLICHKEITSRÄUMEN werden. Zwar ist sich jeder gute Modellierer dieser Nivellierung bewusst und wird ihr auch in Form von Limitierungen des Modells Rechnung tragen – beispielsweise indem er das Modell adäquat bezeichnet und damit auf gängige Idealisierungen und Abstraktionen verweist (z.B. elastisches Modell oder Modell des laminaren Flusses). Doch mit den rein empirischen Annahmen verändert sich die epistemische Struktur des mathematischen Modells, sofern funktionale Module in das Modell inte- griert werden, die das aktuale, vor Ort beobachtete oder gemessene Ver- hältnis von Eingabe- und Ausgabeparamatern modellieren. Wie sich Änderungen der Eingabeparameter auswirken können, ist bei diesen Modulen nicht bekannt, da keine Kenntnis der Transformationsprozesse zwischen Eingabe- und Ausgabeparamatern vorhanden sind. Die Aus- wirkungen dieser rein empirischen Annahmen auf das Gesamtmodell sind daher nur schwer einzuschätzen. Ein weiterer Aspekt der epistemischen Komplexität der zugrundelie- genden wissenschaftlichen Kontexte zeigt sich in der Wahl der bestim- menden Zustandsgrößen eines Modells und in der Hierarchie dieser Größen. Die Wahl der bestimmenden Größen charakterisiert den Zu- stand des Modells. Die Veränderungen dieser Größen ergeben dessen räumliche und zeitliche Entwicklung. So wurden für das grundlegende Modell der globalen Zirkulation der Atmosphäre von Vilhelm Bjerknes sieben bestimmende Zustandsgrößen identifiziert (vgl. Bjerknes 1904). Zu diesen Zustandsgrößen können weitere hinzukommen, um das Mo- dell realitätsnaher zu gestalten. Beispielsweise können neben rein me- chanischen Größen physikalische oder chemische Zustandsgrößen in das Modell integriert werden. Doch diese Zustandsgrößen besitzen ihre eigene epistemische Komplexität, die sich in Form räumlich und zeitlich unterschiedlicher Skalierungen zeigt. Zustandsgrößen können lokal oder global wirken, sie können langsam oder schnell veränderliche Größen sein. Aus dieser Durchmischung von Wirkungsreichweiten und Verän- derungstempi beziehen die Modelle ihre Skalenprobleme. Vor allem Klimamodelle sind von solchen Skalenproblemen betroffen, denn die atmosphärischen Bewegungsvorgänge reichen von Mikroturbulenzen im Sekunden- und Millimeterbereich bis zu Planetarischen Wellen im Jah- resgang und in Größenordnungen von Tausenden von Kilometern. Diese unterschiedlichen Bewegungen ergeben in ihrem Zusammenwirken die globalen und regionalen Bewegungsmuster der Atmosphäre. Eine ad- äquate Analyse des mathematischen Modells untersucht daher die Grundgrößen sowie deren Abängigkeiten und erstellt eine Hierarchie der Zustandsgrößen eines Modells. Anhand dieser Hierarchie lassen sich Entscheidungen über die weitere Handhabung treffen: Langsam verän- derliche Größen können als Parameter vorgegeben und schnell veränder- 239 III PHILOSOPHISCHE VERORTUNG liche durch Mittelwerte berücksichtigt werden, während die normal ver- änderlichen Zustandsgrößen im Modell berechnet werden. Durch eine solche Analyse lässt sich ein mathematisches Modell wesentlich verein- fachen, insofern „sich ein geschlossenes System mathematischer Bezie- hungen ergibt, durch das die Grundvariablen verknüpft sind. Diese Be- ziehungen bilden dann das mathematische Modell erster Näherung. Ein mathematisches Modell in den Grundveränderlichen und Grundabhän- gigkeiten stellt die einfachste Variante dar und hat im allgemeinen eine bedeutend geringere Dimension, (d.h. es wird durch eine kleinere Zahl wesentlicher Freiheitsgrade charakterisiert) als ein Modell, das ohne Be- rücksichtigung der Hierarchie der Veränderlichen aufgestellt wurde“ (Blechmann, Myskis, Panovko 1984: 179, 180). Worin genau liegt nun die Arbeit der mathematischen Modellierer? In der Regel werden mehrere mathematische Modelle generiert, die unter- schiedlich komplex sind und unterschiedlichen mathematischen Zwe- cken dienen. Blechmann, Myskis und Panovko ziehen einen illustrativen Vergleich zum Modedesign. „Es gibt die künstlerischen Modegestalter, d.h. diejenigen, die für irgendwelche abstrakten Personen Modelle kreie- ren, und die Schneider, die nach Modealben mehr oder weniger erfolg- reich den Schnitt für den betreffenden Kunden auswählen“ (Blechmann, Myskis, Panovko 1984: 204). Hieran zeigt sich die Art der mathemati- schen Modellierungspraktik, nämlich zwischen verschiedenen Abstrak- tionsniveaus zu wechseln. Die Modellierungspraktik besteht darin, mit Hilfe kalkülisierter Zeichensysteme Beziehungsmuster zu kreieren und diese dann qualitativ zu untersuchen, auch in Hinblick auf die Adäquat- heit hinsichtlich des konkreten Untersuchungsbereichs. Diese qualitative Untersuchung schließt die Deduktion von Aussagen, Schlussfolgerungen und Lösungen mit ein, wie sie die Analysis ermöglicht. Um solche qua- litativen Modelluntersuchungen vornehmen zu können, wenden Mathe- matiker wiederum extreme Praktiken an, die zu weiteren Vereinfachun- gen führen. So kann beispielsweise die Zahl der Freiheitsgrade eines Modells begrenzt werd 10en. Oder es kann nützlich sein „zu verfolgen, welche Form die Ausgangs- als auch die Zwischenbeziehungen wie auch die Ergebnisse der Modelluntersuchung annehmen, wenn die Mo- 10 Um die Freiheitsgrade eines Modells einzuschränken lässt sich beispiels- weise bei der Modellierung von Schiffsbewegungen für niederfrequente Schwingungen das Schiff als starrer Körper behandeln. Dadurch werden die Freiheitsgrade des Modells auf sechs begrenzt. Für hochfrequente Schwingungen wird das Schiff als elastischer Balken modelliert, was un- endlich viele Freiheitsgrade zur Folge hat. Im ersten Fall erhält man als Resultat ein Schwanken, im zweiten Fall eine Vibration des Schiffes. 240 2 DENKEN IN MATHEMATISCHEN MÖGLICHKEITSRÄUMEN dellparameter oder deren charakteristische Kombinationen ihre zulässi- gen Grenzwerte annehmen – meistens null oder unendlich. In solchen extremen Situationen vereinfacht sich die Aufgabe oder sie entartet, wo- bei die Beziehungen übersichtlicher werden und daher leichter kontrol- lierbar werden können“ (Blechmann, Myskis, Panovko 1984: 202). Einer der häufigsten Aussagetypen mathematischer Vereinbarungen in Modelluntersuchungen lautet wohl, „wir d fini 11e eren: x = 0“. Extreme Welten I I Doch es wären keine mathematischen Modelle, wenn sich diese nicht auch quantitativ untersuchen ließen. Hier beginnt der Bereich der Simu- lation, auch wenn dabei Computer noch nicht zwingend ins Spiel kom- men müssen. Überschlagsrechnungen oder Berechnungen für sehr einfa- che Fälle lassen sich allemal mit Bleistift und Papier oder mit Rechen- schiebern ausführen. Wie auch immer die Berechnungen vollzogen wer- den, die mathematischen Modelle geben keine Rechenvorschriften dafür an. Ein Mathematiker oder ein mathematisch geschulter Wissenschaftler hat diese im Kopf. Hier liegt der maßgebliche Unterschied zwischen einem mathematischen Modell und dem Modell, das einer Simulation zugrunde liegt. Letzteres ist das Modell einer Rechenvorschrift für ein bestimmtes mathematisches Modell. Es ist eine komplett neue Darstel- lung des mathematischen Modells aus Perspektive seiner quantitativen Berechenbarkeit. Hier zeigt sich in der Forschungspraxis der Perspek- tivwechsel, den Wissenschaftler vollziehen, wenn sie als Untersu- chungsmethode ihrer mathematischen Modelle deren numerische Be- rechnung wählen. Denn nun kommen Bedingungen der Berechnung ins Spiel, die heutzutage Bedingungen der automatischen elektronischen Rechenmaschinen, also der Computer sind. Diese Bedingungen sind nicht nur hinreichend, sondern notwendig, um ein mathematisches Mo- dell numerisch zu simulieren. Ein wissenschaftlicher Programmierer muss daher weniger Beziehungsmuster zwischen Zustandsgrößen kreie- ren und diese qualitativ untersuchen, als vielmehr diese Beziehungsmus- ter in die Bedingungen der Berechenbarkeit einpassen und dadurch prak- 11 Die Verkehrung des Blicks auf die Welt aus extremer Perspektive zeigt sich an folgender Anekdote. „Wie verfährt denn der Mathematiker [auf die Frage, wie man einen Löwen in der Wüste fängt]? […] Er definiert zu- nächst, was es heißt einen Löwen zu fangen. Das bedeutet, den Löwen von sich durch ein Gitter abzutrennen. Ich setze mich hinter das Gitter, und der Löwe ist, nach Definition, gefangen“ (Blechmann, Myskis, Panovko 1984: 136). 241 III PHILOSOPHISCHE VERORTUNG tikable Rechenvorschriften mit möglichst geringen strukturellen Verlus- ten gegenüber dem mathematischen Modell erzeugen. Seine Aufgabe ist also eine andere, als die der mathematischen Modellierer, und sie greift auf ein anders gelagertes Repertoire an Praktiken zurück. Neben mathe- matischen Bedingungen gilt es informatische zu berücksichtigen.12 Die- se informatischen Bedingungen umfassen die Diskretisierung des ma- thematischen Modells (Rechenvorschriften), die dynamischen Formie- rung dieser Rechenvorschriften in einen maschinentauglichen Ablauf (Programm) und die numerische Explizierung für die konkrete Berech- nung (Computerexperiment). Bevor auf einige der Praktiken der wissenschaftlichen Programmierung näher eingegangen wird, muss auf ein fundamentales Problem der Dis- kretisierung hingewiesen werden. „Da die Diskretisierung nicht eindeu- tig ist, muß die gewählte Differenzenapproximation nicht unbedingt zur richtigen Lösung führen. Die Eindeutigkeit einer Differenzenlösung oder einer anderen finiten Approximation kann heute in der Regel nur für lineare Probleme nachgewiesen werden“ (Krause 1996: 15). Dies bedeu- tet, dass es für die meisten Fälle keinen Beweis gibt, dass das mathema- tische Modell (meist in Form von Differentialgleichungen) und das Mo- dell der Rechenvorschrift (oft in Form von Differenzengleichungen) identisch sind. Das Modell der Rechenvorschrift muss daher als ein neu- es Modell angesehen werden, von dem man nur hoffen kann, dass es mit dem mathematischen Modell strukturell korrespondiert. Da es zudem verschiedene Diskretisierungsverfahren gibt, muss ein Modellierer sich für das seiner Meinung und Erfahrung nach am besten geeignete Verfah- ren entscheiden. Doch das Wissen um die Diskretisierung von Differen- tialgleichungen gehört nicht unbedingt zum Handwerkszeug eines Na- tur- oder Ingenieurswissenschaftlers. Diskretisierungen sind aufwendige Verfahren, die oft viele Monate bis einige Jahre Modellierungs- und Programmierungszeit in Anspruch nehmen können, wie beispielsweise für die Dynamik der globalen Atmosphärenmodelle. Daher wird in der Forschungspraxis öfter auf fertige Programme und Subroutinen, soge- nannte PDE Partial Differential Equation Löser, für bestimmte Probleme zurückgegriffen. 12 Beide Bereiche lassen sich in der Forschungspraxis kaum trennen und werden heute in Ausbildungsgängen wie Technomathematik oder Scienti- fic Computing gelehrt. Doch die Trennung zwischen mathematischer Mo- dellierung und wissenschaftlicher Programmierung bleibt in den Arbeits- schritten erhalten, die einer Simulation vorausgehen. 242 2 DENKEN IN MATHEMATISCHEN MÖGLICHKEITSRÄUMEN „So findet man z.B. schon 1988 […] über 950 verschiedene Finite-Elemente Codes. […] Da man davon ausgehen muß, daß er [Anwender von PDE- Lösern] in seinem eigenen Studium kaum Ausbildung in Theorie und Numerik partieller Differentialgleichungen erhalten hat, und seine Kenntnisse über PDEs daher nicht sehr groß sind, muß man mit zwei sich gegenseitig verstär- kenden Schwierigkeiten rechnen: Einmal muß man annehmen, daß ein guter Überblick über die aktuelle Methodenlandschaft fehlt, so daß nicht selten in unbekümmerter Weise die exotischsten Gleichungskombinationen aufgestellt werden, für die dann anschließend nur sehr schwer geeignete Software zu fin- den ist (wenn es sie denn überhaupt gibt). Zum zweiten verleitet die fehlende Kenntnis dazu, die jeweils zuerst gefundene halbwegs funktionierende nume- rische Methode zu verwenden, was zu einer ineffizienten und unsicheren Nu- merik führen kann sowie in der Folge zur Verschwendung personeller Res- sourcen und Rechenzeit“ (Fuhrmann, Kleis, Mackens 1996: 119, 120). Wie gut auch immer das mathematische Modell sein mag, bereits die Diskretisierung kann es in ein unzulängliches Modell verwandeln. Da das Diskretisierungsverfahren jedoch eine notwendige Voraussetzung der Simulationen ist, sind die anschließenden Berechnungen mit Vor- sicht zu genießen. Doch bis zur Berechnung ist es ein weiter Weg. Die Diskretisierung muss in ein Computerprogramm übersetzt werden, so- fern auf keine fertigen Softwareprogramme zurückgegriffen wird. Auch wenn Programmierer heute keine Rechenvorschriften mehr in Maschi- nensprache formulieren, so ist die Aufgabe der Codierung immer noch dieselbe wie vor gut sechzig Jahren. „These equations and conditions, which are usually of an analytical and possibly of an implicit nature, must be replaced by arithmetical and explicit procedures. [… This] step has, at least, nothing to do with mechanization: It would be equally nec- essary if the problems were to be computed ‚by hand’. […] Coding be- gins with the drawing of the flow diagrams“ (Goldstine, von Neumann 1947: 99, 100). Die Codierung transformiert das statische Konzept der Rechenvorschrift eines mathematischen Modells in dynamische Abläu- fe. Dazu werden die bislang durch mathematische Zeichenkonventionen dargestellten Operationen in abarbeitbare Anweisungen übersetzt, wobei jede Anweisung sich aus der vorherigen ergeben muss. Codierung be- deutet die Ausbuchstabierung der mathematisch notierten Operationen in Form maschinentauglicher Anweisungen. Zwar muss sich jede An- weisung eines Programms aus der vorherigen ergeben, doch sind hier keine logischen Folgerungen oder Deduktionen gemeint, sondern expli- zite Prozeduren der Art ‚do (if … then … else … end if)n end do, re- turn‘. Hier liegt ein weiterer, sehr entscheidender Unterschied zum ma- thematischen Modell. Die Codierung des Modells der Rechenvorschrift folgt zwar der logischen Struktur des mathematischen, aber eben nicht in 243 III PHILOSOPHISCHE VERORTUNG einem deduktiven Sinne. Die mathematische Struktur wird in Hinblick auf die Berechnung des Modells informatisch rekonstruiert. Die Ausbuchstabierung der mathematischen Operationen in maschi- nentaugliche Anweisungen wiederum verlangt die Ausbuchstabierung der veränderlichen Zustandsgrößen und Parameter eines Modells für den kompletten, diskreten Berechnungsraum. Das bedeutet, dass die Zu- standsgrößen und Parameter – im mathematischen Modell einfache Symbole wie etwa Qmli für das Schmelzen des Eises in einer Wolke – nun für sämtliche Knotenpunkte eines Berechnungsrasters berücksichtigt werden müssen. Beide Arten der Ausbuchstabierung sind im Ergebnis extrem, denn sie lösen die eleganten Notationen, die sich unter Umstän- den auf ein Blatt Papier schreiben lassen, in Tausende von Codezeilen und Tausende von Berechnungspunkten auf.13 Generieren sich die ex- tremen Welten der mathematischen Modelle aus den Formalismen, die in extrem abgekürzter und allgemeiner Form notiert werden, so lösen die extremen Welten der codierten Rechenvorschriften diese Abkürzungen in zahllose Einzelanweisungen und Konkretisierungen auf. Dabei tritt ein semiotisches Paradox zu Tage, denn der symbolische Umgang mit Unendlichkeiten muss in endliche Anweisungen aufgelöst werden oder durch Abbruchkriterien erzwungen werden, wenn man am Ende effekti- ve Rechenvorschriften für die konkrete Ausführung haben möchte. Un- endlichkeit wird durch Iteration und Rekursion faktisch simuliert. Die extremen Welten der codierten Rechenvorschriften sind durch semioti- sche Explizitheit und iterative Selbstbezüglichkeit charakterisiert. Doch es ist nicht nur die Menge der einzelnen Anweisungen und Berechnungspunkte, in die ein komplexes Problem wie das der Klima- projektion zerlegt werden muss, um ein codiertes Modell seiner Rechen- vorschriften zu erhalten. Die einzelnen Anweisungen müssen in Form einer komplexen Choreographie von Abläufen, Schleifen und Entschei- dungspfaden strukturiert werden. Diese Choreographie zerlegt die Si- 13 Diese Aufteilung darf nicht willkürlich sein, wie bereits Vilhelm Bjerknes 1904 angemahnt hat. „Alles wird darauf ankommen, daß es gelingt, in zweckmäßiger Weise dies als ein ganzes, überwältigend schwieriges Pro- blem in eine Reihe von Partialproblemen zu zerlegen, deren keines un- überwindliche Schwierigkeiten darbietet. […] Vor allem wird dabei [bei der Diskretisierung mithilfe der endlichen Differenzenrechnung] die erste Zerlegung grundlegend sein. Sie muß einer natürlichen Teilungslinie im Hauptproblem folgen. Eine solche natürliche Teilungslinie läßt sich auch angeben. Sie folgt der Grenzlinie zwischen den speziell dynamischen und den speziell physikalischen Prozessen, aus welchen die atmosphärischen Prozesse zusammengesetzt sind. Die Zerlegung längs dieser Grenzlinie gibt eine Zerlegung des Hauptproblems in rein hydrodynamische und rein thermodynamische Partialprobleme“ (Bjerknes 1904: 4). 244 2 DENKEN IN MATHEMATISCHEN MÖGLICHKEITSRÄUMEN multanität der Prozesse, die ein Phänomen wie den Zustand der Atmo- sphäre ausmachen, in nacheinander abarbeitbare Teilprozesse, die Zeit- schritt für Zeitschritt für die Menge aller Berechnungspunkte das Phä- nomen iterativ erzeugen. Erst diese Choreographie ergibt das Programm. Das, was John von Neumann 1947 graphisch mit Flow Charts darstellte, indem er ein Programm als eine Folge von Operationsboxen zeichnete, die linear oder in Schleifen durchlaufen werden, wird in einem Pro- gramm durch explizite Anweisungen vorgegeben. Welche Pfade dabei durchlaufen werden und ob diese der mathematischen wie der beobach- teten und gemessenen empirischen Struktur nahekommen, hängt von der Qualität der Programmierung ab. Die in Abbildung 15 (Dateiendurch- lauf) und Abbildung 16 (Flow Chart der Prozesse der cloud.f90 Datei) dargestellte Zerlegung und Choreographie eines Atmosphärenmodells vermitteln einen Eindruck von der Komplexität des wissenschaftlichen Programmierens. Auf dem Weg zur Simulation beziehungsweise zum Computerexpe- riment ist jedoch noch ein weiterer Schritt von Nöten. Denn erst die nu- merische Explizierung der codierten Rechenvorschriften macht diese überhaupt berechenbar. Jede Konstante und jeder Parameter müssen numerisch expliziert werden, wie das Codebeispiel des Schmelzvorgan- ges in stratiformen Wolken zeigte. Jede Zustandsgröße bedarf für jeden Berechnungspunkt der numerischen Initialisierung, in der Regel auf Ba- sis von Messwerten. Diese numerische Explizierung ist heikel, denn hier kommt der Nicht-Eindeutigkeit der finiten Approximation eine besonde- re Bedeutung zu. Der Vorteil der computerbasierten Simulationsmodelle liegt zwar in ihrer komplexeren Struktur und damit in der Ent- Extremalisierung der mathematischen Modelle. Computerbasierte Mo- delle und deren Simulation erlauben es, mehr Zustandsgrößen und rele- vante Parameter zu berücksichtigen, Abhängigkeiten nicht eliminieren oder linearisieren zu müssen, komplexere geometrische Formen wählen zu können und nicht nur extreme Bedingungen studieren zu müssen. Kurz gesagt: Der Computer ermöglicht es, die Freiheitsgrade eines Sys- tems beliebig zu erweitern. Doch durch diese Komplexität und die un- endlichen Möglichkeiten der Wechselwirkungen in einem System mit vielen Freiheitsgraden wird die numerische Lösung sensitiv abhängig von ihrer numerischen Initialisierung. Geringfügige Änderungen in der Initialisierung können zu vollkommen anderen Resultaten führen und von der eigentlichen Lösung wegführen. Da es keinen Nachweis der Eindeutigkeit der finiten Approximation gibt, kann man nicht beurteilen, ob die Resultate des berechneten Systems dem mathematischen Modell überhaupt entsprechen. Forschungspraktisch wird mit diesem prinzipiel- len Problem wie bereits dargestellt verfahren. „Der Laxsche Äquiva- 245 III PHILOSOPHISCHE VERORTUNG lenzsatz sagt aus, daß der Nachweis der numerischen Stabilität die not- wendige und hinreichende Bedingung für die Konvergenz der Lösung darstellt, wenn die Differenzenapproximation konsistent formuliert ist. Unter einer konsistenten Formulierung versteht man, daß die Differen- zenapproximation wieder in die zu approximierende Differentialglei- chung übergeht, wenn die Abstände der Gitterpunkte gegen Null stre- ben. Eine Differenzenapproximation wird numerisch stabil genannt, wenn bei der Auflösung der resultierenden Differenzengleichungen Ab- bruch-, Rundungs- und Verfahrensfehler nicht beliebig anwachsen“ (Krause 1996: 15). Doch die Tücke steckt im Detail. Denn die Stabilität, welche ein Indiz für die Konsistenz der finiten Approximation ist, lässt sich nur empirisch durch Konvergenztests nachweisen. Da das Lösungs- verhalten der finiten Approximation eines komplexen Systems von den Anfangs- und Randbedingungen abhängig ist, lässt sich dieser Nachweis der Konvergenz nur für das spezifische Setting eines einzelnen Compu- terexperiments führen, nicht generell für das zugrunde liegende Modell der Rechenvorschriften. Daher wird jeder Simulationslauf eines Compu- terexperiments mit einem Testlauf in höherer Auflösung auf seine Stabi- lität hin überprüft. „Anfangsbedingungen gelten jedoch vielfach als kon- tingent, als nicht zum Kern von Modellen, Gesetzen und Theorien gehö- rend. Statische und dynamische Instabilitäten beziehen sich auf An- fangsbedingungen sowie auf die Lösung von Differentialgleichungen, auf Trajektorien“ (Schmidt 2008: 93). Dies bedeutet, dass nicht nur die Diskretisierung ein gutes mathematisches Modell in ein unzulängliches Simulationsmodell verwandeln, sondern auch die Wahl der Anfangs- und Randbedingungen die Ergebnisse unbrauchbar machen kann. Auch wenn es mittlerweile für zahlreiche Probleme mehr oder weniger gute PDE-Löser gibt, für die Wahl der Anfangs- und Randbedingungen sowie für Parametrisierungen gibt es keinerlei Anleitung für eine adäquate Darstellungsweise. Jede kleinste Änderung im experimentellen Setting erfordert eine neue Überprüfung, jedes Ergebnis ist nur in Hinblick auf seine numerische Initialisierung gültig. „Damit ist ein möglicherweise paradox erscheinender Doppelaspekt der Berechenbarkeit gekennzeich- net: Einerseits weist die nach-moderne Physik auf prinzipielle Grenzen der (quantitativen) Berechenbarkeit hin und fördert damit die Erkennt- nisskepsis, andererseits erweitert sie (partiell quantitative und insbeson- dere qualitative) Prognosehorizonte und tritt erkenntnisoptimistisch auf“ (Schmidt 2008: 267).14 14 Allerdings bezieht sich Jan Schmidt hier nicht auf die Konvergenztests, sondern auf nichtlineare Zeitreihenanalysen und Analysen der Attraktor- geometrie zur qualitativen Überprüfung der gewonnenen Resultate (vgl. Schmidt 2008). 246 2 DENKEN IN MATHEMATISCHEN MÖGLICHKEITSRÄUMEN Die Ent-Extremalisierung der mathematischen Modelle, indem durch die Simulation komplexere Systeme modelliert und untersucht werden kön- nen, wird durch einen neuen Typ an Extr malität rkauft.15e e Die extre- men Welten I der mathematischen Modelle werden in abgemilderter Form in extreme Welten II transformiert, wobei diese Transformation zwar nicht beliebig ist, aber eben auch nicht korrespondierend im Sinne einer eindeutigen Abbildung. Der Charakter der extremen Welten II ge- neriert sich aus der iterativen Selbstbezüglichkeit der ausbuchstabierten Operationen in Form maschinentauglicher Anweisungen, deren Neuord- nung basierend auf komplexen Choreographien und aus der numerischen Explizierung jeder einzelnen Konstante wie auch Variable für jeden Be- rechnungspunkt. Auf diese Weise werden die bereits durch die mathe- matischen Modelle abstrahierten Phänomene in mehr oder weniger will- kürliche Prozessabläufe zerlegt und während des Durchlaufs durch die einz 16elnen Prozesse wieder zusammengesetzt. Da es lediglich Erfah- rungswerte gibt, wie eine adäquate Zerlegung eines Problems, wie ein optimales Ablaufschema und wie eine gute numerische Explizierung auszusehen hat, betritt die computerbasierte Wissenschaft hier Neuland. Neben den prinzipiellen Problemen der quantitativen Berechenbarkeit sind es die informatischen Praktiken, die Wissen neu organisieren, in- dem sie mathematisch formuliertes Wissen numerisch zugänglich ma- chen. Hier liegt die Bedeutung des Computers als Instrument der auto- matisierten Extrapolation. Dabei handelt es sich um mehr als nur um einen anderen Umgang mit mathematischen Modellen. Es handelt sich um eine neue mathematische Sprache. „Now mathematics has again been given a powerful new language, the language of algorithms and data structures, and with it a new vision of mathematical reality“ (Greenleaf 1992: 196).17 15 Johannes Lenhard beschreibt die Folgen dieser beiden Formen der Extre- malität für die Wissenschaft als ‚artificiality-for-essence‘ und ‚artificiality- for-performance‘ (vgl. Lenhard 2010). 16 Kehrte sich in der Neuzeit und der Moderne die auf Aristoteles gründende Methode der Auflösung und Zusammensetzung der Phänomene in eine in- duktiv-deduktive Rekonstruktion der Phänomene um und führte zum hypothetisch-deduktiven Forschungsstil, so findet mit den Computerexpe- rimenten und ihren Visualisierungen eine neue Art der Auflösung und Zu- sammensetzung der Phänomene statt. 17 Newcomb Greenleaf bezieht sich in seinem Artikel Algorithmics: A New Paradigm for Mathematics zwar vor allem auf die Bedeutung der algo- rithmischen Sprache für die reine Mathematik, insbesondere bezüglich de- duktiver Beweisverfahren und berechenbarer Funktionen. Doch die Wir- kung dieser neuen Sprache der Mathematik zeigt sich am deutlichsten in der angewandten Mathematik und hier als Basis der Computerexperimente (vgl. Greenleaf 1992). 247 III PHILOSOPHISCHE VERORTUNG Erweiterung der mathematischen Anschauung Folgt man den bisherigen Überlegungen, so ist die Relation zwischen Untersuchungsobjekt, mathematischem Modellm und Lösung (respektive Simulation via computerbasiertem Simulationsmodellc) – wie sie den Überlegungen von Blechmann, Myskis und Panovko (1) sowie den meisten Autoren zum Thema der wissenschaftlichen Simulation zugrun- de liegt (2) – zu einfach gedacht.18 Aus Perspektive des Computers als dem bedingenden Medium betrachtet, stellt sich die Beziehung etwas komplexer dar (3), wie in Abbildung 22 dargestellt. Die Relation für (1) würde im Idealfalle bedeuten, dass das mathematische Modell und das Untersuchungsobjekt strukturell isomorph sind und dass aus dem ma- thematischen Modell eine eindeutige Lösung deduziert werden kann. Dies ist, wenn überhaupt, nur für sehr einfache Systeme der Fall. Da Simulationen in der Regel komplexe Systeme zum Untersuchungsobjekt haben, sieht die Relation für (2) etwas komplizierter aus. Das mathema- tische Modell und das Untersuchungsobjekt können zwar als strukturell isomorph angesehen werden, dies hängt von der jeweiligen wissen- schaftstheoretischen Position ab. Da das mathematische Modell in ein computertaugliches transformiert werden muss, wird hier meist ange- nommen, dass sich beide Modelle im Sinne einer strukturellen Abbil- dung entsprechen. Die Lösung wird als Simulation gewertet, die keine eindeutig deduzierte ist, sondern nur eine, mit Unsicherheitsfaktoren behaftete approximierte. Trägt man aber nun der Medienwende durch den Computer respekti- ve der Algorithmierung Rechnung, so verkompliziert sich die Relation ein weiteres Mal, wie in (3) dargestellt. Selbst wenn man in allen Punk- ten der Position (2) folgt, so ist es doch sinnvoll den Übergang von Mo- dellm zu Mod 19 ellc näher zu untersuchen. Dabei sind vor allem zwei As- pekte interessant: die Art des Übergangs zwischen I und II sowie dessen Erweiterungsfunktion bezüglich der mathematischen Anschauung. 18 Interessanterweise sorgt der erste Übergang vom Untersuchungsobjekt zum Modellm bei Wissenschaftsphilosophen und -theoretikern seit vielen Jahrzehnten für Diskussion, während der zweite Übergang von Modellm zu Modellc als relativ unproblematisch angesehen wird. Es wird hier nicht argumentiert, dass der Übergang von Modellm zu Modellc nicht zur Kenntnis genommen würde. Aber er wird in seiner Auswirkung unter- schätzt. 19 Dieser Übergang von Modellm zu Modellc ist hier als Transformation der extremen Welt I der mathematischen Modelle in die extreme Welt II der codierten Modelle der Rechenvorschriften, die das in-silico Experimental- system konstituieren, bezeichnet. 248 2 DENKEN IN MATHEMATISCHEN MÖGLICHKEITSRÄUMEN (1) Untersuchungsobjekt  Modellm  Lösung (2) Untersuchungsobjekt  Modellm ≈ Modellc  Simulation (3) Untersuchungsobjekt  extreme WeltI II extreme WeltII  Simulation Abbildung 22: Übergang vom mathematischen zum computerbasierten Modell aus unterschiedlichen Blickwinkeln (Gramelsberger 2009) Der Übergang von der extremen Welt I der mathematischen Modelle in die extreme Welt II der codierten Modelle der Rechenvorschriften ist kein Abbildungsverhältnis. Der Übergang initiiert eine semiotische Transformation der mathematisch symbolisierten Operationen in explizi- te und choreographierte Anweisungen. Diese semiotische Transforma- tion lässt sich auch als Wechsel von der intrasymbolischen Denotation in die intrasymbolische Indexikalisierungen verstehen. Intrasymbolische Denotation meint die Denotation von Operationen mittels mathemati- scher Symbole, beispielsweise durch ein Integralzeichen oder ein Diffe- rentialzeichen. Sofern sich das mathematische Zeichen auf eine mathe- matische Operation bezieht und nicht auf einen extrasymbolischen Kon- text, ist die Denotation als eine intrasymbolische zu verstehen, wie sie der Formalisierung und Kalkülisierung von Zeichensystemen ent- spricht.20 Intrasymbolische Indexikalisierung hingegen meint das Anzei- gen einer Operation durch ein Zeichen (Code), die von einer Maschine tatsächlich ausgeführt wird. In dieser doppelten Funktion der Zeichen eines Computerprogramms – als Symbol, wenn der Code gelesen wird, wie auch als Index, wenn der Code ausgeführt wird – liegt die Bedeu- tung der Algorithmen als neue Sprache der Mathematik. Algorithmen sind insofern eine neue Sprache, als sie eine andere Darstellungsweise der mathematischen Operationen und Elemente bedingen, denn die symbolisierten Operationen müssen mit automatischen Rechenmaschi- nen ausführbar sein. Dazu bedarf es der Diskretisierung und der Aus- buchstabierung der Operationen in einzelne, abarbeitbare Anweisungen, der Choreographie der Abarbeitungsabläufe sowie der numerischen Ex- plizierung. Man wird also vergeblich nach Integral- oder Differentialzei- chen im Code Ausschau halten, denn die mathematischen Operations- zeichen müssen in strukturierte Indexzeichen übersetzt werden, die wie- derum den Ablauf der Maschinenanweisungen zur Folge haben. Die Ge- 20 Die verwendeten Zeichen besitzen keine extrasymbolische Bedeutung mehr, denn „die Grundidee der Formalisierung besteht darin, das Manipu- lieren von Symbolreihen von ihrer Interpretation abzutrennen“ (Krämer 1988: 176). 249 III PHILOSOPHISCHE VERORTUNG samtheit dieser Anweisungen und Indexzeichen stellt die Übersetzung des mathematischen Operationszeichens dar. Die Frage, die sich dabei aufdrängt, ist die, ob die symbolisierten Operationen mit ihren Indexikalisierungen, also ihren Handlungsumset- zungen, identisch sind. Ob die Rechenvorschriften, die Mathematiker im Kopf haben und die sie auf Papier anwenden mit den maschinentaugli- chen Rechenvorschriften identisch sind, in anderen Worten: Ob die Übersetzungen geglückt sind. Dies mag für einfache Operationen in be- stimmten Operationsräumen wie die Addition oder die Subtraktion im Operationsraum der ganzen Zahlen zutreffen. Für kompliziertere Opera- tionen und insbesondere für Operationen, die mit Unendlichkeiten han- tieren, sind Symbolisierung und Indexikalisierung nicht mehr identisch – wie die Nichteindeutigkeit der finiten Approximationsverfahren doku- mentiert. Doch ohne eine Identität, die in mathematischen Welten immer nur eine strukturelle sein kann, kann der Übergang vom mathematischen Modell in das Computermodell kein Abbildungsverhältnis sein. Es ist ein mehrdeutiger Übergang, der das mathematische Modell mit seinem codierten Modell der Rechenvorschriften locker koppelt. Diese Art der Kopplung wurde bereits bezüglich des Zusammenhangs zwischen einem in-silico Experimentalsystem (codiertes Modell der Rechenvorschrift) und seinen computerexperimentellen Resultaten als kohäsiv beschrie- ben. Der Begriff der Kohäsion lässt sich auch gut auf die Kopplung zwi- schen mathematischem Modell und dem Modell der Rechenvorschriften (in-silico Experimentalsystem) anwenden. Da Kohäsion hergestellt wer- den muss, im Unterschied zur Kohärenz, die sich zwingend aus dem Verfahren wie der Deduktion ergibt, bedarf es geeigneter Praktiken. In der computerbasierten Mathematik sind dies Konvergenztests zur Prü- fung der Stabilität, die gemäß des Laxschen Äquivalenzsatzes wiederum ein Indiz für die Konsistenz der finiten Approximation ist. Nichtlineare Zeitreihenanalysen oder Analysen der Attraktorgeometrie wären weitere Praktiken zur Herstellung von Kohäsion zwischen mathematischem Modell und Simulationsmodell, die jedoch immer nur anhand der Inter- pretation der berechneten Resultate möglich sind. Die Transformation eines mathematischen Modells in ein codiertes Mo- dell seiner Rechenvorschriften führt zwar einerseits weitere Limitierun- gen ein und transformiert die bereits extremen Welten I in neue extreme Welten II. Diese Limitierungen verstärken dabei den Antagonismus zwi- schen epistemischer Komplexität und den extremen Welten I und II durch die numerische Ersetzung algebraischer Strukturen und deren Be- rechnung. Bereits 1628 wies René Descartes in den Regeln zur Ausrich- 250 2 DENKEN IN MATHEMATISCHEN MÖGLICHKEITSRÄUMEN tung der Erkenntniskraft auf diese Form der Reduktion durch die Arith- metik hin. „Wir dagegen [können] an dieser Stelle sogar von den Zahlen abstrahieren, ebenso wie kurz zuvor von den geometrischen Figuren und von jedem beliebi- gen Gegenstand. Wir tun das einerseits, um zum Überdruß langes und über- flüssiges Rechnen zu vermeiden, andererseits vor allem, damit die Teile des Gegenstandes, die zur Natur der Schwierigkeiten gehören, immer getrennt bleiben und nicht durch unnütze Zahlen verhüllt werden. Wenn z.B. die Basis des rechtwinkligen Dreiecks gesucht wird, dessen Seiten 9 und 12 gegeben sind, wird der Rechner sagen, sie sei gleich √225 oder 15; wir aber werden 9 und 12 durch a und b setzen und die Basis als √a2 + b2 finden. So bleiben die b 2eiden Teile a und b2 getrennt, die in der Zahl miteinander verschmolzen sind“ (Descartes 1628/1972: 75). Und weiter schreibt Descartes: „Dies alles unterscheiden wir, die wir eine evidente und deutliche Erkenntnis suchen, nicht aber die Rechner, die zufrieden sind, wenn ihnen das gesuchte Ergebnis unterläuft, selbst wenn sie nicht sehen, wie es von den Daten abhängt, ob- gleich allein darin die Wissenschaft eigentlich besteht“ (Descartes 1628/1972: 77). Doch andererseits ermöglicht erst diese Transformation in die Compu- ternumerik die Erweiterung der mathematischen Anschauung und kons- tituiert den „third type of empirical extension“ (Humphreys 2004: 5), der zunehmend für die Forschung genutzt wird.21 Auch wenn der Zusam- menhang zwischen Resultat und Datenstruktur beim ersten Blick auf die Simulationsergebnisse verborgen bleibt und in der Datenanalyse rekons- truiert werden muss – was aufgrund der Nichteindeutigkeit der finiten Approximation nicht einfach ist – so eröffnen die Computerexperimente doch neue mathematische Möglichkeitsräume. Diese neuen Möglich- keitsräume erweitern in ihrer visualisierten Sichtbarkeit die mathemati- 21 Diese Transformation wurde bereits vor der Einführung der Computer zu Zwecken der Berechnung per Hand durchgeführt, beispielsweise um me- chanische Quadraturen auszuführen. „Mechanical quadratures, a technique now called ‚numerical integration‘, was an alternative to Newton´s calcu- lus. It solves a differential equation solely by numerical methods, with no reference to the original ellipse or any other curve” (Grier 2005: 121). So genannte ‚computing plans‘ für numerische Integrationen wurden bereits 1757 aufgestellt, um das Erscheinungsdatum des Halleyschen Kometen zu berechnen. David Grier verortet daher den Beginn der Simulation im 18. Jahrhundert und lokalisiert ihn im Aufkommen arbeitsteiliger Berechnun- gen und erster Berechnungspläne (vgl. Grier 2005). Allerdings gewinnen diese Berechnungspläne erst durch die elektronischen Computer an weit- reichender Bedeutung für die Wissenschaft. Die Erstellung von Rechen- vorschriften respektive Berechungsplänen wird erst ab den 1940er Jahren zu einem maßgeblichen Teil der Forschungspraxis. 251 III PHILOSOPHISCHE VERORTUNG sche Anschauung, allerdings weniger aufgrund ihrer Sichtbarkeit als aufgrund dessen, was sie zeigen. Doch was zeigt sich? Die neuen Möglichkeitsräume zeigen, oder besser enthüllen, das, was die Wissenschaft seit der Neuzeit zum Ziel hat: den Blick ins Innere der Phänomene. „Every natural action depends on things infinitely small, or at least too small to strike the sense,“ schrieb Bacon 1620 im New Or- ganon. „No one can hope to govern or change nature until he has duly comprehended and observed them“ (Bacon 1620: II. Buch VI). Dieser Blick ins Innere wurde in der Neuzeit als ‚Blick für Kausales‘ anhand instrumentenbasierter Beobachtung und Messung sowie der Mathemati- sierung von Theorie inauguriert und gestaltete das Sehen und Denken um. Doch diese Neukonfiguration des Blicks und des Denkens, also der zweite Typ der empirischen Extension und die physiko-mathematische Forschungslogik, gingen noch nicht tief genug. Daher monierte Osborn Reynolds 1877 zu recht: „Now the reason why mathematicians have thus been baffled by the internal motions of fluids appear to be very simple. Of the internal motions of water or air we can see nothing. On drawing the disc through the water there is no evidence of the water be- ing in a motion at all, so that those who have tried to explain these re- sults have had no clue; they have had not only to determine the degree and direction of the motion, but also its character“ (Reynolds 1877: 185). Sowohl der experimentelle Blick, wie von Reynolds vorexerziert, als auch der mathematische Blick mussten tiefer vordringen, wollten sie den Blick ins Innere der Phänomene tatsächlich erweitern. Was zunächst im 19. und 20. Jahrhundert experimentell möglich wurde und zur hypo- thetisch-deduktiven Forschungslogik führte, wurde mit dem Aufkom- men der Computer komplettiert. Komplettiert insofern nun auch die Ma- thematik, als Kulturtechnik des Rechnens, der Koordination von Expe- riment, Messung und Theorie in denselben Darstellungsraum folgte. Denn durch die diskrete Metrik des Computers bewegt sich die compu- terbasierte Mathematik ausschließlich in dem durch Koordinaten metri- sierten, rein symbolischen Raum der Mannigfaltigkeiten, dessen Sprache die Algorithmen sind.22 Leitete „das Projekt der neuzeitlichen Wissen- schaft […] seine Macht aus dem spezifisch technologischen Charakter der Darstellungsräume her. Die Kräfte und die Art von Überlegungen, 22 Diese Transformation in einen Raum der Mannigfaltigkeiten leistete be- reits der Funktionsbegriff, der 1694 erstmals bei Leibniz auftaucht und in den folgenden Diskussionen mit Jakob Bernoulli und später durch Leon- hard Euler allmählich Gestalt annimmt (vgl. Leibniz 1694; Euler 1748; Cassirer 1910). Der Computer stellt nun das passende Medium für den automatisierten Umgang mit Mannigfaltigkeiten dar. 252 2 DENKEN IN MATHEMATISCHEN MÖGLICHKEITSRÄUMEN die sie freisetzen, ebenso wie die Regeln, denen sie gehorchen, sind we- niger die von cartesischen Subjekten als vielmehr die von technologisch- epistemischen Texturen“ (Rheinberger 2001: 243, 244). So leitet das Projekt der (post)modernen Wissenschaft seine Macht zwar ebenfalls aus dem spezifisch technologischen Charakter seiner Darstellungsräume her, allerdings hat sich dieser technologische Charakter durch den Com- puter grundlegend verändert. Diese Veränderung betrifft nicht nur die Computerexperimente, sondern ist grundsätzlicher Natur, denn jedes Messinstrument und jeder Detektor im experimentellen Umfeld ist mitt- lerweile mit Computerchips ausgestattet. Dies macht den Blick auf die Simulation aus Perspektive der traditionellen Verfahren – Theorie, Mo- dell, Messung, Beobachtung – unmöglich, da die klassischen Verfahren so nicht mehr existieren, sondern ebenfalls in den veränderten technolo- gischen Charakter der wissenschaftlichen Darstellungsräume eingepasst wurden. Die Computerisierung dieser Darstellungsräume entwickelte sich im Laufe der letzten sechzig Jahre zur grundlegenden Prämisse ak- tueller Forschung, ob in den in-silico Experimentalsystemen, in den glo- bal 23en Messkampagnen oder in den Experimentalsystemen der Labore. Doch die Frage, was sich zeigt, ist noch nicht ganz beantwortet. Die große mathematische Leistung der Neuzeit war die Auflösung der geo- metrischen Anschaulichkeit durch die Arithmetik. „Die anschauliche geometrische Linie löst sich kraft dieses Verfahrens in eine reine Wert- folge von Zahlen auf, die durch eine bestimmte arithmetische Regel mit- einander verknüpft sind“ (Cassirer 1910: 95). Dies bedeutet, wie Ernst Cassirer in Substanzbegriff und Funktionsbegriff schreibt, dass die Raumbegriffe durch Zahlenbegriffe und infolge dessen durch Reihenbe- griffe substituiert werden. „Die Umsetzung der Raumbegriffe in Zahlenbegriffe erhebt daher zugleich das Ganze der geometrischen Forschung auf ein neues gedankliches Niveau. Die substantiellen Formbegriffe der antiken Geometrie, die in starre Absonde- rung einander gegenüberstanden, verwandeln sich kraft dieser Übertragung in reine ‚Reihenbegriffe‘, die nach bestimmten Grundprinzipien auseinander er- zeugbar werden. […] Erst die Umbildung des Gehalts der Geometrie schafft Raum für eine neue Logik der Mannigfaltigkeiten, die über die Grenzen der Syllogistik hinausgreift“ (Cassirer 1910: 93). „Die Auflösung der Raumbegrif- fe in Reihenbegriffe bleibt der leitende Gesichtspunkt; aber das System der Reihenbegriffe muß derart vertieft und verfeinert werden, daß dadurch nicht 23 Die Experimentallabore sind interessante Hybride traditioneller Experi- mentalsysteme kombiniert mit computerbasierten Technologien der Mes- sung und Auswertung. 253 III PHILOSOPHISCHE VERORTUNG nur, wie bisher, ein enger Ausschnitt, sondern das Gesamtgebiet der mögli- chen räumlichen Gestaltungen übersehbar und beherrschbar wird. Diese For- derung ist es, kraft deren die Cartesische Geometrie sich mit innerer Notwen- digkeit zur Infinitesimal-Geometrie erweitert“ (Cassirer 1910: 96). Dieses Gesamtgebiet der möglichen Gestaltungen der Mannigfaltigkei- ten konstituiert den mathematischen Möglichkeitsraum, der sich erst durch die enorme Rechenkraft des Computers entfaltet. Dabei müssen diese Gestaltungen nicht unbedingt anschaulich sein, insbesondere wenn sie höher dimensionale Objekte oder andere, für unsere Anschauungs- gewohnheiten exotische Gebilde sind. Doch im wissenschaftlichen An- wendungskontext geht es um die Erforschung und die Anschaulichkeit dieser Möglichkeitsräume, da in physikalisch fundierten Kontexten die erzeugten Reihenbildungen als Trajektorien Auskunft über die Dynamik der zu untersuchenden Prozesse in Raum und Zeit geben. In dieser Tra- ditionslinie stehend geben Computer Einblick in das Innere der Phäno- mene, indem sie das Innere aus Mannigfaltigkeiten rekonstruieren und es nach außen kehren, es umstülpen. Durch diese von Innen nach Außen gekehrten Ansichten entsteht ein interessanter Verfremdungseffekt, der sich darin zeigt, dass sich gegenwärtig das verändert, was wissenschaft- lich als real gilt. Ebenso wie sich durch die charakteristische, symboli- sche Form der neuzeitlichen Forschung der wissenschaftliche Erfah- rungsbegriff veränderte, wandelt er sich aktuell erneut. 254 3 SIMULATION ALS NEUE SYMBOLISCHE FORM DES FORSCHENS Computer geben Einblicke in das Innere der Phänomene, indem sie das gesamte Gebiet der Mannigfaltigkeiten als mathematischen Möglich- keitsraum eröffnen. Genau hierin liegt der zweite Schritt der wissen- schaftlichen Revolution der Neuzeit begründet (vgl. Glimm 1990), oder präziser ausgedrückt: Der Computer vollendet die wissenschaftliche Re- volution der Neuzeit, indem er die bereits im mathematischen Forma- lismus enthaltenen Möglichkeitsräume numerisch entfalt t.1e Die Quanti- tät der Rechenkraft schlägt hier qualitativ zu Buche. Diese Vollendung kann mit Martin Heidegger gesprochen auch als Wesenserfüllung der Neuzeit gesehen werden, deren Grundvorgang „die Eroberung der Welt als Bild ist. Das Wort Bild bedeutet jetzt: das Gebilde des vorstellenden Herstellens. [… Dabei] setzt der Mensch die uneingeschränkte Gewalt der Berechnung, der Planung und der Züchtung aller Dinge ins Spiel. Die Wissenschaft als Forschung ist eine unentbehrliche Form dieses Si- cheinrichtens in der Welt, eine der Bahnen, auf denen die Neuzeit mit einer den Beteiligten unbekannten Geschwindigkeit ihrer Wesenserfül- 1 Diese Extensivierung der numerischen Berechnung wird jedoch auch kriti- siert als „the old vocabulary of sequential equations and numbers“ (Bailey 1996: 4). James Bailey argumentiert, dass „symbolic numbers, equations, and the formulation of universal laws are what people and thought are good at. Electronic circuits are good at different things […, e.g.] at letting higher level behavior emerge from the interplay of millions of tiny opera- tions, all interacting with each other in parallel, handing on each its own little bit of understanding. […] As a result, a whole new set of parallel in- termaths is coming to the fore to challenge the sequential maths of the In- dustrial Age, which had only humans to carry them out” (Bailey 1996: 4). 255 III PHILOSOPHISCHE VERORTUNG lung zurast“ (Heidegger 1938/1977: 94). Das Bild zeigt sich in den Vi- sualisierungen der computerexperimentellen Resultate. Doch es ist kein Bild der Welt, sondern ein Bild der ‚Gebilde des vorstellenden Herstel- lens‘, konkret: der codierten Modelle der Rechenvorschriften mathema- tischer Gebilde. Das vorstellende Herstellen der Moderne ist dabei nir- gends deutlicher realisiert als in den Algorithmen – dem perfekten Me- dium dieses vorstellenden Herstellens – insofern als Algorithmen Vor- stellungen zugleich symbolisch repräsentieren als auch deren Herstel- lung indizieren. Dieses vorstellende Herstellen charakterisiert die sym- bolische Form der Simulation als neues Erkenntnisinstrument. Die Neu- heit ergibt sich aus den Möglichkeiten des Herstellens (numerische Rea- lisierung) und dessen Vorrang im Unterschied zum bloßen Vorstellen (Formalismus) der Neuzeit – zumindest mathematisch (nicht technisch) gesehen. Vorstellen ist dabei durchaus in der Doppeldeutigkeit der Interpretation Heideggers gemeint als anschauliches Vorstellen, bei- spielsweise durch ein mathematisches Modell, aber auch als Vor-die- Welt-Stellen im Sinne der deduktiv-induktiven und hypothetisch- deduktiven Forschungsstile. Das Vor-die-Welt-Stellen verstellt dabei nicht nur, kritisch gesprochen, den direkten Blick auf diese, sondern er- weitert, positiv gewendet, die Wahrnehmung von Welt. Die Fragen, die aus diesem neuen Sicheinrichten in der Welt folgen, lau- ten: Wie verändert sich wissenschaftliche Erfahrung und das, was als wissenschaftlich real gilt? Und, falls eine solche Veränderung sich aktu- ell vollzieht, welchen Einfluss hat dies auf unsere Lebenswelt? Denn, wie sich bereits bei der wissenschaftlichen Revolution der Neuzeit zeig- te: „In the seventeenth century old practices changed and new ones ap- peared. Those changing practises represent shifts in the meaning of ex- perience itself – shifts in what people saw when they looked at the events in the natural world“ (Dear 1995: 13). Diese Veränderung des wissenschaftlichen Blicks hatte Folgen über die Wissenschaft hinaus, denn die „Realität, die die Physik beschreibt, [ist] zur Realität der tech- nologischen Gesellschaft geworden. Das physikalische Weltbild ist das Weltbild dieser Gesellschaft. Kein Wunder also, dass die physikalische Erkenntnis zum Ideal von Erkenntnis überhaupt werden konnte, denn diese Art der instrumentellen Beobachtung von Realität fügt sich pass- genau in ein Selbstbild der Gesellschaft, das wesentlich durch eben diese Beobachtungsweise erst entstanden ist“ (Frederichs 1999: 21). Welchen neuen Erfahrungsbegriff der Wissenschaft und welches Selbstbild der Gesellschaft sich aus der Vollendung der wissenschaftli- chen Revolution durch den Computer ableiten werden, gilt es zu unter- suchen. Dazu wird es notwendig sein, näher auf den Computer als Me- 256 3 SIMULATION ALS NEUE SYMBOLISCHE FORM DES FORSCHENS dium sowie auf die (maschinentauglichen) Algorithmen als neue ma- thematische Sprache und den dadurch initiierten Medien- und Sprach- wandel in der Wissenschaft einzugehen. Da sich mit dem Medien- und Sprachwandel ein Wandel der symbolischen Form wissenschaftlicher Forschung abzeichnet, liegt es nahe hier den epistemischen Kern des Wandels der Wissenschaft im Zeitalter des Computers zu vermuten. Symbolische Formen des Forschens In seiner dreibändigen Philosophie der Symbolischen Formen untersuch- te Ernst Cassirer 1923 bis 1929 unterschiedliche Erfassungsmöglichkei- ten der Welt wie den Mythos, die Sprache und die Wissenschaft (vgl. Cassirer 1923/1988, 1924/1987, 1929/1990). Er rekonstruierte die be- reits ausführlich dargestellte Entwicklung der Wissenschaft anhand ihrer Symbolisierungsleistung. Sein Symbolbegriff greift den von Heinrich Hertz auf, der 1894 in seinen Principien der Mechanik schrieb: „Wir machen uns innere Scheinbilder oder Symbole der äußeren Gegenstän- de, und zwar machen wir sie von solcher Art, daß die denknotwendigen Folgen der Bilder stets wieder die Bilder seien von den naturnotwendi- gen Folgen der abgebildeten Gegenstände“ (Hertz 1894: 1).2 Cassirer ist jedoch nicht wie Hertz der Meinung, dass es zwischen Natur und Geist eine Übereinstimmung geben muss und daher die Bilder Abbilder natur- notwendiger Folgen sind. Vielmehr zeigt sich für Cassirer die Abge- schlossenheit der symbolischen Formen gerade an den Scheinbildern der Physik. „Die Begriffe, mit denen er [Hertz] operiert, die Begriffe des Raumes und der Zeit, der Masse und der Kraft, des materiellen Punktes und der Energie, des Atoms oder des Äthers sind freie ‚Scheinbilder‘, die die Erkenntnis entwirft, um die Welt der sinnlichen Erfahrung zu beherrschen und als gesetzlich-geordnete Welt zu übersehen, denen aber in den sinnlichen Daten selbst unmittelbar nichts entspricht“ (Cassirer 1923/1988: 17). Die Fortschritte in der Naturwissenschaft zeigen sich in der „zunehmenden Verfeinerung ihres Zeichensystems […]. Die scharfe Erfassung der Grundbegriffe der Galileischen Mechanik gelang erst, als durch den Algorithmus der Differentialrechnung gleichsam der allge- meine logische Ort dieser Begriffe bestimmt und ein allgemeingültiges mathematisches Zeichen für sie geschaffen war“ (Cassirer 1923/1988: 2 Hertz schreibt weiter: „Damit diese Forderung überhaupt erfüllbar sei, müssen gewisse Übereinstimmungen vorhanden sein zwischen der Natur und unserem Geist“ (Hertz 1894: 1). Ob man diesem Korrespondenzge- danken zwischen Geist und Natur zustimmt, hängt von der jeweiligen wis- senschaftstheoretischen Perspektive ab. 257 III PHILOSOPHISCHE VERORTUNG 17). Dies ist möglich, weil das „Zeichen keine bloß zufällige Hülle des Gedanken, sondern sein notwendiges und wesentliches Organ“ ist (Cas- sirer 1923/1988: 18). Die begriffliche Bestimmung besteht in der Fixie- rung in Zeichen und dies gilt für jegliche Art geistigen Schaffens, nicht nur für die Wissenschaft. Dabei sind diese Zeichen nicht als Abbilder zu verstehen, sondern sie bergen eine eigentümliche Doppelnatur in sich, „ihre Gebundenheit ans Sinnliche, die doch zugleich eine Freiheit vom Sinnlichen in sich schließt“ (Cassirer 1923/1988: 42). Diese Doppelna- tur macht es möglich mit den Symbolen Prägungen zu erzeugen, welche die unterschiedlichen Wirklichkeitsformen wie Mythos, Wissenschaft und Religion überhaupt erst möglich machen. „Der Mythos und die Kunst, die Sprache und die Wissenschaft sind in diesem Sinne Prägun- gen zum Sein: sie sind nicht einfach Abbilder einer vorhandenen Wirk- lichkeit, sondern sie stellen die großen Richtlinien der geistigen Bewe- gung, des ideellen Prozesses dar, in dem sich für uns das Wirkliche als Eines und Vieles konstituiert“ (Cassirer 1923/1988: 43). Solange der Blick nur auf die Wirklichkeit gerichtet ist, schreibt Cas- sirer im dritten Band seiner Philosophie der Symbolischen Formen, ergibt sich ein Verhältnis unproblematischer Gewissheit zwischen Individuum und Welt. Tritt jedoch die Wahrheit in Form von Erkenntnis – als sich einen Begriff von der Welt machen – auf den Plan, so verändert sich das Verhältnis in ein prinzipiell anderes. „Alle bisherigen sichersten und zu- verlässigsten Zeugen der ‚Wirklichkeit‘, die ‚Empfindung‘, die ‚Vorstel- lung‘, die ‚Anschauung‘ werden jetzt vor ein neues Forum gefordert und vor ihm verhört. Dieses Forum des ‚Begriffs‘ und des ‚reinen Denkens‘ wird nicht erst in dem Moment aufgerichtet, indem die eigentlich- philosophische Besinnung einsetzt; es gehört schon den Anfängen jeder wissenschaftlichen Weltbetrachtung an. Denn schon hier begnügt sich der Gedanke nicht damit, das in der Wahrnehmung oder Anschauung Gege- bene einfach in seine Sprache zu übersetzen, sondern er vollzieht an ihm eine charakteristische Formveränderung, eine Umprägung“ (Cassirer 1929/1990: 330). Diese Umprägungen zeigen sich am Zweck der wissen- schaftlichen Begriffe, Regeln der Bestimmung aufzustellen, die sich am Anschaulichen zu bewähren haben. Diese Regeln werden als „eine uni- verselle Denkleistung erfaßt und als solche durchschaut. Und diese Schau ist es, die nunmehr eine neue Form des Durchblicks, der geistigen ‚Per- spektive‘ erschafft“ (Cassirer 1929/1990: 331). Hier kommt der Zahl als Denktypus die entscheidende Rolle zu, in- sofern sie dasjenige Zeichensystem zur Verfügung stellt, das Form- und Strukturbestimmungen par excellence ermöglicht. Daher fällt die Ma- thematik und mit ihr die Wissenschaft immer wieder auf die Zahl zu- rück. Doch dieser Rückbezug auf die Zahl durchläuft verschiedene Sta- 258 3 SIMULATION ALS NEUE SYMBOLISCHE FORM DES FORSCHENS dien der Abstraktion bzw. im Sinne Cassirers verschiedene symbolische Formen, beginnend bei der symbolischen Form des Ausdrucks im My- thos.3 Sowohl der Mythos, als auch die griechische Mathematik haben die Zahl zum Grundmotiv ihrer Weltbetrachtung auserkoren, allerdings in jeweils unterschiedlicher Weise. Der Mythos nimmt die Zahl als We- s 4enheit, die Mathematik fasst sie als Begriff. Solange die Zahl in der griechischen Mathematik jedoch an räumliche Gegebenheiten gebunden war, blieb sie Anzahl einer konkreten Menge, und mit ihr blieb die For- schung auf die sinnlich-gegebene Welt bezogen. Erst als „die rein logi- sche Natur der Zahl erkannt wird, kommt es zur Grundlegung einer rei- nen Wissenschaft der Zahl [… und die Zahl] hört auf ein physisch- Dingartiges zu sein oder nach der Analogie irgendwelcher empirischer Objekte bestimmbar zu sein“ (Cassirer 1929/1990: 331). Als solcherma- ßen logische Entität schafft die Zahl eine Distanz zwischen sich und der Wirklichkeit, welche die streng theoretischen Begriffe überhaupt erst ermöglicht und durch reine Denkarbeit Einsichten in die Wirklichkeit schafft, je mehr sie von dieser absieht. Durch diese erschaffende oder prägende Kraft der Zahl und der theoretischen Begriffe vollzieht sich ein Bruch mit der unmittelbaren Anschaulichkeit. Die Erkenntnis löst sich „aus der Verflechtung mit der konkreten und individuell-bestimmten ‚Wirklichkeit‘ der Dinge heraus, um sie sich rein als solche in der All- gemeinheit ihrer ‚Form‘, in der Weise ihres Beziehungs-Charakters zu vergegenwärtigen. Es genügt ihr nicht mehr, das Sein selber in den ver- schiedenen Richtungen des beziehentlichen Denkens zu durchmessen, sondern sie fordert und sie erschafft sich für diesen Prozeß auch ein uni- verselles Maßsystem. Dieses System ist es, das im Fortgang des theore- 3 Cassirer unterscheidet im Wesentlichen drei symbolische Formen: Die Sphäre des Ausdrucks, die der sinnlich-gegebenen Wirklichkeit in direk- ten Ausdrucksbestimmungen Existenz zugesteht (Mythos). Die Sphäre der Darstellung, die in Form der Sprache zwar mimischen Ausdruckswert be- sitzt, aber durch zunehmende Loslösung von der sinnlich-gegebenen Wirklichkeit über Analogien zur Darstellungsform (Aussagesätze) und schließlich rein auf sich selbst bezogen zur symbolischen Sphäre der Be- deutung gelangt (Mathematik, Logik). Die Sphäre der Bedeutung konstitu- iert sich aus diesem rein symbolischen Gebrauch der Sprache als Zeichen- system, in welchem die Sprache zu sich selbst gelangt. Sie ist losgelöst von jeglicher sinnlich-gegebenen Wirklichkeit, aber bezogen auf diese. Diese neue Form der Bezogenheit zeigt sich in den wissenschaftlichen Begriffen und deren Durchblick auf die sinnlich-gegebene Wirklichkeit als neue geistige Perspektive. 4 In der Philosophie der Pythagoreer lassen sich beide Versionen, die mythi- sche und die mathematische Auffassung der Zahl, noch finden. Die Zahl ist aber auch der Ursprung der Schrift (vgl. Koch 1997). Die Differenzie- rung zwischen Sprache und Schrift erfolgt in Cassirers Philosophie nur implizit, wenn er vom rein symbolischen Gebrauch der Sprache spricht. 259 III PHILOSOPHISCHE VERORTUNG tischen Denkens immer fester gegründet und immer umfassender gestal- tet wird“ (Cassirer 1929/1990: 332, 333). Dabei wird die Ordnung nicht mehr durch die Gegenstände der Welt vorgegeben, sondern durch die selbständige Tätigkeit des Denkens hergestellt. Dies ist jedoch nur möglich, indem sich ein Reich der Symbole in voller Freiheit herausbildet, das Schemata entwirft, an welchen die wis- senschaftliche Wirklichkeit ausgerichtet wird, indem die Wortzeichen der natürlichen Sprache zu Begriffszeichen der theoretischen Wissen- schaft w rd n.5e e Dabei verändert sich die logische Dimension der Zei- chen, die alles anschaulich-Repräsentative ablegen und zu reinen Bedeu- tungszeichen werden und als solche nur auf sich selbst bezogen sind. Jegliche mimische oder analogische Formung wird gegenstandslos und es bleibt die rein symbolische Formung übrig, in der die Sprache zu sich selbst kommt und in Folge auch die Wissenschaft. „Damit stellt sich eine neue Weise des ‚objektiven‘ Sinnbezugs dar, die sich von jener Art der ‚Beziehung auf den Gegenstand‘, wie sie in der Wahrnehmung oder der empirischen Anschauung besteht, spezifisch unterscheidet“ (Cassirer 1929/1990: 334). 6 Die Frage, was die Begriffszeichen der Wissenschaft, losgelöst vom anschaulich-Repräsentativen bedeuten, beantwortet Cassi- rer mit deren Form- und Strukturbestimmungen, die Ordnungen des Möglichen bezeichnen, nicht des gegebenen Wirklichen. Mathematik und Wissenschaft versinken dadurch jedoch nicht in einen bloßen For- malismus, sondern nehmen in anderer Form Bezug auf Wirklichkeit. Denn die Form- und Strukturbestimmungen zielen nicht auf die Dinge, sondern auf das Gefüge der Dinge ab. In dieser Art der Bestimmung tritt die Aktivität der Zeichen, die sie von Beginn an auch in vorwissen- schaftlichen Kontexten haben, in ihrer vollen Kraft hervor. Denn der Begriff, realisiert als Zeichen, ist nicht ein „gebahnter Weg […], in dem das Denken fortschreitet, als […] vielmehr eine Methode, ein Verfahren der Bahnung selbst […]. In dieser Bahnung kann das Denken völlig selbständig verfahren: es bindet sich nicht an feste Zielpunkte, die im 5 „Auch diese Schemata können freilich nicht im leeren Raume des bloßen, des schlechthin ‚abstrakten‘ Denkens stehen bleiben. Sie bedürfen des Haltes und einer Stütze – aber sie entnehmen dieselbe nicht mehr einfach der empirischen Dingwelt, sondern sie schaffen sie sich selbst“ (Cassirer 1929/1990: 333). 6 Die logische Dimension des Zeichens in diesem Sinne gedacht versteht unter Begriff „mit Kant nichts anderes als die ‚Einheit der Regel‘, durch die eine Mannigfaltigkeit von Inhalten zusammengehalten und in sich selbst verknüpft wird“ (Cassirer 1929/1990: 334, 235). Allerdings erfasst der Begriff die Mannigfaltigkeiten nicht im Sinne eines Klassenbegriffes, wie er in der mengentheoretischen Konzeption der Logik angelegt war, sondern eines Funktionsbegriffes. 260 3 SIMULATION ALS NEUE SYMBOLISCHE FORM DES FORSCHENS Gegebenen schon fertig vorliegen, sondern es stellt neue Ziele auf, und fragt, ob ein Weg und welcher Weg zu ihnen hinführt“ (Cassirer 1929/ 1990: 356). Ebenso wie die „Sprache fortschreitet, als sie gleichsam ‚zu sich selbst kommt‘ […–] aus der Phase des ‚mimischen‘ und des ‚analogischen‘ Ausdrucks schreitet die Sprache zur rein symbolischen Formung fort [– wiederholt die Wissenschaft] den gleichen Weg. Auch sie gewinnt die ‚Nähe‘ zur Natur nur dadurch, daß sie auf sie verzichten lernt – daß sie sich das Gegebene in eine ideelle Ferne rückt“ (Cassirer 1929/1990: 483).7 Dieser rein symbolische Gebrauch der Zeichen ermöglicht es, in die Mathematik und auch in die Wissenschaft imaginäre Entitäten einzu- führen, über deren Existenz und Realität seit langem diskutiert wird. Die Bedingung der tatsächlichen Konstruierbarkeit der griechischen Geome- trie, die Orientierung der aristotelischen Wissenschaft am Sinnlich- Gegebenen oder die Unterordnung der rationalen Naturerkenntnis bei René Descartes unter den Raum – und später bei Immanuel Kant unter die reinen Anschauungsformen von Zeit und Raum – dienen der Verhin- derung des Imaginären und der Rückbindung an die Wirklichkeit als gegenständlichen Anw 8endungskontext. Doch nicht alle folgen dieser Selbstbeschränkung. So löst Leibniz etwa die strenge Orientierung Des- cartes an der Raumform der res extensa als bedingender Form der Er- kenntnis auf, indem er jede mögliche logische Form zulässt und somit zu imaginären Entitäten respektive zum ‚nouveau calcul des transcen- dantes‘ gelangt. Die Diskussion darüber, ob diese Entitäten existieren, erübrigt sich jedoch, wenn Existenz nicht substanzlogisch und in diesem Sinne anschaulich auf das Sinnlich-Gegebene hin, sondern der mathe- matischen Form der Objektivierung entsprechend funktionslogisch ver- standen wird. Der Verlust des Anschaulichen ist, so Cassirer, für den Fortgang der mathematischen wie physikalischen Begriffsbildung not- wendig, denn eine „Trennung in eigentliche und uneigentliche, in angeb- lich ‚reale‘ und angeblich ‚fiktive‘ Elemente [… würde] die methodi- sche Einheit der Mathematik zerstören“ (Cassirer 1929/1990: 468). Ge- rade durch das Imaginäre, oder die ‚idealen Elemente‘, wie Cassirer sie 7 Dieser Durchgang durch die symbolischen Formen im Laufe der Wissen- schaftsentwicklung ist im Kontext der Simulation entscheidend, denn da- durch wird der Simulation respektive ihrer Resultate jegliche mimische Funktion der Wirklichkeit auf Basis eines naiven Bildvergleichs abgespro- chen. 8 Insofern gibt Kant in der Kritik der reinen Vernunft weniger eine Philoso- phie der Mathematik, als eine Philosophie der Anwendbarkeit der Mathe- matik. 261 III PHILOSOPHISCHE VERORTUNG nennt, wird jedoch die Vereinheitlichung der Mathematik gewährleistet. Denn diese schreitet in ihrer Entwicklung insofern voran, als sie sich „dazu entschließt, einen reichen Begriff von Beziehungen, die es zuvor einzeln betrachtet und untersucht hatte, in einen geistigen Brennpunkt zu versammeln und mit einem Symbol zu bezeichnen“ (Cassirer 1929/ 1990: 468). Bei diesem Fortgang der Erkenntnis dringt die Mathematik notwendigerweise in Bereiche des Imaginären vor, seien es irrationale Zahlen wie π oder ε, imaginäre Größen, nicht-Euklidische Geometrien oder das Infinitesimale. Die Entwicklung des Differentialkalküls ist für Cassirer bislang die reifeste Frucht dieses fortschreitenden Prozesses der mathematischen Erkenntnis in idealiter. „Er [Differentialkalkül] hatte sich bereits auf den verschiedenen Gebieten – in der Begründung der Dynamik durch Galilei, in der Lehre von den Maxima und Minima bei Fermat, in der Theorie der unendlichen Reihen, in dem sog. ‚um- gekehrten Tangentenproblem‘ usf. – betätigt, ehe er allgemein erkannt und allgemein fixiert war. Newtons Zeichen ẋ und Leibniz’ Zeichen: dy/dx leis- ten zunächst nichts anderes, als daß sie diese Fixierung vollziehen: sie be- zeichnen einen gemeinsamen Richtpunkt für Untersuchungen, die zuvor auf getrennten Wegen verliefen. In dem Augenblick, als dieser Richtpunkt einmal bestimmt und in einem Symbol festgehalten war, erfolgte gleichsam eine Kris- tallisation der Probleme: von allen Seiten her schießen sie jetzt zu einer lo- gisch-mathematischen Form zusammen. Abermals erweist das Symbol hier jene Kraft […] die Kraft der Verdichtung. Es ist, als würde durch die Schöp- fung des neuen Symbols eine gewaltige Energie des Denkens aus einer relativ diffusen Form in eine konzentrierte Form übergeführt. […] Sie brauchte nur das, was in den neu geschaffenen Symbolen aufgewiesen und implizit gesetzt war, zur vollständigen expliziten Erkenntnis zu erheben“ (Cassirer 1929/1990: 468, 469). Diese Verdichtung kraft der Symbole ist eine Form der Aktivität der Zeichen im Sinne eines ‚Verfahrens der Bahnung selbst‘. Die Verdich- tung und Bahnung verläuft im rein symbolischen Umgang mit der Spra- che anders als im mimischen oder analogischen. Die Bahnung erschließt neue Weisen der rein symbolischen Konstruktion wie das Differential- kalkül in seiner weiteren Ausgestaltung als Analysis des Infinitesimalen. Diese konstruktive Kraft der rein symbolisch verwendeten Zeichensys- teme prädestiniert diese als symbolische Maschinen, nicht nur in der Mathematik, sondern auch in der wissenschaftlichen, insbesondere in der physikalischen Begriffsbildung. Als solche vereinheitlichen sie die verschiedenen Erkenntnisformen der Wissenschaft, sofern „‚Induktion‘ und ‚Deduktion‘, ‚Erfahrung‘ und ‚Denken‘, ‚Experiment‘ und ‚Rech- nung‘ [… sich] in der Umsetzung des Gegebenen in die Form einer rei- 262 3 SIMULATION ALS NEUE SYMBOLISCHE FORM DES FORSCHENS nen Zahl-Mannigfaltigkeit begegnen und zusammenschließen“ (Cassirer 1929/1990: 503). Dabei nutzt die Physik respektive die Wissenschaft kein ungeordnetes System von Mannigfaltigkeiten, sondern ein geordne- tes, dessen Ordnungsverhältnis sich aus dem Reihenprinzip generiert. Durch Relationen wie Beieinander, Zueinander, Aufeinanderfolgend, etc. sind verschiedene Mannigfaltigkeits-Typen generierbar. Auch hier spielt die Zahl eine herausragende Rolle, insofern sie Reihenbildungen par excellence ermöglicht, so wie im Induktionsprinzip der natürlichen Zahlen. Sofern die einzelnen, empirisch beobachteten oder gemessenen Reihenwerte durch Grenzwerte und -ideen ersetzt werden, nach welchen die empirischen Reihen konvergieren, vermag es die Wissenschaft, die theoretischen Begriffe und ihre operativen Maschinen auf die Wirklich- keit zu übertragen. Die Grenzidee des materiellen Punktes in der Me- chanik oder des Kontinuums der reellen Zahlen sind ebenso Beispiele hierfür wie der starre Körper, das ideale Gas oder der vollkommene Kreisprozess (vgl. Cassirer 1929/1990: 502ff). In diesen Grenzideen und -werten liegt die bereits thematisierte Extremalisierung der mathemati- schen Modelle wissenschaftlicher Kontexte begründet. Sie sind notwen- dig, so Cassirer, um die Beobachtungen überhaupt in „mögliche Subjek- te für physikalische Urteile“ zu überführen (Cassirer 1929/1990: 502). Von der Schr i f t zum Computer Cassirer unterscheidet nicht explizit zwischen gesprochener Sprache und Schrift. Wenn man jedoch den rein symbolischen Sprachgebrauch be- trachtet, handelt es sich immer um die formale Manipulation von schriftbasierten Zeichen und Zeichenketten. Wenn Cassirer daher David Hilberts Ausspruch, ‚Am Anfang war das Zeichen‘, öfter zitiert, so weist er genau auf diesen rein formalistischen Sprachumgang basierend auf Schrift hin. Insofern sieht er auch das Leibnizsche Programm der Ars characteristica als rein schriftzeichenbasiertes Unterfangen bei Hilbert fortgeführt. Ein solcher formalistischer Zeichenumgang kehrt den Bezug zur Wirklichkeit von einer darstellenden in eine erzeugende Funktion um. Nicht der Beschreibung, sondern dem Verfahren wird dabei das Primat eingeräumt. „Das Gesetz umfasst nicht nur eine Unendlichkeit möglicher Anwendungsfälle, sondern es läßt sie aus sich hervorgehen. Mit dieser Einsicht aber kehrt die moderne Mathematik, auf durchaus eigenen und neuen Wegen, im Grunde wieder zu dem Punkt zurück, von dem Leibniz als Methodiker des mathematischen Denkens seinen Aus- gang genommen hatte. […] In diesem Sinne betont auch Weyl, daß man, um zu einer wahrhaft sicheren und tragfähigen Grundlage der Analysis 263 III PHILOSOPHISCHE VERORTUNG zu gelangen, von dem reinen Verfahren der ‚Iteration‘ seinen Ausgang nehmen müsse“ (Cassirer 1929/1990: 431, 432). Damit gewinnt, episte- mologisch gesehen, der Funktionsbegriff gegenüber dem Substanzbe- griff den Vorrang und die Mathematik gründet sich ein weiteres Mal in der Zahl, genauer gesagt: in deren Erzeugungsverfahren. Die Iteration als Prozess des ins Unendliche möglichen Fortgangs einer Reihe be- stimmt den logischen Aufbau der Mathematik. Und dieser Aufbau wird sich vor allem im Computer als Medium und in der neuen Sprache der (maschinentauglichen) Algorithmen bewähren. Cassirers Philosophie gibt den Stand der Mathematik und der Wissen- schaft bis in die 1920er Jahre wieder. Sein Interesse an der Iteration wie am Funktionsbegriff ist kein operatives, auf die tatsächliche Ausführung hin ausgerichtetes, sondern – entsprechend den Möglichkeiten des be- ginnenden 20. Jahrhunderts – ein logisches, das nach den Formalismen der Verfahren fragt. Noch bewegen sich Mathematik und Wissenschaft mit ihren Symbolmanipulationen auf der Oberfläche des Papiers und damit im Rahmen der analytischen Handhabung der Formalismen. Da- bei nutzen sie die Verdichtung als maßgebliche Kraft der Symbole. Ein auf sich selbst bezogener Symbolumgang entfaltet jedoch eine neue Kraft: Operativität. Für diese operative Kraft der Symbole bedarf es jedoch eines anderen Mediums als des Papiers. Vielmehr wird ein dynamisches und offenes Medium benötigt. Während die Verdichtung die Begrenzung der Fläche nutzt, um anstelle der „Sukzession der Denk- schritte […] eine reine Simultanität des Überblicks“ zu geben, wie durch „die Fortbildung der Technik und Methodik des mathematischen Bewei- ses durch Leibniz“ (Cassirer 1929/1990: 453), so genügt dies nicht für die Operativität.9 Das Blatt Papier als Ort der Simultanität des Über- blicks und der Beweis respektive die Deduktion als das primäre Opera- tionsverfahren im Sinne der Verdichtung auf der Oberfläche dieses stati- 9 „Es läßt sich auch rein geschichtlich verfolgen, wie Descartes’ Skepsis gegen die Sicherheit des deduktiven Verfahrens die eigentlich bewegende und treibende Kraft für Leibniz’ ‚Beweistheorie‘ geworden ist. Soll der mathematische Beweis wahrhaft stringent sein, soll ihm wirkliche Über- zeugungskraft innewohnen, so muß er aus der Sphäre der bloßen Erinne- rungs-Gewißheit gelöst und über sie hinausgehoben werden. […] Nur das symbolische Denken vermag diese Leistung zu vollbringen. Denn die Na- tur desselben besteht eben darin, daß es nicht mit den Denkinhalten selber operiert, sondern jedem Denkinhalt ein bestimmtes Zeichen zuordnet, und daß kraft dieser Zuordnung eine Verdichtung erreicht wird, durch welche es möglich wird, alle Glieder einer komplexen Beweiskette in eine einzige Formel zu konzentrieren, und sie mit einem Blick, als eine gegliederte Ge- samtheit, zu umfassen“ (Cassirer 1929/1990: 453, 454) 264 3 SIMULATION ALS NEUE SYMBOLISCHE FORM DES FORSCHENS schen Mediums wird durch die Operativität gesprengt. Operativität, die in der Regel an das rekursive Erzeugungsverfahren der Zahl gekoppelt ist, überwindet die limitierende und statische Fläche des Papiers in mehrfacher Weise: In Form des numerischen Ausrechnens fällt die Ope- rativität in zwei Teile, zum einen in die Erstellung eines Schemas (Be- rechnungsplan) und zum anderen in die Ausführung dieses Schemas (Berechnung).10 Darüber hinaus beschränkt sie sich – im Unterschied zur rein symbolischen Umformung der Deduktion – nicht auf das Papier, sondern bricht immer wieder aus, sofern prozessuale Instrumente wie Zirkel, Rechenschieber oder mechanische Rechenmaschinen zum Ein- satz kommen. In diesem Sinne bringt die Operativität eine anders gela- gerte Kraft der symbolischen Form als die Verdichtung hervor. Sie buchstabiert so zusagen die verdichteten Formalismen aus und entfaltet diese in nahezu unendlich viele Einzelzeichen. Der ungemein denköko- nomische Ansatz der Verdichtung wird konterkariert und pures Berech- nen respektive Simulieren gilt manchen Mathematikern daher als intel- lektuell anspruchslos (vgl. Ulam 1980). Doch was bedeutet es, Verdichtung in Operativität zu transformieren und die Formalismen auszubuchstabieren? Die Operativität nimmt hier einen anderen Weg als die Verdichtung. Nicht die Deduktion oder der Beweis stellen den Kern des operativen Verfahrens dar, sondern die pro- zessuale Planung und Berechnung. Durch diesen Vorgang enthüllt die operative Kraft der Symbole die instrumentale oder technische Seite der Sprache, die nicht nur ein Darstellungsmittel des Denkens im Begriff, sondern des Erfassens im Sinne eines Wirkens ist. In diesem Wirken betätigt sich die Sprache produktiv. Daher spricht Sybille Krämer von den operativen Verfahren der formalen Zeichensysteme als ‚symboli- sche Maschinen‘ und Cassirer vom ‚Werkzeug des Geistes‘ (vgl. Krä- mer 1988, 1990; Cassirer 1930/2004), ohne jedoch die Entfaltung der operativen Kraft dieser Maschinen oder Werkzeuge in ihrer technischen Dimension zu untersuchen. Die Logik des Instrumentalen liegt nicht in der Verdichtung und Komprimierung, sondern – wenn man Heidegger folgen will – im Her-vor-bringen aus der Verborgenheit im Sinne eines Entbergens. Dieses Entbergen ist jedoch im Falle der symbolischen Ma- schinen nicht auf eine sinnlich-gegebene Wirklichkeit bezogen wie im Falle der materialen Technik, sondern auf den verdichteten Formalis- mus. „Das Entscheidende der τέχνη [techné] liegt somit keineswegs im Handeln und Hantieren, nicht im Verwenden von Mitteln, sondern in 10 Hier ist natürlich nicht von einfachen mathematischen Operationen wie der Addition, sondern von der Lösung komplexer Funktionen die Rede. 265 III PHILOSOPHISCHE VERORTUNG dem genannten Entbergen. Als dieses, nicht aber als Verfertigen, ist die τέχνη ein Her-vor-bringen“ (Heidegger 1949/1962: 13). Heidegger nimmt in seinem Artikel Die Frage nach der Technik vor allem auf energiefördernde Technologien als Formen moderner Technik Bezug und differenziert daher die Entbergung weiter als Herausforderung durch das Auf- und Erschließen der verschiedenen Energien, durch Umfor- mung, Speicherung, Verteilung und Umschaltung (vgl. Heidegger 1949/1962).11 Die Technik steht hier keineswegs im Kontrast zur Na- turwissenschaft, insbesondere der Physik. Denn nach Heidegger zeigt sich diese Art des technischen Entbergens bereits in der neuzeitlichen, exakten Naturwissenschaft, in ihrer Art des Vorstellens der Natur „als einen berechenbaren Kräftezusammenhang“ (Heidegger 1949/1962: 21). „Die neuzeitliche Physik ist nicht deshalb Experimentalphysik, weil sie Appa- raturen zur Befragung der Natur ansetzt, sondern umgekehrt: weil die Physik, und zwar schon als reine Theorie, die Natur daraufhin stellt, sich als einen vorausberechenbaren Zusammenhang von Kräften darzustellen, deshalb wird das Experiment bestellt, nämlich zur Befragung, ob sich die so gestellte Natur und wie sie sich meldet“ (Heidegger 1949/1962: 21). Die Physik ist die Weg- bereiterin des Wesens der Technik. „Darum kann die Physik bei allem Rück- zug aus dem bis vor kurzem allein maßgebenden, nur den Gegenständen zu- gewandten Vorstellen auf eines niemals verzichten: daß sich die Natur in ir- gendeiner rechnerisch feststellbaren Weise meldet und als ein System von In- formationen bestellbar bleibt“ (Heidegger 1949/1962: 22). Ähnlich Cassirer sieht Heidegger das Umkehrverhältnis von Wissen- schaft und Wirklichkeit in der Berechnung beziehungsweise in der spe- zifischen symbolischen Form der Wissenschaft begründet. Interessant ist nun an Cassirers Charakterisierung des Symbolischen und an Heideg- gers Charakterisierung des Technischen, insbesondere der energieför- dernden Techniken, dass hier etwas konvergiert, das in der Erfindung des Computers seinen Ausdruck findet. Durch das Zusammentreffen von Symbol und Energie wird nicht nur ein neues Medium geschaffen, son- dern eine neue symbolische Form der Forschung. Um die operative Kraft des rein symbolischen Sprachgebrauchs tatsächlich zur Wirkung zu bringen, bedarf es eines Aktes der Entbergung besonderer Art. Dieser Akt des Entbergens besteht in der technischen Erschließung des Instru- mentalen der Sprache durch die Umsetzung ihrer operativen Kraft in die 11 „Dies geschieht dadurch, daß die in der Natur verborgene Energie aufge- schlossen, das Erschlossene umgeformt, das Umgeformte gespeichert, das Gespeicherte wieder verteilt und das Verteilte erneut umgeschaltet wird. Erschließen, umformen, speichern, verteilen, umschalten sind Weisen des Entbergens“ (Heidegger 1949/1962: 16). 266 3 SIMULATION ALS NEUE SYMBOLISCHE FORM DES FORSCHENS tatsächliche Operativität des Prozesses. Indem die Fluidität der Energie derart erschlossen, umgeformt, gespeichert, verteilt und umgeschaltet wird, dass dadurch die Sukzession der Reihung in der Zeit implemen- tierbar wird, lässt sich die Operativität der symbolischen Maschinen technisch realisieren. Daher ist der Computer eine Maschine, die nicht den Raum, sondern die Zeit technisch bestellt und erst dadurch das Ins- trumentale der Sprache als Wirkung, also technisch, erschließen kann. Dies hat grundlegende Folgen für den Umgang mit Mathematik. Solan- ge Mathematik im Raum, sprich auf dem Papier operiert, ist das „ma- thematische ‚Tun‘[…] ein rein intellektuelles Tun, das nicht in der Zeit verläuft, sondern das ein Grundmoment, auf dem die Zeit selbst beruht, das Moment der ‚Reihung‘, erst selbst ermöglicht“ (Cassirer 1929/1990: 433). Doch während das mathematische Tun auf dem Papier die Rei- hung nicht in ein empirisches Nacheinander zerlegt, sondern gerade mit dem Grundmoment der Zeit symbolisch hantiert, zerlegt der Computer – durch das Ausbuchstabieren dieses Prinzips in der Zeit als eine tatsäch- lich hergestellte Sukzession – die Reihung. Da die Reihung die Grund- operation ist, auf der das Reich der Zahlen basiert, kann ein Computer nur ein Rechner sein. Er bedarf insofern einer rechnenden Version der Logik, wie sie in der Booleschen Algebra gegeben ist, um die Zeit zu bestellen. Mit dieser Art der Bestellung des Zeitlichen verschmelzen im Computer die symbolischen Maschinen mit der energieverarbeitenden Maschine und bilden das gesuchte Medium zur Entfaltung der operati- ven Kraft des rein symbolischen Sprachgebrauchs in seiner technischen Dimension. Die Werkzeuge des Geistes werden zu tatsächlich realisier- ten Werkzeugen. Entlang dieser Verschmelzungslinie vollzieht sich der bereits ange- sprochene Perspektivwechsel, der ein neues mathematisches Tun ver- langt, wie es sich in den maschinentauglichen Algorithmen als neue Sprache, in den codierten Modellen der Rechenvorschrift und schließ- lich in der Simulation zeigt. Daher stellt der Computer nicht nur eine notwendige Bedingung der Simulation respektive der Computerexperi- mente dar, sondern ein neues Prinzip, das zwar als Berechnung per Hand auf der Oberfläche des Papiers ‚simuliert‘ werden kann, das aber erst im Computer zur Realisierung kommt. Denn die tatsächlich hergestellte Sukzession der Reihung darf man sich nicht wie das Aufschreiben von Zahlenreihen auf dem Papier vorstellen. Auf der Fläche des Papiers ist das Aufschreiben nur als ein nacheinander Hinschreiben der einzelnen Werte einer Reihe denkbar. Im Computer verläuft die Sukzession hin- gegen als Überschreibung ganz im Sinne des Operationsverfahrens der Iteration respektive Rekursion. Der aus dem vorherigen Wert errechnete 267 III PHILOSOPHISCHE VERORTUNG Wert überschreibt diesen und dient zur Berechnung des nächsten Wertes usf. bis der Prozess an das Ende kommt oder angehalten werden muss. In dieser Form der Überschreibung entfaltet die Sukzession in der Zeit die Entwicklung eines Zahlenwertes aus sich selbst gemäß der Anwei- sung des Formalismus.12 Exper imental is ierung der Mathematik Die Frage, die sich aus diesem Medienwechsel – der auch ein Wechsel vom Raum in die Zeit ist – ergibt, lautet: Welche Folgen hat dies für die Mathematik? Dass sich das mathematische Tun verändert, wurde bereits angedeutet. Es geht über das rein intellektuelle Tun hinaus und eröffnet einen neuen Handlungsraum. Dieser neue Handlungsraum konstituiert sich aus der technischen Erschließung der Operativität des Symboli- schen und zeigt sich im Entbergen der in den verdichteten Formalismen enthaltenen Reihungen (Trajektorien). In genau diesem Sinne ermöglicht der Computer den dritten Typus der empirischen Extension, der auf die sinnliche, unvermittelte Wahrnehmung und ihre technische Erschließung durch Beobachtungs- und Messinstrumente folgt. Allerdings erschließt dieser dritte Typus nicht die sinnliche Wahrnehmung, sondern die ma- thematische Anschauung. Bereits Edmund Husserl nannte die automati- sierte Extrapolation eine „völlig neuartige induktive Voraussicht“ (Hus- serl 1935/1996: 33). Die Frage, welche Folgen dies für die Mathematik hat, lässt sich daher in die Frage umformen: Welches mathematische Tun entspricht dem Forschen basierend auf dem dritten Typus der empi- rischen Extension, also im Möglichkeitsraum des Computers? Die Ant- wort ergibt sich aus den Folgen der technischen Erschließung. Diese geht nämlich mit zwei neuen Eigenschaften einher: der Sichtbarma- chung und der Experimentalisierung. Machte die technische Erschlie- ßung der Wahrnehmung, basierend auf instrumentenvermittelnder Ein- sicht, das bislang Nichtwahrnehmbare sichtbar und damit den neuen Wahrnehmungsbereich experimentell zugänglich, so ermöglicht der drit- te Typus der empirischen Extension den Einblick in das bislang mathe- matisch Unanschauliche und macht es dadurch experimentell zugäng- lich. Aufgrund der besonderen symbolischen Prägung der mathemati- 12 Dieser Unterschied zwischen dem Aufschreiben auf Papier, also im Räum- lichen, und dem Überschreiben im Computer, also im Zeitlichen, markiert den entscheidenden Unterschied zwischen beiden Medien. Da der Compu- ter ein fluides Medium ist, entspricht das permanente Überschreiben seiner fluiden Logik mehr, als das statische Speichern eines Zustandes (vgl. Gramelsberger 2001). 268 3 SIMULATION ALS NEUE SYMBOLISCHE FORM DES FORSCHENS schen Anschauung und der spezifischen Kraft der Operativität des Sym- bolischen geht die Experimentalisierung, basierend auf Operativität, der Sichtbarmachung voraus. Die primäre Folge der Technisierung der ope- rativen Kraft der mathematischen Symbolsysteme ist daher die Experi- mentalisierung der Mathematik selbst.13 Die Mathematik wird dabei aus dem strengen Regelkanon der reinen Mathematik herausgelöst und den Bedingungen dieses dritten Typus der empirischen Extension unterwor- fen, der dem Prinzip der Stetigkeit folgt. In diesem Sinne könnte man sogar weiter folgern, dass die Mathematik durch den Computer zu einer empirischen Wissenschaft wird, deren maßgebliche Untersuchungsme- thode das Experimentelle ist. Allerdings darf der Begriff des Empiri- schen hier nicht mimisch oder anschaulich auf das Sinnlich-Gegebene gerichtet verstanden werden, sondern funktionslogisch im Sinne der Umkehrung des Blicks als neuer geistiger Perspektive auf das Sinnlich- Gegebene, wie von Cassirer für die symbolische Form der Wissenschaft rekonstruiert; als Durchblick ins Innere der symbolisch rekonstruierten Phänomene. In dem Moment, in dem das Experimentelle zur dominanten Form des mathematischen Tuns avanciert, konstituiert der Computer als Compu- terlabor – analog dem Experimentallabor – den Ort, um das symbolische Instrumentarium und damit die Objekte der Mathematik zum experimen- tellen Untersuchungsgegenstand zu machen. Er tut dies, indem er die Objekte der Mathematik in der Zeit zur Wirkung bringt. Das Computer- labor unterscheidet sich vom klassischen Experimentallabor vor allem in einem Punkt: die Gegenstände, mit welchen hantiert wird, sind nicht materialer, sondern rein symbolischer Natur. Im Computerlabor werden die technologisch-epistemischen Texturen der Wissenschaft selbst zum Gegenstand der Forschung, sofern diese mathematisch formulierbar sind.14 Aber ebenso wie im Experimentallabor geht es um die Entde- 13 Zwar zeigt sich dieser experimentelle Charakter bereits vor der Einfüh- rung der Computer in der numerischen Erforschung der symbolischen Ma- schinen auf dem Papier. Doch wird hier das Experimentelle nur simuliert, insofern das nötige Experimentallabor (Computer als Zeitmedium) und mit ihm die entsprechenden Experimentalsysteme (Modelle der Rechen- vorschriften) und Experimente (Computerexperimente) noch fehlen. Erst in der Verschmelzung von Symbol und Energie ist die Voraussetzung für die Experimentalisierung der Mathematik geschaffen. 14 Nicht alles lässt sich mathematisch darstellen, da es entweder an einem geeigneten mathematischen Instrumentarium fehlt oder sich die Theorie grundsätzlich der Mathematisierung entzieht. Beispielsweise basierte der Erfolg der Quantenmechanik auf der Entwicklung eines geeigneten ma- thematischen Instrumentariums und neuer mathematischer Objekte, wäh- rend sich die Sozialökonomie einer durchgängigen Mathematisierung ent- 269 III PHILOSOPHISCHE VERORTUNG ckung von Neuem. Doch was ist das Neue der experimentellen Entde- ckung und welche Art des Forschens steht dahinter? „Ein Kennzeichen von Laboratorien ist,“ schreibt Karin Knorr Cetina in ihrer Studie über die Fabrikation von Erkenntnis, „daß sie eine Rekonfiguration des Systems der ‚Selbst-Anderen Dinge‘ implizieren, eine Rekonfiguration des ‚Phänomenfeldes‘, in dem Erfahrung in der Wissenschaft erzielt wird. Die beiden genannten Begriffe sind von Merleau-Ponty entlehnt, der mit dem Sys- tem der ‚Moi-Autrui-les choses‘ nicht die objektive Welt unabhängig von menschlichen Akteuren und auch nicht die innere Welt subjektiver Eindrücke meint, sondern die Welt-bezogen-auf-Akteure. Die Laborstudien legen nahe, daß das Labor ein Mittel ist, um die Welt-bezogen-auf-Akteure so zu verän- dern, daß die Symmetrie zwischen Wissenschaftlern und Objektwelt zuguns- ten der ersteren verändert wird“ (Knorr Cetina 2001: XIV).15 Diese Rekonfigurationen des Phänomenfeldes führen in mühevoller For- schungsarbeit zu Entdeckungen. Allerdings ist hier der Begriff des Ent- deckens konstruktiv zu verstehen. „‚Gab es denn“, lässt Bruno Latour in seiner Studie über Pasteur und seine Milchsäurefermente fragen, „nicht schon Fermente, bevor Pasteur sie gestaltete?‘. […] Und die Antwort kann nur lauten: ‚Nein, sie existierten nicht, bevor er daherkam‘“ (La- tour 2002: 175). Man könnte behaupten, Fermente hätten schon immer existiert, bevor sie von „Pasteur mit seinem durchdringenden Blick ‚ent- deckt‘“ wurden (Latour 2002: 175). Doch Experimentieren bedeutet, Verschiebungen in einem permanenten Prozess des Differenzierens, des (Re-)Arrangierens, des Konkretisierens flüchtiger Spuren zu erzeugen. Im Laufe eines solchen Prozesses konfigurieren sich die Wissensbestän- de des Forschers und die Gestaltung der Experimentalsysteme laufend neu und bewegen sich schließlich auf die Entdeckung hin, die am Ende und nicht am Beginn der Forschung steht. In diesem Sinne meint Entde- cken das sich Herausschälen einer neuen Entität durch das Wechselspiel von Vagheiten und Stabilisierungen, von epistemischen und technischen Dingen. Daher braucht Experimentieren Geschick und Meisterschaft. Geschick im Sinne von erfolgreich auf den Weg bringen, wie Heidegger zieht: „Ein so verstandenes [mathematisiertes] Forschungsprogramm läuft zwangsläufig darauf hinaus, alles nicht-mathematisierbare Verhalten aus dem Untersuchungshorizont auszuschließen. Was mathematisch nicht aus- zudrücken ist, wird a priori als Verhaltensanomalie im Sinne von nicht- rational postuliert“ (Rolle 2005: 144, 145) 15 Karin Knorr Cetina bezieht sich hier auf Maurice Merleau-Pontys 1945 erschienenes Werk Phénoménologie de la perception (vgl. Merleau-Ponty 1945). 270 3 SIMULATION ALS NEUE SYMBOLISCHE FORM DES FORSCHENS es auch für das Instrumentelle als Entbergen und Bestellen darlegt 16e. Denn experimentelle Forschung ist ein komplexes, epistemisches Unter- fangen, das sich seinen Weg in „verwickelten Gebieten [suchen muss], wo es darauf ankommt, erst sehen und fragen zu lernen“ (Fleck 1935/1994: 111).17 Aus dieser Perspektive entpuppt sich Forschung als kreativer Prozess, dessen Wissenschaftlichkeit durch das Diktum „größ- ter Denkzwang bei kleinster Denkwillkürlichkeit“ (Fleck 1935/1994: 124) garantiert wird, dessen Natur aber mehr im Handwerk des For- schens, als in der Abbildung von Welt zu suchen ist. Der Grund dafür liegt auf der Hand: Wirklichkeit eins zu eins abzubilden würde wenig Erkenntnisgewinn bringen. Es sind die Hinzufügungen und Weglassun- gen, die Perspektivität, die Art der Übersetzungen und Transformatio- nen, die Wissen aus der Differenzialität zur Wirklichkeit erzeugen. For- scher setzen dazu die Kulturtechniken der Schrift, des Bildes und der Apparate in einem bestimmten Modus der Re-Kontextualisierung ein. Sie nutzen diese als Werkzeuge zum Operieren mit vorläufigen Gegen- ständen (epistemischen Objekten), die es im weiteren Fortgang der For- schung zu stabilisieren gilt. Dieser Forschungsprozess kann sich über viele Jahre hinziehen, bis es zu einer Entdeckung kommt. Er kann aber auch scheitern. Im Computerlabor treffen nun der operative Modus der Re-Kontextuali- sierungen der experimentellen Forschung und die technische Erschlie- ßung der Operativität des Symbolischen der Mathematik aufeinander. Allerdings unterliegt das Handwerk der Fabrikation von Wirklichkeit im klassischen Experimentallabor Bedingungen, die nur in modifizierter Weise auf das Computerlabor übertragen werden können: Forschung im 16 „Das Wesen der modernen Technik bringt den Menschen auf den Weg jenes Entbergens, wodurch das Wirkliche überall, mehr oder weniger ver- nehmlich, zum Bestand wird. Auf einen Weg bringen – dies heißt in unse- rer Sprache: schicken. Wir nennen jenes versammelnde Schicken, das den Menschen erst auf einen Weg des Entbergens bringt, das Geschick“ (Hei- degger 1949/1962: 24). Forschung als experimentelle Forschung wie auch Computerexperimente sind unter der Perspektive des Technischen und des Geschicks im herkömmlichen wie in Heideggers Wortsinn zu betrachten. Daher ist auch Mary Morgans bereits angesprochene Definition der Simu- lation als Technologie sehr zutreffend (vgl. Morgan 2004). 17 „Es besteht ein sehr verbreiteter Mythus über Beobachtung und Experi- ment. Das erkennende Subjekt figuriert als eine Art Eroberer vom Typus Julius Cäsars, der nach der Formel veni-vidi-vici seine Schlacht gewinnt. Man will etwas wissen, man macht die Beobachtung oder das Experiment – und schon weiß man es. Selbst Forscher, die manche Kämpfe gewannen, glauben dieses naive Märchen, wenn sie retrospektiv ihre eigene Arbeit betrachten“ (Fleck 1935/1994: 111). 271 III PHILOSOPHISCHE VERORTUNG Experimentallabor ist dem Zwang der Wirklichkeit untergeordnet, des- sen Berücksichtigung ein maßgeblicher Teil der Forschung ist. Daher gehören materiale Widerständigkeit und experimentelles Scheitern prin- zipiell zur experimentellen Wissenskultur. Dieses Forschungshandeln in der Wirklichkeit erhebt den Anspruch, Fakten von Fiktionen unterschei- den zu können. Andererseits sorgt es dafür, dass Forschung im Experi- mentallabor in theoretisch unterdeterminierten Räumen stattfindet und macht die experimentelle Forschung zu einem mühsamen und langwie- rigen Geschäft. Forschungshandeln im Computerlabor hingegen unter- liegt anderen Bedingungen. Der für die Forschung entscheidende Evi- denzanspruch des materialen Zwangs löst sich auf, wenn Wissenschaft- ler mit rein symbolischen Objekten respektive technologisch- epistemischen Texturen hantieren. Dies eröffnet für die Wissenschaft das problematische Terrain zwischen Fakt und Fiktion. Der symbolische Charakter der experimentellen Forschung kann nicht wie im klassischen Experimentallabor auf materiale Widerständigkeit und materiale Wie- derholbarkeit als Korrektiv hoffen. Hier liegt die Crux der Computerex- perimente: Sie agieren zwar in einem theoretisch überdeterminierten Experimentalraum, dieser bietet jedoch keinerlei Korrektiv in seiner ex- perimentellen Anordnung, weder als materiales Korrektiv, noch als logi- sches basierend auf der Kohärenz des deduktiven Verfahr ns.18e Doch ähnlich wie mit dem Laxschen Äquivalenzsatz behilft sich hier die com- puterexperimentelle Forschung praktisch, indem sie den theoretisch überdeterminierten Experimentalraum nicht als Theorieraum, sondern als einen Möglichkeitsraum betrachtet und ihn als solchen zum Gegen- stand der experimentellen Forschung macht. Denn analog zum Wirk- lichkeitsraum des Experimentallabors ist im Möglichkeitsraum bereits alles Entdeckbare enthalten. Das Entdeckbare muss im Laufe der expe- rimentellen Forschung herausgeschält und stabilisiert werden im Sinne des Entbergens als Her-vor-bringen. Durch diesen Wechsel vom Theo- rie- zum Möglichkeitsraum wird computerexperimentelle Forschung überhaupt erst zur Forschung, denn ein wesentliches Kriterium von For- schung ist die Herstellung von Zukunft, wie dies bislang den Experi- mentallaboren vorbehalten war. „Forschung […] produziert Zukunft: Differenz ist für sie konstitutiv. Technische Konstruktionen sind im Prinzip darauf angelegt, Gegenwart zu sichern. Für sie ist Identität in der Ausführung konstitutiv, sonst könnten sie ihren Zweck nicht erfüllen. Wenn der Impuls der Wissenschaft sich zur Technologie verfestigt, ge- 18 Auch das logische Korrektiv der Analytik fehlt, da die strukturelle Iso- morphie zwischen mathematischem Modell und dem Modell seiner Re- chenvorschrift nicht eindeutig beweisbar ist und die Simulationen hoch- gradig sensitiv gegenüber ihren numerischen Explizierungen sind. 272 3 SIMULATION ALS NEUE SYMBOLISCHE FORM DES FORSCHENS hen wir ‚von der Zukunft zur erstreckten Gegenwart‘ über. Technische Gegenstände haben mindestens die Zwecke zu erfüllen, für die sie ge- baut worden sind; sie sind in erster Linie Maschinen, die Antwort geben sollen. Ein epistemisches Objekt hingegen ist in erster Linie eine Ma- schine, die Fragen aufwirft“ (Rheinberger 2002: 29). Insofern vollzieht sich auch im Computerlabor der permanente Wechsel von einer Antwort- zu einer Fragemaschine, von einem techni- schen zu einem epistemischen Forschungshandeln (vgl. Rheinberger 2002; Merz 2002). Dieser Wechsel zeigt sich im kontinuierlichen Wech- selspiel zwischen Programmierung und Simulation im Laufe des Fort- gangs der computerexperimentellen Forschung, wie am Beispiel der Vulkanparametrisierung dargestellt. Dieser Wechsel von einer Antwort- zu einer Fragemaschine gibt auch eine Antwort auf die Frage nach dem ambivalenten Status von Simulationen. Denn sofern der Experimental- raum nicht als Theorieraum, sondern als ein Möglichkeitsraum gehand- habt wird, stehen der experimentelle Charakter und die epistemischen Interessen in Form von Fragen im Vordergrund. Insofern der Möglich- keitsraum als Theorieraum gehandhabt wird – beispielsweise wenn ana- log zur hypothetisch-deduktiven Forschungslogik die Simulation als Antwortmaschine im Sinne von Prognosen zur Prüfung an Messdaten verwendet wird – stehen der theoretische Charakter und die technischen Interessen als Produzieren von Antworten im Vordergrund. In-silico Ex- perimentalsysteme und Computerexperimente erlauben also beides, und sie erlauben es gleichzeitig. Je nachdem, ob der Fokus eher auf das Theoretische oder dass Experi- mentelle gerichtet ist, generiert computerexperimentelle Forschung Er- kenntnisse mit unterschiedlichen Evidenzansprüchen. Dies bedeutet, dass es mindestens zwei Arten von Korrektiven für Simulationsresultate geben muss. Das erste Korrektiv ergibt sich aus dem klassischen Über- prüfungskriterium für Theorien im Sinne Karl Poppers, falls sich aus der Simulation eine Prognose ableiten lässt, die dann anhand von Messdaten bestätigt oder widerlegt werden kann. Diese Art von Korrektiv kann sich immer nur auf Einzelaussagen beziehen und wird zur Evaluation eines spezifischen in-silico Experimentalsystems verwendet. Beispielsweise wenn ein Klimamodell mit Messdaten aus vorindustrieller Zeit gestartet wird und es gelingt, den aktuellen Zustand des Klimas wiederzugeben bzw. signifikante Messungen darzustellen. Doch diese Art der überprüf- baren Prognose sichert nur den Evidenzanspruch des jeweiligen Compu- terexperiments als Artikulation eines spezifischen Theoriebaukastens unter den gewählten Bedingungen. Indem die Anfangsbedingungen leicht variiert werden (Ensemble-Prognosen) beziehungsweise mehrere 273 III PHILOSOPHISCHE VERORTUNG Experimentalsysteme unter standardisierten Bedingungen miteinander verglichen werden (Modellvergleich), versucht man die Prognosegüte einzelner Experimente auf das gesamte Experimentalsystem zu übertra- gen, um hinreichend gute Antwortmaschinen für Zukunftsprojektionen zu erhalten. Diese Übertragung ist, wie bereits diskutiert, nur bedingt möglich und nur unter Wahrscheinlichkeitsannahmen, welche die klassi- sch 19en Fehlerbalken ersetzen. Die zweite Art sind computerexperimentelle Korrektive. Der Kon- vergenztest als mathematisches Korrektiv ist hier ebenso zu verbuchen wie das informatische Korrektiv, das ein in-silico Experimentalsystem zuverlässig laufen muss und nicht abstürzen darf.20 Der maßgebliche Erkenntnisgewinn besteht jedoch nicht darin, dass ein in-silico Experi- mentalsystem ein beliebig bestückter Theoriebaukasten ist, sondern dass es eine bestimmte Kombination von Theorieteilen darstellt. Diese Theo- rieteile, die zuvor in der Forschung für sich alleine standen, kommen erstmalig im in-silico Experimentalsystem zusammen. Im permanenten Wechselspiel zwischen Programmierung und Simulation wird das Zu- sammenspiel der Theorieteile hergestellt und hierin liegt der maßgebli- che Erkenntnisfaktor der Computerexperimente begründet. Dabei wech- selt computerbasierte Forschung zwischen Frage- und Antwortmaschine, zwischen epistemischen und prognostischen Korrektiven hin und h r.21e Dieses Wechselspiel programmiert das Experimentalsystem permanent neu, erprobt es und konfiguriert das Phänomenfeld, analog zum Experi- mentallabor, kontinuierlich um. Allerdings verändert sich im Computer- labor dabei nicht die Objektwelt-, sondern die Theoriewelt-bezogen-auf- Akteure zugunsten der Akteure. Durch diese Umkonfigurationen erneu- ern sich die computablen Wissensbestände der Forscher, weil die Erpro- bung von Kombinationen von bisher singulären Theorieteilen neue In- stanziierung der Theorie darstellen und daher neue Einsichten generie- ren. Dabei schälen sich auch die Objekte heraus, die Zukunft in Form 19 Diese Projektionsmöglichkeit in die Zukunft ist neu. Im Unterschied zu Laborexperimenten, die Zukunft in Form neuer Entitäten herstellen kön- nen, ist dieser Blick in die Zukunft der computerexperimentellen For- schung vorbehalten. 20 „Irgendetwas in der Konvektion streikt und es ist ein richtiger Modell- crash. Das Modell steigt richtig aus“ (Interview 25, 2008). 21 Als epistemisches Korrektiv sind Einsichten zu bewerten, die den Erfah- rungen der Forscher widersprechen, beispielsweise während der Vulkan- parametrisierung: „Man kann viel direkter sehen, was passiert. Mit diesem Boxmodell haben wir dann auch erkannt, dass etwas nicht richtig funktio- nierte, dass ein physikalischer Prozess überhaupt nicht angesprochen wur- de, weil wir außerhalb des Gültigkeitsbereiches waren“ (Interview 25, 2008). Als prognostisches Korrektiv wäre die Evaluierung anhand des Pi- natubo-Ausbruchs von 2001 zu werten. 274 3 SIMULATION ALS NEUE SYMBOLISCHE FORM DES FORSCHENS neuer Entitäten herstellen und das Arbeiten mit Computerexperimenten zur Forschung werden lassen. Doch was sind das für Objekte? Es sind sicherlich keine materialen Entitäten wie Fermente (vgl. Latour 2002), aber es sind symbolische Entitäten, die Herstellungsanleitungen für neue Objekte im Wirklich- keitsraum der Labore sind. Computerexperimente basieren auf der tech- nischen Erschließung der symbolischen Operativität. Sie nutzen diese technisch für automatisierte Extrapolationen von Prognosen. Sie nutzen diese aber auch epistemisch, indem mit ihnen der aktuale Möglichkeits- raum erforscht wird. Dabei bahnt sich eine neue Art von Forschung ihren Weg, ausgehend von den überdeterminierten Theorieräumen, über den Computer, in den Wirklichkeitsraum der Labore. Dieser Transfer kann nur deshalb gelingen, da auch der Wirklichkeitsraum der Labore nur noch wenig mit der alltäglichen Lebenswelt zu tun hat, sondern selbst ein hochgradig technisch erschloss 22enes Terrain ist. In diesem Transfer zeigt sich für die Computerexperimente vor allem die zweite Eigenschaft der technischen Erschließung der mathematischen An- schauung, die der Experimentalisierung nachgelagert ist: die Sichtbar- machung des bislang mathematisch Unanschaulichen. Sichtbarmachung in erster Linie verstanden als Handhabbarmachung. Diese neue Art von Forschung reicht dabei über das Computer- und das Experimentallabor hinaus und erzeugt Sinnverschiebungen in unserem alltäglichen Ver- ständnis von Lebenswelt. Sinnverschiebungen Sinnverschiebungen ergeben sich, so Edmund Husserl in seinem Krisis Vortrag von 1935, aus den Entwicklungen der Mathematik. Durch die Etablierung der mathematisierten Wissenschaften werden diese Sinnver- schiebungen als universaler Kausalstil in unser Verständnis der Lebens- w 23elt als Apriori einprogrammiert. Beispielsweise als Idee der Objekti- 22 Aus dieser technischen Erschlossenheit des Wirklichkeitsraumes im Expe- rimentallabor als Labor-Realitäten resultiert nicht nur die Differenz zum lebensweltlichen Wirklichkeitsraum. Diese Erschlossenheit macht For- schung und Entdeckungen im Sinne von Entbergen als Her-vor-bringen erst möglich. Die Bedingungen, welchen die Labor-Realitäten unterliegen, sind als apriorisch technische den Bedingungen im Computerlabor ähn- lich. Daher ist der Transfer zwischen beiden möglich. 23 Das Eindringen dieses Kausalstils ist der co-evolutionäre Prozess von Wissenschaft und Gesellschaft, den Günther Frederichs als das „physikali- sche Weltbild [… das zum] Weltbild dieser Gesellschaft“ geworden ist, beschreibt (Frederichs 1999: 21). 275 III PHILOSOPHISCHE VERORTUNG vierbarkeit und Exaktheit von Welt durch die mathematische Idealisie- rung der Körperwelt, die „ex datis“, so Husserl, konstruierbar ist, als die Möglichkeit der indirekten Mathematisierbarkeit der Fülle sinnlich wahrnehmbarer Entitäten, oder als die ideale Praxis der „Limes- Gestalten“, die nicht nur die Idee der Unendlichkeit sowie der Approxi- mation in die Wissenschaften einführt, sondern auch den unendlichen Progress des Forschens motiviert. Was dieser universale Kausalstil prak- tisch leistet, ist nicht weniger als „eine ins Unendliche erweiterte Vo- raussicht“ (Husserl 1935/1996: 54), die durch Berechnung möglich wird: „Vermöge der reinen Mathematik und praktischen Meßkunst kann man für alles dergleichen Extensionale an der Körperwelt eine völlig neuartige induktive Voraussicht schaffen, nämlich man kann von jeweils gegebenen und gemessenen Gestaltvorkommnissen aus unbekannte und direkter Messung nie zugängliche [Gestaltvorkommnisse] in zwingender Notwendigkeit berechnen“ (Husserl 1935/1996: 33). Diese ‚neuartige induktive Voraussicht‘ konstituiert den dritten Typus der empirischen Extension und generiert damit die Voraussetzung für einen neuen Typus von Forschung. Die Simulation als Limes-Gestalt und angewandte Vo- raussicht par excellence ermöglicht es den Naturwissenschaften, rationa- le Extrapolationen zu erstellen. Extrapolationen, nicht nur in Form von Zukunftsprojektionen wie für das Wetter oder Klima von morgen, son- dern auch als Herstellungsanleitungen zur Optimierung, Veränderung und Herstellung neuer, da möglicher Objekte, beispielsweise in Form genetischer Koordinaten zukünftiger Lebewesen oder atomarer Vor- Schriften für zu kreierende Moleküle und Materialien. Wie ist das mög- lich? Der Computer transformiert nicht nur das mathematische Tun in ein ex- perimentelles Tun in der Zeit, sondern er verändert auch den experimen- tellen Modus wissenschaftlicher Re-Kontextualisierungen. Erst letzteres schafft die Voraussetzung für den neuen Typ von Forschung, der Com- puter- und Experimentallabor miteinander verschränkt. Denn wenn im Computerlabor mit rein symbolischen Objekten respektive technolo- gisch-epistemischen Texturen hantiert wird, bedeutet dies, dass nicht nur mit Theorie im Sinne symbolischer Maschinen, sondern mit bestimmten Resultaten des Forschens im Experimentallabor experimentiert wird: nicht mit den materialen Objekten, aber mit den Deskriptionen, die im Laufe der Experimentalforschung herausgearbeitet wurden. Denn For- schung im Experimentallabor erzeugt beides: das materiale Objekt wie auch seine Beschreibung. Diese Beschreibung kann als Theorie aufbe- reitet sein, sie birgt aber zugleich eine Beschreibung des Herstellungs- verfahrens in sich. Denn das noch vorläufige Objekt als epistemisches 276 3 SIMULATION ALS NEUE SYMBOLISCHE FORM DES FORSCHENS Objekt ist nichts weiter als „‚eine Liste seiner Aktivitäten und Eigen- schaften‘“, die „‚den Gegenstand jedes Mal umdefiniert, wenn man die- se Liste um einen Eintrag erweitert; man gibt ihm [dem epistemischen Objekt] jedes Mal eine neue Gestalt.‘ […] Um in einem solchen Prozeß des operationalen Umdefinierens einzutreten, benötigt man jedoch stabi- le Umgebungen, die man als Experimentalbedingungen oder als techni- sche Dinge bezeichnen kann; die epistemischen Dinge werden von ihnen eingefaßt und dadurch in übergreifende Felder von epistemischen Prak- tiken und materiellen Wissenskulturen eingefügt“ (Rheinberger 2002: 25).24 Dieser Prozess des operationalen Umdefinierens erfolgt im Labor in kleinen Schritten und unter kontrollierten Bedingungen, um lückenlo- se Beschreibungen der Operationen anfertigen zu können, die später als Herstellungsanleitungen dienen. Die Entdeckung besteht aus dem mate- rial erzeugten Produkt, aus der lückenlosen Beschreibung seiner Herstel- lung sowie der Dekodierung seiner epistemischen Verfassung in Form von Erklärung, Theorie und Prognose. Das Ziel empirischer Wissen- schaft war es daher bislang, beide ontologisch differenzierten, aber über dieselbe Praktik verwobenen Resultate – sofern die Praktik des opera- tionalen Umdefinierens sowohl Herstellungs- wie Beschreibungspraktik ist – parallel zu generieren. Entlang dieser Verwobenheit konstituiert sich der komplexe Prozess der Re-Kontextualisierung empirischer Wis- senschaft als Wechselspiel von Deskription und Operation. Dieser Modus wissenschaftlicher Re-Kontextualisierungen ändert sich nun durch den Computer grundlegend. Und zwar insofern, als der Computer nicht nur die Dekodierungen der epistemischen Verfassung materialer Objekte in Form von algorithmierter Theorie, sondern auch die lückenlosen Beschreibungsanleitungen sichtbar und experimentell handhabbar macht. Hier kommen die informatischen Bedingungen des Computerlabors zum Tragen, sofern sie die Rekonstruktion der Herstel- lungsverfahren und damit die technische Realisierung der operativen Kraft des Experimentellen – analog zur operativen Kraft des Symboli- schen – ermöglichen. Allerdings handelt es sich um eine andere Form der Operativität, die sich nicht aus der mathematischen Rekursion ergibt, sondern aus der experimentellen Prozessualität beziehungsweise Kausa- lität. Denn erst die Lückenlosigkeit der Beschreibung entlang der empi- rischen Operationen erzeugt die wissenschaftlich nachvollziehbare ‚wenn, dann‘-Abfolge als symbolische Rekonstruktion kausaler Zu- sammenhänge im Experimentallabor. Diese ‚wenn, dann‘-Abfolgen werden nun durch die Algorithmen in den ‚do (if … then … else … end 24 Hans-Jörg Rheinberger zitiert hier Bruno Latours Konzept der Liste aus dessen Laborstudie Science in Action (vgl. Latour 1987: 87ff). 277 III PHILOSOPHISCHE VERORTUNG if)n end do, return‘-Abfolgen rekonstruierbar. Daher ist der Computer nicht nur in hochgradig mathematisierten Kontexten wie der Physik als Computerlabor einsetzbar, sondern in der Domäne jeglicher experimen- tellen Forschung, insofern diese ‚wenn, dann‘-Abfolgen deskriptiv er- zeugt. Ebenso wie mit dem Computer die automatisierte Extrapolation der Rekursion als ins Unendliche erweiterte Voraussicht möglich ist, wird auch die Extrapolation der kausalen Abfolgen als ins Unendliche erweiterte Voraussicht möglich. Beide unendlichen Voraussichten unter- scheiden sich jedoch voneinander: Erstere wird als prognostische Pro- jektion in die Zukunft, letztere wird als epistemische Projektion in neue Bereiche des Möglichkeitsraums in Form von Herstellungsverfahren neuer Objekte sichtbar und handhabbar. Auf mathematischer Ebene ba- sieren sie jedoch auf derselben Funktionslogik der Limes-Gestalten und dies macht es so interessant, das Computerlabor dem Experimentallabor vorzuschalten. Denn es etabliert sich ein grundlegend neues Welt- bezogen-auf-Akteure Verhältnis, indem mit den Herstellungsvorschrif- ten selbst projektiv experimentiert werden kann, und zwar in der Weise, dass von diesen ‚Gebilden des vorstellenden Herstellens‘ Bilder gene- riert werden können, die greifbar und dadurch zum Objekt experimentel- len Forschungshandelns werden. Diese Bilder basieren dabei einzig und allein auf der Funktionslogik der Limes-Gestalten im Gestaltungsgebiet der Mannigfaltigkeiten, insofern sich „die anschauliche geometrische Linie […] in eine reine Wertfolge von Zahlen auf[löst], die durch eine bestimmte arithmetische Regel miteinander verknüpft sind“ (Cassirer 1910: 95).25 Ein Beispiel für diesen neuen Modus der Re-Kontextualisierung wie auch der Sichtbarmachung und damit der neuen Form der Forschung bietet die Strukturchemie. Im Laufe der letzten dreihundert Jahre hat die Chemie ihre Struktursprache zu einem operativen Werkzeug entwickelt, das es ihr erlaubt, Moleküle und deren chemische und physikalische Eigenschaften numerisch zu beschreiben und in ihrer Dreidimensionali- tät symbolisch darzust 26ellen. Mit dieser theoriebasierten Darstellung 25 Insofern entspricht das visualisierte Resultat einer Simulation nie einer mimischen oder darstellenden Form von Sichtbarkeit, die einen Bildver- gleich zwischen visualisierten Simulationsresultaten und Sinnlich- Gegebenen ermöglichen würde. Die Visualisierungen der Resultate der Computerexperimente sind keine Bilder der Welt, sondern allenfalls der mathematisierten, algorithmierten und numerisch berechneten Theorie. 26 Die Stereochemie beschreibt die chemischen und physikalischen Molekül- eigenschaften, basierend auf der dreidimensionalen Anordnung der Atome im Raum, die aus der Elektronenverteilung im Molekül resultieren. Diese Beschreibungen lassen sich im Computer numerisch darstellen und als 278 3 SIMULATION ALS NEUE SYMBOLISCHE FORM DES FORSCHENS lassen sich neue, bisher nicht existierende Moleküle im Computer nume- risch simulieren und deren potenzielle Eigenschaften vorhersagen. Der Bestand dieser Moleküle aus dem Computerlabor umfasst bereits rund siebzehn Millionen berechnete und in Datenbanken abgespeicherte Mo- lekülverbindungen, von potenziell 10100 möglichen Molekülen basierend auf dem aktuellen chemischen Wissen. „Das [… eigentliche] Potential der generierten Daten liegt jedoch in der in ihnen verborgenen Informa- tion, die sich aus den Relationen zwischen den gesammelten Daten er- gibt. Diese implizit in den Daten enthaltene Information wie beispiels- weise die Ähnlichkeit zwischen verschiedenen Strukturdaten ist der zen- trale Schlüssel für die Generierung von chemischen Modellen sowie zur Vorhersage von allgemeinen, chemischen Sachverhalten“ (Öllien 2002: 9). Die Logik chemischer Forschung verschiebt sich vom Hantieren mit Substanzen im Reagenzglas hin zur Erforschung des digitalen Terrains virtueller Moleküle und deren prognostizierter Eigenschaften. Entde- ckungen in dieser digitalen und theoretisch komplett explizierten Welt des Computerlabors vollziehen sich in anderer Weise als dies bisher im Experimentallabor der Fall war. Bislang fand der Prozess der Stabilisie- rung neuer Entdeckungen auf dem theoretisch unterdeterminierten Ter- rain der Experimentallabore als operationales Umdefinieren in stabilen Umgebungen statt. Forschen im Computerlabor vollzieht sich m i Fall der Chemie auf Basis kombinatorischer, vergleichender und extrapolieren- der Praktiken im Umgang mit rein symbolischen Konfigurationen, die allesamt mathematisch-logischer Natur sind. Die neuen und für spezifi- sche Zwecke, wie beispielsweise die Medikamentenentwicklung, selek- tierten Entdeckungen werden als komplett konstruierte Entitäten samt Herstellungsvorschrift im Computerlabor generiert und erst danach im Experimentallabor synthetisiert und in die Lebenswelt entlassen. Auf diese Weise, als computergestütztes ‚Design von Natur‘, entstehen neue Moleküle und Medikamente. In diesem epistemischen Potenzial der ex- perimentellen Mathematik, die das Computerlabor zur Erforschung des Möglichkeitsraumes mathematischer Anschauung nutzt, liegt das Poten- zial der Wissenschaft im Zeitalter des Computers. In ihm „[meldet sich] die Natur in […] rechnerisch feststellbarer Weise […] und [wird] als ein System von Informationen bestellbar“ (Heidegger 1949/1962: 22). 3D-stereo Bilder simulierter Moleküle visualisieren, welche die Forscher durch Datenbrillen als plastische Objekte wahrnehmen und mittlerweile auch als haptische Objekte mit Datenhandschuhen manipulieren können. Ihre haptischen Manipulationen werden dann in Herstellungsanleitungen zurückgerechnet. 279 III PHILOSOPHISCHE VERORTUNG Dieses Potenzial ist inspirierend wie beängstigend zugleich. Denn es ist davon auszugehen, dass dieser neue Typ von Forschung nicht nur die wissenschaftliche Erfahrung verändert, sondern auch das, was wissen- schaftlich als real gilt. Nachdem die Eigenschaften der extremen Welt I in Form von mathematischen Idealisierungen der Körperwelt, die ex datis konstruierbar ist, bereits Eingang in die Lebenswelt gefunden ha- ben, folgen nun die Eigenschaften der extremen Welt II. In diesen Ver- änderungen kommt die Umkehrung des Durchblicks ins Innere der Phä- nomene nicht nur in seiner verdichteten, symbolischen Form, sondern in auch seiner operativen Form voll zum Tragen. Die Frage, welche Folgen diese Operativität auf die Lebenswelt haben wird, ist nicht einfach zu beantworten. Sicherlich ist das dargestellte Design der Natur eine dieser grundlegenden Folgen. Dabei gehen das Design und der Blick tiefer als bisher, insofern die Natur nicht nur material, sondern zunehmend infor- mationell als ein ‚System von Informationen bestellbar‘ wird. Auf diese Weise werden materiale Konstruktionen informationell angereichert und zwar in indirekter wie auch direkter Weise. Indirekt in der bisher übli- chen Art und Weise neue Konstruktionen entsprechend technischer Konstruktionsvorschriften herzustellen. Direkt, indem materiale Kom- ponenten so arrangiert werden, dass sie Informationen in sich tragen und auf Basis dieser Informationen Entscheidungen treffen. Beispiele wären hier adaptive Materialien, die sich den Umweltbedingungen anpassen können. Dabei kann es sich nicht um einen repräsentationalen Informa- tionsbegriff handeln, sondern eben um einen operativen. Verfolgt man diesen Gedankengang weiter, dann zeigt sich, dass Computerexperimen- te einerseits die Vollendung der wissenschaftlichen Revolution der Neu- zeit bedeuten, indem sie Mathematik und Quantifizierung operativ im Medium des Computers zur Anwendung bringen. Dass sie aber anderer- seits den Beginn einer neuen Wissenschaftsentwicklung markieren, der eine Umkehrung der empirischen Wissenschaft in eine konstruktive be- deutet. Konstruktiv, insofern die Empirie nicht als eine gegebene, son- dern als eine umgestaltbare Folie der Wissenschaft über die bisherigen technisch erzeugten Welten und Laborrealitäten hinaus fungiert. Mög- lich ist dies nur durch die spezifische symbolische Form der Computer- experimente und der Entfaltung ihrer operativen Kraft. Diese ‚operative Kraft‘ kann den Zeichenraum des Computerlabors verlassen, wenn es technisch möglich ist, materiale Entitäten in immer höherer Auflösung – also von der Mikro- auf die Nanoebene – so zu manipulieren, wie dies die Simulation mit den symbolischen Entitäten im Computer macht. Die digitale Kette reicht dann vom Computer, über automatisierte Ferti- gungsmaschinen, in die Lebenswelt. 3D-Printing, wie es im Modellbau der Architektur, aber auch in der Herstellung von Haut auf Basis leben- 280 3 SIMULATION ALS NEUE SYMBOLISCHE FORM DES FORSCHENS der Zellen zunehmend Einsatz findet, wäre ein Beispiel für das realwelt- liche Ende einer solchen digitalen Kette. Damit folgt nach der Trans- formation der mathematischen Symbolwelten in Mannigfaltigkeiten die Transformation der Lebenswelt in einen Raum manipulierbarer Mannig- faltigkeiten. Rekombinationen, Neukonfigurationen und Extrapolationen werden dadurch als Handlungsoptionen in einem hoch aufgelösten real- weltlichen Setting möglich und diese Handlungsoptionen lassen sich digital und regelbasiert mit Hilfe der Computer steuern. Diese Entwick- lung basiert dabei in erster Linie auf der höheren Auflösung des Raumes der Mannigfaltigkeiten als bisher für technische Konstruktionen üblich. Doch sie basiert nicht nur alleine darauf. Die steuerbare und kontrollier- bare Operativität auf Symbolebene jenseits anschaulicher und geometri- scher Vorstellungswelten eröffnet neue Entwicklungsmöglichkeiten im Design der Natur. In diesem Sinne begründet die Kulturtechnik des Rechnens eine neue Kulturtechnik der Konstruktion als rein typographi- sches Operieren mit Materialität. 281 Literatur Ahrweiler, Petra; Gilbert, Nigel (Hrsg.): Computer Simulations in Science and Technology Studies, Springer: New York, Berlin, Heidelberg 1998 Albertus Magnus, 1248, in: Sturlese, Loris: Die deutsche Philosophie im Mit- telalter. Von Bonifatius bis zu Albert dem Großen (748-1280), Beck: München 1993 AMIP Atmospheric Model Intercomparison Project: Homepage, 2009, URL: http://www-pcmdi.llnl.gov/projects/amip/index.php Arakawa, Akio: A Personal Perspective on the early Years of General Circula- tion Modeling at UCLA, in: Randall 2000: 1-65 Archibald, R. C.: The Logarithmic Spiral, in: Amer. Math. Monthly 25, 1918: 189-193 Aristoteles: Meteorologie. Über die Welt, Bd. 12, Teil 1 und 2, Wissenschaft- liche Buchgesellschaft: Darmstadt 1970 Arrhenius, Svante: On the influence of carbonic acid in the air upon the tem- perature of the ground, in: Philosophical Magazine and Journal of Science 41, 1896: 237-276 Arrhenius, Svante: Lehrbuch der kosmischen Physik, 2 Bde., Hirschel: Leipzig 1903 Babbage, Charles: Passages of the Life of a Philosopher, Vol. 11 of The Works of Charles Babbage (herausgegeben von Martin Campbell-Kelly), Longman: London 1989 Backus, John; Herrick, H.: IBM 701 Speedcomputing and other automatic- programming-systems, in: Proc. Symposium Automatic Programming Digital Computers, Office of Naval Research, Dept. of the Navy, Wash- ington D.C. 1954: 106-113 Backus, John; Heising, W.P.: FORTRAN, in: IEEE Trans. Electron. Comp. 13, 1964: 382-385 Backus, John: Programming in America in the 1950s – Some Personal Im- pressions, in: Metropolis, Howlett, Rota 1980: 125-136 Bacon, Francis: The New Organon, or True Directions concerning the inter- pretation of Nature, 1620, Elektronische Ressource: eBooks@Adelaide, URL: http://ebooks.adelaide.edu.au Bacon, Francis: Neu Atlantis, 1642, Reclam: Stuttgart 1982, Elektronische Ressource: eBooks@Adelaide, URL: http://ebooks.adelaide.edu.au Bacon, Roger: The opus majus of Roger Bacon, 1268 (übersetzt und heraus- gegeben von Robert Belle Burke), Thoemmes Press: Bristol 2000 Bailey, James: After Thought. The Computer Challenge to Human Intelli- gence, Basic Books: New York 1996 Bardi, Jason S.: The Calculus Wars. Newton, Leibniz, and the greatest mathematical clash of all times, Thunders´s Mouth Press: New York 2006 283 COMPUTEREXPERIMENTE Barrow, Isaac: Lectiones opticae et geometricae, 1670, Elektronische Res- source: ECHO European Cultural Heritage Online, URL: http://echo. mpiwg-berlin.mpg.de Bayes, Thomas: An Essay towards solving a Problem in the Doctrine of Chances, in: Philosophical Transactions of the Royal Society of London 53, 1763: 370-418, Elektronische Ressource: UCLA Department of Statis- tics, URL: http://www.stat.ucla.edu/history/essay.pdf Beheng, K. D.: A parameterization of warm cloud microphysical conversion processes, in: Atmos. Res. 33, 1994: 193-206 Beni, Gerardo; Wang, Jing: Swarm Intelligence in Cellular Robotic Systems, in: Proceedings of the NATO Advanced Workshop on Robots and Bio- logical Systems, Tuscany, Italy, June 26-30, 1989 Berg, Axel; Jones, J.; Osseyran, A.; Wielinga, P.: e-Science Park Amsterdam, Report, January 2003, Elektronische Ressource: Wetenschap & Techno- logie Centrum Watergraafsmeer, URL: http://www.wtcw.nl/nl/projecten/ eScience.pdf Bergmann, Ludwig; Schaefer, C.; Dorfmüller, T.; Hering, W.T.; Stierstadt, K.: Lehrbuch der Experimentalphysik: Mechanik, Relativität, Wärme, de Gruyter: Berlin, New York 1998 Berkeley, George: The analyst: or a discourse addressed to an infidel mathe- matician, London 1734, in: The works of George Berkeley, Bd. 4 (heraus- gegeben von Arthur A. Luce), Nelson: London 1951 Berners-Lee, Tim: Information Management: A Proposal, CERN Genf 1989, Elektronische Ressource: w3w.org, URL: http://www.w3.org/History/19 89/proposal.html Bernoulli, Jakob: De reditibus ad vitam, in: Acta Eruditorum, Mai 1690, in: J. Bernoulli: Opera omnia, Bd. 1, Lausanne 1744: 427-431 Biagre, Brian S. (Hrsg.): A History of Modern Science and Mathematics, 3 Bde., Scribner’s: New York 2002 Bigelow, Julian: Computer Development at the Institute for Advanced Study, in: Metropolis, Howlett, Rota 1980: 291-310 Bigg, E. K.: The supercooling of water, in: Proc. Roy. Soc. 66, 1953: 688-694 BIMP Bureau International des Poids et Mesures: Homepage, 2009 URL: http://www.bipm.org Bjerknes, Vilhelm: Über einen hydrodynamischen Fundamentalsatz und seine Anwendung besonders auf die Mechanik der Atmosphäre und des Welt- meeres, in: Kongl. Sven. Akad. Handlingar 31, 1898: 1-35 Bjerknes, Vilhelm: Das dynamische Princip der Cirkulationsbewegung in der Atmosphäre, in: Meteorologische Zeitschrift, März 1900: 97-106 und fort- gesetzt in Meteorologische Zeitschrift, April 1900: 145-156 284 LITERATUR Bjerknes, Vilhelm: Das Problem der Wettervorhersage, betrachtet von Stand- punkt der Mechanik und Physik in: Meteorologische Zeitschrift, Januar 1904: 1-7 Bjerknes, Vilhelm: Dynamic Meteorology and Hydrography, Bd.1 und Bd.2, Carnegie Institution of Washington: Washington, D.C 1910 und 1911 Bjerknes, Vilhelm: Die Meteorologie als exakte Wissenschaft, (Antrittsvor- lesung vom 8. Januar 1913), Vieweg: Braunschweig 1913 Bjerknes, Vilhelm: The Structure of the Atmosphere When Rain is Falling, in: Quart. J. of the Roy. Meteor. Soc. 46, 1919: 119-140 Bjerknes, Vilhelm: On the Dynamics of the Circular Vortex with Applications to the Atmosphere and to Atmospheric Vortex and Wave Motion, Kristi- ana, Geophysiske Publikationer, Vol. 2, 1921: 1-81 Bjerknes, Vilhelm: Leipzig-Bergen. Festvortrag zur 25-Jahrfeier des geophy- sikalischen Instituts der Universität Leipzig, (Sonderdruck aus der Zeit- schrift für Geophysik, Jg. 14, Heft 3,4) Meteorologische Zeitschrift, April 1938: 49-62 Blechmann, Ilja; Myskis, A.D.; Panovko, J.G.: Angewandte Mathematik. Gegenstand, Logik, Besonderheiten, VEB Deutscher Verlag der Wissen- schaften: Ost-Berlin 1984 Bloor, David: Knowledge and social imagery, Routledge: London 1976 BMFT Bundesministerium für Forschung und Technologie: Initiative zur För- derung des parallelen Höchstleistungsrechnens in Wissenschaft und Wirt- schaft, BMFT Broschüre, Bonn 1993 Böhme, Gernot; van den Daele, W.; Krohn, W. (Hrsg.): Experimentelle Philo- sophie, Ursprünge autonomer Wissenschaftsentwicklung, Suhrkamp: Frankfurt 1977 Böhme, Gernot: Die kognitive Ausdifferenzierung der Naturwissenschaften. Newtons mathematische Naturphilosophie, in: Böhme, van den Daele, Krohn 1977: 237-263 Böhme, Gernot; van den Daele, Wolfgang: Erfahrung als Programm, in: Böh- me, van den Daele, Krohn 1977: 183-236 Bond, Allan H.; Gasser, Less (Hrsg.): Readings in Distributed Artificial Intel- ligence, Morgan Kaufmann Publishers: San Mateo 1988 Böttinger, Michael: Klimaprognosen, Daten und Visualisierung, in: Tätigkeitsbe- richt 2005, Max Planck Gesellschaft, München 2005, Elektronische Ressour- ce: Max Planck Gesellschaft URL: http://www.mpg.de/bilderBerichte Dokumente/dokumentation/jahrbuch/2005/dkrz/forschungsSchwerpunkt/pdf. pdf Bolin, Bert: Multiple-parameter models of the atmosphere for numerical fore- casting purpose, in Tellus 5, 1953: 207-218 285 COMPUTEREXPERIMENTE Bolin, Bert; Eriksson, E. (Hrsg.): The Atmosphere and the Sea in Motion: Sci- entific Contributions to the Rossby Memorial Volume, Rockefeller Insti- tute Press: New York 1959 Bourke, Warner W.: A multi-level spectral model 1: Formulation and hemi- spheric integrations, in: Mon. Weather Rev. 102, 1974: 687-701 Boyle, Robert: The Works of Robert Boyle, 14 Bde., (herausgegeben von Mi- chael Hunter und Edward B. Davis), Pickering&Chatto Publishers: Lon- don 2000 Boyle, Robert: Hydrostatical paradoxes, 1666, in: Boyle 2000: 5. Bd. Boyle, Robert: New Experiments Physio-Mechanicall, Touching the Spring of the Air and its Effects, Appendix, 1662, in: Boyle 2000: 3. Bd. Boyle, Robert: Certain Physiological Essays, 1661, in: Boyle 2000: 2. Bd. (Auszüge abgedruckt in: Crombie 1994: 947-979) Braitenberg, Valentin; Hosp, Inga (Hrsg.): Simulation. Computer zwischen Experiment und Theorie, Rowohlt: Reinbek bei Hamburg 1995 Bredekamp, Horst; Krämer, Sybille (Hrsg.): Bild Schrift Zahl, Fink: München 2003 Bredekamp, Horst; Krämer, Sybille: Kultur, Technik, Kulturtechnik: Wider die Diskurisvierung der Kultur, in: Bredekamp, Krämer 2003: 11-22 Bryden, David J.: Napier’s Bones: A History and Instruction Manual, The Hillingdon Press: Uxbridge 1992 Burkholder, Leslie (Hrsg.): Philosophy and the Computer, Westview Press: Boulder u.a. 1992 Burks, Arthur W.: From ENIAC to the stored-program computers, in: Me- tropolis, Howlett, Rota 1980: 311-344 Burks, Arthur W.; Goldstine, H., von Neumann, J.: Preliminary Discussions of the Logical Design of an Electronic Computing Instrument, in: Datama- tion 28.6.1946, Institute for Advanced Study: Princeton 1946 Bush, Vannevar; Hazen, Herold L.: The differential analyzer: a new machine for solving differential equations, in: Journal of the Franklin Institute 212, Oct. 1931: 447-488 Bush, Vannevar: Instrumental Analysis, in: Bull. Amer. Math. Soc. 42, 1936: 649-669 Caesalpino, Andrea: De Plantis Libri, Florenz 1583, Elektronische Ressource: Gallica, bibliothèque numérique de la Bibliothèque nationale de France, URL: http://gallica.bnf.fr/ark:/12148/bpt6k58230d Campbell-Kelly, Martin; Aspray, William: Computer: A History of the Infor- mation Machine, Westview Press: Jackson 2004 Cantor, Moritz: Vorlesungen zur Geschichte der Mathematik, Bd. 3, 2. Aufl., Teubner: Leipzig 1901, Elektronische Ressource: Internet Archive, URL: http://www.archive.org 286 LITERATUR Carnap, Rudolf: Die Aufgabe der Wissenschaftslogik, in: Schulte, McGuin- ness 1992: 90-117 Cassirer, Ernst: Substanzbegriff und Funktionsbegriff. Untersuchungen über die Grundfragen der Erkenntniskritik, Verlag Bruno Cassirer: Berlin 1910 Cassirer, Ernst: Philosophie der Symbolischen Formen: Die Sprache, 1923, 1. Bd., 9. Aufl., Wissenschaftliche Buchgesellschaft: Darmstadt 1988 Cassirer, Ernst: Philosophie der Symbolischen Formen: Das Mythische Den- ken, 1924, 2. Bd., 9. Aufl., Wissenschaftliche Buchgesellschaft: Darmstadt 1987 Cassirer, Ernst: Philosophie der Symbolischen Formen: Phänomenologie der Erkenntnis, 1929, 3. Bd., 9. Aufl., Wissenschaftliche Buchgesellschaft: Darmstadt 1990 Cassirer, Ernst: Form und Technik, 1930, in: Fischer 2004: 157-213 Celsius, Anders: Beobachtungen von zweien beständigen Graden auf einem Thermometer, in: Königl. Schwedische Akademie der Wissenschaften, Abhandlungen aus der Naturlehre, Haushaltungskunst und Mechanik 4, 1742: 197-205 Ceruzzi, Paul E.: A History of Modern Computing, MIT Press: Cambridge 1998 CF Metadata Convention: NetCDF Climate and Forecast (CF) Metadata Con- ventions, Version 1.4, Februar 2009, Elektronische Ressource: CF Metadata URL: http://cf-pcmdi.llnl.gov/documents/cf-conventions/1.4/cf- conventions.pdf Chamberlin, E. H.: An experimental imperfect market, in: Journal of Political Economy 56, 2, 1948: 95-108 Charney, Jule G.: On the Scale of Atmospheric Motion, in: Geofysiske Pub- likasjoner 17, Heft 2, 1948: 1-17 Charney, Jule G.: On a physical basis for numerical prediction of large-scale motions in the atmosphere, in: J. Meteor. 6, 1949: 371-385 Charney, Jule G.; Fjørtof, J., v. Neumann, J.: Numerical Integration of the Barotropic Vorticity Equation, in: Tellus 2, 1950: 237-254 Charney, Jule G.; Phillips, Norman: Numerical integration of the quasi- geostrophic equations for barotropic and simple baroclinic flows, in: J. Meteor. 10, 1953: 71-99 Charney, Jule G.: Impact of computers on meteorology, in: Computer Physics Communications 3, Suppl., 1972: 117-126 Charney, Jule G.: Dynamics of Deserts and Drought in the Sahel, in: Quart. J. R. Met. Soc. 101, 1975: 193-202 Church, Alonzo: Unsolvable problem of elementary number theory, in: Amer. J. Math. 858, 1936: 345-363 Church, Alonzo: A note on the Entscheidungsproblem, in: J. Symb. Logic 1, 1936: 40-41, cor. 101-102 287 COMPUTEREXPERIMENTE Claussen, Martin, et al.: Earth system models of intermediate complexity: closing the gap in the spectrum of climate system models, in: Clim. Dyn. 18, 2002: 579-586 Clarkson, Geoffrey; Simon, Herbert A.: Simulation of individual and group behavior, in: American Economic Review 50, 5, 1960: 920-932 CMIP Coupled Model Intercomparison Project: Homepage, 2009, URL: http://www-pcmdi.llnl.gov/projects/cmip/ Coenen, Christopher: Konvergierende Technologien und Wissenschaften. Der Stand der Debatte und politischen Aktivitäten zu ‚Converging Technolo- gies‘, Berlin 2008, Elektronische Ressource: ITAS Institut für Technikfol- genabschätzung und Systemanalyse, URL: http://www.itas.fzk.de/deu/lit/ 2008/coen08a.pdf Conte, Rosaria; Hegselmann, R.; Terna, P. (Hrsg.): Simulation Social Phe- nomena, Springer: Berlin 1997 Courant, Richard; Robbins, Herbert: What is mathematics?, Oxford Univ. Press: Oxford 1941 Coy, Wolfgang: Gutenberg und Turing: Fünf Thesen zur Geburt der Hyper- medien, in: Zeitschrift für Semiotik 16, 1994: 69-74 Crombie, Alistair C.: Styles of Scientific Thinking in the European Tradition. The history of argument and explanation especially in the mathematical and biomedical sciences and arts, Bd. 2, Duckworth: London 1994 Daston, Lorraine: Wunder, Beweise und Tatsachen. Zur Geschichte der Ratio- nalität, Fischer: Frankfurt 2003 Davis, Martin (Hrsg.): The Undecidable. Basic Papers on Undecidable Propo- sitions, Unsolvable Problems, and Computable Functions, Hewlett: New York 1964 Dear, Peter: Disciplines & Experience. The Mathematical Way in the Scien- tific Revolution, Chicago Univ. Press: Chicago 1995 DEKLIM Deutsches Klimaprogramm: Homepage, 2006, URL: http://www. deklim.de/seiten/dek-frame.asp Deluc, Jean-André: Recherches sur les modifications de l’atmosphère ou théo- rie des baromètres et des thermomètres, 2 Bde., Genf 1772 Descartes, René: Regeln zur Ausrichtung der Erkenntniskraft 1628, (heraus- gegeben von Lüder Gäbe), Meiner: Reinbek bei Hamburg 1972 Descartes, René: Geometrie, 1637 (herausgegeben von Ludwig Schlesinger), Wissenschaftliche Buchgesellschaft: Darmstadt 1981 Descartes, René: Discours de la méthode, 1637 (herausgegeben von Lüder Gäbe), Von der Methode des richtigen Vernunftgebrauchs und der wissen- schaftlichen Forschung, 2. Aufl., Meiner: Reinbek bei Hamburg 1907 Decyk, Viktor K.; Norton, Ch.D..; Szymanski, B.K.: Expressing Object- Oriented Concepts in Fortran90, in: ACM Fortran Forum 16, April 1997: 13-18 288 LITERATUR DEISA Distributed European Infrastructure for Supercomputing Applications: Homepage, 2009, URL: http://www.deisa.eu DFN Deutsche Forschungsnetz: Homepage, 2009, URL: http://www.dfn.de/ D-Grid Initiative: Homepage, 2009, URL: http://www.d-grid.de DIN Deutsches Institut für Normierung: Homepage, 2009 URL: http://www. din.de DKRZ Deutsches Klimarechenzentrum: Homepage, 2000, URL: http://www. dkrz.de Dove, Heinrich Wilhelm: Über Maass und Messen oder Darstellung der bei Zeit-, Raum- und Gewichts-Bestimmungen üblichen Maasse, Messinstru- mente und Messmethoden: nebst Reductionstafeln, 2. Aufl., Sander: Ber- lin 1835 Dove, Heinrich Wilhelm: Meteorologische Untersuchungen, Sander: Berlin 1837 Dowling, Deborah C.: Experiments on Theories: the construction of scientific computer simulation, Dissertation an der University of Melbourne, Feb- ruar 1998 Dowling, Deborah C.: Experimenting on Theories, in: Science in Context 12, 1999: 261-274 Duhem, Pierre: Ziel und Struktur der physikalischen Theorien, Barth: Leipzig 1908 DWD Deutscher Wetterdienst: Homepage, 2009, URL: http://www.dwd.de/ Echeverria, Javier; Ibarra, A.; Mormann, Th. (Hrsg.): The Space of Mathemat- ics. Philosophical, Epistemological, and Historical Explorations, de Gruyter: Berlin, New York 1992 Eckert, Michael: The Dawn of Fluid Dynamics. A Discipline between Science and Technology, Wiley-Vch: Weinheim 2006 ECMWF European Centre for Medium-Range Weather Forecasts: Homepage, 2009, URL: http://www.ecmwf.int/ Edwards, Paul N.: A Brief History of Atmospheric General Circulation Mod- eling, in: Randall 2000: 67-90 Einstein, Albert: Zur Elektrodynamik bewegter Körper, in: Annalen der Phy- sik 17, 1905: 891-921 Einstein, Albert: Physik und Realität, in: Zeitschrift für Freie Deutsche For- schung 1, 2, 1938: 1-14 Emais, Stefan; Lüdecke, Cornelia (Hrsg.): From Beaufort to Bjerknes and Be- yond. Critical Perspectives on Observing, Analyzing, and Predicting Weather and Climate, Rauner: Augsburg 2005 ENES European Network for Earth System Modelling: Homepage, 2009, URL: http://www.enes.org/ 289 COMPUTEREXPERIMENTE Enke, W.; Spekat, A.: Downscaling climate model outputs into local and re- gional weather elements by classification and regression, in: Climate Re- search 8, 1997: 195-207 Ekholm, Nils: Etude des conditions météorologiques à l`aide des cartes synop- tiques représentants la densité de l`air, in : Kongl. Sven. Vetensk. Akad. Handlingar 16, 1891 : 14-15 Ekholm, Nils: Wetterkarten der Luftdruckschwankungen, in : Meteorologische Zeitschrift, August 1904: 345-357 Elisassen, A. : Simplified Models of the atmosphere, designed for the purpose of numerical weather prediction, in : Tellus 4, 1952: 145-156 El-Kazwini, Zakarija Ben Muhamed Ben Mahmud: Kosmographie, 13. Jahr- hundert, in: Hellmann 1904: 127-142 Elzinga, Aant: From Arrhenius to Megascience: Interplay between science and public decision making, in: Ambio. 26, 1997: 72-80 ERA-40: Homepage, ECMWF 40 Year Reanalysis (ERA-40), 2009, URL: http://www.ecmwf.int/products/data/archive/descriptions/e4/index.html ESMF Earth System Model Framework: Homepage, 2006, URL: http://www. esmf.ucar.edu Euklid: Die Elemente. Bücher I-XIII, 325 v. Chr. (herausgegeben von Cle- mens Thaer), 4. Aufl., Harri Deutsch: Frankfurt 2003 Euler, Leonhard: Opera omnia, I. Opera mathematica, 29 Bde., II. Opera mat- hematica, 31 Bde., (herausgegeben von H.-C. Im Hof et al.), Birkhäuser: Basel 1911-2009 Euler, Leonhard: Introductio in analysin infinitorum, 1748, in: Euler 1911- 2009, I., Bd. 8, 1922 und Bd. 9 1945 Euler, Leonhard: Dissertation sur le principe de la moindre action, 1753, in: Euler 1911-2009, II., Bd. 5, 1957: 179-193 Euler, Leonhard: Principes généraux du mouvement des fluides, 1755, in: Eu- ler 1911-2009, II, Bd. 12, 1954: 54-91 EUROCS European Cloud Systems: Homepage, 2003, URL: http://www.cnrm. meteo.fr/ gcss/EUROCS/EUROCS.html European Centre for Soft Computing: Homepage 2009, URL: http://www. softcomputing.es Exner, Felix: Versuch einer Berechnung der Luftdruckveränderung von einem Tag zum nächsten, Sitz.-Ber. Wiener Akad. Wiss 111, 1902: 707-725 Exner, Felix: Über eine erste Annäherung zur Vorausberechnung synoptischer Wetterkarten, Meteorologische Zeitschrift 25, 1908: 57-67 Fahrenheit, Daniel: Experimenta & Observationes de Congelatione aquae in vacuo factae, in: Phil. Trans. R. Soc. 33, 1724: 78-84 Fibonacci, Leonardo: Liber Abaci, 1209 Fine, Arthur; Frobes, Micky; Wessels, Linda (Hrsg.): PSA 1990, 2. Bd., Pro- ceedings of the 1990 biennial meetings of the Philosophy of Science As- 290 LITERATUR sociation, East Lansing, Michigan, Philosophy of Science Association 1991 Flasch, Kurt: Das philosophische Denken im Mittelalter, Reclam: Stuttgart 1995 Fleck, Ludwik: Entstehung und Entwicklung einer wissenschaftlichen Tatsa- che, 1935, Suhrkamp: Frankfurt 1994 Folkerts, M. (Hrsg.): Muhammad Ibn-Musa al-Hwarizmi. Die älteste lateini- sche Schrift über das indische Rechnen, Bayerische Akad. der Wiss.: München 1997 Fox Keller, Evelyn: Models, Simulation, and Computer Experiments, in: Rad- der 2003: 198-215 Fermat, Pierre de: Abhandlungen über Maxima und Minima, 1629, (herausge- geben von M. Miller), Akademische Verlagsgesellschaft: Leipzig 1934 Fischer, Peter (Hrsg.): Technikphilosophie, Reclam: Leipzig 2004 Fleming, James R.: History of Meteorology, in: Biagre, 3. Bd., 2002: 184-217 Flik, Thomas: Mikroprozessortechnik und Rechnerstrukturen, Springer: Berlin 2004 Fontenelle, Bernard de: History de renouvellement de l`Académie royale des sciences en M.DC.XCIX et les. éloges historiques, 1709, (Nachdruck) Brüssel, 1. Bd., 1969: 31-43 Franklin, Allan: The Neglect of Experiment, Cambridge University Press: New York 1986 Frederichs, Günther: Der Wandel der Wissenschaft, in: TA-Datenbank- Nachrichten 8, 3/4, Dez. 1999: 16-25 Friedman, Robert M.: Appropriating the Weather. Vilhelm Bjerknes and the Construction of a Modern Meteorology, Cornell University Press: Ithaca, London 1989 Fritz, Walter von: Grundprobleme der Geschichte der antiken Wissenschaft, de Gruyter: Berlin, New York 1971 Fuhrmann, Frederik; Kleis, U.; Mackens, W.: Partielle Differentialgleichungen und Numerische Software, in: Nagel 1996: 119-130 Galle, Joahnn G.: Account of the discovery of the planet of Le Verrier at Ber- lin, in: Monthly Notices of the Royal Astronomical Society 7, Nov. 1846: 153 Galileo, Galilei: Il Saggiatore, 1623, (herausgegeben von Ottavio Besomi), Editrice Antenore: Padua 2005 Galileo, Galilei: De motu antiquiora, 1590, (herausgegeben von Michele Ca- merota), CUEC: Cagliari 1992 Galison, Peter; Stump, David J. (Hrsg): The Disunity of Science: Boundaries, Contexts, and Power, Stanford University Press: Stanford, CA 1996 Galison, Peter: Computer Simulation and the Trading Zone, in: Galison, Stump 1996: 118-157 291 COMPUTEREXPERIMENTE Gates, Lawrence W.: Modeling the Ice-Age Climate, in: Science 191, 1976: 1138-1144 Gates, Lawrence W.; Rowntree, P.R.; Zeng, Q.-C.: Validation of climate mo- dels, in: J.T. Houghton, G.J. Jenkins, J.J. Ephraums: Climate Change, the IPCC Scientific Assessment, Cambridge University Press: Cambridge 1990: 93-130 Gates, Lawrence W.: Ein kurzer Überblick über die Geschichte der Klimamo- dellierung, in: Promet 29, 2003: 3-5 Gauß, Carl Friedrich: Werke, 12 Bde., (herausgegeben von der Königlichen Gesellschaft der Wissenschaften zu Göttingen) Springer: Berlin 1863-1929, Elektronische Ressource: GDZ Göttinger Digitalisierungszentrum, URL: http://gdz.sub.uni-goettingen.de/no_cache/dms/load/toc/?IDDOC= 38910 Gauß, Carl Friedrich: Theoria Motus Corporum Coelestium in sectionibus conicis solem ambientium, 1809, in: Gauß, Bd. 7, 1906: 6-288 Gauß, Carl Friedrich: Bestimmung der Genauigkeit der Beobachtungen, 1816, in: Gauß, Bd. 4, 1873: 109-117 Gauß, Carl Friedrich: Intensitas vis magneticae ad mensuram absolutam revo- cata, 1832, in: Gauß, Bd. 5, 1867: 81-118 Gauß, Carl Friedrich: Das in den Beobachtungsterminen anzuwendende Ver- fahren, 1836, in: Gauß, Bd. 5, 1867: 541-556 Gauß, Carl Friedrich: Auszug aus dreijährigen täglichen Beobachtungen der magnetischen Declination zu Göttingen, 1836a, in: Gauß, Bd. 5, 1867: 556-568 Gauß, Carl Friedrich: Allgemeine Theorie des Erdmagnetismus, 1838, in: Gauß, Bd. 5, 1867: 121-193 Gauß, Carl Friedrich: Atlas des Erdmagnetismus, 1840, in: Gauß, Bd. 12, 1929: 326-413 GCOS Global Climate Observing System: Homepage, 2009, URL: http://www. wmo.int/pages/prog/gcos/index.php GCS Gauss Centre for Supercomputing: Homepage, 2009, URL: http://www. gauss-centre.eu/ GEANT: Homepage, 2009, URL: http://www.geant.net Gellibrand, Henry: A discourse mathematical on the variation of the magneti- cal needle, together with its admirable diminution lately discovered, Lon- don, 1635 GENIE Grid Enabled Integrated Earth System Model: Homepage, 2009, URL: http://www.genie.ac.uk/ Gericke, Helmuth: Geschichte des Zahlbegriffs, Bibl. Institut: Mannheim 1970 Gladstone-Millar, Lynne: John Napier. Logarithm John, National Museums of Scotland Publications: Edinburgh 2003 Gleininger, Andrea; Vrachliotis, Georg (Hrsg.): Simulation. Context Architec- ture, Birkhäuser: Basel 2008 292 LITERATUR Glimm, James; Impagliazzo, J.; Singer, I. (Hrsg.): The Legacy of John von Neumann, Proceedings of Symposia in Pure Mathematics 1988, American Mathematical Society: Providence Rhode Island 1990 Glimm, James: Scientific Computing: Von Neumann`s Vision, Today´s Reali- ties, and the Promise of the Future, in: Glimm, Impagliazzo, Singer 1990: 185-195 Goldstine, Herman H.: History of Numerical Analysis from the 16th Through the 19th Century, Springer: New York 1977 Goldstine, Herman H.: History of the Calculus of Variations from the Seven- teenth Through the Nineteenth Century, Springer: New York 1980 Goldstine, Herman: The Computer from Pascal to von Neumann, Princeton University Press: Princeton 1993 Goldstine, Herman H.; Neumann, John von: On the Principles of Large Scale Computing Machines, 1946, in: von Neumann 1963: 1-32 Goldstine, Herman H.; Neumann, John von: Planning and Coding Problems for an Electronic Computing Instrument, 1947, Part II, Vol 1, in: von Neumann 1963: 80-151 Gordon, C.T.: Verification of the GFDL spectral model, in: Colloquium on Weather Forecasting and Weather Forecasts: Models, Systems, and Users, Weather Forecasting and Weather Forecasts: Models, Systems and Users. National Centre for Atmospheric Research, Vol. 2, 1974: 745-762 Gordon, C.T., Stern, W.: Spectral modelling at GFDL. The GARP Programme on Numerical Experimentation, Report of the International Symposium on Spectral Methods in Numerical Weather Prediction for GARP, Copenha- gen, WMO, 1974: 46-82 Gramelsberger, Gabriele: Theorie – Simulation – Experiment. Computerge- stützte Simulation als erkenntnistheoretische Erweiterung der Erklärungs- und Prognosemöglichkeiten in den Naturwissenschaften, Magisterarbeit an der Universität Augsburg, Institut für Philosophie, Juni 1996 Gramelsberger, Gabriele: Semiotik und Simulation. Die Fortführung der Schrift ins Dynamische. Entwurf einer Symboltheorie der numerischen Simulation und ihrer Visualisierung, Dissertation an der Freie Universität Berlin, Institut für Philosophie, Juni 2001, Elektronische Ressource: Dis- sertationsserver der Freie Universität Berlin, URL: http://darwin.inf.fu- berlin.de/2002/118/ Gramelsberger, Gabriele: Computersimulationen – Neue Instrumente der Wis- sensproduktion, Explorationsstudie, BBAW Akademie der Wissenschaften Berlin, Mai 2004, Elektronische Ressource: Science Policy Studies Initiati- ve URL: http://www.sciencepolicystudies.de/dok/explorationsstudie_ computersimulationen/inhaltsverzeichnis.html Gramelsberger, Gabriele: Schrift in Bewegung. Eine semiotische Analyse der digitalen Schrift, in: Schneider, Wedell 2004a: 101-122 293 COMPUTEREXPERIMENTE Gramelsberger, Gabriele: Vom Verschwinden der Orte in den Daten, in: Gegenworte – Hefte für den Disput über Wissen 16, BBAW Berlin- Brandenburgische Akademie der Wissenschaft, 2005: 31-35 Gramelsberger, Gabriele: Die Verschriftlichung der Wissenschaft. Simulation als semiotische Rekonstruktion wissenschaftlicher Objekte, in: Grube, Kogge, Krämer 2005a: 439-452 Gramelsberger, Gabriele: Story Telling with Code – Archaeology of Climate Modelling, in: TeamEthno-online, Issue 2, University of Lancaster, June 2006: 77-84 Gramelsberger, Gabriele: Computersimulationen – Neue Instrumente der Wis- sensproduktion, in: Mayntz, Neidhardt, Weingart, Wengenroth 2008: 75-95 Gramelsberger, Gabriele: The Epistemic Texture of Simulated Worlds, in: Gleininger, Vrachliotis 2008a: 83-91 Gramelsberger, Gabriele: CO2, Fische und das Klima im Computermodell, in: Soentgen, Reller 2009: 181-193 Gramelsberger, Gabriele: Conceiving meteorology as the exact science of the atmosphere – Bjerknes revolutionary paper from 1904, in: Meteorolo- gische Zeitschrift, 2009a (im Druck) Gramelsberger, Gabriele: Simulation – Analyse der organisationellen Etablie- rungsbestrebungen der (neuen) epistemischen Kultur des Simulierens am Beispiel der Klimamodellierung, in: Halfmann 2009b: 30-52 Gramelsberger, Gabriele: Die numerische Expertise der Automatenhirne. Ra- tionale Prognostik und Computermodelle, in: Hartmann, Vogel 2009c (im Druck) Gramelsberger, Gabriele (Hrsg.): From Science to Computational Sciences. Studies in the History of Computing and its Influence on Today’s Society, diaphanes Zürich, Berlin 2010 (im Druck) Greenleaf, Newcomb: Algorithmics: A New Paradigm for Mathematics, in: Burkholder 1992: 195-210 Grier, David A.: When Computers were Human, Princeton University Press: Princeton 2005 Grube, Gernot; Kogge, Werner; Krämer, Sybille (Hrsg.): Kulturtechnik Schrift. Die Graphé zwischen Bild und Maschine, Fink: München 2005 Gunter, Edmund: The description and use of sector, the cross-staffe, and other instruments for such as are studious of mathematical practise, London 1624 Gunter, Edmund: The Description and Use of His Majestie's Dials in White- hall Garden, London 1624a Hacking, Ian: Einführung in die Philosophie der Naturwissenschaften, Re- clam: Stuttgart 1996 Hadley, George: The cause of the general Trade-Wind, Phil. Trans. R. Soc. 34, 1735: 58-62 294 LITERATUR Halfmann, Jost (Hrsg.): Organisation(en) der Forschung, Wiesbaden: VS Ver- lag für Sozialwissenschaften 2009 Halley, Edmund: An historical account of the Trade-Winds and Monsoons observable in the seas between and near the Tropick, with an attempt to assign the physical cause of said Winds, Phil. Trans. R. Soc. 183, 1686: 153-168 Hann, Julius: Handbuch der Klimatologie, 4. Aufl. Engelhorns: Stuttgart 1908 Hansen, James; Lacis, A.; Ruedy, R., Sato, M.: Potential climate impact of Mount Pinatubo eruption, in: Geophysical Research Letters 19, 1992: 215-218 Harper, Kristine C.: The Scandinavian Tag-Team: Providers of atmospheric reality to numerical weather prediction efforts in the United States (1948- 1955), in: Proceedings of the International Commission on History of Me- teorology 1.1, 2004: 84-91 Hartmann, Heinrich; Vogel, Jakob (Hrsg.): Prognosen. Zukunftswissen und Expertise in Wirtschaft, Politik und Gesellschaft, Campus: Frankfurt 2009 Hartmann, Stephan: The World as a Process, in: Hegselmann 1996: 77-100 Haustein, Heinz-Dieter: Weltchronik des Messens – Universalgeschichte von Maß und Zahl, Geld und Gewicht, de Gruyter: Berlin 2001 Hegselmann, Rainer; Müller, Ulrich; Troitzsch, Klaus G. (Hrsg.): Modelling and Simulation in the Social Sciences from the Philosophy of Science Point of View, Kluwer Academics Publisher: Dordrecht 1996 Heidegger, Martin: Die Zeit des Weltbildes, 1938, in: Heidegger 1977: 69-104 Heidegger, Martin: Holzwege, Vittorio Klostermann: Frankfurt 1977 Heidegger, Martin: Die Frage nach der Technik, 1949, in: Heidegger 1962: 5-47 Heidegger, Martin: Die Technik und die Kehre, Cotta’sche Buchhandlung: Stuttgart 1962 Heising, William P.: The Emergence of FORTRAN IV from FORTRAN II, in: IEEE Annals of the History of Computing 6, 1, 1984: 31-32 Hellige, Dieter (Hrsg.): Geschichten der Informatik: Visionen, Paradigmen, Leitmotive, Springer: Heidelberg, Berlin 2004 Hellmann, G.: Denkmäler Mittelalterlicher Meteorologie, (Nachdruck), Kraus: Berlin 1904 Hempel, Carl; Oppenheim, Paul: Studies in the Logic of Explanation, in: Phi- losophy of Science 15, 1948: 135-175 Henderson-Sellars, Ann; McGuffie, K.: A Climate Modelling Primer, John Wiley & Sons: Chichester 1987 Henderson-Sellers, Ann; McGuffie K.: Concepts of Good Science in Climate Change Modelling, in: Climatic Change 42, 1999: 597-610 Herrick, Harlan; Backhus, John: IMB 701 Speedcoding and other Automatic Programming Systems, in: Proceedings of the Symposium on Automatic Programming Digital Computer, Office of naval Research, Washington D.C., held May, 13-14, 1954: 111-112 295 COMPUTEREXPERIMENTE Hertz, Heinrich: Die Prinzipien der Mechanik in neuem Zusammenhange dar- gestellt, 3 Bde. 1891-1894, in: Hertz 1894: 3. Bd. Hertz, Heinrich: Gesammelte Werke, (herausgegeben von Philipp Lenard), J. A. Barth: Leipzig 1894 Hesse, Mary: Models and Analogies in Science, University of Notre Dame Press: Notre Dame 1966 Heymann, Matthias: Modeling reality. Practice, knowledge, and uncertainty in atmospheric transport simulation, in: Historical Studies in the Physical and Biological Sciences 37, 2006: 49-85 Hiebel, Hans: Kleine Medienchronik. Von ersten Schriftzeichen zum Micro- chip, Beck: München 1997 Hinkelmann, K.: Ein numerisches Experiment mit den primitiven Gleichun- gen, in: Bolin, Eriksson 1959: 486-500 Hinterwaldner, Inge: Simulationsmodelle. Zur Verhältnisbestimmung von Modellierung und Bildgebung in interaktiven Echtzeitsimulationen, in: Reichle, Siegel, Spelten, 2008: 301-314 Holland, John H.: Adaptation in Natural and Artificial Systems, University of Michigan Press: Ann Arbor 1975 Hooke, Robert: A Method for Making a History of the Weather, in: Sprat 1959 Hooke, Robert: A General Scheme, or Idea of the Present State of Natural Phi- losophy, and How its Defects may be Remedied by a Methodological Pro- ceeding in the making Experiments and collecting Observations, whereby to compile a Natural History, as the Solid Basis for the Superstructure of True Philosophy, 1666 (Auszüge abgedruckt in: Crombie 1994: 992-998) Hopper, Grace: Development Log Book, 1945, Elektronische Ressource: Na- val Historical Center, 2008, URL: http://www.history.navy.mil/photos/ images/h96000/h96566kc.htm Hoßfeld, Friedel: ‚Grand Challenges‘ – wie weit tragen die Antworten des Supercomputing?, Bericht des Zentralinstituts für Angewandte Mathema- tik, KFA-ZAM-IB-9117 (21.11.1991), Forschungszentrum Jülich 1991 Hoßfeld, Friedel: Wissenschaftliches Rechnen – Motor der Rechnerentwick- lung, Bericht des Zentralinstituts für Angewandte Mathematik, KFA- ZAM-IB-9215 (23.09.1992), Forschungszentrum Jülich 1992 Hoßfeld, Friedel: Partielle Differentialgleichungen: Die permanente Heraus- forderung, in: Nagel, Wolfgang (Hrsg.): Partielle Differentialgleichungen, Numerik und Anwendungen, Forschungszentrum Jülich 1996: 1-10 Humboldt, Alexander von: Die Forschungsreise in den Tropen Amerikas (he- rausgegeben und kommentiert von Hanno Beck), Studienausgabe, Bd. II./ Teilband 1, Wissenschaftliche Buchgesellschaft: Darmstadt 1997 Humboldt, Alexander von: Kosmos, 5 Bde., Bd. 4, Cotta: Stuttgart 1858 296 LITERATUR Humphreys, Paul (Hrsg.): Patrick Suppes: Scientific Philosopher, Vol. 2, Phi- losophy of Physics, Theory Structure, and Measurement Theory, Kluwer Academics Publishers: Dordrecht 1994 Humphreys, Paul: Numerical Experimentation, in Humphreys 1994: 103-121 Humphreys, Paul: Computer Simulations, in: Fine, Frobes, Wessels 1991: 497-509 Humphreys, Paul: Extending Ourselves. Computational Sciences, Empiricism, and Scientific Method, Oxford University Press: Oxford 2004 Hunt, J.C.R.: Lewis Fry Richardson and his contributions to mathematics, meteorology, and models of conflict, in: Annu. Rev. Fluid Mech. 1998: xiii-xxxvi Husserl, Edmund: Die Krisis der europäischen Wissenschaften und die trans- zendentale Phänomenologie, Vortrag 1935, 3. Aufl., Meiner: Hamburg 1996 IAS Institute for Advanced Simulation: Homepage, 2009, URL: http://www. fz-juelich.de/portal/ueber_uns/institute_einrichtungen/institute/ias Ifrah, Georges: The Universal History of Computing: From the Abacus to the Quantum Computer, J Wiley & Sons, Inc.: New York 2001 Internationales Polarjahr: Homepage, 2009 URL: http://www.polarjahr.de IPCC Intergovernmental Panel on Climate Change: Homepage, 2009, URL: http://www.ipcc.ch IPCC Intergovernmental Panel on Climate Change: Guidance Notes for Lead Authors of the IPCC Fourth Assessment Report on Addressing Uncertain- ties, 2005, Elektronische Ressource: IPCC, URL: http://ipcc-wg1.ucar. edu/wg1/Report/AR4_ UncertaintyGuidance Note.pdf IPCC Intergovernmental Panel on Climate Change: AR4 Climate Change 2007: The Physical Science Basis, WG1, 2007, Elektronische Ressource: IPCC, URL: http://www.ipcc.ch/publications_and_data/publications_ipcc _fourth_assessment_report_wg1_report_the_physical_science_basis.htm IPCC Intergovernmental Panel on Climate Change: Chairman´s Vision Paper, AR5 Scoping Meeting Venice, Italy, 13-17 July 2009, Elektronische Res- source: IPCC, URL: http://www.ipcc.ch/scoping_meeting_ar5/documents/ doc02.pdf I2G Interactive European Grid Project: Homepage 2009, URL: http://www.i2g. eu Jehnsen, Uwe: So viel läßt sich der Staat das Supercomputing kosten, in: Computerwoche 32, 1992, Elektronische Ressource: Computerwoche.de, URL: http://www.computerwoche.de/heftarchiv/1992/32/1135464/ Kant, Immanuel: Kritik der reinen Vernunft, B 1787 (Nachdruck) Meiner: Hamburg 1993 297 COMPUTEREXPERIMENTE Kepler, Johannes: Gesammelte Werke (herausgegeben von Walther von Dyck und Max Caspar), 21. Bde., C.H. Beck’sche Verlagsbuchhandlung: Mün- chen 1938-2003 Kepler, Johannes: Mysterium cosmographicum de stella nova, 1596, in: Kep- ler 1938-2003, Bd. 15, 2. Aufl., 1993 Kepler, Johannes: Astronomia Nova, 1609, in: Kepler 1938-2003, Bd. 3, 2. Aufl., 1990 Kepler, Johannes: Chilias logarithmorum, Marburg 1624 Klein, Felix: Gesammelte mathematische Abhandlungen, 3 Bde., Springer: Berlin 1922 Klein, Felix: Über die Arithmetisierung der Mathematik, 1895, in: Klein, 2. Bd., 1922: 232-240 Klein, Jacob: Die griechische Logistik und die Entstehung der Algebra, in: Quellen und Studien zur Geschichte der Mathematik, Astronomie und Physik, Abteilung B: Studien, Bd. 3, Erstes Heft, Berlin 1934: 18-105 und Zweites Heft, Berlin 1936: 122-235, (übersetzt von Eva Brann) Greek Mathematical Thought and the Origin of Algebra, Dover Publications: New York 1992 Klüver, Jürgen: Soziologie als Computerexperiment, Vieweg Verlagsgesell- schaft: Braunschweig 1995 Knobloch, Eberhard: Historical Aspects of the Foundation of Error Theory, in: Echeverria, Ibarra, Mormann 1992: 253-279 Knorr Cetina, Karin: The Manufacture of Knowledge. An Essay on the Con- structivist and Contextual Nature of Science, Pergamon Press: Oxford 1981 Knorr Cetina, Karin: Die Fabrikation von Erkenntnis, 2. Aufl., Suhrkamp: Frankfurt 2001 Knuth, Donald E.; Prado, Luis: Early Development of Programming Lan- guages, in: Metropolis, Howlett, Rota 1980: 197-273 Knuuttila, Tarja; Merz, M.; Mattila, E. (Hrsg.): Computer Models and Simula- tions in Scientific Practice (Special Issue), Science Studies: An Interdisci- plinary Journal for Science and Technology Studies 19, 1, 2006 Koch, Peter; Krämer, Sybille (Hrsg.): Schrift, Medien, Kognition. Über die Exteriorität des Geistes, Stauffenburg: Tübingen 1997 Koch, Peter: Graphé. Ihre Entwicklung zur Schrift, zum Kalkül und zur Liste, in: Koch, Krämer 1997: 43-82 Krämer, Sybille: Symbolische Maschinen. Die Geschichte der Formalisierung in historischem Abriß, Wissenschaftliche Buchgesellschaft: Darmstadt 1988 Krämer, Sybille: Berechenbare Vernunft. Kalkül und Rationalismus im 17. Jahrhundert, de Gruyter: Berlin, New York 1991 298 LITERATUR Krämer, Sybille: Kalküle als Repräsentation. Zur Genese des operativen Sym- bolismus in der Neuzeit, in: Rheinberger, Hagner, Wahrig-Schmidt 1997: 111-122 Krause, Egon: Einige grundsätzliche Aspekte numerischer Strömungssimula- tionen, in: Nagel 1996: 13-24 Krohn, Wolfgang: Die ‚Neue Wissenschaft‘ der Renaissance, in: Böhme, van den Daele, Krohn 1977: 13-128 Küppers, Günter; Lenhard, Johannes: Computersimulationen: Modellierungen zweiter Ordnung, in: Journal for General Philosophy of Science 36, 2005: 305-329 Kuhn, Thomas: The Structure of Scientific Revolution, Univ. of Chicago Press: Chicago 1962 Lagrange, Joseph-Louis: Oeuvres, 11 Bde., Gauthier-Villars et fils: Paris 1888 Lagrange, Joseph-Louis: Mécanique analytique, 1788, in : Lagrange, 11. Bd., 1888 Landau, Edmund: Grundlagen der Analysis, Chelsea Publ.: New York 1948 Laplace, Pierre-Simon de: Traité de mécanique céleste, 2 Bde., Desaint: Paris 1798-1825, (übersetzt von Friedrich Wilhelm August Murhard), Analyti- sche Mechanik, Vandenhoeck und Ruprecht: Göttingen 1797 Laplace, Pierre-Simon de: Traité de mécanique céleste, 5 Bde, J.B.M. Duprat: Paris 1798-1825, (Bd. 1 und 2 übersetzt von Johann Carl Burckhardt), Mechanik des Himmels, Berlin 1800-1802 Laplace, Pierre-Simon de: Essai philosophique sur les probabilités, Paris 1814, (herausgegeben von R. V. Mises) Philosophischer Versuch über die Wahr- scheinlichkeit, Akad. Verlagsgesellschaft: Leipzig 1932 Latour, Bruno; Woolgar, Steve: Laboratory Life: the Social Construction of Scientific Facts, Sage: Los Angeles 1979 Latour, Bruno: Science in Action, Harvard University Press: Princeton 1987 Latour, Bruno: Die Hoffnung der Pandora. Untersuchungen zur Wirklichkeit der Wissenschaft, Suhrkamp: Frankfurt 2002 Latour, Bruno: Zirkulierende Referenz, in: Latour 2002: 36-95 Latour, Bruno: Von der Fabrikation zur Realität. Pasteur und seine Milchsäu- refermente, in: Latour 2002: 137-174 Leeuwenhoek, Anthony van: Brief vom 12. September 1683 an die Royal So- ciety London, in: The Collected Letters of Antoni Van Leeuwenhoek, (herausgegeben von L.C. Palm et al.), 15 Bde., Swets and Zeitlinger: Am- sterdam 1939-1999 Leggett, G.R., et al.: Emissions Scenarios for the IPCC: an Update, in: Climate Change 1992: The Supplementary Report to The IPCC Scientific Assess- ment, Cambridge University Press, UK, 1992: 68-95 Leibniz, Gottfried W.: Novae methodus pro maximis et minimis, 1673 in: Acta eruditorum, Okt. 1684: 466-73 299 COMPUTEREXPERIMENTE Leibniz, Gottfried W.: Machina arithmetica in qua non additio tantum et sub- tractio sed et multiplicatio nullo, divisio vero paene nullo animi labore peragantur, 1685, ins Englisch übersetzt und teilweise nachgedruckt in: Goldstine 1993: 8 Leibniz, Gottfried W.: De geometria recondita et analysi indivisibilium atque infinitorum, in: Acta eruditorum, Mai 1686: 292-300 Leibniz, Gottfried W.: Briefwechsel mit Johann Bernoulli,1694, in: Gottfried W. Leibniz: Sämtliche Schriften und Briefe, III, Bd. 6, Akademie-Verlag: Berlin 2004 Leibniz, Gottfried W.: Explication de l'Arithmétique Binaire, in: Hans J. Za- cher: Die Hauptschriften zur Dyadik von G.W.Leibniz, Vittorio Kloster- mann: Frankfurt 1973 Leisen, Josef: Ansätze zur Mathematisierung der Elektrodynamik im 19. Jahr- hundert, 2008, Online Ressource: Studienseminar Koblenz, URL: http://www.leisen. studienseminar-koblenz.de Lenhard, Johannes; Küppers, G.; Shinn, T. (Hrsg.): Simulation: Pragmatic Construction of Reality – Sociology of the Sciences 25, Springer: Dordrecht 2007 Lenhard, Johannes: Artificial, False, and Performing Well, in: Gramelsberger 2010 (im Druck) Letwin, William: The origins of scientific economics: English economic thought 1660-1776, Methuen & Co.: London 1963 Levkov, L., Rockel, B., Kapitza, H., Raschke, E.: 3d mesoscale numerical studies of cirrus and stratus clouds by their time and space evolution, in: Beitr. Phys. Atmos. 65, 1992: 35-58 Lewis, John M.: Clarifying the Dynamics of the General Circulation: Phillip´s Experiment, in: Randall 2000: 91-164 Lin, Y.-L.; Farley, R. D.; Orville, H. D.: Bulk parameterization of the snow field in a cloud model, in: Journal of Climate and Applied Meteorology 22, 1983: 1065-1092 Linné, Carl von: Species Plantarum, 1753, Elektronische Ressource: Gallica bibliothèque numérique de la Bibliothèque nationale de France, URL: http://gallica.bnf.fr/ark:/12148/bpt6k96632j Lohmann, Ulrike; Roeckner, Erich: Design and performance of a new cloud microphysics scheme developed for the ECHAM4 general circulation model, in: Clim. Dyn., 12, 1996: 557-572 Lohmann, Ulrike; Feichter, J.; Kinne, S.; Quaas, J.: Approaches for constrai- ning global climate models of the anthropogenic indirect aerosol effect, 2006, Manuskript eingereicht bei: Bull. Am. Met. Soc (akzeptierte und publizierte Version: Lohmann 2007a) 300 LITERATUR Lohmann, U.; Quaas, J.; Kinne, S.; Feichter, J.: Different approaches for con- straining global climate models of the anthropogenic indirect aerosol ef- fect, in: Bull. Am. Meteorol. Soc., 88, 2007a: 243-249 Lorenz, Edward N.: Deterministic Nonperiodic Flow, in: Journal of the At- mospheric Sciences 20, 2, 1963: 130-141 Losee, John: Wissenschaftstheorie. Eine historische Einführung, Beck: Mün- chen 1977 Lovelace, Ada: Statement, 1842, Elektronische Ressource: Encyclopædia Bri- tannica, URL: http://www.britannica.com/EBchecked/topic/349551/Ada- King-countess-of-Lovelace Lovelace, Ada: Statement, 1843, Elektronische Ressource: Kerry.net, URL: http://www.kerryr.net/pioneers/ada.htm Luce, R. D.; Bush, R., Galanter, E. (Hrsg.): Handbook of Mathematical Psy- chology, 1. Bd., Wiley: New York 1963 Lüdtke, K.: Interdisziplinarität und Wissensentwicklung, in: Journal for Gen- eral Philosophy Science 26, 1993: 93-117 Lynch, Michael: Art and Artifact in Laboratory Science: A Study of Shop Work and Shop Talk in a Research Laboratory, Routledge Kegan & Paul: Beverly Hills 1985 Lynch, Peter: Richardson´s Marvellous Forcast, in: Shapiro, Gronas 1999: 61-73 Lynch, Peter: Richardson’s forecast factory: the 64.000 question, in: Meteorol. Mag. 122, 1993: 69-70 Magnani, Lorenzo; Nersessian, Nancy; Thagard, Paul (Hrsg.): Model-Based Reasoning in Scientific Discovery, Springer: New York 1999 Magnani, Lorenzo: Abduction, reason, and science: processes of discovery and explanation, Kluwer Academic Publishers: New York 2001 Magnani, Lorenzo; Nersessian, Nancy (Hrsg.): Model-Based Reasoning. Sci- ence, Technology, Values, Kluwer Academic Publishers: New York 2002 Magnetbandmuseum Wiesbaden: Homepage, 2009, URL: http://www.magnet bandmuseum.info Malpighi, Marcello: De pulmonibus observationes anatomicae, Brief an J. Alphons Borellium, Bolognia 1661 Malpighi, Marcello: An Account of Some Discoveries Concerning the Brain, and the Tongue, Made by Signior Malpighi, Professor of Physick in Sic- ily, in: Phil. Trans. R. Soc. 2, 1666/1667 Malcherek, Andreas: Hydromechanik der Oberflächengewässer, Version 5.0, Bundesanstalt für Wasserbau, 2001, Elektronische Ressource: Bundesan- stalt für Wasserbau, URL: http://www.baw.de/vip/abteilungen/wbk/Metho den/hnm/nummeth/nummeth1.pdf 301 COMPUTEREXPERIMENTE Manabe, Syukuro; Smagorinsky, J.; Strickler, R.F.: Simulated climatology of a general circulation model with a hydrological cycle, in: Mon.Weather Rev. 93, 1965: 769-798 Manabe, Syukuro; Wetherald, R.: Thermal equilibrium of the atmosphere with a given distribution of relative humidity, in: J. Atmos. Sci. 24, 1967: 241-259 Manabe, Syukuro; Bryan, K.: Climate calculations with a combined ocean- atmosphere model, in: J. Atmos. Sci. 26, 1969: 786-789 Manabe, Syukuro; Wetherald, R.: The effects of doubling the CO2 concentra- tion on the climate of a general circulation model, in: J. Atmos. Sci. 32, 1975: 3-15 Mandelbrot, Benoît B.: The Fractal Geometry of Nature, Freeman & Co: San Francisco 1982 Maskelyne, Nevil: Nautical almanac and astronomical ephemeris, London 1766 MATHCOMP Heidelberg Graduate School of Mathematical and Computa- tional Methods for the Sciences: Homepage, 2009, URL: http://www. mathcomp.uni-heidelberg.de/ Mattern, Friedemann; Mehl, Horst: Diskrete Simulation – Prinzip und Proble- me der Effizienzsteigerung durch Parallelisierung, in: Informatik- Spektrum 12, 1989: 198-210 Mattila, Erika: Questions to Artificial Nature: a Philosophical Study of Inter- disciplinary Models and their Functions in Scientific Practice. Philosophi- cal Studies from the University of Helsinki 14, Dark oy: Helsinki 2006 Mattila, Erika: Struggle between specificity and generality: How do infectious disease models become a simulation platform?, in: Küppers, Lenhard, Shinn, 2007: 125-138 Mayer, Eugen: Das Rechnen in der Technik und seine Hilfsmittel, Göschen: Leipzig 1908 Mayntz, Renate; Neidhardt, F.; Weingart, P.; Wengenroth, U. (Hrsg.): Wis- sensproduktion und Wissenstransfer. Wissen im Spannungsfeld von Wis- senschaft, Politik und Öffentlichkeit, transcript: Bielefeld 2008 Menninger, Karl: Zahlwort und Ziffer, 2. Aufl., Vandenhoeck & Ruprecht: Göttingen 1958 Merleau-Ponty, Maurice: Phénoménologie de la perception, Paris 1945 Merz, Martina: Multiplex and Unfolding: Computer Simulation in Particle Physics, in: Science in Context 12, 2, 1999: 293-316 Merz, Martina: Kontrolle – Widerstand – Ermächtigung: Wie Simulationssoft- ware Physiker konfiguriert, in: Rammert, Schulz-Schaeffer 2002: 267-290 Merz, Merz (2007): Locating the Dry Lab on the Lab Map, in: Lenhrad, Küp- pers, Shinn 2007: 155-172 302 LITERATUR Metcalf, Michael; Reid, John; Cohen, Malcolm: Fortran 95/2003 explained, Oxford University Press: Oxford 2004 Metropolis, N.; Howlett, J.; Rotta, Gian-Carlo (Hrsg.): A History of Comput- ing in the Twentieth Century, Academic Press: New York 1980 Meurer, Hans-Werner (Hrsg.): Supercomputer´92, Anwendungen, Architektu- ren, Trends, Springer: Berlin 1992 Miller, Clarc; Edwards Paul N. (Hrsg.): Changing the atmosphere: expert knowledge and environmental governance, MIT Press: Cambridge, Mass. 2001 Minsky, Marvin; Papert, Seymour: Perceptrons: An Introduction to Computa- tional Geometry, MIT Press: Cambridge 1969 M&D Modelle & Daten Gruppe: Homepage, 2009, URL: http://www.mad. zmaw.de/ Morgan, Mary S.; Morrison, Margaret (Hrsg.): Models as Mediators, Cam- bridge University Press.: Cambridge 1999 Morgan, Mary S.; Morrison, Margaret: Models as Mediating Instruments, in: Morgan, Morrison 1999: 10-37 Morgan, Mary S.: Models, Stories and the Economic World, in: Journal of Economic Methodology 8, 3, 2001: 361-84 Morgan, Mary S.: Model Experiments and Models in Experiments, in: Mag- nani, Nersessian 2002: 41-58 Morgan, Mary S.: Simulation: The Birth of a Technology to Create ‚Evidence’ in Economics, in: Revue d’Histoire des Sciences 57, 2, 2004: 341-77 Moser, Nora B.: Compiler method of automatic programming, in: Proc. Sym- posium Automatic Programming Digital Computers, Office of Naval Re- search, Dept. of the Navy: Washington D.C. 1954: 15-21 Moss, S. J.; Francis, P. N.; Johnson, D. G.: Calculation and parameterization of the effective radius of ice particles using aircraft data, in: Proc. 12th Int. Conf. on Clouds and Precipitation, Zurich, Switzerland, Int. Commission on Clouds and Precipitation and Int. Assoc. of Meteorology and Atmo- spheric Science, 1996: 1255-1258 MPI Met: Aufbruch in eine neue Rechenzentrumsgeneration, Tätigkeitsbericht des Max Planck Institut für Meteorologie, Hamburg 2008, Elektronische Ressource: MPI Met, URL: http://www.mpg.de/bilderBerichteDokumente/ dokumentation/jahrbuch/2009/dkrz/forschungsSchwerpunkt/pdf.pdf Munk, Max M.: Fundamentals of Fluid Dynamics for Aircraft Designers, The Ronald Press Company: New York 1929 Murakami, M.: Numerical modeling of dynamical and microphysical evolu- tion of an isolated convective cloud – the 19 July 1981 CCOPE cloud, in: Journal of the Meteorological Society of Japan 68, 1990: 107-128 Murphy, Allan H.: The Early History of Probability Forecasts: Some Exten- sions and Clarifications, in: Weather and Forecasting 13, 1998: 5-15 303 COMPUTEREXPERIMENTE Nagel, Wolfgang E. (Hrsg.): Partielle Differentialgleichungen, Numerik und Anwendung, Manuskripte der Vorlesungen der Sommerschule vom 2. bis 6. September 1996, Forschungszentrum Jülich, Bd. 18, 1996 NCAR National Center for Atmospheric Research: Homepage, 2009, URL: http://www.ncar.ucar.edu/ NCDC/NOAA National Climate Data Center/ National Oceanic and Atmos- pheric Administration 2009: Ice Core Data Search, Homepage, 2009, URL: http://hurricane.ncdc.noaa.gov/pls/paleo/fm_createpages.icecore NCEP/NCAR NCEP National Center for Environmental Modeling / NCAR National Center for Atmospheric Research: Reanalysis, 2009, URL: http://dss.ucar.edu/pub/reanalysis/ Nebeker, Frederik: Calculating the Weather. Meteorology in the 20th Century, Academic Press: San Diego 1995 Neunzert, Helmut: Mathematik und Computersimulation: Modelle, Algorith- men, Bilder, in: Braitenberg, Hosp 1995: 44-53 Neumann, John von; Morgenstern, Oskar: Theory of Games and Economic Behavior, Princeton University Press: Princeton 1944 Neumann, John von: Collected Works, Bd. 5: Design of Computers, Theory of Automata and Numerical Analysis (herausgegeben von A. H. Taub), Per- gamon Press: Oxford 1963 Neumann, John von: Numerical Calculation of Flow Problems, 1948, in: von Neumann 1963: 665-711 Neumann, John von: The general and logic Theory of Automata, 1951, in: von Neumann 1963: 288-328 Neumann, John von: Entwicklung und Ausnutzung neuerer mathematischer Maschinen, 1954, in: von Neumann 1963: 248-268 Neumann, John von; Richmyer, Richard D.: On the Numerical Soulution of Partial Differential Equations of Parabolic Type, 1947, in: von Neumann 1963: 652-663 Neumann, John von; Burks, Arthur W.: Theory of self-reproducing automata, University of Illinois Press: Urbana 1966 Napier, John: Mirifici logarithmorum canonis descriptio ejusque usus in utraque trigonometria etc., Edinburgh 1614, (übersetzt von William Rae Macdonald), The Construction of the Wonderful Canon Of Logarithms, W. Blackwood & Sons: Edinburgh, London, 1889 Navier, Claude-Louis: Memoire sur les lois du mouvement des fluides, in: Mem. Acad. Sci. Inst. France 6, 1822: 389-440 Neuroth, Heike; Kerzel, M.; Gentzsch, W. (Hrsg.): Die D-Grid Initiative, Uni- versitätsverlag: Göttingen 2007 Newton, Isaac: The Mathematical Papers of Isaac Newton, 8 Bde., Cambridge Univ. Press: Cambridge 1967-82 304 LITERATUR Newton, Isaac: De analysi per aequationes numero terminorum inflnitas, 1669, in: Newton, 2. Bd., 1981: 206-247 Newton, Isaac: De methodis serierum et fluxionum, 1671, The method of flux- ions and infinite series: with its application to the geometry of curve-lines, London 1736, Elektronische Ressource: Internet Archive, URL: http:// www.archive.org/details/methodoffluxions00newt Newton, Isaac: Philosophiae Naturalis Principia Mathematica, London 1687, Elektronische Ressource: Gallica bibliothèque numérique de la Biblio- thèque nationale de France, URL: http://gallica.bnf.fr/ark:/12148/bpt6k 3363w NIC John von Neumann-Institut für Computing: Homepage, 2009, URL: http://www.fz-juelich.de/nic/ Nimführ, R.: Die Bedeutung des Drachens für die dynamische Meteorologie und die Wetterprognose, in: Meteorologische Zeitschrift, September 1904: 408-412 NOAA National Oceanic and Atmospheric Administration: The History of Numerical Weather Prediction, 2009, Elektronische Ressource: NOAA, URL: http://celebrating200years.noaa.gov/foundations/numerical_wx_pred/ welcome.html#create Öllien, Frank: Algorithmen und Applikationen zur interaktiven Visualisierung und Analyse chemiespezifischer Datensätze, Dissertation, Friedrich-Ale- xander-Universität Erlangen-Nürnberg, 2002 Palmen, E.: Meridional circulations and the transfer of angular momentum in the atmosphere, in: J. Meteor. (Correspondence) 6, 1949: 429-430 Pearl, Judea: Bayesian Networks: A Model of Self-Activated Memory for Evidential Reasoning, in: (UCLA Technical Report CSD-850017) Pro- ceedings of the 7th Conference of the Cognitive Science Society, Univer- sity of California, Irvine, CA. 1985: 329-334, Elektronische Ressource: University of California, Irvine, URL: http://ftp.cs.ucla.edu/tech-report/ 198_-reports/850017.pdf Pearl, Judea: Causality: Models, Reasoning, and Inference, Cambridge Uni- versity Press: Cambridge 2000 Petersen, Arthur C.: Simulating Nature: A Philosophical Study of Computer- Simulation Uncertainties and Their Role in Climate Science and Policy Advice, Het Spinhuis Publishers: Apeldoorn, Antwerpen 2006 Pfeffer, R.L. (Hrsg.): Dynamics of Climate. The Proceedings of a Conference on the Application of Numerical Integration Techniques to the Problem of General Circulation, held October 26-28, 1955, Pergamon: Oxford 1960 Phillips, Norman: A simple three-dimensional model for the study of large- scale extratropical flow patterns, in: J. Meteor. 8, 1951: 381-394 Phillips, Norman: The general circulation of the atmosphere: A numerical ex- periment, in: Quart. J. Roy. Meteorol. Soc 82, 1956: 132-164 305 COMPUTEREXPERIMENTE Phillips, Norman: The Start of Numerical Weather Prediction in the United States, in: Spekat 2000: 13-28 Phillips, Norman: Foreword, in: Randall 2000a: XXVII-XXX Phillips, T.J., et al.: Evaluating parameterizations in general circulation models: Climate simulation meets weather prediction, in: Bull. Am. Meteorol. Soc. 85, 2004: 1903-1915 Piaget, Jean: Die Entwicklung des Erkennens, Bd.1, Klett: Stuttgart 1972 Piaget, Jean: Einführung in die genetische Erkenntnistheorie, Suhrkamp: Frankfurt 1973 PITAC President’s Information Technology Advisory Committee: Information Technology Research: Investing in Our Future, Report, 24.02.1999, Elek- tronische Ressource: PITAC – Report to the President; URL: http://www. nitrd.gov/pitac/report/pitac_report.pdf Planck, Max: Über eine Verbesserung der Wienschen Spektralgleichung, in: Verhandlungen der Deutschen physikalischen Gesellschaft 2, 1900: 202-204 Planck, Max: Zur Theorie des Gesetzes der Energieverteilung im Normalspek- trum, Vortrag 1900, in: Verhandlungen der Deutschen physikalischen Ge- sellschaft 2, 1900a: 237-245 Planck, Max: Sinn und Grenzen der exakten Wissenschaft, Vortrag 1941, J.A. Barth Verlag: Leipzig 1947 Planck, Max: Das Weltbild der neuen Physik, J.A. Barth Verlag: Leipzig, 1947a Poincaré, Henri: Sur le problème des trois corps, 1889, in: Bulletin Astrono- mique, I, 8, 1891: 12-24 Poincaré, Henri: La science et l'hypothèse, Paris 1902, Wissenschaft und Hy- pothese, Teubner: Leipzig 1904 Poincaré, Henri: Science et Méthode, Paris 1908, Wissenschaft und Methode, Teubner: Leipzig 1914 (Nachdruck) Wissenschaftliche Buchgesellschaft: Darmstadt 1973 Polya, George: Mathematics and Plausible Reasoning, Princeton University Press: Princeton 1954 Poovey, Mary: A History of the Modern fact. Problems of Knowledge in the Sciences of Wealth and Society, The University of Chicago Press: Chi- cago, London 1998 Popper, Karl: Logik der Forschung, 1935, 9. Aufl., J.C.B. Mohr: Tübingen 1989 Porter, Theodore M.: Trust in Numbers. The Pursuit of Objectivity in Science and Public Life, 2. Aufl., Princeton University Press: Princeton 1996 PRACE Partnership for Advanced Computing in Europe: Homepage, 2009, URL: http://www.prace-project.eu/ 306 LITERATUR PRACE: Memorandum of Understanding signed for the Partnership for Ad- vanced Computing in Europe, 17.04.2007, Elektronische Ressource: PRACE, URL: http://www.prace-project.eu/news/memorandum-of-under standing-signed-for-the-partnership-for-advanced-computing-in-europe-prace PRISM Programme for Integrated Earth System Modelling: Homepage, 2009, URL: http://www.prism.enes.org/ Pruppacher, H. R.; Klett, J. D.: Microphysics of Clouds and Precipitation, D. Reidel Publishing Company: Amsterdam 1978 Prusinkiewicz, Przemyslaw; Lindenmayer, Aristid: The Algorithmic Beauty of Plants, Springer: New York 1990 Ptolemäus, Claudius: Almagest, 150 n. Chr., Elektronische Ressource: Rare Book Collection, Vienna University Observatory, URL: http://www. univie.ac.at/hwastro/ Radder, Hans (Hrsg.): The Philosophy of Scientific Experimentation, Univer- sity of Pittsburg Press: Pittsburg 2003 Rammert, Werner; Schulz-Schaeffer, Ingo (Hrsg.): Können Maschinen han- deln? Soziologische Beiträge zum Verhältnis von Mensch und Technik, Campus: Frankfurt 2002 Randall, David A. (Hrsg.): General Circulation Model Development, Aca- demic Press: San Diego 2000 Reichle, Ingeborg; Siegel, S.; Spelten, A. (Hrsg.): Visuelle Modelle, Fink: München 2008 Reid, Elliot G.: Standardization Tests of NACA No. 1 Wind Tunnel, NACA- Report No. 195, 1925, Elektronische Ressource: National Advisory Com- mittee for Aeronautics, URL: http://naca.central.cranfield.ac.uk/reports/ 1925/naca-report-195.pdf Reynolds, Osborn: Papers on Mechanical and Physical Subjects, 1. Bd. 1869- 1882, Cambridge University Press: Cambridge 1900 Reynolds, Osborn: On Vortex Motion, 1877, in: Reynolds 1900: 184-192 Reynolds, Osborn: On Various Forms of Vortex Motion, 1877a, in: Reynolds 1900: 183 Rheinberger, Hans-Jörg; Hagner, M.; Wahrig-Schmidt, B. (Hrsg.): Räume des Wissens. Repräsentation, Codierung, Spur, Akademie-Verlag: Berlin 1997 Rheinberger, Hans-Jörg: Experimentalsysteme und epistemische Dinge. Eine Geschichte der Proteinsynthese im Reagenzglas, Wallenstein: Göttingen 2002 Rhiel, H.; Alaka, M.; Jordan, C.; Renard, R.: The Jet Stream, Meteorological Monography 7, American Meteorological Society 1954 Rice University: Center for Computational Geophysics, 2009 URL: http:// earthscience.rice.edu/ccg.cfm Richardson, Fry Lewis: Weather Prediction by Numerical Process, Cam- bridge Univ. Press: Cambridge 1922 307 COMPUTEREXPERIMENTE Ries, Adam: Rechnen auff der linihen, 1. Rechenbuch, Erfurt 1518 Roberts, Michael: The Modern Mind, The Macmillan Company: London 1937 Roche, John: The Mathematics of Measurement. A Critical History, Athlone Press: London 1998 Roeckner, Erich: Allgemeine Zirkulationsmodelle, Atmosphäre, in: Promet 29, 2003: 6-14 Roeckner, Erich; et. al.: The Atmospheric General Circulation Model ECHAM5. Model description, Report No. 349, Max-Planck-Institut für Meteorologie, Hamburg 2003. Elektronische Ressource: MPI-Met, URL: http://www.mpimet.mpg.de/fileadmin/publikationen/Reports/max_scirep_ 349.pdf Rohrlich, Fritz: Computer Simulation in the Physical Sciences, in: Fine, Frobes, Wessels 1991: 507-518 Rolle, Robert: Homo Oeconomicus: Wirtschaftsanthropologie in philosophi- scher Perspektive, Königshausen & Neumann: Würzburg 2005 Rosenblatt, Bruce: The Successors to FORTRAN – Why Does FORTRAN Survive?, in: IEEE Annals of the History of Computing 6, 1, 1984: 39-40 Rosenblatt, Frank: The perceptron. A probabilistic model for information stor- age and organization in the brain, in: Psychological Reviews 65, 1958: 386-408 Rosenblueth, Arturo; Wiener, Norbert: The Role of Models in Science, in: Philosophy of Science 12, 4, 1945: 316-321 Rossby, Carl-Gustav: The theory of atmospheric turbulence. A historical re- sumé and an outlook, in: Mon. Weather Rev. 55, 1927: 1-5 Rossby, Carl-Gustav: Letter to F. W. Reichelderfer, 16. April 1946, in: John von Neumann: Papers, Box 15, F7, Elektronische Ressource: Manuscript Division, Library of Congress, Washington, D.C. 1994, URL: http://www. loc.gov/rr/mss/text/vonneumn.html Rotstayn, L. D.: A physically based scheme for the treatment of stratiform precipitation in large-scale models. I: Description and evaluation of the microphysical processes, in: Quart. J. Roy. Meteorol. Soc. 123, 1997: 1227-1282 Rozenberg, Grzegorz; Salomaa, Arto: The Mathematical Theory of L- Systems, Academic Press: New York 1980 Rubbia, Carlo et al.: Report on the EEC Working Group on High Performance Computing, Commission of the European Communities, April 1991 Runge, Carl D.; König, Hermann: Vorlesung über numerisches Rechnen, Springer: Berlin 1924 Runge, Carl D.: Indirekte Vergleichung oder Messung, in: Encyklopädie der mathematischen Wissenschaften mit Einschluss ihrer Anwendungen, Bd.5, Teubner: Leipzig 1902: 3-24, Elektronische Ressource: GDZ Göt- 308 LITERATUR tinger Digitalisierungszentrum, URL: http://gdz.sub.uni-goettingen.de/no_ cache/dms/load/img/?IDDOC=189504 Sachs, Julius: Geschichte der Botanik vom 16. Jahrhundert bis 1860, Olden- bourg: München 1875, Elektronische Ressource: GDZ Göttinger Digitali- sierungszentrum, URL: http://gdz.sub.uni-goettingen.de/no_cache/dms/ load/img/?IDDOC=240152 SACADA Synoptic Analysis of Chemical Constituents by Advanced Satellite Data Assimilation: Homepage, 2009, URL: http://www.eurad.uni-koeln. de/index_e.html?/forschung/projekte/sacada_ver_e.html Saltzman, Barry (Hrsg.): Theory of Climate, Academic Press: New York 1983 SCAI Institute for Algorithms and Scientific Computing: Progress-Report, St. Augustin 1998 Schmandt-Besserat, Denise: Before Writing, I. From Counting to Cuneiform. II. A Cataloge of Near Eastern Tokens, Univ. of Texas Press: Austin 1992 Schmauß, August: Das Wetterproblem der Wettervorhersage, Akademische Verlagsgesellschaft: Leipzig 1942 Schmidt, Jan C.: Instabilität in Natur und Wissenschaft, de Gruyter: Berlin, New York 2008 Schneider, Pablo; Wedell, Moritz: Grenzfälle. Transformationen von Bild, Schrift und Zahl, VDG: Weimar 2004 Schramm, Helmar; Schwarte, L., Lazardig, J. (Hrsg.): Spektakuläre Experi- mente. Praktiken der Evidenzproduktion im 17. Jahrhundert, de Gruyter: Berlin, New York 2006 Schramm, Helmar: Einleitung. Kunst des Experimentellen, Theater des Wis- sens, in: Schramm, Schwarte, Lazardig 2006: 1-9 Schüling, Hermann: Die Geschichte der axiomatischen Methode im 16. und beginnenden 17. Jahrhundert, Olms: Hildesheim, New York 1969 Schulte, Joachim; McGuinness Brian (Hrsg.): Einheitswissenschaft, Suhr- kamp: Frankfurt 1992 Schultz, Carl Heinrich: Natürliches System der Pflanzen, August Hirschwald Verlag: Berlin 1832 Seck, Friedrich (Hrsg.): Wilhelm Schickard: 1592-1635; Astronom, Geograph, Orientalist, Erfinder der Rechenmaschine, Mohr: Tübingen 1978 Shackley, S.; Risbey, J.; Stone, P.; Wynne, B.: Adjusting to Policy Expecta- tions in Climate Change Modeling, in: Climatic Change 43, 1999: 413-454 Shapiro, M. A.; Gronas, S. (Hrsg.): The Life Cycles of Extratropical Cyclones, Amer. Met. Soc.: Boston 1999 Sillmann, Jana: Regionale Klimamodellierung. Wetterlagenklassifikation auf Basis des globalen Atmosphärenmodells ECHAM, Diplomarbeit TU Bergakademie Freiberg, 2003 309 COMPUTEREXPERIMENTE Sismondo, Sergio; Gissis, Snait (Hrsg.): Practices of Modeling and Simula- tion, Special Issue, Science in Context 12, 2, 1999 Sismondo, Sergio: Editor´s Introduction: Models, Simulations, and their Ob- jects, in: Science in Context 12, 2, 1999: 247-60 Skodvin, T.: Structure and Agent in the Scientific Diplomacy of Climate Change. An Empirical Case Study of Science-Policy Interaction in the In- tergovernmental Panel on Climate Change, Kluwer Academic: Dordrecht 2000 Smagorinsky, Joseph: On the numerical integration of the primitive equations of motion for baroclinic flow in a closed region, in: Monthly Weather Rev. 86, 1958: 457-466 Smagorinsky, Joseph: The beginnings of numerical weather prediction and general circulation modeling: early recollections, in: Saltzman 1983: 3-38 Smith, Adam: An Inquiry into the Nature and Causes of the Wealth of Na- tions, 1776 (Nachdruck) Collier: New York 1902, Elektronische Res- source: Internet Archive, URL: http://www.archive.org/details/wealthof nations00smituoft Soentgen, Jens; Reller, Armin (Hrsg.): CO2 – Lebenselixier und Klimakiller, Ökom: München 2009 Softguide: Homepage, Aktuelle Marktübersicht – Software für Simulation, 2009 URL: http://www.softguide.de/software/simulation.htm Spekat, Arne (Hrsg.): 50 Years Numerical Weather Prediction, Deutsche Me- teorologische Gesellschaft: Berlin 2000 Spiegel: Bombe im Rechner, Der Spiegel, Heft 3, 1965: 115-116 Sprat, Thomas (Hrsg.): The History of the Roayl Society Of London. For the Improving of Natural Knowledge, London 1667: 173-179, (herausgegeben von Jackson I. Cope, H. Whitmore Jones), Washington Univ. Studies: St. Louis 1959 SRES Special Report on Emissions Scenarios: IPCC 2000, Elektronische Res- source: IPCC, http://www.ipcc.ch/pdf/special-reports/spm/sres-en.pdf Stanford Encyclopedia of Philosophy: Models in Science, Februar 2006, Elek- tronische Ressource: Stanford Encyclopedia of Philosophy, URL: http:// plato.stanford.edu/entries/models-science/ Star, Susan Leigh; Bowker, Geoffrey C.: Sorting Things Out: Classification and Its Consequences, MIT Press: Cambridge 2000 Stichweh, Rudolf: Zur Entstehung des modernen Systems wissenschaftlicher Disziplinen: Physik in Deutschland 1740-1890, Suhrkamp: Frankfurt 1984 Stokes, George G.: Mathematical and Physical Papers, Vol. I, Cambridge Uni- versity Press: Cambridge 1880 Stokes, George G.: On the theories of the internal friction of fluids in motion, 1845, in: Stokes 1880: 75-115 310 LITERATUR Stokes, George G.: Report on recent researches in hydrodynamics, 1846, in: Stokes 1880: 157-187 Storch, Hans von; Güss, S.; Heimann, M.: Das Klimasystem und seine Model- lierung, Springer: Berlin 1999 Strätling, Susanne; Witte, Georg (Hrsg): Die Sichtbarkeit der Schrift, Fink: München 2006 Sturlese, Loris: Die deutsche Philosophie des Mittelalters. Von Bonifatius bis zu Albert dem Großen (748-1280), Beck: München 1993 Sundberg, Mikaela: Making Meteorology: Social Relations and Scientific Practice, Stockhol Studies in Sociology 25, Stockholm 2005 Suppes, Patrick; Zinnes, Joseph L.: Basic Measurement Theory, in: Luce, Bush, Galanter 1963: 1-76 Tetens, Holm: Experimentelles Handeln, Meiner: Hamburg 1987 Thornton, Peter E.; et al.: Archiving Numerical Models of Biogeochemical Dynamics, in: Eos Trans. AGU 86, November 2005: 431-432 Tompkins, A.: A prognostic parameterization for the subgrid-scale variability of water vapor and clouds in large-scale models and its use to diagnose cloud cover, in: J. Atmos. Sci. 59, 2002: 1917-1942 Top500 Supercomputer Site: Ranking, Juni 2009, URL: http://www.top500.org Torricelli, Evangelista: De motu gravium naturaliter descendentium, Florenz 1644 Turing, Alan M.: On Computable Numbers, with an Application to the Entscheidungsproblem,1936, in: Davis 1964: 115-153 Turkle, Sherry: Life on the Screen: Identity in the Age of the Internet, Simon & Schuster: New York 1995 Ulam, Stanisław: Collection of Mathematical Problems, Interscience Publish- ers: New York 1960 Ulam, Stanislav M.: Von Neumann: The Interaction of Mathematics and Computing, in: Metropolis, Howlett, Rota 1980: 93-99 UNICORE Uniform Interface to Computing Resources: Homepage, 2009, URL: http://www.unicore.eu/ Vec, Miloš: Recht und Normierung in der industriellen Revolution: Neue Strukturen der Normsetzung in Völkerrecht, staatlicher Gesetzgebung und gesellschaftlicher Selbstnormierung, Vittorio Klostermann: Frankfurt 2006 Vega, Juri: Thesaurus Logarithmorum Completus, Leipzig 1794 Vieta, Francois: Opera mathematica, in unum volumen congesta, ac recognita, opera atque studio Francisci Schooten, Elsevier: Leiden 1664 Vogl, S.: Die Physik des Roger Bacons, Erlangen 1904 Voss, Martin (Hrsg.): Der Klimawandel. Sozialwissenschaftliche Perspekti- ven, Wiesbaden: VS-Verlag 2008 311 COMPUTEREXPERIMENTE Warnke, Philine: Computersimulation und Intervention, Doktorarbeit an der Technischen Universität Darmstadt, 2002, Elektronische Ressource: TU Darmstadt, URL: http://elib.tudarmstadt.de/diss/000277 WCP World Climate Programme: Homepage, 2009, URL: http://www.wmo. int/pages/prog/wcp/index_en.html WCRP World Climate Research Programme: Homepage, 2009, URL: http:// wcrp.wmo.int WDC World Data Center: Homepage, 2009, URL: http://www.ngdc.noaa. gov/wdc/ WDC World Data Center for Paleoclimatology: Homepage, 2009, URL: http:// www.ncdc.noaa.gov/paleo/paleo.html WDCC World Data Center for Climate: Homepage, 2009, URL: http:// www.mad.zmaw.de/wdc-for-climate/ Weber, Wilhelm: Werke, 3 Bde., Springer: Berlin 1893 Weber, Wilhelm: Elektrodynamische Maßbestimmungen. Über ein allgemei- nes Grundgesetz der elektrischen Wirkung (1846), in: Weber, 3. Bd., 1893: 25-214 Wege, Klaus; Winkler, Peter: The Societas Meteorologica palatina (1780- 1795) and the very First Beginnings of Hohenpeissenberg Observatory, in: Emais, Lüdecke 2005: 45-54 Weisberg, Michael: Who is a modeller?, in: British Journal of Philosophy of Science 58, 2007: 207-233 Weyprecht, Carl: Fundamental Principles of Scientific Arctic Investigation, Vortrag zur 48. Versammlung der Deutschen Naturforscher und Ärzte, Graz 18. September 1875, Elektronische Ressource: SCAR Scientific Committee on Antarctic Research, URL: http://www.scar.org/ipy/ Weyprecht_Graz_1875.pdf Whittaker, Edmund T.; Robinson, George: The Calculus of Observations: A Treatise on Numerical Mathematics, 4. Aufl., Dover: New York 1967 Winsberg, Eric: Simulation and the Philosophy of Science: Computationally Intensive Studies of Complex Physical Systems, Dissertation an der Indi- ana University Bloomington, 1999 Winsberg, Eric: Sanctioning Models: The Epistemology of Simulation, in: Science in Context 12, 2, 1999: 275-292 Winsberg, Eric: The Hierarchy of Models in Simulation, in: Magnani, Nerses- sian, Thagard 1999a: 255-269 Winsberg, Eric: Simulations, Models, and Theories: Complex Physical Sys- tems and their Representations, in: Philosophy of Science 68 (Proceed- ings), 2001: 442-454 Winsberg, Eric: Simulated Experiments: Methodology for a Virtual World, in: Philosophy of Science 70, 2003: 105-125 312 LITERATUR Wittum, Gabriel: Mehrgitterverfahren. Effiziente Löser für partielle Differen- tialgleichungen, Vortrag gehalten zur Jahrestagung der Deutschen Mathe- matiker-Vereinigung, Universität Ulm 1995 Wissenschaftsrat: Stellungnahme zum Verein zur Förderung eines Deutschen Forschungsnetzes e.V., Drs. 5356/02, 12.7.2002, Elektronische Ressource: Wissenschaftsrat.de, URL: http://www.wissenschaftsrat.de/texte/5356-02.pdf WMO World Meteorological Organisation: Introduction to GRIB Edition1 and GRIB Edition 2, Juni 2003, Elektronische Ressource: WMO, URL: http://www.wmo.int/pages/prog/www/WMOCodes/Guides/GRIB/Introdu ction_GRI B1-GRIB2.pdf WMO World Meteorological Organisation: Homepage, 2009, URL: http:// www.wmo.int Wundt, Wilhelm: Logik. Eine Untersuchung der Prinzipien der Erkenntnis und der Methoden wissenschaftlicher Forschung, 2 Bde., Allgemeine Metho- denlehre, 2. Bd., Enke: Stuttgart 1894, Elektronische Ressource: GDZ Göttinger Digitalisierungszentrum, URL: http://gdz.sub.uni-goettingen.de /no_cache/dms/load/img/?IDDOC=299505 Zadeh, Lotfi A.: Fuzzy Sets, in: Information and Control 8, 1965: 338-353, Elektronische Ressource: UC Berkeley, URL: http://www-bisc.cs.berkeley. edu/Zadeh-1965.pdf Zadeh, Lotfi A.: Fuzzy Logic, Neural Networks, and Soft Computing, in: Communications of the ACM 37, 3, 1994: 77-84 Zuse, Konrad: Kommentar zum Plankalkül, in: Berichte der Gesellschaft für Mathematik und Datenverarbeitung, St. Augustin, Nr. 63, Teil 2, 1972: 36ff Zuse, Horst: Homepage zu Konrad Zuse und die Zuse KG, 2008, URL: http://www.horst-zuse.homepage.t-online.de/ Letzter Aufruf aller URLs: August 2009 313 Science Studies Nicholas Eschenbruch, Viola Balz, Ulrike Klöppel, Marion Hulverscheidt (Hg.) Arzneimittel des 20. Jahrhunderts Historische Skizzen von Lebertran bis Contergan Oktober 2009, 344 Seiten, kart., zahlr. Abb., 19,80 €, ISBN 978-3-8376-1125-0 Sandro Gaycken, Constanze Kurz (Hg.) 1984.exe Gesellschaftliche, politische und juristische Aspekte moderner Überwachungstechnologien (2., unveränderte Auflage 2009) 2008, 310 Seiten, kart., 29,80 €, ISBN 978-3-89942-766-0 Bernd Hüppauf, Peter Weingart (Hg.) Frosch und Frankenstein Bilder als Medium der Popularisierung von Wissenschaft Januar 2009, 462 Seiten, kart., zahlr. z.T. farb. Abb., 32,80 €, ISBN 978-3-89942-892-6 Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de 2009-11-20 16-39-00 --- Projekt: transcript.anzeigen / Dokument: FAX ID 02ed226632397102|(S. 1- 3) ANZ986.p 226632397110 Science Studies Gesine Krüger, Ruth Mayer, Marianne Sommer (Hg.) »Ich Tarzan.« Affenmenschen und Menschenaffen zwischen Science und Fiction 2008, 184 Seiten, kart., zahlr. Abb., 22,80 €, ISBN 978-3-89942-882-7 Marion Mangelsdorf, Maren Krähling, Carmen Gransee Technoscience Eine kritische Einführung in Theorien der Wissenschafts- und Körperpraktiken Februar 2010, ca. 150 Seiten, kart., ca. 13,80 €, ISBN 978-3-89942-708-0 Philippe Weber Der Trieb zum Erzählen Sexualpathologie und Homosexualität, 1852-1914 2008, 382 Seiten, kart., 29,80 €, ISBN 978-3-8376-1019-2 Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de 2009-11-20 16-39-00 --- Projekt: transcript.anzeigen / Dokument: FAX ID 02ed226632397102|(S. 1- 3) ANZ986.p 226632397110 Science Studies Ralf Adelmann, Wilfried Heinzelmann Jan Frercks, Sozialhygiene als Martina Hessler, Gesundheitswissenschaft Jochen Hennig Die deutsch/deutsch-jüdische Datenbilder Avantgarde 1897-1933. Eine Zur digitalen Bildpraxis in den Geschichte in sieben Profilen Naturwissenschaften Oktober 2009, 430 Seiten, Juni 2009, 224 Seiten, kart., kart., zahlr. Abb., 29,80 €, zahlr. z.T. farb. Abb., 25,80 €, ISBN 978-3-8376-1144-1 ISBN 978-3-8376-1041-3 Jochen Hennig Kai Buchholz Bildpraxis Professionalisierung der Visuelle Strategien in wissenschaftlichen der frühen Nanotechnologie Politikberatung? März 2010, ca. 338 Seiten, kart., Interaktions- und zahlr. z.T. farb. Abb., ca. 32,80 €, professionssoziologische ISBN 978-3-8376-1083-3 Perspektiven Renate Mayntz, 2008, 240 Seiten, kart., 25,80 €, ISBN 978-3-89942-936-7 Friedhelm Neidhardt, Peter Weingart, Michael Eggers, Ulrich Wengenroth (Hg.) Matthias Rothe (Hg.) Wissensproduktion und Wissenschaftsgeschichte als Wissenstransfer Begriffsgeschichte Wissen im Spannungsfeld Terminologische Umbrüche im von Wissenschaft, Politik Entstehungsprozess der und Öffentlichkeit modernen Wissenschaften 2008, 350 Seiten, kart., 29,80 €, Mai 2009, 274 Seiten, kart., 27,80 , ISBN 978-3-89942-834-6€ ISBN 978-3-8376-1184-7 Katja Patzwaldt Heiner Fangerau, Die sanfte Macht Thorsten Halling (Hg.) Die Rolle der wissenschaftlichen Netzwerke Politikberatung bei den Allgemeine Theorie oder rot-grünen Arbeitsmarkt- Universalmetapher in den reformen Wissenschaften? Ein 2008, 300 Seiten, kart., 29,80 €, transdisziplinärer Überblick ISBN 978-3-89942-935-0 August 2009, 296 Seiten, kart., zahlr. Abb., 27,80 , Gerlind Rüve€ ISBN 978-3-89942-980-0 Scheintod Zur kulturellen Bedeutung der Schwelle zwischen Leben und Tod um 1800 2008, 338 Seiten, kart., 31,80 €, ISBN 978-3-89942-856-8 Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de 2009-11-20 16-39-01 --- Projekt: transcript.anzeigen / Dokument: FAX ID 02ed226632397102|(S. 1- 3) ANZ986.p 226632397110