Stefan Böhme / Rolf F. Nohr / Serjoscha Wiemer (Hrsg.) Sortieren, Sammeln, Suchen, Spielen Medien ’ Welten Braunschweiger Schriften zur Medienkultur, herausgegeben von Rolf F. Nohr Band 18 Lit Verlag Münster/Hamburg/Berlin/London Lit Stefan Böhme / Rolf F. Nohr / Serjoscha Wiemer (Hrsg.) Sortieren, Sammeln, Suchen, Spielen. Die Datenbank als mediale Praxis Lit Bucheinbandgestaltung: Tonia Wiatrowski / Rolf F. Nohr / Stefan Böhme / Serjoscha Wiemer unter Verwendung diversen Bildmaterials (für Nachweis und © s. Abbildungsverzeichnis), Buchgestaltung: © Roberta Bergmann, Anne-Luise Janßen, Tonia Wiatrowski http://www.tatendrang-design.de Satz: Arne Fischer / Rolf F. Nohr Lektorat: Jasmin Feldberg / Anne Kliche © Lit Verlag Münster 2012 Grevener Straße / Fresnostraße 2 D-48159 Münster Tel. 0251-23 50 91 Fax 0251-23 19 72 e-Mail: lit@lit-verlag.de http://www.lit-verlag.de Chausseestr. 128 / 129 D-10115 Berlin Tel. 030-280 40 880 Fax o30-280 40 882 e-Mail: berlin@lit-verlag.de http://www.lit-verlag.de/berlin/ Die Onlineausgabe dieses Buches ist deckungsgleich mit der 1. Auflage der Druckversion. Die Onlineausgabe ist lizenziert unter einer Creative Commons Namensnennung - Nicht-kom- merziell - Weitergabe unter gleichen Bedingungen 3.0 Unported Lizenz.(http://creativecom- mons.org/licenses/by-nc-sa/3.0/deed.de) Bibliografische Information der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.ddb.de abrufbar. ISBN 978-3-643-11086-2 Printed in Germany Gedruckt mit Mittel der DFG (Projekt NO 818/1-1) Inhaltsverzeichnis Stefan Böhme /Rolf F. Nohr / Serjoscha Wiemer 9 Einleitung Genealogie & Archäologie der Datenbank Lena Christolova 31 Das Mundaneum oder das papierne Internet von Paul Otlet und Henri La Fontaine Marcus Burkhardt 55 Informationspotentiale. Vom Kommunizieren mit digitalen Datenbanken Theo Röhle 75 »Grand games of solitaire«. Textuelle Ordnungen in den Digital Humanities Uwe Wippich 97 Eugenische Daten – Die Datenpraktiken des Eugenics Record Office Die Politiken der Datenbank Martin Warnke 122 Datenbanken als Zitadellen des Web 2.0 Harald Hillgärtner »Oh, wie süß ist doch die Datenbank!« 137 Zum Aspekt nicht-hegemonialer Datenbanken Tobias Conradi 159 Prüfen und Bewerten – Redaktionelle Medien als Gatekeeper der Datenbank? Inhaltsverzeichnis 5 183 Julius Othmer / Stefanie Pulst/ Andreas Weich WTF is my GearScore? – Risiko und Sicherheit als datenbankgenerierte Ele- mente im Computerspiel Die Praktiken der Datenbank 209 Felix Raczkowski Von fiktiven Enzyklopädien und realen Datenbanken – Ästhetiken von Fan-Wikis 233 Gunnar Sandkühler Die Datenbank als Karte. Zur Verwendung von Geo-Informationssystemen im Computerspiel 253 Ralf Adelmann »There is no correct way to use the system«. Das doppelte Subjekt in Daten- banklogiken 269 Irina Kaldrack Gehen in der Datenbank – der BMLwalker 295 Florian Krautkrämer Database Cinema? Datenbankästhetik im Film 315 Christian Huberts / Robin Krause Datenbanken als Spielräume – »This is a path winding through a dimly lit forest«. 339 Autorennachweis 345 Bildnachweis 6 Inhaltsverzeichnis 7 8 Stefan Böhme /Rolf F. Nohr / Serjoscha Wiemer Einleitung Die Datenbank ist eine der zentralen Instanzen, über die sich ein spezifischer Rationalitätsbe- griff in unsere digitale Kultur einträgt. Sie ist Ordnungsfunktion, Architektur und Regierung der Daten, Objekt und Subjekt des Rechners. Je- des Suchen, Sammeln oder Sortieren ruft den Diskurs einer spezifischen Logik der Verwaltung auf: Jedes Abfragen, Selektieren oder Gruppie- ren von Daten ist ein Handeln an einem zumeist Abb.1: Auch wenn die Struktur der Daten- unsichtbaren, dennoch omnipräsenten, viel- bank unter mehreren Schichten Marketing fach ausgreifenden und hochrationalen Gegen- verborgen wird, wird deutlich wie stark sie über. Die Datenbank interpelliert ihre Benutzer unsere Wahrnehmung und unser Denken zu Subjekten einer Abfrageordnung. Diese Inter- strukturiert: »Jemand wartet auf Dich« als pellation betrifft zudem Bereiche, die der Logik Versprechen, dass der richtige Datensatz der Datenbank zunächst sehr fern scheinen: So bereits gespeichert ist. Er muss nur noch werden beispielsweise im Online-Dating auch gefunden werden(Parship Partnersuche, Liebe und Partnerschaft einer Suchfunktion zu- [www.parship.de]) gänglich gemacht.¯1 In der Medienwissenschaft ist die Datenbank aus unterschiedlichen Perspektiven thematisiert worden. Lev Manovich (1999) hat die Datenbank als ›symbolische Form‹ konzeptualisiert und damit – in Anleh- nung an Erwin Panofskys berühmte Studie zur Zentralperspektive – die Daten- bank als charakteristische Signatur für die veränderte Stellung des Menschen im Zeitalter elektronischer Datenverarbeitung aufgerufen. Für Manovich löst die Datenbank die lineare Anordnung von Elementen auf, die sich in Medien oftmals auch materiell manifestiert. Vielmehr privilegiert die Datenbank die Materialität der einzelnen Elemente und verschiebt die Reihenfolge (und damit die auf die Elemente wirkende Ordnungspolitik) in den immateriellen Bereich. Für Mark Poster (1995) ist die Datenbank kennzeichnend für den gegenwär- tigen ›Modus der Information‹ und damit entscheidend für die Handhabung, Verteilung und Produktion von Wissen und Macht. Darüber hinaus fordert Po- Einleitung 9 ster dazu auf, die Datenbank als ›Sprache‹ und – im Anschluss an Foucault – als Diskurs zu begreifen. Datenbanken sind nicht nur Instanzen der Produktion von Wissen, Ordnung und Sichtbarkeit, sondern zudem, so Poster, »Instanzen der elektronischen Interpellation« (ebd., 78) gesellschaftlicher Subjekte. Da- tenbanken bringen spezifische Subjektivierungseffekte hervor und sind als Diskurse und Praxen Bestandteil der Rekonfiguration und Konstitution von Subjekten. Damit wird die Datenbank als eine Machttechnologie beschrieben, die insbesondere die politische Trennung von öffentlich und privat irritiert und an der Konstitution dezentrierter Subjekte mitwirkt. David Gugerli hat in jüngster Zeit die Datenbank im Zusammenhang der Geschichte und Kultur von Suchfunktionen und Suchmaschinen thematisiert. In Suchmaschinen – Die Welt als Datenbank(2009a) bringt er so unterschiedliche Gegenstandsbereiche wie Fernsehsendungen (Robert Lembkes Was bin ich oder Eduard Zimmermanns Aktenzeichen XY) mit polizeilichen Maßnahmen (Horst Herolds Rasterfahn- dung) und Edgar Codds Erfindung der relationalen Datenbank zusammen. Gu- gerli macht deutlich, wie weit der Einfluss der Technik und Kultur der Daten- bank in einer mentalitätsgeschichtlichen Perspektive reicht. Der vorliegende Sammelband widmet sich (wie schon die ihm zugrunde lie- gende Tagung)¯2 der Datenbank im Hinblick auf die Frage nach ihrer Signifi- kanz für eine durch digitale Technologien und ludische Praxen¯3 geprägte Me- dienkultur. Sortieren, Sammeln, Suchen und Spielen werden dabei als zentrale Bereiche medialer Praxen begriffen, die sich auf Datenbanken rückbeziehen lassen und spezifisch durch diese ›in-formiert‹ werden. Generell lässt sich die Datenbank als eine zentrale (macht- und steuerungspolitische) Instanz(›Bank‹) verstehen, die Daten geordnet archiviert und manifestiert. Die Ablage der Da- ten führt dabei zu einer anhaltenden Speicherung (Persistenz), anders als beispielsweise bei der f lüchtigen Speicherung von Daten in Programmvaria- blen im Arbeitsspeicher eines Computers (Transienz).Die Datenbank operiert also auch im Sinne beispielsweise Hartmut Winklers (2004) ›diskursökono- misch‹.¯4 In Verbindung mit unterschiedlichen Operationen wie zum Beispiel Filtern, Verknüpfen, Rekombinieren, Exportieren, Aggregieren, Abfragen, etc. stellt die Datenbank als mediale Praxis ›Schnittstellen‹ für die Verschränkung von Datenverarbeitung mit unterschiedlichen kulturellen, ökonomischen, künstlerischen, politischen oder naturwissenschaftlich-medizinischen Hand- lungsfeldern bereit.¯5 Als kulturelle und informatorische Grammatik produ- ziert die Datenbank spezifische Sichtbarkeiten und Subjektivierungseffekte. Nicht nur softwaregeschichtlich, sondern auch in einer Perspektive der Wis- senschaftsforschung und -geschichte lässt sich die Datenbank in eine Linie der Reduktion und Rationalisierung einordnen. In der Tradition der Tabellen, Loch- 10 Stefan Böhme / Rolf F. Nohr / Serjoscha Wiemer karten, Zettelkästen oder Bibliothekssystematiken steht die Datenbank in und für die Kulmination einer Geschichte der (An-)Ordnung, Relationierung und Auffindbarmachung(vgl. bspw. Krajewski 2007). Die heute üblichen Datenbanken basieren technisch zumeist auf dem Modell der relationalen Datenbank, wie es 1970 von Edgar F. Codd bei IBM vorgeschla- gen wurde.¯6 Dabei werden die einzelnen Daten in Tabellen gespeichert. Jeder Tabellenzeile ist ein Schlüssel zugeordnet. Mit diesem eindeutigen Identifika- tor können die einzelnen Datensätze dann untereinander beliebig verknüpft werden. Codds Ansatz wurde in den 1970er Jahren sehr kritisch und intensiv diskutiert, stand er doch im Gegensatz zum damals üblichen fest hierarchi- schen Aufbau von Datenbanken. Dieser feste interne Aufbau machte zudem umfangreiche Fachkenntnisse und Wissen über den internen Aufbau und die Adressierung der Daten erforderlich. Um auf die Daten zuzugreifen, waren dementsprechend Spezialisten notwendig. Codd setzte dagegen auf die Vor- stellung, dass jeder Datenbanken nutzen können sollte: »Future users of large data banks must beprotected from having to know how the data isorganized in the machine (the internal representation)« (zit. n. Gugerli 2009a). Für eta- blierte Fachleute stellte dies einen Angriff auf ihr arkanes Herrschaftswissen dar, der nicht sogleich Zustimmung fand. Davon jedoch unbeeindruckt arbeite- te Codd die mathematischen Grundlagen seines Datenbankmodells weiter aus. Mitte der siebziger Jahre waren die wichtigsten Begriffe geklärt und verfügbar, wie David Gugerli festhält: »Alle Daten eines relationalen Datenbanksystems müßten durch ein zusammengehöriges Set von klar bezeichneten Tabellen, sogenannten Relationen, dargestellt werden können. Innerhalb jeder Relation gebe es eindeutig bezeichnete Spalten. Die Ordnung der Reihen spiele keine Rolle, aber jede Reihe stelle ein adressierbares Element der von der Relation beschriebenen Entität dar. Sie müsse von andern unterscheidbar sein und dürfe nur einmal vorkommen. Zusätzlich habe jede Relation eine Spalte, die als Primärschlüssel bezeichnet werde« (ebd., 77). Relationale Datenbanken machen Daten folglich in Tabellen operabel. Denn Da- ten werden gespeichert, um sie später wieder auszulesen und insbesondere, um sie zu durchsuchen und neu zu kombinieren. Mit dem Prototypen ›System R‹ demonstrierte IBM dann 1975, dass die Ideen von Codd auch in der Praxis umsetzbar waren. Für die Abfrage der Daten im System R wurde zudem die Ab- fragesprache SEQUEL (»Structured English Query Language«) entwickelt, aus der später SQL¯7 wurde (vgl. Chamberlin u. a. 1981).¯8 SQL und relationale Datenbank setzten sich schließlich für Jahrzehnte als industrieller Standard durch. Einleitung 11 Sortieren Jeder Datenbank wohnt zunächst ein Prozess des Sortierens und Ordnens inne, mit dem sie Politiken der Distinktion und Definition implementiert. Ein undif- ferenziertes ›homogenes‹Kontinuum wird anhand einer ausgewählten Taxo- nomie mit klar benennbaren Merkmalen in einzelne, trennscharf voneinander abgegrenzte Elemente aufgeteilt. Die Datenbank braucht Ordnung und stellt sie gleichzeitig her. Ebenso ist eine Datenbank eine Exklusionsform: Nur was ›datenbankkompatibel‹ ist, also was in Form eines (zumeist ja auch digitalen) Datums vorliegt, kann integriert werden. Nur was benennbar, adressierbar und damit identifizierbar ist, kann in einer Datenbank Platz finden. Aufteilung geht dabei aber zwangsläufig einher mit Auslassung. Welche Daten wie abgebildet werden ist das Ergebnis von je spezifischen Zielen, Interessen und kulturellen Setzungen. Die zwingende Aufteilung und Einordnung bringt es zudem mit sich, dass Dinge passend gemacht werden, auch wenn sie nicht passen. Nicht immer orientiert sich das zugrundeliegende Datenbankmodell an der abzubil- denden Wirklichkeit, bisweilen hat sich die Wirklichkeit an die Möglichkeiten des Modells anzupassen, um abbildbar zu werden.Die Datenbank strukturiert damit nicht nur die in ihr verwalteten Elemente, sondern lenkt auch die Auf- merksamkeit ihrer Nutzer – sei es durch die Datenräume, die Strukturierung der Programme oder die Präsentation der Ergebnisse (vgl. Gugerli 2009a). Ist die Ordnung für die Datenbank ersteinmal etabliert, kann sie zudem die Aus- gangsbasis für weitere Festlegungen und Sortierungen bilden. Ihre immanente Ordnung ist Teil und Ausdruck einer spezifischen Rationalität. Im Moment der Analyse, also der systematischen Untersuchung eines Sachverhalts hinsichtlich seiner einzelnen Elemente, verbindet sich die Datenbank zudem mit Prozessen der Planung und der Strategie. Sammeln Steht die Datenbank erst einmal bereit, will sie möglichst umfangreich gefüllt werden. Die erfassten Daten sind dabei so unterschiedlich wie die Einsatzge- biete von Datenbanken. Doch geht es nicht nur um die reine Auflistung. Nutz- bar werden die Daten vor allem, wenn sie untereinander verknüpft werden (Re- lation). Eine Relation ist allgemein eine Beziehung, die nicht im Vagen bleiben kann. Relationen tendieren dazu bestehende Ordnungen zu hierarchisieren. Dinge in Relation zu setzen, bedeutet nicht nur die relationierten Dinge zu de- finieren, sondern auch deren Beziehung zueinander in ein Schema zu überfüh- 12 Stefan Böhme / Rolf F. Nohr / Serjoscha Wiemer ren. Als zentrales Element für zeitgenössische Ordnungen und Produktionen von Wissen ist die Datenbank in ihrer Bedeutung damit keineswegs auf Pro- zesse der Datenverarbeitung im engeren Sinne beschränkt. Dies wird beispiels- weise dort anschaulich, wo Datenbanken im Spannungsfeld von Übersicht und Überwachung Verwendung finden und unmittelbar an polizeiliche Maßnah- men angeschlossen sind, oder wenn Samenbanken, Blutbanken oder Gen- banken zu wichtigen Werkzeugen der Lebenswissenschaften werden. Daten- banken sind somit auch Werkzeuge der Selbstführung und der Gouvernance. Mit Walter Benjamin lässt sich ein anders konturierter Begriff des Sammelns umfassen, der zunächst mehr auf ein Verständnis der Sammlung als Subjekt- praktik hinausläuft – letztlich aber nicht minder als politisch verstanden wer- den kann: »Es ist beim Sammeln das Entscheidende, daß der Gegenstand aus allen ursprünglichen Funkti- onen gelöst wird, um in die denkbar engste Beziehung zu seinesgleichen zu treten. [...] Und für den wahren Sammler wird in diesem Systeme jedwedes einzelne Ding zu einer Enzyklopädie al- ler Wissenschaft von dem Zeitalter, der Landschaft, der Industrie, dem Besitzer, von dem es her- stammt. Es ist die tiefste Bezauberung des Sammlers, das Einzelne in seinen Bannkreis einzu- schließen, indem es, während ein letzter Schauer (der Schauer des Erworbenwerdens) darüber hinläuft, erstarrt« (Benjamin 1983, H1a,271). Eine radikale Form der Dekontextualisierung, Umdeutung und Begehrens- bildung ist es also, was den Kern des (An-)Sammelns und Zusammenstellens bildet. Nicht das ›Musealisieren‹ (im Sinne eines Dekontextualisierens) oder ›Komplettieren‹ (im Sinne der Kanonisierung) – landläufige Zuschreibungen der Sammelleidenschaft – stehen im Fokus, sondern Effekte der »Erstarrung«. Diese Verfügungsgewalt über die Dinge (also sie ihrem Kontext zu entreißen und in der Datenbank erstarren zu lassen) zeichnet die weniger konkrete oder operationale Machtfunktion der Datenbanken als Sammlung aus. Es würde zu weit führen die Handlung des Sammelns in all ihrer historischen, psycholo- gischen, ethnographischen oder anthropologischen Dimension hier auf die Per- spektive zur Datenbank hin befragen zu wollen (vgl. dazu bspw. Pomian 2001). Sammeln ist aber generell nie ein zweckfreies spielerisches Tun, eine stille äs- thetische Verzückung oder die Verwirklichung des Besitztriebes, sondern eine fundamentale Tätigkeit, in der Objekte zu Zeichenträgern werden und der Um- gang mit ihnen stets auf die Überwindung der Grenze zwischen Sichtbarem und Unsichtbarem hinzielt, ein imaginativer Akt der Kompensation. Der Be- trachter oder Benutzer solcher umfassenden Vollständigkeit oder Universali- tät anstrebenden Sammlungen wird zum Teil eines (immer imaginierten) Wel- tentheaters. Einleitung 13 Suchen ›Suchen‹ ist heutzutage eine der wichtigsten Handlungen im World Wide Web. Die Suche beziehungsweise die Suchmaschine bildet für viele Nutzer einen selbstverstädnlichen (und fast schon naturalisierten) Ausgangs- oder Start- punkt in das Netz. Die Suchmaschine fungiert wahlweise als Gatekeeper, Ord- nungsfunktion, Zentralinstanz oder Bibliothekar des Netzes: »Die Suchmaschinen können nur deshalb eine so zentrale Position einnehmen, weil man ihnen in gewisser Weise Neutralität unterstellt. Weil sie gerade nicht ein inhaltliches Angebot ma- chen, sondern in rein dienender Funktion, als ein Service und ein neutraler Vermittler, auftre- ten. Aus der Dialektik von Herr und Knecht aber wissen wir, daß sich hinter der Devotion des Knechtes eine um so wirkungsvollere Einflußnahme verbirgt. Es könnte also lohnen, die Neutra- lität des Vermittlers zu befragen; und gleichzeitig die eigene Naivität, die sich einen neutralen Vermittler, wie es scheint, so sehr wünscht« (Winkler 1997b, 188). Gerade das omnipräsente wie omnipotente Beispiel Google zeigt aber, dass die Organisation der Suche nicht neutral verstanden werden kann, sondern zumindest eine ökonomische, wenn nicht gar eine politische Komponente hat: Google ist nicht der Zettelkasten einer Staatsbibliothek, sondern ein nur vor- geblich kostenloses Serviceangebot eines global agierenden Konzerns. Eine Suchmaschine wie Google ist heute ein Metamedium, ein Interface, ein Fil- ter, eine Ordnungs- und Machtfunktion, ein Akteursverbund ebenso wie ein tracking-device und eine Kontrollinstanz (vgl. Röhle 2010) – kurzum kann eine Suchmaschine aktuell durchaus als Dispositiv veranschlagt werden. Eine Suchmaschine sucht in einer Datenbank. Dabei kann natürlich nur das gefunden werden, was zum einen importiert beziehungsweise eingepflegt wurde, und zum anderen auffindbar ist. Auch wenn Datenbanken auf nahe- zu beliebige Möglichkeiten zur Rekombination ihrer Daten zielen, können sie der grundlegenden Sortierung der Dinge kaum entkommen. Jede Anfrage an eine Datenbank wird daher als Antwort immer eine wohlgeordnete Ausgabe von zutreffenden Merkmalseignern enthalten, nie jedoch echte Kausalitäten oder Sinnzusammenhänge. Auch wenn dies eine populäre Wunschkonstella- tion ist, muss diese der Nutzer nach wie vor selbst herstellen. Interessant ist diese Verwechslung und Wunschkonstellation aber allemal. Viele Arten von Datenbanken sind womöglich weniger ›wohlgeordnet‹, ›taxonomisch‹ oder hiera rchisch, der Nutzer und Sucher dies konzeptualisiert. Die Ergebnisse von Google sind weitaus weniger das Produkt einer spezifischen Rationalität als vielmehr eines Geschäftsgeheimnisses – dem Suchalgorithmus von Google. 14 Stefan Böhme / Rolf F. Nohr / Serjoscha Wiemer Spielen Die Datenbank steht aber auch über ihre latente Unsichtbarkeit und Naturali- sierung in einem Spannungsverhältnis zu Subjekt und technischem Medium. Oftmals verschwindet die Datenbank hinter ihrem Interface. Das gilt in he- rausgehobenem Maße für Anwendungen, bei denen die Datenbank aus opera- tionalen Gründen im ›Hintergrund‹ bleiben soll. Exemplarisch hierfür können Computerspiele und die ihnen spezifischen Metaphorisierungen angesehen werden. Die Funktionalität von Spiel-Interfaces zielt stark auf die Prozessu- alität des Spiels und arbeitet der Versinnlichung, »Ver-Unmitellbarung« und Naturalisierung des Arbiträren und Ideologischen zu – zugleich kann der Ein- satz von Datenbanken im zeitgenössischen Computerspiel als ein charakteri- stisches Strukturmerkmal gelten. Insbesondere die Auseinandersetzung mit dem Computerspiel bietet aus unserer Sicht daher auch fruchtbare Zugänge, um die Datenbank medientheoretisch zu perspektivieren. Die vielbeschwore- nen Alleinstellungsmerkmale des Spiels – Immersion und Partizipation – er- öffnen nicht nur eine Brücke zu einem neuen Handlungsbegriff in Bezug auf den Rechner, sie sind auch das Einfallstor für die »Verunsichtbarung des Ge- machten« (Nohr 2008). Hier folgt unser Argument der Apparatusdebatte, die ein Technikverständnis postuliert, das (Medien-)Technologie als nicht-neu- tral, sondern als ideologisch ›imprägniert‹ begreift. Die Effektivität dieser Im- prägnierung garantiert sich aus der Unsichtbarkeit des Apparats sowie sei- ner ideologischen Eingebundenheit in der Rezeption. In der Weiterschreibung der Apparatusdebatte kann die Frage, wie Technik Inhalte determiniert, nicht ohne Bezugnahme auf die Ebene des Codes und des Symbolischen beantwortet werden. Dieses Symbolische (im Falle des Computerspiels eben beispielsweise in Form des Interfaces) ist genuiner und essentieller Bestandteil des Disposi- tivs einerseits, andererseits aber auch des Common Sense. Insofern greifen die Naturalisierungstendenz und ideologische Überformung des Computerspiel- Dispositivs also nicht nur auf die Verunsichtbarung des Gemachten der Bild- sprache zu, sondern manifestieren sich ebenso in der Verunsichtbarung der Herkunft der Bildsprache aus dem Common Sense. Die Verunsichtbarung des Gemachten ergibt sich aus der Naturalisierung der bildsprachlichen Gestalt, die sich durch eine hochgradige Konventionalisierung und Stereotypisierung ergibt. In der Weise, wie uns das Computerspiel an den Rechner selbst auf eine spielerische Art heranführt, etablieren wir auch Problemlösungsverfahren für nicht-spielerische Rechnerprobleme: Eine unbekannte Software oder eine un- bekannte Applikation wird von vielen geübten Computerbenutzern durch ›He- rumspielen‹ im Rahmen einer generellen Handhabungsfähigkeit mit einer kon- Einleitung 15 ventionalisierten ›usability‹ von Software ›eingeübt‹. Als Konsequenz jedoch ist zu konstatieren, dass sich über die Ebene der subjektiven Übernahme von sowohl unterschwelligem und ›unsichtbarem‹ Regelungswissen als auch von ideologischen Beständen eines Elementardiskurses vor allem eine Form der Un- mittelbarkeit des Erlebens einstellt, die, gestützt durch die Effekte von Immer- sion und Evokation, die Funktionalität des Spiels und des Spielens garantiert (vgl. dazu ausführlich Nohr 2008). Die eigentlichen Instanzen ›hinter‹ dem Er- leben des Unmittelbaren treten dann nur noch (und dramatisch verkürzt) als Metaphern auf. Im Singleplayer-Computerspiel spielen wir gegen den Algorith- mus, wenn wir beispielsweise nach dem ›kritischen Wert‹ suchen, an dem das Spiel zu unseren Gunsten kippt und wir den Computergegner schlagen. Dass dieser Spiel-Algorithmus nicht per se ›zu schlagen‹ sein muss, um effektiv das Spiel zu prozessieren, ist uns dabei ebenso wenig bewusst wie unser Glaube, der Spielalgorithmus würde unsere eigenen Spielzüge nicht kennen (also nicht ›spickeln‹) naiv ist. Ähnlich ist die Tendenz zu werten, dass das Interface hinter seinen Metaphern verschwindet: Wir ›verkennen‹ die Karten, Räume, Menüs und Dialogfenster jeden Spiels (und jeder Software) zu einem Ort der direkten Interaktion und Handlung – und nehmen sie umso weniger als reduktive Ikoni- sierungen und Verunsichtbarungen des abstrakten Programms wahr. Kurz ge- sagt: Die Metaphern, die wir über den Rechner, seine Software und seine Ver- netzungen legen, trainieren wir besonders im Spiel. Wenn wir also nach der Form, Politik und Produktivität der Datenbank suchen, so sind wir gut beraten, auch und vor allem die Metaphern zu dekonstruieren, hinter denen sich die To- pografie und Ordnung der einzelnen Daten verbirgt. In bestimmten Spielen steht die Datenbank nicht nur im Hintergrund, sondern explizit im Zentrum des Geschehens. Ihren Ausdruck findet sie dann sowohl in der Darstellung von Tabellen und Statistiken als auch in den entsprechenden Operationen wie Suchen, Filtern oder Kombinieren. In FIFA Fussballmanager 2010 (Bright Future 2010) beispielsweise wird die Praxis und die Ästhetik der Datenbank zum elementaren Bestandteil des Spielprinzips. Der Spieler schlüpft hier in die Rolle des Managers eines Fußballklubs. Als Spielziel wird dement- sprechend die Etablierung eines kommerziell sowie sportlich erfolgreichen Fußballklubs festgelegt. Dem Spieler stehen dazu zahlreiche Möglichkeiten zur Verfügung:vom Spielereinkauf auf dem Transfermarkt über Optimierung im Trainingscamp und die Einstellung von Assistenten bis zur Festlegung der Spieltaktik für das jeweilige Match. Dem Spieler stehen auch zahlreiche Daten und Tabellen zur Verfügung, als Übersicht über die Fähigkeiten der einzelnen Spieler, die Buchhaltung, das Match, etc. (Abb. 2). Das Spielprinzip ließe sich im Hinblick auf die Daten auch auf Folgendes reduzieren: Bringe folgende Ta- 16 Stefan Böhme / Rolf F. Nohr / Serjoscha Wiemer belle (»1. Bundesliga«) in folgende vorgegebene Ordnung (»Eigener Verein auf Platz 1«), und zwar indem Du sie mit folgenden Datenbankoperati- onen (»Trainingscamp«, »Spielstrategie«, …) be- arbeitest. Der Spieltrick besteht darin, dass der Spieler zunächst die für den Sieg notwendigen Datenbankzustände erkennen muss, diese dann aber nicht direkt einfach eintragen kann, son- dern die Datenbank im Verlauf des Spiels indi- rekt manipulieren muss. Direkte Zugriffe auf die einem Spiel zugrunde liegende Datenbank werden üblicherweise als Cheat bezeichnet, bei- spielsweise wenn der Spieler in SimCity (Maxis 1989-2011) seine Steuereinnahmen direkt hoch- setzt und eben nicht indirekt das Wirkungsgefü- ge von Spielalgorithmus und Datenbank mani- puliert. Die Affinität des Computers zur Statistik und zur Datenbank ist dabei naheliegend, ist die digitale Welt doch per se eine statistische (vgl. Böhme 2008; Winkler 1997a). In einer erweiterten Perspektive kann da- von ausgegangen werden, dass Datenbanken eine ihnen innewohnende Logik, Rationalität und Ordnungspolitik in das Handlungsfeld des Spiels ›importieren‹. Sie schränken Handlungen im Spiel ein – nur was abfragbar, suchbar, aus- lesbar ist, kann zum Teil des Spielhandelns wer- den. Datenbanklogiken rationalisieren das Spiel auf eine spezifische Weise, die nicht nur durch Abb. 2. Verschiedene Screenshots aus dem Interface, Relationalität von Objekt und Objekt- Spiel FIFA Fußballmanager 2010 von EA charakteristika oder durch eine Spezifik der Ord- Sports nung ausgedrückt wird. Datenbanken organi- sieren die Mechanik des Spiels als unsichtbare Ordnungsinstanz und sind Garanten dafür, dass Spiele nicht ›gescripted‹ sein müssen, sondern eine Anmutung des Dynamischen erhalten. Die Logik der Da- tenbank drückt sich vor allem in der Konturierung einer symbolischen Form des Medialen aus. Datenbanken machen das Spiel auswertbar und führen es damit nicht nur in die Logik von Wettkampf und Vergleich, sondern auch (und Einleitung 17 vor allem) in eine Logik der Bemessbarkeit, Äquivalenzstiftung und Zirkulier- barkeit – kurz gesagt: ins Feld des Ökonomischen. Die Beiträge Die Beiträge in diesem Band geben vielfältige Einsichten in die Technik, Ge- schichte und Ästhetik von Datenbanken. Dabei wird die Datenbank als zentrales Element einer modernen Wissenskultur erkennbar, als eine Kulturtechnologie, die mit der Aggregierung, Produktion und Distribution von Wissen verbunden ist; einerseits eingespannt in hegemoniale Diskurse und geformt durch Effekte von Kontrollmacht, andererseits auch offen für dezentrale und kollektive Netz- praktiken, die mit der Etablierung neuer »Knowledge-Communities« einher- geht, in denen innerhalb neuer Ontologien Wissen gemeinschaftlich erzeugt und frei zugänglich gehandhabt werden kann. Darüber hinaus werden Daten- bankpraktiken in ihrer Relevanz für (medien)ästhetische Verfahren und Sub- jektadressierungen diskutiert, vom Film über das neue Fernsehen bis zu Com- puterspielen. Der erste Teil des Bandes Genealogie und Archäologie der Datenbank konzen- triert sich dementsprechend auf Ursprünge und frühe Formen der Daten- bank. In ihrem Beitrag Das Mundaneum oder das papierne Internet von Paul Otlet und Henri La Fontaine zeigt Lena Christolova, wie fast ein Jahrhundert vor der Entwicklung des modernen Internets mit dem Mundaneum ein System der Wissensrepräsentation entworfen wurde, das in seinem Konzept bereits zahlreiche Eigenschaften des Hypertext-Prinzips des semantischen Webs vor- wegnimmt. Neben einer umfangreichen Datenbank gehört dazu ein Kommu- nikationsnetzwerk, das den Zugriff auf die Daten von verschiedenen Orten aus ermöglicht. Die von ihren Gründern »Mundaneum« getaufte Institution ent- hält bereits alle Merkmale, die die Datenbank zum zentralen Element der mo- dernen Wissenskultur avancieren ließen: klar definierte Elemente, Ontologien der Datensätze und nach taxonomischen Regeln gestaltete Hierarchien. Der Aufbau der Datenbank wird dort anhand eines monografischen Prinzips durch- geführt, also der Darstellung des Wissens als Einheit von Einzelelementen. Das Mundaneum demonstriert damit in seiner Entwicklung, wie zum Anfang des 20. Jahrhunderts das für die Enzyklopädie typische hierarchische Modell durch das f lexiblere Netzwerkmodell ersetzt wird. Die Datenbank kann als Kulturtechnologie begriffen werden. Markus Burk- hardt untersucht die Herkunft moderner Datenbankkonzepte im Spannungs- feld heterogener Informationsbegriffe. Sein Text Informationspotentiale. 18 Stefan Böhme / Rolf F. Nohr / Serjoscha Wiemer Vom Kommunizieren mit digitalen Datenbanken thematisiert zunächst den Ursprung des Begriffs »Datenbank«im Managementdiskurs und im Vokabu- lar der Lochkartenmaschine. Die Datenbank wird hier als eine Technologie des Controlling beschrieben, welche die Überwachung und Steuerung von Organi- sationen unterstützen soll. Neben dieser Definition von Datenbank existiert historisch betrachtet aber noch eine zweite. Sie stützt sich auf den bibliothe- karischen Diskurs der Speicherung und Suche von Information. Anders als in der nachrichtentechnischen Perspektive nach Shannon spielt hier auch die Be- deutung der Information eine zentrale Rolle. Die Entwicklung der Datenbank zielt damit auf die Verarbeitung von Semantik in nicht-semantischen Routi- nen. Sie führt zu einem Modus des nicht-interpretativen operativen Umgangs mit Zeichen. Auf technischer Ebene formuliert sich dieser Modus als Adressie- rungsproblem. Die bei der Ausarbeitung dieses Problems entstehenden Prin- zipien von Datenunabhängigkeit und Drei-Ebenen-Architektur haben bis heu- te Gültigkeit. Wie Burkhardt in seiner Untersuchung historischer Diskurse der Informatik zeigen kann, ist der Eindruck der Immaterialität und Autonomie von Information damit keine Selbstverständlichkeit, sondern die Leistung ei- ner spezifischen Architektur von Informationssystemen. Auf eine andere Traditionslinie des Datenbankdiskurses macht Theo Röhle auf- merksam. Er rekonstruiert in »Grand games of solitaire«. Textuelle Ordnungen in den Digital Humanities einen der ersten Anwendungsfälle für computerge- stützte Verfahren und den Einsatz von Datenbanken für die Erschließung gro- ßer Textmengen. Eine frühe Form der spezifischen Art des Textzugangs durch Datenbanken ist die Konkordanz. Sie stellt eine Proto-Datenbank dar, indem sie die linear-syntagmatische Ordnung durch eine bestimmte Auswahl paradig- matischer Ordnungskriterien ersetzt. Dies bildet die Voraussetzung für Zugän- ge, die auf unterschiedlichen Sortierkriterien basieren. Röhles Rekonstruktion der datenbankgestützten Konkordanzerstellung zeigt, wie medientechnische Entwicklungen veränderte Praxen der Texterschließung bedingen können, und wie medienwissenschaftliche Analyse die spezifischen historischen Umorga- nisationen der verschiedenen Arten der Texterschließung einzuordnen hilft. Während bereits in der Literaturwissenschaft und im Information Retrieval vornehmlich quantitativ orientierte Sortierkriterien zum Zuge kommen, die an quantitativ orientierte Rationalitätsvorstellungen anknüpfen, verstärkt sich in aktuellen Projekten in den Digital Humanities diese Entwicklung. Sol- che datenbankgestützten quantitativen Methoden sind in den Geisteswis- senschaften weiterhin auf dem Vormarsch. Die Datenbank ist in diesem Zu- sammenhang ein wissenschaftliches Werkzeug, das einen effizienten und vermeintlich objektiven Blick auf das Forschungsmaterial erlaubt. Wie Röhle Einleitung 19 argumentiert, fällt ihr sowohl die Rolle zu, das lineare Syntagma zu durchbre- chen, als auch auf der paradigmatischen Ebene immer wieder neue Auswahl- möglichkeiten ins Spiel zu bringen. Die Anwendung von Datenbanken ist jedoch keineswegs auf die Handhabung von Zahlen und Texten beschränkt. Vielmehr zeichnet sich historisch sehr früh ab, dass Datenbanktechniken bereits im prädigitalen Zeitalter funktionaler Be- standteil biopolitischer Diskurse werden, etwa im Einsatz für avancierte Poli- tiken der Bevölkerungsplanung. Uwe Wippich zeichnet exemplarisch anhand derDatenpraktiken des Eugenics Record Office nach, wie eugenische Daten im Dienste der Idee einer genetisch verbesserbaren Bevölkerung mit medialen Strategien der Datenerfassung und Datenverarbeitung gekoppelt werden, um Prinzipien der Vererbung operationalisierbar machen zu können. In den USA etabliert das Eugenics Record Office (ERO) im ersten Drittel des 20. Jahrhun- derts dafür notwendige Techniken der Lokalisierung, des Monitorings und des Surveys. Als operationales Zentrum fungiert im ERO dabei die Datenbank. Sie manifestiert sich in Form von Schubläden und Aktenschränken, die mit Formu- laren, Notizen und Visualisierungen befüllt werden. Dabei werden spezifische Merkmale konstruiert und durch ein umfangreiches System von Field Workern erfasst, verarbeitet und damit als mediale Markierungen symbolisch zugäng- lich gemacht. Das ERO schafft damit Grundlagen und Rahmenbedingungen des damaligen politischen Handelns und spricht Empfehlungen zu Zwangssterili- sation, Immigrations- und Heiratsbeschränkungen aus. Nach den exemplarischen Untersuchungen zu den Genealogien und Archäolo- gien der Datenbank folgen Beiträgen, die sich dezidiert mit gegenwärtigen Po- litiken der Datenbank auseinandersetzen. Den Auftakt hierzu formuliert Mar- tin Warnke in seiner Diskussion von Datenbanken als Zitadellen des Web 2.0. Wie Warnke argumentiert, entspricht die Struktur des Internets eher dem Ab- solutismus als der Demokratie: Die massenmediale Nutzung des Webs konzen- triert sich aktuell auf einige wenige Orte im Netz, die allesamt in privater Hand liegen und nationalstaatlich nicht reguliert werden. Die Netzstruktur steht, so Warnke, folglich in einem klaren Widerspruch zu den Erwartungen von Frei- heit, Gleichheit und einem herrschaftsfreien Diskurs, die an das Web 2.0 he- rangetragen werden. Medientechnisch betrachtet und aus der Logik der Ver- netzungstopologie heraus ergibt sich diese ungleiche Struktur allerdings zwangsläufig. Denn sehr große Netze, die stabil und wachstumsfähig bleiben sollen, setzen immer eine ungleich verteilte Vernetzungstopologie voraus. Da- tenbanken sind dabei nicht weniger als die neuen ›Paläste‹ der Herrscher des Web 2.0. Sie sind die Grundlage für jede größere Website und hebeln die Me- chanismen des Web 1.0 aus. So lassen sich datenbankgestützte Inhalte, wie 20 Stefan Böhme / Rolf F. Nohr / Serjoscha Wiemer sie in den Machtblöcken der sozialen Netze von Facebook und Co. anzutreffen sind, beispielsweise von außen nicht direkt verlinken. Ein Zugriff auf die In- halte kann nur anhand der Regeln des jeweiligen Anbieters erfolgen. Es geht dabei jedoch weniger um Zensur, als um Schweigen und Zuhören. Die Knoten- punkte des Webs werden betrieben und bewacht von Privatfirmen, die den Diskursen der Nutzer lauschen, um diese wiederum an andere Firmen zu ver- kaufen. Datenbanken können daher im Netz als privilegierte Orte verstanden werden, von denen eine zunehmend konzentrierte Diskursmacht ausgeht. Gleichsam das Gegenstück zu solchen Zentralisierungstendenzen opaker Da- tenbankinhalte stellen die ›offenen‹ gemeinschaftlichen Praktiken nicht-he- gemonialer Datenbanken dar, die Harald Hillgärtner am Beispiel von Open- StreetMap zum Thema nimmt. Hillgärtner unterstreicht die kulturhistorische Relevanz der Datenbank, wenn er sie, im Anschluss an Überlegungen von Lev Manovich, als symbolische Form und damit als Pendant zur Zentralperspektive der Renaissance konzeptualisiert. Eine kennzeichnende Grundidee der symbo- lischen Form ist, dass sie einen epistemologischen Charakter hat. Sie struktu- riert unsere Wahrnehmung und unser Denken. Die Datenbank ist eine Tech- nologie, die Ordnung herstellt und darüber Abweichung erst sichtbar werden lässt. Ideologie im Manovich‘schen Sinne ist jedoch keine der Überwachung, sondern eine der Informationssynthese. Es ist ein nicht-hierarchisches, nicht- hegemoniales, nicht-exklusives Modell der Datenbank. Google Earth und Open- StreetMap lassen sich als Teil solch einer dispositiven Anordnung begreifen, die sich dem Datenbankparadigma verdankt. Im Kern sind sie eine Art Wis- sensdatenbank. Dabei sind sie wie alle Datenbanken wesentlich eine Aggregie- rungstechnik und umso wertvoller, je mehr Datensätze sie enthalten. In seinem Beitrag »Oh, wie süß ist doch die Datenbank!« Zum Aspekt nicht-hegemonialer Datenbanken zeichnet Hillgärtner Verfahren kollektiver Wissensproduktion nach und arbeitet durch die Betonung der Relevanz offener Architekturen und Taxonomien die produktiven Mechanismen der Wissenserzeugung gegenwär- tiger Datenbankdispositive heraus. Dass Datenbanken den direkten Zugang zu ihren Inhalten versprechen, ist eine Herausforderung für etablierte Institutionen der Wissensvermittlung. In Prü- fen und Bewerten – Redaktionelle Medien als Gatekeeper der Datenbank? ar- gumentiert Tobias Conradi, dass der Umgang von klassischen redaktionellen Medien mit Datenbank-basierten Netzmedien dementsprechend durch eine grundlegende Amivalenz geprägt ist: Einerseits wird auf die Unmittelbarkeit der nutzergenerierten Inhalte verwiesen, andererseits wird die Bedeutung ei- ner professionellen Prüfung und Bewertung eben dieser Inhalte betont. Die In- halte erhalten für etablierte redaktionelle Medien ihre Authentizität dabei in Einleitung 21 erster Linie durch ihre Nutzergenerierung. Anstatt die Datenbanken allerdings per Crowd Sourcing zu erschließen, stellen journalistische Medien sich selbst als Gatekeeper zwischen Nutzer und soziale Datenbanken wie Facebook oder Twitter. Dies gilt, wie Conradi aufzeigt, auch für andere Datenbanken mit ver- meintlich authentischen Inhalten wie WikiLeaks. Hier entspringt die Authenti- zität weniger der Herkunft der Daten, sondern der Klassifizierung als geheime Information. Datenbanken funktionieren in beiden Fällen als Wunschkonstel- lation (im Sinne Winklers 1997a), insofern ihnen ein unvermittelter Zugang zur Welt (›reinen Daten‹) außerhalb gesellschaftlicher Vermittlung unterstellt wird. Datenbankpraxen werden häufig von der Idee eines immer umfassenderen Zu- griffs auf Informationen motiviert, allerdings werden sie auch eng mit einer »Semantik des Risikos«(Beck 2007, 19f.) und dem Begehren nach Ausübung von Kontrolle verknüpft. Innerhalb eines gegenwärtig zunehmend an Bedeutung gewinnenden Risiko- und Sicherheitsdiskurses übernehmen Datenbanken mit ihren Funktionen des Speicherns, Sortierens, Suchens und Filterns zentrale Aufgaben und sind Bestandteile einer Infrastruktur für die Berechnung und Beherrschung von Risiken. Durch die Erstellung von Risikoprofilen und -szena- rien müssen Datenbanken gleichzeitig aber auch als Produzent und Implemen- tierungsinstanz des Konzepts ›Risiko‹ betrachtet werden, das sie pragmatisch denk- und darstellbar machen. Gerade auch das Computerspiel als größtenteils datenbankbasiertes Medium weist zahlreiche Elemente dieses Sicherheits- und Risikodiskurses auf. Julius Othmer, Stefanie Pulst und Andreas Weich untersu- chen in WTF is my GearScore? – Risiko und Sicherheit als datenbankgenerierte Elemente im Computerspiel wie ästhetische und funktionale Elemente von Da- tenbanken im Computerspiel ineinandergreifen. In einer Fallanalyse zum po- pulären Online-Spiel World of Warcraft(Blizzard, 2004-2011) zeigen sie, dass Sicherheit und Risiko in ludische Praktiken eingeschrieben sind und im Spiel- prozess implizit und explizit verhandelt werden. Deutlich werden dabei insbe- sondere markante Visualisierungsstrategien von Datenbankinformationen im Spiel-Interface und wie diese zur Bewertung und Handhabung von Gefahr und Risiko herangezogen werden. Über solch funktionale Inszenierungen, so ein Er- gebnis der Analyse, wird ein spielendes Subjekt adressiert, das auf spezifische Weise zwischen den widersprüchlichen Positionen eines imaginierten bürger- lichen, das heißt handlungsmächtigen und eines real verstreuten und in der Datenbank aufgelösten Subjekts eingespannt wird. Zeitgenössische Praktiken der Datenbank, vom Computerspiel über Fan-Wikis und filmische Datenbank-Ästhetik bis hin zu neuen Formen der Wissenssyn- these in datenbankgestützten Simulationen werden im letzten Abschnitt des 22 Stefan Böhme / Rolf F. Nohr / Serjoscha Wiemer Bandes thematisiert. Von fiktiven Enzyklopädien und realen Datenbanken – Äs- thetiken von Fan-Wikis handelt der Beitrag von Felix Raczkowski: Bei Fan-Wikis handelt es sich um frei editierbare Datenbanken, die über Suchmaschinen zu- gänglich sind. Wikis als enzyklopädische Datenbanken werden zunehmend zu einer zentralen Fan-Praxis, da in ihnen die Ergebnisse des Fandiskurses veröf- fentlicht und diskutiert sowie archiviert, verschlagwortet und auffindbar ge- macht werden. Sie dienen damit der Externalisierung, Kontextualisierung und Kanonisierung von Information. Diese Informationen werden dabei von der ur- sprünglich dargebotenen Logik der Computerspiele oder TV Serien gelöst, ent- lang der Logik der Datenbank neu strukturiert und mit weiterführenden Inhal- ten zu Geschichte oder Kontext von Ereignissen, Orten oder Figuren verknüpft. Dabei werden auch bisher in der Spielmechanik oder in der Komplexität der Narration verborgene Elemente sichtbar gemacht. Die Entscheidung darüber, welche Informationen letztlich in ein Fan-Wiki aufgenommen werden, prägt maßgeblich das als kanonisch angesehene Wissen. Die Handhabung von Datenbanken ist zunehmend in Strategien komplexer Vi- sualisierungen und Verräumlichungen von Informationen eingebettet. Gunnar Sandkühler fokussiert diesen Aspekt in seinem Beitrag Die Datenbank als Karte. Zur Verwendung von Geo-Informationssystemen im Computerspiel. Sandkühler argumentiert, dass insbesondere im Genre des Strategiespiels das Handeln der Spieler weitgehend im Auslesen einer Datenbank besteht, ohne dass dies den Spielern im Spielprozess notwendig bewusst wird. Das ›Verschwinden‹ der Da- tenbank wird dabei durch eine strikte Trennung von Struktur und eigentlicher Nutzung der Datenbank erreicht. Dem Umstand entsprechend, dass im Strate- giespiel die Bewegung im Spielraum und die Beherrschung dieses Raumes ein wesentliches Agens der Spielhandlung ist, handelt es sich bei den vom Spie- ler aufgerufenen Daten dementsprechend zum großen Teil um Geo-Daten. Die zur Repräsentation der Spielräume eingesetzten Datenbanken sind in Funk- tionsweise und Aufbau vergleichbar zu Geo-Informationssystemen (GIS). Die Parameter der generierten Spielräume können dabei über Menüs angepasst werden, ohne dass Kenntnisse der internen Datenstruktur notwendig wären. Bemerkenswert ist, dass durch die Verschränkung von Spielpraxen und Daten- bankpraxen der konventionelle Bereich des Ludischen transzendiert werden kann. Dies ist bei mitgelieferten Karten-Editoren der Fall, die typische Eigen- schaften eines Datenbank-Management-Systems aufnehmen und verschie- dene Tabellen miteinander verknüpfen können. Das Spielen eines Computer- spiels geht dabei in vielen Fällen über das eigentliche Spiel hinaus, weil die Grenzen von Programmierung, Datenbanksteuerung und Datenbanknutzung verwischen. Einleitung 23 Die Spielbasiertheit vieler Handlungsformen im Bezug auf die Datenbanklogik charakterisiert auch der folgende Beitrag. Ralf Adelmann entwirft in »There is no correct way to use the system« Das doppelte Subjekt in Datenbanklogiken das Modell eines doppelten Subjekts. Er analysiert dafürso unterschiedliche medi- ale Formen wie das Strategiespiel Fieldrunner und die Videoplattform Hulu. In beiden Beispielen kommt im Interface eine verteilte Datenbankstruktur zum Ausdruck, die ein zersplittertes postmodernes Subjekt etabliert. Parallel dazu wird, ebenfalls über das Interface, auf der Ebene des Imaginären eine kohä- rente Subjektkonstitution bereitgestellt, die zu einer Wiederaufführung eines bürgerlichen, handlungsmächtigen Subjekts führt. Das Subjekt erfährt dem- entsprechend einen Widerstreit zwischen diesen zwei Subjektrealitäten, dem kohärenten Subjekt der kurzen Handlungsketten und dem zerstreuten Subjekt des Aufschubs und des Nie-Zu-Ende-Seins. Beide Modelle schließen sich in der Logik der Datenbank jedoch nicht aus, sondern bedingen sich gegenseitig. Der Diskurs der Datenbank produziert folglich sowohl ein verteiltes, vernetztes und unsichtbares Subjekt, als auch ein autonomes und handlungsfähiges Sub- jekt in Form des Users. Im Wechsel zwischen diesen Positionen liegen dabei die Potentiale des Vergnügens und der Lust, welche die Nutzung von Datenbanken begleiten können. Entscheidend ist für die Ordnung von Inhalten im Web, dass in der Datenbank bestimmte Formen von Beschreibung mit Bewertung verbunden und in die medial-technischen Verfahren eingelassen werden. Dass solche Verfahren auch für neuartige Formen der Wissensproduktion entscheidend sind, beschreibt Irina Kaldrack in Gehen in der Datenbank – der BMLwalker. Beim BMLwalker han- delt es sich um eine Software, die menschliche Bewegungsmuster analysiert und diese als Punktform abstrahiert darstellt. Die dem BMLwalker zugrunde- liegende konstruktive Datenbank ist ein Beispiel dafür, wie in gegenwärtigen Verfahren der Wissensproduktion Informationen erzeugt werden, die vorher nicht eingegeben oder gemessen wurden. Die Konstruktion erfolgt dabei nicht nur durch die Verknüpfung vorhandener Datensätze in Suchabfragen, son- dern durch die Verkreuzung von statistischen Verfahren und künstlicher In- telligenz. Der BMLwalker verbindet Vermessung, statistische Methoden und Verfahren aus der Künstlichen Intelligenz mit Empirie und Darstellungsme- thoden. Bewegung wird dabei vom Körper abstrahiert und im Hinblick auf ein vermeintliches Innen des Körpers gelesen. Der Mensch stellt die Daten für die Bewegungskonstruktion bereit und klassifiziert diese. Das Wissen selbst wird jedoch in der Rückkopplung von Beschreibung und Bewertung dieser Beschrei- bung produziert. 24 Stefan Böhme / Rolf F. Nohr / Serjoscha Wiemer Den Abschluss des Bandes bilden zwei Beiträge zur Bedeutung von Daten- banken für die Ästhetik audiovisueller Medien. Florian Krautkrämer unter- sucht den Begriff des »Database Cinema« und entfaltet dessen heterogene Verwendungen als Begründungsfiguren im filmtheoretischen Diskurs. Unter der Überschrift Database Cinema? Datenbankästhetik im Film diskutiert Kraut- krämer tiefergehende Veränderungen filmischer Formen, die im Filmdiskurs wiederkehrend mit Datenbank-Konzepten in Bezug gesetzt werden. Der Begriff des Database Cinema steht dabei bevorzugt für eine bestimmte Form der Kon- struktion der Narrative sowie für Filme, die mehr oder weniger interaktiv sind. Im Zentrum der Datenbank steht dabei der nichtlineareZugriff auf Informa- tionen. Während die Datenbank das Zentrum der neuen Medien ist, so ist sie für den Film jedoch in der Regel kaum mehr als eine Metapher, um bestimmte Konstruktionsprinzipien zu beschreiben. Jenseits von Interface-Ästhetiken verweist Database Cinema zudem auf die Organisationsprinzipien sichtbarer Oberflächenphänomene. Die Datenbank verteilt sich in der Visualisierung auf der Fläche und ist in verschiedene Richtungen zu verfolgen. Bemerkenswert ist, dass als gemeinsamer Bezugspunkt heterogener Konzepte von Database Cine- ma häufig das europäische Autorenkino seit den 60er Jahren dient und der Be- griff damit rückwirkend auf Praktiken filmischer Modernisierungs- und Avant- garde-Bewegungen angewendet wird. Christian Huberts und Robin Krause unternehmen schließlich eine Sondierung von ästhetischen Verfahren des Computerspiels in Datenbanken als Spielräume – »This is a path winding through a dimly lit forest« : Im Computerspiel begegnet der Spieler der Datenbank zugleich als technologischem Artefakt und als Spiel- raum. Parallel zu der Spielwelt erkunden Spieler die spielinterne Datenbank, wobei die möglichen Pfade in der Spielwelt durch die vorhandenen Datensät- ze begrenzt sind. Insbesondere Open-World-Spiele bieten jedoch das Poten- zial, die Datenbank und ihre Objekte nicht nur zur Ausschmückung zu nut- zen, sondern zu einem funktionalen Element des Spiels zu machen. Umgekehrt lassen sich bestehende digitale kartografische Räume wie Google Earth mit zusätzlichen Daten als Spielraum konstituieren. Oftmals werden bestehende Geo-Daten lediglich ornamental genutzt, ohne funktionale Bedeutung für die Spielmechaniken. Anders verhält es sich jedoch, wenn die reale Welt selbst als Spielraum dient. Exemplarisch zeigen dies die Autoren anhand des Geocaching, bei dem die gesamte Welt per GPS als eine auf Koordinaten basierende Daten- bank konzeptualisiert wird. Die Topografie des Spielraums entsteht dann aus der Überschneidung der Rasterdatenbank des Navigationssystems mit den re- alweltlichen Gegebenheiten einer gegebenen Landschaft. Dieser Spielraum ist von den Widersprüchen zwischen dem eindeutigen, diskreten digitalen Raster Einleitung 25 der Datenbank und der Widerständigkeit der ›Natur‹ gegenüber der geregelten Erschließung eines Gebietes geprägt. Dank Am Ende (aber an nicht minder prominenter Stelle) dieser Einleitung soll der Dank stehen. Den Beitragenden und den TeilnehmerInnen der Abschlusskon- ferenz des Forschungsprojekts Strategie spielen sei an dieser Stelle herzlich für die gute Zusammenarbeit und die vielfältigen Anregungen gedankt. Dieser Band wäre ohne sie nicht zustande gekommen – allerdings auch nicht ohne die Unterstützung der Förderer und Institutionen, die das Projekt selbst und die Tagung im Speziellen ermöglicht haben. Daher gilt unser Dank auch der Deut- schen Forschungsgemeinschaft, die dieses Projekt von 2007-2011 unterstützt hat,¯9 sowie der Hochschule für Bildende Künste Braunschweig, dem Institut für Medienforschung (IMF) und den KollegInnen der Abteilung Medienwissen- schaften. Als Gastgeber der Tagung möchten wir dem Haus der Wissenschaften Braunschweig Dank aussprechen, ebenso wie wir uns sehr herzlich bei padelu- un vom Foebud e.V. für einen inspirierenden Abendvortrag bedanken wollen. Jasmin Feldberg, Arne Fischer, Anne Klische, Dennis Nösges und Sandy Werner haben tatkräftig und engagiert am Gelingen der Tagung und der Herausgabe des Bandes mitgewirkt – auch ihnen gebührt Dank. Anmerkungen 01˘ Einschlägige Partnervermittlungen werben dementsprechend mit dem Versprechen, dass das Finden eines Partners weniger eine prinzipielle Herausforderung sei, als eine Frage der richtigen Suchstrategie. Dieser Suchalgorithmus bildet zusammen mit den Datensätzen – Menschen auf Partnersuche – die ökonomische wie funktionelle Basis dieser Plattformen. Eine Teilnahme an dieser Suche führt zwangsläufig dazu, selbst Teil der Datenbank zu wer- den. Denn um die eigene Person mit den bestehenden Datensätzen abgleichen zu kön- nen, muss zunächst das Kontinuum der eigenen Persönlichkeit über Fragen, Formulare und Tabellen Schritt für Schritt diskretisiert und kategorisiert werden. Das Ergebnis kommt, ebenfalls wenig romantisch, in Form eines Rankings, quantitativ sortiert anhand eines Kompatibilitätswertes. Die Suche nach Liebe wird zur Frage nach dem richtigen 26 Stefan Böhme / Rolf F. Nohr / Serjoscha Wiemer Datenbankbefehl. 02˘ Vom 3.-5. März 2011 fand die Konferenz Sortieren, Sammeln, Suchen, Spielen: Die Daten- bank als mediale Praxis als Abschlusstagung des Forschungsprojekts Strategie spie- len. Steuerungstechniken und strategisches Handeln in populären Computerspielen (am Beispiel von Wirtschafts-, Militär- und Aufbausimulationen) in Braunschweig statt. 03˘ Die Betonung gerade der ludischen Praxen ist dabei dem spezifischen Erkenntnisinteresse geschuldet, welches sich aus dem Interesse des Forschungsprojekts Strategie spielen speist, das diesen Band zu verantworten hat. 04˘ Wir beziehen uns hier vor allem auf die Überlegungen Winklers (2004, hier vor allem: 110- 130), der ein Modell vorschlägt, welches erklärt, wie Diskurse ihre Kontinuität organisie- ren. Der Vorschlag Winklers zielt (verkürzt) darauf ab, die Persistenz des Diskurses durch ein immer wiederkehrendes Wechselspiel von fluider artikulatorischer Praxis und verdich- tender Niederlegung zu begreifen. Aus dem Wechselspiel von ›aussprechen – aufschreiben –lesen / aussprechen – wiederaufschreiben –…‹ entsteht eine Kontinuität des Diskurses, die auf der Seite der Niederlegung auch die materielle Persistenz des Diskurses in Form von ›Monumenten‹ sicherstellt. Hier zeigt sich eine hohe Kompatibilität zum Datum der Datenbank, das ebenso im Wechselspiel von Einschreibung und Abfrage Persistenz und Transienz erfährt. 05˘ Mit der in diesem Band vorgenommenen Fokussierung auf den Zusammenhang von Datenbank und Computer werden andere Konfigurationen von Datenbanken, wie sie insbe- sondere im biomedizinischen Diskurs relevant sind und in denen materielle Objekte gesam- melt und verwaltet werden (etwa Blut-, Organ-, Samen- oder Krebszellendatenbanken), nicht zentral behandelt. Das gilt auch für Datenbanken, etwa im Rahmen von Biodiversitäts- Sammlungen, in denen die materielle Aufbewahrung lebender Arten zur Aufgabe steht. Es liegt auf der Hand, den Zusammenhang zwischen solchen »Bio-Datenbanken« und »Rechner- Datenbanken« ernst zu nehmen, es würde allerdings eine gesonderte Untersuchung verlan- gen, um dieses neue Feld des »Biomedialen« (Thacker 2004), das sich augenblicklich an der Schnittstelle von informatorischen und biologischen Paradigmen abzeichnet, in den Blick zu nehmen. Die Bioinformatik arbeitet heute bereits praktisch an dem Ineinandergreifen dieser unterschiedlichen Datenbank-Typen. Die damit einhergehenden theoretischen und ontologischen Konsequenzen für die Begriffe des Lebendigen und des Medialen sind dabei derzeit noch kaum zu überblicken. 06˘ Das Paradigma relationaler Datenbanken unter Nutzung von SQL ist historisch überaus erfolgreich gewesen. Gerade großenetzbasierte Unternehmen wie Google, Ebay, Amazon, Facebook oder Twitter verwenden jedoch zunehmend nicht-relationale Datenbanken. Diese neueren Ansätze und Bestrebungen, Daten ohne festgelegtes Tabellenschema zu speichern und bestimmte Einschränkungen der bekannten SQL-Systeme zu vermeiden, werden oft unter dem Begriff NoSQL zusammengefasst. Als Vorteile von NoSQL-Datenbanken gegen- über den relationalen Datenbanken werden oftmals ihre bessere Skalierbarkeit und eine Einleitung 27 Effektivitätssteigerung bei hohen Datenanforderungen und häufigen Datenänderungen angeführt. 07˘ SQL lehnt sich entsprechend der Ideen von Codd dabei eng an die allgemeine englische Sprach an. Ein simples Beispiel in SQL könnte die Abfrage nach allen Personen in der Tabelle ›Mitarbeiter‹ sein, deren Namen mit W beginnt: SELECT * FROM mitarbeiter WHERE name LIKE ‚W%‘ 08˘ Vermarktet wurde System R allerdings nie. Dies tat IBM erst ab 1980 mit System/38 und insbesondere ab 1981 mit der Weiterentwicklung SQL/DS, der Vorgängerin der ab 1983 ver- fügbaren und bis heute eingesetzten DB2. Bereits 1979 hatte die Relational Software, Inc. von Larry Ellison, inspiriert von System R und in Konkurrenz zu IBM, die Datenbank Oracle V2 auf den Markt gebracht und führte SQL und die Datenbank damit kommerziell zum Erfolg. 09˘ Aktenzeichen NO 818/1-1. Bibliografie Beck, Ulrich (2007): Weltrisikogesellschaft. Auf der Suche nach der verlorenen Sicherheit. Frankfurt/M.: Suhrkamp. Benjamin, Walter (1983): Aufzeichnungen und Materialien zum Passagenwerk. In: ders. Das Passagenwerk.Hrsg. v. Rolf Tiedemann, Bd. 1. Frankfurt/M.: Suhrkamp. Böhme, Stefan (2008): Normalismus in Computerspielen. Braunschweig: HBK Braun- schweig [http://opus.hbk-bs.de/volltexte/2008/40/]; letzter Aufruf: 02.03.2012. Bröckling, Ulrich (2007): Das unternehmerische Selbst: Soziologie einer Subjektivierungs- form.Frankfurt/M.: Suhrkamp. Chamberlin, Donald D. /Astrahan, Morton M. / Blasgen, Michael W.et al. (1981): ›A History and Evaluation of System R.‹ Communications of the ACM 24:632-646. Gugerli, David (2007): Die Welt als Datenbank. Zur Relation von Softwareentwicklung, Abfragetechnik und Deutungsautonomie. In: Daten. Nach Feierabend.Hrsg. v. Michael Ha- gner, Michael Hampe, Barbara Orland, Philipp Sarasin und Jakob Tanner. Züricher Jahrbuch für Wissensgeschichte. 3. Berlin: Diaphanes, S. 11-36. Gugerli, David (2009a): Suchmaschinen: die Welt als Datenbank. Frankfurt/M.: Suhrkamp. Gugerli, David (2009b): The Culture of the Search Society. Online unter: [http://www.net- workcultures.org/public/The_Culture_of_the_Search_Society _DavidGugerli.pdf]; letzter Ab- ruf: 02.03.2012. Haigh, Thomas (2007): »A Veritable Bucket of Facts« Ursprünge des Datenbankmanage- mentsystems. In: Daten. Nach Feierabend. Hrsg. v. Michael Hagner, Michael Hampe, Barbara 28 Stefan Böhme / Rolf F. Nohr / Serjoscha Wiemer Orland, Philipp Sarasin und Jakob Tanner. Züricher Jahrbuch für Wissensgeschichte. 3. Berlin: Diaphanes, S. 57-98. Krajewski, Markus (2007): In Formation. Aufstieg und Fall der Tabelle als Paradigma der Datenverarbeitung. In: Daten. Nach Feierabend. Hrsg. v. Michael Hagner, Michael Hampe, Bar- bara Orland, Philipp Sarasin und Jakob Tanner. Züricher Jahrbuch für Wissensgeschichte. 3. Berlin: Diaphanes, S. 37-56. Manovich, Lev (1999) »Database as Symbolic Form«. In: Convergence: The International Journal of Research into New Media Technologies.Nr. 5, S. 80-99. Nohr, Rolf F. (2008): Die Natürlichkeit des Spielens. Vom Verschwinden des Gemachten im Computerspiel. Münster: LIT. Pomian, Krzysztof (2001): Der Ursprung des Museums. Vom Sammeln. Berlin: Wagenbach. Poster, Mark (1995) The Second Media Age. Cambridge: Polity Press. Rheinberger, Hans-Jörg (2007): Wie werden aus Spuren Daten, und wie verhalten sich Daten zu Fakten? In: Daten. Nach Feierabend. Hrsg. v. Michael Hagner, Michael Hampe, Barba- ra Orland, Philipp Sarasin und Jakob Tanner. Züricher Jahrbuch für Wissensgeschichte. 3. Ber- lin: Diaphanes, S. 117-128. Röhle, Theo (2010): Der Google-Komplex. Bielefeld: transcript. Thacker, Eugene (2004): Biomedia. Univ. of Minnesota Press. Winkler, Hartmut (2004): Diskursökonomie. Versuch über die innere Ökonomie der Medi- en. Frankfurt/M.: Suhrkamp. Winkler, Hartmut (1997a): Docuverse: zur Medientheorie der Computer. München: Boer. Winkler, Hartmut (1997b) Suchmaschinen. Metamedien im Internet? In: Virtualisierung des Sozialen. Hrsg. v. Barbara Becker & Michael Pateaus. Frankfurt/M.: Campus, S. 185-202. Gameografie FIFA Fußballmanager 2010 (Bright Future / EA) 2010 SimCity-Reihe (Maxis / EA) 1989 – heute World of Warcraft (Blizzard / Vivendi) 2004- heute Einleitung 29 I. Genealogie & Archäologie der Datenbank 30 Lena Christolova Das Mundaneum oder das papierne Internet von Paul Otlet und Henri La Fontaine Wissensrepräsentation und World Wide Web Das moderne World Wide Web (WWW) resultiert aus der gelungenen Allianz zwischen dem Hypertextkonzept von Ted Nelson, das 1965 zum ersten Mal öf- fentlich präsentiert wird (vgl. Nelson 1965, 1992), und der Idee der automa- tischen Protokollierung und Steuerung von Verbindungen (Links) zwischen Do- kumenten, die Vannevar Bush 1945 am Beispiel seiner Memex-Maschine (Bush 1945) exemplifiziert. Vollzogen wird diese Allianz in dem Enquire-Within-Upon- Everything-Programm von Tim Berners-Lee, woraus 1980 ein Datenbanksystem (ENQUIRE) auf der Basis des Hypertextprinzips entsteht, was zur Entwicklung des ersten Web-Browsers 1991 führt (Berners-Lee 1999, 7). Während die Suche nach Treffern in der ersten Phase des World Wide Web noch durch die Vernetzung von Begriffen über statische Web-Seiten erfolgt, ist bei dem Übergang zum semantischen Web die intelligente Verknüpfung der In- halte auf der Ebene ihrer Bedeutungen ausschlaggebend. Aus diesem Grun- de stellt sich verstärkt die Frage nach Teilhierarchien innerhalb des Netzes, die Taxonomien durch semantische Felder und ihre Überschneidungen definieren (vgl. Berners-Lee 1998). Die Sichtweise auf die Objekte der Realität als Objekte des WWW ändert ihre Repräsentationsmodi, die nun verstärkt auf effiziente Zugriffsmöglichkeiten auf eben diese Objekte des WWW ausgerichtet sind. Ausschlaggebend für das architektonische Gebäude des semantischen Webs ist eine formalisierte Logik der Wissensrepräsentation (Knowledge Represen- tation), in der jeder Hypertextknoten als ein semantischer Link betrachtet wird (Conklin 1987, 27), der die gemeinsame Struktur und das Verhalten der darin enthaltenen Objekte zueinander abbildet: »Hypertext nodes can be thought of as representing single concepts or ideas, internode links as representing the semantic interdependencies among them, and the process of building a hyper- text network as a kind of informal knowledge engineering« (Conklin 1987, 36). Sein modernes Gesicht bekommt das WWW durch das von den Mitarbeitern von Xerox-PARC Frank Halasz, Thomas Moran und Randall Trigg 1984 entwi- Das Mundaneum oder das papierne Internet 31 ckelte NoteCards-System. Dieses moderne Datenmanagementsystem unter- scheidet vier Typen von Objekten (Notecards, Links, Browser Card und Filebox), die jeweils in einem gesonderten Fenster der Benutzeroberfläche präsentiert werden. Jede Notecard entspricht einem Knoten im Hypertext, jeder Link einer Box, die mit der genauen Adresse der einzelnen Cards versehen ist. Die Interde- pendenzen der Notecards und Links werden als Diagramme in der Browser Card visualisiert und als Hierarchietabellen in der Filebox aufgelistet. Vierzig Kno- ten des Systems unterstützen diverse Medienformate, die als externe Objekte in das System eingefügt werden können (Halasz/Moran/Trigg 1987). Fast ein Jahrhundert vor diesen Schlüsselereignissen, die das Design des mo- dernen Internets prägen, erarbeiten zwei belgische Rechtsanwälte und Visi- onäre der globalen Wissensvernetzung, Paul Otlet (1868-1944) und Henri La Fontaine (1854-1943), ein System der Wissensrepräsentation, das in seinem Abb. 1: Die Organisation des Wissens 32 Lena Christolova intellektuellen Entwurf bereits Merkmale des Hypertextprinzips des seman- tischen Webs vorwegnimmt. Beeinflusst von der »synthetischen Philosophie« von Herbert Spencer (1820- 1903) und ihrem universalistischen Ansatz (vgl. Spencer 1905, 45, 74, 113f.), ge- hen Otlet und La Fontaine von der Übereinstimmung zwischen den konkreten Dingen (Les Choses) und ihren Repräsentationen im Geiste (Les Intelligences) aus, die durch die Wissenschaft (La Science) zu allgemeinen Fakten generali- siert werden. Da die Bücher (Les Livres) nicht die Ordnung des durch die Einzel- wissenschaften spezialisierten Wissens wiedergeben können, wird seine Ato- misierung in Einzelelemente (Notices Bibliographiques) vorgenommen, deren Verlinkung innerhalb eines bibliografischen Registers (Répertoire Bibliogra- phique Universel) die Synthese zwischen den einzelnen Wissenschaften und Wissensfeldern wiederherstellt. Während das Répertoire Bibliographique Uni- versel (RBU) Informationen über die Zusammenhänge des Datenmanagement- systems von Otlet und La Fontaine bereitstellt, ist das in Einzeldokumente auf- geteilte Wissen in einer zweiten Datenbank (L’Encyclopédie) physisch präsent und kann mit Hilfe der Klassifikation (La Classification) jederzeit nach einem neuen Thema oder Fachgebiet re-kombiniert werden. Das Desiderat ist eine Megadatenbank, von beiden »Biblion« genannt, welche die universale Synthe- se des Wissens im Rahmen eines ständig zu aktualisierenden Metaregisters ge- währleisten soll: »This Book, the ›Biblion‹, the permanent Encyclopaedia, the Summa, will replace chaos with a cosmos. It will constitute a systematic, complete and current registration of all the facts, rela- ting to a particular branch of knowledge. It will be formed by linking together materials and ele- ments scattered in all relevant publications. It will comprise inventories of facts, catalogues of ideas and the nomenclature of systems and of theories. […] It will be like a great cadastral sur- vey of learning, in which the developments of knowledge will be reported and recorded day by day. This function will devolve on specialists, or keepers, whose duty will no longer be to preser- ve documents, but the actual knowledge they contain« (Otlet 1990, 83). Als eine Art petitio principii spiegelt das Einzeldokument (Biblion) als Ergeb- nis der analytischen Tätigkeit des Geistes das Biblion der Gesamtdokumenta- tion als Synthese des in Einzeldokumente geteilten Wissens wider: Sowohl die Bausteine als auch die Dachstrukturen des Systems der Dokumentation wer- den von Otlet und La Fontaine jeweils als »Buch« (Livre, Biblion) bezeichnet. Die Atomisierung der Information in Elemente wird durch ein universalistisches Konzept kompensiert, das Otlet und La Fontaine (Otlet 1990, 214) mondialité nennen. Vom holistischen Prinzip der mondialité leiten sie den Namen des mo- numentalsten Projekts der ersten Hälfte des 20. Jahrhunderts ab, das gleichzei- Das Mundaneum oder das papierne Internet 33 tig ein Datenbanksystem und ein Kommunikationsnetzwerk innerhalb eines Verbundes transnationaler Institutionen darstellt: Mundaneum. Ursprünglich als eine bibliografische Klassifikation angedacht, die nach ei- ner einheitlichen Methode Ordnung in der Informationsflut (Otlet 1934, 3) schafft, entpuppt sich bald das Mundaneum-Projekt, in dessen Namen die Uto- pie der Weltstadt, Civitas Mundaneum, anklingt, als ein außerordentlich ein- f lussreiches intellektuelles und politisches Netzwerkgebilde. Sein Ziel ist die weltweite Demokratisierung des Wissens, in deren Dienst eine neue Einheits- wissenschaft gestellt werden soll, die man aus heutiger Sicht auch Informati- onswissenschaft nennen darf, da auf ihrem Programm nicht nur die Erstellung und die Pf lege von Datenbanken, sondern auch die Gründung von weltweiten Informationszentren und -diensten stehen. In dem Artikel Die neue Enzyklopädie (1938) formuliert der Gründer des Gesell- schafts- und Wirtschaftsmuseums in Wien, Otto Neurath, mit dem Otlet und La Fontaine ab 1929 besonders intensiv an der Entwicklung neuer visueller For- men und Formate arbeiten, diese Einheitswissenschaft als eine »umfassende wissenschaftliche Haltung« (Neurath 1979, 125), die »Querverbindungen von Wissenschaft zu Wissenschaft herstellen und, wo immer es auch möglich [ist] , Systematisierungen (insbesondere auch Axiomatisierungen) durchführen« (ebd.) kann. Auch in dem vom Positivismus beeinflussten Projekt von Otlet und La Fontaine bildet die von ihnen hergestellte Wissensordnung die »Gesetze der wissenschaftlichen Logik« (Otlet/La Fontaine 1895, 34) ab, ihre angemessene Repräsentation bekommt sie durch das enzyklopädistisch angelegte »univer- sale Buch« der Dokumentation (Otlet 1934, 375). Obwohl nach wie vor die Enzyklopädie als Leitmetapher der Wissensorganisa- tion dient, demonstriert das Mundaneum in seiner Entwicklung, wie zum An- fang des 20. Jahrhunderts das für die Enzyklopädie typische hierarchische Mo- dell durch das f lexiblere Netzwerkmodell ersetzt wird. Das Mundaneum: eine Protogeschichte des Internets Dank der Idee des Netzwerks werden neue Muster in der Organisation des Wis- sens etabliert, als deren materielle Modellierung das von Paul Otlet und Henri La Fontaine aufgebaute Datenbanksystem betrachtet werden kann. Seine Ar- chitektur und interne sowie externe Vernetzung verwandeln es aus heutiger Sicht in eine Art »papiernes Internet«, was keineswegs rein metaphorisch zu verstehen ist.¯1 Es lässt sich zeigen, wie das Mundaneum-Projekt gewisserma- ßen die Fundamente der modernen Kommunikationsgesellschaft legt, zu de- 34 Lena Christolova ren wichtigstem Medium am Ausgang des 20. Jahrhunderts das Internet avan- ciert. Insbesondere im Fokus auf die von Otlet und La Fontaine hergestellten Zusammenhänge zwischen Netzwerk, Datenbank und medialer Praxis kann eine Proto-Geschichte des Internets rekonstruiert werden, die auf folgenden Annahmen basiert: 1. Die Grundlage für das Projekt bildet ein durchaus modernes Netzwerkkon- zept, das sich in der Struktur der von Otlet und La Fontaine gegründeten in- ternationalen Organisationen, in dem Aufbau der Mundaneum-Datenbanken, sowie in den Modalitäten der realisierten und geplanten Zugänge zu diesen Datenbanken widerspiegelt. 2. Die implizite Epistemologie des Projekts ist in dem von Otlet als »monogra- fisch« (Otlet 1990, 79; 149) bezeichneten Prinzip der Dokumentation enthal- ten, das von der prinzipiellen Teilbarkeit eines Buches oder eines Dokuments in semantisch selbständige Komponenten wie Kapitel, Artikel, Text, Fotogra- fien und Illustrationen ausgeht. Diese werden auf standardisierte Karteikar- ten (12,5 x 7,5 cm) kopiert und stehen als kleinste Elemente der Datenbank (Mo- nographe) der weiteren Katalogisierung und dem Datenaustausch zwischen Datenbanken und Organisationen zur Verfügung. 3. Das »Verlinken« der Monographe geschieht durch das System der bi- bliografischen Dezimalklassifikation (DDC) von Melvil Dewey (1851-1931), dem Mitbegründer der American Library Association (1876), welches das gesamte menschliche Wissen in zehn Kategorien mit weiteren Klassen und Subklassen organisiert. Jede Klasse wird durch weitere Dezimale unterteilt, sodass jede Kategorie und ihre Unterkategorien ihren adressierbaren Platz innerhalb des Systems bekommen, welches nach ein paar Modifikationen durch Otlet und La Fontaine zum Standardklassifikationssystem im Bibliothekswesen wird. 4. Da die Hierarchie der DDC nach Fachgebieten und nicht nach Themen auf- gebaut ist, kann ein Objekt auch mehrere Systemstellen belegen und von dort aus abgerufen werden. Während jedoch die DDC von Dewey nur die abstrakte Struktur der Wissensorganisation anhand von Kategorien, Klassen und Sub- klassen entwirft, sind bei der von Otlet und La Fontaine auf ihrer Basis ent- wickelten Universellen Dezimalklassifikation (UDC) die Inhalte der einzelnen Klassen mitbestimmend, die mehr oder weniger erfolgreich in ihrem Daten- bankkonstrukt »verlinkt« werden können. Aus informationstechnischer Sicht ist die von Otlet und La Fontaine optimierte DDC von Dewey als ein Baum zehnten Grades beschreibbar,¯2 als eine aus Knoten bestehende Datenstruk- tur, über deren Teilhierarchien die geordneten Reihenfolgen der Elemente ihre Knoten bestimmen (Solymosi/Grude 2008, 115), was Ähnlichkeiten zum Aufbau des semantischen Webs zeigt. Das Mundaneum oder das papierne Internet 35 5. Neben der rationalen Organisation des Bibliothek- und Dokumentationswe- sens spielt im Projekt die Einbindung von damals neuen Medien wie Film, Ra- dio und Telegrafie die zweitwichtigste Rolle. Ab 1906 wird das Verfahren der Mikrofotografie zur »Erhaltung und der internationalen Verbreitung« von in- tellektuellem Gut (Otlet 1990, 204) eingesetzt, die Einbindung von weiteren Medien wie Film, Radio und Telegrafie war vorgesehen (Otlet 1934, 233-38). Am 1. April 1934 blickt man auf 15.646.346 Einträge und 27.000 bearbeitete exter- ne Anfragen (ebd., 401) zurück, die zum größten Teil manuell ausgeführt wer- den, was von einem arbeitsintensiven, jedoch recht effektiven Management der gesammelten Informationen zeugt. Das Ziel ist das Errichten eines Super- zentrums der Dokumentation, das anhand von mechanischen Lesemaschinen die Dokumente aussortiert und an die Nutzer verschickt (Otlet 1990, 205). Die Vision weltweiter Vernetzung: Tatsachen und Utopien Das Mundaneum ist der erste weltweit verfügbare Wissensspeicher, dessen Aufgabe darin besteht, das gesamte dokumentierte Wissen zu organisieren und durch die damals vorhandenen Übertragungs- und Vervielfältigungsme- dien der breiten Öffentlichkeit zugänglich zu machen. Otlet und La Fontaine entwarfen in Zusammenarbeit mit dem Spezialisten für Mikrofotografie Ro- bert Goldschmidt bereits 1906 einen Faksimiledienst, der Dokumente fotogra- fisch reproduzieren und als Depeschen verschicken konnte. Außerdem wurde an verschiedenen Möglichkeiten ihrer Projektion im Lesesaal gearbeitet, wofür ein Apparat, genannt Bibliophote, konstruiert wurde (Otlet 1911). Er bestand aus einem auf- Abb. 2: Die neuen Arbeitsflächen im Munda- zeichnenden (appareil enregistreur) und einem neum in Brüssel (Rekonstruktion des Saals reproduzierenden Teil (appareil reproducteur), für Telegrafie und Telefonie) was die unmittelbare Projektion der aufgezeich- neten Dokumente auf einer großen Leinwand im Saal oder auf einer kleineren Oberfläche, zum Beispiel auf dem persönlichen Arbeitstisch der Benutzer, möglich machte. Dieser Apparat wur- de im Saal für Telegrafie eingesetzt, dessen Ein- richtung durchaus der modernen Vorstellung eines multimedial ausgestatteten Raums mit in- dividuellen Computerarbeitsplätzen entspricht. Dank Robert Goldschmidt waren Otlet und La Fontaine bestens über die neuesten Entwick- 36 Lena Christolova lungen in der kabellosen Telegrafie und den Experimenten mit Fernsehen in- formiert und strebten eine richtige Online-Recherche für die Dokumentati- onsnutzer an, die man an einem persönlichen, multimedial ausgestatteten Arbeitstisch ausführen konnte. In einer Beschreibung von Otlet von 1934 sieht es folgendermaßen aus: Anstelle von Büchern befinden sich auf dem Arbeits- tisch ein Bildschirm und in Reichweite ein Telefon. Alle physisch vorhandenen Bücher und Informationen, Dokumente und Kataloge sind in einem externen Gebäude mit immensen Ausmaßen untergebracht, ebenso die Bearbeitungs- stelle für die Anfragen; sie werden per Telefon, sei es anhand einer Drahtver- bindung oder kabellos, gestellt. Die Antworten erscheinen auf dem Bildschirm, der in zwei, vier oder zehn Bildfelder aufgeteilt werden kann, in Abhängigkeit davon, wie viele Texte oder Dokumente gleichzeitig gezeigt werden sollen. Ob- wohl dies alles zum größten Teil noch eine Utopie wäre, würde sie ohne Zwei- fel durch die Verbesserung der angewandten Methoden und Werkzeuge bald Realität werden, so Paul Otlet in seinem Traité de Documentation. Le Livre sur le Livre, das sowohl seine langjährige Erfahrung im Wissensmanagement als auch seine Visionen über die Zukunft der Wissensorganisation enthält (Otlet 1934, 428). Im Kapitel Inventions a faire legt er im Abschnitt 413.14. Desideratum général auch ein Programm der maschinell gesteuerten Organisation des Wissens vor: »Wir sollten einen Komplex miteinander verbundener Maschinen haben, die simultan oder nacheinander folgende Aufgaben ausführen: 1. Ton in Text transformieren; 2. diesen Text so- oft kopieren, wie man es braucht; 3. Dokumente in einer Art aufbereiten, die jedem Informa- tionsteil (donnée) seine eigene Identität zuordnet und seine Verbindungen mit allen anderen in der Sammlung zeigt, sodass er immer - wenn nötig - abgerufen werden kann; 4. Zu jedem Informationsteil einen Klassifikationsindex anbringen (attaché); das Dokument entsprechend dieser Indizes perforieren; 5. automatische Klassifizierung der Dokumente und entsprechende Platzierung in den Ordnern; 6. automatischer Abruf der Dokumente zwecks Einsicht oder Vor- führung, sei es unter Augenschein oder durch eine Maschine, um gegebenenfalls zusätzliche Einträge anbringen zu können; 7. mechanische Handhabung sämtlicher aufgezeichneter Infor- mationen, um neue Sachkombinationen, Ideen und Relationen zu erhalten, die mit Hilfe von Zif- fern operationalisiert werden. Die Maschine, welche diese sieben Wünsche (Desiderata) reali- sieren könnte, wäre ein wahrhaftes mechanisches und kollektives Gehirn (cerveau mécanique et collectif )« (ebd., 391). Die miteinander vernetzten Maschinen, die in der Vorstellung von Otlet nach dem Vorbild von Holleriths Lochkarten funktionieren, stellen ein mechanisch verlinktes kollektives »Gehirn« dar (ebd.), das die Kapazitäten der mensch- lichen Intelligenz erweitert (ebd., 30) und als Gedächtnismaschine unterstützt. Das Mundaneum oder das papierne Internet 37 Neben den mit elektrischen Motoren angetriebenen Classeurs, welche die Do- kumente finden und aussortieren, sind auch frei verfügbare, mit dem heu- tigen Desktop vergleichbare, Oberflächen geplant, welche per Telekommuni- kation Daten aus einem international vernetzten Bestand aus Mikrofilmen abrufen und zeigen können. Einen weiteren Schritt in Richtung multimedi- ale Ausstattung unternahm Otlet Anfang der 1930er Jahre, indem er in Zu- sammenarbeit mit der holländischen Firma Philips einen Guide automatique des visiteurs entwickelte, der die Besucher mit der Hilfe eines Zentralmikro- fons durch die Sammlungen des Mundaneums führte. Außerdem produzierten zwischen 1933 und 1939 das Mundaneum und die belgische Firma Cinescopie einen wöchentlichen Überblick über die Tätigkeit des Mundaneums, der an alle Abonnenten seiner Informationsdienste on demand verschickt wurde. In einem am 7. März 2000 von Benoît Peeters durchgeführten Interview erinnert sich der Ingenieur Igor Platounoff, damals Angestellter bei Philips, dass Anfang der 1930er Jahre zwischen den Sälen des Mundaneums auch Fernsehübertra- gungen stattgefunden haben sollen. In seinen Visionen über die schöne neue multimediale Welt geht Otlet noch ein ganzes Stück weiter: In dem 1935 erschienenen Buch Monde: Essai d‘universalisme imaginiert er eine nahezu vollständige Verdoppelung der re- alen Welt, die man über eine drahtlose Verbindung am eigenen Bildschirm wie einen Film betrachten kann: » […] a machinery unaffected by distance which would combine at the same time radio, x-rays, cinema and microscopic photography. All the things of the universe and all those of man would be registered from afar as they were created. Thus the moving image of the world would be es- tablished – its memory, its true duplicate. From afar anyone would be able to read any pas- sage, expanded or limited to the desired subject, that would be projected onto his individual screen. Thus in his armchair, anyone would be able to con- template the whole of creation or particular parts of it« Abb. 3: Das Karteikastensystem 1903 (Otlet 1935, 390-391, zit. nach Rayward 1994a, 245). Bleibt man auf dem Boden der Tatsachen, so kann das Mundaneum eher als eine Zettel-Such- maschine innerhalb eines aus Datenbanken be- stehenden Repertoriums des Wissens bezeich- net werden. Was dieses Repertorium des Wissens mit dem modernen Internet verbindet, sind in erster Li- nie der Aufbau und die Struktur seiner Daten- banken, die einen regen wissenschaftlichen 38 Lena Christolova Austausch zwischen den Mitgliedern des von Paul Otlet und Henri La Fon- taine erschaffenen Netzwerks sichern. An diesem Netzwerk, bekannt als Bi- bliografische Bewegung, sind herausragende Wissenschaftler wie Patrick Ge- ddes, Wilhelm Ostwald und Otto Neurath beteiligt, sowie der amerikanische Wissenschaftsforscher und Museumskurator Waldemar Kaempffert. Das Mundaneum: Gründung und Geschichte Paul Otlet und Henri La Fontaine begegneten einander 1892 in der Kanzlei des bekannten Brüsseler Anwalts Edmond Picard, Herausgeber eines rechtswissen- schaftlichen Kompendiums. Als Referendar an der Kanzlei war Otlet mit der Li- teraturrecherche für das Kompendium beauftragt, während La Fontaine für die bibliografische Abteilung eines neugegründeten Verbandes von Politik- und Sozialwissenschaftlern (Société des Etudes Sociales) zuständig war. Er war 1892 dabei, in dessen Auftrag einen Index über die Begriffsfelder der Soziolo- gie zu erstellen und veröffentlichte laufend Indexlisten in der Revue sociale et politique, dem Organ der Société des Etudes Sociales. Zwischen beiden Männern entwickelte sich eine tiefe Freundschaft und jahrzehntelange Zusammenar- beit, aus der die Gründung einer Reihe von Organisationen und Institutionen resultierte, wie beispielsweise des Internationalen Bibliografischen Instituts (Institut International de Bibliographie) und des Internationalen Büros für Bi- bliografie (Office International de Bibliographie) im Jahre 1895. Sie bilden die Grundlage für ein Netzwerk von Wissenschaftlern und internationalen Orga- nisationen, dessen Erweiterung und Konsolidierung Otlet und La Fontaine ihr ganzes Leben widmeten. Wie aus dem Memorandum des Generalsekretärs der Gesellschaft der Natio- nen aus dem Jahre 1921 hervorgeht, organisierte das Internationale Büro für Bi- bliografie zwischen 1897 und 1910 vier internationale Konferenzen und setzte dabei einen allgemein verbindlichen bibliografischen Kodex durch, der von zahlreichen öffentlichen und privaten Bibliotheken verschiedener Länder so- wie von der Internationalen Bibliothek in Brüssel als maßgebend für ihre Tätig- keit angenommen wurde (Speeckaert 1970, 41). 1921 vereinte die Internationale Bibliothek in Brüssel mehr als 60 Bibliotheken internationaler Organisationen (Otlet 1990, 180) und hatte mehrere Koordinationsstellen im Ausland. Die wich- tigsten sind das Bureau Bibliographique de Paris und das Concilium Bibliogra- phicum in Zürich, die ihre Tätigkeit auch nach dem Zweiten Weltkrieg fort- setzten (Rayward 1994b). Das Mundaneum oder das papierne Internet 39 Während diese Institutionen vorwiegend Aufgaben aus dem Gebiet der bi- bliografischen Recherche und Klassifikation übernahmen, gehörten zu den Aufgaben des 1905 gegründeten Institut International de Photographie, der 1906 gegründeten Bibliothèque Collective des Societés Savantes, sowie des im darauffolgenden Jahr ins Leben gerufenen Musée de la Presse, das Sammeln, Sortieren und Präsentieren von Textdokumenten, Bildern, phonografischen Aufnahmen, Filmen und physikalischen Objekten. Das Institut International de Photographie unter der Leitung von Ernest de Potter bot außerdem einen Di- aprojektionsdienst (Service central de vues pour projectiones lumineuses) und einen Dienst für Reisende (Service des voyages) an, der den Besuchern des Mu- seums Fotografien von Sehenswürdigkeiten ver- schiedener Länder offerierte, sowie eine Liste der Camerae Obscurae, die dort besichtigt wer- den konnten. Zusammen mit der neugegründe- ten Union der Internationalen Verbände (Union des Associations Internationales) zogen diese In- stitutionen 1910 in einen Flügel des repräsen- tativen Palais du Cinquantenaire in Brüssel ein. Abb. 4: Das Palais du Cinquantenaire Mit einem Erlass vom 25. Oktober 1919 verlieh Kö- in Brüssel nig Albert I. der Union der Internationalen Ver- bände einen autonomen Status, sodass in einem Umkreis von zwei Kilometern um das Palais du Cinquantenaire ein Palais Mon- dial entstehen konnte. Zwischen 1910 und 1934 beherbergte das Palais du Cinquantenaire, das ab 1920 Palais Mondial und ab 1924 Mundaneum genannt wurde, noch eine Internatio- nale Sommeruniversität und ein Museum mit laufenden Ausstellungen. In den darauffolgenden Jahren entfaltete das Mundaneum eine rege Tätigkeit und etablierte eine Vielzahl an internationalen Kontakten, bis 1934 die belgische Regierung, die ihr Votum in der Liga der Nationen verloren hatte, dem Projekt jegliche finanzielle Unterstützung entzog. Nach dem Einmarsch der Nazis wur- de in den Räumlichkeiten des Mundaneums ein Museum für »nicht entartete Kunst« eingerichtet, viele Dokumente wurden zerstört. Das Mundaneum mus- ste in ein anderes Gebäude im Leopold-Park in Brüssel ausweichen, das dem anatomischen Institut der Freien Universität gehörte. Es setzte zwar seine Tä- tigkeit mit ein paar Mitarbeitern fort, verlor jedoch in den darauffolgenden Jahren zunehmend an Bedeutung. Als Paul Otlet 1944 starb, gehörte das Mun- daneum längst zur Geschichte. Die Reste seiner Bestände vermoderten teilwei- se nach dem Krieg, bis sie 1968 von einem jungen Doktoranden namens W. Boyd Rayward entdeckt wurden. Dank seines langjährigen beharrlichen Einsatzes 40 Lena Christolova wurden sie nach Mons (Bergen) verlegt, wo man in den 1980er Jahren ein Mun- daneum-Museum einrichtete.¯3 Die Idee der Dokumentation: das monografische Prinzip und die Synthetische Bewegung Während La Fontaine, der fast 40 Jahre lang als Senator im belgischen Parla- ment, als Mitglied der Internationalen Parlamentarischen Union und als Prä- sident des Internationalen Büros für Frieden (Bureau International de la Paix) tätig war, sich zunehmend für die Vernetzung der am Mundaneum beteiligten Organisationen auf politischer Ebene engagierte, verdichteten sich für Otlet das Konzept der Vernetzung und die praktische Arbeit an dessen Umsetzung um den Begriff der Dokumentation. In der frühen Phase seiner Tätigkeit be- zog er den Begriff (Otlet 1990, 71-86) noch ausschließlich auf das Bibliotheks- wesen. Im Laufe der Zeit tendierte jedoch der Begriff der Dokumentation dazu, Abb. 5: Die Dokumentation und ihre Elemente Das Mundaneum oder das papierne Internet 41 zunehmend zu einem erweiterten Konzept der Wissensrepräsentation zu wer- den, worauf auch die Organisation des Netzwerks der Kommunikation, der Ko- operation und des wissenschaftlichen Austausches (Réseau de communication, de coopération et d’échanges) ausgerichtet waren. Für alle die zu archivierenden und zu klassifizierenden Objekte wie Buchbän- de, Broschüren, Zeitschriften, Karten, Diagramme, Statistiken, Fotografien, phonografische Aufzeichnungen und Filme führt Otlet den Begriff Biblion als kleinste Einheit der Dokumentation ein, die er konkret als Einzeldokument oder in Bezug auf das Gesamtsystem der Schrift als Gramme definiert und mit dem Atom in der Physik oder der Zelle in der Biologie vergleicht (Otlet 1934, 9). Das Biblion ist eine abstrakte Einheit des Intellekts, die unterschiedliche Modi der Repräsentation kennt (ebd., 211): vom Biblion der Gesamtdokumentation als Synthese des in Einzeldokumente geteilten Wissens (Otlet 1990, 83) zur kon- kreten Informationseinheit in der Form eines Buchs, einer Illustration oder eines Diagramms (Otlet 1934, 9). Ein ähnliches Projekt startet auch der deutsche Wissenschaftler und Nobel- preisträger für Chemie Wilhelm Ostwald, der 1911 zum Gründer einer bi- bliografischen Institution wird, von ihm Die Brücke – Institut zur Organisati- on der geistigen Organisation genannt. Ähnlich wie das Mundaneum ist die Brücke als Informationsstelle aller Informationsstellen geplant, die zum Ver- bindungsglied zwischen wissenschaftlichen Organisationen, Museen, Vertre- tern der Wirtschaft und Einzelpersonen werden sollte. Auch eine illustrierte Weltenzyklopädie, das Brückenarchiv, war in Arbeit. Durch einheitliche Formate und Registraturvermerke sollte ein effizientes Datenmanagement gewährlei- stet werden, wofür Ostwald alle Summen einsetzte, die er als Nobelpreisträ- ger bekommen hatte. Wie Otlet und La Fontaine wendet er das monografische Prinzip der Dokumentation an, das er in seinem Buch Die chemische Literatur und die Organisation von Wissenschaft von 1919 als »Prinzip der unabhängigen Handhabung des einzelnen Stückes« (Ostwald 1919, 96) bezeichnet und als »ein Thema auf einem Blatt Papier« definiert: »Wird denn darauf geachtet, daß jedes Blatt Papier nur ein Thema enthält, so erkennt man als- bald, daß eine unbegrenzte Kombinierbarkeit der so erhaltenen Elemente erreicht wird, und daß man, je nach dem Zweck, den man verfolgt, gegebenenfalls jede beliebige Beziehung der dargestellten Tatsachen durch die räumliche Anordnung dieser Karten zum Ausdruck bringen kann« (ebd.). Ostwald behauptet, das Prinzip bereits 1889, also vor Otlet und La Fontaine (vgl. Otlet / La Fontaine 1891/92, 13), in seinem Buch Klassiker der exakten Wis- senschaften angewandt zu haben (Ostwald 1927, 56) und stellt 1929 in dem Buch 42 Lena Christolova Die Pyramide der Wissenschaft. Eine Einführung in wissenschaftliches Denken und Arbeiten Analogien zwischen dem Prinzip der Bildung von Begriffen und der Entstehung von chemischen Verbindungen her: Komplexe Begriffe sind laut Ostwald wie die chemischen Verbindungen aus einfacheren Elementen zu- sammengesetzt und können sogar als Ergebnis eines gesteuerten Zufalls ent- stehen – durch eine systematisch angelegte Kombinatorik ihrer Bestandteile (vgl. Ostwald 1929, 88-92). Paul Otlet und Henri La Fontaine beziehen sich ebenfalls bei dem monogra- fischen Prinzip auf das Modell der chemischen Elemente und ihrer Verbin- dungen, deren universales Ordnungsschema, das Periodensystem von Dmitrij Mendelejev, bereits auf das Jahr 1869 zurückgeht. Sie versuchen jedoch die che- mische Kombinatorik durch eine semantisch fundierte Logik zu erweitern, die zwischen dem Konkretesten und Abstraktesten vermittelt und auf die Indexie- rung der Eingänge in den Katalogen angewandt werden kann, um die sinnvolle Re-Kombination des fragmentierten Wissens zu sichern: »We will borrow a model from law, whose century-old language has newly achieved the precisi- on of the law of chemistry. A word in law not only evokes the object named in its concrete form, but also, by logical association, all the characteristics and attributes of the object in the same way that the formula for a compound expresses its relationships and quickly makes it elements evident. […] Each card of the catalogue that we are proposing also would have its own argument, the basis of its classification, and the terms of the argument would be the same as those of the synoptic outline« (Otlet 1990, 19). Da Otlet und Ostwald einander erst 1910 auf dem Weltkongress der Internati- onalen Verbände in Brüssel begegneten, ist es wenig wahrscheinlich, dass die Fundierung der Idee des monografischen Prinzips durch die chemischen Ge- setze auf den direkten Einfluss Ostwalds zurückzuführen ist. Vielmehr lässt sich behaupten, dass die Darstellung des Wissens als Einheit von Einzelelementen unter dem Einfluss des berühmten schottischen Städteplaners und Sozialrefor- mators Patrick Geddes (1854-1932) entstand, den Otlet auf der Weltausstellung in Paris 1900 kennenlernte. Geddes, ein Anhänger der synthetischen Philoso- phie von Herbert Spencer, organisierte ab 1897 eine Reihe von Sommerschulen, bekannt als École de l’Exposition, und lud mehrmals Paul Otlet ein, um dort sei- ne an Spencer anknüpfenden Ideen der Fragmentierung und der Re-Synthese des Wissens (vgl. Spencer 1905) zu präsentieren. Um 1920 plant Geddes eine Reihe von Kurzartikeln als Überblick der moder- nen Ansichten über die menschliche Zivilisation vom Standpunkt der Sozio- logie und ihrer Unterdisziplinen, die zwischen 1925 und 1929 in der Revue so- ciale et politique erscheinen sollen. Er diskutiert sein Projekt mit Paul Otlet, Das Mundaneum oder das papierne Internet 43 der zwischen 1923 und 1925 einen Vorlesungszyklus über Universalismus an der Neuen Universität in Brüssel hält. Otlet ist der Meinung, dass man viel- mehr ein universitäres Fach namens Studia Synthetica braucht, dessen Grund- lagen ein Atlas Encyclopaedia Synthetica und eine Anthologie Synthétique des Sciences (Rayward 1975, 266f., 296f.) bilden sollen. Er sieht die Zukunft der Bi- bliografischen Bewegung, die inzwischen auch als Dokumentationsbewegung bekannt geworden ist, in einer allumfassenden Synthetischen Bewegung. 1926 plant er den Übergang zur Synthetischen Bewegung in einem Entwurf zur Gründung eines Zentrums für Bildung am Mundaneum und skizziert darin die neuen Komponenten des »universalen« Bildungswesens: Visualisierungen auf Bildschirmen, die durch didaktische Erläuterungen versetzt sind; Projektionen von Mikrofotografien, schwarz-weißen und Farbfilmen, sowie Einsatz von Ra- diosendungen, die als Hilfsmittel im Fremdsprachenunterricht dienen können (Rayward 1975, 297). Um die »synthetische« Tätigkeit des Mundaneums zu dokumentieren, arbeitet Otlet an einer Encyclopaedia Microphotica Mundaneum im Mikrofilm-Format (1,4 x 1,8 cm) und einer Encyclopaedia Universalis Atlas Mundaneum im Chart- Format (64 x 67 cm) als Ergänzung zu den Standardkarteikarten (7,5 x 12,5 cm) des RBU. Ab 1929 produziert er mit André Van Remoortel, einem ehemaligen Mitarbeiter von Robert Goldschmidt und Gründer der belgischen Firma Cine- scopie, eine Serie von Lehrfilmen, die aus unbewegten Bildern und Kommen- taren bestehen. Wie man bereits ihren Titeln entnehmen kann, liefern sie eine Übersicht über die Tätigkeiten im Mundaneum: a travers le palais mondial, l’atlas de la civilisation, la classification decimale, la sociéte des nations et la paix, cité mondiale. Diese Filme (formal heutigen Powerpoint-Präsentati- onen nicht unähnlich) bildeten etwa ein Drittel des visuellen Materials der En- cyclopedia Universalis Mundaneum, der Dokumentationsdatenbank über die Bestände und die Strukturen des Mundaneums. Zusammen mit Otto Neurath, Gründer des Gesellschafts- und Wirtschaftsmuse- ums in Wien (1924), plante Otlet 1929 einen Atlas der Weltkultur, Novus Orbis Pictus,¯4 der die gegenwärtigen Tendenzen und Prozesse nach der Wiener Me- thode der Bildstatistik¯5 visualisieren und didaktisch aufbereiten sollte, so- dass sie auf Wanderausstellungen in der ganzen Welt gezeigt werden konnten. Neurath, der das Museumswesen durch sein Konzept des beweglichen Muse- ums revolutioniert hatte,¯6 war für die bildlichen Repräsentationen der Sach- verhalte und die Ausstellungsoberflächen zuständig. Das Mundaneum über- nahm die Entwürfe der thematischen Konzepte und ihre weltweite Verbreitung durch seine Informationsdienste. Tätigkeiten wie Vervielfältigung der Materi- alien und Organisation von Ausstellungen jenseits des Atlantiks wurden dem 44 Lena Christolova Museum of Science and Industry in Chicago unter der Leitung von Waldemar Kaempffert aufgetragen. 1931 begann Neurath mit dem Aufbau des Wiener Mundaneums, weitere Ableger finden sich in dem 1931 in Moskau gegründeten Isostat-Institut, in der 1934 durch die Sage Foundation in New York gegründeten Pictorial Statistics Inc., in dem 1932 in Amsterdam und London eröffneten Mu- seum van de Arbeit und in der London’s Association for Adult Education sowie in dem Mundaneum in Den Haag, das Neurath 1933 persönlich eröffnete. Die Fragmentierung des Wissens bei der Dokumentationsarbeit dieser Institu- tionen ging Hand in Hand mit der Normung seiner Formate und der Re-Grup- pierung seiner Inhalte nach dem ursprünglichen Vorbild oder nach anderen Kriterien, die dank der bibliografischen Klassifikation und der zahlreichen Da- tenbanken für neue Wissenssynthesen sorgten. Die Datenbanken: Tatsachen und Einträge Wie schon der Name Répertoire Bibliographique Universel verrät, handelte es sich bei der ersten von Otlet und La Fontaine angelegten Datenbank um ei- nen Bibliothekskatalog mit identischen Einträgen für alle großen Bibliotheken der Welt, der sowohl ihnen als auch Privatnutzern einen schnellen und ge- nauen Zugriff auf die vorhandenen Titel und Dokumente und die darin enthal- tenen Informationen gewähren sollte. Die nach dem »monografischen« Prinzip extrahierten Dokumente bildeten unterschiedlichste Typen von Datensätzen, deshalb erstellte man Indizes, die die Monographe nach Thema, Inhalt, wissen- schaftlichen Gesetzen, alphabetischer Ordnung, physischer oder technischer Beschaffenheit filterten und ordneten. Durch die Trennung von Inhalt und Lay- out, das von dem standardisierten Format der Karteikarten abhing, wurden die Informationen so komprimiert und sortiert, dass die Anfragen an die Bibliothekszentren und Abb. 6: Der Saal des Répertoire an das Mutter-Mundaneum in Brüssel schnell Bibliographique Universell (RBU) und zutreffend beantwortet werden konnten. Obwohl das Répertoire Bibliographique Univer- sel (RBU) ein typisches Karteikastensystem war, enthielt seine Struktur Informationsmodu- le, die – wie das NoteCards-System von XEROX- Park – auf der Basis von vier Kategorien gebildet wurden: Fakten, Interpretation der Fakten, Sta- tistiken und Quellenangaben (Otlet 1990, 16f). Das Mundaneum oder das papierne Internet 45 Während die Synthese der »elementaren Dokumente« auf der Ebene der In- dexierung geschah, bildeten die statistischen Tabellen, Charts und Inhalts- verzeichnisse die Grundlage für eine enzyklopädische Metadatenbank (Bibli- on). Diese Metadatenbank in spe wurde durch ein internationales Netzwerk von Mitarbeitern ständig aktualisiert, damit man den Überblick über die aktu- ellen Entwicklungen auf den einzelnen Wissensfeldern behalten konnte. Spe- ziell dafür geschaffene Informationsdienste in Kooperation mit dem Verlags- und Patentwesen hatten zur Aufgabe, die wissenschaftlichen Institutionen in der ganzen Welt über die neuesten wissenschaftlichen Ereignisse auf dem Lau- fenden zu halten. Da es an externen Anfragen keineswegs mangelte, wurden auch Regelsätze für die bearbeiteten Einträge festgesetzt, die 1902 5 Centimes pro kopierte Karteikarte (Monograph) oder 27 Francs für tausend Karten betru- gen (Rayward 1975, 132). Zum Vergleich: Laut Angaben von Gerfried Stocker, künstlerischer Leiter und Geschäftsführer der Ars Electronica in Linz, verfügte 2010 Wikipedia als eine der meist benutzten Internetdatenbanken der Welt über circa 15 Millionen Einträge (Der Standard v. 06.08.2010). Dies entspricht in etwa der Anzahl der Einträge (15.646.346) der Mundaneum-Datenbanken am 1. April 1934, welche zusätzlich zu den bibliografischen Daten auch Bestände der daran angeschlos- senen Institutionen aufbewahrten. Nur die bibliografischen Einträge benöti- gten 260 Karteischränke mit einer Gesamtlänge von 186 Metern zu ihrer Auf- bewahrung. Deshalb entstand 1906 eine zweite Datenbank für visuelle Information, das Répertoire Iconographique Universel (RIU), das 1912 über 250.000 Einträge ver- fügte (Rayward 1975, 154). Neben den für das RBU standardisierten Karteien, die weiterhin genutzt wurden, entwickelte man für uneinheitliche Formate wie Prospekte, Zeitungsausschnitte oder Briefe spezielle Ordner, die einen Na- men bekamen, der an ihren Inhalt »weitervererbt« wurde. Es wurden außer- dem Großkarteikarten (21,5 x 27,5 cm) eingeführt, die an die Stirn des Ordners angebracht wurden und in der Regel Abbildungen der darin enthaltenen Il- lustrationen und Fotografien enthielten. Die Gesamtinformationen über den Ordner hielt man in einem dreifachen Index fest, auf dem die Registrierungs- nummer der Objekte mit Verweis auf ihren Ort, ein thematischer Verweis, so- wie die Namen der Autoren verzeichnet wurden. Die Systematisierung durch Ordner führte 1907 zur Entstehung der Enzyklopä- dischen Datenbank (Répertoire Encyclopédique), die vorwiegend nicht-textu- elles Material enthielt. 1914 umfasste sie eine Million Einträge, die auf 10.000 Ordner verteilt waren (Rayward 1975, 154). Obwohl 1907/1908 ein Dienst für Technische Informationen sowie ein Pressemuseum (Musée de la Presse) ins Le- 46 Lena Christolova ben gerufen wurden (ebd., 156), die das Bibliografische Institut bei seiner Ar- beit entlasteten, sprach Otlet von einer enormen und stetig größer werdenden Masse von Informationen, der man nur durch ihre rationale Organisation ent- gegensteuern kann (Otlet 1934, 3). Otlet und La Fontaine waren überzeugt, dass die Rückführung der verselbstän- digten Daten auf ihren ursprünglichen Ort nur durch ein einheitliches System der Kodifizierung gesichert werden konnte (Otlet 1990, 214). Dieses System sollte vermeiden, dass die Daten bei ihrem numerischen Kodieren mehr als einmal definiert werden, indem aufgrund von vorher festgelegten Prinzipien, Normen und Regeln gewährleistet wurde, dass das Partikuläre und Besonde- re dem Allgemeinen untergeordnet wird (Otlet 1934, 411). Deswegen sollte die Enzyklopädische Datenbank nicht nur zum Index der Indizes nach dem Modell des Universalen Buches werden, in dem jedes Buch ein Kapitel und jeder Arti- kel ein Paragraph ist (Otlet 1990, 194), sondern vor allem ein effizientes Daten- managementsystem, das abstrakte Reihen aus Datenkategorien erstellt, worin die neu zu registrierenden Daten ohne vorherige Adaptation an den richtigen Ort eingefügt werden können (ebd.). Diese Datenreihen sind mit den moder- nen Formaten für einfache Strukturierung und Verbreitung von Änderungen auf Webseiten, den RSS-Feeds (Really Simple Syndication Feeds) insofern ver- gleichbar, da sie einen Datenstrom von Informationen bilden, die aus einem oder mehreren Dokumenten extrahiert worden sind. Die Software: Die DDC und die UDC Die »Software« für dieses Unterfangen lieferte die DDC von Dewey, in dessen Dezimalprinzip Otlet und La Fontaine 1895 ein vollkommenes System der Wis- sensrepräsentation sahen. Das dezimale Stellenwertsystem, dessen Grundi- dee schon Leibniz beschreibt, stellt einen Datenbaum dar, dessen Datenstruk- tur durch die geordnete Folge der Nachfolger für jeden Knoten bestimmt wird (vgl. Solymosi/Grude 2008, 115). Deshalb nahmen Otlet und La Fontaine an, dass er zum Universalcode der neuen Wissenschaft der Wissensorganisation und ihres Desiderats – eines universalen Systems der Wissensrepräsentation – werden kann: »Indeed, the numerals which represent the classes and divisions of each subject come togeth- er in an extremely simple numerical expression: 537 in fact signifies nothing else but the fifth class, third section, seventh division. The links, the genealogy even, of ideas and objects, their relationships of dependence and subordination, of similarity and difference find suitable repre- Das Mundaneum oder das papierne Internet 47 sentation in the bibliographical expression formed in this way. […] It is a kind of agglutinative language: its numerals are roots, predicative and attributive roots, purely verbal roots in the sense that they are not nouns, adjectives, or verbs. They are placed above and outside any gram- matical category in that they express abstractions, pure scientific categories. […] In this two- fold way, the Decimal Classification actually constitutes an international scientific language, a complete system for representing science […] « (Otlet 1990, 34). Wie bereits erwähnt, teilt das System der Dezimalklassifikation (DDC) von Mel- vil Dewey das gesamte menschliche Wissen in Kategorien auf, denen jeweils eine Klasse von null bis neun zugewiesen wird. In ihrer Hauptansicht wer- den die zehn Hauptklassen gezeigt, in der zweiten Ansicht wird jede der zehn Hauptklassen in weitere zehn Klassen (divisions) aufgeteilt, und in der dritten Ansicht wird jede Klasse der zweiten in zehn weitere Unterklassen der dritten Kategorie (sections) unterteilt. Obwohl die DDC viele Ausnahmen und Richtlinien enthält,¯7 die nicht aus ih- rer abstrakten Struktur abzuleiten sind, stellt sie eine formale Sprache mit kla- ren logischen Kategorien und Annotationen dar. Die Syntax ihrer Objekte ist klar definiert: Kein Objekt darf weniger als drei Systemstellen belegen, auf wel- che der Dewey-Punkt folgt, außerdem endet die Notation rechts vom Dewey- Abb. 7: Die Universelle Dezimale Klassifikation 48 Lena Christolova Abb. 8: Das Netzwerk Punkt niemals auf null (Chan/Mitchell 2006). In der UDC als der von Otlet und La Fontaine optimierten Variante der DDC bewährten sich zudem diakritische Zeichen wie [+] (und = Beiordnungszeichen) oder [:] (Doppelpunkt = Zuord- nungszeichen). Sie machten es möglich nicht nur syntaktische, sondern auch Das Mundaneum oder das papierne Internet 49 semantische Interdependenzen zwischen den Objekten der UDC zu erkennen, wie etwa: »Auswirkungen des Alkoholismus auf die Volkswirtschaft« (178.1:33) im Unterschied zu »Alkoholismus und Volkswirtschaft« (178.1+33). Trotz zu- sätzlicher syntaktischer Zeichen, Abbreviaturen und Katalogschlüssel kommen auch in der UDC unsinnig lange komplexe Zahlenfolgen vor, die oft nicht mehr nachvollziehbar sind. Auch bei der Suche von Objekten innerhalb von komple- xeren Notationen mit mehreren Stellen ergeben sich ziemliche Schwierigkeiten (Rayward 1994a, 242). Um die Navigation durch die Systematik der Daten- banken zu erleichtern, führten Otlet und La Fontaine Trennungskarten ver- schiedener Farben ein, die sie minutiös in einem zweitausend Seiten starken Handbuch zum RBU erläuterten (Manuel 1907). So stand beispielsweise Grün für räumliche Zuordnungen, Blau für formale Unterteilungen und Orange für spezifische Themen und relationale Unterteilungen (Rayward 1994a, 242). Bei Suchen, die mehr als 50 Treffer erzielten, wurden die Kunden vor möglichen Überraschungen bei der Protokollierung der Ergebnisse der »Kommunikation zwischen den Karteikarten« gewarnt (ebd., 239). Fazit Das Datenbanksystem von Henri La Fontaine und Paul Otlet enthält alle Merk- male, welche die Datenbank zum Zentralelement einer modernen Wissenskul- tur avancieren lassen: klar definierte Elemente und Ontologien der Datensätze sowie Hierarchien, die taxonomischen Regeln unterliegen. Aufgrund der zwei Operationen – Analyse (Fragmentierung) und Synthese des Wissens – weist ihr Datenbankkonzept die Haupteigenschaft des semantischen Netzes auf, an je- dem seiner Knotenpunkte seine wichtigsten Charakteristika vorzufinden. So- wohl in dem Aufbau des institutionellen Netzwerks, das von seinem Dachver- band, der Internationalen Organisation für Dokumentation (Réseau Universal de Documentation), über die ausführenden Organe (Centre de Réseau) bis zum persönlichen Arbeitstisch oder Arbeitsstation (Station de Réseau) Symmetrien in seinen Knoten aufweist, (vgl. Otlet 1934, 375, 429) klingt Otlet’s Definition des Netzes an: »Le propre d’un réseau c’est de retrouver les éléments essentiels dans chacune de ses stations«(ebd., 278).¯8 Otlet und La Fontaine teilen die Auffassung Le Corbusiers von der Architektur als materiellem Ausdruck von Ideen (Le Corbusier 1976 [1923], 28) und arbeiten lebenslang an Plänen über eine Cité mondiale als ideelles und reales Weltzen- trum des Wissens (vgl. Otlet 1935, 448-552). Da es dieser Stadt, deren Entwürfe noch im Belgischen Staatsarchiv zu sehen sind, nicht beschieden war, die Idee 50 Lena Christolova vom Netzwerk materiell zu verkörpern, repräsentiert nun das »papierne Inter- net« ihren Traum vom allzugänglichen Weltwissen. Anmerkungen 01˘ So nennt der Volksmund das Mundaneum-Museum in Mons (Bergen), Belgien. 02˘ Als Grad eines Baumes wird in der Informatik die Anzahl möglicher Nachfolger für einen Knoten bezeichnet. 03˘ Gegenwärtig versteht sich das Mundaneum in Mons [www.mundaneum.be] als ein Archiv-Zentrum mit politischem und Bildungsauftrag. Schwerpunkte neben dem Brüsseler Mundaneum von Otlet und La Fontaine sind Pazifismus, Anarchismus und Feminismus – Themengebiete, die aus der politischen Tätigkeit Henri La Fontaines und seiner Schwester Léonie resultieren. (Otlet 1934a, 214) Neben regelmäßigen Ausstellungen und Workshops zu diesen Themenschwerpunkten wird das Archiv des Vorkriegs-Mundaneums erschlossen, das gut sechs Kilometer Regalböden umfasst, von welchen nur ein Kilometer systematisch gesichtet, archiviert und statistisch erfasst worden ist. Da Mons 2015 zur Kulturhauptstadt Europas werden soll, könnte sich diese bedauernswerte Bilanz noch ins Positive wenden. 04˘ Sein Akronym N.O.P. verweist auf die Initialen der Namen von Neurath und Otlet, sowie auf die Bildenzyklopädie des großen Pädagogen Jan Amos Commenius Orbis Sensualium Pictus (1658). 05˘ Die Wiener Methode der Bildstatistik zeigt statistische Daten wie z. B. Verteilungen zwischen Arbeitnehmergruppen, Krankheitsstatistiken oder Geburts- und Sterberaten als Mengenbilder. Die Größenordnung der Daten wird u.a. durch kodifizierte Farben und Unterschiede in den Größenverhältnissen der Elemente zum Ausdruck gebracht, was selbst Analphabeten die Erschließung der übermittelten Informationen ermöglicht. Dieser neue Typus von Zeichen, der sein Objekt durch einen Grad höchstmöglicher Ikonizität repräsen- tiert, ist für Neurath der Universalcode der neuen einheitlichen Wissenschaft. 06˘ Neurath versteht das Museum mehr als ein ideelles Projekt denn als Raum, deshalb soll- ten seine Inhalte auch vervielfältigbar, kopierbar und transportierbar sein: »Die Museen sollten nicht zentral gelegene Monumentalanlagen, sondern bewegliche Gebilde sein, die man je nach Änderung des Ausstellungszweckes leicht umgestalten kann«, so Neurath (1931, 9) über das 1924 am Fuchsenfeld 5 in Wien gegründete GeWiMu, das ab 1927 in der Volkshalle im Wiener Rathaus untergebracht wird. Mit der Beweglichkeit des Museums und seiner Inhalte wird das moderne Museum – wie auch das Internet – als ein Medium der Kommunikation etabliert, dessen Identität nicht mehr an physikalische Objekte und Orte gebunden ist. Das Mundaneum oder das papierne Internet 51 07˘ Zueinander in Beziehung stehende Themen werden z. B. so klassifiziert, dass ein Werk, das den Einfluss Shakespeares auf Goethe behandelt, bei Goethe und nicht bei Shakespeare zu finden ist. Behandelt ein Werk die Verhältnisse zwischen den USA und Deutschland, wird es unter Deutschland angeführt, da die Stelle für Deutschland (943) vor der Stelle für die USA (973) auf der Liste steht. 08˘ Dt.: »Die Haupteigenschaft eines jeden Netzes besteht darin, dass an jedem seiner Knoten seine wichtigsten Elemente zu finden sind«. Bibliografie Berners-Lee, Tim (1998) What the semantic web can represent, Paragraph: Knowledge Representation goes global. In: Design Issues [http://www.w3.org/DesignIssues/RDFnot. html]; letzter Abruf: 1.07.2011. Berners-Lee, Tim (1999) Weaving the Web: The Past, Present and Future of the World Wide Web by Its Inventor. London: Orion Business. Bush, Vannevar (1945) »As We May Think«. In: The Atlantic Monthly 176, 1, S. 101–108. Chan, Lois Mai/ Mitchell, Joan S. (2006) Dewey-Dezimalklassifikation. Theorie und Praxis. Ein Lehrbuch zur DDC 22. München: K. G. Saur. Conklin, Jeff (1987) Hypertext: an Introduction and survey. In: Computer 20, S. 17-41. Halasz, Frank G. / Moran, Thomas P. / Trigg, Randall H. (1987) Notecards in a nutshell. In: CHI ’87 Proceedings of the SIGGHI/GI Conference on Human Factors in computer systems and graphics interface. New York: ACM. Le Corbusier (1976) Towards a New Architecture. London: The Architectural Press. Original- titel [1923]: Vers Une Architecture. Paris: Crès. Manuel du Répertoire Bibliographique Univer- sel. Bruxelles: Institut International de Bibliographie 1907 (IIB N°663). Nelson, Theodor H. (1965) Complex information processing: a file structure for the com- plex, the changings and the indeterminate. In: ACM Proceedings of the 1965 20th National Conference (September 1965). New York: ACM. Nelson, Theodor H. (1992) Literary Machines: The Report on and of, Project Xanadu, Con- cerning Word Processing, Electronic Publishing, Hypertext, Thinker Toys. Sausalito (CA): Mindful Press. Neurath, Otto (1931): Das Gesellschafts- und Wirtschaftsmuseum in Wien. In: Minerva Zeitschrift 7:9/10. Neurath, Otto (1979): Die neue Enzyklopädie. In: ders.: Wissenschaftliche Weltauffassung, Sozialismus und Logischer Empirismus. Hrsg. v. Rainer Hengselmann. Frankfurt a. M.: Suhr- kamp, S.120-131. Ursprünglich in: Einheitswissenschaft 6 (1938), S. 6-16. Ostwald, Wilhelm (1919) Die chemische Literatur und die Organisation von Wissenschaft. Leipzig: Akademische Verlagsgesellschaft. 52 Lena Christolova Ostwald, Wilhelm (1927) Lebenslinien Bd. 2. Berlin: Klasing. Ostwald, Wilhelm (1929) Die Pyramide der Wissenschaft. Eine Einführung in wissen- schaftliches Denken und Arbeiten. Stuttgart: Cotta. Otlet, Paul/ La Fontaine, Henry (1903) Something about Bibliography. In: Otlet 1990, S. 11-24. Originaltitel [1891/92]: Un peu de bibliographie. In: Palais. Organ des Conférences du Jeune Barreau de Belgique. 1891-1892, 254-271. Otlet, Paul (1903) The Science of Bibliography and Documentation. In: Otlet 1990, S. 71-86. Otlet, Paul/ Goldschmidt, Robert (1906) On a New Form of the Book: The Microphoto- graphic Book. In: Otlet 1990, S. 204–10. Otlet, Paul (1909) La function et les transformations du Livre. Résumé de la conférence fai- te à la Maison du Livre 14 November 1908. Bruxelles: Musée du Livre. Otlet, Paul (1911) Livre microphotographique: le bibliôphote ou livre à projection. In: Bulle- tin officiel de l’Union de la presse périodique belge 20 (September-October 1911), S. 197-205. Otlet, Paul (1913) Le livre dans les sciences, Conférence faite à la maison du Livre par M. Paul Otlet. Bruxelles: Musée du Livre. Otlet, Paul/ Oderfeld, Anne (1929) Atlas de la civilisation universelle. Conception- Or- ganisation-Méthodes de la préparation du Matériel didactique en coopération internationale par Paul Otlet et Anne Oderfeld. Bruxelles: Palais Mondial. Otlet, Paul (1934) Traité de documentation: le livre sur le livre: théorie et pratique. Bru- xelles: Editiones Mundaneum, Palais Mondial. Otlet, Paul (1934a) Henri La Fontaine. In: Otlet 1990, S. 214-216. Otlet, Paul (1935) Monde: Essai d’universalisme: Connaissances du monde. Sentiments du monde. Action organisée et plan du monde. Bruxelles: Editiones Mundaneum / D. Van Keer- berghen & Fils. Otlet, Paul (1990) International Organisation and Dissemination of Knowledge. Selected Essays of Paul Otlet. Hrsg. v. W. Boyd Rayward. Amsterdam [u.a.]: Elsevier. Rayward, W. Boyd (1975) The Universe of Information: The Work of Paul Otlet for Docu- mentation and International Organization. Moscow: VINITI. Rayward, W. Boyd (1994a) Visions of Xanadu: Paul Otlet (1868–1944) and Hypertext. In: Journal of the American Society for Information Science 45, 4, S. 235–50. Rayward, W. Boyd (1994b) The International Federation for Information and Documenta- tion (FID). In: Encyclopaedia of Library History. Hrsg. v. Wayne A. Wiegand & Don G. Davis Jr. New York: Garland Press, S. 290-294. Rayward, W. Boyd (2003) Knowledge Organization and a New World Policy: the Rise and the Fall of the Ideas of Paul Otlet. In: Transnational associations/ Associations transnatio- nales: la revue de l’Union des associations internationales, numéro spécial 1–2/2003 (L’oeuvre de Paul Otlet), S. 4–15. Solymosi, Andreas/ Grude, Ulrich (2008) Grundkurs Algorithmen und Datenstruk- turen in JAVA. Eine Einführung in die praktische Informatik. Wiesbaden: Vieweg und Teubner. Das Mundaneum oder das papierne Internet 53 Speeckaert, Georges Patrick (1970) Rückblick auf die sechzigjährige Tätigkeit der Union der Internationalen Verbände 1910-1970. In: UIA, 1910-1970: Vergangenheit, Gegenwart, Zu- kunft; zum sechzigjährigen Jubiläum, Brüssel UIA 1970, S. 19-54, [http://laetusinpraesens.org/ uia/docs/anniv60/60ann_ger_gps_pdf]; letzter Abruf: 01.07.2011. Spencer, Herbert (1905) First Principles of Synthetic Philosophy. Hrsg. v. Julius Ruska. Heidelberg: Carl Winters Universitätsbuchhandlung. 54 Lena Christolova Marcus Burkhardt Informationspotentiale. Vom Kommunizieren mit digitalen Datenbanken In Grammophon, Film, Typewriter hat Friedrich Kittler 1986 das Ende der Medi- en ausgerufen, welches sich im Aufkommen des Computers ankündigt. Durch den Computer als Medium kommen die Medien an ihr Ende. Dieses Ende ist je- doch ein doppeltes, es bedeutet den Tod und die Vollendung der Medien: »In der allgemeinen Digitalisierung von Nachrichten und Kanälen verschwinden die Unter- schiede zwischen einzelnen Medien. Nur noch als Oberflächeneffekt, wie er unterm schönen Namen Interface bei Konsumenten ankommt, gibt es Ton und Bild, Stimme und Text. Blendwerk werden die Sinne und der Sinn. Ihr Glamour, wie Medien ihn erzeugt haben, überdauert für eine Zwischenzeit als Abfallprodukt strategischer Programme. In den Computern selber dagegen ist alles Zahl: bild-, ton- und wortlose Quantität« (Kittler 1986, 7f.). Das Verschwinden der Einzelmedien ist Resultat der Vollendung der Medien im Universalmedium Computer, welches sich gerade dadurch auszeichnet, alle vormaligen Medien integrieren zu können.¯1 Gemeinsame Basis alles Medi- alen bildet fortan der digitale Code, auf dessen Grundlage es Kittler zufolge möglich ist »jedes Medium in jedes andere Medium« (Kittler 1986, 8) zu über- setzen. An die Stelle der Differenz der Medien tritt, so die Überzeugung Kitt- lers, die Einheit der Information, welche in der nachrichtentechnischen Kom- munikationstheorie durch Claude E. Shannon (1948) auf ihr mathematisches Fundament gestellt wurde.¯2 Seit der Publikation von Grammophon, Film, Typewriter ist ein Vierteljahrhun- dert vergangen. In der Zwischenzeit sind Computer und mit ihnen das Internet zu einem alltäglichen und deshalb zentralen Bestandteil der globalen Medien- kultur geworden, was jedoch zur Folge hatte, »dass zum Ärger technischer Pu- risten, die Befehlsausführung auf Ebene des Betriebssystems zunehmend hin- ter der ikonischen Ebene des Displays verschwindet« (Hartmann 2006, 194). Sinn und Sinnlichkeit erwiesen sich entgegen Kittlers Prognose also nicht als temporäres Blendwerk, sondern haben auch unter den Bedingungen der fort- schreitenden Digitalisierung Bestand. Der Computer als Medium nivelliert nicht sämtliche Mediendifferenzen, sondern fungiert als Metamedium auf dessen Bühne die Unterschiede zwischen Medien als Spiel medialer Formen bis zum Informationspotentiale. 55 Exzess getrieben werden (vgl. Laurel 1993). Hierin mag man einen Missbrauch des Computers erkennen, der dessen eigentliche Bestimmung unterwandert, »das absolute Wissen als Endlosschleife« (Kittler 1986, 8) zu prozessieren. Oder man beginnt den Computer von seinen kontingenten Gebrauchsformen her als eine Medientechnologie zu betrachten, die unsere kommunikativen und informationellen Praxen auf mannigfaltige und zum Teil auch widersprüch- liche Weise konfiguriert (und immer wieder auch rekonfiguriert). Eine solche Betrachtung geht nicht von der Programmierbarkeit des Computers aus, de- ren Prinzip theoretisch im Modell der Turingmaschine (1987 [1937]) beschrie- ben und praktisch in der Von-Neumann-Architektur (1987 [1945]) umgesetzt wurde, sondern analysiert Computer als programmierte Technologien, deren Medialität sich vor dem Hintergrund ihrer jeweils spezifischen Programme ab- zeichnet. Information wird infolgedessen nicht als »sub-semantischer Effekt der Hardware von Kommunikation« (Ernst 2002, 173) verstanden, sondern als ein Effekt programmierter Computerhardware, das heißt von Software-Hard- ware-Konfigurationen.¯3 Computer prozessieren Medienobjekte (Texte, Bilder, Filme, Animationen, Mes- sdaten) nicht (nur)¯4 unterschiedslos als Information im nachrichtentech- nischen Sinn. Was Information ist, zeigt sich erst im Kontext der programm- gesteuerten Verarbeitung digital codierter medialer Konstellationen; denn Software bedingt mit, was als Information zur Erscheinung kommen, als solche gespeichert, übertragen und verarbeitet werden kann. An die Stelle des Mythos eines einheitlichen und universellen Informationskonzepts tritt dabei die tat- sächliche Vielfalt partikularer Formen von Information, wie sie durch konkrete Computeranwendungen hervorgebracht werden.¯5 Hiervon zeugen die kon- zeptuelle und technische Entwicklung digitaler Datenbanken sowie die medi- alen Praxen, in die Datenbanktechnologien in unserer zeitgenössischen Medi- enkultur verf lochten sind. Dies gilt es im Folgenden nachzuzeichnen. Ausgehend von einer Rekonstruktion des doppelten Ursprungs digitaler Da- tenbanken im Managementdiskurs und im Diskurs der bibliothekarischen In- formationsverwaltung werden zwei Modelle der Kommunikation mit Infor- mationssammlungen skizziert, die nicht nur ein Gegenmodell zu Shannons nachrichtentechnischem Kommunikationsmodell darstellen, sondern auch ei- nen spezifischen Problemkontext beschreiben, der den Horizont der Entwick- lung konkreter Datenbanktechnologien bildet. Vor diesem Hintergrund wird deutlich, dass die computertechnische Verarbeitung von Informationen keines- wegs grundsätzlich von der Frage nach deren Sinn, Gehalt und Bedeutung ab- sieht. Gleichwohl Computer Informationen nur auf dem Niveau ihrer formalen Merkmale regelgeleitet verarbeiten können, folgt hieraus nicht notwendig ein 56 Marcus Burkhardt Verzicht auf Semantik. Im Gegenteil, die Entwicklung digitaler Datenbanken kann als Experiment verstanden werden, Semantik in Syntax zu übersetzen und hierdurch die Verarbeitung von Semantik in nicht-semantischen Routinen zu ermöglichen. Im zweiten Schritt wird die Übersetzung der abstrakten Modelle der Daten- bankkommunikation in konkrete technische Probleme und Lösungsstrategien dargestellt. Dabei wird die These verfolgt, dass die Einführung der Festplatte den hardwaretechnischen Horizont bildet, vor dem sich die Entwicklung von zentralen Konzepten der Informationsverwaltung in digitalen Datenbanken sowie die technische Implementierung von Datenbanksystemen vollzieht. Dies wird an der Entwicklung hin zur ANSI/X3/SPARC-Datenbankarchitektur ver- anschaulicht, welche noch immer als Modell der Informationsverwaltung in digitalen Datenbanken dient. Das prinzipielle Ziel, die Findbarkeit von Infor- mationen in Datenbanken zu gewährleisten, wird in dem Entwurf dieser Da- tenbankarchitektur von dem ökonomisch motivierten Wunsch begleitet, die Unabhängigkeit digitaler Informationen von den sie verarbeitenden Program- men sicherzustellen. An diese technische Problemkonstellation anschließend, kann der Debatte um Materialität respektive Immaterialität digitaler Infor- mation eine produktive Wendung gegeben werden, indem gezeigt wird, dass die Immaterialität digitaler Informationen weder ein bloßer Schein ist, der durch die irreduzible Materialität von Computern und Computernetzwerken entlarvt wird, noch dass es sich um ein Wesensmerkmal dieser Informationen handelt.¯6 Vielmehr ist der Eindruck der Immaterialität ein Effekt der zuneh- menden Entkopplung der Informationsverarbeitung von ihrer Verwaltung im Computer, die durch Datenbanken gewährleistet wird und sich als Autonomie digitaler Informationen gegenüber den sie verarbeitenden Programmen re- spektive Präsentations-, Zugriffs- und Auswertungsformen zeigt. Kommunikation mit Datenbanken Die digitale Medienkultur ist nicht nur eine Kultur der Algorithmen, der Berech- nung, der Simulation und der Generierung digitaler Welten, sie ist gleicherma- ßen eine Kultur des Sammelns, Speicherns, Zirkulierens und Suchens von In- formationen. Ende der 1950er und Anfang der 1960er Jahre wurde die Idee der computergestützten Versammlung, Speicherung und Abfrage von Informati- onen auf den Begriff der Datenbank gebracht. Bezeichnet wird hierdurch ein Speicher aus dem im Zugriff Informationen geschöpft werden können. Im Zuge der Herausbildung und Popularisierung der Datenbankidee fand im Juni 1963 Informationspotentiale. 57 in Santa Monica, Kalifornien, die wohl erste Tagung statt, welche sich explizit und ausschließlich dem Problem der Versammlung und Verwaltung von Infor- mationen in Computern widmete. Auf Initiative der System Development Cor- poration (SDC) und der Advanced Research Projects Agency (ARPA), deren Infor- mation Processing Techniques Office zu dieser Zeit von J.C.R. Licklider geleitet wurde, trafen bei dem Symposium »Development and Management of a Com- puter-Centered Data Base« Entwickler und potenzielle Nutzer aufeinander, um über die möglichen Anwendungsgebiete von Datenbanken zu diskutieren und um sich über konzeptuelle und technische Grundsatzfragen zu verständi- gen. Wie Licklider in seinen Eröffnungsbemerkungen feststellt, war eine der vordringlichsten Fragen, die dabei im Raum standen, die Klärung des Begriffs der Datenbank: »Early in the conference, someone should define ›data base‹« (Licklider 1964, 1). Am Ende der Tagung stand entgegen der Hoffnung Lickliders nicht eine Definition von Datenbanken, sondern zwei. Dies ist nicht zuletzt auch deshalb bedeutsam, weil in der Selbstgeschichtsschreibung der Informa- tik sowie in den kulturwissenschaftlichen Hinwendungen zur Geschichte digi- taler Datenbanken gemeinhin nur auf einen der beiden Definitionsvorschläge rekurriert wird, welcher Datenbanken anhand von drei Kriterien bestimmt: »1. A database is a set of files. 2. A file is an ordered collection of entries. 3. An entry consists of a key, or keys, and data« (Franks 1964, 119).¯7 Dieses Verständnis von Datenbanken als einer Menge von Dateien, in denen Einträge versammelt sind, die Daten beinhalten und durch Schlüssel adressiert werden können, greift auf ein Vokabular zurück, das sich bereits in den 1930er Jahren beim Umgang mit Lochkartenmaschinen im Bereich der technischen Daten- und Informationsver- arbeitung etabliert hat (vgl. Haigh 2009, 7). Medienhistorisch lässt sich die Un- terscheidung von Dateien, Einträgen, Daten und Schlüsseln jedoch noch weiter zurückverfolgen, wie Cornelia Vismann in ihrer Studie zu Akten gezeigt hat: »Das US-Militär wird Jahrhunderte später den Begriff ›Datenbank‹ medienhistorisch präzise so definieren, dass darin die diachrone Entwicklung von Akten aus Registern zu Indices enthalten ist. Aus Akten ( files) werden Einträge / Regesten (entries) deduziert, die wiederum eine Doppel- funktion als Schlüssel und Daten (key and data) übernehmen« (Vismann 2001, 170f.). Konzeptuell werden Datenbanken hierdurch in den Kontext der administra- tiven und institutionellen Informationsverarbeitung gestellt, der auch prak- tisch im Vordergrund des Datenbanksymposiums stand. Die zentrale Frage war, wie Computerdatenbanken zur Verbesserung des Managements großer Organisationen – seien es wirtschaftliche Unternehmen oder Armeen – bei- tragen können. Deutlich wird dies unter anderem in dem von Colonel A. K. Swanson vorgebrachten Problem, der organisationsinternen Auswahl von ge- 58 Marcus Burkhardt eigneten Kandidaten für bestimmte Aufgaben, welches er am Beispiel der Ab- ordnung von Offizieren in der United States Air Force diskutierte (vgl. Swan- son 1964, 54f.). Die Datenbank gewinnt hierbei Kontur als eine Technologie des Controlling, die die Überwachung und Steuerung von Organisationen unter- stützen soll. Anders als es die geläufige Zitationspraxis suggeriert, erzielte man während der Tagung noch keine Einigung darüber, was genau Datenbanken sind be- ziehungsweise welche Aufgabe sie erfüllen sollen. Wie E. W. Franks berichtet, wurde an der bereits angeführten Definition auch Kritik laut, die auf den re- lativ engen Fokus des Definitionsvorschlags abzielt. In Reaktion hierauf erwog man eine zweite breitere, aber auch unspezifischere Definition, der zufolge eine Datenbank erstens aus Daten und zweitens aus Mitteln zum Zugriff auf diese Daten besteht (vgl. Franks 1964, 120).¯8 Dieses weite Verständnis weist in Richtung eines zweiten Entwicklungskontexts, aus dem heraus die medien- technische Praxis digitaler Datenbanken erwachsen ist. So lässt sich die kon- zeptuelle und technische Entwicklung von digitalen Datenbanken nicht nur auf den Bereich der institutionellen Informationsverarbeitung zurückführen, viel- mehr steht die Datenbankentwicklung auch in der Tradition des bibliotheka- rischen Diskurses des Information Storage and Retrieval. Geprägt wurde der Begriff des Information Retrieval 1950 von Calvin Mooers, dessen Problemhorizont er folgendermaßen definiert: »The problem of direc- ting a user to stored information, some of which may be unknown to him, is the problem of ›information retrieval‹« (Mooers 1950, 572). Vor diesem Hinter- grund formuliert Mooers ein Modell der technischen Kommunikation mit In- formationssammlungen: »In information retrieval, the addressee or receiver rather than the sender is the active party. Other differences are that communication is temporal from one epoch to a later epoch in time, though possibly at the same point in space; communication is in all cases unidirectional; the sender cannot know the particular message that will be of later use to the receiver and must send all possible messages; the message is digitally representable; a ›channel‹ is the physical document left in storage which contains the message; and there is no channel noise because all messages are presumed to be completely accessible to the receiver« (Mooers 1950, 572). Gleichwohl Mooers das nachrichtentechnische Kommunikationsmodell nicht explizit erwähnt, buchstabiert er im Detail die Gemeinsamkeiten und Unter- schiede zwischen den beiden Formen von Kommunikation aus, die er einerseits als Kommunikation im Raum und andererseits als Kommunikation in der Zeit charakterisiert.¯9 Informationspotentiale. 59 Während Shannon Kommunikation vorrangig vom Problem der Überwindung räumlicher Distanzen her als »point-to-point signalling« (Mooers 1950, 572) denkt, betrachtet Mooers die Kommunikation des Information Retrieval als »temporal signalling« (Mooers 1950, 572). Dies hat erstens eine Umkehr der Aktivitätszuschreibung zur Folge: Nicht der Sender, sondern der Empfänger ist der aktive Part der Kommunikation. Zweitens ist die Kommunikation strikt unidirektional, weshalb es notwendig wird, dass nicht nur bestimmte Nach- richten ausgesandt werden, sondern alle möglichen Nachrichten. Schließlich geht Mooers drittens davon aus, dass es das Problem des Kanalrauschens im Kontext des Information Retrieval nicht gibt. Auf Seiten des Empfängers lie- gen die Informationen, so Mooers Annahme, in Form von Dokumenten voll- ständig, intakt und demzufolge rauschfrei vor. Diese Behauptung lässt sich als eine strategische Idealisierung verstehen, die es Mooers erlaubt, Kommu- nikation als den suchenden Zugriff auf einen Speicher zu modellieren. Im Vor- dergrund steht dabei eben nicht die Übertragung von Nachrichten zwischen Personen, sondern die mehr oder minder zielgerichtete Abfrage von Informati- onen, die gespeichert vorliegen. Damit sind die Eckpfeiler eines Kommunikati- onsmodells skizziert, welches ebenso wie es auch bei Shannons Modell der Fall ist, nicht Kommunikation im Allgemeinen, sondern ein spezifisches Kommuni- kationsproblem beschreibt, das im Finden von Informationen besteht.¯10 Die einseitige Fokussierung auf das (Auf)Finden von Dokumenten führte dazu, dass Mooers der Seite der Bereitstellung von Informationsressourcen und dem Speicher noch keine besondere Aufmerksamkeit beimaß. Dies änderte sich Ende der 1950er Jahre, als das Kommunikationsmodell des Information Retrieval in einem dezidierten Modell der Datenbankkommunikation kulminierte, welches im Rahmen eines vom Office of Naval Research finanzierten Forschungspro- jekts bei der Benson-Lehner Corporation entwickelt wurde. »Data Banking«, so ist im Abschlussbericht des Projekts zu lesen, »is the process of communicating between many conceivers to many receptors through a store« (Worsley et al. 1959, 5f.). Der Begriff des Data Banking dient den Autoren als Oberbegriff, um den gesamten Prozess des Information Storage und des Information Retrieval zu beschreiben. Es geht dabei nicht mehr nur um die Kommunikation mit Infor- mationssammlungen, sondern um eine Kommunikation durch Datenbanken, die als fünffacher Transformationsprozess modelliert wird. Gedanken werden in Dokumente übersetzt (1), die in einen Dokumentspei- cher eingehen (2). An diesen Speicher können Nutzer Fragen richten, die sie auf Grundlage ihres Informationsbedürfnisses formulieren (3). In Reaktion hierauf werden aus dem Speicher diejenigen Dokumente ausgewählt, die der Anfrage entsprechen (4) und an den Nutzer übermittelt, der diese im letzten 60 Marcus Burkhardt Abb. 1:Modell des Data Banking¯11 Schritt in Verständnis übersetzt (5). Zwischen den Produzenten von Nachrich- ten und ihren Rezipienten vermittelt diesem Modell zufolge kein Kanal, son- dern ein Store, den die Autoren im folgenden Data Bank nennen. Als Technik sollen Datenbanken die in Punkt zwei und vier spezifizierten Funktionen der Informationspotentiale. 61 Sammlung, Filterung, Indexierung, Verarbeitung, Speicherung, Abfrage und Distribution erfüllen. Eine Datenbank beziehungsweise ein Datenbanksystem ist demzufolge kein passiver Container, der Informationen nur aufbewahrt, vielmehr werden Informationen in Datenbanken zu einem Bestand, über den die Nutzer verfügen können. Die Datenbank birgt ein Informationspotenzi- al, welches im Prozess der Abfrage aktualisiert werden muss. Im suchenden Zugriff auf ein Reservoir vorhandener Informationen kommuniziert der Nut- zer, indem er bestimmte Informationen selektiert und durch diese überrascht wird.¯12 Hierdurch erfährt nicht zuletzt auch das Konzept der Information eine grundlegende Transformation: Wird Information in der Nachrichtentech- nik daran bemessen, welche Selektionen der Äußerung einer Nachricht inhä- rent sind, widmen sich Datenbankdiskurs und Datenbankpraxis auf der ande- ren Seite der Herausforderung aus einer Zahl von Nachrichten respektive aus einem Reservoir vorhandener Informationen diejenigen auszuwählen, die das nutzerseitige Informationsbedürfnis befriedigen. Kurzum: Der Gegenstand von Shannons Analysen ist die Gesamtheit möglicher Nachrichten und Äu- ßerungen. Demgegenüber richtet sich das Information Storage und Retrieval nur auf getätigte Äußerungen und Aussagen: »Library communication differs from telegraphic mainly in that all the messages have been sent already, and you have to pick out the right one to suit a query not known beforehand« (Fair- thorne 1961b [1953], 25). Über Informationen verfügen zu können, bedeutet im Kontext der Kommunikationsmodelle daher auch unterschiedliches. Shannon ist mit dem Problem der Replikation von Nachrichten beschäftigt, weshalb der Empfänger im Rahmen seines Modells genau dann über eine Information ver- fügt, wenn er die ausgesandte Nachricht vollständig empfangen hat. Dies wird im Modell der Datenbankkommunikation als unproblematisch vorausgesetzt. Die Verfügbarkeit von Information bedeutet hier nicht nur das Besitzen oder Haben von Nachrichten beziehungsweise Informationen, sondern gründet auf der Möglichkeit, diese aus einem Bestand vorhandener Informationen auswäh- len zu können. Infolgedessen tritt genau der Aspekt von Information in den Vordergrund the- oretischer Betrachtungen und praktischer Erwägungen, den Shannon aus- klammern konnte: Die Bedeutung von Information im doppelten Wortsinn von Gehalt und Relevanz. Dass Nachrichten auch eine Bedeutung haben, kann vor dem Hintergrund des Problems der nachrichtentechnischen Übertragung von Signalen ignoriert werden. »Frequently«, so schreibt Shannon, »the messages have meaning ; that is they refer to or are correlated to some system with cer- tain physical or conceptual entities. These semantic aspects of communication are irrelevant to the engineering problem« (Shannon 1948, 379). 62 Marcus Burkhardt Bedeutung ist für den Nachrichtentechniker aus zwei Gründen bedeutungs- los. Vor dem Hintergrund des Übertragungsproblems ist es erstens geboten von der Bedeutung von Nachrichten abzusehen, da der Kanal nicht nur beson- dere Nachrichten, sondern jede mögliche Nachricht übertragen können soll: »The system must be designed to operate for each possible selection, not just the one which will actually be chosen since this is unknown at the time of de- sign« (Shannon 1948, 379). Zweitens werden nicht Bedeutungen übertragen, sondern Nachrichten. Dass diese für den Sender und den Empfänger einen Sinn haben, ist dabei nebensächlich. Aufgrund dessen war es für Shannon ein Leich- tes, die Frage nach dem Informationsmaß für Nachrichten beziehungsweise der Übertragungskapazität eines Kanals von der Frage nach der Bedeutung von Information zu entkoppeln. Im Bereich der Datenbankkommunikation ist die Frage des (computer)tech- nischen Umgangs mit Bedeutung jedoch entscheidend. Dies zieht ein grund- legendes Problem nach sich, denn Computer sind nicht in der Lage Bedeutung zu verstehen, das heißt sie interpretieren Information nicht semantisch, son- dern verarbeiten sie auf dem Niveau ihrer Syntax. Können Computer nicht ver- stehen, was sie sammeln, indexieren und wieder zugänglich machen sollen, dann scheint das Ziel digitaler Datenbanken von vornherein zum Scheitern ver- urteilt und Shannons theoretisch motivierte Einklammerung von Bedeutung praktisch bestätigt. Hierbei handelt es sich jedoch um einen Kurzschluss, der auf der falschen Annahme beruht, dass der Umgang mit semantischen Infor- mationen, das heißt mit Sinn, Gehalt und Bedeutung, nur auf der Grundlage von Verstehen und Verständnis möglich ist. Robert Fairthorne zieht eben diese Vorstellung in Zweifel, wenn er feststellt, dass der bibliothekarische Umgang mit Dokumenten keinesfalls immer auf hermeneutischer Interpretation und Verständnis beruht. Im Gegenteil, viele Tätigkeiten im Kontext der Erschlie- ßung, Verwahrung und Verfügbarmachung von Dokumenten sind ein regelba- sierter und routinemäßiger Umgang mit Dokumenten und nicht das Resultat von verstehender Interpretation. Hierbei handelt es sich Fairthorne zufolge um »clerical activities« (Fairthorne 1961d, 94), die ebenso gut von Menschen wie von Computern erfüllt werden können. Was Fairthorne beschreibt, ist eine Ebe- ne der nichtsemantischen Verarbeitung von Semantik. Auf dieser Ebene ist die Bedeutung von Informationen durch die Regeln des Umgangs mit diesen Infor- mationen definiert: »For very many purposes the ›meaning‹ of a set of symbols is adequately defined as the rules for its use« (Fairthorne 1961c [1954], 66). Die Formulierung legt bereits nahe, dass Fairthorne keineswegs davon ausgeht, Computer könnten Informationen so wie Menschen verstehen oder dass das menschliche Verstandes- und Verständnisvermögen medientechnisch obsolet Informationspotentiale. 63 würde. Vielmehr geht es ihm darum den Bereich auszuloten, in dem Compu- ter erfolgreich zur Verwaltung und Verarbeitung bedeutungsvoller Informati- onen eingesetzt werden können. Hierfür sei es notwendig Konzepte in Physik zu übersetzen, das heißt Information über Realität in Information als Realität. Die in Dokumenten implizit enthaltenen semantischen Informationen sollen, so sein Vorschlag, durch Markierungen am Dokument expliziert werden: »The bridge between the concepts and the physics of retrieval is the notation or sy- stem of marking the text« (Fairthorne 1961a, X). Neben der Markierung, verstan- den als Hinzufügung von Inskriptionen zu Dokumenten, zieht Fairthorne ein zweites Verfahren der Explikation des Impliziten in Betracht – die Einordnung der Dokumente in ein Ordnungssystem. Bedeutung wird dabei nicht durch ein materielles Zeichen am Dokument manifest, sondern lässt sich aus der Stelle herauslesen, die ein Dokument in einem Ordnungssystem, wie zum Beispiel der Dewey-Dezimalklassifikation, einnimmt.¯13 Durch »›marking‹ and ›parking‹« (Fairthorne 1961b [1953], 95) können in Dokumenten enthaltene semantische Informationen mittelbar durch Technologien in routinemäßigen Verfahren ge- handhabt werden. Dass der computertechnische Umgang mit semantischen Informationen im Vergleich zum menschlichen Interpretationsvermögen de- fizitär ist, versteht sich dabei einerseits von selbst, ist andererseits aber nicht relevant, da der menschliche Gebrauch von Computern zur Verwaltung und Verarbeitung von Semantik im Zentrum des Interesses steht und nicht der Ver- such, den Menschen durch Computer zu ersetzen. Infolgedessen wird das se- mantische Wissen menschlicher Interpreten nicht überflüssig. Das Aufstellen der Übersetzungs- und Verarbeitungsregeln setzt Fairthorne zufolge Verste- hen und Verständnis voraus. Sind diese Regeln jedoch festgelegt, kann Seman- tik auch in nichtsemantischen Prozeduren verarbeitet werden. Grundlegend hieran ist die Einsicht, dass die (computer)technische Verarbeitung von Infor- mation nicht auf einer systematischen Ein- beziehungsweise Ausklammerung von Semantik beruhen muss. Lassen sich semantische Informationen in gewis- sen Grenzen in syntaktische Informationen übersetzen, dann ist das Absehen von Semantik kein Effekt der Hardware, sondern der Effekt einer theoretischen Prädisposition, die sich von dem zugrunde gelegten nachrichtentechnischen Kommunikationsmodell herleitet. Die beschriebenen Modelle der Kommuni- kation mit Informationssammlungen bilden hierzu eine Alternative. Vor ihrem Hintergrund bedeutet die algorithmische Verarbeitung von Informationen im Computer keinen Verzicht auf oder Abschied von Semantik, sondern lässt sich als Modus des nicht-interpretativen operativen Umgangs mit Zeichen verste- hen, wodurch Sybille Krämer zufolge ein zentrales Charakteristikum von Kul- 64 Marcus Burkhardt turtechniken beschrieben ist (vgl. 2003, 169f.). In Anbetracht dessen lassen sich Datenbanktechnologien als Kulturtechnologien begreifen. Vom Direct Access zur ANSI/X3/SPARC-Datenbank- architektur Artikuliert wurden in den Modellen der Kommunikation mit Informations- sammlungen abstrakte Ziele für beziehungsweise Aufgaben von Datenbanken. Im Zuge der Realisierung digitaler Datenbanktechnologien mussten diese in konkrete technische Probleme und ingenieurtechnische Lösungsstrategien übersetzt werden. Die Versammlung und Abfrage von Informationen mit Com- putern erwies sich auf der grundlegenden Ebene der Speicher dabei als ein Adressierungsproblem. Auch auf digitalen Datenträgern haben Informationen einen physischen Ort: als materielle Inskriptionen nehmen sie Raum ein. Das Finden einer bestimmten Information, wie zum Beispiel die Höhe der Neu- verschuldung Deutschlands im Jahr 2010, bedeutet den Ort dieser Informati- on aufzusuchen oder genauer, die an einem bestimmten Ort befindlichen In- skriptionen auszulesen. Ist der Ort der Information unbekannt, dann kann man nach dieser nur im gesamten Speicherraum suchen. Für den Fall, dass die An- ordnung der Informationen im Speicher keiner systematischen Ordnung unter- liegt, käme dies der sprichwörtlichen Suche nach der Nadel im Heuhaufen und damit dem Verlust der Information gleich. Analog hierzu gelten Bücher, die in Bibliotheken nicht entsprechend der vorgesehenen Stellordnung einsortiert werden, über kurz oder lang als verloren. Der Vergleich mit Bibliotheken ist in einer weiteren Hinsicht instruktiv. Die Anordnung von Medienobjekten im Raum der Bibliothek wird hier überlagert von einer zweiten Ordnung, der Ka- talogordnung. Letztere konstituiert ein Ordnungssystem des Wissens, das das Finden von Büchern in der Bibliothek ermöglichen beziehungsweise vereinfa- chen soll. Doch die Verzeichnung von Büchern im Katalog entlastet den Biblio- theksbesucher nicht von der Notwendigkeit sich auch in der Raumordnung der Bibliothek zu orientieren und durch diese zu navigieren. Dies aber müssen di- gitale Datenbanken leisten, die das Vergessen des Orts von Daten im Speicher ermöglichen sollen, indem sie es erlauben, Daten als Informationen zu adres- sieren. Das Herausfinden, welche Informationen es in der Datenbank gibt und das Auffinden dieser Informationen fallen dabei in eins. Als Information Retrieval Technologien dienen Datenbanken zur Automatisie- rung der Suche. Nutzerseitige Anfragen werden in Suchroutinen übersetzt, die in der Datenbank automatisch diejenigen Informationen ausfindig machen Informationspotentiale. 65 sollen, nach denen der Nutzer fragt.¯14 Eine mögliche Strategie, dies technisch umzusetzen, ist das schrittweise Durchsuchen des gesamten Speichers. So lan- ge Speichertechnologien, wie Lochkarten oder Magnetbänder, nur den seriel- len Zugriff auf den Gesamtbestand an gespeicherten Informationen erlaubten, war kein anderes Vorgehen bei der automatisierten Suche durch Computer denkbar. Die Beschränkung auf seriellen Zugriff wirkte sich dabei nicht nur auf die Abfrage von Information aus, sondern auch auf ihre Speicherung. Zusam- mengehörige Informationen wurden in seriellen Speichern als Datensätze an- geordnet, die wiederum geordnet nach einem bestimmten Schlüsselwert auf dem Datenträger abgelegt wurden.¯15 Hierdurch versuchte man die Nachteile des seriellen Zugriffs bei der Abfrage von Information zu kompensieren. Erst mit der Markteinführung der Festplatte 1956 durch IBM standen alternati- ve Strategien der automatisierten Suche nach Informationen in Datenbanken zur Disposition. Bei der Festplatte handelt es sich um eine Technologie, die nicht nur die dauerhafte Speicherung relativ großer Mengen digitaler Infor- mation erlaubt, sondern vor allem auch den Direktzugriff auf diese ermöglicht. Der entscheidende Vorteil von Festplatten im Vergleich zu den anderen in den 1950er Jahren verfügbaren Massenspeichertechnologien war, dass jeder Ort im Speicher in einer konstant kurzen Zeit erreicht werden kann (vgl. Lesser/Ha- anstra 1957, 140). Die durchschnittliche Zugriffszeit auf einen beliebigen Spei- cherort reduziert sich von fünf Minuten auf eine sechstel Sekunde (Bachman 1962a). Dieser Performancegewinn, den die Einführung von Festplattenspei- chern mit sich brachte, bedeutete keineswegs die Lösung aller Probleme der computertechnischen Informationsverarbeitung. Vielmehr traten im Zuge der Einführung von Festplatten die technischen Herausforderungen der Versamm- lung und Abfrage von Information als Adressierungsproblem erst richtig zum Vorschein. Schnell zugegriffen werden kann nämlich nur auf diejenigen Infor- mationen, deren Ort im Speicher bekannt ist.¯16 Geht es aber darum in einer Datenbank neue Informationen zu finden, dann ist die Adresse der gesuchten Information ja gerade unbekannt. Wie Charles Bachman Anfang der 1960er Jahre darlegt, ist die von Festplatten eröffnete Möglichkeit, jede beliebige Information schnell abzufragen, mit Hil- fe von Datenbanktechnologien in das Vermögen zu übersetzen, ebenso schnell spezifische Informationen finden zu können (vgl. Bachman 1962b). Das nutzer- seitige Informationsbedürfnis gelte es mit den im Speicher ruhenden Infor- mationen effizient zu koordinieren. Formalisiert wurde diese Übersetzungs- aufgabe Ende der 1960er Jahre in den Berichten der CODASYL Data Base Task Group (1969, 1971) als Vermittlung zwischen verschiedenen Informationsmo- dellen, die im Entwurf von Datenbanken spezifiziert werden müssen (Abb.2). 66 Marcus Burkhardt Das Schema dient auf der einen Seite der Defini- tion des Informationsmodells, mit dem der Com- puter operiert und auf Grundlage dessen die In- formationen im Speicher abgelegt werden. Ein Subschema spezifiziert auf der anderen Seite die Nutzersicht auf die Datenbank, welche als eige- nes Informationsmodell konzeptualisiert wird. Obgleich Schema und Subschema miteinander kompatibel sein müssen, wird durch die Unter- scheidung der beiden Ebenen der Tatsache Rech- nung getragen, dass Computer und Nutzer auf unterschiedliche Weise mit Information operie- ren. Darüber hinaus kommt in der Unterschei- dung der beiden Beschreibungsebenen ein wei- teres wichtiges Motiv zum Vorschein, welches die Entwicklung von Datenbanktechnologien anleitete. Würden keine Nutzersichten auf In- formation definiert, dann hätte dies zur Kon- Abb.2: CODASYL Schema-Subschema- sequenz, dass sich jede Änderung an der inter- Architektur nen Anordnung von Informationen im Speicher und gegebenenfalls jeder Wechsel der Compu- terhardware auf die Benutzerschnittstellen zur Datenbank und damit auf die Datenbanknutzer auswirkt. Insofern dient die Einführung von Subschemata der Abschirmung von Nutzern respektive Anwendungsprogrammen gegenü- ber Änderungen an der Datenbank in der unsichtbaren Tiefe des Computers (vgl. Luhmann 1998, 302ff.). Gerade weil die Entwicklung von Computeranwen- dungen zu dieser Zeit sehr aufwendig war und damit einen wichtigen Kosten- faktor darstellte, sollte die Unabhängigkeit von Anwendungsprogrammen ge- genüber Änderungen in der Datenbank gewährleistet werden. Dieses Ziel wird seit Ende 1960er Jahre unter dem Stichwort Datenunabhängigkeit diskutiert und ist seither eines der zentralen Leistungsmerkmale von Datenbanksyste- men. Auch wenn die Mitglieder der CODASYL Data Base Task Group zunächst glaubten, mit der Unterscheidung von Schema und Subschema einen Vorschlag unterbrei- tet zu haben, der bis zu einem gewissen Grad Datenunabhängigkeit gewähr- leistet (1971, 18), hat sich dies in den Folgejahren als nicht hinreichend erwie- sen. Im Rahmen der Standardisierungsbemühungen der ANSI/X3/SPARC Study Group on Database Systems wurde die Zwei-Ebenen-Architektur daher zu einer Drei-Ebenen-Architektur von Datenbanken erweitert (1975). Zwar war auch die- Informationspotentiale. 67 se Datenbankarchitektur nicht geeignet, um die Implementierung von Datenbankmanagement- systemen praktisch anzuleiten, konzeptuell aber bildet sie heute noch immer den Rahmen, in dem sich der Entwurf von und der Umgang mit Da- tenbanken vollzieht. Der Unterscheidung von Schema und Subschema wird eine weitere hin- zugefügt, die das Modell der internen Repräsen- tation von Informationen im Speicher von sei- ner konzeptuellen Beschreibung entkoppelt. Abb.3: ANSI/X3/SPARC-Datenbankarchitektur Infolgedessen werden systematisch drei Ebenen des Umgangs mit respektive der Modellierung von Information in Datenbanken unterschieden, die als internes, konzeptu- elles und externes Schema bezeichnet werden (Abb. 3). Das konzeptuelle Sche- ma bildet dabei das Zentrum und die Scharnierstelle zwischen dem Computer und dessen Eigenlogik einerseits und seinen Nutzern und deren Gebrauchslo- giken andererseits. In diesem wird formal deklariert, welche Informationen in einer Datenbank versammelt und aus dieser abgefragt werden können.¯17 Als Mittelglied zwischen der internen Ordnung von Information im Speicher und den externen Sichten auf die Datenbank, ermöglicht das konzeptuelle Sche- ma deren wechselseitige Unabhängigkeit: »The placement of the conceptual schema between an external schema and the internal schema is necessary to provide the level of indirection essential to data independence« (Tsichritzis/ Klug 1978, 184). Effekt hiervon sind die scheinbar grenzenlosen Möglichkeiten des Umgangs mit Datenbankinformationen auf den Benutzeroberflächen ver- schiedener Programme und die Freiheit zum Entwurf immer neuer User Inter- faces zu Datenbanken. Diese Möglichkeit manifestiert sich in der heutigen Me- dienkultur auf exemplarische Weise im Phänomen des Mashup – das heißt in der Kombination von Informationen aus verschiedenen Quellen, die über Ap- plication Interfaces abgefragt werden – zu einem neuartigen Medienobjekt be- ziehungsweise einer neuartigen Anwendung. Angesichts der mannigfaltigen Möglichkeiten mit Informationen auf den Be- nutzeroberflächen heutiger Computer umzugehen, sie zu selektieren, zu prä- sentieren, auszuwerten und zirkulieren zu lassen, erscheinen digitale Infor- mationen als autonom. Diese Autonomie wohnt digitalen Informationen nicht wesenhaft inne, sondern ist die Leistung eines Informationssystems, welches die Unabhängigkeit der digitalen Informationen von den sie verarbeitenden Programmen absichert. Dennoch besteht die Gefahr, dass die Bedeutung des Systems vergessen beziehungsweise verdrängt wird und man dem Irrglauben 68 Marcus Burkhardt erliegt, dass es möglich sei digitale Informationen in einer Art kreativen Un- ordnung halten zu können. Dies propagiert David Weinberger in dem 2008 er- schienen Buch Das Ende der Schublade. Er vertritt die problematische These, dass die nicht abzustreitende Pluralisierung von Wissensordnungen in digi- talen Medien aus der Immaterialität von Bits und Bytes resultiert (vgl. Weinber- ger 2008, 22). Doch der Pluralität von Präsentations-, Ordnungs- und Handha- bungsformen von Informationen an den Benutzeroberflächen des Computers steht nicht die Unordnung von Bits in der Tiefe der Speicher gegenüber. Viel- mehr handelt es sich stets um die Verknüpfung und Übersetzung von Ord- nungen zwischen Oberfläche und Tiefe. Das World Wide Web, Suchmaschinen, Wikipedia, Soziale Netzwerke, Soziale Taggingsysteme, das Semantic Web etc. stellen Informationsinfrastrukturen bereit, die auf unterschiedlichen Niveaus ansetzen, verschiedenen Logiken folgen und auf unterschiedliche Weise an be- stehende Informationsinfrastrukturen anschließen. Die eigentlich bedeut- samen Fragen sind dann, wie im Bereich digitaler Medien unterschiedliche Ordnungen und Verarbeitungslogiken aneinandergekoppelt werden, wie sie ineinander übergehen respektive ineinander übersetzt werden und wie die- se Übersetzbarkeit sichergestellt wird. Zugleich geraten auch die Bedingungen und Beschränkungen in den Blick, die partikulare Informationsinfrastrukturen den in ihnen gespeicherten Informationen auferlegen sowie die Inkompati- bilitäten und Übersetzungsprobleme zwischen unterschiedlichen Formen der Speicherung, Zirkulation und Abfrage von Information. Anmerkungen 01˘ Diese Beobachtung schließt an Jacques Derrida an, der auf die Doppeldeutigkeit hinwies, die der Diagnose vom Ende des Buchs innewohnt. Es handele sich um »two extreme, fi- nal, eschatic figures of the end of the book, the end as death, or the end as telos or achie- vement« (Derrida 2005, 15). Der antizipierte Tod des Buchs zieht »a constant reinvestment in the book project, in the book of the world, in the absolute book« (Derrida 2005, 15) nach sich, welches sich jedoch in einer anderen medialen Konfiguration zu erfüllen scheint, dem World Wide Web. Kittlers Diagnose bildet hierzu das Spiegelbild. Ausgehend von der Vollendung des Mediums im Computer proklamiert er den Tod der Einzelmedien. 02˘ Der Rekurs auf Shannons Informationstheorie als zentrale Referenz für eine technikzen- trierte Medienforschung ist im Anschluss an Kittler zu einem Gemeinplatz medienarchä- ologischer Forschungsansätze geworden. Besonders deutlich tritt dies in den Arbeiten Informationspotentiale. 69 von Wolfgang Ernst zu Tage. Kittler und Ernst betrachten Claude Shannon gleicherma- ßen als den »technical father of modern media culture« (Parikka 2011, 59). Die einsei- tige Fokussierung auf die nachrichtentechnische Informationstheorie hat zur Folge, dass Medientechniken vorrangig vom Kanal und dessen Indifferenz gegenüber Bedeutung her gedacht werden: »Dabei frappiert die Indifferenz technischer Medien, die ebenso diskursi- ve wie nondiskursive, physikalische wie kulturelle Signale buchstäblich gleich-gültig verar- beiten« (Ernst 2008, 163). 03˘ Die medientheoretische Betrachtung von Computerhardware soll nicht einfach durch die Hinwendung zu Software ersetzt werden. Hardware stellt einen bedeutenden Faktor in der medialen Praxis mit Computern dar. Ihre Bedeutung aber zeigt sich, so die These, erst vor dem Hintergrund konkreter Anwendungen. 04˘ Zwar mag es stimmen, dass Computer auf der Ebene elementarer Hardware Signale pro- zessieren, ohne einen Unterschied zwischen Medienobjekten zu machen. Auf der Basis von Hardware werden in der Softwarepraxis, einem Modell geschachtelter Maschinen folgend, jedoch stufenweise immer komplexere Funktionalitäten realisiert, die Unterscheidungen einführen, welche auf einer darunterliegenden Ebene nicht möglich waren. Bedeutsam hie- ran ist, dass die höheren Programmfunktionen nicht direkt auf die Hardware zurückgeführt werden können, sondern auf die darunterliegende Programmebene: »We conceive an orde- red sequence of machines: A[0], A[l], ... A[n], where A[0] is the given hardware machine and where the software of layer i transforms machine A[i] into A[i+1]. The software of layer i is defined in terms of machine A[i], it is to be executed by machine A[i], the software of layer i uses machine A[i] to make machine A[i+1]« (Dijkstra 1969, 182). 05˘ Die Etablierung eines abstrakten und generalisierten Informationsbegriffs bezeichnet Geoffrey C. Bowker als »Information Mythology« (Bowker 1994, 234). Diese bringt die spe- zifischen Infrastrukturen und Gebrauchskontexte zum Verschwinden bringt, vor deren Hintergrund sich immer erst abzeichnet, was Information ist. 06˘ Während in den 1980er und 90er Jahren jenseits technikorientierter Ansätze die Imma- terialität und Virtualität digitaler Medienobjekte im Vordergrund des Mediendiskurses stand, wird seit Anfang 2000 vermehrt deren fortwährende Materialität und Realität in den Blick genommen. 07˘ Der Informatiker T. William Olle (Olle 1978, 2), der Linguist Rüdiger Weingarten (Weingarten 1994, 160) und die Kulturwissenschaftlerin Cornelia Vismann (Vismann 2001, 170f.) zitie- ren gleichermaßen die genannte Definition als historisch ersten Bestimmungsversuch von Datenbanken, ohne auf die Uneinigkeit hinzuweisen, die bezüglich dieses Definitionsvorschlags bei den Teilnehmern der Konferenz bestand. 08˘ Im Bericht von Franks ist zu lesen: »A broad definition of a data base was brought forward in the following terms leaving unanswered the question of access: A data base consists of: 1. Data[.] 2. Means of access to the data« (Franks 1964, 120). 09˘ Erhard Schüttpelz rekonstruiert die Genese des allgemeinen Modells nach richten- 70 Marcus Burkhardt technischer Kommunikation aus Shannons Hinwendung zum Problem der Geheim- kommunikation (Schüttpelz 2002). 10˘ Es ist wichtig darauf hinzuweisen, dass Shannons Modell häufig dafür kritisiert wurde, Kommunikation nicht hinreichend zu beschreiben. Diese Kritik richtet sich jedoch eher ge- gen die Generalisierung des shannonschen Ansatzes als gegen dessen Modellierung des nachrichtentechnischen Kommunikationsproblems. Shannon selbst war sich durchaus der Grenzen seiner eigenen Hinwendung zu Kommunikation und seiner Definition von Information bewusst: »The word ›information‹ has been given many different meanings by various writers in the general field of information theory. It is likely that at least a number of these will prove sufficiently useful in certain applications to deserve further study and permanent recognition. It is hardly to be expected that a single concept of information would satisfactorily account for the numerous possible applications of this general field« (Shannon 1953, 105). 11˘ In der Informationswissenschaft ist dieses Modell der Informationsspeicherung und Informationsabfrage spätestens seit Ende der 1980er Jahre umstritten, da es das mensch- liche Suchverhalten nicht adäquat darstellt (vgl. Bates 1989; Morgenroth 2006, 22ff.). 12˘ Technologisch wird die Datenbank im Rahmen des Projekts noch nicht als Computerdatenbank entworfen, sondern als eine Mikrofilmbibliothek. Dieser Entwurf weist gewisse Ähnlichkeiten zu Vannevar Bushs Beschreibung der Memex sowie zu Emanuel Goldbergs Vision einer Bibliothek der Zukunft auf (vgl. Buckland 1992, 2006). Als früher Vorläufer kann auch das Mundaneum-Projekt von Paul Otlet und Henri La Fontaine angese- hen werden. Vgl. hierzu den Aufsatz von Lena Christolova in diesem Band. 13˘ Die beiden Formen der Zuschreibung von Bedeutung erläutert Fairthorne am Beispiel des Zählens von Schafen. Um die bereits gezählten Schafe von den übrigen zu unterscheiden, könne man diese entweder markieren oder räumlich separieren: »[W]hen counting sheep, you must distinguish those already accounted for from those not. This can be done with a branding iron [...]. Or you can segregate the counted sheep in a fold« (Fairthorne 1961b [1953], 95). 14˘ Die Automatisierung der Suche hat eine zweifache Formatierung zur Folge. Einerseits müssen die versammelten Daten in eine Form gebracht werden, welche es ermögli- cht, diese als Information zu adressieren (vgl. Krajewski 2007). Andererseits müssen die Nutzer ihr Informationsbedürfnis gemäß der Adressierungs- und Anfragelogik der Datenbanktechnologie formulieren, damit die Datenbank korrekte Ergebnisse im Sinn des Informationsbedürfnisses zu Tage fördert (vgl. Weingarten 1988). 15˘ Bei Lochkarten zeigt sich die serielle Speicherlogik in deren Anordnung in Stapeln. Gleichwohl eine einzelne Lochkarte ein Datenträger ist, der den Direktzugriff erlaubt, ist der Zugriff auf Lochkarten im Plural seriell organisiert. 16˘ Erschwerend tritt hinzu, dass mit der Verfügbarkeit der Festplatte auch alternative Speicherordnungen möglich wurden, was zur Folge hatte, dass die räumliche Anordnung Informationspotentiale. 71 von Informationen im Speicher zunehmend von ihrer semantischen Ordnung entkoppelt wurde. 17˘ Mit der Markteinführung des Oracle Datenbankmanagementsystems sowie IBMs DB2 Anfang der 1980er Jahre wurde das von Edgar F. Codd entwickelte relationale Datenmodell zum de facto Standard der konzeptuellen Modellierung von Information in Datenbanken (1970). Bibliografie Bachman, Charles W. (1962a) Concepts of Computer Use in Integrated Systems. In: Charles W. Bachman Papers (CBI 125). Box 20, Integrated Systems Project Notebook #1, Charles Babbage Institute, University of Minnesota, Minneapolis. Bachman, Charles W. (1962b) Integrated Data Store – The Information Processing Machi- ne That We Need! In: Charles W. Bachman Papers (CBI 125). Box 1, Folder 11, Charles Babbage Institute, University of Minnesota, Minneapolis. Bates, Marcia J. (1989) The Design of Browsing and Berrypicking Techniques for the Online Search Interface. In: Online Review 13, 5, S. 407-424. Bowker, Geoffrey C. (1994) Information Mythology. The world of / as information. In: In- formation acumen. The understanding and use of knowledge in modern business. Hrsg. v. Lisa Bud-Frierman. London: Routledge, S. 231-247. Buckland, Michael (1992) Emanuel Goldberg, Electronic Document Retrieval, And Vanne- var Bush’s Memex. In: Journal of the American Society for Information Science 43, 4, S. 284- 294. Buckland, Michael (2006) Emanuel Goldberg and his knowledge machine. Wesport: Li- braries Unlimited. CODASYL Data Base Task Group (1969) Data Base Task Group Report to the CODASYL Programming Language Committee, October 1969. New York: ACM. CODASYL Data Base Task Group (1971) Data Base Task Group Report to the CODASYL programming language committee, April 1971. New York: ACM. Codd, Edgar F. (1970) A Relational Model of Data for Large Shared Data Banks. In: Commu- nications of the ACM 13, S. 377-387. Derrida, Jacques (2005) The Book to Come. In: Paper Machine. Stanford: Stanford Univer- sity Press, S. 4-18. Dijkstra, Edsger W. (1969) Complexity controlled by hierarchical ordering of function and variability. In: Software Engineering. Report of a conference sponsored by the NATO Science Committee, Garmisch, S. 181-185. 72 Marcus Burkhardt Ernst, Wolfgang (2002) Datum und Information. Begriffsverwirrungen. In: Wolfenbütteler Notizen zur Buchgeschichte 27, 2, S. 159-181. Ernst, Wolfgang (2008) ›Merely the Medium‹?. Die operative Verschränktheit von Logik und Materie. In: Was ist ein Medium? Hrsg. v. Stefan Münker & Alexander Roesler. Frankfurt a.M.: Suhrkamp, S. 158-184. Fairthorne, Robert Arthur (1961a) Preface. In: Towards information retrieval. London: Butterworths, S. IX-XI. Fairthorne, Robert Arthur (1961b) Information Theory and Clerical Systems [1953]. In: Towards information retrieval. London: Butterworths, S. 22-41. Fairthorne, Robert Arthur (1961c) The Theory of Communication [1954]. In: Towards in- formation retrieval. London: Butterworths, S. 64-79. Fairthorne, Robert Arthur (1961d) Some Clerical Operations and Languages. In: Towards information retrieval. London: Butterworths, S. 94-105. Franks, E. W. (1964) Session B: Criteria Influencing Data Base Organization or Design. In: Proceedings of the Symposium on Development and Management of a Computer-Centered Data Base (June 10-11, 1963). Hrsg. v. A. Walker. Santa Monica: System Development Corpora- tion, S. 119-121. Haigh, Thomas (2009) How Data Got its Base: Information Storage Software in the 1950s and 1960s. In: IEEE Annals of the History of Computing 31, 4, S. 6-25. Hartmann, Frank (2006) Globale Medienkultur. Technik, Geschichte, Theorien. Wien: WUV. Kittler, Friedrich (1986) Grammophon, Film, Typewriter. Berlin: Brinkmann & Bose. Krajewski, Markus (2007) In Formation. Aufstieg und Fall der Tabelle als Paradigma der Datenverarbeitung. In: Nach Feierabend 2007. Daten; Züricher Jahrbuch für Wissensgeschich- te 3. Hrsg. v. David Gugerli, Michael Hagner, Michael Hampe, Barbara Orland, Philipp Sarasin & Jakob Tanner. Berlin: diaphanes, S. 37-55. Krämer, Sybille (2003) ›Schriftbildlichkeit‹ oder: Über eine (fast) vergessene Dimension der Schrift. In: Bild, Schrift, Zahl. Hrsg. v. Sybille Krämer & Horst Bredekamp. München: Fink, S. 157-176. Laurel, Brenda (1993) Computers as theatre. Reading: Addison-Wesley. Lesser, Murray L. / Haanstra, J.W. (1957) The RAMAC Data-Processing Machine. Sy- stem Organization of the IBM 305. In: Proceedings of the Eastern Joint Computer Conference. New Developments in Computers, New York, S. 139-146. Licklider, Joseph C. R. (1964) Introduction. In: Proceedings of the Symposium on Deve- lopment and Management of a Computer-Centered Data Base (June 10-11, 1963). Santa Moni- ca: System Development Corporation, S. 1-7. Luhmann, Niklas (1998) Die Gesellschaft der Gesellschaft. Frankfurt a. M.: Suhrkamp. Mooers, Calvin N. (1950) Information Retrieval Viewed as Temporal Signalling. In: Procee- dings of the International Congress of Mathematicians 1, S. 572-573. Informationspotentiale. 73 Morgenroth, Karlheinz (2006) Kontextbasiertes Information Retrieval. Modell, Konzep- tion und Realisierung kontextbasierter Information Retrieval Systeme. Berlin: Logos Verlag. Olle, T. William (1978) The Codasyl approach to data base management. Chichester: Wiley. Parikka, Jussi (2011) Operative Media Archaeology. Wolfgang Ernst’s Materialist Media Di- agrammatics. In: Theory, Culture & Society 28, 5, S. 52-74. Schüttpelz, Erhard (2002) Eine Ikonographie der Störung. Shannons Flußdiagramm der Kommunikation in ihrem kybernetischen Verlauf. In: Transkribieren: Medien / Lektüre. Hrsg. v. Ludwig Jäger & Georg Stanitzek. München: Fink, S. 233-280. Shannon, Claude E. (1948) A Mathematical Theory of Communication. In: The Bell Sy- stems Technical Journal 27, 3 & 4, S. 379-423; 623-656. Study Group on Data Base Management Systems (1975) Interim Report. ANSI/X3/ SPARC Study Group on Data Base Management Systems. In: FDT - Bulletin of ACM SIGMOD 7, 2, S. 1-140. Swanson, A. K. (1964) A Computer-Centered Data Base Serving USAF Personnel Managers. In: Proceedings of the Symposium on Development and Management of a Computer-Centered Data Base (June 10-11, 1963). Santa Monica: System Development Corporation. Tsichritzis, Dennis / Klug, Anthony (1978) The ANSI/X3/SPARC DBMS Framework. Re- port of the Study Group on Database Management Systems. In: Information Systems 3, S. 173- 191. Turing, Alan M. (1987) Über berechenbare Zahlen mit einer Anwendung auf das Entschei- dungsproblem [1937]. In: Intelligence Service. Schriften. Berlin: Brinkmann & Bose, S. 17-60. Vismann, Cornelia (2001) Akten. Medientechnik und Recht. Frankfurt a.M.: Fischer. von Neumann, John (1987) First Draft of a Report on the EDVAC [1945]. In: Papers of John von Neumann on computing and computer theory. Hrsg. v. William Aspray & Arthur W. Burks. Cambridge: MIT Press, S. 17-82. Weinberger, David (2008) Das Ende der Schublade. Die neue Macht der digitalen Unord- nung. München: Hanser. Weingarten, Rüdiger (1988) Das Dialogmuster ›Datenbankanfrage‹. In: Technisierte Kommunikation. Hrsg. v. Ders. & Reinhard Fiehler. Opladen: Westdeutscher Verlag, S. 237-243. Weingarten, Rüdiger (1994) Datenbanken. In: Schrift und Schriftlichkeit. Ein interdiszi- plinäres Handbuch internationaler Forschung. Hrsg. v. Hartmut Günther & Otto Ludwig. Ber- lin / New York: Walter de Gruyter, S. 158-170. Worsley, Peter K. / Dittman, Roger R. / Weber, Eberhard / Grimberg, Juan C. / Garrett, Peter / Benson-Lehner Corporation (1959) A Study of the Fundamentals of Information Storage and Retrieval [Final Report]. In: United States Government Computing Collection, circa 1945-1990 (CBI 63). Box 13, Charles Babbage Institute, University of Minneso- ta, Minneapolis. 74 Marcus Burkhardt Theo Röhle »Grand games of solitaire«. Textuelle Ordnungen in den Digital Humanities Ende 2010 stellte Google den Ngram Viewer vor, ein experimentelles Projekt aus den unternehmenseigenen Labs, mit dem sich Worthäufigkeiten im gesamt- en Bestand der für Google Books eingescannten Bücher visualisieren lassen. Die Präsentation des Tools fand ein großes Echo in den Medien, nicht zuletzt aufgrund seiner einfachen Bedienbarkeit und der umfangreichen Datenbasis, die angeblich vier Prozent aller jemals gedruckten Bücher abdecken soll. Weni- ger Beachtung als das Tool selbst fand ein Artikel in der Zeitschrift Science, der im Zusammenhang mit der Freischaltung des Ngram Viewers für die Öffent- lichkeit erschien. In diesem Artikel beschreibt das Entwickler-Team hinter dem Projekt, das aus insgesamt 16 Personen aus verschiedenen Fachbereichen so- wie dem Google Books Team besteht, dessen Anwendungsmöglichkeiten in den Kulturwissenschaften (Michel et al. 2011). Statt in kulturwissenschaftlicher Tradition auf Fragen des Kontexts, der Narra- tion oder der Intertextualität einzugehen, interessieren sich die hauptsächlich naturwissenschaftlich orientierten Entwickler des Ngram Viewers allein für die quantitativen Aspekte der analysierten Texte. So zeigen sie zum Beispiel an einem Graphen auf, dass von 1800 bis 2000 der Name ›Freud‹ wesentlich häu- figer im allgemeinen Textkorpus zu finden ist als ›Darwin‹, ›Einstein‹ oder ›Ga- lileo‹. Zwar warnen die AutorInnen davor, aus diesen Ergebnissen vorschnelle Schlüsse zu ziehen, dennoch ist die Interpretation der quantitativen evidence schnell zur Hand: »›Galileo‹, ›Darwin‹, and ›Einstein‹ may be well-known sci- entists, but ›Freud‹ is more deeply ingrained in our collective subconscious« (ebd., 182). Auch vor der Anwendung der quantitativen Verfahren auf sehr kom- plexe historische Themen scheuen die AutorInnen nicht zurück: »For instance, Nazi censorship of the Jewish artist Marc Chagall is evident by comparing the frequency of ›Marc Chagall‹ in English and in German books« (ebd., 181). Der An- spruch des Projekts ist entsprechend hoch gesteckt: Es soll um die Entschlüsse- lung eines ›kulturellen Codes‹ gehen, der sich – analog zum Mapping von Gen- sequenzen – quantitativ erfassen lassen soll. In Anlehnung zum Fachgebiet der genomics, aus dem ein Teil der EntwicklerInnen stammt, wird daher versucht, den Begriff culturomics zu etablieren. Textuelle Ordnungen in den Digital Humanities 75 Ein solch affirmativer Bezug auf quantitative Verfahren, wie er in dem cultu- romics-Projekt vertreten wird, mag in kulturwissenschaftlichen Zusammen- hängen zunächst erstaunen. Erweitert man das Blickfeld etwas, so wird jedoch deutlich, dass computergestützte Verfahren in den Geisteswissenschaften ins- gesamt auf dem Vormarsch sind. Unter dem Stichwort Digital Humanities f lie- ßen wachsende Summen an Fördergeldern in entsprechende Projekte (Duwe/ Meffert 2008), an vielen Universitäten werden so genannte Labs gegründet, wie zum Beispiel das Literary Lab in Stanford, das von dem Literaturwissenschaftler Franco Moretti geleitet wird¯1 oder das HumLab im nordschwedischen Umeå, das im europäischen Rahmen eine wichtige Rolle spielt. In Deutschland wurden in den letzten Jahren erste Studiengänge unter der Bezeichnung Digital Huma- nities eingerichtet, an der Universität Göttingen wurde im Sommer 2011 das Centre for Digital Humanities eröffnet. Es fällt auf, dass die Bandbreite der Projekte, die unter den Begriffen Digital Humanities, eHumanities oder früher auch Humanities Computing gefasst wer- den, enorm groß ist. Es geht dabei sowohl um Digitalisierung, Archivierung und Editionen-Erstellung als auch um methodologische Fragestellungen bis hin zum E-Learning (Schreibman 2004). Erweitert man den Blickwinkel in zeit- licher Hinsicht, so wird zudem deutlich, dass der Einsatz computergestützter Verfahren in den Geistes- und Kulturwissenschaften kein neues Phänomen ist. Gerade in Deutschland gibt es eine Reihe von Einrichtungen, die in die- sem Bereich schon mehrere Jahrzehnte kontinuierlich tätig sind, dabei aller- dings meist unter weniger einschlägigen Namen firmieren, wie zum Beispiel das Kölner Institut für Historisch-Kulturwissenschaftliche Informationsverar- beitung oder das Zentrum für Datenverarbeitung der Universität Tübingen. Gerade in den Philologien gab es zudem wechselnde Konjunkturen computer- gestützter Verfahren, die sich jedoch eher in Nischen etabliert haben, als eine komplette methodologische Umorientierung dieser Bereiche anzustoßen (vgl. Müller 2004; Meister 2005). Im Verlauf dieser Konjunkturen wird der Datenbank immer wieder eine um- wälzende Rolle für die Entwicklung der Geisteswissenschaften zugeschrieben. Während der Einsatz von Datenbanken in der Naturwissenschaft spätestens seit ihrem Wandel zur industriell geprägten Big Science in den 1950er Jahren zum Alltag der Forschungspraxis gehört (Bowker 2006) und der später dia- gnostizierte Übergang zur Computational Science eher eine Wende von einer statistisch-deskriptiven zu einer Simulationswissenschaft markiert (Gramels- berger 2011), scheint die Rede von einem Computational Turn in den Geistes- wissenschaften immer wieder neu in der Lage einerseits Kontroversen zu ent- fachen, andererseits aber auch Hoffnungen darauf zu wecken methodologisch 76 Theo Röhle neue Wege einschlagen zu können. Der Economist brachte diese Hoffnungen 1995 auf den Punkt: »Databases are transforming scholarship in the most con- servative corners of the academy, forcing technological choices even on to the humanities« – ein Zitat, auf das der Informatiker Michael Fraser ein Jahr später mit dem ironischen Kommentar: »A similar headline could have appeared in 1974 or even 1964« verwies (Fraser 1996). Die Geschichte computergestützter Verarbeitungsverfahren in den Geisteswissenschaften scheint somit regelmä- ßigen Faszinationskonjunkturen unterworfen zu sein. Wenn daher heute ein weiteres Mal die Rede davon ist, dass die Geisteswissen- schaften sich zunehmend an Google orientieren sollten (Parry 2010) oder dass man insgesamt in den Kulturwissenschaften, wie der Historiker Tom Schein- feldt meint, in ein »post-theoretical age« eingetreten sei, eine Phase, in der die Empirie in Form sehr großer Datensätze wieder im Fokus steht (vgl. Cohen 2010),¯2 scheint es umso wichtiger, diese Aussagen historisch zu kontextuali- sieren. Dieser Beitrag unternimmt einen Schritt in diese Richtung, indem er die wissenschafts- und technikhistorische Auseinandersetzung mit den Vorläu- fern der aktuellen computergestützten Methoden sucht. Eine medienwissen- schaftliche Auseinandersetzung mit den Digital Humanities hat – trotz der ver- stärkten Hinwendung der Medienwissenschaft zu wissenschaftshistorischen Themen – bisher kaum stattgefunden. Dies ist insofern erstaunlich, wie die Bearbeitung methodologischer und theoretischer Fragestellungen innerhalb dieses Bereichs auf das Engste mit allgemeinen medientechnischen Entwick- lungen verwoben ist.¯3 Die umfangreichsten Schnittstellen zwischen diesen Diskursen dürften sich in den Hypertext-Debatten der 1990er Jahre finden, wo dem Computer beziehungsweise der Datenbank eine entscheidende Rolle für neue Formen der nicht-linearen Textorganisation und -rezeption zugeschrie- ben wurde (Aarseth 2003). Kontrastiert man diese – weitgehend gescheiterten – Visionen einer neuen Unmittelbarkeit und Offenheit im Umgang mit Text mit den Zielen des aktuellen culturomics-Projekts, so wird deutlich, dass der Datenbank und den mit ihr verbundenen Verfahren des Sortierens, Sammelns, Suchens und Spielens sehr unterschiedliche Effekte auf die Organisation, Er- schließung und Rezeption von Text zugeschrieben werden. An einem frühen Beispiel aus dem Bereich der Digital Humanities, der automatisierten Erstel- lung einer Konkordanz der Schriften von Thomas von Aquin, werde ich im Fol- genden diskutieren, welche Arten der Texterschließung hier erprobt wurden und in welchem Verhältnis diese zu nachfolgenden medientechnischen Ent- wicklungen stehen. Textuelle Ordnungen in den Digital Humanities 77 Die Datenbank als »Oder-Medium« Um diesen Fragen nachzugehen, scheint es zunächst sinnvoll, eine Arbeitsdefi- nition dessen zu erstellen, was eine Datenbank aus medienwissenschaftlicher Sicht ausmacht. Dafür soll an dieser Stelle weniger auf die Spezifika einzelner Technologien eingegangen werden, im Vordergrund stehen vielmehr die Prin- zipien beziehungsweise die ›Logik‹ der Datenbank – das, was Manovich (1999) in seinem einschlägigen Text als »symbolische Form« kennzeichnet. Manovich baut seine Argumentation auf der von Ferdinand Saussure vorgenommenen semiotischen Unterscheidung zwischen Syntagma und Paradigma auf. Die syn- tagmatische Dimension entspricht einer linearen Anordnung von Elementen, zum Beispiel als Narrativ mit kausalen Zusammenhängen, die materiell mani- festiert (in praesentia) und damit erkennbar ist. In der paradigmatischen Di- mension ist die Anordnung der Elemente nicht unmittelbar erkennbar, da sie keine lineare oder zeitliche Abfolge beinhaltet und nicht materiell, sondern ausschließlich in den Köpfen der ProduzentInnen beziehungsweise Rezipien- tInnen vorhanden ist (in absentia). Manovich argumentiert, dass Datenbanken dieses Verhältnis umkehren, indem sie die paradigmatische Dimension pri- vilegieren und die syntagmatische vernachlässigen; so wenden sie auch das Verhältnis der Sichtbarkeiten um: »Database (the paradigm) is given material existence, while narrative (the syntagm) is de-materialised« (ebd., 90). Hartmut Winkler (2003) bindet diese Argumentation in eine Diskussion der Auswirkungen von Video-on-Demand-Angeboten auf die Fernsehrezeption ein, nimmt dabei jedoch eine terminologische Justierung vor. Da sich die von Manovich diagnostizierte Umkehrung der Sichtbarkeiten durch Saussures Ter- minologie schlecht wiedergeben lässt, schlägt er stattdessen eine Unterschei- dung zwischen Und-Medien und Oder-Medien vor: »Und-Medien wären Medien, die auf die syntagmatische Folge setzen, auf Anreihung, Konti- nuität und Gleiten, auf räumliche Nähe ohne markierte Grenzen und auf den kontinuierlichen Fluss der Zeit. Oder-Medien wären solche, die eine Entscheidung fordern, so dass im Fortgang nur eine der gestellten Alternativen wirksam bleiben kann« (ebd., 326). Obwohl sich Winklers Diskussion hauptsächlich im Bereich von Film und Fern- sehen bewegt, ist sein Exkurs in das »Bücheruniversum« der Bibliotheken für den hier anvisierten Zusammenhang relevant. Hier existieren laut Winkler auf verschiedenen Ebenen sehr unterschiedliche Verhältnisse zwischen ›Und‹ und ›Oder‹: 78 Theo Röhle »Die einzelnen Buchstaben, dies wäre die erste Ebene, gehorchen einer Logik von Auswahl und Substitution. Sie werden durch Leerräume voneinander abgetrennt; dass nur 26 Alternativen zur Wahl stehen und dass Gutenberg die Lettern mechanisch austauschbar in Blei gegossen hat, macht diesen Zug zusätzlich deutlich. Schon die zweite Ebene, die Reihung der Buchstaben in der einzelnen Zeile allerdings verfährt kontinuierlich-linear. [...] Buchseiten – die dritte Ebene – gibt es erst, seit sich der Kodex gegen die Schriftrolle durchgesetzt hat« (ebd., 327). Das Medium Buch lässt sich nach Winkler demnach nicht eindeutig einer der beiden Dimensionen zuordnen, es verschränkt vielmehr die Ordnungssysteme auf verschiedenen Ebenen miteinander. Wie diese Ebenen genau konstituiert sind, ist jedoch nicht ein für allemal gegeben, sondern, genau wie ihr Verhält- nis untereinander, einer medientechnischen Entwicklung unterworfen. Wenn also die Art und Weise, wie Texterschließung medientechnisch organisiert wird eine wichtige Rolle dafür spielt, welche Ordnung auf den verschiedenen Ebe- nen jeweils privilegiert wird, muss der Fokus der medienwissenschaftlichen Analyse auf den spezifischen historischen Umorganisationen dieser Arten der Texterschließung liegen. Die Konkordanz als »Oder-Medium« Für die Frage, wie das Verhältnis von Datenbanken und Texterschließung zu charakterisieren ist und welchen historischen Veränderungen es unterwor- fen ist, eignet sich ein Blick auf solche Vorhaben, in denen heutige technische Verfahren für die automatisierte Textverarbeitung noch nicht zur Verfügung standen. An der konkreten technischen Entwicklungsarbeit, die an diesen Stel- len verrichtet wird, lassen sich Übergänge und Bruchstellen zwischen zwei Ar- ten der Textorganisation und -erschließung besonders gut herausstellen. Im Fokus dieses Beitrags steht die Erstellung einer Konkordanz, ein heute kaum noch geläufiges Verfahren der Textorganisation, dessen Spezifika zunächst ei- ner kurzen Erläuterung bedürfen. Konkordanzen stellen vor der Einführung elektronischer Suchverfahren neben dem Register eine der wichtigsten Formen der Texterschließung dar. Etymo- logisch geht der Begriff auf das lateinische concordantia (Übereinstimmung) zurück, die Konkordanz listet – wie das Register – die graphisch übereinstim- menden Wörter eines Textes auf und enthält Verweise auf die Textstellen, an denen diese Wörter zu finden sind. Im Unterschied zum Register sind Konkor- danzen jedoch nicht notwendigerweise alphabetisch angeordnet, sondern können nach beliebigen Kriterien, wie zum Beispiel Worthäufigkeiten, Wor- Textuelle Ordnungen in den Digital Humanities 79 tendungen oder thematischen Kategorien sortiert sein. Zudem werden in Kon- kordanzen die Wörter meist zusammen mit ihrem unmittelbaren Kontext, das heißt der sie umgebenden Wörter, angegeben. Als früheste fertiggestellte Konkordanz gilt die Concordantia breves, die der Dominikanermönch Hugo von St. Cher in den Jahren 1230 bis 1244 unter Mitar- beit zahlreicher Mönche seines Ordens als Werkzeug für die Erschließung des lateinischen Bibeltextes erstellte. Bibelkonkordanzen etablierten sich schnell als Hilfsmittel für die exegetische Arbeit und scholastischen Disputationen, da sich mit ihrer Hilfe relevante Textstellen zu bestimmten Themenkomplexen über eine Stichwortsuche finden ließen. Zudem war es für die Erstellung einer Konkordanz unabdinglich eine Einteilung des Textes vorzunehmen, um die Re- ferenzierung der einzelnen Wörter zu ermöglichen. Der Konkordanz von Hugo von St. Cher wird daher eine zentrale Rolle dafür zugeschrieben, dass sich die 1205 von Stephen Langton vorgenommene und bis heute verbindliche Kapite- leinteilung der Vulgata durchsetzte (Calwer Verlag 2001, Einleitung o. S.). Die Automatisierung der Konkordanzerstellung Aus einer scholastischen Dissertation, in der Konkordanzen eine entscheidende Rolle spielten, ist in den 1940er Jahren ein Projekt entstanden, das aufgrund seines Umfangs und seines Charakters vielfach als Gründungsakt der Digital Humanities angeführt wird (Burton 1981a; Hockey 2004). Die tragende Rolle in diesem Projekt spielte der italienische Geistliche Pater Roberto Busa, der ab 1941 an der Päpstlichen Gregorianischen Universität in Rom an einer Disserta- tion in Thomistischer Philosophie arbeitete. Die Fragestellung dieser Disserta- tion zielte auf das Konzept der Präsenz in den Schriften Thomas von Aquins ab. Bei der Konsultation der verfügbaren Konkordanzen zu diesen Werken erwies es sich jedoch als problematisch, dass in den Verzeichnissen häufig verwen- dete Wörter, wie zum Beispiel Konjunktionen, nicht aufgelistet wurden. Ver- weise für die Begriffe praesens und praesentia reichten hier nicht aus, da auch die Präposition ›in‹ in bestimmten Fällen wichtige Aufschlüsse über das Kon- zept der Präsenz erlaubte. Um seine Fragestellung adäquat bearbeiten zu können, betrachtete es Busa daher als notwendig sämtliche Erwähnungen des Wortes ›in‹ in den von ihm untersuchten Texten zu analysieren. Dafür übertrug er die Sätze, in denen dieses Wort enthalten war, manuell auf Karteikarten, wodurch letztlich eine Sammlung von circa 10.000 Karten entstand. Anhand dieser Karten war es möglich, die Sätze nach verschiedenen Kriterien zu sortieren – »Grand games 80 Theo Röhle of solitaire«, wie es Busa (1980) in einem späteren Rückblick beschreibt. Me- dientechnisch betrachtet schafft die Übertragung der Sätze auf Karten, das heißt die Loslösung aus ihrem linear-syntagmatischen Zusammenhang, somit die Voraussetzung dafür, dass in einem nächsten Schritt paradigmatische Ord- nungen im wahrsten Sinne des Wortes ›durchgespielt‹ werden können. Gegen- über den existierenden Konkordanzen hatten Busas Karten zum einen den Vor- teil der Vollständigkeit – zumindest was das Wort ›in‹ betraf, auf das es ihm ankam – zum anderen boten ihm die Karten wesentlich f lexiblere Kombina- tionsmöglichkeiten als die Auflistungen in den bis dato verfügbaren Konkor- danzen, die auf wenigen vorgegebenen Sortierkriterien basierten.¯4 Der Anspruch, dass die Texterschließung vollständig zu erfolgen habe, das heißt, dass sämtliche Vorkommen eines Wortes zu berücksichtigen seien und perspektivisch auch sämtliche verwendeten Wörter auf diese Weise erfasst werden sollten, war für Busa nicht nur im Hinblick auf die spezifische Frage- stellung seiner Dissertation zentral. Die Möglichkeit, den Wortgebrauch eines Autors über die gesamte Breite des Textes nachzuvollziehen, betrachtete er vielmehr als Voraussetzung für die Identifizierung immanenter Widersprüche und damit als Grundlage für die Formulierung von Kritik an dessen Werk: »In the works of every philosopher there are two philosophies: the one which he consciously in- tends to express and the one he actually uses to express it. The structure of each sentence im- plies in itself some philosophical assumptions and truths. In this light, one can legitimately cri- ticize a philosopher only when these two philosophies are in contradiction« (ebd., 83). Die Entwicklung von Verfahren der Texterschließung wird somit bei Busa von der Vorstellung angetrieben, eine Ebene der praktischen Formulierungsarbeit am Text analysieren zu können, auf der sich gegebenenfalls Widersprüche zur theoretisch intendierten Position des Autors finden lassen. Das von ihm ent- wickelte Verfahren ermöglichte dies insofern, als dass es einerseits f lexible paradigmatische Anordnungen erlaubt, andererseits aber – in Form der auf den Karten verzeichneten Sätze – die syntagmatische Ordnung zum Teil in- takt lässt. Die Produktivität dieser spezifischen Verschränkung von ›Und‹ und ›Oder‹ für das eigene Forschungsvorhaben veranlasste Busa ein weitaus größe- res und langwierigeres Projekt, den Index Thomisticus, in Angriff zu nehmen, durch das er nachfolgenden Theologen ein ebenso effektives Verfahren der Texterschließung zur Verfügung stellen wollte. Im Folgenden werden die tech- nischen Details dieses Projekts erläutert, um den Blick dafür zu schärfen, wel- che Anpassungsleistungen notwendig waren, um diese Art des Textzugangs zu realisieren.¯5 Textuelle Ordnungen in den Digital Humanities 81 Der Index Thomisticus Der Index Thomisticus sollte ein Verzeichnis sämtlicher Wörter umfassen, die in den Schriften Thomas von Aquins und verwandter Werke enthalten sind. Ausgehend von den Erfahrungen aus Busas erstem Projekt war es das erklär- te Ziel, eine möglichst hohe Bandbreite von Sortiermöglichkeiten abzudecken. Auch wenn als Endprodukt eine gedruckte Konkordanz entstehen sollte, schien die Übertragung des Textes auf Karten als geeignetes Verfahren für die Her- stellung eines solchen Verzeichnisses. Eine manuelle Erstellung dieser Karten für alle enthaltenen Wörter kam jedoch aufgrund des umfangreichen Textkor- puss' nicht in Frage. Auf der Suche nach automatisierten Verarbeitungsmög- lichkeiten kam Busa im Jahr 1949 mit IBM-Gründer Thomas J. Watson Sr. in Kontakt. Mit technischer und personeller Unterstützung von IBM sowie finan- zieller Unterstützung von einer Reihe italienischer Geistlicher und Industriel- ler wurde schließlich die Arbeit am Index Thomisticus 1951 aufgenommen. Das Projekt hatte außergewöhnliche Dimensionen: Über mehrere Jahre hinweg waren über 60 Vollzeit-Arbeitskräfte damit beschäftigt, die insgesamt über 10,6 Millionen Wörter in maschinenlesbare Form zu übertragen. Erst 16 Jahre nach Beginn des Projekts war dieser erste Verarbeitungsschritt komplett ab- geschlossen. Die Sortierung der Karten für die Erstellung der ersten Konkor- danzen nahm weitere sechs Jahre in Anspruch. Ab 1973 wurde der Index Tho- misticus schließlich sukzessive in insgesamt 31 Bänden veröffentlicht. Diese Art der Veröffentlichung erscheint aus heutiger Sicht widersprüchlich, werden hier doch die hinzugewonnenen (Um-)Ordnungsmöglichkeiten zugunsten ei- ner linearen Anordnung im Buch wieder aufgegeben. Betrachtet man die ins- gesamt sechs veröffentlichten Konkordanzen,¯6 so wird allerdings deutlich, dass es sich hierbei um ein Verweissystem handelt, das nur sehr bedingt einer syntagmatischen ›Und‹-Ordnung folgt, sondern vielmehr – ähnlich wie ein Bi- bliothekskatalog – die verschiedenen Auswahlmöglichkeiten auf der ›Oder‹- Ebene präsentiert. Insofern stellt die Konkordanz eine Proto-Datenbank dar: Sie ersetzt die linear-syntagmatische Ordnung durch eine bestimmte Auswahl paradigmatischer Ordnungskriterien. Konsequenterweise erscheint die Kon- kordanz 1992 zusätzlich auf CD-ROM (Thomae Aquinatis Opera Omnia cum hy- pertextibus in CD-ROM) und später auch als Online-Version.¯7 Der zeitliche und personelle Umfang des Projekts macht bereits deutlich, dass auf dem Weg zu einer automatisierten Verarbeitung großer Textmengen eine Reihe von Hürden zu überwinden war. Eine der Hauptaufgaben des Projekts be- stand laut Busa in der Vorbereitung des zu verarbeitenden Textes. Zum einen musste ein System gefunden werden, um die Position jedes Wortes im Gesamt- 82 Theo Röhle text angeben zu können, zum anderen musste eine Codierung für die Art der Wörter und Satzteile gefunden werden. Eine Besonderheit des Index Thomisti- cus bestand zudem darin, dass die enthaltenen Wörter nicht allein auf ihre graphische Übereinstimmung überprüft werden sollten, sondern dass sinn- verwandte Wörter zudem bestimmten Lemmata zugeordnet werden sollten, damit der Zusammenhang zwischen diesen Wörtern aus der entsprechenden Konkordanz unmittelbar hervorgeht. Zu diesem Zweck entwickelte Busa zu- sammen mit zwei Mitarbeitern ein Lexikon, das sowohl eine Zuordnung der Flexionsformen eines Wortes zu ihrem Lemma als auch eine thematische Zu- ordnung ermöglichte. An den Beschreibungen des Projekts wird augenfällig, welche Diskrepanzen zwischen der technischen Infrastruktur, die Anfang der 1950er Jahre zur Ver- fügung stand, und den Zielsetzungen des Projekts bestanden. Die von IBM zur Verfügung gestellten Rechner waren, wie es der Unternehmensname ›Interna- tional Business Machines‹ andeutet, auf Geschäftsprozesse ausgerichtet. Dies hatte zur Folge, dass sowohl die verwendeten Codierungen als auch die Benut- zerschnittstellen der Hardware fast ausschließlich auf die Verarbeitung nume- rischer Informationen ausgelegt und für die Eingabe längerer Texte kaum ge- eignet waren. Als Speichermedium standen für das Projekt anfangs noch ausschließlich Loch- karten zur Verfügung. Aufgrund der Ausrichtung dieser Karten auf den ge- schäftlichen Bereich war weder Interpunktion vorgesehen, noch gab es Mög- lichkeiten, Groß- und Kleinschreibung zu markieren oder gar nicht-lateinische Alphabete einzustanzen (siehe Abbildung 1). Zur Erstellung des Index Thomi- stiscus wurden daher elaborierte Codierungsverfahren entwickelt, wobei auf Grundlage der Standardcodierung eine zweite Code-Ebene eingefügt wurde. So verminderte sich zwar die Anzahl der verfügbaren Zeichen pro Karte, dafür konnten auf dieser Ebene ( zum Beispiel durch die Kombination bestimmter fi- nanzieller Symbole) Informationen wie Satzzeichen, aber auch ›Meta-Daten‹ wie Wortposition oder Worteigenschaften gespeichert werden. Folgt man Busas Ausführungen zum Projekt, so hatten sich die Anforderungen der Geschäftswelt jedoch nicht nur in Form der ursprünglich für seine Zwecke unpassenden Kartencodierungen und Nutzerschnittstellen in die Technik ein- geschrieben. Auch die menschlichen Operateurinnen hatten, so Busa, Schwie- rigkeiten, sich von den etablierten Codes aus der Geschäftswelt zu lösen: » [T]hose girls first trained in business key punching are unable to grasp literary punching« (Busa 1964, 67). In einer 1954 eigens für das Projekt eingerichteten Schule wurden daher Frauen ohne Stanzerfahrung in der Verwendung der spe- ziell entwickelten Codiersysteme ausgebildet. Laut Busa war die dabei erlern- Textuelle Ordnungen in den Digital Humanities 83 Abb. 1: Die 1949 eingeführte erste Standard-Codierung der IBM-Lochkarten und die Tastaturbelegung des IBM 026-Stanzgeräts, das diese Karten verarbeitete. te Flexibilität im Umgang mit Codes umgekehrt in der Geschäftswelt sehr ge- fragt: »They quickly learn our complicated alphabetical coding and those who have left our Center and have been employed elsewhere for business punching appear to be very adept at numerical key punching« (ebd.). Die Übertragung des Textes auf Lochkarten erfolgte zunächst Satz pro Satz. Die so entstandenen ›Satzkarten‹ wurden im nächsten Schritt von einem IBM 858 Cardatype verarbeitet, der die darauf enthaltenen Wörter automatisch erfasste und Wort für Wort auf neue Karten übertrug. Zusätzlich zum Wort selbst wur- den hier Angaben zur Position des Wortes im Text und zur Art des Wortes (Zitat, Ortsangabe usw.) gespeichert. Auf die Rückseite der Karten wurde zwischen die Lochzeilen der Satz gedruckt, in dem sich das entsprechende Wort befand, 84 Theo Röhle damit die Karten auch ohne Rechner verwendbar waren. Am Ende dieser Verar- beitungsprozesse stand eine Sammlung, die für jedes der 10,6 Millionen in den Texten enthaltenen Wörter eine individuelle Karte enthielt. Diese Karten konn- ten nun automatisiert neu kombiniert und nach bestimmten Kriterien sortiert werden, um auf dieser Grundlage Konkordanzen zu erstellen. Die Verarbeitung umfangreicher Texte durch Computer stellte Anfang der 1950er somit keine triviale Aufgabe dar, sondern erforderte eine ganze Reihe von Adaptionen und Umbauten. Sowohl auf Seiten des textuellen Materials, auf Seiten der Technik, als auch auf Seiten der menschlichen Akteure mussten beträchtliche Anpassungsleistungen erbracht werden, um ein Zusammen- spiel zu ermöglichen. Die größte Herausforderung stellte dabei die Heraus- lösung des Computers aus dem Bereich rein numerischer Datenverarbeitung dar. Schenkt man damaligen Vertretern des Fachs Glauben, so reichen die Kon- sequenzen dieser Adaptionen weit über die Grenzen des fachspezifischen »li- terary data processing« hinaus. Laut IBM-Mitarbeiter James A. Painter, der sich auf einer Konferenz im Jahr 1964 zu diesem Thema äußerte, spielten derar- tige Projekte, nicht zuletzt durch die Weiterentwicklung der Codierungsver- fahren, eine zentrale Rolle dafür, dass der Computer überhaupt zu einer »ge- neral purpose«-Maschine werden konnte (Painter 1964, 169f.). Anschließend an diese Beobachtung stellt sich die Frage, woran sich entsprechende Übergänge auf andere Bereiche konkret festmachen lassen und ob sich hier weitere Ver- änderungen in der Weise erkennen lassen, wie Texterschließung durch Daten- banken organisiert wird. Von der Theologie zur Philologie Außerhalb theologischer Zusammenhänge erlangte Busas Projekt vor allem da- durch Bekanntheit, dass er es auf einer Vielzahl interdisziplinärer Tagungen präsentierte (Burton 1981a). Gleichzeitig fiel das Projekt in eine Phase, in der automatisierte Verfahren der Konkordanzerstellung im Bereich der Literatur- wissenschaften insgesamt an Popularität gewannen (Burton 1981b). So wur- de 1957 das Projekt der so genannten Cornell Concordances ins Leben gerufen, für die in den darauffolgenden Jahren die Werke von Matthew Arnold, William Butler Yeats, Emily Dickinson, William Blake und Jean Racine in maschinenles- bare Form übertragen wurden. Zudem wurden Anfang der 1960er Jahre an vie- len Universitäten Zentren eröffnet, die sich der Erstellung von Konkordanzen und der rechnergestützten Analyse von Texten widmeten, zum Beispiel das einflussreiche Centre for Literary and Linguistic Computing in Cambridge und Textuelle Ordnungen in den Digital Humanities 85 eine Gruppe um Wilhelm Ott in Tübingen, deren Textanalyse-Software TuStep bis heute eine zentrale Rolle in diesem Bereich spielt (ebd.). Innerhalb dieser Entwicklungen in der Literaturwissenschaft ist jedoch gleich- zeitig eine Tendenz zu verzeichnen, die sich in Busas Projekt noch nicht entfal- tet hatte: Der Index Thomisticus hatte noch größtenteils den Charakter eines Verweissystems. Die Konkordanz diente dazu bestimmte Textstellen zu fin- den, die dann herkömmlich linear rezipiert und interpretiert werden können. Gleichzeitig erlaubt der erste Schritt der Konkordanzerstellung – der Abgleich diskreter Wortformen auf graphische Übereinstimmung und die Herauslösung dieser Wortformen aus ihrem syntagmatischen Zusammenhang – zusätzlich die Sortierung nach quantitativen Kriterien, zum Beispiel nach Worthäufig- keiten. Während diese Sortierung im Index Thomisticus als eine Möglichkeit der paradigmatischen Ordnung neben anderen existiert, lässt sich im Bereich der Literaturwissenschaften beobachten, dass diese quantitative Dimension im Zuge der Ausbreitung von Konkordanzen immer stärker hervortritt. Ein Grund für diese Privilegierung der quantitativen Dimension dürfte darin zu suchen sein, dass die Konkordanzerstellung in den Literaturwissenschaften auf eine Tradition stößt, in der quantitative Formen der Textanalyse schon län- ger gepflegt wurden. So unternahm der Physiker Thomas Corwin Mendenhall 1901 mit dem Artikel A Mechanical Solution of Literary Problems in der Zeit- schrift The Popular Science Monthly den Versuch, einen Grundstein für das neue Fachgebiet der »Stylometrics« zu legen. Hierfür wurde die Länge aller in einem Text verwendeten Wörter ermittelt, um die Häufigkeit zu bestimmen mit der AutorInnen Wörter bestimmter Längen verwenden. Auf der Basis sol- cher Profile sollten dann Texte verglichen werden, um Kontroversen über de- ren VerfasserInnen zu entscheiden. Inspiriert wurde Mendenhall hierzu durch die Arbeiten des Mathematikers Augustus de Morgan, der bereits Mitte des 19. Jahrhunderts versucht hatte, anhand der Analyse von Wortlängen Hinwei- se auf die Autorschaft der Paulus-Briefe zu erlangen (Lord 1958; Hockey 2004, 5). Im Unterschied zu de Morgans griff Mendenhall jedoch bei seinen Untersu- chungen bereits auf mechanische Hilfsmittel zurück: Statt Strichlisten zu füh- ren, bedienten zwei Frauen, die mit der Ermittlung der Wortlängen beauftragt waren, eine eigens entwickelte »counting machine« (Mendenhall 1901, 102). Die »Stilometrie« erlebte in den 1950er und 1960er Jahren im Zuge der ver- mehrt verfügbaren Konkordanzen einen neuen Aufschwung. Diese erlaubten es nicht nur die Häufigkeit von Wörtern bestimmter Länge, sondern nun auch die Häufigkeit bestimmter Wörter automatisiert zu ermitteln. Die Verwen- dung spezifischer Vokabulare sollte auf diese Weise quantitativ erfasst und bestimmten Autoren zugeordnet werden.¯8 86 Theo Röhle Es lässt sich somit nachvollziehen, dass eine Übertragung medientechnischer Verfahren aus dem theologischen Bereich, in dem Busa mit seinem Projekt an- gesiedelt war, zur allgemeinen Analyse von literarischen Texten in der Philo- logie stattgefunden hat. Gleichzeitig findet sich hier jedoch eine Tendenz zur Privilegierung der quantitativen Dimension, die in Busas als Verweissystem konzipierten Konkordanzen noch nicht angelegt war. Man kann daher fragen, ob sich vergleichbare Übertragungen und Tendenzen auch in der allgemeinen medialen Praxis wiederfinden. Konkret lässt sich eine solche Übertragung an den Arbeiten eines weiteren IBM-Mitarbeiters, Hans-Peter Luhn, festmachen, der Ende der 1950er Jahre Vorarbeiten für die Entwicklung späterer Volltext- Suchverfahren leistete.¯9 Von der Konkordanz zur Volltextsuche Konzeptueller Ausgangspunkt für Luhn ist, dass zwischen der Häufigkeit mit der Wörter in einem Text verwendet werden, und der Rolle dieser Wörter im Rahmen einer wissenschaftlichen Argumentation ein Zusammenhang besteht. Die Ermittlung von Worthäufigkeiten eignet sich aus seiner Sicht daher nicht nur für die Bestimmung des Vokabulars eines Autors, sondern die Frequenz eines Wortes lässt sich als Indikator dafür interpretieren, wie wichtig dieses Wort im Kontext des entsprechenden Textes ist. Auch bei der Erstellung eines Lexikons können Worthäufigkeiten als Kriterium dafür dienen, ob die Lem- mata adäquat gewählt wurden und der fachspezifischen Sprache gerecht wer- den, die im Text verwendet wird. Quantitäten kommen bei Luhn somit, ähnlich wie bei den literaturwissen- schaftlichen Ansätzen der »Stilometrie«, eine eigene Bedeutung zu; sie dienen nicht, wie noch bei Busa, lediglich als Sortierkriterium. Während Luhn anfangs noch eine Kombination aus manuell vorgenommenen Klassifikationen und automatisierten quantitativen Analysen für die Entwicklung von Text-Such- verfahren befürwortet (Luhn 1957), kommen spätere Ansätze komplett ohne menschliche Beteiligung aus. So beschreibt Luhn (1958) die Entwicklung eines Programms, das der automatischen Erstellung von Abstracts wissenschaft- licher Artikel dient. In den Abstract aufgenommen werden die Sätze, die eine Kombination verschiedener hochfrequenter Wörter in geringer Distanz zuei- nander enthalten. Denn, so Luhn, »wherever the greatest number of frequent- ly occurring different words are found in greatest physical proximity to each other, the probability is very high that the information being conveyed is most representative of the article« (ebd., 160f.). Textuelle Ordnungen in den Digital Humanities 87 Der Zusammenhang zwischen Worthäufigkeiten und Relevanz, den Luhn in sei- nen Arbeiten systematisiert, findet schließlich in Form des Maßes Term Fre- quency Eingang in die textstatistischen Verfahren, die im Information Retrieval weiterentwickelt und später in die Online-Suche übernommen werden (Stock 2006, 321ff.).¯10 Entscheidend ist, dass hier zwei Arten des Zugangs zusam- menfallen: Einerseits werden die vorhandenen Texte – weiterhin dem Prinzip der concordantia folgend – nach einer Übereinstimmung zwischen Suchbegriff und in den Texten enthaltenen Wörtern durchsucht.¯11 Dieser Abgleich allein produziert bei einem großen Textkorpus allerdings eine sehr lange Liste gefun- dener Dokumente. Es bedarf daher eines automatisiert bestimmbaren Sortier- kriteriums, anhand dessen eine solche Liste nach Relevanz geordnet werden kann. Ein solches Kriterium stellt die Term Frequency dar,¯12 deren Vorgänger in der Analyse von Worthäufigkeiten bei Luhn zu finden sind. Schluss Winkler spricht in seinem oben erwähnten Aufsatz von einem Umschlags- punkt, den die Organisation audiovisueller Elemente in Form der Datenbank mit sich bringt: »Je komplexer, umfangreicher und leistungsfähiger diese Datenbank wird, desto mehr werden die einzelnen audiovisuellen Materialien, um deren Erschließung es geht, zu einem Anhängsel dieser Makro-Struktur werden. Der Modus des Zugriffs wird auch hier die Kohärenz des linearen Syntagmas antasten« (Winkler 2003, 329). Im Gegensatz zum audiovisuellen Bereich, in dem diese Entwicklung bisher nur absehbar ist, beschreibt er den Umschlag im Textuniversum als bereits erfolgt: »Je mehr wir nicht mehr mit Texten, sondern nun mit Textstellen arbeiten und je leichter Suchmaschinen uns den Zugriff machen, desto mehr gewinnt der Zugriff selbst Gewicht, und zwar gegen die Linearität der Zeile« (ebd., 328). Die Übertragung von automatisierten Verfahren der Textverarbeitung aus dem spezialisierten Kontext der theologischen und philologischen Projekte in den Bereich des Information Retrieval, dem die Online-Suche als eine zentrale Komponente heutiger medialer Praktiken entstammt, scheint den von Wink- ler diagnostizierten Umschlag von ›Und‹ zu ›Oder‹ zu bestätigen. Das Projekt des Index Thomisticus, so außergewöhnlich es sich in seiner spezifischen Aus- formung darstellt, war kein isoliertes Phänomen, sondern trug durch einen langen Prozess von Rekonfigurationen dazu bei, die medientechnischen Vo- 88 Theo Röhle raussetzungen für diesen späteren Umschlag zu schaffen. Die Übertragung des Textes auf maschinenlesbare Karten bricht die syntagmatische Ordnung auf und bildet, in Kombination mit der Einkodierung umfangreicher ›Meta-Da- ten‹ in diese Karten, die Voraussetzung für Zugänge, die auf unterschiedlichen Sortierkriterien basieren. Im weiteren Verlauf – dies ist die zweite wichtige Be- obachtung – steht allerdings nicht mehr die Ausschöpfung dieser Bandbreite von Sortierverfahren im Vordergrund, vielmehr setzen sich in der Literaturwis- senschaft und im Information Retrieval vornehmlich quantitativ orientierte Sortierkriterien durch. Diese Durchsetzung bestimmter Arten von Sortierkriterien legt nahe, dass man die Ordnungen des ›Und‹ und des ›Oder‹ nicht so dichotom gegenüber- stellen kann, wie es bisher erfolgt ist. Statt einen allgemeinen Umschlag von ›Und‹ nach ›Oder‹ zu diagnostizieren, scheint es nötig, auf der ›Oder‹-Seite der Privilegierung spezifischer paradigmatischer Ordnungen nachzugehen. Kon- kret auf die hier beschriebenen Entwicklungen bezogen kann man somit zwar konstatieren, dass durch die Volltextsuche die linear-syntagmatische Ordnung von Texten ins Wanken gerät, hat damit aber über die Art der Auswahlmöglich- keiten auf der paradigmatischen Ebene noch keine Aussage getroffen. Akzep- tiert man nun die These, dass sich in den skizzierten Entwicklungen eine Re- duktion auf die quantitative Dimension abzeichnet, so stellt sich im nächsten Schritt die Frage, woher diese Reduktion rührt. Lässt sich die zunehmende Pri- vilegierung der quantitativen Ebene im Umgang mit Text auf bestimmte me- dientechnische Charakteristika zurückführen? Schreibt sich die numerische Herkunft des Computers letztlich – trotz aller Anpassungsleistungen aus gei- steswissenschaftlicher Richtung – in die wissenschaftlichen und medialen Pra- xen ein? Das culturomics-Projekt, das den Ausgangspunkt dieses Beitrags bildete, lässt sich sicherlich in dieser Hinsicht interpretieren. Es wäre dann als vorläufiger Höhepunkt einer Entwicklung zu betrachten, in dem die quantitative Dimen- sion beim Umgang mit digitalen Texten notwendigerweise immer mehr an Ge- wicht gewinnt. Stützen lässt sich eine solche Lesart durch programmatische Aussagen von Vertretern der Digital Humanities, die auf Aspekte wie Exakt- heit¯13 und Restlosigkeit¯14 fokussieren und damit an quantitativ orientierte Rationalitätsvorstellungen anknüpfen. Die Datenbank wäre in diesem Zusam- menhang allererst ein wissenschaftliches Werkzeug der Effizienz und des di- stanzierten Überblicks, das – dann tatsächlich analog zu den genomics – einen vermeintlich ›objektiven‹ Blick auf das Material erlaubt. Es gibt allerdings auch völlig andere Stimmen aus den Digital Humanities. So vertritt beispielsweise Steven Ramsay (2010) einen »screwmeneutical impera- Textuelle Ordnungen in den Digital Humanities 89 tive«, durch den vielfältige Zugänge zum Material geschaffen werden sollen. Der Datenbank fällt hier nicht nur die Rolle zu, das lineare Syntagma zu durch- brechen, sondern auch auf der paradigmatischen Ebene immer wieder neue Auswahlmöglichkeiten ins Spiel zu bringen. In eine ähnliche Richtung argu- mentiert auch Willard McCarty (2009) in seiner Antrittsrede als Professor für Humanities Computing am Londoner King’s College: »Not push a button and wait for the answer; not follow links; not work within a system of tags established canonically for us by an expert, or a committee, or a consensus of the great and the good; but on the spur of the moment, try things out and see what happens, try things out and model our way experimentally toward a better knowing«. Im Hinblick auf die anfangs gestellte Frage, wieso die Kombination aus geistes- wissenschaftlichen Fragestellungen und computergestützter Verfahren in re- gelmäßigen Abständen in der Lage ist, Kontroversen zu schüren, Hoffnungen zu wecken und Faszinationspotentiale zu aktualisieren, ist es interessant zu vermerken, dass sich beide Arten von Visionen – man könnte sie als ›objektive Übersicht‹ und ›kreative Rekombination‹ bezeichnen – in völlig unterschied- lichen Phasen der Digital Humanities finden lassen.¯15 Das Gebiet als Ganzes scheint daher keiner übergreifenden Entwicklungslogik – von offen zu geschlos- sen oder andersherum – zu folgen, stattdessen werden die Grenzen von Forma- lisierung und Quantifizierung immer wieder zum Gegenstand expliziter Aus- einandersetzungen gemacht. Gerade im Aufeinandertreffen von Computern und geisteswissenschaftlichen Fragestellungen scheinen Ordnungssysteme ihre Bruchstellen zu offenbaren. Dies erhöht die Chance, dass die methodolo- gische Privilegierung bestimmter Dimensionen des Untersuchungsmaterials, wie zum Beispiel die quantitativen Aspekte von Texten, nicht unter der Wahr- nehmungsschwelle reproduziert wird, sondern in fachspezifischen Debatten explizit thematisiert wird, was der Aushandlung neuer Zugänge zum Material Vorschub leisten könnte. In diesem Sinne kann man die interpretativen Schwä- chen des quantitativ orientierten culturomics-Projekts durchaus als positives Signal werten, lassen sie doch aktive Gegenbewegungen gegen dessen überdi- mensionierte Erklärungsansprüche erwarten. Anmerkungen 01˘ Franco Moretti fordert schon seit geraumer Zeit ein so genanntes »Distant Reading« ein, bei dem es nicht mehr um einen hermeneutischen Zugang zu einzelnen Texten gehen soll, sondern um die quantitative Auswertung großer Textmengen. Ziel ist in diesem Fall zum Beispiel die Analyse von Genreverschiebungen oder auch ein historischer Vergleich des 90 Theo Röhle Produktionsvolumens von Büchern in verschiedenen Ländern (Moretti 2009). 02˘ Unter dem Stichwort »post-theoretical age« hatte sich 2009 auch schon Brian Eno im bri- tischen Prospect Magazine in ähnlicher Weise zu Wort gemeldet: »In the absence of data, you theorise. In an abundance, you just need to do the maths. And, because of all those su- per-efficient search engines, we share more and more data. Data dissolves ideology« (Eno 2009). 03˘ Beispielsweise spielte die aus den Digital Humanities hervorgegangene Text Encoding Inititiative, die Markupverfahren für digitale Texte entwickelt, eine zentrale Rolle bei den Vorarbeiten zur Standardisierung von XML (deRose 1999). 04˘ Diesen Vorzug der Karte beziehungsweise des Zettels gegenüber dem Buch stellt Krajewski (2002) ausführlich am Beispiel der Bibliothekskataloge dar. Auf einer allgemei- nen Ebene streicht Latour (2009) in der Erläuterung seines Konzepts der »immutable mobi- les« die Eigenschaft der Mobilität von Papieraufzeichnungen heraus und zeigt am Beispiel von Mendelejews Periodensystem auf, inwiefern diese als Grundlage experimenteller para- digmatischer Ordnungen betrachtet werden können. Auch Latour zieht hier den Vergleich zum Patience-Spiel: »Jedes Element befindet sich nun auf einer neuen Papierform auf dem Schnittpunkt eines Längen- und Breitengrads; diejenigen, die sich auf der gleichen horizon- talen Linie befinden, sind durch ihr Atomgewicht nahestehend, obwohl sie durch ihre che- mischen Eigenschaften unterschieden sind; diejenigen, die sich auf derselben vertikalen Linie befinden, sind durch ihre Eigenschaften ähnlich, obwohl sie sich in ihrem Atomgewicht mehr und mehr voneinander entfernen. Auf diese Weise wurde lokal ein neuer Raum ge- schaffen; neue Verbindungen von Distanz und Nähe, neue Nachbarschaften, neue Familien wurden entwickelt: Eine Periodizität (daher der Name der Tabelle) wird sichtbar, die bis da- hin im Chaos der Chemie unsichtbar war« (ebd. 141f.). 05˘ Die Rekonstruktion stützt sich hautpsächlich auf Busa (1964; 1980), Winter (1999) und Hockey (2004). 06˘ Diese umfassten 1. Eine alphabetische Liste aller Wörter mit Angabe der Häufigkeiten, 2. Ein Register der Lemmata, 3. Ein umgekehrtes Register der Lemmata mit Angabe der Häufigkeiten, 4. Eine Liste der Wortformen inkl. Häufigkeiten, nach Lemmata sortiert, 5. Ein Ortsregister und 6. Eine Konkordanz, in der jedes Wort der Hymnen im Kontext, das heißt in der jeweiligen Verszeile, angegeben ist. 07˘ Abrufbar unter [http://www.corpusthomisticum.org/it/]; letzter Abruf: 19.12.2011. 08˘ Eine interessante Randnotiz aus medienwissenschaftlicher Sicht ist ein Plädoyer für den Einsatz statistischer Verfahren in der Stilforschung von Norbert Bolz (1984). Im engeren Bereich des Humanities Computing scheinen Konkordanzen ab Mitte der 1960er etabliert, der Zenit der Faszination für diese Umordnung textuellen Materials allerdings auch schon überschritten. So liefert die erste Ausgabe der Zeitschrift »Computers and the Humanities« 1966 ihren LeserInnen zwar noch eine Liste aktueller Programme zur Erstellung von Konkordanzen. In der Ausschreibung eines Preises für innovative Projekte wird jedoch aus- Textuelle Ordnungen in den Digital Humanities 91 drücklich darauf hingewiesen, dass der Bedarf an Konkordanz-Programmen gesättigt ist und diese daher keine Chance auf eine Auszeichnung haben (Lieb 1966). 09˘ Luhn (1957, 314) bezieht sich explizit auf die Arbeiten am Index Thomisticus, wie auch Busa (1990, 341) sich umgekehrt auf Luhn bezieht. 10˘ In aktuellen kulturwissenschaftlichen Beiträgen zu Ranking-Verfahren in der Online-Suche entsteht mithin der Eindruck, das Google-Ranking würde ausschließlich auf PageRank ba- sieren, das heißt es würde nur die Analyse der ein- und ausgehenden Links einer Seite für die Relevanzbewertung herangezogen. Ein solcher Fokus auf die Linktopologie trägt zwar dazu bei, dass die Vorläufer von PageRank in der Sozio- und Bibliometrie inzwischen bes- ser beleuchtet werden (Donner 2010, Mayer 2009). Allerdings droht dabei in Vergessenheit zu geraten, dass auch PageRank nur ein Faktor unter vielen Rankingkriterien ist, wobei die Textstatistik weiterhin eine wichtige Rolle einnimmt. In ihrer ursprünglichen Beschreibung von Google schreiben Brin/Page zum Beispiel ausdrücklich, dass die Häufigkeit von Wortnennungen zusammen mit Informationen zur jeweiligen Textformatierung in einen so genannten »IR score« einfließt, der anschließend mit PageRank kombiniert wird (Brin/ Page 1998). 11˘ Seit 1972 übernimmt diese Aufgabe standardmäßig die Software ›grep‹, auf deren Rolle Duguid (2009) ausführlicher eingeht. 12˘ Beziehungsweise später darauf aufbauende relative Häufigkeitsmaße wie Within Document Frequency oder Inverse Document Frequency (Stock 2006, 321ff.). 13˘ »In the early literature of humanistic computing, one finds great hope that the computer would make the information it yielded more reliable than that gathered directly by human effort. There was a notion that what computers could not do, editors should not do, lest they detract from that objectivity or fail to take full advantage of the computer‘s capabi- lities« (Burton 1982, 195). 14˘ »Scientists talk about Big Science. I am proposing a Big Humanities. I would venture to say that digitizing (with interoperability and universal access) the entire record of human ex- pression and accomplishment would be as significant and as technologically challenging an accomplishment of the information age as sequencing the human genome or labeling every visible celestial object« (Davidson 2008, 714). 15˘ So schreibt Irwin Lieb bereits in der ersten Ausgabe der Zeitschrift »Humanities Computing« 1966: »In the first stage, scholars of pythagorean mood who knew what mathematicians, logicians and linguists were doing with computers, thought and asked how some of their techniques could be applied to the materials with which they were themselves most con- cerned to work. The computer replaced their card files and the ingenuities of indexing which they had devised with colored tabs and codes. The techniques of counting, sorting, storing and recovering were practiced, extended, and refined. Now, though, at the start of what may be a second stage, we are trying to set aside the image of the file (as well as some of the calculator images) and trying to imagine computers on different models, we 92 Theo Röhle are not sure what – the puzzle, the trip, module constructions, a dozen other schemes« (Lieb 1966, 9). Literatur Aarseth, Espen J. (2003) Nonlinearity and Literary Theory. In: The New Media Reader. Hrsg. v. Nick Montfort & Noah Wardrip-Fruin. Cambridge, MA: MIT Press. S, 761-780. Bolz, Norbert (1984) Gewinnung und Auswertung quantitativer Merkmale in der stati- stischen Stilforschung. In: Methoden der Stilanalyse. Hrsg. v. Bernd Spillner. Tübingen: Gunter Narr Verlag, S. 193-222. Bowker, Geoffrey C. (2006) Memory practices in the sciences. Cambridge, MA: MIT Press. Brin, Sergey / Page, Lawrence (1998) The Anatomy of a Large-Scale Hypertextual Web Search Engine [http://infoab.stanford.edu/~backrub/google.html]; letzter Abruf: 10.7.2011. Burton, Dolores M. (1981a) Automated Concordances and Word-Indexes: The Fifties. In: Computers and the Humanities 15, 1, S. 1-14. Burton, Dolores M. (1981b) Automated Concordances and Word-Indexes: The Early Sixties and The Early Centers. In: Computers and the Humanities 15, 2, S. 83-100. Burton, Dolores M. (1982) Automated Concordances and Word-Indexes: Machine Decisi- ons and Editorial Revisions. In: Computers and the Humanities 16, 4, S. 195-218. Busa, Roberto (1964) An Inventory of Fifteen Million Words. In: Literary data proces- sing. Conference proceedings. Hrsg. v. Jess B. Bessinger, Stephen M. Parrish & Harry F. Arader. White Plains, N.Y: IBM, S. 64-79. Busa, Roberto (1980) The Annals of Humanities Computing: The Index Thomisticus. In: Computers and the Humanities 14, 2, S. 83-90. Busa, Roberto (1990) Informatics and new philology. In: Computers and the Humanities 24, 5/6, S. 339-343. Calwer Verlag (2001) Große Konkordanz zur Lutherbibel. Stuttgart: Calwer Verlag. Cohen, Patricia (2010) Digital Keys for Unlocking the Humanities’ Riches. In: Times. 17.11.2010 [http://www.nytimes.com/2010/11/17/arts/17digital.html]; letzter Abruf: 4.01.2012. Davidson, Cathy (2008) Humanities 2.0: Promise, Perils, Predictions. In: PMLA 123, 3, S.707- 717. DeRose, Steven (1999) XML and the TEI. In: Computers and the Humanities 33, 1/2, S. 11-30. Duguid, Paul (2009) Die Suche vor grep. Eine Entwicklung von Geschlossenheit zu Offen- heit? In: Deep Search. Die Politik des Suchens jenseits von Google. Hrsg. v. Felix Stalder & Kon- rad Becker. Innsbruck: Studienverlag, S. 15-36. Textuelle Ordnungen in den Digital Humanities 93 Duwe, Janina / Meffert, Katja (2008) State-of-the-Art Analyse E-Humanities [http:// www.textgrid.de/fileadmin/TextGrid/konferenzen_vortraege/eHumanities_Juni08/ SotAA_1.1.pdf]; letzter Abruf: 10.7.2011. Donner, Martin (2009) Rekursion und Wissen. Zur Emergenz technosozialer Netze. In: Re- kursionen. Hrsg. v. Philipp von Hilgers & Ana Ofak. München: Fink, S. 77-115. Eno, Brian (2010) The post-theoretical age. In: Prospect Magazine. [http://www.prospect- magazine.co.uk/2009/10/the-post-theoretical-age/]; letzter Abruf: 04.01.2012. Fraser, Michael (1996) A Hypertextual History of Humanities Computing: Convergence and Collaboration. [ http://users.ox.ac.uk/~ctitext2/history/converge.html]; letzter Abruf: 04.01.2012). Gramelsberger, Gabriele (2011) From Science to Computational Sciences. A Science Hi- story and Philosophy Overview. In: From Science to Computational Sciences. Studies in the History of Computing and its Influence on Today’s Sciences. Hrsg. v. Gabriele Gramlesberger. Zürich/Berlin: Diaphanes, S.19-44. Hockey, Susan (2004) The History of Humanities Computing. In: A companion to digital humanities. Hrsg. v. Susan Schreibman, Ray Siemens & John Unsworth. Malden, MA: Black- well, S. 3-19. Krajewski, Markus (2002) Zettelwirtschaft. Die Geburt der Kartei aus dem Geiste der Bi- bliothek. Berlin: Kadmos. Latour, Bruno (2009) Die Logistik der immutable mobiles. In: Mediengeographie. Theorie- Analyse-Diskussion. Hrsg. v. Jörg Döring & Tristan Thielmann. Bielefeld: Transcript, S. 67-110. Lieb, Irwin (1966) The ACLS Program for Computer Studies in the Humanities: Notes on Computers and the Humanities. In: Computers and the Humanities 1, 1, S. 7-11. Lord, R.D. (1958) Studies in the History of Probability and Statistics: VIII. De Morgan and the Statistical Study of Literary Style. In: Biometrika 45, 1/2, S. 282. Luhn, Hans-Peter (1957) A statistical approach to mechanized encoding and searching of literary information. In: IBM Journal of Research and Development 1, 4, S. 309-317. Luhn, Hans-Peter (1958) The automatic creation of literature abstracts. In: IBM Journal of Research and Development 2, 2, S. 159-165. Manovich, Lev (1999) Database as Symbolic Form. In: Convergence. The International Jour- nal of Research into New Media Technologies 5, 2, S. 80-99. Mayer, Katja (2009) Zur Soziometrik der Suchmaschinen. In: Deep Search. Politik des Su- chens jenseits von Google. Hrsg. v. Felix Stalder & Konrad Becker. Innsbruck: Studienverlag, S. 64-83. McCarty, Willard (2009) Attending from and to the machine [http://staff.cch.kcl. ac.uk/~wmccarty/essays/McCarty,%20Inaugural.pdf]; letzter Abruf: 04.01.2012. Meister, Jan Christoph (2005) Projekt Computerphilologie. Über Geschichte, Verfahren und Theorie rechnergestützter Literaturwissenschaft. In: Digitalität und Literalität. Zur Zu- kunft der Literatur. Hrsg. v. Harro Segeberg & Simone Winko. München: Fink, S. 315-341. 94 Theo Röhle Mendenhall, Thomas C. (1901) A Mechanical Solution of a Literary Problem. In: The Po- pular Science Monthly 60, 7, S. 97-105. Michel, Jean-Baptiste et al. (2011) Quantitative Analysis of Culture Using Millions of Digitized Books. In: Science 331, 6014, S. 176-182. Moretti, Franco (2009) Kurven, Karten, Stammbäume. Abstrakte Modelle für die Litera- turgeschichte. Frankfurt/Main: Suhrkamp. Müller, Oliver (2004) Messbare Dichtung? Eine Feldstudie zur exakten Literaturwissen- schaft in den 1960er Jahren. In: Soziale Räume und kulturelle Praktiken. Über den strate- gischen Gebrauch von Medien. Hrsg. v. Georg Mein & Markus Rieger-Ladich. Bielefeld: Tran- script, S. 149-180. Painter, James A. (1964) Implications of the Cornell Concordances for Computing. In: Lite- rary data processing. Conference proceedings. Hrsg. v. Jess B. Bessinger, Stephen M. Parrish & Harry F. Arader. White Plains, N.Y: IBM, S. 160-170. Parry, Marc (2010) The Humanities Go Google In: The Chronicle of Higher Education. [http://chronicle.com/article/The-Humanities-Go-Google/65713/]; letzter Abruf:04.01.2012. Ramsay, Steven (2010) The Hermeneutics of Screwing Around; or What You Do with a Mil- lion Books [http://www.playingwithhistory.com/wp-content/uploads/2010/04/hermeneu- tics.pdf]; letzter Abruf:04.01.2012. Schreibman, Susan / Siemens, Ray / Unsworth, John (Hrsg.) (2004) A companion to digital humanities. Malden, MA: Blackwell. Stock, Wolfgang G. (2006) Information Retrieval. Informationen suchen und finden. München: Oldenbourg Wissenschaftsverlag. Winkler, Hartmut (2003) Video on Demand. Zugriff auf bewegte Bilder. In: Medien und Ästhetik. Festschrift für Burkhardt Lindner. Hrsg. v. Harald Hillgärtner & Thomas Küpper. Bielefeld: Transcript, S. 318-331. Winter, Thomas N. (1999) Roberto Busa, S.J., and the Invention of the Machine-Generat- ed Concordance. In: The Classical Bulletin 75, 1, S. 3-20. Textuelle Ordnungen in den Digital Humanities 95 96 Uwe Wippich Eugenische Daten – Die Datenpraktiken des Eugenics Record Office Die dynamische Leblosigkeit der Datenbankskulptur In der begleitenden Ausstellung zum zweiten internationalen Eugenik-Kon- gress 1921,¯1 aufgebaut in der Darwin-Halle des American Museum of Natu- ral History, blieb ein Besucher auch außerhalb der Öffnungszeiten stets anwe- send: The Average American Male. Die knapp 60 Zentimeter hohe Gipsskulptur eines weißen amerikanischen Mannes verkörperte das Datenkonvolut der Ver- messung von 100.000 amerikanischen Soldaten bei deren Demobilisierung nach dem Ersten Weltkrieg. Sie stellte also die Momentaufnahme eines Da- tenverarbeitungsprozesses dar, die dreidimensionale Oberfläche einer Daten- bank. Doch war sie damit bloßes Objekt einer beiläufigen oder intensiven Be- trachtung? Oder steckte in der herausfordernden und vielleicht abstoßenden Körperlichkeit unter dem Titel des Average American Male nicht auch ein Sub- jekt, in welchem Exponat und Ausstellungsbesucher konvergieren? Dass eine solche Frage naheliegt, zeigt sich, wenn der Rezensent der New York Times bei einem erneuten Auftritt des Average American Male in der Ausstellung zum dritten internationalen Eugenik-Kongress 1932 dieses »objectified eugenic fig- ment of the brain« als leblos kritisiert: »This forlorn Average American is a scientific composite. From him, after a moment‘s studious inspection, you turn sadly, even with a feeling of dismay – not because physically he is such a sorry specimen but because he is perfectly lifeless« (Jewell, NY Times 18.09.1932, xx9). In diesem statistischen Wesen wird ein biometrischer Mittelwert in eine unver- änderliche Objekthaftigkeit gegossen und damit pathologisch. Dies evoziert die Suche nach den Merkmalen des Besonderen, der Auszeichnung, des Leben- digen. Eine solche Suche nach der Lebhaftigkeit von Datenwesen hat Metho- de. Otto Neurath skizzierte 1925 Sozialmuseen als Vermittlungsagenturen und Wahrnehmungsakte statistisch erfasster Bevölkerung, welche die Dynamik des »Gesellschaftskörpers« vermitteln sollten.¯2 Im Average American Male begeg- net ein solcher »Gesellschaftskörper« im Rahmen einer Ausstellung. 1921 wur- de dies noch dadurch unterstützt, dass dem Average American Male die Ver- Eugenische Daten 97 körperung der fünfzig stärksten Männer Harvards gegenübergestellt war. Die Dynamik der von Jewell konstatierten Leblosigkeit zeigt sich als strategisches und zugleich agonales Element einer potentiellen (Um-)Formbarkeit des Ge- sellschaftskörpers, und zwar in der Formierbarkeit individueller Körper durch eugenische Programmierung. In der Figur des Average American Male tritt dem Besucher somit nicht nur die Behauptung seiner eigenen Repräsentierbarkeit in Datenformaten entgegen, sondern ebenso das noch uneingelöste Potential einer Rekonfigurierbarkeit zum Zweck der Bevölkerungsoptimierung. Um die Bevölkerung als Bevölkerung in den Blick zu bekommen, sind medi- ale Techniken der Lokalisierung, des Monitorings und des Surveys erforderlich. Doch wie können künftige Generationen Gegenstand wissenschaftlicher und politischer Analysen und Maßnahmen sein? Das Bemühen um das Leben künf- tiger Generationen erfordert nach Francis Galton (1822-1911) das Studium da- für in Frage kommender »agencies«; Faktoren, welche für die aktuell noch Un- geborenen prägend sein können. Ein entsprechendes Zitat Galtons von 1904 war über Jahrzehnte der Zeitschrift Eugenics Review (1909-1968) auf dem Co- ver oder im Editorial vorangestellt:¯3 »Eugenics is the study of agencies under social control that may improve or impair the racial qualities of future gene- rations, whether physically or mentally«. Bereits 1883 hatte Francis Galton sein 1869 in Hereditary Genius entwickeltes Konzept einer verhaltensgenetischen Verbesserung durch die Anwendung der Vererbungslehre auf Intelligenz und Talent als »Eugenik« bezeichnet (1883, 17).¯4 Eine weitere Definition Galtons in einem Vortrag vor der soziologischen Gesellschaft an der School of Economies der Londoner Universität am 14. Mai 1904 etabliert Eugenik zugleich als Wis- senschaft: »Eugenics is the science which deals with all influences that impro- ve the inborn qualities of a race; also with those that develop them to the ut- most advantage«.¯5 In der konzentrierten und zugleich seltsam diffusen Körperlichkeit eines Ave- rage American Male ist das Phantasma eugenischer Manipulation von körper- lichen und psychischen Merkmalen als vitale Notwendigkeit der Optimierung künftiger Generationen angelegt. Mit dem Anspruch angewandte Life Science zu sein, wird die Leblosigkeit statistischer Bevölkerungsrepräsentationen un- ter einer vorgeblichen Treue zu Prinzipien des Vitalen operationalisierbar ge- macht. Im Falle der Eugenik sind dies Prinzipien der Vererbung. Die Idee einer genetischen Identität und damit verbunden einer genetisch verbesserbaren Bevölkerung erfordert jedoch mediale Strategien der Datenerfassung und Datenverarbeitung. Somit werden auch Zeit (Reproduktion) und Raum (Lo- kalität und Verbreitung) als Faktoren medialer Erfassung von Bevölkerungs- dynamiken relevant. Wie dieser Beitrag zeigen wird, setzt die eugenische Op- 98 Uwe Wippich timierung der Bevölkerung als politische Strategie Methoden der Datenbank sowie deren Zugriffsparameter generierende Oberflächenstruktur voraus. Di- ese werden im Folgenden am Beispiel des Eugenics Record Office (ERO) vorge- stellt und analysiert. Denn im ersten Drittel des 20. Jahrhunderts ist das Euge- nics Record Office neben anderen Organisationen des Eugenic Movement das zentrale Rechenschaftszentrum eugenischer Bevölkerungsanalyse und Bevöl- kerungspolitik in den USA. Rechen(schafts)zentrum Das Eugenics Record Office (ERO) entstand 1910 auf Initiative von Charles Be- nedikt Davenport (1866-1944) und durch die großzügige finanzielle Unterstüt- zung der Carnegie-Gesellschaft, der Rockefeller-Foundation sowie der Witwe des Eisenbahn-Tycoons E. H. Harriman als Erweiterung der in Cold Spring Har- bor installierten Carnegie-Station for Experimental Evolution, die Davenport bereits seit ihrer Gründung 1904 als Direktor leitete. Davenport war als Zoolo- ge stark an Vererbung und Evolution interessiert und einer der ersten, der die Arbeiten von Carl Correns und Hugo de Vries in den Vereinigten Staaten eta- blierte (Rosenberg 1997, 91). Deren Wiederentdeckung der mendelschen Verer- bungslehre sowie August Weismanns Keimplasmatheorie wurden für Daven- port zu Schlüsselkonzepten einer mit biostatistischen Methoden arbeitenden Clearing-Stelle für Eugenik, sodass Variationen und Übereinstimmungen in der Erbfolge als Rekombinationen von Merkmalen (traits) erklärbar und vor allem prognostizierbar erschienen. Denn durch die Anwendung des Konzepts Weismanns konnten andere Einflüsse auf die physische und psychische Konsti- tution als vernachlässigbar angesehen werden. Eigenschaften und Merkmale ebenso wie Krankheiten wurden auf diskrete genetische Einheiten zurückge- führt, deren Wirksamkeit und Vererbungsmuster es nur aufzuklären galt, um das eugenische Ziel einer Bevölkerungsoptimierung durch selektive Produkti- on positiver und selektiven Ausschluss negativer Merkmale praktisch umzu- setzen. In den traits, so das wissenschaftliche Konzept, sind die Faktoren auf- zufinden, die das Leben bestimmen. In der praktischen Arbeit des ERO werden diese vitalen Eigenschaften von Lebewesen zu medialen Markierungen und da- mit zugleich zu Datenbankereignissen. Indem sie mit Hilfe von Trait-Charts und Familienstammbäumen erforscht werden, erscheinen sie daher in ihren daten- repräsentativen Evidenzbeziehungen operationalisierbar. Damit konnte sich das ERO auch als Zentrum angewandter Wissenschaft verstehen, in dem nicht nur Daten über die in der amerikanischen Bevölkerung verbreiteten Merkmale Eugenische Daten 99 gesammelt und ausgewertet werden sollten, sondern auf Grundlage dieser Da- ten zugleich Empfehlungen und Richtlinien bis hin zu Modellgesetzen für eine Sterilisationsgesetzgebung erarbeitet wurden. Neben Davenport war Harry Hamilton Laughlin (1880-1943), der Superintendent des ERO, die maßgebliche Persönlichkeit in diesen Bemühungen. 1912 beschreibt Laughlin die Arbeit des ERO in einem Vortrag vor der Eugenischen Sektion der American Breeders As- sociation wie folgt: »The functions of this office are (1) to serve as a clearing house for data on human heredity and its application to human affairs, (2) to build up an index of the American population indexing families, traits and their geographical distribution with special reference to sub-normal and su- per-normal characteristics, (3) to train field workers expert in gathering data of eugenic import, (4) to maintain a field force actively engaged in collecting such data, (5) to cooperate and to col- laborate with persons and with other institutions concerned with human heredity, (6) to st udy authentic data, thereby discovering the general laws of inheritance and the specific manner of the inheritance of specific traits, (7) to aid and to promote the organization of new centers for eugenic research, (8) to advise concerning the fitness of marriage unions, (9) to disseminate eu- genic truths to the end that society may proceed wisely to the application of plans for the bet- terment of the human stock« (Laughlin 1912, 119-120). Obwohl Davenport die Funktion des ERO auf die Forschung begrenzt sehen möchte und eine Propagandafunktion abstreitet (Davenport 1922, 315), gibt das ERO Rechenschaft über Maßnahmen positiver sowie negativer Eugenik, von Heiratsregelungen über Immigrationsbeschränkungen bis hin zur Berechnung »notwendiger« Zwangssterilisationen.¯6 Es verwertet IQ-Tests¯7 und phy- sische Durchmusterungen, berechnet Wunschfamiliengrößen und markiert diejenigen, deren »Keimplasma« künftige Generationen und damit die ameri- kanische Nation kulturell und wirtschaftlich belasten würde. So legte Laughlin den umfassenden Entwurf einer Modellgesetzgebung für die Zwangssterili- sation vor (Laughlin 1922) und wurde 1921 zum Expert Eugenics Agent im Co- mittee of Immigration and Naturalization, welches restriktive Immigrations- regelungen erarbeitete. Dort konnte er die Berechnungen und Ergebnisse des ERO auch in Ausstellungspostern präsentieren. Die Analysen zeigten, wie Da- venport schreibt, dass die Einwanderer aus Süd-Ost Europa nicht dazu geeig- net seien, die moralischen und sittlichen Lebensweisen zu übernehmen, auf welchen die angelsächsischen Einwanderer die Verfassung aufgebaut hätten (1922, 314). Das ERO gibt damit Rechenschaft über einen augenblicklichen und vor allem einen extrapolierten Zustand der amerikanischen Nation. In euge- nischer Perspektive fokussiert es auf Auswirkungen »unkontrollierter Einwan- derung« sowie »unkontrollierter Vermehrung« so genannter »Defectives«, zu 100 Uwe Wippich denen in der Lesart des ERO Alkoholiker, Kriminelle, Prostituierte, Vagabun- dierer, Ausreißer ebenso gehören wie Epileptiker und die so genannten »Fee- bleminded«, ein Ausdruck, der zum Sammelbegriff eugenischer Diffamierung avancierte.¯8 Diese »Rechenschaft« gibt das ERO nicht nur seinen philanthro- pisch auftretenden Sponsoren, sondern die Berechnungen des ERO schaffen Grundlagen und Rahmenbedingungen politischen Handelns. Das ERO prozes- siert dazu nicht nur Orte und Zeiten, es prozessiert stabile, invariante Elemente von Traits und macht diese so zu einem Agens der Bevölkerungsoptimierung. Der Schlüssel zur Zukunft liegt in der Perspektive des ERO in der Erforschung der Traits – und damit in den Daten. Doch damit verschiebt sich die Perspektive auf das Leben selbst. Das Leben wird zum Datenereignis. Nicht die Lebendigkeit des Lebens ist normativ (vgl. Canguilhem 2009), sondern die Daten sind es. Sie generieren Normen und Normierungen der Regulierung zu einer »Regierung der Risiken« (Lemke 2008), einer Regierung genetischer Risiken, »die ein spe- zifisches Verhältnis von Machttechniken und Wissensformen, von Fremd- und Selbstführung impliziert« (Lemke 2008, 130). Damit wird das Datenbüro zum Laboratorium einer Experimentalisierung des Lebens. Latour schreibt: »It is all in the files themselves. A bureau is, in many ways, and more and more every year, a small laboratory in which many elements can be connected together just because their scale and nature has been averaged out: legal texts, specifications, standards, payrolls, maps, surve- ys« (Latour 1990, 25). Das ERO ist damit das herausragende Evidenzmedium des eugenischen Pro- gramms. Es verkörpert die Speicherung und Prozessierung der Eigenschaften und Merkmale der Bevölkerung, aufgeteilt in Familien, aufgesucht in deren räumlicher und zeitlicher Verteilungsmatrix. Die Ergebnisse dieser Operati- onen, die angesichts der Bevölkerung, der vergehenden Zeit und der Zuwan- derung je nur Zwischenergebnisse sein können, werden aufgearbeitet und in zweidimensionale Repräsentationen überführt – oder in das von Davenports Tochter erstellte Modell des Average American Male. Mit dem Ziel »die Abhän- gigkeit von weit entfernten Wissensbeständen zu überwinden, indem man di- ese unter Kontrolle bringt« (Rottenburg 2002, 121), etabliert sich das ERO als Rechen(schafts)zentrum.¯9 Doch gilt diese strategische Kontrollfunktion nicht allein den Daten und Datenrepräsentationen sowie deren modellhafter Aufbe- reitung, sondern ebenso den Operatoren und Prozessoren des Rechen(schafts) zentrums selbst, den Sensoren, Zugriffen und Bussystemen, das heißt den in- ternen Datentransferkanälen. Um die Rechenprozesse zu operationalisieren, sind Algorithmen und Standardisierungen zu entwickeln. Diese Standardisie- rungen betreffen das Datenmaterial, dessen Ein- und Ausgabeprozeduren so- Eugenische Daten 101 wie die Ordnungssysteme der Anforderung, Analyse und Aufbewahrung. Es werden Suchräume definiert und Methoden entwickelt, diese Suchräume zu erschließen. Doch verschiebt jeder neue Abfrage-Algorithmus und auch jeder damit verbundene Steuerungsimpuls zugleich die Datenbasis selbst: Wie sind Merkmale kombiniert, wie werden sie weitergegeben, über welche Linien und Generationenfolgen? Das Leben und damit die datentechnisch zu erfassenden diskreten Einheiten des Keimplasmas der Bevölkerung verteilen sich in Raum und Zeit, sodass der Schlüssel zu Rekombination und Optimierung nirgend- wo dort zu finden ist, sondern letztlich nur in der Datenbank ERO. Doch dazu muss ein unablässiger Datenstrom generiert werden, welcher der Dynamik so- wohl der geografischen Verteilung als auch der zeitlichen Weitergabe dieser diskreten Einheiten je folgt, und somit nicht nur angesichts von Migration und Rekombination stets aktualisiert werden muss. »Human Research Machines« Bereits auf der ersten Race-Betterment Conference 1914 umreißt Davenport die Aufgabe des ERO mit: »We needed, first of all, to collect data« (Davenport 1914, 452). Doch das erfordert Wege der Datengewinnung, Datenstandardisierung und Datenverarbeitung. Daher müssen Agenten ausgesandt werden, welche die Daten sammeln und den Datenstrom gewährleisten. Diese müssen mobil sein, müssen kommunikative Fähigkeiten haben, eugenisch gebildet und in der Lage sein, die gesuchten Daten zu prozessieren. Somit werden auch die, die für das ERO arbeiten und die entsprechende Forschung leisten, standardisiert. Zugleich müssen Kommunikationsstrukturen zwischen Agenten und Zentrum geschaffen werden. Zwischen 1910 und 1924 wurden in Summer-Schools ausge- bildete und trainierte Field Worker vom ERO eingesetzt, die eine qualitative Be- wertung der Bevölkerung erarbeiten sollten. 219 der insgesamt 258 Field Worker waren Frauen (Bix 1997, 634). Vorlesungen, Laborarbeit, Psychologie und An- thropometrie, klinische Studien und Training in Interviewtechniken gehörten ebenso zum Ausbildungsprogramm wie der Umgang mit der Datensammlung. Jährliche Konferenzen dienten der Evaluation und Weiterbildung. Das Konzept sah eine enge Anbindung an offizielle Einrichtungen der Betreuung von »De- fectives« vor. Das bedeutete ganz praktisch: Während das ERO das Gehalt zahl- te, sollten die Auslagen von Institutionen wie Gefängnissen, Krankenhäusern und psychiatrischen Einrichtungen getragen werden. Ausgangspunkt der Ar- beit ist der Zugriff auf Patientenakten, Untersuchungen, Anwendungen, me- dizinische und psychologische Ergebnisse. Doch ebenso die Korrespondenz von 102 Uwe Wippich Patienten wird erfasst. Über diese Korrespondenz und die Adressen von Freun- den oder Verwandten werden Netzwerke erstellt und Lokalisierungen vorge- nommen. Das Material wird dann in eine für die Arbeit vor Ort transportable und nutzbare Form gebracht, denn im Anschluss an die Datenanamnese wer- den die Patienten selbst aufgesucht und befragt. Diese Besuche, so Davenport, würden sehr erfreut aufgenommen, ebenso wie anschließende Besuche bei Freunden, Verwandten und Ärzten (Davenport et al. 1911, 2). Das Bulletin No. 2 adressiert wie selbstverständlich die Field Worker als Frauen: »The field worker‘s constant endeavor must be to establish a feeling between the family and institution that will assure her of a welcome at any time with kindly cooperation, and to this end she sacrifices minor details that would naturally come on return visits« (Davenport et al. 1911, 2). Die Datengewinnung setzt auf möglichst umfassenden und weitreichenden Zugang zu Fakten und Erzählungen aus der Familiengeschichte, einen Zugang, für den Davenport Frauen bevorzugt. Gesundheitsaufklärung und Sozialfür- sorge hatten schon längst Zuständigkeiten an Geschlecht gekoppelt und an Frauen delegiert. Hygienefragen, Gesundheitsfragen, Säuglingspflege und Kindersterblichkeit ebenso wie die soziale Situation arbeitender Frauen konn- ten als Anliegen und Gegenstand der Bemühungen mobiler und gut ausgebil- deter Frauen konstruiert werden. Die Sicht der Field-Workerinnen selbst war dagegen an ihre biologische oder medizinische Professionalität geknüpft. Sie suchten ein Betätigungs- und Erfahrungsfeld für ihre wissenschaftliche Aus- bildung. Beim ERO bot sich eine Gelegenheit dazu, zumal sich aus der Arbeit mit verschiedenen Institutionen immer wieder die Möglichkeit einer festen Anstellung (English 2004, 149) ergab. Denn Davenport war zurückhaltend, was eine dauerhafte Beschäftigung der Frauen im ERO betraf: »We regard our appointments as temporary and have adopted the general principle that we shall employ a field worker for only three years and after that no longer continue her support in the hope that she may marry. [T]hus the Eugenics Record Office can not be charged with wor- king cacogenically [...] .« (Brief Davenports an Goddard vom 29.06.1912, zitiert nach Bix 1997, 635). Doch Davenport versuchte nicht nur die Lebensplanung seiner Mitarbeiterinnen zu beeinflussen. Das ERO arbeitete auch in der Weise als ein Rechen(schafts) zentrum, dass eine engmaschige Kontrolle der Arbeit im Außendienst erfolgte. Jeden Morgen sollte eine Postkarte an das ERO geschickt werden, alle drei Tage ein Report über die Arbeitsfortschritte. Alle Planungen mussten vom ERO be- stätigt werden (Bix 1997, 643). »Davenport treated field-workers in effect as Eugenische Daten 103 human research machines«, schreibt Amy Sue Bix (Bix 1997, 640). Bix arbeitet heraus wie sehr der damit verbundene Erwartungsdruck die Ergebnisse und Arbeitsweisen beeinträchtigte. Denn keine Resultate im eugenischen Sinne zu haben hätte ja als fehlende wissenschaftliche Sorgfalt interpretiert werden können. Die Konzeption war so sehr auf das Finden von Merkmalen ausgerich- tet, dass das Nicht-Finden ein Problem darstellte. Der Widerstand von Famili- enmitgliedern Auskünfte zu erteilen konnte so schon mal als Indiz für »feeble- mindedness«, als »neurotic« oder »degenerated« angesehen werden (Wexler 2008, 137). Denn warum sollte jemand den Dienst an der Bevölkerungsopti- mierung verweigern? Die Befragung hatte möglichst vollständige Informati- onen über die Familie, über Vorfahren, Einwanderung, Ursprungsland und Her- kunftsadresse, über Erkrankungen und Beziehungen zum Ziel. Dafür sollten so viele Verwandte wie nur möglich aufgesucht werden. Sollte es sich ergeben, dass weitere Verwandte eine institutionelle Betreuung benötigten, wurden deren Namen und Adressen notiert. Alle Daten und Informationen mussten in standardisierte Formen gebracht werden, um dann weiterverarbeitet und aus- gewertet zu werden. Dies erfolgte anschließend im ERO in Cold Spring Harbor. Eugenic Survey DDC Ein Beispiel für den strategischen Plan der eugenischen Durchmusterung eines Landkreises mit der Erfassung von etwa 100.000 Menschen ist der »Eugenic Survey of Nassau County«: »The first step will be to select for special examination all those children and adults who are known to the educational, poor-law, police or health authorities as having failed to hold a nor- mal place in the community either by reason of unteachableness, or moral deficiency, or imper- fect social adaptation. [...] The examination of these people will consist of an inquiry into the family, social, and personal history, and a series of mental tests. But the collection of data regarding these abnormal persons would possess little value, unless at the same time data were secured about the normal individual living in the same environment. The survey will, therefore, undertake to secure information about every one in certain selected districts« (Eugenic Survey of Nassau County, NY Journal of Heredity 1916, 237). Die Erfassung geschieht über institutionelle Zugänge, über deren Ein- und Aus- gangskontrollen sowie die Datenerfassungen anderer Büros. Die Betroffenen müssen auf physische und psychische Kapazitäten und Merkmale hin unter- sucht werden. Über die Sammlung dieser Daten hinaus geht es um die Personen 104 Uwe Wippich hinter den Personen, das soziale Umfeld, die Familie, die Vorfahren. Diese müs- sen ebenfalls untersucht und in den Datenstrom integriert werden, denn die Datenherrschaft ist eine Herrschaft über Raum und Zeit. Sie ist es in dem Mo- ment, wo nur schon ein zweiter Datensatz einläuft. Der nächste Faktor ist die Erfassung von Umweltbedingungen, und damit derer, die unter den gleichen oder vergleichbaren Umweltbedingungen leben. Wenn alle Vorgaben erfüllt und alle Daten erhoben sind, müssen diese ausgewertet und weiterverarbei- tet werden. Dann findet die nächste Datenerhebung statt, diesmal in Kansas City (Genetic Survey of Kansas City, Journal of Heredity 1916, 238). Schließlich müssen Vergleiche gezogen werden zwischen Land und Stadt, Land und Land, Stadt und Stadt, Land und Stadt und Staat, Staat und Staat. Die Daten werden aufgeteilt auf Immigranten und Rassenzugehörigkeit und erneut abgeglichen. Eigenschaften müssen festgelegt werden, von der Vererbung von Augenfarbe und Rot-Grün-Blindheit über Erkrankungen wie Chorea-Huntington, über Fee- blemindedness, Musikalität, die Sensibilität für die Weichheit von Fellen bis hin zur Thalassophilie.¯10 Das ERO hat mit dem Bulletin No. 6 ein Trait-Book erar- beitet, um Formen der Standardisierung zu ermöglichen (Davenport 1912). Da das ERO die Dewey-Dezimalklassifikation (DDC) verwendet, enthält das Trait- Book zehn Klassen mit je zehn Unterabteilungen. In der Klasse drei = »Nerven- system« werden so über die Unterklasse 31 = »Gehirn und Rückenmark« mit dem Code 317 = »psychopathische Zustände« geführt zu denen 3172 = »Nym- phomanie« und 3174 = »sexuelle Amoralität« zählen. Im Bereich vier = »Mentale Verfassung« findet sich Redseligkeit mit 4761, ein »taste for science« erhält den Code 423265, »love for rythm« den Code 42116, Nasenbluten 718, Masturbation, markiert als »self-abuse«, 9413 und so weiter. Teilweise waren diese Klassifika- tionen mit denen staatlicher Institutionen wie dem Zensus-Büro abgeglichen (Davenport 1911, 14). Alle Daten werden in einem sechsfachen Kartensystem ge- speichert: 1. Familienname – Merkmal, 2. Merkmal – Familienname, 3. Fund- ort, Lokalisierung – Merkmal, 4. Merkmal – Lokalisierung, 5. Lokalisierung – Fa- milienname, 6. Familienname – Lokalisierung. Mit Hilfe dieses Systems sollen Merkmal, Familie und geographische Verteilungen in allen Kombinationsmög- lichkeiten untersucht werden. »The efforts of this office are directed toward in- dexing of all of the defective and sterling germ-plasms of the American popu- lation« schreibt Laughlin (1912, 121). Die Analysen des ERO suchen, den Vererbungsregeln nach Mendel folgend, nach diskreten, genetisch unabhängigen Einheiten (»genetically independent units«), die als unveränderliche Merkmale über das Keimplasma in die näch- ste Generation weitergereicht werden. Doch diese Einheiten erschließen sich nur über eine mediale Technik. Die Eugeniker um Davenport erforschen die- Eugenische Daten 105 se »immutable mobiles« indem sie auf dem Papier »immutable mobiles« (La- tour 1990) produzieren. Nach Latour ist eine solche Papierarbeit gekennzeich- net durch zweidimensionale skalierbare Einschreibungen, die reproduzierbar sind und daher transportabel und verteilbar. Sie können rekombiniert oder ge- rahmt werden, sie können vor allem in Text transformiert werden. Sie ermög- lichen Messungen und Manipulationen der Welt auf dem Papier. Dieses nume- rale Klassifikationssystem wird dazu durch Zeichencodes ergänzt und für den Einsatz in Family-Records aufbereitet. Fitter Families for Future Firesides Im Mittelpunkt der Datenerhebungen des ERO stehen Familien. In der Untersu- chung von Familien wie den »Jukes«,»Kallikaks«, »Nams«, »Ishmaels«¯11 aber ebenso den Stammbäumen der Familien Bach, Galton-Darwin oder Roosevelt kann eine Raum-Zeit-Matrix etabliert werden, welche die Berechnungsgrund- lage für das ERO darstellt und über Prädiktabilitätskriterien zugleich dessen wissenschaftlichen Anspruch absichert. Doch das ERO reagierte auch auf be- sorgte Nachfragen von Eltern oder Heiratswilligen in Bezug auf die Heiratsfä- higkeit mit der Praxis, auf ein möglichst vollständiges Family-Trait-Chart als notwendige Voraussetzung für die Beantwortung zu verweisen und schickte die Unterlagen gleich mit.¯12 Charles Davenport brachte zu seinen Vorträgen Blankoformulare mit (Kevles 1995, 59). Familien wurden ermuntert ein perma- nentes Familienarchiv zu führen (Eugenical News 3, 1918, 16). Im »Michigan Far- mer« forderte Leon Whitney die Leser dazu auf Familienregister (»family re- cords«) zu erstellen, die fünfzig vielversprechendsten Familien würden dann eine Einladung zum Fitter Family Contest auf der nächsten State Fair erhal- ten (Whitney 1926, 68). Fitter Families for Future Firesides war ein Wettbewerb der American Eugenics Society, in dem auf Landwirtschaftsmessen im Mittle- ren Westen der 1920er Jahre neben den Wettbewerben und Ausstellungen der Nutztierzucht und des Gartenbaus auch die physische und psychische Fitness von Familien gemessen wurden. Das Material der Wettbewerbe war für Da- venport wertvolles »raw-data« (Lovett 2007, 142). Das ERO hatte daher ausge- feilte Formulare mit detaillierten Anweisungen für die Wettbewerbe bereit- gestellt. Es erhielt im Gegenzug Kopien der ausgefüllten Auswertungsbögen, um diese statistisch auswerten und eugenisch analysieren zu können. Grund- lage war ein möglichst vollständiges »Family-Trait-Record«, welches schon im Vorfeld von den Teilnehmerfamilien ausgefüllt werden sollte. Die mit der Un- tersuchung verbundene Datenerhebung vor Ort umfasste insgesamt zehn Sek- 106 Uwe Wippich tionen: »Eugenic«, »Social«, »Psychometric«, »Psychiatric«, »Structural«, »Me- dial«, »Laboratory«, »Dental«, »Spezial Senses« und »Health Habits«. Der soziale Hintergrund erfasste Bildung, Beschäftigung, politische oder religiöse Tätig- keiten ebenso wie Krankheiten, Impfungen und Unfälle. Nach Intelligenztests und der Einschätzung des »mental-age« ging es um die Persönlichkeit, Cha- raktereigenschaften und Temperament, Augenhintergrund und Reflexe. Bio- metrische Messungen folgten ebenso wie ein umfassender Gesundheitscheck samt Laboruntersuchungen von Blut und Urin sowie einem Wasserman-Test auf Syphilis. Ein weiterer Faktor war der Zustand von Zähnen, Augen, Hals, Nase und Ohren. Die Aufnahme von Alltagsgewohnheiten wie Ernährung mit Milch, Kaffee, Früchten oder Süßigkeiten, Schlafenszeiten, Arbeits- und Frei- zeitverhalten schloss die Untersuchung ab. Die Untersuchungen waren für die Teilnehmer kostenlos, dauerten jedoch dreieinhalb bis vier Stunden. Das medi- ale Dispositiv dieses Wettbewerbs stellt zugleich einen eugenischen Algorith- mus dar. Das Gebäude lässt Menschen ein, die in einzelnen Abteilungen im In- neren prozessiert werden und dafür Bewertungsgrade erhalten. Die Detroit News vom 9. September 1925 schreibt in einem Bericht über den Fitter-Family Contest: „»You stop being a Smith and become a series of units with you going one way, Mama Smith another and all the little Smiths a third« (Boudreau 2005, 383). In allen Stufen produzieren die teilnehmenden Familien und die teilneh- menden Spezialisten Datenmaterial, das Fragen der Normalisierung, der Stan- dardisierung, der Abweichung und damit der Produktion von Normalität auf- wirft. Diese Produktion der Normalität hat ein eugenisches Framing und eine eugenische Tendenz. Die Einzeldaten werden zu Familiendaten zusammenge- stellt, denn die Familie ist der Output dieser medialen Anamnesemaschine. Leon F. Whitney schreibt in einem werbenden Artikel für den Wettbewerb auf der Michigan State Fair in 1926: »In our civilization the individual is not the unit. The family is. This is the result of years of ex- perimentation by mankind. [...] the Farmer is interested only in producing individual animals of the highest grade, while, because time has proved that the family is the best unit for human beings, the eugenist is interested, not so much in the individual as in the family, and the race of families« (Whitney 1926, 68). Eugenische Daten 107 Oberflächen der Zeit Die Verdoppelung des Suchraums vom Field-Work hin zur Datenorganisation innerhalb des ERO selbst – deren Schnittstelle die Veröffentlichungen und An- leitungen wie das Trait-Book darstellen – etabliert die Datenbank als opera- tionales Zentrum. Die Suche nach diskreten Einheiten von unveränderlichen Merkmalen, die in die nächste Generation weitergegeben werden, lokalisiert Datensätze und Datenplätze in einer Suchstruktur, die über das bloße räum- liche Potential hinausweist. Somit organisieren Familienstammbäume und Fa- mily-Trait-Charts Oberflächen der Zeit, in denen Individuen über Trait-Markie- rungen spezifiziert werden können, um Prozesse abzubilden, die gesetzmäßig verlaufen. Die Mobilität der Datensätze bewegt sich auf diesen Oberflächen entlang Kausalität suggerierender Linienführungen. Diese in den Family-Trait- Charts konzentrierten Datenpraktiken bilden für das ERO einerseits eine For- schungsgrundlage und bieten zugleich eine mediale Operationalität für poli- tische Überzeugungen und politisches Handeln zwischen Fall und Verfahren (vgl. Hoffmann 2008, 7-20). Das Family-Trait-Chart ermöglicht eine grafische Aufzeichnung in der Zusammenschrift numerischer Daten unterschiedlichster Qualität mit codierten Eigenschaften. Symbole definieren binäre Geschlechts- verhältnisse, Beziehungen werden als legitim oder illegitim markiert (punk- tierte Linien), die Personen werden horizontal und vertikal durchgezählt. Kür- zel wie Sx bedeuten »sexually immoral«, W bedeutet »wanderer/confirmed runaway«, A »alcoholic«, B »blind«, D »deaf«, M »migraneous«, E »epileptic«, F »Feebleminded« und N »normal«, Geburts- und Todesdaten sind verzeichnet. Auch Insassen von Einrichtungen sind markiert. Diese Charts können jetzt mit den Zahlkodierungen des Trait-Book überschrie- ben werden. Obwohl die Zeilen-Spaltenstruktur von Tabellen und Listen über- nommen und synoptisch erschlossen wird, geht diese Aufzeichnungstechnik über die Medialität von Tabellen und Listen hinaus, denn die linearen Verbin- dungen auf dieser Oberfläche der Zeit können als Kausalitätsmarkierungen die Evidenz der Unterbrechung verdeutlichen. In der Sprache der Eugeniker geht es dabei um das »Cutting-Off«, die Unterbrechung der Merkmalsweiter- gabe durch Segregation oder Sterilisation. In Bezug auf das Visualisierungs- system der Familienstammbäume als hauptsächlicher Datenquelle ist dieses „Cutting-Off“ ein mediales Evidenzereignis. Die vertikalen Linien stellen die Generationenfolge nicht nur dar, sondern verbinden im Codierungssystem der eugenischen Forschung Merkmale zu evidenten Zusammenhängen. Die Linie ist klar, direkt und markiert Individuen über Traits. Sie werden auf diese Wei- se in Bezug auf das Leben gewertet: Ihre Existenz ist das Merkmal. Zugleich 108 Uwe Wippich Abb. 1 Familienstammbaum der W—Familie aus Indiana. Beispielchart aus dem Bericht Van Wagenens vor dem ersten internationalen eugenischen Kongress, (Van Wagenen 1912, 471). Beachtenswert sind die Trait-Markierungen. Die sterilisierte Person wurde dem Bericht zufol- ge 1906 – also noch vor Inkrafttreten des ersten US-Zwangssterilisationsgesetztes – auf eige- nen Wunsch sterilisiert, »um seine sexuellen Ausschweifungen zu reduzieren und keine Kinder mehr zu zeugen«. Er sei nach eigener Aussage von 1912 nach der Vasektomie geistig und kör- perlich stärker und »fitter« geworden. Die betreffende Person sei allerdings nunmehr wegen »sexueller Perversion« im Gefängnis (Van Wagenen 1912, 470). wird horizontal wie vertikal das Individuum zum Merkmalträger in einer Fa- milie, das heißt jeder negative Spot markiert zusätzlich die Familie negativ. Je- der einzelne Familienstammbaum wird zu einem biologisch-sozialen Problem, zumal er von oben nach unten ausgerichtet die Vermehrung der Familie ver- anschaulicht. Das »Cutting-Off« ist die anschauliche Unterbrechung dieser in- fografischen Konsequenz. Damit verbunden ist eine Datenpraxis der Verknüp- fung und Entkoppelung von Datensätzen, denn es geht um das Merkmal, nicht um die Person selbst. An dieser wird nur noch das datentechnische »Cutting- Off« in vivo vollzogen: durch das Cutting-Off der Keimbahnen per Zwangsste- rilisation.¯13 Harry H. Laughlin schreibt 1914: Eugenische Daten 109 »The compulsory sterilization of certain degenerates is therefore designed as a eugenical agen- cy complementary to the segregation of the socially unfit classes and to the control of the im- migration of those who carry defective germ-plasm. It is at once evident that, unless this com- plementary agency is made nation-wide in its application, and is consistently followed by most of the states, it cannot greatly reduce, with the ultimate end of practically cutting off, the gre- at mass of defectiveness now endangering the conservation of our best human stock, and con- sequently menacing our national efficiency and happiness« (Laughlin 1914, 478). Wenn die »biologische Modernitätsschwelle« einer Gesellschaft dort liegt, »wo es in ihren politischen Strategien um die Existenz der Gattung selbst geht« (Foucault 2008, 1137), verschwindet der individuelle Körper hinter dieser Ver- körperung der Gesellschaft. Und doch ist es der individuelle Körper, der ver- messen und manipuliert wird. Die Sorge um das Hervortreten individueller positiver Merkmale wird darum zu einem Sorgen für deren Umwandlung in bevölkerungsrelevante Merkmale und Verhaltensweisen, die Sorge um Abwei- chungen zum Sorgen für deren Ausschluss. Die Dynamisierung der Umwand- lung des Sorgens-Um in ein Sorgen-Für wird getragen von medialen Disposi- tiven und steht unter beständigem Forschungs- und Handlungsdruck. Denn das Besondere einer Vermessung zwischen Vergangenheit und Zukunft ist: Es kommt auf das Jetzt an. Das ERO produziert in seinen Datenprozessen zugleich die eigene Zeitlosigkeit und die eigene Aktualität. Indem sie die Subjekte um die Norm herum anordnet (Foucault 2008, 1138), wird der Einzelne in der euge- nischen Datenpraxis in ein datentechnisches Raum-Zeit-Kontinuum verscho- ben, welches ihn darin regulatorisch zugleich erscheinen und verschwinden lassen kann. Dies ist ein besonderer medialer Effekt der eugenischen Sicht. Der Einzelne trägt Merkmale, welche sich als konstant vererbt und vererbbar erwei- sen. Als vererbt bilden sie die Vergangenheit ab, als vererbbar prägen sie unab- wendbar die Zukunft. Der Einzelne erscheint und verschwindet, das Merkmal bleibt. Auf diese Weise ist es möglich einen Volkskörper zu vermessen und zu formieren, selbst wenn dieser auf andere Weise gar nicht als Volkskörper de- finiert ist. Stapelüberlauf Die eugenische Formierung eines Volkskörpers produziert politischen Hand- lungsbedarf. Für Davenport ist es daher die Pf licht des Staates, über die Bewoh- ner von Gefängnissen und psychiatrischen Institutionen oder Behinderten- 110 Uwe Wippich einrichtungen umfangreiche Daten zu sammeln. Davenport schreibt in einer Untersuchung über Chorea Huntington: »It is for the state to investigate every case of Huntington’s chorea that appears and to concern itself with all of the progeny of such. That is the least the state can do to fulfill its duty towards the as yet unborn. [...] We think only of personal liberty and forget the rights and liberties of the unborn of whom the state is the sole protector« (Muncey/Davenport 1916, 215). Damit wird das Ungeborene zum Maßstab für die Pf licht des Staates, aber eben auch zum Ausdruck seiner Macht und biologischen Potenz. Ein Staat, der hier nicht tätig werde, so Davenport 1916, »is impotent, stupid and invites disa- ster« (ebd.). Denn jede menschliche Paarung ist ein Experiment, wie Daven- port durchaus sieht: »We replace the experimental mating of an geneticist with the principle that every fertile hu- man mating is an experiment in genetics, and is for us to record the result of the experiment. Some day, we may hope, human matings will be carried beyond the stage of experiment« (Da- venport 1921a, 392). Im Feld unkontrollierter und zudem experimenteller Reproduktion der Bevöl- kerung versprechen »unabhängige Einheiten« Stabilität und deren datentech- nische Reproduktion wiederum die Perspektive eines regulativen Eingreifens und deren Operationalisierbarkeit im Sinne einer Bevölkerungsoptimierung. Die Herausforderung, das inhomogene Objekt »Bevölkerung« und das unbe- kannte Potential »Ungeborenes« auf einen Status jenseits des Experimentel- len zu hieven, ist entsprechend groß. Die eugenische Datenbank des ERO, an- geschlossen an die Station für experimentelle Evolution, stellt für Davenport das Instrument eines solchen Versprechens optimaler Reproduktionskontrol- le dar. Von Seiten des ERO wurden dem Staat mit dem Entwurf einer Census- Card standardisierte Datenformate nahegelegt. Peter Spiros Vermutung, dass Davenport das ERO gerne als Behörde zur Verwaltung einer staatlichen Daten- sammelpraxis gesehen hätte, trifft sicher zu (Spiro 2009, 130). Das ERO war nicht die einzige Institution eugenischer Datenpraktiken. In Kooperation mit dem ERO verfolgte die John Harvey Kellogg geleitete Race Betterment Founda- tion in ihrem Zentrum in Battle Creek, Michigan, ein eigenes Programm euge- nischer Datenerfassung und Datenverarbeitung. 1912 entwirft der stellvertretende Landwirtschaftsminister Hays unter dem Stichwort »constructive eugenics« eine Szenerie staatlich eugenischer Daten- praxis. Er schlägt für jeden Menschen auf der Welt eine Nummer als Namen vor, in die, nach Hays, mit geringen Kosten die Nummern-Namen von Eltern Eugenische Daten 111 und Kindern integriert werden könnten, ebenso Geburts- und Sterbedaten und Orte, um die Codierung einer linearen Genealogie zu erhalten. Doch seine Phantasie geht noch weiter: »The interested family could then give to each member a single number, usually in the form of a percentage, expressing the individual value of the general efficiency of the person. [...] Immen- se importance would soon be attached to these genetic family ratings. Those families with high ratings would be made to realize the importance of mating with those of equal genetic excel- lence, and the more rapid multiplication of their numbers« (Hays 1912, 117). Die Codes könnten dann allen Interessierten zur Verfügung gestellt werden. Denn: »Who, except the prudish, would object if public agencies gave to every person a lineage number and genetic percentage ratings, that the eugenic value of every family and of every person might be available to all who have need of the truth as to the probable efficiency of off- spring?« (Hays 1912, 119) Dieses Szenario argumentiert auf einer bevölkerungspolitischen Ebene, auf der eigene Interessen zugunsten des medialen Codes zurückstehen müssen oder aber darin aufgehen. Denn die diskrete unabhängige Einheit »Zahl« scheint Unendlichkeit und Zuweisung in einer Digitalität vereinen zu können. Gerade die Transformation von Forschung zu angewandter Wissenschaft scheint an ih- ren Schnittstellen vorzugsweise »immutable mobiles« austauschen zu wollen und dafür mediale Formationen zu suchen, die eben diesen Charakter anneh- men können. Die so generierten Formationen des Wissens werden wiederum an mediale und politische Systeme weitergereicht, die damit steuernd diskrete biologische Einheiten erschaffen können. Diese sind soziotechnische Homoge- nitäten (vgl. Schüttpelz 2009, 84), die im Falle der Eugenik in biotechnische Ho- mogenitäten transferiert werden und umgekehrt. Die Eugeniker übernehmen hier selbst die Rolle von »Verhandlungsagenten« und installieren deren Funkti- on im eugenischen Programm, welches damit den Strategien einer genetischen Polizei dienen kann. Vor allem binäre Systeme stellen vielfach Schaltungen her, in und mit denen diese Transfers geleistet werden sollen: Rasse – Gegen-Rasse, Normal – Sub-Normal, Individuum – Familie, Mann – Frau, Frau – Mutter, Ge- borene – Ungeborene, Gendefekt an – Gendefekt aus, »Trait« an – »Trait« aus, eugenisch – dysgenisch. Diese Schaltungen strukturieren und kanalisieren die stetig wachsende Datenmenge, welche sowohl die Experimentierfreudigkeit des Lebens wie den daraus folgenden Kontrollbedarf repräsentiert. In der For- mulierung vom »Leben machen und sterben lassen« (Foucault 2001, 284/2008, 112 Uwe Wippich 1133) hat Foucault das Programm einer solchen Biopolitik skizziert. So sind bio- politische Regulierungstechniken demografischer, medizinischer, hygienischer und statistischer Art auch für die theoretische und methodische Konzeption der Eugenik grundlegend. Im Falle des ERO geht es daher nicht bloß um die Or- ganisation eines Datenspeichers, sondern um eine Praxis, die zugleich Redun- danz und Überschussinformation erzeugt (vgl. Rheinberger 2005, 349). Deren datentechnisches Abtrennungspotential ermöglicht zudem aktualisierte Zu- ordnungen der Autorschaft (zum Beispiel über die untersuchten Familien) oder der Repräsentation (als Eugenik-Experte). In diesen Zuordnungen konkretisie- ren sich jedoch Lesemuster, die sich bereits im Aufschreibvorgang selbst nie- derschlagen, sodass Taxonomien sowohl eingeschrieben als auch zugleich ein- gelesen werden. Selbst wenn eine solche Taxonomie auf ein grundlegendes System zurückgeht, zum Beispiel Mendel, ist der jeweilige Einschreibe- bezie- hungsweise Einleseprozess nicht notwendig identisch, sondern beinhaltet ope- rationale Lücken. Eine mögliche Folge ist die Dynamisierung von Zirkelschlüs- sen, in denen zum Beispiel weißen nordischen Rassen Merkmale genetischer Überlegenheit zugeschrieben werden, um diese dann wiederum als genetisch überlegen zu werten (Bird/Allen 1981, 343). So generieren Daten Daten, die Be- völkerungsoptimierung wird zur Datenoptimierung. Neben diesen aus den Da- tenpraktiken selbst generierten (Pseudo)Daten produziert jedoch das Leben selbst mehr Daten, als das ERO prozessieren kann. Die Skulptur des Average American Male muss letztlich leblos bleiben, da die Rekombination nie abge- schlossen werden kann. Die leblose Dynamik der Datenrepräsentation Die Praktiken des ERO beinhalten mehr als das (Auf)Suchen von Daten durch die Field-Worker und das Verschicken von Formularen, mehr als die damit ver- bundene Sammelpraxis und notwendige Sortierarbeit als Konstituierung eines Suchraums innerhalb des Ablagesystems und der Datenorganisation. Sie beinhalten in der Form der Datenspeicherung ebenso wie der Datenorga- nisation und Datenrepräsentation, das heißt in der Datenbankpraxis selbst, mehrdimensionale Steuerungsakte. Diese Steuerungsakte sind schon in den Praktiken der Datenerhebung als kommunikative Akte präsent, ebenso in der schriftlichen Notierung (vgl. Krämer 2005). Im Schreibakt, hier in der Übertra- gung auf Papier, im Ausfüllen von Formularen, im Ordnen der Notizen, im Visu- alisieren mit Hilfe von vorgegebenen grafischen Mitteln und dem Sampling in- fografischer Elemente, bekommt die Datenbank zunächst die Materialität von Eugenische Daten 113 Schubladen und Aktenschränken, Modellen und zweidimensionalen Repräsen- tationsmedien. Diese Art der Materialität ähnelt dem Konzept der Wunder- kammer, in dem geöffnete und geschlossene Kästen sowohl die Potenz als auch die Potentialität des Miniaturkosmos und seines Beherrschers signalisieren. Die Anschauung der Datenbank ERO ist jedoch mehr als eine bloße Oberflä- chenstruktur, sie ist eine Präsenz von Bevölkerung und damit ein Relations- vorbehalt. Für die Eugeniker kommt mit diesem Dispositiv das Medium eines subtilen Displays¯14 hinzu – das subtile Display der diskreten unabhängigen Einheit Trait in den geborenen und den ungeborenen Kindern. Die Family-Trait- Charts sind daher für Davenport gleich in mehrfacher Hinsicht ein strategisches Diskursmittel, denn sie sichern nicht nur das Forschungsfeld ab, sondern zu- gleich die Forschung selbst. Da die Eugenik sich zugleich als Applied Science ver- steht, sind in den Arbeiten des ERO ökonomische Faktoren ebenso wie taktische Faktoren integriert. Jedes eingeholte Datum ist Absicherung der Forschungs- einheit und des Forschungsansatzes, ist Rechtfertigung und Anforderung öko- nomischer und politischer Mittel sowie Basis für strategisch-eugenisches Den- ken und Handeln. Diese Operationalität gelingt über Valenzzuschreibungen der Traits, denn die registrierten Traits sind niemals neutral: Sie befördern oder verhindern die positive oder negative Entwicklung der Bevölkerung und sind damit biopolitische Operatoren. Die Medialität des Strategischen nutzt die me- dialen Formen der Datenrepräsentation in ihren Verdichtungen von Zeit (Pedi- gree), Raum (Karte) und Statistik mit deren Modellierbarkeit zu mehrdimensio- nalen Repräsentationsformen. Über Lantern Slides, Poster oder die Skulptur des Average American Male bis hin zum Ausstellungsdispositiv können die Steue- rungsakte somit performativ re-medialisiert und aufgeführt werden. All diese Informationskonzentrate arbeiten mit medialen Versprechen, indem über digi- tale Zugänge der Verweisung Narrative angeschlossen werden können, welche Vergangenheit erklären und Zukunft vorhersagen wollen und dafür das Finden von Verborgenem zu einer moralischen Tugend erheben und polizeilich opera- tionalisieren. Dabei werden Narrationen von und über Familien sowie Indivi- duen mit wissenschaftlichen Narrationen verknüpft. Diese gehen über Case- Studies hinaus, weil der einzelne Fall immer zugleich einen Konnex betrifft, in welchem die Nation selbst sowohl konstituiert und bedroht wird – und da- mit ebenfalls zum Fall wird. Die Datentechnik reguliert diese Relation im Feld von Speicherung, Sammlung, Sortierung, in der Etablierung von kompetitiven Auslesekriterien sowie von Suchräumen und deren Durchmusterungs- und Abfragepraktiken. Denn dem biopolitischen Staat darf nichts verborgen blei- ben, was die Regulierung von Bevölkerung betrifft. In Valenzzuschreibungen werden Prozesse der Selbstbeobachtung evoziert. Zugleich wird eine Grund- 114 Uwe Wippich struktur des Wettbewerbs aufgerufen. Wenn die Gewinnoption die Bevölke- rungsoptimierung selbst sein soll, dann werden weitere Wettbewerbsstruk- turen von Gender, Class und Race dynamisiert. Diese Wettbewerbe sind auf einer Ebene Folge und Ausdruck einer vorgenommenen Naturalisierung und Biologisierung der Politik, sie werden aber zu politischen Handlungskonzep- ten ebenso wie zu spielerisch erscheinenden Wettbewerben entsprechend den Fitter-Families-Contests. Wettbewerbe sind deshalb gut geeignet, weil sie als Oberflächenangebote diskrete Einheiten sichtbar und vergleichbar machen. Sie entsprechen damit der im Pedigree abgebildeten Oberfläche der Zeit und zu- gleich der räumlichen Konzentration, zum Beispiel in State Fairs. Dieses Spiel der Subjektivierungen und De-Subjektivierungen ermöglicht biopolitische An- schlüsse und gouvernementale Praktiken der Operationalisierbarkeit von Be- völkerung (Butler 2004).¯15 Judith Butler schreibt: »The public sphere of appearance is one way to establish what will count as reality, and what will not. It is also a way of establishing whose lives can be marked as lives, and whose deaths will count as deaths« (Butler 2004, xx-xi). »Find a disease or trait that we cover« heißt es auf der Homepage von 23and- me und im Bereich Ancestry folgt die Aufforderung: »Map the heritage in your genes«. 23andme ist ein Internetangebot für eine Gensequenzanalyse. Es kön- nen Test-Sets bestellt werden, mit deren Hilfe diese Analyse nach Rücksendung durchgeführt werden kann. Drei Analysepakete sind im Angebot: zum einen eine Analyse in Bezug auf die geografische und biologische Herkunft, zum an- deren eine Analyse auf Dispositionen im Blick auf Krankheitsrisiken und zum Dritten eine Kombination dieser beiden Analysen. Identität, Herkunft, Gesund- heit und Leben werden einhundert Jahre nach der Gründung des ERO erneut in Datensystemen verwaltet. Die Website von 23andme verweist auf der Home- page auf den »Genetic Information Nondiscrimination Act« vom 21.05.2008, denn die eugenische Versuchung von Ökonomie und Politik ist erhalten geblie- ben. Wenn der Schwerpunkt jetzt auf der Frage der individuellen Verantwor- tung gegenüber dem eigenen Genom liegt und so zum Bestandteil der Lebens- planung wird, indem Fragen der Identität und der Gesundheit daran geknüpft und ausgerichtet werden, dann werden eugenische Steuerungspraktiken für das 21. Jahrhundert fit gemacht. Eugenische Daten 115 Anmerkungen 01˘ Der erste internationale Eugenik Kongress fand vom 24. – 29.07.1912 in London unter der Präsidentschaft von Leonard Darwin statt, der zweite vom 25.-27.09 in New York unter der Leitung von Henry Fairfield Osborn und Alexander Graham Bell. Der dritte Kongress vom 22.- 23.08.1932 wurde von Charles Davenport präsidiert. 02˘ Neurath, Otto: Gesellschafts- und Wirtschaftsmuseum in Wien. In: Österreichische Gemeindezeitung, Nr. 16, Wien 1925 [http://www.vknn.at/texte/GWM1925.html/]; letzter Aufruf: 29.01.2012. 03˘ Die Eugenics Review war die Zeitschrift der 1907 gegründeten Eugenics Education Society (ab 1926 Eugenics Society, heute The Galton Institute). Die Zeitschrift trug das Zitat nach dem Tod Galtons 1911 auf dem Cover, ab 1928 bis März 1967 war es jeweils dem Editorial vo- rangestellt. Nach dem Krieg von April 1947 bis 1966 zierte ein anderes Zitat Galtons das Cover: »Man is gifted with pity and other kindly feelings; he has also the power of pre- venting many kinds of suffering. I conceive it to fall well within his province to replace Natural Selection by other processes that are more merciful and not less effective. This is precisely the aim of eugenics« (Galton 1908) . 04˘ Galton, Francis: Inquiries into human faculty and its development, London 1883, S. 17, Fußnote 1:»That is, with questions bearing on what is termed in Greek, eugenes name- ly, good in stock, hereditary endowed with noble qualities. This, and the allied words, eu- geneia, etc., are equally applicable to men, brutes, and plants. We greatly want a brief word to express the science of improving stock, which is by no means confined to questions of ju- dicious mating, but which, especially in the case of man, takes cognizance of all influences that tend in however remote a degree to give to the more suitable races or strains of blood a better chance of prevailing speedily over the less suitable than they otherwise would have had. The word eugenics would sufficiently express the idea; it is at least a neater word and a more generalized one than viticulture which I once ventured to use«. 05˘ Galton, Francis: »Eugenics: Its Definition, Scope, and Aims« In: The American Journal of Sociology, Volume X; July, 1904; Number 1, online unter: [http://galton.org/essays/1900-1911/ galton-1904-am-journ-soc-eugenics-scope-aims.htm]; letzter Aufruf: 29.01.2012). 06˘ Bereits am 26.05.1914 schrieb der österreich-ungarische Vize-Konsul Geza von Hoffmann an Laughlin: »I thank you sincerely for the transmission of your exhaustive and interesting reports. The far reaching proposal of sterilizing one tenth of the population impressed me very much«. Paul Popenoe errechnet 1928 eine Anzahl von zehn Millionen zu sterilisie- renden Personen (Popenoe 1928). 07˘ Nach 1910 wurden von Henry Goddard und dem »American Association for the Study of the Feeble-Minded Committee on Classification« Binets Intelligenztests zum Maßstab für ein so genanntes geistiges Alter (»mental age«). Ein »mental age« von unter zwei Jahren wurde mit »idiots« klassifiziert, eine Entwicklung im Stand zwischen zwei und sieben 116 Uwe Wippich Jahren als »imbeciles«, für das Alter zwischen sieben und zwölf Jahren prägte Goddard aus dem griechischen »μωρός« für langsam, schwach den neuen Begriff »moron«. Als »feeble- minded« wurden dann Personen mit einem »mental age« unter zwölf Jahren verstanden (Lombardo 2008, 156). 1912 und 1913 versuchte Goddard seine Methoden an Einwanderern auf Ellis Island zu überprüfen und damit zugleich einen Expertenstatus zu begründen. Die 1917 veröffentlichten Ergebnisse erzielten jedoch eine weitreichendere Wirkung: Mehr als 80% der russischen, ungarischen, italienischen und jüdischen Einwanderer, so hieß es, seien »feebleminded«. Ab 1917 hatte auch die Army einen statistischen Beitrag zu den eugenischen Diskursen geleistet. Unter der Leitung von Robert Yerkes waren Soldaten bei der Rekrutierung Intelligenztests unterzogen worden. Bis 1919 wurden so 1.726.966 Männer getestet (Yerkes 1920,12), und zwar in einer Kategorie A und einer Kategorie B für Analphabeten. Die hohe Zahl der Army-Tests verschob den Fokus der Intelligenzmessung auf den Durchschnittsamerikaner und etablierte zugleich die psychologische Wissenschaft mit ihren Protagonisten Yerkes, Terman und Goddard (Zenderland 2001, 292). 08˘ Obwohl immer wieder Abgrenzungen versucht werden, entzieht sich der Begriff ei- ner präzisen Definition. »Feeblemindedness« umfasst Promiskuität, Straffälligkeit, Alkoholmissbrauch, Drogenabhängigkeit, eben »social inadequacy«, die auf eine »mental disorder« zurückgeführt werden. Dies konnte selbst Epilepsie einschließen. »Feeblemindedness comes to the surface when individuals are faced with the uniquely modern demands of industrialization and urbanization« (Goddard 1914,2). Goddard zitiert das Royal College of Physicians, demnach ist »feeble-minded«: »One who is capable of ear- ning his living under favorable circumstances, but is incapable from mental defect existing from birth or from an early age (a) of competing on equal terms with his normal fellows or (b) of managing himself and his affairs with ordinary prudence« (Goddard 1914,4). 09˘ Rottenburg übersetzt damit Bruno Latours Begriff der »Centres of Calculation« (Latour 1987). 10˘ 1917 untersuchte Davenport Karrieren von Marineoffizieren und fand das Merkmal »Thalassophilie« als entscheidend für deren Erfolg. Davenport, Charles B.: Naval Officers, Their Heredity and Development, 1919, 25. 11˘ Estabrook / Davenport 1912 (The Nam Family), Danielson / Davenport 1912 (The Hill Folk), Goddard 1912 (The Kallikak Family), McCulloch 1888 (The Tribe of Ishmael – aktualisiert durch Estabrook 1921 für den 2. Internationalen Eugenik Kongress?). Bereits 1877 hatte Richard Louis Dugdale die »Jukes« erforscht. Diese frühe Studie untersuchte Insassen in Gefängnissen und anderen staatlichen Einrichtungen von New York und skizzierte das Bild einer Familie im Feld von Kriminalität, Umweltbedingungen und Vererbung und wurde da- mit zum Vorbild für vergleichbare Studien. Eine Nachfolgestudie veröffentlichte Arthur H. Estabrook vom ERO in 1916. Mit diesem Werk verschob Estabrook den Schwerpunkt in Richtung Vererbung als entscheidendem Faktor. Wie Dugdale berechnete auch er die Kosten, die die »Jukes« gegenüber der Öffentlichkeit verursacht hätten. Auf dem zwei- Eugenische Daten 117 ten Internationalen Eugenik-Kongress 1921 wurden Fotografien der »Jukes« und ihrer Lebensbedingungen ausgestellt. Zur aktuellen Analyse der »Jukes«-Familie und der darun- ter codierten Familien siehe Christianson, Scott: Bad Seed or Bad Science – The Story of the Notorious Jukes Family, New York Times vom 08.02.2003. 12˘ »The Eugenics Record Office answers most of these letters of inquiry with the suggestion that if the accompanying record of family traits is properly filled out, perhaps something may be said in regard to the specific situation. A small percentage of those who receive the- se record blanks fill them out and send them back« (Hamilton 1916, 77). 13˘ Am 9. März 1907 hatte Indiana das erste Gesetz zur Zwangssterilisation verabschiedet. Washington, Kalifornien und Connecticut folgten in 1909, bis 1926 hatten 23 Staaten ent- sprechende Gesetze verabschiedet, 1931 waren es 30 Staaten (Sofair/Kaldjian 2000). Auf dem ersten Internationalen Eugenik-Kongress 1912 in London verhandelte Bleecker Van Wagenen, Präsident der »American Breeders Association«, das Thema der Sterilisation auf der Grundlage umfassender Datenerhebungen seit 1910 im »Preliminary Report of the Committee of the Eugenic Section of the American Breeders’ Association to Study and to Report on the Best Practical Means for Cutting Off the Defective Germ-Plasm in the Human Population«. 14˘ Der Begriff Display umfasst ein Bedeutungssprektrum, welches von informationsperfor- mativer Materialität über elektronische Datenrepräsentationen bis hin zu biologischen Techniken und biologischem Ausdrucksverhalten reicht. Das Ungeborene eignet sich in sei- ner vorgestellten Materialität und Lebendigkeit als Projektionsobjekt datentechnisch er- fasster und manipulierter Lebensvorgänge. Display war darüber hinaus der Name eines reinrassigen Rennpferds (1923-1944). 15˘ Butler analysiert Ein- und Ausschlussprozesse bei der Konstituierung von Öffentlichkeit als politische Praxis des Sichtbaren und Sagbaren sowie des Unsichtbaren und Unsagbaren im Kontext von 9/11. 118 Uwe Wippich Bibliografie Bix, Amy Sue (1997) Experiences and Voices of Eugenics Field-Workers: ›Women‘s Work‹ in Biology. In: Social Studies of Science 27,4, S. 625-668. Bird, Randall D. / Allen, Garland : The Papers of Harry Hamilton Laughlin, Eugenicist. In: Journal of the History of Biology, 14,2, S. 339-353. Boudreau, Erica Bicchieri (2005) Yea, I have a Goodly Heritage. Health Versus Heredity in the Fitter Family Contests, 1920-1928. In: Journal of Family History, 3, 2005, S. 366-387. Butler, Judith (2004) Precarious Life: The Power of Mourning and Violence. London, New York: Verso. Canguilhem, Georges (2009) La connaissance de la vie. Paris: VRIN. Christianson, Scott (2003) Bad Seed or Bad Science – The Story of the Notorious Jukes Family, New York Times vom 08.02.2003. Davenport, Charles B. / Laughlin, Harry H. / Weeks, David. F. / Johnstone, E.R. / Goddard, Henry H. (1911) The Study of Human Heredity, Cold Spring Harbor, ERO Bulletin No. 2. Davenport, Charles B. (1912) The Trait Book, Cold Spring Harbor, ERO Bulletin No. 6. Davenport, Charles B. (1914) The Importance to the State of Eugenic Investigation. In: Proceedings of the First National Conference on Race Betterment, January 8, 9, 10, 11. 12, 1914, Battle Creek: The Race Betterment Foundation, S. 450-456. Davenport, Charles B. / Muncey, Elisabeth B. (1916) Huntington‘s chorea in Relation to Heredity and Eugenics. In: American Journal of Insanity 73, S. 195-222. Davenport, Charles B. (1921a) Research in Eugenics. In: Science 54, 1400: S. 391–397. Davenport, Charles B. / Scudder, Mary Theresa (1919) Naval Officers, Their Heredi- ty and Development, Washington: Carnegie Institution of Washington. Davenport, Charles B. (1923) The Work of the Eugenics Record Office In: Eugenic Revue 15, 1, S. 313-315. English, Dayenne K. (2004): Unnatural selections: eugenics in American modernism and the Harlem Renaissance, Chapel Hill: The University of North Carolina Press. Eugenic Survey of Nassau County, New York. Journal of Heredity 7, 5, 1916, S. 237-238. Foucault, Michel (2001) In Verteidigung der Gesellschaft, Frankfurt a.M.: Suhrkamp. Foucault, Michel (2008) Der Wille zum Wissen, Sexualität und Wahrheit I: In: Ders. Die Hauptwerke, Frankfurt a.M.: Suhrkamp, 1021-1151. Galton, Francis (1883) Inquiries into human faculty and its development, London: Macmil- lan. Galton, Francis (1904) Eugenics: its Definition, Scope, and Aims. In: The American Journal of Sociology, 10,1. Genetic Survey of Kansas City. Journal of Heredity 7, 5, 1916, S. 238. Eugenische Daten 119 Goddard, Henry H. (1914) Feeble-Mindedness: Its Causes and Consequences, Norwood: Macmillan. Hamilton, A.E. (1916) What to say about marriage? In: Journal of Heredity, 7,1, S.77. Hays, Willet M. (1913) The Farm, the Home of the Race. In: American Breeders Magazine, 4,1, S.11-21. Hoffmann, Christoph (2008) Festhalten, Bereitstellen – Verfahren der Aufzeichung. In: Ders. (Hg.) Daten sichern –Schreiben und Zeichnen als Verfahren der Aufzeichnung, Zürich Berlin: Diaphanes, S. 7-20. Jewell, Edward Alden (1932) The Masterpiece and the Modeled Chart. The New York Times, 18.09.1932. Kevles, David J. (1995) In the name of eugenics: genetics and the uses of human heredity, Cambridge: Harvard University Press. Krämer, Sybille (2005) Operationsraum Schrift: Über einen Perspektivwechsel in der Be- trachtung der Schrift. In: Schrift. Kulturtechnik zwischen Auge, Hand und Maschine. Hrsg. v. Grube, Gernot / Kogge, Werner / Krämer, Sybille. München: Fink, S. 23-57. Latour, Bruno (1990) Drawing Things Together. In: Representation in Scientific Practice. Hrsg. v. Lynch, Michael / Woolgar, Steve. Cambridge: The MIT Press, S. 19-68. Lemke, Thomas (2008) Gouvernementalität und Biopolitik (2. Auflage). Wiesbaden: Verlag für Sozialwissenschaften. Laughlin, Harry H. (1912) An Account of the Work of the Eugenics Record Office. In: Ame- rican Breeders Magazine 3,2, S. 119-124. Laughlin, Harry H. (1914) Calculations on the Working out of a Proposed Program of Steri- lization. In: Proceedings of the First National Conference on Race Betterment, January 8, 9, 10, 11. 12, 1914, Battle Creek: The Race Betterment Foundation, S. 478-493. Laughlin, Harry H. (1922) Eugenical Sterilization in the United States. Chicago 1922 (Laughlin 1922). Lombardo, Paul A. (2008) Three Generations, No Imbeciles: Eugenics, the Supreme Court, and Buck v. Bell, Baltimore: The John Hopkins University Press. Lovett, Laura L. (2007) Conceiving the future: pronatalism, reproduction, and the family in the United States 1890-1938, Chapel Hill: The University of North Carolina Press. Neurath, Otto (1925) Gesellschafts- und Wirtschaftsmuseum in Wien: Österreichische Ge- meinde-Zeitung, Nr.16, Wien 1925 [http://www.vknn.at/texte/GWM1925.html]; letzter Auf- ruf: 29.01.2012. Popenoe, Paul (1928) Eugenic Sterilization in Californien. The Number of Persons Needing Sterilization. In: Journal of Heredity, 19,9, S. 405-411. Rheinberger, Hans-Jörg (2005) Kritzel und Schnipsel. In: fülle der combination. Hrsg. v. Dotzler, Bernhard J. / Weigel, Sigrid. München: Fink, S. 343-356. Rosenberg, Charles E. (1997) No other gods: on science and American social thought (erw. und erg. Auflage). Baltimore: John Hopkins University Press. 120 Uwe Wippich Rottenburg, Richard (2002) Weit hergeholte Fakten: eine Parabel der Entwicklungshilfe. Stuttgart: Lucius & Lucius. Sofair, André N. / Kaldjian, Lauris C. (2000) Eugenic Sterilization and a Qualified Nazi Analogy: The United States and Germany, 1930–1945. In: Annals of Internal Medicine 132, 2000: S. 312-319. Spiro, Peter (2009) Defending the master race: conservation, eugenics, and the legacy of Madison Grant. Lebanon: University Press of New England. Schüttpelz, Erhard (2009) Die medientechnische Überlegenheit des Westens. Zur Ge- schichte und Geographie der immutable mobiles Bruno Latours. In: Mediengeographie: Theo- rie – Analyse – Diskussion Hrsg. v. Döring, Jörg / Thielman, Tristan. Bielefeld: Transcript. Van Wagenen, Bleeker (1912): Preliminary Report of the Committee of the Eugenic Sec- tion of the American Breeders’ Association to Study and to Report on the Best Practical Means for Cutting Off the Defective Germ-Plasm in the Human Population. In: Problems in Eugenics, Papers Communicated to the First International Eugenics Congress held at the University of London, July 24th to 30th. London: The Eugenics Education Society, S. 460-475. von Hoffmann, Geza (1914): Brief an H. Laughlin vom 26.05.1914: The Harry H. Laughlin Papers, Truman State University, papers, D-5-4. Wexler, Alice (2008) The Woman Who Walked into the Sea. Michigan: Yale University Press. Whitney, Leon F. (1926) Fitter Families Again. Grand Rapids Herald, 17.01.1926. In: Journal of Heredity 17,2, S. 68-69. Whitney, Leon F. (1926) American Eugenics Society on ›Certified Families‹. In: Journal of Heredity 17,4, S.149-150 (Whitney JoH 1926). Yerkes, Robert M. / Yoakum, Clarence S. (1920) Army Mental Tests, New York: Henry Holt Zenderland, Leila (2001) Measuring Minds: Henry Herbert Goddard and the Origins of American Intelligence Testing. Cambridge: Cambridge University Press. Eugenische Daten 121 II. Die Politiken der Datenbank 122 Martin Warnke Datenbanken als Zitadellen des Web 2.0 Das Paradox des Web 2.0 Dieser Text ref lektiert eine paradoxale Entwicklung, die im Word Wide Web stattfindet. Dieses Paradox besteht aus der wahrhaft massenmedialen Nut- zungspraktik des Web, an der in den entwickelten Industrienationen so gut wie alle Menschen teilhaben, einer f lächendeckenden Popularisierung also, und da- raus, dass die Orte im Netz, an denen solcherart Kommunion stattfindet, selbst hochgradig konzentriert sind. An sehr wenigen Stellen im Web treffen sich so gut wie alle. Und diese Stellen sind samt und sonders privat und nationalstaat- Abb. 1 Datenbanken als Zitadellen des Web 2.0 123 lich ungeregelt. Das Gemeinschaftsereignis wird durch singuläre Institutionen realisiert, das Mo- dell dafür ist eher das des Absolutismus als das der Volksherrschaft. Und die Paläste der absolu- ten, zumeist privaten Herrscher haben technisch die Gestalt von Datenbanken, militärisch die von Zitadellen. Was auch immer man davon halten mag: dies ist zwangsläufig so, was nachfolgend dargelegt werden wird. Abb. 2 Das Versprechen des Web 2.0 Die Öffentlichkeit sieht das offenbar ganz an- ders. Wie man nämlich dieser durchaus üblichen Graphik (Abb. 1) entnehmen kann, bricht im Web 2.0 das Reich der Freiheit und der Freude aus. Statt dass Medienunternehmen den Informa- tionsfluss steuern, einige glücklich, viele trau- rig machen, übernehmen das im Web 2.0 un- Abb. 3 sere Peers, was verwirrender Weise sowohl die Wortbedeutung des Gleichrangigen als auch die Abb. 4 eines Mitglieds des englischen Hochadels trägt. Jedoch entsteht der Eindruck, die vielen fröh- lichen Gesichter unter dem Regenbogen verhei- ßen eher das Pfingstwunder kollektiven Glücks inmitten von lauter Freunden. Sie nämlich be- stimmen selbst ihren Informationsfluss, indem sie sich ›tools‹ bedienen, dienstbaren Werkzeu- gen. Und so bilden die Vielen den Körper des Web 2.0, was auch an Thomas Hobbes erinnern könnte – doch darüber am Schluss noch einmal mehr. Das Phantasma des Web 2.0 ist eines der Selbstbe- stimmung, der Kommunion, des Kommunismus gar, der Assoziation freier Individuen. Es ist das Versprechen der Gleichheit und eines – Jürgen Habermas möge verzeihen – herrschaftsfreien Diskurses. Doch nichts könnte falscher sein. 124 Martin Warnke Die Wissenschaft von den Netzen Folgend wird der Nachweis geführt, dass stabile, wachstumsfähige, sehr große Netze immer eine stark ungleich verteilte Vernetzungstopologie haben müs- sen, dass also von Egalität in solchen Gebilden nicht die Rede sein kann. Dazu stütze ich mich auf die Darstellung von Albert-László Barabási: Linked – How Everything Is Connected to Everything Else and What It Means for Business, Sci- ence, and Everyday Life (2003), die für einen Überblick zur Netzwerktheorie sehr empfehlenswert ist. Barabási führt seine Leserinnen und Leser in die Emergenz von Netzen am Beispiel eines Flugbegleiters ein, der durch seine vielen sexu- ellen Kontakte auf der ganzen Welt erheblich zur Ausbreitung von AIDS beige- tragen hat (ebd., 123). Als Knoten des hier betrachteten Netzes gelten die invol- vierten Personen, der Link ist der Kontakt. Die Knoten mit den Links spannen dann das Netz auf, das wir nun untersuchen. Dieser Flugbegleiter erlangte des- halb Prominenz, weil er allein von einem Viertel der rund 250 ersten registrier- ten AIDS-Patienten der Kontakt-Mann war. Er gehörte zu den Wenigen mit au- ßergewöhnlich vielen Kontakten, sehr viele Betroffene hatten mit ihm oder einem seiner Kontakte Kontakt. Solcherart Beispiele für einzelne hochgradig Vernetzte findet man viele. Man entnimmt etwa der Datenbank der Schauspie- lerinnen und Schauspieler [http://oracleofbacon.org], wer mit wem im selben Film gespielt hat (ebd., 60) und kann nun die Frage stellen: über wie viele Stu- fen ein Schauspieler mit einem anderen verknüpft ist. Das Ergebnis ist über- raschend klein, es lautet: drei. Jede Schauspielerin, jeder Schauspieler ist über drei Links, die jeweils einem gemeinsamen Mitwirken in einem Film entspre- chen, mit jedem anderen verbunden. Fragt man etwa nach Kevin Costner und Helmut Qualtinger, so kann man sich im Vorfeld testen. Wie viel haben die- se Herren miteinander zu tun? Die Antwort lautet, trotz ihrer schon rein äu- ßerlichen Verschiedenheit: viel, denn Costner hat mit Sean Connery in The Un- touchables gespielt, Connery mit Qualtinger im Namen der Rose: zwei Links auseinander. Ein anderes, extremeres Beispiel liefert dann auch den Höchst- wert: Werner Krauss als der Dr. Caligari im gleichnamigen Stummfilm von 1920 ist drei Filme von Sam Worthington aus James Camerons Avatar von 2009 ent- fernt. Das auf den ersten Blick Erstaunliche dabei ist der geringe Abstand längs ausgewählter Links, wenn man die eigentlich dürftige Vernetztheit der Einzel- nen betrachtet, die für ein Drittel aller Schauspieler bei unter zehn liegt. Stanley Milgram – der Selbe, der 1961 das nach ihm benannte Experiment durchführte, welches zeigte, dass Probanden dazu bereit sind, im vermeint- lichen Dienste der Wissenschaft andere auf einem elektrischen Stuhl zum Tode zu befördern, wenn sie nur weit genug vom Leiden entfernt sind – dieser Stan- Datenbanken als Zitadellen des Web 2.0 125 ley Milgram veröffentlichte im Mai 1967 in Psy- chology Today die Ergebnisse einer Studie zum Bekanntheits-Abstand zweier Menschen in den USA, und die Zahl lautete: sechs. Unter dem Na- men »Six Degrees of Separation« firmiert dieses Abstandsmaß zwischen Menschen auf der Erde, und eine Studie (Leskovec/ Horvitz 2007) zeigte Abb. 5 für Teilnehmer an Instant-Messaging-Diensten weltweit einen mittleren Abstand von 6,6. Die Welt ist eine Small World. Die Frage ist nun, wie man diesen geringen Ab- stand zwischen den Knoten solcher doch großen Netzwerke erklären kann, denn das Experiment von 2007 wertete ein Netz mit 180 Millionen Knoten aus. Wenn man abschätzt, wie stark man gleichmäßig vernetzt sein müsste, um auf einen Abstand von sieben in einer Population von 180 Millionen zu kommen, dann kommt dabei 180 Abb. 6 Millionen geteilt durch sieben heraus, und das sind mehr als 25 Millionen. So viele Menschen kennen selbst absolute Partylöwen nicht, müsste man aber, um dann über sie- ben Stufen mit allen bekannt zu sein. Man sieht das leicht so ein: bei gleichmäßiger Vernetzung des Grades k=2 braucht man zum entferntesten Punkt eines kreisförmig arrangierten Netzes halb so viele Links wie es Knoten gibt, eben ein halbes Mal um den Kreis he- rum. Der Durchmesser ist dann N/2. Verknüpft man dann jeden Knoten auch noch mit seinem übernächsten Nachbarn, was dann dem Vernetzungsgrad vier entspricht, kann man immer einen Nachbarn überspringen, und man braucht nur noch halb so viele Hops, N/4. Der Durchmesser ist immer die Zahl der Kno- ten geteilt durch den Vernetzungsgrad. Und da muss man 180 Millionen eben durch gute 25 Millionen teilen, damit sieben he- Abb. 7 rauskommt. Mit einer gleichmäßigen, aber auch mit einer zufälligen Vernetzung, deren Grad einen deut- lichen mittleren Wert aufweist, sind so kurze Di- stanzen nicht zu erreichen. Erst dann, wenn man einige wenige Knoten mit zusätzlichen Links ausstattet, werden die Distanzen insgesamt er- heblich kürzer: 126 Martin Warnke Eine Netzstruktur, die aus einer ungleichmäßig stark verlinkten Kollektion von Knoten besteht, aus einer kleinen Zahl stark vernetzter und ei- ner großen Zahl schwach vernetzter Objekte sich zusammensetzt, erlaubt und erzwingt die hier kolportierten Eigenschaften eines sehr kleinen Durchmessers bei sehr vielen Knoten ohne ei- nen insgesamt extrem hohen Vernetzungsgrad. Die Meisten von uns klumpen sich in ihren un- mittelbaren Kreisen mit wenigen, aber starken Abb. 8 Bindungen, Einzelne vernetzen diese Inseln über schwache Bekanntheitsbeziehungen. So jeden- falls behauptete schon Mark Granovetter (1973) in seinem Aufsatz über Weak Ties. Solche ganz besonderen Knoten in einem Netz- werk heißen Hubs. Es bedarf nur weniger von ih- nen, um ein Netz mit kleinem Durchmesser und gutem Zusammenhalt zu erzeugen. Sie ahnen vielleicht, dass im World Wide Web unsere Top- Sites, hinter denen riesige Datenbanken stehen, Abb. 9 diese Rolle übernehmen werden. Abb. 10 Skalenfreiheit Paul Baran (1964) hatte in seinen Vorentwür- fen für ein verteiltes Kommunikationsnetz, das dann später das ARPA- und noch später das In- ternet werden sollte, drei Typen unterschieden: den Stern, den Baum und das vermaschte Netz (s. Abb. 10). Unser nunmehr geschultes Auge erkennt in der Variante (C) ein Netz mit etwa gleichmäßig ver- teiltem Vernetzungsgrad. Zählt man nach, dann findet man: Datenbanken als Zitadellen des Web 2.0 127 # Links # solcher Kno- ten 2 3 3 8 4 17 5 15 6 3 Es gibt drei Knoten mit zwei Links (oben rechts und links, unten links), acht mit drei Links, die meisten haben vier oder fünf Links. Im Diagramm schaut das fol- gendermaßen aus: Es kommt in etwa eine Normalverteilung dabei heraus, der typische Vernet- zungsgrad liegt zwischen vier und fünf. Der Durchmesser liegt etwa bei zehn oder elf Hops quer durch das Netz. Probieren Sie einmal, von links unten nach rechts oben zu kommen! Von diesem Typus von Netz, einem mit einer cha- rakteristischen Skala, hier die etwa vier Links pro Knoten, sind alle die Netze nicht, deren Durch- messer sehr klein sind. Auch das Internet sieht so nicht aus, denn, so stellt sich heraus, selbst im Netz aller an das akademische Internet ange- Abb. 11 schlossenen Rechner – und es handelt sich hier um Millionen – beträgt der maximale Abstand zwischen je zwei nur etwa zwölf Hops (Warnke 2011, 73ff). Das ist sehr we- nig und mit gleichmäßiger Vernetzung nicht zu bewerkstelligen. Es muss also ein anderes Modell gefunden werden, eines, das ohne charakteristische Ska- la auskommt. Es wird eines sein, das sehr viele Knoten mit wenigen Links und ganz wenige mit einer großen Zahl von Knoten besitzt. Solche Netze heißen skalenfrei, wegen des Fehlens eines mittleren Vernetzungsgrades. Die Verteilung sieht dann Abb. 12 wie in Abb. 12 aus. Hierbei handelt es sich üb- rigens um Shakespeare: es ist die Zählung von Wörtern im Gesamtwerk Shakespeares: ein ein- ziges Mal kommen 14.376 Wörter vor, zwei Mal 4343 Wörter bis zehn Mal, das sind 364. Sehr oft kommen die Hilfsverben vor und Konjunktionen, und es ist schön, dass solcherart Wörter den be- rühmtesten seiner Monologe einleiten: »To be or 128 Martin Warnke not to be«.¯1 Es gibt sehr wenige sehr häufig und sehr viele sehr selten vorkom- mende Wörter. Auch, wenn Shakespeare noch sehr viel mehr geschrieben hät- te, so die begründete Vermutung, hätte sich keine zentrale Häufung ergeben, sondern die Form der Kurve wäre erhalten geblieben. Diese Form lässt sich sehr genau mit einem Potenzgesetz modellieren: y = a • x-k Barabási stellt die beiden Netzwerktypen so nebeneinander: Abb. 13 Links ist das Autobahn-Netz, rechts das Flug-Netz der USA dargestellt. Straßen- kreuzungen können nicht beliebig viele Abfahrten haben, Flughäfen dagegen können sich sehr in der Zahl ihrer Starts und Landungen unterscheiden. Kreu- zungen haben eine typische Zahl von Zuwegungen, die Zahl von Starts und Lan- dungen kann sehr stark variieren, es gibt viele sehr kleine und sehr wenige sehr große Flughäfen. Statistische Untersuchungen am Internet haben ergeben, dass die Netzwerk- Struktur auf der Ebene von IP, die Router-Vernetzung, sehr genau einem Po- tenzgesetz folgt (Faloutsos/ Faloutsos/ Faloutsos 1999). Wie sonst ließen sich die lediglich zwölf Hops zwischen europäischen Städten erklären? Nur, in- dem angenommen wird, dass es einige wenige große Hubs gibt und sehr viele sehr kleine Netzknoten. Dieses verkürzt den Weg zwischen beliebigen Netz- Datenbanken als Zitadellen des Web 2.0 129 knoten ungemein. Die massiv vernetzten Knoten erlauben die größten Sprün- ge und sorgen für den Gesamtzusammenhalt des Netzes. Ungleichheit ist die wichtigste Zutat skalenfreier Netze – betrieben wird sie mit Hilfe von Daten- banken. Stabilität Eine der erstaunlichsten Eigenschaften skalenfreier Netze ist ihre Stabilität ge- genüber zufälligen Störungen. Paul Baran (1964) hat bereits in seinen RAND- Report das Verhalten seiner Netztopologie unter Bedingungen des thermonu- klearen Krieges untersucht und festgestellt, dass Redundanz gegen Zerstörung härtet. Aber er untersuchte ja noch gleichmäßig vernetzte Zufallsnetze, keine skalenfreien, denn die waren noch nicht bekannt. Diese Letzteren hat man erst durch seine Erfindung entdeckt und näher untersucht. Wenn Letztere nämlich von zufälligen Zerstörungen heimgesucht werden, er- leiden die Hubs mit derselben Wahrscheinlichkeit einen Schaden wie die unbe- deutenden Knoten ganz rechts in der Verteilung. Doch da es von den Hubs so viel weniger gibt, also fast ausschließlich unbedeutende Knoten betroffen sein werden, zerfällt ein skalenfreies Netz erst dann in isolierte Inseln, wenn es voll- ständig zerstört wurde (Barabasi 2003a, 109 ff.). Genauer gesagt, skalenfreie Netze mit einem Exponenten von unter drei verhalten sich so, und dazu gehört eben auch das Internet. Trifft es allerdings die Hubs, geht alles ganz schnell, und das Netz bricht zusammen. Nebenstehende Abbildungen zeigen die drei Szenarien der Zerstörung. Wer- den die Knoten des Zufallsnetzten angegriffen (Abb. 14) hilft nur sehr viel Re- dundanz. Das skalenfreien Netz (Abb. 15) ist praktisch unzerstörbar, wenn es zufällig attackiert wird. Ein gezielter Eingriff (Abb. 16) hat jedoch schnell dra- stische Folgen. Denn so robust das Internet auch immer gegen Angriffe sein mag, wenn es einer Instanz möglich ist, zentrale Knoten zu kontrollieren, zeigt das auch Wirkung. Diese Situation kann man in totalitären Staaten beobach- ten, etwa in China anlässlich des Konflikts um die Zensur von Suchmaschinen. Der eine Hub – der chinesische Staat – ringt mit dem anderen – Google, und der Ausgang ist ungewiss. Man ahnt an dieser Stelle, dass aus diesem Sachverhalt die Zitadellenförmigkeit besonderer Netzknoten erwächst. 130 Martin Warnke Abb. 14-16 Wachstum Wie wachsen skalenfreie Netze? Und: was geschieht mit ihnen beim Wachs- tum? Wenn ein Netz nach einer einfachen, gleich zu benennenden Regel neue Knoten den bestehenden hinzufügt, kann es grenzenlos wachsen, und es behält seine Vernetzungscharakteristik, sein Potenzgesetz, bei. Diese einfache Regel schreibt vor, dass die Anlagerungswahrscheinlichkeit eines neuen Netzknotens proportional zur der Zahl der Links sei, die ein Anlagerungs-Kandidat schon hat (Barabási 2003, 96): Ein Knoten lagert sich am liebsten an hoch verlinkte Kno- ten an. Im Englischen heißt das preferential attachment, die deutsche vorzugs- weise Anlagerung klingt hölzern – und der Teufel, ›der immer auf den größten Haufen scheißt‹, ist mir dann doch zu drastisch. Skalenfreie Netze haben ihre Lieblinge, und dorthin wollen auch die meisten Neuankömmlinge; man könnte Datenbanken als Zitadellen des Web 2.0 131 es auch Lemming-Wanderung nennen, Starkult, Popkultur, die Herrschaft des Massengeschmacks oder vielleicht: Lieblingskontakt? Erzeugt man ein Netz auf diese Weise, wird es skalenfrei mit dem Exponenten drei: Wachstum und Lieblingskontakte sind die beiden Triebkräfte für die Entstehung skalenfreier Netze, und das gilt auch für das Internet. Erst so wird verständlich, wie das Internet dieses atemberaubende Wachstum hat zeigen können, ohne Abb. 17 an sich selbst zusammengebrochen zu sein: die sehr großen Oberzentren zie- hen den allergrößten Teil der Konnektivität an sich, und sie sind es, die das auch vertragen können. Der Straßenverkehr wäre längst kollabiert, wenn er von vier auf siebenhundert Milliarden¯2 in vierzig Jahren hätte wachsen müs- sen, wie es die Zahl der Internet-Hosts tat. Ungleichheit sorgt für Stabilität. Die Oberzentren des Web Die Verlinkungsverteilung des World Wide Web lässt sich aus folgender Über- sicht abschätzen. Google erreicht 90% aller WWW-Nutzerinnen und -Nutzer, Facebook 50%, Wikipedia immerhin noch ein Drittel. Abb. 18 132 Martin Warnke Die Sites in dieser Übersicht sind die Haupt-Knoten im Web. Sie verwalten eine ungeheuere Zahl von Links, Google etwa hat derzeit sicher einige zehn Milli- arden Seiten in seinem Bestand, also einen ebenso großen Verlinkungsgrad. Eine solche ungeheuer große Zahl von Links auf einer Webseite ist selbstver- ständlich nicht mehr von Hand zu pflegen. Die Daten liegen in gigantischen Da- tenbanken, Programme erzeugen Webseiten auf Anforderungen aus den Da- tenbankinhalten. Dieses ist die obligatorische Struktur einer wirklich großen WebSite. Datenbanken im Web Datenbanken erleichtern den Zugang von Vielen, sie gleichen einen Nachteil aus, den das Web nach der Planung von Sir Tim Berners-Lee aufwies: Mit den geeigneten Techniken seitens der großen Datenbankbetreiber kann man mit- machen, ohne viel von Technik verstehen zu müssen. Ein Content-Management- System sorgt dafür, dass User über Web-Formulare Eingaben tätigen können, diese in die Datenbanken wandern und dann auch wieder, dargestellt auf Web- seiten, von anderen zu sehen sind. Google funktioniert so, Facebook, Wikipe- dia, Twitter, Flickr und alle anderen auch. Und es ginge auch gar nicht anders, denn ein Zusammenhang von so vielen Webseiten, wie es sie mittlerweile im WWW gibt, ist nur über die höchstvernetzten automatisch betriebenen Ober- zentren zu machen. Die ursprünglich angelegte Egalität ist umgekippt. Nur die völlig unbedeu- tenden Sites funktionieren noch nach dem Schema, das ursprünglich geplant Abb. 19 Datenbanken als Zitadellen des Web 2.0 133 war. Das Web existiert nur noch durch die absoluten TopSites, die so gut wie al- len Traffic auf sich ziehen. Die Mechanismen des Web 1.0, das ja angeblich so undurchsichtig und auto- kratisch war, sind ausgehebelt. Noch nicht einmal die Verlinkung von Zitadel- len-Seiten ist mehr möglich, von wenigen Ausnahmen wie der Wikipedia ab- gesehen. So kann man einen Tweet nicht über die Seiten-URL referenzieren: Innerhalb der Zitadelle Twitter ist ein Bezug in Form des Reply, des Retweet möglich, auch Refenzen ins Web sind erlaubt, aber die Herrschaft über das Ma- terial einer Datenbank-gestützten Website heißt immer, dass nur nach den Re- geln des Anbieters verfahren werden kann. Struktur und Funktion einer Zita- dellen-Seite sind spezifisch und ganz unter Kontrolle der Betreiber. In Facebook kann man jemanden zum Freund erklären, nicht zum Feind. Google Ads wer- den von den Betreibern ausgeschlossen, denn man konkurriert schließlich mit- einander um die Dominanz im Web, und es werden Territorien aufgeteilt. Der Wikipedia kann man eine Seite auch nur durch die Schleusen des Systems hin- zufügen, und auch nur noch dann, wenn man in der Hierarchie der Wikipedia hoch genug steht. Die Ursprungsidee des Web, die Teilhabe aller zu gleichen Bedingungen, ist dahin. Im Web 2.0 dürfen alle mitmachen, allerdings unter den Bedingungen der Zitadellen-Herren. Ohne technischen Sachverstand haben zu müssen, wie noch zu Zeiten des Web 1.0, darf jede und jeder sich offenbaren und persön- liche Daten gegen die Dienstleistung des Datenbank-Betriebs tauschen. Folg- lich sind Datenbanken in vielerlei Hinsicht Zitadellen im Web 2.0: Sie müssen als Haupt-Knoten das Web zusammenhalten und daher extrem gut geschützt sein, da sie unumschränkt über den Content herrschen und Diskursmacht aus- üben. Michel Foucault musste noch zwei Bücher verfassen, um diese Situati- on zu beschreiben. In seiner Ordnung des Diskurses schrieb er: »Man muß den Diskurs als eine Gewalt begreifen, die wir den Dingen antun …« (Foucault 1996, 34). Er mahnte, die Analyse der Diskurse nach dem zu beurteilen, was nicht zur Sprache kommt, was aus- und was eingeschlossen wird. Er konnte ja nicht ahnen, dass derlei Aus- und Einschlüsse nun algorithmisch erfolgen und sich in Technik sedimentieren. Und wir sollten seinen Überlegungen hinzufügen: Nicht nur das Sprechen und das Schreiben gehört zu den strukturierenden Dis- kurspraktiken, auch das Schweigen in Form des Zuhörens und Mitlesens muss dazu gerechnet werden, selbst dann, wenn dies nicht mehr Menschen tun, son- dern Programme. Dazu musste er dann noch das Buch über den Panoptismus (Foucault 1994) schreiben. Heute wird die Rolle der Social Media in autokratischen Herrschaftsformen thematisiert. Manche nennen die nordafrikanischen Aufstände in Ägypten, 134 Martin Warnke Tunesien, Lybien oder Syrien gar Facebook- oder Twitter-Revolutionen. Doch wissen wir, dass di- ese Firmen selbst Diskursmacht ausüben. Sie lassen keine Zensur zu. Sie lassen ihre Daten- banken nur noch von der US-Regierung abschal- ten, so geschehen im Wikileaks-Skandal. Oder gar nicht mehr, wenn the Cloud auf Pontons au- ßerhalb der Hoheitsgewässer eines Staates be- trieben wird. Sie erlauben durchaus die Selbst- Abb. 20 organisation der Massen auf den Boulevards der Schwellenländer. Sie tragen Kommunikations- strukturen der reichen westlichen Welt in die Basare und in die Wüsten, und die lokalen Regierungen können nur noch das Internet selbst als Zuwegungen zu den Zitadellen versuchen abzuschalten. Es handelt sich bei der Kommunion in den Datenbanken des Web 2.0 um Ver- sammlungen an ganz besonderen Orten, betrieben und bewacht von Privatfir- men, die den Diskursen lauschen wollen, um diese wiederum an andere Firmen zu verkaufen. Foucault schreibt über den Panoptismus: »Die Zeremonien, Rituale und Stigmen, in denen die Über- macht des Souveräns zum Ausdruck kam, erweisen sich Abb. 21 als überflüssig, wenn es eine Maschinerie gibt, welche die Asymmetrie, das Gefälle, den Unterschied sicherstellt. Folglich hat es wenig Bedeutung, wer die Macht ausübt. […] Ebensowenig spielt das Motiv eine Rolle […]. […] Die Macht wird tendenziell unkörperlich und je mehr sie sich diesem Grenzwert annähert, um so beständiger, tiefer, endgül- tiger und anpassungsfähiger werden ihre Wirkungen: der immerwährende Sieg vermeidet jede physische Konfron- tation und ist schon immer im vorhinein gewiß« (Foucault 1994, 259 ff.). Die Diskursmacht der Datenbanken der börsen- notierten Firmen folgt ausschließlich dem Ziel der ökonomischen Verwertung des Gesagten und Geschriebenen. Zensur im traditionellen Sinne interessiert sie nicht, sie wäre sogar dem Geschäft abträglich, weil sie die Diskursanalyse, die man heute Data Mining nennt, verfälschte. Datenbanken als Zitadellen des Web 2.0 135 Genau das ist natürlich unverträglich mit der Politik und der Kultur eines au- tokratischen Staates wie Tunesien oder Libyen. Im Effekt formt die Community im Web 2.0 einen Körper, wie ihn Thomas Hob- bes als Leviathan beschreibt. Nur das Bild des Souveräns, den dieser Körper der Einzelnen forme, scheint jetzt höchst unpassend. In der Linken die unvermeid- liche Coladose, in der Rechten die Kreditkarte, auf dem Haupte die Baseball- Kappe, am Leibe die Designerklamotten, vor dem Haus einen Spritschlucker, so müsste er nun portraitiert werden. Ein braver Konsument eben, der sich inmit- ten einer Zitadelle um- und bewerben lässt, und der glücklich diese umhegte Rolle genießen soll. Dieses Lebensmodell ist die Blaupause für die ganze Welt, und es gibt schlechtere Garantien für die bürgerlichen Freiheiten. Eine Zita- delle, die dieses Modell schützt, noch aus Stein zu bauen, ist nicht mehr erfor- derlich, dafür gibt es schließlich die Datenbanken in ihren klimatisierten und hochsicheren Data Centers. Anmerkungen 01˘ Vgl. [http://math.ucdenver.edu/~wbriggs/qr/shakespeare.html]; letzter Abruf: 29.11.2011 02˘ [http://www.isc.org/solutions/survey/history]; letzter Abruf: 29.11.2011 Bibliografie Barabási, Albert-László (2003): Linked. New York: Plume Barabási, Albert-László; Bonabeau, Eric : Scale-Free Networks. Scientific American (2003), May, S. 50-59. Baran, Paul (1964): On Distributed Communications: IX Summary Overview. The RAND Cor- poration. [http://www.rand.org/pubs/research_memoranda/2006/RM3767.pdf]; letzter Ab- ruf: 31.8.2011. Faloutsos, Michalis/ Faloutsos, Petros/ Faloutsos, Christos (1999): On power-law relationships of the internet topology Comp. Comm. rev. 29, 251 Foucault, Michel (1996): Die Ordnung des Diskurses. Frankfurt/M.: Fischer Foucault, Michel (1994): Überwachen und Strafen. Frankfurt/M.: Suhrkamp Granovetter, Mark S. (1973): The Strength of Weak Ties. In: Amerikan Journal of Sociology 78, May, S. 1360–1380 Leskovec, Jure/ Horvitz, Eric (2007): Planetary-Scale Views on an Instant-Messaging Network. In: Microsoft Research Technical Report (June), S. 1–28. Warnke, Martin (2011): Theorien des Internet. Hamburg: Junius-Verlag 136 Martin Warnke Harald Hillgärtner »Oh, wie süss ist doch die Datenbank!« Zum Aspekt nicht-hegemonialer Datenbanken Die Datenbank als symbolische Form »Es mag uns heute etwas sonderbar anmuten«, so schreibt Erwin Panofsky in seinem berühmt gewordenen Aufsatz über die Perspektive als symbolische Form, »wenn wir […] von einem phantasiereichen Künstler wie Paolo Uccello vernehmen, daß er der Mahnung seiner Frau, doch endlich schlafen zu gehen, mit der stereotypen Wendung begegnete: »Wie süß ist doch die Perspektive« (Panofsky 1992, 123).¯1 Davon abgesehen, dass Uccello ohnehin ein eher son- derbarer Zeitgenosse gewesen sein soll, so ist dennoch die Faszination, die die Erfindung der Zentralperspektive ausgeübt haben muss, mitunter auch heute noch verständlich. Sie mag zwar einige neue malerische Probleme geschaffen haben, etwa dass ihre strenge Befolgung eigentümlich statisch wirkende Bil- der hervorbrachte, jedoch gab sie dem Maler der Renaissance eine allgemeine Methode an die Hand, um sämtliche Objekte im Bildraum perspektivisch stim- mig anzuordnen. Heute mag es zunächst etwas sonderbar anmuten, fügte man hinzu: »Oh, wie süß ist doch die Datenbank«. Folgt man aber Lev Manovich, so ist die Daten- bank als Pendant zur Zentralperspektive der Renaissance zu verstehen. Unse- re Gegenwart sei, so Manovich in seiner ebenfalls wohl bekannten Monografie The Language of New Media, geradezu von einem Datenbankkomplex gekenn- zeichnet. Die Datenbank sei demnach als eine symbolische Form zu verstehen und gebe damit dem vorherrschenden Modus der Welterkenntnis einen spezi- fischen Ausdruck (2002, 219). Ohne an dieser Stelle vertieft auf Ernst Cassirers Philosophie der symbo- lischen Formen eingehen zu können, auf die Manovich im Umweg über Panofs- ky schließlich rekurriert, sei zumindest auf einen zentralen Aspekt verwiesen: Eine sie kennzeichnende Grundidee ist, dass symbolische Formen einen episte- mologischen Charakter haben, das heißt sie strukturieren unsere Wahrneh- mung und unser Denken. Symbolische Formen im Sinne Cassirers sind etwa die Sprache, die Mathematik, die Religion, die Kunst etc. Hierbei ergänzen sich die symbolischen Formen nicht untereinander, sie sind gewissermaßen konkurrie- Nicht-hegemoniale Datenbanken 137 rende Modi der Weltwahrnehmung beziehungsweise des Weltverständnisses. Der Punkt ist nun, dass sie hierüber eine poietische, also eine hervorbringende Funktion haben. Symbolische Formen lassen die Welt, wie wir sie wahrnehmen und erkennen, allererst in ihrer je spezifischen Sinnlichkeit in Erscheinung tre- ten. Entscheidend ist hierbei der kulturhistorische beziehungsweise kulturphi- losophische Ansatz: In den symbolischen Formen findet eine bestimmte Gei- steshaltung einen Ausdruck und prägt von hier wiederum die Wahrnehmung und das Denken. In ihnen knüpft sich, um eine Formulierung Cassirers zu zitie- ren, »ein geistiger Bedeutungsinhalt an ein konkretes sinnliches Zeichen« (Cas- sirer 1923, 15). Man könnte es vielleicht so ausdrücken: Ändern sich die symbo- lischen Formen, so ändert sich auch unser Denken und unsere Wahrnehmung; gleichzeitig aber entstehen symbolische Formen bereits als Ausdruck einer sich ändernden Weltsicht. Aus diesem Versuch, Wahrnehmung und Erkenntnis als sich gegenseitig bedingend zu fassen, resultiert daher eine bestimmte Pro- blematik, die sich sowohl bei Panofsky als auch bei Manovich wiederfindet. So beschreibt Panofsky einerseits einen quasi empirischen Weg zur Zentralper- spektive, der sich aus dem malerischen Problem ergibt, den Bildraum zu ver- einheitlichen, und andererseits fasst er sie gleichzeitig als eine Setzung, als eine »überaus kühne Abstraktion von der Wirklichkeit« (Panofsky 1992, 100), die dem Florentiner Architekten Filippo Brunelleschi im Jahre 1410 zum aller- ersten Mal, quasi aus dem Nichts heraus, gelingt. Dass ihm dies überhaupt ge- lingen konnte, ist wiederum – Panofsky zufolge – einem Vergessen der »anti- ken Autoritäten« und dem korrespondierenden Weltverständnis geschuldet, das das Denken eines stetigen und unendlichen Raumes nicht zugelassen ha- ben (1992, 121). Analog bei Manovich: Das Verschwinden der »großen Erzäh- lungen«, die einen Zusammenhang der Welt behaupteten, ließ es erst mög- lich werden die Welt als etwas Unzusammenhängendes, gewissermaßen als eine Ansammlung von Daten, wahrzunehmen und gleichzeitig sei es die Da- tenbank als symbolische Form, die uns die Welt als eine solche Anhäufung von Daten allererst erkennbar werden lässt. Dem Zeitalter der Postmoderne ent- spricht die Datenbank als symbolische Form, die im World Wide Web einen sinnlichen Ausdruck findet. Markiert die Zentralperspektive laut Panofsky den Beginn der »moderne[n] Anthropokratie« (Panofsky 1992, 126) und damit – die Vergröberung mag an dieser Stelle erlaubt sein – den Beginn der Moderne, so markiert die Datenbank einen neuerlichen Epochenwechsel oder doch zumin- dest die Transformation der Moderne zur viel beschworenen Postmoderne. In dieser trete an die Stelle des linearen Syntagmas das Nebeneinander des Para- digmas, eben die Auswahl aus einer Datenbank gleichwertiger Elemente. 138 Harald Hillgärtner Bereits an dieser Stelle sollte deutlich geworden sein, dass Lev Manovich im Begriff der Datenbank etwas anderes zu erfassen versucht, als in einem her- kömmlich technischen Sinne oder auch im alltagssprachlichen Gebrauch da- mit gemeint ist. Hier bezeichnet Datenbank üblicherweise eine umfangreiche Sammlung von Informationen, die einem bestimmten Anwendungsbereich entstammen, also etwa Kochrezepte, Filmcredits, Bankkundendaten, Persön- lichkeitsprofile oder Strafeinträge. In aller Regel enthalten Datenbanken ho- mogen strukturierte, alphanumerische Werte und/oder Zeichenketten, die jeweils über eine eindeutige Adresse verfügen und somit jederzeit und ein- deutig abgerufen werden können. In ihnen ist daher in erster Linie ›Wissen‹ gespeichert, das im Grunde beliebig ergänzt werden und anschließend – dies ist fraglos der entscheidende Fortschritt gegenüber schlichten Karteien – eben- so beliebig miteinander verknüpft werden kann. Durch Auswertung, Vergleich und Visualisierung kann neues Wissen synthetisiert werden.¯2 Was zunächst als (gesellschaftlich) wünschenswert erscheinen muss, hat seine problematische Seite vor allem darin, dass der Zugriff auf viele Datenbanken und damit auf das in ihnen enthaltene/erzeugbare Wissen je nach Anwen- dungsbereich monopolisiert ist. Dies entweder, wenn es sich um personenbe- zogene Daten handelt und/oder wenn hinter der Erstellung und dem Betrieb der Datenbank ein wirtschaftliches Interesse steht, was auf den Großteil aller Datensammlungen zutreffen wird. Vollkommen zu Recht besteht daher so et- was wie ein Unbehagen an der Datenbank. So verbindet sich mit ihr im Falle personenbezogener Daten sowohl in Hinsicht auf Regierungs- als auch auf pri- vatwirtschaftliche Organisationen die Problematik einer Perforierung der Pri- vatsphäre.¯3 Zwar entwickelt sich in pluralistischen Gesellschaften allmählich eine größere Sensibilität für den Datenschutz, dennoch haben Sammlungen privater Daten geradezu notwendig einen totalitären Charakter. In Hinsicht auf demgegenüber zunächst harmloser erscheinende Datensamm- lungen durch Unternehmen liegt die Problematik vor allem in der Monopoli- sierung von häufig öffentlich verfügbarem Wissen. Hinzuzufügen ist hierbei, dass nicht jede Aggregation von Daten bereits eine Datenbank im technischen Sinne darstellt. Diese zeichnen sich üblicherweise durch die hohe Integrität der Daten und damit durch ein ausgeprägtes Qualitätsniveau aus. Häufig f ließt viel Arbeit und entsprechend viel Geld in Datenbanken ein. Konsequen- terweise wurden Datenbanken, auch wenn es sich schwerlich um ›persönliche geistige Schöpfungen‹ handelt, im Urheberschutzgesetz den ›verwandten Schutzrechten‹ subsumiert und vom Gesetzgeber mit einem eigenen Passus bedacht.¯4 Nicht-hegemoniale Datenbanken 139 Die ›Spielwiese‹ der Informationsgesellschaft Wenn nun Lev Manovich die Datenbank als symbolische Form bezeichnet, so ist nicht dieses herkömmliche Verständnis von Datenbank gemeint. Vielmehr soll der Begriff im Grunde ein isomorphes Verhältnis zwischen der Funktions- logik des Computers und dem Weltbild der Postmoderne bezeichnen.¯5 Es ist daher der Versuch, Technik und Ideologie (Weltbild) zusammenzudenken. Hie- raus resultiert bei Manovich jedoch keine (ideologie)kritische Perspektive auf die Datenbank, sondern eine, die in ihr zunächst lediglich die vorherrschende Nutzungsweise des Computers zu erblicken vermag. Diese Nutzungsweise als Datenbank schreibt sich dann wiederum in die Software ein und präfiguriert von dort aus künftige Nutzungsweisen. Überspitzt formuliert ist es – um ein Beispiel Manovichs heranzuziehen – die gängige Bildbearbeitungssoftware Photoshop, die gleichzeitig Ausdruck und Motor des postmodernen Eklektizis- mus ist, eben da sie das Arbeiten in voneinander unabhängigen Ebenen förde- re. Durch die Verwendung von Ebenen können die einzelnen Bildelemente im entsprechenden Dateiformat als voneinander unabhängig und damit als jeder- zeit wiederverwertbar gespeichert werden. Jede Photoshop-Montage ist in sich daher eine kleine Datenbank. Die Ideologie der Datenbank im manovich‘schen Sinne ist keine der Überwachung, sondern eine der Informationssynthese: »The practice of putting together a media object from already existing commercially distribu- ted media elements existed with old media, but new media technology further standardized it and made it much easier to perform. What before involved scissors and glue now involves sim- ply clicking on ›cut‹ and ›paste‹, And, by encoding the operations of selection and combinati- on into the very interfaces of authoring and editing software, new media ›legitimizes‹ them. Pulling elements from databases and libraries becomes the default; creating them from scratch becomes the exception. The Web acts as a perfect materialization of this logic. It is one gigantic library of graphics, photographs, video, audio, design layouts, software code, and texts« (Ma- novich 2002, 130). Interessanterweise hat bereits Mitte der 1980er Jahre Vilém Flusser in seinem Essay Ins Universum der technischen Bilder eine Utopie skizziert, in deren Zen- trum ebenfalls eine gigantische Datenbank steht, die er allerdings nicht als eine solche bezeichnet. In diese Datenbank sind sämtliche ›technischen Bilder‹ und mit ihnen die gesamte Kulturgeschichte eingeflossen und stehen von dort zur Verfügung, um aus ihnen neue Informationen zu erzeugen: »Drücke ich […] Tasten, so erscheinen auf dem Bildschirm […] alle je aufgestellten Mythen und alle je erdachten wissenschaftlichen Modelle, von der aristotelischen bis zur modernen Phy- 140 Harald Hillgärtner sik, von Demokrit bis Marx, von Sokrates bis Freud. All diese Modelle werde ich durch ent- sprechenden Tastendruck miteinander komputieren können, um zu sehen, wie weit sie sich decken oder einander widersprechen. Zum Beispiel kann ich ein ›katholisch-freudianisch-mar- xistisches‹ Modell aufstellen und dabei selbstredend auch eigene Informationselemente ein- bauen. […] Ich kann, bei entsprechendem Tastendruck, die Kathedrale von Reims mit dem Lin- coln Center zusammenmischen und hieraus neue Informationen synthetisieren. Oder ich kann die von Jesus verwendeten Gleichnisse in Bilder übersetzen und sie mit Bachschen Kantaten zur Deckung bringen. Kurz, das ganze Universum steht mir an meinem Terminal als eine gigantische Spielwiese bereit« (Flusser 1999, 138f.). In Flussers Szenario dienen die stetig neu produzierten technischen Bilder dem Dialog der Menschen untereinander, die so zu einer Art planetarischem ›Ge- hirn‹ verschmelzen. Seine Vorstellung weist weit über unsere Gegenwart hi- naus und ist daher im Wortsinne eine Utopie. Überaus spannend ist hierbei je- doch der Gedanke, der sich im Grunde auch bei Manovich wiederfindet, dass der Zugriff auf die Daten ebenso unbeschränkt stattfindet wie ihre Nutzung. Es ist ein nicht-hierarchisches, nicht-hegemoniales, nicht-exklusives Modell der Datenbank, das Manovich als eine unsere Gegenwart kennzeichnende symbo- lische Form bezeichnet. In diesem Sinne soll es im Folgenden darum gehen, die Datenbank zunächst nicht in erster Linie als steuerungs- und machtpolitische Instanz zu verstehen, sondern als eine Art Plattform, in die Wissen hineinfließt und die es im Gegen- zug ermöglicht, das eingespeiste Wissen uneingeschränkt zu nutzen. Es geht also um den Sonderfall von ›offenen‹ Datenbanken, dies jedoch in der Hoff- nung, hierdurch einen ungewohnten Blick auf die Datenbank als mediale Pra- xis werfen zu können. Das Wissen der Rollstuhlfahrer Im Fokus der Ausführungen soll das Open-Street-Map-Projekt stehen. Open- Street-Map (im Folgenden OSM) ist inzwischen gleich nach der Wikipedia das größte Projekt, dessen Inhalte unter einer Copyleft-Lizenz veröffentlicht sind. Das bedeutet, dass grundsätzlich jede Institution oder Privatperson das Recht hat die Daten uneingeschränkt zu nutzen, also auch abgeleitete Werke daraus zu erstellen, solange diese ebenfalls unter der gleichen Lizenz veröffentlicht werden.¯6 Hierbei gilt, dass der Datenbestand – von größeren Datenspenden etwa durch öffentliche Institutionen abgesehen (vgl. OpenStreetMap Founda- tion 2011),¯7 von den Nutzerinnen und Nutzern selbst erstellt wurde. Hinter Nicht-hegemoniale Datenbanken 141 Abb. 1: Frankfurt am Main als ›prettymap‹ - eine spielerische Umsetzung der OSM-Daten dem OSM-Projekt steht, analog zur Wikipedia, eine gemeinnützige Stiftung, die sich wesentlich über Spenden finanziert.¯8 Das OSM-Projekt verfügt in- zwischen über die doch recht beeindruckende Anzahl von 350.000 registrier- ten ›Nutzern‹, also Personen, die Daten beitragen oder beigetragen haben. Wie bei anderen größeren Plattformen des so genannten Web 2.0 ist jedoch nur eine Minderheit regelmäßig aktiv. Bei OSM sind dies gegenwärtig um die vier Prozent, was aber immer noch bedeutet, dass ungefähr 14.000 Nutzerinnen und Nutzer sich in einem nennenswerten Umfang beteiligen (vgl. OSM-Wiki 2011d). Ebenfalls wie bei anderen größeren Plattformen liegt der Schwerpunkt der Nutzung innerhalb der Industrieländer. Das heißt, dass die »freie Wiki- Weltkarte« vor allem den dicht besiedelten und wirtschaftlich reichen Teil der Welt abdeckt. Das OSM-Projekt wurde im Jahre 2004 von dem Briten Steve Coast gegrün- det, der nunmehr als Mitarbeiter bei Microsoft dafür zuständig ist, die Zusam- menarbeit zwischen OSM und der Suchmaschine Bing zu verbessern. Tatsäch- lich aktiv ist OSM jedoch erst seit 2006; seitdem steht die Infrastruktur zur Verfügung, um in größerem Stil Daten einzupflegen. OSM beinhaltet inzwi- 142 Harald Hillgärtner schen mehr als 200 Gigabyte an unkomprimierten Daten (14 Gigabyte in kom- primierter Form), dies entspricht fast einer Milliarde Punkte und fast 80 Milli- onen Wegen, was wiederum fast 24 Millionen Kilometer umfasst (vgl. Beyonav 2011). Bei den Daten handelt es sich um numerische Längen- und Breitenanga- ben, die mit Tags in alphabetischer Form versehen sind. Aus ihnen geht hervor, was sich an diesem geografischen Punkt befindet, sei es ein Radweg oder eine Straße (Way), ein Gebäude oder ein Friedhof (Area), ein Briefkasten oder eine Parkbank (Node) etc. Die Grundelemente sind der Punkt und die Strecke, die in- nerhalb von Relationen zusammengefasst werden können. So entsteht etwa ein internationaler Wanderweg mit seinen Teilstrecken oder ein Wald mit sei- nen Lichtungen. Ein Tag besteht hierbei stets aus einem Schlüssel und einem Wert, beispielsweise railway=station. Jeder Eintrag verfügt über eine eindeu- tige Nummer und verzeichnet Zeitpunkt der Erstellung sowie Username des Erstellers. Üblicherweise sind in den Tags auch die nötigen Informationen ent- halten, um das Routing zu ermöglichen, also die entsprechenden Verkehrsrege- lungen wie Einbahnstraße, Durchfahrt verboten, Anwohner frei etc. Der Nutzwert von OSM liegt damit auf der Hand: Statt der oftmals recht teuren Karten kommerzieller Anbieter stehen nun kostenfreie und tagesaktuelle Geo- daten für das Navigationsgerät oder das Smartphone zur Verfügung. Darüber hinaus sind die Daten kommerzieller Anbieter üblicherweise rigide urheber- rechtlich geschützt; für jedes Gerät wird ein eigener Lizenzschlüssel benötigt und die Daten werden meist lediglich innerhalb größerer Zeitintervalle aktua- lisiert, wobei auch hierfür in aller Regel eine weitere Lizenzgebühr fällig wird. Solcherlei Unannehmlichkeiten fallen bei OSM weg. Ein Problem bei OSM ist allenfalls, dass die Datenlage in weniger besiedelten Regionen teilweise recht dünn ist, auch wenn die Abdeckung stetig zunimmt. Neben diesem Gebrauchs- wert erscheint OSM aber als eher unspektakulär. Zu ergänzen wäre höchstens noch, dass OSM rohe Daten anbietet, mit denen die Nutzerinnen und Nutzer an- stellen können, was sie wollen, etwa auch und gerade mit verschiedenen Rou- ting-Algorithmen experimentieren, die Daten in Computerspielen einsetzen oder sie anderweitig künstlerisch umsetzen. Hiervon abgesehen erscheint OSM für eine medientheor etische Perspektive unergiebig, zumal sich hier, etwa im Unterschied zur Wikipedia, (üblicherweise) keine ideologischen Streitereien, keine Edit-Wars, keine diskursiven Hegemonien finden. Hier geht es nicht um Deutungshoheiten, da die Einträge in OSM auf Fakten beruhen, die unserer physischen Umwelt entnommen und daher verifizierbar sind. Das OSM-Wiki vermerkt hierzu relativ knapp: Nicht-hegemoniale Datenbanken 143 Abb. 2: Eine Visualisierung des ›Surveillance‹-Tags in OSM: Überwachungskameras in der Innenstadt Hannovers »At the core, ›verifiability‹ is that everything you do can be demonstrated to be true or false […]. […] From a given scenario, a tag/value combination is verifiable if and only if independent us- ers when observing the same feature would make the same observation every time. For a user’s tagging to be verifiable, it is desirable to have objective criteria for tagging. This principle ap- plies to any observable characteristic which is a matter of fact, be it numerical or descriptive – a concrete road surface, a red brick building, etc.« (OSM-Wiki 2011e). Sicherlich wird man sich darüber streiten können, ob es sich bei einem Klinker- bau tatsächlich um rote oder nicht eher vielleicht doch braune Steine handelt, um das Beispiel aus dem Zitat aufzugreifen – aber das sind Nebensächlich- keiten. Der Großteil der Datenbankeinträge ist verifizierbar: Etwas Bestimmtes oder Bestimmbares befindet sich an diesem geografischen Punkt oder nicht. Gerade aber weil die Lage hier so eindeutig ist, lohnt es sich vielleicht den- noch einen medientheoretisch interessierten Blick darauf zu werfen. Als Aus- gangspunkt hierfür soll zunächst Sybille Krämers Monografie Medium, Bote, Übertragung dienen, der sie den vielsagenden Untertitel Kleine Metaphysik der Medialität gegeben hat. Hierin versucht sie, unter anderem in Anlehnung an 144 Harald Hillgärtner Hans-Dieter Bahr, den Begriff des »Boten« für eine Bestimmung dessen frucht- bar zu machen, was ein Medium ist. Krämer geht es bekanntlich darum dem technikzentristischen Zweig der Medientheorie etwas entgegenzusetzen; da- her betont sie die abbildende Seite der Medien, in der diese, ähnlich dem Bo- ten, hinter der übermittelten Botschaft zurücktritt, sich zum Verschwinden bringt. Der Kronzeuge für diesen Effekt ist für Krämer die Karte. Diese sei in- nerhalb des Mediensystems recht deutlich der abbildenden Seite zuzuschla- gen. Sie bringt das Territorium, das sie referenziert, eben nicht hervor, son- dern bildet es im Idealfall maßstabsgetreu ab. Wäre es anders, wäre die Karte schlicht und ergreifend dysfunktional, sie würde es nicht ermöglichen ein Ziel erreichen zu können. »Auf eine zuerst einmal unproblematische Weise können wir sagen, dass Karten zu lesen heißt, Kenntnisse zu gewinnen über etwas, das nicht von der Natur einer Karte ist: In dieser Hinsicht ist die Botschaft der Karte geprägt durch Referenz. […] Sowohl, dass wir Karten falsch lesen kön- nen, wie auch, dass Karten tatsächlich ›falsch‹ sein können, dass es als ein ›Einspruchsrecht‹ des Territoriums gegenüber der Karte gibt, zeugt davon, dass das Narrativ der Transparenz unserem praktischen Kartengebrauch eingewoben ist. […] In dieser elementaren Form fungiert die Karte tatsächlich wie ein Botschafter, der zwischen einem Nutzer und einem Territorium […] vermit- telt. Und das wird die Karte umso besser tun, je transparenter, objektiver, neutraler es etwas, das außerhalb seiner selbst liegt, vor Augen stellt« (Krämer 2008, 306f.). Die medientheoretische ›Botschaft‹ der Karte ist in diesem Sinne ihre Hetero- nomie. Sie steht nicht für sich selbst, sondern verfügt über eine verlässliche Re- ferenzfunktion. Der ganz und gar pragmatische Nutzwert solcher Projekte wie OSM ist daher ihr ›mediales‹ Kennzeichen. Gleichzeitig weist Sybille Krämer in ihrer kleinen Metaphysik der Medialität aber auch auf die konstituierende Kraft der Karte hin. Sie habe die Potenz ein Weltbild entstehen zu lassen und daher fraglos eine »machtpolitische Funkti- on« (ebd., 324). Die Karte entwirft etwa den Nationalstaat als territoriale Ein- heit und befördert damit die Vorstellung einer ebensolchen kulturellen Abge- schlossenheit, die jedoch außerhalb der Karte im strengen Sinne nicht existiert. Genereller formuliert, visualisiert die Karte etwas, das in dieser Form gar nicht gesehen werden kann; es ist ein »nichtmenschlicher Standpunkt«, eine »apolli- nische Perspektive, in der sich Karten uns darbieten« (ebd.) und als eine solche visualisiert sie Abstraktes. Spannend wird es nun, wo mittels ›digitaler Karten‹, Krämer bezieht sich hier ausschließlich auf Google Earth bzw. Google Maps (vgl. ebd., 327ff.), auf eine ganz neue Art und Weise Sichtbarkeit hergestellt werden kann und darüber zu einer Pluralisierung der Repräsentation eingeladen wird. Nicht-hegemoniale Datenbanken 145 Abb. 3: Eine Karte zu den Stolpersteinen in Frankfurt am Main Überaus deutlich lässt sich dies an OSM zeigen. Hier findet sich kein abschlie- ßender Katalog – oder sollte es besser heißen: keine abschließende Taxonomie? – welche geografischen Daten erfasst werden sollen und welche nicht.¯9 Das heißt, dass es im Fall von OSM den einzelnen Nutzerinnen und Nutzern über- lassen bleibt, welche Tags sie definieren und darüber als relevant einstufen. So enthalten die verschiedenen länder- beziehungsweise sprachspezifischen OSM-Wikis zwar recht umfassende Listen mit Tags mitsamt den dazugehörigen Attributen, doch findet sich dort ebenso der Hinweis, dass diese Listen keinen ausschließlichen Charakter haben. Das englischsprachige OSM-Wiki vermerkt dazu: »You can assign ›tags‹ (›keys‹ and ›values‹) to any point (node), street (way), area (closed ways) or relation. You can find a list of suggested tags on the Map Features page. It is recommended that you take a good look at that page and familiarise yourself with the tags which are most wi- dely accepted and recognized by most tools/renderers. Note though that any keys and values are valid and may be employed in OpenStreetMap, and the Map Features page is subject to chan- ge, with proposals being voted upon« (OSM-Wiki 2011a). 146 Harald Hillgärtner Die bereits recht umfangreiche Liste der auf der entsprechenden Wiki-Seite verzeichneten Tags ist durch die Nutzer erweiterbar, wobei dazu aufgefordert wird die Erweiterungen zunächst zu diskutieren und zur Abstimmung zu stel- len. Hier kommt es nun zu akzeptierten und zurückgewiesenen Map-Features. Sieht man sich jedoch die Liste der zurückgewiesenen Tags an, so fällt auf, dass diese in aller Regel deswegen keine Akzeptanz finden, da sie entweder redun- dant sind, also von einem bereits gebräuchlichen Tag abgedeckt werden, oder aber da sie besser in eine andere Kategorie passen und im Grunde nur eine an- dere Benennung erfahren müssen (vgl. OSM-Wiki 2011c). Wichtig ist jedoch der Hinweis, dass die existierenden Map-Features lediglich eine Art Minimalkon- sens darstellen, der nicht einklagbar ist. Dennoch erhöht natürlich eine Aufli- stung im Wiki die Wahrscheinlichkeit, dass ein Tag von anderen Nutzerinnen und Nutzern verwendet wird: »Das Vorschlagsverfahren ist darauf ausgelegt, neue Ideen zu dokumentieren, sie mit der OSM- Community zu entwickeln und zu diskutieren. […] Es gibt keine Einschränkung, welche Tags in OSM benutzt werden können. […] Es ist immer Sache der Mapper, was sie benutzen möch- ten, dementsprechend können natürlich auch Vorschläge umgesetzt werden, über die noch gar nicht abgestimmt wurde. Allerdings wird ein gut ausgearbeiteter Vorschlag vermutlich auf mehr Anklang stoßen. […] Erst auf das Abstimmungsergebnis zu warten, bevor man anfängt, neue Tags zu benutzen, ist nicht nötig. […] Solange niemand protestiert, ist das meistens in Ord- nung und ein Zeichen dafür, dass es dem allgemeinen Konsens entspricht. Schließlich sollen die Map Features dokumentieren, was benutzt wird« (OSM-Wiki 2011b). Dieses überaus liberale Modell birgt zwar eine grundlegende Problematik in Hinsicht auf die Datenqualität, sodass in OSM tausende falsch verwendete oder lediglich einmalig verwendete Tags zu finden sind, die bei einer restrik- tiveren Regelung sicherlich recht einfach auszufiltern wären, gleichzeitig wird es aber hierdurch möglich, dass so etwas wie ein Long Tail kartografischer Re- präsentationen entstehen kann, um diesen von Chris Anderson geprägten Be- griff anzuführen. Fassbar wird hiermit eine bestimmte Eigenschaft der laut Manovich auf die Datenbank zurückzuführenden »logic of selection«: Anstel- le eines ›Entweder/Oder‹ tritt hier das ›Sowohl/Als auch‹. OSM ist damit weni- ger dem ›Syntagma‹ machtvoller Repräsentation als vielmehr dem ›Paradigma‹ unterschiedlicher Repräsentationen verpflichtet, um an dieser Stelle struktu- ralistische Termini eher metaphorisch zu verwenden. Die bei OSM mit Abstand umfangreichste Erweiterung gegenüber herkömm- lichen Straßenkarten ist – wenig erstaunlich – das Cycleway-Tag, für das es gar einen eigenen Renderer gibt, der die Fahrradwege und -routen sowie die rad- fahrspezifische Infrastruktur eigens hervorhebt.¯10 Wichtig für Radfahrer ist Nicht-hegemoniale Datenbanken 147 Abb. 4: Zusätzliche Informationen zu den Stolperstein-Einträgen zudem, dass bei einem Großteil der Wirtschaftswege die Beschaffenheit des Fahrbahnbelags und dessen Zustand vermerkt ist. Praktikabel wird so eine wei- tere Ausdifferenzierung der Karte in Wege, die mit einem Straßenrennrad be- fahrbar sind und in Wege, die eine robuste Bereifung voraussetzen. Fast über- f lüssig zu erwähnen ist, dass sich neben dem Cycleway-Tag analoge Kategorien etwa für Reiter oder Wanderer finden.¯11 Etwas weniger erwartbar als Wegekarten für Radfahrer ist etwa das Wheelchair- Tag, mit dessen Hilfe verzeichnet werden kann, wo sich Zugangserleichte- rungen für Rollstuhlfahrer beziehungsweise für Gehbehinderte befinden oder eben nicht befinden. Meist handelt es sich hierbei um Haltestellen des öffent- lichen Personennahverkehrs, die entsprechend gekennzeichnet sind. Minde- stens ebenso wichtig für diese Nutzergruppe ist das Barrier-Tag, mit dem sich unter anderem Treppen im öffentlichen Raum ausweisen lassen, sodass grund- sätzlich eine auf die Erfordernisse dieser Nutzergruppe angepasste Karte und damit auch ein entsprechendes Routing möglich ist. Doch es sind nicht allein spezielle Bedürfnisse bestimmter Nutzergruppen, sondern ebenso sehr mitun- ter exotische Interessen, die sich im offenen OSM-Modell abbilden lassen. 148 Harald Hillgärtner Als ein solches ›Interesse‹ lässt sich etwa ein Datenbankeintrag wie das Club- Mate-Tag auffassen, das für die Bundesrepublik Deutschland immerhin 150 Lokalitäten vermerkt, in denen Club-Mate ausgeschenkt oder verkauft wird. Auf der Europakarte lässt sich darüber hinaus ablesen, dass sogar in Madrid oder auf Mallorca Club-Mate erhältlich ist.¯12 Etwas weniger kurios ist hinge- gen der Eintrag zu hauseigenen Bierbrauereien, wobei hier – sei es Zufall oder nicht – eine deutliche Konzentration in Süddeutschland zu beobachten ist.¯13 Spannender sind aber solche Tags, mit dem sich Überwachungskameras in Ge- bäuden, auf öffentlichen Plätzen oder zur Verkehrsüberwachung geo-referen- zieren lassen. Hier fanden sich innerhalb Deutschlands im Frühjahr 2011 be- reits um die 5000 Einträge und es entsteht hierüber im Grunde so etwas wie eine politische Karte, die die Problematik der Überwachung des öffentlichen Raumes überaus eindrücklich sichtbar werden lässt. So dokumentiert etwa im Falle Hannovers die lokale OSM-Community eine geradezu bedrückende Viel- zahl an Kameras.¯14 Als ein weiteres Beispiel sollen noch die ›Stolpersteine‹ ge- nannt werden. Hierbei werden von dem Bildhauer Gunther Demnig europaweit Pf lastersteine vor den Häusern von Opfern des Nationalsozialismus installiert, die über ihre Person und ihr Schicksal Auskunft geben. In OSM nun wird, unab- hängig von Demnig, eine Kartografie der exakten Orte angelegt, an denen Stol- persteine zu finden sind.¯15 Eine Auflistung von Beispielen ließe sich nahezu beliebig fortsetzen. Auf je- den Fall aufschlussreich sind die beiden Webseiten Tagwatch und Tagstat, über die sich die gebräuchlichsten ebenso wie die ungebräuchlichsten OSM-Tags in Erfahrung bringen lassen.¯16 Aufgeschlüsselt nach Ländern lässt sich darü- ber hinaus ein Eindruck gewinnen, welchen Aspekten die jeweiligen Commu- nitys einen hohen Stellenwert beimessen. Die meiste Arbeit im Open-Street- Map-Projekt wird derzeit noch darauf verwendet die vorhandenen Straßen und Wege möglichst vollständig zu erfassen, vor allem aber immer mehr Informati- onen einzupflegen, die die Genauigkeit des Routings, also die Möglichkeit sich die ideale Strecke zwischen zwei oder mehreren Punkten errechnen zu lassen, erhöhen soll. Perspektivisch steckt im Modell dieser quelloffenen Straßenkarte weitaus mehr als lediglich eine kostenfreie Alternative zu kommerziellen Produkten. Viel- mehr folgt OSM eher dem Datenbankparadigma mit der entsprechenden Mög- lichkeit, die zur Verfügung stehenden Einträge um beliebige Felder (Tags) zu erweitern und diese wiederum auf eine beliebige Art und Weise auszuwerten. Im Kern ist OSM eine Art ›Wissensdatenbank‹, in der sich eine unüberschaubar große Menge an lokalem ebenso wie an nutzergruppenspezifischem Wissen Nicht-hegemoniale Datenbanken 149 ansammelt. Dies unterscheidet OSM zunächst recht deutlich vom seinem we- sentlich bekannteren und prestigeträchtigen Pendant Google Earth. Der Blick durchs Schlüsselloch Im Jahre 2004 kaufte Google die US-amerikanische Firma Keyhole auf. Diese war erst ein paar Jahre zuvor, nämlich 2001, gegründet worden. Während der amerikanischen Invasion im Irak im Jahre 2003 erlangte Keyhole größere Medi- enaufmerksamkeit, als verschiedene einflussreiche Fernsehsender beziehungs- weise Networks wie CNN, ABC und CBS deren Produkt Earth Viewer nutzten, um animierte ›Kamerafahrten‹ (FlyBy) über irakisches Territorium präsentieren zu können (vgl. Maney 2003). In aller wünschenswerten Deutlichkeit tritt dabei vor Augen, an welche hegemonialen Kontexte eine solch herrschaftliche Per- spektive anschließt. Der Name der Firma hat jedenfalls eine etwas ältere Tra- dition: Seit 1959 schickten die USA nahezu 300 Spionagesatelliten in den Orbit, die zwar unterschiedliche Bezeichnungen trugen und über unterschiedliche technische Fähigkeiten verfügten, die jedoch alle unter dem Projekt mit dem bezeichnenden Namen Keyhole entwickelt und gestartet wurden (vgl. Leiten- berger 2011). Mit der Wahl des Namens stellten sich die Firmengründer sicher- lich nicht zufällig in diese Tradition, wurde die Unternehmensgründung doch durch Venture-Kapital der US-amerikanischen Auslandsspionage CIA ermögli- cht und waren doch die namhaftesten Kunden der Firma die US-Armee und das amerikanische Verteidigungsministerium (vgl. Keyhole Inc. 2007). Es ist nun beileibe nicht erstaunlich, dass die Technologie von Google Earth so explizit mi- litärischer Natur ist; das Gegenteil wäre weitaus erstaunlicher. Kurz: Googles virtueller Globus ist – mit Friedrich Kittler formuliert – nichts anderes als ein mehr oder minder ziviler »Missbrauch von Heeresgerät«.¯17 Dieser zivile Missbrauch ist in erster Linie voyeuristischer Art, wobei die Google Earth-Erweiterung Street-View, die nicht nur, aber vor allem in der BRD Daten- schützer und Verbraucherschutzministerinnen auf den Plan rief, es lediglich auf den Punkt bringt. Das Schlüsselloch, durch das Nutzerinnen und Nutzer bli- cken, wird hier fast schon greifbar und bleibt im zentralen Google-Earth-Da- tenaustauschformat, der Keyhole Markup Language, auch als Begriff erhalten. Fast schon als habe der Internetkonzern ein schlechtes Gewissen, pflegt Google ein Programm namens Google-Earth-Outreach, bei dem gemeinnützigen Grup- pen die Technologie nahe gebracht wird, um so etwas wie ein Bewusstsein für globale Probleme wie dem Erhalt des Regenwaldes oder von Flüchtlingsbewe- gungen zu erzeugen.¯18 Obschon Google-Earth zweifelsohne eine didaktische 150 Harald Hillgärtner Funktion haben mag, so liegt dennoch die zentrale Faszination auf dem – um es neutraler und sicherlich auch fairer zu formulieren - ›Erkunden‹ des Pla- neten. Google bietet hierbei innerhalb seines Produkts bereits mehrere Layer an, die die Satellitenaufnahmen mit ergänzenden Abbildungen aus der haus- eigenen Fotoplattform Panoramio oder aus der ebenfalls hauseigenen Video- plattform YouTube verknüpfen. Etwas versteckter findet sich zudem ein Layer, dessen Aktivierung Wikipedia-Artikel zu den verschiedensten Sehenswürdig- keiten einblendet. Für Bildungszwecke lassen sich historische Karten als Ebe- nen einbinden oder, ebenfalls als eigenständiger Layer, erscheinen optional dreidimensionale Gebäude – meist Wolkenkratzer – die größtenteils von den Nutzerinnen und Nutzern der Plattform erstellt worden sind. Ferner lassen sich die Google-Maps-Straßenkarten hinzuschalten und darüber navigieren. Ein zentrales Konzept ist, wie bereits deutlich geworden sein sollte, die Ver- knüpfung verschiedener Datenbestände, wobei diese jeweils unabhängig von- einander bestehen bleiben. Googles virtueller Globus zeichnet sich daher vor allem durch das bereits von Manovich dem Datenbankparadigma zugeordnete Konzept der Modularität aus. Hierüber wird es dann auch möglich, dass sich die rigide urheberrechtlich geschützten Datenbestände, bestehend aus Satelliten- bildern und Straßenverläufen, gegenüber einer auf ihnen operierenden medi- alen Praxis öffnet. So hat sich in den zurückliegenden Jahren rund um Google Earth eine Community gebildet, die interessante Fundstellen innerhalb der Sa- tellitenbilder mittels KML-Dateien aufzufinden hilft oder aber geografisch be- ziehungsweise historisch interessante Punkte zu Sammlungen zusammen- stellt. Dabei entsteht etwa eine Weltkarte der Geburtsorte von Serienmördern oder eine Karte von Geistererscheinungen in der kanadischen Provinz Ontario. Für US-amerikanische Patrioten findet sich hingegen eine Sammlung mit den Wohnorten der Träger der Medal of Honor, für Fußballfans eine KML-Datei mit wichtigen Fußballstadien weltweit und für Hobby-Archäologen ein Verzeichnis gesunkener Schiffe. Die Liste ließe sich, wie bereits bei den verwendeten OSM- Tags, beliebig weiterführen. Auf Google-Earth-Hacks, der größten Community- Seite, finden sich inzwischen viele tausend solcher KML-Dateien.¯19 Auch hier entsteht so etwas wie eine Datenbank, bei der sich die Nutzerinnen und Nutzer nicht an etablierte Relevanzkriterien halten müssen und daher ei- gene Interessen verfolgen können. Der Unterschied liegt freilich darin, dass die Google-Earth-Hacks kein integraler Teil des Google-Earth-Systems sind und da- her lediglich eine Art Erweiterung darstellen, die ganz nebenbei den Marktwert eines börsennotierten Unternehmens zu steigern helfen. Nicht-hegemoniale Datenbanken 151 Das Datenbankparadigma zwischen Technokratie und Wissenssynthese Um nun zum Ausgangspunkt zurückzukehren: Die Faszination Paolo Uccellos, die ihm den Schlaf und seiner Frau die Geduld raubte, findet sich – wenn auch freilich in anderer Form – in der Nutzung von Onlinedatenbank(en) wieder. Aus Manovichs Perspektive haben die Computernutzerinnen und -nutzer jede erdenkliche Freiheit alle verfügbaren Daten zu verwenden. Mit den Worten Flussers: Das »ganze Universum« steht ihnen als »eine gigantische Spielwiese bereit«. Google-Earth ebenso wie Open-Street-Map lässt sich in diesem Sinne als Teil einer bestimmten dispositiven Anordnung begreifen, die sich – mitun- ter mehr als einem irgendwie gearteten kartografischen Projekt – dem Daten- bankparadigma verdankt. Die resultierenden Kartendarstellungen wären vor diesem Hintergrund eher als Visualisierungen der dahinter stehenden Daten- bestände aufzufassen, die ihrerseits bestimmte Wissensformen repräsentie- ren. Nur mit einer solchen Wissensdatenbank wird es möglich, mittels Open- MTB-Map vom heimischen PC aus eine Alpenüberquerung auf durch andere Mountainbiker klassifizierten Trails, also abseits gängiger Routen und ange- passt an die eigene körperliche sowie fahrtechnische Leistungsfähigkeit, ver- lässlich zu planen: Es ist ein hoch spezialisiertes Wissen, das hier in die Daten- bank eingeflossen ist und weiterhin einfließt. Doch es bleibt zu fragen was sich hierüber für eine Auseinandersetzung mit der Datenbank als mediale Praxis lernen lässt. Kurz: Was ist dieses Datenbank- paradigma abseits utopischer Entwürfe? Natürlich müsste die Antwort hie- rauf knapp und bündig lauten: Sortieren, Sammeln, Suchen. Datenbanken be- inhalten Datenfelder und diese geben ein Raster, eine Taxonomie vor, die dann mit den entsprechenden Einträgen versehen wird, wobei unweigerlich die Pro- blematik in Erscheinung tritt, dass Taxonomien diskret sind und somit Diffe- renzen einebnen. So ließe sich formulieren, dass bereits die Technologie der Da- tenbank eine Klassifizierung erzwingt, eine Ordnung herstellt, die wiederum Grundvoraussetzung dafür ist, dass mittels der Verknüpfung von Daten Regel- mäßigkeiten/Normalitäten ebenso wie Unregelmäßigkeiten/Abweichungen gefunden werden können. David Gugerli eröffnet in seinem Essay Suchma- schinen. Die Welt als Datenbank genau diese Spannbreite zwischen der Her- stellung von Normalität und der Identifikation von ›Devianz‹, indem er Robert Lembkes Was bin ich? und Eduard Zimmermanns Aktenzeichen XY als ›Such- maschinen‹ beschreibt (vgl. Gugerli 2009). Geht es hier noch um das nicht-ex- ternalisierte Wissen des Rateteams beziehungsweise des Fernsehpublikums, das abgefragt und miteinander kombiniert wird, so finden sich in den ande- 152 Harald Hillgärtner ren beiden im Essay vorgestellten ›Suchmaschinen‹ bereits ganz manifeste Be- zugnahmen auf computergestützte Datenbanken. Im Zentrum steht hier das durch die Kybernetik befeuerte Phantasma eines hoch effizienten Steuerungs- handelns auf Basis strukturierter Datenbestände im Bundeskriminalamt be- ziehungsweise in Unternehmensdatenbanken (SAP, Oracle). Die (Wunsch)Vor- stellung ist, dass nun auch technisch nicht versierte Nutzerinnen und Nutzer, seien dies Polizisten oder Manager im unmittelbaren Zugriff auf unüberschau- bar große Wissensbestände, ebenso f lexible wie transparente Entscheidungen treffen können. Auch wenn dies Gugerli nicht so formuliert, so erscheint das Datenbankparadigma als das Projekt, alles Wissen, sowohl das in den Archi- ven lagernde als auch das in den Köpfen der Menschen befindliche, zu erschlie- ßen. Datenbanken aggregieren Daten; hierüber allerdings treten Phänomene – sei es Normalität, sei es Devianz – mitunter zuerst in Erscheinung. In einem epistemologischen Sinne stellen Datenbanken bestimmte Phänomene her. Um auf den Begriff der symbolischen Form zurückzukommen: Die Datenbank ist eine Technologie, die Ordnung herstellt und darüber Abweichung erst sicht- bar werden lässt: »Die Geschichte der Suchmaschinen ist die Geschichte der Übersichten, die sie erzeugen, der Prioritäten, die sie festlegen, und der Differenzen, die sie schaffen zwischen dem, was dazuge- hört, und jenem, was ausgeschlossen wird. Ihre Geschichte ist deshalb eminent politisch, weil Suchmaschinen die Aufmerksamkeit ihrer Nutzer regelhaft einschränken – beim Aufbau ihrer Datenräume, bei der Strukturierung ihrer Programme und bei der Präsentation ihrer Resultate« (Gugerli 2009, 89). Es ist nun ohne weiteres möglich, für den Begriff der ›Suchmaschine‹ den der ›Datenbank‹ einzusetzen, um ihre problematische Seite auch jenseits perso- nenbezogener Datensammlungen sichtbar werden zu lassen. In das technische Dispositiv der Datenbank ist – mit Gugerli formuliert – immer schon eine wahr- nehmungslenkende und damit nicht zuletzt steuerungspolitische Funktion eingeschrieben. Die Datenbank wäre noch in einem ganz anderen Sinne als symbolische Form zu fassen: Als Ausdruck eines ›technokratischen‹ Zeitalters. Deutlich wird dies in Gugerlis Essay vor allem am Beispiel des Bundeskriminal- amtes und seines Leiters Horst Herold, der mittels computergestützter Metho- den die polizeiliche Arbeit zu Beginn der 1970er Jahre auf eine neue Grundla- ge stellen wollte: »Herold hatte […] gefordert, Angaben, die von den Personalien, Familien-, Wohn-, Rechts-, Be- sitz- und Sozialverhältnissen bis zu kriminalbiologischen und kriminalsoziologischen Daten rei- chen, künftig in einer systematisierten, maschinengerechten Form zu erfassen und mit größter Nicht-hegemoniale Datenbanken 153 Genauigkeit rationale Einsichten in die Ursachen und auslösenden Kräften des Verbrechens zu gewinnen« (ebd., 54f.).¯20 Resultat dieser ›Einsichten‹ sollte eine Kybernetisierung der Polizei sein: »Re- pression sollte durch Prävention ersetzt werden, Behauptung durch Dynamik, Befehl durch Steuerung, Erfahrung durch Sachlogik und Hypothesen durch Pro- gnosen« (ebd., 53). Es ging also auch darum, so lässt es sich vielleicht zugespitzt formulieren, das Versprechen der Technik zu nutzen und Vernunft an die Stel- le von Willkür zu setzen. Doch dieses Projekt der Kybernetisierung kippte in den späten 1970er Jahren im Zuge der Schleyer-Entführung und der damit ein- hergehenden Rasterfahndung mit ihrem uneingeschränkten Abgleich von Da- ten aus unterschiedlichsten Quellen in das Schreckgespenst lückenloser staat- licher Überwachung um (vgl. ebd., 65ff.). Dieser Aspekt der ›kybernetisierten Polizei‹ dominiert seither den Diskurs um Datenbanken. Zu fragen bleibt vor diesem Hintergrund, ob eine Perspektive auf die Thematik der Datenbank als mediale Praxis, die den Aspekt der ›Wissenssynthese‹ in den Fokus stellt, nicht immer auch problematisch erscheinen muss. Denkbar wäre nun freilich eine Differenzierung in unterschiedliche Datenbankpraxen vorzunehmen, die sich anhand spezifischer Datenbestände herausbilden. Allerdings müsste dann of- fen bleiben, welchen erkenntnisleitenden Stellenwert eine (Re)Formulierung der Datenbank als symbolische Form hat. Vielleicht lässt sich aber dennoch eine entscheidende Gemeinsamkeit jeglicher Datenbank festhalten: Sie sind wesentlich eine Aggregierungstechnik und in aller Regel umso wertvoller, je mehr Datensätze sie enthalten. Sie haben einen ›verschlingenden‹ und damit auch einen archivierenden Charakter. Informa- tionen, die in sie eingeflossen sind, stehen dort für die weitere Informations- synthese zur Verfügung. Diese ist gewissermaßen der ›mediale Imperativ‹ von Datenbanken. OSM ist in einer bestimmten Hinsicht als ein solch verschlingendes System zu verstehen, in das die Welt hineinfließt und von dort für die vielfältigsten – auch ludischen – Synthesen zur Verfügung steht.¯21 Als (neo)geografisches Projekt hat OSM zwar einen dezidiert praktischen Nutzwert, zentral aber ist der Aspekt der Wissensrepräsentation ebenso wie der der Wissenserzeugung. Es geht um das Wissen der Radfahrer, Wanderer und Rollstuhlfahrer eben- so wie um das der Club-Mate-Trinker, das nicht lediglich abgebildet, sondern gleichzeitig in dieser Form und Sichtbarkeit hervorgebracht wird. OSM ist als offene Datenbank wichtige Grundvoraussetzung für einen Long Tail der Kar- ten. Hiermit steht OSM in einer Reihe mit den unterschiedlichsten Onlineda- tenbanken, bestehen ihre Inhalte nun aus Musik, Fotografien, Videos, Enzy- 154 Harald Hillgärtner klopädieartikeln, Bastelanleitungen, wissenschaftlichen Aufsätzen oder eben geografischen Daten, kurz: aus Wissen in seinen unterschiedlichsten medialen Aggregatzuständen. Anmerkungen 01˘ Im Original lautet Uccellos Ausspruch: »Oh, che dolce cosa è questa prospettiva!« (Panofsky 1992, 160). 02˘ In einem herkömmlichen informationstheoretischen Sinne würde statt von ›Wissen‹ von ›Daten‹ ausgegangen, die erst durch verschiedene Operationen am Datenbestand zu so et- was wie ›Wissen‹ höher qualifiziert werden müssten. Ich hingegen lehne mich hier an den nicht-hierarchischen Wissensbegriff von Helmut F. Spinner an (vgl. Spinner 1994, 24ff.) 03˘ Besonders problematisch sind in dieser Hinsicht eugenische Datensammlungen (vgl. dazu den Beitrag von Uwe Wippich in diesem Band). 04˘ Vgl. §§ 87a-e des UrhG. 05˘ Wobei Manovich den Computer wesentlich als eine Datenbank versteht und den (kreati- ven) Umgang mit ihm als Operationen auf einer Datenbank. 06˘ Derzeit findet bei OSM der Wechsel von einer der Creative-Commons-Lizenzen zur Open Database License statt, die den urheberrechtlichen Status von Datenbanken im Unterschied zu Werken der Literatur, der bildenden Kunst und die der Musik besser abbildet. 07˘ Solche Datenspenden sind in den USA etwa Straßendaten vom statistischen Bundesamt, Küstenverläufe von der NGA oder Ländergrenzen von der CIA. In der BRD hinge- gen haben verschiedene Kommunalverwaltungen Katasterdaten beigesteuert, das Landesvermessungsamt Bayern Luftbilder, das Land Nordrhein-Westfalen gar das gesamte Straßennetz (vgl. Wikipedia 2011). 08˘ Neben Geldspenden bezieht OSM auch ›Sachspenden‹ in Form von Serverkapazität. 09˘ Nebenbei bemerkt: Dies ist ein ganz zentraler Unterschied zur Wikipedia, die ja gerade wegen ihrer inzwischen recht rigiden Relevanzkriterien bei nicht wenigen ihrer Autorinnen und Autoren Frustration hervorruft. 10˘ Vgl. [http://opencyclemap.org/]; letzter Aufruf: 29.11.2011. 11˘ So kümmert sich etwa Johannes Formann in seinem Projekt der ›Radkarte‹ um eine mög- lichst übersichtliche Darstellung radfahrspezifischer Gegebenheiten. Vgl. [http://www. formann.de/]. Abgestimmt für das Mountainbike finden sich entsprechende Karten unter [http://openmtbmap.org/de/], für Reiter unter [http://www.wanderreitkarte.de/], um nur ein paar bekanntere Beispiele zu nennen. Letzter Abruf am 29.11.2011. 12˘ Vgl. [http://cccmz.de/matekate/index.html]; letzter Abruf: 29.11.2011. 13˘ Vgl. [http://hausbräu.openstreetmap.de/]; letzter Abruf: 29.11.2011. 14˘ Vgl. [http://osm.leitstelle511.net/]; letzter Abruf: 29.11.2011. Nicht-hegemoniale Datenbanken 155 15˘ Vgl. [http://www.netzwolf.info/kartografie/osm/stolpersteine]; letzter Abruf: 29.11.2011. 16˘ Vgl. [http://tagwatch.stoecker.eu], [http://tagstat.telascience.org]; letzter Abruf: 29.11. 2011. 17˘ So der Titel eines Aufsatzes Friedrich Kittlers (vgl. Kittler 1991); letzter Aufruf: 29.11.2011. 18˘ Vgl. [http://earth.google.com/intl/de/outreach/]; letzter Abruf: 29.11.2011. Wirklich be- merkenswert ist der Slogan des Projekts: »Sie möchten die Welt verbessern. Wir möchten Ihnen dabei helfen«. 19˘ Vgl. [http://www.gearthhacks.com/]; letzter Abruf: 29.11.2011. 20˘ Gugerli zitiert hier Horst Herold. 21˘ Zwei ›spielerische‹ Visualisierungen der OSM-Daten finden sich unter [http://prettymaps. stamen.com] und [http://8bitcity.com]; letzter Abruf: 29.11.2011. Literatur Beyonav (2011) Geo-Analytics on OpenStreetMap Road Data, [http://www.beyonav.com/ sites/beyonav/osmanalytics.aspx]; letzter Abruf: 29.11.2011. Cassirer, Ernst (1923) Der Begriff der symbolischen Form im Aufbau der Geisteswissen- schaften. In: Vorträge der Bibliothek Warburg, Bd. 1, Vorträge 1921-1922. Hrsg. v. Fritz Saxl, Berlin/Leipzig, S. 11-39. Flusser, Vilém (1999) Ins Universum der technischen Bilder, 6. Aufl., Göttingen: European Photography. Gugerli, David (2009) Suchmaschinen. Die Welt als Datenbank, Frankfurt am Main: Suhr- kamp. Keyhole Inc. (2007) Defense & Intelligence, [http://web.archive.org/ web/20070712093750/] [http://www.keyhole.com/body.php?h=industries&t=defense]; letz- ter Abruf: 29.11.2011 Kittler, Friedrich (1991) Rockmusik – ein Mißbrauch von Heeresgerät. In: Medien und Ma- schinen. Literatur im technischen Zeitalter. Hrsg. v. Theo Elm & Hans H. Hiebel. Freiburg: S. 245-257. Krämer, Sybille (2008) Medium, Bote, Übertragung. Kleine Metaphysik der Medialität. Frankfurt am Main: Suhrkamp. Leitenberger, Bernd (2011) Foto Aufklärungssatelliten der USA, [http://www.bernd-lei- tenberger.de/kh-1.shtml]; letzter Abruf: 29.11.2011. Maney, Kavin (2003) Tiny tech company awes viewers, USA Today, [http://www.usatoday. com/tech/news/techinnovations/2003-03-20-earthviewer_x.htm]; letzter Abruf: 29.11.2011. Manovich, Lev (2002) The Language of New Media. Cambridge (Mass.): MIT Press. 156 Harald Hillgärtner OSM Foundation (2011) [http://www.osmfoundation.org/]; letzter Abruf: 29.11.2011. OSM-Wiki (2011a) Editing Standards and Conventions, [http://wiki.openstreetmap.org/ wiki/Editing_Standards_and_Conventions]; letzter Abruf: 29.11.2011. OSM-Wiki (2011b) DE:Proposed Features, [http://wiki.openstreetmap.org/wiki/ DE:Proposed_features]; letzter Abruf: 29.11.2011. OSM-Wiki (2011c) Rejected Features, [http://wiki.openstreetmap.org/wiki/Rejected_fea- tures]; letzter Abruf: 29.11.2011. OSM-Wiki (2011d) Stats, [http://wiki.openstreetmap.org/wiki/Statistics]; letzter Abruf: 29.11.2011. OSM-Wiki (2011e) Verifiability, [http://wiki.openstreetmap.org/wiki/Verifiability]; letzter Abruf: 29.11.2011. Panofsky, Erwin (1992) Die Perspektive als »symbolische Form«. In: Aufsätze zu Grundfra- gen der Kunstwissenschaft. Hrsg. v. Hariolf Oberer & Egon Verheyen. Berlin: Spiess, S. 99-167. Spinner, Helmut F. (1994) Die Wissensordnung. Ein Leitkonzept für die dritte Grundord- nung des Informationszeitalters. Opladen: Leske + Budrich. Wikipedia (2011) OpenStreetMap, [http://de.wikipedia.org/wiki/OpenStreetMap]; letzter Abruf: 29.11.2011. Nicht-hegemoniale Datenbanken 157 158 Tobias Conradi Prüfen und Bewerten – Redaktionelle Medien als Gatekeeper der Datenbank? Noch bis vor zehn Jahren hätte die Vorstellung »Es war eine verdammt große Tabelle. 92201 Zeilen journalistische Berichterstattung über Daten- voller Informationen. Jede enthielt detaillierte Da- banken zu betreiben wahrscheinlich hochgra- ten zu einem militärischen Vorfall in Afghanistan. dige Irritation verursacht. Umgangssprachlich Die ›Kriegstagebücher‹ von Wikileaks, sozusagen. konnotierte der Begriff ›Datenbank‹ zuallererst […] Es waren die Aufzeichnungen von Soldaten im eine Menge von Zahlen und Tabellen, eine Re- Kampfeinsatz, und sie ergaben ein ungeschminktes ferenzierung trockener und nüchterner Daten- Bild des Krieges, inklusive Militärjargon und unfass- sätze, deren stringente Ordnung und bürokra- barer Einzelheiten« tische Organisation der Attraktivität einer im Simon Rogers, Redakteur des Guardian (2011, 118). schulischen Unterricht gelösten Mathematik- aufgabe in nichts nachzustehen schien. Gleich- zeitig liefern Datenbanken mindestens seit den 1960er Jahren eine Grundlage von Nachrichtenberichterstattung: Als Segmente innerhalb des Fernsehpro- gramms oder der Tageszeitung, etwa im Wetterbericht oder der Börsenbericht- erstattung sowie – indirekt und rückwirkend – in der statistischen Erhebung von Einschaltquoten zwecks Quantifizierung der Ereignishaftigkeit spezi- fischer Sendungen. Heute dagegen scheint eine Bezugnahme auf die Inhalte von Datenbanken, die weit über einzelne Segmente hinausgeht, eine übliche Anforderung an den Journalismus zu sein – nicht zuletzt infolge der Auswei- tung computergestützter Datenverarbeitung in allen Lebensbereichen. Im Zentrum meines Beitrags stehen verschiedene Formen dieses Umgangs klassischer ›redaktioneller Medien‹¯1 mit nutzergenerierten und datenbank- basierten Medienformationen. Am Beispiel der Referenzierung sozialer Netz- werke und der Plattform WikiLeaks durch ›traditionelle Nachrichtenmedien‹ lässt sich eine grundlegende Ambivalenz aufzeigen: Auf der einen Seite steht der Verweis auf die ›Unmittelbarkeit‹ nutzergenerierter Medien und – im Falle von WikiLeaks – von eigentlich geheimen Informationen und Dokumenten. Auf der anderen Seite wird die Notwendigkeit eines ›Filters‹ oder ›Gatekeepers‹ be- tont, der Auswahlprozess des ›Prüfens und Bewertens‹ anhand journalistischer Kriterien, durch den die zur Verfügung stehenden Informationen eingeordnet und kontextualisiert werden. Redaktionelle Medien als Gatekeeper der Datenbank? 159 Die These meines Beitrags lautet, dass das Konzept des ›Gatekeeping‹ dabei weniger als ›positives‹ analytisches Konzept zu betrachten ist, sondern als Ele- ment einer ›diskursiven Praxis‹. Aufbauend auf einem Konzept von Praktiken – verstanden als Konglomerat von kollektiven Sinnmustern, Artefakten und Handlungsabläufen in ihrem Vollzug – zeigt sich hier die Wirksamkeit von Da- tenbanken als Element einer sozial-diskursiven Konstellation. Die Bezugnahme redaktioneller Medien auf Datenbanken steht somit in Verbindung mit gesell- schaftlichen Machteffekten. Ausgehend von einem kurzen Überblick über das traditionelle ›Gatekeeper‹- Konzept der Kommunikationswissenschaft werden in einem ersten Zugriff ei- nige Elemente der Bezugnahme redaktioneller Medien auf soziale Netzwerke vorgestellt. Hieran anschließend wird das Versprechen, das sich in dieser Be- zugnahme offenbart, mit Hartmut Winklers Konzept der Wunschkonstellation und hinsichtlich der Frage nach der Generierung von Authentizität gegenge- lesen. An einem zweiten Beispiel wird der Umgang redaktioneller Medien mit der Onlineplattform WikiLeaks behandelt. Abschließend werden einige Über- legungen zum ›Gatekeeping‹ als rhetorischem Konzept und zur Repräsentation der Datenbank als medialer Praxis angestellt. Journalisten als Gatekeeper Das Modell des ›Gatekeepers‹ stammt ursprünglich aus der Soziologie und geht auf Kurt Lewin zurück, der in den 1940er Jahren erforscht hat, welche Mit- glieder von amerikanischen Privathaushalten in Kriegszeiten über die Zutei- lung von Lebensmitteln entschieden haben (Lewin 1947). Von dieser Studie aus- gehend wurde das Modell erstmals durch David Manning White auf Prozesse der Medienkommunikation übertragen (White 1997 [1950]). Am Beispiel des Redakteurs einer amerikanischen Lokalzeitung betont White den subjektiven Einfluss einzelner Journalisten für die Selektion der Meldungen von Nachrich- tenagenturen. Die persönlichen Erfahrungen und Einstellungen des ›Gatekee- pers‹ sowie die von ihm angenommenen Publikumserwartungen hätten, so White, entscheidenden Einfluss auf die Auswahlprozesse innerhalb von Nach- richtenredaktionen. »Through studying his [the gate keepers; TC] overt reasons for rejecting news stories from the press associations we see how highly subjective, how based on the ›gate keeper´s‹ own set of experiences, attitudes and expectations the communication of ›news‹ really is« (White 1997 [1950] , 71). 160 Tobias Conradi Ausgehend von Whites Studie hat das Modell des ›Gatekeepers‹ einen festen Stellenwert innerhalb der Nachrichtentheorie erhalten und wurde verschie- dentlich auf die Analyse der Nachrichtenauswahl von – insbesondere amerika- nischen – Printmedien angewendet (vgl. Frerichs 2005, Shoemaker/Vos 2009). ›Gatekeeping‹ wird hier als analytische Kategorie zur Beschreibung der Rolle von Journalisten im Prozess der Auswahl und Begrenzung von Informationen verwendet. Journalisten wird die Rolle von ›Schleusenwärtern‹ und somit die Aufgabe zugewiesen, die als Nachrichtenfluss konzipierte Informationsmen- ge zu begrenzen. An diesem Modell ist über die Jahre hinweg viel Kritik geäußert worden, die ich hier nur schlagwortartig mit aufrufen möchte: Zunächst ist es ganz allgemein die Fluss-Metaphorik der Nachrichtenkommunikation, die auf eine schlichte nachrichtentechnische Modellierung eines Sender-Kanal-Empfänger-Konzepts zurückgeht. Hierzu bestehen auch in der kommunikationswissenschaftlichen Diskussion selbst durchaus distanzierte Begutachtungen: Stefan Frerichs kri- tisiert in seinem Eintrag »Gatekeeping« aus dem Handbuch Journalismus und Medien beispielsweise, dass Redakteure als ›unabhängige Einzelgänger‹ be- trachtet würden, während die sozialen Hintergründe und Einflüsse auf ihre Auswahlentscheidungen unbeachtet blieben. Die Vorselektion, die von Nach- richtenagenturen vorgenommen wird, werde nicht berücksichtigt, sondern die se würde als »passiver und neutraler Zufluss« (Frerichs 2005, 74f., Herv. i.O.) betrachtet. Grundsätzlich werde die ›soziale Konstruktion von Wirklichkeit‹ vernachlässigt. Insbesondere dieser letzte Punkt scheint bedeutend, wenn Fre- richs ausführt: »Journalistische Schleusenwärter haben nicht allein die Aufgabe, Informationen auszuwählen, sondern müssen sie auch für die Mediennutzer verständlich machen und sinnvoll einordnen. Dies e Konstruktion von Wirklichkeit […] ist nicht beliebig, denn sie ist nur sozial mit anderen möglich und beruht auf den Objektivitätsnormen im sozialen System (Nachrichten-)Journalis- mus« (Frerichs 2005, 75f.). Die Stoßrichtung der Kritik – hier aus Perspektive der Journalismus-Forschung geäußert – scheint klar: Journalisten wählen nicht nur aus, sondern ihre Kern- aufgabe ist die des Prüfens und Bewertens; der Einordnung vor dem Hinter- grund von ( journalistischen) Gütekriterien. Frerichs macht zwar auf die Re- lativität dieser ›Objektivitätsnormen‹ aufmerksam und betont, dass diese interkulturell sowie entsprechend der »beruflichen und gesellschaftlichen Rahmenbedingungen« (ebd., 76) von Journalisten sehr verschieden sein kön- nen. Dennoch hält er aber an dem Terminus fest und sieht Möglichkeiten der Optimierung des ›Gatekeeper‹-Konzepts in Forschungen zur »Wahrnehmungs- Redaktionelle Medien als Gatekeeper der Datenbank? 161 psychologie« und der »Mediaforschung« – von denen er sich eine bessere Ein- schätzung der Ursachen für die Auswahlentscheidungen der ›Schleusenwär- ter‹ verspricht (ebd., 76f.). Im Fokus der Analyse bleiben aber auch bei Frerichs weiterhin die Journalisten und ihre Entscheidungsprozesse.¯2 Anhand des Um- gangs redaktioneller Medien mit nutzergenerierten sozialen Netzwerken ei- nerseits und WikiLeaks andererseits, möchte ich im Folgenden aufzeigen, dass ›Gatekeeping‹ nicht nur ein kommunikationswissenschaftliches Konzept der Analyse, sondern auch ein eminenter Teil der Selbstbeschreibung redaktioneller Medien ist. Das Modell ist damit ein fundamentales Element diskursiver Medi- enpraxis. Gerade im Zusammenhang neuer datenbankbasierter Medien wird ›Gatekeeping‹ von etablierten redaktionellen Medien als ›self-fulfilling pro- phecy‹ beschworen, als Taktik, mit der redaktionelle Medien ihre (Macht-) Funktion vor dem Hintergrund vermeintlicher Sachzwänge plausibilisieren. Blogs, Twitter, Facebook – Soziale Netzwerke als Daten- banken redaktioneller Medien Es mag zunächst verwundern soziale Netzwerke außerhalb ihres Konzernkon- textes und technischen Hintergrundes als Datenbanken zu begreifen. Schließ- lich zeichnet Facebook oder Twitter gerade aus, dass sie ihren Datenbankcha- rakter auf Ebene der Benutzeroberfläche nicht offen zur Schau stellen. Sie erscheinen hier vielmehr als Liste in der Zeit, die, scheinbar chronologisch, suk- zessive mit Inhalten gefüllt wird und sich nicht durch optimale Suchfunkti- onen auszeichnet. Dennoch verwenden redaktionelle Medien die sozialen Netzwerke als Infor- mationsdatenbanken. Dabei scheinen vor allem die hohe Geschwindigkeit der Informationsverbreitung sowie die vermeintlich ›unverfälschte Authentizität‹ der Nutzerkommentare die sozialen Netzmedien zu einem attraktiven Infor- mationslieferanten für Nachrichtenredaktionen zu machen. Insbesondere an- gesichts von Krisensituationen und Katastrophenereignissen greifen Nach- richtenredaktionen auf Informationen aus sozialen Netzwerken zurück: Nach dem Tsunami in Südost-Asien 2004 waren es beispielsweise weniger professi- onelle Nachrichtenagenturen, als vielmehr die Touristen vor Ort, die via You- Tube als Bilderlieferanten der Redaktionen dienten (vgl. Krause 2007). An- gesichts des Hurrikans Katrina wurde auf »die privaten Internettagebücher, die Weblogs« (ARD Tagesthemen, 29.08.2005) verwiesen. Die Authentizität der nutzergenerierten Informationen wird hier noch ungebrochen beschwo- ren: »Auch wenn die Weblogs oft nur eigene Hilf losigkeit dokumentieren, sie 162 Tobias Conradi sind direkter, unmittelbarer, ungeschminkter »Sie sahen die Bilder ja schon jetzt eine Weile […] , als so manch professionell distanzierter Medi- wir schauen aber noch mal uns sie detailliert an enmensch« (ARD Tagesthemen, 29.08.2005). An- [sic]: Und da sehen wir, dass sich die ersten Mel- schläge im indischen Mumbai,¯3 die Notwasse- dungen tatsächlich bestätigen, und die ersten Mel- rung eines Flugzeugs im Hudson-River¯4 oder dungen kamen über Twitter, über diesen Kurz-Nach- die Live-Berichterstattung des Nachrichtensen- richtendienst, ein Schüler schrieb: ›Bei mir an der ders n-tv über einen Amoklauf in Ludwigshafen Berufsschule offenbar Amoklauf‹. Und das bestä- 2010¯5 – der Rückgriff auf nutzergenerierte In- tigt sich wohl jetzt durch die Meldungen, aber auch formationen spielt eine immer größere Rolle in durch die Bilder die uns erreichen, über Twitter, Bil- aktueller Nachrichtenberichterstattung. Je mehr der wie dieses hier« (n-tv, 18.02.10). der Rückgriff auf datenbankbasierte Netzmedi- en jedoch in die Routinen der Berichterstattung eingebettet wird, desto häufiger offenbart sich ein deutliches Paradoxon in ih- rer Kontextualisierung: Den Informationen aus sozialen Netzwerken werden besondere Unmittelbarkeit und Authentizität zugesprochen, während gleich- zeitig die spezielle Aufgabe der Journalisten hervorgehoben wird, die Validität derselben Informationen zuallererst zu verifizieren. Angesichts der als »Arabischer Frühling« bezeichneten Demonstrationen in Nordafrika im Frühjahr 2011 erreicht Facebook seinen Durchbruch als promi- nente Quelle der Nachrichtenberichterstattung. Die redaktionellen Medien würdigen die Aufmerksamkeit – die sie dem sozialen Netzwerk selbst erst er- teilen – durch eine Kommentierung von Facebook-Fanpages. (Abb. 1, 2, 3, 4) Ein Beispiel hierfür stellt ein Schaltgespräch der Tagesthemen nach Köln dar, wo eine Korrespondentin »für die ARD die Geschehnisse in Ägypten im Inter- net und in den Blogs« (ARD Tagesthemen, 11.02.2011) verfolge. Diese Beobach- tungen sind laut dem Tagesthemen-Moderator »deshalb wichtig«, »weil es ja als Jugendrevolte begann, man spricht auch von der Facebook-Revolution, im gesamten arabischen Raum, und man muss sich auch vor Augen führen: Mehr als die Hälfte aller Ägypter sind unter 25 Jahre« (ebd.). Wichtig scheinen die »Diskussionen«¯6 auf den ›Fanpages‹ aber auch und insbesondere als ent- scheidendes Element der Berichterstattung über die Proteste: Die Internetkorrespondentin – in ihrer Gestik unschwer als kongeniale Ver- tretung der ARD-Wetterfee erkennbar – steht vor einem überdimensionierten Touch-Bildschirm mit einer Vielzahl geöffneter Tabs und führt aus: »[…] das Netz ist eigentlich ein Spiegelbild dessen, was wir im Moment sehen auf dem Tahrir-Platz in Kairo«. Dabei präsentiert sich das ›Revolutionswetter‹ als sta- tische Internetseite, auf der nicht viel zu erkennen ist – vor allem aber nicht die Diskussionen, von denen die Korrespondentin zu berichten weiß. Die ›Fan- page‹ bleibt eine opake Oberfläche, ein klassisches Hintergrundbild, dem so- Redaktionelle Medien als Gatekeeper der Datenbank? 163 Abb. 1: Die Facebook-Fanpage »We are all Khaled Said« in einer Korrespondenten-Schalte, ARD Tagesthemen, 11.02.2011 mit allein über seine Adressierung weitreichende Evidenz zugeschrieben wird. Die Korrespondentin betont die Aktualität der entsprechenden Informationen, zeigt wiederholt auf einzelne Beiträge und führt aus: »Ich hab in den vergangenen Minuten immer wieder reingeguckt, auf die Facebook-Seiten, vor allen Dingen auf die Seite mit der alles begann, und zwar die Seite ›We are all Khaled Said‹. Das ist der berühmte Blogger, mit dem alles angefangen hat. Jener Blogger, der in Alexandria von Polizisten so sehr gefoltert worden ist, dass er gestorben ist. Mit dieser Seite hat die Protestbe- wegung angefangen. Und was sehen wir jetzt hier? Die Menschen, die an den Diskussionen hier teilnehmen sind wütend, sie sind fassungslos […]« (ARD tAgesthemen, 11.02.2011). Hier wird deutlich wie der Ursprung der Aufstände auf die Netzwerkkommuni- kation via Facebook zurückgeführt wird: »Die Seite, mit der alles begann«, sagt die Korrespondentin, abstrahiert die Protestbewegung von ihren politischen Forderungen nach Aufhebung des seit 1982 geltenden Ausnahmezustands, der Bekämpfung von Korruption, Arbeitslosigkeit und Armut¯7 und reduziert sie auf die Herstellung einer Facebook-Fanpage (vgl. Leistert/Röhle 2011, 13ff.). Fer- ner lässt sich erkennen, was die besondere Attraktivität der Informationen aus sozialen Netzwerken ausmacht: Es sind insbesondere ›ungefilterte Emo- tionen‹, die den Inhalten der Datenbank des sozialen Netzwerks zugespro- chen werden. Charakteristisch ist drittens die zum Ausdruck gebrachte Skep- sis, wenn die Korrespondentin schließlich zu dem Ergebnis kommt, es handele 164 Tobias Conradi sich »um eine Situation, die wirklich eskaliert. Zumindest, wenn man dem Netz glaubt« (ARD Tagesthemen, 11.02.2011). Darüber hinaus dient das soziale Netzwerk als Bilderlieferant. Auf die Frage des Moderators »Wie bewerten die Diskussionen denn die Ge- genwehr sowohl der [Präsidenten-]Garde, aber auch die Rolle der Armee in Ägypten?« (ebd.; Erg. TC) aktiviert die Korrespondentin ein Tab mit einer (unbewegten) Fotografie und führt aus: »Wir sehen hier Bilder von […] einem Solda- ten, mitten auf dem Tahrir-Platz heute in Kairo. Er wird immer wieder umschlossen von den De- monstranten, immer wieder versuchen die De- monstranten die Armee auf ihre Seite zu ziehen« (ebd.; Herv. TC). Nicht unproblematisch scheint diesbezüglich, dass die Fotografie weder das ›Ziehen‹ noch die Wiederholung desselben zu visualisieren ver- mag. Diese fehlende Bewegung substituiert die Korrespondentin daher durch ihre eigene Kör- persprache, indem sie ihre Arme zunächst vor Abb. 2-4: Bewegungssimulation der Face- ihrem Körper ausstreckt und schließlich mit book-Korrespondentin: »[…] immer wieder ›fassenden‹ Händen in Richtung ihres Oberkör- versuchen die Demonstranten die Armee pers zieht. Die sprachliche Redewendung des auf ihre Seite zu ziehen«, ARD Tagesthemen, ›jemanden auf seine Seite Ziehens‹ wird somit 11.02.2011 metaphorisch in die Gestik der Moderatorin um- codiert; das kontextarme Bild kollektivsymbo- lisch als Metonymie der Verbrüderung zwischen Demonstranten und Militär aufgeladen. An diesem Beispiel lässt sich deutlich die bereits angesprochene Ambivalenz der Einordnung von sozialen Netzwerken in redaktionellen Medien erkennen: Während das Netz auf der einen Seite als »Spiegelbild« der Vorgänge im ›real- life‹ dargestellt wird, die von Nutzern hochgeladenen Bilder zu Bewegungssi- mulationen umgedeutet werden und suggeriert wird, dass sich im Netz der ›Ursprungsort‹ der Revolution befinde, bleibt am Ende der ›Rest-Zweifel‹ – »zu- mindest wenn man dem Netz glaubt« –, ob die Informationen aus dem Internet tatsächlich zuverlässig sind. Einerseits Emotions- und Authentizitätsgarant, andererseits nicht ohne die professionelle Vermittlung kompetenter Journa- Redaktionelle Medien als Gatekeeper der Datenbank? 165 listen zu verwenden, stellen die sozialen Netzwerke eine scheinbar direkte Brücke zwischen den Vorgängen vor Ort und der Repräsentation der Nachrich- tenmedien dar – solange die professionelle Einordnung gewährleistet bleibt. Gerade die größte Stärke sozialer Netzwerke hinsichtlich der Imagination von Authentizität – die Unmittelbarkeit der Informationsübermittlung – ist nur über ihre unübersehbare Schwäche zu haben: Die Informationen sind so un- mittelbar, dass sie nicht überprüft werden können. Im Folgenden werde ich eine Möglichkeit vorstellen, diese ›Verschiebungen‹ der Praxis redaktioneller Medien durch den Umgang mit Datenbankgenerierten sozialen Netzwerken in einen größeren kulturellen Rahmen zu stellen. Wunschvorstellungen und Authentizität – Utopien der Sus- pendierung gesellschaftlicher Vermittlung Bereits 1997 hat Hartmut Winkler den Diskurs des Docuverse, des Datenuniver- sums, als eine Wunschkonstellation beschrieben, die letzten Endes »Neuaufla- ge einer etablierten Utopie [ist; TC]: der Utopie, die gesellschaftliche Vermitt- lung zu suspendieren« (Winkler 1997, 213): »Das Datenuniversum verspricht […] eine universelle und einheitliche Sphäre des Symbolischen zu errichten. Das Datenuniversum tritt mit dem Versprechen an, jene universelle Vermittlung zu leisten, die die anderen Medien offensichtlich verfehlt haben […]« (Winkler 1997, 55). Der Argumentationsweg Winklers – im Folgenden notwendig verknappt skiz- ziert – verläuft dabei ausgehend von der Sprachkrise um 1900. Am Beispiel von Hofmannsthals »Ein Brief«¯8 argumentiert Winkler, dass in der Sprachkrise nicht etwa Zweifel an sprachlichen Konventionen hervortreten, sondern dass es sich vielmehr um eine Störung der Signifikatbildung – des »Umschlag[s] von Diskurs in System« (Winkler 1997, 198) – handelt. Erkennbar sei dies an der Tat- sache, dass die Krise an »Allgemeinbegriffen« – Geist, Seele und Körper – ihren Ausgangspunkt nimmt (ebd., 195). Eine Errettung aus dieser ›Krise des Signifi- kats‹ versprechen zunächst die technischen Bilder, die in Aussicht stellen, die Abstraktion der Sprache durch Konkretion zu überwinden (ebd., 207). Schließ- lich geraten aber auch die technischen Bilder in eine Krise, da sich zeigt, dass auch diese wiederum Prozessen der Konventionalisierung unterworfen sind: »Ihren konkreten Differenzen zum Trotz gehen die Bilder in jene Maschine ein, die Diskurs in System umarbeitet und aus konkreten Diskursereignissen Struk- turen extrahiert‹ (ebd., 211). Die Vorstellung, dass das Datenuniversum das Ziel 166 Tobias Conradi verfolge, gesellschaftliche Zusammenhänge ›eins zu eins‹ – als ›Spiegelbild‹ – abzubilden, »[…] ist ein unmittelbares Äquivalent dessen, was im Fall der technischen Bilder die radikale Konkretion leisten sollte; sollten doch auch dort die Dinge für sich selber stehen und sich selbst vertreten, im Sinne einer ›unmittelbaren‹ und damit unverfälschten Repräsentation. Allem Au- genschein zum Trotz also handelt es sich [beim Datenuniversum] um eine (wenn auch ausgefal- lene) Variante von Ikonizität« (Winkler 1997, 214; Erg. TC). Bereits über diese knappe Darstellung wird nachvollziehbar, dass Winklers Ausführungen sich treffend auf die Position der ARD-Internetkorresponden- tin übertragen lassen, die die Einträge auf Facebook-Seiten als »Spiegelbild« der Vorgänge auf dem Tahrir-Platz bezeichnet. Im Nachrichtenkontext handelt es sich allerdings nicht um eine Substitution der Bilder durch ›multimediale‹ Datenbanken, denn natürlich geht es weiterhin auch um Bilder von Ereignis- sen aus Gebieten mit ›beschränktem Zugang‹.¯9 Beide Prozesse, die Bildge- bung einerseits und die Herkunft aus der ›sozialen Datenbank‹ andererseits, wirken vielmehr innerhalb der interdiskursiven Ebene der Nachrichten zusam- men: Die Bilder erhalten ihre Authentizität, die ›Unmittelbarkeit‹ einer ›unver- fälschten Repräsentation‹, erst vor dem Hintergrund der Nutzergenerierung. Die Tatsache, dass Blogs, Twitter, Facebook etc. als Zugang imaginiert werden, an dem die ›1:1 Landkarte des Datenuniversums‹ sogar mit Bildern dienen kann, adelt eben diese Bilder¯10 retrospektiv durch ihre Herkunft aus der ›sozialen Datenbank‹, dem ›sozialen Echtzeit-Archiv‹. Winklers Beschreibung einer kollektiven Wunschkonstellation, nach der das In- ternet das Versprechen der technischen Bilder aufnimmt und suggeriert, eine universelle Sprache anzubieten, lenkt das Augenmerk auf eine unerwartete Kopplung zweier – intuitiv zunächst gegensätzlich erscheinender – Medien. In dem Rückgriff redaktioneller Medien auf die sozialen Netzwerke lässt sich eine vergleichbare Bewegung nachzeichnen, bei der die ›soziale Datenbank‹ den Zu- gang zu einer unvermittelten, authentischen und kollektiven Emotionssamm- lung verspricht. Wikileaks und die Utopie der Datenbank Neben der bis hier beschriebenen Thematisierung sozialer Netzwerke hat ein anderes Thema Ende 2010 und Anfang des Jahres 2011 eine besondere Aufmerk- samkeit der redaktionellen Medien genossen: WikiLeaks. Redaktionelle Medien als Gatekeeper der Datenbank? 167 WikiLeaks ist eine Organisation, die eine Webseite betreibt, auf der ›Whist- leblower‹ bisher geheime Dokumente der Öffentlichkeit zugänglich machen können.¯11 Zunächst hat WikiLeaks unredigierte Rohdaten zur Verfügung ge- stellt. Die Enthüllungen besitzen dabei eine relativ große Bandbreite: Ausge- hend von Berichten über Korruption in Kenia wurden beispielsweise Pager- Nachrichten vom 11. September 2001 ins Netz gestellt oder die Planungsdaten der in einer Massenpanik endenden Love-Parade in Duisburg. Seit Anfang 2010 hat WikiLeaks nun verschiedene ›Scoops‹ gelandet – also aufsehenerregende Veröffentlichungen: Angefangen bei dem Video eines US-Hubschrauber-An- griffs im Irak-Krieg, durch den unter anderem zwei Reuters-Mitarbeiter und zehn bis 16 weitere Personen ums Leben gekommen sind,¯12 über ›Kriegstage- bücher‹ aus dem Afghanistan-Krieg, bis zu Front-Berichten aus dem Irak-Krieg. Der letzte große ›Scoop‹ war die Veröffentlichung von amerikanischen Bot- schaftsdepeschen Ende des Jahres 2010. Angesichts dieser letzten vier groß en ›Leaks‹ hat sich die Herangehensweise geändert und die Daten wurden nicht mehr eigenverantwortlich auf der Internetseite wikileaks.org als ›Rohdaten‹ hochgeladen. Stattdessen hat WikiLeaks seit 2010 exklusive Vereinbarungen mit großen Medienhäusern¯13 getroffen und die entsprechenden Dokumente erst parallel zu den Veröffentlichungen dieser Printmedien online gestellt. Auffällig ist nun die spezifische ›Rechtfertigungsrhetorik‹, die die beteiligten Nachrichtenmagazine bezüglich ihres Umgangs mit den Daten und mit Wiki- Leaks in Anschlag bringen. Sie heben stets ihre eigene verantwortliche Rolle in der Veröffentlichung der diplomatischen Depeschen hervor. So schreibt bei- spielsweise der Spiegel in seinem ›Spiegel-Spezial‹: »Wie zuvor hat WikiLeaks das Material den Medien zur Prüfung und Analyse überlassen. Der sPIegeL hat dieses Material über Monate geprüft, so wie er es in der Vergangenheit mit Materi- al aus jeder Quelle getan hat und auch in Zukunft tun wird. Mit WikiLeaks gab es lediglich eine Abstimmung über den Termin der Veröffentlichung und eine weitere über die Schwärzung von Namen, deren Träger sonst womöglich um ihre Freiheit oder ihr Leben fürchten müssen« (Spie- gel Special 01/2010; 11). Eine vergleichbare Beschreibung, die zugleich einen stärkeren Fokus auf eine mögliche Zurückhaltung von Informationen legt, findet sich in einer Reporta- ge der New York Times vom 26.01.2011: »Your obligation, as an independent news organization, is to verify the material, to supply con- text, to exercise responsible judgement about what to publish and what not to publish and to make sense of it. That is what we did« (Keller 2011; NY Times 26.01.2011). 168 Tobias Conradi Das, was die Mainstreammedien hier betonen beziehungsweise die Aufgabe, die sie sich selbst zuschreiben, ist in anderen Worten ein ›Gatekeeping-Pro- zess‹. Zwei Kernaufgaben lassen sich in diesen Zuschreibungen erkennen: Zum einen die Herstellung öffentlicher Aufmerksamkeit und zum anderen eine Rati- onalisierung der Information. Bei der Herstellung öffentlicher Aufmerksamkeit handelt es sich um ein klas- sisches ›Agenda-Setting‹ der Massenmedien: Durch ihre Auflage und Reich- weite kann davon ausgegangen werden, dass die Zeitungen ein wesentlich grö- ßeres und weiter gestreutes Publikum erreichen, als dies eine von ominösen Hackern betriebene Webseite (derzeit) könnte. Darin ist zugleich auch eine Kernmotivation für die Zusammenarbeit aus der Perspektive von WikiLeaks zu erkennen, das sich von einer Kooperation mit den renommierten und weltweit größten (Print-)Medienhäusern eine größere Aufmerksamkeit für ihre ›Enthül- lungen‹ versprochen haben dürfte. Während aber WikiLeaks, öffentlich vertre- ten durch Julian Assange, zu diversen Anlässen von seinen »Medienpartnern« gesprochen hat, wird zugleich deutlich, dass die Vertreter der redaktionellen Medien auf Distanz zu WikiLeaks gehen, wenn sie ausführen, WikiLeaks sei eine ›Quelle wie jede andere‹. Die zweite Kernaufgabe lässt sich zusammenfassen als eine Rationalisierung der Informationen.¯14 Hier geht es darum – so legen es die Selbstbeschrei- bungen der redaktionellen Medien nahe – ›Wichtiges‹ von ›Unwichtigem‹ zu unterscheiden. Ferner geht es um eine Differenzierung von ›gefährlichen‹ und ›ungefährlichen‹ Informationen. Bereits im Rahmen der ›Afghan War Diaries‹ war immer wieder die Rede von afghanischen Informanten, die durch eine teil- weise Schwärzung der Dokumente geschützt werden sollten. Angesichts der Veröffentlichung der amerikanischen Botschaftsdepeschen beschreibt die New York Times, dass ein ehemaliger US-Marine beim Umgang mit militärisch bri- santen Informationen geholfen habe. Dabei wird im folgenden Zitat ersicht- lich, dass die zur Verfügung stehende Datenbank selbst einen bestimmenden Einfluss auf die Art und Weise der Redigierung ausgeübt hat. Auch beim Bear- beiten der Dokumente musste demnach eine »Logik der Datenbank« – in dem Sinn, dass den Zusammenhängen einzelner Datensätze besondere Relevanz beigemessen wird – beachtet werden, um keine militärisch brisanten Informa- tionen zu publizieren: »If a dispatch noted that Aircraft A left Location B at a certain time and arrived at Location C at a certain time, Chivers [der beteiligte Ex-Marine; TC] edited it out on the off chance that this could teach enemy forces something useful about the capabilities of that aircraft« (Keller 2011, NY Times 26.01.2011). Redaktionelle Medien als Gatekeeper der Datenbank? 169 In der Analyse der Daten geht es ferner darum ›Richtiges‹ von ›Falschem‹ zu unterscheiden und das zugrundeliegende Material zu kontextualisieren. Der Spiegel schreibt diesbezüglich: »Fast fünf Monate lang haben etwa 50 Spiegel- Redakteure und -Dokumentare das Material gesichtet, ausgewertet und die Depeschen in ihren Kontext gestellt« (Spiegel Special 01/2010; 3). Etwas unklar bleibt dabei allerdings, worauf sich das Possessiv-Pronomen ›ih- ren‹ bezieht – schließlich ist der Kontext nicht etwas absolut Gegebenes, son- dern ist selbst erst Resultat der Berichterstattung.¯15 Deutlich wird hier auch eine unterschiedliche Einordnung der Validität der Informationen durch Wiki- Leaks einerseits und durch die an den Veröffentlichungen beteiligten Medi- enhäuser andererseits: Während die Medienhäuser die Unterscheidung von ›richtigen‹ und ›falschen‹ – und somit auch ›wahren‹ oder ›unwahren‹ – Infor- mationen erst herausarbeiten müssen, scheint in der Rhetorik von WikiLeaks die Wahrheit der entsprechenden Informationen allein durch die Geheimhal- tung verbürgt. Eine Rhetorik, der sich schließlich – im Anschluss an ›Prüfung‹ und ›Bewertung‹ und in einer paradoxen Wendung – auch die Medienhäuser anschließen. Der Umgang der Mainstreammedien mit WikiLeaks zeigt, wie diese sich selbst als alleiniger, autorisierter ›Gatekeeper‹ herausstellen. Es lassen sich aber sehr wohl positive oder produktive von eher repressiven Machteffekten unterschei- den, die unter der traditionellen Perspektive des ›Gatekeeping‹ nicht beach- tet werden würden. Auf der Seite der repressiven Machtausübung steht die Einschränkung des Zugangs zu den Rohdaten. Unabhängig davon, ob durch die Schwärzung von Namen und das Zurückhalten von bestimmten Informationen tatsächlich einzelne Personen geschützt werden, handelt es sich hierbei um die Produktion einer Hierarchie in der Informationsökonomie. Die Journalisten der betreffenden Medienhäuser unterstreichen an dieser Stelle ihren privile- gierten Status im Zugang zu Informationen und berufen sich auf eine aktive ›Gatekeeper‹-Funktion, indem sie das Prinzip von WikiLeaks gleichzeitig nut- zen und unterminieren. Im Prinzip der Rationalisierung der Information findet sich aber auch ein pro- duktiver Machteffekt der ›Gatekeeper‹-Problematik. Die Entscheidung über den ›Kontext‹ der Informationen und die Frage von ›gefährlichem und unge- fährlichem‹ Wissen aus den Dokumenten der Datenbank lassen sich vielleicht noch unter dem Aspekt des Ideologie-Verdachts diskutieren. Die Frage, wie die Informationen aus den Dokumenten überhaupt gesichtet werden können, deutet aber zweifellos darauf hin, dass es hier einer interessierten Gruppe an Personen bedarf, um die schiere Informationsmenge handhabbar zu machen. Auch dies ist sicherlich ein weiterer Hintergrund für die Kooperationsbemü- 170 Tobias Conradi hungen aus Sicht von WikiLeaks, das als Organisation mit einer Handvoll Mit- gliedern ganz offensichtlich nicht mehr in der Lage war, die Informationen auf- zubereiten, die ihr zur Verfügung standen. Gleichzeitig sind mit dieser Form der Rationalisierung aber wiederum diverse Einschränkungen verbunden: So verlinkt beispielsweise der Spiegel in seiner Online-Ausgabe nicht auf die Rohdaten, die auf der Seite von WikiLeaks bereit- stehen. Es entsteht der Eindruck, dass die Rationalisierung als Ergebnis eine Neutralisierung des ›Informations-Brokers‹ WikiLeaks nach sich zieht. Die Rede von WikiLeaks als »Quelle« deutet bereits darauf hin, welche Bedeutung die journalistischen Formate WikiLeaks zuteil werden lassen – oder lassen möch- ten: WikiLeaks ist ein Zulieferer, aber das Monopol für ›gesicherte Information‹ bleibt weiterhin auf Seite der redaktionellen Medien. In den Worten des Spie- gels: »Der Spiegel verhielt sich gegenüber WikiLeaks nicht anders als in ähn- lichen Fällen. Informationen wurden geprüft und bewertet. Das kann so – auch im Zeitalter des Internets – nur der klassische Journalismus leisten« (Spiegel Special 01/2010, 3). WikiLeaks ist beim Spiegel nur ein sekundärer ›(Special-)Effekt‹. Den von Twit- ter-Nutzern hochgeladenen Bildern oder Facebook-Kommentaren vergleich- bar, spielt WikiLeaks nur noch die Rolle eines externen ›Evidenz-Markers‹, auf den gestenreich verwiesen werden kann, dessen Funktion aber im selben Au- genblick, in dem er angerufen wird, negiert scheint.¯16 Dass die Informati- onen aus einer Datenbank stammen, wird zwar benannt und auch der kryp- tische Aufbau der Datensätze wird an einem Beispiel vorgeführt (Abb. 5), aber der Nutzen der spezifischen Datensätze ist nur mehr der einer hinter dem journalistischen Kontext stehenden und damit quasi-außerdiskursiven Refe- renz. Rolf F. Nohr beschreibt den Mechanismus diskursiver Evidenzproduktion folgendermaßen:¯17»Die diskursive Evidenz erzielt ihre Plausibilität aus der Auslagerung des Beweises. Die diskursive Evidenz inszeniert ihre Geltungsfä- higkeit mit Hilfe eines ›externen Referenten, auf den der Diskurs dann verwei- sen und auf den er seine Autorität und Glaubwürdigkeit stützen kann‹« (Nohr 2012, 50f.). Dieser ›externe Referent‹ erscheint im Spiegel als Anachronismus (Abb. 6): Die Botschafts-Leaks werden in traditionelle visuelle Schemata übersetzt. Ihr im- manenter Wahrheitswert scheint dabei – neben der schieren Menge – in er- ster Linie durch ihre Aura des Klandestinen verbürgt. Ohne die digitalisierte Arbeitsweise westlicher Demokratien zu überschätzen, lässt sich sicherlich da- von ausgehen, dass die Depeschen nie für den Aktenordner gedacht waren. Vielmehr wurden sie schon immer als adressierbare Ressource innerhalb des SI- PRNet Protokolls¯18 der amerikanischen Regierung vorgehalten und von dort, Redaktionelle Medien als Gatekeeper der Datenbank? 171 Abb. 5: Nummerierte Erläuterung des Aufbaus der amerikanischen Botschaftsdepeschen. In: Spiegel-Special 01/2010, S. 13. der Legende nach, über einen mit »Lady Gaga« beschrifteten CD-Rohling ent- führt.¯19 Den interessierten Spiegel-LeserInnen werden sie dennoch als pseu- do-vergilbter Aktenordner-Ausriß staubiger Cellulosefasern präsentiert. Das Vera Icon der vergangenen Tage heimlicher Hinterzimmer-Diplomatie des ›Kal- ten Krieges‹. Hier sehe ich zugleich einen entscheidenden Zusammenhang zu der Themati- sierung sozialer Netzwerke in redaktionellen Medien: Die ›diskursexterne Re- ferenz‹ der Informationen aus Datenbanken – Hintergrund der Wunschkonstel- lation eines Datenuniversums, das gesellschaftliche Vermittlung suspendiert – wird auch im Beispiel des Umgangs redaktioneller Medien mit WikiLeaks erst nachträglich innerhalb der journalistischen Praxis durch die Rhetorik des ›Prü- fens und Bewertens‹ generiert. Dabei gäbe es durchaus auch Alternativen, um die Informationen aus der Da- tenbank zu erschließen – über das Prinzip des ›crowd sourcing‹ der Informati- onen. Gemeint ist hiermit, dass über die Möglichkeit einer durchsuchbaren Da- 172 Tobias Conradi Abb. 6: Ausriss einer Botschaftsdepesche im Spiegel-Special 01/2010, S. 25. tenbank eine Vielzahl an Personen – eine wortwörtlich ›kritische Masse‹ – die Recherche-Arbeit übernimmt. Auf der Zugangsseite zu den als ›Cablegate‹ be- zeichneten Dokumenten findet sich so auch eine Art kleine Gebrauchsanwei- sung: »How to explore the data: Search for events that you remember that happened for example in your country. You can browse by date or search for an origin near you. Pick out interesting events and tell others about them. Use twitter, reddit, mail whatever suits your audience best. For twitter or other social networking services please use the #cablegate or unique reference ID (e.g. #66BUENOSAIRES2481) as hash tags« (WikiLeaks 2011b). Sortiert und durchsuchbar ist die Datenbank auf der Webseite von WikiLeaks nach diversen Parametern: • »Browse by latest release« – Suche nach den letzten, nach vorheriger Redigie- rung mit den Medienpartnern, veröffentlichten Depeschen. • »Browse by creation date« – Suche organisiert nach den auf den Dokumenten erkennbaren Erzeugungsdaten. Redaktionelle Medien als Gatekeeper der Datenbank? 173 • »Browse by origin« – Suche nach der jeweiligen amerikanischen Botschaft, der die Dokumente entstammen. • »Browse by tag« – eine (alphabetisch organisierte) Suche nach Abkürzungen, tags, die am Anfang jedes Dokuments das jeweilige Dokument zuordnen. • »Browse by classification« – Suche anhand unterschiedlicher Geheimhal- tungsstufen, denen die Depeschen zugeordnet sind ( Beispielsweise ›Confiden- tial‹, ›Secret‹, ›Secret/noforn‹). Angesichts der ›Bedienungsanleitung‹ und der tatsächlich komfortabel zu nut- zenden Datenbank nimmt die Rede von redaktionellen Medien als ›Türstehern‹ zur Datenbank eine weitere Bedeutung an. Die Möglichkeit sich selber mit den Informationen bei WikiLeaks zu beschäftigen, scheint durch die breiten Schul- tern der redaktionellen Medien – praktisch durch ihre machtvolle Rhetorik der Selbstinszenierung – eher aktiv zurückgehalten als gefördert zu werden. Dies deutet darauf hin, dass es sich hier um ein umkämpftes Feld der Nutzung von Informationen handelt. Die Tatsache, dass die redaktionellen Medien ihre eige- ne dominierende Rolle beim Herstellen des Kontextes betonen und Wiki Leaks lediglich als ›Quelle‹ bezeichnen, verstärkt bei potentiellen Nutzern wahr- scheinlich nicht den Impuls sich einen eigenen Überblick über die Dokumente zu verschaffen. Der Service redaktioneller Medien, eine Übersicht über die In- halte der Dokumente zu bieten, führt so zu einer Privilegierung von Informati- onen, die klassische Nachrichtenwert-Faktoren bedienen. Nicht zufällig legt so auch die Spiegel-Ausgabe zu den Botschafts-Leaks einen Schwerpunkt auf die diffamierende Einschätzung prominenter Politiker durch amerikanische Diplo- maten (vgl. Der Spiegel 48/2010) . Der boulevardeske Unterhaltungswert der In- formationen verhält sich dabei umgekehrt proportional zu ihrer politischen Brisanz. Geert Lovink und Patrice Riemens ist daher zuzustimmen, wenn sie in ihren 12 Thesis on WikiLeaks ausführen: »[…] The shift from information to infotainment has been embraced by journalists themselves, making it difficult to publish complex stories. WikiLeaks enters this state of affairs as an out- sider, enveloped by the steamy ambiance of ›citizen journalism‹, DIY news reporting in the blo- gosphere and even faster social media like Twitter. What WikiLeaks anticipates, but so far has been unable to organize, is the ›crowd sourcing‹ of the interpretation of its leaked documents. That work, oddly, is left to the few remaining staff journalists of seleted ›quality‹ news media« (Lovink/Riemens 2010, thesis 5¯20) Einen neuen Anlauf zu dieser Form der Sichtung der Dokumente hat Wiki Leaks im August 2011 gestartet. Innerhalb von zwei Tagen wurden ca. 80.000 der ins- gesamt 250.000 Botschafts-Depeschen veröffentlicht; versehen mit dem Auf- ruf bei Twitter: »Crowd Source! Tweet your Wikileaks cable finds with the tag 174 Tobias Conradi #wlfind; you can link to each paragraph! (P) wikileaks.org/cablegate« (Wi- kiLeaks 2011c). Dass dies erst ein dreiviertel Jahr nach Abklingen der allgemei- nen Aufmerksamkeit erfolgt und möglicherweise in Zusammenhang mit in- ternen Problemen innerhalb der Plattform steht, gibt der Aktion einen faden Beigeschmack. Ferner lenkt es den Fokus darauf, dass WikiLeaks sich selbst in der Funktion eines ›Schleusenwärters‹ befindet, der Kontrolle über den öf- fentlichen Zugang zu den Daten ausübt – verbunden mit den daraus resultie- renden demokratietheoretischen Problemen (vgl. Sagar 2011, 217ff.). Gleichzeitig ist es natürlich wichtig, die aus den Daten extrahierbaren Infor- mationen nicht zu überschätzen, wie Assange es in seiner Selbstdarstellung gelegentlich suggeriert oder wie auch der – seit Ende 2010 inaktive – Submis- sion-Link auf wikileaks.org verspricht: »We help you safely get the truth out«. Im Fall »Cablegate« beinhalten die Informationen aus den Depeschen natür- lich nicht die Wahrheit, sondern eine spezifische Perspektive auf Vorgänge der internationalen Politik aus Sicht amerikanischer Diplomaten und ihrer Infor- manten. Dass die Informationen geheim sind, sagt nichts über ihren Wahrheits- wert aus. Fazit Die redaktionellen Medien blenden andere Vermittler – die Unternehmen Fa- cebook oder Twitter, oder die Organisation WikiLeaks als ›Hüter der Datenbank‹ – aus und inszenieren sich als alleinige ›Gatekeeper‹ der Datenbank. Sie gene- rieren sich als autorisierte Instanz des Informationsmanagements und rationa- lisieren dadurch den Umgang mit kulturellem Wissen. Die Datenbank fungiert in dieser Rhetorik vornehmlich als Authentizitätsgenerator im Hintergrund. Die Funktion des ›Gatekeeping‹ stellt hier in erster Linie eine self-fulfilling pro- phecy dar. Die Journalisten treten als Schleusenwärter auf, weil sie sich selber die Aufgabe eines Schleusenwärters zuweisen. Die Daten – und ihre Organisa- tion in der Datenbank, die Möglichkeit des Zugriffs auf Suchalgorithmen – ver- langen dieser Sichtweise entsprechend nicht nach ›verantwortlichen Nutzern‹, sondern nach verantwortungsvollen Journalisten, die entsprechend ›ihrer Ob- jektivitätsstandards‹ die Informationen ›in ihren Kontext‹ einordnen. Genau dieser Kontext entscheidet aber schließlich darüber, ob es sich – beispielswei- se bei einer Demonstration, die in Gewalt mündet – um berechtigte Proteste handelt, oder aber um illegitime Randale. Während Facebook angesichts der Proteste in Ägypten noch als legitimes und entscheidendes Instrument der Or- ganisation des Kampfes um Meinungsfreiheit und Gerechtigkeit erschien, er- Redaktionelle Medien als Gatekeeper der Datenbank? 175 langte es kurze Zeit später ein zweifelhaftes Renommee im Kontext der Orga- nisation von Unruhen in England.¯21 Entsprechend ihrer Rhetorik profitieren die redaktionellen Medien parasitär von der angenommenen Authentizität der Daten. Hier sind sie (und wir?) An- hänger einer Wunschkonstellation, wenn sie in den Informationen der Daten- bank einen unvermittelten Zugang zur Welt außerhalb von gesellschaftlicher Vermittlung erhoffen. Wahlweise werden die ›Geschwindigkeit‹ der Ausbrei- tung von Daten, die ›Unvermitteltheit‹ der abgesendeten Informationen oder das ›Volumen‹ von Datenbanken dabei als größter Vor- oder Nachteil – ent- sprechend des Kontextes – gehandelt. Auf Ebene der Daten als Referenz werden die Vorteile in der Unmittelbarkeit, Objektivität und Authentizität der Daten gesehen. Nachteilig wird ihr zunächst ungeordneter Charakter bewertet, der schließlich nach einer ›professionellen Einordnung‹ verlangt. Hier lassen sich deutliche Ähnlichkeiten im Umgang redaktioneller Medien mit sozialen Netz- werken und der Leaking-Plattform WikiLeaks feststellen. Neben diesen strukturellen Ähnlichkeiten ist es aber notwendig auf einen Un- terschied zwischen der Referenzierung der sozialen Netzwerke und WikiLeaks hinzuweisen: Eine (triviale) Ursache für die stete Benennung der sozialen Netz- werke ist – neben den genannten Zugangsschwierigkeiten oder der Kompensa- tion eines Mangels an Bildern – gewiss darin zu sehen, dass Facebook und Co. mittlerweile einen Teil der Lebensrealität der Zielgruppen redaktioneller Me- dien bilden. Bei WikiLeaks scheint der Fall anders gelagert: WikiLeaks selber ist auf die Main- streammedien zugegangen – einerseits um die Aufmerksamkeit für ihre Veröf- fentlichungen zu erhöhen, andererseits um einen Überblick über das umfang- reiche Material zu gewährleisten. Gleichzeitig hat sich die Leaking-Plattform als strange Attractor betätigt, der eine eigentlich weniger interessante Sache (›kryptische Datensätze‹) um einen expliziten Nachrichtenwert (›weißhaariger Nerd führt US-Regierung an der Nase herum‹) angereichert hat. Im Ergebnis wurden sie schließlich von der Maschine, zu deren Revolutionierung sie an- getreten waren, aufgenommen und mindestens teilweise neutralisiert. Dies zeugt letztlich von der Schwierigkeit dem Diskurs etwas Neues hinzuzufügen. 176 Tobias Conradi Anmerkungen 01˘ Der Begriff »redaktionelle Medien« gilt in diesem Aufsatz als Gegensatz zu den »nut- zerbasierten Medien«. Noch vor einigen Jahren wären Mainstream-Nachrichtenmedien problemlos als Massenmedien bezeichnet worden um damit ihren one-to-many-Cha- rakter von der Medienkommunikationssituation beispielsweise eines Telefons zu unter- scheiden. Im Zeitalter des Internets hat sich diese Unterscheidung – und damit auch der Terminus »Massenmedien« aber radikal verändert, weil auch die sozialen Netzwerke eben- falls »Massenmedien« sind, aber gleichzeitig diverse Kommunikationssituationen ermögli- chen: one-to-one, one-to-many oder many-to-many. 02˘ »White und auch spätere Forscher haben deshalb nur die Spitze dieser Entscheidungs kask ade erfasst. Künftige ›Gatekeeper‹-Forschung müsste hier wesentlich tiefer gra- ben, um die Entscheidungsprozesse und Rahmenbedingungen des Schleusenwärters (ein- schließlich informaler Einflüsse) nachvollziehen zu können« (Frerichs 2005, 77). 03˘ Vgl. Stöcker, Christian (2008): »Netzgeschwätz übertönt Augenzeugenberichte«. In: [http://www.spiegel.de/netzwelt/web/0,1518,593173,00.html]; letzter Abruf: 01.03.2012. 04˘ Vgl. Patalong, Frank (2009): »Da ist ein Flugzeug im Hudson River. Verrückt«. In: Spiegel- Online 16.01.2009, [http://www.spiegel.de/netzwelt/web/0,1518,601588,00.html]; letzter Abruf: 01.03.2012. 05˘ Privater Mitschnitt, n-tv, Livesendung vom 18.02.2010. 06˘ Die Fanpage »We are all Halid-Said« weist für den 11. Februar 2011, dem Tag von Mubaraks Rücktritt, 25 Einträge auf (vgl. [https://www.facebook.com/elshaheeed.co.uk?ref=ts]; letz- ter Abruf: 01.03.2012). Die Anzahl der Kommentare auf die jeweiligen Statusmeldungen lie- gen zwischen 19 und 1498, während sich die »Likes« zwischen Zahlen von 65 bis 4752 (nach dem Rücktritt Mubaraks) bewegen. Ohne hier in ein statistisches Argumentationsmuster zu verfallen, zeigen diese Zahlen – unterstützt dadurch, dass die Statusmeldungen auf Englisch verfasst sind – zweifellos, ein großes Interesse an den Einträgen. Verglichen mit den ›hunderttausenden‹ [http://www.spiegel.de/politik/ausland/0,1518,745074,00.html]; letzter Abruf: 01.03.2012. Menschen, die sich allein auf dem Tahrir-Platz versammelt ha- ben, und den »mehr als eine Million Menschen« ([https://secure.wikimedia.org/wikipedia/ de/wiki/Revolution_in_Ägypten_2011]; letzter Abruf: 01.03.2012), die landesweit demon- strierten, erscheinen diese Zahlen jedoch eher marginal. Wenn sie auch nichts über die Lesezugriffe aussagen, so zeigt dies doch die Absurdität, anhand der »Diskussionen« auf dieser Seite ein Stimmungsbild aus Ägypten einfangen wollen. 07˘ Vgl. Doll (2011, 65); siehe auch: [https://secure.wikimedia.org/wikipedia/de/wiki/ Revolution_in_%C3%84gypten_2011]; letzter Abruf: 01.03.2012. 08˘ In dem Hofmannsthal Lord Chandos den für die Sprachkrise paradigmatischen Satz schrei- ben lässt: »[…] die abstrakten Worte, deren sich doch die Zunge naturgemäß bedienen muß, um irgendwelches Urtheil an den Tag zu geben, zerfielen mir im Munde wie modrige Pilze«. Redaktionelle Medien als Gatekeeper der Datenbank? 177 Hofmannsthal, Hugo von: Ein Brief. In: GW, Prosa, Bd.II, Frankfurt/M.1951, S.7-22. 09˘ In diesem Kontext ist sicherlich auffällig, dass die Thematisierung nutzerbasierter Medien insbesondere im Zusammenhang mit Katastrophen steht. Erdbeben, Hurrikans und Amokläufe verursachen auf der einen Seite ein gesteigertes Interesse an Informationen. Gleichzeitig sind sie – wie auch die Nachrichten über Revolten in diktatorischen Regimen – Situationen, in denen eben diese benötigten Informationen schwieriger zugänglich sind. 10˘ Das Bild des Soldaten, der, wie in obigem Beispiel dargelegt, als Zeichen dafür verwen- det wird, dass die Demonstranten das Militär auf ihre Seite zu ziehen versuchten, kor- respondiert hier durchaus mit Winklers These einer ›Krise der technischen Bilder‹ (vgl. Winkler 1997, 187ff.; ders. 1992, 232f.). Die Referentialität entsteht in diesem Beispiel gera- de nicht über die materiale Anordnung – den Weltbezug des über die technische Apparatur Abgebildeten. Vielmehr stützt sich die suggerierte Authentizität des Bildes, den ›unmittel- baren Emotionen‹ vergleichbar, auf die Herkunft aus den sozialen Netzwerken. 11˘ Im August 2011 ist WikiLeaks nicht in der Lage tatsächlich neue Einreichungen von ›Whistleblowern‹ anzunehmen. Die Organisation scheint auf einer Seite durch juristische Probleme seiner Gründerfigur Julian Assange nur äußerst eingeschränkt agieren zu können, auf der anderen Seite existieren offensichtlich auch technische Probleme mit der Seite. Die Entwicklungen um Wikileaks ab Februar 2011 ähneln immer mehr einem skandalträchtigen Kleinkrieg zwischen gekränkten Führungspersönlichkeiten, die aber für die grundsätzli- chen Überlegungen dieses Artikels keine Rolle spielen. 12˘ Dieses Video wurde von WikiLeaks erstmals selbst journalistisch aufbereitet, aber zu- gleich auch in einer ungeschnittenen Fassung zur Verfügung gestellt. Vgl. [http://www.col- lateralmurder.com/]; letzter Abruf: 01.03.2012. 13˘ Es handelt sich um: Der Spiegel, The Guardian, The New York Times. Bei ›Cablegate‹ später auch El Pais und Le Monde. Die Vereinbarung betraf unter anderem, dass die Redaktionen die Dokumente auf Namen von Informanten hin untersuchen, deren Leben durch eine un- redigierte Veröffentlichung möglicherweise in Gefahr geraten könnte. WikiLeaks konnte so schließlich vorredigierte Dokumente auf seiner Plattform publik machen. 14˘ Der Terminus ›Rationalisierung‹ wird im Folgenden angelehnt an seinen Gebrauch durch Michel Foucault verwendet. ›Rationalität‹ meint hier nicht eine überhistorische ›Vernunft‹, sondern verweist auf die Wirksamkeit »historische[r] Praktiken, in deren Kontext Wahrnehmungs- und Beurteilungsstrategien generiert werden« (Bröckling/Krasmann/ Lemke 2000, 20). Vgl. auch: Foucault 1988, 58. 15˘ Vgl. hierzu auch die Ausführungen von Stuart Hall über die strukturierte Vermittlung von Ereignissen: Nachrichten über kontroverse Ereignisse oder Konflikte, so Hall, »wird ständig Sinn gegeben durch die Einbettung in einen sinnvollen, erklärenden Kontext. Auch wenn Berichterstatterinnen und -erstatter keine ›Meinung‹ äußern […] so müssen sie doch einen Interpretationsrahmen benutzen, andernfalls würden Worte und Bilder keinen Sinn erge- ben, […]. Nachrichten zu produzieren bedeutet, die Realität zu interpretieren« (2002, 355; 178 Tobias Conradi Herv. i.O.). 16˘ Dass WikiLeaks selbst daran nicht gänzlich unbeteiligt ist, führt Slavoj Žižek aus, der das allzu simple Gut-Böse-Schema in der Selbstinszenierung der Organisation und ihr na- ives Macht-Verständnis kritisiert: »›Macht‹ haben die bösen Männer an der Spitze, und sie wird nicht als etwas gesehen, das den gesamten Gesellschaftsaufbau durchzieht und das bestimmt, wie wir arbeiten, was wir denken und konsumieren. Dieses Verschwörertum wird durch seinen offensichtlichen Widerpart ergänzt – die liberale Inbesitznahme von WikiLeaks als ein weiteres Kapitel in der ruhmreichen Geschichte des Kampfes um den ›frei- en Informationsfluss‹« [http://diepresse.com/home/meinung/debatte/627555/Zwischen- Marx-und-Joker_Die-wahre-Bedeutung-von-WikiLeaks]; letzter Aufruf am 01.03.2012. 17˘ Nohr bezieht sich in dem Zitat auf die Einleitung zum Band »Die Listen der Evidenz« (2006), herausgegeben von Michael Cuntz, Barbara Nietsche, Isabell Otto und Marc Spaniol. 18˘ SIPRNet steht für »Secret Internet Protocol Router Network« und bezeichnet ein Netzwerk zum internen Austausch von Dokumenten innerhalb des amerikanischen Außen- und Ver teidigungsministeriums.[https://w w w.fas.org/irp/program/disseminate/siprnet. htm],; letzter Abruf: 01.03.2012. 19˘ Vgl. hierzu die Auszüge des Chat-Protokolls zwischen Bradley Manning und Adrian Lamo. Manning gibt sich hier als Quelle von WikiLeaks zu erkennen. Lamo reicht dieses Chat-Protokoll an das Computer-Magazin WIRED und das FBI weiter, was schließlich zur Inhaftierung Mannings führt. [http://www.guardian.co.uk/world/2010/dec/01/us-leaks- bradley-manning-logs]; letzter Abruf: 01.03.2012. 20˘ [http://networkcultures.org/wpmu/geert/]; letzter Abruf: 01.03.2012. 21˘ Vgl. Carter, Helen: »England riots: pair jailed for four years for using Facebook to incite disorder«, [http://www.guardian.co.uk/uk/2011/aug/16/uk-riots-four-years-disorder-face- book]; letzter Abruf: 01.03.2012. Bibliografie Bröckling, Ulrich / Krasmann, Susanne / Lemke, Thomas (2000): Gouvernemen- talität, Neoliberalismus und Selbsttechnologien. Eine Einleitung. In: dies. (Hg.): Gouverne- mentalität der Gegenwart. Studien zur Ökonomisierung des Sozialen. Frankfurt: Suhrkamp. S. 7-40. Doll, Martin (2011): »Revolution 2.0? Über den Zusammenhang zwischen den Aufständen im ›arabischen Raum‹ und ihren medialen Bedingungen«. In: kultuRRevolution, Nr. 60, 1/2011, S. 64-71. Redaktionelle Medien als Gatekeeper der Datenbank? 179 Foucault, Michel (1988): Für eine Kritik der politischen Vernunft. In: Lettre International, Nr. 1 1988, S. 58-66. Frerichs, Stefan (2005): Gatekeeper. In: Weischenberg, Siegfried/ Kleinsteuber, Hans. J./ Pörksen, Bernhard: Handbuch Journalismus und Medien. Konstanz: UVK, S. 74-77. Hall, Stuart (2002): Die strukturierte Vermittlung von Ereignissen. In: Adelmann, Ralf / Hesse, Jan-Otmar/ Keilbach, Judith/ Stauff, Markus/ Thiele, Matthias (Hg.). Grundlagentexte zur Fernsehwissenschaft. Konstanz: UVK, S. 344-375. Hofmannsthal, Hugo von : Ein Brief. In: GW, Prosa, Bd.II. Frankfurt/M.1951, S.7-22. Krause, Marcus (2007): »Vom ›Weltbeben‹ zur ›Spendenflut‹: Die Tsunami-Katastrophe des 26. Dezember 2004. In: Irmela Schneider / Christina Bartz (Hg.): Formationen der Medien- nutzung I: Medienereignisse. Bielefeld: Transcript, S. 119-137. Leistert, Oliver / Röhle, Theo (2011): Einleitendes zur Maschine Facebook, ihren Konse- quenzen und den Beiträgen in diesem Band. In: dies. (Hg.): Generation Facebook. Über das Le- ben im Social Net. Bielefeld: Transcript, S. 7-30. Lewin, Kurt (1947): »Channels of Group Life; Social Planning and Action Research«. In: Hu- man Relations 1, S. 143-153. Nohr, Rolf (2012): Sprudelnde Ölquellen, denkende Gehirne und siegreiche Spermien – die Produktion von Evidenz (und deren Theorien). In: Tobias Conradi/ Gisela Ecker/ Norbert Eke/ Florian Muhle (Hg.): Schemata und Praktiken. München: Fink, S. 37-64. Rogers, Simon (2011): WikiLeaks und der investigative Datenjournalismus. Wie wir beim Guardian mit den Wikileaks-Dateien umgehen. In: Wikileaks und die Folgen. Die Hintergrün- de. Die Konsequenzen. Redaktion: Heinrich Geiselberger. Berlin: Sonderdruck Edition Suhr- kamp, S. 118-127. Sagar, Rahul (2011): Das missbrauchte Staatsgeheimnis. Wikileaks und die Demokratie. In: Wikileaks und die Folgen. Die Hintergründe. Die Konsequenzen. Redaktion: Heinrich Geisel- berger. Berlin: Sonderdruck Edition Suhrkamp, S. 201-223. Shoemaker, Pamela J. / Vos, Tim P. (2009): Gatekeeping Theory. New York, NY/Oxon: Routledge. Der Spiegel Special (2010): »Die enthüllte Supermacht. Amerikas Geheim-Depeschen«, Nr. 1, Dezember 2010. Der Spiegel (2010): »ENTHÜLLT. Wie Amerika die Welt sieht«. Nr. 48, 29.11.2010. White, David Manning (1997 [1950]): The »Gate Keeper«. A Case Study in the Selection of News. In: Berkowitz, Dan (Hg.): Social Meanings of News. A Text-Reader. Thousand Oaks (CA): SAGE Publications. S. 63-71. Winkler, Hartmut (1997): Docuverse. Zur Medientheorie der Computer. Regensburg: Boer. Winkler, Hartmut (1992): Das Ende der Bilder? Das Leitmedium Fernsehen zeigt deutliche Symptome der Ermüdung. In: Hickethier, Knut / Schneider, Irmela (Hg.): Fernsehtheorien. Do- kumentation der GFF-Tagung 1990, Berlin: Edition Sigma. S. 228-235. 180 Tobias Conradi Online Ressourcen Carter, Helen (2011): England riots: pair jailed for four years for using Facebook to incite disorder, Guardian-Online 16.08.2011, [http://www.guardian.co.uk/uk/2011/aug/16/uk-riots- four-years-disorder-facebook]; letzter Abruf: 01.03.2012. Keller, Bill (2011): Dealing with Assange and the WikiLeaks Secrets, New York Times On- line, 26.01.2011. In: [https://www.nytimes.com/2011/01/30/magazine/30Wikileaks-t.html?_ r=4&hp=&pagewanted=all]; letzter Abruf: 28.08.2011. Lovink, Geert / Riemens, Patrice (2010): 12 Thesis on Wikileaks. In: [http://networkcul- tures.org/wpmu/geert/2010/12/07/twelve-theses-on-wikileaks-with-patrice-riemens/]; letz- ter Abruf: 01.03.2012. o.A. (2010): Bradley Manning, in his own word’s: ›This belongs in the public domain‹. In: Gu- ardian-Online 01.12.2010, [http://www.guardian.co.uk/world/2010/dec/01/us-leaks-bradley- manning-logs]; letzter Abruf: 01.03.2012. o.A. (2010): [http://www.collateralmurder.com/]; letzter Abruf: 01.03.2012. o.A. (2011): Mubarak tritt zurück – Militär übernimmt die Macht. In: Spiegel-Online 11.02.2011, [http://www.spiegel.de/politik/ausland/0,1518,745074,00.html]; letzter Abruf: 01.03.2012. o.A. (2011): Facebook-Fanpage: We are all Khaled Said, [https://www.facebook.com/elsha- heeed.co.uk?ref=ts]; letzter Abruf: 01.03.2012. o.A. (2011): [https://www.fas.org/irp/program/disseminate/siprnet.htm]; letzter Abruf: 01.03.2012. Patalong, Frank (2009): Da ist ein Flugzeug im Hudson River. Verrückt. In: Spiegel-Online 16.01.2009, [http://www.spiegel.de/netzwelt/web/0,1518,601588,00.html]; letzter Abruf: 01.03.2012. Stöcker, Christian (2008): Netzgeschwätz übertönt Augenzeugenberichte. In: [http:// www.spiegel.de/netzwelt/web/0,1518,593173,00.html]; letzter Abruf: 01.03.2012. WikiLeaks (2011a): [www.wikileaks.org; 28.08.2011]; letzter Abruf:01.03.2012. WikiLeaks (2011b): [http://www.wikileaks.org/cablegate.html]; letzter Abruf: 01.03.2012. WikiLeaks (2011c): [https://twitter.com/#!/wikileaks/status/106177960192655360]; letzter Abruf: 01.03.2012. Wikipedia (2011): Revolution in Ägypten 2011, [https://secure.wikimedia.org/wikipedia/de/ wiki/Revolution_in_Ägypten_2011]; letzter Abruf: 01.03.2012. Žižek, Slavoj (2011): Zwischen Marx und Joker: Die wahre Bedeutung von WikiLeaks. In: Die Presse, 22.01.2011. [http://diepresse.com/home/meinung/debatte/627555/Zwischen-Marx- und-Joker_Die-wahre-Bedeutung-von-WikiLeaks]; letzter Abruf: 01.03.2012. Redaktionelle Medien als Gatekeeper der Datenbank? 181 Fernsehsendungen ARD Tagesthemen, 11.02.2011. ARD Tagesthemen, 29.08.2005. n-tv, Livesendung vom 18.02.2010. 182 Tobias Conradi Julius Othmer / Stefanie Pulst / Andreas Weich WTF is my GearScore? – Risiko und Sicherheit als datenbankgenerierte Elemente im Computerspiel Eine zentrale Frage in der Computerspielforschung lautet: ›Warum spielen wir heute ausgerechnet mit Computern?‹ Eine Möglichkeit, sich einer Antwort zu nähern, ist es, die kulturelle Funktion des Computerspielens zu untersuchen. Folgt man Britta Neitzel, Rolf F. Nohr und Serjoscha Wiemer besteht eine der zentralen kulturellen Funktionen des Computerspiels vornehmlich in der »Be- reitstellung von gesellschaftlichem Orientierungswissen«, was heute bedeu- tet, »›abstrakte‹ Wissens- und Handlungsmuster für eine ›digitale Kultur‹ be- reit zu stellen, an die sich das Subjekt adaptieren und […] akkomodieren kann« (2009, 251). Aufbauend auf dieser Annahme gehen wir im folgenden Artikel davon aus, dass das Konzept des Risikos, die Produktion und Berechnung von Risiken und die Handlungsentscheidung auf der Grundlage von Risikobewertungen für die gegenwärtige ›digitale Kultur‹ von zentraler Wichtigkeit sind. Computer spie- len dabei insofern eine wichtige Rolle, als sie durch das Speichern von Infor- mationen in Datenbanken und die Prozessierung dieser Informationen durch CPUs und Algorithmen ein Hilfsmittel zum Risikomanagement und gleichzeitig eine Art Katalysator zu dessen omnipräsenter Verbreitung darstellen. Im Com- puterspiel, so die hier vertretene These, wird nun Risikomanagement als Spiel überformt und dem Spieler¯1 implizit Orientierungswissen zum adäquaten Handeln in der Risikogesellschaft vermittelt. Im Folgenden werden daher zunächst das Konzept des Risikos, sowie seine Ver- bindungen zur Computertechnologie und dem Computerspiel als theoretische Grundlage skizziert. Darauf aufbauend wird das gegenwärtig bekannteste MMORPG¯2 World of Warcraft bezüglich des Risikomanagements analysiert, bevor abschließend eine Interpretation der Analyseergebnisse im Hinblick auf die Subjektpositionierung des Spielers bzw. der Spielerin erfolgen soll. WTF is my GearScore? 183 Risiko Risiko ist grundsätzlich ein Komplex aus Wissensbeständen und Praktiken zum aktiven Umgang mit Gefahren, Bedrohungen und Chancen. Laut Her- fried Münkler handelt es sich dabei um »Arrangements, die Gefahr und Bedro- hung berechen- und kalkulierbar machen« (2010, 11). Im Medium des Risikos wird die Welt also auf einer rechenhaften (und zumeist statistischen) Grund- lage und unter der Annahme eindeutiger Ursache-Wirkungs-Zusammenhänge modelliert, um in Situationen mit ungewissem Ausgang Handlungsentschei- dungen begründen zu können. Claudia Aradau, Louis Lobo-Guerrero und Rens van Munster schreiben in diesem Sinne: »Risk refers to the probability of an undesirable event happening in the future. As an attempt to tame uncertain- ty and contingency, our general understanding of risks builds on the premi- se that they can be classified, quantified and to some extent predicted«. Und im Weiteren (auf Nicolas Rose zurückgreifend): »Risk can then be understood as a ›family of ways of thinking and acting, involving calculations about pro- bable futures in the present followed by interventions into the present in or- der to control that potential future‹« (2008, 148f.). Spricht man von Gefahr und Bedrohung so ist immer eine temporäre Gefährdung von außerhalb gemeint, etwas das dem Subjekt oder dem Kollektiv entgegensteht und ihm damit vor- erst eine re-agierende Rolle verordnet. Risiko ermöglicht dagegen das begrün- dete aktive Eingreifen in bestimmten Situationen, legt es den Akteuren aber gleichzeitig auch als Pf licht auf und verlegt dabei die Verantwortung über die Wirkungen einer Handlung auf den handelnden Akteur, der ein Risiko einge- hen kann – aber nicht muss. Ein Risiko einzugehen ist zumindest theoretisch an die Gegen-Option gebunden es auch nicht eingehen zu können. Neben (staatli- chen) Organisationseinheiten ist zunehmend auch das einzelne (gesellschaft- liche) Subjekt Akteur im Umgang mit Risiko und verantwortlich für das per- sönliche Risikomanagement. In der gegenwärtigen Gesellschaft obliegt dem Subjekt nicht nur das Risikomanagement seiner Umwelt, sondern auch das Ma- nagement seiner Selbst im Sinne eines Risikos.¯3 Risiko ist somit auch als Sub- jektivierungsinstanz in den Blick zu nehmen. Zusammengefasst in einer The- se bedeutet das: Risiko ist eine Subjekt- und Erfahrungstechnik zur Bewertung gegenwärtiger Situationen und der zukünftigen Auswirkungen ihrer Handlungsoptionen auf Grundlage vornehmlich statistischer Informationen der Vergangenheit. In den meisten Fällen werden in erster Linie katastrophische Ereignisse wie ein drohender Atomkrieg, nukleare Unfälle wie Tschernobyl oder Fukushima oder auch der Anschlag auf das World Trade Center für die Relevanz des Risi- 184 Julius Othmer / Stefanie Pulst / Andreas Weich kos in der (Welt)Risikogesellschaft verantwortlich gemacht (siehe hierzu exem- plarisch Beck 2007). Darüber hinaus ist es jedoch gerade auch die alltägliche Konfrontation des Subjekts mit dem Konzept Risiko¯4 , wie es in (sozialen) Ver- sicherungssystemen, Finanzfragen oder dem Gesundheitswesen sowie der me- dialen Berichterstattung stattfindet, die das Risiko zu einer formgebenden In- stanz unserer Realität macht. Risiko und Computer Wie bereits erwähnt, ist eine zentrale Möglichkeitsbedingung zur Formulie- rung und zum Management von Risiken das Konzept der Berechnung bzw. der Berechenbarkeit. Die Computertechnologie scheint vor diesem Hinter- grund sowohl ideal zur Herstellung als auch zur Bearbeitung und Prozessie- rung von Risiken. In Datenbanken lassen sich Informationen und Statistiken zu vergangenen Situationen abspeichern, die in späteren, ähnlichen Situati- onen als Berechnungsgrundlage dienen können. Prozessoren und Algorithmen sind darauf aufbauend in der Lage, diese Informationen als Variablen in einem Modell des Risikos miteinander zu verschalten und dadurch Handlungsgrund- lagen und -optionen zu generieren. Computer dienen also einerseits der Be- rechnung und Beherrschung von Risiken und können andererseits gleichzeitig auch als Produzent und Implementierungsinstanz des Konzepts ›Risiko‹ be- trachtet werden, da sie es erst pragmatisch denk- und darstellbar machen. Als unsere zweite These formuliert bedeutet dies: Risiko benötigt für seine Entstehung als Denkmodell und für seine Operationali- sierung Techniken der Sichtbarmachung, die in den allermeisten Fällen auf Com- putertechnologie und Datenbanken zurückgreifen. Doch welche Verbindung besteht nun zwischen Risiko und Computerspielen? Oder anders formuliert: Wie passt die dem Risikobegriff und dem Computer eingeschriebene rationale Berechnung mit der Form des Spiels und Spielens zusammen? Risiko und Spiel Einen Erklärungsansatz hierfür bildet die Unterscheidung zweier idealty- pischer Strategien im Umgang mit Risiken, die der Sozialwissenschaftler Her- fried Münkler beschrieben hat: Sicherheitswelten und Kulturen des Risikos. Bei- de Konzepte stehen für eine bestimmte Sichtweise auf und einen bestimmten Umgang mit Risiken und legen idealtypisch die Spannweite fest auf welcher sie betrachtet und verhandelt werden. Sicherheitswelten versuchen Unsicher- heit durch Abschottung, Sicherungsstrategien und Risikobewertungen mög- lichst auszuschließen. Die Kulturen des Risikos dagegen überformen Gefahr WTF is my GearScore? 185 und Bedrohung in einem sowohl berechnenden als auch spielerischen Prozess und versuchen eine Chance im kalkulierten Eingehen eines Risikos zu sehen: »Der Umgang mit Risiken hat immer etwas Kalkulierendes und Berechnendes, aber auch ein Element des Spielerischen« (Münkler 2010, 12).¯5 Die beiden Kon- zepte stehen sich dabei jedoch nicht diametral gegenüber, sondern bedingen und rahmen sich gegenseitig.¯6 Mit dem Konzept der Kulturen des Risikos tritt nun der Gedanke des Spielerischen neben den der rationalen Rechenlogik. Das Konzept Münklers mündet in unserer dritten These: Im Umgang mit Risiko lassen sich (nach Münkler) zwei idealtypische Strategien ausmachen, die sich gegenseitig bedingen und einander stabilisieren: Sicher- heitswelten, in denen die rationale Vermeidung von Risiken und der Aufbau von Sicherungssystemen verfolgt werden und Kulturen des Risikos, in denen die Chancen durch sowohl kalkulierten als auch spielerischen Umgang mit Risiko im Vordergrund stehen. Risiko und Computerspiel Wie bis hierhin kurz umrissen ist das Konzept des Risikos somit Reflexions- instrument zur Entscheidungsfindung und Orientierung, sowohl individuell als auch kollektiv. Warum soll nun das Computerspiel als kulturelle Technik zum Umgang mit diesem Begriff verstanden werden? Wie beschrieben bedarf Risiko Mechanismen der Sichtbarmachung um wahrnehm- und berechenbar zu werden. Die Strategien zur Bearbeitung und zum Umgang mit Risiko fol- gen, wie bei Münkler argumentiert, nicht ausschließlich rein rationalen Prin- zipien sondern ebenfalls spielerischen Praktiken. Das Computerspiel vereint als Programm, das einerseits auf rationalen Algorithmen und Datensätzen be- ruht und gleichzeitig zu ludischen Zwecken produziert wird, beide Strategien in sich. Es kann somit als Schnittpunkt und mediale Verfestigung sowohl des rational kalkulierten als auch des spielerischen Risikomanagements betrach- tet werden. Zusammenfassend in These 4 bedeutet dies: Das Computerspiel als datenbankbasiertes Medium bietet sich für die Reproduk- tion und Prozession von Risiko und (individuellem und kollektivem) Risikoma- nagement an und legt den Schwerpunkt dabei auf die spielerischen Risikokul- turen (die jedoch nur dank der Absicherung durch Sicherheitswelten funktional sind). 186 Julius Othmer / Stefanie Pulst / Andreas Weich Analyse von Risikostrategien in World of Warcraft Als Gegenstand der Analyse haben wir das MMORPG World of Warcraft ge- wählt. Es bietet sich für die Analyse an, da es seit mehreren Jahren eines der international meistgespielten und kommerziell erfolgreichsten Spiele ist und es zudem eine aktive Community besitzt, die Add-Ons zur Spielunterstützung entwickelt hat, an denen der Umgang mit Risiko besonders deutlich wird. World of Warcraft entzieht sich aufgrund seiner schieren Größe und Kom- plexität einer umfassenden Analyse. Im Rahmen dieses Artikels beschränken wir uns daher auf die Untersuchung einiger ausgewählter exemplarischer Funktionen, Spielmechaniken und Darstellungsformen in den verschiedenen Versionen des Spiels und verschiedener Add-Ons. Wir betrachten dabei das ursprüngliche Spiel von Blizzard (2004-2011) und unterschiedliche User-Pro- gramme, die aus der Community entstanden sind, in Ihrem Zusammenspiel als einen komplexen Gegenstand mit wechselseitiger Beeinflussung. Denn er- stens gehen beide Ebenen in der realen Spielpraxis ineinander über und zwei- tens wurden viele der von Usern programmierten Funktionen nach und nach in das Originalspiel übernommen. Für die Auswahl des Analyse-Materials ha- ben wir neben den eigenen Spielerfahrungen auf formlose Experteninterviews zurückgegriffen.¯17 Die einzelnen analytischen Ansatzpunkte werden im Folgenden in der Reihen- folge bearbeitet, in der sie sich in einem gewöhnlichen Spielverlauf anordnen. Die Analyse orientiert sich dabei an zwei Leitfragen: 1. Wie wird das Konzept Risiko im und durch das Spiel in und über Datenbanken und ihre Darstellungen verhandelt? 2. Welche Verschiebungen haben sich in der historischen Fortentwicklung des Spiels durch die Sichtbarmachung und -werdung der zugrunde liegenden Da- tenbanken ergeben? Das Charakterprofil Zu Beginn des Spiels muss das Profil eines Charakters (auch Avatar genannt) erstellt werden (s. Abb. 1). Er bildet die Grundlage für alle Handlungen, die im Spiel durchgeführt werden können. Dabei werden die Rasse, das Geschlecht, die Klasse, das Aussehen und der Name festgelegt. Je nachdem, welche Rasse¯8 man wählt, schließt man sich entweder der Allianz oder der Horde an und ent- scheidet sich dadurch auch für eine bestimmte Gruppe an Mit- und Gegenspie- lern. Die Wahl der Klasse¯9 bestimmt dagegen, welche Aufgaben man im spä- teren Spielverlauf grundsätzlich erfüllen kann. WTF is my GearScore? 187 Abb. 1: Charaktererstellung in World of Warcraft Sobald man die Spielwelt betreten hat, kann man im Charakterprofil verschie- dene Werte einsehen, wie beispielsweise: Lebensenergie, Ressource, Tempo- wertung, kritische Trefferwertung etc. Zudem verfügt der Charakter über so genannte Slots, die mit Ausrüstungsgegenständen belegt werden können (Kopfteil, Handschuhe, Ringe etc.). Hierbei ist auffällig, dass sich die Daten- bank im Sinne der angezeigten Attribute und Zahlenwerte von der früheren zu der aktuellen Version des Spiels verändert hat (s. Abb. 2).¯10 Die Scrollbar in der aktuellen Version deutet zudem an, wie viele Zahlenwerte sich in dem Cha- rakterprofil verbergen. Das Profil ist also als Datenbank organisiert. Ihre Inhalte verändern sich durch die Spielhandlungen und -erfolge der Spieler. Durch das Besiegen von Gegnern und die erfolgreiche Absolvierung von Quests und Dungeons erhalten sie Er- fahrungspunkte, sowie Gold und Gegenstände. Hat ein Spieler eine bestimmte Anzahl an Erfahrungspunkten gesammelt, steigt sein Charakter eine Stufe auf. Durch den Stufenaufstieg kommen nach und nach zwei spielentscheidende Elemente hinzu: zum einen erlernt der Charakter bei einem Lehrer für seine Klasse im Verlauf des Spiels immer wieder neue Fähigkeiten und zum anderen 188 Julius Othmer / Stefanie Pulst / Andreas Weich Abb. 2: Charaktereigenschaften (links alte, rechts neue Version) in World of Warcraft bekommt er ab Stufe 10 Talentpunkte. Mit Erreichen der höchsten Stufe (der- zeit Stufe 85) hat der Spieler insgesamt 41 Talentpunkte zur Verfügung. Diese können auf so genannte Talentbäume, auch »Skilltrees«(s. Abb. 3) genannt, ver- Abb. 3: Talentbaum eines Schurken in World of Warcraft WTF is my GearScore? 189 Abb. 4: Stats eines Ausrüstungsgegenstands teilt werden. Dadurch werden entweder bereits vorhandene Fähigkeiten ver- stärkt oder neue hinzugewonnen. Jede Klasse besitzt drei Talentbäume, mit Hilfe derer sie sich spezialisieren kann. Durch die Skills bestimmt der Spieler auch, welche Aufgabe sein Charak- ter im Spiel erfüllen kann. So kann sich beispielsweise ein Druide durch skil- len entscheiden, ob er lieber heilen oder Schaden machen möchte. Klassen, wie beispielsweise der Schurke, die generell nur als Schadensausteiler agie- ren können, spezialisieren sich hingegen auf eine bestimmte Art des Kämp- fens. So kann der Schurke, als reiner Schadensausteiler, zwischen einer Meu- cheln-, Kampf-, oder Täuschungsspezialisierung wählen. Je nachdem, was er für eine Spezialisierung wählt, erhält er neue Fähigkeiten, die ihm den Kampf gegen einen großen oder mehrere kleine Gegner erleichtern oder erschweren. Für die Aufteilung der Talentpunkte haben sich dabei bestimmte Verteilungs- standards etabliert. Neben den Grundfähigkeiten, die der Charakter erlernt und seiner Skillung ist der dritte Faktor die Ausrüstung. Gegenstände, die der Charakter anlegen kann, unterliegen dabei verschiedenen Qualitätsstufen. Ab 190 Julius Othmer / Stefanie Pulst / Andreas Weich einer bestimmten Qualitätsstufe verfügen Gegenstände über eigene Werte, so genannte »Stats«, die die Attribute des Charakters zusätzlich erhöhen. Entscheidend für die Handlungsfähigkeit eines Charakters im Spiel und da- mit auch die Möglichkeit Risiken abzuschätzen, sind also drei Faktoren: Die er- lernten Fähigkeiten, die Skillung und die Ausrüstung. Sie alle müssen sinnvoll kombiniert und aufeinander abgestimmt sein, um sowohl in Gruppen als auch im Solospiel erfolgreich zu sein. Die Risikobewertung, ob beispielsweise der Angriff »Hinterhalt«¯11 gelingt oder nicht, hängt im Spiel also weder von der Geschicklichkeit des Spielers mit der Maus, noch von seinen sozialen Kompe- tenzen ab, sondern von den Einträgen in der Profildatenbank des Charakters. Zusammenfassend wird deutlich, dass sich die Qualität und Handlungsfähig- keit eines Charakters aus den Einträgen in einer Datenbank ergibt. Die Risiken, die man beispielsweise in Kämpfen eingeht, ergeben sich aus der Relation des eigenen Profils mit dem des jeweiligen Gegners. Es ist also die Grundlage für das Risikomanagement im Spiel. Kampf und Risikomanagement Ein großer Teil des Spiels besteht im Spielen von instanzierten Gebieten, so ge- nannten Dungeons, die als Kopie mit eigener ID für jede Gruppe von Spielern (5er, 10er, 25er, 40er) neu angelegt werden. Sie können also pro Spielwelt mehr- fach existieren und parallel von verschiedenen Gruppen bestritten werden. In ihnen befinden sich starke Endgegner, die nach ihrem Ableben begehrte Aus- rüstungsgegenstände (»Loot«) zurücklassen. Diese werden nach bestimmten Regeln an die Gruppenmitglieder verteilt¯12. Gerade nach dem Erreichen der Maximalstufe besteht ein Großteil des Spiels im wiederholten Spielen (auch »Abfarmen« genannt) dieser Dungeons, um an bestimmte Gegenstände zu gelangen. Verschiedene datenbankbasierte Hilfsmittel – und damit Absiche- rungen – sind für das Spielen von Dungeons immens wichtig. Die wenigsten Spieler gehen in Dungeons, um den narrativen Aspekt, also beispielsweise die Geschichte von World of Warcraft, nachzuspielen oder zu erleben. Für viele ist die Hauptmotivation das taktische Spielen in Gruppen, oder der Wunsch, in dem Dungeon einen bestimmten Gegenstand zu erhalten. Für jeden Gegen- stand gibt es einen prozentualen Wert, der angibt, wie hoch die Wahrschein- lichkeit ist, dass sich dieser Gegenstand bei einem bestimmten Gegner befin- det. Die Auswahl, welcher Dungeon gespielt werden soll, wird daher oft nach der Einsicht in die so genannten »Loottables«¯13 und der anschließenden Ri- sikobewertung getroffen. Ein Beispiel für ein bekanntes und seit langem ak- tuell gehaltenes Add-On, das genau diese Loottables anzeigt, ist Atlasloot (s. Abb. 5). WTF is my GearScore? 191 Abb. 5: Add-On Atlasloot Die Spielmotivation entwickelt sich dadurch von einer zunächst narrativen (ich gehe in den Dungeon, da sie in die Geschichte der Spielwelt eingebunden ist und eine erzählerische Relevanz hat) zu einer datenbank- und risikobasierten (ich gehe in den Dungeon, weil die Datenbank mir sagt, was ich darin bekom- men kann und wie wahrscheinlich es ist).¯14 Nachdem der Spieler durch die be- schriebene Risikobewertung einen Dungeon gewählt hat, geht es darum, das Profil des eigenen Charakters den darin gegebenen Bedingungen anzupassen. Da jeder Dungeon ein eigenes Anforderungsprofil hat, benötigen die meisten Spieler mehr als ein Equip (also die Gesamtheit aller ausrüstbaren Gegenstän- de). So wird für einige Endgegner beispielsweise ein bestimmter Resistenzwert gegen Feuer- oder Frostattacken benötigt. Bei anderen Bossen verspricht eine andere Skillung mehr Erfolg, auf die dann ebenfalls die Ausrüstung angepasst werden muss. Ursprünglich mit Hilfe von Add-Ons realisiert, gibt es nun auch einen Ausrüstungsmanager von Blizzard, der hilft, die eigene Ausrüstung an Situationen anzupassen und einen Überblick über das eigene Equip zu behal- ten. Datenbankbasierte Add-Ons wie WoW Equip (s. Abb. 6) simulieren zudem die Ausrüstungsdatenbank von World of Warcraft und ermöglichen es dem 192 Julius Othmer / Stefanie Pulst / Andreas Weich Abb. 6: Add-On WoW Equip Spieler, die Auswirkungen verschiedener Equipment-Sets auf seine Charakter- und Kampfwerte anzuschauen, bevor er sich diese Gegenstände im Spiel unter monetärem oder zeitlichem Aufwand und das Eingehen von Risiken beschafft. Hat der Spieler die Datenbank seines eigene Charakterprofils hinreichend an- gepasst und eingestellt, benötigt er noch eine passende Gruppe von Mitspie- lern, da Dungeons im Regelfall kaum allein zu bewältigen sind. Der Auswahl- prozess der Mitspieler hat sich im Laufe der Zeit verändert: Während man früher vor allem unbekannten Mitspielern vertrauen musste, dass sie einen Dungeon bereits erfolgreich bestritten hatten, kann heute jeder Erfolg des po- tentiellen Mitspielers über in- und externe Datenbanken eingesehen werden. Die soziale Komponente, also das Grundvertrauen gegenüber anderen Mit- spielern und dem Wahrheitsgehalt ihrer Aussagen, ist einer rationalen Daten- bankabfrage gewichen und wird oft auch auf diese reduziert. Früher gab es die Möglichkeit, Charakterprofile im Vorfeld genauer zu betrachten nicht. Le- diglich über die Optik von bestimmten Ausrüstungsgegenständen, wie bei- spielsweise Schulterstücken oder Waffen, konnten erfahrene Spieler erkennen, welche Dungeons von der Person bereits erfolgreich absolviert wurden. Das verbale Aushandeln und eine Einschätzung mittels der Optik ist im Laufe der Zeit immer mehr einer direkten Datenbankabfrage, also dem Abgleichen und WTF is my GearScore? 193 Abb. 7: Add-On Playerscore Überprüfen von nummerischen Werten gewichen. Einer dieser Werte ist die so genannte Gegenstandsstufe, die jedem Gegenstand einen bestimmten Wert zuordnet und ihn so vergleichbar macht. Unter anderem die Gegenstandsstu- fe dient dem Add-On Playerscore (s. Abb. 7) als Grundlage für eine, durch eine komplexe Formel berechnete Zahl (der so genannte »GearScore« (GS)), welche das komplette Equip eines Charakters in eine einzelne vergleich- und bewert- bare Zahl überführt. Dadurch hat sich bei der Suche potentieller Mitspieler die Chateingabe »/w me GS etabliert«, die bedeutet: Flüster mich an mit deinem GearScore-Wert. Die besseren Chancen von einer Gruppe mitgenommen zu werden, hat dem- entsprechend der Spieler, der den höheren GearScore aufweisen kann. Abge- sehen vom beschriebenen Add-On kann man sich auch auf Internetseiten wie [http://wtfismyGearScore.com/] diesen Wert berechnen lassen. Derartige Da- tenbankabfragen sind ein wichtiger Teil bei der Einschätzung, welches Risiko bzw. welche Sicherheit sich durch einen Mitspieler ergibt. Zusätzlich können in Chat oder Sprachkonferenzprogrammen noch Werte wie Schaden-pro-Se- kunde oder Heilung-pro-Sekunde¯15 abgefragt werden. Ein typischer Satz zur 194 Julius Othmer / Stefanie Pulst / Andreas Weich Kontaktaufnahme auf der Suche nach Mitspie- lern fasst die beschriebenen Entwicklungen an- schaulich zusammen: »LFM BoT 10er heute 20h. 2nd Tank (Pala/Krieger) und DD´s (Range bevorzugt) Loot ist FFA mit Main und Sec /w me mit GS« ›Übersetzt‹ bedeutet er: Es werden, für einen bestimmten Dungeon (Bastion of Twilight (Ba- stion des Zwielichts)) im 10er Spielmodus für 20 Uhr noch Mitspieler gesucht. Gesucht wer- den zudem bestimmte Klassen in bestimmten Skillungen. Im Vordergrund dabei steht nicht das narrative Element dieses Dungeons, son- dern das Sammeln von Ausrüstung und damit die Charakteroptimierung. Der Schlussteil »/w me [wisper me] mit GS [GearScore]« zeigt noch- Abb. 8: Der Dungeonbrowser in World of mal deutlich, wie wichtig dieser Zahlenwert im Warcraft Sinne des Risikomanagements ist. Die aktuellste Entwicklung bei der Überformung der Auswahl von Mitspielern durch eine Datenbanklogik bildet der Dungeon- browser (s. Abb. 8). Der Dungeonbrowser ist gewissermaßen die Partnersuch- maschine von World of Warcraft und kann genutzt werden, um sich, ohne im Chat nach Mitspielern suchen zu müssen, eine Gruppe für einen 5er¯16 Dun- geon zusammenstellen lassen. Wer sich anmelden will, wählt zunächst eine oder mehrere der drei taktischen Rollen aus, die er in dem Dungeon spielen möchte: Tank, Heiler und DD (Dama- geDealer (Schadensausteiler)).¯17 Ein Spieler kann sich für die Rollen anmel- den, die die Klasse seines Charakters theoretisch (in bestimmten Skillungen und mit bestimmter Ausrüstung) erfüllen könnte. Danach erfolgt entweder die Auswahl eines bestimmten oder die Zuordnung eines zufälligen Dungeons. Für den Dungeonbrowser sind lediglich zwei nummerische Werte entschei- dend: einerseits die ausreichend hohe Stufe des Charakters, andererseits die durchschnittliche Gegenstandsstufe des Charakters, die einen spezifischen Mi- nimalwert aufweisen muss.¯18 Die Prozesse der Gruppenfindung werden also auf Basis einer rudimentären Werterelation automatisiert und lösen den sozialen Raum in einer Datenbank auf. Auch die topologische Raumerfahrung der Spielwelt wird durch den Dun- geonbrowser grundlegend beeinflusst: Die Bewegung des Charakters in der WTF is my GearScore? 195 Abb. 9: GUI einer frühen Version von World of Warcraft Welt wird im Laufe des Spiels von Level 1 zum Maximallevel, aber auch im Laufe der Entwicklung von der Alphaversion bis zum heutigen Stand stetig beschleu- nigt. So läuft der Charakter auf Stufe 1 noch zu Fuß durch die Welt, bevor er auf Stufe 20 das Reiten erlernt (»Unerfahrener Reiter« +60% Bewegungstempo). Die Geschwindigkeit der Fortbewegung in der Spielwelt, vom Laufen zum Rei- ten bis zum Fliegen, wird mit steigendem Level des Charakters und je nach er- lernter Fähigkeit immer höher.¯19 Das Reisen bleibt aber trotz der Beschleunigung immer an ein narratives Ele- ment wie den Flugdrachen, das Portal etc. gebunden. An dieser Stelle ist nun der vollkommene Bruch durch den Dungeonbrowser mit dem bisherigen Raum- konzept interessant: Der Dungeonbrowser hat keinen Ort wie ein Portal oder Versammlungsstein, sondern kann einfach über das Interface aufgerufen wer- den. Mit Bestätigung wird der Charakter direkt in den Dungeon teleportiert und nach Abschluss wieder zurück. Die Durchsetzung und Wirkmächtigkeit der Datenbank zeigt sich hier also auch im Bruch mit dem geografischen und zu er- obernden Spielraum hin zu einer direkten Adressierung. 196 Julius Othmer / Stefanie Pulst / Andreas Weich Abb. 10: Neues GUI eines Schamanen mit Add-Ons Zusammenfassend lässt sich konstatieren, dass das eigene Selbst im Spiel, die Gegner und Mitspieler, sowie die Ziele und Gewinnchancen des Spiels sämtlich von der Datenbanklogik und von Berechnungen bestimmter Werterelationen überformt werden. Blizzards ›Beitrag‹ an dieser Überformung hält sich dabei stark in Grenzen. Seit Beginn des Spiels sind zwar immer wieder Werte und An- zeigen hinzugekommen, gemessen an der Datenbank-Flut durch Add-Ons sind diese jedoch eher als gering einzustufen. Die Durchsetzung und Sichtbarwerdung der Datenbank vor allem durch eben- diese Add-Ons hat auch direkte Auswirkungen auf das Risikomanagement im Prozess des Spielens. Während die Datenbank in der ursprünglichen Version des Spiels noch nahezu unsichtbar war und damit alles Feindliche als unbere- chenbare Größe auf den Spieler zukommt, ist die Datenbank im realen Spiel- alltag inzwischen prominent sichtbar und jeder Gegner auf Grundlage stati- stischer Daten abschätzbar. Wie in Abb. 9 und 10 zu sehen ist, überlagert die Visualisierung der Datenbank mittlerweile den eigentlichen Spielraum. Die sich daraus ergebenden Verschie- bungen lassen sich exemplarisch an zwei Add-Ons, dem Damagemeter und dem Aggrometer (s. Abb. 11), erläutern: Die Bedeutung der Werte wie Schaden pro Sekunde oder Maximalschaden in der Auswahl von Mitspielern wurde oben bereits thematisiert. Diese Werte werden auch während des Kampfes mithilfe von Add-Ons wie Recount angezeigt. Das Kampfsystem in World of Warcraft funktioniert durch eine grundsätzliche Arbeitsteilung in drei Bereiche: Heilen, WTF is my GearScore? 197 Abb. 11: Damagemeter des Add-Ons recount und Aggrometer des Add-Ons omen Schaden verursachen und »tanken«. Aufgabe des Tanks ist es durch Spezialfer- tigkeiten so viel Bedrohung (so genannte Aggressivität kurz: »Aggro«) zu er- zeugen, dass alle Gegner bei ihm bleiben. Klappt das nicht, greifen die Gegner beispielweise den kaum gepanzerten Priester an, wodurch es schwierig für die Gruppe wird den Kampf zu gewinnen. »Aggromanagement«, also die gezielte Steuerung der Aggression des Gegners auf den Tank, ist daher eine der wesent- lichen Aufgaben des Risikomanagements im Spiel. Sichtbar wird die Verteilung der Aggression durch Balkendiagramme im (Add-On) Omen. Deutlich wird hier auch, dass nicht mehr der ganze Charakter wichtig ist und betrachtet wird, sondern nur noch Fragmente bzw. Datenpakete seines Profils. Abb. 10 zeigt das Interface eines Schamanen, der beispielsweise die Aufgabe hat, seine Mitspie- ler während des Kampfes zu heilen. Der Raum des Spiels und das grafisch-nar- rative Setting haben für ihn nur noch begrenzte Bedeutung, da sich seine Auf- gabe in erster Linie in der Verwaltung der grünen Lebensbalken erschöpft. Hier zeigt sich eine Tendenz: Je sichtbarer die Datenbank, umso sicherer und berech- nender das Vorgehen der Spieler und im Kehrschluss: Je größer das Sicherheits- bedürfnis der Spieler ist, desto mehr Daten(banken) werden visualisiert. Wenn der Gegner gewogen, vermessen und somit bekannt ist und auch jede Form der Gefahr im Interface sicht- und damit beherrschbar gemacht wurde, bleibt als Unsicherheitsfaktor nur noch der Mitspieler. Aber auch hier haben sich Sicher- heitsstrategien und Risikomanagement etabliert. Eine Strategie des Ausschlusses vor Unsicherheit durch den Mitspieler ist eine starke Normierung und Typenbildung. Ausschlaggebend ist nicht der narra- tiv eingebundene, sagenumwobene Krieger Hector, sondern der Deftank, mit einer bestimmten Skillung und dazu passender Ausrüstung. In vielen World of Warcraft Foren existieren dafür Normvorschläge, die breit diskutiert und in Bezug auf ihre Effektivität berechnet werden.¯20 Für jede Klasse und Skil- lung gibt es eine oder mehrere Grundrotationen. Das bedeutet, dass man in Kämpfen immer wieder Attacken in einer bestimmten Reihenfolge ausführt. Beispielsweise: Ein Spieler spricht einen Zauber, der seinen Gegner für 15 Se- kunden anfälliger für Feuer macht. Danach spricht er 15 Sekunden Feuerzau- ber, dann wieder von vorne. Diese Rotationen werden je nach Situation ange- passt und sind manchmal auch eher Prioritätenlisten als starre, immer gleiche 198 Julius Othmer / Stefanie Pulst / Andreas Weich Abb. 12: Feral DPS Logic Chart (Rotation) Rotationen. Abb. 12 zeigt das grundsätzliche Schema einer solchen formalisier- ten Rotation.¯21 Neben Rotationen sind auch die Taktiken, wie man Endgegner besiegt, oft stark formalisiert/ standardisiert. Taktik-Guides, aus dem Internet oder Zeit- schriften, geben dabei eine Hilfestellung und meist etabliert sich eine be- stimmte Taktik so stark bei den Spielern, dass sie immer wiederholt und nicht von ihr abgewichen wird. Diese Taktiken sind nicht unbedingt der effektivste Weg, meist aber der sicherste und risikoärmste. Sie bilden einen Prototyp hin- reichend erfolgreicher Spielabläufe an denen sich der Spieler orientieren und an die er seine Spielhandlungen annähern kann bzw. soll. Ein weiterer ganz zentraler Faktor für die Optimierung der eigenen Spielweise ist neben der Standardisierung der Spielzüge und der Betrachtung der eigenen Leistung im Kampf zudem die Auswertung der Statistiken während und nach dem Ende eines Kampfes. Sie dient als Selbst- und Fremdmonitoring und kann (nach Abstimmung durch die Gruppe) im Falle schlechter Performance oder riskantem Spiel seitens einzelner Gruppenmitglieder zu deren direktem Aus- schluss führen. Zu Beginn war eine Kontrolle der Spielhandlungen nur über das »Kampflog« möglich, das jede Spielhandlung in einem rudimentären Satz der Form »X trifft Y mit Z für N körperlichen Schaden« dokumentiert. Das bereits WTF is my GearScore? 199 Abb. 13: Endauswertung eines Kampfes in World of Warcraft per Add-On recount erwähnte Add-On Recount sammelt diese Daten und bereitet sie in verschie- densten Tabellen und Diagrammen auf (s. Abb. 13). Über diese Statistiken ist es möglich, die eigenen Handlungen und deren Aus- wirkungen sichtbar und reflektierbar zu machen. Ganz im Sinne des Risiko- managements werden Daten über vergangene Situationen genutzt, um ge- genwärtige oder zukünftige Situationen zu bewerten und die Auswirkungen verschiedener Handlungsoptionen zu bestimmen. Die Auswertung von Kampf- logs (ob nun durch ein Add-On, eine externe Internetseite oder aus dem Bliz- zard Kampflog) dient auch der Optimierung der eigenen Spielweise. Neben dem Risikomanagement vor, während und nach dem Kampf ist auch der Ort des Kampfes im Hinblick auf Risiko und Sicherheit zu untersuchen. Betrach- tet man Dungeons im Sinne Münklers als einen Ort an dem von der Anlage her die Möglichkeit der Risikokultur besteht, so fungieren viele andere Teile des Spiels rahmend als Sicherheitswelt. Die erste dieser Rahmungen findet sich an den Eingängen der Dungeons. Sie bilden die Grenze zwischen dem Dungeon und der übrigen Spielwelt. Im Ge- gensatz zu Krankheiten und Monstern können nur die Spielercharaktere die- se Barriere überschreiten. Somit wird das erhöhte Risiko von Spielelementen, wie zum Beispiel von hochansteckenden und tödlichen Krankheiten in Dun- geons, nur dadurch umsetzbar, dass es einen abgetrennten Außenraum gibt, in dem die Spieler vor ihnen geschützt sind. Wird diese Grenze durchlässig, beispielhaft durch einen Fehler im Spiel, kann das ganze Spiel zusammenbre- chen. Besonders deutlich wurde dieser Zusammenhang an der so genannten »Zul’Gurub Seuche«, bei der exakt der beschriebene Sachverhalt eintrat und sich eine Seuche aus dem Dungeon hinaus verbreitete. Die Auswirkungen auf das Spielverhalten waren so stark, dass das Ereignis den Anstoß zur Verhaltens- forschung bei Epidemien in World of Warcraft gab.¯22 200 Julius Othmer / Stefanie Pulst / Andreas Weich Weiterhin verfügt ein Spielercharakter im Spiel nicht über eine bestimmte An- zahl von Leben und kann auch nicht ›Game Over‹ gehen und das Spiel damit verlieren. Sinken die Lebenspunkte eines Spielercharakters auf Null, stirbt er zwar, kann aber als Geist zu seinem Leichnam zurückkehren, von Mitspielern wiederbelebt werden oder an bestimmten Orten in der Spielwelt wiederauferstehen.¯23 Ein- zige Konsequenz ist die Beschädigung der Ausrüstung, welche aber auch mü- helos wieder behoben werden kann. Dieser Tod ist für den Charakter somit fast bedeutungslos, da nur Zeit und die fast endlose Ressource Gold, aber weder Er- fahrung noch Fertigkeiten verloren gehen. Ein weiterer Aspekt der sicherheitsweltlichen Rahmung findet sich bei der Aus- rüstung. Auch sie kann nicht vollends zerstört werden. Durch langen Gebrauch wird sie beschädigt und ist ab einem Haltbarkeitswert von Null nicht mehr funktionsfähig, kann aber jederzeit wieder repariert werden. Diese Tatsache verhindert wirklichen Verlust. Neben diesen genannten Beispielen für spielmechanische Sicherheitsfunkti- onen existieren noch soziale Sicherheitssysteme im Spiel. Einen dieser Sicher- heitsmechanismen bildet das Gildensystem. Eine Gilde ist der Zusammen- schluss von mehreren Spielern zu einer Gemeinschaft im Spiel unter einem gemeinsamen Namen. Sie kann mit Gegenständen und Gold aushelfen und die Mitglieder unterstützen sich gegenseitig. Damit wird die unbekannte und so- mit unsichere Gruppe möglicher Mitspieler durch die Sicherungsstrategie der Gilde zu einem bekannten und dadurch abschätzbaren sowie sicheren Faktor. Zusammenfassend lässt sich sagen, dass die Datenbank in World of Warcraft eine wichtige und im Verlauf der Spielentwicklung zunehmend dominantere und präsentere Rolle einnimmt. Von der Erstellung eines Charakterprofils über die Navigation durch die Spielwelt, die Spielmotivation und vor allem für das Risikomanagement im Kampf ist sie als Bewertungs- und Handlungsgrund- lage unabdingbar. Dem Spieler wird dabei die Verantwortung des Risikoma- nagements in verschiedensten Situationen übertragen und die Datenbank gleichzeitig als Konstitutionsinstanz des Risikos und als Handlungsgrundl age genutzt. Im Folgenden soll nun versucht werden, das Vergnügen am Spiel mit der Daten- bank vor einem subjekttheoretischen Hintergrund zu beleuchten. WTF is my GearScore? 201 Das Spiel mit dem Risiko aus der Position des doppelten Sub- jekts in der Datenbank Ein erster Ansatz wäre nun zu fragen, wie sich vor diesem Hintergrund das spielende, zum Zwecke des Risikomanagements Datenbanken benutzende Sub- jekt konstituiert. Im Anschluss an Ralf Adelmanns Beitrag ›There is no correct way to use the System.‹ Das doppelte Subjekt in Datenbanklogiken in diesem Band, so die hier vertretene These, kann für das Risikomanagement als da- tenbankbasiertes Element in Computerspielen im Allgemeinen und in World of Warcraft im Speziellen eine doppelte Subjektpositionierung angenommen werden. Die zentralen Thesen dazu lassen sich in einem Dreischritt zusam- menfassen • Das Subjekt wird faktisch/technisch in Datenbanken aufgelöst, dezentriert und in seiner Handlungsmächtigkeit zersplittert. Diese Zersplitterung wird u.a. durch Algorithmen und automatisierte Handlungsinstanzen implemen- tiert, die zwar vom Spieler im Vorfeld beeinflusst, nach ihrer Initialisierung je- doch nicht mehr direkt gesteuert werden können. • Das Subjekt wird gleichzeitig als bürgerliches, also kohärentes und in dieser Kohärenz handlungsmächtiges imaginiert. Diese Imagination wird u.a. durch Sichtbarkeit und ikonische Verweise von Daten(banken) für den Spieler imple- mentiert, die ihn als wissendes und handelndes Subjekt anrufen. • Beide Subjektpositionierungen schließen sich nicht aus, sondern bedingen sich gegenseitig und gerade in der Oszillation (bzw. auch Gleichzeitigkeit) zwi- schen beiden entsteht die Lust. Beziehen wir nun dieses Subjektverständnis zurück auf das datenbankbasier- te Risikomanagement in World of Warcraft, lässt sich folgende Hypothese aufstellen: Die Lust am spielerischen Risikomanagement entsteht aus dieser Perspektive durch das Wechselspiel zwischen der Aufgabe von risikobezogener Handlungssouveränität und der Imagination des kohärenten, handlungsfähigen Spielersubjekts, das die Datenbank nach seinen Wünschen benutzt und das eige- ne wie das kollektive Risiko managt. Wie lässt sich dies nun skizzenhaft auf der Grundlage der Analyse argumentie- ren? Als Charakter ist der Spieler zunächst als handelnder und kohärenter an- gerufen: Er hat ein Aussehen, einen Namen usw. Gleichzeitig verteilt er sich bewusst in verschiedene Datensätze, wie seine Ausrüstung, seine Kampfwer- te und seine Talentbäume. Aus dieser Perspektive ist das Spielersubjekt ein Datensatz bzw. Objekt in der Datenbank und kann durch sich selbst oder an- dere Spieler manipuliert werden. Er kann im Dungeonbrowser nach der Logik einer Partnervermittlung einer Gruppe zugeordnet werden und ist innerhalb 202 Julius Othmer / Stefanie Pulst / Andreas Weich der Gruppe in risikoreichen Kampfsituationen zunächst eine komplexe Varia- ble. Im Kampf weiß er, dass seine Handlungsfähigkeit in der Datenbank seines Profils verteilt und durch dieses determiniert ist, dass er aufgrund der Daten- sätze seiner Ausrüstung und Talente einen Angriff so oft und stark ausführen kann, wie er es tut. Gleichzeitig ist er aber als die handelnde Instanz angeru- fen, die diese Datensätze koordiniert, aktiviert und zu einer sinnvollen Aktion verknüpft. Gerade wenn man in Gruppen spielt wird die Dopplung des Subjekts noch deutlicher. Übernimmt der Spieler beispielsweise die Rolle des Damage- Dealers, ist er zunächst als bürgerliches Subjekt angerufen, das den Boss mit Angriffen überhäuft. Gleichzeitig taucht er aber im Interface der Heiler seiner Gruppe als abstrakter Datensatz auf, der regelmäßig eines Heilungszaubers bedarf, um nicht zu sterben. Für den Damage-Dealer wiederum ist der Heiler im Interface kaum mehr als die f lüchtige Info, dass die Lebenspunkte um X er- höht wurden. Das Risikomanagement benötigt also gleichzeitig beide Subjekt- positionierungen, jedoch nicht immer auf dieselbe Person bezogen. insgesamt wird deutlich, dass Risikomanagement in Spielen wie World of War- craft spielerisch über Datenbanken implementiert wird. Der Spieler nimmt dabei nacheinander oder gleichzeitig verschiedene Subjektpositionen ein. Fazit, offene Fragen und Perspektiven Wenn wir nun zum Anfang des Artikels und damit zum Risiko zurückkehren, lassen sich erste Hypothesen zur Rolle des Computerspiels in der Risikogesell- schaft formulieren. Das Computerspiel stellt einen Handlungsraum bereit, in dem Risiken produziert und vom Spieler mittels datenbankbasierter Prak- tiken bewertet und eingegangen werden. Dabei ist er, wie auch im lebenswelt- lichen Risikomanagement, dazu aufgerufen, sich in Datenbanken einzutragen, seine Werte zu optimieren und auf Grundlage von Datenbanken die ihn um- gebende, risikoreiche Welt einzuschätzen und entsprechend sicherheitswelt- licher und/oder risikokultureller Strategien seine Handlungen auszurichten. Wie die Sichtbarwerdung und Sichtbarmachung der Datenbank durch Skalen, Werte und Statistiken deutlich macht, zeigt sich – besonders im hochleveligen Spiel – ein Trend zum Spielen mit Risiko in sicherheitsweltlicher Prägung, der die Kultur des Risikos vermehrt ausschließt. Dieser Trend lässt sich zwar ver- allgemeinern aber nicht verabsolutieren. Die Untersuchung von Ausbrüchen aus diesen Sicherheitsspielen steht bisher noch aus. Bei all dem nimmt der Spielende gleichzeitig beide Seiten des doppelten Subjekts in Datenbanken ein, wie sie Adelmann beschreibt. Die beiden Subjektpositionen fallen aber nicht WTF is my GearScore? 203 zwingend in (s)einer Person zusammen: Der Spieler kann als bürgerlich imagi- niertes Subjekt die dezentrierten Subjekte der anderen bearbeiten und selbst als Datensatz von anderen bürgerlich imaginierten Subjekten wahrgenommen werden. In diesem aufeinander bezogenen Wechselspiel der Subjektpositionen wird dem Spieler dabei implizit ein spezifisches Wissen über den Umgang mit Risi- ko vermittelt. Es werden verschiedene Risiken vom Spiel selbst konstruiert und Handlungsmöglichkeiten sowie Subjektpositionen zum Risikomanagement an- empfohlen. Der Spieler wird spielerisch mit Darstellungen von Handlungsver- läufen, Werteberechnungen und darauf aufbauenden Risiko- und Handlungs- abwägungen vertraut gemacht. Das Wissen über Risikomanagement gleitet also, um es im Anschluss an Rolf F. Nohr zu formulieren, durch das Spiel hin- durch und wird als spielerisches naturalisiert (2008, 96ff.). Dabei übernimmt er nicht nur Funktionen des individuellen, sondern auch des kollektiven Risiko- managements der Gruppe. Folgt man nun der These, dass sich das Konzept Ri- siko zu einer omnipräsenten und alltäglichen Subjekt- und Erfahrungstechnik entwickelt hat, lässt sich abschließend die These aufstellen, dass Computer- spiele wie World of Warcraft implizites Orientierungswissen (Neitzel/ Nohr/ Wiemer 2009) der Gegenwartskultur vermitteln und daher als ein zentrales Medium der Risikogesellschaft angesehen werden können. Anmerkungen 01˘ Zugunsten der Lesbarkeit wird hier und im Folgenden das generische Maskulinum verwen- det, wobei die weibliche Form inhaltlich immer zu gleichen Teilen mit angesprochen wird. 02˘ MMORPG steht für Massively Multiplayer Online Role-Playing Game. 03˘ Verschiedene Formen der Selbstverantwortung wurden und werden verschiedentlich wis- senschaftlich aufgearbeitet. Dazu exemplarisch: Bröckling (2007). 04˘ Die alltägliche Konfrontation des einzelnen Subjekts mit dem Konzept des Risikos ist der momentane Stand der Entwicklung des Risikobegriffs, der seine Wurzeln bei der Entstehung des Seehandels im 14. Jahrhunderts in Italien findet. Das Konzept Risiko durchdringt bei sei- ner Entstehung vorerst nur einzelne gesellschaftliche Gruppen und wenige Subjekte, bevor es sich immer weiter auffächert. Dazu exemplarisch: Bonß (1995). 05˘ Münkler benennt den Finanzmarkt als Beispiel für die Risikokultur. Die Bezeichnung des Finanzcasinos verweist dabei deutlich auf einen anderen Umgang als den rein rational be- rechnenden, der laut Münkler als spielerisch beschrieben wird. 06˘ Zur Verdeutlichung der gegenseitigen Rahmungen: Die schon beschriebene Kultur des 204 Julius Othmer / Stefanie Pulst / Andreas Weich Risikos der Spekulation im Finanzwesen wird gerahmt durch das Sicherheitssystem der staatlichen Strukturen, welche die Risikokultur zwar reglementieren sie aber auch stabi- lisieren und durch die Kollektivierung von Risikoausfällen erst ermöglichen (vgl. Münkler 2010, 14f.). 07˘ Vielen Dank an dieser Stelle noch mal an Frederic Rehbein für produktiven Input und di- verse Screenshots seines Charakters. 08˘ Auf Seiten der Fraktion »Allianz« sind die Rassen Mensch, Zwerg, Nachtelf, Gnom, Draenei und Worgen verfügbar, während die Fraktion »Horde« die Tauren, Orks, Untote, Trolle, Goblins und Blutelfen wählen kann. 09˘ Als Klassen stehen zur Auswahl: Krieger, Jäger, Druide, Hexenmeister, Schamane, Schurke, Todesritter, Priester, Magier und Paladin. Dabei sind nur bestimmte Rassen- / Klassenkombinationen erlaubt. 10˘ Zwar sind im Laufe der Zeit immer wieder einzelne Werte hinzugefügt oder ent- fernt worden (so wurde beispielsweise mit dem Patch 4.0 (Europa 13.10.2010) Rüstungsdurchschlag aufgrund seiner komplizierten Handhabung komplett entfernt, wäh- rend Meisterschaftswertung als neuer Wert hinzugekommen ist), generell lässt sich jedoch sagen, dass die Werte des Charakters in der Summe nicht wesentlich mehr, rein visuell aber wesentlich präsenter geworden sind. Das wird vor allem daran ersichtlich, dass sie nun in einer eigenen ›Bar‹ angezeigt werden und nicht mehr unter dem Charakter. 11˘ Hinterhalt ist ein bestimmter Eröffnungsangriff (Opener) von einem Schurken. Der hier ge- zeigte Tooltip entspricht einem Schurken auf Level 85: »Greift das Ziel aus dem Hinterhalt an und fügt ihm so 190% Waffenschaden plus (367*190/100) zu (oder bei Ausrüstung mit Dolch (190*1.447)% Waffenschaden plus (367*190/100*1.447)). Muss verstohlen und hinter dem Ziel sein. Gewährt zwei Combopunkte«. 12˘ Ein Beispiel – besonders für die Loot-Vergabe bei Raids (daher 10er,- 25er- und 40er- Schlachtzüge) – sind die so genannten DKP Systeme: Übersetzt Dragon Kill Points, ur- sprünglich aus dem Spiel everquest. Es handelt sich hierbei um ein externes System, das der (gerechten) Lootverteilung in festen Spielergruppen dienen soll. Dabei sammeln die Spieler – durch die Teilnahme an Gruppen/Gildenaktivitäten – Punkte, mit denen sie auf bestimmte Beuteteile bieten können. 13˘ Ein Loottable ist eine Auflistung aller Gegenstände, die von bestimmten Endgegnern eines Dungeons erbeutet werden können. Meist wird zusätzlich angegeben, welche Wahrscheinlichkeit ein Drop hat und natürlich über welche Werte der Gegenstand verfügt und bei welchem Gegner er erbeutet werden kann. Die Dropchancen von Gegenständen rei- chen dabei innerhalb des Spiels von 100% bis hin zu Werten von 0,5% oder noch geringer. 14˘ Seit dem Patch 4.2 (29.06.11) hat Blizzard eine eigene Datenbank in das Spiel implemen- tiert, das Dungeonkompendium. Generell könnte man somit auf Atlasloot verzichten, aller- dings ist das Feature von Blizzard weniger ausführlich. So wird beispielsweise nur angezeigt, welcher Gegenstand wo erbeutet werden kann, aber nicht wie hoch die Wahrscheinlichkeit WTF is my GearScore? 205 ist. Ähnlich ist es bei den mitgelieferten Informationen über die Bosse der Instanz. Hier gibt Blizzard zwar preis, welche Fähigkeiten ein Boss besitzt – der Spieler kann sich also vorbereiten – allerdings wird keine Taktik empfohlen oder ähnliches. Es ist daher wahr- scheinlich, dass Spieler weiter externe Seiten oder Add-Ons nutzen werden, um genauere Informationen (wie Wahrscheinlichkeiten oder bereits erprobte Bosstaktiken) zu erhalten. 15˘ Damage-Per-Second (durch den Spielercharakter verursachter Schaden pro Sekunde) und Heals-Per-Second (durch den Spielercharakter verursachte Heilung pro Sekunde) sind zwei von mehreren Werten im Spiel, welche über Add-Ons ausgelesen werden, die Leistungsfähigkeit eines Spielercharakters beschreiben und damit abschätzbar machen. Ausschlaggebend für den Wert sind neben dem Level des Charakters Faktoren wie Rasse, Klasse, Skillung, Ausrüstung und Spielweise. 16˘ Dieses Tool funktioniert nur bei Dungeons, die für eine Gruppe von 5 Spielern ausgelegt sind. 17˘ Heiler, Tank oder DamageDealer beschreiben die drei typischen Rollen im Kampf in ei- ner Gruppe. Die Aufgabe des Tank ist es, durch Aggromanagement die Gegner an sich zu binden, sodass diese nur ihm Schaden zufügen, während die DD´s entweder als Nah- oder Fernkämpfer sich darauf konzentrieren, möglichst viel Schaden auszuteilen. Der Heiler hat dementsprechend die Aufgabe, vor allem den Tank aber auch die DD´s am Leben zu halten. Wer eine Rolle einnehmen kann ist anhängig von der gewählten Klasse und der Skillung. 18˘ Dies gilt insbesondere für den heroischen Modus von Dungeons. Spieler, die die Maximalstufen erreicht haben, können ab einem bestimmten Ausrüstungsstand (bewer- tet nach Blizzards »durchschnittlicher Gegenstandsstufe«) heroische Versionen jeder Instanz bestreiten. Diese beinhalten besseren Loot und bieten eine größere spielerische Herausforderung, als die nicht heroischen Versionen. 19˘ Auf das einfache Reiten folgt mit Stufe 40 das schnellere Reiten (»Geübtes Reiten« +100% Bewegungstempo) und mit Stufe 60 schlussendlich das Fliegen (»erfahrenes Reiten« + 150% Fluggeschwindigkeit). Unter monetärem Aufwand kann man die Geschwindigkeit des Fliegens noch zwei Mal erhöhen (Stufe 70, »gekonntes Reiten« +280% Fluggeschwindigkeit und Stufe 80, »meisterhaftes Reiten« +310% Fluggeschwindigkeit). 20˘ Exempl.: [http://www.wow-snippets.de/magier-skillung-und-talente]; letzter Aufruf: 27.6.2011. 21˘ Innerhalb der WOW Community existieren auch viele ironische Brechungen und andere Umgangsformen mit dem Konzept der Rotation und auch der Überfrachtung des Interface mit Zahlen. Hier sei exemplarisch auf [http://motivationalist.blogspot.com/2009/11/was- i-standing-in-fire.html] verwiesen (letzter Aufruf: 11.08.2011). 22˘ Exemplarisch: [http://www.heise.de/newsticker/meldung/Virtuelle-Spielwelten-als- Plattform-fuer-Seuchenmodelle-165283.html] sowie [http://www.netzwelt.de/news/ 72539-virtuelle-seuche-wuetet-world-of-warcraft.html]; letzter Aufruf jew.: 27.6.2011). 23˘ Diese als Friedhof bezeichnete Widerauferstehungspunkte befinden sich meinst auch in 206 Julius Othmer / Stefanie Pulst / Andreas Weich unmittelbarer Nähe eines Dungeoneingangs und sichern diesen somit zusätzlich ab. Bibliografie Adelmann, Ralf (2012) »There is no correct way to use the system«. Das doppelte Sub- jekt in Datenbanklogiken. In: Stefan Böhme / Rolf F. Nohr / Serjoscha Wiemer (Hg.): Sortieren, Sammeln, Suchen, Spielen. Die Datenbank als mediale Praxis, LIT-Verlag Münster, S. 253-267. Aradau, Claudia / Lobo-Guerrero, Loius / van Munster, Rens (2008) Security, Technologies of Risk, and the Political: Guest Editors‘ Introduction. In: Security Dialogue 39,2- 3, S. 147–154. Beck, Ulrich (2007) Weltrisikogesellschaft. Auf der Suche nach der verlorenen Sicherheit. Bonn: Bundeszentrale für Politische Bildung. Bonß, Wolfgang (1995) Vom Risiko. Unsicherheit und Ungewißheit in der Moderne. Ham- burg: Hamburger Ed Bröckling, Ulrich (2007) Das unternehmerische Selbst. Soziologie einer Subjektivierungs- form, Frankfurt am Main: Suhrkamp. Münkler, Herfried (2010) Strategien der Sicherung: Welten der Sicherheit und Kulturen des Risikos. Theoretische Perspektiven, In: Ders. et al. (Hg.): Sicherheit und Risiko. Über den Umgang mit Gefahr im 21. Jahrhundert. Hrsg. v. ders., Matthias Bohlender & Sabine Meurer. Bielefeld: Transcript, S. 11-34. Neitzel, Britta / Nohr, Rolf F. / Wiemer, Serjoscha (2009) Benutzerführung und Technik-Enkulturation. Leitmediale Funktionen von Computerspielen. In: Leitmedien. Kon- zepte, Relevanz, Geschichte. Hrsg. v. Daniel Müller, Annemone Ligensa & Peter Gendolla. Bielefeld: Transcript, S. 229-254. Nohr, Rolf F. (2008) Die Natürlichkeit des Spielens. Vom Verschwinden des Gemachten im Computerspiel. Münster: LIT Verlag. Gameografie World oF WArcr AFt, Blizzard Entertainment 2004-2011 Add-Ons: Atl Asloot Project Manager: Hegarol Additional Authors: Daviesh, arith, Celellach, Lag123 Current Version: v6.03.02 WTF is my GearScore? 207 License: GNU General Public License version 2 (GPLv2) Development Site: WowAce.com Pl Ayerscore Hersteller: Mirrikat45 omen Project Manager: Xinhuan Additional Authors:Antiarc, Nevcairiel, anmoch Current Version:v3.1.4 License: All Rights Reserved Development Site: WowAce.com recount Project Manager:Elsia Additional Authors: Cryect Current Version: v4.2.0f release License: All Rights Reserved Development Site: WowAce.com WoW equIP Proj. Manager: Xinhuan Additional Authors: Grum Current Version: v1.3 License: All Rights Reserved Development Site: WowAce.com 208 Julius Othmer / Stefanie Pulst / Andreas Weich Felix Raczkowski Von fiktiven Enzyklopädien und realen Datenbanken – die Ästhetik von Fan-Wikis Jorge Luis Borges entwirft in seiner bekannten Kurzgeschichte »Tlön, Uqbar, Or- bis Tertius« eine Welt, deren Realität durch eine Enzyklopädie verändert wird. Erscheint das titelgebende Land Uqbar anfangs noch fiktiv, diffundiert es im Zuge der sukzessiven Aufnahme seiner Gebräuche, Sprache und Naturgesetz- mäßigkeiten in bekannte Enzyklopädien hinüber in die Realität, deren Erschei- nungsform mehr und mehr der Uqbars zu ähneln beginnt. Die erste Enzyklo- pädie von Tlön, eine treibende Kraft dieser Entwicklung, ist dabei vergleichbar mit einer ganzen Reihe fiktiver Enzyklopädien, die – mal als Teil einer über- geordneten Erzählung,¯1 mal als Ergänzung beziehungsweise Spin-Off¯2 oder als eigenständiges Werk¯3 – den geordneten, katalogisierten Blick in fiktive, phantastische und erträumte Welten eröffnen. Diese Ordnungssysteme des Irrealen, so die Ausgangsbeobachtung, werden in jüngster Vergangenheit um neuartige Nachschlagewerke ergänzt, die zwar gleichermaßen Fiktionen kate- gorisieren, sich zu ihrem Gegenstand aber völlig anders verhalten als die ein- leitenden Beispiele. Gemeint sind von Fans erstellte, verwaltete und regelmä- ßig aktualisierte Online-Enzyklopädien auf Basis der Wiki-Software. Es handelt sich, vereinfacht ausgedrückt, um von allen Benutzern frei editierbare, multi- mediale Datenbanken, deren Suchmaschinen auf Basis der booleschen Alge- bra¯4 operieren und somit assoziative Suchabfragen ermöglichen. Während Wikipedia den sicherlich bekanntesten Vertreter dieser Technologie und der sie begleitenden Nutzerbeteiligung darstellt, sind jenseits ihrer Grenzen mittler- weile Wikis zu nahezu allen Themen entstanden, die über einen entsprechend technikaffinen Interessentenkreis verfügen. Dazu gehören auch multimediale Franchises wie die Harry Potter-Romanreihe [http://harrypotter.wikia.com/ wiki/Main_Page], die TV-Serie Lost [http://lostpedia.wikia.com/wiki/Main_ Page] oder das Onlinespiel World of Warcraft [http://www.wowpedia.org/ Portal:Main]. Ähnlich wie Borges‘ Erste Enzyklopädie von Tlön stellt beispiels- weise die Wowpedia die erschöpfende, verschlagwortete Erfassung einer fik- tiven Welt dar. Azeroth ist durch sein eigenes Wiki mindestens so gut doku- mentiert wie Uqbar. Anders als in Borges‘ Erzählung ist dafür allerdings kein Geheimbund verantwortlich, sondern die begeisterten Spieler des MMORPGs Die Ästhetik von Fan-Wikis 209 (Massively Multiplayer Online Role-Playing Game), seine Fans. Die Datenbank (in Gestalt von Wikis) wird somit immer stärker zu einer zentralen Fanpraxis, deren Effekte für Franchises und Fankulturen Gegenstand der folgenden Unter- suchung sind. Dabei stehen drei zentrale Auswirkungen von Fanenzyklopädien im Vordergrund der Erörterung: •Fanwikis als Orte der Katalogisierung und Historisierung weitgehend ge- schichtsloser medialer Formen wie Alternate-Reality-Games oder Online- Games •Fanwikis als Kristallisationspunkt einer auf Decodierung und Operationali- sierung angelegten Auseinandersetzung mit ihren Gegenständen •Fanwikis als enzyklopädische Erfassung und Fortführung einer Fiktion. Um die Bedeutung des Wikiprinzips für den Fanaustausch im Internet zu ana- lysieren, ist dabei zunächst einleitend ein kurzer Überblick über die bisherige Rolle des Mediums für Fandiskurse angebracht. Das Internet gilt bereits seit seiner Entstehungszeit als ein Medium, das die Kommunikation und Organisation unter lokal teilweise weit verstreuten In- teressengruppen vereinfacht oder erst ermöglicht. Deshalb und aufgrund der sehr spezifischen sozialen Zusammensetzung seiner frühen Nutzer (vgl. Haf- ner; Lyon 2006; Jenkins 2006a, 138) gehörte eine Mailingliste für Science-Ficti- on-Enthusiasten mit dem prägnanten Titel SF-Lovers (vgl. Hafner; Lyon 2006, 201) zu den populärsten Listen des frühen Internets. Diese Form des Fanaus- tausches über dezentral geführte Email-Debatten blieb auch nach der kom- merziellen Öffnung des Internets um 1990 herum populär und weitet sich the- matisch erheblich über den begrenzten Rahmen der Science-Fiction aus. Dabei spielen sowohl Reichweite als auch Geschwindigkeit des neuen Mediums eine zentrale Rolle für Fans, denen unmittelbarer Austausch mit zahlreichen Gleich- gesinnten ebenso wie der Zugang zu Medieninhalten anderer Kulturkreise (zum Beispiel japanische Animationsfilme und -serien) ermöglicht wird. Insbe- sondere die Geschwindigkeit, mit der sich neue Fan-Communities konstituie- ren, nimmt erheblich zu, wie Henry Jenkins anmerkt: »New fandoms emerge rapidly on the Web – in some cases before media products actually reach the market. As early participants spread news about emergent fandoms, supporters quickly de- velop the infrastructure for supporting critical dialogue, producing annotated program guides, providing regular production updates, and creating original fan stories and artwork. The result has been an enormous proliferation of fan Web sites and discussion lists […] As fandom diversi- fies, it moves from cult status toward the cultural mainstream, with more Internet users enga- ged in some form of fan activity« (Jenkins 2006a, 142). 210 Felix Raczkowski Mit den direkten Veränderungen der Kommunikationsbedingungen durch das Internet geht in Fandiskursen zudem ein Wandel im Umgang mit Medieninhal- ten und Texten einher. Jenkins spricht mit Pierre Levy (Jenkins 2006a, 134ff.) von einer kollektiven Fanintelligenz, die sich – durch Foren und Mailinglisten gebündelt – detailliert mit den Medieninhalten auseinandersetzt und umfas- sendes Fachwissen ansammelt beziehungsweise generiert. Fandiskurse wer- den zunehmend zu für Außenstehende nicht nachvollziehbaren Expertendis- kursen. Gleichermaßen ist über die vergangenen zwei Jahrzehnte auch eine wachsende Komplexität medialer Unterhaltungsformen zu beobachten, die ein entsprechendes Engagement ihrer Konsumenten und Nutzer fördert (vgl. Johnson 2005). So stellt Jenkins in Bezug auf eine Online-Community zur TV- Serie Twin Peaks Anfang der 90er Jahre fest: »In many ways the perfect text for this computer-based culture, Twin Peaks combined the syn- tagmatic complexity of a mystery with the paradigmatic plentitude of the soap. The space be- tween episodes gave ample time for audience speculations while the core narrative moved for- ward at breakneck pace, continually opening up new enigmas while closing down others […]« (Jenkins 2006a, 120). Die komplexe Rätselhaftigkeit von David Lynchs Fernsehserie formte Commu- nities und löste Debatten aus, die teilweise bis heute andauern.¯5 Die Ausei- nandersetzung der Fans mit dem Material reicht dabei von der konzentrierten, einmaligen Sichtung einer Folge (und der anschließenden Beteiligung an ent- sprechenden Online-Diskussionen) bis hin zu einem VHS- beziehungsweise DVD-gestützten close reading und der regelrechten Sequenzanalyse einzelner Szenen. Die technologische Grundlage für diesen Austausch – und hier besteht ein er- ster bedeutsamer Unterschied zu den Sci-Fi-Fans der 70er Jahre – basiert dabei nicht mehr auf Mailinglisten, bei denen jeder Diskussionsbeitrag eine Rund- mail darstellt, sondern auf den Newsgroups des Usenet. Funktional ein Vor- läufer heutiger Internetforen und technisch verwandt mit der Dezentralität von Mailinglisten, ermöglicht das Usenet die Veröffentlichung einzelner Artikel (oder Posts), die durch die Antwortfunktion für andere Nutzer Teil einer line- ar nachvollziehbaren Diskussion werden können. Sowohl Newsgroups als auch Foren können Diskussionen chronologisieren und strukturieren – die gezielte Zusammenstellung und Verwaltung von Daten und Informationen gestaltet sich in den nach Threads organisierten Plattformen schwierig. Zwar sind Fo- ren durchsuchbar und Threads können konkreten Einzelthemen gewidmet und unabhängig von ihrer Aktualität sichtbar gemacht werden,¯6 eine gezielte Su- che nach enzyklopädisch verschlagworteten Inhalten ist innerhalb einer Fo- Die Ästhetik von Fan-Wikis 211 renstruktur jedoch nicht möglich. Dennoch sind Fandiskurse in Foren zu be- obachten, die sehr umfangreiche und komplexe Datensätze hervorbringen.¯7 Die Forensoftware fungiert dabei zumeist nur als Ort der Veröffentlichung und Erörterung der Daten, generiert werden sie häufig mit anderen Programmen (zum Beispiel Tabellenkalkulationssoftware oder Textverarbeitung). Der we- sentliche Unterschied zwischen Fanforen und den Wikis, die sich in den ver- gangenen zehn Jahren etabliert haben, besteht in der Art und Weise, wie solche Daten handhabbar gemacht werden. In Wikis werden die Ergebnisse des Fan- diskurses nicht nur veröffentlicht und diskutiert, sondern auch archiviert, ver- schlagwortet und (nicht zuletzt für Außenstehende) auffindbar beziehungs- weise durchsuchbar gemacht. Welche Folgen diese Entwicklung für Fans und Franchises gleichermaßen nach sich zieht, soll im Folgenden anhand dreier Bei- spiele erläutert werden. Enzyklopädien von Azeroth – Wowpedia und die Katalogi- sierung von Online-Games Als World of Warcraft am 23. November 2004 in den USA erschien, stellte es die jüngste Fortführung einer bereits zehn Jahre alten Spieleserie dar. In dem Massively Multiplayer Online Role Playing Game (MMORPG) war die Welt von Azeroth erstmals in Gestalt eines Charakters für den Spieler durchquerbar, statt sie – wie in den Vorgängertiteln – nur als Feldherr erobern zu können. Im Zuge der erheblichen Popularität von World of Warcraft wurde die dem Spiel zugrunde liegende Fiktion durch zahlreiche transmediale Tie-Ins¯8 ausgewei- tet; das Spiel selbst gewann durch verschiedene kleinere und größere Inhalts- erweiterungen seinerseits an Umfang und Komplexität. Wer 2011 in einer aktu- ellen Version des Spiels einen Charakter erstellt, hat die Wahl aus zwölf Rassen, die wiederum als zehn verschiedene Klassen in Erscheinung treten und aus elf primären oder vier sekundären Berufen auswählen können. Die einmal erstell- te Spielfigur kann vier Kontinente mit jeweils zahllosen Ländern und Gebieten bereisen und aberhunderte Quests erledigen und Gegner bekämpfen. Bemer- kenswert ist, dass keine Version von World of Warcraft mit einem Handbuch ausgeliefert wird; die Komplexität des Spiels soll sich Neueinsteigern allmäh- lich erschließen und sich selbst erklären. Trotz dieses Marketingversprechens der einfachen Zugänglichkeit begannen Spieler bereits unmittelbar nach Er- scheinen von World of Warcraft, dessen Welt zu katalogisieren, sie zu ver- schlagworten und ihre im Hintergrund operierenden Regeln offenzulegen. 212 Felix Raczkowski Am 24. November 2004, also einen Tag nach dem Verkaufsstart von World of Warcraft, riefen zwei Spieler Wowwiki (heute Wowpedia) ins Leben,¯9 zu- nächst einzig als Informationsquelle für das namensgebende Spiel und ins- besondere seine Interface-Modifikationen.¯10 Mittlerweile hat sich dieser Fo- kus erheblich ausgeweitet, wie das Selbstverständnis der Online-Enzyklopädie deutlich macht: »Since the launch, the wiki has expanded massively to cover the entirety of the Warcraft uni- verse, including the RTS games, novels, the RPG reference books, manga, and other written sources, along with the WoW expansion packs, World of Warcraft: The Burning Crusade, World of Warcraft: Wrath of the Lich King and World of Warcraft: Cataclysm« [http://www.wowpe- dia.org/Wowpedia#cite_ref-4]. Heute stellt Wowpedia mit über 90.000 Einzeleinträgen¯11 die umfassendste enzyklopädische Informationsquelle zu World of Warcraft dar. Fast jedes vir- tuelle Objekt, das im Spiel gefunden werden kann, und fast jeder NPC (Non Pla- yer Character), mit dem die Spieler interagieren können, verfügt über einen ei- genen Eintrag. Vereinzelt existieren auch Einträge zu Spielern, die innerhalb der Community besondere Bekanntheit erlangt haben.¯12 Dazu kommen In- formationen zu anderen Produkten des Warcraft-Franchise. Versteht man nun die Online-Enzyklopädie als Datenbank, so stellt sich zunächst die Frage, wel- che Art von Daten von Wowpedia verwaltet werden. Am ehesten an eine »klassische« Vorstellung von Datenbanken als Tools zur Unternehmensführung¯13 erinnert die Vielzahl an numerischen Werten, die Wowpedia umfasst. Modernen Computerspielen liegen komplexe Berech- nungen zugrunde, die sich natürlich immer hinter benutzerfreundlichen In- terfaces zu verbergen suchen. In Onlinespielen wie World of Warcraft ist da- bei eine der am häufigsten an das Programm herangetragenen, aber nur sehr selten direkt von Entwicklern beantworteten Fragen, diejenige nach Wahr- scheinlichkeit. In nahezu allen Bereichen des Spiels sind Wahrscheinlichkeiten von entscheidender Bedeutung. Dazu gehören unter anderem die Wahrschein- lichkeit, dass ein computergesteuerter Gegner einen bestimmten Angriff ver- wendet; die Chance, beim Plündern von besiegten Gegnern oder Schatzkisten einen bestimmten Gegenstand vorzufinden oder die Wahrscheinlichkeit, be- sondere NPCs in der Spielwelt anzutreffen. Wowpedia gibt über viele dieser Wahrscheinlichkeiten und die aus ihnen abzuleitenden Muster und Spielre- geln Auskunft, häufig unter Berufung auf dritte Instanzen in Form weiterer Fanprojekte, die sich zumeist dezidiert der genauen Untersuchung einzelner Aspekte des Spiels widmen.¯14 Die auf diese Weise ermittelten Werte gehen dabei nicht auf Informationen vom Entwickler, sondern auf die von zahllosen Die Ästhetik von Fan-Wikis 213 Spielern gewissermaßen im empirischen Feldversuch erhobenen Daten zurück. Bis der Entwickler Blizzard Entertainment 2007 einen spielbegleitenden Dienst einführte,¯15 der einige zusätzliche Informationen bereitstellte, stellten die von Spielern verwalteten Datenbanken die einzige Quelle für diese Daten dar. Neben dem numerischen Grundgerüst des Spiels und seiner Regeln finden sich besonders im wörtlichen Sinne historische Daten zur Welt von Warcraft in den Einträgen der Wowpedia. Die Fiktion von Warcraft ist hier vollständig erfasst: von der Frühgeschichte Azeroths über die verschiedenen Gruppierungen und ihre Ziele bis hin zu den Biographien der Figuren, die die Welt bevölkern, ist al- les mit Einträgen bedacht, was vom Erscheinen des ersten Spiels 1994 an die Erzählung bestimmt hat. Diese enzyklopädische Aufbereitung der Welt ist ein Effekt dessen, was Transmedialitätstheoretiker wie Geoffrey Long als »World- building« (Long 2007, 9) bezeichnen: Um eine Erzählung fesselnd über mehre- re Medien zu entwickeln, ohne dabei in Muster der Repetition und Adaption zu verfallen, ist es notwendig, sich nicht auf einzelne Charaktere, sondern auf die fiktionale Welt zu konzentrieren, in der sie spielt. Dementsprechend lässt sich für die Warcraft-Reihe kein Protagonist bestimmen, die verschiedenen Spiele, Bücher und Comics entwerfen allerdings eine konsistente, weitgehend in sich schlüssige Welt. Diese – und darin besteht ein zentrales Problem vieler trans- medialer Ansätze – wird schnell sehr komplex und macht es einzelnen Rezi- pienten schwer, den Überblick über das fiktionale Universum zu behalten. Je komplexer eine in sich geschlossene Welt wird, desto eher bietet sich an, sie sy- stematisch zu erfassen. Diese systematische Erfassung erfolgt (wie auch am Beispiel von Lost nachzuweisen sein wird) häufig entlang der Logik der Daten- bank und wird durch übergeordnete Wiki-Strukturen (re)präsentiert. Die inhä- rente narrative Komplexität des Warcraft-Franchise, die anders als im Falle von Lost ausschließlich über den schieren Umfang der Erzählung zustande kommt, ist nur aufgrund ihrer enzyklopädischen Aufbereitung überhaupt nachvoll- ziehbar. Wowpedia macht somit nicht nur einige der dem Spiel (im Verbor- genen) zugrunde liegenden Mechanismen und Regeln greifbar, sondern sta- bilisiert auch dessen Fiktion, indem es sie systematisch durchsuchbar macht. Bei Borges ist die fiktive Enzyklopädie der durch sie generierten Welt vorgän- gig, umfangreiche Fiktionen wie die Warcraft-Reihe hingegen rufen ihre enzy- klopädische Aufbereitung erst hervor. Die Beziehung zwischen dem Warcraft- Franchise und Wowpedia kann somit als paradigmatische Ausprägung von Lev Manovichs Argument für die strukturelle Ähnlichkeit zwischen Datenbanken und interaktiven Narrativen verstanden werden. Manovich entwickelt seine Datenbank-Ästhetik in Folge seiner Beobachtung der Emergenz der Datenbank als dominierendem kulturellen Prinzip. Die Allgegenwart von Daten und Da- 214 Felix Raczkowski tenverarbeitung auch im Kontext kreativer Anwendungen macht eine Neube- trachtung von (multimedialen) Kulturerzeugnissen unter den Bedingungen ihrer Organisation und Funktion notwendig, so auch im Fall der Hyper-Nar- rative: »The ›user‹ of a narrative is traversing a database, following links between its records as esta- blished by the database’s creator. An interactive narrative (which can be also called ›hyper-nar- rative‹ in an analogy with hypertext) can then be understood as the sum of multiple trajecto- ries through a database« (Manovich 1999, 87). Wowpedia externalisiert die nichtlineare auf eine Welt ausgerichtete Warcraft- Fiktion und legt sie als ein Geflecht von narrativen Einzelstrukturen offen. Die zahlreichen »möglichen« Erzählstränge, die sich beispielsweise in World of Warcraft ergeben, lassen sich durch das von Fans zusammengetragene Mate- rial systematisch nachvollziehen. Dabei ergeben sich innerhalb der Datenbank, die dem Wiki zugrunde liegt, interessante Doppelungen aus der Tatsache, dass Wowpedia sowohl die Fiktion des Spiels als auch seine Mechanik katalogisiert: Eine ganze Reihe von Einträgen zu NPCs,¯16 die im Spiel bekämpft werden kön- nen, liegt doppelt vor, um sowohl ihrer Bedeutung für die übergreifende Nar- ration wie auch ihrer Rolle als reglementiertem Spielinhalt gerecht zu werden. In diesen Fällen führt die Suche nach dem Namen des NPCs zu einer Auswahl zweier Artikel mit den jeweils nachgestellten Konkretisierungen »biography« und »tactics«.¯17 Jede Suchabfrage in der Enzyklopädie kann sich also potenti- ell auf zwei in der logischen Struktur ihrer Artikelverwaltung voneinander dif- ferenzierte Ebenen des Spiels beziehen; die in den Game Studies seit wenigen Jahren überwundene analytische Trennung zwischen Narratologie und Ludo- logie¯18 manifestiert sich hier in den fanentwickelten Ordnungssystemen von Wowpedia. Auch die ›Geschichte‹ von World of Warcraft vollzieht Wowpedia gewisserma- ßen im doppelten Sinne nach, neben der umfassenden Darstellung der Narrati- on des Onlinespiels und seiner fiktionalen Welt erlauben akribisch archivierte Artikel auch einen Blick in die Geschichte des Programms beziehungsweise Produkts World of Warcraft. Ein Kernmerkmal von Onlinerollenspiel (insbe- sondere solchen, die sich auf Basis monatlicher Abonnements finanzieren) ist die regelmäßige Überarbeitung und Erweiterung des Spielinhalts. Durch die- se konstante Veränderung des Programms werden frühere Spielinhalte entwe- der obsolet, stark verändert oder vollkommen aus dem Spiel entfernt. Im Falle von World of Warcraft dauert diese permanente Wandlung seit dem Erschei- nen des Spiels im Jahr 2004 an und hat dementsprechend weitreichende Fol- gen für frühere Spielinhalte entfaltet. Da es auf den offiziellen Servern des Die Ästhetik von Fan-Wikis 215 Spiels¯19 nicht möglich ist mit früheren Versionen des Programms zu spielen, sind besagte Spielinhalte nicht mehr als Teil des Programms interaktiv erfahr- bar, also mithin nicht mehr spielbar. Einer solchen Tendenz vieler Onlinespiele, ihren Spielinhalt auf eine aktuelle ›Gegenwart‹ zu fokussieren und die eige- ne Geschichte in Form früherer Spielinhalte zu ignorieren, abzuwandeln oder zu entfernen, wirken Enzyklopädien wie Wowpedia entgegen, indem sie die Funktion einer umfassenden Chronik einnehmen. Anhand des Bestands von Wowpedia kann für World of Warcraft präzise nachvollzogen werden, wel- che Änderungen mit jeder Spielversion vorgenommen wurden und welche In- halte des Spiels oder Teile der Welt seit dem Erscheinen des Spiels hinzugefügt – aber auch entfernt oder abgewandelt wurden. Im Falle von stark veränderten Spiel inhalten werden die jeweiligen Artikel der Enzyklopädie nicht nur aktu- alisiert, sondern in ihrer früheren Version auch archiviert. Die an Wowpedia be teiligten Spieler sind also nicht nur Historiker und Chronisten der Spielwelt und ihrer Geschichte, sondern auch des Programms und seiner Entwicklungs- und Designgeschichte; der permanenten Gegenwart des Onlinespiels steht sei- ne in externen Datenbanken nachgehaltene und verwaltete Vergangenheit ge- genüber. Die Entschlüsselung der Welt – LOSTpedia und narrative Verrätselung Die TV-Serie Lost des amerikanischen Fernsehsenders ABC gilt seit ihrer Erst- ausstrahlung 2004 als herausgehobenes Beispiel für die so genannte »narra- tive complexity« (Mittell 2006), die insbesondere amerikanisches Serienfern- sehen auszeichnet und, so Jason Mittell, die Verschachtelung und Verrätselung der eigenen Erzählung zum narrativen »Special Effect« (ebd.) erhebt. Ähnlich wie World of Warcraft entwickelte sich Lost durch seinen Erfolg rasch zu einem zahlreiche Medien umspannenden Franchise, wobei Wert darauf gelegt wurde, die verschiedenen Tie-Ins dem zentralen Mysterium der Serie unterzu- ordnen. Die Komplexität der Erzählung von Lost ist auf unterschiedlichen Ebe- nen angesiedelt, neben der schieren Menge an Charakteren, deren individuelle Vergangenheit und Motivation im Verlauf der Serie unterschiedliche Bedeu- tung entfalten, ist es vor allem die teilweise unklare örtliche und zeitliche Ver- ortung der Handlung, die es dem Zuschauer erschwert, die Story von Lost aus ihrem Plot zu rekonstruieren. Ihre besondere Anziehungskraft gewinnt die Se- rie auch durch die zahlreichen direkten oder indirekten Hinweise auf die Natur ihres Sujets, die in jeder Folge eingeführt oder neu aufgerufen werden. Lost 216 Felix Raczkowski konstruiert – ungleich subtiler als World of Warcraft – eine ganz eigene Welt, die sich dem Anschein nach nur graduell von der tatsächlichen Realität seiner Zuschauer unterscheidet, aber nach neuen Regeln funktioniert. Die Zuschau- er von Lost versuchen ebenso wie die Spieler von World of Warcraft, diese ih- nen unbekannten Regeln zu entschlüsseln und zu verstehen; die einen, um das grundlegende Mys terium der Fernsehserie zu verstehen, die anderen, um ihre Interaktion mit dem Onlinespiel zu gestalten und zu verbessern. Auch die Fanenzyklopädie Lostpedia erfasst und kategorisiert eine fiktionale Welt, ohne dabei aber der vorgegebenen Struktur der Fernsehserie zu folgen. Die enzyklopädisch aufbereiteten Daten sind fast ausschließlich narrativ oder deskriptiv im Sinne einer präzisen Exploration des Sujets; sie dienen der detail- lierten Darstellung einzelner Elemente der Lost-Fiktion, seien dies Charaktere, Ereignisse oder Firmen und Organisationen. Die einzelnen Artikel orientieren sich dabei an der Story von Lost, soweit diese entschlüsselt ist, das heißt, sie beziehen alle bekannten Informationen ein, beachten aber nicht die Reihenfol- ge ihrer ursprünglichen Enthüllung im Plot. Die ursprünglich lineare Kerner- zählung in serieller Form wird in der Datenbank-Logik des Wikis in alle erdenk- lichen Richtungen durchquerbar. Beispielhaft deutlich wird dies anhand des Zeitstrahls beziehungsweise der ›Timeline‹ des Lost-Universums, zu deren an- schaulicher Aufbereitung sich auch jenseits des Lost-Wiki zahlreiche Grafiken finden lassen.¯20 Abb. 1: Fan-Grafik zur zeitlichen Struktur von Lost Die Ästhetik von Fan-Wikis 217 Der zeitliche Ablauf der Serie ist, wie oben angedeutet, von verschiedenen Zeit- sprüngen durchzogen; die erzählte Zeit von Lost umfasst größere Zeitspan- nen als die Erzählzeit jeder einzelnen Episode. Zahlreiche zum Verständnis der Handlung notwendige Ereignisse spielen sich vor dem Beginn der Serie ab und werden in Form von Rückblenden erzählt. Diese Analepsen werden im späteren Verlauf der Serie um Prolepsen ergänzt und ergeben so eine sehr komplexe Dar- stellung der zeitlichen Abfolge der Ereignisse, die für die Handlung von Lost von Bedeutung sind. Der Artikel der Fanenzyklopädie [http://lostpedia.wikia. com/wiki/Timeline], der der zeitlichen Struktur von Lost gewidmet ist, enthält neben dem üblichen Fließtext auch eine grafische Darstellung der Ereignisfol- ge anhand von Jahreszahlen auf einem Zeitstrahl. Abb. 2: ›Timeline‹ Eintrag im Lost-Wiki LOSTpedia Im Gegensatz zu anderen Grafiken mit ähnlicher Zielsetzung ist die Darstellung im Wiki in dessen Datenbankstruktur direkt eingebunden, also über Links (die Jahreszahlen) mit anderen Artikeln der Enzyklopädie (zu den entsprechenden Zeitabschnitten in der Serie) verbunden. Die komplexe Narration von Lost wird 218 Felix Raczkowski durch das Wiki (im Falle des Zeitstrahls) geordnet und durch Verschlagwortung systematisiert, was insbesondere bei komplexen TV-Serien zur Herausbildung typischer Nachschlagewerke im Wiki-Format führt. Argumentiert Mittell bei seiner Erörterung der »narrative complexity« (Mittell 2006, 29) mit einem grö- ßeren Kaufanreiz für die DVD-Zweitverwertung von Serien, die mehrfach ge- sichtet werden müssen, um komplett nachvollzogen zu werden, können um- fassende Fanwikis wie LOSTwiki heute als eine notwendige Begleiterscheinung dieser Entwicklung charakterisiert werden. Die Datenbanken dieser Enzyklo- pädien des Populären strukturieren auch komplexe Erzählungen in einer Wei- se, die stark involvierten Fans ebenso wie peripher interessierten Zuschauern das Nachvollziehen kleiner Details wie auch der übergreifenden Story ermög- licht. In Bezug auf das Verhältnis von Datenbanken zu ihrem Inhalt zeigt sich am Beispiel von Lost, dass für eine funktionierende Indexierung und Einglie- derung in ein enzyklopädisches System nicht notwendigerweise eine struktu- relle Ähnlichkeit auf der Ebene der Produktion vorliegen muss, wie sie offen- kundig World of Warcraft und Wowpedia verbindet. Während Letztere über weite Strecken als Externalisierung spielinterner Datenbanken fungiert, be- steht zwischen Lost und LOSTwiki eine inhaltliche Ähnlichkeit auf narrativer Ebene. Lost kann nur deshalb Gegenstand einer Verschlagwortung und einer Darstellung im enzyklopädischen Kontext werden, weil die von der Narration entworfene Welt komplex genug ist, um zum nonlinearen, von Querverweisen geprägten System der Datenbanken zu passen, die ihrerseits Onlineenzyklopä- dien zugrunde liegen. Da in nahezu jeder Lost-Episode Hinweise und Verweise auf die übergreifenden Mysterien der Serie gestreut sind, verlangt sie von ih- ren Zuschauern regelrecht einen enzyklopädischen Überblick über die von ihr präsentierte Welt, um die größtmögliche Freude an den von ihr inszenierten »narrative special effects« (Mittell 2006, 35) zu haben. Der Einfluss der Wiki- Technologie auf Fankulturen ist also erwartungsgemäß immer dann am größ- ten, wenn es sich um ein Enzyklopädie-affines Franchise handelt. Jenseits der unmittelbaren Erzählung der TV-Serie eröffnet LOSTwiki auch eine mediengeschichtliche Perspektive auf die Rezeption der Serie und ihre Begleit- umstände und fixiert so einen ähnlich ephemeren Aspekt der Geschichte von Lost, wie es Wowpedia mit den Hinweisen über frühere Programmversionen des Spiels tut. Das deutlichste Beispiel für diese Funktion besteht in der akri- bischen Dokumentation der Lost Alternate-Reality-Games,¯21 die ab der zwei- ten Staffel der Serie regelmäßig gestartet wurden, um die Pausen zwischen den Staffeln oder die so genannten »mid-season breaks«¯22 zu überbrücken. Eine zentrale Besonderheit von ARGs (Alternate-Reality-Games) gegenüber na- hezu allen anderen (digitalen) Spielen besteht in ihrer begrenzten Wiederhol- Die Ästhetik von Fan-Wikis 219 barkeit; ist die vordefinierte Laufzeit eines ARGs verstrichen, wird das Spiel unspielbar, da bestimmte Funktionen wie Websites oder automatische Mail- Verteiler abgeschaltet werden. Während Lost durch Wiederholungen im Fern- sehen, online verfügbare Folgen und DVDs ständig angesehen und rekapitu- liert werden kann, ist bei den die Serie als Marketinginstrumente begleitenden ARGs eine präzise Dokumentation ihres Ablaufs, ihrer Struktur und ihrer di- versen Hinweise und Inhalte notwendig, um sie indirekt nachvollziehbar zu machen. Zusätzlich zur bereits anhand von Wowpedia erläuterten Funktion der Medienarchivierung dienen die nicht direkt mit der eigentlichen Serie be- fassten Einträge im LOSTwiki auch der Kontextualisierung der Serie innerhalb ihres Rahmens aus zeitlich begrenzten PR-Maßnahmen und ihrer Rezeption durch Fans und Zuschauer. Die Verwaltung des Kanons – Stark Trek-Fantum unter den Bedingungen des Wiki-Prinzips Die in diesem Aufsatz bislang beleuchtete Rolle von Wikis und der enzyklopä- dischen Wissensorganisation für die Rezeption populärer Medieninhalte durch Fans soll schließlich noch ergänzt werden um eine Perspektive hinsichtlich ih- rer Bedeutung für partizipative Fankulturen und die Wandlung von Konsu- menten zu Produzenten. Da Fans sich nicht nur durch ein spezielles, besonders ›intensives‹ Rezeptionsverhalten auszeichnen, sondern auch häufig durch ei- gene Beiträge als Produzenten in Erscheinung treten, ist es notwendig, fan- erstellte Wikis auch als ›Katalysatoren‹ und Archive partizipativer Kreativi- tät aufzufassen und entsprechend einzuordnen. Die verschiedenen Serien des ›Star Trek‹-Franchise bilden seit den 60er Jahren einen Kristallisationspunkt für eine produktive Fankultur, die auch zum zentralen Gegenstand der frü- hen akademischen Fanforschung (vgl. Jenkins 2006a) avancierte. Anhänger der Serie beziehungsweise des Star Trek-Universums verfassen ihre eigenen Er- zählungen, bisweilen im Umfang ganzer Romane, und machen sich auf die- se Weise Charaktere und Setting ihrer Lieblingsserie zu eigen. Solche Fan-Fic- tion umfasst eine erhebliche thematische Bandbreite zwischen Erzählungen, die sich sehr exakt an den jeweiligen Vorlagen orientieren und gezielt die nar- rativen Leerstellen der TV-Serien ausfüllen und solchen, die mit dem überge- ordneten Star Trek-Universum lediglich das Setting teilen, es allerdings mit eigenen Charakteren, Fraktionen, Gruppierungen oder Spezies füllen. Wäh- rend Star Trek-Fanfiction sich zunächst unabhängig von der Entwicklung des Internets herauskristallisiert und bereits ab 1967 über so genannte Fanzines, 220 Felix Raczkowski also von Fans produzierten und verbreiteten Magazinen zirkuliert (vgl. Verba 1996), eröffnet das Internet ab den 90er Jahren neue Verbreitungswege und ein umfassenderes potentielles Publikum. Zugleich potenzieren sich so dieje- nigen Diskussionen innerhalb der Community der Fanautoren und ihrer Leser, denen Jenkins schon 1988 begegnet, in denen die Legitimität einer jeden Fan- verfassten Erzählung geprüft wird: »What determines the range of permissible fan narratives is finally not fidelity to the original texts, but consensus within the fan community itself. The text they so lovingly preserve is the stAR tRek they created through their own speculations, not the one that Gene Roddenberry pro- duced for network airplay. Consequently, the fan community continually debates what consti- tutes a legitimate reworking of program materials and what represents a violation of the spe- cial reader-text relationship that the fans hope to foster« (Jenkins 2006a, 56). Der von Jenkins charakterisierte Diskurs bezieht sich auf das Verhältnis von Fanfiction zu narrativem Kanon beziehungsweise der Kanonisierung von Fan- kreationen. Das Konzept eines fiktionalen Kanons (und somit einer autori- sierten, anerkannten Erzählung im Vergleich zu ihren Derivaten) entstammt serialisierten Fiktionen¯23 und entwickelt sich im Rahmen der erheblichen Verbreiterung späterer Narrative zu so genannten ›Extended Universes‹¯24 zu einer Problemstellung, die neben ästhetischen und erzähllogischen Erwä- gungen auch ökonomische und rechtliche Fragen aufwirft.¯25 Innerhalb der Unternehmen, die das jeweilige Franchise zu vermarkten suchen, muss die Li- zenzvergabe und die Fortschreibung der ›kanonischen‹ Erzählung überwacht und geplant werden, die Fancommunities diskutieren ihrerseits nicht nur die ›offizielle‹ Entwicklung der Erzählung, sondern auch die von Fans kreierten Beiträge. Die Rolle der Datenbank ist dabei auf allen Ebenen¯26 des Diskurses vergleichbar, sie wird, wie auch schon bei World of Warcraft und Lost, auf- grund der (spielmechanischen oder narrativen) Komplexität des Materials als Werkzeug der Ordnung enzyklopädischen Wissens eingesetzt. Die durch sie verhandelten Fragen sind im Falle von Fanfiction beziehungsweise unterneh- merischer Planung allerdings andere, es geht um die Legitimität (für die Un- ternehmen bisweilen auch die Legalität) kreativen Ausdrucks, der Bezug auf bestehende Erzählungen nimmt. Für die der Enzyklopädie zugrunde liegende Datenbank bedeutet dies, dass grundsätzlich eine Differenzierung des Inhalts nicht nur nach Schlagworten oder Oberbegriffen, sondern auch nach der Ka- nonizität des Materials vorgenommen werden muss. Für Fanenzyklopädien zu Franchises, deren fiktionale Welten sich zu ›Extended Universes‹ ausgeweitet haben, folgt daraus, dass sie den Kanon unmittelbar mit bestimmen – durch die Entscheidung darüber, was als relevanter und akzeptierter Beitrag durch Die Ästhetik von Fan-Wikis 221 einen Eintrag in der Enzyklopädie bestätigt und sichtbar gemacht wird. Dieser Datenbanken inhärente Selektionsmechanismus führt in der Praxis häufig zu einem entsprechenden, im Selbstverständnis des jeweiligen Wikis verankerten Reglement, das entweder für oder gegen die Erfassung von Fanfiction Position bezieht. Das Star Trek-Wiki ›Memory Alpha‹ formuliert das eigene Selbstver- ständnis folgendermaßen: »The goal of Memory Alpha is to be a reliable, concise guide to all readers in its description of the Star Trek universe and associated material. Towards this end, it is necessary for us to restrict to some extent the type of information we accept. Ultimately, this will ensure that Memory Alpha remains useful and authoritative for the widest possible range of fans« [http://memory-alpha. org/wiki/Memory _Alpha:Canon_policy]. Zusammen mit der darauffolgenden Präzisierung in Bezug auf Informationen als durch Zitate belegbare Angaben aus Star Trek-Serien und -Filmen [http:// memory-alpha.org/wiki/Memory _Alpha: Canon_ policy#Summary _of_ poli- cy] wird deutlich, dass innerhalb der Memory Alpha-Community nur derjeni- ge Bestandteil des Star Trek-Universums kategorisiert und erfasst wird, der durch die Rechteinhaber und ihre Produktionen bestätigt wird. Dem Selbst- verständnis des Wikis zufolge handelt es sich um eine notwendige Selbstbe- schränkung, um den kleinsten gemeinsamen Nenner innerhalb der umfang- reichen und dispersen Star Trek-Community zu finden. Die Datenbank lässt, nachdem sie durch die Ubiquität der Digitaltechnik und die Vereinheitlichung der Suchabfragen-Funktion demokratisiert worden ist, nun allerdings auf in- haltlicher Ebene die Tendenz erkennen, gezielt (kanonische) Mehrheitsmei- nungen zu formen und potentiell kontroverse Inhalte zu meiden. Einen anderen Ansatz verfolgen Wikis wie ›Star Trek Expanded Universe‹ [http://stexpanded.wikia.com/wiki/Main_Page] oder »Memory Gamma« [http://memory-gamma.wikia.com/wiki/Portal:Main], die explizit zum krea- tiven Umgang mit dem Star Trek Universum aufrufen: »Memory Gamma was created to collect all of your Star Trek ideas. Whether it‘s characters, starships, planets, or fan fiction, the Star Trek universe is now yours to expand!« (s.o., Hervorh. im Orig.). Eine zentrale Rolle für die Inhaltsverwaltung dieser Wi- kis spielt dabei der Begriff des ›Fanon‹, ein Neologismus aus Fan und Kanon. Während die Begriffsgeschichte von Fanon nicht präzise nachvollzogen wer- den kann,¯27 spielt das Konzept vor allem in kreativen Fancommunities und den ›Extended Universes‹ großer Franchises eine wichtige Rolle. Die Bedeu- tung des Begriffs umfasst dabei verschiedene Nuancen, kann jedoch grund- sätzlich auf den Gedanken von unter Fans weitgehend akzeptierten und in die- sem Sinne ›kanonisierten‹ Fan-Fictions zurückgeführt werden. Einige der von 222 Felix Raczkowski Fans verfassten Geschichten (oder anderweitig erstellte Inhalte) erfreuen sich so großer Beliebtheit und erreichen eine derartige Verbreitung innerhalb der Community, dass sie ihrerseits andere Fanprojekte und Diskurse innerhalb der Abb. 3: Episodenauflistung der ersten Staffel von Star Trek: The Cantabrian Expeditions im Star Trek Expanded Universe Wiki Die Ästhetik von Fan-Wikis 223 Community zu beeinflussen beginnen. Als kanonisch kann nicht länger nur gelten, was von der Industrie und den Rechteinhabern entsprechend definiert wird, sondern auch, was von Fans kreiert und akzeptiert ist. Der Kanon einer Fiktion entfaltet sich demnach fast immer auf mehreren Ebenen. Die Daten- banken der Fanwikis dienen, anders als ihre Pendants in der Industrie, nicht nur zur Verwaltung der Fiktion, sondern gestalten diese auch aktiv mit, etwa indem sie die Sichtbarkeit und (durch Verlinkung) Verfügbarkeit der von Fans erstellten Inhalte steigern. Da durch Wikis zahlreiche Werke strukturiert und mit Querverweisen versehen dargestellt werden können, ergibt sich auch für Fan-Fiction, die vor der Verfügbarkeit des Internets verfasst wurde, die Mög- lichkeit einer neuen Präsentation, wie ein Artikel zu ›Star Trek: The Cantabrian Expeditions‹ [http://stexpanded.wikia.com/wiki/Star_Trek:_The_Cantabrian_ Expeditions_%28season_1%29] zeigt, dessen Aufbau sich an der Präsentation von TV-Serien in Wikipedia orientiert. Die Funktionen von Wikis und Datenbanken führen für die produktive Aus- einandersetzung von Fans mit den von ihnen verehrten Erzählungen zu einer Abb. 4: Episodenauflistung der ersten Staffel von Lost bei Wikipedia 224 Felix Raczkowski Stabilisierung des Fanons, also des Fankanons. Durch die Möglichkeit, Jahr- zehnte der Fanautorenschaft über Schlagworte zu indexieren und miteinander zu verknüpfen, bekommen die einzelnen Beiträge in Wikis einen dauerhaften Charakter, der für die Bildung eines Kanons notwendig ist. Nachdem das Inter- net bereits als allgemeines Werkzeug zur Ermächtigung von Fans gegenüber Produktionsfirmen und Lizenzinhabern ausgemacht worden ist (vgl. Jenkins, 2006b), lässt sich im Speziellen für das Wikiprinzip in Bezug auf Fanautoren- schaft ähnliches feststellen. Schluss Während die Datenbank, wie die anderen Beiträge in diesem Band demonstrie- ren, nicht nur unter modernen technisch-medialen Bedingungen zahlreichen kulturellen Praktiken zugrunde liegt, ist die Beziehung zwischen der Daten- bank und ihrer Anwendung selten eine so offensichtliche wie im Fall der Wi- kisoftware. Computerspiele und Social Media-Anwendungen verschleiern in der Regel die im Programm operierenden Datenbanken durch entsprechende Interfaces, Wikis hingegen müssen ihr Funktionsprinzip und damit ihre Wur- zeln in der computergesteuerten Datenverwaltung offenlegen, um zu funktio- nieren. Nur wenn ersichtlich ist, wie die Datenbank bedient und gespeist wer- den muss, kann das Prinzip der kollektiven Mitarbeit realisiert werden. Unter dieser Prämisse erweisen sich Fancommunities als lohnendes, wenngleich in der einschlägigen Literatur nach wie vor unterrepräsentiertes, Forschungsfeld. Insbesondere die sich über das Internet organisierenden Anhänger von Video- spiel-Reihen oder TV-Serien machen regen Gebrauch von den sich bietenden technischen Möglichkeiten kollaborativer, enzyklopädischer Wissensaggrega- tion. Die zunehmende Komplexität und der größere Umfang von Spielmecha- niken und Narrationen einerseits und die Akribie, mit der sich Fans mit dem Material auseinandersetzen andererseits sorgen dafür, dass erhebliche Men- gen an Daten entstehen und organisiert zusammengetragen werden. Fantum lässt sich, im 21. Jahrhundert mehr denn je, als groß angelegte Datener- hebungsmaßnahme beschreiben. Die Fanwikis und ihre Datenbanken organi- sieren diese Daten enzyklopädisch, machen sie durchsuchbar und ermöglichen Querverbindungen. Auch wenn die Funktion von Datenbanken und Wikis als Elemente von Fankulturen in diesem Beitrag sicherlich nicht erschöpfend be- leuchtet werden konnte, so haben sich doch auf Basis dreier verschiedener An- wendungen der Wikitechnik von Fans einige zentrale Effekte der Datenbank als (fan)kulturelle Praxis ausmachen lassen: Die Ästhetik von Fan-Wikis 225 Die von Fans erstellten Datenbanken externalisieren immer Teile ihres Gegen- stands, Elemente aus Spielen, Filmen oder Serien, die aus ihrem ursprüng- lichen Kontext hinaus in die Datenbank übernommen und dort nach enzy- klopädischen Maßstäben präsentiert werden. Diese Tendenz ist besonders interessant in jenen Fällen, in denen die Datenbank Funktionen und Inhalte präsentiert, die im »Original« des kulturellen Artefakts verborgen sein sollen, wie beispielsweise die Externalisierung und Offenlegung einiger Spielmecha- niken von World of Warcraft durch fanbetriebene Datenbanken wie Wowpe- dia. Die dem Spiel im Verborgenen zugrunde liegenden Datenbanken werden außerhalb des Programms reproduziert und für alle Spieler nachvollziehbar zugänglich gemacht. Eine ähnliche Rolle spielt die in Wikis durch Verlinkungen und Querverweise übliche Kontextualisierung im Sinne einer Verknüpfung ähnlicher oder logisch miteinander verbundener Elemente. Komplexe Erzäh- lungen wie Lost laden durch ihren mysteriösen Plot und zahlreiche Referenzen und Hinweise dazu ein, entschlüsselt zu werden. Die Dechiffrierung von Lost findet in Wikis durch die Kontextualisierung einzelner Elemente und Hinweise statt. In der durch die Datenbank gewährleisteten Ordnung wird nachvollzieh- bar, was in der Serie bewusst ineinander verschränkt und verschleiert wird. Der Tatsache, dass Wikis nahezu immer auch als Enzyklopädien bezeichnet wer- den, trägt ihre kanonisierende Wirkung Rechnung. Was einen Eintrag in den oft streng kontrollierten Fanwikis bekommt, gilt innerhalb der Community bald als kanonisch, also als definitiver Bestandteil der fiktionalen Welt, mit der sich das Wiki befasst. Die Kanonbildung umfasst dabei aber nicht länger nur Dis- kussionen um ›offizielles‹ Material von Produktionsfirmen, sondern hat sich, wie im Fall von Star Trek, auch auf von Fans produzierte Inhalte ausgeweitet. So werden Wikis zu einem Sammelpunkt und Nachschlagewerk für Fankreati- vität und vereinfachen und begünstigen die produktive Auseinandersetzung von Fans mit den fiktionalen Welten populärkultureller Franchises. Auch Fan- Fiction der 80er Jahre ist noch heute über die Verlinkung in entsprechenden Wikis auffindbar und verweist damit darauf, dass Fanwikis auch immer als Ar- chive fungieren, sie historisieren teils bewusst ahistorisch konzipierte mediale Formen. Bei Wowpedia finden sich so Angaben zu den mittlerweile entfernten Inhalten früherer Versionen des Spiels und LOSTwiki protokolliert akribisch den Verlauf des nicht mehr verfügbaren Lost Alternate Reality Games. Insbesonde- re in der Fanforschung, aber auch bei der Analyse spezieller medialer Artefakte wie ARGs, werden die von Wikis bewahrten und bereitgestellten Daten in Zu- kunft eine wichtige Rolle spielen. Während Borges’ Vision einer erst enzyklopä- disch und dann real gewordenen Fiktion, also die Vermengung von Realität und Fiktion, durchspielt und dabei den zwischen beiden Ebenen oszillierenden (li- 226 Felix Raczkowski terarischen) Artefakten einen besonderen Stellenwert einräumt, erweisen sich in der von Digitalisierung, komplexen Medieninhalten und Konsumentener- mächtigung geprägten Gegenwart Fanenzyklopädien über ihre individuellen Nischen hinaus als eine kulturelle Praxis mit dem Potential, Rezeptions- und Produktionsbedigungen sowie Fankulturen nachhaltig zu beeinflussen. Dabei oszillieren sie ebenfalls zwischen den Fiktionen, die ihren Inhalt darstellen und der Realität, deren Systematisierungsstrategien sie sich zu eigen machen. Anmerkungen 01˘ Beispielsweise der Hitchhiker’s Guide to the Galaxy in der gleichnamigen Romanreihe von Douglas Adams. 02˘ Beispielsweise Fantastic Beasts & Where to Find Them die tatsächliche Druckausgabe ei- nes Lehrbuchs aus der Harry Potter-Reihe. 03˘ Beispielsweise Dictionary of the Khazars: A lexicon novel eine nur dem Anschein nach fak- tisch-enzyklopädische Abhandlung über das nomadische Volk der Chasaren. 04˘ Das von George Boole Mitte des 19. Jahrhunderts entwickelte System zur Berechenbarkeit sprachlicher Aussagen dient heute als Grundlage für Abfrageprämissen in der Datenbankprogrammierung. 05˘ Im deutschsprachigen Raum ist insbesondere das Forum von laura-palmer.net [http:// bookhouse.laura-palmer.net/] auch 20 Jahre nach der Erstausstrahlung der Serie ein Ort regen Austausches. 06˘ Gängige Forensoftware erlaubt es über eine so genannte ›Sticky‹-Funktion Threads ge- wissermaßen oben in der Forenhierarchie anzuheften und zu fixieren, sodass sie nicht nach einiger Zeit ohne neuen Beitrag sukzessive hinter aktuellere Themen abrutschen und so unsichtbar werden. 07˘ Vgl. Survivor Sucks [http://survivorsucks.com]; Jenkins 2006b. 08˘ Transmediale Erzählungen sind medienüberspannende Narrative, die nicht nach einer Remake-Ästhetik organisiert sind, sondern eine übergreifende Geschichte fortschreiben und eine fiktionale Welt ausgestalten. Zu den verschiedenen Ausprägungen transmedialer Erzählformen vgl. Long 2007. 09˘ [http://.wowpedia.org/Wowpedia#History _and_background] 10˘ Die Benutzeroberfläche von World of Warcraft stellt insofern eine Besonderheit des Spiels dar, als dass sie der einzige Bestandteil ist, der von den Spielern selbst direkt modifiziert, Die Ästhetik von Fan-Wikis 227 angepasst und verändert werden kann. Daraus ergibt sich eine rege ›Interface-Mod‹-Szene im Umfeld des Spiels beziehungsweise als eine Ausprägung seiner Community. 11˘ [http://www.wowpedia.org/Special:Statistics] 12˘ Dazu gehören ebenso Spieler, die sich im Spiel durch besonderes Talent und als Organisatoren erfolgreicher Gilden hervorgetan haben [http://www.wowpedia.org/Kungen] wie solche, die durch besonders deviantes, komisches Verhalten aufgefallen sind [http://www.wow- pedia.org/Leeroy _Jenkins]. 13˘ Vgl. Haigh 2010. 14˘ Siehe Wowprogress [http://www.wowprogress.com/] für den serverübergreifenden Vergleich von Spielfortschritt oder Wowhead [http://www.wowhead.com/] für eine um- fassende Datenbank über Spielobjekte. 15˘ Die so genannte ›Armory‹ (beziehungsweise das ›Arsenal‹) umfasst neben Informationen zu jedem Spielobjekt auch Angaben zu allen erstellten Spielercharakteren. 16˘ So genannte ›Non Player Characters‹ sind die computergesteuerten, also nicht direkt vom Spieler lenkbaren, Figuren eines Spiels. 17˘ Für den NPC ›Illidan Stormrage‹ siehe beispielsweise: [http://www.wowpedia.org/Illidan_ Stormrage] (Biographie) sowie [http://www.wowpedia.org/Illidan_Stormrage_%28tactics %29] (Taktik). 18˘ Für unterschiedliche Perspektiven in Bezug auf die Debatte vgl. z.B. Frasca 2003 und Backe 2007. 01˘ Illegal betriebene ›Privat‹-Server operieren dagegen häufig mit älteren, aber auch stark modifizierten Versionen des Spiels. 19˘ Vgl. beispielsweise [http://topicstock.pantip.com/chalermthai/topicstock/2009/03/ A7598428/A7598428-4.jpg] oder [http://images4.fanpop.com/image/photos/16600000/ Lost-Timeline-Infographic-lost-16650617-2560-1656.jpg]. 20˘ Alternate-Reality-Games sind transmediale Spiele, zu deren Repertoire die Verschleierung der eigenen Spielhaftigkeit gehört. Sie sind meist Web-basiert, erstrecken sich jedoch neben Websites oder Programmen auch auf Telefonate, Fax-Mitteilungen oder Postsendungen. 21˘ Im amerikanischen Fernsehen sind Sendepausen in der Mitte von Serienstaffeln üblich, die sich meist von November bis Januar erstrecken. 22˘ Verschiedene Quellen (Haining 2005, Blakeney 1993) verorten den Ursprung des Begriffs (im Sinne des fiktionalen Kanons) im Bereich der Sherlock Holmes-Erzählungen von Arthur Conan Doyle in Abgrenzung zu späteren Autoren, die sich die Popularität der Figur zunut- ze machen wollten. 23˘ Insbesondere in Zusammenhang mit star Wars und star trek, aber auch bei anderen umfassenden und lang andauernden narrativen Franchises bezeichnet der Begriff des ›Extended Universe‹ all jene (teils von neuen Autoren auf Lizenzbasis erstellten) Beiträge, die nicht zum ursprünglichen ›Kern‹ der Erzählung gehören. Im Fall von star trek betrifft dies beispielsweise alle Produkte, Erweiterungen und Zufügungen jenseits der TV-Serien 228 Felix Raczkowski sowie der späteren Kinofilme. 24˘ Einen guten Überblick über die ›Verwaltung‹ von Fiktionen (durchaus auch im Rückgriff und auf Basis von Datenbanken) bietet folgender Artikel des Wired-Magazins: [http://www.wi- red.com/entertainment/hollywood/magazine/16-09/ff_starwarscanon?currentPage=all] 25˘ Zur Verwendung von Datenbanken durch Unternehmen zur Verwaltung der Fiktion ihrer Franchises siehe das Beispiel star Wars in Endnote 26 angeführten Artikel. 26˘ Eine der frühesten präzise datierbaren Erwähnungen des Begriffs ist ein entsprechen- der Eintrag im Urban Dictionary von 2003: [http://www.urbandictionary.com/define. php?term=fanon]. Bibliografie Adams, Douglas (2005) The Ultimate Hitchhiker’s Guide. Five Complete Novels and One Story. New York [u.a.]: Random House. Backe, Hans-Joachim (2008) Strukturen und Funktionen des Erzählens im Computerspiel. Eine typologische Einführung. Würzburg: Königshausen & Neumann. Blakeney, T.S. (1993) Sherlock Holmes. Fact or Fiction? Upper Saddle River: Prentice Hall. Borges, Jorge Luis (1993) Tlön, Uqbar, Obis Tertius. In: Ficciones. New York [u.a.]: Random House, S. 5-22. Borges, Jorge Luis (1993) Tlön, Uqbar, Obis Tertius. In: Ficciones. New York [u.a.]: Random House, S. 5-22. Frasca, Gonzalo (2003) Simulation versus Narrative: Introduction to Ludology. In: The Vi- deo Game Theory Reader. Hrsg. v. Mark J.P. Wolf, Bernard Perron. New York: Routledge. Hafner, Katie/ Lyon, Matthew (2006) Where Wizards Stay Up Late. The Origins of the Internet. New York [u.a.]: Simon & Schuster. Haigh, Thomas (2007) »A Veritable Bucket of Facts« Ursprünge des Datenbankmanage- mentsystems. In: Nach Feierabend. Zürcher Jahrbuch für Wissensgeschichte 3. Daten. Hrsg. v. David Gugerli/ Michael Hagner, Michael Hampe, Barbara Orland, Philipp Sarasin, Jakob Tan- ner. Zürich: Diaphanes, S. 57-99. Haining, Peter (2005) Introduction. In: The Final Adventures of Sherlock Holmes. Hrsg. v. Peter Haining. Berkeley: Apocryphile Press. Jenkins, Henry (2006a) »Do You Enjoy Making the Rest of Us Feel Stupid?«: alt. tv.twinpeaks, the Trickster Author, and Viewer Mastery. In: Fans, Bloggers and Gamers. Ex- ploring Participatory Culture. Hrsg. v. Henry Jenkins. New York [u.a.]: New York University Press, S. 115-134. Die Ästhetik von Fan-Wikis 229 Jenkins, Henry (2006a) Interactive Audiences? The »Collective Intelligence« of Media Fans. In: Fans, Bloggers and Gamers. Exploring Participatory Culture. Hrsg. v. Henry Jenkins. New York [u.a.]: New York University Press, S. 134-152. Jenkins, Henry (2006a) Star Trek Rerun, Reread, Rewritten: Fan Writing as Textual Poa- ching. In: Fans, Bloggers and Gamers. Exploring Participatory Culture. Hrsg. v. Henry Jenkins. New York [u.a.]: New York University Press, S. 37-61. Jenkins, Henry (2006b) Convergence Culture. Where Old and New Media Collide. New York: New York University Press. Johnson, Steven (2006) Everything Bad is Good for You. How Today’s Popular Culture is Actually Making Us Smarter. New York [u.a.]: The Penguin Group. Long, Geoffrey (2007) Transmedia Storytelling. Business, Aesthetics and Production at the Jim Henson Company. M.Sc. Cambridge, Mass.: Massachusetts Institute of Technology. Manovich, Lev (1999) Database as Symbolic Form: Convergence. In: The International Jour- nal of Research into New Media Technologies 5, 2, S. 80-99. Mittell, Jason (2006) Narrative Complexity in Contemporary American Television. In: The Velvet Light Trap Heft 58, S. 29-40. Pavic, Milorad (1988) Dictionary of the Khazars: A Lexicon Novel in 10000 Words. New York [u.a.]: Random House. Rowling, Joanne (2010) Fantastic Beasts & Where to Find Them. Newt Scamander. Lon- don: Bloomsbury Publishing. Verba, Joan Marie (2003) Boldly Writing: A Trekker Fan and Zine History, 1967-1987. Min- netonka: FTL Publications. Online-Quellen [Für alle Quellen erfolgte der letzte Zugriff am 21.06.2011] http://bookhouse.laura-palmer.net/ http://harrypotter.wikia.com/wiki/Main_Page http://images4.fanpop.com/image/photos/16600000/Lost-Timeline-Infographic- lost-16650617-2560-1656.jpg http://lostpedia.wikia.com/wiki/Main_Page http://memory-alpha.org/wiki/Memory _Alpha:Canon_policy http://memory-alpha.org/wiki/Memory _Alpha:Canon_policy#Summary _of_policy http://memory-gamma.wikia.com/wiki/Portal:Main http://stexpanded.wikia.com/wiki/Main_Page http://stexpanded.wikia.com/wiki/Star_Trek:_The_Cantabrian_Expeditions_%28season_1%29 http://survivorsucks.com/ 230 Felix Raczkowski http://topicstock.pantip.com/chalermthai/topicstock/2009/03/A7598428/A7598428-4.jpg http://www.forum-software.org/forum-software-timeline-from-1994-to-today http://www.urbandictionary.com/define.php?term=fanon http://www.wired.com/entertainment/hollywood/magazine/16-09/ff_ starwarscanon?currentPage=all http://www.wowhead.com/ http://www.wowpedia.org/Illidan_Stormrage http://www.wowpedia.org/Illidan_Stormrage_%28tactics%29 http://www.wowpedia.org/Kungen http://www.wowpedia.org/Leeroy _Jenkins http://www.wowpedia.org/Portal:Main http://www.wowpedia.org/Special:Statistics http://www.wowpedia.org/Wowpedia#cite_ref-4 http://www.wowpedia.org/Wowpedia#History _and_background http://www.wowprogress.com/ Die Ästhetik von Fan-Wikis 231 232 Gunnar Sandkühler Die Datenbank als Karte. Zur Verwendung von Geo-Informationssystemen im Computerspiel Computerspiele kommen in den wenigsten Fällen ohne Raumdarstellung aus. Unabhängig davon, unter welchem Paradigma versucht wird, ein Spiel zu be- schreiben oder zu interpretieren: Sobald das Spiel einen, wenn auch nur mi- nimalen, narrativen Gehalt besitzt, ist eine Beschreibung des Spielraumes ge- wissermaßen ein sine qua non.¯1 Der Raum als Komponente des dargestellten Spielgeschehens kann nicht von der Gesamtinterpretation und Bewertung eines Spiels ausgeschlossen werden.¯2 Dabei spielt es keine Rolle, ob die Inter- pretation des jeweiligen Spiels einem primär ludologischen, narratologischen oder gar dramatischen Ansatz folgt. Sobald das Spiel den Schritt aus der rein ab- strakten Darstellung eines Spielablaufs heraus hin zu einem, wenn auch mini- malem, Narrativ vollzieht, benötigt diese Handlung einen Handlungsraum.¯3 Solche Räume können zweifellos unterschiedlich detailliert, präzise, realitäts- nah, weitläufig oder begrenzt, fremd oder bekannt sein. Schon der wohl erste embedded journalist der Computerspielgeschichte, die Figur Greg Burdette, schließt seinen einleitenden Bericht zur ersten Mission im Spiel Command & Conquer (1995) mit den Worten: »This is Greg Burdet- te. Some where in the Mediterranean«. Und im direkten Anschluss daran er- leichtert dem Spieler der Electronic Voice Assistant (EVA), das Kommunikations- und Informationssystem des Spiels, die geographische Orientierung, indem in die abgebildete Karte Europas die Verläufe der Grenzen vor Ausbruch des Tibe- riumkonflikts eingeschrieben werden. Eine Bildschirmmeldung kommentiert dies: »Establishing traditional boundaries for visual reference.« Dem Spieler wird also ein Anhaltspunkt für seine räumliche Position im Spiel- geschehen gegeben. Dabei verweisen diese Beispiele auf zwei eng verwandte, aber dennoch differenzierte Konzepte von (realer) Raumorientierung in der Fiktion. Zum einen auf die Herstellung des hier und jetzt zur Unterstreichung der Glaubwürdigkeit (vgl. Stockhammer 2001) und zum anderen auf die Model- le kognitiver Karten, die eine Selbstpositionierung des Individuums in seiner Umwelt, in diesem Falle also der Spielumwelt, auf der Grundlage bestehender Vorstellungen ermöglichen (vgl. Downs / Stea 1977; Schenk 2002). Die Datenbank als Karte 233 Das Strategiespiel als Genre innerhalb des Computerspiels erfordert dabei spe- zifische Ausgestaltungen der repräsentierten Spielräume. Die Anforderungen an die gelieferten Informationen – sowohl für den Spieler als auch für die Spiel- mechanik – gehen über den Rahmen einfacher Situationsbeschreibungen hi- naus.¯4 Es ist genau diese Notwendigkeit, auch unter Umständen zunächst nicht sicht- bare Qualitäten des dargestellten Territoriums in das Regelwerk des Strategie- spiels zu integrieren, die die Verwendung von Datenbanken nahelegt. Die zu diesem Zweck eingesetzten Datenbanken ähneln in ihrem Aufbau und in ih- rer Funktionsweise in hohem Maße so genannten Geo-Informationssystemen (GIS). Solche GIS stellen eine, die klassische kartographische Darstellung ergän- zende, Form der zumeist visuellen Aufbereitung von Geodaten dar: »Seit Anfang der 90er Jahre werden die gedruckten geologischen Karten mehr und mehr durch geographische Informationssysteme (GIS) ergänzt bzw. ersetzt. Hierin werden geowissen- schaftliche Daten in Datenbanken gespeichert, editiert, analysiert und können dann als Karte (oder Tabelle) insgesamt oder in Auszügen wieder ausgedruckt werden« (Asch 2001, 9).¯5 Die grundlegende Struktur eines GIS lässt sich in zwei Hauptkomponenten auf- gliedern: Einem Digitalen Geländemodell (DGM), welches die naturräumlichen Gegebenheiten repräsentiert, und einem Digitalen Situationsmodell (DSM), welches Daten über die jeweilige Nutzung des Terrains bereitstellt. Beide Mo- delle, DGM und DSM, ergeben das so genannte Digitale Topographische Modell (DTM), welches im GIS um eine, zumeist Client-basierte, Management-Soft- ware ergänzt wird (vgl. Kohlstock 2010, 158ff.; Hennermann 2006, 61f.). Es ist kaum überraschend, dass diese allgemeine Struktur eines GIS sehr deut- lich dem herkömmlichen Aufbau eines Datenbank-Management-Systems äh- nelt. Auch bei derartigen Systemen werden das Datenmodell, die Daten und letztlich eine Instanz zur Verwaltung der Daten, in der Regel Werkzeuge zur Re- alisierung der Grundtypen der Datenmanipulation (Lesen, Schreiben, Ändern, Löschen) und Datenanalyse zu einem Paket zusammengeführt. Codd (1970) fordert in seinem einflussreichen Entwurf eines relationalen Da- tenbankmodells die Trennung von interner Datenhaltung und externer Daten- manipulation durch den Benutzer: »Future users of large data banks must be protected from having to know how the data is or- ganized in the machine (the internal representation). A prompting service which supplies such information is not a satisfactory solution. Activities of users at terminals and most application programs should remain unaffected when the internal representation of data is changed and even when some aspects of the external representation are changed« (ebd., 377). 234 Gunnar Sandkühler Tatsächlich bestehen in der Benutzerführung und in der Ergebnisdarstellung verschiedener GIS erhebliche Unterschiede: Abseits von komplexeren Operati- onen zur Datenverwaltung bieten die Systeme einfache Funktionen zur Aus- wahl und Visualisierung der Geodaten. In der Regel erfolgt die Ausgabe der Da- ten in Form der thematischen Karte: »Lange Zeit war die Karte sowohl ein Speicher- als auch ein Visualisierungsmedium. Durch die Entwicklungen im GIS-Bereich und dem Entstehen von Geo-Datenbanken trat die Speicherfunk- tion der Karte immer mehr in den Hintergrund. Die Visualisierung ist heute die wichtigste und vielleicht einzige Funktion für analoge und digitale Karten« (Kainz 2001, 166). Dies wird gerade dann deutlich, wenn GIS über Benutzeroberflächen verfügen, die auf einer Web-Anwendung basieren: Das Ergebnis einer Abfrage ist in der Regel eine online dargestellte Karte im Browser. Die Karte wird also, wie von Kainz (2001) angegeben, zur reinen Visualisierung von Geodaten. Die eigent- liche Verarbeitung und Speicherung der Daten geschieht auf einer – auch aus Anwendersicht – wesentlich differenzierteren Ebene. Auf Codds (1970) Modell bezogen kann der Anwender tatsächlich ohne Kenntnisse der Datenbankstruk- tur visuelle Ergebnisse erzielen. Doch nicht nur auf dieser softwaretechnischen Ebene besteht eine Nähe zwi- schen GIS und strategisch orientierten Computerspielen. Die Arbeitsgemein- schaft der Vermessungsverwaltungen der Länder der Bundesrepublik Deutsch- land (AdV) gibt in der Präambel ihrer Aufgabenbeschreibung explizit Aufgaben der Planung und strategischen Entscheidungshilfe als Grund für die mit gro- ßem Aufwand betriebene vereinheitlichte Erfassung des gesamten Territori- ums der Bundesrepublik an: »Das amtliche Vermessungswesen Deutschlands erfüllt wesentliche Grundfunktionen für die soziale, kulturelle und wirtschaftliche Entwicklung des Staates, für die grundgesetzliche Eigen- tumsgarantie des Grund und Bodens sowie für raumbezogene Staatsaufgaben (z.B. Landesver- teidigung).[…] Geobasisdaten und die daraus abgeleiteten Informationen und Produkte besit- zen eine zentrale Bedeutung für politische Entscheidungen, für die Eigentumssicherung, für weitere Rechtsbereiche, für Verwaltungsplanung und Verwaltungsvollzug sowie für die wirt- schaftliche Entwicklung des Staates« (AdV 2001, 2). Der geforderte Datenbestand und die Auswertungsmöglichkeiten des amt- lichen Vermessungswesens stellen also explizit Anforderungen dar, die aus sei- ner Zweckbestimmung als strategische Planungshilfe in den angesprochenen Tätigkeitsbereichen, vornehmlich denen der politischen Entscheidungsebene, erwachsen.¯6 Die Datenbank als Karte 235 Ähnliche Anforderungen müssen die GIS im Computerspiel erfüllen, wenn sie dem Spieler als Hilfe dienen sollen, ein Spielziel zu erreichen. In dieser Hin- sicht mag sich auch die Fixierung des Strategiespiels auf den Raum erklären lassen: Wissen über den Raum ist immer auch Herrschaft über den Raum, und die Nutzung von Karten als Medium zur Speicherung solcher Informationen ist lang etablierte Praxis (vgl. Horn 2002; Schneider 2004). Das Sammeln und Speichern von Geo-Informationen hat mithin eine seiner funktionalen Grund- bestimmungen schon immer im Strategischen gehabt. Und es ist eben diese Notwendigkeit, strategisches Wissen über den Raum, seine Ausdehnung, sei- ne Bewohner und Ressourcen abrufbar zu machen, die den Einsatz der Kar- te im Computerspiel als grundlegendes Merkmal strategieorientierter Spiele erscheinen lässt. Am Schnittpunkt zwischen GIS, welche die realen Gegeben- heiten des Raumes abbilden, und den Datenbanken, welche die Geodaten im Spiel beinhalten, zeigt sich ebenso der Übergang von realer Welt zum Spiel und umgekehrt. Das Auslesen der Datenbank als Spielhandlung Neben diesen Aspekten der Nutzung von GIS im Spiel zur Informationsverga- be verläuft jedoch parallel eine narrative Ebene, die durch die Datenbank des Spielterritoriums bestimmt wird. Wenngleich Manovich (2001) die Datenbank und das Narrativ zunächst als »natürliche Gegner« (ebd. 225) bezeichnet, so ist doch auch für ihn das Navigieren in einem als Datenbank hinterlegten Raum ein genreübergreifendes Merkmal für Objekte Neuer Medien, in diesem kon- kreten Falle für Computerspiele: »However, narratives and games are similar in that the user must uncover their underlying lo- gic while proceeding through them – their algorithm. [...] Regardless of whatever new media objects present themselves as linear narratives, interactice narratives, databases or something else, underneath, on the level of material organization, they are all databases« (ebd., 225-228). Freilich besteht bei Manovich eine Schwerpunktsetzung auf dreidimensio- nalen Räumen, eine Qualität, die beispielsweise in einem frühen Spiel wie Se- ven Cities of Gold (1984) noch nicht gegeben ist.¯7 Dennoch: Die Bewegung im Spielraum stellt bereits hier das wesentliche Agens der Handlung im Spiel dar. Maßgeblicher für die Wahl des Beispiels sind jedoch zwei Überlegungen: Zum einen greifen auch andere Titel in der Frühzeit des Computerspiels bereits auf Karten als Darstellung des Handlungsraumes zurück. Konkret sind dies dieje- nigen Spiele in der Tradition des Wargaming, jenem Brettspielgenre also, das 236 Gunnar Sandkühler schon früh im Computer eine ergänzende und später auch alternative Platt- form fand (vgl. Detering 2008; Crawford 2003). Generell war jedoch die Kar- te als Handlungsraum in diesen Spielen bekannt, also für den Spieler zu jeder Zeit sichtbar. Seven Cities of Gold hingegen stellte erstmals eine erst im Spiel- verlauf auszulesende Karte in den Mittelpunkt. Das Kartieren, das Sammeln von Geoinformationen bildete den Kern der Spielhandlung. Zum anderen soll anhand des Vergleichs mit dem rund 20 Jahre später erschienenen Civiliza- tion IV (2005) eine Veränderung des Umgangs mit den Daten herausgearbeitet werden. Es soll also gezeigt werden, dass sich in der Art und Weise der Daten- haltung und in den Möglichkeiten der Datenmanipulation signifikante Ände- rungen ergeben haben. Auf einer Ebene, welche eng und bisweilen untrennbar mit dem »Raumfeti- schismus« (Nohr 2007) des Strategiespiels verknüpft ist, verläuft die Spieler- zählung nachgerade deckungsgleich mit dem Fortschritt der Kenntnis der Ge- odatenbank des jeweiligen Spiels. In Seven Cities of Gold scheint das primäre Spielziel darin zu bestehen, die Neue Welt zu erforschen, mithin also eine Kar- tierung im Verlauf des Spiels zu vollziehen. Letztlich wird Kenntnis- und In- formationsgewinn durch das Spiel belohnt. Der Fortschritt auf dem Weg zur vollständigen Kartierung der Spielwelt wird in der Zunahme des bereisten Ter- ritoriums angegeben. Ebenfalls werden dem Spieler Punkte gutgeschrieben für die Entdeckung besonderer geographischer Formationen wie Gebirgen, Flussläufen oder Ebenen. Das eigentliche Spielziel lässt sich damit auch als das vollständige Auslesen der zu Grunde liegenden Geodaten beschreiben, in diesem Falle der so ge- nannten Map-Disk. Die erzählerische Umsetzung, also die Transformation der nicht sichtbaren Operationen des Spielers auf Ebene der Datenbank hin zu ei- ner (spiel)sinnstiftenden Aussage über den Spielverlauf auf der Ebene des Kar- teninterfaces, erfolgt in Form kurzer Bildschirmmeldungen. Das Ereignis »You have discovered the source of a minor river« ist letztlich nur eine aus der Logik der Datenbank abgeleitete natursprachliche Umsetzung einer Programmrück- meldung. Schon im angesprochenen frühen Beispiel erhält das Spielen mit den Geodaten eine weitere, übergeordnete Erzählebene: Das Entdecken der Neuen Welt, das Auslesen der Geo-Daten ist eingebettet in die Erzählung der Entde- ckung Amerikas, dem Wettlauf um die Welt und deren spätere Kolonialisierung seit dem ausgehenden 15. Jahrhundert.¯8 Was lässt sich über den Aufbau der Geo-Datenbank in Seven Cities of Gold feststellen? Wie bei closed-source Pro- grammen üblich, erhält der Nutzer keine weitreichenden Informationen zum internen Aufbau der Software. Der Entwickler Dan Bunten gibt in einem Be- richt zur Entstehung des Spiels allerdings zumindest Hinweise auf die verge- Die Datenbank als Karte 237 Abb. 2: seven CItIes of goLD (1984, Ozark Softscape / Electronic Arts): Zwischenbericht über das entdeckte Territorium. benen Attribute für die einzelnen Positionen, also die jeweiligen kleinsten ge- ographischen Einheiten im Raster der Karte: »Thus, once we decided to represent the area of the New World in a fair amount of detail, we knew we had found the crucial design constraints: 1) store enough data to represent the world, 2) get the data back as needed without disrupting the flow of the game. We had to discover how to compress the data to fit on the smallest disk (Atari with 90K) and how to read the data with- out irritating pauses for loading. Through a combination of techniques we were able to store 102.400 map points with 25 types of terrain at each point« (Bunten 1984, 20f). Ausgehend von der These, dass das Spielen und Beherrschen eines Compu- terspiels immer auch beinhaltet, die hinterlegten Regeln und spielmecha- nisch relevanten Algorithmen der Software zu erkennen und zu manipulieren (Kücklich 2001), muss sich der Spieler im Laufe seiner Entdeckungen die darge- stellten Terraintypen selbst aneignen. Das eigentliche Datenbankschema da- gegen bleibt verdeckt.¯9 Die von Codd (1970) geforderte Trennung von Nut- zung der Datenbank und Struktur der Datenbank kann hier als mustergültig realisiert betrachtet werden: 238 Gunnar Sandkühler Dem Spieler wird in der Regel gar nicht bewusst, dass sich sein Spielhandeln zum überwiegenden Teil als Auslesen einer Datenbank darstellt.¯10 Inwieweit es sich hier hinsichtlich der auch physischen Trennung von Programm und Da- ten in Form von Game-Disk und Map-Disk noch um technische Beschränkungen handelt, kann dahingestellt bleiben. Entscheidend hingegen ist, dass zweifellos sehr umfangreiche Schreibbefehle, namentlich das Erstellen einer neuen Map- Disk, dem Handeln und dem Zugriff des Nutzers weitestgehend entzogen sind. Das Erstellen der Map-Disk erfolgt über einen einzigen Klick. Was diese Anwei- sung letztlich darstellt, ist der Befehl zum Anlegen und Füllen einer kompletten neuen Geodatenbank. Mithin handelt es sich um einen ungemein mächtigen Befehl, der jedoch trotz seiner umfänglichen Auswirkungen nicht gleichzuset- zen ist mit Administratorenrechten für die Spieldatenbank. Vielmehr bleiben dem Spieler keine weiteren Eingriffsmöglichkeiten und die Gestaltung der in der neuen Geodatenbank hinterlegten Welt bleibt zufällig. Dementsprechend muss der Nutzer für das Spiel keinerlei Kenntnisse über die interne Organisa- tion der Geo-Daten haben. Rückmeldungen des Programms über den tatsäch- lichen Fortschritt des auf einem Commodore 64 rund 20 Minuten dauernden Erstellungsprozesses einer neuen Spieldatenbank erfolgen in entsprechend va- ger Form: »Building Land Masses«, »Running Rivers« etc. Die Spieldatenbank ist in diesem Sinne eine vollständige Black Box für den Spieler. Die neu erstell- te Karte bietet keine konkreten Gestaltungsmöglichkeiten für den Nutzer; es handelt sich nicht um einen produktiven Akt des Spielers in dem Sinne, dass er eigene Vorstellungen oder gar Wünsche zu den Qualitäten der später zu ent- deckenden Welt einbringen könnte. Was der Befehl zur Erstellung einer neuen Geodatenbank leistet, ist die Bereitstellung eines neuen, bislang unbekannten Spielraums, in dem ohne Einschränkung dieselben Regeln gelten, an die der Spieler auch schon bei der Ausgangskarte des Spiels gebunden ist. Es erscheint an diesem Punkt denkbar, aus diesem aufgenötigten Informa- tionsdefizit des Spielers auch auf eine bestimmte, von einem hohen Maß an Imagination – in Ermangelung von konkretem Wissen über die Vorgänge beim Spielen mit der Geo-Datenbank – geprägte Rezeptionshaltung des Spielers zu schließen. Eine Spielrezension aus dem Jahr 1984 liest sich dabei folgenderma- ßen: »Sailing north around the island I locate more land to the northwest. Heading that way, the lookout spots a native village, but I decide to continue sailing west off the coast. Is this another island, or is it a continent? I see two more villages, then the coastline suddenly dips to the south and eventually back to the east another island. There is yet one more island to the south of this one. A very small one with no villages. Die Datenbank als Karte 239 It is now July. I stop to check my maps and to take a bearing. It shows me to be at latitude 20 degrees north, and in the middle of an island group. Somehow it looks familiar. (I check an at- las and recognize Cuba, Jamaica, and Hispaniola. Ah ha, now I know where I am!)« (Carlisle 1984, 9). Die Rezension begibt sich in den Passagen, in denen die Spielhandlung vorge- stellt wird, vollständig und nach gegenwärtigem Verständnis durchaus naiv und unreflektiert in die Position der dargestellten Handlung; was die geschlos- sene Blackbox der Datenbank nicht an Informationen hergibt, wird durch die vollständige Immersion in das Spielgeschehen kompensiert.¯11 Vertieft wird diese Erlebnisebene dann, wenn – wie oben beschrieben – eine neue Karte ge- neriert wird, welche selbst die geographische Ähnlichkeit mit dem realen Süd- amerika der Ausgangskarte vermissen lässt: Der Spieler muss dann ein Terrain erkunden, auf dem er nicht mehr auf sein mehr oder weniger präzises tra- diertes Wissen um die Geographie zurückgreifen kann; die mutmaßliche ko- gnitive Karte wird bedeutungslos. Der Erfahrungs- und Kenntnisschatz hin- sichtlich der zu entdeckenden Spielwelt nähert sich damit dem des historischen Entdeckervorbilds an. Das GIS im Spiel als offenes System Differenzierter als in Seven Cities of Gold präsentiert sich die Datenverwal- tung im Strategiespiel Civilization IV: Auch hier ist es für den Nutzer zunächst nicht zwingend erforderlich, Kenntnisse über die Organisation der Daten zu haben. Zum einfachen Spielen reicht es aus, in übersichtlichen Menüs verschie- dene Szenarien, also Geo-Datensätze, auszuwählen. Schon dabei bietet jedoch das Erstellen eines neuen Spiels die Möglichkeit, grundlegende Parameter der generierten Karte festzulegen: Die relative Größe der Landmassen im Verhält- nis zu Meeren, allgemeine klimatische Voraussetzungen etc. lassen sich über einfache Menüpunkte auswählen. Erst bei intensiverer Nutzung des World-Builders, eines mitgelieferten Map- Editor, kommt der Nutzer um eine genauere Betrachtung der Datenorgani- sation aber nicht umhin: Im Gebrauch des World-Builders zeigt sich, dass die einzelnen Datenbestände in getrennten, lediglich aufeinander verweisenden Dateien hinterlegt sind. So gibt es also Beschreibungen der verschiedenen Ein- heiten, der Terraintypen oder der in einer Stadt vorhandenen Gebäude. Damit erfüllen das Hilfsprogramm World-Builder wie auch das eigentliche Hauptpro- gramm typische Eigenschaften eines Datenbank-Management-Systems: Die 240 Gunnar Sandkühler Möglichkeit zur Verknüpfung verschiedener Ta- ### Plot Info ### bellen durch den Benutzer, ohne dass dieser all- BeginPlot zu tief in die eigentliche Datenorganisation ein- x=0,y=0 dringen muss. Festzustellen ist freilich, dass der TerrainType=TERRAIN_DESERT Ausschluss des Anwenders von der Datenorga- PlotType=2 nisation nicht streng aufrechterhalten wird. Es TeamReveal=1, steht dem Benutzer sogar frei, noch rudimen- EndPlot tärer, man mag sagen maschinennäher, Daten BeginPlot zu manipulieren: Die eigentliche Hinterlegung x=0,y=1 einer Map als so genannte World-Builder Sa- TerrainType=TERRAIN_DESERT ve-Datei (.wbs) erfolgt in einem an XML ange- PlotType=2 lehnten Format, welches sich besonders durch TeamReveal=1, eine übersichtlichere Notation ohne komplexes EndPlot Tagging auszeichnet.¯12 Dieses menschenles- BeginPlot bare Format erlaubt es, auch ohne komplexe Edi- x=0,y=2 toren die Inhalte eines Szenarios im Quelltext zu TerrainType=TERRAIN_PLAINS bearbeiten. PlotType=1 Ganz entgegen der minimalen Manipulations- TeamReveal=1, möglichkeiten in dem frühen Beispiel Seven Ci- EndPlot ties of Gold stellt das Datenbank-Management- BeginPlot System, welches in Civilization IV intergriert ist, x=0,y=3 keine vollständig geschlossene Blackbox mehr TerrainType=TERRAIN_DESERT da. Auch einem Nutzer mit nur beschränkten PlotType=0 Kenntnissen steht mit dem World-Builder ein TeamReveal=1, Werkzeug zur Verfügung, um über die Daten- EndPlot bank in das Spiel einzugreifen. BeginPlot Greift der Spieler jedoch auf die so dargebote- x=0,y=4 nen Hilfsmittel zurück, ist die Trennung von BonusType=BONUS_URANIUM Datenbanknutzer und -administrator faktisch TerrainType=TERRAIN_DESERT aufgehoben. Zwar wird im World-Builder nicht PlotType=1 explizit darauf hingewiesen, dass der Spieler TeamReveal=1, recht umfängliche Datenbankoperationen aus- EndPlot führt, doch zeigt sich hier in aller Deutlichkeit, BeginPlot dass das Spielen eines Computerspiels in vielen x=0,y=5 Fällen über das eigentliche Spiel hinausgeht und BonusType=BONUS_IRON letztlich die Grenzen von Programmierung, Da- TerrainType=TERRAIN_DESERT tenbanksteuerung und -nutzung verwischt wer- PlotType=2 den. TeamReveal=0,1, Die Datenbank als Karte 241 EndPlot Solcherlei Manipulationsmöglichkeiten las- BeginPlot sen sich als Angebote an den Nutzer verstehen, x=0,y=6 so dass es nicht überrascht, dass sich im Falle TerrainType=TERRAIN_DESERT von Civilization IV – wie auch bei allen anderen PlotType=2 Spielen, die solche Werkzeuge zur Verfügung TeamReveal=0,1, stellen¯13 – eine rege Gemeinschaft ausgebil- EndPlot det hat, deren Hauptbeschäftigung nicht mehr BeginPlot im eigentlichen Spielen liegt, sondern vielmehr x=0,y=7 in der Erstellung und Veränderung von Spielkar- FeatureType=FEATURE_FOREST, Fea ten und Szenarien.¯14 tureVariety=2 Gerade dieses Phänomen zeigt eine weitere, hier TerrainType=TERRAIN_PLAINS noch abschließend anzusprechende Näherung PlotType=1 zwischen Geo-Informationssystemen der realen BeginUnit Welt und des Computerspiels: Spätestens seit UnitType=UNIT_SCOUT, UnitOwn Beginn des Jahrtausends setzt sich die kollabo- er=0 rative Erstellung und Nutzung von Datenbanken Damage=0 durch. Das derzeit wohl prominenteste Beispiel Level=1, Experience=0 dafür ist im Bereich der Geoinformationen das UnitAIType=UNITAI_EXPLORE Open Street Map-Projekt (vgl. dazu den Beitrag EndUnit von Harald Hillgärtner in diesem Band). Ausge- TeamReveal=0,1, hend von einer durch die Nutzer erweiterbaren EndPlot< Tag-Bibliothek ist es das Ziel des Projekts, freie, öffentlich zugängliche Karten mit thematischen Auszug aus den Geodaten einer Karte in der verein- Zusatzinformationen zu generieren. Gewisser- fachten Notation des civilization iv Word Builders maßen als eine Art Gegenmodell zur zwar frei nutzbaren, letztendlich aber geschlossenen Da- tenbank von Google Earth soll dabei, durch die Möglichkeit eines innerhalb der Nutzergemeinschaft verhandelten Beschrei- bungsstandards, eine Demokratisierung von verfügbaren Geo-Informationen erreicht werden. Eben an dieser Stelle jedoch stellt sich das Problem, dass eine solche, durch eine kleine Nutzergemeinde festgelegte Darstellungskonven- tion zwar einerseits individuelle Informationsinteressen wie Radwege oder Verkaufsstellen bestimmter Erfrischungsgetränke kartiert, dies jedoch vor- zugsweise innerhalb der Lebenswirklichkeit und der Lebensumgebung dieser Gruppe geschieht. Für Gegenden, die nicht entsprechend bekannt, Lebensum- gebung der Nutzergruppe oder zumindest für einen Besuch von Interesse sind, bleiben die Kartierungen freilich rudimentär. 242 Gunnar Sandkühler Abb. 2: CIvILIzAtIon Iv (2005, Firaxis / 2K Games): Visualisierung der Spielkarte. Fazit Das Strategiespiel ist immer auch ein Spiel mit und im Raum. Werden – wie es die Regel ist – diese Räume technisch in Form von Datenbanken hinterlegt und als Karte visualisiert, wird aus dem Strategiespiel zwangsläufig immer ein Spiel mit der Geo-Datenbank. Der Vergleich von Seven Cities of Gold und Civilization IV verdeutlicht jedoch entscheidende Entwicklungen hinsichtlich des Verhältnisses von Spieler und Datenbank: In Seven Cities of Gold gelten noch die Paradigmen früher Datenbankentwürfe, nach denen der Normalnut- zer nicht durch Kenntnisse über die interne Organisation der Daten belastet werden soll. Im konkreten Fall ist es sogar denkbar, dieses Informationsdefizit als Mittel zur Verdichtung der Spielerfahrung zu beschreiben: Für das Vorha- ben, die Situation der Entdeckung der Neuen Welt in einem Computerspiel zu simulieren, stellt die Nicht-Vergabe von Informationen gewissermaßen eine Steigerung des Realismusgrades dar. Es ist jedoch letztlich nicht zu klären, was für diese Designentscheidung ausschlaggebend war: technische Begrenztheit, das – durchaus auch ideologisch interpretierbare – Paradigma der klaren Rol- lentrennung bei der Gestaltung von Datenbanken oder letztlich der Anspruch einer möglichst realistischen Informationsvergabe bezogen auf das historische Vorbild der Spielsituation. Die Datenbank als Karte 243 Ganz anders hingegen präsentiert sich Civilization IV: Der Spieler erhält – in der klassischen Datenbank-Terminologie – Administratorenrechte. Diese muss er nicht zwangsläufig nutzen; er kann seine Aktivitäten im Spiel auf die Opera- tionen des Auslesens und des Schreibens/Änderns im Rahmen der durch Spiel- regeln festgelegten Konventionen beschränken. Der Nutzer kann also auf der Ebene des eigentlichen Spiels, welches freilich auch ein Interface zur Daten- bankmanipulation darstellt, entscheidende Eingriffe in die Geo-Datenbank des Spiels vornehmen: Im Falle von Civilization IV sind die menügesteuerte Gründung einer Stadt, das Umwandeln von Wald- in Ackerland oder schon die Aufdeckung eines vorher unbekannten Terrainabschnitts sehr grundlegende Änderungen der Datenbank. Diese werden jedoch dem Spieler nicht als sol- che kommuniziert. Die durchgeführten Änderungen werden vielmehr rein vi- suell – und gegebenenfalls durch kurze Bildschirmtexte – auf der Oberfläche des Spielinterfaces rückgemeldet. Dadurch werden in gewissem Rahmen die Datenbankeingriffe verschleiert; die Veränderung der Spielkarte, der Raum- eingriff tritt als Geschehen auf dem Bildschirm gegenüber der eigentlichen Datenbankmanipulation in den Vordergrund. Seven Cities of Gold und Civili- zation IV ähneln sich in diesem Modus der Nutzung ungemein, wenngleich die umfangreichen Eingriffsmöglichkeiten im letztgenannten Titel darüber hin- wegtäuschen können. Völlig anders gestaltet sich die Position des Civilization-Nutzers in dem Fall, in dem er von den Möglichkeiten des World-Builders Gebrauch macht: Verein- facht ausgedrückt wird der Nutzer dabei zum Weltenbauer.¯15 Hinsichtlich der im Strategiespiel stets präsenten Frage der Macht ergibt sich eine sehr klare Situation. Durch die ihm eingeräumten Administratorenrechte für die Spiel- datenbank steht es dem Nutzer letztlich frei, die Spielbedingungen nach ei- genen Gutdünken zu bestimmen. Er ist dann viel weniger Entdecker als Ar- chitekt, nicht mehr Handelnder in der Weltentdeckung sondern Handelnder in der Welterschaffung. Dabei darf jedoch nicht übersehen werden, dass hin- sichtlich der Interfaceebene, jener die Spielwahrnehmung maßgeblich bestim- menden Komponente, eine Trennung sehr deutlich ist, denn der World-Builder stellt eine vom normalen Spielgeschehen klar zu unterscheidende Oberfläche dar. Noch klarer wird dies bei der Manipulation der Spieldateien auf der reinen Textebene des nicht mehr durch das Werkzeug World-Builder vermittelten Da- tenbankeingriffs. Mit einem schlichten Texteditor lassen sich Geodaten ebenso verändern wie auch die im Raum vorhandenen Einheiten.¯16 Betrachtet man die Rolle des Spielers in beiden Beispielen unter dem Aspekt der Rollen, die ihm bei der Nutzung der Datenbank des Spiels zugewiesen sind, so zeigt sich ganz deutlich eine Erweiterung im Fall von Civilization IV. Die Soft- 244 Gunnar Sandkühler ware unterstützt den Spieler dabei durch die Offenheit des Geo-Informations- systems in zweifacher Hinsicht: Einerseits durch die Bereitstellung des World- Builders, andererseits aber auch die Dokumentation der Datenbankstruktur und die Verwendung eines lesbaren Schemas zur Datenbeschreibung. Diese Entscheidung des Herstellers muss dabei nicht nur ökonomisch mit Blick auf den Lifecycle des Produkts motiviert sein. Die bewusste Stärkung des Nutzers in seiner Position gegenüber der Software kann ebenso gut interpretiert wer- den als konsistente Weiterführung des Grundgedankens des Spiels: Der Nutzer kann in uneingeschränkter Machtfülle handeln; und zwar sowohl auf der Ebe- ne des eigentlichen Spiels wie auch auf der der Bereitstellung von Spieldaten. Vermutlich ist es genau das Vorhandensein dieser zwei Pole der Spielnutzung, die den unbestreitbaren Erfolg des Titels ausmachen. Der Spieler kann wählen zwischen dem immersiven und sehr offenen Spiel auf der Interfaceoberfläche oder er kann sich sukzessive in die darunter liegende Datenbank einarbeiten und einschreiben. Die in den Spielen zum Einsatz kommenden Geo-Datenbanken unterscheiden sich also nicht nur durch ihre technische Umsetzung. Ebenso bieten sie ganz unterschiedliche Einflussmöglichkeiten für den Nutzer. Diese Nutzungsbedin- gungen der für die Raumdarstellung verantwortlichen Datenbank im Spiel be- stimmen dabei letztlich in ganz entscheidendem Maße die Handlungs- und Re- zeptionsposition des Spielers. Anmerkungen 01˘ Das Problem des Spielraums im Computerspiel wird unter anderem diskutiert bei Ryan 2001, 121-130; Neitzel (2008) weist darauf hin, dass die von Ryan angeführte Trennung zwischen ›gelebtem‹ Raum des (Spiel)Handelns und ›rationalem‹ Raum der Karte nur be- dingt in digitalen Medien aufrechtzuerhalten ist: »Computerspiele, wie auch andere digi- tale Medien, sind gekennzeichnet durch die Kombination und durch Mischformen der bei- den Arten von Räumlichkeit«. Zum Versuch einer genreübergreifenden Bestimmung des Raumbegriffs und der Raumfunktionen im Computerspiel siehe auch Günzel 2008. 02˘ In diesem Zusammenhang fügen sich das strategische Computerspiel und die Praxis seiner Beschreibung ein in eine seit spätestens 2001 zu beobachtende »Renaissance« des Raumes (Maresch/ Werber 2002, 7) im geisteswissenschaftlichen Diskurs. Diese Beobachtung über- rascht nur auf den ersten Blick, stellt doch das Strategie-Computerspiel ein Produkt dar, in dem es schon immer – also auch während der Zeit des herrschenden großen Erzählung von der Enträumlichung, wie sie gerade in den gängigen Theorien des Cyberspace und der Die Datenbank als Karte 245 Neuen Medien in den 1990er Jahren gebetsmühlenartig wiederholt wurden – um Raum und Raumbeherrschung ging. Vgl. zu den vorsichtig als optimistisch zu bezeichnenden Verabschiedungen des realen Raumes als Folge des Ausbaus moderner Informations- und Kommunikationstechnologien die Überblicke bei Ellrich 2002; Funken / Löw 2002; Noller 2000. 03˘ Der mitunter schmale Grat zwischen abstrakten Spielen ohne vordergründiges Narrativ und solchen mit - wenngleich konstruiert wirkenden – Erzählinhalten wird ausführlich dis- kutiert bei Furtwängler 2001. 04˘ Die Repräsentation von Raumdaten ist dabei nicht allein funktional motiviert, son- dern lässt sich im Kontext eines nach wie vor bestehenden »Raumfetischismus« des Strategiespiels betrachten (vgl. Nohr 2007). Die Beherrschung eines Raumes – und gegebe- nenfalls die Ausbeutung seiner Ressourcen – stellt in der überwiegenden Zahl strategisch orientierter Spiele die entscheidende Siegbedingung dar. Die visuelle Umsetzung erfolgt dabei in der Regel in Form einer Karte. 05˘ Die thematische Überarbeitung topographischer Karten stellt dabei keine originä- re Entwicklung im Zuge der Etablierung von GIS dar; vgl. Robinson 1982. Nikolow (1999) verweist auf die Arbeiten August Friedrich Wilhelm Cromes (1753-1833), der als Statistiker und Historiker bereits entsprechende Karten Europas veröffentlichte, auf denen nicht die primäre geographische Situation der Staaten zueinander dargestellt werden sollte, son- dern durch die Größendarstellung von wirtschaftlichen, militärischen und geographischen Kenndaten – ganz im Sinne der philanthropischen Pädagogik der Zeit – nicht nur strategi- sche Verhältnisse vermitteln, sondern zur »Versinnlichung von Staatskräften« beitragen wollte; vgl. Sandkühler 2008. Ein aktuelleres Beispiel stellt der Fischer Atlas zur Lage der Welt dar (1996). Bemerkenswert ist auch die Sendereihe mit offenen karten (fr.: le dessous des cartes), welche seit 1990 in Frankreich und seit 1992 beim Gemeinschaftssender arte ausgestrahlt wird; Inhalt der Sendung ist jeweils ein geopolitisches, gesellschaftliches oder landeskundliches Thema, über das in Form thematischer Karten mit entsprechen- den Erzählerkommentaren informiert wird; zu Karten im Fernsehen vgl. grundlegend Nohr 2002. 06˘ Die Erfassung der amtlichen Geodaten ist in der Bundesrepublik nicht zentral, sondern föderal verankert. Wohl auch aus diesem Grund begann das großangelegte Projekt ATKIS, das Amtliche topographisch-kartographische Informationssystem, bereits 1985 und ist nach wie vor, in Folge der Fülle von Daten aus unterschiedlichen Beständen, nicht voll- ständig abgeschlossen. ATKIS selbst ist ein Teil des so bezeichneten AAA-Programms, wel- ches weiterhin das Amtliche Liegenschaftskatasterinformationssystem (ALKIS) und das Amtliche Festpunktinformationssystem (AFIS) umfasst; vgl. Birth 1998; Harbeck 2001. Die Fortführung des Projekts mit dem jeweils aktuellsten Stand der Geodatenerfassung und –migration wird auf der Homepage der AdV dokumentiert: [www.adv-online.de]. 07˘ Die dreidimensionale Datenerfassung in den GIS stellt eines der technisch aufwen- 246 Gunnar Sandkühler digsten Probleme der Vermessung dar: So stellt die möglichst exakte Bestimmung von Höhenlinien in der Realität eine Herausforderung dar, die nur aufwendig über Methoden der Fernerkundung zu realisieren ist. Selbst die derzeit wohl vollständigste Geo-Datenbank GooGle earth bildet genau genommen keine dritte Dimension im Sinne von Höhenlinien ab. Computerspiele dagegen können bei den Höhenangaben ihrer Geländemodelle noch ohne größere Einschränkungen der Funktionalität auf Höhenraster zurückgreifen, welche mehr oder weniger beliebig gewählt sind, 08˘ Das gesamte Spieldispositiv von seven cities of Gold verhält sich dabei auffallend kon- gruent mit realhistorischen Befunden; die Entdeckung und Kolonialisierung Amerikas seit dem ausgehenden 15. Jahrhundert war schließlich tatsächlich geprägt vom Wettlauf Spaniens und Portugals um bessere, zuverlässigere Kartierungen – also dem Erwerb von Geodaten – mit dem Ziel effizienterer Ressourcennutzung und letztendlich der Aufteilung der Welt; vgl. Schneider 2004. 09˘ Beim Spielen von seven cities of Gold kommt man, je nach Zählung, auf rund 28 Terraintypen. Es bleibt offen, ob diese Protokollierung des Spielverlaufs dem von Kücklich (2001) geforderten vollständigen Verständnis der Spielprogrammierung entspricht. 10˘ Ergänzend ist freilich anzumerken, dass dem Spieler durch die Möglichkeit, im Spielverlauf Vorratslager, Forts oder Missionsstationen anzulegen, in sehr geringem Umfang auch Schreibrechte innerhalb der Datenbank eingeräumt werden. 11˘ Bemerkenswert ist dabei jedoch der Bruch dieser Rezeptionshaltung durch den Absatz zur Gegenkontrolle anhand eines Atlas, um die rudimentäre, nicht mit Legenden versehene Spielkarte mit einer Repräsentation der realen Welt abzugleichen. Betrachtet man die visu- elle Qualität der im Spiel dargestellten Karte hinsichtlich ihres Detailgrads, so kann es als eine erhebliche Eigenleistung des Spielers gelten, auf der Grundlage seines Wissens über die reale Geographie des amerikanischen Kontinents eine Zuordnung zwischen Spielkarte und geographischer Realität vorzunehmen; vgl. Downs / Stea 1977. 12˘ Das reale GIS-System ATKIS nutzt GML (Geography Markup Language), ein Beschreib- ungsschema für Landschafts- und Situationsdaten, welches seinerseits auf dem XML- Standard basiert. Freilich ist die Notation komplexer; als Grundüberlegung bleibt jedoch die Anforderung bestehen, dass einerseits menschliche Nutzer das Schema lesen und be- arbeiten können sollen, es andererseits aber auch für die maschinelle Weiterverarbeitung geeignet sein soll. Das ATKIS-Projekt hat sein Basis-DGM als Objektdatenkatalog vollständig – und eben für jeden Interessierten lesbar – veröffentlicht. Die recht umfangreiche GML-Datei wird von den beteiligten Vermessungsbehörden bereitgestellt. Dahinter steckt freilich der ange- sprochene politische Auftrag, nämlich das Katasterwesen der Bundesrepublik transparent, aber zugleich exakt zu erfassen. Wenngleich Projekte wie open street map technisch so- gar vergleichbare Möglichkeiten nutzen, muss hier doch auf einen erheblichen Unterschied hingewiesen werden: Eine amtliche Katastererfassung kann in keinem Falle von jedem Die Datenbank als Karte 247 Interessierten bearbeitet werden dürfen. Das angesprochene ATKIS-Basis-DGM ist in die- ser Hinsicht zwar frei lesbar, aber nur sehr restriktiv zu bearbeiten. Was im open street- map-projekt das kollaborative Erlebnis und Ergebnis ausmacht, nämlich die Möglichkeit aller Beteiligten, beliebige neue Tags einzubinden, verbietet sich schlechterdings in einem amt- lichen DGM mit hoheitlichem Auftrag; vgl. dazu den Beitrag von Harald Hillgärtner in die- sem Band. 13˘ Für eine große Zahl der Strategiespiele stehen Editoren zur Verfügung, sei es als vom Hersteller im Sinne einer Verlängerung des Lifecycle gelieferte Zusatzprogramme, sei es als Eigenentwicklungen der Spieler. Dieses Phänomen freilich ist keinesfalls auf Strategiespiele beschränkt: Gerade im Bereich der Ego- oder Taktik-Shooter stellen selbst generierte Maps einen wichtigen Aspekt des Gesamtspiels dar. Zu beachten ist dabei jedoch, dass es in die- sem Spielgenre eher um die Gestaltung realistischer, abwechselungsreicher, im Teamplay fordernder oder eben origineller, letztlich aber in der Regel abgeschlossener Räume geht; vgl. Funken / Löw 2002. 14˘ Beispielhaft zu nennen wäre hier das bislang nicht abgeschlossene 50 States Project der Community civ-fanatics, welches das Ziel hat, alle Bundesstaaten der USA mit den Möglichkeiten des World-Builders abzubilden, und am Ende zu einem Szenario für civilization iv zusammenzuführen; vgl. dazu [http://forums.civfanatics.com/showthread. php?t=334995], letzter Abruf:27.11.2011. 15˘ Es ist an dieser Stelle offensichtlich, dass sich damit sehr weitläufige Fragen hinsichtlich der Rezeptionshaltung und -handlung im Computerspiel eröffnen (Raessens 2005). 16˘ Noch weiter geht freilich die Bearbeitung ganzer Szenarien oder die Erstellung so ge- nannter Konversions. In diesen Fällen, in denen nicht nur die Geodaten verändert wer- den, sondern auch die zugewiesenen Eigenschaften der im Spiel auftretenden Einheiten oder sogar die graphische Gestaltung der Oberflächen reicht der World-Builder nicht mehr aus, um die Manipulationen durchzuführen. Der Nutzer muss sich in diesem Fall sehr tief greifende Kenntnisse über die Struktur der hinterlegten Daten auf allen Ebenen des Spiels aneignen. Der Austausch ganzer Graphikbibliotheken stellt dabei jedoch keinen uner- wünschten Eingriff in das Spiel dar, sondern wird vom Hersteller durch die Offenheit und Dokumentation der Software eher noch angeregt. 248 Gunnar Sandkühler Bibliografie Arbeitsgemeinschaft der Vermessungsverwaltungen der Länder der Bun- desrepublik Deutschland (AdV) (2001) Grundsätze des amtlichen Vermessungswesens. Präambel, [www.adv-online.de]; letzter Aufruf: 24.6.2011. Asch, Kristine (2001) Vom Zeichenstift zum Datenmanagement – das Geo-Informations- system der Geologischen Karte von Europa 1 : 5 000 000. In: Buzin 2001, S. 9-21. Birth, Konrad (Hrsg.) (1998) Das Geoinformationssystem ATKIS und seine Nutzung in Wirt- schaft und Verwaltung. Anläßlich des 4. AdV-Symposiums ATKIS am 26. und 27. Oktober 1998 in Fellbach. Stuttgart: Landesvermessungsamt Baden-Württemberg. Bunten, Dan (1984): Seven Cities of Gold. Designer´s notes. In: CGW 4, 5, S. 20f. Buzin, Reiner (Hrsg.) (2001) Kartographie 2001. Multidisziplinär und multimedial. Beiträge zum 50. Deutschen Kartographentag. Heidelberg: Wichmann. Carlisle, Sandra (1984) Seven Cities of Gold. In: CGW 4, 3, S. 9-11 u. 40. Codd, Edgar F. (1970) A relational model of data for large shared data banks. In: Communi- cations of the ACM 13, 6, S. 377-387. Crawford, Chris (2003) Chris Crawford on game design. Indianapolis/IN: New Riders. Detering, Sebastian (2008) Wohnzimmerkriege. Vom Brettspiel zum Computerspiel. In: Nohr / Wiemer 2008, S. 87-113. Downs, Roger M. / Stea, David (1977) Maps in minds. Reflections on cognitive map- ping. New York u.a.: Harper & Row. Ellrich, Lutz (2002) Die Realität virtueller Räume. Soziologische Überlegungen zur ›Veror- tung‹ des Cyberspace. In: Maresch / Werber 2002, S. 92-113. Funken, Christiane / Löw, Martina (2002) Ego-Shooters Container. Raumkonstrukti- onen im elektronischen Netz. In: Maresch / Werber 2002, S. 69-91. Furtwängler, Frank (2001) »A crossword at war with a narrative.« Narrativität versus In- teraktivität in Computerspielen. In: Gendolla, Peter et al. (Hrsg.) (2001) Formen interaktiver Medienkunst. Geschichte, Tendenzen, Utopien. Frankfurt/M.: Suhrkamp, S. 369-400. Günzel, Stephan (2008) Raum, Karte und Weg im Computerspiel. In: Game Over!? Per- spektiven des Computerspiels. Hrsg. v. Jan Distelmeyer, Christine Hanke & Dieter Mersch. Bielefeld: Transcript, S. 113-132. Harbeck, Rolf (2001) 15 Jahre ATKIS, und die Entwicklung geht weiter. In: Vermessung Bran- denburg, 1/2001, S. 3-14. Hennermann, Karl (2006) Kartographie und GIS. Eine Einführung. Darmstadt: Wissen- schaftliche Buchgesellschaft. Horn, Eva (2002) Secret intelligence. Zur Epistemologie der Nachrichtendienste. In: Ma- resch / Werber 2002, S. 173-192. Kainz, Wolfgang (2001) Datenbanken im Zeitalter des mobilen Geocomputing. In: Buzin 2001, S. 164-172. Die Datenbank als Karte 249 Kidron, Michael / Segal, Ronald (1996) Der Fischer Atlas zur Lage der Welt. (aus dem Englischen von Eva-Maria Ziege) Frankfurt/M.: Fischer. Kohlstock, Peter (2010) Kartographie. (2., überarb. Aufl.) Paderborn: Schöningh. Kücklich, Julian (2001) Literary theory an computer games. In: Nack, Frank (Hrsg.) COSIGN 2001. Proceedings of the 1st conference on computational semiotics for games and new Me- dia. 10. bis 12.9.2001. Amsterdam: CWI, S. 51-58. Manovich, Lev (2001) The language of new media. Cambridge/MA: MIT Press. Maresch, Rudolf / Werber, Niels (2002) Permanenzen des Raums. In: dies. (Hrsg.) (2002) Raum. Wissen. Macht. Frankfurt/M.: Suhrkamp, S. 7-30. Neitzel, Britta (2008) Welt und Ort – Karte und Territorium. Vortrag beim Workshop Topo- graphie des Strategischen, 14. und 15.11.2008, HBK Braunschweig, [www.strategiespielen.de/ workshop-topografie]; letzter Aufruf: 24.6.2011. Nikolow, Sybilla (1999) ›Die Versinnlichung von Staatskräften‹. Statistische Karten um 1800. In: Traverse 6, 3, S. 63-82. Nohr, Rolf F. / Wiemer, Serjoscha (Hrsg.) (2008) Strategie spielen. Medialität, Ge- schichte und Politik des Strategiespiels. Münster: LIT (Medien’Welten, 9). Nohr, Rolf F. (2008) Strategie spielen. Zur Kontur eines Forschungsprojekts. In: Nohr / Wie- mer 2008, S. 7-28. Nohr, Rolf F. (2007) Raumfetischismus. Topographien des Spiels. In: Klaus Barthels / Jan- Noël Thon (Hrsg.) Computer/Spiel/Räume. Materialien zur Einführung in die Computer Game Studies. Sonderheft Tiefenschärfe, Hamburger Hefte zur Medienkultur, S. 61-81. Nohr, Rolf F. (2002) Karten im Fernsehen. Die Produktion von Positionierung. (zugl. Diss. Universität Bochum 2001). Münster: LIT (Publizistik; 10). Noller, Peter (2000) Globalisierung, Raum und Gesellschaft. Elemente einer modernen So- ziologie des Raumes. In: Berliner Journal für Soziologie H. 1 (2000), S. 21-47. Raessens, Joost (2005) Computer games as participatory media culture. In: ders. / Jef- frey Goldstein (Hrsg.) Handbook of computer game studies. Cambridge/MA: MIT Press 2005, S.373-388 Ryan, Marie-Laure (2001) Narrative as Virtual Reality. Immersion and Interactivity in Li- terature and Electronic Media. Baltimore, London: Johns Hopkins University Press. Robinson, Arthur H. (1982) Early thematic mapping in the history of cartography. Chica- go: University of Chicago Press. Sandkühler, Gunnar (2008) Die philanthropische Versinnlichung. Hellwigs Kriegsspiel als pädagogisches und immersives Erziehungsmodell. In: Nohr / Wiemer 2008, S. 69-86. Schenk, Frithjof B. (2002) Mental Maps. Die Konstruktion von geographischen Räumen in Europa seit der Aufklärung. In: Geschichte und Gesellschaft 28,3, S. 493-514. Schneider, Ute (2004) Die Macht der Karten. Eine Geschichte der Kartographie vom Mit- telalter bis heute. Darmstadt: Primus. 250 Gunnar Sandkühler Stockhammer, Robert (2001) ›An dieser Stelle.‹ Kartographie und die Literatur der Mo- derne. In: Poetica 33, 3/4, S. 273-306. Gameografie Command & Conquer. Tiberian Dawn. (1995, Westwood Studios / Virgin Interavtive). Seven Cities of Gold (1984, Ozarc Softscape / Electronic Arts). Sid Meier´s Civilization IV (2005, Firaxis / K2 Games). Die Datenbank als Karte 251 252 Ralf Adelmann »There is no correct way to use the system«. Das doppelte Subjekt in Datenbanklogiken Das Subjekt ist eine Vielheit. Es kann fraktal, hybrid, paradox, modern und noch vieles mehr sein. Die Perspektive auf größere Gesellschafts- und Zeiträu- me lässt das Subjekt und seine Konstitution modellhaft und überschaubar er- scheinen. Sollen Epochen, Episteme oder soziale Formationen gegeneinander abgegrenzt oder miteinander verglichen werden, leisten die jeweiligen Sub- jektmodelle wichtige Verallgemeinerungen und schaffen Vergleichsebenen. Dagegen sind die alltäglichen Mikropraxen der Subjektkonstruktion häufig nur partikulär oder widersprüchlich erfassbar. Die Elemente eines Subjektmo- dells sind beispielsweise bei der vielfältigen Rezeption von Medien nicht trenn- scharf auffindbar. Unbestreitbar haben Medien Anteil an Subjektmodellen und ihren Mikropraxen. Zum Beispiel versucht die Apparatustheorie das Zuschau- ersubjekt im Kino modellhaft zu fixieren oder die Cultural Studies bemühen sich die subjektprägenden Prozesse von Medien kleinteilig zu analysieren. Mit dem Modell des doppelten Subjekts wird an dieser Brücke zwischen allgemei- nen Subjektdiskursen und der spezifischen Beispielebene gearbeitet. Durch die gleichzeitige Realisierung zweier Subjektmodelle im Mediengebrauch können erst Effekte wie beispielsweise der Lustgewinn bei der Nutzung von daten- bankbasierten Medienformen erklärt werden. In den nachfolgenden Überlegungen zu Datenbanklogiken wird deshalb das Modell eines doppelten Subjekts in unterschiedlichen medialen Formen ver- folgt werden. Zuerst werden zwei unterschiedliche Subjektkonstitutionen ge- geneinander abgewogen, um dann an zwei Medienbeispielen zu zeigen, wie sich das doppelte Subjekt jeweils in bestimmten Medienkontexten konkreti- siert. Dieses übergreifende Subjektmodell schließt an ein gemeinsam mit Hart- mut Winkler entwickeltes Konzept der kurzen Handlungsketten und der Sub- jektkonstitution in Computerspielen an (Adelmann/Winkler 2010), das ich als Ausgangspunkt für meine Verallgemeinerung dieses Modells zusammenfas- send wiederholen möchte. Im Zusammenspiel von medienübergreifend ein- gesetzten Datenbanklogiken und konkreten medialen Formen präsentiert sich jedoch ein Grundmuster, das über die Subjektkonstituierung in Computerspie- len hinausgeht. Das doppelte Subjekt in Datenbanklogiken 253 Die erste These der gemeinsamen Überlegungen zielt gegen das Konzept der Interaktivität als zentralem Merkmal des digitalen Spielens und für einen im Computerspiel erfahrenen, subjektzentrierten Handlungsbegriff. Die Tradie- rungslinie wird dabei in der Handlungsfähigkeit oder in der Agency als Zen- trum des bürgerlichen Selbstverständnisses gesehen, die sich in den kurzen Handlungsketten des Computerspiels fortsetzen. Gerade die aktuellen Bewe- gungsspiele oder Actionspiele erfordern und ermöglichen schnelle Handlungs- folgen. Im Gegensatz dazu stehen die (Selbst-)Disziplinierungen der modernen Gesellschaft wie Bürokratien oder Finanzsysteme, die spontane Affekte, Triebe und Aktionen in lange Handlungsketten und -netze umwandeln (Elias 1976, 348ff.). In den Fokus rückt damit das Konzept des Subjekts, das der täglichen Pflege, der Stabilisierung und Stärkung bedarf. An diese erste These anknüpfend und über das Medium Computerspiel hinaus- gehend, rekonstruiere ich aus der Geschichte der Datenbanken heraus die dis- kursive Dichotomie zwischen dem kohärenten handlungsmächtigen Subjekt und dem verteilten sich auflösenden Subjekt. In dramatischer Verkürzung des Datenbankdiskurses lässt sich als Grundkonstellation dieser Dichotomie for- mulieren: Die Wiederaufführung des bürgerlichen Subjekts trifft auf das zer- splitterte Subjekt der Postmoderne. Beide Subjektkonstitutionen sind als ima- ginäre und reale Anteile im Datenbankdiskurs implementiert. Auf dieser grundsätzlichen Dichotomie baut die zweite These auf: Das Subjekt befindet sich aktuell in einer tiefgreifenden Krise – sowohl aus Sicht der sub- jektkritischen Philosophie als auch in der Alltagserfahrung. Ein Ankerpunkt für dieses Argument findet sich in der Zivilisationstheorie von Elias, die den Zivili- sationsprozess als eine Verlängerung von Handlungsketten durch Systeme der Hemmung, zum Beispiel von direkter Gewalt, beschreibt (Elias 1976). In diesen Widerstreit von Einheit und Zerstreutheit des Subjekts tritt das Handlungsmo- dell des Computerspiels als ein patch ein, in dem es als Utopie das Drama der kurzen Handlungsketten wieder aufführt. Dieser patch hat eine Parallelgeschichte in der Softwareentwicklung, auf die ich exemplarisch eingehen werde. Im Datenbankdiskurs wird einerseits ein verteiltes, vernetztes und unsichtbares Subjekt produziert, andererseits kann der User der Datenbank sich als autonomes und handlungsfähiges Subjekt kon- stituieren, indem ihm das Phantasma der kurzen Handlungsketten zugeschrie- ben wird. Dieser Widerstreit zwischen den zwei Subjektrealitäten – dem kohä- renten Subjekt der kurzen Handlungsketten und dem zerstreuten, vermittelten Subjekt des Aufschubs, der Vermittlung, der Auslagerung, des Nie-Zu-Ende- Seins – produziert das Vergnügen und die Lust, die das Computerspiel und da- rüber hinaus die Nutzung von Datenbanken in anderen Medien auszeichnet. 254 Ralf Adelmann Die dritte und letzte These ist, dass auf der realen Ebene das Subjekt in der Soft- ware beziehungsweise in den Datenbanken verschwindet, aber auf der Ebene des Imaginären das handlungsmächtige Subjekt als kohärentes und stabiles weiter reproduziert wird. Diese beiden Ebenen schließen sich im Datenbank- diskurs nicht aus, sondern bedingen sich gegenseitig. Metaphorisch gespro- chen benötigt die utopische Wiederaufführung des bürgerlichen Subjektes die reale Bühne der Vermittlung und Verteilung des Subjekts in Datenbanken. Datenbank als Diskurs Der Technikhistoriker David Gugerli (2007b) weist zu Recht darauf hin, dass die Computergeschichte lange Zeit zu einseitig auf die technische Revolution vom Analogen zum Digitalen verkürzt wurde. In den letzten Jahren sind auf die Ge- genbewegung zur Konzentration auf die Technik jedoch eine Reihe von Ansät- zen zur Geschichte der Software entstanden, wie beispielsweise der von Guger- li (2007a) herausgegebene Zeitschriftenband zu Datenbanken, Monographien zur Geschichte der Softwareindustrie (Campbell-Kelly 2004) oder historische Analysen zum Computer als Regierungsmaschine (Agar 2003). Alle diese Unter- suchungen weisen auf die Zentralität des Datenbankmodells für eine an Soft- ware orientierte Geschichte des Digitalen hin. Diese Softwaregeschichte beginnt auch nicht erst mit dem digitalen Compu- ter. Beispielsweise schließen Cornelia Vismann und Markus Krajewski die Ta- belle als Medium der Informations- und Wissensproduktion und als Grund- lage der Datenbank mit den Regierungstechnologien des modernen Staates zusammen, wie sie in Form der »Polizey« und anderer Diskurse seit dem 17. und 18. Jahrhundert entwickelt werden (Vismann 2000; Krajewski 2007). Diese Zu- sammenhänge unter dem Motto »Verwaltung als Datenverarbeitung« können sicherlich aus der Perspektive der Gouvernementalitätsforschung weiter ver- wertet werden. Mein Ansatzpunkt ist allerdings ein anderer: Die Datenbank als Diskurs, der neue Formen der Subjektkonstitution hervorbringt. Diese Idee findet sich schon 1995 in Mark Posters Buch »The second media age«. Posters Ansatz ist insbesondere deshalb von Interesse, da er auf den Überlegungen von Michel Foucault zum Diskurs und Subjekt basiert. Die Datenbank ist für Poster ein neuer Diskurs und eine neue Praxis, die im sozialen Feld operiert und die Kon- stitution des Subjekts rekonfiguriert. Dabei möchte Poster bewusst über die marxistische und liberale Kritik an Datenbanken hinausgehen, die zwar Daten- banklogiken in ihre Ansätze integrieren kann, ohne aber aus ihrer jeweiligen Das doppelte Subjekt in Datenbanklogiken 255 spezifischen Sicht die fundamentalen historischen Veränderungen durch Da- tenbanken zu erfassen. Im Lichte dieser Kritik von Poster betrachtet der Marxismus die Datenbank nur als eine Ausweitung der Machtsphäre großer Firmen und der Liberalismus fürchtet mit der Datenbank um die Privatsphäre des Bürgers, die durch staat- liche und ökonomische Datenbankstrukturen eingeschränkt werde. Beide von Poster kritisierten Sichtweisen dominieren aktuell immer noch die publizis- tische Debatte um Datenbanken, wie es in den so genannten Datenskanda- len der letzten Jahre beobachtbar ist. Diese Sichtweisen verkennen aber nach Poster die diskursive Sprengkraft der Datenbank. Durch Datenbanken ver- schwindet das traditionelle Konstrukt der Trennung zwischen Öffentlich em und Privatem, und damit die bürgerliche Privatsphäre; die Subjekte nehmen – s o Posters Fazit – größtenteils unbewusst und mit geringem technischen Auf- wand an ihrer Überwachung lustvoll teil. Die Datenbank wird somit als diskursive Formation beschrieben, die ein wich- tiges Element der Normalisierungsstrategien im modernen Staat und Wirt- schaftssystem ist. In diesen diskursiven Formationen wird das Subjekt verviel- facht und dezentriert. In den verschiedenen Datenbanken und ihren Relationen wird es objektiviert, höchstens als verstreutes Subjekt und in seiner Abwesen- heit angerufen. Dies sei auch als Unterschied zu seiner direkten Anrufung in der Disziplinargesellschaft zu verstehen. Im (unbewussten) Schreiben der Da- tenbankeinträge wird das Subjekt bei Poster außerhalb der Sichtbarkeit und damit außerhalb der Reichweite von liberalen oder marxistischen Subjekt- ansätzen verortet. Das doppelte Subjekt An Posters Ausführungen anschließend lässt sich die Seite des bürgerlichen Subjekts als imaginärer Bestandteil des Diskurses der Datenbanklogiken und nicht als völlig aufgelöst verstehen. Das bürgerliche Subjekt bleibt neben dem verteilten, in den Datenstrukturen verschwindenden Subjekt bestehen. Bei- de Subjektmodelle schließen sich in den Datenbanklogiken nicht aus, sondern bedingen sich gegenseitig im Modell des doppelten Subjekts. Diese Koexistenz kann an einigen paradigmatischen, beziehungsweise visionären, Texten aus der Anfangszeit der Datenbanken nachgezeichnet werden. Einen ersten Eindruck der doppelten Subjektkonstitution liefert Vannavar Bush in seinem berühmten Essay »As We May Think« aus dem Jahr 1945. Seine Ana- lyse konstatiert eine neue Unübersichtlichkeit in der Welt der Wissenschaft, 256 Ralf Adelmann die durch die Wissensexplosion im Zusammenhang der Entwicklung von Wis- senschaft und Industrie während des Zweiten Weltkriegs entstanden ist. Bush problematisiert eine qualitative Differenz zwischen den künstlichen Indizie- rungssystemen und den Leistungen des menschlichen Geistes – also zwischen den medialen Formen und kognitiven Strukturen. Im zuvor skizzierten Mo- dell bedeutet dies: Er beklagt die langen Vermittlungswege und wünscht sich kurze Handlungsketten in der Wissensproduktion. Deshalb entwirft er seine Wunschmaschine »Memex«, die dem im Mittelpunkt stehenden Wissenschaft- ler, Genie oder einfach Subjekt die Möglichkeit gibt eigene Pfade durch den In- formations- und Wissensdschungel zu schlagen. Bushs Vision basiert auf dem handlungsfähigen Menschen, der die Fäden des Wissens in seinen Händen hält und der durch Indizierungs- und Aufzeichnungstechniken allen Möglichkeiten assoziativ sowie instantan nachgehen kann.¯1 Zwanzig Jahre später bezieht sich Ted Nelson (2003) 1965 auf die »Memex«-Idee und stellt eine konkrete Umsetzung vor, die noch stärker die aktive Nutzerper- spektive einnimmt. Sein Beispiel ist nicht die Wissenschaft, sondern vielmehr das Schreiben und der Autor (und damit eine weitere paradigmatische Figur des postmodernen Diskurses). Der Prozess des Schreibens wird nach Nelsons Auffassung bisher völlig falsch als Kombination von Inspiration, Ausdauer und einer guten Gliederung verstanden. Stattdessen charakterisiert er Schreiben als »rearrangement« und »reprocessing«, indem intellektuelle Handlungen wie Nachdenken, Nebeneinanderstellen, Übertragen, Beurteilen und mecha- nische Handlungen wie Kopieren, Überschreiben und Umstellen aufeinander- treffen. Letztlich wiederholt Poster dieses Modell auf der Ebene des Diskurses, wenn er 1995 vom Schreiben des Subjektes in Datenbanken spricht. Im Unter- schied zu Poster sieht Nelson das kreative Chaos nur auf Seiten des Handelns: »There is no correct way to use the system« (Nelson 2003, 140) ist seine Maxi- me. Das Subjekt bleibt in der Figur des Autors bei Nelson weiterhin ein bür- gerliches und wird durch die Software des Hypertextes kontinuierlich als ein handlungsmächtiges konzipiert. Aber bei Nelson tritt schon eine stärkere Pa- rallelität von vernetzter und verteilter Datenbankstruktur als Materialität, als mediale Form, als Reales auf der einen Seite und einem starken Subjekt als Ima- gination eines Nutzers auf der anderen Seite hervor. Ein drittes Beispiel des Datenbankdiskurses liefert die Rede von Charles Bach- man bei der Verleihung des Turing Awards 1973. Die Bedeutung der Daten- bankentwicklung in der Softwaregeschichte wird durch die Verleihung des Turing-Preises an einen Datenbankpionier dokumentiert, der zudem einen tiefgreifenden Paradigmenwechsel in seiner Rede behauptet (Bachman 1973): Bachman vergleicht die Umstellung von einer computerzentrierten Logik zu ei- Das doppelte Subjekt in Datenbanklogiken 257 ner datenbankzentrierten Logik in der Softwareentwicklung mit der koperni- kanischen Wende. Für ihn modellieren n-dimensionale Datenbanken die reale Welt, die um die Sonne kreist und nicht umgekehrt. Der Programmierer wird in Bachmans Modell zum Navigator, der einerseits zwar aus dem Zentrum der Welt gerückt ist, aber andererseits den n-dimensionalen Datenraum der Da- tenbanken aktiv überquert. Mit dieser Metapher des Navigators wird eine Rea- lität, die dem Subjekt seinen Platz als Mittelpunkt des Universums raubt, kom- biniert mit einer imaginären Subjektposition, in der sich das Subjekt über das Handeln und über das Navigieren definiert. Bei Bachman wiederholt sich das Modell im Diskurs der Datenbanken in einer Variante des doppelten Subjekts. Ein Gegenspieler von Bachman war Edgar F. Codd, der in den 1970er Jahren nicht den Programmierer als Navigator, sondern den Nutzer als Subjekt der Daten- bank in den Mittelpunkt stellt. In seinem berühmten Essay »A relational model for large shared databanks« lautet der prognostische erste Satz: »Future users of large data banks must be protected from having to know how the data is or- ganized in the machine (the internal representation)« (Codd 1970, 377). Codds Modell einer relationalen Datenbank zielt mit den Worten von David Gugerli auf ein »größtmögliches Angebot an Deutungsautonomie für eine zunehmend heterogene Nutzergemeinschaft« (Gugerli 2007b, 20). Die verteilte, vernetzte und unsichtbare Datenstruktur als der reale Anteil erzeugt die maximale ima- ginäre Deutungsautonomie der User. Die zentrale Subjektfigur relationaler Da- tenbanken war in den ersten Jahrzehnten ihrer Entwicklung der Manager und die Datenbanksysteme wurden für den Einsatz in der Personalführung konzi- piert. Gugerli (2007b, 27) zitiert die damals in den Fachartikeln erörterten ty- pischen Beispielanwendungen für relationale Datenbankabfragen: »Fire eve- rybody on the first f loor« (Stonebraker et al. 1976, 191) oder »Find names of employees who earn more than their manager« (Stonebraker et al. 1976, 214). Mit der relationalen Datenbanktechnik ist das Phantasma der kurzen Hand- lungsketten durch die imaginäre Subjektposition »Manager« in einem Unter- nehmen unmittelbar verknüpft. Aus den vorgestellten Diskurspartikeln aus der Datenbankgeschichte folgt: Mit der Realisierung der Datenbank und ihrer Entsubjektivierungstendenzen Mitte des 20. Jahrhunderts entsteht eine gegenläufige und widerständige diskursi- ve Linie in der Softwareentwicklung, die in ihren programmatischen Schriften neben der realen Zersplitterung des Subjekts das Imaginäre und das Phantas- ma starker Subjektpositionen aufrechterhält. Programmierer und User wer- den in diesen Datenbankdiskursen zu mächtigen Akteurspositionen innerhalb von Datenbank- und Dateiverwaltungssystemen. Diese Subjektkonstruktionen agieren im formalen Kontext der Software, die durch Komplexitätsreduktion 258 Ralf Adelmann und durch Verfügbarkeit von Wissen die Handlungsfähigkeit angesichts kom- plexer Lagen erhalten soll. Wissenschaftler, Manager, Programmierer oder – ganz allgemein – Autoren sind die prototypischen Beispiele für diese imaginäre Seite des doppelten Subjekts. Das Paradoxe liegt in der Ermöglichung dieser ko- härenten Subjektpositionen durch die Aufteilung und Zerstückelung von Sub- jektpartikeln in den Tabellen der Datenbanken. Beispiel: Strategie spielen Aus der dargestellten generellen Sicht auf Datenbanklogiken lässt sich nun weiter fragen, welche Elemente des doppelten Subjekts sich gerade bei Compu- terspielen und insbesondere bei Strategiespielen feststellen lassen? Aufgrund des modellhaften Ansatzes kann keine harte Grenze zwischen den zuvor ent- wickelten allgemeineren Überlegungen und der Betrachtung von Computer- spielen gezogen werden. Stattdessen möchte ich auf zwei Punkte hinweisen, in denen Datenbanklogiken und damit auch das doppelten Subjekt exempla- risch hervortreten. Spielerfahrung Phänomenologisch lässt sich das Spielerlebnis als Erfahrung eines doppelten Subjekts charakterisieren. Besonders in rundenbasierten Strategiespielen, aber auch in Echtzeitstrategiespielen entstehen spielbestimmende Momente des Handelns, in denen der Spieler seine Einsätze macht. Diese starken Hand- lungsmomente werden abgelöst von Momenten, in denen der Spieler sich dem Geschehen ausliefert. Das einfache Tower-Defense-Spiel Fieldrunners de- monstriert beispielhaft diesen steten Wechsel in der Subjektpositionierung. Mehrere Arten von Verteidigungstürmen mit unterschiedlichen Eigenschaften werden auf dem Spielfeld platziert, auf das in Angriffswellen die unterschied- lichen Gegner gestürmt kommen. Das Spiel besteht aus einem Wechsel zwi- schen dem aktiven Einsatz der Verteidigungstürme und passivem Abwarten der Angriffswellen. Dieses Spielprinzip liegt auch einem der beliebtesten di- gitalen Strategiespiele – Starcraft – zugrunde. Dort freilich erweitert durch eine wesentlich komplexere Spielsituation, die Angriffe erlaubt, Ressourcen- abbau fordert und so weiter. Das lustvolle Spiel von Festigung und Bedrohung von Subjektpositionen, indem der Spieler immer wieder passive Phasen durch- lebt oder den Aktionen von Mitspielern oder der Software ausgesetzt ist, wird in Fieldrunners durch klar getrennte Spielphasen wie das Setzen der Verteidi- gungstürme und dem Ansturm der Angreifer reguliert. Das doppelte Subjekt in Datenbanklogiken 259 Diese prototypische Spielerfahrung in Fieldrunners prägt seine mediale Form. Die kohärente Subjektposition des Spielers wird durch die orbitale Perspekti- ve auf die gesamte Spielf läche verstärkt. In dieser Übersichtsperspektive po- sitioniert der Spieler seine Verteidigungstürme souverän. Gleichzeitig gibt er durch die Positionierung und Aufteilung der Verteidigungstürme seine Hand- lungsmacht ab. So kann der Spieler zwar ihren Ort auf dem Spielfeld festlegen, aber dann agieren die Verteidigungstürme für sich alleine, repräsentieren Teil- handlungen, die automatisiert werden, sich der Kontrolle des Spielers entzie- hen und dadurch erst die Spielbarkeit ermöglichen. Weder kann der Spieler bestimmen, gegen wen die Verteidigungstürme sich in der nächsten Angriffs- welle verteidigen, noch wann ihre Gegenwehr beginnen soll. Im Spielerlebnis gibt es demnach immer wieder Momente, in denen sich die Handlungsmacht des Spielers in den automatisierten und verteilten Prozessen einzelner Akti- onen auflöst. Diese objektivierten und automatisierten Teilhandlungen kann der Spieler aus einem Tableau an vorgegebenen Möglichkeiten wählen. In Fieldrunners sind es zu Beginn des Spiels vier Arten von Verteidigungstürmen, für die es je zwei Aufrüstungsstufen gibt. Die Teilhandlungen entstehen aus einer beliebigen Kombination aus den sich ergebenden zwölf Datensätzen dieser Datenbank des Handelns. Während im Spielablauf durchaus die Zersplitterung des Subjekts in die Datenbanklogik der Teilhandlungen integriert ist, ruft die ins Spiel in- tegrierte Anleitung das handlungsmächtige Subjekt an: »build, construct, up- grade, choose«. In diesem Wechselbad von realen und imaginären Subjektmo- dellen bis in die medialen Formen des Spiels werden das Vergnügen und die Lust der Spielerfahrung produziert. Materialität der Information Diskurse über die Datenbank konzipieren sie als unendliches Wissensreservoir, das in Echtzeit und online dem User Informationen zur Verfügung stellt und damit in kreativen wie administrativen Entscheidungsprozessen unabdingbar wird. Der jeweilig in Anspruch genommene Wissens- und Informationsbegriff geht dabei weit über die informationstechnische Definition von Information hinaus (siehe Haigh 2007). In der Literatur zu Strategiespielen werden sie durchaus einerseits als Probe- handeln im Sinne einer Regierungstechnologie verstanden, in dem sich der Spieler in das jeweilige System, den Algorithmus (Manovich 2007), einarbei- ten muss, um erfolgreich handeln zu können. Doch wird er andererseits durch die ihm zur Verfügung stehenden Spielinformationen in die Position eines gottgleichen Akteurs gesetzt, dem Wissen und Information immer und über- 260 Ralf Adelmann all zur Verfügung stehen. Strategiespiele können in Bezug auf die Verfügbar- keit von Informationen als Umsetzung von Datenbanklogiken in mediale For- men verstanden werden. In Rollen-, Action- und Adventurespielen werden in den Inventarlisten Datenbankstrukturen im Interface abgebildet. Die Daten- banklogik der Waffen-, Kräfte-, Panzerungs- und Zaubertrankauswahl ist allzu offensichtlich. Die vom imaginären Subjekt des Spielers getroffene Auswahl er- folgt immer in Relation der einzelnen realen Datensätze zueinander, wie zum Beispiel: Welche Waffe passt zu welchem Zaubertrank? Solche Datenbankab- fragen münden in Handlungen. Die Fragmentierung des Subjekts durch seine Auslagerung in die Datenbank inklusive seiner Ausrüstungen und seiner Fer- tigkeiten erzeugt gleichzeitig in der Kombination eine individuelle, einzigar- tige Spielfigur als Spiegelung des kohärenten Subjekts. In Strategiespielen jedoch gräbt sich die Datenbanklogik strukturell tiefer in den Spielablauf und den jeweiligen Informations- und Wissenserwerb ein. Die zivilen oder militärischen Einheiten – wie beispielsweise in Starcraft – werden als einzelne Datensätze adressiert, die jeweils wieder mit anderen Datensätzen in Relation gebracht werden können. Die Kombinationsmöglichkeiten liegen in der Handlungsmacht und dem erworbenen Wissen der Spieler. Gleichzeitig können sich die Einheiten nur nach Maßgabe vorher festgelegter Entwicklungs- stufen verbessern. Spekulativ bleibt hierbei der Konnex zu der Logik abge- grenzter und mehrfach adressierbarer Datensätze, wie sie Anfang der siebzi- ger Jahre in so genannten »B-trees« entwickelt wurden, um das Suchen und Finden in Datenbanken zu beschleunigen. Sie haben zumindest eine begriff- lich und strukturelle Analogie zu den »tech trees« in Strategiespielen, welche die hierarchische Aufeinanderfolge von zur Verfügung stehenden Techniken, Bauwerken, Spielfiguren und so weiter festlegen. Handlungsoptionen des Spie- lers werden durch diese Datenbanklogiken eingeschränkt und in einen chrono- logischen Ablauf gebracht. Ebenso wird das komplexe Spielgeschehen in klei- ne Häppchen unterteilt (an dieser Stelle werden die kurzen Handlungsketten wieder relevant). Viel offensichtlicher wird die Datenbanklogik in der Aufberei- tung der Informationen über den Spielstand und die Auflistung von Spielopti- onen, die wiederum bestimmte Handlungsoptionen ermöglichen. In Starcraft werden beispielsweise Informationen über einzelne Einheiten mit dem gene- rellen Spielstand, einem Avatarbild und den Handlungsoptionen verknüpft. In Datenbanken und Strategiespielen werden komplexe Zusammenhänge in kleine Einheiten zerlegt, die wiederum als mediale Entitäten dargestellt sein können. Zum einem wird die (Spiel-)Welt uns als Datenbank präsentiert, die mögliche Handlungsoptionen strukturiert, ohne zugleich den Ablauf vorzu- geben. Zum anderen setzen Datenbanken und Strategiespiele mit dem Pro- Das doppelte Subjekt in Datenbanklogiken 261 grammierer/User/Spieler eine starke Subjektposition voraus, die als Manager ihrer Welt in die Lage versetzt werden soll, sofort zu handeln. Die potentielle »Deutungsautonomie«, wie Gugerli es nennt, und der »Traum vom Computer als einem mächtigen Instrument des Managements« (Gugerli 2007b, 28) ver- wirklicht sich weniger in den dafür entworfenen Datenbankmanagementsys- temen, sondern viel mehr in Strategiespielen, in denen »variable operative und interpretative Prozeduren und Entscheidungen« (Gugerli 2007b, 30) fortlau- fend eingefordert werden. Lev Manovich (2007) unterscheidet in seinem Ansatz zur Datenbanklogik die reale und imaginäre Ebene folgendermaßen: Zwischen Datenbank und Nutzer tritt mit dem Interface eine variable Zugriffsschicht, die andere Optionen der Anordnung zulässt. In semiotischen Begriffen ausgedrückt, schlägt Manovich vor, bei der Datenbank von einer Umkehrung der Eigenschaften von Syntagma und Paradigma auszugehen. Vereinfacht ausgedrückt ist das Syntagma in der Datenbanklogik nicht mehr – wie in der Sprache – festgelegt und sichtbar, viel- mehr treffen diese Merkmale auf das Paradigma zu. Das Syntagma besteht aus vielen Möglichkeiten des Zugriffs und der Anordnung eines festgelegten Para- digmas, der Sammlung aller Datenbankeinträge, die real sind. Das grammati- kalische Subjekt der Datenbank ist dann nicht real, sondern imaginär. Dagegen ist das in den Datenbankeinträgen zersplitterte Subjekt real. Das handlungsmächtige bewusste Subjekt des Spielers entdeckt den Abgrund des Realen, seine Aufspaltung in relationale Datenbanken, nur in den Mo- menten seiner (lustvollen) Ohnmacht gegenüber dem Spielgeschehen, des Zu- tagetretens der anderen Seite des doppelten Subjekts. Strategiespiele sind in diesem Fall ein Interface, das bestimmte Strukturen von Datenbanken abbil- det, aber auf der Ebene des Imaginären mit dem Interface kohärente Subjekt- konstitutionen und kurze Handlungsketten bereitstellt. Beispiel: hulu-ism.¯2 Mit dem zweiten Beispielfeld zeigt sich die medienübergreifende Gültigkeit des Modells und der Datenbanklogiken. Mit dem Medium Fernsehen finden mo- mentan viele Transformationen statt, die mit seiner Digitalisierung sowie mit veränderten soziokulturellen Zuschreibungen an das Medium zusammenhän- gen. Die Entstehung von datenbankgestützten Internetportalen, die das bisher vorherrschende Distributionsmodell der diffusen Ausstrahlung des Fernseh- signals (broadcasting) ergänzen, eröffnet ein Experimentierfeld. Datenbank und Rundfunk scheinen zunächst sehr gegensätzliche und nicht vereinbare me- 262 Ralf Adelmann diale Konzepte zu sein. Die Transformationsprozesse bringen gleichzeitig eine Reihe von Verschiebungen der angebotenen Subjektpositionen hervor. Die ein- geschliffenen Rezeptionsweisen des Fernsehens werden zum einen durch die Datenbanklogik der Speicherung, Erreichbarkeit und Präsentation von Inhalt herausgefordert, und zum anderen werden auf der Seite der Interfacegestal- tung und der möglichen Nutzerpraktiken Anleihen bei diesen televisuellen Re- zeptionsweisen gemacht. Abzuwägen bleibt deshalb zwischen den Formie- rungsleistungen der Datenbanklogiken und den jeweiligen sich entwickelnden Rezeptionskulturen, die sich möglicherweise konträr zu diesen Praktiken ver- halten. Damit kann eine ähnliche Grundkonstellation wie bei den zuvor thema- tisierten Computerspielen festgestellt werden. Die Video- und Fernsehportale im Internet, wie das Beispiel hulu,¯3 befinden sich alle noch im Versuchsstadium. Gleichzeitig werden sie immer häufiger ge- nutzt (vgl. Frees/ van Eimeren 2011) und damit ist es sicher angebracht, sich über die möglichen Veränderungen von Subjektkonstitutionen Gedanken zu machen. Gillian Doyle titelt dazu in einem Artikel für die Zeitschrift Conver- gence 2010: »From television to multi-platform«. Die Tendenz weist in die Rich- tung von Nutzungspraktiken von Fernsehen über unterschiedlichste Medien- wege. Fernsehen ist nicht mehr allein an das Broadcastingmodell gebunden. Die Internetplattform hulu setzt vor allem auf das Streaming von Inhalten. Durch den Distributionsweg Streaming verliert das Fernsehen scheinbar sei- nen Programmcharakter. Die zeitliche Verfügbarkeit wird dadurch ausgedehnt. Alle Inhalte sind potenziell gleichzeitig verfügbar. Von hulu gibt es eine kosten- lose Version, die durch Werbung finanziert wird. Die Werbeunterbrechungen befinden sich an der Stelle wie beim ausgestrahlten Fernsehen, aber im Unter- schied dazu werden höchstens drei Werbespots hintereinander gezeigt. Das klassische Fernsehprogramm wird auf hulu.com durch playlists, queues, sub- scriptions und recommendations ersetzt. Die zeitliche Abfolge des Programms wird durch diese optionalen Ordnungssysteme ersetzt, welche die Zugänge zur darunterliegenden Datenbank eröffnen. Dabei erzeugen eigene playlists oder queues ein individualisiertes Programm hintereinander folgender Sendungen. Dazu kommen recommendations: Algorithmische Vorschlagssysteme, die von einem Nutzersubjekt ausgehen, das Ähnliches immer wieder sehen möchte. Etablierte Ordnungssysteme wie Genre oder die Verschlagwortung (tagging) vervollständigen das Repertoire der verschiedenen Zugriffsvarianten auf die Fernsehinhalte. Das dem Rundfunk eigene Zuschauerverhalten des Zapping und Switching weicht den Internetpraxen des Browsing und Searching. Die Zuschauerpra- xis des Zapping erfordert die simultane Ausstrahlung mehrerer Programme. Das doppelte Subjekt in Datenbanklogiken 263 Dagegen stellt hulu viele Inhalte nebeneinander und die Nutzer müssen sich jeweils für eines entscheiden. hulu fügt sich ganz in die »era of choice« (Ro- senthal 2005) ein, in der Auswahl die zentrale kulturelle Praxis ist. Ergänzt wird dies durch die gezielte Suche nach bestimmten Sendungen oder typische Da- tenbankordnungen wie hierarchisch, alphabetisch oder zeitlich geordnete Li- sten. Dabei manifestieren sich in Listen und Rankings individuelle wie kollek- tive Subjektivierungspraxen. Die Handlungsmächtigkeit und Zerstreuung des Subjekts korrespondieren mit diesen individualisierten Nutzerprofilen und emergenten Quantifizierungsprozessen wie in »most popular«-Listen. In der individuellen Auswahl zeigt sich in Anlehnung an den Begriff der »taste perfor- mances« bei Hugo Liu (2007) eine Performanz des Geschmacks. Daniel Chamberlain (2010) sieht in den datenbankgestützten »television inter- faces« eine neue Form des Fernsehens, das nicht mehr durch Programme ge- kennzeichnet ist. Das Fernsehprogramm, das zugleich programmatisch für das Medium war, ist nur noch ein Interface von vielen. In vielen Medienumwelten ist Fernsehen gleichzeitig in Ordnungen des tagging, playlisting, browsing und so weiter zu erfahren. Der implizite Nutzer dieser Praxen ist eine Vielheit und muss stetig an sich als Nutzer arbeiten, indem er sich zu den Interfaces verhält. Die televisuellen Datenbanken funktionieren in diesem Sinne als Experimen- tierfelder wie in »hulu Labs«. Im Laboratorium von hulu werden Sendungen über das Fernsehen des Vorabends produziert oder Suchfunktionen in Unter- titeln als Zugangsweise getestet. Internetnutzung ist in der Datenbanklogik und der Spiegelung der Nutzung in Interfaces wie »most popular« oder playlists immer schon Beobachtung der In- ternetnutzung. In diesem Sinne demonstrieren die Interfaces von hulu nicht nur eine andere Sichtbarkeit von Medienpublika, sondern bezeugen ebenso den Wandel der diskursiven Entstehungsbedingungen der Nutzerkollektive vom Rundfunk zur Datenbank im Internet. Überspitzt könnte man von einer Krise der Beobachtungsapparaturen sprechen, ausgelöst durch die Zusammen- führung von Medium und Beobachtungsapparat in den Datenbanken und Al- gorithmen der Internetplattformen. Die Objektivität der Quotenmessung und die Kritik an dieser Objektivität hängen doch wesentlich mit deren technischer und diskursiver Abgrenzung vom Medium Fernsehen zusammen. Das Kollektiv ist nicht mehr die Masse oder Mehrheit, sondern die Vielheit und Unterschied- lichkeit temporärer Kollektive, die sich über verteilte Subjekte beziehungswei- se Subjektivitäten konstituieren. Eine explizite und fast vulgäre Form hiervon ist das Zur-Wahl-Stellen von Werbeclips bei hulu : »Which ad experience would you prefer?« oder die eingeblendete Frage während eines Werbeclips: »Is this ad relevant for you?«. 264 Ralf Adelmann Abschließend lässt sich an der Internetplattform hulu das doppelte Subjekt – kohärent, handlungsmächtig und verteilt, sich auflösend – rekonstruieren. Bei- de Subjektkonstitutionen sind als imaginäre und reale Anteile in den Praxen und Diskursen implementiert. Dem imaginären Anteil liegt die Vorstellung zu- grunde, dass die Performanzen des Geschmacks eine eindeutige Identität her- stellen, die nach Chamberlain (2010) ein Versprechen von Empowerment und Souveränität des Konsumenten beinhaltet. Hier wirken die Ideologien eines impliziten Zuschauers beziehungsweise Nutzers nach. Rezipienten werden in mächtige Akteurspositionen durch Datenbanklogiken und ihre Interfaces ge- drängt. Der reale Anteil ist das langsame Verschwinden eines kohärenten Subjekts in den widerstrebenden Subjektivierungspraktiken, die sich auf den Internet- plattformen wie hulu anbieten. Neben der simplen Auszählung von Klicks wer- den wir ständig aufgefordert unsere Erfahrungen zu bewerten und uns zu un- seren populären Praktiken zu verhalten. Dieses Nutzungsverhalten wird im selben Medium aufgezeichnet und uns in bestimmten Wissens- und Ordnungs- strukturen wie Listen und Rankings präsentiert. Im Datenbankdiskurs wird so- wohl ein verteiltes, vernetztes und unsichtbares Subjekt produziert als auch ein autonomes und handlungsfähiges Subjekt konstituiert. hulu-ism kenn- zeichnet die Überlagerung, die Widersprüchlichkeit und die Produktivität die- ser vielfachen Angebote an implizite Nutzer, die solche Vielfalt lustvoll erfah- ren können. Am Ende möchte ich noch einmal hervorheben, dass ich das doppelte Subjekt als heuristisches Modell verwendet habe, um auf medienübergreifende Pro- zesse von Datenbanklogiken aufmerksam zu machen. Im Wechselspiel der Sub- jektpositionen liegen meines Erachtens auch die Potentiale des Vergnügens und der Lust, welche die Nutzung von Datenbanken begleiten können. Das doppelte Subjekt in Datenbanklogiken 265 Anmerkungen 01˘ Das von Bush gegebene Beispiel für die Praxistauglichkeit von »Memex« ist eine kulturhis- torische Untersuchung zu Pfeil und Bogen. Anekdotisch hinzuzufügen ist, dass der Krieger als Modellfall kurzer Handlungsketten, wie ihn Nobert Elias (1976, 322f.) entwirft, hier wie- der auftaucht. 02˘Den Begriff »hulu-ism« übernehme ich aus dem Blog einer kanadischen Werbeagentur [http://www.strategyonline.ca/articles/magazine/20100701/forumyoung.html]; letzter Auf ruf: 20.3.2012. 03˘Initiatoren und Geldgeber der Internetplattform www.hulu.com sind zu 90 % klassische Fernsehsender wie zum Beispiel ABC, NBC und FOX. Aus der Copyright-Situation ergibt es sich, dass hulu – wie die Fernsehsendeanstalten bisher – national organisiert ist. Literatur Adelmann, Ralf / Winkler, Hartmut (2010) Kurze Ketten. Handeln und Subjektkonsti- tution in Computerspielen. In: Ästhetik & Kommunikation, H. 148, S. 99-107. Agar, John (2003) The government machine. A revolutionary history of the computer. Cam- bridge, London: MIT Press. Bachman, Charles W. (1973) The programmer as navigator. In: Communications of the ACM, 16,11, S. 653-658. Bush, Vannevar (1997 [1945]) As we may think [Auszug und Kommentar: H. Winkler]. In: FormDiskurs, 1,2, S. 136-147. Campbell-Kelly, Martin (2004) From airline reservations to Sonic the hedgehog: a histo- ry of the software industry. Cambridge, Mass.: MIT Press. Chamberlain, Daniel (2010) Television interfaces. In: Journal of popular film and televisi- on 38,2, S. 84-88. Codd, Edgar F. (1970) A relational model of data for large shared data banks. In: Communi- cations of the Association of Computing Machinery (ACM), 13,6, S. 377-387. Doyle, Gillian (2010) From television to multi-platform: less from more or more for less? In: Convergence: the international journal of research into new media technologies, 16,4, S.431-449. Elias, Norbert (1976 [1939]) Über den Prozeß der Zivilisation. Soziogenetische und psycho- genetische Untersuchungen. Frankfurt a. Main: Suhrkamp. Frees, Beate/ van Eimeren, Birgit (2011) Bewegtbildnutzung im Internet 2011: Media- theken als Treiber. In: Media Perspektiven, H. 7/8, S. 350-359. 266 Ralf Adelmann Gugerli, David et al. (Hrsg.) (2007a) Daten. Nach Feierabend: Züricher Jahrbuch für Wis- sensgeschichte, Bd. 3. Zürich, Berlin: Diaphanes. Gugerli, David (2007b) Die Welt als Datenbank. Zur Relation von Softwareentwicklung, Abfragetechnik und Deutungsautonomie. In: Gugerli et al. 2007, S. 11-36. Haigh, Thomas (2007) »A veritable bucket of facts«. Ursprünge des Datenbankmanage- mentsystems. In: Gugerli et al. 2007, S. 57-98. Krajewski, Markus (2007) In Formation. Aufstieg und Fall der Tabelle als Paradigma der Datenverarbeitung. In: Gugerli et al. 2007, S. 37-55. Liu, Hugo (2007) Social network profiles as taste performances. In: Journal of computer- mediated communication, 13,1, article 13. [http://jcmc.indiana.edu/vol13/issue1/liu.html]; letzter Aufruf: 15.01.2012. Manovich, Lev (2007) Database as symbolic form. In: Database aesthetics: art in the age of information overflow. Hrsg. v. Victoria Vesna. Minneapolis: University of Minnesota Press. S. 39-60. Nelson, Theodor H. (2003 [1965]) A file structure for the complex, the changing, and the indeterminate. In: The new media reader. Hrsg. v. Noah Wardrip-Fruin & Nick Montfort. Cam- bridge, London: The MIT Press, S. 134-145. [Original in: ACM: Proceedings of the 20th national conference. Hrsg. v. Lewis Winner. S. 84-100, 1965]. Poster, Mark (1995) The second media age. Cambridge: Polity Press. Rosenthal, Edward C. (2005) The era of choice: the ability to choose and its transformati- on of contemporary life. Cambridge, Mass.: MIT Press. Stonebraker, Michael et al. (1976) The design and implementation of INGRES. In: ACM transactions on database systems, 1,3, S. 189-222. Vismann, Cornelia (2000) Akten. Medientechnik und Recht. Frankfurt a. Main: Fischer. Das doppelte Subjekt in Datenbanklogiken 267 268 Irina Kaldrack Gehen in der Datenbank – der BMLwalker Datenbanken folgen Prinzipien der Verarbeitung und Repräsentation von Da- ten und Datenbanken bergen Versprechen. Offensichtlich sammeln und spei- chern sie Daten. Etwas weniger offensichtlich ordnen Datenbanken im Spei- chern die Daten an und machen diese durchsuchbar. Sie verknüpfen Daten, machen sie zugänglich und sichtbar. Dadurch, so lautet ein Versprechen, schaf- fen sie neues Wissen. Andere Versprechen und Inszenierungen von Daten- banken zielen auf die Vollständigkeit von Datenerfassung und die grenzenlose Erweiterbarkeit der Datensätze sowie eine damit einhergehende Objektivität des auf vollständige Daten gestützten Wissens oder auf einen unmittelbaren Zugang zu Daten und Wissen. In meinem Beitrag möchte ich den Schwerpunkt darauf legen, dass Datenbanken konstruktiv werden können. Nicht nur durch die (relationale) Verknüpfung vorhandener Datensätze in einer Suchabfrage entstehen überraschende Ergebnisse. Vielmehr ist es in der Verkreuzung von statistischen Verfahren und Künstlicher Intelligenz (KI) möglich und üblich, neue, so nie gemessene Datensätze zu erzeugen. Diese Datensätze können auf die gleiche Art weiterverarbeitetet werden, wie solche, die mittels Messverfah- ren aus einem stattgefunden Ereignis gewonnen werden. Tatsächlich handelt es sich aber um komplexe Konstruktionen, resultierend aus Verrechnungen an- derer Datensätze mittels Statistik und KI. Am Beispiel des so genannten Biomotionlab-Walker (BMLwalker) gehe ich dem Konstruktiv-Werden der Datenbank nach. Der BMLwalker ist ein Forschungs- projekt des kanadischen Biomotion Labs. Dieses Lab erforscht visuelle Wahr- nehmung unter kognitionswissenschaftlichen Aspekten. Es geht darum, welche Informationen oder welches Wissen ein Betrachter aus körperlicher Be- wegung gewinnt. Was erfahren wir, wenn wir Bewegung sehen? Dem Betrach- ter tritt der BMLwalker in Form einer bewegten Punktwolke gegenüber, die in ein GUI (Graphical User Interface) eingebettet ist.¯1 Die Nutzer können mit vier Reglern die animierte Punkte-Darstellung der gehenden Figur beeinflussen. Für den BMLwalker wurde eine mathematische Formalisierung des mensch- lichen Gehens entwickelt, welche als animierte Punktmenge, als Strichmänn- chen oder neuerdings als Skelett dargestellt wird. Dabei sollen die berechneten Gehen in der Datenbank 269 und dargestellten Gangmuster vom Betrachter als realistisch wahrgenommen werden. Man kann den BMLwalker als ein mathematisch-empirisch-mediales Frame- work zur Erforschung der menschlichen Wahrnehmung betrachten. Dessen Kern besteht in der Verbindung einer Datenbank mit der Konstruktion und der interaktiven Darstellung von Gangmustern. Damit ist der BMLwalker ein Bei- spiel für eine mediale Praxis, in der die Datenbank konstruktiv wird. Entschei- dend für dieses Konstruktiv-Werden ist die Verbindung einer mathematischen Beschreibung des Gehens mit dessen Bewertung und spezifischen technisch- medialen Verfahren (und Inszenierungen). Die körperliche Bewegung erhält darin einen speziellen Status: Sie wird vom Körper abstrahiert, gibt diesen dennoch zu sehen und ist lesbar in Hinblick auf ein ›Innen‹ des Körpers. Dieses Verständnis von Bewegung verknüpft bestimmte historische Traditionen. Zu fragen ist, welche Form und welche Praxis von Wissen diese Art der Datenbank erzeugt und adressiert. Gänge auf der Oberfläche Der BMLwalker besteht aus einer f lash-animierten GUI, die ein bewegtes Punktemuster, Schieberegler und Knöpfe umfasst. Die Knöpfe schalten die Bewegung der 15 Punkte aus oder zeigen Linien zwi- schen diesen an – ein sich bewegendes Strichmännchen wird sichtbar. Ver- schiebt man die Regler, ändern sich die Abstände zwischen den Punkten so- wie die Dynamik der Bewegung. Die Gänge variieren zwischen »männlich« und »weiblich«, »schwer« und »leicht«, »nervös« und »entspannt« sowie »fröh- lich« und »traurig«. Glaubt man der Oberfläche, so geben die rhythmisch be- wegten Punktemuster also biologische Eigenschaften oder innere Zustände be- ziehungsweise Emotionen zu sehen. Der BMLwalker inszeniert also die Bewegung (in den Punktemustern) als eine vom Körper abstrahierte Darstellung. Diese Darstellung gibt einen Körper zu sehen und zu lesen. In Bezug auf die Lesbarkeit scheint die Darstellung Stereo- typen zu produzieren, zumindest in den Extrempositionen der Regler. So er- scheint der männliche Gang als Klischee des ›vor Kraft kaum laufen können‹, während der weibliche Gang hüftschwingend und x-beinig daherkommt. Auf- fällig ist am BMLwalker darüber hinaus, dass die Regler stufenlos verstellbar sind und sich die animierten Gänge mit der Bewegung der Regler gewisserma- ßen stetig verändern. 270 Irina Kaldrack Abb. 1: Die grafische Benutzeroberfläche des BMLwalker Unter der Oberfläche: das Verfahren Betrachtet man die dem BMLwalker zugrunde liegenden Verfahren, so wird deutlich, dass dieser keinesfalls eine Darstellung von irgendwann vermessenen Gängen laufender Menschen ist und auch keine rein zeichnerisch-rechnerisch hergestellte Animation. Vielmehr verbindet er Vermessung, statistische Me- thoden und Verfahren aus der KI mit Empirie und Darstellungsmethoden. Der BMLwalker berechnet Gangmuster, die so nie aufgenommen wurden. Dabei stammen die Verfahren der Berechnung der Gangmuster weniger aus einem biologisch fundierten Berechnungsmodell. Vielmehr werden Verfahren kom- biniert, die die Relationen der Punkte im (Koordinaten-)Raum untereinander sowie deren jeweiliges Verhalten in der Zeit erfassen. Insofern, so möchte ich argumentieren, sind diese Berechnungen eher Beschreibungen zur Herstel- lung von Mustern (die als körperliche Bewegung wahrnehmbar sind) als Er- klärungen oder Bewegungsmodelle. Die Darstellungen werden von Versuchs- personen bewertet. Indem diese Wertungen in die Berechnungen integriert Gehen in der Datenbank 271 werden, wird es möglich, dass sich die Gangmuster entlang der in den Reglern angezeigten Kriterien stetig verändern. »We developed a framework that transforms biological motion into a linearized representation which enables us to apply linear methods from statistics and pattern recognition to its analy- sis. Initially, we used gender classification as an example and created a simple classifier, whose performance was compared to psychophysical data from human observers« (Webseite des Bio- motion Lab, [http://www.biomotionlab.ca/walking.php]; letzter Abruf 01.03.2012.). In der folgenden Analyse soll deutlich werden, wie das Konstruktiv-Werden der Datenbank durch die Verbindung von Beschreibung und Bewertung mit den rechnerisch-programmierten Verfahren charakterisiert ist. In der dem BMLwalker zugehörigen Datenbank sind Motion-Capturing-Daten von 40 Frauen und 40 Männern gespeichert. Die Versuchspersonen wurden von neun Kameras 20 Sekunden lang dabei gefilmt, wie sie über ein Laufband ge- hen. Sie sind mit ref lektierenden Markierungen ausgestattet, mit kleinen Bäl- len, die an ausgezeichneten Körperstellen befestigt sind. Die neun Videoauf- nahmen werden so ausgewertet, dass aus den Positionen der Markierungen in den Einzelbildern 15 Punkte und deren Positionen in einem Koordinatenkreuz berechnet werden. Diese 15 Punkte entsprechen ausgezeichneten Stellen eines Skeletts: Kopf, Schultern, Schlüsselbein, Ellenbogen und Händen, Hüfte, Knien und Füßen. Ein Gang besteht aus einer Folge von Vektoren mit 45 Einträgen, drei pro Punkt. Hier wird also von den konkreten Aufnahmen so abstrahiert, dass die gefilmten Punkte auf der Körperoberfläche im Bild vermessen und so verrechnet werden, dass daraus Punkte auf einem Skelettmodell resultieren. Jede der Gang-Vektor-Folgen wird als eine Funktion berechnet.¯2 Dabei wird das statistische Verfahren der Hauptkomponentenanalyse mit Fourieranaly- se kombiniert. Die Hauptkomponentenanalyse zerlegt eine Menge von Punk- ten mathematisch hinsichtlich ihrer Varianz, das heißt der größten Abstände von ihrem Mittelpunkt. Die Kovarianz wiederum ist eine Art Maß, wie stark ein Punkt in zwei Dimensionen gleichzeitig von den jeweiligen Mittelwerten der Koordinaten abweicht. Mathematisch gesprochen entsprechen die Haupt- komponenten einer Punktmenge den so genannten Eigenvektoren der Kova- rianzmatrix. Jeder Punkt lässt sich damit als Summe von Mittelwerten und Eigenvektoren darstellen. Anschaulich gesprochen wird die Folge der Gangvek- toren als Punktmenge aufgefasst. Der Mittelwert ist dann so etwas wie die Durchschnittsposition aller Gangpositionen eines Gehenden. Ein Eigenvektor ist eine Gangposition, die bezüglich bestimmter Merkmale am weitesten von der Durchschnittsposition entfernt ist. Die Hauptkomponentenanalyse fasst also eine Menge von Punkten als ein Muster auf, indem sie diese durch Ähn- 272 Irina Kaldrack lichkeiten und Unähnlichkeiten ordnet. Jede Gangposition (also ein Vektor mit 45 Einträgen) wird dann als Summe des Mittelwerts und der vier unähn- lichsten Gangpositionen dargestellt, wobei diese mit einer Konstante multipli- ziert werden. Um die Werte dieser Konstanten auszurechnen, wird die Fourieranalyse be- nutzt. Die Fourieranalyse ermöglicht jede hinreichend ›glatte‹ periodische Funktion als unendliche Reihe trigonometrischer Funktionen (das heißt als Summe von Cosinus- und Sinusfunktionen) darzustellen. Im BMLwalker wird davon ausgegangen, dass der Gang ein periodisches Phänomen ist. Das heißt, dass die zu berechnenden Konstanten im Laufe einer Gangsequenz als perio- dische Funktion darstellbar sind. Die in gewisser Weise statisch und diskret konstituierte Muster-Ordnung der Hauptkomponentenanalyse wird also hier durch eine kontinuierliche Ordnung von Schwingungen ergänzt. Am Ende die- ser Berechnungen liegen 80 Funktionen vor, deren Ergebnisse zu einem Zeit- punkt t ein Vektor mit 45 Einträgen ist, welcher als Punktmenge dargestellt wird. Die im obigen Zitat erwähnte Linearisierung ist der nächste Schritt des Verfah- rens. Dazu wird jede der vorliegenden Gangfunktionen als eine Abbildungsma- trix dargestellt und als Element eines Vektorraums¯3 begriffen. Jedes solche Element kann als Linearkombination der Basisvektoren des Vektorraums dar- gestellt werden. Wer kein Grundstudium der Mathematik absolviert hat, kann sich folgendes vorstellen: Das bekannte Koordinatenkreuz mit x- und y-Ach- se lässt sich als 2-dimensionaler Vektorraum auffassen. Jedes Element bezie- hungsweise jeder Punkt darin, zum Beispiel (3,5) lässt sich als Summe von ge- streckten oder gestauchten Koordinatenachsen-Abschnitten beschreiben, im Beispiel (3,5)=3(1,0)+5(0,1) oder auch mit der Anweisung: »Gehe drei Kästchen nach rechts und fünf Kästchen nach oben«. Die Schwierigkeit beim BMLwalker ist die Basisvektoren aus den vorliegenden Matrizen zu berechnen – bei dieser Berechnung spielt wiederum die Hauptkomponentenanalyse eine Rolle. Sind die Basisvektoren gefunden, kann jede beliebige Matrix in dem vorliegenden Vektorraum erzeugt werden. Der Kern des Verfahrens ist, dass jede dieser Ma- trizen als Gangfunktion in der Zeit interpretierbar ist. Das heißt, die Transfor- mation von biologischen Gängen in Punktemuster und Funktionen und deren Auffassung als Vektorraumelemente erlaubt es, mathematisch alle möglichen Gänge als Linearkombinationen von Basisvektoren zu erzeugen. Allerdings sind diesen Gängen keine ›Eigenschaften‹ wie ›männlich‹, ›fröhlich‹ oder ›nervös‹ inhärent. Die Eigenschaften werden den Gangmustern durch Klas- sifikationsverfahren (aus der KI) zugewiesen. Jedem der aufgenommenen Gän- ge beziehungsweise den daraus gewonnenen Funktionen und Darstellungen Gehen in der Datenbank 273 als bewegte Punktmenge werden je vier so genannte Merkmalsvektoren zu- gewiesen. So beschreibt ein Vektor, ob der Gehende weiblich oder männlich ist und ein weiterer Vektor beinhaltet das Gewicht der gehenden Person – diese Daten sind bei den Aufnahmen abgefragt worden.¯4 Die beiden weiteren Vek- toren codieren eine Skala mit sechs Stufen. Zum einen von ›nervös‹ bis ›ent- spannt‹ und zum anderen von ›fröhlich‹ bis ›traurig‹. Um den Gängen die Eigen- schaften zuzuordnen, beurteilen Versuchspersonen die gezeigten Gangmuster bezüglich der angebotenen Skala.¯5 Mathematisch betrachtet wird hier das Verfahren der linearen Diskriminanz- analyse eingesetzt. Dabei wird eine Klassifikationsfunktion berechnet, die – angewandt auf ein Gangmuster – als Ergebnis den Merkmalswert ausgibt, also beispielsweise ob ein Gangmuster ›männlich‹ oder ›weiblich‹ ist.¯6 Die Reg- ler wirken nun proportional auf diese Klassifikationsfunktion ein, die in die Gangerzeugungsfunktion eingerechnet wurde. Das heißt, (3,5)=3(1,0)+5(0,1) hat durch die Klassifikationsfunktion einen bestimmten Wert auf der Skala ›männlich–weiblich‹ und der Punkt wird erzeugt, wenn der Regler auf diesem Wert eingestellt wird. Entscheidend für den BMLwalker als mathematisch-empirisches-mediales Fra- mework ist also: Bewegung erscheint als rhythmisches Punktemuster. Dieses basiert auf aufgenommenen Daten (den gefilmten Gängen), die als Folge von Vektoren gespeichert werden und zu Gangfunktionen transformiert werden. Diese Transformation nutzt Verfahren der Statistik und der Funktionenanaly- se. Sie beschreibt eher die Bewegung von Punkten in einem Koordinatensystem, als dass sie eine mathematische Formalisierung eines körpermechanischen Modells ist – die Gangmuster sagen wenig über den kausalen Zusammenhang von Traurigkeit und deren Auswirkungen auf Körperspannung oder Geschwin- digkeit aus, sie beschreiben oder zeigen etwas, das sich so interpretieren lässt. Darüber hinaus geht es um die Bewertung des Gezeigten, wobei die Bewertung in die Konstruktion der Muster eingeht. Die Oberflächeninszenierung legt nahe die bewegten Punktemuster in Hin- blick auf dem ihnen vermeintlich zugehörigen Körper (mit Geschlecht und Ge- wicht) und deren innere Zustände zu lesen. Dabei beruht diese Lesbarkeit auf Klassifikationsverfahren der Informatik und der Bewertung der Muster durch die Nutzer. Um die Regler mit den ihnen zugehörigen Merkmalsvektoren zu er- zeugen, müssen BetrachterInnen die Darstellungen auf einer Skala bewertet haben. Wenn die Nutzer an den Reglern der Oberfläche spielen, sind sie einge- laden die Darstellungen in Hinblick auf die Eigenschaften nachzuvollziehen. Betrachtet man wie die mathematischen Verfahren im BMLwalker eingesetzt werden, fällt zweierlei auf. Die Verfahren zielen erstens auf unterschiedliche 274 Irina Kaldrack mathematische Objekte. Die Hauptkomponentenanalyse untersucht Punkt- mengen als Muster, das heißt als diskrete und statische Objekte – seien es die Gang-Vektor-Punktmengen oder Gang-Funktionsmatrizen als Elemente in einem Vektorraum. Für diese Punktmengen schreibt die Hauptkomponenten- analyse die Abhängigkeiten der Punkte untereinander als (korrelierte) Abwei- chungen von einem Mittelwert an. Die Fourieranalyse verzeitlicht (im BMLwal- ker-Beispiel) diese Abhängigkeiten als Gangfunktionen und macht sie so im Kontinuum anschreibbar. Die Diskriminanzanalyse wiederum skaliert die Ab- hängigkeiten oder Ähnlichkeiten zwischen den Gangfunktions-Matrizen. Sie weist ihnen auf einer kontinuierlichen Skala Positionen zu, die durch die Regler anzusteuern sind. Damit – so scheint mir – spielen die Verfahren zweitens auch auf unterschiedlichen Interpretationsregistern. In die Beschreibung der Punkt- muster und ihrer Strukturen gehen bestimmte Annahmen über die Punktmen- ge und ihre Varianzen ein, allerdings keine (biomechanischen) Modelle des Kör- pers oder der Gehens. Für die Anwendung der Fouriertransformation geht die Annahme ein, dass Gehen ein stetiger, periodischer Prozess ist – und damit eine tendenziell biomechanische Modellierung. Entscheidend ist, dass bei der An- wendung der Diskriminanzanalyse Semiotisierungen vorgenommen werden, dass hier die bewegten Punktmuster ›bedeutet‹ werden. Den BMLwalker, betrachtet als mathematisch-empirisch-mediales Framework, zeichnet also aus, dass Darstellung und Formalisierung so mit Bewertung und Empirie verschmolzen werden, dass die Datenbank in der Darstellung konstruk- tiv wird und die Bewertung in diese Konstruktion eingefügt hat. Das Konstruk- tiv-Werden der Datenbank entsteht durch das hier dargelegte Verhältnis von Beschreibung (der Gänge als zeitlich anschreibbare Punktemuster), Bewertung (der Gänge in Hinblick auf einen Körper mit bestimmten Eigenschaften) und den automatisierten Verfahren. Gleichzeitig bekräftigt der BMLwalker in sei- ner Inszenierung, dass Bewegung ein Medium des Körpers sei, das von diesem abgelöst werden kann und in Hinblick auf Eigenschaften des Körpers lesbar ist, wobei die Bewertung in gewisser Weise unter die Oberfläche und in die Daten- bank eingewandert ist. Das hier vorzufindende Verhältnis von Beschreibung, Bewertung und automatisierten Verfahren ist also von drei zentralen Vorstel- lungen geprägt: Bewegung kann vom Körper abstrahiert werden; die abstra- hierte Bewegung gibt einen Körper zu sehen; Körper und Bewegung sind in Bezug auf ein Inneres des Körpers lesbar. Alle diese Vorstellungen knüpfen an historische Traditionen an, die ihrerseits in bestimmten Praxis- und Wissens- kontexten situiert sind. Gehen in der Datenbank 275 Historische Traditionen und ihr Wissen Im Folgenden skizziere ich deswegen in Hinblick auf die Charakteristika des BMLwalkers Stationen einer Technikgeschichte der Bewegungserkennung und Stationen einer Geistesgeschichte der ›Bewegung als Ausdruck‹. Ich möchte an einem Beispiel aus den frühen 1930er Jahren den Einbruch der Empirie in die Bewegungs-Lesbarkeit skizzieren, an die eine wahrnehmungspsychologische Erforschung von Bewegung und ihrer Wahrnehmung anknüpft.¯7 Technikgeschichte der Bewegungserkennung Als eine der ersten systematischen Untersuchungen des Gehens mit dem Ziel seiner Formalisierung gilt die Mechanik der menschlichen Gehwerkzeuge der Brüder Weber, die 1836 erscheint. Wilhelm Eduard Weber (1804-1891, Physiker) und Eduard Friedrich Weber (1806-1871, Physiologe und Anatom) suchen nach den Gesetzen des Gehvorgangs. Sie sehen im Gang eine Art ›Gehmaschine‹ am Werk, deren Regeln sie mathematisch darstellen wollen. Da das Gehen zu den willkürlichen Bewegungen gehört, die der Freiheit des Willens unterliegen, so- wie abhängig von Milieu und Umgebung des Gehenden sind, müssen die man- nigfaltigen Abänderungen und Variationen des Ganges einzelner Individuen möglichst minimiert und aus den Ergebnissen herausgerechnet werden. Die Webers nehmen Versuche an Leichen vor, um Beinwinkel und deren Va- rianzen auf einer körpermechanischen Ebene zu bestimmen. Um zu berech- nen, wie ein Doppelschritt des Menschen verläuft, lassen sie darüber hinaus 15 Soldaten über ebenes Gelände marschieren. Deren Gänge werden vermessen (nach Schrittlängen, -anzahl und der Gangschnelligkeit) und statistisch aus- gewertet, um bestimmte Zeitwerte eines ›normalen‹ Gangs zu erhalten. An- hand dieser Werte wird der Gang beziehungsweise ein Doppelschritt durch ge- eignete Vereinfachungen des Skelettmodells mittels Differentialgleichungen berechnet. Zum Schluss werden Phasenbilder der berechneten Bewegung er- stellt, damit man sich per Augenschein von der Richtigkeit der Rechnungen überzeugen lassen kann.¯8 Die Webers erzeugen eine Simulation des mensch- lichen Gangs, die aus abstrahierten Messdaten und einem vereinfachten Mo- dell des gehenden Körpers besteht und sich an einen zu überzeugenden Be- trachter richtet. Bewegung wird dabei als Veränderung von Lage und Form des Körpers verstanden, die durch Pendelgleichungen berechenbar ist. Während die Brüder Weber noch beobachten und die Zeit des Gehens stoppen müssen, nutzt (und entwickelt) der Mediziner und Physiologe Étienne-Jules Marey für seine Bewegungsstudien die Chronofotografie (vgl. Marey 1985). Er untersucht seit den 1870er Jahren den Gang von Pferden und Menschen und 276 Irina Kaldrack Abb. 2 Kurvengraph eines Läufers, Chronofotografie beginnt in den 1880er Jahren die Momentfotografie einzusetzen. Er baut eine chronofotografische Kammer, in der eine rotierende Schlitzscheibe, drehbar mittels einer Kurbel, vor dem Objektiv einer Kamera angebracht ist. Je nach An- zahl der Schlitze und der Geschwindigkeit der Drehung erhält Marey eine be- stimmte Anzahl von Momentaufnahmen eines Bewegungsablaufs, die in Form von Mehrfachbelichtungen auf eine fotografische Platte gebannt werden. Ent- scheidend ist, dass Marey die Bewegung visuell von den Körperbildern ablöst: Er stattet die Modelle mit schwarzer Kleidung aus, auf die weiße Punkte und Striche gemalt sind. Es entstehen Folgen wellenartig angeordneter Geraden und Punkte, die eine Bewegungsabfolge darstellen, zum Beispiel Laufen oder Springen. Bewegung ist also nicht mehr Veränderung von Lage und Form eines Körpers, sondern Veränderung der relativen Lage von Punkten und Strichen zu- einander. Die geometrischen Linienfolgen kann Marey als Kurvengraphen phy- siologisch auswerten. Das Ziel von Mareys Methode ist die Messung von Bewe- gung zur physiologischen Auswertung. Für die Technikgeschichte der Bewegungserfassung ist hier der Einsatz der Fo- tografie entscheidend. Damit löst sich die Bewegung visuell vom Körper und bildet sich gewissermaßen selbst ab. So kann Bewegung als sichtbares Muster die Wahrheit über sich nun ohne Körper direkt ins Bild bringen. Dieser Aspekt wird in den Arbeiten von Christian Wilhelm Braune (1831–1892, deutscher Anatom) und Otto Fischer (1861–1916, deutscher Physiologe) wei- Gehen in der Datenbank 277 ter ausgebaut. In sechs Teilen stellen sie – nach dem Tod Braunes veröffentlicht Fischer alleine – ihre detaillierten Untersuchungen über die Bewegungsabläufe beim Gehen vor. Es geht ih- nen vor allem um die Frage, welchen Einfluss die Muskelkontraktionen auf den Gang haben. Um das herauszufinden sei es nötig, die Stellungen und Formänderungen der Beine genauestens zu messen. Für Der Gang des Menschen wurde ein Soldat mit 44 so genannten Geissler‘schen Röh- ren ausgestattet (einer frühen Form von Neon- röhren), die in genau getakteten Zeitintervallen aufleuchten, während zwei Fotokameras den laufenden Soldaten von unterschiedlichen Sei- ten aufnehmen.¯9 Die technische Anordnung kehrt die Chronofotografie insofern um, als dass die Kameras keine Momentaufnahmen machen, sondern das fotografierte Objekt (das heißt, der gehende Soldat) »selbstleuchtend« (Braune und Fischer 1895, 179 (29)) gemacht wird. Die entste- Abb. 3 Soldat in Ausrüstung henden fotografischen Aufnahmen werden so ausgewertet, dass sie auf ein Koordinatensy- stem bezogen werden. Die Lage einzelner Kör- perglieder beziehungsweise ihrer Schwerpunkte zu bestimmten Zeitpunkten in diesem Koordina- tensystem wird in Tabellen eingetragen und in Abb. 4 Fotografische Aufnahme Form von Bewegungsfunktionen einzelner Kör- perglieder visualisiert.¯10 Bewegung wird räumlich vermessen und be- rechnet und als Funktionsgraph ausgewertet. Nach wie vor steht ein biomechanisches Wissen im Zentrum, das Ziel der hier vorgestellten Me- thoden ist die Vermessung und Berechnung des Gehens in Hinblick auf ein biomechanisches Kör- permodell und in Hinblick auf die Leistungsfä- higkeit des Körpers. Vom Bild wird in den Raum gerechnet (allerdings in Form von Tabellen und nicht in Form von Darstellungen in einem Koor- dinatenraum) und dann auf die Ursache der Wir- 278 Irina Kaldrack Abb. 5 Visualisierung kungen (nämlich der Bewegungskurven einzelner Körperpunkt-Trajektorien) zurück geschlossen. In den 1910er Jahren schließt Frank Bunker Gilbreth an dieses Denken in Bewe- gungskurven an und löst die Erforschung von Bewegung vom biomechanischen Modell zugunsten eines Effizienz- und Trainingsgedankens ab. Er lässt die zer- hackte Bewegung der Chronofotografie als Lichtspur erscheinen und baut die- se als Drahtmodell nach.¯11 Entscheidend ist, dass die Arbeitswissenschaft in der Tradition von Taylors Scientific Management Bewegung in elementare Bewegungen zerlegt und unter arbeitswissenschaftlichen Aspekten untersucht. Die biomechanische Forschung von den Brüdern Weber, Marey und Braune/ Fischer will durch Mes- sungen ein berechenbares Modell von Körperbewegungen erstellen, welches Wahrheit über menschliche Bewegung aussagt. Gilbreths Bewegungsstudien haben das Ziel elementare Arbeitsbewegungen zu identifizieren und zu ver- bessern, indem unnütze Bewegungen eliminiert werden. Gilbreth entwickelt unterschiedliche Messinstrumente und -routinen (weiter), um auf Basis der Messung von Bewegung diese zu verbessern. Die Bewegungsbahnen werden dabei durch eine Vereinfachung und Weiterführung des Verfahrens von Brau- ne und Fischer aufgenommen: Gilbreth stattet die Hände der Arbeitenden so- Gehen in der Datenbank 279 Abb. 6 Drahtmodelle wie die Werkzeuge und Maschinen mit Glühlampen aus und nimmt die Ar- beitsbewegungen mit stereoskopischen Kameras auf. Die Bewegung erscheint als Lichtspur auf der Fotografie. Um genaue Informationen über die Zeitspan- nen zu erhalten, erlöschen die Glühlampen in kurzen Abständen. Das heißt, es findet eine Umkehrung des Licht-Dunkel-Verhältnisses im Vergleich zu Braune/ Fischer statt. Auf Basis dieses Verfahrens werden die Arbeitsbewegungen ver- schiedener Arbeiter vermessen und nach Schnelligkeit, Wirksamkeit/ Effizienz und geringstmöglicher Ermüdung beurteilt. Daraufhin wird eine ideale Bewe- gung als Norm bestimmt und diese als Drahtmodell verräumlicht. Es geht also bei Gilbreth nicht mehr um die Berechnung von Bewegung. Sein Verfahren zielt eher auf die Extraktion von (typischen) Bewegungsmustern, welche in eine Norm überführt werden und als Trainingsmodell vergegen- ständlicht werden. Empirie, Muster und Bewertung werden im Zeichen von Ef- fizienz und arbeitswissenschaftlicher Optimierung zu Typus und Norm. In dieser Rekonstruktion einer Technikgeschichte der Bewegungserfassung sollte deutlich werden, in welchen Kontexten und durch welche (Wissens-) Praktiken die Vermessungstechnologie und die ihr zugehörigen Darstellungs- verfahren historisch zu verorten sind: Dabei wird die Bewegung vom Körper abstrahiert und zunächst in Hinblick auf (biomechanische) Wahrheit analy- 280 Irina Kaldrack siert. Später wird sie im Hinblick auf Effizienz als Muster beschrieben und mo- delliert. Bewegung als Ausdruck und Zeichen Neben den mathematischen und technologischen Traditionen, die der BMLwal- ker aufruft, ist das entscheidende Charakteristikum, dass die (vom Körper in der Darstellung abgelöste) Bewegung als ein Zeichen für körperliche Eigen- schaften inszeniert wird. Sie zeigt das Geschlecht und das Gewicht, aber auch ›innere‹ Zustände wie ›nervös‹ und ›entspannt‹ oder ›fröhlich‹ und ›traurig‹ so- wie deren Mischformen. Die Möglichkeit Bewegung derart zu lesen, basiert auf der Annahme einer Ana- logie zwischen inneren und äußeren Vorgängen. Diese wird in unterschied- lichen Epochen unterschiedlich theoretisch begründet – in Abhängigkeit vom jeweils aktuellen medizinischen und anthropologischen Diskurs. Darüber hi- naus wird sie tradiert oder ›praxeologisch‹ aktualisiert – in unterschiedlichen Epochen sind die dabei vorherrschenden Wissens- und Praxisgebiete die Phy- siognomik, die Etikette- oder Anstandsregeln (und die dazugehörigen Bücher) sowie Schauspiel und Schauspieltheorie. Eine wichtige Rolle spielt darüber hi- naus die Ausdruckstheorie, die insbesondere am Anfang des 20. Jahrhunderts fragt, wie sich Charakter in Handschrift, Gang, Mimik und anderen Formen und Spuren des bewegten Körpers erkennen lässt. Das Historische Wörterbuch der Philosophie definiert im Eintrag »Physiogno- mik, Physiognomie«: »Die Ph. gilt seit der Antike als die (Kunst-)Lehre, bei Lebewesen – vor allem beim Menschen – von äußeren Zeichen und Merkmalen (Gesichtszüge, Mimik, Kopfform, Körperbau, Haltung, Gebärden usw.) auf seelische Eigenschaften (Fähigkeiten und Anlagen, Gefühle, Temperament und Charakter sowie Krankheiten und Schicksalsverlauf) zu schließen« (Ritter/ Gründer 1989, 955). Voraussetzung dafür ist, wie Aristoteles ausführt, »daß alles, was physische Affektion ist, Leib und Seele zugleich verändert« (ebd., 955). Insbesondere im anthropologischen Diskurs tradiert die so genannte Temperamentenlehre den Zusammenhang von Äußerem und Innerem.¯12 Während sich die Temperamentenlehre eher statischen (Charakter-)Eigen- schaften und den idealen Mischverhältnissen von Körpersäften widmet, zielen Etikette- oder Anstandsbücher auf die veränderbaren Verhaltensweisen. Bewe- gung und Handlungen werden hier zu Zeichen innerer Haltungen. Dabei fassen solche Sittenbücher das Verhältnis von Moral, Anstand/ Angemessenheit und Anmut in unterschiedlichen Epochen sehr unterschiedlich auf.¯13 In der Antike Gehen in der Datenbank 281 liegt beispielsweise ein Schwerpunkt darauf moralisches Handeln schön aus- zuführen – gefasst wird das mit dem Wort »decorum«, das als das »Schickliche« übersetzt wird (vgl. Göttert 2009, 52ff., 55). Im Mittelalter geht es stärker um ein angemessenes Verhalten, das insbesondere auf das richtige Benehmen am Hofe zielt. In der frühen Neuzeit wird dieses angemessene Verhalten an Anmut gekoppelt, während im Barock das Verhältnis von Schein und Sein und die Fra- ge nach der Wirksamkeit des Handelns in den Mittelpunkt rückt. Im 18. Jahrhundert sind Natürlichkeit, Aufrichtigkeit und Authentizität die Schlagwörter, die vor allem den deutschsprachigen Diskurs über Charakter und Etikette bestimmen. Zentral ist hier die Frage nach dem Ausdruck, die in Anstandsbüchern verhandelt wird. So stehen zum Beispiel in Georg Chri- stoph Lichtenbergs Natürliche und affektierte Handlungen des Lebens (1779/80) mit Kupferstichen von Chodowiecki die adeligen und französischen Gepflo- genheiten des Ausdrucks, die gemeinhin als affektiert eingestuft werden, den wünschenswerten Ausdrucksgesten oder -haltungen gegenüber, die bürger- lich, deutsch und natürlich sind.¯14 Auch in der (sich erstmals formierenden) Schauspieltheorie der Zeit spielt die Natürlichkeit eine große Rolle: Bewegung wird zum natürlichen Ausdruck der Seele. »Als Ursprung der lebendigen Bewegung bildete die Seele bzw. das Seelenorgan in der zweiten Hälfte des 18. Jahrhunderts den gemeinsamen Fluchtpunkt einer empirisch-experimentellen und einer transzendental-philosophischen Rede vom Menschen« (von Herrmann 2005, 94). Das heißt Seele, Bewegung und Ausdruck werden als eine Einheit aufgefasst, in der Bewegung als natürlicher Ausdruck erscheint. Johann Jakob Engels Ideen zu einer Mimik von 1785 sind der Höhe- und Endpunkt dieser Entwicklung. Günther Heeg schreibt in Das Phantasma der natürlichen Gestalt: »Die ›Mimik‹ übersteigt bewußt den Status eines Handbuchs der Schauspielkunst und sucht Anschluß an umfassendere Theoriezusammenhänge. Engels ›ganzheitlicher‹ Ansatz, der, dem Verfahren der Popularphilosophie folgend, anthropologisch-psychologische, ethische und äs- thetische Einsichten der Zeit kombiniert, kann als eine Hermeneutik des Ausdrucksverhaltens angesehen werden, das im Bezugsrahmen einer Handlung Signifikanz gewinnt, in die mime- tisches Verhalten sich übersetzt« (Heeg 2000, 310). Bewegung wird hier also zum lesbaren Zeichen für innere Zustände und zielt damit auch auf dynamische Phänomene, auf Emotionen und nicht nur auf cha- rakterliche Eigenschaften. Mit der Vorstellung von Natürlichkeit und Authen- tizität und deren Festschreibung in Schauspiel- und Anstandsbüchern mit 282 Irina Kaldrack den dazugehörigen Illustrationen wird auch ein Gestenrepertoire festgelegt, welches sich eignet, als Stereotype tradiert zu werden. Nachdem etabliert ist, dass körperliche Bewegung authentischer Ausdruck und natürliches Zeichen des Inneren ist, wird dieser Zusammenhang im 19. Jahr- hundert vor allem im Kontext der Physiologie und der Evolutionsbiologie er- forscht. Im Zentrum steht die Frage, wie die Mimik durch Nervenreize und Mus- keltätigkeit beeinflusst wird.¯15 Im Rahmen einer sich entwickelnden Ausdruckspsychologie wird die Frage nach Physiognomik, Bewegung und inneren Zuständen am Anfang des 20. Jahrhun- derts schließlich ausgesprochen populär. Ludwig Klages, Autor des bekannten Buchs Handschrift und Charakter von 1917 (2008 in der 30. Auflage erschienen), begründet eine eigene Ausdruckslehre, die auch das »Grundgesetz des Bewe- gungsausdrucks« formuliert.¯16 Die Lesbarkeit von Bewegung als Zeichen für Inneres tradiert sich also über lan- ge Zeiträume als Verhaltenskonvention sowie als Ausdruck von Charakter und Emotion. Gefragt wird auch nach den Ursachen, warum Bewegung zum Zei- chen wird. Es bilden sich kulturell geprägte Stereotype heraus, die in unter- schiedlichen Wissensgebieten immer wieder reaktualisiert werden. Im Kon- text der empirischen Forschung, so möchte ich mit dem folgenden Beispiel aus der ersten Hälfte des 20. Jahrhunderts zeigen, wandern diese Stereotype in die Studienergebnisse ein. Die Publikation Gang und Charakter (Bogen/ Lipmann, 1931), herausgegeben von Hellmuth Bogen und Otto Lipmann, entsteht im psychologischen Kontext. Es handelt sich um eine Ausgabe der Beihefte zur Zeitschrift für angewandte Psychologie von 1933, die die Ergebnisse einen Preisausschreibens versammelt. Mehrfach wird betont, dass es sich um eine große Anzahl von Laienbeiträgen handelt. Die zentrale Fragestellung ist, was sich am Gang über den Charakter des Men- schen ablesen lässt, das heißt unabhängig von Körperbau, kultureller und so- zialer Prägung, seinen bewussten Bewegungen und der Bodenbeschaffenheit? Viele der Beiträge diskutieren, was zur Erforschung des Gehens in Hinblick auf den Charakter bedacht werden muss und treffen Aussagen über die Relevanz dieser Forschung. So werden etymologische Überlegungen zum Zusammen- hang von Gang und Charakter angestellt: »Wie bereits frühere Geschlechter den Gang als Ausdrucksbewegung gedeutet haben, zeigt ein Blick in die Sprachüberlieferung. Das Wort vom ›Stolzieren‹ ruft in uns die Vorstellung ei- ner stelzbeinigen, gestreckten Gangart wach […] Das Strolchen ist die Gangart des Strolches. […] In die entgegengesetzte Richtung weisen Ausdrücke wie ›sich gehen lassen‹, ›sicheres, ge- Gehen in der Datenbank 283 Abb. 7 Typologie-Tabelle wandtes Auftreten‹, ›kopfhängerische Haltung‹. Während bei der ersten Kategorie eine Gang- art verdeutlicht wird durch die Angabe der ihr zugrunde liegenden Charaktereigenschaft, wird bei der letzteren eine Charaktereigenschaft angegeben mit Hilfe der Ausdrücke für ihre äußere Erscheinungsform« (Karl Wals in Bogen/ Lipmann 1931, 20f.). Neben klimatologisch-nationalistischen Klischees und der Abwägung von ha- bituellen Einflüssen sowie Bewegungsroutinen des ausgeübten Berufes fin- den sich Klischees über Temperamente und Typen der Gehenden. Der Wahrnehmungspsychologe Werner Wolff (1904–1957) – der auch nach dem Zweiten Weltkrieg in den USA an Fragen von Bewegung und deren Bewertung arbeitet – berichtet in seinem Beitrag über eine empirische Studie über Ge- schlechtserkennung und Charakterisierung von Personen anhand ihrer Bewe- gung (Bogen/ Lipmann 1931, 108–122). 13 Personen (alles Studierende am Psychologischen Institut der Universität Ber- lin) wurden bei einer Bewegungsfolge gefilmt – sie mussten einen Ring von einem Stuhl nehmen, zu einem bezeichneten Punkt gehen, den Ring über eine Abb. 8, gegenüberl. Seite: Filmstills aus dem Experiment mit Bewertungen 284 Irina Kaldrack Gehen in der Datenbank 285 Stange werfen, das Ganze mit einem zweiten Ring wiederholen und zurück- kehren. Die Kameraeinstellung wurde so gewählt, dass die Köpfe der Personen nicht zu sehen waren. Darüber hinaus waren die Personen in einheitliche Trai- ningsanzüge gekleidet. Drei Tage später wurden die Versuchspersonen gebe- ten, sich die Filme anzusehen und den Charakter der gefilmten Person in Hin- blick auf bestimmte Kategorien zu beschreiben. Es ging um deren Vitalität oder Gehemmtheit, Einsamkeit oder Soziabilität, Phantasie oder Rationalis- mus, Optimismus oder Pessimismus, Klugheit, Gesundheit, Weltanschauung, Geschlecht und Alter. Auch wurde gefragt, ob die Person erkannt wurde. Wolff fasst in der Auswertung des Experiments zusammen, dass die Identifi- zierung (Geschlecht und Identität) statistisch schlecht abschneidet, aber die Persönlichkeiten der Personen gut erfasst wurden, da sich viele der Urteile äh- neln. Dabei beträfe der Gang »mehr die psychisch emotionale Seite, das Affekt- und Triebleben. Nur ein Bezirk wird noch häufig berührt: die psychisch sozi- ale Einstellung« (Bogen/ Lipmann 1931, 116). Diesbezüglich drücke »gebeugter Gang« Introspektion oder Abwendung von der Umwelt aus, »geknickter« Gang stehe für »ein gebrochenes, vom Ziele abgesplittertes Lebensgefühl« (ebd.). Zielstrebigkeit wird als Wendung zum Objekt und zum Sozialen interpretiert, schlendern als laissez-faire Haltung und das Heben der Füße zeigt Optimis- mus an. »Wir wollen nun noch die Frage der Richtigkeit der Gang-Charakterologie untersuchen. Aus mei- ner persönlichen Kenntnis stimmt das meiste über den Gang gesagte mit dem im lebendigen Verkehr gewonnenen Charakterbild überein« (Bogen/ Lipmann 1931, 117f.). Entscheidend scheint mir hier zu sein, dass die aus dem Gang gewonnenen Beurteilungen über die gehende Person nah an tradierten Stereotypen und Typen/ Temperamenten liegen. Sie reproduzieren auch die sprachlichen Kon- ventionen der Gleichsetzung von Bewegungsbeschreibung und Charakterei- genschaften. Die Richtigkeit der Zuschreibung zeigt sich darin, dass diese dem eigenen Urteil des die Studie leitenden Psychologen entsprechen. Zugespitzt formuliert zeigt die empirische Studie, dass sich die Stereotype in der Wahr- nehmung (der Versuchspersonen und des Leiters des Experimentes) bestäti- gen. Wahrnehmung und Bewegung – wahrnehmungspsychologische Erforschung von Bewegung Zu fragen bleibt, warum rhythmisch bewegte Punktemuster überhaupt als be- wegte Körper wahrgenommen werden? Der BMLwalker zielt ja darauf, wie die Bewegung wahrgenommen beziehungsweise auf innere Eigenschaften hin ge- 286 Irina Kaldrack lesen wird. Dafür muss allerdings zuerst im Wissen gesichert sein, dass be- wegte Punktemuster einen Körper zu sehen geben, die Vorstellung eines be- wegten Körpers evozieren. Die Erfinder des BMLwalker verweisen auf die Einführung der Punktemuster in die Wahrnehmungspsychologie durch Gunnar Johansson, der in der Tradition der Gestaltpsychologie steht. Die Gestaltpsychologie der 1910er und 20er Jahre fragt danach, nach welchen Prinzipien etwas in der Wahrnehmung Gestalt annimmt. Wichtige Protago- nisten der frühen Gestaltpsychologie sind die Psychologen Max Wertheimer (1880–1943), Wolfgang Köhler (1887–1967) und Kurt Koffka (1886–1941). Aus- gangspunkt ist die Beobachtung, dass Gegenstände in der Wahrnehmung nicht als zusammengesetzt erscheinen, sondern als Ganzes. Wir nehmen einen Ge- genstand wahr, eine Figur, eine Melodie und ähnliches, also Strukturen, die von anderen Strukturen getrennt sind. Die Frage ist, nach welchen Prinzipien das Zusammen- oder Getrenntsein in der Wahrnehmung entsteht. Wertheimer untersucht zum Beispiel, welche Ordnung Versuchspersonen natürlicherweise in Punktgruppen sehen. Aus Experimenten mit Bildern angeordneter Punkte leitet er Sätze über Wahrnehmungsprinzipien ab. Entscheidend für die Wahr- nehmung von Zugehörigkeiten sind beispielsweise der Faktor der Nähe (Wert- heimer 1923, 308), der Faktor der Gleichheit (ebd., 309) und der Faktor des ge- meinsamen Schicksals (ebd., 316). Dem liegt die Denkfigur zugrunde, dass die Wahrnehmungsempfindung biologischen Gesetzmäßigkeiten folgt, denn das »Nervensystem hat sich unter den Bedingungen der biologischen Umwelt he- rausgebildet« (ebd., 316). Deswegen passen die Gestalttendenzen in der Wahr- nehmung und die Regularitäten in der Welt zusammen. Johansson schließt in seinen Experimenten an das Ziel an, die Gesetze der Wahr- nehmung zu formulieren. Er unternimmt Wahrnehmungsexperimente zur Be- wegungserkennung von Menschen. Er stattet Versuchspersonen mit ref lektie- renden Markern aus und filmt diese mit Video. Die Kontraste der Aufnahmen werden so stark eingestellt, dass die Personen unsichtbar werden und nur die Marker zu sehen sind. Die Betrachter sollen erkennen, was auf den Videos zu sehen ist. Johannson berichtet von guter Erkennung der sich bewegenden Men- schen. Aus den Punktdarstellungen werden gehende, laufende, tanzende und Rad fahrende Menschen erkannt (vgl. Johansson 1973). Johansson will mit seinen Experimenten zeigen, dass die menschliche biolo- gische Wahrnehmung eine Art automatische Vektoranalyse vornimmt – die Wahrnehmung gehorcht in seiner Auffassung mathematischen Gesetzen. Hom- mel und Stränger weisen in ihrer Übersicht über Wahrnehmung von Bewegung und Handlung darauf hin, dass in den 1980er Jahren ein Umschwung in der Gehen in der Datenbank 287 Erforschung von Bewegungswahrnehmung pas- siert. Es geht weniger darum herauszufinden, wie genau der Wahrnehmungsapparat funkti- oniert, welchen Gesetzen die Bewegungswahr- nehmung gehorcht. Vielmehr wird gefragt, wie die Bewertung von Bewegung vorgenommen wird (ebd. 537). Genau an diesem Punkt setzt der BMLwalker an: Zentral ist erstens die Wahrnehmung von Mu- Abb. 9 Veranschaulichung des stern als Körper und zweitens deren Zuordnung Lichtpunktprinzips zu Kategorien. Damit steht der BMLwalker in ei- ner hier kurz umrissenen Tradition der Wahr- nehmungspsychologie. Diese – so sollte deutlich werden – knüpft einerseits an eine ältere Technik- und Wissensgeschichte über Messung und Darstellung an. Andererseits aktualisiert sie durch die Untersuchung der Korrelation von Mu- sterwahrnehmung und Kategorien lang tradierte kulturelle Zuschreibungen. Die Verknüpfung von Beschreibung und Bewertung von körperlicher Bewegung beziehungsweise Gang und den automatisierten Verfahren im BMLwalker ist von drei Vorstellungen von Bewegung geprägt, so mein Ausgangspunkt für die historische Rekonstruktion: In der historischen Kontextualisierung wird deut- lich, wie die Abstraktion der Bewegung vom Körper verspricht, Wissen über Bewegung zu ermöglichen – zunächst in Hinblick auf ein biomechanisches Mo- dell, das Ursache-Wirkungs-Erklärungen gibt und später in Hinblick auf Norm und Effizienz. Die Vorstellung von der Lesbarkeit von Bewegung tradiert ihrer- seits bestimmte Denkfiguren und Stereotype und etabliert den Betrachtenden als Lesenden und Beurteilenden. Die Frage danach wie rhythmische Punktemu- ster als bewegte Körper wahrgenommen werden (können), bindet Muster, ihre Wahrnehmbarkeit und die Regelhaftigkeit der Beurteilung zusammen. Wissensformen der Datenbank In der hier formulierten Perspektive zeigt der BMLwalker, dass und wie Stere- otype der Wahrnehmung beziehungsweise Beurteilung Teil des Wissens (der Datenbank) werden. Entscheidend für die Wissensform der Datenbank ist meines Erachtens, dass in der Datenbank bestimmte Formen von Beschreibung mit Bewertung ver- bunden werden und in die medial-technischen Verfahren eingelassen werden. 288 Irina Kaldrack Dies ist möglich, weil die skizzierten Traditionen des Wissens von Bewegung im BMLwalker verkreuzt werden. Dabei wandelt sich das Erkenntnisinteresse, das die Aufzeichnung der Bewe- gung leitet: Zunächst steht das Ziel im Mittelpunkt, ein berechenbares Modell des Gehens zu erstellen, welches die Messdaten in einer Ursache-Wirkungs-Re- lation erklärt. Die Bewegungsdarstellung richtet sich an einen Betrachter, der von der Richtigkeit des Modells überzeugt werden soll. Das Ursache-Wirkungs- Modell tritt zugunsten einer Praxis zurück, in der die Bewegungsabläufe als ein Muster behandelt werden, Bewegung also eher beschrieben als erklärt wird. Der betrachtende Mensch soll weniger überzeugt werden, als diese Mu- ster als Trainingsvorlage benutzen. Er soll sie tätig nachvollziehen. Diese Tradi- tion des Wissens um Bewegung wird mit einer des Wissens um Wahrnehmung verkreuzt, die fragt nach welchen Regeln Wahrgenommenes bewertet wird. Damit knüpft der BMLwalker drittens an eine Wissenstradition an, die Bewe- gung als lesbares Zeichen und Ausdruck der inneren Verfasstheit setzt. Indem diese Bewertungen in die technisch-medialen Verfahren eingelassen werden, entsteht eine Wissensform, die folgendermaßen charakterisiert werden kann: Erstens wird Bewegung zu einem Medium des Körpers, welches Inneres kom- muniziert. Zweitens wird der Betrachter aufgefordert, die Bewertungen, das von der Bewegung bezeichnete Innen des gehenden Körpers, nachzuvollzie- hen und sich davon überzeugen zu lassen. Der Mensch wird drittens zum Da- tengeber: Er ist Gangdatum, indem er die Daten für die Gangkonstruktionen bereitstellt und er klassifiziert die Ereignisse. Aber er tritt nicht als Konstruk- teur und Wissender in Erscheinung (wird nicht so adressiert). Das Wissen selbst wird in der Rückkopplung von beschreibendem Muster und Bewertung dieser Beschreibung produziert. Entscheidend ist, dass die Datenbank konstruktiv wird, indem sie Musterer- zeugung und Darstellung so verbindet, dass für den Betrachter des BMLwalkers ein kohärenter Eindruck entsteht. Der Nutzer stiftet Daten in seiner Bewertung und wird zum Kohärenztest für die Konstruktion. Dabei wird der Nutzer im in- teragierenden Umgang mit den Darstellungen zum Nachvollziehenden dieses Wissens, über welches er Macht im Sinne von Bewertungen bekommt. Diese Be- wertung dient aber hauptsächlich der Differenzierung der Daten, sie erzeugt (beim Neubewerten) neue Datensätze, die der statistischen Auswertung zur Verfügung stehen. Gehen in der Datenbank 289 Anmerkungen 01˘ Der BMLwalker ist unter [www.biomotionlab.ca/Demos/BMLwalker.html] zu finden, letz- ter Zugriff 10.06.2011. 02˘ Für die detaillierte Beschreibung siehe Troje 2002. 03˘ Ein Vektorraum ist eine Menge von Elementen, die bestimmten Bedingungen genügt. So muss die Summe zweier Elemente selbst wieder Element des Vektorraums sein. Das Produkt zweier Elemente muss nicht Element des Vektorraums sein, allerdings muss das so genannte Skalarprodukt Element der Menge sein. Der dreidimensionale Koordinatenraum lässt sich als Vektorraum begreifen. Ein Skalarprodukt ist dann beispielsweise ein Vektor, der mit einer reellen Zahl multipliziert wird. 04˘ Wichtig ist hier der Hinweis, dass auch die abgefragten Daten innerhalb der Simulation ›konstruktiv‹ fungieren. »Weiblich« / »männlich«, »schwer« / »leicht« sind in den Punktemustern bereits deshalb als Konstruktionen aufzufassen, weil hier aus 50 Datensätzen mit Eigenschaft »weiblich« und 50 Datensätzen mit Eigenschaft »männlich« potentiell unendlich viele Datensätze errechnet werden, die dann automatisch als weiblich oder männlich klassifiziert werden. 05˘ Einen guten Eindruck dieses Verfahrens erhält man, wenn man beim BMLwalker-Rating mitmacht, siehe [http://www.biomotionlab.ca/Demos/BMLrating.html]; letzter Abruf 01.03.2012. Die Nutzer werden aufgefordert eine Eigenschaft und deren zwei Extrempole anzugeben. Im zweiten Schritt bewerten sie die gezeigten Gangmuster auf einer Skala von eins bis sechs. Nach der Bewertung von mindestens 20 Gängen kann das Experiment been- det werden. Es wird ein Regler erzeugt, der es erlaubt, den Gang durch einen Schieberegler mit der gewählten Eigenschaft zu beeinflussen. Bei den Interpretationen müssen die Nutzer ca. 20 Datensätze interpretieren und dann werden darauf aufbauend potentiell un- endlich viele Datensätze erzeugt, die auf der Skala der vorgenommenen Interpretation ein- geordnet werden. 06˘ Mathematisch gesehen ist jedes Gangmuster ja eine Summe der Basisvektoren, die je- weils mit einer Konstante multipliziert werden. Die gesuchte Funktion sorgt nun dafür, dass sie, angewendet auf alle Konstanten, immer das richtige Merkmal errechnet. 07˘ Ich nehme also keine Rekonstruktion der verwendeten mathematischen Verfahren und ihrer Kontexte vor, da dies den Rahmen dieses Textes sprengt. Ausgangspunkt einer detaillierten Rekonstruktion ist, dass jedes der Verfahren das Versprechen auf umfassendes Wissen oder Analysierbarkeit beinhaltet. Die Fouriertransformation verspricht (fast) jede Funktion durch die Summe von einfachen Funktionen anschreibbar zu machen. Das Verfahren wird 1807 vom französischen Mathematiker und Physiker Jean-Baptiste Joseph Fourier (1768-1830) vorgestellt. Die Fouriertransformation entstand im Kontext der Diskussion um die schwin- gende Seite und der Frage, inwieweit willkürlich gezogene Linien mathematisch analysier- 290 Irina Kaldrack bar seien (vgl. Siegert 2003, 240-252). Allerdings sind diese epistemologischen Kontexte für den Einsatz der Fouriertransformation im BMLwalker kaum relevant - auch wenn die Frage nach Willkürlichkeit und Gesetzmäßigkeit in der Erforschung des Gehens eine Rolle spielt. Die Erfindung der Hauptkomponentenanalyse wird Karl Pearson (1857-1936, britischer Statistiker und Eugeniker) zugeschrieben. Er führt sie als Instrument der evolutionistischen Bio -logie ein und situiert sie auch rhetorisch in diesem Kontext. Die Hauptkomponentenana- lyse (so wie sie auch im BMLwalker eingesetzt ist) verspricht unübersehbare Mengen zu geordneten Mustern zu machen. Gleichzeitig richtet sie damit den Fokus auf die Oberflächen und weniger auf die Frage nach den Ursachen von messbaren Phänomenen. Das belegt auch eine große Debatte um den erkenntnistheoretischen Status der Statistik, die Pearson mit anderen Statistikern seiner Zeit führt (vgl. Desroisières 2005, 160ff.). Ronald Aylmer Fisher (1890-1962, britischer Statistiker und Eugeniker) führt 1936 die line- are Diskriminanzanalyse ein – wiederum im Kontext der Biolo-gie und speziell Taxonomie. Sie verspricht die automatische Klassifi-kation und zielt damit auf die Frage von Ordnung und sogar Bewertung. Welche Kontexte von dem jeweiligen Einsatz der Verfahren und ih- rer Verbindung im BMLwalker tatsächlich aufgerufen werden, und deren genealogische Rekonstruktion in Hinblick auf ihre Wissensformen und Praktiken, muss an dieser Stelle of- fen bleiben. 08˘ Zu den Untersuchungen der Brüder Weber siehe Weber / Weber 1836; von Herrmann 2005, 160ff.; Kittler 2003. 09˘ Zum Versuchsaufbau siehe Braune / Fischer 1895, 182ff. 10˘ Es gab auch Zeichnungen, die - ähnlich wie die Fotografien - als abstrahierte Strichmännchen im Koordinatensystem dargestellt wurden. 11˘ Zu Gilbreths Studien siehe (Pias 2000, 26ff.; von Herrmann 2005, 167ff.). 12˘ Demnach entsprechen den vier Elementen (Feuer, Wasser, Luft und Erde) vier Körpersäfte (Gelbe Galle, Schleim, Blut und schwarze Galle) und diese entsprechen wiederum vier Temperamenten (Choleriker, Phlegmatiker, Sanguiker und Melancholiker). Die Gleichsetzung von Elementen und Körpersäften wurde in der Antiken Medizin ca. 400 v. Chr. vorgenommen (Viersäftelehre). Galenus oder Galen verbindet diese im 2. Jh n. Chr. mit der Vorstellung der vier Grundtemperamente des Menschen. Im medizinischen Kontext war die Viersäftelehre bis ins 19. Jahrhundert ein wichtiges Modell. 13˘ Einen soziohistorischen Abriss mit der Perspektive auf Geschlechtermodelle bietet Burmann 2000, 29–46. 14˘ Siehe dazu Heeg 2000, 160ff.; Warneken 2010. 15˘ Charles Bell (1774-1842, schottischer Anatom und Physiologe) führt Anfang des 19. Jahrhunderts die Frage nach dem mimischen Ausdruck mit dem Nervensystem ein (vgl. Bühler 1933, 53 ff.). Mitte des Jahrhunderts knüpft Theodor Piderit (1826-1912, deutscher Arzt und Schriftsteller) an diese Arbeiten an, während Charles Darwin in Der Ausdruck der Gemütsbewegungen bei dem Menschen und den Tieren, erschienen 1872, evoluti- Gehen in der Datenbank 291 onsbiologisch argumentiert. Auf der anderen Seite wird die klassische Physiognomik in der Kriminologie re-aktualisiert, auf der Suche nach Identifikationsmöglichkeiten für Verbrecher (Phrenologie und Biometrie entstehen beispielsweise in dieser Tradition). Wie sich im Rücken der physiologischen und evolutionsbiologischen Forschung ein Verständnis von Bewegung als Rausch, Traum und Übertragungsgeschehen ausbildet, zeichnet von Herrmann 2005, 179 nach. 16˘ Diesen Titel trägt ein Artikel von 1905, der 1924 von Klages wiederveröffentlicht wird (Klages 1926, 135-150). Bibliografie Bogen, Hellmuth/ Lipmann, Otto (Hrsg.) (1931) Gang und Charakter. Ergebnisse eines Preisausschreibens. Beihefte zur Zeitschrift für angewandte Psychologie. Beiheft 58. Leipzig: Barth. Braune, Christian Wilhelm/ Fischer, Otto (1895) Der Gang des Menschen. Versuche am unbelasteten und belasteten Menschen. Theil 1. Abhandlungen der Mathematisch-Phy- sischen Classe der Königlich Sächsischen Gesellschaft der Wissenschaften; 21,4. Abhand- lungen der Königlich Sächsischen Gesellschaft der Wissenschaften; 35,4. Leipzig: Hirzel. Burmann, Henriette (2000) Die kalkulierte Emotion der Geschlechterinszenierung. Ga- lanterierituale nach deutschen Etikette-Büchern in soziohistorischer Perspektive. Konstanz: UVK Universitätsverlag Konstanz. Bühler, Karl (1933) Ausdruckstheorie. Das System an der Geschichte aufgezeigt. Jena: Fi- scher. Desroisières, Alain (2005) Die Politik der großen Zahlen. Eine Geschichte der stati- stischen Denkweise. Berlin/ Heidelberg: Springer. Gilbreth, Frank B. / Gilbreth, Lillian Moller (1920) Angewandte Bewegungsstudien. Neun Vorträge aus der wissenschaftlichen Betriebsführung. Berlin: Verlag des Vereines deut- scher Ingenieure. Göttert, Karl-Heinz (2009) Zeiten und Sitten. Eine Geschichte des Anstands. Stuttgart: Reclam. Heeg, Günther (2000) Das Phantasma der natürlichen Gestalt. Körper, Sprache und Bild im Theater des 18. Jahrhunderts. Frankfurt/ M.: Stroemfeld Verlag. Hommel, Bernhard/ Stränger, Jürgen (1994) Wahrnehmung von Bewegung und Handlung. In: Enzyklopädie der Psychologie. Hrsg. von W. Prinz & B. Bridgeman. Göttingen: Hogrefe. Johansson, Gunnar (1973) »Visual perception of biological motion and a model for its analysis«. In: Perception & Psychophysics 14, 2, S. 201–211. 292 Irina Kaldrack Kittler, Friedrich (2003) Der Mensch, ein betrunkener Dorfmusikant. In: Bühnen des Wis- sens. Interferenzen zwischen Wissenschaft und Kunst. Hrsg. von Helmar Schramm. Berlin: Dahlem University Press, S. 300–318. Klages, Ludwig (1926) Zur Ausdruckslehre und Charakterkunde. Gesammelte Abhand- lungen. Heidelberg: Kampmann. Marey, Étienne-Jules (1985) Die Chronophotographie. Aus dem Französischen übersetzt von A. von Heydebreck. [1893] Kinematograph Nr. 2, Frankfurt/M. Pias, Claus (2000): Computer Spiel Welten [http://e-pub.uni-weimar.de/voltexte/2004/37/ pdf/Pias.pdf]; letzter Aufruf: 01.03.2012. Ritter, Joachim/ Gründer, Karlfried (1989) Historisches Wörterbuch der Philosophie. Bd. 7: P-Q. Darmstadt: Wissenschaftliche Buchgesellschaft. Siegert, Bernhard (2003) Passage des Digitalen. Zeichenpraktiken der neuzeitlichen Wis- senschaften 1500 – 1900. Berlin: Diaphanes. Troje, Nikolaus F. (2002) »Decomposing biological motion: A framework for analysis and synthesis of human gait patterns.« In: Journal of Vision 2, 5, S. 371–387. Online: [www.journal ofvision.org/content/2/5/2.full_]; letzter Aufruf: 08. 08. 2011. von Herrmann, Hans-Christian (2005) Das Archiv der Bühne. München: Fink. Warneken, Bernd Jürgen (2010) Biegsame Hofkunst und aufrechter Gang. Körperspra- che und bürgerliche Emanzipation um 1800. In: Populare Kultur: Gehen - Protestieren - Erzäh- len – Imaginieren. Hrsg. v. Thomas Fliege & Stefan Beck. Köln/ Weimar/ Wien: Böhlau, S. 57– 69. Weber, Wilhelm/ Weber, Eduard (1836) Mechanik der menschlichen Gehwerkzeuge. Eine anatomisch-physiologische Untersuchung. Göttingen: Dieterich. Wertheimer, Max (1923) »Untersuchungen zur Lehre von der Gestalt.« In: Psychologische Forschung: Zeitschrift für Psychologie und ihre Grenzwissenschaften 4, S. 301–350. Gehen in der Datenbank 293 294 Florian Krautkrämer Database Cinema? Datenbankästhetik im Film Spätestens seit Manovich in seinem Buch The »If the ontology of digital media is founded in the Language of New Media den Begriff des Databa- database, what is the database‘s bodily nature? I se Cinema prägte, wird dieser immer wieder da- look for ways that digital video, while mourning the für verwendet, um bestimmte Charakteristika loss of its analog body, still indexes the physicality des digitalen zeitgenössischen Kinos hervorzu- and mortality of its medium. But I go on to suggest heben und um Unterschiede zum klassischen that the fundamental stuff of the database, arrays Kino zu verdeutlichen. Für Manovich repräsen- of quiescent or excited subatomic particles, has a tiert die Datenbank eines der Hauptmerkmale life of its own« des Computerzeitalters und der Neuen Medien. Laura Marks. Im Zentrum steht mit ihr der nonlineare Zugriff auf Informationen (2001, 217ff.). In den Instru- menten der Auswahl wird diese neue Art des Zugangs nun sichtbar; zuvor wur- de das Material allein der Logik der Narration folgend präsentiert: »[O]ther elements that form the imaginary world of an author or a particular literary or cine- matic style, and that could have appeared instead, exist only virtually. Put differently, the data- base of choices from which narrative is constructed (the paradigm) is implicit; while the actual narrative (the syntagm) is explicit. New media reverse this relationship« (ebd., 231). Das Database Cinema erkennt Manovich in jenen Beispielen, in denen die Mon- tage nicht allein der Logik linearer Narration folgt und in denen darüber hi- naus die Kriterien für Auswahl und Kombination des Materials auch auf eine bestimmte Art und Weise thematisiert werden. Manovich führt hier den mo- dernen Videoclip an, der auf alternierende Bilder und nicht auf die Konstrukti- on eines Abbildes von Wirklichkeit setzt (ebd., 229). Filme, die er in diesem Zu- sammenhang anführt, sind zum einen die Peter Greenaways, der das Zählen, Archivieren und Katalogisieren immer wieder zum Thema seiner Filme macht (Drowning by Numbers (GB/NL 1988), The Pillow Book (F/GB/NL/LUX 1996)), das Material häufig aber auch mit Database- oder Interface-Bezügen präsen- tiert, sowohl im Bild als auch durch die Form nonlinearer Montage. Zum ande- ren nennt er Dziga Vertovs Chelovek s kino-apparatom (Der Mann mit der Ka- mera, UdSSR 1929) , weil hier die Montage überwiegend motivisch funktioniert Database Cinema? 295 – es werden die drei Städte Kiew, Odessa und Moskau zu einer virtuellen Stadt »verschmol- zen«; als narrative Größe steht ein Tagesablauf, nicht aber eine Person, die durch diesen hindurch führt. Außerdem werden die Produktionsmittel selbst immer wieder thematisiert und auch der Auswahlprozess, die Montage selbst, steht in ei- ner Szene im Zentrum: Die Cutterin des Films, Elizaveta Svilova (Vertovs Ehefrau), wird bei der Analyse des Materials gezeigt. Sie betrachtet am Schneidetisch eine Einstellung, separiert die- se dann von den übrigen (es handelt sich also nicht um Montage, sondern um Materialson- dierung) und stellt sie in den Rollensortierer vor die Leuchtwand. Im Film wird uns dieses Materi- al nicht bloß von außen gezeigt, als Einzelkader eines Filmstreifens, sondern anschließend auch zum Leben erweckt – die Bilder bewegen sich. Abb. 1: Die Datenbank der Filmcutterin Manovich zufolge geht es Vertov um die Wahr- Abb. 2: Vertov vergisst die Schere nicht nehmung der Wirklichkeit und nicht um ihre Re- präsentation, und die zahlreichen Effekte, die Vertov in seinem Film ausprobiert und verwendet, stehen nicht bloß im Dien- ste der Narration oder emotionalen Vermittlung, sondern sind Elemente einer neuen Filmsprache (ebd., 242). Beim Database Cinema muss die Montage sich nicht mehr der Logik der Narration unter- und damit das Material in der Zeit anordnen. Es geht um das Nebeneinander, nicht bloß das Nacheinander: »Time is no longer privileged over space, sequence is no longer privileged over simul- taneity, montage in time is no longer privileged over montage within a shot« (ebd., 326). Das Interessante an Manovichs Begriff des Database Cinema ist, dass er das in- teraktive Moment, also die Beeinflussung der Materialausgabe durch Variati- onen der Parameter, nicht dem Rezipienten zuschlägt, sondern nach wie vor als allein auktoriale Möglichkeit ansieht. Auch wenn die Filme nun anders konstru- iert aussehen werden, Kino ist nach wie vor ein time-based-medium, auf dessen Abfolge der Rezipient keinerlei Einfluss hat. Die Datenbank ist nicht mehr als eine Metapher, um bestimmte Konstruktionsprinzipien zu beschreiben. Inso- fern ist es nur konsequent, dass Manovich diese Metapher besonders ausführ- lich an einem Stummfilm ausführt. Was heute möglich ist, nämlich interaktive Narrative, sei bei Vertov bereits angelegt, aber nicht umgesetzt. Wenn Mano- 296 Florian Krautkrämer vich verkündet: »We want new media narratives« (ebd., 237), dann ist dies eine Forderung an Designer und Produzenten, auf bereits Erfolgtem aufzubauen und dadurch die neuen Möglichkeiten noch besser auszuschöpfen.¯1 Database Narrative Inzwischen wird die Datenbank auch ohne diese modernistische Forderung als Metapher für bestimmte Filme verwendet. Für Rembert Hüser sind Found- Footage-Filme von Bruce Conner, George Landow oder Gabi Horndasch selbst- reflexives »Database-Cinema«, da sie ähnliches Material (in diesem Fall Stücke von Film-Leadern) aus verschiedenen Beispielen kompilieren (Hüser 2010, 322).¯2 Laura Marks verwendet die Datenbank als Metapher für die Technik des Morphing in der Videokunst: »Like the choice to render the database of infor- mation audio-visually, digital video reflects a voluntaristic choice to have this kind of body, for now« (Marks 2002, 152). Am häufigsten jedoch taucht die Da- tenbank auf, um bestimmte filmische Narrative zu beschreiben. Gemeinsamer Bezugspunkt ist dabei häufig das europäische Autorenkino seit den 60er Jah- ren mit seiner Experimentierfreude am nonlinearen Narrativ, wie sie in Filmen Godards, Resnais’, Vardas und Greenaways anzutreffen ist. Marsha Kinder beschreibt mit dem Database Cinema eine Praxis, in der die Montage nicht allein narrativer Logik gehorcht, sondern auch so genannten »hot spots« folgt, die Motive oder Zustände sein können; außerdem seien die Charaktere weniger psychologisiert und die Struktur der Filme stärker geprägt von Zufälligkeiten und Wiederholungen. Kinder erkennt das sowohl in Filmen des europäischen Autorenkinos von Chris Marker oder Alain Resnais, den expe- rimentellen Dokumentationen von Pat O‘Neil oder Agnès Varda oder zeitgenös- sischen Filmen wie Pulp Fiction (USA 1994, Quentin Tarantino), Lost Highway (F/USA 1997, David Lynch), The Matrix (USA/AUS 1999, Andy & Lana Wachowski) oder Lola rennt (D 1998, Tom Tykwer) (2002, 6ff). Mit dem angeführten Bezug auf das europäische Autorenkino nach dem Zwei- ten Weltkrieg ergibt sich noch ein weiterer Anknüpfungspunkt zum Databa- se Cinema, der in den meisten Fällen jedoch nicht thematisiert wird. Die Regis- seure der Nouvelle Vague konnten dank der Politik Henri Langlois‘ und seiner von ihm geleiteten Cinemathèque auf eine umfangreichere Filmbildung auch historischer Filme zurückgreifen, bevor sie anfingen Filme zu drehen. Dass Filmgeschichte in großen Stücken relativ frei verfügbar ist, ist erst eine neue- re Erscheinung und für Filmwissenschaftler wie Thomas Elsaesser (1998, 191ff.) und Jörg Schweinitz (2006, 236ff.) auch ein Grund für die zeitgenössische He- Database Cinema? 297 terogenität der Stilmittel. Database Cinema, sowohl im Autorenfilm der 60er und 70er Jahre als auch im zeitgenössischen Film, hängt ganz konkret mit einer Filmdatenbank zusammen. Auf die momentan erfolgreichen Puzzle- und Mindgame-Filme wie Memento (USA 2002, Christopher Nolan), in denen die Narration ebenfalls nicht mehr ei- ner klaren Chronologie folgt, gehen Kristen Daly und Sean Cubitt ein. Hier be- steht die Gemeinsamkeit darin, dass die einzelnen szenischen Abfolgen nicht einer chronologischen Ordnung entsprechend angeordnet werden, sondern nach einer anderen Logik verknüpft sind, die für gewöhnlich im Verlauf des Films erklärt wird. Die Geschichte ist dann nicht viel mehr als eine Wäschelei- ne, an der die einzelnen Szenen (oder Effekte) aufgereiht werden (Cubitt 2004, 239); sie erfüllt ihre strukturierende Funktion, ist darüber hinaus aber nicht mehr weiter von Interesse. Im Vordergrund steht oftmals die spezielle Logik der Reihenfolge, deren Aufdeckung (»in Manovich‘s terms ›discovering the al- gorithm‹« (ebd.)) sich oftmals am Ende des Films für Rezipienten und Prota- gonisten gleichzeitig einstellt.¯3 Auch Cubitt betont den eher räumlichen Zu- gang, den diese Filme bieten; ihnen geht es weniger um das plausible Erzählen von Geschichten, als vielmehr um das Errichten von Welten (ebd., 243). Doch wo Cubitt dies auch mit dem hohen Einfluss von Marktforschung auf die Ent- wicklung der Filmstoffe in Beziehung bringt (»the database is a device for the ordering of materials, as such intrinsic to Hollywood market research, script- writing, and editing« (ebd., 238)), führt Daly diese spezielle Form filmischer Narrative allein auf die neuen Medien zurück, da der Erfolg dieser Filme ihrer Meinung nach auf der Vertrautheit der Zuschauer mit interaktiven Medien und dem trans-media-storytelling basiert. Dabei werden bestimmte Sub-Plots, Vor- geschichten oder randständigere Charaktere jenseits des Films in anderen me- dialen Manifestationen wie beispielsweise im Internet weiter erzählt.¯4 Die Filme funktionieren zwar auch für sich, aber die Auseinandersetzung damit kann auf anderen Plattformen weitergeführt werden. Rezipienten, die bereit sind sich in Verbindung stehende Stücke aus unterschiedlichen Medien zusam- men zu suchen, beschreibt Daly mit dem Neologismus »viewser«, eine Mi- schung der Wörter »viewer« und »user« (2010, 82). Wie auch Manovich¯5 sug- geriert Dalys Beschreibung, dass die zeitgenössischen Filme anspruchsvollere und aktivere Zuschauer erfordern; die Filme würden nicht mehr bloß passiv konsumiert, sondern aktiv verfolgt und entschlüsselt (ebd., 90).Filme wie Me- mento und Fernsehserien wie Lost (ABC 2004-2010) subsumiert sie unter dem Begriff Database Cinema. 298 Florian Krautkrämer Film-Metaphern Das Zielen auf (Er-)Neuerungen ist eine Besonderheit, die vielen Filmmeta- phern zu eigen ist. Man weist mit den Umschreibungen auf neu entstandene Gegebenheiten hin, für die – da sie noch neu sind – zunächst ein Rückgriff auf ältere Medien oder Gebrauchsweisen herhalten muss. Folgt man jedoch den Ausführungen, erkennt man bald, dass aufgrund der Zwänge der Moderne die damit umschriebene Arbeitsweise über kurz oder lang die einzig noch mög- liche sein wird. Die Metapher des Database Cinema stellt in der Hinsicht eine Besonderheit dar, da sie auf deutlich aktuellere Medien Bezug nimmt, als die anderen Filmmethapern. Eine frühe Metapher, das Kino-Auge, wird auch von Manovich aufgegriffen. Der von Vertov geprägte Begriff bezeichnete »[d]ie Dechiffrierung des Lebens wie es ist« (Vertov 1973, 28) durch die Aufnahmen der Kamera. Keine Kunst, kein Schauspiel sollte von den dokumentarischen Aufnahmen ablenken, die aber sehr wohl tricktechnisch bearbeitet, zufällig aufgelöst und in Zeit und Raum montiert werden sollten (Vertov 1973, 15ff). Eine weitere Metapher der Manovich ebenfalls Aufmerksamkeit in seinem Buch widmet, ist die des Kino-Pinsels, der »Kino-Brush«. Manovich wählt den Pinsel, weil damit die Fähigkeit des digitalen Bildes betont wird, die Realität im Ab- bild den eigenen Wünschen entsprechend zu formen und wiederzugeben, wo- mit der kinematographische Realismus nicht mehr die einzige Grundlage für die Filmgestaltung darstellt (Manovich 2001, 308 & 367). Indem Manovich die- se beiden auf den ersten Blick unvereinbaren Metaphern widerspruchslos zu- sammen führt, zeigt sich auch, worauf sich das Database Cinema bei ihm be- zieht: auf die Postproduktion und die Effekte, die er auch bei Der Mann mit der Kamera hervorhebt. Die Datenbank ist weniger ein Reservoir an Bildern, als vielmehr eines an Möglichkeiten. Die Metapher der »caméra stylo« taucht hingegen bei Manovich nicht auf, dabei hat sie ebenfalls mit dem Database Ci- nema zu tun. Mit dem Konzept der caméra stylo gingen so gut wie keine An- gaben zur filmischen Form einher. Alexandre Astruc lancierte seine Umschrei- bung Ende der 40er Jahre gegen die Montage als filmkünstlerische Form. Seine Idee, »dass der Gedanke sich direkt auf den Filmstreifen niederschreibt« (1992, 201) bedeutete, dass nun alles möglich, dass jeder Inhalt auch im Film umsetz- bar sei. Dass Astruc darauf verzichtete, auf den knappen drei Seiten seines Ma- nifests auch genauer auszuführen, ob die Tonspur dabei eine wichtige Rolle spielen und welchen Stellenwert denn genau die Montage einnehmen sollte, gehörte zum Konzept. Sein Manifest jedenfalls steht als Gründungstext genau Database Cinema? 299 für jene Generation von Filmemachern, die wie- derum zentral für das Database Cinema sind. Offenbar sind Filmmetaphern nicht dazu da, um genau und präzise eine Filmpraxis zu be- schreiben. Die jeweiligen Metaphern betonen einen bestimmten Sachverhalt, den derjenige, der sie benutzt, damit herausarbeiten möchte. Meistens ist es auch ebenso wichtig sich gegen andere Filmformen deutlich (und polemisch) abzugrenzen. Die Filmmetaphern sind keine wissenschaftliche Kategorisierung, sondern (Zwischen-) Ergebnis eines Diskurses. So sind die Filme des französischen Regisseurs Alain Res- nais Paradebeispiel für die praktizierte »Kamera als Federhalter«: Dialog und Off-Kommentar be- stimmen weitgehend seine Filme, die teilweise in Zusammenarbeit mit AutorInnen entstanden, die für ihn Originaldrehbücher anfertigten.¯6 Aufgrund ihrer elliptischen und motivisch ori- entierten Montage können sie aber auch als hi- storische Beispiele für das Database Cinema gel- ten. Bereits in Nuit et Brouillard kann man das Resnais‘sche Montageprogramm erkennen: Ar- chivmaterial und für den Film gedrehte Sequen- zen werden in einer Weise arrangiert, sodass im- mer wieder Parallelen sichtbar werden. So setzt der Dolly auf den Schienen in Auschwitz-Birke- nau seine Fahrt 1955 mit derselben Geschwin- digkeit fort, mit der der Zug im historischen Schwarzweißmaterial bei der Ausfahrt aus dem Nazibahnhof begann. In Hiroshima, mon amour sind es Straßenzüge in Nevers und Hiroshima, die sich in einer Parallelmontage abwechseln, während die Geschwindigkeit des Travelling in beiden Städten jeweils die gleiche ist. Und in ei- ner Sequenz aus La Guerre est finie (F/S 1966) Abb.3: Morphing à la Resnais 300 Florian Krautkrämer gibt es eine frühe analoge Form des Morphing, bei der die Kamera den Weg aus einem Haus über die Straße in ein an- deres verfolgt, während die Person vor dem Objektiv sekünd- lich ausgetauscht wird.¯7 Zudem sind Bibliotheken¯8 und das Gedächtnis¯8 immer wieder Thema seiner Filme. Tatsächlich ist der Umgang mit dem Material bei der Resnais‘schen Montage ein anderer als bei Vertov oder Eisenstein, der Datenbankvergleich verdeutli- cht das noch einmal besonders. So ist die berühmte Götzense- quenz in Eisensteins Oktyabr (UdSSR 1928) (oder generell sei- ne »intellektuelle Montage«) stark vom Wort her gedacht. Die Montage entspringt einer Idee, die verbalisiert werden muss, um sie zu verstehen: Man muss die einzelnen Figuren inner- halb der Sequenz als Götzen identifizieren, um die Kritik an der Kirche zu verstehen. Dies ist auch der Fall bei Vertovs Entuziazm: Simfoniya Don- bassa (UdSSR 1931), wo Gläubige, die die Füße des gekreuzig- ten Jesus küssen, gegengeschnitten werden mit Aufnahmen Betrunkener, um Lenins Vergleich von Opium und Religion zu illustrieren. Diesen Beispielen liegt Boris Ejchenabaums Prin- zip der inneren Rede zugrunde: »Für das Studium der Gesetze des Films (vor allem der Montage) ist es sehr wichtig zu erkennen, daß die Wahrnehmung und das Verstehen eines Films unauflöslich verbunden sind mit der Bildung einer inneren, die ein- zelnen Einstellungen untereinander verbindenden Rede« (Ejchenbaum 2005 [1927] , 29). Durch eine bestimmte Form der Montage übersetzen Eisen- stein und Vertov komplexe Aussagen in Bilder, wohingegen Resnais zunächst am Bild selbst arbeitet und inhaltlich (oder zeitlich) auseinanderliegende Aufnahmen aufgrund moti- vischer Parallelen gegeneinanderstellt und somit zu neuen, vorher nicht sichtbaren Inhalten gelangt. Das Material wird wie in einer Datenbank erst nachträglich durch die Analyse (Datenanfrage) kombiniert. Abb.4: Götzensequenz aus Eisensteins Oktober Database Cinema? 301 Flache Bilder Die Gegenüberstellung Eisensteinscher und Resnais‘scher Montage ist etwas, dem sich auch Deleuze in seinem Brief an Serge Daney gewidmet hat. Die Mon- tagekunst vor dem Krieg, so Deleuze, bestand darin zwei Bilder zu kombinie- ren, die Repräsentanten zweier Gegenstände oder Worte waren. In den neuen »Kompositions- und Assoziationsformen« nach dem Zweiten Weltkrieg traten Montage und geordnete Erzählung in den Hintergrund, die Bilder wurden als Bilder wahrgenommen, es galt sie in ihrer Flächigkeit zu rezipieren und nicht in ihrem in der Schärfentiefe begründeten Realismusanspruch: »Die Tiefe wurde als ›Täuschung‹ gebrandmarkt, und das Bild akzeptierte seine Flächigkeit, sei- ne ›Oberfläche ohne Tiefe‹ oder seine Untiefe, wie es beim Meer heißt (die Tiefenschärfe läßt sich nicht als Gegenargument anführen, z. B. bei Orson Welles als einem Meister dieses neuen Films, denn in einem gewaltigen Blick läßt er alles sehen und löst so die alte Tiefe auf). Die Bil- der waren nicht mehr in einer eindeutigen Ordnung von Schnitten und Anschlüssen verknüpft, sondern wurden nun zum Gegenstand von immer wieder aufgenommenen und umgearbei- teten Neu-Verknüpfungen, über die Schnitte hinweg und in den falschen Anschlüssen. Damit änderte sich auch die Beziehung zwischen dem Bild und den Körpern, den Filmschauspielern. Der Körper wurde dantesker, d. h. nicht mehr in Aktionen erfaßt, sondern in Haltungen mit ihren spezifischen Verknüpfungen. […] Damit änderte sich ebenfalls die Beziehung zwischen dem Bild und Wörtern, Tönen, Musik: fundamentale Asymmetrien zwischen Akustischem und Visuellem sollten bald dem Auge die Macht geben, das Bild zu lesen, aber auch dem Ohr, die leisesten Ge- räusche zu halluzinieren« (Deleuze 1993, 103f). Die bisher angeführten Beschreibungen des Database Cinema als Montage von »Hot Spots«, Zufälligkeiten und Wiederholungen, die die chronologische Ord- nung aufhebt, ist durchaus hierzu anschlussfähig. In der von Deleuze betonten Flächigkeit gibt es zudem eine besondere Parallele zur Datenbank und allem, was dieser Begriff sonst noch evoziert, wie Tabellen und Formulare, aber auch die Arbeit am Computerbildschirm, direkt an der Oberfläche bei gleichzeitiger Tiefenillusion verschiedenster Ebenen, vom Schreibtischhintergrund, über die abgelegten Ordner und Dateien bis hin zu den bearbeiteten Dokumenten und ihrem obligatorischen Schlagschatten. Zwar verwendet Deleuze nicht die Datenbank als Metapher, aber im Zeit-Bild nutzt er das Gedächtnis als Beschreibung der Resnais‘schen Montage: »Das Gedächtnis ist nämlich mit Sicherheit kein Erinnerungsvermögen mehr: es ist die Mem- bran, die auf verschiedenste Weisen […] die Schichten der Vergangenheit mit den Schichtungen der Wirklichkeit korrespondieren läßt, […] während beide Schichten die Gegenwart, die nur noch der Ort ihres Zusammentreffens ist, zersetzen« (Deleuze 1997: 267). 302 Florian Krautkrämer Abb. 5 Deleuze bezeichnet diese Art des Kinos als »Kino des Gehirns«, bei dem die zeit- liche Serie nicht mehr der Ordnung des Vorher und Nachher folgt, sondern es »die Ordnung der Zeit nach der Koexistenz ihrer eigenen Verhältnisse« entfal- tet (ebd.). In einem Aufsatz von 1998, der »Schreiben mit Multimedia« heißt und damit dann doch die »caméra stylo« evoziert, geht es auch Manovich um das Gehirn und die Parallele vom Denken und den neuen Medien. »Schreiben mit Multime- dia«, das bedeutet bei Manovich Denkprozesse nicht abzubilden, sondern die Leser in diese mit einzubeziehen. Er vergleicht den Computer mit dem Gehirn, das über ein Erinnerungsvermögen verfügt. Diese »Denkbilder« findet Mano- vich vor allem in den neueren Videoessays Godards, wenn zwei oder mehrere Bilder überblendet oder ineinander geflickert werden. Das Bild Godards, wie er in seiner Wohnung in Rolle am Genfer See ein Buch aus dem Regal nimmt und darin blättert, etwas notiert oder grübelnd vor seiner Schreibmaschine sitzt, ist für Manovich die Außenaufnahme von Godards Gehirn und mit den »Bild- kompressen«¯10 nimmt »er uns nach innen mit« (Manovich 1998, o.S.). Ma- novich interpretiert diese als eine zeitgenössische Form der Eisenstein‘schen intellektuellen Montage, wohingegen Deleuze (mit Bazin) die russische Mon- tagekunst klar von der Montagepraxis der Nachkriegszeit trennt. Der Unter- scheid zwischen beiden Positionen liegt in der Konzeption des f lachen Bildes. Database Cinema? 303 Beide Autoren treffen sich in Godards Methode des »One plus One«, die ein Bild mit einem anderen kombiniert und die immer nach dem nächsten Bild fragt, das folgen könnte. Für Manovich repräsentieren die Videotechniken der Bildal- teration Erinnerungsprozesse und den Weg von einem Bild zum anderen. Bei Deleuze steht hingegen das »plus« im Vordergrund, der Raum zwischen den Bildern: »Es geht nicht mehr darum, einer Kette von Bildern zu folgen, auch nicht über Leerräume, sondern die Kette oder die Verknüpfung zu verlassen« (Deleuze 1997, 234). Und Deleuze zitiert hier Godard aus Ici et ailleurs (F 1976, Jean-Luc Godard, Anne-Marie Miéville): »Der Film ist ›nicht mehr eine Bilder- Kette …, eine ununterbrochene Kette von Bildern, deren jedes Sklave der an- deren ist‹ und deren Sklaven wir selbst sind« (ebd.). Die Folgerungen hieraus sind entscheidend. Deleuze sieht diese Zwischenräume nicht nur in speziellen Formen der Montage, sondern auch in der modernen Bildgestaltung und Ton- konzeption. Zielten diese drei Faktoren im klassischen Kino noch auf die Eta- blierung eines stabilen hors-champ, gibt es im postklassischen Kino gar kein Off mehr: »Das ›Off‹ verschwindet tendenziell zugunsten einer Differenz zwi- schen Gesehenem und Gehörtem, einer Differenz, die konstitutiv für das Bild ist. Es gibt kein hors-champ mehr« (ebd., 235). Ohne den diegetischen Raum im Off werden die neuen Bilder bei Deleuze zu f lachen Bildern, die sich eben nicht übereinander legen lassen, »sie verfügen gleichsam über die Fähigkeit, sich um sich selbst zu drehen« (ebd., 339).¯11 Dadurch steht die Leinwand nicht mehr im Zentrum und verweist auch nicht mehr auf die Position des Betrachters (ebd). Vielmehr stellt sie »eine Informationstafel dar, eine undurchsichtige Oberflä- che, auf der die ›Daten‹ verzeichnet sind. Information tritt an die Stelle der Na- tur, und die Überwachungszentrale, das dritte Auge, ersetzt das Auge der Na- tur« (ebd., 340). Diese neue Flächigkeit sowie der Verlust der zentralen Vormachtstellung der Leinwand führt zu einer weiteren Gemeinsamkeit mit den Datenbanken: Die gegenwärtige Ökonomie der Medien zwingt den Film nicht mehr allein ins Kino, sondern setzt ihm eine Reihe weiterer Plattformen zur Seite wie DVD, Com- puterspiel, Websites etc., die je nach Film und (Marketing-)Konzept vom tie- in über die Auswertung bis hin zum trans-media-storytelling verschiedenste Funktionen übernehmen können. Richard Grusin versteht diese unterschied- lichen Medien dabei nicht als Konkurrenten zueinander, sondern als eine neue Form des Kinos, das sich auf diese Plattformen verteilt, ein »cinema of interac- tions« (Bolter 2006, 26). Und die undurchsichtige Oberfläche, von der Deleuze spricht, passt dabei ebenfalls besser auf die zeitgenössischen Displays als auf das Modell der Leinwand. Auf dem Computer oder dem Handheld ist der Film nur eine Manifestation unter mehreren. Die meiste Zeit über erscheinen dort 304 Florian Krautkrämer Buchstaben oder Zahlen, Texte, die geschrieben oder Nummern, die gewählt werden. Die Kinoleinwand hingegen ist allein für die Illusion der Filmbilder re- serviert und setzt auch ein festes Raumgefüge voraus, den Kinosaal. Dieser so- wie die eigentlich feste Dauer der Projektion sind Faktoren, die mit den neu- en Medien durch die Rezipienten selbst bestimmt werden können. Der Raum ist nicht mehr fest, die Zeit anhaltbar und auf der Oberfläche ist der Film nur noch eine von unterschiedlichsten Manifestationen, sodass Wörter, Formen und Dinge beständig ihre Rollen tauschen können (Rancière 2007, 106). Database-Ästhetik In den meisten Fällen steht Database Cinema für eine bestimmte Form der Kon- struktion der Narrative oder für Filme, die mehr oder weniger interaktiv sind beziehungsweise Interaktionen suggerieren. Wie das Database Cinema aus- sieht, ist damit noch nicht gesagt. Die Filme Peter Greenaways sind teilweise auch aufgrund ihrer Ästhetik mit Datenbanken verglichen worden. So wird in The Pillow Book (F/UK/NL/LUX, 1996, Peter Greenaway) das Bild immer wieder in einen Rahmen gefasst sowie mit Zahlen und Wörtern »katalogisiert«. Doch was für Auswirkungen kann das Database Cinema jenseits solcher Inter- face-Ästhetiken noch auf die Bildgestaltung haben? Anders als die Metaphern Kamera-Stift oder Kino-Auge spielt das Datenbank- kino auf eine Struktur an, die einem Ergebnis zugrunde liegt – daher die häu- fige Verwendung im Bezug auf die Konstruktion von Narrativen. Mit ihr ein- her geht aber auch eine Fixierung auf die Oberfläche. Anders als die lineare Bewegung des Füllfederhalters, die in einem lesbaren Text mündet, verteilt sich die Datenbank in der Visualisierung auf der Fläche und ist in verschie- dene Richtungen zu verfolgen. Auf diese spezielle Oberflächenästhetik ver- weist das Database Cinema auch. In der Kombi- nation mit dem Filmbild ergibt sich dann eine Abb. 6 besondere Beziehung zwischen Oberfläche und Bildtiefe. In der Tulse-Luper-Trilogie von Peter Greenaway (UK/E/I/LUX/NL/RUS/HU/D 2003/4) findet sich hierfür ein Beispiel. Die Trilogie weist zunächst die typischen Greenaway‘schen Daten- bankmerkmale auf: Tulse Luper reist durch die Geschichte des 20. Jahrhunderts, sammelt und katalogisiert dabei. Das Projekt war dabei auf mehreren Plattformen angelegt: Parallel zu den Database Cinema? 305 Abb. 7-8: Schläge Nr. 24-28 die Tulse Luper einstecken muss drei Filmen sollte es eine TV-Serie, eine Internetseite sowie ein Computerspiel geben, die die einzelnen im Film vorgestellten und zusammengeführten Strän- ge in verschiedene Richtungen ausweiten. Was nun die Datenbankästhetik an- geht, findet sich hier ein Element, das den gesamten Film über verfolgt wird. Wie viele andere Gegenstände auch werden im Verlauf des Films die Schläge gezählt, die Tulse Luper immer wieder einstecken muss. Jedes Mal, wenn er ei- nen oder mehrere Schläge erhält, erscheint auf dem Bild genau an der Stelle, an der die Faust oder der Fuß des Gegners seinen Körper trifft, die fortlaufende 306 Florian Krautkrämer Abb. 9 Nummerierung dieses Schlages. Bis der Schläger fertig ist, verbleiben die Zah- len im Bild und formen sich anschließend zu einer Figur, einem Herz oder ei- ner anderen geometrischen Form. Einerseits stehen die Zahlen in direktem Zu- sammenhang mit dem Bild, in dem sie die Stellen markieren, an denen Tulse Luper getroffen wurde; gleichzeitig haften sie nicht an Luper, wie das durch Tracking häufig gemacht wird, sondern bleiben auf der Bildoberfläche stehen. Sie kennzeichnen letztendlich die Stelle auf der Oberfläche des Bildes, an der der Schlag Lupers Körper getroffen hat. Anschließend heben sie diesen Zusam- menhang auf, indem sie ein neues Bild formen, eine geometrische Figur bei- spielsweise oder ein Herz, lediglich die Zahlen selbst verweisen auf den narra- tiven Zusammenhang. Der Unterschied der animierten Zahlen in The Tulse Luper Suitcases zu ande- ren Beispielen, in denen über die Bilder geschrieben wird, besteht in ihrem doppelten Status. Sie beschriften einerseits das ihnen zugrunde liegende Bild, funktionieren aber gleichzeitig auch auf einer ihnen eigenen Oberfläche, auf der sie sich unabhängig vom Bild bewegen können. Ein anderes Beispiel für die Beziehung zwischen Bildoberfläche und Bildtiefe, das ebenfalls mit Fragmenten und einem seriellen Verfahren arbeitet, findet sich in den kurzen programmverbindenden Clips des englischen Fernsehsen- ders Channel 4. Die so genannten Intros und Outros, die jeweils zwischen 15 und 40 Sekunden lang sind und die der Ankündigung des folgenden TV-Ereignisses dienen, setzen die »4«, das Logo des Senders, prominent und auf eine neue Art Database Cinema? 307 und Weise in Szene. Die meisten Clips bestehen aus einer einzigen Einstellung, häufig eine Ka- mera-, Auto- oder Helikopterfahrt. Gefilmt wer- den überwiegend alltägliche, eher unspektaku- läre Szenen wie Strommasten, ein Markt, eine Felsenküste oder ein Schrottplatz. Das Besonde- re dabei ist, dass sich das Logo nach und nach durch die Veränderung in der Perspektive aus zunächst zufällig herumstehenden oder -f lie- genden Teilen zusammensetzt und auch wieder auflöst. So sieht man bei einer Fahrt vorbei an einem abgemähten Weizenfeld sowohl auf dem Feld selbst als auch darüber lose in der Luft hän- gende Heuballen. Durch die Fahrt und die damit zusammenhängende Verschiebung der Perspek- tive formen diese Teile aus einem bestimmten Blickwinkel die charakteristische »4« des Sen- ders, die sich aber bereits einige Sekunden spä- ter – da die Fahrt ja fortgesetzt wird – wieder auflöst. In einem anderen Clip formt der Arm Abb. 10a-b: Godard is a VJ eines Baggers auf einem Schrottplatz zusam- men mit einem Turm im Hintergrund für einen Augenblick die 4. Das Logo setzt sich nicht physisch zusammen, die Einzelteile befinden sich in verschiedenen räumlichen Abständen zueinander und berüh- ren sich nie. Gerade wenn man mehrere Clips aus der Reihe gesehen hat, un- tersucht man bei jedem folgenen die Bilder genau, um möglichst frühzeitig zu erkennen, aus welchen Teilen sich die 4 zusammensetzen wird. In einigen Clips ist es nicht mehr als eine Sekunde, in der das Logo vollständig zu erkennen ist. Obwohl diese Clips allesamt sehr räumlich wirken und ihr Konzept speziell auf die räumliche Perspektive abzielt, ergibt es doch gerade im Moment des rich- tigen Blickwinkels eine Flächigkeit, die das gesamte Bild auf die Repräsentati- on der »4« zusammen zieht. Anschließend zerfällt das Bild buchstäblich wieder in seine Einzelteile und gibt der Szenerie wieder Raum, lässt einen erneuten il- lusorischen Raum erkennen, der dann auch für die kommende Ausstrahlung erhalten bleiben muss. Wie im vorhergehenden Tulse-Luper Beispiel beziehen sich die Zahlen einerseits auf das Bild, richten sich aber gleichzeitig als zweidi- mensionale Information allein an die Rezipienten.¯12 Das abschließende Beispiel ist fast so etwas wie der Film über das Innere einer Datenbank. In Scénario du film »Passion« (F/CH 1982, Jean-Luc Godard) sitzt 308 Florian Krautkrämer Godard vor einer weißen Leinwand und spricht darüber, was die richtige Form sei ein Drehbuch zu schreiben. Man habe ein paar Ideen und sitze vor dem Unsichtbaren, der berühmten weißen Seite, der weißen Seite von Mallarmé, sagt Go- dard. Er ist dabei von hinten zu sehen; gegen das helle Weiß der Leinwand gefilmt ist er nicht mehr als eine Silhouette. Dann steht er auf und macht in der Luft ein paar Schreibbewegungen, Abb. 11: Un coup de dés jamais n’abolira le auf dem flachen Bild sieht es so aus, als schrei- hasard be er auf die Leinwand. Man könne hier etwas hinschreiben, sagt er, oder hier. Etwas über Liebe oder Bewegung. Während er noch überlegt, was auf die Leinwand zu schreiben wäre, erscheinen kurz über diesem Bild in Weiß eingeblendet alle Zeichen, die man 1982 problemlos auf dem Videogerät wiedergeben konnte: die 26 Buch- staben, zehn Zahlen und ein paar Zeichen. Das ist das ganze Material, aus dem man die Wörter macht. Aber dann wischt er das beiseite: »Mais tu veux pas éc- rire, tu veux pas faire ça, tu veux voir, tu veux re-ce-voir« Und so blendet er von Zeit zu Zeit Ausschnitte aus seinem Film Passion (F/CH 1982) über die Sze- nerie. Scénario du film »Passion« ist auch ein Film auf der Oberfläche und über die Oberfläche. Zu einem großen Teil besteht der knapp einstündige Film aus der Silhouette Godards vor der weißen Leinwand – ein f laches Bild, beinahe ohne Raum und Hintergrund. Es sieht fast so aus, als sei Godard eine Art Projektor, der im Vordergrund des Bildaufbaus ab und zu seine Bilder aus Passion auf die Leinwand projiziert. Scénario ist beinahe schon wie ein Mallarmé-Text struk- turiert. Im Zentrum befindet sich die weiße Leinwand, von dort aus unter- nimmt man zeitliche Exkursionen an bestimmte Stellen des Films Passion, an denen entweder Monologe oder Filmausschnitte entstehen und kommt dann wieder zurück zur weißen Leinwand. Die Filmausschnitte werden häufig halb- transparent über das gesamte Bild geblendet. Da es um die Leinwand herum überwiegend dunkel ist, sieht man die Überblendungen eigentlich nur auf dem Weiß der Leinwand wirklich gut. So entsteht eine Art neues Raumverhältnis, denn die Ausschnitte, die er einspielt, erscheinen zwar auf der Oberfläche des Fernsehbildes, sind aber nur im Weiß der Leinwand, die sich in der Tiefe des Raumes befindet, gut zu erkennen. Scénario hat einen Hintergrund und der ist die Leinwand selbst. An diesem Ort kann er ein Bild gegen ein anderes set- zen, kann er die verschiedenen Elemente aufeinander beziehen. In dem Film gibt es damit ähnliche Beziehungen zwischen der Oberfläche des Bildes und Database Cinema? 309 seiner Tiefenillusion wie in den vorhergehenden (digitalen) Beispielen, da Go- dard die Ausschnitte nicht einfach nur einspielt und anschließend kommen- tiert, wie in einem gewöhnlichen Making-of. Das, was für gewöhnlich unter Database Cinema verhandelt wird, der Random Access, wird hier nicht transpa- rent gezeigt, sondern zugunsten einer Betonung der Oberfläche, auf der sich Godard als Steuerungsinstrument der Abfrage inszeniert. Und diese Oberflä- che, die sich betont zweidimensional gibt und auf der die einzelnen Objekte verteilt werden, ist es, die ich mit einer Datenbankästhetik in Verbindung brin- gen möchte. Dass Godard die weiße Seite Mallarmés anspricht, ist dabei kein Zufall, steht doch Mallarmé auch für die »Überführung des Wortes in den Raum« (Gwozdz 2002, o.S.), für die Zufälligkeit, Kinetik, Oberfläche; das Wort, das nicht mehr allein der Logik der Zeile folgt: Datenbank. In dieser Hinsicht wäre auch die Me- tapher des Database Cinema weiter fruchtbar zu machen, nicht allein in Bezug auf die Narration und die Möglichkeiten des Random Access, sondern auch im Hinblick auf die visuelle Ästhetik. Die Herausarbeitung der spezifischen Ober- f lächenästhetik, wie sie in den drei Beispielen skizziert wurde, kann sich da- durch auch von einer Interface-Ästhetik abgrenzen, wie sie sich in Rahmungen oder digital integrierten Schriften äußert. Diese Einflüsse hängen stark mit der visuellen Umgebung auf Computer- oder Smartphone-Bildschirmen ab, wohin- gegen das Database Cinema eine tiefergehende Veränderung beschreibt, die nicht auf einen bestimmten Faktor zurückgeführt werden kann. Deswegen kann Deleuze das Phänomen auch beschreiben, ohne dabei das Wort Daten- bank benutzen zu müssen¯13 und daher können Beispiele wie Mallarmé und Godard dafür genauso herhalten wie aktuelle digital produzierte Filme. Neben den oben angeführten und mit Datenbank umschriebenen Veränderungen in Bezug auf die Narration, Distribution und Rezeption, dienen die hier aufge- stellten Überlegungen einer Weiterführung der Metapher in den Bereich der Ästhetik, bei der sich die spezielle Datenbankästhetik in einer Betonung der Oberfläche des Bildes äußert. 310 Florian Krautkrämer Anmerkungen 01˘ Manovich geht es um eine medienspezifische Sprache (ebd. 237) und damit um ein sehr modernistisches Projekt – ebenfalls ein Grund, sich an Vertov zu halten, der ebenfalls be- müht war, das neue Medium Film von den Einflüssen der Literatur und des Theaters rein zu halten. Zu Beginn von der mann mit der kamera weisen Zwischentitel explizit darauf hin, dass der folgende Film ohne die Hilfe von Zwischentiteln, Story und Theater entstanden sei. Die reine Filmsprache könne man nur erreichen, indem man sie vom Theater und der Literatur trenne. Den Einwand, dass diese modernistische Ansicht ja inzwischen nicht mehr zeitgemäß sein könnte, kontert Manovich mit dem allerdings sehr faden Argument, dass man das zwar öffentlich verkünde, man es in Wahrheit aber trotzdem erwarte (ebd.). 02˘ Es handelt sich um die Filme a movie (USA 1958, Bruce Conner), film in Which there appear edGe letterinG, sprocket holes, dirt particles, etc. (USA 1966, George Landow) und ver- steckte catherine (D 1999, Gabi Horndasch). 03˘ Dies ist in Filmen der Fall wie GroundhoG day (USA 1993, Harold Ramis), the sixth sense (USA 1999, M. Night Shyamalan) und the others (USA/E/F/I 2001, Alejandro Amenábar). 04˘ Ein frühes Beispiel dafür ist the Blair Witch project (USA 1999, Daniel Myrick, Eduardo Sánchez), bei dem der fiktive Hintergrund der Filmgeschichte auf einer Internetseite veröf- fentlicht wurde. Das Soundtrack-Album, das zum Film veröffentlicht wurde und Tracks en- thielt, die nicht im Film zu hören waren, wurde als das Mixtape vermarktet, das man nach dem Tod eines der Protagonisten in seinem Auto fand. 05˘ »Auto-critique, scandal, and revelation of its machinery became new structural compo- nents of modern ideology [...]. The ideology does not demand that the subject blindly be- lieve it, as it did early in the twentieth century; rather, it puts the subject in the master po- sition of someone who knows very well that she is being fooled, and generously lets herself be fooled. [...] [T]he new materialism is based on oscillation between illusion and its de- struction, between immersing a viewer in illusion and directly addressing her. In fact, the user is put in a much stronger position of mastery than ever before when she is ›decon- structing‹ commercials, newspaper reports of scandals, and other traditional noninterac- tive media. The user invests in the illusion precisely because she is given control over it« (Manovich 2001, 209). 06˘ Jean Cayrol schrieb den Text zu nuit et Brouillard (F 1955), Marguerite Duras das Drehbuch zu hiroshima, mon amour (F/J 1959) und Alain Robbe-Grillet das zu l‘année derni- ère à marienBad (F/I 1961). 07˘ Thema des Films ist unter anderem der permanente Identitäswechsel des Protagonisten, der als Mitglied der kommunistischen Partei in Spanien im Untergrund arbeitet. 08˘ Beispielsweise toute la mémoire du monde (F 1956) über die französische Nationalbibliothek. 09˘ Beispielsweise mon oncle d‘amérique (F 1980). Database Cinema? 311 10˘ Der Begriff »Bildkompresse« stammt von Klaus Theweleit, er bezeichnet allerdings nicht allein die Überblendungen, sondern die Verdichtung der Bilder generell, beispielsweise auch durch Zitate oder Anspielungen. Und auch er bringt diese in Verbindung mit dem Gehirn, der »Hirnschaltung«: »ansonsten ist zu konstatieren, daß es diesem Kino wie kei- nem anderen gelingt, immer aus den Funken der Bilder Gedanken schlagen zu lassen, die im Einzelbild selbst nicht sind; die man mit dem Auge nicht sehen kann, obwohl man sie aus der Arbeit der Augen oder auch nur aus ihrem zerstreuten Hinsehen gewonnen hat; aus dem Start bestimmter Hirnschaltungen, die von den Montagen des Films angeworfen wer- den und sich nach seinem Ende auf die Außenwelt richten: sie sah (sieht) anders aus nach dem Zusammenstoß mit Godardfilm« (Theweleit 2003, 76). 11˘ Die Bilder haben eine Vorder- und eine Rückseite, schreibt Deleuze: da sind wir wieder beim Kino-Pinsel. Zwei Beispiele seien dabei kurz angerissen: für den Film le mystère picasso von Henri-Georges Clouzot (F 1956) wurde die Kamera hinter die Leinwand gestellt, auf der Picasso malte, filmte diese also von hinten, wodurch – das wird im Folgenden auch wichtig – die abgefilmte und die Leinwand, auf die projiziert wird, zusammen fallen. Und Godard hat bezüglich seines Film sauve qui peut (la vie), (f/au/Brd/ch 1980) gesagt, dass er eine Landschaft gerne von hinten filmen würde. Für Paech bedeutet das »hinter die Bilder kom- men«, auf eine andere, neue Art in die Bilder einzudringen (Paech 1989, 62). In passion tut Godard dies, indem er Gemälde als »tableau vivant« inszeniert – mit den neuen Displays, Screens und Interfaces haben wir ebenfalls Möglichkeiten, um in die Bilder auf eine ganz neue Art und Weise einzudringen. 12˘ Dies wird besonders in jenen Beispielen deutlich, in denen Menschen sich in dersel- ben Szenerie befinden wie die Fragmente der 4. Sie ignorieren entweder die einzelnen Bausteine, da sie für sie nichts bedeuten oder wundern sich darüber, da sie ihren Sinn nicht erfassen können. Die sinnstiftende Perspektive, aus der sich die 4 dann ergibt, bleibt allein den Zuschauern vor den Fernsehgeräten vorbehalten. 13˘ An einer Stelle spricht er jedoch von den Figuren, Gegenständen und Reden, die sich als Daten in die undurchsichtige Fläche der Leinwand einschreiben (Deleuze 1997, 341). Bibliografie Bolter, Jay David (2006) Transference and Transparency: Digital Technology and Remedia- tion of Cinema. In: Intermédialités 6 (Sonderausgabe »Rémédier«), S. 13-26 [http://cri.histart. umontreal.ca/cri/fr/intermedialites/p6/pdfs/p6_bolter_text.pdf]; letzter Aufruf: 15.01.2012. Cubitt, Sean (2004) The Cinema Effect. Cambridge (Mass.); London: MIT Press. Daly, Kristen (2010) Cinema 3.0: The Interactive Image. In: Cinema Journal 50,1, S. 81-98. 312 Florian Krautkrämer Deleuze, Gilles (1993) Brief an Serge Daney: Optimismus, Pessimismus und Reisen. In: ders., Unterhandlungen 1972-1990, Frankfurt/M: Suhrkamp 1993, S. 101-118. Deleuze, Gilles (1997) Das Zeit-Bild, Frankfurt am Main: Suhrkamp 1997. Ejchenbaum, Boris (2005) Probleme der Filmstilistik. In: Poetika Kino. Theorie und Praxis des Films im russischen Formalismus. Hrsg. v. Wolfgang Beilenhoff. Frankfurt/M: Suhrkamp 2005, S. 20-55. Elsaesser, Thomas (1998) Specularity and engulfment: Francis Ford Coppola and Bram Stoker‘s Dracula. In: Contemporary Hollywood Cinema. Hrsg. v. Steve Neale & Murry Smith. London, New York: Routledge, S. 191-208. Gwózdz, Andrzej (2002) Das Spektakel der Schrift im Monitorstadium des Films. In: Zwi- schen-Bilanz. Eine Festschrift zum 60. Geburtstag von Joachim Paech. Hrsg. v. Frank Furt- wängler / Kay Kirchmann / Andreas Schreitmüller & Jan Siebert. Uni-Konszanz (Online un- ter: [http://www.uni-konstanz.de/paech2002/zdm/beitrg/Gwozdz.htm]; letzter Aufruf: 15.10.2010. Hüser, Rembert (2010) Finding Openings with Opening Credits. In: Media, culture, and me- diality : new insights into the current state of research. Hrsg v. Ludwig Jäger, Erika Linz & Ir- mela Schneider. Bielefeld: transcript, S. 307-332. Kinder, Marsha (2002) Hot Spots, Avatars, and Narrative Fields Forever. Buñuel‘s Legacy for New Digital Media and Interactive Database Narrative. In: Film Quarterly 55, 4, S. 2-15. Lagesse, Cécile (2008) Still Life de jia Zhang-ke: le réalisme à l’âge numérique. In: Cahiers du cinéma 640, S. 79-81. Manovich, Lev (1998) Schreiben mit Multimedia, [http://www.heise.de/tp/r4/arti- kel/3/3159/1.html]; letzter Aufruf: 15.01.2012. Manovich, Lev (2001) The Language of New Media, Cambridge (Mass.); London: MIT Press. Marks, Laura (2002) Touch: sensuous theory and multisensory media. Minneapolis: Univer- sity of Minnesota Press. Paech, Joachim (1989) Passion oder die Einbildungen des Jean-Luc Godard. Frankfurt/M: Deutsches Filmmuseum (= Kinematograph Nr. 6). Rancière, Jacques (2007) The future of the image. London: Verso 2007. Schweinitz, Jörg (2006) Film und Stereotyp. Eine Herausforderung für das Kino und die Filmtheorie. Zur Geschichte eines Mediendiskurses. Berlin: Akademie 2006. Theweleit, Klaus (2003) Deutschlandfilme: Godard, Hitchcock, Pasolini: Filmdenken & Gewalt. Frankfurt am Main: Stroemfeld/Roter Stern 2003. Vertov, Dziga (1973) Kinoki – Umsturz. In: Schriften zum Film. Hrsg. v. Wolfgang Beilenhoff. München: Hanser 1973, S. 11-24. Vertov, Dziga (1973) Das Prinzip des »Kinoglaz«. In: Schriften zum Film. Hrsg. v. Wolfgang Beilenhoff. München: Hanser 1973, S. 28f. Database Cinema? 313 314 Christian Huberts / Robin Krause Datenbanken als Spielräume – »This is a path winding through a dimly lit forest« Die Datenbank ist die dominante kulturelle Form »The new media object consists of one or more inter- der Informationsgesellschaft und bildet nach faces to a database of multimedia material« Lev Manovich, gemeinsam mit den zur Prozess- Lev Manovich (2001, 227) ierung ihrer Daten angewandten Algorithmen, das Fundament aller digitalen Artefakte (vgl. 2001, 226). Wir begegnen ihr ebenso beim Durchforsten des Internets oder der heimischen Festplatten, sowie auch bei einer Wanderung durch die virtuellen Märchenwälder fantastischer Computerspiele. Die Datenbank ist ubiquitär ge- worden und mit ihrer Hilfe erklären wir uns die Welt und verleihen unseren persönlichen Erfahrungen Ausdruck. Digitale Foto- oder Musiksammlungen und viele andere Beispiele zeigen, dass wir in unserem Alltag bewusst und un- bewusst mit der Datenbank als kultureller Form spielen. In Anbetracht einer Welt, die im Zuge ihrer Digitalisierung zunehmend als Ansammlung von Daten entworfen wird, erscheint eine Auseinandersetzung mit der Funktionsweise und Ästhetik von Datenbanken daher mehr als notwendig. »[If ] the world appears to us as an endless and unstructured collection of images, texts, and other data records, it is only appropriate that we will be moved to model it as a database. But it is also appropriate that we would want to develop a poetics, aesthetics, and ethics of this da- tabase« (ebd., 219). Das an der Universität Hildesheim angesiedelte Forschungskolleg »Topogra- fie von Spielräumen« unter der Leitung von Dr. Mathias Mertens erforscht seit 2009 die räumliche Ästhetik von Computerspielen und setzt sich in diesem Zu- sammenhang ebenso mit der Bedeutung der Datenbank für die Topografie und das Ludische digitaler Spielräume auseinander. Die Arbeitsschwerpunkte lie- gen dabei einerseits auf der räumlichen Organisation von kulturellen Erinne- rungen und Diskursen in digitalen Spielwelten und ihren Datenbanken, sowie andererseits auf den durch das Spielen mit Datenbanken in unserer Alltags- und Arbeitskultur entstehenden Spielräumen. Im Folgenden wird ein erster Einblick in die Ergebnisse dieser Arbeit geliefert und die Datenbank als Objekt ludischer Räume näher beleuchtet. Anhand populärer Datenbanken und aus- Datenbanken als Spielräume 315 gewählter Computerspiele wird untersucht, wie das Verhältnis von Inhalt und Interface die Ästhetik der Datenbank definiert und ebenso ihr ludisches Poten- tial beeinflusst. Die Datenbank wird dabei stets als durch ein Interface vermit- telter Inhalt verstanden und ist außerhalb dieser hybriden Konstruktion nicht wahrnehmbar. Dabei gilt grundsätzlich, dass das Interface und der Inhalt maß- geblich formen, was der User als Datenbank erfährt und wie er mit ihr spielen kann. »[F]rom the point of view of the user‘s experience […] [databases] ap- pear as collections of items on which the user can perform various operations – view, navigate, search« (Manovich 2001, 219). Die Datenbank wird also in erster Linie aus der Perspektive des Users betrach- tet, der sie im konkreten Vollzug der Anwendungs- oder Spiel-Software als emergentes räumliches Ereignis im Zusammenspiel von Interface und Inhalt erlebt. So partizipiert der Spieler beispielsweise in Computerspielen nicht nur an einer Datenbank als emergenter Spielraum, sondern bewegt sich parallel dazu auf der Ebene der Software durch eine topografisch organisierte Daten- bank. Mit Hilfe eines Interfaces ruft er diese auf und stellt zwischen ihren In- halten logische Verknüpfungen her. »Datensätze, Dokumente oder Diskursele- mente haben Positionen oder Orte. Sie liegen in der Topografie eines Netzes oder einer Karte als Knoten vor, die durch Kanten verbunden werden, die der Benutzer […] einzeichnet« (Pias 2007, 414). Der Spieler begegnet der Datenbank also zur gleichen Zeit als einem technologischen Artefakt, das er konkret durch- sucht und bedient, und als einem Spielraum, den er performativ erfährt. Die- sem Doppelcharakter der Datenbankästhetik wird Rechnung getragen, indem einerseits phänomenologisch auf das Spielerlebnis Bezug genommen und an- dererseits die ontologische Eigenständigkeit des Untersuchungsgegenstandes nicht außer Acht gelassen wird. Eine scharfe Trennung der Untersuchungsper- spektiven ist in diesem Kontext weder stets gegeben noch in jedem Fall sinn- voll und macht – in begrenztem Rahmen – zuweilen einer produktiven analy- tischen Unschärfe Platz. Die Untersuchung beginnt dazu analog an den unscharfen Rändern einer Äs- thetik topografischer Datenbanken, also mit kulturgeschichtlichen Welt- und Datenbankmodellen, die als Vorläufer moderner Datenbanken gelten können: Die Karte und der Globus. Sie erlauben uns einen distanzierten und objektiven Blick auf die Erde und machen es möglich, die Welt mit einem Blick in ihrer Ge- samtheit zu erfassen. Mit Lev Manovich gesprochen sind Globen als auch Kar- ten kulturelle Formen. Sie sind allgemein gültige und für die Allgemeinheit verständliche Mittel, »to represent human experience, the world, and human existence in this world« (Manovich 2001, 215). Mit der Karte oder dem Globus halten wir die Welt sprichwörtlich in unseren Händen und können mit dem Zei- 316 Christian Huberts / Robin Krause gefinger auf Reisen gehen. In ihrer ursprünglichen Form, als von Künstlern oder Kartografen bemalte Pergamente oder Plastiken, wecken diese Weltmodelle unseren Entdeckergeist. Insbesondere die weißen Flecken und Fabelwesen an den Rändern mittelalterlicher und antiker Weltdarstellungen lassen uns von Abenteuern, verwunschenen Orten und versteckten Schätzen träumen. Über die Ränder hinaus führt ein Pfad durch einen schwach beleuchteten Wald. Google Earth Der auf das Jahr 1510 datierte Hunt-Lenox Globus weist mit dem Kommentar »HC SVNT DRACONES« auf die mögliche Präsenz mythologischer Riesenechsen im unerforschten Osten von Asien hin. Auf der rund 250 Jahre älteren Lon- doner Psalterkarte sind die Drachen am unteren Rand der Welt sogar bildlich dargestellt (Abb. 1). »Here be dragons« ist ein Ausspruch, mit dem englische Kartografen unerforschtes Terrain kennzeichneten. Er wird selbst heute noch etwa im Rahmen des OpenStreetMap-Projektes für jene Gebiete verwendet, die in der kollektiv erstellten Karte noch nicht verzeichnet sind. Die Bezeichnung dient hier jedoch – im Unterschied zu den Illustrationen der analogen Karten des Mittelalters – nicht der fantasievollen Ge- staltung des Unbekannten, sondern einzig der Abb.1 Markierung eines noch fehlenden Datensatzes. Im Zuge ihrer Digitalisierung erscheinen die Karte und der Globus zwar immer noch in ihrem alten Gewand, doch das Modell, das ihnen zu- grunde liegt, ist ein anderes geworden. Die analoge Karte folgt dem Prinzip der Linie, die eine ganze Welt erschafft, indem sie letzte- re umreißt und alles, was sie einschließt, in Re- lation zueinander setzt. Die stetig an Umfang gewinnende OpenStreetMap ist jedoch – eben- so wie die Kartendienste von Google und Micro- soft – keine Karte mehr im historisch tradierten Sinne. Sie folgt nicht mehr den von Kartografen gezogenen Linien, sondern zerlegt die Welt durch ein Raster in einzelne, voneinander abgetrennte Planquadrate (vgl. Wark 2007, 83). Jedes dieser Quadrate markiert einen eigenständigen Da- tensatz in einer Datenbank, dem bestimmte At- Datenbanken als Spielräume 317 tribute zugeordnet werden können. Am Beispiel von OpenStreetMap wird das besonders anschau- lich, da die Nutzer anhand eigener Eintragungen nachvollziehen können, dass die gezeigte Karte nicht gezeichnet, sondern erst in einem zweiten Schritt aus den in der Datenbank eingetragenen Daten generiert wird. OpenStreetMap und an- dere internetbasierte Kartendienste repräsen- tieren die Welt demnach nur vordergründig als Globus oder Karte. Hinter diesen vertrauten In- terfaces verbirgt sich eine Datenbank. Trotz des Abb. 2 Paradigmenwechsels vom Prinzip der Linie zur Logik der Datenbank stellt sich die Frage, wel- chen Einfluss Interfaces wie die Karte oder der Globus auf die Wahrnehmung von geographischen Datensammlungen wie OpenStreetMap oder Google Earth nehmen. In der digitalisierten Welt verbleiben sie als »cultural interfaces«. Sie erlauben es dem Nutzer auf vertraute Weise, also im Rahmen der Konventionen traditio- neller »cultural forms«, auf eine digitale Datenbank der Welt zuzugreifen (Ma- novich 2001, 92f.). So basiert die populäre Anwendung Google Earth zwar auf einer umfassenden Sammlung von Bild-, Geo- und zusätzlichen Indexdaten, er- scheint dem Nutzer jedoch in Form einer virtuellen Weltkugel (Abb. 2). Er kann diesen multifunktionalen Globus nach Belieben hin und her drehen, über ihn hinweg schweben und an detaillierte Ansichten heran oder aus ihnen hinaus zoomen. Auf diese Weise erhält er, mit Hilfe eines vertrauten Interfaces, Zugriff auf verschiedene miteinander verknüpfte objektrelationale Datenbanken und kann jene im Weltkugelformat scheinbar vollständig überblicken. Im Gegen- satz zum klassischen Globus, der nicht nur die Ländergrenzen, sondern stets auch seine eigene Begrenztheit aufzeigt, vermittelt Google Earth mit seinen Zoom- und Suchfunktionen einen allumfassenden Eindruck. Bewegt sich der Nutzer durch die Datenbank, wird ihm schnell deutlich, dass sich ein Großteil ihres Bestandes seinem Überblick entzieht. Was der Nutzer nicht in der Daten- bank dieser virtuellen Erdkugel finden kann, existiert für ihn auch nicht auf ihr. Die sprichwörtlichen Drachen gibt es schon schlicht deshalb nicht, weil sie keinen Datensatz in der Datenbank haben (vgl. Pias 2007, 404). Die Grenzen des virtuellen Globus, der sich unendlich aufzufalten scheint, werden dort deut- lich, wo man versucht, mit ihm zu spielen oder Spiele für ihn zu entwickeln. Spiele für Google Earth gibt es als so genannte Plugins. Wie in einem Tutorial zur Programmierung von Google Earth-Spielen beschrieben, funktionieren die 318 Christian Huberts / Robin Krause Spiele jedoch eher als Plugons. Sie sind nicht in die Datenbank integriert, sondern werden viel- mehr wie eine Folie darüber gelegt (vgl. Crabtree 2006). Statt auf die bestehende Datenbank zuzu- greifen, bedienen sich viele Google Earth-Spiele einer eigenen Datenbank, welche alle spielrele- vanten Informationen enthält. Die Daten von Google Earth fungieren in den meisten Fällen le- diglich als Ornamente. Die für die grundlegende Abb. 3 Visualisierung notwendigen Vektor- (Länder- grenzen, Verkehrsnetze etc.) und Rasterdaten (Satelliten- und Luftaufnahmen, Kartenmaterial etc.) bleiben im Verlauf der Spiele unveränderlich. Die Ästhetisierung der Datenbank durch die Spiele lässt sich deshalb am besten anhand der Topografie des im Zusammenspiel von In- terfacemetapher und Inhalten entstehenden Spielraums beschreiben. In Google Earth War (USA 2005, Mickey Mellen et al.), das eng mit dem Brett- spiel Risiko (Frankreich 1957, Albert Lamorisse) verwandt ist, wird der Globus beispielsweise durch die in einer externen Datenbank angelegten Ländergren- zen und Rohstoffvorkommen funktional überlagert. In dem Prototyp Battle- ships (USA 2007, Julian Bleecker) ist es hingegen ein einfaches Koordinatenra- ster, welches über einen Ausschnitt der virtuellen Weltkugel und damit über die eigentliche Datenbank gelegt wird. Für das Versenken gegnerischer Schiffe müssen hier, wie bei den verschiedenen analogen Vorläufern, die korrekten Po- sitionskoordinaten benannt werden. Der tatsächliche Inhalt von Google Earth bleibt somit von beiden Spielinterfaces unberührt und wird im Kontext seiner Umfunktionalisierung als Spielbrett allein auf seine grafische Oberfläche re- duziert. Die Topografie der so konstituierten Spielräume wird von den funktio- nalen Feldern des Spielbretts markiert und lässt die topografische Ordnung der Ausgangsdatenbank unverändert. Die Spielmechanik funktioniert damit weit- gehend unabhängig von den in Google Earth vorhandenen Datensätzen, wel- che vorwiegend in ornamentaler Funktion genutzt werden. Farbige Linien und Symbole markieren entweder besetztes oder zu eroberndes Territorium oder machen einen Teil der Meeresoberfläche durch ein aufgesetztes Koordinaten- system zum Schlachtfeld für ein abstraktes Flottenmanöver. Der Gegenpol einer solchen ludisch-funktionalen Überlagerung der Daten- bank durch ein Spielbrett ist ihre Verwendung als Spielteppich. In Monster Milktruck (USA 2008, Google) beispielsweise geht es mangels der Implemen- tierung einer Kollisionsabfrage oder einer Ausdifferenzierung des befahr- baren Untergrunds mit Vollgas im Milchlieferwagen immer geradeaus (Abb.3). Datenbanken als Spielräume 319 Querfeldein fährt der Spieler in drei Minuten von Braunschweig nach Magde- burg oder ebenso gut von Montreal nach Baltimore in derselben Zeit. Der In- halt der Datenbank ist bis auf die Bestimmung der Ausgangsposition für das Spiel nicht von Belang und somit austauschbar. Die f lache Topografie, über die wir als Spieler hinweg rollen, entsteht durch den undifferenzierten Umgang des Spielinterfaces mit den einzelnen Datensätzen. Sie werden zu einem rein ornamentalen Datenteppich verwoben. Eine solche Einebnung entspricht zwar dem Wesen der Datenbank, die selbst nicht zwischen ihren Inhalten differen- ziert, sie widerspricht aber den Prinzipien eines von Regeln definierten Spiel- raums. In Anlehnung an Roger Caillois Klassifizierung von Spielen ließe sich bei Google Earth War, Battleships und Monster Milktruck von einer durch »Lu- dus«- beziehungsweise »Paida«-Tendenzen dominierten Topografie des Spiel- raums sprechen (vgl. 1960, 27ff.). Während bei den ersten beiden Beispielen die Datenbank durch das Interface funktional überlagert wird und damit im Kontext des Spiels vom Spieler unberührt bleibt, kommt es beim letztgenann- ten Beispiel zwar zu einer direkten Berührung, diese jedoch ist für die Spielme- chanik irrelevant. Im Fall von Monster Milktruck stellt sich eine Anschlussfä- higkeit des Spielers an den von geographischen Datensätzen repräsentierten Spielraum wenn überhaupt durch die Interfacemetapher der Autofahrt her. Die mitschwingende alltägliche Bedeutung dieser Metaphorik bewirkt einen ak- tiven Abgleich des Spielers mit seinem eigenen kulturellen Gedächtnis. Ähnlich wie beim freien kindlichen Spiel auf dem Spielteppich bestimmt der Spieler sei- ne eigenen Regeln und differenziert selbstständig zwischen den ornamentalen Datenbankobjekten wie Straße, Stadt, Fluss oder ähnliches. Die Spiele funktionieren also weniger als Schnittstelle zur Datenbank. Eher er- innern sie an die Folien, die bei klassischen Videospielkonsolen auf den Bild- schirm geklebt wurden, um aus dem Tennis Court ein Fußballfeld werden zu lassen. Dieses Folienprinzip setzt jedoch insbesondere der in Google Earth inte- grierte Flugsimulator so geschickt und konsequent ein, dass er den Globus tat- sächlich mit wenigen Eingriffen wie aus der Cockpit-Perspektive eines Düsen- jets wahrnehmbar werden lässt. Mit Hilfe dieser ›Folie‹ kann die Spielerin über die Satellitenfotos der Datenbank und damit auch über das eigene Heimatland ›hinweg f liegen‹. Die so etablierte Interfacemetapher verwandelt den Finger auf der Landkarte zur Hand am Steuerknüppel. Wohin die Spielerin f liegt, liegt ganz bei ihr. Das Ziel ihrer Reise wie auch der Weg dorthin werden durch das Spiel nicht vorgegeben. Ihre Bewegungen werden also nicht durch die Spielme- chanik motiviert, sondern allein durch ihren persönlichen Spieltrieb (vgl. ebd., 28). Das kulturell kompatible Interface des Cockpits lässt die Datenbank in die- sem Fall tatsächlich zu einem Spielplatz werden. Die Spielerin verknüpft die 320 Christian Huberts / Robin Krause einzelnen Datensätze mit individuellen und kulturell geteilten Gedächtnisin- halten, beispielweise, indem sie die Strecke zu ihrem letzten Urlaubsziel nach- f liegt, über das eigene Wohnhaus hinweg oder durch den Grand Canyon hin- durch donnert. Die Datenbank wird für die als Pilotin agierende Spielerin zu einem navigierbaren Raum, in dem sie sich frei bewegen und selbständig ver- orten kann. Mit Mathias Mertens lässt sich davon sprechen, dass die Interface- metapher des Cockpits es der Nutzerin erlaubt, beim ›Cruisen‹ durch die Daten- bank jene Inhalte zu aktivieren, welche sich zu ihrem kulturellen Gedächtnis als anschlussfähig erweisen. Sie bietet ihr einen Raum für Selbstdarstellung und Selbsterkenntnis. Nur so kann die Spielerin sich zu den sonst vom Interface indifferent inszenierten Inhalten in Relation setzen und diese mit Bedeutung aufladen. Google Earth wird durch die Folie des Cockpits zu etwas, das Mertens als »Speicherraum-Spiel« bezeichnet. Darin geht es weder um »Navigation« noch »Raumunterwerfung«, sondern einzig darum einen »zweiten Raum« zu entdecken, nämlich »die Datenbank hinter dem Interface« (vgl. 2007, 52). Die Datenbank von Google Earth entdecken viele Spieler auch dort, wo sich der eigentliche Spielraum abseits der programmierten Anwendung manifestiert. Bei den zahlreichen und in der Google Earth-Community beliebten Such- und Quizspielen dient die Software in erster Linie als Hilfsmittel. Ein Spielleiter stellt hier beispielsweise die Frage nach den Koordinaten eines bestimmten Ortes, den er in Form eines Rätsels umschreibt oder anhand eines Fotos prä- sentiert. Die Spieler begeben sich dann mit der Hilfe von Google Earth auf die Suche nach den beschriebenen Plätzen und präsentieren als Beweis ihres Er- folges ein Bildschirmfoto samt der korrekten Koordinaten. Die zielgerichtete Suche nach konkreten Beständen in der Datenbank stützt sich auf ihr grund- legendes Interface : die Suchmaske. Vom Spieler vollzogene Suchbewegungen können in Form einer virtuellen Schnitzeljagd auch noch narrativ aufgeladen werden. Der Spieler folgt dann einer für ihn gelegten Spur und verknüpft die von ihm angesteuerten Datensätze zu einer zusammenhängenden Erzählung. Diese Narration ist allerdings nicht bereits in der Datenbank angelegt, sondern stellt sich erst durch die Aktionen und Assoziationen des Spielers her. Jener markiert die Topografie des Spielraums in diesem Fall durch die beim Durchfor- sten der Datenbank entweder aufgelesenen oder fallen gelassenen mentalen ›Brotkrumen‹ also selbst. Betrachtet man die Topografie des Spielraums Google Earth im Zusammenhang mit den vorgestellten Beispielen und Überlegungen, so wird deutlich, dass die Spiele die Datenbank entweder ornamental gebrauchen, funktional überla- gern oder gänzlich abseits von ihr stattfinden. Wir spielen also nicht mit dem Inhalt einer globalen Datenbank, sondern auf deren Interface, dem Globus, Datenbanken als Spielräume 321 welcher wiederum von den verschiedenen Spielinterfaces instrumentalisiert und überlagert wird. Die eigentlichen Inhalte, also die Datensätze von Google Earth, sind für die beschriebenen Spiele nicht von Bedeutung. Eine solche kön- nen sie im Rahmen ihrer Interfaces nur dort erlangen, wo sie sich im Kontext eines Speicherraum-Spiels als anschlussfähig an das kulturelle Gedächtnis des Spielers erweisen oder von diesem in einer persönlichen Suchbewegung mit- einander verknüpft werden. Die eigentlich ›f lache‹ Topografie der Datenbank als Spielraum gewinnt also allein durch die Bewegungen des Spielers an Kontur und ›Tiefe‹. Die Google Earth-Spiele machen deutlich, dass eine Ansammlung von Daten als Spielwelt nicht genug ist, solange das Interface, das sie zugäng- lich macht, den Aktionen und Assoziationen des Spielers keinen (Spiel-)Raum bietet. Dies kann nur dort geschehen, wo die Datenbank Einfluss auf die Topo- grafie des Spielraums nimmt und der Spieler das Schicksal der Daten der Welt tatsächlich in die Hände nehmen muss. Fate oF the World Das strategische, rundenbasierte Kartenspiel Fate of the World (GB 2011, Ian Roberts et al.) versetzt den Spieler in die Rolle des Präsidenten einer suprana- tionalen Umweltorganisation. Mit der Hilfe von weltweit agierenden Agenten muss er beispielsweise die regionale Trinkwasserversorgung sichern oder den Analphabetismus bekämpfen. Darüber hinaus gilt es den Klimawandel auf in- ternationaler Ebene aufzuhalten und die Versorgung mit Öl in der Übergangs- phase zu alternativen Energiequellen sicherzustellen. Die Optionen, die dem Spieler dafür zur Verfügung stehen, sind allerdings auf eine Hand von Spiel- karten reduziert, mit denen sich bestimmte variable Daten gezielt beeinflus- sen lassen. Die rundenweise eingesetzten Karten reichen in ihrer Funktion vom Militäreinsatz über die Aufforstung von bedrohten Wäldern und die Förderung von Elektro-Mobilität bis hin zur Bildungsinitiative. Sie haben im Rahmen ver- schiedenster Kombinationen unterschiedliche direkte und indirekte Folgen für die regionale sowie globale Entwicklung einzelner Datensätze. Die vom Spiel verwendeten Rechenmodelle stützen sich dabei auf wissenschaftliche Vorher- sageverfahren zur klimatischen, ökonomischen und ökologischen Entwicklung der Welt. Alle Variablen verhalten sich in Relation zueinander. Fehlt es in Euro- pa an Energie, sinkt auch die Wirtschaftskraft, wächst die Arbeitslosigkeit und der Stabilität von Nachbarregionen droht ebenfalls Gefahr. Die Auswirkungen der eingesetzten Karten beziehen sich also stets auf die interdependenten Da- tensätze der Datenbank des Spiels. 322 Christian Huberts / Robin Krause Wie schon bei Google Earth erscheint die Daten- bank auch bei Fate of the World im Kontext ihres Interfaces als Globus, welcher es dem Spieler er- möglicht, den Überblick über das virtuelle Mo- dell der Welt als Datenbank zu bewahren. Doch im Gegensatz zu Googles Weltkugel macht das Interface von Fate of the World die Inhalte der Datenbank nicht nur abrufbar, sondern ermögli- cht es dem Spieler auch konfigurativ auf die Da- ten einzuwirken. Die negativen und positiven Konsequenzen seines Eingriffs werden ihm auf der Oberfläche des Globus durch schmelzende Pole, nachwachsende Regenwälder oder zuneh- mende Verwüstung konkret vor Augen geführt. Zudem gibt ihm das Interface die Möglichkeit in Form von Tabellen und Diagrammen einen de- taillierten Blick auf die Entwicklung der Daten zu werfen und damit die Folgen seiner Initiati- ven zu bewerten (Abb. 4). Der Spieler sieht sein Abb. 4 persönliches Handeln und die von ihm getrof- fenen Entscheidungen somit stets in direkter Relation zu der sich verändernden Datenbank, deren aktualisierte Daten wie- derum sein weiteres Vorgehen beeinflussen. Dieses intime Wechselspiel zwi- schen Spieler und Spieldatenbank lässt sich als das zentrale Moment der Spiel- mechanik von Fate of the World ausmachen. Die Topografie dieses Spielraums unterscheidet sich demnach von jener der Google-Earth-Spiele darin, dass sich die Datenbank in ihr weder allein als ornamentale Kulisse noch als Speicher kultureller Verweise manifestiert, sondern vom Spieler als Bestandteil eines komplexen Spielsystems erfahren wird. Ein System, in dem er sich tatsächlich bewegen und zu dem er seine persönliche Spielpraxis immer wieder ins Ver- hältnis setzen muss. Während Google Earth also eine Datenbank ist, die durch ihr Interface als Weltkugel visualisiert wird, konstituiert sich Fate of the World als ein auf Datenbanken basierendes Modell der Welt, dessen Interface es uns erlaubt, mit seinen Datensätzen zu spielen. Wollen wir noch direkter in Kon- takt mit einer Datenbank der Welt kommen, müssen wir die Ebene der Soft- ware verlassen und uns mit dem Global Positioning System (GPS) -Empfänger in der Hand zum Geocaching in den Wald aufmachen. Datenbanken als Spielräume 323 Geocaching Im Gegensatz zum Auffinden einer bestimmten Position bei einem Google Earth gestützten Geographiequiz, markieren die Zielkoordinaten beim Geoca- ching nicht das Ende, sondern den Beginn einer Spielsession. Das grundlegen- de Spielprinzip des Geocaching ist das der Schatzsuche. Anstelle des X auf ei- ner Karte, welches den Schatz markiert, stehen den Spielerinnen jedoch nur die durch zwei Zahlenwerte angezeigten GPS-Koordinaten zur Verfügung. Die Grundlage für das Auffinden eines Schatzes bildet also das Global Positioning System, das im Zusammenspiel mit einem Kartenbezugssystem die gesamte Welt in eine auf Koordinaten basierende Datenbank verwandelt. In dieser wie- derum sind all jene Orte, die als Datensätze in ihr präsent sind, zu finden, ohne dass wir aktiv nach ihnen suchen müssen. Letzteres übernimmt die Suchmas- ke des Navigationssystems, das uns in einer fremden Stadt zielgerichtet zum nächsten Restaurant oder sogar durch das örtliche Museum lenkt. Die Navi- gation und Orientierung durch das Lesen von Karte und Kompass erscheint in Anbetracht derartiger Datensammlungen und Suchverfahren als obso- let gewordene Kulturtechnik. Stattdessen folgen wir einem durch das Inter- face vorgegebenen Pfad. Selbst ein Grimm‘scher Märchenwald wird dabei auf ein Raster immer gleicher Planquadrate reduziert. Das klar ausdifferenzier- te Straßennetz ist im Vergleich zum Wald allerdings ein weitaus dankbarerer Datenbestand für die kartografisch visualisierten Datenbanken der Navigati- onssysteme. Gerade die inhärente Widerständigkeit des Waldes gegen seine Digitalisierung macht ihn wiederum zum idealen Spielfeld für das Geocaching. Wo moderne Handys und Navigationssysteme auf Grund mangelnder Daten und schlechten Empfangs als Interfaces versagen, kommen speziell für die glo- bale Schatzsuche entworfene Geräte wie beispielsweise der Geomate.jr oder der Garmin eTrex H zum Einsatz. Diese verzichten konsequenterweise auf die Karte als Interface und greifen auf einen einfachen Kompass und die exakte An- gabe von Positionskoordinaten zurück. Die Leistungsfähigkeit des Empfängers stellt eine zentrale Bedingung dar, um auch noch unter einem dichten Blätterdach GPS-Signale und damit die eige- ne Position ermitteln zu können. Wälder weltweit dienen so als beliebte Orte, um die so genannten Geocaches zu verstecken. Die Koordinaten dieser Verste- cke werden dann samt einer kurzen Beschreibung auf der Homepage www.ge- ocaching.com oder ähnlichen Seiten ins Internet gestellt. Ein Geocache besteht meist aus einem wasserdichten Behältnis, in dem sich ein Logbuch und ver- schiedene Tauschgegenstände befinden. Ein gefundener Cache wird nicht ent- fernt, sondern nach der Eintragung in das Logbuch und dem Austausch von Ge- 324 Christian Huberts / Robin Krause genständen erneut versteckt. Der Geocacher wird so, ausgestattet mit einem entsprechenden GPS-Gerät, zu einem Schatzsucher im dichten Unterholz des Waldes. Die Topografie des Spielraums, in der der Spieler sich auf der Suche nach dem Geocache bewegt, konstituiert sich aus der Überschneidung der Rasterdaten- bank des Navigationssystems und den realweltlichen Gegebenheiten einer sie umgebenden Landschaft. Sie ist von den Widersprüchen zwischen der klaren Grenzziehung des digitalen Rasters und den vom Spieler herzustellenden ana- logen Verknüpfungen zu seiner Umwelt geprägt. In dieser muss er sich aber auf der Suche nach dem Geocache immer wieder verorten, um sich in dem so kon- stituierenden Spielraum überhaupt orientieren zu können. Der Spieler muss sich also stets seinen eigenen Weg durch das Dickicht des Waldes suchen, an- statt vorgezeichneten Pfaden zu folgen. Erzählt er später anderen von seiner Reise, so wird sich diese Erzählung nicht entlang des Datenbankrasters bewe- gen oder von der Positionierung einzelner Datensätze in einer bestehenden Datenbank handeln. Vielmehr wird all das, was abseits davon liegt – also die landschaftlichen Besonderheiten, überwundenen Hindernisse und gemachten Umwege – zu den zentralen Momenten der Erzählung und zu einem Teil der ei- genen Erinnerung. Die vom GPS-Interface gestützte Schatzsuche wird so zu ei- ner ganz persönlichen Abenteuergeschichte des Spielers. Letztere beginnt erst dort richtig, wo er in der weglosen Wildnis nach einem Pfad sucht, der auf kei- ner Karte verzeichnet ist oder das GPS-Signal zu schwach wird, um seine Po- sition geschweige denn die des Ziels zu bestimmen. Der f lackernde Pfeil des GPS-Geräts weist ihm nur noch sporadisch die Richtung – wie verstreute Brot- krumen – während er einem dämmrigen Pfad folgt, der ihn noch tiefer in ei- nen dunklen Wald führt. Zork Von der GPS-Schnitzeljagd im heimischen Forst »To the north a narrow path winds hin zum Erkunden virtueller Wälder im Com- through the trees« puterspiel ist es kein großer Schritt. Denn auch Zork Adventures sind, so stellt Claus Pias fest, »eine positionale Ordnung der Wissensobjekte, zwi- schen denen es Links herzustellen gilt« (2007, 415). So durchqueren wir beim Spielen – ganz ähnlich wie beim Geocaching – nicht nur den Raum des Spiels, sondern partizipieren gleichzeitig an einer räumlich organisierten Datenbank. Der durch Koordinaten markierte Cache weicht lediglich einem adressierten Datenbanken als Spielräume 325 Abb. 5 und verlinkten Datenbankobjekt, das vom Spieler in der Topologie des Spiels gefunden und aktiviert werden muss. Doch gerade am Raum des Waldes zeigt sich deutlich, dass die Ästhetik der Datenbank als Spielraum im tatsächlichen Vollzug des Computerspiels sehr unterschiedlich ausgeprägt sein kann und we- sentlich ins Ludische eingreift. Denn ebenso nimmt die Räumlichkeit des Spiels erst in der vom Interface und dem Inhalt der Datenbank geprägten Partizipati- on des Spielers eine konkrete Form an. »Rather than considering only the topol- ogy, geometry, and logic of a static space, we need to take into account the new way in which space functions in computer culture – as something traversed by a subject, as a trajectory rather than an area« (Manovich 2001, 279). Wagen wir also einen weiteren Schritt nach Norden – hinein in die Datenbank von Zork (USA 1980, Tim Anderson et al.). Wenn wir in dem klassischen Text-Adventure nördlich des weißen Hauses den Wald betreten, stehen wir auf einem Pfad, der von Süden aus weiter nach Nor- den verläuft. Wir können ihn in Richtung Westen und Osten verlassen, aber das Spiel wird uns dann lediglich mitteilen, dass wir uns jetzt in einem Wald befin- den: »This is a forest, with trees in all directions« (Zork). Versuchen wir weiter- zugehen, stoßen wir auf dichtes Unterholz und müssen ziemlich bald wieder umkehren. Früher oder später stehen wir wieder auf jenem Pfad, der von Süden 326 Christian Huberts / Robin Krause Abb. 6 nach Norden durch den Wald führt. Folgen wir ihm, stoßen wir schließlich auf einen besonders großen Baum mit niedrig hängenden Ästen, den particularly large tree (Abb. 5). Von diesem besonderen Baum abgesehen, gehört der rest- liche Wald von Zork in Claus Pias‘ Worten zur »Welt der Zwischentexte« und ist reine »Literatur« (2007, 405). Er reduziert sich auf ein zusammenfassendes Objekt – genannt forest oder trees – und ist nur rudimentär von der Spielerin abzufragen. Der Wald ist ein reiner Text, der nicht oder nur sehr eingeschränkt andere Objekte in der Datenbank adressiert und damit genauso gut in einem Buch aufgehoben wäre. Zwar ist er ebenfalls ein Teil der Datenbank, aber kaum ein Teil der Mechanik des Spiels. Auf den Befehl examine folgt ein schlichtes: »There‘s nothing special about the forest« (Zork). Den particularly large tree am Wegesrand können wir, im Gegensatz zu seinen rein literarischen Kollegen, nicht nur untersuchen, sondern auch erklimmen. In seiner Krone, die ebenfalls ein Objekt der Datenbank darstellt, finden wir sogar ein spielrelevantes Item – ein Kristall-besetztes Ei. Kurz: Der particularly large tree ist – im Gegensatz zum forest – von der Spielerin mit verschiedenen Parser-Befehlen wie examine, kick und climb individuell aufrufbar. Er gewinnt damit eine gewisse Taktilität und eigenständige Ästhetik, tritt aus der ano- Datenbanken als Spielräume 327 nymen Masse des im Text behaupteten Waldes klar heraus. Und er adressiert außerdem weitere spezifische Objekte und ist dadurch ein aktives Element der Datenbank, der Spielmechanik und des Raums von Zork. Dieser Baum ist damit der einzige Baum des ganzen Spiels, das einzige Element des Waldes, das tat- sächlich eine ästhetische Dimension besitzt, heraustritt und sich über das Par- ser-Interface ludisch-taktil erfahren lässt. Denn, wie es Claus Pias passend for- muliert: »Nicht alle Wörter in den Texten adressieren Objekte, aber spielbar ist nur, was eine Adresse hat« (2007, 405). Befreit man den Wald von Zork von allen Redundanzen, den spielmechanisch inaktiven Elementen der Datenbank, bleiben nur noch der Pfad, jener beson- ders große Baum und eine Waldlichtung übrig. Auf einer Karte der Welt von Zork gestaltet sich das Ganze, wie Claus Pias ganz richtig feststellt (vgl. 2007, 410), als Graph (Abb. 6). Ein Netzwerk aus Texten, das durch direkte Links oder, um die wirksamere Metapher des Spiels zu benutzen, Pfade verbunden ist. Die Datenbank ist nur entlang dieser linearen Pfade abzufragen. Was außerhalb liegt, bleibt redundant, inaktiv, tot. »Here be dragons« könnte ebenso gut an den Rändern der Datenbank von Zork geschrieben stehen. Denn, so Claus Pias weiter: »Dass die Welt des Spiels notwendigerweise eine relationale Datenbank ist, hat – schon aus Gründen der Endlichkeit von Speichern – zur Folge, dass das, was keinen Datensatz hat, auch nicht existiert« (2007, 404). Für Zork bedeutet das ganz konkret, dass nichts existiert, was nicht auf dem Pfad liegt. Kaum verwunderlich also, dass Zork – The Great Underground Empire – zum größten Teil unter der Erde, in den engen Tunneln eines Dungeons, spielt. Das Höhlenverlies als ein Raum, der mitsamt seiner besonderen Eigenschaften – eng, dunkel, labyrinthisch – bestens im kulturellen Gedächtnis der Spieler ver- ankert ist. So beseitigt bereits die Wahl der Raum-Metapher von vornherein jede Redundanz, weil außerhalb der Gänge durch solides Gestein kein Spie- ler mehr sein kann und damit keine Datenbank mehr sein muss: »There is a wall there« (Zork). Die notwendige Begrenztheit der Datenbank wird durch die Grenzen der Höhle ästhetisch passend aufgefangen. Der Dungeon erweist sich also gegenüber dem Wald als die passendere In- terfacemetapher zu der Datenbank von Zork – einem Spiel, in dem es darum geht, die linearen Verknüpfungen der Kerne eines Graphen in der korrekten Reihenfolge nachzuvollziehen. Bereits das erste Text-Adventure Advent (USA 1976, William Crowther) – auch Colossal Cave genannt – emergierte aus dem glücklichen Zusammentreffen von professionellen Informatikkenntnissen und Freizeit-Höhlenforschung in seinem Programmierer William Crowther. Das Mammoth-Tropfsteinhöhlensystem im US-Bundesstaat Kentucky, das für den Spielraum von Advent Pate stand, stellt einen prototypischen, diskreten Da- 328 Christian Huberts / Robin Krause tenbestand dar und ist damit als Raum ideal für das Colossal Cave Adventure. Für die bestehende Topografie aus distinkten Höhlenräumen müssen nur noch – durch Adressierung – verbindende Gänge geschaffen werden. Die kulturelle Erinnerung an Höhlen und Verliese aus Fantasy-Literatur und Pen&Paper-Rol- lenspiel tut ihr Übriges, um den Dungeon als Interface für den Graphen eines Text-Adventures plausibel zu machen und eine glaubwürdige Ästhetisierung der Datenbank zu bieten. Der Raum des Waldes kann hingegen weder als Element der Datenbank noch als Interface für die Datenbank von Zork überzeugen. Zu wenige Algorithmen verleihen der rein textuellen Beschreibung spielerische Tiefe. Zu stark bürstet die lineare Raumlogik von Zork die inhärente Kontingenz des Waldes gegen den Strich. Hinkende Metaphern, wie das dichte Unterholz, werden bemüht, um den Bewegungsradius der Spielerin und damit auch die Größe der Daten- bank künstlich einzuschränken. Und die absolute Homogenität der Waldin- stanzen ermöglicht es nur kurzzeitig, die Orientierung zu verlieren. Denn, so Claus Pias, »[d]ie Freiheitsillusion des Adventures besteht darin, dass es die- se Grenze von Literatur und Datenbank verwischt, oder anders: dass es nur zur Wahrnehmung dessen instruiert, was auch Objekt ist« (2007, 405). Der Wald wird also auf den kleinsten gemeinsamen Nenner reduziert, ohne dabei auf die Erhaltung der räumlichen Ästhetik des Waldes Acht zu geben. Zork irritiert da- mit das kulturelle Gedächtnis der Spielerin und all jener Einträge darin, die mit der Bewegungsfreiheit und den räumlichen Eigenschaften des Waldes – groß, unübersichtlich, unwegsam – zu tun haben. Es bleibt bei der literarischen Sug- gestion eines Waldes, für die Raumlogik konsequenzlos und für die Spielme- chanik irrelevant. Bedenkt man, was das Fantasy-Genre, Märchen und Mythen noch alles über den Wald zu erzählen hätten, geht Zork mit dem Anzapfen der kulturellen Er- innerung der Spielerin nicht sonderlich kreativ um. Keine Brotkrümel, die uns den Weg weisen. Keine Irrlichter, die uns tiefer in den Wald locken. Und kein großer böser Wolf, der uns auflauert. Erst in der Dunkelheit des Dungeons war- tet der Grue und frisst uns, sollten wir die Laterne vergessen haben. Der Wald in Zork ist hingegen geradliniger und langweiliger als jeder niedersächsische Mo- nokultur-Forst. Ihm geht jede Stimmung ab. Wir erinnern uns: »There‘s noth- ing special about the forest« (Zork). Der Forst von Zork besitzt lediglich die Äs- thetik eines Pfades und kann somit von der Spielerin nicht überzeugend als Wald erfahren werden. Es bleibt bei einem Stück nüchterner Prosa, der redundanten Beschreibung eines Raums »Wald« in der Datenbank. Was die Existenz des Waldes in der Da- tenbank verspricht, beißt sich mit der Realität des Spiels und es bedarf der In- Datenbanken als Spielräume 329 terfacemetapher des Pfades, der geradlinig durch den Wald führt, um diese Ir- ritation zu korrigieren. Das ist die Datenbank-Ästhetik des (Text-)Adventures: Daten als Randbewuchs eines informatischen Trampelpfads, genannt Compu- terspiel. Fable Fast 30 Jahre später ist der Wald der Datenbank diversiver und dichter gewor- den. Nicht mehr nur Texte, sondern Filme, Grafiken, Sounds, Musik, Polygone und Animationen bewuchern stetig wachsende Datenträger. Wald muss nicht mehr literarisch beschrieben, sondern kann multimedial repräsentiert wer- den. Dem Action-Rollenspiel Fable (GB 2004, Peter Molyneux) steht dafür das ganze Potential des »navigable space« (2001, 269), wie Lev Manovich den eu- klidischen Koordinatenraum moderner Computerspiele bezeichnet, zur Verfü- gung: »[N]avigable space can legitimately be seen as a particular kind of an in- terface to a database […] a cultural form in its own right« (ebd., 279). Und tatsächlich präsentiert sich uns der Wald von Fable in all seiner audiovisu- ellen, dreidimensionalen Pracht. Nicht mehr nur ein knappes »this is a forest« (Zork) belebt die Szenerie, sondern dutzende anschaulich modellierte und tex- turierte Bäume. Hinzu kommen sporadischer Bodenbewuchs, feuchter Nebel zwischen den hohen Tannen und eine atmosphärische Geräuschkulisse, die klar machen wollen: Dieser Raum ist ein Wald. Doch beim näheren Blick fallen weitere Details auf: Eine leere und breite Grün- fläche, die sich durch den Wald zieht. Lattenzäune, ruinöses Gemäuer und große Findlinge zu beiden Seiten der langgezogenen Lichtung. Ein Blick auf die schematische Karte am rechten oberen Bildrand bestätigt schließlich, was die polygonale Geometrie bereits andeutet. Mitnichten bewegen wir uns durch ein offenes Waldgebiet. Die Kante des Graphen hat nun zwar ein gewisses Volu- men angenommen, verläuft aber so streng linear wie schon beim Text-Adven- ture. Wir wandern in einem eng begrenzten, räumlichen Schlauch oder Tunnel, der lediglich von Wald umgeben ist (Abb. 7). Auf die Frage, ob wir diesen tun- nelartigen Pfad verlassen können, ließe sich mit Zork polemisch verneinen: »There is a wall there« (Zork). Betrachten wir die Karte der Welt Albion ge- nauer, zeigt sich, wie schon beim Text-Adventure, ein System von linearen Pfa- den (Abb. 8). Die großen Wälder der Landkarte sind nur eine Illusion. Der Wald von Fable und seine Bäume sind redundante Datenornamente eines navigier- baren Tunnelraums. 330 Christian Huberts / Robin Krause Abb. 7 Wenig hat sich also seit Zork getan. Immer noch bewegen wir uns von Kern zu Kern auf den etwas breiter gewordenen Kanten eines Graphen. Die Datenbank ist jetzt umfangreicher, aber auch in Fable können wir sie nur entlang linearer Pfade aktivieren. Wo sich das Adventure-Genre noch stets mit Sätzen wie »Das funktioniert so nicht!« aus der Affäre ziehen konnte, kommt das moderne 3D- Action-Adventure ins Wanken. Alles, was nicht durch die Spielmechanik in ir- gendeiner Weise adressiert ist, muss notdürftig hinter Mauern, Zäunen und Steinen vor den Manipulationsversuchen der Spielerin geschützt werden. Der »navigable space« (Manovich 2001, 269) von Fable bildet also zu einem Großteil der Daten keine ludische Schnittstelle, sondern begegnet uns als Trennschicht zwischen Spiel und Datenbank. Wie ein Hybrid aus Museum und Geisterbahn erlaubt uns Fable nur Nähe und Zugriff zu den Daten, die bewusst entlang der Schiene platziert liegen. Da unser muskelbepackter Held nicht in der Lage ist über einen einfachen Lattenzaun zu klettern, können wir den Wald also diesmal nur durch unsichtbare Wände hindurch sehen. Wir betrachten ein Panorama des Waldes, können aber nicht in ihn und seine Stimmung herein- treten. Datenbanken als Spielräume 331 Abb. 8 Doch wo uns Zork erklären konnte, dass an seinem Wald sowieso nichts Beson- deres ist, weckt der aufwendig modellierte Forst in Fable stärkere Begehrlich- keiten. Denn diesmal ist der Wald von beeindruckender optischer Prominenz und damit tatsächlich von Interesse für die Spielerin. Fable erscheint als ein »Speicherraum-Spiel«, das wir »spielen, um zusehen zu können«. Es ist bis zum Rand gefüllt mit Klischees und Anspielungen auf Fabeln und Volksmärchen, eine »Datenbank der kulturellen Sozialisation« (Mertens 2007, 53). So, wie wir in einer schicken Karre durch die urbane Kultur von Liberty City in Grand Theft Auto IV (GB 2008, Leslie Benzies et al.) cruisen können, lädt uns die Datenbank von Fable dazu ein, auf den Spuren von Helden, Hänsel, Gretel und Rotkäppchen zu wandern. Und wir würden gerne dieser Versu- chung nachgeben, den sicheren Pfad zur Großmutter verlassen, uns im dunk- len Wald verlaufen und schließlich dem großen bösen Wolf begegnen. Nur: Fa- ble und sein surrealer Schlauch-Raum lassen uns nicht. Das Spiel weckt mit der rein ornamentalen Verwendung seiner Datenbank Erwartungen und Bedürf- nisse, die sein Raum funktional nicht erfüllen kann beziehungsweise will. Der große böse Wolf, er begegnet uns schließlich im Dutzend, aber nicht im dich- ten Wald, sondern mitten auf dem zivilisierten Pfad (Abb. 9). Wie Mathias Mer- tens richtig feststellt, findet der Schrecken des Computerspiels hauptsächlich in umfassend rationalisierten Räumen statt: »War in der Literatur der europä- ischen Romantik des 18. und 19. Jahrhunderts der Wald mit seiner zivilisations- 332 Christian Huberts / Robin Krause losen Dunkelheit ein kollektives Schreckensbild, […] so lauert das Grauen des Ego-Shooters des 21. Jahrhunderts im vollständig durchzivilisier- ten Raum« (2007, 48). Für Fable musste der Wald also erst gründlich zivilisiert werden, um den ra- tionalen Anforderungen des Computerspiels zu genügen. Fable nimmt seine Datenbank nicht ernst. Das Spiel nutzt den reichen Fundus stereotyper My- thologie allein, um seine Spielmechanik mit ge- Abb. 9 mütlichen, weil wohl bekannten Ornamenten zu schmücken. Der Wolf ist böse, darum ist er ein Gegner und muss vernichtet werden. Das Klischee bietet eindeutige Orientie- rung für den Spieler. Der lange Pfad durch den Wald hat lediglich den Zweck Zeit zu schinden und die funktionalen Kerne des Spiels ausreichend voneinan- der zu distanzieren. Einmal durchschritten, ist er redundant geworden und kann fortan durch Teleportation übersprungen werden. Kaum ein Weg in Fa- ble muss also mehr als einmal gewandert, kein Teil der Datenbank mehr als ein- mal aufgerufen werden. Fable öffnet uns nicht den Raum des Märchens, son- dern erzählt uns ein Märchen von seinem Raum. Es lässt sich festhalten, dass die Datenbank seit Zork umfangreicher geworden ist und der Pfad zwischen den aktiven Teilen der Datenbank etwas breiter. Al- lerdings lässt sich ebenfalls feststellen, dass die grundlegende Raumlogik seit Zork – der Graph – sowie der Umgang mit der Datenbank nahezu unverän- dert geblieben sind. Bei Fable kommt noch ein weiteres Phänomen hinzu: Der Umfang und der Detailgrad der ornamentalen Datenbankelemente wecken die Aufmerksamkeit des Spielers, die sich im Text-Adventure noch durch einfaches Auslassen verhindern ließ. Aber der Wald in Fable fordert durch seine gut sicht- bare Präsenz zum Erkunden auf. In Anbetracht der räumlichen Grenzen und der fehlenden spielmechanischen Funktion des Waldes, muss das Spiel den Spieler durch visuelle Metaphern von ihm fernhalten. Doch die Datenbanken in Com- puterspielen wollen räumlich und ludisch-taktil erkundet werden. Unsichtbare Wände gelten sowohl in der Fachpresse als auch in der Spielerschaft als man- gelhaftes Game-Design. Was die Datenbank sichtbar macht, muss berührbar sein oder hinter den dicken Mauern eines Verlieses, einer Raum- oder Unter- wasserstation konsistent vor dem Spieler geschützt werden. Andernfalls droht eine ästhetische Irritation, die vielleicht am ehesten mit einem Achsensprung im Medium Film zu vergleichen ist. Fable gelingt es nicht seinen Raum kon- sistent zu halten, weil die Allmacht des Helden im Widerspruch zur funktio- Datenbanken als Spielräume 333 nalen Unfähigkeit steht, den rein ornamentalen Wald zu betreten. Der Raum des Waldes bleibt außerhalb des Machtbereichs des Spielers und ist damit lu- disch-ästhetisch nahezu bedeutungslos. Er ist ein irritierender weißer Fleck in der Spielmechanik von Fable. the Path Kehren wir, diesmal ganz wörtlich, auf den Pfad zurück. Auch in The Path (Nie- derlande 2009, Auriea Harvey & Michaël Samyn) führt ein breiter Weg mitten durch den Wald (Abb. 10). Die Aufgabenstellung ist eindeutig: »Go to Grand- mother‘s house and stay on the path« (The Path). Folgen wir dieser Anweisung, sind wir innerhalb weniger Minuten beim Haus der Großmutter angekommen und das Spiel ist verloren: »You failed!« (ebd.). The Path macht sich sehr gekonnt über Spiele wie Fable, ihre engen Tunnel- räume und die streng lineare Datenbank-Ästhetik lustig. Wo in Fable das Spiel endet, wenn wir uns der Versuchung des Waldes beugen, scheitern wir in The Path, wenn wir der Kante des Graphen – dem Pfad – bis zum Kern – Großmutters Haus – folgen. Das Spiel widersetzt sich einer Raumlogik, die einzig aus Kernen und Kanten beziehungsweise einem Netzwerk aus navigierbaren Schläuchen besteht. Wollen wir in The Path Erfolg beziehungsweise Spaß haben, sollten wir die einzige Regel des Spiels missachten und den Pfad verlassen. Wie Rotkäpp- chen müssen wir ignorieren, was uns immer wieder von anderen Spielen einge- schliffen wurde: dass das Spiel mit den Rändern des Pfades endet und wir kei- nen Zugriff auf den Rest der Datenbank haben dürfen. Statt durch das Märchen eines Raums bewegen wir uns nun tatsächlich durch das Märchen als Raum be- ziehungsweise als Datenbank. The Path nimmt seine Datenbank ernst: Nichts ist in der Datenbank, was wir nicht aus räumlicher Nähe betrachten und taktil umkreisen könnten. Der Wald entfaltet eine unverwechselbare Ästhetik, eine besondere Stimmung, die sich nicht mit einem anderen Szenario, wie beispielsweise einem Dungeon, errei- chen ließe. Wir partizipieren an dieser Datenbank, anstatt sie nur aus der Ferne zu betrachten. Die Datenbank-Ästhetik des Adventures hat sich umgekehrt: Der Pfad ist nun ein spielmechanisch redundanter Leerraum und sein ehemaliger Randbewuchs ein prächtiger Datenwald, in dem es sich zu verlaufen gilt. Ziel von The Path ist es nicht den schnellsten Pfad durch das Spiel zu finden, sondern in aller Ruhe die Datenbank zu durchwandern und die »spatial story« (2006, 678) zu entdecken, wie Henry Jenkins es nennt. Mehr noch aber haben wir es mit einem »memory palace« (ebd., 685) zu tun, einem frei navigierba- 334 Christian Huberts / Robin Krause ren Datenbankraum der kulturellen Erinnerung an Märchenerzählungen, insbesondere an Rot- käppchen. Jedes Objekt, auf das wir stoßen, sei es ein Baum, eine Badewanne oder ein Toten- schädel, fügt dem Mythos von Rotkäppchen eine Erinnerung hinzu, lässt unsere Bewegung durch den Wald zu einer individuellen Geschichte wer- den. Ebenso ermöglicht es The Path, Orte, Objek- te und Ereignisse einfach zu verpassen, zu igno- Abb. 10 rieren oder aufzuschieben und auch auf diese Weise eine ganz persönliche Narration zu erzeu- gen. Das Fehlen jener produktiven Redundanz in den Wäldern von Zork und Fable jedoch »behandelt Sehenswürdigkeiten als Sehensnotwendigkeiten und macht aus Irrgärten mathematische Graphen« (Pias 2007, 410). In The Path ist hingegen nur das Haus der Großmutter eine spielmechanische Sehensnotwen- digkeit. Der Irrgarten bleibt damit intakt. Keine zwei Spieler können auf dem- selben Pfad zum Ziel kommen. Jedermann zieht seine eigene Spur aus narrati- ven Brotkrumen hinter sich her. Und plötzlich macht der Wald als Element der Datenbank und als Interfaceme- tapher für den Raum Sinn. Es ist der Wald, wie wir ihn aus Märchen kennen: Ge- heimnisvoll, dunkel, unübersichtlich und groß. In The Path ist er genau genom- men sogar unendlich groß. Die Enden des Waldes sind kurzgeschlossen, der Raum gleicht weniger einer endlichen Fläche, sondern mehr einem Donut. Und es dauert daher nicht lange, bis wir uns in der Datenbank verlaufen und den Pfad nicht mehr wiederfinden. The Path erzeugt damit eine besondere Stim- mung beziehungsweise eine ästhetische »Atmosphäre« – wie Gernot Böhme es nennt – eine »gemeinsame Wirklichkeit des Wahrnehmenden und des Wahrge- nommenen« (1995, 34). Datenbank, navigierbarer Raum und Spielmechanik las- sen so zusammen eine Atmosphäre des Märchenwaldes hervortreten – »Sphä- ren der Anwesenheit von etwas, ihre Wirklichkeit im Raume« (ebd., 33). Der Wald von The Path sieht also nicht nur so aus wie ein Märchenwald, er funk- tioniert auch entsprechend und erzeugt eine passende Stimmung. Wir stoßen nicht auf interessante Orte, weil uns ein Pfad direkt darauf zu lenkt, sondern durch Zufall. Und früher oder später laufen wir ebenso dem bösen Wolf über den Weg. Aber diesmal nicht als einem von vielen Gegnern auf einem linearen Schlachtfeld, sondern als archetypische Figur, die uns verführen will und nur darauf gewartet hat, dass wir den rechten Pfad verlassen. The Path würde mit keinem anderen Raum funktionieren als dem Wald, ließe sich nicht modifizie- ren, ohne dass dabei auch seine individuelle Atmosphäre verloren ginge. Eben- Datenbanken als Spielräume 335 so ist kaum eine andere Spielmechanik denkbar als die assoziative Erkundung einer großen, offenen Spielwelt, um die Datenbank des Waldes spielbar zu ma- chen. Das ist die Datenbank-Ästhetik von The Path: ein offener, verführerischer Datenwald, der von der redundanten Kante eines Graphen durchzogen wird. Die Datenbank-Ästhetik von Adventures wie Zork ist, wie gezeigt wurde, selbst unter modernen Computerspielen wie Fable noch prominent vertreten. Aber wie ebenfalls gezeigt wurde, ist sie nicht die einzig mögliche Ästhetik. Lev Ma- novich hat bereits auf die große Bedeutung des Interface-Designs hingewiesen und auf den großen Unterschied, den es für die Datenbank in den neuen Me- dien macht: »[C]reating a work in new media can be understood as the construction of an interface to a da- tabase. In the simplest case, the interface simply provides access to the underlying database. […] But the interface can also translate the underlying database into a very different user ex- perience« (2001, 226). Im Falle von Computerspielen wie Zork oder Fable dient der navigierbare Raum tatsächlich nur als lineare Schnittstelle zu den am Wegesrand verteilten Da- ten. Open-World-Spiele und insbesondere ludische Experimente wie The Path bieten aber das Potential, die Datenbank nicht nur als ornamentale Ausschmü- ckung zu nutzen, sondern zu einem funktionalen Element des Spiels zu ma- chen und sie damit spielbar zu machen. So ist der Wald nicht nur ein Objekt in der Datenbank, sondern die Datenbank wird ebenso als Wald ästhetisiert. Da- bei kann das kulturelle Gedächtnis, das an die Objekte der Datenbank geknü- pft wird, produktiv für die Spielmechanik und die Raumlogik genutzt werden. Eine stark strukturierte Raumlogik wie der Graph kann plausibel als Dungeon durch die Datenbank gespiegelt werden, genauso wie eine offene kontingente Geometrie durch einen Wald. »[T]he space can literally change, becoming a mirror of the user‘s subjectivity« (ebd., 269). Es lohnt sich also die Datenban- ken von Computerspielen nicht nur als audiovisuelle Ornamente zu sehen. Im praktischen Vollzug des Spiels offenbaren sie sich auch als komplexe kultu- relle Interfacemetaphern für spezifische Spielmechaniken und Raumlogiken. Erkennen wir in der Datenbank den Märchenwald von Rotkäppchen, können wir unseren Auftrag, Wein und Brot zur Großmutter zu bringen, getrost igno- rieren und an einer »Welt ohne Aufgaben« (Huberts 2010, 176) partizipieren: »Das freie Wandern durch die Datenbank des Spiels bleibt als einzige Beschäf- tigung« (ebd., 176). Auch wenn Zork etwas anderes behauptet, sollte in Bezug auf die bespro- chenen Computerspiele und ihre bewaldeten Datenbanken eines klar gewor- den sein: Da ist etwas Besonderes am Wald! Und am vorläufigen Ende des lan- 336 Christian Huberts / Robin Krause gen Pfades dieser Untersuchung – von der Londoner Psalter-Karte bis tief in die Wälder des Computerspiels – ist hoffentlich ebenso Licht ins Dunkle einer Theo- rie der Datenbank als Spielraum gekommen. Die hier präsentierten Ergebnisse sind allerdings noch nicht mehr als eine einzelne Lichtung entlang des Weges, der über noch viele weitere Datenbanken des Alltags und Räume des Compu- terspiels führt. Vielfältige Datensammlungen – seien es digitale Grafik-, Text- und Musikbibliotheken oder Finanzmarktstatistiken – warten ebenso noch auf ihre ludische Aktivierung wie die schwach beleuchteten Raumstationen, postapokalyptischen Wüsten und Gangster-Metropolen des Computerspiels auf die teilnehmende Erkundung. Noch bleiben sie weiße Flecken auf der wis- senschaftlichen Landkarte mit dem Hinweis: Hier lauern Drachen. Bibliografie Böhme, Gernot (1995) Atmosphäre. Essays zur neuen Ästhetik. Frankfurt a. M.: Suhrkamp Verlag. Caillois, Roger (2001) Man, Play and Games. Urbana, IL: University of Illinois Press. Crabtree, Scott / MacPherson, Mike / Rodriguez, Omar (2006) Mars Sucks - Can Games Fly on Google Earth? [http://www.gamasutra.com/view/feature/1750/]; letzter Auf- ruf: 07.01.2012. Huberts, Christian (2010) Raumtemperatur. Marshall McLuhans Kategorien »heiß« und »kalt« im Computerspiel. Göttingen: Blumenkamp. Jenkins, Henry (2006) Game Design as Narrative Architecture. In: Katie Salen / Eric Zim- merman (Hg.) The Game Design Reader: A Rules of Play Anthology. Cambridge: MIT Press, S.70–689. Manovich, Lev (2001) The Language of New Media. Cambridge, MA; London: The MIT Press. Mertens, Mathias (2007) »A Mind Forever Voyaging«. Durch Computerspielräume von den Siebzigern bis heute. In: Christian Holtorf/ Claus Pias (Hg.) Escape! Computerspiele als Kultur- technik. Köln; Weimar; Wien: Böhlau Verlag, S. 45–54. Pias, Claus (2007) Adventures Erzählen Graphen. In: Karin Bruns / Ramón Reichert (Hg.): Reader Neue Medien. Texte zur digitalen Kultur und Kommunikation. Bielefeld: transcript Verlag, S. 398–419. Wark, McKenzie (2007) Gamer Theory. Boston: Harvard University Press. Datenbanken als Spielräume 337 Gameografie Zork 1. The Great Underground Empire (1980, Anderson, Tim et al. / Infocom) Sy- stem: Commodore 64. Grand Theft Auto IV (2008, Benzies, Leslie, Houser, Sam, Houser, Dan et al. / Rockstar North; Rockstar Games.) System: Sony Playstation 3, Microsoft Xbox360, PC. Battleships (2007, Bleeckr, Julian) System: PC. Colossal Cave Adventure (1976, Crowther, William) System: PDP-10. The Path (2009, Harvey, Auriea; Samyn, Michaël, Tale of Tales) System: PC. Risiko (1957, Lamorisse, Albert) System: Brettspiel Google Earth War (2005, Mellen, Mickey et al.) System: PC. Fable. The Lost Chapters (2004, Molyneux, Peter / Lionhead Studios; Microsoft Studios.) System: PC. Fate of the World (2011, Roberts, Ian et al. / Red Redemption.) System: PC. 338 Christian Huberts / Robin Krause Autorenverzeichnis Ralf Adelmann ist Akademischer Rat am Institut für Medienwissenschaften der Universität Paderborn. Momentane Forschungsschwerpunkte: Wissens- und Ordnungsstrukturen digitaler Medien, Medienökonomien der Populärkultur, mobile Medien, dokumentarische Bildformen, visuelle Kulturen. Aktuelle Publikationen: Von der Freundschaft in Facebook. In: Generation Fa- cebook. Über das Leben im Social Net. Hrsg. von Oliver Leistert & Theo Röhle. Bielefeld: Tran- script. (2011) S. 127–144; »Oh, Oh, Oh, let's count some more.« Hochschulrankings als mediale Form. In: Zeitschrift für Medienwissenschaft 4,1, (2011) S. 178-182. Martin Burckhardt , M.A., ist Mitarbeiter an der Justus-Liebig-Universität Gießen am Zen- trum für Medien und Interaktivität. Seine Arbeitsschwerpunkte sind Geschichte und Theorie digitaler Medien und Medienphilosophie. Lena Christolova , Dr. phil., Studium der Germanistik und der Medienwissenschaft in Sofia und Konstanz, Promotion in Konstanz, Habilitationsprojekt in Konstanz Fotogramm, Fotografie und Film, Forschungsschwerpunkte: Avantgarde und früher Film, Wissenschaftsgeschichte und populäre Kultur; letzte Publikationen: Zwischen den Chiffren von Regnault und der Taxidermie von Flaherty: Wissenschaftsanspruch und Massenkulturphänomene im ethnografischen Film zwischen 1895 und 1931. In: Visuelle Medien und Forschung. Über den wissenschaftlichen Um- gang mit Fotografie und Film. Hg. v. Ulrich Hägele und Irene Ziehe (Reihe: Visuelle Kultur: Stu- dien und Materialien, Bd. 5, Münster/New York/München/Berlin: Waxmann (2011), S. 49-68; Über die Quasi-Objekte von Bruno Latour und den Phonometer des Abbé Rousselot. In: Jenseits des Labors. Transformationen von Wissen zwischen Entstehungs- und Anwendungskontext. Hg. v. Florian Hoof et al., Bielefeld: transcript-Verlag (2011), S. 135-169; Echtzeit in den Werken von Rodney Graham. In: Augenblicke (Reihe: Marburger Hefte zur Medienwissenschaft), Heft 1/2012, Bilder in Echtzeit. Hg. v. Tobias Haupts und Isabell Otto, S. 11-24. Kontakt: lena.christo- lova@uni-konstanz.de Autorenverzeichnis 339 Tobias Conradi, M.A., promoviert im Fach Medienwissenschaften an der Universität Pa- derborn zu Automatismen in der Repräsentation von Krisen- und Katastrophenereignissen. Seit April 2012 wissenschaftlicher Mitarbeiter am Institut für Medienforschung der HBK Braun- schweig. Bis März 2012 wissenschaftlicher Mitarbeiter am Institut für Medienwissenschaft der Universität Paderborn. Von 2008-2011 Stipendiat am Graduiertenkolleg Automatismen der Universität Paderborn. Bis Februar 2008 Studium der Medien- und Literaturwissenschaft an HBK und TU Braunschweig. 2006/2007 Aufenthalt an der University of East London (UEL), GB. Arbeitsgebiete: Diskurstheorie, Cultural Studies, Visual Culture. Aktuelle Veröffentlichungen: Schemata und Praktiken. Hg. mit Gisela Ecker/Norbert Otto Eke/Florian Muhle. Paderborn: Fink (2012); Strukturentstehung durch Verflechtung. Akteur-Netzwerk-Theorie(n) und Automatis- men. Hg. mit Heike Derwanz/Florian Muhle. Paderborn: Fink (2011). Harald Hillgärtner, Dr. phil., Studium der Theater-, Film- und Medienwissenschaft, Kunst- geschichte und Psychoanalyse in Frankfurt am Main. Seit 2002 wissenschaftlicher Mitarbei- ter am Institut für Theater-, Film- und Medienwissenschaft, Frankfurt am Main. Forschungs- schwerpunkte zu Fernsehen und digitale Medien. Zuletzt Gastprofessuren in Braunschweig und Wien. Christian Huberts, Dipl.-Kult., ist wissenschaftlicher Mitarbeiter am Institut für Medi- en und Theater der Universität Hildesheim. Er gibt dort Seminare zu Computerspielästhetik und betreut das Labor für Computerspiele. Außerdem schreibt er für wissenschaftliche Pu- blikationen, Videospiel-Zeitschriften und Kulturmagazine über die Partizipation an virtuellen Welten, Spielregeln und Independent Games. Weiterer Arbeitsschwerpunkt: Forschungspro- jekt Topografie von Spielräumen: Untersuchungen zur kulturellen Verortung von Computer- spielen. Letzte Veröffentlichungen: Raumtemperatur. Marshall McLuhans Kategorien »heiß« und »kalt« im Computerspiel. Göttingen: Blumenkamp (2010); Zwischen 1 und 0. Der roman- tische Konflikt zwischen realen und virtuellen Welten. In: Contact - Conflict - Combat. Zur Tra- dition des Konfliktes in digitalen Spielen. Hg. von , Rudolf Inderst/ Peter Just. Boizenburg: Hüls- busch (2011) S. 33-42.; »This is how you end a war, Chernov.« Das Ende des Krieges in Call of Duty: World at War. In: Welt|Kriegs|Shooter: Computerspiele als realistische Erinnerungsmedien? Hg. von Daniel Appel et. al. Boizenburg: Hülsbusch (2012), S. 23–34. Irina Kaldrack ist Postdoktorandin bei eikones – NFS Bildkritik an der Universität Basel. Forschungsschwerpunkte sind Medialität technischer Medien, Mediengeschichte, Wissens- geschichte der Bewegung und Kulturgeschichte der Mathematik. Letzte Veröffentlichungen: Imaginierte Wirksamkeit. Zwischen Performance und Bewegungserkennung. Berlin: Kadmos 340 Autorenverzeichnis (2011); Tanz – Film – Computer. Die Bühnentänze Oskar Schlemmers. In: bauhaus & film. Hg. von Thomas Tode. Wien (2012); Teilmengen. Mengen teilen (gemeinsam mit Theo Röhle). Bei- trag zum 2. Medienwissenschaftlichen Symposium der DFG: Soziale Medien – Neue Massen (in Vorbereitung); Selbst-Technologien. Hg mit Hannelore Bublitz, Theo Röhle, Mirna Zeman. Pa- derborn: Fink (2012). Florian Krautkrämer ist Filmwissenschaftler und wissenschaftlicher Mitarbeiter am In- stitut für Medienforschung der HBK Braunschweig (Studiengang Medienwissenschaft). Er hat zur Schrift im Film promoviert (erscheint 2012). Arbeitsschwerpunkte sind der Experimental- und Autorenfilm, Filmtheorie und -geschichte sowie das Dispositiv Kino. Die letzte Veröffent- lichung ist Wenn die Leinwand zurück schießt. Zur Geschichte des 3D-Kinos (zusammen mit Heike Klippel). In: Raumdeutung. Zur Wiederkehr des 3D-Films. Hg. von Distelmeyer/ Ander- gassen/ Werdich. BIelefeld: transcript (2012), S. 45-65. Robin Krause, Dipl.-Kult., arbeitet und forscht als Mitglied des Künstlerkollektivs Machi- na eX, selbständiger Game-Designer und Lehrbeauftragter zur ästhetischen Praxis digitaler Medien. Sein übergeordnetes Forschungsinteresse gilt den durch die zunehmende Gaming Li- teracy in der Gesellschaft angestoßenen ludischen Potentialen in den Räumen unserer All- tags- und Arbeitskultur. Weiterer Arbeitsschwerpunkt: Forschungsprojekt Topografie von Spielräumen: Untersuchungen zur kulturellen Verortung von Computerspielen. Letzte Projekte und Veröffentlichungen: Daedalic Entertaiment (2010) The Shakespeare Chronicles – Romeo and Juliet. Machina eX (2010) Maurice, Das erste theatrale Point & Click-Adventure. Machina eX (2011) 15.000 Gray, ein mobiles Theatergame. Machina eX (2011) crypt [A], eine machini- stische Rauminstallation. Daedalic Entertaiment (2011) The Shakespeare Chronicles – Ein Som- mernachtstraum. Fruehwerk Verlag (2012) Phase 0 - How to make some action. Machina eX (2012) Wir aber erwachen –..., ein postapokalyptisches Live-Point & Click-Adventure. Julius Othmer, M.A., ist Stipendiat des Graduiertenkollegs Automatismen an der Universität Paderborn mit dem Promotionsprojekt Spielen mit der Risikomaschine - Computerspiel als kul- turelle Technik zum Umgang mit Risiko. Bis September 2011 wissenschaftlicher Mitarbeiter und Lehrbeauftragter in der Abteilung Medienwissenschaft der HBK Braunschweig. Bis 2008 Stu- dium der Medienwissenschaft, Technik der Medien und Soziologie an der HBK und TU Braun- schweig. Aktuelle Veröffentlichung (zusammen mit Andreas Weich): Er soll spielend sterben. Die Inszenierung der Angstkonstellation ›Gewalt durch digitale Medien‹ in den Filmen Tron und Tron: Legacy. In: Wissen sie, was sie tun? Zur filmischen Inszenierung der Gewalt von und an Autorenverzeichnis 341 Kindern und Jugendlichen. Hg. von Jörg Herrmann / Jörg Metelmann / Hans-Gerd Schwandt. Marburg: Schüren (2012), 191-211. Stefanie Pulst ist Studentin der HBK Braunschweig in der Fächerkombination Kunst- und Medienwissenschaften. Studentische Hilfskraft bei dem Projekt Strategie spielen, sowie der Übung Vernetzte Welten: Perspektiven der Computerspielanalyse am Beispiel von World of Warcraft. Interessenschwerpunkt im Studium sind die Game Studies, insbesondere der MMO- und Rollenspielbereich. Seit (über) 10 Jahren selbst aktive Spielerin. Felix Raczkowski ist Promotionsstipendiat der Fakultät für Philologie am Institut für Medi- enwissenschaft der Ruhr-Universität Bochum. Das Thema seiner Promotion ist die Grenzenlo- sigkeit des Spiels im Zeitalter seiner Digitalisierung. Seine Arbeitsschwerpunkte und Interes- sengebiete sind neben Fragen der Game Studies wie derjenigen nach der Medialität und der Mediengeschiche des Spiels besonders die Untersuchung ludischer Grenzphänomene wie Al- ternate-Reality-Games sowie serielle Formate im amerikanischen Fernsehen und transmediale Erzählformen sowie ihre Fans. Theo Röhle ist Postdoktorand am Graduiertenkolleg Automatismen an der Universität Pader- born. In seiner Forschung beschäftigt er sich mit digitalen Wissensordnungen (Suchmaschinen, Digital Humanities), neuen Formen der Überwachung sowie Machtkonzepten in den Medien- wissenschaften und den Science and Technology Studies. Er promovierte 2010 im Fach Medi- enkultur an der Universität Hamburg, zuvor studierte er Ideengeschichte, Cultural Studies und Medien- und Kommunikationswissenschaft an der Universität Stockholm. Jüngste Veröffent- lichungen: Der Google-Komplex. Über Macht im Zeitalter des Internets. Bielefeld: transcript (2010); Generation Facebook. Über das Leben im Social Net. Hg. zusammen mit Oliver Leistert, BIelefeld: transcript (2011); zusammen mit Bernhard Rieder Digital Methods: Five Challenges. In: Understanding Digital Humanities. Hg. von David Berry. Palgrave: Macmillan (2012). Gunnar Sandkühler ist Mitarbeiter beim Ehemaligenverein der Universität zu Köln. Er stu- dierte Geschichte und Deutsch an den Universitäten Bochum und Liverpool (UK) und arbeitet an einer Dissertation zur Geschichtsdarstellung im Computerspiel. Arbeitsschwerpunkte sind Sprachpolitik, Bildungsgeschichte und Medien der Geschichte. Letzte Veröffentlichungen: Die sprachpolitische und juristische Auseinandersetzung: Historische und politische Grundlagen der Political Correctness in der frühen Bundesrepublik. In: Political Correctness. Der sprach- politische Streit um die nationalsozialistischen Verbrechen. Hg. von L. Hölscher. (Göttingen: 342 Autorenverzeichnis Wallstein (2008), S. 16-67; Die philanthropische Versinnlichung. Hellwigs Kriegsspiel als pä- dagogisches und immersives Erziehungsmodell. In: Strategie Spielen. Hg. von R. Nohr/ S. Wie- mer. Münster: LIT (2008), S. 69-86; Der Zweite Weltkrieg im Computerspiel: Ego-Shooter als Geschichtsdarstellung zwischen Remediation und Immersion. In: Erinnerungskultur 2.0. Kom- memorative Kommunikation in digitalen Medien. Hg. von E. Meyer. Frankfurt/M.: Campus (2009), S. 55-65. Martin Warnke wurde 1955 in Berlin geboren, er studierte in Berlin und Hamburg, promo- vierte 1984 in theoretischer Physik in Hamburg, nahm im selben Jahr seine Tätigkeit an der Uni- versität Lüneburg auf, war langjährig Leiter des dortigen Rechen- und Medienzentrums, ha- bilitiierte 2008 in Informatik/digitale Medien an der Leuphana Universität Lüneburg und ist seit 2010 Hochschullehrer am Institut für Kultur und Ästhetik digitaler Medien, dessen Direk- tor er ist, an der Fakultät Kulturwissenschaften, hatte Gastprofessuren an den Universitäten Basel, Klagenfurt und Wien inne. Er arbeitet auf dem Gebiet der Geschichte und Theorie digi- taler Medien und der digitalen Dokumentation komplexer Artefakte der bildenden Kunst. Er ist Sprecher des DFG-Projektes Meta-Image. Er ist Mitbegründer der HyperKult-Workshop-Rei- he, war Sprecher des Fachbereichs Informatik und Gesellschaft der Gesellschaft für Informa- tik e. V., ist im internationalen Informatik-Verband IFIP tätig, ist im wissenschaftlichen Bei- rat der Zeitschrift für Medienwissenschaft. Letzte Veröffentlichungen: Theorien des Internet zur Einführung. Hamburg: Junius (2011); HyperKult II – Zur Ortsbestimmung analoger und digi- taler Medien. Hg. mit Georg Christoph Tholen und Wolfgang Coy. Bielefeld: transcript (2005), Anna Oppermann in der Hamburger Kunsthalle. Hg. mit Uwe M. Schneede. Hamburg: Hambur- ger Kunsthalle (2004). Andreas Weich, M.A., ist Stipendiat des Graduiertenkollegs Automatismen an der Univer- sität Paderborn mit dem Promotionsprojekt Selbstverdatungsmaschinen. Computerbasierte Profile als Wissenskomplex zur Subjektivierung und Automatisierung in der aktuellen Medien- kultur. Bis September 2011 wissenschaftlicher Mitarbeiter und Lehrbeauftragter in der Abtei- lung Medienwissenschaft der HBK Braunschweig. Bis 2010 Studium der Medienwissenschaft, Technik der Medien und Politikwissenschaft an der HBK und TU Braunschweig. Aktuelle Ver- öffentlichung (zusammen mit Julius Othmer): Er soll spielend sterben. Die Inszenierung der Angstkonstellation ›Gewalt durch digitale Medien‹ in den Filmen Tron und Tron: Legacy. In: Wissen sie, was sie tun? Zur filmischen Inszenierung der Gewalt von und an Kindern und Ju- gendlichen. Hg. von Jörg Herrmann / Jörg Metelmann / Hans-Gerd Schwandt. Marburg: Schü- ren (2012), 191-211. Autorenverzeichnis 343 Uwe Wippich ist Stipendiat der Mercator Research Group Spaces of Anthropological Know- ledge in der Arbeitsgruppe Medien und anthropologisches Wissen und Mitarbeiter am Institut für Medienwissenschaft der Ruhr-Universität Bochum. Er promoviert »zur (paradoxen) Medi- alität des lebendigen Herzens« über die medialen Formationen des Wissens vom Herzen und der Verbindung von Herz, Affekt und Identität. Seine Arbeitsschwerpunkte sind: Medien und Gesundheitswissen in Medizin, Pflege und Gesellschaft, mediale Mikropolitiken im Fernsehen und im WEB 2.0, Infografik, Out-Of-Home-Media sowie die Medialität, Bedeutungskonstrukti- on und Repräsentation in Museen und Ausstellungen. 344 Autorenverzeichnis Abbildungsnachweis Alle Abbildungen werden ausdrücklich nur in Zusammenhang mit ihrer kritischen Besprechung und Analyse im Text verwendet. Cover: Bildcollage unter Verwendung von Bildmaterial aus Wikimedia.org von Pierre-Yves Beaudouin; Matt Scott from Fort Collins, USA; Bundesarchiv, Bild 183-J0604-0022-001 / Raphael (verehel. Grubitzsch), Waltraud; Bundesarchiv, Bild 183-M1129-307 / Donath, Herbert; Centro de Producción Audiovisual. Oficina responsable del archivo fotográfico institucional; Marcel Douwe Dekker; Marie-Lan Nguyen; Kippelboy;Rama; Zinneke; born1945; Lars Aronsson; Hannes Grobe; Gemma.kiu; fdecomite; Cushing Memorial Library and Archives, Texas A&M sowie Screenshots aus den Computerspielen eishockeymanaGer 2005, fifa fussBallmanaGer 2010, starcraft, civilization iv, World of Warcraft, the path und den Websites [www.google.de, www. parship.de, www.wowpedia.org, www.hulu.com, de.wikipedia.org, openstreetmap.de] sowie Filmstills aus Guión del film ›pasión‹. Marcus Burkhardt: Abb1: Worsley, Peter K. / Dittman, Roger R. / Weber, Eberhard / Grimberg, Juan C. / Garrett, Peter / Benson-Lehner Corporation (1959) A Study of the Fundamentals of Information Storage and Retrieval [Final Report]. In: United States Government Computing Collection, circa 1945-1990 (CBI 63). Box 13, Charles Babbage Institute, University of Minnesota, Minneapolis, 30f. / Abb2: Eigene Darstellung in Anlehnung an Bachman, Charles W. (1975) Trends in Database Management – 1975. In: AFIPS'75. Proceedings of the May 19-22, 1975, National Computer Conference and Exposition. New York: ACM, S. 569-576, hier 570 / Abb3: Standarddarstellung der ANSI/X3/SPARC Architektur in der Informatik, siehe z.B. Date, Christopher J. (1994). An Introduction to Database Systems. Reading: Addison-Wesley, 29 Lena Christolova: Abb.1: Otlet, Paul (1934) Traité de documentation: le livre sur le livre: théorie et pratique. Bruxelles: Editiones Mundaneum, Palais Mondial., S. 41. / Abb.2: Stanescu, Chantal (2009) Le patrimoine de Paul Otlet & les Bibliothèques publiques . In: Bibliothèque en Capitale N° 30 (Okt.-Dez.), S. 4-9, hier S. 4; © Archiv Mundaneum / Abb.3: [http://www.spie- gel.de/fotostrecke/fotostrecke-69174-6.html]; © Archiv Mundaneum / Abb.4: [http://www. isotype.ch/home/mundaneum] / Abb.5: Otlet, Paul (1934) Traité de documentation: le livre sur le livre: théorie et pratique. Bruxelles: Editiones Mundaneum, Palais Mondial., S. 42 / Abb.6: [http://www.isotype.ch/home/mundaneum] / Abb.7: [http://www.knowledge-mapping.net/ images/stories/otlet/traite_de_documentation/illustrations/partie%204%20-%20page%20 Abbildungsnachweis 345 50.png] / Abb.8: [http://www.spiegel.de/fotostrecke/fotostrecke-69174-6.html]; © Archiv Mundaneum (EUM 3-14) Tobias Conradi: Abb. 1: Privater Screenshot, ARD Tagesthemen, 11.02.2011 / Abb. 2-4: Privater Screenshot, ARD Tagesthemen, 11.02.2011 / Abb. 05: Der Spiegel-Special, Nr. 1/2010, S. 13 / Abb.6: Der Spiegel-Special, Nr. 1/2010, S. 25 Harald Hillgärtner: Abb.1: Screenshot von [http://prettymaps.stamen.com]; 25.2.11; Such- anfrage zu ›frankfurt am main‹ / Abb.2: Screenshot von [http://osm.leitstelle511.net/]; 25.2.11/ Abb.3 u.4: Screenshot von [http://www.netzwolf.info/kartografie/osm/stolpersteine], 24.2.11 Christian Huberts / Robin Krause : Abb. 1: [http://de.wikipedia.org/wiki/Londoner_Psal- terkarte] Gemeinfreie Abbildung / Abb. 2: Screenshot aus Google Earth, © 2011 Google / Abb. 3: Screenshot aus fate of the World, © 2011 Red Redemption / Abb. 4: Screenshot aus Google monster milktruck, Google Earth, © 2011 Google / Abb. 5: Screenshot aus zork 1 – the Great underGround empire, © 1980 Infocom / Scan aus der Anleitung von zork 1 – the Great under- Ground empire, © 1980 Infocom / Abb. 7: Screenshot aus faBle – the lost chapters ©, 2004 Li- onhead Studios/Microsoft Studios. Freundlicherweise angefertigt und zur Verfügung gestellt von Martin Pleiß / Abb. 8-9: Screen shot aus faBle – the lost chapters, © 2004 Lionhead Stu- dios/Microsoft Studios / Abb. 10-11: Screenshot aus the path, © 2009 Tale of Tales Irina Kaldrack: Abb. 1: [http://www.biomotionlab.ca/Demos/BMLwalker.html]; letzter Ab- ruf 01.03.2012 / Abb. 2: entnommen aus: Marey 1985 / Abb. 3: entnommen aus: Braune/ Fischer 1895, Tafel I / Abb. 4: entnommen aus: Braune/ Fischer 1895, Tafel III / Abb. 5: entnommen aus: Braune/ Fischer, 1895, Tafel XII / Abb. 6: entnommen aus: Gilbreth/ Gilbreth 1920, Tafel V / Abb. 7: entnommen aus: Bogen/ Lipmann 1931, 90f. / Abb. 8: entnommen aus: Bogen/ Lipmann 1931, 111. / Abb. 9: entnommen aus: Hommel/ Stränger 1994, 533 Florian Krautkrämer Abb.1-2: DVD-Screenshot aus der DVD zu man With a movie camera (Dziga Vertov, UdSSR 1929), © BFI 2000 / Abb.3: DVD-Screenshots aus der DVD zu la Guerre est finie (Alain Resnais, F/S 1966) © mk2 2008 / Abb.4: DVD-Screenshots aus der DVD zu oktoBer (Sergej Eisenstein, UdSSR 1928) © Icestorm 2004 / Abb.5: Bildschirmfoto (© Florian Krautkrä- mer) / Abb.6: Screenshot aus der VHS zu die Bettlektüre (F/UK/NL/LUX, 1996, Peter Greena- way) © Arthouse Video 1997) / Abb.7-8: DVD-Screenshots aus der DVD zu the tulse luper suit- cases (UK/E/I/LUX/NL/RUS/HU/D 2003/4, Peter Greenaway) © Madman Entertainment 2008) / Abb.9: Screenshots aus den Channel 4-Idents © Channel 4 / Abb.10: Screenshot aus der DVD zu Guión del film ›pasión‹ (F/CH 1982, Jean-Luc Godard) © Intermedio 2010) / Abb.11: Stéphane Mallarmé, © Steidl Verlag, Göttingen 1995. Julius Othmer / Stefanie Pulst / Andreas Weich Abb. 1-4; 8-9: World of Warcraft © Blizzard 2004-2011 / Abb. 5: [http://www.wowace.com/thumbman/images/31/431/100x76/De- faultFrame.jpg.-m1.png]; zuletzt einges. 11.08.2011/ [http://media.curse.com/Curse.Projects. ProjectImages/14902/15013/WoWEquipBeta.png]; Zuletzt einges. 11.08.2011/ Abb. 7: [http:// static.sftcdn.net/de/scrn/95000/95749/playerscore-addon-gearscore-1.jpg]; zuletzt einges. 11.08.2011/ Abb. 10: [http://media.photobucket.com/image/wow%20interface%20heal/_Kai- 346 Autorenverzeichnis tenUchiha_/interface-2.png]; zuletzt einges. 11.08.2011/ Abb. 11: Addon Recount, Übersichts und Test-Mode Fenster, Quelle: eigener Screenshot / Abb. 12: Quelle: [http://i225.photobucket. com/albums/dd309/ghedin4/Feral.jpg]; zuletzt einges. 11.08.2011/ Abb. 13: : Addon Recount, Graph Winows und Detail Window, Quelle: eigener Screenshot Felix Raczkowski Abb. 1: Lost Timeline von David Ryan Andersson [http://davidryanan- dersson.tumblr.com/] / Abb. 2: Screenshot aus [http://lostpedia.wikia.com/wiki/Timeline] / Abb. 3: Screenshot aus [http://stexpanded.wikia.com/wiki/Star_Trek:_The_Cantabrian_ Expeditions_%28season_1%29] / Abb. 4: Screenshot aus [http://en.wikipedia.org/wiki/List_of_ Lost_episodes] Theo Röhle : [http://www.columbia.edu/cu/computinghistory/026.html]; zuletzt einges. 10.5.2012 Gunnar Sandkühler: Abb.1: Screenshot aus seven cities of Gold © Ozark Softscape / Electro- nic Arts(1984) / Abb.2: Screenshot aus civilization iv © Firaxis / 2K Games (2005) Martin Warnke : Abb.1: [http://yarikson.files.wordpress.com/2008/04/web-20-scheme. png] / Abb.2: [http://trickr.de/wp-content/uploads/2010/07/Online-Community1.jpg] / Abb.3: [http://www.netzwerk-erwerbslos.de/index.php?module=Pagesetter&type=file&func=get& tid=4&fid=PNimage&pid=75&Array] / Abb. 4: [http://bavatuesdays.com/a-social-revolution- the-web-20-poster]/ / Abb.5: Leskovec/ Horvitz 2007, 12 / Abb.6: Leskovec/ Horvitz 2007, 22 / Abb.7 nach Barabási 2003, 51; Grafik des Verfassers / Abb.8: nach Barabási 2003, 51 / Abb.9: Ba- rabási 2003, 43 / Abb.10-12 [http://www.rand.org/pubs/research_memoranda/2006/RM3767. pdf] / Abb.13: Barabási/ Bonabeau 2003, 53 / Abb.14-16: Barabási/ Bonabeau 2003, 57 / Abb.17: Barabási/ Bonabeau 2003, 55 / Abb.18: [http://www.nielsen.com/us/en/insights/top10s/inter- net.html]; zuletzt einges. 11.11.2011 / Abb.19: twitter.com; Screenshot des Verfassers / Abb.20: [http://www.blogg.ch/images/geek-and-poke.jpg] / Abb.21: [http://upload.wikimedia.org/wi- kipedia/commons/d/db/Leviathan_gr.jpg] Uwe Wippich : Abb.1: American Philosophers Society: »Pedigree of the W-- family of India- na, a degenerate family in which one member was sterilized« ERO, MSC77, SerX, Box3: Harry H. Laughlin Abbildungsnachweis 347 Medien´Welten Braunschweiger Schriften zur Medienkultur Rolf F. Nohr / Serjoscha Wiemer (Hg.): Strategie Spielen. Medialität, Geschichte und Politik des Strategiespiels Das Spielerische ebenso wie das Strategische ha- ben Konjunktur. Dies manifestiert sich in me- dialen Spielanordnungen, die zunehmend po- litische, wissenschaftliche, militärische und ökonomische Handlungsfelder und Diskurse durchdringen. Offenbar materialisiert sich stra- tegisches Denken und Handeln bevorzugt in der Form des Spiels. Nicht allein im Schachspiel oder Die Schriftenreihe Medien´Welten exi- im klassischen Kriegsspiel finden sich enge Ver- stiert seit 2004 im LIT-Verlag Münster bindungen von Spiel und Strategie, sondern auch und wird editorisch betreut von Dr. Rolf F. in Trainingsprogrammen für Manager, in Stadt- Nohr. Die Reihe versucht interessante und und Geschichtssimulationen oder in aktuellen innovative Auseinandersetzungen mit der Computerprogrammen, die im Bereich der Terro- Medienkultur zu versammeln. In Fallstu- rismusbekämpfung zum Einsatz kommen. Damit dien und ›Probebohrungen‹ untersucht ist das Strategiespiel mehr als ›nur‹ ein Spiel, es die Schriftenreihe den genealogischen ist längst ein Bestandteil gesellschaftlicher Steu- und archäologischen Kontext, innerhalb erungstechniken. Es dient der Entscheidungsfin- dessen sich die kulturellen Praktiken der dung in kritischen Situationen, es soll das Denken Medien entfalten. Die einzelnen Beiträ- schulen und fordert uns zur Selbstoptimierung ge der Reihe erforschen Medien als kom- auf und zur Adjustierung an gesellschaftliche plexe und sozial wirksame Formationen, Handlungsschemata, Normen und Ideologien. in denen unterschiedlichste Formen von Strategiespiele suggerieren Kontrolle, Regierbar- Wissen produktiv werden können. Somit keit und den Erfolg (in der Politik, im Beruf, im vollzieht sich in dieser Fokussierung auch Sport) durch ›richtiges‹ Denken. eine deutliche Wende weg von hierar- chischen und institutionell geprägten 2008, 272 S., 24.90 E, br., ISBN 978-3-8258-1451-9 348 Matthias Bopp / Rolf F. Nohr / Serjoscha Wiemer (Hg.): Shooter. Eine multidisziplinäre Einführung Kein anderes Computerspiel-Genre wird in der Öffentlichkeit so kontrovers diskutiert wie Shoo- ter-Spiele. In der politischen und pädagogischen Rhetorik ist seit einiger Zeit sogar von ›Killerspie- len‹ die Rede. Dieser Band will einen Beitrag zum Verständnis dieser umstrittenen Spielformen lei- sten. Dabei geht es den hier versammelten Aufsät- zen nicht allein um die Frage der möglichen ›Wir- kungen‹ gewalthaltiger Spiele wie etwa Doom, Modellen der Medienfunktionalität hin Quake, Half-Life, GTA oder Counterstrike. Es geht zu einem Verständnis der Medien als in darüber hinaus auch um die wissenschaftliche sozialen und subjektiven Bedeutungen, Analyse konkreter Spielformen, um Einsichten in Politiken und Handlungsformen einge- die Ästhetik populärer Spiele sowie um die Fra- betteten Systemen. ge nach den Diskursen, Ausdrucksformen und so- zialen Gemeinschaften, die Shooter als Phäno- mene der zeitgenössischen audiovisuellen Kultur Weitere Informationen unter: kennzeichnen. Damit gibt der Band einen Einblick in die Vielfalt aktueller Ansätze der Computer- http://www.nuetzliche-bilder.de/ spielforschung und macht dadurch die Konturen medienw.html eines noch jungen Forschungsfeldes anschaulich. Berücksichtigt werden beispielsweise, pädago- http://www.lit-verlag.de/reihe/mewe gische, psychologische, kunst- und kulturwissen- schaftliche, enthnologische, diskursanalytische und medientheoretische Zugangsweisen. 2009, 416 S., 39.90 E, br., ISBN 978-3-643-10189-1 349 Britta Neitzel / Matthias Bopp / Rolf F. Nohr (Hg.) »See? I‘m real...« Multidisziplinäre Zugänge zum Computerspiel am Beispiel von ›Silent Hill‹ »See I’m real...«. Computerspiele sind mittlerwei- le ein wichtiger Bestandteil der populären Kul- tur und stehen zunehmend im Fokus wissen- schaftlicher Forschung. Dieser Band bietet zum ersten Mal im deutschsprachigen Raum einen breiten multidisziplinären Blick auf dieses junge Forschungsfeld und zeigt, wie stark sich »Game Studies« inzwischen ausdifferenziert haben. Be- rücksichtigt werden dabei medienwissenschaft- Vorankündigungen liche, pädagogische, literaturwissenschaftliche, informationstheoretische, historische und öko- nomische Zugangsweisen. Um Differenzen und Gemeinsamkeiten der aktuellen Forschungs- Stefan Böhme / Rolf F. Nohr / landschaft deutlich zu machen, konzentrieren Serjoscha Wiemer (Hg.) sich alle Beiträge auf eine populäre Spielserie - Si- lent Hill - und lenken dabei zugleich den Blick auf Strategie Spielen 2. das Computerspiel im Allgemeinen. Politiken des Strategiespiels Mit Beiträgen von Matthias Bopp, Frank Degler, Abschlussband des Forschungsprojekts Steffan Grünvogel, Benno Grützmacher, Andreas Strategie Spielen. Lange, Jörg Müller-Lietzkow, Britta Neitzel, Rolf F. Nohr, Markus Rautzenberg, Gunnar Sandküh- Mit Texten von Markus Rautzenberg, ler, Karla Schmidt, Richard Wages, Steffen P. Walz, Mark Butler, Britta Neitzel, Hartmut Serjoscha Wiemer und Andreas Wolfensteiner. Winkler , Ralf Adelmann und anderen. Erscheint 2013 3., unveränderte Auflage (2004/2005/2010), 256 S., 24.90 E, br., ISBN 3-8258-8374-4 350 Rolf F. Nohr ›Die Natürlichkeit des Spielens. Vom Verschwinden des Gemachten im Computerspiel‹ Machen uns Computerspiele zu Amokläufern? Machen sie uns schlauer? Sind sie konfigura- tive, dissidente oder neoliberale Handlungsanlei- tungen? Auf alle Fälle ›wirken‹ Computerspiele. Sie sind ›sublime Objekte‹, deren Besonderheit in ihrem spezifischen Gebrauchsangebot begründet liegt. Die Annahme dieses Buches ist es, dass Com- puterspiele weitaus verborgener, unterschwel- liger und weitgreifender wirken als es populäre Debatten behaupten. Computerspiele sind Ideo- logie- und Diskursmaschinen, die Bedeutungen, Andrea Seier / Thomas Waitz (Hg.): Wissensformationen und Normen in einer Ge- Klassenproduktion. Fernsehen als Agen- sellschaft gleichzeitig umwälzen wie auch stabi- tur des Sozialen lisieren. Die Frage, die in diesem Buch im Vorder- grund steht, ist, wie das digitale Spiel als Teil des Mediums Computer und als Teil der Gesellschaft Ulrike Bergermann beschrieben werden kann, aber auch, wie es sei- Verspannungen. ne kulturelle ›Gemachtheit‹ verschleiert und ›un- Texte um Wissen, Gendern, Medien mittelbar‹ wird. 2008. 304 S., br., 24,90 E.,, ISBN 978-3-8258-1679-7 Benjamin Beil, Lorenz Engell, Jens Schröter, Herbert Schwaab, Daniela Wentz (Hg.): Die Fernsehserie als Agent des Wandels Benjamin Beil, Lorenz Engell, Jens Schröter, Herbert Schwaab, Daniela Wentz (Hg.): LOST in Media 351 Herbert Schwaab: Erfahrung des Gewöhnlichen – Stanley Cavells Filmphilosophie als Theorie der Populärkultur 2010, 464 S., 39,90 Eur, br, ISBN 978-3-643-10985-9 Angela Schwarz (Hg.): »Wollten Sie auch immer schon einmal pestverseuchte Kühe auf Ihre Gegner werfen?« 2010, 240 S., 19,90 EUR, br, ISBN 978-3-643-10267-6 (2. erw. Aufl. 2012) Judith Keilbach, Alexandra Schneider (Hg.) Fasten your Seatbelt! Bewegtbilder vom Fliegen 2009, 208 S., 24.90 EUR, br., ISBN 978-3-643-10053-5 Heike Klippel (Hg.) »The Art of Programming«. Film, Programm und Kontext 2008, 296 S., 24.90 EUR, br., ISBN 978-3-8258-1323-9 Judith Keilbach Geschichtsbilder und Zeitzeugen. Zur Darstellung des Nationalsozialismus im Bundesdeutschen Fernsehen 2008, 304 S., 24.90 EUR, br., ISBN 978-3-8258-1141-9 Andrea Seier Remediatisierung. Die performative Konstitution von Gender und Medien 2007, 176 S., 19.90 EUR, br., ISBN 978-3-8258-0234-7 Markus Stauff »Das neue Fernsehen«. Machtanalyse, Gouvernementalität und Digitale Medien 2006, 304 Seiten, 24.90 EUR, br., ISBN 3-8258-7802-3 Michael Glasmeier / Heike Klippel (Hg.) »Playtime« – Film interdisziplinär. Ein Film und sieben Perspektiven 2006, 144 S., 19.90 EUR, br., ISBN 3-8258-8375-2, Rolf F. Nohr (Hg.): Evidenz - »...das sieht man doch!« 2005, 288 S., 19.90 EUR, br., ISBN 3-8258-7801-5 352