Tobias Conradi / Florian Hoof / Rolf F. Nohr (Hrsg.) Medien der Entscheidung Medien ’ Welten Braunschweiger Schriften zur Medienkultur, herausgegeben von Rolf F. Nohr Band 27 Lit Verlag Münster/Hamburg/Berlin/London Lit Tobias Conradi / Florian Hoof / Rolf F. Nohr (Hrsg.) Medien der Entscheidung Lit Bucheinbandgestaltung: Tonia Wiatrowski / Rolf F. Nohr unter Verwendung eines Fotos von Florian Hoof Buchgestaltung: © Roberta Bergmann, Anne-Luise Janßen, Tonia Wiatrowski http://www.tatendrang-design.de Satz: Rolf F. Nohr Lektorat: Philippe Crackau © Lit Verlag Münster 2016 Grevener Straße / Fresnostraße 2 D-48159 Münster Tel. 0251-23 50 91 Fax 0251-23 19 72 e-Mail: lit@lit-verlag.de http://www.lit-verlag.de Chausseestr. 128 / 129 D-10115 Berlin Tel. 030-280 40 880 Fax o30-280 40 882 e-Mail: berlin@lit-verlag.de http://www.lit-verlag.de/berlin/ Die Onlineausgabe dieses Buches ist deckungsgleich mit der 1. Auflage der Druckversion. Die Onlineausgabe ist lizenziert unter Creative Common (Namensnennung - Nicht-kommerzi- ell - Weitergabe unter gleichen Bedingungen 3.0) Unported Lizenz.(http://creativecommons. org/licenses/by-nc-sa/3.0/deed.de) Bibliografische Information der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.ddb.de abrufbar. Gedruckt mit Mitteln der HBK Braunschweig ISBN 978-3-643-13548-3 Printed in Germany Inhaltsverzeichnis Tobias Conradi, Florian Hoof, Rolf F. Nohr 7 Medien der Entscheidung – Einleitung Serjoscha Wiemer 23 Von der Matrix zum Milieu. Zur Transformation des Entscheidungsbegriffs zwischen homo oeconomicus und evolutionärer Auslese Martin Doll 47 Der Staat als automatisiertes Warenwirtschaftssystem: Edward Bellamys utopischer Ausblick auf volkswirtschaftliche Planbarkeit im Jahr 2000 Eva Schauerte 67 Von Delphi zu Hyperdelphi – mediale Praktiken des Beratens und die Entscheidung des Unentscheidbaren Kerstin Hoffmann 87 Das Entscheidungsblatt im Unternehmensplanspiel – Medium der Entscheidungshilfe oder einschränkender Entscheidungsrahmen? Florian Muhle / Josef Wehner 111 Algorithmus und Entscheidung. Anspruch und Empirie personalisierter Medienangebote im Internet Andreas Weich / Julius Othmer 131 Unentschieden? Subjektpositionen des (Nicht-)Entscheiders in Empfehlungssystemen am Beispiel von Amazon Inhaltsverzeichnis 5 151 Ralf Adelmann Modellierungen der Unentschlossenheit: Empfehlungssysteme als Kampfzone popkultureller Entscheidungsprozesse 171 Manuela Klaut Verfahren im Videotape 187 Alexander Zons Die Entscheidung des Films 209 Hartmut Winkler Don’t be a Maybe. Entscheidungslust, Entscheidungsdruck und Entscheidungsnot unter den Bedingungen der Moderne 227 AutorInnennachweis 231 Abbildungsnachweis 6 Inhaltsverzeichnis Tobias Conradi, Florian Hoof, Rolf F. Nohr Medien der Entscheidung – Einleitung Entscheidung als epistemologisches Feld Den Begriff der ›Entscheidung‹ aufzurufen führt »Choose life. Choose a job. Choose a career. fast zwangsläufig auch dazu, über den Status Choose a family. Choose a fucking big televi- des Subjekts und seine (Un-)Freiheit nachzu- sion. Choose washing machines, cars, com- denken. Die Freiheit zur Entscheidung wird ge- pact disc players and electrical tin open- meinhin (und manchmal eher intuitiv bis naiv) ers. Choose sitting on that couch watching mit der Fähigkeit des Menschen gleichgesetzt mind-numbing, spirit-crushing game shows, angesichts verschiedener Wahlmöglichkeiten stuffing fucking junk food into your mouth. eine bewusste Entscheidung treffen zu können. Choose rotting away in the end of it all, pis- So wird die Produktdiversifizierung schnell zum sing your last in a miserable home, nothing Synonym für Freiheit und die Produktwahl zum more than an embarrassment to the sel- sinnstiftenden Entscheidungsakt. Es bedarf an fish, fucked up brats you spawned to re- dieser Stelle aber nicht (nur) des ›Entscheidungs- place yourself. Choose your future. Choose verweigerers‹, wie Renton, einer der Protago- life... But why would I want to do a thing like nisten aus Irvine Welshs Trainspotting, um die that?« Fragwürdigkeit einer solchen Setzung aufzuzei- gen. Die vorgebliche Rationalität von Entscheid- Trainspotting, Irvine Welsh 1993, S.187 barkeiten, Entscheidungshandeln und Entschei- dungskonsequenzen wird auch durch einen Perspektivwechsel brüchig, der die Entscheidung nicht mehr als performanten Willensakt veranschlagt, sondern als symbolische Markierung für ein eher dif- fuses Feld von Handlungsakten und Prozessualitäten, denen erst ex post über die begriff liche Aufladung ›Entscheidungsfreude‹, Rationalität und Beherrsch- barkeit zugeschrieben wird. Entscheidungen sind paradox, so die Beobachtung Niklas Luhmanns. Ihm zufol- ge sind sie non-lineare Operationen, die einen Bruch zwischen zwei Zuständen markieren; das Entscheiden wird erst in der Rückschau zu dem logisch-rationalen Verfahren verklärt, als das es uns anmutet: Einleitung 7 »Von jeder Gegenwart aus wird die Vergangenheit als nicht mehr änderbar, die Zukunft dagegen als noch änderbar beobachtet. Komplementär dazu läßt die Entscheidung sich durch die Vergan- genheit nicht determinieren. Sie konstruiert die Alternativität ihrer Alternative unter dem Ge- sichtspunkt ›was sein könnte‹; und sie konstruiert sie in ihrer Gegenwart. Was künftige Gegen- warten betrifft, geht die Entscheidung aber davon aus, daß es einen Unterschied machen wird, ob und wie sie getroffen wird. Also: keine Bindung an die (nicht mehr änderbare) Vergangen- heit, wohl aber Selbstbindung in Richtung auf die (noch änderbare) Zukunft.« (Luhmann 1993, 291 ; Herv. i. O.) Der Akt des Entscheidens, das willkürliche »Draw a distinction« (Spencer- Brown 1972, 3) bezeichnet einen arbiträren Zeitpunkt, zu dem aus einer prin- zipiell unendlichen Anzahl an Wahl- und Verhaltensmöglichkeiten eine präfe- riert wird. Im gesellschaftlichen und wissenschaftlichen Diskurs hingegen werden Ent- scheidungen in den wenigsten Fällen (noch zumal unter der analytischen Per- spektive Luhmanns) als willkürlich und paradox aufgefasst. Ganz im Gegen- teil ist die Entscheidung hier ein wirkmächtiges Moment der Stillstellung und Festlegung. Ein kurzer etymologischer Abriss der Figur des Entscheidens deutet darauf hin, dass es sich dabei um eine grundlegende Tätigkeit handelt: Im Mittelhochdeut- schen verweist das Entscheiden ab dem 14. Jahrhundert auf den Richterspruch, der zunächst durch die Trennung und somit Bestimmung von Aussagen und Ansichten zur »richtigen Entscheidung« führen sollte (vgl. Kluge 2011, 249). Die ›Trennung‹ beinhaltet hierbei noch den älteren Wortstamm, das althochdeut- sche skeidan oder mittelhochdeutsche scheiden (ebd., 798), was wiederum den engen Zusammenhang zwischen der Unterscheidung und der Entscheidung be- glaubigt. Entschieden werden kann nur, was als getrennt, verschieden und in- sofern als Alternative betrachtet werden kann. Im heutigen Gebrauch des Terminus verweist die ›trennende Entscheidung‹ auf einen Prozess, der die Kontingenz und die Optionalität des Zukünftigen (vorgeblich) minimiert. Die Praxis des Entscheidens ist Teil und Grundlage wirkmächtiger Narrative und ausgeklügelter decision-environments. Ein epi- stemologisches Feld, das sich aus Ansätzen der Wahrscheinlichkeitstheorie, der mathematischen Spieltheorie, rational-choice-Ansätzen, Simulationstheo- rie oder Sozialpsychologie speist, konstituiert eine ›Rationalität der Entscheid- barkeit‹. Diese Rationalität kulminiert in der fast transzendent überhöhten, ursprünglich aus dem Repertoire des Industriemanagements entsprungenen Gestalt des ›Top-Entscheiders‹. Diese Figur, die Entscheidungen ›ohne zu zau- dern‹ fällt, für jede Konsequenz einzustehen verspricht und ihre Entschei- 8 Einleitung dungen gestützt auf einen ›Apparat des Faktenwissens‹ trifft, ist zu einem handlungsleitenden Motiv in vielen gesellschaftlichen Bereichen geworden – zumindest als Wunschkonstellation, die als Gegenentwurf zum intuitiv ent- scheidenden, ›von seinem Bauchgefühl‹ getriebenen Manager-als-Künstler-Ty- pus gelten mag. Zögern, Aufschieben, Nicht-Entscheiden werden mit neuen Begriffen, etwa dem des ›Prokrastinierens‹, pathologisiert. Entscheidungsfreudige werden zö- gerlichen, möglicherweise dem Müßiggang zugeneigten Charakteren vorge- zogen. Befeuert wird dieser Blick auf die Entscheidung nicht zuletzt durch das social engineering zeitgenössischer Unternehmensberatungen, die Individuen in eine »decision-focused culture«¯1 einzubinden versuchen. In diesen Sinn- systemen einer prekären »projektbasierten Polis« (Boltanski/Chiapello 2003) ist es gerade der Akt der Entscheidung, der Erfolg garantiert und der hilft, per- sönliche Unsicherheiten und Unwägbarkeiten zu überwinden und zu vermei- den. Nur wer in der Lage ist selbstbestimmte Entscheidungen zu fällen – so der Tenor dieser Narrationen – ist seines eigenen Glückes Schmied. Denn, wie oben schon erwähnt, ist die Entscheidung oder der Wahlakt in dieser Betrach- tungsweise über den Begriff der Freiheit zutiefst mit dem Status des Subjekts verbunden. Und so ruft eben genau der Wahlakt auch die Urzelle des Demo- kratischen auf, sodass sich auch das Politische als Entscheidungsdynamik le- sen lässt: Jede (Urnen-)Wahl ist ein Entscheidungsakt, jede politische Entschei- dung besteht in der Elimination derjenigen Alternativen, die dem Willen der Mehrheit der sich-entschieden-habenden-Bürgersubjekte zuwiderlaufen wür- de – es sei denn, es würde sich ›Alternativlosigkeit‹ einstellen. Doch das durch den Entscheidungsbegriff umrissene epistemologische Feld beschränkt sich nicht auf zeitgenössische Phänomene. Seit den 1920er Jah- ren haben Vertreter des rational-choice Ansatzes den Akt der Entscheidung zu einem zentralen Teil ihrer Beschreibung von bewusstem, rationalem Handeln gemacht. In ihm manifestieren sich die unterschiedlichsten Abwägungen, In- formationen und Strategien mit denen sich ein Individuum in der Welt ori- entiert. Der Entscheidungsakt ist wichtiger Bestandteil wirtschaftswissen- schaftlicher Handlungsmodelle und zugleich liefern die Beobachtungen von Entscheidungskaskaden den empirischen Nachweis für die These des nutzen- maximierenden homo oeconomicus. Und dieser homo oeconomicus kann hier sicher auch als ein ›Gegengift‹ zum Freudschen Subjekt verstanden werden: ein Subjekt, dass seine Entscheidungen an das Unbewusste delegiert und nicht mehr ›Herr im eigenen Haus‹ ist. Eine andere, aber ebenso grundsätzliche Bedeutung erhält die Figur des Ent- scheidens in der Beschreibung und Formalisierung maschineller Informati- Einleitung 9 onsverarbeitung. In kybernetischen Denkmodellen wird die Entscheidung als grundlegende Operation der Informationsverarbeitung verankert. Norbert Wiener etwa definiert Information als die »Registrierung einer Auswahl zwi- schen zwei [...] Alternativen. [...] Eine Auswahl dieser Art wollen wir Entschei- dung nennen« (Wiener 1971, 87; Herv. i. O.). Im ›Entscheiden‹ – möglicherweise gerade der Unschärfe dieses Begriffs ge- schuldet – bündeln sich unterschiedlichste Aspekte, die in der einen oder an- deren Form gesellschaftliche Wirkmächtigkeit entfalten. Dabei handelt es sich beim Entscheiden sowohl um ein empirisches Ereignis, als auch um eine diskur- sive, sich in technischen und medialen Konfigurationen materialisierende Vor- stellung. Die Entscheidung ist zuallererst ein »kommunikatives Ereignis und nicht etwas, was im Kopf eines Individuums stattfindet« (Luhmann 2011, 141). Damit ist zugleich gesagt, dass Entscheidungen vorbereitet, nachbereitet, le- gitimiert und in robuste Prozesse überführt werden müssen. Wo immer Ent- scheidungen getroffen werden, sind daher auch Medien zur Stelle, um diese vorzubereiten, zu dokumentieren, zu verlautbaren, zu archivieren oder gege- benenfalls auch selbst zu treffen. Dies ist das Thema der hier versammelten Beiträge. Ausgestellte und diskrete Entscheidungen Die Entscheidung als Handlung schließt Alterna- »Ich habe heute kein Foto für dich!« tiven aus und ist stets mit Macht assoziiert – da- Heidi Klum mit nimmt das Entscheiden den Charakter eines kommunikativen Ereignisses an. Dies zeigt sich unter anderem am Beispiel der Casting-Shows im Fernsehen, die den Moment der Entscheidung als herausragendes Ereignis exponieren und ihn innerhalb ihrer sendungsspezifischen Rahmung als Höhe- punkt inszenieren. Sie zögern den einen Moment, um den sich die gesamte Dra- maturgie des Formats zu drehen scheint hinaus, nicht nur durch Werbeunter- brechungen, sondern auch durch unterstützende Musik und dramaturgische ›Kunstpausen‹, um ihn schließlich als erlösende Klimax zu feiern: der Einzug ins Recall, ein Foto von Heidi für die nächste Runde, der sich drehende Stuhl des überzeugten Juroren – oder aber die Niederlage, das endgültige Scheitern ei- ner Kandidatin. Es zeigt sich auch im Mythologem des Hollywood-Helden, der als Entscheider selbst in Augenblicken der größten Katastrophe einen kühlen Kopf bewahrt, bevor er durch beherztes Eingreifen den Planeten, die Mensch- heit oder zumindest die Familie rettet.¯2 Es zeigt sich in Trailern zu Compu- 10 Einleitung terspielen, die, unabhängig davon, ob es sich um Egoshooter, Rennspiele oder serious games handelt, Entscheidungen als zentrale Attraktion des Spielver- gnügens bewerben.¯3 Es zeigt sich schließlich in Nachrichtenformaten, wenn die Entscheidungen über Rettungsschirme, Hilfspakete oder ›humanitäre In- terventionen‹ als zentrales Ereignis einer vermeintlich alternativlosen Poli- tik¯4 repräsentiert werden. In ihrer emphatischen Ausprägung sind Entschei- dungen ein Ereignis. Hier sind sie eng verbunden mit dem Momenthaften, der Irreversibilität, Unausweichlichkeit und der Konnotation eines entscheidungs- mächtigen Subjekts, mit einer Freiheit der Wahl und Ausdruck individueller Selbstbestimmung. Abseits inszenierter und ausgestellter Entscheidungsprozesse gibt es späte- stens seit Mitte des 19. Jahrhunderts Überlegungen, wie sich gute Entschei- dungen für ökonomische und staatliche Belange herstellen, sichern und ver- stetigen lassen. In Wirtschaftsunternehmen werden charting-rooms installiert (Yates 1985), in denen dem Management die als relevant erachteten Betriebs- daten gebündelt und in visualisierter Form für eine »at a glance« zu treffende Entscheidung zur Verfügung stehen (Hoof 2015a) – eine Praxis die sich bis zu den heute aktuellen dashboards fortsetzt.¯5 Ab den 1910er Jahren bieten Un- ternehmensberatungen als »forecasting« bezeichnete formalisierte »business research services« zur Strategie- und Zukunftsplanung an (Hoof 2015b, 29). Zur gleichen Zeit beginnt die Wirtschaftswissenschaft den Akt der Entscheidung zu theoretisieren. Bestehende Überlegungen und Erfahrungen, wie rationale Ent- scheidungen unter der Bedingung von Unsicherheit zu treffen sind, werden in Handlungsmodelle und Entscheidungstypologien überführt. Darauf aufbau- end setzen sich mathematisierte Modelle, wie beispielsweise die mathema- tische Spieltheorie durch, in denen Entscheidungshandeln als berechenbarer Faktor ökonomischen Handelns erscheint.¯6 Auch die Anstrengungen des Operations Research, Entscheidungen zu forma- lisieren, stützen sich auf die mathematische Spieltheorie. Ursprünglich für die Anwendung mathematischer Methoden zur Entwicklung und Berechnung von Taktiken des effektiven Gebrauchs des Radars entwickelt und zur Lösung lo- gistischer Probleme eingesetzt (Waring 1991, 21), wurde Operations Research in der Nachkriegszeit für die Effektivierung und grundsätzliche ›Verwissen- schaftlichung‹ der Planung – und somit der Entscheidungsfindung – in Unter- nehmen eingesetzt (Kirby 2003). Im Anschluss an diese historische Entwicklung managerialer Entscheidungs- und Beratermedien rufen Entscheidungen dieser Tage den Modus operatio- naler und pragmatischer Verfahrenslogiken auf und können damit im Zentrum der Analyse macht- und wissensbasierter gesellschaftlicher Regelungsfunkti- Einleitung 11 onen verortet werden (vgl. dazu beispielsweise die Fallstudie zu frühen Unter- nehmensplanspielen von Nohr/Röhle 2016). Medien reduzieren Komplexität, machen Entscheidungen möglich und da- durch Subjektformationen wie den ›Entscheidungsträger‹ und Diskursfiguren wie den ›Entscheidungsakt‹ gleichermaßen narrativ plausibel wie formal ent- behrlich. Plausibel und nachgerade notwendig bleiben der Entscheider oder die Entscheiderin als Zielpunkt einer Zurechnungskette: Mit dem Moment der Ent- scheidung trägt er/sie immer auch Verantwortung. Entbehrlich wird das Sub- jekt der Entscheidung im Moment der Formalisierung von Entscheidungsprä- missen, die als Rahmung zu treffender Entscheidungen das Verfahren selbst zu einer Frage der Quantität und Korrelation zur Verfügung stehender Daten- sätze machen. Zielt hier die Entwicklung medial-, apparat- oder agentenbasier- ter Entscheidungsfindung in Konsequenz darauf ab, das Subjekt bzw. den Ent- scheider selbst zu suspendieren? Ein Bericht der Tagesthemen über den Chaos Communication Congress 2015 in Hamburg beschreibt das Unbehagen, das die zunehmende Verlagerung von Entscheidungsbefugnissen an Algorithmen und Computer erzeugt: »Wer darf einreisen? Wer muss draußen bleiben? Wer ist gesund genug für die günstigste Kran- kenversicherung? Computer helfen diese Entscheidung zu treffen, analysieren gigantische Da- tenmengen um für Banken zu bestimmen, wer kreditwürdig ist. Auf dem Hackerkongress in Hamburg treffen sich die, die die Technik verstehen, sie selbst mitgestalten. Andreas Dewes ist ›Data-Scientist‹. Er zeigt auf, dass Computer ungerecht sein können. Dass Entscheidungsverfah- ren, sogenannte Algorithmen, sich verselbstständigen.« (Tagesthemen, 28.12.2015) Abzuwarten bleibt, ob solche ›subjekteliminierenden‹ Entscheidungsverfah- ren einer »algorithmischen Kultur« (Galloway 2006) schlicht technik- und/oder kulturdystopische Phantasien sind, ob sie sich im Sinne der von Hartmut Wink- ler (1997) etablierten Idee des Antriebs der Mediengeschichte durch Wünsche als »Wunschkonstellationen« entpuppen werden oder ob es der Logik des Me- dialen tatsächlich immanent ist, den Modus der Entscheidung vom Subjekt zu lösen. Aber zumindest ist hier wohl in Betracht zu ziehen, dass die Modi solcher Entscheidungsverfahren die jenseits subjektgebundener Intervention liegen, sehr unterschiedliche Auswirkungen entsprechend der Wirkungsebene ihrer Anwendung zeitigen werden: Globalökonomische Entscheidungen, die auf der Basis massiver Big-Data-Auswertungen automatisiert getroffen werden, fin- den auf einer anderen Ebene statt als automatisierte Systementscheidungen der Feedback-Ebene selbstregulierender Thermostate in smart homes. Ent- scheidungshandeln erscheint, gerade unter der Perspektive des Medialen ska- lierbar – so wie es natürlich auch auf der Ebene des Subjekts einen Unterschied 12 Einleitung (zumindest bezüglich der ›Haftbarmachung‹) zwischen dem ›Top-Entscheider‹ und dem ›zeichnungsberechtigten Stempelbeauftragten‹ zu machen gilt. Medien fungieren als Entscheidungshilfen, stellen aber gleichzeitig Entschei- dungsinstrumente bereit und übernehmen dabei zunehmend auch Entschei- dungsbefugnisse. Sie prozessieren Entscheidungen ganz konkret, z.B. wenn in Tools wie Adhocracy oder Liquid Feedback debattiert wird oder in Umfragen und Psychotests Antwortalternativen vorgegeben werden. Zugleich sind sie indirekt, in Form von Selektions- und Unterscheidungskriterien auf der tech- nischen Ebene (z.B. Entscheidungsbäume und -matrizen), der strukturellen Ebene (z.B. Code, Zeichen) und der inhaltlichen Ebene (z.B. Gatekeeper, Per- spektivität) in Momente der Entscheidung involviert. Und schließlich sind Ent- scheidungen selbst in die Funktionsweise technischer Medien – etwa über den Binärcode des Computers und logische Schaltungen – eingeschrieben. Eine mögliche Begründung für diese spezifische ›computistische‹ Entscheidungs- rationalität ist die Fundierung der technischen und symbolischen Architektur des Computers auf dem ›Rücken‹ der oben schon erwähnten mathematischen Spieltheorie. Kulturell korrespondiert der Konnex zwischen Medien und Entscheidungen mit einer Inflation suggerierter Wahlmöglichkeiten. Die Vielfalt möglicher Lebens- entwürfe (vom Bildungsweg bis zur Bestattungsart), offerierter Konsuman- gebote (von der Kaffeebohne bis zum Fernsehapparat) und individualisierter Freizeitgestaltung (von der Hotelbuchung bis zur Festlegung der Kameraper- spektive im Digital-TV) unterwirft die Subjekte einem kulturellen Imperativ der Entscheidung. Auch hier sind mediale Formationen als Werkzeuge der Re- lationierung, Prozessierung und Plausibilisierung in das ›Management‹ gesell- schaftlicher Komplexität involviert. Dies wirft zum einen die Frage auf, wie sich die Proklamation individueller Freiheit zum oktroyierten Akt der Entschei- dung verhält, lenkt zum anderen aber auch den Blick auf übergreifende Ra- ster diskursiver Positionierung und die Frage, wer im Zweifelsfall die Definiti- onshoheit über ›Sachzwang‹ und ›Alternativlosigkeit‹ besitzt. Darüberhinaus stellt sich auf epistemologischer Ebene die Frage wann und warum Entschei- dungen problematisiert werden und wann eingespielte Entscheidungsrouti- nen sich ob ihrer Selbstverständlichkeit als Teil der im Hintergrund stehenden Infrastruktur aus dem Bereich sichtbarer Operationen entfernen.¯7 Einleitung 13 Fragestellungen des Bandes Das Entscheiden lässt sich nicht nur als praktische Tätigkeit, sondern auch als grundlegende logische Operation verstehen. In dieser Lesart kommt dem Ent- scheidungsbegriff eine zentrale Rolle in den kybernetischen Informations- theorien zu. Abweichend von einem materialistischen Verständnis, etwa des ›Ritzens‹ oder ›Schneidens‹, das die etymologischen Wurzeln (s. oben) dem Terminus beigeben, wird hier das Entscheiden als eine logische Operation auf den abstrakten Gegenstand der Information angewendet. Dies ist gleichbe- deutend mit einer ersten Formalisierung verrechenbarer Informationen, die in diskreten, fest definierten Zuständen vorliegen. Neben einer pragmatischen Herangehensweise, wie sich Datenmengen klassifizieren und prozessieren las- sen, sind damit auch übergeordnete philosophische und politische Fragestel- lungen berührt, wie von Förster ausführt: »Only those questions that are in principle undecidable, we can decide. Why? Simply because the decidable questions are already decided by the choice of the framework in which they are asked, and by the choice of the rules used to connect what we label ›the question‹ with what we take for an ›answer‹. In some cases it may go fast, in others it may take a long, long time. But ultimately we arrive after a long sequence of compelling logical steps at an irrefutable answer; a definite ›yes‹, or a definite ›no‹.« (von Förster 2003, 293) Die Anwendung des Entscheidungsbegriffs geht einher mit einer grundsätz- lichen Festlegung welche Aspekte Teil einer Entscheidung sind und welche nicht. Die so getroffene Vorauswahl konstruiert erst die am Ende vorliegende Entscheidung und deren Reichweite und damit deren gesellschaftliche Wirk- mächtigkeit. Dies betrifft nicht nur die Dimension der Deutungsmacht über Entscheidungen oder Entscheidungssettings. Verbunden damit ist auch die Frage welche Logiken mit und in Entscheidungen vorliegen. Wann und unter welchen Umständen entstehen Entscheidungskonfigurationen? Wie hängen Entscheidungen mit Fragen der Kontingenz und Komplexität zusammen? Ist die Bildung von Entscheidungskonfigurationen eine Reaktion auf eine Über- forderung gesellschaftlicher Subjekte, durch die an sie herangetragenen An- forderungen? So betrachtet wäre das Herausbilden formalisierter Entschei- dungen eine Möglichkeit zur Kontingenzminimierung, durch das Unterteilen bestehender Handlungspraktiken in feinere Entscheidungsmuster. Damit ist allerdings auch gesagt, dass Entscheidungen das Resultat von Zurechnungs- prozessen sind, die wiederum auf einer extremen Vereinfachung möglicher Kausalwahrnehmungen beruhen. Aus dieser Perspektive ist die Figur des Ent- scheidens ein »selbstgemachtes Artefakt« (Luhmann 1993, 287), bei dem sich 14 Einleitung die Frage stellt, wer dieses Artefakt dominiert und wer dadurch zusätzliche Handlungsmacht erhält. Geht man darüber hinaus davon aus, dass es sich bei Entscheidungen um ein paradoxes Phänomen handelt, das gerade keiner linearen Logik entspricht, ist ein weiterer Aspekt die Frage nach der möglichen Kontrolle eines Entschei- dungsverfahrens. Selbst deren Urheber können sich nicht sicher sein, ob die von ihnen geschaffenen und kontrollierten Entscheidungskonfigurationen ih- ren ursprünglichen Intentionen entsprechen. Schließlich könnte die von ihnen zu Beginn getroffene Entscheidung für ihre Zwecke ungünstig gesetzt sein. Wie verhält sich also die mit Entscheidungen ebenfalls verbundene Vorstel- lung von der Verfahrenskontrolle zu eigendynamischen, prozessualen Entwick- lungen, die eine ursprünglich vorhandene Intention möglicherweise unterlau- fen oder konterkarieren? Für den Band ergeben sich daraus Fragen nach der mit Entscheidungen verbundenen Unsicherheitsabsorption (Luhmann 1993, 299). Welche Formen von Wahlmöglichkeiten erlauben es welchen Subjekten Kontin- genz zu reduzieren? Wann führen formalisierte Entscheidungsumgebungen zu einem Zuwachs von Handlungsmacht und wer ist gleichzeitig von einem Ver- lust an Handlungsmacht betroffen? Wie verlagern sich blinde Flecken des Be- obachters, wenn auf formalisierte Entscheidungsroutinen gesetzt wird? Wie lässt sich erklären, dass die Vielfalt an Wahlmöglichkeiten innerhalb einer ka- pitalistisch organisierten Konsumgesellschaft zunehmend als Belastung für den Einzelnen empfunden wird? Welche Verlagerungen an Handlungsmacht lassen sich in digitalen Netzwerk-Märkten feststellen? Beiträge zu den ›Medien der Entscheidung‹ Die Beiträge des vorliegenden Bandes werden nicht alle der hier einleitend auf- geworfenen Aspekte des Entscheidens thematisieren. Dennoch decken sie eine große Bandbreite ab. Die ersten beiden Beträge beschäftigen sich mit der hi- storischen Tiefendimension des Entscheidens und rekonstruieren Grundlagen und Vorbedingungen, die ein Verständnis des Entscheidens, wie wir es heu- te verhandeln erst möglich machen. Der Beitrag von Serjoscha Wiemer greift auf eine der zentralen Denkfiguren der mathematischen Spieltheorie zurück – das so genannte ›Gefangenen-Dilemma‹ – und zeigt, wie sich daran anknüp- fend ein Diskurs zur ›Selbstbeschreibung der Gesellschaft‹ entwickelte, an den sich jeweilig variable Vorstellungen von Rationalität, Wahl, Konflikt, Vernunft, Souveränität sowie Erkenntnis- und Wissensproduktion anlagerten. Vor allem die enge, durch Formalisierung gewährleistete Verbindung des Spielbegriffs Einleitung 15 mit Konzepten von Berechenbarkeit bzw. Algorithmisierung stehen hier im Au- genmerk. Die ›Spiele‹ der mathematischen Spieltheorie werden darüber hi- naus als Szenarien verständlich, die ›entscheidungskritische‹ Situationen be- schreiben, erzählen und modellieren, deren ›Lösung‹ nur durch ›regelhaftes Entscheiden‹ möglich ist. Der folgende Beitrag von Martin Doll geht in der Ar- gumentation noch einen weiteren historischen Schritt zurück und arbeitet un- ter anderem in Edward Bellamys Science-Fiction Roman Looking Backward or Life in the Year 2000 (1888) eine Utopie der Auflösung der Politik heraus, die aus einer Substitution der Entscheidung durch ein (kybernetisches) Verwal- tungssystem besteht. Diese ›Technisierung der Politik‹ berührt in der Phantasie des Romans nicht nur die mikrosoziologische Handlungsebene, sondern auch, wie Doll deutlich macht, die generelle Frage, wie sich die Entscheidung als poli- tisches Versprechen der ›Wahl‹ verändert. Im Kontext managerialer Formalisie- rung von Entscheidungsvorgängen ist diesbezüglich eine Tendenz erkennbar, Politik durch Verwaltung zu ersetzen. Die Verengung potentieller Wahlfreiheit durch Bürokratie aber unterminiert das zentrale Versprechen des Entschei- dungsakts als einer freien Wahl, mit der das Individuum Verantwortung für sein eigenes Tun übernimmt. Die zwei folgenden Texte verstehen sich als Fallstudien und rücken die Fra- gestellung bereits näher an die Gegenwart heran. Sie thematisieren Projekte, die nicht als abstrakte theoretische Entwürfe oder als sozialutopische Szena- rien entwickelt wurden, sondern denen ein konkreter Impuls der gesellschaft- lichen Transformation zugrunde lag. In ihrem Beitrag zu den Praktiken des Beratens untersucht Eva Schauerte die Delphi Methode, ein von der RAND Cor- poration entwickeltes Entscheidungsverfahren, das von einer deutschen For- schergruppe aufgegriffen wurde und 1971 als Ausgangspunkt für ein Fernseh- experiment im WDR diente. Dort wurde das ursprünglich für Entscheidungen zwischen Politik und Militär konzipierte Verfahren mit Formen des direkten Zuschauerfeedbacks erweitert. Schauerte analysiert wie mit verschiedenen Ar- ten des Feedbacks experimentiert wurde, um am Ende das Unentscheidbare, etwa das Verhalten im Kontext eines atomaren Angriffs, entscheidbar zu ma- chen. Es wird deutlich, wie es sich in der Geschichte der Beratung gezeigt hat, dass Medien der Beratung und Medien der Entscheidung nicht voneinander zu trennen sind, sondern einen zusammenhängenden, sich gegenseitig überfor- menden Prozess bilden.¯8 Bereits ab Mitte der 1950er Jahre etablieren sich (zunächst in den USA, aber auch bald in der BRD) Unternehmensplanspiele, die eine ganz eigene Idee der Einübung von Entscheidungsverfahren etablieren (vgl. im Überblick Nohr/Röh- le 2016). Planspiele, die seit Mitte der 1950er Jahre in der Aus- und Weiter- 16 Einleitung bildung von Führungskräften eingesetzt werden, gelten als ein besonderes Instrument des Entscheidungstrainings. Der Beitrag von Kerstin Hoffmann fo- kussiert in diesem Umfeld auf zwei ausgewählte bundesrepublikanische Bei- spiele und zielt dabei auf die den meisten dieser Planspiele zentrale ›Instanz‹ des Entscheidungsblattes. Diese Formulare entfalten innerhalb der Logik der Planspiele und business simulations nochmals eine eigene Dynamik der Reduk- tion von Entscheidungsverhalten, indem sie strategische Vorüberlegungen in eine simple Kennzahl überführen. Die nächsten drei Aufsätze beleuchten auf ganz unterschiedliche Weise den Ein- satz, die Grenzen und die Reflexion gegenwärtiger Entscheidungshilfesysteme. Der Beitrag von Florian Muhle und Josef Wehner befasst sich mit den Schwie- rigkeiten und Fallstricken der Entwicklung und Implementierung von Empfeh- lungsalgorithmen. Unter Bezugnahme auf eine empirische Studie zu einem Online-Musikanbieter hinterfragen sie die Personalisierungsversprechen, Ra- tionalität und (vermeintliche) Autonomie algorithmisierter Entscheidungsfin- dung. Die Delegierung von Entscheidungskompetenz an einen Algorithmus verursacht stetig neue Interpretations- und Koordinationsanforderungen. Empfehlungsalgorithmen durchlaufen demnach keinen linearen Weg zu an- steigender Perfektion und Passgenauigkeit. Entgegen einer geheimnisvollen und beängstigenden Macht der Algorithmen zeigt das analysierte Beispiel ein kontinuierliches Changieren im Sinne eines trial and error-Prozesses. Die Pra- xis algorithmisierter Entscheidungsfindung ist mit ständiger Arbeit, Anpas- sung der Zielvorgaben und Veränderungen von Konzepten und Lösungswegen verbunden, in deren ›Mangel der Praxis‹, wie Muhle/Wehner mit Bezug auf Pi- ckering (2007) beschreiben, schließlich sogar die Aufwertung menschlicher Ex- pertise stehen kann. Im nachfolgenden Beitrag untersuchen Julius Othmer und Andreas Weich den Status Quo von Empfehlungsalgorithmen – konkret am Beispiel von Amazon – und fragen insbesondere nach der Subjektposition des Entscheiders. Eine Kauf- entscheidung, die im Falle des Online-Händlers durch Empfehlungsalgorith- men effektiver und rationaler gestaltet werden soll, wird in eine Kaskade aus Vorentscheidungen und Entscheidungen verschachtelt und zudem durch eine Vielzahl beteiligter Akteure beeinflusst. Während konsumorientierte Bera- tungsangebote an die rationale Entscheidung eines homo oeconomicus appel- lieren – den diese ›Angebote‹ selbst zuallererst mitformen, interpellieren und hervorbringen – entsteht die eigentliche Entscheidungssituation erst, wenn die kalkulierende Rationalität im Paradox der Entscheidung an ihre Grenze ge- rät. Othmer/Weich zufolge wird somit auch der rational entscheidende homo oeconomicus letztlich auf Emotionalität und Affektivität zurückgeworfen. Einleitung 17 Ralf Adelmann fokussiert in seinem Beitrag auf unterschiedliche Wissenstypen von Empfehlungssystemen und damit in Konflikt stehende populärkulturelle Kämpfe. Deutlich wird hier, dass – trotz aller Entscheidungsvorbereitung durch Algorithmen – die kulturellen Praktiken immer noch Aspekte von Widerstän- digkeit aufweisen, die sich nicht in Praktiken des data mining übersetzen las- sen. Adelmann beschreibt unterschiedliche und sich widerstrebende Strate- gien einer Modellierung der Unentschiedenheit. Das mathematische, exakte Wissen der Programmierer, so macht Adelmann deutlich, wird an verschie- denen Schnittstellen mit eigensinnigen und ›schmutzigen‹ Praktiken der Nut- zer konfrontiert. Manuela Klaut beschäftigt sich mit den Medien der Entscheidung im Gericht und der Frage, wie diese zu entscheidenden Medien werden. Sie beschreibt wie Medien in den juristischen Diskurs eingeführt werden und welche legitimato- rischen Bemühungen dies nach sich zieht. Am Beispiel des Einsatzes von Video am internationalen Strafgerichtshof in Den Haag und im Münchner NSU Pro- zess zeigt sie auf, wie sich juristische Routinen und Verfahren an den Medien »scheiden« (Steinhauer 2015). Die Zulassung und der Einsatz von Medien indu- ziert eine mediale Eigenlogik in das juristische Verfahren, die dieses bis hin zu konkreten Konsequenzen für die Prozessberichterstattung verändert. Der Ein- satz von Medien entspricht einer im Vorfeld getroffenen Festlegung, die im Laufe von Gerichtsprozessen zu einer Abfolge ineinander gewendeter Verfah- ren und Entscheidungen führt, die nicht mehr nur auf juristische Verfahrens- logiken zurückzuführen sind. Alexander Zons untersucht, wie sich konkretes Entscheidungshandeln in der Form von Agenten- und Akteurs-Netzwerken der Filmindustrie niederschlägt. Er geht von der informationsökonomischen Prämisse aus, dass ökonomisch weitreichende Entscheidungen in der Filmindustrie für oder gegen einen Film vor dem Hintergrund einer nicht aufzulösenden Unsicherheit ob deren spä- teren Erfolgs getroffen werden müssen. Wie sich daraus Verfahren des Risi- komanagements und der Unsicherheitsabsorption herausbilden untersucht Zons, indem er die Rolle des Filmagenten, als einem Mittler zwischen verschie- denen Akteuren, herausarbeitet. Damit erweitert er medienökonomische An- sätze, die in erster Linie auf die dabei anfallenden Transaktionskosten abzielen und stellt ihnen eine netzwerksoziologische Modellierung der dabei invol- vierten Akteure und deren Entscheidungshandeln zur Seite, um ›Märkte als so- ziale Strukturen‹ (Beckert/Diaz-Bone/Ganßmann 2007) verstehen zu können. Der Band beschließt mit einem Beitrag von Hartmut Winkler, der die Entschei- dung als eine Kulturtechnik zur Reduzierung von Komplexität einordnet. Die Fähigkeit zur Entscheidung gilt, so Winklers Diagnose, als Ausweg aus einer 18 Einleitung durch stetig zunehmende Differenzierung gekennzeichnete und an vermeint- lich unüberschaubarer Komplexität krankende Moderne. Eben jene Komple- xität, die gerade nicht mit tatsächlicher Optionenvielfalt zu verwechseln ist, verlangt nach Techniken, die Komplexität handhabbar machen. Der ›Möglich- keitsraum‹, aus dem die für eine Entscheidung bereits zugerüsteten Alterna- tiven ausgewählt und programmiert werden, fällt nach Winkler dabei jedoch aus dem Blick. Eben hier liegt der Bezugspunkt zu den Medien der Entschei- dung, die – prototypisch im Fall des Computers – auf einen Raum verweisen, der eine nur noch vermeintliche Optionenvielfalt aufweist. Dort kann nur ge- wählt werden, was in einem ersten Schritt als mögliche Entscheidungsalterna- tive definiert, legitimiert und zur Verfügung gestellt wurde. Projektkonnexe – Zum Hintergrund des Bandes Der Band ist aus der Tagung »Medien der Entscheidung« hervorgegangen, die als Gemeinschaftsprojekt des DFG-Projekts »Kulturtechnik Unternehmens- planspiel« der HBK Braunschweig¯9 und des an der Goethe Universität Frank- furt in Kooperation mit der University of Sydney bestehenden Projekts »Cycles of ICT Innovation and Organisational Structure«¯10 organisiert wurde. Letz- teres untersucht Medien managerialen Entscheidens und Beratens in Wirt- schaftsunternehmen als »mediale boundary objects«, als eine soziomateri- elle Kopplung medialer Projektionen, managerialer Vorstellungen, Praktiken und Routinen mit Informations- und Kommunikationsmedien. Von besonde- rem Interesse sind daher Analysen und Rekonstruktionen medialer Entschei- dungsdispositive, sowie Prozesse deren Routinisierung in der organisationalen Wahrnehmung (Boell/Hoof 2015). Im Zentrum des Projekts »Kulturtechnik Un- ternehmensplanspiel« steht die Frage, wie in Planspielen, serious games und Aufbausimulationen das Entscheiden unter erhöhtem Erwartungs- und Zeit- druck vorbereitet, gelehrt und gelernt wird, sowie welche veränderten Sicht- weisen auf die Funktion des Probehandelns sich daraus ergeben. Von Interesse sind darüber hinaus die Strukturen von Simulationen, Szenarien und Progno- sen und wie deren ›Durchspielen‹ zur nachträglichen Legitimation von Ent- scheidungen herangezogen und durch welche medialen Formationen sie dabei bedingt und beeinflusst werden. Einleitung 19 Dank Dieser Band ist aber nicht nur das Resultat der Kooperation zweier Forschungs- projekte, sondern auch das Ergebnis des Engagements einer Reihe von Insti- tutionen und Personen, ohne die er ebenso wenig hätte gelingen können. In- stitutionell ist insofern der HBK Braunschweig und der Goethe-Universität Frankfurt wie auch der Deutschen Forschungsgemeinschaft (DFG) für infra- strukturelle und finanzielle Unterstützung zu danken. Ein ebenso großes Dankeschön richten wir an Menschen, die der Tagung und dem Buch tatkräftig helfend zur Seite standen: Frau Kosch, die studentischen Hilfskräfte Arne Fischer, Theodor Frisorger, Fedor Thiel, die MitarbeiterInnen des Haus der Wissenschaft in Braunschweig und aus Frankfurt der Lektor Phi- lippe Crackau. Ein ganz besonderer Dank gilt unserem Kollegen Theo Röhle, der die Tagung mitgestaltet und konzipiert hat und dem Band wertvolle inhaltliche Impulse gegeben hat. Den BesucherInnen der Tagung, den Vortragenden und vor allem den Beitragenden zu diesem Band gebührt unser größter Dank – ohne ihre Arbeit, Diskussionsfreude und ihren inhaltlichen Anteil hätte dieser Band nicht werden können, was er ist. Und nicht zuletzt: Wir danken für ihre Entscheidung, dieses Buch zu lesen. Anmerkungen 01˘ [http://www.bain.com/publications/articles/decision-insights-7-create-a-decision-focused- culture.aspx]; letzter Abruf 15.03.2016. 02˘ Solche Entscheidungsprobleme aktueller Actionfilme kulminieren vielleicht am ehesten im ›Wire-Dilemma‹, also der Frage welcher Draht an der tickenden Bombe zur Rettung Aller in den verbleibenden 10 Sekunden zu durchtrennen wäre: der rote oder der grüne? [http:// tvtropes.org/pmwiki/pmwiki.php/Main/WireDilemma]; letzter Abruf 19.03.2016. 03˘ »The War ... is at a turning point ... the next battles ... will not decide the future ... they decide ... if there will be a future ... Falling Skies ... The Game.« Aus dem Trailer für das Spiel Falling Skies: The Game (Little Orbit, USA 2014) zur gleichnamigen TV-Science-Fiction Serie. [https://www.youtube.com/watch?v=AmX8MqFC02w]; letzter Abruf 10.03.2016. 04˘ Zur Einordnung des durch Margaret Thatcher bei Herbert Spencer entlehnten TINA- Prinzips (there is no alternative) bzw. der in letzter Zeit durch Angela Merkels Politikstil ge- 20 Einleitung prägten Figur der Alternativlosigkeit oder des Sachzwangs s. Jäger 2007, 20. 05˘ S. dazu bspw. das Projekt von Jamie Bartlett und Nathaniel Tkacz [http://quarterly.de- mos.co.uk/article/issue-4/keeping-an-eye-on-the-dashboard/]; letzter Abruf 7.3.2016. 06˘ Aus dem in der mathematischen Spieltheorie aufgerufenen Begriff des ›strategischen Handelns‹ entwickelt sich eine ganz eigene wirkmächtige Diskursgeschichte, die letztlich aber eng verschaltet mit dem Entscheidungsbegriff bleibt (s. dazu auch Nohr 2014). 07˘ Vgl. dazu Star 2010; Star/Ruhleder 1996; Heider 1927. 08˘ Zu den historischen Aspekten der Medien der Beratung vgl. Hoof 2015b. 09˘ www.kulturtechnik.biz 10˘ www.sociomateriality.de Literatur Balke, Friedrich / Schwering, Gregor / Stäheli, Urs (2004) Paradoxien der Entschei- dung. Wahl/Selektion in Kunst, Literatur und Medien. Bielefeld: transcript. Beckert, Jens / Diaz-Bone, Rainer / Ganßmann, Heiner (2007) Märkte als soziale Strukturen. Frankfurt a. M.: Campus. Boltanski, Luc / Chiapello, Ève (2003) Der neue Geist des Kapitalismus. Konstanz: UVK. Boell, K. Sebastian / Hoof, Florian (2015) »Using Heider’s Epistemology of Thing and Medium for Unpacking the Conception of Documents: Gantt Charts and Boundary Objects«. In: Proceedings of the 12th Annual Meeting of the Document Academy, 2,1, 1-14, http://idea- exchange.uakron.edu/docam/vol2/iss1/3. Bröckling, Ulrich (2008) »Enthusiasten, Ironiker, Melancholiker. Vom Umgang mit der un- ternehmerischen Anrufung«.In: Mittelweg 36, 17,4, S. 80-86. Galloway, Alexander R. (2006) Gaming. Essays on Algorithmic Culture. Minneapolis: Uni- versity of Minnesota Press. Heider, Fritz (1927) Ding und Medium. In: Symposion, Philosophische Zeitschrift für For- schung und Aussprache 1, S. 109-157. Hoof, Florian (2015a) Medien managerialer Entscheidung. Decision-Making ›At a Glance‹. In: Soziale Systeme. Zeitschrift für soziologische Theorie, 21,1. Hoof, Florian (2015b) Engel der Effizienz. Eine Mediengeschichte der Beratung. Konstanz: Konstanz University Press. Hoof, Florian (2015c) DecisionICulture. Das Ornament der Finanzkrisen. In: Christina von Braun / Dorothea Dorn (Hg.): Spekulantenwahn. Zwischen ökonomischer Rationalität und medialer Imagination. Berlin: Neofelis, S. 111-134. Jäger, Siegfried / Jäger, Margarete (2007) Diskurs als ›Fluss von Wissen durch die Zeit‹. Ein transdisziplinäres politisches Konzept zur Deutung gesellschaftlicher Wirklichkeit. In: Einleitung 21 dies. (Hg.): Deutungskämpfe. Medien – Kultur – Kommunikation. Theorie und Praxis ange- wandter Diskursanalyse. Wiesbaden: VS Verlag, S. 15-37. Kirby, Maurice W. (2003) Operational Research in War and Peace. The British Experience from the 1930s to 1970. Imperial College Press, London. Kluge, Friedrich (2011) Etymologisches Wörterbuch der deutschen Sprache, 25. durchgese- hene und erweiterte Auflage, bearb. v. Elmar Seebold. Berlin/Boston, MA: de Gruyter. Luhmann, Niklas (2011) Organisation und Entscheidung (3. Aufl.) . Wiesbaden: VS Verlag. Luhmann, Niklas (1993) Die Paradoxie des Entscheidens. In: Zeitschrift für Verwaltungs- lehre, Verwaltungsrecht und Verwaltungspolitik 84,3, S. 287-310. Nohr, Rolf F. (2014): »Du bist jetzt ein heldenhafter Stratege«. Die Anrufung des strate- gischen Subjekts. In: Stefan Böhme / ders. / Serjoscha Wiemer (Hg.): Diskurse des strate- gischen Spiels: Medialität, Gouvernementalität, Topografie. Münster: Lit, S. 19-68. Nohr, Rolf F. / Röhle, Theo (2016) »Schule ohne zu Schulmeistern.« Unternehmensplan- spiele in den 1960er-Jahren. In: Zeithistorische Forschung, 1/2016, S. 38-60 [http://www.zeit- historische-forschungen.de/1-2016/id%3D5327]. Pickering, Andrew (2007) Die Mangel der Praxis. In: Ders. : Kybernetik und neue Ontolo- gien. Berlin: Merve Verlag, S. 17-61. Spencer-Brown, George (1972) Law of Form. New York: Julian Press. Star, Susan L. (2010) This is not a Boundary Object: Reflections on the Origin of a Concept. Science. In: Technology and Human Values 35, S. 601-617. Star, Susan L. / Ruhleder, Karen (1996): Steps Toward an Ecology of Infrastructure. De- sign and Access for Large Information Spaces. In: Information Systems Research 7, S. 111-134. Steinhauer, Fabian (2015) Vom Scheiden. Geschichte und Theorie einer juristischen Kul- turtechnik. Berlin: Duncker & Humblot. Waring, Stephen P. (1991) Taylorism Transformed. Scientific Management Theory since 1945. Chapel Hill/London: The University of North Carolina Press. Welsh, Irvine (1993): Trainspotting. Glasgow: Secker & Warburg. Wiener, Norbert (1971) Kybernetik. Regelung und Nachrichtenübertragung in Lebewesen und Maschine (4. Aufl.) . Reinbek: Rowohlt. Winkler, Hartmut (1997) Docuverse. Zur Medientheorie der Computer. München: Boer. von Foerster, Heinz (2003) Ethics and Second-Order Cybernetics [1991]. In: Understanding Understanding. Essays on Cybernetics and Cognition. New York u.a. : Springer, S. 287-304. Yates, JoAnne (1985) Graphs as a Managerial Tool. A Case Study of Du Pont's Use of Graphs in the Early Twentieth Century. In: The Journal of Business Communication 22,1, S. 5-33. 22 Serjoscha Wiemer Von der Matrix zum Milieu. Zur Transformation des Entscheidungs- begriffs zwischen homo oeconomicus und evolutionärer Auslese Spiele als Entscheidungsmedien Die Folgenden Überlegungen und Darstellungen setzen sich mit der mathe- matischen Spieltheorie auseinander, um innerhalb der Spieltheorie Verände- rungen des Entscheidungsbegriffs aufzuzeigen, wie sie exemplarisch in der Gegenüberstellung von klassischer und evolutionärer Spieltheorie deutlich werden. Ausgangspunkt ist dabei ein doppeltes Staunen über die Rolle von Spielen und Algorithmen und ihre enge Beziehung zu Entscheidungstheorien. Gefragt wird speziell nach der Bedeutung von Algorithmen für Veränderungen der theore- tischen und experimentellen Untersuchung von Entscheidungen in Konfliktsi- tuationen. Es geht also um Konstellationen von Spielen, Algorithmen und Ent- scheidungen und ihre historische Veränderung innerhalb der Spieltheorie. Im Zentrum steht dabei ein einzelnes Spiel, das so genannte Gefangenendilemma. Spiele und Algorithmen bilden unterschiedliche temporär stabilisierte epis- temische Konstellationen.¯1 Wissenschaftsgeschichtlich bemerkenswert ist, dass sich Diskurse von Algorithmen und Spielen nicht nur innerhalb der ma- thematischen Spieltheorie kreuzen, sondern mit erstaunlichen Konsequenzen etwa auch in der frühen Computerforschung nach dem 2. Weltkrieg sowie im Forschungsfeld der artificial intelligence.¯2 Der Computerhistoriker Nathan Ensmenger hat exemplarisch in seiner Studie zur Funktion des Minimax-Algo- rithmus für die Konstitution des artificial-intelligence-Diskurses aufgezeigt, wie Spiele als »ideale experimentelle Technologie« (2011, 10) fungieren, um Pro- blemstellungen zu definieren, Ergebnisse zu quantifizieren und Lösungsvor- schläge wiederholt durchzuspielen. Diese wissenschaftliche Funktion von Spie- len als formalisierbare und algorithmisierbare Versuchsanordnungen ist ein wichtiges verbindendes Element zwischen dem Computerdiskurs und der mo- dernen Spieltheorie. Spiele sind Medien der Entscheidung. Das gilt insbesondere für formalisier- te Regelspiele, wie sie in der mathematischen Spieltheorie behandelt werden. Dass Spiele als Entscheidungsmedien betrachtet werden können, ist bei klas- Von der Matrix zum Milieu 23 sischen Gesellschaftsspielen wie Schach, Dame, Skat oder Mühle leicht einseh- bar. Die Spielenden sind innerhalb des Spiels als Entscheidungsträger aufge- fordert, Züge zu tätigen, und dabei aus einem definierten Optionsraum zu wählen. Genau in diesem Sinne werden Spiele von der modernen Spieltheorie unter- sucht, deren mathematische Grundlagen auf John von Neumanns Arbeiten aus den 1920er Jahren zurückgehen, als von Neumann formalisierte Analysen von Gesellschaftsspielen durchführte (von Neumann 1928). Seine gemeinsam mit dem Ökonomen Oskar Morgenstern verfasste Studie Theory of Games and Eco- nomic Behaviorvon 1944 gilt als Standardreferenz¯3 der klassischen Spieltheo- rie (vgl. Rieck 2006, 107).¯4 Ein Blick in die zahlreichen Einführungen zur Spiel- theorie verdeutlicht, wie zentral der Begriff der Entscheidung innerhalb der Spieltheorie besetzt ist. Dort findet man, dass jeder Zug im Spielverlauf formal als eine »Entscheidung« definiert wird, die ein Spieler im Spielverlauf an einem »Entscheidungsknoten« trifft (ebd., 197). In der klassischen Spieltheorie wird Spiel von Beginn an als ein Konfliktfeld begrenzter Handlungsoptionen und konkurrierender Interessen bestimmt, an dem »mehrere vernunftbegabte Entscheider« beteiligt sind, die ihre je »eige- nen Interessen« verfolgen (ebd., 17). Solche strategischen Spiele können als Mo- delle für das »rationale Verhalten von Menschen« in sozialen Konfliktsituatio- nen interpretiert werden (Rapoport 1976, 128). Rationale Spieler vermögen die Konsequenzen ihrer Entscheidungen abzuschätzen und tragen dabei dem Um- stand Rechnung, dass die Ergebnisse nicht nur von ihren eigenen, sondern auch durch die Entscheidungen der anderen bestimmt werden (ebd.). Die Spielthe- orie ist in diesem Sinn eine Entscheidungstheorie unter den Bedingungen von Konflikt und kalkulierender Nutzenmaximierung. Sie tritt mit dem Verspre- chen an, Entscheidungen analysieren, optimieren und effektiv ›rationalisie- ren‹ zu können. Wissensgeschichtlich kann die Spieltheorie als ein großange- legtes Projekt der Formalisierung von Entscheidung begriffen werden. In einer medien- und wissensgeschichtlichen Perspektive wird anhand der Spieltheorie nicht nur die erstaunliche Relevanz von Entscheidungstheorien im 20. Jahrhundert nachvollziehbar, die ausgehend von Mathematik und Öko- nomie in unterschiedlichen Wissensfeldern und Disziplinen wie Konfliktfor- schung, Psychologie, Soziologie, Biologie, etc. aufgegriffen werden. Darüber hinaus wird, so meine These, anhand der historischen Entwicklung der Spiel- theorie zugleich eine markante Verschiebung im Begriff der Entscheidung selbst erkennbar, verbunden mit Veränderungen von Rationalitätsbegriffen sowie den zugehörigen Rollen von Individuen und Algorithmen als wechselnde Träger und Funktionen von Entscheidungen. 24 Serjoscha Wiemer Während in der klassischen Spieltheorie jede Entscheidung erst durch den Ver- weis auf den ›Spieler‹ als kalkulierendes Entscheidungssubjekt als eine ratio- nale Entscheidung qualifiziert ist, wird in der evolutionären Spieltheorie ein ökologisch-evolutionäres Konzept von Population verwendet, das grundsätz- lich ohne räsonierende Individuen auskommt. An die Stelle der Entscheidung als Handlung bewusster rationaler Individuen tritt die relative Verteilung von Vielheiten, verstanden als Gleichgewicht erfolgreich evolvierender Strategien oder als Verhaltensdispositionen in einem dynamisch veränderlichen Milieu. Ein Wechsel der Protagonisten auf der geschichtlichen Bühne des Denkens: Es tritt ab die Figur des Individuums als Ausgangspunkt von Entscheidungsfrei- heit und Vernunft; in den Vordergrund drängen konkurrierende Konzepte von Vielheiten (Populationen), technobiologische Simulationen und Algorithmen als Repräsentationen post-souveräner Akteure.¯5 Von diesem Prozess wird auch die Funktion des Spiels erfasst. Stellt es in der klassischen Spieltheorie noch das Medium dar, das die Formalisierbarkeit von Entscheidungen und die algorithmische Berechenbarkeit¯6 der besten Strate- gien gewährleistet, wird es in der evolutionären Spieltheorie zum Modell für die Konstruktion simulierter Evolution. Gefangenendilemma Das Gefangenendilemma (engl. Prisoner‘s Dilemma) gilt als das bekannteste Spiel der Spieltheorie überhaupt (Holler/Illing 2009, 2; Rieck 2006, 40). Robert Axelrod hat es als E. Coli der Sozialwissenschaft bezeichnet, andere haben es als »Urpflanze« (Pias 2000, 217) oder »ewigen Kauknochen« (Mérö 1998, 28) der Spieltheorie beschrieben; tausende von MathematikerInnen, PsychologInnen, PolitologInnen, SoziologInnen, PhilosophInnen und ÖkonomInnen haben sich seit den 1950er Jahren damit befasst und bis heute ist es Gegenstand aktueller Forschungen (Axelrod 1997, xi).¯7 Das Szenario des Gefangenendilemmas¯8 wird mit kleinen Variationen im- mer wieder gleich erzählt. Es handelt sich um eine Art Kriminalgeschichte, de- ren dramatische Entscheidungssituation das getrennte Verhör zweier Gefan- gener bildet: »Zwei Verdächtige werden getrennt vom Distriktstaatsanwalt vernommen. Sie sind des Verbre- chens schuldig, dessen sie verdächtigt werden, aber der Staatsanwalt hat nicht genügend Be- weise, um den einen oder den anderen zu überführen. Der Staatsanwalt hat jedoch ausreichend Beweise, um beide wegen eines geringeren Vergehens zu verurteilen. Den Verdächtigen A und Von der Matrix zum Milieu 25 B stehen die Alternativen offen, das schwere Verbrechen zu gestehen oder nicht zu gestehen. Sie sind getrennt und können sich nicht miteinander absprechen. Die möglichen Ergebnisse sind folgende: Falls beide gestehen, erhalten beide strenge Urteile, die jedoch wegen des Geständ- nisses etwas ermäßigt werden. Wenn einer aussagt, (d.h. Beweise gegen den anderen liefert), bekommt der andere alle möglichen Strafen, und der Informant geht straflos aus. Wenn keiner aussagt, können sie nicht des schweren Verbrechens überführt werden, werden aber mit Sicher- heit verhört und wegen des geringeren Verbrechens verurteilt werden.« (Rapoport 1976, 192) Die mathematische Darstellung erfolgt charakteristisch durch die so genannte ›Normalform‹ als Spiel-Matrix oder in der Extensivform. Gegenüber der Exten- sivform, in der die einzelnen Entscheidungsmöglichkeiten aller SpielerInnen vollständig und in chronologischer Abfolge der Züge (Entscheidungen) nach- vollziehbar dargestellt werden, gibt die typische Matrix der Normalform eine Überblicksdarstellung, in der alle möglichen Zugkombinationen und die zuge- hörigen Auszahlungen ablesbar sind. In der Matrix ist ablesbar, welche Strategiepaarungen welche Auszahlungswer- te ergeben, wie also das Ergebnis von den kombinierten Entscheidungen von a und b abhängt. So ergibt beispielsweise in der Matrix von Rapoport die Ent- scheidung a1 entweder 5 Verlustpunkte (-5) für a oder aber 10 Gewinnpunkte Abb. 1: Auszahlungsmatrix von A. W. Tucker nach Luce/Raiffa. Abb. 2: Originale Auszahlungsmatrix von Flood & Drescher im originalen Experiment nach Mirowski ¯9. 26 Serjoscha Wiemer Abb. 3: Zuordnungen von Auszahlungswerten und Spielentscheidungen in der Gewinnmatrix bei Rapoport. (10), je nachdem ob b sich für b1 oder b2 entscheidet, also entweder mit a ko- operiert oder gegenüber dem Staatsanwalt ein Geständnis ablegt (Rapoport 1976, 192). Die mediale Form der Spiele Die Doppelstruktur von abstrakter Matrix und Konflikterzählung ist charakte- ristisch für die spieltheoretische Darstellungsweise. Die mediale Doppelstruk- tur des Gefangenendilemmas stützt die Übersetzbarkeit zwischen einer mathe- matischen ›Normalform‹ in tabellarischer Anordnung und einer dramatischen Erzählform mit sozialen wie psychologischen Qualifizierungen. Erzählung und Matrix repräsentieren unterschiedliche Strukturen und Modi von Wissen. Es lässt sich vermuten, wie man im Anschluss an Markus Krajewskis Thesen zum Medium der Tabelle formulieren könnte, dass die Kombination beider Formate (Erzählung und Matrix) den medialen »Funktionsmodus« (2007, 38) des Spiels innerhalb der Spieltheorie determiniert. Ihr käme damit eine entscheidende Rolle für die theoretische Leistungsfähigkeit der Spieltheorie zu. Wenn dies zutrifft, dann kann die mediale Doppelstruktur des Spiels in der Gleichzeitig- keit von Matrix und dramatischer Situation bzw. Spielnarrativ als ein wesentli- ches Element der epistemologischen Produktivität der Spieltheorie gelten.¯10 Rationalitätsprobleme der Entscheidung Die anhaltende Popularität und Faszination des Gefangenendilemmas inner- halb der Spieltheorie ist eng mit dem verbunden, was man als ›egoistische Ra- tionalitätsfalle‹ beschreiben könnte. Der Psychologe und Spieltheoretiker An- Von der Matrix zum Milieu 27 drew Colman hat diese Eigenschaft als »self-defeating rationality« bezeichnet (2003, 139). Das eigentliche Dilemma des Spiels offenbart sich bei dem Versuch, analytisch die rational beste Entscheidung für jeden Spieler zu bestimmen. Wie für die Spieltheorie üblich, kann man dabei voraussetzen, dass die Spieler als Entschei- dungssubjekte Erwartungen über das Verhalten ihrer Mitspieler bilden und deren erwartbare Entscheidungen in ihre ›Kalkulation‹ einbeziehen (Holler/ Illing 2009, 1). Vorausgesetzt wird also, dass sich die Spielenden als Entschei- dungsträger der Interdependenz des Ergebnisses ihrer Entscheidungen be- wusst sind (ebd.). Ein ›rationaler‹ Spieler wird also Überlegungen ungefähr folgender Art anstel- len: ›Wie soll ich mich verhalten, um eine möglichst geringe Gefängnisstrafe zu erhalten? Ist es am besten für mich zu gestehen? Vermutlich ja, denn falls B ein Geständnis ablegt und mich belastet, wäre ich schlecht beraten, die ganze Ge- fängnisstrafe auf mich zu nehmen. Wenn B aber das Verbrechen leugnet, dann ist es vorteilhaft für mich, ein Geständnis abzulegen und B zu belasten, denn in diesem Fall kann ich als Informant mit einer reduzierten Gefängnisstrafe rech- nen. Wie ich es auch betrachte, die vernünftige Alternative ist das Geständnis.‹ Nach den Voraussetzungen der klassischen Spieltheorie muss man also da- von ausgehen, dass die ›rational‹ beste Entscheidung darin besteht, den Mit- gefangenen zu verraten. Verhalten sich aber beide Spieler nach dieser Kosten- Nutzen-Rechnung, werden beide in der Konsequenz ein schlechteres Ergebnis erzielen, als wenn sie beide das Verbrechen geleugnet und miteinander koope- riert hätten. Die Entscheidungsrationalität der Spieltheorie scheitert nicht nur bei der Suche nach dem besten Ergebnis, sie läuft sogar zwangsläufig darauf hinaus, dass die Gefangenen sich gegenseitig belasten. Was nach dem Ratio- nalitätskonzept von Rational Choice, das der Spieltheorie zugrunde liegt, ›ver- nünftig‹ und damit zwingend als beste Strategie erscheint, führt zu einer irra- tionalen Entscheidung. Für die Spieltheorie ist damit nicht nur die Frage aufgeworfen, unter welchen Bedingungen Kooperation ›vernünftig‹ erscheint, sondern weitergehend wer- den die impliziten Rationalitätsannahmen der Spieltheorie in Frage gestellt. Wissenschaftsgeschichtlich wirft die Kränkung des Gefangenendilemmas auch einen Schatten auf die ökonomische Theorie, in der bis heute die Idee verfolgt wird, in der Spieltheorie ein mathematisch-theoretisches Fundament finden zu können. Tatsächlich wurde nach dem Erfolg von Theory of games and econo- mic behavior die Wirtschaftstheorie eines der wichtigsten Anwendungsgebie- te der Spieltheorie. 28 Serjoscha Wiemer Die Nähe von Spieltheorie und Wirtschaftstheorie tritt vielleicht an keinem Punkt so deutlich hervor wie im Konzept der (egoistischen) Nutzenmaximie- rung. Was in der klassischen Spieltheorie als rationales Kalkül jedes Spielers vo- rausgesetzt wird, das Eigeninteresse zu verfolgen und den Eigennutzen zu ma- ximieren, gründet auf dem gleichen Rationalitätskonzept, das der klassischen Nationalökonomie seit Adam Smith zu Grunde liegt. Das Gefangenendilemma kratzt mit dem Zweifel, den es an der ›Rational-Choice-Theorie‹ weckt, an ei- nem Eckpfeiler neoklassischer Wirtschaftstheorie. Auch jenseits der Kritik einer affirmativen Haltung gegenüber der Spieltheo- rie in den Wirtschaftswissenschaften gab es von Beginn an gute Gründe, das Dilemma einer »self-defeating rationality« ernst zu nehmen. Schließlich ge- hörten in der Zeit des Kalten Krieges neben der Wirtschaftstheorie spielthe- oretische Strategieanalysen im Feld von Militär- und Politikberatung zu den wichtigsten Anwendungsgebieten der Spieltheorie. Strategien von Abschre- ckung, Vergeltung oder Erstschlag waren Teil der Militärlogik des nuklearen Wettrüstens. Das Dilemma einer sich selbst widerlegenden Entscheidungsra- tionalität angesichts der Wahl zwischen Konfrontation und Kooperation betraf in dieser historischen Situation nicht nur die Haltbarkeit wirtschaftswissen- schaftlicher Rationalitätsannahmen oder die Vereinbarkeit von Moral und ins- trumenteller Vernunft, sondern das Schicksal von Nationen in einem Spiel auf Leben und Tod im Zeitalter atomarer Massenvernichtungswaffen. In den Wor- ten Anatol Rapoports ist das Gefangenendilemma ein schlagendes Beispiel da- für, wie ein »Mangel an gegenseitigem Vertrauen in Verbindung mit völlig ›ra- tionalen‹ Überlegungen zum Verhängnis führt« (Rapoport 1976, 192).¯11 Claus Pias hat mit Blick auf die zeitgeschichtliche Situation des Kalten Krieges die Relevanz von Spieltheorie für die politische und militärische Beratung als »Steuerinstrument eines alltäglich auszubalancierenden ›Gleichgewichts der Kräfte‹« beschrieben (Pias 2000, 221) und die Payoff-Matrix des Gefangenendi- lemmas als Rüstungskampf umgedeutet: Abb. 4: nach Pias Von der Matrix zum Milieu 29 Axelrods Turniere – eine neue Phase der Spieltheorie Die bis in die Gegenwart anhaltende Relevanz des Gefangenendilemmas ist vielfältig mit den Interessen und Theoriebewegungen innerhalb unterschied- licher wissenschaftlicher Disziplinen verbunden. Robert Axelrods Forschungen zum Gefangenendilemma sollten nach seiner eigenen Aussage dazu beitra- gen Kooperation zu fördern, besonders angesichts der Blockkonfrontation zwi- schen den Supermächten USA und Sowjetunion (Axelrod 1997, xi). Axelrod ist Politikwissenschaftler, hat aber Erfahrungen mit Computerprogrammierung. Durch seine Zeit an der Michigan Universität war er mit der Arbeit von John Holland vertraut, der bereits in den 1960er Jahren Methoden für die dynami- sche Veränderung von Populationen von Algorithmen entwickelt hatte, und die Technik der so genannten genetischen Algorithmen mit begründete.¯12 Be- achtlich ist, wie konsequent Axelrod theoretisch und methodisch neue Ansät- ze erprobte. Er ersann Computerturniere als Experimentieranordnungen, in denen Computerprogramme gegeneinander das Gefangenendilemma spiel- ten, um die erfolgreichste Entscheidungsregel im algorithmischen Wettkampf zu bestimmen. Und er verwendete ökologische und evolutionäre Simulatio- nen, um die dynamische Entwicklung hypothetischer Populationen von Com- puterprogrammen zu studieren. Seine 1984 veröffentlichte Studie The evoluti- on of cooperation wurde nicht nur ein Sachbuch-Bestseller, sondern markiert zugleich eine neue Phase der Spieltheorie an der Schnittstelle von Ökonomie, Sozialwissenschaft, Biologie und Computerforschung. Um für die Situation des Gefangenendilemmas geeignete Strategien zu fin- den, hatte Axelrod verschiedene Spieltheoretiker eingeladen Algorithmen zu entwerfen, die Regeln für die Wahl von Kooperation oder Nicht-Kooperation bei jedem Zug definierten und die als Programme für den Turnierwettkampf eingereicht werden sollten. Die 14 Programme des ersten Turniers stammten von Spieltheoretikern aus den Fächern Ökonomie, Psychologie, Soziologie, Po- litikwissenschaft und Mathematik. Die 62 eingereichten Programme des nach- folgenden Turniers kamen darüber hinaus von Evolutionsbiologen, Physikern, Informatikern sowie einer Anzahl von ›Hobbyspielern‹, die auf die Ausschrei- bung des Turniers in einer Heimcomputerzeitschrift geantwortet hatten. Im Turnier trafen die Programme in unterschiedlichen Paarungen aufeinander und erhielten nach jeder Runde die in der Matrix festgelegten Auszahlungen. Im ersten Turnier wurden 120.000, im zweiten insgesamt eine Million Züge (= algorithmische Entscheidungen) ausgeführt. Aus beiden Turnieren ging das Programm Tit for Tat (auf Deutsch etwa: Wie- Du-Mir-So-Ich-Dir), eingereicht von Anatol Rapoport, als Sieger hervor. Tit for 30 Serjoscha Wiemer Tat beginnt im ersten Zug stets mit Kooperation und in allen weiteren Zügen tut es das, was der andere Spieler im vorangegangen Zug getan hat (Axelrod 2005, 28). Die Einfachheit des Algorithmus hält Axelrod nicht davon ab, eine feingliedri- ge theoretische und moralische Interpretation von Tit for Tat vorzunehmen. Er hofft dadurch die generellen Erfolgsbedingungen von Kooperation in Konflikt- situationen zu erkennen. Tit for Tat wird in der Folge als eine Art universelle moralische Norm und soziale wie evolutionäre Erfolgsstrategie proklamiert. Dazu gehören auch Empfehlungen für nationale und internationale Politik: »Der [...] an die Spieler des Gefangenendilemmas gerichtete Rat könnte nati- onalen Führern genauso dienlich sein: Sei nicht neidisch, defektiere nicht als erster, erwidere sowohl Kooperation wie Defektion und sei nicht zu raffiniert. Ähnlich mögen die [...] diskutierten Techniken der Förderung von Kooperation im Gefangenendilemma für den Bereich internationaler Beziehungen nützlich sein«. (ebd., 172) Der Algorithmus und sein Verhalten werden psychologisch charakterisiert und anthropomorph personalisiert. So sei Tit for Tat ›freundlich‹ (»nice«), weil es bei der ersten Begegnung stets Kooperation wähle; es sei ›gutmütig‹, ›verzei- hend‹ und ›nachsichtig‹, weil es nach einer Konfrontation nur einmal mit Ver- geltung antworte, danach aber wieder zur kooperativen Strategie zurückkeh- re.¯13 Andere algorithmische Entscheidungsregeln werden auf ähnliche Weise analysiert, beispielsweise wird das Programm Tranquilizer als ›tückisch‹ be- schrieben. Bio-Logik der Kooperation Axelrods Einsatz des Computers als Forschungsinstrument stellt nicht nur eine methodische Innovation dar, sondern vollzieht sich in enger Kopplung mit ei- ner radikalen theoretischen Umorientierung. Es geht dabei nicht nur um ei- nen Medienwechsel (Gramelsberger 2010, 93), sondern um einen Austausch der grundlegenden Rationalitätskonzepte der Spieltheorie.¯14 Die Abwendung vom Menschen als Entscheidungsinstanz ist dabei viel weitreichender, als es in den Computerturnieren zunächst erscheinen mag. Schließlich agierten die Al- gorithmen dort zumindest noch als Stellvertreter oder Repräsentationen ent- scheidungsfähiger Individuen. Bald wird jedoch deutlich, dass die Ersetzung der Spieler durch Computerprogramme nur einen ersten Schritt markiert. Da- rauf folgend werden die Ergebnisse des Turniers durch Simulationen ergänzt und schließlich in einem biologischen Theorierahmen neu interpretiert. Axel- Von der Matrix zum Milieu 31 rod unterscheidet dabei zwischen ökologischen und evolutionären Simulati- onsverfahren. Die ökologische Perspektive basiert auf einer Folge hypothetischer zukünfti- ger Runden des Turniers, in denen der Erfolg der Algorithmen in Abhängigkeit zu ihrer Umgebung untersucht wird, das heißt in Bezug auf die Verteilungs- häufigkeit der anderen Algorithmen, mit denen sie zusammentreffen können. Dabei werden die Algorithmen in Analogie zu Lebewesen perspektiviert, die zu anderen Algorithmen-Lebewesen in einer biologischen Beziehung stehen. Bei Axelrod ist dieser Perspektivwechsel vom Turnierwettkampf zur biologi- schen Analogie wie folgt beschrieben: »Stellen wir uns vor, daß viele Tiere einer einzigen Art ziemlich oft miteinander interagieren. Wir wollen annehmen, daß die Interaktionen die Form eines Gefangenendilemmas haben. […] Eine Runde des Turniers kann man dann als eine Simulation einer einzelnen Generation dieser Tiere auffassen, wobei jede Entscheidungsregel von einer großen Zahl von Individuen ange- wendet wird. […] Der Grundgedanke ist, daß die erfolgreicheren Regeln in der nächsten Runde mit größerer und die weniger erfolgreichen mit geringerer Wahrscheinlichkeit erneut angewen- det werden. Um das zu präzisieren, setzen wir voraus, daß die Anzahl der Kopien (oder Nach- kommen) einer Regel ihrer Punktzahl im Turnier proportional ist. Wir interpretieren einfach die durchschnittliche Auszahlung für ein Individuum als proportional der erwarteten Anzahl seiner Nachkommen. […] Je besser eine Strategie ist, um so stär- ker wächst ihr Anteil. […] Dieser Prozeß simuliert das Über- leben des Tüchtigsten.« (Axelrod 2005, 43-45) Das Feststellen der ›Fitness‹ der Algorithmen wird dadurch gewährleistet, dass sie in Bezie- hung zueinander ihr eigenes Milieu konstituie- ren. Der Unterschied zur »evolutionären Sicht- weise« besteht darin, dass in der ökologischen Simulation keine neuen Verhaltensregeln ein- geführt werden, es gibt dort keine Mutationen oder Rekombinationen, durch die neue Strategi- en in die ›Population‹ eingeführt werden könn- ten (ebd., 459). Abb. 5: Populationsentwicklung im ökolo- gischen Gefangenendilemma nach Axelrod. 32 Serjoscha Wiemer Evolutionäre Spieltheorie Das Konzept Evolutionär Stabiler Strategien (= ESS) übernimmt von der Spiel- theorie die mathematische »Kosten-Nutzen-Rechnung« (Dawkins 2007, 137), wie sie in der Normalform der Auszahlungsmatrix ausgedrückt wird, um die taktischen Entscheidungen, die dem Verlauf eines Kampfes vorausgehen, zu modellieren und Strategie- bzw. Taktik-Paarungen mit Auszahlungen zu ver- sehen.¯15 Der Simulierbarkeit des evolutionären Verlaufs wird damit über die Spieltheorie ein spezifisch ökonomisches Kalkül zugrunde gelegt. Als stabil gilt im Sinne der ESS eine Strategie dann, wenn sie durch keine zufällig als Mutation auftauchende neue Strategie verdrängt werden kann, nachdem sie erst einmal von der Mehrzahl der Mitglieder einer Population adaptiert wur- de. In seiner evolutionstheoretischen Perspektive greift Axelrod das Konzept der ESS direkt auf, und führt die darin im Ansatz erfolgte Integration von Spiel- theorie und Evolutionstheorie fort. Die Akteure der Spieltheorie werden da- bei biologisch und evolutionstheoretisch wie folgt uminterpretiert, um den Prozess natürlicher Selektion zu modellieren: Spieler entsprechen individuel- len Organismen, Strategien entsprechen dem Genotyp eines Organismus und die Auszahlungen korrespondieren mit den Veränderungen ihrer Darwinschen ›Fitness‹ (vgl. Colman 2003, 140). In der biologischen Interpretation der evoluti- onären Spieltheorie wählen Spieler ihre Strategien nicht bewusst oder freiwil- lig, sondern unterschiedliche Eigenschaften von Strategien führen zu unter- schiedlichen Auszahlungen. Das Prinzip der freien (Wahl-)Entscheidung wird in gewisser Weise durch die Idee natürlicher Selektion als ›Auswahlprozess‹ ersetzt. Statt durch die Rationalität von Entscheidung wird das Spielergebnis durch die Bio-Logik evolutionärer Auswahl und konkurrierender Fitness-Wer- te bestimmt. Neodarwinistische Logik quasirationaler Entscheidungen Im Rahmen der Spieltheorie des Gefangenendilemmas trägt Axelrod entschei- dend dazu bei, der Simulation als drittem Modus der Wissensproduktion zur Anerkennung zu verhelfen, neben den etablierten Modi der theoretischen Ana- lyse und des sozialpsychologischen Experiments. Auffällig ist jedoch die Dis- krepanz zwischen der vollzogenen methodisch-theoretischen Neuorientierung und der ›humanistischen‹ Interpretation der Ergebnisse: Auf Basis evolutions- theoretischer Annahmen soll die neodarwinistische Logik des Lebendigen er- kannt werden, ausgedrückt als Reproduktionserfolg, gemessen als Entwick- Von der Matrix zum Milieu 33 lung der Verteilungshäufigkeit von Algorithmen innerhalb einer Population. Statt Entscheidungen als Wahl bewusster Individuen zu modellieren, werden Algorithmen verwendet, die bestimmte Strategien als Teil einer ökologischen oder evolutionären Simulation definieren, für die Entscheidungsfreiheit und Bewusstheit keine relevanten Kategorien mehr darstellen. Axelrods anschlie- ßende Beschreibung der Algorithmen mit den anthropomorph-psychologisie- renden Attributen ›gutmütig‹, ›freundlich‹ etc., ist vor diesem Hintergrund bemerkenswert, da doch die Ersetzung von Spielern durch Programme gera- de eine der wesentlichen methodischen Neuerungen seines Ansatzes darstellt. Wenn anstelle von rationalem Abwägen Algorithmen die Entscheidungen be- stimmen, läuft eine nachträgliche anthropomorphe Beschreibung der Algo- rithmen nach dem Vorbild menschlicher Charaktereigenschaften der Anerken- nung der daraus folgenden Konsequenzen zuwider. Die oben angesprochene mediale Doppelstruktur des Spiels in der Spielthe- orie macht die eigentümliche Spannung und Widersprüchlichkeit zwischen evolutionärer und anthropomorpher Deutung der Computerexperimente ver- ständlich. Sie lässt sich als Spannung zwischen zwei unterschiedlichen Nar- rativen bei gleichbleibender Matrix betrachten. Das Basisnarrativ des Ge- fangenendilemmas stützt mit seinen impliziten Annahmen zu individueller Entscheidungskompetenz, -rationalität, -freiheit und -souveränität eine an- thropomorphe Interpretation. Dagegen wird durch ein evolutionäres Narra- tiv die Unterminierung des Rational-Choice-Paradigmas befördert, insofern es als eine Erzählung über die Geschichtlichkeit des Lebens als Wettbewerb von Populationen im Kampf ums Dasein, jenseits von individueller Vernunft, Re- f lexion und Entscheidungsfähigkeit zu verstehen ist. Die Inkongruenzen zwi- schen diesen Narrativen offenzulegen ist nicht Axelrods Anliegen. Es würde wohl auch bedeuten, die Überzeugungskraft seiner politischen Rhetorik und der ethischen Imperative (Freundlichkeit, Nachsicht, Kooperation, Wie-Du-mir- so-ich-Dir, etc.) zu schwächen. Richard Dawkins, populärer Evolutionsbiologe und Autor von Das egoistische Gen, hat die Abkehr vom Konzept bewusster Entscheidung in geradezu eupho- rischem Tonfall begrüßt. Als Reaktion auf Axelrods Studie notiert er: »Ein Computerprogramm kann sich strategisch verhalten, ohne sich seiner Strategie oder über- haupt irgendeines Dinges bewußt zu sein. Wir sind natürlich mit der Vorstellung unbewußt agierender Strategen völlig vertraut, oder zumindest solcher Strategen, deren Bewußtsein, falls sie es haben, irrelevant ist. Dieses Buch [Das egoistische Gen – SW] ist voll von Strategen, de- nen ein Bewußtsein fehlt. Axelrods Programme sind ein hervorragendes Modell für die Art und Weise, wie wir uns in den vorangegangenen Kapiteln mit Tieren und Pflanzen, ja in der Tat mit 34 Serjoscha Wiemer Genen befaßt haben. [...] Niemand würde jemals behaupten, eine Bakterie sei ein bewußt han- delnder Stratege, und doch spielen bakterielle Parasiten mit ihren Wirten wahrscheinlich un- aufhörliche ›Gefangenen-Dilemma-Spiele‹.« (Dawkins 2007, 375f.) Was Dawkins Begeisterung auslöst, ist letztlich die Kompatibilität sozialer, ökonomischer und biologischer Forschungsansätze, die er in Axelrods Arbeit verwirklicht sieht. Methodisch zentral ist dabei die algorithmische Modellie- rung von Strategien, und das impliziert ein de-personalisiertes, a-subjektives und bewusstloses (programmiertes) Entscheidungshandeln. Als Zwischenschritt kann hier festgehalten werden, dass in der Geschichte des Gefangenendilemmas ein folgenreicher Austausch zwischen ökonomischen, biologischen und sozialwissenschaftlichen Theorien und Modellvorstellun- gen beobachtet werden kann, der den Begriff der Entscheidung selbst an den Rand seiner Auflösung führt. Verbunden ist dies mit einer Abwendung vom tradierten Begriff der Entscheidungsrationalität und dessen Kopplung an das Individuum, verstanden als ›Insel der Rationalität‹ (Vogl 2010, 38).¯16 In der evolutionären Spieltheorie zeigt sich eine deutliche Verschiebung vom Pol des Individuums hin zur Population, von der Idee einer individuell zu verankern- den Vernunft hin zu einer (neodarwinistisch verstandenen) Produktivität des Lebendigen. Die Idee von Rational-Choice und das damit verbundene Konzept von Rationalität werden weitgehend aufgegeben. Zugleich wird der biogeo- grafische Begriff der Population entscheidend aufgewertet, neodarwinistisch und ökonomisch qualifiziert als eine Situation von Selektions- und Differenzie- rungsdruck, Wettbewerb und Ressourcenkampf. Umstrittene Rationalitätsbegriffe: Selektion als bio-logik quasirationaler Entscheidungen Weil evolutionäre Spieltheorie im Ansatz von nicht-bewussten strategischen Interaktionen ausgeht und keine rationale Entscheidung im Sinne bewusster Individuen modelliert, ist umstritten, ob sie überhaupt zum Kanon der Spiel- theorie zählen soll (vgl. Colman 2003, 140). Zwar argumentiert die evolutio- näre Spieltheorie, wie oben dargelegt wurde, sehr wohl im Kern ökonomisch als Kosten-Nutzen-Analyse, der Theorie-Figur des rationalen Agenten im Sin- ne des homo oeconomicus verschließt sie sich aber dennoch. Sie führt eine an- dersartige Ontologie der Entscheidung ein, in der Populationen von Insekten, Pf lanzen und sogar Populationen von Computer-Programmen evolutionäre Von der Matrix zum Milieu 35 Gleichgewichte erreichen können und Kooperationen jenseits rationaler Ent- scheidungsprozesse beschreibbar werden (ebd.). Die Theorie evolutionärer Selektion versucht gerade die Bedingungen von Ver- halten zu beschreiben, das »keine Vernunftfähigkeit« (Rieck 2006, 234) vor- aussetzt. Der Begriff der Selektion als Auswahl folgt im epistemologischen Modell der evolutionären Spieltheorie einem strikten (biologischen) Funkti- onalismus,¯17 im Unterschied zum Begriff der Wahl als Entscheidung. Dage- gen gehört in der klassischen Spieltheorie die Verkettung von Individuum, Entscheidung und Vernunft, also die Idee, dass Vernunft im Hinblick auf Ent- scheidungsprozesse als Wahl zu verstehen und letztlich auf die Rationalität ei- nes ›freien Individuums‹ zu beziehen ist, zum Kern ihres Rationalitäts- und Entscheidungsbegriffs. Dies gilt auch oder gerade unter den Voraussetzun- gen des Berechenbarkeitspostulats, des Primats der Nutzenmaximierung und der Unterordnung unter einen strikten Instrumentalismus, die die klassische Spieltheorie kennzeichnen. Nachfolgende Forschungen zum Gefangenendilemma haben versucht, die Spannung zwischen klassischer und evolutionärer Spieltheorie, die bei Axel- rod als Differenz zwischen evolutionärer und anthropomorpher Interpretation von Algorithmen deutlich wurde, in die eine oder andere Richtung aufzulösen. Während einige Ansätze sich verstärkt der psychologischen Rationalität indivi- dueller Entscheidungsträger zuwenden, in Verbindung mit Ansätzen der Ent- scheidungstheorie zu ›beschränkter Rationalität‹ (Colman 2003; Colman et al. 2012) forcieren andere die ökologische und evolutionäre Simulationsperspekti- ve, für die individuelle Rationalität und Entscheidungsfähigkeit grundsätzlich keine tragenden Konzepte mehr darstellen. Hierzu zählen beispielsweise Si- mulationsstudien zu evolutionären Algorithmen (Golbeck 2002; Haider 2005; Lindgren 1991).¯18 Ein dritter Weg sind agentenbasierte Simulationen, bei de- nen einzelne Agenten als algorithmisch definierte Entscheidungsträger konzi- piert werden können. Deren Rationalität ist dann zunehmend eine Frage des Designs (vgl. Axelrod 1997). Bio-algorithmische Epistemologie? Zusammenfassend lässt sich festhalten, dass Axelrods ökologische und evoluti- onäre Perspektive Verschiebungen auf mehreren Ebenen impliziert. Die Matrix wird zum Konstruktionselement von Milieus, wenn es statt um Auszahlungs- werte von Strategiepaarungen um den Reproduktionserfolg und die Häufig- keitsverteilung von Algorithmen innerhalb von Populationen geht. Die Wahl 36 Serjoscha Wiemer Abb. 6: Flow-Chart Prisoner’s Dilemma mit Genetischen Algorithmen nach Haider Von der Matrix zum Milieu 37 (choice) wird zur Auswahl (selection), wenn Rationalität nicht mehr an Indivi- duen als bewusste Entscheidungssubjekte gebunden ist, sondern als quasira- tionaler Effekt evolutionärer Gesetzmäßigkeiten verstanden wird. In der evo- lutionären Perspektive treten nicht mehr einzelne Programme gegeneinander an, sondern Populationen, die in Konkurrenz zueinander ihre biologische Fit- ness beweisen. Statt um die Entscheidungen individueller konkreter oder ab- strakter Akteure geht es um Populationsdynamiken von Vielheiten innerhalb eines evolvierenden Milieus. Axelrods Studie zum Gefangenendilemma markiert einen Scheitelpunkt im Hinblick auf die Bedeutung, Zurechnung und Interpretation von ›Entschei- dung‹ zwischen realen Subjekten und Algorithmen, zwischen Personalisierung und De-Personalisierung. In nachfolgenden Forschungen wurde das Problem des Gefangenendilemmas entsprechend zunehmend als ein Optimierungspro- blem von Algorithmen begriffen. Die evolutionäre Spieltheorie unterscheidet sich gegenüber der klassischen Spieltheorie nicht nur durch die Hinwendung zu Simulationstechnologie als In- strument für Modellbildungen und theoretische Experimente; wichtig ist die Beobachtung, dass die Umstellung auf Algorithmen und Computer als Medi- en der Entscheidung gleichzeitig mit einer theoretischen Umorientierung auf evolutionsbiologische Konzepte erfolgt. Ein Kreuzungspunkt dieser doppel- ten Verschiebung ist die prinzipielle Gleich-Gültigkeit der bio-algorithmischen Perspektive gegenüber Menschen, Tieren, Pf lanzen, Bakterien und Computer- programmen. Denn weder für die Algorithmen als formale Operationalisie- rungen von (Entscheidungs-)Handlungen noch im f lexiblen Evolutionsnarra- tiv macht es einen grundlegenden Unterschied, ob es sich um die Modellierung der Populationsdynamiken von Bakterien, Menschen oder ›egoistischen Ge- nen‹ handelt. Gerade im Vergleich mit der evolutionären Spieltheorie wird deutlich, wie sehr in der klassischen Spieltheorie der Begriff von Entscheidung mit einem ökono- misch konturierten Rationalitätskonzept von Rational Choice gekoppelt ist. In der evolutionären Modellierung des Gefangenendilemmas ist diese Verknüp- fung aufgelöst. Wenn man nach der ›Rationalität‹ bio-algorithmischer Ent- scheidungen fragen wollte, wäre diese, wenn überhaupt, vermutlich nur auf der Ebene von Populationen oder als Ergebnis evolutionärer Prozesse zu be- stimmen. Im Rahmen post-souveräner Rationalitätskonzepte werden vormali- ge ›Entscheidungssubjekte‹ und ihre tradierten Theoriefiguren vielleicht bald als evolutionäre »Bricolage von Algorithmen« (Mirowski 2002, 516) und zufäl- lig aufgelesenen Subroutinen zu denken sein.¯19 38 Serjoscha Wiemer Souveränität und Konflikt Die hier vorgestellte vergleichende Analyse ging von der These aus, dass es zum Kennzeichen der Spieltheorie gehört, Spiele als Medien der Entscheidung zu konzipieren. Die formalisierte Behandlung von Entscheidungen ist inner- halb der Spieltheorie voraussetzungsreich. Wie unter anderem deutlich wur- de, ist die besondere Verwendung, die von Spielen gemacht wird, mindestens eine doppelte. Durch die Formalisierung wird der Spielbegriff an Konzepte von Berechenbarkeit angenähert, Spiele werden im Sinne der Spieltheorie algo- rithmisierbar. Damit kann der Computer als Medium ein wichtiger Bestandteil spieltheoretischer Argumentations- und Beweisführung werden. Spiele sind darüber hinaus als Szenarien zu verstehen, die konflikthafte Situationen be- schreiben, erzählen und modellieren, in denen Entscheidungen den Fortgang und das Ergebnis bestimmen. Am Beispiel des Standardnarrativs des Gefange- nendilemmas als Kriminalgeschichte wird dies besonders anschaulich. Die Aus- zählungsmatrix als Normalform der Formalisierung und das Konfliktnarrativ der Verhör- und Geständnissituation wirken zusammen, um das Gefangenen- dilemma spieltheoretisch zu qualifizieren. Nachvollziehbar wird hierüber wie Spiele sowohl narrativ, inszenatorisch, als auch formalisiert, berechenbar, als Medien der Entscheidung verwendet werden. In der Gegenüberstellung von evolutionärer und klassischer Spieltheorie zeigt sich entsprechend eine zweifache Verschiebung oder Transformation. Sowohl das Narrativ wird abgewandelt – aus der Kriminalgeschichte zweier Gefan- gener wird eine Erzählung über die evolutionär modellierte Konkurrenz zwi- schen Populationen – als auch die Art der Formalisierung und Berechnung än- dert sich. Zwar bleibt die Matrix als Funktion der Mathematisierung erhalten, aber die Strategien der Entscheidung werden algorithmisch verkörpert und mit Verfahren untersucht, die nur noch mit Computern handhabbar sind. Die- se Transformation weist in eine Richtung, in der Entscheidung und Entschei- dungsrationalität sich zunehmend ablösen von der Vorstellung individueller Entscheidungssubjekte, um auf Populationen, Vielheiten übertragen zu wer- den, die algorithmisch definiert und interpretiert werden. Wenn man den Versuch wagen wollte, aus der Spezifik der Theoriegeschichte des Gefangenendilemmas allgemeinere Thesen zu Medien der Entscheidung abzuleiten, dann ließe sich das Gefangenendilemma möglicherweise als ex- emplarischer Beleg dafür verstehen, dass Medien der Entscheidung auf vielfäl- tige Weise mit Vorstellungen von Rationalität, Wahl, Konflikt, Vernunft, Sou- veränität sowie mit Erkenntnis- und Wissensproduktion verbunden sind. Im Vergleich zwischen Medien der Entscheidung oder zwischen unterschiedlichen Von der Matrix zum Milieu 39 geschichtlichen Varianten derselben kann erkennbar werden, wie jeweils mit Konzepten von Vernunft, Wahl, Rationalität etc. umgegangen wird und welche Politiken und Konjunkturen sie durchlaufen. Der Blick auf Medien der Entscheidung kann darüber hinaus dazu beitragen, nicht nur unterschiedliche mediale Funktionen und Formen (wie Vermittlung, Erzählung, Modellierung, Berechnung, Prozessierung) zu benennen, sondern darüber hinaus mediale Konstellationen als Ausdruck historisch-gesellschaft- licher Reflexion und damit aus analytischer Perspektive als Teil der Selbstbe- schreibung einer Gesellschaft zu verstehen. Denkt man in dieser Richtung über die Transformationen des Entscheidungs- begriffs nach, wie er in der Kontrastierung von klassischer und evolutionärer Spieltheorie deutlich wird, rückt das gespannte Verhältnis zwischen Algorith- men und Souveränität in den Blick. Wenn Entscheidungen nicht mehr bewuss- ten Individuen, sondern Algorithmen zugewiesen werden, die über Selektion Autorität erlangen, kann dies zu Beunruhigung Anlass geben. Zu bedenken ist dabei, dass die hier zur Diskussion gestellten Veränderungen von Rationali- täts- und Entscheidungskonzepten selbst bereits historisch sind und seit Ende der 1990er Jahre vollständig ausgearbeitet vorliegen. Insofern sie anschlussfä- hig erscheinen an zeitgenössische Analysen zur Macht von Algorithmen, etwa im Zusammenhang mit Überwachung, sozialen Medien, Affective Computing und Big Data, deutet dies darauf hin, dass unsere technologisierte Gesellschaft möglicherweise zunehmend wird lernen müssen, ihre eigenen Zukunftsent- scheidungen im Schatten bio-algorithmischer Logik und post-souveräner Ra- tionalität zu (er)finden. Anmerkungen 01˘ Während die Unterscheidung zwischen Code und Software in der medienwissenschaft- lichen Diskussion fest etabliert ist (vgl. Berry 2011, 29-56), steht eine vergleichbare medien- theoretische Differenzierung im Hinblick auf Algorithmen und ihre Materialisierungen, re- spektive Artikulationen als Code, Software und kulturelle wie politische Praktiken noch weitgehend am Anfang. Vgl. für die Diskussion divergierender Konzepte von Algorithmen mit kultur- und sozialwissenschaftlichem Schwerpunkt Gillespie 2016. 02˘ So ist es bezeichnend, dass Alan Turing in den 1950er Jahren die Programmierung von Spielen als zentrale Aufgabe der Computerforschung benennt und Claude Shannons Beitrag zur Softwaregeschichte eng mit der Programmierung von Schach verbunden ist: 40 Serjoscha Wiemer »Unser Problem besteht nun darin, wie die Maschinen für das Spiel zu programmieren sind«, schrieb Alan Turing 1950 in Computing Machinery and Intelligence (ebd., 455). Vgl. weiter- führend zur Bedeutung von Spielen für den Computerdiskurs der 1950er: Wiemer 2014. 03˘ Luce/Raiffa (1957) weisen darauf hin, dass nicht die Erstausgabe von 1944, sondern die überarbeitete Fassung von 1947 als Standardreferenz gelten kann, weil in der Überarbeitung eine Nutzentheorie [utility theory] ergänzend expliziert wird, die in der Originalausgabe fehlt (Luce/Raiffa 1957, 3, Anm.1). 04˘ Als ›klassische Spieltheorie‹ wird im Folgenden der Mainstream der mathematischen Spieltheorie ab Mitte der 1940er Jahre bis in die 1970er Jahre bezeichnet. Der Ansatz der Spieltheorie, wie er durch von Neumann und Morgenstern entwickelt wurde, ist für diese Zeit prägend und wird durch zahlreiche Lehrbücher kanonisiert. Im Unterschied dazu ver- weist der Ansatz der ›evolutionären Spieltheorie‹ auf Ergänzungen und Reformulierungen der Spieltheorie seit den 1970er Jahren, die mit dem wachsenden Einfluss biologischer, evo- lutionärer Theorien und neuer algorithmischer Methoden in Zusammenhang stehen. Vgl. für die Unterscheidung zwischen klassischer und evolutionärer Spieltheorie weiterführend Mueller 1990, 3-8. 05˘ Da die Sozialphysik und Soziobiologie grundsätzlich dem rationalen Individuum keinen he- rausgehobenen Stellenwert für die Erklärung des Sozialen zugestehen, ist die Herabstufung rationaler Entscheidung dort, wo die Spieltheorie sich mit der Soziobiologie bzw. der ma- thematischen Populationsgenetik zusammenfügt, eigentlich alles andere als überraschend. Rückblickend ist es umgekehrt allerdings bemerkenswert, dass sich die Rational-Choice- Theorie und die ihr zugehörige Figur eines rationalen Nutzenmaximierers überhaupt so dauerhaft in der Spieltheorie behaupten konnte. Dies hat theoriegeschichtlich vermut- lich mit der Sonderrolle der Wirtschaftswissenschaften zu tun, die insbesondere im US- amerikanischen Kontext über Jahrzehnte die disziplinäre Heimat der Spieltheorie darstell- ten. In der neoklassischen orthodoxen Wirtschaftstheorie ist der Rational-Choice-Ansatz für das Konzept des freien Marktes nach wie vor fester Bestandteil des Theoriedesigns. 06˘ Das Konzept der Formalisierung von Entscheidungen in der klassischen Spieltheorie zielt auf die Berechenbarkeit von (optimalen) Entscheidungen. Innerhalb der Mathematik gibt es unterschiedliche Ansätze zur Definition von Berechenbarkeit. Nach der Church- Turing-These können die Begriffe ›berechenbar‹ und ›algorithmisierbar‹ synonym ge- braucht werden, insofern die Turing-Maschine den intuitiven Begriff von ›Berechenbarkeit‹ ausdrückt. Das heißt, eine mathematische Funktion ist berechenbar, wenn für sie eine Berechnungsanweisung (Algorithmus) formuliert werden kann. Eine Funktion ist ge- nau dann berechenbar, wenn sie Turing-berechenbar ist (vgl. Ziegenbalg 2010, 225f. so- wie Artikel: Berechenbarkeit, in: Wikipedia, Die freie Enzyklopädie; letzter Abruf 7. 7. 2015) 07˘ Die erste Formulierung des Gefangenendilemmas stammt von Merrill Flood und Melvin Drescher, die in einem Paper der RAND Corporation von einem Spielexperiment berich- ten, dass sie mit zwei Versuchspersonen durchgeführt haben (Flood 1952). Philip Mirowski Von der Matrix zum Milieu 41 (2002) und andere haben darauf hingewiesen, wie effektiv RAND in den 1950er und 60er Jahren als Inkubator fungierte, um Spieltheorie jenseits militärischer Verwendungen in Management-Theorien sowie Wirtschafts- und Sozialwissenschaften zu verankern. Die Forschung bei RAND war programmatisch darauf ausgerichtet, die Grenzen zwischen Natur- und Sozialwissenschaften abzubauen. Mediengeschichtlich bemerkenswert ist, in welchem Umfang bei RAND Probleme der Rationalisierung und Effizienz von Organisation mit Problemen von Computer Design und Programmierung verschmolzen wurden. (ebd., 188). Merrill Flood war beispielsweise nicht nur an spieltheoretischen, militärischen und sozialpsychologischen Fragestellungen interessiert, er entwickelte auch 1951 einen Computeralgorithmus für einen künstlichen Spieler, die »Stat-Rat« und beansprucht für sich, als einer der ersten den Begriff »Software« geprägt zu haben, und zwar 1946 in einem Memo für das amerikanische Kriegsministerium (ebd., 261). Dass die Spieltheorie bei RAND von zentraler Bedeutung war, geht auf direkte Einflussnahme durch John von Neumann zurück. Dabei fungierte Spieltheorie zunächst als mathematischer Zweig von Operations Research, wurde im Umfeld ökonomischer Ansätze aber bald auch als Entscheidungstheorie oder decision theory übersetzt. Nicht zufällig trägt ein amerikanisches Standardwerk zur Einführung in die Spieltheorie von Duncan Luce und Howard Raiffa (1957) den Titel Games and Decisions. 08˘ Der Name Gefangenendilemma geht vermutlich auf den Mathematiker Albert W. Tucker zurück, der in Stanford bereits 1950 ein Seminar mit dem Titel »A two-person dilemma« ab- hielt (vgl. Mirowski 2002, 354-358). 09˘ Die Kürzel AA und JW stehen für die Versuchspersonen, die RAND-Analysten John Williams (JW) und Armen Achian (AA), die Flood und Drescher rekrutierten, um 100 Wiederholungen des Spiels gegen bzw. miteinander zu spielen. Die Auszahlungen erfolgten in Cents (Mirowski 2002, 358). 10˘ Der Mathematiker und Biologe Anatol Rapoport hat ausgehend von Problemen der Spieltheorie die Möglichkeit der Interpretation von mathematischen Gleichungen am Beispiel der mathematischen Analysen von Populationswachstum erläutert. In der Darstellung als System von Gleichungen werde vom »Inhalt« (Rapoport 1976, 95) der charak- teristischen biologischen Situation abgesehen, um die »mathematischen Eigenschaften« der Gleichungen zu untersuchen (ebd.). Wenn die mathematischen Gleichungen dann je- doch biologisch interpretiert werden, muss dieser ›biologische Inhalt‹ wieder hinzugefügt werden; erst dadurch kann überhaupt eingeschätzt werden, ob und in welchen Fällen die mathematische Formalisierung tatsächlich zum besseren Verständnis der biologischen Situation beiträgt oder nicht. Anders formuliert: Die Interpretation spieltheoretischer Gleichungen (oder Algorithmen) als Aussagen über wirkliche (biologische, soziale, ökono- mische, psychologische, etc.) Sachverhalte ist nicht aus der Binnenlogik mathematischer Kompetenz zu leisten, sondern ist wesentlich auf die prüfende Rückbindung an Inhalte angewiesen, die in der mathematischen Abstraktion eliminiert werden. Übertragen auf 42 Serjoscha Wiemer das Gefangenendilemma wird damit eine Funktion der doppelten medialen Repräsentation spieltheoretischer Problemstellungen verständlich. Die Spielnarrative der Spieltheorie las- sen sich in dieser Hinsicht als flexible Narrative betrachten, die über illustrative oder pä- dagogische Funktionen hinaus einen Deutungsspielraum für die Übertragbarkeit und Überprüfbarkeit mathematischer Erkenntnisse hinsichtlich konkreter Sachverhalte stiften. 11˘ Es wurden vielfach unterschiedliche Auswege aus diesem Dilemma diskutiert. Anatol Rapoport hat vorgeschlagen, die »Unzulänglichkeit der individuellen Rationalität« (1976, 196) anzuerkennen, die das beste Ergebnis deshalb verfehle, weil sie vom Prinzip des indivi- duell-egoistischen Maximalnutzens ausgehe. Würde das rationale Kalkül der Gefangenen dagegen auf den gemeinsamen Maximalnutzen zielen, könnten die Spieler angesichts der Gewinnmatrix zu der Einsicht gelangen, dass sie kooperativ das beste Ergebnis für bei- de erzielen. Die egoistische Kalkulation sei zu kurzsichtig, um dieses Ergebnis zu errei- chen. Die Grundlagen mathematischer Entscheidungstheorie werden, das wird hier er- kennbar, durch politische und soziologische Vorannahmen beeinflusst, die das Verhältnis von Individuum und Gesellschaft, Eigeninteresse und Kollektivnutzen betreffen. In der Psychologie und der Soziologie wurde das Gefangenendilemma zum Ausgangspunkt für al- ternative Rationalitätsmodelle, etwa durch die Berücksichtigung sozialer Prägungen oder psychologischer Einstellungen für die Entscheidungsfindung. Bis heute einflussreich ist das von Herbert Simon Ende der 1950er formulierte Konzept »begrenzter Rationalität« (1957), das zwar weiterhin von dem Ideal ausgeht, dass Entscheidung als vollständig rationaler Prozess betrachtet werden kann, jedoch die Einschränkung vornimmt, dass Entscheidungen auf der Grundlage einer bestimmten Menge verfügbarer Informationen und angesichts be- grenzter Ressourcen getroffen werden müssen. 12˘ Holland und Axelrod waren Mitglieder der so genannten BACH-Gruppe, bestehend aus Arthur Burks, Robert Axelrod, Michael Cohen und John Holland (vgl. Mirowski 2002, 484f.) . 13˘ »Was den robusten Erfolg von TiT For TaT erklärt, ist die Kombination, freundlich zu sein, zurückzuschlagen, Nachsicht zu üben und verständlich zu sein. Freundlichkeit schützt vor überflüssigen Scherereien. Zurückschlagen hält die andere Seite nach einer ver- suchten Defektion davon ab, diese unbeirrt fortzusetzen. Nachsicht ist hilfreich bei der Wiederherstellung wechselseitiger Kooperation. Schließlich erleichtert Verständlichkeit die Identifikation und löst dadurch langfristige Kooperation aus« (Axelrod 2005, 48). 14˘ Axelrods methodisch-theoretische Neuorientierung der Spieltheorie beinhaltet einen epistemologischen Schwenk, der soziale und ›evolutionäre‹ Norm einander annähert und das Soziale als Imitation des Lebendigen betrachtet. Damit wird auf theoretischem Gebiet vollzogen, was politisch mit dem Begriff der Biomacht bei Foucault beschrieben worden ist. Vgl. zur Mimesis des Sozialen an die Biologie im Kontext der Begriffsgeschichte der Biopolitik: Muhle 2013. 15˘ Methodisch bemerkenswert ist, dass bereits in dem grundlegenden Artikel zur Evolutionär Stabilen Strategie Die Logik des Konflikts (1973) John Maynard Smith und George R. Price Von der Matrix zum Milieu 43 ihre Argumentation auf die Ergebnisse einer »Simulationsstudie« gestützt hatten. Sie ließen fünf verschiedene Konfliktstrategien, die als Maus, Falke, Angeber, Vergelter und Wehrhafter bezeichnet wurden, in 2000 simulierten Auseinandersetzungen aufeinander- treffen, um mit den gewonnenen Daten die Bedingungen für evolutionsstabile Strategien zu analysieren (vgl. Smith/Price [1973] (1996)). 16˘ Wie eng dieser Vernunftbegriff historisch mit der Herausbildung einer spezifischen Wissenschaft des Ökonomischen verbunden ist, hat Vogl (2010) in seiner Studie zum Gespenst des Kapitals thematisiert. Der »interessegeleitete Mensch«, der im 17. und 18. Jahrhundert an der Schnittstelle von politischer Anthropologie, Moralphilosophie und Nationalökonomie theoretisch verfeinerte Gestalt annimmt, und später als homo oecono- micus kanonisch wird, »operiert wie eine kleine Insel der Rationalität in einer zufälligen und eigentlich unvernünftigen Welt« (38, herv. SW). 17˘ Vgl. zur Diskussion der epistemologischen Dimension des soziologischen Funktionalismus in Anlehnung an den biologischen Funktionalismus weiterführend Wagner 2012, S. 60ff. 18˘ Eine umfassende Einführung in evolutionäre Algorithmen als Methode der Informatik bie- tet Weicker 2007. Bei evolutionären Algorithmen dient die natürliche Evolution als Vorbild. In der »simulierten Evolution« sollen durch das »Wechselspiel zwischen Modifikation und Auswahl« bessere Individuen erzeugt und identifiziert werden (ebd., 1) . Insbesondere wer- den Konzepte wie »Population, Reproduktion durch Vererbung und Variation, das Prinzip der Selektion sowie die Kodierung von Informationen in einem Genotyp« der Biologie entlehnt (ebd., 39). Die Angepasstheit oder »Fitness« wird nicht notwendig durch die Anzahl von Nachkommen gemessen, sondern kann durch beliebig definierte »Bewertungsfunktionen« erfolgen, passend zu dem »Optimierungsproblem« für das eine algorithmische Lösung ge- sucht wird. Weiterhin wird typischerweise ein Selektionsoperator definiert, der aus einer Population eine bestimmte Anzahl von Individuen auswählt, die für die Erzeugung von Nachkommen verwendet werden. Der Begriff der Population hat eine zentrale Funktion, weil damit »eine Ansammlung von Lösungskandidaten« bezeichnet wird, die als Individuen betrachtet werden (ebd., 1) . 19˘ Mirowski verwendet den Ausdruck »bricolage of algorithms«, um die projizierte Auflösung des homo oeconomicus in der Wirtschaftstheorie angesichts der Umwandlung der Wirtschaftswissenschaften zur titelgebenden »Cyborg Science« zusammenzufassen. Der Zusammenhang bei Mirowski ist auf die Situation der ökonomischen Theorie zugespitzt (Mirowski 2002, 516), ich verwende den Ausdruck hier in einem weiter gefassten Sinne für die möglichen Effekte der bio-algorithmischen Komposition von Entscheidung und Rationalität. 44 Serjoscha Wiemer Literatur Axelrod, Robert (1997) The Complexity of Cooperation: Agent-Based Models of Competi- tion and Collaboration. Princeton, N.J: Princeton University Press. Axelrod, Robert [1984] (2005) Die Evolution der Kooperation (6. Aufl.) . München: Olden- bourg. Berninghaus, Siegfried / Ehrhart, Karl-Martin / Güth, Werner (2010) Strate- gische Spiele. Eine Einführung in die Spieltheorie (3., verb. Aufl.) . Berlin/Heidelberg: Springer. Berry, David M. (2011) The Philosophy of Software. Code and Mediation in the Digital Age. New York: Palgrave Macmillian. Colman, Andrew M. / Pulford, Briony D. (2012) Problems and Pseudo-Problems in Understanding Cooperation in Social Dilemmas. In: Psychological Inquiry 23,1, S. 39-47. Dawkins, Richard (2007) Das egoistische Gen (Jubiläumsausg.). München/Heidelberg: El- sevier, Spektrum, Akad. Verl. Ensmenger, N. (2011) Is chess the drosophila of artificial intelligence? A social history of an algorithm. In: Social Studies of Science 42,1, S. 5-30. Flood, Merrill (1952) Some experimental Games. RM789-[http://www.rand.org/content/ dam/rand/pubs/research_memoranda/2008/RM789-1.pdf]; letzter Abruf 09.04.2015. Gillespie, Tarleton (2016) Algorithm (preprint). In: Ben Peters (Hg.): Digital Keywords. N.J. : Princeton University Press. [http://culturedigitally.org/2014/06/algorithm-draft-digital- keyword/]; letzter Abruf 09.01.2016. Golbeck, Jennifer (2002) Evolving Strategies for The Prisoner’s Dilemma. In: Advances in Intelligent Systems, Fuzzy Systems, and Evolutionary Computation 2002, S. 299-306. Gramelsberger, Gabriele (2010) Computerexperimente. Zum Wandel der Wissenschaft im Zeitalter des Computers. Bielefeld: Transcript. Haider, Adnan (2005) Using Genetic Algorithms to Develop Strategies for The Prisoners Dilemma, [http://mpra.ub.uni-muenchen.de/28574/]; letzter Abruf 17.11.2014. Holler, Manfred J. / Illing Gerhard (2009): Einführung in die Spieltheorie (7. Aufl.) . Berlin/Heidelberg: Springer. Krajewski, Markus (2007) In Formation. Aufstieg und Fall der Tabelle als Paradigma der Datenverarbeitung. In: Michael Hagner et al. (Hg.): Nach Feierabend. Zürcher Jahrbuch für Wissenschaftsgeschichte. Bd. 3. Zürich/Berlin: diaphanes, S. 37-55. Lindgren, Kristian (1991) Evolutionary Phenomena in Simple Dynamics. In: Christopher Langton / J.D. Taylor / S. Rasmussen (Hg.): Artificial Life II. SFI Studies in the Sciences of Com- plexity, Bd. X, Reading, Mass. u.a. : Addison-Wesley, S. 295-312. Luce, Robert Duncan / Raiffa, Howard (1957) Games and Decisions: Introduction and Critical Survey. New York: Dover Publications. Mérö, László (1998) Moral Calculations: Game Theory, Logic, and Human Frailty. Übers. von. A. C. Gösi-Greguss. New York, NY: Copernicus. Von der Matrix zum Milieu 45 Mirowski, Philip (2002) Machine Dreams: Economics Becomes a Cyborg Science. Cam- bridge u.a. : Cambridge University Press. Mueller, Ulrich (Hg.) (1990) Evolution und Spieltheorie. München: Oldenbourg Wissen- schaftsverlag. Muhle, Maria (2013) Vom Vitalen zum Sozialen. Überlegungen zu einem politischen Wis- sen im Anschluss an Canguilhem. In: Astrid Deuber-Mankowsky / Christoph F. E. Holzhey (Hg.): Situiertes Wissen und regionale Epistemologie: zur Aktualität Georges Canguilhems und Donna J. Haraways. Wien: Verlag Turia + Kant (Cultural inquiry 7), S. 141-159. Neumann, John von (1928) Zur Theorie der Gesellschaftsspiele. In: Mathematische Anna- len Bd. 100, S. 295-320. Neumann, John von / Morgenstern, Oskar [1944] (2007) Theory of Games and Eco- nomic Behavior. Princeton/New Jersey: Princeton University Press. Pias, Claus (2000) Computer-Spiel-Welten, Weimar: Universität, ftp://ftp.uni-weimar.de/ pub/publications/diss/Pias/pias.pdf. Rapoport, Anatol (1976) Kämpfe, Spiele und Debatten: 3 Konfliktmodelle. Darmstadt: Verlag Darmstädter Blätter. Rieck, Christian (2006) Spieltheorie. Eine Einführung (5. Aufl.) . Eschborn: Rieck. Simon, Herbert Alexander (1957) Models of Man. Social and Rational. Mathematical Es- says on Rational Human Behavior in Society Setting. New York: Wiley. Smith, John Maynard / Price, George R. [1973] (1996) Die Logik des Konflikts. In: Ul- rich Mueller (Hg.): Evolution und Spieltheorie. München: Oldenbourg, S. 15-23. Turing, A. M. (1950) Computing Machinery and Intelligence. In: Mind 59,236, S. 433-460. Vogl, Joseph (2010) Das Gespenst des Kapitals. Zürich/Berlin: diaphanes. Wagner, Gerhard (2012) Die Wissenschaftstheorie der Soziologie. Ein Grundriss. Mün- chen: Oldenbourg. Weicker, Karsten (2007): Evolutionäre Algorithmen (2., überarb. und erw. Aufl.) . Wiesba- den: Teubner. Wiemer, Serjoscha (2014) Strategiespiele und das Medium-Werden des Computers. Com- puterschach als Faktor der Rekonzeptionalisierung des Computers als programmierbare Ma- schine zwischen 1945 und 1960. In: Stefan Böhme / Rolf F. Nohr / Serjoscha Wiemer (Hg.): Dis- kurse des strategischen Spiels. Medialität, Gouvernementalität, Topografie. Münster: LIT, S.83-112. Ziegenbalg, Jochen / Ziegenbalg, Oliver / Ziegenbalg, Bernd (2010): Algorith- men von Hammurapi bis Gödel. Mit Beispielen aus den Computeralgebra-Systemen Mathe- matica und Maxima (3., überarb. Aufl.) . Frankfurt a. M.: Deutsch. 46 Martin Doll Der Staat als automatisiertes Warenwirtschaftssystem: Edward Bellamys utopischer Ausblick auf volkswirtschaftliche Planbarkeit im Jahr 2000 Einleitung Jeremy Rifkin, Ökonom und Zukunftsforscher, veröffentlicht 2014 sein Buch Die Null-Grenzkosten-Gesellschaft (The Zero Marginal Cost Society). Mit dem neu- en Internet der Dinge sieht er nichts weniger als den »Rückzug des Kapitalis- mus« unmittelbar bevorstehen: Ein neues Wirtschaftssystem, die »kollabora- tiven Commons« werden, wenn die Grenzkosten zur Her- oder Bereitstellung eines Produkts erst einmal gegen Null gegangen sein werden, eine umfassende Ökonomie des Teilens und Tauschens ermöglichen, verbunden mit völlig neuen Freiheiten für alle (Rifkin 2014, 227-326). Die Idee einer befreienden Technisie- rung des Alltags und der Politik hatte spätestens mit der Interneteuphorie der 1990er Jahre Konjunktur. Sie wurde u. a. von Fred Turner (2006) und Richard Barbrook (2007) bis in die 1960er Jahre des Whole Earth Catalog, wenn nicht so- gar bis in die Zeit nach dem Zweiten Weltkrieg zurückverfolgt (Turner 2013). In der letzteren Zeitspanne wird zugleich häufig der Beginn der ›Epoche der Ky- bernetik‹ angesetzt. Im Folgenden soll ein Beitrag zur Genealogie dieser Epoche geleistet werden und – so die These – aufgezeigt werden, dass ihre Wurzeln mindestens bis in die 80er Jahre des 19. Jahrhunderts zurückverfolgt werden können. Von be- sonderem Interesse sind in diesem Zusammenhang Utopien von Feedback-Ma- schinen bzw. automatisierten (politisch-wirtschaftlichen) Entscheidungspro- zessen, wie sie in Edward Bellamys Looking Backward und Equality aus dem Jahr 1889 bzw. 1897 abgelegt sind. Die Ideale absoluter volkswirtschaftlicher Planbarkeit in dieser Periode stehen dabei in einem engen Bezug zur Verbrei- tung von seinerzeit immer komplexer werdenden Informationstechnologien. Der Staat als automatisiertes Warenwirtschaftssystem 47 Historischer Hintergrund Folgt man den schon kanonisch gewordenen Überlegungen Reinhart Kosell ecks (2006), ging mit der sogenannten »Sattelzeit« zwischen 1750 und 1850 eine, wie Hans Ulrich Gumbrecht zusammenfasst, neue »Ausrichtung des Gegen- wartsverständnisses an der Zukunft« (1978, 120) einher. Die Gegenwart wur- de durch diese »Verzeitlichung« nicht nur zum »Durchgangspunkt«, sondern sie war zur Wende zum 19. Jahrhundert »als Chance der Gestaltung dieser Zu- kunft erlebt worden« (ebd., 110 u. 120). Das Reden vom ›Fortschritt‹, der als Be- griff erst gegen Ende des 18. Jahrhunderts geprägt wurde, richtete sich dabei, so Koselleck »auf eine aktive Verwandlung dieser Welt« (2006, 363f.). Da Ko- selleck sich in erster Linie für Mentalitätsgeschichte und, damit verbunden, die tiefgreifende Veränderung der sozialen und politischen Semantiken inte- ressiert, kommt er auch zu entsprechenden Ergebnissen. Mit diesem epocha- len Wandel der Moderne lassen sich aber zugleich zahlreiche technische bzw. medientechnische und damit verknüpft auch organisationslogische, d. h. logis- tische Innovationsschübe nachweisen: Neben der durch die Industrialisierung ausgelösten Mechanisierung der Arbeit wären erstens die zahlreichen archi- tektonischen und stadtplanerischen Neuerungen zu erwähnen, die entwickelt wurden, um Forderungen nach politischen Veränderungen mit dem Ruf nach sozialen und menschenwürdigen Wohnformen zu verbinden (vgl. Bruyn 1996, 86; Doll 2013a). Darüber hinaus wäre auf kommunikationstechnischer Seite die rasante Ent- wicklung der Verkehrs- und Nachrichtenwege zu nennen (neben Schifffahrts- routen und Eisenbahnstrecken der Ausbau der optischen und später der elek- trischen Telegrafenlinien) (Doll 2013b). Und drittens schließlich darf vor allem ab Mitte des 19. Jahrhunderts – und insbesondere für das hier leitende Thema der Entscheidung relevant – die umfassende Herausbildung von Technologien der Informationsverarbeitung, gekoppelt an das immense Anwachsen eines bürokratischen Apparats, nicht vergessen werden, die James Beniger (1986) als Control Revolution beschrieben hat. Als besonders wichtige Phase zeigen sich demnach die 1880er Jahre. Bis 1890 haben sich Beniger zufolge bereits alle vier relevanten informationsverarbeitenden Technologien – Rechner, Lochkarten- maschinen, digitale und analoge Computer – gut etabliert: Den Tischrechner gibt es als Konzept seit etwa 1820; ab 1833 arbeitet Charles Babbage an der nie realisierten dampfgetriebenen Analytical Engine (als Vorläufer des Digitalcom- puters). Bezeichnenderweise 1889 berichtet Babbages Sohn Henry davon, dass er einen funktionierenden Teil gebaut habe. Das dabei zum Einsatz kommende Lochkartensystem ist schon seit Joseph-Marie Jacquards mechanischen Web- 48 Martin Doll stühlen 1801 bekannt und wird 1884 von Herman Hollerith als Medium für die elektromechanische Informationsverarbeitung perfektioniert und wieder be- zeichnenderweise 1889 zum Patent angemeldet (vgl. Beniger 1986, 398f.). Spä- testens 1873 gibt es schließlich mit Lord Kelvins (Sir William Thomsons) Gezei- tenrechenmaschine den ersten Analogcomputer. Hervorzuheben ist, dass die maßgeblichen Impulse zur Weiterentwicklung, Beniger zufolge, nicht von pri- vatwirtschaftlicher, sondern von staatlicher Seite erfolgten: Holleriths System findet z. B. prominent Verwendung bei der Volkszählung 1890. Insgesamt liegt der Schwerpunkt der Kontrolltechnologien zunächst bei der Warenverteilung (1860er Jahre), später auch im Produktions- und Konsumptionsbereich (1870er Jahre) (vgl. Beniger 1986, 411-416; 430-432). Dies steht ganz im Einklang mit Monika Dommanns an Foucault angelehn- ter Einschätzung, dass sich der Kapitalismus mit der Zunahme des weltweiten Handels zwischen 1840 und 1870 nicht durch eine umfassende Virtualisierung (in Geldwerte), sondern eine veritable Materialisierung (in Warenströme) aus- gezeichnet habe (2012b, 49). Dies habe auch zur Herausbildung entsprechender Kulturtechniken geführt, zur Ermöglichung, »dass Waren in großem Maßstab gesammelt, akkumuliert, gehortet, verpfändet, veredelt und global sichtbar gemacht werden konnten« (ebd. 2012a, 59). Beniger schreibt ähnlich: »Before this time [die 1880er Jahre; Anm. M.D.] , control of government and markets had de- pended on personal relationships and face-to-face interactions; by the 1890s […] control began to be reestablished by means of bureaucratic organization, the new infrastructures of trans- portation and telecommunications, and system-wide communication via the new mass me- dia.« (1986, 433) Schon Michel Foucault hat gezeigt, dass bereits während der Industriellen Re- volution das Vermögen in England in erheblichem Maße »stoff lichere Formen« angenommen hat. Er schreibt: »Die Geburt des Kapitalismus, sein Wandel und seine beschleunigte Entwicklung finden ihren Niederschlag in dieser neu- en materiellen Form von Vermögen.« (Foucault 2002, 746-748) Während sich Foucault und später Beniger vorrangig dafür interessieren, wie sich mit dem Kapitalismus verbundene Kontrollmechanismen und Disziplinartechniken he- rausbilden (vgl. Dommann 2012b, 37f.), lässt sich diese Entwicklung auch in eine andere Richtung verfolgen, nämlich inwieweit die Entstehung von Kontrolldis- positiven ebenso als Projekt in Gegenbewegungen, insbesondere in sozialis- tische Utopien einsickert und – im Grunde gouvernemental gedacht – als Be- freiungsmoment konzipiert wird. Insofern ist Foucault zuzustimmen, wenn er betont, dass sich auch die Gegenbewegungen im Zusammenhang mit der mo- dernen Gouvernementalität entwickelt hätten, denn sie hätten »dieselben Be- Der Staat als automatisiertes Warenwirtschaftssystem 49 standteile […] wie jene Gouvernementalität«: »die ökonomische Wahrheit, […] das Interesse aller im Gegensatz zum Einzelinteresse, der absolute Wert der Bevölkerung als natürliche und lebendige Wirklichkeit, […] die Freiheit gegen- über der Reglementierung« (Foucault 2006, 509f.). Genau genommen handelt es sich um eine Befreiung von Politik als solcher – ein Aspekt, auf den später noch genauer eingegangen wird. Zunächst soll hier der Fokus auf einen kon- kreten Gegenstand gelegt werden, auf Edward Bellamys immer wieder als sozi- alistisch markierte Utopie Looking Backward aus dem Jahr 1888. Utopien sollen im Folgenden als Gedankenexperimente verstanden werden, weil sie innerhalb ihrer jeweiligen gemeinwohlorientierten Eigenlogik noch zu realisierende Medien – nach Erkki Huhtamo »discursive inventions« (1997, 223) – oder deren idealen Gebrauch studieren und reflektieren. Interessanterweise handelt es sich bei Bellamys Utopie vornehmlich um eine Art, zugegeben spe- kulatives, Unternehmensplanspiel auf volkswirtschaftlicher Ebene – spekula- tiv, weil ja nur mögliche Effekte von nicht oder nie in dieser Form realisierten Kulturtechniken und Medien in Gedanken durchgespielt werden. Er fasst sein ambitioniertes Vorhaben folgendermaßen zusammen: »The argument of the book is […] an attempt to work out logically the results of regulating the nati- onal system of production and distribution by the democratic principle of the equal rights of all, determined by the equal voice of all.« (Bellamy 1937a, 224f.) Es geht mithin, um wieder mit Dommann zu sprechen, um »alle Praktiken von der Produktion bis zum Konsum« (2011, 75), kurz: um das Ziel, Organisations- probleme zu lösen, d. h. eine globale Warenzirkulation optimal zu regeln – und dies durch die Technisierung von Entscheidungen. Edward Bellamy: Looking Backward (1888) Auch wenn Looking Backward in Form einer literarischen Erzählung gehalten ist, ist dies ein medienkulturgeschichtlich ernstzunehmender gesellschaft- licher Gegenentwurf, der auch als solcher rezipiert wurde. Es handelte sich also nicht nur um einen Bestseller,¯1 sondern um einen wichtigen Referenzpunkt für die soziale Bewegung des von Bellamy so genannten ›Nationalism‹ in den USA.¯2 Kurz nach Erscheinen wurden z. B. über 150 Bellamy-Clubs gegründet, mit dem Ziel die in Looking Backward beschriebene Gesellschaft zu verwirkli- chen: ›Nationalism‹ stand dabei nicht im heutigen Sinne für Nationalismus, sondern für die Verstaatlichung der Industrie (vgl. Miller 2000). Es ist nicht der Plot, der das Werk auszeichnet, denn dieser ist recht simpel: Der Protagonist Julian West aus dem Jahr 1887 erwacht nach einer Hypnose 50 Martin Doll im Boston des Jahres 2000 und trifft auf eine völlig veränderte gesellschaft- liche Wirklichkeit, nämlich auf eine Art genossenschaftliches Staatswesen, in dem die gesamten Produktionsmittel verstaatlicht sind. Auch sämtliche Vertei- lungsstrukturen, inklusive die der Medien, werden zentralistisch vom Staat or- ganisiert. An die Stelle der Regierung tritt eine reine Verwaltung. Der Präsident ist lediglich mit der Lenkung der Arbeitsorganisation beschäftigt: »[W]e have nothing to make laws about. The fundamental principles on which our society is founded settle for all time the strifes and misundestandings [sic] which, in your day, called for legislation.« (Bellamy 1888, 79) Das Geld ist vollständig virtualisiert: Die Bevölkerung verfügt über eine »credit card«, mit der die einzelnen über ihren Anteil an der jährlichen Produktion ver- fügen und sich nach individuellen Vorlieben versorgen können (vgl. ebd., 119 u. 290). Betrachtet man die Ordnungsstrukturen, könnte man sagen, dass, wenn Bellamy rückblickend auf das 19. Jahrhundert vom »age of […] telegraphs« (ebd., 75) spricht, seine daraus hervorgehende ideale Gesellschaftsform ihren Zusam- menhalt entsprechend durch Vernetzung in einem decentralized network er- hält. So sorgt ein Rohrpostsystem, das sämtliche Haushalte mit dem Zentral- lager verbindet, in wenigen Sekunden für die Verteilung der Bestellungen und Güter – es geht also darum, die Konsumgüter ähnlich schnell wie telegrafische Nachrichten zu transportieren (Bellamy 1888, 147-149). Die von Bellamy dabei technisch nicht weiter spezifizierte Warenverteilung stellt einen signifikanten Aspekt im Zusammenhang mit den bereits angesprochenen organisationslo- gischen bzw. logistischen Innovationsschüben des 19. Jahrhunderts dar. Automatisierung der Warenproduktions- und Verteilungsprozesse Eine besondere Rolle spielt bei der in Sekundenschnelle ausgeführten Waren- zustellung die von Bellamy unausgesprochen vorausgesetzte Medienfunkti- on des Prozessierens, und zwar – wie man in Anlehnung an Hartmut Winkler präzisieren könnte – in dessen (von Winkler später allerdings als vernachläs- sigenswert abgetaner) allgemeiner Bedeutung als Schalten und Weiterleiten. Dabei handelt es sich um ein Schalten und Weiterleiten, wodurch das Prozes- sierte – bei Bellamy, die optimal verteilten und nahezu ›unmittelbar‹ zuge- stellten Waren – in ihrer inneren Struktur unangetastet bleiben (Winkler 2015, 31f., 103f. u. passim; noch ausgewogener: ders. 2010, 12). Anders gesagt, nicht nur die Übertragungseigenschaften, sondern auch ihre unausgesprochen vo- rausgesetzte Schaltbarkeit lässt die Rohrpost bei Bellamy zum Medium wer- den. Führt man sich vor Augen, dass jedem einzelnen Haushalt ultraschnell in- dividuell Waren geliefert werden, müsste man sich das Rohrpostsystem als ein in gigantischem Ausmaß automatisiertes mechanisches Relaissystem vorstel- Der Staat als automatisiertes Warenwirtschaftssystem 51 len, wie es z. B. im Bereich der Telefonie erst ab Anfang des 20. Jahrhunderts mit automatischen Telefonzentralen, verbunden mit Selbstwähltelefonen rea- lisiert wurde, z. B. 1908 erstmals in Hildesheim (Fröschl/Mattl/Werthner 1993, 80f.; Flichy 1994, 202ff). Insgesamt fällt jedoch auf, dass Bellamy in erster Linie Techniken weiterdenkt, die zu seiner Zeit schon existierten: sei es die bereits 1810 bekannte und ab 1853 (zuerst in London) benutzte Rohrpost, 1873 versuchsweise auch für größere Stückgüter eingeführt oder die pneumatic railway, mit der 1864 in London und ab 1869 in New York experimentiert wurde¯3 oder das seit 1861 entwickelte Telefon bzw. das bei der Exposition Internatio- nale d’Électricité 1881 in Paris vorgestellte und ab 1895 als electrophone in England vertriebene théâtrophone (Abrash 1989, 238). Hervorzuheben an Bellamys Medienkonzepti- on ist, dass er die genannte Idee des Prozessie- rens auf die Makroebene volkswirtschaftlicher Entscheidungen hochskaliert – im Sinne eines idealen – wenn man so will: rechnergestützten – Austarierens von Angebot und Nachfrage. Zum einen soll es also in Bellamys gesellschaftlicher Zukunft möglich sein, qua Rohrpostsystem die Logistik zu optimieren – mit dem Ergebnis einer mechanisch gestützten ›Distributionsökonomi- sierung‹ auf ein Achtzigstel der Gesamtarbeit (vgl. Bellamy 1888, 318; vgl. allgemein zum Be- griff: Dommann 2011, 98). Zum anderen – und viel entscheidender – geht es darum, durch eine ideale Ermittlung der Nachfrage, nie mehr zu produzieren, als tatsächlich gebraucht wird: »Now that every pin which is given out from a national warehouse is recorded, of course the figures of consump- tion for any week, month, or year, in the possession of the department of distribution at the end of that period, are precise. […] In the great majority of smaller industries, for Abb. 1: Rohrpost aus dem Central Telegraph Office, the products of which popular taste fluctuates and novel- London (1874) ty is frequently required, production is kept barely ahead Abb. 2: Abfertigung von Postsäcken im Bezirkspost- of consumption, the distributive department furnishing amt Eversholt Street (1863) 52 Martin Doll frequent estimates based on the weekly state of demand.« (Bellamy 1888, 250f.) Um zu erreichen, dass sich Angebot und Nach- frage permanent die Waage halten, wäre im Prinzip wiederum eine gigantische Datenerhe- bungs- und -verarbeitungsmaschinerie vonnö- ten, die nicht einmal mit heutigen Supercom- putern reibungslos zu bewerkstelligen wäre.¯4 Neben der idealen (völlig autoritär wie bei einer Armee organisierten) Arbeit soll bei Bellamy die- ses ausgeklügelte System die ökonomischen Un- gleichheiten beseitigen. Anders gesagt, durch die völlige Transparenz der Nachfrage, bedarf Abb. 3: Alfred E. Beachs Teststrecke der New Yorker es gar keiner unternehmerischen bzw. volks- Pneumatic Transit (1873) unter dem Broadway wirtschaftlichen Entscheidungen mehr: Sie wird an die optimale Informationsverarbeitung der Summe einzelner Nachfragen delegiert, weil dadurch eine quasi-automatische Steuerung der Produktion möglich wird. So wie Bellamys Veröffentlichung in eine Zeitspanne der bereits Ende des 18. Jahrhunderts beginnenden »Statisti- keuphorie« fällt (Fröschl/Mattl/Werthner 1993, 43), erübrigt sich in seinem Entwurf eine Wirtschafts- und Sozialpolitik zugunsten genauester Kostenbe- rechnungen und Statistiken (Bellamy 1888, 250 u. 233).¯5 Ein zusätzlicher Faktor ist, dass das aus Bellamys Sicht nur Spekulationen und Krisen produzierende Medium Geld abgeschafft ist. Seine Ausführungen dazu stehen im Einklang mit der im 19. Jahrhundert stattfindenden Materialisie- rung von Warenströmen, wie sie von Dommann historiografisch herausgear- beitet wurde: »All estimates deal directly with the real things« (Bellamy 1888, 333). Sollte es wiederum doch zu vorübergehenden Überproduktionen kom- men, wird dies wiederum logistisch durch kurzfristige Lagerhaltung ausgegli- chen. Dadurch also, dass die Produktion und Warenverteilung einer durch »ex- act statistics« gestützten »common control« unterliegen, wird ein perfektes Ineinandergreifen von Produktion, Lagerung und Nachfrage erzielt (Bellamy 1888, 315): ¯6 »[B]y the connection between distribution and production, sup- ply is geared to demand like an engine to the governor [der Regler der Dampf- maschine] which regulates its speed« (Bellamy 1888, 332)¯7 – kurz: Bellamy ent- wirft ein System zur Erzeugung einer dynamischen Stabilität. Hervorzuheben ist, dass es sich bei der Metapher, die Bellamy verwendet, um einen Verweis auf ein System mit automatischem Feedback handelt. Anders Der Staat als automatisiertes Warenwirtschaftssystem 53 gesagt, er spricht von einer Art Kybernetisierung der Produktionsabläufe bzw. der Volkswirtschaft avant la lettre. Auch hier lassen sich Parallelen zu tech- nikgeschichtlichen Entwicklungen aufzeigen, insofern, beginnend mit Andrew Ures Thermostat, schon ab 1830 eine Vielzahl von Feedback-Systemen (wei- ter)entwickelt wurden. All diese Innovationen, schreibt Beniger, hätten James Clerk Maxwell schließlich dazu gebracht, seine berühmte Abhandlung On Go- vernors (1868) zu schreiben. Dieses Papier hatte zunächst wenig Einfluss, bis es von Norbert Wiener 1948 in seiner breit rezipierten Schrift Cybernetics wieder aufgegriffen wurde, um zu erklären, dass Maxwells ›governor‹ nichts anderes sei als eine lateinische Verfälschung des griechischen Wortes ›kubernetikós‹ (›Steuermannskunst‹) – englisch: ›cybernetics‹ (Wiener 1985, 11f.; vgl. Beniger 1986, 302f.). Von Foerster definiert entsprechend: »[C]ybernetics arises when effectors (say, a motor, an engine, our muscles, etc.) are connected to a sensory organ which in turn acts with its signals upon the effectors.« (2003, 287). An- gesichts dieser historischen Häufungen müsste man also die Genealogie der vielbeschworenen ›Epoche der Kybernetik‹ bereits früher ansetzen, als es ge- läufig der Fall ist. Bellamy wiederum überträgt die Idee von Feedbacksystemen auf wirtschafts- politische Entscheidungsprozesse. Stafford Beer, maßgeblicher Initiator des Cybersyn-Projekts (1971-73) zur Zeit Salvador Allendes (vgl. Vehlken 2004; Pias 2005; Medina 2011), wird später entsprechend definieren: »Cybernetics is the science of effective organization« (Beer 2003, ix) – ein Motto, auf das später auch Heinz von Foerster Bezug nehmen wird (vgl. 2003, 288). Bezeichnend ist in diesem Zusammenhang die Etymologie des Wortes Regierung, die eben- falls aus dem Bereich der Schiffsnavigation stammt: »Die Verben ›regere‹ und ›gubernare‹ bezeichneten ursprünglich die Leitung eines Schiffs, ›guvernacu- lum‹ bedeutete Steuerrad. Von Cicero bis Thomas von Aquin wird die Regie- rung eines Staates mit der Steuerung eines Schiffs verglichen« (Lemke 2014, 258). Und so bildet sich, Joseph Vogl zufolge, bereits um 1800 mit den »Konzep- tionen zirkulärer Kausalprozesse« (2003, 79), aufbauend auf bereits vorange- gangenen Techniken der Datenerhebung seit dem Barock sowie den Regulati- onsideen der Aufklärung, eine Art Vorstufe politischer Kybernetik heraus. Die Statistik wird dabei, wie schon Foucault herausgearbeitet hat, zum »Wissen des Staates über den Staat, verstanden als Selbstwissen des Staates« (Foucault 2006, 455). Proto-Kybernetik und das Ende der Politik Bei Bellamy hingegen wird durch die optimierten Feedbacksysteme bzw. Steu- erungskreisläufe, zugespitzt formuliert, Politik geradezu vollständig obsolet, 54 Martin Doll weil gar keine Entscheidungen mehr getroffen werden müssen, nimmt man als Minimaldefinition einer Entscheidung, dass sie auf Basis einer Unsicherheit getroffen werden muss, also z. B. auf Basis einer offenen und gerade nicht sta- bilen, bereits determinierten Zukunft (vgl. dazu im Verweis auf G.L.S. Shack- le: Baecker 1994, 164). Es bedarf einer gewissen attribuierten Willkür, wie Luhmann im Verweis auf Heinz von Foerster postuliert: »Was bereits voll deter- miniert ist, kann nicht mehr entschieden werden.« (1993, 287)¯8 Und er setzt hinzu, dass alles andere »eine Sache der (mehr oder weniger langwierigen) Er- rechnung« sei (ebd., 289).¯9 Noch einmal: Da bei Bellamy jede Unsicherheit qua »exact statistics« restlos beseitigt und berechenbar ist, sind volkswirtschaftliche Probleme vollständig durch Datenverarbeitung determiniert und damit nicht mehr durch politische Entscheidungen geprägt. Weil sein Gesellschaftssystem, in dem Organisations- und Gesellschaftstheorie korrespondieren, auf maximale »Unsicherheitsab- sorption« bei den Entscheidungsprämissen abstellt (vgl. dazu allgemein Luh- mann 1993, 296 u. 308f.), bedarf es somit – qua absoluter Rationalität der Entscheidung – in seinem Staat keiner übergeordneten politischen Entschei- dungsinstanz mehr. Im historischen Zusammenhang könnte man mit Foucault argumentieren, dass es um eine moderne (vom Liberalismus geprägte) Gou- vernementalität geht: »[M]an wird verwalten, und nicht mehr reglementie- ren müssen. […] Diese Verwaltung wird als wesentliches Ziel […] haben, […] es so einzurichten, daß die notwendigen und natürlichen Regulationen grei- fen können« (Foucault 2006, 506). Genauer betrachtet, vernichtet die abso- lute Rationalität der Entscheidung, d. h. die maximale durch Datenverarbeitung gestützte Beschränkung des Entscheidungsspielraums, die Entscheidung als Entscheidung.¯10 Um dies in den Worten Heinz von Foersters zu formulie- ren: »[T]he decidable questions are already deci- ded […] by the choice of the rules used to connect what we label ›the question‹ with what we take for an ›answer‹.« (von Foerster 2003, 293) Man erinnere sich an Bellamys Metapher vom Regler und der Maschine. »The compliment to necessity is not chance, it is choice!«, schreibt von Foerster weiter (ebd.) – das wäre eine offene Wahlmög- lichkeit, die Unentscheidbarkeit, d. h. eine nicht Abb. 4 : Hermann Holleriths System zur Datener- fassung mittels Lochkarten (1889) Der Staat als automatisiertes Warenwirtschaftssystem 55 vorprogrammierbare Entscheidung und damit das Übernehmen von Verant- wortung voraussetzen würde.¯11 Hier sei auf die bereits erwähnte kulturgeschichtliche Interferenz von Bellamys Statistik mit der Entwicklung des Lochkartensystems der Hollerith-Maschinen im 19. Jahrhundert verwiesen.¯12 In Anlehnung an Bernhard Dotzler, der in einem Parforceritt historischer Verdichtung wiederum auf DeLanda verweist, lässt sich diese Technik in die Geschichte der computerisierten Zielsetzung ein- reihen, »to get the humans out of the decision-making loop« (DeLanda 1991, 43) und damit den Faktor Mensch »auszuschalten, indem die Schaltungen ganz auf sich selbst gestellt werden« (Dotzler 2002, 305f). Bei Bellamy gibt es in ge- ringem Maße noch den Einfluss von Menschen, nicht aber als Entscheider, son- dern als Statistiker und Administratoren, die die Ergebnisse aus den erhobenen Daten in Arbeitsorganisation und Logistikprozesse umsetzen oder die Bevölke- rung als statistisches Ganzes oder, um mit Foucault zu sprechen, als »Gesamt- heit natürlicher Phänomene« verwalten (2006, 505). Obwohl die genauen Techniken, zur Datenerhebung, -erfassung und -verarbei- tung, die zu einem solch gigantischen Regelkreislauf nötig wären, bei Bellamy eine Blackbox bleiben, wäre also zu mutmaßen, dass sie gedanklich auf die sei- nerzeit verfügbaren Informationsverarbeitungs- und Regel-Technologien zu- rückzuführen sind. Interessanterweise beschreibt Bellamy diese Blackbox in der Metapher der Mühle. Die perfekte Arbeitsorganisation sei »[…] like a gigantic mill, into the hopper [der Fülltrichter] of which goods are being constant- ly poured by the train-load and ship-load, to issue at the other end in packages of pounds and ounces, yards and inches, pints and gallons, corresponding to the infinitely complex personal needs of half a million people« (Bellamy 1888, 248). In den Worten der Kybernetik: Die Mühle ist eine triviale Maschine, »die mit geringen Schwankungsbreiten den immer gleichen Input mithilfe bestimmter Transformationen in den immer gleichen Output umsetzt« und Wissen, d.h. quantifizierbare Fakten nur exekutiert (Baecker 1994, 153; vgl. a. S. 154). Sie ist insofern keine nicht-triviale Maschine, als sie nicht so komplex ist, mit »in- determinierbaren, aber selbstdeterminierenden Prozesse[n] der Selbstorgani- sation« operieren zu können, die laut Baecker, einzig in der Lage wären, »die Unentscheidbarkeiten […] zu reproduzieren, die mit allen wirklichen Entschei- dungen einhergehen« (ebd., 167). Entscheidungen im strengen Sinne könnten jedoch, wenn man hier Baecker weiter folgt, nur nichttriviale Maschinen tref- fen. Bei Bellamy begegnet einem somit bereits schon das später von McLuhan im Zusammenhang mit dem Zeitalter der Elektrizität aufgerufene Ideal von Ge- 56 Martin Doll sellschaft als trivialer Maschine, »as a single unified machine for creating wealth« (McLuhan 1994, 354): »With the electric technology, the new kinds of instant interdependence and interprocess that take over production also enter the market and social organizations. […] We can now, by com- puter, deal with complex social needs with the same architectural certainty that we previous- ly attempted in private housing. Industry as a whole has become the unit of reckoning [Berech- nung] , and so with society, politics and education as wholes.« (ebd., 357f.) Edward Bellamy: Equality (1897) Das gigantische staatliche Feedbacksystem treibt Bellamy im 1897 zu Looking Backward erschienenen Sequel Equality weiter. Darin wird das Ideal ökono- mischer Gleichheit mit einem amerikanischen Republikanismus verknüpft – in den Worten Bellamys: »economic equality« und »complete independence of every individual« (Bellamy 1897, 255). Anders formuliert, es ist eine Bevölke- rung ökonomisch gleichgestellter, aber autonom handelnder Subjekte vorge- sehen. Zu vermuten ist, dass Bellamy mit dieser Ergänzung auf Totalitarismus- vorwürfe gegenüber der zentralen militärähnlichen Administration in Looking Backward reagiert hat. In Equality wird das Telefonsystem, das zuvor nur als Unterhaltungsmedium gedient hat, zudem zum Instrument der Partizipation und Mitbestimmung ausgeweitet: Politische Repräsentation ist ganz im Sinne Rousseaus abgeschafft.¯13 Die »agents of the people« – eine Art republika- nische Leistungselite¯14 – sind lediglich auf inhaltliche Arbeit in den Ausschüs- sen (»congressional committees«) verpflichtet, während Abstimmungen über verwaltungstechnische Maßnahmen kommunikationstechnisch gelöst und von der Summe der mündigen Bürger ausgeführt werden (Bellamy 1897, 274f.).¯15 Es herrscht eine totale Vernetzung wie auch Transparenz administrativer Ent- scheidungsprozesse. Diskussionswürdige Fragen, Konflikte und ein Streiten um das Gemeinsame werden zugunsten einer Art statistischen Mehrheits- entscheidung aller beteiligten (methodologisch) notwendig vernünftig urtei- lenden Individuen obsolet; d. h., es wird latent ein utilitaristischer ›rational choice‹-Ansatz zugrunde gelegt, dem zufolge »politische Wissensbildung […] in nichts anderem als der Aggregation¯16 individueller Interessen besteht« (Ger- tenbach et al. 2010, 140; vgl. a. Kunz 2004). Bellamy erklärt: »[T]he entire na- tion is organized so as to be able to proceed almost like one parliament. [...] The people not only nominally but actually govern. We have a democracy in fact« (Bellamy 1897, 275). Bellamys Feedbackdenken führt ihn also am Ende des Der Staat als automatisiertes Warenwirtschaftssystem 57 19. Jahrhunderts zur Idee einer mediengestützten direkten Demokratie – neu- deutsch vielleicht liquid democracy: »We vote a hundred times perhaps in a year, on all manner of questions, from the temperature of the public baths or the plan to be selected for a public building, to the greatest questions of the world union« (ebd.). Auch hier ließe sich einwenden, dass im strengen Sinne keine Entscheidungen mehr getroffen werden. Politik ist nichts anderes mehr als Datenerhebung. Frieder Vogelmann (2012) hat im Zusammenhang mit liquid democracy den auch hier treffenden Begriff der »partizipativen Technokratie« geprägt. An die Stelle von Politik (mit ihren Modi der Repräsentation) trete eine durch Techno- logien garantierte reine Verwaltung der einzelnen Wählerinteressen, mit dem Versprechen, dass jeder zum Akteur werden könne. Es werde letztendlich nichts anderes gefordert, als die klassisch (Aristotelische) »demokratische Spaltung in Regierende und Regierte« aufzuheben (ebd., 42f.). Dadurch, dass der Volks- wille fortwährend (gleichsam statistisch) zur Anschauung komme, falle die staatlich institutionelle Ordnung – so das Versprechen – immer mit dem un- aufhörlich gezählten Wählerwillen zusammen (ebd., 43). Kurz: An die Stelle der – immer mittelbaren – Politik tritt der »antirepräsentationale Traum nach Un- mittelbarkeit« (ebd., 44) in einer direkten, reinen Verwaltung von Partikular- interessen. Der Preis für die Überwindung der demokratischen Spaltung in Re- gierte und Regierende zu Gunsten einer jederzeit direkten und unmittelbaren Demokratie ist jedoch die Verleugnung jeglicher Machtausübung, weil man – um mit Rancière zu sprechen – glaubt, dass »sich alles auf dem Weg der Objek- tivierung der Probleme regeln lässt« (Rancière 2002, 112). Damit hätte Bellamys kybernetisch-technokratische democracy zur Aufgabe, die Demokratie letztendlich buchstäblich zu liquidieren, sie zur Postdemokra- tie werden zu lassen. Denn sobald der Wille des Volks als Summierung sei- ner Einzelmeinungen konzipiert wird, kann sich Rancière zufolge, nichts mehr »unter dem Namen des Volks ereignen, außer die Aufrechnung der Meinungen und Interessen seiner genau aufzählbaren Teile« (ebd.). Bellamys organisati- onstheoretische und verwaltungslogische Überlegungen sind damit nicht nur ein Seitenzweig in der Genealogie der Logistik, sondern zugleich in der Genea- logie der modernen, gouvernementalen Regierung mit ihrer »revolutionäre[n] Eschatologie« der Verabsolutierung der bürgerlichen Gesellschaft. Foucault schreibt zu dieser Eschatologie: »An dem Tag, an dem die bürgerliche Gesell- schaft sich von der Vormundschaft und den Zwängen des Staates befreit haben wird, […] wird zugleich die Zeit, wenn nicht der Geschichte, so doch zumindest der Politik, die Zeit des Staats beendet sein.« (ders. 2006, 510) 58 Martin Doll Conclusio Von Bellamys Utopie der Technisierung von Politik lassen sich, wie eingangs und soeben angedeutet, genealogisch Verbindungslinien ziehen zu heutigen Konzepten informationstechnologisch garantierter Transparenz und Partizi- pation, wie sie vor wenigen Jahren maßgeblich von der Piratenpartei propa- giert wurden.¯17 Auch lassen sich Ähnlichkeiten zu gegenwärtigen Visionen der sogenannten ›Industrie 4.0‹ aufzeigen. Wenn auch unter völlig anderen politischen Vorzeichen, nämlich unter nicht mehr volkswirtschaftlichen bzw. gemeinwohlorientierten, sondern unter rein wirtschaftsliberalen Gesichts- punkten genießt die Optimierung von Logistikprozessen unter Apologeten der »vierte[n] industrielle[n] Revolution« mittlerweile höchste Priorität (vgl. Jeschke u.a. 2015, 241). In den individualökonomisch ausgerichteten Ansätzen wird so z. B. die »steigende Konnektivität von Menschen, Organisationen und Technologien« (ebd.) zur, so wäre hinzuzufügen, reinen Umsatzsteigerung und höheren Wettbewerbsfähigkeit begrüßt. Bellamys hocheffiziente Informati- onsökonomie zwischen Angebot und Nachfrage findet sich nun gesteigert in den wirtschaftlich als äußerst leistungsfähig gefeierten Big Data-Prozessen und den damit einhergehenden Möglichkeiten »echzeitfähiger Datenanalyse« (ebd., 254), d. h. einer umfassenden »Analyse, Auswertung und Vorhersage von Kundenbedürfnissen« (ebd., 245) wieder. Durch die nun computergestützte »Verknüpfung von IT-Technologien und Fertigungsprozessen« (ebd., 250), ver- bunden mit der »Dynamisierung der Lieferketten« könne maximale Kostenef- fizienz erzielt werden (ebd., 269). Wie schon bei Equality und Looking Back- ward erscheinen die genannten Medien der Entscheidung sowohl auf der Ebene partizipativer Modelle wie auch auf der Ebene von Managemententschlüssen genau genommen als Medien, die Entscheidungen substituieren. Denn poli- tische wie auch (personalpolitisch verantwortungsvolle¯18) wirtschaftliche Entscheidungsakte werden zum automatisierten Verwaltungsvorgang degra- diert bzw. durch komplexe in Echtzeit arbeitende Warenwirtschaftssystem- Routinen ersetzt. Jeremy Rifkin interpretiert die genannte negative Kostenentwicklung radika- ler und – wieder näher an Bellamy – sozialökonomisch. Für ihn führt die zuneh- mende Kosteneffizienz bei der Produktion und Verteilung von Gütern nämlich nach und nach zu »Nahezu-null-Grenzkosten« (Rifkin 2014, 44). Wieder spielen perfektionierte Warenverteilungsstrukturen eine erhebliche Rolle – in Rifkins Worten eine »offene Logistikinfrastruktur« mit einem an Bellamys Rohrpost- system gemahnenden, »universellen Spielfeld aus Tausenden von Lagerhäu- sern und Distributionszentren in einem großen kooperativen Netzwerk« (ebd., Der Staat als automatisiertes Warenwirtschaftssystem 59 324). Eine Welt, »in der fast alle Güter und Dienstleistungen nahezu kostenlos sind, in der es keinen Profit mehr gibt, in der Eigentum bedeutungslos und der Markt überflüssig geworden ist« (ebd., 15), hat für Rifkin letztlich sogar langfri- stig das »Ableben des Kapitalismus« (ebd., 449) zur Folge. Wie schon bei Bella- my ist das kein revolutionärer Prozess, sondern logische Folge der Entwicklung der kapitalistischen Ökonomie selbst. An die Stelle der derzeit vorherrschen- den unternehmerischen Einzelinteressen, die zukünftig nur marginal erhalten bleiben würden, träten in den meisten ökonomischen Bereichen die »kollabo- rativen Commons«, bei denen das Erwirtschaftete »allen gemeinsam gehört und kollektiv verwaltet« werde. Wieder ist nicht von Politik die Rede, sondern ausschließlich von »eine[r] Art von Verwaltung«, verbunden mit den entspre- chenden »technologischen Mittel[n]« (ebd., 280). Wenn Rifkin im Kontext der Gaia-Hypothese von James Lovelock und Lynn Mar- gulis und im direkten Vergleich mit einem »Ökosystem in der Klimaxphase« schließlich davon spricht, dass »die Wirtschaft die optimale Effizienz dann erreicht« habe, wenn zum Beispiel »Produktion und Verteilung jeder zusätz- lichen Einheit […] ein Minimum an Energieaufwand – in Form von Zeit, Arbeit, Kapital und Stromerzeugung – benötigen« (ebd., 273), dann bemüht er, wie schon Bellamy, ein einfaches kybernetisches Modell zur Untermauerung seines ökonomischen systemischen Optimums.¯19 Die bestmögliche »Nutzung der Ressourcen, was zu einem reichlichen Angebot für die Bedürfnisse sämtlicher Spezies führt«, wird zwar in Zukunft nicht mehr der simplen Funktionsweise eines Dampfreglers ähnlich, sondern durch ein komplexes, dezentrales Inein- andergreifen von heterogenen Momenten auf globaler Ebene geregelt. Doch die mit Freiheit und Offenheit verbundene Logik quasi-kybernetischer Selbst- steuerung, die Rifkin zudem mit den physikalischen Gesetzmäßigkeiten der Thermodynamik analogisiert, ist – obschon komplexer geworden – im Grunde dieselbe geblieben. Anmerkungen 01˘ Es wurde bereits im ersten Jahr 100 000 Mal verkauft, alles in allem 500 000 Mal in den USA, 250 000 Mal in England und – übersetzt in 20 Sprachen – 2 Millionen Mal in anderen Ländern. Es führte zu einem regelrechten Utopie-Boom in den USA mit nicht weniger als 46 Veröffentlichungen von anderen Autor_innen allein zwischen 1889 und 1900 (vgl. Sadler 1944, 541). 60 Martin Doll 02˘ Bellamy wurde innerhalb dieser Bewegung auch Herausgeber zweier Zeitungen zur Propagierung der Ideen: The Nationalist (1889-91) und The New Nation (1891-94). In einem Artikel für The Nationalist betont Bellamy 1890, dass sich sein ursprüngliches Vorhaben, eine »literary fantasy« über das Jahr 3000 zu schreiben gewandelt habe: »Instead of a mere fairy tale of social perfection, it became the vehicle of a definite scheme of industrial re- organization.« Diese vielversprechende Perspektive hätte ihn schließlich auch dazu veran- lasst, das ideale Boston in die nahe Zukunft zu verlegen, so dass es im Jahr 2000 bereits Geschichte sei; im Gegenzug wurde von ihm der Anspruch auf weltweite Veränderungen auf die Dimension der USA als Vorreiter reduziert (1937b, 202). Noch 1935 haben der Historiker Charles Beard und der Philosoph John Dewey unabhängig voneinander Looking Backward als das wichtigste Buch nach Karl Marx’ Kapital eingestuft (Sadler 1944, 553; vgl. a. Baer 2007). 03˘ Vgl. dazu Liffen 2004; Brennan 2004-2005; Beach 1868; vgl. a. Schabacher 2013, 195-199. 04˘ Nicht umsonst wurde noch 2013 das im Vergleich zu Bellamy deutlich weitergehende FuturICT-Projekt, für das nicht weniger als 1 Milliarde Euro Fördergelder bei der EU bean- tragt wurden – mit Sebastian Vehlken gesprochen: »die möglichst umfassende Integration verschiedener Social Simulations« – auf Eis gelegt (2014, 188). 05˘ »In our calculations of cost there can be no mistakes.« Bellamy 1888, 333. 06˘ Eine solche logistikorientierte Just-in-Time-Produktion, verbunden mit Real-Time- Control in der Fertigung wird erst nach dem zweiten Weltkrieg im Rahmen des Toyota- Produktionssystems entwickelt werden. Vgl. zur Entwicklung in Amerika im Zusammenhang mit Hollerith-Systemen, die ab 1896 mit Addiermaschinen gekoppelt wurden und zur Optimierung der Verteilung von Waren eingesetzt wurden: Beniger 1986, 422f. 07˘ Der Fliehkraftregler wurde bereits 1788 von James Watts erfunden. 08˘ Die Stelle bei von Foerster lautet: »Only those questions that are in principle undecida- ble, we can decide.« (2003, 293) 09˘ Auch Beer dekretiert später – bezeichnenderweise im Zusammenhang mit dem chile- nischen Cybersyn-Projekt Allendes – im hier genannten Sinne unpolitisch: »[L]iberty must be a computable function of effectiveness« (1995, 428). 10˘ Diesen Entpolitisierungs- bzw. Entmündigungseffekt hatte – entgegen der Zielsetzung v.a. von Stafford Beer – auch das ›linke‹ Projekt Cybersyn zur Folge, wie Eden Medina ge- zeigt hat. Denn das System der Echtzeit-Updates von Produktionsdaten vonseiten der Fabriken zu den Fabrikleitern und Regierungsstellen nahm den Arbeitern jede Möglichkeit, die Ökonomie mitzubestimmen (Medina 2011, 215; vgl. a. Rossiter und Zehle 2015). 11˘ Jacques Derrida erläutert die Bedingung der Unentscheidbarkeit: »Eine Entscheidung kann sich nur jenseits des berechenbaren Programms ereignen, das jede Verantwortung zerstö- ren würde, indem es sie in eine programmierbare Wirkung determinierter Ursachen ver- wandeln würde.« (Derrida 2001, 178; vgl. a. S. 229) Matthias Bickenbach und Harun Maye definieren im Verweis auf Luhmann und von Foerster und damit näher an informations- Der Staat als automatisiertes Warenwirtschaftssystem 61 theoretischen Fragen: »[E]ine Entscheidung ist keine Wahl. Sie wählt nicht zwischen zähl- baren und zu evaluierenden Alternativen, sondern die Entscheidung trifft sich angesichts einer Vielzahl von Komponenten, deren Auswahl erst im Nachhinein ihren Wert beurteilen lässt.« (2009, 213) 12˘ Thacker und Galloway bezeichnen im Verweis auf Thomas Levin die Lochkarten als »mise- en-écriture […] of algorithms« (2007, 113). 13˘ Dabei werden sämtliche Unterschiede zwischen Herrscher und Beherrschten getilgt, so wie es Rousseau in seinem Contrat Social (1762) im Verbot jeder Repräsentation des volon- té générale formuliert hat: »Die Souveränität kann nicht vertreten werden […]. Sie besteht wesentlich aus dem Gemeinwillen, und der Wille läßt sich nicht vertreten: er ist er selbst, oder er ist ein anderer; ein Mittelding gibt es nicht.« (Rousseau 1989, 463) 14˘ Carl Guarneri verweist darauf, dass im Unterschied zu Looking Backward im Sequel Equality mehr Rücksicht auf ur-amerikanische Mythen der Demokratie bzw. die Amerikanische Verfassung genommen werde. Dies zeige sich auch in seinen Artikeln für The Nationalist in den 1890er Jahren (vgl. Guarneri 2008, 166). 15˘ Wieder bemüht Bellamy ein Symbol, diesmal das der Windmühle. Die Mühle selbst stehe für die ›Maschinerie‹ der Verwaltung, die vom Wind des öffentlichen Willens angetrieben werde, während sie sich – auf einem Bock drehbar gelagert – in den Wind zu drehen, d. h. auf jede auch nur geringste Verfügung des Volkes zu reagieren habe (Bellamy 1897, 273). 16˘ Es gibt dazu eine eindeutige Passage bei John Stuart Mill: »One of the objections anticipa- ted is, that the State is only the aggregate of individuals, and its rights their united rights« (1977, 597). 17˘ Hier sei noch einmal auf das Konzept der liquid democracy erinnert, mit dem die Piratenpartei die Differenz zwischen Politiker und Bürger auf ein Minimum reduzieren will und damit v. a. um 2011/12 regen Zuspruch fand (vgl. Vogelmann 2012). 18˘ Vgl. zu einem an Marx geschulten wertkritischen Ansatz über das »Verschwinden der Arbeit« im Zusammenhang mit »neuen und immer ubiquitärer werdenden Digitaltechnologien« Schröter 2015. 19˘ Rifkin erklärt die Gaia-Hypothese selbst grob damit, dass die Erde ein »selbstregulierender, lebender Organismus« sei, in dem verschiedenste physikalische, chemische und biologische Prozesse regulativ ineinandergreifen, um eine für das Leben förderliche Umgebung zu er- halten. Als Beispiel dient Lovelock und Margulis das durch Bakterien gewährleistete stabile Gleichgewicht aus Sauerstoff und Methan (Rifkin 2015, 270f.) . Bruno Latour kommentiert die Gaia-Hypothese im Sinne der hier verfolgten Argumentation sehr treffend: »Soweit ich mir ein Bild davon machen kann, ist Gaia […] nichts weiter als eine Menge kontingenter, po- sitiver und negativer kybernetischer Schleifen.« Und dies »ohne eine ontologische Einheit zu bilden« (Latour 2012, 183f.) . 62 Martin Doll Literatur Abrash, Merritt (1989) Looking Backward: Marxism Americanized. In: Extrapolation 30,3, S. 237-242. Baecker, Dirk (1994) Postheroisches Management. Ein Vademecum. Berlin: Merve. Baer, John W. (2007) The Pledge of Allegiance. A Revised History and Analysis, 1892-2007. Annapolis, Md.: Free State Press, Inc. Barbrook, Richard (2007) Imaginary Futures. From Thinking Machines to the Global Villa- ge. London: Pluto. Beach, Alfred E. (1868) The Pneumatic Dispatch. New York: American News Co. Beer, Stafford (2003) Diagnosing the System for Organizations [1985]. Nachdruck. Chiche- ster u.a. : Wiley. Beer, Stafford (1995) Fanfare for Freedom. In: Platform for Change. Nachdruck. Chichester u.a. : Wiley, S. 423-452. Bellamy, Edward (1888) Looking Backward, 2000-1887. Boston: Ticknor and Company. Bellamy, Edward (1897) Equality. New York: D. Appleton and Co. Bellamy, Edward (1937a) How I Wrote ›Looking Backward‹. In: Edward Bellamy Speaks Again! Articles, Public Addresses, Letters. Kansas City: Peerage Press, S. 217-228. Bellamy, Edward (1937b) Why I Wrote ›Looking Backward‹. In: Bellamy 1937, S. 199-203. Beniger, James R. (1986) The Control Revolution. Technological and Economic Origins of the Information Society. Cambridge, Mass. u.a. : Harvard Univ. Press. Bickenbach, Matthias / Maye, Harun (2009) Metapher Internet. Literarische Bildung und Surfen. Berlin: Kadmos. Brennan, Joseph (2004-2005) Beach Pneumatic. Alfred Beach's Pneumatic Subway and the Beginnings of Rapid Transit in New York. [www.columbia.edu/~brennan/beach/]; letzter Ab- ruf 24.09.2015. Bruyn, Gerd de (1996) Die Diktatur der Philanthropen. Entwicklung der Stadtplanung aus dem utopischen Denken. Braunschweig u.a. : Vieweg. DeLanda, Manuel (1991) War in the Age of Intelligent Machines. 3. Aufl. New York: NY, Zone Books. Derrida, Jacques (2001) Limited Inc. Hg. v. Peter Engelmann. Übers. v. Werner Rappl. Wien: Passagen. Doll, Martin (2013a) Medientechnik des Gemeinsinns. Charles Fouriers Architekturutopie des Phalanstère. In: Zeitschrift für Kulturwissenschaft H. 2, S. 15-27. Doll, Martin (2013b) The Wiring of the Working Class. On the Interdependence of Telegra- phy and Social-Revolutionary Discourses in the Nineteenth Century. In: Michaela Hampf / Si- mone Müller-Pohl (Hg.): Global Communication Electric. Telegraphy in a Globalizing World. Frankfurt a. M.: Campus, S. 92-113. Der Staat als automatisiertes Warenwirtschaftssystem 63 Dommann, Monika (2011) Handling, Flow Charts, Logistik. Zur Wissensgeschichte und Ma- terialkultur von Warenflüssen. In: Nach Feierabend, Zürcher Jahrbuch für Wissensgeschichte Jg. 7, S. 75-103. Dommann, Monika (2012a) Warenräume und Raumökonomien: Kulturtechniken des La- gerns. In: Tumult H. 38, S. 50-62. Dommann, Monika (2012b) Wertspeicher: Epistemologien des Warenlagers. In: Zeit- schrift für Medien- und Kulturforschung H. 2, S. 35-50. Dotzler, Bernhard J. (2002) Die Schaltbarkeit der Welt. Herman Hollerith und die Archäo- logie der Medien. In: Stefan Andriopoulos / Bernhard J. Dotzler (Hg.): 1929 Beiträge zur Archä- ologie der Medien. Frankfurt a. M.: Suhrkamp, S. 288-315. Flichy, Patrice (1994) Tele. Geschichte der modernen Kommunikation. Frankfurt a. M./ New York: Campus. Foucault, Michel (2002) Die Wahrheit und die juristischen Formen. Übers. v. Michael Bi- schoff. In: Schriften. Bd. 2. Hg. v. Daniel Defert / François Ewald. Frankfurt a. M.: Suhrkamp, S.669-792. Foucault, Michel (2006) Sicherheit, Territorium, Bevölkerung. Vorlesung am Collège de France 1977-1978. Hg. v. Michel Sennelart. Übers. v. Jürgen Schröder, Frankfurt a. M.: Suhr- kamp (Geschichte der Gouvernementalität 1) . Fröschl, Karl / Mattl, Siegfried / Werthner, Hannes (1993) Symbolverarbeitende Maschinen. Eine Archäologie. Steyr: Verein Museum Arbeitswelt. Galloway, Alexander R. / Thacker, Eugene (2007) The Exploit. A Theory of Net- works. Minneapolis: Univ. of Minnesota Press (Electronic Mediations 21). Gertenbach, Lars et al. (2010) Theorien der Gemeinschaft zur Einführung. Hamburg: Ju- nius. Guarneri, Carl J. (2008) An American Utopia and Its Global Audiences: Transnational Per- spectives on Edward Bellamy's Looking Backward. In: Utopian Studies 19,2, S. 47-187. Gumbrecht, Hans Ulrich (1978) Modern, Modernität, Moderne. In: Otto Brunner / Werner Conze / Reinhart Koselleck (Hg.): Geschichtliche Grundbegriffe. Historisches Lexikon zur politisch-sozialen Sprache in Deutschland. Bd. 4. Stuttgart: Klett-Cotta, S. 93-131. Huhtamo, Erkki (1997) From Kaleidoscomaniac to Cybernerd: Notes Toward an Archaeolo- gy of Media. In: Leonardo 30,3, S. 221-224. Jeschke, Sabina et al. (2015) Industrie 4.0 ante portas. Paradigmenwechsel im deutschen Maschinen- und Anlagenbau. In: Christoph Engemann / Florian Sprenger (Hg.): Internet der Dinge. Über smarte Objekte, intelligente Umgebungen und die technische Durchdringung der Welt. Bielefeld: transcript, S. 241-279. Koselleck, Reinhart (2006) Vergangene Zukunft. Zur Semantik geschichtlicher Zeiten. 6. Aufl. Frankfurt a. M.: Suhrkamp. Kunz, Volker (2004) Rational Choice. Frankfurt a. M./New York: Campus. 64 Martin Doll Latour, Bruno (2012) Warten auf Gaia. Komposition der gemeinsamen Welt durch Kunst und Politik. In Michael Hagner (Hg.): Wissenschaft und Demokratie. Berlin: Suhrkamp, S. 163- 188. Lemke, Thomas (2014) ›Die Regierung der Dinge‹. Politik, Diskurs und Materialität. In: Zeitschrift für Diskursforschung H. 3, S. 250-267. Liffen, John (2004) Mail Tubes. The Modern Communications System of the Nineteenth Century. In: Bernard Finn (Hg.): Presenting Pictures. London: Science Museum, S. 70-83. Luhmann, Niklas (1993) Die Paradoxie des Entscheidens. In: Zeitschrift für Verwaltungs- lehre, Verwaltungsrecht und Verwaltungspolitik 83,3, S. 287-310. McLuhan, Marshall (1994) Understanding Media. The Extensions of Man. Cambridge, Mass. u.a. : MIT Press. Medina, Eden (2011) Cybernetic Revolutionaries. Technology and Politics in Allende's Chile. Cambridge, Mass. u.a. : MIT Press. Mill, John S. (1977) Considerations on Representative Government. Jg. v. John M. Robson. Toronto u.a. : Univ. of Toronto Press u.a. (Collected Works of John Stuart Mill 19). Miller, Walter J. (2000) The Future of Futurism: An Introduction to Looking Backward. In: Edward Bellamy: Looking Backward 2000-1887. New York: Signet Classic, S. V-XIII. Pias, Claus (2005) Der Auftrag. Kybernetik und Revolution in Chile. In: Daniel Gethmann / Markus Stauff (Hg.): Politiken der Medien. Zürich/Berlin: diaphanes, S. 131-154. Rancière, Jacques (2002) Das Unvernehmen. Politik und Philosophie. Übers. v. Richard Steurer. Frankfurt a. M.: Suhrkamp. Rif kin, Jeremy (2014): Die Null-Grenzkosten-Gesellschaft. Das Internet der Dinge, kollabo- ratives Gemeingut und der Rückzug des Kapitalismus. Übers. v. Bernhard Schmid, Frankfurt a. M./New York: Campus. Rossiter, Ned / Zehle, Soenke (2015) Data Politics and Infrastructural Design: Between Cybernetic Mediation and Terminal Subjectivity. In: APRJA 4,1. [www.aprja.net/?p=2582%3E], o.S., letzter Abruf 25.09.2015. Rousseau, Jean-Jacques (1989) Vom Gesellschaftsvertrag. Übers. v. Karlheinz Barck et al. In: Kulturkritische und politische Schriften. Bd. 1. Hg. v. Martin Fontius. Berlin: Rütten & Loe- ning, S. 379-505. Sadler, Elizabeth (1944) One Book's Influence. Edward Bellamy's ›Looking Backward‹: In: The New England Quarterly 17,4, S. 530-555. Schabacher, Gabriele (2013) Rohrposten. Zur medialen Organisation begrenzter Räume. In: Christoph Neubert / Gabriele Schabacher (Hg.): Verkehrsgeschichte und Kulturwissen- schaft. Analysen an der Schnittstelle von Technik, Kultur und Medien. Bielefeld: transcript, S.189-222. Schröter, Jens (2015) Das Internet der Dinge, die allgemeine Ökologie und ihr Ökonomisch- Unbewusstes. In: Engemann/Sprenger 2015, S. 225-240. Der Staat als automatisiertes Warenwirtschaftssystem 65 Turner, Fred (2006) From Counterculture to Cyberculture. Stewart Brand, the Whole Earth Network, and the Rise of Digital Utopianism. Chicago: Univ. of Chicago Press. Turner, Fred (2013) The Democratic Surround. Multimedia and American Liberalism from World War II to the Psychedelic Sixties. Chicago/London: The University of Chicago Press. Vehlken, Sebastian (2004) Environment for Decision. Die Medialität einer Kyberne- tischen Staatsregierung. Das Project Cybersyn in Chile 1971-73. Magisterarbeit Wien: Universi- tät Wien. [http://homepage.univie.ac.at/sebastian.vehlken/files/2007 _04 _04 _Magisterar- beit Cybersyn Sebastian Vehlken.pdf%3E.]; letzter Abruf 24.09.2015. Vehlken, Sebastian (2014) Reality Mining. Neue Mengen-Lehren in Social Simulations. In: Inge Baxmann / Timon Beyes / Claus Pias (Hg.): Soziale Medien – Neue Massen. Zürich: dia- phanes, S. 185-203. Vogelmann, Frieder (2012) Flüssige Betriebssysteme. Liquid Democracy als demokra- tische Machttechnologie. In: Aus Politik und Zeitgeschichte H. 48, S. 40-46. Vogl, Joseph (2003) Regierung und Regelkreis. Historisches Vorspiel. In: Claus Pias (Hg.): Cybernetics – Kybernetik. The Macy-Conferences 1946-1953. Bd. 2. Berlin: diaphanes, S. 67-79. von Foerster, Heinz (2003) Ethics and Second-order Cybernetics [1991]. In: Understanding Understanding. Essays on Cybernetics and Cognition. New York u.a. : Springer, S. 287-304. Wiener, Norbert (1985) Cybernetics or Control and Communication in the Animal and the Machine. 4. Aufl. Cambridge, Mass. : MIT Press. Winkler, Hartmut (2010) Prozessieren. Die dritte, vernachlässigte Medienfunktion. Vor- trag auf der Tagung: Media Theory in North America and German-Speaking Europe 8.-10. April 2010. [http://homepages.uni-paderborn.de/winkler/proc_d.pdf%3E]; letzter Abruf 23.9.2012. Winkler, Hartmut (2015) Prozessieren. Die dritte, vernachlässigte Medienfunktion. Pader- born: Fink. 66 Eva Schauerte Von Delphi zu Hyperdelphi – mediale Praktiken des Beratens und die Entscheidung des Unentscheidbaren »Two heads are better than one«, oder besser: »n heads are better than one«, »when the issue is one where exact knowledge is not available«, so Norman Dalkey in einer ersten Revision der von ihm und Kollegen in den fünziger Jah- ren entwickelten Delphi-Methode (Dalkey 1969, v, 6, vgl. auch Rescher 1998, 262, FN 132). Damit bezeichnet er die Ausgangshypothese einer Reihe von ›Expe- rimenten‹, welche die Denker der RAND-Corporation seit Beginn der fünfziger Jahre zunächst zu Fragen der Entscheidungsfindung in Szenarien atomarer Be- drohung, dann allgemein zur Rolle und Einbindung von Experten in politische und militärische Prozesse des decision making unternahmen. Begleitet wird die Arbeit des Mathematikers Dalkey von den erkenntnis- und wissenstheore- tischen Überlegungen der Philosophen Olaf Helmer und Nicholas Rescher, wo- bei vor allem Rescher diese Forschung weiter verfolgt und auch nach seiner Zeit bei RAND eine pragmatische Philosophie der Entscheidung betreibt. Der vorliegende Aufsatz untersucht die Delphi-Methode als ein Medium der Entscheidung und Beratung zwischen Wissenschaft und Politik, welchem die praktische Kompetenz einer Wahrheitsproduktion zugesprochen wird. Zur Dis- kussion stehen einerseits die von der RAND-Corporation ins Feld geführten In- strumente des Experten und des kontrollierten Feedbacks und andererseits die damit einhergehenden Begriffe von Wahrheit und Objektivität. Die medi- ale Funktion von Delphi ist zudem nicht nur erkenntnistheoretisch, sondern im Kontext des bei den RAND-Denkern beliebten long-range-forcasting sowie be- züglich der Schnelligkeit der durch Delphi vorbereiteten Entscheidungen auch zeitlich zu verstehen. Dass es besonders diese Dimension der Zeitlichkeit ist, die sich historisch wandelt und zu Verschiebungen im Verhältnis von Beratung und Entscheidung führt, soll in einem zweiten Schritt mit Blick auf die weitere Karriere der Methode und drittens in einer Rückschau auf ihren historischen Namenspaten behandelt werden. So dient auch die TV-Sendung ORAKEL, die von der Heidelberger Studiengruppe für Systemforschung entwickelt wird und die der Westdeutsche Rundfunk in den frühen siebziger Jahren ausstrahlt, als Von Delphi zu Hyperdelphi 67 weiteres Scharnier einer Mediengeschichte von ›Delphi‹, die zwangsläufig an dessen antiken Schauplatz zurückführt. Am Beispiel des apollinischen Orakels werden eingangs angeführte Fragen nach einer Verknüpfung von Beratung und Entscheidung sowie damit einhergehende Epistemologien abschließend resümiert. Die Delphi-Methode Zunächst innerhalb eines Memorandums von 1951 zum Use of Experts for the Es- timation of Bombing Requirements (Dalkey/Helmer 1951) entwickelt und 1962 dann in einem eigenen Memo kondensiert (vgl. Dalkey/Helmer 1962), dient die vom Think Tank RAND-Corporation entwickelte Methode dazu, Entscheidungs- prozesse durch einen mehrstufigen Expertenkonsens zu optimieren – oder um es in Dalkeys Worten auszudrücken: »›to cream the tops of the heads‹ of a group of knowledgeable people« (Dalkey 1969, 16). Ein entscheidendes Feature stellt dabei die mehrstufige Wiederholung der Befragungen mit kontrolliertem Feedback dar. Das grundlegende Experiment von 1951 stellt einer ausgewähl- ten Gruppe von Experten die Aufgabe, aus der Perspektive eines sowjetischen Strategieplaners die optimalen Angriffsziele auf US-amerikanischem Boden zu identifizieren sowie die Anzahl von Atombomben zu ermitteln, die für eine Zer- störung dieser Ziele und somit die Schwächung der amerikanischen Rüstungs- industrie um einen gegebenen Faktor nötig sind. Dabei werden die hinzugezo- genen sieben Experten – vier Ökonomen, ein Physiker mit Spezialisierung auf »physical-vulnerability« (Dalkey/Helmer 1951, 5), ein Systemanalytiker und ein Elektroingenieur – in fünf Runden befragt. Während dieses mehrstufigen Ver- fahrens werden die Teilnehmer nach jeder Runde mit einer Zusammenfassung der Ergebnisse und Argumentationen sowie gegebenenfalls mit Zusatzinfor- mationen versorgt und mit changierenden Zerstörungsfaktoren, Folgefragen und Zahlen konfrontiert. Der direkte Kontakt unterhalb der Experten wird je- doch bewusst unterbunden. Mit dem Resultat (s. Abb. 1), dass sich die nied- rigste Antwort von 50 Bomben auf 167 erhöht und die höchst angesetzte Schät- zung ihre Prognose von 5000 auf 360 Bomben reduziert hat, sehen die Forscher ihr Experiment und somit auch die pragmatische Durchschlagskraft der Del- phi-Methode erstmals bestätigt: »There are strong indications that, if the ex- periment had been continued through a few more rounds of questionnaires, the median would have shown a downward trend and the ration of the largest to the smallest answer would have shrunk to 2 or less.« (Dalkey/Helmer 1962, 16) Konzeptionelle Fragen nach der Auswahl und Zusammensetzung der Exper- 68 Eva Schauerte tengruppe – beispielsweise weshalb gegenüber vier Wirtschaftswissenschaftlern nur ein Physi- ker konsultiert wurde – bleiben in der anschlie- ßenden kritischen Revision des Experiments ebenso unangetastet wie die Unmöglichkeit ei- ner empirischen Überprüfung des Ergebnisses. Doch diesem ersten Versuch folgt eine Fülle von Experimenten, Memos und Publikationen, die heute zum öffentlichen Gebrauch freigegeben und über das Online-Archiv von RAND zugäng- lich sind. Dabei stammt die Mehrzahl der Texte aus der Feder von Norman Dalkey und Olaf Hel- mer, die sich bis in die siebziger Jahre für RAND mit der Delphi-Methode, der Futurologie, der Systemanalyse und der Operations Research aus- einandersetzen.¯1 Während Dalkey außerhalb des RAND-Kontextes nicht weiter in Erschei- nung tritt, verlässt Helmer den Think Tank 1968 um das Institute for the Future in Palo Alto mit- zugründen. Gemeinsam mit dem eingangs er- Abb. 1: Ergebnisse aus RM-727/1-Abridged, Juli 1962 wähnten Nicholas Rescher, der nur von 1954 bis 1956 für RAND arbeitet und dann an die philo- sophische Fakultät der Lehigh-Universität von Pennsylvania und später nach Pittsburgh wechselt, befasst sich Helmer darü- ber hinaus mit der Epistemologie der »inexact sciences«, womit neben Human- und Geisteswissenschaften auch Forschungen der angewandten Physik, Inge- nieurswissenschaft oder Medizin gemeint sind. Doch auch der Mathematiker Dalkey nimmt sich der wissenstheoretischen He- rausforderung der Delphi-Methode an. Memorandum RM-5888-PR von 1969 beispielsweise widmet sich unter dem Titel The Delphi Method: An Experimen- tal Study of Group Opinion einer Reihe von Experimenten zum Wahrheitsgehalt der durch Delphi erzeugten Antworten und installiert schließlich ein eigenes Modell einer »probability of truth«(s. Abb. 2) Von Delphi zu Hyperdelphi 69 Während im Bezug auf Entscheidungsprozesse gemeinhin zwischen spekulativen Annahmen und gesichertem Wissen unterschieden werde, hält es Dalkey für wichtig, eine dritte und mitt- lere Kategorie in deren Wahrheitsspektrum ein- zuführen, die ›Meinung‹. Denn hier seien die intellektuellen Prozesse der Bewertung, der Weisheit und des Einblicks zu verorten; unglück- licherweise ließe sich diese ›Dimension der Evi- denz‹ nicht praktisch beweisen, es handle sich Abb. 2: Wahrscheinlichkeiten aus RM-5888-PR, eher um ein intuitives Modell, »[a] rough feeling Juni 1969 for the scale« – und in einer Fußnote fügt er hin- zu: »One might say, ›wisdom is opinion with cha- risma‹« (Dalkey 1969, 2). Dalkey zufolge hilft Del- phi als Methode nicht nur, Entscheidungen vorzubereiten und zu erleichtern, sondern beweist als neue Meinungstechnologie auch, dass politische Entschei- dungen meist als Hybride aus den drei Dimensionen speculation, opinion und knowledge hervorgehen, auch wenn das generelle Verlangen bestehe, sich auf die Seite des gesicherten Wissens zu schlagen. Er selbst löst das ärgerliche Pro- blem des Intuitiven mit zunehmenden Rationalisierungen und komplexen Vi- sualisierungen (s. Abbildung 3). Dalkeys Wahrheitsmodell korrespondiert weitestgehend mit der logischen Ko- härenztheorie Nicholas Reschers, nach der Wahrheit nicht ontologisch, also als Korrespondenz von Idee und Sache definiert, sondern epistemologisch in ihrer Herleitung auf Kohärenz überprüft wird. Die Delphi-Methode stützt sich zu- mindest implizit auf Reschers Konzept einer Entscheidung als nicht-kausales, punktförmiges Ereignis (eventuation), das gegenüber kausal geschehenden, zeitlich ausgedehnten (Natur-)Ereignissen (events) auf den internen Motivati- onen des vernunftbegabten homo optans, also dem auswählenden Menschen beruht. Objektiv entscheiden kann der Mensch Rescher zufolge dann, wenn er unpersönlich agiert, sich aller subjektiven Impulse entzieht und sich allein ei- ner kulturunspezifischen, universellen Vernunft bedient. Das diesem rationa- listischen Entscheidungsbegriff zugrunde liegende Verständnis von Vernunft, Wahrheit und Objektivität f ließt auch in weitere epistemologische Arbeiten ein, welche die RAND-Forscher im Laufe der 50er und 60er Jahre verfassen. Unter dem Titel On the epistemology of the inexact sciences beispielsweise nen- nen Helmer und Rescher in Memorandum P-1513 neben Methoden des »Pseu- do-Experimentierens« (Helmer/Rescher 1958, v), unter denen sie Techniken der Simulation oder des operational gaming fassen, die systematische Nutzbar- 70 Eva Schauerte Abb. 3: Collage aus Diagrammen des Memorandums RM-5888-Pr, Juni 1969 machung von Expertenurteilen als wichtige Instrumente der Zukunftsprogno- se in den inexact sciences. Gewöhnlich, so Helmer und Rescher, werden die in- exact sciences dadurch von den exact sciences unterschieden, dass Erklärung (explanation) und Prognose (prediction) in ihnen nicht mehr die gleiche lo- gische Struktur besäßen (Helmer/Rescher 1958, v). Sie selbst verwerfen jedoch diese Unterscheidung nach dem Kriterium der Genauigkeit als »Fiktion« (Hel- mer/Rescher 1958, 1) und fordern stattdessen eine disziplinenübergreifende Form von Objektivität: »What matters is not whether or to what extent inexactitudes in procedures and predictive ca- pability can eventually be removed [...] ; rather it is objectivity [Herv. i.O.] , i.e., the intersubjecti- vity of findings independent of any one person’s intuitive judgement, which distinguishes sci- ence from intuitive guesswork however brilliant.« (Helmer/Rescher 1958, 4f.) Zu überwinden sei die Dichotomie von Erklärung (explanation) und Prognose (prediction), die sich in Wahrheit als epistemologische Asymmetrie entpuppe; erst wenn dies erkannt werde, könne man die Methoden der Prädiktion ernst Von Delphi zu Hyperdelphi 71 nehmen und anerkennen, auch wenn sie ihre Aussagen nicht mit der gleichför- migen Beweiskraft träfen wie explanatorische Referenzen. Prediction wird von Rescher andernorts als ein ›Instrument‹ definiert, mit dem die bedeutenden Fragen zur Zukunft gelöst oder zumindest ihre Lösung angestrebt werden, wo- bei ihre prinzipielle, rationale Lösbarkeit gegeben sein muss (Rescher 1998, 39). An dieser Stelle kommt der Experte ins Spiel, dessen sorgfältige Auswahl Re- scher und Helmer wie folgt definieren: »A (predictive) ›expert‹ in some subject-matter is a person who is rational in the sense dis- cussed, who has a large background knowledge [...] , and whose predictions (actual or implicit in his personal probabilites) [...] show a record of comparative successes in the long run.« (Hel- mer/Rescher 1958, 26 [Herv. i.O.]) Der rational, und somit objektiv beratende Experte wird zu einem unerläss- lichen Faktor im Prozess des Entscheidens erhoben. Der Experte muss kei- neswegs allwissend sein und soll sich auch nicht final entsubjektivieren, wie Rescher in einem späteren Text in einer medialen Metaphorik beschreibt. Ob- jektivität bedeute nicht eine »point-of-view-lessness«, sondern sei mit einer »photographic accuracy« zu vergleichen: »trying to represent pretty much what any normal observer would recognize as a depiction of that scene from that point of view.« (Rescher 1997, 6) Der Experte muss demnach nicht nur über Expertise in der Sache verfügen, sondern vor allem gut darin sein, objektiv zu sein. Sein Einsatz in der Wissenschaft ebenso wie in der Politikberatung im Fall der Delphi-Methode muss den gleichen strengen, und das heißt universal gültigen Regeln rationaler Überprüfung gehorchen wie alle anderen wissen- schaftlichen Instrumente auch: »It suffices that the expert be able to sketch out adequately – as we have already suggested – some of the major critical junctures (›branch points‹) on which the course of these develop- ments will hinge, and to make contingency predictions with regard to the alternatives associa- ted with them.« (Helmer/Rescher 1958, 39) Nach Rescher lässt sich Wahrheit nur durch Objektivität herstellen, wobei Ob- jektivität aus Vernunft und Vernunft aus Entscheidungen entsteht (vgl. u.a. Rescher 1997). Seine Bestimmung der Wahrheit durch Objektivität ist nicht on- tologisch, sondern epistemologisch zu verstehen. Was Rescher, und mit ihm auch Dalkey und Helmer, interessiert, ist weniger eine Definition von Wahr- heit als die Frage nach ihren Kriterien und nach den Verfahren, mittels welcher sie zu erreichen ist. »It is this epistemic mode of objectivity that primarily con- cerns us here«, folgert Rescher noch einmal später in einem eigens der Objek- tivität gewidmeten Buch. 72 Eva Schauerte »Objectivity in this sense has to do not with the subject matter of a claim but with its justifica- tion. It pivots on the way the claim is substantiated and supported – namely without the intro- duction of any personal biases or otherwise distortive individual idiosyncrasies, preferences, predilections, etc. It is this sort of probative ›objectivity‹ – one that stands coordinate with ra- tional cogency – that will be our primary focus of concern.« (Rescher 1997, 4) Allerdings erweist sich im Fall der Delphi-Methode die Funktion des kontrol- lierten Feedbacks, die von den RAND-Autoren stark gemacht wird, in mehr- fachem Sinn rückkoppelnd und stellt somit auch die klare Zuschreibung ratio- naler Entscheidungen in Frage. Denn sie wiederholt nicht nur die Fragerunden eines Versuchs, sondern dupliziert darüber hinaus die Figur des Experten. Während auf die Auswahl der befragten Sachverständigen besondere Sorgfalt gelegt wird, steht die Expertise der Organisatoren einer Delphi-Befragung in den zitierten Memoranda nicht zur Debatte. ORAKEL, Real-Time- und Hyper-Delphi Während sowohl in den Planwirtschaften sozialistischer Staaten als auch in den Think Tanks und futurologischen Instituten der USA mit Hilfe von Techniken wie der Delphi-Methode f leißig in die Zukunft geschaut wurde, war systemana- lytische Planung in der Bundesrepublik der Nachkriegszeit unter Konrad Ade- nauer ein großes Streitthema. Planungsgegner warnten vor der technischen Determination und dem »Verlust individueller Entscheidungsfreiheit« (Brinck- mann 2006, 119), Befürworter blickten hinüber in die USA und forderten eine stärkere Verknüpfung von politischer Entscheidungsfindung, unabhängig be- ratenden Organisationen und einer aufgeklärten, aktiv in den Entscheidungs- prozess eingebundenen Öffentlichkeit. Aus dieser Stimmung heraus entsteht in den späten fünfziger Jahren die Studiengruppe für Systemforschung um Hel- mut Krauch, Horst Rittel und Werner Kunz in Heidelberg. Ähnlich wie die Del- phi-Experimente der RAND Corporation in den USA entwickeln sich dabei auch die ersten Projekte der Studiengruppe aus dem Gedanken des Atomzeitalters heraus. Zunächst dem Bundesministerium für Atomfragen unterstellt, wid- men sich die Heidelberger sowohl Fragen der ›Forschungsplanung‹ als auch der ›Technikfolgenabschätzung‹ nach amerikanischem Vorbild. Die Umben- ennung des Ministeriums zum Bundesministerium für Wissenschaftliche For- schung im Jahr 1962 ermöglicht jedoch auch der Studiengruppe einen größeren Spielraum, gleichwohl sich diese im Vergleich zu amerikanischen Politikbera- tungen in der westdeutschen Politik immer noch beweisen muss. So fordert der Von Delphi zu Hyperdelphi 73 Soziologe und freie Mitarbeiter der Studiengruppe Hans Paul Bahrdt ein allge- meines Umdenken von Politikberatung als punktueller Dienstleistung für ein Ministerium hin zu einem unabhängigen Zentrum, das sich den Fragen der Po- litik durch unorthodoxe und interdisziplinäre Forschung nähert: »Was man aber heute unter ›wissenschaftlicher Beratung‹ einer Regierung verstehen muss, ist nicht die gelegentliche Erteilung eines Rates von Mund zu Mund, auch nicht die gelegentliche Erstellung eines Gutachtens, sondern die Ausarbeitung komplexer Konzeptionen, in denen eine langfristig zu entscheidende Frage nach jeder Richtung durchgedacht und durchgerechnet ist, was bedeutet, dass sie unter den Aspekten verschiedener wissenschaftlicher Disziplinen syste- matisch untersucht wird.« (Bahrdt 1966, 148f.) Beratung als ein Medium der Entscheidung trägt hier nicht mehr die Form eines kompetenten Experten, der sich im Fall der Unsicherheit zwischen Den- ken und Handeln einschaltet, sondern soll wissenschaftlich vorgehen, immer schon da sein und sich ganzheitlich den Zusammenhängen von Politik, Wirt- schaft und Gesellschaft widmen. Obwohl das Wissenschaftsministerium wiederholt einen Fokus auf technische und ökonomische Angelegenheiten fordert, setzt die Studiengruppe ihre sozio- logischen Forschungen fort. Ziel dabei ist es, zwar die mächtigen Planungs- und Beratungsinstrumente aus den USA in die deutsche Politik einzuführen, dabei jedoch von macht- und militärpolitischen Interessen weitgehend unabhängig zu bleiben. Vor allem in Fragen der langfristigen Planung, welche die Zustän- digkeit und Amtszeit einzelner politischer Akteure übersteigen, biete sich die wissenschaftliche Politikberatung als wichtiger Partner der Entscheidungsfin- dung an (vgl. Brinckmann 2006, 84ff.). Mit Jürgen Habermas (vgl. Habermas 1968) als ihrem »intellektuelle[n] Zugpferd« (Brinckmann 2006, 102) fordert die Gruppe damit ein pragmatisches Politikberatungsmodell, das gegen de- zisionistische ebenso wie technokratische Modelle in Stellung gebracht wird. Während konservative Kritiker in einem ›technokratischen Modell‹ die demo- kratische Souveränität des Volkes der »Ratio der Apparate und Maschinen« geopfert sehen (Schelsky 1961, 101, vgl. auch Brinckmann 2006), gingen ›dezi- sionistische‹ Modelle von einem irrationalen Konzept von Beratung und Ent- scheidung aus. Politisches Handeln sei darin letztlich nicht rational begründ- bar, sondern als Realisierung einer »Entscheidung zwischen konkurrierenden Werteordnungen und Glaubensmächten« zu verstehen, die »einer verbind- lichen Diskussion unzugänglich bleiben« (Habermas 1966, 130). Das pragma- tische Modell wissenschaftlicher Politikberatung, welches Habermas als Al- ternative vorlegt und das von der Studiengruppe aufgenommen wird, sieht hingegen die aktive Einbindung einer aufgeklärten Öffentlichkeit in politische 74 Eva Schauerte Entscheidungsprozesse vor und basiert auf einem Rückfluss und Rücküberset- zungen von wissenschaftlicher Forschung und praktischen Problemlagen in einem kontinuierlichen Kommunikationsverhältnis (Habermas 1966, 134f.). Es ist diese Verzahnung von Wissenschaft und Politik durch Kommunikation, die von Helmut Krauch aufgenommen und von der Studiengruppe in einem »Planungs-System-Ansatz« (Brinckmann 2006, 102) weiterentwickelt wird. Kerngedanke von Krauchs daraus resultierender »politischen Kybernetik«, be- ziehungsweise seiner »kybernetischen Sozialforschung«, ist der kontinuier- liche Rücklauf von Informationen aus der Systemumwelt in das »Interaktions- system Wissenschaft-Politik« zu dessen stetigen »Verhaltenskorrektur«, wie Andrea Brinckmann treffend zusammenfasst (Brinckmann 2006, 105). Rege- lung, Rückkopplung und Kommunikation werden zur Grundlage eines Systems, das seine Bürger zur Entscheidungsfindung einbezieht und zu einer Reihe von sozialen Experimenten um diese basisdemokratische Beteiligung zu erproben. Während Werner Kunz und Horst Rittel an technischen Möglichkeiten basteln, argumentative Planungsmodelle in Informationssystemen zu operationalisie- ren, erarbeitet Krauch auf der Grundlage eines Berkeley-Experiments zur »Di- rekt-Demokratie« als »Staatswesen der Zukunft« ein eigenes experimentelles System: »Dieses System wurde ORAKEL getauft, weil mit seiner Hilfe große Massen von Staatsbürgern gemeinsam planen und Wege in die Zukunft er- öffnen können«, so Krauch in einer späteren Versuchsevaluation (Krauch 2011, 425). Zusammenfassend nimmt ORAKEL als Abkürzung für die »Organisierte Repräsentative Artikulation Kritischer Entwick- lungslücken« (Krauch 2011, 425) die Funktion des Feedbacks und die Figur des Experten der zuvor beschriebenen Delphi-Methode auf, opfert je- doch die Anonymität der Experten untereinan- der zugunsten von deren interaktiven Verschal- tung mit einer engagierten Öffentlichkeit. In Kooperation mit dem westdeutschen Rundfunk und im Rückgriff auf moderne Telekommunika- tion wird das Experiment schließlich zu einem Fernsehexperiment. Mit der Sendung Orakel, ein Sozialexperiment für Fernsehen und Zu- schauer produziert der Westdeutsche Rund- funk 1971 den bis dato umfassendsten Versuch interaktiver bundesrepublikanischer Fernseh- Abb. 4: Grafik zur Struktur der ORAKEL-Experimente geschichte. bei Krauch (2011, 428) 1969 Von Delphi zu Hyperdelphi 75 So hat jeder Fernsehzuschauer, der im Besitz eines Telefons ist (was einen er- sten Kritikpunkt darstellt, da dies 1971 noch keine Selbstverständlichkeit dar- stellt), die »[…] Möglichkeit der direkten Teilnahme, indem er zu kontroversen Fragen, die sich im Laufe der Diskussion ergeben haben, Stellung nimmt. Diese Fragen werden über den Bildschirm an die Öffentlichkeit ausgestrahlt [...] . Die Anrufzeit zu den jeweiligen Fragen ist auf wenige Minuten begrenzt. Unmittelbar nach Ablauf dieser Phase werden die eingelaufenen Daten, die inzwi- schen schon auf Lochkarten gelocht wurden, in eine EDV-Anlage eingegeben und wenige Minu- ten später dann den Zuschauern und den Teilnehmern des organisierten Konfliktes graphisch dargestellt und erklärt. Die diskutierenden Teilnehmer des organisierten Konfliktes müssen die Meinungen und Bewertungen der Zuschauer in ihrer Argumentation berücksichtigen und ge- gebenenfalls Inhalt und Richtung ihrer Diskussion ändern. Die Zuschauer selbst erkennen, wie sich ihr eigener Standort nicht nur zu der Meinung der Politiker und Fachleute, sondern auch zu den Meinungen aller übrigen Bürger verhält.« (Krauch 2011, 426) Ergänzt wird die Interaktion von Zuschauern und Experten noch durch ein so- genanntes »Panel«, das in Optimalverteilung die Bevölkerung des Sendege- biets repräsentiert. ORAKEL stellt damit eine erste konkrete systematische Ma- nifestation auf dem Weg zur »Computer-Demokratie« dar, die Krauch 1972 als »ideales Staatswesen« reklamiert (vgl. Krauch 1972) und in der Entscheidungen nicht mehr delegiert, sondern, so noch einmal Brinckmann, »nach gründlicher Vorabinformation und Diskussion in direkter Abstimmung entschieden wer- den sollten.« (Brinckmann 2006, 137) Dabei ist das Experiment nicht auf das Medium Fernsehen beschränkt. Paral- lel zur aufwendigen Sendung mit dem Thema »Umweltschutz« führt Krauch ein weiteres Sozialexperiment zum »Gesundheitswesen« im »kleineren Rah- men einer Bürgerveranstaltung durch« (Krauch 2011, 438f.). Er macht deutlich, dass ORAKEL nicht auf das Fernsehen angewiesen ist, betont jedoch dessen spezifisches Potential auf dem Weg in die partizipative Computer-Demokra- tie. Während der herkömmliche Wähler zu einer ›Nummer‹ degradiert wer- de, deren Stimme im Parlament nicht gehört werde, schaffe ORAKEL eine neue Sicht- und Hörbarkeit, »wenn es über das Medium Fernsehen rasch und f lexi- bel eingesetzt wird«. Der Einsatz von ORAKEL auf der Basis neuer Telekommu- nikationstechnologien unterstütze »die Neubildung von Interessengruppen dadurch [...] , dass man mit einem Computer die Per- sonen identifiziert und über die elektronische Wählvermittlung zusammenbringt, die ähnliche oder gleiche Werturteile haben und gleiche politische Ziele verfolgen wollen. Derartige spon- tane Gruppenbildungen sind heute sonst nur sehr schwer möglich. Neue Gruppen von Bürgern 76 Eva Schauerte könnten sich dann organisieren, um ihre Ziele gemeinsam zu vertreten und durchzusetzen.« (Krauch 2011, 438) Dabei erweist sich das Fernsehformat nur als bedingt kybernetisch, die Lei- tungen sind belegt, das Klingeln, das »durch dauernde Eingriffe der Datenba- sis« erzeugt wird, stört den Sendefluss und einige Interessenvertreter reagie- ren gekränkt auf die Eingriffe des Panels oder der Zuschauer. Doch auch hier sieht Krauch seine Idee schließlich bestätigt, und der WDR sei ebenfalls begeis- tert: »Dieser organisierte Konflikt hätte sich sicher nicht von einer normalen, mehr oder weniger langweiligen Expertendiskussion unterschieden. Durch die direkten Eingriffe des Publikums und durch die zwischengeschalteten Anrufphasen wurde die Sache aber aufregend. Werner Höfer meinte später, es sei genauso aufregend wie bei einer Fußball-Weltmeisterschaft gewe- sen.« (Krauch 2011, 434) Der Kritik, die Sendung spiegele dem Bürger nur vor, »dass er aktiv mitentschei- den könne«, setzt Krauch entgegen, dass die zivile Einbindung in Meinungs- bildung und Entscheidungsfindung bei ORAKEL in jedem Fall höher sei als bei herkömmlichen Wahlen. Eine im Anschluss an die Sendung durchgeführte Be- fragung der Teilnehmer der Sendung zeige, dass sogar »zwei Drittel [der Teil- nehmer] wollten [...] , dass die durch ORAKEL ermittelten Bewertungen bei po- litischen Entscheidungen berücksichtigt werden.« (Krauch 2011, 437) Als ORAKEL trotz großer medialer Aufmerksamkeit (vgl. u.a. Silcock 1971, Spie- gel 1970) vor allem aus Gründen des hohen technischen Aufwands nach drei Sendungen nicht fortgeführt wird, wendet sich Krauch stärker dem Medium Computer zu. Seine Vision der Computer-Demokratie wird auch in aktuellen Debatten und Projekten zur elektronischen oder digitalen Demokratie mit der Funktion eines liquid feedbacks noch zitiert (siehe Bieber 2014). Sowohl das ORAKEL als auch die klassische Delphi-Methode haben sich den technischen Bedingungen und Möglichkeiten digitaler Kulturen angepasst. Neben kon- ventionellen Delphi-Studien werden heute vor allem Versionen eines real-ti- me-Delphi, im Hinblick auf die Verwendung in Internet-basierten Kommuni- kationsstrukturen auch als hyperdelphi bezeichnet, angewandt, die für sich beanspruchen, den zeitlichen Aufwand des Verfahrens drastisch zu reduzieren, ohne dabei die Kerncharakteristika der Methode – anonyme Expertise, kon- trolliertes Feedback und rationalisierte Objektivität – einzubüßen. Applikati- onen wie die finnische Software eDelfoi¯2 oder das Tool The Real Time Delphi des US-amerikanischen Millennium Project¯3 ermöglichen instantanes Feed- back und die synchrone sowie asynchrone Beteiligung eines weltweiten Netz- Von Delphi zu Hyperdelphi 77 werks von Teilnehmern, die in einem vorgegebenen Zeitraum eine jeweils be- liebige Anzahl von Antwortrunden durchspielen können. Während es nach wie vor möglich ist, die Teilnehmerschaft auf eine ausgewiesene Gruppe von Ex- perten zu beschränken, erlaubt das Modell gleichermaßen, ganz im Sinne von Krauchs utopischer Vision der Computer-Demokratie und Dalkeys Diktum von »n heads are better than one« Qualität durch Quantität zu ergänzen bezie- hungsweise zu ersetzen. Das Expertensystem TechCast¯4 hingegen beruht auf einem festen Pool von 130 Teilnehmern, welche das Aufkommen zukünftiger Technologien prognostizieren und die ebenso wie in anderen Delphi-Verfah- ren Rückfragen stellen und Informationen einfordern dürfen. Da es sich um ein kontinuierliches und nicht terminiertes Verfahren handelt, befinden sich die Prognosen in stetigem Wandel, sind aber für abonnierte Mitglieder respekti- ve Kunden zu jedem Zeitpunkt einsehbar. Sowohl der mit öffentlichen Geldern geförderte futurologische Think Tank The Millennium Project als auch das wirt- schaftsnahe Unternehmen TechCast Global verstehen sich als Berater in Fällen der Entscheidungsfindung. »Improve thinking about the future and make that thinking available through a variety of media for feedback to accumulate wis- dom about the future for better decisions today«,¯5 lautet die Mission des Mil- lenium Projects. Und TechCast Global erläutert: »We’ve learned that emerging technologies and social trends follow well-prescribed life cycles patterns that can be forecast quite accurately, and that online strategic planning tools can help decision-makers plan for this rapidly changing world.«¯6 Digitale Planungswerkzeuge und Methoden, die online angewendet werden und stattfinden, sind besonders geeignet um sich in der immer schneller ver- ändernden Welt zurechtzufinden und dabei die richtigen Entscheidungen zu treffen, so TechCast. Kunden wie die Weltbank oder der IWF, aber auch pri- vate Abonnenten werden daher mit regelmäßigen Aktualisierungen ihrer Ex- perten-Forecasts und Trends versorgt, können aber auch individuelle Dienste der Online-Strategieplanung in Anspruch nehmen und eigene Studien in Auf- trag geben. Werden Expertensysteme mit Peter Jackson als »computer programs that emu- late the decision-making ability of a human expert« (Jackson 1999, 2) verstan- den, und wird der in den entsprechenden Studien immer wieder beschworene Zeitgewinn durch hyperdelphi-Verfahren berücksichtigt, so wird deutlich, dass sich mit der Digitalisierung der Delphi-Methode deren Einbindung in das so- genannte knowledge engineering von einer rein beratenden hin zu einer prak- tischen Funktion verschoben hat oder diese zumindest ermöglicht. Der von Herman Kahn, einem der Vordenker der RAND-Corporation, entworfene An- 78 Eva Schauerte Abb. 5: Zusammenfassung aktueller Prognosen zum Internet of Things, TechCastGlobal, Stand: 17.6.2015 satz, das ›Undenkbare zu denken‹ (vgl. Kahn 1962), in dem zunächst (vorgeblich) wertfrei und intentionslos verschiedene Handlungsalternativen durchgespie- lt oder in Szenarios simuliert werden, wird damit zurückgenommen zugun- sten einer kontinuierlichen und einer Logik des perfectionnement verpflichte- ten Zuspitzung auf die eine, richtige und ›objektiv‹ getroffene Entscheidung. Während sich der klassische Think Tank als Möglichkeitsraum versteht, der sich in seiner konsiliarischen Funktion den konventionellen Maßstäben von Raum und Zeit entzieht (siehe auch Pias/Vehlken 2010, 11ff.), reduzieren Expertensy- steme mit real-time-Verfahren das der Beratung genuine zögernde Innehalten auf ein Minimum und verfolgen Lösungen jener Paradoxie, die Niklas Luhmann generell für die ›Entscheidung‹ konstatiert und die vor allem zeitlich charakte- risiert wird (Luhmann 2000). Versteht man Entscheidungen mit Luhmann als Ereignisse, welche die Differenz von ›Vorher‹ und ›Nachher‹ präsentieren, dabei jedoch weder einer der beiden Seiten noch dem »dazwischen«, also dem »oder« der Differenz zugeordnet werden können (Luhmann 1978, 13ff.), stellen die Ver- suche intelligenter Experten- und Computersysteme eine Verschiebung dar, welche die Entscheidung nicht mehr zwischen Erfahrung und Erwartung situ- iert, sondern aus einer quantifizierten Version der Zukunft heraus begründet. Auch wenn die ›smarte‹ Entscheidungshilfe als Beratungsdienstleistung ver- kauft wird, die dem Kunden hilft, selbst »intelligentere Entscheidungen« (vgl. bspw. IBM Watson)¯7 zu treffen, scheint es zunehmend schwerer, sich gegen die geballte Kompetenz des in einem System wie TechCast oder IBMs Supercom- puter Watson versammelten Wissens zu wenden. Heinz von Försters Diktum, Von Delphi zu Hyperdelphi 79 nach dem nur ›das Unentscheidbare schließlich entscheidbar, da alles ande- re nur Errechnung sei‹ (zit. v. Luhmann 2000, 132), steht damit zur Diskussion. Wenn alles errechnet werden kann, wird mit dem Unentscheidbaren schließ- lich auch die Praxis des Entscheidens selbst disqualifiziert. Delphi In seinen ersten Ausführungen zur Delphi-Methode unterlässt es Norman Dal- key nicht zu betonen, dass diese nur herzlich wenig mit ihrem Namensgeber, dem antiken Orakel von Delphi, zu tun habe: »The name was proposed by the philosopher Abraham Kaplan. In some ways it is unfortunate – it connotes something oracular, something smacking a little of the occult – whereas as a mat- ter of fact, precisely the opposite is involved; it primarily is concerned with making the best you can of a less than perfect fund of information.« (Dalkey 1968, 8) Bei der Delphi-Methode, so auch Helmer und Rescher, handle es sich schließ- lich nicht um willkürliche, mystische Wahrsagerei, sondern, wie in allen an- deren Wissenschaften auch, um fakten- und datenbasierte, um ›vernünftige‹ Propositionen: »Although we have held that the primary functions of expert advisers to decision makers is to serve as ›predictors‹, we by no means intend to suggest that they act as fortune tellers, trying to foresee specific occurrences for which the limited intellectual vision of the non-expert is in- sufficient.« (Helmer/Rescher 1958, 39) Die moderne Delphi-Methode ist demnach selbst in einer paradoxen Situation. Einerseits beruft sie sich auf den Topos ›Delphi‹, der für eine jahrtausendalte Tradition in die Zukunft schauender Politikberatung steht, andererseits soll sie sich des Spuks vom Rätselhaften und Nebulösen entledigen, welcher die Geschichten des alten Orakels umgibt. Ebenso jedoch wie die von Seiten der RAND-Autoren geforderte Objektivität und Rationalität durchaus in Frage ge- stellt werden kann, wird das mystifizierende und somit von Kontingenz und Irrationalität gezeichnete Bild des apollinischen Orakels der delphischen Ge- schichte nicht gerecht. Eine Befragung des alten Orakels sowie die Betrachtung eines ersten konsiliarischen Medienwechsels, nämlich vom Orakel zu den So- phisten, liefert Aufschlüsse über das historische und mediale Oszillieren von ›Delphi‹ zwischen Beratung und Entscheidung sowie zwischen ›Charisma‹ und ›Pragmatismus‹ (vgl. Macho 2010, 70f.). 80 Eva Schauerte Folgt man Dalkey, Rescher und Helmer, ebenso wie den nachfolgenden Ver- tretern von real-time-Delphi-Befragungen, lässt sich die Delphi-Methode im Rückgriff auf ihre Kerncharakteristika, die anonyme Expertise, das kontrollierte Feedback und den Anspruch an wissenschaftliche Objektivität, zusammenfas- sen. Auch wenn sich diese ausnahmslos modernen Begriffe schwer auf das an- tike Delphi übertragen lassen, haben zumindest die Einbindung von ›Experten‹ und die Funktion des Feedbacks ihre altertümlichen Wurzeln, und man könnte noch weitergehen und aktuelle Versionen von hyperdelphi-Verfahren mit groß- en und weltweit verteilten Teilnehmernetzwerken und endlosen, kontinuier- lichen Verläufen im antiken Delphi vorbereitet sehen. Denn auch wenn die Be- fragungen hier augenscheinlich in eine Richtung, nämlich vom Besucher über die Pythia in Richtung des die Zukunft voraussagenden Gottes (den man solan- ge und immer wieder befragt bis man die richtige Antwort erhält) verlaufen, funktioniert der Tempel im archaischen und klassischen Griechenland auch als Archiv und Wissensraum. Über Fragen und Anliegen der von überall nach Delphi pilgernden Ratsuchenden und die dauerhaft vor Ort stationierten Gesandten der Stadtstaaten wurde in Delphi das politische, soziale und militärische Wis- sen der Zeit gespeichert, verhandelt und eben auch an die Besucher zurückge- füttert. Als das »politische Herz eines Imperiums« bezeichnet Charles Bowen das delphische Orakel, dessen Ratschläge ungeachtet aller religiösen Konno- tationen nicht ignoriert werden konnten (Bowen 1859, 32), Judith Rickenbach spricht von einer »Art Informationsbörse, auf die jeder angewiesen war, der po- litisch überlegen handeln und sich erfolgreich in jenen wechselhaften Zeiten behaupten wollte« (Rickenbach 1999, 99ff.). Gleichzeitig werden das Orakel und die in Delphi praktizierten Methoden der Mantik bereits in der Antike kri- tisch auf ihre Glaubwürdigkeit hin untersucht. In seinen pythischen Schriften behandelt Plutarch, der selbst als Priester in Delphi tätig war, solche Fragen zu einer Zeit, in der das Orakel den Glanz alter Tage bereits verloren hat, jedoch nach wie vor konsultiert. Nach Plutarch stellt Delphi mehr dar als einen Ort der Beratung, das Orakel dient als »Köder der Erkenntnis« (Plutarchus 1952, 51), als Raum des Denkens und zögernden Innehaltens, der mit rätselhaften Antwor- ten eher weitere Fragen aufwirft und den Druck des Entscheidens schmälert. Damit widerspricht Plutarch einer modernen Perspektive auf antike Beratung, die ›Delphi‹ als eine rein spirituelle Face-to-Face- und Frage-Antwort-Situation versteht. Vielmehr beschreibt er ein Selbstverständnis der Beratungsinstituti- on Delphi, das sich mit dem zuvor zitierten Selbstverständnis moderner Think Tanks deckt, nämlich als ein Raum komplexer Informations- und Kommunika- tionsflüsse zur Erkenntnis- und Wahrheitsproduktion beizutragen – so unter- schiedlich ›Wahrheit‹ auch definiert werden mag. Von Delphi zu Hyperdelphi 81 Nach Thomas Macho »[entspringt] die Geschichte der Beratung [...] einem Zeit- gewinn, der bei oberf lächlicher Auffassung als Zeitverlust erscheinen mag. Je- der Rat kommt vor der Tat, die er vertagt.« (Macho 2010, 59f.) Charakteristisch für den Moment, an dem die Sophisten neben dem Orakel von Delphi als neue wichtige Beratungsakteure auftauchen, ist ein demokratischer Trend weg vom zeitdehnenden Mit-sich-zu-Rate-Gehen an einem spirituellen Ort hin zu einem zeitraffenden, schnellen Entscheiden in der Polis. Thomas Macho macht an der Gegenüberstellung des Orakels und der Sophisten seine Unterscheidung zwi- schen charismatischen und pragmatischen Beratern fest. Während sich der charismatische Berater durch seine Exklusivität und Mystik, aber auch durch ein hohes Risiko auszeichnet – nur ein einziger Misserfolg würde seine Auto- rität zerstören –, handelt es sich bei dem pragmatischen Berater um einen öf- fentlich auftretenden, sich als Teil der Gemeinschaft verstehenden, zeitlich be- grenzten Typus, der seine Ratschläge bei Bedarf auch revidieren oder ändern darf, ohne dabei seine Legitimität zu verlieren (Macho 2010, 70). Der sophi- stische Wanderlehrer, so lässt sich weiterführen, hat sich an die neuen sozio- kulturellen und politischen Bedingungen des fünften Jahrhunderts angepasst und unterstützt eine neue »athenische Politik des eiligen Entscheidens« (Flaig 1998, 126). Während in der archaischen Zeit lange Wege zurückgelegt wurden, um die Orakel in innen-, vor allem aber auch außenpolitischen Fragen zu kon- sultieren, betritt mit den Sophisten eine eigens mobile Beraterschaft die Bild- f läche, welche der neuen Geschwindigkeit und den geographischen Strukturen der klassischen Gesellschaft Rechnung trägt. Zeitdehnende Beratung, verstan- den auch als ein zögerndes Mit-sich-selbst-zu-Rate-Gehen, weicht der zeitraf- fenden Vorbereitung raschen, politischen Entscheidungshandelns (vgl. auch Schauerte 2013). Dieser Rückblick auf antike Beratung in ihrem Verhältnis zu Fragen des politi- schen Entscheidens zeigt, dass sich hinter ›Delphi‹ nicht, wie von den RAND-Au- toren evoziert, eine einwandfreie Fortschrittsgeschichte verbirgt, die von irra- tionalen Praktiken der Divination zur Vernunftbasierten Nutzbarmachung von Expertenurteilen voranschreitet. Stattdessen bietet der antike Fall die Mög- lichkeit, die zuvor besprochene ›moderne‹ Beziehung von Beratung und Ent- scheidung im Zusammenhang mit ihren Medien und Technologien historisch zu hinterfragen. Medien der Beratung und Medien der Entscheidung sind dabei nicht voneinander zu trennen; gleichzeitig stellen Beratung und Entscheidung zwei Pole dar, innerhalb derer sich Politik vollzieht und deren jeweilige Ge- wichtung sich konjunkturell verschiebt. Die ›technologische Bedingung‹ (Hörl 2011) des Digitalen affiziert in den oben beschriebenen Methoden und Experi- menten der Beratung und Entscheidung Vorstellungen der Zeitlichkeit ebenso 82 Eva Schauerte wie epistemologische Konzepte der Genauigkeit, Wahrheit und Objektivität. In die Dichotomie von pragmatischen und charismatischen Typen von Bera- tung drängt sich ein Hybrid; die pragmatische Quantifizierung und Rationali- sierung von Wissen und Wahrheit in den fünfziger und sechziger Jahren geht mit der Entwicklung von Experten- und Computersystemen einher, welche die menschlichen Fähigkeiten der Kombination und Reflektion nicht nur emulie- ren, sondern auch übersteigen, selbst kognitiv fähig werden sollen und als cha- rismatische Alleswisser inszeniert werden. »Maschine ›Watson‹ besiegt Men- schen bei ›Jeopardy‹«¯8 oder »The Smartest Machine on Earth«,¯9 so lauten die Schlagzeilen im Februar 2011 zum erfolgreichen Auftritt des IBM Computersy- stems in der bekannten amerikanischen Fernsehshow, welche auf paradigma- tische Weise die in diesem Aufsatz beschriebenen Beispiele zusammenführt. Die Fernsehshow wird zu einem modernen Ort der Weissagung, bloß dass statt rätselhaften Antworten hier die passenden Fragen produziert und geeignete Technologien vorgeführt werden, mit denen keine Antworten offen bleiben. Dass die geforderten Fragen, bei aller Komplexität und Undurchschaubarkeit des ›kognitiven‹ Computerprogramms, nicht ›hervorgezaubert‹ werden, son- dern auf dem Zugriff auf ein gebündeltes »Weltwissen«¯10 errechnet werden, kennzeichnet die neuen Medien der Beratung, welche die herkömmlichen nicht beseitigen oder verschlucken, sondern integrieren. Big Data-Beratung bezau- bert durch Allwissen, Undurchschaubarkeit und Transhumanismus und über- zeugt durch Genauigkeit, Überprüfbarkeit und Überholbarkeit. Anders als das charismatische Orakel von Delphi kann diese neue Form der rationalen Bera- tung einen Irrtum überleben, weil sich ihre Rationalität relational zum ver- fügbaren Wissbaren verhält und somit laufend aktualisieren muss. ›Irrtum‹ bedeutet nicht mehr das Ende eines charismatischen Beraters und stellt auch nicht das unumgängliche Übel dar, das der Kunde eines Pragmatikers in Kauf nimmt, sondern wird zum Minimalmotor einer fortlaufend optimierbaren Wis- sens- und Beratungsmaschinerie mit dem Versprechen, alles messbar und so- mit auch das einstmals Unentscheidbare zukünftig entscheidbar zu machen. Von Delphi zu Hyperdelphi 83 Anmerkungen 01˘ Für eine genaue Übersicht der inzwischen veröffentlichten Memoranda siehe: [http:// www.rand.org/pubs/authors/d/dalkey _norman_crolee.html] ; [http ://www.rand.org/ pubs/authors/h/helmer-hirschberg_olaf.html]; letzter Abruf: 17.6.2015. 02˘ [https://edelfoi.fi]; letzter Abruf: 17.6.2015. 03˘ [http://www.realtimedelphi.com]; letzter Abruf: 17.6.2015. 04˘ [http://www.techcastglobal.com]; letzter Abruf: 17.6.2015. 05˘ [http://www.millennium-project.org/millennium/overview.html]; letzter Abruf: 17.12. 2015. 06˘ [http://www.techcastglobal.com/web/guest/whatweoffer]; letzter Abruf: 17.12.2015. 07˘ [https://www.youtube.com/watch?v=v51dCtI3J-s]; letzter Abruf: 17.12.2015. 08˘[http://www.welt.de/vermischtes/article12572802/Maschine-Watson-besiegt-Mensch en-bei-Jeopardy.html]; letzter Abruf: 17.12.2015. 09˘ [https://www.youtube.com/watch?v=tAzeGkuQmUU]; letzer Abruf: 17.12.2015. 10˘ [http://www.zeit.de/zeit-wissen/2015/02/kuenstliche-intelligenz-cognitive-computing- cogs/seite-3]; letzter Abruf: 17.12.2015. Literatur Bahrdt, Hans Paul (1966) Forschung und Staat. In: Helmut Krauch / Werner Kunz / Horst Rittel (Hg.): Forschungsplanung: Eine Studie über Ziele und Strukturen amerikanischer For- schungsinstitute, Oldenburg: Oldenburg, S. 145-154. Bieber, Christoph (2014) Innovation und Politische Beteiligung. In: Manfred Mai (Hg.): Handbuch Innovationen: Springer Fachmedien Wiesbaden, S. 189-207. Bowen, Charles (1859) Delphi. Considered Locally, Morally, and Politically. Oxford: Oxford Press. Brinckmann, Andrea (2006) Wissenschaftliche Politikberatung in den 60er Jahren: die Studiengruppe für Systemforschung, 1958 bis 1975. Berlin: Sigma. Dalkey, Norman (1968) Predicting the Future. [https://www.rand.org/content/dam/rand/ pubs/papers/2008/P3948.pdf]; letzter Abruf: 17.12.2015. Dalkey, Norman (1969) The delphi method: An experimental study of group opinion. [RAND Publikation: RM-5888-PR]. [http://www.rand.org/content/dam/rand/pubs/research_ memoranda/2005/RM5888.pdf]; letzter Abruf: 18.6.2015. Dalkey, Norman/ Helmer, Olaf (1951) The Use of Experts for the Estimation of Bombing Requirements. [Kurzform: http://www.rand.org/content/dam/rand/pubs/research_memo- randa/2009/RM727.1.pdf] , letzter Abruf: 17.6.2015. 84 Eva Schauerte Dalkey, Norman/Olaf Helmer (1962) An Experimental Application of the Delphi Method to the Use of Experts. Prepared for the United States Air Force Project RAND. [http://www. rand.org/content/dam/rand/pubs/research_memoranda/2009/RM727.1.pdf, Stand: 17.6.2015. Der Spiegel (1970) Kanzleramt. System Orakel. Der Spiegel (26.10.1970). Flaig, Egon (1998) Ödipus. Tragischer Vatermord im klassischen Athen. München: C.H. Beck. Habermas, Jürgen (1966) Verwissenschaftlichte Politik in demokratischer Gesellschaft. In: Helmut Krauch/Werner Kunz/Horst Rittel (Hg.): Forschungsplanung: Eine Studie über Ziele und Strukturen amerikanischer Forschungsinstitute, Oldenburg: Oldenburg, S. 130-144. Habermas, Jürgen (1968) Verwissenschaftlichte Politik und öffentliche Meinung. In: Jür- gen Habermas (Hg.): Technik und Wissenschaft als ›Ideologie‹, Frankfurt a. M.: Suhrkamp, S. 120-145. Helmer, Olaf/ Rescher, Nicholas (1958) On the Epistemology of the Inexact Sciences. P-1513. [http://www.rand.org/content/dam/rand/pubs/papers/2005/P1513.pdf]; letzter Ab- ruf: 17.6.2015. Hörl, Erich (2011) Die technologische Bedingung : Beiträge zur Beschreibung der tech- nischen Welt. Berlin: Suhrkamp. Jackson, Peter (1999) Introduction to Expert Systems. Boston: Addison-Wesley. Kahn, Herman (1962) Thinking about the unthinkable. New York, NY: Horizon Press. Krauch, Helmut (1972) Computer-Demokratie. Düsseldorf: VDI-Verl. Krauch, Helmut (2011) Das Orakel-Experiment. In: Reinhard Coenen / Karl-Heinz Simon (Hg.): Systemforschung – Politikberatung und öffentliche Aufklärung : Beiträge von und im Umfeld von Helmut Krauch und der Studiengruppe für Systemforschung, Kassel: Kassel Univ. Press, S. 424-444. Luhmann, Niklas (1978) Organisation und Entscheidung. Opladen: Westdeutscher Verlag. Luhmann, Niklas (2000) Die Paradoxie des Entscheidens. In: Niklas Luhmann (Hg.): Orga- nisation und Entscheidung, Opladen: Westdeutscher Verlag, S. 17-55. Macho, Thomas (2010) Was tun? Skizzen zur Wissengeschichte der Beratung. In: Thomas Brandstetter/Claus Pias/Sebastian Vehlken (Hg.): Think Tanks. Die Beratung der Gesellschaft, Berlin: diaphanes, S. 59-85. Pias, Claus/ Vehlken, Sebastian (2010) Einleitung. Von der ›Klein-Hypothese‹ zur Bera- tung der Gesellschaft. In: Thomas Brandstetter / Claus Pias / Sebastian Vehlken (Hg.): Think- Tanks. Die Beratung der Gesellschaft, Berlin: diaphanes, S. 7–16. Plutarchus (1952) Über Gott und Vorsehung, Dämonen und Weissagung. Zürich: Artemis. Rescher, Nicholas (1997) Objectivity: the obligations of impersonal reason. Notre Dame: University of Notre Dame Press. Rescher, Nicholas (1998) Predicting the Future: An Introduction to the Theory of Foreca- sting. Albany: State University of New York Press. Von Delphi zu Hyperdelphi 85 Rickenbach, Judith (1999) Delphi – die Orakelstätte des Apollon als Mittelpunkt des Uni- versums. In: Axel Langer / Albert Lutz (Hg.): ORAKEL. Der Blick in die Zukunft. Katalog zur Sonderausstellung zur Jahrtausendwende, S. 98-109. Schauerte, Eva (2013) Der Fall des Ödipus – antike Beratung zwischen Transzendenz und Immanenz. In: Michael Niehaus / Wim Peeters (Hg.): Rat geben. Zu Theorie und Analyse des Beratungshandelns, Bielefeld: transcript, S. 199-217. Schelsky, Helmut (1961) Demokratischer Staat und moderne Technik. atomzeitalter 5: S. 99-102. Silcock, Bryan (1971) You Too Can Govern the Nation's Futur. The London Times (18. 7 1971). 86 Kerstin Hoffmann Das Entscheidungsblatt im Unternehmensplanspiel – Medium der Entscheidungshilfe oder ein- schränkender Entscheidungsrahmen? Was der Spiegel 1962 hier so bildreich beschreibt, »Die bitteren oder erfreulichen Konse- ist der Ablauf eines Unternehmensplanspiels, quenzen ihrer betrieblichen Entscheidungen das Ende der 1950er Jahre von dem Chemie- und werden allen Planspielern kurze Zeit spä- Pharmaunternehmen Hoechst entwickelt wur- ter präsentiert. Die anfallenden Kosten wer- de, um angehende Führungskräfte im Treffen den auf Lochkarten festgehalten und einem unternehmerischer Entscheidungen zu trainie- Elektronengehirn übergeben. Nach wenigen ren. Es simuliert die organisatorische Realität Minuten hat der Roboter erkundet, wie sich mitsamt ihrer Umwelt und schafft auf diese Wei- etwa die Senkung der Preise, die Errichtung se einen risikofreien Raum, in dem unternehme- neuer Produktionsanlagen oder ein kostspie- risches Handeln erprobt werden kann, ohne dass liger Werbefeldzug auf Umsätze und Erträ- für die Spielteilnehmer oder das Unternehmen ge auswirkt« selbst reale wirtschaftliche Folgen entstehen. Im Der Spiegel 30/1962, 37. firmeneigenen Management-Planspiel der Ho- echst AG treffen die Spielteilnehmer unter der Berücksichtigung von Spielregeln und Spielvorgaben Entscheidungen, die der Computer oder, wie der Spiegel schreibt, das »Elektronengehirn« (ebd.), verar- beitet und auf der Grundlage programmierter Formeln und Algorithmen in ein Ergebnis umwandelt. Damit der Computer-»Roboter« (ebd.) die Auswirkungen der einzelnen Entscheidungen auswerten kann, sieht das Hoechster Modell vor, dass die Spielteilnehmer ihre Entschlüsse auf einem vorgedruckten Entschei- dungsblatt (vgl. Abb. 1) festhalten. Das Entscheidungsblatt erleichtert den Übertrag der Spielgruppenentschei- dungen auf Lochkarten und ermöglicht auf diese Weise einen reibungslosen Ablauf des Planspiels. Während davon auszugehen ist, dass unter realen wirt- schaftlichen Bedingungen, Entscheidungen auf Führungsebene eher selten un- ter Zuhilfenahme von vorgedruckten Formularen getroffen werden, stellt das Entscheidungsblatt im fingierten Entscheidungsprozess des Unternehmens- planspiels ein bedeutendes Medium dar. Es beinhaltet alle im Spielmodell be- rücksichtigten Handlungsalternativen und bestimmt durch seinen formalen Aufbau maßgeblich den möglichen Handlungsspielraum der Spielteilneh- mer. So können eben auch nur solche Entscheidungen auf Lochkarten über- Das Entscheidungsblatt im Unternehmensplanspiel 87 Abb. 1. :Entscheidungsblatt Hoechst Planspiel 88 Kerstin Hoffmann tragen und durch den Computer verarbeitet werden, die in den dafür vorge- sehenen Feldern des Entscheidungsblattes Platz finden. Exemplarisch werden im weiteren Verlauf dieses Artikels die Entscheidungsblätter zweier Unter- nehmensplanspiele aus der (deutschen) Frühphase¯1 der ökonomischen Plan- spieltechnik vorgestellt und auf die Frage hin untersucht, wie sie den Entschei- dungsprozess der Spielteilnehmer beeinflussen und ob ihr Aufbau oder der Inhalt der erfassten Entscheidungen etwas über die Vorstellungen und the- oretischen Annahmen der Planspielentwickler verrät. Zunächst soll das ein- gangs bereits angeführte Modell der Hoechst AG (Management Planspiel/Mo- dell 2) betrachtet werden, das als eines der ersten firmeneigenen Planspiele im deutschsprachigen Raum gilt. In einem zweiten Schritt wird das IBM-Unterneh- mensspiel für Kreditinstitute analysiert. Zwar bedienen beide Spiele völlig un- terschiedliche Branchen (Pharma- und Kreditindustrie) und unterscheiden sich auch in Aufbau und Inhalt teils stark voneinander, die Spielvorlagen enthalten jedoch in beiden Fällen ein recht ähnlich aufgebautes Entscheidungsblatt, auf dessen Analyse sich die Fallstudien im Folgenden konzentrieren werden. Eine abschließende (auch über den Rahmen der Beispiele hinausgehende) Spekula- tion soll sich dann der Frage zuwenden, welcher Stellenwert dem an den Ent- scheidungsblättern festmachbaren Moment der Entscheidung an sich im Un- ternehmensplanspiel zukommt. Das Entscheidungsblatt als Modell Am Anfang einer jeden Planspielentwicklung müssen sich die Konstrukteure nicht nur auf die im Modell berücksichtigten Entscheidungsvariablen einigen, sondern auch, mithilfe von mathematischen Theorien und Formeln, deren Ab- hängigkeiten festlegen. Hinter jedem ökonomischen Planspiel verbirgt sich eine Theorie der Unternehmung (vgl. Witte 1965, 2849), die den Lerneffekt für die unternehmerische Entscheidungsfindung unter realwirtschaftlichen Be- dingungen wesentlich beeinflusst. Zwar bemühen sich die meisten Planspie- lentwickler in der Modellkonstruktion um eine möglichst dichte Annäherung an die (angenommene) Realität, zugunsten der Rechenbarkeit werden jedoch gewisse Parameter, die unternehmerische Entscheidungen in der realen Mark- tumwelt beeinflussen, vernachlässigt – es kommt somit zu einer Komplexi- tätsreduktion. So betonen beispielsweise die Entwickler aus dem Hause Ho- echst, dass die Prämisse, ein Spielmodell überschaubar und das Spiel spielbar zu gestalten, zwangsläufig zur Folge habe, dass sich die Zahl der notwendigen Entscheidungen gegenüber der Realität vermindere (vgl. AK Gamer 1963, 163). Das Entscheidungsblatt im Unternehmensplanspiel 89 Welche Entscheidungen im Modell letztlich berücksichtigt werden, lässt sich durch das Entscheidungsblatt, das sämtliche Entscheidungsvariablen über- sichtlich auflistet, gut erkennen. So sind beispielsweise auf dem Hoechster Ent- scheidungsblatt alle notwendigen Entscheidungen wie etwa »Verkaufspreise«, »Mindestverkaufspreis« oder »Marketingaufwendungen« etc. (vgl. Abb. 1) klar ersichtlich untereinander aufgeführt. Die Spielteilnehmer bekommen auf die- se Weise einen ersten Überblick über die notwendigen Entscheidungen, was zu einer nicht unbeträchtlichen Erleichterung des Entscheidungsprozesses führt. Schließlich bleibt den Spielteilnehmern das Suchen und Erkennen von mög- lichen Handlungsoptionen weitestgehend erspart. Gleichzeitig sind jedoch auch nur noch solche Entscheidungen möglich, die auf den schablonenartigen Entscheidungsformularen vorgesehen sind. Inwiefern das Entscheidungsblatt in Unternehmensplanspielen daher ein Medium der Entscheidungshilfe dar- stellt oder ob es sich angesichts der sich hinter den Planspielen verbergenden Theorien als Entscheidungsrahmen begreifen lässt, der die Entscheidungsfrei- heit der Spielteilnehmer begrenzt und den Entscheidungsprozess in eine be- stimmte Richtung lenkt, soll im Folgenden untersucht werden.¯2 Fallstudie 1: Hoechst Ende der 1950er Jahre entwickelte das Chemie- und Pharmaunternehmen Ho- echst unter dem Titel Management-Planspiel/ Modell 2 (Hoechst GmbH, Sign. H0028191) ein firmenspezifisches Unternehmensplanspiel. Die Hoechst AG nahm mit der Entscheidung, ein eigens auf die Bedürfnisse des Unternehmens angepasstes Planspiel zu entwickeln, im deutschsprachigen Raum eine Vorrei- terrolle ein. Die computergestützte Planspieltechnik steckte Ende der 1950er Jahre noch in ihren Anfängen und auch im Hause Hoechst wurde zu dieser Zeit gerade erst eine elektronische Rechenanlage der ersten Generation in- stalliert (vgl. Drenkard/Moka 1974, 22). Die Konstruktion eines Planspielmo- dells bot für die Hoechst AG dabei auch die Chance, die Einsatzmöglichkeiten von Großrechenanlagen besser kennenzulernen.¯3 Doch worin stecken nun, abgesehen von seiner Pionierleistung, die Besonderheiten des Hoechster Mo- dells? Beim Management-Planspiel/ Modell 2 konkurrieren drei Unternehmen auf drei verschiedenen Märkten: Dem Beschaffungsmarkt, dem Kapitalmarkt und dem Absatzmarkt. Jedes Unternehmen vertreibt zwei verschiedene Pro- dukte, die zwar mit denselben Maschinen, jedoch mit unterschiedlichen Roh- stoffen erzeugt werden. Die beiden produzierten Güter substituieren sich in Teilbereichen. Im Absatzbereich begegnen sich die drei Gesellschaften auf vier 90 Kerstin Hoffmann Absatzmärkten, wobei jedes Unternehmen in jeweils einem der Märkte behei- matet ist. Der vierte Markt entspricht einem Weltmarkt, auf dem die konkur- rierenden Firmen unter gleichen Ausgangsbedingungen aufeinandertreffen. Die Beschränkung auf drei konkurrierende Unternehmen ist einerseits der Re- chenbarkeit und der Transparenz des Modells für die Spielteilnehmer geschul- det (vgl. Arbeitskreis Gamer 1963, 167). Andererseits entsteht auf diese Weise eine typische Oligopolsituation, die im Fall von Hoechst durchaus den realen wirtschaftlichen Verhältnissen entspricht. Äußerer Aufbau des Hoechster Entscheidungsblattes Auf dem Entscheidungsblatt (Abb. 1) des Hoechst-Planspiels sind insgesamt zwölf Entscheidungsvariablen (»Verkaufspreise DM / 100 kg«, »Mindestver- kaufspreis«, »Höchstzukaufspreis«, etc., vgl. Abb. 1) angegeben, zu denen, entsprechend der vier Verkaufsbezirke und unterschiedlich leistungsfähiger Verarbeitungsanlagen, 36 Einzelentscheidungen abgefragt werden. Diese Einzelentscheidungen der Teilnehmer, die zu Beginn jeder Spielperiode getrof- fen werden, bestehen in einer Zuordnung von numerischen Werten auf die entsprechenden Entscheidungsvariablen. Auf dem Entscheidungsblatt sind hierzu durch Punkte repräsentierte Leerstellen vermerkt. Dabei ist zu beach- ten, dass ein Punkt immer nur eine Stelle symbolisiert. Besteht eine Lücke aus drei Punkten, wie etwa bei der Angabe zum Mindestverkaufspreis an die Kon- kurrenz, so können auch nur dreistellige Werte eingetragen werden. Ein Min- destverkaufspreis im vierstelligen Bereich ist im Hoechster Modell demnach nicht vorgesehen. Die meisten Entscheidungsvariablen werden zudem mit spe- zifischen Maßeinheiten abgefragt, die bereits eine Größenordnung in Menge oder Preis vorgeben. So wird beispielsweise die Produktionsmenge in Tonnen erfasst, sodass sich die Spielteilnehmer nicht dazu entscheiden können von einem Produkt weniger als 1.000 kg herzustellen und sich lediglich auf die Pro- duktion eines der beiden Erzeugnisse zu konzentrieren. Aber auch Marketin- gaufwendungen oder Bankdarlehen müssen in 1.000 DM angegeben werden, wodurch Werbemaßnahmen oder Kredite unter 1.000 DM von vorneherein aus- geschlossen sind. Die Tatsache, dass sämtliche Entscheidungen in Form von festen Maßangaben, Preisen oder Prozentangaben abgefragt werden, macht zudem deutlich, dass im Planspielmodell der Hoechst AG nur solche Einfluss- größen berücksichtigt werden können, die quantitativ messbar sind. Qualita- tiv bedeutende Dinge wie etwa Liefertreue, Traditionsverhalten oder Sozia- largumentation werden zu Gunsten eines rechenbaren Modells vernachlässigt (vgl. Witte 1965, 2849; Koller 1965, 2805). Fernerhin handelt es sich bei den Wer- ten, die durch das Entscheidungsblatt abgefragt werden, um obligatorische Das Entscheidungsblatt im Unternehmensplanspiel 91 Entscheidungen, die in jeder Periode zwingend getroffen werden müssen. Die anschließende Übernahme der Werte auf Lochkarten und die Übertragung in ein elektronisches Datenverarbeitungsgerät machen es notwendig, dass die Entscheidungsblätter vollständig und sachlich richtig ausgefüllt werden. Der logische Aufbau des Entscheidungsblattes mit vorstrukturierten Entschei- dungsbereichen, markierten Stellenwerten und festen Maßeinheiten erleich- tert durch seine Eindeutigkeit und Begrenzung die Entscheidungsfindung der Spielgruppen und minimiert die Wahrscheinlichkeit von Übertragungsfehlern bei der Eingabe der Werte in die elektronischen Datenverarbeitungsgeräte. Die formale Struktur diktiert jedoch zugleich die computergerechte, rechnerische Quantifizierbarkeit zu fällender Entscheidungen und engt die Entscheidungs- freiheit und etwaige Kreativität der Spielteilnehmer enorm ein. Unternehmensplanspiele simulieren eine Organisation und deren Umwelt un- ter einer Vielzahl theoretischer Annahmen und Vorstellungen. Hinter jedem Simulationsmodell verbirgt sich eine Auswahl an Variablen, die über mathe- matische Formeln zueinander in Verbindung gesetzt werden. Über die Wahl der verwendeten Variablen entscheiden die Spielentwickler ebenso vorweg wie über die Art der Abhängigkeit der Variablen zueinander. In dem Moment da ein Unternehmensplanspiel tatsächlich zum Einsatz kommt, ist eine ganze Reihe von Entscheidungen bereits gefallen. Spielmodell, Spielregeln und vor allem das Entscheidungsblatt stellen einen Rahmen dar, der die logischen Ent- scheidungskriterien bereits vorwegnimmt. Es lässt sich somit gewissermaßen sagen, dass die Teilnehmer im Spielverlauf gar keine Entscheidungen fällen. Vielmehr ziehen sie unter Berücksichtigung vorgegebener Spielmaterialien lo- gische Schlüsse. Überspitzt könnte man sagen, Unternehmensplanspiele trai- nieren nicht die unternehmerische Entscheidungsfindung und die damit ver- bundene Übernahme von Verantwortung, sondern sie trainieren logisches, rationales Handeln. Schaut man sich die einzelnen Entscheidungen, die durch das Entscheidungsblatt des Hoechst Planspiels erfasst werden, inhaltlich ge- nauer an, wird dies noch stärker deutlich. Inhaltliche Betrachtung des Entscheidungsblattes der Hoechst AG In einem ersten Schritt entscheiden die Spielteilnehmer über die tatsächlichen Verkaufspreise für die Produkte A und B. Da die beiden Produkte auf vier ver- schiedenen Märkten abgesetzt werden können, fallen alleine für die Verkaufs- preise acht Einzelentscheidungen an, denn jedes Produkt kann in jedem der vier Märkte (Bezirke 1 bis 4) zu unterschiedlichen Preisen angeboten werden. Die einzelnen Preise sind immer in DM pro 100 kg anzugeben und müssen, ent- sprechend der durch drei Punkte symbolisierten Vorgabe eines dreistelligen 92 Kerstin Hoffmann Betrags, unter 1.000 DM pro kg liegen. Im Hoechst-Planspiel besteht zudem die Möglichkeit, Produkte an Konkurrenzfirmen zu verkaufen oder von diesen an- zukaufen. Der Mindestverkaufspreis an und der Höchstzukaufspreis von der Konkurrenz sind jedoch im dafür vorgesehenen Feld des Entscheidungsblattes vor jeder Spielperiode neu festzulegen. Auch hier dürfen die Mindest- und Höchstgrenzen eine dreistellige Summe nicht übersteigen. Zudem verdeutlicht die Möglichkeit des firmenübergreifenden Handels, dass eine gewisse Homo- genität der erzeugten Produkte vorausgesetzt wird (vgl. Hoechst GmbH, Sign. H0028191, Information an die Teilnehmer, 3). Es ist also nicht vorgesehen, die Qualität der Produkte zu verbessern oder gar völlig neue Produkte zu entwi- ckeln um sich von der Konkurrenz abzusetzen. Zwar können die Spielteilneh- mer in Forschung investieren, die Entscheidungsvariable »Forschungskosten« wirkt sich jedoch nur auf den Rohstoffverbrauch, die Fertigungskosten oder den Umsatz der Produkte aus (vgl. ebd., 6), nicht aber auf deren Qualität oder Beschaffenheit. Vor diesem Hintergrund wird deutlich, dass gerade der krea- tive Teil unternehmerischer Entscheidung, beispielsweise Produktinnovation, im Planspiel der Hoechst AG gänzlich unberücksichtigt bleibt. Fernerhin wird in der Variable »Forschungskosten« deutlich, dass die Spielteilnehmer eben nur über die tatsächliche Höhe der Kosten, anzugeben in »TDM« und in eine vorge- gebene Lücke von höchstens fünf Stellen einzutragen, nicht aber über die expli- zite Verwendung der Mittel bestimmen können. Durch den Entscheidungsbo- gen wird nicht weiter deutlich, ob nun speziell an einer effizienteren Lagerung oder einer Erweiterung des Anwendungsbereichs der Produkte geforscht wird. Der formale Aufbau des Entscheidungsblattes lässt die Spielgruppen hier weit- gehend im Unklaren über die konkreten Auswirkungen ihrer Entscheidungen. Ebenso verhält es sich mit den Marketingaufwendungen: Die Spielteilnehmer können zwar entscheiden, wie viel Geld sie in die Vermarktung der beiden Pro- dukte A und B auf den vier Märkten jeweils investieren wollen, nicht aber zwi- schen verschiedenen Werbemaßnahmen wählen. Gerade vor dem Hintergrund, dass unterschiedliche Werbeinvestitionen für die vier Bezirke vorgesehen sind, verwundert es, dass keine konkreten Entscheidungen bezüglich der Art der In- vestitionen möglich sind. Allein die Frage nach der Höhe der tatsächlichen Mar- ketingaufwendungen umfasst jedoch bereits acht Einzelentscheidungen. Die Investitionen werden in 1.000 DM angegeben, wobei Werte im fünfstelligen Be- reich erfragt werden. Damit können die Spielgruppen pro Produkt Werbeaus- gaben im zweistelligen Millionenbereich veranschlagen. Umgekehrt bestimmt die Maßeinheit »TDM«, dass auch keine Marketingaufwendungen unterhalb von 1.000 DM, also beispielsweise 900 DM möglich sind. Fernerhin muss bei Das Entscheidungsblatt im Unternehmensplanspiel 93 den Werbeentscheidungen beachtet werden, dass die Aufwendungen nicht so- fort, sondern erst mit einer gewissen Verzugszeit wirksam werden (vgl. Ar- beitskreis Gamer 1963, 169). Die Spielteilnehmer gewinnen demnach erst nach einigen Spielrunden ein Gespür für den Wirkungsgrad der Marketingaufwen- dungen. Zudem hängt die Effizienz der Werbung stark von den Gesamtaufwen- dungen aller drei Spielgruppen für diesen Zweck ab, sodass der Wirkungsgrad der Variable nicht nur von den eigenen Entscheidungen, sondern auch vom Ver- halten der Konkurrenz bestimmt wird (vgl. Hoechst GmbH, Sign. H002819, In- formation für die Teilnehmer, 6). Auf dem Entscheidungsblatt sind von den Spielteilnehmern zudem Produk- tions- und Rohstoffbestellmengen, sowie ein gewünschter Mindestlagerbe- stand in Tonnen anzugeben. Darüber hinaus können die Spielteilnehmer Kre- dite aufnehmen und zurückzahlen, die Höhe der Dividende für das abgelaufene Geschäftsjahr festlegen, sowie den Nominalbetrag und den Ausgabekurs für geplante Kapitalerhöhungen bestimmen. Drei weitere Einzelentscheidungen fallen im Bereich der Neuinvestitionen in Produktionsanlagen an. Die Spielteil- nehmer können in die Neuerrichtung von kleinen, mittleren und großen Anla- gen investieren, wobei es zu bedenken gilt, dass die Bauzeit von Produktions- anlagen, unabhängig von ihrer Größe, immer ein Jahr beträgt. Zudem kann die Spielleitung die Investitionskosten während des Spielverlaufs immer wieder ändern (vgl. ebd., 4), weswegen auf dem Entscheidungsblatt lediglich nach der tatsächlichen Zahl der entsprechenden Neuinvestitionen gefragt wird. Auch hier gilt wieder, die Größe der Lücke beträgt nur einen Punkt, sodass auch nur jeweils in neun neue Anlagen einer spezifischen Größe investiert werden kann. Auch wenn das Entscheidungsblatt des Hoechst Planspiels mit über 30 Einzel- entscheidungen auf den ersten Blick recht detailliert erscheint, so wurde in der inhaltlichen Betrachtung doch offensichtlich, dass eine ganze Reihe von Ent- scheidungen, die unter realwirtschaftlichen Bedingungen notwendig sind, den Spielgruppen im Unternehmensplanspiel vorenthalten bleiben. Verglichen mit anderen Planspielmodellen ist die Zahl der zu treffenden Entscheidungen mit 36 Periodenentscheidungen als eher gering einzustufen. So fallen beispiels- weise im US-amerikanischen Carnegie Tech Management Game von 1959, das die Waschmittelindustrie simuliert, pro Periode jeweils zwischen 100 und 300 Entscheidungen¯4 an (vgl. Cohen u.a. 1966, 311). Die vergleichsweise geringe Zahl der notwendigen Entscheidungen macht es den Teilnehmern einfach, die Wirkung der einzelnen Entscheidungen gegeneinander abzuwägen und die bestmögliche Alternative zu wählen. Rechnerisch lässt sich daher eine opti- male Lösung des Planspielszenarios ausmachen, die lediglich durch die Stra- tegie der Konkurrenz durchkreuzt werden kann. Im Sinne der Berechenbarkeit 94 Kerstin Hoffmann und Planbarkeit stellt das formale Entscheidungsblatt daher eine Spielerleich- terung auf dem Weg zu einer optimalen Lösung dar. Es führt den Spielteilneh- mern vor Augen, in welchen Bereichen, welche Entscheidungen getroffen wer- den müssen oder anders ausgedrückt, welche Einflussgrößen berücksichtigt werden müssen um ein optimales Ergebnis zu erzielen. Das Entscheidungsblatt verdeutlicht zudem, dass den Planspielentwicklern bei der Konstruktion des Modells ein äußerst rationales Bild von Organisation vorschwebt. Es bringt die Vorstellung zum Ausdruck, dass sich Organisationen durch rationale Entschei- dungen fehlerfrei und exakt steuern lassen. Unter der Prämisse des ›homo oe- conomicus‹ verfügen die Teilnehmer im Spiel über vollständige Informationen und können auf diese Weise eine nutzenmaximierende Wahl aus den vorge- gebenen Handlungsalternativen treffen (vgl. Bleicher 1974, 5). Diese Annahme wird durch den äußeren Aufbau des Entscheidungsblattes noch deutlicher. So gibt das Entscheidungsblatt nicht nur die Entscheidungsalternativen vor, auch die Entscheidungsarten stehen durch die Stellenbegrenzungen der vorgedruck- ten Felder und die vorgegebenen Maßeinheiten bereits fest. Die Spielteilneh- mer selbst entscheiden lediglich über Stückzahlen oder Geldbeträge. Entschei- dungen, die in der Formalisierung des Entscheidungsblattes nicht vorgesehen sind, können von den Spielteilnehmern auch nicht getroffen werden. Die Be- trachtung des Hoechster-Entscheidungsblattes macht folglich deutlich, dass es verkürzt wäre, das Entscheidungsblatt lediglich als Medium der Entschei- dungserleichterung zu verstehen. Vielmehr ist es Teil des durch die Spielregeln und Spielformulare vorgegebenen Entscheidungsrahmens, der die Handlungs- spielräume der Teilnehmer wesentlich begrenzt. Das Entscheidungsblatt stellt für die Spielteilnehmer daher gleichzeitig eine Entscheidungshilfe und einen einschränkenden Entscheidungsrahmen dar. Um auszuschließen, dass es sich bei der doppelten Rolle des Entscheidungs- blattes nur um eine Eigenheit des Hoechster Modells handelt, soll im Folgenden ein weiteres Entscheidungsformular analysiert werden. Fallstudie 2: Das IBM Unternehmensspiel für Kreditinstitute Das IBM Unternehmensspiel für Kreditinstitute ist eines der ersten branchen- spezifischen Planspiele. Es wurde 1960 in den USA von der Unternehmensbe- ratung McKinsey & Company in Zusammenarbeit mit dem Software-Hersteller IBM entwickelt und 1965 von IBM Deutschland in die deutsche Sprache über- setzt und den Verhältnissen des deutschen Bankensystems angepasst (vgl. Wirth 1971, 359). Unter den 350 Teilnehmern, die es bereits in den ersten bei- Das Entscheidungsblatt im Unternehmensplanspiel 95 den Jahren nach der Vorstellung des Planspiels in der Bundesrepublik durch- laufen konnten, befanden sich sowohl erfahrene Bankpraktiker als auch fort- geschrittene Studenten der Bankbetriebslehre (vgl. Stevenson 1966, 10). Wie der Name bereits erkennen lässt, führen die Spielteilnehmer ein Kreditinstitut und treffen im Spielverlauf die unternehmerischen Entscheidungen der ober- sten Unternehmensleitung in den wichtigsten Geschäftsbereichen: Persona- leinsatz, Werbeaufwand, Zinssätze oder Kontoführungsgebühren. Bei Spiel- beginn legen sich die verschiedenen Spielgruppen auf ein Unternehmensziel fest, welches sie, unter Rücksichtnahme auf die vorgegebenen Liquiditätsrich- tlinien, zu verwirklichen suchen. Im Gegensatz zum firmeneigenen Planspiel der Hoechst AG handelt es sich beim Unternehmensspiel für Kreditinstitute der Firma IBM nicht um ein Konkurrenzspiel, sondern um ein isoliertes Plan- spiel. Die Entscheidungen der Spielgruppen beeinflussen sich nicht gegensei- tig, sodass für die Entwicklung einer eigenen Strategie das Verhalten der Kon- kurrenten keine Rolle spielt. Isolierte Planspiele, in denen die Entscheidungen der einzelnen Teams völlig unberührt voneinander bleiben, bieten den Vorteil, dass zeitgleich eine Vielzahl verschiedener Spielgruppen gegeneinander an- treten kann (vgl. Hartl-Prager 1972, 38f.). Im Modell der IBM können immerhin neun verschiedene Spielgruppen mit je drei bis fünf Teilnehmern berücksich- tigt werden. Aufgrund des fehlenden Konkurrenzkampfs gibt es am Ende des Spielverlaufs auch keinen eindeutigen Sieger. Die Spielresultate werden ein- zig und allein danach bewertet, inwiefern die Spielgruppen ihr eingangs ge- setztes Unternehmensziel unter Beachtung der Spielregeln erreichen konnten (vgl. Stevenson 1966, 14). Bereits die Konzeption des Kreditplanspiels als isoliertes Planspiel verdeutli- cht, dass die Entscheidungen anderer Natur sind als im Planspiel der Hoechst AG. Während im Hoechster Modell das Entscheiden unter Unsicherheit ein we- sentliches Charakteristikum ist, da die Auswirkungen der eigenen Entschei- dungen immer auch von dem Verhalten der Konkurrenten abhängen, treffen die Spielteilnehmer im IBM Kreditplanspiel ihre Entscheidungen unter der An- nahme ›vollständiger Informationen‹. Werden alle verfügbaren Informatio- nen gesammelt und richtig ausgewertet, ist es ohne Probleme möglich, den ›one best way‹ zu verfolgen. Sicherlich gelingt es manchen Gruppen besser als anderen, alle notwendigen Einflussgrößen zu erfassen und in ein optimales Verhältnis zueinander zu bringen, sodass immer noch unterschiedliche Spiel- ergebnisse möglich sind und auch die Tatsache, dass generell verschiedene Un- ternehmensziele verfolgt werden können macht deutlich, dass ambitionierte Unternehmensziele unter Umständen schwerer zu erreichen sind als niedrig angesetzte Ziele, mit denen die Spielgruppen kein allzu großes Risiko einge- 96 Kerstin Hoffmann hen. Prinzipiell sieht das Spielmodell jedoch das Finden einer, auf das Unter- nehmensziel abgestimmten, optimalen Lösung vor. Das gänzliche Fehlen ei- ner Konkurrenzsituation vereinfacht demnach die Endscheidungsfindung der Spielteilnehmer wesentlich. Kann die eigene Strategie nicht durch die Taktik der Konkurrenz durchkreuzt werden, ist ein großer, in den frühen Planspielen mithin der größte, Unsicherheitsfaktor unternehmerischer Entscheidung be- reits im Vorhinein ausgeschaltet. Der Tatsache, dass es sich beim IBM-Unternehmensplanspiel für Kreditinstitute um ein branchenspezifisches Planspiel handelt, ist es außerdem geschuldet, dass die Zahl der zu treffenden Entscheidungen nicht mit der Anzahl der Ent- scheidungen in universellen Unternehmensplanspielen vergleichbar ist. Wäh- rend universelle Planspielmodelle mit dem Anspruch entwickelt werden, für alle Wirtschaftszweige gleichermaßen gültig zu sein und insofern einen brei- ten Entscheidungsbereich abdecken müssen, werden in spezifischen Branchen- spielen bedeutend weniger Entscheidungsvariablen berücksichtigt. So kommt das IBM Kreditplanspiel mit gerade einmal sechs Entscheidungsvariablen und 23 Einzelentscheidungen aus (vgl. Abb. 2). Bei genauerer Betrachtung wird zu- dem deutlich, dass diese Zahl auch nur deshalb so hoch ist, da die Spielentwick- ler der IBM großen Wert auf die Personalverwaltung legen und unterschied- liche Vergütungsgruppen berücksichtigen. Generell gilt jedoch: Je geringer die Zahl der zu fällenden Entscheidungen und der zu berücksichtigenden Ent- scheidungsvariablen, desto einfacher gestaltet es sich für die Spielteilnehmer, alle Einflussgrößen zu betrachten und in das richtige Verhältnis zueinander zu setzen. Durch eine rechnerisch leicht erkennbare Lösung des Planspielszena- rios, vermögen die Spielteilnehmer ihr fiktives Kreditinstitut perfekt zu steu- ern und zu planen. Die Konzeption des IBM Planspiels als isoliertes branchenspezifisches Unter- nehmensplanspiel beeinflusst folglich den Rahmen, in welchem Entschei- dungen im Spielverlauf getroffen werden können. Sie bestimmt gleichsam auch maßgeblich den äußeren Aufbau des Entscheidungsblattes (Abb. 2), so- wie den Inhalt der darauf abgefragten Entscheidungsparameter. Welche Ent- scheidungen die oberste Unternehmensleitung eines Kreditinstitutes im Spiel- verlauf fällen kann und wie diese in ein vorgedrucktes Entscheidungsformular einzutragen sind, wird im Folgenden dargestellt. Das Entscheidungsblatt im Unternehmensplanspiel 97 Abb. 2: Entscheidungsblatt IBM Kreditplanspiel 98 Kerstin Hoffmann Äußerer Aufbau des IBM-Entscheidungsblattes Wie im Hoechst-Planspiel auch, werden den Spielteilnehmern im IBM Unterneh- mensspiel für Kreditinstitute zu Beginn einer jeden Spielrunde – eine Spielpe- riode umfasst ein Quartal –vorgedruckte Entscheidungsblätter ausgehändigt. Neben allgemeinen Informationen zu Quartals- oder Spielgruppennummer, erfasst das Entscheidungsblatt insgesamt sechs Entscheidungsvariablen (»Per- sonaleinsatz und -Verteilung«, »Sollzinssatz«, »Werbung«, etc., vgl. Abb. 2) und 23 Einzelentscheidungen. Den einzelnen Entscheidungsvariablen sind Werte zuzuordnen, die in den dafür vorgesehenen Freiraum unterhalb der Variablen eingetragen werden sollen. Dabei ist jede Stelle einer Zahl durch ein Kästchen symbolisiert. Fünf vorgedruckte Kästchen, wie beispielsweise bei der Angabe über die Höhe des Werbeaufwandes, bedeuten folglich, dass auch nur vierstel- lige Werte eingetragen werden können. Marketingausgaben im fünfstelligen Bereich sind demnach im Kreditplanspiel der IBM nicht vorgesehen. Ferner ver- rät der formale Aufbau des Entscheidungsblattes, dass die Entscheidungsarten bereits vor Spielbeginn festliegen. Schon bei der Konstruktion des Planspiels bestimmen die Spielentwickler nicht nur darüber, welche Entscheidungsmög- lichkeiten berücksichtigt werden sollen, sondern auch wie die einzelnen Ent- scheidungen geartet sind. Sie legen beispielsweise fest, dass die leitenden An- gestellten in die Vergütungsgruppen 8.000 DM, 12.000 DM oder 16.000 DM untergliedert sind oder drei unterschiedliche Kontengruppen ausgewiesen werden. Die Spielteilnehmer selbst können nur noch über Mengen, meist Geld- beträge, bestimmen. Zudem gilt es zu berücksichtigen, dass die durch das Ent- scheidungsblatt abgefragten Entscheidungen notwendigerweise auch beant- wortet werden müssen. Wie beim Hoechst-Modell auch, handelt es sich um obligatorische Entscheidungen, die durch ihre technische Auswertung mittels Lochkarten und Rechenanlagen jedes Quartal neu getroffen werden müssen. Der Spielleiter hat die Aufgabe, jede einzelne Entscheidung vor der Übernah- me auf Lochkarten auf sachliche Richtigkeit und vor allem auf Vollständigkeit zu kontrollieren (vgl. Stevenson 1966, 14). Dabei ist es prinzipiell möglich, Käst- chen mit einer Null auszufüllen, negative Sollzinssätze oder Personalzahlen können jedoch nicht berücksichtigt werden. Dies wird auch daran deutlich, dass bei drastischen Dispositionsfehlern sogar der Computer streikt und sich nicht in der Lage sieht, ein negatives Kassenguthaben auszudrucken (vgl. Wir- th 1971, 363). Um solch gravierenden Fehlentscheidungen entgegenzuwirken, sieht das Kreditplanspiel Liquiditätsrichtlinien vor. Diese legen fest, dass die laufenden Darlehen das Achtfache der haftenden Eigenmittel nicht überstei- gen dürfen und verpflichten alle Modellinstitute dazu, eine zehnprozentige Mindestreserve in Bar zu halten (vgl. Stevenson 1966, 13; Wirth 1971, 360). Ver- Das Entscheidungsblatt im Unternehmensplanspiel 99 stößt eine Spielgruppe gegen diese Richtlinien, wird sie zunächst von der Spiel- leitung verwarnt. Bei einem erneuten Verstoß verliert sie für ein Quartal ihre Entscheidungsgewalt und die Spielleitung korrigiert die Entscheidungen so, dass die einzelnen Bilanzrelationen nicht mehr mit den Liquiditätsrichtlinien kollidieren (vgl. Stevenson 1966, 14; Wirth 1971, 362). Bereits die Spielregeln unterbinden folglich allzu riskante Entscheidungen und drängen die Teilneh- mer zu einem vorausschauenden, planenden Handeln. Nichtrationales Han- deln wird mit dem Entzug der Entscheidungsgewalt bestraft. Insgesamt wird durch den äußeren Aufbau des Entscheidungsblattes und die, in den Spielregeln vorgesehenen, Liquiditätsrichtlinien deutlich, dass ein gro- ßer Teil der unternehmerischen Entscheidung bereits vorweg, in der Modell- konstruktion, entschieden wird. Ein wesentlicher Schritt des Entscheidungs- prozesses, nämlich die eigentlichen Entscheidungsmöglichkeiten zunächst erst auszumachen und zu sammeln, muss von den Teilnehmern nicht mehr gelei- stet werden. Ein eigenständiges Erkennen von Wahlmöglichkeiten ist im Kre- ditplanspiel gar nicht vorgesehen, sondern vielmehr durch die Spielmateri- alien, vor allem das Entscheidungsblatt, bereits vorweggenommen. Insofern ist der Entscheidungsprozess im Planspiel gegenüber realen wirtschaftlichen Bedingungen stark vereinfacht. Gliedert man den Entscheidungsprozess in An- lehnung an den Begründer des entscheidungstheoretischen Ansatzes der Be- triebswirtschaftslehre, Edmund Heinen (vgl. 1985, 52), in die fünf Phasen: An- regungs-, Such-, Optimierungs-, Realisations- und Kontrollphase, so macht das Entscheidungsblatt sowohl Anregungs- als auch Suchphase des Entschei- dungsprozesses für die Spielgruppen überflüssig. Das Spielszenario ist den Teilnehmern bereits durch die Spielformulare und Spielregeln vorgegeben, so- dass im Verlauf des Spiels weder die unternehmerischen Probleme und Auf- gaben eigenständig erkannt, noch selbstständig nach Handlungsalternativen gesucht werden muss. Die Tatsache, dass das Ausmachen von Gestaltungsmög- lichkeiten im Wesentlichen bereits von den Spielentwicklern vorweg geleistet wurde, kann einerseits als Erleichterung für die Spielteilnehmer verstanden werden, da ihnen ein zentraler Arbeitsschritt bereits abgenommen wurde. Andererseits werden bestimmte Entscheidungsalternativen, die unter realen wirtschaftlichen Bedingungen möglich sind, in das Spielmodell gar nicht erst eingebaut. Man könnte daher auch sagen, dass die Spielteilnehmer gewissen Handlungsalternativen bereits durch die Konzeption des Entscheidungsblattes beraubt werden und ihr Entscheidungsspielraum bedeutend kleiner ausfällt als in der Realität. Neben dem gänzlichen Fehlen der Anregungs- und Suchphase, erweist sich auch die Phase der Optimierung im Entscheidungsprozess des IBM Kreditplan- 100 Kerstin Hoffmann spiels als stark vereinfacht. Vor Spielbeginn wird den Teilnehmern ein Entschei- dungsblatt mit Musterentscheidungen für das erste Quartal bereitgestellt, das, wie alle Entscheidungsbögen der späteren Perioden auch, mithilfe von Lochkarten und einem Datenverarbeitungssystem der IBM ausgewertet wird. Zwar stellen die Musterentscheidungen lediglich für das Planspielszenario ty- pische und nicht unbedingt optimale Entscheidungsmöglichkeiten dar, sie die- nen dennoch als erste Anleitung und erleichtern die eigene Entscheidungsfin- dung (vgl. Stevenson 1966, 12). Ihre Ergebnisse vermitteln zudem einen ersten Eindruck vom Reaktionsgrad des Modells und ein Gefühl für die Konsequenzen der einzelnen Entscheidungsalternativen. Insofern ersetzen die vorgedruckten Spielmaterialien nicht nur die ersten beiden Phasen im Entscheidungsprozess nach Heinen (vgl. 1985, 52), sondern erleichtern auch die Phase der Optimie- rung wesentlich. Die Durchführungs- und Realisationsphase übernimmt im IBM Kreditplanspiel, wie in den meisten anderen Unternehmensplanspielen auch, der Computer. Er setzt die getroffenen Entscheidungen um und ermittelt innerhalb weniger Mi- nuten¯5 das entsprechende Ergebnis. Dass unter Umständen Mitarbeiter auf mittleren und unteren Ebenen die Entscheidungen der Führungsebene nicht oder anders als verlangt umsetzen, wird im ökonomischen Planspiel nicht be- rücksichtigt. Der Prozess hin zu einer Entscheidung bedeutet jedoch noch lan- ge nicht, dass die gefällte Entscheidung am Ende im Unternehmen auch durch- gesetzt wird. In der Realität ist die Ausführung und Durchsetzung getroffener Entscheidungen daher ein wichtiger Bestandteil der unternehmerischen Füh- rungsaufgabe, die im wirtschaftlichen Planspiel nicht gewürdigt wird. Die Durchsetzungsphase ist im Unternehmensplanspiel festes Element des Mo- dells: „Eine formulierte Entscheidung ist nicht mehr beeinflussbar, ihre Durch- führung erfolgt zwangsläufig und mit Sicherheit“ (Der Volkswirt v. 21.02.1969, 31). Demgegenüber erfährt die letzte Phase des Entscheidungsprozesses nach dem Gliederungsentwurf von Heinen (vgl. 1985, 52) wiederum umfangreiche Berücksichtigung im Kreditplanspiel. In einer abschließenden »Manöverkritik« (Wirth 1971, 362), müssen sich alle Spielgruppen der kritischen Analyse ihrer Entscheidungen und der daraus hervorgegangenen Ergebnisse durch die Spiel- leitung stellen und nicht nur etwaige Verstöße gegen die Liquiditätsrichtli- nien, sondern auch das Gruppenergebnis verteidigen. Eine Kontrolle und ein debriefing des Entscheidungsprozesses finden also durchaus statt, wobei der Spielleitung eine zentrale Rolle zukommt. Das Entscheidungsblatt im Unternehmensplanspiel 101 Inhaltliche Betrachtung des IBM-Entscheidungsblattes Auch die inhaltlichen Entscheidungen sind im branchenspezifischen Kredit- planspiel der IBM ganz anderer Natur als im firmeneigenen Planspiel der Ho- echst AG. Dies wird vor allem daran deutlich, dass sich die Spielentwickler der IBM bei der Konstruktion ihres Modells primär bemühten, die Bedeutung der Personalverwaltung zu betonen. Ein Punkt, der im Planspiel der Hoechst AG weitgehend unberücksichtigt bleibt. Auf dem Entscheidungsblatt des Kredit- planspiels wird daher der Frage nach Personaleinsatz und -verteilung beson- ders viel Raum zugestanden (vgl. Abb. 2). So fallen allein neun der 23 Einzel- entscheidungen in diesem Bereich an. In einem ersten Schritt entscheiden die Spielteilnehmer über die Zahl der leitenden Angestellten in den drei Tantie- mengruppen 8.000 DM, 12.000 DM und 16.000 DM. Dabei ist die Gruppierung fest vorgegeben und auch von der Spielleitung im Spielverlauf nicht verän- derbar. Die Teilnehmer sind daher gezwungen, ihr Personal jedes Quartal neu in die drei vorgegebenen Gewinnbeteiligungsgruppen einzuteilen. Fernerhin steht den Spielteilnehmern für ihre Entscheidungen jeweils nur ein Kästchen zur Verfügung, sodass jede Tantiemengruppe mit maximal neun leitenden An- gestellten besetzt werden kann. Nachdem die Frage des Personaleinsatzes ge- klärt ist, müssen die Spielteilnehmer in einem zweiten Schritt die Arbeitskraft ihrer leitenden Angestellten auf die zentralen Bereiche der Kontenpflege und des Neugeschäfts in den drei Kontengruppen A, B und C verteilen. Aufgrund der Vorgabe des Entscheidungsblattes, die Zahl der leitenden Angestellten auf höchstens 27¯6 zu begrenzen, wird bereits deutlich, dass nicht alle Bereiche des Kreditgeschäfts gleichermaßen mit leitendem Personal abgedeckt werden können. Bereits zu Spielbeginn müssen sich die Teilnehmer in den einzelnen Spielgruppen auf eine geeignete Strategie einigen und sich hinsichtlich eines gesteckten Unternehmensziels beispielsweise auf die Förderung einer einzel- nen der vielen möglichen Geschäftssparten konzentrieren. So ist es unter ande- rem möglich, den Großteil des Personals auf das Neugeschäft mit Großkunden (Kontengruppe A) zu konzentrieren und für mittlere und größere Privatkunden (Kontengruppe B) sowie kleinere Betriebe und Privatkunden (Gruppe C) nur noch die Kontenpflege anzubieten. Ganz gleich für welche Unternehmenspo- litik sich die einzelnen Spielgruppen entscheiden, so wird doch deutlich, dass bereits der Aufbau des Entscheidungsblattes die strategische Verteilung des Personals verlangt und die Zahl der vorgegebenen Kästchen die Personalzahlen so einschränken, dass nicht alle Kontengruppen in den Bereichen Neugeschäft und Kontenpflege gleichermaßen bedient werden können. Von Spielbeginn an zwingt folglich die formale Struktur des Entscheidungsblattes die Teilnehmer zu strategischen Entscheidungen. 102 Kerstin Hoffmann Neben Einsatz und Verteilung des Personals entscheiden die Spielteilnehmer über die Konditionen der drei verschiedenen Kontengruppen, indem sie die Höhe des Sollzinssatzes und die Kontoführungsgebühren pro 100 DM Einlagen bestimmen. Auffällig ist gegenüber dem sehr übersichtlich gestalteten Ent- scheidungsblatt des Hoechster Modells, dass das Formular des Kreditplanspiels weitestgehend ohne Maßangaben und Maßeinheiten auskommt. So wird bei- spielsweise nicht explizit aufgeführt, dass die Kontoführungsgebühren pro 100 DM angegeben werden. Auch beim Sollzinssatz fehlt das Prozentzeichen. Lediglich ein angedeutetes Dreieck zwischen dem ersten und dem zweiten Kästchen verrät den Spielteilnehmern, dass hier ein Dezimaltrennzeichen vor- gesehen ist und der Sollzinssatz in Prozent mit bis zu drei Nachkommastellen angegeben wird. Im weiteren Verlauf des Entscheidungsblattes entscheiden die Spielteilnehmer über die Höhe der Werbeaufwendungen in den Sparten »Spareinlagen«, »Dar- lehen« und »Konsumentenkredite«, die sich durch die Vorgabe der Kästchen höchstens im fünfstelligen Bereich bewegen dürfen. Wie schon beim Planspiel der Hoechst AG fällt auf, dass die Teilnehmer lediglich über die tatsächliche Höhe der finanziellen Mittel entscheiden können, die für Werbung aufgewandt werden sollen, nicht jedoch über die Art der Werbemaßnahmen an sich. Hier wird deutlich, dass lediglich ein positiver Zusammenhang zwischen der Höhe der Werbeaufwendungen und der Zahl der vergebenen Darlehen oder Kredite angenommen wird. Dass die Höhe der finanziellen Aufwendungen allein noch lange nichts über die Effektivität der Werbung aussagt, sondern maßgeblich auch die Form der Maßnahmen und das verwendete Medium eine Rolle spielen, wird im Kreditplanspiel der IBM nicht berücksichtigt. Die Entwicklung der Spareinlagen, Darlehen und Konsumentenkredite wird jedoch nicht nur durch den Werbeaufwand, sondern auch durch den jewei- ligen Zinssatz bestimmt. Während die Spielteilnehmer die Zinsen für Darlehen und Kredite frei bestimmen können, unterliegt der Zinssatz für Spareinlagen volkswirtschaftlichen Schwankungen und kann von den einzelnen Spielgrup- pen nicht verändert werden (vgl. Stevenson 1966, 12). Wie bei anderen volks- wirtschaftlichen Daten auch, etwa dem Bruttosozialprodukt oder dem Preisin- dex ist der Verlauf der Zinsschwankungen im Kreditmodell der IBM bereits vor Spielbeginn festgelegt. Der Konjunkturverlauf wird weder von den Entschei- dungen der Spielteilnehmer berührt, noch kann er durch die Spielleitung im Spielverlauf verändert werden. Da die wirtschaftliche Entwicklung den Spiel- teilnehmern während des gesamten Spielszenarios jedoch unbekannt bleibt, stellt sie eine gewisse Unsicherheitskomponente im Entscheidungsprozess dar. Unter Zuhilfenahme der bereitgestellten Konjunkturinformationen zu den zu- Das Entscheidungsblatt im Unternehmensplanspiel 103 rückliegenden Spielquartalen und rechnerischen Zufallszahlen, lässt sich aller- dings auch diese letzte Ungewissheit im Kreditplanspiel der IBM ausschalten und die zukünftige Wirtschaftslage optimieren. Vor diesem Hintergrund wird deutlich, dass auch der Entscheidungsprozess im branchenspezifischen Planspiel der IBM nur schwer mit dem Entscheiden un- ter realen wirtschaftlichen Bedingungen vergleichbar ist. Die Spielmaterialien, allen voran das Entscheidungsblatt, nehmen eine ganze Reihe von Entschei- dungen bereits vorweg und stellen insofern ein Medium der Entscheidungser- leichterung dar. Nicht zuletzt da sie die notwendigen Entscheidungsvariablen übersichtlich bündeln und so einen Einblick in die Entscheidungsmöglichkeiten gewähren. Vorgegebene Lücken und Kästchen zeigen zudem auf, in welcher Größenordnung die einzutragenden Werte liegen. Die mithin größte Entschei- dungserleichterung wird im IBM Kreditplanspiel jedoch durch das Durchexer- zieren von Musterentscheidungen im ersten Spielquartal erreicht. So vermit- teln die Ergebnisse dieser Beispielentscheidungen bereits vor dem eigentlichen Spielbeginn ein Gefühl für den Aufbau des Modells und die Auswirkungen der einzelnen Entscheidungen. Andererseits ist jedoch nicht zu vernachlässigen, dass der Entscheidungsbogen durch seinen äußeren Aufbau auch einen Ent- scheidungsrahmen darstellt, der die Entscheidungsfreiheit der Spielteilneh- mer stark einschränkt. So können eben auch nur noch solche Entscheidungen getroffen werden, die in den vorgesehenen Kästchen der vorgedruckten For- mulare Platz finden. Entscheidungen die sich nicht quantifizieren lassen, kön- nen nicht berücksichtigt werden. Die Entscheidungsarten stehen bereits vor Spielbeginn fest und umfassen im IBM Kreditplanspiel dann nur noch reine Mengenangaben, Prozentzahlen oder Geldbeträge. Fazit Im fiktiven Entscheidungsprozess wirtschaftlicher Planspiele kommt dem Ent- scheidungsblatt eine bedeutende Rolle zu. Es hilft beim Erkennen der zentralen Entscheidungsvariablen und sein äußerer Aufbau in Form von vorgegebenen Kästchen und Maßeinheiten vermittelt einen ersten Eindruck über die Größen- ordnungen der abgefragten Variablen. Durch zusätzliche Spielmaterialien, wie etwa Ergebnisberichte und Bilanzen bekommen die Spielteilnehmer zudem ein Gefühl dafür, wie das Spielmodel aufgebaut ist und wie sich die einzelnen Ent- scheidungsvariablen zueinander verhalten. In dieser Hinsicht stellt das Ent- scheidungsblatt in erster Linie ein Medium zur Entscheidungserleichterung dar, das das Auffinden einer geeigneten Entscheidung ermöglicht. Gleichsam 104 Kerstin Hoffmann fungiert das Entscheidungsblatt jedoch auch als Entscheidungsrahmen, der die Entscheidungsfreiheit der Spielteilnehmer wesentlich begrenzt. Die durch vor- gedruckte Formulare abgefragten Entscheidungen müssen notwendigerweise getroffen, die Lücken des Entscheidungsblattes ausgefüllt werden. Und zwar auf die Art und Weise wie es der äußere Aufbau des formalen Bogens vorgibt. Die Entscheidungsarten stehen durch die Vorgaben des Entscheidungsblattes bereits fest, sodass die Spielteilnehmer nur noch über Mengen, meist Stück- zahlen oder Geldbeträge bestimmen können, die durch die Anzahl der Käst- chen zudem noch in ihrer Höhe begrenzt sind. Auch inhaltlich werden der Ent- scheidungsfreiheit der Spielteilnehmer durch die auf dem Entscheidungsblatt erfassten Entscheidungen Grenzen gesetzt. So ist sowohl im Hoechster Mo- dell als auch im IBM-Kreditplanspiel zwar eine Entscheidung über die schiere Höhe der Marketingaufwendungen vorgesehen, die Wahl des entsprechenden Werbemittels ist jedoch nicht berücksichtigt. Im Planspiel der Hoechst AG kön- nen die Spielteilnehmer zwar über die Höhe des Forschungsaufwandes ent- scheiden, nicht jedoch verordnen, dass die Investitionen der Erforschung eines neuen Produktes zu Gute kommen. Der kreative Teil unternehmerischer Ent- scheidungen wird in Unternehmensplanspielen folglich kaum berücksichtigt, was sicherlich auch darauf zurückzuführen ist, dass der schöpferische Akt der Produktentwicklung eine Vielzahl an Entscheidungen beinhaltet, die sich nur schwer in Zahlen und Formeln ausdrücken lässt und daher durch vorgefertigte Kästchen auf Entscheidungsblättern kaum abgefragt werden kann. Im forma- len Rahmen von Unternehmensplanspielen lässt sich nur abbilden, was quan- tifizierbar ist. Qualitativ bedeutende Dinge werden häufig zu Gunsten eines rechenbaren Modells vernachlässigt (vgl. Witte 1965, 2849; Koller 1965, 2805). Generell wird durch die Analyse des Entscheidungsblattes deutlich, dass ein großer Teil der unternehmerischen Entscheidungen bereits vorweg, nämlich in der Modellkonstruktion entschieden wird. Die Planspielentwickler entschei- den maßgeblich über die, im Spielmodell berücksichtigten, Handlungsalterna- tiven und die Art und Weise wie sich die Teilnehmerentscheidungen am Ende auswirken. Während das Suchen und Erkennen von möglichen Handlungsal- ternativen unter realwirtschaftlichen Bedingungen einen bedeutenden Schritt im Entscheidungsprozess ausmacht, wird es im Entscheidungstraining des öko- nomischen Planspiels nicht berücksichtigt. Die Durchsetzung der getroffenen Entscheidungen ist im Unternehmensplanspiel zudem fester Bestandteil des Modells und wird ausschließlich vom Computer übernommen. Angesichts der Feststellung, dass weite Teile des Entscheidungsprozesses gar nicht oder nur stark verkürzt berücksichtigt werden, gerät die eigentliche Funktion des öko- nomischen Planspiels im Unternehmen, nämlich Führungskräfte im Treffen Das Entscheidungsblatt im Unternehmensplanspiel 105 unternehmerischer Entscheidungen zu trainieren, ins Wanken. Es stellt sich die Frage, ob schablonenhafte Spielmaterialien wie das Entscheidungsblatt das Finden einer Entscheidung nicht nur erleichtern, sondern darüber hinaus den Prozess hin zu einer Entscheidung so stark vereinfachen, dass nicht mehr vom Trainieren einer unternehmerischen Entscheidung gesprochen werden kann, sondern vom »Ziehen logischer Schlüsse« (von Foerster 1993, 73). Der Kybernetiker Heinz von Foerster definiert Entscheidung mit der äußerst paradox erscheinenden Formulierung »Nur die Fragen, die im Prinzip unent- scheidbar sind, können wir entscheiden« (von Foerster 1993, 73). Das »wir« setzt Foerster dabei bewusst kursiv um deutlich zu machen, dass die Mehrzahl der Fragen, über die wir glauben entscheiden zu können, bereits durch Regelsy- steme vorentschieden werden. Die eigentlichen Entscheidungen seien durch die Wahl des Rahmens, in dem sie gestellt werden und durch die Wahl der Re- geln, die ihnen zugrunde liegen, bereits entschieden. Nach diesem Verständ- nis von Entscheidung sind die Entscheidungskriterien bereits vorgegeben und es bedarf lediglich eines logischen Schlusses des Handelnden. Die Analyse des Entscheidungsblattes rechtfertigt die Annahme, dass auch im Planspiel eine Tendenz aufscheint, in der Entscheidungen in Form eines ›one best way‹ zu lo- gischen Schlüssen degradiert werden. Die Spielteilnehmer treffen keine eigen- verantwortlichen, individuellen Entscheidungen, sondern wählen zwischen vorgegebenen Entscheidungsalternativen aus. In Anbetracht dieser deutlichen Entscheidungsrahmung und der Komplexi- tätsreduktion gegenüber der wirtschaftlichen Realität bleibt jedoch zu fragen, welchen Mehrwehrt Unternehmensplanspiele mit sich bringen. Denn trotz all der angeführten Einschränkungen galten bereits die frühen ökonomischen Planspiele als eine äußerst aktive Lehrmethode, der es wie keiner anderen Aus- und Weiterbildungsmethode gelänge, sich des Entscheidens selbst zu verge- genwärtigen (vgl. Albach/v. Colbe/Vaubel 1974). Gerade die Debriefing-Phase, die den Spielteilnehmern gegen Ende eines jeden Spieldurchgangs noch ein- mal die Möglichkeit bietet, sich den getroffenen Entscheidungen und ihren Auswirkungen auf das eigene Unternehmen bewusst zu werden und auf die- se Weise aus Fehlentscheidungen für die Zukunft zu lernen, unterstreicht die pädagogische Zielsetzung des Planspiels. Als weitere positive Effekt des Unter- nehmensplanspiels wurde zudem erachtet, dass es die Möglichkeit bietet, die zukünftigen Führungskräfte in Aktion zu sehen, wie sie als Team oder als Ein- zelkämpfer um eine Entscheidung ringen. Im Versuch, der Logik des Spiels auf die Spur zu kommen und der Art und Weise wie sich die einzelnen Spieler ge- genüber ihren Mitstreitern, seien es Konkurrenten oder Partner, zu profilieren suchen, sollten sich Charakterzüge und Führungsqualitäten der angehenden 106 Kerstin Hoffmann Manager besonders gut erkennen lassen. So ist es auch nicht weiter verwun- derlich, dass nach eigener Aussage des früheren obersten Managers der Royal Dutch/Shell-Gruppe, De Geus, im Mineralölunternehmen niemand eine Füh- rungsposition einnehmen könne, der sich nicht zuvor in Planspielen bewährt hätte (vgl. 1997, 73f.). Obwohl Unternehmensplanspiele Entscheidungsräume beschneiden, Komplexität reduzieren und ein Stück weit auch Realitäten ver- fehlen, bringen sie doch spezifische Qualitäten der Spielenden zum Vorschein. Berücksichtigt man fernerhin die Vorstellungen und Theorien der Planspiel- entwickler, wird deutlich, dass die untersuchten Planspielmodelle aus einer Zeit stammen, in der eine exakte und fehlerfreie Steuerung von Organisati- onen noch immer als erreichbares Desiderat verstanden wurde – ein offen- sichtliches Erbe tayloristischer Maximen des ausgehenden 19. Jahrhunderts. (vgl. Taylor 1911). Die mit der Computerisierung einhergehende Möglichkeit der völligen Berechenbarkeit befeuerte diesen Glauben an die perfekte Planbar- keit zusätzlich. In den frühen Unternehmensplanspielen kommt zudem die, in der klassischen Theorie verwendete, Vorstellung des Entscheidenden als ›homo oeconomicus‹, der unter vollständiger Information und unter der Prämisse der Gewinnmaximierung äußerst rational handelt, zur Anwendung (vgl. Bleicher 1974, 5). Vor diesem Hintergrund erscheint es folgerichtig, das Hauptaugen- merk der unternehmerischen Entscheidung im ökonomischen Planspiel auf die Optimierungsphase im Entscheidungsprozess zu richten. Das Unternehmens- planspiel trainiert demnach sehr wohl die unternehmerische Entscheidungs- findung seiner Zeit. Anmerkungen 01˘ Die Entwicklung von Unternehmensplanspielen setzte etwa um 1955/56 in den USA ein (vgl. Stevenson 1966, 10) Das erste spezifische Unternehmensplanspiel wurde 1956 durch die American Management Association (AMA) in New York unter dem Titel »Top Management Decision Simulation« entwickelt. Anfang der 1960er Jahre wurde die Managementmethode des ökonomischen Planspiels in den deutschsprachigen Raum importiert. Diese frühe Phase der Installierung von Unternehmensplanspielen bis Mitte der 1970er Jahre zeichnet sich vor allem durch einen rapiden Zuwachs an Planspielmodellen aus. 02˘ Der Begriff ›Medium‹ wird im Folgenden als Werkzeug verstanden, wonach das Entscheidungsblatt als Hilfe und Erleichterung im unternehmerischen Entscheidungs- Das Entscheidungsblatt im Unternehmensplanspiel 107 prozess fungieren kann. ›Rahmung‹ hingegen wird begrenzend verstanden, sodass die Entscheidungsfreiheit stark eingeschränkt wird. 03˘ Dieser Faktor ist nicht zu unterschätzen, schließlich sind die 1950er Jahre durch eine große Skepsis gegenüber den tatsächlichen Verwendungsmöglichkeiten von teuer und aufwen- dig installierten Großrechenanlagen in Unternehmen geprägt. Die monatliche Miete für Großgeräte der IBM liegt 1959 bei 300.000 DM, der Kaufpreis schwankt zwischen zwei und sechs Millionen DM (vgl. Petzold 1985, 427). 04˘ Diese hohe Zahl an Periodenentscheidungen im äußerst komplexen Carnegie Tech Management Game wird erst dadurch möglich, dass sich eine Entscheidungsrunde über ei- nen ganzen Monat hinweg erstreckt. 05˘ Die Auswertung der Entscheidungen erfolgt im IBM Unternehmensplanspiel für Kreditinstitute mit Hilfe eines Datenverarbeitungssystems der IBM vom Typ 1401 mit 8000 Kernspeicherstellen und drei Magnetbändern. Je nach Anzahl der Spielgruppen erfordert die Auswertung zwischen fünf und fünfzehn Minuten (vgl. Stevenson 1966, 14). 06˘ Pro Tantiemengruppe sieht das Entscheidungsblatt nur ein Kästchen vor, in das folglich jeweils nur einstellige Werte eingetragen werden können. Den Modellunternehmen stehen also höchstens neun leitende Angestellte in jeder der drei Gewinnbeteiligungsgruppen zur Verfügung, was einer Höchstzahl von 27 Angestellten entspricht (vgl. Abb. 2). Literatur Albach, Horst / von Colbe, Walther Busse / Vaubel, Ludwig (1974): Gegenwarts- fragen der beruflichen Aus- und Weiterbildung. USW-Schriften für Führungskräfte, Band 7, 1974. Arbeitskreis Gamer (1963) Unternehmungsspiele und ihre Bedeutung für die betriebs- wirtschaftliche Ausbildung an Hochschulen. In: Zeitschrift für handelswissenschaftliche For- schung 15,4, S.149-190. Bleicher, Knut (1974) Entscheidungsprozesse an Unternehmungsspielen. Die Darstellung von Unternehmungspolitik und -planung an Idealmodellen (3. Aufl.) . Baden-Baden/Bad Hom- burg v.d.H.: Gehlen. Cohen, K.J / Cyert, R.M. / Dill, W.R. / Kuehn, A.A. / Miller, M.H. / Van Wormer, T.A. / Winter, P.A. (1960) The Carnegie Tech Management Game, in: The Journal of Busi- ness 33,4, S.303-321. De Geus, Arie (1997) The Living Company. Der Spiegel (v. 25.07.1962) Manager Training. Planspiel für Unternehmer, Nr. 30. Der Volkswirt (v. 21.02.1969) Führungsnachwuchs. Manager beim Spiel. Wirksames Ent- scheidungstraining am Computer, Nr.18. 108 Kerstin Hoffmann Drenkard, Franz Josef / Moka, Horst (1974) Ausbildung mit Unternehmensspielen in der betrieblichen Praxis. In: Reinhard Faßhauer / Wulf Wurzbacher (Hg.): Unternehmensspiele – Stand und Entwicklungstendenzen. Stuttgart: IBM Deutschland GmbH, S. 21-28. Heinen, Edmund (1985) Einführung in die Betriebswirtschaftslehre (9. Aufl.) . Wiesbaden: Springer Gabler. Hartl-Prager, Helmut (1972) Unternehmensplanspiele in Theorie und Praxis. Graz: Re- chenzentrum Graz. Koller, Horst (1965) Das neue IBM Unternehmungsspiel TOPIC 1. In: IBM-Nachrichten Jg. 15, S. 2803-2820. Petzold, Hartmut (1985) Rechnende Maschinen. Eine historische Untersuchung ihrer Her- stellung und Anwendung vom Kaiserreich bis zur Bundesrepublik. Düsseldorf: VDI. Stevenson, Horst (1966) IBM-Unternehmensspiel für Kreditinstitute. In: IBM-Nachrichten Jg. 16, S.10-16. Taylor, Frederick Winslow (1911) The Principles of Scientific Management. New York/Lon- don: Harper & Brothers. von Foerster, Heinz (1993) KybernEthik. Berlin: Merve. Witte, Eberhard (1965) Lehre und Spiel. In: IBM Nachrichten Jg. 15, S.2848-2851. Wirth, Roland (1971) Erfahrungen mit dem Unternehmensspiel für Kreditinstitute. Ein Rückblick auf ca. 100 bisher durchgeführte Planspiele. In: Bank-Betrieb H. 10, S.359-363. Quellen Hoechst GmbH, Firmenarchiv, (D-65926 Frankfurt am Main): H0028191: Management-Planspiel/Modell 2: Information für die Teilnehmer Das Entscheidungsblatt im Unternehmensplanspiel 109 110 Florian Muhle / Josef Wehner Algorithmus und Entscheidung. Anspruch und Empirie personalisierter Medienangebote im Internet Die Verbreitung von Computerprogrammen in nahezu alle privaten und be- ruflichen Bereiche wird in vielen Kommentaren mit der These verbunden, dass Menschen immer weniger, Algorithmen dafür umso mehr Entscheidungsbe- fugnisse übernehmen und Entscheidungen treffen. Mit dieser Erwartung einer Delegierbarkeit menschlicher Kernkompetenzen an die Technik eng verbunden ist die Idee, dass Algorithmen im Vergleich zum Menschen Entscheidungen an- ders, um nicht zu sagen: besser und meist auch ›rationaler‹ treffen können (vgl. Rademacher 2015). Diese Idee ist nicht neu, sie begleitet die Computerentwick- lung bereits seit ihrem Beginn – wie etwa die Debatten zur Informationsgesell- schaft in den 1970er Jahren oder zur Künstlichen Intelligenz in den 1990er Jah- ren zeigen. Heute scheint sie sich geradezu aufzudrängen, wie etwa in jenen Diskussionen über die ›Macht der Algorithmen‹ in Bereichen der globalen Bör- sen, sicherheitsrelevanten und geheimdienstlichen Zusammenhängen oder in den Bereichen des Online-Konsums. Demnach werden heute Entscheidungen, Wertpapiere zu (ver-)kaufen, Personen als (un-)verdächtig einzustufen oder Produkte online zu bestellen mit steigender Tendenz von Computerprogram- men unterstützt oder von diesen sogar ganz ohne menschliches Dazutun ge- troffen (vgl. die Beiträge in Reichert 2014). Eng verbunden mit dieser Vorstellung, Computerprogramme würden bereits heute und in naher Zukunft in immer größerem Umfang den Menschen Ent- scheidungen abnehmen, ist die Erwartung, dass solche Entscheidungen nicht gegen, wie häufig befürchtet wird, sondern im Interesse von einzelnen Per- sonen getroffen werden. Diese Erwartung verbindet sich vor allem mit den rasant wachsenden Möglichkeiten des Online-Konsums. Wer im Netz et- was bestellen will, soll nur noch solche Angebote finden, die seinen persön- lichen Interessen und Gewohnheiten entsprechen. Die Entscheidungen darü- ber, ob etwas unserem Geschmack entspricht oder nicht, treffen dabei immer häufiger sogenannte ›Empfehlungs-Algorithmen‹. Dabei handelt es sich um Computerprogramme, die vorgängig unsere Aktivitäten auf entsprechenden Plattformen erfassen, auswerten und vergleichen, um auf dieser Grundlage Algorithmus und Entscheidung 111 ›wahrscheinliche‹ Produktvorlieben zu berechnen und dann entsprechende persönliche Konsumvorschläge zu machen. In unserem Beitrag möchten wir am Beispiel von Online-Musikanbietern An- spruch und Empirie solcher algorithmengesteuerten persönlichen Empfeh- lungen etwas genauer untersuchen. Dazu werden wir eine Fallstudie zu einem Anbieter vorstellen, der seinen HörerInnen verspricht, dass sie sich dank eines Algorithmus nicht länger mit (massenmedial verbreiteter) ›Konfektionsware‹ zufrieden geben müssen, sondern zum einen nur noch das hören, was ihren persönlichen musikalischen Neigungen entspricht, und zum anderen auf die- sen Neigungen beruhend neue Musik entdecken können. Die Erwartung, dass Computerprogramme nicht nur entscheiden können, sondern dies außerdem auch noch im Sinne persönlicher Interessen und Gewohnheiten tun, gelangt hier also in der Delegation von Musikempfehlungen an einen Algorithmus zum Ausdruck. Bevor wir auf diesen Fall eingehen, werden wir in einem ersten Schritt zu- nächst den Versuch der Personalisierung der Medienkommunikation medien- soziologisch einordnen. Dazu werden wir darlegen, welche Versprechen für Medienanbieter, UserInnen und ›Interessierte Dritte‹ mit der Implementation von Algorithmen zur Publikumsbeobachtung und Angebotssteuerung verbun- den sind, um auf diese Weise den Hintergrund für die Untersuchung zu berei- ten und deren Relevanz zu verdeutlichen (1). Daran anschließend werden wir am Beispiel des Online-Musikanbieters das Personalisierungsversprechen auf der Grundlage empirischer Daten problematisieren. Hierbei wollen wir zeigen, dass und wie der ›im Betrieb befindliche‹ Algorithmus den an ihn gestellten Ansprüchen immer nur annäherungsweise oder auch gar nicht gerecht wird. Es soll deutlich werden, wie einerseits im Zuge der Entwicklungsarbeiten Ent- scheidungskompetenzen an den Algorithmus delegiert werden, andererseits jedoch damit immer wieder auch neue Interpretations- und Koordinationsbe- darfe und zusätzliche Entscheidungszumutungen erzeugt werden. Entgegen der Vision einer sich immer weiter verselbständigenden Entscheidungsfindung erfordert der Algorithmus komplementäre, von ihm selbst nicht adaptierbare entscheidungsabhängige Vorgaben, ohne die er nicht arbeiten und funktionie- ren würde (2). So gesehen bilden Algorithmen immer auch den Gegenstand von Aus- und Verhandlungen, die allerdings ihrerseits Vorgaben durch das jeweils erreichte Niveau algorithmisierter Entscheidungsabläufe gesetzt bekommen. An unserem Fallbeispiel wird dies besonders deutlich, insofern als hier die On- line-Plattform mit ihren Sortier-, Filter- und Empfehlungsmöglichkeiten zwar einerseits immer größere Datenmengen verarbeiten und differenziertere Aus- wertungen vornehmen kann, jedoch immer wieder auch neu zu lösende Pro- 112 Florian Muhle / Josef Wehner bleme erzeugt. Wir gehen davon aus, dass dieses Dilemma nicht zufällig, son- dern typisch für die Entwicklung und Anwendung von Algorithmen ist, die der Beobachtung und Analyse von Nutzeraktivitäten dienen (3). Personalisierung der Medienkommunikation aus medien- soziologischer Perspektive Einmal abgesehen von der individuellen Kommunikation wie sie per Telefon, Chat oder Email erfolgt, ist Medienkommunikation traditionell generalisierte Kommunikation (vgl. Esposito 1995). Dies klingt deutlich in den Begriffen der ›Massenkommunikation‹ oder des englischen ›Broadcasting‹ an. Medienkom- munikation ist Kommunikation, die in die Breite geht und ihr heterogenes Pu- blikum mit einem identischen Angebot versorgt. Zugleich bedeutet dies, dass Massenkommunikation eine Kommunikation im ›Blindflug‹ ist, die keinen di- rekten Kontakt zu ihren AdressatInnen hat. Deshalb wissen Medienanbieter nur wenig über ihr Publikum und dessen Vorlieben und Gewohnheiten. Ent- scheidungen darüber, welche Sendungen ausgestrahlt werden sollen oder wel- che Werbung zu welchem Zeitpunkt auf welchem Sender geschaltet werden soll, sind entsprechend stets Entscheidungen unter Bedingungen großer Un- sicherheit. Genau aus diesem Grund hat sich parallel bereits mit der Etablierung des Rund- funks die ›administrative‹ bzw. angewandte Publikumsforschung herausgebil- det, die heute fester Bestandteil des Mediensystems ist, was sich nicht zuletzt daran zeigt, dass die ›Quote‹ als Währung von Funk und Fernsehen gilt (vgl. Schenk 2007). Das Publikum wird in der Regel in nach Merkmalen wie Alter, Ge- schlecht, Haushaltsstand oder Bildung klassifizier- und vermessbare Zielgrup- pen eingeteilt und es interessiert vornehmlich, wie lange ZuschauerInnen vor dem Bildschirm verharren oder HörerInnen das Radio eingeschaltet lassen, und welche Programme und Sendungen sie dabei sehen bzw. hören. Als Individuen mit persönlichen Vorlieben kommen sie hingegen kaum in Betracht (vgl. Weh- ner 2010, 10ff.). Die Quote mit ihren Hinweisen auf statistisch ermittelte Reich- weiten der verschiedenen Programmangebote erzeugt ebenso wie zusätzlich in Auftrag gegebene Umfragen deshalb zwar nur ein indirektes und notwen- dig grobes Bild vom Publikum, aber dieses scheint die beteiligten Medien aus- reichend zu informieren und eine Steuerung des Angebotes zu ermöglichen (vgl. Ang 2001). Vor diesem Hintergrund versprechen algorithmengesteuerte Internettech- nologien eine Veränderung und ›Verbesserung‹ der Medienkommunikation. Algorithmus und Entscheidung 113 Sie sollen die Online-Aktivitäten von UserInnen automatisch erfassen, spei- chern und auswerten und daraus personalisierte Profile erstellen, die es erlau- ben, das (Medien-)Angebot an individuelle Gewohnheiten anzupassen und auf diese Weise zu optimieren.¯1 Jeder Klick, jeder Besuch einer Plattform, jeder Kaufakt soll genutzt werden, um persönliche Aktivitätsmuster von Internet- nutzerInnen zu erkennen, von diesen auf Vorlieben und Geschmäcker zu schlie- ßen und dann darauf ausgerichtete personalisierte Angebote zu unterbreiten (vgl. schon früh hierzu Esposito 1995, 247). Auf diese Weise sollen solche Emp- fehlungen, die den persönlichen Geschmack der UserInnen nicht treffen, nach und nach aus dem Angebot verschwinden, während diejenigen, die positiv auf- genommen werden, expandieren (vgl. Wehner 2008, 206). Einfache Beispiele hierfür sind Recommender-Systeme, wie sie sich beim On- line-Händler Amazon finden. Hier werden ehemalige Kaufentscheidungen ge- speichert und mit Kaufentscheidungen anderer NutzerInnen verglichen, um auf diese Weise angepasste Verkaufsvorschläge unterbreiten zu können, die dann etwa Produkte empfehlen, »weil Sie [XYZ] gekauft haben« oder mittei- len, »Kunden, die diesen Artikel gekauft haben, kauften auch [XYZ]«. Die Tech- nologie, hier der Empfehlungsalgorithmus, trifft somit Entscheidungen darü- ber, welche Produkte den jeweiligen KundInnen angeboten werden, und diese Entscheidungen unterscheiden sich abhängig davon, wer gerade kauft und was er oder sie (aber auch andere) zuvor gekauft haben. Entsprechend handelt es »sich dabei um einen Mechanismus, der Popularität als Zeichen von Affinität nutzt« (Esposito 2014, 241) und aus der Analyse bereits erfolgter Kaufentschei- dungen Prognosen über zukünftige Entscheidungen ableitet. Während also Kaufempfehlungen im Fernsehen für alle RezipientInnen gleich sind, wird mit den Möglichkeiten der Online-Verdatung die Erwartung verbun- den, die Gewohnheiten und Interessen einzelner Kunden oder Gruppen von Kunden immer besser kennenzulernen und bedienen zu können. Das Ziel ist dabei letztlich eine »Massenwerbung ohne Streuverlust« (Greve/Hopf/Bauer 2011, 8) verbreiten zu können. Ähnlich wie der hier skizzierte Bereich des Kon- sums sollen auch andere Formen der personalisierten Medienkommunikation funktionieren, die sich deutlich in Konkurrenz zur traditionellen Massenkom- munikation positionieren. Ein aktuell viel diskutiertes Beispiel hierfür ist der Video-Streamingdienst Netf lix, der seinen NutzerInnen Filme und Serien an- bietet und hierfür ebenfalls einen Empfehlungsalgorithmus nutzt, der regis- triert, welche Filme und Serien geschaut und gemocht werden und auf dieser Basis und unter Einbeziehung der Nutzungsweisen anderer UserInnen – an- geblich sehr erfolgreich – Vorschläge für neue Filme und Serien unterbreitet.¯2 114 Florian Muhle / Josef Wehner Durch die Verwendung entsprechender Algorithmen erhoffen sich die Betrei- ber der Plattformen neues und vor allem präziseres Wissen über ihr Publikum, welches sie dazu verwenden können, die Angebote genauer an die unterschied- lichen Gewohnheiten und Vorlieben ihres Publikums anzupassen. Für die Nut- zerInnen soll damit der Vorteil einhergehen, ein auf ihre Gewohnheiten abge- stimmtes personalisiertes Medienangebot zu erhalten, indem der Algorithmus entscheidet, welche Produkte zu ihnen ›passen‹. Schließlich soll das durch den Algorithmus erzeugte Wissen über die UserInnen und ihre Vorlieben auch in- teressierten Dritten – etwa der Werbeindustrie – helfen, zu besseren Entschei- dungen in Fragen der Investition oder der Platzierung von Werbung zu kom- men. Anbieter, NutzerInnen und interessierte Dritte sollen also gleichermaßen von der durch Algorithmen ermöglichten Personalisierung von Medienangebo- ten profitieren, die es ermöglicht, die mit der traditionellen einseitigen Medi- enkommunikation verbundene, in der Vergangenheit immer wieder kritisierte Orientierung am »Massengeschmack« zu überwinden. Wie die entsprechenden Algorithmen entwickelt werden und wie sie arbeiten, weiß kaum jemand. Sie bilden ein wichtiges Betriebskapital der Medienanbie- ter, so dass deren Funktionsweise in der Regel geheim gehalten wird. Allerdings wird diese von den meisten NutzerInnen auch nicht hinterfragt, so lange sie ausreichend gute Ergebnisse produziert.¯3 Das heißt, Algorithmen selbst und die Grundlagen auf denen sie Entscheidungen treffen, werden in der Regel als eine Art Black Box behandelt, die funktioniert und als ›Medium der Entschei- dung‹ die konstatierten Probleme für NutzerInnen, Medienanbieter und Inte- ressierte Dritte lösen kann (vgl. Hallinan/Striphas 2014, 1f.) . Dieses Algorithmenverständnis beschränkt sich nicht auf die Praxis. Auch so- zialwissenschaftliche BeobachterInnen behandeln Entscheidungsalgorithmen insoweit als Black Boxes, als dass sie diese erst zum Zeitpunkt ihrer Fertigstel- lung und Inbetriebnahme, also als bereits fertig gestellte und funktionierende Systeme in den Blick nehmen und ihnen starke Wirkmächte unterstellen. Ent- sprechend wird auch hier (wenn auch durchaus mit kritischem Unterton) die Delegation von Entscheidungen an Algorithmen in der Regel als eine Art Er- folgsstory beschrieben (vgl. Muhle i.E.). So wird die Personalisierung der Medi- enkommunikation bisher vornehmlich als erfolgreiche Kommodifizierung des Publikums begriffen und davon ausgegangen, dass die algorithmenbasierte Beobachtung und Klassifizierung von Online-Aktivitäten es erlaube, »an exact picture of the interests and activities of users« (Fuchs 2014, 108) zu produzie- ren, wodurch die Online-Verdatung zu einer »key force of production in an in- formation economy« (Fisher 2015, 62) werde. In dieser Perspektive geraten die Medienproduzenten als Profiteure, die UserInnen als Objekte von Marketing Algorithmus und Entscheidung 115 und Kommerzialisierungsstrategien und die Algorithmen als Instrumente der Ausbeutung in den Blick. Vor diesem Hintergrund erscheinen uns die Ergebnisse unserer Fallstudie in- teressant. Sie bezieht sich auf den Versuch eines Online-Musikanbieters, für seine HörerInnen einen Empfehlungsalgorithmus ›zum Laufen zu bringen‹. Das Projekt der Entscheidungsdelegation befindet sich hier noch im Stadium der Entwicklung und experimentellen Erprobung. Mit Blick auf dieses Stadium können wir zeigen, dass und wie der verwendete Algorithmus (in dieser Pha- se) permanent definitorische Aufwände, Verhandlungen und Entscheidungs- bedarfe erzeugt, da immer wieder neue Probleme – in unserem Fall: der Ge- nauigkeit, Zuverlässigkeit, des Analysevermögen etc. – entstehen. Für diese Probleme müssen laufend Lösungen gefunden werden, die immer wieder auch Korrekturen an den Zielen, Konzepten und Funktionsweisen des Algorithmus erforderlich machen – ohne dass offenbar erwartet werden kann, die Arbei- ten finalisieren bzw. den Algorithmus perfektionieren zu können. Hierdurch wird deutlich, dass Algorithmen keineswegs ›automatisch‹ erfolgreich funkti- onieren. Dennoch wäre es vorschnell, ihnen ihre Wirkkraft abzusprechen. Diese liegt aber nicht unbedingt darin, dass sie Entscheidungen besser als Menschen treffen, sondern wohl nicht zuletzt darin, dass sie neue Verhandlungs- und Entscheidungsbedarfe erzeugen, die ohne sie nicht existiert hätten.¯4 Der Fall: Personalisiertes Online-Radio mit algorithmen- basierter Vorschlagstechnologie Zu den Leitideen des hier untersuchten Dienstes gehört bei dessen Start, ein personalisiertes Online-Radio anzubieten, bei dem ein Algorithmus die Ent- scheidung über die Programmauswahl trifft. Es sollen also nicht länger bei- spielsweise Musikredaktionen oder ModeratorInnen entscheiden, welche Lieder bzw. Interpreten gespielt werden; stattdessen soll eine technische Schnittstelle autonom diese Aufgabe übernehmen. Das Konzept des Diens- tes passt sich somit in den Trend der ›Googlization‹ ein (vgl. Vaidhyanathan 2012), indem »die Rolle der Experten und Redakteure […] allmählich durch Al- gorithmen ersetzt« (Esposito 2014, 240) wird. Darüber hinaus sollen die mu- sikalischen Empfehlungen nicht für alle NutzerInnen des Dienstes identisch sein (wie beim klassischen Radio), sondern jeweils auf den individuellen Ge- schmack einzelner HörerInnen zugeschnitten und entsprechend personalisiert werden. Wie die folgenden Ausführungen allerdings zeigen, werden diese Er- wartungen enttäuscht. Der Algorithmus liefert zwar – immerhin – Ergebnisse, 116 Florian Muhle / Josef Wehner das heißt, er nimmt Nutzungsdaten auf, wertet diese aus und gibt auch Emp- fehlungen; aus Sicht der HörerInnen wie auch des Online-Betreibers erweisen sich diese jedoch häufig als unpassend und deshalb eher als (dauerhaftes) Pro- blem denn als Lösung von Problemen. Zielsetzungen, erste Lösungsversuche und Enttäuschungen Konzeptionell gesehen beruhen die Empfehlungen des Algorithmus auf zwei miteinander kombinierten Methoden und zwar der Berechnung der Vorlieben und Aktivitäten der UserInnen und der statistisch ermittelten Ähnlichkeiten zwischen Liedern bzw. Künstlern.¯5 Die Plattform funktioniert dem Konzept nach so, dass die UserInnen nach dem Login bestimmte Genres oder Künstler auswählen und dann durch den Algorithmus generierte Playlisten erhalten, die zum Genre passende Musik oder »ähnliche Künstler« abspielen. Die User haben dann die Möglichkeit, Songs zu überspringen (»skip«), sie zu bestäti- gen (»love«) oder sie aus dem persönlichen Angebot auszuschließen (»ban«). Auf der Grundlage entsprechender Daten soll der Algorithmus den Musikge- schmack der einzelnen TeilnehmerInnen immer besser kennenlernen, zuneh- mend auf die persönlichen Vorlieben ausgerichtete Musik spielen und neue Vorschläge unterbreiten, die auf Ähnlichkeiten mit den erkannten Vorlieben basieren. Es geht also darum, automatisiert, ohne menschliche Einmischung, eine Musikauswahl zu treffen, die für jede/n angemeldete/n Hörer/in unter- schiedlich sein kann. Dies macht der technische Leiter des Dienstes im Inter- view deutlich: »der aller erste Ansatz war […] rein technisch und sehr vom Glauben inspiriert, die Maschine löst das alles, ich krieg ähnliche Titel ich krieg Stimmung, ich krieg Genre und ich krieg auch noch ähnliche Künstler hat [die Entwicklerfirma] versprochen« (Interview Technischer Leiter). Die technische Realisierung der Musikauswahl beruht dabei auf der Berech- nung von Ähnlichkeiten und Unterschieden in der Musik. Hierzu werden »alle möglichen Eigenschaften aus der Musik rausgezogen die irgendwie mathema- tisch statistisch verwertbar sind, das sind bis an die knapp zwohundert Stück, die […] raus gezogen werden« (Interview Technischer Leiter). Diese Eigenschaf- ten werden dann durch den Algorithmus »zueinander ins Verhältnis gesetzt, das ergibt dann sogenannte middle level feature die wiede- rum dann am Schluss kombiniert werden in etwas was man wirklich der Musik zuordnen kann nämlich so was wie Rhythmus Melodie Melodieinstrument ähm Tonalitäten Perkussivität und solche Geschichten« (Interview Technischer Leiter). Algorithmus und Entscheidung 117 Die Berechnung der Eigenschaften einzelner Lieder dient nun einerseits dazu, diese bestimmten Genres zuzuordnen und andererseits hieraus individuelle Künstlerprofile zu erzeugen, indem aus der Summe der Titel einzelner Künstle- rInnen Profile gebildet werden. Auf dieser Grundlage werden dann klangliche Ähnlichkeiten zwischen Songs und KünstlerInnen berechnet und mit einem eindeutigen Wert versehen, der in Form einer Zahl zwischen 0 und 1 ausgege- ben wurde, wobei 1 für hohe Übereinstimmung steht und 0 für gar keine Über- einstimmung. Entsprechend integriert der Algorithmus dann Lieder mit einem hohen Ähnlichkeitswert in eine sogenannte Playlist (genre- oder künstlerba- siert), während Lieder mit niedriger Übereinstimmung ausgeschlossen wer- den. Die »skips«, »loves« und »bans«, die von Usern ausgeführt werden, werden protokolliert und in den individuellen Profilen zugerechneten Datenbanken abgelegt, damit der Algorithmus ›weiß‹, welche Songs gemocht und welche ab- gelehnt werden, um zukünftige Empfehlungen daraufhin einzustellen. Zusätzlich sollen Titel bzw. Interpreten empfohlen werden, von denen (wie- derum auf statistischer Grundlage) angenommen werden kann, dass sie dem Hörer/der Hörerin unbekannt sind, aber zum individuellen Musikgeschmack passen könnten. Der Dienst soll also den NutzerInnen auch das Entdecken neu- er Musik ermöglichen (»dieses Musikdiscoveryding, das in der Firmenidee mit drin steckt«, Interview Musikredakteur). Spätestens hier wird deutlich, dass die UserInnen nicht selbst ihr Programm zusammenstellen (sollen), sondern weiter Radio hören können, bei dem Musik für sie ausgewählt wird. In den Wor- ten des Technischen Leiters: »unsere Vision is eben halt wir sind Radio, mit Radio kannst du Musik entdecken ähm du kannst deine persönliche Musik hören spielen und immer mehr entdecken, und wir sind […] dein per- sönlicher Stream« (Interview Technischer Leiter). Genau in dieser nicht nur für Zwecke der Werbung nach außen, sondern auch der internen Orientierung und Koordinierung in das Unternehmen hinein kommunizierten Plattformperformanz, bei der persönliche musikalische Emp- fehlungen automatisiert erzeugt werden, wird der entscheidende Vorteil einer algorithmisierten Musikauswahl gegenüber menschlichen Entscheidungen – sowohl denen der UserInnen selbst als auch denen einer menschlichen Redak- tion – gesehen. Interessanterweise soll der Algorithmus nicht nur – wie ein Mu- sikredakteur – in der Lage sein zu entscheiden, welche Songs bzw. Interpreten dem persönlichen Geschmack eines Hörers bzw. einer Hörerin entsprechen; er soll sogar besser entscheiden können, insofern als er bei seiner Zusammenstel- lung das immer begrenzte menschliche Fassungs- und Erinnerungsvermögen 118 Florian Muhle / Josef Wehner übersteigen soll. Dies wird an der folgenden Auskunft des verantwortlichen Musikredakteurs deutlich: »wenn dieses Ding mal irgendwann richtig funktioniert, […] dann wäre dieser Algorithmus trotzdem ne Möglichkeit, ähm vielleicht also dieses Musicdiscovery-Ding […] besser umzuset- zen sogar noch, als wenn das jetzt irgendein Mensch macht. Weil wir sind alle blöde Szene- Nerds, die irgendwie ähm wenn wenn mir einer meine Lieblingsband sagt, dann fallen mir be- stimmt aus dem aus demselben Genre fünfzig Bands ein, die so ähnlich klingen, aber vielleicht gibt’s da ganz andere Kombinationen. Vielleicht gibt’s da auch ganz andere Gemeinsamkeiten zwischen meiner Lieblingsband und irgendwie was weiß ich, und Stockhausen. Die mir noch nie aufgefallen sind, die aber vielleicht der Computer ausspuckt. Also wenn, wenn der Algorithmus irgendwie richtig funktionieren würde, dann kann ich mir schon vorstellen, dass der Algorith- mus auch echt was was bringt. Dass der auch noch mal ne andere ähm ne andere Qualität in das Ganze reinbringt« (Interview Musikredakteur). Das Problem der Musikauswahl durch eine Redaktion – das gleiche gilt sicher auch für die Auswahl durch die NutzerInnen selbst – wird hier in deren Fest- legungen auf bestimmte Geschmacksrichtungen und Hörgewohnheiten gese- hen. Selbst professionelle Musikfachleute kennen als »Szene-Nerds« eben nur das, was sie kennen und ohnehin gerne hören. Verblüffende Ähnlichkeiten, die nur durch ›einen Blick über den eigenen Tellerrand hinaus‹ auffallen können, erschließen sich ihnen eher selten. Dies soll bei einem funktionierenden Algo- rithmus, der über eine stetig wachsende Datenbank mit Musik unterschied- lichster Genres verfügt und fortlaufend nach Ähnlichkeiten und Unterschieden zwischen bereits archivierten und neu dazu kommenden Titeln sucht, anders werden. Er soll, im Unterschied zum menschlichen Personal, aufgrund der Aus- wertung der Musik-Eigenschaften auch überraschende Zusammenhänge er- kennen und entsprechende Empfehlungen generieren können, um die persön- lichen Chancen des Entdeckens neuer Musik zu steigern. Zum Zeitpunkt des Interviews wird jedoch offensichtlich, dass der Algorith- mus (noch) nicht in der Lage ist, die Entscheidungen eines Redakteurs zu über- nehmen. Der erhoffte Vorteil, anstelle einer Musikredaktion den Algorithmus entscheiden zu lassen, passende Musikstücke bzw. Interpreten zu empfehlen, wird von der tatsächlichen Arbeitsweise des Algorithmus nicht bestätigt. So schränkt der Musikredakteur im Interview gleich im Anschluss an die oben an- geführte Passage ein, dass »in dem Stadium, in dem das jetzt ist, […] der Algo- rithmus oft einfach nur ein Ärgernis [ist]« (Interview Musikredakteur). Warum dies so ist, findet sich an anderer Stelle im Interview: Algorithmus und Entscheidung 119 »Nein, der Algorithmus hat einfach viel Scheiße ausgespuckt und ähm das war auch ne zeitlang war das immer ein großes Beschwerdethema, dass wenn jemand ne Artist Station angemacht hat, dass da auf einmal Schlager gelaufen ist oder sonst irgendwas, also dass die Dinge wirk- lich so absurd aneinandergereiht waren, dass es halt auch überhaupt keine Ähnlichkeit hatte. […] und dann sind ist irgendwann ist da eingeschritten worden sozusagen« (Interview Musik- redakteur). Zwar funktioniert die algorithmenbasierte Ähnlichkeitsermittlung in dem (programmiertechnischen) Sinne, dass sie Berechnungen über klangliche Nä- hen und Unterschiede durchführt und auch Empfehlungen gibt. Aber die Er- gebnisse können weder die HörerInnen noch die musikredaktionelle Leitung des Plattformbetreibers überzeugen. Die zwischen Titeln bzw. Interpreten er- rechneten klanglichen Ähnlichkeiten und darauf aufbauende Titelzusammen- stellungen ignorieren in zu vielen Fällen die eingeschliffenen Genre- und an- dere musikalische Ein- und Ausschlusskriterien. Der Algorithmus verfehlt so gesehen bereits das Pf lichtziel, Entscheidungen zu treffen, die auch eine Mu- sikredaktion hätte treffen können. Erst recht aber verfehlt er das zusätzliche Premiumziel, auch solche Zusammenhänge zwischen Tracks und Künstlern zu erkennen und zu berücksichtigen, die über die partikularen Erfahrungs- und Wissensstände der MusikredakteurInnen hinausgehen. Auch diese Entschei- dungen müssen die Redaktion bzw. die HörerInnen ja nicht nur überraschen, sondern auch überzeugen, was sie aber nicht tun. Es gelingt dem Algorith- mus also weder in der limitierten, auf bereits bekannte musikalische Ähnlich- keiten, und erst recht nicht in der erweiterten, auf bislang unbekannte Ähn- lichkeiten ausgerichteten Variante, an die Erfahrungen der Redaktion und des Publikums anzuschließen. Er kann die ihm zugedachte Funktion, Musikemp- fehlungen nicht nur anders, sondern auch besser zu tätigen als eine mensch- liche Redaktion, offensichtlich nicht erfüllen – mit der Konsequenz, dass in dem Unternehmen die Idee einer Algorithmisierung musikredaktioneller Ent- scheidungen einer folgenreichen Revision unterzogen wird. Korrekturen, angepasste Ziele, neue Herausforderungen Die Revision der Entscheidungsbefugnisse des Algorithmus bezieht sich sowohl auf die Berechnung ähnlicher Künstler als auch auf die Zuordnung der Songs zu bestimmten Genres und damit auf den Kernbereich seines Aufgabengebietes. Dem Algorithmus wird nach den ersten Erfahrungen nicht länger zugetraut, hier zu überzeugenden Empfehlungen zu gelangen. Die Annahmen und Erwar- tungen, die noch in der Anfangsphase des Dienstes die Arbeiten an der Platt- form beflügelten (»vom Glauben inspiriert, die Maschine löst das alles«, Inter- 120 Florian Muhle / Josef Wehner view Technischer Leiter), weichen einer Perspektive, in der nach Gründen des Scheiterns gesucht wird, um zu einer angemessenen Konzeption des Dienstes zu gelangen. Vor allem das dem Algorithmus zugrundeliegende Konzept zur Berechnung der Ähnlichkeiten zwischen Künstlern wird jetzt hinterfragt und auf seine Schwachstellen hin analysiert. So sah die im Algorithmus implementierte Idee zur Berechnung von Künstler- ähnlichkeiten ursprünglich folgendermaßen aus: »ne Summe von ähnlichen ti- teln ergibt n Profil von nem Künstler also ne Summe von Titeln ergibt n Profil und diese Profile kannste wieder nebeneinander setzen […]« (Interview Tech- nischer Leiter). Wie sich herausstellt, lassen sich auf diese Weise zwar klare Profile erstellen, die mit eindeutigen Werten versehen und somit leicht auto- matisch verglichen werden können. Gleichzeitig liegt genau in der mit diesem Verfahren verbundenen Reduktion von Komplexität aber das entscheidende Problem. Denn mit der Synthetisierung eines Profils geht zwangsläufig ein- her, dass die mögliche Heterogenität in den Werken einzelner Interpreten nicht berücksichtigt wird. Dies, so die Erkenntnis, sei jedoch notwendig, schließlich seien »Künstler auf nem album schon irgendwie so heterogen und wenn de da noch irgendwie ne Zeitspanne nen Horizont von zwanzig dreizig Jahren dann mal nimmst ähm dann haben die einfach schon Werke die sitzen innerhalb der Ähnlichkeitsmatrix soweit auseinander, dass ei- gentlich ein Querschnitt von sowas immer nur in die Hose gehen kann. Und genau das passiert wenn ich nämlich auf grund so nes Querschnitts einfach Künstler vergleiche« (Interview Tech- nischer Leiter). Was passiert, wenn die automatische Ermittlung der Künstlerprofile ›in die Hose‹ geht, liegt auf der Hand. Zwar kommen dann bei der Zusammenstellung ähnlicher Künstler möglicherweise unerwartete Ergebnisse zustande, aber »diese unerwarteten Dinge die zerhauen dir […] im Prinzip die ganze Reputati- on« (Interview Technischer Leiter). Spätestens ein solcher Verlust der Reputa- tion stellt aber für den Dienst, der in (kommerzieller) Konkurrenz zu anderen Versuchen steht, die auch personalisiertes Radio anbieten, ein gravierendes Problem dar. Angesichts dieser Schwierigkeiten wird entschieden, auf eine editoriale Zu- sammenstellung ähnlicher Künstler umzustellen. Die Hauptverantwortung für die Zusammenstellung ähnlicher Künstler wird also vom Algorithmus wieder zurück auf das menschliche Musikmanagement übertragen und das Konzept der automatisierten Zusammenstellung auf redaktionelle Arbeit umgestellt. Allerdings wird der Algorithmus nicht einfach komplett ersetzt. Vielmehr sieht die manuelle Bearbeitung der Listen ›Ähnlicher Künstler‹ vor, dass sich eine Per- Algorithmus und Entscheidung 121 son an die zuvor vom Algorithmus erzeugte Ähnlichkeitsliste setzt, diese kon- trolliert und bei Bedarf ändert: »Das sieht so aus, dass neue Künstler zu der Liste hinzugefügt werden bzw. die automatisch ge- lieferte Liste komplett gelöscht wird und durch eine handgemachte ersetzt wird. Zudem wer- den dann eigene Zahlenwerte hinzugefügt, die dann die neue Ähnlichkeits-Liste strukturieren und hierarchisieren. Der Maßstab hierfür ist vor allem das Fachwissen und das Bauchgefühl der Redakteure« (Duhr 2013, 42). Die Ergebnisse des Algorithmus werden jetzt nachträglich gesichtet, evalu- iert und auch korrigiert. Sie durchlaufen einen ›Controlling-Prozess‹, in dem nicht mehr die durch den Algorithmus errechneten Eigenschaften der Musik als Qualitätsmaßstab dienen, sondern genau jener komplexe, durch mitunter Jahrzehnte lange Praxis eingeübte Mix unterschiedlicher Ein- und Ausschluss- kriterien der MusikredakteurInnen, der ursprünglich durch die Arbeit des Al- gorithmus überwunden werden sollte. Die Entscheidungs-Kompetenz wird somit wieder an die ›Szene-Nerds‹ zurück delegiert. Allerdings müssen die- se ihr »Fachwissen und Bauchgefühl« in maschinenlesbare Form übersetzen und entsprechend in eindeutige Zahlenwerte überführen. Denn der Algorith- mus bleibt weiterhin in die Musikauswahl eingebunden und spielt nach wie vor ähnlich klingende Künstler ab. Er entscheidet also nicht mehr über Ähnlich- keiten zwischen Künstlern, bleibt aber dennoch für die Auswahl und das Ab- spielen der KünstlerInnen verantwortlich. Auch die Genre-Einteilung wird nun von einem automatischen auf einen ma- nuellen Bearbeitungsmodus umgestellt. Bestand der anfängliche Ansatz auch hier darin, dass der Algorithmus auf Grundlage seiner Analyse bestimmt, wel- che Titel zu welchem Genre gehören, wird schnell deutlich, dass dies nicht funktioniert. Wie der technische Leiter des Dienstes verdeutlicht, war dies so- gar »die erste Arbeit, die wir eigentlich gemacht haben, selber zu definieren […] was ist wie behandeln wir Genres« (Interview Technischer Leiter). Entspre- chend wird in der Funktionsweise des Algorithmus »das Genre ausgegrenzt weil n automatisches Genre extrahieren das funktioniert nicht« (Interview Technischer Leiter). Stattdessen werden nun durch die MitarbeiterInnen des Dienstes insgesamt elf unveränderliche Genres (mit variablen Untergenres) festgelegt, die von Hand der jeweiligen Musik zugeordnet werden. Auf Grund- lage dieser manuellen Genreeinteilung sollen dann die Musik-Empfehlungen des Algorithmus verbessert werden, indem sie als Filter für das weitere Aus- wahlverfahren eingesetzt wird. So berechnet der Algorithmus zwar weiterhin Ähnlichkeiten zwischen Musiktiteln. Bevor diese aber in eine Playlist aufge- nommen werden, müssen sie nun den nachträglich eingebauten Filter durch- 122 Florian Muhle / Josef Wehner laufen und die damit berücksichtigten Bewertungskriterien erfüllen. Auf diese Weise soll sichergestellt werden, dass unterschiedliche Titel auch ein und dem- selben – durch die Musikredaktion hinzugefügten – Genre angehören: »der eine Titel ist ähnlich dem anderen das verschiebt sich durch die Tätigkeit der Musikmana- ger erstmal nicht ähm was als Ergebnis rausgegeben wird ist ne Veränderung die durch nen an- deren Layer passiert nämlich n Filter […] bevor wir sagen der und der ist ähnlich müssen wir zu- sätzlich noch das Genre vergleichen weil die sind jetzt zwar irgendwie jetzt so ähnlich ganz nah beieinander in dieser Matrix aber die können wir niemals zusammen in einer Playliste spielen, weil kulturell gesehen ist der Typ Schlager und der Typ ist Pop, weil der ist aus UK und der ist aus Deutschland« (Interview Technischer Leiter). Als weitere Modifikation kommt noch das manuelle Erstellen sogenannter Re- ferenzlisten durch die insgesamt in ihrer Bedeutung deutlich aufgewertete Musikredaktion hinzu. Auch diese Referenzlisten sollen das negative ›Über- raschungspotential‹ des Algorithmus einhegen. Sie werden vor dem Hinter- grund der Erfahrung eingeführt, dass bestimmte Gruppen von NutzerInnen des Dienstes weniger an der Entdeckung neuer als vielmehr am Hören bekann- ter Musik interessiert sind. Probleme werden deshalb nicht nur in der vom Al- gorithmus abweichenden Praxis des Urteilens über Ähnlichkeiten und Un- terschiede zwischen Musiktiteln und Interpreten in der Redaktion und beim Publikum gesehen, sondern auch in den unterschiedlichen, mit den jeweiligen Hörgewohnheiten und Geschmacksrichtungen variierenden Toleranzen der HörerInnen, überhaupt Empfehlungen unbekannter Musik anzunehmen. So gibt es HörerInnen bestimmter Genre-Playlists, die »gesacht ham öh passt […] nicht« und entsprechend ist die »Zufriedenheitsrate« mit den einzelnen Listen »extrem unterschiedlich« (Interview Technischer Leiter). Vor allem Rock/Pop- HörerInnen scheinen stärker am Massengeschmack bzw. an den massenmedial bereits geförderten Hitlisten eines Genres orientiert zu sein, als zuvor gedacht: »ja das Wichtige ist ja, dass wir das System erstmal dahingehend umgestellt haben, weil wir ge- merkt haben öh öhm, das ist halt auch ne Erfahrung die man halt mit der zeit macht, natürlich ist es toll Musik zu entdecken aber für jemanden der halt sacht oh da is ein neuer Service da geh ich jetzt mal hin äh und auf Rock drückt und dann irgendetwas kommt wo er sacht das kenn ich gar nicht, was is das denn? also so eher sich halt mit dem Kopf schüttelt […] da is uns wenig ge- holfen […] dafür haben wir die Referenzlisten erstellt, um zu sagen wenn einer eben auf Rock […] drückt […] dann sollte zumindest irgendwas Relevantes kommen was in dieser Referenzliste ir- gendwie vorhanden ist. Weil das ist das Verständnis des Nutzers: da ist nicht der B-Track von der fünften Single, die halt irgendwie am Schlechtesten verkauft worden ist, sondern es ist referen- ziert. Das heißt also, es ist ne Gewichtung und diese Gewichtung kann natürlich auch nicht der Algorithmus und Entscheidung 123 Algorithmus bringen, sondern ne Gewichtung kann entweder der Mensch geben oder wir hät- ten ne Datenbank wo eben halt drinnen steht […] weil der Nutzer eben nicht, zum allergrößten Teil wenn wir übern Mainstream reden äh nicht erwartet, etwas ständig um die Ohren gehauen zu bekommen, was er überhaupt nicht kennt« (Interview Technischer Leiter). Um ausgehend von diesen Erfahrungen sicherzustellen, dass die HörerInnen verlässlich Musikvorschläge erhalten, die ihren Einstellungen und Gewohn- heiten entsprechen, werden von der Musikredaktion genreabhängige Refe- renzlisten erstellt. Solche Listen enthalten jeweils ca. 300 Songs, aus welchen dann einzelne ausgewählt werden, wenn UserInnen eine Station starten. Die- se Referenzlisten werden monatlich aktualisiert und sollen sicherstellen, dass auf jeden Fall bei Einstieg in das Musikprogramm die ›richtigen‹, und das heißt erwartbare und bekannte, Titel abgespielt werden – was vor allem in der an- fänglichen Phase des Kennenlernens und Sammelns von Erfahrungen darü- ber entscheidet, ob die HörerInnen weiterhin auf der Plattform Musik hören oder wieder abspringen. Für die Erstellung der Listen wird den Redakteuren mit an die Hand gegeben, dass Sie sich einerseits in ›den typischen Hörer‹ des jeweiligen Genres hineinversetzen sollen, und anderseits darauf achten, dass das Verhältnis zwischen Hits und unbekannten Songs mindestens 3:1 betragen sollte. Zudem ist es ihre Aufgabe, die Listen nach der Fertigstellung durchzu- hören und zu überprüfen, »ob die Lieder zusammenpassen, wie der Gesamt- eindruck ist [und] ob es auffällige ›Querschläger‹ gibt« (Duhr 2013, 42). Ähnlich wie bei der Editierung der ähnlichen Künstler wird bei der Genre-Zusammen- stellung also nach den ersten Erfahrungen mit den Leistungen und Entschei- dungen des Algorithmus wieder auf menschliche Urteilskraft umgestellt und die Expertise, Erfahrung und Einschätzung der menschlichen Redaktion als un- erlässlich eingestuft. Die RedakteurInnen konstruieren aufgrund ihres (infor- mellen, jedoch geteilten) Vorwissens genrebezogene Hörergruppen und über- setzen die jeweils unterstellten Vorlieben und ›Toleranzen‹ für ähnliche, aber bislang unbekannte Titel in entsprechende Listen, die wichtige Vorgaben für das Auswahl- und Empfehlungssystem darstellen. Ein weiteres, im Laufe der anfänglichen Einsätze des Algorithmus auftauchen- des Problem betrifft die Entdeckung, dass nicht nur über die Zusammenset- zungen der Referenzlisten entschieden werden muss, sondern auch, für wel- che Genres bzw. HörerInnen Referenzlisten überhaupt eine sinnvolle Vorgabe darstellen. Denn während die ›typischen‹ HörerInnen von Pop-/Rockmusik nur geringes Interesse für unbekannte Songs aufweisen, gibt es andere User-grup- pen, die eine größere Bereitschaft zeigen, sich auf musikalisches Neuland ein- zulassen und – wie bei Gründung des Dienstes intendiert – das Angebot des 124 Florian Muhle / Josef Wehner personalisierten Radios zu nutzen. Folglich wären hier Referenzlisten kon- traproduktiv. Offensichtlich sind die HörerInnen verschiedener Genres also in ganz unterschiedlicher Weise offen für bislang unbekannte Musikempfeh- lungen und wollen entsprechend mehr oder weniger neue Musik empfohlen bekommen. Deshalb erscheinen genrespezifische Lösungen sinnvoller, um mit dem Problem unterschiedlicher Zufriedenheitswerte auf Seiten des Publikums angemessen umzugehen. In diese Richtung soll das Konzept des Dienstes auch weiter entwickelt werden: »ist halt dann die nächste Frage: Wo fangen wir dann in Zukunft an Stellschrauben zu machen? Ne also was Jazz ist, kriegt im Prinzip äh zwar grundsätzlich content based wenig Metadaten- Filter, weil die Leute offener sind. Die wollen auch mal was anderes haben. Die Popleute sind al- les, denen kannste eigentlich Top Ten geben am besten. Da machste irgendwie Referenzlisten sind die alle total zufrieden ähm und dann gibts noch n paar Freaks, die hören alles Mögliche. Da kannst Du auch so irgendwie fast schon (content based) eingeben und dann noch bisschen social kram keine Ahnung also da bewegt es sich halt in Zukunft« (Interview Technischer Leiter). In dem Zitat klingt eine geplante Publikumssegmentierung an, in welcher der Algorithmus in sehr unterschiedlichem Maße zum Zuge kommen soll. Sinnvoll erscheint sein Einsatz in speziellen Segmenten, die sich durch besondere Of- fenheit für Neues und Überraschung auszeichnen: »Jazz-Fans« und »Freaks« (Interview Technischer Leiter). Nachteilig wirkt sich sein Einsatz hingegen beim typischen Publikum der Kulturindustrie aus, also jenen Segmenten, die lie- ber Mainstream und Altbekanntes hören möchten. Offenbar muss vorher ent- schieden werden, in welchen Fällen der Algorithmus die Datenbank mit ihren klanglich verwandten Titeln bzw. Interpreten ausschöpfen darf, und in wel- chen Fällen die Überraschungsqualität seiner Musikauswahl durch Referenzli- sten gefiltert und damit eingeschränkt werden soll. Diese Entscheidung wird dem Algorithmus nicht zugetraut, sie soll deshalb nur von der Musikredakti- on getroffen werden. Unabschließbares Aushandlungsprojekt Im Zuge der anfänglichen Misserfolge wird der Algorithmus als Gegenstand ständiger Korrektur- und Entscheidungsbedarfe erfahren. Zugleich geht damit eine Aufwertung der Funktion der Musikredaktion einher. Wurden bei Start des Dienstes »die allerersten Musikmanager […] nicht als Musikmanager an- gestellt […], sondern als Ripper« (Interview Technischer Leiter), das heißt als Personen, die lediglich Musikinformationen in die Datenbank des Dienstes eingeben, wird die Bedeutung musikalischer Expertise zunehmend als unent- behrlich für das Funktionieren des Dienstes erkannt. Auf sich alleine gestellt Algorithmus und Entscheidung 125 wäre der Algorithmus überfordert, weshalb er durch zusätzlichen von außen hinzukommenden Input (Metadaten, Referenzlisten) und das Urteil der Musi- kredakteurInnen mit ihren Hörerfahrungen und ihrem (Vor-)Wissen über un- terschiedliche Rezeptionskulturen ergänzt werden muss. Erst in dieser Verbin- dung kann der Dienst offensichtlich den Erwartungen des Publikums gerecht werden und zufriedenstellende Ergebnisse für Anbieter und UserInnen liefern. Es kann deshalb auch nicht überraschen, wenn die Arbeit am Empfehlungsal- gorithmus als ein vermutlich nie abzuschließendes Projekt verstanden wird. Denn auch wenn »der Traum, dass die Maschine das in irgendeiner Form hun- dertprozentig knacken kann« (Interview Technischer Leiter) trotz der notwen- digen und offenbar nicht algorithmisierbaren menschlichen Unterstützungs- und Kontrollarbeiten nicht aufgegeben wird, ist den Beteiligten bewusst, dass für die Verbesserung des Algorithmus sich kein einzig bester Weg, geschwei- ge denn eine Finalisierung vorstellen ließe. Stattdessen macht sich nach den bisherigen Erfahrungen die Einsicht breit, dass es die eine Lösung nicht geben wird und eine Verknüpfung unterschiedlicher Ansätze erforderlich ist – mit un- gewissem Ausgang. Vor allem die unterschiedliche Performance der Empfeh- lungstechnologie bei verschiedenen Genres scheint diese Einschätzung nach- haltig zu bestätigen: »ich habe die Erfahrung auch schon mal früher gemacht, dass bestimmte Komponenten von so einer Empfehlungstechnologie für bestimmte Genres auch unterschiedlich funktionieren […] wenn du da Rocksachen haben wolltest, dann hat das fast perfekt funktioniert. Da waren ganz ganz wenig Ausreißer drinne, aber irgendwie ist die Maschine auch auf dieses Thema hin trai- niert worden« (Interview Musikredakteur) . Sind die Plattform und die darauf installierten Verdatungs- und Analysepro- gramme erst einmal in Betrieb genommen, bedeutet dies also nicht ein Ende (vorgängig) zu leistender Absprachen, Entscheidungen und korrigierender Ein- griffe. Das Gegenteil scheint der Fall zu sein. In diesem Kontext erweist sich An- drew Pickerings (2007) Konzept einer ›Mangel der Praxis‹ als treffende Meta- pher, um den Prozess der Einbindung, Problematisierung und Anpassung des Algorithmus und seiner ›Rolle‹ bei der Herstellung personalisierter Medienan- gebote zu charakterisieren. Der Wissenschafts- und Technikforscher Pickering hat diese Metapher eingeführt, um darauf hinzuweisen, dass und wie in Inno- vationsprozessen in einem Spiel von Widerstand und Anpassung menschliche und materiale Wirkmacht (im vorliegenden Kontext ließe sich auch sagen: Ent- scheidungsbefugnisse) laufend neu verteilt werden. Grundlegend hierfür ist die Vorstellung, dass »die Konturen materieller Wirkungsmacht […] nie im vor- 126 Florian Muhle / Josef Wehner hinein genau bekannt [sind]« (Pickering 2007, 24), sondern vielmehr »in der Praxis gemangelt werden« (ebd., 28).¯6 Dies trifft auch auf den Algorithmus im untersuchten Fall zu. Zunächst werden durch seine Einführung die Kompetenzen zwischen Menschen und Algorithmus neu verteilt und der Algorithmus mit Entscheidungskompetenz ausgestattet. Dann stellt sich jedoch heraus, dass die technische Schnittstelle dieser Aufga- be nicht gerecht wird und obendrein auf Dauer gestellte Gewährleistungsar- beiten verlangt. Entsprechend werden die Konturen ihrer ›Wirkmacht‹ verscho- ben und angepasst. Neben den technischen Arbeiten am Algorithmus zeigt sich dies vor allem am sich verändernden Stellenwert und Aufgabenbereich der Mu- sikredaktion. Sie erhält neben ihrer aufgewerteten redaktionellen Arbeit die Aufgabe einer ›Controlling-Instanz‹ und muss durch kontinuierliches Beobach- ten und Bewerten des Outputs des Algorithmus für ein angemessenes qualita- tives Niveau der Empfehlungen und damit auch für eine Verbesserung der Ak- zeptanz und Reichweite der Plattform sorgen. Schlussfolgerungen Wie bereits einleitend angemerkt, hat der in unserem Fall eingesetzte Algo- rithmus die in ihn gesetzten Hoffnungen und Erwartungen nicht erfüllt. Statt- dessen wurden in der alltäglichen Praxis des Dienstes die Unzulänglichkeiten und Probleme einer algorithmengesteuerten Personalisierung des Musikan- gebotes deutlich, denen mit einer Re-Konfiguration der Entscheidungsbefug- nisse begegnet wurde. Die damit einhergehende wechselseitige Anpassung von Mensch, Organisation und Algorithmus haben wir mit Andrew Pickering als ›Mangel der Praxis‹ beschrieben, um deutlich zu machen, dass dieser kei- neswegs so reibungslos funktioniert, wie dies gegenwärtig in der Diskussi- on um Algorithmen gerne behauptet wird. Algorithmen scheinen vielmehr immer wieder mit neuen Verhandlungs- und Entscheidungsbedarfen zu kon- frontieren, auf die mit angepassten Zielen, korrigierten Konzepten und ver- änderten technischen Lösungen geantwortet wird. Der von uns untersuchte Online-Dienst scheint da kein Sonderfall zu sein. Auch bei als sehr erfolgreich geltenden Unternehmen zeigt sich, dass Algorithmen in der Praxis nicht ein- fach reibungslos arbeiten, sondern im Zuge von Anpassungsmaßnahmen ›ge- mangelt‹ werden. So deutet etwa der Netf lix Prize (vgl. Hallinan/Striphas 2014) darauf hin, dass der bei Netf lix verwendete Empfehlungsalgorithmus zwar funktioniert, sich aber offensichtlich weiterhin ›under construction‹ befindet – wofür sogar organisationsexterne Hilfen in Anspruch genommen werden. Algorithmus und Entscheidung 127 Auch hier scheint die Delegation von Entscheidungen an Algorithmen nicht gradlinig zu immer besseren und rationaleren Entscheidungen zu führen, son- dern aus sich heraus auch neue Problemlagen (die vorher nicht existiert ha- ben) zu erzeugen, für die Lösungen gefunden werden müssen. Insofern üben Algorithmen auch nicht einfach Macht aus oder verleihen diese denjenigen, die sie programmiert haben und anwenden. Solche oder ähnliche Vorstellungen erweisen sich vor dem Hintergrund der bisherigen Argumentation als retro- spektive Schönfärberei, die vor allem der Legitimation gegenüber interessier- ten Dritten wie der Werbeindustrie oder Geldgebern von Innovationsprojekten dienen dürfte. Die – um noch einmal mit Pickering (2007, 32) zu sprechen – zir- kulär voranschreitende Dynamik von niemals vollständig gelingenden, da im- mer partiell scheiternden und daher widerständigen Lösungsversuchen einer- seits und darauf bezogenen Anpassungen und Verbesserungen andererseits bleibt jedenfalls im Dunkeln, wenn die Black Box des Algorithmus nicht geöff- net wird.¯7 Anmerkungen 01˘ Wir verwenden den Begriff der ›Personalisierung‹ hier so, wie er im Feld selbst auch ge- braucht wird. Mit Bezug auf Überlegungen von Elena Esposito (1995, 245ff) wäre zu überle- gen, ob es soziologisch nicht angemessener wäre, von der »Spezialisierung eines unpersön- lichen Mediums« zu sprechen. 02˘ So basieren angeblich 75% dessen, was die NutzerInnen sich ansehen, auf den Empfehlungen des Systems [http://www.taz.de/!5028276/]. 03˘ Dies schließt natürlich nicht aus, dass an der Optimierung der Algorithmen gearbei- tet wird, wie der Wettbewerb um den Netflix Prize zeigt. Allerdings geht es bei diesem Wettbewerb nicht um die Offenlegung des Empfehlungs-Algorithmus ›CineMatch‹ selbst, sondern um die Bewertung der Qualität seiner Empfehlungen. 04˘ Im Folgenden beziehen wir uns vor allem auf zwei Leitfadeninterviews mit verantwort- lichen Mitarbeitern eines Unternehmens, welches personalisiertes Radio im Internet anbie- tet und einen Algorithmus verwendet, der die Musikauswahl automatisch steuern soll (vgl. Wehner/Passoth/Sutter 2014). Die Interviews stammen aus dem DFG-Forschungsprojekt ›Numerische Inklusion. Medien, Messungen und gesellschaftlicher Wandel‹ unter der Leitung von Jan-Hendrik Passoth, Tilmann Sutter und Josef Wehner [http://gepris.dfg.de/ gepris/projekt/182070052]. Es handelt sich hierbei um Interviews, die mit dem technischen Leiter und einem Musikredakteur des Unternehmens geführt wurden. 128 Florian Muhle / Josef Wehner 05˘ Damit grenzt sich die Plattform ab gegen konkurrierende Konzepte, die eine Personalisierung entweder »user-generated« (Last.FM) oder mithilfe menschlicher Expertise (Pandora) zu erreichen versuchen. 06˘ Vorbild ist hier die Wäschemangel, welche aus der nassen Kleidung, wenn sie ›in die Mangel genommen wird‹, die Feuchtigkeit herauspresst und so deren Zustand verändert. 07˘ Auch der technische Leiter des Dienstes verweist im Interview auf diese ›rhetorische Kraft‹, wenn er anspricht, dass der Algorithmus insbesondere gegenüber Investoren auch eine »Kommunikationsaufgabe« übernähme. So soll die Verwendung der Empfehlungstechnologie mögliche GeldgeberInnen von einer Investition in den Dienst überzeugen, was scheinbar auch in zufriedenstellender Weise gelingt. Literatur Ang, Ien (2001) Zuschauer, verzweifelt gesucht. In: Ralf Adelmann, et al. (Hg.): Grundlagen- texte zur Fernsehwissenschaft. Konstanz: UVK, S. 454-483. Duhr, Roman (2013) Projekt „Numerische Inklusion – Medien, Messungen und gesellschaft- licher Wandel“ (Unveröffentl. Forschungsbericht). Esposito, Elena (1995) Interaktion, Interaktivität und die Personalisierung der Massenme- dien. In: Soziale Systeme 2, S. 225-260. Esposito, Elena (2014) Algorithmische Kontingenz. Der Umgang mit Unsicherheit im Web. In: Alberto Cevolini (Hg.): Die Ordnung des Kontingenten. Wiesbaden: Springer Fachmedien Wiesbaden (Innovation und Gesellschaft), S. 233-249. Fisher, Eran (2015) ›You Media‹: audiencing as marketing in social media. In: Media, Culture & Society 37,1, S. 50-67. Fuchs, Christian (2014) Social media. A critical introduction. Los Angeles/London/New Delhi/Singapore/Washington, D.C: SAGE Publications. Greve, Goetz / Hopf, Gregor / Bauer, Christoph (2011) Einführung in das Online Tar- geting. In: dies. (Hg.): Online Targeting und Controlling. Wiesbaden: Gabler, S. 3-21. Hallinan, Blake / Striphas, Ted (2014): Recommended for you: The Netflix Prize and the production of algorithmic culture. In: New Media & Society, S. 1-21. Latour, Bruno (2004) Why Has Critique Run out of Steam? From Matters of Fact to Matters of Concern. In: Critical Inquiry 30,2, S. 225-248. Muhle, Florian (i.E.) Stochastically Modelling the User: Systemtheoretische Überlegungen zur ›Personalisierung‹ durch Algorithmen. In: Thorben Mämecke / Jan-Hendrik Passoth / Josef Wehner (Hg.): Bedeutende Daten. Modelle, Verfahren und Praxis der Vermessung und Verda- tung im Netz. Wiesbaden: Springer VS-Verlag. Pickering, Andrew (2007) Die Mangel der Praxis. In: Ders. : Kybernetik und neue Ontolo- gien. Berlin: Merve Verlag, S. 17-61. Algorithmus und Entscheidung 129 Radermacher, Franz Josef (2015) Algorithmen, maschinelle Intelligenz, Big Data: Bun- desgesundheitsblatt – Gesundheitsforschung – Gesundheitsschutz. Bundesgesundheitsbl. 58,8, S. 859-865. Reichert, Ramón (2014) (Hg.) Big Data: Analyse zum Wandel von Macht, Wissen und Öko- nomie (Digitale Gesellschaft). Bielefeld: transcript. Schenk, Michael (2007) Publikums- und Gratifikationsforschung. In: Ders. : Medienwir- kungsforschung (3. Aufl.) . Tübingen: Mohr Siebeck. Vaidhyanathan, Siva (2012) The Googlization of everything. (and why we should worry). Updated ed. Berkeley, Calif. : University of California Press. Wehner, Josef (2008) »Social Web« – Zu den Rezeptions- und Produktionsstrukturen im In- ternet. In: Michael Jäckel / Manfred Mai (Hg.): Medienmacht und Gesellschaft. Zum Wandel öffentlicher Kommunikation. New York/Frankfurt a. M.: Campus, S. 197-218. Wehner, Josef (2010) Numerische Inklusion – Medien, Messungen und Modernisierung. In: Tilmann Sutter / Alexander Mehler (Hg.): Medienwandel als Wandel von Interaktionsformen. Wiesbaden: Springer VS-Verlag, S. 183-210. Wehner, Josef / Passoth, Jan-Hendrik / Sutter, Tilmann (2014) The Quantified Li- stener: Reshaping Providers and Audiences with Calculated Measurements. In: Andreas Hepp / Friedrich Krotz (Hg.): Mediatized Worlds. Culture and Society in a Media Age. Basingstoke/ New York: Palgrave Macmillan, S. 271-287. Internetquellen: http://gepris.dfg.de/gepris/projekt/182070052 http://www.taz.de/!5028276/ 130 Andreas Weich / Julius Othmer Unentschieden? Subjektpositionen des (Nicht-)Entscheiders in Empfehlungssystemen am Beispiel von Amazon Einleitung Entscheidungssituationen werden dadurch konstituiert, dass ein Subjekt eine Wahl zwischen verschiedenen Möglichkeiten treffen kann beziehungs- weise muss. Gleichzeitig konstituiert die Entscheidungssituation zuallererst das Subjekt als EntscheiderIn. Entscheidungssituationen haben sich durch ver- schiedene ökonomische, soziale und kulturelle Faktoren in den letzten Jahr- zehnten vervielfacht und sind mit einem fortwährenden Entscheidungszwang verbunden (exemplarisch: Ortmann 2009; Schimank 2005). Die Vervielfachung von Möglichkeiten durch das Internet trägt ihren Teil dazu bei und generiert eine Vielzahl ganz alltäglicher Herausforderungen, sich entscheiden zu müs- sen. Wie Jens Schröter vor diesem Hintergrund unter dem programmatischen Titel 8448 verschiedene Jeans. Zu Wahl und Selektion im Internet schreibt, hat die »Freiheit der Wahl […] quantitative Grenzen. Wird die Zahl der Alternativen zu hoch, so wird zu viel Zeit benötigt, um eine Entscheidung treffen zu können oder es wird angesichts eines unü- berschaubaren Horizonts möglicher Alternativen jede Wahl durch den Verdacht belastet sein, vielleicht nicht die richtige gewesen zu sein. Anders gesagt: Nur durch Begrenzung ist die Frei- heit der Wahl überhaupt möglich. Nirgendwo ist dieses Problem so deutlich wie im Internet, das eine zuvor unbekannte Informationsvielfalt verspricht.« (Schröter 2004, 117) Demnach drohe sich die im Internet zur Verfügung gestellte »enorme Freiheit, Wahl zu bieten« laut Schröter, »in die Unmöglichkeit der ›freien‹ Auswahl zu verkehren« (ebd., 118). Doch gerade innerhalb vernetzter computerbasierter Medien wird nicht nur eine Vielzahl von Wahlmöglichkeiten generiert, sondern es werden gleichzeitig als kompensatorisches Element auch Entscheidungshil- fen bereitgestellt, die diese Wahlmöglichkeiten auf ein handhabbares Maß re- duzieren und die Entscheidungsfindung unterstützen sollen – in Schröters Worten mit Verweis auf Lev Manovic »maschinelle und somit standardisierte Formen der Wahl« (ebd., 131). Derartige Entscheidungshilfen operationalisie- ren Wissensbestände aus dem Umfeld der Entscheidungstheorie und finden Subjektpositionen des (Nicht-) Entscheiders 131 sich zunächst in Spezialgebieten.¯1 Entscheidungstheoretisch informierte Ent- scheidungshilfen existieren jedoch auch – gerade im Kontext des Internets – in alltäglichen Zusammenhängen. Mit Jürgen Link lassen sich die Verwendungen des Konzepts der Entscheidung vor diesem Hintergrund in spezialdiskursive und inter- beziehungsweise gar elementardiskursive unterscheiden. Spezial- diskurse tendieren Link zufolge »zu einem Maximum an immanenter Konsistenz und zu entsprechender Abschließung gegen arbeitsteilig ›externes‹ Diskursmaterial […]. Das typische Beispiel sind die wissenschaftlichen Diskurse. Idealtypisch dominiert in der Funktionsweise eines Spezialdiskurses demnach die ein- deutige Denotation und die Ausschaltung aller Mehrdeutigkeiten und Konnotationen« (Link 1997, 50). Auf der übergeordneten Ebene verortet Link darüber hinaus »Interdiskurse […], die Spezialwissen überbrückende, integrative Funktionen bedienen« (ebd., 155) und deren Diskurselemente »mit variabler und f lexibler Bedeutung in einer Mehrzahl von Spezialdiskursen sowie ggf. ebenfalls in allgemeinen, z.B. sog. ›Alltagsdiskursen‹ zirkulieren« (ebd., 50). Link zufolge ist diese re-integrative Funktion verknüpft mit der Bereitstellung gesellschaftlich anerkannter »Sub- jektapplikationen« (ebd., 155). Nochmals umfassender und grundlegender als Links Konzept des Interdiskurses ist das des Elementardiskurses, mit dem er den »Alltagsdiskurs« zu konturieren versucht: »Der ›Alltag‹ besteht aus der ›elementaren Soziokultur‹ einer Gesellschaft, wie sie vor jeder Ent- wicklung von Hochkulturen und vor jeder Spezialisierung (Arbeitsteilung) für alle menschlichen Gruppen charakteristisch ist. Wenn die elementare Soziokultur in modernen Gesellschaften also auch (ebenso wie in archaischen) funktionale Selbstständigkeit besitzt und nicht als pures Epiphänomen des Systems der Spezial- und Interdiskurse erklärt werden kann, so ist sie heute dennoch durch dieses System vielfältig überdeterminiert und spezifiziert.« (ebd., 51) Der Fokus des vorliegenden Textes richtet sich explizit nicht auf Spezialanwen- dungen, sondern auf eben solche inter- und elementardiskursiven Entschei- dungshilfen, die für eine breite NutzerInnengruppe angelegt sind. Neben dem im Folgenden untersuchten Empfehlungssystem von Amazon sind andere Bei- spiele hierfür der Wahl-o-mat, check24.de oder auch Parship. Vor diesem Hintergrund soll zunächst die spezifische Subjektposition der Ent- scheiderin¯2 auf entscheidungstheoretischer Grundlage konturiert und im Kontext des Empfehlungssystems von Amazon aufgesucht werden. Die The- se ist dabei zum einen, dass die Subjektposition einer rationalen Entscheide- rin in das Empfehlungssystem eingeschrieben ist und durch das System als solches adressiert wird, die Funktionalität sich jedoch in der Vorentscheidung 132 Andreas Weich / Julius Othmer erschöpfen muss, da die rationale Entscheidung selbst – und damit auch das EntscheiderInnen-Subjekt – in sich paradox und daher medientechnisch nicht implementierbar ist. Zum anderen sind Empfehlungssysteme als Teil einer Kon- stellation zu veranschlagen, die das Verfahren der Entscheidung, wie es die Entscheidungs-Theorie vorsieht, auf eine Vielzahl von Akteuren verteilt und damit die Subjektposition der Entscheiderin gleichzeitig konstituiert und ten- denziell auflöst. In der Zusammenschau beider Überlegungen lässt sich so ar- gumentieren, dass das Konzept der Entscheidung und das darin implizierte Subjekt trotz seiner beharrlichen Adressierung sowohl systematisch als auch analytisch zur Disposition zu stellen sind. Entscheidung und EntscheiderIn in der Entscheidungstheorie Zur Annäherung an die skizzierte Konstellation ist zunächst die Reichwei- te des Entscheidungsbegriffs innerhalb der Entscheidungstheorie zu bestim- men. Hierfür dienen im Folgenden sehr grundlegende Ansätze, Annahmen und Modelle als Ausgangspunkt, die sich aktuell gleichermaßen in verschiedenen Ausprägungen der Entscheidungstheorie finden – sei es im Kontext der Be- triebswirtschaftslehre, der Volkswirtschaftslehre, der Mathematik oder der Politik(wissenschaft) (siehe exemplarisch Saliger 1993; Laux 2007; Eisenführ/ Langer/Weber 2010; Behnke 2013). Wie Helmut Laux in seinem vielfach aufge- legten Überblickswerk Entscheidungstheorie schreibt, wird »[d]er Begriff ›Entscheidung‹ [...] im allgemeinen Sprachgebrauch vor allem dann angewen- det, wenn ein Wahlproblem von besonderer Bedeutung vorliegt, von dessen Ausgang vieles ab- hängt. Im Gegensatz dazu wird im Rahmen der Entscheidungstheorie der Entscheidungsbegriff so weit gefasst, dass er alle Wahlakte beinhaltet.« (Laux 2007, 1) Ein derartig basales Verständnis macht Entscheidungstheorie, wie Eisenführ, Langer und Weber betonen, »für vielfältige Entscheidungssituationen ver- wendbar, von hochkomplexen wie dem Standort eines Großflughafens bis zu relativ einfachen wie der Auswahl eines Bluray-Players [sic!]« (2010, 3). Vor die- sem Hintergrund definiert Laux den Begriff Entscheidung folgendermaßen: »Unter ›Entscheidung‹ wird ganz allgemein die (mehr oder weniger bewusste) Auswahl einer von mehreren möglichen Handlungsalternativen verstanden.« (Laux 2007, 1) Modelliert man die Rolle der Entscheiderin innerhalb der Entscheidungstheo- rie als eine Subjektposition, ist selbige aus dieser Perspektive eine handlungs- mächtige, insofern sie über Handlungsalternativen verfügt – wenn auch nur Subjektpositionen des (Nicht-) Entscheiders 133 mehr oder weniger bewusst – und durch den Imperativ der Wahl aufgerufen. In der Entscheidungstheorie wird dabei in der Regel vom Menschenbild des homo oeconomicus ausgegangen. Die rationale Entscheiderin handelt demnach so- wohl auf Grundlage der, wie der Politikwissenschaftler Joachim Behnke (2013) es formuliert, »kognitiven Determinante«, sprich: dem Wissen über eine ge- gebene Situation und die Handlungsalternativen, als auch der eigenen Präfe- renzen. Laut Behnke geht man in der Theorie davon aus, »dass die Präferenzen einer Person fix und den Handelnden selbst bewusst sind.« Die Entscheiderin weiß in der Theorie also, was sie will. Behnke schreibt weiter: »Die kognitive Determinante [also das Wissen über die Situation – AW/JO] hingegen ist Einflüs- sen von außen, insbesondere durch Informationen und neue Erfahrungen ausgesetzt. Was häu- fig leichtfertig als Änderung der Präferenzen gedeutet wird, ist in Wirklichkeit lediglich eine Änderung des Wissens über die Eignung der Handlungsoptionen zur Verfolgung bestimmter Ziele.« (ebd., 20) Das Wissen ist in diesem Ansatz also veränderbar, die Vorlieben dagegen nicht. In Entscheidungsmodelle gehen diese Vorlieben zumeist vermittelt über die Zielgröße ein. Jede Entscheidung für eine von mehreren Alternativen hat in der Theorie eine Auswirkung, die die Entscheiderin einem gesteckten Ziel entwe- der näher bringt oder eben nicht. In den Worten von Helmut Laux: »Dabei wird angenommen, der Entscheider orientiere sich nur an einer Zielgröße, Z, wobei er einen höheren Wert der Zielgröße einem niedrigeren vorzieht. Er hat mehr- wertige Erwartungen darüber, welchen Wert diese Zielgröße bei Wahl der Al- ternative Aa (a=1,2,...,A) annehmen wird.« Und weiter: »Jeder Alternative ent- spricht eine Wahrscheinlichkeitsverteilung über die Zielgröße. (Es liegt also Abb. 1: Darstellung einer Entscheidungsmatrix nach Laux 134 Andreas Weich / Julius Othmer eine Risikosituation vor.)« (Laux 2007, 29) Repräsentiert wird ein solches Mo- dell oftmals in einer Ergebnismatrix (s. Abb. 1). Links sind die Alternativen A aufgetragen, im Mittelteil die Ergebnisse E der je- weiligen Alternative im Hinblick auf die Zielgröße Z. Oben aufgetragen sind die unterschiedlichen Situationen S (gegebenenfalls gewichtet mit der Wahr- scheinlichkeit ihres Eintretens), die jeweils zu anderen Ergebnissen führen. Eine Entscheidung, die sich derartig modellieren lässt – und damit kommen wir dem Empfehlungssystem von Amazon bereits näher – ergibt sich beispiels- weise, falls beim angestrebten Kauf eines Produkts mindestens zwei ähnliche Produkte am Markt verfügbar sind. Die Entscheidung für das eine Produkt lie- ße sich dann als A1, jene für das andere Produkt als A2 veranschlagen. Um nun die potenziellen Ergebnisse E1s und E2s hinsichtlich der Zielgröße Z – bei Kauf- entscheidung beispielsweise die Zufriedenheit mit dem gewählten Produkt – ableiten zu können, müssen die Alternativen zunächst hinsichtlich ihrer Merk- male und Potenziale analysiert werden. Eine populärkulturelle und für die folgende Argumentation illustrative Verdichtung einer solchen Analyse findet sich in einer Episode der Sitcom The Big Bang Theory (The Indecision Amalga- mation, 2014), in der der stets rationale Sheldon Cooper vor der Entscheidung steht, ob er sich zum Erscheinen der neuen Generation von Spielkonsolen eine Playstation 4 oder eine Xbox One kaufen soll. Um die damit einhergehende He- rausforderung zu verdeutlichen, zeigt er seiner – dem Thema gegenüber gänz- lich indifferent eingestellten – Freundin Amy zunächst die Unterschiede beider Produkte auf, die er durch die bisherige ›Analyse‹ in Erfahrung gebracht hat: Sheldon (aufgebracht): Hang on! I don’t feel you’re taking this dilemma seriously. Amy (sich ihm resigniert zuwendend): Fine, Sheldon. You have my undivided attention. Sheldon (euphorisch): Okay, now. The PS4 is more angular and sleak-looking. Amy (sarkastisch übertrieben): NO WAY! Sheldon (euphorisch): It ’s true! BUT: the larger size of the Xbox One may keep it from overhe- ating. Amy (sarkastisch übertrieben): You wouldn’t want your gaming system to OVERHEAT! Sheldon: You absolutely would not. And, furthermore, the Xbox One now comes with a Kinect included. Amy (sarkastisch übertrieben): INCLUDED?! Sheldon (euphorisch): Yes! Not sold separately. ALTHOUGH, the PS4 uses cool new DDR5-RAM, while the Xbox One is still using the conventional DDR3-Memory. Amy (sarkastisch übertrieben): Why would they still be using DDR3? ARE THEY NUTS?! Sheldon (euphorisch): See, that’s what I thought! But then, they go and throw in an ESRAM- Buffer. Subjektpositionen des (Nicht-) Entscheiders 135 Amy (sarkastisch übertrieben): Whooo is they… who is THEY? Sheldon (euphorisch): The Xbox. Amy (sarkastisch übertrieben): YOU’RE KIDDING! Sheldon (euphorisch): No, I am NOT! And this ESRAM-Buffer should totally bridge the 100-Giga- bit-per-second-bandwith-gap between the two RAM types. Amy (sarkastisch übertrieben): This is a NIGHTMARE! How would you ever make a DECISION?! Sheldon: See! I DON’T KNOW! (The IndecIsIon AmAlgAmATIon, 2014, Staffel 7, Episode 19, 00.05.01 - 00.06.04) Sheldon steht offensichtlich vor einem Problem, denn bezogen auf die Ent- scheidungsmatrix wird deutlich, dass die Eigenschaften der beiden Produk- te beziehungsweise Alternativen A1 und A2 allein nicht ausreichen, um das Er- gebnis E für die Zielgröße Z zu ermitteln. Es müssen Situationen S konstruiert werden, in denen die Eigenschaften der Produkte dann unterschiedliche Aus- wirkungen haben. Eine derartige Situation S1 könnte zum Beispiel sein, dass sich die Wahl des schnelleren Arbeitsspeichers für die Spielperformance als wichtig herausstellt, was die Zufriedenheit mit der PS4 erhöhen, jene mit der Xbox One jedoch verringern würde. Eine andere Situation S2 könnte sich da- durch auszeichnen, dass die Exklusiv-Spiele der Xbox One besser sein werden, als jene der PS4 und so weiter. Das Wissen über den Eintritt dieser Situatio- nen wird nun aber als unvollständig und der Zusammenhang von Handlungs- alternativen und Ausprägung der Zielgrößen dadurch bestenfalls als Wahr- scheinlichkeit modelliert. Im Optimalfall herrscht also, mit Laux formuliert, eine Risikosituation vor. Behnke (2013, 37) verweist in Ergänzung dazu auf eine Differenzierung, die als Entscheidung unter Risiko nur jene Konstellationen bezeichnet, in denen der Entscheiderin die Wahrscheinlichkeiten bekannt sind und Entscheidungen unter Unsicherheit, wenn sie nicht bekannt sind. Tatsäch- lich sind alltägliche Entscheidungen, wie jene, die Sheldon zu treffen hat, in dieser Systematik also zumeist sogar als Entscheidungen unter Unsicherheit zu veranschlagen. Die rationale Wahl erfolgt in derartigen Entscheidungssitu- ationen somit allen Vorüberlegungen und -recherchen zum Trotz immer unter (mehr oder weniger großer) Ungewissheit der eintretenden Situation und da- mit auch des tatsächlichen Outcomes. Schaut man sich Sheldons Verhalten im Angesicht der Entscheidung an, wird diese Ungewissheit sehr deutlich. Sheldon: I have done all my research, I conducted an informal poll and I arrived at the rock-solid certainty: I have made the right choice (nimmt eine Xbox One und geht). Amy: That’s got to be a good feeling. 136 Andreas Weich / Julius Othmer Sheldon: Oh it is! (geht am Regal mit der PS4 vorbei und wendet sich im Gehen zu den Konso- len um) ALTHOUGH... Amy (sich genervt abwendend): Oh, crap! Sheldon: You know, I had the SAME feeling when I made my dad buy a Betamax instead of a VHS. Amy: You were just a little kid. Sheldon: Yeah, a little kid which picked the wrong format to record The MacNeil/Lehrer Report. Now, I also was certain that HD DVD would win out over Blu-ray. Amy: How old were you then? Sheldon: Old enough to know better. You know, and now that I think about it, I stood in front of a case of iPods and I bought a Zune. Amy: What’s a Zune? Sheldon: Yeah, exactly. It ’s an MP3 player brought to us by the makers of Xbox. Amy: No, what are you doing? No, no, pick that back up. You know it’s good. You did the research. Sheldon: But what if I’m wrong? [...] Amy: How about this? I’ve heard that if you flip a coin, it will tell you how you actually feel. Be- cause you’ll either be disappointed or excited by the outcome. Sheldon: Interesting. Amy: So, heads it’s PS4, tails it’s Xbox One. Sheldon: All right, I’ll try (Amy schnippst Sheldon die Münze zu und er sieht sie sich an). Amy: What is it? Sheldon: A quarter. (wirft ihn weg) Amy (sarkastisch): Could have given it back to me. THAT was a choice. (The IndecIsIon AmAlgAmATIon, 2014, Staffel 7, Episode 19, 00.13.44 - 00.15.27) Sheldon hat verschiedene rationale Maßnahmen ergriffen, um die Merkmale der Alternativen, verschiedene Situationen, die jeweiligen Wahrscheinlichkei- ten des Eintretens dieser Situationen und die Auswirkungen der Merkmale in- nerhalb dieser Situationen (d.h. Ergebnisse E11, E12, E13, … E1s und E21, E22, E23, ... E2s) abschätzen zu können. Dementsprechend ist er zunächst zuversichtlich, dass er auf dieser Grundlage eine beziehungsweise ›die richtige‹ Entscheidung treffen kann. Doch tatsächlich gibt ihm vor dem finalen Schritt des Kaufes kei- ne der Maßnahmen die nötige Sicherheit, die Entscheidung hinreichend be- gründet treffen zu können. Die Rationalität scheint hier an ihre Grenze zu ge- raten. Auch Amys Versuch mittels der Münze an seine Gefühle zu appellieren, hilft ihm – durch und durch rational – nicht weiter. Eine andere Ebene der Herausforderung hat Sheldon dagegen offensichtlich schon im Vorfeld gemeistert: Er hat die Zahl der Alternativen auf zwei – eben die Xbox One und die PS4 – eingegrenzt. Grundsätzlich hätte er ebenso gut Subjektpositionen des (Nicht-) Entscheiders 137 auch weitere Konsolen wie die Wii U als Möglichkeit in Betracht ziehen kön- nen. Diese Eingrenzung im Vorfeld der eigentlichen Entscheidung ist nicht zu unterschätzen und auch im Grundmodell der Entscheidungstheorie abgebil- det. Denn schaut man sich die Entscheidungsmatrix (s. Abb. 1) genauer an, fällt auf, dass sie potenziell unabgeschlossen ist. Es ist nicht per se ausgemacht, wie viele Alternativen A berücksichtigt und wie viele Situationen S antizipiert wer- den. Vor der eigentlichen Entscheidung sind also bereits wiederum Auswahl- entscheidungen zu treffen. Laux spricht in diesem Zusammenhang auch vom »Vorentscheidungsproblem« (2007, 60). Die Entscheidung vor der Entschei- dung ist dabei potenziell mit großem Aufwand verbunden (siehe hierzu detail- liert Eisenführ/Langer/Weber 2010, 83ff) und oftmals durch die Kompetenzen und Kapazitäten – hier kommt die kognitive Determinante wieder ins Spiel – determiniert. Laux schreibt dazu: »Der Entscheider kann natürlich immer nur solche Alternativen in seinen Entscheidungskal- kül einbeziehen, die er nach mehr oder weniger kreativer Alternativensuche und/oder nach Be- ratung durch andere Personen überhaupt wahrnimmt. Objektiv wird es im allgemeinen noch weitere, ihm unbekannte Alternativen geben. Um den Planungsaufwand in akzeptablen Gren- zen zu halten, wird der Entscheider seinen Handlungsspielraum andererseits oft bewusst ein- engen.« (ebd., 36) Die Vorentscheidung ist Teil eines Prozesses der Modellvereinfachung und folg- lich der Komplexitätsreduktion. Sie zielt nicht auf die direkte Auswahl einer Wahl A, sondern konstituiert überhaupt erst die Entscheidungsmatrix als sol- che, indem sie die Alternativen auffindet und auswählt und die Situationen konstruiert (und gegebenenfalls ebenfalls auswählt). Vorentscheidungspro- bleme zielen also auf die selektive Schaffung des Rahmens innerhalb dessen eine Entscheidung möglich wird. Diese Modellvereinfachung ist in zwei For- men denkbar. Erstens durch die Reduzierung der möglichen Alternativen. Dies bedeutet im Fall Sheldons beispielhaft, eine Entscheidung zwischen den bei- den Konsolen, aber nicht zwischen weiteren Konsolen und auch nicht zwischen angebotenen Varianten in der Ausstattung (etwa mit ein oder zwei Control- lern) anzunehmen. Ebenso ist zur Bearbeitung des Vorentscheidungsproblems – zweitens – auch eine Komplexitätsreduktion durch die Reduzierung der an- tizipierten Situationen denkbar. So kann etwa die Zahl der im Entscheidungs- modell berücksichtigten Umweltfaktoren minimiert, zusammengefasst oder gänzlich unberücksichtigt bleiben und damit das Modell in Gänze komplexi- tätsreduziert und für das Entscheidungssubjekt leichter beherrschbar werden. Sheldon hat in diesem Sinne zwar einige, aber sicher nicht alle möglichen Si- tuationen konstruiert und im Hinblick auf die beiden Alternativen bewertet. 138 Andreas Weich / Julius Othmer Um das Vorentscheidungsproblem zu bewältigen und der potenziellen Über- forderung zu entgehen, werden in vielen Fällen BeraterInnen eingesetzt – oder eben auch Empfehlungssysteme, um die es im Rahmen der weiteren Überle- gungen gehen wird. Subjektposition der Entscheiderin im Kontext des Empfeh- lungssystems bei Amazon Auf Grundlage der bis hierhin skizzierten entscheidungstheoretischen Ansät- ze lassen sich folgende Punkte über die Subjektposition der Entscheiderin fest- halten: 1. Sie definiert eine Zielgröße. 2. Zum Erreichen eines möglichst hohen Ergebnisses im Hinblick auf diese Ziel- größe hat sie die Wahl zwischen mindestens zwei Alternativen. 3. Im Rahmen des Vorentscheidungsproblems muss sie zunächst die Alternati- ven auffinden und eine Vorauswahl aus allen möglichen Alternativen treffen sowie Situationen antizipieren und auswählen um eine handhabbare Entschei- dungssituation herzustellen. 4. Sie trifft ihre Entscheidungen kalkulativ-rational, kann jedoch zumeist nicht sicher sein, welche der Situationen eintreten wird oder auch nur verlässlich die Wahrscheinlichkeiten dafür berechnen. Im Folgenden wird das Subjekt der Kaufentscheidungen bei Amazon vor dem skizzierten entscheidungstheoretischen Hintergrund beschrieben. Legt man die Merkmale aus der klassischen Entscheidungstheorie zugrunde, lässt sich in einer ersten Annäherung sagen, dass die Kundin im Regelfall die Zufriedenheit mit dem Produkt als Zielgröße setzt. Wie man an Sheldon sehen konnte, trifft dies generell auf viele Kaufentscheidungen zu, wird jedoch bei Amazon durch zum Beispiel Produktbewertungen besonders in den Fokus gerückt. Im Falle ei- nes Kaufs bei Amazon ist zudem die Konfrontation mit Alternativen (das heißt ähnlichen Produkten) so gut wie unumgänglich, da den potenziellen KundIn- nen wohl die größte zentral bereitgestellte Menge¯3 an Konsumalternativen überhaupt gegenübersteht. Das immens große Produktportfolio hält daher na- hezu für jedes Produkt mindestens eine Alternative bereit. Die Eingrenzung der Alternativen im Sinne des Vorentscheidungsproblems stellt demzufolge eine häufige und teils sehr umfangreiche Herausforderung für das KäuferInnen-/ EntscheiderInnen-Subjekt bei Amazon dar. Um die Zielgröße berechnen zu kön- nen, muss sie verschiedene Situationen antizipieren, ihre Wahrscheinlichkeit bewerten und gegebenenfalls daraus auswählen. Amazon unterstellt der Kun- Subjektpositionen des (Nicht-) Entscheiders 139 din zudem insofern eine gewisse Rationalität bei der Kaufentscheidung, als ihr verschiedene Hinweise über Funktionen und Qualitäten mittels der Produkt- merkmale, Rankings oder auch Empfehlungen bereitgestellt werden. Für eine irrationale Wahl wird kein systematisches Informationsangebot gemacht. Ein- zig Kundenrezensionen zu den jeweiligen Produkten sind in Teilen nicht auf ei- nen rationalen Kaufentscheid ausgelegt. Aber auch gegebenenfalls emotional verfasste Rezensionen sind eingebettet in ein System der numerischen Bewer- tung mit Sternen von 1 bis 5. Die Auswahl der angezeigten Rezensionen erfolgt entweder über die Punktelogik oder über ein Bewertungssystem der Rezensi- onen selbst nach ihrem Grad der Hilfestellung. Letztendlich ist jedoch die Fra- ge, wie sich ein Produkt im eigenen spezifischen Fall bewähren wird, nicht ver- lässlich zu beantworten – entscheidungstheoretisch formuliert bedeutet das, dass der Eintritt einer antizipierten Situation nicht sicher vorherzusagen und die Entscheidung immer eine unter Ungewissheit ist. In der Zusammenschau lassen sich die verschiedenen Aspekte des entschei- dungstheoretisch konturierten EntscheiderInnen-Subjekts in Amazon recht deutlich wiederfinden. Da das Empfehlungssystem in erster Linie als Hilfestel- lung zur Auswahl von Alternativen funktional ist, wird der Fokus im Folgen- den auf diesen Aspekt des Vorentscheidungsproblems gelegt. Wie bereits an- gedeutet wurde, ist die Notwendigkeit einer Vorauswahl der Alternativen bei Amazon offensichtlich. Würden unterschiedslos alle Produkte angezeigt, die für eine bestimmte Verwendung einen hohen Wert der Zielgröße Z verspre- chen, wäre in den meisten Fällen kaum eine Entscheidung möglich. Amazon stellt daher verschiedene Dienste für eine Vorauswahl bereit. Die Vorauswahl hängt dabei grundsätzlich mit der Frage zusammen, auf welchen Wegen man bei Amazon überhaupt Produkte auffinden kann. Diese Wege lassen sich grob in drei Kategorien unterteilen: Suchen, browsen und eben die Empfehlungen.¯4 Auf jedem der Wege wird eine Vorauswahl getroffen, die die Entscheidungs- möglichkeiten beeinflusst. Sucht man, werden die Ergebnisse in einer priorisierten Liste angezeigt. Die Er- gebnisse lassen sich anschließend nach verschiedenen Kriterien priorisieren. Es gibt dabei die Möglichkeit, die ›besten‹ Ergebnisse an den Beginn der Liste zu stellen, die ›beliebtesten‹, die günstigsten, die teuersten, jene, die von Kunde- nInnen am besten bewertet wurden und jene, die erst kürzlich erschienen oder gar erst angekündigt sind. Durch die Priorisierung wird eine gewisse Voraus- wahl getroffen, wenn man davon ausgeht, dass KundenInnen durchschnittlich nur ein paar der Ergebnisseiten anschauen.¯5 Beim Browsen nutzt man die Klassifikationsstrukturen, in die die Produk- te eingeordnet sind. Sie sind hierarchisch aufgebaut – zum Beispiel in Form 140 Andreas Weich / Julius Othmer der Struktur ›DVD&Blu-ray/Serien und TV-Produktionen/Comedy‹ – und kön- nen anschließend gefiltert werden zum Beispiel anhand der Merkmale ›Studio‹ und ›Format‹. Durch die Kategorien und Filter wird das Produktportfolio ein- geschränkt und für eine Entscheidung zwischen Alternativen funktional ge- macht. Die Empfehlungen als dritte Kategorie werden nun genauer in den Blick ge- nommen. Amazon bietet eine ganze Reihe unterschiedlicher Empfehlungen an: ›Ähnliche Artikel wie die, die Sie sich angesehen haben‹, ›Weitere Artikel für Sie‹, ›Inspiriert von Ihren Stöber-Trends‹, ›Kunden, die sich diesen Artikel an- gesehen haben, haben sich auch angesehen:‹ und so weiter. Weitere Empfeh- lungskategorien, die bisweilen angezeigt werden, sind zum Beispiel ›Das inte- ressiert Kunden aktuell‹, ›Top-Neuerscheinungen Blu-ray‹ oder auch Mails mit Betreffzeilen wie ›Sie suchen Produkte aus der Kategorie Fachbuch? Dann ha- ben wir die folgende Auswahl für Sie‹. Auch hier geht es immer darum, eine Vo- rauswahl zu treffen und eine Entscheidung zu ermöglichen beziehungsweise eine Entscheidungssituation zu generieren. Im Folgenden soll es vor allem um die Empfehlung ähnlicher Produkte und die Empfehlung von Produkten, die von ähnlichen KundInnen gekauft wurden, ge- hen. Diese Empfehlungen werden durch ein System generiert, das sich schema- tisch wie in Abb. 2 darstellen lässt. Abb. 2: Schematische Darstellung zentraler Elemente und Relationen des Empfehlungssystems von Amazon Subjektpositionen des (Nicht-) Entscheiders 141 Die KundInnen von Amazon legen ein spezifisches Verhalten an den Tag: Sie suchen bestimmte Produkte, sie schauen sich bestimmte Produkte an oder sie kaufen oder bewerten bestimmte Produkte. Dieses Verhalten wird in Werte übersetzt und in einem Profil-Vektor gespeichert. Bezieht sich das Verhalten auf Produktkäufe, steht jede Stelle innerhalb des Vektors für ein bestimmtes Produkt. Auf dieses Profil wird in kollaborativen Filterverfahren zurückgegrif- fen. Das Kernstück bildet dabei eine Matrix, die auf der einen Achse Nutze- rInnen und auf der anderen Produkte referenziert. Im Prinzip werden hier die Kaufprofile vieler KundInnen übereinandergeschichtet. Auf Grundlage dieser Matrix lassen sich sowohl KundInnen im Hinblick auf die gekauften Produk- te miteinander vergleichen (user to user filtering) als auch Produkte im Hin- blick auf Produkte, mit denen sie zusammen gekauft wurden (item to item fil- tering).¯6 Bei Amazon kommen dabei modellbasierte Verfahren zum Einsatz, die zum Beispiel über eine Kosinus-Distanzberechnung off line die gespeicher- ten Daten in eine Ähnlichkeitsmatrix für Produkte umrechnen. Die Kosinus- Distanz ergibt sich aus dem Skalarprodukt beider Vektoren geteilt durch das Produkt der Quadratwurzeln der beiden Skalarprodukte beider Vektoren mit sich selbst. Kosinus Ähnlichkeit= An einem konkreten – wenn auch radikal komplexitätsreduzierten – Beispiel verdeutlicht, funktioniert diese Art des Modellierungsverfahrens wie in Abb. 3 dargestellt. Kunde ›A‹ hat sowohl Produkt 1 (I1 = 1) gekauft, als auch Produkt 2 (I2 = 1). Kun- de ›B‹ ebenfalls. In beiden Profil-Vektoren steht (1,1). Beide Vektoren sind also exakt gleich. Dadurch ist der Winkel zwischen ihnen 0 und der Kosinus, d.h. die Ähnlichkeit 1. Kunde ›C‹ hat Produkt 1 gekauft (I1 = 1), Produkt 2 aber nicht (I2 = -1). Sein Profil-Vektor ist (1,-1), der Winkel zu ›A‹ beträgt 90 Grad und der Kosinus, d.h. die Ähnlichkeit ist 0. Kunde ›D‹ hat keines der Produkte gekauft (I1 = -1; I2 = -1), sein Vektor ist (-1,-1), der Winkel zu “A” beträgt 180 Grad und der Kosinus, das heißt die Ähnlichkeit beträgt -1. Abb. 3: Koordinatenkreuz mit Vektoren zur Illustration des Konzepts der Kosinus-Ähnlichkeit (eigene Darstel- lung) 142 Andreas Weich / Julius Othmer Auf Grundlage dieser Ähnlichkeitswerte werden nun Empfehlungen generiert. Je nachdem, wie die Kundin dann auf die Empfehlungen reagiert, hat dies Aus- wirkungen auf das Profil, das wiederum Auswirkungen auf die darauf aufbau- enden Matrizen und Empfehlungen hat und so weiter. Verteilte Entscheidungen Wenn man nun den Empfehlungsprozess als eine Möglichkeit veranschlagt, das Vorentscheidungsproblem zu bearbeiten, dann stellt sich die Frage, welche Ele- mente an der Vorentscheidung und damit letztendlich auch an der Entschei- dung insgesamt beteiligt sind. Wer oder was ist also entscheidend? Zunächst steht natürlich die Kundin selbst als Entscheiderin im Fokus. Sie wird adres- siert im Sinne von ›Hey, sieh her, was du haben könntest! Du musst dich nur entscheiden!‹. Zudem tragen die vergangenen Kaufentscheidungen der Kun- din zur Ausgestaltung des Profils bei, das seinerseits Grundlage für die Ähn- lichkeitsmatrix ist. Doch nicht nur die als Entscheiderin adressierte Kundin hat Auswirkungen auf die Empfehlungen und damit auf die Vorentscheidung. Auch die anderen KundInnen tragen durch ihr Verhalten zu den Ergebnissen der Empfehlungen und damit zur Entscheidungssituation bei, da ihre Profi- le Teil der Benutzer-Element-Matrix sind. Durch die Aggregation der aufge- zeichneten verteilten Verhaltensdaten ergibt sich im Rahmen der Matrix eine Struktur, die im Hinblick auf Ähnlichkeiten ausgewertet werden kann. Diese Struktur entsteht dabei insofern ungeplant, als sie zwar von allen mitprodu- ziert wird, aber von niemandem allein intentional erstellt werden kann. Es geht um verteilte einzelne Entscheidungen der als entscheidungsmächtig adressier- ten KundInnen, die zusammen an den übrigen folgenden Entscheidungssitu- ationen teilhaben, in denen dann wiederum weitere einzelne Entscheidun- gen getroffen werden und so weiter. Einem Automatismus gleich handelt es sich also um eine Strukturentstehung aus verteilten Handlungen. Automatis- mus meint hier, dass sich die entstandene Struktur jenseits geplanter Prozesse ausbildet.¯7 Sie kann nur rückwirkend rekonstruiert werden. Durch den Aus- schluss des Momentes der Planung ist die entstehende Struktur auch nicht top- down gestaltbar, vielmehr resultiert sie als bottom-up Prozess aus den verteil- ten Entscheidungen aller Beteiligten.¯8 Durchaus zentral geplant ist jedoch der Rahmen, innerhalb dessen ›von selbst‹ eine Struktur entsteht, die redakti- onell nicht produzierbar wäre (eine ähnliche Konstellation lässt sich zum Bei- spiel auch für Google/Google+ beschreiben; vgl. Weich 2013) und dabei hilft, Subjektpositionen des (Nicht-) Entscheiders 143 das Vorentscheidungsproblem zu bearbeiten, um eine möglichst hohe Zahl an Entscheidungen zu produzieren. Doch nicht nur KundInnen und deren Handlungen, sondern auch die Produk- te können als Teil der Entscheidungssituation aufgefasst werden. Sie sind im Rahmen der Benutzer-Element-Matrix mit Merkmalen versehen, die entschei- dend dafür sind, wann sie an welcher Position in welchen Empfehlungen als Alternativen auftauchen. Innerhalb der Matrix werden sie strukturell auf der gleichen Ebene veranschlagt, wie die KundInnen – denn ganz so, wie die Kun- dInnen durch Profile repräsentiert werden, deren Merkmale aus gekauften Produkten bestehen, werden die Produkte ihrerseits durch ein Profil repräsen- tiert, dessen Merkmale aus KundInnen bestehen, von denen sie gekauft wur- den. Denkt man nun die Konstitution der Entscheidungssituation insbeson- dere im Hinblick auf die Vorentscheidungen in diese Richtung weiter, spielt darüber hinaus eine Vielzahl von Elementen und Relationen eine wichtige Rol- le. So wird die Kundin als Subjekt der Entscheidung auch durch die Visualisie- rung der Vorentscheidungsleistung des Systems und das Interface des Empfeh- lungssystems erst als solches konstituiert. Geht man noch einen Schritt weiter, sind die Datenbanken und Algorithmen ebenfalls als Elemente jener Konstel- lation zu veranschlagen, die – vermittelt über die Vorentscheidung – die Ent- scheidungssituation mit hervorbringt. Ob sich Amazon für oder gegen modell- basierte Lösungen entscheidet, welche Merkmale innerhalb der Profile eine Rolle spielen, nach welchen Kriterien die Auswertung erfolgt oder ob sie auf Ähnlichkeiten oder hierarchische Kategorien abzielt, ist Teil der Konstellati- on und damit relevant für die Entscheidungssituation. Je nachdem, wie Pro- file und Matrizen zerlegt, wieder zusammengesetzt, Vektoren verglichen oder umgerechnet werden, ergibt sich eine andere Entscheidungssituation. Inso- fern ließen sich also sogar die Entscheidungen der ProgrammiererInnen, die sie erstellen, oder die der TheoretikerInnen, die die zugrundeliegenden Theori- en formulieren, als entscheidend bezeichnen. An dieser Stelle ist auch wichtig, dass die jeweils gewählten Lösungen, Modelle und Algorithmen auf bestimmte Diskurse und mediale Praktiken zurückgreifen. Schaut man sich zum Beispiel die Entscheidungsmatrix (s. Abb. 1) und die Benutzer-Element-Matrix (s. Abb. 2) an, erscheint es evident, dass beide auf gemeinsamen Vorannahmen aufbau- en. Entscheidungstheorie selbst wird dadurch zu einer Instanz innerhalb der Entscheidungssituation, die das Empfehlungssystem von Amazon konstituiert. Die in der Entscheidungstheorie vorgesehene Handlungsmacht der Entschei- derin ist aus dieser Perspektive auf ein Netzwerk aus verschiedenen Akteuren verteilt und die Subjektposition der Entscheiderin vielmehr das Produkt dieses Zusammenspiels. Vor diesem Hintergrund wird deutlich, dass die Subjektposi- 144 Andreas Weich / Julius Othmer tion der Entscheiderin in Amazon weit weniger direkten Einfluss auf die Ent- scheidungssituation hat, als es die Entscheidungstheorie annimmt. Das Subjekt der (Nicht-)Entscheidung Wie bisher gezeigt wurde, gibt es viele Funktionsstellen in diesem Netz der Ent- scheidung, in denen das Subjekt gar nicht die Entscheiderin ist, die aber erheb- lichen Anteil an der (Vor-)Entscheidung haben. Zudem ist die Rolle jedes dieser Akteure im Rahmen der Vorentscheidung mit weiteren Entscheidungen ver- knüpft. Für jede der Vorentscheidungen ließe sich eine eigene Entscheidungs- matrix erstellen, die wiederum Vorentscheidungen benötigt und so weiter. Wenn man in der Logik der Entscheidungstheorie bleibt, verästelt sich damit das Netzwerk der Entscheidung quasi unendlich und verteilt die Entscheidung auf eine Vielzahl von Akteuren und immer weitere Entscheidungen. Trifft das vom Empfehlungssystem adressierte Subjekt nun also am Ende eine Entschei- dung, ist diese nur das letzte Element einer Entscheidungskette und im Fall des Empfehlungssystems bereits Bestandteil einer weiteren, da die Entscheidung sowohl Auswirkungen auf die eigenen, folgenden Empfehlungen hat, als auch auf die der anderen. Darüber hinaus, und damit verlassen wir wieder den engen Fokus auf das Bei- spiel des Empfehlungssystems, ist das Empfehlungssystem als Beratungsin- stanz in einen größeren Kontext der Beratung einzubetten, in welchem Un- terstützung bei der Problemlösung ebenso wie spezifische Informationen angeboten werden. Selbiger setzt sich aus Kommentaren und Bewertungen – bei Amazon, aber auch auf weiteren (Bewertungs- und Test-) Seiten – zusam- men. Auf dem Weg der Entscheidungsfindung wird jede Hilfestellung durch eine weitere vielleicht auch widersprüchliche f lankiert und eine Beratungs- kaskade in Gang gesetzt. Der Aufwand, eine kalkuliert rationale Entscheidung im Sinne der Entscheidungstheorie zu treffen wird dadurch auf Ebene des Ent- scheidungssubjekts weiter gesteigert. Was auf der Ebene der Vorentscheidung durch die beschriebenen Mechanismen des Empfehlungssystems rational-kal- kulierend geleistet wird, ist für die schlussendliche Entscheidung kaum mög- lich. Während es in der Logik des Empfehlungssystems den einen, am wahr- scheinlichsten passenden Artikel für eine gegebene Kundin geben kann, ist die Frage aus der Subjektposition der Entscheiderin im Angesicht der fina- len Entscheidung kaum gänzlich rational zu lösen. Denn selbst wenn das Emp- fehlungssystem die Alternativen auf ein handhabbares Maß reduzieren hilft, bleibt die Abschätzung der möglichen Situationen und vor allem deren exakte Subjektpositionen des (Nicht-) Entscheiders 145 Auswirkungen auf die Zielgröße schwer kalkulierbar. An diesem Punkt ist er- neut Sheldons Verhalten angesichts seiner Kaufentscheidung aufschlussreich: Sheldon (erschöpft und mit Amy auf dem Boden kauernd): On the one hand, the Xbox One has a better camera, but the PS4 has a removable hard drive. Thoughts? Amy (erschöpft): I can’t feel my legs. Store assistant: Oh, I’m sorry, guys, but the store closed five minutes ago. Sheldon (den Blick verstört nach oben richtend): But I haven’t decided yet. Store assistant: You’ll have to come back tomorrow. The registers are closed. (Sheldon beginnt zu weinen). Amy (Sheldon tröstend): Let’s get you some food. You, you’ll feel better after you eat. Sheldon (schluchzend): Okay. Amy (aufmunternd): What-what do you want, like, Thai food? A burger? Sheldon (aufheulend): I DON’T KNOW! (The indecision amalgamaTion, 2014, Staffel 7, Episode 19, 00.17.06 - 00.17.44) Vor dem Hintergrund des bisher Gesagten, könnte man es so interpretieren, dass Sheldon den Imperativ der Entscheidung sehr ernst nimmt, und das Ent- scheidungssubjekt, das die Entscheidungstheorie vorschlägt, perfekt umzuset- zen versucht. Als durch und durch kalkulierend rationaler Mensch hat er alles versucht, um die Entscheidungsmatrix möglichst vollständig auszufüllen und eine wohlbegründete Entscheidung zu fällen. Trotzdem gelingt es ihm nicht. Auch Amys Versuch, mit dem Münzwurf an seine Emotionalität zu appellieren, scheitert. So muss auch Sheldon scheitern und weiß weder ein noch aus, weiß am Ende nicht einmal mehr, ob er lieber Burger oder thailändisch essen möchte, ja, er fängt sogar an zu weinen, was in der Serie wahrlich nicht oft vorkommt, aber eine durchaus folgerichtig irrationale Reaktion auf das Scheitern der Ra- tionalität darstellt. So oder so scheint die einzige Lösung im Rahmen der Sub- jektposition der kalkulierend rationalen Entscheiderin gerade des Verlassen ebendieser Position hinein in die Emotionalität beziehungsweise Affektivität: entweder durch Abb. 4: Zusammenbruch Sheldons im Ange- die beherzte Wahl ›aus dem Bauch heraus‹ im sicht der Entscheidung Angesicht der Ungewissheit oder aber den emo- tionalen Zusammenbruch im Angesicht des ei- genen Scheiterns und der faktischen Nicht-Ent- scheidung. Bis hierhin konnte gezeigt werden, wie das Emp- fehlungssystem bei Amazon über vergleichende Logiken durch Profilierung sowohl von Produk- ten als auch von KundenInnen operiert. Im Zuge 146 Andreas Weich / Julius Othmer der Einordnung in die Entscheidungstheorie erfüllt es seine Funktion auf Ba- sis historischer Daten wesentlich bei der Bearbeitung von Vorentscheidungs- problemen. Als abschließende These lässt sich formulieren, dass Medientechniken wie das Empfehlungssystem interdiskursiv eine entscheidungstheoretisch und damit spezialdiskursiv begründbare beziehungsweise gar begründete Subjektpositi- on entwerfen, die gleichzeitig eine unerfüllbare Realfiktion darstellt. Es wird ein homo oeconomicus unterstellt, der zum einen lediglich das Produkt eines Netzwerks verteilter Entscheidungen ist und zudem letztendlich an sich selbst scheitert. Zum einen entzieht sich die aus verschiedenen handlungsmächti- gen Akteuren zusammengesetzte Entscheidungssituation der Entscheiderin, wenngleich sie sie als solche erst konstituiert. Und zum anderen muss der letzte Schritt der Entscheidung zwangsläufig ein irrationaler sein – oder die Entschei- dung wird, wie bei Sheldon, fortwährend aufgeschoben. Bei näherer Betrach- tung ist die Irrationalität dem Konzept der Entscheidung jedoch bereits syste- matisch immanent: Wäre eine Alternative rational gesehen tatsächlich besser als eine andere, müsste sich ein homo oeconomicus gar nicht entscheiden, da die entsprechende Wahl notwendigerweise fallen würde. Ganz in diesem Sinne beschreibt Luhmann »das Paradox, dass eine Alternative eine ist (denn sonst wäre die Entscheidung keine Entscheidung) und zugleich keine ist (denn sonst wäre die Entscheidung keine Entscheidung)« (2000, 142). Die eigentliche Ent- scheidungssituation entsteht also erst in dem Moment, in dem die berechnen- de Rationalität an ihre Grenze stößt. Die klassische Entscheidungstheorie wäre damit eigentlich eine Theorie des Nichtentscheidens, da sie die Entscheiderin entweder in der Notwendigkeit der Wahl entmachtet oder sie in die skizzierte Überforderung führt. Nichtsdestotrotz scheint gerade das in der Theorie ent- worfene EntscheiderInnen-Subjekt nicht nur bei Amazon immer wieder aufge- rufen zu werden, sondern auch in anderen beratungsbezogenen Medientech- niken- und Praktiken. Empfehlungssysteme sind vor diesem Hintergrund nicht nur Hilfen für ein bereits vorhandenes EntscheiderInnen-Subjekt, sondern kon- stituieren dieses spezifische Subjekt bzw. die inter- und teils elementardiskur- sive Applikationsvorgabe bisweilen erst und proliferieren das spezialdiskursi- ve Konzept der Entscheidung gegebenenfalls in Situationen, die bis dahin gar nicht nach einer Entscheidung und einem entsprechenden Subjekt verlangten. Wie genau das jeweils geschieht, müssten weitere Analysen zeigen. Subjektpositionen des (Nicht-) Entscheiders 147 Anmerkungen 01˘ Solche Anwendungen finden sich etwa im Versuch, per Software mögliche Bereiche mit erhöhter Kriminalitätwahrscheinlichkeit zu bestimmen und darauf aufbauend Handlungsratschläge zu erteilen. Dieses Verfahren findet in den sogenannten Crime Prediction Centern Anwendung. 02˘ Aus Gründen der Lesbarkeit verwenden wir in derartigen grammatikalischen Konstruktionen, in denen das Binnen-I nicht ohne Weiteres einzusetzen ist, ausschließlich die weibliche Form, schließen damit aber auch die männliche mit ein. 03˘ Auf Amazon.com werden laut unbestätigten Quellen über 280 Millionen Produkte ange- boten (vgl.[http://marketplace-analytics.de/sortimentsgroesse-von-amazon-in-alle-laen- dern]; letzter Abruf 23.2.2016). 04˘ Eine ähnliche Differenzierung nimmt auch Ralf Adelmann (2006) im Hinblick auf verschie- dene Praktiken der Medienrezeption vor. 05˘ Die Möglichkeit des gegenüberstellenden Vergleichs, etwa in der Darstellung mehrerer ausgewählter Profile nebeneinander, ist bei Amazon aber nicht möglich. 06˘ Für nähere Erläuterungen zu den verschiedenen Filterverfahren siehe z.B. Mobasher (2007) oder auch Tiroshi, Amit / Kuflik, Tsvi / Kay, Judy / Kummerfeld, Bob (2012). 07˘ Vgl. zum Konzept der Automatismen die Veröffentlichungen des Graduiertenkollegs Automatismen in Paderborn: [http://www2.uni-paderborn.de/institute-einrichtungen/ gk-automatismen/publikationen/]; letzter Abruf 23.2.2016. 08˘ Vgl. auch unsere Argumentation in Othmer/Weich 2013, insb. S. 47. Literatur Adelmann, Ralf (2006) Schwarm oder Masse? Selbststrukturierung der Medienrezeption. In: Ralf Adelmann / Jan-Otmar Hesse /Judith Keilbach / Markus Stauff / Matthias Thiele (Hg.): Ökonomien des Medialen. Tausch, Wert und Zirkulation in den Medien- und Kulturwissen- schaften. Bielefeld: Transcript Verlag, S. 283-303. Behnke, Joachim (2013) Entscheidungs- und Spieltheorie. Baden Baden: Nomos. Eisenführ, Franz / Langer, Thomas / Weber, Martin (2010) Rationales Entscheiden (5. überarb. u. erw. Aufl.) . Heidelberg/Dodrecht/London/New York: Springer. Klahold, André (2009) Empfehlungssysteme. Recommender Systems. Grundlagen, Kon- zepte und Lösungen. Wiesbaden: Vieweg+Teubner. Laux, Helmut (2007) Entscheidungstheorie (7. überarb. u. erw. Aufl.) . Berlin/Heidelberg. 148 Andreas Weich / Julius Othmer Latour, Bruno (2006[1994]) Über technische Vermittlung. In: Andréa Belliger / David J. Krieger (Hg.): ANThology. Ein einführendes Handbuch zur Akteur-Netzwerk-Theorie. Biele- feld: Transcript, S. 483-528. Link, Jürgen (1997) Versuch über den Normalismus. Wie Normalität produziert wird (2. ak- tual. u. erw. Aufl.) . Wiesbaden: Westdeutscher Verlag. Luhmann, Niklas (2000) Organisation und Entscheidung. Opladen/Wiesbaden: Westdeut- scher Verlag. Mobasher, Bamshad (2007) Data Mining forWeb Personalization. In: Peter Brusilovsky / Alfred Kobsa / W. Nejdl (Hg.): The adaptive web. Methods and strategies of web personaliza- tion. Berlin/New York: Springer, S. 90-135. Ortmann, Günther (2009) Management in der Hypermoderne. Wiesbaden: VS Verlag für Sozialwissenschaften. Othmer, Julius / Weich, Andreas (2013) ›Wirbst du noch oder empfiehlst du schon?‹ Überlegungen zu einer Transformation der Wissensproduktion von Werbung. In: Zeitschrift für Medienwissenschaft, Nr. 9: Werbung. S. 43-52. Schimank, Uwe (2005) Die Entscheidungsgesellschaft. Komplexität und Rationalität der Moderne. Wiesbaden: VS Verlag für Sozialwissenschaften. Schröter, Jens (2004) 8448 verschiedene Jeans. Zu Wahl und Selektion im Internet. In: Friedrich Balke / Gregor Schwering / Urs Stäheli (Hg.): Paradoxien der Entscheidung. Wahl/Se- lektion in Kunst, Literatur und Medien. Bielefeld: Transcript, S. 117-137. Seliger, Edgar (1993) Betriebswirtschaftliche Entscheidungstheorie. Einführung in die Lo- gik individueller und kollektiver Entscheidungen (3. verb. Aufl.) . München/Wien: Oldenbourg Verlag. Tiroshi, Amit / Kuflik, Tsvi / Kay, Judy / Kummerfeld, Bob (2012) Recommender Systems and the Social Web. In: Liliana Ardissono / Tsvi Kuflik (Hg.): Advances in user mode- ling. Workshops : revised selected papers. Heidelberg: Springer, S. 60-70. Weich, Andreas (2013): These 7: Profile sind Selbst-Technologien. In: Hannelore Bublitz / Irina Kaldrack / Theo Röhle / Mirna Zeman (Hg.): Automatismen – Selbst-Technologien. Mün- chen: Fink Verlag, S. 311-315. Fernsehsendungen The Big Bang Theory, Staffel 7 (2014). Warner Bros. Television (TV Erstausstrahlung) . Subjektpositionen des (Nicht-) Entscheiders 149 150 Ralf Adelmann Modellierungen der Unentschlossenheit: Empfehlungssysteme als Kampfzone popkultureller Entscheidungsprozesse Was möchte ich als Nächstes kaufen, sehen, hören, spielen usw.? Möchte ich überhaupt kaufen, sehen, hören, spielen usw.? Möchte ich Ähnliches kaufen, sehen, hören, spielen usw.? Möchte ich mein Kaufen, Sehen, Hören, Spiel- en usw. für mich und andere bewerten? Die Unentschlossenheit der Konsu- menten, Rezipienten oder Nutzer markiert ein umkämpftes Terrain für Pro- duzenten, Plattformen¯1 und Shopsysteme im Internet. Empfehlungssysteme sollen dieses Terrain modellieren und die Unentschlossenheiten kanalisie- ren, um die scheinbare Notwendigkeit von Entscheidungen zu medialisieren, Entscheidungen zu naturalisieren und die Komplexität nicht-rationalisier- barer Elemente von Wahl und Entscheidung durch Vorhersage zu reduzieren. Die Funktionsweisen und Algorithmen von Empfehlungssystemen werden als strategisches Wissen der Produktionsseite geheim gehalten und treten den Rezipienten in der Regel nur als Software-Oberflächen und medial redu zierte Entscheidungsalternativen auf Internetplattformen entgegen. Trotzdem benö- tigen auch Rezipientenentscheidungen gewisse Freiheitsgrade – bis hin zur Unentschlossenheit, um überhaupt individuelle Wahlmöglichkeiten erfahr- bar zu machen. Dadurch sind die Praktiken der Nutzer im Zusammenspiel mit Empfehlungssystemen weder vollständig vorhersagbar, reproduzierbar und kontrollierbar, noch können Anregungen von Nutzeraktivitäten bewusst un- terbleiben, da das System auf Eingaben angewiesen ist. Am Beispiel des von Netflix ausgeschriebenen Wettbewerbs (Netflix Prize von 2006 bis 2009, Preisgeld: eine Million Dollar¯2) zur Verbesserung des eigenen Empfehlungssystems zeigen Hallinan und Striphas (2014) die Kämpfe (struggles im Sinne der Cultural Studies), die um die Gewichtung von Nutzerbewertun- gen in den Algorithmen, die Skalierbarkeit von Bewertungen, die angebotenen Filme und Fernsehserien, die Definition von Kultur sowie die popkulturellen Praktiken geführt werden: »an effort to reinterpret what culture is – how it is evaluated, by whom, and to what ends« (ebd., 3). Diese Kämpfe betreffen für Hallinan und Striphas alles, was in Anschluss an Raymond Williams Key- words (1983) als culture zu verstehen ist. Der Verweis auf Williams und auf Überlegungen der Cultural Studies zu culture deuten auf eine fundamentale Modellierungen der Unentschlossenheit 151 Veränderung hin, die Williams zu Beginn von Keywords anhand seiner persönli- chen Erfahrung und Entfremdung vom Universitätsdiskurs nach seiner Zeit als Soldat im Zweiten Weltkrieg festmacht (ebd., 11): »[…] I found myself preoccu- pied by a single word, culture, which it seemed I was hearing very much more often […]« (ebd., 20, Herv. i. O.). Wie nun Striphas (2015) mit dem von Galloway (2006) entliehenen Begriff der algorithmic culture deutlich machen möchte, befinden wir uns in einer historischen Phase der Neudefinition von Kultur und kulturellen Praktiken durch ähnlich tiefgreifende technische und gesellschaft- liche Veränderungen wie nach dem Zweiten Weltkrieg. An diese Überlegungen anschließend möchte ich im Folgenden stärker die ge- nerell unterschiedlichen Wissenstypen von Empfehlungssystemen und Pop- ulärkultur im Hinblick auf die Modellierung von Entscheidungsprozessen the- matisieren und die Kämpfe in den Mittelpunkt stellen, die bei Hallinan und Striphas (2014) – trotz ihres starken Bezugs auf die Cultural Studies – eher am Rande verhandelt werden. Dabei übernehme ich das Beispiel des Netflix Prize, weil diese öffentliche Ausschreibung eines Wettbewerbs zur Optimierung von Auswertungs- und Vorhersagealgorithmen bestimmte popkulturelle Kampf- zonen bei der Modellierung von Empfehlungssystemen sichtbar macht. Aus- gehend vom Netflix Prize entwickle ich allgemeine Überlegungen zu Empfeh- lungssystemen in popkulturellen Praktiken. In Anlehnung an den ingenieurswissenschaftlichen Begriff des reverse engi- neering möchte ich die Rückübersetzungsprozesse von den Daten zu den pop- kulturellen Praktiken durch die Programmierer als reverse culturing bezeich- nen. Während Striphas (2015) die Bedeutungsverschiebungen von culture als Ausguss von alltäglichen kulturellen Aktivitäten begreift – »everyday cul- tural activities are now data-driven activities subject to machine-based in- formation processing« (ebd., 398) – und die Transformationen von Kultur be- griffsgeschichtlich und diskursiv-semantisch (im Sinne von Williams Keywords) erfasst, werde ich die historische Genese der popkulturellen Praktiken nicht weiter verfolgen und mich stattdessen auf einige der momentanen Kampf- zonen konzentrieren. Endet das Lesen eines Buches auf einem E-Reader, dann erscheint automatisch ein Dialogfenster, das zur Bewertung des Gelesenen auffordert. Die Qualität des gerade beendeten Buches soll beispielsweise mit einem und bis zu fünf Sternen eingeschätzt werden und der Leserin oder dem Leser werden weit- ere Bücher zu Lektüre empfohlen. Ein kleines Gedankenspiel in der Art von re- verse engineering bringt eine Kampfzone von Empfehlungssystemen auf den Punkt: Die Aufgabe bestünde darin, dass auf Basis der vom System gegebenen Buche mpfehlungen herausgefunden werden soll, welches Buch zuvor gelesen 152 Ralf Adelmann wurde. Das Ergebnis könnte erneut auf seine Qualitäten und Richtigkeit hin diskutiert werden. Mit reverse engineering wird eine ingenieurswissenschaft- liche Methode auf kulturelle Phänomene angewandt, die zuerst an Technik (Hardware) ausprobiert wurde: »Reverse engineering is defined here as the act of creating a set of specifications for a piece of hardware by someone other than the original designers, primarily based upon analyzing and di- mensioning a specimen or collection of specimens. Reverse engineering might seem to be an unusual application of the art and science of engineering, but it is a fact of everyday life« (Re- koff 1985, 244). Interessanterweise beschreibt Rekoff hier reverse engineering als ein ›Faktum des Alltags‹, eine Alltagspraxis ganz im Sinne der Cultural Studies. Später wird reverse engineering als Untersuchungsmethode explizit auf Software ange- wandt (Chikofsky/Cross 1990), so dass die Übertragung auf Empfehlungssys- teme eine qualifizierte Methode zu angemessenen Erkenntnissen über deren Arbeitsweise zu sein scheint. Auf kulturelle Spielformen des reverse engineer- ing komme ich gleich noch an einem anderen Beispiel zurück. Die Erfahrung mit Empfehlungssystemen auf E-Readern ist also nicht ungewöhnlich und lässt sich alltäglich auf vielen digitalen Plattformen in ähnlicher Form erleben. Beim Zugang zu und der Nutzung von kommerziellen Medieninhalten auf In- ternet-Plattformen werden die Nutzer häufig mit automatisierten Vorschlä- gen weiterer möglicher Medienaktivitäten konfrontiert. Was ist nun die Relevanz von Empfehlungen in Bezug auf die jeweilige Platt- form, die sie uns präsentiert und ist der ›Erfolg‹ von Empfehlungssystemen abhängig von den Produkten oder der Plattform? Amazon präsentiert sich in diesem Punkt als ein interessanter Beispielfall. Nach eigenen Angaben von Amazon gingen 2006 ungefähr 35% der Einkäufe auf Empfehlungen zurück, 2014 sei die Zahl auf 60% gestiegen. Die Prozentangaben von Amazon sind un- abhängig nicht zu überprüfen und damit bleiben ebenso die Erhebungsmetho- den im Dunkeln. Aber zumindest lässt sich die diskursive Relevanz von Empfe- hlungssystemen für Amazon aus den publizierten Statistiken herauslesen: so zeigen die hohen Werte wenigstens die zugesprochene Bedeutung von Emp- fehlungssystemen bei der Modellierung von Entscheidungsprozessen beim Warenkauf. Gleichzeitig gibt es Plattformen, bei denen Empfehlungssysteme keine große Rolle spielen: Beispielsweise werden Ebay-Artikel angeblich zu 90% über die Suchfunktion gefunden und erworben. Empfehlungssysteme er- richten bestimmte Ordnungen in einem bestimmten Kontext von Inhalten und Verhalten und eignen sich nicht für alle digitalen Plattformen gleichermaßen. Modellierungen der Unentschlossenheit 153 Das in der Literatur am häufigsten zitierte Beispiel für Empfehlungssysteme ist Netf lix. Nach Angaben von Netflix werden 75-80% der Nutzungen auf Emp- fehlungen zurückgeführt. Selbst wenn wir diesen wiederum nicht unabhängig nachprüfbaren Prozentsatz erneut nur als diskursive Tendenz lesen, kann man durchaus unproblematisch die These vertreten, dass Empfehlungssysteme Ele- mente popkultureller Praktiken geworden sind. Dies ist eine Facette meiner Verwendung des Begriffs Kampfzone im Sinne der Cultural Studies: Hier geht es um Bedeutungshoheiten, die Verteilung von Macht und die Einordnung von Repräsentationen in unser kulturelles Koordinatensystem. Antagonisten in dieser Kampfzone sind zum Beispiel Empfehlung und Geschmack, Abgrenzung und Kontexte, Algorithmen und Verhalten, Struktur und Agency, Kontrolle und Empowerment usw. Sie bestimmen den diskursiven Raum, in denen bestimm- te Praktiken ermöglicht oder erkannt und andere Praktiken ausgeschlossen oder verhindert werden. Kampfzonen grenzen das Feld ab, in denen im Sinne der Cultural Studies Artikulationen (»articulations«) stattfinden können. Law- rence Grossberg beschreibt diese Kampfzone in Bezug auf Identität: »Articulation is the production of identity on top of difference, of unities out of fragments, of structures across practices. Articulation links this practice to that effect, this text to that mea- ning, this meaning to that reality, this experience to those politics […] Articulation is a continu- ous struggle to reposition practices within a shifting field of forces […]« (Grossberg 1992, 54). Einige dieser Punkte sollen nun näher betrachtet werden. Am Beispiel von zwei zentralen Komponenten des Empfehlungssystems von Netflix – der kollabora- tiven Filterung¯3 und der Verschlagwortung – lässt sich die Kampfzone am Ge- genstandsfeld audiovisueller Streamingangebote untersuchen und in einige allgemeine Überlegungen am Ende überführen. Reverse culturing Unter dem Aspekt der Rekonfiguration von Kultur im Sinne der Cultural Stud- ies analysieren Hallinan und Striphas (2014) in der Zeitschrift New Media & Society die Geschichte des Netf lix-Preises und seiner diskursiven Linien an- hand der Äußerungen der Beteiligten, der mathematischen Verfahren und den Bedingungen der Netf lix-Plattform. Die Argumentation der beiden Autoren möchte ich als Ausgangspunkt für eine Problematisierung ihrer Ergebnisse und eigene Überlegungen zu den Kampfzonen nehmen. Wer sich mit Emp- fehlungssystemen beschäftigt, kommt an der Geschichte des Netf lix-Preises kaum vorbei, weil in diesem öffentlichen Wettbewerb Nutzerdaten, Algorith- 154 Ralf Adelmann men und Kommunikationen der Programmierer zugänglich waren, die in der Regel Betriebsgeheimnisse der Plattformen bleiben. Der Wettbewerb startet 2006 und Netflix schreibt ein Preisgeld von einer Million Dollar für denjenigen aus, der die Genauigkeit des bisherigen Empfehlungssystems (Cinematch) um zehn Prozent erhöht. Vereinfacht gesagt, geht es um eine verbesserte Vorher- sage von Nutzerwartungen auf Basis von kollaborativen Filtern. Bei der kolla- borativen Filterung werden die vorliegenden Nutzungsdaten vieler Rezipient- en verwendet, um eine spezifische Vorhersage für die zukünftigen Interessen eines Nutzers zu erzielen. Auf der Netf lix-Plattform können die Zuschauer jeden Film und jede Fernseh- serie mit einem bis fünf Sterne bewerten, so wie es auf vielen weiteren Inter- netplattformen üblich ist. Das Empfehlungssystem auf Basis von Bewertungen anderer Nutzer berechnet nun die wahrscheinlichen Bewertungen, von noch nicht durch den individuellen Nutzer bewerteten Filmen und Serien. Unter an- derem mit diesen Vorhersagen werden dann Empfehlungen für die einzelne Nutzerin oder den einzelnen Nutzer generiert. Das Ziel wäre eine Empfehlung zu generieren, die auch angenommen wird und den Erwartungen der Rezipi- enten entspricht. Ungefähr 50.000 Teilnehmer suchen im Wettbewerb des Net- f lix-Preises drei Jahre lang nach einer Lösung, welche die bisherigen Algorith- men des Empfehlungssystems um zehn Prozent optimiert (gemessen an den zutreffenden Empfehlungsvorhersagen). Auf der Basis von realen, aber nur be- grenzt verfügbaren Nutzerdaten können einerseits die Teilnehmer des Wett- bewerbs unter realistischen Bedingungen ihre Lösungsvorschläge testen und andererseits kann mit den Nutzerdaten, die den Teilnehmern nicht zugänglich sind, der Erfolg der vorgeschlagenen Algorithmen durch Netflix überprüft und gemessen werden. Am Ende des Wettbewerbs wird die gewünschte Opti- mierung von zehn Prozent erreicht und die Gewinner werden ausgezeichnet. Das Interessante für eine medienwissenschaftliche Analyse und Einordnung dieses Wettbewerbs ist, dass alle Teilnehmer in einem Forum von Netflix und in ihren Blogs über die Lösungsansätze diskutieren und dass in den Massenme- dien sowie im Internet über den Netflix-Preis berichtet wird. Das Frontend und die Oberflächen von Netflix werden also etwas aufgebrochen und wir können Einblicke in technische und kulturelle Prozesse der Backend-Programmierung einer Internetplattform erhalten. Diese vielfältigen Äußerungen zum Netflix-Preis nutzen Hallinan und Stri- phas (2014) um den Wettbewerb der Algorithmen gleichsam als einen Wett- bewerb – und in meinem Sinne als einen Kampf – um kulturelle Bedeutun- gen und Praktiken zu verstehen. Zugespitzt sehen sie darin ein Paradebeispiel für eine Tendenz zu einer von ihnen postulierten ›algorithmischen Kultur‹, in Modellierungen der Unentschlossenheit 155 denen Algorithmen sowie die Software-Ingenieure und Mathematiker popkul- turelle Praktiken und Kultur im Allgemeinen auf bestimmte Zwecke wie die Optimierung von Empfehlungssystemen hin bewerten und dadurch unsere Vorstellungen und Begriffe von Kultur, deren Werte, Handlungsmöglichkeiten oder Bedeutungspotentiale transformieren. Diese Grundthese von Hallinan und Striphas lässt sich an einem Beispiel kon- kretisieren: Um den Wettbewerb mit realen Problemen eines Empfehlungssys- tems zu füttern, hat Netf lix den Teilnehmern einen Datensatz mit vorhandenen Filmen und realen, aber anonymisierten Nutzerbewertungen (ca. 500.000 Nut zer, ca. 18.000 Filme) zur Verfügung gestellt. Ein Nutzer aus diesem Daten- satz hatte erstaunlicherweise über 17.000 Filme bewertet. Diese Spielart pop- kultureller Praktiken, viele Filme – vielleicht auch ungesehen – zu bewerten und sie dann auch noch schlechter oder besser als der Durchschnitt einzuschät- zen, werden im Forum des Wettbewerbs problematisiert und diskutiert: »prodigious: Customer # 305344 apparently rated 17,000+ movies. Is this really realistic? Can any of you imagine a customer rating that many movies? More's the point, if you paid a customer to rate one movie a minute, that would take 7 weeks of full time work to rate that many. Is some of the data bogus? chen: Jim Bennett [James Bennett war damals Vizepräsident bei Netflix, R.A.] mentioned this guy (or girl) in passing during his presentation at Recommenders conference (available online). Appar- ently this person really exists and is a real customer. He also mentioned customers who always give everything a score of 1, or their polar-opposite brothers who give everything a score of 5. Would you consider these points outliers? It's your call...«¯4 In den Diskussionen auf der Forumsseite des Netflix-Preises wird nach Lösun- gen gesucht, diese popkulturellen Praktiken entweder in die Algorithmen zu integrieren oder komplett auszuklammern. Probleme verursachen auch po- larisierende Filme mit sehr unterschiedlichen Wertungen von einem oder von fünf Sternen wie der Film Napoleon Dynamite (USA 2004, R: Jared Hess). Wie gehen die Programmierer mit diesen – aus ihrer informatischen Sicht prob- lematischen – Fällen um? Letztlich müssen sie diese Praktiken (kulturell) in- terpretieren, um ihre Relevanz für die Entwicklung von Algorithmen einzu- schätzen. Dies erinnert strukturell und als epistemische Geste an das schon erwähnte reverse engineering, nur dass es hier um popkulturelle Praktiken geht, die opak für die Programmiergemeinde sind, und nicht um Technologien. 156 Ralf Adelmann Nicht die Programmierungen und technische Grundlagen einer Plattform sind Black Boxes für ihre Nutzer, sondern die kulturellen Praktiken auf dieser Platt- form sind eine Black Box für die Programmierer und ihre Algorithmen. Die Ein- schätzungen der kulturellen Deutungen und Geschmacksurteile, die hinter diesen auffälligen Bewertungen liegen, müssen also in einer Art reverse cul- turing durch die Programmierer rekonstruiert werden, damit sie in Algorith- men übersetzt werden können. An diesem Punkt prallt im reverse culturing das mathematisch exakte Wissen als Grundlage von Software auf die ›schmut- zigen‹ popkulturellen Äußerungsformen, die mit einem instabilen, sich ste- tig veränderten und subjektiven Wissenstypus operieren. Dabei stellen sich die Programmierer die Frage: Muss ich die popkulturellen Verhaltensweisen in einer bestimmten Umwelt komplett verstehen, um ein Empfehlungssystem programmieren zu können? Inwieweit sind der popkulturelle Exzess, die Bre- ite von Geschmacksäußerungen, die reine Lust am Bewerten, das Spiel mit den Algorithmen, das Herunterwerten von Filmen, die bloße Widerständigkeit und die vielen anderen popkulturellen Verhaltensweisen relevante Kriterien für die Programmierung eines kollaborativen Filters? Können diese Prakti ken in Algorithmen untergebracht werden oder offenbart sich an ihnen eine Gren- ze des algorithmisch Erfassbaren und Programmierbaren? Entgegen der Leit- idee einer algorithmischen Kultur bei Hallinan und Striphas (2014) verbirgt sich hinter diesen spezifischen Problemen des Netf lix-Wettbewerbs ein all- gemeiner Defekt eines hauptsächlich auf die technischen und medialen Sys- teme schielenden Verständnisses von Kultur. Fraglich ist dabei, ob alle Wis- senstypen einer ingenieurswissenschaftlich ausgerichteten Programmierung von Em pfehlungssystemen verlustfrei in das Wissenssystem der Populärkultur übertragbar sind. Empfehlungssysteme wirken nach Hallinan und Striphas aber nicht nur in Rich- tung der Nutzer, sondern auch in Richtung zukünftiger Produkte. Sie simulie- ren ein doppeltes Futur: Welche zukünftigen Nutzerentscheidungen kann ich vorhersagen und welche Filme werden ein Publikum finden. Netf lix entschei- det sich bei seinen Eigenproduktionen für bestimmte Regisseure, Schauspie- ler, Themen usw. auf Basis der Daten aus Empfehlungssystemen. So entstan- den zum Beispiel die Serien House of Cards (2013-) oder Orange is the new Black (2013-). Durch das doppelte Futur der Empfehlungssysteme werden nicht mehr Rezipienten adressiert oder Filme eingeordnet, sondern es werden pop- kulturelle Geschmackslandschaften und die Empfehlungssysteme selbst adres- siert. Es kommt zu einem Zirkelschluss zwischen den potenziellen Filmen, deren Erfolg Empfehlungssysteme vorhersagen und den konkreten Filmen, die über Empfehlungssysteme den Zuschauern vorgeschlagen werden. In diesem Kon- Modellierungen der Unentschlossenheit 157 text bekommt die hohe Wertschätzung der ersten Netflix-Serien wie House of Cards oder Orange is the new Black bei Zuschauern und Kritikern noch eine weitere Facette: Entstehen hier weitgehend geschlossene Bestätigungskreis- läufe, die einen kulturellen Mainstream ausbilden und die Devianzen der Pop- kultur abschneiden? Im Unterschied zu Hallinan und Striphas (2014) sehe ich keine explizit neue Di- mension in dieser so genannten ›algorithmischen Kultur‹. Sind die Ausgangs- punkte statt einer culture im Sinne von Raymond Williams die vielen kul- turellen Praktiken und Äußerungen des Populären, dann sind diese generell untrennbar mit Medien verbunden und zu verstehen. Ebenso untrennbar sind sie in der jeweiligen historisch-spezifischen Medienlandschaft situiert. Die Or- ganisation popkultureller Erfahrungen war immer schon ein hybrider Prozess zwischen den Leuten und den ihnen zur Verfügung stehenden Techniken und Medien (Morris 2015, 456). Das heißt Populärkultur ist damit ebenso unmit- telbar mit Medien und deren Wertungssystemen und Kommunikationspoten- tialen verknüpft. Die Produktion und Publikation von Bestsellerlisten und Top Ten-Listen waren und sind integrale Bestandteile des Buch- und Musikmark- tes, auf die sich popkulturelle Praktiken beziehen. Genres und andere Kon- ventionen bilden sich als instabile Aushandlungsergebnisse zwischen Produk- tions- und Rezeptionssphäre. Empfehlungssysteme sind in diesem Sinne nur eine weitere Transformation des populärkulturellen Medienverbundes, die aber durch Besonderheiten wie beispielsweise das reverse culturing gekenn- zei chnet ist. Die Besonderheit dieser Transformation habe ich versucht am Net- f lix-Preis schon einmal anzudeuten. Mein zweites Beispielfeld aus dem Net- f lix-Empfehlungssystem ist die Verschlagwortung aller Filme und Serien. Das Perry Mason-Geheimnis¯5 Das Netflix-Empfehlungssystem ist selbstverständlich weitaus komplexer auf- gebaut und das im Wettbewerb um den Netflix-Preis thematisierte Feld der Vorhersage von Nutzerwertungen durch kollaboratives Filtern liefert nur ein Element des Empfehlungssystems. Der Gewinner-Algorithmus wurde sogar letztlich nicht in das Netf lix-Empfehlungssystem integriert. Beispielsweise f ließen weitere Nutzungsdaten und -profile sowie Aktivitäten in sozialen Me- dien in das Empfehlungssystem ein. Ein weiterer Fall von reverse culturing, das 2013/14 von Alexis C. Madrigal mit Hilfe von Ian Bogost durchgeführt wurde, beschäftigt sich mit der Verschlag- wortung der Netf lix-Datenbank. Auch in diesem Versuch lassen sich mit der 158 Ralf Adelmann Rekonstruktion der Software-Seite durch reverse engineering nicht alle Fragen über die Funktionsweise des Systems klären und es kommt erneut zum reverse culturing. Die Verschlagwortung ist ein Element des Empfehlungssystems, das nicht durch die Nutzer ausgeführt wird. Mit der Verschlagwortung sind Dut- zende Mitarbeiter bei Netf lix beschäftigt, die alle Filme und Serien nach ei- nem Handbuch (mit 36 Seiten) verschlagworten. Dieses microtagging bezeich- net Madrigal (2014) wiederum als reverse engineering von Hollywood durch Netflix, in dem die manuelle Verschlagwortung das angebotene audiovisuelle Material (Filme und Fernsehserien) auf ihre Grundelemente und Zutaten re- duziert. Aus diesem microtagging ergeben sich über 70.000 einzelne Genrebe- zeichnungen von Filmen. Diese Genres extrahiert Madrigal automatisch aus Netflix mittels eines kleinen Programms. Hier ein Ausschnitt aus der gewon- nenen Liste an Netflix-Genrebezeichnungen: »Emotional Independent Sports Movies Spy Action & Adventure from the 1930s Cult Evil Kid Horror Movies Cult Sports Movies Sentimental set in Europe Dramas from the 1970s Visually-striking Foreign Nostalgic Dramas Japanese Sports Movies Gritty Discovery Channel Reality TV Romantic Chinese Crime Movies Mind-bending Cult Horror Movies from the 1980s Dark Suspenseful Sci-Fi Horror Movies Gritty Suspenseful Revenge Westerns Violent Suspenseful Action & Adventure from the 1980s Time Travel Movies starring William Hartnell Romantic Indian Crime Dramas Evil Kid Horror Movies Visually-striking Goofy Action & Adventure British set in Europe Sci-Fi & Fantasy from the 1960s Dark Suspenseful Gangster Dramas Critically-acclaimed Emotional Underdog Movies« (Madrigal 2014). Diese Genrebezeichnungen sind nicht chaotisch gemischt, sondern folgen ein- er bestimmten Grammatik und sind an eine bestimmte kulturelle Hierarchie gebunden. Beispielsweise wird der Gewinn eines Oscars immer an erster Stelle genannt, der Zeitraum (z.B. 1950s) rückt immer ans Ende. Ansonsten hat die Grundformel folgende Struktur: »Region + Adjectives + Noun Genre + Based Modellierungen der Unentschlossenheit 159 Abb. 1 aus Madrigal (2014) On... + Set In... + From the... + About... + For Age X to Y« (Madrigal 2014). Mit den Daten aus dem reverse engineering hat Madrigal noch weiter gespielt, in dem er sie einem Datenanalyse-Tool (AntConc) ausgesetzt hat. Dies führt dann beispielsweise zu einem Ranking der meist benutzten Adjektive (Abb. 1) oder der zu den meist genannten Schauspielern (Abb. 2) in den generierten Genre- bezeichnungen. Der erste Name in der Liste von Abb. 2 »Raymond Burr« führt zum Perry Ma- son-Geheimnis als Emergenzphänomen des microtagging bei Netf lix. Raymond Burr ist der Schauspieler, der Perry Mason in der gleichnamigen Krimi-/An- waltsserie aus den 1950ern und 1960ern spielt. Warum er in so vielen Genre- bezeichnungen auftaucht, kann weder Madrigal (2014), noch Todd Yellin (Net- f lix's Vice President of Product Innovation) erklären. Yellin ist bei Netf lix für die Empfehlungssysteme zuständig und wird von Madrigal nach dieser eigenarti- gen Häufung von Perry Mason-Beteiligten in den Bezeichnungskategorien der Genres gefragt. Eine mögliche Erklärung sieht Yellin in der Komplexität des Sys- tems, den ›Geist‹ der Maschine, der emergente Phänomene wie das Perry Ma- son-Geheimnis hervorbringt: »Let me get philosophical for a minute. In a human world, life is made interesting by serendi- pity, […] The more complexity you add to a machine world, you're adding serendipity that you couldn't imagine. Perry Mason is going to happen. These ghosts in the machine are always going 160 Ralf Adelmann Abb. 2 aus Madrigal (2014). to be a by-product of the complexity. And sometimes we call it a bug and sometimes we call it a feature« (Madrigal 2014). In seiner Antwort spielt Yellin auf »serendipity«, den unerklärlichen Glücks- fund, als eine Begründung des Perry Mason-Geheimnisses an. Empfehlungssys- teme verhindern eigentlich Serendipität und nehmen damit teilweise Vergnü- gen sowie Lustgewinn beim Nutzer aus dem Entdeckungsprozess, der viele popkulturelle Praktiken begleitet (vgl. Adelmann 2014, 56). Wird es durch Kom- plexitätssteigerung eines Empfehlungssystems möglich sein, den Glücksfund als emergentes Phänomen des Zusammenspiels von Algorithmen und Ver- schlagwortung wieder erfahrbar zu machen? Und wie würde dies die pop- kulturellen Praktiken und Erfahrungen von Serendipität verändern? Gewollt sind diese Effekte von Seiten der Plattformbetreiber nicht, sie entstehen weni- ger als ›Geist‹ der Maschine, sondern vielmehr aufgrund nachvollziehbarer Rechen prozeduren, die mit dem Glücksfund nichts gemein haben. Zumindest strebt Netf lix in die Gegenrichtung, in dem es seinen Nutzern die Suche nach dem Glück, das Nachdenken, die Unentschlossenheit ersparen möchte. Yellin wiederholt in seinem Erklärungsversuch eine Projektion der künstlichen In- telligenzforschung, die zuerst behauptete, man müsse ein technisches System nur komplex genug bauen, bis aus dieser Komplexität Intelligenz als emergen- tes Zufallsprodukt entspringe. In Bezug auf die Genreproduktion als Ergebnis Modellierungen der Unentschlossenheit 161 der Verschlagwortung wäre ein automatisches reverse culturing ein Emergenz- phänomen komplexer Algorithmen: Der kulturelle Input der manuellen Ver- schlagwortung wird durch den Algorithmus in Genres umgewandelt, welche automatisch die kulturelle Erfahrung der Serendipität hervorbringen, welche die Nutzer durch das reverse culturing der ›Maschinen‹ überhaupt erst er- fahren können. Eine naheliegende Frage stellt Madrigal (2014) an Todd Yellin, den Vizepräsi- denten für Produktinnovation bei Netf lix, im Interview leider nicht: Warum lässt Netf lix nicht die Nutzer selbst die Verschlagwortung vornehmen, um die Komplexität des Systems zu erhöhen? Die Genretheorie kommt ohne die Akti- vitäten der Rezipienten bei der Konstruktion von Genres nicht mehr aus, aber Netf lix versucht es, so als wäre das Genre eine essentielle Qualität eines Films, die in einem Handbuch beschrieben werden könnte. Netf lix scheut Prozesse des reverse culturing mit seiner händischen Verschlagwortung durch eigene Mitarbeiter. Der bisherige Ansatz ist ausschließlich Top-down konzipiert und Erfahrungen wie der Glücksfund würden durch eine Bottom-Up-Verschlagwor- tung mit all ihren Redundanzen und Extremen sicherlich zunehmen. Die Model- lierung der Unentschlossenheit wird bei Netf lix hinter den Kulissen vorgenom- men, die Nutzer sollen von wesentlichen Erfahrungen und Wissens ressourcen ferngehalten werden. Das Empfehlungssystem soll nicht mit dem Wissen der Nutzer ›verunreinigt‹ werden. Die Rezipienten werden nur mit den Ergebnis- sen konfrontiert. Das Festhalten an einem essentiellen Genrebegriff, der letzt- lich durch die Vielzahl der zugelassenen Kategorien bei der Charakterisierung eines Films wiederum unterlaufen wird, erscheint aus genretheoretischer Sicht anachronistisch. Zum einen ist das Bestehen auf abgrenzbare Filmwerke in der zeitgenössischen Medienlandschaft, die mehr auf »themed entertain- ment« (Watson 2007, 119) – auch als Produktionsstrategie – setzt, mehr als un- gewöhnlich; zum anderen werden moderne ›Tendenzen‹ des Gegenw artskinos wie beispielsweise die so genannten »Mindgame Movies« nicht in dieser kon- servativ ausgerichteten Genrebeschreibung erfasst (Elsaesser 2009, 237ff.). Themed entertainment und ›Tendenzen‹ erfordern andere Algorithmen und die Einbeziehung des Zuschauerwissens oder der Kreativität der Zuschauer- organisation von Filmen als unabdingliche Elemente einer Einordnung einzel- ner Filme. Die beiden geschilderten Beispiele aus dem Netflix-Empfehlungssystem ste- hen exemplarisch für viele dieser Versuche, nicht nur die Inhalte sowie die vorläufigen und nachläufigen Praktiken zu bestimmen und zu beeinflussen, sondern auch zu kontrollieren und ihrer bisherigen Rezeptionsanteile zu be- rauben. Die Populärkultur greift diese Widersprüche im Empfehlungssystem 162 Ralf Adelmann von Netflix auf. Beispielsweise in einem über BuzzFeed hochgeladenen Video Netflix in real life¯6 in dem die Starrheit des Empfehlungssystems von Netflix durch die Übertragung der Kommunikationen in die Situation in einer Video- thek parodiert wird. Der Filmsuchende betritt unentschlossen die Videothek mit sehr ungefähren Vorstellungen und dem Verlangen nach Entspannung: »I am just trying to wind out…action or comedy.« Danach wird er durch einen Mit- arbeiter der Videothek, der wie ein personalisiertes Empfehlungssystem auf- tritt, an den Rand des Wahnsinns getrieben, da auf seine geäußerten Wünsche nie der richtige oder immer derselbe Film empfohlen wird. Das traditionelle word of mouthund die Verständigung in einem Wissenssystem popkultureller Äußerungen wird als unverzichtbar und nicht durch algorithmische Empfeh- lungen ersetzbar dargestellt. Mediale Modellierung der Unentschlossenheit Abschließend lassen sich aus den Beobachtungen bei Netf lix einige allgemeine Thesen zur medialen Modellierung der Unentschlossenheit ableiten: Wie Netflix in real life zeigt, können Empfehlungssysteme selbst zum Inhalt popkultureller Auseinandersetzungen werden. Diese Kampfzonen werden bei der Modellierung der Systeme ausgegrenzt, um möglichst harmonische Nutzer- identitäten zu erstellen, die rationale Entscheidungen treffen und nicht das vorgegebene Bewertungssystem ad absurdum führen. Ein Empfehlungssystem ist für die außenstehende Forschung in der Regel eine Black Box, die durch re- verse engineering mühsam wieder geöffnet werden muss. Warum sind Emp- fehlungssysteme auf eine Plattform beschränkt? Warum sind sie nicht Open Source? Warum modellieren sie nicht die Unentschlossenheit, in dem sie auch uneindeutige Empfehlungen zulassen? Meist präsentieren sie sich noch in der zur Zeit dominanten Kachelästhetik von Ergebniszusammenstellungen, welche die Nutzer zwar durchstreifen, aber die sie kaum aktiv mitgestalten können (Abb. 5). Durch alternative Sucheingaben über Sprachsteuerung kann die Beschr änkung auf einen Dienst oder eine Plattform überschritten werden, aber die Problematik einer fehlenden kollaborativen Modellierung von Un- entschlossenheit und spezifischen Praktiken auf Seiten der Rezipienten wird damit nicht gelöst. Die Kampfzone befindet sich damit auf einer neuen Ebene, die das data mining und die Organisation der Inhalte übernimmt. Während sich in der Populärkultur in der historischen Phase vor den Empfehlungssyste- men die Kämpfe auf der Bedeutungsebene der Medieninhalte abspielten, wird aktuell in den Empfehlungssystemen weniger um Inhalte als sehr viel mehr um Modellierungen der Unentschlossenheit 163 Organisationseinheiten gekämpft. Morris (2015) bezeichnet diese Ebene als in- fomediaries: »organizational entities that monitor, collect, process and repackage cultural and technical us- age data into an informational infrastructure that shapes the presentation and representation of cultural goods« (ebd., 452). »Infomediaries are organizational, but they are also iterative. They offer a set of raw materials upon which other services are built« (ebd., 455). Das Fehlen von Bewertungsseiten wie metacritic.com oder rottentomatoes. com, in die auch Nutzerbewertungen einfließen, kann bei Netf lix durch kleine Hacks wie Netflix Enhancer¯7 nachgerüstet werden, mit denen man auch einzelne Filme oder Serien aus der Empfehlungsliste wegklicken kann. So gibt es eine Reihe von Ratschlägen, Hacks oder Browser Plugins, die aus Netflix mehr für eine individuelle Nutzung herausholen, die Oberflächen freier gestalten oder die vorgegebenen Ordnungsschemata von Netflix überlisten. Durch diese kleinen Modifikationen wird auch das Empfehlungssystem manipuliert und für relevante Entscheidungsprozesse oder die ebenso relevanten Unentschlos- senheitsprozesse der popkulturellen Praktiken angepasst. Neben diesen kleinen technischen Hacks gibt es einen im Internet publizier- ten popkulturellen Kontext zu Netflix-Inhalten, der unter anderem eigene Empfehlungen anbietet: »Time to kill? Here are 126 riveting movies you can watch on Netflix right now.«¯8 oder »The 100 Best Movies Streaming on Net- f lix (2014)«¯9 sind nur zwei exemplarische Angebote aus einer großen Menge ähnlicher Empfehlungen. Diese Art von Empfehlungen, die redaktionell durch Gatekeeper gefiltert oder direkt als persönliche Vorlieben verbreitet werden, existieren auf anderen Websites außerhalb der Einflusssphäre von Netflix. Sie schaffen neue Kontextualisierungen und Ordnungsmuster, die Alternativen zu den geschlossenen Empfehlungssystemen von Netflix bieten. Diese Emp- fehlungen und auch Nicht-Empfehlungen verbinden sich mit anderen Ober- f lächen, nehmen andere Ästhetiken und Praktiken auf, wie beispielsweise auf YouTube (Abb. 3). Die Kampfzone beginnt also nicht erst mit den verschiedenen Repräsenta- tionsmöglichkeiten von Empfehlungen, sondern schon beim Zugang zu pop- ulärkulturellen Inhalten. Zu starke Reglementierungen des Zugangs könnt en Plattformen wie Netflix die klassische Rolle des Inhaltsanbieters zuweisen. Gleichzeitig bedienen sich die Nutzer mehrerer Plattformen mit ähnlichen An- geboten und damit sind sie verschiedenen Empfehlungssystemen ausgesetzt. Sind Empfehlungssysteme dann nicht einfach als Nachfolger des Programms im Kino und im Fernsehen zu verstehen? Sie können zwar Einfluss auf die 164 Ralf Adelmann Abb. 3: Netflix-Empfehlungen auf YouTube Rezeption ausüben, aber nur einen Teil popkultureller Entscheidungsprozesse beziehungsweise Unentschlossenheit abdecken. Auf der Ebene des Programms treffen »Subjekt und institutioneller Apparat Fernsehen« (Hickethier 1995, 76) zusammen. Mit dem Programm entsteht der »f low« (Williams 2002 [1975]) auf Produktions- und Rezeptionsseite; Switching und Zapping können als Artiku- lationen der Unentschlossenheit verstanden werden, die auf Defizite und An- gebote der Fernsehprogrammierung antworten. Das Programm bietet sich als Erfahrungsraum der Unentschlossenheit ebenso an wie das Empfehlungssys- tem. Selbstverständlich unter anderen medialen Bedingungen und Voraus- setzungen, aber aus dem gleichen Vergnügen am Zustand des Unentschlos- sen-Seins? Empfehlungssysteme sind per Definition begrenzt: »Ein Empfehlungssystem (oft auch ›Recommender System‹ genannt) ist ein System, das einem Benu- tzer in einem gegebenen Kontext aus einer gegebenen Entitätsmenge aktiv eine Teilmenge ›nützlicher‹ Elemente empfiehlt« (Klahold 2009, 1). Empfeh- Modellierungen der Unentschlossenheit 165 Abb. 4: kickasstorrents lungssysteme befassen sich mit dem Gegebenen, einem abgesteckten Terrain von Elementen. Populärkultur ist prinzipiell unbegrenzt, weder Kontexte noch Entitätsmenge stehen fest, sondern sind umkämpft und das Gegebene bleibt immer in einem unsicheren, instabilen Modus. Empfehlungssysteme sind nicht notwendige Bedingung popkulturellen Konsums; eventuell spielen sie auf be- stimmten Plattformen eine geringere Rolle als auf anderen. Auf den einschlä- gigen Downloadportalen und Tauschbörsen wie zum Beispiel kickasstorrents wird manches popkulturelle Produkt um ein vielfaches häufiger herunterge- laden als auf den kommerziellen Portalen von Netflix, iTunes, Amazon usw. Und diese Zugangsweise erfordert in der Regel einen Nutzer, der schon zuvor genau weiß, was er möchte. Die Oberflächen solcher Plattformen sind völlig anders ästhetisch gestaltet und die Ordnungen werden über andere Kriterien wie die Verfügbarkeit, die Größe, das Format oder die Aktualität der Dateien hergestellt (Abb. 4). Die Kachelf lächen (Abb. 5) kommerzieller Anbieter hät- ten in diesem Angebots- und Nutzungskontext keine Funktion, denn die Nut- zer modellieren sich auf Plattformen wie kickasstorrents ihre Unentschlossen- heit auf andere Weise, in dem sie die Offenheit des Zugangs als Ausgangspunkt nutz en. Am Beispiel kickasstorrents fällt unmittelbar auf, dass es zwar eine Verschlag- wortung über eine Tag Cloud gibt, die aber nicht redaktionell bearbeitet ist. So erklären sich die vielen Redundanzen in der Tag Cloud durch unterschiedli- 166 Ralf Adelmann Abb. 5: Amazon Video che Schreibweisen und Bildauflösungen oder Jahreszahlen als häufig gegebe- ne Schlagworte der Nutzer, die nicht ausgefiltert werden. Die verfügbaren Ti- tel sind in Listen aufgeführt, deren Parameter jeweils in hierarchische Reihen zu sortieren sind. Auf diesen Plattformen scheinen also die meisten Nutzer bei der Auswahl der medialen Angebote entschlossen und zielgerichtet zu han- deln. Sie benötigen keine plattformabhängige Transformationsleistung ihrer Unentschlossenheit. Sie wissen, was sie herunterladen möchten. Der Entschei- dungsprozess ist vorgelagert, die Unentschlossenheit schon weitgehend abge- baut. In den geschilderten Kampfzonen stehen die Strukturierungsfunktionen von Empfehlungssystemen nicht Entstrukturierungsstrategien von popkulturel- len Praktiken gegenüber, sondern die Modellierung der Unentschlossenheit schließt beides mit ein. Diese Modellierungsbemühungen bilden den Grund- stock an Praktiken in der Populärkultur wie am Beispiel von »Paul's Music Wreckommender« zu sehen ist. Der »Wreckommender« schlägt nach Eingabe von Lieblingsmusikern Künstler und Titel vor, die Anti-Empfehlungen entspre- chen: »Use this Wreckommender to find anti-recommendations. Give the wrec- kommender an artist that you like and it will give you a playlist of tracks from artists that are very different from the seed artist.«¯10 Der »Wreckommender« baut auf der Musikdatenbank The Echo Nest auf, die 2014 von Spotify übernom- men wurde (Morris 2015, 446ff.). Die Anti-Empfehlungen durch eine Empfe- Modellierungen der Unentschlossenheit 167 hlungsmaschine stellen zumindest einen Versuch dar, die Unentschlossenheit und die geschmacklichen Abneigungen der Rezipienten sowie die Wissens- typen der Populärkultur als Problemlage der Programmierung von Empfeh- lungssystemen ernst zu nehmen. Anmerkungen 01˘ Von »Plattformen« im Internet zu sprechen ist zumindest metaphorisch. Hinter der schein- baren Transparenz und den offensichtlichen Repräsentationsformen von Plattformen wie Netflix, Amazon oder Facebook verbergen sich spannende Fragen zur politischen und sozio-kulturellen Transformation der Medienlandschaft und der Bestimmung dessen, was unter einem Medium zu verstehen ist (siehe Clark et al. 2014). Diese Problematisierungen bilden unter anderem den Hintergrund der hier entwickelten Überlegungen zu Empfehlungssystemen, können aber an dieser Stelle nicht weiter verfolgt werden. 02˘ [http://www.netflixprize.com]; letzter Abruf 15.11.2015. 03˘ Kollaborative Filterung verwendet Nutzerverhalten und -profile für ein Empfehlungssystem. 04˘ [http://www.netflixprize.com/community/viewtopic.php?id=141]; letzter Abruf 15.11.2015. 05˘ Die Überschrift ist übernommen aus Madrigal (2014). 06˘ [https://www.youtube.com/watch?v=EglLfaECsdU]; letzter Abruf 15.11.2015. 07˘ [https://www.facebook.com/NEnhancer/timeline?ref=page_internal]; letzter Abruf 15.11.2015. 08˘ [http://www.digitaltrends.com/gaming/best-netflix-instant-movies/]; letzter Abruf 15.11.2015. 09˘ [http://uk.complex.com/pop-culture/best-movies-netflix-streaming-right-now/]; letz- ter Abruf 15.11.2015. 10˘ [http://the.echonest.com/app/pauls-music-wreckommender/]; letzter Abruf 15.11.2015. Literatur Adelmann, Ralf (2014) Listen und Ranken. Zur medialen Strukturierung des Internets. In: Norbert Otto Eke / Lioba Foit / Timo Kaerlein / Jörn Künsemöller (Hg.): Logiken strukturbil- dender Prozesse: Automatismen. Paderborn: Fink, S. 41-58. 168 Ralf Adelmann Chikofsky, Elliot J. / Cross, James H. (1990) Reverse engineering and design recovery: a taxonomy. In: IEEE Software Bd. 7, S. 13-17. Clark, Jessica et al. (2014) Participations: dialogues on the participatory promise of con- temporary culture and politics. Part 5: Platforms. In: International journal of communication Jg. 8, S. 1446-1473. Elsaesser, Thomas (2009) Hollywood heute: Geschichte, Gender und Nation im postklas- sischen Kino. Berlin: Bertz Fischer. Galloway, Alexander R. (2006) Gaming: essays on algorithmic culture. Minneapolis: Uni- versity of Minnesota Press. Grossberg, Lawrence (1992) We gotta get out of this place. Popular conservatism and postmodern culture. New York/London: Routledge. Hallinan, Blake / Striphas, Ted (2014) Recommended for you: The Netflix Prize and the production of algorithmic culture. In: New Media & Society, S. 1-21. Hickethier, Knut (1995) Dispositiv Fernsehen. Skizze eines Modells. In: montage/av 4,1, S. 63-83. Klahold, Andre (2009) Empfehlungssysteme Recommender Systems – Grundlagen, Kon- zepte und Lösungen. Wiesbaden: Vieweg+Teubner Verlag. Madrigal, Alexis C. (2014) How Netflix reverse engineered Hollywood. In: The Atlantic v. 02.01.2014, [http://www.theatlantic.com/technology/archive/2014/01/how-netflix-reverse- engineered-hollywood/282679/]; zuletzt abgerufen am 15.11.2015. Morris, Jeremy W. (2015) Curation by code: Infomediaries and the data mining of taste. In: European Journal of Cultural Studies Jg. 18, S. 446-463. Razlogova Elena (2013) The past and future of music listening: between freeform DJs and recommendation algorithms. In: Jason Loviglio / Michele Hilmes (Hg.): Radio’s new wave: glo- bal sound in the digital era. New York: Routledge, S. 62-76. Rekoff, M. G. (1985) On reverse engineering. In: IEEE Transactions on Systems, Man, and Cy- bernetics, SMC-15, S. 244-252. Striphas, Ted (2015) Algorithmic culture. In: European Journal of Cultural Studies Jg. 18: S. 395-412. Watson, Paul (2007) Genre theory and Hollywood cinema. In: Jill Nelmes (Hg.): Introduc- tion to film studies. London/New York: Routledge, S. 109-127. Williams, Raymond (2002 [1975]) Programmstruktur als Sequenz oder flow. In: Ralf Adel- mann et al. (Hg.): Grundlagentexte zur Fernsehwissenschaft. Konstanz: UVK, S. 33-43. Williams, Raymond (1983 [1976]) Keywords. A vocabulary of culture and society. London: Fontana. Modellierungen der Unentschlossenheit 169 170 Manuela Klaut Verfahren im Videotape Versuchsanordnung Mit der Frage nach den Medien der Entscheidung »This is one for the good days / entsteht die Frage, wie die Medien zum Entschei- And I have it all here / den kommen. Was legitimiert sie dazu, entschei- in red, blue, green. You are my center when I dende Eingriffe vorzunehmen, oder diese etwa spin away / durch Übertragungsfehler sogar zu verhindern? Out of control on videotape ... « Fakt ist, vor Gericht befinden sich Medien und Entscheidungen in einem Raum. In einem Ver- Thom Yorke fahrensraum, um den es in diesem Text gehen soll. Mit Luhmanns Definition – »Verfahren wird hier also als Sinnverbundenheit faktischen Handelns begriffen, Legitimation als Übernahme bindender Entscheidungen in die eigene Entscheidungsstruk- tur« (1983, VII f.) – befinden wir uns direkt vor Ort. Entscheidungen entstehen im Verfahren und sie entscheiden es. Doch vor Gericht werden die Medien der Entscheidung zu den entscheidenden Medien. Sie sind nicht nur Diener des Verfahrens, sie legitimieren sich durch eine Entscheidung und schließlich be- stimmt diese Entscheidung auch die Maßgaben dazu, was die ›richtigen Me- dien‹ sind. Interessant sind vor allem die Videozeugen, die Zeugen, die im Ge- richtssaal und über ihn hinaus gesendet werden. Es geht um die Projektionen, die Medien des Entscheidens sind, weil sie im Verfahren ermitteln und vermit- teln. Denn mit dem Einzug der Medien in den Gerichtssaal wird deutlich, dass sich die Entscheidungslast vergrößert: Medien müssen zugelassen werden. Me- dien übermitteln in andere Räume, Medien setzen Demokratisierungsprozesse in Gang (etwa in der Prozessöffentlichkeit des International Criminal Tribunal for the former Yugoslawia¯1), sie beteiligen, prozessieren und juridisieren ins schier Unbekannte. Denn was man nicht mit Gewissheit sagen kann: Wer sieht Ihnen beim Prozessieren denn wirklich zu? Zu den Entscheidungsparametern im Einsatz von Medien im Gerichtsverfahren wird dabei jedoch nicht nur die bewusste oder unbewusste Ausweitung der Öffentlichkeit, sondern auch die ästhetische und gezielte Information, die von Medien ausgeht und dabei Aus- Verfahren im Videotape 171 wirkungen auf die verfahrenstechnische Seite hat: Die Legitimation durch Ver- fahren wird zur Legitimation durch Medien. Doch wie lassen sich diese Systeme der Rechtswissenschaft und der Medien- wissenschaft ineinander übertragen? Es liegt nahe, andere Formen der Ver- mittlung im System der Rechtswissenschaft zu befragen, wie sie sich etwa aus der Soziologie ergeben. Die Frage danach, inwieweit etwa das analytische In- strumentarium der funktionalen Methode z.B. aus der Soziologie heraus in der Rechtspraxis eine Auslegungs- und Entscheidungshilfe leisten kann, be- antwortet Luhmann mit einem methodischen Dreischritt (vgl. 1999, 273 f.), der untersucht, wie sich Sinn und Funktion des Funktionsbegriffs im Kontext ju- ristischer Argumentation definiert und wie die soziologische Methode sich zur gegenläufigen ausdifferenziert. Dabei soll die Funktion im soziologischen Sin- ne dazu beitragen, die Rechtsnormen in ihrem Abstraktionsgrad zu reduzieren und klarstellen, inwieweit das Gesetz auf die Wirklichkeit reagiert und der kon- krete Fall in das Gesetz eintritt. Luhmann prognostiziert eine Skepsis der Sozio- logie, die sich ebenso in einer selektiven Betrachtung des Einzelfalls erklärt, in dem das Gesetz sich selbst dient: »Was aber tut der Jurist, [...] wenn der ame- rikanischen Antitrust-Gesetzgebung nachgesagt wird, ihre Funktion sei es, ein politisches Alibi und eine juristische Begründungsmöglichkeit für die Bildung von Trusts zu liefern?« (1999, 279f.) Die interessante Frage, die sich damit aus dem Zusammendenken von rechtswissenschaftlichen Dogmatiken und der Ein- führung von apparativen Medienkonstellationen im Gesetz ergibt, ist die nach den Deutungsmöglichkeiten des Einzelfalls. Ob diese Entscheidungsprogramme der richtigen Entscheidung dienen und dem richtigen Urteil, oder zur richti- gen Methode hinführen, lässt sich aus Luhmanns Anwendung der funktionalen Methode auf die juristische Entscheidung nicht lesen – doch sein Verbindungs- prozess beider Wissenssysteme ist interessant: »Dann erhellt, daß nur Trennung und Kooperation das gestellte Problem lösen können, näm- lich funktionale Analyse der Problemkonstellation von Systemen und Übernahme der so zuge- spitzten Probleme in juristische Entscheidungsprogramme, die dann mit hermeneutisch-exe- getischen Methoden zu richtigen Entscheidungen konkretisiert werden können.« (ebd., 307) Die folgende Auseinandersetzung zu den Medien des Entscheidens im Ge- richtsverfahren geht in gleichem Maße von dieser Trennung und Kooperation der Medienwissenschaft und des Rechts aus. Beide Wissenschaftsbereiche cha- rakterisieren sich durch Transferbegriffe, wie z.B. die des Verfahrens und Pro- zesses, der Subsumtion und Vermittlung und schließlich des Konstituierens und Entscheidens. Im folgenden werden demnach drei juristische Entschei- dungsprogramme interessant, nach denen sich das Verfahren 1. nach Medien- 172 Manuela Klaut konstellationen erneuert, 2. Medien zu Gesetzen führen, die ihren Gebrauch im Verfahren regeln und 3. das Verfahren zum Thema von Medien wird und so die Übertragung in andere Wissensräume einrichtet. Transitional Justice und übertragende Räume Denkt man das Prinzip von Trennung und Kooperation weiter, wird auffällig, dass das Verfahren, welches zwischen dem Einsatz von Medien und der Ge- richtsverhandlung steht, eines der Relationierung und zweifellos der Entschei- dung zwischen Trennung und Kooperation ist. Das macht es so schwierig, die- ses allgemein zu klassifizieren – denn auch Luhmanns Text Legitimation durch Verfahren beginnt mit der »in merkwürdigem Zwielicht stehende[n] Bedeu- tung«, in dem Verfahren und Entscheidung zueinander stehen¯2 (1983, 11); zugleich beschreibt der Text in einem zweiten Teil die mögliche Annäherung zwischen beiden, die durch die Beteiligung der Öffentlichkeit und über die Öff- nung von Verfahren in die Massenmedien entsteht: »Die Öffentlichkeit des Verfahrens führt vielmehr dazu, daß die nicht darstellbaren Kompo- nenten des Entscheidungsvorganges aus dem einsehbaren Handlungsraum herausgezogen und vorab oder zwischendurch entschieden werden. Zu diesem unsichtbaren Teil des öffentlichen Verfahrens gehören vor allem auch die Entscheidungen über die Darstellung des Entscheidens.« (ebd., 124) Vor dem Entscheiden kommt also das Abwägen darüber, wie eine Entscheidung dargestellt werden kann, was für das Verfahren demnach das Problem der Le- gitimation von Darstellung in den Mittelpunkt rückt. Luhmanns Beschreibung dieser Entscheidungs-Infrastruktur ist interessant, weil sie weniger hinsicht- lich einer Richtigkeit des Entscheidens argumentiert – sondern stattdessen eher die verfahrenstechnische Seite im Hinblick auf Störungen der Wahrheits- findung untersucht. Und weil Luhmann ein Dilemma offenlegt: Ein System, das entscheiden muss, kann nicht garantieren, dass es die richtigen Entscheidun- gen trifft. Das wird vor allem dann wichtig, wenn sich ein Gerichtsverfahren (etwa mit der Zulassung von Medien) selbst gefährdet. Bereits der Band Urtei- len / Entscheiden von Cornelia Vismann und Thomas Weitin (2006) legt diese Zweifel offen: »Statt also Definitionen voranzutreiben, ging es uns um die Spannung verschiedener Entschei- dungsmodi, wie sie mit dem Schrägstrich zeichenhaft angedeutet sein soll. Innerjuristisch lässt sie sich etwa als eine zwischen knallharter Entweder-Oder-Entscheidung und Ermessens-Ent- Verfahren im Videotape 173 scheidung ausmachen, welche ihrerseits so auftritt, als entscheide sie noch nicht. [...] Das Recht moderiert diese Spannung durch einen gesetzlich verstärkten Zwang zum Entscheiden, was zweifellos funktioniert, ohne jedoch die Aporien des Entscheidens zu beseitigen.« (ebd., 8) Das von der Entscheidung im Gericht Erwartete ist das Richtige, das vor allem in Abhängigkeit zum Gerichteten der Entscheidung steht und das Einrichten des Entscheidungsumfelds im Gericht voraussetzt. Im konkreten lassen sich zwei aktuelle Fälle zur Untersuchung der Entscheidungsumgebung analysie- ren – zunächst die am weitesten geöffnete (am Beispiel des ICTY) und im zwei- ten Fall eine, die sich trotz größtmöglicher öffentlicher Einsicht in das Verfah- ren der Entscheidungsfindung verschließt (NSU Prozess). Die ersten wichtigen Fragen bei der Betrachtung beider Fälle sind: Welche Entscheidungen liegen dem Vernehmen von Zeugen auf Video zugrunde und was legitimiert die Fern- übertragung in einen zweiten Gerichtssaal? Beide Fälle erlauben die Beant- wortung dieser Fragen nach dem Entscheiden als medialer Praxis, wobei sie verschiedene Räume der Entscheidungsfindung in den Blick nehmen. Zum ei- nen entstehen neue Räume der Zeugenschaft, wie sie vor dem Tribunal des ICTY mitverhandelt werden und zum anderen werden Räume im Gesetzes-An- trag der SPD Fraktion zur medialen Erweiterung der Gerichtsöffentlichkeit¯3 im Rahmen des NSU-Prozesses zu Entscheidungsträgern. Beide Fälle zeigen eine mediale Erweiterung des Zeugenstandes, die das Format der Video-Pro- jektion in ein Medium der Entscheidung wandelt. Der unsichtbare Teil des öf- fentlichen Verfahrens, von dem Luhmann spricht, gerät in den Streit mit seinen Räumen, die er mit dem Gericht als Verfahrensräume entwirft. Interessanter für eine Betrachtung des Unsichtbaren am Verfahren mit prozessierenden Me- dien wird der Gerichtssaal als Übertragungsraum gerichteter Sprechakte: »Nicht deshalb ist der Raum in der heutigen Sprache die bedrängenste aller Metaphern, weil man von nun an nur noch auf ihn zurückgreifen kann. Sondern weil sich die Sprache von Anbe- ginn im Raum entfaltet, sich in ihn hineinschiebt, in ihm ihre Wahlen trifft, ihre Figuren und ihre Übertragungen entwirft.« (Foucault 2009, 298) Im § 247a der Strafprozessordnung heißt es, dass die Entscheidung zur Anord- nung einer audiovisuellen Vernehmung von Zeugen »zulässig ist, soweit dies zur Erforschung der Wahrheit erforderlich ist. Die Entscheidung ist unanfecht- bar.« (StPO 7. April 1987) Daraus ergibt sich, dass die Entscheidung zur Nut- zung von Videoaufzeichnung von Zeugen, Sachverständigen, oder Mitbeschul- digten nicht nur eine Entscheidung innerhalb des Prozesses ist, sondern vor allem, dass diese Entscheidung den Prozess verändert. Diese Bild-Ton-Aufnah- men (nach § 58a StPO) werden nach Maßgaben des Prozesses zum Beweis-Do- 174 Manuela Klaut kument und erhalten demnach den gleichen Status wie die Verlesung einer Niederschrift bzw. einer Urkunde. Diese Zeugnisse, die dem Protokoll, der In- augenscheinnahme und dem Beweisstück plötzlich zur Ablösung gelten, zei- gen sich in ihrem Format jedoch problematisch und fügen sich nicht nahtlos in das Verfahren ein, sondern werden zu Öffnungen, an denen das Verfahren sich bricht. Das ICTY – der Internationale Strafgerichtshof für das ehemalige Jugoslawien – wurde durch eine Resolution des UNO-Sicherheitsrates vom 25. Mai 1993 ge- schaffen, um Verbrechen aufzuklären, die während der Jugoslawienkriege seit 1991 begangen worden sind. Besonderes Interesse kommt dem Prozess um Slo- bodan Miloçevic zu, der 2002 begann und im März 2006 durch den Tod Miloçe- vics endete. Alle wertvollen Hinweise zu diesem Prozess, hat Cornelia Vismann bereits in ihrer entscheidenden Untersuchung Medien der Rechtsprechung (2011) erfasst. Ihr Buch gibt überdies hinaus Informationen zum Status des ICTY als »Transitional Justice«, eine Prozessform, die zwischen zwei Rechtsordnun- gen einsetzt, als eine Justiz nach Regimewechseln. Das Verfahren kann dabei unabhängig von gerichtlichen Verhandlungsformen stattfinden, um spezifi- sche Kategorien des Unrechts für den Prozess offenzulegen. Das ICTY schließt jedoch in seinen Verfahrensprinzipien an herkömmliche Gerichte an, indem es einen Richter einsetzt: »Richter, die entscheiden«, so diagnostiziert es Cornelia Vismann, »schließen den Raum des Transitorischen als eines Mediums der Ent- scheidung.« (ebd., 357) Das ICTY überträgt alle Prozesse seit dem Jahr 2000 ins Internet.¯4 Sämtli- che Prozessdokumente werden gescannt, Beweisstücke fotografiert, Protokol- le hochgeladen. Es handelt sich um ein riesiges Online-Archiv, das nicht nur alle Prozesse als Videoaufnahmen archiviert, sondern zudem auch alle Versionen aktualisierter Reglements des Gerichts, die Sendepläne aller Online-Übertra- gungen und auch Jahres- und Presseberichte versammelt. In den aktuellen Ver- fahrensregeln des ICTY ist in Punkt 81 die Entscheidung über die Videoaufnah- me als eine des Gerichts festgehalten: »(A) The registrar shall cause to be made and preserve a full and accurate record of all proceedings, including audio re- cordings, transcripts and, when deemed necessary by the Trial Chamber, video recordings.« (ICTY, Rules of procedure and evidence 2015) Die Künstlerin und Kulturwissenschaftlerin Susan Schuppli ist beim Recher- chieren in diesem Archiv auf mehrere Videos gestoßen, die im Verfahren eine Klärung der Beweisstücke insofern vornehmen mussten, als es darum ging, welches denn eigentlich noch das Originaldokument ist: Im Laufe des Prozesses und der parallel laufenden Prozesse am ICTY werden von einer Zeugenaussage und dem entsprechenden Video-Dokument bis zu 7 Kopien angefertigt. Die Vi- Verfahren im Videotape 175 Abb.1: Susan Schuppli – Evidence on Trial ›Tape Comparison‹, veröffentlicht am 17.09.2014 auf youtube deos und deren anschließende Wandlung in verschiedene Formate tragen da- mit so etwas wie forensische Einschreibungen der verschiedenen Vorführungs- modi in den Gerichtssälen in sich. Damit werden nicht nur die Verbrechen, die seit 1991 in den Jugoslawienkriegen begangen worden sind, zur Verfahrenssa- che, sondern die Formatierung in das entscheidende Medium wird im Prozess unterdessen zum Verhandlungsgegenstand und die transitionale Rechtspre- chung so zur transitional media art. In dem kurzen Video, das Susann Schupp- li 2014 während der Konferenz Evidence on trial in Den Haag zeigte, ist ein kur- zer Prozess-Mitschnitt enthalten, in dem der Staatsanwalt die folgende Frage stellt: »My final question sir, you´ve told us, in both in the statement and under cross examination about the actual video tapes and you talked about differences in format and then re-recor- ding. First format of the original tape I´m holding up a very small videotape, would you look at it please? Is that the original format that the tape which was designated as 1733 – is that the for- mat of the original tape?« (Transkription der Eingangsszene aus evidence on Trial, Tape com- parison, Schuppli, 2014) Diese Szene steht exemplarisch für die diffizile Beweislage, die sich aus der Verschiedenheit und Vielzahl der Medien im Prozess ergibt. Doch eine weitere Einschreibung wird interessant: Die in das Material selbst. Was passiert dem- 176 Manuela Klaut Abb.2: Bild aus einem Zeugen-Video vom 11.10.2010 im Online-Archiv des ICTY, aufgenommen im Fall um die Verurteilung von Radomir Kovac und Draguljub Kunarac wegen Verbrechen ge- gen die Menschlichkeit und Vergewaltigung. nach, wenn die Video-Vernehmung von Zeugen für das Verfahren genehmigt wurde, diese im Verfahren als Projektionen im Gerichtssaal auch gezeigt wer- den dürfen und dann schließlich via Internet in jedes X-beliebige Wohnzim- mer übertragen werden können? Die Aussagen der Videozeugen werden dann wiederum so verfremdet, dass Ihnen aus dem medialen Aufwand aus Video- Aufnahme, Übersetzung der Aussage, Überlagerung der Tonspur des Gespro- chenen und anschließende Unkenntlichmachung des Bilds nur mehr eine Infor- mation bleibt: Eine verlesene Transkription der eigenen Aussage, die das Bild sich bewegender Quadrate zu kommentieren scheint. Die Entscheidung, das Verfahren den Medien zu überlassen, führt zur sinnbild- lichen Wahrnehmung des Rechts: Man sieht die verpixelte Form des Rechts auf Schutz der Persönlichkeit und hört anstelle der Originalstimme eine Überset- zung, von der man nur ahnen kann, dass es Sätze gibt, die sich nicht überset- zen lassen. Entsprechend Luhmanns Ausführungen zu den Grenzen der Lernfä- Verfahren im Videotape 177 higkeiten sieht man keine Zeugen, bekommt aber Einblick in die Situation des Verfahrens: »Verfahren erzeugen nicht nur bleibende Einsichten, sondern blei- bende Enttäuschungen.« (1983, 112) Es werden schlichtweg Entscheidungen sichtbar und hörbar, die dem Material verordnet wurden – aber geben sie wirklich einen Einblick in den Prozess frei, nicht nur in das Verfahren? Besitzen die Videoaufnahmen von Zeugen über- haupt die Eigenschaften eines Beweismittels, die im Verfahren benötigt wer- den, oder sind sie das Transfermedium einer Information über den Prozess und reinszenieren schlicht die Aussagen für das Verfahren? Welche Aussagekraft besitzen die Videozeugen? Dazu muss zunächst geklärt werden, wie es zur Ent- scheidung vor dem Verfahren kommt und Videozeugen zugelassen werden. Mediale Verfahren der Übertragung Der Einsatz von Videotechnik im deutschen Strafprozess ist in zweierlei Weise denkbar – zur Konservierung einer Zeugenaussage auf Videoband und ande- rerseits zur simultanen Übertragung der Zeugenaussage von einem Ort zum anderen. Entstanden sind die Regelungen zunächst zum Schutz von Zeugen, doch die Entwicklung zeigt den Einsatz dieser Grundsätze auch mit der Begrün- dung zur Entwicklung der Kontingenz und Effizienz des Verfahrens. Verändert sich die Wahrnehmung mit der Beteiligung der Medien am Prozess? Zulässig ist die Videovernehmung nach § 58a Absatz 2 Satz 1 StPO nur, soweit dies zur Er- forschung der Wahrheit erforderlich ist, d.h. wenn mit ihr ein potentieller Er- kenntnisgewinn einhergeht: »Damit hebt das Gesetz hervor, dass die Anordnung einer audiovisuellen Vernehmung unter Aufklärungsgesichtspunkten dann nicht erforderlich ist, wenn von ihr keine weitergehende oder bessere Aufklärung zu erwarten ist, als etwa durch Verlesung [eines Vernehmungsproto- kolls] nach § 251 Abs. 2 StPO. Maßstab der Aufklärungspflicht ist damit der Aufklärungsmehr- wert, den das Gericht der Videotechnik beimisst.« (Leitner 2012, 67) Diese zusätzliche von der Aufzeichnung erhoffte Aussagequalität erweitert die Möglichkeiten des Verfahrens um seine Wiederholbarkeit und Aufführbarkeit und um jene eines späteren Nachvollziehens im Falle der Revision. Für das be- stehende Verfahren sind die Aufklärungsgesichtspunkte jedoch nicht näher bestimmt – sie bedürften ästhetischen Prämissen um gezielte Nachweise füh- ren zu können. 178 Manuela Klaut »Über die praktische Ausgestaltung des Verfahrens, insbesondere die technische Durchführung der sogenannten zeitgleichen Bild-Ton-Übertragung enthält das Gesetz keine Aussagen. Maß- gebend muss dabei sein, dass allen Prozessbeteiligten die unbeeinträchtigte Ausübung ihrer prozessualen Befugnisse gewährleistet bleibt.« (ebd., 70) Am Ende steht schließlich die gesetzlich angeordnete Löschung aller an die Ver- fahrensbeteiligten herausgegebenen Kopien, es sei denn ein Mittäter ist f lüch- tig oder es ist mit einer Wiederaufnahme des Verfahrens zu rechnen. Trägt die Videoaufnahme dazu bei, Fehler im Protokoll nachvollziehbar zu machen, zu beweisen, oder Zeugen vor einer Konfrontation zu bewahren, oder, um schließ- lich der Forderung der Bundesrechtsanwaltskammer von 2010 nachzukommen, die eine Gewährleistung von mehr Authentizität durch den Einsatz von, wie es heißt »moderner Aufzeichnungstechnologien«, argumentiert? (vgl. BRAK 2/2010, 60 ff.) Die Forderungen und Gesetzesentwürfe sind allesamt sehr ungezielt. Sie for- dern die Medialisierung des Verfahrens: Alles soll aufgezeichnet werden, sämt- liche Hauptverhandlungen und Nebenabreden. Das Gesetz regelt bislang so das ordnungsgemäße Zustandekommen der Aufzeichnung, jedoch fehlt die Maßgabe zur Umsetzung dieser medialen Beglaubigungsverfahren nach äs- thetischen Richtlinien. Wer fällt die Entscheidung darüber, wo die Kamera im Raum steht? Wie können Aufnahmen versiegelt werden und die Datenmen- gen archiviert werden, wenn man bedenkt wie viele Gerichtsverfahren es wohl weltweit an einem Tag gibt? Wie gewährleistet man den Einsatz der gleichen Videotechnik in allen Gerichtssälen? Viel wichtiger ist aber die Frage, wie sich die Medien vor Gericht konstituieren, und wie sie verfasst sind, um zu Medien des Entscheidens zu werden: »Den Medien des Rechts und den kulturtechnischen Anfängen und Setzung des Rechts kommt man nicht mit essentialistisch-normativen Bestimmungen bei, was Schrift als solche, Sprache als solche, das Bild, der Film als solche sind, sondern nur durch die geduldige und gelehrsame Erforschung der manchmal unscheinbaren Praktiken und Dinge, die das Recht einrichten.« (En- gell/Siegert 2011, 6) Interessant wird folglich, wie Medien plötzlich nicht nur anwesend sind, son- dern ein Verfahren sichtbar werden lassen und mit Ihrem Einzug in dieses Ver- fahren dem Gesetz ein Verhältnis offenbar wird, zu seinen »operativen Rea- lisierungen« (Engell/Siegert 2011, 6). Fabian Steinhauer attestiert in seinem Buch Das eigene Bild – Verfassungen der Bildrechtsdiskurse um 1900 (2013) dem Bild mit der Einführung des Rechts am eigenen Bild eine Medienverfassung: Verfahren im Videotape 179 »Beobachtet man die Medien und das Recht, dann scheint es eher so, als müsse man nicht von einer doppelten Reflexivität, einer installierten Medienverfassung des Bildes und einer symbo- lischen Ordnung und Organisation der Konflikte ausgehen. Man muß vielleicht eher von einer exzentrischen und zerstreuten Reflexivität ausgehen. Die Medienverfassung ist nicht instal- liert, sie geistert herum. Wie Werner Hamacher (in einer Kritik an Legendre) formuliert hat, gibt es im Verhältnis zwischen den Medien und dem Recht nämlich keine ›Mittel der Angleichung‹, keine ›Komplementarität‹, keine ›Paarigkeit‹, keine ›synthetische Verbindung‹, keinen ›Vertrag‹ und keinen ›Zwangscharakter‹. Es gibt keine strukturelle Kopplung, zumindest nicht so, wie Luh- mann sie 1990 für das Recht und die Politik beschrieb. Die Drittinstanz ist unbezifferbar und sie setzt in der Übertreibung der Zeit eine Bewegung in Gang, die ›jede ihrer Formen überfordern muss, weil sie als wesentlich kritische – scheidende, unterscheidende, desintegrative – wirksam ist‹. Alles Ständische und Stehende verdampft, alles Selbständige wird zersetzt. Auch das klingt erst einmal destruktiv.« (ebd., 129) Die Videozeugnisse verfassen sich mit dem Verfahren im Einzelfall: Ihre Ver- nichtung und Löschung muss auf Grundlage einer Gerichtsentscheidung ge- schehen und ebenso ihre Durchführung. Mit der Einschreibung der Medien in das Gesetz, in die Aufzeichnungsmodi der Strafprozessordnung, geschieht schließlich das nicht-geisterhafte: Das per Gesetz verfügte Recht am eigenen Bild schreibt sich in die bewegten Bilder ein, die schließlich keiner Regie folgen, sondern der Anordnung einer im Saal vorhandenen Technik. Doch auch in die- se Apparate schreibt sich das Justizdispositiv ein. Die Gerichtsverwertbarkeit von Aufnahmen kann nur gewährleistet werden, wenn die Geräte ein Zertifikat des LGC Forensics¯5 besitzen, die nachweisen, dass das Gerät über einen Ver- schlüsselungsschutz verfügt, der vor Fremdzugriff in das geschlossene System schützt und eine Manipulation verhindern soll. Auf der Website von LGC heißt es im Punkt Court Presentation : »We can produce expert evidence from imagery analysis. Our team has, over many years, deve- loped and honed the production of jury bundles to make sure expert evidence is presented in a way that juries and court officers can understand. They have also pioneered the use of electro- nic projection for extra clarity. Such presentations are now widely accepted by courts throug- hout the legal system.« [http://www.lgcgroup.com 2015] Die Bilder werden dem Verfahren der Klarheit unterworfen. Wenn die Bilder jedoch den Gerichtssaal verlassen und die Zeugenaussagen keine Verständ- lichkeit erzeugen können, einfach weil sie nichts sagen, bzw. weil sie nichts sa- gen, was einer Aussage dient, bleibt die Frage an die Klarheit des Verfahrens im Raum. 180 Manuela Klaut Die Sichtbarmachung des Schweigens Der NSU Prozess begann am 6. Mai 2013 vor dem 6. Strafsenat des Oberlandes- gerichts München, mit einer Verzögerung durch das Verfahren zur Zulassung der Presse: Im Akkreditierungsverfahren um die Presseplätze, dem sogenann- ten Windhund-Verfahren, wurde keine türkische Tageszeitung zum Verfahren zugelassen. Das neue Losverfahren um die Presseplätze im Verfahren sichert diese Plätze im Gerichtsaal während der Verhandlungen nun nachträglich. Doch der Prozess löst weiterhin an genau der Frage der Medienöffentlichkeit einen Konflikt aus, an dem sich nicht das Gericht, sondern vor allem die Pres- se beteiligt. Es geht darum, dass der Sitzungssaal 101 im Strafjustizzentrum in der Nymphenburger Straße 16 in München zu wenig Platz bietet für das gro- ße Interesse der Öffentlichkeit. § 169 des Gerichtsverfassungsgesetzes verbie- tet das Live-Senden für Radio und TV aus dem Gerichtssaal. Doch die Presse ist der Meinung, dass dies bei einer Übertragung in einen zweiten Gerichtssaal nicht zur Anwendung komme. Die Welt berichtet diesbezüglich am 20.04.2013: »Im Klartext: Nach Ansicht der Nebenkläger muss eine Videoübertragung eingerichtet wer- den, wenn die verfassungsrechtlichen Vorgaben an einen Strafprozess eingehalten werden sol- len. Ansonsten drohe erst recht eine spätere ›Aufhebung der Entscheidung erst durch das Bun- desverfassungsgericht‹. [sic!] Und der Prozess gegen Zschäpe müsste ganz von vorn beginnen.« (Hinrichs 2013) Es ist die größte Angst im NSU-Prozess, die in der Tat wie ein Gespenst durch die Berichterstattungen geistert – eine Aufhebungsentscheidung durch Ver- fahrensfehler. Die Zeitungen besprechen täglich ein Misstrauen in das Gericht und das Verfahren.¯6 Doch ein weiteres Detail im Prozess wird interessant: Dieses Bild (s. nächste Seite) steht fast stellvertretend für alle Fotos, die von Be- ate Zschäpe während des Prozesses gemacht wurden. Die Betrachtung legt die Vermutung nahe, dass alle Bilder zum gleichen Zeitpunkt im Ablauf des Ver- fahrens entstanden sind – kurz vor Beginn des Verhandlungstages. Der Jenaer Rechtshistoriker Heiner Alwart führt in seinem Artikel Schreckliches Theater« – wann wird im NSU-Prozess endlich der Vorhang fallen? aus, dass dieses Pro- zedere vor dem Eintritt des Senats beendet wird. Das Verfahren regelt also die Fotografien zeitlich. Nach dem Einzug des Senats wird durch Einschalten der Projektion ein Bild von der Zuschauertribüne als Großaufnahme zu Beginn des Verhandlungstages gestellt. Alwart beschreibt es so: »Zeitweise ähnelt der Gerichtssaal einem Studio. So kann es passieren, dass ein Scheinwerfer um der besseren Ausleuchtung willen etwas abseits der Kameras am Mobiliar festgeklemmt Verfahren im Videotape 181 Abb.3 wird. [...] Im übertragenen Sinn ist das die für uns heute typische Form eines Verlusts von Recht und Gerechtigkeit, der im Übrigen weit über die forensische Praxis hinausweist. Diese Art von Verlust führt eben nicht in das sprichwörtliche ›Theater des Schreckens‹, jedenfalls vorerst nicht, sondern in ein mediales ›schreckliches Theater‹.« (Alwart 2014, 1092 ff.) Als fester Bestandteil des Fotografie-Rituals zu Beginn der Hauptverhandlung schreibt auch Alwart dem Verfahren im Falle einer Revision die Aufhebung des Urteils zu. Man kann festhalten: Die Entscheidung der Zulassung von optischen Medien im Beginn der Hauptverhandlung gefährden das Verfahren schon jetzt. Ein weiteres interessantes Detail zum NSU-Prozess ist der Antrag der SPD Frak- tion vom 11. Juni 2013 an den Bundestag, der eine Gesetzeserweiterung des Ge- richtsverfassungsgesetzes vorsieht: »Das GVG verbietet Ton- und Filmaufnahmen zum Zwecke der öffentlichen Vorführung. Diese Einschränkung ist sinnvoll, da einer Fernseh- oder Rundfunkübertragung gewichtige Interessen von Verfahrensbeteiligten entgegenstehen könnten. Zudem sollen Prozesse nicht zu Mediener- eignissen werden, weil ansonsten die Gefahr besteht, dass das Verhalten der Prozessbeteiligten beeinflusst, die Wahrheitsfindung erschwert und damit das Recht auf ein faires Verfahren ver- letzt wird. In Abgrenzung dazu ist die Videoübertragung in einen weiteren Gerichtssaal zu be- urteilen. Es handelt sich dabei nicht um eine Filmaufnahme zum Zwecke der öffentlichen Vor- führung, sondern um eine virtuelle Erweiterung des Gerichtssaals.« (SPD Fraktion, 11. Juni 2013) 182 Manuela Klaut Doch ist dieser Gerichtssaal – und das lässt der Antrag völlig außer Acht – nicht virtuell, er ist räumlich und er muss prozessiert werden. An dieser Stelle en- det die Übertragung zum Fall. Doch sie geht weiter im Internet: In einem auf- schlussreichen Reenactment des NSU-Prozesses, das von der Süddeutschen Zei- tung und dem Bayrischen Rundfunk realisiert wurde.¯7 Zu diesem Film gäbe es eine ganze Menge zu sagen, doch diese Verhandlung muss an dieser Stelle vertagt werden. Die Bilder der mit dem Rücken zum Publikum gedrehten Beate Zschäpe zeigen jedoch eines: Nämlich dass die Medien imstande sind, den Ver- fahrensablauf in den Mittelpunkt zu rücken und dass Beate Zschäpe, im Weg- drehen von der Kamera zu einer Art Aufführungspunkt in diesen Verfahrens- techniken wird, an dem sich dramaturgisch ein vorher und nachher anschließt und dessen stets verlässliche Wiederholbarkeit. Die am Prozess beteiligten Me- dien stellen Ihre technisch stupide Verlässlichkeit aus und werden zu Appara- ten des Prozesses. Diese Betrachtung widerspricht Alwarts These: »Im Oberlan- desgericht in München hat man als Beobachter den Eindruck, die Justiz werfe sich vor den Medien förmlich auf den Boden.« (Alwart 2014) Vielleicht stellen die Fotos auch einfach ein sich wiederholendes Schweigen aus. Man kann über die Videoaufnahmen vor Gericht als Medien der Entscheidung also festhalten: Werden Zeugen auf Video aufgenommen, wird der Einsatz von Medien im Ver- fahren 1. zum Beglaubigungsverfahren für das Verfahren an sich, denn über diesen Einsatz muss zunächst entschieden werden. Die übertragenden Medien werden 2. im Verfahren zu Entscheidungsträgern juridischer Einschreibungen. Die Verhandlung der Medienbeteiligung im Prozess versetzt das Verfahren 3. somit in neue zeitliche Erfordernisse, denn Medien müssen mitverhandelt wer- den, sie werden zu aussagenden Protagonisten im Prozess. So stärken die Me- dien die Rolle des Verfahrens, aber nicht die der finalen Entscheidung – der Ur- teilsfindung. Die Medien halten das Verfahren tatsächlich im Entscheiden. Anmerkungen 01˘ Im folgenden Text wird das International Criminal Tribunal for the former Yugoslawia ab- gekürzt mit ICTY. Dieser Internationale Strafgerichtshof für das ehemalige Jugoslawien wurde durch Resolution des UNO-Sicherheitsrates vom 25. Mai 1993 einberufen und soll die kriegerischen Verbrechen aufklären, die während des Balkankonflikts seit 1990 passier- ten. In der Selbstbeschreibung des ICTY (unter www.icty.org) heißt es, dass diese Form des Verfahren im Videotape 183 Tribunals unwiderruflich dazu beigetragen hat, die Verhandlung von Menschenrechten zu verändern und nachweislich effizient und vor allem transparent Entscheidungen zu prozes- sieren. Da dies unter ständiger Übertragung der Verhandlungen via Live-Stream passiert, ist diese Form des Gerichts für die veränderte Verfahrenslage und Entscheidungsfähigkeit unter medialen Bedingungen besonders interessant. Das ICTY hat seinen Sitz in Den Haag und die sachliche Zuständigkeit, Verbrechen gegen die Menschlichkeit, Völkermord, schwe- re Verletzung der Genfer Konventionen oder Verstöße gegen die Gesetze oder Gebräuche des Krieges zu verfolgen. 02˘ Luhmanns Text Legitimation durch Verfahren beginnt mit den Worten: »Rechtlich ge- ordnete Verfahren der Entscheidungsfindung gehören zu den auffälligsten Merkmalen des politischen Systems moderner Gesellschaften. Sie zieren zumindest die Fassade sol- cher Systeme; sie gewinnen aber auch für den Inhalt der Entscheidungen, selbst wenn er von Sachkriterien bestimmt sein soll, eine schwer abzuschätzende, in merkwürdigem Zwielicht stehende Bedeutung.« (Luhmann 1983, 11 f.) Das heißt, dass die Entscheidung im- mer vom Verfahren abhängt und dass das Verfahren (so Luhmann später im Text) »kein Wahrheitskriterium ist, aber die Richtigkeit des Entscheidens fördert.« 03˘ Am 11. Juni 2013 stellte die SPD aufgrund des großen Interesses der Öffentlichkeit an den Münchner NSU-Prozessen einen Gesetzesantrag auf Erweiterung des Gerichtsverfassungsgesetzes (GVG), in dem die Zulässigkeit von Videoübertragungen in dieses Gesetz aufgenommen werden sollte. Auf diese Weise – so das Argument der SPD – sollte die Kontrolle des Prozessgeschehens durch die Allgemeinheit gewährleistet werden. Details dazu finden sich später im Text. 04˘ Die Termine aller Prozesse finden sich unter »Court Schedule«: [http://www.icty.org/ node/8397]; letzter Abruf am 20.12.2015. 05˘ LGC Forensics ist eine Firma, die im britischen Raum Standards für technische Applikationen in Gerichtsräumen installiert. Es gibt allerdings auch bereits einige deutsche Firmen, die IT- Lösungen für technische Ausstattungen und Verfahren, in denen es um digitale Daten geht, anbieten. Eine ist z.B. die Firma IT-Forensik, sie bietet u.a. Zertifizierung nach der ISO- Norm 27001 an. Diese ISO Norm »umfasst sowohl die physikalische und logische Sicherheit als auch die organisatorischen Vorkehrungen im Umgang mit Kundendaten sowie die Mo- dellierung, Definition und Umsetzung entsprechender Prozessabläufe und Richtlinien bis hin zur revisionssicheren Protokollierung und Archivierung aller sicherheitsrelevanten Vor- gänge. Damit gehört die ISO 27001 zu den aufwändigsten Sicherheits-Zertifizierungen überhaupt.«[https://www.dvz-mv.de/Kompetenzen/IT-Forensik] , letz. Aufruf 20.12.2015. 06˘ Zu dem im März 2015 erschienenen Artikel Die Öffentlichkeit erwartet lebenslang gibt es in dem für den NSU-Prozess eingerichteten Blog der Zeit zahlreiche Kommentare – un- ter anderem einen Verfahrensvorschlag des Autors tacheles: »vielleicht sollte das Gericht, um eine allgemeine Empörung zu verhindern eine Telefonabstimmung über das Urteil ver- anstalten [...]« (tacheles zum Artikel von Tom Sundermann 2015). Die Öffentlichkeit rich- 184 Manuela Klaut tet – aber nicht Zschäpe oder die NSU, sondern die Entscheidungen die hinsichtlich des Verfahrens getroffen werden. 07˘ »Der NSU Prozess: Das Protokoll des ersten Jahres« [https://youtu.be/49EpcfdZApU]; letzter Aufruf 29.12.2015. »Der NSU Prozess: Das Protokoll des zweiten Jahres« [https:// youtu.be/kvW_oZyV6Sc] , letzter Aufruf 29.12.2015. Literatur Alwart, Heiner (2014) »Schreckliches Theater« – wann wird im NSU-Prozess endlich der Vorhang fallen? Eine Kritik desorganisierter öffentlicher Hauptverhandlungen. In: Juristen- Zeitung 22, 2014, S. 1091 ff. Aus der Arbeit der BRAK . Stellungnahme zum Entwurf eines Gesetzes zur Verbesserung der Wahrheitsfindung im Strafverfahren durch verstärkten Einsatz von Bild-Ton-Technik. In: BRAK Mitteilungen 2, 2010; Jg. 41., S. 60-68. Engell, Lorenz / Siegert Bernhard (2011) Editorial. In: Zeitschrift für Medien- und Kul- turforschung 2,11. Schwerpunkt Medien des Rechts, S. 6. Hinrichs, Per (2013) NSU-Prozess wieder Thema für Verfassungsgericht. In: Die Welt v. 20.04.2013. Foucault, Michel (2009) Geometrie des Verfahrens. Frankfurt a. M.: Suhrkamp Verlag. Leitner, Werner (2012) Videotechnik im Strafverfahren. Baden-Baden: Nomos Verlag. Luhmann, Niklas (1983) Legitimation durch Verfahren. Frankfurt a. M.: Suhrkamp Verlag. Luhmann, Niklas (1999) Ausdifferenzierung des Rechts. Frankfurt a. M.: Suhrkamp Verlag. Steinhauer, Fabian (2013) Das eigene Bild. Berlin: Duncker & Humblot. Strafprozeßordnung in der Fassung der Bekanntmachung vom 7. April 1987 (BGBl. I S. 1074, 1319), die zuletzt durch Artikel 14 Nummer 7 des Gesetzes vom 20. Oktober 2015 (BGBl. I S. 1722) geändert worden ist. Vismann, Cornelia / Weitin, Thomas (Hg.) (2006) Urteilen / Entscheiden. München: Wilhelm Fink Verlag. Vismann, Cornelia (2011) Medien der Rechtsprechung. Frankfurt a. M.: S. Fischer Verlag. Internetquellen Alwart, Heiner (2014) Medienbeute, unter [http://www.zeit.de/2014/28/fotos-nsu-pro- zess]; letzter Aufruf 8.11.2015. ICTY Rules of procedure and evidence, in der Fassung vom 8. Juli 2015, unter [http:// www.icty.org/x/file/Legal%20Library/Rules_procedure_evidence/IT032Rev50_en.pdf]; letz- ter Aufruf 8.11.2015. Verfahren im Videotape 185 [http://www.lgcgroup.com/services/digital-investigation/court-presentation/#.VkAM- pLzVX4w]; letzter Aufruf 8.11.2015. Schuppli, Susann (2014) Evidence on Trial »Tape Comparison«, unter [http://www. stroom.nl/activiteiten/manifestatie.php?m_id=1415513]; letzter Aufruf 8.11.2015. Sundermann, Tom (2015) Die Öffentlichkeit erwartet lebenslang. Unter: [http://blog. zeit.de/nsu-prozess-blog/2015/03/09/medienlog-richter-urteil-nsu-zschaepe-lebenslang/]; letzter Aufruf 8.11.2015. Steinmeier, Frank-Walter und die SPD Fraktion (11. Juni 2013) Antrag – Videoü- bertragung von Gerichtsverhandlungen ermöglichen. [http://dip21.bundestag.de/dip21/ btd/17/138/1713891.pdf]; letzter Aufruf 8. 11. 2015. 186 Alexander Zons Die Entscheidung des Films Der folgende Text versucht einige theoretische »Um den Akt der intelligenten Auswahl als Einsichten in das Problem der Entscheidung für eine geplante Gelegenheit zur Entdeckung die Beschreibung der Filmindustrie nutzbar zu neuer Ziele zu benutzen, brauchen wir ganz machen und mit Ansätzen aus der Netzwerkfor- offensichtlich eine Vorstellung über vernünf- schung zu kombinieren. Zunächst einmal geht es tige Torheit.« (March 1990, 288) darum, die Entscheidung über Filme zu lokalisie- »The capacity of an agent to make auto- ren. Wer entscheidet wo über Filme? Dabei wird nomous choices, that is to say, to make de- zu zeigen sein, dass sich die Kommunikation ei- cisions which do not merely fall in line with ner Entscheidung von der eigentlichen Entschei- the decisions made by other agents, is not dung nur schwer trennen lässt. Deshalb werde inscribed in her nature; it coincides with the ich auch von Kulturen der Entscheidung spre- morphology of her relationships.« chen. Dementsprechend möchte ich das Netz- (Callon 1998a, 9) werk in den Blick nehmen, in dem die Kommu- nikation der Entscheidung zirkuliert. Historisch werde ich zwei Kulturen unterscheiden: einerseits die Phase des klassischen Studiosystems und andererseits die darauf folgende postklassische Periode. Es soll also um Entscheidungen gehen, Entscheidungen über Filme. Gut, dass ich selbst nicht entscheiden muss. Das erleichtert die Sache ein wenig. Es geht nur darum zu verstehen, wie sie gefällt werden. Oder noch basaler: zu identi- fizieren, wo überhaupt entschieden wird beziehungsweise wie man Entschei- dungen fassen kann. In der Regel fragt man dann nach den Zwecken, denen die Entscheidungen dienen sollen.¯1 Das Verstehen von Entscheidungen läuft die- sem Konzept entsprechend darauf hinaus, den Prozess der Entscheidungsfin- dung zu rekonstruieren und die im Moment der Entscheidung noch offenen Handlungsoptionen aufzuzeigen. Oder anders gesagt: Ohne Alternativen gibt es keine Entscheidung. Dieser Moment kann allerdings theoretisch zerdehnt und in einen Prozess überführt werden. Wenn man diesen Prozesscharakter allerdings vernachlässigt, ergibt das, Herbert Simon folgend, nur ein verkürz- tes Verständnis der Entscheidung: »Decision making comprises four principal phases: finding occasions for making a decision, finding possible courses of ac- tion, choosing among courses of action, and evaluating past choices.« (Simon Die Entscheidung des Films 187 1977, 40) Will man zum Verständnis einer Situation gelangen, muss man dem Weg der Entscheidung folgen – wie weit zurück hängt davon ab, wann man das Netzwerk der Entscheidungen kappt.¯2 Auch wenn man diese Entscheidung gerne auf den Gegenstand übertragen möchte, bleibt es die Entscheidung des Analytikers, an welcher Stelle er Halt macht. Unversehens bin ich doch zum Ent- scheider geworden. Geben wir den Schwarzen Peter der Entscheidung lieber weiter und sehen uns an, wie Entscheidungsmacht attribuiert wird. Die weibliche Erzählfigur aus F. Scott Fitzgeralds letztem, unvollendet gebliebenen Roman The Love of the Last Tycoon liefert gleich zu Anfang einen Hinweis: »You can take Hollywood for granted like I did, or you can dismiss it with the contempt we re- serve for what we don’t understand. It can be understood too, but only dimly and in flashes. Not half a dozen men have ever been able to keep the whole equation of pictures in their heads. And perhaps the closest a woman can come to the set-up is to try and understand one of tho- se men.« (Fitzgerald 1994, 3) Ganz lässt sich das Phänomen Hollywood nicht erklären, wird uns hier sugge- riert. Unverständnis wird zum Resultat einer Distanzierung deklariert. Wenn man Hollywood verstehen will, muss man näher herangehen. Der Weg zum Verständnis führt zu den Leuten, die den Überblick behalten, den großen Män- nern Hollywoods. Auf diese Weise kann man natürlich die Geschichte Holly- woods erzählen. Starke Protagonisten bieten Orientierung. Auch die Geschich- ten Hollywoods funktionieren nach genau diesem Muster. Fitzgerald ist nicht der einzige, der so erzählt. Auch Douglas Gomery (2005) bedient sich dieser Verständnishilfe und zitiert Fitzgerald als Einstieg in sein Buch über das Stu- diosystem: »The film industry in the USA had started as ›freewheeling competition‹ – unstable, lots of com- panies, no central place, a risky set of ventures. Business leaders sought the riches associated with market domination and monopoly power. They achieved this by 1930 – led by Adolph Zu- kor, the first of the entrepreneurial innovators Fitzgerald so admired as being able to keep the whole equation of the industry in their heads – and fashioned business strategies to create a system with considerable economic power. This book is a history of these men and women and the business strategies they wrought to make profits for their owners.« (2005, 1) Das Fitzgerald-Zitat dient Gomery als eine Art Leitmotiv, das immer wieder im Text auftaucht.¯3 Er erzählt die Geschichte der genialen Business-Leader, die sich durch ein besonderes mathematisches Geschick oder ökonomisches Ge- spür auszeichneten und damit die Organisation der Filmindustrie entschei- dend prägten. Das ist natürlich eine extreme Verkürzung. Wie könnte man die 188 Alexander Zons gesamte Gleichung der Filmindustrie im Kopf haben? Praktisch entspricht dies allerdings dem Los der Studiobosse. Sie müssen rechnen. Die Gleichung – wel- che Faktoren werden berücksichtigt, welche außer Acht gelassen – ist jedoch immer eine Komplexitätsreduktion. Genau das macht sie zu einer Entschei- dung. Denn Entscheidung im engeren Sinne ist nur möglich, wenn die Bedin- gungen der Umwelt diese nicht hinreichend bestimmen. Das gilt auch für den Zeithorizont der Entscheidung. Nach Luhmann (2004, 22; Herv. i.O.) »läßt die Entscheidung sich durch die Vergangenheit nicht determinieren«, sonst wäre sie keine Entscheidung. Notwendigkeit schließt Wahl, mithin Entscheidung, aus. Heinz von Foerster (1993a, 153) hat diese Einsicht in folgende Paradoxie überführt: »Nur die Fragen, die prinzipiell unentscheidbar sind, können wir entscheiden.« Alle entscheidbaren Fragen sind »schon immer durch die Wahl des Rahmens, in dem sie gestellt werden, entschieden« (ebd.). Die Entschei- dung besteht dementsprechend in der Wahl des Rahmens. Man entscheidet, welche Faktoren man in die Rechnung einbezieht. Michel Callon führt dies auf anschauliche Weise vor, indem er den soziologischen Begriff ›framing‹ mit dem ökonomischen Begriff ›externalities‹ in Verbindung setzt (Callon 1998a, 16- 19; 1998b, 244-269; 2006, 550-556). Als ›externalities‹ werden alle Verbindun- gen und Effekte zusammengefasst, die gerade nicht in die Kalkulationen der Marktteilnehmer bei einer Transaktion eingehen, also den Rahmen der Trans- aktion bilden. Es ist der Versuch, durch Komplexitätsreduktion Kalkulierbar- keit zu erzielen, Callon spricht auch von »disentanglement« (Callon 1998a, 16), also von Entnetzung.¯4 Die Arbeit an der Entnetzung ist aber nicht abschließ- bar. Irgendwann kommt es zu einer Neuausrichtung, insbesondere wenn sich bisher ausgeschlossene Faktoren bemerkbar machen, d.h. wenn sich die Rah- menbedingungen ändern. Eine solche Zäsur werde ich dann auch in der Ge- schichte Hollywoods nachzuweisen versuchen. Vollkommene Entnetzung kann allerdings auch nicht das Ziel sein, denn es gilt einen weiteren Faktor zu berücksichtigen. Entscheidungen haben nur sozia- le Bindekraft, wenn sie als solche kommuniziert werden, oder genauer: wenn sie als Entscheidungen wahrgenommen werden, sie als Entscheidungen in ei- nem kommunikativen Netzwerk zirkulieren. Zur Semantik der Entscheidung gehört nämlich, dass sie Folgen zeitigt. Dann können sich Kommunikationen an die Entscheidung anlagern, sie stützen oder ablehnen. Die Adresse der Ent- scheidung spielt dabei eine entscheidende Rolle. Fitzgerald und Gomery halten sich beide in ihren Beschreibungen an die großen Männer. Hierarchie gibt so- wohl den Geschichten über Entscheidungen Halt als auch den Entscheidungen selbst. Dies entspricht dem Schema, das Niklas Luhmann für die Attribuierung von Entscheidungen ausgemacht hat: Die Entscheidung des Films 189 »Nicht alles Verhalten in Organisationen wird in den Organisationen selbst als Entscheidung bezeichnet, und die Entscheidungslast und folglich Verantwortung, Erfahrung, Autorität, wenn nicht Weisheit nehmen, nimmt man an, auf dem Dienstweg von unten nach oben zu; oder je- denfalls stärkt die Art, wie in Organisationen von Entscheidungen gesprochen wird, diese Er- wartung. […] Das Mysterium der Entscheidung und das Mysterium der Hierarchie stützen einan- der wechselseitig.« (Luhmann 2004, 18f.) Tatsächlich wird auf den unterschiedlichsten Ebenen entschieden – das gilt für die Filmindustrie ebenso wie für andere Unternehmungen: Wer soll den Held darstellen? Wo soll die Kamera stehen? Welche Location bietet sich an? Wann ist Mittagspause? Die Frage ist aber, welche Entscheidungen tatsächlich weg- weisend sind. Zurück zu Fitzgerald und zum klassischen Studiosystem. Er hat 18 Monate für $ 1.000 die Woche in Hollywood für MGM gearbeitet. Allerdings wurde er nur ein einziges Mal im Vorspann genannt, als Drehbuchautor für Three Comrades (USA 1938, Frank Borzage). Das heißt aber nicht, dass er nicht an diversen Pro- jekten mitgewirkt hätte. Fitzgerald kannte die hierarchische Struktur des Stu- diosystems aus eigener Erfahrung. Trotzdem – oder gerade deswegen – zog er es vor, einen Produzenten in den Mittelpunkt seines Romans über Hollywood zu stellen. In einer nicht-datierten Notiz beschreibt er eine Begegnung mit Ir- ving Thalberg, der ihm als Modell für die Figur des Monroe Stahr in The Love of the Last Tycoon diente. Thalberg versucht ihm das Problem, die richtige Ent- scheidung als Produzent zu treffen, anhand eines Beispiels zu verdeutlichen. Es geht darum, eine Straße durch ein Gebirge zu bauen. »Now suppose you happen to be the top man, there’s a point where you don’t exercise the facul- ty of judgment in the ordinary way, but simply the faculty of arbitrary decision. You say, ›Well, I think we will put the road there‹ and you trace it with your finger and you know in your secret heart and no one else knows, that you have no reason for putting the road there rather than in several other different courses, but you’re the only person that knows that you don’t know why you’re doing it and you’ve got to stick to that and you’ve got to pretend that you know and that you did it for specific reasons, even though you’re utterly assailed by doubts at times as to the wisdom of your decision because all these other possible decisions keep echoing in your ear. But when you’re planning a new enterprise on a grand scale, the people under you mustn’t ever know or guess that you’re in any doubt because they’ve all got to have something to look up and they mustn’t ever dream that you’re in doubt about any decision.« (Zit. n. Matthew J. Bruccoli: Introduction. In: Fitzgerald 1994, XVIII) Die erratische Black Box an der Spitze der Hierarchie entscheidet. Auch wenn sie noch so viele Zweifel haben mag, darf sie sich das nicht anmerken lassen. 190 Alexander Zons Mit Luhmann gesprochen gibt die Organisation ihrer Entscheidung damit ein Gesicht. Thalbergs Pose beziehungsweise die Pose des Ingenieurs zeigt genau das, »was die Organisation selbst für Zwecke der Einflussnahme, Planung, Re- chenschaftspflege hoch selektiv beleuchtet.« (Luhmann 2004, 17) Fitzgeralds Beschreibung liefert aber mehr. Der Entscheidungsträger muss seine Entschei- dung auf bestimmte Art kommunizieren, die beim Beobachter keinen Zweifel an seiner Entscheidung aufkommen lässt. Erst dann können sich weitere Hand- lungen an der Entscheidung anlagern. Wie Herbert Simon betont, ist Autorität innerhalb einer Organisation genau dann gegeben: »A person accepts authori- ty whenever he takes decisions premises from others as inputs to his own deci- sion«. (Simon 1977, 120f.) Aber auch jenseits der eigenen Organisation können Entscheidungen oder Entscheidungsprämissen eine solche Signalwirkung ent- falten. Und hier ist auch die ökonomische Macht der großen Männer zu veror- ten, wie Michel Callon vorschlägt: »The most obvious form of this dependency corresponds to the ›parasiting‹ of one calculative agency by another which imposes (a part of) his calculation tools and rules, and consequent- ly forces the host agency to engage in its own calculation. [...] Engaging in one’s opponents game by entering into his calculating power means accepting dependency.« (Callon 1998a, 47f.) Ich würde allerdings hinzufügen wollen, dass es nicht unbedingt nur um die »tools and rules« im streng mathematischen Sinn geht, sondern um die Form der Kommunikation, also um Rhetorik. Die Entscheidung lässt sich nicht von der Form ihrer Kommunikation lösen. Folgt man dieser Annahme, dann sind nicht notwendigerweise besonders kühne Geschäftsmodelle entscheidend, sondern die Formen ihrer Kommunikation. Im Sinne von Ronald S. Burt geht es darum, bestimmte Positionen innerhalb eines kommunikativen Netzwerks zu besetzen und damit soziales Kapital zu aggregieren (1992, 8): »Something about the structure of the player’s network and the location of the players’s contacts in the social structure of the arena provides a competitive advantage in getting higher rates of return on invest- ment.« Die Arbeit an einer stabilen Position im Netzwerk bedeutet damit im- mer auch das Netzwerk zu stabilisieren, das heißt die eigene Position so zu isolieren (›disentanglement‹), dass man vom Informationsfluss des Netzwerks profitiert. Der Wettbewerb besteht dann darin, Zugänge zu Informationen, die andere Netzwerke haben, zu bekommen, gleichzeitig aber auch den Zugang zu Informationen des eigenen Netzwerks abzuschotten. Der Informationsfluss innerhalb des Unternehmens kommt somit zunächst ganz oben zum Stillstand, beim Studioboss, also zum Beispiel bei Adolph Zu- kor. Entscheidungen müssen getroffen werden. Welches Projekt soll realisiert Die Entscheidung des Films 191 werden? Woran soll man sich aber halten, wenn es kein Patentrezept für erfolg- reiche Filme gibt? Eine Voraussage, ob ein Film erfolgreich sein wird, ist nahezu unmöglich. Diese extreme Unsicherheit wirkt aber strukturbildend. Die Bosse der Filmstudios konnten zwar die Möglichkeit, dass ein Film f loppt, nicht aus- schließen, dieses Risiko aber dadurch vermindern, dass der einzelne Film in ei- nem ausgefeilten Verwertungssystem vertrieben wurde. Sie setzten damit den Rahmen. Die Zukunft wird berechenbar. Entscheidung im klassischen Studiosystem Um etwas konkreter zu werden, gehe ich zunächst kurz auf das klassische Stu- diosystem ein. Das Studiosystem zeichnete sich durch vertikale Integration aus, bis 1948 ein Anti-Kartell-Urteil die Studios zum Verkauf Ihrer Kinoketten zwang. Das heißt die Studios produzierten Filme, etwa 50 im Jahr, und verlie- hen diese unter anderem an ihre eigenen Kinos. Dabei handelte es sich um den größten Teil der städtischen Kinopaläste, in denen durch die Erstverwertung der neuen Filme der Löwenanteil erwirtschaftet wurde – insgesamt war der Verwertungszyklus nach gut zwölf Monaten beendet. Etwa 15% der Kinos er- wirtschaften auf diese Weise 70% des Umsatzes. Wenn nun aber der Markt un- ter den großen Studios aufgeteilt, die Konkurrenz also nahezu ausgeschaltet war, was gab es da noch zu entscheiden? Gab es noch Risiken? Und: Wo gab es noch Wettbewerb? John Sedgewick und Michael Pokorny haben sich mit den Strategien, die War- ner Bros. während der Zwischenkriegsjahre entwickelt hat, in einer Reihe von Veröffentlichungen auseinandergesetzt. Für sie ist es von entscheidender Re- levanz, dass der jährliche Ausstoß an Filmen in einem drei Kategorien beinhal- tenden Portfolio lanciert wurde: »super As, films intended for lengthy runs in prime location cinemas and exhibited as single features; A features which served as the main attraction on a double-bill program; and finally B features which were made to serve as second features on a double-bill program.« (Po- korny/Sedgewick 1998, 197) Der Wettbewerb bestand nun darin, mögliche Hits zu produzieren, die auch auf den Leinwänden der anderen Studios gezeigt wür- den. Es wäre nämlich unrentabel gewesen, die Hits der anderen nicht zu zeigen, da alle durch den Besitz der entsprechenden Erstaufführungskinos ebenso am Erfolg der Konkurrenten beteiligt waren. Der Erfolg hing also vom Opportu- nismus der Rivalen ab. Diese Hits waren durchgehend A-Filme. Allerdings ging man davon aus, dass die Produktion eines Hits von einem beträchtlichen Bud- get abhing. Das Problem war, dass zwar mit steigendem Budget deutlich höhe- 192 Alexander Zons re Gewinne gemacht werden konnten, dies aber auch ein deutlich höheres Ri- siko bedeutete. Wie sieht nun aber Warners Strategie aus? Zunächst ist sie schon im Portfolio der unterschiedlichen Filme angelegt. Die Risiken der Filmproduktion werden durch die Streuung über die drei Kategorien von Filmen minimiert, oder besser: Die Konstruktion eines Portfolios ermöglicht ein f lexibles Risikomanagement. Bei seiner Aufstellung wird die Bilanz des Vorjahres zu Grunde gelegt. Pokor- ny und Sedgewick können zeigen, dass sich Warner bei der Veranschlagung des Budgets für ein Portfolio an den Profiten des Vorjahres orientiert. In die- sem Sinne kann man sagen, dass die Bilanz ein Medium der Entscheidung für die Filmproduktion ist. Eine gute Bilanz führt zur Aufstockung des Gesamtbud- gets, während eine schlechte Kosteneinsparungen nach sich zieht. So sind die Einsparungen bei Warner zu Beginn der 30er Jahre als Reaktion auf die sich ein- stellende Rezession lesbar. Diesen Rahmen vorausgesetzt lässt sich auch eine gesteigerte Risikobereitschaft bei Warner während der Mittdreißiger nachwei- sen. Magere Gewinne führen hier nicht mehr zur Kostendeckelung, sondern zur Konzentration auf weniger Filme. Es kommt somit zu einer Verschiebung der Produktpalette in Richtung auf mehr A-Features. Innerhalb des klassischen Studiosystems steckt also der Cashflow des Vorjahres die Rahmenbedingungen der jährlichen Filmproduktion ab. Das Risikomanage- ment der klassischen Periode ist dementsprechend von einer Logik der Knapp- heit oder Begrenzung determiniert. Die Unternehmen richten sich in ihrem zu- künftigen Handeln an den Ergebnissen ihres vergangenen Handelns aus, das sich in den Bilanzen spiegelt. Systemtheoretisch könnte man auch von Eigen- Verhalten im Sinne Heinz von Försters sprechen.¯5 Das Geld an der Kinokas- se ist also nicht nur das Ziel der Kapitalinvestition in einen Film, sondern über Geld wird auch eine Feedbackschleife in die Verwertungskette eingebaut.¯6 Allgemeiner formuliert lässt sich festhalten: Geld als Medium ist das Mittel, das Entscheidungshandeln im Falle der Filmindustrie möglich macht. In die- sem Sinne wird in zweifacher Hinsicht über Geld entschieden. Geld verbindet, vernetzt heterogene Akteure. Darauf haben schon Karl Marx und Georg Simmel hingewiesen.¯7 Es ist natürlich nicht die einzige Form des Feedbacks, das die Filmindustrie bekommt, aber so konzipiert wird Geld zum Medium einer Kom- munikation über Filme, oder genauer: über den Wert von Filmen.¯8 Die Entscheidung des Films 193 Entscheidung im post-klassischen Studiosystem 1948 entscheidet der Oberste Gerichtshof der USA nach einem langwierigen Prozess, dass sich die Studios von ihren Kinoketten trennen müssen. Der sorg- fältig austarierte Rahmen ihrer Kalkulationen wird mit dem sogenannten Pa- ramount Decree hinfällig. Callon (1998a; 1998b; 2006) hat solche Phänomene mit dem Begriff des »Überfließens« (»overf lowing«) beschrieben. Das Risiko- management der Studios ist damit auf jeden Fall nicht leichter geworden. Nach 1950 scheint der Rest an Irrationalität, der nach Luhmann eine Entscheidung erst zur Entscheidung macht, die Rationalität gänzlich aufzubrauchen: »Was bereits voll determiniert ist, kann nicht mehr entschieden werden. Zur Ent- scheidung gehört auch ein Mindestmaß an Unvorhersehbarkeit, fast könnte man sagen: an Irrationalität« (Luhmann 2004, 18). In gewisser Weise muss nun viel mehr entschieden werden, da die Strukturen, die das System stabilisiert haben, wegbrechen. Kaum jemand weiß, auf was er seine Entscheidung bauen soll. So beschreibt beispielsweise Ian Jarvie (1998) das Verhältnis von Entschei- dungsträger und Konsument wie folgt: »The fact that successful executives usually only have short strings of luck, like gamblers, may seem an irrationality of the system. But in an industry catering to an unknown and possibly fick- le public, the one irrationality may be an unavoidable mirror of the other.« (ebd., 42) Wie sollen sich die Vielen im Einen spiegeln?¯9 Richard Caves (2003) fasst die Spiegelrelation von Zuschauer und Produzent im Hinblick auf die ungleich ver- teilten Informationen formaler: »The producer’s intimate knowledge of the good’s production process still leaves him in the dark about whether costu- mers will like it: knobody knows. The organizational problem is to deal with symmetrical ignorance, not asymmetrical information« (ebd., 3; Herv. i.O.).¯10 Das Problem ist nicht neu, es gilt auch schon für die Studioära: »Thus, in making the decision to consume a given film, the filmgoer can be characterised as entering a risk environment, in the sense that while ex ante the consumer will have formed a view of the pleasures that might be expected from consumption, the ex post realisation might fall short of these expectations rather than fulfil, or indeed exceed, them.« (Sedgwick/Pokor- ny 2010, 79) Für die Produzenten besteht die Aufgabe darin, diese notwendigerweise nur bedingt artikulierbaren Erwartungen zu antizipieren. Das Problem ist, die Zah- len, die über die Erträge und damit vermittelt über den Zuschauer Auskunft geben, richtig zu interpretieren, ohne sich dadurch festlegen zu müssen.¯11 Wenn es nur darum ginge, den Zuschauer mitsamt seinen Erwartungen dort 194 Alexander Zons abzuholen, wo man ihn früher schon gefunden hat, würde sich die Filmindus- trie allzu sehr durch die Vergangenheit determinieren lassen – und es gäbe im emphatischen Sinne nichts zu entscheiden.¯12 Es gibt gute Gründe, die Ent- scheidung für den Film dem Zuschauer zuzuschreiben. Eine solche rückwärts- gewandte Attribuierung, die Wirkungen als Ursachen ausmacht, kann zumin- dest das Paradox der Entscheidung sichtbar machen. Eine Industrie aber, die auf die Rückkehr des Konsumenten bauen muss, um sich reproduzieren zu kön- nen, kann den Zuschauer auf keinen Fall übergehen oder ihm gar das Risiko der Filmproduktion überschreiben, sondern hat die Aufgabe, die Paradoxie zu ent- falten.¯13 Wie sieht das aus? Das Risiko scheint der Filmindustrie inhärent zu sein. Die Strategien, damit umzugehen, sind aber historisch variabel, auch weil die Kontexte, das Netz- werk der Filmindustrie, sich verändern. Bis in die 50er Jahre war es den Studios gelungen, den hoch volatilen Markt für Filme über vertikale Integration zu be- herrschen¯14 und die Kosten für den Input zu minimieren, indem sie langfris- tige Verträge mit den Zulieferern – Drehbuchautoren, Schauspielern, Regisseu- ren – abschlossen. Diese Barrieren brechen weg, die Preise schießen in die Höhe und es bleibt, so der Tenor, nur Unsicherheit. Strukturell kann man sagen, dass die steigende Preisentwicklung den großen Playern in der Filmindustrie eher zuarbeitet, da sie durch die enormen Kosten die Eintrittsbarrieren für mögli- che Neueinsteiger erhöht. Die Filmindustrie nach 1950 gehorcht demnach eher einer Logik der Verausga- bung. Das liegt daran, dass der Rahmen, der die Kosten in der Studioära brems- te, wegfällt. Die Konzentration gilt nun dem einzelnen Film, dem Projekt. Das lässt die Preise durch die Decke schießen. Insofern hat sich ihr Paradox ver- schärft: Die Erhaltung einer permanenten Industrie wird nun über kurzfristi- ge Unternehmen beziehungsweise Projekte gewährleistet.¯15 Verausgabung bedeutet aber nicht notwendigerweise, dass wir es mit reiner Irrationalität zu tun haben – abgesehen davon wäre auch das immer nur eine Zuschreibung. Bü- cher wie Peter Barts The Gross. The Hits, the Flops – The Summer That Ate Hol- lywood partizipieren am Hype um das Versprechen von Ruhm und Reichtum und drohendem Verderben, stellen die Irrationalität des Systems an den Pran- ger. Bart, selbst einst Produzent bei Paramount und MGM/UA erzählt dort von dem wahnsinnigen Jahr 1998, wahnsinnig wegen der überschießenden Bud- gets, den grotesk anmutenden Versuchen, den Blockbuster zu kreieren und sich den richtigen Starttermin in Konkurrenz zu den anderen Studios zu sichern. Aber auch hier kann man lesen, dass ein Filmportfolio angestrebt wird, um sich durch Diversifikation abzusichern, und dass somit die Bilanzen des letzten Jah- res Einfluss auf die Firmenstrategien haben. Die Entscheidung des Films 195 Sehen wir uns also die Situation des Blockbusterkinos genauer an: Der Holly- wood-Blockbuster stellt den Versuch dar, Filmerfolge sicherzustellen. Das Re- zept besteht dann aus Stars, einer eingängigen Storyline, Massenstart im Kino und einer darauf zugespitzten Werbekampagne. Auf der Ebene der Produkti- on führt die Nachahmung der Blockbusterformel dazu, dass der Durchschnitts- wert der Erträge unter dem Erwartungswert liegt: »Given the skew, the most likely event is not the expected value. [...] The expectation is dominated by rare events.« (De Vany 2004, 220)¯16 – oder einfach: Die meisten Filme sind Verlust- geschäfte¯17 –, weil niemand vorhersehen kann, welcher Film zum Blockbuster avanciert, alle aber auf den großen Coup hoffen.¯18 Die Erwartung wird von einigen wenigen Ereignissen dominiert, den Blockbusterhits. Die Filmindust- rie kann dementsprechend im Anschluss an March und Shapira (1990) als risi- kofreudig bezeichnet werden: »In konventionellen entscheidungstheoretischen Formulierungen beinhaltet Auswahl ein Ab- wägen zwischen Risiko und erwartetem Ertrag. Risikoaverse Entscheidungsträger bevorzugen relativ kleine Risiken und sind bereit einen Teil des erwarteten Ertrags zu opfern, um die Varia- tion der möglichen Ergebnisse zu reduzieren. Risikofreudige Entscheidungsträger bevorzugen relativ hohe Risiken und sind gewillt, einen Teil des erwarteten Ertrags zu opfern, um die Vari- ation zu erhöhen.« (ebd., 93f.) Ganz können sich die Entscheidungsträger jedoch nicht dem Risiko ausliefern. Wie sieht demnach das Risikomanagement aus, das die Filmindustrie ihren Entscheidungen zugrunde legt? Ich werde mich auf Entscheidungen konzent- rieren, die die Festlegung auf die Produktion eines Films betreffen, ›green-ligh- ting‹ im Fachjargon: »Ideally, the ordeal of development leads to ›green-lighting‹, the term used for a studio’s deci- sion to put a project into production, but most scripts never see a green light. In 2003, accor- ding to Paramount estimate, nine out of ten projects under development at that studio were not green lighted.« (Epstein 2006, 133f.) Nach einer langwierigen Entwicklungsphase, in der durchaus schon in das Pro- jekt investiert wird, steht die Entscheidung an, ob ein Film produziert wird. Die Zahl der abgelehnten Projekte zeigt, dass hier tatsächlich noch entschie- den wird. Ein Symptom der grassierenden Unsicherheit ist der zunehmende Einfluss von Marktforschung beziehungsweise Marketing.¯19 Ein Beispiel, das allerdings noch der Implementierung harrt, ist der Versuch einer Gruppe von Wissen- schaftlern um Jehoshua Eliashberg, die Rechenkapazität des Computers für die Risikoabschätzung einzusetzen, ihn also zum Medium der Entscheidung zu ma- 196 Alexander Zons chen. Sie wollen Data Mining betreiben, um die schwierige Entscheidung, wel- cher Film produziert werden soll, auf eine wissenschaftliche Basis zu stellen – zu sehr würden sich die Entscheidungsträger auf ihre Intuition verlassen.¯20 Ihr Ansatz verspreche, Objektivität in den Entscheidungsprozess einzuführen. Das Problem dieses Ansatzes ist nicht unbedingt, dass sich die Ingredienzen ei- nes erfolgreichen Films grundsätzlich einer Mathematisierung entziehen. Es wird eher zu wenig gerechnet, oder genauer: Es wird mit zu wenig gerechnet. Die Formel, die sie anbieten, ist nicht komplex genug, um als Entscheidungs- grundlage, als Rahmen im Sinne von Callon, dienen zu können. Der Mix aus 22 Ploteigenschaften geht kaum über das hinaus, was über Hollywoodfilme hin- länglich bekannt ist – kein Wunder, denn sie stützen sich bei ihrer Analyse auf vier einschlägige Handbücher für das Verfertigen von Drehbüchern.¯21 Das Problem ist, dass ihr Datensatz aus zurückliegenden Ereignissen besteht. Sowohl Einspielergebnisse als auch die Zusammenfassung von bereits pro- duzierten Filmen werden eingespeist. Das ist insofern problematisch, als sie selbst betonen, dass die Entscheidung in der Wahl aus alternativen Projekten besteht, die dann nicht produziert werden.¯22 Diese Wahl findet allerdings keinen Eingang in ihre Gleichung. Davon abgesehen bleibt offen, wie und wann das Unerwartete, ein neuer Trend beispielsweise, eintritt, den man durchaus selbst hervorbringen kann. Eine weitere Schwierigkeit dürfte sich bei der Im- plementierung ergeben. Welcher Studioboss oder Produzent würde sich wohl die Blöße geben und eine computergesteuerte Analyse von kreativen Inputs seiner Entscheidung zu Grunde legen?¯23 In den Verhandlungen mit den Krea- tiven, auf die sie angewiesen sind, geben sie sich gern den Anschein, selbst kre- ativ zu sein, eine computergestütze Analyse von Drehbüchern ist da wohl eher störend. Eliashberg weist auf die Aufgeschlossenheit der Marketing-Leute für seine Ideen hin, die immer mehr Entscheidungsgewalt aggregieren.¯24 Diese Entwicklung drückt sich im Anteil des Marketings am Gesamtbudget aus, das etwa ein Drittel der Kosten eines Films verschlingt – sie lassen sich ihre Arbeit durchaus angemessen entlohnen. Über eine Implementierung solcher Maß- nahmen muss ich glücklicherweise nicht entscheiden. Die Entscheidung des Films 197 Hollywoods Selbstdarstellung als Antwort auf die Ungewiss- heit Rahmen schneiden per se immer etwas ab, sonst könnten sie keiner Rechnung zu Grunde liegen.¯25 Dementsprechend kann auch meine Analyse nur eine grobe Vereinfachung sein. Aber ich möchte aus der Not eine Tugend machen und einfache Fragen stellen: Was ist ein Erfolgsrezept? Eine Antwort wäre: Ein guter Schauspieler plus ein gutes Skript. Wenn man das wörtlich nimmt, so ist es nicht viel mehr als ein Gemeinplatz. Das gilt aber nicht nur für Schauspieler oder Produzenten, die ein Filmprojekt entwickeln. Dieser Satz gilt für die ganze Industrie. Um es in Hollywood zu etwas zu bringen, muss jeder einzelne Akteur ein guter Schauspieler mit einem guten Skript sein. Hollywood ist eine Kultur der Performanz, eine Kultur des zur Schau gestellten ökonomischen Werts. Für Peter Bart (1999, 7) liegt genau darin der Reiz der Branche: »The business of en- tertainment is itself marvelously entertaining.« Hier möchte ich ansetzen und diese spezifische Form der Selbstreferenz fokussieren. In Hollywood haben wir es mit Profis der Selbstdarstellung zu tun. Das liegt nicht nur daran, dass eine Industrie, die auf Illusionsbildung beruht, sich tagaus, tagein mit Fragen der Darstellung auseinanderzusetzen hat. Der Grund für das ungeheure Gewicht, das Fragen der Repräsentation in Hollywood erhalten, ist ein ökonomischer: Die Unsicherheit über erwartbare Profite von Filmprojekten macht aus Holly- woods Produktionskultur eben diese Kultur der Performanz. Mit dem Begriff der ›Produktionskultur‹ beziehe ich mich auf John Thornton Caldwell (2008). Er geht der Frage nach, welche Auswirkungen die Selbststilisierung der Akteu- re in Hollywood hat: »we should ask how self-theorizing is being used to make creative and technical decisions on the set and within production organiza- tions.« (ebd., 15; Herv. A.Z.) Das Ungewissheits-Narrativ ist ein Kernelement des symbolischen Netzwerks, das Hollywoods Produktionskultur ausmacht. Es strukturiert Erwartungen und richtet damit Entscheidungen aus, welche Filme wie gemacht werden. Da- bei macht es gar keinen Unterschied, ob die Unsicherheit real oder nur imagi- niert ist – aus makroökonomischer Sicht könnte man argumentieren, dass die Filmindustrie eher stabil ist, da die meisten der Unternehmen der klassischen Periode noch heute bestehen und den immer wieder beschworenen Unter- gangsszenarien trotzen. Die Ungewissheit ist auf jeden Fall eine immer wieder- kehrende Beschreibungsformel für die Hollywoodindustrie – der Drehbuchau- tor William Goldman (1983, 39) prägte die Formel »Nobody knows anything«. Sie wirkt wie eine self-fulfilling prophecy, das, was Robert Merton (1948, 193) das ›Thomas Theorem‹ nannte: »If men define situations as real. They are real 198 Alexander Zons in their consequences«. Wenn Hollywood sich selbst als Industrie wahrnimmt, die von Unsicherheit heimgesucht wird, so ist diese Unsicherheit real in ihren Konsequenzen. Und eine der Konsequenzen dieser Einstellung wäre dann: Je- der in Hollywood ist ein Schauspieler mit Skript in der Hand. In diesem Sinne sieht auch Caldwell (2008) die Rolle der »trade narratives« und dem »self-the- orizing talk« der Industrie: »Trade narratives verify that a storyteller has a specialized expertise that goes beyond ›the ob- ligation of simple labor‹ and proves that he or she can do the one thing required of any professi- onal in Hollywood: successfully and repeatedly negotiate one’s own value« (ebd., 68). Wenn aber nun jeder in Hollywood seine Rolle spielt, wenn diese Formen der Selbststilisierung integraler Bestandteil der Produktionskultur von Hollywood sind, dann muss man sie ernst nehmen. Ein Beispiel wäre die äußere Erschei- nung eines Agenten, des Spezialisten in Sachen ökonomischer Repräsentanz. Diese soll den jeweiligen Typ unterstreichen. Stephen Zafirau (2008) nennt diese Arbeit an der Reputation »impression management«.¯26 Zafirau erklärt den Wert dieses impression managements mit folgender Einsicht: »Where no good information about potential products exists, information about the indi- viduals selling those products may substitute« (ebd., 102). Die Kompetenz wird symbolisch signalisiert. Unsicherheitsabsorption in Netzwerken der Entscheidung Was bedeutet das für die Entscheidungskultur in Hollywood? Ich möchte die andere Seite der Hollywoodökonomie betonen. Das Netzwerk Hollywood lebt nicht vom Geld allein. Oder: Es geht bei Entscheidungen nicht immer nur um Gewinnmaximierung: »In addition to their desire to offer a product that will appeal to financiers, merchandisers, and licensees, studio executives need to preserve and nourish their relationship with the stars, di- rector, producers, and agents who define the Hollywood community […] their decisions must also take into account a broader if less tangible consideration: the social and political axes of Hollywood«. (Epstein 2006, 130f.) Es geht bei Entscheidungen immer auch um die Pf lege der Beziehungen im Netzwerk. Herkömmliche medienökonomische Ansätze versäumen in der Re- gel, der Komplexität der Aktanten, Arenen und Produkte Rechnung zu tragen, indem sie einerseits Marktmechanismen auf die Summierung von Transaktio- nen reduzieren und andererseits den ›Markt‹ als gegeben voraussetzen. Im Ge- Die Entscheidung des Films 199 gensatz dazu möchte ich zeigen, wie Filme, in einem nicht tautologischen Sin- ne, Produkte ihrer Produktion sind. Dafür schließe ich an neuere Arbeiten zur Genese von Märkten an. So erlaubt der Begriff »qualification« (Callon/Mea- del/Rabeharisoa 2002, 196f.), den Film als Produkt einer Reihe ref lexiver Aus- handlungsprozesse zu konzipieren, die entscheidende Bedeutung für die wei- tere Form seiner Zirkulation haben und damit erst den bestimmten, historisch konkretisierbaren Mediensachverhalt ›Film‹ schaffen. Im Anschluss an Michael Hutter (2006) könnte man von einer Vervielfältigung der Märkte sprechen, in denen der Film gehandelt wird, bevor er beim zahlen- den Zuschauer im Kino ankommt. Michael Hutter nennt diese Märkte »Are- nen«. Mit ihnen sind dann jene »Schnittstellen« gemeint, »in denen der Wert der Inhalte bestimmt wird, bevor diese dann weiterbehandelt werden« (Hut- ter 2006, 55). Diese Arenen sind als Märkte konzipiert, in denen Angebote zur Weiterverwendung gemacht werden: »Zwischen der Phase der Urheber und der der Hersteller liegen Märkte für kreative Inputs, die angekauft werden, um Inhalte herzustellen« (ebd.). Diese Beschaffungsmärkte sind in der Filmindu- strie hoch ausdifferenziert, »von den Märkten auf denen Produzenten Schau- spieler einkaufen bis zu den Märkten, auf denen sich Universal- und Nischen- unternehmen Verwertungsrechte an fertigen Filmen kaufen« (ebd., 78). Meine These ist, dass es in der Filmindustrie seit den 1950er Jahren zu einer Multipli- kation solcher Märkte kommt. Diese Multiplikation ist der Versuch, durch die damit einhergehende vielfältigte Bewertung von Filmen den Erfolg derselben vorauseilend einzuhegen. Die Vielen sollen sich nicht im Einen, sondern in Vie- len spiegeln. Es kommt zu einer »Entfristung der kommerziellen Lebensdau- er des Films« (Hediger 2006), wenn er zum Objekt von ökonomischen Beset- zungen, man könnte auch von Spekulationen sprechen, wird, noch bevor der Produktionsprozess im engeren Sinne startet. Der seltene Fall, dass ein Film zurückgezogen, die Entscheidung zu Gunsten eines Films also revidiert wird, zeigt das ganz besonders: »[…] studio executives must make hard choices about troubled projects. Although distributors do abandon many projects at early stages, executives exhibit extreme reluctance to write off a large sum spent on an out-of-control project. To write off is to concede misjudgment in letting the project get so far, whereas if the project goes to completion and fails, the filmmaker is at fault. Besides, it might still succeed, nobody knows.« (Caves 2000, 142; Herv. i.O.) Die Summen, die in ein Projekt f ließen, signalisieren immer auch die Wert- schätzung der verschiedenen in das Projekt eingebundenen Akteure. Wenn die Filmindustrie also immer mehr Entscheidungskompetenzen ausla- gert, so kann man das als Versuch beschreiben, durch Netzwerkbildung immer 200 Alexander Zons größere Informationskapazitäten bewältigen zu können. Solche Netzwerkef- fekte lassen sich bei der Planung von Projekten beobachten. Projekte in Hol- lywood durchlaufen eine lange Phase der Entwicklung, und selbst wenn sie Unterstützer finden und auf den Weg gebracht werden, heißt das noch lange nicht, dass sie auch tatsächlich realisiert und im Kino gezeigt werden. »As a movie makes its way along that complex path, supporters must argue their case against other projects under consideration. A film that actually gets made survives many comparisons against other projects and there are always proponents and opponents vying for a studio’s li- mited financial and creative support. In effect, a coalition of supporters of the film must be su- stained through the long creative and production process. These coalitions of supporters are fragile, they are hard to hold together and there are many others vying for support.« (De Vany 2004, 269) Um einem Projekt den nötigen Rückhalt zu verschaffen, braucht es durchset- zungsfähige Befürworter. Das hat zu einem wahren Boom der Agenten ge- führt. Ohne die Unterstützung mächtiger Agenturen in Hollywood ist heute kaum noch ein Geschäft zu machen.¯27 Das führt zu einer Konzentration in- nerhalb der Branche.¯28 Größeren Firmen wird eben auch mehr Vertrauen ent- gegengebracht als kleineren Firmen, weil sie über unterschiedliche Projekte mit den Studios vernetzt sind.¯29 Die Agenten verknüpfen die verschiedenen Akteure des Massenmediums Film. Ihre Macht ergibt sich aus dieser Schlüssel- position im Netzwerk Hollywoods. Sie sind vor Ort. Sie pflegen ihre Kontakte und handeln mit Informationen, die sie genau diesen Kontakten verdanken. Ihre Kompetenz zur Beurteilung von Filmprojekten wird angezapft.¯30 Und die Kompetenz dieser Entscheidung überlassen die Produzenten unter ande- rem den Agenten. Diese handeln mit der Unsicherheit und lassen sich das gut bezahlen. Der Preis der Produktion steigt mit der Anzahl von Akteuren, deren Meinung zählt, aber es lohnt sich für alle Beteiligten: »Agents, as they decide which authors to represent, ›pool‹ the task of assessment, performing it once for the benefit of the several publishers to whom the agent refers promising manuscripts. All gain from this pooled screening. The gain increases with the number of writers who never find a publisher.« (Caves 2000, 68) Die Unsicherheit der Entscheidung wird in einem Netzwerk von anderen Ent- scheidungen absorbiert. Das scheint ein weitreichendes Phänomen zu sein. Dementsprechend weit definieren Potts et al. (2008, 169; Herv. A.Z.) den Be- griff creative industry: Die Entscheidung des Films 201 »Our new definition of the Creative Industries (CIs), therefore, proceeds not in terms of indi- vidual ›artistic‹ or creative novelty in a social context, but rather in terms of individual choice in the context of a complex social system of other individual choice. The CIs, then, are properly defined in terms of a class of economic choice theory in which the predominant fact is that, be- cause of inherent novelty and uncertainty, decisions both to produce and to consume are deter- mined by the choice of others in a social network. This class of social network choice is, we sug- gest, the proper definition of the creative industries.« Ist diese Form der Ungewissheitsabsorption eine angemessene Reaktion? Viel- leicht muss man sich von bestimmten Rationalitätsansprüchen, die herkömmli- cherweise mit der Entscheidung verbunden werden, verabschieden¯31 und statt- dessen ein wenig Torheit zulassen.¯32 Sonst kommt nichts Neues zustande. Anmerkungen 01˘ Siehe dazu March (1990, 280f.), der drei Kerngedanken bzw. Glaubenssätze der Theorie der Entscheidungsfindung nennt: (1) Vorvorhandensein (Präexistenz) von Zwecken, (2) Notwendigkeit der Konsistenz und (3) Primat der Rationalität. 02˘ Siehe dazu Strathern (1996, 523): »However, the power of such analytical networks is also their problem: theoretically; they are without limit. If diverse elements make up a descrip- tion, they seem as extensible or involuted as the analysis is extensible or involuted. Analysis appears able to take into account, and thus create, any number of new forms. And one can always discover networks within networks; this is the fractal logic that renders any length a multiple of other lengths, or a link in a chain a chain of further links. Yet analysis, like in- terpretation, must have a point; it must be enacted as a stopping place«. 03˘ Siehe z.B. Gomery (2005, 12, 115, 202, 260, 316). 04˘ Der Begriff ›disentanglement‹ wird im Deutschen als ›Entwirrung‹ wiedergegeben, siehe Callon (2006, 550). Ich finde, dass ›Entnetzung‹ besser passt. 05˘ Siehe den einschlägigen Aufsatz von von Foerster 1993b; für eine Anwendung auf den so- zialen und betriebswirtschaftlichen Kontext siehe von Foerster 1993c. 06˘ Vgl. dazu Winkler (2003). 07˘ Der junge Marx (1932, 147) weist neben den zersetzenden, auch auf die verbindenden Kräfte des Geldes hin: »Es ist die wahre Scheidemünze, wie das wahre Bindungsmittel, die galvanochemische Kraft der Gesellschaft.« Simmel (1989, 470) geht dieser Dialektik in sei- ner Philosophie des Geldes nach: »Je mehr Menschen miteinander in Beziehung treten, de- sto abstrakter und allgemeingültiger muß ihr Tauschmittel sein; und umgekehrt, ist erst 202 Alexander Zons einmal ein solches geschaffen, so gestattet es eine Verständigung auf sonst unzugäng- liche Entfernungen hin, eine Einbeziehung der allermannigfaltigsten Persönlichkeiten in die gleiche Aktion, eine Wechselwirkung und damit Vereinheitlichung von Menschen, die wegen ihres räumlichen, sozialen, personalen und sonstigen Interessenabstandes in gar keine andere Gruppierung zu bringen wären.« 08˘ In Anlehnung an die Überlegungen von Hutter (2001, 38): »Der wirtschaftliche Wertschöpfungsprozess verliert seine materielle Hülle und enthüllt sich als das, was er von Anfang an gewesen ist: ein Prozess der Kommunikation über Werte«. 09˘ Für eine historische Betrachtung der Erfolgszyklen von Studiochefs siehe Miller/Shamsie (2001). 10˘ Siehe auch von Rimscha (2010, 69). 11˘ Vielleicht ähnlich wie Luhmann (1995, 199) die Avantgarde konzipiert hat: als Ruderer, kraftvoll nach vorne strebend, aber eben zurückblickend. 12˘ Siehe dazu Luhmann (2004, 22): »keine Bindung an die (nicht mehr änderbare Vergangenheit, wohl aber Selbstbindung in Richtung auf die (noch änderbare) Zukunft«. Vgl. dazu auch Baecker (1994, 166): »Mit jeder einzelnen Entscheidung rekonstruiert die Organisation eine Zukunft, von der sie sich bestimmen, und eine Vergangenheit, von der sie sich nicht bestimmen lässt«. 13˘ Luhmann (2004, 26) definiert das folgendermaßen: »Entfaltung einer Paradoxie ist nichts anderes als die Verlagerung des blinden Flecks des Beobachtens an eine andere, weniger störende Stelle«. 14˘ ›Vertikale Integration‹ bezeichnet eine Organisationsform, die sich dadurch auszeich- net, dass die Unternehmen, u.a. um Kosten zu sparen, ihren Input, d.h. bestimmte vom Unternehmen für die Produktion benötigte Teile, selbst produzieren. 15˘ Siehe dazu DeFillippi/Arthur (1998). 16˘ »The tails of superstar movies are so long and skewed that their expected profit is posi- tive ($ 7.684 million) even though their sample average profit is negative (-$ 2.083 milli- on«)« (De Vany 2004, 225). 17˘ Auch wenn, wie Vinzenz Hediger (2006) gezeigt hat, die zunehmende Verlängerung der Lebensdauer eines Films durch die vielen Verwertungsfenster die Chancen auf Profit er- höht. 18˘ Siehe De Vany (2004, 214): »just 6.3 percent of movies earned 80 percent of Hollywood’s total profit over the past decade«. 19˘ Miller et al. (2005) sehen Marketing besonders kritisch. Ihrer Meinung nach bieten die de- personalisierten Verfahren der »extensiven Zuschauerüberwachung« kaum Sicherheit: Die latente Funktion des Marketing sehen sie eher in der Verteidigung des Distributionskartells. 20˘ »Despite its financial importance, the decision is in practice still made largely relying on an age-old tradition of judgments and intuitions. As a result, the decision process is sub- ject to many random influences – generating highly variable, unpredictable outcomes«. Die Entscheidung des Films 203 (Eliashberg/Hui/Zhang 2007, 891) 21˘ Dementsprechend braucht man einen sympathischen Held, der auf logische Weise sei- ne klaren Ziele verfolgt (siehe Eliashberg/Hui/Zhang 2007, 882). Die Geschichte des Films entwirft also die Geschichte von Entscheidungen, die der Zuschauer zu rekonstruieren hat. 22˘ Siehe Eliashberg/Hui/Zhang (2007, 881): »deciding which scripts to produce is a dauntin- gly difficult task, as the number of submissions always greatly exceeds the number of mo- vies that can be made«. 23˘ Von Rimscha (2010, 263) weist auf die Skepsis gegenüber der Marktforschung hin, sie wird aber gerne als Argument gebraucht, wenn es passt: »Wenn jedoch die Marktforschungsergebnisse ihren eigenen Interessen entsprechen, verwenden sie diese gern zur Unterstützung ihrer Argumentation«. 24˘ Wenn das Marketingdepartment finanzkräftige Tie-In-Partner für ein Projekt gewinnen kann, erhöht das natürlich die Chancen, siehe Epstein (2006, 143): »Before making a green- light decision, the studios can also usually ascertain whether or not films will qualify for advertising support from major merchandise tie-in partners«. 25˘ Siehe dazu Callon (2006, 553): »Vollkommene Rahmung ist ein begrifflicher Widerspruch.« 26˘ Siehe Zafirau (2008, 103): »Thus, over time, agents and managers have come to be ex- pected to strategically present themselves and perform business activities in particular ways in order to maintain a favorable reputation within the entertainment industry. For example, their offices are expected to have a certain aesthetic. Agents and managers are expected to work in particular geographic areas.« 27˘ Siehe Litwak (1986, 48): »Power has shifted from studios, producers and small agencies to the large agencies that today control the important commodities of talent and informati- on«. 28˘ »The approximately three hundred agencies that operate in Los Angeles are increasingly merging together to form larger agencies in order to package projects more easily« (Litwak 1986, 45). 29˘ Siehe Caves (2000, 70): »In the creative industries, large-size firms sometimes owe their prevalence not to conventional scale economies, but to the value of large blocks of expo- sed assets as collateral for proper performance of obligations. The firm with exposed as- sets has incentive not to cheat on its obligations; the contracting partner, recognizing this, has more incentive to sign«. 30˘ Genau darum geht es beim Risikomangement im Sinne von von Rimscha (2010, 50): »Drehbücher sind z.B. insgesamt nicht knapp, das Angebot übersteigt meist die Nachfrage. Es gibt jedoch eine Knappheit an Stoffen, denen eine Risikominimierung unterstellt wird, die also einen Wettbewerbsvorteil darstellen«. 31˘ Siehe Luhmann (2004: 18): »Die klassische Vorstellung, gute Entscheidungen seien rich- tige Entscheidungen und richtige Entscheidungen seien durch rationale Abwägung von Zwecken und Mitteln zu erreichen, befindet sich in voller Auflösung. Aber wodurch wird 204 Alexander Zons sie ersetzt?« 32˘ »Ein zweiter Grund für eine Technologie der Torheit ist, daß wir eine Strategie benöti- gen, durch die wir die rationalen Imperative der Konsistenz außer Kraft setzen können«. (March 1990, 290) Literatur Baecker, Dirk (1994) Postheroisches Management. Ein Vademecum. Berlin: Merve. Bart, Peter (1999) The Gross. The Hits, the Flops – the Summer That Ate Hollywood. New York: St. Martin’s Press. Burt, Ronald S. (1992) Structural Holes. The Social Structure of Competition. Cambridge, Mass. : Harvard University Press. Caldwell, John Thornton (2008) Production Culture. Industrial Reflexivity and Critical Practice in Film and Television. Durham/London 2008: Duke University Press. Callon, Michel (1998a) Introduction: The embeddedness of economic markets in econo- mics. In: Michel Callon (Hg.): The Laws of Markets. Oxford/Malden, MA: Blackwell, S. 1-57. Callon, Michel (1998b) An essay on framing and overflowing: economic externalities revi- sed by sociology. In: Callon 1998, S. 244-269. Callon, Michel / Meadel, Cécile / Rabeharisoa, Vololona (2002) The economy of qualities. In: Economy and society 31, 2, S. 194-217. Callon, Michel (2006) Akteur-Netzwerk-Theorie: Der Markttest. In: Andréa Belliger / David J. Krieger (Hg.): ANThology. Ein einführendes Handbuch zur Akteur-Netzwerk-Theorie. Biele- feld: transcript, S. 545-559. DeFillippi, Robert J. / Arthur, Michael B. (1998) Paradox in Project-Based Enterprise: The Case of Film Making. In: California Management Review 40, 2, S. 125-139. De Vany, Arthur (2004) Hollywood Economics. How Extreme Uncertainty Shapes the En- tertainment Industry. London/New York: Routledge 2004. Eliashberg, Jehoshua / Hui, Sam K. / Zhang, Z. John (2007) From Story Line to Box Office: A New Approach for Green-Lighting Movie Scripts. In: Management Science 53,6, S. 881-893. Epstein, Edward Jay (2006) The Big Picture. Money and Power in Hollywood. New York: Random House. Goldman, William (1983) Adventures in the Screen Trade. New York: Warner. Gomery, Douglas (2005) The Hollywood Studio System. A History. London: bfi. Fitzgerald, Francis Scott (1994) The Love of the Last Tycoon. A Western. Hg. von Matthew J. Bruccoli. Cambridge u.a. : Cambridge University Press. Die Entscheidung des Films 205 Hediger, Vinzenz (2006) The Product that Never Dies. Die Entfristung der kommerziellen Lebensdauer des Films. In: Ralf Adelmann / Jan-Otmar Hesse / Judith Keilbach / Marcus Stauff / Matthias Thiele (Hg.): Ökonomien des Medialen. Tausch, Wert und Zirkulation in den Medi- en- und Kulturwissenschaften. Bielefeld: transcript, S. 167-181. Hutter, Michael (2001) Die Entmaterialisierung des Wertschöpfungsprozesses. In: Michael Hutter (Hg.): e-conomy 2.0, Wittener Jahrbuch für ökonomische Literatur Bd. 6, Marburg: Me- tropolis, S. 35-48. Hutter, Michael (2006) Neue Medienökonomik. München: Fink. Jarvie, Ian (1998) Free Trade as Cultural Threat: American film and TV exports in the post- war period. In: Geoffrey Nowell-Smith / Steven Ricci (Hg.): Hollywood & Europe. London: bfi, S. 34-46. Luhmann, Niklas (1995) Die Kunst der Gesellschaft. Frankfurt a. M.: Suhrkamp. Luhmann, Niklas (2004) Die Paradoxie des Entscheidens. In: Friedrich Balke / Gregor Schwering / Urs Stäheli (Hg.): Paradoxien der Entscheidung. Wahl/Selektion in Kunst, Litera- tur und Medien. Bielefeld: transcript, S. 17-55. March, James G. (1990) Die Technologie der Torheit. In: James G. March (Hg.): Entschei- dung und Organisation. Kritische und konstruktive Beiträge, Entwicklungen und Perspekti- ven. Wiesbaden: Gabler, S. 281-295. March, James G. / Shapira, Zur (1990) Risiko und Risikoübernahme aus Sicht des Ma- nagements. In: March 1990, S. 89-112. Marx, Karl (1932) Ökonomisch-philosophische Manuskripte. In: Karl Marx / Friedrich Engels: Historisch-Kritische Gesamtausgabe Bd. 3, Berlin: Marx-Engels-Verlag, S. 29-172. Merton, Robert K. (1948) The Self-Fulfilling Prophecy. In: The Antioch Review, 8,2, S. 193- 210. Miller, Danny / Shamsie, Jamal (2001) Learning across the life cycle: Experimentati- on and performance among the Hollywood studio heads. In: Strategic Management Journal, 22,8, S. 725-745. Miller, Toby / Govil, Nitin / McMurria, John / Maxwell, Richard / Wang, Ting (2005) Global Hollywood 2. London: bfi. Potts, Jason / Cunningham, Stuart / Hartley, John / Ormerod, Paul (2008) Social network markets: a new definition of the creative industries. In: Journal of Cultural Economy 32, S. 167-185. Sedgwick, John / Pokorny, Michael (1998) The Risk Environment of Film Making: Warner Bros. in the Inter-War Years. In: Explorations in Economic History 35,2, S. 196-220. Sedgwick, John / Pokorny, Michael (2010) Consumers as risk takers: Evidence from the film industry during the 1930s. In: Business History 52,1, February, S. 74-99. Simmel, Georg (1989) Die Philosophie des Geldes. Frankfurt a. M.: Suhrkamp. Simon, Herbert A. (1977) The new science of management decision. Englewood Cliffs, NJ. 206 Alexander Zons Strathern, Marilyn (1996) Cutting the Network. In: The Journal of the Royal Anthropologi- cal Institute 2,3 (Sep.), S. 517-535. von Foerster, Heinz (1993a) Lethologie. Eine Theorie des Lernens und Wissens angesichts von Unbestimmbarkeiten, Unentscheidbarkeiten, Unwißbarkeiten. In: Heinz von Foerster: Ky- bernEthik. Berlin: Merve, S. 126-160. von Foerster, Heinz (1993b) Gegenstände: greifbare Symbole für (Eigen-)Verhalten. In: Heinz von Foerster: Wissen und Gewissen. Versuch einer Brücke. Frankfurt a. M.: Suhrkamp, S. 103-115. von Foerster, Heinz (1993c) Prinzipien der Selbstorganisation im sozialen und betriebs- wirtschaftlichen Bereich. In: Heinz von Foerster: Wissen und Gewissen. Versuch einer Brücke. Frankfurt a. M.: Suhrkamp, S. 233-281. von Rimscha, Bjørn (2010) Risikomanagement in der Entwicklung und Produktion von Spielfilmen. Wie Produzenten vor Drehbeginn Projektrisiken steuern. Wiesbaden: VS Verlag für Sozialwissenschaften. Winkler, Hartmut (2003) Diskursökonomie. Versuch über die innere Ökonomie der Medi- en. Frankfurt a. M: Suhrkamp. Zafirau, Stephen (2008) Reputation Work in Selling Film and Television: Life in the Holly- wood Talent Industry. In: Qualitative Sociology 31,2, S. 99-127. Die Entscheidung des Films 207 208 Hartmut Winkler Don’t be a Maybe. Entscheidungslust, Entscheidungsdruck und Entscheidungsnot unter den Bedingungen der Moderne Entscheidungslust: Marlboro Im Jahr 2011 hat Marlboro eine Werbekampagne gestartet, die in den Städten, auf Plakatwänden und Bushaltestellen, allgegenwärtig war und in der Öffent- lichkeit ziemlich viel Beachtung gefunden hat; zunächst wurde als eine Art Rät- sel nur der Slogan selbst präsentiert (Abb. 1), und später dann eine Anzahl von Szenen, die das Rätsel auflösten und klarmachten, was die Prämie ist, sobald man aufhört, ein Maybe zu sein (Abb. 2-7). Die Kampagne wurde vor allem im Netz ausführlich diskutiert, vielfach karikiert und weiterbearbeitet; meist mit moralischem Unterton, mit dem Hinweis, dass Rauchen Krebs verursacht, oder dass Konzerne Geld machen wollen. Abb. 1 Die Welt Im März 2012 dann griff die Zeitung Die Welt die Werbung auf und machte sie zum Gegenstand einer Analyse, die – durchaus verblüffend – von der Kritik zu einer Art Zustimmung wechselte: »Diese Kampagne […] trifft den Nerv unserer Zeit. Wir sind genau jene Maybes, die Abwarter und Unentschlossenen, die Zögerer und Zauderer, von denen hier die Rede ist. Wir, das sind die 20- bis 30-Jährigen, die in den 80er-Jahren ge- boren und im digitalen Zeitalter sozialisiert wurden. Wir sind mediale Zeugen von ›9/11‹, Irak- und Afghanistan- Krieg und sind durch den Anblick hilfloser Eisbären auf treibenden Schollen für die globale Erderwärmung sensibi- lisiert. Wir kennen Smartphones, Megapixel, Nanosekun- Don’t Be a Maybe 209 den und Terabytes. Es sind der Möglichkeiten zu viele, so scheint es. Wir haben vergessen, wie man Entscheidungen trifft. Und wir haben es uns in unserer Unentschlossen- heit bequem gemacht. […] Wir schlafwandeln durch eine vernetzte Welt voller Möglichkeiten und fühlen uns verun- sichert angesichts der Fülle von Optionen. […] Wir haben uns in eine Mentalität des Entweder-oder verrannt [??] , die uns zum Verhängnis wurde [??]; wollen überall dabei sein und nichts verpassen. Ein Irrweg. Der Mut zur Entscheidung ist wieder gefragt. Auch wenn das manchmal unangenehm ist.« (Jeges 2012)¯1 Der Autor, schreibt das Blatt, ist 29 und »Vo- lontär an der Axel-Springer-Akademie«. Iden- tifiziert in der ›Wir‹-Form macht er sich zum Sprecher seiner Altersgenossen. Die Werbekam- pagne wird damit in den Status einer Gegen- wartsdiagnose erhoben. Und der relative Erfolg der Kampagne gibt dem Recht; ob der Umsatz gestiegen ist, weiß ich nicht – der ehrwürdige Marlboro-Cowboy und das Rot-Weiß jedenfalls sehen mehr als alt aus im Licht der neuen Ästhe- tik; und die Marke hat in den dynamischen Ent- scheidern ein würdiges Update gefunden. Zu dem Erfolg der Kampagne gehört, dass der wohlmeinende Staat sie im Oktober 2013 verbot. »Das Landratsamt München«, berichtet n24, »hat dem Zigarettenkonzern Phillip Morris seine aktuelle bundesweite Marlboro-Werbung verboten. […] Die schon seit 2011 laufende ›Maybe‹-Kampagne […] mit ›jugendlich bzw. heranwachsend aussehenden Personen in altersty- pischen Situationen‹ […] spreche Jugendliche und Heran- wachsende als Zielgruppe an. Sie suggeriere, die Zigaret- te mache aus einem Zauderer (Maybe) einen Macher (Be). Das Verbot gelte bundesweit für Plakate, Flyer, Kino- und andere Werbung.«¯2 Abb. 2-4 210 Hartmut Winkler Entscheidungsdruck durch Differen- zierung Gucken wir also etwas näher hin, was die Ana- lyse der Welt an Argumenten enthält. Es wird 1. eine Unfähigkeit konstatiert, sich zu entschei- den. Diese Unfähigkeit wird 2. auf eine Überfor- derung der Subjekte zurückgeführt. Und diese schließlich 3. auf die Tatsache, dass die Zahl der Optionen, die zur Wahl stehen, über alle Maßen gewachsen ist. Damit schließt der Artikel an ein narratives Mus- ter an, das man mit Fug unter die ›großen Er- zählungen‹ der Moderne rechnen könnte: Dass nämlich Moderne und Modernisierung primär durch einen Differenzierungsprozess gekenn- zeichnet sind, der beständig neue Möglichkei- ten/Optionen, und damit Komplexität produ- ziert. Luhmann etwa würde dem zustimmen: »Man kann die soziokulturelle Evolution be- schreiben als zunehmende Differenzierung der Ebenen, auf denen sich Interaktionssysteme, Or- ganisationssysteme und Gesellschaftssysteme bilden.« (Luhmann 1991, 13; 1993b, 22, 36ff.; 1975) Entscheidung Abb. 5-7 Glücklicherweise aber gibt es ein Gegengift – »Wo aber Gefahr ist, wächst/Das Rettende auch«. (Hölderlin 1953) Und das Rettende ist in diesem Fall die Entscheidung. »Der Mut zur Entscheidung ist wieder gefragt«, haben wir gelesen, »auch wenn das manchmal unangenehm ist.« (Jeges 2012) Ausweg also ist die Fähigkeit zur Entscheidung; tatsächlich völlig parallel zu der Argumentation der Marlboro-Werbung selbst; eine ganze Generation mag durch Zögern gekennzeichnet sein, doch es bedarf kaum mehr als eines Weck- rufs, und eben der heroischen Entscheidung selbst, um die Dinge wieder in die Hand zu nehmen und sein Schicksal zu meistern. Don’t Be a Maybe 211 Und auch dieser Gedanke setzt auf einem po- pulären Mythologem auf, einer der verdeckten Grundvorstellungen also, die das Weltbild der westlichen Gesellschaften strukturieren: die Entscheidung und die Fähigkeit zur Entschei- dung sind fast völlig uneingeschränkt positiv konnotiert. Das gilt insbesondere für die Wirt- schaft, deren Manager sich gerne als ›Entschei- Abb. 8 der‹ verstehen. Der Politik und der ›Quasselbu- de‹ des Parlaments wird vorgehalten, nur zu reden, nichts aber zu tun, wichtige Entscheidungen vor sich herzuschieben und zur tatsächlichen Gestaltung letztlich unfähig zu sein. Die Wirtschaft dagegen definiert sich darüber, dass sie Fakten schafft. Dass dies auch eine durchaus aggressive Seite hat, wird ausdrücklich zugestan- den. Im Feld der Theorie mag es dem Leser wohlig grausen, wenn er bei Schum- peter (2005) liest, dass ökonomische Innovation mit einer »Schöpferischen Zer- störung« einhergeht; wenn Shell das Niger-Delta mit Öl verseucht allerdings wird die Destruktion praktisch; und trotzdem würde die Wirtschaft dies als Kollateralschaden sehen. Ähnlich, wenn man sich in Japan auch nach Fuku- shima und ohne den geringsten Plan, wie mit der Ruine umzugehen ist, nass- forsch zum Wiederanfahren der Atomkraftwerke bekennt. In beiden Fällen sind es Entscheider, die das entscheiden. Und es mag sein: Nicht jede oder jeder ist zum Entscheider gemacht. Das Mehdorn-Portrait (Abb. 8) gibt dies glänzend wieder. Den Blick in die Wei- te gerichtet, halb noch Visionär und halb schon Feldherr und Täter; die Kame- ra wie selbstverständlich in der Untersicht; das Kinn ganz Entschlusskraft, die Lippen in langjähriger Durchsetzung zusammengepresst, und trotzdem noch ein bisschen jungenhaft und verschmitzt – so wollen wir diejenigen sehen, die im Rücken der Politik die Geschicke des Landes lenken. Überflüssig zu sagen, dass dies eine männliche Bilderwelt ist. Management, Tat und Entschlusskraft sind männlich konnotiert, da wird auch die 30%-Quo- te in den Aufsichtsräten nichts ändern. Und Entscheiden ist sexy. ›Entscheiden können‹ eine unmittelbare Übersetzung jener ›Agency‹, die vor allem die femi- nistischen Machttheorien zum Gegenstand machen. Oben, auf dem Hügel des Feldherrn, geht frischer Wind; Manager lassen sich, ohne Rücksicht aufs Klischee, gerne sonnengebräunt am Steuer ihrer Yacht fo- tografieren. Der Wind selbst steht für jene Freiheit, jenes Ausgesetzt-Sein, das das Entscheiden erst wirklich sexy macht. 212 Hartmut Winkler Im Artikel der Welt bleibt dieser weiter gefasste kulturelle Hintergrund unaus- gesprochen und kann unausgesprochen bleiben, weil er als selbstverständlich vorausgesetzt werden kann. Ohne ihn allerdings muss es rätselhaft bleiben, wie und warum der Autor nach seiner kritischen Analyse ausgerechnet auf das Entscheiden wieder einschwenken kann. Und es ist symptomatisch, dass das Einschwenken exakt an dieser Stelle misslingt. Was nämlich ist denn gemeint, wenn der Text sagt: »Wir haben uns in eine Mentalität des Entweder-oder ver- rannt«? (Jeges 2012) Und noch dazu in eine, »die uns zum Verhängnis wurde«? (ebd.) Wäre eine Mentalität des Entweder-oder nicht die des Entscheidens und der Entscheidung selbst? Und warum in aller Welt wählt die Welt ausgerech- net diesen Missgriff zum Titel: »Generation Maybe hat sich im Entweder-oder verrannt«? (ebd.) Meine These ist, dass exakt hier der Hund begraben liegt. Am Punkt des Um- schlags zwischen Problem und Lösung; zwischen einer Analyse, die ein Syn- drom von Komplexität und Überforderung unterstellt, und dann eben doch – heroisierend-männlich und konventionell – auf Entscheidung setzt. Komplexität Gehen wir noch einmal zurück auf die Komplexität. Denn wenn die Lösung ›Entscheidung‹ auch möglicherweise fraglich ist: Wer wollte der Analyse ›Kom- plexität‹ und ›Optionenvielfalt‹ widersprechen? Jeder, der einmal versucht hat, gemeinsam mit seinem Lebensabschnittspart- ner eine Wohnung einzurichten, weiß, wie viele Möglichkeiten es gibt, ein ein- zelnes Bild aufzuhängen. Die Firma Starbucks überbietet die Vielfalt des klas- sischen Wiener Kaffeehauses, wenn sie neben ›gebrühtem Kaffee‹ geschlagene siebzehn ›Espresso-Getränke‹ listet;¯3 und die mündliche Befragung/empiri- sche Sozialforschung, die man bei der Bestellung durchlaufen muss, hat bereits ihren Weg auf die Comedy-Bühne gefunden.¯4 Ein zweites Beispiel – eine Szene aus Switch Reloaded – ist hiermit nur schein- bar redundant;¯5 Switch Reloaded nämlich macht deutlich, dass es sich häu- fig um eine Kombinatorik handelt. In vielen Fällen geht, was als Komplexität erscheint, tatsächlich auf die Kombination nur relativ weniger Parameter zu- rück, was der Komplexität selbst ein bestimmtes Gesicht gibt; auch diesen As- pekt werde ich später wieder aufgreifen. Don’t Be a Maybe 213 Zwischensumme Bevor ich zu meinem zweiten Teil komme, möchte ich nun eine kurze Zwischen- summe ziehen. Viele Theorien der Moderne beschreiben die Modernisierung als einen Differenzierungsprozess, als Zunahme von Komplexität, als Zunah- me materieller Ressourcen und Optionen; mit der Unterstellung, dass die Rea- lität letztlich reicher wird. Und – damit verschränkt – wird die Bereicherung gleichzeitig zum Problem; die involvierten Subjekte sehen sich vor spezifische Schwierigkeiten der Orientie- rung und dann der Entscheidung gestellt. Komplexität, so könnte man sagen, ist das Stichwort, das die Haben- und die Problem-Seite miteinander verbindet: Ist Differenzierung, Komplexität, Vielfalt einerseits Reichtum, mahnt der Be- griff gleichzeitig an, dass Komplexität beherrscht, und das heißt wieder einge- hegt und begrenzt werden will. Um die Spannung dieser beiden Momente wird es im Folgenden gehen. Zweifel Ich habe die These der Differenzierung eine ›große Erzählung‹ genannt, weil man sie – selbstverständlich – auch bezweifeln kann. Und zwar sind sehr ver- schiedene Arten von Zweifel möglich. Zum einen kennt die Moderne neben Dif- ferenzierungsprozessen zweifellos auch Prozesse der Ent-Differenzierung. Die Produktion von Vielfalt hat ihr Korrelat im Eliminieren von Vielfalt, nicht nur der biologischen Arten; Techniken, vor allem Handwerkstechniken gehen un- ter, ebenso wie Sprachen und Praktiken; mit den Prozessen der Globalisierung verbreiten sich Normen und Standards der Technik und des Verhaltens, die lo- kale Standards unter sich begraben. Zum Zweiten kann man argumentieren, dass vormoderne Gesellschaften mög- licherweise nicht weniger komplex sondern komplexer waren; wenn auch auf völlig andere Art und Weise, was den Blick darauf lenkt, was man überhaupt ›Komplexität‹ nennen will. Komplexität ist nicht in jedem Fall auf Optionen- vielfalt zu reduzieren; und es sind auch solche Typen von Komplexität denkbar, die Situationen undefinierter, diffuser oder offener lassen, so dass auch der ›Entscheidung‹ eine andere Rolle zukommt. 214 Hartmut Winkler Differenzierung und Entdifferenzierung Entsprechend sollte man vielleicht noch einmal genauer hinschauen. Und zwar zunächst auf die generelle Vorstellung von Differenzierung selbst. Differenzie- rung kann man möglicherweise im Bild eines liegenden Baumes beschreiben. Links – künstlich singularisiert – ein Stamm, und rechts ein unübersehbares Ge- wirr von Zweigen; der Vektor der Entwicklung geht von links nach rechts, und das Bild kommt zu seiner notwendigen Grenze, wo die Äste sich nicht weiter verzweigen kön- nen, sondern im Nichts enden (Abb. 9). Ent-Differenzierung, entsprechend, kehrt das Bild um; nun sind die Zweige, woher immer sie kommen, links, und der Stamm ist rechts; der Entwicklungsvektor führt, was differenziert war, zusammen (Abb. 10). Mein Vorschlag nun ist, beide Bilder zu überla- gern und eine systematische Wechselbeziehung zwischen Differenzierung und Ent-Differenzie- rung zu unterstellen. Damit verlagert sich die Abb. 9 Aufmerksamkeit auf Prozesse der Reduzierung von Komplexität. Eine kontinuierliche, einsinni- ge Zunahme von Komplexität ist schon aus sys- tematischen Gründen unmöglich, ähnlich wie ein exponentielles Wachstum prinzipiell nicht auf Dauer gestellt werden kann. Und offensicht- lich verfügt die Gesellschaft über Prozesse, die Komplexität gezielt aus der Welt schaffen. Das sieht auch Luhmann, der Theoretiker der Abb. 10 Differenzierung, genau; etwa, wenn er die Bil- dung von Codes als eine Technik beschreibt, die Erwartbarkeit herstellen soll (Luhmann 1996, 32ff.); oder allgemeiner immer dann, wenn es in seinen Texten um Kontingenzbewältigung geht (vgl. z.B. Luhmann 1993b, 467ff.). Komplexität verlangt nach Techniken, die diese Komplexität handhabbar machen; und nur auf dieser Basis wird neue Komplexität möglich. Gesellschaften bilden Kulturtechniken aus, die speziell der Be- wältigung von Komplexität dienen. Don’t Be a Maybe 215 Entscheiden Und eine dieser Kulturtechniken – auf diese Pointe steuert mein Argument zu – ist die Ent- scheidung. Entscheidungen haben den Effekt, dass sie die Alternativen, die zur Verfügung standen, eliminieren. Wie an der Gabelung ei- nes Weges wird nur eine Alternative gewählt (Abb. 11). Und zwar egal, wie die Entscheidung ausfällt. Abb. 11 Das bedeutet gleichzeitig, dass damit alle ande- ren Alternativen verworfen werden (Abb. 12). Abb. 12 Wenn ich später die Möglichkeit habe, zu der Kreuzung noch einmal zurückzukehren, kann ich meine Entscheidung revidieren und einen der anderen Wege nehmen; in den meisten Fäl- len aber gibt es diese Möglichkeit nicht, weil sich, darauf macht ebenfalls Luhmann aufmerk- sam (Luhmann 1993a), u. a. durch die Entschei- dung selbst die Umstände ändern, die Realität, die ich beim Zurückkehren vorfinde, also nicht mehr die gleiche ist. Auf diese Weise also bin ich die Alternativen voll- ständig los, ich habe sie aus der Welt geschafft; und je mehr Möglichkeiten es gegeben hätte, sich eben auch anders zu ent- scheiden, desto wirksamer ist die Reduzierung, die sich ergibt. Entscheiden ist insofern eine sehr wirksame, gleichzeitig aber auch sehr rabiate Technik zur Re- duzierung von Komplexität. Andere Kulturtechniken zur Reduzierung von Komplexität Dies wird noch deutlicher, wenn man sie mit alternativen Kulturtechniken ver- gleicht, die ebenfalls Komplexität reduzieren. In einem anderen meiner Texte habe ich traditionale von spezifisch ›modernen‹ Kulturtechniken zur Reduzie- rung von Komplexität unterschieden (Winkler 2011). Unter den traditionalen wären etwa zu nennen: 1. Grenzziehung/Eingrenzung/Ausgrenzung, eine ebenfalls sehr rabiate Tech- nik zur Reduzierung von Komplexität; 216 Hartmut Winkler 2. die Ausbildung von Hierarchien, eng verbunden mit dem Problem der Ent- scheidung, weil Hierarchien Entscheidungsmacht vorbestimmen und kanali- sieren; 3. religiöse und metaphysische Ordnungssysteme reduzieren Komplexität, in- sofern Glauben und Weltbild relativ einfache Antworten auf komplexe Fragen liefern; weiter 4. die Bildung von Traditionen. Dies ist eine besonders interessante Kulturtech- nik zur Reduzierung von Komplexität, weil sie ohne Planung und bewusste Be- obachtung, hinter dem Rücken der Beteiligten und bottom up wirksam ist. In ähnlicher Weise 5. alle Mechanismen der Schemabildung (Winkler 2012); und schließlich 6. die Sprache, die, vor allem insofern Begriffe subsumieren, reale Komplexität immer drastisch reduziert. Die zweite Gruppe wären die spezifisch ›modernen‹ Kulturtechniken. So 7. Arbeitsteilung und funktionale Differenzierung, die aufs Ganze betrachtet zwar die Komplexität steigern, sie aber gleichzeitig in kleine Stücke zerlegen, die für den Einzelnen noch einigermaßen handhabbar sind. 8. viele Prozesse von Technifizierung, die ebenfalls als komplexitätssteigernd erscheinen, wie Latour in seinem Blackboxing-Argument aber zeigt, Komplexi- tät gleichzeitig einkapseln und damit verfügbar machen (Latour 2002, 373; so- wie 222-224; Belliger/Krieger 2006, 43). 9. Rationalisierung und Ökonomie, ein Fall wo die Reduzierung besonders au- genfällig ist, und schließlich – sehr pauschal – 10. Prozesse der Abstraktion, wie sie sich in Ästhetik und Kunst, und auf der an- deren Seite ganz anders in den Naturwissenschaften und im Übergang zu For- malsprachen finden. Ich kann das Argument hier nicht weiter entfalten. Deutlich aber dürfte gewor- den sein, dass es sehr viele, sehr unterschiedliche Kulturtechniken gibt, denen man die Funktion zuordnen kann, gesellschaftliche Komplexität zu reduzieren. Und dass damit das Entscheiden in einem Umfeld steht, das selber Alternati- ven zum Entscheiden bereitstellt. Wenn man sich also für das Entscheiden ent- scheidet, so ist dies keineswegs zwingend. Don’t Be a Maybe 217 Möglichkeitsraum Gehen wir nun zu den Alternativen über, die im Entscheiden verworfen wer- den. Auch diese Alternativen, oder zumindest einige von ihnen, wären mög- lich gewesen; Option eben, innerhalb der Optionenvielfalt. Alternativlose Ent- scheidungen, wie sie Merkel so gerne für sich in Anspruch nimmt, gibt es nicht, oder sie sind keine.¯6 Die Alternativen, die zur Entscheidung stehen, sind nicht oder noch nicht Teil der Realität, sondern Teil eines Möglichkeitsraums, der sich vom Tatsächlichen signifikant unterscheidet. Zum einen ist dieser Möglichkeitsraum unvergleich- lich viel größer und ›reicher‹ als das, was tatsächlich der Fall ist. Die Möglich- keiten bilden, bevor sie manifest als Alternativen formuliert vorliegen, eine Art Hof, oder ein Umfeld, das erst Schritt für Schritt feste Gestalt gewinnt. Die Möglichkeiten können ›realistisch sein‹, und insofern der Realität ähneln, oder ›utopisch‹, Phantasie oder Fiktion; ihre Wahl und Realisierung kann nahe lie- gen, oder extrem weit ab; wo die Realisierung ganz ausgeschlossen scheint, geht das Mögliche in das Unmögliche über. Entsprechend viele Arten gibt es, mit diesem Möglichkeitsraum umzugehen; und Entscheiden ist sicherlich nur eine davon, und wieder eine der gröbsten. Produktion der Handlungsalternativen Entscheiden nämlich kann ich nur, wenn ich in diesen Möglichkeitsraum ein- greife. Alles, was an ihm diffus oder unkenntlich ist, muss vereindeutigt wer- den, und umgearbeitet in jenen Satz von Alternativen, der dann zur Entschei- dung steht. Wer entscheiden will oder muss aber verfährt anders; er tut so, als lägen die Alternativen immer schon fertig vor. Dies bedeutet, dass nicht nur die Entscheidung selbst einen Aspekt von Gewalt oder Bemächtigung hat. Sondern es gibt eine Dimension von Gewalt oder Be- mächtigung, die der eigentlichen Entscheidung vorangeht. Der Möglichkeits- raum muss zugerüstet werden, bevor er eine Entscheidung überhaupt erlaubt. Oder aber, und dies ist der zweite Fall, er ist bereits zugerüstet, und es stehen tatsächlich nur vorformulierte Alternativen zur Auswahl; wer auch immer die- se Alternativen vorformuliert und zur Auswahl gestellt hat. Meine These nun ist, dass dieser zweite Fall in der Moderne besonders häufig vorkommt, und dass dies die Entscheidungen wie den spezifisch ›modernen‹ Typus von Komplexität prägt. Entscheidungen sind häufig ›getunnelt‹, inso- fern sie sich in bereits vorformulierten Alternativen bewegen. Dies ist bei der 218 Hartmut Winkler Starbucks-Bestellung so, und noch klarer im Beispiel von Switch Reloaded, wo schlichte Kombinatorik Komplexität generiert. In all solchen Fällen ist es sinnvoll zu fragen, wer es war, der die Alternativen vorformuliert und zur Auswahl gestellt hat. Im Fall von Starbucks mag dies unproblematisch sein, weil völlig unstrittig ist, wer die Auswahl bereitstellt. Ebenso häufig aber ist dies anders, denn es ist keineswegs immer klar, wer wel- chen Einfluss auf die Vorgaben hatte. In jedem Fall prägt die Formulierung der Alternativen die Entscheidung vor. Sie funktioniert als ein Pro-gramm. Entsprechend rückt die Macht vom Entschei- der weg; oder sie verteilt sich auf zwei Instanzen: den Entscheider und denjeni- gen, der die Macht hatte, die Alternativen zu programmieren (Abb. 13). Der Raum des Entscheidens zerfällt in zwei Räume; den sichtbaren des Ent- scheiders und der Entscheidung, und einen zweiten Raum der Präparation, der in vielen Fällen weniger gut beleuchtet ist (Abb. 14). Don’t Be a Maybe 219 Medien Statt von einem Raum des Entscheidens von zweien auszugehen, hat weitrei- chende Konsequenzen; denn die Frage führt uns zurück auf das Terrain der Me- dien. Nun nämlich muss auffallen, dass es Medien gibt, die in exzessiver Wei- se mit vorformulierten Alternativen arbeiten. Und vor allem gilt dies für den Computer. All jene ›Menüs‹, die die Rechner ihren Nutzern zukehren, die Logik des Hypertexts, der die Oberfläche der Netze bestimmt, alle Knöpfe und But- tons und Auswahloptionen sind mit Funktionen hinterlegt, die, nun im wörtli- chen Sinn, pro-grammiert wurden. Auf der ersten Ebene ist dies so wenig ein Geheimnis wie im Fall von Starbucks. Auf einer zweiten Ebene aber wird dies sehr bedenkenswert, und zwar nicht, weil die Rechner uns eine bestimmte Auswahl aufnötigen, sondern weil sie uns überhaupt in den Modus der ›Entscheidung‹ zwingen. Möglicherweise also gilt gerade hier, was der unglückliche Welt-Kolumnist sagte: »Wir haben uns in eine Mentalität des Entweder-oder verrannt« (Jeges 2012). Wenn auch eben ganz und gar nicht in seinem Sinne (und unabhängig davon, ob sie »uns zum Verhängnis wurde« (ebd.)). Medien des ›Und‹ und des ›Oder‹ Das Universum der Rechner scheint mir weniger durch die notorischen Nul- len und Einsen bestimmt, als durch diese Logik der Auswahl. Rechner sind, wie ich vorgeschlagen habe, ein Medium des ›Oder‹ (Winkler 2003, 326). Das Pro- gramm, das jeweils hinter den Knöpfen liegt, ist verborgen. Und noch verborge- ner, weil in den Status des Selbstverständlichen entrückt, ist das ›Oder‹ selbst. Wenn eine der gegenwärtigen Leitlinien für das Softwaredesign also behaup- tet: ›What you see is what you get‹, so ist dies ein Ideologem; die scheinba- re Sichtbarkeit und völlige Transparenz der Optionen verhüllt jenen zweiten Raum, in dem die Vor-Entscheidungen fielen. Was man bekommt, ist eben ge- rade nicht das, was als Auswahl zu sehen ist. ›Oder‹-Medien können nur deshalb ein Thema sein, weil es eben auch ande- re Medien gibt. Provisorisch habe ich den Film und allgemeiner die audiovi- suellen Medien als eine Gegenwelt diskutiert, die eben nicht dem ›Oder‹ der Auswahl, sondern eher einer Logik des ›Und‹ folgen. Dieses ›Und‹, zugegeben, ist nicht das logische ›Und‹; sondern das einer eher diffusen Aufhäufung, ei- ner Überfülle, wie sie das Filmbild kennzeichnet; oder das vorwärtsdrängende ›Und dann – und dann‹ aller Narration. 220 Hartmut Winkler Um die Trennung zwischen ›Und‹ und ›Oder‹ noch etwas klarer zu machen, kann man das Beispiel Zapping heranziehen; wenn ich mit der Fernbedienung den Kanal wechsele, bewege ich mich im ›Oder‹; wenn ich mich hingebe und dem Fluss des Angebots folge, bewege ich mich im ›Und‹. In der Bezeichnung ›Kanal‹ ist schon bei- des enthalten: die Tatsache, dass etwas f ließt, und dass der Kanal seitliche Grenzen hat (Abb. Abb. 15 15). Und- und Oder-Medien – sie alle verwalten Mög- lichkeitsräume, aber eben auf ziemlich unter- schiedliche Weise. Schalten Das Beispiel der Fernbedienung nimmt es vor- Abb. 16-17 weg: Die schlichteste Implementierung des ›Oder‹ ist der Schalter (Abb. 16); und dieser liegt – zunächst als Schalttransistor, und dann zu in- tegrierten Schaltkreisen zusammengefasst – aller Computerhardware zugrunde. Compu- terprozessoren sind Systeme von inzwischen Milliarden von Schaltern, die die Besonderheit haben, dass sie Signalströme nicht nur schal- ten, sondern von Signalströmen auch geschaltet werden (Winkler 2015, 255-276). Insofern ist es wenig verwunderlich, dass das ›Oder‹ dem Com- puter näher ist als das ›Und‹; und mit dem Schal- ter kehrt auch das Bild der Wege und der Weg- kreuzung wieder (Abb. 17). Und ebenso die Logik des Pro-gramms und der ›zwei Räume‹, weil nur das geschaltet werden kann, was zuvor als Schalter/Hardware imple- mentiert wurde. Don’t Be a Maybe 221 Bindung ans Handlungsmodell Der letzte Zusammenhang, den ich aufzeigen will, mag trivial erscheinen, ist mir aber ganz besonders wichtig. Entscheiden ist an Handeln gebunden; ent- scheiden muss ich nur (oder vor allem dann), wenn ich handeln will. Handeln und die Notwendigkeit, handeln zu müssen, ist so tief eingelagert in das westliche Selbstverständnis und unsere rastlos »industrielle« Kultur,¯7 dass es sinnlos erscheint, es zu befragen oder in Frage zu stellen. Und dennoch möchte ich vorschlagen, genau das zu tun; und selbstverständlich ist auch die- ser Weg vorgebahnt durch sehr prominente Denker. Eine der radikalsten Formulierungen haben Horkheimer/Adorno gefunden, wenn sie – mein absolutes Lieblingszitat aus der Dialektik der Aufklärung – schreiben: »Furchtbares hat die Menschheit sich antun müssen, bis das Selbst, der identische, zweckge- richtete, männliche Charakter des Menschen geschaffen war, und etwas davon wird noch in je- der Kindheit wiederholt. Die Anstrengung, das Ich zusammenzuhalten, haftet dem Ich auf allen Stufen an.« (Horkheimer/Adorno 1981, 50) Horkheimer/Adorno haben die Anforderung wach, alert und entschlossen zu sein immer wieder karikiert und es schroff und aristokratisch zurückgewiesen, das menschliche Selbstverständnis auf Zweck und Mittel, auf Handeln, Realität und männlich-heroische Entscheidung zu gründen. In einer Doppelbewegung haben sie sich stattdessen auf die Seite des Möglichen geschlagen, das sie am ehesten in der Kunst fanden, und gleichzeitig auf die Seite der Wahrheit, auch wenn diese – ein Problem, wie ich zugebe – möglicherweise nicht genauso plu- ral wie das Mögliche ist. Schluss Wenn ich auf das Handeln, und sei es probeweise, nämlich verzichte, schwin- det plötzlich, rätselhaft und vollständig auch der Entscheidungsdruck. Ich kann mich zurücklehnen und die Vielfalt der Möglichkeiten an mir vorbeiziehen las- sen; mich an der Vielfalt freuen und sogar die möglichen Widersprüche, die sich auftun, genießen. Der Raum des Möglichen eben gehorcht anderen Geset- zen. Und wo das Tatsächliche einsinnig ist – sicherlich mehrdeutig, einsinnig aber in dem Sinne, dass es den Raum der Deutungen eben zu einem der Deu- tungen macht – explodiert das Mögliche als Pluralität. 222 Hartmut Winkler Und man muss, auch dies ist tröstlich, weder Adorno-Anhänger, noch Künstler, nicht – nach dem Muster der vita contemplativa – Ästhet, oder gar Zen-Bud- dhist werden, wenn man sich entschließt (!), sich probeweise auf die Seite des Möglichen zu schlagen. Das Symbolische selbst, und damit die Sphäre der Me- dien, das ist meine Behauptung, haben hier ihr Zentrum. Symbolische Prozes- se sind nicht Widerspiegelung/Verdopplung der Welt, und nicht ein schlichtes Organisationsmittel – communication and control (Wiener 1961) – sondern sie haben ihre Pointe darin, dass sie den Raum des Möglichen eröffnen. Es ist dieser Raum, der infrage gestellt wird, wenn Marlboro dazu auffordert, das Maybe dem Be zu opfern. Und nun tritt die Tatsache hervor, dass es sich bei dem Slogan um einen Imperativ handelt. Exakt in dem Moment, wo uns die Werbung die individuelle Freiheit zu Entschluss und Handeln verspricht, fällt sie in den Ton der Anweisung zurück. ›Don’t be a Maybe‹ setzt darauf, dass die Trias aus heroischem Entschluss, männlich konnotiertem Handlungs- modell und Macht/Agency außer Frage steht. Vielleicht – may be – aber ist das nicht mehr der Fall. Anmerkungen 01˘ Hervorh. und Erg. H.W.. 02˘ [http://www.n24.de/n24/Nachrichten/Wirtschaft/d/3648220/gericht-verbietet-marl- boro-kampagne.html]; letzter Abruf 22.3.2015, Hervorh. H.W.; im Original fehlerhaft: »in einen Macher« und »Plakaten«). 03˘ [http://www.starbucks.de/menu-list/beverage-list]; letzter Abruf 22.3.2015. 04˘ Etwa im Clip Kaffee-Bestellung von Bodo Wartke [http://www.youtube.com/watch?v=4 Dw3 93ZUQQ]; letzter Abruf 22.3.2015. 05˘ swiTch reloaded : ›Schmeckt nicht, gibt‘s nicht – Bohneneintopf‹ [http://www.myvi- deo.de/watch/1000615/Schmeckt_nicht_gibt_s_nicht_Switch_Reloaded]; letzter Abruf 22.3.2015. 06˘ Das Wort ›alternativlos‹ wurde 2001 zum Unwort des Jahres gewählt. [http://www. zeit.de/gesellschaft/zeitgeschehen/2011-01/unwort-2010-alternativlos]; letzter Abruf 24.3.2015. 07˘ Von lat. Industrius: »anstellig, regsam, betriebsam, eifrig, fleißig« (Der kleine Stowasser. Lateinisch-deutsches Schulwörterbuch. München: Freytag 1966, S. 263). Don’t Be a Maybe 223 Bibliografie Belliger, Andréa / Krieger, David J. (2006) Einführung in die Akteur-Netzwerk-Theorie. In: dies. (Hg.): ANThology. Ein einführendes Handbuch zur Akteur-Netzwerk-Theorie. Biele- feld: Transkript, S. 13-50. Jeges, Oliver (2012): Generation Maybe hat sich im Entweder-oder verrannt. In: Die Welt: 23.3.2012 [http://www.welt.de/debatte/kommentare/article13939962/Generation-Maybe- hat-sich-im-Entweder-oder-verrannt.html]; letzter Abruf 22.3.2015. Luhmann, Niklas (1996 [1995]) Die Realität der Massenmedien. Opladen: Westdeutscher Verlag. Luhmann, Niklas (1993a [1980]) Temporalstrukturen des Handlungssystems. Zum Zusam- menhang von Handlungs- und Systemtheorie. In: ders. : Soziologische Aufklärung, Bd. 3, Opla- den, S. 126-150. Luhmann, Niklas (1993b [1984]) Soziale Systeme. Grundriß einer allgemeinen Theorie. Frankfurt a. M.: Suhrkamp. Luhmann, Niklas (1991 [1975]) Interaktion, Organisation, Gesellschaft. Anwendungen der Systemtheorie. In: ders. : Soziologische Aufklärung 2. Opladen: Westdeutscher Verlag. Luhmann, Niklas (Hg.) (1975) Soziale Differenzierung. Zur Geschichte einer Idee. Opladen: Westdeutscher Verlag. Hölderlin, Friedrich (1953 [1803]) Patmos. Dem Landgrafen von Homburg. In: Sämtliche Werke. 6 Bände, Bd. 2, Stuttgart, S. 191-195. Horkheimer, Max / Adorno, Theodor W. (1981 [1947]) Dialektik der Aufklärung. Philo- sophische Fragmente. Gesammelte Schriften, Bd. 3, Frankfurt a. M.: Suhrkamp. Latour, Bruno (2002 [1999]) Die Hoffnung der Pandora. Untersuchungen zur Wirklichkeit der Wissenschaft. Frankfurt a. M.: Suhrkamp. Schumpeter, Joseph A. (2005 [1942]) Kapitalismus, Sozialismus und Demokratie. Stuttg- art: UTB. Wiener, Norbert (1961) Cybernetics or Control and Communication in the Animal and the Machine. Cambridge MA: MIT Press. Winkler, Hartmut (2015) Prozessieren. Die dritte und vernachlässigte Medienfunktion. München: Fink. Winkler, Hartmut (2012) Schemabildung – eine Maschine zur Umarbeitung von Inhalt in Form. In: Tobias Conradi / Gisela Ecker / Norbert Eke / Florian Muhle (Hg.): Schemabildung und Praktiken. München: Fink, S. 15-35. Winkler, Hartmut (2011) Kulturtechniken zur Reduzierung von Komplexität. Vortrag im Graduiertenkolleg Automatismen, Universität Paderborn, 16.4.11, Preprint: [www.uni-pader- born.de/~winkler/komplex.pdf]; letzter Abruf 22.3.2015. 224 Hartmut Winkler Winkler, Hartmut (2003) Zugriff auf bewegte Bilder. Video on Demand. In: Harald Hill- gärtner / Thomas Küpper (Hg): Medien und Ästhetik. Festschrift für Burkhardt Lindner. Biele- feld: Transkript, S. 318-331. Don’t Be a Maybe 225 AutorInnenverzeichnis Tobias Conradi ist Postdoktorand am ZeM – Brandenburgisches Zentrum für Medienwissen- schaften in Potsdam. Zuvor war er wissenschaftlicher Mitarbeiter im DFG-Forschungsprojekt »Kulturtechnik Unternehmensplanspiel« an der HBK Braunschweig. Seine Forschungsschwer- punkte sind Diskurstheorie, Repräsentationspolitiken und der Zusammenhang von Krise, Kritik und Entscheidung. Letzte Veröffentlichungen: Breaking News. Automatismen in der Repräsentati- on von Krisen- und Katastrophenereignissen (Paderborn 2015), zusammen mit Heike Derwanz und Florian Muhle (Hg.): Strukturentstehung durch Verflechtung. Akteur-Netzwerk-Theorie(n) und Au- tomatismen (München/Paderborn 2012). Martin Doll ist Juniorprofessor für Medienkulturwissenschaft an der Heinrich-Heine-Universi- tät Düsseldorf. Er studierte Drama, Theater, Medien an der JLU Gießen. Von 2003 bis 2006 war er Stipendiat des Graduiertenkollegs »Zeiterfahrung und ästhetische Wahrnehmung« der Goethe- Universität Frankfurt/M. Nach seiner Promotion mit einer Arbeit zum Thema Fälschung und Fake forschte er als Postdoc-Stipendiat des internationalen ICI Kulturlabor Berlin über ›Medien der Ge- meinschaft‹. Von 2011-2014 war er wissenschaftlicher Mitarbeiter im ATTRACT-Projekt »Ästhe- tische Figurationen des Politischen« an der Université du Luxembourg. Seine Forschungsschwer- punkte sind: Medien-, Wissens- und Kulturgeschichte, Fälschung und Fake, Politik und Medien, Medialität der Architektur, Medienutopien des 19. Jahrhunderts. Er arbeitet an einem Projekt zur Technisierung von Politik im 19. Jahrhundert (u.a. zu utopischen Architekturprojekten und Infra- strukturen, Telegraphie, Rohrpost, Telefon). Veröffentlichungen u.a.: Die imaginäre Dimension der Politik, hg. zs. m. Oliver Kohns (Paderborn 2014); Sozio-technische Imaginationen. Social Me- dia zwischen ›Digital Nation‹ und pluralistischem Kosmopolitismus, in: Ramón Reichert (Hg.): Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie (Bielefeld 2014); Medien- technik des Gemeinsinns. Charles Fouriers Architekturutopie des Phalanstère, in: Zeitschrift für Kul- turwissenschaften, Nr. 2 (2013); Fälschung und Fake. Zur diskurskritischen Dimension des Täuschens (Berlin 2012/2015). Kerstin Hoffmann ist wissenschaftliche Mitarbeiterin der kulturwissenschaftlichen Fakultät / Facheinheit Geschichte der Universität Bayreuth. Derzeit arbeitet sie in dem DFG-Projekt »Kul- AutorInnenverzeichnis 227 turtechnik Unternehmensplanspiel – Wissenstransformation und Handlungssteuerung an der Schnittstelle von Wirtschaft, Computerisierung und Medialität«. Zuvor studierte sie Sozialwis- senschaften und Geschichtswissenschaft (B.A.), sowie Soziologie (M.A.) mit den Schwerpunkten Sozialstruktur/soziale Ungleichheit und soziologische Theorie an der Universität Bielefeld. In ih- rer Masterarbeit befasste sie sich eingehend mit dem Organisationsverständnis der bundesdeut- schen Unternehmensplanspiele der 1950er bis 1970er Jahre. Florian Hoof ist wissenschaftlicher Mitarbeiter am Institut für Theater-, Film- und Medien- wissenschaft, Goethe-Universität Frankfurt/Main. Forschungsschwerpunkte im Bereich Medien-, und Wirtschaftsgeschichte, historische Epistemologie, Medien-, Organisations- und Manage- menttheorie. Veröffentlichungen: mit Vinzenz Hediger und Yvonne Zimmerman (Hg.): Films that Work. The Circulation of Industrial Cinema (Amsterdam 2016); Engel der Effizienz. Eine Medienge- schichte der Unternehmensberatung (Konstanz 2015); Medien managerialer Entscheidungen. Deci- sion-Making ›At a Glance‹, in: Soziale Systeme, 2015, Vol. 21, No. 1; The Boundary Objects Concept: Theorizing Film and Media, in: Bernd Herzogenrath (Hg.) Media Matter. The Materiality of Media, Matter as Medium (London 2015). Weitere Informationen unter: sociomateriality.de Florian Muhle arbeitet als Akademischer Rat an der Fakultät für Soziologie der Universität Bielefeld und ist ab Oktober 2016 Fellow des ›jungen ZiF‹ am Zentrum für interdisziplinäre For- schung der Universität Bielefeld. Seine Arbeitsschwerpunkte sind Medien- und Techniksoziologie mit besonderem Schwerpunkt auf Mensch-Maschine-Kommunikation, Sozialtheorie und Metho- dologien Qualitativer Sozialforschung. Aktuelle Veröffentlichungen u.a.: ›Are you human?‹ Plädo- yer für eine kommunikationstheoretische Fundierung interpretativer Forschung an den Grenzen des Sozialen, in: Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 17(1); Embo- died Conversational Agents as Social Actors? Sociological Considerations on the Change of Human- Machine Relations in Online Environments, in: Maria Barkardjieva / Robert W. Gehl (Hg.): Social- bots: Digital Media and the Automation of Sociality (London 2016); Stochastically Modelling the User: Systemtheoretische Überlegungen zur ›Personalisierung‹ der Werbekommunikation durch Al- gorithmen, in: Thorben Mämecke / Jan-Hendrik Passoth / JosefWehner (Hg.): Bedeutende Daten. Modelle, Verfahren und Praxis der Vermessung und Verdatung im Netz (Wiesbaden 2016, im Er- scheinen). Rolf F. Nohr ist Professor für Medienästhetik/Medienkultur an der HBK Braunschweig. Er ist mit Britta Neitzel Gründer der AG Games in der Gesellschaft für Medienwissenschaft und Herausge- ber der Reihe Medien'Welten (Münster, Lit). Arbeitsschwerpunkte sind mediale Evidenzverfah- ren, Game Studies und instantane Bilder. Er leitet aktuell das Forschungsprojekt Kulturtechnik Un- 228 AutorInnenverzeichnis ternehmensplanspiel. Letzte Veröffentlichungen: Die Natürlichen des Spielens. Vom Verschwinden des Gemachten im Computerspiel (Münster 2008), Nützliche Bilder. Bild, Diskurs, Evidenz (Münster 2014); zusammen mit Stefan Böhme und Serjoscha Wiemer (Hrsg.): Diskurse des strategischen Spiels. Medialität,Gouvernementalität, Topografie (Münster 2014). Weitere Informationen unter: www.nuetzliche-bilder.de; www.strategiespielen.de; www.kulturtechnik.biz. Eva Schauerte ist wissenschaftliche Mitarbeiterin am Institut für Medienkulturwissenschaft der Albert-Ludwigs-Universität in Freiburg. Hier arbeitet sie an einem Promotionsprojekt zu einer Mediengeschichte der Beratung. Letzte Veröffentlichungen: Der Fall des Ödipus. Antike Beratung zwischen Transzendenz und Immanenz, in: Michael Niehaus / Wim Peeters (Hg.): Rat geben. Zu Theorie und Analyse des Beratungshandelns (Bielefeld 2014); Dispersion. Stadtplanung zwischen Utopie und Dystopie im ›Atomic Age‹, in: Zeitschrift für Medienwissenschaft, 14, 1/2016, S. 121-133. Josef Wehner, Dr. phil. habil, arbeitet an der Fakultät für Soziologie der Universität Bielefeld. Zu seinen Arbeitsschwerpunkten gehören Medien- und Kommunikationssoziologie, Medien der Poli- tik, Soziologie des Rechnens. Veröffentlichungen u.a.: Numerische Inklusion – Medien, Messungen und Modernisierung. In: T. Sutter / A. Mehler (Hg.): Medienwandel als Wandel von Interaktions- formen (Wiesbaden 2010); Quoten, Kurven und Profile. Zur Vermessung der sozialen Welt, hrsg. zus. mit Jan-Hendrik Passoth (Wiesbaden 2013); Bedeutende Daten. Modelle, Verfahren und Praxis der Ver¬messung und Verdatung im Netz, hrsg. zus. mit Thorben Mämecke und Jan-H. Passoth (Wies- baden 2016, im Erscheinen). Serjoscha Wiemer ist Akademischer Rat (a.Z.) für Digitale Medien und Mobile Media an der Universität Paderborn. Zu seinen Arbeitsschwerpunkten gehören Bildtheorie, Spieltheorie und Al- gorithmische Medien. Er ist Mitglied im Graduiertenkolleg Automatismen und im DFG-Netzwerk Affect- and Psychotechnology Studies. Letzte Veröffentlichungen: Das geöffnete Intervall: Medien- theorie und Ästhetik des Videospiels (Paderborn 2014); zusammen mit Stefan Böhme und Rolf F. Nohr (Hg.): Diskurse des strategischen Spiels. Medialität, Gouvernementalität, Topografie (Münster 2014); Niemandes Spiel? Zur Aufteilung des Spielbegriffs oder: Die Schwierigkeit, die spielende Ma- schine zu denken, in: Astrid Deuber-Mankowsky / Reinhold Görling (Hg.): Denkweisen des Spiels (Wien 2016). Weitere Informationen: http://homepages.uni-paderborn.de/swiemer/ Andreas Weich ist Wissenschaftlicher Mitarbeiter in der Projektgruppe Lehre und Medien- bildung an der TU Braunschweig und dort in erster Linie für den Bereich »Medien in der Lehre« im Projekt teach4TU zuständig. Er ist Mitgründer der AG Medienkultur und Bildung in der Gesell- AutorInnenverzeichnis 229 schaft für Medienwissenschaft. Letzte Veröffentlichungen: herausgegeben zusammen mit Julius Othmer und Katharina Zickwolf: Medien, Bildung und Wissen in der Hochschule (AT). (Wiesbaden: in Vorb.); herausgegeben mit Martin Degeling, Julius Othmer und Bianca Westermann: Profile. In- terdisziplinäre Beiträge (AT)( Lüneburg, in Vorb.); gemeinsam mit Julius Othmer : »Our Princess is in another Castle«. Wiederholungen und Zyklen im Computerspiel, in: KultuRRevolution, Nr 69, S. 59-64 (2015). Hartmut Winkler ist Professor für Medienwissenschaft, Medientheorie und Medienkultur an der Universität Paderborn. Arbeitsgebiete: Medien, Kulturtheorie, Techniktheorie, Alltagskultur, Semiotik. Veröffentlichungen: Docuverse – Zur Medientheorie der Computer (Regensburg 1997); Diskursökonomie – Versuch über die innere Ökonomie der Medien (Frankfurt/M. 2004); Basiswis- sen Medien (Frankfurt/M. 2008); Prozessieren – Die dritte und vernachlässigte Medienfunktion (Paderborn 2015). Weitere Informationen unter: http://homepages.uni-paderborn.de/winkler/ Alexander Zons war Post-Doc am Graduiertenkolleg Die Figur des Dritten der Universität Kon- stanz, ist dort jetzt Koordinator des Graduiertenkollegs Das Reale in der Kultur der Moderne und arbeitet zum Agenten als Projektemacher in Hollywood. Weitere Forschungsschwerpunkt: Film- geschichte, Netzwerkanalyse Narratologie. Zusammen mit Patrick Vonderau, Skadi Loist und Alex Zahlten ist er Gründer der AG Medienindustrien in der Gesellschaft für Medienwissenschaft. Ver- öffentlichungen (Auswahl): Paratexte des Films. Über die Grenzen des filmischen Universum (Biele- feld 2007), zusammen mit Natalie Binczek, Remigius Bunia und Till Dembeck (Hg.): Dank sagen. Politik, Semantik und Poetik der Verbindlichkeit (München 2013), zusammen mit Eva Esslinger, To- bias Schlechtriemen und Doris Schweitzer (Hg.): Die Figur des Dritten (Berlin 2010). Julius Othmer ist Referent für Medien in Lehre und Studium an der TU Braunschweig. Er ist Mit- gründer der AG Medienkultur und Bildung in der Gesellschaft für Medienwissenschaft.Letzte Ver- öffentlichungen: herausgegeben zusammen mit Andreas Weich und Katharina Zickwolf: Medien, Bildung und Wissen in der Hochschule (AT). (Wiesbaden: in Vorb.); herausgegeben mit Martin De- geling, Andreas Weich und Bianca Westermann: Profile. Interdisziplinäre Beiträge (AT)( Lüneburg, in Vorb.); gemeinsam mit Andreas Weich : »Our Princess is in another Castle«. Wiederholungen und Zyklen im Computerspiel, in: KultuRRevolution, Nr 69, S. 59-64 (2015). 230 AutorInnenverzeichnis Abbildungsverzeichnis Cover Feedback-Automat der Sicherheitskontrolle am Flughafen London Heathrow, Foto: Florian Hoof Serjoscha Wiemer Abb. 1 : eigene Grafik nach Luce/Raiffa 1957, S. 95 / Abb. 2: eigene Grafik nach Mirowski 2002, S. 358 / Abb. 3: eigene Grafik nach Rapaport 1976, S. 192 / Abb. 4: eigene Grafik nach Pias 2000, S. 217 / Abb.5: Axelrod 2005, S. 45 / Abb. 6:Haider 2005, S. 11 Martin Doll Abb. 1 : The Illustrated London News, Bd. 65 (5.12.1874), S. 528 / Abb. 2: The Illustrated London News, Bd. 42 (28.02.1863), S. 213 / Abb. 3: The Beach Pneumatic Subway Tunnel under Broad- way (1873). New-York Historical Society, # 70265 / Abb. 4: Hermann Hollerith: Art of compi- ling statistics – US-Patent 395781 (8.1.1889), S. 1 Eva Schauerte Abb. 1 : Dalkey/Helmer 1962, S. 15 / Abb. 2 Dalkey 1969, S. 3 / Abb. 3: Dalkey 1969, S. 26, 29, 33, 45, 43, 54, 56, 64, 77 / Abb. 4: Krauch 2011, S. 428 / Abb. 5: TechCastGlobal [https://www. techcastglobal.com/home/-/asset_publisher/DWy8w62OOL5W/content/report-on-inter- net-of-things/maximized;jsessionid=2CB2DA204D8B3046BB58409E0C22A6FF] , letzter Ab- ruf: 17.12.2015 Kerstin Hoffmann Abb. 1 : Hoechst GmbH, H0028191 / Abb. 2 Stevenson 1966, 22 Andreas Weich / Julius Othmer Abb. 1 : Laux 2007, S. 35 / Abb. 2: Klahold 2009, S. 95 / Abb. 3: eigene Darstellung / Abb. 4: ei- gener Screenshot aus The Big Bang Theory, DVD, Staffel 7, Episode 19, 00.17.31 Abbildungsverzeichnis 231 Ralf Adelmann Abb. 1 : Madrigal 2014 / Abb. 2: Madrigal 2014 / Abb. 3: YouTube [https://www.youtube.com/ results?search_query=netflix+recommendations]; letzter Abruf 25.11.2015 / Abb. 4: kickas- storrents [https://kat.cr]; letzter Abruf 25.11.2015 / Abb. 5: Amazon Video [https://www.ama- zon.de/Prime-Video/]; letzter Abruf 25.11.2015 Manuela Klaut Abb. 1-2: Photo provided courtesy of the ICTY / Abb. 3:© dpa Hartmut Winkler Abb. 1 : [http://www.werbewoche.ch/sites/werbewoche.ch/files/imce/shared/motz.gif]/ Abb. 2: [http://www.tobaccotactics.org/index.php/File:Marlboro_maybeneverfounda- way.JPG] / Abb. 3: [http://blog.text-und-sinn.de/category/lektorat-text-sinn/] / Abb. 4: [http://www.zeilensturm.de/?p=3947] / Abb. 5: [http://www.horizont.net/marketing/ nachrichten/Erfolg-fuer-Philipp-Morris-Marlboro-darf-weiter-mit-Maybe-Kampagne-wer- ben-136668] / Abb. 6: [http://nomaddeb-amsterdam.blogspot.de/2012/03/go-ahead-talk- to-strangersits-always.html] / Abb. 7: [http://city365.ca/van/91877] / Abb. 8: [http://www. tagesspiegel.de/images/mhdorn/4571354/1-format3001.jpg&imgrefurl=http:/www.ta- gesspiegel.de/wirtschaft/die-neue-air-berlin-mehdorn-will-strecken-streichen-und-flug- zeuge-verkaufen/4632816-formatOriginal.html] / Abb. 9-10 u. 12-15: eigene Abbildungen/ Abb. 11: [http://geo.hlipp.de/photo/14194] / Abb. 16: [http://mic.hit-karlsruhe.de/pro- jekte/SS12_Lufttankstelle/vorteilnachteil.html] / Abb. 17: https://de.wikipedia.org/wiki/ Schalter_%28Elektrotechnik%29] // alle Webpages letzter Abruf 4. 6. 16 232 Abbildungsverzeichnis Medien´Welten Braunschweiger Schriften zur Medienkultur Markus Stauff: ›Das neue Fernsehen‹. Machteffekte einer heterogenen Kultur- technologie. Die Studie zielt auf eine Untersuchuchung der Macht- und Subjekteffekte, die mit den gegenwärtigen Veränderungen des Fernsehens – vor allem dem Prozess der Digitalisierung – einhergehen. Die heterogenen Entwicklungen und Verspre- chungen werden dabei nicht als Übergangsphänomene, son- dern als produktive Mechanismen verstanden, die Fernsehen zu einer Kulturtechnologie des Neoliberalismus machen: Die ZuschauerInnen werden dabei als Subjekte einer gleicher- maßen rationalisierten wie intensivierten Mediennutzung modelliert. Theo- retisch setzt die Arbeit dem repressiven Medienbegiff, der unter anderem bei Cultural Studies, Technik- und Apparatustheorien dominiert, Foucaults Modell der Gouvernementalität entgegen, um zu zeigen, dass die Vervielfältigung der technischen und inhaltlichen›Optionen keine Befreiung, sondern eine Regie- rungstechnologie ist. 2006, 304 Seiten, 24.90 EUR, br., ISBN 3-8258-7802-3 Andrea Seier: Remediatisierung. Die performative Konstitution von Gender und Medien Wie lassen sich Medien und Medienspezifik bestimmen, wenn davon auszugehen ist, dass sie ihren epistemolo- gischen Bestimmungen nicht vorgängig sind? Dass sie ihre Wirksamkeit auch und gerade in kulturellen Praktiken ent- falten, die sie nachträglich als vorgängig erscheinen lassen? Im Zentrum der vorliegenden Auseinandersetzung mit die- ser Fragestellung steht das Konzept der Remediatisierung. Medien konstituieren sich demnach in unabschließbaren Wiederholungsprozessen, in denen sie andere Medien imitieren, überbieten oder anderweitig wiederholend aufgreifen. Ihre Spezifik ist am besten in der Art und Weise zu erkennen, in der sie andere Medien zitieren. Der Blick ver- Abbildungsverzeichnis 233 schiebt sich von gegebenen Medien auf heterogene Prozesse der Remediatisie- rung, die die Grenzen einzelner Medien ebenso konstituieren wie unterwan- dern. Ein solcher Medienbegriff erscheint auch für das Verhältnis von Gender und Medien produktiv. 2007, 176 S., 19.90 EUR, br., ISBN 978-3-8258-0234-7 Herbert Schwaab: Erfahrung des Gewöhnlichen. Stanley Cavells Filmphilosophie als Theorie der Populärkultur Auf dem Gebiet der Filmphilosophie hat sich Stanley Cavell eine herausragende Stellung verschafft. »Erfahrung des Ge- wöhnlichen« führt in Cavells Philosophie und vor allem in seine Auseinandersetzung mit den Komödien und Melo- dramen des klassischen Hollywoodkinos ein. Die Arbeit er- weitert jedoch den filmphilosophischen Ansatz Cavells und seine Beschäftigung mit dem Begriff des Gewöhnlichen zu einer Theorie des Populären. Diese Theorie dient nicht nur zu einer kritischen Reflexion der Medien- und Kulturwissenschaft, sondern stellt auch die Grundlage exemplarischer Lesarten aktueller Fernsehserien wie ER, Gilmore Girls oder King of Queens dar, die Filmphilosophie und Fernsehwis- senschaft zusammenführen. 2010, 464 S., 39,90 Eur, br, ISBN 978-3-643-10985-9 Ralf Adelmann Visualität und Kontrolle. Studien zur Ästhetik des Fernsehens Satellitenbilder, digitale Animationen, Handyvideos, Über- wachungsaufnahmen usw. – das aktuelle Fernsehen bün- delt die unterschiedlichsten Bildtypen in seiner variablen Ästhetik. Wie kaum ein anderes Medium präsentiert sich Fernsehen als ein Amalgam technischer Bildproduktion und heterogener visueller Stile. Im Mittelpunkt der hier ver- sammelten Studien stehen deshalb die televisuellen Praxen der Kontrolle und die (un)spezifische Visualität des Fernse- hens. In der Gesamtschau ergibt sich eine Skizze der ästhetischen Übergangs- phasen des Fernsehens in den letzten Jahren. Die in diesem Buch versammelten Analysen zu Visualität und Kontrolle beleuchten dabei eine Ästhetik des Fern- sehens, in der immer gesellschaftliche Dimensionen mitverhandelt werden.. 2016, 192 S., 29.90 EUR, br., ISBN 978-3-643-13237-6 234 Ulrike Bergermann: Leere Fächer. Gründungsdiskurse in Kybernetik und Medienwissenschaft Hat jedes wissenschaftliche Fach ein Objekt, muss eine Dis- ziplin einen Gegenstand haben? Wie organisieren sich Wis- senschaften um neue Themen, Dinge oder Konzepte herum? Was bei etablierten Disziplinen zum Alltag gehört, das Ein- und Umarbeiten neuer Ideen, stellte zur Mitte und zum Ende des 20. Jahrhunderts die Frage nach dem Neuen fundamen- taler. Kybernetik und Medienwissenschaft wollen neue Wis- sensformationen bilden, Theorie und Praxis verschränken, digitale Medien und Universalmaschinen modellhaft adressieren, Spezialisie- rung von Wissenschaften und universale Paradigmen zusammenbringen. Sie vereinen Abstraktion und Anwendung, Formalismen für alle Realitäten, ver- sprechen echte Interdisziplinarität. Beiden ist ein Problem gemeinsam – sie su- chen ein Modell für Übertragung, Kontrolle und Rückkoppelung. Übertragung kann man nicht haben, man kann sie entwerfen, beschreiben, betreiben, aber nicht sehen. Sie funktioniert nicht ohne Leerstelle zwischen den Sendern/Emp- fängern, Aktanten, Protagonisten. Gerade diese Leerstellen wurden ungeheu- er attraktiv, ihre Unschärfe produktiv, sie schrieben Wissenschaftsgeschichte. Mit Hilfe eines Umwegs über Lektüren von ›theory‹ und ›Comparative Studies‹ fragt das Buch: Wie erklären Einführungen in die Kybernetik oder in Medien- wissenschaft ihr neues Feld? Wie schreiben sie Fachgeschichte? Wie hat sich die Medienwissenschaft selbst auf die Kybernetik bezogen? Löst ein leeres Zen- trum Begehren aus? Ist Medienwissenschaft um 2000 ein privilegierter Ort für das Durcharbeiten solcher Fragen – nach den Bedingungsgefügen von Appara- ten, Wissensformen und Institutionalisierungen? Und hätten, gelegentlich, ge- nder, race oder class etwas damit zu tun? 2016, 528 S., 34.90 EUR, ISBN 978-3-643-12933-8 Andrea Seier / Thomas Waitz (Hrsg.) : Klassenproduktion. Fernsehen als Agentur des Sozialen Fernsehen lässt sich als eine gesellschaftliche Agentur be- schreiben, die damit beschäftigt ist, soziale Differenz zu problematisieren und in eigensinniger Weise evident zu machen. Doch Fernsehen ›vermittelt‹ nicht nur sozi- ale Differenzen in Bild, Ton und genrespezifischen Ausfor- mulierungen. Es lässt soziale Unterscheidungen zugleich entstehen, bewirkt und ‚bearbeitet’ sie und macht sie ge- samtgesellschaftlich adressierbar. Umgekehrt geht es dort, 235 wo Fernsehen problematisiert wird, das zeigen die Beiträge in diesem Buch, immer auch um weitreichende sozioökonomische und politische Kämpfe, die auf gesellschaftliche Teilhabe zielen und in Form von Klassendifferenzen wirk- sam werden 2014, 232 S., br., ISBN 978-3-643-12587-3 Bejamin Beil / Lorenz Engell / Jens Schröter / Herbert Schwaab / Daniela Wentz (Hrsg.): Die Fernsehserie als Agent des Wandels Fernsehserien erfahren eine unerhörte Hochkonjunktur: Im kulturellen wie im akademischen Diskurs ziehen sie unge- ahnte Aufmerksamkeit auf sich und werden als zentraler Be- standteil für den Problemdiskurs der Gegenwart gesehen. Der rezente Serienboom scheint aber in eigenwilliger Weise an den Wandel, gar das Verschwinden des ursprünglichen Trägermediums, des Fernsehens, gebunden zu sein: je weni- ger Fernsehen, desto mehr Serie. Die These des vorliegenden Bandes ist deshalb, dass der gegenwärtige Medienumbruch in besonderer Wei- se von seriellen Strukturen und Formaten geprägt wird. Serien sind jedoch mehr als bloße Effekte dieses Wandels; sie ref lektieren, extrapolieren und kon- terkarieren ihn, sie gestalten ihn mit, treiben ihn voran, machen ihn sich zu ei- gen und verändern damit seine Dynamik, sie handeln in seinem Auftrag und verfolgen doch ihre ganz eigenen Ziele; kurz: Serien sind Agenten des Medien- wandels. 2016, 240 S., br., ISBN 978-3-643-11612-3 Weitere Informationen unter: http://nuetzliche-bilder.de/category/medien-welten/ http://www.lit-verlag.de/reihe/mewe 236