Robert Seyfert, Jonathan Roberge (Hg.) Algorithmuskulturen Kulturen der Gesellschaft | Band 26 Robert Seyfert, Jonathan Roberge (Hg.) Algorithmuskulturen Über die rechnerische Konstruktion der Wirklichkeit Dieser Band geht aus Beiträgen hervor, die zuerst auf der vom 23.-24. Juni 2014 an der Universität Konstanz stattfindenden »Algorithmic Cultures«-Konferenz vorge- stellt wurden. Der Band und die Konferenz wurden durch die großzügige Unter- stützung des Canada Research Chairs Program und des im Rahmen der Exzellenz- initiative des Bundes und der Länder eingerichteten Exzellenzclusters der Universi- tät Konstanz Kulturelle Grundlagen von Integration ermöglicht. Dieses Werk ist lizenziert unter der Creative Commons Attribution-NonCommer- cial-NoDerivs 4.0 Lizenz (BY-NC-ND). Diese Lizenz erlaubt die private Nutzung, gestattet aber keine Bearbeitung und keine kommerzielle Nutzung. Weitere Infor- mationen finden Sie unter https://creativecommons.org/licenses/ by-nc-nd/4.0/deed.de/. Um Genehmigungen für Adaptionen, Übersetzungen, Derivate oder Wiederver- wendung zu kommerziellen Zwecken einzuholen, wenden Sie sich bitte an rights@transcript-verlag.de Die Bedingungen der Creative Commons Lizenz gelten nur für Originalmaterial. Die Wiederverwendung von Material aus anderen Quellen (gekennzeichnet mit Quellenangabe) wie z.B. Schaubilder, Abbildungen, Fotos und Textauszüge erfor- dert ggf. weitere Nutzungsgenehmigungen durch den jeweiligen Rechteinhaber. Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deut- schen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © 2017 transcript Verlag, Bielefeld Umschlaggestaltung: Kordula Röckenhaus, Bielefeld Umschlagabbildung: Digital Abstract Business Background © sheelamohanachandran (fotolia) Übersetzung aus dem Englischen: Dagmar Buchwald, Moritz Plewa Satz: Mark-Sebastian Schneider, Bielefeld Druck: Majuskel Medienproduktion GmbH, Wetzlar Print-ISBN 978-3-8376-3800-4 PDF-ISBN 978-3-8394-3800-8 EPUB-ISBN 978-3-7328-3800-4 Gedruckt auf alterungsbeständigem Papier mit chlorfrei gebleichtem Zellstoff. Besuchen Sie uns im Internet: http://www.transcript-verlag.de Bitte fordern Sie unser Gesamtverzeichnis und andere Broschüren an unter: info@transcript-verlag.de Inhalt 1. Was sind Algorithmuskulturen? Jonathan Roberge und Robert Seyfert | 7 2. Die algorithmische Choreographie des beeindruckbaren Subjekts Lucas D. Introna | 41 3. #trendingistrending Wenn Algorithmen zu Kultur werden Tarleton Gillespie | 75 4. Die Online-Stimmen von Verbrauchern in Form bringen Algorithmischer Apparat oder Bewer tungskultur? Jean-Samuel Beuscart und Kevin Mellet | 107 5. Den Algorithmus dekonstruieren Vier Typen digitaler Informationsberechnung Dominique Cardon | 131 6. ›Ver-rückt‹ durch einen Algorithmus Immersive Audio: Mediation und Hörbeziehungen Joseph Klett | 151 7. Algorhythmische Ökosysteme Neoliberale Kopplungen und ihre Pathogenese von 1960 bis heute Shintaro Miyazaki | 173 8. Drohnen: zur Materialisierung von Algorithmen Valentin Rauer | 189 9. Social Bots als algorithmische Piraten und als Boten einer techno-environmentalen Handlungskraft Oliver Leistert | 215 Autoren | 235 Danksagung | 239 1. Was sind Algorithmuskulturen? Jonathan Roberge und Robert Seyfert Die gegenwärtig beobachtbare Ausbreitung von Algorithmen stellt uns vor eine doppelte Herausforderung. Sie stellt sowohl unsere Gesellschaft als auch die Sozialwissenschaften im Speziellen vor die Aufgabe, Algorithmen einge- hend zu erforschen und ein Verständnis von deren Ausbreitung zu erlangen. Algorithmen haben ihre Logik in die Struktur aller sozialen Prozesse, Interak- tionen und Erfahrungen eingewoben, deren Entfaltung von Rechenleistungen abhängig ist. Sie bevölkern mittlerweile unser gesamtes Alltagsleben, von der selektierenden Informationssortierung der Suchmaschinen und news feeds, der Vorhersage unserer Präferenzen und Wünsche für Onlinehändler, bis hin zur Verschlüsselung von personenbezogenen Informationen auf unseren Kre- ditkarten und der Berechnung der schnellsten Route in unseren Navigations- geräten. De facto wächst die Liste der Aufgaben, die Algorithmen erledigen rasant an, so dass kaum mehr ein Bereich unseres Erfahrungsraumes von ih- nen unberührt bleibt: Ob es um die Art und Weise geht, wie wir Kriege mittels Raketen und Drohnen führen, oder wie wir unsere Liebesleben mithilfe von Dating Apps navigieren, oder aber wie wir die Wahl unser Kleidung von Wet- tervorhersagen bestimmen lassen – Algorithmen ermöglichen all dies auf eine Weise, die auf den ersten Blick verlockend simpel erscheint. Einen ersten Weg sich Algorithmen zu nähern, eröffnet Kowalskis klas- sisch gewordene Definition: »Algorithmus = Logik+Kontrolle« (Kowalski 1979). Indem Algorithmen sowohl komplexe als auch einfache Sortierverfah- ren gleichzeitig nutzen, kombinieren sie High-Level-Beschreibungen, eine ein- gebettet Befehlsstruktur und mathematische Formeln, die in verschiedenen Programmiersprachen verfasst werden können. Ein Geflecht an Problemen kann in einzelne Schritte zerlegt und neu zusammengesetzt werden und so von verschiedenen Algorithmen weiterverarbeitet und prozessiert werden. Die weit über die Mathematik und die Computerwissenschaften hinausreichende Macht und das allgemeine Leistungsvermögen der Algorithmen sind folglich auf deren Vielseitigkeit zurückzuführen. So konstatiert Scott Lash etwa: »eine Gesellschaft ubiquitärer Medien stellt eine Gesellschaft dar, in der Macht zu- 8 Jonathan Roberge und Rober t Sey fer t nehmend in den Algorithmen steckt«1 (Lash 2007: 71), eine Vorstellung, die sich auch bei Galloway wiederfindet, wenn er schreibt: »die Macht residiert heutzutage in Netzwerken, Computern, Algorithmen, Informationen und Daten« (Galloway 2012: 92). Und doch ist es geboten, solchen Formulierun- gen zurückhaltend zu begegnen, denn ihnen wohnt die Tendenz inne, zu schnell kritische Urteile zu fällen. Zwar erfassen solcherlei Formulierungen wichtige Herausforderungen, die mit dem ›Aufstieg der Algorithmen‹ zwei- felsohne verbunden sind, allerdings insinuieren sie auch das Moment eines teleologischen bzw. deterministischen, gleichsam ›verführerischen‹ Dramas, wie Ziewitz jüngst warnend einwarf (Ziewitz 2016: 5). Algorithmen stellen aus dieser Perspektive zuvorderst profane, wenngleich tief in unsere Gesellschafts- struktur eingelassene, Bestandteile dar. Viel eher noch als omnipotente Sou- veräne gegenwärtiger Gesellschaft, lassen sich Algorithmen als vieldeutig und mitunter auch als äußerst chaotisch charakterisieren. Entscheidend ist dann die Frage, wie und vor allem warum die scheinbare Einfachheit der Algorith- men untrennbar von deren immenser Komplexität ist – Komplexität hier im Sinne der vielseitigen Einsatzfähigkeit der Algorithmen und der Multiplizität ihrer Wirkungen und Wechselbeziehungen. Dies sind nun Fragestellungen epistemologischen, wie auch ontologischen Charakters, die sich nicht nur den Sozialwissenschaften stellen, sondern die Gesellschaft im Allgemeinen betref- fen. Der Algorithmus als Sortierverfahren das stets beides ist, ein bekanntes Unbekanntes sowie ein unbekanntes Bekanntes bedarf selbst noch eines sortie- renden Zurechtrückens. Freilich ist diese Einleitung nicht die erste, diejenigen Schwierigkeiten hervorzuheben, die sich beim Versuch der wissenschaftlichen Durchdrin- gung von Algorithmen ergeben. So bezeichnet Seaver die Algorithmen etwa als »knifflige Gegenstände der Erkenntnis« (Seaver 2014: 2) und auch Sandvig verweist auf »die Schwierigkeiten Algorithmen zu erklären« (Sandvig 2015: 1; siehe dazu auch Introna 2016; Barocas et al. 2013). So konzeptuell weitsichtig diese Einwände auch sind, sie schließen derweil keineswegs die Notwendigkeit aus, das Maß dieser Unsichtbarkeit und Unergründbarkeit der Algorithmen zu begreifen. Nur allzu oft wird der Algorithmus als black box heraufbeschworen und darauf verwiesen, dass man es mit ungemein wertvollen und darüber hin- aus patentierten Geschäftsgeheimnissen zu tun hat, die von Unternehmen wie Amazon, Google und Facebook vor firmenfremden Zugriffen geschützt sind. Zahllose Technik-, Wirtschafts-, Rechts- und Politexperten betonen denn auch, dass ihre Enthüllung, d.h. der öffentliche Zugriff auf die Algorithmen, gleich- bedeutend mit ihrem Ende wäre (Pasquale 2015). An dieser Stelle beginnt die Sache allerdings schon komplizierter zu werden. Es gibt nicht eine black box, 1 | Hier, wie im Folgenden handelt es sich um meine Übersetzung. Die Seitenzahlen beziehen sich auf das jeweilige Original. A.d.Ü. 1. Was sind Algorithmuskulturen? 9 sondern eine Vielzahl an black boxes. Die Undurchsichtigkeit der Algorithmen ist durch eine multiple Opazität gekennzeichnet und die verschiedenen For- men der Opazität ergeben sich aus spezifischen Relationierungen innerhalb einer Fülle von menschlichen und nicht-menschlichen Akteuren. Wenngleich nur wenige Autoren die Pluralität dieser Opazität betonen (Burrel 2016; Morris 2015), bleibt es ein nicht zu übersehendes Merkmal, dass Algorithmen über- haupt nur in dichten, vielfältigen und durchaus auch spannungsvollen Um- welten existieren können. Aus dieser inhärent lebhaften, dynamischen und unscharfen Beschaf- fenheit der Algorithmen erschließt sich auch, warum Algorithmen einen so schwer fassbaren Forschungsgegenstand darstellen. Kitchin drückt das fol- gendermaßen aus: »die Erzeugung eines Algorithmus entfaltet sich kontextu- ell über Verfahren wie trial and error, Spiel, Kollaboration und Aushandlung« (Kitchin 2014: 10). Hierbei ist der letztgenannte Begriff der Aushandlung (negotiation) von besonderer Bedeutung, denn er verweist sowohl auf eine Möglichkeitsbedingung als auch auf eine spezifische Problematik der Algo- rithmen. Auf einer basalen Ebene ließen sich Algorithmen als anthropologisch verwoben mit ihren Nutzern und Herstellern bezeichnen. In anderen Worten: Es besteht eine »konstitutive Verstrickung«, das meint, »es sind nicht nur wir, die wir die Algorithmen erstellen, sie erstellen auch uns« (Introna/Hayes 2011: 108). Nun besteht die Charakteristik einer solchen wechselseitigen Ver- flechtung gerade darin, dass man Algorithmen nicht gänzlich ›enthüllen‹, sondern nur bis zu einem gewissen Grade ›entpacken‹ kann. Sie sind gewis- sermaßen zeitlich verwurzelt, sie entstehen nach ihren eigenen Rhythmen, oder um es in Shintaro Miyazakis Worten zu sagen: »sie müssen sich ent- falten und verkörpern so Zeit« (Miyazaki, in diesem Band 174). Eine weitere Metapher, die sich in diesem Zusammenhang zur Veranschaulichung anbie- tet, ist Latours Konzept der Kaskade: Algorithmen bewegen sich auf nicht- linearen Pfaden, befinden sich in stetigem Wandel, sind stetiger Fluktuation und Abweichung ausgesetzt (Latour 1986: 15f.). Diese stetigen Veränderungen machen es entsprechend schwer, mitunter sogar unmöglich, ihnen zu fol- gen. Was es hier abermals hervorzuheben gilt, ist der praktische, ja ›profane‹ Charakter der Algorithmen: Sie entfalten sich in einem Zustand der ununter- brochenen Aushandlung und befinden sich somit in einem kontinuierlichen Zwischenstadium. Seaver zufolge ist für die Algorithmen gerade kennzeich- nend, dass »stetig unzählige Hände in sie hineinreichen, sie justieren, und anpassen, Teile austauschen und mit neuen Arrangements experimentieren (Seaver 2014: 10). Die vielfältigen Entfaltungsmodi der Algorithmen rufen altbekannte me- dientheoretische Erkenntnisse in Erinnerung, verändern aber gleichsam deren Vorzeichen. So stellte bereits Weiser fest, dass die am tiefsten greifenden und am nachhaltigsten wirkenden Technologien jene sind, die verschwinden (Wei- 10 Jonathan Roberge und Rober t Sey fer t ser 1991: 95). Indes, es steckt durchaus noch mehr dahinter. Wir würden die Gelegenheit gerne dafür nutzen zu unterstreichen, dass die konkreten Entfal- tungsmodi der Algorithmen in ihren Formen der Wirksamkeit – in ihrem Tun – diese mit neuen und komplexen Bedeutungsdimensionen versorgen. Es geht hierbei also um Formen der Handlungsträgerschaft (agency) und Performativi- tät, welche die Algorithmen verkörpern. Freilich gibt es mittlerweile schon eine ganze Traditionslinie von Forschern, die sich innerhalb des praxeologischen Paradigmas im weitesten Sinne, den Algorithmen widmen. Zu nennen wären hier Lucas Introna (in diesem Band, 2016, 2011), Adrian Machenzie (2005), David Beer (2013) und Solon Barocas et al. (2013). In gewisser Weise schließen wir hier an, wenn wir Andrew Geoffeys überzeugende Einsicht in Erinnerung rufen, dass »Algorithmen produktiv tätig sind und dass ihrer Syntax eine Be- fehlsstruktur inhärent ist, die ihnen eben dies ermöglicht.« (Andrew Geoffeys 2008: 17) Eine mindestens ebenso treffend zugespitzte Einsicht liefert Donald MacKenzie, wenn er feststellt, dass es sich bei einem Algorithmus um eine Maschine und nicht um eine Kamera handelt (MacKenzie 2006). Nun ließe sich viel zu diesem Ansatz sagen, und es wird noch wichtig sein, zur rechten Zeit auf ihn zurückzukommen. An dieser Stelle genügt es zunächst festzuhal- ten, dass die Handlungsträgerschaft der Algorithmen, als etwas völlig anderes begriffen werden muss, als es der Begriff der ›Handlung‹ insinuiert, insofern dieser Unilinearität und Zielgerichtetheit impliziert. Es verhält sich gerade gegenteilig: Die Form der Handlungsträgerschaft der Algorithmen lässt sich am treffendsten als eine fraktale beschreiben. Eine Handlungsträgerschaft also, die zahlreiche Outputs aus multiplen Inputs produziert (Introna 2016: 24). Was sich in Bezug auf Algorithmen unter dem Begriff der ›Kontrolle‹ fas- sen lässt, ist tatsächlich sehr beschränkt – vor, während und nach dem Ope- rieren eines Algorithmus’ ist einfach zu viel vorausgesetzt und involviert. So muss man den eingangs angeführten temporalen und anthropologischen Ver- wobenheiten (entrenchments) der Algorithmen noch den Begriff der Selbst- verankerung (selfentrenchment) anfügen, um ersichtlich zu machen, dass ein Algorithmus mit zahlreichen anderen Algorithmen in undurchsichtigen und verschlungenen Netzwerken verflochten ist. Menschliche wie nicht-mensch- liche Einflussfaktoren sind entscheidend und können nur allzu leicht zu Fehl- anpassungen, unvorhersehbaren Ergebnissen und, wie wir später noch sehen werden, zum dramatischen Scheitern der Algorithmen führen. Es scheint fast so, als realisierten sich Algorithmen durch eben die Möglichkeit ›lost in trans- lation‹ zu sein. Das gilt nicht nur hinsichtlich ihrer Relationierung mit Ma- schinen, Codes, und vielleicht sogar mehr noch für deren Relationierungen auf der Ebene der Diskurse. Dieser Zwischenstatus kennzeichnet die gesamte Anwendbarkeit und Performativität, welche Algorithmen definieren. Algorith- men sind performativ per definitionem und performativ sein bedeutet, unter allen Umständen heterogen zu sein (Kitchin 2014: 14f.; Seaver 2014). Jene ver- 1. Was sind Algorithmuskulturen? 11 worrenen Entfaltungen der Algorithmen richtig und sorgfältig zu entziffern, stellt für die Sozialwissenschaften im Allgemeinen und die Kultursoziologie im Besonderen eine dringende Herausforderung dar. Um nur einige der sich aufdrängenden Fragen zu nennen: Was passiert mit Algorithmen, sobald sie zu einem gesonderten Gegenstand der Forschung gemacht werden? Und wie sollten oder müssen wir uns darauf einstellen? Inwiefern müssen oder sollten wir unsere heuristischen Instrumente anpassen, welche Grade der Präzision, welche Schwerpunktwechsel anpeilen? Es ist nun der richtige Moment, den Forschungsstand zu Algorithmen in den sogenannten ›weichen Wissenschaften‹ zu taxieren und dabei beides, Schwächen wie Vorzüge zu analysieren. In der Tat hat die Forschung zu Algo- rithmen bereits einen gewissen Reifegrad erreicht, und das obwohl sie erst seit kurzer Zeit in den Geistes-, Sozial- und Kulturwissenschaften aufgetaucht ist. Gegenwärtig gibt es einige vielversprechende Strömungen, die allerdings quer zueinander fließen und eher koexistieren, als sich wechselseitig zu befruch- ten. Erstens wären hier Autoren zu nennen, die eine Art von ›Inselbegrifflich- keit‹ bilden: »algorithmic turn« (Uricchio 2011), »algorithmische Ideologie« (Mager 2012), »algorithmische Identität« (Cheney-Lippold 2011), »algorithmi- sches Leben« (Amoor/Piotukh 2016) wären hier unter anderen zu nennen. Es finden sich auch schon nennenswerte Bestrebungen zu einer »Soziologie der Algorithmen«, die aus den Feldern der STS und der Social Studies of Finance hervorgegangen sind (MacKenzie 2015, Wansleben 2012). Ebenso lassen sich erste Gehversuche der Critical Algorithm Studies beobachten (The Social Media Collective 2015). Zudem ließen sich in den letzten Jahren einige wichtige Kon- ferenzen zum Thema in Nordamerika und Europa registrieren: ›Governing Algorithms‹ (Barocas et al. 2013), sowie diejenige, die zu diesem Buchprojekt geführt hat, seien hier erwähnt (Ruhe 2014). All jene unterschiedlichen An- sätze der letzten Jahre haben richtungsweisende epistemologische Fragen auf- geworfen. Diese betreffen nicht zuletzt den angemessenen Umfang, den man der Forschung zu Algorithmen beimessen sollte, sondern auch die Frage nach der richtigen Distanz zum Gegenstand der algorithmischen Kultur steht im Raum und betrifft mithin das adäquate Maß an kritischer Reflexion des For- scherstandpunktes. Eine weitere virulente Problemlage betrifft das gegebene Risiko in die »Falle des Neuen« zu tappen, oder anders formuliert: Die Frage steht im Raum, ob es sich bei den Algorithmen nicht ›nur‹ um eines jener aus- schließlich von der eigenen Adoleszenz zehrenden »heißen Themen« handelt (Beer 2003: 6f.; Savage 2007). Konzeptionelle Innovation im Lichte dieser Frage- und Problemstellungen müsste folglich bedeuten, auch auf etablierte und bereits bewehrte Heuris- tiken zurückzugreifen und auf diesen aufzubauen. Wir möchten diese Ein- führung daher auch dafür nutzen, eine klassische Intervention Alexander R. Galloways zu überdenken und zu modifizieren: Galloway hatte unsere Kultur 12 Jonathan Roberge und Rober t Sey fer t bekanntlich als eine Kultur des Algorithmus gedeutet (Galloway 2006). Die Idee, unsere Kultur als eine algorithmische zu charakterisieren steht dabei durchaus mit den umfassenderen und etablierten kultursoziologischen Bemü- hungen im Einklang, ›Bedeutung ernst zu nehmen‹. Was heißt das? Es geht darum, Bedeutung nicht als ein Produkt immaterieller, frei flottierender Sig- nifikationsprozesse zu bestimmen, sondern als etwas tief in der Wirklichkeit verwurzeltes und mit Handlungsträgerschaft und Performativität eng verwo- benes zu verstehen. In der Tat, eine Kultursoziologie der Algorithmen ist nur möglich, insofern Algorithmen sowohl als bedeutsam als auch als performa- tiv begriffen werden – Algorithmen sind bedeutsam, weil sie performativ sind und vice versa. Die zuvor angeführten Perspektiven sind zweifelsohne beach- tenswerte Beiträge, unserer Auffassung nach generieren sie jedoch eher das Desiderat nach einer dichteren, tiefer schürfenden und komplexeren Analyse der Algorithmuskulturen, als dass sie eine solche überflüssig machen würden. Im Titel des Bandes klingt es ja schon an: Wir wollen die Möglichkeit einer Algorithmuskultur adressieren, nicht ohne diese dabei mit Pluralisierungen zu ergänzen, oder besser noch: diese mit Pluralisierungen zu kontaminieren. Kulturelle Plur alität innerhalb der algorithmusKulturen Trotz seines theoretischen Potentials wurde Galloways Argument nie weiter ausgeführt oder vertieft und es erscheint uns daher von eher inspirieren- dem denn von analytischem Wert. Jüngst ist es insbesondere Ted Striphas, der »historisch-definitorische« Versuche unternimmt, um zu ergründen, was genau eine algorithmische Kultur im Kern ausmachen könnte (Striphas 2015, 2009; Hallinan/Striphas 2014; Roberge/Melançon im Erscheinen; be- dingt auch Kushner 2013). Die Art und Weise, wie er (in diesem Fall mit sei- nem Ko-Autor Blake Hallinan) dieses Vorhaben angeht, entbehrt nicht einer humanistischen Note. Das zeigt sich etwa in der Frage: »Was bedeutet und was könnte Kultur zukünftig bedeuten, angesichts der wachsenden Präsenz algorithmischer [Empfehlungs-]Systeme […]?«. (Hallinan/Striphas 2014: 119) Anders formuliert, Striphas ist auf der Suche nach essentiellen, wenn nicht gar ontologischen Kategorien, in Hinblick auf Konzepte wie »Arbeit der Kul- tur« oder »Weltkulturerbe« und deren tiefgreifender Transformation im Zuge der Automatisierung. Kulturelle Zirkulations- Selektions- und Klassifika- tionsprozesse unserer Tage werden, so Striphas’ Diagnose, zunehmend von »algorithmischen Berufungsgerichten« bestimmt. Seine Argumentation ist epistemologisch stichhaltig und erfasst die wesentlichen Facetten der Debat- te. Einerseits würdigt er stets die mehrdimensionale Beschaffenheit der Algo- rithmuskultur und betont, dass die semantischen und technischen Elemente 1. Was sind Algorithmuskulturen? 13 nicht voneinander zu trennen sind. Andererseits ist er sich vollkommen dar- über im Klaren, dass sich die ›öffentliche‹ Beschaffenheit der Kultur gegen- wärtig Prozessen der Privatisierung ausgesetzt sieht und sich zunehmend auf verstreute black boxes verteilt. Wenn man nach etwas Problematischen inner- halb von Striphas Argumentation sucht, so findet man es (wenn überhaupt) an anderer Stelle. Ein neuralgischer Punkt befindet sich in der Tendenz zur Abstraktion und Allgemeinheit, und dem damit einhergehenden Mangel an Konkretion. Um es wiederum konkreter zu formulieren: Zu konstatieren, dass wir gegenwärtig eine Verlagerung hin zu algorithmischer Kultur verneh- men, erfordert keineswegs einen einzigen allumfassenden und alles revidie- renden theoretischen Spielzug. Striphas Vorstellung von Algorithmuskultur bleibt jedoch der einen Kultur verpflichtet. So einleuchtend und folgerichtig Striphas Argumentation auch verfährt, letztlich hat sie es daher schwer, der gegenwärtigen algorithmischen Pluralität gerecht zu werden und die Varietät an heterogenen und fraktalen Algorithmen zu erfassen. Die Aufgabe lautet ergo wie folgt: Wie erlangen wir ein adäquates Verständnis von Algorithmen; ein Verständnis das Bedeutung ernst nimmt und dabei die den Algorithmen innewohnende Performativität und Unordnung wahrnimmt? Ein möglicher- weise gangbarer Weg führt uns zunächst etwas weiter in die Vergangenheit zurück. Schon zu Anfang der 1970er Jahre insistierte Michel de Certeau dar- auf, dass jedweder Definitionsversuch von Kultur nur im Plural erfolgen kann und nur auf der Einsicht in die irreduzible Multiplizität von Kultur aufbauen könne (de Certeau 1974). Obgleich sich de Certeau der heutigen Bedeutsam- keit der Algorithmen freilich nicht prospektiv bewusst sein konnte, erweisen sich seine Überlegungen in unserem Zusammenhang als fruchtbar, da sie uns daran erinnern, dass wir es mit einem Zeitalter der algorithmischen Kul- turen im Plural zu tun haben. Es mag mit Begriffen logisch schwer vermittelbar erscheinen, aber das eine kann sehr vieles sein, und eine Vielzahl distinkter Elemente kann sich sehr wohl als kommensurabel erweisen. Man denke nur an die Archipele der Baha- mas oder der Philippinen, um ein anschauliches Exempel zu geben. Gerade in Bezug auf Algorithmen ist es nun wichtig zu verstehen, wie bestimmte sepa- rierende Einhegungen sich letztlich zu einem größeren Ganzen fügen. Freilich gibt es viele Wege, solcherart Einhegungen intelligibel zu machen. Einer, mitt- lerweile zum kultursoziologischen Mainstream avancierter Weg findet sich mit Jeffrey Alexanders Begriff der ›relativen Autonomie‹ der Kultur, welcher die Interdependenz kultureller Realitäten und anderer sozialer Kräfte unter- streicht (Alexander 2004, 1990; Alexander/Smith 2002, 1998; Sanz/Stančík 2013). Von hier aus lässt sich verständlich machen, wie Algorithmen ein ›rou- tinisiertes‹ Innen, eine innere, selbstreferentielle Logik generieren können, die gleichsam in ein Kraftfeld stetiger Wechselwirkungen mit Bedeutungen eingespannt ist. Algorithmen sind textuelle Realität, noch bevor sie zu ma- 14 Jonathan Roberge und Rober t Sey fer t thematischen Kalkulationen werden und kristallisieren zugleich Imaginäres, Hoffnungen und Erwartungen: »Insofern sind Algorithmen als eine Unter- form allgemeiner performativer Praktiken zu verstehen, zu denen u.a. Rituale, Narrative und andere symbolische Handlungen zählen«, wie Valentin Rauer es an späterer Stelle in diesem Band so schön ausdrückt (193). Als kontingen- te ›Normalisierer‹ und Stabilisatoren führen sie ein symbolisches Eigenleben, welches – textuellen Artefakten gleich – nur aus ihrem spezifischen Kontext heraus intelligibel wird. Eine Kultursoziologie der Algorithmen solcher Façon ruht auf einem originellen und gleichsam sehr soliden theoretischen Funda- ment. Jeffrey Alexanders Begriffskomposition der »relativen Autonomie« deckt sich durchaus auch mit Lorraine Dastons jüngster narratologischen Untersu- chung des Algorithmus, die sich »spezifische Geschichten und Mythologien […] des Algorithmus« zum Gegenstand macht (2004: 362). So konnte Lucas Introna beispielsweise aufzeigen, wie bestimmte Sets an Algorithmen – Al- gorithmen-Netzwerke oder Algorithmusfamilien – die genutzt werden, um Plagiate aufzuspüren, die althergebrachte Definition dessen brüchig werden lassen, die bestimmt, was als originaler Text gilt. Da Algorithmen dazu in der Lage sind, Kopien über verdächtige Wortketten zu identifizieren, haben Auto- ren ihren Schreibstil an die Funktionsweise der Algorithmen angepasst und verändert. Algorithmen zur Plagiatserkennung sind letztlich also nur dazu in der Lage, »den Unterschied zwischen geschickten Kopierern und ungeschick- ten Kopierern« zu entdecken. Dabei entwerfen die Algorithmen paradoxer- weise performativ ein gekonnt kopierendes Subjekt (als das eines ›Originale‹ fabrizierenden Autors), was wiederum eine ganze Kultur des Handels von Ori- ginalen und Ghostwriter-Dienstleistungen hervorgebracht hat (Introna 2016: 36). Anstatt Algorithmen utilitaristisch als bloße Hilfsmittel zu behandeln, zielt die Erforschung von Algorithmuskulturen auf die Untersuchung bedeut- samer performativer Effekte, welche mit algorithmischen Zugriffen auf die Welt einhergehen: Was tun Algorithmen, was bringen sie kulturell hervor? Wie ge- nerieren sie Sinn aus ihren Umgebungen und den verschiedenen Kategorien, die Menschen nutzen, um die Algorithmen zu deuten? Wie sich herausstellt, besteht einer der hervorstechendsten Punkte dieser Einleitung darin, die Algorithmuskulturen als un multiple zu betrachten. Nick Seaver argumentiert diesbezüglich ganz ähnlich, wenn er vorschlägt, »statt Al- gorithmen-in-der-Wildnis als einsame Objekte zu behandeln […] sollten wir sie möglicherweise als Populationen verstehen, die es stichprobenartig zu unter- suchen gilt« (2014: 6). Algorithmen sind dynamische Entitäten, die sich mit bestimmten Wissens- und Erfahrungsaggregaten auf komplex strukturierte Weisen verweben. Daher besteht ein weiterer vielversprechender Ansatz, diese relative Autonomie und die Mechanismen partieller Einhegung zu verstehen darin, sich der Sprache der Kybernetik zu bedienen (Totaro/Ninno 2014; Be- cker 2009). Feedbackschleifen, Entscheidung qua Klassifikation, fortlaufende 1. Was sind Algorithmuskulturen? 15 Adaption und fortwährender Informationsaustausch sind ja allesamt Charak- teristika rekursiver, quasi-zirkulärer Routinen, welche die nicht-lineare Ent- faltung von Algorithmen kennzeichnen. Göran Boling und Jonas Anderson Schwartz haben dieser Idee denn auch vor kurzem eine praktische Wendung gegeben, indem sie feststellten, dass »(a.) das Fachpersonal in der täglichen Arbeitstätigkeit antizipieren muss, was der End- verbraucher denkt und fühlt; [… und dass] (b.) viele alltägliche Nutzerinnen zu antizi- pieren versuchen, was das […] Mediendesign mit ihnen machen wird, […] was wiederum einen Rückgrif f auf (a.) zur Folge hat« (Boling/Anderson Schwartz 2015: 8). Google dient hier als ein vortreffliches Beispiel. Wie Dominique Cardon dar- legt hat, gibt es hier einen multivalenten und komplexen »PageRank spirit« (2013, vgl. auch in diesem Band) in dem symbolische und performative As- pekte stetig interagieren. Ein solcher ›Spirit‹ lässt sich etwa in den zyklischen Antizipationen von Bedürfnissen, in der Zufriedenheit mit dem Ergebnis und der Personalisierung der Navigation – allesamt für die Suchmaschine typische Verfahren – sehr leicht ausmachen. Dieser ›Spirit‹ zeigt sich aber auch in der Einführung ausgeklügelter Algorithmen der letzten Jahre wie etwa Panda, Penguin, Hummingbird und Pigeon – und in ihrem Kampf gegen die ›ver- schmutzenden Kräfte‹ der Suchmaschinenoptimierung (Röhle 2009). In letz- ter Zeit wird dieser Spirit auch in Googles Bestrebungen sichtbar, eine Balance zwischen normaler leistungsorientierter Indexierung und den eigenen kom- merziellen Bedürfnissen zu finden, welche der Finanzierung zukunftsweisen- der technologischer Unternehmungen dienen. Die drei angeführten Beispiele sind nun nicht nur selbst rekursiver Natur, sie sind auch selbst miteinander verknüpft, zusammen kreieren sie eine unverwechselbare, machtvolle und be- deutsame Algorithmuskultur. Genau das macht Googles eigene »Suchkultur« (Hilles et al. 2013) aus oder um es unverblümter zu formulieren: das Googleplex (Levy 2011). Verweist eine solche Kultur darauf, dass das Unternehmen keine Ahnung davon hat, was draußen vor sich geht? Mit Sicherheit nicht. Nein, es bedeutet vielmehr, dass Googles Algorithmuskultur mit anderen Kulturen ko- operieren oder sich gar in vielerlei Hinsicht überschneiden kann – wir analy- tisch allerdings nichtsdestotrotz gut daran tun, diese einzelnen Kulturen nicht zu verwischen. Eine scharfsinnige Analytik von Algorithmuskulturen sollte sowohl zur Nahaufnahme als auch zur Fernsicht fähig sein, um die Spezifika bestimmter algorithmischer Kulturen ebenso in den Blick zu bekommen, wie die übergreifenden Gemeinsamkeiten zwischen ihnen. Die Beispiele hierfür dürften sehr zahlreich sein: Individualität und Reich- weite, Eigenart und Gemeinsamkeit, Besonderheit und Vergleichbarkeit, das kleine und das große Ganze. Natürlich können sich Algorithmen quer zu verschiedensten sozialen, ökonomischen und politischen Sphären bewegen. 16 Jonathan Roberge und Rober t Sey fer t So etwa, wenn von Vorhersagealgorithmen auf dem Finanzmarkt Gebrauch gemacht wird, die sich der Wahrscheinlichkeitstheoreme aus dem Feld der Glückspiele bedienen und diese dabei in ein anderes Feld überführen und transformieren. Man denke ferner an die Entwicklung künstlicher Intelligenz, die auf die Computeralgorithmen der Schachspiele zurückgegriffen haben und so die Zukunft künstlicher Intelligenz auf Jahre geprägt haben (Ensmen- ger 2012). Algorithmuskulturen sind folglich nicht an fix bestimmte Gebiete gebunden. Sie sind eher mobil einsatzfähige Verfahren, die angepasst, trans- formiert und für verschiedene Gebrauchszusammenhänge maßgeschneidert werden können. In der Tat dient dieser Sammelband als ein Beleg für diese Behauptung. Jedes einzelne Kapitel nimmt sich auf je spezifische Weise der Frage an, was es für Algorithmen bedeutet, kulturell verwoben und performa- tiv wirksam zu sein. Jedes Kapitel erforscht die Dichte spezifischer Assembla- gen oder Ökologien indem es je spezifische Interpretationen vorschlägt. Wir werden uns gleich dem genauen Inhalt der folgenden Kapitel zuwenden. An dieser Stelle genügt es hervorzuheben, dass es an der Leserin ist, hin und her zu navigieren und diejenigen Fragen zu stellen, die ihr angebracht erscheinen. Ebenso obliegt es dem Leser mit den verschiedenen intellektuellen Möglich- keiten zu ringen, die in den folgenden Kapiteln eröffnet werden. Zu behaupten, dass es sich bei Algorithmuskulturen um un multiple han- delt, schließt die Frage danach, was denn ihre variable und zugleich gemein- same Beschaffenheit konstituiert keineswegs aus. Im Gegenteil, die Feststel- lung erhöht eher noch den Bedarf nach einer plausiblen Antwort auf diese Frage. Algorithmen sind in der Tat stets mit je besonderen Problemen oder Fragestellungen verbunden, die immer spezifisch und doch ähnlich zugleich sind. Wir möchten, wie andere vor uns, darauf hinwiesen, dass diese Heraus- forderungen immer die Frage nach »der Macht Bedeutung zu ermöglichen und festzusetzen« mit sich führen und wiederaufbereiten (Langlois 2014; Ro- berge/Melançon im Erscheinen). Tatsächlich ist diese Problemstellung so alt wie die Idee der Kultur selbst und die Sozialwissenschaften waren sich dieser Problemstellung seit ihrer Gründung auch stets bewusst (Johnson et al. 2006). Kulturen sind auf Legitimität angewiesen, ebenso sind es Algorithmen und Algorithmuskulturen. Es geht folglich um Autorität und Vertrauen; um die ste- tige Verflechtung symbolischer Repräsentation und nüchterner Performanz; es geht um die Produktion wie Rezeption diskursiver Arbeit. Wir erleben in unserer Zeit die Etablierung einer ›neuen Normalität‹, in der Algorithmen Teil der Sinnstiftung des kulturellen Imaginären geworden sind. Ihre Akzeptanz begründet sich weniger durch den Bezug auf eine transzendente Instanz im klassischen Sinne, sondern durch eine ›zeitgenössischere‹, immanentere Art und Weise. Scott Lashs Einsicht hinsichtlich des Legitimationsprinzips der Algorithmen ist hier zentral: Algorithmen erlangen »Legitimität durch Per- formanz« (Lash 2007: 67). Ihre Echtzeit-Entfaltung lässt sie nicht nur kosten/ 1. Was sind Algorithmuskulturen? 17 nutzen-effizient, sondern auch im epistemologischen wie moralischen Sinne als objektiv erscheinen. Ihre Legitimation funktioniert und basiert recht profan in und auf einer abgeschlossenen Routine die besagt: Algorithmen funktionie- ren direkt und einfach, sie liefern Lösungen etc. Neutralität und Unparteilichkeit werden eingeflüstert oder stillschweigend vorausgesetzt. Tarleton Gillespie deutet etwas Ähnliches an, wenn er bemerkt: »Algorithmen sind weit mehr als schlichte Werkzeuge, sie sind auch Stabilisatoren von Vertrauen, sie fungie- ren als praktische und symbolische Versicherungen dafür, dass Bewertungen als gerecht und genau, als frei von Subjektivität, Fehlern oder Verzerrungen gelten« (Gillespie 2014: 79; Mager 2012). Das ist die Magie des Profanen. Ob- jektivität als ein Informationsprozess, Resultat und Glaube ist ein Äquivalent für die Legitimität als eine Form des Glaubens. Die Stärke der Algorithmen be- steht nun gerade darin, Objektivität auf die äußere Welt zu projizieren (auf das, was in Rankings erscheint bspw.) und zugleich in Bezug auf ihr inneres Selbst zu akkumulieren. Das begründet sich in dem Umstand, dass jede Instanz der Einschätzung und Bewertung auf eine Art und Weise konstruiert sein muss, die selbst wertgeschätzt wird. Gillespie ist in dieser Hinsicht sehr hellsichtig, wenn er anmerkt: »die Legitimität dieser Funktionsmechanismen muss ent- lang der Bereitstellung von Information selbst erfolgen« (Gillespie 2014: 179). Legitimität erlangt hier eine ontologische Dimension. Das bedeutet nun allerdings nicht, dass das Bestreben nach und das Erlan- gen von Legitimität ein leichtes Unterfangen wäre. Performanz und Rechtfer- tigung existieren nur in Abhängigkeit von einer Öffentlichkeit und deren Re- zeption. Die Rezeption ist freilich ein durch und durch kulturelles Phänomen, sie formt sich mittels Deutungen, Erwartungen, Affekten, Mutmaßungen und der gleichen (Galloway 2013; Seyfert 2012; Kinsley 2010). Mit anderen Wor- ten, Rezeption ist qua definitionem unstabil und uneinheitlich. Was Scott Lash »Legitimation durch Performanz« nennt, ist folglich nichts weniger als das Ergebnis von Aushandlungsprozessen. Performanz und Rezeption sind mit- einander verwoben und bilden so Routinen und Kulturen heraus in denen das Vertrauen, das den Algorithmen entgegengebracht wird, stets umkämpft ist. Die Hoffnungen und Wünsche, die den Algorithmen von den einen entgegen- gebracht werden, sind die Ängste und Abneigungen der anderen. Ebenso wie Rechtfertigung performativ wirkt, tut es auch Kritik. Die Kontroverse, die um Google Glass entbrannte ist ein beispielhafter Fall. Unsere Recherchen haben gezeigt, wie viel Gestaltungs- und Stilüberlegungen in Googles unternehmeri- sche Planung zum Wearable Computing eingegangen sind (Roberge/Melançon im Erscheinen). Um eine größere Breitenwirkung zu erzielen, engagierte das Unternehmen beispielsweise einen schwedischen Designer, der bei der Ge- staltung des Gerätes helfen sollte, was sowohl die Auswahl der Farbpalette als auch die minimalistischen Umrisse betraf (Miller 2013; Wasik 2013). Dennoch fiel die Kritik überwiegend negativ aus, die Brille sehe »verdammt bescheuert 18 Jonathan Roberge und Rober t Sey fer t aus«, sei »hässlich und peinlich« und mache die Interaktion »fürchterlich un- angenehm« (Honan 2013; Pogue 2013). Das kulturelle und soziale Unbehagen an Google Glass macht wiederum die negative Rezeption des algorithmischen Gerätes plausibel. Die pejorative Bezeichnung als »glasshole« ist symptoma- tisch für die negativen ästhetischen und normativen Bewertungen, welche zu den einflussreichsten Faktoren gehörten, die Google zum Zurückziehen der Datenbrille veranlassten. Das Beispiel zeigt uns, wie vielschichtig die Deu- tungs- und Interpretationskonflikte sind, welche die Algorithmuskulturen prägen. Solcherlei Unordnung ist derweil keine Frage der Wahl, sie ist ein kon- stant (um)formendes Charakteristikum von Algorithmuskulturen. algorithmischer VerKehr: K alKul atorische emPfehlung, sichtbarKeit und ZirKul ation Die zugrundeliegende Idee dieses Bandes besteht darin, dass Algorithmuskul- turen plural, kommensurabel und sinnstiftend performativ sind. Ziel ist es, eine ›dichte Beschreibung‹ im Sinne Geertz (1973) zu liefern, also eine Ana- lyse der verschiedenen routinisierten Entfaltungen, die sich um reichhaltige wie komplexe Themen und Probleme drehen. Legitimität ist ganz sicher ein integraler Bestandteil dieser Entfaltungen. Im Alltagsleben wird die Legitimti- tätsfrage oft nicht gestellt. Im Fall der Algorithmen steht mit ihr aber sehr viel auf dem Spiel, da sich Algorithmen ins Zentrum des Kulturellen ausbreiten. Algorithmen sind Sortiereinrichtungen und sie sind die zentralen Gatekee- per unserer Zeit (Hagittai 2000). Freilich, Gatekeeping gab es schon immer, von den Kunstmäzenen der Klassik bis zu den Zeitungskritiker_innen mo- derner Zeiten. Dies bestärkt allerdings nur unser Argument: Die Rolle, die Algorithmen gegenwärtig einnehmen, beinhaltet es, bindende Selektionen für bestimmte Adressatenkreise vorzunehmen, mit all den normativen und politischen Wertungen, die damit implizit einhergehen. Gatekeeping bedeutet, redaktionelle Entscheidungen zu treffen, mit denen andere dann umzugehen haben. Es geht dabei nicht zuletzt um Geschmacks- und Präferenzformungen, was ersichtlich macht, warum vielen Empfehlungsalgorithmen gegenwärtig ein so großer Einfluss zukommt. Man denke nur an Amazon, Netflix, Youtube und dergleichen. Beer fasst diesen Punkt treffend zusammen: »Es geht um die Sichtbarkeit von Kultur und um die Sichtbarkeit bestimmter Kultur- formen die algorithmisch ihr Publikum finden. Diese Systeme prägen kulturelle Begeg- nungen und ganze kulturelle Landschaften. Sie sind tätig und machen Geschmäcker sichtbar. Damit ist die Frage aufgeworfen, welche Macht den Algorithmen in der Kul- tur zukommt, oder genauer: welche Macht Algorithmen bei der Herausbildung von Ge- schmäckern und Präferenzen zukommt.« (Beer 2013: 97, Herv. der Autoren) 1. Was sind Algorithmuskulturen? 19 Zwei erst kürzlich erschienene Artikel haben sich dieses Trends angenommen und dessen Entwicklung in verschiedenen Settings untersucht, einmal in Be- zug auf Filme (Hallinan/Striphas 2014), das andere Mal in Bezug auf Musik (Morris 2015). Netflix, und vor allem der Netflix-Prize sind hier in vielerlei Hin- sicht emblematisch. In einem 2006 gestarteten Wettbewerb schrieb Netflix 1 Millionen US-Dollar Preisgeld für denjenigen aus, der die Treffgenauigkeit ihres Empfehlungsalgorithmus’ über die Richtgröße von 10 Prozent erhöhen konnte. Unter Computerwissenschaftlern in den USA und in Übersee war der Wettbewerb ein enormer Erfolg, was Hallinan und Striphas dazu veranlasste, darin ein Signum dafür zu sehen, wie »Fragen kultureller Kompetenz und Autorität zunehmend im Gebiet der Technik und der Ingenieurwissenschaf- ten entschieden werden« (Hallinan/Striphas 2014: 122). Allerdings ist das nur ein Teil der Gleichung. Der andere Teil betrifft die ökonomische Logik bzw. die ökonomische Zielsetzung, die das Bestreben nach solcherart personali- sierter Empfehlungen hervorruft. Hallinan und Striphas bezeichnen dies als »geschlossene kommerzielle Schleife«, in der »die Entwicklung elaborierter (Kauf-)Empfehlungen eine höhere Kundenzufriedenheit schafft, diese wie- derum generiert größere Mengen an Kundendaten, welche wiederum noch ausgeklügeltere Empfehlungen ermöglichen usf.« (ebd.). Wo das Prozessie- ren von Informationen zum Schlüsselfaktor wird, verschiebt sich das, was als Kultur gilt stärker in Richtung Daten, Data-Mining, und den Wert, den diese erzeugen. Jeremy Wade Morris beobachtet in seiner Studie zu Echo Nest, ein Programm zur Erstellung von Geschmacksprofilen, das der Musik-Streaming- Dienst Spotify im Jahr 2014 erworben hat. Die Verwaltung riesiger Datenban- ken und neue Methoden des Trackings von Verhaltensmustern basieren Morris zufolge zunehmend »auf der Wirkmacht der Algorithmen […], zu wissen, was Dich und Deine Geschmäcker ausmacht« (Morris 2015: 456). Dies wiederum öffnet die Tür zu sehr zielgenauen und vielgliedrigen Werbemöglichkeiten« (ebd. 455). Diese Tendenz ist in der Tat sehr stark, sie ist allerdings nicht die ein- zige, die hier eine gewichtige Rolle spielt. Morris Erörterung ist scharfsinnig genug, um in der Verbreitung der von Menschen unterhaltenen Playlists eine alternative Form der Kuration zu erkennen, an der die heutigen Programme und Plattformen nicht vorbeikommen. Diese, wenn man so will, Mensch-zu- Mensch Geschmacksdialoge sind noch immer Bestandteil der meisten Strea- ming-Dienste und fungieren als ein Mittel, mit dem gegebenen Überf luss an Inhalten zurechtzukommen. Automatisierte wie ›manuelle‹ Verfahren des Gatekeepings koexistieren also mehr oder minder einhellig nebeneinander und befinden sich in komplexen, oftmals impliziten und heiklen Spannungsver- hältnissen. Die sich gegenwärtig formierende datenintensive Ökonomie und Kultur, ist denn auch Gegenstand in Lucas Intronas Beitrag zu unserem Band. Die Genealogie der Onlinewerbung nachzeichnend, analysiert er gegenwärtige 20 Jonathan Roberge und Rober t Sey fer t Formen dessen, was er als »Onlinechoreografie« bezeichnet. Während tradi- tionelle Onlinewerbungen noch unterschiedslos für alle Besucher auf Web- sites platziert werden – klassisch etwa im Banner oberhalb des Webcontents – so passen innovativere Vermittler wie Dstillery die Werbeschaltung an das an, was sie als die individuellen Bedürfnisse des einzelnen Nutzers zu erken- nen meinen. Data-Mining, verhaltensspezifisches Targeting2, kontextuelles Werben und maschinell lernende Algorithmen sind also Bestandteile ein und desselben Arsenals. Das Ziel besteht hier in der Generierung eines »Marktes des Einzelnen«, in dem das einzelne Subjekt durch personalisierte Werbungen adressiert wird. Es geht letztlich darum, »die richtige Person, zur richtigen Zeit mit dem richtigen kreativen Inhalt« zu adressieren (Introna in diesem Band: 62). Solcherlei Form der Choreographie erfordert und entwirft be- stimmte Formen der Subjektivität. Introna spricht diesbezüglich von »beein- flussbaren Subjekten«, von Subjekten, die willens sind, sich jederzeit von den Informationen beeinflussen zu lassen, die Algorithmen für verschiedene Zeit- punkte für sie aufbereitet haben. Eine der Arten und Weisen den Kunden via Onlinewerbung zu erreichen, besteht im sogenannten Prospecting, die Daten werden hier gewissermaßen direkt ›an Ort und Stelle‹ über die Aktivitäten der Nutzerin (z.B. Klicks oder Suchanfragen) gesammelt. Aus diesen Daten lassen sich sodann Korrelationen ableiten und der Nutzer wird ›gekennzeich- net‹ (»branded«): Wer auch immer eine bestimmte Website besucht, könnte ja an den gleichen Produkten interessiert sein, wie eine Nutzerin, die ähnliche Websites benutzt. Einerseits wird das Subjekt in Algorithmuskulturen als eine rein statistische Größe behandelt – als »branded subject«. Andererseits spielen die Subjekte hier keine gänzlich passive Rolle. Vielmehr sind sie selbst an der ihnen vorgesetzten Informationsselektion beteiligt und bestimmen auch mit, wie sie sich von dieser beeinflussen lassen. Die Subjekte sind gewissermaßen Ko-Kuratoren dessen, was sie zu sehen bekommen (und gegebenenfalls kau- fen) – sie kuratieren die Selektion über ihr eigenes Verhalten mit. Nicht nur das Verhalten der Nutzerin, ebenso die Onlinewerbung selbst ist daher eine zutiefst kulturelle und soziale Angelegenheit, da sie entweder Subjekte ent- wirft oder es verfehlt, mit ihnen in Kontakt zu treten. Introna zeigt so, inwie- fern Algorithmuskulturen un multiple darstellen, un multiple, das unspezifisch und personalisiert zugleich ist. Das Platzieren einer Werbung entwirft oder bestätigt das Subjekt auf eine sehr personalisierte Weise: Wer ich sein werde, hängt davon ab, wo ich surfe. Eine falsch geschaltete Werbung kann das Sub- jekt allerdings ebenso gut in Frage stellen oder beleidigen (›Warum bekomme ich das gerade zusehen?‹). 2 | Targeting bezeichnet hier die genaue Zielgruppenansprache im Onlinemarketing. A.d.Ü. 1. Was sind Algorithmuskulturen? 21 Tarleton Gillespie untersucht in seinem Beitrag die Verflochtenheit und Heterogenität des automatisierten Gatekeepings, indem er die vielgestaltige, in der Forschung jedoch weitestgehend vernachlässigte Subkategorie der Tren- ding-Algorithmus’ in den Blick nimmt. Tatsächlich sind die Trending-Algo- rithmen mittlerweile allgegenwärtig. Ob man auf Buzzfeed, Facebook oder Twitter schaut, sie finden sich überall und sind dabei nicht selten Ikonen eines neuen Genres, welches wiederum zur Ikone seiner selbst wird, da das Trending selbst zu einem Trend geworden ist. Gillespies feingliedrige Analyse setzt dem- nach auch nicht bei der Frage an, was Algorithmen mit kulturellen Artefakten machen. Vielmehr steht die Frage im Mittelpunkt, »was geschieht, wenn Algo- rithmen als Kultur aufgegriffen werden, wenn ihre bestimmten Arten der Gel- tendmachung lesbar, deutbar und strittig werden« (Gillespie in diesem Band: 100)? Trending-Algorithmen sind Rituale der Messung, was sie jedoch genau messen ist unklar. Sind sie ein flüchtiger Blick in die Popularität verschiedens- ter Webinhalte, wie es American Top 40 oder Billboard waren? Sind sie kleine Fenster zu ›uns selbst‹, was sofort die Notwendigkeit im Schlepptau hätte zu definieren, was denn dieses ›Wir‹ ist, in das sie uns Einblick gewähren, eine Öffentlichkeit, eine Nation etc.? Oder geht es hier nicht vielmehr um das Re- gistrieren einer Art Puls, einer Geschwindigkeit oder Bewegung zwischen ge- heim gehaltenen und somit unberechenbaren Punkten? Überraschenderweise befeuern diese Schwierigkeiten den Drang eher, die algorithmische Messung als einen bedeutungsvollen Vollzug zu erfassen und zu verorten. Trending- Algorithmen sind populär, gerade weil sie mehrdeutig sind. Zudem sind reale und konkrete Verzerrungen so zahlreich, dass sie gewissermaßen in die DNA dieser Algorithmen eingelassen sind. Das hat Gillespie zufolge mit dem Black- Box-Charakter der meisten Social-Media-Plattformen zu tun. Noch wichtiger jedoch ist die Tatsache, dass die Verzerrungen in erster Linie interpretierte Verzerrungen in dem Sinne sind, dass sie nur in Abhängigkeit von Erwartun- gen, Hoffnungen und Wünschen existieren. Insofern ist Validität eine kultu- relle Kategorie. So wurden beispielsweise Twitter und Facebook immer wieder für die Trivialität und Gehaltlosigkeit ihrer Trends mit dem Hinweis kritisiert, dass das ›eigentlich‹ aktuelle Thema dort nicht erscheine. Die Kontroversen über Trending-Algorithmen werden sicherlich nicht abebben. Sie tauchen im- mer wieder auf, im Kontext verschiedener Orte, Leute und Themen. Solche Kontroversen sind Symptome von etwas tiefer Liegendem – sie sind Ausdruck von Kämpfen um das, was als legitim gilt und was nicht. Gatekeeping, das sollte bis hierher deutlich geworden sein, stellt ein Phäno- men mit performativen und begrifflichen Folgen dar. Das Gatekeeping betrifft die Sichtbarkeit und Zirkulation von nahezu allem, was als kulturell zu gelten hat. Durch die Ausbreitung von Algorithmen wurde es einer grundlegenden Transformation unterzogen. Umso mehr stellt uns dieser Wandel vor die Her- ausforderung, die Rolle des Nexus’ von Autorität und Vertrauen innerhalb der 22 Jonathan Roberge und Rober t Sey fer t Mechanismen des Gatekeepings unter die Lupe zu nehmen. Den Sozialwissen- schaften stellt sich eine doppelte Aufgabe: Einerseits sind sie angehalten ein neues ganzheitlich ausgerichtetes Verständnis dieser Mechanismen zu erlan- gen; gleichzeitig und im Sinne eines solchen Verständnisses bedarf es aller- dings auch stärker empirisch ausgerichteter Analysen (Kitchen 2014; Ruppert et al. 2013). Ein exzellentes Beispiel für letztere bieten Jean-Samuel Beuscart und Kevin Mellet in diesem Band. Sie widmen LaFourchette.fr und anderen Kundenbewertungs- und Rezensionsplattformen eine ausführliche Untersu- chung. Solche Rezensionsportale stellen mittlerweile ein nahezu ubiquitäres Bewertungsinstrument im Netz dar. Beuscart und Mellet können aufzeigen, dass diese Omnipräsenz ein Handlungsbewusstsein seitens der Akteure keineswegs ausschließt und dass es hier zu vielschichtigen Aushandlungs- prozessen zwischen menschlichen, aber auch nicht-menschlichen Akteuren kommt. Die Verfasser von Rezensionen entbehren keineswegs der Reflexivität, so dass Beuscart und Mellet zufolge, »zumindest ein Teil der Effektivität dieses Phänomens auf der Fähigkeit ihrer Nutzer beruht, ein kohärentes Nutzungs- muster aufzubauen, das ihre Bewertungsaktivität auf ein gemeinsames Ziel hin reguliert« (Beuscart/Mellet in diesem Band: 125). Die Selbstachtung der Verfasser rührt in diesem Kontext von dem Gefühl her, dass es eine Art der Leserschaft gibt, die eine Form des rationalen und vergesellschafteten Urteils fällt. So kann sich die vage Vorstellung einer kollektiven Intelligenz bilden, die wirksam genug ist, um als performativ zu gelten. Natürlich ist auch die Frage danach nicht zu vernachlässigen, ob die frag- mentarische Beschaffenheit der Empfehlungs-Algorithmen denn nun als un multiple verstanden werden kann. Verschiedene Kalkulationsroutinen erzeu- gen auch verschiedene Outcomes und daher drängt sich die Frage auf, was das für ontologische und epistemologische Konsequenzen nach sich zieht. Einer solchen Problemperspektive nimmt sich Dominique Cardon in diesem Band an. Er schlägt dabei im Wesentlichen eine Klassifikation klassifikatorischer Prinzipien vor und fokussiert dabei entlang von Unterscheidungsmerkmalen, die nicht in simpler und direkter Abhängigkeit von ökonomischen Kräften stehen. Vielmehr fragt er auch nach zirkulären Dependenzen und sondiert entlang von Begrifflichkeiten wie Relation, Opposition, Vergleich und ande- ren. Damit vollzieht er eine begriffliche Bewegung, die sich eng an Alexanders oben angeführtes Begriffskonglomerat der »relativen Autonomie von Kultur« schmiegt. Cardon diskutiert vier verschiedene Typen der Kalkulation und die Weisen, wie diese den »Wettbewerb um die beste Methode des Datenrankings« beeinflussen: neben dem Web als eine Berechnung der Klicks der Internetnut- zer; oberhalb des Webs als eine leistungsorientierte Bewertung der Links; inner- halb des Webs als ein Maß von ›Likes‹ und Popularität; und unterhalb des Webs als eine Aufzeichnung von Verhaltensspuren, die maßgeschneiderte Werbung ermöglicht. Die vier Typen zeigen sehr verschiedene Metriken, Verfahren und 1. Was sind Algorithmuskulturen? 23 Populationen und doch sind sie insofern kommensurabel, als sie allesamt eine systemische Verschiebung in der Selbstrepräsentation von Gesellschaft anzei- gen. Digitale Algorithmen geben »Events den Vorzug (Klicks, Käufe, Interaktio- nen usw.), die sie auf die Schnelle aufzeichnen, um sie mit anderen zu verglei- chen, ohne breite Kategorisierungen machen zu müssen« (Cardon in diesem Band: 146). Die klassischen Statistiken, die auf Variablen wie ›Geschlecht‹ oder ›Rasse‹ basieren, werden zunehmend von präziseren und individualisierten Messwerten abgelöst. Gesellschaft erscheint wiederum als eine zunehmend heterogene ex-post-Realität, für welche die beste Erklärung die ist, dass es kei- ne wirklich umfassende und grundsätzliche Erklärung gibt – mit all den Kon- sequenzen, die sich daraus für die Sozialwissenschaften ergeben. Von der algorithmischen leistung Zum algorithmischen scheitern Instabilität, Brüchigkeit und Unordnung, all das sind Merkmale einer Praxeo- logie der Algorithmuskulturen. In Kontrast zum herrschenden Paradigma der Computerwissenschaften, das Algorithmen gemeinhin als prozedurale und abstrakte Verfahren beschreibt, konzeptualisieren wir Algorithmen als prak- tische Entfaltungen (Reckwitz 2002). Schon Galloway hat in seinem grund- legenden Aufsatz die pragmatischen Aspekte algorithmischer Kulturen hervor- gehoben: »Leben bedeutet heutzutage zu wissen, wie man Menüs bedient.« (Galloway 2006: 17) Als Nutzer agieren wir in algorithmischen Kulturen in- dem wir Algorithmen bedienen. So ist beispielsweise die Handhabung von Softwaremenüs eine Praxis und Interaktion mit anderen menschlichen und nicht-menschlichen Akteuren in der wir algorithmische Vorrichtungen nut- zen: Wir planen und terminieren Treffen mit unserem Onlinekalender, wir arrangieren Benachrichtigungen via Email, halten unsere Navigationsdiens- te an, uns den Heimweg zu zeigen usw. Wir aktivieren und deaktivieren Al- gorithmen um unser tägliches Leben zu bewältigen. Algorithmen sind also weniger Codes, sie sind Realisierungen sozialer Relationen zwischen diversen Akteuren und Aktanten. Ebenso wie Praktiken zeichnen Algorithmen sich durch rekursive und stark verinnerlichte Routinen aus. Algorithmen sollen die Ausführung repe- titiver Aufgaben unterstützen; sie führen Tätigkeiten aus, um kognitiven und affektiven Aufwand zu reduzieren und ermöglichen es so, die Aufmerksamkeit auf wichtigere und vielleicht interessantere Aufgaben zu richten. Die Analyse von Algorithmen als Routinen oder als routinisierte Praktiken berücksichtigt die Abweichungen von den mathematischen und technischen Skripts, Ab- weichungen, die aus verschiedenen Quellen hervorgehen können. Sie können etwa aus Konstruktionsfehlern, mangelhafter Ausführung, chaotischem Ab- 24 Jonathan Roberge und Rober t Sey fer t lauf oder aus wechselseitigen Auswirkungen in der Interaktion verschiedener algorithmischer und nicht-algorithmischer Aktanten hervorgehen. Eben dies können die Computerwissenschaften schwerlich berücksichtigen, da es ihrer DNA anhaftet, Algorithmen über Präzision und Korrektheit zu definieren. Computerwissenschaftler können Abweichungen einzig menschlichen Rou- tinen zurechnen, und schließen somit von vornherein die Möglichkeit aus, dass nicht jede Wiederholung identisch ist. Wir gehen jedoch mit Deleuze da- von aus, dass jede Iteration von Routinen stets leichte Abweichungen mit sich bringt (Deleuze 1992). Wir würden sogar so weit gehen zu behaupten, dass der computerwissenschaftliche Diskurs algorithmische Praktiken konzeptuell ausschließt, und damit auch jegliche algorithmische Abweichung vom Script. Für die Kultursoziologie ist eine einseitige Zurechnung von Abweichungen auf menschliche Faktoren freilich problematisch. Vielmehr scheint die Idee unfehlbarer Präzision und Korrektheit von Algorithmen Teil der oben bereits angesprochenen Legende algorithmischer Objektivität zu sein, in deren Mittel- punkt das immerwährende Streben nach höherer Rationalität steht, und in welcher der autonom agierende Algorithmus letztlich menschliche Routinen ersetzt. Der Legende nach versprechen Algorithmen eine identische Iteration, die zügige und einfache Modellierung sowie präzise Vorhersagen ermöglicht. Allerdings gilt es, jenes Imaginäre algorithmischer Kulturen, mit all seinen Verheißungen und Träumen von der algorithmischen Praxis zu unterscheiden. Innerhalb der Algorithmuskulturen können wir jedoch den Wandel sozialer Beziehungen sehr gut bezeugen, so etwa mit dem Auftauchen hochgradig nut- zerspezifischer Beziehungen. Der Beitrag von Joseph Klett stellt ein Beispiel für einen solchen Wandel dar, wenn er den Übergang vom digitalen Stereo zum »immersiven Audio« beschreibt. Stereofonie (der Klang, den wir von klas- sischen Stereoanlagen erfahren) operiert mit generischen Beziehungen: Jeder einzelne Lautsprecher richtet hier eine feste Relation zum ›Nutzer‹ ein, der in diesem Arrangement als ein invariables sensorisches ›Gerät‹ fungiert, welches wiederum an einen festgelegten Punkt im Raum gebunden ist (der sogenann- te Sweetspot). Demgegenüber sind algorithmisch realisierte Klanglandschaften hochgradig personalisiert. Klett zeigt auf, wie in der Tontechnik, im Gleich- klang mit zahlreichen anderen technologischen Arrangements, Algorithmen zunehmend keine allgemein unbestimmte Mittlerfunktion mehr einnehmen, sondern als hochgradig spezifische und gleichsam spezifizierende Mittler zwi- schen technischen Diensten und den einzelnen Individuen operieren. Eine solche Personalisierung erlaubt eine bedeutend reichhaltigere Klagerfahrung, da sie von vormals festgelegten Stellen der optimalen Klangbeschallung un- abhängig wird. Der Klang richtet sich stattdessen nach unserer singulären Klangperspektive. Der Wechsel von generischen zu dynamisch-adaptiven Relationen wirkt sich unweigerlich auf unser soziales Leben aus. Indem per- sonalisierende Algorithmen sich auf die Subjekte und ihre Körper einstellen, 1. Was sind Algorithmuskulturen? 25 verändern sie die Beschaffenheit sozialer Beziehungen: Sie entflechten soziale Beziehungen und schneiden bestehende ab, indem sie neue erschaffen. Algo- rithmen innerhalb geräuschunterdrückender Kopfhörer sind ein Beispiel für solche Trennungen, sie entziehen den sozialen Beziehungen gewissermaßen die akustische Kommunikation. Personalisierte Algorithmen formen so Ge- hege um das Subjekt herum, in denen »der Körper zu einem Teil des Audio- Systems wird« (Klett in diesem Band: 158). Körper und technische Vorrichtung erschaffen auf diese Weise eine geschlossene algorithmische Kultur. Nun werden Algorithmen in unseren Tagen nicht allein von Menschen hervorgebracht, sondern auch von Algorithmen selbst. In der Tat haben wir es mit unendlichen Ketten von Algorithmen zu tun, die sich wechselseitig steuern. Ein eingehender Versuch, diese Verkettungen zu durchdringen lässt allerdings schnell Zweifel an der Sinnhaftigkeit der antagonistischen Gegen- überstellung von menschlichen und algorithmischen Routinen aufkommen – ein Antagonismus der in den Computerwissenschaften mit ihren Vorstel- lungen algorithmischer Objektivität und purer Rationalität nur allzu heimisch ist. Das kunstvoll errichtete Imaginäre der Computerwissenschaften basiert und reproduziert den klassischen Mythos vom Kampf zwischen Mensch und Maschine, beispielhaft veranschaulicht in mythischen Ereignissen wie den Schachspielen zwischen Kasparov und Deep Blue, und ignoriert notorisch die humane Immersion in Algorithmuskulturen. Eine solche Immersion zeigte sich beispielsweise angesichts der optimierenden Eingriffe seitens der Pro- grammierer zwischen den einzelnen Schachpartien, die dazu dienten, die Al- gorithmen besser an die Spielweise Kasparovs anzupassen. Man kann nicht oft genug darauf hinweisen, eine Definition der Algorithmen als rein formale Verfahren erfasst allein präzise und identisch repetierbare Prozesse, wohinge- gen die Untersuchung von Praktiken und Performances auch Abweichungen und Divergenzen berücksichtigt. Unbeständige Aushandlungen, Abweichun- gen, Fragilität und eine Neigung zum Scheitern sind wesentliche Merkmale von Algorithmuskulturen. Im ›echten Leben‹ versagen Algorithmen häufig, ihre Interaktionen und Operationen sind chaotisch. Instabile Aushandlun- gen, Verzögerung, Fragilität und eine Neigung zu Fehlern sind in jedem Fall wichtige Merkmale algorithmischer Kulturen. Im ›wirklichen Leben‹ schlagen Algorithmen häufig fehl, sind ihre Interaktionen und Operationen chaotisch. Besonders häufig ist dies der Fall, wenn sie sich in einer Zwischenlage algo- rithmischer oder nicht algorithmischer Akteure wiederfinden, hier tendieren sie dazu von ihrer anfänglichen Zielvorgabe abzuweichen, ganz so wie andere Akteure auch. Das Auftauchen von Fehlern hängt folglich mit der Komplexität der Inter- aktionen zusammen. Dabei handelt es sich nicht nur um Face-to-Face- oder Face-to-Screen-Interaktionen, sondern um ganze Assemblagen weit verzweig- ter Interaktionen, die ihren Teil zur Erzeugung von Fehlern und Defekten bei- 26 Jonathan Roberge und Rober t Sey fer t tragen. Unzählige solcher Fehler ließen sich hier anführen, von »Amazons 23 698 655,93 $ Angebot für ein Buch über Fliegen« (Eisen 2011) bis zum Nieder- gang von Knight Capital, einer algorithmischen Börsenhandelsgesellschaft, die aufgrund der Störung eines Handelsalgorithmus 400 Millionen US $ in 45 Mi- nuten verlor (SEC 2013: 6). Die Nutzung von Algorithmen birgt im Alltag also eine Mischung aus Überraschungen und Enttäuschungen. Die immer wieder zum Ausdruck gebrachte Verwunderung über die Treffsicherheit von Ama- zons Empfehlungs-Algorithmen bei der Vorhersage (oder Erzeugung) von Ge- schmäckern und den daraus folgenden Käufen geht Hand in Hand mit zahlrei- chen Beschwerden darüber, wie sehr sie doch daneben liegen. Wir haben uns an falsch liegende algorithmische Systeme gewöhnt und wir haben uns daran gewöhnt mit ihnen umzugehen. In der Tat sind Witze über fehlerhafte Algo- rithmen mittlerweile ein eigenes Genre: »da @Amazons Algorithmen derart fortschrittlich sind, wurden mir mehr als 10.000 #PrimeDay-Geschäfte an- geboten und ich bin an keinem einzigen von ihnen interessiert« (Davis 2015). Shintaro Miyazaki erläutert in seinem Beitrag zu diesem Band den Lawi- neneffekt von »Mikro-Fehlern« in algorithmischen Kulturen. Er zeigt auf, wie winzig und irrelevant erscheinende Kleinigkeiten, eine kleine Abweichung vom Code, eine unmerkliche Dezentrierung in algorithmischen Rückkopp- lungsprozessen zu Ergebnissen katastrophischen Ausmaßes führen können. Miyazakis historische Fallstudie zu AT&Ts Absturz im Jahre 1990 zeigt über- dies, dass solche Fehler von Anfang an Bestandteil algorithmischer Kulturen waren. In dem beschriebenen Fall erzeugte ein Update innerhalb AT&Ts Tele- fonnetzwerkes eine Feedbackschleife mit der das gesamte System in einen un- stabilen Zustand geriet, aus dem es nicht mehr herausgekommen ist. Während die einzelnen Subsysteme Notfallroutinen enthielten, die jedes von ihnen dazu in die Lage versetzte, sich von Funktionsstörungen zu erholen, verursachten algorithmische Rückkopplungsschleifen zwischen den Subsystemen einen Zustand, in denen sich interagierende Algorithmen gegenseitig ausschalteten. Resultat war ein algorithmisches Netzwerk von unproduktiven Operationen, das seine Ursache letztlich in »gestreuten Dysfunktionalitäten« hatte (vgl. Mi- yazaki in diesem Band: 180) . Wenn wir die Tatsache ernst nehmen, dass Fehler unweigerlich einen Teil algorithmischer Kulturen ausmachen, bekommt Miyazakis Analyse eine noch weitreichendere Implikation: Man könnte annehmen, dass »verteilte Dysfunk- tionalitäten« einen Prozess darstellen, in welchem algorithmische Netzwerke irrtümlich eine höhere Form der ultimativen Maschine hervorbringen. Der von Claude E. Shannon erschaffene Prototyp der ultimativen Maschine hat nur einen einzigen Zweck: sich selbst abzuschalten. »Sie könnte nicht simpler aussehen. Es handelt sich um ein kleines hölzernes Kästchen in der Form und Größe einer Zigarettenschachtel mit einem einzelnen Schalter auf einer 1. Was sind Algorithmuskulturen? 27 Seite. Sobald man den Schalter umlegt, er tönt ein zorniges, gezieltes Brummen. Der Deckel erhebt sich langsam und darunter erscheint eine Hand. Die Hand greif t nach unten, legt den Schalter um und zieht sich wieder in das Kästchen zurück. Mit der End- gültigkeit eines schließenden Sargs klappt der Deckel zu, das Brummen hört auf und es herrscht wieder Frieden.« (Clarke 1959: 159) Aufgrund ihrer ungewöhnlichen Funktionalität wurde sie auch als nutzlose Ma- schine oder als Lass-mich-in-Ruhe-Box bezeichnet. Der von Miyazaki beschrie- bene Fall ließe sich nun als eine komplexere Version einer solchen Maschine deuten. Tatsächlich handelte es sich hier nicht um eine einzelne Maschine, die sich selbst abschaltete, sondern um eine ganze Kette von Maschinen, die algorithmische Interaktionen derart vollzogen, dass jede Maschine die sie be- nachbarte just in dem Moment abschaltete, in dem diese den Wiederherstel- lungsprozess abgeschlossen hatte. Während einfache ultimative Maschinen noch auf Menschen angewiesen sind, die den Hebel umlegen, übernehmen algorithmisch verstreute Dysfunktionalitäten auch diese Funktion. Sie erzeu- gen so eine stabile Instabilität, deren unproduktive und dysfunktionale Routi- nen nur durch einen nicht-algorithmischen Eingriff beendet werden können. Wir haben es hier mit einem Fall algorithmischer Praktiken zu tun, in dem Algorithmen beginnen in einem Muster zu (inter)agieren, das nicht in sie ein- geschrieben wurde und das sie gänzlich leistungsunfähig werden lässt. Man könnte eine solche Maschine als einen algorithmischen Bartleby beschreiben, der die Forderung danach Routinen zu initiieren, mit einem spezifisch algo- rithmischen Ich möchte lieber nicht zurückweist. Eine solche Beschreibung be- herbergt eine verblüffende Erklärungskraft, insbesondere, wenn wir sie mit den weiter oben angeführten Definitionen der Algorithmen als routinisier- te Entfaltungen kontrastieren. So wie Bartlebys Verweigerung die täglichen Arbeitsroutinen betrifft, hebt auch algorithmische Dysfunktionalität Routinen auf – sie untergräbt Routinen und macht sie unproduktiv. Instabile Algorithmen sind keine Seltenheit. Im Bereich des algorithmi- schen Handels ist es nicht unüblich, dass Händler dazu genötigt sind, Algo- rithmen aus instabilen Zuständen heraus zu zwingen. Beispielsweise können Softwaredefekte oder Rückkopplungsschleifen Algorithmen um Grenzwerte herum flattern lassen und die Algorithmen in einen Zustand versetzen in dem sie unentwegt Aufträge platzieren und sogleich wieder löschen (Seyfert 2016). Obgleich dieses Phänomenen schwierig zu greifen ist, wurde verschiedentlich argumentiert, dass zahlreiche ungewöhnliche Marktereignisse auf solche un- produktive Routinen zurückzuführen sind (Johnson et al. 2012; Cliff et al. 2011; Cliff/Nothrop 2011). Um ein weiteres Beispiel anzuführen: Eine erste Analyse des Flashcrashs von 2010 hatte nahegelegt, dass unproduktive algorithmische Interaktionen dahinter gesteckt haben könnten. Der Begriff des Flashcrashs bezeichnet einen kurzen aber rapiden Kurseinbruch, auf den eine ähnlich 28 Jonathan Roberge und Rober t Sey fer t schnelle Erholung der Wertpapierpreise erfolgt. Der gemeinsame Bericht der Commodity Futures Trading Commission und der Security Exchange Commission in den Vereinigten Staaten beschrieb den Flashcrash von 2010 wie folgt: »Um etwa 14.30 Uhr des 06.05.2010 fielen die Kurse sowohl des E-Mini S&P 500 fu- tures contract als auch des SPY S&P 500 exchange traded fond (ETF) plötzlich um 5 % in nur fünf Minuten. Mehr noch, schon in den folgenden zehn Minuten erholten sich die Kurse von ihren Verlusten. In eben dieser kurzen Erholungsphase stürzten die Kurse von hunderten einzelnen Aktien und ETFs auf das lächerliche Niveau eines Pennys oder weniger, bevor sie sich wenig später ebenso schnell wieder erholten. Am Ende des Tages war alles wieder beim Alten und so wurde dieses Ereignis auf den Namen Flashcrash des 06. Mai getauft.« (CF TC und SEC 2010a: 3) Diesem gemeinsamen Bericht zufolge waren es Hochfrequenzhändler (unter Anwendung von Algorithmen), die »begannen, schnell Wertpapierkäufe und -verkäufe vorzunehmen und so einen ›hot potato‹ Volumeneffekt hervorriefen, so dass Positionen schnell hin und her gehandelt wurden […] Hochfrequenzhändler handelten über 27.000 Kontrakte, was in etwa 49 % des gesamten Handelsvolumens entsprach, obwohl sie bereinigt nur 200 Kontrakte hin- zukauften« (CF TC und SEC 2010a: 3). Dieser Hot Potato Effect ist eine weitere Iteration verteilter Dysfunktionalität, eine ertragsarme Routine, die das Produktivitätsparadigma des Finanzmarkts subvertiert. Eine Ursache für das Auftauchen von Fehlern in der algorithmischen Pra- xis hat mit dem Umstand zu tun, dass die Interaktionen mit und zwischen Al- gorithmen immer wieder missverstanden werden. Valentin Rauer verdeutlicht in seinem Beitrag anhand von zwei Fallstudien die Schwierigkeiten bei der Einschätzung algorithmischer Handlungsträgerschaft. In Algorithmuskul- turen wurden die traditionellen Interaktionen über deiktische Gesten durch etwas ersetzt, dass Rauer »mobilisierende Algorithmen« nennt. Während Face-to-Face-Interaktionen deiktische Gesten – wie das da oder Du – erlauben, benötigen über Distanz hinweg verlaufende Interaktionen Mittler. Mobilisie- rende Algorithmen sind zu solcherlei Mittlern geworden und sie agieren zu einem gewissen Grade autonom. Ein Beispiel hierfür wären automatische Not- rufe, die als funktionales Äquivalent zu deiktischen Gesten dienen (Mayday! Mayday!). Rauer zeigt nun auf, wie die Einführung algorithmischer Mittler zu wechselnden und vielgestaltigen Skalen und Reichweiten von Handlungs- fähigkeit führen. Solche Skalierungsprozesse lassen die Vorstellung einer rein algorithmischen oder rein menschlichen Handlungsträgerschaft zweifelhaft werden. Autarkie und völlige Independenz sind Grenzwerte, sie bezeichnen 1. Was sind Algorithmuskulturen? 29 Schranken, die nie ganz erreicht werden, weder von Menschen noch von Algo- rithmen. Im öffentlichen Diskurs werden diese Skalen der Handlungsträger- schaft allerdings von einem starken kulturellen Imaginären entweder verdun- kelt oder gar ganz ignoriert. Die Problematik dieses kulturellen Imaginären wird in Zeiten algorithmischer Zusammenbrüche besonders sichtbar. Rauer illustriert dies in einer Fallstudie zum ›fehlenden Algorithmus‹, der letztlich zum Scheitern des Drohnenprojekts Euro Hawk führte. In diesem spezifi- schen Fall führte ein fehlender Algorithmus dazu, dass die Drohne während ihres ersten Fluges führungslos vollkommen blind, und eine wirkliche Bedro- hung für alles in ihrer Nähe darstellte (Valentin Rauer in diesem Band: 200). Das Fehlen des Algorithmus war in diesem Fall allerdings nicht das Resultat eines unbeabsichtigten Fehlers. Vielmehr war das Fehlen darauf zurückzu- führen, dass die Drohne eigentlich hätte gelenkt werden sollen – sie war dafür gemacht, von einem handelnden Menschen gelenkt zu werden. Der Prototyp des Euro Hawk arbeitete folglich mit einer starken Vorstellung menschlicher Handlungsträgerschaft – einer Handlungsträgerschaft die ihre Schöpfungen stets beherrscht – die Handlungsträgerschaft der Drohne wurde hingegen unterschätzt. Der Fall des fehlenden Algorithmus zeigt abermals, dass Fehler- haftigkeit und Unordnung ausschlaggebende Faktoren innerhalb algorithmi- scher Praktiken sind. So paradox es klingen mag, das Fehlen eines Algorithmus ist Ausdruck der Unordnung algorithmischer Praktiken, der gleichen Unordnung also, die auch der Grund für die den Algorithmuskulturen innewohnenden Versprechungen und Träume ist. Anders formuliert ist die Erfüllung dieses Traumes stets nur einen Schritt entfernt von dessen Vollendung. Es fehlt immer nur noch ein letz- ter Algorithmus, der implementiert werden muss. Mit anderen Worten, es sind die regelmäßigen Fehlausrichtungen welche die Existenz der Versprechungen und Hoffnungen von einer reibungslosen algorithmischen Funktionalität er- möglichen. Wenn alles reibungslos funktionieren würde, wären diese Verspre- chungen überflüssig und würden schlicht verschwinden. Der Traum von einer algorithmischen Objektivität, von einem reibungslosen Funktionieren und von reiner Effizienz; der Traum von algorithmischer Autonomie und die Hoff- nung auf eine höhere Rationalität, ergeben erst im Kontrast zum regelmäßigen Scheitern einen Sinn. Die falschen Ausrichtungen und das Versagen von Algorithmen sind fer- ner nicht allein auf fehlende Algorithmen oder auf technische Defekte zu- rückzuführen. Vielmehr lassen sie sich genau der Diskrepanz zwischen den konkreten algorithmischen Praktiken auf der einen Seite, und den in sie ein- geschriebenen Erwartungen an Rationalität, Handlungsträgerschaft und die Objektivität ihrer Codes, auf der anderen zurechnen. Sobald Algorithmen in sozio-technische Assemblagen eintreten, sind sie mehr als nur »Logik + Kont- rolle«. Daher darf sich eine Kulturanalyse der Algorithmen nicht nur den tech- 30 Jonathan Roberge und Rober t Sey fer t nischen Feinheiten der Codes und Apparate, kurz ihrer technischen Funktio- nalität widmen. Vielmehr muss sie den Komplex aus materiellen Kulturen, technischen Apparaturen und Praktiken in den Blick nehmen. Aus diesem Grund ist es problematisch, wenn sich aktuelle Forschungsprojekte zu Algo- rithmen auf deren vermeintlich beunruhigende und suspekte Beschaffenheit konzentrieren, die in Konferenztiteln wie »Die Tyrannei der Algorithmen« (Washington, Dezember 2015) anklingt. Solche Perspektivierungen vernach- lässigen nicht nur die ganz alltägliche Beschaffenheit der durch Algorithmen hervorgerufenen Enttäuschungen, sondern auch die Dynamik zwischen Ver- sprechung und Enttäuschung, die innerhalb algorithmischer Kulturen am Werke ist. Solcherlei Forschungen verschmelzen das branchenspezifische Imaginäre von Rationalität, Autonomie und Objektivität mit den konkreten Praktiken. Sie verwechseln also die Versprechungen derjenigen, die diese Systeme erstellen und vermarkten mit der Realität der Algorithmuskulturen. An der Stelle, wo eine Analyse der ›Legitimation durch Performanz‹ inner- halb algorithmischer Kulturen angebracht wäre, schließen sie mit einer Kritik des Imaginären und seiner Effekte; und dies ganz ungeachtet der praktischen Prozesse der Aktualisierung oder Nicht-Verwirklichung dieses Imaginären. In ihrem bevorzugten Modus der Kritik fallen sie dem zum Opfer, was Mark Nunes »eine kybernetische Ideologie« genannt hat, »die vom Erträumen einer fehlerfreien Welt mit hundertprozentiger Effizienz, Genauigkeit und Vorher- sagbarkeit getrieben ist« (Nunes 2011: 3). Da sie die Effektivität der Algorith- men überschätzen und ihre Unordentlichkeit und ihre Dysfunktionalitäten übersehen, nehmen solche kulturellen und sozialen Deutungen folgerichtig auch den Charakter von Verschwörungstheorien an, in denen »verborgene Al- gorithmen Geld und Daten lenken und kontrollieren« (Pasquale 2015). Nun lassen sich solche verschwörungstheoretischen Einstellungen auf das schiere Ausmaß der Mehrdeutigkeit zurückführen, das den algorithmischen Kulturen inhärent ist. Algorithmische Praktiken, in denen wir Algorithmen nutzen und gleichsam von ihnen benutzt werden, involvieren implizites Wis- sen. Die meisten von uns nutzen Algorithmen täglich, wir lenken sie und wer- den dabei von ihnen gelenkt. Und doch wissen die meisten von uns nur wenig über die algorithmischen Codes, aus denen diese algorithmischen Assembla- gen gefertigt sind. Eben dieses Nicht-Wissen lässt uns Unheimliches hinter dem Bildschirm vermuten, wir vermuten oder erahnen etwas, das grundle- gend verschiedenen ist von den Absichten und Vorhaben unserer humanen Gefährten. Es ist gerade dieser Mangel an Information, der einige mensch- liche Akteure dazu bringt, algorithmischen Aktivitäten eine Intentionalität zu unterstellen. Man hat es hier häufig mit einer Haltung des generellen Ver- dachts zu tun, einer Welthaltung, die Nathalie Heinich als »intentionalisti- sche Hypothese« bezeichnet hat, und die einer »systematischen Reduktion alles Tuns auf eine bewusste (vorzugsweise verdeckte und daher unlautere) 1. Was sind Algorithmuskulturen? 31 Intention« gleichkommt (Heinich 2009: 35). Es ist gerade die Mehrdeutigkeit der Algorithmuskulturen, die sie für die Sozial- und Kulturwissenschaften so relevant machen. Die Erzeugung, Verwendung und Fehlerhaftigkeit algorith- mischer Systeme werden durch kulturelle Narrative stabilisiert, die wiederum auf wirkmächtige Erwartungen des kulturellen Imaginären zurückgreifen. Um diese konstitutive Spannung zwischen konkreten Praktiken und ideellen Vorstellungen über Algorithmuskulturen zu erfassen, ist es freilich nicht aus- reichend, einerseits die Narrative derjenigen zu beachten, die algorithmische Systeme anpreisen und bewerben und andererseits die Narrative derjenigen zu fokussieren, die konspirative Ängste mit ihnen verbinden. Es bedarf darüber hinaus der Fokussierung auf die algorithmischen Praktiken selbst, denn hier werden die Fehlschläge und Defekte der Algorithmen am ehesten sichtbar. die KultiVierung algorithmischer mehrdeutigKeit Algorithmuskulturen sind Interaktionskreisläufe in die verschiedenste huma- ne und nicht-humane Akteure involviert sind. Dieser Umstand konstituiert ihre Vieldeutigkeit und macht es so schwierig Handlungsträgerschaft und Verantwortung klar zu fixieren. Daher stellen algorithmische Interaktions- kreisläufe nicht allein die Kultur- und Sozialwissenschaften vor Herausforde- rungen. Die Deutungen variieren stark und die Verteilung von Handlungs- trägerschaft sowie die Zurechnung von Verantwortung bewegen sich entlang der jeweiligen epistemischen Konstitution der Interpreten und sind freilich auch abhängig von der jeweiligen Fokussetzung auf spezifische Ereignisse. Während einige Autoren den Blick allein auf die rein algorithmischen Interak- tionen lenken (Miyazaki in diesem Band; MacKenzie 2015; Knorr-Cetina 2013), ersinnen andere eine Form verstreuter Funktionalität zwischen Menschen und Algorithmen, eine »gemischte Automation« (Beunza/Millo 2015). Andere wiederum gehen gar so weit Algorithmen als bloße Instrumente menschlicher Handlungen zu begreifen (Reichertz 2013). Insbesondere politische Systeme greifen auf letzteres Verständnis zurück, vor allem dann, wenn etwas schief- geht und verantwortliche Akteure genannt werden müssen. Die Deutung des Flashcrashs von 2010 seitens der Security Exchange Commission in den USA ist hier ein treffendes Beispiel. Die Schnelligkeit des Kurssturzes und die ebenso schnell darauffolgende Erholung der Kurswerte, führte dazu die Verantwort- lichkeit in den algorithmischen Interaktionen der Hochfrequenzhändler zu suchen. Vor allem frühzeitige Interpretationen sahen in dem Ereignis ein neues Phänomen, das von den Wechselwirkungen komplexer technologischer Systeme herrühre (›hot potato effects‹). Im Verlauf der Zeit wurden dann je- doch zunehmend menschliche Akteure als Verantwortliche in Betracht gezo- gen. Vergleicht man den ersten Bericht des CFTC und SEC vom 18. Mai (CFTC 32 Jonathan Roberge und Rober t Sey fer t und SEC 2010a) mit dem zweiten am 30. September (CFTC und SEC 2010b) veröffentlichten Bericht, zeigt sich schnell, dass der Fokus mit der Zeit zu- nehmend auf die Rolle der menschlichen Akteure und ihrer Intentionen ge- lenkt wurde. Macht der erste Bericht noch auf die Möglichkeit algorithmischer Rückkopplungsschleifen aufmerksam, enthält der jüngste Bericht von 2015 überhaupt keine Hinweise auf algorithmische Interaktionen oder auf komple- xe Rückkopplungsschleifen mehr. Stattdessen wird nun auf den in London an- sässigen menschlichen Händler Navinder Singh Sarao verwiesen, der darüber hinaus der einzige humane Akteur ist, der mit dem Ereignis in einen Zusam- menhang gebracht wird (CTFC und SEC 2015a/b). Solche reduktionistischen Erklärungen sind natürlich hoch umstritten. Erscheint es doch hinreichend unwahrscheinlich, dass ein einzelner Händler einen solchen Einfluss auf einen Billionen Dollar schweren Markt ausüben kann (Pirrong 2015). Sofern seine Handlungen tatsächlich Auswirkungen auf den Flashcrash gehabt haben sollten, dann, wie man vermutet, wohl eher in Form eines nichtintendierten Schmetterlingseffekts, wie er in der Komplexitätstheorie entworfen wird (Fo- resight 2012: 71f.). Wie dieser langsame Übergang der Schuldzuweisung von algorithmi- schen Interaktionen zu menschlichen Intentionen zeigt, ist die Interpretation algorithmischen Fehlverhaltens stark abhängig von dem epistemologischen Paradigma, in dem sich die Interpreten bewegen. Will sagen: Jede Deutung rührt von einer bestimmten Form der Sinnproduktion her, was auch die Ins- trumente miteinschließt, die zur Bewertung eines Ereignisses herangezogen werden. Während Informations- und Medienwissenschaften, ebenso wenig wie die STS, keine Probleme damit haben, neuen Phänomenen, die auf inter- algorithmische Ereignisse zurückzuführen sind eine Handlungsträgerschaft, Verantwortung und Haftung zuzuschreiben, binden politische Systeme (und in diesem Falle auch Börsenaufsichtsbehörden) den Begriff der Verantwortung (noch immer) an humane Akteure. Es ist nicht sonderlich gewagt zu behaup- ten, dass das politische System selbst Druck auf die CTFC und SEC ausgeübt hat, um einen verantwortlichen Akteur präsentieren zu können, der sich für das Rechtsystem als operationalisierbar erweist. Algorithmen gehören freilich (noch) nicht zu diesen. Wie wir sehen konnten, geht das Auftauchen der Al- gorithmen mit der Verwischung zuvor klar definierter Linien einher, was eine Atmosphäre der Unsicherheit hinsichtlich der Identitäten der jeweiligen inter- agierenden Akteure schafft. Daher lautet eine der wichtigsten Fragen innerhalb algorithmischer Kul- turen: »zu wem sprechen wir?« (Gillespie 2014: 192). Auf allen Social-Media- Plattformen muss die Nutzerin darauf vertrauen, dass sie mit ›echten‹ Nutzern interagiert. Das ist für ökonomische Belange ganz besonders wichtig, zumal hier die eindeutige Identifikation von Sendern und Empfängern innerhalb fi- nanzieller Transmissionen unabdingbar ist. Ökonomische Operationen stüt- 1. Was sind Algorithmuskulturen? 33 zen sich auf die klare Definition der Interaktionspartner, nur so können wir uns sicher sein, wem wir etwas verkaufen respektive von wem wir etwas kau- fen. Oliver Leistert zeigt in seinem Beitrag zu diesem Band auf, dass die Platt- formen sozialer Medien das Problem der Unsicherheit mit Praktiken des Puri- fizierens bearbeiten, die sicherstellen sollen, dass wichtige Kommunikationen nur zwischen ›echten‹ Nutzerinnen stattfinden. Die Nutzerinnen wiederum müssen daran glauben, dass ihr Gegenüber echt ist, d.h. sie müssen der Platt- form, die sie nutzen vertrauen. Daher ist die »algorithmische Produktion von Vertrauen« (Leistert in diesem Band: 217) einer der wichtigsten Wirkmecha- nismen der Plattformen der Sozialen Medien. Genau das ist es, was solche Plattformen tun: sie bauen auf Vertrauen um das Problem der Unsicherheit zu lösen. Leistert beschreibt ferner Verdopplungsmechanismen unter den Bedin- gungen dieser Unsicherheit. So sind bestimmte soziale Bots dazu entwickelt, das Vertrauen auszunutzen, das die Social-Media-Plattformen so akribisch ver- suchen aufzubauen. Leistert begreift diese Bots als parasitäre Maschinen, die sich von unserem Begehren nach Followern, Bewertungen und dem Trendy- Sein ernähren. Als ›algorithmische Piraten‹ leben sie von ›reiner‹ Interaktion. Beispielsweise kann das Begehren nach Followern dahingehend ausgebeutet werden, dass man ›automatisch‹ mit gefälschten Followern versorgt wird. Zu- dem ist es für einige (insbesondere gewerbsmäßige) Nutzer nicht ungewöhn- lich, sich Follower auf Social-Media-Plattformen zu kaufen. Ein weiteres Bei- spiel für algorithmische Piraterie sind die Harvester, die versuchen, möglichst viele ›Freundschaften‹ zu schließen, um Nutzerdaten abzugreifen. Die Harves- ter ernähren sich dabei nicht allein von dem Begehren der Nutzer nach Popu- larität (in Form hoher Follower-Zahlen), sie leben zugleich auch von den Daten- strömen, die das Kerngeschäft der Social-Media-Plattformen bilden. Leistert verweist insofern auf die performativen Effekte innerhalb solcher Algorith- muskulturen. Die Bots Nutzen nicht allein den Umstand allgemeiner Unsi- cherheit aus, sie erhöhen diese Unsicherheit sogar noch – und das gilt auch für die Bots selbst. Wenn es Bots gibt, die humane Akteure mimen, können Bots selbst nicht sicher sein, ob sie es mit ›normalen‹ Nutzern zu tun haben. Auf diese Weise werden Bots schließlich selbst gezwungen, fingierte Interak- tionspartner zu identifizieren. Auf der einen Seite verschmutzen die Bots die Interaktionen zwischen echten Nutzern, welche die Social-Media-Plattformen mit so hohem Aufwand sicher zu stellen versuchen. Auf der anderen Seite sind die Bots letztlich auch selbst dazu gezwungen, die von ihnen verursachten Ver- schmutzungen zu reinigen. Leistert schildert hier, wie Reinigungspraktiken und parasitäre Bots den Prozess der Produktion und Reduktion von Unsicher- heit performativ intensiveren und in die Eskalation treiben. Bei der Auslegung von Algorithmuskulturen hat man es nicht allein mit epistemischen Fragen zu tun, es geht auch nicht primär darum zu bestimmen, 34 Jonathan Roberge und Rober t Sey fer t wer richtig und wer falsch liegt. Wo die Computerwissenschaften Algorithmen als Verfahren und Rezepte der Problemlösung definieren, betonen Ansätze wie die der Kultursoziologie deren performative Effekte, ihre rekursiven Operatio- nen, mit denen Algorithmuskulturen nicht nur neue Probleme schaffen, son- dern auch diejenigen Probleme erzeugen, auf die sie letztlich selbst wieder die Antwort sind. Die Performativität von Algorithmuskulturen steht (wiederum re- kursiv) in Verbindung mit Reflexionen in den Kultur- und Sozialwissenschaften selbst. Barocas und Nissenbaum (2014) haben dargelegt, wie die Nutzung neuer Technologien zum Anlass für Reflexionsprozesse werden kann, die uns helfen bereits existierende Gedanken zu schärfen. Algorithmuskulturen stellen nicht allein, wie oft nahegelegt wird, traditionelle Auffassungen von Datenschutz in Frage, wie es beispielsweise im Zuge der Enthüllungen Edward Snowdens der Fall war. Algorithmuskulturen wie Big Data bedrohen nicht lediglich die klas- sischen Vorstellungen von persönlichem Datenschutz und von Anonymität, da sie ja gar nicht mit deren klassischen Merkmalen wie Name, Adresse und Ge- burtsort operieren. Vielmehr verändern sie die Definition dessen, was es be- deutet anonym und privat zu sein. Bei der Erstellung algorithmischer Portfolios der Nutzerinnen, deren Wege sie nachzeichnen, operieren sie mit vollkommen anderen Merkmalen und erschaffen derart auch neue Identitäten. Dementspre- chend sind auch Facebooks Schattenprofile und das, was Google zynischer Wei- se »anonymous identifier« (AiDI) genannt hat, in Wirklichkeit Mechanismen der Identitätspolitik (Barocas/Nissenbaum 2014: 52f.). »Anonymous Identifier« unterscheiden sich ganz offensichtlich von klassischen Identifikatoren, die sich auf Namen, Adressen, Sozialversicherungsnummern und dergleichen bezie- hen. Die Klärung der Definitionen so grundlegender Begriffe ist angebracht, da sie uns dabei helfen kann, bereits vorhersehbare Missverständnisse zukünfti- ger politischer Regulierungen zu umgehen. Für das Verständnis der Algorithmuskulturen ist es zentral, die Vielfalt und Verwobenheit des sie begleitenden kulturellen Imaginären, der episte- mischen Blickachsen, der praktischen Verwendungen und der performativen Auswirkungen nachzuvollziehen. Aus diesem Grunde sollten Sozialwissen- schaftlerinnen, Kulturwissenschaftler und ganz besonders die Kultursoziolo- gie darauf achten, Versprechen, Imaginäres und praktische Wirkungen nicht zu verwechseln oder gar zu vermischen. Das bedeutet nun keineswegs, dass wir das kulturelle Imaginäre zu purer Phantasie degradieren. Auch Imaginä- res ist real und zeitigt innerhalb algorithmischer Kulturen reale Effekte, die es zu berücksichtigen gilt. Und doch differieren die performativen Effekte des Imaginären und die performativen Effekte von Praktiken signifikant. Es ist wichtig, in der Lage zu sein, beides zu unterscheiden und das gilt nicht nur für die Kultursoziologie. Übersetzt von Moritz Plewa. 1. Was sind Algorithmuskulturen? 35 liter aturVer Zeichnis Alexander, J. (1990): »Analytic Debates: Undestanding the Relative Autonomy of Culture«, in: Culture & Society: Contemporary Debates, hg. von J. Alexan- der und S. Seidmann, Cambridge, UK: Cambridge University Press, S. 1-27. Alexander, J. (2004): »Cultural Pragmatics: Social Performance Between Ritu- al and Strategy«, Sociological Theory 22 (4), S. 527-573. Alexander, J./Smith, P. (1998): »Sociologic culturelle ou sociologic de Ia cul- ture? Un programme fort pour donner a Ia sociologic son second souffie«, Sociologie et societes 30 (1), 107-116. Alexander, J./Smith, P. (2002): »The Strong Program in Cultural Theory: Ele- ment of a Structural Hermeneutics«, in: Turner, J. (Hg.): Handbook of Socio- logical Theory, New York: Kluwer Academic/Plenum Publisher, S. 135-150. Amoore, L./Piothuk, V. (2016): Algorithmic Life: Calculative Devices in the Age of Big Data, London: Routledge. Barocas, S./Nissenbaum, H. (2014): »Big Data’s End Run Around Consent and Anonymity«, in: Lane, J./Stodden, V./Bender, S./Nissenbaum, H. (Hg.): Pri- vacy, Big Data and the Public Good, Cambridge, UK: Cambridge University Press, S. 44-75. Barocas, S./Sophie, H./Ziewitz, M. (2013): »Governing Algorithms: A Provoca- tion Piece«, gehalten auf Governing Algorithms: A Conference on Computa- tion, Automation, and Control, New York University, 16.–17. Mai. Becker, K. (2009): »The Power of Classification: Culture, Context, Command, Control, Communications, Computing«, in: Becker, K./Stalder, F. (Hg.): Deep Search: The Politics of Search Engines Beyond Google, Vienna: Studien Verlag, S. 163-172. Beer, D (2013): Popular Culture and New Media, Basingstoke, UK: Palgrave Mac- millan. Beunza, D./Millo, Y. (2015): »Blended Automation: Integrating Algorithms on the Floor of the New York Stock Exchange«, SRC Discussion Paper, No 38. Systemic Risk Centre, The London School of Economics and Political Sci- ence, London. Bolin, G./Schwartz, A. (2015): »Heuristic of the Algorithms: Big Data, User In- terpretation and Institutional Translation«, in: Big Data and Society (July– December), S. 1-12. Burrell, J. (2016): »How the Machine ›Thinks‹: Understanding Opacity in Machine Learning Algorithms«, in: Big Data and Society (January–June), S. 1-12. Cardon, D. (2013): »Dans l’esprit du PageRank«, in: Réseaux 1, S. 63-95. CFTC 2015a. Criminal Complaint, United States of America vs. Navinder Singh Sarao, AO 91(Rev.11/11). 36 Jonathan Roberge und Rober t Sey fer t CFTC 2015b. United States of America vs. Nav Sarao Futures Limited PLC and Navinder Singh Sarao, Appendix to Plaintiff’s motion for statutory restraining order containing declarations and exhibits, Case: 1:15-cv-03398. CFTC and SEC 2010a. Preliminary Findings Regarding the Market Events of May 6th, 2010, Report of the staffs of the CFTC and SEC to the Joint Advisory Com- mittee on Emerging Regulatory Issues. 18. May 2010. CFTC and SEC 2010b. Findings Regarding the Market Events of May 6th, 2010, Report of the staffs of the CFTC and SEC to the Joint Advisory Committee on Emerging Regu latory Issues. 30. September 2010. Cheney-Lippold, J. (2011): »A New Algorithmic Identity: Soft Biopolitics and the Modulation of Control«, in: Theory, Culture & Society 28 (6), S. 164-181. Clarke, A.C. (1959): Voice Across the Sea, New York: Harper & Row. Cliff, D./Nothrop, L. (2011) »The Global Financial Markets: An Ultra-Large- Scale Systems Perspective«, in: The Future of Computer Trading in Financial Markets. Foresight driver review, DR4. London: Foresight. Cliff, D./Brown D./Treleaven, P. (2011): »Technology Trends in the Financial Markets: A 2020 Vision.« The Future of Computer Trading in Financial Mar- kets. Foresight driver review, DR3. London: Foresight. Daston, L.J. (2004): »Whither Critical Inquiry?«, in: Critical Inquiry 30 (2), S. 361-364. Davis, D. (2015): »@Amazon’s Algorithms Are So Advanced, I’ve Been Of- fered Over 10,000 #PrimeDay Deals and Am Not Interested Any of Them« [Twitter Post], July 15, retrieved from https://twitter.com/DJD/sta tus/621363180116267012 (abgerufen am 24. Mai 2016). De Certeau, M. (1974): La culture au pluriel, Paris: Seuil. Deleuze, G. (1992): Differenz und Wiederholung, München: Wilhelm Fink. Eisen, M. (2011): »Amazon’s $23,698,655.93 Book about Flies.« April 22, ab- gerufen auf www.michaeleisen.org/blog/?p=358 (zuletzt am 24. Mai 2016). Ensmenger, N. (2012): »Is Chess the Drosophila Artificial Intelligence? A So- cial History of an Algorithm«, Social Studies of Science 42 (1), S. 5-30. Foresight (2012): The Future of Computer Trading in Financial Markets: An Inter- national Perspective. Final Report, Foresight, London. Galloway, A.R. (2006): Gaming: Essays on Algorithmic Culture, Minneapolis, MN: University of Minnesota Press. Galloway, A.R. (2012): The Interface Effect, Cambridge, UK: Polity Press. Galloway, A. (2013): »Emergent Media Technologies, Speculation, Expectation, and Human/Nonhuman Relations«, in: Journal of Broadcasting & Electronic Media 57 (1), S. 53-65. Geertz, C. (1973): The Interpretation of Cultures, New York: Basic Books. Gillespie, T. (2014): »The Relevance of Algorithms«, in: Gillespie, T./Boczkow- ski, P.J./Hoot, K. (Hg.): Media Technologies: Essays on Communication, Mate- riality, and Society, Cambridge, MA: MIT Press, S. 167-193. 1. Was sind Algorithmuskulturen? 37 Goffey, A. (2008): »Algorithm«, in: Fuller, M. (Hg.): Software Studies: A Lexi- con, Cambridge, MA: MIT Press. Hallinan, B./Striphas, T. (2014): »Recommended for You: The Netflix Prize and the Production of Algorithmic Culture«, in: New Media & Society 18 (1), S. 117-137. Hargittai, E. (2000): »Open Portals or Closed Gates? Channeling Content on the World Wide Web«, in Poetics 27 (4), S. 233-253. Heinich, N. (2009): Le bêtisier du sociologue, Paris: Klincksieck. Hillis, K./Petit, M./Jarrett, K (2013): Google and the Culture of Search, New York: Routledge. Honan, M. (2013): »I, Glasshole: My Year with Google Glass«, in: Wired, 30. Dezember, abgerufen auf: www.wired.com/gadgetlab/2013/12/glasshole (zuletzt am 24. Mai 2016). Introna, L.D. (2011): »The Enframing of Code: Agency, Originality and the Pla- giarist«, in: Theory, Culture & Society 28, S. 113-141. Introna, L.D. (2016): »Algorithms, Governance, and Governmentality: On Gov- erning Academic Writing«, in: Science, Technology, & Human Values 41 (1), S. 17-49. Introna, L.D./Hayes, N. (2011): »On Sociomaterial Imbrications: What Plagia- rism Detection Systems Reveal and Why It Matters«, in: Information and Organization 21, S. 107-122. Johnson, C./Dowd, T.J./Ridgeway, C.L. (2006): »Legitimacy as a Social Pro- cess«, in: American Review of Sociology 32 (1), S. 53-78. Johnson, N./Zhao, G./Hunsader, E./Meng, J./Ravindar, A./Carran, S./Tivnan, B. (2012): »Financial Black Swans Driven by Ultrafast Machine Ecology«, Arbeitspapier, abgerufen auf: arxiv.org/abs/1202.1448 (zuletzt am 24. Mai 2016). Kinsley, S. (2010): »Representing ›Things to Come‹: Feeling the Visions of Fu- ture Technologies«, Environment and Planning A 42 (11), S. 2771-2790. Kitchin, R. (2014): »Thinking Critically about and Researching Algorithms«, in: The Programmable City Working Paper, Maynooth, Republic of Ireland: Maynooth University, abgerufen auf: http://papers.ssrn.com/sol3/papers. cfm?abstract_id=2515786 (zuletzt am 25. Mai 2016). Knorr Cetina, K. (2013): »Presentation to Panel, Theorizing Numbers« gehalten auf dem American Sociological Association Annual Meeting, New York. Kowalski, R. (1979): »Algorithm = Logic + Control«, in: Communications of the ACM 22 (7), S. 424-436. Kushner, S. (2013): »The Freelance Translation Machine: Algorithmic Culture and the Invisible Industry«, in: New Media & Society, vor dem Druck online veröffentlicht am 3. Januar, doi: 10.1177/1461444812469597. Lash, S. (2007): »Power after Hegemony: Cultural Studies in Mutation?«, in: Theory, Culture & Society 24 (3), S. 55-78. 38 Jonathan Roberge und Rober t Sey fer t Latour, B. (1986): »Visualisation and Cognition: Drawing Things Together«, in: Kuklick, H. (Hg.): Knowledge and Society: Studies in the Sociology of Culture Past and Present, Volume 6, Greenwich, CT: Jai Press, S. 1-40. Levy, M. (2011): In the Plex: How Google Thinks, Works, and Shapes Our Lives, New York: Martin and Schuster. Mackenzie, A. (2005): »The Performativity of Code: Software and Cultures of Circulation«, in: Theory, Culture & Society 22 (1), S. 71-92. MacKenzie, D. (2006): An Engine, Not a Camera: How Financial Models Shape the Markets, Cambridge MA: MIT Press. MacKenzie, D. (2015): »How Algorithms Interact: Goffman’s ›Interaction Or- der‹ in Automated Trading«, Arbeitspapier. Mager, A. (2012): »Algorithmic Ideology: How Capitalist Society Shapes Search Engines«, in: Information, Communication & Society 15 (5), S. 769-787. Miller, C.C. (2013): »Privacy Officials Press Google on Its Glasses«, in: New York Times, 19. Juni, abgerufen auf http://bits.blogs.nytimes.com/2013/06/19/ privacy-officials-worldwide-press-google-about-glass (zuletzt am 24. Mai 2016). Morris, J.W. (2015): »Curation by Code: Informediairies and the Data Mining of Taste«, in: European Journal of Cultural Studies 18 (4-5), S. 446-463. Nunes, M. (2011): »Error, Noise, and Potential: The Outside of Purpose«, in: Nunes, Mark (Hg.): Error: Glitch, Noise, and Jam in New Media Cultures, New Haven, CT u.a: Continuum, S. 3-23. Pasquale, F. (2015): The Black Box Society: The Secret Algorithms That Control Money and Information, Cambridge, MA u.a.: Harvard University Press. Pirrong, C. (2015): »A Matter of Magnitudes: Making Matterhorn Out of a Mole- hill«, in: Streetwise Professor (blog by University of Houston finance pro- fessor Craig Pirrong), 1. Januar, abgerufen auf: http://streetwiseprofessor. com/?p=9337 (zuletzt am 24. Mai 2016). Pogue, D. (2013): »Why Google Glass Is Creepy«, in: Scientific American, 21. Mai, abgerufen auf: www.scientificamerican.com/article.cfm?id=why- google-glass-is-creepy (zuletzt am 24. Mai 2016). Reckwitz, A. (2002): »Toward a Theory of Social Practices. A Development in Culturalist Theorizing«, in: European Journal of Social Theory 5 (2), S. 245- 265. Reichertz, J. 2013. »Algorithmen als autonome Akteure?«, in: SozBlog, 24. Fe- bruar, abgerufen auf: http://soziologie.de/blog/2013/02/algorithmen-als- autonome-akteure/#more-964 (zuletzt am 24. Mai 2016). Roberge, J./Melançon, L. (im Erscheinen): »Being the King Kong of Algorith- mic Culture Is a Tough Job After All: The Justificatory Regimes of Google and the Meaning of Glass«, in Convergence: The International Journal of Re- search into New Media Technologies, vor dem Druck veröffentlicht am 2. Juli 2015, doi: 10.1177/33 1354856515592506. 1. Was sind Algorithmuskulturen? 39 Röhle, T. (2009): »Dissecting the Gatekeepers: Relational Perspectives on the Power of Search Engines«, in: K. Becker/F. Stalder (Hg.): Deep Search: The Politics of Search Engines beyond Google, Vienna: Studien Verlag, S. 117-132. Ruhe, N. (2014): »Algorithmic Cultures – Conference Report«, in: H-Soz- Kult, 29. Oktober, abgerufen auf: www.hsozkult.de/conferencereport/id/ta gungsberichte-5626 (zuletzt am 24. Mai 2016). Ruppert, E./Law, J./Savage, M. (2013): »Reassembling Social Science Meth- ods: The Challenge of Digital Devices«, in: Theory, Culture & Society 30 (4), S. 22-46. Sandvig, C. (2015): »Seeing the Sort: The Aesthetic and Industrial Defense of ›The Algorithm‹«, in: Journal of the New Media Caucus 10 (1), abgerufen auf: http://median.newmediacaucus.org/art-infrastructures-information/ seeing-the-sort-the-aesthetic-and-industrial-defense-of-the-algorithm/ (zu- letzt am 24. Mai 2016). Sanz, E./Stančík, J. (2013): »Your Search – ›Ontological Security‹ – Matched 111,000 Documents: An Empirical Substantiation of the Cultural Dimen- sion of Online Search«, in: New Media & Society, vor dem Druck veröffent- licht am 29. April 2013, doi: 10.1177/1461444813481198. Savage, S. (2009): »Against Epochalism: An Analysis of Conceptions of Change in British Sociology«, in: Cultural Sociology 3 (2), S. 217-238. Seaver, N. (2014): »Knowing Algorithms«, Vortrag gehalten auf Media in Trans- lation 8, Cambridge, MA, April 2013. SEC 2013. Securities Exchange Act of 1934, Release No. 70694, October 16, 2013, Administrative Proceeding File No. 3-15570. Seyfert, R. (2012): »Beyond Personal Feelings and Collective Emotions: A Theo- ry of Social Affect«, in: Theory, Culture & Society 29 (6), S. 27-46. Seyfert, R. (2016): »Bugs, Predations or Manipulations? Incompatible Epistem- ic Regimes of High-Frequency Trading«, in: Economy & Society 45 (2), S. 251- 277. Striphas, T. (2009): The Late Age of Print: Everyday Book Culture from Consum- erism to Control, New York: Columbia University Press. Striphas, T. (2015): »Algorithmic Culture«, in: European Journal of Cultural Studies 18 (4-5), S. 395-412. The Social Media Collective (2015): »Critical Algorithm Studies: A Reading List«, abgerufen auf: http://socialmediacollective.org/reading-lists/criti cal-algorithm-studies/ (zuletzt am 29. Februar 2016). Totaro, P./Ninno, D. (2014): »The Concept of Algorithm as an Interpretative Key of Modern Rationality«, in: Theory, Culture & Society 31 (4), S. 29-49. Uricchio, W. (2011): »The Algorithmic Turn: Photosynth, Augmented Reality and the Changing Implications of the Image«, in: Visual Studies 26 (1), S. 25-35. 40 Jonathan Roberge und Rober t Sey fer t Wansleben, L. (2012): »Heterarchien, Codes und Kalküle. Beitrag zu einer So- ziologie des algo trading«, in: Soziale Systeme 18 (1-2), S. 225-259. Wasik, B. (2013): »Why Wearable Tech Will Be as Big as the Smartphone«, in: Wired, 17. Dezember, abgerufen auf: www.wired.com/2013/12/wearable- computers/ (zuletzt am 24. Mai 2016). Weiser, M. (1991): »The Computer for the Twenty-First Century«, in: Scientific American, 1. September, S. 94-100. Ziewitz, M. (2016): »Governing Algorithms: Myth, Mess, and Methods«, in: Science, Technology & Human Values 4 (1), S. 3-16. 2. Die algorithmische Choreographie des beeindruckbaren Subjekts1 Lucas D. Introna einleitung Werbung ist zum dominierenden Geschäftsmodell des Internets geworden. Zuckerman, einer der ersten Pioniere auf diesem Feld, weist darauf hin, dass die Werbung nunmehr »die gesamte ökonomische Grundlage unserer Branche darstellt, da es die bequemste Variante für die Umsetzung eines Web-Startups war und die einfachste zur Vermarktung gegenüber Investoren« (Zuckerman 2014). Freilich ist der Umstand, dass die Werbung das Geschäftsmodell des Internets bildet, historisch kontingent. Weder ist und war diese Entwicklung notwendig noch ist sie die einzig mögliche. Und doch, sobald sich die Werbung als standardisiertes Geschäftsmodell einmal etabliert hat, entspringt ihm eine bestimmte Logik. Man könnte sagen, dass es diese bestimmte Logik erfordert, oder es gar unabdingbar macht, dass alle Akteure (in der Welt des Internets) – seien es nun Nutzer, Technologieentwicklerinnen, Werbetreibende, digitale Unternehmer etc. – auf eine ganz bestimmte Weise positioniert werden. Wo- rauf es uns ankommt ist der Umstand, dass Werbung ein Publikum benötigt und zwar nicht lediglich ein Publikum im Sinne einer unbestimmten Gruppe von Leuten, sondern die richtige Person, welche zur richtigen Zeit die richtige Werbung sieht. Dies wiederum bedeutet, dass beeindruckbare Subjekte benötigt werden. Subjekte also, die sich derart beeindrucken lassen – in eine bestimmte Richtung drücken oder prägen lassen –, dass sie sich mit hoher Wahrschein- lichkeit konvertieren2 lassen. Die Aufforderungen lauten hier: Tue etwas für das Unternehmen dessen Werbung Du siehst, registriere Dich auf der Web- 1 | Im englischen Original ist vom »impressionable subject« die Rede. Die Mehrdeutig- keit von »impressionable« ist in der deutschen Übersetzung schwer einzufangen. A.d.Ü. 2 | »Konversion« (im engl. Conversion) wird hier als Fachbegrif f aus dem (Online) Mar- keting gebraucht. Der Begrif f indizier t die Umwandlung einer Zielperson von einem Inte- ressenten in einen Kunden. A.d.Ü. 42 Lucas D. Introna seite, kaufe das Produkt oder die Dienstleistung usw. Innerhalb des Geschäfts- modells der Werbung müssen die Internetnutzer zu Subjekten geformt oder geeicht werden, die sich leicht beeindrucken lassen. Nun erfordert eine sol- che Positionierung der Subjekte auch spezifische Regime des Wissens (oder der Macht), wie man in Anschluss an Foucault (1991) formulieren kann. Das menschliche Subjekt per se kommt nicht als ein beeindruckbares zur Welt – Beeindruckbarkeit ist schließlich weder etwas Notwendiges noch stellt sie eine anthropologische Konstante dar. Solcherart Subjekte müssen erst erschaffen werden, oder genauer: Sie müssen hervorgebracht werden. Um beeindruck- bare Subjekte hervorzubringen, bedarf es einer komplizierten Choreographie, einer Choreographie, in der algorithmische Handlungsträgerschaft eine zu- nehmend komplexere Rolle spielt. Ich hoffe, diesen Umstand im Folgenden aufzeigen zu können. Foucault zufolge existiert eine innige Verbindung zwischen Macht, Wissen und Subjektivität (Hall 1997). Macht wird relational hervorgebracht, sie ent- steht im Zwischen und sie ist produktiv. Macht ist nichts Ursprüngliches, son- dern das Produkt einer fortlaufenden relationalen Positionierung von Subjek- ten/Objekten innerhalb materiell-diskursiver Praktiken (Barad 2007; Foucault 1978: 94). Solche Positionierungen existieren durch und innerhalb von Wis- sensregimen. Das Wissen wollen wir an dieser Stelle mit Foucault als etwas verstehen, das durch eine Reihe von Verfahren, Techniken und Technologien erzeugt werden kann. Diese Verfahren, Techniken und Technologien wiede- rum enthalten spezifische Mechanismen der Einschreibung, der Erfassung und der Berechnung, d.h. verschiedene Arten und Weisen Subjekte/Objekte zu beobachten und zu codieren. Erst vermittels dieser Bereiche des Wissens können Subjekte empfänglich für Interventionen und Regulierungen ge- macht werden – und so auf bestimmte Weisen positioniert und regiert werden (Foucault 1991). Foucault schließt daraus: Die »Ausübung der Macht erschafft ständig Wissen und umgekehrt; das Wissen hat Machtwirkungen zur Folge« (Foucault 2002: 930). Darüber hinaus ist die Macht produktiv, »sie produziert Wirkliches. Sie produziert Gegenstandsbereiche und Wahrheitsrituale: das In- dividuum und seine Erkenntnis sind Ergebnisse dieser Produktion« (Foucault 1986: 250). Innerhalb dieser anhaltenden Zirkulation von Macht und Wissen, wird das Subjekt auf verschiedene Weisen und durch spezifische materiell-dis- kursive Praktiken hervorgebracht, positioniert und regiert. So werden Schüler beispielsweise mittels bestimmter Verfahren und Techniken innerhalb ma- teriell-diskursiver Praktiken als »gut« oder »sich mühend« eingeordnet, d.h. sie werden positioniert. Man denke hier etwa an IQ-Tests, Lernentwicklungs- kontrollen oder die Praxis der Unterrichtsbeobachtung. Mit der Zeit werden solche Positionierungen als selbstverständlich wahrgenommen, sie werden ge- wissermaßen gültig und geboten, was nichts Anderes heißt, als dass sie zu der materiell-diskursiven Stellung werden, von der aus das jeweilige Subjekt seine 2. Die algorithmische Choreographie des beeindruckbaren Subjek ts 43 eigene Positionierung aushandelt oder sich selbst positioniert. Will heißen, die Subjekte halten sich letztlich für das, was das Wissensregime aus Ihnen macht: ›Ich bin ein guter Schüler‹ oder ›Ich bin stets bemüht‹. In den nun folgenden Erörterungen, möchte ich zeigen, wie sich Algorith- men als Produzenten bestimmter Gegenstandsbereiche des Wissens heraus- bilden. Sie nutzen dabei sehr spezifische – und historisch kontingente – Ver- fahren und Mechanismen der Einschreibung, Erfassung und Berechnung, die Internetnutzer auf bestimmte Weisen positionieren, um sie als beeindruckba- re Subjekte hervorzubringen. Um es präziser zu formulieren: Indem Algorith- men Wissen über uns produzieren (durch unser Onlineverhalten als Wegstre- cke) werden wir positioniert – gleichsam von uns selbst – als dieser oder jener Typ von Subjekt. So werden wir beispielsweise zu Subjekten die aktiv sind, Sport mögen, eine bestimmte Musik hören etc. Tatsächlich ist es die Vielfalt an Verfahren, Techniken und Technologien (die meisten sind algorithmisch) der Produktion bestimmter Gegenstandsgebiete des Wissens, die Online-Werbung von der Werbung in anderen Medien unterscheidet. Diese Gegenstandsgebiete des Wissens wiederum fungieren als minutiös ausgeklügelte Choreographen ganz spezifischer Subjektpositionierungen. Basierend auf diesem Wissen, wird uns von Algorithmen Werbung gezeigt oder eben nicht. Über die Wer- bung erlangen wir wiederum Wissen von etwas und positionieren uns. Infol- ge dieses Vorgangs, indem wir positioniert werden und uns gleichsam ›aktiv‹ positionieren, nehmen wir uns als Subjekte wahr (und werden von anderen so wahrgenommen), die jene Produkte brauchen, wollen und begehren, die uns in den Werbungen gezeigt werden. Natürlich liegt die Sache nun nicht so, dass algorithmische Akteure uns einfach zu solchen Subjekten machen. Vielmehr ist es eher ein auf historisch kontingenten Mechanismen der Einschreibung, Erfassung und Berechnung beruhendes Wissensregime, das die Möglichkeits- bedingungen hervorbringt, unter denen Subjektivität verhandelt wird. Wir nehmen die Angebote diese oder jene Art Persönlichkeit zu sein, derweil mehr oder weniger bereitwillig an. Das Subjekt wird also im Anschluss an Foucaults Arbeiten zu Macht/Wissen nicht als ein Individuum konzipiert, das sich auf einen inneren Bedeutungskern (Überzeugungen, Bedürfnisse, Begierde etc.) reduzieren ließe, sondern als ein historisch in und durch spezifische Wissens- regime produziertes verstanden. Das meint, das Subjekt wird geformt indem es innerhalb eines Feldes korrelierender Macht- und Wissenselemente (in unserem Fall algorithmisch hergestelltes Wissen) positioniert wird. In dieser Positionierung, »ist das, was bewirkt, daß Körper, Gesten, Diskurse, Wünsche als Individuen identifiziert und konstituiert werden, eine der ersten Wirkun- gen der Macht« (Foucault 1978: 82). Wenn wir das Hervorbringen beeindruckbarer Subjekte durch online Wer- beanzeigen ins Auge fassen wollen, kommen wir nicht umhin, ebenso die Pro- duktion von Wissen/Macht durch den Strom und die Zirkulation von Hand- 44 Lucas D. Introna lungsträgerschaft innerhalb und durch das soziomaterielle Ganze des Internets zu fokussieren. Wie Latour aufzeigte, durchströmt Handlungsträgerschaft nicht allein menschliche Akteure, sondern ebenso nicht-menschliche (Latour 1988, 2005) und das trifft in unserem Fall auch auf Algorithmen zu. Innerhalb des soziomateriellen Ganzen des Internets ist Handlungsträgerschaft stets et- was Geborgtes und gleichsam Übersetztes und nie einem singulären mensch- lichen oder nicht-menschlichen Akteur zurechenbar (Latour 2005: 82). Das beeindruckbare Subjekt ist zwar ein Produkt, es gibt aber nicht dessen eigent- lichen Produzenten als solchen. Dem Fluss der Handlungsträgerschaft durch eine Anordnung heterogener Akteure der soziomateriellen Assemblage (oder des ›agencement‹, wie Çalişkan und Callon [2010] sagen würden) des Internets hindurch zu folgen, stellt ein schwieriges, wenn nicht gar unmögliches Unter- fangen dar. Dies gilt umso mehr für digitale Akteure (Introna 2006; Introna/ Nissenbaum 2000; Introna/Wood 2004). Digitale Handlungsträgerschaft ist allzu oft zusammengesetzt, undurchdringlich und opak und dies gilt selbst noch dann, wenn man dazu in der Lage ist den Code zu lesen (Barocas et al. 2013). Dennoch ist es geboten, den Bewegungen von Handlungsträgerschaft innerhalb sozio-digitaler Assemblagen (einschließlich der Algorithmen) nach- zuspüren, denn diese Akteure handeln nicht nur, sondern sie bringen zugleich auch hervor, und das bedeutet (präziser formuliert), dass sie performativ sind (Barad 2007, Pickering 1995, Butler 1990). Anders gesagt zeichnen digitale Akteure das Subjekt nicht nur auf, sie bringen es gleichsam hervor. Oder um es mit Whitehead zu sagen: »Daß wie ein Einzelwesen wird, begründet was dieses Einzelwesen ist; […] Sein ›Werden‹ liegt seinem ›Sein‹ zugrunde. Dies ist das ›Prinzip des Prozesses‹.« (Whitehead 1979: 66) Um die algorithmische Choreographie des beeindruckbaren Subjektes nachzuverfolgen, werden wir im Folgenden auch den technischen Details unsere Aufmerksamkeit widmen müssen – allerdings betrachten wir sie dabei weniger als bloße technische De- tails, denn als performative materiell-diskursive Praktiken (Orlikowski/Scott 2015). Somit adressieren wir sie als historisch kontingente Mechanismen der Macht/des Wissens, welche die beeindruckbaren Subjekte zunehmend und auf immer komplexere und spezifischere Weise hervorbringen. Wir widmen uns Kreisläufen, in denen Wissen, Macht und beeindruckbare Subjekte in reziproken Bedingungsverhältnissen zirkulieren – in und durch Ströme von Handlungsträgerschaft (Ingold 2011). Der Verlauf des Narrativs von der Hervorbringung des beeindruckbaren Subjekts, der im Folgenden nachgezeichnet werden soll, ist in gewisser Weise ein historischer, aber nicht im Sinne einer linear-teleologischen Erzählung, die auf eine Geschichte der Online-Anzeigenwerbung hinausläuft. Es wird uns eher um eine Art der Genealogie im Sinne Foucaults gehen (Foucault 2002), die die konstitutiven Elemente der Hervorbringung des beeindruckbaren Subjektes herausstellt. Dieses Vorgehen schließt mit ein, dass wir auch den 2. Die algorithmische Choreographie des beeindruckbaren Subjek ts 45 scheinbar unbedeutenden ›technischen‹ Praktiken unsere Aufmerksamkeit schenken, die in der Tat grundlegend für das Entstehen des beeindruckbaren Subjektes sind. Es handelt sich hierbei freilich nicht um die einzig mögliche Narrativierung, folglich ist das folgende Narrativ auch keineswegs verbindlich. Zur Gliederung unseres Narrativs werden wir vier maßgebliche Momente der Hervorbringung fokussieren und lokalisieren, die uns konstitutiv für das Ent- stehen des beeindruckbaren Subjektes erscheinen. Diese Momente der Her- vorbringung bezeichnen wir als die Produktion (1) des blickenden Subjekts, (2) des angeregten Subjekts, (3) des individuierten Subjekts und (4) des markierten/ge- brandmarkten Subjekts.3 Wir möchten so detailliert wie irgend möglich aufzei- gen, wie jene Subjektpositionen innerhalb des Entstehens des soziomateriellen Ganzen des Internets produziert werden, welche letztlich das beeindruckbare Subjekt hervorbringen. die entstehung des blickenden Subjek tS: das einfangen des blicKs durch screening Was könnte dazu führen, dass ein Computerbildschirm als ein geeigneter Ort für Werbeanzeigen wahrgenommen wird? So offensichtlich ist die Antwort auf diese Frage gar nicht. Offenkundig ist zunächst hingegen der Umstand, dass die frühen Computernutzer, insbesondere die Programmierer, keinesfalls damit rechneten irgendwann Werbungen auf ihren Bildschirmen erscheinen zu sehen. Vielleicht liegt der Grund hierfür darin, dass der Computerbild- schirm (Display) gar nicht als ein Anzeige-Bildschirm (Screen) wahrgenom- men wurde. Viel eher stellte der Bildschirm eine Art Arbeitsoberfläche dar, einen Ort also, an dem Codes erstellt und Algorithmen in Outputs verwandelt wurden – hauptsächlich Datenoperationen, Druck-Protokolle und dergleichen. Nichtsdestotrotz könnte die Bestimmung des Computerbildschirms als Anzei- ge-Bildschirm mit dem Wandel der Computer von Fest- bzw. Großcomputern zum PC augenscheinlicher geworden sein. Mit diesem Wandel wurde der Bild- schirm re-positioniert: Aus einer Arbeitsoberfläche auf der Codes und derglei- chen erstellt wurden, wurde ein Ort, auf dem relevante Leistungen, Ergebnisse usw. empfangen werden konnten. Mit dieser Re-Positionierung transformierte sich die Arbeitsoberfläche in einen Screen (Introna/Inharco 2006). Screens als Anzeige-Bildschirme können unsere Blicke auf sich ziehen und fesseln. Das liegt schon darin begründet, dass Screens filtern und ordnen, was in einem gegebenen Kontext vermeintlich relevant für die sich vor ihnen befindenden Nutzerinnen ist. Der Screen rahmt eine Unterscheidung und bringt sie her- vor (eine Grenze), der Screen scheidet, was in einem gegebenen Kontext re- 3 | Im englischen Original ist an dieser Stelle von »branded subject« die Rede. A.d.Ü. 46 Lucas D. Introna levant ist und was nicht. Man denke nur an die Bildschirme in Flughäfen, Hörsälen und Bahnhöfen. Als positionierte Screens filtern diese Oberflächen ganz automatisch, sie priorisieren und fixieren unsere Aufmerksamkeit. Da- mit Werbung funktioniert, muss der Blick des Subjektes als ein disziplinierter hervorgebracht werden, das bedeutet, er muss als verlässlicher fixiert werden. Genauer noch: Das Subjekt muss als ein blickendes subjektiviert werden. Die Hervorbringung des Computerbildschirms als Screen, als ein Ort an dem Relevantes erscheint, ist hier ein erster Schritt. Die mehr oder weniger zu- verlässige Fixierung des Blickes transformiert den Blick des Subjekts in ein fixierbares Objekt, und diese Transformation ist Callon und Muniesa (2005) zufolge auch der erste Schritt auf dem Weg zu dessen Vermarktlichung. Mit der Fixierung des Blicks ist ein Anfang in der Kalkulierbarmachung desselben getan. Es gilt an dieser Stelle zu vermerken, dass die weite Verbreitung von Computerbildschirmen (PCs, Tablets, Smartphones etc.), welche unsere Blicke in der Gegenwartsgesellschaft anziehen und fixieren, einen immensen Ein- fluss auf den Wandel der Werbung weg von ihren althergebrachten Formen hin zu den digitalen Medien hatte (Evans 2009). Wie wird die Hervorbringung des blickenden Subjekts algorithmisch verwirklicht? Die erste gezielte Online-Werbeanzeige erschien 1990. Möglich geworden war dies durch Prodigy. Prodigy war ein Joint Venture von IBM und Sears, also, und das gilt es hervorzuheben, eine Gemeinschaftsunternehmung eines Technologiekonzerns und eines Einzelhandelsunternehmens. Das in dieser Unternehmung imaginierte Subjekt war von Anfang an ein beeindruckbares. Prodigy gründete eine Art Internet-Service, der über standardmäßig kunden- spezifische graphische Benutzerschnittstellen (GUIs)4 bereit gestellt wurde (Abb. 2.1). Durch den GUI-Zugriff auf eine Unzahl von Inhalten, konnten die- se von den Werbern und Entwicklern sorgfältig kuratiert werden – und das noch vor der Entwicklung von HTML und HTTP durch Berners-Lee. Diese sorgfältig gepflegten Inhalte richteten wiederum eine potentiell verlässliche Beziehung zwischen den angezeigten Inhalten und dem Blick des Subjektes ein – freilich nur solange dieser festgehalten werden konnte. Man achte auch auf die Ähnlichkeit des GUI-Designs mit der Ästhetik althergebrachter Medien wie Zeitungen oder Zeitschriften. Mit der standardmäßigen GUI war ein erster notwendiger Durchgangs- punkt geschaffen (Callon 1986). Die Zustellung einer Vielzahl an Diensten, wie EMail, Anzeigetafeln, Nachrichten etc. vermittels dieser GUI-Oberfläche suggerierte Relevanz und Interesse und positionierte den Nutzer vor dem Bild- schirm als ein staunend blickendes Subjekt. So beinhaltete Prodigy Werbung – für dieses mutmaßliche Subjekt – im unteren Fünftel des Screens, welches an 4 | Die Entwicklung des GUI im Personal Computing ist ein wichtiger Vorläufer dieser Entwicklung; vgl. Reimer 2005 für eine Genealogie des GUI. 2. Die algorithmische Choreographie des beeindruckbaren Subjek ts 47 Werbeagenturen verkaufte wurde. Oftmals bestand die Werbung aus einer ein- fachen Textbotschaft inklusive einiger sehr einfacher Grafiken, die am unteren Ende eingefügt wurden (Abb. 2.1). Jedes Mal, wenn eine Nutzerin sich ein- loggte oder einen Seiteninhalt anforderte, wurde auch die Werbung angezeigt. Man nahm an, dass die ersten Vierfünftel des Screens mit Inhalten gefüllt sein würden, die die Nutzerin interessieren, da diese von ihr selbst auswählbar wa- ren und so für einen gefesselten Blick sorgen würden. Das letzte Fünftel sollte simultan eine Werbeanzeige liefern. Abb. 2.1: Prodigys Grafische Benutzeroberfläche (GUI) mit einer Werbeanzeige im unteren Fünftel. So war es Prodigy zugleich auch möglich, den Werbeagenturen oder Werbern mitzuteilen, wie oft deren Werbung – dies wurde bezeichnenderweise Im- pression genannt – angezeigt wurde.5 Als Impression firmierte eine einzelne Betrachtung, einer einzelnen Werbung, von einem einzelnen Individuum. An- gezeigte Impressionen produzierten so kalkulierbare Güter (nämlich Besichti- gungen), was es erlaubte, die Blicke der Subjekte zu verkaufen. Dies geschah in 1000-Paketen (CPM). Jeder Markt braucht eine Währung, der Tausend-Kontakt- Preis (CPM) war, zumindest zu Anfang, die Währung des Online-Werbemarktes. 5 | Auch im englischen Original wird der Begrif f »impression« verwendet; im Marke- ting werden mit dem Begrif f einzelne Aufrufe von Werbemitteln auf einem Ad-Server benannt. In unserem Kontext ist die Bedeutungsnähe zu impression als Impression/ Empfindung/Sinneseindruck wichtig. A.d.Ü. 48 Lucas D. Introna Es gilt festzuhalten, dass von Beginn an die Bezeichnung Impression be- nutzt wurde. Schon die Bezeichnung zeigt an, wie die Werber die Wirkung auf die Subjekte und deren Positionierung innerhalb des soziomateriellen Ganzen deuteten. Der Zweck der Werbung besteht darin, einen Eindruck auf das Subjekt zu machen, es zu prägen – und das wiederum heißt, es zu einem beeindruckbaren Subjekt zu machen. Dieser Versuch die Wege des Blickes des Subjektes zu bestimmen, blieb nicht unbemerkt und freilich auch nicht unangefochten. Einige Prodigy-Nutzer überklebten angeblich das untere Fünftel ihres Screens mit einem Stück Papier oder Plastik – das war mög- lich, da dieses sich in einer festen Position befand. Die Vorhersehbarkeit und Verlässlichkeit des Blicks spielten auf beiden Seiten eine Rolle. Es ist nahelie- gend, dass die Nutzer ungern für einen Service zahlten, der gleichzeitig ver- suchte, sie zu manipulierbaren Subjekten zu formen. Allerdings scheint es, dass es bereits einen ›impliziten‹ Deal gab, auch wenn die Nutzerinnen sich dessen möglicherweise nicht bewusst waren. Im Jahr 1991 gab ein Manager von Prodigy zu verstehen: »Jedes Mal wenn Sie unseren Dienst nutzen, um ein Geburtstagsgeschenk zu kaufen, ein Onlineticket zu buchen, eine Rechnung zu bezahlen, eine Aktie zu handeln, Blumen zu verschicken oder Briefmarken zu kaufen, helfen Sie dabei, die Fortführung einer Pau- schalgebühr sicherzustellen.«6 Es handelte sich hierbei um eine Reaktion auf die Empörung, die einsetzte als Prodigy begann, 25 Cent für jede zusätzliche Mail zu verlangen, sobald ein Nutzer das monatliche Limit von 30 Mails überschritten hatte. Das Angebot bestand also darin, dass der Nutzer alle Dienste in Anspruch nehmen konnte (EMail, Forum etc.) solange er nur einkaufte und das bedeutet in unserem Kontext: ein beeindruckbares Subjekt zu werden. Andere Dienste wie AOL offerierten ebenso standardmäßig GUIs, die die Hervorbringung des blickenden Subjektes und so auch die Produktion von ver- käuflichen Impressionen ermöglichten. Für die Werber bestand das Problem nun aber darin, dass diese kuratierten und choreographierten Standorte einem eingegrenzten Publikum unterbreitetet wurden, das lediglich aus den Nutzern bestand, die Abonnenten ihres kostenpflichtigen Services waren. Was also nötig wurde, war ein einheitliches und universelles, plattformübergreifendes GUI, das für alle verfügbar war – kurz: ein generell und breit verfügbares ›Shopping- Fenster‹ für Internetinhalte (das also, was wir heute einen World Wide Web Browser nennen): ein universelles und standardisiertes Fenster für Inhalte, das 6 | https://w2.eff.org/Net_culture/Vir tual_community/prodigy_gaffin.ar ticle (zuletzt aufgerufen am 20. Februar 2016). 2. Die algorithmische Choreographie des beeindruckbaren Subjek ts 49 verlässlich das blickende Subjekt hervorbringen kann, wo immer die Inhalte aufgerufen werden. Der Mosaic World Wide Web Browser Version 1.0 wurde im September 1993 vom National Center of Supercomputing Applications herausgebracht (Abb. 2.2). Die Bezeichnung deutet schon auf das hervorzubringende Subjekt hin. Was der ›Browser‹ als Fenster zum Internet ermöglicht, ist ›Browsing‹. Mosaic be- inhaltete eine Reihe bedeutender Innovationen, die dazu beitrugen, dass er zum bevorzugten Webbrowser wurde. Erstens war er einfach zu installieren und zudem eine cross-platform bzw. ein multiple-platform browser. Zweitens machte er es möglich, dass Text und Bilder auf der gleichen Seite erscheinen konnten (über den -tag). Frühere Browser erlaubten es lediglich, Bil- der als separate Dateien einzufügen, die dann auf Wunsch geöffnet werden konnten. Abb. 2.2: Der World Wide Web Browser Mosaic (1994). Drittens, bestand der Browser aus einem GUI mit anklickbaren Buttons, die es den Nutzerinnen erlaubten bequem zu navigieren sowie aus Bedienelemen- ten, welche die Nutzer mit Leichtigkeit durch Texte scrollen ließen. Letztlich, und das ist in unserem Kontext von besonderer Bedeutung, besaß der Brow- ser eine neues Verfahren, Hyperlinks einzubetten (als hervorgehobener oder unterstrichener Text), was etwas ermöglichte, das wir als das ›Klicken‹ eines Hyperlinks kennen, um bestimmte Inhalte abzurufen. In älteren Browsern hatten die Hyperlinks noch Referenznummern, welche die Nutzerin eintipp- 50 Lucas D. Introna te, um zu einem verlinkten Dokument oder Inhalt zu gelangen.7 Die neuen, eingebetteten Hyperlinks erlaubten es dem Nutzer, einfach auf ein Objekt zu klicken (Text oder Bild) und so ein Dokument abzurufen. Die New York Times beschrieb den Mosaic-Browser als »eine derart verschiedenartige und so of- fensichtlich nützliche Anwendungssoftware, dass sie eine neue Branche wie aus dem Nichts entstehen lassen könnte«.8 Mit diesem standardisierten und plattformübergreifenden Browser konnte der individuelle Zugriff auf Inhalte erheblich dynamischer kuratiert werden. Wichtiger noch: Durch den Browser mit eingebetteten Hyperlinks wird die Nutzerin zur Kuratorin der Inhalte auf ihrem eigenen Screen. Durch das Kli- cken auf Hyperlinks wurden die nachfolgenden Inhalte von der Nutzerin be- stimmt, was individualisierte Reisen durch die Inhalte erlaubte, welche wiede- rum alle von einer standardisierten GUI kuratiert wurden (Webbrowser). Dies stellte einen entscheidenden Entwicklungsschritt hinsichtlich der Produktion des beeindruckbaren Subjekts dar. Traditionelle Medien wie Radio, Fernse- hen und Zeitschriften sind allesamt ›Schubmedien‹. Mit anderen Worten: Der Medieninhalt wird hier vom Verleger oder Herausgeber bestimmt. Daher ist es für den Betrachter verhältnismäßig leicht, die Medieninhalte als irrelevant abzutun – womit der Blick des Subjektes verloren geht. In der hyperverlink- ten Datenstruktur (die durch die Entwicklung von HTML ermöglicht wurde), kann auf den Inhalt vom Nutzer (oder Browser) selbst, gemäß vermeintlich individueller Entscheidungen, ›zugegriffen‹ werden. Dieses ›Zugriffs-Modell‹ bringt das Subjekt demzufolge als ein Subjekt hervor, das scheinbar eigene Entscheidungen trifft, eigene Inhalte kuratiert und das alles den eigenen Inte- ressen entsprechend. Daher wurde das meiste, was auf dem Screen auftauch- te nun als relevant wahrgenommen – vielleicht auch die Werbung. Natürlich, auch diese ›freien‹ Entscheidungen werden von dem Herausgeber subtil kura- tiert, beispielsweise durch die auf einer Webseite zur Auswahl gestellten Links etc. Folglich geht damit auch eine subtile Hervorbringung von Handlungsträ- gerschaft einher. Gleichwohl wird durch das Hyperlinking nicht nur Relevanz erzeugt, sondern, und das ist ebenso bedeutsam, es werden auch zunehmend individualisierte Subjekte produziert – Subjekte also, die entsprechend ihres Surfverhaltens kategorisiert werden können, was wiederum für die Erzeugung des beeindruckbaren Subjekts von entscheidender Bedeutung ist. Kurzum: Es wurde eine Mannigfaltigkeit an Mechanismen und Techniken der Wissens- produktion etabliert. 7 | Die vorhergehende Version VioalaWWW, auf der Mosaic aufbaute, erlaubte auch eingebettete Hypertextlinks, es handelte sich allerdings nicht um einen plattformüber- greifenden Browser (Windows, Mac OS und Linux). 8 | http://history-computer.com/Internet/Conquering/Mosaic.html (zuletzt abgeru- fen am 20. Februar 2016). 2. Die algorithmische Choreographie des beeindruckbaren Subjek ts 51 Werbebanner tauchten überall auf dem Screen der Nutzerin auf. Aber konn- ten diese das Subjekt auch beeindrucken? Nur Werbungen, die als Impressionen produziert wurden, bringen angeregte Subjekte hervor, Subjekte also die sich kon- vertieren lassen. Könnte es nicht sein, dass die schiere Anzahl an auftauchenden Werbeanzeigen das angeregte Subjekt in ein gelangweiltes Subjekt verwandelt? Eine Wissensvorrichtung wurde also notwendig, um festzustellen, ob das blicken- de Subjekt auch tatsächlich zu einem beeindruckten Subjekt geworden war. das Werden des angeregten Subjek tS: die er Zeugung Von ›interesse‹ als durchKlicKen Das erste anklickbare Werbebanner auf einem Computerscreen wurde am 24. Oktober 1994 lanciert. Es handelte sich um eine Werbung für AT&T und wur- de auf der Webseite von Hotwire, dem Vorgänger des Magazins Wired, ange- zeigt. Die Werbung besagte lediglich »Have you ever clicked your mouse right here?« und indizierte mit einem Pfeil »you will« (Abb. 2.3). Offenbar folgten 44  % derjenigen, die die Werbung gesehen hatten der Anregung und klickten auf das Werbebanner, was einen erstaunlichen Wert darstellte, sicherlich aber auch mit der Neuheit einer solchen Anzeigeform in Verbindung stand. Die Werbeagenturen verfügten mit dem Durchklicken nun über eine Währung (oder Metrik), die angab, dass die Fixierung des Blickes des Subjekts tatsächlich von Belang war und das Subjekt ein beeindruckbares war. Mit der anklickbaren Werbung transformiert sich der Blick des Subjektes. Das Anklicken des Werbebanners erzeugt die Potentialität eines ›interessier- ten Subjekts‹. Das Subjekt ist nun mit einem neuen »Vermögen ausgestattet, das Unterscheidungen hervorbringt« (Callon/Muniesa 2005, S. 1235).9 Das Klicken erzeugt ein angeregtes Subjekt und eine Feedbackschleife. Werbekampagnen können nun überwacht und optimiert werden. Abb. 2.3: Anklickbare Werbung von AT&T, angezeigt auf Hotwire (1994). 9 | Die Übersetzung dieses und aller folgenden Zitate aus Werken, von denen keine deutsche Übersetzung vorliegt, stammen von mir. A.d.Ü. 52 Lucas D. Introna So lässt sich die Werbeanzeige beispielsweise auf verschiedenen Stellen des Screens platzieren und eruieren, wie viele Klicks sie an der jeweiligen Stelle provoziert. Die frühen Werbebanner (wie die in Abb. 2.3) waren ›hard-coded‹ oder direkt in den HTML-Code der Webseite eingefügt. Dieses Vorgehen war recht unflexibel und erlaubte keine dynamische Bedienung der Bannerwer- bungen, ebenso rigide war das Verfahren hinsichtlich der Sammlung von Daten über das Klickverhalten der Nutzer. Daher war ein neuer Akteur inner- halb der soziomateriellen Assemblage vonnöten: der Adserver. Der Adserver blendet Werbungen dynamisch in prädefinierten und standardisierten Stellen oder an vom Browser angeforderten Stellen ein. Anfangs waren die Adserver auf dem Webserver des Herausgebers platziert. Es war freilich nur eine Frage der Zeit, bis die Funktion auf externe Adserver (sogenannte third-party ad-ser- ver) ausgegliedert wurde. Einer der ersten entkoppelten und ›zentralisierten Werbeserver‹ war der SmartBanner der Firma Focalink. In einer Pressemittei- lung vom 05. Februar 1996 gab Focalink an, dass SmartBanner »tausende verschiedene Werbebotschaften halten und hunderte Webseiten gleich- zeitig bedienen kann. Es erlaubt Vermarktern die Kontrolle über ihre Internetwerbung auszuüben und die geeignetsten Werbebotschaften an ausgewählte Kundensegmen- te zu übermitteln. […] Bisher war das Internetmarketing auf das Gießkannenprinzip beschränkt.«10 Diese sich rapide verändernden Rahmenbedingungen, unter denen Werbe- inhalte dynamisch geschaltet werden konnten, machten Größen- und Platzie- rungsstandards für die kreativen Inhalte notwendig, um deren Entwicklung zu erleichtern. Ein Set an Regeln für Anzeigewerbung wurde 1996 von dem neu gegründeten Interactive Advertising Bureau (IAB) erstellt, das es erlaubte, Werbungen ohne Überleitungen in Browsern wiederzugeben (Goldfarb/Tu- cker 2014). Diese Standardisierungen wurden von Werbern nicht immer für gut befunden, zumal sie die Entstehung von standardisierten Räumen der Ir- relevanz (sogenannte ›Gossen‹ [»Gutters«] an den Seitenrändern) erleichterte. Dabei handelt es sich um Räume, in denen Werbung von vornherein erwartet und damit als weniger relevant oder sogar als irrelevant angesehen wird (Gold- farb/Tucker 2014). Mit der rapiden Vermehrung von anklickbaren Werbebannern und der gleichzeitigen Explosion von Verlegern – jeder Hersteller einer Webseite war schließlich ein potentieller Verleger – begannen die Klickraten zu fallen.11 10 | www.thefreelibrar y.com/Major+Companies,+Ad+Agencies+Using+New+Inter- net+Ad+Server%3B+Focalink’s.-a017920427 (zuletzt abgerufen am 20. Februar 2016). 11 | w w w.c om s c or e.c om/In s ig h t s/P r e s s - Re le a s e s/20 0 9/10/c omS c or e - and - Starcom-USA-Release-Update-Natural-Born-Clickers-Study-Showing-50-Percent- 2. Die algorithmische Choreographie des beeindruckbaren Subjek ts 53 Um ein Beispiel zu geben: 2011 konnte die Anzeige eines Werbebanners eine durchschnittliche Klickrate von einem Klick je 1000 Impressionen erwarten, also eine Klickrate von 0,1 %.12 Darüber hinaus gibt es zahlreiche Belege dafür, dass das Anklicken nicht unbedingt ein gutes Indiz für die erfolgreiche Her- vorbringung eines beeindruckbaren Subjektes ist (d.h., das es voraussichtlich konvertieren wird).13 Letztlich realisierte eine nicht unerhebliche Anzahl von Akteurinnen, dass sich Werbeeinnahmen auch mit Softwareprogrammen er- wirtschaften ließen, die Klicks generieren (sogenannte Clickbots), und es wur- de in der Folge zunehmend Software für solchen Klickbetrug entwickelt. Das wiederum rief ein ganzes Set an neuen Akteuren auf den Plan, die versuchten den Unterschied von beeindruckten Subjekten und nicht beeindruckten Click- bots zu ermitteln (Walgampaya/Kantardzic 2011). Die Anregung eines Subjekts genügt nicht, um ein beeindruckbares Sub- jekt zu formen. Das angeregte Subjekt muss derart transformiert werden, dass es sich auf besondere Weise positionieren lässt, d.h. das Subjekt muss indivi- duiert werden. Gefragt war also ein detaillierteres Wissen – ein Wissen, das eine spezifischere Positionierung des Subjektes ermöglichte. das Werden des individuierten Subjek tS: die ProduK tion eines schat tens durch cooKies Um ein beeindruckbares Subjekt zu erzeugen und nicht bloß einen ›natural born clicker‹, der nur zum Spaß klickt, braucht es mehr als die Fixierung des Blicks und die Anregung des Subjekts. Möglicherweise bedarf es einer sehr viel raffinierteren Choreographie des einzelnen Subjekts und der einzelnen Werbung, um Interesse und Relevanz zu generieren. Ist es etwa gar notwen- dig, das Subjekt zu verfolgen, es zu ›stalken‹? Der Klickende muss individuiert werden, oder zumindest innerhalb eines bestimmten Kategoriensets spezifi- ziert werden. Solche Praktiken der Nachverfolgung und des Stalkings setzen allerdings einen dauerhaften und ununterbrochenen Interaktionsstrom voraus, dessen Gewährleistung in einer Welt zustandsloser Protokolle eine große He- rausforderung darstellt. Sowohl das Internetprotokoll (IP, die Grundlage des Internets) als auch das Hypertext Transfer Protocol (HTTP, die Grundlage der Datenübertragung des World Wide Web) sind zustandslose Protokolle. Drop-in-Number-of-U.S.-Internet-Users-Who-Click-on-Display-Ads (zuletzt abgerufen am 20. Februar 2016). 12 | www.smartinsights.com/internet-adver tising/internet-adver tising-analytics/dis play-advertising-clickthrough-rates/ (zuletzt abgerufen am 20. Februar 2016). 13 | www.adexchanger.com/research/clickthrough-rate-rethink11/ (zuletzt abgerufen am 20. Februar 2016). 54 Lucas D. Introna Im Jahre 1994 veröffentlichte Netscape einen Internetbrowser, der mit den sogenannten ›Cookies‹ eine neue Technologie eingebaut hatte.14 Deren voll- ständige Bezeichnung lautete ›Persistent Client State HTTP Cookies‹ (Kris- tol 2001). Als Teil der Entwicklung von Anwendungen für den elektronischen Handel war es ihre Aufgabe, das praktische Problem des Speichermangels innerhalb der Klient-Server-Beziehungen zu lösen. Vor der Entwicklung von Cookies war jede wiederkehrende Interaktion zwischen Kunde und Server stets so wie die erste Interaktion, ganz so, als würde man einen Warenauto- maten bedienen. Die Computerwissenschaftler sprechen diesbezüglich von ›Zustandslosigkeit‹. Die Interaktion ist ›zustandslos‹ in dem Sinne, dass jede Anfrage vollkommen unabhängig von den vorhergegangenen bearbeitet wird. Dies ist ein wesentliches Konstruktionsmerkmal des Netzwerkes, das diesem ein erhebliches Maß an Flexibilität und Belastbarkeit ermöglicht. Allerdings verhinderte die Zustandslosigkeit, dass die multiplen Interaktionen in einer mehrstufigen Transaktion zusammengehalten bzw. gebündelt werden konn- ten, so wie es beispielsweise bei einer Transaktion im elektronischen Handel gang und gäbe ist. Um diesen Mangel eines interaktionellen Verlaufsgedächt- nisses zu beheben, wurde der Cookie (eine Art provisorischer Identitätsmarke) auf dem Kundenrechner platziert, sodass dieser identifiziert und Informa- tionen über den Interaktionsverlaufs des Kunden archiviert werden konnten. Mithilfe dieser Informationen konnte der Server das Interaktionsverhalten des Kunden zurückverfolgen, falls dieser wiederkehrte. Wenn ein Browser oder Nutzer zum Beispiel die Webseite der New York Times (Server) besucht, plat- ziert dieser einen Cookie auf dem Rechner, von dem die Anfrage kam (Kunde). Einzig und allein die New York Times (NYT) kann den Cookie in der Folge lesen oder aktualisieren – dieses Sicherheitskonzept wird Gleiche-Herkunft- Richtlinie genannt. Dies erscheint insofern sinnvoll, als der Browser/Nutzer die Interaktion durch den Besuch der NYT Webseite eigens initiierte und da- von auszugehen ist, dass er sich den Ablauf zukünftiger Interaktionen im Falle seiner Wiederkehr möglichst reibungs- und mühelos wünscht. Indes, mit der Nutzung externer Adserver (third-party ad-server), interagiert der Browser indirekt (und unwissentlich) mit Dritten, (die in die Inserierung von Werbeanzeigen involviert sind, welche zwischen die Inhalte der NYT ge- schaltet werden). Mit der Cookie-Technologie von Netscape sind diese dritten Parteien (bspw. Adserver) ebenso in der Lage, Cookies auf dem Rechner des Browsers zu lesen und zu platzieren. Folglich kann der Adserver jedes Mal, wenn der Browser eine Webseite eines der Kunden des Adservers oder der ent- sprechenden Werbeagentur besucht, seine Cookie-Aufzeichnungen aktualisie- ren. Das ermöglicht dem Adserver die Erstellung eines umfassenden Bildes der Webseitenbesuche eines Browsers, was wiederum bedeutet, dass er ohne Wis- 14 | Der Browser von Netscape baute auf dem Mosaic-Browser auf. 2. Die algorithmische Choreographie des beeindruckbaren Subjek ts 55 sen des Internetbrowsers dessen Verhalten ›beobachten‹ kann. Es ließe sich vielleicht sagen, dass der externe Adserver die Nutzerin stalken kann, wenn sie browset. Die Abbildung 2.4 listet beispielhaft 16 externe Cookies auf (ermittelt mit einem add-on namens Ghostery), die auf einem Rechner platziert wurden, als er die Webseite des Guardian besuchte. Mit diesen Spuren lässt sich der Browser/Nutzer segmentieren, er lässt sich zu einem individuierten Subjekt machen, das sich für einen bestimmten Typ von Werbung interessieren könnte, anstatt nur ein Klicker zu sein. Abb. 2.4: Externe Cookies bei einem Besuch der Webseite der Zeitung Guardian. Als die Normen und Standards für Cookies von der Internet Engineering Task Force (IETF) festgelegt wurden, blieb das von Netscape eingeführte und um- strittene Schlupfloch der third-party cookies bemerkenswerterweise erhalten 56 Lucas D. Introna (Shah/Kesan 2009). Ein Grund hierfür bestand darin, dass sich die Task Force so lange nicht auf ein Abkommen einigen konnte, bis bereits ein neues Werbe- geschäftsmodell entstanden war, für das die bestehende Cookie-Technologie eine notwendige Bedingung darstellte. Während dieser langen Verhandlungs- phase war Netscapes Cookie-Anwendung de facto bereits zum Standard ge- worden und es wurde enormer Druck vonseiten der Werbeindustrie ausgeübt, diesen Status quo auch beizubehalten. Die Kombination von Cookie-Daten mit Daten aus traditionellen Aggrega- toren erlaubte den Werbeagenturen ein feinkörniges Tracking und Targeting – so zumindest die Vermutung. Das erste Unternehmen, das ein elaboriertes Tracking- und Targetingsystem entwickelte war DoubleClick. Sie nannten es ›Dynamic Advertising Reporting and Targeting System‹ oder (DART)-System. Dieses System automatisierte einen großen Teil des Kaufs- und Vertriebszyk- lus und erlaubte es den Werbekunden, ihre Kampagnen über eine große An- zahl von Webseiten hinweg nachzuverfolgen. Zudem wurde das System zum Katalysator für ein Vorgehen, das auf der Cookie-Technologie basierend als be- havioral targeting bekannt wurde (Jaworska/Sydow 2008). Ein weiterer Ansatz, der von Google auf den Weg gebracht wurde, besteht darin, das beeindruckbare Subjekt durch die Assoziation bestimmter Schlag- wörter (sogenannter AdWords) hervorzubringen. Die Werber erstellen Wer- bungen und ordnen diesen bestimmte Schlagwörter zu, die sie als relevant für ihre Dienstleistung und Produkte ansehen und die sie ersteigern (Chen et al. 2009). Sobald diese Schlüsselwörter von einer Nutzerin eingegeben werden, erscheint die Werbung nebst der Ergebnisse der Suchmaschine. Dies erlaubt es wiederum der Nutzerin die Werbeanzeige anzuklicken und so auf die Web- seite des Unternehmens weitergeleitet zu werden. Google zufolge ermöglicht es AdWord-Nutzern ein »Publikum zu bewerben, dass bereits zuvor an Ihnen interessiert war«. Die AdWords sind auch in andere Anwendungen von Google eingebettet, etwa in Gmail und Youtube. So durchsucht Google beispielswei- se Emails in Gmail nach Schlagwörtern und schaltet Werbeanzeigen, die mit diesen in Verbindung stehen – ein Verfahren, das als search and contextual ad- vertising bekannt ist.15 Das beeindruckbare Subjekt wird individuiert und durch dessen Hyperlink- Reisen und Suchanfragen erzeugt. Das beeindruckbare Subjekt wird über das her- vorgebracht, was es besucht und das wonach es sucht. Dabei wird dieses Subjekt in erheblichem Maße über Aktivitäten hervorgebracht, die ohne aktive menschli- che Beteiligung auskommen. Hierbei sind bedeutende algorithmische Akteure involviert, auf die wir hier allerdings nicht weiter eingehen können (Castelluc- 15 | Search and contextual advertising lässt sich als branchenspezifischer Begrif f schwer ins Deutsche übersetzen. ›Semantisches Targeting‹ oder Kontext-Targeting‹ tref- fen es vielleicht noch am ehesten. A.d.Ü. 2. Die algorithmische Choreographie des beeindruckbaren Subjek ts 57 cia 2012). Es lässt sich eine gesteigerte Sensibilität gegenüber den Stalking-Al- gorithmen verzeichnen, ebenso zunehmende Versuche diese zu untergraben. Ein Beispiel hierfür wäre die ansteigende Verwendung algorithmischer Akteu- re wie Trackmenot, um die Stalker zu verwirren (Nissenbaum/Brunton 2013). Auch der Ausstieg aus dem Tracking ist möglich, allerdings sind die Kosten hierfür zumeist kaum überschaubar. Gleichzeitig existieren auch nennenswer- te Bemühungen, das Cookie-Paradigma zu durchbrechen, ein Beispiel hierfür wäre das ›Browser Fingerprinting‹ (Nikiforakis et al. 2014).16 ein markierteS/gebr andmark teS Subjek t werden: marKenaffinität und die aKribische choreogr aPhie Von handlungstr ägerschaf t »›Brand‹« (Marke) – Deutsch ›Brand‹, auch ›brennen‹. Die Bedeutung des Verbs ›mit hei- ßem Eisen brandmarken‹ stammt aus dem Spätmittelalter, woraus sich die Bedeutung des Substantivs ›Brand‹ (Marke) als ›eine Besitzmarkierung durch brandmarken‹ seit der Mitte des 17. Jahrhunderts erschließt.« In einer Welt des exponentiellen Internetwachstums generieren und archivie- ren Cookies Unmengen von Daten.17 Darüber hinaus kann jede Webseite mit- hilfe dynamischer Adserver potentiell als ein Publikationsort fungieren und damit Teil des sogenannten ad inventory werden, unabhängig davon, wie lange ein Nutzer letztlich eine Webseite besucht.18 Wir haben es also mit einer ex- plosionsartigen Ausbreitung möglicher Publikationsorte für Werbung zu tun, also einer rapiden Proliferation des ad inventory und das macht es schwierig, den Blick des Subjektes zu binden bzw. zu disziplinieren. Die Schwierigkeit besteht darin, eine verlässliche Relation zwischen dem Subjekt und der Wer- bung zu etablieren, die notwendig dafür ist, das Subjekt als ein beeindruck- bares hervorzubringen. Angesichts dieser Ausdehnung des ad inventory und der Explosion der Tracking-Daten erweisen sich die Choreographie und Be- 16 | Die Einzigartigkeit des eigenen Browsers lässt sich hier testen: https://panoptic- lick.eff.org 17 | Einem Bericht von Cisco zufolge wird der jährliche IP-Verkehr die Zettabyte- Schwelle (1000 Erabytes) 2016 überschreiten; ein Zettabyte ist gleich einer Sextillion (1021) oder strenggenommen 270 Bytes. www.cisco.com/c/en/us/solutions/collateral/ service-provider/visual-networking-index-vni/VNI_Hyperconnectivity_WP.pdf (zuletzt abgerufen am 20 Februar 2016). 18 | Historisch wird der Werberaum auf einer Webseite als wertvoller erachtet und je tiefer wir in eine Webseite gehen (›Session Depth‹) desto weniger wertvoll wird das Werbeinventar. 58 Lucas D. Introna gegnung als zunehmend komplexe Unterfangen und eben diese Komplexität macht neue Technologien notwendig, um ein noch intrikateres Wissen über das Subjekt zu produzieren. Was nun nötig wird, ist die Choreographie von Handlungsträgerschaft zwi- schen individuiertem Subjekt, individuiertem Inhalt und individuiertem Publika- tionsort (zu einem angemessen Preis). Bei einer solchen Choreographie von Handlungsträgerschaft ist das Timing entscheidend. Drei neue und miteinander verflochtene Akteure sind für die Choreographie unter diesen Umständen er- forderlich. Erstens, ein Akteur, der das Subjekt zu einem besonderen und sehr spezifischen beeindruckbaren Subjekt individuiert (Lernalgorithmen). Zwei- tens, ein Akteur, der eine einzelne Impression am richtigem Ort und zum rich- tigen Preis in Echtzeit verkaufen und kaufen kann (Real Time Bidding-Algorith- men). Drittens, ein Akteur, der in Lage ist, dynamisch kreativen Inhalt für das spezifische Subjekt zur richtigen Zeit zu generieren. Auf diese Art und Weise kann das beeindruckbare Subjekt und die korrelierende kreative Werbung so kuratiert und choreographiert werden, dass sie sich zum richtigen Zeitpunkt (in Echtzeit) und zum richtigen Preis begegnen. Die minutiöse Kuratierung des beeindruckbaren Moments wird das Subjekt markieren. Wie wird diese on- tologische Choreographie genau verwirklicht? Um die Hervorbringung dieser soziomateriellen Assemblage zu erörtern, werden wir die Praktiken eines Unternehmens fokussieren, das unter dem Namen Media6Degrees bekannt wurde, sich gegenwärtig allerdings Dstillery nennt. Das tun wir aus zwei Gründen: Erstens hat die führende Wissenschaft- lerin des Unternehmens Claudia Perlich großzügiger Weise eine Reihe von Arbeiten publiziert, in denen sie das Vorgehen des Unternehmens beschreibt (Perlich et al. 2014; Perlich et al. 2012; Dalessandro et al. 2012; Reader et al. 2012). Zweitens arbeitet Dstillery eher prospektiv und betreibt weniger Retar- geting. Prospecting bezeichnet ein Verfahren, in dem Werber sich auf Subjekte ausrichten, mit denen sie zuvor nicht in Interaktion standen, die sie aber gleich- wohl für beeindruckbare Subjekte halten. Das Prospecting zielt so auf die ›Ver- besserung der Durchschlagskraft der eigenen Marke‹. Die meisten Choreo- graphisierungen, die wir oben diskutiert haben, basierten auf der Praxis des Retargetings, es handelte sich also um Fälle, in denen die Werber sich auf Sub- jekte konzentrierten, mit denen sie zuvor schon interagiert hatten (zum Bei- spiel über den Besuch ihrer Webseite). Im Prospecting ist die algorithmische Erzeugung des beeindruckbaren Subjekts besonders entscheidend und indi- kativ für die Entwicklungen, welche die Online-Anzeigenwerbung zukünftig nehmen könnte. 2. Die algorithmische Choreographie des beeindruckbaren Subjek ts 59 die ProduK tion des indiViduiert marKierten/ gebr andmarK ten subjeK ts Um die Internetaktivitäten (oder ›markenspezifischen Signale‹) eines brow- senden Subjektes in die Aktivitäten eines beeindruckten Subjektes zu transfor- mieren, wird maschinelles Lernen (oder award-winning data science) eingesetzt. Maschinelles Lernen setzt große Datenmengen, eine sehr leistungsfähige In- frastruktur zur Datenverarbeitung sowie mathematisch-maschinell lernende Algorithmen voraus. Maschinelles Lernen verfährt induktiv, im Unterschied zu herkömmlicher künstlicher Intelligenz, die deduktiv vorgeht. Es setzt also beim tatsächlichen Verhalten an oder zumindest an den Daten, die dieses Ver- halten generiert. Mittels statistischer Verfahren versucht es sodann Modelle dieser Erfahrung bzw. dieses Verhaltens zu bilden, um beispielsweise zukünf- tiges Verhalten vorherzusagen, Verhalten zu kategorisieren oder zu klassifi- zieren, ähnliche Verhaltensweisen anzugleichen, zu gruppieren etc.19 Diese Modelle können dann – gestützt auf neuen Daten zu konkreter Erfahrung/ konkretem Verhalten – permanenter und automatischer Revision (oder Lern- prozessen) unterzogen werden. Je höher die Qualität und Menge an Daten, die die Modelle verarbeiten, desto besser ihre Leistung. Das ist der Grund dafür, dass Google uns mit seinen Applikationen ›umsonst‹ interagieren lassen will, denn die Interaktionen generieren Daten und die Daten erlauben eine feinfa- serige Individuation des Subjekts. Je individuierter das Subjekt desto wertvol- ler ist es hinsichtlich seiner Beeindruckbarkeit. Mithilfe der Lernalgorithmen kann sich diese Individuation automatisch vollziehen und so das einzigartige und im hohen Maße beeindruckbare Subjekt, einen Markt des Einzelnen (mar- ket of one) hervorbringen. Dstillery beschreibt das wie folgt: Einmal Klicken, einmal Antippen, einmal Wischen, eine GPS-Suchanfrage. Dies sind nicht nur Handlungen, es sind Signale… Wir sammeln Daten entlang des gesamten Konsumentenwegs. Daraufhin extrahieren wir den wichtigsten Bestandteil: die Muster geteilter Verhaltensweisen, die eine Verbindung zu Ihrer Marke aufzeigen… Wir nutzen diese Muster, um das reinste mögliche Publikum für Sie zu destillieren, also die Leute, die sich mit wissenschaftlich nachgewiesener Wahrscheinlichkeit auf Ihre Marke ein- lassen werden.20 19 | Spamfilter, Empfehlungsdienste (Amazon, Netflix), Googles Autovervollständi- gung etc. sind alles Anwendungssoftwares, die auf maschinell lernenden Algorithmen basieren. 20 | www.dstillery.com/how-we-do-it/ (zuletzt abgerufen am 15. November 2015); Herv. L.I. 60 Lucas D. Introna Dstillery hat Partnerabkommen, die in etwa einhundert Millionen Webseiten abdecken. Für einige dieser Seiten managen sie Werbekampagnen, so etwa für AT&T, Adobe, British Airways, Verizon, Best Western, American Express etc. Im Jahr 2012 arbeiteten sie mit 300 Firmen (sie bezeichnen diese als ›Marken‹) zusammen. Auf den Webseiten der Klienten platzieren sie ihre action pixels, auf jenen ihrer ›Datenpartner‹ platzieren sie mapping pixels. Zählpixel (oder Pixel- tags) sind auf einer Webseite zum Download unsichtbarer Inhalte ausgestellte HTTP-Anfragen, um eine HTTP-Transaktion zu verursachen, die so das Set- zen archivierbarer Daten bzw. das Platzieren von Cookies ermöglichen. Zähl- pixel haben keinerlei visuelle Effekte auf der jeweiligen Webseite. Ihre einzige Funktion besteht darin, Dstillery (also einem Dritten) die Möglichkeit zu eröff- nen, einen Cookie auf der Browserseite zu platzieren oder einen zuvor platzier- ten zu aktualisieren. Die action pixel versorgen Dstillery mit Daten darüber, was auf den Webseiten ihrer Kunden vor sich geht (Konversionsaktionen), die mapping pixels hingegen legen Daten über die Webseitenbesuche des Browsers an – sie archivieren gewissermaßen Daten über die Browsergeschichte. Dstil- lery nutzt diese Daten um ein lineares Regressionsmodell zu erschaffen, in welchem die ›Mapping-Daten‹ die Eigenschaften definieren (die X-Werte) und die ›Action-Daten‹ die Kategorien (Wert oder Firmenmarke). Dabei kommen gewaltige Modelle heraus, die einhundert Millionen mögliche Datenpunkte innerhalb des beobachteten Datenraums angeben (z.B. einhundert Millionen URLs, die sie beobachten). Diese könnten in etwa wie folgt aussehen: APi=aMP1+bMP2+cMP3 …+nMPN (wo N=100 Millionen) Die zugrunde liegende Logik dieser Lernmodelle besteht darin, dass die zu- letzt besuchten Seiten, der Weg des Browsers ein sehr guter Proxy für Konver- sion darstellt (Dalessandro et al. 2012). Die Annahme ist folgende: Wenn mir ein Modell der von einer Person besuchten Webseiten zur Verfügung steht (die Merkmale gemäß der mapping pixels), die konvertierte (action pixels), dann wird eine Person mit einer ähnlichen Reihe besuchter Seiten eine genauso hohe Konversionswahrscheinlichkeit aufweisen, sofern ihr relevante Werbungen ge- zeigt werden (in Bezug auf die anfängliche Konversion). Das erlaubt Dstillery »die Leute auf einer beschleunigten Konversionsbahn zu platzieren«.21 Sie be- haupten, dass das jüngste Set an besuchten Webseiten, die gegenwärtigen Inte- ressen, Bedürfnisse, Begehren und Wünsche des Subjektes besser ›einfängt‹ als dessen rezentes Erwerbsverhalten oder längerfristig orientierte Verhaltens- modelle, wie sie im herkömmlichen Marketing typischerweise genutzt werden (Dalessandro et al. 2012). Ein Browser der mit dem Modell eng korreliert, wird 21 | www.fastcompany.com/1840817/media6degrees-knows-what-you-want-buy- even-you-do (zuletzt abgerufen am 20. Februar 2016). 2. Die algorithmische Choreographie des beeindruckbaren Subjek ts 61 mit einer hohen ›Markenaffinität‹ etikettiert. Die Browser werden so nach ho- her und niedriger Markenaffinität gelistet und geordnet. Perlich zufolge wei- sen die an der Spitze gelisteten Subjekte (diejenigen mit der höchsten Mar- kenaffinität) »eine mindestens viermal höhere Konversionswahrscheinlichkeit auf, als eine beliebige Gruppe von Leuten, die die gleiche Werbung sieht«.22 Durch den Aufbau und die Nutzung markenspezifischen maschinellen Lernens kann ein Subjekt in eine Rangliste potenzieller Zielscheiben (beein- druckbare Subjekte) eingespeist werden und so in Hinblick auf alle von der Firma geführten Werbekampagnen klassifiziert werden. Wie schon angedeu- tet wird das Subjekt an der Spitze gelistet, dessen Set an Webseitenbesuchen dem Referenzmodell für eine bestimmte Marke am ehesten entspricht. So ent- steht ein Ranking bis hin zu den Subjekten mit der geringsten Markenaffinität. In einem solchen maschinell lernenden Modell besitzt jede Webseite einen Kennwert, der den Beitrag zur Prognosekraft des Modells indiziert. Dement- sprechend sind auch nicht alle Webseitenbesuche von gleicher Bedeutung für das Modell. Die Relevanz einer jeden Seite als Datenressource für ein jeweili- ges Modell wird fortlaufend überprüft um sicherzustellen, dass die jeweiligen Webseitendaten einen Prognosewert für das entsprechende Markenmodell lie- fern (Reader et al. 2012). Dieses Ranking an Erfolgsaussichten kann auch als Zielgruppe bezeichnet werden (oder in unseren Worten, als eine ansteigende Rangliste beeindruckbarer Subjekte für eine bestimmte Kampagne). Dstillery verfolgt ungefähr einhundert Millionen solcher ›Prospects‹ zu jeder Zeit. Die Ranglisten zu jeder Kampagne werden auf der Basis neu verfügbarer Daten fortlaufend aktualisiert. Folglich wird das Modell in seinem Unterscheidungs- vermögen auch fortlaufend raffinierter. Das anfängliche Modell zu einer Kam- pagne wird über einen Lerntransfer aus ähnlichen Kampagnen/Produkten realisiert (Perlich et al. 2014). Es gilt festzuhalten, dass diese Modelle gemäß dem Korrelationsprinzip arbeiten. Sie gehen davon aus, dass wir uns ähnlich verhalten (Konversionsverhalten) wie andere, die sich in einem anderen Zu- sammenhang (hinsichtlich des Browsing-Verhaltens) ähnlich verhalten haben. Eben diese Ähnlichkeiten konstituieren uns als beeindruckbare Subjekte mit bestimmten Markenaffinitäten. 22 | www.fastcompany.com/1840817/media6degrees-knows-what-you-want-buy- even-you-do (zuletzt abgerufen am 20. Februar 2016). 62 Lucas D. Introna die ProduK tion einer indiViduierten begegnung (Zum richtigen Preis) Sobald ein browsendes Subjekt für alle von Dstillery bewirtschafteten Marken bewertet (nach Markenaffinität klassifiziert) wurde, muss eine Gelegenheit ge- funden werden, relevante Werbung zu zeigen. Nehmen wir an, dass der Brow- ser einen Link zu einer häufig besuchten Webseite wie die der NYT anklickt und sich auf dieser Seite potentieller Werberaum befindet. Nun wird ein Sig- nal an den Adserver übermittelt, der das Signal wiederum an die Ad-Exchange (hier treffen Kauf- und Verkaufsalgorithmen aufeinander) weiterleitet. Eine Ausschreibung wird angesetzt und es wird eine Auktion in Echtzeit abgehal- ten. Der erfolgreiche Bieter erhält das Recht in dieser Sitzung eine bestimmte Anzahl an Impressionen zu einem bestimmten Preis zu zeigen. Sobald der Inhalt im GUI des Browsers ankommt, wird es die Werbeanzeige des erfolg- reichen Bieters eingefügt haben. Dies alles geschieht in einer Zeitspanne von 100 Millisekunden (das Blinzeln eines Menschen nimmt typischerweise 300 Millisekunden in Anspruch). Die eingebettete Werbung kann entweder ein Standardartefakt sein, das für die Kampagne erstellt wurde oder es kann dy- namic creative optimization (Optimierung von Werbekampagnen in Echtzeit) angewandt werden. Das ist der Moment in dem die Werbeanzeige kunden- spezifisch an das beeindruckbare Subjekt für eine spezifische Impression an- gepasst wird. Anstatt dem Subjekt die immer gleiche Werbung zu zeigen, ist es möglich, dem Subjekt eine ganze Reihe von spezifizierten Werbungen zu zeigen, die es möglich machen, das Subjekt anzustacheln bevor es beispiels- weise ein bedingtes Angebot wie ›Nur heute im Angebot!‹ zu sehen bekommt. Die letzte Stufe in diesem ›Agencement‹ oder dieser Assemblage besteht darin, die Konversionen zu überwachen und die Bewertung der Markenaffini- tät ebenso wie die Modelle zu aktualisieren, und das bedeutet: von konkreten Erfahrungen zu lernen. Wenn sich ein Browser mit hoher Markenaffinität bei- spielsweise nicht auf eine Konversionsaktivität einlässt, werden die Modelle angepasst, um dies zu berücksichtigen. All diese Aktualisierungen und Kont- rollen laufen automatisch ab. Darüber hinaus überwachen andere maschinell lernende Modelle die Datenströme, um die Intaktheit und Vollständigkeit des algorithmischen Ganzen sicher zu stellen (Reader et al. 2012). Hierbei geht es beispielsweise um die Eliminierung betrügerischer (von Clickbots generierter) Daten oder die Anpassung an plötzliche Veränderungen bei Datenlieferanten usw. Diese drei Schritte – Auswertung von Markenaffinität, Echtzeit-Bieten und die fortlaufende kreative Optimierung – komplettieren die minutiöse Cho- reographisierung und Kuratierung des beeindruckbaren Subjektes. Am Ende soll die richtige Person zur richtigen Zeit mit dem richtigen kreativen Inhalt konfrontiert werden – und das zum richtigen Preis. Man könnte sagen, ein voll- kommen markiertes und gebrandmarktes Subjekt wurde hervorgebracht. Es ist 2. Die algorithmische Choreographie des beeindruckbaren Subjek ts 63 wichtig festzuhalten, dass dies automatisch mittels maschinell lernender Algo- rithmen vonstattengeht und in einem Zeitrahmen von Millisekunden choreo- graphiert wird (zwischen Ihrem Klicken auf einer Webseite und der Ankunft kuratierten Inhalts auf Ihrem Browser). Das erfordert eine extrem komplexe technische Infrastruktur, welche an dieser Stelle im Sinne des Diskussions- flusses vereinfacht und verkürzt dargestellt wurde. Die Hervorbringung des beeindruckbaren Subjekts ist ein großes Geschäft23 und in vielerlei Hinsicht die Speerspitze der technologischen Innovation der Giganten des Internets. einige Überlegungen Zur algorithmischen choreogr aPhie des beeindrucKbaren subjeK ts »Ihr Konsument ist bereit sich zu entscheiden. Alles was es benötigt, ist ein kleiner Stups.« (Webseite Dstillery) Wir haben mehrfach darauf hingewiesen: Das menschliche Subjekt kommt nicht einfach als ein beeindruckbares auf die Welt. Ein solches Subjekt muss mittels vielschichtiger und feinsinniger Choreographisierung hervorgebracht werden, in die heterogene Assemblagen diffuser Handlungsträgerschaften in- volviert sind. In den vorausgegangenen Erörterungen haben wir versucht, die Umrisse dieser Choreographisierungsprozesse zu skizzieren. Dabei haben wir einen bestimmten Komplex an Strömungen und Bewegungen hervorgehoben, den wir herkömmlich unter den Begriff ›technischer‹ (oder genauer: algorith- mischer) Praktiken subsumieren würden. Unsere These besteht indes darin, dass diese Praktiken nie rein ›technischer‹ Natur sind. Vielmehr geht unse- re Behauptung dahin, dass solcherart Praktiken von Beginn an immer schon die Logik – man könnte sagen die Intentionalität – des Ganzen inkorporieren oder vermitteln. Das materiell-diskursive Ganze (das Internet) inkorporiert bereits eine bestimmte Logik (ein Geschäftsmodell), welches bestimmte Formen der Handlungsträgerschaft überhaupt erst hervorbringt. Es handelt sich dabei um ein Geschäftsmodell, dessen Logik in der Tat auf Werbeeinnahmen beruht. Das Geschäftsmodell zwingt die Werbung (und implizit das diskursiv-mate- rielle Ganze) dazu, beeindruckbare Subjekte, also konvertierbare Subjekte her- vorzubringen. Folglich werden die technischen Innovationen von Beginn an als Stätten oder Momente der Erzeugung dieser Subjekte vorgestellt, dessen 23 | Dstillery wurde von Forbes als eines der vielversprechendsten Unternehmen iden- tifizier t. Die Internet-Werbeeinnahmen lagen 2013 allein in den USA bei 42,8 Milliar- den US-Dollar. www.iab.net/about_the_iab/recent_press_releases/press_release_ archive/press_release/pr-041014 (zuletzt abgerufen am 20. Februar 2016). 64 Lucas D. Introna notwendiger Zweck sie sind. Die Kreation der grafischen Benutzeroberflächen (GUI) von Prodigy oder die Erstellung des World Wide Web Browsers (Mosaic) bedeuten nicht lediglich die Herstellung nützlicher Interfaces, sie sind ebenso und zeitgleich Mechanismen der Disziplinierung des Blicks. Es sind Mecha- nismen, um den Blick einzufangen und zu fixieren und so ein Subjekt zu er- schaffen, das dem zur Schau gestellten Aufmerksamkeit schenkt. Dieser Blick fließt nicht unidirektional, und bedeutet, wie Foucault betonte, mehr als das bloße Anschauen von etwas (Foucault 2003).24 Der Blick schafft eine Wissens- beziehung, in welcher das Subjekt konstituiert wird, der Blick reduziert nicht mehr, »er begründet vielmehr das Individuum in seiner irreduziblen Qualität« (Foucault 1999: 12). Die Hypertext- oder Hyperlinkstruktur erlaubt es dem Subjekt, die auf der grafischen Benutzeroberfläche erscheinenden Inhalte dynamisch zu kuratie- ren, während sie oder er die weiten Inhalte des Internets durchquert. Diese Kuration gewährleistet Relevanz. Der Bildschirm hält den Blick fest, weil er ›ab- schirmt‹, er filtert und organisiert, was vermeintlich relevant ist. Die kuratier- ten Bewegungen im Internet produzieren das Wissen, das es den Algorithmen erlaubt ein Subjekt zu erschaffen, das ›Interessen‹, ›Bedürfnisse‹ und ›Wün- sche‹ hat. Das anklickbare Bild verwandelt das Subjekt von einem passiven Zuschauer in ein angeregtes und partizipierendes Subjekt – ein Subjekt, das selbst an der Kuration mitwirkt. Das Subjekt kuratiert nicht allein die Inhalte auf dem Bildschirm mit, sondern insbesondere auch die Werbung, die dort gezeigt wird. Adserver (besonders die Adserver Dritter) nutzen Klickraten zur Optimierung von Werbeanzeigen. Diese Kuration von ›Inhalten‹ durch das an- geregte Subjekt betrifft allerdings nicht allein das, was auf dessen Bildschirm erscheint, es ist gleichzeitig auch die Kuration des beeindruckbaren Subjektes, zu dem die Zuschauerin selbst wird. Die Entwicklung der Cookie-Technologie löst das Problem der zustandslosen Protokolle, aber sie tut noch mehr. Von Third-party-adservern platzierte Third-party-cookies erlauben es aus den kura- tierten Bewegungen durch das Internet (die durch die Hyperlinkstruktur er- möglicht werden), individuierte ›Pfade‹ oder Spuren des ›Wer‹ zu machen, zu dem das surfende ›Ich‹ wird. Die Surfenden kuratieren nicht nur Inhalte, sie kuratieren auch eine riesige Menge an Wissen über ihre vermeintlichen ›Inte- ressen‹, ›Bedürfnisse‹ und ›Wünsche‹. Durch Animierung, Kuratierung und Nachverfolgung wird ein intimes Set an Wissen über das vermutete Subjekt geschaffen. Durch dieses Feld des Wissens kann das Subjekt zugänglich für Intervention und Regulierung gemacht werden – es kann positioniert oder auf spezifische Arten und Weisen regiert werden (Foucault 1991). Wie Foucault 24 | In Die Geburt der Klinik spricht Foucault vom ärztlichen Blick, aber dies gilt auch für den Blick des Subjekts auf sich selbst, wie Rose (1999) anmerkt. 2. Die algorithmische Choreographie des beeindruckbaren Subjek ts 65 feststellte, produzieren Macht und Wissen »Wirkliches […] das Individuum und seine Erkenntnis sind Ergebnisse dieser Produktion« (Foucault 1986: 250). Maschinelles Lernen transformiert all diese Pfade oder Spuren in ›Mar- kenaffinität‹. Riesige Datensätze von 100 Millionen dimensionalen Matrizen kartieren die Internetwege des Subjekts zu sich dynamisch entwickelnden Markenprofilen um ›Affinität‹ zu etablieren. Mit der Zuschreibung von hoher Markenaffinität wird das Subjekt als eines hervorgebracht, das ›wie andere‹ ist – wie andere, die beim Zeigen bestimmter Markenwerbung konvertieren. Dem individuierten und markierten Subjekt werden sodann dynamisch per- sonalisierte Werbungen geliefert, die auf Echtzeit-Auktionen (zwischen Kauf- und Verkaufsalgorithmen) binnen 100 Millisekunden gehandelt werden. Das markierte Subjekt ist ein akribisch choreographisiertes Subjekt, das vermittels einer großen Anzahl algorithmischer Akteure hervorgebracht wird. Dieses Subjekt weist Dstillery zufolge eine viermal höhere Konversionswahrschein- lichkeit auf als ein nicht-beeindruckbares, dem eine beliebige Werbung ge- zeigt wird.25 Es besteht kein Zweifel, dass die Assemblage, welche die beein- druckbaren Subjekte hervorbringt, sich weiterentwickeln und noch raffinierter werden wird. Die Logik des Ganzen, des Geschäftsmodells Internet, wird mit jeder neuen Innovation weitergegeben werden, denn es ist die Möglichkeits- bedingung des Werdens eben dieses Ganzen. Bis hierher haben wir uns in erster Linie dem Fluss der Handlungsträgerschaften algorithmischer Akteure gewidmet. Wir wollen nun den Fluss der Handlungsträgerschaft des durch sie erzeugten Subjekts genauer betrachten. In ihrer Erörterung der Hervorbringung des Konsumentensubjekts in der Werbepraxis (besonders im Zusammenhang zu den Arbeiten des Tavistock Institute of Human Relations, die sie untersuchen) zeigen Rose und Miller (Rose/Miller 2008: 139) Folgendes: »Um eine Beziehung zwischen Individuum und Produkt herzustellen, muss eine komple- xe und hybride Assemblage eröffnet werden. In dieser müssen Kräfte und Bewegungen vorgestellt werden, die vom Inneren der Psyche von Personen bestimmten Alters, Ge- schlechts oder bestimmter sozialer Bereiche ausfließen und die mit Möglichkeiten und Versprechungen verknüpft werden, die bestimmten Waren zugeordnet werden können, die innerhalb eines kleinen Sets alltäglicher Routinen und Gewohnheiten angeordnet sind.« In den vorangegangenen Erörterungen wurde diese ›Verknüpfung‹ von Subjekt und Produkt im Onlinemarketing als eine Hervorbringung des beeindruck- baren Subjekts mittels der Choreographie einer großen Anzahl algorithmi- 25 | www.fastcompany.com/1840817/media6degrees-knows-what-you-want-buy- even-you-do (zuletzt abgerufen am 20. Februar 2016). 66 Lucas D. Introna scher Akteure dargelegt. Jedoch setzt diese Choreographie reflexive Subjekte voraus. Die Subjekte sind keine Betrogenen und auch kein reines Futtermittel im Kampf um unternehmerisches Kapital. Vielmehr sind sie sich der Choreo- graphie bewusst und zudem mehr oder weniger explizit aber doch aktiv an ihr beteiligt. Mit anderen Worten, auch die Subjekte versuchen, mehr oder weni- ger aktiv, Autoren oder Kuratoren ihrer eigenen Subjektpositionierung zu sein. Innerhalb der Choreographie sind sie freilich nie ganz dazu im Stande zu die- sen zu werden. Latour zufolge, ist Handeln stets: »entlehnt, verteilt, suggeriert, beeinflusst, dominiert, übersetzt.« Und das soziomaterielle Handeln stellt hier »die Hauptquelle der Unbestimmtheit über den Ursprung der Handlung« dar (Latour 2010: 82). Die Gründe dieser Quelle der Unsicherheit (bzw. für die diffuse Beschaf- fenheit der Handlungsträgerschaft) sind mannigfaltig. Man könnte beispiels- weise annehmen, dass es Nutzern möglich sei, einfach aus dem Prozess der Verfolgung und Individuierung ›auszusteigen‹ – eine Option die von vielen, einschließlich Google, angeboten wird. Google weist folgendermaßen darauf hin: »Sie können sich wahlweise gegen interessenbezogene Werbung von Google mittels Werbe-Einstellungen entscheiden. Wenn sie aussteigen, werden Sie zwar weiterhin Werbeanzeigen sehen, aber diese werden nicht in Beziehungen zu Interessen, vorher- gegangenen Websitebesuchen oder demographischen Details stehen.«26 Wenn man aussteigt wird man folglich mehr oder weniger zufällige Werbung zu sehen bekommen. Die Aussage impliziert allerdings gleichzeitig die Fra- ge: Was würden Sie vorziehen, sinnvolle und relevante, auf Ihren Interessen fundierte oder rein beliebige Werbeanzeigen? Sie haben die Wahl. Man kann der Werbung aber nicht gänzlich den Rücken kehren. Diese Vereinbarung, ein ›freies‹, durch Werbeeinnahmen finanziertes Internet zu haben, wurde schon früher von einer ganzen Schar von Akteuren direkt oder indirekt getroffen (Zuckerman 2014). Klar ist, dass diese unterstellte Kostenfreiheit des Internets abhängig von der erfolgreichen Hervorbringung des beeindruckbaren Sub- jekts ist, denn dieses ist das Geschäftsmodell des Internets. In dieser implizit vereinbarten Logik, wird vorausgesetzt, dass es im In- teresse aller ist, sinnvolle anstelle von irrelevanten und beliebigen Werbean- zeigen zu schalten. Es ist in Googles und im Interesse anderer Unternehmen, die Werbungen sinnvoll zu gestalten und das bedeutet, uns als beeindruckba- re Subjekte hervorzubringen. Die Alternative, für ein werbefreies Internet zu zahlen, gibt es nicht (und wen würde man dafür bezahlen?) – und man geht in 26 | https://support.google.com/ads/answer/2662922?hl=en-GB (zuletzt abgerufen am 15. November 2016). 2. Die algorithmische Choreographie des beeindruckbaren Subjek ts 67 der Tat auch davon aus, dass sich die meisten ohnehin nicht für diese Option entscheiden würden (Curtis 2014). Es scheint insofern ein allgemein beschlos- sener Gesellschaftsvertrag zu existieren nachdem wir im Tausch gegen kosten- freies Internet, alle zu beeindruckbaren Subjekten werden. Man könnte ferner meinen, dass darin auch kein Problem bestünde, da die Nutzerinnen die Werbungen beim Durchqueren der Hyperlinks des Webs einfach ignorieren können. Das heißt, sie können aus der Erzeugung des be- eindruckbaren Subjekts ebenso ›aussteigen‹, indem sie den Werbungen keine Aufmerksamkeit schenken. Im oben besprochen Prodigy-Fall war es möglich das untere Fünftel der Fläche abzudecken und so das Ansehen der Werbeanzei- gen zu vermeiden. Ebenso ist es möglich AdBlock-Anwendungen zu nutzen.27 Webseitenbetreiber argumentieren derweil, dass das »Anschauen von Wer- bungen Teil der Vereinbarung ist, solange sie die Inhalte kostenfrei erhalten wollen« und die Nutzung solcher Programme dementsprechend den »implizi- ten Vertrag bricht« (Mitchell 2014). Darüber hinaus sind Lage und Beschaffen- heit der Werbungen dynamisch und nicht notwendigerweise klar von anderen Inhalten abzugrenzen. Zudem stellt das Ignorieren keine wirklich gangbare Alternative für das bereits beeindruckbare Subjekt dar. Schließlich existiert eine kaum zu überblickende Menge an Forschungsliteratur zum Konsumen- tenverhalten und zur Konsumentenpsychologie und dem was als Priming-Ef- fekt bezeichnet wird. Diese legt nahe, dass dem Maß an selbstbestimmter Ku- ration der Hervorbringung unser selbst als Subjekt durchaus Grenzen gesetzt sind. Die Forschung deutet an, dass der vorherige oder simultane Kontakt zu Bildern und Mitteilungen ein einzelnes Subjekt auf sehr bestimmte Weise her- vorbringen kann. Eine klassische Studie in dieser Hinsicht ist das honesty-box- Experiment (Bateson et al. 2006).28 Das Experiment zeigte, dass unscheinbar in einer universitären Betriebsküche platzierte Bilder mehr oder weniger ehrliche Subjekte hervorbrachten. Die Erzeugung ehrlicher Subjekte vollzog sich in Ab- hängigkeit zu den Bildern (Abb. 2.5), die gezeigt wurden und die abwechselnd Blumen oder Augen zeigten. Es ist bemerkenswert, dass unterschiedliche Au- gen und Blicke eine mehr oder weniger ›ehrliche‹ Belegschaft erzeugen, die entsprechend mehr oder weniger Geld in die Vertrauenskasse legt. Nochmals, es soll damit nicht suggeriert sein, dass die Nutzerinnen überlistet würden 27 | Ad-Blocking ist eine ganz eigene soziomaterielle Assemblage, die hier nicht weiter behandelt werden kann. Hier eine Quelle zur allgemeinen Erläuterung: www.computer- world.com/article/2487367/e-commerce/ad-blockers–a-solution-or-a-problem-.html (zuletzt abgerufen am 20. Februar 2016). 28 | Bei der honesty-box (Ver trauenskasse) handelt es sich um einen Behälter, in den die Teilnehmer (oder Käufer) das geforderte Entgelt für die Ware in Abwesenheit des Verkäufers hinterlassen sollen. Sie basier t auf Vertrauen und auf der Ehrlichkeit der Teilnehmer (Käufer). 68 Lucas D. Introna oder nur Marionetten der Strippen ziehenden Werber wären. Handlungsträ- gerschaft ist in Hinblick auf Subjektpositionierungen vielmehr sehr viel sub- tiler und diffuser als wir das gemeinhin annehmen. Abb. 2.5: Das Honesty-Box-Experiment (Vertrauenskasse); zit. n. Bateson et al. 2006. Beeindruckbare Subjekte sind keine passiven Zielscheiben der Werbung. Sie spielen oftmals eine aktive Rolle im Entwerfen ihrer eigenen Subjektivität. Natürlich geschieht dies innerhalb des diskursiven Raums, den die Werbung ihnen zur Verfügung stellt. Man denke an das »informational capital« (Arvids- son 2005) und das Subjekt, das sich Bilder und Diskurse der Werbung aktiv zu eigen macht, um an der Choreographie und Kuration des eigenen Selbst aktiv beteiligt zu sein. Die Beispiele sind endlos: Appleprodukte (iPhone, iPad etc.) entwerfen mich als innovativ, die Swatch-Uhr als trendy usf. Die Subjekte sind sich der Werbe- und Markendiskurse sehr bewusst – ebenso der Möglichkeiten sich mittels ihrer als ein besonderes (und möglicherweise begehrenswertes) 2. Die algorithmische Choreographie des beeindruckbaren Subjek ts 69 zu entwerfen. Wir haben es mit einem Vorgang zu tun, den Foucault als Sub- jektivierung beschreibt: »Subjektivierung ist ein Internalisierungsprozess, der die Entscheidung für einen be- stimmten Subjekttypus beinhaltet […] Es handelt sich um eine von einem menschli- chen Wesen ausgeführte Aktivität, das als wissendes Subjekt auftritt; beispielhaft wäre ein Subjekt, das sich selbst der Wahrheitszirkulation von [Marken] aussetzt.« (Skinner 2013: 908f.) In diesem Sinne ist die Korrespondenz zwischen Subjekt und Werbung nichts Vermeidbares, sondern etwas aktiv und explizit als informational capital An- genommenes. Es sind verfügbare Mittel, die die Subjekte zur Formung ihres begehrten Selbst, wenn möglich, einsetzen. So verstanden sind die auf dem Bildschirm erscheinenden Werbungen nicht ›nur‹ Werbungen, sie sind gleich- zeitig Anregungen zu dem Subjekt, das ich werden will – insofern die indivi- duierende Assemblage mich ›richtig‹ entwirft. Sofern ich andererseits Wer- bungen auf meinem Bildschirm zu sehen bekomme, die nicht im Einklang zu dem Subjekt stehen, das ich zu werden glaube, könnte ich einwenden: ›Warum bekomme ich diesen Unsinn zu sehen?‹ Was habe ich getan, die Algorithmen glauben zu machen, dass ich dieser oder jener Typ Person bin? Es ist so, dass die Hervorbringung des Subjekts als beeindruckbares Subjekt auch einen Teil des Entwurfs des Selbst als ein bestimmtes und besonderes Subjekt mittels der sorgsamen Kuration von Assoziationen mit Marken darstellt. Es handelt sich um ein andauerndes Projekt der Subjektivierung, in dem das Subjekt stets beides ist: Abhängiges und Hervorbringendes der materiell-diskursiven Cho- reographie. Im Unterschied zu anderen materiell-diskursiven Praktiken wird Macht und Wissen in der online Werbebranche asymmetrisch produziert, und das ist es, was die Choreographie der Handlungsträgerschaft am Laufen hält. Während die Algorithmen vertrauliches Wissen über das Subjekt besitzen, erfährt das Subjekt relativ wenig von den Algorithmen. Das Subjekt wird fortlaufend posi- tioniert, markiert und Werbungen ausgesetzt, die von algorithmisch-maschi- nell produzierten und für das Subjekt unsichtbaren Kategorien erzeugt wer- den. Das soziomaterielle Ganze bleibt zu großen Teilen eine opake Blackbox und das gilt sogar noch für dessen Gestalter, etwa für die Programmiererinnen von Lernalgorithmen (Ziewitz 2016). An welcher Stelle könnte man Beschwer- de einreichen oder etwas anfechten? Selbst wenn man die Programmiererin- nen anklagen und zur Verantwortung ziehen wollte, würden diese nur darauf verweisen, dass es sich um das Werk autonom prozessierender Lernalgorith- men handele, deren Kategorienbildung lediglich die ihnen zur Verfügung ste- henden Daten reflektiert. Die Erwiderung würde auf die algorithmische Neut- ralität und Objektivität der Kategorienwahl verweisen (Gillespie 2014). Das ist 70 Lucas D. Introna die Argumentation mit der Google auf Beschwerden hinsichtlich der rassisti- schen und bigotten Vorschläge von Googles Autovervollständigung antwortete (Potts/Baker 2013).29 In gewisser Hinsicht zielt die Argumentation darauf, dass auch die Designer von Algorithmen keine originären Subjekte sind, sondern ebenso durch die Entstehung des soziomateriellen Ganzen hervorgebracht werden und gleichsam innerhalb der permanenten Choreographisierung von Handlungsträgerschaft positioniert werden. Freilich, das Hervorbringen von Subjektpositionierungen fließt in alle Richtungen gleichzeitig. Die Werbung ist das dominierende Geschäftsmodell des Internets. Die zentrale These dieses Beitrags lautet, dass die performative Hervorbringung des beeindruckbaren Subjekts die notwendige Bedingung für das permanente Entstehen des Internets ist – es ist die grundlegende Logik des soziomateriellen Ganzen. Als solche setzt sich diese Logik in und mit jeder neuen Innovation fort. Die Produktion dieses Subjekts wird zunehmend detaillierte Ebenen al- gorithmisch erzeugten Wissens erfordern, um das Subjekt als ein beeindruck- bares zu positionieren. Man könnte sagen, es wird eine immer intimere und detailliertere Choreographie nötig sein, um die Hervorbringung des Subjekts weiterhin zu ermöglichen. Das würde auch nahelegen, dass der Anreiz zur Entwicklung intimen Wissens über das Subjekt immer größer werden wird. Die algorithmische Choreographisierung des beeindruckbaren Subjekts hat gerade erst begonnen; es sei denn, man ginge von einem sehr unwahrschein- lichen grundlegenden Wandel im Geschäftsmodells des Internets aus. In der obigen Erörterung haben wir die Choreographie der Ströme und Zirkulation von Handlungsträgerschaft hauptsächlich entlang der algorithmischen Hand- lungsträgerschaft verfolgt. Innerhalb der Choreographie des beeindruckbaren Subjekts zirkulieren jedoch zahlreiche andere Handlungsträgerschaften, die sich überlappen, decken, korrespondieren etc. In dieser Zirkulation werden In- tentionen, Identitäten und Positionen stetig übersetzt und verschoben, sodass kein einzelner Choreograph als maß- und taktgebender hervortreten kann – weder die Algorithmen, noch die Subjekte, nicht die Werber und auch nicht die Werbeagenturen. Darüber hinaus fließt die Performativität in alle Richtungen, sie produziert Ströme und Subjekt/Objekt-Positionierungen (wie Adblocker, Obfuskatoren, Clickbots, usf.). Vor allem aber gilt es hervorzuheben, dass das Subjekt in dieser Choreographie keine ›Marionette‹ ist. Derlei Hervorbringun- gen wären nicht möglich gewesen, wenn die Subjekte nicht als geneigte und produktive Partizipanten an dieser performativen Choreographie teilgenom- 29 | Aus Googles Hilfe-Funktion: »Die automatischen Vervollständigungen werden ohne jegliche menschliche Einflussnahme algorithmisch generier t. Sie basieren auf einer Reihe objektiver Faktoren, einschließlich davon, wie Nutzer einen Begrif f gesucht haben.« https://support.google.com/websearch/answer/106230?hl=en (zuletzt ab- gerufen am 2016). 2. Die algorithmische Choreographie des beeindruckbaren Subjek ts 71 men hätten. Hoffentlich ist aus dem gesagten ersichtlich geworden, dass Hand- lungsträgerschaft innerhalb einer solcher Choreographie keine geradlinige Angelegenheit ist. Vielmehr ist Handeln stets: »entlehnt, verteilt, suggeriert, beeinflusst, dominiert, übersetzt.« Und das soziomaterielle Handeln stellt hier »die Hauptquelle der Unbestimmtheit über den Ursprung der Handlung« dar (Latour 2010: 82). Diese Unsicherheit impliziert auch, dass keine schlichten Eingriffe (mehr Datenschutz oder mehr Transparenz beispielsweise) für die- jenigen zu Verfügung stehen, die eine solche Choreographie regulieren und regieren wollen. Das Regieren der Choreographie erfordert zunächst ein Ver- ständnis davon, was diese Choreographie wird – dieser Beitrag ist ein erster Versuch, genau dies zu leisten. Übersetzt von Moritz Plewa. liter aturVer Zeichnis Arvidsson, A. (2005): Brands: Meaning and Value in Media Culture. London u.a.: Routledge. Baker, P./Potts, A. (2013): »›Why Do White People Have Thin Lips?‹ Google and the Perpetuation of Stereotypes via Auto-complete Search Forms«, in: Crit- ical Discourse Studies 10 (2), S. 187-204. doi: 10.1080/17405904.2012.744320. Barad, K. (2007): Meeting the Universe Halfway: Quantum Physics and the Entan- glement of Matter and Meaning, Durham, NC u.a.: Duke University Press. Barocas, S./Hood, S./Ziewitz, M. (2013): »Governing Algorithms: A Provo- cation Piece«, Paper for Governing Algorithms Conference, May 16-17, 2013, Rochester, NY, abgerufen auf: http://papers.ssrn.com/abstract=2245322 (zuletzt am 20. Februar 2016). Bateson, M./Nettle, D./Roberts, G. (2006): »Cues of Being Watched Enhance Cooperation in a Real-World Setting«, in: Biology Letters 2 (3), S. 412-414. Butler, J. (1990): Gender Trouble: Feminism and the Subversion of Identity, New York: Routledge. Çalışkan, K./Callon, M. (2010): »Economization, Part 2: A Research Pro- gramme for the Study of Markets«, in: Economy and Society 39 (1), S. 1-32. Callon, M. (1986): »Some Elements of a Sociology of Translation: Domestica- tion of the Scallops and the Fishermen of St Brieuc Bay«, in: Law, J. (Hg.): Power, Action, and Belief: A New Sociology of Knowledge?, London: Routledge & Kegan Paul, S. 196-233. Callon, M./Muniesa, F. (2005): »Peripheral Vision: Economic Markets as Cal- culative Collective Devices«, in: Organization Studies 26 (8), S. 1229-1250. 72 Lucas D. Introna Castelluccia, C. (2012): »Behavioural Tracking on the Internet: A Technical Per- spective«, in: Gutwirth, S./Leenes, R./Hert, P. D./Poullet, Y. (Hg.): Europe- an Data Protection: In Good Health?, Dordrecht: Springer, S. 21-33. Chen, J./Liu, D./Whinston, A. B. (2009): »Auctioning Keywords in Online Search«, in: Journal of Marketing 73 (4), S. 125-141. Curtis, S. (2014): »Would You Pay £140 a Year for an Ad-Free Web?«, in: Telegraph, 21. August, abgerufen auf: www.telegraph.co.uk/technology/ news/11047801/Would-you-pay-140-a-year-for-an-ad-free-web.html (zuletzt am 20. Februar 2016). Dalessandro, B./Hook, R./Perlich, C./Provost, F. (2012): »Evaluating and Opti- mizing Online Advertising: Forget the Click, but There Are Good Proxies«, in: NYU Working Paper No. 2451/31637, abgerufen auf: http://papers.ssrn. com/abstract=2167606 (zuletzt am 20. Februar 2016). Evans, D.S. (2009): »The Online Advertising Industry: Economics, Evolution, and Privacy«, in: The Journal of Economic Perspectives 23 (3), S. 37-60. Foucault, M. (1978): »Recht der Souveränität/Mechanismus der Disziplin. Vor- lesung vom 14. Januar 1976«, in: ders.: Dispositive der Macht. Michel Fou- cault über Sexualität, Wissen und Wahrheit, Berlin: Merve, S. 75-95. Foucault, M. (1978): The History of Sexuality. Vol. 1, übers. von R. Hurley, New York: Pantheon Books. Foucault, M. (1980): Power/Knowledge: Selected Interviews and Other Writings, 1972-1977, New York: Pantheon Books. Foucault, M. (1983): Der Wille zum Wissen. Sexualität und Wahrheit 1, Frankfurt a.M.: Suhrkamp. Foucault, M. (2002 [1971]): »Nietzsche, die Genealogie, die Historie«, in: ders.: Michel Foucault. Schriften in vier Bänden. Dits et Ecrits Bd.2, Frankfurt a.M.: Suhrkamp, S. 166-191. Foucault, M. (1986): Überwachen und Strafen. Die Geburt des Gefängnisses, Frankfurt a.M.: Suhrkamp. Foucault, M. (1988): Die Geburt der Klinik. Eine Archäologie des ärztlichen Blicks, Frankfurt a.M.: Fischer. Foucault, M. (1991): »Governmentality«, in: Burchell, Graham (Hg.): The Fou- cault Effect: Studies in Governmentality, Chicago, IL: University of Chicago Press, S. 87-104. Foucault, M. (2002): »Gespräch über das Gefängnis.; das Buch und seine Me- thode«, in: Schriften in vier Bänden. Dits et Ecrits, Band 2: 1970-1975, hg. v. Defert, Daniel/Ewald, François/Lagrange, Jacques, Frankfurt a.M.: Suhr- kamp, S. 913-932. Foucault, M. (2004): Geschichte der Gouvernementalität I. Sicherheit, Territo- rium, Bevölkerung. Vorlesung am College de France (1977-1978), hg. v. Michel Sennellart, Frankfurt a.M.: Suhrkamp. 2. Die algorithmische Choreographie des beeindruckbaren Subjek ts 73 Gillespie, T. (2014): »The Relevance of Algorithms«, Gillespie, T./Boczkowski, P./Foot, K. (Hg.): Media Technologies: Essays on Communication, Materiality, and Society, Cambridge, MA: MIT Press, S. 167-194. Goldfarb, A./Tucker, C. (2014): »Standardization and the Effectiveness of On- line Advertising«, SSRN Scholarly Paper No. ID 1745645, abgerufen auf: http://papers.ssrn.com/abstract=1745645 (zuletzt am 20. Februar 2016). Hall, S. (1997): »The Work of Representation«, in: ders. (Hrsg): Representation: Cultural Representations and Signifying Practices, Vol. 2, Thousand Oaks, CA: Sage, S. 13-74. Ingold, T. (2011): Being Alive: Essays on Movement, Knowledge and Description, London: Routledge. Introna, L.D. (2006): »Maintaining the Reversibility of Foldings: Making the Ethics (Politics) of Information Technology Visible«, in: Ethics and Informa- tion Technology 9 (1), S. 11-25. Introna, L.D./Ilharco, F. M. (2006): »On the Meaning of Screens: Towards a Phenomenological Account of Screenness«, in: Human Studies 29 (1), S. 57- 76. Introna, L.D./Nissenbaum, H. (2000): »Shaping the Web: Why the Politics of Search Engines Matters«, in: The Information Society 16 (3), S. 169-185. Introna, L.D./Wood, D. (2004): »Picturing Algorithmic Surveillance: The Pol- itics of Facial Recognition Systems«, in: Surveillance and Society 2 (2/3), S. 177-198. Jaworska, J./Sydow, M. (2008): »Behavioral Targeting in On-Line Advertising: An Empirical Study«, in: Bailey, J./Maier, D./Schewe, K.-D./Thalheim, B./ Wang, X. S. (Hg.): Web Information Systems Engineering: WISE 2008, Berlin u.a: Springer, S. 62-76. Kristol, D.M. (2001): »HTTP Cookies: Standards, Privacy, and Politics«, in: ACM Transactions on Internet Technology 1 (2), S. 151-198. Latour, B. (1988): The Pasteurization of France, Cambridge, MA: Harvard Uni- versity Press. Latour, B. (2005): Reassembling the Social: An Introduction to Actor-Network-Theory, Oxford: Oxford University Press. Mitchell, R. (2014): »Ad Blockers: A Solution or a Problem?«, in: Computer- world, January 15, abgerufen auf: www.computerworld.com/article/2487 367/e-commerce/ad-blockers-a-solution-or-a-problem-.html (zuletzt am 29. September 2014). Nikiforakis, N./Kapravelos, A./Joosen, W./Kruegel, C./Piessens, F./Vigna, G. (2014): »On the Workings and Current Practices of Web-Based Device Fin- gerprinting«, in: IEEE Security Privacy 12 (3), S. 28-36. Nissenbaum, H./Brunton, F. (2013): »Political and Ethical Perspectives on Data Obfuscation«, in: Hildebrandt, M./de Vries, K. (Hg.): Privacy, Due Process and the Computational Turn: The Philosophy of Law Meets the Philosophy of Technology, London: Routledge, S. 171-195. 74 Lucas D. Introna Orlikowski, W.J./Scott, S.V. (2015): »Exploring Material-Discursive Practices«, in: Journal of Management Studies 52 (2), S. 697-705. Perlich, C./Dalessandro, B./Hook, R./Stitelman, O./Raeder, T./Provost, F. (2012): »Bid Optimizing and Inventory Scoring in Targeted Online Adver- tising«, in: Proceed- ings of the 18th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, New York: ACM, S. 804-812. Perlich, C./Dalessandro, B./Raeder, T./Stitelman, O./Provost, F. (2014): »Ma- chine Learning for Targeted Display Advertising: Transfer Learning in Ac- tion«, in: Machine Learning 95 (1), S. 103-127. Pickering, A. (1995): The Mangle of Practice: Time, Agency, and Science, Chicago, IL: University of Chicago Press. Raeder, T./Stitelman, O./Dalessandro, B./Perlich, C./Provost, F. (2012): »De- sign Principles of Massive, Robust Prediction Systems«, in: Proceedings of the 18th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, New York: ACM, S. 1357-1365. Reimer, J. (2005): »A History of the GUI«, May 5, abgerufen auf http://arstech nica.com/features/2005/05/gui/(zuletzt am 3. Februar 2016). Rose, N. (1999): Governing the Soul: Shaping of the Private Self (zweite, überarbeitete Auflage), London and New York: Free Association Books. Rose, N./Miller, P. (2008): Governing the Present: Administering Economic, So- cial and Personal Life, Cambridge, UK: Polity Press. Shah, R.C./Kesan, J.P. (2009): »Recipes for Cookies: How Institutions Shape Communication Technologies«, in: New Media & Society 11 (3), S. 315-336. Skinner, D. (2013): »Foucault, Subjectivity and Ethics: Towards a Self-forming Subject«, in: Organization 20 (6), S. 904-923. Walgampaya, C./Kantardzic, M. (2011): »Cracking the Smart ClickBot«, in: 2011 13th IEEE International Symposium on Web Systems Evolution (WSE), S. 125- 134. Whitehead, A. N. (1978): Process and Reality: An Essay in Cosmology, New York: Free Press. Ziewitz, M. (2016): »Governing Algorithms Myth, Mess, and Methods«, in: Science, Technology & Human Values 43 (1), S. 3-16. Zuckerman, E. (2014): »The Internet’s Original Sin«, in: The Atlantic, August 14. Abgerufen auf: www.theatlantic.com/technology/archive/2014/08/ad vertising-is-the-internets-original-sin/376041/ (zuletzt am 20. Februar 2016). 3. #trendingistrending Wenn Algorithmen zu Kultur werden Tarleton Gillespie Um das zunehmend komplexe Informationssystem zu verstehen, das mitt- lerweile so viele soziale Unternehmungen untermauert, haben sich einige Sozialwissenschaftler ›den Algorithmen‹ zugewandt, die diese Unterneh- mungen animieren. Diese ›kritische Soziologie der Algorithmen‹ (Gillespie/ Seaver 2015) hat das althergebrachte Unbehagen an der Automatisierung und Rationalisierung menschlicher Sozialität wiederbelebt; mithin die Bedenken zu Diskriminierungen innerhalb bürokratisch-formeller Prozeduren, zu den Implikationen soziotechnischer Systeme und den auf diesen beruhenden so- zialen Praktiken. Algorithmen bilden für ein solches Forschungsvorhaben einen attraktiven Kristallisationspunkt: sie erscheinen als der verborgene Kern eines komplexen Systems, als Träger geheimer, eingebetteter Werte. Schließ- lich sind Algorithmen Instruktionen – vielleicht gar der mechanische Geist in der Maschine? Verführerisch (Gillespie 2016; Ziewitz 2015). Könnte es indes sein, dass der Enthusiasmus, der mit der Einführung eines neuen Forschungs- gegenstandes verbunden ist, uns (mich eingeschlossen) in eine der offensicht- lichsten intellektuellen Fallen hat tappen lassen? Viele dieser Forschungen positionieren ›den Algorithmus‹ als das erklärungsbedürftige Objekt, als eine auf die Welt einwirkende Kraft. Ein solches Vorgehen ist schwerlich als neuartiger Irrtum zu bezeichnen, handelt es sich doch um einen Fehler, den schon die Techniksoziologie umgetrieben hat (Bimber 1994; Gillespie et al. 2014; Smith/Marx 2014; Sterne 2014; Wyatt 2008). Nun sind wir in diesem Band eingeladen über »Kulturen des Algorithmus« nachzudenken, und könnten abermals versucht sein, in die gleiche Falle zu tappen und fragen: wie hat die Einführung von Algorithmen die kulturellen Dynamiken verändert? Es gäbe hier sicherlich einige interessante Pfade zu er- kunden, allerdings bergen sie alle dieselbe Gefahr. Die Gefahr besteht darin, eine Erzählung von Ursache-Wirkungs-Beziehungen einzustudieren, welche ›den Algorithmus‹ als einzelne und geschlossene Entität behandelt sowie eine vorgängig stabile und unbefleckte ›Kultur‹ entwirft, um sodann nach den Ef- 76 Tarleton Gillespie fekten von Algorithmen auf kulturelle Praktiken und Sinnstrukturen zu su- chen, die innerhalb einer solchen Erzählung freilich meist besorgniserregend erscheinen. Wir würden sicherlich zu kurz greifen, wollten wir einfach belehrende und warnende Geschichten über die Mechanismen der Produktion und Distribu- tion und ihrer Effekte erzählen. Ebenso fehlgehen würden wir, wollten wir beruhigende Fabeln darüber erzählen, wie Algorithmen lediglich auf genui- ne Bedürfnisse der Öffentlichkeit antworten. Beide Erzählungen stellen für sich genommen intellektuelle Irrtümer dar, welche die Kulturwissenschaften umtreiben. Kultur ist aber immer ein Produkt von diesen beiden korrespon- dierenden, wenngleich nicht isomorphen Kräften (Bourdieu 2011). Kulturelle Artefakte werden in Erwartung auf den Wert gestaltet, den Personen ihnen zuschreiben könnten und in Hinblick auf die Mittel entwickelt mithilfe derer sie zirkulieren. Zirkulieren kulturelle Artefakte, so treffen wir sie stets inmit- ten einer Ansammlung anderer Objekte an und wir schenken ihnen innerhalb dieser Beachtung. (Mukerji/Schudson 1991) Überdies ist die Kultur sich dieser Korrespondenz bewusst, sie ist sich ihrer selbst bewusst und verhält sich re- flexiv gegenüber ihrer eigenen Konstruktion. Wenn wir kulturelle Artefakte konsumieren, fragen wir uns mitunter durchaus, was der Konsum dieser Kul- turgüter über uns selbst aussagt. Es gibt kulturelle Erzeugnisse die selbstrefe- rentiell sind, die das Populäre als einen Schlüssel zu der Gesellschaft deuten, für die sie hergestellt sind und in der sie Bedeutung finden. Kultur denkt über sich selbst nach. Die Mechanismen, durch die Kultur produziert und zirkuliert wird, wer- den in solchen Debatten selbst hervorgebracht. Und die Zeichen der Bewer- tung, die sie hervorbringen – Zeichen dessen, was als signifikant, populär, berichtenswert oder interessant gilt – werden selbst zu Knotenpunkten kul- turellen Interesses und verraten uns dadurch etwas über das ›Wir‹, für das diese kulturellen Artefakte geschaffen wurden (Helgesson/Muniesa 2013). Wir diskutieren nicht nur die Nachricht, die es auf die Titelseite geschafft hat, son- dern mitunter auch die Tatsache, dass es diese Nachricht überhaupt auf die Titelseite geschafft hat. Die Behauptung von Relevanz seitens der Zeitung, die Mechanismen, welche die Priorisierung und Auswahl bestimmter Meldungen anleiten, die institutionellen Kräfte, welche die moderne Nachrichtenproduk- tion antreiben – all das kann zum Gegenstand der Diskussion werden. Die An- zeichen dafür, dass wir ein bestimmtes kulturelles Artefakt wollen oder For- derungen, dass wir es wollen sollen, regen uns dazu an, nach dem Warum zu fragen. Warum ist ein bestimmtes kulturelles Artefakt populär und wie ist es dazu gekommen? Beliefern die Künstler und Branchen, die es erzeugten uns mit den richtigen Produkten? Sollte Kultur populär oder aufklärend sein und werden andere Kulturformen durch gegenwärtige Prozesse verdrängt? 3. # trendingistrending 77 Heutzutage nehmen solche Fragestellungen auch Algorithmen ins Visier; insbesondere jene Algorithmen die daran beteiligt sind, diejenigen kulturellen Werke zu selektieren und zu liefern, denen wir begegnen. Besonders Algorith- men, die in die Entwicklung von Kultur involviert sind, sind sowohl Mechanis- men der Verbreitung als auch der Bewertung. Sie sind Teil derjenigen Wissens- institutionen die Informationen in Umlauf bringen und bewerten. Sie sind also Teil der Industrie der Neuen Medien, die diese Kulturgüter bereitstellen und sortieren. Ganz besonders Aussagen über kulturelle Werte, die auf Prognosen, Rezepten und Messungen dessen beruhen, was etwas kulturell schätzenswert macht, beruhen auf algorithmischen Verfahren. Algorithmen sind also nicht unsichtbar. Während sie bezüglich ihrer Codes Blackboxes bleiben, sind sie gleichzeitig oft auch Gegenstand öffentlicher Überprüfungen und Debatten. Wir sollten insofern nicht allein danach fragen, was es für die moderne Kulturindustrie bedeutet, algorithmische Verfahren einzusetzen, um Kultur zu produzieren, zu organisieren, zu selektieren und Zielgruppen zu erken- nen, um sie verfolgen und einteilen zu können (Beer/Burrows 2013). Das sind zweifelsohne sehr virulente Fragen. Wir sollten dabei allerdings nicht verges- sen zu untersuchen, wie algorithmische Verfahren selbst zu kulturellen Ob- jekten werden, wie sie in unser Denken über Kultur eingehen und von der Öffentlichkeit, auf die sie gerichtet sind, aufgenommen werden. Und wie sie für das, was sie tun und enthüllen, angefochten werden (Striphas 2015). Wir sollten nicht nur danach fragen, wie Algorithmen die Kultur prägen, sondern auch danach, wie sie selbst zu Kultur werden. trending-algorithmen und Wie sie funK tionieren Aufgrund ihrer Größe müssen alle Social-Media-Plattformen Mechanismen herausbilden, um neue und relevante Inhalte anzubieten. Dies eröffnet den Nutzerinnen einerseits Zugang ins und mögliche Wege durchs Archiv; es hält sie andererseits länger auf der Webseite, um sie mit mehr Werbeanzeigen kon- frontieren und gleichzeitig wertvolle Daten über sie sammeln zu können. Die meisten Navigationsmechanismen bestehen entweder aus Such- oder Empfeh- lungsfunktionen: Suchfunktionen dann, wenn die Anfragen der Nutzer mit verfügbaren Inhalten abgeglichen werden; mit der Empfehlungsfunktion wird der Nutzer mit anderen Nutzern abgeglichen und ihm wird Inhalt offeriert, den diese bevorzugten (viele Navigationsmechanismen kombinieren gegen- wärtig diese beiden Funktionen, ich gliedere sie hier nur für analytische Zwe- cke). Wenn auch nicht ganz so allgegenwärtig und strukturell zentral wie Such- und Empfehlungsalgorithmen, ist Trending zunehmend zum verbreiteten Merkmal solcher Interfaces geworden und scheint eine wachsende kulturelle 78 Tarleton Gillespie Bedeutung zu erlangen. Das Trending repräsentiert eine grundlegend andere Logik der algorithmischen Navigation innerhalb der sozialen Medien. Neben der Markierung dessen, was spezifisch für ›Dich‹ relevant sein könnte, identi- fizieren Trending-Algorithmen auch das, was bei ›uns‹ allgemein populär ist. Die einfachste Version des Trending ist so alt wie die sozialen Medien selbst. Hier werden einfache Messungen der jüngsten Aktivitäten auf einer Webseite genutzt, um die Titelseite mit populären Inhalten zu bestücken. Elaboriertere Verfahren, die ich unter dem weiten Begriff des Trending-Algorithmus subsu- mieren werde, nutzen hingegen eine Kombination von Metriken, um ganz be- stimmte Inhalte und Themen zu identifizieren, welche die höchste Aktivität zu bestimmten Zeitpunkten bei spezifischen Nutzergruppen generieren. Einer der ersten und bekanntesten Trending-Algorithmen ist der im Sep- tember 2008 eingeführte ›Twitter Trends‹ (obgleich Google seinen ›Trends Lab‹ 2006 vor Twitter einführte). Twitter Trends ist eine kurze Liste an Hash- tags oder anderer Begriffe, die im jeweiligen Moment in der Stadt (in den USA) oder dem Land der Nutzerin häufiger auftauchen als üblich (Abb. 3.1). Die Be- griffe sind klassifiziert und falls sie angeklickt werden, wird eine Suche zum Begriff ausgeführt, die der Nutzerin dessen jüngste Verwendungen anzeigt. Abb. 3.1: Twitter Trends (© Twitter, 2015). Indem »Arsenal« als trending angezeigt wird, zeigt der Algorithmus an, dass viele Nutzer den Ausdruck in ihren Tweets häufiger als üblich zu verwenden 3. # trendingistrending 79 scheinen, häufig genug, um ihn gegenüber anderen hervorzuheben. Dies im- pliziert, dass eine Gruppe von Menschen (eine instantane Öffentlichkeit, wenn man so will) sich um ein gemeinsames Interesse herum versammelt hat. Eini- ge Trending Topics verweisen auf Phänomene jenseits von Twitter, so etwa auf ein beliebtes Sportteam oder ein politisches Ereignis, andere hingegen indizie- ren Diskussionen, die ausschließlich auf Twitter stattfinden, »#PerfectMusic- Video« wäre ein Beispiel hierfür. Die Basis dafür, dass bestimmte Begriffe auf der Liste erschienen, ist eine algorithmische Kalkulation, deren Einzelheiten der Nutzerin weitgehend verschlossen bleiben. ›Twitter Trends‹ mag als eine unwesentliche Funktion erscheinen. Die Li- ste nimmt ein relativ kleines Kästchen am linken unteren Rand der Twitter- Homepage eines Nutzers ein. Für diejenigen, die Twitter über ein Mobiltelefon nutzen, wurden die Trends erst kürzlich eingeführt; sie werden nur während eines kleinen Zeitfensters angezeigt, nämlich wenn die Nutzer eine Suche beginnen aber noch nicht mit dem Tippen begonnen haben. Für die Nutzer, die Twitter über Apps von Drittanbietern nutzen, dürften Trends schwieriger zu finden bzw. überhaupt nicht verfügbar sein. Darüber hinaus ist es leicht, effekthascherischen Hashtags, popkulturellen Modeerscheinungen und al- lem Anschein nach sinnlosen Begriffen einfach keine Beachtung zu schen- ken. Nichtsdestotrotz ist Twitter Trends ein Mittel, mit dem Nutzer zu neuen Themen finden, es ist eine jener »Technizitäten der Aufmerksamkeit« (Bucher 2012), welche die Interfaces der Sozialen Medien den Nutzern zur Verfügung stellen. In dem Maße, in dem es Inhalte zum Vorschein kommen lässt, erhöht es deren Sichtbarkeit und leitet die Nutzerinnen zumindest potentiell zu die- sen hin. Trending-Algorithmen kalkulieren die gegenwärtige Aktivität, die sich um jeden einzelnen Post, jedes Bild und jeden Hashtag herum entfaltet. Sie kom- binieren dabei Messungen der Popularität, Neuheit und Aktualität eines Ein- trags.1 Diese Messungen beinhalten eine Reihe von Vorannahmen. In erster Li- nie haben wir es bei Trending-Algorithmen tendenziell mit einem sehr breiten Wer, einem sehr engen Wann (und einem kleinen Was zu tun). Wer: Trending-Algorithmen beginnen mit der Messung von Popularität, sie stellen beispielsweise fest, wie viele Nutzer ein bestimmtes Bild bevorzugen oder einen bestimmten Hashtag nutzen. Aber dies setzt voraus, dass zuvor festgelegt wird, wer überhaupt relevant ist. Sind es alle Nutzer der Plattform oder nur eine bestimmte Teilmenge? Oftmals werden die Nutzer nach Region 1 | Die verständlichste Erklärung der Kalkulationen, die in einem Trending-Algorithmus enthalten sind, liefer t Instagram; sie stellt ein sehr nützliche Grundlage dar, zumal ich in diesem Essay nicht näher auf die technischen Details eingehen werde: http://instag ram-engineering.tumblr.com/post122961624217/trending-at-instagram (zuletzt auf- gerufen am 26. Mai 2015). 80 Tarleton Gillespie eingegrenzt (es werden beispielsweise nur U.S.-User gezählt); dies kann dann als ein Merkmal der Resultate angezeigt werden (wie bei Twitter) oder es bleibt unklar und damit der Phantasie der Nutzer überlassen sich vorzustellen, um welches ›Wir‹ es sich eigentlich handelt. Die Plattformen berücksichtigen mit- unter auch, auf wessen Aktivität sie zugreifen, so kann etwa die Aktivität von populären Nutzerinnen stärker gewichtet werden; ebenso kann so mit einbezo- gen werden, ob sich die Popularität eines bestimmten Elements auf ein Cluster von Nutzerinnen beschränkt oder ob sie sich über verschiedene Gruppierun- gen erstreckt, die bereits als Freunde oder Followers miteinander verlinkt sind. Wann: Trending-Algorithmen prämieren Neuheit und Aktualität in zweier- lei Hinsicht, sie identifizieren ungewöhnlich hohe Aktivitäten auf einer Web- seite und sie streben danach, diese mit gegenwärtigen Ereignissen abzustim- men. Die Parameter die angelegt werden um das Gegenwärtige, das Jetzt zu bestimmen sind dabei oftmals gestuft: Waren die Elemente während der letz- ten Minute, Stunde oder während des letzten Tages populär? Darüber hinaus erfordert die Identifizierung von populären Einträgen eine Messbasis dessen, was typisch für einen bestimmten Eintrag ist. Dies wiederum macht für ge- wöhnlich die Auswahl eines Referenzpunktes in der Vergangenheit als Ver- gleichsgrundlage notwendig: Um wieviel reger ist die Diskussion zu diesem Thema jetzt im Vergleich zur Aktivität zur gleichen Uhrzeit vor einer Woche? Das kann knifflige mathematische Justierungen nötig machen, um Themen mit sehr geringer Aktivität aufzuwiegen – wenn ein Thema eine Nennung in der letzten Woche fand und in dieser Woche zwei, handelt es sich dann um einen gewaltigen oder einen dürftigen Popularitätsprung? Oder man denke an Themen für die es keine früheren Vergleichspunkte gibt, wie die erste Bespre- chung eines neuen Filmtitels oder das erste Erscheinen eines viralen Hashtags. Was: Trending-Algorithmen sind beinahe vollkommen agnostisch hin- sichtlich des Inhalts, den sie ermitteln. Sie müssen allerdings Worte ausschlie- ßen, die zu gebräuchlich sind, um einen Trend zu repräsentieren: Ein Wort wie »heute« sollte wahrscheinlich aus dem Raster genommen werden. Was jedoch, wenn der Gebrauch untypisch in die Höhe schlägt, ist dann vielleicht doch et- was Besonderes im Gange? Die Trending-Algorithmen müssen unterscheiden können, wenn das gleiche Wort, verschiedene Bedeutungen hat: Meint »heute« heute im Sinne von aktuell/gegenwärtig oder verweist es auf die heute-Nach- richten im ZDF? Ebenso müssen sie erkennen, wenn verschiedene Termini zusammengezählt werden sollten: Gegebenenfalls sollten die Hashtags #Heu- te Show, #Heute, #heute und #heuteshow als der gleiche Fall betrachtet wer- den.2 All das ist auf ein großes Pensum maschinellen Lernens und auf grobe Mutmaßungen angewiesen. Plattformen passen ihre Trending-Algorithmen 2 | Im Original wird freilich ein Beispiel aus dem englischen Sprachraum angeführt: »to- day«; »#today«; »Today Show«; »#todayshow« usf. A.d.Ü. 3. # trendingistrending 81 zudem dahingehend an, dass sie sich den von ihnen gewünschten Resultaten besser annähern.3 Bemerkenswert ist auch, dass Twitter Trends versucht, Pro- fanitäten und Obszönitäten unabhängig von ihrer Popularität auszuschließen, das betrifft beispielsweise Wörter, die als hate speech identifizierbar sind. Viele andere Soziale Medien tun dasselbe.4 Natürlich gibt es verschiedene Wege, diese Kalkulationen anzustellen. Red- dit besitzt beispielsweise verschiedene Trending-Algorithmen zur Ermittlung des Populären, die »neu«, »ansteigend«, »kontrovers« und »top« erfassen. An- dere Wer, Wann und Was zu berücksichtigen oder andere Faktoren einzubezie- hen, führt zu anderen Resultaten. trending-algorithmen jenseits Von tWit ter ›Twitter Trends‹ erfreut sich der größten Sichtbarkeit. Aber wir sollten uns von der relativen Prominenz von Twitters Version oder dem aktuellen Zeitgeist5 des Wortes Trending selbst nicht irreführen lassen. Ich möchte die Kategorie des Trending-Algorithmus an dieser Stelle erweitern, um die unzähligen Metho- den einzubeziehen, mit denen Plattformen schnelle und kalkulierte Blicke auf das offerieren, was ›wir‹ sehen und worüber ›wir‹ sprechen. Die meisten Social-Media-Plattformen bieten heute irgendeine Form der Messung der aktuellsten und populärsten Aktivitäten an. Ähnliche Trend- Listen erscheinen nun auf Facebook, Instagram, Youtube, Tumblr, Pinterest und Vine. Reddits Titelseite ist als eine Liste von neuesten Posts gestaltet, und dementsprechend aufgereiht, wie die Nutzer sie bewertet haben, wobei auch die kontinuierliche Abwertung im Laufe der Zeit mit eingerechnet wird – ein ähnliches Aggregieren des Populären und des Neuen also. Die Suchmaschi- nen von Google und Bing bieten Google Trends und Bings »Popular Now« an, welche die aktuell populärsten Suchanfragen verarbeiten. Der App Store von Apple listet Trending-Suchanfragen noch bevor die Suchleiste vollständig aus- gefüllt wurde; und Etsy sendet Ihnen die jüngsten Trends aus dem Angebot 3 | Ben Par: »Twitter Improves Trending Topic Algorithm: Bye, Bye Bieber!«, in: Masha- ble, 14. Mai 2010. http://mashable.com/2010/05/14/twitter-improves-trending-to- pic-algorithm-bye-bye-bieber/ (zuletzt aufgerufen am 16. Mai 2015) 4 | Jeff Raines: »Twitter Trends Should Face the Threat of Censorship«, in: Arts.Mic, 22. August 2011. https://mic.com/articles/1420/twitter-trends-should-face-the-threat- of-censorship#.cjD4243pZ (zuletzt aufgerufen am 26. Mai 2015); Jolie O’Dell: »Twitter Censoring Trending Topics? Isn’t It About Time?«, in: ReadWrite, 18. Juni 2009. www. readwriteweb.com/archives/twitter_censoring _trending _topics.php (zuletzt aufgeru- fen am 26. Mai 2015). 5 | Deutsch im Original, A.d.Ü. 82 Tarleton Gillespie per Email. Viele Nachrichten- und Unterhaltungsseiten bieten ähnliche Funk- tionen. Die New York Times, um nur ein Beispiel zu geben, hebt die von den Lesern meist gesehenen oder meist gemailten Artikel hervor, ebenso wie jene die am häufigsten auf Facebook geteilt wurden. Die Hervorhebungen basieren auf der Messung der Aktivitäten auf der Webseite während der jeweilig letz- ten 24 Stunden (Abb. 3.2). Hulu enthält eine Navigationsleiste namens »whats trending now«. Abb. 3.2: »Trending« (© New York Times, 2015). Einige Social-Media-Plattformen bieten ›Trend-Berichte‹, zwar nicht in Echt- zeit aber zu bestimmten Zeitpunkten. Diese beinhalten ›die Trends des Jah- res‹, wie jene von Google und Bing erzeugten, welche die populärsten Such- anfragen nutzen, um visuelle Erinnerungen an die kulturellen Highlights des vergangenen Jahres zu entwickeln. Andere Webseiten veröffentlichen einen Einblick in ihre Daten als Blog-Posts oder Infographiken, die etwas über die 3. # trendingistrending 83 populärsten Aktivitäten und Geschmäcker auf ihrer Webseite verraten (wäh- rend sie gleichzeitig ihre Leistungsfähigkeit der Datenanalyse vorführen). OK Cupid, Foursquare, der Musik-Streaming-Dienst Spotify und die Porno-Video- Plattform Pornhub sind bekannt für solcherart Einblicke in das, was auf ihren Webseiten am Populärsten ist. Sie haben Analysen und Infographiken erzeugt, die in der Folge auf Seiten wie Buzzfeed zirkulieren: welchen Eigenschaften Frauen oder Männer bei ihren Partnerinnen oder Partnern einen hohen Stel- lenwert beimessen; die populärsten Porno-Suchbegriffe je Bundesstaat (Abb. 3.3); den Anstieg der Aktivität auf einer Webseite nach einem wichtigen natio- nalen Ereignis oder welche Songs in einer bestimmten Stadt in diesem Monat besonders beliebt sind. Der Gründer von OK Cupid machte die Datenanalyse seiner Webseite sogar zu einem Buch mit dem Titel Dataclysm, das den provo- kativen Untertitel trägt Wer wir sind (wenn wir uns unbeobachtet fühlen) (Rudder 2014). Anders als beispielsweise bei Snapshots in Echtzeit handelt es sich hier um eher retroaktive Zusammenfassungen, die wie andere Trending-Algorith- men einige Teilmengen der Aktivität auf der jeweiligen Plattform innerhalb bestimmter zeitlicher Parameter aggregieren und aus diesen Daten dann Dar- stellungen allgemeiner Aktivität und Präferenz erzeugen. Abb. 3.3: »Pornhubs Top 3 Suchbegriffe in den USA nach Bundesstaat« (© Pornhub, 2013). Internethändler wie Amazon listen die Absatzzahlen ihrer Produkte. Auf den ersten Blick scheinen diese nicht mit Trends unter die gleiche Kategorie sub- sumierbar, da sie direkter einen überschaubareren Datenpunkt anvisieren: Die Summe an Käufen eines bestimmten Produkts unter anderen. Es handelt sich 84 Tarleton Gillespie allerdings um einen sehr ähnlichen Mechanismus: um die Messung populärer Aktivitäten, die stufenweise nach verschiedenen von der Plattform festgelegten Parametern wie Zeitrahmen, Kategorie und anderen eingegrenzt werden. Diese Messungen werden nicht nur als reine Informationen, sondern als eine Auf- forderung zurückgeleitet, das Produkt aufgrund seiner Beliebtheit zu bewerten. Das Absatzranking ist freilich noch nicht alles. Wie die meisten Trending- Algorithmen mildert oder vermeidet auch Amazon unangebrachte Inhalte. Dies wurde durch einen als »Amazonfail« bekannt gewordenen Zwischenfall offensichtlich, bei dem tausende Titel schwuler und lesbischer Belletristik zeitweise ihren Verkaufsrang verloren, weil sie fälschlicherweise als »porno- graphisch« klassifiziert wurden.6 Dieser Vorfall ist eine kleine aber wichtige Erinnerung daran, dass Verkaufsrankings, wie andere Trending-Algorithmen auch öffentliche Darstellungen von Popularität sind und nicht nur tabellari- sche Aufstellungen von Transaktionen. Wir sollten auch Navigationshilfen in diese Kategorie aufnehmen, die in unserem Kontext auf den ersten Blick als nebensächlich erscheinen mögen, sich jedoch ebenso als Einblicke in beliebte Aktivitäten lesen lassen. Man den- ke an Googles Funktion der Autovervollständigung, mittels der die Websei- te die Suchanfragen auf Grundlage der ersten eingetippten Buchstaben oder Worte auf der Basis des Korpus vorhergegangener Suchanfragen vergleichend antizipiert. Während der primäre Zweck der Autovervollständigung darin be- steht, den Nutzer von der Notwendigkeit des Eintippens der restlichen Suchan- frage zu befreien, stellen die Vorschläge der Autovervollständigungsfunktion auch eine Art Maß für gängige und beliebte Aktivitäten dar (zumindest was die Suche via Google betrifft). Scheinbar sind wir überflutet von solchen algorithmischen Einblicken ins Populäre, in kleine Barometer der öffentlichen Interessen und Beliebtheiten, die auf der Basis plattform-spezifischer Aktivitäten generiert werden und die uns dazu auffordern, diesen Trends Beachtung zu schenken und uns ihnen anzuschließen. Darüber hinaus ist das Wort ›trending‹ aus dem engeren Kontext von Twit- ter und dessen Konkurrenten ausgebrochen und taucht mittlerweile querbeet in kulturellen, journalistischen und Werbediskursen auf. ›Trending‹ ist eine zunehmend weitverbreitete Trope in Werbetexten, Modestrecken, Nachrich- tenmeldungen und sogar in akademischen Publikationen (Abb. 3.4). Es soll nun nicht suggeriert werden, dass Werber und Nachrichtensendun- gen niemals zuvor versucht hätten, unsere Aufmerksamkeit zu erregen, indem 6 | Avi Rappoport: »Amazonfail: How Metadata and Sex Broke the Amazon Book Search«, in: Information Today. Inc., 20. April 2009. http://newsbreaks.infotoday. com(NewsBreaks/Amazonfail-How-Metadata-and-Sex-Broke-the-Amazon-Book-Se arch-53507.asp (zuletzt aufgerufen am 26. Mai 2015). 3. # trendingistrending 85 sie uns mitteilten, was zu einem gegebenen Zeitpunkt gerade populär war. Allerdings ist der Umstand, dass das Wort ›trending‹ Teil des Zeitgeistes ist, ein Indikator für die Art und Weise, wie eine spezifische Formation von Popu- larität unsere Aufmerksamkeit und Vorstellungskraft erobert hat. die effeK te der trending-algorithmen? Die Suchfunktion war der erste Grund zur Besorgnis für Soziologinnen und Soziologen, den algorithmischen Medien ihr Interesse zu widmen. Ob sie nun den Begriff des ›Algorithmus‹ nutzten oder nicht, Forschungen zu potentiel- len Verzerrungen bei der Suche (Granka 2010; Halavais 2008; Introna/Nissen- baum 2000) und der Personalisierung von Nachrichten (Pariser 2012) waren die prägenden Bedenken hinsichtlich der Algorithmen und ihres Einflusses auf Kultur. Angesichts der Tatsache, dass die Plattformen immer mehr Mittel und Wege suchten die Präferenzen eines jeden einzelnen Nutzers zu ermit- teln (Stalder/Mayer 2009; Zimmer 2008), bestand der Antrieb dieser Arbeiten einerseits im Wegfall gemeinsamer Erfahrung und dem Aufbrechen von Öf- fentlichkeiten, sowie andererseits im ansteigenden Datenmissbrauch und der kommerziellen Verwertung von Informationen. Anders als Suchalgorithmen, versprechen Trending-Algorithmen einen Einblick in das, was bei anderen Interesse und Wohlgefallen hervorruft – sie fungieren als ein Barometer für das, was gerade vor sich geht. Sie offerieren jene zufälligen Entdeckungen, die in einem personalisierten Nachrichtenum- feld verloren zu gehen drohten. Anstatt sie zu zerreißen, rufen Trending-Algo- rithmen Öffentlichkeiten eher zusammen (dieweil sie einige Öffentlichkeiten gegenüber anderen privilegieren). Andererseits liefern Trending-Algorithmen eher Hieroglyphen als Einbli- cke. ›Trending‹ ist eine kryptische Kategorie, die auch sich mit den genannten Messinstrumenten nur selten aufschlüsseln lässt. Trends sind keine unab- hängigen Phänomene: Anders als beispielsweise Abonnentenzahlen oder die Anzahl an Likes, beanspruchen sie noch nicht einmal, verifizierbare Fakten darzustellen. ›Trends‹ können hunderte Bedeutungen annehmen oder auch gar nichts bedeuten. Trending-Algorithmen müssen nicht im strengen Sinne zutreffend sein, sie dürfen lediglich nicht gänzlich falsch liegen. Aber sie be- anspruchen, etwas über öffentliche Aufmerksamkeit jenseits der von der Nut- zerin ausgewählten Community aus Freunden oder Followers auszusagen. Sie sagen etwas über kulturelle Relevanz aus – vielleicht implizit, vielleicht auch fehlerhaft – in jedem Fall sind wir angehalten, sie als solche zu interpretieren. Sie kristallisieren populäre Aktivitäten zu etwas Lesbarem und leiten es dann an uns zurück, oftmals im gleichen Moment in dem weitere Aktivitäten statt- finden. 86 Tarleton Gillespie Abb. 3.4: »Was ist ›Trending‹« (Eine Werbe-Email von Routledge, © Taylor & Francis, 2014). Wissenschaftlerinnen und Wissenschaftler, die sich mit Social-Media-Platt- formen und besonders mit den Algorithmen, die sie antreiben beschäftigen, haben begonnen, sich über die Bedeutung von Metriken wie Twitter Trends, und allgemeiner noch über die Bedeutung der »Metrifizierung« sozialer On- 3. # trendingistrending 87 lineaktivität Gedanken zu machen (Beer 2015; Beer/Burrows 2013; Gerlitz/ Lury 2014; Grosser 2014; Hallinan/Striphas 2014; Hanrahan 2013; Lotan 2015; Marwick 2015). Erstens sind wichtige Fragen zu stellen, wie diese Messins- trumente gebaut sind und wie sie die digitale Kultur prägen. Ähnliche Fra- gen wurden schon bezüglich demoskopischer Methoden zur Feststellung der öffentlichen Meinung gestellt (Beniger 1992; Bourdieu 1972; Herbst 2001). Wie werden Behauptungen über das was ›trending‹ ist erstellt, wer wird dabei erfasst und inwiefern könnten diese Behauptungen verzerrend sein? Compu- terbasierte statistische Methoden zur Ermittlung des populären Geschmacks können in vielerlei Hinsicht unausgewogen und verzerrend sein (Baym 2013). Trends könnten einige Formen der Publikumsaktivität besser erfassen als an- dere, nicht allein indem sie diese übersehen, sondern auch indem sie diese zu etwas vermeintlich Irrelevantem machen. Da nur wenige Institutionen diese Metriken in großem Umfang generieren können und diese oftmals selbst de- ren Produzent und Vertreiber (und Betreiber von Plattformen) sind, besteht darüber hinaus das Risiko eigennütziger Verzerrungen, indem sie jene Arten an Kollektivität formen, die sie erhoffen zu erzeugen und die auf ihre Plattform zugeschnitten sind. Zweitens, was sind die Effekte dieser Metriken, wenn sie in die Öffentlich- keit zurückgeleitet werden? Es gibt Hinweise dafür, dass Metriken Popularität nicht lediglich abbilden, sondern diese auch verstärken – ein Matthäus-Effekt mit wirklichen ökonomischen Konsequenzen für die Gewinner wie auch für die Verlierer. Einige Social-Media-Plattformen sind so strukturiert, dass sie Popula- rität mit Sichtbarkeit belohnen, indem sie die höchst rangierenden Suchergeb- nisse oder den am besten von einer Community bewerteten Inhalt ganz oben auf ihrer Seite aufführen. Wenn Sichtbarkeit für Publizität von Bedeutung ist, dann sind Metriken der Popularität, welche diese Sichtbarkeit bestimmen ebenso be- deutsam (Sorenson 2007; Stoddard 2015). Darüber hinaus nutzen einige Kon- sumenten solche Metriken als Indikatoren für Qualität: Das Kaufen entlang der Bestsellerliste oder das Downloaden der am häufigsten heruntergeladenen Songs ist eine bessere Strategie um an Qualität zu kommen als sich allein vom Zufall leiten zu lassen. Dies wiederum bedeutet, dass frühe Gewinner Verstär- kungseffekte ihrer eigenen Popularität genießen (Salganik/Watts 2008). Die Dynamik solcher Feedbackschleifen ist im Falle von Trending-Algo- rithmen wahrscheinlich ausgeprägter und verwobener. Weil die Kalkulationen nahezu in Echtzeit erfolgen (Weltevrede et al. 2014) und just in dem Moment an die Nutzer zurückgeleitet werden, in dem sie mit diesen hervorgehobenen Inhalten interagieren können, ist es wahrscheinlich, dass die Zunahme an Popularität noch gesteigert wird. Wie David Beer anmerkt, »beobachten wir eine emergierende ›Politik der Zirkulation‹, in der Daten rekursiv in die Re- konfiguration von Kultur zurück gefaltet werden« (Beer 2015: 2). In einigen Fällen ist dies zentral für das Interface einer Plattform. Man klicke beispiels- 88 Tarleton Gillespie weise einen Künstler auf Spotify an: Der erste und prominenteste Vorschlag besteht aus den fünf Songs, die Spotifys Messung zufolge am häufigsten wiedergegeben wurden, allerdings in Abhängigkeit davon, wie neu die Mu- sik ist – sprich, wir haben es mit einem Trending-Algorithmus zu tun. Diese fünf Songs werden nicht nur mit höherer Wahrscheinlichkeit abgespielt als andere, sie stellen auch eine Art und Weise dar, diesen Künstler zu entdecken und zu bewerten. Hinzu kommt, dass Trends selbst-bestätigend sind: Wenn man einen Themen-Trend auf Twitter anklickt, begegnet man einer Debatte, die bereits im vollem Gange ist – ein viszeraler Beweis für die Popularität des Themas ungeachtet allerdings anderer Themen die tatsächlich noch populärer sind und ohne Rücksicht auch auf die Frage, welche Bevölkerungsgruppen an diesem Trend beteiligt sind und welche nicht. In Anbetracht der Tatsache, dass Trending-Algorithmen sich, wie gesehen, einem sehr breiten Wer und einem sehr engen Wann widmen, könnte ihre Form darüber hinaus die temporalen Eigenschaften des kulturellen Diskurses beeinflussen. Freilich ist die Vermutung nicht neu, dass die Populärkultur, und zumal die des Westens, von einem Prozess der Beschleunigung geprägt ist. Nachrichtenkreisläufe, die Geschwindigkeit mit der Film- und Musikhits auftauchen und verschwinden, die Viralität digitaler Kultur, all das deutet da- rauf hin, dass unsere Gegenwartskultur Neuartigkeit und Präsentismus prä- miert. Das Bestreben, einen neuen Trend zu setzen, erfordert es, das Spiel um Ausdehnung und Geschwindigkeit mitzuspielen. Es geht darum, eine Debatte auf exakt die Weise zum Anstieg zu bringen, die von einem Trendig-Algorith- mus erkannt wird. Wir könnten hier etwas Ähnlichem beiwohnen wie beim Auftauchen der Soundbites (Hallin 1992), einer ähnlichen Formung kulturel- ler Praktiken, die sich zunehmend am Einfangen der Aufmerksamkeit von Nachrichteninstitutionen durch Kürze ausrichtet. Powers (2015) argumentiert ähnlich in ihrer Erörterung der »firsts« – ein Phänomen, bei dem Onlinekom- mentatoren versuchen, als erste in einem Thread zu posten, völlig unabhängig davon, ob sie etwas Relevantes beizutragen haben oder nicht. Diese besondere »Metakultur« (Urban 2001, zit.n. Powers 2015) oder diese kulturelle Form von Kultur stellt eine komplexe Kombination aus dem Streben danach Erster in der Zeit, Erster auf einer Liste und ›Erster als Bester‹ zu sein dar – eine Kombi- nation die auch andere Strukturen wie die ›Top 10‹, die ›Eilmeldung‹ und die Soundbites umgreift. Es handelt sich hierbei um eine Kombination, die auch den Trending-Algorithmen inhärent ist. Wie Beer und Burrows feststellen, »handelt es sich um ein beschleunigtes und in gewisser Hinsicht vollkommen neues Set an Organisations- und Beziehungsformen der Populärkultur, von dem wir bislang recht wenig verstehen. Weder besitzen wir ein klares Verständnis der soziotechnischen Infra- strukturen und Archive, die dieses Set gestalten und flankieren; noch wissen wir, wie 3. # trendingistrending 89 mit diesen Daten umgegangen wird und wie sie algorithmisch sortier t werden und wie all das letztlich die Kultur prägt.« (Beer/Burrows 2013: 63)7 das PoPul äre Verstehen: Von der geschmacKsformung Zu PubliKumsme triKen Zu informationsVermit tlern Trending-Algorithmen mögen im technischen Sinne zwar neu sein, im kultu- rellen Sinne sind sie es nicht. Sie bauen auf einer jahrhundertelangen Erfah- rung der Medienbranche auf, das zu identifizieren (und oft auch zu quantifi- zieren), was beliebt ist, wobei immer wieder innovative Wege gefunden werden, diese Messungen in die kulturelle Zirkulation zurückfließen zu lassen. Wir begegnen Kultur seit langer Zeit vermittelt über subjektive Behauptungen, so- wie über hervorgebrachte Metriken darüber, was populär ist, was populär sein wird und was es sein sollte. Folglich ist es angebracht, die Trending-Algorith- men und ihre Rolle in den Social-Media-Pattformen im Lichte ihrer Analoga des 20. Jahrhunderts zu betrachten. Ich verbinde unsere Untersuchung der Algorithmen an dieser Stelle mit einer weiter gefassten Befragung der materiellen, institutionellen und öko- nomischen Strukturen der Massenmedien und der Frage nach den Implika- tionen, die diese Strukturen für die Zirkulation von Kultur haben (Williams 1958). Das schließt die Berücksichtigung der politischen Ökonomie der Kultur- produktion und Distribution mit ein (Garnham 1979; Masell 2004) und spezi- fischer die Berücksichtigung der Werbebranche, die diese Unternehmungen dominiert (Havens et al. 2009; Jenkins 2006; McChesney 2015). Schließlich müssen wir auch betrachten, wie die Social-Media-Plattformen zunehmend diese Rolle übernehmen (Burgess/Green 2013; Gillespie 2010; Napoli 2015; Sandvig 2015; Vaidhyanathan 2012, van Dijck 2013); wie kulturelle Dynamiken deren Inhalte prägen (Braun 2015a, 2015b; Holt/Perren 2009; Peterson/Anand 2004); und wir müssen auch die Arbeit der »kulturellen Vermittler« beachten, welche die Erzeugung symbolischer Güter und Bedeutungen ermöglichen und legitimieren (Bourdieu 1993; Downey 2014; Hesmondhalgh 2006; Neff 2012). Diese Verbindung wird insbesondere von Morris in seiner Erörterung der »In- formationsvermittler« explizit gemacht, in der er die Arbeit algorithmischer Kuratoren (am Beispiel von Musikempfehlungssystemen) als in vielerlei Hin- sicht analog zu jenen humanen Kulturvermittlern betrachtet, die Bourdieu im Auge hatte. Wie die Informationsmedien, war die Medienwirtschaft des 19. und 20. Jahrhunderts – vom Buch- zum Zeitschriftenverlagswesen, vom Rundfunk 7 | Die Übersetzung dieses und aller weiteren Zitate aus Werken, von denen keine deut- sche Übersetzung vorliegt, stammen von mir. A.d.Ü. 90 Tarleton Gillespie zur Distribution von Filmen und Musik – abhängig von einer Ökonomie öf- fentlicher Güter, deren Fertigungskosten hoch und deren Distributionskosten relativ niedrig sind. Genauso abhängig war sie freilich von einer stetigen Anti- zipation der flatterhaften Geschmackspräferenzen der Öffentlichkeit. Dieweil sie in Umfang und Ambition wuchs, suchte sie neue Methoden, den populären Geschmack zu lesen und diese Präferenzen an das Publikum zurückzusen- den. Produzenten und Distributoren, die darauf erpicht waren, den populären Geschmack zu antizipieren und zu prägen, wandten sich zunächst subjektiven und impressionistischen Geschmacksformern zu: Diskjockeys, Buchrezen- senten, Filmkritikern und Kulturreportern. Diese Evaluatoren des Populären waren angewiesen auf eine Kombination aus persönlichem oder subjektivem Scharfsinn, Expertise und auf die vorgebliche oder nachweisliche Fähigkeit, den Puls der Zeit zu treffen. Die Tatsache, dass Twitter und andere Social-Me- dia-Plattformen ihre Mechanismen als »Trends« bezeichneten, geht auf diese Tradition des Trendsettings zurück: die Zeitschriften, die sich des Aufspürens von Modetrends widmen; die DJs, mit einem Gespür für aufkommende neue Musikgenres; die Unternehmensführung, mit einer Intuition für ›das nächste große Ding‹. Heutzutage nehmen Blogger, Podcaster, die Gestalter von Play- lists – und vielleicht wir alle (Maguire/Matthews 2012) – die Rolle der kulturel- len Vermittler ein und tragen sie in das 21. Jahrhundert. Für die Medienbranche erschienen diese willkürlichen Formen, die Öffent- lichkeit zu deuten und deren Bedürfnisantizipation, zunehmend als ungenü- gend und riskant. Sie hatten jedoch eine andere Möglichkeit zur Evaluierung des Populären parat, zumindest, was ihre eigenen Produkte anging: »Simultan zu der Entwicklung der Massenmedien um die Jahrhundertwende kam etwas auf, was wir als Massenfeedback-Technologien bezeichnen könnten.« (Beniger 1989: 376) Die Unternehmen suchten nach immer elaborierteren Varianten von Verkaufsdaten, das schloss Zirkulationszahlen von Zeitungen und Zeit- schriften ebenso mit ein, wie die Verkaufszahlen an Abendkassen und die Zu- hörer- und Zuschauerbewertungen von Film- und Radiosendungen (Napoli 2003). Einige der Facetten dieser Entwicklung sind der Industrialisierung des Distributionsverfahrens selbst zuzurechnen, der Registrierung, wie Zeitun- gen oder LPs vom Warenlager auf die Ladentheke kamen. Insbesondere An- zeigenkunden waren an detaillierten Informationen über Publika interessiert, die sie kauften; sie wollten objektivere Verfahren der Datenerhebung und eine höhere Granularität (Ang 1991). Dabei handelte es sich allerdings um keine leichte Angelegenheit. Es be- durfte Jahrzehnte der Innovation zur Verfolgung von Verkaufs- und Zirkula- tionsdaten auf nationaler und sogar globaler Ebene, um die Daten mit Demo- graphien, Regionen und Genres sinnvoll in Verbindung zu setzen. Die ersten Messtechniken waren plump. Wie Ang (1991) und Napoli (2003) anmerken, 3. # trendingistrending 91 haben frühe Radiosender das Gewicht von Fanpost als grobe Einschätzung der Popularität verwendet. Die frühen und stumpfen Feedbackmechanismen wurden nach und nach durch rationalisiertere und analytischere Vorgehens- weisen ersetzt, um den allgemeinen Verhaltensmustern und dem allgemei- nen Geschmack auf den Grund zu gehen. Beispielhaft hierfür sind das Auf- tauchen neuer Berufsgruppen und Disziplinen (wie die der Psychologie) zur Publikumsvermessung und schließlich auch das Aufkommen von Drittanbie- tern wie Nielsen zur Erschließung von Zielgruppendaten und zum Wiederver- kauf dieser Daten an interessierte Branchen (Napoli 2003). Diese stärker auf konkreten Konsumdaten fundierten Ansprüche können sich allerdings nicht gänzlich gegen die eher impressionistischen Qualitäten der Geschmacksfor- mer und Trendsetter durchsetzen, da es auch um das Ermitteln und Generie- ren von Popularitätswellen geht, bevor diese ihren Höhepunkt erreicht haben. Dieser Schwenk der Zielgruppen-Metrik stellte eine Transformation der Medienbranche und der kulturellen Werke, die diese zirkulieren ließen, dar, insofern beide, sowohl die Zielgruppen als auch die Produkte selbst im Sin- ne dieser Popularitäts-Metriken verstanden wurden (Napoli 2003). Jedoch war der Aufstieg der Zielgruppendaten die Begleiterscheinung einer weiterreichen- den Faszination für Marktumfragen und anderer messbarer sozialer Daten im Allgemeinen (Igo 2008). In groß angelegten Projekten wie der »Middletown Study« von Lynd, der politischen Meinungsforschung von Gallup und ande- ren, und den Untersuchungen menschlicher Sexualität von Kinsey wurden umfangreiche quantitative Methoden der sozialwissenschaftlichen Forschung angewandt, um das aufkommende Interesse am Typischen und an der Ge- samtheit zu stillen. Neben diesen Projekten nahmen die Marktforschung und die Medien-Zielgruppen-Forschung die gleichen Methoden und Werkzeuge auf, um ähnliche Fragen zu stellen. Das gegenwärtige öffentliche Interesse, nicht allein an ›Trends‹ sondern auch jenes an Infographiken, Heatmaps, Prog- nosen zukünftiger Onlineaktivität und kultureller Präferenz ist Teil einer jahr- hundertlangen Faszination für soziale Daten und die Enthüllungsversprechen über die Öffentlichkeit, die mit ihnen einhergehen. Mit dem Übergang zu digitaler Produktion und Distribution wurde die Kapazität zur Erfassung von Daten über Zielgruppenaktivitäten und Präferen- zen seitens der Produzenten von Inhalten, der Verbreitungsplattformen und Suchmaschinendienste radikal gesteigert. Die Verarbeitung und Ausbeutung dieser Daten ist eine wesentliche Methode der Informationsvermittler. Die Trending-Algorithmen sind zu einem Strukturelement der Social-Media-Platt- formen geworden, teilweise gerade weil sie einfache und nebenbei abfallende Datenbits von Plattformen darstellen, die direkt an die Nutzerinnen zurückge- liefert werden können. Wir können uns die Trends als die der Nutzerin gezeig- te Spitze eines riesigen Eisbergs vorstellen, der aus Unmengen an Nutzer-Ana- lysen besteht, die von den Plattformen in ihrem eigenen sowie im Interesse von 92 Tarleton Gillespie Werbeagenturen und Partnern durchgeführt werden. Die Ergebnisse dieser Analysen kriegen die Nutzerinnen freilich nur selten zu sehen. Morris schlägt in diesem Kontext vor, dass wir uns vermehrt den Informa- tionsvermittlern widmen sollten, »einer auftauchenden Ebene von Organisatio- nen, […] die die Nutzung digital-kultureller Produkte überwachen, nutzen und vermitteln (z.B. E-Books, Musikdateien, Video-Streams etc.). Ebenso erfassen sie, mittels sozialer und neuer Medientechnologien wie das Publikum auf die- se Produkte reagiert« (Morris 2015: 447). Diese Informationsvermittler haben die Aufgaben der Geschmacksformung und der »Herstellung des Publikums« (Bermejo 2009) übernommen. Ferner beginnen wir eine Form der automa- tisierten Informationsproduktion zu beobachten, die auf Nachfrage und mit Bezug auf die Messungen der Publikumsinteressen hergestellt wird (Anderson 2011). Die Einordnung der Trending-Algorithmen als ein Teil historischer Be- strebungen, »das Populäre zu erkennen« hebt einige interessante Merkmale der Trending-Algorithmen hervor und lenkt den Blick darauf, wie sie unsere Auseinandersetzung mit Kultur vermitteln. Es zeigt sich so, wie diese Metri- ken immer beides sind: mathematisch und subjektiv; wie sie stets geprägt sind durch bestimmte Gewichtungen und Interessen des kommerziellen Prismas und es unterstreicht, dass diese Messinstrumente ihre Bedeutung durch die- jenigen Plattformen und Branchen erlangen, die sie generieren. die me triKen selbst Werden Zu Kulturellen objeK ten Und dennoch würde ich behaupten, dass uns, sofern wir die Trending-Algo- rithmen allein in Hinblick auf ihre potentiellen Auswirkungen auf die Kultur betrachten, eine Dimension verloren geht. Wir übersehen dann, wie die Algo- rithmen selbst rasch zu kulturellen Objekten werden. Trending-Algorithmen sind nicht nur von Belang, weil sie Kultur auf besondere Weisen repräsentie- ren, sondern weil sie selbst kulturell bedeutsam werden. Schließlich werden sie selbst zum Anziehungspunkt des Interesses; sie sind ›Sachverhalte‹, die debattiert und verfolgt werden; sie sind lesbare Anzeiger des sich wandelnden allgemeinen Geschmacks oder einer verrückt gewordenen Kultur – je nach Standpunkt des Betrachters. Wenn CNN diskutiert, was auf Twitter gerade ›trending‹ ist, nutzt es Trends als einen Index für das Populäre und behandelt diesen Index als kulturell relevant. Die Messungen dessen, was populär ist, erzählen Geschichten über die Öffentlichkeit; und sie werden von denjenigen, die sie erzeugen oder auch nur an ihnen teilhaben, als etwas entworfen das Geschichten erzählt. Einmal mehr erweisen sich die Zuschauermessungen hier als sinnvoller Vergleichspunkt. In der zweiten Hälfte des 20. Jahrhunderts wurden Zuschau- 3. # trendingistrending 93 erquoten nicht nur von Branchenexperten in Anspruch genommen, sondern ebenso von einem breiteren Publikum. Sie flossen in die Werbung ein – »Die Nummer 1 an der Abendkasse!« – und zirkulierten allgemein in den Kultur- berichterstattungen der Unterhaltungspresse. Zeitungsrubriken, die sich Bü- chern oder Filmen widmeten, begannen Bestsellerlisten und Absatzzahlen von den Abendkassen zu vermelden und berichteten über die wöchentlichen Spitzenreiter, wie sie über Wahlen berichteten. Fachmagazine wie Billboard oder Variety, die bestimmte Industrien und Branchen behandeln, expandier- ten zunehmend, um auch eine nicht mit den jeweiligen Branchen assoziierte Leserschaft anzusprechen. Populäre Zeitschriften wie TV Guide, Entertain- ment Weekly, und Rolling Stone veröffentlichen Ranking- und Absatzdaten di- rekt neben ihren Artikeln und Rezensionen. Ein Medien-Fan zu sein bedeutet mehr und mehr zu wissen, wie viel Geld ein Film am Wochenende seines Ki- nostarts einspielte, welche Show die meisten Zuschauer in ihrem Zeitfenster hatte oder welches Album das beste Debüt hinlegte. Möglicherwiese ist die über Jahre laufende und von Casey Kasem mode- rierte Radiosendung American Top 40 das hierfür eindrucksvollste Beispiel. Das Konzept der Sendung orientierte sich an den zu dieser Zeit aufkommen- den »Top 40«-Radiostationen, die ausschließlich die 40 populärsten Hits der Woche in den USA spielten. Dabei wurde auf die Daten von Billboards »Top 100« Single-Charts zurückgegriffen. Die Sendung wurde schnell begeistert angenommen – sie startete am 04. Juli 1970 auf sieben US-Amerikanischen Radiostationen und war zu ihren populärsten Zeiten an über 1.000 Radiosta- tionen in über 50 Ländern angeschlossen. In den folgenden Jahrzehnten sollte sie einen riesigen Einfluss auf die amerikanische Musikkultur ausüben. In Zeiten vor MTV, digitalen Downloads und Musik-Streaming-Diensten, war die Sendung eine der wenigen Gelegenheiten, die populärsten Songs des Landes zu hören. Zudem offerierte sie den Zuhörerinnen das Vergnügen mit zu verfol- gen, welche Songs an Popularität gewannen und welche verloren und welcher Song letztlich als Nummer 1 der Woche gekrönt werden sollte (Weisbard 2014). Dies war nicht das erste Mal, dass Verkaufszahlen aus der Musikbranche als ein kultureller Beitrag an die Zuhörer zurückgeleitet wurden. Lokale Radio- stationen hatten bereits begonnen, Countdowns zu übertragen, allerdings wa- ren sie in ihren Maßstäben auf regionale Zuhörergruppen begrenzt. American Top 40s direktester Vorgänger Your Hit Parade, eine Sendung die von 1935 bis 1953 als Radiosendung und während der 50er als Fernsehsendung existierte, übertrug Studioaufnahmen von Musikerinnen und Sängern, die die landes- weit populärsten Songs darboten. In der Bestimmung von Popularität war Your Hit Parade vorsichtiger. Die Ermittlung der Popularität beruhte auf einer ›au- thentischen Aufstellung‹ der Befragungen von US-Amerikanischen Zuhörern, Jukebox-Anbietern und Musiknotenverkäufern, die von American Tobacco, dem Sponsoren der Show, durchgeführt wurden. 94 Tarleton Gillespie Die Zeitschrift Billboard erschien bereits 1894. Ursprünglich widmete sie sich der Plakatwerbung und dem Amüsement, bevor sie ihre Inhalte um Film, Varieté und Live-Unterhaltung erweiterte. Charts für Musiknotenverkäufe er- schienen erstmalig in den 1910er Jahren. ›Hitparaden‹ der populärsten Juke- box-Songs der USA wurden in den 1930ern aufgenommen; darauf folgten Charts zur Rundfunkmusik in den 1950ern. Obgleich Billboard für individuelle Abonnenten verfügbar war, war es als ein Fachmagazin für Musiker und Wer- befachleute konzipiert: Es war American Top 40, die Billboards Metriken dem populären Konsum zugänglich machte. Neben der Ausstrahlung von Billboards Messergebnissen, wurde American Top 40 zu einer kulturellen Ikone. Die Sen- dung bot ein Ritual für Musikfans der 1970er, 1980er und 1990er Jahre, sie war ein gemeinsam genutzter Medientext. Kasem wurde zu einer berühmten Persönlichkeit und viele Einzelheiten der Show wurden zu anerkannten kultu- rellen Prüfsteinen: die akustischen Ausschmückungen, die eingesetzt wurden um von der Werbepause in die Show überzuleiten; die ›Long Distance Dedicati- ons‹8 und Kasems Schlussworte. American Top 40 war nicht nur für die Künst- ler kulturell bedeutsam (deren Popularität und Einkommen stark durch das ›Charting‹ und das Erreichen des ersten Platzes beeinflusst wurde), sondern auch für die zuhörenden Fans. Einige der Fans verfolgten die wechselhaften Schicksale ihrer Favoriten geflissentlich, argumentierten, warum diese oder jene Künstlerin auf die Liste gehörte oder nicht und machten sich Hoffnung, ihre eigenen Kommentare auf Sendung zu hören. Einen präzisen Bericht der US-Amerikanischen Geschmäcker zu liefern, machte nur einen Teil von Ame- rican Top 40 aus. Es handelte sich auch um eine Version von Trend der US- Amerikanischen Musik – mit Billboard als Trending-Algorithmus. me triKen Können Zu einem objeK t Von Kulturellem bel ang Werden Solange American Top 40 auf Sendung war und auch noch lange Zeit danach, debattierte man über diese Show, die Vorstellung von Musik und die ameri- kanische Öffentlichkeit, die sie hervorgebracht hatte. Sogar Kasems Tod 2014 wiederbelebte die Debatte um den Populismus und die Künstlichkeit seiner Show und deren Effekte auf die amerikanische Musikkultur.9 War sie der Mit- 8 | Die ›Long Distance Dedication‹ war seit 1978 ein Element der Radiosendung, in dem Kasem Briefe von Hörern verlas, mit denen sie Menschen an zumeist weit entfernten Orten der Welt grüßten (A.d.Ü.). 9 | John Pareles: »Host in a Big-Tent Era of Pop Music«, in: New York Times, 15. Juni 2014. www.nytimes.com/2014/06/16/arts/music/remembering-casey-kasem-dj- for-a-more-eclectic-pop-radio.html (zuletzt aufgerufen am 26. Mai 2015); Scott Tim- 3. # trendingistrending 95 telpunkt gegenwärtig geteilter Musikvorlieben, um den herum sich die Publi- ka vereinten? Oder war sie das Produkt eines bereits sehr begrenzten Radiofor- mats das sich zu sehr auf Hits konzentrierte? War sie trotz des Konservatismus des Radioprogramms leistungsorientiert, hat sie neue Künstler eingeführt und klassische musikalische Formen in Frage gestellt? Oder marginalisierte die Show Genres wie Hiphop, Metal und Country, die eher mit der Arbeiterklasse oder dem schwarzen Publikum assoziiert wurden? Machte sie den Kommerz zur vorherrschenden Metrik, um den Wert der Musik zu messen? Oder hörte sie den Fans vielleicht einfach besser zu, als es dies der Markt tun konnte? Repräsentierte sie eine ›geteilte Kultur‹ um die Superstars der 1980er Jahre (wie Michael Jackson und Madonna) oder war diese ›geteilte Kultur‹ nur ein artifizielles Konstrukt der Billboard-Charts und der Show selbst, die angesichts der Fragmentierung der Musik in den 1990ern bröckelte? Die Debatten um die Beschaffenheit und den Wert ›des Populären‹ in der Kultur gingen American Top 40 freilich schon voraus, ebenso wie sie über sie hinaus gingen. Was bedeutet ›populär‹ im Sinne jeder dieser einzelnen Metri- ken und was sollte es bedeuten? Schadet die Erweiterung und Vervielfältigung des Populären der Kultur oder tun diese ihr gut? Solche Bedenken betreffen American Top 40, die Billboard-Charts, die Geschichte der amerikanischen Ra- dioformate ebenso wie die Struktur der Musikindustrie selbst. Was bedeutet es, wenn kommerzielle Mechanismen das Populäre vermessen und beurtei- len? Wenn uns Informationsvermittler das Populäre unterbreiten, handelt es sich dann um die Widerspiegelung unserer Bedürfnisse oder die Fabrikation derselben? Wir können heutzutage ähnlich gelagerte Debatten über die Social-Media- Plattformen und ihren Nutzen vernehmen, Debatten darüber, wie und mit welchen Effekten die sozialen Medien das Populäre verstärken, erweitern und zu uns zurückleiten. Seitdem es die sozialen Medien gibt, diskutieren wir dar- über, ob die Informationen die sie übermitteln von hinreichender Bedeutsam- keit sind oder nicht. In der abgedroschenen Twitter-Kritik »Mir ist egal, was meine Freunde gefrühstückt haben«, hallen frühe Kritiken am Radio wider. Ähnliche Klagelieder über die Effekte der sozialen Medien auf den modernen Journalismus legen nahe, dass die politisch und zivilbürgerlich Gesinnten von Narzissmus und Frivolität übertönt werden. In ihrer Kritik des Facebook-Al- gorithmus fragte sich Tufekci (2015), was der Umstand bedeuten könnte, dass während ihr Twitter-Account voll von Nachrichten und Kommentaren zu den Protesten in Ferguson waren, ihr Facebook-Feed von Videos der Ice Bucket berg: »Casey Kasem, Ronald Reagan and Music’s 1 percent: Ar tificial ›Popularity Is Not Democracy‹«, in: Salon, 2. Juni 2014. www.salon.com/2014/06/22/casey_kasem_ro nald_reagan_and_musics_1_percent_artificial_popularity_is_not_democracy/ (zu- letzt aufgerufen am 26. Mai 2015). 96 Tarleton Gillespie Challenge dominiert wurde. Was, wenn gerade das was wir begehren, unseren Untergang bedeutet? Manchmal sind Trending-Algorithmen selbst in solcherlei Anfechtungen involviert, mitunter werden sie in Folge dieser Debatten sogar neu designet. Twitter-Trends bietet die Möglichkeit an darüber zu diskutieren, was auf Twit- ter Trends erscheint oder noch wichtiger: was dort nicht erscheint. Manche sagen, es zelebriere popkulturellen Müll und alberne Hashtag-Spiele; andere haben Twitter Trends bezichtigt wichtige Themen zu übersehen. Ich habe an anderer Stelle (Gillespie 2012) über die Bedenken geschrieben, die von poli- tischen Aktivist_innen im Rahmen der Occupy Wall Street-Proteste sowie der Veröffentlichung geheimer Dokumente von Wiki-Leaks geäußert wurden, wenn ein allem Anschein nach populärer Begriff nicht zum Trend wird. Die Klagen über »Zensur« überschatten komplexere und tiefer gehende Fragen zu der Funktionsweise von Algorithmen – wie diese Popularität messen und welche Vermutungen Nutzerinnen darüber aufstellen, was dort erscheint und was nicht. Allerdings schwingen diese Bedenken stets mit, denn Trends sind machtvolle und wichtige Messinstrumente des Populären und werden in der Breite auch so wahrgenommen. Die Kritiken der Occupy-Protestierenden mögen falsch gelegen haben hinsichtlich der Frage, warum ihr Hashtag es nicht zum Trend schaffte. Wenn CNN und große Teile der Öffentlichkeit aller- dings davon ausgehen, dass Trend = Wichtigkeit bedeutet, waren ihre Sorgen zumindest nicht unbegründet. me triKen Können eine Pl at tform bereitstellen, um Über uns selbst als Öffentlichkeit nachZudenKen Die Messungen des Populären erheben den Anspruch, die Öffentlichkeit und deren Geschmäcker darzustellen; allerdings wäre es akkurater zu formulieren, dass sie ausgehend von der Behauptung geteilter Präferenzen eine vorüberge- hende Öffentlichkeit ins Leben rufen. Wie Raymond Williams anmerkte: »Es gibt in der Tat keine Massen, es gibt nur Möglichkeiten Menschen als Massen zu betrachten.« (Williams 1972: 359) Ob wir diese Metriken nun als Wider- spiegelungen oder Konstitution der Öffentlichkeit betrachten, sie werden of- fensichtlich sowohl von Brancheninsidern als auch von Empfängern als etwas wahrgenommen, das etwas über die Öffentlichkeit aussagt. Ein Publikum wird ins Blickfeld gerückt und lesbar gemacht: Die Zuhörer von American Top 40 glauben etwas über ihre Mitzuhörer und über die Kultur zu wissen, an der sie teilnehmen. Die Algorithmen der sozialen Medien generieren »kalkulierte Öffent- lichkeiten« (Gillespie 2014): sie unterstellen eine Gruppe von Personen die vermessen oder eingeschätzt wurde, welche sodann als Begründung dafür die- 3. # trendingistrending 97 nen, warum dieser Gruppe bestimmte Inhalte als relevant präsentiert werden. Das gilt sowohl für Such- als auch für Empfehlungsalgorithmen, und es trifft auch auf Trending-Algorithmen zu: Wenn Suchresultate zu unserer Anfrage zurückkommen, gibt es eine unbestimmte Population an Nutzern, die diese Webseite als relevant wahrgenommen hat und ihre Bewertung in Spuren wie Links oder vergangenen Klicks hinterlassen hat. Wenn ein Film auf der Basis »Leute wie Du« empfohlen wird, genießen die Nutzerinnen einen Einblick in eine Öffentlichkeit, zu der sie offensichtlich gehören – allerdings genießen sie diesen Einblick nur durch die algorithmischen Ergebnisse, die auf eben dieser Basis bereitgestellt wurden. Trending-Algorithmen machen die Behauptung einer errechneten Öffentlichkeit expliziter: genau das lesen ›wir‹ gerade; hierü- ber twittert meine Stadt oder mein Land gerade; das ist die Musik, die Amerika heute hört. Wer oder wann als diese Öffentlichkeit existiert, ist derweil weniger ein- deutig. Während American Top 40 explizit erklärte, dass sich ihr Ranking auf die Billboard-Charts stützte, wurden keine genaueren Informationen dazu übermittelt, wie Billboard diese Charts erstellte – es war auch für das Erleben der Sendung nicht relevant. Man muss schließlich nicht wissen, wie Billboard Verkaufszahlen misst, um den Countdown zu genießen. Obwohl es vage und unklar blieb, wer gemessen wurde, erzählte uns die Sendung ohne Unterlass, um was es ging und für wen – es war Teil der Per- formance. Schon aus dem Namen und dem blau-weiß-roten, mit Sternen geschmückten Logo wurde ersichtlich, dass es hier um eine amerikanische Öffentlichkeit ging. Die Sendung führte Amerika durchgehend auch als dessen räumliches Imaginäres auf: von der Tagline »Die Hits von Küste zu Küste«, zu Kasems Be- grüßung neu angeschlossener Radiostationen, bei der er stets Stadt und Bun- desstaat anführte und auch regelmäßig und stolz hervorhob, dass die Show auch im US-amerikanischen Soldatenradio (American Armed Forces Radio) ausgestrahlt wurde; bis hin zu so blumigen Zwischenbemerkungen wie »von der felsigen Küste Maines zu den sandigen Ufern Hawais«. Bei der Show ging es nicht nur um das hören gegenwärtig populärer Songs, sondern auch um die Aufführung Amerikas. ›Twitter Trends‹ zeigt an, welche Region vermessen wird, ich könnte »Bos- ton Trends«, »United States Trends« oder jede beliebige von Twitter angebote- ne Region wählen, ganz gleich ob ich dort wohne oder nicht. Wie Twitter diese Orte oder Sets von georteten Nutzern genau eingrenzt bleibt unklar. Für viele Trending-Algorithmen gilt allerdings, dass ›Amerikanität‹ vorausgesetzt oder als Voreinstellung aufgeführt wird. Die Betonung Amerikas in American Top 40 ähnelt eher Trend-Infographiken, die Suchdaten von Pornhub oder Check- ins von Foursquare sortieren und die Suchdaten immer wieder auf die Umrisse der 50 Bundesstaaten zurückprojizieren. Dieses Vorgehen stellt eine durch- 98 Tarleton Gillespie aus intuitive und konventionelle Art und Weise dar, den geteilten Präferenzen einen Sinn zu verleihen, wiewohl die Grenzlinien der Bundesstaaten nichts mit den Gemeinsamkeiten kultureller Bedeutungszuweisung oder dem Fluss der dargestellten Onlinediskussionen zu tun haben. Der Umstand, dass das ›Wir‹, das gemessen wird vage bleibt, bedeutet al- lerdings auch, dass es angefochten werden kann. Trendresultate können ein Diskussionsfeld darüber eröffnen, wer einen Platz im öffentlichen Raum be- kommt, welche Bedeutung der Sichtbarkeit der Resultate zukommt und was passiert, wenn verschiedene Öffentlichkeiten an einem Ort aufeinanderpral- len. UN Women nutzte dies mit großer Wirkung in ihrer Kampagne »The Auto- complete Truth«, die 2014 in Kooperation mit der Werbeagentur Memac Ogilvy & Mather Dubai entwickelt wurde. Die Kampagne hatte das Ziel, auf Gewalt gegen Frauen aufmerksam zu machen, indem verwerfliche Resultate von Goo- gles Autovervollständigungsfunktion zu Satzfragmenten wie »Frauen sollten nicht…« gezeigt wurden (Abb. 3.5). In klein gedruckter Schrift stand auf jedem Poster »Tatsächliche Googlesuche vom 08. März 2013«. Abb. 3.5: »The Autocomplete Truth« (© UN Women, 2013). Die Mitteilung ist ernüchternd, ihre Kraft basiert auf der Annahme, dass die Autovervollständigungs-Algorithmen enthüllen, was »die Leute« wirklich denken, oder zumindest enthüllen, wonach sie suchen – die Kraft der Mit- teilung zehrt also von der Annahme, dass die Autovervollständigung enthüllt »wer wir sind, wenn wir uns unbeobachtet fühlen«. 3. # trendingistrending 99 Besonders heikle Diskussionen entbrannten um das Thema der Sichtbar- keit von Rasse und einer Subpopulation auf Twitter, auf die Nutzer landläufig mit »Black Twitter« verwiesen. Die Themen, die dieser Community wichtig sind, erreichten nur selten den Schwellenwert, um von Twitters Algorithmus anerkannt zu werden, und wenn sie das taten, haben sie xenophobische Re- aktionen hervorgerufen.10 »Was haben diese Themen hier zu suchen?« – diese Aufschreie der Entrüstung haben mit Annahmen darüber zu tun, wem das »hier« gehört, und was passiert, wenn die Messung etwas anderes behauptet. In diesen Reaktionen hallt die Panik um American Top 40 wieder, die aufkam als Hiphop begann neben weißen Künstlern in den Charts aufzutauchen. Ge- rade das Angebot eines öffentlichen Raumes, in dem die Popularität inmitten einer gesamten Öffentlichkeit repräsentiert wird, obwohl die Konturen dieser ›Gesamtheit‹ opak und strittig sind, birgt das Potential für Debatten über die Frage, wer an dieser Öffentlichkeit Teil hat – über konkurrierende Sub-Com- munities mit eigener Öffentlichkeit und darüber, wer und was dort eine Reprä- sentation wert ist. schlussbe tr achtung: Wenn algorithmen Zu Kultur Werden Trending-Algorithmen messen und sie geben und machen bekannt. Sie sind daten-basiert und kalkulierend, und indem sie so verfahren, eröffnen sie mäch- tige Hieroglyphen über einige ›Wir‹, einige Öffentlichkeiten, die selbst zum Gegenstand der Diskussion werden können. Sie können bestaunt oder zurück- gewiesen werden – so etwa, wenn man feststellt, dass eine schlechte Popband gerade den ersten Platz von der geliebten Indie-Band übernommen hat. Tren- ding-Algorithmen können zu kulturellen Objekten von Belang werden, und das nicht allein für diejenigen, die Informationen produzieren und verbreiten, sondern auch für diejenigen, die in ihnen die Widerspiegelung einer Öffent- lichkeit sehen, an der sie selbst teilhaben. Mitunter werden sie dann zum In- halt in und von sich selbst: Was messen sie, welche Öffentlichkeit stellen sie dar, und wie sollten sie das tun? Vielleicht ist die Frage danach, wie Algorithmen Kultur prägen die falsche, oder sie ist falsch solange sie allein gestellt wird. Stattdessen, oder zumindest 10 | Farhad Manjoo: »How Black People Use Twitter«, in: Slate, 10. August 2010. http:// primar y.slate.com/ar ticles/technology/technology/2010/08/how_black _people_ use_Twitter.html (zuletzt aufgerufen am 26. Mai 2015); Lynne D. Johnson: »Reading Responses to How Black People Use Twitter«, in: 14. August 2010. www.lynnedjohnson. com/diary/reading _responses_to_how_black_people_use_twitter/index.html#com ment-68768426 (zuletzt aufgerufen am 6. Mai 2015). 100 Tarleton Gillespie ebenfalls muss gefragt werden, was geschieht, wenn Algorithmen als Kultur aufgegriffen werden, wenn ihre spezifischen Arten von Behauptungen lesbar, deutbar und strittig werden. Wir können weiterhin fragen, wie Algorithmen prägen, was gesehen, privilegiert oder kategorisiert wird, wir können fragen, wie sie möglicherweise diskriminieren oder Fehler begehen oder wie sie uns als Daten behandeln und das menschliche Urteilsvermögen automatisieren. Wenn Algorithmen jedoch soziale und kulturelle Aktivität begleiten, sollten wir zwei Dinge nicht vergessen: Menschliche Aktivität ist öffentlich und algorithmische Eingriffe sind es auch. Wie Giddens (1984) richtigerweise feststellte, ist unsere wissenschaftliche Aufmerksamkeit für menschliche Aktivität anders gelagert als unsere Aufmerksamkeit für natürliche Phänomene, weil Menschen wissen, dass sie beobachtet werden und sich demgemäß verhalten, oftmals auch stra- tegisch. Algorithmische Interventionen in menschliche Aktivität sind mit der gleichen Herausforderung konfrontiert. Und wenn algorithmische Interventio- nen in ihren Outputs, wenn nicht gar in ihrer Funktionsweise ebenso öffentlich sind, dann werden auch sie beobachtet, berücksichtigt und strategisch ange- fochten. Das wiederum bedeutet, dass die Arbeit der Algorithmen eine kulturel- le ist und die Algorithmen selbst demnach nicht frei von Kultur sind. Es könnte sein, dass es eine Weile gedauert hat, bis die Algorithmen selbst zu kulturellen Objekten wurden, gerade weil sie lange Zeit für die gemeine Praxis unsichtbar blieben. Als Google prominent wurde, kamen kulturelle Fra- gen darüber auf, was es bedeutete Google zu nutzen, Google zu lieben, oder ob Google objektiv war oder nicht – die Fragen wurden selbst Teil des kulturellen Diskurses (Roberge/Melançon 2015). Google wurde zu einem Referenzpunkt in informellen Gesprächen, zur Zielscheibe des Spotts, zu einem Verb. Aber der Fokus lag hier auf der Webseite, dem Service oder vielleicht dem Unter- nehmen, nicht speziell auf den Algorithmen. Gleichermaßen wurde Facebook zu einem Referenzpunkt, als es bekannt und häufiger genutzt wurde – eine Art Referenz, die in jedem Gespräch Platz zu haben scheint, vom Onlinele- ben über das Verhalten von Studenten unserer Tage, bis hin zur leichten Ab- lehnung hyperaktiver Teenager. Auf eine gewisse Weise domestizieren wir Technologien immer (Silverstone 1994), indem wir sie in die Kultur und in die Praxis hineinziehen und ihnen Bedeutungen zuweisen, die zumeist nur in den besten Fällen in Beziehung mit ihrem konkreten Funktionieren oder ihren Zwecken stehen. Wir zähmen sie indem wir über sie sprechen und ihnen geteilte Bedeutungen zuweisen. Nun sind auch Algorithmen in zweierlei Hinsicht sichtbarer und kulturell bedeutsam geworden: zum einen als Kern der Funktionalität sozialer Medien und zum anderen als Streitpunkt in jüngeren Kontroversen. Nicht nur begin- nen wir darüber zu diskutieren, welche Resultate Google zurückbringt oder welche Updates Facebook anscheinend privilegiert, sondern der Google-Al- gorithmus und Facebooks Newsfeed-Algorithmus selbst werden bedeutsam. 3. # trendingistrending 101 Oder, um es nochmal anders zu formulieren: Deren Algorithmizität wird be- deutsam. Wenn CNN uns mitteilt, was auf Twitter im Trend liegt, macht dies die Algorithmen kulturell bedeutsam. Wenn eine Gruppe von Twitter-Usern versucht, ihren Hashtag trendy werden zu lassen, oder wenn sie den Umstand zelebriert, dass ihr Hashtag im Trend liegt oder aber anprangern, dass er es nicht zum Trend geschafft hat – all das macht den Algorithmus kulturell be- deutsam. Allerdings sollte sich dies auch auf Algorithmen erstrecken, die nicht für jede oder jeden sichtbar sind: Aktienhändler finden Bedeutung in den Al- gorithmen, die sie nutzen, oder fühlen sich von ihnen benutzt; Immobilien- maklerinnen haben Meinungen zu den komplexen Systemen, die heutzutage ihr Feldwissen strukturieren; Polizeibeamte erzählen Geschichten über die prädiktiven Analysen, die ihre Arbeitsweisen verändert haben. Immer ist dort Kultur in die Vorrichtung involviert: nicht nur in dessen Design, sondern auch in dessen Anwendung. Das bringt uns zu einem aussichtsreichen Dialog. Viele haben Beden- ken über die Ignoranz der Nutzer gegenüber den Algorithmen und deren Auswirkungen geäußert. Allzu oft wurden hierbei die sozialen Medien oder komplexe technische Systeme als hoffnungslos undurchschaubar oder aber als unbedenklich transparent dargestellt. Forderungen nach einer Erziehung für den Umgang mit Daten und die Sorgen um das Verüben von Datenmiss- brauch seitens der Informationssysteme beherbergen die Angst davor, dass die Nutzer nicht vorsichtig genug mit den sie umgebenen algorithmischen Systemen sind. Ich denke aber, dass hier das unausgesprochene Zögern vieler Nutzerinnen zumeist ebenso unterschätzt wird wie die in bestimmten Fällen vorhandene Empörung. In Hinblick auf American Top 40 und die Trends, lässt sich meines Erachtens eine hoffnungsvolle Reaktion auf diese Angst ausma- chen. Nutzerinnen werden sich Gedanken über die Politik der Algorithmen machen – nicht in einem abstrakten Sinne, wohl aber, wenn sie sich selbst, ihr Wissen, ihre Kultur oder Community auf bestimmte Weisen widergespiegelt sehen und diese vermeintlichen Spiegelungen selbst strittig werden. American Top 40 und Billboard-Charts verschleierten spezifische Verzerrungen und ideo- logische Vorannahmen. Allerdings wurden sie auch nicht unhinterfragt ange- nommen. Obwohl sie Präferenzen verkündeten, wurden sie zum Gegenstand eines Streits über eben jene Präferenzen. Während sie Unvoreingenommen- heit behaupteten, wurden ihre Prämissen und ihre Verzerrungen angefochten. Als man begann, sie hinsichtlich neuer musikkultureller Interessen als fehlan- gepasst wahrzunehmen, wurden sie dafür gerügt, etwas Unerlässliches nicht zu berücksichtigen. Das Ausrufen von Hits oder auch Twitters Identifikation von Trends eröffneten einen Raum der Diskussion über alternative Trends, an- dere Öffentlichkeiten und andere Möglichkeiten. Übersetzt von Moritz Plewa. 102 Tarleton Gillespie liter aturVer Zeichnis Anderson, C.W. (2011): »Deliberative, Agonistic, and Algorithmic Audiences: Journalism’s Vision of Its Public in an Age of Audience Transperency«, in: International Journal of Communication 5, S. 529-547. Ang, I. (1991): Desperately Seeking the Audience. London Routledge. Baym, N. (2013): »Data Not Seen: The Uses and Shortcomings of Social Me- dia Metrics«, in: First Monday 18 (10). doi: http://journals.uic.edu/ojs/index. php/fm/article/view/4873 Beer, D. (2015): »Productive Measures: Culture and Measurement in the Context of Everyday Neoliberalism«, in: Big Data & Society 2(1). doi: 10.1177/205395 1715578951. Beer, D./Burrows, R. (2015): »Productive Measures: Culture and Measurement in the Context of Everyday Neoliberalism.« Big Data & Society, 2 (1). doi: 10.1177/2053951715578951. Beniger, J. (1989): The Control Revolution: Technological and Economic Origins of the Information Society, Cambridge, MA: Harvard University Press. Beniger, J.R. (1992): »The Impact of Polling on Public Opinion: Reconciling Foucault, Habermas, and Bourdieu«, in: International Journal of Public Opinion Research 4 (3), S. 204-219. Bermejo, F. (2009): »Audience Manufacture in Historical Perspective: From Broadcasting to Google«, in: New Media & Society 11 (1-2), S. 133-154. Bimber, B. (1994): »Three Faces of Technological Determinism«, in: Smith, Roe/Marx, L. (Hg.): Does Technology Drive History?, Cambridge, MA: MIT Press, S. 79-100. Bourdieu, P. (2011): »Die Institutionalisierung der Anomie«, in: ders.: Kunst und Kultur. Kunst und künstlerisches Feld. Schriften zur Kultursoziologie 4, hg. v. Franz Schultheis/Stephan Egger, Konstanz: UVK, S. 243-269. Braun, J. (2015a): »Social Media and Distribution Studies«, in: Social Media + Society 1 (1). Braun, J. (2015b): This Program Is Brought to You By…: Distributing Televi- sion News Online, New Haven, CT: Yale University Press. doi: 10.1177/ 2056305115580483. Bucher, T. (2012): »A Technicity of Attention: How Software ›Makes Sense‹«, Culture Machine 13, S. 1-13. Burgess, J./Green, J. (2013): YouTube: Online Video and Participatory Culture, Chichester: John Wiley & Sons. Downey, G. (2014): »Making Media Work: Time, Space, Identity, and Labor in the Analysis of Information and Communication Infrastructures«, in: Gillespie, T./Boczkowski, P./Foot, K. (Hg.): Media Technologies: Essays on Communication, Materiality, and Society, Cambridge, MA: MIT Press, S. 141-165. 3. # trendingistrending 103 Garnham, N. (1979): »Contribution to a Political Economy of Mass-Communi- cation«, in: Media, Culture & Society 1 (2), S. 123-146. Gerlitz, C./Lury, C. (2014): »Social Media and Self-evaluating Assemblages: On Numbers, Orderings and Values«, in: Distinktion: Scandinavian Journal of Social Theory 15 (2), S. 174-188. Giddens, A. (1984): The Constitution of Society: Outline of the Theory of Structur- ation, Berkeley, CA: University of California Press. Gillespie, T. (2010): »The Politics of ›Platforms‹«, in: New Media & Society 12 (3), S. 347-364. Gillespie, T. (2012): »Can an Algorithm Be Wrong?«, in: Limn 2, abgerufen auf: http://limn.it/can-an-algorithm-be-wrong/ (zuletzt am 26. Mai 2015). Gillespie, T. (2014): »The Relevance of Algorithms«, in: Gillespie, T./Boczkow- ski, P./Foot, K. (Hg.): Media Technologies: Essays on Communication, Materi- ality, and Society, Cambridge, MA: MIT Press, S. 167-194. Gillespie, T. (2016): »Algorithm«, in: Peters, B. (Hg.): Digital Keywords: A Vo- cabulary of Information Society and Culture, Princeton, NJ: Princeton Uni- versity Press, S. 18-30. Gillespie, T./Seaver, N. (2015): »Critical Algorithm Studies: A Reading List«, in: Social Media Collective, abgerufen auf: http://socialmediacollective.org/ reading-lists/critical-algorithm-studies/ (zuletzt am 26. Mai 2015). Gillespie, T./Boczkowski, P./Foot, K. (2014): »Introduction«, in: dies. (Hg.): Me- dia Technologies: Essays on Communication, Materiality, and Society, Cam- bridge, MA: MIT Press, S. 1-17. Granka, L.A. (2010): »The Politics of Search: A Decade Retrospective«, in: The Information Society 26, S. 364-374. Grosser, B. (2014): »What Do Metrics Want? How Quantification Prescribes So- cial Interaction on Facebook«, in: Computational Culture 4, abgerufen auf: http://computational-culture.net/article/what-do-metrics-want (zuletzt am 26. Mai 2015). Halavais, A. (2008): Search Engine Society, Cambridge, UK and Malden, MA: Polity. Hallin, D. (1992): »Sound Bite News: Television Coverage of Elections, 1968- 1988«, in: Journal of Communication 42 (2), S. 5-24. Hallinan, B./Striphas, T. (2014): »Recommended for You: The Netflix Prize and the Production of Algorithmic Culture«, in: New Media & Society, vor dem Druck online veröffentlicht am 23. Juni 2014. doi: 10.1177/1461444814538646. Hanrahan, N.W. (2013): »If the People Like It, It Must Be Good: Criticism, De- mocracy and the Culture of Consensus«, in: Cultural Sociology 7 (1), S. 73- 85. Havens, T./Lotz, A.D./Tinic, S. (2009): »Critical Media Industry Studies: A Re- search Approach«, in: Communication, Culture & Critique 2 (2), S. 234-253. 104 Tarleton Gillespie Helgesson, C.F./Muniesa, F. (2013): »For What It’s Worth: An Introduction to Valuation Studies«, in: Valuation Studies 1 (1), S. 1-10. Herbst, S. (2001): »Public Opinion Infrastructures: Meanings, Measures, Me- dia«, in: Political Communication 18 (4), S. 451-464. Hesmondhalgh, D. (2006): »Bourdieu, the Media and Cultural Production«, in: Media, Culture & Society 28 (2), S. 211-231. Holt, J./Perren, A. (Hg. 2009): Media Industries: History, Theory, and Method, Malden, MA: Wiley-Blackwell. Igo, S. (2008): The Averaged American: Surveys, Citizens, and the Making of a Mass Public, Cambridge, MA: Harvard University Press. Introna, L.D./Nissenbaum, H. (2000): »Shaping the Web: Why the Politics of Search Engines Matters«, in: The Information Society 16 (3), S. 169-185. Jenkins, H. (2006): Convergence Culture: Where Old and New Media Collide, New York: New York University Press. Lotan, G. (2015): »Apple, Apps and Algorithmic Glitches: A Data Analysis of iTunes’ Top Chart Algorithm«, in: Medium, 16. Januar, abgerufen auf: https://medium.com/message/apple-apps-and-algorithmic-glitches- f7bc8dd2cda6#.yzvzfiwcb (zuletzt am 26. Mai 2015). McChesney, R.W. (2015): Rich Media, Poor Democracy: Communication Politics in Dubious Times, New York: The New Press. Maguire, J. S./Matthews, J. (2012): »Are We All Cultural Intermediaries Now? An Introduction to Cultural Intermediaries in Context«, in: European Jour- nal of Cultural Studies 15 (5), S. 551-562. Mansell, R. (2004): »Political Economy, Power and New Media«, in: New Media & Society 6 (1), S. 96-105. Marwick, A.E. (2015): Status Update: Celebrity, Publicity, and Branding in the Social Media Age, New Haven, CT: Yale University Press. Morris, J.W. (2015): »Curation by Code: Infomediaries and the Data Mining of Taste«, in: European Journal of Cultural Studies 18 (4-5), S. 446-463. Mukerji, C./Schudson, M. (1991): »Introduction: Rethinking Popular Culture«, in: dies. (Hg.): Rethinking Popular Culture: Contemporary Perspectives in Cul- tural Studies, Berkeley, CA: University of California Press, S. 1-62. Napoli, P. (2003): Audience Economics: Media Institutions and the Audience Mar- ketplace, New York: Columbia University Press. Napoli, P. (2015): »Social Media and the Public Interest: Governance of News Platforms in the Realm of Individual and Algorithmic Gatekeepers«, in: Telecommunications Policy 39 (9), S. 751-760. Neff, G. (2012): Venture Labor: Work and the Burden of Risk in Innovative Indus- tries, Cambridge, MA: MIT Press. Pariser, E. (2012): The Filter Bubble: How the New Personalized Web Is Changing What We Read and How We Think, New York: Penguin Books. 3. # trendingistrending 105 Peterson, R.A./Anand, N. (2004): »The Production of Culture Perspective«, in: Annual Review of Sociology 30, S.  311-334. doi: 10.1146/annurev.soc.30. 012703.110557. Powers, D. (2015): »First! Cultural Circulation in the Age of Recursivity«, in: New Media & Society, vor dem Druck online veröffentlicht am 18. August 2015. doi: 10.1177/1461444815600280. Roberge, J./Melançon, L. (2015): »Being the King Kong of Algorithmic Culture Is a Tough Job After All: Google’s Regimes of Justification and the Mean- ings of Glass«, in: Convergence: The International Journal of Research into New Media Technologies. Vor dem Druck online veröffentlicht am 2. Juli 2015. doi: 10.1177/1354856515592506. Rudder, C. (2014): Dataclysm: Love, Sex, Race, and Identity—What Our Online Lives Tell Us about Our Offline Selves, New York: Broadway Books. Salganik, M.J./Watts, D.J. (2008): »Leading the Herd Astray: An Experimental Study of Selffulfilling Prophecies in an Artificial Cultural Market«, in: So- cial Psychology Quarterly 71 (4), S. 338-355. Sandvig, C. (2015): »The Social Industry«, in: Social Media + Society 1 (1). doi: 10.1177/2056305115582047. Silverstone, R. (1994): Television and Everyday Life. London u.a.: Routledge. Smith, M.R./Marx, L. (1994): Does Technology Drive History?: The Dilemma of Technological Determinism, Cambridge, MA: MIT Press. Sorensen, A.T. (2007): »Bestseller Lists and Product Variety«, in: The Journal of Industrial Economics 55 (4), S. 715-738. Stalder, F./Mayer, C. (2009): »The Second Index: Search Engines, Personal- ization and Surveillance«, aubgerufen auf: http://felix.openflows.com/ node/113 (zuletzt am 26. Mai 2015). Sterne, J. (2014): »What Do We Want? Materiality! When Do We Want It? Now!«, in: Gillespie, T./Boczkowski, P./Foot, K. (Hg.): Media Technologies: Essays on Communication, Materiality, and Society, Cambridge, MA: MIT Press, S. 119-128. Stoddard, G. (2015): »Popularity Dynamics and Intrinsic Quality on Reddit and Hacker News«, in: ICWSM 2015, Vorabdruck, abgerufen auf: http://arxiv. org/abs/1501.07860 (zuletzt am 26. Mai 2015). Striphas, T. (2015): »Algorithmic Culture«, in: European Journal of Cultural Studies 18 (4-5), S. 395-412. Tufekci, Z. (2015): »Algorithmic Harms beyond Facebook and Google: Emer- gent Challenges of Computational Agency«, in: Journal on Telecommunica- tions and High-Tech Law 13 (2), S. 203-218. Urban, G. (2001): Metaculture: How Culture Moves through the World, Minneap- olis, MN: University of Minnesota Press. Vaidhyanathan, S. (2012): The Googlization of Everything (And Why We Should Worry), Berkeley, CA: University of California Press. 106 Tarleton Gillespie van Dijck, J. (2013): The Culture of Connectivity: A Critical History of Social Me- dia, Oxford: Oxford University Press. Weisbard, E. (2014): Top 40 Democracy: The Rival Mainstreams of American Mu- sic, Chicago, IL a.u.: University of Chicago Press. Weltevrede, E./Helmond, A./Gerlitz, C. (2014): »The Politics of Real-time: A Device Perspective on Social Media Platforms and Search Engines«, in: Theory, Culture & Society 31 (6), S. 125-150. Williams, R. (1958): »Culture Is Ordinary«, in: Mackenzie, N. (Hg.): Conviction, London: MacGibbon and Gee. Williams, R. (1972): Gesellschaftstheorie als Begriffsgeschichte, München: Rogner & Bernhard. Wyatt, S. (2008): »Technological Determinism Is Dead; Long Live Technologi- cal Determinism«, in: Hackett, E./Amsterdamska, O./Lynch, M./Wajcman, J. (Hg.): The Handbook of Science and Technology Studies (dritte Auflage), Cambridge, MA: MIT Press, S. 165-180. Ziewitz, M. (2015): »Governing Algorithms: Myth, Mess, and Methods«, in: Science, Technology & Human Values, vor dem Druck online veröffentlicht am 30. September 2015, doi: 10.1177/0162243915608948. Zimmer, M. (2008): »The Externalities of Search 2.0: The Emerging Privacy Threats When the Drive for the Perfect Search Engine Meets Web 2.0«, in: First Monday 13 (3). doi: 10.5210/fm.v13i3.2136. 4. Die Online-Stimmen von Verbrauchern in Form bringen Algorithmischer Apparat oder Bewer tungskultur? Jean-Samuel Beuscart und Kevin Mellet einleitung Die rasante Entwicklung von Internet-Anwendungen hat die Kosten der Koor- dinierung von und Partizipation an vielen sozialen und kulturellen Aktivitäten stark reduziert. Im Laufe der letzten 15 Jahre entstanden durch körperschaft- liche oder individuelle Initiativen zahlreiche große Kollektive zur Produktion von Information für alle. Über das paradigmatische Beispiel von Wikipedia hinaus bauten Online-Video-Plattformen, Blog-Netzwerke und Verbraucherbe- wertungsseiten gemeinsam üppige Daten-Ressourcen auf, die auf kostenlosen Beiträgen beruhen und sowohl von Seitenadministratoren als auch von Algo- rithmen verwaltet werden. Diese webbasierten Plattformen sammeln hetero- gene Beiträge von Nutzern, die durch Auswahl- und Gruppierungsvorgänge neu zusammengestellt, sortiert und geformt werden, um sie in bedeutsame Information für ein Zielpublikum zu verwandeln. Zur Beschreibung dieser Mechanismen werden verschiedene Begriffe verwendet: »kollektive Intelli- genz« (Surowiecki 2005), »Wohlstand der Netzwerke« (Benkler 2006) und »Wikinomics« (Tapscott/Williams 2005). Die Analysen dieser Autoren beto- nen die Fähigkeit solcher Foren, aus verstreuten individuellen Beiträgen einen Mehrwert zu erzeugen. Sie unterstreichen die Effizienz von Algorithmen und die Koordinierung technischer Systeme, die die Aggregierung subjektiver und lokaler Beiträge zu einem größeren, für Nutzer relevanten, Ganzen ermögli- chen. Diese Systeme und die mathematischen Formeln, die dahinter stecken, seien sie einfach oder komplex (basierend auf Rankings, Durchschnittswerten, Empfehlungen usw.), sind in der Lage, aus einer Unzahl heterogener, unzu- sammenhängender Elemente beträchtliche Vermögenswerte aufzubauen. Eine gute Illustration für dieses Phänomen sind Online-Kunden-Bewer- tungen (Online Consumer Reviews = OCRs). Nachdem Amazon sie in den spä- 108 Jean-Samuel Beuscar t und Kevin Mellet ten 1990ern populär machte, sind sie mittlerweile im Netz allgegenwärtig. Ty- pisch für sie ist eine Kombination aus einer numerischen Bewertung (Rating, meist ein bis fünf Sterne) und einer schriftlichen Rezension. Die Gesamtbe- wertung eines Produkts lässt sich aus einer Durchschnittsbewertung und den ersten Zeilen einiger Rezensionen zusammenfassen, durch die die Nutzer frei navigieren können. OCRs gibt es mittlerweile auf einer Vielzahl von Seiten, insbesondere auf solchen Plattformen, die auf die Sammlung von Meinungen spezialisiert sind (TripAdvisor, Yelp, LaFourchette), und auf Internethandelsei- ten. Sie erstrecken sich auf eine große Vielzahl von Produkten und Dienst- leistungen – von Hotels und Restaurants bis hin zu Bestattungsinstituten, Büchern, Staubsaugern, Schulen und allem Möglichen dazwischen. Durch das Zusammenführen von verstreuten Verbraucherstimmen in eine verein- heitlichte Darstellungsform hat das Kundenbewertungssystem ganz klar einen Großteil unserer kollektiven digitalen Intelligenz geformt. Und tatsächlich be- rufen sich die Schöpfer dieser Seiten selbst auf demokratische Legitimität, in- dem sie sich als die Stimme des Normalverbrauchers präsentieren. Wie bei de- mokratischen Wahlen hat jeder Verbraucher eine Stimme und alle Meinungen gelten als gleichwertig. So argumentierte der Geschäftsführer von TripAdvisor: »Online-Reisebewertungen haben die Ar t und Weise, wie Reisende ihre Urlaube planen, sehr stark verändert – sie bringen einen unabhängigen Blick auf Reiseziel und Aufent- haltsor t ins Spiel und dadurch eine neue Ebene der Gewissheit, dass die schwer ver- diente Reisekasse auch klug investier t wird. […] So sieht die positive Macht von Inter- net-Demokratie im Einsatz aus.« (Kaufer 2011) Der Legitimitätsanspruch wird überdies durch den starken Verbraucherappe- tit auf solche Dienstleistungen untermauert, behauptet doch eine Mehrheit von Internetznutzern von sich, dass sie solche Seiten regelmäßig nutzen. Dies führte zu einem greifbaren Effekt auf vielen Märkten. In der Tat zeigten meh- rere marktwissenschaftliche und ökonometrische Studien einen signifikanten Einfluss von OCRs auf ökonomische Aktivitäten in Branchen wie Hotel- und Gaststättengewerbe sowie im Kulturkonsum (Beispiele dazu gibt es weiter unten im Absatz »Wie und wo Ratings und Rezensionen zu Einsatz kommen«). Obwohl die Praxis von Online-Ratings und Kundenbewertungen in den Medien oft kommentiert wurde, gibt es dazu sehr wenig empirische For- schung. Die wenigen vorhandenen Arbeiten, in erster Linie in der Soziologie und in Organisationswissenschaften, fallen schematisch in zwei Kategorien. Die erste untersucht die Motive derer, die häufig umfangreiche Bewertungen beisteuern, und betont die Wichtigkeit von Anerkennung, Kompetenzsteige- rung und Befriedigung: Aus der Sicht dieser Studien scheinen OCRs in erster Linie das Werk semi-professioneller Bewerter zu sein (Pincher/Kessler 2010); die einfachen Beiträger bleiben ziemlich am Rand. Die zweite Kategorie pocht 4. Die Online-Stimmen von Verbrauchern in Form bringen 109 indes auf die Heterogenität verstreuter, subjektiver Beiträge und betont die ent- scheidende Rolle von Algorithmen bei der Konstruktion von bedeutsamen Be- urteilungen, Gesamt-Punkteständen und Rankings (Orlikowski/Scott 2014). Diese Analysen unterstützen die Perspektive breiterer Überlegungen zu kol- lektiver Intelligenz, stellen die ausschlaggebende Rolle von algorithmischer Synthese und Berechnungen generell bei der Aggregation von Subjektivitäten in den Vordergrund und sie legen nahe, dass Beitragende im Großen und Gan- zen isoliert und von irreduzibler Subjektivität geleitet agieren, dass sie, statis- tisch gesprochen, unabhängig voneinander sind. Seit kurzem ziehen webbasierte Plattformen wie OCR-Webseiten die Auf- merksamkeit der Wissenschaft auf sich, weil sie Information organisieren und die Bedeutung von Nutzerbeiträgen herausarbeiten können. Durch das Aggre- gieren und Sortieren der Beiträge mithilfe von selbstentwickelten und oftmals geheimen Algorithmen vermögen diese Webseiten in großem Maß Kultur zu formen (Striphas 2015). Mithilfe ihrer Algorithmen sind sie imstande, in vielen Kultur- und Informationsindustrien Beurteilungen und Vorlieben um- zuverteilen, ohne dass dies demokratisch diskutiert oder angefochten werden könnte (Gillespie 2010; Morris 2015). Obwohl diese Analysen einen ganz ent- scheidenden Punkt ansprechen – nämlich unsere Fähigkeit, darüber zu dis- kutieren, was in unserer Kultur einen Wert hat – tendieren sie doch dazu, von einem geschlossenen und unstrittigen Effekt des Algorithmus’ auszugehen. Aus einer Foucaultschen Perspektive betonen sie die Macht der Webplattfor- men, die Informationen ihrer Nutzer zu organisieren, und betrachten den Al- gorithmus als das Ergebnis einer expliziten Strategie; im Gegenzug werden die Benutzer in erster Linie als passive Subjekte wahrgenommen. In diesem Kapitel versuchen wir diese Perspektive zu modifizieren, indem wir die Rolle der Benutzer bei der Gestaltung algorithmischer Bewertung unterstreichen. Wie Oudshoorn und Pinch (2003) festgestellt haben, spielen Benutzer eine Rolle in der Gestaltung von Technologien; in unserem Fall formt ihr Verhal- ten diese Plattformen auf mindestens zwei Weisen. Erstens interpretieren sie die Informationen, die von der Plattform bereitgestellt werden; sie wählen aus und gewichten auf eine Art und Weise, die von der Seite nicht gänzlich ge- skripted ist. Ihre Interpretationen basieren auf ihrer eigenen Erfahrung und sie haben gute Gründe, sich an die Bewertungsstandards der Seite zu halten (oder eben nicht). Zweitens formen Nutzer die Plattform durch ihre Beiträge, dadurch dass sie wählen, ob sie deren Richtlinien folgen, und dadurch dass sie die Auswirkungen ihrer Handlungen antizipieren. Daraus folgt, dass die ›algo- rithmische‹ Bewertung von der Seite und ihren Nutzen gemeinsam produziert wird – in einem Zusammenspiel, das nicht als reine Passivität und Entfrem- dung ausgelegt werden kann. In Anlehnung an MacKenzie (2011, 2014) lassen sich die Interpretationsschemata und Praktiken, die von Nutzern rund um die Webseite entwickelt werden, als »Bewertungskultur« bezeichnen. 110 Jean-Samuel Beuscar t und Kevin Mellet In diesem Kapitel folgen wir dieser nutzerzentrierten Perspektive, indem wir die kollektiven Praktiken und die Reflektiertheit normaler Nutzer in den Vordergrund stellen. Wir werden zeigen, dass die Autoren von Bewertungskri- tiken sich nicht einer zügellosen Subjektivität hingeben, sondern in Hinblick auf ein bestimmtes Zielpublikum und/oder eine bestimmte Webseite schrei- ben. Es gibt gemeinsame Annahmen und Normen bezüglich des richtigen Formats und Inhalts einer Meinung sowie Standards, die darüber bestimmen, was einen Beitrag zu einem hilfreichen oder eine Bewertung zu einer rele- vanten macht. All diese Standards kann man als Teil einer Bewertungskultur im Sinne von MacKenzie beschreiben; außerdem wird die Entwicklung eines neuen Bewertungs-Tools notwendigerweise begleitet vom Entstehen mehr oder weniger kohärenter Methoden der Interpretation, von Lesepraktiken und der Manipulation von Instrumenten. Statt uns auf Beiträger zu konzentrieren, die in erster Linie Anerkennung suchen, oder auf Konsumenten, die sich von ihrer Subjektivität leiten lassen, wollen wir die Figur eines durchschnittlichen Nutzers, der reflektiert, sachkundig und mit den Dienstleistungen vertraut ist, in den Mittelpunkt stellen. Zu diesem Zweck stützen wir uns auf eine Studie über die Beiträger der Restaurantbewertungsseite LaFourchette (www.lafour chette.com), ergänzt um kontextuelle Daten aus dem Netz sowie durch eine Studie zu einer repräsentativen Auswahl von Kunden. Der erste Teil dieses Kapitels präsentiert eine kurze Literaturübersicht mit Schwerpunkt auf empirischen Untersuchungen zur Nutzung von Ratings und Kritiken. Der zweite Teil widmet sich der Darstellung von LaFourchette und der in dieser Studie verwendeten Methodik. Der dritte Teil legt das Augenmerk auf die Motivation von Benutzern, die zu der Seite beitragen, vor allem dadurch, dass sie die Bewertungen lesen und Konsumenten Ratschläge geben: Ihre Teil- nahme ist in erster Linie durch eine befriedigende Leseerfahrung motiviert und beeinflusst von einem bestimmten Verständnis vom kollektiven Werk, das die Webseitennutzer gemeinsam vollbringen. Der vierte Teil beschreibt die Standards, die die Bewertungskultur der Seite formal und inhaltlich gestalten, und versucht in groben Zügen die Figur des durch solche Seiten ›sozialisier- ten‹ Beiträgers zu umreißen. r atings und re Zensionen im einsat Z und in der forschung Wie und wo Ratings und Rezensionen zum Einsatz kommen Nutzerbewertungen sind heutzutage ein standardisiertes, im Web allgegen- wärtiges und vollständig in das Leben von Internetnutzern integriertes Werk- zeug. Das von Amazon in den späten 1990ern eingeführte Format ermöglicht 4. Die Online-Stimmen von Verbrauchern in Form bringen 111 seinen Nutzern, sich mittels einer Kombination aus einem Rating-System und einer frei verfassten Rezension auszudrücken (Beauvisage u.a. 2013). Rezensio- nen und Ratings findet man auf den meisten Internethandelsseiten und auch auf Webseiten, die sich explizit der Bewertung von Gütern und Dienstleistun- gen durch Konsumenten widmen. Im Bereich des Tourismus sammelt bei- spielsweise TripAdvisor Rezensionen und Meinungen zu Hotels und Restau- rants weltweit und hatte 2015 schätzungsweise 25 Millionen einzelne Besucher pro Monat in den USA und etwa die gleiche Anzahl in Europa. Derartige Seiten gibt es für eine große Bandbreite an Märkten; für Geschäfte und lokale Dienst- leistungen (Yelp, 83 Millionen Einzelbesucher in den USA 2015), Restaurants (Zagat, Urban Spoon, LaFourchette), Waren (Ciao) und so weiter. Eine Menge übereinstimmender Daten beweisen, dass Online-Rezen- sionen und Ratings immer stärker in die alltäglichen Konsumpraktiken von Internetnutzern Eingang finden. Unsere Studie einer repräsentativen Stich- probe von französischen Internetnutzern zeigt, dass 87  % auf Rezensionen achten, während 89 % angeben, sie fänden sie hilfreich. 72 % haben selbst schon eine Rezension geschrieben oder eine Bewertung abgegeben und 18 % gaben an, dass sie dies öfter täten (Beauvisage/Beuscart 2015; siehe auch weiter unten »Methodik der Studie zu LaFourchette«). Obwohl es wahrscheinlich eine Tendenz zum ›Overreporting‹ gibt, also eine Tendenz, die eigene Nutzung zu überschätzen, zeigt das stetige Anwachsen positiver Reaktionen auf solche Fra- gen, dass die Praxis immer populärer wird. Einen weiteren Hinweis geben die Auswirkungen von Bewertungen, die von ökonometrischen Untersuchungen zum Einfluss von Online-Rezensionen auf Verkaufszahlen gemessen werden: hier wurden durchgängig positive Effekte auf den Umsatz von Büchern (Che- valier/Mayzlin 2006), Kinokarten (Liu 2006) und Restaurants (Luca 2011) be- obachtet. Diese Ausbreitung von Bewertungswebseiten kann man auf zweierlei Wei- se als Teil der jüngsten Demokratisierung von Bewertung verstehen (Mellet u.a. 2014). Zum einen erweitern solche Seiten den Anwendungsbereich auf bewertbare Güter und Dienstleistungen und damit auch die Anzahl und Art von erreichten Konsumenten beträchtlich. Zum Beispiel listet im Bereich der Restaurants auf dem französischen Markt der Guide Michelin etwa 4.000 Restaurants auf, die meisten davon im oberen und exklusiven Marktsegment; TripAdvisor bietet seinerseits die Bewertung von 32.000 Etablissements an, wovon 60 % Mahlzeiten für 30€ oder weniger im Angebot haben. Zum ande- ren erlauben Bewertungswebseiten allen Konsumenten eine Meinungsabgabe und popularisieren damit einen Prozess, der in den späten 1970er Jahren von Restaurantführern wie Zagat durch das Verteilen und Sammeln schriftlicher Fragebögen angestoßen wurde. So hat TripAdvisor bis 2012 von 178.000 unter- schiedlichen Nutzern 338.000 Restaurantbewertungen in ganz Frankreich ge- sammelt. 112 Jean-Samuel Beuscar t und Kevin Mellet Wissenschaftliche Forschung Es gibt relativ wenig empirische Forschung über die Menschen, die zu sol- chen Seiten beitragen, oder welche Bedeutung sie ihren Bewertungsaktivitäten zumessen. Hier haben Pinch und Kessler (2010) Pionierarbeit geleistet. Ihre Arbeit zeigte, dass die aktivsten Amazon-Beiträger meist männlich sind, über eine überdurchschnittliche Bildung verfügen und häufig in Bereichen der Wis- sensproduktion im weiteren Sinne aktiv sind. Was ihre Motivation betrifft, so betonen die (mittels Fragebogen) erhobenen Antworten verschiedene Dimen- sionen: eigene Entwicklungsmöglichkeiten (schriftstellerische Fertigkeiten, Sachkompetenz), Anerkennung durch andere Mitglieder auf der Seite und die materiellen und symbolischen Belohnungen, die die Seite selbst anbietet. An- dere jüngere Studien bestätigten diese Ergebnisse: King u.a. (2014) ordnen in einem Überblick über Marketingstudien zu diesem Thema Selbstwertgefühl (Selbststeigerung) und die Suche nach Ankerkennung als die stärksten Moti- vationen für das Schreiben von OCRs ein. Aus der gleichen Perspektive zeigt Dupuy-Salle (2014), dass das Thema der Anerkennung stark korreliert mit der Zugehörigkeit zur elitären Spitze von Beiträgern auf einer Filmkritikseite. Die- se Ergebnisse gehen zwar alle in die gleiche Richtung, aber sie erfassen nur eine sehr kleine Minderheit der OCR-Beiträger insgesamt. Ein zweiter in der gegenwärtigen Forschung vertretener Ansatz konzent- riert sich eher auf den Inhalt der geschriebenen Rezensionen. Beaudouin und Pasquier (2014) machten die Beobachtung, dass Online-Filmkritiken zwischen zwei Polen variieren: Manche Meinungen versuchen sich professionellen Kriti- ken anzugleichen und einen objektiven und argumentativen Diskurs zu entfal- ten; für andere ist eher der Ausdruck subjektiven Erlebens charakteristisch, oft in der Ich-Form geschrieben. Andere Untersuchungen interessieren sich mehr dafür, wie Schreibende bei der Bewertung von Gütern und Dienstleistungen ihre eigenen Qualifikationen zur Geltung bringen. Jurafsky u.a. (2014) stellen fest, dass in etwa einem Viertel aller Online-Bewertungen von Konsumgütern die Bewertenden ihre eigene Kompetenz zur Schau stellen (z.B. »ich koche oft Ente«, »ich bin zum zweiten Mal schwanger« usw.). Weitere Forschungsarbei- ten untersuchen, wie die Qualität von Waren bewertet wird. Cardon (2014) fand bei der Textanalyse von Bewertungen französischer Hotels auf TripAdvi- sor einen starken Schwerpunkt auf bestimmten Attributen (z.B. Qualität und Quantität des Frühstücks) auf Kosten von traditionelleren Kriterien der Touris- musindustrie. Schließlich kommen einige Studien zu dem Schluss, dass Re- zensionen generell variieren je nachdem, welche Art von Ware bewertet wird – typischerweise sind sie für teure Produkte länger (Vásquez 2014) – und oft in Abhängigkeit vom Rating: Bei Hotels liefern die Rezensionen mehr Fakten, wenn sie unvorteilhafter ausfallen (Cardon 2014). 4. Die Online-Stimmen von Verbrauchern in Form bringen 113 me thodiK der studie Zu lafourchet te In diesem Kapitel stützen wir uns auf Interviews mit Beiträgern zu der Web- seite www.lafourchette.com. Das qualitative Material wird ergänzt durch kon- textuelle Daten aus dem Internet und durch die Ergebnisse einer Befragung einer repräsentativen Stichprobe von Internetnutzern.1 LaFourchette ist eine Webseite (und mobile App) für Restaurant-Kritiken, die 2007 in Frankreich ans Netz ging. Sie ist typisch für die zweite Generation von Plattformen, die zwischen 2000 und 2008 auf den Markt kamen und sich lokalen Waren und Dienstleistungen widmen (TripAdvisor, Yelp, Qype, Tellmew- here usw.). Anders als die in den 1990er Jahren geschaffenen Online-Stadtfüh- rer der ersten Generation (z.B. Citysearch in den USA, Cityvox in Frankreich) sind die neueren Plattformen charakterisiert durch das Fehlen einer starken zentralen Herausgeber-Autorität, durch die Partizipation von Internetnutzern (sowohl als Konsumenten als auch als Anbieter), die die Inhalte erweitern und gleichzeitig Orte und Waren bewerten, und durch eine algorithmische Modera- tion der Ergebnisse a posteriori (Mellet u.a. 2014). So bildet die Partizipation der Nutzer das Herzstück dieser Webseiten – und ihres Geschäftsmodells, das auf die eine oder andere Weise auf der Monetarisierung des durch die Nutzer ge- schaffenen Inhalts und Datenverkehrs beruht. Und die Seitenbetreiber geben sich wirklich Mühe, das in Schwung zu halten und zu organisieren: zum einen durch die Entwicklung spezifischer Werkzeuge, die die Partizipation fördern sollen. Am weitesten verbreitet sind Anreizsysteme, die soziale Charakteristika wie Nutzerprofilseiten, digitale Abzeichen zur Belohnung der produktivsten Beiträger, interne Kommunikationswerkzeuge usw. mobilisieren. Solche Mit- tel unterstützen die Tendenz, einzelne Mitwirkende herauszustellen und den Rezensionen der fleißigsten Beiträger größeres Gewicht zu verliehen. Zum anderen versuchen OCR-Webseiten die Beiträge in eine bestimmte Form zu bringen, um ihnen Relevanz für die Zielgruppe und die anvisierte Branche zu verleihen. Als Marktzwischenhändler entwerfen sie Werkzeuge, die Zusam- menpassendes und Übereinstimmungen bevorzugen, indem sie Beitragende dazu animieren, sich an bestimmte Formate zu halten. Durch ihre vorforma- 1 | Die Nutzerdaten für www.lafourchette.com und www.tripadvisor.fr (Anzahl der ge- listeten Restaurants, Anzahl der Beitragenden und der Rezensionen) wurden mittels ad hoc Methoden im Juli 2012 gewonnen (vgl. Mellet u.a. 2014). Die Datengewinnung und -bearbeitung hat Thomas Beauvisage übernommen. Wir stützen uns auch auf eine Be- fragung per Fragebogen, die im November 2013 von Orange Labs und Médiamétrie in einer repräsentativen Stichprobe von französischen Internetnutzern (n=2500) durch- geführt wurde. Diese quantitative Untersuchung konzentrier te sich sowohl auf das Be- nutzen als auch auf das Verfassen von Online-Rezensionen und Ratings (Beauvisage/ Beuscart 2015). 114 Jean-Samuel Beuscar t und Kevin Mellet tierten Input-Felder fordern sie die Nutzer dazu auf, bereits existierenden ge- meinsamen Bewertungskriterien zu folgen. Während bestimmte Features auf der Webseite und auch der Aufkauf durch TripAdvisor 2014 LaFourchette stark in einem typischen partizipatori- schen Online-Modell verankern, sind einige Benutzungsmöglichkeiten der Seite ganz speziell, wie wir weiter unten noch sehen werden. LaFourchette ist im Kern eine Software-Plattform mit eingebautem Reservierungssystems, das von etwa 4200 französischen Restaurants genutzt wird (nach den Zahlen von Juli 2012). Benutzer können durch die Seiten der teilnehmenden Restaurants navigieren und Tische reservieren, sie können von Rabatten bestimmter Res- taurants profitieren, die ihrerseits dadurch mehr Sichtbarkeit auf der Plattform bekommen. Nach dem Essen bekommen Nutzer Einladungen per Email, eine Bewertung und eine Kritik abzugeben. Diese Einladung zur Teilnahme ist unserer Beobachtung nach der Hauptanreiz, denn zu der Zeit, als wir die Stu- die durchführten, gab es keine weiteren Belohnungen für Beiträge, auch keine ausgeklügelten Abzeichen – bis auf den unscheinbaren »Gourmet«-Status, den man nach der zweiten Kritik, und den des »Gastronome«, den man nach der zehnten Kritik bekommt. Des Weiteren ist das Bewertungsfeld auf der LaFour- chette-Seite denen auf anderen Bewertungsseiten sehr ähnlich. Beitragende werden zuerst aufgefordert, drei Kriterien auf einer Skala von eins bis zehn zu bewerten: das Essen, der Service und das Ambiente. Die Einzelnote, die das Restaurant erhält, ergibt sich aus der (öffentlich sichtbaren) Gewichtung der drei Bewertungen. Dann werden die Beitragenden aufgefordert, ihre Meinung in ein freies Textfeld zu schreiben. Dazu gibt es keine expliziten Anleitungen oder Ratschläge und auch kein sichtbares Limit des Felds: »Es ist von der Länge her nahezu endlos«, teilte uns ein LaFourchette-Manager mit. Mehr als 642.000 Bewertungen gingen auf der Seite bis zum Juli 2012 ein, im Durchschnitt 153 pro Restaurant. Während die große Mehrheit der 292.000 Beitragenden nur gelegentlich eine Rezension schrieb – 87,5 % hinterließen drei Kritiken oder weniger –, ist eine bedeutende Anzahl von Nutzern aktiver: 13 % der Beitragenden posteten vier Kritiken oder mehr und kamen damit für die Hälfte aller geposteten Kritiken auf; davon posteten 2,8 % zehn Kritiken oder mehr. Und es gibt etwa 3.000 Nutzer (0,1 % aller Beiträger), die mehr als 50 Rezensionen hinterließen. In diesem Kapitel interessieren wir uns vor allem für diese regelmäßigen Beitragenden. Insgesamt haben wir 33 Personen interviewt, die auf eine Anfrage von LaFourchette an eine zufällige Stichprobe von 100 Nutzern positiv reagierten. Die 33 Personen setzen sich zusammen aus 21 sehr aktiven Beiträgern (mit über 50 Kritiken auf der Seite) und 12 einigermaßen aktiven Beitragenden (10- 15 Kritiken). Die meisten waren auch Beiträger oder Besucher der Plattform TripAdvisor, deshalb befragten wir sie dazu auch noch. Die Interviews dauerten 30-90 Minuten und fanden im November 2013 face-to-face statt (24) oder 4. Die Online-Stimmen von Verbrauchern in Form bringen 115 online via Video-Link (9). Die transkribierten Interviews wurden mithilfe der QDA Miner Qualitative Data Analysis Software vollständig encodiert. Die Stichprobe umfasst 14 Frauen und 19 Männer, meist aus Paris (14) und dem Pariser Umland (13). Die Teilnehmer sind im Schnitt 48 Jahre alt und verfügen über ein hohes Schulbildungsniveau – 22 haben vier oder mehr Jahre an einer Universität studiert. Sie besuchen häufig Restaurants, durchschnittlich eins oder zwei pro Woche (bis hin zu acht pro Woche). Sie speisen in persönlichem Kontext in Restaurants (als Paar oder mit Familie und Freunden). Ein Drittel besucht Restaurants in Geschäftszusammenhängen. Insgesamt schreiben sie seit mehr als eineinhalb Jahren Beiträge für LaFourchette, jeder zwischen zehn und 194 Beiträge. Zu einem gemeinsamen Ziel beitr agen Das erste Schlüsselelement in der Interpretation von Bewertungssystemen ist für uns die Bedeutung, die diese Tätigkeit für die Mitwirkenden selbst hat. Während unsere Untersuchung einige der Gründe, die in vorhergehenden Arbeiten über hochaktive Nutzer eine Rolle spielten (Freude, großes Interesse am Thema), auch entdeckten, fanden wir auch andere Motive – einschließlich des expliziten Wunsches, an einem als nützlich und hilfreich empfundenen kollektiven Ziel mitzuwirken. Wir konzentrieren uns im Folgenden zuerst auf die Erfahrungen der Interviewten als Leser, bevor wir den Umfang ihrer Moti- vationen als Beiträger analysieren. Erfahrungen als Leser von Online-Rezensionen Alle Teilnehmer an der Untersuchung brachten zum Ausdruck, dass sie her- vorragende Erfahrungen mit LaFourchette gemacht hätten. Obwohl dieser Be- fund durch die Auswahl der Teilnehmer verstärkt worden sein könnte (Perso- nen, denen die Webseite gefällt, neigen wohl eher dazu, darüber ausführlich mit Soziologen sprechen zu wollen), ist es bezeichnend, dass ausnahmslos alle Nutzer ihre Zufriedenheit mit der Seite zur Sprache brachten. Sie sehen die La- Fourchette-Webseite (und infolgedessen auch TripAdvisor) als hochgradig ver- lässliches Werkzeug zur Auswahl eines Restaurants, unabhängig vom Kontext oder den Anforderungen. Jene, die einst traditionelle Restaurantführer benutz- ten, verließen sie zugunsten von Online-Ressourcen. Die größten Feinschme- cker unter ihnen konsultieren weiterhin den Michelin, aber nur für die Haute cuisine. Für jene, die Restaurants sporadischer besuchen, ist LaFourchette die erste Wahl. Generell steht hinter der Seite die Idee einer »Entdeckung ohne Risiko«: Durch die Erzählungen anderer Nutzer kartographiert die Seite eine 116 Jean-Samuel Beuscar t und Kevin Mellet breite Auswahl an Möglichkeiten und minimiert gleichzeitig die Gefahr un- willkommener Überraschungen: Ich muss zugeben, dass LaFourchette mir erlaubt hat, mein Adressbuch ein wenig umzu- krempeln, das heißt, Adressen mit hinzuzunehmen … von Restaurants, in die ich vorher nie gegangen wäre. (E26) Es stimmt schon, dass diese Ar t von Anwendung uns als Konsumenten verändert hat … jetzt würde ich nicht mehr aufs Geradewohl in irgendeinem Restaurant essen gehen. (E11) Diese positiven Erfahrungen basieren auf einer Reihe von Lesemustern, die die meisten Nutzer verwenden. Um eine Vorstellung von einem Restaurant zu bekommen, kombinieren sie die Informationen, die auf der Seite verfügbar sind (Bewertung, Kritik, Fotos, Speisekarte etc.), aber beschränken ihren Ein- druck nie nur auf die Bewertung. Sie lesen die Kritiken, zumindest die zehn, die auf der ersten Seite zu sehen sind, und suchen oft mehrere Seiten auf. Aber obwohl sie ihre Wahl aufgrund einer Kombination der verschiedenen Kriterien treffen, scheint diese stark durch eine gute Durchschnittsnote als primärem Kriterium beeinflusst zu werden. Zum Beispiel nannten zwei Drittel der Teil- nehmer einen Punktestand, unterhalb dessen sie ein Restaurant gar nicht erst in Erwägung ziehen würden: am häufigsten 8/10, für einige 7,5, für andere 8,5. Man bedenke dabei, dass die Durchschnittsnoten auf diesen Seiten recht hoch liegen: Der Median der Bewertung ist 4/5 auf TripAdvisor und 8/10 auf LaFourchette. Die meisten Nutzer ziehen Restaurants unterhalb des Rangs 8 oder niedriger nicht in Erwägung und beschränken ihre Auswahl auf die am besten bewerteten Restaurants. So verlassen sich die meisten Nutzer auf die- se typischen und üblichen Beurteilungsmuster und betrachten die Erfahrung einer durch diese Seiten empfohlenen Auswahl als verlässlich und lohnend. Interessanterweise steht dies in deutlichem Kontrast zu journalistischen Berichten über Online-Rezensionen, die vor allem das Problem von »Fehlinfor- mationen« und »bewusster Täuschung« thematisieren.2 Zu keinem Zeitpunkt brachten unsere Interviewpartner während der Interviews Misstrauen bezüg- lich von Fake-Rezensionen zu Ausdruck. Auf Nachfrage erkannten sie an, dass einige Meinungen zuweilen dubios erscheinen mögen, dass dies aber nie die Verlässlichkeit ihres Urteils beeinträchtige, da ja die Rezensionen stark über- einstimmten und verhältnismäßig zahlreich seien (mindestens 20 bei einigen Nutzern, bis zu 50 bei anderen). Dies trifft insbesondere auf LaFourchette zu, wo Rezensionen ja in Verbindung zu Reservierungen im Restaurant stehen, 2 | Bezüglich des Problems von Schummeleien auf Bewertungsseiten vgl. Reagle (2015). 4. Die Online-Stimmen von Verbrauchern in Form bringen 117 die von der Seite auch aufgezeichnet werden. Aber es stimmt auch für TripAd- visor, wenngleich nicht so einhellig, dessen Bewertungen aufgrund der schie- ren Menge an Beiträgern als verlässlich eingestuft werden. Die quantitative Untersuchung (Beauvisage/Beuscart 2015) kam zu einem ähnlichen Ergebnis: Obwohl 90 % der Internetnutzer zugeben, dass sie schon einmal eine (oder mehr) Fake-Rezensionen(en) gesehen haben, glauben 76 %, dass »dies nicht verhindere, einen guten Eindruck« von der Qualität des Restaurants zu bekom- men. Das vorherrschende Narrativ lautet demnach: LaFourchette und TripAd- visor bieten ein befriedigendes Erlebnis und hochgradig verlässliche Urteile. Zur gemeinschaf t beitr agen Man kann in verhältnismäßig kurzer Zeit eine Rezension schreiben, wobei die Nutzer im Schnitt zwischen fünf und zehn Minuten damit verbringen, in der Regel noch am gleichen Tag oder am Tag nach der Erfahrung. So gesehen ist die Erinnerungs-Email, die Nutzer dazu auffordert, nach dem Essen ihre Mei- nung abzugeben, ein effizientes Mittel, um Nutzer zum Schreiben zu bewe- gen: mehrere Interview-Partner erwähnten dies als Grund für ihr Mitwirken. Hinsichtlich ihrer Motivation beschrieben einige Mitwirkende (7 von 33) die Freude, die ihnen das Schreiben von Rezensionen bereitet. Mehrere Themen traten dabei zutage: Das Aufschreiben ihrer Meinung verlängere und vertiefe das Erlebnis des Essengehens; diejenigen, die gerne schreiben, empfinden die Wahl der richtige Worte an sich schon als Vergnügen; im weiteren Sinn macht es vielen Spaß, Ratschläge zu geben. Als Beispiele folgen hier einige Auszüge von Antworten von LaFourchette-Beiträgern, die die Freude am Schreiben und an der Interessensbekundung an einem Kulturbereich betonen: »Es gefällt mir sehr. Ich teile wirklich gerne, das macht mich glücklich« (E33); »Es ge- fällt mir wirklich, ich gebe ständig meine Meinung ab« (E25); »Wir machen es, weil es Spaß macht, sonst würden wir es überhaupt nicht machen« (E1); »Ich habe große Freude am Rezensionenschreiben« (E10); »Ja, es macht Freude« (E15); »Es ist unterhaltsam« (E20). Im Vergleich zur Forschungslage spielt dieser Aspekt des Vergnügens in unse- ren Untersuchungen jedoch eine vergleichsweise untergeordnete Rolle. Ein anderes in der vorhandenen Forschungsliteratur dominantes Motiv, die Suche nach Anerkennung, fehlt in unserer Untersuchung völlig. Dies lässt sich zum Teil mit LaFourchettes Seitengestaltung erklären, die zum Zeitpunkt unserer Untersuchung keine Charakteristika sozialer Netzwerk-Seiten anbot wie Ver- linkungen zwischen ›Freunden‹ oder ›Followern‹, Kommentare, Likes, Favo- riten und so weiter. Aber es beruht auch auf den gesammelten Wahlentschei- 118 Jean-Samuel Beuscar t und Kevin Mellet dungen seiner Nutzer, die die hauptsächliche Nutzung der Seite widerspiegeln. Keiner der Nutzer in unserer Untersuchung hatte eine Profilseite von sich aus- gefüllt, eine Nutzerfoto hochgeladen etc. Wenn man sich ausführlicher auf der Seite umschaut, sieht man, dass vollständige Profile eine Ausnahme darstel- len. Obwohl sie viele Kritiken schreiben, beteiligen sich LaFourchette-Nutzer also nicht deshalb, weil sie die sichtbare Aktivität eines Profils erhöhen wollen oder weil sie Anerkennung suchen. Auch auf die Frage, ob sie sich einer »spe- ziellen Gemeinschaft« von LaFourchette-Nutzern3 zugehörig fühlten, antwor- teten die meisten mit Nein. Keiner stand in sozialen Beziehungen zu anderen Mitwirkenden und die meisten wünschten sich auch keine.4 Der Begrif f »Gemeinschaft« geht ein bisschen weit … Ich bin froh, ein Teil der Seite zu sein und meinen Beitrag zu leisten, ja, ohne Vorbehalt. Ich fühle mich nicht im Gerings- ten unter Druck. Ich denke, es besteht ein echtes Interesse an dieser Seite, also würde ich sagen, ich mache gerne mit. Aber zu sagen, dass ich Teil einer Gemeinschaft wäre … nein, den Eindruck habe ich nicht. Das wäre tatsächlich ein zu starker Ausdruck. (E2) Stattdessen besteht die vorherrschende Motivation wohl darin, einen anony- men und bedeutungsvollen Beitrag zum Gemeinwohl zu leisten. Die Nutzer betonten ihr Bedürfnis, ein insgesamt reziprokes System am Leben zu halten: Sie geben ihre Meinung ab, um an einem System mitzuwirken, von dem sie selbst einen Nutzen haben. Die Kodierung der Interviews brachte eine große Bandbreite an Ausdrücken für kollektive Teilnahme zum Vorschein: »Das ge- hört zum Spiel« (E2), »ich möchte mich revanchieren« (E4), »ich möchte mei- nen Teil des Vertrags erfüllen« (E10), »es ist ein Geben und Nehmen« (E28, E30), »es ist ein Win-Win« (E10), »das ist nur fair« (E26), »es ist hilfreich« (E12), »es ist meine Pflicht, die Leute zu informieren« (E27) usw. Nach unse- rer Untersuchung besteht die Hauptmotivation für das Schreiben einer Kritik anscheinend in einem Gefühl von Verantwortung, in einer moralischen Ver- 3 | Der Begrif f »Gemeinschaft« oder »Community« wird von vielen Betreibern von Be- wertungsseiten systematisch verwendet und LaFourchette bildet da keine Ausnahme. Verweise auf die »LaFourchette Community« findet man überall auf der Seite. Allerdings haben einige Plattformen wie Yelp oder TripAdvisor aktive Strategien implementier t, um zwischen Mitwirkenden sichtbare soziale Interaktionen aufzubauen und zu verwalten: individualisierbare Profilseiten, Abzeichen, interne Kommunikationswerkzeuge, das Or- ganisieren von Events in realen Örtlichkeiten usw. (Mellet u.a. 2014). 4 | Ein Interviewpartner bildete eine Ausnahme: Als intensiver Nutzer der Plattformen TripAdvisor und LaFourchette verwendet er viel Aufmerksamkeit auf die Pflege seines Profils auf letzterer und zögert auch nicht, sich dies bei Verhandlungen mit Restaurants und Hotels zunutze zu machen. 4. Die Online-Stimmen von Verbrauchern in Form bringen 119 pflichtung, zum Gemeinwohl beizutragen, und in der Ablehnung, das System auszunutzen. Um Klarheit über die Logik hinter den Motiven der Beitragenden zu erhal- ten, lenkten die Interviews die Diskussion auf das Zielpublikum der geposte- ten Kritiken: in den meisten Fällen wurden vor allem andere Nutzer genannt. Unter allen Komponenten der sozio-technischen Assemblage, die sich um sol- che Seiten herum entwickelt – eine Verbindung aus einer Webseite, Gastrono- men, Suchalgorithmen und anderen Nutzern und Bewertern –, sind es in ers- ter Linie die Nutzer, die als primäre Empfänger der eigenen Beiträge erwähnt werden und denen man sich auch verpflichtet fühlt: »Wenn ich schreibe, dann in erster Linie für Konsumenten« (E3), »für Leute wie mich, die in Restaurants gehen. Weil ich denke, das kann jemandem nützlich sein« (E5), »vom ersten Moment an, an dem ich Gefallen am Lesen der Meinung anderer Leute emp- fand, habe ich auch meine eigene Meinung abgegeben« (E32), »ich denke, es lohnt sich, die Ansichten anderer zu lesen, und ich vermute mal, meine auch« (E14) usw. Zusammenfassend: Also, erst einmal bin ich Leser von Kritiken und ich denke, ein Teil meines Konsums basier t auf den Ratschlägen, die ich bekommen habe. Da mir diese Tätigkeit wichtig ist, kommt es mir auch wichtig vor, dass ich meine eigene Meinung hinterlasse. (E12) Zusätzlich richten sich einige Nutzer mit ihrer Meinung direkt an die Restau- rantbesitzer. Einerseits um dem Haus und dem Personal für eine gute Erfah- rung zu danken: »Wenn ich zufrieden bin, hinterlasse ich einen Kommentar, um sie auf ihrem guten Weg zu bestärken.« (E17) Andererseits sehen diese Konsumenten ihre Rolle auf Bewertungsseiten auch darin, den Restaurantbe- sitzern – möglicherweise auch ungeachtet ihrer Bemühungen – durch Kritik zu helfen, die stets »konstruktiv« sei, wie sie betonen. Einen Beitrag zu schrei- ben bedeutet also auch Teilhabe an der Verbesserung der Restaurant-Erfah- rung, über die Steuerung der Konsumenten hinaus: Ich bemühe mich, stets in konstruktiver Absicht zu kommentieren. Ich bin kein bösarti- ger oder beleidigender Kritiker, der nichts beiträgt. Mit konstruktiver Kritik kann ich den Service verbessern. (E15) Für die ist das auch wichtig, denn ich kann Dinge zum Besseren wenden, oder kann ihnen zeigen, dass es einige gute Eigenschaften oder Mängel gibt. Also indem man sie bewertet und kritisier t, kann man sie vielleicht auf Probleme aufmerksam machen und Abhilfe schaffen. (E25) So verzeichnet diese Analyse der Motive für Beteiligung eine Diskrepanz in der Literatur über Online-Partizipation. Anders als Gruppenmitglieder, die 120 Jean-Samuel Beuscar t und Kevin Mellet ihre Fertigkeiten verbessern, Anerkennung bekommen und materielle oder symbolische Belohnungen erlangen möchten, sind die Interviewten in unse- rer Studie mit ihrer Anonymität zufrieden – keiner unternahm Schritte, die zu seiner Erkennbarkeit geführt hätten – und machen in erster Linie mit, um zum Gemeinwohl beizutragen. Sie schreiben in der Erwartung, dass ihre Kri- tiken von einem anderen Mitglied eines sozio-technischen Kollektivs, dessen Existenz sie für nützlich halten, gelesen werden. Diese Nutzer sind demnach selbstreflexiver und moralischer als von einem Großteil der wissenschaftlichen Literatur, speziell aber von den Medien, angenommen. eine gemeinsame definition einer »guten KritiK« Das zweite Schlüsselelement dieser Untersuchung, das die oben skizzierte Gestalt eines selbstreflexiven, zur Gruppe beitragenden Nutzers weiter unter- stützt, ist die weitverbreitete gemeinsame Definition dessen, was eine gute Kri- tik ausmacht. Diese Definition zeichnet die Umrisse einer »Bewertungskul- tur«, die regelmäßige Nutzer der Seite teilen: Repräsentationen und Praktiken, die sich um die beste Art zu lesen und teilzuhaben, gruppieren. Das angemessene Format Die Mehrheit der Nutzer war sich einig, dass die beste Kritik eine kurze Kritik ist. Im Gegensatz zum Bild von egozentrischen Individuen, die ihre persön- liche Erfahrung im Detail erzählen, wurde als angemessene Länge für eine Kritik drei bis fünf Zeilen angegeben: »Sie muss die Sache auf den Punkt brin- gen« (E1), »eine Synthese geben« (E25) und »zusammenfassen« (E26). »Vier oder fünf Zeilen höchstens, kein Roman«, sagte E9. Einige, die regelmäßig Kritiken schreiben, haben den Eindruck, dass ihre Bewertungen mit der Zeit kürzer geworden sind, nachdem sie die Seite häufiger nutzen. Längere Erklä- rungen gelten nur als gerechtfertigt, wenn sie einen Punkt betonen, der für das Haus besonders relevant ist, egal ob positiv oder negativ. Es ist gerecht- fertigt, wenn »man etwas herausheben möchte, dass einem wirklich gefallen hat, z.B. auf der Speisekarte« (E1) oder etwas aus dem Umfeld wie etwa »die Toiletten waren durch und durch vintage, wirklich außergewöhnlich«; desglei- chen meinen viele, eine Kritik dürfe länger sein, »wenn die Erfahrung wirklich furchtbar war« (E30). Selbst in solchen Fällen sollten die Ausarbeitungen nur ein oder zwei zusätzliche Zeilen betragen: »Wenn jetzt jeder anfinge, zehn Zeilen zu schreiben, wäre es vorbei.« (E27) Wie bereits erwähnt beruht das Standard-Format für Rezensionen auf den vorhergehenden Erfahrungen der Nutzer als Leser; was auch typischerweise für jene gelten soll, die wiederum ihre Meinungen lesen. Auf Restaurantsuche 4. Die Online-Stimmen von Verbrauchern in Form bringen 121 überfliegen Nutzer in der Regel 10-20 Kritiken – zusätzlich zu den anderen verfügbaren Informationen. Dabei lesen sie schnell, diagonal, auf der Suche nach Ähnlichkeiten, Mustern und hervorstechenden Merkmalen. Interview- partner sagten, am besten wäre es, wenn es zahlreiche Kritiken gäbe, vor allem solche, die zu ihren eigenen Kriterien passten; zusätzlich suchten sie oft ne- gative Meinungen heraus um festzustellen, welchen Stellenwert sie innerhalb des Gesamtmusters hätten. Im Großen und Ganzen werden negative Meinun- gen, von denen es ja für gewöhnlich weniger gibt, als situationsspezifisch er- achtet oder als Äußerung untypischer Kunden (»grantige Gäste, auf die gebe ich nicht viel«, sagte E10), es sei denn, die Kritik bezieht sich auf Hygiene: Ich bemühe mich, drei oder vier schlechte Kritiken anzuschauen und frage: »Okay, was ist hier los? Ist das ein Einzelfall? War die Bedienung schlecht drauf und führte zu der miesen Bewertung?« Schlechte Tage gibt es manchmal und dann läuft in der Küche alles schief. (E13) Wenn mir etwas auffällt, das in Restaurantkritiken immer wieder auftaucht und Hygiene oder Sauberkeit betrif f t, dann ist das ein No-Go. (E1) So können wir auf der Basis der Leseerfahrungen der Beitragenden das bes- te Kritik-Format definieren: Rezensionen soll man rasch überfliegen können, um eine sich abzeichnende Einschätzung zu bestätigen oder ihr einen neu- en Aspekt hinzuzufügen. Gesucht wird also nicht die subjektive Bewertung eines spezifischen Nutzers, sondern ein Beitrag zu einer Einschätzung, die sich bereits aus zuvor gelesenen Kritiken geformt hat; entweder eine Bestäti- gung eines besonders hervorstechenden Merkmals oder eine kritische Nuance. In diesem Kontext »ist es ärgerlich, wenn da Rezensionen 10 Kilometer lang sind« (E11): Die besten Kritiken sind kurz, kommen zum Punkt und schmü- cken neue originelle Elemente der Bewertung nicht zu sehr aus. Allerdings weichen einige Interviewpartner (4 von 33 in unserer Stichpro- be) von diesem vorherrschenden Standard signifikant ab. Sie erkennen, dass »manchmal Kritiken ein bisschen arg lang sind, aber das macht mir nichts aus, solange es genug Platz gibt« (E21); sie geben an, dass sie »Essays schrei- ben« (E28). Besonders zwei von ihnen sind Nutzer mit einer besonderen Be- ziehung zum Schreiben: Einer ist Schriftsteller und die andere ist »in ihrer Familie für ihren prägnanten Stil« bekannt (E21). Diese Nutzer umgehen ver- mutlich aufgrund des hohen Werts, den sie ihrem Schreibstil zumessen, die Konventionen des Formats; vielleicht macht sie auch ihr Hang zur Kreativität anfällig dafür, in einer Webseite ein Forum für subjektive Ausdrucksformen zu sehen, während die meisten Nutzer diese Vorstellung und die damit ver- bundenen Praktiken ablehnen. 122 Jean-Samuel Beuscar t und Kevin Mellet Bewertungskriterien Nutzer stimmen auch stark darin überein, was gute Bewertungskriterien sind – ein zweites Schlüsselelement der Kultur rund um Bewertungsseiten. Wie bereits erwähnt, werden diese Kriterien von LaFourchette stark gelenkt, indem Kritiker aufgefordert werden, ihre Punktezahlen auf drei Hauptkomponenten aufzuteilen, die dann zu einer Gesamtnote zusammengefasst werden: Essen, Ambiente und Service, optional ergänzt um eine Einschätzung des Preis-Leis- tungsverhältnisses. Befragt nach den Kriterien, die sie üblicherweise für ihre schriftlichen Rezensionen heranziehen, nennen die Nutzer spontan diese drei Ebenen, die sie auch selbst für angemessen und bedeutsam zur Beurteilung einer Restauranterfahrung halten. Ich schreibe auf LaFourchette über drei Punkte. Am meisten zählt das Essen, danach kommen Service und Preis-Leistungs-Verhältnis. (E3) Ja, ja, das sind die Aspekte, die mich an einem Restaurant interessieren: das Ambiente, der Empfang, die Küche und der Service. Das sind die vier Komponenten, zu denen ich systematisch eine Meinung abgebe, eigentlich fast nur zu diesen. (E16) Ich versuche Empfang, Preis und Qualität des Essens systematisch anzusprechen. (E17) Hier erscheint die präskriptive Rolle der Plattform ganz explizit. Die Nutzer werden klar durch die strategische, im Nutzer-Interface eingebettete Auswahl der Seitenbetreiber geleitet. Abgesehen davon wird dieser Rahmen von den Nutzern als solcher erkannt, voll und ganz akzeptiert und sogar befürwortet und sie nutzen ihn als eine markante und gebräuchliche kognitive Markierung für das Schreiben ihrer Rezensionen, obgleich sie doch im offenen Textfeld genauso gut ihre freie Subjektivität zum Ausdruck bringen könnten. Was die Qualität des Essens betrifft, so sind die Beurteilungen typischer- weise einfach und konventionell. Im Einklang mit den Anforderungen an die Textlänge nehmen die Berichte über die Speisen nicht die Form einer Gastro- nomiekritik an oder ergehen sich in der Beschreibung von Geschmacksrich- tungen oder subjektivem Geschmacksempfinden. Stattdessen überprüfen sie einfach, inwiefern die Küche den Versprechungen entspricht, und legen dabei einfache, weit verbreitete Kriterien an: die Frische und Qualität der Nahrungs- mittel und das Fehlen größerer technischer Mängel (in der Zubereitung oder dem Würzen beispielsweise), unter Umständen auch Angaben zu Portionsgrö- ße, Geschmack und Gesamtzufriedenheit. 4. Die Online-Stimmen von Verbrauchern in Form bringen 123 Für mich ist das erste Kriterium die Qualität des Essens. Nicht die Menge, sondern die Qualität. Wie schon gesagt, wenn ich ins Restaurant gehe, erwarte ich, dass das Essen frisch ist. (E5) Wir erwähnen immer, ob das Essen gut ist mit frischen Produkten und gut zubereiteten Mahlzeiten. Restaurantbewertungsseiten, und besonders LaFourchette, pflegen keine Ama- teur-Gastronomiekritik, zumindest nicht im Sinne von elaborierten subjek- tiven Schilderungen einmaliger ästhetischer Erfahrungen. Unter unseren Interviewpartnern erhebt die große Mehrheit nicht den Anspruch, besonders qualifiziert oder ausgebildet zu sein, und diejenigen, die sich auf ihre gastrono- mische Kompetenz berufen, glauben, dass diese Seiten für derartige Kritiken nicht der richtige Ort seien: »ich bin kein Blogger«, stellt ein Befragter fest (E1). Die Berichte handeln dennoch vor allem vom Essen, wenngleich in allgemei- nerer, weniger subjektiver Form. Beurteilungen der Frische der Lebensmittel, der Zubereitungsmethoden und der Portionsgröße erfordern natürlich einige Kenntnisse und variieren individuell, aber weitaus weniger als etwa subjekti- ve Beurteilungen von Gewürzkombinationen. Nochmals: Die Effektivität von Bewertungsseiten allgemein beruht nicht auf der Relevanz hochraffinierter Evaluierungen, sondern eher auf der Akkumulation konventioneller, konver- gierender Beurteilungen. Der aktivste Beiträger in unserer Stichprobe (281 Bewertungen und 194 Kritiken) zeigt eine innige Vertrautheit mit der gastronomischen Kultur und verfügt über viel Erfahrung in der Feinschmeckerwelt. Als passionierter Leser von Gourmetführern und Blogs legt er eine virtuose Fertigkeit in der Beschrei- bung von Gerichten und Restaurants an den Tag. Aber auf LaFourchette über- nimmt er völlig den üblichen Bewertungsstandard der kurzen Kritiken: Statt bis in einzelste Detail zu gehen und zu schreiben: »ja, ich habe das-und-das Ge- richt gegessen, das ganz vorzüglich war. Im Gegensatz dazu schmeckte jenes sehr schlecht …« Damit erreicht man nichts. Ich denke, wir sollten da ein bisschen präziser sein. […] Zu Anfang war ich, wie ich schon sagte, vielleicht ein bisschen raumgreifender in meiner Meinung. Ich schrieb fünf, vielleicht sechs Zeilen und zuweilen, wenn ich’s übertrieben habe, bis zu zehn. Heute halte ich mich an etwa drei Zeilen. Soll heißen, mit der Zeit und je mehr Kommentare ich lese …, […] schreibe ich keine kritischen Aus- einandersetzungen wie Gilles Pudlowski oder François Simon.5 (E30) Zusätzlich zu den bereits erwähnten Bewertungskriterien (Speisen, Service, Ambiente), die von der Plattform vorgegeben werden, fügen Beiträger oft noch 5 | Pudlowski und Simon sind zwei der bekanntesten Gastronomiekritiker Frankreichs. 124 Jean-Samuel Beuscar t und Kevin Mellet ein weiteres hinzu, das ihnen sehr wichtig ist: »Empfang« (d.h. wie sie als Kunden begrüßt werden). Der Begriff findet sich in 26 (von 33) Interviews, ohne dass die Seite selbst ihn benutzt oder der Interviewer ihn ins Spiel ge- bracht hätte. Das legt nahe, dass es sich dabei um einen für Restaurantbewer- ter wesentlichen Wert handeln muss, wahrscheinlich eher spezifisch für Ama- teurbewertungen. Unabhängig vom Service allgemein bedeutet Empfang »die Freundlichkeit der Leute« (E6), »Leute, die lächeln und es einem ganz selbst- verständlich rechtmachen wollen« (E5); gut zusammengefasst von E28 ist ein guter Empfang, »wenn man sich schon beim Reinkommen willkommen fühlt, als wäre man der Freund von Freunden.« Und umgekehrt ist ein schlechter Empfang zu förmlich, berechnend und ein bisschen kalt. Die Begrüßung ist besonders wichtig … Es ist der erste Eindruck, den man von einem Restaurant bekommt. Wenn man ankommt und die so kalt sind, kein »Hallo«, nicht mal ein »Haben Sie reservier t?«, sondern nur »setzen Sie sich da drüben hin!« … Also wenn man nicht warm empfangen wird, kann es sogar sein, dass wir unauffällig wieder gehen. Für mich ist dieses »Hallo« sehr wichtig, das Lächeln ist sehr wichtig. (E33) Zusammenfassend lässt sich sagen, dass sich Beitragende bei der Auswahl der Bewertungskriterien gewissermaßen von den Kriterien, die auf der Webseite vorgeschlagen werden, lenken lassen. Tatsächlich stützen sich ihre Bewertun- gen auf die traditionellen Kriterien – Service, Speisen, Ambiente –, die auch professionelle Beurteilungen leiten (Blank 2000) und im Punktevergabesys- tem der Webseite enthalten sind. Dennoch unterscheiden sich diese Amateur- Kritiken in mehrfacher Hinsicht deutlich von professionellen Beurteilungen im Allgemeinen und von den expliziten Vorgaben durch LaFourchette im Be- sonderen: Die Beurteilung des Essens bleibt relativ formal, konzentriert sich auf die Qualität und das Fehlen größerer technischer Mängel; die Beschrei- bung des Service wird kombiniert mit einer Beurteilung des Empfangs, also der Fähigkeit eines Restaurants, durchschnittlichen Gästen die Befangenheit zu nehmen und sie so freundlich zu behandeln, wie sie es erwarten. Bewertungskultur Beitragende zu LaFourchette und in geringerem Maße zu TripAdvisor teilen miteinander eine Reihe durchgängiger Praktiken des Lesens und Schreibens von Online-Kritiken. Sie stellen kurze zusammengefasste Meinungen zur Ver- fügung, die viele andere rasch und leicht lesen und verstehen können. Beurtei- lungen stützen sich auf gemeinsame Kriterien, die von der Seite vorgeschlagen und von vielen Nutzern berücksichtigt werden; typischerweise fließt in das Urteil auch der Empfang ein, eine Ebene, die vor allem für Amateur-Beurtei- lungen spezifisch ist. Die Kritiken basieren explizit nicht auf verfeinertem Ge- 4. Die Online-Stimmen von Verbrauchern in Form bringen 125 schmack oder virtuoser gastronomischer Erfahrung; sehr oft folgen sie einem festen Procedere und konstatieren, dass Restaurants die elementaren Erwar- tungen bezüglich der Qualität des Essens, des Service usw. erfüllen. Dieses Vorgehen stimmt mit der Praxis des Lesens von Online-Kritiken überein, die dazu tendiert, die Beurteilung eines Restaurants auf die Gewichtung einer großen Menge von Meinungen zu stützen und dabei zu subjektive – egal ob positive oder negative – außen vor zu lassen. Am Ende steht eine kumulative Abschätzung von Schlüsselkriterien. Die Urteile sind also sozialisiert in dem Sinne, dass sie in gewissem Maß von der antizipierten Nutzung durch andere Konsumenten bestimmt werden; sie entsprechen einer Reihe von Konventio- nen, die für kollektiv relevant gehalten werden. Diese Beschreibung ist weit entfernt von der üblichen Vorstellung von iso- lierten Konsumenten, die frei ihren subjektiven Gefühlen (der Freude oder Enttäuschung) auf der Seite ihren Lauf ließen, die ihrerseits durch die schiere Akkumulierung solcherart zusammenhangloser Stimmen Bedeutung ableite. Bisherige Beschreibungen betonen oft den unregulierten Charakter von On- line-Bewertungen: »Bewertungen – die traditionell von einer kleinen Anzahl von anerkannten Experten, Kri- tikern, Medien und Autoritäten hervorgebracht wurden, wobei diese formale, standar- disier te und oft institutionalisier te Kriterien benutzten, die auf professionellem Wissen und industrieller Er fahrung basier ten – werden nun auch (und immer häufiger) online von einer großen Zahl von anonymen und verstreuten Konsumenten produzier t, die in- formelle, variable und individuelle Kriterien benutzen, die auf persönlichen Meinungen und Er fahrungen basieren.« (Orlikowski/Scott 2014: 868) Amateurbewertungen werden von Orlikowski und Scott als auf instabilen und persönlichen Kriterien basierend beschrieben – »personalisierte und oftmals widersprüchliche Einschätzungen«, »flüchtige Urteile einer zerstreuten und geisterhaften Menge« –, die unstete Formate annehmen: »Kritiken variieren in der Länge zwischen einem Satz bis zu einem ganzen Essay« und »in den ver- schiedensten Stilen« auftauchen. Für diese Forscher ist es letztlich allein das Verdienst von Webseite und Algorithmus, wenn daraus Bedeutung entsteht: TripAdvisors Ranking Algorithmus »bringt die unregulierten und anonymen Meinungen vieler Konsumenten zum Ausdruck«. Im Gegensatz dazu meinen wir, dass zumindest ein Teil der Effektivität dieses Phänomens auf der Fähigkeit ihrer Nutzer beruht, ein kohärentes Nut- zungsmuster aufzubauen, das ihre Bewertungsaktivität auf ein gemeinsames Ziel hin reguliert. Die Seite baut auf eine »Bewertungskultur« (MacKenzie 2011), die Nutzer anleitet, wie man Bewertungen liest und schreibt. MacKen- zie hat mehrere Kriterien bestimmt, die es erlauben, eine Reihe kultureller Repräsentationen, die eine Richtlinie für Bewertungen darstellen, näher zu 126 Jean-Samuel Beuscar t und Kevin Mellet qualifizieren. Einige davon treffen hier zu. Insbesondere teilen die Nutzerbe- wertungen eine gemeinsame ›Ontologie‹ oder Definition dessen, was einem Restaurant im Wesentlichen einen Wert verleiht. Auch durchlaufen Beitra- gende innerhalb des sozio-technischen Systems einen Prozess der ›Sozialisie- rung‹; sie lernen, wie man die besten Praktiken erkennt und repliziert: Kri- tiken werden mit der Zeit kürzer, kommen eher auf den Punkt und geben nur die wichtigsten Informationen. Dies geschieht aber nur indirekt durch die Nachahmung anderer Nutzer, denn es gibt auf der Seite keine direkten Inter- aktionen zwischen den Mitgliedern. Diese Sozialisierung in eine Bewertungskultur verläuft natürlich zwischen den einzelnen Individuen uneinheitlich. Wir stellten in unserer Stichprobe ei- nige kleinere Abweichungen hinsichtlich des Formats oder des intendierten Zielpublikums der Beiträge fest. Vor allem halten sich sporadische Beiträger (die mit nur einer oder zwei Rezensionen, die wir aus unserer Stichprobe aus- geschlossen hatten) nicht generell an die dominante Nutzungsweise der Sei- te. Ein Forschungsüberblick zu diesen Beitragenden deutet darauf hin, dass sie in erster Linie ihrem Wunsch folgen, starke Befriedigung oder Wut zum Ausdruck zu bringen, was sie eher in eine Linie mit der Darstellung eines typischen Beiträgers bringt, wie er in der bisherigen Literatur beschrieben wird (Pharabod 2015). Im Großen und Ganzen erkennen und internalisieren Beitragende durch wiederholte Nutzung der Seite die Konventionen der Be- wertungskultur. Bewertungsseiten sind letztlich auf die Balance zwischen zwei Kompo- nenten angewiesen: Auf der einen Seite ist eine Minderheit von regelmäßigen Nutzern mit der Bewertungskultur, wie wir sie beschrieben haben, vertraut; auf LaFourchette repräsentieren Nutzer, die fünf oder mehr Kritiken geschrie- ben haben, 13  % der Beitragenden und sind verantwortlich für etwas mehr als die Hälfte aller Beiträge. Auf der anderen Seite legt eine Mehrheit von ge- legentlichen Besuchern weniger gleichmäßige Beiträge an den Tag, die eher den »unregulierten Meinungen« ähneln, wie sie in der Forschungsliteratur er- wähnt werden: In unserem Fall schrieben 66 % der Beiträger nur eine Kritik. Es scheint, dass Nutzer sich durch ihre Praxis an die Standards und bewährten Verfahren dezentralisierter Bewertung gewöhnen und dabei lernen, den Aus- druck ihrer subjektiven Meinung zugunsten des Gemeinwohls zu kontrollie- ren. fa Zit Unsere Forschung ermöglicht ein besseres Verständnis der Funktionsweisen von Bewertungsseiten, deren Bedeutung für verschiedene Branchen weiter wächst. Neben den zwei Idealtypen von Beitragenden, die in der Forschungsli- 4. Die Online-Stimmen von Verbrauchern in Form bringen 127 teratur bereits ausgemacht worden waren – intensive Partizipation eine ›Elite‹- Gruppe, getrieben von der Suche nach Anerkennung, und isolierter Ausdruck von »unregulierten Meinungen« – stellen wir einen dritten Typus heraus: re- gelmäßig Beitragende, die Teil einer kohärenten Bewertungskultur sind und ihre Teilnahme auf ein gemeinsames Ziel hin ausrichten. Diese Nutzer (etwa 10-15  % aller Beiträger) machen das Herzstück von Bewertungsseiten aus, nicht nur weil sie die Mehrheit der Bewertungen produzieren, sondern auch weil sie Standards und bewährte Verfahren hochhalten und durch ihr Beispiel neue Beiträger daran gewöhnen. Diese Analyse erlaubt uns auch zu verstehen, wie die kollektive Intelligenz, die von solchen Seiten produziert wird, funktioniert. Die Hervorbringung von Bedeutung und Intelligenz beruht nicht allein auf dem Aggregierungs-Algo- rithmus, auf dem Vermögen von Formeln und Seitendesign, ungleichartige Beiträge durch Extraktion von einzigartiger und singulärer Bedeutung zu gruppieren. Stattdessen wird ein Großteil dieser Arbeit von den Nutzern selbst geleistet – durch reflexive Feedbackloops zwischen Lektüre- und Schreibprak- tiken, abgeleitet von bewährten und dieser gemeinsamen Kultur inhärenten Verfahren. Beiträger solcher Seiten übernehmen die kodifizierte Rolle des Be- werters und passen ihre Beiträge entsprechend an. Wenngleich die Form ihrer Teilnahme partiell von der Seite vorgegeben ist, wird dies als solches wahrge- nommen und akzeptiert, weil das Rahmenwerk als relevant für die Leser ge- sehen wird. Die Partizipation geht auch über das Rahmenwerk hinaus, indem sie spezifische Eigenschaften wie etwa »warmer Empfang« hinzufügt. Obwohl die Beiträge der Nutzer für die Plattform wirtschaftlichen Wert generieren (Scholz 2013), wird das Schreiben einer Bewertung von den Nutzern nicht als ›Arbeit‹ betrachtet, sondern als Beitrag zu einem System, das sie selbst nütz- lich finden. Die algorithmische Kultur dieser Seiten besteht also sowohl aus einer Anleitung zum Lesen und Interpretieren der Kritiken und Rankings, die sie hervorbringt, als auch aus einer Reihe von Praktiken, die zur Gesamteffek- tivität des Bewertungsprozesses beitragen. danKsagungen Unser Dank geht an LaFourchette für die Unterstützung der Umfrage, auf der dieser Artikel beruht. Thomas Beauvisage, Marie Trespeuch und Anne-Sylvie Pharabod haben uns bei mehreren Aspekten dieser Untersuchung unter die Arme gegriffen. Ihre Arbeit und ihre Äußerungen waren für die Entwicklung dieses Artikels von unschätzbarem Wert. Übersetzt von Dagmar Buchwald. 128 Jean-Samuel Beuscar t und Kevin Mellet liter aturVer Zeichnis Beaudouin, V./Pasquier, D. (2014): »Organisation et hiérarchisation des mon- des de la critique amateur cinéphile«, Réseaux 32 (183), S. 123-159. Beauvisage, T./Beuscart, J.-S. (2015): »L’avis des autres«, digital-humanities. orange.com, September 2015, online: http://digital-humanities.orange. com/fr/publications/dossiers/articles/595-lavis_des_autres (zuletzt aufge- rufen am 20.11.2015). Beauvisage, T./Beuscart, J.-S./Cardon, V./Mellet, K./Trespeuch, M. (2013): »No- teset avis des consommateurs sur le web. Les marchés à l’épreuve de l’éval- uation profane«, Réseaux 177, S. 131-161. Benkler, Y. (2006): The Wealth of Networks: How Social Production Transforms Markets and Freedom, New Haven, CT and London: Yale University Press. Blank, G. (2007): Critics, Ratings, and Society: The Sociology of Reviews, Lan- ham, MD: Rowman & Littlefield. Cardon, V. (2014): »Des chiffres et des lettres. Evaluation, expression du juge- ment de qualité et hiérarchies sur le marché de l’hôtellerie«, Réseaux 143, S. 205-245. Chevalier, J./Mayzlin, D. (2006): »The Effect of Word-of-Mouth on Sales: On- line Book Reviews«, Journal of Marketing Research 43, S. 345-354. Dupuy-Salle, M. (2014): »Les cinéphiles-blogueurs amateurs face aux straté- gies de capitation professionnelles: entre dépendance et indépendance«, Réseaux 32 (183), S. 123-159. Gillespie, T. (2010): »The Politics of ›Platforms‹«, New Media and Society 12 (3), S. 347-367. Jurafsky, D./Chahuneau, V./Routledge, B./Smith, N. (2014): »Narrative Fram- ing of Consumer Sentiment in Online Restaurant Reviews«, First Monday 19 (4), doi: http://dx.doi.org/10.5210/fm.v19i4.4944 Kaufer, S. (2011): »Interview with Stephen Kaufer, Tripadvisor CEO«, Preferente. com, 22. Oktober, online: www.preferente.com/english/marketing-english/ interview-with-stephen-kaufer-tripadvisor-cofounder-and-ceo-102405.html (zuletzt aufgerufen am 20.11.2015). King, R.A./Racherla, P./Bush, V. (2014): »What We Know and Don’t Know about Online Word-of-Mouth: A Review and Synthesis of the Literature«, Journal of Interactive Marketing 28 (3), S. 167-183. Liu, Y. (2006): »Word of Mouth for Movies: Its Dynamics and Impact on Box Office Revenue«, Journal of Marketing 70, S. 74-89. Luca, M. (2011): »Reviews, Reputation, and Revenue: The Case of yelp.com«, Harvard Business School Working Paper 12-016. MacKenzie, D. (2011): »Evaluation Cultures? On Invoking ›Culture‹ in the Analysis of Behavior in Financial Markets«, Arbeitspapier, online: www. 4. Die Online-Stimmen von Verbrauchern in Form bringen 129 sps.ed.ac.uk/__data/assets/pdf_file/0007/64564/EvalCults11.pdf (zuletzt aufgerufen am 20.11.2015). MacKenzie, D. (2014): »The Formula That Killed Wall Street: The Gaussian Copula and Modelling Practices in Investment Banking«, Social Studies of Science 44 (3), S. 393-417. Mellet, K./Beauvisage, T./Beuscart, J.-S./Trespeuch, M. (2014): »A ›Democrati- zation‹ of Markets? Online Consumer Reviews in the Restaurant Industry,« Valuation Studies 2 (1), S. 5-41. Morris, J.W. (2015): »Curation by Code: Infomediaries and the Data Mining of Taste«, European Journal of Cultural Studies 18 (4-5), S. 446-463. Orlikowski, W.J./Scott, S.V. (2014): »What Happens When Evaluation Goes On- line? Exploring Apparatuses of Valuation in the Travel Sector«, Organiza- tion Science 25 (3), S. 868-891. Oudshoorn, N./Pinch, T. (Hgg.) (2003): How Users Matter: The Co-construction of Users and Technology, Cambridge, MA: MIT Press. Pharabod, A.S. (2015): »Les avis en ligne: une étape des parcours d’achat«, di- gital-humanities.orange.com, September 2015, online: http://digital-hu manities.orange.com/fr/publications/dossiers/articles/596-4._lire_des_ avis_en_ligne__une_etape_du_parcours_dachat (zuletzt aufgerufen am 20.11.2015). Pinch, T./Kesler, F. (2010): »How Aunt Amy Gets Her Free Lunch: A Study of the Top-Thousand Customer Reviewers at amazon.com«, Report, Creative Commons, online: www.freelunch.me/filecabinet (zuletzt aufgerufen am 26.5.2016). Reagle, J.M. (2015): Reading the Comments, Boston, MA: MIT Press. Scholz, T. (2013): Digital Labor: The Internet as Playground and Factory, New York: Routledge. Striphas, T. (2015): »Algorithmic Culture«, European Journal of Cultural Studies 18 (4-5), S. 395-412. Surowiecki, J. (2005): The Wisdom of Crowds, New York: Anchor. Tapscott, D./Williams, A. (2006): Wikinomics: How Mass Collaboration Changes Everything, New York: Portfolio. Vásquez, C. (2014): The Discourse of Online Consumer Reviews, London: Blooms- bury Academic. 5. Den Algorithmus dekonstruieren Vier Typen digitaler Informationsberechnung Dominique Cardon Algorithmische Berechnungen spielen derzeit eine zentrale Rolle bei der Orga- nisation digitaler Informationen – und bei ihrer Sichtbarmachung. Angesichts der Flut von ungeordneten und ungleichartigen Daten, die sich im Netz sam- meln, bilden Algorithmen die Grundlage aller Werkzeuge, die die Aufmerk- samkeit der Internetnutzer kanalisieren sollen (Citton 2014). Reihum drücken Rankings, Social Media Buttons, Zähler, Empfehlungen, Maps und Keyword- Clouds der Masse an digitaler Information ihre Ordnung auf. Aus der Sicht vieler Beobachter haben Algorithmen verschiedene menschliche Redakteure (Journalisten, Bibliothekare, Kritiker, Experten usw.) ersetzt, um den Inhalten, die Prominenz und öffentliche Aufmerksamkeit verdienen, Priorität einzuräu- men. So sind Algorithmen die neuen »Gatekeeper« des öffentlichen digitalen Raums geworden (Zittrain 2006). Es ist daher gängig, dass Algorithmus-Kri- tik die Anklagen, die bisher oft den Massenmedien allgemein galten, in neuem Kontext wiederholt: dass sie die wirtschaftlichen Interessen der Besitzer wi- derspiegelten, Märkte verzerrten, die Ränder missachteten, sensationslüstern, konformistisch, populistisch usw. seien. Als ob die Rechentechniken des Webs nur die Interessen ihrer Programmierer reflektierten. Diese simple Form der Kritik an der Macht der Algorithmen vernachlässigt jedoch die strikt techni- sche Dimension dieser neuen Gatekeeper, während diese die Wirtschaftskräfte, die die gesamte New Economy des Webs durchziehen, transparent machen. In diesem Kapitel1 werden wir argumentieren, dass man die neuen Rechentechni- ken des Webs nicht als bloße Reflektionen der Interessen ihrer Besitzer sehen kann. In Erweiterung des philosophischen Ansatzes von Gilbert Simondon möchten wir die technischen und statistischen Eigenschaften dieser Rechen- werkzeuge erkunden und dabei den Schwerpunkt insbesondere auf die Arten und Weisen legen, in denen sie uns ein anderes Denken über die Produktion 1 | Dieser Text rekonfigurier t die bereits 2015 vorgestellte pädagogische Typologie (Cardon 2015). 132 Dominique Cardon von Macht und Hegemonie im Web, über die Formung und Ausrichtung von Information online, abverlangen. Die verschiedenen im Web implementierten Rechentechniken weisen große Unterschiede auf, die aber oft durch den Vereinheitlichungseffekt der Algorithmen verwischt werden. Tatsächlich gibt es eine riesige Vielfalt an Ordnungs- und Klassifizierungsprozeduren: die Suchrankings von Google, die Reputationsmetriken der sozialen Netzwerke, Techniken des kollaborativen Filterns, die ›programmatische‹ Werbung des ›Bietens in Echtzeit‹ (Real-Time Bidding = RTB) und die mannigfaltigen Techniken des ›Maschinenlernens‹, die sich unter den von ›Big Data‹ verwendeten Kalkulationen immer weiter ausbreiten. Auch möchten wir mit unserer Erklärung der unterschiedlichen Rechentechniken im Netz die digitalen Welten beschreiben können, die sie entstehen lassen, jede von ihnen ihrer eigenen individuellen Logik folgend. Designer delegieren Werte und Ziele an Computerobjekte, die »kognitive Artefakte« (Norman 1991) verantwortlich machen für Betriebsprozesse und Entscheidungen, für Autorisierung und Prävention, für Klassifizierung und Orientierung (Winner 1980; Introna/Nissenbaum 2000). Ihre Entwicklung hat nach und nach technische Lösungen integriert, die eine breite Palette an Problemen im Zusammenhang mit Statistik, Nutzung, Gesetzen, Märk- ten usw. angehen können, die auf diversen Entwicklungsstufen auftauchen. Zudem möchten wir den Zusammenhang zwischen der »Existenzweise« des technischen Objekts (Simondon 1989) und den Regimen des Engagements untersuchen, die bestimmte Handlungsweisen, Hierarchien und Formen der Repräsentation in der sozialen Welt bedingen und vorantreiben (Introna 2011). Vier tyPen der berechnung Zur Vereinfachung der Probleme bei der Klassifizierung von Online-Infor- mation kann man vier Typen algorithmischer Berechnung im Ökosystem des Webs unterscheiden (vgl. Abb. 5.1). Bildlich gesprochen bestimmen wir die- se vier Gruppen im Hinblick auf die Stelle, die sie bezogen auf die Welt, die sie jeweils beschreiben wollen, einnehmen. Wie in Abb. 5.1 zusammengefasst kann man sich die Position der Berechnungen als neben, oberhalb, innerhalb und unterhalb der Masse an digitalen Online-Daten vorstellen. So sind, erstens, Messungen des Publikums neben dem Web angesiedelt, wo sie die Klicks der Internetnutzer quantifizieren und die Popularität von Webseiten bestimmen. Zweitens gibt es die Klassifikationsgruppe, die auf PageRank basiert, dem Klas- sifizierungsalgorithmus, der der Google-Suchmaschine zugrunde liegt. Sie ist oberhalb des Webs lokalisiert, weil diese Berechnungen über die Autorität von Webseiten auf der Basis der mit ihnen verbundenen Hypertextlinks entschei- den. Drittens gibt es die Messungen der Reputation, die sich in den sozialen 5. Den Algorithmus dekonstruieren 133 Netzwerken entwickelt haben und innerhalb des Webs angesiedelt sind, weil sie Internetnutzern eine Metrik zu Verfügung stellen, um die Popularität von Per- sonen und Produkten zu bewerten. Und schließlich benutzen vorhersagende Messungen, die Information auf Nutzer hin personalisieren, statistische Lern- methoden unterhalb des Webs, um die Navigationspfade von Internetnutzern zu berechnen und deren Verhalten in Relation zum Verhalten anderer mit ähn- lichen Profilen oder Geschichten vorherzusagen. Abb. 5.1: Vier Typen digitaler Informationsberechnung (Quelle: eigene Darstellung). Diese Unterscheidungen zwischen den Berechnungsgruppen gründen sich zum großen Teil auf jeweils verschiedene Typen digitaler Daten: Klicks, Links, soziale Handlungen (Likes, Retweets etc.) und Verhaltensmuster von Internet- nutzern. Dementsprechend erfordern sie alle jeweils unterschiedliche sta- tistische Konventionen und Berechnungstechniken. Indem wir so diese vier Methoden der Klassifizierung von digitalen Informationen analytisch isoliert haben, möchten wir die charakteristischen Prinzipien freilegen, die den je- weiligen Typus von Algorithmus unterstützen: Popularität, Autorität, Reputa- tion und Prognose. Die Hypothese, die unsere Studie zu verschiedenen Mess- methoden digitaler Information antreibt, ist, dass diese vier Gruppen, deren Nuancen oft kaum wahrgenommen oder verstanden werden, verschiedene Ordnungsprinzipien benutzen, die wiederum jeweils unterschiedliche Me- thoden zur Klassifizierung digitaler Information rechtfertigen. Durch unsere Kartographierung dieser algorithmischen Berechnungen möchten wir zeigen, 134 Dominique Cardon dass man die diversen technischen und industriellen Fragestellungen, die die digitale Ökonomie steuern, auch als Wettstreit über die beste Methode zum Ranking von Information verstehen kann. die PoPul arität der KlicKs Die erste Gruppe digitaler Berechnungen bilden Messungen von Publikum und Öffentlichkeiten, die neben dem Web durch Quantifizierung der Anzahl von Klicks ›einzelner Besucher‹ die Popularität von Webseiten messen. Dieser Messwert ist die Hauptmaßeinheit, die über die Beliebtheit von Online-Me- dien und, durch einfache Gleichsetzung, über die Werbeeinkünfte, die man damit erzielen kann, Rechenschaft ablegen soll. Publikumsmessungen imitie- ren eine demokratische Abstimmung: Jeder Internetnutzer, der etwas anklickt, hat eine (und nur eine) Stimme, und die Rankings werden von den Seiten do- miniert, denen es gelingt, die meiste Aufmerksamkeit auf sich zu ziehen. Wie man an der Geschichte der Quantifizierung der Öffentlichkeit für Zeitungen, Radio und Fernsehen sehen kann, erhielten solche Messungen aufgrund ihrer großen Nähe zu demokratischen Prozeduren ihre Legitimation (Méadel 2010). In der Tat werden ›Öffentlichkeit‹ und Wählerschaft oft als austauschbare Kol- lektive verstanden. Sie teilen die gleiche Idee statistischer Repräsentativität, die auf der Zählung einzelner Stimmen beruht, und beide bilden anscheinend das Herzstück der Idee einer Nation. Beide organisieren sich um eine Asym- metrie zwischen einem kleinen Zentrum von ›Sendern‹ (das Feld der Politik, der Medien) und einer schweigenden Population von ›Empfängern‹ (Wähler, Zuschauer). Im Zentrum teilen mehrere Medien die zerstreuten individuellen Stimmen unter sich auf, die jeweils ein Programm auf sich versammelt. Leu- te, die die gleiche Erfahrung teilen, werden erzogen und vereinheitlicht. So vereinen populäre Programme ein »großes Publikum«, indem sie eine »ima- ginierte Gemeinschaft« hervorbringen, die an der Bildung einer kollektiven Repräsentation der Bürger teilhat (Anderson 1996). Mit der wachsenden Deregulierung des Mediensektors und der immer größeren Rolle der Werbung dient Publikumsmessung immer weniger dazu, eine ›Öffentlichkeit‹ zu konstruieren, sondern schätzt nur noch ›Marktantei- le‹. In der Welt des Digitalen, wo der Nachschub an Information überreich- lich und unkontrolliert ist, hat das Publikum jegliche Verbindung mit der Idee öffentlicher politischer Repräsentation verloren. Im Web werden Zuschauer auf zweierlei Weisen gemessen (Beauvisage 2013). Erstens: nutzerzentrierte Messungen auf der Basis eines Modells der Massenmedien. Eine Internet- Marktforschungsfirma (z.B. Médiamétrie/Netratings oder ComScore) instal- liert in den Computern einer repräsentativen Stichprobe von Internetnutzern ein Messgerät, das das Surfverhalten aufzeichnet, um später das Publikum 5. Den Algorithmus dekonstruieren 135 der am häufigsten besuchten Webseiten klassifizieren zu können. Es gibt ein monatliches Popularitäts-Ranking dieser Seiten, das wiederum Einfluss auf die Werbegebühren hat (Ouakrat u.a. 2010). Diese Methode misst schon das Fernsehpublikum ziemlich schlecht, bei der Anwendung auf das Web führt sie sogar noch weiter in die Irre (Jouët, 2004). Die andere gängige (und oft mit der ersten Methode kombinierte) Technik zur Messung des webbasierten Publikums ist eher seitenzentriert. Webseitenbesitzer bekommen Aufschlüsse über den Traffic (Datenverkehr) ihrer Seite (z.B. durch Google Analytics) und können diese Informationen mit Daten von auf Internet-Marktforschung spe- zialisierten Agenturen (z.B. Médiamétrie, Xitu oder Weborama in Frankreich) kombinieren. Aber Besuchermessungen geben weder Aufschluss darüber, wer vor dem Bildschirm sitzt, also über die soziodemographischen Charakteristika der Besucher, noch darüber, ob die geöffnete Seite auch gelesen wurde. So ent- stand zwischen nutzerzentrierten und seitenzentrierten Methoden eine ausge- prägte Polarität, was die Transformation digitaler Berechnungen betrifft. Auf der einen Seite sind traditionelle Marktforscher daran interessiert, ihre Ziel- gruppen zu klassifizieren, und benutzen die Variablen, die sowohl vom Mar- keting als auch von der Soziologie bereitgestellt werden: Beruf, Einkommen, Alter, Lebensstil und Ort. Sie wissen viel über Individuen, aber wenig über ihr Verhalten. Auf der anderen Seite ist das Wissen über das Verhalten von Inter- netnutzern anhand von Profilen gut dokumentiert, aber über die Individuen selbst ist wenig bekannt (Turow 2011). In Reaktion auf diese Dichotomie erfanden Internetpioniere andere Mittel der Informationsmessung und -verbreitung. In der Tat ist Popularität – auf Erkenntnis angewandt – kein Garant für Qualität, sondern bestärkt vor allem Konformismus und Mainstream. Sie misst im Wesentlichen die Verbreitung von Produkten einer kleinen Zahl von kulturellen Produzenten an ein großes und passives Publikum. Aber in dem Maße, in dem die Öffentlichkeit zuse- hends ›aktiver‹ wird, wächst auch die Nachfrage und der Wunsch nach hö- herwertiger Information. Nachdem das Web die traditionelle Asymmetrie zwi- schen einem (kleinen) Informationsangebot mit relativ wenig Variation und einer (großen) Nachfrage, die ohne echte Auswahl gestillt wird, massiv durch- einander gebracht hat, haben Web-Innovatoren ein anderes Klassifikationssys- tem entwickelt, das nicht auf Popularität beruht, sondern auf Autorität. die autorität der linKs Als Google 1998 an den Start ging, stellte es eine neue statistische Methode zu Evaluation der Qualität von Information vor – im großen Stil. Seine Be- rechnungen sind oberhalb des Webs angesiedelt, um den Austausch von Sig- nalen der ›Anerkennung‹ unter Internetnutzern aufzuzeichnen. Diese Lösung 136 Dominique Cardon war ausgesprochen mutig und in der Mediengeschichte beispiellos. Die ersten Suchmaschinen in der Ära vor Google (Lycos, AltaVista) arbeiteten lexikalisch: Sie rankten diejenigen Webseiten am höchsten, die die meisten vom Nutzer an- gefragten Schlüsselbegriffe enthielten.2 Diesem ineffizienten Prozess setzten die Gründer von Google eine völlig andere Strategie entgegen. Ihr PageRank- Algorithmus versucht nicht zu verstehen, worum es in einer Webseite geht, sondern misst eher die gesellschaftliche Kraft (social force) der Seite innerhalb der Netzwerkstruktur des Webs. Tatsächlich besteht die besondere Architek- tur des Internets aus einem Gewebe von Texten, die sich wechselseitig durch Hyperlinks zitieren. Der Algorithmus der Suchmaschine arrangiert Informa- tionen so, dass er einer Seite, die verlinkt wird, gleichzeitig ein Zeichen der An- erkennung (token of recognition) zubilligt, das ihr mehr Autorität verleiht. Nach diesem Prinzip rankt er Webseiten auf der Basis einer gewichteten (zensualen) Abstimmung vergleichbar dem Zensuswahlrecht, also grundlegend merito- kratisch: Höher gerankt werden diejenigen Seiten, die die meisten Hypertext- Links von Seiten haben, die ihrerseits die meisten Verlinkungen bekommen haben (Cardon 2012). Die gemeinschafts- und teilhabeorientierte Kultur dieser Netzpioniere brach also mit dem Imperativ der totalen Repräsentation, den traditionelle Medien ihrer Vorstellung von Öffentlichkeit aufdrückten. Mit anderen Wor- ten: Die sichtbarste Information ist nicht die, die am häufigsten gesehen wird, sondern die, die Internetnutzer aktiv ausgewählt und anerkannt haben, in- dem sie häufig darauf verlinkten. Schweigende Zuschauer geraten aus dem Blick, weil die Auflistung von Links nichts grundlegend Demokratisches an sich hat. Wenn eine Webseite von anderen häufiger zitiert wird, fällt ihre An- erkennung anderer Seiten bei der Berechnung von Autorität mehr ins Ge- wicht. In Anlehnung an das Wertesystem der Wissenschaftsgemeinschaft – und insbesondere an wissenschaftliche Zeitschriften, die den meistzitierten Aufsätzen einen höheren Stellenwert verleihen – hat sich dieser Maßstab für Anerkennung als einer der bestmöglichen Näherungswerte zur Beurteilung von Informationsqualität erwiesen. Während Forscher und Journalisten Infor- mation vor der Veröffentlichung auf der Basis menschlichen Urteils filtern, filtern Suchmaschinen (und auch Google News) Information, die bereits auf der Basis menschlicher Urteile aus der Gesamtheit der veröffentlichenden Inter- netnutzer veröffentlicht wurde. In der Sphäre des Digitalen nennt man dieses Prinzip »kollektive Intelligenz« oder »die Weisheit der Vielen« (Benkler 2009). Es misst Information, indem es bei den Bewertungen ansetzt, die selbstorga- nisiert zwischen den aktivsten Internetnutzern und Webseiten ausgetauscht werden. Genauso verleihen auch viele andere Metriken denjenigen Autorität, die in Gemeinschaften wie Wikipedia oder Digg, in der Welt der freien Soft- 2 | Vgl. dazu Batelle (2005) und Levy (2011). 5. Den Algorithmus dekonstruieren 137 ware und auch bei den Rankings von Avataren in Online-Multiplayer-Spielen Anerkennung genießen. Diese Plattformen verwenden Verfahren, mit deren Hilfe sie die Qualität von Dokumenten oder Menschen feststellen, unabhängig von deren sozialem Status, durch die Messung der Autorität, die sie im Netz aufgrund des Urteils anderer Nutzer erhalten. Mithilfe von schrittweisen An- näherungen und Überprüfungen, oft hochgradig raffinierten Verfahren, zie- len diese Berechnungen darauf ab, die Vernünftigkeit, Angemessenheit und Korrektheit von Informationen mit einem rigorosen Verständnis von Rationali- tät und Wissen zusammenzubringen. Eine der Besonderheiten beim Maß von Autorität besteht darin, dass die aufgezeichneten Signale oberhalb des Webs positioniert sind und deshalb nicht (leicht) von Internetznutzern beeinflusst werden können. Tatsächlich ist eines der Ziele von Googles PageRank, dass die Nutzer dessen Existenz vergessen. Die Qualität der Messung hängt mit anderen Worten stark davon ab, dass die klassifizierte und gerankte Information nicht auf die Existenz des Algorith- mus’ reagiert. Webseiten müssen Links »natürlich« und »authentisch« unter- einander austauschen. Diese Vorstellung von »instrumenteller Objektivität« (Daston/Galison 2012) wird jedoch dauernd von denen unterminiert, die stra- tegisch größere Sichtbarkeit im Netz anstreben. So setzt sich z.B. der blühende SEO-Markt (Search Engine Optimization = SEO) aus Unternehmen zusammen, die Webseiten ein verbessertes Ranking bei Google versprechen. Einige bie- ten eine Verfeinerung von Webseitenskripten an, damit der Algorithmus sie besser verstehen könne, während viele andere lediglich versuchen, der Seite mithilfe der Logik des Algorithmus eine künstliche Autorität zu verschaffen. Autoritätsmaße sind ein Abglanz der meritokratischen Kultur der Netzpio- niere. Zwei wichtige Kritikpunkte führten jedoch in der Folge zu einer dritten Gruppe von Online-Informationsberechnungen. Der erste Kritikpunkt lautet, dass die Ansammlung von Peer-Urteilen einen starken Exklusionseffekt und eine Zentralisierung von Autorität bewirke. In jeder Art von Netzwerk zieht das, was sich im Zentrum befindet, die größte Aufmerksamkeit auf sich und erlangt übermäßige Sichtbarkeit. Weil sie jeder zitiert, werden die bekanntes- ten Webseiten auch die beliebtesten und bekommen so auch die meisten Klicks (Hindman 2009). So verkommt dieser ›aristokratische‹ Autoritätsstandard zu einem vulgären Maßstab von Beliebtheit. Google wurde zu so einem mächti- gen Magneten für Web Traffic, dass das Unternehmen in Mountain View sein Einkommen durch Werbeanzeigen in einer separaten Webseitenspalte »spon- sored links« aufbessern kann. Zwar heben sich diese beiden Klassifizierungen von Links (die ›natürlichen‹ auf Basis der Autorität der Algorithmen und die ›kommerziellen‹ auf der Basis von Werbung) deutlich voneinander ab, aber sie bilden doch die Startseite aller Suchresultate im Netz, eine große Online- Datenverkehrskreuzung, die nur die zentralsten und konventionellsten Web- seiten verbreitet – und diejenigen, die dafür bezahlen, gesehen zu werden (Van 138 Dominique Cardon Couvering 2008). Der zweite Kritikpunkt bezieht sich auf den Zensureffekt eines Klassifikationssystems, das autoritätsbasierte Maßstäbe nutzt. Klassifi- ziert wird nur die Information, die von Leuten kommt, die Dokumente mit Hypertextlinks veröffentlichen, also z.B. von Webseitenbesitzern und Blog- gern; alles andere wird ignoriert. Aber mit der ständig wachsenden Beliebtheit des Internets tauchen auch überall in den sozialen Netzwerken neue Arten der Partizipation auf, die flüchtiger, interaktiver und spontaner sind – und ge- sellschaftlich weniger selektiv. Internetnutzer sind durch ihre Facebook- und Twitter-Seiten aktiv Mitwirkende geworden und die sozialen Medien ziehen ein Publikum an, das jünger, schlechter gebildet und gesellschaftlich wie geo- graphisch diverser ist. Googles Algorithmus benimmt sich, als könnten nur Hypertext-Links Anerkennung übermitteln, und ihre Ansammlung stützt sich auf Autorität. Das geht aber z.B. nicht mehr mit ›Likes‹ und auf Facebook geteilten Seiten. Letzteren geht es mehr um subjektive Bedeutungen, Konst- ruktionen der Identität, widerstreitende Bewertungen und kontextuelle Idio- synkrasien, deren Muster nur unvollständig und näherungsweise berechnet werden können. Während Hypertext-Links den Anschein erwecken, auf das gesamte Netz eine quantifizierbare Bedeutung zu projizieren, vermitteln ›Li- kes‹ nur einen eingeschränkten Blick auf das soziale Netzwerk einer einzelnen Person. Zudem bringen soziale Medien tendenziell traditionelle Ranking-Sys- teme zum Einsturz, indem sie Vorlieben und Online-Muster um einen Kreis von ›Freunden‹ oder ›Followern‹ neu organisieren, den sich Internetnutzer selbst gewählt haben. Während autoritätsbasierte Maßstäbe die Anerkennung von Dokumenten unabhängig von ihren Autoren messen, werden nun die di- gitalen Identitäten von Nutzern genauso stark bewertet wie die Dokumente selbst (Cardon 2013). die rePutation der ›liKes‹ Während autoritätsbasierte Maßstäbe darauf abzielen, ihre Berechnungen oberhalb des Webs zu verstecken, auf dass Internetnutzer sie nicht so leicht verändern oder stören können, befinden sich die reputationsbasierten Maß- stäbe der sozialen Netzwerke innerhalb des Netzes, so dass sich Nutzer aktiv gegenseitig bewerten und beim Bewerten zuschauen können. Das Paradigma dieser neuen Berechnungstechniken ist das ›Like‹ oder ›Gefällt mir‹ auf Face- book, das sichtbarste Symbol einer viel breiteren und disparaten Gruppe von Indikatoren, die die Größe eines persönlichen Netzwerks anhand der Anzahl der Freunde, der Reputation durch veröffentlichte Artikel und Links, die an- dere weitergeteilt oder kommentiert haben, der Häufigkeit, mit der ein Nutzer in einer Online-Konversation erwähnt wird usw. messen. Reputationsbasierte Rankings messen die Kapazität eines Nutzers, seine Botschaften durch andere 5. Den Algorithmus dekonstruieren 139 weitergeben lassen zu können. Allgemein gesprochen lässt sich Einfluss aus dem Verhältnis zwischen der Anzahl von Leuten, die ein Nutzer kennt, und der Anzahl von Leuten, die diesen Nutzer kennen, ableiten (Heinich 2012) und misst so die soziale Macht eines Namens, eines Profils oder Bilds. Aus dem Wettstreit um die Gültigkeit der eigenen Argumente wurde ein Wettbewerb um die Absicherung der eigenen Sichtbarkeit im Reich des Digitalen. Das so- ziale Netz von Facebook, Twitter, Pinterest, Instagram usw. ist voll von kleinen Bewertungs- und Rankingmethoden oder »Gloriometern«, um Gabriel Tarde zu zitieren (zitiert von Latour/Lépinay 2008: 33). Sie erschaffen eine Landschaft mit vielen Hügeln und Tälern, eine Topologie, die Reputation, Einfluss und Be- rüchtigtheit nachzeichnet und Nutzern beim Surfen im Online-Raum hilft. In einer Welt, in der solche Zähler allgegenwärtig sind, hindert nichts die Nutzer daran, ihre Rankings zu verbessern. Nach autoritätsbasierten Maßstäben ist Sichtbarkeit stets verdient, aber in der reputationsbasierten Welt der sozialen Medien kann sie leicht fabriziert werden. Hier sind die Selbstinszenierung einer Reputation, die Kultivierung einer Gemeinschaft von Bewunderern und das Verbreiten viraler Botschaften hochbewertete Skills geworden. Im ganzen Netz und vor aller Augen haben diese eher unbedeutenden Rankingtechniken alle Nutzer in Bewerter und Klassifizierer verwandelt (Marwick 2014). Natür- lich ist diese Metrik nicht objektiv; sie produziert eher eine massive Menge an Daten, an denen Internetnutzer ihr Verhalten orientieren und ihre eigenen Wertmaßstäbe verbessern. Wie originär sie auch sein mögen, es entzündete sich doch lebhafte Kri- tik an den Maßstäben der Reputation, besonders angesichts der rasanten Aus- breitung der Social Media in den letzten Jahren. Die erste Kritik lautet, dass diese Methoden Nutzer in einer Blase einschlössen, und zwar aufgrund ihrer Entscheidung, Sichtbarkeit auf eine ganze Bandbreite an Mikrobewertungen und -zählern zu verstreuen, um die Zentralität autoritätsbasierter und algorith- mischer Messungen infrage zu stellen. Mit anderen Worten: Indem sie ihre Freunde selbst auswählen, treffen Internetnutzer eine homogene Auswahl und bringen Leute zusammen, deren Geschmack, Interessen und Meinungen den ihren ähneln. In der Folge schaffen affinitätsbasierte Metriken ›Fenster‹ der Sichtbarkeit, die durch das eigene soziale Netzwerk getönt sind, was die Nutzer am Zugang zu überraschenden oder verstörenden oder ihren a priori Meinungen widersprechenden Informationen hindert (Pariser 2011). Die zwei- te Kritik lautet, dass sich diese vielen kleinen lokalen Messungen aufgrund ihrer Heterogenität nur schwer aggregieren lassen. Es gibt keine gemeinsa- men Konventionen zur Produktion einer klaren Repräsentation des ständigen Blubberns und Brummens von Internetnutzern, ihrem dauernden Austausch von Freundschaftsanfragen, Likes und Retweets. Die Bedeutungen, die in den ständigen Mikrobewertungen von Reputation innerhalb der sozialen Medien gefangen sind, seien zu vielfältig, zu kalkuliert und vor allem zu kontextuell 140 Dominique Cardon um wahrhaft verständlich zu sein. Die große Arena der Expressivität, die man in den sozialen Netzwerken finden kann, betont die vielen wettstreitenden Zei- chen, Wünsche und Identitäten, die auf eine Ökonomie der Anerkennung und Reputation antworten. Wenngleich sie ernsthaft zum Ausdruck gebracht wer- den, kann man diese Zeichen außerhalb ihres Kontexts und aggregiert weder als wahr noch als authentisch auffassen. In einem Raum, in dem Sichtbar- keit strategisch produziert wird, wächst eine Diskrepanz zwischen dem, was Individuen sagen oder hinausschleudern, und dem, was sie tatsächlich tun. Diese Kluft bringt digitale Berechnungen durcheinander und macht es ihnen schwer, die Masse an Online-Daten zu verstehen. Es ist unklar, ob sie versu- chen sollten zu interpretieren, was Internetnutzer sagen – was sehr schwer ist – oder lediglich der Vielzahl an Spuren auf der Suche nach einer Interpretation folgen – was sie immer besser und besser können. Prognose durch sPuren Aus der zweiten Möglichkeit hat sich unsere letzte Gruppe digitaler Berech- nungen entwickelt, die sich unterhalb des Webs befindet und die Spuren von Internetnutzern so diskret wie möglich aufzeichnet. Diese Methode zeichnet sich durch die Verwendung einer bestimmten statistischen Technik aus, die »Maschinenlernen« heißt und die die Art und Weise, in der Berechnungen unsere Gesellschaft durchdringen, radikal verschoben hat (Domingos 2015). Ihr Ziel ist die Personalisierung von Berechnungen auf der Basis der Spuren von Online-Aktivitäten, um Nutzer zu bestimmten Handlungen zu animieren, wie man in den Empfehlungssystemen von Amazon und Netflix sehen kann. Diese Prognosetechniken wurden den meisten Algorithmen, die Popularität, Autorität oder Reputation messen, hinzugefügt, wodurch diese lernen, indem sie das Nutzerprofil einer Person mit denen anderer, die sich ähnlich verhalten oder entschieden haben, vergleichen. Auf der Basis von Wahrscheinlichkeit schätzt der Algorithmus das zukünftige Verhalten einer Person anhand der Entscheidungen von Personen mit ähnlichem Online-Verhaltensmuster. Die mögliche Zukunft eines Nutzers wird auf der Basis vergangener Handlungen ähnlicher Nutzer vorhergesagt. Man muss also Information nicht mehr aus dem Inhalt von Dokumenten, aus Urteilen von Experten, aus der Größe des Publikums, aus der Anerkennung innerhalb einer Gemeinschaft oder aus den Vorlieben, die sich in den sozialen Netzwerken einer Person widerspiegeln, he- rausziehen. Stattdessen konstruiert diese Methode Nutzerprofile, die aus den Spuren des Online-Verhaltens folgen, um Prognosetechniken zu entwickeln, die sich enger an deren Verhalten anschmiegen. Um die Entwicklung dieser neuen Prognosetechniken zu rechtfertigen, versuchen Befürworter von Big Data die Weisheit und Relevanz menschlicher 5. Den Algorithmus dekonstruieren 141 Urteilskraft zu diskreditieren. Individuen machen ständig Fehleinschätzun- gen: Es fehlt ihnen an Urteilsvermögen, ihre Einschätzungen sind systema- tisch zu optimistisch, sie können zukünftige Folgen nicht antizipieren, weil sie sich zu sehr auf die Gegenwart konzentrieren, sie lassen sich von ihren Gefühlen leiten, leicht von anderen beeinflussen und es geht ihnen ein gutent- wickelter Sinn für Wahrscheinlichkeit ab.3 Unterstützt durch neue Erkennt- nisse in der Experimentalpsychologie und in Wirtschaftswissenschaften sug- gerieren die Architekten der jüngsten Algorithmen, dass man Vertrauen nur in das echte Verhalten von Individuen haben könne und nicht in ihre Selbst- verlautbarungen auf sozialen Medienplattformen. Die Beobachtung globaler Regelmäßigkeiten in einer Riesenzahl von Spuren ermöglicht Einschätzun- gen, was Nutzer tatsächlich tun werden. Vorhersagende Algorithmen reagieren also nicht auf das, was Leute ankündigen, sondern auf das, was sie wirklich tun wollen, ohne es zu sagen. eine neue me thode, die gesellschaf t Zu ›berechnen‹ Während immer größere Mengen an Daten akkumuliert werden, sind die Um- wälzungen, die Big Data anrichten, vor allem durch eine Revolution in der ›Epistemologie‹ der Berechnungen charakterisiert. Daher möchten wir drei große Verschiebungen in der zahlenmäßigen Selbstdarstellung unserer Ge- sellschaft thematisieren: (1) eine Verschiebung in der anthropologischen Be- rechnungskapazität, da solche Messungen viel einfacher geworden sind; (2) eine Verschiebung in der Repräsentation sozialer Gruppen, da Kategorien die- jenigen Individuen, die herausstechen, immer schlechter repräsentieren kön- nen; und (3) eine Verschiebung in der gesellschaftlichen Produktion von Kau- salität, da statistische Korrelationen nicht mehr von der Ursache zur Wirkung fortschreiten, sondern eher wahrscheinliche Ursachen aus ihren Wirkungen nachbilden und einschätzen. Diese Veränderungen sind eine Kampfansage an die lange statistische Tradition, die – gemeinsam mit dem Staat – konstruiert wurde, um die Nation auf der Basis stabiler Konventionen und deskriptiver Ka- tegorien der gesellschaftlichen Welt zu kartographieren (Didier 2009). Diese Tradition garantierte einerseits durch das »Gesetz des Durchschnitts« ein ge- wisses Maß an Konsistenz und Solidität und andererseits eine Lesbarkeit, die ausreichte, um gängige Kategorien zu erschaffen (Desrosières 2014; Boltanski/ Thévenot 1983). Aber seit den frühen 1980er Jahren hat sich die Gesellschaft stark ausgedehnt und ist den Kategorien jener Institutionen, die sie aufzu- zeichnen, zu messen und zu beeinflussen versuchen, entwachsen. Tatsächlich ist die gegenwärtige Krise der politischen Repräsentation grundlegend mit der 3 | Vgl. z.B. Ayres (2007) und Pentland (2014). 142 Dominique Cardon Schwächung der statistischen Formen, die einst der sozialen Welt Struktur ga- ben, verbunden. Das Misstrauen von Individuen gegenüber der Art und Weise, in der Politiker, Journalisten, Wissenschaftler und Gewerkschaften sie darstel- len, fußt auf der Verweigerung, in vorgefertigten Kategorien eingeschlossen zu werden. Gerade um das Recht auf Einzigartigkeit und Singularität hoch- zuhalten, wurde eine weitreichende Neuerfindung statistischer Techniken angestoßen, um sich eine Vorstellung von Gesellschaft machen zu können, ohne Individuen zu strikt zu kategorisieren. Neue digitale Berechnungen ver- wenden die Online-Spuren von Internetnutzern, um sie mit den Spuren ande- rer Nutzer zu vergleichen, auf der Grundlage eines Systems probabilistischer Rückschlüsse, das nicht in gleichem Maße darauf angewiesen ist, dass statisti- sche Information an ein hochgradig kategoriales System rückgestöpselt wird. Dieses wird nicht mehr als Ursache für ein Verhalten gesehen, sondern eher als Netzwerk wahrscheinlicher Eigenschaften, die auf der Basis vergangenen Verhaltens geschätzt werden.4 Wenn die ›Gesellschaft der Berechnung‹ der- maßen gründlich bis in die kleinsten Aspekte unser Leben vorgedrungen ist, dann deshalb, weil das Soziale nicht mehr die Konsistenz hat, die einst seine Darstellung und die Nutzung breiter und oberflächlicher Kategorien zu Be- schreibung von Individuen erlaubte. ein fle xibleres ›re ales‹ Eines der ersten Anzeichen dafür, dass das sozialstatistische Standard-Modell schwächer wird, kann man an der Verschiebung der Position, wo Datenklassi- fikation stattfindet, beobachten. Diese Position hat sich bezüglich der gemes- senen Information dreimal verschoben, kann man sagen. Zuerst war sie neben dem Web angesiedelt, wo die Klicks der Webnutzer gezählt wurden. Danach rückte sie oberhalb des Webs, vergaß die Nutzer und konzentrierte sich auf die Zeichen der Autorität, die sie miteinander austauschten. Dann bewegte sie sich in das Netz hinein und lag innerhalb, in den sozialen Netzwerken, wo Sichtbar- keit nicht auf Verdienst basiert, sondern eher eine Funktion von Selbststilisie- rung und Identitätskonstruktion ist. Schließlich verlagerte sie sich nach unter- halb des Webs, wo die Algorithmen aus Unzufriedenheit mit dem Redeschwall der Nutzer die Online-Spuren ihres wirklichen Verhaltens aufzeichnen. Der Entwicklungsverlauf dieser Verschiebung zeigt, wie Statistik, einst externes und fernes Portrait der Gesellschaft, sich nach und nach in zeitgenössische Subjektivitäten hineinbewegt hat, wo sie Verhaltensmuster vergleicht, bevor sie verstohlen ausrechnet, was Nutzer tun werden, ohne es zu wissen. Was einst 4 | Zum Thema »Erosion des Determinismus« in statistischen Berechnungen siehe Ha- cking (1975). 5. Den Algorithmus dekonstruieren 143 von oben beobachtet wurde – anhand von Kategorien, mit denen Algorithmen Individuen gruppieren und vereinheitlichen konnten –, wird so nun von unten beobachtet – anhand der individuellen Spuren, die sie voneinander absetzen. Und bezeichnenderweise ist diese neue digitale Datenerhebung eine Form von radikalem Behaviorismus, die Gesellschaft berechnet ohne sie zu repräsentie- ren oder darzustellen. Dieser Entwicklungsverlauf reflektiert das Problem der Reflexivität, das aus dem intensiven Einsatz von Statistik durch Handelnde in der gesellschaft- lichen Welt erwächst (Espeland/Sauder 2007). Anders als die natürliche Welt, die von den Naturwissenschaften beobachtet wird, passt sich die menschli- che Gesellschaft in ihrem Verhalten stark an Information und die Statistiken darüber an. Das wissenschaftliche Ideal der Objektivität der Werkzeuge ist für die Stabilisierung von ›Fakten‹ wesentlich (Daston/Galison 2012) und es überträgt auf die Statistik das Vertrauen und die Zuversicht, die sie braucht, um die öffentliche Debatte zu formen. Jedoch wird es immer schwerer, diesen Standpunkt außerhalb zu halten, und die Hauptindikatoren der Sozialstatistik gerieten unter den Vorwurf der falschen Darstellung (Boltanski 2014). Auch die in den 1980er Jahren aufkommende neoliberale Politik trug dazu bei, die Autorität dieser Kategorien auszuhöhlen, indem sie statistischen Werkzeugen neue Aufgaben übertrug; nun sollen sie weniger dazu dienen, das Reale zu repräsentieren, als darauf einzuwirken. Techniken des Benchmarkings, des Leis- tungsvergleichs, trugen zum Niedergang der Metriken bei, die in den sozia- len Welten, die sie zu beschreiben behaupten, eingebettet sind; dazu kam die Entwicklung des ›Neuen Steuerungsmodells‹, neue Maßstäbe innerhalb von Organisationen, sowie neue Bewertungs- und Rating-Mechanismen, die den Einsatz von Indexen, Diagrammen und Leistungsindikatoren (Key Performance Indicators = KPIs) ausweiteten. Statistische Objektivität wurde so zu einem Ins- trument; nicht mehr die Zahlenwerte selbst sind wichtig, sondern die gemes- senen Werte dazwischen. Und, um Goodhearts berühmtes Gesetz zu zitieren: »Wenn eine Maßnahme zum Ziel wird, ist es keine gute Maßnahme mehr« (zit.n. Strathern 1997). Und noch eine Zielsetzung wurde Indikatoren zuge- wiesen: Individuelle gesellschaftlich Handelnde selbst in Maßwerkzeuge zu verwandeln, indem man sie in Umgebungen verortet, die ihnen mitteilen, wie sie messen sollen, während man ihnen ein gewisses Maß an Autonomie gibt. Weil sie aber untereinander schlecht vernetzt sind, beinhalten diese Indikato- ren kein umfassendes System. So hat überall bei der Organisation der Sichtbar- keit digitaler Information rechnerischer Sachverstand professionelle Autorität ersetzt – obwohl die Tatsache, dass diese Messungen falsch sein können, nicht mehr als problematisch erachtet wird (Bruno/Didier 2013; Desrosières 2014). Es hat sich immer weiter durchgesetzt, eine spezifische Messung einer be- stimmten Aktivität als einen breiteren Indikator für das tatsächlich gemessene Phänomen anzunehmen; so wird beispielsweise aus der Anzahl der Klagen 144 Dominique Cardon missbrauchter Frauen die tatsächliche Anzahl von missbrauchten Frauen oder aus den Oberschulen mit den besten Testergebnissen werden die besten Schulen usw. Der Gradmesser einer Leistung, oft eindeutig, wird so zu einem Werkzeug zur Interpretation eines viel breiteren Kontexts. Überdies macht der reflexive Charakter der Indikatoren die gesellschaftlich Handelnden selbst zu- nehmend strategisch und auch das ›Reale‹ immer manipulierbarer. In diesem Kontext kehren die jüngsten Berechnungen von Big Data in Reaktion auf die instrumentellen Benchmarking-Messungen zu einem solideren Außenstand- punkt zurück. Aber man erwartet von ihnen nicht, neben oder oberhalb der gemessenen Daten angesiedelt zu sein, als abgehobene Beobachter, die die Ge- sellschaft aus ihren Laboren überblicken. Big Data verzichtet auf wahrschein- lichkeitsbasierte Untersuchungen, auf Bewertungen der Informationsqualität, und hat die Berechnungen in der Black Box der Maschinen verborgen, so dass die Nutzer sie nicht mehr beeinflussen oder verändern können. So hat Big Data die instrumentelle Objektivität der Naturwissenschaften reanimiert, aber diesmal außerhalb des Labors: Die Welt selbst wurde direkt aufzeichen- und berechenbar. In der Tat besteht der Ehrgeiz darin, immer näher am ›Realen‹ zu messen, flächendeckend, detailliert und diskret. die Krise K ategorischer rePr äsentation Die zweite Transformation, die die Art und Weise, in der Gesellschaft sich selbst in Zahlen spiegelt, erschütterte, ist die Krise statistischer Konsistenz; jene ordnet ein System von Kategorien, die untereinander stabile Beziehungen unterhalten. Die Sammlung von Sozialstatistiken haftet nicht mehr an tatsäch- lichen Gesellschaften oder ist im Einklang mit ihnen: Statistik sieht keine aus der Vielfalt individueller Verhaltensweisen erwachsende Gesamtdarstellung mehr vor, mit der Leute sich identifizieren könnten. Obwohl Statistiken nie weiter verbreitet waren als jetzt, werden sie häufig und zunehmend angegrif- fen. Globale statistische Indikatoren – wie Arbeitslosenzahlen, Preisindizes oder Bruttoinlandsprodukt – werden oft als manipulierbare Informationskons- trukte gesehen, die für eine Vielzahl politischer Ziele benutzt werden können. Daher spielen sie in der Figuration des Sozialen eine schwindende Rolle. Unter dem Einfluss der Theorie der Rationalen Erwartungen hat der managerhafte Staat seine statistischen Aktivitäten stattdessen auf ökonometrische Methoden umorientiert, die Public Policies formulieren und bewerten wollen (Angeletti 2011). Auch in den nationalen Statistikinstituten wurde die Nomenklatur von »Beschäftigungsverhältnisse und berufsständische Kategorien« seit den frü- hen 1990er Jahren schrittweise durch spezifischere oder eindimensionale de- mographische Variablen wie Berufsabschluss oder Einkommen ersetzt (Pier- ru/Spire 2008). 5. Den Algorithmus dekonstruieren 145 In der Tat hat die Ökonometrie die globalen statistischen Modelle der Sozio- logen im Namen der Wissenschaft in Frage gestellt und an den Rand gedrängt. Mit ihren Querverweistabellen und geometrischen Datenanalysemethoden be- vorzugen Vertreter der Ökonometrie Techniken der linearen Regression, die als verifiziert gelten, wenn es ›bei ansonsten gleichen Bedingungen‹ eine Kor- relation zwischen zwei Variablen gibt. Die von Soziologen und Statistikern in den 1970er Jahren eingeführten Datenanalysetechniken, insbesondere Fakto- renanalysen der Hauptkomponenten, versuchten, verschiedene manifeste Va- riablen auf eine zweidimensionale Fläche zu projizieren. Während soziale Phä- nomene einst dadurch gemessen wurden, dass man mittels berufsständischer Kategorien einen Überblick über eine Gesellschaft konstruierte, versuchen ce- teris paribus Berechnungen, basierend auf ›ansonsten gleichen Bedingungen‹, so spezifisch wie möglich zwei eigenständige Variablen zu isolieren, um zu bestimmen, ob die eine auf die andere Auswirkungen hat, unabhängig von allen anderen Variablen, die die mühselige Vorstellung einer ›Gesellschaft‹ einschließen. Mittels Mathematik individualisieren solche ökonometrischen Berechnungen die Daten, die in die Modelle eingehen, und bemühen sich, sie so exakt und unzweideutig wie möglich zu machen. Dieser Ansatz misstraut Kategorien, die zu breit sind, die die Kalkulationen durch tautologische Erklä- rungen oder den Eingang von politischen oder sozialen Vorannahmen in die Gleichungen zu verunreinigen drohen. Die Wende zur Ökonometrie in der Na- tionalstatistik hat so die Grundlage für die digitalen Algorithmen der Big Data geschaffen, basierend auf der großen Zahl. Da die rechnerischen Ressourcen es nun zulassen, ist es nicht mehr nötig, die Modelle zu verfeinern und zu begrenzen, um die Korrelationen zwischen Variablen zu bestimmen, die als Annahmen dienen: Es ist jetzt machbar, von der Maschine zu verlangen, alle möglichen Korrelationen zwischen einer wachsenden Anzahl von Variablen zu testen. Wenn Berechnungen heute mehr in den Vordergrund zu treten scheinen, dann weil die Gesellschaft zunehmend komplex und schwer zu messen ge- worden ist. Die Logik der gesteigerten Anpassung an Nutzerwünsche, die die derzeitigen Techniken der Informationsordnung entstehen ließ, ist eine Kon- sequenz aus der expressiven Individualisierung, die die Entwicklung digitaler Anwendungen begleitet hat. Früher, in hierarchischen Gesellschaften, als der Zugang zum öffentlichen Raum hochgradig reguliert war, war es leicht im Namen von einzelnen zu sprechen, indem man die Kategorien verwendete, die sie repräsentierten. Regierungen, Wortführer und Statistiker konnten über Ge- sellschaft ›sprechen‹ – mittels der Ansammlung von Daten, die sie konstruiert hatten, um sie abzubilden. Heute wirkt diese abstrakte körperlose Vorstellung von Gesellschaft immer künstlicher und willkürlicher und immer weniger geeignet, die Diversität individueller Erfahrungen zu repräsentieren. Die Zer- streuung von Subjektivitäten in öffentlichen digitalen Räumen hat Individuen 146 Dominique Cardon dazu ermutigt, sich selbst zu repräsentieren (Cardon 2010). Die Individuali- sierung von Lebensstilen und die Zunahme gesellschaftlicher Möglichkeiten trugen zu einer ansteigenden Flüchtigkeit von Meinungen, einer Diversität von Karrierewegen und zu einer Vervielfältigung von Interessensgebieten und Konsumbereichen bei. Eine wachsende Zahl von Verhaltensweisen und Ein- stellungen stehen so weniger unmittelbar in Korrelation zu den großen inter- pretierenden Variablen, an die Soziologen und Vermarkter eher gewöhnt sind. Selbst wenn die traditionellen soziologischen Methoden zur Bestimmung von Verhalten und Meinungen weit davon entfernt sind zu verschwinden, können sie doch die Gesellschaft nicht mehr mit der gleichen Spezifität kartographie- ren. Jüngste Entwicklungen in statistischen Techniken versuchen diese Schwie- rigkeiten zu überwinden, indem sie sowohl die Natur der Daten als auch die verwendeten Rechenmethoden erneuern und neu erfinden. In der Auswahl der für Computer bestimmten Daten trat eine systematische Verschiebung ein: Für stabilere, nachhaltigere und strukturierende Variablen, die statistische Ob- jekte in Kategorien platzieren, geben digitale Algorithmen Events den Vorzug (Klicks, Käufe, Interaktionen usw.), die sie auf die Schnelle aufzeichnen, um sie mit anderen Ereignissen zu vergleichen, ohne breite Kategorisierungen machen zu müssen. Statt ›schweren‹ Variablen versuchen sie Signale, Hand- lungen und Leistungen zu messen. Indem sich so die Rahmenstruktur der Na- tionalstatistiken auflöst, sind die meisten Techniken zur Stichprobenbildung, die es einst Forschern erlaubten, ein Phänomen innerhalb einer definierten Population zu messen, obsolet geworden. Der Niedergang traditioneller Methoden zur Stichprobenbildung förderte einen radikalen Bruch innerhalb der statistischen Methoden. Mit der immen- sen Macht der Computer bewaffnet sehen Big Data-Entwickler umfassenden Datensätzen entgegen und sind glücklich, wenn sie sie »roh« erwischen kön- nen (Gitelman 2013). Einige behaupten, es sei besser alle Daten zu sammeln, ohne sie vorher auszuwählen oder filtern zu müssen. Aber natürlich hatte der Verzicht auf systematische Anforderungen der Datenselektion bei digitalen Berechnungen mehrere Konsequenzen (Boyd/Crawford 2011). Erstens betref- fen diese Aufzeichnungen nur die Aktiven, die, die Spuren hinterlassen haben; andere – die nicht verbunden, passiver und nicht aufspürbar sind – werden aus der Struktur von Netzwerk-Daten ausgeschlossen. Auch trug das Fehlen einer kategorialen Infrastruktur für statistische Aufzeichnungen zu einer wachsen- den Anwenderanpassung und Fragmentarisierung der Berechnungen bei. Bei den meisten Webdiensten, die Massendaten-Verarbeitungstechniken imple- mentiert haben, geht es darum, den Internetnutzern selbst die angemessenen oder passenden Informationen zurück zu spiegeln. Bezeichnenderweise ist das einzige Werkzeug, das eine großflächige Repräsentation von Daten sicher- stellt, die Landkarte. Positions- oder Ortsbestimmung, Geolocation, die es den 5. Den Algorithmus dekonstruieren 147 Nutzern erlaubt, auf ihre eigene Position rein- oder rauszuzoomen, wird das letzte totalisierende Werkzeug sein, das übrig bleibt, wenn alle anderen ver- schwunden sind (Cardon 2014). die Vernebelung erKl ärender ursachen Eine dritte Transformation hat das Fundament der statistischen Standard- modelle über den Haufen geworfen: Korrelationen brauchen keine Ursachen (Anderson 2008). In Anerkennung unserer Unkenntnis der Gründe, die für einzelne Handlungen verantwortlich sind, haben wir die Suche nach einem a priori Erklärungsmodell aufgegeben. Zudem hat sich in einigen Bereichen der Statistik eine neue Beziehung zur Kausalität entwickelt, die ›bayesschen‹ Modellen einen posthumen Sieg über ›frequentistische‹ Modelle in der Tra- dition von Quetelet beschert (McGrayne 2011). Die statistischen Modelle der neuen Datenwissenschaftler kommen aus der exakten Wissenschaft, insofern sie induktiv, mit der geringstmöglichen Anzahl an Hypothesen, nach Mus- tern suchen. Die derzeitige Rechnerleistung erlaubt das Testen aller möglichen Korrelationen, ohne dass einige vorher ausgeschlossen werden mit der Begrün- dung, dass die Ereignisse, die zu ihnen geführt haben, vielleicht niemals ge- schehen werden. Es wäre irreführend anzunehmen, dass diese Methoden nur nach Korrelationen suchen, die ›funktionieren‹, ohne sich der Mühe zu unter- ziehen, sie zu erklären. In Wirklichkeit produzieren sie viele Verhaltensmo- delle, die erst a posteriori und somit als Knäuel von Erklärungen auftauchen, deren Variablen sich in verschiedenen Nutzerprofilen verschieden verhalten. In einer vereinheitlichten Theorie des Verhaltens operieren Algorithmen als ständig wechselndes Mosaik kontingenter Mikro-Theorien, die lokale Pseudo- erklärungen wahrscheinlichen Verhaltens artikulieren. Diese Berechnungen sind dazu bestimmt, unser Verhalten zu den wahrscheinlichsten Objekten zu führen: Man braucht sie nicht zu verstehen und kann es oft auch nicht. Diese auf den Kopf gestellte Art und Weise, das Soziale zu fabrizieren, ist eine Wi- derspiegelung der Umkehrung von Kausalität, die dadurch zustande kommt, dass statistische Berechnung der Individualisierung unserer Gesellschaft so- wie der Unbestimmtheit einer wachsenden Zahl von Determinanten unserer Handlungen Rechnung tragen soll. Die derzeitige Logik von Forschern und Datenwissenschaftlern ist in der Tat frappant in ihrer Art, wie sie das Gefüge der Gesellschaft zu rekonstruieren versucht: kopfüber und von unten. Sie be- ginnt beim individuellen Verhalten, um dann daraus die Bedingungen, die es statistisch wahrscheinlich machen, abzuleiten. Die Untersuchung der Rechentechniken, die sich heute in der digitalen Welt rasant entfalten, ermöglicht es uns, die soziopolitischen Dimensionen der Entscheidungen zu verstehen, die Forscher treffen, wenn sie Algorithmen 148 Dominique Cardon benutzen, um die Gesellschaft zu repräsentieren. Die Prinzipien, die sie im- plementieren, bieten verschiedene Rahmen des Engagements, je nachdem ob ihre Nutzer Messungen auf der Basis von Popularität, Autorität, Reputation oder Verhaltensprognosen bevorzugen. Berechnungen konstruieren so unsere ›Wirklichkeit‹, organisieren sie, leiten sie. Sie produzieren Übereinstimmun- gen und Äquivalenzsysteme, die einige Objekte zuungunsten anderer auswäh- len und eine Wertehierarchie überstülpen, die nach und nach das kognitive und kulturelle Gefüge unserer Gesellschaften bestimmt. Die Wahl zwischen diesen verschiedenen Techniken der Repräsentation hängt jedoch nicht vom alleinigen Gutdünken der Designer ab; zu tief sind sie in der Veränderung unserer Gesellschaften verwurzelt. Tatsächlich können Berechnungen wirk- lich nur in den Gesellschaften berechnen, die gezielt die Wahl getroffen haben, sich berechenbar zu machen. Übersetzt von Dagmar Buchwald. liter aturVer Zeichnis Anderson, B. (1996): L’imaginaire national: Réflexions sur l’origine et l’essor du nationalism, Paris: La Découverte. Anderson, C. (2008): »The End of Theory: Will the Data Deluge Make the Scientific Method Obsolete?«, Wired Magazine 16 (07), Juli 2008. Angeletti, T. (2011): »Faire la réalité ou s’y faire: La modélisation et les dépla- cements de la politique économique au tournant des années 70«, Politix 3 (95), S. 47-72. Ayres, I. (2007): Super Crunchers: Why Thinking-by-Numbers Is the New Way to Be Smart, New York: Random House. Batelle, J. (2005): The Search: How Google and Its Rivals Rewrote the Rules of Business and Transformed Our Culture, New York: Portfolio. Beauvisage, T. (2013): »Compter, mesurer et observer les usages du web: outils et méthodes«, in: Manuel d’analyse du web en sciences humaines et sociales, hg. v. C. Barats, Paris: Armand Colin, S. 119-214. Benkler, Y. (2009): La richesse des réseaux: Marchés et libertés à l’heure du partage social, Lyon: Presses Universitaires de Lyon. Boltanski, L. (2014): »Quelle statistique pour quelle critique?«, in: Statactiv- isme: Comment lutter avec des nombres?, hg.  v. I. Bruno, E. Didier und J. Prévieux, Paris: Zones, S. 33-50. Boltanski, L./Thévenot, L. (1983): »Finding One’s Way in Social Space: A Study Based on Games«, Social Science Information 22 (4/5), S. 631-680. 5. Den Algorithmus dekonstruieren 149 Boyd, D./Crawford, K. (2011): »Six Provocations for Big Data«, Vortrag auf dem Symposium: A Decade in Internet Time: Symposium on the Dynamics of the Internet and Society, Oxford, September. Bruno, I./Didier, E. (2013): Benchmarking: L’État sous pression statistique, Paris: Zones. Cardon D. (2010): La démocratie Internet. Promesses et limites, Paris: Seuil. Cardon, D. (2012): »Dans l’esprit du PageRank. Une enquête sur l’algorithme de Google«, Réseaux 31 (177), S. 63-95. Cardon, D. (2013): »Du lien au like: Deux mesures de la réputation sur inter- net«, Communications 93, S. 173-186, doi: 10.3917/commu.093.0173. Cardon, D. (2014): »Zoomer ou dézoomer? Les enjeux politiques des données ouvertes«, in: Digital Studies: Organologie des savoirs et technologies de la con- naissance, hg. v. B. Stiegler, Paris: FYP Éditions, S. 79-94. Cardon, D. (2015): A quoi rêvent les algorithmes. Nos vies à l’heure des big data, Paris: Seuil/République des idées. Citton, Y. (2014): Pour une écologie de l’attention, Paris: Seuil. Daston, L./Galison, P. (2012): Objectivité, Paris: Les Presses du Réel. Desrosières, A. (2014): Prouver et gouverner: Une analyse politique des statistiques publiques, Paris: La Découverte. Didier, E. (2009): En quoi consiste l’Amérique? Les statistiques, le New Deal et la démocratie, Paris: La Découverte. Domingos, P. (2015): The Master Algorithm: How the Quest for the Ultimate Learn- ing Machine Will Remake Our World, London: Penguin Random House UK. Espeland, W./Sauder, M. (2007): »Rankings and Reactivity: How Public Mea- sures Recreate Social Worlds«, American Journal of Sociology 113 (1), S. 1-140. Gitelman, L., Hg. (2013): Raw Data Is An Oxymoron, Cambridge, MA: MIT Press. Hacking, I. (1975): The Emergence of Probability, Cambridge, UK: University of Cambridge Press. Heinich, N. (2012): De la visibilité: Excellence et singularité en régime numérique, Paris: Gallimard. Hindman, M. (2009): The Myth of Digital Democracy, Princeton, NJ: Princeton University Press. Introna, L.D. (2011): »The Enframing of Code: Agency, Originality and the Pla- giarist«, Theory, Culture and Society 28 (6), S. 113-141. Introna, L.D./Nissenbaum, H. (2000): »Shaping the Web: Why the Politics of Search Engines Matters«, The Information Society 16 (3), S. 169-185. Jouët, J. (2004): »Les dispositifs de construction de l’internaute par les mesures d’audience«, Le temps des médias, 3 (2), S. 135-144. Latour, B./Lépinay, V.A. (2008): L’économie science des intérêts passionnés: Intro- duction à l’anthropologie économique de Gabriel Tarde, Paris: La Découverte. 150 Dominique Cardon Levy, S. (2011): In the Plex: How Google Thinks, Works and Shapes Our Lives, New York: Simon & Schuster. McGrayne, S.B. (2011): The Theory That Would Not Die: How Bayes’ Rule Cracked the Enigma Code, Heated Down Russian Submarines and Emerged Triumphant from Two Centuries of Controversy, New Haven, CT: Yale University Press. Marwick, A.E. (2013): Status Update: Celebrity, Publicity and Branding in the So- cial Media Age, New Haven, CT: Yale University Press. Méadel, C. (2010): Quantifier le public: Histoire des mesures d’audience de la radio et de la television, Paris: Économica. Norman, D. (1991): »Cognitive Artifacts«, in: Designing Interaction: Psychology at the Human-Computer Interface, hg.  v. J. Caroll, Cambridge, UK: Cam- bridge University Press, S. 17-38. Ouakrat, A./Beuscart, J.-S./Mellet, K. (2010): »Les régies publicitaires de la presse en ligne«, Réseaux, 160-161, S. 134-161. Pariser, E. (2011): The Filter Bubble: What the Internet Is Hiding from You, New York: Penguin. Pentland, A. (2014): Social Physics: How Good Ideas Spread: The Lessons from a New Science, New York: Penguin. Pierru, E./Spire, A. (2008): »Le crépuscule des catégories socioprofessionnel- les«, Revue Française de Science Politique 58 (3), S. 457-481. Simondon, G. (1989): Du mode d’existence des objets techniques, Paris: Aubier. Strathern, M. (1997): »›Improving Ratings‹: Audit in the British University Sys- tem«, European Review 5 (3), S. 305-321. Turow, J. (2011): The Daily You: How the New Advertising Industry Is Defining Your Identity and Your Worth, New Haven, CT: Yale University Press. Van Couvering, E. (2008): »The History of the Internet Search Engine: Naviga- tional Media and the Traffic Commodity«, in: Web Search: Multidisciplinary Perspectives, hg. v. A. Spink und M. Zimmer, Berlin: Springer, S. 177-206. Winner, L. (1980): »Do Artifacts Have Politics?«, Daedalus 109 (1), S. 121-136. Zittrain, J. (2006): »A History of Online Gatekeeping«, Harvard Journal of Law and Technology 19 (2), S. 253-298. 6. ›Ver-rückt‹ durch einen Algorithmus Immersive Audio: Mediation und Hörbeziehungen Joseph Klett Du sitzt in einem Zimmer. Auf deinem Kopf trägst du scheinbar handelsübliche Kopf- hörer. Eine Markenbezeichnung ist auf den Ohrmuscheln eingeprägt: Mantle. Die Kopf- hörer sind an eine Blackbox-Konsole angeschlossen, die ihrerseits mit einer Nutzer- Oberfläche auf deinem Computer verbunden ist. Am Bildschirm wählst du »Benutzer kalibrieren« aus. Das System generier t eine Reihe von Tönen und fordert dich auf, jeden einzelnen Ton in Beziehung zu deinem Avatar auf dem Bildschirm zu veror ten: ein Ton scheint direkt hinter deiner rechten Schulter zu entstehen; ein anderer Ton erklingt di- rekt vor dir, vielleicht eher ein bisschen von links. Du lokalisierst eine gewisse Anzahl von Tönen – vielleicht zwölf insgesamt – und dann wartest du, bis das System dein Profil erstellt hat. Du bekommst ein Signal, dass das System jetzt bereit für dich ist. Immer noch im Sitzen wählst du aus deiner Programmbibliothek das Lied »Deja la Vida Volar (REMASTERED)« von Victor Jara aus. Ein Mediaplayer mit den üblichen Schalt- flächen PLAY, PAUSE, ADVANCE und REVERSE erscheint auf dem Bildschirm. Neu ist ein weiteres Menü LOCATION; du bleibst erst einmal bei der Voreinstellung »Studio«. Du drückst auf »Play«. Jaras Akustikgitarrenklänge perlen vor dir von einer Seite zur ande- ren, während die Holz-Percussion dumpf zu deiner Rechten stampft. Deine Augen folgen dem Klang der Andenflöte, der fast zum Greifen nah linker Hand schmachtet. Als Jaras Stimme er tönt, drängt sie in den Vordergrund, direkt vor dir – doch sie klingt merkwürdig hohl, als käme sie aus einer Höhle. Alles klingt so wie aus einem halbwegs anständigen Kopfhörer in digitalem Stereo. Dann bewegst du den Kopf. Ein Gyroskop im Kopfhörerbügel registrier t deine Bewegung. In der Konsole übersetzt ein Mikroprozessor die Information, ein Algorithmus passt so- for t das Ausgangssignal an deine Kopfbewegungen an. Während du nach links blickst, kannst du die Stimme, die eben noch vor dir war, nun hinter deiner rechten Schulter hören. Die Flöte er tönt jetzt grade außerhalb der Reichweite deiner rechten Hand. Das Schlagzeug ist hinter dir. Du schwenkst den Kopf langsam von rechts nach links und der Klang passt sich an, gleicht deine Richtungswechsel mit seinem vir tuellen Raum ab. Du bewegst den Kopf schneller und der Algorithmus schwenkt um; eine Kompressionsse- quenz verhindert hörbares Audio Clipping. Dank des Zerstreuungskegels der Wahrneh- 152 Joseph Klet t mung im menschlichen Ohr nimmst du gar nicht wahr, dass das Playback vorübergehend weniger Samples enthält. Du wendest dich wieder der Nutzeroberfläche und deren Menü zu. Du schaltest bei LOCATION von »Studio« auf »CBGB«. Der Sound verwandelt sich automatisch von der Studioschachtel, in der Jara aufnahm, in die langgestreckte Akustik des berühmten Kult-Clubs. Es spielt keine Rolle, dass der New Yorker Club überhaupt erst zwei Monate nach Jaras tragischem Tod in Chile eröffnet wurde; ein anderer Online-Jara-Fan hat sich die Mühe gemacht, eine verlustfreie MP3-Aufnahme in dem objekt-basier ten Format, das du jetzt hörst, zu remastern. Dieses Format übersetzt die Aufnahme in einzelne Klang-Objekte, die anhand vorher aufgezeichneter akustischer Parameter tatsächlicher Räumlichkeiten wiedergegeben werden. In Verbindung mit dem Algorithmus kannst du nun mithilfe von Kopfhörern so hören, als wärst du tatsächlich an verschiedenen Orten. Dies ist ein fiktiver Bericht. Aber du könntest diese Geschichte auch von den Technikern hören, die die Algorithmen für Immersive Audio erstellen. »Was machen Algorithmen?« Solon Barocas, Sophie Hood und Malte Ziewitz (Barocas u.a. 2013) werfen diese Frage auf, um die funktionale Geschlossen- heit und Eindimensionalität von Algorithmen infrage zu stellen. Algorithmen sind keine immateriellen Formeln, sondern praktische Ausdrücke, die Aus- wirkungen auf die phänomenale Welt von Menschen haben. Daher muss man diese phänomenalen Modifizierungen auf ihre Relevanz als algorithmische Vorgänge untersuchen (Gillespie 2014). Statt Algorithmen für selbstverständ- liche Mechanismen zu halten, könnten wir diese technischen Verfahren ›in freier Wildbahn‹ aufsuchen, um so besser zu verstehen, wie sie Erfahrungen vermitteln. Algorithmen werden buchstäblich und im übertragenen Sinn von handelnden Personen ›kodiert‹, die Bedeutungen und Werte vor Ort in techni- sche Prozeduren übersetzen. Ein Beispiel dafür finden wir, wenn wir uns die digitale Technik von Immersive Audio näher anschauen. In diesem Kapitel nehme ich Sie mit in ein Forschungs- und Entwicklungs- Labor (R&D), in dem Tontechniker mit psychoakustischen Regeln und objekt- orientierten Berechnungen experimentieren, um Klänge in einer virtuellen Hörumgebung zu reproduzieren. Ein Mikroprozessor (und der darin eingebet- tete Code) vermittelt zwischen live ertönenden oder aufgezeichneten Quellen und einem Kopfhörer für die Wiedergabe. Der Klang wird in seiner Beziehung zwischen Wahrnehmungscharakteristika und Raumausrichtung des Hörers und dem Klangverhalten einer Umgebung umgestaltet. Immersive Audio wur- de ursprünglich für Anwendungen im Film, in der Musik und in Videospie- len vermarktet – obwohl die Entwicklung dieses neuen Audio Formats (Sterne 2012) nicht gegen einen Einsatz in verschiedenen Bereichen erweiterter Rea- lität (Augmented Reality = AR) spricht, wie etwa auf Videokonferenzen oder bei virtuellen Führungen. In der Tat betonen die zeitgenössischen Entwickler, dass die Zukunft von AR nicht davon abhängt, welche Informationen mithil- 6. ›Ver-rück t‹ durch einen Algorithmus 153 fe dieser Technologie übermittelt werden, sondern von den Zugriffsmöglich- keiten dieser Technologie auf alle Arten von Information. Deshalb kodieren Tontechniker im Digitalbereich Immersive Audio weniger für spezifische An- wendungen, sondern eher auf einen bestimmten Zustand von akustischen Bezügen hin. Diese akustischen oder Hörbezüge entstehen vermittels Perso- nalisierung, Desorientierung und räumlicher Verlagerung (Translozierung). Im Folgenden werde ich ethnographisches Material nutzen, um zu zeigen, wie diese Vermittlung aus technischen Entscheidungen und Wertsetzungen der Techniker entsteht, während sie daran arbeiten, Immersive Audio zum Le- ben zu erwecken.1 Im Rückgriff auf Theorien in Sound Studies (kulturwissen- schaftliche Klangforschung) und Kultursoziologie behaupte ich, dass die algo- rithmischen Transformationen durch Immersive Audio einen Effekt herstellen, den ich baffling nenne, also »baff-machend« oder »ver-rückend« – in der Dop- pelbedeutung des Wortes »baffle«.2 Ich meine also sowohl im übertragenen als auch im technischen Sinn eine Desorientung, Umlenkung, Verblüffung oder Ver-Rückung. Baffling isoliert den Zuhörer vom gemeinsamen Klangraum und arrangiert die Bedeutungen in seiner Wahrnehmung dieses Raumes neu. Die- ser technische Akt der Vermittlung oder Mediation (im agentiven und enkultu- rierenden Sinn, wie ihn Appadurai 2015 entwickelte) fesselt die Wahrnehmung des Nutzers und blockt gleichzeitig physisch andere Klänge ab. Die Antwort auf die Frage von Barocas u.a., was die Algorithmen von Immersive Audio denn tun, lautet also, dass sie physische und symbolische Prozesse ins Werk setzen, die tatsächlich die akustischen Bezüge zwischen Hörern und ihren unmittel- baren sozialen Welten umstrukturieren. mediation Medientechnologien sind heutzutage allgegenwärtige Vermittler von Kultur. Das Auditive (kurz: Audio) beispielsweise ist Mittel und Medium zur Wahr- nehmung symbolischen Materials und symbolischer Handlung. Im Kopfhö- 1 | Das empirische Material in diesem Kapitel stammt aus einem größeren Forschungs- projekt zur kulturellen Wahrnehmungsgestaltung durch Tontechnik (Klett, in Kürze er- scheinend). Dieses Forschungsprojekt wurde von der National Science Foundation ge- fördert (SES-1128288). 2 | Das Wortspiel ist im Deutschen nicht genau so möglich: »to baffle« ist im Engli- schen der Vorgang, jemanden zu verblüffen, »baffled« entspricht dem deutschen »ver- blüff t«, »perplex«, »baff«. Ein Baffle ist aber auch eine Vorrichtung in der Akustik, mit der Schallwellen umgelenkt werden, z.B. eine Schallwand in Lautsprechern, die Töne um- lenkt. In diesem Doppelsinn wird jemand durch Immersive Audio desorientier t, klang- lich ver-rückt und verblüff t (A.d.Ü.). 154 Joseph Klet t rer konstruieren wir eine neue klangliche Beziehung zur Welt, die Bedeutung überlagert (Beer 2007; Bijsterveld 2010; Bull 2012; Hosokawa 2012). Das me- chanische Verhalten dieser Technologie ist bedeutsam, weil es den Symbol- gehalt, den es vermittelt, selbst färbt. Diesbezüglich thematisieren Jonathan Sterne und Tara Rodgers (2011) die Semiotik algorithmischer Signalverarbei- tung und beziehen Metaphern des »Rohen« und des »Gekochten« auf die Klangfarbe der Audio-Wiedergabe. Techniker benutzen diese Kategorien, um ›unberührte‹ Klänge von verarbeiteten zu unterscheiden; solche symbolischen Kategorien erlauben es ihnen – im Vakuum des Mediums – absolute oder ›rei- ne‹ Klänge zu spezifizieren, die entweder noch verarbeitet oder unbearbeitet belassen werden. Über hörbare Signale hinausgehend kodieren Tontechniker auch Algorith- men für akustische Eigenschaften von Klang. Sterne (2015) beschreibt die Be- deutung, die »dry« und »wet« Audio für Tontechniker haben, wenn sie vorge- gebene Signale mit algorithmischem Affekt kombinieren. Es ist Symbolarbeit, wenn Tontechniker den situativen Effekt des Halls separieren, so als habe er eine unabhängige Beziehung zum absoluten Klang-Objekt – sie imaginieren faktisch, dass ein Klang und der Raum dieses Klangs effektiv voneinander ge- trennt, aus ihrer akustischen Situation extrahiert und anderswo neu kombi- niert werden können. Nach dieser Logik ist ein Niesen ›an sich‹ immer der gleiche isolierte Klang – in den Gewölben einer modernen Bibliothek, in den Dünen eines Strands oder auf der sehr kurzen Strecke zwischen Kopfhörern und Gehörgang. Aus der Perspektive der Tontechnik ändert sich dabei ledig- lich, wie diese Räume die Wahrnehmung des Niesens modulieren. Für einen Toningenieur mag dies eine attraktive Einstellung sein: Wenn Nieser onto- logische Objekte sind, die getrennt von ihrer Erkenntnis in einem Wahrneh- mungs-Raum existieren, dann würde eine unabhängige Verbindung zwischen beiden es Algorithmen erlauben, die Wahrnehmung des Klangraums bei der Wiedergabe zu manipulieren. Lass einen beliebigen Klang durch einen Filter laufen und schon klingt es so, als käme der Klang aus einer völlig anderen Räumlichkeit. Solche Algorithmen rekonstruieren also den hörbaren ›Raum‹, indem sie innerhalb einer Audio-Produktion ein Set zuvor festgelegter akus- tischer Charakteristika als Referenz nehmen. In dieser Hinsicht, bestätigt Sterne, produzieren Algorithmen die Repräsentation eines Klangraums, die sich aus, bestenfalls, unvollständigen Informationen über die Räumlichkeiten speist, die sie zu repräsentieren vorgibt. »Künstlicher Hall repräsentiert Raum und konstruiert ihn dabei gleichzeitig«, so Sterne (2015: 113). An dieser Stelle sollte ich unterstreichen, dass die symbolischen Katego- rien, die Techniker verhandeln, nicht getrennt von der Arbeit des Aushandelns tatsächlicher Signale existieren. Diese pragmatische Einstellung schützt uns vor dem Drang, mit Symbolen so umzugehen, als wären sie auf einer höheren Ebene angesiedelt als ihr physikalischer Ausdruck. In diesem Sinn warnt die 6. ›Ver-rück t‹ durch einen Algorithmus 155 Medienhistorikerin Lisa Gitelman (2004) uns vor »Entmaterialisierung« in Theorien medialer Effekte: Nur wenn wir Medien in einem Vakuum denken, als wären sie nie in Kontakt mit praktischer Nutzung, können wir uns diese Klänge als wirklich »virtuell« vorstellen, als wäre Erfahrung so flexibel und austauschbar wie Text auf einer leeren Seite. Eine derartige Verdinglichung von Symbolen-als-Text verhindert jedoch zu verstehen, warum ein bestimmter Akt der Mediation verführerischer sein kann als ein anderer. Audio-Techno- logie ist immer da besonders überzeugend, wo statische Signale durch multi- stabile Systeme, die zusätzlich zu den Signalen noch einen Kontext liefern, ersetzt werden (Langsdorf 2006). In der Praxis sind Kontexte Situationen, die sich aus einer Mischung aus materiellen und immateriellen Interaktionen zu- sammensetzen. Wie wir eine Situation verstehen – wenn wir sie überhaupt erkennen – hängt von unserer Wahrnehmung dieser Interaktionen ab. Laut Martina Löw muss »aus der Fülle des Wahrnehmbaren eine Auswahl getroffen werden, weshalb diese Wahrnehmung nicht direkter Natur ist. Sie vermittelt lediglich den Eindruck von Direktheit, ist aber ein hochgradig selektiver und konstruktiver Prozess« (Löw 2008: 41). Was wir für die Transparenz der neuen Medien halten, ist vielmehr ein Produkt der sinnlichen »Atmosphären« (Löw 2008) oder »Hüllen« (Rawes 2008: 74), die durch den Kontakt zwischen en- kulturierten Hörern und auditiven Situationen hergestellt werden. Als materielle Kultur ist Klang kein passives Medium, das die Verbindung zwischen zwei Subjekten herstellt und unterbricht, z.B. in einem Dialog. Klang ist eher ein aktives Ereignis in einer »hyper-relationalen Welt«, die die auditiven Bezüge und Nicht-Bezüge jener Subjekte konstituiert (Revill 2015). Wenn wir beispielsweise die schlecht isolierten Ohrknöpfchen benutzen, die wir in der Regel mit unseren digitalen Geräten mitgeliefert bekommen, sind es die anderen, die den Exzess an Klangenergie hören, der aus unseren Ge- hörgängen in die gemeinsame Klang-Umwelt durchsickert. Zur Illustration dieses Beziehungsaspekts von Klang verfolgt Heike Weber (2010: 346) die öf- fentliche Geschichte des Hörens mit Kopfhörern von der stationären Nutzung zur mobilen, zeichnet den Diskurs des »respektvollen Hörens« nach, der das einohrige Hören mit einem Kopfhörerknopf umgab; respektvoll, weil es sich nur auf das Ohr des Individuums bezog, aber auch, weil es das andere Ohr der nicht-mediatisierten Welt überließ. Tragbare Stereo-Kopfhörer »privatisierten« diese Erfahrung dann, indem sie sie in den intimen Raum des Ohres (Weber spricht von »Kokon«) verbrachten, während der geheime sinnliche Zugang, dessen sich der Kopfhörernutzer erfreute, demonstrativ öffentlich sichtbar war (Hosokawa 2012). Wie diese Studien zeigen, lässt uns Klang auf verschiedene Weisen Teil einer sozialen Situation sein, von denen uns nicht alle bewusst werden. Je mehr Zeit wir im Zustand der Audio-Nutzung verbringen, desto weniger stehen wir diesen anderen Situationen zur Verfügung, auch nicht den 156 Joseph Klet t anderen Zuhörern, die diese Situationen in akustischen Bezügen zu uns mit- konstruieren. Wenn wir die materiellen und symbolischen Dimensionen vermittelten Hörens wirklich erfassen wollen, sollten wir uns das Zuhören nicht als binäre (ein/aus) Praxis vorstellen, sondern eher als eine kontinuierliche Beziehung zu Klang im Raum. Zu diesem Zweck argumentierte Tia DeNora (2000), dass Audio ein »Grundgerüst« (scaffolding) bereitstellt, in das das Selbst eingeklinkt werden kann und wodurch es gestützt wird, auf dem ein Handelnder aktiv an Rhythmen angekoppelt und affektiv von Klängen umgestimmt werden kann; Befragte berichten über die Nutzung von Audio im Alltag als pragmatische Technik und als Quelle der Selbsterkenntnis. Gordon Waitt, Ella Ryan und Carol Farbotko (2014) nennen dies die »Bauch-Politik« des Klangs: Die prak- tische Erfahrung eines Diskurses durch Klang (in ihrem Beispiel auf einem Demonstrationszug gegen den Klimawandel) liefert eine Resonanz zwischen Bedeutung und Schall. Und obwohl die meisten Hörerfahrungen sich auf Musikstücke beziehen, die Hörer aktiv auswählen, fand Mack Hagood (2011) heraus, dass die Hörer sich dabei gleichzeitig auch dafür entscheiden, die Um- gebungsgeräusche außerhalb ihrer Audio-Geräte zu unterdrücken. Im Fall von Geräuschunterdrückungstechnologien gehört zu den Umgebungsgeräuschen eben auch der invertierte ›noise‹ dazu, der als verworfenes Störsignal entsteht, um das herum Hörer sich weiter in ihre persönlichen Klanglandschaften zu- rückziehen. Diese eher pragmatisch orientierten Untersuchungen zeigen, dass Wahrnehmung in zwei Richtungen funktioniert: Die Fokussierung der auditiven Aufmerksamkeit hat notwendigerweise das Ausblenden anderer wahrnehmbarer Informationen in der Umgebung zur Folge. Das gesellschaftliche Leben ist eine Bibliothek von Darbietungen, nach Genres organisiert, und Wahrnehmung ist von entscheidender Bedeutung, wenn es darum geht, diese Genres zu erkennen. In diesem Sinn betreffen Hörbeziehungen unmittelbar, was Ari Adut (2012) einen »allgemeinen Sin- neszugang« zu einem gemeinsamen Satz an Erfahrungen genannt hat. Unse- re phänomenale Erfahrung qualitativer Information hängt davon ab, dass Wahrnehmung innig mit Erkenntnis verknüpft, nicht ihr untergeordnet ist (McDonnell 2010; Martin 2011; Klett 2014). Dies bedeutet, dass ich in direk- ten und unmediatisierten Begegnungen vielleicht neue Wahrnehmungsge- wohnheiten entwickle, die sich mit meinen Denkgewohnheiten in Einklang bringen wollen. Je mehr eine Gewohnheit zur Routine wird, desto eher wird sie meine Wahrnehmung diktieren. Aber wenn ich einer persönlichen Audio- Technologie lausche, werde ich perzeptuell individuiert, nicht sozial. Wenn wir Kopfhörer mit aktiver Geräuschunterdrückung benutzen, leuchtet für andere sozusagen eine rote Lampe auf, die signalisiert, dass wir trotz physischer An- wesenheit für andere nicht zugänglich sind. Und doch bin ich anderen gegen- über immer noch für meine Anwesenheit und mein Verhalten verantwortlich 6. ›Ver-rück t‹ durch einen Algorithmus 157 – mein Husten, mein Rascheln, mein Kichern. In dem Sinne, dass ich meine Aufmerksamkeit (aber nicht mich) der unmittelbaren Situation zu entziehen vermag, setzen Vermittlungsprozesse meine Prioritäten als Handelnder nicht außer Kraft, sie formen sie lediglich um. Fragt sich nur: Woher stammen diese Prioritäten? Wenn uns Klangforscher sagen, dass die Mediation, die Vermitt- lung von Hörbeziehungen, ein Produkt kultureller Codes in ihrer Anwendung als Algorithmen sind, wer schreibt dann diese Codes? im forschungs- und ent WicKlungsl abor Von mantle (mantle r&d) Mantle ist ein internationaler Audio-Hersteller mit Büros in verschiedenen Ländern auf der ganzen Welt. Mantle R&D ist das Labor der Firma im Silicon Valley. Das Labor besteht aus einem Direktor, acht angestellten Technikern und einer Handvoll Praktikanten, die jeweils nur für eine Saison dabei sind. Spezialisiert sind sie unter anderem auf Elektro- und Computertechnik, Sound Design und natürlich auf das Schreiben und Kodieren von Algorithmen. Der größte Teil der technischen Arbeit im Labor vollzieht sich in einer Mi- schung aus digitalem und elektro-akustischem Experimentieren. Zwar mag ein Begriff wie »Forschungs- und Entwicklungslabor« ein Bild von weißen Kit- teln und Apothekerschränkchen heraufbeschwören; man sollte sich aber eher das Großraumbüro eines Software-Entwicklers oder technischen Startup-Un- ternehmens vorstellen: lange Tische, graue Polstermöbel, normale Bürotüren und -fenster, Poster an den Wänden und diverse Spielzeuge überall verstreut. Das Ganze auf etwa einer Größe von knapp 112 m2. Mantle R&D wurde eigens zu dem Zweck gegründet, digitale Signalprozes- soren (DSP) für verschiedene Formate der Lautsprechertechnik zu entwickeln. Mit DSP kann man elektronische Klänge auf vielen verschiedenen Ebenen be- arbeiten und dabei die gesamte Substanz des Klanges erzeugen. Zwar besteht die eigentliche Aufgabe von Mantle R&D in der Entwicklung praktischer An- wendungen für DSP-Technik, aber weiter gehen die Anweisungen ›von oben‹ auch nicht. Dass das Büro mitten im Silicon Valley angesiedelt ist, deutet da- rauf hin, dass man sich seitens des Unternehmens einiges an ›Immersion‹ davon verspricht, eine Handvoll Forschungsingenieure in eine Brutstätte für digitale Technologie zu setzen. Während meines Aufenthalts im Labor von Mai bis August 2011 begannen die Ingenieure mit experimenteller Forschung zur Nutzung von DSP für Immersive Audio. 158 Joseph Klet t baffling, in drei schrit ten Um zu verstehen, was die Algorithmen von Immersive Audio eigentlich tun, studiere ich die technische Bearbeitung, die der abschließenden Kodierung des Prozessors vorausgeht. Zu dieser Arbeit gehört eine Reihe von rekursiven Projekten, die ich über mehrere Monate hindurch durchführte. Geleitet wird das Projekt vom Cheftechniker Adam und seinem Assistenten Stefan, der in seinen Ferien von der Ingenieurschule hier als Praktikant arbeitet. Während Adam und Stefan damit beschäftigt sind, einen Versuchsaufbau zu konstruieren, Daten zu sammeln, wissenschaftliche Texte heranzuziehen und Codes zu schreiben, navigieren sie sich zu ihrem Ziel Immersive Audio auf einem Floß voller Detailfragen durch, die ihrer Zielerreichung ständig prak- tischen Widerstand leisten. Regelmäßig stehen sie vor Entscheidungen, für die technisches Know-How nur begrenzt hilfreich ist; die symbolischen Codes werden eher im Fortgang des Experiments zugeteilt und ausgewertet – und dabei haben diese Entscheidungen direkte Auswirkungen auf die Funktions- weise der Technologie. Ingenieure digitaler Audio-Produkte gestalten die ästhetischen Eigenschaf- ten eines Klangs: Klangfarbe, Klangtemperatur und -textur. Außerdem kodi- fizieren sie bestimmte algorithmische Prozesse, die die Hörbezüge zwischen Hörern, Situationen und akustischen Umgebungen gestalten. Diese Bezüge geben eine Reihe lokaler Bedeutungen wieder, die nach Ansicht der Ingenieu- re am besten durch eine Reihe von symbolischen Transformationen des Hör- erlebnisses repräsentiert werden. Schauen wir uns diese drei Vermittlungen (Mediationen) einmal an: • Personalisierung definiert den Hörer durch eine Reihe von Audio-Charak- teristika. So kann Audio auf eine große Bandbreite von Hörer-Körpern zu- geschnitten werden. Während der Körper zu einem Teil des Audio-Systems wird, wird ihm jedoch gleichzeitig eine unabhängige Verbindung zu den Reproduktionsmitteln, d.h. zu den Lautsprechern in seinen Kopfhörern, zugewiesen. • Desorientierung betrifft eine Bewegungsfreiheit der Körperausrichtung innerhalb des Signals des Audiogeräts. Eine willkürliche Beziehung zwi- schen Hörer und Lautsprecher schafft den Fokuspunkt konventioneller Audio-Felder ab und gewährt dem Hörer einen größeren Grad an Freiheit innerhalb des Feldes. • Verlagerung (Translozierung) transformiert Klang nach vorgefertigten Cha- rakteristika verschiedener akustischer Profile. Wenn der Hörende verlagert wird, brauchen die akustischen Bedingungen des eingenommenen Rau- mes nicht mehr zu gelten, es sei denn sie überlagerten sich mit dem Signal von Immersive Audio. 6. ›Ver-rück t‹ durch einen Algorithmus 159 Diese drei nebeneinander bestehenden Mediationen erschaffen das gewünsch- te Erlebnis der Immersion, also das Eintauchen oder die Versenkung in einen Klangraum. Im Dialog mit den aufstrebenden Techniken der erweiterten Rea- lität (AR) und der Virtuellen Realität (VR) strebt Immersion danach, die akus- tischen Grenzen der phänomenalen Hörsituation zu transzendieren. Dieser akustische Effekt ist jedoch von einer untergeordneten sozialen Funktion ab- hängig, die Ingenieure nicht unbedingt vorhersehen. Ich nenne diesen Pro- zess »baffling«. Baffling ermöglicht dem Hörer eine dynamische Beziehung zum vermittelten Klang, indem Wahrnehmung von den sozialen Situationen des unmittelbaren Hörens abgekoppelt wird. Personalisierung Forschungen zur Wahrnehmung deuten darauf hin, dass körperliche Unter- schiede von Hörern die Klangwahrnehmung beeinflussen. Schließlich ist Hören ein Prozess, der zwischen Veränderungen in hörbarer Energie (Evens 2005) und der Sinnesenergie von Körpern an bestimmten Orten unterscheidet. Für den Tontechniker gehören zu diesen Variablen: Größe und Form der Oh- ren, Position der Ohren am Kopf und Schnitt der Schultern. Diese messbaren Unterschiede zwischen Hörern werden häufig als »individuelle Voraussetzun- gen« für das Hören bezeichnet. Die Ingenieure von Mantle R&D versuchen, diese individuellen Voraussetzungen durch Algorithmen zu modellieren. Dar- um geht es beim Prozess der Personalisierung. Im R&D Labor erwuchs das Interesse an Personalisierung aus einem Tref- fen mit einem Professor, der die psychoakustischen Effekte individueller Vo- raussetzungen studiert. Auch wenn die technische Anwendung eine Neuheit ist, beruht die wissenschaftliche Arbeit des Professors auf einer ziemlichen alten Wahrnehmungstheorie, die unter dem Namen Head-Related Transfer Function (HRTF, »Kopfbezogene Übertragungsfunktion« oder »Außenohrü- bertragungsfunktion«) bekannt ist. Kurz zusammengefasst handelt es sich bei HRTF um eine algebraische Repräsentation dessen, wie ein Klang erst vom einen, dann vom anderen Ohr gehört wird und wie das Gehirn dadurch die Klangquelle triangulieren kann. Durch Modellierung der HRTFs aus einer Stichprobe verschiedener Individuen glauben die Ingenieure von Mantle R&D den Code für eine Vorlage (Template) schreiben zu können, die für den einzel- nen Benutzer nur noch modifiziert werden muss. Für die Erhebung der HRTF- Daten kommt eine Versuchs-Apparatur namens AURA zum Einsatz. AURA besteht aus zwölf Lautsprechern, die an einem Gerüst aus zwei waagrechten Rin- gen befestigt sind. Sechs Lautsprecher stehen auf Ständern in etwa 120 cm Höhe und sechs hängen in etwa 300 cm Höhe von der Decke. Alle Lautsprecher sind auf einen Stuhl in der Mitte ausgerichtet. Auf dem Stuhl sitzt ein Hörer mit Mikrophonen in den 160 Joseph Klet t Ohren, die den Klang aufnehmen sollen, sobald dieser kurz hinter dem Außenohr den Gehörgang erreicht. Für die Messung spielen die Lautsprecher nur einen Ton, um einen gleichmäßigen Klangeindruck zu erzielen. Die Aufnahmen werden an Stefans Computer übermittelt und dort als visuelles Schaubild wiedergegeben. Mithilfe der so dargestell- ten Kurven soll eine audiologische Landkarte davon erstellt werden, wie der Klang den Hörer erreicht. Die meisten Tontechniker wären sich wohl einig darin, dass Hörer leibliche Individuen mit einzigartigen Wahrnehmungsapparaten sind. Aber nicht alle stimmen zu, dass jeder Hörer gleich behandelt werden sollte. Vor der Entste- hung von Immersive Audio gab es für Ingenieure keinen Anlass, individuelle Voraussetzungen jenseits ihrer eigenen zu berücksichtigen. Stereo – der vor- herrschende Standard in der Audio-Technologie – entsteht aus zwei komple- mentären Soundkanälen, die in ihrer Gesamtheit nach objektiven Qualitätskri- terien beurteilt werden, zum Beispiel aufgrund des Signal-Rausch-Abstands. Das Fehlen von Rauschen, um mal nur eine Variable zu nennen, zeichnet ein System im Vergleich zu anderen als objektiv besser aus. In Bezug auf diese Geräte von objektiver Qualität, so argumentierten professionelle und selbst- ernannte Audiophile, könnten sich aber auch Hörer qualitativ unterschieden, nämlich darin, wie sie ihrerseits den Klang aus diesen Geräten hörten. Im Unterschied dazu behandeln Stefan und die anderen Tontechniker bei Mantle R&D individuelle Voraussetzungen als wesentlich für das Hörerlebnis und da- her als unabdingbar für ein erstrebenswertes digitales Produkt. Nachdem AURA im Labor montier t wurde, macht Stefan erste Probeaufnahmen, um zu schauen, wie die Daten aussehen. Dadurch dass das Gerüst für AURA offen ist, werden unweigerlich auch Geräusche von außerhalb zusammen mit den kontrollier t abgegebe- nen Tönen aufgezeichnet. Das Labor ist ein Großraumbüro, in dem andere Ingenieure ihre eigenen Forschungen betreiben, was nichtsdestotrotz zur Klanglandschaft des La- bors beiträgt. Am Computer müht sich Stefan damit ab, in den Aufzeichnungen die absichtlichen Klän- ge von AURA von den Störgeräuschen zu unterscheiden. Ohne festen Referenzpunkt kann er nicht klar abgrenzen, was der Hörer als Störgeräusch wahrnimmt und was Um- gebungsgeräusch ist. Sich eine neue Epistemologie des Hörens zu eigen zu machen, birgt Herausfor- derungen – vor allem, wenn man das Hören als essentiell subjektiv betrachtet. Im Prozess der Personalisierung gibt es keine vorher festgelegte oder ideale Wiedergabe, weil am Ende der Klang immer das subjektive Erlebnis des Be- nutzers ist. Wenn man irgendein Klang-Artefakt als »unerwünscht« einord- net, über-reduziert man willkürlich Teile des Signals. Stattdessen enthält nach diesem Ansatz das Signal sein eigenes »gutes Rauschen« als hörbaren lokalen 6. ›Ver-rück t‹ durch einen Algorithmus 161 Kontext des Hörers (Klett 2014). Immersive Audio stellt gleichzeitig Figur und Grund zu Verfügung, da beides zum räumlichen Hören dazu gehört – wenn- gleich diese grundsätzlich subjektive Hörerfahrung den Technikern ungefäh- re Entscheidungen abverlangt, wo näherungsweise die Erfahrung einer ande- ren Person anfängt und wo sie endet. Desorientierung Audiotechnologie funktioniert mittels der Übertragung von Elektrizität in hörbare Schwingungen eines Zwerchfells oder einer Lautsprechermembrane. Deshalb hat man sich bisher den Lautsprecher, also die Stelle, wo sich System und Nutzer berühren, meist als statisches Gestell vorgestellt, in dem Audio- Sound faktisch mündet. Ingenieure der Stereo-Ära kodifizierten den Lautspre- cher als objektiven Ausdruck von Audio und den Hörer als das Subjekt, das diesen objektiven Ausdruck aufsucht. Aber die Orientierung eines subjektiven Hörers an einer objektiven Klangquelle verhindert ein wirkliches Eintauchen in den Klang, eine wirklich immersive Hörerfahrung, in der Sound im Ohr des Hörers mündet. Daher kodieren die Techniker von Mantle R&D den Lautspre- cher um, machen ihn eher zur Vermittlungsinstanz als zu einem objektiven Orientierungspunkt. Darum geht es beim Prozess der Desorientierung. Die Kunsthistorikerin Caroline Jones (2005) bezeichnete »Hi-Fi« Stereo- Anlagen als Gipfel des Sounds der Moderne: Stereo ist statisch, zweidimensio- nal und idealerweise direkt vor dem Hörer – wo sich in der Sprache der Stereo- verkäufer der »sweet-spot« befindet. Stereo ist ein »kanal-basiertes« Format in dem Sinne, dass Stereo-Signale in einem einzelnen Kreislauf, der im Laut- sprecher endet, eingefangen, gespeichert und wiedergegeben werden. Man geht von einer stabilen, direkten und unveränderten Wiedergabe von Sound- Daten aus. Von der Aufnahme bis zur Wiedergabe geht der rechte Kanal in den rechten Kanal und der linke Kanal in den linken Kanal. Dass im Diskurs von Stereo der Sound fest mit einem Paar Lautsprecher verdrahtet ist, bedeutet, dass Audio in erster Linie nach modernen Wertmaßstäben der Objektivität be- urteilt wird, von einem stabilen und unbeweglichen Standpunkt aus, der im- mer außerhalb des zu beurteilenden Systems liegt. Weil das System beurteilt wird, als befände es sich in einem Vakuum, ist die kanalbasierte Beziehung letztlich eine Beziehung des Aufeinanderfolgens, nicht des Raumes. Um es in den Worten eines Ingenieurs von R&D auszudrücken: Es war schwer, die Weisheit des modernen Stereoformats infrage zu stellen, weil die biologische Assoziation von Stereo mit zwei-ohrigem Hören die Idee, dass zwei Kanäle die optimale Wiedergabeweise seien, quasi als naturgegeben vermittelt hat. In der Psychoakustik beschreibt HRTF jedoch eine Beziehung zwischen Tönen in Zeit und im Raum. Zum Beispiel können wir in kakophonen Situa- tionen den Klang einer Stimme ›unter‹ oder ›zwischen‹ vielen anderen heraus- 162 Joseph Klet t hören – der sogenannte »Cocktail-Party Effekt«. Dieser kognitive Prozess legt nahe, dass räumliche Beziehungen mehr sind als nur eine Aufeinanderfolge. Zusätzlich zu den von AURA kontrollier t ausgestoßenen Klängen werden in der offenen Struktur des AURA Gerüsts noch andere Geräusche aus dem Laborraum aufgenommen. Adam markier t auf der Kurve der Daten die Schwelle, ab der Umgebungsgeräusche die Töne zu überlagern beginnen, und empfiehlt Stefan, die Daten aggressiv zu ›kappen‹, auch wenn dabei Mikrosekunden der aufgenommenen Daten wegrasier t werden. Durch diese Trunkierung könnte man präziser wiedergeben, wie der Raum innerhalb der AURA- Anordnung aufgenommen wird. Doch geht die Präzision hier auf Kosten der Sorgfalt. Die digitale Manipulation der Klangdaten weicht vom menschlichen Wahrnehmungshandeln vor Ort ab, das sie doch gerade nachbilden möchte. Adam schreibt ein Programm, das die aufgenommenen Klangdaten in eine algebraische Beschreibung überführen soll, die durch einen Algorithmus replizier t werden kann. Da er ein Verhältnis zwischen Subjekt und Umgebung beschreibt, braucht er mindestens eine bekannte Variable. Adam weist Stefan an, er solle nur die Töne bekannter Frequenzen aufnehmen. Diese Frequenzen werden als Visualisierungen der aufgezeichneten Daten kartographier t – in der Erwartung, dass sich die Form, die diese Frequenzen annehmen, extrahieren lässt und nur noch die Hörbeziehung zwischen Hörer und Umgebung, die sie ja darstellen wollen, übrig bleiben. Wenn sie erst diese Beziehung beschreiben kön- nen, könnten sie auch die Hörer-Wahrnehmung auf jegliche Orientierung im Raum hin manipulieren. Die Daten, die man mit AURA sammeln kann, liefern keine stabilen Modelle, sondern dynamische räumliche Beziehungen, die zur Reproduktion immer Verarbeitung voraussetzen. In diesem Sinn behandelt AURA den Hörer als Informationsverarbeitungs-Instanz und Klanginformationen (in räumlichen Begriffen konzipiert) als ›Reflexionen‹: Während sich Signale von der Quelle zum Wahrnehmenden bewegen, bewegt sich überschüssige Klangenergie wei- ter, wird von Oberflächen zurückgeworfen und zum Hörer zurückgesendet. Dies gibt dem Klang ein Gefühl von Richtung und Abfolge – Dimensionen eines Signals, die man so manipulieren kann, dass sie unser Gefühl davon, wo sich ein Klang in Bezug auf einen anderen befindet, umorientieren. Um das ›gute Rauschen‹ im Audio-Material der Umgebung einzufangen, konzipieren die Techniker AURA so, dass auch Daten über den Hörer in Bezug auf ›den Raum‹ als akustischen Raum gesammelt werden. Durch Rekonstruk- tion der Art und Weise, wie wir räumliche Orientierung wahrnehmen, konst- ruieren Ingenieure einen neuen Maßstab für Klangtreue (fidelity). Klangtreue oder Wiedergabegüte bezog sich früher auf die Wirklichkeitsnähe einer Auf- nahme oder Geräteleistung. Wirklichkeitsnähe setzt einen stabilen, objektiven Standpunkt voraus, von dem aus Leistungen beurteilt werden können. Immer- sive Audio verlagert den Fokus von der Interpretation auf die räumliche Orien- 6. ›Ver-rück t‹ durch einen Algorithmus 163 tierung und bezieht sich so auf die Wiedergabe eines Klangraums in all seinen akustischen Charakteristika. Sound ist in erster Linie eine Sache von Zeit und Raum und hat keinen einzelnen Ausgangspunkt. Nun fragen nicht mehr nur Kognitionswissenschaftler, sondern auch Computer-Programmierer: »Kann man die Gestalt eines Raums hören?« (Dokmaniƈ u.a. 2011) Stefan verbringt mehrere Achtstundentage mit der Ausrichtung und Kalibrierung der AURA-Lautsprecher. Weil er noch keine Daten sammelt und es ein mühseliger Prozess ist, kommt eine Kopf- und Oberkörper-Attrappe aus Gummi zum Einsatz, der man Mikro- phone ins Ohr gesetzt hat. Dies erlaubt ihm sorgfältigere und präzisere Messungen (weil Attrappen nicht viel herumhampeln). Stefan nimmt einen kontrollier ten Test-Ton auf – ein schrilles »Biiiiiiiijuuuuu!« – und spielt ihn durch die auf die Attrappe gerichteten Lautsprecher ab. Diese Aufnahmen wiederholt er den ganzen Tag hindurch, auch zu Zeiten, wenn im Labor weniger los ist und die Geräuschkulisse dadurch gleichförmiger. Diese sich ständig wiederholenden Klänge – von den Ingenieuren ›gutes Rauschen‹ genannt – zeichnen sich in den Daten leichter ab und helfen dadurch, das akustische Territorium zu markieren. Da man inzwischen Zugang zu billigeren und schnelleren Mikroprozessoren für DSP, zu Gyroskopen und zu Globalen Positionsbestimmungssystemen (GPS) hat, beginnen Toningenieure, die nicht aus der Stereo-Tradition kom- men, damit, mithilfe von Algorithmen die Grenzen nicht beim Lautsprecher anzusetzen, sondern beim Zuhörer direkt außerhalb des Lautsprechers. Wenn man die Beziehung zwischen den aufgenommenen Tönen und dem Zuhörer kontinuierlich und in Echtzeit kalibrieren könnte, würde das System eine ›un- abhängige Verbindung‹ zwischen den Tönen und den Quellen (d.h. den Laut- sprechern), aus denen sie vibrieren, herstellen. In diesem Bezugsfeld könnte sich ein Subjekt frei in einer 360-Grad-Ausrichtung auf den Klang in der Ho- rizontalen bewegen. So wie die Einbeziehung des Hörerkörpers den Eindruck, in die eigene Klangwelt eingetaucht zu sein, steigert, bedeutet die mediatisier- te Emanzipation des Hörers von den statischen Bedingungen einer lokalen Si- tuation, dass das Ohr sich nicht mehr an einer verdinglichten Klangquelle im Lautsprecher orientieren muss. Unter solchen Bedingungen der Möglichkeit täuscht ein Algorithmus vielleicht sogar das Gefühl vor, in einer ganz anderen Klangumgebung zu sein – ein Ideal von Virtualität, das sich bisher der Audio- technik entzogen hatte. Verlagerung (Translozierung) Unter dem Einfluss von Psycholinguistik und dem Niedergang der Moderne als Design-Ideologie erforschen Tontechniker jetzt einen Modus der Klang- reproduktion, der grundlegend nutzerzentriert ist. Die Art und Weise, wie 164 Joseph Klet t Ohren hören, ist dreidimensional, sehr ähnlich dem, wie Augen sehen: Wir nehmen Klänge von rechts und links kommend wahr, von oben und unten, von fern und von nah. Zu diesem Zweck nähern sich Algorithmen diesen Dimen- sionen an, um ein Gefühl von Hall ›innerhalb‹ der Räume, in denen Klang- energie tatsächlich vom Ohr wahrgenommen wird, zu erzeugen. Bei Mantle R&D stellt man sich dieses Verpflanzen von akustischen Charakteristika von einem Raum auf einen anderen so vor, dass die Nutzer von Immersive Audio tatsächlich so hören können, als befänden sie sich in einer komplett anderen Hörumgebung. Darum geht es beim Prozess der Verlagerung (Translozierung). Um diese Empfindung des Hörens in einer anderen physischen Umge- bung zu bewerkstelligen, müsste der Algorithmus ein Signal anhand eines Modells akustischer Resonanzen auf einen tatsächlichen Raum – von Inge- nieuren auch ›der Raum‹ genannt, selbst wenn er nicht umschlossen ist – ar- rangieren, gebildet aus Referenzaufnahmen eines kontrollierten Tons in einer bestimmten Umgebung. Sterne erklärt dies so: »Wir können uns Klangwellen so vorstellen, als schwärmten sie aus und er forschten den Raum, bis sie die Außenwände erreichen und dann zum Mittelpunkt des Raumes zurück- kehren. Dabei zeichnen sie das Territorium sozusagen nach. Diese Resonanzen werden dann auf das trockene Signal aufgepfropft, so als befände sich dieses Signal in diesem Raum.« (Sterne 2015: 125) Im Reich der Tontechnik erfolgt dieses »Nachzeichnen des Territoriums« an- hand verräterischer Klang-Reflexionen. Reflexionen, zurückgeworfene Wellen, fangen die komplexen Beziehungen zwischen Klängen, Umgebungen und Nutzer ein. Theoretisch sind Reflexionen Nebenprodukte von Signalen. Aber Ingenieure wissen, dass beim Hören von Signalen – ganz gleich ob live oder technisch vermittelt – Reflexionen höchstwahrscheinlich gar nicht zu vermei- den sind und auch nicht vermieden werden müssen. Ingenieure, die von sich behaupten, dass sie sich in Akustik auskennen, sagen, die Physik der Reflexion sei zwar reichlich mysteriös, aber nicht prinzipiell unbegreiflich. Innerhalb von AURA ergießt sich das kontrollier te Signal um den Körper in der Mitte der Versuchsanordnung herum. Aber Klang bewegt sich schnell for t. Wie die Energie auf den Körper im Inneren auftrif f t, prallt sie auch jenseits der offenen Lautsprecheraufhän- gung auf die harten Oberflächen des Raumes. Dieser Klang kehrt in den Experimental- raum zurück und wird als Reflexion des Original-Signals mit aufgenommen. Visuelle Repräsentationen des innerhalb von AURA aufgenommenen Klangs können so auseinandergezogen werden, dass man den Punkt erkennen kann, an dem das Signal ankommt, noch bevor irgendwelche Reflexionen ankommen. Aber wenn Stefan seine Messungen vornimmt, zeigen die Bilder, die er zurate zieht, dass die Daten gespickt mit Anomalien sind. Er bittet Dave um Hilfe, der mit Tontechnik mehr Er fahrung hat. 6. ›Ver-rück t‹ durch einen Algorithmus 165 Dave schlägt vor, eine Reihe von Referenzmessungen zu machen, um die Quelle oder die Quellen dieser vermutlich sehr frühen Reflexionen zu lokalisieren. Er holt mich zu Hilfe und weist auf verschiedene Stellen der Apparatur, von der diese zusätzlichen Daten ausgehen könnten. Er und ich halten an diese Stellen ein Stück gepolster te Verkleidung, während Stefan den Testton abspielt. Wir machen mehrere Aufnahmen an verschiede- nen Stellen, um diese physischen Stellen mit den Stellen auf den visuellen Aufzeich- nungen zu korrelieren. Wenn die Physik der Reflexion als Gleichung ausgedrückt werden kann, kann ein Algorithmus sie imitieren. Um Reflexionen für eine abbildende Dar- stellung nachzeichnen zu können, entwerfen die Ingenieure ein Modell des akustischen Raumes, der den Körper umgibt, als Gegenmodell zu dem ver- kürzten Raum zwischen Ohr und Kopfhörer. In Annäherung an eine akus- tische Umgebung werden die Experimentalbedingungen von AURA nicht am Nullsummen-Ideal von Stille gemessen, sondern durch eine visuelle Ab- bildung aufgezeichneter Reflexionen in graphischen Daten. Indem sie die im Laufe der Zeit kartographierte Verteilung von Klangwellen studieren und in den tatsächlichen akustischen Raum innerhalb der AURA-Anordnung rück- übersetzen, erahnen Dave und Stefan, welche Klänge wünschenswert und wel- che unerwünscht sind. Wenngleich letztlich unpräzise, hilft AURA dennoch, sich erstrebenswerten Reflexionen als Beziehungsinformationen anzunähern, während es letztere als außerhalb des virtuellen akustischen Territoriums be- findlich herausschneidet. Anders als Stereo, das Klang zwischen seinen Lautsprechern wie ein Por- trät ›rahmt‹, nutzt Immersive Audio Reflexionen, um durch das Arrangement von Klängen eine räumliche Beziehung zu konstruieren. Als fingen sie das Territorium in einem Globus ein, benutzen die Ingenieure digitale Parameter, um eine unbegrenzte Menge an Territorien, die auf ähnliche Weise kartogra- phiert wurden, zu überlagern, und erzeugen so den Eindruck, man lausche bestimmten Klangbeziehungen, die in einer völlig anderen Umgebung auf- gefunden wurden, ohne vorher definierte Orientierung und in einzigartiger Bewegungsfreiheit. Dieses System ist ein Zusammenfluss von Mediationen – Personalisierung, Desorientierung und Translozierung – von denen in der Abfolge des Hörens keine Vorrang hat. Stattdessen sind diese Prozesse in den Algorithmen von Immersive Audio grundsätzlich immer im Gange. algorithmen und hörbe Ziehungen Sozialstudien von Algorithmen neigen dazu, Code als Strukturregeln heraus- zustellen, die die Welt als Text montieren – Zahlen, Buchstaben, Symbole. Auf die Frage, wie diese Regeln im materiellen Sinn Beziehungen herstellen, 166 Joseph Klet t wird weniger Aufmerksamkeit verwendet. Aber Code gibt es nur verwirklicht in phänomenalen Medien, als Beziehungen zwischen den Objekten, die sie repräsentieren, und den Subjekten, die sie wahrnehmen (Coleman 2010). Stu- dien zur Auseinandersetzung mit digitalen Technologien zeigen, wie weit die technische Bedienung eines Apparates in kognitiver, sinnlicher und prakti- scher Beziehung eines Subjekts bedarf (Schüll 2012). In diesem Sinne verfügt Medientechnologie gar nicht über unbegrenztes interaktives Potenzial. Eher sind es Medien wie Immersive Audio, die eine bestimmte Beziehung während der Nutzung mit-produzieren. Für die Techniker von Mantle R&D sind Körper und Raum, die Klangre- flexionen produzieren, wichtig, denn mit ihnen werden Klänge in allererster Linie klanglich. Im Einvernehmen mit der objektorientierten Programmie- rung virtueller und erweiterter Wirklichkeiten entwickelt sich im Umkreis re- lationaler Modelle der Wahrnehmung eine Kultur der Tontechnik – inspiriert von der Psychoakustik, der Kognitionswissenschaft und der Audiologie. Diese Kultur ist in erster Linie algorithmisch, denn nur mithilfe geschickten Hoch- leistungsrechnens kann unsere Wahrnehmung so effektiv mediatisiert wer- den. Wenn Klänge physische Entitäten mit definierten Grenzen sind, können Techniker Wahrnehmung besser auf einen Algorithmus modellieren, der uns die Arbeit des Hörens reflexiv abnimmt.3 Nach der Kalibrierung von AURA sammelt Stefan jetzt erste Hörerdaten, wobei er den Dummy-Torso als sein Subjekt nimmt. Eifrig schaltet er zwischen dem Computer-Bild- schirm auf seinem Schreibtisch und dem Dummy-Subjekt im Zentrum des Experiment- aufbaus hin und her. Mike, der gerade kommt, um Leute zum Lunch abzuholen, macht sich an den Dummy he- ran und fragt: »Na, wie geht’s dem Jungen?« Noch beim Tippen hebt Stefan den Kopf und blickt auf den Oberkörper, der sich leicht schief auf einem Schreibtischstuhl lümmelt. »Ein bisschen instabil, aber okay, solange ihn keiner anfasst.« 3 | Man sollte beachten, dass die Bedeutung von »subjektiv« in diesem Zusammen- hang sehr spezifisch definier t ist. Die Körper und Räume, die mithilfe von Immersive Au- dio modellier t werden, sind statisch, passiv. Die individuelle Voraussetzung eines Sub- jekts bestehen im Wesentlichen darin, über einen Oberkörper mit Schultern erkennbarer Breite und über einen Kopf mit fleischigen Ohren zu ver fügen. Andere Wahrnehmungs- unterschiede werden zu anderer Zeit wiedergegeben oder als für die Wahrnehmung von Audio unnötig verworfen. In Anlehnung an Sternes (2003) Geschichte der Anfänge von Audio kann man sagen, dass die Klang-Erfahrungen in sogenanntem Immersive Audio of t bis zur Indexikalität überreduzier t sind. In diesen Technologien »schwingen unsere Ohren in sympathischer Resonanz mit Maschinen, die für uns hören«. 6. ›Ver-rück t‹ durch einen Algorithmus 167 Studierende der Sound Studies ermuntern Theoretiker dazu, Audio nicht als eine alternative Wirklichkeit, sondern als eine alltägliche kulturelle Praxis zu verstehen. Es gibt wenig Tabus, was die Benutzung von Audio in gesellschaft- lichen Räumen betrifft. Selbst Gruppenaktivitäten mit Familie und Freunden schließen die Benutzung von Kopfhörern nicht aus. So steht es in der heutigen algorithmischen Kultur um die Hörbeziehungen. Wie Brandon LaBelle (2006) argumentiert: Hörbeziehungen sind irreduzibel und unwandelbar – aber sie sind verpflanzbar. Das phänomenale Wesen des Klangs macht unser Gefühl aus, einen Raum in der Zeit innezuhaben. Indem wir diese Elemente manipu- lieren, können wir vielleicht auch die sozialen Beziehungen zwischen denen, die an bestimmte Technologien gewöhnt sind, und jenen, die andere Gewohn- heiten haben, umgestalten. Algorithmen sind wie alle Technologien Einschreibungen sozialer Bezie- hungen. Statt die Medien der Algorithmen aus der Ferne zu lesen, schaue ich mir an, wie sie bei der Arbeit der Tontechnik gelesen, geschrieben und um- geschrieben werden. Diese sehr sinnliche Praxis enthüllt, wie die mechanisti- schen Prozeduren von Immersive Audio in der kontingenten, aber wertbesetz- ten Arbeit einer kleinen Gruppe von Individuen ihren Anfang nehmen. Die Toningenieure benutzen Algorithmen nicht nur, um die dynamischen Effekte spezifischer akustischer Bedingungen zu repräsentieren, sondern auch, um den Beziehungseffekt dessen, was es heißt, als individueller Körper mit einzig- artigen Eigenschaften einen Raum einzunehmen, zu reproduzieren. Durch die Vermittlung von Personalisierung, Desorientierung und Translozierung lenkt Immersive Audio die Wahrnehmung von Hörern von realen Situationen weg. Statt einen generischen Hörraum für alle Hörer zu betreffen, verarbeitet Immersive Audio Subjektivität in unabhängiger Beziehung zu einem nicht-loka- len Raum. Das ›Objekt‹ von Immersive Audio ist dann wesenhaft subjektiv und doch stets der Perspektive der Toningenieure zugeneigt. Ohne etwas zu den sozioökonomischen Ungleichheiten, die den Zugang zu Audiotechnologie umgeben, zu sagen, argumentiere ich, dass ›Ver-Rückung‹ unser Verständnis von ›Wir-heit‹ in sozialen Situationen infrage stellt. Sinn- liche Erfahrung ist in dem Maße bedeutungsvoll, in dem sie teilbar ist (Adut 2012), und Audio fungiert als »kultureller Filter« (Blesser/Salter 2006), der bestimmte Erfahrungen blockiert, andere favorisiert. Die Algorithmen von Immersive Audio repräsentieren eher persönliche Unterschiede als eine geteilte Erfahrung gemeinsamer Phänomene. Wenn diese kulturellen Filter robuster werden, verliert die unmittelbare Erfahrung lokaler Interaktionen an Macht, die Situation zu definieren. Ver-rückte Hörer durchlaufen so eine doppelte Pri- vatisierung: eine objektive Isolierung, indem sie die Kopfhörer auf die Ohren pressen, und eine subjektive Isolierung, indem sie maßangefertigte Klänge interpretieren. 168 Joseph Klet t Durch die Mediationen von Immersive Audio wird die Fähigkeit des Sub- jekts, gemeinhin Klangeigenschaften zu definieren und zu unterscheiden – geschweige denn zu bewerten – durch Personalisierung rekonstruiert und wirkt stattdessen auf den Hörer als Objekt zurück, um die Hörsituation um- zudefinieren. Das soll nicht heißen, dass Leute durch die Empfindungen von Immersive Audio verwirrt oder irregeleitet werden. Eher ermutigt diese Techno- logie Menschen dazu, aus unmittelbaren Erfahrungen auszusteigen und sich auf höhere Ebenen individueller Unterschiede zu begeben. Dies schafft neue Herausforderungen für politische Anerkennung in komplexen und stratifizier- ten Gesellschaften, wo Menschen sich kognitiv aus den Situationen, in denen sie sich befinden, »ausklinken« (Beer 2007: 858). Angesichts der ungleichmäßigen Verteilung von Geräuschbelastung in Gesellschaften und der wachsenden Märkte für digitale Audio-Produkte, wird Stille rasch zu einem Luxusgut in städtischer Umgebung (Keizer 2010; Ha- good 2011; Stewart/Bronzaft 2011; Biguenet 2015). Aber in diesem Fall heißt ›Stille‹ nicht Ruhe ›da draußen‹, sondern bedeutet eher Kontrolle über das eigene Hören ›hier drin‹. Zum Beispiel ist das HERE Active Listening ein Ge- rät im Ohr, das in Verbindung mit einem Smartphone Schallverarbeitung in Echtzeit anbietet. Das Gerät verfügt über einen Equalizer und eine Reihe von Preset-Filtern, mit denen der Nutzer die eigene Erfahrung von Live-Musik »ku- ratieren« kann (www.hereplus.me). Als eine Art von Kontrolle durch Klassifi- zierung suggeriert »Kuration«, dass Individuen aus einer festgelegten Menge von Eigenschaften ihre Auswahl treffen. Das ist für die kulturwissenschaftli- che Forschung zu Algorithmen interessant, aber nicht wegen dem »Suchen Sie sich was aus«-Teil. Eher verspricht die fest umrissene Menge an Eigenschaften die größte theoretische Zugkraft. Gewahrwerden und Erkennen von, Verantwortlichkeit für Situationen – hier fordern Algorithmen unsere Vorstellungen von Technologie als Episte- mologie heraus. In der praktischen Anwendung von Immersive Audio sind wir mit einem Überschuss an Objekten auf Kosten immer weniger Subjekte kon- frontiert. Solch ein Zustand an Hörbeziehungen kann unsere darauffolgenden Zustände des In-der-Welt-Seins beeinflussen. Ohne nun über den affektiven Stand der Empathie bei Generationen von ›ver-rückten‹ Hörern spekulieren zu wollen, können wir die grundlegende Neuorganisation der Hörbeziehun- gen würdigen, die in den Verfahren von Immersive Audio auftritt. Selbst wenn wir keinen Mangel an Empathie innerhalb der Gesellschaft erfahren, bleibt da immer noch das eher praktische Problem des Verlusts an Fürsorge. Und Für- sorge oder Zuwendung ist ein Test, dem wir unsere Algorithmen unterziehen können. In ihrem Buch Reclaiming Conversation fordert Sherry Turkle (2015) eine neue Ebene zwischenmenschlicher Verantwortung bei der Herstellung von Technologien. Insbesondere empfiehlt sie, dass das interaktive Design digita- 6. ›Ver-rück t‹ durch einen Algorithmus 169 ler Technologie durch die bewusste Einbeziehung von Werten weitreichend umstrukturiert werden sollte. Dies würde zweifellos ernsthaften Widerstand gegen das Ver-Rücken, das aus den latenten Mediationen von Immersive Audio resultiert, bedeuten. Aber genau darin liegt die Herausforderung zu verste- hen, was Algorithmen ›tun‹: Wie können wir nicht nur die explizite technische Funktion, sondern auch die impliziten sozialen Funktionen, die in digitalem Code zum Ausdruck kommen, verstehen? Wie Jonathan Franzen (2015) in seiner Rezension von Turkles Buch schreibt: »Aber was wird aus der großen Masse an Menschen, die zu verunsichert oder zu einsam sind, um dem Lock- ruf der Technik zu widerstehen, die zu arm oder zu überarbeitet sind, um aus dem Teufelskreis auszubrechen?« Immersive Audio braucht kaum mehr soziale Solidarität als die Bereitschaft des Benutzers, die Schnittstelle zu kalibrieren und den Kopfhörer aufzusetzen. Es gibt vielfältige Hörbeziehungen, die im Diskurs der Ingenieure un- geklärt bleiben. An keinem Punkt ihrer Entscheidungsprozesse brachten die Techniker von Mantle R&D ein Interesse am ›Ver-Rücken‹ des Individuums zum Ausdruck. Eher streben sie eine besondere Erfahrung auditiver Transzen- denz an. Der Effekt, den Verblüffung oder Ver-Rückung auf Hörbeziehungen haben könnte, ist einfach keine Größe – wenngleich dadurch eine bestimm- te Beziehung zwischen Hörer und sozialer Situation reproduziert wird. Kann die Erforschung algorithmischer Kulturen soziale Konzepte identifizieren und operationalisieren, um neue Technologien zu entwickeln? Unbedingt. Aber insofern algorithmische Kulturen kontinuierliche, sich anpassende Prozesse sind, können wir nicht davon ausgehen, dass Technologien nicht auch wei- terhin verblüffen oder ver-rücken werden oder dass Nutzer sich nicht danach sehnen, verblüfft und ver-rückt zu werden. Übersetzt von Dagmar Buchwald. liter aturVer Zeichnis Adut, A. (2012): »A Theory of the Public Sphere«, Sociological Theory 30 (4), S. 238-262. Appadurai, A. (2015): »Mediants, Materiality, Normativity«, Public Culture 27 (76), S. 221-237. Barocas, S./Hood, S./Ziewitz, M. (2013): »Governing Algorithms: A Provoca- tion Piece«, Social Science Research Network, online: http://papers.ssrn. com/sol3/papers.cfm?abstract_id=2245322 (zuletzt aufgerufen am 12.12. 2015). Beer, D. (2007): »Tune Out: Music, Soundscapes and the Urban Mise-en- scene«, Information, Communication & Society 10 (6), S. 846-866. 170 Joseph Klet t Biguenet, J. (2015): Silence, New York: Bloomsbury. Bijsterveld, K. (2010): »Acoustic Cocooning: How the Car Became a Place to Unwind«, The Senses and Society 5 (2), S. 189-211. Blesser, B./Salter, L.R. (2006): Spaces Speak, Are You Listening? – Experiencing Aural Architecture, Cambridge, MA: MIT Press. Bull, M. (2012): »iPod Culture: The Toxic Pleasures of Audiotopia«, in: The Ox- ford Handbook of Sound Studies, hg. v. T. Pinch und J. Bijsterveld, New York: Oxford University Press, S. 526-543. Coleman, E.G. (2010): »Ethnographic Approaches to Digital Media«, Annual Review of Anthropology 39, S. 487-505. DeNora, T. (2000): Music in Everyday Life, Cambridge, UK: Cambridge Univer- sity Press. Dokmanić, I./Yue, M.L./Vetterli, M. (2011): »Can One Hear the Shape of a Room: The 2-D Polygonal Case«, Vortrag auf der Konferenz: IEEE Interna- tional Conference on Acoustics, Speech and Signal Processing (ICASSP), 2011. Evens, A. (2005): Sound Ideas: Music, Machines, and Experience, Minneapolis, MN: University of Minnesota Press. Franzen, J. (2015): »Sherry Turkle’s ›Reclaiming Conversation‹«, New York Times, 28.9., online: www.nytimes.com/2015/10/04/books/review/jona than-franzen-reviews-sherry-turkle-reclaiming-conversation.html (zuletzt aufgerufen am 1.11.2015). Gillespie, T. (2014): »The Relevance of Algorithms«, in: Media Technologies: Es- says on Communication, Materiality, and Society, hg.  v. Tarleton Gillespie, Pablo J. Boczkowski und Kirsten A. Foot, Cambridge, MA und London: MIT Press, S. 167-194. Gitelman, L. (2004): »Media, Materiality, and the Measure of the Digital; Or, The Case of Sheet Music and the Problem of Piano Rolls«, in: Memory Bytes: History, Technology, and Digital Culture, hg. v. Tarleton Gillespie, Pablo J. Boczkowski und Kirsten A. Foot, Cambridge, MA und London: MIT Press, S. 199-217. Hagood, M. (2011): »Quiet Comfort: Noise, Otherness, and the Mobile Produc- tion of Personal Space«, American Quarterly 63 (3), S. 573-589. Hosokawa, S. (2012): »The Walkman Effect«, in: The Sound Studies Reader, hg. v. Jonathan Sterne, Abingdon, UK und New York: Routledge, S. 104-116. Jones, C. (2005): Eyesight Alone: Clement Greenberg’s Modernism and the Bureau- cratization of the Senses, Chicago, IL: University of Chicago Press. Keizer, G. (2010): The Unwanted Sound of Everything We Want: A Book about Noise, New York: PublicAffairs. Klett, J. (2014): »Sound on Sound: Situating Interaction in Sonic Object Set- tings«, Sociological Theory 32 (2), S. 147-161, doi: 10.1177/0735275114536896. 6. ›Ver-rück t‹ durch einen Algorithmus 171 Klett, J. (im Erscheinen): »Organizing Sound: An Ethnographic Investigation into the Making of Listening Subjects and Sounding Objects«, unveröffen- tlichtes Manuskript. Labelle, B. (2006): Background Noise: Perspectives on Sound Art, New York: Con- tinuum. Langsdorf, L. (2006): »The Primacy of Listening: Towards a Metaphysics of Communicative Interaction«, in: Postphenomenology: A Critical Companion to Ihde, hg. v. E. Selinger, Albany, NY: SUNY Press, S. 37-47. Löw, M. (2008): »The Constitution of Space: The Structuration of Spaces through the Simultaneity of Effect and Perception«, European Journal of So- cial Theory 11 (1), S. 25-49. McDonnell, T.E. (2010): »Cultural Objects as Objects: Materiality, Urban Space, and the Interpretation of AIDS Campaigns in Accra, Ghana«, American Journal of Sociology 115 (6), S. 1800-1852. Martin, J.L. (2011): The Explanation of Social Action, Oxford: Oxford University Press. Rawes, P. (2008): »Sonic Envelopes«, The Senses and Society 3 (1), S. 61-78. Revill, G. (2015): »How Is Space Made in Sound? Spatial Mediation, Critical Phenomenology and the Political Agency of Sound«, Progress in Human Ge- ography, online: 22.2.2015, doi: 10.1177/0309132515572271. Schüll, N.D. (2012): Addiction by Design: Machine Gambling in Las Vegas, Princ- eton, NJ: Princeton University Press. Sterne, J. (2003): The Audible Past: Cultural Origins of Sound Reproduction, Durham, NC: Duke University Press. Sterne, J. (2012): MP3: The Meaning of a Format, Durham, NC: Duke University Press. Sterne, J. (2015): »Space within Space: Artificial Reverb and the Detachable Echo«, Grey Room (60), S. 110-131. Sterne, J./Rodgers, T. (2011): »The Poetics of Signal Processing«, Differences 22 (2-3), S. 31-53. Stewart, J./Bronzaft, A.L. (2011): Why Noise Matters: A Worldwide Perspective on the Problems, Policies and Solutions, Abingdon, UK: Earthscan. Turkle, S. (2015): Reclaiming Conversation: The Power of Talk in a Digital Age, New York: Penguin Press. Waitt, G., Ryan, E./Farbotko, C. (2014): »A Visceral Politics of Sound«, Antipode 46 (1), S. 283-300. Weber, H. (2010): »Head Cocoons: A Sensori-Social History of Earphone Use in West Germany, 1950-2010«, The Senses and Society 5 (3), S. 339-363. 7. Algorhythmische Ökosysteme Neoliberale Kopplungen und ihre Pathogenese von 1960 bis heute Shintaro Miyazaki Wenn man Algorithmuskulturen, funktional-neutral betrachtend, auf reinen und sauberen Netzwerken, Hardware und Datensystemen beruhend theoreti- siert, kaschiert man leicht deren schmutzigere, dunklere, dysfunktionale und pathologische Seite. Diese negativen Aspekte werden zu oft heruntergespielt, gehören aber sicherlich auch zu den Kulturen, an denen Algorithmen opera- tiv beteiligt sind. Eine Untersuchung von Algorithmen, die das Augenmerk auf diese kulturellen Aspekte richtet, sollte nicht nur menschengemachte Wel- ten und Kulturen mit einbeziehen, sondern auch die wichtigen Perspektiven nicht-menschlicher Handlungsfähigkeit (agency), die zwar tatsächlich von Menschenhand gemacht ist, jedoch eine Effektivität erreicht hat, die weit über die menschliche Kultur, Kommunikation und Ästhetik hinausgeht; selbstorga- nisierte technologische Prozesse sind ein Beispiel. Wenn man die Idee von Kultur auf das Denken in Ökosystemen ausdehnt, so führt dies auch zur pa- thologischen Seite der Algorithmuskultur. Hinzu kommt, dass ein Ökosystem in der Regel als lebendiger, komplizierter und empfänglicher für Veränderun- gen und Reize erachtet wird als eine Kultur. Seine vielen Handlungsträger operieren zwischen Kontrolle und Nicht-Kontrolle. Algorithmische Ökosyste- me bestehen demnach aus Menschen und Nicht-Menschen, beziehungsweise aus Nicht-Maschinen und Maschinen, die ständig Signale austauschen, nicht nur untereinander, sondern auch mit ihren Umgebungen und ihren Objekten, Prozessen, Materialien und Körpern. Solch ein offener Ansatz harmoniert gut mit MacKenzies Konzept des Agencement (Gefüge von Handlungsinstanzen) als »Kombinationen aus Menschen, materiellen Gegenständen, technischen Systemen, Texten, Algorithmen und so weiter« (2009: 4). In diesem Sinne wird im Folgenden der erste von insgesamt vier Abschnit- ten den Begriff »Algorhythmus« erklären, ein Neologismus, der nicht nur ein spezifisches und gleichzeitig weitreichendes Verständnis algorithmischer 174 Shintaro Miyazaki Kultur ermöglicht, nämlich ihrer Rhythmizität, Materialität und Körperlich- keit, sondern auch einen dringend nötigen Zugang zu ihren Pathologien. Der zweite Abschnitt bringt kurze historische Berichte über algorithmusbedingte Ressourcen-Misswirtschaft, Netzwerkzusammenbrüche und andere Erschei- nungsformen unabsichtlich schlechter Programmierung; den Anfang ma- chen die 1960er Jahre und die ersten Versuche, Algorithmen in gemeinsam genutzten Systemen einzuplanen. Des Weiteren werden frühe Probleme des ARPAnets erkundet und kurz die Genealogie von Computerviren untersucht. Der dritte Teil beschreibt in größerer Ausführlichkeit den sogenannten AT&T- Crash im Januar 1990, als das Telefonfernnetz fast einen ganzen Tag lang de- fekt war, was einen beträchtlichen wirtschaftlichen Schaden verursachte. Der letzte Teil wird schließlich das Konzept der neoliberalen Pathogenese als Sym- ptom unserer derzeitigen neoliberalen Gesellschaft des freien Marktes entwi- ckeln, die aus medientheoretischer und -historischer Perspektive tief im oben erwähnten Kontext früher verteilter Netzwerke und des verteilten Rechnens verwurzelt ist. materialität, algorithmen und feedbacK Algorithmen stehen in einer »essentiellen, wenngleich problematischen Bezie- hung zur materiellen Realität« (Goffey 2009: 16). Rhythmus ist ein wichtiger Aspekt dieser Beziehung und ein Begriff, der dem Studium sozialer und kul- tureller Phänomene nahesteht, wie Soziologen dargelegt haben, so etwa Henri Lefebvre (2004). Rhythmus ist die Ordnung der Bewegung, die zeitliche Koor- dinierung von Materie, Körpern und Signalen. Meiner Argumentation zufolge können Rhythmen auch pathologisches Verhalten veranschaulichen. Durch Verflechtung der Begriffe ›Algorithmus‹ und ›Rhythmus‹ habe ich den Neolo- gismus ›Algorhythmus‹ geprägt (Miyazaki 2012), um die pathologischeren und bösartigeren Aspekte algorhythmischer Ökosysteme neu zu beleuchten. Algorithmen sind mathematische, symbolische und abstrakte Strukturen, aber man sollte sie nicht mit algebraischen Formeln verwechseln. Durch Algo- rithmen ausgeführte Befehle sind irreversibel, während algebraische Formeln reversibel sind. Algorithmen sind vektoriell abhängig, sie müssen sich entfal- ten und verkörpern somit Zeit. Dieser entscheidende Unterscheid, so trivial er auch scheinen mag, ist von großer Relevanz für das Verständnis unserer der- zeitigen Abhängigkeit von algorithmusgesteuerten Systemen und den Ökosys- temen, die sie beeinflussen. In den rechnergestützten Wissenschaften verbrei- tete sich diese Erkenntnis bereits in den 1960er Jahren mit dem Aufkommen höherer Programmiersprachen wie Algol 58 und Algol 60. Heinz Rutishauser (1918-1970) hat als einer der ersten diese neue Denkweise benutzt, die ihren Ausdruck in einer spezifischen Notationsform fand. 7. Algorhy thmische Ökosysteme 175 Das Gleichheitszeichen wird von K. Zuse ersetzt durch das sogenannte Er- gibt-Zeichen ⇒, das fordert, dass die links stehenden Werte wie angegeben zu einem neuen Wert berechnet werden sollen und so benannt, wie auf der rechten Seite angegeben (im Unterschied zu a+b=c, das aus der Sicht algorith- mischer Notation nur eine Aussage wäre) (Rutishauser 1956: 28). Auch Donald E. Knuth (*1938), Software-Historiker und selbst ein Pionier im algorithmischen Denken einer etwas jüngeren Generation, bemerkte, dass die systematische Verwendung solcher Operationen eine klare Verschiebung zwischen »computerwissenschaftlichem Denken und mathematischem Den- ken« bedeutete (Knuth/Pardo 1980: 206). In diesem Sinne erscheint der Neologismus von ›Algorhythmus‹ (mit einem ›y‹ geschrieben wie in ›Rhythmus‹) vielleicht redundant. Sein Potential beschränkt sich jedoch nicht darauf, den zeitbasierten Charakter des Rechnens herauszustellen, sondern unterstreicht auch die Verbindung vom Rechnen zur Signalverarbeitung und so zu den Rhythmen der »SpaceTimeMatterings«, ein Begriff, den ich von der feministischen Theoretikerin und Quantenphysikerin Karen Barad entliehen habe (2014: 168). Maschinen sprechen nicht nur mit- einander und beobachten sich gegenseitig, sondern – technologisch präziser formuliert – sie horchen aufeinander und entdecken die Signale der anderen und deren Rhythmen (Miyazaki 2015). Die problematische Beziehung der Algorithmen zur Wirklichkeit wird ver- mittelt durch Signale aus meist elektromagnetischen Wellen via Kabel, Luft oder einem anderen Medium. Die Probleme manifestieren sich meistens bei Transduktionsübergängen des Mathematischen oder des Abstrakten in eines der vielen physischen Medien wie Akustik, Optik oder Elektromagnetik. Das Tempo algorithmischer Prozesse, z.B. beim Algo Trading1, hängt nicht nur von der Länge der Datenkabel ab, sondern seit Ende 2010 auch von kabellosen Ver- bindungen, die mittels Richtfunktürmen zwischen den Quellen der Echtzeit- Daten der Finanzmärkte, etwa der New York Stock Exchange oder der Chicago Mercantile Exchange, aufrechterhalten werden. Diese Tendenz beweist, dass Algorithmen Physik brauchen und noch immer auf Energieübertragungen an- gewiesen sind, selbst da, wo sie auf der Mikro- oder Nano-Ebene operieren. Nichtsdestotrotz vollzieht sich algorhythmische Aktivität meist unsicht- bar, nahtlos und unbemerkt und tritt nur hervor, wenn die Operationen un- erwünschte, unvorhergesehene, pathologische Effekte zeitigen. Kleine Pro- grammierungsfehler, minimale Inkompatibilitäten oder schlampig geplantes und gestaltetes Timing kann zu Zusammenbrüchen führen. Es ist sehr schwierig, Algorithmen zu programmieren, die solche Ausfälle und Zusam- menbrüche vermeiden können. Es bedarf großer Sorgfalt, besonders wenn die 1 | Algorithmischer Handel bzw. automatischer Handel von Wertpapieren durch Com- puterprogramme (A.d.Ü.). 176 Shintaro Miyazaki algorhythmischen Prozesse rekursiv verflochten sind oder einen Rückkopp- lungskreis generieren. Im Anschluss an das Werk des französischen Episte- mologen Georges Canguilhem (1904-1995) wird hier Pathologie definiert als Abweichung vom Normalen, von einem Zustand des Gleichgewichts, mit der das System aufgrund äußerer Einflüsse aus der Umgebung konfrontiert ist (Canguilhem 1991: 269). Sowohl lebende Organismen als auch »techno-öko- nomische Gruppen« (Canguilhem 1991: 284) – von mir algorhythmische Öko- systeme genannt – können infolge von »falschem Rhythmus« »Mikromons- trositäten« an den Tag legen (Canguilhem 1991: 276). Aufgrund der Physik der Telekommunikation sind solche Mikroaussetzer nicht unmittelbar greif- bar und bleiben oft unbemerkt, bis sie konkrete, meist wirtschaftliche, Aus- wirkungen hervorrufen. Die folgenden Abschnitte bieten kurze historische Untersuchungen zu einigen wichtigen Aspekten von Situationen aus der Zeit zwischen den 1960er und den späten 1990er Jahren, in denen kapitalistische Werte mit medientechnologischen Umgebungen verkoppelt wurden. Verteilte dysfunK tionalität Als algorithmisches Denken, höhere Programmiersprachen und Operations- systeme in den frühen 1960er Jahren aufkamen, begannen bald auch die ersten Experimente mit Datennetzwerken, gemeinsamer Nutzung von Spei- chern sowie verteiltem Rechnen und verteilten Netzwerken. Von den ersten Anfängen der Datenkommunikation über Computernetzwerke an tauchten in Zusammenhang mit der Speicherplatzzuweisung sogenannte deadlocks (Ver- klemmungen) oder lockups (Einfrieren) auf. Das waren die ersten Fälle von algorhythmischen Ökosystemen, die sich in Feedback-Schleifen aufhängen. Terminierungsfehler bei der gemeinsamen Nutzung von Speicherplatz tra- ten zum Beispiel auf, wenn kollidierende Aufgaben darauf warteten, dass die jeweils andere Speicherplatz freigeben würde (Coffman u.a. 1971: 70). Solche einfachen Fehler ließen sich durch vorausschauende Speicherzuteilung und besser entworfene Abläufe vermeiden, aber nicht vorhersehen, bevor sie das erste Mal eintraten. Diese anfangs harmlosen Computerstörungen entwickel- ten Eigendynamiken, wenn größere Netzwerke miteinbezogen wurden. Bei Inbetriebnahme in den späten 1960er Jahren war ARPAnet der erste Versuch, ein gewaltiges Computernetzwerk zu errichten, das bald geopoliti- sche Maßstäbe annahm. Es war die erste »Demonstration der Machbarkeit von Datenpaketvermittlung in großem Maßstab« (Abbate 1999: 7). Wie in allen folgenden Systemen verteilter Vernetzung wurde im ARPAnet eine Botschaft in kleinere Datenpakete aufgeteilt, die dann individuell über das Netzwerk zu ihrem Bestimmungsort gesendet wurden. Wenn die Topologie – d.h. die Struk- tur – des Netzwerks sich aufgrund einer Störung oder Unterbrechung irgend- 7. Algorhy thmische Ökosysteme 177 wo auf dem Weg verändert, können die Pakete Alternativrouten einschlagen. Am Ziel angekommen werden sie wieder in der richtigen Reihenfolge zusam- mengesetzt. In diesem algorhythmischen Ökosystem begann die allmähliche Herausbildung verteilter Zusammenbrüche. In den 1960er und 1970er Jahren machten zu Ökonomen mutierte Elektro- und Computeringenieure wie Jay Forrester (*1918) System Dynamics populär. Dieser neue Ansatz und Forschungszweig erwuchs aus dem von Norbert Wie- ner (1894-1964) begründeten Feld der Kybernetik und zielte darauf ab, abstrak- te Modelle aller Arten von Systemen zu schaffen – von Lieferkettennetzwerken, Industriesystemen, Stadtgesellschaften, selbst der ganzen Erde – indem er die wesentlichen Prozesse in positive und negative Feedback Loops (Rückkopp- lungsschleifen) zerlegte. Das waren die ersten Versuche, alle menschlichen Vorgänge zu rationalisieren und zu vermessen, ein Widerhall der aufkommen- den Ideologie des Spätkapitalismus und Neoliberalismus. Die Bewertung von allem beginnt mit Vermessung. Zur gleichen Zeit erforschte Thomas Schel- ling (*1921) die Auswirkungen von Mikroverhalten in Stadtgemeinschaften und analysierte insbesondere, wie kleine, unbeabsichtigte Entscheidungen so- ziale Auswirkungen verursachen können wie z.B. die Segregation von Ethnizi- täten (Vehlken 2015). Ironischerweise waren solche Effekte komplexer verteil- ter Wirksamkeit bereits im Feld verteilter Netzwerke beobachtet und behandelt worden. Die rigide programmierte Mikrooperativität einzelner Netzwerkcom- puter und -knoten im ARPAnet – man nannte sie Interface Message Processors (IMP) – hatte Auswirkungen auf das Makroverhalten des ganzen algorhyth- mischen Ökosystems. Lokale Fehler konnten »globale Konsequenzen« haben (McQuillan u.a. 1978: 1805). Leonard Kleinrock (*1934) war einer der ersten Forscher, die sich mit der Komplexität verteilter Netzwerke auseinandersetzen mussten. Nach zehn Jah- ren Forschung bemerkte er 1978, dass der Nachfrageprozess nicht nur »stoß- weise« war, er war auch »hochgradig unvorhersehbar«. Sowohl das exakte Timing als auch die Dauer von Netzwerknachfragen war »im Voraus unbe- kannt« (Kleinrock 1978: 1321). Kleinrock erkannte, dass die probabilistischen Komplexitäten verteilter Netzwerke »äußerst schwierig« sind und dass eine effektive »Datenflusssteuerung« innerhalb des Netzwerks ein wichtiges Erfor- dernis war, das man anfangs unterschätzt und ignoriert hatte (Kleinrock 1978: 1322). Solche Flusskontrollmechanismen hätten viele Blockierungsphänomene verhindern können wie etwa »reassemby lockup« (Verklemmung beim Wie- derzusammensetzen der Pakete), »store and forward deadlock« (Teilstrecken- verfahrensverklemmung), »Christmas lockup«2 und »piggyback lockup« (Hu- ckepack-Verklemmung) (Kleinrock 1978: 1324). Aber selbst die raffiniertesten 2 | Eine Verklemmung in einem Subnet, die am 21.12.1973 eintrat (A.d.Ü.). 178 Shintaro Miyazaki algorithmischen Verfahren konnten neue Ausfälle nicht verhindern. Fehler- suche war ein Teil der Forschung und eröffnete Chancen zur Optimierung. Ein Programm namens »Creeper« (Schantz 2006: 74), erschaffen 1971 von Robert H. Thomas von Bolt, Beranek and Newman, einer Firma, die einen be- deutenden Teil der technischen Infrastruktur für das frühe ARPAnet bereit- stellte, erlaubt Einsicht in weitere Aspekte verteilter Dysfunktionalität in algor- hythmischen Ökosystemen: »Creeper ist ein Demo-Programm, das innerhalb des ARPA-Netzwerks von Computer zu Computer migrieren kann, wobei es eine einfache Aufgabe vorführt. Es demonst- rier te die Möglichkeit, ein laufendes Programm und seine Ausführungsumgebung (z.B. Dateien öffnen usw.) von einem Computer zum anderen zu übersiedeln, ohne dass die Ausführung der Aufgabe beeinträchtigt wurde. Creeper führ te zu der Idee, dass Prozes- se unabhängig von einem bestimmten Gerät existieren könnten.« (Sutherland/Thomas 1974: 23) Creeper war eines der ersten Computerviren, im Gewand eines Demo- und Dienstprogramms, das sich innerhalb seines eigenen Ökosystems verteilter Netzwerke replizieren und übertragen konnte. Creeper war eine Art algorhyth- mischer Organismus. Ähnliche Experimente wurden in den späten 1970er Jahren von John F. Shoch und Jon A. Hupp vom Xerox Palo Alto Research Cen- ter durchgeführt (Parikka 2007: 241). Shoch und Hupp experimentierten mit »Multimaschinen-Würmern«, wie sie sie nannten (1982: 173). Sie program- mierten spielerisch algorhythmische Agenten, später »Xerox Parc Worms« genannt, die in den befallenen Computern Botschaften zeigten, Bilder luden oder als Wecker fungierten. Es handelte sich dabei um Computerprogramme, die aus mehreren Algorithmen bestanden und sich über ein Netzwerk von Computern verteilten; sie konnten programmierte Operationen, in denen alle Teile zusammenarbeiteten, algorhythmisch orchestrieren. Wie ihre Vorgänger wurden die Programmierer rasch mit dem unerwarteten, autonomen und pa- thologischen Verhalten, das ihre Algorithmen entwickelten, konfrontiert. »Früh gerieten wir bei unseren Experimenten in eine ziemlich verwirrende Situation. Eines Nachts hatten wir einen kleinen Wurm laufen lassen, nur um den Arbeitskontroll- mechanismus auszuführen und auch nur auf einer kleinen Zahl von Geräten. Als wir am nächsten Morgen zurückkehrten, waren dutzende von Computern tot, anscheinend ab- gestürzt.« (Shoch/Hupp 1982: 175) Um solche Zwischenfälle zu vermeiden, bauten sie eine Funktion ein, die die Aktivität des Wurms stoppen konnte – »einen Notausgang« (Shoch/Hupp 1982: 176). 7. Algorhy thmische Ökosysteme 179 Im Laufe der 1980er Jahre wurden ähnlich spielerische Experimente von vielen jungen Programmieren kopiert, wiederholt und unabhängig voneinan- der neu erfunden. Mit der Einführung des World Wide Web um 1990 durch Tim Berners-Lee (*1955) und der damit einhergehenden Verbreitung von pro- grammbasierten Organismen wurden Computerviren, wie man sie später nannte, Teil eines globalen und sich immer weiter entwickelnden algorhyth- mischen Ökosystems. So war es kein bloßer Zufall, sondern eher ein Symp- tom der wachsenden globalen Verschaltung von Menschen und Maschinen via Kommunikation und Medientechnologie, dass etwa zur gleichen Zeit, als Ber- ners-Lee im CERN in der Schweiz seinen ersten Webbrowser programmierte und optimierte, sich auf der anderen Seite des Atlantiks eine der ersten großen algorithmusgetriebenen ökonomischen und technologischen Katastrophen er- eignete. at&t cr aSh 1990 Am 15. Januar 1990 stürzte das nordamerikanische Telefonfernnetz AT&T ab und blieb neun Stunden lang gestört. Die Hälfte der Ferngespräche konnte in der Zeit nicht verbunden werden, was zu einem finanziellen Verlust von mehr als 60 Millionen US$ führte, noch ohne die späteren ökonomischen Verluste von AT&T gerechnet (Peterson 1991: 104). Dieser Zwischenfall, später AT&T Crash genannt, wurde durch den Science-Fiction-Autor und Digital-Cultures- Pionier Bruce Sterling in The Hacker Crackdown popularisiert, seinem ersten, 1992 erschienenen Sachbuch (Sterling 1992). Der Grund für diesen Systemab- sturz war ein kleiner Programmierfehler, der mittels eines Software-Updates der Vermittlungsrechner für die neuere und softwarebasierte Telefonleitung implementiert wurde, die sich in verschiedenen Zentren überall in den USA befanden. Das Update erfolgte im Dezember 1989 auf allen 114 Vermittlungs- rechnern. Das ganze System funktionierte gut bis zum 15. Januar 1990. Um etwa 14:30 Uhr begann ein Computer in New York einige Fehlfunktionen in sei- nem System zu entdecken. Aus bis heute noch nicht völlig bekannten Gründen führte dies zu einer selbstausgelösten Abschaltung für vier bis sechs Sekun- den (Neumann 1990: 11). Um die Verknüpfung, Verschaltung und Vermitt- lung des Netzwerksystems aufrecht zu erhalten, musste dieser Maschinen- zwischenfall, der normalerweise keine Probleme macht und häufig geschieht, den benachbarten Vermittlungsrechnern mitgeteilt werden. Nachdem der New Yorker Vermittlungsrechner wieder online war, sandte er Mitteilungen an die Rechner, die ihm am nächsten waren. Dies initialisierte bei jenen ein Update ihrer Verbindungspläne, damit der zuvor abgeschaltete Rechner wieder dem Netzwerk zugefügt werden konnte. Der Knackpunkt war, dass die Fehl- 180 Shintaro Miyazaki funktion genau während dieses Updatingvorgangs eintrat. Das Update vom Dezember 1989 machte diesen Prozess ›angreifbar‹. Eingehende Update-Mit- teilungen des vorher abgeschalteten New Yorker Rechners unterbrachen das makellose Funktionieren seiner Nachbarn, was zu Datenbeschädigung führte. Jeder Nachbarcomputer, der an der Reihe war, seine Verbindungspläne up- zudaten, schaltete sich ab und versuchte sich nach dem Neustart wieder mit dem Netzwerk zu verbinden, was dazu führte, dass andere herunterfuhren (Neumann 1990: 11-13). Das ganze Netzwerk war gefangen in einem ewigen algorhythmischen, verteilten und polyrhythmischen Refrain: eine landesweite, transatlantische Rückkopplungsschleife. Zwei Ebenen der Rhythmizität machten das spezifische algorhythmische Wechselspiel und maschinelle Überfunktionieren aus. Einerseits gab es die Rhythmen, die sich innerhalb eines Vermittlungsrechners selbst abspielten, und andererseits den Rhythmus und die Taktung der Benachrichtigungsmit- teilungen, die von einem Vermittlungsrechner an all seine Nachbarn gesandt wurden. Die Ursache der Fehlfunktion wurde später in einem einfachen Pro- grammierfehler in der Programmiersprache C gefunden. In einem langen »do-while-loop« gab es viele Switch-Anweisungen, und in einem der vielen Zweige enthielt eine Switch-Klausel einen »if-loop«. Das wäre kein Problem gewesen, hätte es da nicht eine zusätzliche Break-Anweisung gegeben, die in der Programmiersprache C nicht besonders viel Sinn ergibt (Neumann 1990: 13). Das Programm verhielt sich nicht wie intendiert und die Rhythmen seiner Rechenoperationen kamen leicht aus dem Tritt und begannen pathologisch zu operieren. Die Breakouts der Loops oder die Breaks der Switch-Anweisungsket- ten waren in unbeabsichtigten Rhythmen getaktet. Die Algorhythmen stotter- ten sozusagen. Diese »bösen« und »schlechten« (Parikka/Sampson 2009: 11) Rhythmen blieben von den selbstüberwachenden Systemen unbemerkt, bis sie durch die erwähnten Updatingprozesse wirksam wurden. neoliber ale KoPPlungen und ihre Pathogenese Die Ausbreitung des Neoliberalismus, die in den 1980er Jahren begann, und dessen Verbindung zu parallelen Entwicklungen wie Wachstum der Medien- netzwerke, des Internets und verteilten Rechnens sowie die Entstehung der »digitalen Wirtschaft« und der »immateriellen Arbeit« ist aus vielen verschie- denen Perspektiven bereits behandelt und diskutiert worden (Castells 1996; Terranova 2004: 75; Hardt/Negri 2004: 187; Pasquinelli 2015). Eine tieferge- hende Untersuchung der Schaltkreise und Algorhythmik dieser medienöko- logischen Transformationen bietet Einblicke in die Pathologien des Spätkapi- talismus oder Neoliberalismus und epistemologische Ankopplung an die oben beschriebenen Dysfunktionalitäten der Frühgeschichte verteilter Netzwerke. 7. Algorhy thmische Ökosysteme 181 Neoliberales Denken und Handeln zielt nach der Definition des Soziologen und Anthropologen David Harvey (*1935) nicht nur auf die Maximierung der Reichweite und Geschwindigkeit von Übertragungen und Handlungen eines Marktes ab, sondern strebt auch danach, »jedes menschliche Handeln unter die Domäne des Marktes zu bringen. Dies er fordert Techniken der Informationserschaffung und Kapazitäten für Ansammlung, Lagerung, Transport, Analyse und Nutzung riesiger Datenbestände zur Steuerung von Entschei- dungen auf dem globalen Markt. Hierher rührt das glühende Interesse an und Streben nach Informationstechnologien im Neoliberalismus.« (Harvey 2007: 3) Nicht nur Privatisierung, Kommodifizierung und Finanzmarkt-Kapitalismus sind Schlüsselcharakteristika des Neoliberalismus, sondern auch »das Manage- ment und die Manipulation von Krisen« (Harvey 2007: 160-162). Des Weiteren gibt es, wie die Gesellschaftsaktivistin und Autorin Naomi Klein (*1970) kont- rovers behauptet, unbestreitbar Zusammenhänge zwischen Milton Friedmans einflussreichen Wirtschaftstheorien des freien Marktes, genauer gesagt: dem Glauben an Laissez-faire-Regierungspolitik, und vielen krisenhaften Ereignis- sen der Weltpolitik (Klein 2008). Führt man sich die Dominanz von Friedmans Wirtschaftstheorie und der Chicago School of Economics vor Augen, kommt es daher nicht von ungefähr, dass sich nicht nur die Finanzmärkte, sondern auch Volkswirtschaften allgemein mit Katastrophen und platzenden ökonomischen Blasen konfrontiert sehen. Diese ökonomischen Zusammenbrüche sind Aus- wirkungen beschleunigter positiver Rückkopplungskreisläufe, die aufgrund von Deregulierung entstanden. Im neoliberalen Denken ist die Kontrolle der zahlreichen Feedback Loops eines Markts nicht gewünscht. Wünschenswert ist finanzielle Liquidität und nötig ist ein makelloser Fluss von Daten. Kontroll- mechanismen und Möglichkeiten zur Regulierung von Rückkopplungspro- zessen werden folglich absichtlich weggelassen. Da die Algorithmuskulturen neoliberaler Gesellschaften daraufhin programmiert werden, dass sie unter erzwungenen Bedingungen beschleunigten »Wettbewerbs« (Davies 2014: 39) operieren, steigt die Wahrscheinlichkeit, dass derartig komplizierte und hoch- gradig verkoppelte Ökosysteme zusammenbrechen. Diese Abstürze, Krisen und Zusammenbrüche sind Effekte der neoliberalen Kopplungen von verteil- ten Netzwerken an Kapitalwerte, was zu ökonomischer Pathogenese führt. Unter Verwendung eines Modells des renommierten Finanzwissenschaft- lers Hyun-Song Shin (*1959) vergleicht der deutsche Kulturtheoretiker Joseph Vogl (*1957) die sich selbst verstärkenden Feedback-Schaltkreise der Finanz- märkte mit dem sogenannten Millennium Bridge-Problem, wo »winzige, will- kürliche Oszillationen« zuerst eine unwahrnehmbare Synchronisierung der Fußgängerschritte erzeugten, die dann über positive Rückkopplung zu syn- chronisierten Gleichschrittsbewegungen und gefährlichen Schwingungen 182 Shintaro Miyazaki der gesamten Brücke führten (Shin 2010: 1-6; Vogl 2014: 116). Banken und Agenten auf den Finanzmärkten verhalten sich ähnlich. Die Bewegung der Brücke liefert ein Modell dafür, wie sich Preise auf dem Markt verändern und die nachfolgenden adaptiven Synchronisierungen und ihre Feedback-Effekte zu Zusammenbrüchen und pathologischen Effekten auf dem Markt führen. An Hyman P. Minsky (1919-1996) anknüpfend argumentiert Vogl, dass Wirt- schaftskrisen und Zusammenbrüche nicht einfach Auswirkungen von exter- nen Einflüssen oder politischen Entscheidungen sind, sondern eher das Ergeb- nis von Verhalten und »endogenen« Aktivitäten der Finanzökonomie selbst. »Anders als kybernetische und selbstregulierende Systeme neigt der Finanzmarkt dazu, aufgrund seiner eigenen Stille Gespenster zu sehen und durch seine eigene Stabilität destabilisier t zu werden. Gerade die Effizienz seines Funktionierens erweist sich als zu- tiefst dysfunktional.« (Vogl 2016: 119) Zusammenbrüche, Unfälle und Katastrophen gehören demnach zur Funk- tionsweise des Finanzmarkts. Der Neoliberalismus ist eine wichtige Triebkraft und Quelle des Ursprungs sozioökonomischer, netzwerkbasierter Pathologien. Zudem ist es von entscheidender Wichtigkeit, zwischen verschiedenen Graden an Dysfunktionalität zu unterscheiden. Pathologien, Zusammenbrüche und Dysfunktionalitäten innerhalb solcher algorhythmischen Ökosysteme sind, wie die Beispiele aus der Geschichte gezeigt haben, häufig nicht schmutzig oder dunkel im direkten Sinn; sie sind für gewöhnlich sehr geordnet, weil sie von Algorithmen und mechanischen Prozessen ausgelöst werden. Und doch übersteigen ihre Auswirkungen auf die menschliche Gesellschaft das harmlo- se Maß. Der Geltungsbereich jener schädlichen Auswirkungen kann variieren zwischen kleinräumigen infrastrukturellen Belangen, die nur einige wenige Firmen oder Universitäten betreffen, bis zu großflächigen Problemen, die gan- ze Nationen und selbst globale Kommunikationssysteme in Mitleidenschaft ziehen können. Im Fall von Zusammenbrüchen und Katastrophen auf den Finanzmärkten, die durch Algo Trading zustande kamen wie der Flashcrash am 6. Mai 20103, waren die Schäden nicht nur finanziell; sie kamen auch in den Geistes- und Seelenzuständen und in den Körpern der menschlichen Agenten zum Vor- schein, die an seine Netzwerke gekoppelt waren (Borch u.a. 2015). Börsenzu- sammenbrüche, die durch automatisierten Handel ausgelöst werden, zeigen auf beeindruckende und erschreckende Weise die Konsequenzen deregulier- ter, aber hochgradig verbundener und ultraschnell operierender algorithmi- scher Ökosysteme, wenn diese sich unglücklich in unkontrollierbaren posi- 3 | Ein Flash Crash oder Flashcrash ist ein starker Kurseinbruch an den Finanzmärkten, der meist nur wenige Minuten andauert (A.d.Ü.). 7. Algorhy thmische Ökosysteme 183 tiven Rückkopplungsschleifen verfangen und zu finanziellen Verlusten oder Gewinnen innerhalb von Minuten oder Sekunden führen. Andere kleinere Zusammenbrüche oder Fehler gehören zum Alltagsgeschäft verteilten Netz- werkens. Bemerkenswerterweise steht jeder Ausfall für den Anfang weiterer Optimierung neoliberaler Deregulierung. Zu diesem Zweck befindet sich das neoliberale System im »Dauerzustand pathologischer Reizbarkeit« (Massumi 2014: 332). Die Pathogenese neoliberaler Ökonomien verdankt sich ihrer erzwunge- nen Kopplung an verteilte Netzwerke, die die Kommodifizierung, Verwertung und Finanzialisierung von allem ermöglichen. Diese Kopplung von Geldwer- ten an Signale und Daten der realen Welt generiert eine Mannigfaltigkeit von echten sozialen Problemen, angefangen bei finanziellen Verlusten aufgrund von Netzwerkabstürzen, Verlusten für verteilte Agenturen in Online-Märkten, über Zusammenbrüche in Finanzmärkten bis hin zu breiteren Ereignissen wie die Finanzkrise von 2008, die derzeitige (2009-) griechische Schuldenkri- se und mehr. Es ist hochgradig verstörend, dass solche historischen Ereignis- se integraler Bestandteil neoliberaler Strategien sind. Wir leben nicht in einer »Gesellschaft der Kontrolle« (Deleuze 1990), sondern in einer Gesellschaft kontrollierten Planens unkontrollierter Krisen. fa Zit Wenn ein Algorithmus ausgeführt wird, sind Transformations- und Über- tragungsprozesse des Mathematischen in physische Realitäten involviert. Diese Prozesse sind nicht trivial. Man hat sie so entworfen, dass sie einfach erscheinen, aber die Entstehung eines Algorithmus, seine Entfaltung und Metamorphose in einen Algorhythmus, bringt häufig Probleme, Spannungen und Zusammenbrüche mit sich. Wie in diesem Kapitel beschrieben, machen verteiltes Rechnen und Netzwerken diese Spannungen weitaus effektiver, weil Algorithmen gemeinsam operieren, interagieren und über ein verteiltes Zu- sammenspiel von Agenten Ressourcen miteinander teilen müssen. Wie die früheren Beispiele gezeigt haben, können diese Akte der Koordinierung, Zu- sammengehörigkeit und Selbstorganisation außer Kontrolle geraten. In neoli- beralen Zusammenhängen, wo Algorithmen – wie im automatisierten Handel – darauf programmiert sind, miteinander im Wettbewerb zu stehen, und wo alle Transaktionen eng miteinander verbunden sind, werden diese Spannun- gen, Katastrophen und Störungen zum Alltagsgeschäft. Wie oben beschrieben war die technische Sprache im Kontext des aufkom- menden Netzwerkmanagements in den späten 1960er und 1970er Jahren eng gekoppelt an ökonomisches Denken und benutzte Begriffe wie »Ressource«, »Nachfrage« oder »Allokation«. Die technische Kopplung von Finanzflüssen 184 Shintaro Miyazaki und algorhythmischen Ökosystemen ist aus einer geldwirtschaftlichen Pers- pektive viel pathologischer. Sie entwickelte sich ein Jahrzehnt später mit der Verbreitung von Computertechnologien ab den 1980er Jahren. Der AT&T Crash von 1990 ist ein Beispiel für einen frühen pathologischen, algorhythmisch in- duzierten Zwischenfall. Der Fokus auf die schmutzigen, dunklen, dysfunktionalen und pathologi- schen Aspekte von Algorithmuskultur offenbart die wachsende Notwendigkeit offener, ökologischer, nicht-verdinglichender, nicht-menschlicher, signal-und- rhythmusbasierter Ansätze und zeigt, dass die oben skizzierten Entwicklungen in den frühen 1960er und 1970er Jahren ausschlaggebend für tiefergehende Untersuchungen der pathologischen Seiten der zeitgenössischen neolibera- len Gesellschaft sind. Algorhythmische Ökosysteme entwickelten sich in den 1960er Jahren aufgrund der Notwendigkeit Ressourcen zu teilen, wie etwa die Zuweisung von Datenspeicherplatz. Die Vernetzung wuchs bald und in den frühen 1970er Jahren sahen sich Ingenieure mit dem Problem konfrontiert, dass sich harmlose lokale Fehler auf unvorhersehbare Weise zu globalen Pro- blemen in der Größenordnung von Netzwerkzusammenbrüchen auftürmten. In den späten 1970er und frühen 1980er Jahren programmierten Softwarein- genieure verteilte Algorithmen mit kontraintuitiven, emergenten Verhaltens- weisen, die sie mit Viren verglichen. Der AT&T Crash steht für den Beginn des Digitalzeitalters, wo die Verletzlichkeit einer voll und ganz auf Algorithmen basierenden und vernetzten Gesellschaft drastisch manifest wurde. Wenn man globale Kommunikationsnetzwerke und deren Kopplung an wirtschaftliche, soziale und kulturelle Umgebungen als Prozesse algorhyth- mischer Ökosysteme theoretisiert, so entlarvt dies die rhythmischen Aktivi- täten, die diesen Netzwerken zugrunde liegen und die sich aus Strömen af- fektiv-energetischer Ereignisse zusammensetzen. Diese Rhythmen können positive und negative, pathologische Wirkungen zeitigen, abhängig von ihrer operativen Rolle in Feedbackkreisläufen und Ökosystemen heterogener Hand- lungsinstanzen. Dieses Kapitel zeigt zudem die Risiken, die entstehen, wenn abstrakte Wel- ten wie die der Algorithmen mit der Welt kapitalistischer Werte und monetärer Mechanismen verbunden werden. Diese Entwicklungen sind Spätfolgen der problematischen Beziehungen, die Algorithmen von Anfang an innewohnen. Um sich zu entfalten brauchen Algorithmen Verkörperlichung, zum Beispiel durch energieschwache Signale wie Schwachstrom. Und im Zeitalter des Neo- liberalismus sind selbst diese energiearmen Signale Teil des Geldwirtschafts- systems. Algorythmische Ökosysteme wachsen weiter und werden immer stärker vernetzt. Daher ist es von großer Wichtigkeit, nicht nur die positiven, nützlichen und angenehmen Seiten von Algorithmuskulturen zu verstehen, sondern auch einen präzisen und umfassenden Überblick über ihre patholo- 7. Algorhy thmische Ökosysteme 185 gischen Seiten zu bekommen. Dieses Kapitel ist nur der Ausgangspunkt für dieses schwierige Unterfangen. Übersetzt von Dagmar Buchwald. liter aturVer Zeichnis Abbate, J. (1999): Inventing the Internet, Cambridge, MA: MIT Press. Barad, K. (2014): »Diffracting Diffraction: Cutting Together-Apart«, Parallax 20 (3), S. 168-187, doi: 10.1080/13534645.2014.927623. Borch, C./Bondo Hansen, K./Lange, A.C. (2015): »Markets, Bodies, and Rhythms: A Rhythmanalysis of Financial Markets from Open-outcry Trading to High-frequency Trading«, Environment and Planning D: Society and Space, vor dem Druck online veröffentlicht, 21.08.2015, doi: 10.1177/0263775815600444. Canguilhem, G. (1991): The Normal and the Pathological, New York: Zone Books. Castells, M. (1996): The Rise of the Network Society: The Information Age: Econo- my, Society, and Culture, Malden, MA: Blackwell. Coffman, E.G./Elphick, M./Shoshani, A. (1971): »System Deadlocks«, ACM Computing Surveys 3 (2), S. 67-78, doi: 10.1145/356586.356588. Davies, W. (2014): The Limits of Neoliberalism: Authority, Sovereignty and the Log- ic of Competition, London: SAGE. Deleuze, G. (1990): »Post-Scriptum sur les sociétés de contrôle«, in: Pourparlers (1972-1990), Paris: Les Éditions de Minuit, S. 240-247. Goffey, A. (2008): »Algorithm«, in: Software Studies: A Lexicon, hg. v. Matthew Fuller, Cambridge, MA: MIT Press, S. 15-20. Hardt, M./Negri, A. (2004): Multitude: War and Democracy in the Age of Empire, New York: The Penguin Press. Harvey, D. (2007): A Brief History of Neoliberalism, Oxford: Oxford University Press. Klein, N. (2008): The Shock Doctrine: The Rise of Disaster Capitalism, New York: Picador. Kleinrock, L. (1978): »Principles and Lessons in Packet Communications«, in: Proceedings of the IEEE. Special Issue on Packet Communications 66 (11), S. 1320-1329. Knuth, D.E./Pardo, L.T. (1980): »The Early Development of Programming Lan- guages«, in: A History of Computing in the Twentieth Century: A Collection of Essays with Introductory Essay and Indexes, hg. v. N. Metropolis/J. Howlett/ Gian-Carlo Rota, New York: Academic Press, S. 197-273. Lefebvre, H. (2004): Rhythmanalysis: Space, Time and Everyday Life, übers. v. Stuart Elden/Gerald Moore, London and New York: Continuum. 186 Shintaro Miyazaki MacKenzie, D. (2009): Material Markets: How Economic Agents Are Constructed, Oxford: Oxford University Press. McQuillan, J.M./Falk, G./Richer, I. (1978): »A Review of the Development and Performance of the ARPANET Routing Algorithm«, IEEE Transactions on Communications 26 (12), S. 1802-1811, doi: 10.1109/TCOM.1978.1094040. Massumi, B. (2014): »The Market in Wonderland: Complexifying the Subject of Interest«, in: Timing of Affect: Epistemologies, Aesthetics, Politics, hg.  v. Marie-Luise Angerer/Bernd Bösel/Michael Ott, Zürich: Diaphanes Verlag, S. 321-338. Miyazaki, Shintaro (2012): »Algorhythmics: Understanding Micro-Temporality in Computational Cultures«, Computational Cultures: A Journal of Software Studies 2. Miyazaki, S. (2015): »Going Beyond the Visible: New Aesthetic as an Aesthetic of Blindness?«, in: Postdigital Aesthetics: Art, Computation and Design, hg. v. David M. Berry/Michael Dieter, New York: Palgrave Macmillan, S. 219-231. Neumann, P.G. (1990): »Risks to the Public in Computers and Related Sys- tems«, ACM SIGSOFT Software Engineering Notes 15 (2), S. 3-22. Parikka, J. (2007): Digital Contagions: A Media Archeology of Computer Viruses, New York/Bern: Peter Lang. Parikka, J./Sampson, T.D. (2009): »On Anomalous Objects and Digital Cul- ture: An Introduction«, in: The Spam Book: On Viruses, Porn, and Other Anomalies from the Dark Side of Digital Culture, hg. v. Jussi Parikka/Tony D. Sampson, Cresskill, NJ: Hampton Press, S. 1-18. Pasquinelli, M. (2015): »Italian Operaismo and the Information Machine«, The- ory, Culture & Society 32 (3): S. 49-68, doi: 10.1177/0263276413514117. Peterson, I. (1991): »Finding Fault«, Science News 139 (7), S.  104-106, doi: 10.2307/3975512. Rutishauser, H. (1956): »Massnahmen zur Vereinfachung des Programmierens (Bericht über die 5-jährige Programmierarbeit mit der Z4 gewonnenen Er- fahrungen)«, in: Elektronische Rechenmaschinen und Informationsverarbei- tung, hg. v. A. Walther/W. Hoffmann, Braunschweig: Friedrich Vieweg und Sohn, S. 26-30. Schantz, R.E. (2006): »BBN’s Network Computing Software Infrastructure and Distributed Applications (1970-1990)«, IEEE Annals of the History of Computing 28 (1). S. 72-88, doi: 10.1109/MAHC.2006.4. Shin, H.S. (2010): Risk and Liquidity, Oxford: Oxford University Press. Shoch, J.F./Hupp, J.A. (1982): »The ›Worm‹ Programs: Early Experience with a Distributed Computation«, Communications of the ACM 25 (3), S. 172-180, doi: 10.1145/358453.358455. Sterling, B. (1992): The Hacker Crackdown, New York: Bantam. Sutherland, W.R./Thomas, R.H. (1974): »BBN Report 2976 of Dec 1974, Natu- ral Communication with Computers. Final Report – Volume III, Distribu- 7. Algorhy thmische Ökosysteme 187 ted Computation Research at BBN October 1970 to December 1974«, BBN. Prepared for Advanced Research Projects Agency, Dezember 1974. Terranova, T. (2004): Network Culture: Politics for the Information Age, London/ Ann Arbor, MI: Pluto Press. Vehlken, S. (2015): »Ghetto Blasts: Media Histories of Neighborhood Technol- ogies Between Segregation, Cooperation, and Craziness«, in: Neighborhood Technologies: Media and Mathematics of Dynamic Networks, hg.  v. Tobias Harks/Sebastian Vehlken, Zürich/Berlin: Diaphanes, S. 37-65. Vogl, J. (2014): The Specter of Capital, Stanford, CA: Stanford University Press. 8. Drohnen: zur Materialisierung von Algorithmen1 Valentin Rauer Seit Jahrhunderten gelten Maschinen als Gegenstände, als passive Werkzeuge oder Instrumente. Als Mittel zum Zweck stehen sie den aktiven menschlichen Subjekten gegenüber. Diese binäre Ordnung erodiert aktuell, weil die vormals passiven Instrumente immer größere Anteile an intrinsischer Aktivität mit sich bringen (Rammert 2000; Latour 2001; Schulz-Schaeffer 2007). Seither wird in der Soziologie intensiv über Fragen nach Handlungsträgerschaft jen- seits menschlich personaler Akteure diskutiert (Passoth/Peuker/Schillmeier 2012; Lupton 2015). Der Gebrauch der Metapher »Drohne« verleiht diesem Übergang eine öffentliche Bedeutung. Mit dem Konzept der Drohnen wird die vormalige binäre Ordnung von sich gegenüberstehenden Subjekten und Ob- jekten zunehmend durch Hybridität ersetzt. Warum erscheint die Drohnenmetapher erst in den frühen 2000er Jah- ren? Die Technologie wurde bereits in der zweiten Hälfte des 20. Jahrhunderts entwickelt. In diesem Beitrag wird die These vertreten, dass der Aufstieg der Drohnenmetapher mit einem spezifischen Interface zusammenhängt, das es erlaubt, algorithmische Methoden und Inskriptionen als ›Aktion‹ eines spe- zifischen Objektes zu imaginieren. Eingesetzt zur Lenkung eines autonom steuernden Fahrzeugs sind Algorithmen nicht nur ein Mittel, um eine In- formation oder ein Wissen zu selektieren und zu generieren (Introna/Wood, 2004), sondern sie bilden den Kern einer praktischen Logik, die es Maschinen ermöglicht, ohne von Menschen ferngesteuert qua Sensoren situationsange- messen zu erkennen und zu interagieren. Diese sensorische, interaktive und situative Praxis steigert den Autonomiegrad der Maschinen (Rammert 2012). Algorithmen stellen in diesem Sinne also Praktiken bereit, mit denen Objekte 1 | Dieser Text beruht auf einer teilweise übersetzten und teilweise aktualisier ten und modifizier ten Fassung des Textes: Rauer, V. (2016): »The mobilization of algorithms«, in: Algorithmic cultures. Essays on meaning, performance and new technologies, hg. v. R. Seyfer t und J. Roberge, New York: Routledge, S. 140-157. 190 Valentin Rauer in interaktive Agenten transformiert werden, die, zunehmend unabhängiger von Menschen, selbst situativ entscheiden und steuern. Die Drohnenmetapher ist ein Symptom, diese Veränderungen hin zu einer Handlungsträgerschaft ohne unmittelbar beteiligte personale Akteure, d.h. zu einem hybriden Sub- jektstatus’, in der öffentlichen Ordnung der Dinge mit Bedeutung zu versehen. Gleichwohl heißt das nicht, dass diese Drohne unmittelbar mit autonomen Subjekten mit freien Willensträgern im Sinne Kants gleichzusetzen seien. Doch dazu später mehr. Vor diesem Hintergrund geht es also im folgenden Text nicht um die Frage nach dem sozio-kulturellen Impact von Algorithmen im so genannten World Wide Web (Gillespie 2010; Bennett/Segerberg 2012; Gerlitz/Lury, 2014; Sanz/ Stancik 2014), sondern um die Frage nach den Deutungsmustern eines hybri- den Subjektstatus von räumlich-mobilisierenden Techniken und deren situati- ven Interaktivitäten. Die Folgen einer solchen algorithmisch generierten Tech- nisierung von vormals rein menschlich praktizierten Interaktivitäten, werden im Folgenden aus drei verschiedenen Perspektiven in den Blick genommen: Zunächst soll die Grundlogik von algorithmischen Praktiken untersucht werden. Hierzu bietet es sich an, Algorithmen in einem Setting zu untersu- chen, das nur sehr einfache technische Voraussetzungen erfordert. Ein solcher Fall sind analoge Funkalgorithmen. Sie kommen noch ohne digitale Senso- ren und Softwareprogramme aus. Gleichwohl sind sie Teil einer paradigma- tischen Vorläufersituation aller späteren computerbasierten digitalen Prakti- ken, die der Informationstheoretiker Edward Hutchins als ›verteilte Kognition‹ beschrieben hat (Hutchins 1995). Funkalgorithmen ermöglichen räumlich verteilte Kognitionsprozesse, indem sie Sprecher- und Adressatenrollen prä- formieren und damit Handlungsträgerschaften sowie Situationsdefinitionen kollektiv verbindliche Geltung verschaffen. Zudem dienen sie der situativen Verantwortungszuschreibung, ohne dass es zeitraubender komplexer Aus- handlungsprozesse über die von allen zu akzeptierende Situationsdefinition und Zuweisung von Entscheidungskompetenzen bedarf. Diese abstrakte Be- stimmung wird anschaulich an dem Beispiel seegestützter Funkalgorithmen erklärt. Darauf aufbauend wird dann in einem zweiten Abschnitt die digitale Inter- aktionspraxis sensorbasierter Algorithmen vorgestellt. Die sensorbasierten Algorithmen sind in der Lage, situativ ihre Entscheidungs- und Steuerungs- praktiken zu verändern und sie auf neue situative Bedingungen jeweils an- zupassen. Diese situative Anpassungsfähigkeit wird auch als ›Autonomie‹ be- zeichnet, wobei darunter kein Kantisches autonomes Subjekt mit freien Willen und Bewusstsein gemeint ist, sondern lediglich eine parametrisch interaktive, d.h. sensorbasierte Steuerungsalgorithmik. Erläutert wird dieser Zusammen- hang am Beispiel der zunehmenden situativen Steuerungsautonomie von mi- litärischen Drohnen. Öffentliche Geschichten über Drohnen verwandeln diese 8. Drohnen: zur Materialisierung von Algorithmen 191 Fahrzeuge in ein Imaginationsobjekt, welches besondere öffentliche Aufmerk- samkeit generiert (Sparrow 2007; Schörnig 2010; Matthias 2011; Strawser 2013; Krassmann 2014, Chamayou 2015; Krassmann/Weber 2015). Das Problem der sensorisch gesteuerten Interaktivität und der daraus re- sultierenden potentiellen Steuerungsautonomie von Maschinen ist neu. Die Problematik dieser Neuheit wird drittens an zwei verschiedenen empirischen Fallgeschichten erläutert. Zunächst geht es um den Skandal um das geschei- terte deutsche ›Euro Hawk‹ Projekt aus den 2000er Jahren, das mit Millionen- verlusten einherging. Grund des Verlustes war die Unvertrautheit der deut- schen Behörden mit dem Problem sensorisch gesteuerter Interaktivität. Nach deutschen Gesetzen war eine solche Steuerung nicht vorgesehen, die Drohne konnte aber ohne ein solches System keine Flugzulassung erlangen. Der Fall zeigt, was geschieht, wenn die Logik sensorischer Mobilisierung nicht berück- sichtigt wird und Entscheidungen allein auf menschliche Akteure delegiert werden. Ein im Anschluss daran vorgestellter weiterer Fall zeigt die Problematik mit speziellem Bezug auf moralische Vorstellungen über menschliche und moralische Subjektivität und Verantwortung. Es handelt sich um den US Militärstützpunkt Ramstein in Deutschland, bei dem, »über so genannte Fernmelderelaisschaltungen […] die Steuerungssignale für Einsätze unbe- mannter Luftfahrzeuge«2 verlaufen. Da Ramstein auf deutschem Territorium liegt, trägt es eine fragliche Verantwortung für den globalen Drohnenkrieg, so zumindest lautete eine Klage einer NGO, die vor den Verwaltungsgerichten in Köln und Leipzig verhandelt wurde. Im Namen von Verwandten von Drohnen- opfern aus dem Jemen wurde von der NGO eine strategische Klage gegen die Bundesrepublik Deutschland erhoben. Die beiden empirischen Fallgeschichten zeigen, dass algorithmisch ver- netzte Praktiken und Mobilisierungen zu diffusen Akteursgrenzen führen, die neue Fragen nach kollektiver Verantwortung und normativer Teilhabe auf- werfen. Im Falle des Euro-Hawk-Skandals bezieht sich die maschinelle Steue- rungstechnik auf das Fahrzeug selbst, im Fall von Ramstein auf die gesamte handlungsermöglichende Infrastruktur des Steuerungsnetzwerks jenseits der Fahrzeuge. Im ersten Fall verläuft die zonale Richtung nach zugehöriger Handlungsträgerschaft in Richtung eines ›zooming in‹, in dem zweiten Fall in Richtung eines ›zooming out‹ (Junk/Rauer 2015). Ziel dieses Aufsatzes ist es ein soziologisches Konzept von mobilisierenden Algorithmen zu entwerfen, das über ein bloßes mathematisches oder digitales Verständnis hinausgeht und Algorithmen allgemeiner als soziale Praxis be- greift, die auf Interobjektivität (Rauer 2012a) beruht. In diesem Sinne stellen 2 | www.tagesschau.de/wir tschaft/drohnen-135.html (zuletzt aufgerufen am 29.12. 2016). 192 Valentin Rauer Algorithmen eine Infrastruktur bereit, mit der Maschinen und Objekte über Sensoren vermittelt miteinander interagieren, ohne dass es menschliche Ent- scheidungen oder Kontrollen bedarf. Algorithmen bilden also den Kern einer zunehmenden interobjektiven Autonomisierung. Diese Autonomie mag an menschlichen freien Willen und Intentionalität erinnern, allerdings würde eine solche Gleichsetzung fehlleiten, wie im Folgenden gezeigt werden soll. algorithmen in mobilisierten objeK ten Im öffentlichen Diskurs werden physische Objekte als Drohnen bezeichnet, wenn es sich um sensorgestützte Systeme handeln, die in der Lage sind, ohne direkte menschliche Intervention situativ zu entscheiden und zu interagieren. Dies umfasst eine breite Palette von Geräten, von einfachen ferngesteuerten Gadgets mit minimaler sensorisch vermittelter Selbststeuerung hin zu Robo- tern, die in der Lage sind, auf spezifische Reize ihrer Umwelt interaktiv zu reagieren. Gleichwohl, sind viele dieser Maschinen lediglich Varianten lang bekann- ter ferngesteuerter Flugzeuge, Züge, Boote oder Autos. Warum hat sich den- noch der Begriff ›Drohne‹ oder ›unmanned area vehicle‹ (UAV) etabliert? Ist diese Bezeichnung lediglich Folge einer industriellen Werbekampagne oder ein Resultat von Medienhypes um scheinbar Neues? Die Antwort auf diese Frage ist, dass es trotz dieses Hypes auch einen soziologischen Grund gibt, warum eine solche Bezeichnung Bedeutung erlangen konnte: Die Aktivierung eines technischen Objektes qua Algorithmen lässt diese Objekte wie ein hybri- den, passiv-aktiven Akteur erscheinen. Bislang hat das Konzept der Algorithmen wenig Beachtung in den klassi- schen Sozialwissenschaften gefunden. Sogar in Studien, in denen es explizit um digitale Navigationssysteme geht, werden Algorithmen noch nicht einmal erwähnt (November/Camacho-Hu/Latour, 2010). Als eine exzeptionelle Pio- nierin auf dem Gebiet kann die Dissertation von Bettina Heintz aus dem Jah- re 1991 gelten (Heintz 1993). In dem Buch thematisiert sie Algorithmen nicht als eigenständiges Konzept, sondern eher im Zusammenhang der Geschichte des Computers und der Mathematik in Relation zu entscheidenden Gründer- figuren wie Alain Turing. Für Heintz steht die von Turing entworfene Idee der Maschinenlesbarkeit von Zeichensystemen im Vordergrund der soziolo- gischen Bedeutung. Praxeologische oder gar handlungstheoretische Aspekte von maschinenlesbaren Algorithmen erörtert sie nicht. Weiterführend und dabei an die jüngeren Ansätze der letzten Jahre an- schließend (Beer 2009; Vries 2010; Introna 2011; Marres 2012; Knowles/ Burrows 2014), soll hier im Folgenden das Argument vertreten werden, dass Algorithmen nicht nur als rationales Entscheidungshandeln oder digitale ma- 8. Drohnen: zur Materialisierung von Algorithmen 193 schinenbasierte künstliche Intelligenz zu deuten ist, sondern vielmehr als eine distinkte Interaktions- und Kommunikationspraxis, die indexikale Interaktion in weiträumig zerdehnten Situationen ermöglicht. Insofern sind Algorith- men als eine Unterform allgemeiner performativer Praktiken zu verstehen, zu denen u.a. Rituale, Narrative und andere symbolische Handlungen zählen (Alexander 2006a). Wie Performanzen im Allgemeinen, prä-formieren Algo- rithmen interaktive Handlungsketten. Tarleton Gillespie (2014) weist darauf hin, dass Algorithmen öffentliche Relevanzstrukturen prägen, politische Akteure und Sichtweisen durch Indi- zierung in einer Debatte inkludieren oder exkludieren, Aufmerksamkeitszy- klen vorhersagen, Objektivität und Neutralität suggerieren und Politik durch Adaption an die Relevanzstrukturen prägen. Des weiteren sind sie am »digi- talen Strukturwandel der Öffentlichkeit« beteiligt (Thiel 2016: 7) und präsen- tieren der Öffentlichkeit ein quantifiziertes Bild von sich selbst. Diese Liste zeigt, dass Algorithmen nicht einfach nur Daten produzieren, selektieren oder aggregieren, sondern auch kulturelle Identitäten und imaginäre Bedeutungs- formationen generieren. Ähnlich wie analoge Symbolketten, narrative My- then und rituelle Performanzen, generieren Algorithmen also auch kollektive Selbstbilder, organisieren Erfahrungen, bewerten Realitäten und kreieren so- ziale Beziehungen. Doch was ist nun das Distinkte der Algorithmen? In mathematischen und informationswissenschaftlichen Abhandlungen werden Algorithmen sehr all- gemein als »Prozedur«, eine »Methode« oder eine Liste von »Instruktionen« zur »Problemlösung« bezeichnet (Simonson 2011: 93). Dieses Verständnis von Algorithmen beschränkt sich nicht rein auf mathematische Kontexte oder auf ihre Funktion als lesefähige »Papiermaschinen« in der Geschichte des »Com- puting« (Heintz 1993: 63ff). Vielmehr umfasst das Konzept ein gesamtes Spek- trum an interaktiven Methoden und Prozeduren zur Lösung spezifischer Pro- blemstellungen. Ob analoge oder digitale Methoden verwendet werden und welchen Präskriptionen gefolgt wird ist genauso wenig apriori festgelegt, wie die Verwendung einer bestimmten Programmiersprache (Anderson 2013). Insgesamt sind Algorithmen also weder auf Informationstechnologien oder Online-Praktiken beschränkt, noch sind sie reduzierbar auf Program- miersprachen oder Maschinenlesbarkeiten. Gemeinsam ist den verschiedens- ten algorithmischen Ausprägungen vielmehr, eine spezifische Praxis von Pro- blemlösungswegen aufzuzeigen. Die Lösungswege können mathematische, digitale oder technologische Prozesse beinhalten, müssen es aber nicht not- wendiger Weise. Auch wenn dieses Verständnis theoretisch häufiger hervor- gehoben worden ist (Vöcking 2011; Gillespie 2014: 1), fehlen bisher konkrete, an empirischen Fallgeschichten orientierte Konzeptualisierungen. Eine solche Konzeptualisierung enthält der folgende Abschnitt. 194 Valentin Rauer algorithmen in der maritimen funKKommuniK ation Die Verwendung von Algorithmen bei räumlich mobilen, interaktiven Objekten gibt es bereits vor der Erfindung von Drohnen. Die bemannte Luft- und Seefahrt kennt seit langer Zeit Praktiken, die Interaktions- und Kommunikationsproble- me in räumlich distanzierten sozialen Situationen algorithmisch lösen. Das zu lösende Kommunikationsproblem des Funkverkehrs besteht in der räumlichen Distanz, die es verunmöglicht, die in Face-to-Face-Interaktionen sonst üblichen indexikalen Gesten (Wittgenstein 1969) zu verwenden. Spre- cher und Adressatenrollen werden bei mehr als zwei Interaktionspartnern qua Gesten und Blicken zugewiesen. Diese indexikalen Komplexitätsreduktionen können in räumlich weit distribuierten Situationen, d.h. in Face-off-Face-Situ- ationen aufgrund des fehlenden unmittelbaren Sichtkontakts nicht mehr ge- nutzt werden. Statt den Adressaten eines Sprechaktes anzublicken oder mit einer Geste auf ihn verweisen, müssen daher indexikal äquivalente Marker ver- wendet werden. Funkalgorithmen treten an die Stelle der deiktischen Gesten und lösen das Indexikalitätsproblem von Face-off-Face-Situationen. Funkalgorithmen sind rein auditiv. Der auditive Algorithmus bedient sich einer vorab von allen in der Situation Anwesenden bekannten kodier- ten Sprechweise. Diese Kodierungen regeln die Fragen, wer bei welcher Si- tuationsdefinition sprechen darf und antworten muss, und wer nur zuhören soll oder nur bei Bedarf und expliziter Aufforderung sprechen darf etc. Wenn beispielsweise eine Situation als ›Notfall‹ (›Mayday‹) definiert wird, dann hat dies andere Interaktionsregeln und Sprecherrollen zur Folge als bei Routine- situationen (›Sécurité‹). Diese Regularien sind vorab festgelegt und von allen gewusst. Beispielsweise bestimmen Algorithmen auch welche Inhalte über dritte Vermittler weitergeleitet werden müssen und wie dies zu realisieren sei. Solche Funkalgorithmen heißen dann beispielweise ›Mayday Relay‹. Das Relay definiert einen Knotenpunkt als Mittler in einer Interaktionskette zwischen Sprecher und Adressaten, wenn letztere aufgrund zu großer Distanzen physi- kalisch nicht miteinander funken können (bei der analogen UKW Funk hängt die Reichweite von der Antennenhöhe und Erdkrümmung etc. ab). Die algorithmischen Konventionen generieren die kommunikative Gewiss- heit, die sonst visuell gestisch, d.h. deiktisch hergestellt wird. So helfen die analogen Funkalgorithmen beispielsweise dabei, das berühmte ›bystander‹ Problem zu lösen. Dabei handelt es sich um ein Problem unterlassener Hilfe- leistung, wenn mehrere Akteure in einer Situation wissen, dass andere Ak- teure ebenfalls Hilfe leisten könnten. Verbunden über eine Telefonkonferenz, beispielsweise, konnten sich die Akteure nicht sehen, dies führte dazu, dass niemand Hilfe anbot. Bei dyadischen Interaktionssituationen oder im Falle von vollständiger Sichtbarkeit der gesamten Interaktionssituation ist das Prob- lem sehr viel seltener (Latane/Darley 1968). 8. Drohnen: zur Materialisierung von Algorithmen 195 Übertragen auf die Funksituation auf See bedeutet diese, dass, wenn ein Sprecher ›Mayday‹ funkt und mehrere Empfänger wissen, dass diesen Funk- spruch mehrere Empfänger hören können, dass sie nicht antworten, weil ja auch jemand anders antworten könnte. Die Funkalgorithmen lösen dieses Problem, indem sie stets vorschreiben, wer wie und wann antworten muss und wer nur zuhören muss.3 Verantwortungsübernahme ist situationsadäquat organisier- und adressierbar, trotz fehlender deiktischer Interaktionsmöglich- keit der beteiligten Akteure. Situationsdefinitionen leiten die Interaktionssi- tuation ein und bestimmen den jeweiligen Algorithmus, nach dem sich alle richten müssen. Situationen können als Notlage (›Mayday‹), als Gefahrenlage (PanPan) oder als Sicherheitsinformation (›Sécurité‹) definiert werden. An- schließend werden der Name des Schiffes, Personen an Bord, die Position, das inhaltliche Problem was es zu lösen gilt, und welche Art der Hilfe zur Prob- lemlösung benötigt wird. Diese analogen Funkalgorithmen stellen eine kommunikative Infrastruk- tur bereit, die ähnlich wie deiktische Gesten unter verschiedenen Akteuren Verantwortlichkeiten zuschreibt, und Verständigungskosten zeitlich mini- miert. Obwohl sich die Interaktanten nicht sehen können und sich nicht ken- nen, wird algorithmisch eine individuelle indexikale Interaktion ermöglicht. Dieses analoge algorithmische Verfahren erlaubt individuelle bilaterale Kom- munikation genauso wie multilaterale Kommunikation von einem Sender zu allen Empfängern in Reichweite. Die Digitalisierung dieser Funkalgorithmen verwenden später Computer und das World Wide Web mit Protokollen und IP Adressen, die ebenfalls bilaterale oder multilaterale Interaktionen ermög- lichen. Funkalgorithmen nehmen interaktionslogisch also das World Wide Web vorweg. Die detaillierte Adressierung der Sprecher und Kodifizierung der Empfängerreaktionen je nach Situationsdefinition vermindert die Gefahr diffuser Verantwortlichkeiten. Ein Algorithmus bestimmt den nächsten und kreiert damit eine intersubjektive Situation die ohne deiktische Unterstützung auskommt. Diese algorithmische koordinierte Kommunikation könnte an Herbert Blumers ›symbolische Interaktion‹ erinnern (Blumer 1969). Allerdings hat sich Blumer nicht für die Lösung des Problems diffuser Verantwortlichkeiten interessiert, sondern für die interaktive Generierung und wechselseitige Ver- ständigung über Interpretationsmuster und Konventionen. Klassische analoge Kommunikationsalgorithmen sind keine solche Interpretationsmuster und Konventionen, vielmehr initiieren sie ein Netzwerk von Referenzen, durch das die räumliche Reichweite von Interaktionssituationen erweiterbar wird. Diese algorithmisch generierten Netzwerke sind nicht auf digitale Technologien an- 3 | Vgl. beispielsweise: www.transport.wa.gov.au/imarine/marine-radios.asp (zuletzt aufgerufen am 11.12.2015) 196 Valentin Rauer gewiesen, sondern ermöglichen als allgemeiner Typus kommunikativen Han- delns soziale Addressierbarkeit und Interaktivität. In ihrer Untersuchung zu webbasierten Interaktionsmedien schlagen Karin Knorr-Cetina und Urs Bruegger (2002) den Terminus ›globale Mikro- strukturen‹ vor, um auf die räumliche Expansivität von Interaktionssituatio- nen aufmerksam zu machen. In einer späteren Publikation hat Knorr-Cetina den Begriff der ›synthetischen Situation‹ eingeführt, um auf die Ko-Präsenz räumlich weit entfernter Interaktionspartner zu verweisen. Stefan Hirschauer (2014) hat solche Situationen kürzlich mit dem Terminus der ›Intersituativität‹ bezeichnet. Die hier vorgestellten analogen Algorithmen zielen ebenfalls auf solche räumlich distanzierten, Face-off-Face-Interaktionssituationen, jedoch zielen sie weniger auf die Endprodukte auf den Bildschirmen, sondern auf die Ermöglichungsbedingungen intersituativer Interaktionen. Analoge Algorith- men sind die kommunikationstheoretische Vorform, auf die das digitale Inter- net aufbauen konnte. Nicht die Inhalte des kommunikativen Handelns stehen im Vordergrund, sondern die kommunikativen Ermöglichungsbedingungen deiktischer Gewißheit in Face-off-Face-Situationen. das VersPrechen der autonomie Analoge algorithmische Kommunikation wird von Menschen vollzogen, lässt sich jedoch auch ohne Komplexitätsverlust durch Maschinen digitalisieren. Analoger Funkverkehr wird inzwischen von dem so gennannten ›digitalen Selektivruf‹ (›digital selective calling‹, DSC) ersetzt. Digitale Algorithmen er- setzen also allgemein menschliches kommunikatives Handeln. Diese Maschi- nisierung des Handelns hat inzwischen zur Folge, daß die Maschinen einen immer höheren Grad an Entscheidungsautonomie haben. Den Menschen bleibt zunehmend nur noch eine Überwachungs- und Kontrollfunktion. Diese vollständig autonomen Agenten scheinen mehr Verlässlichkeit und Vorhersag- barkeit als menschliches Handeln zu versprechen. Doch nicht in allen Situationen scheint eine solche Autonomisierung der Maschinen unproblematisch. So werden beispielsweise autonome Waffensys- teme von Informatikern als ›Kalaschnikows von Morgen‹4 bezeichnet, um dar- 4 | Dies ist ein Zitat aus einem offenen Brief von KI und RobotikwissenschaftlerInenn: »Autonomous Weapons: An Open Letter from AI and Robotics Researchers«, welches in der vollen Länge folgendermaßen lautet: »Autonome Waffen selektieren und ergreifen Ziele ohne menschliche Intervention. Dabei könnte es sich zum Beispiel um bewaffnete Quadrocopter handeln, die Personen nach bestimmten, vordefinier te Kriterien aufsu- chen und eliminieren – dazu gehören jedoch keine Cruise-Missile Raketen oder fern- gesteuerte Drohnen, für die die Menschen alle Ziel-Entscheidungen treffen. Die Künstli- 8. Drohnen: zur Materialisierung von Algorithmen 197 auf aufmerksam zu machen, dass diese Systeme alltäglich in Konfliktregionen genutzt werden könnten und um gegen diese Entwicklung zu protestieren. Im Jahre 2014 hat die militärische Forschungsanstalt ›Defence Advanced Re- search Agency‹ (DARPA) Forschungsprojekte initiiert, die vollständige Bewe- gungsautonomie von UAVs ermöglichen sollen. Es gelte mit sensorgesteuerter, situativer Wahrnehmung von GPS-Daten unabhängig zu werden, beispiels- weise wenn sich die Fahrzeuge im Funkloch innerhalb von Häusern oder im Tauchgang befinden. Diese Systeme wären in ihren unmittelbaren interobjek- tiven Situationen autonom und könnten auch ohne Kontakt zu menschlichen Kontrolleuren interagieren. Entwickelt wird ein so genanntes ›adaptierendes Navigationssystem‹ (ANS). Es besteht aus: »new algorithms and architectures for […] sensors across multiple platforms [and] extremely accurate inertial mea- surement devices that can operate for long periods without needing external data to determine time and position«.5 Diese Autonomie solcher Maschinen ist selbstverständlich keine Autonomie im Sinne eines intentionalen freien Wil- lens, sondern eine situative interaktive Autonomie. Die Ziele selbst, beispiels- weise das ›Interesse‹ in ein Gebäude überhaupt einzudringen, werden vorab durch die Programmierung von Menschen bestimmt. Doch dieser Anteil des ›menschlichen‹ Interesses an den Maschinenpraktiken bleibt in der interob- jektiven Situation selbst unsichtbar. Was real wirkt, weil es sichtbar ist, ist die situative Autonomie der Maschine. Die Maschinen realisieren Autonomie als Vorführung, d.h. Performanz. Besonders eindrücklich wird dieser performativ imaginäre Effekt in Fällen, wenn zwei oder mehr Drohnen unabhängig von menschlicher Intervention miteinander interagieren, um eine von Menschen vorgegebene Mission auszu- führen, beispielsweise wie das vom US-Verteidigungsministerium veröffent- lichte Video zum Drohnenschwarm namens Perdix6. Die Videos von solchen Drohnenschwärmen ›führen‹ interobjektive Autonomie wie auf einer Video- bühne ›auf‹ – wohl aus propagandistischen Gründen – und öffnen damit einen che Intelligenz (AI)-Technologie hat einen Punkt erreicht, an dem der Einsatz autonomer Systeme – praktisch, wenn nicht auch rechtlich – innerhalb von Jahren, nicht Jahrzehn- ten möglich ist. Die die Einsätze sind hoch: autonome Waffen werden nach dem Schieß- pulver und den Atomwaffen als dritte Revolution in der Kriegsführung beschrieben.« Zuerst publizier t am. 28.07.2015, online lesbar: http://futureoflife.org/open-letter- autonomous-weapons (zuletzt aufgerufen am 18.01.2017, Übersetzung: V.R.). 5 | C4ISR&networks, ›After GPS: The Future of Navigation‹ www.c4isrnet.com/story/mili- tary-tech/geoint/2015/03/31/gps-future-navigation/70730572/, 31.03.2015 (zuletzt aufgerufen am 10.12.2015). 6 | ht t ps://w w w.defens e.gov/News/News - Releas e s/News - Releas e -V iew/Ar t ic le/1044811/depar tment-of-defense-announces-successful-micro-drone-demonstra tion (zuletzt aufgerufen am 10.01.2017). 198 Valentin Rauer kulturellen Raum für Imaginationen über die Existenz von Sozialität jenseits menschlicher Praktiken. Die Schwärme können zwar selbst ihre Bewegungsrichtung bestimmen, gleichwohl bestimmen weiterhin Menschen, welche Ziele erreicht werden sol- len. Den Weg zum Ziel können sie autonom bestimmen, das Ziel oder das Pro- blem, das gelöst werden soll, nicht. Die menschliche Rolle wird immer weiter von der Steuerung der Maschinen entfernt und beschränkt sich nur noch in der Zielbestimmung des kontrollierenden Monitorings. Die Interobjektivität selbst beruht auf der sensorbasierten Datengenerierung, deren Vernetzung und darauf aufbauenden jeweiligen Steuerungsalgorithmen. Die Autonomie ist also keine Zielbestimmungsautonomie, sondern eine interaktive Situations- autonomie. Die Grenzen dieser Autonomie werden allerdings immer dann diffus, wenn Lernalgorithmen in den Prozeß integriert werden. Lernalgorithmen sind in der Lage, stochastisch und non-linear die Kategorien der zu messen- den Relation selbst aus einer Menge aus Daten zu berechnen, d.h. die zu korrelierenden Kategorien werden nicht mehr extern vorgegeben, sondern selbst aus der Datenwolke errechnet. Welcher menschliche Akteur für diese lernalgorithmisch ermittelten Ergebnisse dann noch verantwortlich wird, ist nicht mehr unmittelbar ersichtlich. Es entsteht eine Verantwortungslücke im Interaktionsnetzwerk, oder wie es im englischen Original heißt ein ›respon- sibility gap‹ (Matthias 2004; siehe auch Arkin 2007). Gleichwohl sind in der Regel die Betreiber einer Maschine für deren Schaden verantwortlich, auch wenn sie den Unfall nicht schuldhaft herbeigeführt haben. Dennoch bleibt ein Rest, wenn die Maschine eine von dem Betreiber nicht vorher absehbare Entscheidung getroffen hat, ob dann nicht doch das Netzwerk der Hersteller und Programmierer oder der Datenträger mitverantwortlich sind. Diese Ver- antwortungslücke bleibt offen. In diesem Sinne werden menschliche Akteure graduell wie es heißt aus dem ›loop‹, d.h. aus dem unmittelbaren Handlungsprozess genommen (Sin- ger 2015). Die Maschinen erscheinen immer humanoider, d.h. menschenähn- licher (Lucas 2013). Doch die algorithmische Autonomie ist und bleibt eine sozial ›zugeschrieben Handlungsträgerschaft‹ (Schulz-Schaeffer 2007). Abge- wandelt formuliert: Wenn Autonomie den Objekten zugschrieben wird, so hat diese Zuschreibung reale soziale Effekte. Dieser Effekt wurde im Zusammenhang mit den öffentlichen Repräsen- tationen von statistisch wahrscheinlichen Zusammenhängen beschrieben. Wenn der Rückgang von Storchpopulationen mit dem Geburtenrückgang kor- reliert, heißt dies nicht, dass der Storch die Babys bringt (Höfera/Przyrembel/ Verlegerc 2004, 88). Ähnlich wirken algorithmisch errechnete Wahrschein- lichkeiten aus Big Data. Auch wenn die Statistik korrekterweise als auf Wahr- scheinlichkeiten basierendes Wissen vorgestellt wird, wirken diese Graphiken 8. Drohnen: zur Materialisierung von Algorithmen 199 performativer als wenn sie etwas über Kausalitäten, Objektivitäten und Wahr- heiten offenbaren würden (Rauer 2012b). Gillespie nennt diesen Effekt mit Be- zug auf das Internet das ›Versprechen algorithmischer Objektivität‹ (Gillespie 2014: 2; Übersetz. V.R.). Beispielsweise ist das Ranking von Suchmaschinen bekanntermaßen nicht streng objektiv, sondern durch vielfache Faktoren be- einflusst. Suchalgorithmen wie PageRank besitzen eine eigene »Handlungs- macht« (Lupton 2015: 102), gleichwohl erweckt es den Anschein, als ob die Er- gebnisse nur nach der Relevanzstruktur der Suchenden erfolgen. Die Kultur des Objektiven als Verfahrensperformanz findet sich auch in anderen Kontex- ten seit dem 19. Jahrhundert. (Daston2007). Soziologisch ist der ›PageRank‹ Algorithmus also auch im Sinne des Thomas Theorem zu definieren: Wenn Suchalgorithmen Antworten auf Benutzerfragen als relevant definieren und listen, dann sind sie in ihren Konsequenzen sozial relevant. Diese performative Wirkung von algorithmisch mobilisierenden Objekten soll im Folgenden an zwei Beispielen erläutert werden. Es handelt sich jeweils um eine juristisch umstrittene Handlungsträgerschaft von drohnengestützter Mobilität: das Euro-Hawk-Projekt und die strategische Klage gegen die Nut- zung des Standortes Ramstein durch die US-Drohnenkampagnen. Solche Konflikte ermöglichen einen sonst eher seltenen empirischen Einblick (La- tour 2006) in die infrastrukturell bedingte Zuschreibung von Autonomie und Menschenähnlichkeiten in komplex verteilten Handlungsformationen. der fall ›euro haWK‹ Während der 2000er Jahre kam es in den Medien zu einer Skandalisierung um eine gescheiterte Beschaffungsmaßnahme des Bundesverteidigungsmi- nisteriums. Angeschafft werden sollte ein Aufklärungsflugzeug zur Grenz- sicherung etc. Der Plan war, die bemannten Flugzeuge durch unbemannte Fluggeräte zu ersetzen. Bestellt wurde ein Prototyp des so genannten ›Global Hawk‹, der in den USA produziert wurde. Die Aufklärungstechnologie sollte in Europa eingebaut werden. Bereits die erste Reise des Prototyps von Amerika nach Europa endete im Fiasko. Weil die Drohne über keine für den Überflug von bewohnten Gebieten notwendige Fluggenehmigung verfügte, musste sie einen erheblichen Umweg fliegen. Nach dem Start in Kalifornien flog sie zu- nächst westlich zum Pazifik, von dort nach Norden um dann den amerikani- schen Kontinent über Nord-Kanada zu überqueren. Nach dem Überflug von Grönland und dem Nordatlantik flog sie mit einer Sondergenehmigung nach Manching in Bayern. Wovon erzählt diese Geschichte? Die Fluggenehmigungen waren verwehrt worden, weil die Drohne über kein ›sense and avoid‹ System verfügte, also kein 200 Valentin Rauer automatisches Kollisionsverhütungssystem.7 Solche auf sensorgesteuerten interaktiven Steuerungsalgorithmen beruhenden Systeme etablieren im Be- gegnungsfalle interaktive Kommunikationsrelationen, die dazu führen, dass die Steuerung jeweils in der Nähe fliegender Objekte interaktiv und automa- tisch aufeinander abgestimmt wird, um Kollisionen zu vermeiden. Wenn ein Fluggerät nicht über eine solche autonome Interaktionsfähigkeit verfügt, stellt es ein Sicherheitsrisiko für die gesamte Luftverkehrsordnung dar. Das Fehlen eines solchen sensorisch gesteuerten autonomen Interaktionssystems erwies sich während des Fluges als problematisch, weil zeitweise der Funkkontakt zu dem fernsteuernden Piloten abbrach. Das Flugobjekt wurde in diesen Momen- ten zu einem blind fliegenden Sicherheitsrisiko für das Fluggebiet. Da ein Einbau solcher Systeme wohl mehrere Jahre benötigen würde und aufgrund anderer Fehlkalkulationen, beendete das Verteidigungsministerium das Projekt. Je nach Schätzungen betrug der Verlust zwischen 0.5 und 1.5 Mrd. EUR.8 Im Nachgang wurde ein parlamentarischer Untersuchungsausschuss eingerichtet. Der Ausschuss prüft das Projekt zur »[…] unter vertraglichen, rechtlichen, haushälterischen, militärischen, technologischen und politischen Gesichtspunkten«.9 Der Ausschuss untersuchte vielfältige Probleme u.a. die Rolle der NSA bei spezifischen Bauteilen, die Problematik der verwaltungs- technischen Defizite und einer fehlenden »Verantwortungskultur«10. Die al- gorithmische Problematik wurde beispielsweise von einem Experten explizit erläutert: »›Euro Hawk‹ startet in einem für den übrigen Flugverkehr gesperr- ten Luftraum. […] Für die Landung werde das gleiche Prozedere angewandt […]. Für die uneingeschränkte Zulassung einer unbemannten Drohne für den gesamten Luftverkehr werde hingegen ein automatisches Antikollisions- system benötigt.«11 Dieses Statement könnte als eine einfache Expertenmei- nung zur fehlenden Ausrüstung gewertet werden, sie weist aber auch darüber hinaus. Die Tatsache, dass überhaupt darüber debattiert werden muss, zeigt, wie sich aufgrund algorithmischer Interaktionstechnologien das Verständnis 7 | Diese Systeme sind in den USA, Kanada und der EU eingeschränkt vorgeschrieben: w w w.defensenews.com/stor y/defense/air-space/isr/2015/01/16/germany-euro- hawk-uas-/21799109/ (zuletzt aufgerufen am 16.01.2015). 8 | w w w.bundestag.de/dokumente/tex tarchiv/2013/46097693_k w30_ua_euro- hawk_anhoerung/213238 (zuletzt aufgerufen am 24.11.2015). 9 | ht tps://www.bundestag.de/blob/194568/9d86fc9080a1bd508973e161679b 50d4/der_verteidigungsausschuss_als_untersuchungsausschuss-data.pdf (zuletzt aufgerufen am 12.01.2016). 10 | www.bundestag.de/dokumente/textarchiv/2013/46097693_kw30_ua_euro- hawk_anhoerung/213238, (zuletzt aufgerufen am 24.11.2015). 11 | www.bundestag.de/dokumente/textarchiv/2013/46097693_kw30_ua_euro- hawk_anhoerung/213238 (zuletzt aufgerufen am 24.11.2015). 8. Drohnen: zur Materialisierung von Algorithmen 201 von der Relation zwischen menschlichem und nicht-menschlichem Handeln verschiebt. Die Grenze verändert sich disruptiv. Was gestern noch eine rein menschliche Tätigkeit war, ist morgen schon Aufgabe einer Maschine. Für Mi- nisterien und Verwaltungen sind solche disruptiven Veränderungen ein Prob- lem, weil vorab noch keine Verfahren zur Planung existieren. Dieser eher teure, aber politisch unbedeutende Fall interessiert hier aber nicht wegen seiner verwaltungstechnischen Implikationen, sondern aufgrund der Sichtbarkeit einer veränderten Ordnung mobiler Interaktionen und Ver- antwortlichkeiten. Mobilisierende Algorithmen haben also nicht nur technolo- gische, sondern auch soziologische sowie kulturelle Bedeutung. Menschen gel- ten als letztverantwortlich für Maschinen, daher steuern sie die Drohnen fern. Aber diese Fernsteuerungen können unterbrochen werden. In solchen Fällen müssen die Maschinen selbstverantwortlich ohne menschliche Entscheidun- gen selbst entscheiden. Zwar gilt dies nur für unvorhergesehene Interaktions- situationen. Die Ziele und Motive der Bewegungen bleiben den Menschen vor den Bildschirmen und den skopischen Medien (Knorr-Cetina 2005) vorbehal- ten, doch die Zone der nicht-menschlichen Anteile an der mobilisierten räum- lich interaktiven Bewegung wird stetig größer. Algorithmen ersetzen zuneh- mend Intersubjektivität mit Interobjektivität. Das Projekt scheiterte wohl aus multiplen Gründen – vermutlich war jedoch eines der Hauptprobleme letzt- lich, das alleinige Vertrauen in Intersubjektivität und die daraus resultierende absolute Abhängigkeit der Drohne von fernsteuernden Menschen.12 An dieser Problematik wird eine wichtige Differenz zu dem deutlich, was bisher als synthetische Situation, skopische Medien oder Intersituativität be- schrieben wurde (Knorr-Cetina 2009; Hirschauer 2014). Alle diese Konzepte beschreiben das Verhältnis von räumlich getrennten Situationen, in denen je- doch jeweils menschliche Akteure an den Repräsentationsmedien sitzen und die gesendeten Inhalte bewerten. Bei solchen telemedialen Situationen befin- det sich Person A in Situation a, Person B in Situation b, Person N in Situation n. Die Telemedien vermitteln zwischen diesen Situationen und erzeugen eine synthetische Situation Aa+Bb+Cc. In den hier beschriebenen Situationen han- delt es sich nicht um eine synthetische, sondern um eine katalytische Situation und zwar im Sinne von »katalýein‹ (καταλύειν) ›losmachen, -binden.«13 Teile der sozialen Situationen werden aus der räumlichen unmittelbaren Umgebung ›losgebunden‹ und weit entfernt weiter vollzogen. Aus einer Face-to-Face-Situa- tion wird eine Face-off-Face-Situation, ohne dass die indexikalen Gewissheiten des hic et nunc ihre Bedeutung verlieren. Vielmehr ist die Indexikalität mo- 12 | Inzwischen finden sich Versuche das Projekt zu revitalisieren: www.merkur.de/ politik/euro-hawk-ersatz-kostet-ueber-halbe-milliarde-euro-zr-5254055.html (zuletzt aufgerufen am 26.11.2015). 13 | https://www.dwds.de/wb/katalytisch (zuletzt aufgerufen am 13.01.2017). 202 Valentin Rauer bil geworden und aus der räumlichen Unmittelbarkeit der Interaktanten ›ent- bunden‹. Damit trennt sich Gewissheit von der menschlichen Deixis ab. Die situativen Katalysatoren, also die situativen ›Trenner‹ sind die Algorithmen. Sie ersetzen die Deixis entweder durch sprachliche Konventionen wie im ana- logen Seefunk oder durch sensorborbasierte Interaktionssoftware wie im un- bemannten Luftverkehr. Katalytische Situationen sind also in gewisser Weise das Gegenstück von synthetischen Situationen. Indexikalität und menschliche Akteure können räumlich getrennt voneinander operieren. Nicht Menschen kommunizieren mit Menschen räumlich getrennt, wie in der synthetischen Si- tuation, sondern menschliche Gewissheitstechnologien mit anderen mensch- lichen Gewissheitstechnologien. Teile der Situation haben sich herausgelöst und werden an einem anderen räumlichen Ort vollzogen, ohne dass dort ande- re Menschen anwesend sein müssen. Um es zu wiederholen: Diese Autonomie nicht-menschlicher Interaktion ist keine Autonomie im Sinne des freien Wil- lens und der Intentionalität. Es ist eine räumliche entbundene Entscheidungs- kompetenz. Gleichwohl irritiert diese interobjektive Autonomie, weil sie die Vorstellung von den Grenzen menschlicher Interaktionsfähigkeit verschiebt. Über die daraus resultierenden Folgen handelt der nächste Abschnitt zum Fall ›Ramstein‹. der fall r amstein In Folge der Terroranschläge vom 11. September 2001 entwickelte die USA eine Strategie von Gegenmaßnahmen, dem so genannten ›War an Terror‹, bei der u.a. tödliche Drohnenangriffe gegen führende Terroristen eingesetzt wurden (Schörnig 2010; Williams 2013; Krassmann 2014; Strawser 2013; Chamayou 2015). Die USA hatte eine zweifache Strategie entwickelt, bei der Drohnen so- wohl innerhalb als auch außerhalb von Kriegsgebieten zum Einsatz kamen. Für die Einsätze jenseits der Kriegsgebiete war vor allem die ›Central Intel- ligence Agency‹ (CIA) zuständig (Sterio 2012). Aus der Perspektive des inter- nationalen Völkerrechts sind die Einsätze außerhalb von Kriegszonen proble- matisch, weil es unklar ist, ob die Einsätze im Rahmen eines Krieges oder der Kriminalitätsbekämpfung erfolgen. Die auch ›targeted killing‹ genannten Ein- sätze verwischen die Grenze zwischen »Krieg und Kriminalitätsbekämpfung wie keine andere Taktik zuvor« (Blum/Heymann 2010: 150, Übersetzung V.R.). Wenn Geheimdienste Krieg führen, ist eine öffentliche zivilgesellschaftliche Auseinandersetzung über die Kriegsziele und friedenspolitischen Alternati- ven erheblich erschwert (Daase 2010). Fragen der politischen und moralischen Verantwortlichkeit sind kaum noch an konkrete Akteure adressierbar. Auf dieses Dilemma haben Nicht-Regierungsorganisationen (NGO’s) reagiert und versucht, mit einer so genannten ›strategic litigation‹, d.h. einer strategischen 8. Drohnen: zur Materialisierung von Algorithmen 203 gerichtlichen Klage Adressaten zu benennen und öffentliche Sichtbarkeit zu generieren (Fuchs 2013). Die NGOs kontaktieren Familien von Drohnenopfern und unterstützen sie bei einer Klage gegen die Drohnen einsetzenden Staaten. Bisweilen wird auch von Seiten der NGOs selbst geklagt, und die Familienmit- glieder als potentielle Zeugen werden nach Europa oder den USA eingeflogen. Das Ziel strategischer Klagen ist nicht in erste Linie eine Klage zu gewinnen. Das Ziel ist bereits erreicht, wenn die Verhandlungen eine öffentliche Wahr- nehmung über die rechtlichen und moralischen Implikationen initiieren. Öffentliche Narrative und Bilder über den Gebrauch von militärischen Mitteln und körperlicher Gewalt haben einen erheblichen Effekt innerhalb der Auf- merksamkeitsökonomie der Zivilgesellschaft (Alexander 2006c; Giesen 2006). Zivilgesellschaften sind dabei die entscheidenden kollektiven Akteure, die neben staatlichen Institutionen normative Unterscheidungen in ›falsch/ richtig‹ öffentlich adressieren und artikulieren (Mast 2011). Die Klagestrategie ist damit sowohl ein Instrument der Mobilisierung der zivilgesellschaftlichen Öffentlichkeit, als auch eine Strategie Formen unsichtbarer Viktimisierung zur Sichtbarkeit zu verhelfen. Bereits die Annahme einer Klage durch ein Ge- richt ist damit ein Erfolg, der Prozessausgang ist nicht entscheidend. Die in London ansässige ›Reprieve‹-Gruppe14 des European Center for Constitutional and Human Rights (ECCHR)15 aus Berlin hat inzwischen eine ganze Reihe an Versuchen unternommen, um die Gerichte zur Annahme einer Klage zum Drohnenthema zu bewegen. Einer dieser Versuche aus dem Jahre 2015 war erfolgreich. Das Kölner Verwaltungsgericht akzeptierte eine Klage des ECCHR gegen die Bundesrepublik Deutschland, im Namen von Ver- wandten jemenitischer Drohnenopfer anlässlich eines US-Drohnenangriffes im Jemen. Die Entscheidung war bemerkenswert: Wie wurde es möglich, dass ein deutsches Gericht ein Verfahren für einen Fall eröffnet, der sich nicht auf deutschem Territorium ereignete und bei dem keine deutschen Staatsbür- ger und Staatsbürgerinnen beteiligt waren? Die Antwort ist der Tatsache ge- schuldet, dass entscheidende Bestandteile der algorithmischen Infrastruktur des amerikanischen Drohnenprogrammes auf der amerikanischen Militär- basis Ramstein in Deutschland stationiert sind. Diese Information stammt von dem ehemaligen US-Drohnenpiloten und Whistleblower Brain Brant. In Ramstein ist eine Satelliten-Relais-Station lokalisiert, eine Technik, die für die transatlantische Mobilisierung von Kampfdrohnen wichtig ist. Ein Teil der Handlung ereignet sich daher auch auf deutschem Hoheitsgebiet. Aufgrund dieser Tatsache war das Gericht offenbar bereit, die Klage anzunehmen. Letzt- lich wurde die Bundesrepublik zwar freigesprogchen, doch wie gesagt geht es 14 | www.reprieve.org.uk/ (zuletzt aufgerufen am 09.12.2015). 15 | www.ecchr.eu/de/home.html (zuletzt aufgerufen am 20.08.2015). 204 Valentin Rauer bei strategischen Klagen durch zivilgesellschaftliche Akteure weniger darum, sondern um die öffentliche Wahrnehmung. Für die Fragestellung nach den algorithmisch induzierten Akteurskonzepten, den ›imagined Actors‹, ist es aufschlussreich, wie das Gericht in der Urteilsbegründung die Handlungs- trägerschaft des Satelliten-Relais darstellte und bewertete. Diese Bewertungen sind als performative Sprechakte der Zuschreibung von Handlungsträger- schaft und potentiellen Verantwortungen zu verstehen. Zuschreibungen fin- den sich in den zusammengefassten Positionen der Anklage und der Vertei- digung. Die Positionen der Anklage gegen die Bundesrepublik Deutschland offen- baren eine Reihe von solchen Zuschreibungen. So erläutert einer der Kläger seine eigene Rolle während des Drohnenangriffs wie folgt: »[…], mein Neffe, und […] mein Schwager wurden bei einem Drohnenangrif f auf unser Dorf am 29. August 2012 getötet. Fünf Tage bevor er getötet wurde, hatte Salim in seiner Freitagspredigt gegen al-Qaida gepredigt. […]. 4. Da niemand für die Drohnenangrif fe Verantwortung übernimmt, und es deshalb keine öffentlichen, zentralisier ten Aufzeich- nungen gibt, ist es unmöglich, genau zu ermitteln, wie viele Drohnenangrif fe sich ereig- net haben. Außerdem ist es unmöglich zu wissen, wie viele Menschen genau gestorben sind und ob sie die beabsichtigten Ziele der Angrif fe waren. Der gesamte Prozess ist sehr geheimnisumwoben. Das ist einer der Gründe, weshalb Drohnen so furchteinflö- ßend sind: Wir wissen nie, wann oder wen sie angreifen werden, und weshalb jemand überhaupt als Ziel eingestuft wird. Deshalb ist es unmöglich zu wissen, wie man sich oder seine Familie beschützen kann. […] Es ist, als lebten wir in einem ständigen Alp- traum, von dem wir nicht erwachen können. … die Drohnen (fliegen) immer noch und be- drohen unsere Leben. … Meine Tochter fürchtet seit dem Angrif f, der Salim und Waleed getötet hat, laute Geräusche und wurde durch die Er fahrung traumatisier t. Wie so viele andere, lebt sie in ständiger Angst.«16 Diese Erklärung verdeutlicht die Beziehung der Kläger zu den Opfern und beschreibt deren lokale Situation als ein Leben von permanenter Gefahr und permanenter Bedrohung. In dieser Erklärung spielen weder deutsches staat- liches Territorium noch deutsche Staatsbürger eine Rolle. Allerdings appelliert die Erklärung an das Prinzip der Grundrechte, die in Deutschland besonderen Schutz genießen und für sämtliche auch nicht-deutsche Staatsbürger gelten. Die Hürde der Annahme von Klagen ist bei Grundrechten niedrig. Damit ist eine der Voraussetzungen erfüllt, dass ein deutsches Gericht unabhängig vom 16 | European Center for Constitutional and Human Rights: Anhörung am 27. Mai 2015: Verwaltungsgericht Köln. Erklärung von Faisal Ahmed Nasser bin Ali Jaber. Online ver- fügbar unter www.ecchr.eu/de/unsere-themen/voelkerstraftaten-und-rechtliche-ver antwortung/drohnen/jemen.html (zuletzt aufgerufen am 01.09.2015.) 8. Drohnen: zur Materialisierung von Algorithmen 205 Territorium die Klage annehmen könnte. Allerdings finden sich auch Fälle, in denen die Verletzung von Grundrechten nicht ausreichen würde. Deutsche Gerichte sind selbstverständlich nicht für sämtliche Grundrechtsverletzungen zuständig. Sie negieren bisweilen sogar Fälle, bei denen deutsche Staatsbür- ger betroffen wären, wie beispielsweise im Falle des Drohnenopfers Bünyamin E.17. Was war also in diesem Fall ausschlaggebend für die Annahme des Falles? Es war die bereits genannte Beteiligung von Ramstein an der gesamten Inter- aktionskette des Drohnenflugs, die den Unterschied ausmachte. So heißt es unter der Überschrift ›Tatbestand‹ u.a.: »Die Drohnenpiloten hielten sich in den USA auf. Die Daten würden über Glasfaserkabel von den USA aus nach Ramstein/Deutschland übermittelt und von dort mittels einer Satelliten-Relais-Station an die Drohnen gefunkt. Der Drohnenpilot in den USA stehe dabei in ständigem Kontakt mit Kollegen in Ramstein. Wegen der Erdkrümmung sei eine Steuerung der Drohnen direkt aus den USA ohne die Satelliten-Relais-Station in Ram- stein nicht möglich. Die Satelliten-Relais-Station sei im Jahre 2010 errichtet worden, worüber die USA die Beklagte unterrichtet hätten.«18 Der ›Tatbestand‹ wird hier über die Konstruktionen eines mikroglobalen Ak- teurs konstituiert. Dieser Akteur ist allerdings nicht auf die jeweiligen Perso- nen zu reduzieren, die intersituativ vor den jeweiligen Bildschirmen sitzen. Das Akteursnetzwerk besteht vielmehr aus den fernsteuernden Piloten in den USA, der algorithmischen Infrastruktur in Ramstein und den Zielgebieten der Drohnen in Nahost. Damit konstituiert sich der Tatbestand auch über die technologische Infrastruktur der ›Satelliten-Relais-Station‹. Aufgrund der geo- graphischen Bedingungen wie der Erdkrümmung, kann eine analoge Funksi- tuation nicht aufgebaut werden. Um als soziale Situation bestehen zu können, ist die Satelliten-Relais-Station als algorithmische Infrastruktur auf bundes- republikanischem Hoheitsgebiet strukturell notwendig. Potentiell wird damit je nach Zuschreibung auch die Bundesrepublik Teil des vor Gericht zu ver- handelnden Tatbestands und zum Teilakteur. Denn wenn dieses mikroglobal verteilte Akteursnetzwerk Menschenrechte verletzt, dann trägt der Teilakteur, der dieses Netzwerk mitkonstituiert, auch eine juristische und moralische 17 | Vgl. www.generalbundesanwalt.de/docs/drohneneinsatz_vom_04oktober2010_ mir_ali_pakistan (zuletzt aufgerufen am 10.01.2016). Siehe auch www.ecchr.eu/de/ unsere-themen/voelkerstraf taten-und-rechtliche-verantwor tung/drohnen/pakistan. html (zuletzt aufgerufen am 10.01.2016). 18 | Verwaltungsgericht Köln, Ur teil vom 27.05.2015, Aktenzeichen 3 K 5625/14. Abs. 4 (hier und später nur als voller Absatz zitier t). Vgl. für den gesamten Text: www.justiz. nrw.de/nrwe/ovgs/vg _koeln/j2015/3_K_5625_14_Urteil_20150527.html (zuletzt aufgerufen am 10.02.2016). 206 Valentin Rauer Mitverantwortung. Verteilte Handlungen (Hutchins 1995) erzeugen verteilte Verantwortlichkeiten. Verantwortung lässt sich nur Akteuren zuschreiben, die etwas von der Norm, die sie potentiell verletzen, wussten (Buddeberg 2011). Daher wurde auch von der Anklage dieses Wissen explizit betont: »Die Satel- liten-Relais-Station sei im Jahre 2010 errichtet worden, worüber die USA die Beklagte unterrichtet hätten.«19 Des Weitern wurden in der Gerichtsverhandlung die Algorithmen zur Meta-Daten-Analysen thematisiert, die eine Grundlage der so genannten ›sig- nature strikes‹ bilden: »Seit dem Jahr 2012 würden auch sogenannte ›signa- ture strikes‹ durchgeführt, bei denen die Ziele aufgrund eines bestimmten Verhaltensmusters ausgewählt würden, ohne dass konkret bekannt wäre, um welche Person es sich handele.«20 Dieses Wissen stammt aus den öffentlichen Medien. Zumeist wird ein Medieninterview zitiert, in dem der frühere Leiter der US National Security Agency (NSA), General Michael Hayden, die Frage beantwortet, ob solche Angriffe tatsächlich existieren würden: »[Die] Beschrei- bung […] ist absolut richtig. Wir töten Menschen auf der Grundlage von Meta- daten.«21 Doch es blieb bei dieser expliziten Referenz, in der weiteren Urteils- begründung spielten diese Praktiken der NSA keine explizite Rolle mehr. Die Referenz zielte u.a. darauf, den Drohnenkrieg als völkerrechtswidrig zu mar- kieren, um die Bundesrepublik zur Unterlassung der Duldung einer solchen Satelliten-Relais-Station zu bewegen: »Sei der Drohnenkrieg damit völkerrechtswidrig, so folge daraus eine völkerrechtliche Verpflichtung der Beklagten, dessen Durchführung von ihrem Territorium aus nicht zu dulden. Dafür sei es wiederum unerheblich, dass sie behaupte, über keine gesicherten Erkenntnisse zu ver fügen. Schließlich werde die Verantwortlichkeit nicht dadurch aus- geschlossen, dass die USA eigenverantwortlich und hoheitlich tätig würden. Denn es bestehe die ausreichende Möglichkeit bestimmenden Einflusses der Bundesrepublik.«22 Die Kläger setzen die Völkerrechtswidrigkeit voraus. Ziel ist es daher, die Bun- desrepublik der Passivität zu beschuldigen. Es sei ungesetzlich, eine illegitime Infrastruktur nicht zu unterbinden, wenn diese bekanntermaßen an völker- rechtswidrigen Tatbeständen maßgeblich beteiligt sei. Diese zugeschriebene Tatbeteiligung ist nicht an menschliche Beteiligung gebunden, sondern an die Duldung einer algorithmisch konstituierten Form der Interaktion. Teile dieser 19 | Abs. 4. 20 | Abs. 4. 21 | Zitier t in: http://abcnews.go.com/blogs/headlines/2014/05/ex-nsa-chief-we- kill-people-based-on-metadata/, (zuletzt aufgerufen am 11.10.2015, Übersetzung: V.R.). 22 | Abs. 9. 8. Drohnen: zur Materialisierung von Algorithmen 207 Interaktionsinfrastruktur sind Funkfrequenzen. In diesem Sinne findet sich denn auch der explizite Bezug auf die Funkfrequenzen, wenn eine Forderung der Klage in der »Zurückziehung der Zuteilung der Funkfrequenzen für den Funkverkehr der Satelliten-Relais-Station auf der Air Base Ramstein«23 besteht. In der Klageschrift wurde zweitens die Position der Verteidigung resü- miert. Diese bestand maßgeblich in dem Argument, dass eine Verantwor- tung der Bundesrepublik für globale Interaktionsketten nicht zutreffend sei, sondern dass die Verantwortung für solche Handlungsketten allein bei den Entscheidungsträgern und Kontrollinstitutionen des Interaktionsnetzwerkes, also den USA, liege. Relevant seien, so lautet das Argument, nicht die Ver- mittlungspunkte, sondern der Ort von wo die Drohnen gestartet seien: »Die US-Regierung, mit der sie in einem intensiven Dialog stehe, habe stets bekun- det, dass von Deutschland aus keine Drohnen befehligt oder gesteuert würden und Deutschland auch nicht Ausgangspunkt der Drohnenangriffe sei.«24 In der Kurzfassung lautet das Argument: Weil die Drohnen ihre Reise nicht in Deutschland beginnen, trage die Bundesrepublik auch keine Verantwortung. Akteure sind damit nur für das verantwortlich, was sich materiell als sicht- bares Objekt in der Bewegung von A nach B performativ realisiert. Lediglich A als Startort und B als Zielort ist dieser Argumentation zur Folge von Bedeu- tung, räumliche Reichweiten und die dafür notwendige mobilisierende Infra- struktur zwischen A und B ist aus dem Handlungsvollzug und damit aus dem Tatbestand auszuklammern. Ein weiteres Argument lautete, dass die Bundesrepublik weder die Mög- lichkeit noch die Pflicht habe, die Interaktionen anderer souveräner Staaten zu kontrollieren: »Die deutschen Kontrollbefugnisse würden gerade keine Kontrolle von Kommunikationsdaten erlauben. Es sei auch nicht Aufgabe der Beklagten, als Weltstaatsanwaltschaft gegenüber anderen souveränen Staaten aufzutreten. Vielmehr seien die USA und der Jemen die beiden handelnden und damit allein verantwortlichen Staaten.«25 Dieses Statement ist insofern be- merkenswert, weil es explizit zu der Frage Stellung nimmt, wer in dem Akteur- netzwerk als Handelnder gilt und wird nicht. Allein diese Feststellung demons- triert den Grad an diffuser Handlungsträgerschaft angesichts katalytischer sozialer Situationen. Interessant ist, dass dabei auf die klassische Konstruktion der Souveränität als staatlicher verantwortlicher Akteur zurückgegriffen wird. Sprachlich wird imaginativ ein kollektiver Akteur den technologischen Inter- aktionsarchitekturen sozialer Situationen als kulturelles Gegenprogramm präsentiert. Damit verlieren die algorithmischen Interaktionsformen an ver- antwortungskonstituierender Kraft. 23 | Abs. 11. 24 | Abs. 16. 25 | Abs. 16. 208 Valentin Rauer In diesem Zusammenhang beruft sich die Verteidigung schließlich auf fehlende Intentionalität und Motivation als Voraussetzung für Zuschreibung von Verantwortlichkeiten: »Durch die Nutzung Ramsteins werde auch keine völkerrechtliche Verantwortlichkeit der Bundesrepublik ausgelöst, die mehr als das bisherige Bemühen der Beklagten zur Sachaufklärung voraussetze. Völkerrechtliche Verantwortlichkeit für Beihilfehandlun- gen setze nach dem Entwurf der International Law Commission positive Kenntnis des Unterstützerstaates und Zweckgerichtetheit der Unterstützungsleistung voraus. An bei- dem fehle es.«26 Selbstverständlich sind die Rechtfertigungsstrategien immer auch interessen- orientiert. Gleichzeitig verweisen sie jedoch auch auf die Grenzverschiebungs- möglichkeiten mit Blick auf verantwortliche Akteurskonstellationen, wenn algorithmische Infrastrukturen involviert sind. Anders formuliert: Wenn algo- rithmische Infrastrukturen in die Handlungskette integriert sind, dann wer- den die Grenzen, die darüber bestimmen, wer und was als verantwortlicher sozialer Akteur gilt, zunehmend verhandelbar und umstritten. Die Klage gegen die Bundesrepublik wurde von dem Gericht letztlich ab- gewiesen. Trotz dieses negativen Ergebnisses wäre der Fall aus der Perspekti- ve des ›strategic litigation‹ als Erfolg zu werten. Die Verhandlungen kreierten eine öffentliche Wahrnehmung von ansonsten im geheimen vollzogenen staat- lichen Drohnenflügen. In einer abschließenden Zusammenfassung finden sich bemerkenswerte Einlassungen zur Rechtmäßigkeit des Drohnenkrieges, auch wenn diese tatsächlich keine Relevanz für den Ausgang des Verfahrens hatten. Allein die Tatsache ihrer Artikulation ist ein Gewinn an öffentlicher Transparenz und damit ein Beitrag für eine öffentliche zivilgesellschaftliche demokratische Kultur. So heißt es beispielsweise: »Zwar kommt es bei den Drohneneinsätzen auch zu der Tötung von Zivilisten. Dies be- deutete jedoch erst dann einen Verstoß gegen das humanitäre Völkerrecht, wenn diese Angrif fe unterschiedslos er folgten oder durch den Angrif f auf ein legitimes militärisches Ziel nicht verhältnismäßige Schäden in der Zivilbevölkerung in Kauf genommen würden. Der Präsident der USA hat in einer Rede im Mai 2013 erklär t, dass Drohneneinsätze nur er folgen würden, wenn ›near cer tainty‹ bestünde, dass hierbei keine Zivilisten getötet würden. Ein solcher Maßstab wäre mit humanitärem Völkerrecht vereinbar. Die Bundes- regierung geht davon aus, dass diese Richtlinien generell eingehalten werden. Es ist der Bundesregierung dabei von vornherein in tatsächlicher Hinsicht unmöglich, die US- 26 | Abs. 16. 8. Drohnen: zur Materialisierung von Algorithmen 209 amerikanische Praxis des Drohnenkriegs im Einzelfall zu überprüfen. Denn die Auswahl der Ziele der Drohnen er folgt streng geheim […].«27 In diesem Zitat wird der Effekt von strategischen Klagen auch darin sichtbar, dass sich das Gericht auf Politikerreden bezieht, um auf die Beurteilung des Tatbestandes schließen zu können. Zudem werden Fragen des internationa- len Rechts beispielsweise über Fragen der Verhältnismäßigkeit des Einsatzes militärischer Gewalt angesprochen. All diese Artikulationen laufen der stum- men, im Hintergrund praktizierten algorithmisch vermittelten Interaktion entgegen. Von Seiten der politischen Theorie wird darauf verwiesen, dass Normen und Moral nicht nur abstrakt artikuliert werden, sondern stets auf Rechtfer- tigungsnarrative angewiesen sind (Forst 2014). Andere argumentieren, dass Normen einer performativen Realisierung bedürfen (Möllers 2015). Auch aus kultursoziologischer Perspektive gelten Erzählungen und Performativitä- ten als konstitutiv für normativ kollektiv akzeptierte Unterscheidungen und Wertfragen (Alexander 2006b). Ramstein ist ein solch narrativ, performativ realisierter Fall zu der Frage nach den normativen Grenzen algorithmischer Interaktionssituationen. Die Erzählung berichtete nicht nur von menschlichen Akteuren, seien sie individuell oder kollektiv, sondern auch von quasi-Inter- aktanten wie der Satelliten-Relais-Station. Wie der Fall demonstriert, stellen solche soziotechnischen vermittelnden Interaktionstechnologien die Grenzen rein menschlicher Handlungsträgerschaft in Frage und lenken den soziologi- schen Blick auf das gesamte digitale Netzwerk (Lupton 2015: 46-48). Zusammenfassende bemerKung Die Drohnen-Metapher passt nicht mehr zu den klassischen Entitäten sozial- wissenschaftlicher Handlungstheorie und lenkt die Aufmerksamkeit auf hyb- ride Entitäten wie algorithmische Infrastrukturen oder andere akteursähnliche Handlungsträgerschaften. Drohnen sind akteursähnliche, interaktivautonome Maschinen. Sie sind nicht autonom im Sinne von Intention und freien Willen. Vielmehr symbolisieren sie die Algorithmisierung autonomer Handlungsträ- gerschaft und führen sie zugleich in ihrer Differenz zur menschlichen Auto- nomie vor. Als Quasi-Akteure kreieren Drohnen ein diffus definiertes Ak- teursnetzwerk, das von einem Kontinent zu einem anderen reichen kann und mikroglobales Handeln ermöglicht. Doch neben dieser technologisch katalysierten Ausweitung sozialer Mikro- situationen, demonstrieren die beiden Fälle auch eine kulturell performative 27 | Abs. 87. 210 Valentin Rauer Dimension. Sie zeigen, dass die algorithmischen Infrastrukturen die Hand- lungsketten derartig weit auseinanderziehen, dass die Grenzen von Hand- lungsträgerschaft selbst in Bewegung geraten und umstritten werden. Es sind die Algorithmen, die den Unterschied zwischen bloß ferngesteuerten Fahr- zeugen und Drohnen markieren. Das skandalisierte Euro-Hawk-Projekt scheiterte, weil das Feld der relevan- ten Akteure zu eng um die fernsteuernden Piloten imaginiert wurde. Diese Sichtweise bricht Handlungsträgerschaft stets auf menschliche Akteure he- runter (Junk/Rauer 2015). Das Problem war, dass algorithmisch mobilisierte Objekte weiterhin nur mit Blick auf die Face-to-Face-Interaktion berücksich- tigt wurden und die tatsächlich praktizierte Face-off-Face-Interaktion aus dem Blick geriet. Damit zeigt der Fall auch, welche Probleme entstehen, wenn Handeln nur auf menschliche Akteure bezogen wird, während Algorithmen, obwohl konstitutiver Bestandteil von Face-off-Face-Interaktionen, ignoriert werden. Der Fall Ramstein demonstriert im Gegensatz dazu eine katalytische Ent- grenzung der Handlungsträgerschaft, indem die algorithmische Interaktions- infrastruktur als relevanter verantwortungskonstituierender Bestandteil sogar Gegenstand eines Gerichtsverfahrens wurde. Die algorithmische Infrastruk- tur diente als ein Einstieg von zivilgesellschaftlichen NGOs, um einen in ihren Augen illegalen ›Krieg gegen den Terror‹ zur politischen Sichtbarkeit zu ver- helfen. Letztlich demonstrieren beide Fälle die Macht der mobilisierten Algorith- men, öffentliche Erzählungen und kulturelle Imagination über die Grenzen von Handlungsträgerschaften und katalytischen Situationen zu initiieren. Die Grenzen der Handlungsträgerschaften geraten in diesen Imaginationen in Be- wegung und ihre Konturen werden zunehmend diffus, weiten sich aus oder ziehen sich zusammen. Bisweilen brechen die Grenzen bis auf den humanen Rahmen herunter, bisweilen entbinden sie menschliche Akteure immer mehr aus der Handlungskette und erstrecken sich über Kontinente. Diese Hand- lungsträgerschaft bezieht sich nicht auf die klassische Idee des freien Willens oder menschlicher Intentionalität, Kreativität oder Freiheit Denn die hier be- schriebene algorithmische Autonomie ist eine Autonomie der Mobilität und der situativen sensorbasierten Interaktivität. Somit ist algorithmische Autono- mie in Interaktionen und Infrastrukturen stets eingebettet und existiert nicht an und für sich. Die Interaktanten der algorithmischen Interaktion sind stets nur sensorbasierte Aktanten und damit nur partiell autonom in ihrer Interak- tion zu anderen Akteuren und Aktanten. Gleichwohl, bereits auf dieser Stufe partieller Handlungsträgerschaft wird deutlich, dass die klassischen Grenzen menschlicher Interaktionssituationen fluide werden. 8. Drohnen: zur Materialisierung von Algorithmen 211 liter aturVer Zeichnis Alexander, J.C. (2006a): The meanings of social life. A cultural sociology, New York: Oxford University Press. Alexander, J.C. (2006b): »Cultural pragmatics: social performance between ri- tual and strategy«, in Social performance. Symbolic action cultural pragmatics and ritual, hg.v. J.C. Alexander/B. Giesen/J. Mast, Cambridge: Cambridge Univ. Press, S. 29-90. Alexander, J.C. (2006c): The civil sphere, New York: Oxford University Press. Anderson, C.W. (2013): »Towards a Sociology of Computational and Algorith- mic Journalism«, New Media & Society 15 (7), S. 1005-1021. Arkin, R.C. (2007): »Accountable Autonomous Agents«, The next level. Posi- tionspapierfür DARPA Complete Intelligence Workshop, Februar 2007. Beer, D. (2009): »Power through the Algorithm? Participatory Web Cultures and the Technological Unconscious«, New Media & Society 11 (6), S. 985- 1002. Bennett, W.L.,/Segerberg, A. (2012): »The Logic of Connective Action«, Infor- mation, Communication & Society 15 (5), S. 739-68. Blum, G./Heymann, P. (2010): »Law and Policy of ›Targeted Killing‹«, National Security Journal 1, S. 150-170. Blumer, H. (1969): Symbolic Interactionism: Perspective and Method, Englewood Cliffs, NJ: Prentice-Hall. Buddeberg, E. (2011): Verantwortung im Diskurs. Grundlinien einer rekonstruk- tiv-hermeneutischen Konzeption moralischer Verantwortung im Anschluss an Hans Jonas, Karl-Otto Apel und Emmanuel Lévinas, Berlin u.a: de Gruyter. Chamayou, G. (2015): A Theory of the Drone, New York: The New Press. Daase, C. (2010): »Wandel der Sicherheitskultur« Aus Politik und Zeitgeschichte 50, S. 9-16. Daston, L. (2007): Objektivität. Frankfurt a.M.: Suhrkamp. Forst, R. (2007): Das Recht auf Rechtfertigung. Elemente einer konstruktivisti- schen Theorie der Gerechtigkeit. Frankfurt a.M.: Suhrkamp. Fuchs, G. (2013): »Strategic Litigation for Gender Equality in the Workplace and Legal Op- portunity Structures in Four European Countries«, Canadian Journal of Law & Society 28 (02), S. 189-208. Gerlitz, C./Lury, C. (2014): »Social Media and Self-evaluating Assemblages: On Numbers, Orderings and Values«, Distinktion: Scandinavian Journal of So- cial Theory 15 (2), S. 174-88. Giesen, B. (2006): »Performing the sacred: a Durkheimian perspective on the performative turn in the social sciences«, in: Social performance. Symbolic action cultural pragmatics and ritual, hg. v. J.C. Alexander/B. Giesen/J. Mast, Cambridge: Cambridge Univ. Press., S. 326-366. 212 Valentin Rauer Gillespie, T. (2010): »The Politics of ›Platforms‹«, New Media & Society 12 (3), S. 347-364. Gillespie, T. (2014): »The Relevance of Algorithms«, in: Media Technologies, hg.  v. T. Gillespie/P. Boczkowski/K. Foot Cambridge, MA: MIT Press, S. 167-194). Heintz, B. (1993): Die Herrschaft der Regel. Zur Grundlagengeschichte des Compu- ters, Frankfurt a.M., New York: Campus. Hirschauer, S. (2014): »Intersituativität. Teleinteraktionen und Koaktivitäten jenseits von Mikro und Makro« Zeitschrift für Soziologie, Sonderheft Inter- aktion – Organisation – Gesellschaft revisited, Stuttgart: Lucius & Lucius, S. 109-133. Höfera, T./Przyrembelb, H./Verleger, S. (2004): »New evidence for the Theory of the Stork«, Paediatric and Perinatal Epidemiology 88, S. 88-92. Hutchins, E. (1995): Cognition in the wild, Cambridge: MIT Press. Introna, L.D. (2011): »The Enframing of Code: Agency, Originality and the Pla- giarist«, Theory, Culture & Society 28 (6), S. 113-141. Introna, L.D./Wood, D. (2004): »Picturing Algorithmic Surveillance: The Poli- tics of Facial Recognition Systems«, Surveillance & Society 3 (2), S. 177-198. Junk, J./Rauer, V. (2015): »Combining methods. Connections and zooms in ana- lyzing hybrids«, in: Transformations of Security Studies, hg. v. G. Schlag/J. Junk/C. Daase, London: Routledge, S. 216-32). Krassmann, S. (2014): »Der Aufstieg der Drohnen. Über das Zusammenspiel von Ethik und Ökonomie in der Praxis des gezielten Tötens«, Westend 11 (1), S. 25-43. Krassmann, S./Weber, J. (2015): »Game Changer? On the Epistemology, On- tology, and Politics of Drones«, Behemoth – A Journal on Civilisation 8(2), Knorr-Cetina, K. (2005): »From Pipes to Scopes. ›The Flow Architecture of Fi- nancial Markets‹, in: The Technological Economy, hg. v. A. Barry/D. Slater, London: Routledge, S. 123-143. Knorr-Cetina, K. (2009): »The Synthetic Situation: Interactionism for a Global World«, Symbolic Interaction 32 (1), S. 61-87. Knorr-Cetina, K./Bruegger, U. (2002): »Global Microstructures: The Virtu- al Societies of Financial Markets«, American Journal of Sociology 107 (4), S. 905-950. Knowles, C./Burrows, R. (2014): »The Impact of Impact«, etnografica 18 (2), S. 237-254. Latane, B./Darley, J.M. (1968): »Bystander Intervention in Emergencies: Dif- fusion of Responsibility«, Journal of Personality and Social Psychology 8 (4), S. 377-383. Latour, B. (2001): »Eine Soziologie ohne Objekt? Anmerkungen zur Interobjek- tivität«, Berliner Journal für Soziologie, 11 (2), S. 237-252. 8. Drohnen: zur Materialisierung von Algorithmen 213 Latour, B. (2006): »Ethnologie einer Hochtechnologie«, in: Technografie. Zur Mikrosoziologie der Technik, hg.  v. W. Rammert/D. Schubert, Frankfurt a.M.: Campus, S. 25-60). Lucas, G.R. (2013): »Engineering, Ethics, and Industry: The Moral Challenges of Lethal Autonomy«, in: Killing by Remote Control, hg. v. B.J. Strawser, Ox- ford University Press, S. 211-228). Lupton, D. (2015): Digital sociology, Abingdon, Oxon: Routledge, Taylor & Fran- cis. Matthias, A. (2004): »The Responsibility Gap: Ascribing Responsibility for the Actions of Learning Automata«, Ethics in Information Technology 6 (3), S. 175-183. Matthias, A. (2011): »Algorithmic Moral Control of War Robots: Philosophical Questions«, Law, Innovation and Technology 3 (2), S. 279-301. Marres, N. (2012): Material Participation. Technology, the Environment and Ever- yday Publics, New York: Palgrave Macmillan. Möllers, C. (2015): Die Möglichkeit der Normen. Über eine Praxis jenseits von Mo- ralität und Kausalität, Berlin: Suhrkamp. November, V./Camacho-Hu, E./Latour, B. (2010): »Entering a Risky Territory: Space in the Age of Digital Navigation«, Environment and Planning D 28 (4), S. 581-599. Passoth, J.-H./Peuker, B.M./Schillmeier, M. W. J. (Hg.) (2012): Agency without actors? New approaches to collective action, London, New York: Routledge. Rammert, W. (2000): Technik aus soziologischer Perspektive 2. Kultur – Innova- tion – Virtualität, Opladen: Westdt. Verl. Rammert, W. (2012): »Distributed Agency and Advanced Technology. Or: how to Analyse Constellations of Collective Inter-Active Agency«, in: Agency wit- hout Actors?: New Approaches to Collective Action, hg. v. Passoth, J.-H./Peu- ker, B.M./Schillmeier, M.W. J., London: Routledge, S. 89-112. Rauer, V. (2012a): »Interobjektivität. Sicherheitskultur aus Sicht der Akteur- Netzwerk-Theorien«, in: Sicherheitskultur. Soziale und politische Praktiken der Gefahrenabwehr, hg. v. C. Daase/P. Offermann/V. Rauer, Frankfurt a.M.: Campus, S. 69-93. Rauer, V. (2012b): »The Visualization of Uncertainty«, in: Iconic Power. Mate- riality and Meaning In Social Life, hg. v. J.C. Alexander/D. Bartmański/B. Giesen B., New York: Palgrave MacMillan, S. 139-154. Sanz, E./Stancik, J. (2014): »Your search—›ontological security‹ —matched 111,000 documents: An Empirical Substantiation of the Cultural Dimen- sion of Online Search«, New Media & Society 16 (2), S. 252-270. Schörnig, N. (2010): Robot Warriors: Why the Western Investment into Military Robots Might Backfire, PRIF Report, Nr. 100. Frankfurt a.M: Peace Research Institute Frankfurt a.M. 214 Valentin Rauer Schulz-Schaeffer, I. (2007): Zugeschriebene Handlungen. Ein Beitrag zur Theorie sozialen Handelns, Weilerswist: Velbrück. Simonson, S. (2011): Rediscovering mathematics, Washington, D.C.: Mathemati- cal Association of America. Singer, P.W. (2015): »The Future of War Will Be Robotic«, CNN News, http:// edition.cnn.com/2015/02/23/opinion/singer-future-of-war-robotic/index. html (zuletzt aufgerufen am 18.01.2017). Sparrow, R. (2007): »Killer Robots«, Journal of Applied Philosophy 24 (1), S. 62- 77. Sterio, M. (2012): »The United States’ Use of Drones in the War on Terror: The (Il)legality of Targeted Killings under International Law«, Case Western Re- serve Journal of International Law 45 (1), S. 197-214. Strawser, B. J. (2013) (Hg.): Killing by Remote Control, Oxford: Oxford University Press. Thiel, T. (2016): »Anonymität und der digitale Strukturwandel der Öffentlich- keit«, Zeitschrift für Menschenrechte, 10: 1, S. 7-22. Vöcking, B. (2011): Algorithms Unplugged, New York: Springer. Vries, K. (2010): »Identity, Profiling Algorithms and a World of Ambient Intel- ligence«, Ethics and Information Technology 12 (1), S. 71-85. Williams, B. G. (2013): Predators. The CIA’s drone war on al Qaeda, Dulles: Uni- versity of Nebraska Press. Wittgenstein, L. (1969): On Certainty, Oxford: Basil Blackwell. 9. Social Bots als algorithmische Piraten und als Boten einer techno-environmentalen Handlungskraft Oliver Leistert Wer sich dem komplexen Gegenstand der Social Bots unkritisch nähert, indem das Social darin affirmiert wird, handelt sich eine Reihe von Problemen ein, die aus den Umgebungen stammen, in denen zahlreiche dieser Bots heutzu- tage zu hause sind: denn der Begriff »Soziale Medien« selbst ist umstritten, wurde er doch vor allem mit einer kommerziellen, anstatt mit einer zunächst unkodierten, offenen Sozialität verschaltet. Grundsätzlich ließen sich Social Bots definieren als Entitäten, die »mit menschlichen Benutzern direkt mittels Sprache in zwei Richtungen kommunizieren« (Graeff 2014: 2), während sie dabei ›echte‹ Benutzer imitieren (Hingston 2012). Aber die Unterscheidung in ›echte‹ und ›nicht-so-echte‹ Benutzer erscheint dabei schon bald als eher naive Differenzierung, wenn in Anschlag gebracht wird, dass die ›echten‹ Benut- zer von kommerziellen Plattformen sozialer Medien am Ende doch nur deren Kunden sind, z.B. Werbe- oder Überwachungsagenturen. Das genannte Merkmal von natürlicher Sprachverarbeitung und -produk- tion jedoch, wenn auch weiterhin eher rudimentär, taugt zur Qualifizierung für Sozialität. Allerdings würde dies als Startpunkt einer Analyse von Social Bots diese unweigerlich primär ins Register von Signifikationsregimen ein- schreiben. Diese jedoch sind selbst durch Plattformen sozialer Medien bereits gekapert und überkodiert worden (Langlois et al. 2015). Dieser Beitrag nimmt deshalb einen anderen Weg, und versucht Bots aus der Perspektive ihres Environments zu untersuchen, als Teil und Element einer medien-technischen Umgebung. Gleichzeitig ist es notwendig, Bots ins Verhältnis zur Logik des zeitgenössischen kapitalistischen Imperativs der Datenextraktion und dem Kolonisieren jeglicher, noch so unbedeutender Äußerungen von Benutzern auf den Plattformen zu setzen. Der Beitrag wird deshalb argumentieren, dass Bots auf kommerziellen Plattformen (1) als ›na- türliche Bewohner‹ dieser Plattformen zu verstehen sind, die die Logik dieser 216 Oliver Leister t Plattformen und Protokolle selbst hervorbringt, und (2) dass zunehmend ein Symptom bedeutsam wird, dass ›algorithmische Entfremdung‹ genannt wer- den könnte. Dies ist ein Prozess, der gegenwärtig die gesamte Wissens- und allgemein Kommunikationsproduktion umbaut, wie vielfach in diesem Buch gezeigt wird. eine rel ationale e xistenZ eines digitalen milieus, das durch Vertr auen gesPeist Wird Anthropozentrische Theorien des Sozialen würden die Idee, dass Bots sozial sein können, wahrscheinlich ablehnen. Jenseits dieser Theorien hat sich je- doch eine Art Konsens eingestellt, der das Soziale nicht exklusiv dem Men- schen (oder auch Tieren) zugesteht, sondern Akteursqualitäten zunächst allen Wesen und Dingen zuschreibt, da es am Ende Prozessketten unterschiedlichs- ter Akteure und Aktanten sind, die Sozialität real werden lassen (Thrift 2005). Besonders Medien- und Technikwissenschaften fragen vermehrt nach dem ›wie‹ und ›wer mit wem‹, und weniger nach dem ›was‹ dieses Feldes. Damit zeigen sie an, dass es zur Analyse ihrer Gegenstände von Vorteil ist, anstatt weiterhin nach passenden Objekten für sterile Kategorien zu suchen, den Fo- kus stattdessen auf Fragen der Relation, Operationen und Performativität zu legen. Ebenso ist das wechselseitige Bedingungsverhältnis von Technik und Ge- sellschaft ein Ausgangspunkt vieler Analysen geworden (Boczkowski 1999). Jüngere Beiträge der Science and Technology Studies, die explizit medienwis- senschaftliche Ansätze integrieren, versuchen die Suche nach dem ›wer‹ oder ›was‹ hinter sich zu lassen (Gillespie et al. 2014), ähnlich wie Akteur-Netz- werk-Theorien, die auf Symmetrie in der Beschreibung von Technik und Ge- sellschaft abstellen, und den wechselseitigen Austausch sich gegenseitig anre- gender Aktanten in den Blick nehmen (vgl. Latour 1999). All dies hat zu einem Wechsel der Perspektiven geführt und einem Übergang von der Fixierung auf statische Wesen und Objekte hin zu Relationen und Dynamiken, die von aller- lei Sorten von Aktanten und Akteuren in Bewegung gesetzt und ausgehandelt werden. Dieser Perspektivwechsel ist auch für die Analyse von Bots hilfreich, denn was Bots zweifellos in erster Linie auszeichnet, ist ihr permanenter Versuch, mit anderen Akteuren Relationen aufzubauen, und weniger ihre ontologi- sche Essenz oder ihr statisches Beharrungsvermögen. Dies trifft sowohl für die hochentwickelten Social Bot Netze auf Facebook zu, wie auch für die eher simplen Spambots, denn alle Bots versuchen sich über Datenaustausch mit Menschen zu verbinden, oder einen Datenaustausch, der Menschen indexiert, wie z.B. Kreditkartendaten, zu initiieren, oder einen Austausch anzubahnen, 9. Social Bots 217 indem Menschen z.B. über Phishing-Websites in Relation zu Bots gebracht werden. In diesem Sinne sind Bots ein Spiegel unserer eigenen Eingeschlossen- heit in Maschinen-zentrierten Milieus, die auf eine Amalgamierung von techno-kulturellen Gesellschaften mit Netzwerkinfrastrukturen hindeutet. Bots zeigen damit, dass die soziale Funktion Vertrauen in sozialen Medien algorithmischer Natur ist.1 Vertrauen ist zu einer relationalen Sache von Ver- rechnung geworden, indexierbar und operationalisiert, um nur am Ende von Menschen angenommen oder abgelehnt zu werden. Vertrauen ist zu einem diskriminierbaren Parameter mutiert, der von Maschinen vorgeschlagen wird. Die algorithmische Produktion von Vertrauen, mit der Bots arbeiten, ist dabei tief eingebaut in die Logik der Ausbeutung und Wertextraktion kommerziel- ler Plattformen. Vertrauen in und durch algorithmische Operationen zeichnet somit ein neues Bild desselben, dass sich von jedem humanistischen Konzept von Vertrauen gelöst hat, und ausschließlich nach den Regeln von Berechen- barkeit arbeitet. Und dies ist eben dasselbe Milieu, das Bots bewohnen. das Kommer Zielle Zuhause Von social bots Um sich der Entwicklungslinie heutiger Social Bots anzunähern, sollen zu- nächst die Verschiebungen in Richtung eines algorithmischen Regimes von Medientechniken, das vom Motor der Monetarisierung und der kapitalisti- schen Einhegung angetrieben ist, gezeichnet werden. Die Ausweitung und explosionsartige Vermehrung der Social Bots in den letzten Jahren geht Hand in Hand mit dem gigantischen Erfolg kommerzieller Plattformen sozialer Me- dien, die seit einigen Jahren das soziale Gewebe dramatisch verändert und herausgefordert haben. Dies betrifft u.a. unser Verständnis von Öffentlich- keit (Baym und Boyd 2012), Freundschaft (Bucher 2013), kollektiven Protesten (Dencik und Leistert 2015), sowie allgemein großen Veränderungen innerhalb der Datensphären (Langlois et al. 2015). Diese Entwicklungen sind mit einer starken Verschiebung von Daten- schutzbestimmungen in Richtung privater Akteure einhergegangen (Braman 2006; Hintz 2015). Das Zusammenführen staatlicher und kommerzieller Überwachung (Landau 2010; Bauman und Lyon 2013) ist zu einem komple- xen Konfliktfeld in der Beziehung zwischen Bürgern und ihren Regierungen (siehe www.dcssproject.net) durch den unaufhaltsamen Aufstieg der Daten- 1 | Es handelt sich hierbei jedoch nicht um das Vertrauen, das gemeint ist, wenn von Verschlüsselung gesprochen wird. Dies antwortet zwar auf ein ähnliches Problem – Vertrauen in vernetzten Umgebungen –, die Mittel dafür sind jedoch in den Händen der Benutzer, wenn es um Ende-zu-Ende Verschlüsselung geht. 218 Oliver Leister t imperien der sozialen Medien geworden. Seit den Enthüllungen von Edward Snowden (Greenwald 2014) ist bekannt, dass und wie diese Plattformen einen wesentlichen Anteil am Überwachungs-Gefüge (Haggerty und Ericson 2000) haben, das sich aus unzähligen heterogenen Datenbestände speist (Lyon 2014), um Erkenntnisse durch Mustererkennung und Korrelationen von Daten zu ge- winnen. Eines der Probleme, das durch diese neuen algorithmischen Regime ak- tuell geworden ist, sind die Auseinandersetzungen darüber, durch wen und wie die gesammelten Daten verwertet werden dürfen. Dies bleibt vorerst eine Konfliktlinie echtem globalen Ausmaßes, die sich durch zahllose politische und auch juristische Prozesse ausdrückt. Ein wichtiger Aspekt dabei bezieht sich auf die zunehmende Privatisierung von Kommunikation, bei der das all- tägliche Gemurmel von Millionen von Menschen zum Eigentum der Platt- formbetreiber mutiert. Dieser Aspekt ist als »digitale Einhegung« (Andrejevic 2007) bezeichnet worden, und meint die Übernahme (Einhegung) ursprüng- lich nicht-privatisierter Kommunikation für das Data Mining und den Daten- verkauf an Dritte. Zusätzlich jedoch wirkt sich das so Eingehegte auf die Be- nutzer aus, da zum Mining und Verkauf der Daten dieselben notwendig streng präformatiert sein müssen: eine Präskription, die sich auf die Äußerungsbe- dingungen und das Sagbare überhaupt auswirkt. Diese Machtformation ist weich und verläuft gern unterhalb der Wahrnehmung. Dass Zensur hier meist nur durch die Nutzungsbedingungen geregelt wird, zeigt an, welche Macht über das Sagbare diese Konzerne in digitalen Kulturen gewonnen haben. Es ist dieses Auftauchen von globalen Datenbank-Imperien wie Facebook inner- halb weniger Jahre, das natürlicherweise alle möglichen Interessenten auf den Plan ruft, die ihren Anteil an den gespeicherten Daten fordern, auch jenseits von offiziellen Shareholdern, Überwachungsagenturen und Werbefirmen. Aus diesem Grund sind Social Bots nur als ein weiterer integrierter Interessent zu sehen, der sich in die Reihe derer einreiht, die Zugang zum verdateten Gewebe sozialer Relationen suchen und fordern. Dies erklärt u.a. warum Twitter zu einer wahren Botsphäre geworden ist. Im Jahre 2014 hat Twitter zugegeben, dass ungefähr 8,5 % aller Accounts auf Twitter Bots zuzuordnen sind. Dies entspricht rund 23 Millionen in absoluten Zahlen, auf die nochmals 5 % reine Spambots kommen (Goldman 2014). jenseits Von legal und illegal: Kommer Zielle Pl at tformen bereiten den bots ihren Weg Um das massenhafte Erscheinen von Bots auf kommerziellen Plattformen wie Twitter oder Facebook zu untersuchen, sind die Rechtsdiskurse, die, wie Mi- chel Foucault (2016) gezeigt hat, stets moralisch sind und auf Kontrolle abzie- 9. Social Bots 219 len, wenig zielführend, da Bots unter solchen Gesichtspunkten nur innerhalb eines bereits vordefinierten Spiels gefasst werden: als Eindringlinge gegenüber dem Regime, das den Raum, in dem sie auftreten, organisiert. Darum werden diese vernetzten Programme meist als Troublemaker innerhalb eines sonst sauberen, gepflegten privaten Datenbank-Imperiums diskutiert (vgl. Dun- ham und Melnick 2008), um sofort nach rechtlicher Regulierung zu rufen (Schellekens 2013), die unterscheiden soll zwischen legalen, regime-konfor- men und bösartigen, regime-devianten Bots. Letztere sind aber nichts weiter als die unbequeme Erinnerung daran, dass das Versprechen von Konzernen wie Facebook, eine sauber und sicher vernetzte Umgebung bereitzustellen, im Unterschied zum ›gefährlichen‹ offenen Internet, unmöglich einzuhalten ist, solange diese Konzerne selbst radikal neoliberale, von Kapitalinteressen geleitete Unternehmungen sind. Diese Plattformen, mit all ihren Mutationen und Aneignungen vernetzter Logiken, waren es selbst, die diesen räuberi- schen Feldzug kapitalintensiver Operationen zu einer neuen schizophrenen Intensität geführt haben, indem sie die Datenakkumulation und -verwertung mit einem Ambiente totaler Überwachung perfekt zusammengebracht haben. Hieran schließt die Produktion und das Betreiben von Social Bots nur an, und damit auch die Entstehung einer eigenständigen Bot-Ökonomie, die gegen Geld z.B. alle, die nach Aufmerksamkeit und Sichtbarkeit auf Twitter suchen, mit der exakt gewünschten Anzahl von Followern versorgt (Messias et al. 2013). Bots nutzen den Virus, den kommerzielle Plattformen erst in voller Blüte in heutige Subjektivitäten eingebracht haben: Sei sichtbar, vergleiche und ranke, sei wichtig, aber eben nur als eindeutig unterscheidbares und anschreibbares Individuum. Im Kern nutzen Bots bei ihren Anbändelungen die harte Währung des Vertrauens aus, die grundlegend die sozialen Verhältnisse dieser Plattformen regelt. Darum ist es auch kaum erstaunlich, dass der Diskurs zu Social Bots oft bestimmt ist durch Fragen der Verschmutzung der öffentlichen Sphäre durch Bots, oder Problemen von Glaubwürdigkeit (Hingston 2012), sowie der ungenauen algorithmischen Beurteilung von Benutzern und ihrem Einfluss (Messias et al. 2013). Die Tatsache, dass inzwischen Forschungen angestellt werden, um diejenigen Benutzer zu identifizieren, die am anfälligsten für Bot- Anbändelungen sind (Wagner und Strohmeier 2010), indiziert dabei nur eine weitere Verschiebung vernetzter Verantwortung in kommerziellen Sphären, indem nun die Benutzer dieser Plattformen für ihr blindes Vertrauen gegen- über Bots verantwortlich gemacht werden. Dabei sind sie es ja erst, die mit unbezahlter Arbeit im Regime der geschlossenen Plattformen deren Wert er- zeugen (Andrejevic 2011; Fuchs 2013). Es ist dieser schizophrene Vorschub durch kommerzielle Plattformen, sich einerseits das Denken und die Affekte von Millionen Menschen anzueignen, während sie andererseits Felder des Begehrens produzieren, die dann den Rüs- 220 Oliver Leister t tungswettlauf zwischen Botprogrammierern anfeuern (Boshmef et al. 2011). Denn die Gegenmaßnahmen stammen aus demselben Arsenal wie die Bots selbst, so z.B. wenn dieselben algorithmische Verfahren angewandt werden, um Follower auf Twitter in echte und unechte zu unterscheiden (Bilton 2014), oder, im Falle Facebooks, das sogenannte ›Facebook Immune System‹ (Stein et al. 2011), das u.a. versucht, Bots zu identifizieren, um sie dann zu neutrali- sieren. Darum ist der Versuch, zwischen guten und bösen Bots zu unterscheiden, unmittelbar verschränkt mit dem Problem von Besitz von und Zugang zu den Datensilos. Ob die Bots nun ›offiziell‹ sind oder Piraten, in jedem Fall sind sie herausragende Beispiele einer »fundamentalen Unsicherheit darüber, zu wem wir sprechen« (Gillespie 2014: 192) in Zeiten algorithmisch produzierter Öffentlichkeiten (Anderson 2012; Snake-Beings 2013). Es ist dies darum ein massenhafter Fall für einen (umgedrehten) Tu- ring-Test: im Feld der kritischen Internet-Forschung werden Bots als Spiegel unserer eigenen Reduktion auf Maschinen-ähnliche Akteure innerhalb dieser hochgradig standardisierten Umgebungen gesehen. »Social Bots sind die Ref- lektion unserer Aktivitäten auf sozialen Medien; damit diese Maschinen funk- tionieren, müssen wir selber zu einer Maschinenartigkeit trainiert werden« (Gehl 2014: 16). Dies bedeutet nichts anderes, als dass wir zu Produzenten von »aggregierten Mustern textuell formatierter, diskreter Geisteszustände« (34) geworden sind. Diskrete Zustände des Kognitiven sind genau die (Vor-)Bedin- gung für Komputation und ermöglichen das Bestehen des (umgedrehten) Tu- ring Tests. Deshalb ist (ohne jeglichen Zynismus) festzustellen, dass die erfolg- reiche Mobilisierung großer Teile der Bevölkerung, sich einem Turing Test zu unterwerfen, im Gegenzug die Bots als gleichberechtigte Partner qualifiziert. der unmögliche K atalog der botsPhäre Es ist herausfordernd, wenn nicht sogar unmöglich, Bots zu typisieren, da es sich um ein hochdynamisches Feld handelt, das in großer Abhängigkeit zu den Plattformen und Umgebungen, auf denen die Bots laufen, steht. Dennoch folgt hier ein Versuch, anhand einiger Beispiele und Charakterisierungen die Bedeutung aber auch Diversität von Bots in heutigen Internetassemblagen dar- zustellen. Dabei ist bereits die Formulierung, dass Bots auf Plattformen laufen, in vielen Fällen problematisch, da Bots auch dezentral auf externen Servern ope- rieren können, die mit den Plattformen vernetzt sind, wie das Beispiel der Wi- kipedia-Bots zeigt (Geiger 2014). Auch ist dies ein weiterer Hinweis, dass Ty- pisierungen den Relationen in diesem Feld epistemisch unterlegen sind. Des Weiteren hat die negative Bestimmung von einigen Bots (›malicious‹) dazu 9. Social Bots 221 geführt, sie identifizieren zu wollen, sie abzuschalten, oder auf andere Wei- se einzufangen (z.B. indem ihre Aktivität selbst nur auf Bots gerichtet wird, oder indem Anti-Bot Bots programmiert werden). Ein ganzer informatischer Forschungsstrang versucht Bots zu programmieren, die Bots eliminieren, was inzwischen zu einem intensiven Wettlauf zwischen Bot-Programmie- rern und Antibot-Bot-Programmierern geführt hat (Wang 2010). Solch Wett- kämpfe induzieren jedoch weitere Komplexität ins Bot-Milieu, denn es wird immer schwieriger, Bots als klar umgrenzte Objekte zu erfassen. Bots können inzwischen höchst flexibel programmiert sein, ihr Verhalten ändern, und so- gar (maschinen-)lernen (Boshmaf et al. 2012), was wiederum zu weiteren An- passungstechniken führt. Die Bot-Milieus selbst machen die Situation noch komplizierter, durch ihre standardisierten Eingabemasken, dem Handling von Strings z.B. bei der Sentiment Analyse, und den Datenbank-basierten Berech- nungen von Relationen. Je mehr die Internetkultur eine Template-Kultur mit standardisierten Schnittstellen geworden ist, umso einfacher ist die Simula- tion von Agilität und Lebhaftigkeit, da deren Ausdrucksweisen im Netz stark eingeschränkt und mutiert sind, um prozessierbar und korrelierbar zu sein. Mit Verweis auf Baudrillard ließe sich sagen, dass die Simulation eben ihre eigenen (Bot-)Kinder hervorbringt. Auch die technische Beschreibung von Bots als halb- oder vollautomatische Agenten sagt wenig über die Rolle aus, die sie in verdateten kapitalistischen Umgebungen annehmen. Bots sind weit mehr als ihr Code (dies trifft auf jede Software zu). Ihre Eleganz und Handlungsfähigkeit wird erst relevant, wenn der Code in einer vernetzten Umgebung auch exekutiert wird. Man kann sich Geiger nur anschließen, der schreibt, dass »Bots deutlich daran erinnern, dass das, was Software ausmacht, nicht auf Code reduziert werden kann und nicht von den Bedingungen geschieden werden kann, unter denen sie entwickelt und deployed wird« (Geiger 2014, 246). Darum schlage ich weiter unten die Figur des algorithmischen Piraten vor, denn damit lassen sich Bots innerhalb einer politischen Ökonomie situieren, womit ein wichtiger neuer Layer in ihre Analyse eingezogen wird, der gleichzeitig eine metaphorische und somit Be- deutung produzierende Beschreibung für ansonsten asignifikante Maschinen erlaubt. Zur Beschreibung und Unterscheidung von Bots schlage ich vorläufig nur zwei Kriterien vor: Zweck (oder Absicht) und Software. Zweck fragt nach dem Ziel der Programmierung und versucht eine Untersuchung ihrer Performance innerhalb und in Relation zum Bot-Milieu bereitzustellen. Software dient als Kurzform ihrer technischen Implementierung, die, würde sie umfassender ausfallen, notwendigerweise die Bibliotheken, technischen Standards, Netz- werkkapazitäten, Programmiersprachen und die Server, auf denen sie laufen, inklusive der Hardware, umfassen würde. 222 Oliver Leister t Jenseits dieser Elemente und Komponenten müsste eine auf Vollständigkeit zielende Beschreibung von Bot-Assemblagen sicherlich auch den Produktions- bzw. Programmierprozess, den Austausch unter den Programmierern, die Ite- rationen und Anpassungen der Bots im Betrieb, z.B. durch die Steuerung von Botnetzen, dazugehören. Auch muss die behauptete Automatisierung von Bots kritisch hinterfragt werden, da Updates oft manuell als Reaktion auf Verände- rungen im Bot-Milieu erfolgen. beisPiele Von bots, mehr oder Weniger soZial Als erster dieser halb- oder vollautomatischen, vernetzten Software-Agenten wären die chatter bots zu nennen, deren Zweck es ist, Aufgaben zu überneh- men, die für Menschen zu monoton sind, die aber erledigt werden müssen, um die Anwendung, in der sie aktiv sind, am Laufen zu halten. Vielleicht die ältesten Vertreter dieser Sorte sind Internet Relay Chat (IRC) Bots, »die in be- stimmten Kanälen aktiv sind, deren Regeln und Gesetze anwenden, indem sie öffentliche Konversationen mitverfolgen, und aktiv werden gegen jene, die gegen die Regeln verstoßen, als auch manchen Benutzern auf Anfrage den Sta- tus eines Operators zuweisen« (Latzko-Toth 2014: 588). IRC-Bots werden, wie Latzko-Toth erläutert, auf die eigentliche IRC-Software obendrauf program- miert, die ihr Milieu darstellt, als zusätzlicher Code, um Management- und Systempflegeaufgaben auszuführen. Sie erledigen Steuerungsaufgaben, oder anders ausgedrückt, unterstützen das Regieren der IRC-Kanäle. Ihre Fähig- keiten variieren stark und sind ultimativ begrenzt durch die Möglichkeiten, die die IRC-Software selbst zulässt. Allerdings wurden in den Jahrzehnten der Benutzung von IRC unzählbare Patches und Erweiterungen programmiert, sodass Bots weit über den ursprünglichen Funktionsumfang dieser Open Source-Software hinaus Regulierungsaufgaben in diesem sozialen Medium avant la lettre umsetzen. Ähnlich den IRC-Bots sind auch Bots auf Wikipedia kleine Helfer, die im Wesentlichen zwei Kernaufgaben ausführen. Erstens helfen sie mit, die riesige Wikipedia-Community mittels Steuerungsroutinen algorithmisch zu regieren. Mein Vorschlag ist deshalb, sie governer bots zu nennen. Ihr Zweck ist es »dass ein bestimmtes Maß an Uniformität in Stil und Inhalt gewähr- leistet wird«, und »sie dienen Schlüsselfunktionen der Kontrolle, indem sie be- sonders für Anfänger selbstständig diskursive und epistemologische Normen durchsetzen« (Geiger 2014, 345). Um ein Beispiel zu nennen: Zum Zeitpunkt dieser Niederschrift gibt es für die englischsprachige Wikipedia 1903 zugelas- sene Aufgaben für Bots (Wikipedia 2015a) und eine spezielle Wikipedia-Grup- pe von Benutzern, die diese Armada von Bots überwacht und reguliert. 9. Social Bots 223 Zweitens schreiben einige Bots auf Wikipedia tatsächlich Artikel, oder Gerüste davon. So z.B. »der sogenannte Rambot, der von Ram-Man betrie- ben wurde, und ungefähr 30.000 Artikel über Städte in den USA, basierend auf Zahlen der US-Zensusbehörden, mit einer Rate von Tausenden am Tag schrieb« (Wikipedia 2015b). Allerdings ist zu bemerken, dass je nach Sprache, die Zahl dieser Bots auf Wikipedia stark variiert.2 Den Wikipedia-Bots, die Artikel schreiben, verwandt, sind Bots, die Rezen- sionen und Empfehlungen schreiben, besonders auf Shopping-Portalen oder allgemein Empfehlungsdiensten. Da das Ziel dieser Bots jedoch die Steige- rung des Verkaufs von Produkten ist, indem sie eine ›authentische Erfahrung‹ mit dem Produkt simulieren, teilen diese Bots bereits einen Aspekt mit der Figur des Piraten, da sie versuchen Meinungen zu manipulieren, Wünsche zu produzieren, und ultimativ Geldflüsse anzuregen oder zu verändern. Aller- dings ließe sich auch argumentieren, dass diese Zwecke sowieso ein inhären- ter Teil der Marktlogik sind. Aus diesem Grunde lässt sich der Empfehlungs-Bot sowohl als Schurke als auch als gutmeinender Ratgeber interpretieren, abhängig von seinem konkre- ten Milieu. Auf Amazon würden die meisten Benutzer solch einen Bot gewiss als hilfreich betrachten, oder ihn einfach ignorieren, während er auf diversen Preisvergleichsportalen eher als schurkenhaft einzustufen wäre, auf jeden Fall als illegitim. Jedoch sind die Kunden dieser Bots, die für ihre Entwicklung und ihren Einsatz bezahlt haben, letztlich selbst eng verzahnt mit Handelshäusern oder Werbeagenturen. Von daher sind Empfehlungs-Bots natürliche Erschei- nungen einer datengetriebenen Ökonomie. Ihr Zweck ist die Verknüpfung von Waren-Daten und Geld-Daten. Die Verbindung zwischen diesen beiden Daten- Kategorien, die sie versuchen bei den Benutzern zu initiieren, ist dabei die ultimative Verknüpfung, die überhaupt erreicht werden kann, da damit ein Kauf produziert ist. Der nächste Kandidat dieser kleinen Übersicht der Bot-Welten operiert ebenfalls in den Gefilden der Meinungsmache und -manipulation, jedoch ist der Zweck ein anderer. Sockenpuppen-Bots können in unterschiedlichsten Milieus auftauchen und agieren, von Twitter bis Reddit. Ihr Ziel ist es, Dis- kussionen und Debatten zu beeinflussen, was bis zur Zerstörung der Kom- munikations-Sphäre führen kann. Der Begriff, mit dem diese Aktivität oft be- schrieben wird, lautet astro-turfing (Leistert 2013). Die Mittel, die diese Bots zur Verfügung haben, unterscheiden sich erheblich und reichen vom Fluten von Kanälen mit immer gleichen Nachrichten, womit eine kontinuierliche Diskus- sion unmöglich gemacht und zerstört wird, bis zum zielgerichteten ›Befeuern‹ identifizierter Meinungsführer, mit dem Ziel, sie außer Kraft zu setzen. Diese 2 | Wikipedia und Bots bilden ein höchst komplexes Ökosystem, siehe z.B. Geiger (2014) und Niederer und van Dijck (2010). 224 Oliver Leister t Bots stellen eine attraktive Alternative zur Zensur dar, da sie viel Lärm in die Kommunikation induzieren, und somit z.B. politische Diskussionen unmög- lich machen, aber die Kanäle als solche nicht in ihrer (technischen) Funktio- nalität beeinträchtigen oder ausschalten. Regierungsabteilungen, religiöse Ge- meinschaften und Konzerne, sie alle benutzen diese Art von Bots – und nicht nur in Krisenzeiten. Zusammengefasst induzieren Sockenpuppen-Bots zerstö- rende Vektoren in die algorithmisch produzierten Öffentlichkeiten, was sie mit der psychologischen Kriegsführung (PsyOps) verwandt macht (Paganini 2013). Weit bekannt und am häufigsten auf Twitter anzutreffen sind Bots, die Benutzern folgen (›followen‹), um deren Bekanntheit und Ruhm zu steigern. Auch wenn dies eine riskante Strategie ist, da Beobachter den plötzlichen Anstieg an Followern oft bemerken, wird sie breit in diversen Feldern ange- wandt. Politiker und Popstars sind noch die gewöhnlichsten Kunden dieser fame enhancing bots. Jedoch sind diese Bots auch zum Standardrepertoire von Marketing und Public Relations geworden, um die Popularität und Bekannt- heit von Marken und Produkten zu steigern. Dabei nutzt diese Sorte Bots die Soziallogik aus, die die Plattformen selbst propagieren, nämlich der soziale Imperativ, dass jede Meinung und jedes Gefühl wichtig ist und algorithmisch verarbeitet gehört, was zur Verinnerlichung von einer Überbietungslogik bei den Benutzern führt: zu sein, heißt vor allem sichtbar zu sein (Milan 2015), was aber bedeutet: wer sein will, muss sichtbarer sein als die anderen. Und um genau dieses ›sichtbarer‹ kümmern sich diese Bots, die sich selbst sehr schnell replizieren können, um dieser Logik umso besser folgen zu können. Harvesters schließlich gehören der Sorte Bots an, die als algorithmische Pi- raten im vollen Sinne bezeichnet werden können. Sie infiltrieren soziale Netz- werke und versuchen möglichst viele Benutzer auf Facebook zu ›frienden‹. Dabei ernten sie permanent Daten von und über die Nutzer und versuchen gleichzeitig, ihre wahre Natur zu verschleiern und unerkannt zu bleiben. Ihre Profile sind komplex und wirken ›echt‹, bis hin zu simulierten Aktivitätspha- sen, die Rhythmen wie Tag und Nacht oder Werktagen und Wochenenden an- gepasst sind. Im Kern attackieren sie die ökonomische Logik der Plattformen selbst, da sie die Daten, die sie ernten, an ihre Betreiber (genannt ›herder‹) ausleiten, und damit jene Daten, die die Plattformen selbst an Dritte verkaufen, abgreifen: Daten von und über die Benutzer der Plattformen. Diese Sorte Bots ist getarnt und ihre Existenz hängt an der Effektivität ihrer Tarnung, da sie mit Menschen als Menschen interagieren, im Unterschied zu fame enhancing bots, die sich nur zu einer Liste von Followern addieren. Ganz eindeutig mit bösen Absichten von ihren Betreibern programmiert sind Bots, die es darauf abgesehen haben, Schadcode in Applikationen einzu- schleusen, z.B. indem sie Benutzer auf Phishing-Websites leiten. Das Milieu dieser Bots ist sehr flexibel. Diese bösartigen Bots können auf Dating-Plattfor- men bis hin zu Twitter auf Beute lauern. Ihre Aktivität ist zielgerichtet kurz: 9. Social Bots 225 hat ein Benutzer auf den schadhaften Link geklickt, ist ihre Aufgabe erfüllt. Nichtsdestotrotz müssen diese Bots zuerst mit den Benutzern ›anbändeln‹, um glaubwürdig zu wirken. Diese Bots sind ebenfalls den algorithmischen Piraten zuzuordnen, da sie im Prinzip vertrauenswürdige Umgebungen, wie z.B. Dating-Plattformen, ausnutzen, um den Datenverkehr aus ökonomischen Gründen in bereitgestellte Fallen zu lenken. social bots als algorithmische Pir aten des datenK aPitalismus Aus der Perspektive einer politischen Ökonomie lassen sich, mit einigen Modi- fikationen, viele der vorgestellten Social Bots als wiedergekehrte Inkarnationen der Figur des Piraten beschreiben, weil sie zu dem gehören, was Lawrence Li- ang »ein ganzes Reich, das von Figuren wie Trickstern, Kopierern und Dieben bewohnt wird« (Liang 2010: 361) nennt. Social Bots als algorithmische Pira- ten zu modellieren, die, wie die Metaphorik bereitwillig hinzufügt, im Daten- meer der sozialen Medien schwimmen, ermöglicht einen Perspektivwechsel auf die Datenbankimperien kommerzieller sozialer Medien-Unternehmen, da die normalisierte Wahrnehmung und Auffassung über die Besitzverhältnisse von Daten dezentriert und somit erneut befragbar wird. Dies schließt einen neuen Blickwinkel für die Problematisierung der datenverarbeitenden Platt- formen selbst mit ein. Social Bots, ob schurkenhaft oder nicht, ermöglichen somit eine erneute, veränderte Betrachtung heutiger Datenökonomien. Denn sie fragmentieren sowohl die in die Plattformen investierte unbezahlte affek- tive Arbeit heutiger post-fordistischer Subjektivitäten (Ross 2013), als auch das zeitgenössische Geschäftsmodell der Verwertung dieser Arbeit. Gleichzeitig sind sie am Ent- bzw. Wiederverwerten, indem sie die unbezahlte Arbeit und ihre Verwertung an einen »marginalen Platz der Produktion und Zirkulation« (Liang 2010: 361) lenken. Das Argument lautet deshalb, dass Social Bots die etablierten Kanäle und Schaltkreise unbezahlter Arbeit und ihrer Verwertung durch die Plattformen umformen, indem sie an diese Plattformen andocken: Sie erscheinen somit als das unterdrückte ›Andere‹, als jenes, welches in den zentralisiert regierten, vermauerten Reichen wie Facebook stets verdrängt, ge- löscht, gesäubert werden soll, aber stets wiederkehrt und diese Reiche damit heimsucht wie ein unheimlicher Doppelgänger einer niemals ablegbaren, ver- drängten Wirklichkeit. Um jedoch die Operationalität dieser Social Bots aus einer solchen Pers- pektive genauer diskutieren zu können, ist ein kurzer Rekurs zum Diskurs der sogenannten Medienpiraterie notwendig, der erst die Reichweite und Limitie- rungen der Figur des algorithmischen Piraten klärt. 226 Oliver Leister t medien und die figur des Pir aten Sogenannte Medienpiraterie ist kein temporäres, sondern ein dauerhaftes Phänomen, und es ist weder neu, noch eine Anomalie kapitalistischer Unter- nehmungen. Lediglich durch den Übergang von Gutenbergs zu Turings Me- dienregime, sprich von Druckerzeugnissen zu digitalen Formaten, wurde das Thema in den letzten Dekaden prominent und umstritten diskutiert. Das alltägliche, massenhafte, halb- oder vollautomatische Kopieren und Ver- teilen von Software, Büchern, Musik und Filmen, on- und offline, hat enor- men Druck auf die Copyright-Regime ausgeübt, die noch aus analogen Zei- ten stammen, und somit aus einer teils vergangenen Phase kapitalistischer Akkumulation. Deren Konsolidierung und Institutionalisierung – in ihrer emblematischsten und zugleich symptomatischsten Form in der Gründung der Weltorganisation für geistiges Eigentum (WIPO) im Jahre 1970 – verläuft parallel zu zwei historisch herausragenden Phasen: zum offiziellen Ende der Kolonialzeit als politisches Regime, was zur Entstehung diverser neuer Nationalstaaten geführt hat, die begannen ihre eigene Agenda zu verfolgen, sowie zur vernetzten Vereinheitlichung von Märkten zu einem ›Weltmarkt‹, der von der USA, Westeuropa und Japan formiert und geführt wird. Hegemo- nieansprüche und -durchsetzungen im Bereich des sogenannten ›geistigen Eigentums‹ sind seitdem zu Machtformation geronnen, die die ›entwickel- ten‹ Staaten anderen aufzwingen. Noch im 19. Jahrhundert jedoch waren die Verhältnisse anderes verteilt, da damals die USA mit der industriellen Entwicklung in Europa noch nicht gleichgezogen hatten. Um diese Ziel zu erreichen, war es eine gewöhnliche Praxis der US-amerikanischen Industrie, europäische Patente und andere Copyright-Ansprüche zu kopieren, und damit zu verletzen (Ben-Atar 2004). Heute sind es vor allem die USA, die versuchen sich gegen Staaten zu schüt- zen, die ihrerseits mit solchen Verletzungen arbeiten, um ihre Industrie auf Weltstandard zu bringen, z.B. China oder Indien. Dies zeigt, wie natürlich der Prozess der Piraterie historisch in den kapitalistischen Entwicklungen zu sehen ist, da jede »Analyse von Piraterie die Grenzlinien und (Il)legitimitäten eines bestimmten Machtregimes anzeigt« (Zehle and Rossiter 2014: 345). Die fortbestehende Dringlichkeit, Lösungen zu finden, die den Zugang zu Information und Wissen regeln, drückt sich durch die vielen sehr lebendi- gen Debatten zu den Gemeingütern (Commons) aus (Linebaugh 2013), sowie der wachsenden Zahl alternativer Copyright Regime, wie die Creative Com- mons (Lessig 2002), oder die viralen Software Lizenzen, wie z.B. die GNU- Lizenzen. Es geht dabei weiterhin darum, eine Balance zu finden zwischen dem Recht auf Zugang zu Information und Wissen, und den Interessen der inzwischen nicht mehr allmächtigen Urheberrechtsverwaltungen, wie der 9. Social Bots 227 RIAA3. Die vielen Versuche einer technischen Lösung für ein Problem, das letztlich ein Problem sozialer Gerechtigkeit ist, wie die Digitale Rechtever- waltung (DRM), erinnern daran, dass digitale Kulturen unter anderen Prä- missen laufen, als vergangene Regime. Wenn es stimmt, dass »die Macht der Algorithmen von zunehmender Bedeutung der digitalen Rechteverwaltung für Medienkonzerne ist« (Lash 2007: 71), dann kommt innerhalb digitaler Milieus ohne Zweifel einer Reihe neuer Akteure und Aktanten Handlungs- macht zu. Um Ansprüche auf geistiges Eigentum durchzusetzen, wurde ein mächti- ger und angsteinflößender Diskurs zur Piraterie etabliert, in dem Piraten dar- gestellt werden »als die ultimative Verkörperung des Bösen. Dieses Böse kann eine Reihe von Formen annehmen, vom Terrorismus und des kriminellen Untergrunds, bis zum Verursacher des Untergangs der Unterhaltungsindust- rie sowie von Steuerflucht« (Liang 2010, 356). Interessanterweise aber gilt zu- gleich für diejenigen Akteure, »die versuchen, das Anwachsen von Regimen geistigen Eigentums zu verhindern, und die öffentliche Domäne zu verteidi- gen, dass sie die Figur des Piraten peinlich berührt ignorieren oder direkt ab- lehnen« (Liang 2010: 356). Piraterie, so scheint es, ist bestimmt von einer Lo- gik, die die wohl geordneten westlichen Konzepte von Eigentum und Legalität transversal durchkreuzt, wie ein Trickster. Piraten werden aus diesem Grund auch niemals ehrliche Verbündete der Anhänger von Gemeingütern sein kön- nen. Darüber hinaus wird Piraterie als Gefahr für die sogenannte Kreative Klasse verstanden, also letztlich als Feind der Künstler, deren legitime Interes- sen von den Piraten ignoriert werden. Dieser vermeidlich parasitäre Charakter von Piraterie verkennt jedoch dessen produktive Seite: Piraterie hat über unter- schiedliche Märkte verteilt höchst kreative Formen der Distribution erfunden (Maigret/Roszkowska 2015). Und dies ist die entscheidende Parallele, die diese Piraterie mit der Art verbindet, wie piraterische Social-Bots-Daten weiterver- teilen. Der Unterschied jedoch ist der Modus der Distribution. Daten, die Bots gesammelt haben, können in höchst unterschiedliche Richtungen verteilt wer- den, vom Kreditkartenbetrug bis zum Hacken von Websites, von erstaunlich passenden Werbeeinblendungen oder Spam bis zu Identitätsdiebstahl. Jedoch, egal welchen Modus der Redistribution die Daten nehmen und wie sie wie- der eingesetzt werden, grundsätzlich sind sie für interessierte Käufer jeglicher Couleur verfügbar, exakt wie die sogenannten ›Medien der Piraten‹. 3 | Die Recording Industry Association of America (RIAA) ist nur eine von vielen Organisationen, die über die Einhaltung von Copyrightregimen wacht und mit äußerst dubiosen Mitteln versucht, diese auch durchzusetzen. 228 Oliver Leister t Pir atenbots, algorithmen und infr astruK tur Die Macht der Piratenbots resultiert besonders aus der Macht der Infrastruk- turen, die sie bewohnen. Es ist diese Verteilung von Machtrelationen innerhalb von Infrastrukturen, in denen sich die Modulation von Kontrolle – berühmt durch Gilles Deleuzes ›Postskript über die Kontrollgesellschaften‹ (1994) – ma- terialisiert, und zwar als verteilte und dezentrale logistische Knoten. In den Senken dieser environmentalen Wirkmächigkeit artikulieren und replizieren sich die Piratenbots, denn »Piraterie suggeriert nicht nur einen dauerhaften Verlust von Räumen und Märkten, sondern auch ein Verbreitungsmodell, bei dem die ›Distribution‹ selbst zu einer produktiven Form wurde. Als Dis- tributoren vervielfältigen Piraten Medien; Piraterie schafft mehr Piraterie« (Sundaram 2009: 116). Seit Algorithmen vermehrt Regulierungstätigkeiten übernommen haben (Ziewietz 2015) und als Analyseinstrumente breit einge- setzt werden (Amoore/Piotukh 2015), konnten Piratenbots Knotenpunkte oder Elemente einer Assemblage werden, die infrastrukturelle Operationen regelt. Piraterie nistet sich ein in dem, was Keller Easterling ›extrastatecraft‹ nennt (2014), um die physischen und nicht-physischen Machtformationen zeitgenös- sischer, globaler Infrastrukturökonomien zu beschreiben, die »den imperia- len Anspruch auf Standards und Infrastrukturen« darstellen (Zehle/Rossiter 2014: 349). Genau dies ist aber auch das Milieu, in dem »Piraterie in warenförmigen Tauschkreisen existier t, nur dass hier das Selbe ins Viele sich ver teilt. Ver teilung in Form von viralen Schwärmen ist die Basis piraterischer Ver- breitung, ihr Verschwinden in die versteckten Orte der Zirkulation ist das Geheimnis ihres Er folges, sowie die Verteilung der Profite in diverse Stellen des Netzwerks.« (Sun- daram 2009: 137) Ebenso proliferieren Piratenbots, indem sie zu Schwärmen werden und wieder verschwinden. In diesem Sinne ist Piraterie vielmehr als komplementär denn als para- sitär zu verstehen, in einem Modus der »Relation, der die Resilienz (und Re- dundanz) von Netzwerkinfrastrukturen anzeigt« (Zehle/Rossiter 2014: 348). Konzerne wie Microsoft nutzten die Piraterie ihrer Produkte strategisch, um Konkurrenzprogramme aus dem Open Source Feld zu bekämpfen, die in der Regel kostenlos zu haben sind. Auch dies deutet auf eine analytische Qualität des Begriffs der Piraterie hin. Insofern ist es durchaus möglich, Social Bots jenseits moralischer oder legalistischer Überlegungen in einer der Datenakkumulation verschriebenen kapitalistischen Ökonomie, die selber die Privatsphäre und informatische Selbstbestimmung strukturell angreift, zu situieren. Denn die heutige Inter- netökonomie wird im Wesentlichen von Datenmaklern und Unternehmen für 9. Social Bots 229 Werbung und Öffentlichkeitsarbeit angetrieben. Sie implementieren erfolg- reich die Logik des Kostenlosen (»free as in free beer«), bei der die Monetari- sierung auf undurchsichtigen Geschäften mit Daten beruht, von denen dieje- nigen, die die Daten liefern – die Benutzer – nichts mitbekommen. Social Bots sind insofern nur die unterdrückte, komplementäre Seite dieses Geschäftsmo- dells. Und während Medienpiraterie bereits seit Jahrzehnten ein vielschich- tiger Kampfschauplatz ist, zeichnet sich ab, dass Datenpiraterie die nächste Stufe dieses Kampfes einer Ökonomie ist, die von Verdatung lebt. Indem sie erfolgreich die Währung ›Vertrauen‹ auf Sozialen Medien attackieren und aus- nutzen, zeigen sie gleichzeitig den hohen Grad an algorithmischer Entfremdung an, den diese Plattformen produzieren. Die Tatsache, dass diese Bots es schaf- fen, erfolgreich als Menschen durchzugehen, bezeugt den äußerst prekären und sich wandelnden Status von Sozialität, der durch diese Plattformen Reali- tät geworden ist. Es ist in diesem Sinne interessant, dass diese dunkle Seite der Internet- kultur bisher wenig erforscht wird. Jenseits der üblichen Ausnahmen (Parikka 2007; Parikka/Sampson 2009; Brunton 2013) scheint die Internetforschung selbst von den Mythen der Effektivität und Immaterialität des Netzes geblen- det zu sein, der den Diskurs über das Netz seit den 1990ern formiert hat. Ein materialistischer Zugang müsste zu eben diesen vernachlässigten Figuren wie den Bots als algorithmische Piraten arbeiten, oder, um ein anderes Beispiel das kaum erforscht wird zu nennen, zu der Tatsache, dass die Pornoindustrie mitt- lerweile eine Schlüsselfigur in der Entwicklung von Standards wie Streaming- Technologien und Traffic Routing (Chun 2005) geworden ist. Das Internet als gigantische Maschine »um mehr Lärm zu produzieren« (Lovink 2005: 10), hat unzählige Aktanten. Social Bots gehören unbedingt dazu. Des Weiteren können moralische oder legalistische Diskurse keine Er- kenntnisse zur materiellen Seite des Internet produzieren: Facebooks Verbot der Darstellung stillender Mütter, bzw. deren Zensursystem generell, auch und gerade weil es legal ist, da es mit den Benutzungsbedingungen überein- stimmt, wäre ein weiterer Aspekt, der zeigt, dass Algorithmen Mitregierende in der Formatierung und Bewertung von Ausdrucksvermögen geworden sind. Sie bestimmen, was im kommerziellen Netz möglich ist und was nicht, und kontrollieren effektiv die Bedeutung von Beiträgen durch ihre vollkommen be- schränkten und normativen Konzepte dessen, was Wörter und Bilder bedeuten – der Alptraum des Dichters. Social Bots lassen sich insofern auch als Varianten solch Mitregierender verstehen, auch wenn sie teils inoffiziell oder schadhaft sind, und damit mit geringerer systemischer Handlungsfähigkeit als ihre ›Kollegen‹ ausgestattet sind, den offiziellen Algorithmen der Plattformen, mit denen sie konkurrie- ren. Darum ist die Sicht auf sie als Parasiten nicht ausreichend. Sie sind viel- mehr das Komplementäre der Datenindustrie, möglich geworden durch die 230 Oliver Leister t Geschäftsmodelle selbst. Das Vertrauen, das sie angeblich missbrauchen, ist selbst hochgradig streitbar, da Einsicht in die Berechnungsprozesse, die es erzeugen, den Benutzern ebenfalls versagt bleibt. Indem solch elementare menschliche Bedürfnisse und Bedingungen wie Vertrauen an ›Maschinen- intelligenz‹ delegiert wird, ist es unausweichlich, dass diese Maschinenlogik selbst ihr Anderes in Form von Bots als Möglichkeit produziert. Bots folgen damit lediglich dem Trend, den kommerzielle Plattformen zur Perfektion trei- ben, indem sie die Unterscheidung von Privat und Öffentlich kassiert haben. Schließlich gilt, dass »algorithmische Technologien dazu neigen, Unter- schiede der Art in Unterschiede des Grades zu verwandeln [...] oder zur Dis- tanz eines Datenpunktes zu einem anderen« (Amoore/Piotukh 2015: 361). Solch eine flache Sozialität, die sich nur noch gradweise differenziert, wird aufgrund ihrer unbegrenzten Vermögen der Reproduktion und Distribution unumgänglich nur viel mehr Desselben produzieren können. Indem Bots dy- namisch ihre simulierten Referenzen wechseln, und nach ihrer Neutralisie- rung wie eine Hydra in automatisch generierten Profilen wieder erscheinen, sind Social Bots als erste ›Natives‹ heutiger Umgebungen sozialer Medien zu verstehen, die sich selbst anhand ihrer einprogrammierten Reproduktionsre- geln generisch reproduzieren können. Sie zu bannen und einzugrenzen wird auf lange Sicht wenig Erfolg haben, da die Plattformen selbst die menschli- chen Subjektivitäten produzieren, die jene Kompatibilität aufweisen, die die Bots brauchen, um mit ihnen in Kontakt treten zu können. Wer sich von den Standardisierungen, Zensursystemen, Nutzungsbedingungen, Templates, algorithmischen Prozessen und Datenbank-basierten Vernetzungen regieren lässt, hat sich in der Logik der Kontrolle durch Protokolle (Galloway 2004) ein- gerichtet. Algorithmische Piraten, wie einige Social Bots es sind, haben keine Probleme, die Anforderungen dieser protokologischen Bedingungen zu be- dienen und sind deshalb natürlicherweise prädestiniert dazu, aktive Rollen in solch einer environmentalen Logik der Kontrolle zu bekleiden. Übersetzt von Moritz Plewa. liter aturVer Zeichnis Amoore, L./Piotukh, V. (2015): »Life beyond Big Data: Governing with Little Analytics«, Economy and Society 44 (3): S. 341-366. Anderson, C.W. (2012): »Towards a Sociology of Computational and Algorith- mic Journalism«, New Media & Society 15 (7), S. 1005-1021. Andrejevic, M. (2007): »Surveillance in the Digital Enclosure«, The Communi- cation Review 10 (4), S. 295-317. 9. Social Bots 231 Andrejevic, M. (2011): »The Work That Affective Economics Does«, Cultural Studies 25 (4-5), S. 604-620. Bauman, Z./Lyon, D. (2013): Liquid Surveillance a Conversation, Cambridge, UK und Malden, MA: Polity Press. Baym, N.K./Boyd, D. (2012): »Socially Mediated Publicness: An Introduction«, Journal of Broadcasting & Electronic Media 56 (3), S. 320-329. Ben-Atar, D.S. (2004): Trade Secrets: Intellectual Piracy and the Origins of Amer- ican Industrial Power, New Haven, CT: Yale University Press. Bilton, N. (2014): »Social Media Bots Offer Phony Friends and Real Prof- it«, The New York Times, 19. November, abgerufen auf: www.nytimes. com/2014/11/20/fashion/social-m edia-bots- offer-phony- friends-and- real- profit.html?_r=0 (zuletzt am 24. Oktober 2015). Boczkowski, P. (1999): »Mutual Shaping of Users and Technologies in a Na- tional Virtual Community«, Journal of Communication 49 (2), S. 86-108. Boshmaf, Y./Muslukhov, I./Beznosov, K./Ripeanu, M. (2011): »The Socialbot Network: When Bots Socialize for Fame and Money«, Proceedings of the 27th Annual Computer Security Applications Conference, ACM, S.  93-102, abge- rufen auf: http://dl.acm.org/citation.cfm?id=2076746 (zuletzt am 16. Feb- ruar 2015). Boshmaf, Y./Muslukhov, I./Beznosov, K./Ripeanu, M. (2012): »Key Challenges in Defending against Malicious Socialbots«, Proceedings of the 5th USENIX Conference on Large- Scale Exploits and Emergent Threats, USENIX Associ- ation, S.  12-12, abgerufen auf: www.usenix.org/system/files/conference/ leet12/leet12-final10.pdf (zuletzt am 24. September 2015). Braman, S. (2006): Change of State: Information, Policy, and Power. Cambridge, MA: The MIT Press. Brunton, F. (2013): Spam: A Shadow History of the Internet. Cambridge, MA: The MIT Press. Bucher, T. (2013): »The Friendship Assemblage: Investigating Programmed So- ciality on Facebook«, Television & New Media 14 (6), S. 479-493. Chun, W.H.K. (2005): Control and Freedom: Power and Paranoia in the Age of Fiber Optics. Cambridge, MA: The MIT Press. Deleuze, G. (1993): »Postskriptum über die Kontrollgesellschaften«, ders. Un- terhandlungen 1972-1990, Frankfurt a.M.: Suhrkamp, S. 254-262. Dencik, L./Leistert, O. (Hg.) (2015): Critical Perspectives on Social Media and Protest: Between Control and Emancipation, London: Rowman & Littlefield. Dunham, K./Melnick, J. (2008): Malicious Bots: An Inside Look into the Cy- ber-criminal Underground of the Internet, Boca Raton, FL, London und New York: CRC Press. Easterling, K. (2014): Extrastatecraft: The Power of Infrastructure Space. London und New York: Verso. 232 Oliver Leister t Foucault, M. (2015): Die Strafgesellschaft: Vorlesung am Collège de France 1972 – 1973, Berlin: Suhrkamp. Fuchs, C. (2013): »Class and Exploitation in the Internet«, Trebor Scholz (Hg.) Digital Labor: The Internet as Playground and Factory, New York: Routledge, S. 211-223. Galloway, A. (2004): Protocol: How Control Exists after Decentralization, Cam- bridge, MA: The MIT Press. Gehl, R.W. (2014): Reverse Engineering Social Media: Software, Culture, and Polit- ical Economy in New Media Capitalism, Philadelphia, PA: Temple University Press. Geiger, R.S. (2014): »Bots, Bespoke, Code and the Materiality of Software Plat- forms«, Information, Communication & Society 17 (3): S. 342-356. Gillespie, T. (2014): »The Relevance of Algorithms«, hg.  v. T. Gillespie, P. J. Boczkowski und K. A. Foot (Hg.) Media Technologies: Essays on Communi- cation, Materiality, and Society, Cambridge, MA: The MIT Press, S. 167-193. Gillespie, T.,/Boczkowski, P.J./Foot, K.A. (2014): Media Technologies: Essays on Communication, Materiality, and Society. Cambridge, MA: The MIT Press. Goldman, D. (2014): »23 Million Twitter Users Are Fed by Robots«, CNN Mon- ey, abgerufen auf: http://money.cnn.com/2014/08/12/technology/social/ twitter- bots/index. html (zuletzt 1. November 2015). Graeff, E.C. (2014): »What We Should Do Before the Social Bots Take Over: Online Privacy Protection and the Political Economy of Our Near Future«, Massachusetts Institute of Technology, Cambridge, MA, abgerufen auf: http://web.mit.edu/sts/Graeff.pdf (zuletzt am 7. Oktober 2015). Greenwald, G. (2014): No Place to Hide: Edward Snowden, the NSA and the Sur- veillance State. London: Penguin Books. Haggerty, K.D./Ericson, R. (2000): »The Surveillant Assemblage«, British Jour- nal of Sociology, 51 (4): S. 605-622. Hingston, P. (2012): Believable Bots, Berlin und Heidelberg: Springer. Hintz, A. (2015): »Social Media Censorship, Privatized Regulation and New Re- strictions to Protest and Dissent«, L. Dencik und O. Leistert (Hg.) Critical Perspectives on Social Media and Protest: Between Control and Emancipation, London: Rowman & Littlefield, S. 109-126. Landau, S. (2010): Surveillance or Security?: The Risks Posed by New Wiretapping Technologies, Cambridge, MA: The MIT Press. Langlois, G.,/Redden, J./Elmer, G. (2015): Compromised Data: From Social Me- dia to Big Data. New York und London: Bloomsbury. Lash, S. (2007): »Power after Hegemony: Cultural Studies in Mutation?«, The- ory, Culture & Society, 24 (3): S. 55-78. Latour, B. (1999): Pandora’s Hope: Essays on the Reality of Science Studies, Cam- bridge, MA: Harvard University Press. 9. Social Bots 233 Latzko-Toth, G. (2014): »Users as Co- Designers of Software- Based Media: The Co-Construction of Internet Relay Chat«, Canadian Journal of Communica- tion 39 (4), S. 577-595. Leistert, O. (2013): »Smell the Fish: Digital Disneyland and the Right to Oblivi- on«, First Monday 18 (3), doi: 10.5210/fm.v18i3.4619. Lessig, L. (2002): The Future of Ideas: The Fate of the Commons in a Connected World, New York: Vintage. Liang, L. (2010): »Beyond Representation: The Figure of the Pirate«, A. Kap- czynski und G. Krikorian (Hg.), Access to Knowledge in the Age of Intellectual Property, New York: Zone Books, S. 353-376. Linebaugh, P. (2013): Stop: The Commons, Enclosures, and Resistance, Oakland, CA: PM Press. Lovink, G. (2005): The Principle of Notworking: Concepts in Critical Internet Cul- ture, Amsterdam: Amsterdam University Press. Lyon, D. (2014): »Surveillance, Snowden, and Big Data: Capacities, Conse- quences, Critique«, Big Data & Society 1 (2), doi: 10.1177/2053951714541861. Maigret, N./Roszkowska, M. (2015): The Pirate Book. Ljubljana: Aksioma-Insti- tute for Contemporary Art, abgerufen unter: http://thepiratebook.net. Messias, J.,/Schmidt, L./Oliveira, R./Benevenuto, F. (2013): »You Followed My Bot! Transforming Robots into Influential Users in Twitter«, First Monday, 18 (7). Milan, S. (2015): »Mobilizing in Times of Social Media: From a Politics of Iden- tity to a Politics of Visibility«, L. Dencik und O. Leistert (Hg.), Critical Per- spectives on Social Media and Protest: Between Control and Emancipation,Lon- don: Rowman & Littlefield, S. 53-70. Niederer, S./van Dijck, J. (2010): »Wisdom of the Crowd or Technicity of Con- tent? Wikipedia as a Sociotechnical System«, New Media & Society 12 (8): S. 1368-1387. Paganini, P. (2013): PsyOps and Socialbots: InfoSec Resources, abgerufen auf: http://resources.infosecinstitute.com/psyops- and-socialbots/ (zuletzt am 29. Oktober 2015). Parikka, J. (2007): Digital Contagions: A Media Archaeology of Computer Viruses. New York: Peter Lang. Parikka, J./Sampson, T.D. (2009): The Spam Book: On Viruses, Porn, and Other Anomalies from the Dark Side of Digital Culture, New York: Hampton Press. Ross, A. (2013): »In Search of the Lost Paycheck«, Trebor Scholz (Hg.), Digital Labor: The Internet as Playground and Factory, ew York: Routledge, S 13-32. Schellekens, M.H.M. (2013): »Are Internet Robots Adequately Regulated?«, Computer Law & Security Review 29 (6): S. 666-675. Snake-Beings, E. (2013): »From Ideology to Algorithm: The Opaque Politics of the Internet«, Transformations: Journal of Media and Culture 23, abgerufen 234 Oliver Leister t auf: www.transformationsjournal.org/issues/23/article_03.shtml (zuletzt am 28. Mai 2016). Stein, T./Chen, E./Mangla, K. (2011): »Facebook Immune System«, SNS 2011 Proceedings of the 4th Workshop on Social Network Systems, ACM, S. 1-8. Sundaram, R. (2009): Pirate Modernity: Delhi’s Media Urbanism, London und New York: Routledge. Thrift, N.J. (2005): Knowing Capitalism. London: Sage. Wagner, C./Strohmaier, M. (2010): »The Wisdom in Tweetonomies: Acquir- ing Latent Conceptual Structures from Social Awareness Streams«, SEM- SEARCH ’10 Proceedings of the 3rd International Semantic Search Workshop, ACM, 6, abgerufen auf: http://dl.acm.org/citation.cfm?id=1863885 (zuletzt am 28. November 2014). Wang, A.H. (2010): »Detecting Spam Bots in Online Social Networking Sites: A Machine Learning Approach«, Data and Applications Security and Privacy XXIV, Springer, S. 335-342. Wikipedia (2015a), »Bots«, https://en.wikipedia.org/wiki/Wikipedia:Bots (zu- letzt aufgerufen am 25. Oktober 2015). Wikipedia (2015b): »History of Wikipedia Bots« https://en.wikipedia.org/wiki/ Wikipedia: History_of_Wikipedia_bots (zuletzt aufgerufen am 25. Oktober 2015). Zehle, S./Rossiter, N. (2014): »Privacy Is Theft: On Anonymous Experiences, lnfrastructural Politics and Accidental Encounters«, J. Arvanitakis und M. Fredriksson (Hg.), Piracy: Leakages from Modernity, acramento, CA: Litwin Books, S. 345-353. Ziewitz, M. (2015): »Governing Algorithms: Myth, Mess, and Methods«, Sci- ence, Technology & Human Values, online zuerst am 30. September. Autoren Jean-Samuel Beuscart ist Soziologe am Orange Labs und Professor an der Uni- versität Marne-la-Vallée (LISIS). Seine Forschungen beschäftigen sich mit di- gitalen Märkten und digitaler Konsumption. Er hat verschiedene Arbeiten zur Online-Partizipation, zu digitalen Empfehlungssystemen und zu dezentrali- sierten Bewertungsinstrumenten veröffentlicht: zusammen mit Kevin Mellet Promouvoir les oeuvres culturelles (Paris, La Documentation Française, 2012), und zusammen mit Eric Dagiral und Sylvain Parasie Sociologie d’internet (Pa- ris, Armand Collin, 2016). Dominique Cardon ist Professor für Soziologe am Sciences Po/Médialab in Paris. Er forscht zur Transformation des öffentlichen Raumes und zum Ge- brauch neuer Technologien. Er hat verschiedene Aufsätze zur Stellung neu- er Technologien in der No-global-Bewegung, zu alternativen Medien und zu Bottom-up-Innovationen in der digitalen Welt veröffentlicht. Publikationen umfassen u.a. A quoi rêvent les algorithms (Paris: Seuil/République des idées, 2015), La démocratie Internet (Paris: Seuil/République des idées, 2010) und, mit Fabien Granjon, Médiactivistes (Paris: Presses de Science Po, 2010). Tarleton Gillespie ist Leitender Wissenschaftler am Microsoft Research in New England, affiliierter Professor am Department of Communication und Depart- ment of Information Science der Cornell Universität, sowie assoziiertes Mit- glied des Berkman Klein Center für Internet & Society der Harvard Universität. Sein erstes Buch Wired Shut: Copyright and the Shape of Digital Culture erschien 2007 bei MIT Press. Er ist Mitherausgeber (zusammen mit Pablo Boczkow- ski und Kirsten Foot) des Bandes Media Technologies: Essays on Communicati- on, Materiality, and Society (MIT, 2014). Er ist auch Mitbegründer des Culture Digitally Blogs, www.culturedigitally.org. Aktuell forscht er zur soziologischen Bedeutung der Plattformen und Algorithmen sozialer Medien. Sein nächstes Buch (das 2018 bei Yale University Press erscheinen wird) untersucht die Frage, welche Auswirkungen die von sozialen Medien eingeführten Richtlinien auf die Meinungsfreiheit und auf den Charakter des öffentlichen Diskurses haben. 236 Algorithmuskulturen Lucas D. Introna ist Professor für Technologie, Organisation und Ethik am Centre for the Study of Technology and Organization der Lancaster Univer- sity. Sein primäres Forschungsinteresse gilt der sozialwissenschaftlichen Er- forschung von Technologien. Konkret interessiert er sich für die theoretische Erschließung sozio-technischer Verflechtungen, mit besonderem Fokus auf Ethik und Politik. Er hat zu einer Vielzahl von Themen publiziert, z.B. zu So- ziomaterialität, Performativität, Phänomenologie der Technik, Information und Macht, Datenschutz, Überwachung, Technikethik und Virtualität. Er ist Mitherausgeber von Ethics and Information Technology und ist assoziierter Her- ausgeber einer Reihe führender Zeitschriften. Joseph Klett, der seinen PhD für Soziologie an der Yale University erworben hat, ist Research Fellow der Chemical Heritage Foundation und Visiting Scho- lar des Science & Justice Research Center der University of California, Santa Cruz. Er hat zu sozialen Praktiken geforscht, die Noise Music soziale Bedeu- tung verleihen (»The Meaning of Indeterminacy«, in: Cultural Sociology, 2014), sowie zur ethnographischen Forschung akustischer Interaktionen (»Sound on Sound«, in: Sociological Theory, 2014). Derzeit vervollständigt er ein Buchma- nuskript, das untersucht, wie Experten in akustischen Kulturen Wissen pro- duzieren. Oliver Leistert ist derzeit Postdoc an der Leuphana Universität Lüneburg im von der VW-Stiftung geförderten Projekt »Complexity or Control?«. Zuvor war er Postdoc am DFG-Graduiertenkolleg »Automatismen« der Universität Pader- born. Er hat Philosophie, Informatik und Literaturwissenschaft studiert. Mit seiner medienwissenschaftlichen Promotion From Protest to Surveillance: The Political Rationality of Mobile Media (Peter Lang 2013) gewann er den Surveil- lance & Society Book Award 2014. Zuletzt erschien (hg. zusammen mit Lina Dencik) Critical Perspectives on Social Media and Protest. Between Control and Emancipation (London: Rowman & Littlefield, 2015). Kevin Mellet forscht am Social Sciences Department von Orange Labs und ist assoziierter Forscher am Centre de Sociologie de l’Innovation (Mines Paris- Tech). Ursprünglich als Wirtschaftswissenschafter ausgebildet, hat er sich Fachkenntnisse in Wirtschaftssoziologie und den Science und Technologie Studies erworben. In seiner Forschung untersucht er die Konstruktion di- gitaler Märkte. Derzeitige Forschungsfelder umfassen Marketing- und Wer- bepraktiken, partizipative Bewertungsinstrumente, Geschäftsmodelle und Marktintermediation. Shintaro Miyazaki ist Medien- und Designwissenschaftler und experimenteller Mediengestalter. Seit 2014 ist er Senior Researcher am Institut Experimentel- Autoren 237 le Design- und Medienkulturen der Hochschule für Gestaltung und Kunst, Fachhochschule Nordwestschweiz in Basel. Studium an Universitäten in Ba- sel und Berlin. Promotion in Medientheorie an der Humboldt-Universität zu Berlin (2012). Resident Fellow an der Akademie Schloss Solitude in Stuttgart (2011-2012). Seine aktuellen Interessen sind Kybernetik, Designtheorie und -forschung, Komplexität und wissenschaftliche Modelle (Schaltkreise und Si- mulationen). Valentin Rauer forscht als Soziologe am Exzellenzcluster »Die Herausbildung normativer Ordnungen« an der Goethe-Universität Frankfurt a.M. Er arbeitet u.a. zu sozialen und kulturellen Praktiken, die Vergangenheit und Zukunft in gegenwärtige soziale Situationen transformieren (kulturelle Erinnerungen, Sicherheitskulturen, Digitalisierungen). Aktuelle Publikationen sind u.a. »The Visualization of Uncertainty«, in: Alexander, J.C. et al. (Eds.): Iconic Power (New York: Palgrave MacMillan 2012); »Von der Schuldkultur zur Sicherheits- kultur«, Sicherheit & Frieden (2012) sowie »Combining methods: connections and zooms in analysing hybrids (mit J. Junk). In: Daase, C. et al. (Eds.): Dia- logues on Security, 2016, Routledge, S. 225-241. Jonathan Roberge ist Professor für Kultur und Stadtsoziologie am Institut Na- tional de la Recherche Scientifique in Quebec, Kanada. Er hat den Kanada For- schungslehrstuhl »Digital Culture« inne und ist Fakultätsmitglied des Center for Cultural Sociology der Yale University. Robert Seyfert ist Akademischer Rat am Institut für Soziologie der Universität Duisburg-Essen. Aktuelle Forschungsschwerpunkte sind Soziologische Theo- rien, Theorien der Emotionen und Affekte, sowie Wirtschafts- und Finanz- marktsoziologie. Derzeit forscht er zum automatisierten Börsenhandel und zu sozialen Algorithmen. Aktuelle Publikationen sind in Theory, Culture & Society, European Journal of Social Theory und Economy & Society erschienen. Danksagung Dieser Band geht aus Beiträgen hervor, die zuerst auf der vom 23.-24. Juni 2014 an der Universität Konstanz stattfindenden Algorithmic Cultures Konferenz vor- gestellt wurden. Der Band und die Konferenz wurden durch die großzügige Unterstützung des Canada Research Chairs Program und des im Rahmen der Exzellenzinitiative des Bundes und der Länder eingerichteten Exzellenzclus- ters der Universität Konstanz Kulturelle Grundlagen von Integration ermöglicht. Soziologie Uwe Becker Die Inklusionslüge Behinderung im flexiblen Kapitalismus 2015, 216 S., kart., 19,99 € (DE), ISBN 978-3-8376-3056-5 E-Book: 17,99 € (DE), ISBN 978-3-8394-3056-9 EPUB: 17,99 € (DE), ISBN 978-3-7328-3056-5 Gabriele Winker Care Revolution Schritte in eine solidarische Gesellschaft 2015, 208 S., kart., 11,99 € (DE), ISBN 978-3-8376-3040-4 E-Book: 10,99 € (DE), ISBN 978-3-8394-3040-8 EPUB: 10,99 € (DE), ISBN 978-3-7328-3040-4 Johannes Angermuller, Martin Nonhoff , Eva Herschinger, Felicitas Macgilchrist, Martin Reisigl, Juliette Wedl, Daniel Wrana, Alexander Ziem (Hg.) Diskursforschung Ein interdisziplinäres Handbuch (2 Bde.) 2014, 1264 S., kart., 2 Bde. im Schuber, zahlr. Abb. 44,99 € (DE), ISBN 978-3-8376-2722-0 E-Book: 44,99 € (DE), ISBN 978-3-8394-2722-4 Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de Soziologie Silke Helfrich, Heinrich-Böll-Stiftung (Hg.) Commons Für eine neue Politik jenseits von Markt und Staat 2014, 528 S., kart., 24,80 € (DE), ISBN 978-3-8376-2835-7 als Open-Access-Publikation kostenlos erhältlich E-Book: ISBN 978-3-8394-2835-1 Carlo Bordoni Interregnum Beyond Liquid Modernity März 2016, 136 p., 19,99 € (DE), ISBN 978-3-8376-3515-7 E-Book: 17,99 € (DE), ISBN 978-3-8394-3515-1 EPUB: 17,99 € (DE), ISBN 978-3-7328-3515-7 Kijan Espahangizi, Sabine Hess, Juliane Karakayali, Bernd Kasparek, Simona Pagano, Mathias Rodatz, Vassilis S. Tsianos (Hg.) movements. Journal für kritische Migrations- und Grenzregimeforschung Jg. 2, Heft 1/2016: Rassismus in der postmigrantischen Gesellschaft September 2016, 272 S., kart. 24,99 € (DE), ISBN 978-3-8376-3570-6 als Open-Access-Publikation kostenlos erhältlich: www.movements-journal.org Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de