EDITED VOLUMES
Martina Bachor, Theo Hug, Günther Pallaver (Hg.) 
DataPolitics  
Zum Umgang mit Daten im
digitalen Zeitalter
innsbruck university press
EDITED VOLUME SERIES
innsbruck university press

Martina Bachor, Theo Hug, Günther Pallaver (Hg.) 
DataPolitics  
Zum Umgang mit Daten
im digitalen Zeitalter 
Martina Bachor
Institut für Medien, Gesellschaft und Kommunikation, Universität Innsbruck 
Theo Hug
Leiter des Instituts für Medien, Gesellschaft und Kommunikation, Universität Innsbruck
Sprecher des interfakultären Forums Innsbruck Media Studies an der Universität Innsbruck
Günther Pallaver
Institut für Politikwissenschaft und Institut für Medien, Gesellschaft und Kommunikation, Universität Innsbruck 
Institut für vergleichende Föderalismusforschung/Eurac Research, Bozen
Gedruckt mit finanzieller Unterstützung der Moser Holding AG, der Austria Presse Agentur (APA), des Inter-
fakultären Forums Innsbruck Media Studies sowie des Vizerektorats für Forschung der Universität Innsbruck.
© innsbruck university press, 2021
Universität Innsbruck
1. Auflage
Alle Rechte vorbehalten.
Umschlagbild: © Christoph Pirker
www.uibk.ac.at/iup
ISBN 978-3-99106-046-8
Inhaltsverzeichnis 
 
 
Martina Bachor, Theo Hug, Günther Pallaver 
Editorial – Chancen und Gefahren der politischen Nutzung von Daten  .............................  7 
 
Tilmann Märk, Rektor der Universität Innsbruck 
Grußworte zum Medientag 2021  .......................................................................................  13 
 
Hermann Petz, CEO Moser Holding 
Grußworte zur Eröffnung des Medientags 2021  ...............................................................  15 
 
Clemens Pig, CEO APA 
Geleitwort für den Medientag Innsbruck 2021  .................................................................  17 
 
Oliver Leistert 
Das Phänomen Trump als Effekt von Microtargeting und Psychometrie  .........................  19 
 
Marian Adolf & Nico Stehr 
Information, Wissen und die Wiederkehr der Sozialen Physik ..........................................  35 
 
Hans-Martin Schönherr-Mann 
Vom Machiavellismus zur Hospitalisierung – Expertokratie oder  
Mündigkeit im Zeitalter der Digitalisierung  .....................................................................  55 
 
Elsa-Margareta Venzmer 
Das digitale Panopticon – Wie die NSA-Überwachung unser 
Verhalten verändert  ...........................................................................................................  73 
 
 
 
6  Inhaltsverzeichnis 
Valentin Dander 
Datenpolitiken ‚von unten‘ zwischen Aktivismus und 
Politischer Medienbildung  ................................................................................................  93 
 
Anna-Maria Neuschäfer 
Datenaktivismus und Digital Citizenship  .......................................................................  111 
 
Silvia Lipp 
Learning Analytics – Datenschutzrechtliche Bestimmungen als Ausgangspunkt  
einer verantwortungsvollen Nutzung von Bildungsdaten ................................................  121 
 
Michaela Rizzolli 
Umgang mit (digitalen) Forschungsdaten: Rahmungen, Effekte  
und Herausforderungen  ..................................................................................................  135 
 
Andre Wolf 
Funktionsweisen von Verschwörungserzählungen auf Social Media und  
der parallel aufkeimende Antisemitismus  ......................................................................  149 
 
Tobias Stadler 
Ölstandsanzeiger: Über die Unsichtbarmachung und Naturalisierung  
der Produktion personenbezogener Daten  ......................................................................  163 
 
Leena Simon  
Digitale Mündigkeit im Spannungsfeld zwischen ich und wir –  
Ein Ratgeber in zehn konkreten Schritten  ......................................................................  177 
 
Kurzbiografien der Autorinnen und Autoren  .................................................................  185 
 
 
Editorial 
Chancen  und  Gefahren  der  politischen  Nutzung  von  Daten 
Martina Bachor, Theo Hug, Günther Pallaver 
 
Der Umgang mit digitalen Daten steht seit Jahren im öffentlichen Diskurs und hat im Zu-
sammenhang mit COVID-19 zusätzliche Aufmerksamkeit erfahren. Dabei wurde in den 
vergangenen fünfundzwanzig Jahren eine zunehmende Erfassung, Speicherung und Ver-
breitung digitaler Daten beobachtet. (Selwyn 2015, S. 64) Das wirft die Frage auf, welche 
Funktion digitale Daten in der modernen Gesellschaft haben oder haben sollten, welche 
Auswirkungen sie auf Grundrechte ausüben und inwiefern sie die gesellschaftliche Un-
gleichheit fortschreiben, vergrößern oder den entgegengesetzten Weg der gesellschaftli-
chen Gleichheit fördern. 
Auf der einen Seite des Diskurses werden hauptsächlich die Vorteile gesehen, welche die 
Digitalisierung und die damit einhergehende Datenerfassung hat. Dabei liegt der Fokus 
insbesondere auf kompetitiven Vorteilen im ökonomischen Sektor (Raguseo et al. 2021, S. 
9) Auf der anderen Seite herrschen oft dystopische Zukunftsvorstellungen, in denen die 
Digitalisierung zur absoluten Kontrolle der BürgerInnen führt, welche dadurch in ihren 
Freiheiten massiv eingeschränkt werden. Fälle von Datenmissbrauch, wie beispielsweise 
im US Wahlkampf 2016 durch Cambridge Analytica, stützen diese Ansicht. (Isaak, Hanna 
2018, S. 57) 
Die umfangreiche Nutzung von Daten wird besonders von Wirtschaft und Politik einge-
setzt, um Einfluss auf KonsumentInnen und WählerInnen zu nehmen. Dabei kann zum 
Beispiel eine Analyse der hinterlassenen Datenspuren als Hinweis dienen, um einen spezi-
fischen Content an den/die UserIn weiterzugeben. Dadurch entsteht der Eindruck, dass 
diese eine Seite des Diskurses die einzig valide ist. Anstatt kritischen Stimmen den Vorzug 
zu geben, werden Algorithmen so programmiert, um immer weiter ähnliche Beiträge zu 
pushen. Dadurch können allzu leicht sogenannte Filterblasen entstehen. (Bozdag & Van 
den Hoven 2015, S. 250) 
Wenngleich auf der einen Seite digitale Datenerfassung zu einer enormen Verbesserung 
der individuellen Empfehlungen für die NutzerInnen des Internets sowie eine exaktere 
Prognose im gesellschaftlichen Rahmen führt, birgt sie zugleich die Gefahr des Miss-
brauchs im ökonomischen sowie politischen Wettbewerb. Besondere deutlich wird dies 
am Beispiel des Social Credit Systems in China. Dabei wird das individuelle Fehlverhalten 
systematisch erfasst und hat dadurch reale Konsequenzen für die Einzelnen. (Creemers 
2018, S. 3) Durch die digitale Überwachung und die immer effizienter werdenden Aus-
wertungsmethoden entsteht eine Welt, die mitunter sehr an Orwells 1984 erinnert. Dieses 
8  Martina Bachor, Theo Hug, Günther Pallaver 
Gefühl der andauernden Beobachtung beeinflusst nachgewiesen das Verhalten der Indivi-
duen sowohl in der physisch-realen als auch in der digitalen Welt. (Goggin 2013, S. 13) 
Durch die immensen Vorteile, die sich durch die Daten-Analyse ergeben, stellt sich die 
Frage, wie demokratische Systeme Lösungen entwickeln können, um die Daten vor Miss-
brauch von außen sowie von innen zu schützen, ohne vollständig auf diese zu verzichten. 
Daten können ideologisiert und instrumentalisiert, aber auch zu einer besseren und konkre-
teren Adressierung der Bedürfnisse der BürgerInnen genutzt werden.  
Dabei gibt es verschiedene Ebenen der Verantwortung – eine makropolitische, die durch 
die globale Nutzung des Internets als eine weltweite begriffen werden kann, eine mesopo-
litische Verantwortung auf der Ebene von Institutionen und individuelle Verantwortungs-
bereiche. In den Beiträgen in diesem Band werden die verschiedenen Ebenen analysiert, 
wobei der Schwerpunkt primär auf den globalen Auswirkungen liegt. Gerade mit Blick auf 
die Entwicklungen im Gesundheitswesen des vergangenen Jahres ist es umso wichtiger 
geworden zu diskutieren, wie der Schutz der Gesundheit auf der einen Seite möglich wird, 
ohne ein System zu schaffen, das zum Missbrauch und zur staatlichen oder globalen 
Überwachung einlädt.  
Vielfältig wie kontrovers ist somit die Suche nach Lösungen aus diesem Dilemma zwi-
schen Gebrauch und Missbrauch von Daten. Innerhalb dieses Diskurses setzen sich die 
Beiträge in diesem Sammelband mit einer Reihe von relevanten Fragen auseinander und 
zeigen Ansätze für Lösungen auf. Solche Fragen, die um diese Themen kreisen, hätten 
beim für 2020 geplanten Medientags diskutiert werden sollen und waren Gegenstand der 
gekoppelten Ringvorlesung mit Übung. Aufgrund der im November 2020 eingeführten 
Maßnahmen rund um COVID-19 wurde der Medientag auf das Folgejahr 2021 verschoben 
und beschlossen, den Themenkomplex auch im kommenden Wintersemester 2021/22 im 
Rahmen der Ringvorlesung zu behandeln. Unverändert bleibt die Zielrichtung, sich von 
verschiedenen Perspektiven dem Thema anzunähern, um zu einem möglichst umfassenden 
Bild der Situation zu gelangen. Der Medientag sowie die damit verbundene Ringvorlesung 
mit Übung wurden und werden durch das interfakultäre Forum „Innsbruck Media Studies“ 
in Kooperation mit der Moser Holding AG sowie der Austria Presse Agentur an der Uni-
versität Innsbruck veranstaltet. Die Grußworte von Tilmann Märk, Rektor der Leopold-
Franzens-Universität Innsbruck, Hermann Petz, CEO der Moser Holding, und Clemens 
Pig, CEO der APA, leiten zu den Beiträgen in diesem Band über.  
Oliver Leistert leitet den Band mit seinem Text Das Phänomen Trump als Effekt von 
Microtargeting und Psychometrie ein, in dem er kritisch und meinungsstark die Entwick-
lung des Internets und die damit einhergehende Datennutzung analysiert. Dabei legt er die 
Überwachungs- und Trackingtechnologien bloß und erläutert das Dispositiv des Datenex-
traktivismus als primäres Geschäftsmodell heutiger Datenökonomien. Die Präsidentschaft 
von Donald Trump und die mit ihm verbundene, inzwischen aufgelöste Firma Cambridge 
Analytica, die unter anderem ihn sowie dem Brexit zum Erfolg geführt haben, können als 
Editorial 9 
Zäsur der politischen Kommunikation angesehen werden. Diese zielt erfolgreich auf die 
Zersetzung demokratischer Regeln und Prozesse ab und greift dazu auf Mittel der Des- 
und Falschinformation zurück.   
Die Autoren Marian Adolf und Nico Stehr erörtern in ihrem Beitrag Information, Wissen 
und die Wiederkehr der Sozialen Physik auf Basis eines genuin soziologischen Wissens-
begriffs Möglichkeiten und Gefahren einer Rückkehr des mechanistischen Gesellschafts- 
und Menschenbildes im Sinne der „physique sociale“ im digitalen Zeitalter. Dabei gehen 
sie unter anderem darauf ein, wie schnell dadurch ideologische Kontrolle ermöglicht wird. 
Der Beitrag Vom Machiavellismus zur Hospitalisierung – Expertokratie oder Mündigkeit 
im Zeitalter der Digitalisierung von Hans-Martin Schönherr-Mann setzt sich mit der Hos-
pitalisierung der Gesellschaft in Folge der Corona-Pandemie auseinander und geht insbe-
sondere auf die damit einhergehenden Freiheitsbeschränkungen ein, die durch digitale 
Überwachungstechniken entstehen, sowie auf die verlorengehende Mündigkeit der Bürge-
rInnen. Dabei kritisiert er die mangelnde Möglichkeit, sich zur Wehr setzen zu können, 
weil es an seriöser kritischer Information mangelt. 
Im Beitrag Das digitale Panopticon – Wie die NSA-Überwachung unser Verhalten verän-
dert überträgt die Autorin Elsa-Margareta Venzmer das Konzept des Panopticons von 
Jeremy Bentham auf die heutige digitale Welt. Dabei geht sie insbesondere auf die entste-
henden Effekte der Selbstzensur ein, welche durch das Bekanntwerden der Datenaufzeich-
nungen durch die NSA nachweisbar sind.  
Datenpolitiken ‚von unten‘ zwischen Aktivismus und Politischer Medienbildung ist Gegen-
stand der Ausführungen von Valentin Dander. Dabei setzt er sich mit den reaktiven und 
proaktiven Praktiken und Taktiken der auf den verschiedenen Ebenen agierenden Figuren 
und deren Fähigkeiten auseinander, insbesondere in Bezug auf Data Literacy.  
Anna-Maria Neuschäfer stellt im Beitrag Datenaktivismus und Digital Citizenship das 
Konzept der gesellschaftlichen Teilhabe über digitale Medien vor. Dabei geht sie insbe-
sondere auf die Themen Clicktivismus, Hacktivismus ein und beschreibt Handlungsräume, 
welche im Datenaktivismus relevant sind.  
Die fortschreitende Digitalisierung im Bereich des Lehrens und Lernens ist zentraler Ge-
genstand im Beitrag Learning Analytics – Datenschutzrechtliche Bestimmungen als Aus-
gangspunkt einer verantwortungsvollen Nutzung von Bildungsdaten von Silvia Lipp. Die 
Autorin differenziert zwischen den Chancen, die durch die Nutzung von Bildungssoftware, 
und den Gefahren, die durch Vernachlässigung der Rechte der involvierten Personen in 
Bezug auf den Schutz ihrer Daten entstehen.  
Auf das Handlungsfeld Forschungsdatenmanagment richtet die Autorin Michaela Rizzolli 
im Text Umgang mit (digitalen) Forschungsdaten: Rahmungen, Effekte und Herausforde-
rungen ihren Blick. Sie bezieht sich dabei auf Daten, welche im universitären Kontext 
10  Martina Bachor, Theo Hug, Günther Pallaver 
durch Studien erhoben werden und inwiefern diese zugänglich gemacht werden können 
und sollen.  
Funktionsweisen von Verschwörungserzählungen auf Social Media und der parallel auf-
keimende Antisemitismus ist der Titel des Beitrags von Andre Wolf, dessen Aktualität 
durch fast tägliche Medienberichte zu diesem Thema unterstrichen wird. Dabei geht es um 
Narrative in Krisenzeiten, Feindbilder und Radikalisierung, die eine Gefahr für die Demo-
kratie darstellen.  
Tobias Stadler schreibt in Ölstandsanzeiger: Über die Unsichtbarmachung und Naturali-
sierung der Produktion personenbezogener Daten über die Debatte, in der Datengewin-
nung mit Ölgewinnung verglichen wird. Dabei hebt er hervor, dass diese Metapher eine 
ideologische Funktion einnimmt und dazu dient zu verschleiern, dass auch eine Alternati-
ve zur Datengewinnung existiert.  
Im Text Digitale Mündigkeit im Spannungsfeld zwischen ich und wir – Ein Ratgeber in 
zehn konkreten Schritten von Leena Simon legt die Autorin dar, wie man mit wenigen 
Schritten Mündigkeit trainieren und die digitale Identität schützen kann.  
Abschließend möchten wir darauf hinweisen, dass die Beiträge in diesem Band verschie-
dene Modi des Genderns verwenden und insgesamt als geschlechtsneutral zu verstehen 
sind.  
Sowohl die Veranstaltungsorganisation als auch die Herausgabe des Sammelbands waren 
ein gemeinschaftliches Unternehmen, für das wir in mehrfacher Hinsicht zu danken haben. 
Unser besonderer Dank gilt unseren beiden Veranstaltungspartnern für ihre Unterstützung, 
der Moser Holding AG mit Herrn Mag. Hermann Petz und der Austria Presse Agentur mit 
Herrn Dr. Clemens Pig. Wir danken Frau Mag. Lisa Berger-Rudisch, Frau Barbara 
Rauchwarter und Herrn Mag. (FH) Norbert Adlassnigg für die gute Zusammenarbeit. Die 
Publikation wäre ohne die finanzielle Unterstützung des Vizerektorats für Forschung der 
Universität Innsbruck sowie der beiden Veranstaltungspartner nicht möglich gewesen. Zu 
danken haben wir außerdem Dr. Birgit Holzner und Carmen Drolshagen von innsbruck 
university press für die verlegerische Betreuung.  
 
Innsbruck, im Juni 2021 Martina Bachor, Theo Hug & Günther Pallaver 
 
  
Editorial 11 
Literatur  
 
Bozdag, Engin & van den Hoven, Jeroen (2015): Breaking the filter bubble: democracy and 
design. Ethics Inf Technol 17, S. 249–265. Abgerufen unter: 
 https://doi.org/10.1007/s10676-015-9380-y 
Creemers, Rogier (2018): China's Social Credit System: An Evolving Practice of Control, 
University of Leiden, Abgerufen unter: http://dx.doi.org/10.2139/ssrn.3175792 
Goggin, Gerard (2013): Democratic affordances: Politics, media, and digital technology after 
WikiLeaks, Ethical Space. The International Journal of Communication Ethics, Vol 10, No 
2/3, S. 6–14.  
Isaak Jim & Hanna Mina J. (2018): User Data Privacy: Facebook, Cambridge Analytica, and 
Privacy Protection. Computer, Vol. 51, No. 8, S. 56-59, doi: 10.1109/MC.2018.3191268 
Raguseo, Lisabetta; Pigni Federico & Vitari Claudio (2021): Streams of digital data and com-
petitive advantage: The mediation effects of process efficiency and product effectiveness. 
Information & Management, Vol. 58. Abgerufen unter: 
 https://doi.org/10.1016/j.im.2021.103451. 
Selwyn, Neil (2015): Data entry: towards the critical study of digital data and education, 
Learning. Media and Technology, 40:1, S. 64-82, DOI: 10.1080/17439884.2014.921628  
  
 
Grußworte zum Medientag 2021 
Tilmann Märk, Rektor der Universität Innsbruck 
 
Sehr geehrte Damen und Herren, liebe Kolleginnen und Kollegen,  
 
der Medientag und die parallel dazu organisierte Ringvorlesung der „Innsbruck Media 
Studies“ ist mittlerweile zu einem fixen Bestandteil im Jahreskalender der Universität 
Innsbruck geworden. Auch in diesem Jahr wird unter dem Titel „DataPolitics – Umgang 
mit Daten im digitalen Zeitalter“ ein hochaktuelles Thema von ausgewiesenen 
Expertinnen und Experten aus Forschung und Praxis diskutiert.  
Daten prägen unser Leben in zunehmendem Ausmaß. Es ist nachgerade zur Normalität 
geworden, dass die von uns erzeugten Daten in weiterer Folge, beispielsweise unsere 
soziale Interaktion, unseren beruflichen Alltag oder zahlreiche Konsumentscheidungen 
maßgeblich beeinflussen. Jeden Tag produzieren wir auf die unterschiedlichste Art und 
Weise, ganz bewusst und offensichtlich oder aber im Verborgenen ohne unser Wissen, 
eine Flut an Daten, und diese stellen in verschiedenen Kontexten einen enormen Wert dar. 
Die Art und Weise, wie Daten gesammelt und gespeichert werden, wie und von wem auf 
sie zugegriffen wird und welcher Verwendung sie schlussendlich zugeführt werden, 
verändert sich in den modernen Gesellschaften zum Teil in rasanter Geschwindigkeit. Ob 
Daten angemessen be- und verarbeitet und in weiterer Folge auch verwendet werden, wird 
dabei nicht zuletzt auch maßgeblich von politischen Systemen und Kontexten beeinflusst.  
So sehr also eine gezielte und sorgsame Analyse und Aufbereitung von Daten potentiell 
zur Verbesserung der Lebenssituation des Individuums beitragen kann, so gefährlich kann 
die massenhafte und intrasparente Datenerfassung und -auswertung sein, die in letzter 
Konsequenz mitunter auch zu einer asymmetrischen Machtdynamik zwischen Staat und 
Bürgerinnen und Bürgern führt. Gerade einer Volluniversität wie der Universität 
Innsbruck steht es gut zu Gesicht, der vielfach grundsätzlich positiven Wahrnehmung 
einer kontinuierlichen technischen Weiterentwicklung – und der damit unweigerlich 
verbundenen Datenaggregation – eine kritische Reflexion dieser Situation und dieser 
Entwicklungen entgegenzusetzen. In gleichem Ausmaß, wie wir uns als Universität mit 
unserem Know-how in die Weiterentwicklung von datenproduzierenden, -speichernden 
und -auswertenden Systemen und Prozessen einbringen, sollten wir ein wachsames Auge 
auf die individuellen, politischen und gesellschaftlichen Auswirkungen haben. Wie und 
wofür also Daten eingesetzt und gegebenenfalls auch instrumentalisiert werden und wie 
sich eine funktionierende Demokratie zum Wohle ihrer Bürgerinnen und Bürger auch 
gegen missbräuchliche Verwendungen schützen kann, muss ein mindestens ebenso 
14  Grußworte des Rektors der Universität Innsbruck, Tilmann Märk 
wichtiges Forschungsthema bleiben wie die technische Weiterentwicklung der daten-
haltenden Systeme.  
Die vielgestaltigen Beiträge in diesem Band zeigen, dass sich mittlerweile zahlreiche 
Expertinnen und Experten mit diesen wichtigen Forschungsthemen beschäftigen. Es ist 
von großer Bedeutung, auf Basis von gesicherten wissenschaftlichen Erkenntnissen ein 
wachsames und kritisches Auge auf so manche Entwicklung zu haben. Den Veranstal-
terinnen und Veranstaltern, den „Innsbruck Media Studies“ und dessen Sprecher, Herrn 
Kollegen Theo Hug, allen Kooperationspartnerinnen und -partnern, Vortragenden und 
Mitdiskutierenden möchte ich auf diesem Wege für ihre Beiträge und ihren Einsatz 
danken.  
 
 
Grußworte zur Eröffnung des Medientags 2021 
Hermann Petz, Vorstandsvorsitzender Moser Holding AG  
 
Sehr geehrte Damen und Herren, 
  
das Sammeln und Nutzen von Daten hat in einem Zeitalter der globalen Vernetzung einen 
enorm hohen Stellenwert eingenommen, Daten werden immer wieder als das Gold des  
21. Jahrhunderts bezeichnet. Daten sind untrennbar mit unserem Leben und dem Ausbau 
moderner Gesellschaften verknüpft, mit unserer Mobilität, Gesundheit, Arbeit und nicht 
zuletzt der Kommunikation. Das Vergleichen, Aufbereiten und Vernetzen von Daten ist 
elementar, um Entwicklungen zu erklären und um Forschung und Technologie 
voranzutreiben. Letztlich können Daten aber auch missbräuchlich verwendet werden, um 
zu steuern, um zu manipulieren und auf Kosten der Allgemeinheit gigantischen Profit zu 
schlagen. Das passiert täglich in unterschiedlichen Ausprägungen und jeder Einzelne von 
uns kann betroffen sein. 
Welch hohen Preis der neue globale Datenmarkt fordert, war den meisten Menschen nicht 
bewusst, als sie sich Anfang dieses Jahrtausends euphorisch bei Social Media Kanälen 
angemeldet, ihre Rabatt-Kundenkarte registriert oder ihre Vorlieben auf einer Partnerbörse 
geteilt haben. Im Vordergrund standen die unglaublichen Erleichterungen für Beruf und 
Alltag. Und anfänglich sogar die vage Hoffnung, dass die zunehmende Vernetzung 
schließlich auch zu einer weltweiten Demokratisierung im Sinne von Vielfalt und 
Gleichberechtigung beitragen könnte.  
Längst macht sich Ernüchterung breit und das Wissen darum, dass wir den digitalen 
Fortschritt mit dem Preis unserer Daten bezahlen, ist Allgemeingut. Die Konsequenzen 
aus diesem Prozess werden unterschiedlich spürbar. In autoritären Staaten haben 
Datentechnologien die Möglichkeiten der Totalüberwachung der Bevölkerung befeuert. In 
China beobachten wir beispielsweise eine zunehmende Verschränkung von steigendem 
materiellen Wohlstand mit dem wachsenden Einfluss des Staates über Individuen. In 
Demokratien sind es eine Handvoll internationale Konzerne, die mit global gesammelten 
und vernetzten Daten eine weltweite Monopolstellung erreichen konnten.  
Für Medien und Demokratien ist die Nutzung von Daten und Social Media mitunter 
widersprüchlich: Soziale Medien bedeuten einerseits einen niederschwelligen Zugang zu 
Informationen für alle, auch für jene, die früher von redaktionellen Berichten weitgehend 
ausgeschlossen blieben. Sie ermöglichen es Redaktionen, so unmittelbar wie noch nie mit 
ihren Rezipientinnen in Kontakt zu treten, auch im Sinne der laufenden 
Qualitätssicherung.  
16  Grußworte der CEO Moser Holding, Hermann Petz 
  
Andererseits kennen wir die alarmierenden Entwicklungen im Bereich Sozialer 
Netzwerke, wie beispielsweise die missbräuchliche Verwendung von Daten, die 
nachweislich schon zur Manipulation von Wahlen geführt haben. Wir kennen die Logik 
von Fake News und Skandalisierungen, welche die Aufgeregtheitsspirale noch schneller 
drehen und automatisch öfter gesehen werden. Nicht nur in Corona Zeiten laden soziale 
Netzwerke ein, in Meinungsblasen von Verschwörungstheoretikern zu verharren, anstatt 
den Blick für das große Ganze zu öffnen. 
Tatsächlich ist Datenpolitik heute eine Gratwanderung zwischen Fortschritt und 
Wachstum einerseits und dem verantwortungsvollen Umgang mit Daten auf der anderen 
Seite. Mehr denn je wird deshalb die enorme Bedeutung von DataPolitics bewusst, einem 
Politikbereich, der in den letzten Jahren an Bedeutung gewonnen hat. Um künftig 
Fortschritt und Sicherheit verbinden zu können, braucht es eine entschlossene Politik auf 
nationaler und EU-Ebene und sogar darüber hinaus. Diese muss auf Augenhöhe mit den 
globalen Akteuren aktiv sein, um Fairness, aber auch Handlungsfähigkeit von 
demokratischen Staaten und Individuen nachhaltig zu gewährleisten. Gleichermaßen 
müssen wir gemeinsam an einer breiten Bewusstseinsbildung arbeiten, im Bereich 
Medienkompetenz für Menschen allen Alters, aber auch in Wissenschaft und Forschung. 
Einen Beitrag dazu soll der Medientag 2021 leisten, auf den ich mich schon sehr freue.  
 
  
  
Datenpolitik zwischen Wert und Wandel –  
Geleitwort für den Medientag Innsbruck 2021 
Clemens Pig, geschäftsführender Vorstand der APA – Austria Presse Agentur 
 
Sehr geehrter Herr Rektor,   
sehr geehrte Professoren und Professorinnen,   
verehrte Veranstaltungsteilnehmerinnen und -teilnehmer, 
 
Daten sind in einer digitalisierten Welt ein zentraler Roh- und Treibstoff. Der Handel 
damit ist lukrativ. Wirtschaft, Politik und Wissenschaft haben längst erkannt: Wer den 
Menschen und sein Verhalten kennt, kann daraus Schlüsse wie auch Vorteile ziehen.  
So ist es kein Zufall, dass die großen Tech-Giganten Baustein um Baustein des digitalen 
Raumes gestalten und einnehmen. Immer geht es darum, Userinnen und User zur 
pausenlosen Nutzung und zum Hinterlassen möglichst vieler Spuren und Daten zu 
bewegen – und diese schließlich mit Milliardenprofiten zu verkaufen. Ihre rapid steigende 
Marktdominanz ist das Resultat.  
Die Datenschutzgrundverordnung der EU als Versuch, diesem Ungleichgewicht entgegen-
zutreten, ist vom Grundgedanken her richtig, hat aber das Problem nicht gelöst. Dass wir 
im Always-on-Modus täglich „Cookies akzeptieren“ und AGBs zustimmen, die wir oft 
keines Blickes gewürdigt haben, kann weder Teil einer politisch-systematischen Antwort 
noch ein befriedigender persönlicher Umgang damit sein. 
Datenanalyse funktioniert nur in der Skalierung. Deshalb zielt das Motiv weit häufiger auf 
das kollektive Verhalten ab, das möglichst exakt vorausgesagt und in unlauteren Fällen 
auch manipuliert werden kann. Cambridge Analytica, Trump oder Brexit bilden in diesem 
Zusammenhang nur die großen Headlines ab. Daten sind in sehr vielen Bereichen ein 
begehrtes Steuerungselement für wirtschaftliche oder politische Partikularinteressen. Die 
Entwicklung einer Gesellschaft darf jedoch nicht davon abhängen, in wessen Händen ihre 
Daten liegen. Praktikable, sinnvolle und effiziente Datenschutz-Initiativen sind in einer 
demokratischen Wertegemeinschaft auch unter diesem Gesichtspunkt notwendig.  
Europa positioniert sich in Sachen Datenschutz zwischen zwei Extremen: Die für die 
kommerzielle Nutzung in Datenangelegenheiten weitgehend unregulierte USA auf der 
einen und das chinesische Modell mit autoritärem Zugang und staatlicher Überwachung 
(Stichwort Social Scoring) auf der anderen Seite. Die große politische Aufgabe wird es 
sein, den vermeintlichen Widerspruch zwischen der Einhaltung europäischer Werte und 
dem Anschluss an einen globalen digitalen Datenstrom zu überwinden – digitale Unab-
hängigkeit zu erlangen und zu behalten, ohne dabei in die digitale Isolation zu geraten. 
18  Vorsitzender der Geschäftsführung und geschäftsführender Vorstand der APA, Clemens Pig 
Europa wird nicht nur auf politischer Ebene alle Anstrengung unternehmen müssen, um 
diese Balance zu finden.  
Mir ist Balance wichtig, nicht nur als Bürger, der sich eines verantwortungsvollen und 
sensiblen Umgangs mit seinen Daten sicher sein möchte, sondern auch als Geschäftsführer 
eines österreichischen Medienunternehmens. Denn auch hier ist das Datenthema ein 
zentrales, das uns zusehends mehr beschäftigt. Datenjournalismus ist als professionelle 
Disziplin in Medienhäusern ohnehin nicht mehr wegzudenken. Hinzu kommen allerdings 
neue journalistische Formate, die sich zum Teil oder zur Gänze auf Daten stützen. 
Automatisierte Berichterstattung etwa, die auf Unmengen an oft unstrukturierten Zahlen 
und Tabellen basiert, die dann von Algorithmen in publikationsfertige Texte gegossen 
werden. Wir schaffen damit Storys, die es zuvor nicht gab, weil wir nicht die Ressourcen 
hatten, sie zu erzählen. Daten dienen hier also als wichtige Grundlage für faktenbasierten 
Agenturjournalismus. Was wir brauchen und aufbauen, ist spezifische Expertise – in 
rechtlichen, inhaltlichen und technologischen Fragen.  
Ich möchte damit betonen, dass ein effizientes Datenmanagement – von der Aufbereitung 
bis zur Nutzung und Analyse – eine derart wichtige Rolle spielt, dass wir diese Kompetenz 
keinesfalls den großen Tech-Firmen überlassen dürfen. Neben den gesetzlichen und 
politischen Rahmenbedingungen und Initiativen macht es Sinn, sich auch auf unter-
nehmerischer und wissenschaftlicher Ebene zusammenzuschließen, unser Know-how zu 
vernetzen und Lösungen zu entwickeln, um den Bereich Data- und Digital-Competence zu 
stärken und damit gemeinsam faire Wettbewerbsbedingungen zu schaffen. Dazu möchte 
ich Sie herzlich einladen.  
  
Das Phänomen Trump als Effekt von Microtargeting und 
Psychometrie 
Oliver Leistert 
 
Zusammenfassung  
Der Alptraum Präsident Trump mag vorerst vorbei sein, zu befürchten ist aber, dass er einen 
Politikstil salonfähig gemacht hat, der auf die Zersetzung demokratischer Regeln und Prozesse abzielt 
und dafür zu Mitteln der Des- und Falschinformation greift. Dieser Text diskutiert das Phänomen 
Trump in zugespitzter Weise als einen Effekt von Internettechnologien, die insbesondere im letzten 
Jahrzehnt alltäglich und allgegenwärtig geworden sind. Ausgehend von einer unvollständigen 
Nacherzählung der Geschichte des Internets als Geschichte der Entwicklung von Überwachungs- und 
Trackingtechnologien, über das Aufstellen des Dispositivs des Datenextraktivismus als primäres 
Geschäftsmodell heutiger Datenökonomien und dessen Akteuren, widmet sich der Text der 
inzwischen aufgelösten Firma Cambridge Analytica, die gegen Bezahlung Trump, dem Brexit und 
einigen anderen zum Erfolg verholfen hat.  
 
1. Die Lüge der gefälschten US Wahl als nachhaltige Bifurkation  
der US-Gesellschaft 
 
Als am 8.11.2020 nach vier langen Tagen der Stimmenauszählungen auch CNN als letzter 
seriöser TV-Sender Joe Biden zum 46. Präsidenten der USA ausrief, war allen 
BeobachterInnen längst klar, dass in den USA eine Bifurkation stattgefunden hat, die ein 
historisches Ausmaß angenommen hat und wohl für länger bestehen bleiben sollte: die 
überwältigende Mehrheit der Trump-WählerInnen waren überzeugt, dass die Wahl gefälscht, 
bzw. „gestohlen“ war. Eine aufwendige, auch von vielen KleinstspenderInnen mitfinanzierte 
Kampagne, die von praktisch allen PolitikerInnen der Republikaner mitgetragen und in 
Fernsehinterviews gebetsmühlenartig wiederholt wurde, führte zum Glauben an diese Lüge. 
Damit hatte Trump sichergestellt, dass Wahlergebnisse in den USA von weiten Teilen der 
Bevölkerung fortan nicht mehr akzeptiert werden würden, oder, zumindest wenn ihr Kandidat 
unterlag, als „gestohlen“ angesehen würden. Vielleicht ist dies rückblickend der größte Erfolg 
Trumps, denn wenn einmal das Vertrauen in faire und freie Wahlen zerstört ist und der 
tatsächliche, mit deutlicher Mehrheit gewählte Präsident somit in den Augen vieler kein 
rechtmäßiger Präsident ist, hat Trump eine zutiefst loyale und weitestgehend emotional 
steuerbare AnhängerInnenschaft hinter sich vereint, die noch zu weitaus radikaleren Mitteln 
zu greifen gewillt ist.  
Die geplante und erfolgreiche Erstürmung des Kapitols am 6.1.2021 ist der bisher 
gewalttätigste und beängstigendste Ausdruck einer absichtlich in die Irre geleiteten 
20  Oliver Leistert 
Menschenmenge in den USA in diesem Jahrhundert. Nur mit viel Glück kam es nicht zu noch 
mehr Toten, Verletzen und zu Geiselnahmen verhasster demokratischer VertreterInnen durch 
die rechten TerroristInnen. Diese, zu allem bereiten Gruppierungen, waren sicher nicht die 
einzigen, die an diesem Tag ins Kapitol eingedrungen sind, jedoch stellten sie auch keine 
politische Ausnahme innerhalb des wütenden Mobs dar, der sich wiederholt gewalttätig, 
rassistisch, homophob und antisemitisch zu erkennen gab. 
Wer den Ereignissen vor dem Fernseher folgte und nichts von den zur Vorbereitung der 
Erstürmung sowie den zur Koordination genutzten Kanäle auf Parler, Telegram, Discord, 
Snapshot, Twitch usw. wusste, sowie keine der zahlreichen Kampagnenseiten auf Facebook, 
Instagram, YouTube, Pinterest, Reddit oder im altbekannten WWW kannte, die die Lüge von 
der gestohlenen Wahl permanent verbreiteten und noch lange mit stets neuen Zweifeln 
garnierten, konnte sich das Verhalten tausender US-AmerikanerInnen wohl kaum erklären. 
Denn ohne die sehr schlaue, effektive und intensive Nutzung einer Vielzahl von Online-
Kanälen (und einiger weniger TV-Sender und Radios) hätte es diesen Aufstand der 
Totalmanipulierten niemals geben können. Die Erstürmung des Kapitols geht in die 
Geschichte ein als der Moment, an dem das Internet eine Art Apokalypse der Verwirrten und 
des Hasses auswarf.1 
Als Trump und sein Team sowie seine organisierten AnhängerInnen noch am selben Tag oder 
nur wenige Tage später auf praktisch allen Plattformen im Netz, denen es technisch möglich 
war, gesperrt wurde, schlossen sich scheinbar die Tore wieder, aus denen all die Trolle und 
Hater zuvor gepurzelt waren. Diese einhellige und bisher nie dagewesene Reaktion der 
praktisch gesamten US-Internetindustrie zeigt in drastischer Deutlichkeit, dass Plattformen 
nur dann reagieren, wenn es opportun für sie ist. Hatten sie alle bis zum 6.1. noch gut am 
Datenverkehr verdient, war nun der Zeitpunkt gekommen, sich als Beschützer der Demokratie 
zu inszenieren. Vielleicht sollte uns dies sogar mehr Sorge bereiten, als der rechte Mob und 
sein Führer Trump. Mit den stark zentralisierten Internet-Plattformen hat sich eine 
Machtkonzentration hinter dem Pogrom-artigen Geschehen offenbart, deren demokratische 
Kontrolle scheinbar kein Staat mehr ernsthaft anstrebt, so sehr haben sich diese Konzerne in 
die Kapillaren des Alltagslebens eingenistet.  
Ein bescheidener Beitrag zu ihrer Genese und wofür sie genutzt werden, sollen die folgenden 
Passagen leisten, die in groben Schritten den schnellen Weg der Plattformen zu ihrer heutigen 
                                                        
1 Es war keine uniforme, homogene, paramilitärische Kampfeinheit, die das Kapitol erstürmte. Es ist 
wichtig zu sehen, dass der Mob aus TrumpistInnen mit durchaus unterschiedlichen Ansichten bestand. 
Auch ist davon auszugehen, dass nicht alle Anwesenden den im Vorfeld kursierenden Aufruf zur 
Erstürmung kannten oder ernst nahmen. Fest steht aber, dass alle Anwesenden, die zum Zeitpunkt der 
Erstürmung die Gegend um das Kapitol nicht verließen, wussten, was sie taten. Das Kaleidoskop der 
Verwirrten um Trump ist recht vielfältig. Am bekanntesten sind AnhängerInnen der Q-Anon-
Verschwörungsmythen, eine Art popkulturell erneuerter Mythos alter, antisemitischer Verschwörungs-
motive, der nicht nur in den USA an Zuspruch gewinnt. 
Das Phänomen Trump als Effekt von Microtargeting und Psychometrie 21 
Machtfülle skizzieren und die Frage verfolgen, welche technischen und organisatorischen 
Schritte es waren, die uns in die heutige Lage brachten.2 
 
2. Die Entwicklung des Internets zu einem Tracking- und 
Capture-Apparat in groben Zügen 
 
Im Dezember 1995 hatten 16 Millionen Menschen Zugang zum Internet3, für Januar 2019 
wird die Zahl von 4,4 Milliarden „active internet users“ angegeben.4 Doch an welches Internet 
sich diese Menschen in den jeweiligen Jahren verbanden, geht aus solchen Zahlen nicht 
hervor. Die das Internet begleitenden technologischen Schübe und Erneuerungen sind schnell 
und an ihnen hängen u.a. Hardware-Industrien, weshalb hier ein sehr komplexes Zusammen-
spiel verschiedener Akteure zu radikal schnellen Erneuerungszyklen beiträgt. 
Eigentlich lässt sich sagen, dass 1995 ein anderes Netz als heutzutage im Betrieb war. Nicht 
nur ist wohl wahrscheinlich kein einziges Hardware-Element von damals mehr in Betrieb, 
sondern es gab auch softwareseitig eine kaum überschaubare Schar von Updates, Upgrades, 
und vollständigen Neuheiten.5 In diesem technischen Wandel ist eine Perspektive versteckt, 
die die These des Textes tragen soll: dass Phänomene wie Trump auch und insbesondere 
durch technische Entwicklungen des Internets möglich wurden. Dabei ist es nicht einfach eine 
Entwicklung im emphatischen, naiv-modernen Sinne, die gemeint ist, sondern die allmähliche 
Perfektionierung des Internets zu einem kommerziellen Überwachungsapparat, der bis heute 
weitgehend unverstanden ist, obwohl er drastisch das Geschehen in der Welt beeinflusst. 
Die Geschichte des Internets in diesem Sinne, und um die es hier nur kursorisch gehen kann, 
lässt sich wie folgt darstellen: mit der Einführung von JavaScript durch Netscape und Sun und 
damit von dynamisch-erzeugten Inhalten um 1996 erschien zum ersten Mal die Möglichkeit 
                                                        
2 Stellvertretend für die kritische Forschungsliteratur zu den Praktiken rechter Gruppierungen im Netz und 
deren Dynamiken, auch mit Bezug zu ihren realen Opfern, sei hier das hervorragende Buch von Veronika 
Kracher (2020) zu Incels genannt. Ferner hat Simon Strick einen konzisen Überblick zur rechten Unkultur 
im Netz vorgelegt (Strick 2021). 
3 Quelle: https://www.internetworldstats.com. 
4 Quelle: https://dailywireless.org/internet/usage-statistics/. Diese Zahlen sind gewiss ungenau und es wird 
zunehmend schwieriger, genaue Zahlen zu liefern, da das Phänomen immer globaler geworden ist und die 
Zahl derer, die per Mobiltelefon ins Netz gehen, rapide angestiegen ist, insbesondere in ärmeren Ländern. 
Ein Zugang zum Netz kann sich sehr unterscheiden; nicht nur hinsichtlich des Endgeräts, der Kosten, des 
Budgets und der verfügbaren Datenraten, sondern auch bezüglich der erreichbaren Webseiten, denn 
Internetzensur nimmt weltweit rapide zu. Die Rede von „dem Internet“ ist eigentlich hinfällig. 
5 Siehe den Sammelband Signal traffic: critical studies of media infrastructures (Parks & Starosielski 
2015) für eine Übersicht. 
22  Oliver Leistert 
für Webapplikationen, etwas über die Clients, denen sie Daten ausliefern, protokollieren und 
speichern zu können und somit die ersten Meta-Informationen über Nutzungen zu sammeln.6  
Lange Zeit in seiner Geschichte blieb die Frage, wie mit dem Internet Geld verdient werden 
könne, offen. Die Werbeindustrie hatte sich eine technische Krücke gebaut, um überhaupt ein 
Feedback zu erhalten, wie „wirksam“ ihre Werbung im Netz ist: die Page-Impressions, die bis 
heute eine Rolle spielen, sollen den Erfolg einer Kampagne messen. Hierbei wird ein 
einzelnes Pixel von einem dezidierten Server bei jedem Abruf einer Website geladen und 
dieser Ladevorgang wird vom Server protokolliert. Das Laden des Pixels wird gleichgesetzt 
mit dem Ansehen einer Website: ein offensichtlich etwas grobes Verfahren, das auch leicht 
manipulierbar ist. 
Die Einführung von HTTP-Cookies war der nächste wichtige Schritt der Überwachung im 
Netz. Das zugehörige RFC7 2109 datiert vom Februar 1997.8 Hier wird zum ersten Mal 
beschrieben, wie zwischen Client und Server ein State Management Mechanism 
implementiert wird, der Sessions zwischen beiden ermöglicht. Damit wird zwischen einem 
Client und einem Server ein identischer Zustand festgehalten, der u.a. den einzelnen Browser 
für den Server wiedererkennbar macht. Dies passiert mittels einer kleinen Datei, Cookie 
genannt, die insbesondere eine eindeutige Session ID enthält, z.B: 31d4d96e407aad42. Laut 
Spezifikation soll ein Browser mindestens 3000 Cookies speichern und verwalten können.  
Cookies sind für eine Vielzahl von Anwendungen sinnvoll, einige werden durch sie erst 
möglich. Leider werden sie aber überwiegend von der Werbeindustrie zum Tracken eines 
Browsers über mehrere Seiten hinweg eingesetzt. Es sind Cookies, die es ermöglichen, dass 
über mehrere, heterogene Webseiten hinweg stets eine Produktart beworben werden kann, für 
die zu Beginn der Session ein passendes Cookie gesetzt wurde. Das Setzen, Verfolgen und 
Auslesen von Cookies ist heute zur tragenden Säule des kommerziellen Internets geworden 
und durch die stark vorangeschrittene Zentralisierung von Auslieferungsdiensten ist es trivial 
geworden, einen Browser und dessen Aktivitäten mehr oder weniger vollständig bis zur 
Löschung der Cookies zu verfolgen.9  
Das Internet ist dezentral konzipiert, d.h. die Datenpakete können unterschiedliche Routen 
nehmen, und die Knoten, die sie verteilten, sind – sehr vereinfacht gesagt – auf gleicher 
                                                        
6 Siehe https://de.wikipedia.org/wiki/JavaScript#Geschichte. 
7 RFC steht für Request for Comments. Dies sind die natürlich-sprachlich verfassten Beschreibungen der 
technischen Elemente des Internets durch die Internet Engineering Task Force (IETF), ein loser, nicht-
kommerzieller Verbund von TechnikerInnen, die ganz wesentlich das Internet entwickelt. Die RFCs sind 
öffentliches Archiv dieser Entwicklungen. 
8 Siehe https://datatracker.ietf.org/doc/html/rfc2109. Interessanter sind jedoch die Überarbeitungen 2965 
vom Oktober 2000, in der das Setzen und Auslesen der Cookies weiterentwickelt wurde, sowie 6265 aus 
dem April 2011. 
9 Fingerprinting von Browsern ist eine weitere Trackingtechnologie. Um einen Überblick zu gewinnen, 
siehe die sehr guten Seiten der Electronic Frontier Foundation EFF zum Thema:  
 https://www.eff.org/issues/online-behavioral-tracking 
Das Phänomen Trump als Effekt von Microtargeting und Psychometrie 23 
Augenhöhe untereinander. Am Ende sorgen technische Protokolle dafür, dass alles in der 
richtigen Reihenfolge wieder zusammengesetzt wird und z.B. als Website erscheint. 
Insbesondere mit dem enormen Wachstum des Cloud Computings seit ca. 2006 und der 
Marktmacht darin durch nur wenige Anbieter10 muss heute das Narrativ eines dezentralen 
Internets entschieden zurückgewiesen werden. Im Gegenteil: noch nie hatten so wenige 
Firmen direkte Verfügungsgewalt über derart viele, auch extrem sensible und wertvolle 
Daten, die sie durchaus auch analysieren, was z.T. notwendig ist, um den Betrieb der Data 
Center zu gewährleisten. Amazons Erfolg beruht weniger auf dem Verkauf von 
Alltagsgegenständen, sondern auf dem Hosten von Daten, Applikationen und Services auf 
ihren Cloudservern – zumindest war dies vor der Pandemie der Fall. 
Ähnlich gelagert ist der Fall derjenigen Plattformen, die, wie Facebook seit 2004, so richtig 
an Fahrt gewinnen konnten. Auch hier findet eine Zentralisierung von Datenflüssen unter 
einer Firma statt (Helmond 2015). Jedoch sind die Veränderungen, die mit dem Aufstieg 
insbesondere der Social Media Plattformen auftreten, noch tiefgreifender. Dies betrifft 
zunächst die Einhegung: wer auf diesen Plattformen aktiv ist, befindet sich sozusagen auf 
Privatgelände und muss die Regeln der Betreiber befolgen. Dies mag harmlos klingen, aber 
was in den Terms of Services (ToS) insbesondere geregelt ist, sind die Besitzverhältnisse an 
den Daten und die Rechte der Betreiber, Daten zu sammeln, zu aggregieren, zu korrelieren 
und zu verkaufen, aber auch auf der Grundlage der Ergebnisse dieser Datenauswertungen 
Daten zurückzuspielen, insbesondere Werbung, wovon Facebook (und Google) leben. Es ist 
ein perfekter Kreislauf, der einerseits von den BenutzerInnen alle nur denkbaren 
Informationen einzieht und darauf basierend Werbung zurückspielt.  
In der Geschichte der Werbung ist es nun zum ersten Mal möglich geworden, passgenau und 
automatisiert Werbung zu schalten: anhand von hunderten von Attributen, die die 
BenutzerInnen z.T. selbst eingegeben haben, z.B. auf ihren Profilseiten, und solcher, die 
Facebook nach der Zustimmung zu den ToS legal durch permanente Totalüberwachung des 
Browserverhaltens speichern darf,11 soll eine „passende“ Mischung von Inhalten 
zurückgespielt werden, die z.T. nur schwer als Werbung oder gekaufter Inhalt erkennbar ist. 
Die Algorithmen, die bestimmen, was im Feed erscheint, schmiegen ihre Ergebnisse dem 
psychometrischen Modell, das sich Facebook vom Menschen am Gerät gemacht hat, an (Stark 
2018). Das Ziel dabei ist „demand generation“, wie es Sheryl Sandberg, seit 2008 Chief 
Operating Officer bei Facebook, einmal unverhohlen ausdrückte: BenutzerInnen sollen durch 
Facebook den Wunsch entwickeln, etwas zu kaufen, etwas zu klicken, an etwas zu glauben, 
ohne zu merken, dass es Facebook war, das diesen Wunsch weckte. Nach Google, mit der 
Google-Suche, hat Facebook entdeckt, wie mit dem Internet Geld verdient werden kann, ohne 
                                                        
10 Amazon Web Services, Microsoft Azure, Google Cloud, IBM Cloud und Alibaba Cloud teilen sich den 
Kuchen im Wesentlichen untereinander auf. Dies macht auch die Arbeit von Geheimdiensten wie der 
NSA viel einfacher. 
11 Dies geht soweit, dass Facebook weiß, ob Sie müde sind, da sich dann Ihre Scrollgeschwindigkeit 
regelmäßig verlangsamt, und sich dazu über die Zeit ein Muster bildet, das eine eigene Struktur aufweist. 
24  Oliver Leistert 
dass die BenutzerInnen selbst Geld bezahlen: sie bezahlen mit dem Geld-Ersatz persönlicher 
Daten, Aufmerksamkeit, Lebenszeit usw. durch Totalüberwachung. Facebook hat die 
Werbeindustrie in vielerlei Hinsicht revolutioniert und nebenbei mitgewirkt, das Internet vom 
dezentralen, Webseiten- bzw. Blog-basierten Netz zu einem zusehends zentralisierten 
Plattform-basierten Netz umzubauen. Im Kern funktionieren alle sogenannten Plattformen 
ähnlich (Sadowski 2020, Dijck et al. 2018, Langley & Leyshon 2017, Srnicek 2017).12  
Als 2007 Apple das iPhone präsentierte, das bis heute über zwei Milliarden verkaufte Exem-
plare zählt, und Google 2008 mit dem ersten Android-Phone die größte Expansion von 
Googles Trackingtechnik jenseits der Google-Suche auf den Weg brachte und heute damit 
85% des Marktanteils von sogenannten Smartphones damit besitzt, wurde die Capture-Zone 
erneut ausgeweitet. 
Mit dem mobilen Datentransfer rückte nun die International Telephone Union (ITU) in die 
Mitte derer, die die Technik des Netzes fortan mitbestimmen. Die ITU ist im Unterschied zu 
den wichtigen Internetorganisationen über staatliche Mitglieder definiert, vertreten durch ihre 
jeweiligen Industrien. Die Standardisierungsinteressen und Technologieentwicklungen des 
mobilen Internets sind durch diese Struktur der ITU wesentlich stärker kapitalgetrieben als in 
der verhältnismäßig akademischen Internet Engineering Task Force (IETF). Die gesamte 
Vorgehensweise der ITU ist hierarchischer, verschlossener und intransparenter, als die der 
IETF oder auch noch des World Wide Web Consortiums (W3C), das für z.B. den HTML-
Standard zuständig ist.13 Das ist auch für Trackingtechnologien hilfreich, sowie für die 
Schwächung der Netzneutralität (damit z.B. ruckelfrei und „live“ EM-Fußball auf Millionen 
Smartphones läuft), oder auch für die Verschränkung von bezahlpflichtigen Diensten mit dem 
Netz. Seit 2016 haben mobile Browser Desktop-Browser überholt.14 
Da das Smartphone nicht nur eine IMEI und eine IMSI mitliefert,15 sondern notwendiger-
weise immer auch die Cell-ID des Sendemasten mitteilen kann, in den es eingeloggt ist, ist 
mit ihm auf sehr basale Weise die Grundlage flächendeckender automatisierte Überwachung 
gegeben, die z.B. Google für seine Location Based Services braucht. Das automatisierte und 
stets aktuelle Wissen über die Aufenthalte an Orten zu bestimmten Zeiten von BenutzerInnen, 
                                                        
12 Und die NSA freut sich ein weiteres Mal. 
13 Das W3C führt insbesondere einen utopischen Kampf um ein standardisiertes HyperText Markup 
Language (HTML) und Cascading Style Sheets (CSS), um zu vermeiden, dass einzelne Browser eigene 
Wege gehen. Dies geht aber nur solange gut, wie kein Browser zu mächtig wird. Mit Googles Chrome ist 
dieser Punkt jedoch schon eine Weile überschritten. Er hat einen Anteil von über 60%.  
14 Es ist aber immer eine Frage, wie gemessen und gerechnet wird. Siehe:  
 https://en.wikipedia.org/wiki/Usage_share_of_web_browsers#Differences_in_measurement.  
15 Die International Mobile Equipment Identity (IMEI) ist eine einmalige Gerätenummer und die 
International Mobile Subscriber Identity (IMSI) ist eine einmalige vom Provider durch die SIM-Karte für 
das Gerät vergebene Nummer. Beides sind technische Bedingung zum Betrieb eines Mobiltelefons und 
damit herausragende Möglichkeit zur Überwachung desselben. Auch dies erfreut die NSA und ähnliche 
staatliche Überwachungsstellen. 
Das Phänomen Trump als Effekt von Microtargeting und Psychometrie 25 
ergänzt durch das Global Positioning System (GPS) und oft auch lokale WiFi-Netze, ist dabei 
in vielerlei Hinsicht verwertbar. Die Aggregation solcher Daten lassen Verkehrsflüsse 
visualisieren, Mob-Bildungen früh erkennen oder natürlich auch einzelne Geräte tracken. 
Allein der Verkauf dieser Sorte Daten, ergänzt mit den Kontakten der Smartphones, die über 
etliche Apps unbemerkt extrahiert werden, hat einen eigenen Industriezweig gebildet, der im 
Abschnitt zum Datenextraktivismus genauer behandelt wird. 
Facebook hat insbesondere in ärmeren Ländern, in denen es praktisch nur mobilen Internet-
zugang gibt, mit den Telekommunikationsprovidern, wie z.B. Orange in einige afrikanischen 
Ländern, Verträge geschlossen, die es erlauben, dass die BenutzerInnen kostenfrei ins Netz 
dürfen. Frecher Weise heißt dieses Geschäft internet.org. Allerdings besteht das Netz dann 
nur aus Facebook und Facebook eigenen Diensten. Dieser brillante Schritt erweckt bei 
Millionen Menschen die Vorstellung, dass Facebook das Internet ist.16 Es ist aber genau in 
diesen ärmeren Ländern oft auch mit den demokratischen Prozessen nicht so einfach, weshalb 
eine unabhängige Medienlandschaft umso wichtiger wird. Diese ist aber mit Facebook 
wiederum nicht zu haben. Im Gegenteil: mit Facebook lassen sich sehr effektiv WählerInnen 
beeinflussen und dazu bringen, gegen ihre eigenen Interessen abzustimmen, wie es 
Cambridge Analytica vielfach bewiesen hat. Doch bevor es um diese dritte Sorte von 
Geschäft mit Daten geht, werden nun nach den Plattformen erst einmal die ganz großen 
Player des Datenhandels skizziert. 
 
3. Der Datenextraktivismus und die Data Analytics nach 9/11 
 
Nach den Anschlägen auf die USA am 11.9.2001 begann für die Datenverarbeitung weltweit 
ein neues Zeitalter. Das Versagen der hochgepäppelten Sicherheitsdienste ließ in Washington 
und insbesondere im Pentagon, das für die National Security Agency (NSA) zuständig ist, alle 
Alarmglocken klingeln. Die Verwundbarkeit der USA zuhause durch islamistische 
Terroristen sollte einen Wandel der Politiken und staatlichen Praktiken einleiten, der 
verhindern wird, dass so etwas jemals wieder passieren kann. In der Folge wurden mit teils 
windigen Gesetzen und Notstandsdekreten Datensammlungen und Methoden der 
Datenanalyse vieler Behörden zusammengelegt und intensiviert. Vor allem aber begann die 
Integration des privaten Sektors, indem kommerzielle Data Broker und Analysten entweder 
Zugang zu Daten der Behörden bekamen, oder auf anderem Wege diese bisher aus guten 
Gründen getrennten Datensammlungen zusammengeführt werden konnten. Die Fähigkeit zur 
sog. Preemption sollte gestärkt werden, d.h. die Vorhersage von Terroranschlägen (und 
anderen Katastrophen) und deren Verhinderung im Vorhinein durch neue Wege der 
                                                        
16 „Percent of respondents who agree with the following statement: Facebook is the Internet“: Nigeria 65%, 
Indonesia, 61%, India 58%, Brazil 55%. Siehe: https://qz.com/333313/milliions-of-facebook-users-have-
no-idea-theyre-using-the-internet/.  
26  Oliver Leistert 
Datenanalysen, -verbindungen, und Exekution von militärischen Handlungen auf deren 
Grundlagen. Um jedoch mögliche Zukünfte zu erkennen, müssen epistemische Probleme 
gelöst werden, die bis heute (wenig überraschend) ungelöst geblieben sind (de Goede et al. 
2014). Nichtsdestotrotz entstand ein neuer Komplex bisher eher konkurrierender oder wenig 
interagierender Firmen und Behörden zur Datensammlung und -analyse in bisher 
unbekannten Ausmaß, wie uns die Snowden-Enthüllungen gezeigt haben (Lyon 2015, 
Greenwald 2014), der z.B. die Metadaten unterschiedlichster Quellen im sogenannten Kampf 
gegen den Terror zur Grundlage von Tötungsentscheidungen macht (Weber 2016, Amoore & 
de Goede 2015).  
9/11 hat zur Integration heterogener Datenbestände geführt, den function creep zur Norm 
gemacht,17 und somit eine Praxis und auch ein Geschäftsmodell etabliert, das weit in die 
zivile Alltagswelt diffundiert ist (West 2019). Der Kampf gegen den Terror rechtfertigte und 
rechtfertigt bis heute das Schleifen von Freiheitsrechten und fortgesetzte diskriminierende 
Praktiken in Polizei und Justiz gegenüber Minderheiten, die aufgrund ihres Aussehens oder 
ihrer Religionszugehörigkeit unter einen Generalverdacht gestellt werden. Trumps Projekt des 
Mauerbaus nach Mexiko reiht sich hier nur ein, steht es doch stark im Kontext rassistischer 
Zuschreibungen von Nord nach Süd und dem Schüren von Hass und Angst. Erst seit kurzer 
Zeit werden die rassistischen Effekte von Technologien der Überwachung und Big Data 
überhaupt diskutiert (Benjamin 2019a, Benjamin 2019b, Flynn & Mackay 2018, Noble 2018) 
und die Frage aufgeworfen, was data justice sein könnte (Dencik et al. 2019). 
Ebenso bedeutsam ist die operative Verbindung der verschiedenen Data Analytics Konzerne 
im Zuge der Liberalisierung der Zusammenarbeit mit staatlichen Behörden, sowie große 
Investitionen in Mustererkennung und Analysen von Big Data an US-Universitäten, die gerne 
zu Firmenausgründungen führten, um in der Folge von Google oder Facebook gekauft zu 
werden. Was unter dem Label Big Data euphemistisch als Paradigma der Informatik 
behandelt wird, lässt sich treffender als Datenextraktivismus bezeichnen, in Anlehnung an die 
Praktiken des Extraktivismus, der die meist gewaltförmige Ausbeutung von Rohstoffen meint. 
Auch dieses Paradigma des 19. und 20. Jahrhunderts westlicher Hegemonie, insbesondere 
gegenüber dem afrikanischen Kontinent im Kontext des Kolonialismus, das aber bis heute mit 
unvermittelter Brutalität weltweit fortgeführt wird (Lessenich 2016), hat im 21. Jahrhundert 
sein Daten-Upgrade erhalten (Couldry & Mejias 2019). Der Datenextraktivismus, der insbe-
sondere seit dem Boom der mobilen Endgeräte ab 2008 und der damit verbundenen 
ubiquitären Datennutzung sowie dem Entstehen hunderter Data Centers auf dem Planeten 
ebenfalls verheerende ökologische und soziale Folgen zeigte (Brodie 2020, Cubitt 2017), ist 
in vielerlei Hinsicht die Fortsetzung hegemonialer Politiken und bedroht zunehmend die 
Freiheiten von Gesellschaften, da mit ihm Modelle der Berechnung von Profitmaximierung 
und Preemption untrennbar verbunden sind.  
                                                        
17 Dies bezeichnet die Benutzung von Technik in einem anderen, vorher oft explizit ausgeschlossenen 
Kontext und ist insbesondere in der Datenverarbeitung leider alltäglich geworden.  
Das Phänomen Trump als Effekt von Microtargeting und Psychometrie 27 
Zwar erscheint die Welt der Daten stets immateriell, doch ist dies ein fataler Trugschluss. 
Ganz im Gegenteil: die Verdatung der Welt führt zu einer rapiden Zunahme an 
Ressourcenverbrauch, von seltenen Erden, von Edelmetallen (und damit zu neuen Kriegen) 
und besonders von Strom, der nach wie vor überwiegend nicht regenerativ erzeugt wird. Die 
Ausweitung der Überwachungs- und Beeinflussungszone feuert folglich den Klimawandel an. 
Extraktivismus von Rohstoffen und Datenextraktivismus liegen im Raubbau an der Welt 
deshalb überraschend nah beieinander. Was letzteren angeht, so kommen zu den ökologischen 
Folgen die eigentlichen, primären Folgen obendrauf: ein industrieller Datenraubzug, der bis in 
die kleinsten Kapillaren des Sozialen eindringt und insbesondere durch die Verbindung 
heterogener Datenbestände durch Korrelationen versucht neue „Erkenntnisse“ zu gewinnen. 
Nicht ohne Grund wird inzwischen von einer „environmentalitären Situation“ gesprochen 
(Hörl 2018), um der Ubiquität und Heterogenität der Daten als Grundlage von Steuerungs-
prozessen überhaupt semantisch noch hinterher zu kommen (vgl. Gabrys 2016).  
Dabei beginnt alles im Kleinen: Wenn einmal den ToS von Facebook zugestimmt wurde, 
können je nach Marktlage die permanent registrierten affektiven Regungen in einen Verbund 
von Analysen übertragen werden, deren Existenz im Verborgenen bleibt (Langlois & Elmer 
2018).18 Laut Propublica benutzte Facebook 2016 über 52.000 verschiedene Attribute zur 
Klassifizierung seiner BenutzerInnen.19 Bereits 2013 wurde mit hoher Treffsicherheit allein 
durch die sogenannten „Likes“ der BenutzerInnen deren ethnischen Hintergrund, Geschlecht, 
sexuelle Orientierung, politische Einstellung und so weiter prognostiziert (Kosinski et al. 
2013). 
Was in materieller Hinsicht in Form von den 15 riesigen Data Centers, die allein Facebook 
betreibt, ausgerollt wurde und weiterhin ausgerollt wird, wurde aus soziologischer 
Perspektive treffend als algorithmische Gouvernementalität beschrieben, in der Subjekte nicht 
mehr nur Regeln und Verhalten internalisieren und somit eine Rationalisierung bestimmter 
Regierungstechniken leben, die insbesondere das Ökonomische als Dispositiv des Sozialen 
figuriert. Im Weiterdenken der nach Michel Foucault (2006a, 2006b) benannten 
                                                        
18 Ich kann nur empfehlen, die Terms of Services von Facebook einmal in Ruhe zu studieren. Dies 
vermittelt recht eindringlich den Grad der Unverschämtheit dieses Konzerns. Hier ein Auszug: 
„Werbetreibende, App-Entwickler und -Publisher können uns über die von ihnen genutzten Facebook 
Business-Tools, u. a. unsere sozialen Plugins (wie den „Gefällt mir“-Button), Facebook Login, unsere 
APIs (application programming interface) und SDKs (Software Development Kit) oder das Facebook-Pixel, 
Informationen senden. Diese Partner stellen uns Informationen über deine Aktivitäten außerhalb von 
Facebook bereit, u. a. Informationen über dein Gerät, von dir besuchte Websites, von dir getätigte Käufe, 
Werbeanzeigen, die du siehst und darüber, wie du ihre Dienste nutzt, und zwar unabhängig davon, ob du 
ein Facebook-Konto hast oder bei Facebook eingeloggt bist. Beispielsweise könnte ein Spieleentwickler 
unsere API nutzen, um uns mitzuteilen, welche Spiele du spielst, oder ein Unternehmen könnte uns von 
einem Kauf berichten, den du in seinem Geschäft getätigt hast. Wir erhalten außerdem Informationen 
über deine Online- und Offline-Handlungen und -Käufe von Dritt-Datenanbietern, die berechtigt sind, uns 
deine Informationen bereitzustellen“ (https://www.facebook.com/about/privacy/update). 
19 https://www.propublica.org/article/facebook-doesnt-tell-users-everything-it-really-knows-about-them 
28  Oliver Leistert 
Gouvernementalität, hat Antoinette Rouvroy das wechselseitige Verhältnis von Subjekten zu 
„ihren“ Datensätzen und deren statistischer Operationalität algorithmische Gouverne-
mentalität genannt (Rouvroy et al. 2013), die einen digitalen Behaviorismus ermöglichen. 
Niemals jedoch kann dieser der vielfältigen Realität gerecht werden, und letztendlich wird 
durch ihn das Offene der Zukunft, des Kommenden, zu überschreiben versucht (Rouvroy 
2013), um ein Kontinuum sicheren Regierens zu etablieren. Was die Ausweitung der 
Verwertungszone des Kapitalismus in den Informations- und Datenbereich hinein angeht, 
werden inzwischen drastische Warnungen ausgesprochen, so z.B. jüngst Joseph Vogl: „Es 
steht vielmehr die Produktion des Wirklichen selbst auf dem Spiel“ (Vogl 2021, S.132; siehe 
auch Cheney-Lippold 2017).  
Dabei lassen sich die großen Akteure dieses Datenhandels20 in nur drei Kategorien einteilen: 
1) die größten Online Plattformen: Facebook (1,9 Milliarden Profile aus Facebook, 1,2 
Milliarden aus Whatsapp und 600 Millionen aus Instagram), Google (2 Milliarden aus 
Android und über eine Milliarde aus Gmail, sowie über eine Milliarde aus YouTube) und 
Apple (eine Milliarde aus iOS/iPhone OS). 
2) die Credit Reporting Agencies: Experian (Credit Data zu 918 Millionen Menschen, 
Marketing Data zu 700 Millionen und sogenannte „insights“ zu 2,3 Milliarden), Equifax 
(Daten über 820 Millionen Menschen und eine Milliarde Geräte), sowie TransUnion 
(Daten zu einer Milliarde Menschen). 
3) die Konsumdatenhändler: Acxiom (Daten zu 700 Millionen Menschen und 3,7 Milliarden 
Konsumentenprofile ihrer Kunden im Management) und Oracle (mit 1 Milliarde 
Datensätzen über mobile EndgerätebenutzerInnen, sowie Daten zu 1,9 Milliarden 
Webseiten-BesucherInnen. Ferner besitzt Oracle 5 Milliarden „unique“ consumer IDs, die 
das Unternehmen Dritten bereitstellt). 
Schon diese summarische, inzwischen veraltete und unvollständige Aufzählung lässt 
erkennen, dass sich nicht nur viel Geld mit den Daten, die Menschen generieren, verdienen 
lässt, sondern dass damit auch eine enorme Machtkonzentration einhergeht. Diese Konzerne 
können Modelle generieren, die bis ins kleinste Detail eine Person abbilden können sollen. 
Allerdings kann die Person sich nicht dagegen wehren oder das Modell überprüfen, denn sie 
weiß in der Regel nichts davon. Ist die Diskrepanz zwischen Modell und Realität zu groß, 
führt dies zu falschen Bewertungen von KundInnen, denen dann Zugang zu Diensten und 
Produkten verwehrt wird (von Versicherungen bis zum Autokauf), ohne dies erklären zu 
können. Das algorithmische Data Double wirkt sich performativ aus, und entwickelt hinter 
dem Rücken der Subjekte eine Wirkmächtigkeit, die die Handlungsoptionen des Subjekts auf 
der Basis von Daten-Relationen vorstrukturieren. Dies ist Preemption im Alltag. Von 
Manipulation zu reden reicht insofern nicht mehr aus. Es gibt keine demokratische Kontrolle 
                                                        
20 Ich folge hier der Einfachheit halber den Forschungen von Cracked Labs aus dem Jahr 2017: 
 https://crackedlabs.org/en/corporate-surveillance.  
Das Phänomen Trump als Effekt von Microtargeting und Psychometrie 29 
gegenüber den zunehmend das Soziale strukturierenden Datenoperationen der großen Daten-
händler und Data Analytics Firmen. 
Doch auch kleine Firmen wollen am Datenextraktivismus teilhaben. Zusätzlich zu den 
Giganten des Datenextraktivismus hat sich ein wachsendes Universum von Start-Ups 
etabliert, deren Geschäftsmodell im Extrahieren von überwiegend mobilen Daten besteht. Die 
Idee ist, wie so oft, simpel: es werden Apps kostenlos zum Download und Installieren über 
die offiziellen Kanäle von Apple und Google angeboten. Diese Apps sind mit einem 
Framework hergestellt, das unabhängig von der Funktionalität der Apps zahlreiche Daten von 
mobilen Endgeräten herunterlädt, insbesondere Geodaten und Kontakte.  
Beispielhaft wird hier xmode.io kurz vorgestellt. Deren Motto lautet: „Empowering 
Innovation with Qualitative Location Data“. Diese Firma verkauft Location Data. Doch woher 
kommen diese Daten? Ein Framework zur App-Entwicklung stellt sicher, dass die mit ihm 
entwickelten Apps zuverlässig und angeblich „privacy-conscious“ eine Vielzahl von 
Datensorten liefern: Geschwindigkeit und andere telematische Daten, die Device-IDs samt 
150 Datenpunkten pro Daily Active User, ferner werden über 60 Millionen monatliche aktiver 
BenutzerInnen versprochen, die durch das in über 400 Apps installierte Kit ihre Daten 
verlieren. Die App-Entwickler, die das Entwicklungskit benutzen sollen, erhalten als 
Bezahlung ein passives Einkommen, insofern die BenutzerInnen ihrer App durch xmode.io 
erfolgreich ausspioniert werden.21 
 
4. Der Fall Cambridge Analytica 
 
Mit dem bisher Geschilderten lässt sich nun einer der prominentesten und skandalträchtigsten 
Fälle in der Geschichte der kommerziellen Überwachung und Manipulation hoffentlich besser 
einordnen. Die errichteten Datensilos und ihre untereinander korrelierbaren Daten lassen, kurz 
gesagt, sehr genau Bevölkerungen in Sets einteilen und diese nach gewünschten Parametern 
mit Inhalten adressieren. Der Wiederholung von Botschaften sind hier keine Grenzen gesetzt. 
Die Kosten sind vernachlässigbar. 
Cambridge Analytica (CA) war ein von den ultrakonservativen US-Milliardären Mercers und 
dem offen rechtsextremen Publizisten Steve Bannon, der dem Unternehmen nach eigener 
Aussage auch den Namen gab, 2013 gegründetes Unternehmen, das 2018 eingestellt wurde 
und sich selbst den Titel „global election management agency“ gab. Nach eigenen Angaben 
übte CA Einfluss auf über 100 Wahlen aus, davon 44 in den USA (z.B. SenatorInnen-
Wahlen). Die Brexit- und die Trump-Kampagne waren dabei wohl die größten Kampagnen. 
2020 kam ein britischer parlamentarischer Untersuchungsausschuss zu dem Schluss, das CA 
keinen Einfluss auf den Brexit genommen hatte. Dies mag daran liegen, dass es sich bei CA 
                                                        
21 Siehe für alle Angaben die Website des Unternehmens: https://xmode.io/. 
30  Oliver Leistert 
um eine Unterorganisation der SCL Group handelte, deren Selbstbeschreibung bereits 
nahelegt, wieso der notwendig einwandfreie Nachweis nicht erbracht werden konnte:  
„The SCL Group has been working at the forefront of behavioural change 
communication for 25 years. Developed in conjunction with the Behavioural 
Dynamics Institute, SCL has evolved into a multi-disciplined group of 
behavioural research and communication agencies. […] In today’s global 
information environment SCL has the knowledge, the people and the experience 
to help global brands, political organisations, world leaders and militaries 
deliver measurable and lasting behaviour change.“  
(https://web.archive.org/web/20160208184806/http://scl.cc/) 
Es handelt sich bei SCL um ein im Geheimen operierendes Unternehmen, das darauf 
ausgelegt ist, so wenig wie möglich im Licht der Öffentlichkeit zu stehen (vgl. Shaw 2018). 
Der Nachweis illegaler Aktivität ist somit nur schwer zu erbringen.  
Im Kern der Techniken, die CA in seinen Wahlkampagnen angewendet hat, steht die 
algorithmische Psychometrie: mit ihr kann automatisiert, allein durch Algorithmen, ein recht 
einfaches Psychoprofil einzelner Personen erzeugt werden (Stark 2018). Ziel ist dann, ganz 
im Sinne des Behaviorismus, aus dessen Geschichte eine Vielzahl heute digital angewandter 
Psychotechniken stammt, die betreffende Person zu einem bestimmten Verhalten zu bewegen, 
ohne dabei verstehen zu wollen, warum diese Person das Verhalten an den Tag legt. Die in 
diesem Psychomodell verwandten Kategorien sind recht schlicht und beschreiben anhand 
weniger Merkmale eine Persönlichkeit. Wenn dieses simple Modell dann mit Daten aus 
anderen Quellen, zB. Anschrift, sexuelle Vorlieben, Bewegungsprofile und all den 
Merkmalen, die z.B. Facebook sammelt und weiterverkauft, sowie den Daten von Data 
Brokern wie Axciom verbunden werden, kann eine Firma wie CA passende Botschaften 
generieren, die einem Set an BenutzerInnen, deren Wahlverhalten entscheidend sein wird, 
oder die vom Wählen deshalb abgehalten werden sollen, in genau kalkulierten 
unterschiedlichsten Situationen auf unterschiedlichen Kanälen ausgespielt werden. Dieses 
Microtargeting muss nicht immer „passen“, aber wenn es „passt“, wird eine affektive 
Bindung erzeugt, die die Empfänglichkeit für Botschaften, egal ob wahr oder falsch, 
dramatisch erhöht. Das berühmteste und berüchtigtste Beispiel ist dabei die „Crooked 
Hillary“-Kampagne, die CA zu verantworten hat,22 und mit der der demokratischen 
Präsidentschaftskandidatin Hillary Clinton erfolgreich und nachhaltig ein schlechtes Image 
angehängt wurde, das möglicherweise den entscheidenden Ausschlag für Trumps Sieg gab.23  
                                                        
22 In einer BBC Channel 4-Doku von 2018 zu CA wird dessen CEO Alexander Nix heimlich aufgenommen, 
während er sich mit dieser Kampagne brüstet. 
23 Hu (2020) gibt einen Überblick, wie die Federal Trade Commission mit dem CA Skandal umging und 
warum Facebook am Ende fünf Milliarden USD Strafe zahlen musste, sich in der Sache selbst aber nichts 
geändert hat.  
Das Phänomen Trump als Effekt von Microtargeting und Psychometrie 31 
5. Fazit  
 
Die Entwicklung des Internets ist seit dem 21. Jahrhundert auf eine Bahn geraten, die 
zivilgesellschaftlichen und demokratischen Kräften mehr zu schaden als zu helfen scheint und 
autoritäre und totalitäre Strömungen begünstigt. Dabei sind im Wesentlichen zwei Linien zu 
beobachten, die sich gegenseitig verstärken: seit 9/11 überwachen staatliche Behörden 
hemmungslos und zum Teil gesetzeswidrig weite Teile des Internetverkehrs. 
Dieser Trend setzt sich ungebrochen fort. Hier scheint sich ein Automatismus etabliert zu ha-
ben, durch den die Behörden immer neue Befugnisse und Technologien erhalten. In 
Anbetracht der hohen Zahl von Opfern rechter Gewalt in Europa und den USA scheinen die 
Behörden unter den Bevölkerungsgruppen nach schützenswert und weniger schützenswert zu 
unterscheiden. „Black Lives Matter“ ist der Slogan, der dies auf den Punkt gebracht hat. 
Die zweite Linie betrifft die kommerziellen Entwicklungen des Internets, insbesondere die 
mobilen Endgeräte und die Plattformen, die seit ca. 2005 für viele Menschen definieren, was 
das Internet ist. Hier wird auf privatem Grund und nach den Regeln der GrundbesitzerInnen 
kommuniziert, was die Idee von Plattformen ist. BenutzerInnen sind gegenüber den Grundbe-
sitzerInnen weitestgehend machtlos, sobald sie in die Terms of Services der Plattformen 
eingewilligt haben. Datenschutzgesetze mögen starke Formulierungen haben, aber ohne ihre 
Durchsetzung sind sie Ornament. 
Indem mittels Microtargeting und automatisierten psychometrischen Techniken die kommer-
ziellen Datensilos und Algorithmen zur Manipulation von PlattformbenutzerInnen in Bezug 
auf Wahlen erfolgreich eingesetzt werden, wie es Trump bewiesen hat, treffen sich nun beide 
Linien der Netzentwicklung an der politischen Kreuzung von autoritären Staaten und 
autoritären Führern. Das Ergebnis sind autoritäre, populistische Politiken, die Kritik und 
Widerspruch unterdrücken. 
 
Literatur 
 
Amoore, Louise & De Goede, Marieke (2008): Transactions after 9/11: the banal face of the 
preemptive strike. Transactions of the Institute of British Geographers, 33 (2), S. 173–185. 
Benjamin, Ruha (2019a): Race after technology: abolitionist tools for the new Jim code. Medford, 
MA: Polity. 
Benjamin, Ruha (Hrsg.) (2019b): Captivating technology: race, carceral technoscience, and 
liberatory imagination in everyday life. Durham: Duke University Press. 
Brodie, Patrick (2020): Climate extraction and supply chains of data. Media, Culture & Society 42 
(7–8), S. 1095–1114. 
32  Oliver Leistert 
Cheney-Lippold, John (2017): We are data: algorithms and the making of our digital selves. New 
York: New York University Press. 
Couldry, Nick & Mejias, Ulises (2019): Making data colonialism liveable: how might data’s social 
order be regulated? Internet Policy Review 8(2), DOI: 10.14763/2019.2.1411. 
Cubitt, Sean 2017. Finite media: environmental implications of digital technologies. Durham: 
Duke University Press. 
Dencik, Lina u.a. (2019): Exploring Data Justice: Conceptions, Applications and Directions. 
Information, Communication & Society 22 (7), S. 873–881. 
Dijck, José van, Poell, Thomas & Waal, Martijn de (2018): The platform society. New York: 
Oxford University Press. 
Flynn, Susan & Mackay, Antonia (Hrsg.) (2018): Surveillance, Race, Culture. Cham: Springer 
International Publishing. 
Foucault, Michel (2006a): Sicherheit, Territorium, Bevölkerung. Geschichte der Gouvernemen-
talität I: Vorlesungen am Collège de France 1977/1978. Frankfurt am Main: Suhrkamp 
Verlag. 
Foucault, Michel (2006b): Die Geburt der Biopolitik. Geschichte der Gouvernementalität II: 
Vorlesungen am Collège de France 1978/1979. Frankfurt am Main: Suhrkamp Verlag. 
Gabrys, Jennifer (2016): Program earth: environmental sensing technology and the making of a 
computational planet. Minneapolis: University of Minnesota Press.  
de Goede, Marieke, Simon, Stephanie & Hoijtink, Marijn (2014): Performing preemption. Security 
Dialogue, 45 (5), S. 411–422. 
Greenwald, Glenn (2014): No Place to Hide: Edward Snowden, the NSA and the Surveillance 
State. London: Penguin Books. 
Helmond, Anne (2015): The Platformization of the Web: Making Web Data Platform Ready. 
Social Media+ Society 1 (2), S. 1–11. 
Hörl, Erich (2018): Die environmentalitäre Situation. Internationales Jahrbuch für Medien-
philosophie 4 (1), S. 221–250. 
Hu, Margaret (2020): Cambridge Analytica’s black box. Big Data & Society 7 (2), July 2020.  
Kosinski, Michal, Stillwell, David & Graepel, Thore (2013): Private traits and attributes are 
predictable from digital records of human behavior. Proceedings of the National Academy of 
Sciences, 110 (15), S. 5802–5805. 
Kracher, Veronika (2020): Incels: Geschichte, Sprache und Ideologie eines Online-Kults. Mainz: 
Ventil-Verlag. 
Langley, Paul & Leyshon, Andrew (2017): Platform capitalism: The intermediation and 
capitalization of digital economic circulation. Finance and Society 3 (1), S. 11–31. 
Langlois, Ganaele & Elmer, Greg (2019): Impersonal subjectivation from platforms to 
infrastructures. Media, Culture & Society 41 (2), S. 236–251. 
Das Phänomen Trump als Effekt von Microtargeting und Psychometrie 33 
Lessenich, Stephan (2016): Neben uns die Sintflut: die Externalisierungsgesellschaft und ihr Preis. 
München: Hanser. 
Lyon, David (2015): Surveillance After Snowden. Cambridge, Malden, MA: Polity. 
Noble, Safiya Umoja (2018): Algorithms of oppression: how search engines reinforce racism. 
New York: New York University Press. 
Parks, Lisa & Starosielski, Nicole (Hrsg.) (2015): Signal traffic: critical studies of media 
infrastructures. Urbana: University of Illinois Press. 
Rouvroy, Antoinette (2013): The end(s) of critique: data-behaviourism vs. due-process.  
In: Hildebrandt, Mireille & Vries, Katja de (Hrsg.): Privacy, due process and the 
computational turn: the philosophy of law meets the philosophy of technology. London: 
Routledge, S. 143–168. 
Rouvroy, Antoinette, Berns, Thomas & Libbrecht, Elizabeth (2013): Algorithmic governmentality 
and prospects of emancipation. Reseaux, 177 (1), S. 163–196. 
Sadowski, Jathan (2020): The Internet of Landlords: Digital Platforms and New Mechanisms of 
Rentier Capitalism. Antipode 52 (2), S. 562–580. 
Shaw, Tamsin (2018): The New Military-Industrial Complex of Big Data Psy-Ops. The New York 
Review of Books. https://www.nybooks.com/daily/2018/03/21/the-digital-military-industrial-
complex/ [Stand 2018-03-24]. 
Srnicek, Nick (2017): Platform capitalism. Cambridge, Malden, MA: Polity. 
Stark, Luke (2018): Algorithmic psychometrics and the scalable subject. Social Studies of Science 
48 (2), S. 204–231. 
Strick, Simon (2021): Rechte Gefühle. Affekte und Strategien des digitalen Faschismus. Bielefeld: 
transcript. 
Vogl, Joseph (2021): Kapital und Ressentiment: eine kurze Theorie der Gegenwart. München: 
C.H. Beck. 
Weber, Jutta (2016): Keep adding. On kill lists, drone warfare and the politics of databases. 
Environment and Planning D: Society and Space 34 (1), S. 107–125. 
West, Sarah Myers (2019): Data Capitalism: Redefining the Logics of Surveillance and Privacy. 
Business & Society 58 (1), S. 20–41. 
  

Information, Wissen und die Wiederkehr der Sozialen 
Physik 
Marian Adolf & Nico Stehr1 
 
Zusammenfassung  
Die Möglichkeiten der digitalen Informationsökologie (Big Data) lassen längst vergangen 
geglaubte Vorstellungen der totalen Information über individuelle und gesellschaftliche 
Zusammenhänge wiederauferstehen, etwa die Idee der abschließenden wissenschaftlichen 
Formulierung einer „Physik des Sozialen“. Auf Basis eines genuin soziologischen Wissens-
begriffs und einer Darstellung der differenziellen Eigenschaften von Information und Wissen 
diskutieren wir die Möglichkeiten und Gefahren einer Rückkehr eines mechanistischen Bildes 
von Mensch und Gesellschaft im digitalen Gewand und erläutern dies am Beispiel des Pioniers 
der „physique sociale“, dem belgischen Sozialstatistiker Adolphe Quetelet. Wir argumentieren, 
dass dieselben Defizite, die einst Quetelets Vorhaben scheitern ließen, auch die Neuformulierung 
einer algorithmisch gewendeten Sozialphysik unterminieren. Die eigentliche Gefahr, so schließen 
wir, liegt in einem datenpolitischen Szientismus, der sich seiner eigenen normativen Blindstellen 
nicht bewusst ist und daher leicht zum Opfer ideologischer Übernahmeversuche werden kann. 
 
1. Einleitung 
 
Die Frage, wie sich die digitale Revolution unserer technischen Umwelt auf die Strukturen 
und Prozesse der sozialen Organisation auswirkt, wird spätestens seit der Ankunft des 
Internet als Massenmedium diskutiert. Anfang der 2010er Jahre nahm diese Diskussion 
unter dem Eindruck der massenhaften Sammlung, Vernetzung, Verknüpfung und 
Auswertung immenser Datenbestände eine neue Form an: die Frage nach der Re-
Organisation der gesellschaftlichen Kommunikation wurde ergänzt um neue 
Möglichkeiten der soziotechnischen Steuerung auf Basis bis dahin unvorstellbarer 
Datenbestände. Der Begriff der Data Politics scheint angesichts der Entwicklung 
besonders passend, geht es doch nicht länger um die spezifische, digitaltechnisch 
getriebene Entwicklung einzelner Gesellschafts- oder Lebensbereiche, sondern um 
potenziell immer umfassendere Veränderungen im Verhältnis zwischen Individuum und 
Gesellschaft, Bürger*in und Staat.  
                                                        
1  Dieser Beitrag basiert auf einem Text, der ursprünglich in Administration & Society (Adolf und Stehr 
2018) erschienen ist. Er liegt hier in einer aktualisierten und gekürzten Form und erstmalig in 
deutscher Übersetzung vor. Die Autoren danken Theo Hug für kritische Fragen und hilfreiche 
Kommentare.  
36  Marian Adolf & Nico Stehr 
Dabei stechen insbesondere neue Differenziale hinsichtlich der Produktion von und 
Verfügung über Datenbestände hervor: die Angst vor dem gläsernen Bürger und dem 
Verlust der informationellen Selbstbestimmung richtet sich nicht länger nur gegen einen 
mächtigen Staat, der nun neben hoheitlichen Macht- auch mit informationellen Wissens-
überschüssen ausgestattet ist; sondern vor allem auch einer neuen Kategorie von digitalen 
„superstar companies“ (Rosen 1981) bzw. der als „big tech“ bezeichneten Riege von in 
dieser Form bislang unbekannten Technologiekonzernen, die neben ihrem immensen 
ökonomischen Pouvoir auch ein Oligopol an datenbasierten Dienstleistungen innehaben 
und jene Informationsressourcen und Kommunikationsplattformen effektiv kontrollieren, 
die für unsere Gegenwart so zentral geworden sind (Facebook, Google, Twitter, Microsoft, 
Apple). 
In einem Punkt jedoch gleichen sich die Positionen sowohl der Verfechter als auch der 
Gegner einer datenbasierten Soziotechnik unserer „digitalen“ Gesellschaft. Beide halten 
die aus dem digitalen Lebensvollzug endlos entströmenden Daten für unmittelbar 
praktische Entitäten. Doch während die einen die Vorteile einer neuen Informationsdichte 
und -tiefe als Möglichkeit zur Verbesserung der wissenschaftlichen Forschung, etwa in der 
Ökonomie (Einav & Levon 2013) oder der Kriminologie (Lynch 2018) sowie der Praxis 
sozialer und politischer Systeme zum Beispiel in der Gesundheitspolitik (siehe Miller und 
Tucker 2017) preisen, verweisen die anderen auf die Abgründe und Gefahren einer 
datengetriebenen Welt.  
In unserem Beitrag zur Debatte über Data Politics wollen wir einen Aspekt beisteuern, der 
allzu schnell abgehandelt, wenn nicht gleich ganz übersehen wird: Information ist nicht 
gleichbedeutend mit Wissen, und die Konfusion dieser beiden Phänomene führt 
regelmäßig in die Irre. Sie überschätzt sowohl die Möglichkeiten als auch die Risiken 
einer datengetriebenen Politik, deren potenzielle Gefahren wir anderswo verorten. Zur 
Veranschaulichung unserer Argumentation bedienen wir uns einer historischen Episode 
und ihrer rezenten Wiederauferstehung im Zuge der Big Data-Debatte: der Vorstellung 
einer Physik des Sozialen. 
 
2. Wissen als Handlungsvermögen 
 
Wir beginnen mit einer kurzen Diskussion über die gesellschaftliche Bedeutung von 
Wissen, dessen historisch gewachsene, zentrale Rolle für die moderne Gesellschaft immer 
noch oft dadurch konterkariert wird, dass es in vielen Sozialwissenschaften als eine Art 
„Blackbox“ behandelt wird (vgl. Adolf & Stehr 2017). Das Defizit im Wissen über das 
Wissen liegt unter anderem darin begründet, dass der wissenschaftliche Diskurs ein 
gewisses Selbstverständnis gegenüber dem eigenen Wissen entwickelt hat. Er legt ein 
Selbstverständnis des von ihm produzierten Wissens an den Tag, das dazu neigt, nicht nur 
Information, Wissen und die Wiederkehr der Sozialen Physik   37 
die Objektivität seiner Behauptungen zu überschätzen, sondern auch die unmittelbare und 
unvermittelte gesellschaftliche Relevanz wissenschaftlichen Wissens, also dessen Macht.   
Wissen, Ideen und Informationen (wobei ganz bewusst sehr weit gefasste und ambivalente 
Kategorien verwendet werden, die es in der Folge weiter zu differenzieren gilt) sind höchst 
eigentümliche Entitäten mit Eigenschaften, die sich von denen von Waren, Geheimnissen 
oder Geld unterscheiden. Wenn sie verkauft werden, gehen Wissen, Ideen oder 
Informationen in den Besitz anderer über und bleiben dennoch in der Domäne ihres 
Produzenten (non-rival). Wissen wird im Prozess des Konsums nicht zerstört. Wissen hat 
keine Nullsummeneigenschaften. Wissen ist zunehmend allgemein verfügbar. Im 
Gegensatz zu Geheimnissen verliert Wissen seinen Einfluss nicht, wenn es enthüllt wird. 
Seine scheinbar uneingeschränkte Verfügbarkeit mindert nicht seine Bedeutung, sondern 
macht es auf eigentümliche Weise resistent gegen Eigentum. 
Für die Zwecke der folgenden Diskussion und als Grundlage für unsere Argumentation 
bezüglich der sozialen und politischen Rolle von Daten und Informationen in „information 
ecosystems“ (Cortada 2018) möchten wir Wissen als eine Fähigkeit zu sozialem Handeln 
definieren (siehe Stehr 1994). Unsere Begriffswahl leitet sich von Francis Bacons 
berühmter Feststellung ab, deren Übersetzung jedoch bisweilen in die Irre führt: „Wissen 
ist Macht“. Bacons Formulierung legt jedoch nahe, dass Wissen seinen Nutzen daraus 
ableitet, etwas in Bewegung zu setzen. Der Begriff potentia beschreibt die „Fähigkeit“, die 
dadurch gewonnen wird, etwas zu wissen. Dabei ist es wichtig, dass Wissen als 
verallgemeinerte Handlungsfähigkeit nur dann eine „aktive“ Rolle im Verlauf des sozialen 
Handelns einnehmen kann, wenn dieses Handeln nicht rein stereotypen bzw. routinehaften 
Mustern folgt oder auf andere Weise streng reglementiert ist. 
Wissen als Handlungsfähigkeit kann nicht auf naturwissenschaftliches Wissen reduziert 
werden. Andere Formen des Wissens stellen ebenso „Handlungsvermögen“ dar. 
Unabhängig von der besonderen Rolle wissenschaftlichen Wissens in der modernen 
Gesellschaft lässt sich seine Bedeutung nicht aus der Tatsache ableiten, dass es eine 
unmittelbare Handlungsfähigkeit darstellt. In dieser Hinsicht unterscheidet sich wissen-
schaftliches Wissen nicht von Alltagswissen oder religiösem „Wissen“. Auch die 
Wissenschaft ist kaum in der Lage, so etwas wie kognitive Gewissheit zu bieten. Auch das 
von ihr produzierte Wissen bietet meist nichts anderes als mehr oder weniger plausible 
und oft umstrittene Annahmen, Szenarien und Wahrscheinlichkeiten, wie uns die Corona-
Pandemie einmal mehr vor Augen führt. In der Auseinandersetzung mit der praktischen 
Rolle und dem Status wissenschaftlichen (und technischen) Wissens ist es daher von 
Bedeutung, sich stets daran zu erinnern, dass die Kontrolle der relevanten 
Handlungsbedingungen, innerhalb derer Wissen realisiert wird, sozialer Durchsetzungs-
fähigkeit, also der Macht bedarf. 
Ein solches Verständnis verankert Wissen fest in gesellschaftlichen Beziehungen und 
beschäftigt sich weniger mit wissenschaftstheoretischen Fragen als mit seinen sozialen 
Anwendungen und Konsequenzen – eine Perspektive, die für unsere Diskussion über die 
38  Marian Adolf & Nico Stehr 
Bedeutung von Information und Datenpolitik und den ihr zugeschriebenen praktischen 
Nutzen wichtig ist. Bevor wir uns der Diskussion eines solchen Beispiels, der „Sozialen 
Physik“, zuwenden, müssen wir kurz auf eine andere relevante Frage in diesem 
Zusammenhang eingehen, nämlich jene, wie sich die Begriffe Wissen und Information 
zueinander verhalten. Diese Frage stellt sich, weil diese Begriffe häufig vermischt, wenn 
nicht gar gleichgesetzt werden. 
 
3. Zum Unterschied von Information und Wissen 
 
Deshalb stellt sich zunächst die Frage, ob es heute überhaupt noch sinnvoll ist, zwischen 
Information und Wissen zu unterscheiden – angesichts eines fast unbezwingbaren 
Konvoluts an konkurrierenden Konzeptionen von Wissen und Information, die noch dazu 
unterschiedlichen epistemologischen und ontologischen Perspektiven entspringen.  
Eine autoritative Stimme in diesem Gewirr mag jene von Daniel Bell sein (1979, S. 168): 
„By information I mean data processing in the broadest sense; the storage, retrieval, and 
processing of data becomes the essential resource for all economic and social exchanges 
(in post-industrial society).“ Diese Definition gleicht jener eines technischen Kommunika-
tionsbegriffes, bei dem Bedeutung und Vermittlung von Quelle und Empfänger 
unabhängig sind.  
Wissen hingegen bezeichnet Bell als „organized set of statements of fact or ideas, 
presenting a reasoned judgment or an experimental result, which is transmitted to others 
through some communication medium in some systematic form“ (ibid.). Infolgedessen 
wird Information schnell zu „bloßer Information“, während Wissen methodisch erzeugt, 
eingeordnet und bewertet wird. In Bells Definition gibt es keinen Hinweis auf den 
kontingenten Charakter von Information und Wissen. Anscheinend können sowohl Wissen 
als auch Information praktisch ungehindert zirkulieren. Information ist der Handlanger des 
Wissens. Zudem scheint Bell von der (unbestrittenen) Autorität, Vertrauenswürdigkeit und 
Macht von Informationen und Wissen überzeugt zu sein. Empirisch ist dies jedoch nur 
selten der Fall. 
Wissen, so wie wir es definiert haben, stellt Handlungsvermögen dar. Wissen befähigt 
Akteure – in Verbindung mit der Kontrolle über die kontingenten Umstände des Handelns 
– etwas in Bewegung zu setzen. Die Funktion der Information ist zugleich begrenzter als 
auch allgemeiner: Ersteres, weil ihr die befähigenden Eigenschaften des Wissens fehlen; 
letzteres, weil Information keineswegs so rar ist wie Wissen. Informationen verbreiten sich 
leicht und erfordern keine besonderen kognitiven Fähigkeiten. Ein Beispiel für 
Informationen wäre der Preis oder andere Marktinformationen, etwa über die 
Verfügbarkeit eines Produkts. Solche Informationen können sicherlich nützlich sein, sind 
dabei doch meist recht unspezifisch. Information ist, mehr noch als Wissen, ein 
Information, Wissen und die Wiederkehr der Sozialen Physik   39 
öffentliches Gut. Information ist autark. Sie ist jedoch nicht handlungsermöglichend in 
dem Sinne, dass sie einem Akteur erlauben, ein Produkt zu erzeugen. Informationen 
spiegeln lediglich Eigenschaften der Dinge wider, von denen sie abstrahiert sind. Kurz 
gesagt, Wissen bezieht sich im Gegensatz zu Informationen auf einen Prozess oder Input, 
während sich Informationen auf Eigenschaften eines Gegenstands oder Outputs beziehen. 
Diese Unterscheidungen und Eigenschaften gilt es in Erinnerung zu behalten, wenn wir 
uns in der Folge einem frühen sozialwissenschaftlichen Projekt widmen: der „Sozialen 
Physik“.  
 
4. Die Verlockung allumfassender Information: 
Quetelets Sozialphysik 
 
Vor mehr als einem Jahrhundert war Adolphe Quetelet (1796-1874), der belgische Pionier 
der empirischen Sozialforschung, der erste Wissenschaftler, der große Bestände an 
empirischen Daten sammelte und analysierte. Er mag daher heute nicht nur als Begründer 
der Sozialstatistik gelten, sondern war auch einer der Gründerväter der Soziologie.2 Im 
Rahmen unsere Diskussion soll er als Begründer, aber weitgehend vergessener Vorgänger 
der heutigen „Datenwissenschaft“ gelten, dessen Werk uns hilft, mehr über die 
Versprechen und Hoffnungen von Big Data zu erfahren. 
Im frühen 19. Jahrhundert arbeitete Adolphe Quetelet an einem Plan zur Quantifizierung 
dessen, was er den homme moyen nannte: ein arithmetisches Mittel des Einzelmenschen. 
Die Summe aller durchschnittlichen menschlichen Eigenschaften würde zu einer 
quantitativen Repräsentation des Individuums führen, die für die Sozialwissenschaften die 
Funktion eines „Gravitationszentrums“ übernehmen könnte (Beirne 1987, S. 1151). 
Darüber hinaus erlaubte die Messung individueller und kollektiver, sozialer und 
physischer Eigenschaften, die Dynamik der Gesellschaft nachzuvollziehen. Quetelet war 
überzeugt, wenn nur genügend Daten gesammelt werden könnten, es möglich wäre, einen 
Menschen zu berechnen, der die gesamte Menschheit repräsentiert, und damit den Weg für 
eine Wissenschaft zu ebnen, die er später Sozialphysik nennen sollte. 
Quetelets „Sozialphysik“ lässt sich als empirische Beschreibung der sukzessiven 
Eingrenzung der Abweichung vom Mittelwert relevanter individueller Eigenschaften des 
Menschen sowie kollektiver Attribute der Gesellschaft in deren Entwicklung darstellen. 
Beispiele sind das Ausmaß gesellschaftlicher Konflikte, die Verteilung von Vermögen und 
                                                        
2  Paul Felix Lazarsfeld, Doyen der modernen Sozialforschung, benannte 1963 sogar seinen Lehrstuhl an der 
Columbia University nach dem Pionier „Quetelet Professor of Social Science“ (Fleck und Stehr 2007). Nach 
heutigen Maßstäben war Quetelets Arbeit hochgradig interdisziplinär und erstreckte sich über viele Wissenschafts-
bereiche, von der Astronomie bis zur Kriminologie. 
40  Marian Adolf & Nico Stehr 
Einkommen oder die Kriminalitätsstatistik. Aber die Phänomene, die Quetelet interessier-
ten, waren keineswegs auf das beschränkt, was die moderne Sozialwissenschaft als genuin 
soziale Phänomene betrachtet, wie etwa Bildung oder Moralvorstellungen. Quetelets 
Interesse erstreckte sich auch auf physikalische Phänomene wie das Gehirn oder die 
Anatomie im Allgemeinen. Zu diesem Zweck bediente sich Quetelet schon vor mehr als 
150 Jahren großer Datenmengen, und verwendete etwa die Körpermaße von 5.738 
schottischen Soldaten. Von dort aus machte er sich an die Errechnung des 
„Durchschnittsmenschen“. 
Doch was genau beabsichtigte Quetelet mit der Anhäufung solch disperser Datenmengen 
zu erreichen? Im Jahr 1831 beschrieb er seine Methode und seine wissenschaftlichen Ziele 
wie folgt: 
Initially, by examining the physical and mental abilities of the people I 
wanted to discover the law by which they develop at different ages, and learn 
about the modifications that impact upon them according to place, time, 
season, sex, and all causes in general. However, in order to estimate these 
properties correctly and determine their relative value among different 
peoples and in different periods, one would have to be able to measure them, 
or at least show that this would be possible once science had collected 
sufficient observational data. I now hope to have clarified this possibility to 
the fullest so that no further doubt can exist in this regard. (Quetelet 1831, 
o.S.) 
Die „Sozialphysik“, wie Quetelet sie sich vorstellte, sollte mehr sein als eine vornehmlich 
deskriptive sozialwissenschaftliche Methode zur Erfassung der Abläufe der sozialen 
Wirklichkeit. Wenn sie richtig betrieben würde – d.h. durch eine vollständige Auflistung 
sozialer Tatsachen – würde sie die Ursachen sozialen Handelns enthüllen. Zwar betonte 
Quetelet (1842, S. vii) zunächst, dass “I am less desirous to explain phenomena than to 
establish their existence […] I have […] no other aim than to collect […] the phenomena 
affecting man. I confine myself to the citation of facts, such as society presents to our 
view”; und doch sah er in den von ihm gesammelten empirischen Daten und den daraus 
abgeleiteten Regelmäßigkeiten hinsichtlich der Verteilung bestimmter Eigenschaften 
innerhalb einer Population den Schlüssel zur Lösung einer ganzen Reihe von politischen 
und sozialen Problemen. Es war nicht nur möglich, so seine Überzeugung, soziale Muster 
zu entdecken, sondern auch die „soziale Mechanik“ des gesellschaftlichen Lebens 
(„mecanique sociale“) zu enthüllen und in ihre Abläufe einzugreifen. Beispielsweise 
empfahl Quetelet das optimale Alter für die Einberufung junger Männer in die Armee, 
Strategien zur Unterdrückung von Kriminalität und abweichendem Verhalten oder zur 
Preisgestaltung von Getreide, die seiner Meinung nach den größten Einfluss auf die 
Sterblichkeits- und Reproduktionsrate hatte. 
Quetelet, der zeitlebens nur mit bereits vorhandenen Daten operierte (bspw. dem Zensus), 
erweiterte seine „soziale Mechanik“ in der Folge zur „moralischen Statistik“, und 
Information, Wissen und die Wiederkehr der Sozialen Physik   41 
bearbeitete Daten zu Phänomenen wie Selbstmord, Heirat und Kriminalität (Letzteres 
machte ihn auch zu einem Mitbegründer der Kriminalistik). Er führte die 
Normalverteilung (auch Gauß-Verteilung) als wichtiges Mittel zur Bestimmung von 
Wahrscheinlichkeiten ein. Auf Basis des Wissens um die Normalverteilung vieler solcher 
sozialen Fakten wandte er sich zunehmend den Ursachen und Konsequenzen der 
Abweichungen zu.  
Kurz, es ist unbestreitbar, dass Adolphe Quetelet zu jenen Pionieren der Soziologie gehört, 
die die grundsätzliche Möglichkeit entdeckten, sich mithilfe einer umfangreichen 
Sammlung sozialer Fakten der Lösung praktischer Probleme anzunähern. Paul Lazarsfeld 
(1961, S. 278) würdigt Quetelets Vorreiterrole „[He] expanded census activities 
undertaken by various government agencies. He anticipated with varying degrees of 
precision many basic concepts of quantification, and his writings led to sophisticated 
controversies which continued into the 20th century.“ 
Mehr als ein Jahrhundert später wird nun, vor dem Hintergrund des Datenreichtums der 
zeitgenössischen „information ecosystems“ (Cortada 2018), erneut die Möglichkeit einer 
Physik des Sozialen beschworen (Pentland 2014). Im Folgenden versuchen wir, die 
Grundannahmen dieser spezifischen Herangehensweisen an die soziale Welt 
herauszuarbeiten und einige der grundlegenden, unserer Meinung nach fehlerhaften 
Prämissen solcher Vorhaben zu erschließen. Bemerkenswert ist, dass sowohl die 
klassische Sozialphysik als auch ihre jüngste Wiederentdeckung auf der Grundlage von 
Big Data mit dem Sammeln von Daten beschäftigt sind und dabei Ideen oder theoretische 
Perspektiven vernachlässigen, die die Konzentration, Clusterung oder Verteilung von 
Attributen sozialer Phänomene erklären könnten; ganz zu schweigen davon, aus solchen 
Beobachtungen unmittelbar praktische Handlungsanleitungen ableiten zu können. Dem 
Fehlen einer theoretischen Untermauerung der bloßen Datenerhebung wollen wir 
besondere Aufmerksamkeit schenken. Davor müssen wir uns jedoch den materiellen und 
technischen Grundlagen unter den Bedingungen einer zusehends „digitalisierten“ 
Gesellschaft  widmen. 
 
5. Die Informationalisierung des gesellschaftlichen Lebens 
 
Was die alte Idee der Enthüllung der sozialen Realität durch die Berechnung der Summe 
all ihrer Teile wiederzubeleben scheint, ist die beispiellose Verfügbarkeit digitaler Daten 
über immer größere Bereiche des sozialen und natürlichen Lebens. Die Echtzeit-
überwachung durch allgegenwärtige Sensoren und die Ausstattung von Alltagsgeräten mit 
Informationstechnologie machen soziale Räume zu Orten der omnipräsenten Über-
wachung. In dem Maße, in dem immer mehr Alltagstätigkeiten ins Internet verlagert 
werden, in dem webbasierte Dienste für typische Erledigungen und berufliche Tätigkeiten 
42  Marian Adolf & Nico Stehr 
genutzt werden, sammeln sich immer größere Datenmengen an. Jeder Telefonanruf, jede 
Online-Bestellung, jede Google-Abfrage, jeder Aufruf einer Website wird protokolliert. 
Die Nutzung von Social Network Sites (SNS), von Fahrtendiensten, von Rabatt- und 
Kreditkarten, um nur einige zu nennen, erzeugt Bewegungs- und Aktivitätsprofile, die eine 
immense Menge an Informationen enthalten. So wie die Metadaten von 
Telefongesprächen und Server-Logins letztlich mehr sensible Informationen über ein 
Individuum offenbaren können als der Inhalt der Kommunikation selbst, enthält die 
Protokollierung unserer Interaktionen und Aktivitäten innerhalb der zeitgenössischen 
Medien- und Informationsökologie nicht nur Informationen über unser Verhalten, sondern 
auch über Vorlieben und Wünsche (sog. „psychographic profiling“).  
Diese Entwicklung, die bereits unter dem Begriff Big Data diskutiert wurde, steht für die 
zunehmende Informationalisierung des gegenwärtigen gesellschaftlichen Lebens. Der 
Prozess hat seine Wurzeln in der weitgehenden Datafizierung (datafication) alltäglicher 
Aktivitäten, die sich allgegenwärtiger digitaler Technologien bedienen. Heute kann so gut 
wie alles, was Menschen tun, die Form von Daten annehmen. Gleichzeitig entzieht sich 
dieser Prozess zunehmend der individuellen Kontrolle, was Michael Seemann (2015) dazu 
veranlasst, diese Entwicklung als einen allgemeinen und unausweichlichen Kontrollverlust 
(der informationellen Autonomie) zu beschreiben. Dieses Phänomen ist nicht nur ein 
medientechnisches Epiphänomen, sondern längst von allgemeiner gesellschaftlicher 
Bedeutung: Wer heute am sozialen Leben teilnimmt, produziert unwillkürlich personen-
gebundene Informationen. Digitale Abstinenz wird zunehmend mit sozialem Ausschluss 
erkauft (Adolf & Deicke 2015). Im Hinblick auf das Wachstum von personenbezogenen 
Datenspuren sind drei Aspekte besonders erwähnenswert: 
Erstens gehen auf sozialer Ebene die neuen kommunikativen Möglichkeiten der 
Informations- und Kommunikationstechnologien (IKT), insbesondere der weiter 
expandierenden Social-Media-Anwendungen, mit neuen Formen der Selbstdarstellung 
sowie der sozialen Vernetzung einher. Social-Media-Profile sind zu Plattformen für die 
Formierung und Repräsentation von Identitäten, aber auch für den gesellschaftlichen 
Diskurs geworden. In vielerlei Hinsicht haben sich soziale Interaktion und Partizipation 
auf die Plattformen des Internets verlagert, erlangen dort neue Formen und führen dazu, 
dass sich ein immer größerer Teil der Bevölkerung in digitalen Sozialräumen aufhält. 
Gleichzeitig geht die Nutzung solcher „Profile“ mit dem Preis persönlicher und 
interaktioneller Daten einher, deren Informationswert die Ware ist, auf der die digitale 
Ökonomie basiert (siehe Stalder 2012, Zuboff 2019). 
Auf einer medientechnischen Ebene ergibt sich, zweitens, die permanente Hervorbringung 
und die Unmöglichkeit der Einhegung von Daten aus den dispositiven Eigenschaften der 
Informations- und Kommunikationstechnologie selbst: Computerbasierte, digitale 
Technologie produziert unwillkürlich Daten, und zwar im Überfluss, denn Bits und Bytes 
werden an Schnittstellen nicht tatsächlich „übertragen,“ sondern vielmehr kopiert. 
Computer sind Kopiermaschinen; und Kopien können aufbewahrt, Verbindungen 
Information, Wissen und die Wiederkehr der Sozialen Physik   43 
protokolliert, Örtlichkeiten gespeichert, Kontaktfrequenzen registriert werden. In 
Kombination mit der enormen Verbreitung von miniaturisierten und günstigen Sensoren 
zeichnet die digitalisierte Umwelt automatisch alles auf, was sie einfängt. Solche zunächst 
punktuell und in spezifischen Kontexten aufgezeichnete Datenmengen können später, 
angesichts der erweiterten Möglichkeiten der Speicherung und Vernetzung von 
Informationen, zusammengeführt und verarbeitet werden. Die Kombination von zuvor 
unverbundenen Daten verleiht ihnen eine neue Tiefe und kann, indem neue 
Zusammenhänge hergestellt werden, Informationen enthalten, die ihre Einzelteilen nicht 
enthielten.  
Ein dritter Treiber für den Kontrollverlust über personenbezogene digitale Daten ist der 
illegitime oder gänzlich illegale – aber kaum zu verhindernde – Zugriff auf 
personenbezogene Informationen durch Hacker, Sicherheitsdienste oder ausländische, 
staatliche Akteure. Angriffe auf die Cloudservices oder Datenbanken populärer 
Digitaldienstleister führen regelmäßig zu enormen Datenverlusten und der Preisgabe 
persönlicher Information, beispielweise von privaten Fotosammlungen. Auch deutet 
Vieles von dem, was durch die Enthüllungen des ehemaligen NSA-Mitarbeiters Edward 
Snowden und andere prominente Datenlecks bekannt wurde, auf eine massive, anhaltende 
Verletzung von Bürger- und Freiheitsrechten sowie des nationalen und internationalen 
Rechts hin. Der Verlust der Kontrolle über persönliche Daten ist in dieser Hinsicht jeder 
anderen Form der Viktimisierung durch eine kriminelle Handlung gleichzusetzen und 
kann nur bis zu einem gewissen Grad abgewehrt werden. 
In immer neuen Lebensbereichen wird das Zurückhalten privater Informationen 
unmöglich, wodurch gesellschaftliche Teilhabe zusehends an die Preisgabe persönlicher 
Daten geknüpft wird: Dokumente wie Reisepässe erfordern heute die Herausgabe 
biometrischer Daten, ebenso wie Mobilität über Grenzen hinweg. Krankenversicherungen 
sind in vielen Ländern mit Ausweisen verbunden, die neben den biometrischen Daten auch 
patientenbezogene Daten speichern. In manchen Gefilden rümpft man längst die Nase, 
wenn Kunden zu Geldscheinen statt zur Debit-Karte greifen; und die Europäische Union 
hat ein Regelwerk verabschiedet, wonach alle in Europa verkauften Neuwagen 
verpflichtend mit einem Notrufsystem ausgestattet sein müssen, das im Falle eines Unfalls 
Daten speichern und senden kann (eCall-System). Dieses Dilemma wird sich weiter 
verschärfen, da immer mehr ehemals „analoge“ Tätigkeiten digitalisiert werden. 
Die hier beschriebenen Entwicklungen scheinen kaum umkehrbar zu sein. Die Gesell-
schaft profitiert in vielerlei Hinsicht von diesen technologischen und organisationalen 
Entwicklungen, z.B. durch gesteigerte Effizienz, neue Möglichkeiten der Beobachtung 
und des Lernens und nicht zuletzt durch persönliche Bequemlichkeit. Vor allem aber leben 
wir nicht mit, sondern eingebettet in diesem digitalen informationellen Ökosystem. Viele 
der Möglichkeiten, die sich durch die Aufzeichnung und die algorithmische Verarbeitung 
von Big Data ergeben, sind gesellschaftlich wertvoll. Sie machen Zusammenhänge 
sichtbar, wo vorher nur „weißes Rauschen“ war. Wir gewinnen Einblicke in Phänomene, 
44  Marian Adolf & Nico Stehr 
die mit konventionellen Mitteln nur mit großem Aufwand zu entdecken gewesen wären. 
Und wir bezahlen mit unseren Daten: Wir haben Zugang zu Diensten, die sonst für viele 
unerschwinglich wären, wie zum Beispiel mit Menschen auf der ganzen Welt in Kontakt 
zu bleiben, umfassende enzyklopädische Informationen abzurufen oder sich mithilfe 
interaktiver Landkarten in fremden Städten zurechtzufinden. 
Dennoch ist eines der Hauptprobleme von Big Data die faktische, stratifizierte 
Asymmetrie in Bezug auf den Zugang zu und die Verarbeitungsmöglichkeiten von solchen 
Daten (was Zuboff „epistemische Ungleichheit“ nennt). Nicht nur sind wir uns der 
fortschreitenden Veränderungen in der Informationsökonomie nur schemenhaft bewusst, 
auch die darin liegenden Machtgefälle sind uns nicht vollständig gewahr. Der Einzelne hat 
nur ein begrenztes, oder gar kein Mitspracherecht bei der Sammlung und Weitergabe 
solcher Informationen und kann über sie nicht auf dieselbe Weise verfügen wie 
Unternehmen, Behörden und andere institutionelle Akteure.3  
 
6. Datenbasierte Teilhabe 
 
Im Zuge globaler Enthüllungen, etwa der Veröffentlichung geheimer diplomatischer 
Depeschen durch WikiLeaks (die sogenannte „Cablegate“-Affäre) oder der Preisgabe der 
Überwachungsprogramme nationaler Nachrichtendienste durch Edward Snowden (die 
„NSA-Affäre“), erhielt der Begriff Big Data eine kritischere Konnotation. Fragen 
betreffend die Zukunft der Privatsphäre im Internet sind seitdem zu einem wichtigen 
politischen Thema geworden. Digitale Daten werden längst als Quelle wirtschaftlicher und 
politischer Macht verstanden, einer informationellen Macht, die in der Erfassung und 
algorithmischen Verarbeitung riesiger Mengen von Rohdaten liegt.  
Ein wesentlicher Punkt ist, wer Daten erheben darf und wo solche Informationen 
kumulieren, eine Frage, die seit langem im Zentrum der Debatte über IKT steht. Armin 
Nassehi (2014, S. 2) erinnert daran, dass der moderne Nationalstaat schon immer auf 
statistischen Informationen über seine Bürger beruhte: „die Staatlichkeit des modernen 
Staates seit dem 18. Jahrhundert [gründet] gerade darin, dass er sich mit Daten versorgt, 
seit es so etwas wie eine zentrale Planung von Bevölkerungen gibt.“ Nassehi behauptet 
sogar, dass der Begriff des Bürgers selbst erst durch das Wissen, das der Staat über ihn 
hat, konstituiert wird. Aus dieser Perspektive war Quetelets „homme moyen“ schon immer 
ein integraler Bestandteil des Regierens und der Machtverhältnisse im modernen 
Staatswesen, und die digitalen Möglichkeiten von heute sind lediglich eine weitere Stufe 
dieser Entwicklung: „Es dürfte reichlich naiv sein, so etwas wie eine unbeobachtbare, 
                                                        
3  In jüngster Zeit wurde eine verwandte Kritik am „computational turn“ der Sozial- und Geisteswissenschaften laut, 
welche unter dem Namen „tool criticism“ eine gründlichere Reflexion der methodologischen Implikationen der 
Nutzung von Big Data für die Forschung einfordert (van Es et al. 2021). 
Information, Wissen und die Wiederkehr der Sozialen Physik   45 
authentische, autonome Privatheit retten zu wollen – diese hat es nie gegeben.“ (Nassehi 
2014, S. 3) 
Wird das moderne Individuum generell transparenter in dem Sinne, dass wir mehr 
übereinander „wissen“? Oder ist der „gläserne Bürger“ vorwiegend ein asymmetrisches 
Verhältnis zwischen den Mächtigen und den Machtlosen? Eine Gesellschaft der totalen 
Transparenz ist, wie schon Robert Merton wusste, eine „teuflische“ Gesellschaft (Merton 
1957, S. 345). In einer solchen Gesellschaft wäre das Chaos vorprogrammiert: „full 
visibility of conduct and unrestrained enforcement of the letter of normative standards 
would convert a society into a jungle. It is this central idea which is contained in the 
concept that some limits upon full visibility of behavior are functionally required for the 
effective operation of a society.“ (ebd.) 
Die Aussicht auf vollständige Transparenz unter den Mitgliedern einer komplexen 
Gesellschaft ist nicht nur (funktional wie normativ) problematisch, sie ist auch gering, wie 
Heinrich Popitz (1968, S. 18) behauptete. Der Widerstand gegen eine zu große Trans-
parenz des eigenen und fremden Verhaltens ist eine strukturbedingte Funktion sozialer 
Gruppen, z.B. in Form von institutionell sanktionierter Nachsicht in der Durchsetzung 
bestehender sozialer Normen oder der Tendenz, sich der Preisgabe der eigenen Privat-
sphäre zu widersetzen (vgl. Popitz 1968, S. 8). Darüber hinaus kennt die Gesellschaft 
rechtliche und technische Maßnahmen, um der unbegrenzten Sichtbarkeit des Verhaltens 
und der Überzeugungen entgegenzuwirken. Auch heute erleben wir einen Widerstreit von 
Kräften, die Überwachungs- und Sicherheitstechnologien propagieren, und solchen, die sie 
abschwächen und einhegen wollen. So hat beispielsweise San Francisco als erste 
amerikanische Großstadt im Jahr 2019 den Einsatz von Gesichtserkennungssoftware 
verboten. 
Einige Beobachter, insbesondere Befürworter der Privatsphäre im Zeitalter allgegen-
wärtiger IKTs, sind weniger überzeugt von der Kontinuität einer liberalen Tradition des 
begrenzten gegenseitigen und hoheitlichen Wissens. Die Enthüllungen über die globale 
Dimension digitaler Überwachungsprogramme wie PRISM, die von den Geheimdiensten 
NSA und GCHQ betrieben wurden, ließen Bürgerrechtsgruppen aus dem Boden schießen, 
die vor einem drohenden „Tod der Privatsphäre“ angesichts der sich ausbreitenden 
Werkzeuge zur Sammlung, Speicherung und Verarbeitung von Daten warnen. Zugleich 
haben viele Regierungen angesichts neuer Formen terroristischer Bedrohungen, und 
angetrieben von einem Klima der Angst, Gesetze verabschiedet, die einstige 
Beschränkungen des Zugangs zu privaten Daten lockern. Die klassische Frage nach dem 
Verhältnis von Sicherheit und Freiheit als grundlegender Kompromiss demokratischen 
Regierens ist neu entfacht und hat sich als globale Debatte etabliert.4 
                                                        
4  Angesichts dieser Herausforderungen sind in vielen Ländern Initiativen, Bewegungen und NGOs wie die 
Electronic Frontier Foundation (eff.org) oder The Guardian Project (guardianproject.info) entstanden. Ein 
besonders bemerkenswertes Beispiel ist die Klage des damaligen Jurastudenten Max Schrems gegen Facebook 
46  Marian Adolf & Nico Stehr 
Anstatt nur zu beschreiben, was in den wachsenden digitalen Spuren unser aller 
Alltagsleben zu finden ist, erschaffen datenbasierte Informationen längst auch soziale 
Fakten. Sie verdoppeln die soziale Welt, indem sie diese in Datenform sichtbar und 
kalkulierbar machen. Diese Repräsentationen stellen jedoch nicht einfach eine Kopie dar, 
sie sind vielmehr eine zweite, datenförmige Version des gesellschaftlichen Ganzen. Die 
rasante Ausbreitung digitaler, vernetzter Technik (Digitalisierung) und die damit 
verbundenen kulturellen, ökonomischen und politischen Prozesse (Informationalisierung) 
werfen also wichtige Fragen nach der Rolle von Information und Wissen im Hinblick auf 
die Verteilung von, und die Mittel zur Ausübung von Macht auf.5  
Wir teilen die grundsätzliche Besorgnis über gesellschaftliche und politische 
Entwicklungen, dass sich die Machtverhältnisse in modernen, demokratischen Gesell-
schaften weiter zugunsten jener bereits mächtigen gesellschaftlichen Akteure und 
Institutionen verschieben, die sich das Informationspotenzial umfänglicher Daten zunutze 
machen können. Wir stimmen jedoch nicht mit einem großen Teil des Big Data-basierten 
„Social Physics“-Diskurses innewohnenden Annahme über die unmittelbare Verwert-
barkeit solcher Beobachtungsdaten überein. Dies gilt auch für die Protagonisten der 
wiederkehrenden „Sozialphysik“, denen wir uns im Folgenden zuwenden werden.  
 
7. Von der ‘physique sociale’ zu ‛Social Physics’ 
 
Während die Niederlage der „Sozialen Physik“ im Kampf mit ihrer Geschwisterdisziplin 
Soziologie den Begriff fast ein Jahrhundert lang aus dem Mainstream der 
Sozialwissenschaften verdrängt hatte, ist er, angetrieben von den Versprechungen von Big 
Data, kürzlich mit neuem Selbstbewusstsein wieder zurückgekehrt. Darüber hinaus 
scheinen sich die heutigen Befürworter einer Big-Data-basierten Sozialphysik wie Alex 
Pentland nicht mehr an ihren einst so bedeutenden Vorläufer zu erinnern. Sie sind daher 
anfällig dafür, seine methodologischen Fehler zu wiederholen. „Just as the goal of 
traditional physics is to understand how the flow of energy translates into changes in 
motion, social physics seeks to understand how the flow of ideas and information 
translates into changes in behavior.“ (Pentland 2014, S. 5) 
Den Anhängern der Idee einer „sozialen Physik“ muss das Zeitalter des „ubiquitous 
computing“ wie das Schlaraffenland erscheinen. „In just a few short years we are likely to 
have incredibly rich data available about the behavior of virtually all of humanity – on a 
                                                        
wegen der Verletzung der Privatsphäre der Nutzer. Sein Erfolg vor dem Europäischen Gerichtshof im Jahr 2015 
besiegelte das Schicksal des „Safe Harbor“-Abkommens zwischen der EU und den USA, das den Umgang mit 
privaten Daten im transatlantischen Austausch regelte. Auch das Nachfolgeabkommen „Privacy Shield“ wurde 
2020 vom EuGH gekippt. 
5  Für einen überaus pessimistischen Ausblick bezüglich dieser Fragen siehe Zuboff (2019, 2021). 
Information, Wissen und die Wiederkehr der Sozialen Physik   47 
continuous basis“ (2014, S. 12), schreibt Pentland in Fortsetzung der Aspirationen seines 
historischen Vorgängers. Denn Datenspuren sind heute unweigerliche Folge eines 
digitalisierten Alltags und informationalisierter sozialer Organisation. Während die 
Sozialstatistiker der Pionierzeit ihre Daten noch mühsam zusammentragen mussten, liegen 
die Datenschätze von heute am Wegesrand – zumindest für diejenigen, die darauf 
zugreifen und sie verarbeiten können. 
Der Anspruch der zeitgenössischen „Social Physics“ ist genauso universell wie die Daten, 
auf denen sie basiert. Wie Pentland im Geiste Quetelets feststellt, zielt sie darauf ab, „[to] 
move beyond merely describing social phenomena to building a causal theory of social 
structure,“ um zu einer „mathematical explanation of why society reacts as it does“ zu 
gelangen; und um schließlich „better social systems“ erschaffen zu können (Pentland 
2014, S. 6). Ziel ist es letztlich, „to plan the future“ (2014, S. 7). Im Lichte dieser pro-
grammatischen Aussagen muss die Sozialphysik als eine „Wissenschaft“ verstanden 
werden, die die Gesellschaft nicht nur beschreiben, sondern aktiv verändern will. 
Kombiniert mit dem selbstauferlegten Anspruch, die moderne Gesellschaft auf der Basis 
allgegenwärtiger Daten nicht nur besser zu verstehen, sondern auch zu lenken, erscheint 
die Überwachung des alltäglichen menschlichen Verhaltens gleich noch einmal 
bedrohlicher. 
Quetelet war der Überzeugung, dass die Feststellung von Kausalität als Voraussetzung für 
die Beherrschbarkeit sozialer Phänomene dann möglich sei, wenn die betreffenden 
Phänomene erschöpfend beobachtet und gemessen werden könnten. Daher führte er 
Lücken in seinen eigenen Arbeiten oft darauf zurück, dass die Mittel zur umfassenden 
Erfassung spezifischer individueller wie sozialer Verhaltensweisen einfach nicht 
vorhanden seien. Das Problem war eines der Ressourcen, nicht der Methode: Sobald es 
möglich wäre, die Leerstellen mit ausreichenden Informationen zu füllen, würden die 
naturwüchsigen „Gesetze“ der sozialen Physik in der Lage sein, die Wechselbeziehung 
zwischen individuellen und sozialen Prozessen zu entschlüsseln. Pentland scheint diese 
Ansicht zu teilen, jedoch verfügt er über gänzlich neue Mittel. Je größer die Datenmenge, 
idealerweise gemessen im Millisekundentakt, desto vollständiger die daraus resultierende 
Information. Vollständige Information bringt vollständige Erklärung: Das ist der Punkt, an 
dem Quetelet und Pentland gänzlich übereinstimmen, und zugleich der Punkt, an dem 
beide irren.  
So wie die Macht der Information in der Vergangenheit überschätzt wurde, so ist dies auch 
in diesem Fall zu erwarten. Wie schon bei Quetelet basiert auch Pentlands Anspruch, die 
soziale Wirklichkeit umfassend abzubilden, auf einem fundamentalen Trugschluss. Da die 
Klärung von Kausalität und ihr anschließender Einsatz zur sozialen Steuerung notwendig 
auf einer totalen Darstellung komplexer sozialer Phänomene beruhen, ist das Scheitern 
eines solchen Programms vorprogrammiert. Was bleibt, ist das, was Sozialwissenschaft 
ohnehin bereits leistet: die Abschätzung von Wahrscheinlichkeiten. 
48  Marian Adolf & Nico Stehr 
Es gibt zumindest drei Annahmen, an denen eine Kritik der „sozialen Physik“ ansetzen 
kann: (1) die fälschliche In-Eins-Setzung von Information und Wissen, (2) die Ignoranz 
der Sozialphysik gegenüber ihren eigenen normativen Grundlagen und, als Folge dieser 
Einschränkungen, (3) die Gefahr der Verkehrung des Verhältnisses von wissenschaftlicher 
Vernunft und ihrer praktischen Anwendung und Konsequenzen. 
Erstens ist die Sozialphysik praktisch frei von einer Theorie dessen, was sie zu 
beschreiben versucht. Wie schon Durkheim (1983 [1897], S. 349, unsere Hervorhebung) 
in seiner Kritik an Quetelets „homme moyen“ in Der Selbstmord feststellte: „diese Theorie 
erscheint sehr einfach. […] Zunächst kann sie erst dann als Erklärung anerkannt werden, 
wenn sie aufzeigen kann, wie es kommt, dass der Durchschnittsmensch in der Mehrzahl 
der Einzelmenschen in Erscheinung tritt.“ Auch Pentland strebt eine „causal theory of 
social structure“ (2014, S. 6) an, verabsäumt es jedoch, die tieferreichenden sozialen und 
kulturellen Gründe für individuelles Handeln und soziale Interaktion zu thematisieren. In 
ihrer reinsten Form ist Sozialphysik eine bloße Korrelation, die zufällig auf Regelmäßig-
keiten trifft, die sie dann verdinglicht. Meistens geschieht dies in Form einer Regression 
zur Mitte, was einmal mehr beweist, dass der „Mittelweg“ selten falsch ist.6  
Ein Beispiel ist die viel diskutierte Innovation des „predictive policing“: Anhand von 
Daten über Art, Ort und Zeit krimineller Handlungen versuchen Polizeibehörden mit Hilfe 
von „vorausschauender“ Polizeiarbeit, Verbrechen zu verhindern. Doch die verwendeten 
Algorithmen sagen nichts darüber aus, warum solche Delikte geschehen, oder welche 
Maßnahmen zu ihrer Verhinderung ergriffen werden sollten – oder gar, wie die Ursachen 
für eine solche Konzentration von Straftaten bekämpft werden können. Solche Daten sind 
lediglich probabilistisch, und die Informationen, die sich aus ihrer Aggregation ergeben, 
sind nicht annähernd das, was als Wissen gelten könnte.7 
Zweitens erlaubt das offensichtliche Fehlen jeglicher Theorie – also die bloße Fokus-
sierung auf das, was beobachtet werden kann – der Sozialphysik so zu tun, als wäre sie frei 
von jeglichen normativen Bezugspunkten und Implikationen. In ihrer scheinbaren 
Objektivität bestätigt sie jedoch lediglich unreflektierte Alltagstheorien und ist damit, wie 
alle Beobachtungen der sozialen Realität, genauso beobachterabhängig (und damit anfällig 
                                                        
6  Ein Beispiel dafür ist ein Befund in Pentlands Studie, von dem er ausführlich berichtet und der aus seiner 
Untersuchung von Daytradern auf der eToro-Plattform resultiert: „In summary, people act like idea-processing 
machines combining individual thinking and social learning from the experiences of others.“ (Pentland 2014,  
S. 41) Der „Sweet Spot“ für Händlerentscheidungen liegt zwischen sturem Individualismus und gedankenlosem 
Kopieren der Strategien anderer, mit anderen Worten: genau in der Mitte, zwischen den äußeren Enden der Kurve. 
Das mag eine hilfreiche, aber sicherlich keine revolutionäre Erkenntnis sein. 
7  Anstatt Verwaltungsaufgaben und deren Treffsicherheit, etwa im Rahmen der Polizeiarbeit zu verbessern, stellt 
ein fehlgeleitetes Vertrauen in datenbasierte Profile ein Risiko „of discrimination against people who have the 
‘wrong’ data profile“ dar, und es „may be difficult for a person predicted to be a wrongdoer to prove that the 
predictions are wrong.“ (Maciejewski 2017, S. 131). Meijer & Wessels (2019, S. 1) stellen zudem in ihrem 
Überblick über die einschlägige Literatur fest, dass dem „predictive policing“ bis heute „eine klare Evidenzbasis 
fehlt.“ 
Information, Wissen und die Wiederkehr der Sozialen Physik   49 
für normative Formatierungen) wie jede andere, „theoretisch verunreinigte“ Darstellung. 
Dies folgt aus der bloßen Tatsache, dass jede Interpretation der Realität, und sei sie auch 
algorithmisch abgeleitet, notwendigerweise durch ihren eigenen Ausgangspunkt 
vorstrukturiert ist. Längst hat sich herausgestellt, dass es auch so etwas wie „algorithmic 
bias“ gibt (Noble 2018), und dass auch algorithmisch erzielte Ergebnisse nur so gut sein 
können, wie es die Primärdaten, die Programmierung und die Absichten der Anbieter es 
erlauben.  
Dasselbe gilt für Pentlands Ziele, wobei sich seine implizite Weltsicht in dem 
widerspiegelt, was als evident dargestellt wird: Die Sozialphysik, so behauptet er, „helps 
us tune communication networks so that we can reliably make better decisions and 
become more productive“ (2014, S. 4). Ordnung und Fortschritt, die normativen Ziele des 
klassischen Zeitalters der Sozialstatistik, sind durch Effizienz und Innovation ersetzt 
worden, die den Einsatz von Big Data vermeintlich selbsterklärend motivieren. 
Allerdings gibt es keinen Ort, von dem aus man die soziale Wirklichkeit beobachten 
könnte, der außerhalb der sozialen Wirklichkeit liegt: Auch Algorithmen sind von 
Menschen gemachte Erfindungen, die auf von Menschen gemachten Computern laufen, 
die mit Daten aus weltlichen Quellen gefüttert und später von Anwendern so interpretiert 
werden, dass sie sich auf das eine und nicht das andere beziehen. Die Gefahr liegt hier in 
der technischen, szientistischen oder administrativen Blindheit gegenüber der 
Voraussetzungshaftigkeit solcher vermeintlich wertfreien Informationen, deren Bedingt-
heit denjenigen verborgen bleibt, die nur über das Rechenschaft ablegen wollen, „was ist“. 
Was ignoriert wird, ist die Tatsache, dass „was ist“ und „was sein soll“ im sozialen 
Kontext niemals objektive Kategorien sein können. Der Ort des Ringens um solche 
Definitionen ist das Feld des Politischen und nicht das Rechenzentrum.  
Und daher laborieren sowohl die alte als auch die neue Variante der „Sozialen Physik“ 
letztlich am selben Übel. Bestimmt man nämlich den „Durchschnittsmenschen“ rein 
numerisch, neigt alles andere dazu, zur Abweichung zu werden. Quetelets Beispiel – etwa 
seine Empfehlungen zur Abwendung revolutionärer Bestrebungen (Quetelet 1848, S. 295) 
– zeigt, dass die Pioniere der Sozialphysik nicht nur von einem methodischen Interesse an 
einer immer präziseren Abbildung der sozialen Wirklichkeit getrieben waren, sondern dass 
sie, wie auch die zeitgenössischen Protagonisten der Soziotechnik des „nudging“, ihre 
Erkenntnisse in konkrete Politik umgesetzt sehen wollten. Und während Quetelet eifrig 
bemüht war, die Gefahr dessen abzuwehren, was er die „gefährlichen Klassen“ nannte, 
mögen es heute „gefährliche Individuen“ sein, die unter Beobachtung gestellt werden 
sollen; und zwar auf Basis von datenbasierten Annahmen, die sich stets als nichts anderes 
als eine Illusion von Wissen entpuppen könnten.  
Tatsächlich scheint die größte Gefahr der neuen Möglichkeiten darin zu bestehen, 
subjektive Präferenzen als objektive Tatsachen zu maskieren. So konstatiert Alex 
Pentland, dass der von ihm als „reality mining“ (Pentland 2014, S. 7) bezeichnete Prozess 
und die Verarbeitung solcher Daten „crashes, revolutions, [and] bubbles“ (2014, S. 9) zu 
50  Marian Adolf & Nico Stehr 
erklären vermag. Selbst Pentland bezeichnet Big Data und sein soziotechnisches Potenzial 
als ein „promethean fire“, das in den falschen Händen katastrophale Folgen für eine 
liberale und demokratische Gesellschaft haben kann. Dieser Gedanke hält ihn jedoch nicht 
davon ab, da sein „New Deal on Big Data“, wie er behauptet, dieses geringfügige Problem 
zu heilen vermag. 
Drittens droht die Sozialphysik – in Verkennung der Eigenschaften wissenschaftlichen 
Wissens – einen entscheidenden Prozess der gesellschaftlichen Praktikabilität und 
Anwendung von Wissen umzukehren. Neues Wissen, auch wenn es aus der Natur-
wissenschaft entstammt, ist nur dann handlungsbefähigend, wenn man die Umstände 
kontrolliert, unter denen es zum Einsatz kommen kann (siehe unsere Ausführungen oben). 
Das Wissen über die Funktionsweise des Klimawandels, z.B. um die Rolle der 
Treibhausgase bei der Erwärmung der Erdatmosphäre, ist an sich nutzlos, wenn man den 
Ausstoß solcher Gase nicht verringern kann. Mit anderen Worten und um eine wichtige 
Erkenntnis aus den Science and Technology Studies zu wiederholen: Effekte, die unter 
Laborbedingungen beobachtet wurden, lassen sich außerhalb dieses spezifischen Settings 
nicht einfach wiederholen. Die Sozialphysik, so ist zu befürchten, wird daher versuchen, 
die Rahmenbedingungen dahingehend zu verändern, ihren „objektiven“, algorithmisch 
abgeleiteten Erkenntnissen zu entsprechen. Das birgt die Gefahr einer autoritären 
Verdopplung, die allen rigorosen Big Data-Bestrebungen im gesellschaftlichen Kontext 
innewohnt: dass sie nämlich politischen, nicht wissenschaftlichen Zwecken dienstbar 
werden, und damit unter dem Deckmantel der Objektivität die liberale Ordnung 
demokratischer Gesellschaften unterminieren. Und zwar nicht, weil die verwendeten 
Daten tatsächlich die Ursachen devianten oder delinquenten Verhaltens abbilden, sondern 
weil individuelles wie kollektives Verhalten durch Regeln und Vorschriften so beeinflusst 
werden könnte, der „Wahrheit“ der Daten zu entsprechen.8   
Anstatt kritische Einblicke in die Strukturgebundenheit sozialer, ökonomischer oder 
kultureller Beziehungen zu gewähren, ist die normative Unbedarftheit eines Programms, 
die soziale Welt „effizienter“ und „produktiver“ zu machen, vielmehr dazu angetan, ein 
soziales Umfeld zu erschaffen, in dem seine impliziten Vorgaben tatsächlich Geltung 
erlangen. Und sofern es opportun ist, können die Bedingungen, unter denen ein solches 
datengetriebenes „Wissen“ tatsächlich praktikabel ist, in der Folge ex post hergestellt 
werden.  
                                                        
8  Für Evgeny Morozov läuft die in den scheinbar neutralen und rein technologisch motivierten Big Data-
Anwendungen implizierte (Daten-) Politik auf ein „algorithmisches Regieren“ im Sinne von Michel Foucaults 
gouvernementalité hinaus. Viele der Stimmen, die etwa die Big-Data-basierte Politiken des „nudging“ bejubeln, 
lassen sich seiner Ansicht nach auf eine Ideologie des orthodoxen Liberalismus zurückführen. Aus dieser 
komfortablen Warte lassen sich strukturelle gesellschaftliche Probleme leicht „individualisieren“ und schlicht auf 
„schlechte Entscheidungen“ des Einzelnen zurückführen. Morozov nennt diese politische Mischung aus 
Technologie und liberalistischer Ideologie „Solutionismus“, der immer dann am Werk ist, wenn „deeply political, 
life-altering issues are recast as matters of improving efficiency“ (Morozov 2014, S. 134). 
Information, Wissen und die Wiederkehr der Sozialen Physik   51 
Mit anderen Worten: Die soziale Realität gerät unter Druck, den Beobachtungsparametern 
der Sozialen Physik zu entsprechen, deren Erkenntnisse sodann – rückwirkend – Geltung 
erlangen. Dies ist ein Paradebeispiel für eine sich selbst erfüllende Prophezeiung im Sinne 
von Robert Merton (1948): Eine abstrakte Vorstellung der Wirklichkeit wird zu einer 
faktischen Realität, indem man sie in ihren Konsequenzen vorwegnimmt und damit erst 
die Voraussetzungen schafft, unter denen sie entstehen kann. „The specious validity of the 
self-fulfilling prophecy perpetuates a reign of error.“ (Merton 1948, S. 195) 
 
8. Conclusio 
 
Letztlich dürften sowohl die Gefahren als auch die Verheißungen der zeitgenössischen, auf 
Big Data basierenden Sozialphysik übertrieben sein. Selbst wenn es möglich wäre, alle 
sozialen Interaktionen zu messen und durch wahlloses Korrelieren aller möglichen 
Variablen Beobachtungsinformationen abzuleiten, würde der Mangel an theoretischer 
Einsicht in immer neue Sackgassen führen. Die wesentlichen Probleme, die wir mit dieser 
datenbefeuerten Hybris verbunden sehen, sind anderer Art: Das praktische Vermögen des 
Wissens liegt nicht darin begründet, jede einzelne Eigenschaft eines Phänomens zu 
erfassen. Vielmehr ist die praktische Macht des Wissens eine Funktion der Kontrolle des 
sozialen Kontextes seiner Umsetzung. Die Frage ist also nicht so sehr, ob Big Data und 
darauf aufbauende, wie auch immer genannte Variationen einer „sozialen Physik“ daran 
scheitern, jene Art von praktischem Wissen zu generieren, auf das sie abzielen, sondern, 
ob das allgemeine gesellschaftliche und politische Klima dahingehend beeinflusst werden 
kann, die Bedingungen zu schaffen, unter denen „social physics“ zu einer wirkmächtigen 
Ideologie einer zukünftigen Gesellschaft werden kann. Dies öffnet potenziell die Tür für 
das, was man als „algorithmische Regulierung“ bezeichnen könnte. In dieser Form des 
Regierens ist die „traditional hierarchical relation between causes and effects […] 
inverted, so that, instead of governing the causes – a difficult and expensive undertaking – 
governments simply try to govern the effects. […] If government aims for the effects and 
not the causes, it will be obliged to extend and multiply control. Causes demand to be 
known, while effects can only be checked and controlled.” (Agamben 2013, S. 1, unsere 
Hervorhebung). Die befremdliche Tendenz aus der Datenwissenschaft eine 
Datenregierung machen zu wollen, bedarf unser aller kritischen Aufmerksamkeit. Und sie 
verweist darauf, dass demokratische Gesellschaften längst einer Wissenspolitik bedürfen 
(Stehr 2003), die auch eine Datenpolitik enthalten muss. Denn Daten umfassen längst 
nicht alles relevante Wissen. Und Information, egal wie umfangreich, kann den politischen 
Prozess niemals ersetzen. 
 
52  Marian Adolf & Nico Stehr 
Literatur 
 
Adolf, Marian & Stehr, Nico (2018): Information, Knowledge, and the Return of Social 
Physics. Administration & Society, 50(9), S. 1238–1258. 
Adolf, Marian (2014): Involuntaristische Mediatisierung. Big Data als Herausforderung einer 
informationalisierten Gesellschaft. In: Ortner, Heike Daniel; Pfurtscheller, & Rizzolli, 
Michaela (Hrsg.): Datenflut und Informationskanäle. Innsbruck: Innsbruck University 
Press, S.19-35. 
Adolf, Marian & Deicke, Dennis (2015): New modes of integration: Individuality and sociality 
in digital networks. First Monday, 20(1). doi:10.5210/fm.v20i1.5495  
Adolf, Marian & Stehr, Nico (2017). Knowledge. Key Ideas Series. Second, revised and 
extended edition. New York and London: Routledge. 
Agamben, Giorgio (2013): “From the State of Control to a Praxis of Destituent Power.” 
Public lecture, November 16, 2013. Retrieved from: http://roarmag.org/essays/agamben-
destituent-power-democracy/ (last accessed: 08/04/16) 
Beirne, Piers (1987): Adolphe Quetelet and the Origins of Positivist Criminology. American 
Journal of Sociology, 92(5), S. 1140-1169. 
Bell, Daniel (1979): The social framework of the information society. In Dertouzos, Michael  
L. & Moses, Joel (Hrsg.): The Computer Age: A Twenty-Year View (pp. 163–211). 
Cambridge, MA: MIT Press. 
Cortada, James W. (2018): Exploring How ICTs and Administration Are Entwined: The 
Promise of Information Ecosystems. Administration & Society, 50(9), 1213–1237. 
Durkheim, Emile ([1897] 1983): Der Selbstmord. Frankfurt am Main: Suhrkamp. 
Einav, Liran & Levon, Jonathan D. (2013): „The data revolution and economic analysis," 
NBER Working Paper w19035. 
Fleck, Christian & Stehr, Nico (2007): “Von Wien nach New York.” In: Fleck, Christian & 
Stehr, Nico (Hrsg.): Paul F. Lazarsfeld. Empirische Analyse des Handelns. Frankfurt am 
Main: Suhrkamp. S.7–58. 
Lazarsfeld, Paul Felix (1961): Notes on the History of Quantification in Sociology. Trends, 
Sources and Problems. Isis, 52(2), S. 277–333. 
Lynch, Jay (2018): Not even our own facts: Criminology in the era of big data. Criminology, 
56: S. 437–454. 
Maciejewski, Mariusz (2017): To do more, better, faster and more cheaply: using big data in 
public administration. International Review of Administrative Sciences, 83(1_suppl),  
S. 120-135. 
Meijer, Albert & Wessels Martijn (2019): Predictive Policing: Review of Benefits and 
Drawbacks. International Journal of Public Administration, 42:12, S. 1031–1039,  
DOI: 10.1080/01900692.2019.1575664 
Information, Wissen und die Wiederkehr der Sozialen Physik   53 
Merton, Robert K. (1957): Social Theory and Social Structure. New York: Free Press. 
Merton, Robert K. (1984): The self-fulfilling prophecy, Antioch Review, 8, S. 193–210. 
Miller, Amalia R. & Tucker Catherine (2017): “Frontiers of health policy: Digital data and 
personalized medicine.” In: Greenstein, Shane; Lerner, Josh & Stern, Scott (Hrsg.): 
Innovation Policy and the Economy. Band 17. Chicago: University of Chicago Press,  
S. 49–75.  
Morozov, Evgeny (2014): To Save Everything, Click Here: The Folly of Technological 
Solutionism. New York: Public Affairs. 
Nassehi, Armin (2014). „Wer hat die privaten Daten verraten?“ Frankfurter Allgemeine 
Zeitung, 23.04.2014. 
Noble, Safiya Umoja (2018): Algorithms of Oppression: How Search Engines Reinforce 
Racism. New York: NYU Press. 
Pentland, Alex (2014): Social Physics. How good ideas spread – the lessons from a new 
science. New York: Penguin. 
Popitz, Heinrich (1968): Über die Präventivwirkung des Nichtwissens. Tübingen: Mohr. 
Quetelet, Adolphe (1831 [1984]): Research on the Propensity for Crime at Different Ages. 
Translated and introduced by Sawyer F. Sylvester. Cincinnati: Anderson. 
Quetelet, Adolphe (1842 [1835]): A treatise on man and the development of his faculties. 
Edinburgh: W. and R. Chambers. 
Quetelet, Adolphe (1846) : Lettres a S.A.R., le Duc Regnant de Saxe-Coburg et Gotha, sur la 
theorie des probabilites. Brussels: Hayez. 
Quetelet, Adolphe (1848). Du systeme social et des lois qui le regissent. Paris: Guillaumin 
Rosen, Sherwin (1981): The economics of superstars, American Economic Review, 71(5), 
S.845-858. 
Seemann, Michael (2015): Digital Tailspin: Ten Rules for the Internet After Snowden. Network 
Notebooks 09, Institute of Network Cultures, Amsterdam. 
Stalder, Felix (2012): Between Democracy and Spectacle: The Front-End and the Back-End of 
the Social Web. In: Mandiberg, Michael (Hrsg.): The Social Media Reader. New York: 
New University Press, S. 242–256.  
Stehr, Nico (1994): Knowledge Societies. London: Sage. 
Stehr, Nico (2003): Wissenspolitik: Die Überwachung des Wissens. Frankfurt/Main: 
Suhrkamp. 
van Es, Karin; Schäfer, Mirko Tobias & Wieringa, Maranke (2021): Tool Criticism and the 
Computational Turn. A “Methodological Moment”. In: Media and Communication Studies. 
Medien & Kommunikationswissenschaft, Vol. 69/1, S. 46–64. 
Zuboff, Shoshana (2021): “The Coup We Are Not Talking About”. The New York Times, 
29.01.2021. 
54  Marian Adolf & Nico Stehr 
Zuboff, Shoshana (2019): The Age of Surveillance Capitalism: The Fight for a Human Future 
at the New Frontier of Power. London: Profile Books.  
Vom Machiavellismus zur Hospitalisierung – 
Expertokratie oder Mündigkeit im Zeitalter der 
Digitalisierung 
Hans-Martin Schönherr-Mann 
 
Zusammenfassung  
Die von der Medizin gelenkte Politik hat 2020 einen weltweiten Ausnahmezustand ausgelöst, der 
nicht zuletzt durch digitale Überwachungstechniken besonders medizinischer Art zu einer 
Hospitalisierung der ganzen Gesellschaft führt. Die Mündigkeit der Bürgerinnen ist dabei 
weitgehend verloren gegangen. Dass sich viele dagegen nicht zur Wehr setzen können, liegt nicht 
zuletzt daran, dass sich die Massenmedien in die machiavellistische Politik der Furchterzeugung 
einklinken und es an seriöser kritischer Information von dieser Seite mangelt. Dadurch konnten 
viele dieses Defizit an Information auch nicht durch das WWW ausgleichen, in dem es 
schwerfällt, zwischen Fake News und überzeugender Kritik zu unterscheiden, wenn ein seriöser 
externer Maßstab fehlt. Damit intensiviert sich die staatliche Biopolitik, so dass die soziale wie 
politische Macht der Medizin weiter wächst, die Mündigkeit und Menschenrechte so wenig wie 
die Demokratie achtet. Ob sich die Bürgerinnen dagegen zur Wehr setzen können und werden, 
lässt sich kaum abschätzen. Man hat mal sein Leben für die Freiheit eingesetzt, jetzt opfert man 
die Freiheit dem nackten Leben. 
 
1. Der digitale Fortschritt der Biopolitik 
 
Die in Deutschland verbreitete Corona-App wäre für die mündige Bürgerin nicht mal das 
Problem gewesen. Diese App gaukelt zumindest vor, dass das Individuum selber darüber 
befindet, ob es sie anwendet oder nicht. Dass es dabei dem Druck der Umwelt ausgesetzt 
sein kann, ist auch nicht unbedingt dramatisch. Man sollte wirklich nicht alle 
Lebensprobleme verallgemeinern und dann am Ende staatlich regeln. Das Individuum 
muss sich selbst überlegen, wie es sich wehren kann, wie es solchen Druck der Umwelt 
und des Staates hintergeht und untergräbt. Man könnte ja das Mobiltelefon zuhause lassen. 
Natürlich, sich wehren bereitet Schwierigkeiten, verlangt Kreativität, könnte angesichts 
einer tristen, vom ‚großen Bruder‘ kontrollierten Realität aber Spaß machen und die Laune 
aufhellen. 
Im freien Fall befindet sich momentan trotzdem die Mündigkeit der Bürgerinnen 
angesichts des digitalen wie analogen Überwachungsstaates, der sich seit dem Frühjahr 
2020 weltweit ausgebreitet hat. Zum ersten Mal in der Geschichte kann man obendrein vor 
dem ‚großen Bruder‘ in kein anderes Land fliehen. Denn das Medizinwesen herrscht nun 
56  Hans-Martin Schönherr-Mann 
mal flächendeckend in allen Staaten auf der ganzen Welt und hat praktisch überall zur 
Ausrufung des Ausnahmezustands geführt. Es gibt kein Entkommen. 
Diese weltweite Verbreitung des Medizinwesens verdankt sich seiner zweifellosen 
Effizienz, indes leider nicht nur bei der Heilung von Krankheiten, sondern weil die 
Medizin nach Michel Foucault, ihrem schärfsten Analytiker, vor allem im Dienst einer 
gouvernementalen, d.h. bürokratisch organisierten und polizeilich durchgesetzten 
Biopolitik steht, aus der heraus und mit der zusammen sich sowohl der Nationalstaat wie 
die moderne Medizin seit dem 17. Jahrhundert entwickelten. Foucault schreibt bereits 
1963 in seinem Buch Die Geburt der Klinik über die Medizin: 
„In der Lebensführung der Menschen beansprucht sie eine normative Rolle, 
die sie nicht bloß zur Erteilung von Ratschlägen für ein vernünftiges Leben 
befugt, sondern sie zur Lehrmeisterin für die physischen und moralischen 
Beziehungen zwischen dem Individuum und seiner Gesellschaft macht. Sie 
situiert sich in der für den modernen Menschen maßgeblichen Randzone, in 
welcher ein bestimmtes organisches, leises, leidenschaftsloses und 
muskulöses Glück ganz eng mit der Ordnung einer Nation, mit der Stärke 
ihrer Armeen, mit der Fruchtbarkeit eines Volkes und mit dem langsamen 
Gang seiner Arbeit verbunden ist.“ (Foucault 2005, S. 52)  
Bereits 1602 intoniert diese medizinisch basierte Biopolitik der häretische Dominikaner-
mönch Tommaso Campanella mit seiner Utopie La città del Sole und zwar mit autoritären 
sozialistischen und universell katholischen Zügen. Dem Sonnenstaat, so berichtet 
Campanellas Reisender von der fernen Insel, 
„obliegt vor allem die Sorge für die Fortpflanzung, damit Männer und 
Frauen so miteinander verbunden werden, dass sie den besten Nachwuchs 
hervorbringen. Sie <die Insulaner> spotten über uns, weil wir der 
Fortpflanzung der Hunde und Pferde unsere eifrige Sorge widmen, die der 
Menschen aber vernachlässigen.“ (Campanella 1960, S. 119)  
Freilich hat er dabei ein frühes Vorbild, nämlich Platons Politeia, in der schon die 
Züchtung von Menschen propagiert wird. 
 
2. Ausnahmezustand als Hospitalisierung 
 
Diese also von weither kommende, biopolitische Tendenz der frühneuzeitlichen wie der 
modernen Staaten realisiert sich im gegenwärtigen Ausnahmezustand, bei dem die 
Organisationsprinzipien des Hospitals auf die Gesellschaften in ihrer Ganzheit übertragen 
werden. Damit bewirkt der Ausnahmezustand folglich die Hospitalisierung der Gesell-
schaft. Im Ausnahmezustand werden gemeinhin die Grundrechte der Bürgerinnen 
Vom Machiavellismus zur Hospitalisierung 57 
aufgehoben, wobei es gleichgültig ist, wie man das dann bezeichnet, ob als Katastrophen-
fall oder als epidemischen Notstand. 
Den Ausnahmezustand kann man daher auch nicht rechtlich regeln, und zwar nicht nur, 
weil das Recht ja aufgehoben wird, sondern weil seine Ausrufung immer auf einer 
Entscheidung beruht, die in letzter Konsequenz immer ein Akt der Willkür ist. Bei welcher 
Zahl von Infizierten er ausgerufen wird, muss beschlossen werden. Aber es gibt nun mal 
keinen methodisch angebbaren Übergang von der Information zur Entscheidung. Carl 
Schmitt, der wichtigste Theoretiker des Ausnahmezustands schreibt 1922: 
„Die Entscheidung über die Ausnahme ist nämlich im eminenten Sinne 
Entscheidung. Denn eine generelle Norm, wie sie der normal geltende 
Rechtsatz darstellt, kann eine absolute Ausnahme niemals erfassen und daher 
auch die Entscheidung, dass ein echter Ausnahmefall gegeben ist, nicht 
restlos begründen.“ (Schmitt 2004, S. 13)  
Mit dem Ausnahmezustand erzeugt man einen anomischen Zustand, weil nun mal der 
Nomos aufgehoben ist. Das Gesetz ist nicht mehr in Kraft, so dass man dann auch völlig 
gesetzesfremde Maßnahmen ergreifen kann, wie das heute genauso der Fall ist wie zu 
Zeiten des Nationalsozialismus. So zieht Schmitt folgenden Vergleich: „Der 
Ausnahmezustand hat für die Jurisprudenz eine analoge Bedeutung wie das Wunder für 
die Theologie.“ (Schmitt 2004, 43) Das Wunder durchbricht den Rahmen der 
Naturgesetze, der Ausnahmezustand den Rahmen der gesetzlichen Ordnung, herrscht im 
Ausnahmezustand eine Kraft ohne Gesetz. Parlamentsentscheidungen, die die Ausrufung 
des Ausnahmezustands absegnen bzw. diesem einen demokratischen Heiligenschein 
verleihen, ändern an dieser Sachlage nichts: Die Grundrechte sind aufgehoben und dann 
können Mediziner und Politiker Maßnahmen beschließen ohne Rücksicht auf diese 
Rechte, wie man das 2020 und 2021 tagtäglich erleben durfte. 
Die schwerwiegendsten Aufhebungen der Menschenrechte im Zuge des Ausnahme-
zustands heute sind dabei Demonstrationsverbote und damit die Aufhebung der Meinungs-
freiheit, Freiheitsentzug, den man Quarantäne nennt, Ausgangssperren von einer Dauer, 
die sich keine frisch gebackene Militärdiktatur leisten könnte, grundrechtsverletzende 
Reiseverbote, die totale Aufhebung der Unverletzlichkeit der Wohnung, die zwischen-
menschliche Kommunikation zerstörenden Kontaktverbote, diskriminierende Verhaltens-
vorschriften, beleidigender und entstellender Gesichtsverhüllungszwang wie z.B. im Iran 
oder in Saudi-Arabien, weitreichende Unterbindung von Berufstätigkeit, von Bildung, von 
Freizeitgestaltung und sportlicher Betätigung, um nur einige wichtige Rechtsfelder zu 
nennen. Und den verbleibenden Rest an Rechten verschmutzen Hygienezwangs-
maßnahmen. 
Was jenseits davon einer gelenkten Demokratie als Variante des Überwachungsstaates 
entspricht, ist die flächendeckende Diskriminierung von Kritikern dieses Maßnahmen-
staates, den Ernst Fraenkel im Hinblick auf den Nationalsozialismus vom Normenstaat 
58  Hans-Martin Schönherr-Mann 
unterscheidet, in dem weiterhin das geltende Recht angewendet wird – man denke an das 
BGB –, während im Maßnahmenstaat Entscheidungen „nach Lage der Sache“ (Fraenkel 
2001, S. 113) getroffen werden und damit geltendes Recht aufgehoben wird. Natürlich 
kann man eine Güterabwägung unternehmen zwischen den Folgen des Krankheits-
geschehens und denen des Ausnahmezustands. Diese nehme ich hier nicht vor, sondern 
betrachte primär, welche Folgen die Hospitalisierung für die Gesellschaft hat. Über 
dramatische Situationen in Kliniken wird ja ständig berichtet, wiewohl langsam, sehr 
langsam (Anfang Mai 2021) die Berichte über die Folgen der Hospitalisierung in den 
Medien zunehmen. 
Zu diesen Folgen der Hospitalisierung gehört die Tatsache, dass man Kritiker des 
Ausnahmezustands in Deutschland zumeist dem rechtsradikalen Lager zuordnet. In China 
oder Russland werden Regimekritiker mit derselben Methodik als Terroristen verfolgt. 
Der Schritt dorthin ist ein kleiner: Wer sich fahrlässig oder vorsätzlich nicht vor-
schriftsmäßig verhält, gefährdet aus medizinischer Sicht andere, und das könnte man 
schon als eine Form des Terrorismus qualifizieren. Jede Kritik und jede Form des 
Widerstands soll im Keim erstickt werden. Man schreibt Demonstrationen gegen 
Maskenzwang und gegen Mindestabstand vor, dass die Demonstranten Masken tragen 
müssen, was das bei Demonstrationen übliche Skandieren von Parolen behindert. Und sie 
müssen den Zwangsmindestabstand einhalten, was auf Demonstrationen praktisch 
unmöglich ist. Mit diesem Argument wurden Demonstrationen reihenweise verboten. Die 
freie Meinungsäußerung als Grund- und Menschenrecht ist damit an einer für eine 
Demokratie entscheidenden Stelle aufgehoben. 
 
3. Der digitalisierte medizinische Überwachungsstaat 
 
Aber das primäre Problem des Überwachungsstaates sind die digitalen Möglichkeiten, die 
dieser heute hat, obgleich er sie noch nicht völlig nutzt, auch weil die Techniken teilweise 
noch nicht hinlänglich ausgereift sind. Bewegungsprofile indes liefern die Netzanbieter 
der Kommunikationsbranche längst an die daran interessierten Behörden, wiewohl nach 
eigenem Bekunden anonymisiert. Aber jederzeit könnte polizeilich für Leib und Leben 
Gefahr im Verzug geltend gemacht werden – also eine Variante polizeilich verfügter 
Ausnahme – und selbstredend wird sich kein Telefonanbieter dem staatsanwaltlichen 
Zugriff letztlich entziehen können. Ähnlich lässt sich der fleißig empfohlene bargeldlose 
Zahlungsverkehr zur Überwachung nutzen, wo und wie immer man das macht. Und 
plötzlich wird man eingesperrt, weil an einer Kasse ein Infektionsrisiko medizinisch 
rekonstruiert wird und offenbar nicht einmal die Virologen ihren eigenen Geräten zur 
Gesichtsabdeckung trauen. 
Vom Machiavellismus zur Hospitalisierung 59 
Noch ist die Gesichtserkennung bei der Videoüberwachung nicht so weit ausgereift, und 
womöglich wird das auch durch die Gesichtsverhüllung behindert, was indes dazu führen 
wird, dass man sich auf die Identifikation der Augen konzentriert. Es nützt also nichts, 
sein Mobiltelefon zuhause zu lassen. Man könnte sich aber spiegelnde Sonnenbrillen 
aufsetzen, die dann sicherlich verboten werden, wahrscheinlich das Tragen von 
Sonnenbrillen an Orten mit Maskenzwang überhaupt. Wer in Deutschland einen Wohnsitz 
hat oder deutschen Behörden amtlich bekannt ist, kann dann fast wie mit einer Fußfessel 
überwacht werden. Wer sich außerhalb videoüberwachter Gebiete bewegen will, muss sein 
Mobiltelefon bei sich tragen, das auch vom Hubschrauber aus identifiziert werden kann. 
Fehlt dieses, dann wird die nächste Polizeistreife auf die entsprechende Person 
aufmerksam gemacht. Bewegungs-, Kontakt- und Aufenthaltsverbote lassen sich auf diese 
Weise zukünftig sehr gut, aber auch heute bereits in einem hohen Maße kontrollieren und 
mit staatlicher Gewalt wie hohen, existenzvernichtenden Geldstrafen durchsetzen. Also 
die digitalen Überwachungsmaßnahmen sind vielleicht noch nicht ausgereift. Aber der 
Weg zur wirklich totalen Überwachung dürfte nicht mehr allzu weit sein, was die totale 
Hospitalisierung der Gesellschaft dann flächendeckend durchsetzt. Und das Ganze mit 
medizinisch bestem Gewissen, man wolle ja nur Leben schützen. 
Man denke auch an die bereits anwendbaren Methoden zur Gesundheitsüberwachung, die 
sich die um ihre Gesundheit sich ängstigende Bürgerin bisher freiwillig angedeihen lässt. 
Der postmarxistische und technologieeuphorische Kritiker des Kapitalismus Paul Mason 
macht daraus gar eine neue Humanität: 
„Die gesammelten Daten unseres Lebens – zu denen in naher Zukunft unsere 
Fahrgeschwindigkeit, unsere Ernährungsgewohnheiten, unser Body-Mass-
Index und unsere Herzfrequenz zählen werden – könnten selbst eine sehr 
wirksame ‚soziale Technologie‘ sein.“ (Mason 2015, S. 343)  
Diese Technologie wird sich aus einem Zusammenspiel von Digitalisierung, medizinischer 
Betreuung und polizeilicher Überwachung entwickeln, also eine Kooperation verschie-
dener primär technologischer Expertengruppen. So präsentiert sich gerade die Medizin als 
ein Bereich, in dem die Medizintechnik durch die Digitalisierung eine immer größere 
Bedeutung gewinnt, welche die sich perfektionierende Gesundheitskontrolle ermöglicht. 
Wie sich zeigt, kann man sich dagegen auch auf keinen Rechtstaat verlassen: Nur in 
seltenen Fällen geben Gerichte Klägern gegen die Maßnahmen des Ausnahmezustands 
recht. Der Totalitarismus droht heute somit weniger von Seiten politischer oder religiöser 
Bewegungen als vielmehr durch eine medizinisch technologische Expertokratie, die sich 
als wissenschaftliche Macht auf eine Politik des epidemischen Ausnahmezustands als 
weltlichem Arm stützen kann, was sich mit der mittelalterlichen Zwei-Schwerter-Lehre 
vergleichen lässt, bei der das weltliche Schwert das geistliche realisierte gemäß der 
Struktur des Inquisitionsprozesses. Einen derartigen Vergleich zieht der politische 
Philosoph Michael Walzer 1983 in seinem Hauptwerk Sphären der Gerechtigkeit: 
60  Hans-Martin Schönherr-Mann 
„Zu Zeiten des Mittelalters sah es in Europa wie folgt aus: die Betreuung der 
Seelen, die Seelsorge, war eine öffentliche Angelegenheit, die der Körper 
hingegen Privatsache. Heute ist die Situation in den meisten europäischen 
Ländern umgekehrt; […]. In dem Maße, in dem wir das Vertrauen in die 
Heilung unserer Seelen verloren, ist unser Glaube, wenn es nicht bereits eine 
Obsession ist, an die Heilbarkeit unserer Körper gewachsen.“ (Walzer 1992, 
S. 138)  
So formt der medizinisch technologische Komplex die Körper wie die Seelen, um sie so 
lenken zu können, dass die weltlich staatliche Macht als gerichtlich polizeilicher Komplex 
nur noch zum Ausführungsorgan der medizinisch technologischen Expertokratie 
depraviert – die Inquisition konnte von solcher Macht nur träumen. Eine gewisse 
Eigendynamik wird indes dem Justiz- und Polizeikomplex als sozialem Subsystem so 
lange erhalten bleiben, solange der staatliche Sicherheitsdiskurs und der medizinische 
Sicherheitsdiskurs noch unterschiedliche, miteinander inkommensurable Sprachen 
sprechen. Aber auch hier kann man Angleichungstendenzen beobachten. Die Polizei 
kontrolliert jede Bürgerin, die ob ihres Körpers für andere Körper als potentiell gefährlich 
gilt. Überhaupt hat die Hospitalisierung dazu geführt, dass jeder Mensch ein Gefährder ist. 
Wenn Widerspruch dagegen diskriminiert wird, dann ist Politik definitiv nicht mehr der 
Ort des Widerstreits verschiedener Diskurse, wie sie von Jean-François Lyotard bestimmt 
wird, womit sich vor allem Demokratie umschreiben lässt. Politik ist vielmehr zum Ort 
geworden, wo sich die Hegemonie des medizinisch technologischen Diskurses durchsetzt 
und zwar unter Rückgriff auf die staatliche, ob des Ausnahmezustands gesetzlose Gewalt, 
mögen die Parlamente auch noch so viele Erlasse als Gesetze absegnen. 
Damit könnte Lyotards Hoffnung an ihr Ende geraten, der 1983 noch primär den 
ökonomischen, nicht den medizinischen Diskurs als Bedrohung der Politik begreift: „Das 
einzige unüberwindliche Hindernis, auf das die Hegemonie des ökonomischen Diskurses 
stößt, liegt in der Heterogenität der Satz-Regelsysteme und Diskursarten, […].“ (Lyotard 
1987, S. 299) Gelingt es dem medizinischen Diskurs andere Diskurse zweitrangig zu 
machen, was nach Lyotard rein sprachlich betrachtet unmöglich ist, was aber durchaus 
droht, weil die Masse der Zeitgenossinnen bereitwillig dem medizinischen Diskurs folgt? 
In der Politik wie unter den Bürgerinnen wird heute ein so digitalisiertes wie anglisiertes 
Medizinisch gesprochen, wird hier ein Sprachreinigungsprozess fortgeschrieben, wie ihn 
Jürgen Trabant als Vereinheitlichung und Fixierung der lebendigen Sprache in den 
modernen Wissenschaften bemerkt: „Das Ende der Sprache wird im Dienste der 
Wissenschaft nicht nur herbeigesehnt, sondern ernsthaft betrieben.“ (Trabant 2020, S. 210) 
Gerade in der Medizin findet eine intensive Sprachregulierung statt, die in die Gesellschaft 
hineinwirkt: Man muss die richtigen medizinischen Begriffe verwenden. 
Jedenfalls gibt es jetzt eine Methode, die Konsens herstellt, genauer erzwingt, nämlich 
diese Hegemonie, indem dieser medizinische Diskurs alle anderen zum Schweigen bringt 
und dadurch jeden Widerstreit unterdrückt. Sicherlich haben sich Apel und Habermas 
Vom Machiavellismus zur Hospitalisierung 61 
ihren Konsens im Stil des zwanglosen Zwangs „aus der Kraft des besseren Arguments“ 
(Habermas 1976, 73) anders vorgestellt. Aber genau das bildet sich der medizinisch 
technologische Diskurs ob seiner Wissenschaftlichkeit sogar ein, während die törichten 
bzw. unvernünftigen Zeitgenossen, welche die medizinisch gouvernementalen Maß-
nahmen nicht genau befolgen, die Gewaltanwendung gegen sich selber zuzuschreiben 
haben. 
Das Schema dazu hat der konservative politische Philosoph Leo Strauss geliefert, der dem 
Bürger die Kompetenz abspricht, über seine Sicherheit selber zu urteilen: 
„Wenn aber jeder noch so törichte Mensch von Natur aus darüber richten 
kann, was für seine Selbsterhaltung notwendig ist, dann kann mit Recht alles 
als für die Selbsterhaltung unerlässlich angesehen werden: alles ist dann von 
Natur aus gerecht. Wir können dann von einem Naturrecht der Torheit 
sprechen.“ (Strauss 1977, S. 192)  
Dann müssen sich die Bürgerinnen von den weisen Eliten der Mediziner lenken lassen, 
d.h. natürlich auch richtig sprechen lernen – geht Strauss in der Tat davon aus, dass es 
höhere, fähigere, gebildetere Menschen gibt, die keine Führung brauchen und unfähigere 
Menschen, die sie dringend nötig haben. 
 
4. Das WWW als Informationsquelle und die klassischen Massenmedien 
 
Auf der einen Seite herrscht ein unglaublich weit ins individuelle Leben reichender 
Ausnahmezustand. Auf der anderen Seite bemüht sich die Politik so zu tun, als herrsche 
Normalität, als wolle man vorführen, dass alles beim Alten geblieben sei und der 
politische Betrieb routiniert fortgesetzt wird, dass vor allem also die Demokratie erhalten 
sei, weil ihre Gremien und Institutionen weiterarbeiten, als gebe es gar keinen 
Maßnahmenstaat. Aber damit unterstreicht man nur Fraenkels Unterscheidung zum 
Normenstaat, der den Maßnahmenstaat ja nicht hindert. 
Von den Befürwortern des Ausnahmezustands wird dabei auch auf die Presse verwiesen, 
die weiterhin frei und unabhängig geblieben ist. Und natürlich findet keine offizielle 
Zensur statt, herrscht anscheinend weiterhin Meinungsfreiheit. Erstaunlich ist freilich, dass 
nicht nur fast alle demokratischen Parteien im Berliner Bundestag, sondern auch die 
meisten nichtstaatlichen Medienanstalten die Politik des Maßnahmenstaates unterstützen. 
Bei den mehr oder weniger staatlichen, also in der Bundesrepublik öffentlich-rechtlichen 
Rundfunkanstalten kann man sowieso eine aktive Begleitung der Politik des 
Ausnahmezustands beobachten, die nicht verwundern sollte. Um nur auf ein bayerisches 
Beispiel zu verweisen: nicht nur, dass seit der Debatte über die Flüchtlingspolitik seit 2015 
der Nachrichtenkanal des Bayerischen Rundfunks ständig verkünden muss, dass er ‚aus 
Bayern und für Bayern‘ sendet. Das Musikprogramm für junge Leute, nämlich Bayern3, 
62  Hans-Martin Schönherr-Mann 
bezeichnet sich seit 2020 als ‚das wir zusammen Radio‘, das ihren jüngeren Hörern fleißig 
erklärt, dass sie genauso bedroht von der Krankheit seien wie Ältere und wie man mit dem 
Ausnahmezustand zurechtkommt und dass man das fleißig zusammen bewältigen müsse. 
Und in den Nachrichtensendungen des Bayerischen Rundfunks wird ständig das Adjektiv 
„hochansteckend“ wiederholt, wenn der populäre Name der Krankheit fällt. 
Man kann also von einer zumindest freiwilligen Gleichschaltung der Medienanstalten 
sprechen – wobei die ‚Freiwilligkeit‘ an der Sache selbst nichts ändert; denn es gibt 
praktisch keine neutralen, geschweige denn kritischen Medien mehr, so dass es in der Tat 
schwerfällt, sich unabhängig vom hegemonialen Diskurs zu informieren, der schließlich 
auch die internationale Politik kontaminiert, so dass selbst die Berichterstattung über 
Angelegenheiten jenseits des herrschenden Ausnahmezustand in ein fragwürdiges Licht 
getaucht wird. Fast erübrigt es sich, darauf hinzuweisen, dass diese Sachlage den 
Produzenten von Fake News massiv in die Hände spielt, hat sich bei einem Teil der 
Bevölkerung doch das Gefühl ausgebreitet, man würde von den herrschenden Medien nur 
belogen. 
Nicht allein deshalb muss diese Sachlage verwundern, weil es einerseits demokratische 
Aufgabe der Presse und der Medien ist, die Politik kritisch zu begleiten – werden die 
Medien auch immer wieder als vierte Gewalt neben Legislative, Exekutive und Judikative 
bezeichnet. Andererseits gibt es zwar immer regierungsnahe Medien, aber eben auch 
regierungsferne, die sich ansonsten mit kritischen Kommentaren nicht unbedingt vornehm 
zurückhalten. Just die Medienanstalten versagen im Ausnahmezustand offenbar bzw. 
kommen dieser Rolle als kritische Institution einfach nicht nach. 
Die Welt aus dem Axel Springer Verlag – nicht gerade als Flaggschiff kritischer 
Berichterstattung berühmt – bietet ein kostenpflichtiges Online Angebot, das die einen 
oder anderen kritischen Stellungnahmen zum gegenwärtigen Ausnahmezustand publiziert. 
Nicht nur weil die meisten Zeitgenossinnen im Internet nur kostenlose Angebote 
goutieren, erscheint dieses Angebot als Nischenprodukt, wenn nicht gar als Feigenblatt, 
das aber andere große Medienanstalten offenbar gar nicht für nötig halten. Die Welt – als 
konservativ bekannt – könnte damit vielleicht auch im rechten Lager um Kundschaft 
buhlen, in dem man jeglicher Regierungspolitik feindlich gesonnen ist, freilich bestimmt 
nicht dem Ausnahmezustand, mit dem die Rechte immer schon gerne Politik machte. So 
darf man fragen, ob die Hospitalisierung am Ende einer auch biopolitisch orientierten 
Rechten nicht nutzen könnte. 
Warum aber bleibt die Kritik aus? Weil es um ein medizinisches Problem geht, das nur die 
Experten verstehen, wie man offiziös gerne beteuert? Nein, dazu sollte es genügend 
Wissenschaftsjournalisten geben, die sich in der Medizin auskennen und zur Not auch 
schnell nachlernen können, um nicht nur die Maßnahmen zu hinterfragen, die die Politik 
umsetzt, sondern auch die wissenschaftlichen Theorien, Hypothesen und Informationen, 
auf denen diese Maßnahmen beruhen. Sie wären bestimmt auch dazu in der Lage, selbst 
etwas komplizierte Sachverhalte dem Publikum zu erklären und sehr viele könnten das 
Vom Machiavellismus zur Hospitalisierung 63 
auch verstehen, nicht zuletzt weil das Thema Medizin im Allgemeinen und Grippe im 
Besonderen sehr populär ist, wird dem Thema Gesundheit in praktisch allen Medien – 
nicht bloß in den speziellen wie der Apothekenrundschau – breiter Raum eingeräumt. 
Dasselbe gilt auch für juristisch gebildete Journalisten, die jederzeit die erlassenen 
Maßnahmen daraufhin kritisieren können, ob sie dem Grundgesetz widersprechen, ob sie 
die Menschenrechte beachten, ob sie in einer Abwägung der betroffenen Rechtsgüter 
angemessen erscheinen, also letztlich, welche Risiken eher zu vermeiden sind und welche 
man durchaus eingehen sollte. Man liefert den Bürgerinnen von medialer Seite kaum 
kritische Informationen, die eine kritische Haltung gegenüber dem Ausnahmezustand 
befördern. 
Fast möchte man darauf reagieren, wie das im Zeitalter der Digitalisierung ein Problem 
sein kann. Wenn die klassischen Massenmedien versagen, können sich die Bürgerinnen 
doch im WWW selber informieren. Dem kann man freilich entgegenhalten, dass hier für 
viele der Aufwand doch gemeinhin höher ist als in den gewohnten Massenmedien. Aber in 
einem Ausnahmezustand, der praktisch das Leben aller Bürgerinnen massiv beeinträchtigt, 
wäre es doch nicht zu viel verlangt, dass sich dann die Bürgerinnen darum eben intensiver 
kümmern müssten. 
Doch daraus ergibt sich eine sehr kuriose Sachlage. Zwar kursieren im WWW diverse, 
durchaus auch seriöse Informationen. Doch angesichts der Flut von Fake News sind diese 
häufig nur schwer als solche zu erkennen. Man kann sich ja gerade nicht auf die 
Internetseite des Robert-Koch-Instituts oder des italienischen Gesundheitsministeriums in 
Rom stützen, wenn man Medizin und Politik der Hospitalisierung unter eine kritische 
Lupe nehmen will. 
Um die Seriosität von WWW-Quellen beurteilen zu können, fehlt  umso mehr die kritische 
Information aus bekannten seriösen Quellen in den gängigen Massenmedien, auf die man 
sich bisher verlassen konnte. Und umgekehrt, wenn diese Quellen fehlen, lässt sich derart 
auch jede seriöse Information im WWW desavouieren. Auf diese Weise – ob vorsätzlich 
oder fahrlässig – werden die Bürgerinnen in einem Zustand der Desinformation gehalten, 
die sie umso abhängiger macht von der Politik des Ausnahmezustands, von der sie sich 
blind und unmündig lenken lassen müssen. Aber da steht man doch in einer guten 
Tradition. Denn wie bemerkt bereits Platon in Bezug auf sein Züchtungsprojekt: „Es 
scheint, dass unsere Herrscher allerlei Täuschungen und Betrug werden anwenden müssen 
zum Nutzen der Beherrschten.“ (Platon 1958, 459 c, S. 181) So stellen sich das Mediziner 
und Politiker auch vor, dürfen dies aber natürlich nie zugeben. 
 
 
 
64  Hans-Martin Schönherr-Mann 
5. Entmündigung durch Unfähigkeit zur Kritik 
 
Das hat natürlich weitreichende Folgen. Denn damit befinden sich die Zeitgenossinnen 
gegenüber der aktuellen Politik insgesamt in einer Lage, in der sie auch diese nicht mehr 
kritisch beurteilen können, da diese de facto unter Bedingungen des Ausnahmezustands 
stattfindet, so dass der Umgang mit anderen Problemen als dem bekannten Krank-
heitsgeschehen immer unter diesem Vorbehalt desselben wie des Ausnahmezustands steht. 
Das zeigt sich beispielsweise in der sozial besonders wichtigen Finanzpolitik, in der 
plötzlich Schuldenberge aufgehäuft werden dürfen – sogar der Europäischen Union wird 
jetzt erlaubt, Kredite aufzunehmen –, die die Finanz- und Eurokrise weit in den Schatten 
stellen. Wie will man als Bürgerin gegenüber einer solchen Alltagspolitik noch eine 
kritische Haltung einnehmen, wenn diese just von einer Sachlage abhängig ist, die kritisch 
zu reflektieren die notwendigen Informationen oder das dazu notwendige Hinter-
grundwissen fehlt? 
Denn nicht nur die Wirtschafts- und Finanzpolitik, alle politischen Aktivitäten jenseits der 
medizinisch gelenkten Politik des Ausnahmezustands stehen unter dem Vorbehalt, wie 
sich einerseits der Ausnahmezustand weiter entwickeln wird und andererseits, wie weit die 
durch den Ausnahmezustand verursachten ökonomischen und existentiellen Schäden 
behoben oder kompensiert werden können. Fast im Predigtton und unter aufgesetztem 
Optimismus verheißen Wirtschaftspolitiker den kommenden Aufschwung nach dem Ende 
des Ausnahmezustands, der sogar nach offiziellem Bekunden die größte Wirtschaftskrise 
seit 1929 verursacht hat. Schließlich ist hier die weitere Entwicklung trotz Impfgeschehen 
keineswegs vorhersehbar. 
Wie viele ökonomische Existenzen vernichtet wurden und noch werden, darüber wird eilig 
hinweggegangen mit der Verheißung von staatlichen Entschädigungen. Wenn sich die 
Staaten aber finanziell übernommen haben sollten – was sich kaum anders wird 
bezeichnen lassen –, dann werden solche Versprechungen schwerlich eingehalten, 
abgesehen von einer kommenden Sparpolitik, die just jene Bereiche treffen wird, die unter 
dem Ausnahmezustand bereits am meisten leiden, nämlich die der Kultur, der Bildung, der 
Gastronomie etc. Bürgerinnen werden weitgehend blind einer solchen Politik zustimmen 
müssen, noch dazu, wenn sie selbst darunter massiv leiden, also nur auf Hilfen und 
Wirtschaftsaufschwünge hoffen können. 
So profitiert am Ausnahmezustand auch die offizielle Politik, die sich großer Zustimmung 
erfreuen durfte. Dass die Politik des Ausnahmezustands 2020 in der BRD eine 
Zustimmungsrate von bis zu 80% genoss, mag deren Protagonisten erfreut und beruhigt 
haben. Leider spricht diese Rate für keine demokratischen Umstände. Denn derart hohe 
Zustimmungsraten gibt es nur in gelenkten Demokratien oder in Diktaturen. In 
Demokratien mit einer kritischen öffentlichen Meinung herrschen immer Dissense, 
Differenzen und Meinungsstreitereien. Wenn diese ausbleiben, kann es schwerlich mit 
Vom Machiavellismus zur Hospitalisierung 65 
rechten Dingen zugehen. Vielmehr fehlt eben die kritische Information und Diskussion, 
die Demokratie ausmacht und ohne die Demokratie aufgehoben ist. 
Und offenbar konnte das WWW diesen Mangel nicht ausgleichen, was eigentlich für die 
klassischen Medien spricht. Wenn seriöse Information fehlt, dann kann diese durch die 
Eigeninitiative der Betroffenen nicht ersetzt werden, weil sich zu viele unseriöse 
Informationen dazwischen tummeln und häufig nicht mit Sicherheit entschieden werden 
kann, wie seriös eine Quelle ist. Dann kann man sich auf eine solche Information auch 
nicht stützen. 
Dabei handelt es sich ja bei der Medizin wie dem WWW mitnichten um private 
Angelegenheiten, was man ja auch nicht mal von der Religion sagen kann, sondern um 
öffentliche. Was aber die Religion von der Medizin wie den Naturwissenschaften 
unterscheidet, ist, dass die Religion von Autoritäten bestimmt wird, denen die Gläubigen 
folgen, was sich von fundamentalistischen politischen Ideologien gar nicht so sehr 
unterscheidet. Religiöser wie auch ideologischer Fundamentalismus verbreitet sich im 
WWW daher leicht unter den Anhängern und vermag auch erfolgreich zu missionieren. 
Was wahr und was falsch ist, was seriös ist, das ist klar geregelt. Eine kritische 
Hinterfragung der Glaubensgehalte gehört natürlich nicht zu einem Fundamentalismus. 
Das ist in den Wissenschaften anders, besonders in der Medizin, mit der sich alle 
irgendwie beschäftigen müssen, weil jeder mal krank ist oder kranke Freunde hat. Sehr 
viele verfügen durchaus über ein differenziertes Verständnis von Krankheit und sammeln 
darüber auch viele Informationen. Dazu hat das WWW massiv beigetragen, aber natürlich 
auch die Massenmedien, die sich gerne mit medizinischen Themen befassen, weil diese 
beim Publikum zumeist auf großes Interesse stoßen. 
Weil fast jeder noch dazu bei Erkältungskrankheiten über eigene Erfahrungen und einen 
eigenen, zumeist durchaus reflektierten Umgang mit gerade diesen Krankheiten verfügt, 
durfte das aktuelle Krankheitsgeschehen nicht unter dem bekannten Namen Grippe oder 
dem weniger bekannten Influenza publik gemacht werden. Indem es von allen offiziellen 
Stellen medizinischer oder politischer Art als etwas Neues und Unbekanntes qualifiziert 
wurde, nahm man den Bürgerinnen praktisch jede eigene Kompetenz ab und machte sie zu 
Unmündigen, die den Anweisungen der Mediziner und den Erlassen der Politik folgen 
müssen, ohne diese prüfen zu können oder gar zu dürfen. 
Hätten die Medien über das jeweils aktuelle Krankheitsgeschehen, die offiziellen 
medizinischen Interpretationen und die politischen Maßnahmen seriöse, d.h. kritische 
Informationen und einen Meinungsstreit geliefert, hätten sich die Bürgerinnen selber 
eigene Bilder vom Geschehen machen können und hätten über ihre Reaktionen selber 
entscheiden können. Viele Bürgerinnen hätten sich den Maßnahmen des Ausnahme-
zustands nicht einfach gebeugt. Viele hätten eine kritische Haltung eingenommen, eigene 
Umgangsformen mit der Krankheit entwickelt, wie sie es ja immer gewöhnt sind. Dann 
wäre eine autoritäre Lenkung durch die Medizin erheblich schwieriger geworden, wenn sie 
66  Hans-Martin Schönherr-Mann 
nicht gänzlich gescheitert wäre. Womöglich wären dann massive polizeiliche Gewalt-
maßnahmen erforderlich gewesen, um mit dem Ausnahmezustand die medizinisch 
gewünschten Effekte zu erzielen. 
 
6. Die Politik der Furcht 
 
Um es so weit nicht kommen zu lassen, hat man obendrein auf ein weit verbreitetes 
probates Mittel zurückgegriffen, nämlich auf die Politik der Angsterzeugung, die eine 
lange Geschichte hat. Sie beginnt mit der Offenbarung des Johannes, dem letzten Buch 
der Bibel, das einen totalen Weltuntergang ankündigt, während im jüdischen Denken der 
erwartete Messias die Welt nur wieder in Ordnung bringen soll. Im römischen Denken wie 
in asiatischen Weltbildern spielt der Weltuntergang keine Rolle, im Islam nur eine 
untergeordnete. Bis etwa 1500 lebte das Christentum unter der Drohung des Weltunter-
gangs, was für den Einzelnen bedeutete, dass dann niemand mehr für ihn beten, für ihn ein 
gutes Wort einlegen könnte, so dass er immer schon so leben muss, dass ihn das Jüngste 
Gericht nicht aburteilt. 
Seit 1500 verblasste indes dieses apokalyptische Denken im Christentum. Doch es wurde 
mit der Entstehung der modernen Wissenschaften von diesen übernommen, drohen die 
Wissenschaften seither immer wieder mit diversen größeren oder kleineren Untergängen, 
mit denen sie entweder schlicht Aufmerksamkeit erheischen, Forschungsgelder einsam-
meln oder das Leben der Menschen beeinflussen wollen. So konstatiert Johannes Fried: 
„Astronomen, Physiker, Biologen oder Chemiker erweisen sich als Kinder 
ihrer Zeit und sind der Herkunft ihrer Kultur verpflichtet, ständig auf der 
Suche nach Anfängen und Untergängen, und nun immer häufiger nach neuen 
Erden für den bevorstehenden Untergang der alten, vertrauten.“ (Fried 2016, 
S. 251)  
Natürlich werden davon gerade auch die Massenmedien beseelt, wobei man ihnen 
unterstellen darf, dass es ihnen dabei primär darum geht, ihren Umsatz zu erhöhen. Mit 
Szenarien eines Weltendes erregt man die Aufmerksamkeit der verängstigten Zeitge-
nossinnen. Dasselbe gilt für die Literatur, die Musik, den Film oder Videospiele wie auch 
für diverse Zirkel und Seiten im Internet. 
In der Politik hat das apokalyptische Denken eine eigene Ausformung erhalten, und zwar 
um 1500 durch den wichtigsten Vordenker des modernen Staates Niccolò Machiavelli, der 
zusammen mit seinem Zeitgenossen Leonardo da Vinci wesentlich zum Übergang der 
Apokalypse in ein säkulares Denken beiträgt. Machiavelli empfiehlt nämlich dem Fürsten, 
sich nicht auf die freiwillige Zustimmung seiner Untertanen zu verlassen. Aber der Fürst 
kann mit seiner Macht nach eigenem Gutdünken unter diesen Furcht erzeugen, mit der er 
sie dann lenken kann. So schreibt Machiavelli den Fürsten und allen ihren Nachfolgern ins 
Vom Machiavellismus zur Hospitalisierung 67 
Stammbuch: „Da die Liebe zu den Menschen von ihrer Willkür und die Furcht von dem 
Betragen des Fürsten abhängt, darf ein kluger Fürst sich nur auf das, was in seiner Macht 
und nicht in der der andern steht, verlassen.“ (Machiavelli 1980, 70) 
Die Politik des Ausnahmezustands arbeitet besonders intensiv mit diesem Mittel. Man hält 
kritische Informationen zurück, so dass die Bürger sich nicht selber informieren können. 
Man erklärt die Krankheit als besonders gefährlich, erzeugt also Furcht. Beides zusammen 
entmündigt die Bürgerinnen und macht sie zu braven Gefolgsleuten jener, die anscheinend 
als Einzige ein sicheres Wissen haben. Wer den Erleuchteten nicht grundsätzlich vertraut, 
wird von seiner Furcht motiviert, diesen Eliten trotzdem zu gehorchen. 
Die Bürgerinnen durch Furcht zu entmündigen, sie zu willigen Untertanen zu machen, das 
ist Machiavellismus, den solche Machiavellisten tunlichst verschweigen und verstecken, 
und Machiavellismus umdeuten: So liegt der Machiavellismus für Leo Strauss „im 
machiavellischen Prinzip, dass der gute Zweck jedes Mittel rechtfertigt“. (Strauss 1984,  
S. 13). Man soll ja nach Strauss der Bevölkerung gefährliche Wahrheiten verschweigen, 
die deren Vertrauen in die Regierung schwächen könnten. 
Auch Thomas Hobbes, der Vordenker von Absolutismus und Liberalismus, stützt im  
17. Jahrhundert die Politik seines Leviathan nicht nur auf die Furcht der Bürger. „Die 
Leidenschaften, die den Menschen friedfertig machen, sind Todesfurcht, das Verlagen 
nach Dingen, die zu einem angenehmen Leben notwendig sind und die Hoffnung, sie 
durch Fleiß erlangen zu können.“ (Hobbes 1984, S. 98) Damit arbeiten die chinesische 
Regierung wie die Paten des Maßnahmenstaates: Unterwerfung aus Angst vor Gewalt und 
Krankheit sowie Hoffnung auf ökonomische Entwicklung und auf ein Ende der Gefahr. 
Leider hat Hobbes den Herrschenden auch verraten, wodurch ihre Position gefährdet wird, 
so dass sie ihrerseits alles unternehmen, dem vorzubeugen. Denn Hobbes schreibt: 
„Die Verpflichtung des Untertanen gegen den Souverän dauert nur so lange, 
wie er sie auf Grund seiner Macht schützen kann, und nicht länger. Denn das 
natürliche Recht der Menschen, sich selbst zu schützen, wenn niemand 
anderes dazu in der Lage ist, kann durch keinen Vertrag aufgegeben 
werden.“ (Hobbes 1984, S. 171)  
Ob sich jemand sicher fühlt, kann man ihm aber von außen nicht eingeben. Darin liegt 
immer ein möglicher Kündigungsgrund des Gesellschaftsvertrages und das Individuum 
fängt an, sich selber zu schützen. Ein solches Sicherheitsbedürfnis ist längst von der 
körperlichen Unversehrtheit durch staatliche oder private Gewalt in die Gesundheit 
übergelaufen. Wenn man den staatlichen Lebensmittelkontrollen kein Vertrauen mehr 
entgegenbringt, sucht man nach vertrauenswürdigeren Versorgungsquellen. Wenn man der 
Medizin misstraut, sucht man sein Heil in der Alternativmedizin oder in der Esoterik. 
Als der Souverän den Ausnahmezustand ausrief – in Deutschland die Bundesländer, die 
für den Katastrophenfall zuständig waren – sah man sich genau mit diesem Problem 
68  Hans-Martin Schönherr-Mann 
konfrontiert. Wenn man einen erfolgreichen Umgang mit Krankheiten pflegt, wird man 
sich von niemandem dabei reinreden lassen. Man schützt sich selbst. 
Wenn es sich aber um eine neue unbekannte gefährliche Krankheit handelt, die man nicht 
kennt, muss man aus Angst und Unkenntnis gehorchen, sich also vom Ausnahmezustand 
schützen lassen, d.h. sich diesem unterwerfen. Das WWW hilft ja auch nicht weiter, weil 
die seriösen Massenmedien keine kritischen Informationen mehr liefern. Im anderen Fall 
hätte diese Politik der Furcht nicht so flächendeckend wirken können. 
Das Versagen liegt damit primär bei der Presse bzw. den Medien, die das machia-
vellistische Spiel der Politik und der Medizin unterstützt haben, was auch dazu führte, dass 
abweichende medizinische Auffassungen in der Öffentlichkeit nicht die notwendige 
Repräsentation fanden. Denn natürlich ist die Medizin kein einfacher monolithischer 
Block, was eine der Hoffnungen beseelt, dass sich die Entmündigung der Bürgerinnen 
durch medizinische Experten unterlaufen lässt. Das ist auch eine Chance für die Politik, 
nicht weiterhin bloß zum weltlichen Schwert des wissenschaftlichen Geistes zu 
verkommen. 
 
7. Mündigkeit oder nacktes Leben 
 
Zudem gehört der Machiavellismus zur alltäglichen medizinischen Praxis: Man lenkt die 
Zeitgenossin, indem man ihr die schlimmsten möglichen Konsequenzen ausmalt, bis sie 
schließlich in die vom Arzt gewünschte Therapie einwilligt, wie existentiell belastend 
diese auch sein mag. Hier hatte das WWW eine Weile durchaus eine emanzipatorische 
Wirkung, indem man sich besser über Krankheiten informieren konnte als vor dem 
WWW. Und das ließ sich auch mit seriösen Informationen abgleichen, was vielen 
Medizinern und Gesundheitspolitikern schon lange ein Dorn im Auge ist: Daher die 
ständigen Beschimpfungen und Verfolgungen alternativer Heilpraktiken, über die man 
sich vor dem WWW gar nicht so leicht informieren konnte. 
Der Hang zur Information, sei es im WWW oder durch die klassischen Medien wie auch 
die Neigungen zur Alternativmedizin, demonstrieren, dass viele Bürgerinnen ihre 
Abhängigkeit vom Medizinsystem gerne reduzieren würden, dass sie sich dabei eben um 
Mündigkeit bemühen, was trotzdem ein schwieriges Unterfangen bleibt. Denn das, was 
Ivan Illich 1975 schreibt, hat sich bis heute massiv verstärkt: 
„Lebenslange ärztliche Beaufsichtigung […] macht das Leben zu einer 
ununterbrochenen Folge gefährlicher Altersstufen, von denen jede ihre 
eigene Form der Bevormundung braucht. Von der Wiege bis ins Büro, vom 
Ferienlager des Club Méditerranée bis ins Leichenschauhaus wird jede 
Alterskohorte durch ein Milieu konditioniert, das definiert, was für die 
einzelnen Altersgruppen als Gesundheit zu gelten hat. […] Für Arme wie 
Vom Machiavellismus zur Hospitalisierung 69 
Reiche wird das Leben zu einer Pilgerfahrt, deren Kreuzwegstationen – 
Sprechzimmer und Wartezimmer – zurück zum Ausgangspunkt führen: in 
die Krankenstation.“ (Illich 1981, S. 95) 
Die globale Macht der Medizin hat sich seit 2020 zudem auch ökonomisch verstärkt. 
Während die Weltwirtschaft eine ihrer größten Krisen erlebt – die sich der Politik der 
Hospitalisierung verdankt – geht es Konzernen blendend, die am Gesundheitswesen 
beteiligt sind, von diesem selbst ganz zu schweigen, dem jedenfalls bestimmt nicht nur in 
Deutschland eminente finanzielle Verbesserungen gewährt werden. Nicht nur also, dass 
sich der politische Einfluss des gesamten Gesundheitswesen durch den von diesem 
gelenkten Ausnahmezustand unendlich gesteigert hat, auch die ökonomische Macht der 
daran beteiligten Akteure hat sich massiv verbreitert, so dass nicht nur Konflikte zwischen 
verschiedenen Wirtschaftsbereichen absehbar sind – das wäre das geringste Übel –, 
vielmehr dürfte sich die medizinische Lenkung der Bürgerinnen und die Hospitalisierung 
der Gesellschaft dadurch noch massiv intensivieren – und zwar selbst dann noch, wenn das 
aktuelle Krankheitsgeschehen medial, politisch und medizinisch in den Hintergrund des 
allgemeinen Interesses treten sollte. 
Mit dem medizinisch begründeten Ausnahmezustand hat sich auch gezeigt, dass Medizin 
und Demokratie, Medizin und Menschenrechte, sowie Medizin und individuelle 
Mündigkeit, also Medizin und Freiheit miteinander in einem massiven Konflikt liegen. 
Wie dekretiert Hannah Arendt: „Der Sinn von Politik ist Freiheit, und ohne sie wäre das 
politische Leben sinnlos.“ (Arendt 2000, S. 231) Oder um es etwas holzschnittartig zu 
sagen: Früher hat man sein Leben für die Freiheit geopfert; heute opfert man die Freiheit 
dem nackten Leben. 
Bereits 1995 weist Giorgio Agamben darauf hin, dass sich die Biopolitik zunehmend am 
nackten Leben orientiert. „Nicht der freie Mensch mit seinen Eigenschaften und seinen 
Statuten, und nicht einmal schlicht homo, sondern corpus ist das neue Subjekt der Politik “ 
(Agamben 2015, S. 132) Im Zuge der Medizinisierung und speziell im Ausnahmezustand 
der Hospitalisierung werden Menschen auf gefährliche Körper reduziert, die daher total 
kontrolliert und gelenkt werden müssen, was nur funktioniert, wenn das Denken 
ausgeschaltet wird. 
Die Medizin präsentiert sich in jeder Hinsicht als autoritäres hierarchisches System, das 
sich unter Hinweis auf ihre sozial wie individuell lebenserhaltende Funktion hegemonial 
ins Sicherheitsdispositiv einschreibt und damit absolutistisch ähnlich wie Hobbes 
argumentiert: um der Lebenssicherung willen sollen die Bürgerinnen widerspruchslos den 
Weisungen der weisen, wissenden medizinischen Experten folgen. Die mündige 
‚Patientin‘, die die Medizin als ein Dienstleistungsangebot versteht und die nur solche 
Angebote annimmt, die sie selbst geprüft hat und die ihr taugen, wird von nicht allzu 
vielen Medizinern geschätzt, geschweige denn von den Gesundheitspolitikern. 
70  Hans-Martin Schönherr-Mann 
Doch während Hobbes noch die individuelle Widerstandskraft anerkannte, unterläuft die 
Medizin die individuelle Mündigkeit durch eine umfassende Hospitalisierung, die sich auf 
digitale Technologien stützt und machiavellistisch durch Furchterzeugung Gehorsam 
schafft. Die Medizin spricht ja von Menschen nur als ‚Patienten‘, die primär aus Körpern 
bestehen, denen Seelen zugeordnet werden, für die man auch ständig neue Krankheiten 
und Steuerungsmechanismen entwickelt. 
So hadert die Medizin weniger mit der Demokratie als mit den Menschenrechten. Denn 
Demokratie besteht nicht nur darin, dass sich Parlamente aus verschiedenen politischen 
Parteien zusammensetzen, die durch reguläre Wahlen in diese Parlamente gelangt sind. 
Wider das berühmt gewordene Wort von Viktor Orbán muss Demokratie liberal sein, d.h. 
sie muss vor allem Menschen- und Minderheitenrechte achten, aber auch die Freiheit der 
Informationsmedien, der Forschung, Lehre, der Bildung wie der Kultur, darf gerade auch 
letzterer weder durch einen Ausnahmezustand noch durch eine restriktive Politik die Luft 
zum Atmen genommen werden. Letzteres praktizieren in der EU vor allem Ungarn und 
Polen, Ersteres findet sich flächendeckend überall. 
Wieweit sich die Bürgerin gegen diese Hospitalisierung zur Wehr setzen wird, ist 
momentan mehr als ungewiss. Viel zu viele wünschen sich eine umfassende Versorgung 
und Betreuung. Und auf der technologischen Ebene fördert die Digitalisierung eine solche 
Abhängigkeit, während sie auf der informationellen unter Bedingung des Ausnahme-
zustands dieser Entwicklung gerade nicht widerstreitet. Behält der Prophet der 
Digitalisierung Marshall McLuhan dann recht, wenn er 1964 schreibt: „Die Besitzer von 
Medien sind immer bemüht, dem Publikum das zu geben, was es will, denn sie spüren, 
dass ihre Macht im Medium liegt und nicht in der Botschaft oder dem Programm.“ 
(McLuhan 1992, S. 251) Hat die Bürgerin 2020/21 doch einfach bekommen, was sie 
wollte? Dann darf man sich auf eine fortschreitende Hospitalisierung einstellen, auch nach 
Corona. 
 
Literatur  
 
Agamben, Giorgio (2015): Homo sacer – Die souveräne Macht und das nackte Leben (1995). 
10. Aufl. Frankfurt/M.: Suhrkamp. 
Arendt, Hannah (2000): Revolution und Freiheit (1962). In: dies.: Zwischen Vergangenheit und 
Zukunft – Übungen im politischen Denken I (1968). 2. Aufl. München: Piper, S. 227–251. 
Campanella, Tommaso (1960): Der Sonnenstaat (1602). In: Heinisch, Klaus (Hrsg.): Der 
utopische Staat. Reinbek bei Hamburg: Rowohlt, S. 111–170. 
Foucault, Michel (2005): Die Geburt der Klinik – Eine Archäologie des ärztlichen Blicks 
(1963). 7. Aufl. Frankfurt/M.: S. Fischer. 
Vom Machiavellismus zur Hospitalisierung 71 
Fraenkel, Ernst (2001): Der Doppelstaat (1936–38, 1941). Hamburg: Europäische 
Verlagsanstalt. 
Fried, Johannes (2016): Dies Irae – Eine Geschichte des Weltuntergangs. München: C.H Beck. 
Habermas, Jürgen (1976): Strukturwandel der Öffentlichkeit – Untersuchungen zu einer 
Kategorie der bürgerlichen Gesellschaft (1962), 8. Aufl., Neuwied, Berlin: Luchterhand. 
Hobbes, Thomas (1984): Leviathan oder Stoff, Form und Gewalt eines kirchlichen und 
bürgerlichen Staates (1651). Frankfurt/M.: Suhrkamp. 
Illich, Ivan (1981): Die Nemesis der Medizin – Von den Grenzen des Gesundheitswesens 
(1975). Reinbek: Rowohlt. 
Lyotard, Jean-François (1987): Der Widerstreit (1983). München: Wilhelm Fink. 
Machiavelli, Niccolò (1980): Der Fürst (1532). Wiesbaden: VMA Verlag. 
Mason, Paul (2016): Postkapitalismus – Grundrisse einer kommenden Ökonomie. Berlin: 
Suhrkamp 
McLuhan, Marshall (1992), Die magischen Kanäle – „Understanding Media“ (1964). 
Düsseldorf u.a.O.: Econ. 
Platon (1958): Politeia. Übers. v. Friedrich Schleiermacher. Werke Bd. 3, Hamburg: Rowohlt. 
Schmitt, Carl (2004): Politische Theologie – Vier Kapitel zur Lehre von der Souveränität 
(1922). 8. Aufl. Berlin: Duncker & Humblot. 
Strauss, Leo (1977): Naturrecht und Geschichte (1953). Frankfurt/M.: Suhrkamp 
Strauss, Leo (1984): Thoughts on Machiavelli (1958). Chicago, London: University of Chicago 
Press. 
Trabant, Jürgen (2020): Sprachdämmerung – Eine Verteidigung. München: C.H. Beck 
Walzer, Michael (1998): Sphären der Gerechtigkeit – Ein Plädoyer für Pluralität und 
Gleichheit (1983). Frankfurt/M.: S. Fischer. 
  

Das digitale Panopticon – Wie die NSA-Überwachung 
unser Verhalten verändert 
Elsa-Margareta Venzmer 
 
Zusammenfassung 
Als die Überwachungspraktiken der NSA durch den Whistleblower Edward Snowden im Jahr 
2013 öffentlich gemacht wurden, rechtfertigte sich die US-amerikanischen Politik damit, dass das 
massenhafte Sammeln von Daten zur Terrorbekämpfung diene. Aus den Snowden-Dokumenten 
geht allerdings hervor, dass die Daten von der US-Regierung vielmehr für politische und 
gesellschaftliche Zwecke genutzt werden. Daten können etwa dafür verwendet werden, um das 
Verhalten von Menschen vorherzusagen oder zu kontrollieren. So kommen Studien zu dem 
Ergebnis, dass durch das Gefühl des Beobachtetwerdens Internetnutzer ihr Kommunika-
tionsverhalten verändern und ihre Grundrechte, wie Informations- und Meinungsfreiheit 
einschränken. Diese und andere Gefahren von Überwachung zu untersuchen sowie Lösungen 
anzubieten, wie man sich vor Datenspionage schützen kann, dem widmet sich der vorliegende 
Beitrag. Als theoretischer Rahmen soll hierfür Michel Foucaults Theorie des Panoptismus dienen. 
 
1. Der Panoptismus 
 
„Der perfekte Disziplinarapparat wäre derjenige, der es einem einzigen Blick 
ermöglichte, dauernd alles zu sehen. Ein zentraler Punkt wäre zugleich die 
Lichtquelle, die alle Dinge erhellt, und der Konvergenzpunkt für alles, was 
gewußt werden muß: ein vollkommenes Auge der Mitte, dem nichts 
entginge.“ (Foucault 1989, S. 224) 
 
Wie Michel Foucault schon 1976 in seinem Werk Überwachen und Strafen: Die Geburt 
des Gefängnisses feststellte, soll es in unserer modernen Gesellschaft einen Macht-
mechanismus geben, dessen Ziel es sei, jedes Individuum zu überwachen und sein 
Verhalten zu kontrollieren, um es letztendlich zu verbessern (vgl. Ruoff 2009, S. 102). Um 
diese sogenannte Disziplinarmacht zu erläutern, greift er auf Jeremy Benthams Konzept 
des Panopticons zurück (vgl. Foucault 1989, S. 256-257), nach dem sich Menschen selbst 
disziplinieren, indem ihnen das Gefühl vermittelt wird, dass ihr Verhalten zu jeder Zeit 
beobachtet werden könnte (vgl. ebd., S. 258 ff.). Das Panopticon war zunächst als ein 
Gebäude, genauer gesagt, als ein Gefängnis konzipiert. Es handelt sich dabei um einen 
ringförmigen Bau, in dessen Mitte ein von außen uneinsehbarer Turm steht. Das 
Ringgebäude besteht dabei aus Zellen, in denen jeweils ein Individuum untergebracht 
werden kann wie z.B. ein Schüler oder ein Sträfling. Dieses Individuum ist alleine, ein 
74  Elsa-Margareta Venzmer 
Kontakt zu dem Zellennachbarn ist durch die architektonische Besonderheit ausge-
schlossen. Es könnte vom Turm aus von einem Wächter ständig beobachtet werden. Da 
der Zellenbewohner aber nicht in den Turm hineinsehen kann, kann er letztendlich nie 
wissen, ob er gerade beobachtet wird oder nicht (vgl. ebd., S. 256 ff.). 
Das sei letztendlich die Hauptwirkung des Panopticons: „[D]ie Schaffung eines bewußten 
und permanenten Sichtbarkeitszustandes beim Gefangenen, der das automatische 
Funktionieren der Macht sicherstellt.“ (ebd., S. 258) Es gebe also eine Macht, die für sich 
alleine wirksam ist und von niemandem tatsächlich ausgeübt wird. Dabei sei das Gefühl 
des Überwachtwerdens permanent, auch wenn die Durchführung tatsächlich nur 
sporadisch geschehe. Es sei nur von Bedeutung, dass die Macht sichtbar bzw. spürbar ist, 
aber gleichzeitig uneinsehbar bzw. unsichtbar bleibe (vgl. ebd., S. 258). 
Foucault betont, dass das Panopticon nicht immer ein Gebäude sein müsse, sondern es sei 
ein verallgemeinerungsfähiges Funktionsmodell, das generell Machtbeziehungen im 
Alltag beschreibe (vgl. ebd., S. 263). Nach Foucault sei es Benthams Ziel gewesen, zu 
beschreiben, wie man Disziplinen im gesamten Gesellschaftskörper zum Einsatz bringen 
könne, so dass dieser lückenlos überwacht werden kann. Er konstatiert, dass sich dieser 
Vorgang im Laufe des 17. und 18. Jahrhunderts schon vollzogen habe: die Disziplinar-
gesellschaft wurde geboren (vgl. ebd., S. 268-269) und es gebe sie auch heute noch (vgl. 
ebd., S. 285). 
Foucault geht davon aus, dass die Voraussetzung für den Panoptismus die Entwicklung in 
der Gesellschaft und im Strafsystem gewesen sei, dass Individuen nicht länger danach 
beurteilt würden, was sie getan haben (vgl. ebd., S. 28), sondern danach, „was sie sind, 
sein werden, sein können“. (ebd., S. 28) Die Gesetzesübertretungen stünden nun also nicht 
länger allein im Mittelpunkt der Beobachtung, sondern die Menschen selbst (vgl. ebd., S. 
28). So hält Reiner Ruffing, der sich mit Foucaults Werk beschäftigte, fest: „Die 
Individuen werden nicht mehr nur im Hinblick auf tatsächliches Verhalten gestraft, 
sondern auf ihr potentielles Verhalten und Gefährdungspotential hin geprüft.“ (Ruffing 
2008, S. 106) 
Das Strafsystem gehe also immer mehr von der eigentlichen Bestrafung weg und in die 
Disziplinierung von Individuen über. Das Ziel der Disziplin sei am Ende, durch 
Überwachung Verhalten zu steuern und damit Menschen zu verbessern (vgl. Ruoff 2009, 
S. 102). Die Erfassung von kleinsten Details über Individuen würde Wissen und Daten 
erzeugen, wodurch wiederum neue Techniken der Überwachung entstünden (vgl. Foucault 
1989, S. 181). Es sei schließlich wichtig, zu jeder Zeit zu wissen, wo und auf welche 
Weise jemand gefunden werden kann (vgl. ebd., S. 183). Die Instrumente dieser 
Disziplinarmacht seien dabei einfach: Es gebe zum einen den hierarchischen Blick, bei 
dem jemand sieht, ohne selbst gesehen zu werden, und zum anderen eine normierende 
Sanktion bzw. Strafen (vgl. ebd., S. 220-221). Strafbar sei alles, was von der Regel 
abweiche und nicht konform sei wie das Begehen von Fehlern (vgl. ebd., S. 231). Diese 
Fehler würden wiederum gezählt und die Disziplinarapparate könnten Individuen 
Das digitale Panopticon – Wie die NSA-Überwachung unser Verhalten verändert  75 
daraufhin in die Kategorien „gut“ und „schlecht“ einteilen bzw. hierarchisieren (vgl. ebd., 
S. 233-234). Foucault fasst an diesem Punkt zusammen: „Das lückenlose Strafsystem, das 
alle Punkte und alle Augenblicke der Disziplinaranstalten erfaßt und kontrolliert, wirkt 
vergleichend, differenzierend, hierarchisierend, homogenisierend, ausschließend. Es wirkt 
normend, normierend, normalisierend.“ (ebd., S. 236) 
Einerseits wirke diese Normalisierungsmacht homogenisierend, aber gleichzeitig 
individualisierend, da beispielweise die Besonderheiten von Menschen festgehalten 
würden. (vgl. ebd., S. 237) Durch solche Einzelbeschreibungen würden Registrierungs-
verfahren implementiert, die auf den Verhaltensweisen der Beobachteten beruhen. Das 
Individuum werde klassifiziert, um es daraufhin korrigieren oder normalisieren zu können. 
(vgl. ebd., S. 246) Die individuellen Unterschiede würden letztendlich fixiert, indem jeder 
seine charakterisierenden Eigenschaften zugewiesen bekommt. Aus jedem Menschen 
werde demnach ein Fall, wobei in einem Disziplinarsystem die Anormalen mehr 
individualisiert würden als die Normalen. (vgl. ebd., S. 246 ff.) Es werde allerorts geprüft, 
ob jemand der Norm entspreche oder nicht. (vgl. Ruffing 2008, S. 106) 
Als durch Edward Snowden 2013 bekannt wurde, dass der US-amerikanische 
Geheimdienst National Security Agency (NSA) die weltweite Online- und Telefonkom-
munikation überwacht und speichert (vgl. Beuth 2013), wurde deutlich, dass Foucaults 
Theorie des Panoptismus im Informationszeitalter perfektioniert wurde. Durch 
Überwachungsprogramme wie PRISM1 ist der NSA besagter Disziplinarapparat gelungen, 
indem sie buchstäblich alle Informationen aus dem Internet sammeln, analysieren (vgl. 
Greenwald 2015, S. 83) und für sich auf einen Blick sichtbar machen kann. (vgl. ebd., S. 
236) So erfuhr man durch die Bürgerrechtorganisation American Civil Liberties Union 
(ACLU), dass die NSA in ihren Datenbanken Einzelbeschreibungen über Menschen 
speichert wie die Krankheitsgeschichte, politische Einstellungen, intime Beziehungen und 
das allgemeine Online-Verhalten. (vgl. ebd., S. 275) Daraufhin werden die Individuen, wie 
Foucault es beschreibt, registriert und klassifiziert wie z.B. durch das Programm 
XKeyscore2, das sogar Live-Überwachung erlaubt (vgl. Greenwald 2015, S. 229). Wie 
beim Panopticon können sich Internetnutzer also nie sicher sein, ob sie gerade beobachtet 
werden oder nicht. 
Analog zu Foucaults Ausführungen wird von der NSA der gesamte Gesellschaftskörper 
lückenlos überwacht. So kommt der Journalist Glenn Greenwald zu dem Schluss: 
                                                        
1  Bei dem NSA-Programm PRISM werden IT-Unternehmen wie Google und Facebook dazu 
verpflichtet, mit dem Geheimdienst zusammenzuarbeiten und ihm alle Kundendaten zur Verfügung 
zu stellen (vgl. Greenwald 2015, S. 168 ff.).  
2  Hierbei handelt es sich um ein Tool, mit dem die NSA bestimmte Informationen nicht nur sammeln 
und sortieren, sondern auch konkret nach ihnen suchen kann. Dabei geht es sowohl um Metadaten als 
auch um Inhalte. XKeyscore erlaubt zusammengefasst einen direkten Zugang zu allem, was ein 
herkömmlicher Nutzer im Internet tut und das sogar in Echtzeit (vgl. Greenwald 2015, S. 229).  
76  Elsa-Margareta Venzmer 
„Es ist keineswegs übertrieben zu sagen, dass es das erklärte Ziel des 
Überwachungsstaates ist, sicherzustellen, dass jegliche elektronische 
Kommunikation von und zwischen Menschen rund um den Globus von der 
NSA erfasst, gespeichert, überwacht und analysiert wird. (ebd., S. 151) 
Wie aus den Snowden-Dokumenten hervorgeht, werden die Spionagetechniken der NSA – 
entgegen der Rechtfertigung der US-amerikanischen Regierung – seit dem 11. September 
nicht mehr vorrangig zum Bekämpfen von Verbrechen eingesetzt, sondern es werden in 
großem Umfang Daten von Personen gesammelt, ohne dass es Hinweise auf konkrete 
Straftaten oder andere Gefahren gibt (vgl. Schaar 2014, S. 96-97). Vielmehr dient das 
Datensammeln des Geheimdienstes heutzutage zur Wirtschaftsspionage (vgl. Greenwald 
2015, S. 203), der Vorhersehbarkeit von politischen Unruhen (vgl. Rosenbach/Stark 2015, 
S. 283-284) sowie gesellschaftlichen Bewegungen (vgl. Ammann/Aust 2015, S. 38) und 
vor allem dazu, um die Vorherrschaft im Internet sicherzustellen (vgl. Rosenbach/Stark 
2015, S. 15). 
Durch Letzteres entstanden gravierende soziale Folgen. Wie in diesem Beitrag erläutert 
werden soll, verändern Menschen durch zunehmende Überwachung im Internet ihr 
Kommunikationsverhalten und schränken ihre Grundrechte wie ihre Informations- und 
Meinungsfreiheit aus Angst vor Sanktionen von Seiten der Regierung selbst ein. Die 
erläuterten Theorien von Foucault sollen dabei helfen, diese Phänomene zu erklären. 
 
2. Veränderung des elektronischen Kommunikationsverhaltens 
2.1. Begrenzung der Informationsfreiheit 
Wie Foucault schreibt, werden in der Disziplinargesellschaft nicht mehr nur Straftäter 
überwacht, sondern auch das Verhalten von normalen Bürgern dahingehend überprüft, was 
diese tun könnten. Sie würden individualisiert, um ihre Denk- und Lebensweisen 
herauszufinden. Das Ziel sei schließlich, die Individuen zu kontrollieren, zu korrigieren 
oder zu normalisieren (vgl. Foucault 1989, S. 127). Dieses Phänomen lässt sich seit der 
NSA-Affäre bei normalen Internetnutzern beobachten. Im Zusammenhang mit der 
elektronischen Kommunikation spricht man jedoch von so genannten Chilling Effects. 
Datenschützer verwenden diese Theorie häufig, um auf die Gefahren von Überwachungs-
programmen aufmerksam zu machen. Nach dieser Theorie schränken Menschen, die sich 
beobachtet fühlen, völlig legale Verhaltensweisen ein, da sie Angst haben, sich verdächtig 
zu machen. Zu diesen Verhaltensweisen gehört z.B. das Äußern einer Meinung oder die 
Informationssuche nach stigmatisierenden Krankheiten im Internet. Durch eine Studie aus 
dem Jahr 2016 wurden diese Chilling Effects schließlich nachgewiesen. So haben 
kanadische Forscher um den Wissenschaftler Jon Penney vom Citizen Lab der Universität 
Toronto ermittelt, dass nach den Snowden-Enthüllungen die Abrufzahlen brisanter 
Das digitale Panopticon – Wie die NSA-Überwachung unser Verhalten verändert  77 
Wikipedia-Artikel wesentlich sanken. Um solche kontroversen Artikel herauszufiltern, 
hatte Penney eine Liste von verdächtigen Begriffen gebraucht, die vom US-Heimat-
schutzministerium verfasst wurde. Solche Listen dienen beispielsweise dazu, rechtzeitig 
terroristische Bedrohungen zu erkennen, indem Soziale Netzwerke nach den Begriffen 
durchforstet werden. Der Wissenschaftler wählte letztendlich 48 Wikipedia-Artikel aus, 
die Begriffe wie „schmutzige Bombe“ oder die Namen von Terrororganisationen 
beinhalten. 
Es stellte sich heraus, dass nach den Snowden-Aufdeckungen im Juni 2013 die Abrufe der 
ausgewählten Artikel nur innerhalb eines Monats um fast 30 Prozent absanken. Der Effekt 
war also unmittelbar nach der Affäre enorm. Aber auch eine Analyse, die sich über 32 
Monate erstreckte, legte offen, dass die ursprünglichen Abrufzahlen vor den Snowden-
Veröffentlichungen nie wieder erreicht wurden. Für die Studienautoren ist deswegen klar, 
dass die NSA-Überwachung einen nachhaltigen Einfluss auf das Verhalten von 
Wikipedia-Usern hat. Penney betont, sollten sich Bürger künftig davor fürchten, sich über 
kontroverse Themen zu informieren oder ihre Meinung zu äußern, bedrohe das die 
politische Willensbildung (vgl. Kleinz 2016). „Um das klarzustellen: Diese Aktivitäten 
sind nicht nur legal, sondern wohl auch für eine gesunde Demokratie wünschenswert“ 
(Penney zitiert nach Kleinz 2016, o.S.), so der Forscher. 
Zu einem ähnlichen Ergebnis kommt auch eine Untersuchung der norwegischen 
Datenschutzbehörde NDPA. So sagten 46 Prozent der Befragten aus, dass sie seit den 
Snowden-Veröffentlichungen Angst um ihre Privatsphäre im Internet hätten. Deswegen 
schränkten sich ca. 16 Prozent selbst ein und suchten nicht länger nach Dingen im Netz, 
die sie in die Bredouille bringen könnten (vgl. Steinschaden 2014). Im Sinne Foucaults 
haben sich die Nutzer selbst diszipliniert, normalisiert und dahingehend verbessert, wie sie 
denken, dass ihre Beobachter es bevorzugen würden. Im Disziplinarraum des Internets 
kann die NSA so unerwünschte Verhaltensweisen unterbinden (vgl. Ruoff 2009, S. 105). 
In diesen konkreten Fällen schränkten Menschen ihre eigene Informationsfreiheit ein. Wie 
auch Jon Penney erklärte, ist diese allerdings ein wichtiger Wert für eine funktionierende 
Demokratie. 
Problematisch speziell an solchen Listen mit verdächtigen Begriffen ist, dass es völlig 
legitime Gründe dafür geben kann, warum ein Nutzer auf Wikipedia oder in 
Suchmaschinen z.B. nach „Bombe“ suchen könnte. Man stelle sich vor, dass ein Schüler 
für ein Referat im Chemieunterricht recherchieren soll, wie eine Bombe zusammengesetzt 
ist. Er ist vielleicht von arabischer Abstammung oder gehört dem Islam an. Die NSA 
registriert daraufhin seine Recherchen im Internet und hat ihn im Visier, da dem 
Geheimdienst der Kontext für die Suchanfragen nicht klar ist und er dazu noch Racial 
78  Elsa-Margareta Venzmer 
Profiling3 betreibt. Somit würde ein unschuldiger Internetnutzer verdächtigt, auch wenn er 
völlig legal sein Recht auf Informationsfreiheit ausübt. Die NSA macht es damit Foucaults 
Disziplin nach, indem sie Individuen in die Kategorien „gut“ und „schlecht“ einteilt, sie 
also kategorisiert und hierarchisiert. Mit Foucaults Worten wird so „die soziale und 
moralische Trennung zwischen Unschuldigen und Schuldigen in Frage“ gestellt. (Foucault 
zitiert nach Schneider 2004, S. 120)  
Deswegen könnten Minderheiten wie in diesem Fall Muslime ihr Verhalten einschränken, 
um erst gar nicht verdächtig zu wirken. So fand eine Studie, die bereits im Jahr 2007 
veröffentlicht wurde, heraus, dass über 71 Prozent der Muslime in den USA denken, dass 
speziell ihr Online-Verhalten nach den Anschlägen vom 11. September vom Staat 
überwacht werde. Deswegen änderten 8,4 Prozent ihr Verhalten im Internet (vgl. 
Steinschaden 2014). Und ihre Annahme wurde bestätigt. So berichteten Medien im Jahr 
2012, dass die CIA ganze muslimische Gemeinschaften, die in den USA leben, 
überwachen lassen will, sowohl physisch als auch elektronisch, auch wenn es keinerlei 
Hinweise auf Straftaten gebe (vgl. Greenwald 2015, S. 273). 
Neben der Diskriminierung von Minderheiten ist das Problem an solch einem Vorgehen 
der Nachrichtendienste, wie auch Jan-Peter Kleinhans auffällt (vgl. Kleinhans 2013,  
S. 103), dass man nie wissen könne, wie ein jeweiliger Staat den Begriff „Terrorismus“ 
definiere. Wenn es in einem Land einen Regierungswechsel gebe, könnte die neue 
Regierung etwas völlig anderes unter Terrorismus verstehen als die vorherige. Durch das 
langzeitige Speichern der Daten könnte sie aber noch auf ältere Kommunikationsdaten der 
Bürger zugreifen und diese nachträglich sanktionieren. So sind unter den verdächtigen 
Begriffen, nach denen Geheimdienste online suchen auch harmlose Wörter wie 
„beobachten“ oder „Schweinefleisch“ (vgl. Heuer/Tranberg 2013, S. 76). Vielleicht wird 
es inzwischen schon als Terrorismus angesehen, wenn jemand Überwachung in Frage 
stellt und sich im Internet über die NSA informiert oder nach Aktivistengruppen sucht, die 
sich für Datenschutz einsetzen. 
So wurden nach der Bürgerrechtsorganisation ACLU Gegner des Irakkriegs wie Studenten 
oder gewaltlose Demonstranten vom Pentagon überwacht und Informationen über sie in 
einer militärischen Antiterror-Datenbank gespeichert (vgl. Greenwald 2015, S. 272). Man 
kann also nie wissen, wer bei Sicherheitsbehörden als sanktionswürdig gilt. All das passt 
zu Foucaults Thesen, dass in unserer Gesellschaft durch Einzelbeschreibungen 
Registrierungsverfahren implementiert würden, die auf den Verhaltensweisen der 
Beobachteten beruhen. Dabei würden die Anormalen häufiger registriert als die Normalen. 
Wer allerdings als anormal oder normal gilt, das bestimmt die jeweilige Regierung. 
                                                        
3  Bei der Überwachung wird so genanntes Racial Profiling betrieben. Nach diesem werden schwarze 
oder arabisch aussehende Menschen detaillierter überwacht als weiße Menschen (vgl. Henschke 
2017, S. 169-170).  
Das digitale Panopticon – Wie die NSA-Überwachung unser Verhalten verändert  79 
2.2. Einschränkung der Kommunikations- und Meinungsfreiheit 
Aber Bürger werden nicht nur davon abgeschreckt, sich zu informieren, sondern auch 
davon, sich über ihre eigene Regierung zu äußern. Nach einer weiteren Studie aus dem 
Jahr 2016 von Elizabeth Stoycheff von der Wayne State Universität in Michigan 
beeinflusst Überwachung auch die Bereitschaft zur Meinungsäußerung auf Facebook. Für 
die Studie wurde das Verhalten von 225 Personen untersucht. Der Hälfte der 
Studienteilnehmer wurde mitgeteilt, dass der Staat ihr Online-Verhalten überwacht. Allen 
Befragten wurde daraufhin ein erfundener Facebook-Post über US-Luftangriffe gegen den 
Islamischen Staat im Irak gezeigt, der nur ein Bild, eine Überschrift und einen Vorspann 
beinhaltete, aber keine normative Beurteilung der Angriffe. Danach wurden sie befragt, ob 
sie bereit sind, öffentlich zu dem Thema ihre Meinung abzugeben und auch darüber, wie 
andere Amerikaner über das Thema wohl denken. Zudem sollten sie die Frage 
beantworten, für wie gerechtfertigt sie selbst die Internetüberwachung halten (vgl. Jonjic-
Beitter 2016). 
Das Ergebnis der Studie war, dass sich generell diejenigen Teilnehmer nicht gern 
äußerten, wenn ihre eigene Meinung von der wahrgenommenen Mehrheitsmeinung 
abwich. Speziell waren aber diejenigen Personen eher davon abgeneigt, ihre Minder-
heitsmeinung zu posten, denen gesagt wurde, dass sie überwacht werden. Interessant war 
für die Studienleiterin außerdem, dass vor allem Personen, die die staatliche Überwachung 
für gerechtfertigt halten und denken, nichts zu verbergen zu haben, ihre Minderheits-
meinung nicht öffentlich mitteilen wollten. Nach Stoycheff hätten diese Personen 
vermutlich weniger Angst davor, sozial von ihren Mitmenschen isoliert zu werden, 
sondern vielmehr davor, von ihrer Regierung verfolgt, sanktioniert oder benachteiligt zu 
werden. Die Studienautorin sieht durch diese Ergebnisse die Gefahr, dass durch solche 
Schweigespiralen Menschen mit abweichenden Meinungen aus der öffentlichen 
Diskussion verdrängt würden (vgl. Rötzer 2016). „Demokratie gedeiht durch die 
Verschiedenheit der Ideen, Selbstzensur erstickt sie“, so Stoycheff. (Stoycheff zitiert nach 
Rötzer 2016, o.S.) 
Vergleichbares ergaben auch Umfragen zum allgemeinen Kommunikationsverhalten. So 
fand das Pew Research Center im Jahr 2014 heraus, dass 68 Prozent der amerikanischen 
Internetnutzer Angst um ihre Sicherheit haben, wenn sie persönliche Informationen über 
Instant-Messenger oder Chats teilen. Dasselbe unsichere Gefühl haben 57 Prozent bei E-
Mail, 58 Prozent bei SMS, 46 Prozent beim Handy und 31 Prozent bei 
Festnetzanschlüssen (vgl. Kolkmann 2016). In Europa gab es bei Umfragen ähnliche 
Erkenntnisse. Nach einer Befragung des Vodafone-Instituts von 2016 haben 51 Prozent der 
Europäer Angst um ihre Daten, bei den Deutschen sind es sogar 56 Prozent. Deswegen 
würden diese 56 Prozent ihre digitale Kommunikation einschränken (vgl. E-Mail, 
Facebook, SMS und Co. 2016). Nach dem Technikforscher Sandro Gaycken geschieht diese 
Verhaltensanpassung dabei oft ohne Absicht. Er hält fest: „Überwachung fördert die 
innere Zensur. Sie unterdrückt Widerspruchsgeist. Die große Gefahr ist, dass dies 
80  Elsa-Margareta Venzmer 
unterbewusst geschieht. Man passt sich an und merkt es gar nicht.“ (Gaycken zitiert nach 
Schulz 2007) 
Eine hohe Anzahl von Menschen scheint ihr Kommunikationsverhalten also anzupassen 
bzw. völlig einzustellen. Denn den Menschen wurde im Sinne Foucaults beigebracht, sich 
selbst zu überprüfen und zu kontrollieren. Sie folgen den Normen, von denen sie denken, 
dass die Autoritäten sie verlangen (vgl. Ruffing 2008, S. 111). Dadurch würden laut dem 
Philosophen Individuen geschaffen, die nicht mehr außergewöhnlich, sondern gewöhnlich 
seien und die eine Machtapparatur ihr Leben regeln ließen – eingeordnet und eingeengt 
durch Disziplinarmechanismen (vgl. Schneider 2004, S. 127). 
Aber warum genau schränken Menschen ihre Kommunikations- und Meinungsfreiheit und 
damit ihr Verhalten ein? Es liegt wohl daran, dass immer wieder Fälle bekannt werden, bei 
denen harmloses Online-Verhalten zu harten Konsequenzen führte. So gab es einmal den 
Fall, dass zwei Briten in den USA Urlaub machen wollten, aber am Flughafen in Los 
Angeles verhaftet und fünf Stunden lang vom Department of Homeland Security verhört 
wurden. Denn vor ihrer Reise hatten sie aus Spaß ihren Freunden getwittert, dass sie 
„Amerika zerstören“ sowie „Marilyn Monroe ausgraben“ wollen. Sie meinten damit auf 
Englisch umgangssprachlich, dass sie eine wilde Party feiern wollen, doch die Software 
der Behörden interpretierte ihre Posts als Terrorismus. Sie konnten letztendlich nicht in die 
USA einreisen und wurden wieder nach England zurückgeschickt (vgl. Heuer/Tranberg 
2013, S. 75). 
Wenn Fälle wie dieser bekannt werden, schränken sich Menschen lieber selbst ein, um 
nichts zu riskieren und nicht sanktioniert zu werden. Nach Foucault (vgl. Foucault 1989, 
S. 119 ff.) sollen Strafen einen Abschreckungseffekt haben. Sie sollen ein Exempel 
statuieren, um zukünftiges Verhalten, das nicht der Norm entspreche, zu verhindern. Die 
Strafen müssen also auch diejenigen abschrecken, die nicht straffällig geworden sind. Wie 
man anhand der besprochenen Studien erkennen kann, funktioniert solch eine 
Abschreckung auch von Seiten der US-amerikanischen Geheimdienste. Ihre Macht dringt 
mit den Worten Foucaults in das Innere der Individuen ein, wo sie als Kontrollinstanz 
funktioniert (vgl. Schröder 2010, S. 30). Wie der Philosoph beschreibt, ist zwar das 
tatsächliche Ausüben der Macht nur sporadisch, das Gefühl des Überwachtwerdens dafür 
aber permanent. 
Wie Foucault erörtert, lässt sich an diesem Punkt resümieren, dass sich Machtwirkungen 
bei vielen Verhaltensweisen im Alltag erkennen lassen (vgl. Schneider 2004, S. 132). 
Zuletzt soll noch darauf eingegangen werden, wie durch Überwachung speziell die 
Persönlichkeitsbildung von Individuen beeinflusst werden kann. 
 
Das digitale Panopticon – Wie die NSA-Überwachung unser Verhalten verändert  81 
3. Persönlichkeitsentwicklung durch Überwachung 
3.1. Privatheit als Bedingung für die Identitätsbildung 
Foucault ist der Auffassung, dass die Seele bzw. die Identität eines Menschen erst durch 
Überwachung konstituiert wird. Der Panoptismus halte eine Maschinerie in Gang, die eine 
Mächteasymmetrie unterstütze und das moderne Individuum hervorbringe (vgl. Sarasin 
2005, S. 143). Durch Strafmaßnahmen wie die Disziplin würden Menschen normalisiert 
und normiert. So bezieht er seine Machttechnologien auch auf Schulen, in denen Kinder 
und Jugendliche von jung auf und ein Leben lang diszipliniert würden (vgl. ebd., S. 132). 
Reiner Ruffing (vgl. Ruffing 2008, S. 59) hält in diesem Zusammenhang fest, dass die 
moderne Macht nach Foucault das Bewusstsein von Individuen durch Bestrafungen und 
Belobigungen präge und „ihn mit einer individuellen Biographie, Lebensgeschichte, 
Fähigkeiten, Charaktereigenschaften“ ausstatte. (ebd., S. 59) Das kann sicherlich positive 
Auswirkungen haben, wenn Menschen so erzogen werden, dass sie lernen, moralische 
bzw. ethisch richtige Entscheidungen zu treffen, indem Kindern und Jugendlichen z.B. 
beigebracht wird, dass man anderen Menschen nicht schaden darf. Durch permanente 
Überwachung und Disziplinierung könnte die Identität allerdings auch geschädigt oder 
nicht vollständig ausgeprägt werden. 
So gehen Privatheitsforscher wie Alan Westin (vgl. Westin 1970, S. 34) davon aus, dass 
jeder Mensch Privatheit brauche, um seine eigene Persönlichkeit zu formen. Generell hat 
Privatheit für ihn vier Funktionen: „[P]ersonal autonomy, emotional release, self-
evaluation and limited and protected communication.” (ebd., S. 32) So sei in 
demokratischen Gesellschaften jeder Mensch individuell und diese Individualität würde 
durch Autonomie bewahrt – also dadurch, dass Individuen von anderen nicht dominiert 
oder manipuliert werden. Man brauche Zonen der Privatheit, um sein Innerstes für sich 
selbst zu offenbaren. Wenn die Autonomie gestört werde, seien Geheimnisse des 
Individuums wie seine Ängste und Träume nicht mehr geheim und würden es unter die 
Kontrolle derjenigen Personen bringen, die seine Geheimnisse wissen. Jeder Mensch sollte 
nach Westin aber selbst darüber entscheiden dürfen, was die Öffentlichkeit von ihm 
wissen darf und was er nur sich selbst oder seinem Freundes- und Familienkreis 
vorbehalten will. Es gebe vielleicht Eigenschaften eines Menschen, die er selbst noch nicht 
versteht und langsam erforscht, während er sich entwickelt. Die durch Privatheit 
ermöglichte Autonomie sei deswegen fundamental für die Entwicklung der Individualität. 
Man brauche Privatheit, um seine Gedanken und Gefühle zuerst für sich selbst 
ausprobieren zu können. Man kann mit seinen Ideen und Meinungen experimentieren und 
diese eventuell ändern, bevor man sich traue, diese öffentlich zu machen. Dafür sei es von 
Nöten, dass man diese ohne die Angst erprobt, dass man bestraft oder erniedrigt werden 
könnte. Individualität und Non-Konformität seien letztendlich wichtig für eine 
Demokratie, die auf Vielfalt basiere. 
82  Elsa-Margareta Venzmer 
Was die Funktion emotional release angeht, so sei diese Freilassung von Gefühlen 
wichtig, um Druck im Alltag abbauen zu können. Man brauche sowohl eine Pause von 
Rollen und Normen in der Gesellschaft als auch das Recht, man selbst zu sein und sich 
gehen zu lassen. Man sollte z.B. auch ein Mal fluchen oder Autoritäten kritisieren dürfen, 
ohne für solche Kommentare verantwortlich gemacht zu werden (vgl. ebd.,  
S. 33 ff.). Ohne diese Gefühlsausbrüche stehe man ständig emotional unter Druck (vgl. 
ebd., S. 36 ff.). 
Zu den letzten beiden Funktionen, der Selbstevaluation und geschützten Kommunikation, 
hält der Privatheitsforscher fest, dass man Privatheit dafür brauche, um Erfahrungen aus 
dem Alltag zu verarbeiten, diese zu evaluieren und Schlüsse für sein eigenes Verhalten 
daraus zu ziehen. Man würde lernen, moralisch zu handeln, indem man sein eigenes 
Verhalten mit dem anderer vergleiche. Zuletzt sei Privatheit essenziell, um mit Freunden 
oder der Familie über intime Dinge zu kommunizieren bzw. gebe es auch Situationen, in 
denen man auch einmal objektive Ratschläge von fremden Personen brauche, etwa von 
Psychologen (vgl. ebd., S. 36 ff.). 
Neuere Forschungen gehen davon aus, dass in unserer heutigen Zeit private Räume von 
Medien eine wichtige Rolle zur Identitätsbildung spielen (vgl. Schröder 2010, S. 76), etwa 
Soziale Netzwerke (vgl. ebd., S. 81). So erzählte Edward Snowden dem Journalisten 
Glenn Greenwald in einem Gespräch, dass Medien wie Videospiele und vor allem das 
Internet wesentlich dazu beigetragen hätten, wie sich seine Persönlichkeit entwickelte. Das 
Internet sei ein Raum der Freiheit gewesen, in dem man neue Dinge entdecken und geistig 
wachsen konnte. So hätte er in seiner Jugend im Netz mit den unterschiedlichsten 
Menschen kommunizieren können, die weit weg wohnten und die er sonst nicht hätte 
treffen können. Generell hätte er in der virtuellen Welt seine Gedankenwelt erforschen 
können. Deswegen sei das Internet extrem wertvoll und seine Möglichkeiten müssten um 
jeden Preis geschützt werden (vgl. Greenwald 2015, S. 80 ff.). So sagte Snowden 
gegenüber Greenwald überzeugt: 
„Für viele junge Leute ist das Internet ein Mittel der Selbstverwirklichung. 
Es ermöglicht ihnen herauszufinden, wer sie sind und wer sie sein wollen, 
aber das geht nur, wenn wir uns dort anonym und auf einer Basis der 
Vertraulichkeit bewegen können – und Fehler machen, ohne dass sie uns 
ewig nachhängen. Meine große Sorge ist, dass meine Generation die letzte 
sein wird, die in den Genuss dieser Freiheit kommt.“ (Snowden zitiert nach 
Greenwald 2015, S. 82) 
Es gibt Studien aus der Zeit, in der das Internet noch in den Kinderschuhen steckte, die 
Snowdens Erfahrungen bestätigen. 
 
Das digitale Panopticon – Wie die NSA-Überwachung unser Verhalten verändert  83 
3.2. Identitätskonstruktion im Internet 
Anke Bahl beschäftigte sich in ihrem Buch Zwischen On- und Offline. Identität und 
Selbstdarstellung im Internet damit, welchen Einfluss das Netz und Online-Spiele auf die 
Persönlichkeitsentwicklung von jungen Erwachsenen hatten. Sie führt aus, dass vor allem 
das Gefühl der Anonymität in virtuellen Räumen – das es in den Anfangsjahren des 
Internets noch gab – ein Gefühl der Sicherheit vermittelte, das emanzipierend wirken 
könne (vgl. Bahl 1997, S. 34-35). Um diese Annahmen zu stützen, führte sie Interviews 
mit Internetnutzern durch, die alle in ihren jungen Zwanzigern waren (vgl. ebd., S. 50 ff.). 
Diese legten konkret dar, dass sie die Anonymität des Internets als befreiend empfanden, 
da niemand wusste, wer man ist und wo man gefunden werden kann. Man konnte sein, 
wer man wollte, ohne dass man von anderen Menschen verurteilt oder zurechtgewiesen 
wurde. Man konnte sich also von den Erwartungen der Offline-Welt befreien und sich mit 
seiner eigenen Persönlichkeit auseinandersetzen. Zudem nutzten viele Studienteilnehmer 
das Netz, um sich Ratschläge von neutralen Gesprächspartnern zu holen, wenn sie privat 
Probleme hatten (vgl. ebd., S. 83).  
Andere Vorteile der Anonymität des Internets seien gewesen, dass man mit seiner Identität 
spielen konnte. So hätte man z.B. seine Nationalität (vgl. Bahl 1997, S. 100) oder sein 
Geschlecht verstecken können, um daran anheftenden gesellschaftlichen Erwartungen in 
der wirklichen Welt zu entfliehen. Durch Online-Rollenspiele wie das Multi User 
Dungeon (MUD) konnte man die Rollenerwartungen aus dem Alltag hinter sich lassen und 
diejenige Rolle übernehmen, die man gerne spielen wollte. Eine Userin erzählte, dass ihr 
das Spiel auch dabei geholfen habe, die Person zu sein, die sie offline sein wollte. Denn 
man musste im Internet nicht viel darüber nachdenken, wie man sich zu verhalten hatte 
(vgl. ebd., S. 105). „[D]as MUD gab ihr den möglichen Handlungsspielraum, um sich 
freier zu entfalten als ihr dies in der Offline-Welt möglich war“ (ebd., S. 105), resümiert 
Bahl an dieser Stelle. 
Gleichzeitig half das Internet auch einigen Studienteilnehmern dabei, ihre Identität in der 
wirklichen Welt zu bilden. Denn durch das Wunsch-Ich im Internet konnte man sich 
langsam dem Ich annähern, das man auch offline sein wollte. Durch den virtuellen Raum 
konnte man die Online-Identität zunächst ausprobieren und dann offline weiterentwickeln 
(vgl. ebd., S. 105-106). Eine Spielerin berichtete: „The character that I figured was who I 
wanted to be […] And the more I played it the more I found that it was easier to be that 
person in real life. It’s kind of like you have practice.“ („Amy“ zitiert nach Bahl 1997,  
S. 106) Sich in der wirklichen Welt auszuprobieren könne für manche Individuen 
Gefahren mit sich bringen, aber online habe man alles unter Kontrolle (vgl. Bahl 1997,  
S. 131). Allgemein hätte das Spiel mit den Rollen online einen therapeutischen Effekt 
gehabt, da man mit Problemen umgehen lernte und auch einiges über sich selbst lernen 
konnte (vgl. ebd., S. 125). 
84  Elsa-Margareta Venzmer 
In der Untersuchung werden viele Aspekte angesprochen, die auch Alan Westin formu-
lierte. Die jungen Erwachsenen haben ihre Identität noch nicht vollständig ausgebildet, 
weswegen sie zunächst Eigenschaften ihrer Persönlichkeit online in einem privaten Raum 
erproben, bevor sie diese in die wirkliche Welt übertragen. Durch die von Privatheit 
gewährleistete Autonomie wird ihnen dabei geholfen, ihre Persönlichkeit frei zu ent-
wickeln, ohne dass jemand ihr Verhalten wie in der wirklichen Welt sanktionieren könnte. 
Ohne Angst, erniedrigt zu werden, können sie mit ihren Meinungen oder Ideen online erst 
einmal experimentieren und sich so selbst finden. 
Ebenfalls wie Westin darlegte, scheinen die Interviewten auch einmal eine Pause von den 
Normen der Gesellschaft zu brauchen, wie von den Anforderungen an ein bestimmtes 
Geschlecht oder eine Nationalität, was durch die Anonymität im Internet gewährleistet 
wurde. Wenn sie Probleme in der wirklichen Welt hatten, hätten sich die User in solchen 
schwierigen Zeiten Ratschläge von neutralen Personen im Internet geholt, die ihnen 
zuhörten und die solche Informationen nicht gegen sie verwendeten. Sie konnten über ihre 
Erlebnisse im Alltag reflektieren, ohne dass sie negative Folgen zu befürchten hatten. Im 
Internet haben sie sich geschützt gefühlt und konnten ihre Ängste offenbaren. Privatheit 
kann also auch im virtuellen Raum eine therapeutische Wirkung haben und das 
Wohlbefinden stärken. Zusammenfassend hatte man im Internet schlicht, wie Westin 
hinsichtlich privater Räume darstellte, die Möglichkeit gehabt, man selbst zu sein. 
 
3.3. Das Ende der Privatsphäre 
Die Zeiten, als man sich anonym im Internet bewegen konnte, sind aufgrund der NSA-
Überwachung vorbei. So lässt sich feststellen, dass während in den Anfangsjahren des 
Internet mehr die Privatheitswerte Alan Westins praktiziert wurden, heutzutage vielmehr 
die Überwachungskonzepte von Foucault im Einsatz sind. Denn Internetnutzer und vor 
allem junge Menschen können ihre Persönlichkeit im Identitätsspielraum des Internets 
nicht mehr durch ein Gefühl der Privatheit bilden, sondern ihre Identität wird vielmehr 
durch das Gefühl des Beobachtetwerdens beeinflusst und konstruiert. 
Wie die Untersuchung von Bahl ergab, nutzten junge Menschen das Internet, um 
verschiedene Verhaltensweisen und unterschiedliche Rollen auszuprobieren, um so ihre 
Identität zu bilden. Da Menschen nach der NSA-Affäre ihr Kommunikationsverhalten nun 
nachweislich anpassen oder einschränken, scheinen sich viele User nicht länger zu trauen, 
beispielsweise ihre Meinungen oder Werte im Internet zunächst zu erproben. Da alle 
Daten von der NSA und ihren Partnern erfasst und auf unbestimmte Zeit gespeichert 
werden, hat man nicht mehr den Luxus, den Edward Snowden beschrieb, dass man auch 
einmal Fehler begehen darf oder wie es Westin ausführte, dass man seine Meinung später 
noch ändern dürfte. Denn, wie Foucault erörterte, werden Fehler von der Disziplinarmacht 
immer erfasst und möglicherweise bestraft.  
Das digitale Panopticon – Wie die NSA-Überwachung unser Verhalten verändert  85 
So bringt Maximilian Sönke Wolf das Beispiel, wenn sich jemand online politisch äußere, 
diese Einstellung (in diesem Fall von der NSA) registriert, gespeichert und bewertet 
werde. Diese digitale Identität hafte einem daraufhin ewig an, auch wenn man seine 
politische Meinung Jahre später vielleicht schon wieder geändert hat (vgl. Wolf 2015, S. 
134-135). Das wiederum könne  
„die Entwicklung der Persönlichkeit behindern, wenn der Einzelne sich im 
Kontakt mit Behörden fortwährend einem Persönlichkeitsbild ausgesetzt 
sieht, das er selbst nicht mehr als aktuell betrachtet und das es ihm verwehrt, 
die neu justierten Überzeugungen auch in dem Bild staatlicher 
Entscheidungsträger vom Selbst zu verankern.“ (ebd., S. 135) 
So haben nach einigen US-amerikanischen Studien viele Jugendliche schon einmal Dinge 
bereut, die sie im Internet posteten und würden sie gerne wieder löschen (vgl. 
Heuer/Tranberg 2013, S. 170). Sie begangen also Fehler, die sie jetzt nicht mehr 
rückgängig machen können. Eine andere Umfrage unter deutschen Nutzern zeigte, dass 
sich 80 Prozent der Befragten schon einmal mit den Privatsphäreeinstellungen von 
Sozialen Netzwerken beschäftigten. Wolf schließt daraus, dass Menschen ihre Privatheit 
letztlich wichtig sei, selbst wenn Soziale Netzwerke zur Selbstdarstellung dienten (vgl. 
Wolf 2015, S. 99). 
Das Problem ist, dass schon die primitivsten Daten Schlüsse auf z.B. die politische 
Einstellung geben können, wie Filme oder Bücher, die man konsumiert (vgl. ebd., S. 137). 
Viele Menschen geben aus solchen Gründen nachweislich falsche Informationen bei 
Sozialen Medien ein, um ihre Identität zu schützen (vgl. Heuer/Tranberg 2013, S. 29). 
Selbst bei Videospielen lassen sich von der NSA viele Daten abschöpfen, etwa von 
Gaming-Netzwerken wie World of Warcraft oder durch Konsolen, die biometrische Daten 
sammeln wie die Xbox (vgl. ebd., S. 130). Wie früher bei den MUDs kann man also 
heutzutage nicht länger frei mit Rollen spielen, ohne Angst zu haben, dass diese Daten in 
Datenbanken der Geheimdienste landen. Aufgrund von Überwachung kann man also 
seinen Freizeitinteressen am Ende nicht mehr nachgehen und sich auch nicht mehr mit 
anderen Menschen über seine Interessen austauschen. Man kann Werte und 
Verhaltensweisen nicht länger ausprobieren und mit anderen Usern vergleichen, um seine 
Identität zu bilden. 
Weiter besteht nun die Gefahr, dass sich Menschen im Internet eventuell keine Ratschläge 
von anderen Usern mehr einholen, wenn sie denken, dass die Informationen gegen sie 
verwendet werden können. Menschen, die depressiv sind, suchen vielleicht online keine 
Hilfe mehr, da sie nicht wollen, dass der Staat zu viele intime Details über sie weiß, sie 
klassifiziert oder die Informationen für andere Zwecke wiederverwendet werden. Denn 
selbst durch Pseudonyme kann man sich im Internet inzwischen nicht mehr 
anonymisieren. Die NSA kann problemlos die IP-Adresse eines Users und somit seine 
Identität herausfinden (vgl. Wolf 2015, S. 63-64). 
86  Elsa-Margareta Venzmer 
Wie Westin ansprach, diene Privatheit auch dazu, dass man Druck aus dem Alltag 
abbauen kann, etwa den Druck, der durch gesellschaftlich vorgeschriebene Normen oder 
Rollen entsteht. Wenn man im Internet diesen Druck nicht mehr abbauen kann, wie bei 
den oben genannten Beispielen, indem man sein wahres Ich auslebt oder sich in 
schwierigen Zeiten Hilfe sucht, steht man emotional permanent unter Druck. So kann das 
Gefühl, dass man zu jeder Zeit beobachtet werden kann, nachweislich psychische Schäden 
verursachen, wie Angstzustände oder Unsicherheit (vgl. Heuer/Tranberg 2013, S. 25). Mit 
den Worten Bahls können Soziale Medien nun nicht länger therapeutisch wirken.  
Ein weiterer Nachteil der staatlichen Überwachung ist, dass User im Sinne des 
Privatheitsforschers auch nicht mehr die Freiheit haben, im Internet Autoritäten wie z.B. 
Politiker zu kritisieren. Da man nicht weiß, wo Terrorismus für die Regierung anfängt, 
schränkt man sich vorsichtshalber selbst ein und behält seine Meinungen für sich. Durch 
das Einüben solcher Verhaltensregeln und Normierungen würden nach Foucault 
schließlich widerstandslose Individuen entstehen (vgl. Sarasin 2005, S. 137), die alle 
derselbe Typ von Mensch sein sollen (vgl. Schröder 2010, S. 37), also ohne jegliche 
Individualität. 
Man könnte argumentieren, dass Menschen auch in anderen privaten Räumen als dem 
Internet weiterhin ihre Identität bilden können. Bei jungen Menschen ist das Internet 
allerdings nachweislich Teil des Alltags und eine der beliebtesten Freizeitaktivitäten (vgl. 
Rövekamp 2016), weswegen es für die Persönlichkeitskonstruktion von großer Bedeutung 
ist. Wenn sie das Gefühl bekommen, dass ihr Verhalten dort jederzeit überwacht und auf 
unbegrenzte Zeit gespeichert werden kann, werden sie sich der Norm anpassen und nicht 
länger ihre Individualität ausleben. Indem sie online mit ihrem fiktiven Ich nicht mehr 
experimentieren können, haben sie vielleicht nicht den Mut, in der wirklichen Welt so zu 
sein, wie sie sein wollen. Dadurch wird ihr Verhalten und darüber hinaus ihre Identität im 
Sinne Foucaults von einer äußeren Macht gebildet und kontrolliert (vgl. Schröder 2010, S. 
30). Die Autonomie, von der Westin sprach, wird beschädigt, da User jetzt von anderen 
dominiert und manipuliert werden können, etwa weil die NSA alle ihre Geheimnisse, 
Wünsche und Ängste kennt. Die Nutzer können demnach nicht mehr darüber entscheiden, 
wer ihre intimsten Posts sehen darf und wie sie verwendet werden, wenn die NSA ohnehin 
komplett alles sammelt und Informationen auch manipulieren kann. 
So ist aus den Snowden-Unterlagen ersichtlich, dass der britische NSA-Partner 
Government Communications Headquarters (GCHQ) unter anderem Psychologen für die 
Entwicklung von Techniken einsetzt, deren Ziel die strategische Einflussnahme im 
Internet sein soll. So denken die GCHQ-Mitarbeiter, dass sich menschliches Verhalten im 
Internet durch Anpassung, Spiegelung oder Mimikri steuern lasse, also dass User andere 
User nachahmen. Dadurch können Geheimdienstmitarbeiter Online-Plattformen wie 
Soziale Netzwerke infiltrieren, andere Nutzer täuschen sowie deren Verhalten 
beeinflussen, indem sie sie z.B. zu Straftaten anstacheln. Methoden zur Rufschädigung 
Das digitale Panopticon – Wie die NSA-Überwachung unser Verhalten verändert  87 
oder Manipulation sind bei Geheimdiensten also nicht nur möglich, sondern werden 
bereits angewendet (vgl. Greenwald 2015, S. 283-284). 
Es lässt sich zusammenfassen, dass man sich vor der NSA-Überwachung im Internet frei 
und privat bewegen konnte, ohne dass jemand wusste, wer oder wo man ist. Heutzutage ist 
es so, wie Foucault es bezüglich der Disziplin formulierte, dass die NSA immer weiß, wo 
und auf welche Weise jemand gefunden werden kann. Niemand ist mehr anonym und 
kann sich ihrem vollkommenen Auge entziehen. 
 
4. Die Ethik des Selbst als Ausweg? 
 
In Überwachen und Strafen resümiert Foucault, dass wir alle „in das Räderwerk der 
panoptischen Maschine [eingeschlossen sind], die wir selber in Gang halten – jeder ein 
Rädchen.“ (Foucault 1989, S. 279) In seinen späteren Werken entwickelt er schließlich 
eine Lösung, wie man aus diesem Kreislauf, dass Individuen durch Überwachung und 
Korrigierung immer wieder aufs Neue hervorgebracht werden (vgl. ebd., S. 41-42), 
ausbrechen könne und schlägt die so genannte Sorge um sich bzw. Ethik des Selbst vor 
(vgl. Sarasin 2005, S. 192-193). 
Diese ist an die antike Ethik angelegt, die aber mit der Moderne gewisse Gemeinsamkeiten 
habe (vgl. Ruffing 2008, S. 99). „Heute wie damals brach eine Welt zusammen, damals 
die Poliswelt, gegenwärtig die Welt der kodifizierten Werte. Die Menschen mussten und 
müssen sich neu orientieren“ (ebd., S. 99), fasst Reiner Ruffing zusammen. Die Menschen 
müssten deswegen sich selbst und ihre Sicht- und Verhaltensweisen ändern. (vgl. ebd.,  
S. 99) „Wir müssen neue Formen der Subjektivität zustande bringen, indem wir die Art 
von Individualität, die man uns jahrhundertelang auferlegt hat, zurückweisen“, so 
Foucault. (Foucault zitiert nach Sarasin 2005, S. 192). Man müsse sich also gegen eine 
Macht wie den Panoptismus, der das Verhalten und die Identitätsbildung beeinflusst, 
wehren. Denn eine Ethik des Selbst bzw. die Beziehung zu sich selbst könne eine Form 
des Widerstands gegen politische (vgl. Sarasin 2005, S. 195) sowie normierende Macht 
sein (vgl. Ruoff 2009, S. 53). Das heißt für ihn konkret, dass das Subjekt die Differenz 
zwischen sich und dem, was es sein soll, erkennen muss und sich durch Selbstpraktiken als 
ein sich selbst bewusstes und handelndes Subjekt konstituiert (vgl. Sarasin 2005, S. 196). 
Nur so könne es individuell sein Leben gestalten (vgl. Ruffing 2008, S. 65). Die 
Autonomie des Individuums steht nun also im Mittelpunkt (vgl. Ruoff 2009, S. 53). 
Hinsichtlich der NSA-Überwachung würde das bedeuten, dass die Menschen zunächst 
erkennen müssten, dass sie durch das Gefühl des Beobachtetwerdens beeinflusst werden 
und ihr Verhalten unfreiwillig einschränken. Denn, wie bereits erwähnt, scheint diese 
Begrenzung der eigenen Freiheiten manchmal unterbewusst zu geschehen. Sie müssten 
also nach Foucaults Ratschlag verstehen, dass sie normiert werden und dass es einen 
88  Elsa-Margareta Venzmer 
Unterschied zwischen ihrem wirklichen Ich und ihrem durch Überwachung normalisierten 
Ich gebe. Dazu müssten sie den Panoptismus zurückweisen und der Selbstdisziplinierung 
gezielt entgegensteuern, indem sie sich so verhalten, wie sie sich zu Hause ohne einen 
Beobachter verhalten würden. Nach Foucault müsse man ständig an sich selbst arbeiten 
(vgl. ebd., S. 60), um Veränderungen herbeiführen zu können (vgl. ebd., S. 54). Bei der 
Sorge um sich geht es also um eine Verschränkung von Denken und Handeln (vgl. ebd.,  
S. 199). 
So gehören beispielweise manche Menschen Netzbewegungen an, deren Devise es ist, 
völlig transparent zu leben. Einer davon ist Hasan Elahi. Dieser wurde aufgrund eines 
Fehlers auf eine Anti-Terrorismus-Merkliste der US-amerikanischen Regierung einge-
tragen und entschied sich daraufhin dazu, mit ungewöhnlichen Mitteln dagegen 
anzukämpfen. Denn er teilt seitdem jede noch so winzige Kleinigkeit seines Lebens, 
indem er inzwischen 46.000 Fotos online postete wie Fotos von seinem Essen oder von 
Toiletten. Durch diese Aktion hat er nun das Gefühl, die Kontrolle über seine Privatsphäre 
zu haben. Er denkt, wenn viele Menschen es ihm nachmachen würden, müssten sich 
Nachrichtendienste neu erfinden. Denn durch so eine immense Datenflut würden die 
Rechner der Sicherheitsbehörden ausgelastet, sodass Geheimdienste abgeschafft würden 
(vgl. Heuer/Tranberg 2013, S. 33-34). 
Das wäre das extremste Szenario der Ethik des Selbst. Es würde aber auch ausreichen, 
wenn Internetnutzer ihre Rechte nicht selbst einschränken, um sich aus ihrer eigenen 
Unmündigkeit zu befreien und so zu einer gesunden Demokratie beizutragen. Denn, wenn 
die NSA merkt, dass Menschen sich von der Überwachung nicht beeindrucken und 
beeinflussen lassen, würde sie ihre Praktiken vielleicht begrenzen. So könnte das eigene 
Handeln zu Veränderungen in der Gesellschaft führen. 
Man könnte die Sorge um sich aus heutiger Sicht allerdings auch so interpretieren, dass 
sich Menschen selbst vor Überwachung schützen sollen. Indem sich User anonym im Netz 
bewegen, können sie sich der Geheimdienstüberwachung zum Teil entziehen und die 
Spionage nicht mehr wahrnehmen, sodass sie ihr Verhalten nicht einschränken müssen. 
Zwar denken viele Menschen, dass die Macht der Geheimdienste und IT-Unternehmen so 
groß ist, dass man gegen sie sowieso nichts ausrichten könne (vgl. Schaar 2014, S. 256). 
Allerdings machen es sorgfältig eingesetzte Verschlüsselungsverfahren den Spionen 
schwerer, die Daten mitzulesen. 
Um etwa seinen Datenverkehr im Internet zu verschlüsseln, gibt es den Tor-Browser, mit 
dem die eigene IP-Adresse und somit der Standort verschleiert wird. Da die US-
amerikanische Bürgerrechtsorganisation Electronic Frontier Foundation (EFF) ermittelte, 
dass vor allem der Browser viele Auskünfte über die eigene Identität gibt, ist die Wahl des 
Browsers von Bedeutung. Nach Snowdens Dokumenten hatte die NSA zudem wenig 
Erfolg damit, das Tor-Netzwerk zu brechen (vgl. Schartner 2014, S. 154 ff.). Eine ähnliche 
Möglichkeit der Anonymisierung bieten Proxy-Server. Hier werden die Daten nicht über 
das eigene Gerät versendet, sondern sie werden zuerst an einen Proxy-Server geschickt, 
Das digitale Panopticon – Wie die NSA-Überwachung unser Verhalten verändert  89 
der mit seiner IP-Adresse die Daten dann an den Empfänger weiterleitet, also an die 
aufgerufene Webseite (vgl. ebd., S. 158). 
Nach Snowden sollte man zudem Firmen unterstützen, die sich für Datenschutz einsetzen 
(vgl. Gurnow 2014, S. 281). Da vor allem durch PRISM viele Informationen gespeichert 
werden, kann man dieser Spionage entgehen, wenn man Dienste wie Facebook oder 
Google meidet, die sich direkt durch die Datensammlung ihrer Nutzer finanzieren (vgl. 
Schaar 2014, S. 267). So haben sich einige Webseiten zum Ziel gesetzt, Alternativen zu 
den großen Plattformen vorzustellen, etwa die Webseite Prism-Break.org. Hier werden 
Dienste aufgelistet, die keine Daten loggen, wie z.B. die Suchmaschine DuckDuckGo als 
Alternative zu Google, das Soziale Netzwerk Diaspora anstelle von Facebook oder das 
Betriebssystem Linux als Gegenvorschlag zu Windows (vgl. Zhong 2021). 
Glenn Greenwald (vgl. Greenwald 2015, S. 367) betont, indem man IT-Unternehmen, die 
mit der NSA zusammenarbeiten, umgeht, übe man Druck auf diese Konzerne aus, diese 
Zusammenarbeit abzubrechen. Zudem motiviere man deren Mitbewerber dem Daten-
schutz einen hohen Stellenwert einzuräumen. Dass die informationelle Selbstverteidigung 
wirkt, sieht man an den finanziellen Verlusten, die die Silicon Valley-Giganten kurz nach 
der NSA-Affäre erlitten hatten (vgl. Rosenbach/Stark 2015, S. 297). Und auch Snowden, 
obwohl ihm bewusst ist, dass die NSA immer an neuen Wegen arbeitet, Verschlüsse-
lungen zu knacken (vgl. Gurnow 2014, S. 281), sagt, dass Verschlüsselung funktioniert: 
„Wenn sie richtig eingesetzt werden, gehören starke Kryptographiesysteme zu den 
wenigen Dingen, auf die man sich verlassen kann.“ (Snowden zitiert nach Harding 2014, 
S. 178) Und wenn es jemand weiß, dann er. 
Diese Sorge um sich bzw. Technologien des Selbst, die Foucault herausarbeitete, hätten 
bei erfolgreicher Anwendung letztendlich drei Dinge vollbracht. Erstens finde man sich 
selbst und seinen Platz in der Welt. Zweitens könne man immer die Wahrheit sprechen, 
also müsse man sich selbst nicht zurücknehmen. Und drittens gebe es keine Instanz mehr, 
die dem Subjekt sage, was es zu tun hätte. Denn diese Instanz sei es nun selbst (vgl. 
Sarasin 2005, S. 199). Ohne das Gefühl des Überwachtwerdens könnten Menschen also 
völlig frei ihre eigene Identität bilden, ihre Meinungsfreiheit ausleben und zu einem 
autonom handelnden Subjekt werden. Nach Foucault kann das Subjekt schließlich nicht 
nur durch Unterwerfung konstituiert werden, sondern auch durch Praktiken der Befreiung 
(vgl. Ruffing 2008, S. 111). 
 
 
 
 
 
90  Elsa-Margareta Venzmer 
Literatur  
 
Ammann, Thomas & Aust, Stefan (2015): Digitale Diktatur. Totalüberwachung, Datenmiss-
brauch, Cyberkrieg. Berlin: Ullstein Buchverlage. 
Bahl, Anke (1997): Zwischen On- und Offline. Identität und Selbstdarstellung im Internet. 
München: KoPäd. 
Beuth, Patrick (2013): Snowden-Enthüllungen. Alles Wichtige zum NSA-Skandal. ZEIT 
ONLINE. 28. Oktober 2013. Abgerufen unter:  
 https://www.zeit.de/digital/datenschutz/2013-10/hintergrund-nsa-skandal [Stand vom 08-
05-2021]. 
Blumer, Tim (2013): Persönlichkeitsforschung und Internetnutzung. Ilmenau: Universitäts-
verlag Ilmenau. 
E-Mail, Facebook, SMS und Co. Ständige Überwachung führt zur Selbstzensur im Internet. 
(2016): Forschung und Wissen. 28. Januar 2016. Abgerufen unter:  
 https://www.forschung-und-wissen.de/nachrichten/psychologie/staendige-ueberwachung-
fuehrt-zu-selbstzensur-im-internet-13372255 [Stand vom 08-05-2021]. 
Foucault, Michel (1989): Überwachen und Strafen. Die Geburt des Gefängnisses. Frankfurt am 
Main: Suhrkamp. 
Greenwald, Glenn (2015): Die globale Überwachung. Der Fall Snowden, die amerikanischen 
Geheimdienste und die Folgen. München: Droemer. 
Gurnow, Michael (2014): The Edward Snowden Affair. Exposing the Politics and Media 
Behind the NSA Scandal. Indianapolis: Blue River Press. 
Harding, Luke (2014): Edward Snowden. Geschichte einer Weltaffäre. London: Weltkiosk. 
Henschke, Adam (2017): Ethics in an Age of Surveillance. Personal Information and Virtual 
Identities. Cambridge: Cambridge University Press. 
Heuer, Steffan & Tranberg, Pernille (2013): Mich kriegt ihr nicht! Die wichtigsten Schritte zur 
digitalen Selbstverteidigung. Hamburg: Murmann Verlag. 
Jonjic-Beitter, Andrea (2016): Studie: Online-Überwachung bringt abweichende Meinungen 
zum Schweigen. Netzpolitik. 22. März 2016. Abgerufen unter:  
 https://netzpolitik.org/2016/studie-online-ueberwachung-bringt-abweichende-meinungen-
zum-schweigen/ [Stand vom 08-05-2021]. 
Kleinhans, Jan-Peter (2013): Minority Reports ‘Precrime’ ist das Ziel des MI5 Director 
General Andrew Parker. In: Beckedahl, Markus & Meister, Andre (Hrsg.): Überwachtes 
Netz. Edward Snowden und der größte Überwachungsskandal der Geschichte. Berlin: 
Newthinking Communications, S. 101-106. 
Kleinz, Torsten (2016): Studie zu Chilling Effects: Wikipedia-Artikel zu Terrorismus werden 
weniger gelesen. heise online. 27. April 2016. Abgerufen unter:  
 https://www.heise.de/newsticker/meldung/Studie-zu-Chilling-Effects-Wikipedia-Artikel-
zu-Terrorismus-werden-weniger-gelesen-3191301.html [Stand vom 08-05-2021]. 
Das digitale Panopticon – Wie die NSA-Überwachung unser Verhalten verändert  91 
Kolkmann, Thomas (2016): Chilling Effects: Führt Überwachung zur Selbstzensur? GIGA.  
21. März 2016. Abgerufen unter: https://www.giga.de/extra/ratgeber/specials/chilling-
effects-fuehrt-ueberwachung-zur-selbstzensur/ [Stand vom 08-05-2021]. 
Rosenbach, Marcel &Stark, Holger (2015): Der NSA Komplex. Edward Snowden und der Weg 
in die totale Überwachung. Hamburg: SPIEGEL-Verlag. 
Rötzer, Florian (2016): Wie beeinflusst das Wissen über Überwachung die Online-
Kommunikation? heise online. 02. April 2016. Abgerufen unter:  
 https://www.heise.de/tp/features/Wie-beeinflusst-das-Wissen-ueber-Ueberwachung-die-
Online-Kommunikation-3379369.html [Stand vom 08-05-2021]. 
Rövekamp, Marie (2016): Freizeitverhalten von Jugendlichen. Sie chatten mehr und lesen 
weniger. DER TAGESSPIEGEL. 16. November 2016. Abgerufen unter: 
 https://www.tagesspiegel.de/wirtschaft/freizeitverhalten-von-jugendlichen-sie-chatten-
mehr-und-lesen-weniger/14851782.html [Stand vom 08.05.2021]. 
Ruffing, Reiner (2008): Michel Foucault. Paderborn: Wilhelm Fink. 
Ruoff, Michael (2009): Foucault-Lexikon. Entwicklung – Kernbegriffe – Zusammenhänge. 
Paderborn: Wilhelm Fink. 
Sarasin, Philipp (2005): Michel Foucault zur Einführung. Hamburg: Junius Verlag. 
Schaar, Peter (2014): Überwachung total. Wie wir in Zukunft unsere Daten schützen. Berlin: 
Aufbau Verlag. 
Schartner, Götz (2014): Vorsicht, Freund liest mit! Wie wir alle seit Jahren ausspioniert 
werden und wie wir uns wehren können. Kulmbach: Plassen Verlag. 
Schneider, Ulrich Johannes (2004): Michel Foucault. Darmstadt: Wissenschaftliche 
Buchgesellschaft. 
Schröder, Bernhard (2010): Identität im historischen Wandel aus machttheoretischer 
Perspektive. Hamburg: Diplomica Verlag. 
Schulz, Daniel (2007): Staatliche Überwachung. „Man passt sich an und merkt es nicht“. taz. 
31. Oktober 2007. Abgerufen unter: https://www.taz.de/!5192484/ [Stand vom 08-05-
2021]. 
Steinschaden, Jakob (2014): „Der Chilling Effect“: Massenüberwachung zeigt soziale Folgen. 
Netzpiloten Magazin. 07. April 2014. Abgerufen unter: https://www.netzpiloten.de/der-
chilling-effect-massenueberwachung-zeigt-soziale-folgen/ [Stand vom 08-05-2021]. 
Westin, Alan F. (1970): Privacy and Freedom. New York: Atheneum. 
Wolf, Maximilian Sönke (2015): Big Data und Innere Sicherheit. Grundrechtseingriffe durch 
die computergestützte Auswertung öffentlich zugänglicher Quellen im Internet zu Sicher-
heitszwecken. Marburg: Tectum Verlag. 
Zhong, Peng (2021): All Projects. PRISM BREAK. 20. Januar 2021. Abgerufen unter: 
https://prism-break.org/en/all/ [Stand vom 08-05-2021]. 
  

Datenpolitiken ‚von unten‘ zwischen Aktivismus und 
Politischer Medienbildung 
Valentin Dander 
 
Zusammenfassung  
Datenpolitiken werden in diesem Beitrag denkbar weit gefasst. Unter Datenpolitiken ‚von oben‘ 
werden kapitalistische und staatliche Datenpolitiken sowie hybride Formen verstanden. 
Datenaktivismus wird beispielhaft für Datenpolitiken ‚von unten‘ eingeführt und in reaktive und 
proaktive Praktiken und Taktiken differenziert, die reaktiv auf verschiedenen Ebenen auf 
Datenschutz zielen und/oder proaktiv in thematisch weiterreichende politische Projekte 
eingebettet sind. Für datenaktivistische Praktiken erweisen sich zahlreiche Fähigkeiten als 
bedeutsam, die in unterschiedlichen Ausprägungen als (Critical Big) Data Literacy/-ies modelliert 
werden. Diese verweisen auf die Schnittstelle von Politischer und Medienbildung in datafizierten 
Gesellschaften und münden im Text mit Gert Biesta in der Skizze eines Ignorant Digital/Data 
Citizen als erstrebenswerte politische Subjektfigur, die es vermag, zwischen universellem 
Gleichheitsstreben und weitgehender Unbestimmtheit zu vermitteln. 
 
1. Einleitung 
 
Bereits seit knapp 10 Jahren wird das Thema Big Data Analytics, die damit 
einhergehenden Überwachungs- und Ausbeutungspraktiken sowie die Verschränkungen 
mit automatisierten, algorithmischen Prozessen und den auf vielfache Weise in sie 
eingeschriebenen Diskriminierungsformen wissenschaftlich thematisiert. Unterschiedliche 
Fachdisziplinen rücken unterschiedliche Aspekte in den Vordergrund. Sie eint dabei eine 
fundamentale Kritik an den damit verbundenen hegemonialen, quantifizierenden Wissens- 
und Subjektivationsformen, an der Hervorbringung neuer wie auch der Verstärkung 
bestehender Ungleichheiten, Machtasymmetrien und Herrschaftsformen. Dieser Komplex 
wird im Folgenden als Datenpolitiken von oben bezeichnet. Der vorliegende Beitrag 
nimmt in einer selektiven Skizze von einigen dieser Debattenstränge seinen Ausgang 
(Kap. 2) und sodann eine Verschiebung vor: zunächst zu Datenpolitiken von unten  
(Kap. 3), worunter individuelle und kollektive, im weitesten Sinne politische 
Datenpraktiken verstanden werden. 
Welche datenbezogenen pädagogischen Konzeptionen hierfür relevante Kategorien 
darstellen können, wird im darauffolgenden Kapitel 4 dargelegt. Verschiedene Varianten 
von Data Literacy unterscheiden sich in ihrem politischen Anspruch mitunter deutlich von 
(Critical Big) Data Literacy/-ies, welche stärker auf demokratische Selbst- und 
Mitbestimmung abheben und entsprechend friktionsfreier mit Digital Citizenship 
94  Valentin Dander 
zusammengedacht werden könnten. Inwieweit Konzeptionen eines Digital Citizen gedacht 
werden können, ohne auf Kompetenzmodelle beschränkt zu sein oder depolitisierende 
Festschreibungen vorzunehmen, skizziert abschließend Kapitel 5. 
 
2. Datenpolitiken ‚von oben‘: hybride Konstellationen zwischen  
Unternehmen und Staat 
 
Wenn in diesem Artikel von ‚Datenpolitiken‘ die Rede ist, so bezieht sich dieser Ausdruck 
keineswegs nur auf ein enges Verständnis von Praktiken im Rahmen politischer 
Institutionen, des demokratischen bzw. des Parteiensystems. Der Text folgt stattdessen 
einem umfassenden Verständnis von ‚Datenpolitiken‘ insofern, als darüber hinaus alle 
datenbezogenen Praktiken verstanden werden, die sich auf die Konstitution, die 
Gestaltung, die Produktion und Reproduktion aller möglichen Aspekte des sozio-
technischen und politischen Lebens beziehen – insbesondere aber auch auf ‚das 
Politische‘, also verkürzt gesprochen auf dissensuale Infragestellungen der Konturen von 
‚Politik‘ (vgl. Bröckling/Feustel 2012; Mouffe 2015, S. 22–23).1 Dieser breit angelegte 
Zugang umfasst den Beschluss der EU-Datenschutzgrundverordnung (DSGVO) genauso 
wie außerparlamentarische netzpolitische Initiativen, Tracking durch Online-Plattformen 
oder den einen Klick, der beim Besuch einer Website nicht-essenzielle Cookies ablehnt. 
Ruppert, Isin und Bigo (2017, S. 2) konstatieren: “[D]ata and politics are inseperable. Data 
is not only shaping our social relations, preferences, and life chances but our very 
democracies.” 
Ebenso bezieht sich ein solches Verständnis auf grundlegende Fragen des Wissens (bzw. 
des Wissbaren) und der Erkenntnis, die im Zusammenhang mit Praktiken des 
Datensammelns und -auswertens einhergehen. Hier setzen erste Kartierungen und 
Analysen dessen ein, was im sich stets verschiebenden Diskurs mit Big Data, 
Algorithmisierung, Künstliche Intelligenz (KI bzw. Artificial Intelligence, AI), Machine 
Learning etc. beschrieben wird. Auch wenn damit jeweils spezifische Aspekte in den 
Vordergrund gerückt werden, befassen sie sich mit einem thematischen Komplex, in 
welchem das eine das andere bedingt (vgl. Dander 2018, S. 21 ff.). Während eine technik-
fokussierte Perspektive zum einen einer IT- und Ingenieurslogik folgt und zum anderen 
                                                        
1  So schreibt etwa Oliver Marchart (2005, S. 19; Herv. im Original): „Ich schlage also vor, eine 
analytische Unterscheidung zu treffen zwischen ‚Polizei‘, Politik und dem Politischen, oder im 
Englischen: policy, politics und the political“ und präzisiert die Differenzierung: „Politik als Debatte, 
d.h. als Form der antagonistischen Austragung des Politischen, von Politik als Teilsystem der 
Gesellschaft und schließlich von Politik als regulatorischem Verwaltungshandeln, also im Sinne von 
Politikfeldadministration (policy).“ Genau genommen bezieht der Ausdruck ‚Datenpolitiken‘ im 
vorliegenden Text alle drei Bereiche ein. 
Datenpolitiken ‚von unten‘ zwischen Aktivismus und Politischer Medienbildung 95 
mehr oder minder bewusst von einer Ideologie der technischen Lösbarkeit gesellschaft-
licher Probleme durchzogen ist (vgl. etwa Morozov 2014; Nachtwey/Seidl 2017), richten 
sich (kritische) sozial- und kulturwissenschaftliche Perspektiven u.a. auf die Dimensionen 
Kontext, Macht/(soziale) Gerechtigkeit, Ideologie oder Mythologie (vgl. Boyd/Crawford 
2012, S. 663), Praxis oder politische Handlungsoptionen. 
Die Wirksamkeit all dieser Datenpolitiken lässt sich an medienkulturellen Entwicklungen 
ablesen, die Ramon Reichert (vgl. 2014) mit Blick auf den kommerziellen Sektor von 
Datenpolitiken am Beispiel von Social Media Plattformen und Suchmaschinen beschreibt: 
Eine „algorithmische Prognostik kollektiver Prozesse“ (ebd., S. 40) bildet hierbei die eine 
Seite, während auf der anderen Seite Personalisierung erfolgt. Statistische Auswertungen 
bzw. prognostische Modellierungen von ‚Massen‘ sowie identifizierbare Einzeldatensätze 
und ihre Analysen ankern im „Profiling“ und den dabei generierten Profilen. Einzelne 
Nutzende der Anwendungen finden sich darin als Individuen und als geteilte Zugehörige 
von multiplen, dynamischen Profilkategorien wieder (vgl. ebd.). 
Die lange Tradition staatlicher Regierungskünste, in welche sich diese statistischen 
Methoden einschreiben, skizzierte Michel Foucault (vgl. 2004, S. 152–157) bereits 1978. 
So entwickelte sich die Statistik ab dem späten 16. Jahrhundert zu einer tragenden Säule 
staatlicher Wissenstechniken. Sie erlaubte es, das „Problem der Bevölkerung“ (ebd.,  
S. 157) zu quantifizieren, ihren Zustand und ihre Handlungen zu erfassen, zu analysieren 
und das Regierungshandeln daran auszurichten (vgl. ebd.). 
An Beispielen wie Facebook oder Google wird jedoch deutlich, dass gegenwärtige 
Datenpolitiken zu großen Teilen von nicht-staatlichen Akteuren vollzogen werden, 
während sich staatliche Agenturen in antagonistischer (z.B. Gesetzgebung oder 
Rechtsprechung für Datenschutz), teil-abhängiger (z.B. Strafverfolgungsbehörden, die 
Daten/sätze von Unternehmen anfordern) oder regulierender (z.B. DSGVO) Position 
befinden.2 
Wir haben es demnach mit zwei sich teilweise überlagernden Ebenen von Datenpolitiken 
zu tun: Zum einen werden Prozesse der Kapitalisierung, der Enteignung, Kommodi-
fizierung und des In-Wert-Setzens von Daten und ihren Beziehungen analytisch in den 
                                                        
2  Wie am aktuellen „Gesetz zur Änderung des BND-Gesetzes“ von April 2021 (vgl. Bundestag der 
BRD 2021) und insbesondere an dessen Kritik deutlich wird (vgl. etwa die Stellungnahme des DAV – 
Deutscher Anwaltverein 2021), wird seitens des Staates eine Ausweitung der Befugnisse der 
Geheimdienste und Strafverfolgungsbehörden (hier etwa des BND, Bundesnachrichtendienst) 
betrieben – inklusive der Überwachung weltweiter Telekommunikation und der umstrittenen 
Datenspeicherung. Demokratische Kontrolle und Rechenschaftspflichten werden hierbei 
vernachlässigt. Dies gilt auch für einen Regierungsentwurf vom Januar 2021, welcher in einem 
„Gesetz zur Fortentwicklung der Strafprozessordnung (StPO)“ deutlich erweiterte Möglichkeiten für 
Online-Durchsuchungen (auch Staats- oder Bundestrojaner genannt) durch ermittelnde BeamtInnen 
vorsieht (vgl. Kurz 2021). 
96  Valentin Dander 
Blick genommen und in entsprechende Konzeptionen umgemünzt, die vorrangig die 
ökonomischen Ebene und damit privatwirtschaftliche Akteure beschreiben und kritisieren. 
Zum anderen werden staatliche Datenpolitiken analysiert und kritisiert, die in der 
Verwaltung und Kontrolle verschiedener gesellschaftlicher Felder zum Einsatz kommen 
und ihre Macht entfalten – neben Sicherheitstechnologien und Strafverfolgung beziehen 
sich diese z.B. auf das Sozial-, Gesundheits- und Bildungssystem, auf Migrationspolitik 
oder auch auf bereichsübergreifende Kontroll- und Disziplinierungsmaßnahmen. 
 
2.1. Kapitalistische Datenpolitiken 
Beispielhaft für kapitalistische Datenpolitiken kann hier etwa das vielzitierte Konzept des 
„Überwachungskapitalismus“ von Shoshana Zuboff (2019) genannt werden, welches sie 
u.a. als “rogue mutation of capitalism” definiert (ebd., S. 8). Die Gesamtheit des 
Überwachungs- und Verwertungsdispositivs (“ubiquitious digital apparatus”) bezeichnet 
sie in Abwandlung des Orwell’schen Big Brother als “Big Other” (ebd., S. 353) und 
bezeichnet hiermit die oben angesprochene Verschiebung von staatlicher zu 
privatwirtschaftlicher Überwachung in unmittelbaren Diensten des Kapitals: 
“it is the sensate, computational, connected puppet that renders, monitors, 
computes, and modifies human behavior. Big Other combines these 
functions of knowing and doing to achieve a pervasive and unprecedented 
means of behavioral modification. Surveillance capitalism’s economic logic 
is directed through Big Other’s vast capabilities to produce instrumentarian 
power, replacing the engineering of souls with the engineering of behavior.” 
(ebd.)3 
Eine ähnliche Stoßrichtung findet sich im Buch “The costs of connection” von Nick 
Couldry und Ulises A. Mejias (2019). Die Autoren argumentieren, dass die auf Wert-
schöpfung gerichteten Prozesse der Datensammlung und -auswertung als Daten-
kolonialismus bezeichnet werden können: 
“Data relations […] are new types of human relations that give corporations 
a comprehensive view of our sociality, enabling human life to become an 
input or resource for capitalism. In this neocolonial scheme, the colony is not 
a geographic location but an ‘enhanced reality’ in which we conduct our 
social interactions under conditions of continuous data extraction. The 
resources that are being colonized are the associations, norms, codes, 
knowledge, and meanings that help us maintain social connections, the 
                                                        
3  Auch unabhängig von der durchaus problematischen Marionetten-Metaphorik wurde einige Kritik an 
Zuboffs Ansatz geübt. Darauf kann hier aus Platzgründen nicht weiter eingegangen werden (vgl. etwa 
di Bella 2019). 
Datenpolitiken ‚von unten‘ zwischen Aktivismus und Politischer Medienbildung 97 
human and material processes that constitute economic activity, and the 
space of the subject from which we face the social world.” (ebd., S. 85) 
Couldry und Mejias sind sich der Unterschiede zum historischen Kolonialismus und zu 
dessen rassistischen, sexistischen und eurozentristischen Dimensionen bewusst, die im 
Datenkolonialismus auf andere Weise zum Tragen kommen, und nehmen diese Differenz 
in ihrer Beschreibung von Datenextraktion als Datenkolonialismus in Kauf (ebd., S. 45).4 
Die damit einhergehende, neue Bedeutungsebene von “digital natives”, die zum Objekt 
datenkolonialistischer Praktiken und Strukturen gemacht werden (ebd., S. 111; Herv. im 
Original), trägt diese Einschränkung in der metaphorischen Übertragung ebenfalls in sich. 
Im Grunde beschreiben die Autoren einen Prozess, der in der Terminologie einer 
Kritischen Politischen Ökonomie als „[i]mperialistische Expansion“ in Richtung eines 
nichtkapitalistischen Außens (Luxemburg 1970, S. 754 ff.) oder später als „neue 
Landnahme“ (Dörre 2009) bezeichnet werden kann. Anstatt anderer Weltregionen geraten 
bisher nicht warenförmige Aspekte von Sozialverhalten, Gefühlen oder sozialen 
Beziehungen in den Fokus der Kapitalakkumulation.5 
 
2.2. Staatliche Datenpolitiken 
Staatliche Datenpolitiken werden im Unterschied zu den oben genannten Arbeiten 
insbesondere im Zusammenhang mit staatlichem Überwachungs-, Kontroll- und 
Verwaltungshandeln beschrieben, welches in verschiedenen gesellschaftlichen Teilbe-
reichen oder Feldern unter Zuhilfenahme von Datenbanken und Analysesoftware 
vollzogen wird. Auch hier wird im Folgenden beispielhaft dargelegt, wie diese staatlichen 
Datenpolitiken konzeptionell-analytisch gefasst und wie sie dadurch problematisiert 
werden. 
Das wohl eindrücklichste Ereignis in dieser Hinsicht waren die Snowden-Leaks im Juni 
2013, die ein weltweites Netz geheimdienstlicher Spionage in einem bisher nur erahnten 
Ausmaß offenbarten (vgl. etwa Beckedahl/Meister 2013; Himmelsbach 2015). Anstatt 
dass dieser Skandal zu Beschränkungen geheimdienstlicher Befugnisse geführt hätte, 
wurde im Gegenteil festgestellt, dass die rechtlichen Grundlagen dem rechtlich zuvor 
fraglichen Vorgehen angepasst werden. Mit Blick auf polizeiliche Überwachungs- und 
Ermittlungsmaßnahmen lässt sich ein ähnliches Bild zeichnen: Das prognostische 
Versprechen von KI und der automatisierten Auswertung von großen Datenmengen ist 
unter dem Titel „Predictive Policing“ auch in Deutschland im Einsatz, es wird mit 
automatischer Gesichtserkennung experimentiert (vgl. Galla 2020; Meyer 2020) und auch 
                                                        
4  Zu post-/kolonialen Datenregimes im gängigen Wortsinn vgl. den Beitrag von Isin & Ruppert (2019). 
5  Bei Dander (2020) findet sich eine Einführung in grundlegende Marx’sche Kategorien sowie ihre 
Anwendung auf Zusammenhänge von Big Data Analytics am Beispiel von Social Network Sites. 
98  Valentin Dander 
auf EU-Ebene spielen Daten- und Informationssysteme eine wichtige Rolle, etwa in der 
Überwachung von Migrationsbe-wegungen (vgl. Monroy 2020). 
International wird auf das sich anhaltend im Aufbau befindliche Sozialkreditsystem in der 
Volksrepublik China verwiesen, das als das umfassendste staatliche Social Scoring Projekt 
gilt und dem etwa im Sammelband „Super-Scoring?“ ein thematischer Abschnitt 
gewidmet ist (vgl. Gapski/Packard 2021). Eine Besonderheit dieses Systems gegenüber 
europäischen oder nordamerikanischen Bonitätssystemen scheint seine Eigenschaft als 
Meta-System, welches mehrere Untersysteme umfasst und künftig weitere Überwachungs- 
und Kontrollprojekte integrieren kann. Während etwa die SCHUFA in Deutschland zum 
einen privat organisiert ist und zum anderen mit Kreditauskünften einen relativ 
beschränkten Funktionsbereich bedient, ist das chinesische Meta-System integrativ und 
transversal verfasst (vgl. Liang u. a. 2018; Ohlberg 2021). 
In gesellschaftlichen Teilbereichen finden sich im ‚globalen Norden‘ auch jenseits von 
Nachrichtendiensten und Strafermittlungsbehörden besorgniserregende Einsätze, etwa im 
Bereich der Bildung und der Sozialen Arbeit (vgl. Andrejevic/Selwyn 2020; Kutscher 
2021), im Sozial- und Fürsorgesektor (vgl. Eubanks 2017; Redden u. a. 2021) oder auch 
im Umgang mit Erwerbslosen, etwa in Österreich (vgl. Berner/Schüll 2020). Den 
genannten Analysen ist weithin gemein, dass die verschiedenen Überwachungs- und 
Kontrolltechnologien nicht nur zu einer panoptischen Atmosphäre führen, die hochgradig 
von Intransparenz und, seitens der staatlichen Agenturen, vom Mythos der Objektivität 
geprägt ist, sondern bestehende Ungleichheiten fortschreiben oder neue Diskriminierungs-
formen hervorbringen. 
 
2.3. Hybride Datenpolitiken 
Ein genauerer Blick auf einzelne Einsatzszenarien legt offen, dass die Trennlinie zwischen 
kapitalistischen und staatlichen Datenpolitiken nicht so scharf gezogen werden kann, wie 
die Formulierungen suggerieren. So greifen staatliche Akteure vielfach auf kommerzielle 
Software zurück, wie an einigen Beispielen gezeigt wird. Prominent in der Öffentlichkeit 
wurden etwa der Einsatz von kommerziellen Prüfungsmanagement- und -überwachungs-
systemen an Hochschulen, wie jenes von Proctorio, insbesondere im angelsächsischen 
Raum, diskutiert und problematisiert (vgl. Swauger 2020). Kommerzielle Gesichts-
erkennungssoftware des Unternehmens Clearview AI kommt bspw. in den USA in der 
Strafverfolgung zum Einsatz (vgl. Marks 2021). Schließlich sorgte der Fall des 
Unternehmens Cambridge Analytica für einen Skandal, als über die scheinbar wahl-
entscheidenden, personalisierten Datenanalysepraktiken und ihren Einsatz 2014-2016 im 
US-Präsidentschafts(vor)wahlkampf berichtet wurde (vgl. Richterich 2018; Bridle 
2019, S. 17). 
Datenpolitiken ‚von unten‘ zwischen Aktivismus und Politischer Medienbildung 99 
Umgekehrt schaltet sich der Staat etwa durch gesetzliche Regulierung in die Gestaltung 
kapitalistischer und nicht-kommerzieller Datenpolitiken ein. Ende 2020 verabschiedeten 
bspw. die InnenministerInnen der EU-Mitgliedstaaten eine Entschließung, die als Angriff 
auf verschlüsselte Kommunikation gewertet werden kann (vgl. Krempl 2020). In 
Deutschland kann das Netzwerkdurchsetzungsgesetz (NetzDG; novelliert im März 2021) 
als Beispiel genannt werden, das den Umgang der (großen) Social Media Plattformen etwa 
mit strafbaren Inhalten reguliert (vgl. Eickelmann u. a. 2017; Bundesamt für Justiz 2021). 
Ende 2020 hat die EU-Kommission (2020) mit dem „Daten-Governance-Gesetz“ einen 
Vorschlag vorgelegt, der auf eine Vermittlung der Interessen von „Dateninhaber“, 
„Datennutzer“ und „Datenmittler“ zielt. Dies soll einerseits unter Berücksichtigung von 
Datenschutz erfolgen, andererseits durch diese Regulierung die kommerzielle und nicht-
kommerzielle Verwendung von personenbezogenen und Verwaltungsdaten stärken.6 
Diese Beispiele machen deutlich, dass es sich bei den geschilderten Datenpolitiken ‚von 
oben‘ insofern oft um hybride Datenpolitiken handelt, als vielfach eine Verschränkung 
von kommerziellen und staatlichen Infrastrukturen, Technologien und Einsätzen vorliegt. 
Die Zielsetzungen unterscheiden sich freilich in ihrer primären Zielsetzung auf 
Kapitalakkumulation einerseits und auf die konkrete Zielbestimmung der staatlichen 
Akteure andererseits (‚Sicherheit‘ und ‚Gefahrenabwehr‘, ‚Bildung‘, usw.). 
 
3. Datenpolitiken ‚von unten‘: Datenaktivismus und Data Justice 
 
In jede Datensammlung gehen Verhalten, Gefühlsausdrücke oder soziale Beziehungen 
konkreter Menschen ein. Ohne dieses Zusammenspiel ist Big Data nicht denkbar (vgl. 
Kaldrack/Köhler 2014, S. 1), ohne sie sind Datenpolitiken ‚von oben‘ nicht denkbar. Diese 
Beteiligung, dieses Verstrickt-Sein in die genannten Prozesse eröffnet stets die 
Möglichkeit der Gegenwehr, etwas anders oder nicht zu tun – bis hin zu kollektiven 
Bestrebungen, die Infra/Strukturen dieser Datenpolitiken zu beeinflussen oder zu 
verändern. Bigo et al. (2019, S. 6) formulieren als eine Annahme in der Einleitung zu 
ihrem Sammelband “Data Politics”: 
 
                                                        
6  U.a. ist in diesem Vorschlag von „Datengenossenschaften“ die Rede, welchen in etwa die Rolle einer 
Interessensvertretung, Beratungs- und Ombudsstelle im Interesse von Einzelpersonen und kleineren 
Unternehmen zukommen soll (Europäische Kommission 2020, S. 20–21). Die konkrete Ausge-
staltung bleibt abzuwarten. Ebenfalls angeführt wird im Dokument der Ausdruck „Datenaltruismus“, 
mit welchem die freiwillige Freigabe von personenbezogenen Daten für gemeinwohlorientierte 
Nutzungsformen, wie etwa Forschungszwecke, bezeichnet wird (ebd., S. 27 sowie S. 23). Für den 
Hinweis auf diesen Vorschlag der EU-Kommission gilt Theo Hug herzlicher Dank! 
100  Valentin Dander 
“that the production of data is a social and often political practice that 
mobilises agents who are not only objects of data (about whom data is 
produced) but that they are also subjects of data (those whose engagement 
drives how data is produced). Our question thus shifts to social practices and 
agents.” 
In diesem Zitat wird deutlich, dass die Perspektive der AutorInnen auf Datenpolitiken von 
einer weiteren Annahme getragen wird: Datenpraktiken wohnt eine performative Kraft 
inne, die in ihrem Tun jene Strukturen von Wissen und Macht erzeugt, reproduziert und 
verändert, die in Kap. 2 so hermetisch und allmächtig erschienen (vgl. ebd., S. 4). Eine 
Subjektposition, die diese Handlungsmacht im eigenen Tun anerkennt und zu nutzen 
sucht, ist jene von DatenaktivistInnen. 
Was in der Literatur als Datenaktivismus beschrieben wird, ist in enger Verbindung mit 
früheren Varianten eines Informations- und Cyberaktivismus, Hacktivism und anderen 
medienaktivistischen Spielarten zu begreifen (vgl. Milan/van der Velden 2016, S. 60–61; 
Sützl/Hug 2012). Im Datenaktivismus werden zwei Varianten unterschieden (siehe hierzu 
auch den Beitrag von Neuschäfer in diesem Band): 
Die erste Form fasst Miren Gutiérrez (2018, S. 63) als proaktiven Datenaktivismus 
zusammen und versteht darunter Formen zivilgesellschaftlicher Betätigung wie das 
datengestützte Erzählen und Verbreiten unkonventioneller Narrative auf der Grundlage 
unabhängiger Recherchen und mit dem Ziel alternative (digitale) Öffentlichkeiten zu 
schaffen (vgl. ebd., S. 63–64), um soziale Ungerechtigkeiten anzuprangern und sozialen 
Wandel herbeizuführen (vgl. Milan/van der Velden 2016, S. 67). Die zweite Form, 
reaktiver Datenaktivismus, entspricht u.a. dem Modell digitaler Selbstverteidigung: 
“activists react to exogenous threats trying to defend their values, beliefs and practices 
and/or underminde those dynamics and mechanisms they reject” (ebd.). Beide 
datenaktivistische Formen beinhalten individuelles wie kollektives Tun und basieren  
auf einer involvierenden, anwendungsbezogenen ‚hands-on‘-Auseinandersetzung von 
Information und Technologie als “objects of intervention”.  
Lina Dencik, Arne Hintz und Jonathan Cable (2016) bringen den Ausdruck “Data Justice” 
in die Debatte ein, um damit auch in überwachungskritischen Kontexten die Relevanz 
sozialer Gerechtigkeit herauszustellen. Diese thematische Verbindungslinie erachten sie 
als bedeutsam, da sie eine Trennung zwischen der Beschäftigung mit der 
Überwachungsthematik und anderen, breiter angelegten Themen sozialer Gerechtigkeit 
beobachten. (vgl. ebd., S. 8) Data Justice ist so angelegt, dass der gesellschaftliche Felder 
durchziehende Charakter datenbezogener Kampfzonen hervortritt: 
“[H]ow society is and ought to be organized in relation to digital 
infrastructures – on social, political, economic, cultural and ecological terms 
– that can consider and develop the meaning of justice in this context. This 
would include questions of how to think about notions such as security, 
Datenpolitiken ‚von unten‘ zwischen Aktivismus und Politischer Medienbildung 101 
autonomy, dignity, fairness and sustainability in a data-driven society and 
make us ask what, for example, the implications are for workers’ rights, or 
for community cohesion and discrimination; for welfare and inequality; or 
for the environment, for poverty, and for conflict. Most importantly, 
advancing this agenda would transform surveillance from a special-interest 
‘issue’ into a core dimension of social, political, cultural, ecological and 
economic justice, and thus respond to the central position of data-driven 
processes in contemporary capitalism.” (ebd., S. 9; Herv. im Orig.) 
Eine ähnliche Stoßrichtung verfolgen Catherine D’Ignazio und Lauren F. Klein in ihrem 
Buch “Data Feminism” (2020). Sie sprechen zwar von Feminismus, explizieren aber zu 
Beginn, dass sie darin im Sinne eines intersektionalen Ansatzes das Anliegen aufgehoben 
sehen, jegliche gesellschaftliche Ungleichheit zu bekämpfen – egal, ob in Bezug auf 
gender, “race, class, ability, and more.” Sie sehen sich in diesem Anliegen der Idee der 
“co-liberation” verpflichtet, welche Herrschaftssysteme als schädlich für alle Menschen 
und Befreiung als ein relationales Geschehen zwischen allen in Machtbeziehungen 
verstrickten begreift (vgl. ebd.). 
Die Autorinnen strukturieren ihr Konzept von Datenfeminismus wie auch ihr Buch anhand 
von sieben Prinzipien, die einen Überblick über ihren Ansatz vermitteln: 
Macht(strukturen) untersuchen, Macht(strukturen) herausfordern, Gefühle und verkörperte 
Wissensformen anerkennen, Binaritäten und Hierarchien überdenken, Pluralitäten (z.B. 
von Perspektiven) einbeziehen, Kontext beachten, Arbeit sichtbar machen (vgl. ebd.; 
Übers. VD). 
Im letzten Abschnitt geht es schließlich um die Aufforderung: “Let’s multiply now.” (ebd., 
Conclusion), wobei anhand einiger Kampagnen und Initiativen aufgezeigt wird, welche 
Ver/Handlungsmacht kollektive Kämpfe gegen datenbasierte Ungerechtigkeiten an den 
Tag legen können; insbesondere, wenn die ArbeiterInnen, die unabkömmliche Rollen in 
digitalen Infrastrukturen einnehmen, selbst aktiv werden oder ihre Arbeit niederlegen. So 
wird bspw. die Geschichte von Streikenden bei Google im Jahr 2018 erzählt, die auf 
Berichte über sexuelle Belästigung reagierten und strukturelle Änderungen im 
Unternehmen einforderten. Weiters wird auf eine Plattform verwiesen, die Gig-Workern 
ermöglicht, sich zur Verbesserung ihrer Arbeitsbedingungen zu organisieren 
(Coworker.org). Die design justice group verweist auf bildungsbezogene Fragen, insofern 
Workshops und Bildungsforen zu ihren Aktivitätsformen gehören, in denen DesignerInnen 
für Ungleichheiten in Designentscheidungen sensibilisiert werden. Als Beispiel aus dem 
deutschsprachigen Kontext kann das Berliner Register zur Dokumentation von u.a. 
rassistischen, antisemitischen, homo- und transphoben Übergriffen eingebracht werden. 
Das Register speist sich aus einzelnen Meldungen, die über Polizeiberichte deutlich 
hinausreichen und eröffnet verschiedene Niveaus der Beteiligung und Ermächtigung (vgl. 
Dander/Macgilchrist i.E.; Kap. 5). 
102  Valentin Dander 
Gleichwohl sind datenaktivistische oder -feministische Praktiken vielfach stärker unter 
solchen Personengruppen vertreten, die sich durch tiefreichende technische und andere 
Kenntnisse und Fertigkeiten, mitunter durch einen hohen Bildungsgrad und einen 
gesicherten sozio-ökonomischen Status auszeichnen, wie am Beispiel von Open Data 
AktivistInnen in Deutschland festgestellt wurde (vgl. Dander 2014, S. 125; Baack 
2015, S. 8). Wenn Stefan Baack diese (Open Data) Eliten oder ExpertInnen als 
“empowering intermediaries” beschreibt (2015, S. 6), beinhaltet die Bezeichnung eine 
aktive Auseinandersetzung und den Einbezug von nicht-expertisierten BürgerInnen. 
Dadurch werden sie zu “important supporters of agency in datafied publics.” (ebd.) Hierin 
deutet sich etwas an, was D’Ignazio und Klein (vgl. 2019, Kap. 2) als einen zentralen 
Aspekt des Prinzips ‚Macht(strukturen) herausfordern‘ formulieren: Machtstrukturen und 
asymmetrische Wissensbestände sollen auch innerhalb aktivistischer Gruppen und 
Netzwerke herausgefordert werden. Der Schlüssel dafür liegt in einem pädagogischen 
Verhältnis, einer Kultur des gemeinsamen Lernens von relevanten Fähigkeiten – ‚Data 
Literacy‘ – auf dem Weg zu einer ‚Digital Citizenship‘. 
 
4. Mit (Critical Big) Data Literacy/-ies zu Digital/Data Citizenship 
 
Data Literacy erweist sich in seiner Verwendung, in der Literatur und 
Forschungslandschaft als schillernder Begriff, der von verschiedenen AkteurInnen und 
Disziplinen auf sehr verschiedene Weise modelliert und eingesetzt wird (vgl. Dander 
2018, S. 77–78). Der Schwerpunkt liegt hier auf zwei Linien, deren Differenz quasi analog 
zur Unterscheidung von proaktivem und reaktivem Datenaktivismus verläuft: 
Proaktiver Datenaktivismus verlangt insbesondere nach einem Bündel von Fähigkeiten, 
welche die produktive Arbeit mit Daten (generieren, finden, bereinigen, analysieren, 
interpretieren, visualisieren) und die öffentliche Kommunikation von Ergebnissen in den 
Vordergrund rücken. Diese Variante von Data Literacy findet sich etwa in Modellen, die 
im Kontext von Open Data Initiativen Anwendung finden (vgl. Dander/Macgilchrist i.E.; 
Deahl 2014). Reaktiver Datenaktivismus erfordert insbesondere einen versierten Umgang 
mit Techniken des Anonymisierens, Verschleierns und Verschlüsselns, wie sie von 
überwachungskritischen Tech-ExpertInnen etwa in Cryptoparties einem breiteren 
Publikum nähergebracht werden (vgl. https://www.cryptoparty.in). In seinen technisch 
versiertesten Formen beziehen beide Varianten das Programmieren oder Modifizieren von 
Software mit ein: etwa für die Datenanalyse oder -visualisierung einerseits, andererseits 
für Zwecke des Datenschutzes und der Datensicherheit. 
Datenpolitiken ‚von unten‘ zwischen Aktivismus und Politischer Medienbildung 103 
Doch gehen einige Konzepte über technisches Wissen und Können hinaus.7 Ina Sander 
(2020, S. 3; Herv. im Original) etwa schlägt einen eher reaktiv ausgerichteten Ansatz vor: 
“critical big data literacy in practice should mean an awareness, 
understanding and ability to critically reflect upon big data collection 
practices, data uses and the possible risks and implications that come with 
these practices, as well as the ability to implement this knowledge for a more 
empowered internet usage.” 
Mit diesem Konzept zielt Sander auf ein breiteres Publikum, auch jenseits von 
ExpertInnen oder Bildungsinstitutionen, und bezieht explizit Aspekte eines kritischen 
Denkens in liberaler angelsächsischer Tradition ohne moralische Aufladung ein (vgl. ebd., 
S. 4). Wenngleich eingeräumt wird, dass individuelle Verantwortung zur Bearbeitung der 
Problematik datafizierter Umwelten nicht ausreicht, legt die Konzeption einen 
Schwerpunkt auf lehr- und erlernbares individuelles Können und Wissen, um als 
handelndes Subjekt entscheidungs- und handlungsfähig zu werden (vgl. ebd., S. 4–5). 
Über rein technische Fertigkeiten digitaler Selbstverteidigung reicht Critical Big Data 
Literacy hinaus, insofern der strukturellen Dimension von Big Data hohe Relevanz 
zugeschrieben wird (vgl. ebd., S. 4). 
Einen in mehrfacher Hinsicht differenten, proaktiven Ansatz wählt Aristea Fotopoulou 
(vgl. 2020), indem zum einen zivilgesellschaftliche Organisationen AdressatInnen der im 
Projekt durchgeführten und untersuchten Datahub Workshops waren und zum anderen 
konsequent von der Singularform ‚Data Literacy‘ abgesehen wird. Stattdessen betont 
Fotopoulou den transversalen Charakter von Literacies und hält fest: “data literacies 
should be understood as ‘social literacies’, because of the real-life material conditions 
within which learning takes place […].” (ebd., S. 3) 
Die Gruppen und Organisationen, mit denen gearbeitet wurde, weisen thematisch keinen 
überwachungskritischen Schwerpunkt und kaum datenbezogene Expertise auf. Die 
Datahub Workshops beinhalteten neben allgemeinen Aspekten wie dem Verhältnis von 
Daten und Wissen insbesondere datenanalytische bzw. -journalistische Fähigkeiten, wie 
u.a. das Finden, Bereinigen, Analysieren, Visualisieren und Narrativieren von Daten sowie 
ihren Einsatz in Kampagnen. Der Ablauf der Workshops und die einbezogenen 
Workshopmodule weisen damit große Schnittmengen mit der Arbeit von Open Data 
Projekten wie der Datenschule in Berlin auf. Die dort genutzte “data pipeline” entspricht 
in etwa diesem Workflow (vgl. Dander/Macgilchrist i.E., Kap. 4). Deutlicher als die data 
pipeline stellt Fotopoulou aufgrund der Studienergebnisse heraus, dass sich diese (eher 
                                                        
7  Auch hier finden nur wenige ausgewählte Konzeptionen Eingang. Mit verschiedenen Schwerpunkt-
setzungen kann an anderen Stellen über Literacy-Konzepte weitergelesen werden: z.B. zu Daten und 
Infrastrukturen (vgl. Gray u. a. 2018), personenbezogenen Daten (vgl. Pangrazio/Selwyn 2019) oder 
Online-Privatheit (vgl. Trepte/Masur 2015). 
104  Valentin Dander 
instrumentellen) Data Literacies in den Workshops mit “critical awareness about the 
ideological and power aspects of data” verbinden ließen (Fotopoulou 2020, S. 15). 
Ähnlich wie Fotopoulou fokussieren Carmi, Yates, Lockley und Pawluczuk (vgl. 
2020, S. 11) in ihrer Konzeption von Data Literacy (hier im Kontext von dis-/mis-/mal-
information) community-basierte Fähigkeiten “beyond the individual.” Sie schreiben in 
diesem Zusammenhang von “‘networks of literacy’, meaning how people engage with 
others, where and with which media to gain the understanding, skills and competencies in 
a way that fits them.” (ebd., S. 12) Individualisierenden und instrumentalisierenden 
Konzeptionen von Data Literacy attestieren sie hingegen problematische ideologische 
Lagerungen (vgl. ebd. S. 9–10). Wie Sander argumentieren sie für eine kritische Haltung 
gegenüber algorithmischen Systemen und digitalen Datenökonomien (ebd., S. 13), die 
über technische Fertigkeiten hinausreicht. Schließlich betten sie ihre Überlegungen zu 
Data Literacy/-ies in eine übergreifende Konzeption von “data citizenship” (ebd., S. 15) 
ein, welche anhand der Dimensionen Data thinking, Data doing, Data participation (vgl. 
ebd., S. 10) auf eine aktive BürgerInnenrolle abzielt: “proactive skills to protest, object, 
unionise and conduct other collective actions against various civic issues.” (ebd., S. 15) 
Konzeptionen von (Critical Big) Data Literacy/-ies ließen sich probeweise anhand der 
folgenden Ebenen differenzieren: 
(1)  Re/Aktivität (proaktiver/reaktiver Schwerpunkt) 
(2)  AdressatInnen/Subjekt des Lernens (nicht-/expertisierte Individuen oder Kollektive 
wie zivilgesellschaftliche Organisationen, Communities etc.) 
(3)  Normativität/Politizität (Gleichheit, Inklusion, Data Justice oder ‚nur‘ kritisches 
Denken) 
(4)  Bildungskontext (formal, non-formal, informell) 
(5)  Themenschwerpunkte (Technik und Überwachung und/oder nicht-technische Themen) 
(6)  Datenarten (Schwerpunkt auf Open Data, personenbezogene Daten etc.) 
(7)  Konzeptionelle Kontextualisierung (alleinstehende Fähigkeit oder relational zu 
anderen Fähigkeiten und Konzepten) 
(8)  Lokalisierung (lokale und/oder supra-/nationale bzw. globale Datenassemblages) 
 
5. Politische Medienbildung zu einem Ignorant Digital/Data Citizen? 
 
Sofern Data Literacy/-ies nicht auf das engere Terrain medienpädagogischer Über-
legungen beschränkt gedacht wird/werden, sondern in enger Verzahnung mit Politischer 
Bildung und mit einer politischen Subjektivität in Form von Digital oder Data Citizens, 
liegt es nahe, auf den genannten Ebenen sowohl den relationalen Charakter von 
Datenpolitiken ‚von unten‘ zwischen Aktivismus und Politischer Medienbildung 105 
datenbezogenen Politiken zu verschiedenen Themen, verschiedenen Datenarten, Fähig-
keiten/Kompetenzen und Relevanzebenen (lokal, global) zu berücksichtigen als auch den 
performativen Charakter von Data Literacy/-ies und Digital Citizenship. Demnach 
müssten Bildungskontexte eröffnet werden, die konkrete, relevante (daten)politische 
Fragen zumindest auch proaktiv bearbeiten. Letzteres kann in Auseinandersetzung mit 
zivilgesellschaftlichen Organisationen, aber genauso in formalen Bildungskontexten 
stattfinden. 
Gestärkt wird ein solcher Ansatz durch eine aktualisierte Konzeption von Digital 
Citizenship, wie in Hintz, Dencik und Wahl-Jorgensen in ihrem Buch “Digital Citizenship 
in a Datafied Society” erarbeiten (2018, S. 40): Die Subjektposition des Digital Citizen 
wird demnach durch Datenpolitiken ‚von oben‘ wie ‚von unten‘ ko-konstituiert: 
“Digital citizenship is […] constituted, partly, through the enactment of users 
but also, partly, through data analysis by the state and the private sector. 
Digital citizens, we argue, are both self-constructed and created by new (the 
data-driven economy) and traditional (the state) institutions.” 
Offen bleibt bis hier der oben genannte Aspekt der Normativität/Politizität in Data 
Literacies, der freilich stark von der paradigmatischen Positionierung abhängt. Wird 
diesbezüglich – ähnlich wie etwa bei Hintz et al. (vgl. ebd., S. 22 ff.) – ein an neuerer 
politischer Philosophie geschulter Zuschnitt gewählt, der sich von liberalen Ansätzen 
abgrenzt, lässt sich eine mehr oder minder universelle Zielsetzung wie Gleichheit 
begründen.8 
Gert Biesta (2011) stellt – ohne explizite Bezüge zu digitalen Technologien – das Konzept 
eines “Ignorant Citizen” zur Diskussion. Er begründet es in Auseinandersetzung mit dem 
Denken von Chantal Mouffe und Jacques Rancière in den Unbestimmtheiten und 
Dynamiken politischer Ordnungen und, damit einhergehend, mit der Unbestimmtheit 
dessen, was ‘a good citizen’ sein sollte, obwohl für Mouffe, Rancière und Biesta 
gleichermaßen die Prinzipien Freiheit und Gleichheit die Stoßrichtung des demokratischen 
Projekts darstellen: 
“The ignorant citizen is the one who is ignorant of a particular definition of 
what he or she is supposed to be as a ‘good citizen.’ The ignorant citizen is 
the one who, in a sense, refuses this knowledge and through this, refuses to 
be domesticated, refuses to be pinned down in a pre-determined civic 
identity.” (ebd., S. 152) 
In Konsequenz bedeutete das für Lernen und (Politische) Bildung, dass sie sich 
keineswegs in der Aneignung von Kompetenzen erschöpfen können, sondern als “an 
                                                        
8  Am Beispiel von Open Data Projekten wird in einem anderen Zusammenhang für eine “ethics of 
care” argumentiert, welche für konkrete lokale, community-basierte Kontexte eine ähnliche 
Stoßrichtung aufweist (vgl. Wylie u. a. 2019). 
106  Valentin Dander 
inherent dimension of the ongoing experiment of democratic politics” (ebd.) gedacht 
werden sollten. Dies könne nicht als ein rein kognitives Unterfangen umgesetzt, sondern 
lediglich als leidenschaftliches, lustvolles und sehnsüchtiges Geschehen (vgl. “desire for 
democracy”; ebd.) unterstützt werden. Ich halte es für ein relevantes Unterfangen die Rolle 
eines Ignorant Digital/Data Citizen ernst zu nehmen und um über Prozesse Politischer 
Medienbildung jenseits von Kompetenzmodellen und domestizierenden Festschreibungen 
nachzudenken. 
Literatur 
 
Andrejevic, Mark & Selwyn, Neil (2020): Facial recognition technology in schools: critical 
questions and concerns. Learning, Media and Technology, 45 (2), S. 115–128, doi: 
10.1080/17439884.2020.1686014. 
Baack, Stefan (2015): Datafication and empowerment: How the open data movement re-
articulates notions of democracy, participation, and journalism. Big Data & Society, 2 (2), 
S. 1–11, doi: 10.1177/2053951715594634. 
Beckedahl, Markus & Meister, Andre (Hrsg.) (2013): Überwachtes Netz. Edward Snowden und 
der größte Überwachungsskandal der Geschichte. Berlin: Newthinking Communications. 
di Bella, Sam (2019): Book Review: The Age of Surveillance Capitalism: The Fight for a 
Human Future at the New Frontier of Power by Shoshana Zuboff. LSE Review of Books,  
4. November 2019. Abgerufen unter: https://blogs.lse.ac.uk/lsereviewofbooks/2019/11/04/ 
book-review-the-age-ofsurveillance-capitalism-the-fight-for-the-future-at-the-new-frontier-
of-power-byshoshana-zuboff/ [Stand vom 09-07-2021].  
Berner, Heiko & Schüll, Elmar (2020): Bildung nach Maß. Die Auswirkungen des AMS-
Algorithmus auf Chancengerechtigkeit, Bildungszugang und Weiterbildungsförderung. 
Magazin erwachsenenbildung.at, pedocs, (40). 
Biesta, Gert (2011): The Ignorant Citizen: Mouffe, Rancière, and the Subject of Democratic 
Education. Studies in Philosophy and Education, 30 (2), S. 141–153, doi: 10.1007/s11217-
011-9220-4. 
Bigo, Didier; Isin, Engin & Ruppert, Evelyn (2019): Data Politics. In:  Bigo, Didier; Isin, 
Engin F. 6Ruppert, Evelyn Sharon (Hrsg.): Data politics: worlds, subjects, rights. 
Abingdon, Oxon; New York, NY: Routledge, S. 1–17. 
Boyd, Danah 6 Crawford, Kate (2012): Critical questions for big data: Provocations for a 
cultural, technological, and scholarly phenomenon. Information, communication & society, 
15 (5), S. 662–679. 
Bridle, James (2019): State to stateless machines. A trajectory. In:  Colakides, Yiannis; 
Garrrett, Marc & Gloerich, Inte (Hrsg.): State machines: reflections and actions at the edge 
of digital citizenship, finance, and art. Amsterdam: Institute of Network Cultures, S. 14–21. 
Datenpolitiken ‚von unten‘ zwischen Aktivismus und Politischer Medienbildung 107 
Bröckling, Ulrich & Feustel, Robert (2012): Einleitung: Das Politische denken. In:  Bröckling, 
Ulrich & Feustel, Robert (Hrsg.): Das Politische denken. Zeitgenössische Positionen.  
3., unv. Aufl. Bielefeld: transcript, S. 7–18. 
Bundesamt für Justiz (2021): NetzDG – Gesetz zur Verbesserung der Rechtsdurchsetzung in 
sozialen Netzwerken. gesetze-im-internet.de, Abgerufen unter https://www.gesetze-im-
internet.de/netzdg/BJNR335210017.html [Stand vom 03-05-2021]. 
Bundestag der BRD (2021): Gesetz zur Änderung des BND-Gesetzes zur Umsetzung der 
Vorgaben des Bundesverfassungsgerichts sowie des Bundesverwaltungsgerichts. 
Bundesgesetzblatt Teil I, (17), S. 771. 
Carmi, Elinor; Yates, Simeon J.; Lockley, Eleanor & Pawluczuk, Alicja (2020): Data 
citizenship. Rethinking data literacy in the age of disinformation, misinformation, and 
malinformation. Internet Policy Review, 9 (2). https://doi.org/10.5210/fm.v25i7.10847  
Couldry, Nick & Mejias, Ulises Ali (2019): The costs of connection: how data is colonizing 
human life and appropriating it for capitalism. Stanford, California: Stanford University 
Press. 
Dander, Valentin (2014): Datendandyismus und Datenbildung. Von einer Rekonstruktion der 
Begriffe zu Perspektiven der sinnvollen Nutzung. In:  Ortner, Heike; Pfurtscheller, Daniel; 
Rizzolli, Michaela & Wiesinger, Andreas (Hrsg.): Datenflut und Informationskanäle. 
Innsbruck: Innsbruck University Press, S. 113–129. 
Dander, Valentin (2018): Medienpädagogik im Lichte | im Schatten digitaler Daten. 
Manteltext. In:  MedienPädagogik: Zeitschrift für Theorie und Praxis der Medienbildung, 
S. 1–134, doi: 10.21240/mpaed/diss.vd.01.X. 
Dander, Valentin (2020): Grundzüge einer Kritischen Politischen Ökonomie von Big Data 
Analytics – und ihre bildungstheoretischen Implikationen. In:  Iske, Stefan; Fromme, 
Johannes; Verständig, Dan & Wilde, Katrin (Hrsg.): Big Data, Datafizierung und digitale 
Artefakte. Wiesbaden: Springer Fachmedien, S. 75–95. 
Dander, Valentin & Macgilchrist, Felicitas (i.E.; geplant für 2021): School of Data and shifting 
forms of political subjectivity. In:  Bettinger, Patrick (Hrsg.): Educational Perspectives on 
Mediality and Subjectivation. Discourse, Power and Analysis. London: Palgrave 
Macmillan. 
DAV – Deutscher Anwaltverein (2021): DAV-Stellungnahme 23/21 zur Änderung des BND-
Gesetzes. Dipl.-Jur. Jens Usebach LL.M │Rechtsanwalt & Fachanwalt │Kündigungsschutz 
& Arbeitsrecht, Abgerufen unter https://www.jura.cc/rechtstipps/dav-stellungnahme-23-21-
zur-aenderung-des-bnd-gesetzes/ [Stand vom 30-04-2021]. 
Deahl, Erica Sachiyo (2014): Better the Data You Know. Developing Youth Data Literacy in 
Schools and Informal Learning Environments. Master Thesis Cambridge, Massachusetts: 
MIT Massachusetts Institute of Technology. 
Dencik, Lina; Hintz, Arne & Cable, Jonathan (2016): Towards data justice? The ambiguity of 
anti-surveillance resistance in political activism. Big Data & Society, 3 (2), 
S. 205395171667967, doi: 10.1177/2053951716679678. 
108  Valentin Dander 
D’Ignazio, Catherine & Klein, Lauren F. (2020): Introduction. In: dies., Data feminism. 
Cambridge, Massachusetts: The MIT Press. Abgerufen unter: https://data-
feminism.mitpress.mit.edu/pub/frfa9szd/release/4 [Stand vom 14-05-2021]. 
Dörre, Klaus (2009): Die neue Landnahme. Dynamiken und Grenzen des Finanzmarkt-
Kapitalismus. Paper für die gemeinsame Tagung „Kapitalismustheorien“ von ÖGPW und 
DVPW, Sektion Politik und Ökonomie Wien. 
Eickelmann, Jennifer; Grashöfer, Katja & Westermann, Bianca (2017): #NETZDG 
#MAASLOS. Zeitschrift für Medienwissenschaften, 9 (17–2), S. 176–185, doi: 
10.14361/zfmw-2017-0218. 
Eubanks, Virginia (2017): Automating inequality: how high-tech tools profile, police, and 
punish the poor. First Edition. New York, NY: St. Martin’s Press. 
Europäische Kommission (2020): Vorschlag für eine Verordnung des Europäischen 
Parlaments und des Rates über europäische Daten-Governance (Daten-Governance-
Gesetz). Abgerufen unter: https://eur-lex.europa.eu/legal-content/DE/ALL/?uri=CELEX: 
52020PC0767 [Stand vom 03-05-2021]. 
Fotopoulou, Aristea (2020): Conceptualising critical data literacies for civil society 
organisations: agency, care, and social responsibility. Information, Communication & 
Society, Routledge, S. 1–18, doi: 10.1080/1369118X.2020.1716041. 
Foucault, Michel (2004): Geschichte der Gouvernementalität. 1. Sicherheit, Territorium, 
Bevölkerung. Vorlesung am Collège de France 1977 - 1978. 1. Aufl. Frankfurt am Main: 
Suhrkamp. 
Galla, Nina (2020): KI in der Polizeiarbeit. Der Mythos vom vorhersagbaren Verbrechen. 
CILIP, (Bürgerrechte&Polizei/CILIP 121), S. 46–56. 
Gapski, Harald & Packard, Stephan (Hrsg.) (2021): Super-Scoring? Datengetriebene 
Sozialtechnologien als neue Bildungsherausforderung. München: kopaed. 
Gray, Jonathan; Gerlitz, Carolin & Bounegru, Liliana (2018): Data infrastructure literacy: Big 
Data & Society 5(2), S. 1–13, doi: 10.1177/2053951718786316. 
Gutiérrez, Miren (2018): Data activism and social change. Cham: Palgrave Macmillan. 
Himmelsbach, Sabine (2015): Poetics and Politics of Data. Die Ambivalenz des Lebens in der 
Datengesellschaft. In:  Himmelsbach, Sabine & Mareis, Claudia (Hrsg.): Poetics and 
Politics of Data: Die Ambivalenz des Lebens in der Datengesellschaft / The ambivalence of 
life in a data-driven society. Basel: Christoph Merian Verlag, S. 25–41. 
Hintz, Arne; Dencik, Lina & Wahl-Jorgensen, Karin (2018): Digital citizenship in a datafied 
society. Medford, MA: Polity Press. 
Isin, Engin & Ruppert, Evelyn (2019): Data’s Empire. Postcolonial data politics. In:  Bigo, 
Didier; Isin, Engin F. & Ruppert, Evelyn Sharon (Hrsg.): Data politics: worlds, subjects, 
rights. Abingdon, Oxon; New York, NY: Routledge, S. 207–227. 
Datenpolitiken ‚von unten‘ zwischen Aktivismus und Politischer Medienbildung 109 
Kaldrack, Irina & Köhler, Christian (2014): Das Datenhandeln – Zur Wissensordnung und 
Praxeologie des Online-Handels. In:  Mediale Kontrolle unter Beobachtung 3 (1), 1-13. 
https://nbn-resolving.org/urn:nbn:de:0168-ssoar-40019. 
Krempl, Stefan (2020): Crypto Wars: EU-Staaten beschließen Resolution zu Entschlüsselung. 
heise online, Abgerufen unter: https://www.heise.de/news/Crypto-Wars-EU-Staaten-
beschliessen-Resolution-zu-Entschluesselung-4988717.html [Stand vom 03-05-2021]. 
Kurz, Constanze (2021): Staatstrojaner im Gesetzentwurf: Mehr Befugnisse zur heimlichen 
„Online-Durchsuchung“. netzpolitik.org, 26. Januar. 
Kutscher, Nadia (2021): Ethische Dimensionen des Einsatzes von algorithmenbasierten 
Enscheidungen und Scoring in pädagogischen und sozialpolitischen Kontexten. In:  Gapski, 
Harald & Packard, Stephan (Hrsg.): Super-Scoring? Datengetriebene Sozialtechnologien 
als neue Bildungsherausforderung. München: kopaed, S. 177–190. 
Liang, Fan; Das, Vishnupriya; Kostyuk, Nadiya & Hussain, Muzammil M. (2018): 
Constructing a Data-Driven Society: China’s Social Credit System as a State Surveillance 
Infrastructure. Policy & Internet, 10 (4), S. 415–453, doi: https://doi.org/10.1002/poi3.183. 
Luxemburg, Rosa (1970): Die Akkumulation des Kapitals. In:  Das Kapital. Kritik der 
Politischen Ökonomie. Band II: Der Zirkulationsprozeß des Kapitals, Frankfurt am Main: 
Ullstein, S. 713–756. 
Marchart, Oliver (2005): Der Apparat und die Öffentlichkeit. Zur medialen Differenz von 
„Politik“ und „dem Politischen“. In:  Gethmann, Daniel& Stauff, Markus (Hrsg.): Politiken 
der Medien. Zürich-Berlin: Diaphanes, S. 19–38. 
Marks, Paul (2021): Can the biases in facial recognition be fixed; also, should they? 
Communications of the ACM, 64 (3), S. 20–22, doi: 10.1145/3446877. 
Meyer, Roland (2020): Ein unaufhaltsamer Aufstieg: Zur Geschichte der automatisierten 
Gesichtserkennung. CILIP, (Bürgerrechte&Polizei/CILIP 121), S. 57–66. 
Milan, Stefania & van der Velden, Lonneke (2016): The Alternative Epistemologies of Data 
Activism. Digital Culture & Society, 2 (2), S. 57–74. 
Monroy, Matthias (2020): 220 Abfragen pro Sekunde. Das Schengener Informationssystem 
wächst dynamisch. CILIP, (Bürgerrechte&Polizei/CILIP 121), S. 67–74. 
Morozov, Evgeny (2014): To save everything, click here: technology, solutionism and the urge 
to fix problems that don’t exist. London: Penguin Books. 
Mouffe, Chantal (2015): Agonistik. Die Welt politisch denken. Bonn: Bundeszentrale für 
Politische Bildung (Lizenzausgabe). 
Nachtwey, Oliver & Seidl, Timo (2017): Die Ethik der Solution und der Geist des digitalen 
Kapitalismus. IfS Working Papers. IfS – Institut für Sozialforschung an der Johann 
Wolfgang Goethe-Universität, S. 1–36. 
Ohlberg, Mareike (2021): Sieben Punkte zu Chinas gesellschaftlichem Bonitätssystem. 
In:  Gapski, Harald & Packard, Stephan (Hrsg.): Super-Scoring? Datengetriebene 
Sozialtechnologien als neue Bildungsherausforderung. München: kopaed, S. 53–65. 
110  Valentin Dander 
Pangrazio, Luci & Selwyn, Neil (2019): ‘Personal data literacies’: A critical literacies approach 
to enhancing understandings of personal digital data. New Media & Society, 21 (2),  
S. 419–437, doi: 10.1177/1461444818799523. 
Redden, Joanna; Dencik, Lina; Hintz, Arne & Warne, Harry (2021): „Data Scores as 
Governance“: Katalog und Analyse neuer Verwaltungsverfahren in Großbritannien. 
In:  Gapski, Harald & Packard, Stephan (Hrsg.): Super-Scoring? Datengetriebene 
Sozialtechnologien als neue Bildungsherausforderung. München: kopaed, S. 111–118. 
Reichert, Ramón (2014): Big Data: Medienkultur im Umbruch. In:  Ortner, Heike; 
Pfurtscheller, Daniel; Rizzolli, Michaela & Wiesinger, Andreas (Hrsg.): Datenflut und 
Informationskanäle. Innsbruck: Innsbruck University Press, S. 37–54. 
Richterich, Annika (2018): How Data-Driven Research Fuelled the Cambridge  
Analytica Controversy. Partecipazione e conflitto, 11 (2), S. 528–543, doi: 
10.1285/i20356609v11i2p528. 
Ruppert, Evelyn; Isin, Engin & Bigo, Didier (2017): Data politics. Big Data & Society, 4 (2), 
S. 2053951717717749, doi: 10.1177/2053951717717749. 
Sander, Ina (2020): What is critical big data literacy and how can it be implemented? Internet 
Policy Review, 9 (2). 
Sützl, Wolfgang & Hug, Theo (Hrsg.) (2012): Activist Media and Biopolitics. Critical Media 
Interventions in the Age of Biopower. Innsbruck: Innsbruck University Press. 
Swauger, Shea (2020): Our Bodies Encoded: Algorithmic Test Proctoring in Higher Education. 
In:  Critical Digital Pedagogy, Hybrid Pedagogy Inc. Abgerufen unter:  
 https://hybridpedagogy.org/our-bodies-encoded-algorithmic-test-proctoring-in-higher-
education/ 02 April 2020. [Stand vom 03-05-2021]. 
Trepte, Sabine & Masur, Philipp K. (2015): Privatheitskompetenz in Deutschland. Ergebnisse 
von zwei repräsentativen Studien. Stuttgart: Universität Hohenheim. 
Wylie, Caitlin; Neeley, Kathryn & Ferguson, Sean (2019): Beyond Technological Literacy. 
Open Data as Active Democratic Engagement? In:  Reichert, Ramón & Wenz, Karin; 
Abend, Pablo; Fuchs, Matthias & Richterich, Annika (Hrsg.): Digital Culture & Society, 
Vol. 4, Issue 2/2018/ Digital Citizens. Bielefeld: transcript, S. 157–181. 
Zuboff, Shoshana (2019): The age of surveillance capitalism: the fight for a human future at 
the new frontier of power. New York: PublicAffairs. 
 
Datenaktivismus und Digital Citizenship 
Anna-Maria Neuschäfer 
 
Zusammenfassung 
Im Beitrag wird das Konzept des Digital Citizenship vorgestellt. Unter Digital Citizenship 
versteht man gesellschaftliche Teilhabe über digitale Medien. Dahinter steht die Annahme, dass 
der Begriff des Digital Citizen gleichzeitig Medienkompetenzen als auch Handlungsräume 
beschreibt, die für Datenaktivismus von Interesse sind. Datenschutz ist ein abstraktes Schlagwort, 
weshalb unterschiedliche Ausprägungen und Möglichkeiten vorgestellt werden, wie man sich 
seiner eigenen Daten ermächtigen kann. Unabhängig davon, ob es sich um den Staat oder 
multinationale Konzerne handelt, besteht im Internet großer Bedarf an persönlichen Daten. Als 
mögliche Reaktionen auf Datensammlung werden Clicktivismus, politischer Konsum und 
Hacktivism auf Basis der Arbeit von Jordana J. George und Dorothy E. Leidner präsentiert. 
 
1. Digital Citizenship 
 
Bei Digital Citizenship handelt es sich um die Erweiterung Thomas Marshall’s Citizenship 
Modell. (Klaus/Lünenborg 2004, S. 193; Klaus/Zobl 2019, S. 27–28) Sein drei-
dimensionales Modell unterteilt in Civil, Political und Social Citizenship. 
(Klaus/Lünenborg 2004, S. 193) Mit dem Konzept des Citizenship wird die Befähigung 
zur Freiheit, politischer Partizipation und ökonomischer Sicherheit1 verstanden. (Marshall 
1992, S. 10) Die deutsche Übersetzung ‚Staatsbürgerschaft‘ wird dem Citizenship nur 
unzureichend gerecht. (Kaun 2015, S. 182; Klaus/Lünenborg 2004, S. 194) Im Laufe der 
Zeit wurde das dreidimensionale Modell um die Kategorie des Cultural Citizenship 
ergänzt. Digital Citizenship kann als Unterordnung des Cultural Citizenship gesehen 
werden, einem Kernbereich der Cultural Studies. (Marchart 2018, S. 12) 
Die Erweiterung um die Kategorie des Digital Citizenship fasst den Aspekt der 
Partizipation mit der Handlungsfähigkeit im Netz zusammen. Per Definition können 
Menschen, die täglich das Internet nutzen, als Digital Citizens gelten, allerdings reicht das 
Betreiben von Social-Network-Accounts dazu nicht aus. (Akarçeşme/Pachner/Prlić 2019, 
S. 6–7) Von Bedeutung ist, dass der digitale Austausch der gesellschaftlichen Teilhabe 
dient. (Lünenborg 2015, S. 257) Hintz et al. (2017, S. 731) fassen zusammen:  
                                                        
1  Klaus und Lünenborg (2004, S. 194) führen die Gedanken Marshalls detaillierter aus und benennen 
für Civil Cititizenship die Freiheit der Person, Rede-, Gedanken-, Glaubens- und Pressefreiheit, die 
Freiheit des Eigentums sowie das Recht auf ein Gerichtsverfahren. Political Citizenship beinhaltet 
unter anderem das passive und aktive Wahlrecht. Ein staatliches Sozialsystem, welches 
Erziehungswesen und Wohlfahrt berücksichtigt, umfasst das Social Citizenship. 
112  Anna-Maria Neuschäfer 
„Digital Citizenship is typically defined as the (self-)enactment of people’s role in society 
through the use of digital technologies. It therefore has empowering and democratizing 
characteristics. “  
Gerade der partizipative Charakter, beziehungsweise „doing citizenship“2 wie es Dahlgren 
(2008, S. 282) nennt, verdeutlicht die Bedeutung des Rezipierens und Produzierens.  
Die technologischen Rahmenbedingungen des Internet ermöglichen ein geändertes 
Mediennutzungsverhalten. Deutlich wird die neue Rolle des Internetusers durch die 
Wortkreuzung „produsage“ von Axel Bruns (2008 zit. n. Deterding 2015, S. 377). 
Produsage, zusammengesetzt aus den englischen Wörtern produce und usage deutet auf 
die vielfältigen Gestaltungsmöglichkeiten von Onlineinhalten hin. Beispielhaft können 
hier Websites, Blogs und Wikis genannt werden, welche ebenfalls die Informations-
beschaffung der Internetnutzenden transformieren. Jugendliche stehen nicht nur mit den 
bisher genannten Onlineangeboten im Austausch, sie nutzen vor allem Soziale Netzwerke, 
um zu interagieren und produktiv zu sein. Jugendliche finden zudem über Soziale Medien 
Selbstbestätigung und können soziale Werte erlernen – beziehungsweise Elemente des 
Citizenship entwickeln. (Gleason/Gillern 2018, S. 201) Hier lassen sich Interferenzen 
zwischen Digital Citizenship und Medienpädagogik beschreiben. Medienpädagogik kann 
das verbindende Glied zwischen Digital Citizenship und einen selbstbestimmten, 
rücksichtsvollen Umgang mit Medien sein.  
 
2. Datafizierung und Datenmonopole  
 
Die Datafizierung der Privatsphäre mit ihren prognostischen und vorverurteilenden 
Mitteln kann negative Konsequenzen mit sich bringen. (Helbig 2016, o. S.) Dies bedeutet 
eine Machtasymmetrie zugunsten privatwirtschaftlich orientierter Internetunternehmen. 
Weitere Einschränkungen, wie die Entstehung von Datenmonopolen, Filterblasen, der 
Ausbau der Staatsmacht oder die Vorverurteilung von Personengruppen aufgrund von 
Daten, die über sie verfügbar sind, werden hier als Beispiele angeführt. Unternehmen wie 
Google, Facebook, Amazon und Apple schaffen durch Datenwirtschaft Netzwerkeffekte, 
von denen sie unzählige personale Daten abschöpfen. Dies ist nicht nur unangenehm für 
die Menschen, die nicht wissen, welche Daten von ihnen erhoben werden, es bedeutet 
auch einen Wettbewerbsnachteil für kleinere Unternehmen. Mit der Datafizierung hat sich 
auch die Relation zwischen diesen großen Institutionen und KonsumentInnen gewandelt. 
Unternehmen, die auf individuelle Bedürfnisse ausgerichtet sind, konnten sich im Internet 
durchsetzen. Es ist eine wechselseitige Abhängigkeit zwischen Internetnutzenden und den 
marktdominierenden Internetanbietern entstanden. 
                                                        
2  Im gleichnamigen Artikel fordert Dahlgren eine intensivere Auseinandersetzung zwischen Kultur-
wissenschaften und Überlegungen zu Citizenship. (Dahlgren 2006, S. 282) 
Datenaktivismus und Digital Citizenship 113 
Dabei „[…] benötigen sie große Mengen an personenbezogenen Daten, die 
entweder explizit von Nutzern zu Verfügung gestellt werden (etwa wenn 
diese ein Formular ausfüllen, um sich zu registrieren, das eigene Adressbuch 
hochladen, einen online Kalender nutzen, Bookmarks anlegen etc.) oder 
implizit, in ihre Handlungen beobachtet, aufgezeichnet und analysiert 
werden.“ (Stalder 2019, S. 105) 
Diese Daten, die nicht nur Suchmuster und Kaufvorlieben umfassen, werden zugunsten 
von Werbeanzeigen und personalisierten Nachrichten erhoben. NutzerInnen finden sich 
nicht selten in einer Filterblase3 wieder. Filter-Bubbles widersprechen der Mündigkeit des 
Digital Citizenship. Gerade für Jugendliche, deren Persönlichkeitsentwicklung noch im 
Entstehen ist, stellt die Filterblase eine Einschränkung von „Selbst- und Weltverhältnis 
und damit Bildungschancen und Entwicklungsoptionen“ dar. (Zorn 2017, S. 23)  
 
3. Ausbau der Staatsmacht und Vorverurteilung 
 
Durch die Fragmentierung der Gesellschaft wird es für politische AkteurInnen immer 
schwieriger Menschen zu erreichen. Parteien können über Soziale Netzwerke sogenanntes 
Microtargeting vornehmen. Dabei erstellen Algorithmen über Informationen Sozialer 
Netzwerke Profile über die jeweiligen Personen. Im US-Wahlkampf 2016 wurden durch 
Microtargeting demokratische WählerInnen demobilisiert, um Donald Trump eine 
Stimmenmehrheit zu verschaffen.4 Über Soziale Netzwerke, insbesondere Facebook, 
wurden in diesem Fall maßgeschneidert abschreckende Inhalte an WählerInnen zugespielt. 
(Ballweber/Dachwitz 2020, o.S.)  
Diese Entwicklung basiert auf geänderter Mediennutzung, die mit einer Krise der 
staatlichen Einflussnahme einher geht. Denn lose gemeinschaftliche Zusammenschlüsse 
sind gegenwärtig eher temporär, weshalb es Autoritäten durch Online-Überwachung und 
Profiling ermöglicht wird, eine regierbare Zielgruppe zu definieren. (Hintz et al. 2017,  
S. 733) Dies stellt eine Diskrepanz in Hinsicht auf Bürgerrechte dar, da die staatliche 
Datenerfassung für BürgerInnen intransparent bleibt. (Hintz et al. ebd.) Diese 
Datensammlung ist vergleichbar mit dem Abschöpfen personenbezogener Daten durch 
Firmen. Big Data bedeutet auch die Kombination von gesundheitsbezogenen und 
ortsspezifischen Daten, aus denen beispielsweise die Kreditwürdigkeit Konsumierender 
abgeleitet wird. Diese Daten weisen Menschen eine zweite Identität zu. (Hintz et.al. 2017, 
S. 734) Es entsteht ein sogenanntes Data-Double (Poster 1990; Haggerty/Ericson 2000  
                                                        
3  Filterblasen sind problematisch, weil damit unterschiedliche Ansichten und divergierende Informa-
tionen schwerer zugänglich gemacht werden. (Zorn 2017, S. 23) 
4  Netzpolitik.org bezieht sich mit dieser Information auf ein Leak, welches dem britischen TV-Sender 
Channel 4 vorgelegt wurde. Laut dieser Quelle wurden WählerInnen kategorisiert, um nicht unnötige 
Gelder in Wahlwerbung investieren zu müssen und möglichst effektiv Zielgruppen anzusprechen. 
114  Anna-Maria Neuschäfer 
zit. n. Steinbicker 2019, S. 91) Hier werden durch die Rekombination von Daten 
statistische Gruppen konstruiert, die real nicht existieren, aber bei Betroffenen zu 
finanziellen Nachteilen führen können. (Nassehi 2019, S. 66)  
 
4. Datenaktivismus 
 
Digital Cititzenship impliziert eine produktive Teilnahme an politischer Meinungsbildung. 
Dazu ist die Nutzung von digitalen Medien charakteristisch. Jordana J. George und 
Dorothy E. Leidner vertreten die These, dass es mehrere Facetten des digitalen Aktivismus 
gibt. Um Onlineaktivismus mit traditionellem Aktivismus vergleichbar zu machen 
schlagen sie drei Stufen der Partizipation vor. Die Grafiken und Überlegungen im Artikel 
„from Clicktivsm to Hacktivism“ lehnen sich an Milbraths Hierarchie zur Politischen 
Partizipation an. Er unterscheidet zwischen „spectator“, „transitional“ und „gladiatorial“ 
activities. George und Leidner nennen ihre Pyramide „hierarchy of digital activism“ und 
visualisieren damit nicht nur Milbraths adaptierte Version, sondern stellen auch ein 
Verhältnis von AktivistInnen und deren Handlungsfeldern her (s. Abb. 1).  
Auf unterster Stufe sind es Beobachtende, die durch verhaltene Äußerungen – Clicktivism, 
Metavoicing und Assertion agieren. „Die Funktion des Teilens, die in der einfachsten 
Form ein Klick oder ein Retweet darstellt, ist Teil einer Partizipationskultur, die 
inzwischen den Eingang in die Wirtschaft gefunden hat“ (Aigrain 2012 zit. n. Thimm 
2017, S. 203) So lassen sich auf der zweiten Ebene der Hierarchie Menschen verorten, die 
bewusst Kaufentscheidungen treffen oder Firmen boykottieren, die mit ihren Ansichten 
nicht im Konsens stehen. (George/Leidner 2019, S. 8) Auf dieser Ebene werden außerdem 
Spendenaufrufe organisiert und Petitionen via digitaler Medien gestartet. Auf oberster 
Stufe befinden sich Aufdeckende, darunter HacktivistInnen5 und DatenaktivistInnen. (vgl. 
George/Leidner 2019, S. 7) Datenaktivismus ist aufwändig und bedarf analytischer 
Kenntnisse. (Baack 2015) AktivistInnen, die sich für „open data“ einsetzen, machen unter 
anderem Regierungsdaten zugänglich und müssen dementsprechend mit Sanktionen 
rechnen. (George/Leidner 2019, S. 10) Digitalem Aktivismus liegt ein Problem-
bewusstsein zu Grunde. Ballenthien et al. (2015, S. 5) vertreten hingegen die Auffassung, 
dass sich zu wenige um Selbstdatenschutz kümmern „– weder gegenüber staatlichen noch 
gegenüber privatwirtschaftlichen Akteur_innen.“ Das Beispiel Social Media zeigt die 
Sorglosigkeit gegenüber Nutzungsbedingungen. Von denen behauptet Leistert (2016,  
S. 42), dass Terms of Services […] regelmäßig und ohne Ankündigung von Unternehmen 
                                                        
5  Der Ursprung des Begriffs wird mit der Mitte der 90er Jahre angegeben und mit der Bildung der 
Hackergruppe „Cult of the Dead Cow“ in Verbindung gebracht (Jordan/Taylor2004 zit.n. Füllgraf 
2015, S. 81) 
Datenaktivismus und Digital Citizenship 115 
geändert [werden; Anm. AN.] sie werden von den Juristen/innen der Unternehmen 
ausschließlich im Sinne der Unternehmen formuliert […]“. 
Abbildung 1: Hierarchy of digital activism  (George/Leidner 2019: 7) 
 
 
116  Anna-Maria Neuschäfer 
Verglichen mit den USA bietet das Europäische Datenschutzgesetz Privatpersonen mehr 
Schutz. In dieser europäischen Datenschutzgrundverordnung findet sich unter Artikel 4 
das Verbot der Verarbeitung von personenbezogenen Daten. Im Wortlaut ist unter 
Paragraph 2 folgende Formulierung zu lesen: 
„das Erheben, das Erfassen, die Organisation, das Ordnen, die Speicherung, 
die Anpassung oder Veränderung, das Auslesen, das Abfragen, die 
Verwendung, die Offenlegung durch Übermittlung, Verbreitung oder eine 
andere Form der Bereitstellung, den Abgleich oder die Verknüpfung, die 
Einschränkung, das Löschen oder die Vernichtung;“ [von Daten ist untersagt. 
Anm. AN]. 
Allerdings ist der Staat laut Artikel 10 dieses Gesetzes zu Gunsten der 
Kriminalitätsbekämpfung zu jeglicher Einsichtnahme befähigt. Kriminalitätsbekämpfung 
ist ein weitreichendes Feld – das sehr viel Spielraum lässt. 
 
5. Clicktivism 
 
Clicktivism kann vielfältige Ausprägungen annehmen. In einem großen Netzwerk kann 
ein Click einer Influencerin, eines Influencers weitreichende Kreise ziehen. Inhalte sind 
per se Kommunikate, die kontextabhängig eine große Reichweite annehmen können. Ein 
gut verfasster Kommentar kann meinungsbildend auf die Netzgemeinde wirken. 
Dementsprechend einflussreich kann ‚political consumerism‘ werden. Wie zuvor 
angedeutet, werden hier Kaufentscheidungen durch persönliche Kriterien eines Digital 
Citizen getroffen. Diese Haltung kann, wenn sie im Internet viral geht, kommerzielle 
Organisationen beeinflussen. (George/Leidner 2019, S. 8) Wer sich näher mit Datenschutz 
auseinandersetzen möchte, aber nicht gerade ‚gladiatorial activities‘ beherrscht, kann sich 
einer größeren Interessensgemeinschaft anschließen. Eine solche europäische Initiative ist 
My Data. 
My Data hat seinen Ursprung in unterschiedlichsten datenaktivistischen Vereinigungen. 
Die Non-Profit Organisation ist darin bestrebt eine zugängliche Art des Datenschutzes zu 
etablieren. Dabei ist die Partizipation im Internet obligatorisch, offline zu bleiben ist keine 
Option. Ausgehend von der Beobachtung, dass Datenschutzgesetze zu wenig bekannt und 
nur selten durchsetzbar sind, wird „Zugang, Richtigstellung, Portierbarkeit und das Recht 
auf Vergessenwerden als Ein-Klick Rechte“ (Poikola et al., 2020) gefordert. Man könnte 
eine Parallele zwischen Ein-Klick Rechten und der passiveren Gruppe an ClicktivistInnen 
(George/Leidner 2019, S. 5) ziehen. Denn das Lesen von umfangreichen Datenschutz-
vereinbarungen ist vielen NutzerInnen von Apps zu aufwändig und macht sie in Bezug auf 
ihre Daten gleichgültig. „Die direkte Convenience der Techniken digitaler Selbstver-
messung scheint in vielen Fällen also schwerer zu wiegen als die abstrakten Nachteile, die 
Datenaktivismus und Digital Citizenship 117 
in Form geteilter Daten durch die Nutzung dieser Techniken entstehen könnten.“ 
(Leger/Panzitta/Tiede 2018, S. 35) 
Dennoch versucht My Data allen Nutzenden Autonomie über die Entscheidung 
zurückzugeben, was mit den eigenen, vorliegenden Daten passiert. Damit möchte My Data 
einen unbeschränkten Datenfluss gewährleisten, um Vorteile gegenwärtiger Monopole zu 
beschränken. Dabei geht es um Internetgiganten, insbesondere Google, Apple, Facebook 
und Amazon – kurz GAFA (Lehtiniemi/Haapoja 2020, S. 96). My Data denkt Datenschutz 
aus der Position von Individuen und kleineren (im Vergleich zu GAFA) Unternehmen, um 
einen eigenen Absatzmarkt zu lukrieren. (Lehtiniemi/Haapoja 2020, S. 88) Gleichzeitig 
zielt My Data auf die Standardisierung von Privatheit, Datensicherheit und Daten-
sparsamkeit ab. Dies setzt voraus, dass Organisationen leicht verständliche Datenschutz-
erklärungen verfassen. Nutzende könnten etwa über ihr Einverständnis darüber in 
Kenntnis gesetzt werden „für was, wie und über welchen Zeitraum ihre Daten genutzt 
werden“. (Poikola et al. 2020, o. S.)  
My Data animiert Personen und Unternehmen dazu, die declaration zu unterschreiben, zu 
kommentieren und Inhalte der My Data Seite weiterzuverbreiten. Dieses kollaborative 
Vorgehen berücksichtigt die Meinungen der Unterzeichnenden, da die declaration 
fortlaufend adaptiert wird. Ein Aspekt der My Data Erklärung ist die Portierbarkeit6 von 
Daten. Des Weiteren achtet My Data auf Datentransparenz, also der Auskunftspflicht vor, 
während und nach den Verarbeitungsschritten. „Wir wollen Individuen in die Lage 
versetzen, zu verstehen, wie und auf welche Weise Entscheidungen auf Grundlage ihrer 
Daten getroffen wurden.“ (Poikola et al. 2020, o. S.)  
 
6. Hacktivism 
 
Die Modelle von George und Leidner sehen HacktivistInnen an der Spitze der Aktivismus-
Hierarchie. HacktivistInnen wollen eine Veränderung nicht nur beeinflussen, sie streben 
die aktive Beeinflussung der Gesellschaft an. (George/Leidner 2019, S. 9) Dabei ist die 
Trennschärfe zwischen den Begriffen HackerIn und HacktivistIn unklar. Sowohl Hacking 
als auch Hacktivismus stellt unter Umständen eine Straftat dar. Hacktivismus kann aber 
auch als Eintreten für ideelle Ziele gesehen werden. Das deutsche Bundeskriminalamt hält 
zum Thema Cyberkriminalität fest: „Während Hacker von Eigeninteressen geleitet 
werden, verfolgen Hacktivisten oft soziale oder politische Ziele.“ (Füllgraf 2015, S. 21) In 
diesem Zitat wird die begriffliche Unschärfe deutlich. Das Bundeskriminalamt fasst unter 
dem Begriff Eigeninteressen illegale, gewinnbringende Tätigkeiten, wie etwa Phishing 
zusammen. (Füllgraf 2015, S. 20) 
                                                        
6  Die eigenen Personendaten sollen an andere Dienste übermittelt, oder heruntergeladen werden 
können. Das soll den Internetnutzenden zur Datenautonomie verhelfen. 
118  Anna-Maria Neuschäfer 
„Gemein ist allen Definitionen, dass es sich bei Hacktivisten um 
„gewaltfreie“ Aktivisten handelt, die sich der technischen Möglichkeiten von 
Internet und Computern auf vielfältige Art und Weise bedienen, um 
ideologisch motivierte Ziele zu verfolgen.“ 
Missomelius hebt die Ursprünge des Hacking in der Bastlerbewegung der Fünfzigerjahre 
hervor. Denn BastlerInnen ging es damals um das Erkunden neuer Technologien (2018, S. 
3). Der Wortstamm „hack“ stammt aus dem studentischen Eisenbahnclub am MIT. Für 
kreative Lösungen bei auftretenden technischen Limitierungen benutzten sie das Wort 
hack. (Post 2016, S. 7 zit. n. Mülling 2019, S. 67) Ein hack beschreibt demnach das 
Arbeiten mit unüblichen Mitteln. (Liebl/Düllo/Kiel 2000, S. 13) Die Differenzierung 
zwischen Hackern und HacktivistInnen ist in Zusammenhang mit Digital Citizenship von 
Bedeutung, weil im Zuge des Hacktivism keine Einzelpersonen geschädigt werden sollen. 
Vielmehr geht es um die diskursive Beteiligung an der digitalen Gesellschaft, in der 
HacktivistInnen die Auseinandersetzung mit politischen und kulturellen Belangen für 
andere ermöglichen. 
Es gibt diverse Möglichkeiten um selbstbezogene Daten zu schützen. George und Leidner 
haben gezeigt, dass Protest auf höchst unterschiedlichen Ebenen stattfinden kann, weshalb 
sich der Begriff Clicktivism als Synonym für zurückhaltenden Protest etabliert hat. 
(Thimm 2017, S. 203) Soziale Netzwerke bieten eine Plattform, um mehr Menschen zu 
erreichen und damit Digital Citizenship provozieren zu können. Digital Citizenship ist in 
diesem Zusammenhang nicht nur ein Modell, welches versucht mit den neuen Kultur-
techniken des Digitalen umzugehen. Es ist auch die Forderung nach kritischem Denken, 
die sowohl von PädagogInnen als auch von AktivistInnen erhoben wird. 
 
Literatur 
 
Aigrain, Philipp (2012): Sharing: Culture and the economy in the internet age. Amsterdam: 
University Press. 
Akarçeşme, Dilara; Pachner, Timna & Prlić, Sonja (2019): Das Handy als Erzeugung von 
Utopien. in: P/art/icipate, Salzburg, S. 1–10. 
Baack, Stefan (2015): Datafication and empowerment: How the open data movement re-
articulates notions of democracy, participation, and journalism. Big Data & Society, 2 (2). 
Ballenthien, Jana; Hensel, Alexander; Hoeft, Christoph; Ulbrich, Maren; Rohde, Markus; 
Rohwerder, Jan & Urich, Karin (2015): Editorial: Zwischen Sichtbarkeit und Anonymität. 
Protest, Bewegung und digitale Kultur. In: Forschungsjournal Soziale Bewegungen 28 (3), 
S. 3–7.  
Ballweber, Jana & Dachwitz, Ingo (2020): Wie Trump Millionen Schwarze Amerikanerinnen 
mit gezielter Werbung vom Wählen abhalten wollte. Abgerufen unter: (https:// 
netzpolitik.org/2020/microtargeting-wie-trump-millionen-schwarze-amerikanerinnen-mit-
gezielter-werbung-vom-waehlen-abhalten-wollte/) [Stand vom 30-01-2021] 
Datenaktivismus und Digital Citizenship 119 
Bruns, Axel (2008): Blogs, Wikipedia, Second Life, and beyond: From production to 
produsage (digital formations). New York: Peter Lang. 
Dahlgren, Peter (2006): Doing citizenship. In: European Journal of Cultural Studies 9 (3),  
S. 267–286. 
Füllgraf, Wendy (2015): Hacktivisten. Abschlussbericht zum Projektteil der Hellfeldbe-
forschung. Abgerufen unter: https://www.bka.de/SharedDocs/Downloads/DE/Publika-
tionen/Publikationsreihen/Forschungsergebnisse/2015HacktivistenProjektteilHellfeldbefors
chung.html. [Stand vom 10-04-2021] 
George, Jordana J. & Leidner, Dorothy E. (2019): From clicktivism to hacktivism: 
Understanding digital activism. In: Information and Organization 29 (3), S. 1–45. 
Gleason, Benjamin & Gillern Von, Sam (2018) Digital Citizenship with Social Media. 
Educational Technology & Society 21 (1) S. 200–212. 
Haggerty, Kevin, Ericson, Richard V. (2000): The surveillant assemblage. British Journal of 
Sociology 51(4): S. 605–622. 
Helbig, Christian (2016): Partizipation und Kulturelle Medienbildung in einer digitalen 
Medienwelt. In: KULTURELLE BILDUNG ONLINE. Abgerufen unter: https://www.kubi-
online.de/artikel/partizipation-kulturelle-medienbildung-einer-digitalen-medienwelt. [Stand 
vom 11-04-2021] 
Hintz, Arne; Dencik, Lina & Wahl-Jorgensen, Karin (2017): Digital Citizenship and 
Surveillance Society. In: International Journal of Communication 1932–8036/20170005 11 
(11), S. 731–739. 
Jordan, Tim.& Taylor, Paul. (2004). Hacktivism and Cyberwars. Rebels with a cause?. 
London: Routledge.  
Kaun, Anne (2015): Citizenship und Partizipation. In: Hepp, Andreas; Krotz, Friedrich; 
Lingenberg, Swantje & Wimmer, Jeffrey (Hrsg.): Handbuch Cultural Studies und 
Medienanalyse. Wiesbaden: Springer Fachmedien, S. 181–189. 
Klaus, Elisabeth; Lünenborg, Margreth (2004): Cultural Citizenship. Ein 
kommunikationswissenschaftliches Konzept zur Bestimmung kultureller Teilhabe in der 
Mediengesellschaft. In: M&K 52 (2), S. 193–213. 
Klaus, Elisabeth; Zobl, Elke (2019): Kritische kulturelle Produktion im Kontext von Cultural 
Studies und Cultural Citizenship. In: Zobl, Elke; Klaus, Elisabeth; Lang, Siglinde; Moser, 
Anita; & Baumgartinger, Persson Perry (Hrsg): Kultur produzieren. Künstlerische Praxen 
und kritische kulturelle Produktion. 1. Auflage. Bielefeld: transcript (Edition 
Kulturwissenschaft, 200), S. 19–31. 
Leger, Matthias; Panzitta, Susanne & Tiede, Maria (2018): Daten-Teilen? Digitale 
Selbstvermessung aus praxeologischer Perspektive. In: Houben, Daniel & Prietl, Bianca 
(Hrsg.): Datengesellschaft. Bielefeld: transcript-Verlag, S. 35–59. 
Lehtiniemi, Tuukka & Haapoja, Jesse (2020): Data agency at stake: MyData activism and 
alternative frames of equal participation. In: New Media & Society 22 (1), S. 87–104.  
Leistert, Oliver (2013): Der Beitrag der Social Media zur Partizipation. In: Forschungsjournal 
Soziale Bewegungen 26 (2), S. 39–48. 
Liebl, Franz; Düllo, Thomas & Kiel, Martin (2005): Before and After Situationism — Before 
and After Cultural Studies: The Secret History of Cultural Hacking. In: Düllo, Thomas & 
120  Anna-Maria Neuschäfer 
Liebl, Franz (Hrsg.): Cultural Hacking: Kunst des Strategischen Handelns. Wien: Springer, 
S. 13–46. 
Lünenborg, Margreth (2015): Rethinking Cultural Citizenship. Zur Teilhabe in der (digitalen) 
Mediengesellschaft. In: Drüeke, Ricarda; Kirchhoff, Susanne; Thomas, Steinmaurer & 
Thiele, Martina (Hrsg.): Medien, Öffentlichkeit und Geschlecht. Bielefeld: transcript 
Verlag, S. 251–262. 
Marchart, Oliver (2018): Cultural Studies. München: Utb, Web. 
Marshall, Thomas H. (Hrsg.) (1992): Citizenship and Social Class. London: Pluto Press,  
S. 8–17. Abgerufen unter: https://pages.nyu.edu/jackson/analysis.of.inequality/Readings/ 
Marshall%20-%20Development%20of%20Citizenship.pdf [Stand vom 10-05-2021]  
Missomelius, Petra (2018): Widerständige Praktiken – Cultural hacking als Form politischen 
Protests. In: Medienimpulse, Bd. 56 Nr. 2 (2018), S. 1–5. 
Mülling, Eric (2019): Big Data und der digitale Ungehorsam. Dissertation. Universität 
Potsdam. Wiesbaden: Springer Fachmedien. 
Nassehi, Armin (2019): Die Zurichtung des Privaten in: Stempfhuber, Martin & Wagner, Elke 
(Hrsg.): Praktiken der Überwachten. Öffentlichkeit und Privatheit im Web 2.0. Wiesbaden: 
Springer Fachmedien, S. 63–78.  
Poikola, Antti; Kuikkaniemi, Kai; Kuittinen, Ossi; Honko, Harri; Knuutila Aleksi & 
Lähteenoja, Viivi (2020): My Data. an introduction to human-centric use of personal data. 
Abgerufen unter: https://mydata.org/papers/ [Stand vom 11-04-2021] 
Post, Leslie (2016): Kleine Kulturgeschichte des Hackens. Hamburg: Bachelor + Master 
Publishing. 
Poster, Mark (1990): The Mode of Information. Cambridge: Polity Press. 
Stalder, Felix (2019): Autonomie und Kontrolle nach dem Ende der Privatsphäre. In: 
Stempfhuber, Martin & Wagner, Elke (2019) (Hrsg.): Praktiken der Überwachten. 
Öffentlichkeit und Privatheit im Web 2.0. Wiesbaden: Springer Fachmedien, S. 97–110. 
Steinbicker, Jochen (2019): Überwachung und die Digitalisierung der Lebensführung. In: 
Stempfhuber, Martin & Wagner, Elke (Hrsg.) Praktiken der Überwachten. Öffentlichkeit 
und Privatheit im Web 2.0. S. 79-96. 
Thimm, Caja (2017): Soziale Medien und Partizipation. In: Schmidt, Jan-Hinrik & Taddicken 
Monika (Hrsg.): Handbuch Soziale Medien. Wiesbaden: Springer S. 191–201. 
Wimmer, Jeffrey (2018): Partizipation und (Gegen-)Öffentlichkeit. In: Hoffmann, Dagmar & 
Winter, Rainer (Hrsg.): Mediensoziologie: Nomos, S. 247–254. 
Zorn, Isabel (2017): Wie viel „App-Lenkung" verträgt die digitalisierte Gesellschaft? 
Herausforderungen digitaler Datenerhebungen für die Medienbildung. In: Eder, Sabine; 
Mikat, Claudia & Tillmann, Angela (Hrsg.) (2017): Software takes command. 
Herausforderungen der „Datafizierung“ für die Medienpädagogik in Theorie und Praxis. 
München: kopaed (Schriften zur Medienpädagogik, 53). S. 19–34. 
 
Learning Analytics – Datenschutzrechtliche 
Bestimmungen als Ausgangspunkt einer 
verantwortungsvollen Nutzung von Bildungsdaten  
Silvia Lipp 
 
Zusammenfassung 
Die fortschreitende Digitalisierung führt zu einer Virtualisierung zahlreicher Lebens- und Arbeits-
bereiche. Auch für den Bereich des Lehrens und Lernens erschließen sich angesichts zunehmend 
elaborierter digitaler Lernmanagementsysteme neue Möglichkeiten der Ausgestaltung von Lehr-
Lernarrangements. Dies bezieht sich nicht nur auf die Nutzung von Lernplattformen selbst, 
sondern auch auf die Nutzung der damit generierten Daten. Mit Bildungstechnologien, wie 
Learning Analytics, die sich einem originär pädagogischen Zweck verschrieben haben, werden 
generierte Daten von Lernenden adressiert. Damit nehmen Daten einen wichtigen Stellenwert zur 
Verbesserung von Lehr-Lernprozessen ein. Allerdings heiligt auch der altruistischste Zweck nicht 
die Mittel. Der Drang, unbedingt Nutzen aus Bildungsdaten ziehen zu wollen, vernachlässigt eine 
zentrale Komponente: die Rechte der betroffenen Personen, deren Schutz einer Datennutzung 
nicht nach-, sondern vorgereiht werden muss. Im vorliegenden Beitrag wird daher der Einsatz von 
Learning Analytics an Hochschulen aus datenschutzrechtlicher Perspektive diskutiert, um den 
nicht regulierten und damit verantwortungsrelevanten Handlungsspielraum zur verantwortungs-
vollen Nutzung von Bildungsdaten aufzuzeigen. 
 
1. Einleitung 
 
Die Digitalisierung, die digitale Transformation, das digitale Zeitalter oder auch die 
digitalen Medien sowie das digitale Lernen sind Begrifflichkeiten, die mittlerweile in 
unseren alltäglichen Sprachgebrauch übergegangen sind. Damit wird eine mehr oder 
weniger digitale Prägung zahlreicher Lebens- und Arbeitsbereiche wie auch die Über-
gangsphase von einer Wissens- in eine Datengesellschaft verdeutlicht (Hengstschläger 
2020, S. 9). Jegliche Interaktionen in digitalen Räumen verursachen Datenspuren. Diese 
Flut an Daten nimmt exponentiell zu und es ist längst unmöglich geworden, auch nur 
einen Bruchteil davon zweckmäßig zu nutzen. Damit splitten sich Datenmengen in 
genutzte und ungenutzte Daten. Ein ungenutztes respektive unerforschtes und sodann in 
Vergessenheit geratenes Datenkontingent wird als Dark Data bezeichnet (Hand 2020; 
Krotova 2020). Die Verwendung dieser vorhandenen und bislang ungenutzten Dark Data 
versprechen neues Innovationspotenzial beispielsweise im Rahmen von Prozess-
optimierungen (Gimpel 2020). Auch im Bildungskontext rückt die Nutzung vorhandener, 
aber brachliegender, digitaler Datenkonvolute in den Vordergrund. Spätestens seit 
Auftreten der COVID-19 Pandemie stellen virtuelle Lehr-Lernsettings einen integrativen 
122  Silvia Lipp 
Bestandteil der Bildungslandschaft Österreichs dar. Datenverkehr entsteht dabei auf 
verschiedenen Ebenen des Bildungssektors, der Makroebene (Bildungssystem), der 
Mesoebene (Bildungsmanagement) wie auch auf der Mikroebene (Ebene von Lehr-
Lernprozessen). In Hinblick auf die Verarbeitung, Analyse und Auswertung von 
Bildungsdaten werden vor allem die bildungstechnologischen Konzepte Learning 
Analytics, Educational Data Mining und Academic Analytics diskutiert. Während 
Educational Data Mining auf die automatisierte Analyse aller verfügbaren Daten des 
Bildungskontextes setzt (U.S. Department of Education, Office of Educational Technology 
2014, S. 8; Siemens/Baker 2012), haben Academic Analytics eine datengestützte 
Betrachtung von Bildungseinrichtungen aus einem politischen und wirtschaftlichen 
Blickwinkel zum Ziel (Romero/Ventura 2020, S. 2). Learning Analytics hingegen 
konzentrieren sich stärker auf Daten der Lehr-Lernprozessebene und deren Potenzial zur 
Unterstützung Lehrender und Lernender (Mandausch/Meinhard 2018, S. 24–26). 
Bildungstechnologien wie Learning Analytics beruhen auf der Intention, Daten als 
individuelle Lernunterstützung sprechen zu lassen und damit Lehr-Lernprozesse zu 
unterstützen. Der Blick wird somit vorwiegend auf potenzielle Vorteile dieser 
Technologien gelenkt bzw. wird der lernförderliche Zweck in den Mittelpunkt gestellt. Die 
mit dem Einsatz von Learning Analytics verbundenen Herausforderungen und Risiken der 
Datennutzung werden hingegen nachrangig behandelt. Damit wird eine zentrale Thematik 
– Schutz der Personenrechte von Lernenden – vernachlässigt, die einem Einsatz von 
Learning Analytics allerdings vorausgehen sollte. Ausgehend von diesem Problemfeld 
liegt der Fokus dieses Beitrags daher – unabhängig von der Zielsetzung und Ausrichtung 
von Learning Analytics – in der Grundsatzfrage, welchen rechtlichen Rahmenbedingungen 
ein Einsatz von Learning Analytics im Hochschulkontext in Österreich zugrunde liegt. 
Hierfür erfolgt zunächst eine fragmentarische Betrachtung des Forschungsfelds Learning 
Analytics. Anschließend werden die datenschutzrechtlichen Regeln zur Datennutzung in 
den Blick genommen und der Schutz personenbezogener Daten diskutiert. Darüber hinaus 
werden die Rechte und Pflichten der betroffenen Personen sowie das Abschätzen 
möglicher datenschutzrechtlicher Folgen behandelt. Im den Beitrag abschließenden Fazit 
wird insbesondere deutlich, dass die Skizzierung und Abgrenzung des Rechtsrahmens erst 
den Ausgangspunkt einer verantwortungsvollen Nutzung von Bildungsdaten darstellt und 
den verantwortungsrelevanten Handlungsspielraum und damit das Ausmaß einer Eigen-
verantwortung bei Einsatz von Learning Analytics offenlegt. 
 
2. Learning Analytics – Datengestützte Hilfe zur Selbsthilfe 
 
Nutzen Lernende digitale Lernumgebungen, so verursacht ihr Nutzungsverhalten die 
Produktion von Datenspuren. Ist Learning Analytics in diese digitalen Lernumgebungen 
eingebunden, so werden sämtliche Interaktionen der Lernenden als Datenspuren erfasst, 
Learning Analytics 123 
gesammelt, aggregiert, in Echtzeit analysiert und visualisiert. Diese datenbasierten 
Einsichten in Lehr-Lernprozesse sollen in weiterer Folge Ansatzpunkte zur Verbesserung 
des Lehrens und Lernens liefern (Höfler/Kopp 2018, S. 560; Ifenthaler/Schumacher 2016, 
S. 176–177). Das vermeintliche Potenzial wird dabei unterschiedlichen Datentypen 
zugeschrieben (Grandl et al. 2017, S. 7; Khalil/Ebner 2015, S. 1329):  
• Kommunikationsdaten (u. a. E-Mails, Foreneinträge) 
• Interaktionsdaten mit fester Struktur (u. a. Up- und Downloads, Anzahl der 
Logins in Lernmanagementsysteme, Social Network-Aktivitäten, Logfiles) 
• Persönliche Daten (u. a. demografische Daten)  
• Spezifische Lernendendaten (je nach Bildungsinstitution u. a. Prüfungsergebnisse, 
Informationen zum Bildungsweg) 
Der Einsatz von Learning Analytics bezweckt somit die Unterstützung und Optimierung 
von Lehr-Lernprozessen. Lernende sollen beispielsweise durch individuelle 
Lernmaterialien, Empfehlungen erfolgreicher Lernpfade oder Peer-Vergleiche profitieren 
(Ifenthaler/Schumacher 2016, S. 177; Chatti et al. 2012b, S. 22). Lehrenden wird eine 
Echtzeitbetrachtung des Lernstandes und -fortschrittes sowie der Nutzung des 
Lernangebotes ermöglicht. Eine bedarfsgerechte Adaptierung der Lehre kann daran 
anschließen (Johnson et al. 2012, S. 26). Auch wenn durch den Einsatz von Learning 
Analytics den (aggregierten) Daten ein hohes Gewicht zugeschrieben wird, bleibt die 
Relevanz der pädagogischen Rolle der Lehrenden erhalten (Grandl et al. 2017, S. 1). 
Learning Analytics kann lediglich das pädagogische Handeln unterstützen. Bisherige 
Einsichten in das Lehr-Lerngeschehen werden um die Perspektive einer digitalen 
Lernangebotsnutzung ergänzt. Diese datengestützte Hilfe zur Sammlung von Informa-
tionen über Lehr-Lernprozesse soll Lehrenden und Lernenden wiederum als Selbsthilfe 
zur Verbesserung ihrer Lehr-Lernprozesse dienen (Ebner/Ebner 2018, S. 5–6; Grandl et al. 
2017, S. 1).  
Allerdings heiligt der Zweck von Learning Analytics auch bei noch so guten Absichten 
nicht die Mittel. Daten unreflektiert und bedingungslos heranzuziehen, um beispielsweise 
Lernende automatisiert als Problemfall zu kennzeichnen (um diese frühzeitig zu fördern), 
löst Diskussionen über das zugrundeliegende Verständnis aus. Geht es um die Förderung 
des persönlichen Wachstums (Parkes et al. 2020, S. 113) oder treibt uns diese Entwicklung 
in eine gegensätzliche Richtung und führt letztlich zu Bestrebungen einer bestmöglichen 
digitalen Selbstinszenierung? Die zwischen befürwortenden und kritischen Parteien 
geführten Debatten eines Einsatzes von Learning Analytics werfen allesamt die Proble-
matik eines möglichen Datenmissbrauchs auf (Buckingham Shum 2012, S. 9). Die 
Auseinandersetzung mit Datenschutzrichtlinien und deren Bedeutung für den Einsatz von 
Learning Analytics ist daher unerlässlich und wird im Folgenden dargelegt. 
 
124  Silvia Lipp 
3. Alles was Recht ist – Regeln zur Datennutzung 
 
Die Diskussion um Datenschutz, Vertraulichkeit, Privatsphäre und eine dementsprechend 
ethisch vertretbare Verwendung von Lernendendaten (im gegenständlichen Beitrag 
werden Studierendendaten fokussiert) gewinnt zunehmend an Bedeutung. Auch wenn 
Studierende beispielsweise der Verwendung ihrer Daten zustimmen, ist nicht außer Acht 
zu lassen, dass der dahinterstehende Zweck für sie mangels Transparenz unklar sein kann. 
Obendrein kann zwar das intendierte Ziel offensichtlich erkennbar sein, die tatsächliche 
Nutzung kann hingegen von der ursprünglichen Zielsetzung abweichen (beispielsweise 
aufgrund der Änderung von Analysemethoden), was eine rechtlich legitime und auch 
ethische Verwendung dieser generierten Daten fraglich erscheinen lässt (Arnold/Sclater 
2017; Slade/Prinsloo 2013, S. 1520).  
Rechtliche Fragestellungen, die mit einem Einsatz von Learning Analytics einhergehen, 
betreffen u. a. nachfolgende Themengebiete (Drachsler/Greller 2016, S. 96; 
Bock/Meissner 2012, S. 425; Buckingham Shum/Ferguson 2012): 
• Zugriff auf Daten (Voraussetzungen eines Datenzugriffs; Notwendigkeit einer 
Zustimmung; Zugriffsberechtigungen) 
• Zweckgebundenheit der Datennutzung (Voraussetzung eines legitimen Zwecks) 
• Aufzeichnung von Daten (Zeitrahmen der Datenspeicherung) 
• Analyse von Daten (Auswahl bestimmter Verfahren und Instrumente) 
• Gewährleistung der Datensicherheit (Schutz vor dem Zugriff unbefugter 
Personen)  
• Persönlichkeitsrechte und Schutz der Privatsphäre der betroffenen Personen 
(Notwendigkeit einer Anonymisierung)  
Grundsätzlich besteht in Österreich lt. § 1 DSG ein Grundrecht auf Datenschutz. Jede 
Person entscheidet demnach selbst über den Umfang der Weitergabe und die Verwendung 
ihrer personenbezogenen Daten (Lachmayer/Lewinski 2019, S. 10). Datenschutzrechtliche 
Bestimmungen bzw. Richtlinien zur Handhabe personenbezogener Daten finden sich 
(Datenschutzbehörde 2018): 
(1) in der Charta der Grundrechte der Europäischen Union,  
(2) in der seit 25.05.2018 EU-weit geltenden Datenschutz-Grundverordnung 
(DSGVO) sowie  
(3) im ergänzenden nationalen Datenschutzgesetz (DSG). 
In der DSGVO wird die (teil-)automatisierte und nicht automatisierte Verwendung 
personenbezogener Daten geregelt (Schmidl 2019, S. 6). Personenbezogene Daten werden 
dabei lt. Art. 4 Z 5 DSGVO verstanden als „alle Informationen, die sich auf eine 
identifizierte oder identifizierbare natürliche Person beziehen“ (Europäisches Parlament 
und Rat 2018, S. 33). Aus diesem Datentyp personenbezogener Daten, der einen 
Learning Analytics 125 
Rückschluss auf einzelne Personen zulässt, ergibt sich die Notwendigkeit, die Privatsphäre 
betroffener Personen zu schützen, was folglich Belange einer (Pseudo-)Anonymisierung 
darstellen. Daten, welche Ausgangspunkt für die Anwendung von Learning Analytics 
sind, fallen unter diese Definition der personenbezogenen Daten. Learning Analytics 
bedienen sich der Nutzungsdaten eines Lernmanagementsystems. Nutzungsdaten 
entstehen, wenn Studierende in digitalen Lehr-Lernsettings auf eingebettete Lernanlässe 
zugreifen, wie beispielsweise durch Lösen von Quizaufgaben, Erstellen von 
Forenbeiträgen oder Ansehen bereitgestellter Lernvideos. Die Maßnahme zum Schutz 
dieser personenbezogenen Daten stellt die Pseudonymisierung dar. Ist aus diesen Daten 
ohne weitere Information keine Identifikation einer bestimmten Person möglich, wird von 
pseudonymen Daten gesprochen (Holst et al. 2018, S. 8). Die Pseudonymisierung wird im 
Art. 4 Z 5 DSGVO behandelt, und besagt, dass eine gesonderte Aufbewahrung sowie 
technische und organisatorische Maßnahmen in Bezug auf diese Daten mit identifizier-
barem Charakter vorgenommen werden müssen – kurzum personenbezogene Daten sollen 
aus restlichen (Inhalts-)Daten entfernt werden. Dadurch sollen verantwortliche Personen 
keine Möglichkeiten mehr haben, spezifische Personen zu identifizieren (Europäisches 
Parlament und Rat 2018, S. 33). Der Begriff der pseudonymen Daten grenzt sich dabei 
von anonymen Daten insoweit ab, dass bei anonymen Daten keinerlei Möglichkeit besteht, 
oder nur unter Einsatz eines beträchtlichen Aufwandes, auf spezifische Personen 
zurückschließen zu können. Sobald dies von Grund auf nicht ausgeschlossen werden kann, 
handelt es sich um pseudonyme Daten (Holst et al. 2018, S. 9). Dabei stellt sich allerdings 
die Frage, ob eine solch (vollständige) Anonymisierung in Hinblick auf Möglichkeiten, die 
sich aus Big Data, Data Mining und Künstlicher Intelligenz ergeben, überhaupt noch 
garantiert werden kann (Drachsler/Greller 2016, S. 93; Barocas/Nissenbaum 2014), oder 
ob die Pseudonymisierung aus diesem Blickwinkel nicht eher nur einen mäßig 
erfolgreichen Versuch einer Rechtfertigung darstellt oder sogar ein Umgehen der DSGVO 
ermöglicht (beispielsweise durch ausgeklügelte Datenverschlüsselungstechniken) (Marnau 
2016, S. 430–433).  
 
4. Pseudonymität – Schutz personenbezogener Daten  
 
Ungeachtet dessen stellt die Pseudonymisierung ein wichtiges Konzept der Datenanony-
misierung im Rahmen der DSGVO dar (siehe beispielsweise Art. 25 Abs. 1 DSGVO). Die 
Pseudonymisierung wird als eine Art der Datenverarbeitung aufgefasst. Diese 
Verarbeitung personenbezogener Daten ist grundsätzlich verboten und nur unter 
Einhaltung der Bestimmungen des Art. 6 und Art. 9 DSGVO erlaubt. Rechtmäßig ist eine 
Verarbeitung von Daten demgemäß nur dann, wenn zumindest eine der aufgelisteten 
Voraussetzungen lt. Art. 6 DSGVO zutrifft. Aus Learning Analytics Perspektive sind zwei 
Möglichkeiten der Auflistung lt. Art. 6 DSGVO relevant, um das grundsätzliche Verbot 
der Pseudonymisierung aufzuheben: 
126  Silvia Lipp 
(1) Bei Vorliegen einer rechtsgültigen Einwilligung der Betroffenen zur Verwendung 
deren personenbezogener Daten für einen bestimmten festgelegten Zweck. 
(2) Bei der Datenverarbeitung für wissenschaftliche Zwecke, sofern auch die 
Anforderungen gem. Art. 89 Abs. 1 DSGVO (Vorschriften für besondere 
Verarbeitungssituationen u. a. im Hinblick auf wissenschaftliche 
Forschungszwecke) erfüllt werden (Europäisches Parlament und Rat 2018, S. 33, 
S. 36 und S. 85).  
Die grundsätzliche Privilegierung einer Datenverarbeitung für wissenschaftliche Zwecke 
bezieht sich jedoch nicht auf die reale Lehre. Forschungstätigkeiten im Bereich Learning 
Analytics bedingen allerdings den Einsatz von Learning Analytics. Die Erforschung kann 
daher beispielsweise nur im Rahmen einer forschungsgeleiteten Lehre im 
Hochschulkontext erfolgen. Die Verarbeitung für Forschungszwecke wird im § 7 DSG 
noch weiter konkretisiert (Schmidl 2019, S. 52), ist aber für die Rechtfertigung eines 
Einsatzes von Learning Analytics nach wie vor als unzureichend anzusehen.  
Der Blick auf eingesetzte Lernplattformen an österreichischen Hochschulen zeigt einen 
weit verbreiteten Einsatz des Lernmanagementsystems Moodle (Bratengeyer et al. 2016, 
S. 32–33 und S. 45–46). Moodle als Lernplattform integriert per se bereits Learning 
Analytics Funktionalitäten (Bösch 2020). Die Freischaltung bzw. Nutzung dieser 
Funktionalitäten setzt die Einhaltung der datenschutzrechtlichen Regeln voraus. Auch im 
deutschen Hochschulraum wird Moodle als Lernplattform eingesetzt sowie deren Learning 
Analytics Werkzeuge erforscht. Forschungstätigkeiten von beispielsweise Kiy und Lucke 
zeigen auf, dass ein Einsatz von Learning Analytics auf der Lernplattform Moodle keine 
Pseudonymisierung gewährleisten kann, ohne dass nicht auch die pädagogische 
Zielsetzung, die mit Learning Analytics erreicht werden soll (z. B. die Unterstützung eines 
personalisierten individuellen Lernens), abgeschwächt wird (Kiy/Lucke 2014, S. 109). Das 
Umgehen dieser Limitation, durch beispielsweise Visualisierung ausschließlich aggregier-
ter (statt namentlich gekennzeichneter) Studierendenaktivitäten, verfehlt jedoch die 
Intention von Learning Analytics. Das vermeintliche Potenzial von Learning Analytics, 
datengestützt einer Lernendenzentrierung und Individualisierung näher zu kommen, 
verblasst damit allerdings schon vor dem eigentlichen Einsatz (Gaaw/Stützer 2017, S. 149; 
Kiy/Lucke 2014, S. 110).  
Der Hinweis auf die Zweckgebundenheit im Umgang mit personenbezogenen Daten als 
Ergänzung zur Einwilligung der Betroffenen (Art. 6 Abs. 1 DSGVO) schränkt erneut die 
Nutzung von Learning Analytics ein. Learning Analytics kann als ein iterativer Prozess 
mit den Phasen der Sammlung, Aufbereitung, Analyse und Auswertung von Daten 
beschrieben werden, dessen Annäherung an ein intendiertes Ziel Veränderungen im Laufe 
des Einsatzes notwendigerweise bedingen. Diese Veränderungen können sich auf nahezu 
alle Phasen beziehen. Daten aus verschiedensten Datenquellen werden gesammelt, 
aufbereitet und mit ausgewählten Methoden analysiert (Grandl et al. 2017, S. 12; Chatti et 
al. 2012a, S. 322–323). Die Ergebnisse werden meist auf Dashboards visualisiert, die dann 
Learning Analytics 127 
als Ausgangspunkt pädagogischer Handlungen dienen (Leitner/Ebner 2017). Dashboards 
sind grafische Benutzeroberflächen zur Visualisierung der wesentlichsten Informationen – 
ähnlich einem virtuellen Cockpit (Few 2006). Die Nachbereitungsphase, ist vor allem für 
die kontinuierliche Verbesserung von Learning Analytics wesentlich. Diese kann die 
Einbindung neuer Daten aus zusätzlichen Datenquellen enthalten, das Verfeinern des 
Datensatzes, das Ändern der Analysevariablen oder auch das Auswählen einer neuen 
Analysemethode (Chatti et al. 2012a, S. 323). Daraus geht hervor, dass sich z. B. durch die 
Analyse weiterer Daten oder der Änderung der Analysemethode auch die Zwecke von 
Learning Analytics erweitern/verändern können. Learning Analytics kann sich 
beispielsweise auf die Vorhersage von Studierendenleistungen beziehen. Die Speicherung 
der Daten für deren Wiedernutzung für eine spezifischere Ausrichtung, z. B. zur 
Modellierung erfolgreicher Lernpfade – was jedoch zum Zeitpunkt der ursprünglich 
eingeholten Einwilligungserklärung nicht absehbar war – ist rechtlich gesehen nicht 
zulässig. Hierzu müsste die Einwilligung für jeden vom definierten Ursprungszweck 
abweichenden Zweck erneut eingeholt werden. Drachsler und Greller zufolge würde 
andernfalls eine Verletzung von persönlichen Informationsrechten vorliegen 
(Drachsler/Greller 2016, S. 93). Die Einhaltung der lt. DSGVO geforderten Zweckge-
bundenheit kann demnach nur bei starrem Einsatz von Learning Analytics erfolgen, was 
wiederum deren Zielsetzung entgegensteht. 
Die ausgeführten Möglichkeiten zur Verwendung personenbezogener Daten stellen 
gleichzeitig wesentliche Limitationen von Learning Analytics dar, welche die 
Brauchbarkeit und Intention massiv einschränken. Die Datenminimierung stellt einen 
weiteren Grundsatz für die Verarbeitung personenbezogener Daten dar (Art. 5 Abs. 1 lit. c 
DSGVO). Damit kommt zum Ausdruck, dass nur notwendige sowie auf den Zweck 
abgestimmte und angemessene Daten erhoben werden sollen. Dies begrenzt wiederum 
Möglichkeiten einer kontinuierlichen Verbesserung des Learning Analytics Einsatzes.  
 
5. Rechte, Pflichten und Folgenabschätzung 
 
Die Verarbeitung personenbezogener Daten beinhaltet auch die Einhaltung von Pflichten 
gegenüber betroffenen Personen sowie die Berücksichtigung derer Rechte. Tangiert wird 
hier beispielsweise  
• die Informationspflicht gegenüber den Betroffenen (z. B. Lernenden) (Art. 13 und 
Art. 14 DSGVO),  
• das Auskunftsrecht beteiligter Personen (Art. 15 DSGVO),  
• das Recht auf Berichtigung unrichtiger oder unvollständiger personenbezogener 
Daten (Art. 16 DSGVO),  
• das Recht auf Löschung der Daten (Art. 17 DSGVO),  
• das Recht auf Einschränkung der Datenverarbeitung (Art. 18 DSGVO),  
128  Silvia Lipp 
• das Recht auf Mitteilungen in Hinblick einer Berichtigung, Löschung oder 
Datenverarbeitungseinschränkung (Art. 19 DSGVO) sowie  
• das Recht, die eigenen personenbezogenen Daten an andere verantwortliche 
Personen übertragen zu können (Art. 20 DSGVO).  
Demnach sind betroffene Lernende bereits vor einer Datenerhebung über den Zweck der 
Datenerhebung und über daran beteiligte bzw. dafür verantwortliche Personen zu 
informieren. Auch die Art und Weise der Datenverarbeitung (z. B. Maßnahmen der 
Pseudonymisierung) ist transparent darzulegen. Hinzu kommt die Pflicht zur 
Sicherstellung der Datensicherheit durch technische und organisatorische Anordnungen 
und die Löschung der Daten nach dessen ursächlichem Zweck. 
Darüber hinaus kann für Learning Analytics vorab die Notwendigkeit einer Datenschutz-
Folgenabschätzung (Art. 35 DSGVO) bestehen. Hinweise darauf hat die 
Datenschutzbehörde in Form von Verordnungen veröffentlicht. Während die ‚white list‘ 
(BGBl. II Nr. 108/2018) die Ausnahmen einer Datenschutz-Folgenabschätzung beschreibt, 
kennzeichnet die ‚black list‘ dessen verpflichtende Ausstellung. Eine Datenschutz-
Folgenabschätzung ist beispielsweise für eine datenbasierte und automatisierte Erstellung 
von Profilen und Prognosen erforderlich, welche negative Auswirkungen nach sich ziehen 
können. Oder auch, wenn der Einsatz einer neuen Technologie vermutlich eine 
Auswirkung auf datenbezogene Rechte der Betroffenen hat (Europäisches Parlament und 
Rat 2018, S. 53; § 2 BGBl. II Nr. 278/2018). Learning Analytics oder deren verwandte 
Forschungsbereiche wie Educational Data Mining oder Academic Analytics sind 
begrifflich nicht dezidiert auf einer der beiden Listen angeführt. Die in den Verordnungen 
spezifizierten Kriterien können außerdem je nach Einsatzgebiet unterschiedlich ausgelegt 
werden. Ungeachtet dessen wäre die vorsorgliche Erstellung einer Datenschutz-
Folgenabschätzung für den Einsatz von Learning Analytics an Hochschulen zu empfehlen. 
Dies allein schon als Zeichen sich dem verantwortungsvollen Umgang mit sensiblen Daten 
im Bildungskontext bewusst zu sein. An dieser Stelle lässt sich noch hinzufügen, dass sich 
neben gesetzlichen Regulierungen unter Umständen auch Regelungen in den Satzungen 
oder Richtlinien (z. B. Compliance-Richtlinien) der Hochschulen finden lassen, die es im 
Anwendungsfall zu berücksichtigen gilt. 
 
6. Fazit  
 
In diesem Beitrag wurden die rechtlichen Rahmenbedingungen, denen der Einsatz von 
Learning Analytics im österreichischen Hochschulraum unterliegt, skizziert. Die Gewähr-
leistung einer rechtskonformen Datenverwendung bedingt zumindest die Beachtung und 
Einhaltung der Rechte und Pflichten der EU-weit geltenden DSGVO sowie des 
österreichischen DSG und gegebenenfalls der Regelungen der relevanten Hochschule. Auf 
Schulebene sind ebenfalls die Bestimmungen der DSGVO und DSG relevant. Hinzu 
Learning Analytics 129 
kommt hier noch eine notwendige Einbeziehung der gesetzlichen Aufgaben der Schule, 
die in den Schulgesetzen geregelt sind und Regelungen für Datenverarbeitungen enthalten 
(BMBWF 2021). 
Durch eingehende Auseinandersetzung mit Datenschutzregeln können Unsicherheiten in 
Bezug auf eine ordnungsgemäße Datenverarbeitung verringert werden. Diese Vorschriften 
zielen u. a. darauf ab, eine diesbezüglich intensive Beschäftigung nicht erst im Zuge einer 
Datenerhebung, sondern dieser bereits vorgelagert, sicherzustellen. Eine unter Umständen 
erforderliche Verfassung einer Datenschutz-Folgenabschätzung bietet zudem die 
Gelegenheit datenschutzrechtliche Lücken aufzudecken. Das ermöglicht a priori die 
Vorwegnahme potenzieller Datenmissbrauchsrisiken. Auch die Zustimmungseinholung 
der betroffenen Lernenden ist unbedingt vor dem Beginn einer Datensammlung erforder-
lich. Das Vorhandensein von Datenschutzregeln garantiert dennoch nicht deren 
Einhaltung. Außerdem setzen die Auslegung und Umsetzung datenschutzrechtlicher 
Bestimmungen fundierte Kenntnisse verantwortlicher Personen voraus (Ebner et al. 2020, 
S. 270). Ungeachtet der Regelbefolgung und profunder datenschutzrechtlicher Kenntnisse 
reicht der gesetzliche Rahmen für einen verantwortungsvollen Umgang mit Bildungsdaten 
nicht aus (Hartong 2019, S. 18). Gerade auch, da die Rechtsprechung technischen 
Entwicklungen naturgemäß hinterherhinkt. Der trotz gesetzlicher Regulierung weiterhin 
bestehende Handlungsspielraum kann durch zusätzliche Berücksichtigung ethischer 
Aspekte auf das Fundament der moralischen Grundnormen der Gesellschaft gestellt 
werden. Eine Richtung, wie sich im Bereich Learning Analytics Ethik und Recht ergänzen 
können, zeigt beispielsweise das Konzept der Trusted Learning Analytics (Hansen et al. 
2020, S. 9). Den Orientierungsrahmen der Trusted Learning Analytics liefert ein 
Verhaltenskodex, der rechtliche und ethische Aspekte einer Bildungsdatennutzung behan-
delt und damit als Leitfaden eines rechtlich korrekten und gleichzeitig verantwortungs-
vollen Einsatzes von Learning Analytics dient. Datenschutzrechtliche Bestimmungen 
stellen demnach nur den Ausgangspunkt einer verantwortungsvollen Nutzung von 
Bildungsdaten dar. 
 
Literatur 
 
Arnold, Kimberly E. & Sclater, Niall (2017): Student perceptions of their privacy in leaning 
analytics applications. In: LAK ‘17 (Hrsg.): Proceedings of the Seventh International 
Learning Analytics & Knowledge Conference. New York: ACM, S. 66–69. 
Barocas, Solon & Nissenbaum, Helen (2014): Big data’s end run around procedural privacy 
protections. Commun ACM 57(11), S. 31–33. DOI: 10.1145/2668897. 
BGBl. II Nr. 108/2018: Verordnung der Datenschutzbehörde über die Ausnahmen von der 
Datenschutz-Folgenabschätzung, vom 25.05.2018. Abgerufen unter: https://
130  Silvia Lipp 
www.ris.bka.gv.at/GeltendeFassung/Bundesnormen/20010206/DSFA-
AV%2c%20Fassung%20vom%2008.06.2018.pdf [Stand vom 27-04-2021]. 
BGBl. II Nr. 278/2018: Verordnung der Datenschutzbehörde über Verarbeitungsvorgänge, für 
die eine Datenschutz-Folgenabschätzung durchzuführen ist, vom 09.11.2018. Abgerufen 
unter: https://www.ris.bka.gv.at/GeltendeFassung.wxe?Abfrage=Bundesnormen&
Gesetzesnummer=20010375 [Stand vom 27-04-2021]. 
BMBWF (2021): Datenschutz in Schulen. Datenschutzinformation gemäß Art. 12ff DSGVO im 
Rahmen der Schulverwaltung an österreichischen Schulen gemäß Art. 14 B-VG. BMBWF – 
Bundesministerium für Bildung, Wissenschaft und Forschung. Abgerufen unter: https://
www.bmbwf.gv.at/Themen/schule/schulrecht/ds.html [Stand vom 28-04-2021]. 
Bock, Kirsten & Meissner, Sebastian (2012): Datenschutz-Schutzziele im Recht.  Datenschutz 
und Datensicherheit 36 (6), S. 425–431. 
Bösch, Luca (2020): Moodle Dokumentation 3.10 - Learning Analytics. Abgerufen unter: 
https://docs.moodle.org/310/de/index.php?title=Learning_Analytics&oldid=21736 [Stand 
vom 27-04-2021]. 
Bratengeyer, Erwin; Steinbacher, Hans-Peter; Friesenbichler, Martina; Neuböck, Kristina; 
Kopp, Michael & Gröblinger, Ortrun (2016): Die österreichische Hochschul-E-Learning-
Landschaft. Studie zur Erfassung des Status quo der E-Learning-Landschaft im tertiären 
Bildungsbereich hinsichtlich Strategie, Ressourcen, Organisation und Erfahrungen. 
Norderstedt: Books on Demand. 
Buckingham Shum (2012): Learning Analytics. Moscow: UNESCO Institute for Information 
Technologies in Education, S. 1–12. Abgerufen unter: https://iite.unesco.org/pics/
publications/en/files/3214711.pdf [Stand vom 16-03-2021]. 
Buckingham Shum, Simon & Ferguson, Rebecca (2012): Social learning analytics.  
Educational Technology and Society 15 (3), S. 3–26. 
Chatti, Mohamed Amine; Dyckhoff, Anna Lea; Schroeder, Ulrik & Thüs, Hendrik (2012a): A 
reference model for learning analytics. IJTEL 4 (5–6), S. 318–331. 
Chatti, Mohamed Amine; Dyckhoff, Anna Lea; Schroeder, Ulrik & Thüs, Hendrik (2012b): 
Forschungsfeld Learning Analytics. Learning Analytics Research Challenges. i-com 11(1), 
S. 22–25. DOI: 10.1524/icom.2012.0007. 
Datenschutzbehörde (2018): Datenschutzrecht in Österreich. Abgerufen unter: https://
www.dsb.gv.at/recht-entscheidungen/gesetze-in-oesterreich.html [Stand vom 21-01-2021]. 
Drachsler, Hendrik & Greller, Wolfgang (2016): Privacy and Analytics – it’s a DELICATE 
Issue. A Checklist for Trusted Learning Analytics. In: LAK ‘16 (Hrsg.): Proceedings of the 
Sixth International Learning Analytics & Knowledge Conference. New York: ACM,  
S. 89–98. 
Ebner, Markus & Ebner, Martin (2018): Learning Analytics an Schulen – Hintergrund und 
Beispiele. Medienimpulse 56 (1), S. 1–28. DOI: 10.21243/mi-01-18-06. 
Learning Analytics 131 
Ebner, Martin; Leitner, Philipp & Ebner, Markus (2020): Learning Analytics in der Schule - 
Anforderungen an Lehrerinnen und Lehrer. In: Christine Trueltzsch-Wijnen & Gerhard 
Brandhofer (Hrsg.): Bildung und Digitalisierung. Auf der Suche nach Kompetenzen und 
Performanzen. Baden-Baden: Nomos (Medienpädagogik), S. 255–272. 
Europäisches Parlament und Rat (2018): Verordnung (EU) 2016/679 vom 27. April 2016 zum 
Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien 
Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG. Abgerufen unter: https://eur-
lex.europa.eu/legal-content/DE/TXT/PDF/?uri=CELEX:32016R0679&from=DE [Stand 
vom 21-01-2021]. 
Few, Stephen (2006): Information Dashboard Design. The Effective Visual Communication of 
Data. Beijing: O‘Reilly. 
Gaaw, Stephanie & Stützer, Cathleen M. (2017): Learning und Academic Analytics in 
Lernmanagementsystemen (LMS): Herausforderungen und Handlungsfelder im nationalen 
Hochschulkontext. In: Thomas Köhler et al. (Hrsg.): Wissensgemeinschaften in Wirtschaft, 
Wissenschaft und öffentlicher Verwaltung. Tagung Gemeinschaften in Neuen Medien. 
Dresden: TUDpress, S. 145–161. 
Gimpel, Gregory (2020): Bringing dark data into the light: Illuminating existing IoT data lost 
within your organization. Business Horizons 63 (4), S. 519–530. DOI: 10.1016/ 
j.bushor.2020.03.009. 
Grandl, Maria; Taraghi, Behnam; Ebner, Markus; Leitner, Philipp & Ebner, Martin (2017): 
Learning Analytics. In: Karl Wilbers & Andreas Hohenstein (Hrsg.): Handbuch  
E-Learning. Expertenwissen aus Wissenschaft und Praxis – Strategien, Instrumente, 
Fallstudien. Köln: Wolters Kluwer, S. 1–16. 
Hand, David J. (2020): Dark data. Why what you don’t know matters. Princeton: University 
Press. 
Hansen, Jan; Rensing, Christoph; Herrmann, Oliver & Drachsler, Hendrik (2020): 
Verhaltenskodex für Trusted Learning Analytics. Version 1.0. Entwurf für die hessischen 
Hochschulen. Frankfurt am Main: Innovationsforum Trusted Learning Analytics, S. 1–18. 
Hartong, Sigrid (2019): Learning Analytics und Big Data. Zur notwendigen Entwicklung eines 
datenpolitischen Alternativprogramms. In: Gewerkschaft Erziehung und Wissenschaft 
(Hrsg.): Bildung in der digitalen Welt. Frankfurt am Main: gew, S. 1–32. Abgerufen unter: 
https:// www.gew.de/index.php?eID=dumpFile&t=f&f=91791&token=702ec8d5f9770206
a4aa8a1079750ec9021b90bf&sdownload=&n=Learning-analytics-2019-web-IVZ.pdf 
[Stand vom 16-03-2021]. 
Hengstschläger, Markus (2020): Vorwort. In: Markus Hengstschläger & Rat für Forschung und 
Technologieentwicklung (Hrsg.): Digitaler Wandel und Ethik. Salzburg: ecowin, S. 8–19. 
Höfler, Elke & Kopp, Michael (2018): MOOCs und Mobile Learning. In: Claudia de Witt & 
Christina Gloerfeld (Hrsg.): Handbuch Mobile Learning. Wiesbaden: Springer VS,  
S. 543–564. 
132  Silvia Lipp 
Holst, Sonja; Schütze, Bernd & Spyra, Gerald (2018): Arbeitshilfe zur Pseudonymisierung / 
Anonymisierung. In: GMDS Deutsche Gesellschaft für Medizinische Informatik, Biometrie 
und Epidemiologie e. V. (Hrsg.): Arbeitsgruppe „Datenschutz und IT-Sicherheit im 
Gesundheitswesen“. Köln: GMDS, S. 1–43. Abgerufen unter: https://www.gesundheits
datenschutz.org/download/Pseudonymisierung-Anonymisierung.pdf [Stand vom 21-03-
2021]. 
Ifenthaler, Dirk & Schumacher, Clara (2016): Learning Analytics im Hochschulkontext. WIST 
45 (4), S. 176–181. DOI: 10.15358/0340-1650-2016-4-176. 
Johnson, Larry; Adams, Samantha & Cummins, Michele (2012): Horizon Report: 2012 Higher 
Education Edition. Austin: NMC. 
Khalil, Mohammad & Ebner, Martin (2015): Learning Analytics: Principles and Constraints. 
In: Proceedings of World Conference on Educational Multimedia, Hypermedia and 
Telecommunication. Chesapeake: AACE, S. 1326–1336. 
Kiy, Alexander & Lucke, Ulrike (2014): Learning-Analytics-Werkzeuge im Praxisvergleich. 
In: Christoph Rensing & Stephan Trahasch (Hrsg.): Proceedings of DeLFI Workshops 2014 
co-located with 12th e-Learning Conference of the German Computer Society. Freiburg: 
Ges. für Informatik, S. 104–111. 
Krotova, Alevtina (2020): Datennutzung: Offensive Großunternehmen, defensiver Mittelstand. 
Köln: Institut der deutschen Wirtschaft (IW-Kurzbericht). 
Lachmayer, Konrad & von Lewinski, Kai (2019): Einleitung. In: Konrad Lachmayer &  
Kai von Lewinski (Hrsg.): Datenschutz im Rechtsvergleich. Deutschland – Österreich 
(Schriften zum internationalen und vergleichenden öffentlichen Recht). Wien: Facultas,  
S. 9–13. 
Leitner, Phillip & Ebner, Martin (2017): Development of a dashboard for learning analytics in 
higher education. In: Panayiotis Zaphiris & Andri Ioannou (Hrsg.): Learning and 
Collaboration Technologies. Technology in Education. Fourth International Conference, 
LCT. Cham: Springer, S. 293–301. 
Mandausch, Martin & Meinhard, David B. (2018): Learning Analytics – ein hochschul-
didaktischer Diskurs zu Datenanalysen in der Lehre. In: Martina Schmohr et al. (Hrsg.): 
Gelingende Lehre: erkennen, entwickeln, etablieren: Beiträge der Jahrestagung der 
Deutschen Gesellschaft für Hochschuldidaktik (dghd) 2016. Bielefeld: wbv, S. 19–33. 
Marnau, Ninja (2016): Anonymisierung, Pseudonymisierung und Transparenz für Big Data. 
DuD – Datenschutz und Datensicherheit 40 (7), S. 428–433. DOI: 10.1007/s11623-016-
0631-9. 
Parkes, Sarah; Benkwitz, Adam; Bardy, Helen; Myler, Kerry & Peters, John (2020): Being 
more human: rooting learning analytics through resistance and reconnection with the values 
of higher education. Higher Education Research and Development 39 (1), S. 113–126. 
DOI: 10.1080/07294360.2019.1677569. 
Learning Analytics 133 
Romero, Cristobal & Ventura, Sebastian (2020): Educational data mining and learning 
analytics: An updated survey. WIREs Data Mining Knowledge Discovery 10 (3), S. 1–21. 
DOI: 10.1002/widm.1355. 
Schmidl, Matthias (2019): Verordnung (EU) 2016/679 – Datenschutz-Grundverordnung, 
Leitfaden. Datenschutzbehörde Republik Österreich. 
Siemens, George & Baker, Ryan S. J. d. (2012): Learning analytics and educational data 
mining. In: LAK’12 (Hrsg.): Proceedings of the Second International Learning Analytics & 
Knowledge Conference. New York: ACM, S. 252–254. 
Slade, Sharon & Prinsloo, Paul (2013): Learning Analytics: Ethical Issues and Dilemmas. 
American Behavioral Scientist 57 (10), S. 1510–1529. DOI: 10.1177/0002764213479366. 
U.S. Department of Education, Office of Educational Technology (2014): Enhancing Teaching 
and Learning Through Educational Data Mining and Learning Analytics: An Issue Brief. 
Washington: U.S. Department of Education, S. 1–60. 
  

Umgang mit (digitalen) Forschungsdaten:  
Rahmungen, Effekte und Herausforderungen 
Michaela Rizzolli 
 
Zusammenfassung  
Der planvolle und nachhaltige Umgang mit (digitalen) Forschungsdaten hat in den 
letzten Jahren immer mehr Aufmerksamkeit erfahren. Hochschulen, Universitäten, 
Forschungsgemeinschaften sowie Forschungsverbünde haben vermehrt Leitlinien und 
Empfehlungen zum Umgang mit Forschungsdaten erlassen. Auch von Förder-
institutionen, wie beispielsweise der Deutschen Forschungsgemeinschaft, werden 
zunehmend Angaben zum Datenmanagement bei der Antragstellung gefordert. Wesent-
liche Aspekte hierbei sind die Herkunft der Daten, die Maßnahmen für ihre 
angemessene Sicherung und ihre mögliche Nach- und Weiternutzung. 
Der Beitrag nimmt das Handlungsfeld Forschungsdatenmanagement, seine Rahmungen, 
Effekte und Herausforderungen in den Blick. Er gründet auf der Annahme, dass mit den 
gegenwärtigen Entwicklungen und den zahlreichen Bemühungen zur Dissemination von 
Forschungsdatenmanagement auch Momente von Kontextsteuerung, Diskursnormie-
rungen und Verschiebungen von Normalitätserwartungen einhergehen.  
 
1. Digitaler Wandel: Forschungsdaten gewinnen an Bedeutung 
 
Die voranschreitende Digitalisierung beeinflusst und verändert die Praktiken wissenschaft-
licher Arbeit. Neue Technologien, digitale Werkzeuge und Infrastrukturen haben in den letzten 
Jahren vermehrt Einzug in nahezu alle Wissenschaftsdisziplinen gehalten und laden zur 
Entwicklung neuer Methoden und Arbeitsweisen ein.  
Die Deutsche Forschungsgemeinschaft (DFG) hat dies im Oktober 2020 zum Anlass 
genommen, ein Impulspapier zum digitalen Wandel in den Wissenschaften zu formulieren. 
Darin werden die wichtigsten Merkmale des digitalen Wandels identifiziert, die wesentlichen 
Auswirkungen des digitalen Wandels auf die Forschung benannt und zukünftige Handlungs-
felder der DFG abgesteckt. Unter dem Begriff „digitaler Wandel“ fasst die DFG 
„alle relevanten Veränderungen und Auswirkungen in epistemischer, ethischer, 
rechtlicher, technischer, infrastruktureller, organisatorischer, finanzieller und 
auch sozialer Hinsicht […], die sich durch die Entwicklung und Nutzung 
digitaler Technologien in den Wissenschaften ergeben.“ (Deutsche 
Forschungsgemeinschaft 2020, S. 4) 
Aus Sicht der DFG (ebd.) ist der digitale Wandel kein „wissenschaftsinternes Phänomen“. 
Vielmehr sehen sich alle Bereiche der Gesellschaft und Wirtschaft durch den Einzug digitaler 
136  Michaela Rizzolli 
Technologien und der Etablierung digitaler Arbeitsweisen grundlegenden Veränderungen1 
ausgesetzt. Die Wissenschaft ist aber laut DFG in ganz besonderer Weise befähigt und 
gefordert, den digitalen Wandel aktiv zu gestalten, seine Chancen zu nutzen und die 
vielfältigen Herausforderungen zu bewältigen. Klicken oder tippen Sie hier, um Text 
einzugeben. 
Wandel infolge von Digitalisierungsprozessen fordert jedoch nicht nur wissenschaftliche 
Arbeitspraktiken und elaborierte Verfahren wissenschaftlicher Gemeinschaften heraus, sondern 
schlägt sich folgenreich auf Grundprinzipien und Normen guter wissenschaftlicher Praxis 
sowie Diskursen von Wissenschaft und ihren Öffentlichkeiten nieder. Ganz besonders deutlich 
wird dies im Hinblick auf die Forschungsdaten. Hierfür lassen sich mehrere Beispiele nennen 
wie z.B. Änderungen in den Anforderungen zum Umgang mit Forschungsdaten (siehe  
Deutsche Forschungsgemeinschaft 2019), die zunehmende Anerkennung von (digitalen) 
Forschungsdaten als wertvolle Quelle und eigenständige Wissenschaftsleistung (vgl. Jensen 
2019, S. 31), die Entwicklung und Etablierung von institutionellen Policies2 oder der Aufbau 
einer nationalen Forschungsdateninfrastruktur (NFDI)3.   
Der folgende Abschnitt folgt dem Gedanken, dass digitale Forschungsdaten in allen Wissen-
schaftsdisziplinen immer mehr an Bedeutung gewinnen und fragt danach, was Forschungs-
daten eigentlich sind und wie wir mit ihnen umgehen.  
 
2. Forschungsdaten und Forschungsdatenmanagement: 
Ein „neues“ Handlungsfeld für Wissenschaft und Forschung  
 
Der Begriff „Forschungsdaten“ umfasst grundsätzlich alle (analogen und digitalen) 
Informationen und Daten, die „während des Forschungsprozesses entstehen oder ihr Ergebnis 
sind“ (Kindling et al. 2013, S. 45). Ein großer Teil der Forschungsdaten liegt heute in digitaler 
Form vor. Selbst in Disziplinen und Forschungsvorhaben, in denen analoge Arbeitsweisen mit 
„Stift und Papier“ (Imeri 2018b, S. 213) weiter Anwendung finden, spielen digitale 
Forschungsdaten und Methoden eine immer größer werdende Rolle. Auch in 
Wissenschaftsdisziplinen, die gewöhnlich mit Texten, Objektbeschreibungen und Bilder zu tun 
                                                        
1  Die DFG (2020, S.6) unterscheidet drei Typen des Wandels: Erstens die Transformation analoger 
Daten in digitale Formate (transformativer Wandel). Zweitens die Nutzung datenintensiver Techno-
logien zur Bearbeitung von Forschungsfragen (ermöglichender Wandel) und drittens die Ablösung 
von grundlegenden Arbeitsweisen und Grundprinzipien (substituierender Wandel). 
2  So wurde beispielsweise am 5. Mai 2021 eine Policy für das Forschungsdatenmanagement an der 
Freien Universität Berlin und eine Aktualisierung der Open-Access-Policy durch den Akademischen 
Senat verabschiedet. Eine allgemeine Übersicht über institutionelle Policies ist unter 
https://www.forschungsdaten.org [Stand vom 07-05-2021] zu finden. 
3  https://www.nfdi.de/ [Stand vom 07-05-2021]. 
Umgang mit (digitalen) Forschungsdaten 137 
haben, finden diese nun verstärkt in digitaler Form Verwendung.4 Gleichwohl wird nach wie 
vor nicht in jeder Forschung das gesamte Material digital erzeugt bzw. in eine digitale Form 
überführt. Wie Jane Kamensky, eine amerikanische Historikerin und Professorin für 
Geschichte an der Harvard University 2017 im Rahmen eines Symposiums zur digitalen 
Transformation des Sammelns an wissenschaftlichen Bibliotheken treffend formuliert, „in an 
era where it is fashionable to talk about the power and promise of ‘big data,’ much scholarship 
is still ‘tiny data,’ gathered by hand, and involves touching and noticing small details.“ (Malpas 
und Proffitt 2017, S. 14) 
Doch was genau sind Forschungsdaten und was bedeutet es, sie zu managen? Diese Frage lässt 
sich nach Fabian Cremer et al. (2015, S. 14) „konkret nur aus Sicht der Fachdisziplinen oder 
Fach-Communities“ beantworten. Während sich aber in den Naturwissenschaften ein 
allgemein geteiltes Verständnis davon, was Forschungsdaten sind, bereits etablieren konnte, 
hat sich in den geisteswissenschaftlichen Fächern noch keine gemeinsame Begriffsdefinition 
herausgebildet (vgl. Andorfer 2015, S. 4; Cremer et al. 2018, S. 153). Auch in den 
ethnologischen Fächern steht eine Reflexion des Datenbegriffs noch aus (vgl. Imeri 2018a, S. 
72; Deutsche Gesellschaft für Sozial- und Kulturanthropologie 2019, S. 2), sodass mithin 
unklar bleibt, was genau durch den Begriff bezeichnet wird und „bei welchem 
Bearbeitungsstand von ‚Daten‘ gesprochen werden kann oder sollte“ (Imeri 2019, S. 53).5 
Ausgehend davon, dass die Bedeutung des Datenbegriffs zunächst aus der eigenen Disziplin 
heraus begriffen werden muss, gibt der vorliegende Artikel zu bedenken, dass, wenn dem so 
sein sollte, die Frage womöglich falsch gestellt sei. Die Frage ist vielleicht gar nicht, was 
Forschungsdaten eigentlich sind, sondern wohl eher: Was wollen individuelle Forschende, 
einzelne Fachdisziplinen oder künftige data communities6 als (Forschungs-)Daten auffassen? 
Die DFG (2015) begreift Forschungsdaten als eine „wesentliche Grundlage für das wissen-
schaftliche Arbeiten“. Entsprechend werden Forschungsdaten nicht als Nebenprodukt, sondern 
vielmehr als Basis einer jeden Forschungstätigkeit betrachtet. Zu Forschungsdaten zählt die 
DFG etwa Texte, Objekte aus Sammlungen oder Proben, Umfragedaten, Messdaten, 
Laborwerte und methodische Testverfahren wie z.B. Fragebögen, Software und Quellcode. 
Aber auch Interviewdaten, Audio- und Videoaufnahmen, Bilder, Protokolle und vieles andere 
mehr werden unter den Begriff Forschungsdaten gezählt. Zentral ist in diesem Zusammenhang 
nun, dass Forschungsdaten in den letzten Jahren einen „völlig neuen und gesteigerten 
Stellenwert“ (Putnings et al. 2021, S. 115) erhalten haben. Sabine Imeri (2018b, S. 213) 
argumentiert, dass Forschungsdaten aus Sicht der Förderinstitutionen in allen Disziplinen 
                                                        
4  Zu Forschungsdaten in der (digitalen) Geschichtswissenschaft vgl. Hiltman 2018. 
5  Besonders schwierig erweist sich der Begriff des „Datums“ für die qualitative Sozialforschung, sofern 
er Daten mit Informationen gleichsetzt oder die Vorstellung von Daten als Fakten (‚data as hard 
numbers‘) voraussetzt.  
6  Danielle Cooper und Rebecca Springer (2019, S.16) definieren „data communities" als „a loosely 
connected group of scholars who all work with a particular type of data, often linked by professional 
relationships”. Data Communities zeichnen sich durch gemeinsame formelle oder informelle 
Praktiken des Teilens und Nachnutzens von Daten aus.  
138  Michaela Rizzolli 
„künftig nicht nur abgelegt, ausgewertet, kombiniert und interpretiert, sondern auch gemanagt, 
langfristig archiviert, möglichst frei ausgetauscht und zur weiteren Verwendung zur Verfügung 
gestellt werden“.  
Unter dem Label „Forschungsdatenmanagement“ werden ganz allgemein alle Aktivitäten und 
Maßnahmen gefasst, die mit der „Aufbereitung, Speicherung, Archivierung und Veröffent-
lichung von Forschungsdaten verbunden sind“ (Simukovic et al. 2013, S. 6). Imeri et al. (2018, 
S. 72-73) unterscheiden drei Ebenen, anhand derer sich das Forschungsdatenmanagement und 
die damit verbundenen Erfordernisse beschreiben und kategorisieren lassen: Die erste Ebene – 
das prozessbegleitende Datenmanagement – umfasst zunächst einmal alle organisatorischen 
und technischen Maßnahmen und Entscheidungen, die zu treffen sind, um im 
Forschungsprozess einen adäquaten Umgang mit Forschungsdaten zu gewährleisten. Dazu 
zählen beispielsweise die Organisation und Ablage, Speicherung und Sicherung sowie der 
projektinterne Austausch von Forschungsdaten. Auf der Ebene der Langzeitarchivierung geht 
es darum, Forschungsdaten nach Projektende und unter Einhaltung datenschutzrechtlicher 
Vorgaben dauerhaft für einen angemessenen Zeitraum abzulegen. Langzeitarchivierung geht 
dabei über das reine Backup oder die Ablage auf Festplatten hinaus. Im Sinne der 
Langzeitarchivierung müssen Daten stets „lesbar“ erhalten werden, z.B. auch über eine lange 
Speicherdauer und etwaige Dateiformatänderungen hinweg. Die dritte Ebene des 
Datenmanagements betrifft die Bereitstellung und Nachnutzung von Forschungsdaten. Hier 
geht es darum, Wissen nicht nur zu sammeln und aufzubewahren, sondern mit anderen zu 
teilen und für weitere Forschung nutzbar zu machen. Forschungs-datenmanagement fungiert 
hier als ein umfassender Begriff, um eine Menge von Aktivitäten und Erfordernissen zu 
beschreiben, die im Umgang mit (digitalen) Forschungsdaten derzeit neu ausgehandelt werden.  
Auch wenn digitale Forschungsdaten über alle Fächer hinweg immer mehr an Bedeutung 
gewinnen und das Thema Forschungsdatenmanagement mittlerweile in allen Fachdisziplinen 
Eingang gefunden hat, lassen sich bei der konkreten Umsetzung von Forschungsdaten-
management und der Entwicklung geeigneter Verfahren und infrastruktureller Lösungen in den 
Fachdisziplinen „jedoch (noch) unterschiedliche Geschwindigkeiten“ (Cremer et al. 2015,  
S. 14) feststellen. Während sich in einigen Disziplinen bereits geeignete Best-Practice-
Lösungen, Daten-Infrastrukturen und verbindliche Vorgehensweisen etabliert haben, stehen 
andere Fach-Communities noch am Anfang bzw. sehen sich mit ganz besonderen 
Herausforderungen konfrontiert.7  
Darüber hinaus unterliegt der „adäquate“ Umgang mit Forschungsdaten wiederum 
gesellschaftlichen Wertungen, Normen sowie institutionellen Anforderungen. Mittlerweile 
wurde der Umgang mit Forschungsdaten in Richtlinien und Policies von wissenschaftlichen 
Institutionen und Förderorganisationen verankert. In anderen Worten, Forschungsdaten-
management ist das Ergebnis wissenschaftspolitischer Forderung nach einem zeitgemäßen 
Management, einer nachhaltigen Aufbewahrung und einem offenen Austausch von 
                                                        
7  So stellt beispielsweise die Ebene der Nachnutzung ein besonders schwieriges Terrain für ethno-
grafische Forschung dar (vgl. Imeri et al. 2018, S. 73). 
Umgang mit (digitalen) Forschungsdaten 139 
wissenschaftlichen Daten. Im Folgenden werden die wissens- und förderpolitischen 
Rahmungen des Umgangs mit Forschungsdaten in Deutschland, insbesondere die 
entscheidenden Impulse der DFG zum Umgang mit Forschungsdaten näher beleuchtet. Darin 
zeigen sich die verbindlichen Regeln, Anforderungen und Erwartungen, die aktuell von 
Wissenschaft und Politik im Handlungsfeld „Forschungsdatenmanagement“ verhandelt 
werden. 
 
3. Wissenschaftspolitische Rahmungen: Regulierung und 
Standardisierung des Umgangs mit Forschungsdaten 
 
Mit der Denkschrift zur „Sicherung guter wissenschaftlicher Praxis“ legt die DFG (1988) den 
Grundstein für ein nachhaltiges Forschungsdatenmanagement an wissenschaftlichen 
Einrichtungen in Deutschland. Darin heißt es (siehe Empfehlung 7, S. 12, Herv. im Original): 
„Primärdaten als Grundlagen für Veröffentlichungen sollen auf haltbaren und gesicherten 
Trägern in der Institution, wo sie entstanden sind, für zehn Jahre aufbewahrt werden.“ Wie in 
den Erläuterungen zur Empfehlung 7 ausgeführt wird, sollen die Arbeitsschritte auf dem Weg 
zum wissenschaftlichen Ergebnis so nachvollziehbar dargelegt werden, dass sie an anderer 
Stelle „nachvollzogen“ bzw. „reproduziert“ werden können. Einerseits werden 
arbeitsökonomische Gründe hierfür als maßgebend betrachtet, andererseits wird die 
langfristige Archivierung von Forschungsdaten als Voraussetzung für die prinzipielle 
Nachvollziehbarkeit und Überprüf-barkeit wissenschaftlicher Ergebnisse betrachtet.  
2003 wurde die „Berliner Erklärung über den offenen Zugang zu wissenschaftlichem Wissen“ 
veröffentlicht und seither von zahlreichen Wissenschaftsorganisationen unterzeichnet.8 Die 
Empfehlungen zum „offenen Zugang“ (Open Access) richten sich nicht nur an Forschungs- 
und Förderinstitutionen, sondern auch an kulturelle Einrichtungen wie Bibliotheken, Archive 
und Museen. In der Berliner Erklärung wird das Ziel formuliert, die neuen Möglichkeiten des 
Internets zu nutzen, um Wissen einer möglichst breiten Öffentlichkeit zugänglich zu machen.  
Betont wird, dass „unsere Aufgabe Wissen weiterzugeben […] nur halb erfüllt [ist], wenn diese 
Informationen für die Gesellschaft nicht in umfassender Weise und einfach zugänglich sind“. 
Im Zitat finden sich Hinweise darauf, dass Veröffentlichung und Zugänglichmachung als 
Aufgabe und Verantwortung gegenüber einer Öffentlichkeit verstanden und eingefordert 
werden. Gewünscht wird nicht weniger als ein „Kulturwandel“ (vgl. Imeri 2018b, S. 217), der 
in der Berliner Erklärung als ein „Prozess des Übergangs zu einer Kultur des offenen Zugangs“ 
umschrieben wird. Als Objekte, die nach dem „Prinzip des offenen Zugangs“ frei zugänglich 
                                                        
8  Aktueller Stand der Unterzeichner abgerufen unter: http://oa.mpg.de/lang/de/berlin-prozess/ 
signatoren/ [Stand vom 07-05-2021]. 
140  Michaela Rizzolli 
gemacht werden sollen, werden nicht nur wissenschaftliche Forschungsergebnisse, sondern 
auch Forschungsdaten9 genannt.   
Seit 2007 gibt es im Rahmen von DFG-Sonderforschungsbereichen die Möglichkeit, ein 
Infrastrukturprojekt (kurz: INF) zu beantragen (vgl. Engelhardt 2013).. Damit wurde ein 
wichtiger Schritt gesetzt, um Forschungsdatenmanagement in größeren Forschungsverbünden 
lokal einzubetten10 und Lösungen und Maßnahmen im direkten Austausch mit Forschenden zu 
entwickeln. Zu den Kernaktivitäten von INF-Projekten zählen neben der Planung und 
Umsetzung eines nachhaltigen Datenmanagementkonzepts auch der Aufbau und der Betrieb 
der dafür notwendigen Infrastruktur. Dazu arbeiten INF-Projekte eng mit Informations-
einrichtungen am Standort, z.B. den Bibliotheken oder Rechenzentren, zusammen. Sie nehmen 
daher eine wichtige Mittlerposition zwischen den vorhandenen Infrastruktureinrichtungen und 
den spezifischen Bedarfen der Forschenden ein. Dass Forschungsdatenmanagement nicht nur 
eine Frage der Infrastruktur ist, zeigt die unterschiedliche Ausgestaltung und 
Schwerpunktsetzung innerhalb der INF-Projekte.11 
Im Jahr 2010 hat die Allianz der deutschen Wirtschaftsorganisationen „Grundsätze zum 
Umgang mit Forschungsdaten“ verabschiedet. Darin hält sie fest: „Qualitätsgesicherte 
Forschungsdaten bilden einen Grundpfeiler wissenschaftlicher Erkenntnis.“ Die Allianz spricht 
sich darin für eine langfristige Sicherung und Zugänglichkeit von Forschungsdaten aus. 
Weitere Themenfelder, die im Grundsatzpapier aufgegriffen werden, sind Unterschiede der 
wissenschaftlichen Disziplinen, wissenschaftliche Anerkennung, Lehre und Qualifizierung, 
Verwendung von Standards und Entwicklung von Infrastrukturen. Die Allianz-Grundsätze 
gelten als wichtiger Meilenstein in der damaligen Diskussion um den zeitgemäßen Umgang 
mit Forschungsdaten.  
Die DFG verabschiedet am 30. September 2015 die „Leitlinien zum Umgang mit Forschungs-
daten“. Darin greift die DFG die „Grundsätze“ der Allianz auf und konkretisiert diese 
hinsichtlich der DFG-Fördervorgaben. In den Leitlinien schreibt die DFG den Gedanken fort, 
dass Forschungsdaten einen Grundpfeiler wissenschaftlichen Arbeitens darstellen und 
Grundlage für weiterführende Forschung sein können. Die nachhaltige Sicherung und 
Bereitstellung der Forschungsdaten eröffnet aus Sicht der DFG nicht nur Anschlussmög-
lichkeiten für weitere Forschung, sondern ist zugleich bedeutsam für die „Qualitätssicherung“ 
wissenschaftlicher Arbeit. Mit der Veröffentlichung der Leitlinien ist zugleich eine Auffor-
derung an die Fachgemeinschaften gerichtet, ihren Umgang mit Forschungsdaten zu 
reflektieren.  
Im Juli 2019 hat die DFG einen Kodex „Leitlinien zur Sicherung guter wissenschaftlicher 
Praxis“ beschlossen. Dieser ist am 1. August 2019 in Kraft getreten und ersetzt die ehemalige 
Denkschrift zur „Sicherung guter wissenschaftlicher Praxis“, die zuletzt 2013 überarbeitet 
                                                        
9  Als Forschungsdaten sind z.B. Ursprungsdaten, Quellenmaterialien, bildliche und graphische 
Materialien sowie multimediale Darstellungen aufgelistet.  
10  Wird auch als „Embedded Data Management“ bezeichnet. Siehe dazu Cremer et al. 2015. 
11  Zur unterschiedlichen Ausgestaltung und Schwerpunktsetzung von INF-Projekten siehe Engelhardt 
2013. 
Umgang mit (digitalen) Forschungsdaten 141 
worden war. Der Kodex der Deutschen Forschungsgemeinschaft richtet sich sowohl an 
WissenschaftlerInnen als auch an die Hochschulen und außerhochschulischen Forschungs-
einrichtungen. Die Wissenschaftseinrichtungen in Deutschland sind aufgefordert, die Leit-
linien in den eigenen Satzungen zur guten wissenschaftlichen Praxis bis zum 
31. Juli 2022 rechtsverbindlich umzusetzen, um auch in Zukunft Fördermittel durch die DFG 
erhalten zu können. Inhaltlich fasst der Kodex die zentralen Standards guter wissenschaftlicher 
Praxis zusammen und beschreibt das Verfahren im Falle wissenschaftlichen Fehlverhaltens. In 
mehreren Leitlinien des Kodex finden sich Angaben zum Umgang mit Forschungsdaten. Dabei 
spielen neben einer Reihe forschungspraktischer Aspekte des Managements von Daten 
insbesondere die Forschungsdatenpublikation und die Aufbereitung von Forschungsdaten 
hinsichtlich der weiteren Nachnutzung eine zentrale Rolle.12  
So findet sich in der Leitlinie (L) 13 die Annahme, dass die Herstellung von öffentlichem 
Zugang zu Forschungsergebnissen grundsätzlich zur guten wissenschaftlichen Praxis von 
Forschenden gehöre. Aus Gründen der „Nachvollziehbarkeit, Anschlussfähigkeit der 
Forschung und Nachnutzbarkeit“ (Erläuterungen zu L13, S. 19)  sollen aus Sicht der DFG 
künftig neben den Ergebnissen auch „die den Ergebnissen zugrunde liegenden 
Forschungsdaten, Materialien und Informationen, die angewandten Methoden sowie die 
eingesetzte Software verfügbar“ (ebd.) gemacht und Arbeitsverfahren und Abläufe 
nachvollziehbar dargelegt werden. Gleichzeitig erkennt L13 (S. 18) an, dass es „im Einzelfall 
[…] aber Gründe geben [kann], Ergebnisse nicht öffentlich zugänglich […] zu machen“ oder 
nur unter bestimmten Bedingungen nach außen zu geben. Forschende sind demnach 
aufgefordert, die den Publikationen zugrunde liegenden Forschungsdaten, wo immer „möglich 
und zumutbar“ (Erläuterungen zu L10, S. 16) zu veröffentlichen, um so im Sinne einer 
transparenten Wissenschaft einen Beitrag zu Open Science zu leisten. Forschungsdaten sollen 
gemäß der FAIR13 Prinzipien auffindbar (Findable), zugänglich (Accessibe), interoperabel 
(Interoperable) und wiederverwendbar (Reusable) sein.  
Als Publikationsorgane (L15, S. 21) sollen neben Büchern und Zeitschriften auch Fach-, 
Daten- oder Softwarerepositorien in Betracht gezogen werden. Die Entscheidung, ob, wie und 
wo Ergebnisse öffentlich zugänglich gemacht werden, soll laut DFG von Forschenden „in 
eigener Verantwortung – unter Berücksichtigung der Gepflogenheiten des betroffenen 
Fachgebiets“ (L13, S. 18) getroffen werden. In der L17 werden über die WissenschaftlerInnen 
hinaus auch die wissenschaftlichen Einrichtungen in die Pflicht genommen, die für die 
nachhaltige Sicherung erforderliche Infrastruktur bereitzustellen. Forschungsdaten, die einer 
Publikation zugrunde liegen, sollen in „adäquater Weise“ gesichert und für einen „angemes-
senen Zeitraum“ aufbewahrt werden (L17, S. 22). Daten sollen an der Einrichtung, wo sie 
                                                        
12  Heinz Pampel hält am 10.07.2020 im Gemeinschaftsblog zu wissenschaftlicher Kommunikation im 
Netz dazu fest, dass es bemerkenswert sei, „wie tief die Forderung nach Open Science den Kodex 
durchdringt“. https://wisspub.net/2010/07/10/grundsatze-zum-umgang-mit-forschungsdaten-verof-
fentlicht/ [Stand vom 07-05-2021]. 
13  Siehe auch https://www.go-fair.org/fair-principles/ [Stand vom 07-05-2021].  
142  Michaela Rizzolli 
entstanden sind oder in standortübergreifenden Repositorien zugänglich gemacht und 
nachvollziehbar gespeichert werden.  
Die überblicksartige Darstellung der wissenschaftspolitischen Rahmenbedingungen und der 
bestehenden Regelungen, Leitlinien und Empfehlungen zeigt, dass der Ruf nach einem 
adäquaten Forschungsdatenmanagement vonseiten der Politik und Wissenschaft immer lauter 
wird. Sie gibt Aufschluss darüber, wie der Umgang mit (digitalen) Forschungsdaten von 
Politik und Wissenschaft verhandelt und zu unterschiedlichen Zeiten schriftlich fixiert wird: 
Forschungsdatenmanagement wird in erster Linie als Mittel und Zweck zur Herstellung von 
Transparenz und Nachvollziehbarkeit erkennbar. So sollen die den Forschungsergebnissen 
zugrunde liegenden Informationen im Sinne guter wissenschaftlicher Praxis dokumentiert und 
archiviert werden. Darüber hinaus wird Forschungsdatenmanagement als Instrument zur 
Förderung von Nachhaltigkeit in Wissenschaft und Forschung an verschiedenen Stellen 
eingefordert. Es gilt als explizites Ziel (und Erwartung) des Forschungsdatenmanagements, 
wissenschaftliche Ergebnisse und die ihnen zugrunde liegenden Daten so offen wie möglich 
mit der Scientific Community bzw. einer Öffentlichkeit zu teilen und damit die Entstehung 
weiterer Erkenntnisse zu ermöglichen. Als Instrument der Kontrolle und Qualitätssicherung 
zielt Forschungsdatenmanagement auf die Reproduzierbarkeit und Überprüfbarkeit von 
Forschungsergebnissen ab. Die sorgfältige Dokumentation und Archivierung von Forschungs-
daten sollen dazu dienen, weitere Auswertungen bzw. Replikationen von Ergebnissen zu 
ermöglichen.  
Darüber hinaus ist Forschungsdatenmanagement auch ein Instrument der Regulierung und 
Standardisierung, das Effekte freisetzt und Herausforderungen – insbesondere für die 
qualitative Sozialforschung – beinhaltet. Die fachübergreifenden Regelungen, Empfehlungen 
und Leitlinien sehen sich mit der Kritik konfrontiert, dass diese nicht vollends mit bisherigen 
Arbeitsweisen von Forschenden bzw. Disziplinen im Einklang stehen. Die DFG hat daher 
bereits 2015 einen Appell an alle Wissenschaftsdisziplinen gerichtet, „ihren Umgang mit 
Forschungsdaten zu reflektieren und angemessene Regularien zur disziplinspezifischen 
Nutzung und ggf. offenen Bereitstellung von Forschungsdaten zu entwickeln“. (Deutsche 
Forschungsgemeinschaft 2015, S. 2)  Mittlerweile sind verschiedene Fachgesellschaften 
diesem Auftrag nachgekommen und haben differenzierte Beurteilungen der Anforderungen an 
einen nachhaltigen Umgang mit Forschungsdaten in Form von Positionspapieren und 
Empfehlungen14 vorgelegt. Darin werden sowohl Möglichkeiten und Herausforderungen der 
Bereitstellung und Nachnutzung von Forschungsdaten thematisiert, Zielkonflikte und 
Passungsprobleme artikuliert sowie Bedarfe und Forderungen an Förderorganisationen 
formuliert. Der nächste Abschnitt widmet sich schwerpunktmäßig den Herausforderungen des 
Umgangs mit (digitalen) Forschungsdaten in der qualitativen Sozialforschung. 
                                                        
14  In Anlehnung an Maike Altenrath et al. (2020) wird davon ausgegangen, dass Förderrichtlinien dem 
aktuellen politischen Diskurs entsprechen bzw. etwas darüber aussagen. 
Umgang mit (digitalen) Forschungsdaten 143 
4. Effekte und Herausforderungen: Forschungsdatenmanagement 
in der qualitativen Sozialforschung 
 
Auch qualitativ Forschende sehen sich zunehmend mit der Erwartung konfrontiert, ihre 
heterogenen Forschungsdaten und -materialien zu archivieren und wenn möglich zur 
Nachnutzung, z.B. im Rahmen von Sekundäranalysen zur Verfügung zu stellen. Als 
Ausgangspunkt und Hintergrund der folgenden Erörterung dient exemplarisch15 für die 
qualitative Sozialforschung das „Positionspapier zum Umgang mit ethnologischen Forschungs-
daten“ der Deutschen Gesellschaft für Sozial- und Kulturanthropologie (DGSKA) (2019), das 
„Positionspapier zur Archivierung, Bereitstellung und Nachnutzung von Forschungsdaten“ der 
Deutschen Gesellschaft für Volkskunde (dgv) (2018) und die Stellungnahme des Vorstands 
und Konzils der Deutschen Gesellschaft für Soziologie (DGS) (2019) zur „Bereitstellung und 
Nachnutzung von Forschungsdaten“. Der folgende Abschnitt geht der Frage nach, vor welche 
Herausforderungen das Datenmanagement die qualitative Sozialforschung stellt. Zugleich gerät 
in den Fokus, welche Verschiebungen, Normalitätserwartungen und Diskursnormierungen 
einhergehen, geprägt und vonseiten der Fördergeber vorangetrieben werden. Nach Sichtung der 
Papiere lassen sich vier gemeinsame Schnittpunkte im Hinblick auf die Archivierung, 
Bereitstellung und Verfügbarmachung von qualitativen Forschungsdaten bestimmen:  
Nicht alle qualitativen Forschungsdaten können einer Nachnutzung zugänglich gemacht 
werden.  
Blickt man zunächst auf Aussagen zur Bereitstellung und Nachnutzung von Forschungsdaten, 
ist allen Positionspapieren die Annahme inhärent, dass die Verfügbarmachung von 
Forschungsdaten im Kontext qualitativer Forschungsvorhaben nur begrenzt möglich ist. 
Während die DGS (2019) im Positionspapier ganz grundsätzlich festhält, dass „nicht alle 
wissenschaftlich erhobenen Forschungsdaten (…) einer Nachnutzung zugänglich gemacht 
werden“ können, verweist die DGSKA (2019) auf die Schwierigkeit der Veröffentlichung und 
freien Verfügbarmachung von ethnologischen Forschungsdaten. Die dgv nimmt noch 
feingranularer auf die Daten Bezug, die im Zuge ethnografischer Verfahren entstehen. Sie hält 
fest: „Eine regelrechte Veröffentlichung ethnografischer Daten wird in der überwiegenden Zahl 
der Fälle nicht möglich sein.“ (Deutsche Gesellschaft für Volkskunde 2018, S. 5)  
Entsprechend darf die Nachnutzbarkeit von Daten nicht als „Normalmodell“ von Forschung 
gelten.  
                                                        
15  Auswahlkriterien für diese Dokumente war die eigene Verortung im Sonderforschungsbereich 
(SFB) 1171 „Affective Societies – Dynamiken des Zusammenlebens in bewegten Welten“ an der 
Freien Universität Berlin. Der SFB 1171 versammelt insgesamt zehn Disziplinen aus den Geistes-, 
Kultur-, Sozial-, und Naturwissenschaften. Schwerpunktmäßig liegt der Fokus meiner Arbeit im 
integrativen Service- und Forschungsprojekt „Datenmanagement und Informationsinfrastruktur“ auf 
dem FDM in den ethnologischen bzw. ethnografischen Teilprojekten.  
144  Michaela Rizzolli 
Die Feststellung, dass nicht alle Forschungsdaten gleichermaßen für die Nachnutzung 
wissenschaftlich zugänglich gemacht werden kann, ist nicht als generelle Ablehnung des 
Datenmanagements und Data Sharing zu lesen. Vielmehr machen die Fachgesellschaften 
darauf aufmerksam, dass unter Umständen der Verzicht auf die Veröffentlichung von Daten als 
sinnvoll und erforderlich erachtet werden kann, wie der folgende Textausschnitt aus dem dgv-
Positionspapier verdeutlicht: „Forschende sollen unterstützt werden, die mit der Archivierung 
verbundenen Chancen zu nutzen, aber auch das Recht haben, die Nachnutzung der Daten 
einzuschränken.“ (ebd., S. 4) Aus dem Zitat geht gleichermaßen hervor, dass in den Papieren 
Forschungsdatenmanagement als Chance und gleichzeitige Verpflichtung verhandelt wird. 
Entsprechend heißt es im Positionspapier der DGS (2019) auch: „Die Sekundärnutzung von 
Daten [darf] nicht als ‚Normalmodell‘ von Forschung gelten.“ Dies gilt es auch vonseiten der 
Fördergeber anzuerkennen. Entsprechend soll die Nachnutzbarkeit der Daten, die Vergabe 
durch Forschungsmitteln nicht beeinflussen. Darüber hinaus wird die Entwicklung von 
Standards und Kriterien gewünscht, die den in den Fächern etablierten Arbeitsweisen, 
methodischen Zugängen und Spezifika entsprechen (vgl. Deutsche Gesellschaft für Sozial- und 
Kulturanthropologie 2019, S. 1). 
Die Vielfalt empirischer Zugänge und die Heterogenität der Forschungsdaten widersetzt sich 
per definitionem einer Standardisierung und Regulierung des Umgangs mit Forschungsdaten.  
Die Vielfalt und Unterschiedlichkeit qualitativer Verfahren und Forschungsfelder führen in der 
Regel dazu, dass Forschungsdaten „heterogen, wenig standardisiert und multimodal“ 
(Deutsche Gesellschaft für Volkskunde 2018, S. 2) sind. Um dieser Vielfalt gerecht zu werden 
und diese zu erhalten, fordert die DGSKA (2019, S.2) eine Berücksichtigung der Heterogenität 
von Forschungsdaten bei Prozessen der Datenarchivierung und -nachnutzung. Aufgrund der 
Vielgestaltigkeit von qualitativer Forschung wird eine „gleichmäßige und bedingungslose 
Verpflichtung“ (Deutsche Gesellschaft für Volkskunde 2018, S. 4), Forschungsdaten zu 
veröffentlichen und nachnutzbar zu machen abgelehnt. Vielmehr sollen die Möglichkeiten und 
Grenzen der Bereitstellung und Nachnutzung von Forschungsdaten differenziert und stets unter 
ethischen Gesichtspunkten abgewogen werden. Folgende Aspekte werden konkret benannt, die 
dabei ebenso berücksichtigt werden sollen: das Wesen qualitativer Daten, die Besonderheiten 
qualitativer Forschungsprozesse, der Aufwand der Aufbereitung sowie der Schutzbedarf 
qualitativer Daten. Die Frage, ob und welche Forschungsdaten frei zugänglich gemacht werden 
können, kann demnach nicht standardmäßig, sondern nur „einzelfallbezogen“ (Deutsche 
Gesellschaft für Volkskunde 2018, S. 5) beantwortet werden.  
Die wünschenswerte Offenheit qualitativer Forschungsprozesse konfligiert mit der 
wissenschaftspolitischen Forderung nach Planungssicherheit und Berechenbarkeit. 
Offenheit ist ein zentrales Moment qualitativer Sozialforschung. Das Prinzip der Offenheit gilt 
sowohl gegenüber dem Forschungsgegenstand als auch gegenüber der jeweiligen 
Forschungsmethode (vgl. Rieker und Seipel 2006). Entsprechend müssen Forschende flexibel 
sein und ihre Methoden und geplanten Arbeitsschritte immer wieder neu an zuvor nicht 
vorhersehbare Entwicklungen des Gegenstandes und Erfordernissen der Situation anpassen. 
Die dgv (2018, S.1) hält schwerpunktmäßig mit Blick auf die ethnografische Forschung fest, 
Umgang mit (digitalen) Forschungsdaten 145 
dass diese als „offener Prozess“ konzipiert sei, der situations- wie beobachterabhängig verläuft. 
Zwar führen diese Offenheit und Flexibilität gegenüber dem Untersuchungsgegenstand und der 
Bereitschaft, ggf. geplante Arbeitsschritte zu modifizieren, zu besonders differenzierten 
Einsichten in die Komplexität und Dynamik sozialer Situationen und Prozesse. Mit Blick auf 
die Anforderungen des Datenmanagements entstehen aber auch Spannungen, wenn bereits bei 
Antragstellung Angaben zu den anfallenden Daten und den geplanten Umgang erwartet bzw. 
zunehmend auch in Form eines Datenmanagementplans (DMP)16 eingefordert werden. Die gut 
gemeinte Merkregel „always remember to plan ahead“ widerspricht der gängigen 
Forschungspraxis bei offenen Formen der Datenerhebung.  
Entscheidungen über die Archivierung und Verfügbarmachung von qualitativen Forschungs-
daten können nur schwer im Vorfeld getroffen werden und es muss möglich sein, 
Entscheidungen auch zu einem späteren Zeitpunkt zu revidieren (vgl. ebd., S. 3). Entsprechend 
wird gefordert, dass die Flexibilität auch im Hinblick auf den Umgang mit Daten im gesamten 
Forschungsprozess bewahrt und sichergestellt wird (vgl. Deutsche Gesellschaft für Sozial- und 
Kulturanthropologie 2019, S. 6). Um diese Offenheit und Flexibilität zu erreichen, sollen 
alternative Möglichkeiten (z.B. Exit-Strategien bei der Datenarchivierung) geschaffen 
werden.17 
 
5. Zusammenfassung und Ausblick: Daten(management) und Politik 
 
Wissenschaftliches Arbeiten ist seit dem Einzug des Digitalen einem Wandel unterzogen. 
Immer mehr Forschungsdaten liegen in digitaler Form vor, werden im Laufe des 
Forschungsprozesses ins Digitale überführt oder werden ausschließlich digital produziert. Dem 
Thema Forschungsdaten wird im wissenschaftspolitischen Diskurs aktuell ein hoher 
Stellenwert beigemessen. Forschungs- und Förderinstitutionen wie die DFG haben in den 
letzten Jahren wiederholt Anforderungen an die Handhabung von digitalen Forschungsdaten 
formuliert.  
Die Leitlinien, Empfehlungen und Richtlinien geben einen Rahmen vor, wie Daten effizient, 
nachhaltig und verantwortungsvoll im Kontext von Wissenschaft und Forschung gehandhabt 
werden. Die Forderung, mit (digitalen) Forschungsdaten auf bestimmte Weise umzugehen, ist 
                                                        
16  Datenmanagementpläne sind ein zentrales Instrument des Forschungsdatenmanagements. Ein DMP 
beschreibt, wie während und nach der Projektlaufzeit mit den im Forschungsprojekt anfallenden 
Forschungsdaten verfahren wird. Vereinfacht gesagt beschreibt ein DMP, welche Daten im Zuge 
eines Forschungsprojektes entstehen bzw. verwendet werden und was während des Forschungs-
verlaufs mit ihnen geschehen soll. Darüber hinaus werden in einem DMP Verantwortlichkeiten und 
Rechte geregelt sowie datenschutzrechtliche wie forschungsethische Aspekte berücksichtigt. 
17 Am Forschungsdatenzentrum Qualiservice werden aktuell Möglichkeiten und Wege der Archivierung 
exploriert und erarbeitet, um künftig auch ethnologische Forschungsdaten zu archivieren und für die 
Weiternutzung in der Forschung und für die Lehre zugänglich zu machen. Weitere Informationen 
unter https://www.qualiservice.org/de/ [Stand vom 08-05-2021]. 
146  Michaela Rizzolli 
für alle Wissenschaftsdisziplinen herausfordernd – insbesondere auch für die qualitative 
Sozialforschung. Schließlich gehen mit diesen Entwicklungen Standardisierungs- und 
Regulierungsprozesse einher, die der Vielfalt, Flexibilität und Offenheit qualitativer Sozial-
forschung zuwiderlaufen.  
Forschungsdatenmanagement ist daher mehr als eine Agenda. Der Datenbegriff und in 
Erweiterung dazu das Forschungsdatenmanagement sind offene und umkämpfte Felder, in 
denen Akteurinnen und Akteure mit höchst divergenten Interessen, Erwartungen und 
Arbeitsweisen aufeinandertreffen. Dabei zeigt sich, dass Daten(management) und Politik 
untrennbar miteinander verbunden sind (vgl. Ruppert et al. 2017, 2). Entsprechend gilt es, 
Forschungsdatenmanagement nicht zuletzt auch als politische Form der Regulierung und 
Standardisierung in den Blick zu nehmen und zu hinterfragen. 
In diesem Sinne bedarf das Thema weiterer Auseinandersetzung, die im Modus konsequenter 
Analyse und Reflexion von Möglichkeiten und Herausforderungen FDM-bezogener Prozesse 
und Praktiken realisiert werden soll. Speziell zu den konkreten Effekten, die das 
Forschungsdatenmanagement (Maßnahmen und Infrastrukturen) auf die Arbeitspraktiken und 
die Wissensproduktion haben, fehlen noch empirische Befunde: Wie verändert 
Forschungsdatenmanagement eigentlich die Art und Weise, wie, wo, wann und mit wem 
geforscht wird? Wie genau ereignen und stabilisieren sich Praktiken und Gewissheiten des 
Umgangs mit Forschungsdaten? Und wie gehen Forschende mit den Transformationsprozessen 
konkret um?  
 
Literatur 
 
Allianz der deutschen Wissenschaftsorganisationen (2010). Grundsätze zum Umgang mit 
Forschungsdaten. RatSWD Working Paper 156. Berlin: Rat für Sozial- und 
Wirtschaftsdaten. Abgerufen unter: https://www.konsortswd.de/wp-content/uploads/ 
RatSWD_WP_156.pdf [Stand vom 07-05-2021]. 
Altenrath, Maike; Helbig, Christian & Hofhues, Sandra (2020): Deutungshoheiten. 
Digitalisierung und Bildung in Programmatiken und Förderrichtlinien Deutschlands und 
der EU. MedienPädagogik: Zeitschrift für Theorie und Praxis der Medienbildung, 17 
(Jahrbuch Medienpädagogik), S. 565–594. DOI: 10.21240/mpaed/jb17/2020.05.22.X. 
Andorfer, Peter (2015): Forschungsdaten in den (digitalen) Geisteswissenschaften. Versuch 
einer Konkretisierung. DARIAH-DE Working Papers, 14, S. 4–27. 
Berliner Erklärung über den offenen Zugang zu wissenschaftlichem Wissen (2003): 22. 
Oktober 2003. Abgerufen unter: https://openaccess.mpg.de/68053/Berliner_Erklaerung_ 
dt_Version_07-2006.pdf [Stand vom 07-05-2021]. 
Cooper, Danielle & Springer, Rebecca (2019): Data Communities. A New Model for 
Supporting STEM Data Sharing. ITHAKA S+R Issue Brief. DOI: 10.18665/sr.311396. 
Umgang mit (digitalen) Forschungsdaten 147 
Cremer, Fabian; Engelhardt, Claudia & Neuroth, Heike (2015): Embedded Data Manager – 
Integriertes Forschungsdatenmanagement. Praxis, Perspektiven und Potentiale. Bibliothek 
Forschung und Praxis 39 (1), S. 13–31. DOI: 10.1515/bfp-2015-0006. 
Cremer, Fabian; Klaffki, Lisa & Steyer, Timo (2018): Der Chimäre auf der Spur. 
Forschungsdaten in den Geisteswissenschaften. O-Bib. Das Offene Bibliotheksjournal 5 (2), 
S. 142–162. DOI: 10.5282/O-BIB/2018H2S142-162. 
Deutsche Forschungsgemeinschaft (DFG) (1988): Vorschläge zur Sicherung guter 
wissenschaftlicher Praxis. Denkschrift. Abgerufen unter: https://mpimet.mpg.de/fileadmin/ 
download/Good_scientific_practice_at_MPI-M/Sicherung_guter_wissenschaftlicher_Praxis 
_DFG.pdf [Stand vom 07-05-2021]. 
Deutsche Forschungsgemeinschaft (DFG) (2015): Leitlinien zum Umgang mit 
Forschungsdaten. 30. September 2015. Abgerufen unter: https://www.dfg.de/download/pdf/ 
foerderung/grundlagen_dfg_foerderung/forschungsdaten/richtlinien_forschungsdaten.pdf 
[Stand vom 07-05-2021]. 
Deutsche Forschungsgemeinschaft (DFG) (2019): Leitlinien zur Sicherung guter 
wissenschaftlicher Praxis. Kodex. Deutsche Forschungsgemeinschaft. DOI: 10.5281/ 
zenodo.3923602. 
Deutsche Forschungsgemeinschaft (DFG) (2020): Digitaler Wandel in den Wissenschaften. 28. 
Oktober 2020. Impulspapier. DOI:10.5281/zenodo.4191345. 
Deutsche Gesellschaft für Sozial- und Kulturanthropologie (DGSKA) (2019): Positionspapier 
zum Umgang mit ethnologischen Forschungsdaten. Unter Mitarbeit von Röttger-Rössler, 
Birgitt; Dilger, Hansjörg; Imeri, Sabine & Huber, Elisabeth. 01. Oktober 2019. Abgerufen 
unter: https://www.dgska.de/wp-content/uploads/2019/11/Positionspapier_Bearbeitet-
fu%CC%88r-MV_24.09.2019.pdf [Stand vom 07-05-2021]. 
Deutsche Gesellschaft für Soziologie (DGS) (2019): Bereitstellung und Nachnutzung von 
Forschungsdaten in der Soziologie. Stellungnahme des Vorstands und Konzils der DGS. 08. 
Jänner 2019. Abgerufen unter: https://soziologie.de/fileadmin/user_upload/stellung 
nahmen/DGSStellungnahme_zum_Forschungsdatenmanagement_08.01.2019.pdf [Stand 
vom 07-05-2021]. 
Deutsche Gesellschaft für Volkskunde (dgv) (2018): Positionspapier zur Archivierung, 
Bereitstellung und Nachnutzung von Forschungsdaten. Deutsche Gesellschaft für 
Volkskunde. 19. November 2018. Abgerufen unter https://www.d-g-v.de/wp-content/ 
uploads/2020/03/dgv-Positionspapier_FDM-1.pdf [Stand vom 07-05-2021]. 
Engelhardt, Claudia (2013): Forschungsdatenmanagement in DFG-Sonderforschungs 
bereichen. Teilprojekte Informationsinfrastruktur (INF-Projekte). LIBREAS. Library Ideas 
23, S. 106–130. DOI: 10.18452/9045. 
Hiltman, Torsten (2018): Forschungsdaten in der (digitalen) Geschichtswissenschaft. Warum 
sie wichtig sind und wir gemeinsame Standards brauchen. In: Das Blog der AG Digitale 
Geschichtswissenschaft im VHD (Digitale Geschichtswissenschaft). 27. September 2018. 
Abgerufen unter: https://digigw.hypotheses.org/2622 [Stand vom 07-05-2021].  
148  Michaela Rizzolli 
Imeri, Sabine (2018a): Archivierung und Verantwortung. Zum Stand der Debatte über den 
Umgang mit Forschungsdaten in den ethnologischen Fächern. In: Hollstein, Betina & 
Strübing, Jörg (Hrsg.): Archivierung und Zugang zu Qualitativen Daten. RatSWD Working 
Paper 267. Berlin: Rat für Sozial- und Wirtschaftsdaten, S. 69-79. 
Imeri, Sabine (2018b): Ordnen, archivieren, teilen. Forschungsdaten in den ethnologischen 
Fächern. Österreichische Zeitschrift für Volkskunde LXXII/121 (2), S. 213–243. 
Imeri, Sabine (2019): ‚Open Data‘ in den ethnologischen Fächern. Möglichkeiten und Grenzen 
eines Konzepts. In: Klingner, Jens & Lühr, Merve (Hrsg.): Forschungsdesign 4.0. 
Datengenerierung und Wissenstransfer in interdisziplinärer Perspektive. Dresden: Institut 
für Sächsische Geschichte und Volkskunde, S. 45–59. 
Imeri, Sabine; Sterzer, Wjatscheslaw & Harbeck, Matthias (2018): Forschungsdaten-
management in den ethnologischen Fächern. Bericht aus dem Fachinformationsdienst 
Sozial- und Kulturanthropologie. Zeitschrift für Volkskunde 114 (1), S. 71–75. 
Jensen, Uwe (2019): Forschungsdaten und Forschungsdatenmanagement in den 
Sozialwissenschaften. In: Jensen, Uwe; Netscher, Sebastian & Weller, Katrin (Hrsg.): 
Forschungsdatenmanagement sozialwissenschaftlicher Umfragedaten. Grundlagen und 
praktische Lösungen für den Umgang mit quantitativen Forschungsdaten. Opladen: Verlag 
Barbara Budrich, S. 13–35. 
Kindling, Maxi; Simukovic, Elena & Schirmbacher, Peter (2013): Forschungsdaten-
management an Hochschulen. Das Beispiel der Humboldt-Universität zu Berlin. LIBREAS. 
Library Ideas (23), S. 43–63. DOI: 10.18452/9041. 
Malpas, Constance & Proffitt, Merrilee (2017): The Transformation of Academic Library 
Collecting: A Synthesis of the Harvard Library’s Hazen Memorial Symposium. Dublin, 
OH: OCLC Research. DOI: 10.25333/C3J04Z 
Putnings, Markus; Neuroth, Heike & Neumann, Janna (2021): Praxishandbuch Forschungs-
datenmanagement. Berlin, München, Boston: De Gruyter Saur. 
Rieker, Peter & Seipel, Christian (2006): Offenheit und Vergleichbarkeit in der qualitativen 
und quantitativen Forschung. In: Rehberg, Karl-Siegbert (Hrsg.): Soziale Ungleichheit, 
kulturelle Unterschiede. Verhandlungen des 32. Kongresses der Deutschen Gesellschaft für 
Soziologie in München 2004. Frankfurt am Main, New York: Campus, S. 4038–4046. 
Abgerufen unter: https://nbn-resolving.org/urn:nbn:de:0168-ssoar-142320 [Stand vom 07-
05-2021]. 
Ruppert, Evelyn; Isin, Engin & Bigo, Didier (2017): Data politics. Big Data & Society 4 (2), 1-
7. DOI: 10.1177/2053951717717749. 
Simukovic, Elena; Kindling, Maxi & Schirmbacher, Peter (2013): Umfrage zum Umgang mit 
digitalen Forschungsdaten an der Humboldt-Universität zu Berlin. Abgerufen unter: 
http://nbn-resolving.de/urn:nbn:de:kobv:11-100213001[Stand vom 07-05-2021] 
 
Funktionsweisen von Verschwörungserzählungen auf 
Social Media und der parallel aufkeimende 
Antisemitismus 
Andre Wolf 
 
Zusammenfassung  
Verschwörungserzählungen sind nichts Neues. Doch im Zuge der Coronapandemie haben sie eine 
menschenfeindliche Renaissance erfahren. Alte antisemitische Ritualmordlegenden finden in 
einem hochdynamischen neuen Erzähluniversum eine neue Verbreitung. Sie liefern in 
Krisenzeiten Feindbilder, vereinen dadurch Menschen unterschiedlicher Gruppierungen und 
stellen (falsch-) einfache Lösungen bereit.  
Eine nicht unwesentliche Rolle spielt darin das QAnon-Erzähluniversum, in dem teils absurde 
Verschwörungsnarrative von gequälten Kindern auf der Metaebene für eine Radikalisierung und 
Selbstlegitimierung der Gewaltanwendung führen. Diese stetige Radikalisierung, auch auf Basis 
von Verschwörungserzählungen, stellt am Ende eine reale Gefahr für die Demokratie dar.1 
 
1. Antisemitische Verschwörungserzählungen und das Coronavirus: 
Eine Gefahr für die Demokratie? 
 
Vor wenigen Jahren noch hätten wir auf Podien oder in Diskussionsrunden gesessen und 
über die Gefahren von Fake News auf Social Media gesprochen. Darüber sind wir 
mittlerweile jedoch hinaus und diskutieren nun über Verschwörungserzählungen. Fake 
News können wir recht unproblematisch mit Fakten widerlegen. Verschwörungser-
zählungen hingegen bieten ein Erzähluniversum, das Fakten ignoriert oder sie sogar in ihre 
Immunitätsmechanismen integriert. Verschwörungserzählungen wurden auf Social Media 
über lange Jahre hinweg belächelt, waren es in der Vergangenheit doch häufig absurde 
Geschichten von der hohlen Erde, von einer flachen Erde, oder von Außerirdischen aus 
dem Aldebaran-System. Hin und wieder ging es um Reptiloide oder auch um Chemtrails. 
Diese Verschwörungserzählungen waren im Großen und Ganzen gesellschaftlich nicht 
weiter gefährlich. Es konnte lediglich vorkommen, dass jene Personen, die sie verbreiten, 
einen persönlichen Reputationsschaden erlitten haben. Parallel zu diesen Mythen 
existierten jedoch auch immer schon antisemitische Verschwörungserzählungen, die 
explizite Feindbilder beinhalten. In diesen Mythen sind generell Juden, aber auch einzelne 
Personen stellvertretend für Juden als Feindbilder aufgetaucht. Besonders bekannt sind 
                                                        
1  Der Beitrag basiert auf Überlegungen aus dem Buch: Angriff auf die Demokratie (Wolf 2021,  
S. 137–164),  
150  Andre Wolf 
hierbei Verschwörungserzählungen rund um George Soros oder um die Familie 
Rothschild. 
Doch seit mehreren Monaten hat sich etwas geändert. Die Corona-Pandemie hat dazu 
geführt, dass es eine Art Renaissance der antisemitischen Verschwörungserzählungen gibt. 
Diese Verschwörungserzählungen haben häufig uralte Ritualmordlegenden zum Vorbild 
oder stützen sich generell auf bereits bestehende Narrative. Auf den ersten Blick und 
einzeln betrachtet ergeben antisemitische Verschwörungsmythen im Umfeld des 
Coronavirus wenig Sinn und wirken absurd. Nach näherer Betrachtung fällt allerdings auf, 
dass diese neuen Mythen ein eigenes, gefährliches Erzähluniversum aufbauen. 
Die Initialzündung der antisemitischen Verschwörungserzählungen in Bezug auf das 
Coronavirus können wir auf den Anfang April 2020 verorten. Genauer gesagt war ein 
Video des Künstlers Xavier Naidoo ein wichtiger Auslöser. Viele Menschen haben dieses 
Video gesehen oder zumindest in den Medien davon erfahren. Naidoo, vor seinem 
Smartphone sitzend, berichtet von Kindern in unterirdischen Höhlen. Er spricht davon, 
dass tausende Kinder von sogenannten „Eliten“ in diesen unterirdischen Gefängnissen 
gefangen gehalten werden und sich dort grausamen Ritualen unterwerfen müssen. 
 
2. Am Beispiel der „Adrenochrom-Legende“ 
 
Durch genau dieses Video haben zwei Dinge in Österreich und Deutschland eine große 
Bekanntheit gewonnen, die bis dato kaum Gehör erhalten haben, da es sich um absurde 
Verschwörungsszenerien handelte: QAnon und Adrenochrom. 
Kommen wir zuerst auf das Video zu sprechen. Naidoo erzählt darin weinend von 
Kindern, die „in diesem Moment“ weltweit aus den Händen von Pädophilen befreit 
werden. Kryptisch nennt er auch das Stichwort „Adrenochrom“, ohne es weiter 
auszuführen. Er sagt: 
„Adrenochrom… geht auf Adrenochrom … Bilder … wenn ihr das ertragen 
könnt, und ich weiß seit mindestens 15 Jahren, was los ist.“ (Xavier Naidoo, 
2020, selbst veröffentlichtes Video auf Telegram) 
Wer Naidoos Rat folgt und nun „Adrenochrom“ in die Google-Bildersuche eintippt, stößt 
in der Tat auf eine Menge Behauptungen, Kern ist: Der Stoff soll eine Verjüngungsdroge 
sein, welche die „Hollywood-Elite“ aus den Körpern entführter und gefolterter Kinder 
gewinnt. Diese, nicht näher erläuterten Eliten werden in der Erzählung zu Feindbildern 
stilisiert. Die Kinder dienen laut der Verschwörungserzählung als Nutztiere, die gefoltert 
werden, um qualitativ hochwertiges Adrenochrom zu gewinnen, mit denen sich Eliten auf 
ewig jung halten. Dieser erzählerische Kniff ist notwendig, um den Feindbildern etwas 
Schlimmes vorzuwerfen. Und das ist ein wichtiger Punkt: Kinder als Opfer der Feinde. 
Funktionsweisen von Verschwörungserzählungen auf Social Media 151 
Denn es gibt kaum etwas sagbar Schlimmeres, als Kindern (alternativ jungen, 
unschuldigen Frauen oder aber auch Haustieren) etwas Grauenvolles anzutun. 
Jene Infos über die gefangenen Kinder hat Naidoo anscheinend aus einer der zahlreichen 
QAnon-Gruppen, die auf Telegram existieren. QAnon ist angeblich ein Insider der US-
Regierung, der solcherlei Informationen leakt. Doch dazu später mehr. 
Zunächst interessiert erst einmal die Frage: Was ist Adrenochrom eigentlich? Wo kommt 
es her, was soll es bewirken, warum werden zur Gewinnung angeblich Kinder entführt? 
Adrenochrom ist eine seit Jahrzehnten bekannte Verbindung, die im Körper durch die 
Oxidation von Adrenalin entsteht. Also ist weder der Begriff noch diese chemische 
Verbindung eine Erfindung. Die Verbindung kann jedoch ohne weiteres im Labor 
hergestellt und käuflich erworben werden. Menschen sind dafür nicht notwendig, eine 
Folter ebenso wenig. 
Eine halluzinogene Wirkung hat die Verbindung nicht, eine verjüngende Wirkung schon 
gar nicht. Ebenso ist die Idee der Gewinnung von Adrenochrom aus Adrenalindrüsen von 
Menschen eine reine Erfindung des Autors Hunter S. Thompson für den Film „Fear and 
Loathing in Las Vegas“. Insofern macht es auch absolut keinen Sinn, warum „Hollywood-
Eliten“ Kinder entführen sollten, um aus ihnen Adrenochrom zu zapfen. Selbst wenn sie es 
für eine halluzinogene Droge halten würden, könnten sie es einfach kaufen oder mit 
genügend Geld im Labor selbst herstellen. Dies wäre auch effektiver.  
Doch um das alles geht es am Ende nicht. Es geht vielmehr um gewisse Symbole und 
Narrative, die ihre Bedeutung auf der Metaebene entfalten und deren Wirkungsweise und 
Ablauf sich in mehreren Falschmeldungen und Verschwörungserzählungen während der 
Corona-Pandemie wiederfinden. Die Elemente, die wir in der Geschichte Naidoos und der 
Adrenochrom-Legende finden, sind weder neu noch einzigartig. Sie folgen einem 
wichtigen und wiederkehrenden Muster.  
 
3. Adrenochrom: Eine uralte Ritualmordlegende der Gegenwart 
 
Das Muster in der Geschichte lässt sich leicht erklären: Wie erschafft man sich ein 
Feindbild, an dessen Ende man sich absolut dazu legitimiert sieht, dieses Feindbild zu 
verfolgen, ja sogar töten zu dürfen? Die Lösung ist so einfach wie leider auch immer 
wieder funktionierend: indem man dieses Feindbild entmenschlicht und ihm die 
schlimmsten Gräueltaten unterstellt, die man zwar nicht beweisen kann, die aber anhand 
bestehender Narrative glaubwürdig klingen und anhand von Indizien oder Bündelungen 
von sinnstiftenden Erzählungen vermeintlich bewiesen werden. So funktionieren 
Ritualmordlegenden. 
Diese Legenden sind bereits uralt und teilweise extrem antisemitisch. Ritualmordlegenden 
basieren auf dem Narrativ, dass eine gesellschaftliche Minderheit im Geheimen 
152  Andre Wolf 
Gräueltaten, ja gar Morde, an der Mehrheit der Bevölkerung ausübt. Das Gefährliche an 
diesen Ritualmordlegenden ist das Ergebnis: Angestachelt von diesem Mythos wird die 
verleumdete Minderheit verfolgt. Zunächst wird sie kriminalisiert, dann durch die 
Erzählungen entmenschlicht und am Ende physisch verfolgt. 
 
Ritualmordlegenden haben eine lange Geschichte und wurden verwendet, um eine 
gesellschaftliche Minderheit verfolgen zu können. In Europa waren das häufig 
antisemitische Legenden, so wie beispielsweise die Behauptung, Juden entführten 
christliche Kinder, um sie für rituelle Zwecke grausam zu ermorden. Mithilfe dieser 
Darstellungen wurden häufig unerklärbare Phänomene versucht zu erklären, man erkennt 
also auch hier deutlich den Drang dazu, hinter allem einen Plan vermuten zu müssen, auch 
wenn dieser Plan grauenvoll ist. 
Die Ritualmordlegenden selbst gleichen sich ebenfalls. Die (teils geheimen) Minderheiten 
verüben grauenvolle Taten an den ihnen unterlegenen Personen aus der stärkeren 
Mehrheit. Hierbei handelt es sich zumeist um Kinder, aber es kann sich durchaus auch um 
kranke, gebrechliche oder alte Menschen handeln. Wichtig dabei ist lediglich, dass die 
vermeintliche Tätergruppe sich unmenschlich verhält und unbedingt dafür verurteilt, ja am 
besten ermordet werden muss. 
Die Tätergruppe bleibt dabei recht unspezifisch. Es wird entweder lediglich eine Ethnie 
generell beschuldigt oder eine gewisse Gruppe von Menschen angeprangert. Eine konkrete 
Benennung von Personen findet selten statt, was auch für die Ritualmordlegende an sich 
wichtig ist, da sie so unkonkret wie möglich gehalten werden muss, um die Minderheit als 
Ganze verfolgen zu können. 
Die wohl bekanntesten mittelalterlichen Ritualmordlegenden sind die Erzählungen um 
William von Norwich und Simon von Trient. Beide Geschichten weisen die typischen 
Merkmale dieser Legenden auf. Wer die Geschichten nicht kennt, hier eine kurze 
Beschreibung: 
In der Legende um William von Norwich heißt es, dass der junge Mann William, ein 
Kürschnerlehrling, im Jahre 1144 in der Karwoche (was wir uns an dieser Stelle einfach 
merken) von Juden heimlich auf rituelle Weise hingerichtet wurde. Das zumindest wurde 
in den Schriften eines Mönches unter dem Titel „De Vita et passione sci Willelmi martiris 
norwic („Leben und Passion des Märtyrers Wilhelm von Norwich“)“ in mehreren Bänden 
veröffentlicht. Den Juden vor Ort konnte das natürlich nie nachgewiesen werden, es gab 
entsprechend auch kein Urteil. Interessant ist jedoch, dass sich laut Schriften die 
klagenden Personen auf „Traumgesichter“ oder ihre innere Überzeugung bzw. ihren 
Glauben beriefen. Beweise gab es schlichtweg nicht. Aus William von Norwich wurde 
aufgrund der entstandenen Ritualmordlegende ein Märtyrer. 
 
Funktionsweisen von Verschwörungserzählungen auf Social Media 153 
 
Abbildung 1: Ritualmordlegenden. Bild: Martyrium des Simon von Trient, Darstellung aus der 
Nürnberger Weltchronik von Hartmann Schedel. Datum:1493; Quelle: Hartmann Schedels Weltchronik 
(Nürnberg 1493); Urheber: Woodcuts by Michel Wolgemut, Wilhelm Pleydenwurff (Text: Hartmann 
Schedel); Lizenz: Dies ist eine originalgetreue fotografische Reproduktion eines zweidimensionalen 
Kunstwerks. Das Kunstwerk an sich ist aus dem folgenden Grund gemeinfrei: Public domain. Dieses 
Werk ist gemeinfrei, weil seine urheberrechtliche Schutzfrist abgelaufen ist. Dies gilt für das 
Herkunftsland des Werks und alle weiteren Staaten mit einer gesetzlichen Schutzfrist von 100 oder 
weniger Jahren nach dem Tod des Urhebers. 
154  Andre Wolf 
Die später entstandene Ritualmordlegende um Simon von Trient ist da schon extremer. 
Auch hier spielt die Karwoche erneut eine Rolle, jedoch geht es nicht allein um einen 
Mord, sondern die rituelle Komponente rückte mehr in den Vordergrund. Neben dieser 
gewann das Blut der Opfer immer mehr an Bedeutung, denn die neuen 
Ritualmordlegenden sprachen auf einmal davon, dass die Täter, in diesem Fall Juden, das 
Blut für bestimmte Zwecke benötigten. Diese Zwecke sollten angeblich medizinischer 
Natur sein (auch das merken wir uns an dieser Stelle). 
 
4. Antisemitischer Hintergrund! 
 
Worum ging es nun bei der Ritualmordlegende um Simon von Trient? Effektiv gesehen 
ging es auch bei dieser Legende nur darum, Juden als Minderheit in der Gesellschaft 
generell zu kriminalisieren und ihnen schlichtweg ein bestialisches Image zu verpassen. 
Der Jude als Ritualmörder an sich, der im Geheimen irgendwelche Fäden zieht und schuld 
am Übel der Gesellschaft ist. 
Kommen wir nun auf die Geschichte selbst zu sprechen. Im Jahr 1475 verschwand der 
Legende entsprechend dabei der zweijährige Simon von Trient. Der Sohn eines Gerbers 
verschwand nicht Mitte September oder irgendwann im Februar, sondern auch hier 
angeblich in der Karwoche. Wir erkennen also die Gleichheiten, die auf Ostern und damit 
indirekt auf den Tod Christi verweisen. Ritualmorde als eine Form des Racheakts, die nun 
einhergehen mit der Verwendung des Blutes der Opfer. 
Wie ging nun die Geschichte um Simon von Trient aus? Laut Überlieferung wurde das 
Kind in einem Rinnstein an einem Ostersonntag von einem Juden gefunden, der den Fund 
ordentlich meldete. Das ging für ihn nicht gut aus, denn er stand direkt unter Verdacht und 
es kam zu einer grauenvollen Folter, unter der der Mann sich beugte und am Ende eine 
Schuld eingestand, die er jedoch nicht trug. Er sagte schlichtweg unter der Folter aus, was 
seine Verhörer von ihm hören wollten. 
Auch wenn es im Nachhinein durch Papst Sixtus IV eine Untersuchung gab, so war diese 
nicht wirklich auf eine Aufklärung bedacht. Laut dieser war am Ende die Verfahrensweise 
in Ordnung, jedoch verbot Papst Sixtus IV, Juden deswegen zu verfolgen. Zu spät jedoch, 
denn der Verdächtigte sowie 12 weitere Personen wurden bereits umgebracht. Man 
bemerkt an dieser Stelle, dass Ritualmordlegenden durchaus einen Mord legitimieren 
sollen. 
Die Ritualmordlegenden zogen sich über das gesamte Mittelalter bis in die Neuzeit. Sie 
waren auch Bestandteil im Holocaust, wirklich bewiesen wurde so ein Ritualmord jedoch 
nie. Natürlich nicht, denn es handelt sich um eine Legende, die zu einer sinnstiftenden 
Erzählung gewachsen ist und am Ende immer plausibel klingt, sobald sie auftaucht. Ein 
Beweis ist aufgrund ihrer vermeintlichen Glaubwürdigkeit also nicht mehr notwendig. 
Funktionsweisen von Verschwörungserzählungen auf Social Media 155 
5. Was hat die Ritualmordlegende mit dem Coronavirus bzw. den Mythen 
rund um das Coronavirus zu tun?  
 
Hier wird es spannend, da wir uns auf einer Metaebene befinden, auf der es nicht mehr 
direkt um Juden, sondern über den indirekten Weg mittels „Eliten“ geht, die letztendlich in 
Verschwörungslegenden um Juden ebenso ihren Platz haben. Die Adrenochrom-Legende 
ist eine dynamische Weiterentwicklung der Ritualmordlegenden und hat in ihrem 
Ursprung auf den ersten Blick wenig mit Juden oder Ritualmorden zu tun. Doch dieser 
Schein trügt. 
Die Adrenochrom-Legende spricht zwar nicht von getöteten, jedoch von gefangenen und 
gefolterten Kindern, denen in Ritualen ein Hormon abgenommen wird. Wir reden also von 
einem schweren Verbrechen, einer Gräueltat gegenüber Kindern. 
War es im Mittelalter das Blut von Kindern, das durch perverse Rituale von 
„gesellschaftlichen Minderheiten“ auf verbrecherische Weise gewonnen wurde, stellt 
Adrenochrom exakt dieselbe Ritualmordlegende in einem modernen Gewand dar. Kindern 
wird angeblich eine Körperflüssigkeit (Blut entspricht hier dem Hormon Adrenochrom) 
entnommen, die zu medizinischen Zwecken der teuflischen Minderheit dient. Nichts hat 
sich also am Narrativ selbst geändert, lediglich in der Art der Darstellung hat eine 
Veränderung stattgefunden. 
Adrenochrom allein reicht nicht für die moderne Adaption der Ritualmordlegenden, 
sondern die Adrenochrom-Erzählung ist nur ein Teil des Ganzen. Daneben gibt es 
Geschichten um Kinder in unterirdischen Gefängnissen, die extrem eng an die 
Adrenochrom-Legende geknüpft sind, da es eben diese Kinder sein sollen, denen man das 
Hormon abnimmt. Auch hier finden sich mehr als deutliche Parallelen zu den ältesten 
Ritualmordlegenden: Es soll sich um entführte Kinder handeln, die durch eine 
Minderheitenelite gequält werden und denen man zu „medizinischen Zwecken“ 
Flüssigkeiten abnimmt. 
Die modernen Erzählungen zu gefangenen Kindern haben teils ebenso absurde und 
groteske Elemente wie ihre Pendants aus der fernen Vergangenheit. Ein Beispiel: 
Angeblich befinden sich tausende gefangene Kinder unter dem Central Park in New York 
in unterirdischen Tunneln. Man erkennt einfach das Muster wieder, das hier zum Tragen 
kommt. Wenn auch an dieser Stelle erneut unbewiesene Tunnel in den Erzählungen 
vorkommen, so merken wir uns diese Tunnel ein weiteres Mal. 
Kommen wir wieder auf den Central Park und auf die Kinder zurück. Zurückzuführen ist 
diese Geschichte auf die Behelfskrankenhäuser, die zu Beginn der Coronakrise in New 
York in Zelten im Central Park errichtet wurden. New York kämpfte mit dem 
Coronavirus. Gleichzeitig wurde das Behelfskrankenhaus im Central Park bewusst falsch 
interpretiert und der Befreiung von tausenden Kindern zugeschrieben. 
156  Andre Wolf 
Was in New York zu Beginn der Coronakrise der Fall war: Das Krankenhausschiff 
Comfort der US-Marine war im Hafen von New York City angedockt. New York wurde 
im April 2020 als „Epizentrum des Virusausbruchs“ in den Vereinigten Staaten dargestellt, 
das Schiff sollte die Kapazitäten in den zivilen Krankenhäusern der Stadt entlasten, damit 
sich die Krankenhäuser auf Coronavirus-Patienten konzentrieren können. Gleichzeitig 
wurde im Central Park in New York eine Art Feldkrankenhaus errichtet (Central Park 
Samaritan’s Purse Field Hospital), mit dem andere Krankenhäuser der Stadt entlastet 
werden sollten. So weit, so plausibel. Aber alles Plausible kann man mithilfe von 
Narrativen und ein wenig gewolltem Verschwörungsglauben in eine andere Realität 
ummünzen.  
Und genau das geschieht im QAnon-Erzähluniversum. Die Adrenochrom-Legende ist nur 
eine von vielen Geschichten aus dem QAnon-Erzähluniversum. An dieser Stelle wäre es 
daher wichtig, einen Exkurs zu dem Begriff QAnon zu unternehmen und darauf zu 
schauen, wie die einzelnen Mythen in dem Erzähluniversum aufgebaut sind und welches 
Ziel die Geschichten haben.  
 
6. QAnon 
 
QAnon spielt in den USA bereits seit 2016 eine Rolle, in Österreich oder Deutschland ist 
dieses Erzähluniversum seit dem Frühjahr 2020 bekannter geworden. Daher verwundert es 
nicht, dass die älteren Verschwörungserzählungen Bilder und Mythen aus den USA 
transportieren und dass die symbolischen Feindbilder für uns auf den ersten Blick nicht 
immer verständlich sind. So zum Beispiel, warum die Kinder angeblich in New York 
gefangen sind und nicht irgendwo im verlassenen mittleren Westen.  
Denn es hat einen Grund, warum ausgerechnet New York ein Tunnelsystem mit 
gefangenen Kindern haben soll. New York ist ein sogenannter „Blauer Staat“. Das 
bedeutet, er ist klassischerweise ein Bundesstaat der Demokraten. Diese Blauen Staaten 
liegen hauptsächlich im Nordosten der USA, sowie entlang der Westküste. Dement-
sprechend ist es logisch, dass New York, aber auch beispielsweise Hollywood, immer 
wieder Verschwörungsmythen zum Opfer fallen, da es sich bei diesen Mythen um einen 
Angriff auf politische Gegner handelt. Wir erkennen auch hier den Aufbau von 
Feindbildern und deren Entmenschlichung zur Selbstlegitimierung vollstreckerischen 
Handelns. 
Zunächst auf die USA bezogen erkennt man die typischen Feindbilder: Linksliberale 
Eliten (von ihren politischen Gegnern abwertend als Libtards = liberal bastards 
bezeichnet) sind Verbrecher. Auf der Metaebene haben wir es mit dem Bild des Judentums 
aus den Ritualmordlegenden zu tun, auf das später noch eingegangen wird. 
Ausschlaggebend für die Bezeichnung „Q“ war ein Eintrag im Internet-Forum 4Chan 
eines Nutzers mit dem Nickname „Q“. „Q“ sollte hier wohl den Sicherheitsstatus „Q 
Funktionsweisen von Verschwörungserzählungen auf Social Media 157 
Clearance“ andeuten: die höchste Freigabestufe für geheime Informationen. Nutzer im 
Forum 4Chan tragen die Bezeichnung „Anonymous“, so wurde „Anon“ beigefügt und 
zeigt wiederum die Anonymität, unter der dieser Nutzer agiert. Der Autor im Forum 
behauptete, hochrangiger Regierungsmitarbeiter zu sein und seine Informationen unter 
dem Deckmantel der Anonymität weiterzugeben. 
Die meisten Ausführungen sind kryptisch und vage formuliert. So werden sie weiter 
interpretiert und wachsen zu den Legenden an, denen wir mittlerweile immer öfter im 
Internet und in sozialen Medien begegnen. 
QAnon Mythen arbeiten stark mit anlassbezogenen Inhalten. Das bedeutet, sie nutzen 
reale Vorkommnisse und interpretieren sie innerhalb der Grenzen des Bedeutungsrahmens 
im eigenen Erzähluniversum. Hier können wir wieder auf den Einsatz der Schiffe vor New 
York sowie des Behelfskrankenhauses im Central Park schauen. Beide Elemente wurden 
bewusst in einen Verschwörungsmythos eingearbeitet. Wir sind hier wieder bei den 
gefangenen Kindern angekommen und müssen in Bezug auf QAnon uns in Erinnerung 
rufen, dass im Zuge des QAnon-Narratives Donald Trump ein Heilsbringer ist, der 
linksliberale Eliten in die Knie zwingt. 
Somit findet an dieser Stelle in Bezug auf das Schiff sowie auf das Behelfskrankenhaus 
eine massive Umdeutung statt: Das Behelfskrankenhaus sowie das Schiff seien Teil einer 
großangelegten Kinderbefreiung – so der Mythos. Diese Kinder, die von Pädophilen 
missbraucht worden sein sollen, seien angeblich in Tunneln unter dem Central Park 
gefangen gewesen und Trump hätte die Rettung angeordnet. Es soll sich dabei um viele 
tausend Kinder gehandelt haben, die Zahlen variieren.  
Bei dieser Interpretation handelt es sich in keinster Weise um eine einmalige Deutung. Als 
vor wenigen Wochen im Suez Kanal das Containerschiff Ever Given den Kanal blockierte, 
kam dasselbe Narrativ zur Anwendung. Auf dem Schiff sollen sich angeblich ebenfalls 
versklavte Kinder befunden haben. Der QAnon-Mythos spricht an dieser Stelle davon, 
dass das Schiff absichtlich im Suez Kanal festgesetzt wurde, um die Kinder zu befreien. 
Wir erkennen an dieser Stelle wieder die typischen Erzählstrukturen, die von Eliten, 
geheimen Ritualen, Feindbildern und Kindern sprechen und immer wieder anlassbezogen 
auftauchen. Dadurch zeigt sich das hochdynamische Potenzial, welches das QAnon 
Erzähluniversum bietet und dass es am Ende nicht mehr zwingend mit den USA 
verbunden sein muss. 
 
 
 
 
 
158  Andre Wolf 
7. Warum ausgerechnet Kinder? 
 
Die Ritualmordlegenden aus der Vergangenheit tragen eine interessante neuzeitliche 
Dynamik in sich. Das Motiv der Kinder, welches bereits in diesen Legenden verwendet 
wird, wird über Ort und Zeit hinweg als regelmäßig wiederkehrendes Element genutzt. 
Hier geht es nämlich darum, die Feindbilder zu entmenschlichen. Das ist ein wichtiger 
Schritt innerhalb der Verschwörungserzählungen.  
Der Schritt, bereits ein bestimmtes Feindbild aufgebaut zu haben, geht grundsätzlich 
voran. Dieses Feindbild kann eine Regierung oder eine gewisse Gruppe innerhalb einer 
Gesellschaft sein. Nun geht es zwingend darum, dieses Feindbild zu entmenschlichen. 
Eine ideale Entmenschlichung wird erschaffen, indem dem Feindbild das schlimmste aller 
Übel vorgeworfen wird. Eines dieser schlimmsten Übel ist es, Kinder zu quälen oder zu 
foltern.  
Das wird exakt in diesen klassischen Verschwörungserzählungen angewendet. Aber auch 
in anderen, nicht so detaillierten Narrativen finden wir das Bild der gequälten Kinder. So 
gab es im letzten Herbst in Deutschland mehrere Behauptungen, dass Kinder sterben, 
wenn sie Masken tragen. Das war natürlich nicht der Fall, doch dieser Vorwurf wurde 
genutzt, um der Regierung Kinderquälerei als größtmögliches Übel vorwerfen zu können. 
Hier findet also eine Entmenschlichung statt, um im nächsten Moment einen Angriff oder 
einen Aufstand (in welcher Weise auch immer) gegenüber einer demokratisch gewählten 
Regierung zu legitimieren. 
Diese Effekte zeigen sich auch. Im Sommer 2020 kam es in Deutschland während einer 
Demonstration gegen die Coronamaßnahmen zum „Sturm“ der Treppen des Reichstags in 
Berlin. Im Herbst gab es einen Brandanschlag auf das Robert-Koch-Institut. Das Institut 
ist zuständig für die Informationen rund um die Zahlen der Coronainfektionen in 
Deutschland. Mit dem Anschlag sollte eine ablehnende Haltung gegenüber den 
Maßnahmen der Coronakrise zum Ausdruck gebracht werden. Nicht zuletzt gab es auch in 
Österreich aggressive Tendenzen auf den sogenannten Coronademos. Teilweise sind im 
Vorfeld verschiedene Chatnachrichten aufgetaucht, die von (gewaltsamen) politischen 
Umstürzen sprechen. 
 
8. Die Gefahr für die Demokratie 
 
Doch sind diese Einzelaktionen bereits die große Gefahr für die Demokratie? Nein, eher 
nicht. Die größere Gefahr, die über Verschwörungserzählungen transportiert wird, liegt in 
der Erschaffung von Feindbildern in Bezug auf gesellschaftliche Gruppen. An dieser Stelle 
kommt der Antisemitismus der Verschwörungserzählungen zum Tragen. Als im Frühjahr 
2020 die ersten Verschwörungserzählungen während der Coronapandemie aufgetaucht 
Funktionsweisen von Verschwörungserzählungen auf Social Media 159 
sind (wie die Adrenochrom-Legende), hatten diese noch keinen direkten Bezug zur 
Corona-Thematik und der darin enthaltene Antisemitismus kam nur vage und auf der 
Metaebene zum Vorschein. 
Mittlerweile wird der Antisemitismus dieser Verschwörungserzählungen auch in Bezug 
auf das Coronavirus recht offen kommuniziert, auch wenn oftmals ein Antisemitismus im 
Nachhinein bestritten wird. Die Verschwörungserzählungen bilden ihre klassischen 
Feindbilder anlassbezogen auf die aktuelle Situation ab. Regierungen werden nicht allein 
zum Feindbild erklärt, sondern hinter den Regierungen werden geheime Drahtzieher 
vermutet. Diese Drahtzieher, auch als Eliten bezeichnet, finden ihren Ursprung in der 
Erzählung des sogenannten Weltjudentums. Innerhalb dieser Erzählung wird pauschal 
dargestellt, dass „Juden“ als fiktives Kollektiv im Geheimen die Weltherrschaft anstreben. 
In diesem Umfeld erscheinen auch immer wieder Begriffe wie „Zionismus“ oder 
„Weltregierung“ auf. Ebenso werden die Namen Soros, Rothschild oder Rockefeller als 
Symbol für diese Verschwörungserzählung genutzt. 
Gleichzeitig finden wir auf den sogenannten Coronademos eine massive Holocaust-
Relativierung. Impfungen werden mit dem Holocaust gleichgesetzt. Tafeln und 
Transparente mit Sprüchen wie „Impfen macht frei“ tauchen regelmäßig auf den 
Demonstrationen auf und bauen eine gekünstelte und überzogen falsche Opferdarstellung 
der Demoteilnehmenden auf. Dieses verdrehte Opferbewusstsein geht einher mit einem 
neu entfachten Judenhass, der nicht nur in Österreich, sondern auch in Deutschland 
während der Demonstrationen beobachtet werden konnte. Sowohl eine Täter-Opfer-
Umkehr als auch die unterschwellige Schuldzuweisung gegenüber Juden aufgrund 
antisemitischer Verschwörungserzählungen führten bis dato zu einem weit verbreiteten 
Antisemitismus, der im Jahresbericht 2020 der Meldestelle Antisemitismus deutlich 
erwähnt wird. Im Abschnitt „Corona-Verschwörungsmythen” lautet es: 
„Antisemitismus mit Coronabezug 
Diese ad-hoc eingeführte Subkategorie tritt nicht im Vakuum auf, sondern 
stets im Verbund mit Verschwörungsmythen und/oder Shoah-Relativierung 
und/oder mit dem Thema Israel. 
Der Anstieg der gemeldeten Fälle Ende des Jahres ist – wie auch an anderer 
Stelle erläutert – vor allem auf die immer aggressiver auftretenden 
Gegnerinnen und Gegnern der Coronamaßnahmen zurückzuführen, jedoch 
auch auf die erhöhte Sensibilität und dadurch gestiegene Zahl an Meldungen, 
vor allem von Seiten anderer Organisationen der Zivilgesellschaft.“ (Bericht: 
Antisemitische Vorfälle 2020, Seite 9; 2021, Antisemitismus Meldestelle) 
Bereits im dazu erschienenen Vorbericht wurde verdeutlicht, dass in den aufgetretenen 
Verschwörungserzählungen verkalkulierte Begriffe und Namen stellvertretend angewendet 
wurden. Hier lautet es: 
160  Andre Wolf 
„Beispielhaft anzuführen sind hier die obszön antisemitischen Aussagen 
einer seit Anbeginn der Corona-Demos präsenten wie wortführenden 
Aktivistin aus dem rechten Milieu, Jennifer Klauninger, welche Ende Mai in 
einem selbst aufgenommenen Video unter anderem Soros und Rothschild als 
Führer der Weltelite bezeichnete – beide Namen dienen Verschwörungs-
theoretikern als antisemitischer Code für den „mächtigen Juden“ […]“ 
(Bericht: Gemeldete antisemitische Vorfälle im 1. Halbjahr 2020, Seite 3; 
2021, Antisemitismus Meldestelle) 
Hier liegen die tatsächlichen Gefahren. Ab dem Moment, in dem Teile einer Bevölkerung, 
einzelne Gruppen oder Ethnien angefeindet, bedroht oder gar verfolgt werden, ist die 
Demokratie in Gefahr. Bei diesem Prinzip spielt es keine Rolle, ob wir von Juden, 
Homosexuellen oder bestimmten politischen Richtungen sprechen. Die Verschwörungs-
erzählungen bauen an dieser Stelle bewusst ihre einfach gestalteten Feindbilder auf, deren 
Eliminierung am Ende eine einfache Lösung eines komplexen Problems bieten soll. 
 
Literatur 
 
Gensing, Patrick (2020): „Sturm“ auf Reichstagsgebäude – Mit gezielten Falschmeldungen 
aufgehetzt. 31. August 2020. Abgerufen unter: https://www.tagesschau.de/faktenfinder/ 
reichstag-berlin-sturm-fakenews-101.html [Stand vom 30-04-2021]. 
Gemeldete antisemitische Vorfälle im 1. Halbjahr 2020. (2021): Antisemitismus Meldestelle. 
Abgerufen unter: https://fca755ac-004d-4a98-bf62-6ebd5ba1ecc3.filesusr.com/ugd/ 
0a9e18_64f4d46da51346d6b13ece884bfd7b70.pdf [Stand vom 05-02-2019]. 
Habermalz, Christiane (2020): Warnung vor Judenhass bei den Corona-Protesten. 24. 
November 2020. Abgerufen unter: https://www.deutschlandfunk.de/antisemitismus-
warnung-vor-judenhass-bei-den-corona.1766.de.html?dram:article_id=488068 [Stand vom 
30-04-2021]. 
Huld, Sebastian (2020): Verschwörungstheorie QAnon; Horrormärchen der Kinderfolterer 
geht um. 21. Mai 2020. Abgerufen unter: https://www.n-tv.de/politik/Horrormaerchen-der-
Kinderfolterer-geht-um-article21776816.html [Stand vom 30-04-2021]. 
Lorenz, Laurin; Pucher, Johannes; Schmidt, Colette M. & Schmid, Fabian (2021): 
"Querdenker" diskutierten vor Demo in Wien „Übernahme des Parlaments“. 19. Jänner 
2021. Abgerufen unter: https://www.derstandard.at/story/2000123431741/querdenker-
diskutierten-vor-demo-in-wien-uebernahme-des-parlaments [Stand vom 30-04-2021]. 
Michel, Anke (2021): Polizei sucht nach Anschlag auf RKI-Gebäude mit Foto nach 
Verdächtigem. 16. April 2021. Abgerufen unter: https://www.rbb24.de/panorama/ 
beitrag/2021/04/brandanschlag-rki-fahndung-verdaechtiger-foto.html [Stand vom 30-04-
2021]. 
Funktionsweisen von Verschwörungserzählungen auf Social Media 161 
Sulzbacher, Markus (2021): Der bizarre Antisemitismus auf den Corona-Demos. 18. April 
2021. Abgerufen unter: https://www.derstandard.at/story/2000125773958/der-bizarre-
antisemitismus-auf-den-corona-demos [Stand vom 30-04-2021]. 
Wolf, Andre (2020): Befreite Kinder im Central Park / New York? 07. April 2020. Abgerufen 
unter: https://www.mimikama.at/aktuelles/kinder-new-york/ [Stand vom 30-04-2021]. 
Wolf, Andre (2021): Angriff auf die Demokratie. Wien: Edition A. 
  

Ölstandsanzeiger: Über die Unsichtbarmachung und 
Naturalisierung der Produktion personenbezogener 
Daten 
Tobias Stadler 
 
Zusammenfassung 
In der gegenwärtigen Debatte über Daten und Datafication wird nicht mit Beschreibungen 
gespart, in denen diese Informationen als natürliche Ressourcen imaginiert werden: Data as the 
new Oil evoziert den Reichtum globaler Ölkonzerne, Data Mining erzeugt Bilder vom 
glückssuchenden Goldschürfenden und die Cloud lässt die Materialität von Infrastrukturen 
verpuffen.  
Diese Bilder haben eine ideologische Funktion, die die zugrunde liegenden Produktions-
bedingungen dieser Daten naturalisieren und verdecken. Sie sorgen dafür, dass eine solche 
Produktion als natürlich, selbstverständlich und unausweichlich betrachtet wird. Dement-
sprechend bleiben viele Umgangsformen mit den ungewünschten Seiten dieser Produktion – von 
technischen Lösungsansätzen bis legislativen Regulationsversuchen – bei der Verwaltung 
bestehender Daten stehen, ohne die Produktion dieser Daten in Frage zu stellen.  
Dieser Aufsatz schlägt eine ideologiekritische und polit-ökonomische Perspektive vor, um die 
Aktivität der NutzerInnen von digitalen Systeme besser begreifen zu können.  
	
  
1. Einleitung 
 
Öl wird gewonnen und in Minen wird geschürft. Es werden natürliche Ressourcen 
abgebaut, die später als Rohstoffe in den weiteren globalen Produktionsprozess einfließen. 
Mit Data Mining oder Data as the new Oil wird das Bild der natürlichen Ressource auch 
auf Daten angewendet. Damit wird die Gewinnung dieser Ressource, die Produktion 
dieser Daten, als natürlicher Prozess positioniert, dessen konkrete Ausgestaltung rein 
technischen Überlegungen geschuldet wäre. Tatsächlich lässt sich jedoch zeigen, dass die 
Gestaltung des Produktionsprozesses von ganz bestimmten ökonomischen Interessen 
geprägt ist. 
Dass diese Daten wertvoll sind, ist heute unbestritten. Die größten gegenwärtigen 
Technologie-Unternehmen hantieren fast ausschließlich mit personenbezogenen Daten, 
deren Wert sie auf unterschiedliche Weisen realisieren. Die effektivste und am weitesten 
verbreitete davon ist der Verkauf von personalisierten Werbeflächen. Der direkte Verkauf 
von Daten an Versicherungs- und Finanzunternehmen nimmt überdies zu, so wie auch das 
Trainieren von KI-Systemen mit diesen Daten, deren Funktionen später als Services 
verkauft werden. 
164  Tobias Stadler 
Es macht also Sinn, Daten als Waren zu betrachten, die in einem größeren 
Wertschöpfungsprozess direkt verkauft oder weiter verarbeitet werden können. Diese 
Daten sind nicht beliebig, sondern beschreiben etwas Konkretes: Personen, deren 
Erfahrungen, deren Interaktionen, Interessen, Ängste und Gefühle – deren Subjektivität. 
Kommerzielle soziale Netzwerkplattformen produzieren diese Daten nicht selbst. Sie 
stellen das Umfeld – die Produktionsmittel – zur Verfügung, in denen sich solche 
Ausdrücke der Menschlichkeit ihrer NutzerInnen artikulieren können, und zwar auf eine 
Art, durch die personenbezogene Daten entstehen. Manche „Datenwaren“ werden danach 
weiter verarbeitet, um die bereits erwähnten Formen der Realisierung ihres Wertes zu 
ermöglichen, aber Facebook selbst produziert genauso wenige Daten wie Google oder 
Twitter das tun – aber wer produziert hier dann? Wo passiert die produktive Arbeit, die 
laut der politischen Ökonomie nach Marx notwendig ist, um Waren und schließlich 
Mehrwert zu produzieren? 
Im medien- und kommunikationswissenschaftlichen Diskurs hat sich die Auseinander-
setzung mit dieser Frage rund um den Begriff Digital Labour organisiert, der unter 
anderem von Christian Fuchs stark geprägt wurde. Auf die obige Frage weiß dieser 
Folgendes zu antworten: 
“Commodities have producers who create them; otherwise they cannot exist. 
So if the commodity of the mentioned Internet platforms is user data, then 
the process of creating these data must be considered to be value-generating 
labour. This means that this type of Internet usage is productive consumption 
or prosumtion in the sense that it creates value and a commodity that is sold.” 
(Fuchs, 2014, S. 246) 
Damit ist der Kern der Digital Labour Debatte beschrieben: Die Tätigkeiten von 
NutzerInnen auf sozialen Netzwerkplattformen (und in vielen anderen digitalen Kontexten 
der Produktion personenbezogener Daten) ist produktive Arbeit im marxschen Sinne, also 
Waren- und Mehrwert produzierende Arbeit. Daraus ergeben sich verschiedene 
Konsequenzen für die Analyse dieses Verhältnisses, und den Umgang mit den daraus 
entstehenden Daten. 
Zum einen können wir von kommerziellen sozialen Netzwerkplattformen als Aus-
beutungsverhältnis sprechen, denn der von den NutzerInnen produzierte Mehrwert wird 
ihnen vorenthalten und stattdessen für die Akkumulation des Unternehmens genutzt 
(Andrejevic 2011). Der Arbeitsprozess lässt sich daran anschließend auch als entfremdet 
beschreiben. Die NutzerInnen werden vom Objekt der Arbeit entfremdet, weil die 
Plattformen durch ihre Nutzungsbedingungen Eigentumsrechte an deren Interaktionen und 
Erzählungen bekommen (Fuchs 2014). Sie sind von den Produktionsmitteln entfremdet, 
denn die Interfaces treten ihnen unbeeinflussbar und fremdbestimmt gegenüber, während 
Werbeschaltungen und algorithmische Sortierung die Organisation dieser sozialen 
Erfahrungen bestimmen (Galloway 2012). Und schließlich entfremdet der Produktions-
prozess die NutzerInnen zu einem gewissen Grade von sich selbst: Habit-forming Design 
Ölstandsanzeiger  165 
will NutzerInnen unbewusste Praktiken antrainieren, während die Form der sozialen 
Interaktion sich in Ideen des Selbst und der Selbstdarstellung einschreibt. Die Summe der 
Interaktionen der NutzerInnen sowie des kollektiv produzierten Wissens und der daraus 
entstehenden kulturellen Artefakte fasse ich unter dem Sammelbegriff Sozialität, deren 
Produktion durch die Plattformen eingehegt und auf eine Art (re-)organisiert wird, die 
gleichzeitig Mehrwert produziert. 
Dieser Beitrag kann an dieser Stelle jedoch keine vollständige Aufarbeitung der Digital 
Labour Debatte leisten,1 sondern will die Frage stellen, welche Konsequenzen für den 
gesellschaftlichen Umgang mit Daten aus so einer Analyse entstehen. Dafür beleuchte  
ich zunächst die ideologische Unsichtbarmachung dieses Ausbeutungsverhältnisses und 
seiner Produkte. Daran anschließend skizziere ich einige der sozialen und ökologischen 
Folgen dieser Produktionsweise. Am Ende dieses Beitrages ziehe ich daraus einige 
politische Konsequenzen und skizziere eine Position zur Plattformregulierung oder Data 
Governance. 
 
2. Einhegen und optimieren 
 
Im Gegensatz zu klassischen Lohnarbeitsverhältnissen ist der Zwang zur Arbeit auf 
sozialen Netzwerkplattformen nicht so offensichtlich wie die Armut, die bei der 
Verweigerung anderer Ausbeutungsformen droht. Historisch war es meist physische 
Gewalt, Enteignung und Vertreibung, mit der sich die kapitalistische Produktionsweise in 
neuen Sektoren durchgesetzt hat (Federici 2012a). Soziale Netzwerkplattformen arbeiten 
hier mit subtileren Methoden, um ihre NutzerInnen dazu zu bringen, ihre Sozialität in 
einem Rahmen auszuleben, der gleichzeitig personenbezogene Daten als Waren für die 
Plattform produziert. Durch verschiedene Arrangements von Netzwerkeffekten, 
Monopolstellungen und lizenzrechtlichen wie netzwerktechnischen Ein- und Ausschlüssen 
hat es das Konzept Plattform geschafft, weite Teile kollektiver sozialer Prozesse einzu-
hegen. 
Informations- und Austauschfunktionen, die einmal von schwarzen Brettern an gemein-
samen Orten erfüllt wurden; Community-Building, das einmal auf spezialisierten Websites 
mit konkretem Fokus passierte; Ankündigung und Bewerbung von politischen oder 
kulturellen Veranstaltungen, die bisher über mehrere E-Mail-Verteiler, Flyer oder Plakate 
organisiert wurden; Familien, die die Fotos des letzten Zusammenkommens nicht mehr 
direkt verschicken, sondern in einer gemeinsamen Chatgruppe posten. All diese sozialen 
Interaktionen finden zunehmend innerhalb geschlossener und proprietärer Netzwerke statt. 
Die Plattformen müssen uns nicht mit physischer Gewalt zwingen, unsere aller Leben über 
                                                        
1  Ein gute Übersicht über verschieden Diskussionsstränge bietet etwa Sevignani (2017). Der Band von 
Fuchs (2014) eignet sich gut zur vertiefenden Einführung. 
166  Tobias Stadler 
sie zu organisieren – sie sind es bereits, und das völlig verständliche Interesse ein Teil 
dieser sozialen Prozesse zu sein, drängt uns zur immer weiteren Integration von Plattform-
Services in unsere Leben. Ein Heraustreten aus diesen Kommunikationsformen ist zwar 
prinzipiell möglich, jedoch nur auf Kosten einer Einschränkung verschiedener sozialer 
Beziehungen, gesellschaftlicher Teilhabe und kulturellem Anschluss. Wir sind von diesen 
digitalen Infrastrukturen abhängig, sich daraus auszuloggen ist ein Privileg. 
Mark Andrejevic bezeichnet dies in Anschluss an James Boyle als „Digital Enclosure“, als 
Einhegungsprozess zur „Errichtung von Eigentumsrechten über Ressourcen, die dadurch 
in den Markt gelangen, um gekauft und verkauft zu werden“ (Andrejevic 2011, S. 36). Die 
hiermit gemeinten Ressourcen sind einerseits die personenbezogenen Daten, die die 
NutzerInnen der sozialen Netzwerkplattformen generieren, in dem sie ihre normale 
Sozialität innerhalb derer Interfaces und Netzwerke ausleben – und andererseits die dort 
artikulierte, letztlich auch produzierte Sozialität zwischen den NutzerInnen.  
Durch den inhärenten Drang zur konsequenten Steigerung der Profite haben Plattformen 
ein Interesse an erhöhten Produktion personenbezogener Daten. Die arbeitsförmige 
Organisation unserer Sozialität wird durch die konkrete Ausgestaltung der Interfaces, 
Funktionen und Services sozialer Netzwerkplattformen vorangetrieben, die uns zu 
besonders datenintensiven Sozialpraktiken drängen und sich in immer mehr Bereiche 
unseres Alltags einweben. Damit verändern sich unsere Sozialpraktiken unhinterfragt 
entlang von Kapitalinteressen, wenn Plattformen eher die Anliegen ihrer AnlegerInnen als 
die ihrer NutzerInnen ernst nehmen. Andrejevic beschreibt dies als: 
„rationalisierenden Instrumentalismus: die Durchdringung sozialer 
Netzwerke durch die quantifizierende Logik des Tauschwerts und die 
Erschaffung einer Welt, in der sich jeder Akt der Kommunikation und der 
sozialen Interaktion als Werbung und als Marketing Datenpunkt 
verdoppelt.“ (Andrejevic 2011 S. 34) 
Dass diese Sozialität nun nach den Interessen der Mehrwertproduktion umgestaltet wird, 
verschwindet dabei in der Selbstverständlichkeit unserer dominanten Art der 
Computernutzung. Marx nennt diese Umgestaltung des konkreten Arbeitsprozesses die 
reelle Subsumtion, in der die konkrete Tätigkeit im Arbeitsprozess auf die Mehrwert-
produktion hin optimiert wird (Marx & Engels 2014, S. 533). Das Drängen auf daten- und 
zeitintensive Kommunikationspraktiken ist genauso Teil dieser Veränderung wie die 
Normalisierung von Tracking-Devices und Capture-Strukturen in allen Lebensbereichen. 
Dass soziale Netzwerkplattformen einen Raum zum Ausdruck unserer Sozialität bieten, 
wird oft als ihr Service verhandelt. Doch all die Timelines, Threads, Kommentarspalten 
und Pages wären ohne die Arbeit der NutzerInnen leer. Auch dies ist eine Form der 
Entfremdung: Die Arbeit der NutzerInnen wird vor ihnen unsichtbar gemacht, ideologisch 
abgespalten und ihnen dann als Service der Plattform zurückgespiegelt. Von den 
Produkten ihrer eigenen Arbeit getrennt, müssen sie die Nutzungsbedingungen der 
Ölstandsanzeiger  167 
Plattform – und damit die gesamte Produktionsweise – immer wieder akzeptieren um ihr 
soziales Umfeld weiter pflegen zu dürfen. 
 
3.  Unsichtbar machen 
 
Die Unsichtbarmachung ihrer Arbeit lässt sie dankbar für die Möglichkeit sein, überhaupt 
digital kommunizieren zu dürfen. Die Darstellung der Organisation dieser Arbeit als 
natürlich und selbstverständlich trägt zur Akzeptanz dieses Verhältnisses bei, eine 
Parallele zu den Analysen, die durch den materialistischen Feminismus in Bezug auf 
Hausarbeit in den 1970ern diskutiert wurden (Dalla Costa &James 2005). Auch dort ging 
es darum, die Organisation der sozialen Reproduktion als Teil des gesamten Produktions-
prozesses zu markieren. Laurel Ptak hat diese Parallele aufgenommen und mit “WAGES 
FOR FACEBOOK” eines der politischen Manifeste der damaligen Diskussion (Federici 
1975) auf die hier analysierten Verhältnisse angepasst: 
„Capital had to convince us that it is a natural, unavoidable and even 
fulfilling activity to make us accept unwaged work. In its turn, the unwaged 
condition of facebook has been a powerful weapon in reinforcing the 
common assumption that facebook is not work, thus preventing us from 
struggling against it.“ (Ptak 2014) 
Der Eindruck der Natürlichkeit und Unausweichlichkeit dieser Organisation unserer 
Sozialität wird durch die medialen und technologischen Verhältnisse untermauert. 
Alexander Galloway beschreibt ausführlich, wie (meistens grafische) Interfaces versuchen, 
sich selbst unsichtbar zu machen, sich jedem hinterfragenden Blick zu entziehen 
(Galloway 2012, S. 54). Wenn Galloway meint, das Interface  „facilitates the way of 
thinking that tends to pitch things in terms of “levels” or “layers” in the first place“, 
verweist er damit auf die wortwörtlich rahmende Funktion, auf das Framing. Denn die 
innere und äußere Gestaltung besonders kommerzieller sozialer Netzwerkplattformen hat 
die Aufgabe der Optimierung der Metriken von Engagement – also Interaktion mit präsen-
tiertem Content und Werbungen – und der Datenproduktion. Die emotionale Lenkung hin 
zu Affekten wie Wut oder Empörung hat sich dafür als besonders effizient herausgestellt. 
Wendy Chun beschreibt ähnliche ideologische Effekte in unseren gegenwärtigen digitalen 
Infrastrukturen. Sie analysiert die funktionalen Analogien zwischen Ideologie und 
Software  und verortet sie in tieferliegenden Abstraktionsebenen der gegenwärtigen 
Informatik: „Software, or perhaps more precisely operating systems, offer us an imaginary 
relationship to our hardware: they do not represent transistors but rather desktops and 
recycling bins. Software produces ‘users.‘“ (Chun 2014, S. 43). Damit ist ein Prozess der 
Subjektivierung beschrieben. Die digitalen Systeme, mit denen wir interagieren, durch die 
wir kommunizieren, anhand derer wir uns gegenüber anderen selbst darstellen, formen uns 
als Subjekte, unsere Weltbeziehung, unsere Selbstwahrnehmung, unsere materiellen und 
168  Tobias Stadler 
ideologischen Handlungsräume. Als User ist dieser Subjektstatus im hier beschrie-benen 
Produktionsprozess immer passiv, wir haben nur die Wahl, entweder die Platt-formen so 
zu nutzen, wie sie sind, oder gar nicht. Und damit müssen wir den Ausschluss von 
zentralen sozialen Prozessen akzeptieren. 
Für solche sozio-technischen Komplexe hat Philipp Agre schon Anfang der 1990er Jahre 
den Begriff Capture stark gemacht (Agre 1994). Mit einer doppelten Bedeutung von 
Capture als einfangen, aber auch als erfassen, im Sinne von verstehen, beschrieb Agre 
damit techno-soziale Systeme, in denen Abläufe so formalisiert, automatisiert und 
überwacht werden, dass ihre Zustände allesamt maschinenlesbar sind. Um beide Anforde-
rungen zu erfüllen, werden “grammars of action” definiert, die Tätigkeiten, Handelnde und 
Zustände beschreiben und in unterschiedlichen Zusammensetzungen fassen können. 
Solche Grammars of Action sorgen in den Interfaces, Protokollen, Normen und 
Sortierungen kommerzieller sozialer Netzwerkplattformen für die Subjektivierung als 
passivierte UserInnen und die Rekonfiguration unserer Sozialität, die für die effiziente 
Produktion personenbezogener Daten notwendig ist. Mit digitalen Artefakten außerhalb 
ihrer eigenen Plattformen, etwa als Plug-ins in der Fitness-App, als Cookies setzender 
Share-Button auf ganz anderen Webseiten, oder als fixer Bestandteil von mobilen 
Betriebssystemen können die Capture-Systeme kommerzieller Plattformen sich in immer 
mehr Bereiche unserer alltäglichen Lebensführung und Sozialität einweben, und diese für 
ihre Produktion umgestalten. 
 
4. Unsichtbare Konsequenzen 
 
Diese Veränderungen in unseren sozialen Beziehungen und den Räumen, in denen wir 
diese ausleben, bringen teils gravierende Folgen mit sich. Im folgenden Abschnitt 
skizziere ich einige der sozialen, gesellschaftlichen und ökologischen Konsequenzen der 
bisher beschriebenen Weise der Produktion von personenbezogenen Daten und 
gleichzeitig ihre Art, sich in der Offensichtlichkeit zu verstecken, denn die Komplexität, 
Undurchsichtigkeit und Allgegenwärtigkeit unserer digitalen Infrastruktur lässt ihre 
naturalisierenden Beschreibungen besonders effektiv sein.  
Die Cloud als immaterieller Ort ist aber immer eine Form von materiellem Datenzentrum 
– mit konkretem Stromverbrauch, Hardwareverschleiß und menschlichen ArbeiterInnen 
(Ensmenger 2020). Und Beiträge, die viral gehen, tun dies nicht aufgrund ihrer 
biologischen Eigenschaften als memetische Vehikel, sondern meistens, weil bestimmte 
Marketinginteressen dahinter stehen, die die algorithmische Sortierung auf kommerziellen 
Plattformen geschickt zur Aktivierung anderen NutzerInnen benutzen können (Stadler 
2017). Solche ideologischen Bilder der Naturalisierung und Unsichtbarmachung 
rechtfertigen zum einen die Praktiken, mit denen personenbezogene und andere Daten 
produziert werden. Es erscheint uns mittlerweile völlig normal, Familienbilder auf 
Ölstandsanzeiger  169 
Facebook und anderswo zu teilen, es wird suggeriert, das sei eine natürliche Art, dies zu 
tun. Zum anderen Verdecken sie aber auch die materiellen Bedingungen dieser Art der 
Produktion und die daraus entstehenden Konsequenzen – und damit die Besitzverhältnisse, 
Verantwortlichkeiten und die sich formenden Interessen. 
Das Bild von den Daten als das neue Öl hat zumindest eine brauchbare Seite, wenn auch 
eine unerwartete. Die Auswirkungen einer auf fossilen Brennstoffen basierenden 
Produktions- und Wirtschaftsweise sind ähnlich gravierend, manchmal schwierig zu 
sehen, weil immer nur inkrementell und vor allem global ungleich verteilt. Wenn Jathan 
Sadowski von diesen Auswirkungen spricht, dann stellt er fest: „The outcomes of smart 
tech are not evenly distributed. The harms are disproportionately felt by the poor and 
people of color“ (Sadowski 2020, S. 133). Es ist also wichtig, nicht nur die 
offensichtlichsten Effekte der glatten Oberflächen zu betrachten, mit denen uns 
kommerzielle soziale Netzwerkplattformen und andere Technologieunternehmen 
konfrontieren, wenn sie uns unsere eigene Sozialität als ihren Service spiegeln. Eine Kritik 
an der hier beschriebenen Produktionsweise muss tiefer greifen, anstatt bei der 
Skandalisierung von Brüchen der bürgerlichen Privatsphäre und staatlicher Überwachung 
stehen zu bleiben. 
Die Kritik an der marktförmigen Reorganisation unserer Öffentlichkeiten und Aufmerk-
samkeitsverteilung nähert sich daran an. Die strukturelle Logik von Likes, Shares und 
Kommentaren intensiviert den sozialen Wettbewerb und weitet die offensichtliche 
Marktförmigkeit in unsere engeren sozialen Kreise hinein aus. Um die ständige 
Zirkulation von Content und die darin stattfindende Datenproduktion am Laufen zu halten, 
ist viel manuelle Arbeit nötig – nicht nur von NetzwerktechnikerInnen, Program-
miererInnen oder eben Content kreierende NutzerInnen, sondern auch von noch viel 
versteckteren ArbeiterInnen. 
Commercial Content Moderation (CCM) beschreibt die Arbeit von vielen tausenden 
Menschen, die über den ganzen Globus verteilt in verschiedensten Settings – aber oft in 
fabrikartigen Großraumbüros – damit beschäftigt sind, die Beiträge von den abermillionen 
NutzerInnen auf kommerziellen Netzwerkplattformen zu kontrollieren. Diese Modera-
torInnen entscheiden nach geheim gehaltenen Regelwerken, welche Inhalte auf den 
jeweiligen Plattformen unerwünscht sind und welche gelöscht werden müssen. Die 
Plattformen weigern sich ihre Richtlinien öffentlich zu machen. Die Arbeit der 
ModeratorInnen beinhaltet die tägliche stundenlange Konfrontation mit gewaltvollem, 
übersexualisiertem und menschenverachtendem Material, das die ArbeiterInnen oft mit 
psychischen Traumata zurück lässt (Roberts 2019). Auch dies ist eine Folge der 
Organisation unserer Sozialität auf riesigen, zentralisierten Plattformen: Anstatt die Arbeit 
der Moderation zu verteilen und den betroffenen Communities Mitbestimmungsrechte 
einzuräumen, wird diese notwendige Arbeit zentralisiert und möglichst kostengünstig 
organisiert, wobei das Mitspracherecht von NutzerInnen oder mikrokulturelle Besonder-
heiten einzelner Communities auf der Strecke bleiben. 
170  Tobias Stadler 
Aus den ideologischen Bildern der Körperlosigkeit, der Immaterialität und der 
Ephemeralität, die immer noch in allen gesellschaftlichen Imaginationen und Bezugs-
weisen auf digitale Infrastrukturen eingeschrieben sind, entsteht eine besonders effektive 
Art der Unsichtbarmachung und Naturalisierung dieser Verhältnisse. Dadurch kann die 
Ausbeutung und Zerstörung von Menschen und Natur direkt hinter unserer Vorstellung 
der Cloud verschwinden: Es erscheint nämlich nur digital, nur virtuell. Diese Unsicht-
barmachung ist jedoch gefährlich, denn gerade jetzt sollte unsere Produktionsweise und 
der daraus entstehende CO2-Ausstoß kritischer betrachtet werden denn je. Thomas 
Mullaney schreibt deswegen eindringlich über Datenzentren als zentrale Punkte unserer 
Infrastrukturen: 
„They are physical machines, propelled by fire both material and metabolic. 
When they run, they run hot; and when they work hard, they run hotter. Data 
centers alone account for more than 2 percent of global energy use, energy 
consumption predicted to grow with the expansion of the Internet of Things. 
(Google emitted over 50 kilograms of CO2 in the time it took for you to read 
this sentence.)“ (Mullaney 2020, S. 5) 
Doch die Einhegung und reelle Subsumtion unserer Sozialität bringen nicht nur 
zermürbende Formen der Ausbeutung und eine Intensivierung der globalen ökologischen 
Krise mit sich, sondern auch gesellschaftliche Verwerfungen durch die Reformatierung 
unserer sozialen Reproduktion. 
So zeigt zum Beispiel Mar Hicks auf, dass der in unseren Alltagstechnologien eingebettete 
Sexismus kein Zufall, kein Flüchtigkeitsfehler unwissender EntwicklerInnen ist. Im 
Gegenteil, weist sie doch auf die tiefe Verankerung frauenverachtender Strukturen in den 
Wurzeln des Silicon Valley nach: „These gendered harms  are also built in to platforms at 
their core. One of the most highly valued companies in Silicon Valley started out as a site 
that stole women’s pictures without their consent and asked users to rate their 
attractiveness.“ (Hicks 2020, S. 136) 
In diesem Umfeld fanden die neofaschistischen Gruppen, die gerne unter dem Label alt-
right zusammengefasst werden, einen fruchtbaren Boden für ihre Propaganda und darauf 
folgende Rekrutierungen und Radikalisierungen. Joanne McNeil sieht eine Erklärung 
dafür in den „feedback loops“, die sich in den Plattform-Algorithmen zeigen lassen, die 
für die Optimierung, Verbreitung und Kommodifizierung von viral content gebaut 
wurden. Der Fokus auf engagement, in welcher Form auch immer, fördert hierbei jedoch 
authoritäre Tendenzen: „As platform incentivice conflict, they forment hate, providing 
entry points, from the alt-light (Jordan Peterson) to the unambiguously dangerous (Alex 
Jones and Richard Spencer)“ (McNeil 2019, S. 183) McNeil unterstreicht jedoch auch, 
dass diese politischen Bewegungen und ihre AkteurInnen nicht erst durch soziale 
Netzwerkplatt-formen entstanden sind, auch wenn dies oft ihre eigene Erzählung ist. 
Ölstandsanzeiger  171 
In eine ähnliche Kerbe schlägt Ruha Benjamin, wenn sie auf die historischen 
Kontinuitäten von Technologie-gestützter Repression und Überwachung von Schwarzen 
Menschen verweist – lange bevor big data zum Buzzword wurde. Trotzdem betont sie 
auch die Intensivierung, die von Rassismen betroffene Menschen durch neue Techno-
logien der Sichtbarkeit in ihrer Unterdrückung erfahren (Benjamin 2019). 
Silvia Federici hat in ihren Untersuchungen historischer und gegenwärtiger Prozesse der 
kapitalistischen Einhegung immer wieder festgestellt, dass diese stets Phasen der 
verstärkten sexualisierten und rassistischen Gewalt waren, die insbesondere mit der 
Disziplinierung von Frauen* und Angriffen auf deren Rechte im öffentlichen Raum 
einhergingen (Federici 2012b, S. 96) Dieses Phänomen spiegelt sich in den gerade 
beschriebenen, zunehmend normalisierten Übergriffen auf sich öffentlich äußernde 
Frauen, People of Colour oder Personen abseits der patriarchalen Norm. Patriarchale und 
rassistische digitale Gewalt scheinen hier als Konsequenzen unserer gegenwärtigen 
Produktionsweise auf, dabei ist jedoch zu unterstreichen, dass diese Verwerfungen nicht 
rein technisch bedingt sind, also keine ausschließliche Konsequenz der Digitalisierung 
sind, aber durchaus davon befeuert werden. 
 
5.  Den Apparat anzweifeln 
 
Die Erkenntnis, dass unsere Sozialität kommodifiziert ist, also die Form von Waren 
annimmt, hat weitreichende Konsequenzen – besonders dafür, wie wir mit diesen Waren 
und ihrer Produktion umgehen wollen. Denn durch die Warenform bekommen Dinge 
einen neuen Charakter. Marx stellt fest, dass sie „die gesellschaftlichen Charaktere ihrer 
eignen Arbeit als gegenständliche Charaktere der Arbeitsprodukte selbst“ (Marx & Engels 
2014, S. 86) zurückspiegelt, und die Rolle der NutzerInnen im gesamten 
Produktionsprozess – und damit das Ausbeutungsverhältnis verschleiert. Mein Argument 
ist nun, dass diese Form einerseits die bereits beschriebenen Unsichtbarmachungen und 
Naturalisierungen ermöglicht und dadurch die sozialen und ökologischen Katastrophen 
zusätzlich befeuert. Andererseits kann uns diese Analyse helfen, das Produktions- und 
Ausbeutungsverhältnis sichtbar zu machen. 
Salome Viljoen beschreibt die doppelte Rolle, die die Kommodifizierung in verschiedenen 
Kritiken an der Datafication einnimmt, als „both a process of production and a form of 
injustice“ (Viljoen 2020). Damit beschreibt sie zwei verschiedene Stränge der Diskussion, 
die sich in verschiedenen Bereichen der Diskussion um Data Governance ausdrücken. Im 
„propertarian approach“ wird zwar das Produktionsverhältnis anerkannt, dieses soll aber 
über Eigentumrechte und vor allem Lohnverhältnisse gelöst werden. Den zweiten Strang 
der Diskussion nennt Viljoen „dignitarian“, und dort wird das extraktive Moment der 
Datenproduktion betont, und die Lösungsvorschläge übersehen in ihrem Drang zur 
172  Tobias Stadler 
Unterbindung dieser Extraktion viele positive Aspekte, die ein selbstbe-stimmter Umgang 
mit bestimmten Formen von Daten bringen könnte. (Viljoen 2020) 
Ihr Vorschlag einer „democratic data governance“ versucht dagegen, personenbezogene 
Daten als geteilte und produktiv hergestellte Ressource zu verstehen. Dieser Ansatz wird 
auch in anderen Positionen geteilt und oft unter dem Begriff der commons diskutiert (vgl. 
Papadimitropoulos 2020). Viljoen stellt deswegen richtig fest, dass individualisierende 
Lösungen dieses Problem nicht lösen können, ohne auch die eventuellen gesellschaftlichen 
Vorteile, die wissenschaftlichen Erkenntnisse, das gemeinsam erarbeitete Wissen über 
Bord werfen zu müssen (Viljoen 2020). 
Viljoens Trennung von „production“ und „injustice“ hilft vielleicht in der Kategorisierung 
bestimmter Diskussionen, ist aber für die Analyse unpraktisch: Als Ausbeutungsverhältnis 
ist unsere gegenwärtige Produktionsweise nämlich beides. Die Einhegung und reelle 
Subsumtion unserer Sozialität auf kommerziellen sozialen Netzwerkplattformen hat die 
Tätigkeiten der Reproduktion unseres Soziallebens zentralisiert und auf eine Weise 
umorganisiert, die sie zu Waren produzierender Arbeit werden lassen. Damit werden 
konkrete Bedürfnisse von NutzerInnen ausgenutzt und gegen sie positioniert: Sei es das 
Bedürfnis nach sozialem Austausch, nach politischer Diskussion oder nach gemeinsamer 
Information. Digitale soziale Netzwerke beruhen darauf, diese Aktivitäten in Form von 
Daten abzuspeichern, um Teile davon anderen NutzerInnen zur Verfügung zu stellen. In 
kommerziellen sozialen Netzwerkplattformen werden die selben Aktivitäten – durch 
capture-Systeme und sozio-technischen Druck – auf eine Weise organisiert und 
umgeformt, die gleichzeitig Gebrauchswerte entstehen lässt, die die Tauschwerte für die 
Plattform realisierbar machen: Detaillierte Aufzeichnungen über Interaktionen, Verhalten, 
Vermutungen und Kategorisierungen, die keine Bedürfnisse der NutzerInnen befriedigen, 
sondern nur den eingangs genannten Formen der Realisierung des Mehrwerts für die 
Plattformen dienen. 
Die Plattform als Struktur ist für diese Einhegungen notwendig, denn erst durch die dort 
entstehenden Netzwerkeffekte kann die Zentralisierung mittels sozialem Zwang 
funktionieren. Wenn ich die Nutzung von social media als Produktionsprozess verstehe, 
dann ist die Plattform eine Fabrik – deren Arbeitsprozesse, Disziplinierungen und 
Einschlüsse nicht Teil der Lösung sein können. Denn erst dadurch konnten die oben 
skizzierten sozialen, ökologischen und ausbeuterischen Verwerfungen entstehen und 
normalisiert werden. Daran muss sich eine nachhaltige Form der Data Governance 
abarbeiten – nicht nur Fragen, was mit toxischen Daten zu tun ist, als wäre ihre Entstehung 
ein unentrinnbares Naturverhältnis – sondern schon bei der Produktion dieser Daten 
hinterfragen, ob unsere Gesellschaft sie für nützlich hält und wie sie damit umgehen will, 
beziehungsweise ob deren Produktion überhaupt an sich zulässig sein sollte. 
Daran anschließend argumentiere ich, dass bestimmte Formen der Datenproduktion immer 
schädlich sein werden. Die gegenwärtige Produktion personenbezogener Daten, mit der 
Metrik des engagement und habit forming design ist nicht alleine Schuld an der globalen 
Ölstandsanzeiger  173 
autoritären Wende und der sozio-ökologischen Krise, trägt aber zu deren Normalisierung 
und Verschärfung bei. Deswegen wird es nicht reichen, kommerzielle Plattformen und 
undurchsichtige Daten-Aggregatoren mit kleineren oder größeren Beschränkungen zu 
belegen. Gewisse Formen der Produktion personenbezogener Daten und daraus 
entstehendem Targeting sind ihre Gefahr nicht wert, und sollten abgeschafft werden. 
Gleichzeitig kann diese Forderung nicht bedeuten, dass es keine sozialen Netzwerke mehr 
geben darf. Die Feststellung, dass dort konkrete Bedürfnisse der NutzerInnen nach 
Sozialität befriedigt werden, unterstreicht, dass viel eher die gegenwärtige arbeitsförmige 
Organisation, die zentralisierte Einhegung und die ökonomische Motivation dahinter die 
Probleme sind. 
 
6. Andere Netze 
 
Ansätze zur Lösung dieser Probleme werden gegenwärtig anhand von dezentralen 
Modellen diskutiert, die nicht mehr unter der ökonomischen, technischen und rechtlichen 
Kontrolle einzelner privater Akteure stehen. Ein Beispiel dafür ist das Fediverse, ein loses 
Netzwerk verschiedenster Server, die über die Implementierung verschiedener Netzwerk-
protokolle – allen voran das ActivityPub-Protokoll – miteinander verbunden sind. Der 
Name spielt auf die föderierte Netzwerkstruktur an, in der es keine zentralen Knoten gibt, 
und unterschiedliche Instanzen für sich bestimmen können, auf welche Art sie mit dem 
Rest des Netzwerks oder auch nur mit ganz bestimmten anderen Knoten interagieren 
wollen. Eines der meist genutzten digitalen Kommunikationssysteme basiert auf diesem 
Prinzip: Es gibt keinen zentralen E-Mail-Server über den jeder Traffic laufen muss,2 
sondern viele unterschiedliche Server, die das E-Mail-Protokoll implementiert haben und 
ihre eigenen Regeln der Nutzung, von Zugang über Moderation bis Spam-Filterung, 
definieren können. Dadurch entsteht ein soziales Netzwerk ohne die einschließenden und 
monopolisierenden Tendenzen der Plattformstruktur. 
Dabei ist es hier wichtig, nicht bei individuellen oder privaten Lösungen stehen zu bleiben. 
Viel eher ist ein anderes Verhältnis zu gemeinsamen Infrastrukturen, Institutionen, 
Gemeinschaftlichkeit und Öffentlichkeit notwendig. Alternative Produktionsformen, die 
eine solidarische Infrastruktur aufbauen wollen, können hierfür einen Beitrag leisten, sind 
aber gegenwärtig meist von individueller Initiative und Freiwilligenarbeit abhängig – all 
die Arbeit der Serverwartung, Moderation und des Supports, die kommerzielle Plattformen 
leicht durch die Einnahmen, die durch die Produktion personenbezogener Daten gemacht 
werden, zahlen können, wird beispielsweise im Fediverse meist ehrenamtlich geleistet. 
Dies ermöglicht zwar Communities, in denen die NutzerInnen in strukturelle 
                                                        
2  Auch wenn Microsofts Outlook und Googles Gmail sehr erfolgreich in der Zentralisierung be-
stimmter Teile des Email-Netzwerks sind, gibt es noch viele kleine Knoten. 
174  Tobias Stadler 
Entscheidungen der Verwaltung mit eingebunden werden und dadurch selbst 
Verantwortlichkeit ihrem Umfeld und den von ihnen genutzten Infrastrukturen gegenüber 
übernehmen können, verbleibt aber im Kleinen und setzt nicht wenig Wissen voraus, was 
für potentielle NutzerInnen eine große Barriere darstellen kann. 
Diese Verantwortung könnte jedoch von nicht-kommerziellen und bestenfalls auch nicht-
staatlichen Institutionen übernommen werden. In diesem Kontext spricht Mark Andrejevic 
etwa von Universitäten als Orte, die solche Infrastrukturen zur Verfügung stellen könnten 
(Andrejevic 2011, S. 48). Es ist kein Zufall, dass sich das klassische Web und das E-Mail-
System durch anfangs akademische Nutzung etabliert haben, weil beide oft von 
Universitäten betrieben wurden. Joanne McNeil nutzt ein ähnliches Bild, wenn sie von 
Bibliotheken als öffentlichen Orten spricht, in denen Austausch und Information, aber 
auch einfach niederschwelliger Aufenthalt möglich ist. In vielen Städten stellen 
Bibliotheken Ressourcen jenseits von Büchern und Datenträgern zur Verfügung, und 
eignen sich dafür als Ausgangspunkt einer nicht kommerziellen digitalen Infrastruktur. 
Das unterstreicht sie mit der Notwendigkeit von BibliothekarInnen: „… a person who 
might meet users where they are and help provide what they need. (…) people on task to 
care about the past, with respect to the past and also to what it shall bequeath to the 
future.“ (McNeil 2019, S. 257) 
Mit sozio-technischen Ansätzen der föderierten Interoperabilität müssen solche 
Institutionen auch anderen Arten, Knoten im offenen Netzwerk zu betreiben, nicht im 
Wege stehen. Es kann weiterhin möglich sein, kleine Instanzen selbst zu betreiben oder 
sogar kommerzielle Knoten bereit zu stellen, mit unterschiedlichsten Formen von 
Selbstregulierung, Moderation oder Community. Damit können die digitalen Ein- und 
Ausschlüsse des Plattform-Modells umgangen werden, ohne eine vereinheitlichte Art der 
Interaktion mit dem Netzwerk vorzuschreiben, während gleichzeitig auf einen 
niederschwelligen Zugang zu den kollektiven Ressourcen geachtet wird. 
Die hier skizzierte Analyse einer kommodifizierten Sozialität zeigt aber auch auf, dass die 
Konsequenzen unserer gegenwärtigen Produktionsweise mit einer direkten Übersetzung in 
dezentrale, föderierte Strukturen nicht von alleine behoben werden. Durch mehr als zwei 
Jahrzehnte der reellen Subsumtion unserer Sozialität sind Normen und Gewohnheiten in 
der Nutzung sowie der inneren und äußeren Gestaltung unserer Kommunikationsmittel 
entstanden, in die sich die Ausbeutung und Kommodifizierung tief eingeschrieben haben. 
Deswegen werden viele der Probleme dieser Produktion von Sozialität nicht 
verschwinden, wenn nur die Verwertungsprozesse abgeschafft werden, die konkreten 
Tätigkeiten der bisherigen Arbeitsprozesse aber gleich bleiben – und viele alternative 
soziale Netzwerke versuchen diese zu imitieren. Der Umbau der Infrastrukturen entlang 
kommunaler, interoperabler und dezentraler Ideen ermöglicht demgegenüber einen Raum 
zur Erkundung anderer Annäherungen an digitale Sozialität, und eröffnet zumindest die 
Möglichkeit des Entstehens einer solidarischen digitalen Zukunft. 
 
Ölstandsanzeiger  175 
Literatur  
 
Agre, Philip. E. (1994): ‘Surveillance and capture: Two models of privacy’. The Information 
Society, 10(2), pp. 101–127. doi: 10.1080/01972243.1994.9960162. 
Andrejevic, Mark (2011): ‘Facebook als neue Produktionsweise’, in Rohle, Theo and Leistert, 
Oliver (Hrsg): Generation Facebook. Über das Leben im Social Net. Bielefeld: Transcript,  
S. 31–48. 
Benjamin, Ruha (2019): Race after technology: abolitionist tools for the new Jim code. 
Medford, MA: Polity. 
Chun, Wendy H. K. (2014): ‘On Software, or the Persistence of Visual Knowledge’. Grey 
Room (18), S. 26–51. 
Dalla Costa, Mariarosa & James, Selma (2005): The Power of Women and the Subversion of 
the Community. New York: Pétroleuse Press. 
Ensmenger, Nathan (2020): ‘The Cloud is a Factory’. In Hicks, Mar et al. (Hg): Your 
Computer Is on Fire. Cambridge, MA: MIT Press, S. 29–50. 
Federici, Silvia (1975): Wages against Housework. Bristol: Falling Wall Press. 
Federici, Silvia (2012a): Caliban und die Hexe: Frauen, der Körper und die ursprüngliche 
Akkumulation. Edited by Martin Birkner. Translated by Max Henninger. Wien: 
Mandelbaum (Kritik & Utopie). 
Federici, Silvia (2012b): ‚Der Feminismus und die Politik der Commons (2010)‘. In Aufstand 
aus der Küche - Reproduktionsarbeit im globalen Kapitalismus und die unvollendete 
feministische Revolution. Münster: Edition Assemblage (Kitchen Politics. 
Queerfeministische Interventionen, 1), S. 87–105. 
Fuchs, Christian (2014): Digital Labour and Karl Marx. New York: Routledge. 
Galloway, Alexander R. (2012): The interface effect. Cambridge: Polity. 
Hicks, Mar  (2020): ‘Sexism is a Feature’. In Hicks, Mar et al. (Hg.): Your Computer Is on 
Fire. Cambridge, MA: MIT Press, S. 3–11. 
Marx, Karl & Engels, Friedrich (2014): Das Kapital: Bd. 1. (MEW). Berlin: Dietz Verlag.  
McNeil, Joanne (2019): Lurking: how a person became a user. First edition. New York: MCD, 
Farrar, Straus & Giroux. 
Mullaney, Thomas S. (2020): ‘Your Computer Is on Fire’. In Hicks, M. et al. (eds): Your 
Computer Is on Fire. Cambridge, MA: MIT Press, S. 3–11. 
Papadimitropoulos, Vangelis (2020): The Commons: Economic Alternatives in the Digital Age. 
University of Westminster Press. doi: 10.16997/book46. 
Ptak, Laurel (2014): WAGES FOR FACEBOOK. Abgerufen unter: http://wagesforface-
book.com/ (Stand vom 22-04-2016). 
176  Tobias Stadler 
Roberts, Sarah T. (2019): Behind the screen: content moderation in the shadows of social 
media. New Haven: Yale University Press. 
Sadowski, Jathan (2020): Too Smart: How Digital Capitalism is Extracting Data, Controlling 
Our Lives, and Taking Over the World. Cambridge, MA: MIT Press. 
Sevignani, Sebastian (2017): ‘Facetten der Debatte über das digitale Arbeiten – Heraus-
forderungen für eine kritische Theorie des informationellen Kapitalismus’, PROKLA, 
186(47), S. 43–62. 
Stadler, Tobias (2017) ‘The Whitest Charleston Milk Shake – Weltweites Tanzfieber, globale 
Einheiten und cultural appropriation’. In Binder, Sarah et al. (Hg.): Tanz im Film. Über das 
politische in der Bewegung. Berlin: Verbrecher Verlag, S. 133–146.  
Viljoen, Salmoné (2020): ‘Data as Property?’. Phenomenal World, 16 October 2020. 
Abgerufen unter: https://phenomenalworld.org/analysis/data-as-property (Stand vom:  
20-01-2021). 
Digitale Mündigkeit im Spannungsfeld zwischen ich und 
wir – Ein Ratgeber in zehn konkreten Schritten 
Leena Simon 
Zusammenfassung 
Die Digitalisierung droht uns zu entgleiten. Der Mensch ist viel zu selten dazu befähigt, in Bezug 
auf die Digitaltechnik, die er betreibt, die Verantwortung zu übernehmen. Das liegt einerseits 
daran, dass die äußeren Bedingungen dafür kaum gegeben sind, andererseits aber auch, dass 
digitale Mündigkeit im Lebensalltag nicht trainiert wird. Die absehbaren Folgen für Demokratie 
und Gesellschaft sind fatal. Der Text versucht darzulegen, dass mit nur zehn Schritten jede Person 
ihre eigene digitale Mündigkeit trainieren kann. 
1. Digitale Mündigkeit im Spannungsfeld zwischen ich und wir
Je mehr die Digitalisierung voranschreitet, desto mehr werden die gesellschaftlichen 
Versäumnisse im Zusammenhang mit ihrer Gestaltung offensichtlich. Die Corona-Krise 
führt uns vor Augen, dass es an belastbaren Gestaltungsprinzipien für die Digitalisierung 
in Schule, Gesundheitssystem und Sicherheitspolitik fehlt. Der Trend geht zu mehr und 
mehr Kontrolle seitens der „großen Player“ (staatlich und privat) und zunehmendem 
Kontrollverlust (vgl. Simon 2020) auf Seite der Benutzenden. Die Folgen dieser, auf 
leichte Antworten und schnellen Erfolg ausgelegten Digitalpolitik spüren wir zunehmend 
in Form von politischer Polarisierung, Verschwörungserzählungen und schwindendem 
Vertrauen in die Demokratie und ihre Repräsentanten. 
Der Fehlschluss liegt bereits in den 90er Jahren, als bei der Vermittlung von Computer-
fertigkeiten ausschließlich auf Anwendungskompetenz Wert gelegt wurde, während die 
wichtigen Reflexionskompetenzen weitgehend außer Acht gelassen wurden. Wenn man 
bei einem Office-Kurs nur lernt, wie man ein Dokument anlegt, löscht, ausdruckt, wie man 
Text fett markiert oder ein Inhaltsverzeichnis anlegt, kann man das Programm zwar 
bedienen, aber die Folgen des eigenen Handelns nicht verstehen und reflektieren. 
Reflexionskompetenz würde in diesem Zusammenhang bedeuten, dass auch darüber 
gesprochen wird, dass die Wahl des Dateiformats entscheidende Konsequenzen haben 
kann und warum offene Formate denen von Microsoft und Co vorzuziehen sind. 
Wer ein Dokument als .docx abspeichert, setzt damit andere unter Druck, ebenfalls 
Microsoft-Produkte zu nutzen und die dazu notwendigen Lizenzbedingungen zu akzep-
tieren. Dies ist bei offenen Formaten nicht der Fall, da diese von diversen Programmen 
ohne Störungen geöffnet werden können. 
178  Leena Simon 
Folge dieser einseitigen Vermittlung von Computerwissen ist auch, dass wir über keinerlei 
Kriterien mehr verfügen, wem und was wir eigentlich Vertrauen schenken dürfen. Wer 
sich diese Frage stellt, bemerkt schnell, dass es nicht einmal ansatzweise ausreichend 
Information dazu gibt. Wenn Menschen so vor Augen geführt wird, wie unmündig sie in 
Wahrheit sind, neigen sie dazu, schnell darüber hinweg zu sehen. So ist es zum 
Normalzustand geworden, dass Allgemeine Geschäftsbedingungen (AGB) ungelesen 
akzeptiert, Apps ungeprüft installiert und Cookie-Banner unbesehen weggeklickt werden 
(vgl. Kling 2017). Würden wir nur die Dienste nutzen, denen wir wirklich vertrauen 
können, könnten wir an der digitalen Welt kaum teilhaben. Den damit verbundenen 
Kontrollverlust nehmen wir aber durchaus wahr. Dieser untergräbt das Vertrauen in unsere 
Gemeinschaft. 
Die notwendige Reflexion der Folgen des eigenen digitalen Handelns haben wir uns als 
Gesellschaft nie wirklich anerzogen. Und so geht auch heute der Trend hin zu immer mehr 
Vereinfachung, die uns gleichzeitig einen verantwortlichen Umgang mit digitalen Werk-
zeugen zunehmend verbaut. Digitale Mündigkeit ist der Ausgang aus diesem selbstver-
schuldeten Zustand. 
 
2. Mündigkeit ist ein Muskel, der trainiert werden will 
 
Doch was bedeutet „Digitale Mündigkeit“? Im deutschen Sprachraum haben wir, dank 
Immanuel Kant, mit dem Begriff der Mündigkeit einen Sonderfall. Denn Kant gab dem 
ursprünglichen Rechtsbegriff eine weitere Bedeutung. Bisher hatte es sich bei Mündigkeit 
um die Fähigkeit gehandelt, Verantwortung für das eigene Leben zu tragen (im Sinne von 
engl. „mature“). Ebenso müsse auch eine Gesellschaft insgesamt die Verantwortung für 
das eigene Fortbestehen tragen. Der Begriff der Mündigkeit wurde um den Wert der 
Verantwortung für die Gemeinschaft (im Sinne von engl. „responsible“) erweitert. 
Entsprechend ist digitale Mündigkeit das Übernehmen von Verantwortung für die digitale 
Kommunikationsgemeinschaft und damit auch für sich selbst. 
Hierfür muss sowohl auf gesellschaftlicher (d.h. politischer) Ebene, als auch auf 
individueller (d.h. persönlicher) Ebene ein Umdenken stattfinden. Die Reflexion der 
Folgen unseres Handelns muss in unseren digitalen Alltag Einzug halten. Sie darf nicht in 
kleine Expertengremien ausgelagert werden. Jede Person ist mit ihren Handlungen Vorbild 
für andere und prägt das Gesicht unserer digitalen Gesellschaft mit den kleinsten 
Handlungen mit. Mündigkeit ist hier mehr eine Haltungsfrage als eine Sache von Wissen. 
Sie ist Übungssache. So wie die Muskeln in unseren Körpern nicht wachsen, wenn man sie 
nur einmal im Jahr anstrengt, muss auch Mündigkeit als Muskel betrachtet werden, der 
regelmäßig trainiert werden will. 
Die Verantwortung hierfür liegt nicht ausschließlich beim Individuum, das schon längst 
den Überblick verloren hat und – wie es scheint – diesen im Zuge des entfesselten 
 
Digitale Mündigkeit im Spannungsfeld zwischen ich und wir 179 
Überwachungskapitalismus (vgl. Zuboff 2018) gar nicht wiedererlangen soll. Auch 
gesamtgesellschaftlich müssen die Voraussetzungen für einen mündigen Umgang mit 
Digitaltechnik geschaffen werden. Mündigkeit bedeutet allerdings auch, dass das 
Individuum nicht darauf warten darf, dass ihm die Ketten der Entmündigung abgenommen 
werden. 
 
3. Zehn Schritte zur digitalen Mündigkeit 
 
Im Folgenden werden zehn Schritte zu digitaler Mündigkeit auf individueller Ebene 
gezeigt. Diese sollen freilich nicht darüber hinwegtäuschen, dass es ein gesamtge-
sellschaftliches Umdenken braucht und hierzu Druck auf Politik und Wirtschaft ausgeübt 
werden muss. 
Schritt 1:  Die 30 Minuten-Regel 
Ob Computeranfängerin oder Profi – niemand versteht alles, was in einem Computer 
passiert, vollumfänglich. Entscheidend ist, wie wir mit dieser Erkenntnis umgehen. Wer 
sich von dem Überforderungsgefühl abschrecken lässt, wird ein Problem ausspucken, ehe 
er oder sie sich wirklich darauf eingelassen hat. Der Schlüssel besteht darin, sich nicht 
abschrecken zu lassen und sich zunächst auf das zu konzentrieren, was man versteht – und 
sei es auch noch so wenig. Um dies zu trainieren, gibt es die 30-Minuten Regel: 
Versuchen Sie ein Computerproblem immer erst 30 Minuten lang alleine (z.B. unter 
Zuhilfenahme einer Suchmaschine) zu lösen. Holen Sie sich erst nach Ablauf dieser Zeit 
Unterstützung. Sie werden erstaunt sein, wie viele Probleme Sie alleine lösen können, 
wenn Sie sich nur darauf einlassen. Und die Menschen, die Ihnen helfen, werden es Ihnen 
danken. So trainieren Sie im Alltag Ihren Mündigkeits-Muskel und lernen von Tag zu Tag 
mehr dazu. 
Schritt 2:  Kontrollanspruch entwickeln 
Entwickeln Sie die Haltung, dass Sie die Kontrolle über Ihre Geräte behalten wollen: 
Geben Sie Passwörter nicht weiter, weil das bequemer ist. Wenn andere darauf Zugriff 
haben, treten Sie Verantwortung an diese ab, die Sie eigentlich selbst tragen müssten. 
Wenn Sie Ihre Passwörter hingegen nicht preisgeben, und dennoch jemand anderem Ihr 
Gerät überlassen, z.B. um Einstellungen daran vorzunehmen, sitzen Sie unausweichlich 
daneben, weil Sie ja regelmäßig selbst Ihre Passwörter eingeben müssen. Legen Sie Wert 
darauf, dass Sie zumindest ansatzweise nachvollziehen können, was dort gerade passiert. 
Am besten behalten Sie das Gerät ganz in der Hand und lassen sich anleiten. So lernen Sie 
am meisten. Denken Sie immer daran: Wenn etwas schiefgeht, tragen Sie die 
Verantwortung dafür, nicht die Person, die Ihnen hilft. Holen Sie sich genügend 
Informationen, damit Sie diese Verantwortung auch tragen können.     
 
180  Leena Simon 
Schritt 3:  Sichere Passwörter 
Passwortsicherheit ist von großer Bedeutung. Indem Sie sichere Passwörter wählen, stellen 
Sie sicher, dass die Macht über Ihr digitales Leben auch in Ihren Händen bleibt. 
Passwörter müssen lang genug sein (mindestens 14 Zeichen), dürfen nur für jeweils einen 
Account verwendet werden, sollten keine Namen, Geburtstage sowie Jahrestage 
beinhalten oder auch nicht in einem Wörterbuch stehen! Machen Sie sie aber auch nicht zu 
kompliziert. Denn dann halten Sie es nicht durch. Tipp: Wählen Sie 4 bis 6 zufällige 
Wörter und trennen Sie diese mit einem Sonderzeichen. Ein Passwort könnte dann z.B. so 
lauten: „Hund.Teekanne.rot. Kopfstand“. So werden die Passwörter sehr lang und 
komplex, sind aber dennoch leicht zu merken und einzugeben. Damit Sie nicht den 
Überblick verlieren, nutzen Sie eine Passwortverwaltungsdatenbank (die nicht in der 
Cloud liegt). 
Schritt 4:  Cloud-Dienste vermeiden 
Es gibt keine Cloud. Wenn etwas in der Cloud liegt, dann ist das eine schöne 
Umschreibung dafür, dass es auf den Computern anderer Menschen gespeichert ist. Dort 
haben Sie entsprechend wenig Kontrolle über Ihre Daten. Wenn Sie auf die Cloud nicht 
verzichten können, gestalten Sie das aktiv. Betreiben Sie (mit Freunden, Arbeits-
kolleginnen oder Bekannten) eine eigene Cloud (z.B. mit Nextcloud). Sollten Sie 
kommerzielle Cloudanbieter nutzen, legen Sie nur Daten dort ab, die Sie vorher 
verschlüsselt haben (z.B. mit Veracrypt). 
Denken Sie daran, dass manche Smartphones automatisch Ihre Daten (besonders die 
Fotos) in die jeweilige Cloud kopieren. Wenn Sie dies deaktivieren, bedenken Sie, dass 
Sie nun für Datensicherung selbst sorgen müssen. Das können Sie tun, indem Sie  
Back-ups auf Datenträgern erstellen, über die Sie Kontrolle haben (z.B. einem USB-Stick 
oder einer externen Festplatte). 
Schritt 5:  AGB wenigstens oberflächlich prüfen 
Zugegeben: Es ist heute nicht mehr realistisch, alle AGB vollständig zu lesen. Das sollte 
aber nicht dazu führen, dass Sie es gleich resigniert ganz aufgeben. Wer AGB akzeptiert, 
unterzeichnet einen Vertrag. Und den sollte man wenigstens überflogen haben, wenn man 
ihn schon nicht vollständig liest. Gehen Sie diesem Versuch einer Entmündigung durch 
Überforderung nicht auf den Leim. Dafür reichen meist fünf Minuten aus. Denn anhand 
zweier Faktoren lässt sich schnell erkennen, wes Geistes Kind ein AGB-Text ist: Prüfen 
Sie die AGB vor dem Akzeptieren auf Länge und Verständlichkeit. Kopieren Sie die AGB 
(mitsamt ggf. ausgelagerten Cookie-Richtlinien und der Datenschutzerklärung) in ein 
Office-Dokument und vergleichen Sie die Länge mit anderen AGB (bei gleichen 
Dokumenteneinstellungen). Wählen Sie dann zwei zufällige Abschnitte und prüfen Sie 
diese auf Verständlichkeit. Je länger und unverständlicher AGB sind, desto größer ist die 
Wahrscheinlichkeit, dass diese geschrieben wurden, damit Sie sie nicht lesen. 
 
Digitale Mündigkeit im Spannungsfeld zwischen ich und wir 181 
Schritt 6:  Haltung des Eigensinns 
Wer verantwortlich handelt, wird im Alltag im Zusammenhang mit Gruppenaktivitäten 
nicht selten in Situationen geraten, mit denen man nicht einverstanden ist. Vertrauen Sie 
Ihrem Urteil, lassen Sie sich nicht unter Druck setzen und gestehen Sie sich die dafür 
notwendige Portion Eigensinn zu. Wenn Sie nach der Prüfung der AGB von WhatsApp 
keine Lust mehr haben, diese App zu nutzen, dann lassen Sie es auch. Muten Sie Ihrem 
Umfeld zu, dass es andere Wege findet, mit Ihnen zu kommunizieren. Wenn Menschen 
nicht bereit sind, sich einer problematischen Gruppenaktivität anzupassen, finden sich 
meistens andere Wege. 
Schritt 7:  Verantwortlich veröffentlichen und Quellen prüfen 
Wer öffentlich kommuniziert, trägt besondere Verantwortung. Journalistinnen und 
Journalisten haben deshalb einen eigenen Kodex (den Pressekodex), der ihnen helfen soll, 
keine falschen Informationen zu verbreiten. Da neuerdings alle Menschen publizieren 
können, sollten wir einen ähnlichen Anspruch entwickeln. Ein Blick in den Pressekodex 
kann inspirieren. Übernehmen Sie keine Informationen, deren Quelle nicht nachvoll-
ziehbar ist, prüfen Sie Quellen nach Möglichkeit selbst – wenigstens stichprobenartig. Die 
Presse verlangt sogar zwei voneinander unabhängige Quellen, ehe sie etwas als „wahr“ 
ansieht. Seien Sie skeptisch bei unbelegten Aussagen und fragen Sie nach einer Quelle. 
Besonders kritisch sollten Sie übrigens solche Aussagen betrachten, die besonders gut in 
Ihr Weltbild passen. Diese werden Ihnen algorithmisch maßgeschneidert und sodann 
zugespielt, müssen aber deshalb nicht wahr sein. Allerdings sind Sie damit viel einfacher 
manipulierbar, als mit Informationen, die Ihrem Weltbild nicht entsprechen. Wenn Sie sich 
unsicher sind, ob es sich bei einer Nachricht um einen „Fake“ handelt, geben Sie den Titel 
des Artikels zusammen mit dem Wort „Hoax“ (das ist der Internetjargon-Fachausdruck für 
Falschmeldung) in eine Suchmaschine ein und bringen Sie in Erfahrung, ob schon einmal 
jemand diese Nachricht als Falschmeldung markiert hat. 
Schritt 8:  Freie Software nutzen 
Einen analogen Wecker kann man aufschrauben, um zu sehen, was darin passiert, eine 
Software in der Regel nicht. Freie Software legt Wert darauf, in diesem Sinne 
„aufschraubbar“ zu sein und die Nutzenden nicht in ihrer Freiheit einzuschränken. Deshalb 
darf man Freie Software zu jedem Zweck nutzen, untersuchen, wie sie funktioniert, sie mit 
anderen Menschen teilen und sie besser machen (vorausgesetzt, man teilt sie wieder als 
Freie Software). Bekannte Beispiele sind der Browser Firefox, das E-Mail-Programm 
Thunderbird, das Betriebssystem GNU/Linux und das Smartphone-System Android. Zu all 
diesen Programmen liegt der so genannte Quellcode vor. Also der Code, der nicht nur für 
Maschinen, sondern auch für Menschen verstehbar ist. Das gibt uns die Möglichkeit, 
Programme zu prüfen und herauszufinden, ob ein Programm versteckte Funktionen hat, 
die es gar nicht haben soll. Entsprechend seltener findet man solche ungewollten 
 
182  Leena Simon 
Funktionen in freier Software. Eine Garantie ist das freilich nicht. Informatik-kenntnisse 
sind natürlich von Vorteil, aber nicht zwingend nötig, um von freier Software zu 
profitieren. Betrachtet man den Quellcode eines Programms als das Gesetz, das ihm zu 
Grunde liegt (vgl. Lessig 2006), wird klar, weshalb dieser zugänglich sein muss. Als 
Nicht-Juristin verstehe ich ganz sicher nicht alles, was im Strafgesetzbuch steht. Doch ich 
habe die Möglichkeit, mir juristischen Beistand zu holen. Ein System, dessen Gesetze 
nicht offen einsehbar sind, ist totalitär. Analog befindet man sich beim Gebrauch von 
unfreier (proprietärer) Software in einem totalitären System. Der Mündigkeit dient das 
ganz sicher nicht. 
Schritt 9:  Verschlüsseln, wann immer es geht 
Datenträger und Kommunikationsmedien sollten nach Möglichkeit verschlüsselt sein. Das 
ist manchmal etwas mühsam, sorgt aber dafür, dass kein unbefugter Zugriff auf Ihre Daten 
stattfindet. Viele Messenger (nicht so Telegram) verschlüsseln schon standardmäßig. Aber 
auch E-Mail-Verschlüsselung ist wichtig, funktioniert aber nur, wenn beide Kommunika-
tionsseiten diese bereits eingerichtet haben. Festplattenverschlüsselung ist ebenfalls 
wichtig, kann aber auch zu Datenverlust führen (z. B. wenn man das Passwort vergisst). 
Entsprechend ist auch hier wichtig, dass man eigenverantwortlich für Sicherungs-kopien 
sorgt. Diese sollten am besten ebenfalls verschlüsselt gelagert werden. 
Damit dies auch weiterhin möglich ist, sollte ein Recht auf Verschlüsselung in die 
Verfassung aufgenommen werden. 
Schritt 10:  Solidarität 
Verantwortung für die Kommunikationsgemeinschaft zu tragen, bedeutet natürlich auch, 
sich solidarisch mit den Kommunikationspartnern zu zeigen. Dabei geht es vor allem 
darum, mehr Augenmerk auf die kleinen Alltagssituationen zu richten, die andere 
betreffen. Viele Menschen überkleben mittlerweile die Frontkamera ihres Smartphones. 
Doch auch die Rückkamera sollte man überkleben. Denn diese ist im öffentlichen Leben 
(z.B. im Wartezimmer oder in der U-Bahn) häufig auf andere Menschen gerichtet, die 
nicht wissen können, ob man gerade Solitär spielt oder ein Foto von ihnen aufnimmt. Wer 
WhatsApp installiert, gibt damit nicht nur die eigenen Daten an die Firma Facebook 
weiter, sondern erlaubt dem Datengiganten auch Zugriff auf das Adressbuch zu nehmen. 
Die Daten darin sind jedoch Daten anderer Menschen (meist inklusive Foto, 
Geburtsdatum, Postadresse usw.) und nicht die eigenen, über die man auch selbst 
entscheiden dürfte. Aber wer hat schon alle Kontakte im Adressbuch um Erlaubnis 
gefragt, ehe er WhatsApp installiert? Damit mir jemand eine verschlüsselte E-Mail 
schicken kann, muss ich dies erst eingerichtet haben und die notwendigen Informationen 
(meinen „öffentlichen Key“) kommunizieren. Wenn ich die AGB von Facebook nicht 
akzeptieren will, komme ich nicht an Informationen, die ausschließlich dort abgelegt 
 
Digitale Mündigkeit im Spannungsfeld zwischen ich und wir 183 
wurden. Es geht – kurz gesagt – darum, sich die Frage zu stellen, ob man möglicherweise 
jemand anderen mit einer Handlung Schaden zufügt, ihn unter Druck setzt oder ausgrenzt. 
Digitale Mündigkeit ist ein Haltungsanspruch. Haltung ist eine dauerhafte Angelegenheit. 
Deshalb ist es auch viel „bequem[er] unmündig zu sein“ (Kant 1967, S. 55). Und genau 
deshalb ist es vor allem eine individuelle Aufgabe, dieser Bequemlichkeit nicht 
nachzugeben. 
 
Literatur 
 
Kant, Immanuel (1967): Beantwortung der Frage: Was ist Aufklärung? In: Zehbe, Jürgen 
(Hrsg.): Was ist Aufklärung? Aufsätze zur Geschichte und Philosophie. Göttingen: 
Vandenhoeck & Ruprecht, S. 55-61. 
Kling, Marc-Uwe (2017): Qualityland. Berlin: Ullstein. 
Lessig, Lawrence (2006): Code – And Other Laws of Cyberspace, Version 2.0. New York: 
Basic Books. 
Simon, Leena (2020): Kontrollverlust und digitale Entmündigung. In: Wenn KI, dann 
feministisch. Hg Netzforma e.V.  Berlin 2020 
Zuboff, Shoshana (2018): Das Zeitalter des Überwachungskapitalismus. Frankfurt/New York: 
Campus Verlag. 
 
Weiterführende Literatur 
 
Beck, Roman & Greger, Vanessa & Hoffmann, Christian & König, Wolfgang & Krcmar, 
Helmut & Weber, Jasmin & Wunderlich, Nico & Zepic, Robert (2018): Digitale 
Mündigkeit – Eine Analyse der Fäigkeiten der Bürger in Deutschland zum konstruktiven 
und souveränen Umgang mit digitalen Räumen. NEGZ e.V. 
Hoffmann, Christian & Weber, Jasmin & Zepic Robert & Greger, Vanessa & Krcmar, Helmut 
(2019): Dimensionen digitaler Mündigkeit und politische Beteiligung im Netz. In: I. 
Engelmann, M. Legrand & H. Marzinkowski (Hg). Politische Partizipation im 
Medienwandel (S.79-99). Berlin https://doi.org/10.17174/dcr.v6.4 
Petsche, Hans-Joachim & Simon, Leena (2014): „Der ganze Strudel strebt nach oben; Du 
glaubst zu schieben, und du wirst geschoben.“ (Goethe, Faust I). – Technikpaternalismus 
und Digitale Mündigkeit. In: Banse, Gerhard & Rothkegel, Annely (Hrsg.): Neue Medien – 
Hoffnungen, Befürchtungen, Realitäten. Berlin: trafo Wissenschaftsverlag, S. 71-83. 
Simon, Leena (2020): „Digitale Mündigkeit – Eigenverantwortlich im 21. Jahrhundert. Eine 
Handreichung. Bielefeld: Art d‘Ameublement. 
 
184  Leena Simon 
Spiekermann, Sarah (2019): Digitale Ethik. Ein Wertesystem für das 21. Jahrhundert. 
München: Droemer Verlag. 
 
 
 
 
Kurzbiografien der Autorinnen und Autoren 
 
Marian Adolf, Prof. Dr., ist Kommunikationswissenschaftler und Mediensoziologe und wid-
met sich in seiner Arbeit den Auswirkungen der Mediatisierung auf die zeitgenössische Gesell-
schaft. Zuletzt hatte er den Lehrstuhl für Medienkultur an der Universität Friedrichshafen inne.  
Martina Bachor, BA, ist studentische Mitarbeiterin und organisiert das Projekt Medientag 
sowie die gekoppelte Ringvorlesung mit Übung. Sie ist seit März 2020 am Institut für Medien, 
Gesellschaft und Kommunikation beschäftigt und Teil des Forums Innsbruck Media Studies. 
Sie studiert Erziehungs- und Bildungswissenschaften im Master an der Universität Innsbruck.  
Valentin Dander, Prof. Dr., ist Erziehungswissenschaftler und Professor für Medienbildung 
und pädagogische Medienarbeit an der Fachhochschule Clara Hoffbauer Potsdam. Seine For-
schungsinteressen liegen im Feld medienpädagogischer Bildungs- und Wissenschaftstheorie, 
mit Schwerpunktsetzungen auf Politischer Medienbildung, digitalen Daten, Medien*Kritik und  
Open Education. 
Theo Hug, Dr. phil., Professor für Erziehungswissenschaft mit Schwerpunkt Medienpädagogik 
und Kommunikationskultur, Leiter des Instituts für Medien, Gesellschaft und Kommunikation 
und Sprecher des interfakultären Forums Innsbruck Media Studies an der Universität Inns-
bruck.  
Oliver Leistert, Dr., Leuphana Universität Lüneburg; Arbeitsschwerpunkte: Digitale Kulturen, 
Überwachung und Protest, Affekte und Algorithmen, Blockchains und programmierbares 
Geld, Technologien der Kontrolle. 
Silvia Lipp, BSc MSc, ist wissenschaftliche Mitarbeiterin im Rahmen des Projektes Learning 
Analytics am Institut für Wirtschaftspädagogik an der Karl-Franzens-Universität Graz und hat 
auch ihr Dissertationsvorhaben im Bereich Learning Analytics verankert. 
Tilmann D. Märk, Univ.-Prof. Dr. Dr. hc.mult., Rektor der Universität Innsbruck. 
Anna-Maria Neuschäfer, Mag., ist Lehrerin für Bildnerische Erziehung am Gymnasium Kuf-
stein. Sie schreibt eine Dissertation zum Thema Augmented Reality im Kunstunterricht bei 
Franz Billmayer (Mozarteum Salzburg) und zieht unter anderem kommunikationswissenschaft-
liche Positionen heran. 
Günther Pallaver, Dr. jur., Dr. phil., em. Professor für Politikwissenschaft am Institut für 
Medien, Gesellschaft und Kommunikation sowie am Institut für Politikwissenschaft der Uni-
versität Innsbruck. Derzeit Senior Researcher am Institut für vergleichende Föderalismusfor-
schung/Eurac Research in Bozen.  
186  Kurzbiografien der Autorinnen und Autoren 
Hermann Petz, Mag., Jahrgang 1961, ist seit 2003 Vorstandsvorsitzender des Tiroler Medien-
hauses Moser Holding AG sowie  Mitglied des Vorstandes und des Präsidiums des Verbands 
Österreichischer Zeitungen (VÖZ), Vorstandsvorsitzender der Austria Presse Agentur (APA) 
und Österreich-Delegierter der ENPA (European Newspaper Publishers Association). 
Clemens Pig, Dr., ist Vorsitzender der Geschäftsführung und geschäftsführender Vorstand der 
APA – Austria Presse Agentur Unternehmensgruppe (Wien) und Vize-Präsident des Verwal-
tungsrates der Keystone-SDA-ATS AG (Bern) sowie Präsident der Vereinigung der unabhän-
gigen Nachrichtenagenturen Europas. 
Michaela Rizzolli, PhD, Freie Universität Berlin, SFB Affective Societies; Arbeitsschwer-
punkte: Forschungsdatenmanagement, Datenbegriff, Wissenschaftliches Arbeiten im Digitalen.  
Hans-Martin Schönherr-Mann, Professor für politische Philosophie an der Universität Mün-
chen; Arbeitsschwerpunkte: Ethik, Philosophie der Technik, Medien und Bildung. Existentia-
lismus, Poststrukturalismus.  
Leena Simon, MA, ist graduierte Philosophin, IT-Beraterin und Netzpolitologin und beschäf-
tigt sich mit digitaler Mündigkeit und Technikpaternalismus. Sie arbeitet u.a. für das Anti-
Stalking-Projekt im Frieda Frauenzentrum in Berlin und für Digitalcourage e.V. 
Tobias Stadler, MA, studierte Theater-, Film- und Medienwissenschaft an der Universität 
Wien. Er promoviert derzeit an der Universität Oldenburg und arbeitet zu digitalem Kapitalis-
mus, patriarchaler Informatik und alternativen Konzeptionen von digitaler Sozialität. 
Nico Stehr, Prof. PhD, forscht und lehrt an zahlreichen in- und ausländischen Universitäten, 
zuletzt als Karl Mannheim-Professor für Kulturwissenschaften an der Zeppelin Universität 
(Friedrichshafen). Seine Arbeitsschwerpunkte sind u.a. die Theorie der Wissensgesellschaft, 
der Zusammenhang von Gesellschaft und Klima und die Moralisierung der Märkte. 
Elsa-Margareta Venzmer, MA, Wissenschaftliche Mitarbeiterin am Institut für Medien-
wissenschaft, Philipps-Universität Marburg; Forschungsinteressen: Digital Humanities, Audio-
visuelle Medien, Film- und Fernsehwissenschaft, Feministische Theorie, Comics und Surveil-
lance Studies. 
Andre Wolf, Mimikama – Verein zur Aufklärung über Internetmissbrauch; Nach Theologie-
studium und einigen Jahren Berufserfahrung als Verantwortlicher für Medien und Kommuni-
kation ist nun die Analyse von Internetinhalten, speziell von Social Media, Wolfs Fachgebiet. 
Andre Wolf ist zudem beim Verein Mimikama als Blogger, Autor und Content- und Social 
Media Koordinator tätig. 
In der Interaktion mit digitalen Systemen produzieren wir täglich eine Vielzahl 
an Daten, die beispielweise für wirtschaftliche, aber auch für politische Zwecke 
 genutzt werden können. Während demokratische Systeme in Europa Wege suchen, 
wie mit diesen persönlichen Spuren möglichst sicher, anonym und effektiv umge-
gangen werden kann, zeigt sich nicht nur am Beispiel China, dass Daten auch zur 
politischen und gesellschaftlichen Kontrolle eingesetzt werden können. 
Dieser Sammelband beinhaltet Beiträge zu aktuellen Fragen nach Chancen und 
 Gefahren der politischen Nutzung von Daten, des  Data driven Campaigning,  der 
„Naturalisierung“ personenbezogener Datenproduktion und der Demokratisierung 
der digitalen Kontrolle, des Datenaktivismus und Digital Citizenship sowie der digita-
len Mündigkeit und der verantwortungsvollen Nutzung von Bildungsdaten.