. Gemäß der Spezifikation von HTML (Version 4.01) soll dieses Element der
inhaltlichen Gliederung von Dokumenten dienen (vgl. W3C 1999: Abschnitt 7.5.4). In
der Praxis werden
-Elemente jedoch häufig aus rein gestalterischen Gründen
eingesetzt. Hieran wird deutlich, dass die Separierung von Inhalt und Form ein Ideal
ist, welches wahrscheinlich nie vollständig erreicht wird.
18 | Vom Content Management und vom Consumption Management unterscheidet
Liu zudem das Transmission Management; siehe hierzu Liu (2008: 214).
Phänomeno-Logik 293
Datenbanken speichern und verwalten. Die Datenbank als latente Infrastruktur geht
jedoch über die auf Stylesheets und Markup basierende Trennung von Inhalt und
Form hinaus. Mit der Verbreitung von datenbankbasierten Content Management
Systemen (CMS) seit Anfang der 2000er Jahre setzte sich das Template-Paradigma
beim Entwurf von Webseiten durch. Dabei kann durch die Speicherung von Web-
seiteninformationen in Datenbanken (und nicht in HTML-Dat eien) nicht nur
das Aussehen von Dokumenten (typographische Gestaltung und Anordnung der
Inhalts elemente) manipuliert werden, sondern auch, welche Inhalte erscheinen
sollen.19 Die an einen Nutzer gesandte Webseite (HTML-Dokument) wird beim
Aufruf der URL dynamisch vom CMS erzeugt. Hierin besteht – vereinfacht ausge-
drückt – die entscheidende Neuerung von CMS. Der Content der Webseite wird in
einer Datenbank gespeichert, aus der diese Inhalte gemäß einer Vorlage – dem Tem-
plate – ausgelesen und in von Browsern interpretierbare, d.h. darstellbare, HTML-
Dateien übersetzt werden. Das Template spezifiziert einerseits, wie bestimmte
Informationen (Überschriften, Fließtext, Hyperlinks etc.) dargestellt werden sollen.
Anderseits wird im Template festgelegt, welche Informationen (Tupel, Attribute
etc.) aus der Datenbank ausgelesen und wie diese Informationen auf der Webseite
arrangiert werden sollen.20 Darüber hinaus wird durch CMS die Personalisierung
von Webangeboten ermöglicht, indem externe Variablen, wie z.B. der Ort des Web-
seitenaufrufs oder das Nutzungsverhalten, in die Auswahl der Datenbankinhalte
einbezogen werden.21 Die Datenbank erscheint dabei aus Sicht der Endnutzer nicht
als selektierbarer Informationsbestand, sondern bleibt weitgehend verborgen.
Sie zeigt sich nur mittelbar, wenn beispielsweise unterschiedliche Zugriffsformen
(Nutzer, Geräte, geographische Regionen) auf dasselbe Webangebot verglichen
werden.
Auf der funktionalen Ebene zeigt sich die Datenbank als latente Infrastruktur
in der Flexibilität des Umgangs mit Informationen, die neue Ausdrucks- und
Gestaltungsmöglichkeiten eröffnet. Ein Beispiel hierfür sind Formen datenbank-
basierter Erzählungen. Hierzu zählt unter anderen das bereits erwähnte Film-
projekt Soft Cinema von Lev Manovich und Andreas Kratky (2005).22 Bei diesem
medienkünstlerischen Experiment mit neuen Formen des Filmschaffens wird die
zeitliche (Reihenfolge) und räumliche (Platzierung im Split-Screen) Anordnung
19 | Derartige Selektionsmöglichkeiten sind der Markupsprache XML nicht imma-
nent. Der selektive Zugriff auf XML-Dokumente wird durch an XML angelehnte Ab-
fragesprachen wie z.B. XPath oder XQuery ermöglicht.
20 | Hierzu zählt unter anderem auch die dynamische Erzeugung von Navigations-
menüs, die sich bei Änderungen in der Webseitenstruktur automatisch auf allen
betroffenen Seiten aktualisieren. Dies vereinfacht die (Weiter-)Entwicklung und
Pflege von umfangreichen Webangeboten enorm.
21 | Auf die möglichen Nachteile der Personalisierung hat Eli Pariser (2011) hinge-
wiesen, S. 266ff.
22 | Siehe hierzu S. 143f.
294 Digitale Datenbanken
von Filmsequenzen automatisch von einer Software geleistet. Als Grundlage dieser
Filme dient eine Datenbank, in der die einzelnen Filmsequenzen, angereichert
mit Metadaten, gespeichert sind. Durch die Anpassung der Software bzw. der
Parameter, mit der die Software Sequenzen selektiert und arrangiert, kann aus der
Datenbank eine Vielzahl von unterschiedlichen Filmen erzeugt werden. Diese Form
der Autorschaft charakterisiert Liu als parametrisierend (vgl. Liu 2008: 216f.).23 Ein
weiteres Beispiel ist die softwaregestützte Generierung von Berichten auf Grund-
lage von strukturierten Datenbeständen, wie sie die Firma Narrative Science entwi-
ckelt hat.24 Zum Einsatz kam diese Technologie zuerst im Bereich der Sportbericht-
erstattung. Aus erhobenen Daten über den Spielverlauf werden mithilfe komplexer
Artificial Intelligence-Anwendungen automatisch journalistische Berichte generiert,
die stilistisch zwar wenig elegant sind, über den Verlauf des Spiels jedoch korrekt
informieren, wie Mercedes Bunz anmerkt (vgl. 2012: 13). Mittlerweile wird diese
Technologie eingesetzt, um Daten aus den Bereichen Finanzen, Marketing und
Werbung in Texte zu transformieren: Dem Leser wird nicht die Datenbank präsen-
tiert, sondern ein Text, in dem die von Programmierern als bedeutsam eingestuften
Inhalte der Datenbank zusammenfasst sind.
Diese algorithmischen Verfahren der Übersetzung von Datenbankinformationen
in Texte oder Filme mit ihrer parametrisierenden Form der Autorschaft können in
Anlehnung an Bernhard Rieder, der den Begriff wiederum von Paul Virilio entlehnt,
als Sehmaschinen begriffen werden: »They are vision machines that not only extend
our perception into the masses of information that would normally be far beyond
human scope, but that also interpret the environment they render visible« (Rieder
2005: 29).25 Bei den genannten Beispielen bleibt jedoch nicht nur die Datenbank,
23 | Liu spricht in diesem Zusammenhang von data pours, die automatisch mit
Datenbankinformationen gefüllt werden: »data pours [...] are places on a page –
whether a Web page or a word-processing page connected live to an institutional
database or XML repository – where an author in effect surrenders the act of
writing to that of parameterization. In these topoi, the author designates a zone,
where content of unknown quantity and quality – except as parameterized in such
commands as ›twenty items at a time‹ or ›only items containing sick rose‹ – pours into
the manifest work from databases or XML sources hidden in the deep background«
(vgl. Liu 2008: 216f.).
24 | Siehe hierzu die Webseite der Firma Narrative Science, www.narrativescien
ce.com/ (zuletzt aufgerufen am 10.06.2013), sowie die Webseite des Projekts
Stats Monkey an der Northwestern University, aus dem die Firma hervorgegangen
ist, infolab.northwestern.edu/projects/stats-monkey/ (zuletzt aufgerufen am
10.06.2013).
25 | Rieder wendet das Konzept von Virilio auf Suchmaschinen an (vgl. Rieder 2005).
Jedoch können auch algorithmische Verfahren der Übersetzung zwischen der Tiefe
der Datenbank und verschiedenen Benutzeroberflächen als vision machines in dem
genannten Sinn verstanden werden.
Phänomeno-Logik 295
sondern auch das Verfahren der Sichtbarmachung unsichtbar. Gerade hierin besteht
eine Gefahr, da der Endnutzer auf eine vordefinierte Perspektive festgelegt wird,
ohne diese ändern zu können. Die Möglichkeit alternativer Narrative und konkur-
rierender Interpretationen wird durch die algorithmische Übersetzung unterlaufen,
sofern man als Nutzer keinen Einfluss auf die Parameter der algorithmischen Über-
setzung erhält. Entscheidend ist dementsprechend weniger, dass Datenbankinhalte
anhand bestimmter Parameter selektiert und arrangiert werden, sondern wer auf
welcher Ebene über diese Parameter entscheidet. Verlagert man diese Entscheidung
auf die den Endnutzern zugewandten Benutzeroberflächen, dann tritt die Daten-
bank als Datenbank in Erscheinung, d.h. als Horizont der Selektion, Kombination
und Interpretation von Informationen.
Die Operationsweise der Datenbank als latente Infrastruktur wurde bislang auf
zwei Ebenen diskutiert: dem Aufkommen des Template-Paradigmas im Webdesign
und in Bezug auf algorithmische Verfahren der Übersetzung von Datenbank-
inhalten in Texte oder Filme. Auf einer dritten Ebene ermöglichen Datenbanktech-
nologien aggregierende Verfahren der Zusammenführung, Auswertung und Prä-
sentation von Inhalten aus verschiedenen Quellen in eigenständigen Webangeboten.
Ein Beispiel hierfür sind die sogenannten Social Media Dashboards (z.B. HootSuite,
Sprout Social, Netvibes), die eine einheitliche Schnittstelle zu vielfältigen Web
2.0-Services wie z.B. sozialen Netzwerken (z.B. Facebook, Google+, LinkedIn),
Kommunikationsplattformen (z.B. Twitter), Blogs und anderen Web-Services
(Flickr, YouTube, Foursquare) bieten. Als Metapher einer Kontroll- und Steuerungs-
einheit erlaubt ein Social Media-Dashboard die Beobachtung und Auswertung von
Nachrichtenflüssen sowie die Publikation von Nachrichten auf verteilten Platt-
formen. Ein solches Dashboard ist ein Metaservice, »that curates our digital lives
and adds value above the level of a single site« (Battelle 2011).26
Voraussetzung hierfür ist die autonome Mobilität von Informationen in digitalen
Netzwerken, die durch Programmierschnittstellen (APIs) zu den Datenbanken der
einzelnen Anbieter gewährleistet wird. Durch die Bereitstellung von APIs erlauben
Plattformen wie Facebook, Twitter etc. externen Entwicklern den Zugriff auf eigene
Dienste und Informationsbestände, um auf dieser Grundlage Drittanbieter-An-
wendungen zu erstellen. Vermittels APIs können Statusupdates, Tweets, Kom-
mentare, Bilder etc. als Informationen aus unterschiedlichen Datenbanken aus-
gelesen bzw. darin abgelegt werden. Infolgedessen wird es möglich, mit denselben
Informationen in verschiedenen Kontexten auf unterschiedliche Weise umzugehen.
Hierdurch mag für die Nutzer der Eindruck der unbedingten Mobilität, Verarbeit-
barkeit und Rekontextualisierbarkeit digitaler Informationen im WWW entstehen,
doch diese Möglichkeit ist stets prekär. Denn durch technische oder juristische
26 | Als Beispiel eines Metaservices nennt Battelle die mittlerweile eingestellte
Webseite Memolane, welche ihren Nutzern ermöglichte, ihre Aktivitäten auf ver-
schiedenen Social-Media-Plattformen zu aggregieren und in einem Zeitstrahl zu
visualisieren (vgl. Battelle 2011).
296 Digitale Datenbanken
Einschränkungen einer API können die Möglichkeiten des externen Zugriffs auf
Datenbestände jederzeit limitiert oder unterbunden werden.27
orientierung iM vielen i: Das eine FinDen
Fungiert die Datenbank als latente Infrastruktur, die aus der unsichtbaren Tiefe
des Computers heraus die Weisen des Umgangs mit digitalen Informationen an der
Oberfläche bedingt, dann bleibt diese als Informationssammlung für die Nutzer
zumeist verborgen. In der medialen Praxis können Datenbanken jedoch auch als
Datenbanken in Erscheinung treten, d.h. als Sammlungen von Informationen, die
unsichtbar für die Augen der Nutzer in der Tiefe digitaler Speicher ruhen. Es handelt
sich um ein Potenzial, das aktualisiert werden muss, indem Informationen in der
Datenbank selektiert und an der Oberfläche zur Erscheinung gebracht werden. Die
gespeicherten Informationen erscheinen hierbei als ein Bestand, auf den durch die
Auswahl von Informationseinheiten zugegriffen und der algorithmisch ausgewertet
werden kann.
Im Folgenden soll zunächst das Finden des Einen im Vielen in den Mittelpunkt
gerückt werden, welches sowohl eine mediale Praxis als auch eine medienpraktische
Herausforderung darstellt. Datenbanken fungieren dabei als Metamedien für das
close reading medialer Konstellationen oder allgemeiner für close practices28 mit me-
dialen Konstellationen, die im Kontext der Datenbank als Informationseinheiten
adressiert und selektiert werden können, d.h. von Webseiten, Bildern, Musikstü-
cken, Videos, Personen, Profilen, Telefonbucheinträgen, Rezepten, Büchern, Pro-
dukten, Medikamenten, wissenschaftlichen Aufsätzen, bibliographischen Ein-
trägen, Lexikonartikeln etc.29 Bei der Suche nach dem Einen ist demzufolge nicht
der gesamte Datenbankinhalt von Interesse, sondern einzelne in der Datenbank
versammelte Elemente, an die sich unterschiedliche mediale Praktiken anschließen
können, wie z.B. die (wissenschaftliche) Lektüre, die Kommunikation in sozialen
Netzwerken durch Nachrichten, Kommentare u.ä., aber auch Kontroll- und Über-
wachungspraktiken.
Die Übergänge vom Vielen zum Einen sind genauer zu beschreiben. Zwei
Fragen sind hierbei leitend: Erstens geht es darum, wie die in der Datenbank
27 | Ein Beispiel hierfür sind die zum Teil heftig kritisierten Änderungen, die Twitter
an seiner API 2012 vorgenommen hat (vgl. Sippey 2012; Arment 2012; Caracciolo
2012).
28 | Der vorgeschlagene Begriff der close practices umfasst nicht nur die Lektüre oder
Interpretation von medialen Konstellationen, sondern alle Formen des Umgangs mit
und der Handhabung von medialen Konstellationen, wie z.B. das Bearbeiten, Teilen,
Annotieren, Kommentieren etc.
29 | Die Bezeichnung Metamedium verweist hier auf eine spezifische Gebrauchsweise
der medialen Konfiguration digitale Datenbank.
Phänomeno-Logik 297
ruhenden Informationspotenziale an der Oberfläche aktualisiert werden, d.h. auf
welche Weise »Informationsgewinnung organisiert wird« (Lovink 2009: 54). Zwei-
tens ist danach zu fragen, wie die Informationspotenziale der Datenbank in ihrer
Potenzialität an der Oberfläche zur Erscheinung kommen. Der Fokus liegt auf der
Inszenierung der Datenbank als einem virtuell unerschöpflichen Informations-
reservoir. Bereits 1998 hat Stephan Porombka auf diesen Aspekt von Datenbank-
schnittstellen hingewiesen. Er unterscheidet zwei Extrempole der Inszenierung
dessen, »was als das Ganze auf Festplatten gespeichert« (Porombka 1998: 324)
vorliegt: die Flugperspektive einerseits und die Froschperspektive andererseits. In
Visualisierungen, wie z.B. Tree Maps, Netzwerken o.ä., könne die Komplexität des
Ganzen in einer Überblicksdarstellung gezeigt werden, welche analog zu Bildern
in der Flug- oder Vogelperspektive einen Blick von oben auf die Gesamtheit der
Datenbank eröffnet. Was sich von dort zeigt, lässt sich Porombka zufolge jedoch
»nur noch als komplexe Figur wahrnehmen, die für ihre eigene Komplexität ein-
steht« (Porombka 1998: 325). Auf der anderen Seite des Inszenierungsspektrums
liege die »Froschperspektive ins Ganze« (Porombka 1998: 325), welche Porombka
am Beispiel eines Knotens im Hypertext beschreibt.30 Auf der Bildschirmoberfläche
werde nur ein Informationsbruchstück präsentiert, das durch Anklicken von Links
»durch weitere verbundene Informationsbruchstücke ersetzt werden« (Porombka
1998: 325) könne. Die Gesamtheit der potenziell zugänglichen Informationen bleibt
zwar unsichtbar, doch werde das Potenzial der Datenbank erfahrbar. In Anbetracht
der Verborgenheit des Vielen hinter dem Einen tritt das Ganze, wie Porombka
darlegt, als Imaginäres zum Vorschein. Symptomatisch sei, »daß die Nutzer solcher
Dat enbanken immer sehr viel größere Datenmengen hinter der aufgerufenen
Information vermuten, als tatsächlich abgespeichert sind« (Porombka 1998: 325).
30 | Implizit orientiert sich Porombkas medientheoretische Betrachtung von Daten-
banken am Modell des Hypertexts. Diese Engführung wird vom Autor weder erläutert
noch begründet. Doch tatsächlich lässt sich die hypertextuelle Struktur des WWW
als eine Datenbank im nicht-technischen Sinn verstehen. Es ist ein Reservoir von
Dokumenten (und von den in diesen enthaltenen Informationen), auf die mittels URLs
zugegriffen werden kann. In der Tiefe der Computer ist das WWW global verteilt. An
der Oberfläche jedoch ist es lokal, da alle Nutzer überall auf sämtliche Dokumente
zugreifen können, sofern keine artifiziellen technischen Barrieren (Passwortschutz,
Zensur, GeoIP-Sperren) sie daran hindern. Zwischen der globalen Tiefe der Speicher
und den lokalen Benutzeroberflächen vermitteln Kommunikationsprotokolle (TCP/IP,
HTTP, FTP usw.), denen jeweils ein Adresssystem (IPv4, IPv6, URL usw.) eingeschrie-
ben ist, welches das Auffinden des Orts von Dokumenten im weltweit verteilten
Speicherraum der Internetserver ermöglicht. Die Adressordnung des WWW ist ge-
genüber den Inhalten, die durch Aufruf einer Webadresse gefunden werden können,
indif ferent. Infolgedessen stellt die Orientierung im Web ein grundlegendes Problem
dar.
298 Digitale Datenbanken
Query: Anfragen an Datenbanken
Zentral für die Suche nach dem Einen im Vielen der Datenbank sind heute weder
Überblick verschaffende Informationsvisualisierungen, noch das Mäandern durch
hypertextuelle Netzwerke. Vielmehr ist die Suchanfrage (Query) der dominante
Modus des Suchens und Findens in Datenbanken oder mittels Datenbanken, wie
z. B. in Bibliothekskatalogen, Websuchmaschinen etc. Charakteristisch für diese
Form der Orientierung in einer Informationssammlung ist nicht die Navigation
durch einen Informationsraum, sondern die Formulierung von Suchbedingungen
in einem Eingabefeld. Diese werden nach bestimmten Regeln automatisch mit dem
Informationsbestand der Datenbank abgeglichen und in Ergebnisse übersetzt, die
wiederum den Anfragekriterien entsprechen (vgl. Abb. 20). Die Query ist heute ein
alltäglicher und normaler Bestandteil des Umgangs mit digitalen Medien.31 Ihre
zentrale Stellung in der zeitgenössischen Medienkultur ist eng mit der rasanten
Expansion des WWW und der damit einhergehenden Entwicklung von Websuch-
maschinen verknüpft, die ein wichtiges Hilfsmittel sind, um Informationen im Web
zu finden. Den entscheidenden Einschnitt stellte in diesem Kontext die Markt-
einführung der Suchmaschine Google dar, deren technische Funktionslogik, wie
Röhle herausstellt, rasch zum Paradigma für Websuchmaschinen im Allgemeinen
geworden ist: »Googles Version der algorithmischen Volltextsuche dominiert zur-
zeit den Zugang zu Online-Informationen vollständig« (Röhle 2010: 22).32
Die Sonderstellung der Query wird auf paradigmatische Weise in der mini-
malistischen Gestaltung der Startseite von Google deutlich, die bis heute nahezu
31 | Der Studie Search Engine Use 2012 des Pew Internet & American Life Project
zufolge verwenden 91% der US-Amerikanischen Internetnutzer prinzipiell Web-
suchmaschinen. Davon geben 59% an, Suchmaschinen täglich zu nutzen (vgl.
Purcell et al. 2012: 5).
32 | Mit dem Erfolg der automatischen Indexierung von Webseiten durch die Google-
Suche geht der zunehmende Bedeutungsverlust von Webverzeichnissen einher,
die sich am Modell von Bibliothekskatalogen orientieren und eine redaktionelle
Erfassung und Kategorisierung von Webseiten betreiben (vgl. Van Couvering 2008:
182f.; Röhle 2010: 22f.). Das kommerziell erfolgreichste Webverzeichnis der
1990er Jahre war Yahoo!, das 1994 von Jerry Yang und David Filo zunächst unter
dem Namen Jerry and David´s Guide to the World Wide Web gegründet wurde. Bereits
1998 begann Yahoo!, die Ergebnisse der Suche im Webverzeichnis mit Ergebnissen
einer algorithmischen Suchmaschine zu ergänzen. Im Zuge dieser Entwicklung
ist die Suchanfrage zum primären und privilegierten Modus der Suche im Web
geworden, welche die Navigation durch die Kataloge der bis dahin dominanten
Webverzeichnisse verdrängt hat. Zwar ermöglichen auch diese Suchanfragen im
Katalog, doch aufgrund der Beschränktheit der Webverzeichnisse wurde bzw. wird
bei der Eingabe von Suchworten allzu häufig nichts oder nichts Relevantes gefunden.
Phänomeno-Logik 299
ausschließlich auf das Firmenlogo und das Suchformular reduziert ist.33 Da die
Webseite eigentlich keine Informationen enthält, werden die Nutzer dazu heraus-
gefordert, Suchbegriffe in das Formularfeld einzugeben und so anfragend auf Goo-
gles Webdatenbank zuzugreifen. Zudem wird hierdurch suggeriert, dass etwas
gefunden werden kann.
Abb. 20: Abstrakte Topologie einer Suchanfrage
Der von Websuchmaschinen vollzogene Übergang von der bibliothekarischen
Logik der Katalogisierung zur algorithmischen Logik der Indexierung ist jedoch
nicht zu generalisieren. Zwar haben sich Katalogisierungsverfahren als ungeeignet
erwiesen, um der Größe, Vielfalt und Dynamik des gesamten WWW gerecht zu
werden, in der digitalen Medienkultur kommt ihnen dennoch eine große Bedeutung
zu. Ein Indiz hierfür ist die Vielzahl an konventionellen und zumeist relationalen
Datenbanken, auf die durch das WWW zugegriffen werden kann (vgl. Madhavan
et al. 2008: 1241f.). Diese beruhen, wie im Kapitel »Data + Access« dargelegt, nicht
auf einer algorithmischen Zuschreibung von Bedeutung, sondern auf der Struk-
turierung von Informationen nach Vorgabe eines konzeptionellen Modells, welches
Informationspartikeln eine Bedeutung zuweist. Der Unterschied bleibt an der Ober-
fläche jedoch weithin unsichtbar. Das Suchformular stellt sowohl bei Datenbanken
im engen Sinn als auch bei Websuchmaschinen die primäre Form des Zugriffs dar.
Aufgrund dieser Gleichförmigkeit der Suche in Informationssammlungen besteht
an der Oberfläche zwischen Websuchmaschinen und Datenbanken im engen Sinn
33 | Ursprünglich war dieser Minimalismus keineswegs intendiert. Heute ist er je-
doch ein zentrales Gestaltungsprinzip der Benutzerschnittstelle von Google (vgl.
Röhle 2010: 154f.).
300 Digitale Datenbanken
kein prinzipieller Unterschied.34 Gesucht wird, indem Suchkriterien in ein Formular
eingegeben werden. Auf Grundlage dieser Kriterien werden aus dem Informations-
bestand der Datenbank automatisch Ergebnisse selektiert und an der Oberfläche
zur Darstellung gebracht. Insofern lassen sich an der Benutzerschnittstelle allenfalls
graduelle Unterschiede zwischen unterschiedlichen Anfragesystemen identifizie-
ren. Diese betreffen die Art, wie Suchanfragen formuliert werden, die Möglich-
keiten zur Spezifizierung von Anfragen sowie die Formen des Umgangs mit Sucher-
gebnissen.
Abb. 21: Standardsuchformulare von Bing, Google und der Deutschen
Nationalbibliothek
Quellen: www.bing.de, www.google.de, www.dnb.de
Häufig zeigen sich diese Differenzen jedoch erst in den erweiterten Suchfunktionen,
die nicht Teil des Default-Interface sind, wie der Vergleich der Suchformulare
von Google, Bing und der Deutschen Nationalbibliothek zeigt.35 Der Unterschied
zwischen der Funktionslogik von Websuchmaschinen und Bibliothekskatalogen
verschwindet hinter der Homogenität der Suchinterfaces. Dies erweist sich je-
doch mitunter als problematisch, z.B. wenn die verschiedenen Techno-Logiken
34 | In der Gleichförmigkeit der Suchinterfaces kann man im Anschluss an Winkler
eine Naturalisierungsstrategie erkennen, welche die Erfüllung des Wunsches sug-
geriert, »tatsächlich über eine neutrale und transparente Erschließungsmaschine zu
verfügen« (Winkler 1997b: 200).
35 | In diesem Zusammenhang hat Röhle darauf hingewiesen, dass es nicht allein
entscheidend ist, »welche Einstellungsmöglichkeiten und Informationen dem Nutzer
theoretisch zur Verfügung stehen, sondern [auch, M.B.] wie zugänglich diese sind«
(Röhle 2010: 155).
Phänomeno-Logik 301
unterschiedliche Interpretationen der gefundenen Ergebnisse erfordern. Um dies
zu verdeutlichen, kann ein Beispiel herangezogen werden, mit dem Hendry und
Efthimiadis (2008) aufzeigen, dass das Unwissen von Nutzern über die Funktions-
weise von Websuchmaschinen unter Umständen falsche Interpretationen der Such-
ergebnisse zur Folge haben kann: Ein Nutzer wollte sich mithilfe von Google der
Schreibweise des englischen Worts für »Kronleuchter« versichern und gab chanda-
leer ein. Dass die Anfrage weniger als einhundert Ergebnisse hatte, interpretierte
er fälschlicherweise als Bestätigung für die korrekte Schreibweise. Wie die Autoren
berichten, hätte die Suche nach chandelier in der richtigen Schreibweise jedoch
nahezu eine Million Ergebnisse zutage gefördert (vgl. Hendry/Efthimiadis 2008:
282).36 Dass Google Ergebnisse zu einer Suchanfrage liefert, ist demzufolge nicht
allein schon ein Indikator dafür, dass man den Suchbegriff richtig geschrieben hat.
Hingegen wäre die Interpretation des Nutzers bei einer ähnlich gelagerten Such-
anfrage an eine Katalogdatenbank nicht abwegig, da falsch buchstabierte Anfragen
hier zumeist keine Ergebnisse haben.
Am Beispiel von Hendry und Efthimiadis wird deutlich, dass die richtige Inter-
pretation von Suchergebnissen ein Wissen von der genutzten Suchtechnologie
voraussetzt. Hierzu zählt unter anderem auch ein Verständnis davon, welche
Ressourcen mit einem Anfragesystem durchsucht werden, d.h. von der Reichweite
des Informationsbestands.37 Daher ist es nicht nur problematisch, wenn Nutzer
ein ungenügendes Wissen davon haben, wie Websuchmaschinen funktionieren,
sondern auch, wenn sie meinen, dass die hinter den Suchformularen ablaufenden
36 | Mittlerweile verfügt Google über eine Rechtschreibprüfung, die in der Ergeb-
nisliste einen Suchvorschlag zur Suche nach dem Wort in der korrekten Schreibweise
anzeigt (»Meinten Sie: ...«). Infolgedessen ist es heute unwahr scheinlicher, dass ein
Nutzer noch immer zu dem von Hendry und Efthimiadis beschriebenen Fehlschluss
gelangt. Mit dieser technischen Erweiterung wurde das von den Autoren beschriebene
Problem jedoch keineswegs gelöst, sondern verschoben: Wer heute nach etwas
relativ Seltenem sucht oder einen Suchbegriff verwendet, der einer populären
Anfrage sehr ähnlich ist, erhält von Google mitunter Vorschläge, die Suchanfrage zu
verändern. Dies suggeriert dem Nutzer, einen Fehler gemacht zu haben, was jedoch
nicht immer der Fall ist. Daher müssen die von Google unterbreiteten alternativen
Suchvorschläge stets hinterfragt werden. Hierfür bedarf es eines Wissens über
die Funktionsweise von Suchmaschinen, auf dessen Notwendigkeit Hendry und
Efthimiadis mit ihrem Beispiel hinweisen.
37 | Mit der Einführung der sogenannten Blended Search oder Universal Search
haben Websuchmaschinen spätestens seit 2007 damit begonnen, Ergebnisse
aus verschiedenen Informationsbeständen (Nachrichten, Bilder, Videos etc.) in die
normale Websuche zu integrieren (vgl. Quirmbach 2009). Hierdurch wird dem Nutzer
einer Websuchmaschine tendenziell verborgen, welche Informationsbestände die-
ser durchsucht und wie die Ergebnisse aus den verschiedenen Beständen in eine
Ergebnisdarstellung integriert werden.
302 Digitale Datenbanken
technischen Prozesse immer denselben oder zumindest ähnlichen Prinzipien
folgen.38 Ein Indiz hierfür ist der generalisierende und undifferenzierte Verweis auf
die Macht des Algorithmus, der einen beliebten Topos in aktuellen Debatten über die
digitale Medienkultur darstellt (vgl. Passig 2012). Anstatt die Vielfalt der algorith-
misch gesteuerten Informationsverarbeitungsprozesse im Computer differenziert
zu betrachten, wird der Algorithmus als »undurchschaubare, orakelhafte« (Röhle
2010: 14) Macht mystifiziert.39
Um die vermeintliche Allmacht von Algorithmen als Mythos zu entlarven und
die tatsächliche Macht von Algorithmen besser zu verstehen, gilt es auch die An-
nahmen zu betrachten, die in die Gestaltung und Funktion von Anfrage-Inter-
faces einfließen. Zwischen den Extrempolen streng formalisierter, für Nutzer
anforderungsreicher Anfragesprachen40 und natürlichsprachlicher Anfrage-Inter-
faces41 dominiert in der heutigen Medienpraxis die Suche mit lose aneinander-
gereihten Schlagworten. Abgesehen von der Angabe der Suchbegriffe müssen wei-
tere Suchkriterien dabei nicht mehr in einer formalen Anfragesprache expliziert
werden. Diese sind vielmehr als implizite Vorannahmen in das Anfrage-Interface
eingeschrieben. In der Standardsuche von Google werden Suchworte beispiels-
38 | Die Verdeckung der Unterschiede zwischen Suchtechnologien durch Such inter-
faces ist fraglos nicht die einzige Ursache für das genannte Problem. Zum Teil ist
dieses auch auf das Desinteresse vieler Nutzer gegenüber der Funktionsweise der
von ihnen verwendeten Technologien zurückzuführen.
39 | In den vergangenen Jahren wurde die Macht von Suchmaschinen in vielfältigen
Beiträgen diskutiert. Wie Röhle in seiner Rekonstruktion der in dieser Debatte ver-
tretenen Positionen herausarbeitet, wird in diesem Zusammenhang häufig das Bild
eines (utopischen oder dystopischen) Determinismus gezeichnet, in dem die Macht
der Algorithmen beschworen wird (vgl. Röhle 2010: 25ff.)
40 | Ein Beispiel hierfür sind die bibliographischen Information Retrieval-Systeme der
1970er und 1980er Jahre, die von ihren Nutzern zumeist die Kenntnis einer forma-
lisierten Anfragesprache erforderten, welche es ihnen vor allem durch die explizite
Verwendung boolescher Operatoren ermöglichte, komplexe Such bedingungen zu
formulieren, nach denen Informationen aus der Datenbank selektiert wurden (vgl.
Borgman 1996: 493ff.).
41 | Das Ziel natürlichsprachlicher Anfrage-Interfaces ist, dass sich die Nutzer
nicht den Anforderungen des Suchsystems anpassen müssen, sondern dass das
System an die Sprache der Nutzer angepasst ist. Die technische Erfüllung dieses
Versprechens wurde bereits 1996 von der Suchmaschine AskJeeves in Aussicht
gestellt (vgl. Krajewski 2009; 2010: 149ff.). In der medialen Praxis konnten sich
natürlichsprachliche Anfragesysteme bisher dennoch nicht durchsetzen. Heute fin-
den sich natürlichsprachliche Anfragesysteme vor allem bei faktenbezogenen Infor-
mationen. Die Wissensmaschine Wolfram Alpha (www.wolframalpha.com) kann bei-
spielsweise die Frage »What is the country with the fifth largest population?« richtig
interpretieren und die korrekte Antwort ›Brasilien‹ ausgeben.
Phänomeno-Logik 303
weise per Default-Einstellung mit dem booleschen Operator AND verknüpft, d.h.
es wird implizit davon ausgegangen, dass sich alle eingegebenen Suchworte in
den Ergebnissen finden sollen. Zudem kommen insbesondere bei Websuchma-
schinen algorithmische Verfahren der Interpretation von Suchanfragen zum Ein-
satz. Algorithmen, die auf Grundlage von erhobenen Nutzungsdaten entwickelt
wurden, kategorisieren Suchfragen z.B. nach Genre, Thema, Intention, Ziel, Spezi-
fität, Bandbreite, Autoritätsbezug sowie Orts- und Zeitbezug (vgl. Lewandowski
2011: 66f.).42 Bei dieser Form der Schlagwortsuche wird die explizite Angabe von
Suchbedingungen zunehmend in die implizite Gestaltung des Anfrage-Interface
und in die in der Tiefe unsichtbar ablaufenden Operationen des Suchsystems ver-
lagert. Hierbei bleibt die Anfragelogik im bzw. hinter dem Interface verborgen. Wie
Google und andere Websuchmaschinen Suchanfragen interpretieren ist für die
Nutzer nicht unmittelbar ersichtlich, weshalb im Anschluss an Röhle bei der Ana-
lyse von Such-Interfaces auch danach zu fragen ist, ob und wie die impliziten Vor-
einstellungen und Interpretationsprozesse an der Benutzeroberfläche transparent
gemacht werden (vgl. Röhle 2010: 156). Bisher lassen sich auf Seiten der Suchdienst-
anbieter jedoch kaum Bemühungen beobachten, die in diese Richtung weisen.43
Zugleich hat die Verlagerung der expliziten Angabe von Suchkriterien in die
implizite Gestaltung des Suchsystems zur Folge, dass die Einstiegshürde für
Anwender relativ gering gehalten wird. Auch wenn derartige Anfragesysteme
auf den inkompetenten Nutzer hin entworfen sind, verschwindet die Frage der
nutzerseitigen Kompetenz nicht. Es bedarf zwar keines besonderen Könnens, um
überhaupt etwas zu suchen, aber einer Kompetenz, um Suchanfragen zu stellen, mit
denen gezielt bestimmte Informationen gefunden werden. Diese Kompetenz besteht
nicht nur in der Wahl der Suchworte und erweiterter Suchoptionen, sondern auch
in der Wahl einer geeigneten Datenbank und in der richtigen Interpretation der
Suchergebnisse.
42 | Hierdurch wird, wie Lewandowski darlegt, die Zusammenstellung der soge-
nannten organischen Ergebnisse aus dem Webdatenbestand, die Integration von
Ergebnissen aus den anderen Informationsbeständen (Bilder, Videos, Nachrichten,
Bücher etc.), die Anfrageerweiterung, die Erzeugung von Suchvorschlägen sowie die
Auswahl der anzuzeigenden Werbung beeinflusst (vgl. Lewandowski 2011: 59f.).
43 | Ein Indiz hierfür ist, dass Röhle in seiner Analyse des Such-Interfaces von
Google keine Beispiele dafür anzugeben vermag. Wolfram Alpha (www.wolframalpha.
com) stellt in diesem Zusammenhang eine erwähnenswerte Ausnahme dar, da die
sogenannte Wissensmaschine die Interpretationen von Suchanfragen im Ergebnis-
Interface sichtbar macht. Hierdurch wird der Kontext offengelegt, für den die als
Ergebnis angezeigten Informationen zutreffend sind. Für mehrdeutige Anfragen
werden ggf. sogar verschiedene Interpretationsmöglichkeiten aufgeführt, aus denen
der Suchende auswählen kann.
304 Digitale Datenbanken
Stream: Treiben im Informationsfluss
Von der Query als anfragender Zugriffsform auf Datenbanken unterscheiden
Richardo Baeza-Yates und Berthier Riberio-Neto in Modern Information Retrieval
das Browsen als zweite grundlegende Form der Interaktion mit Datenbank-
informationen (vgl. 1999: 4). Der Nutzer wird beim Browsen nicht einem Such-
Interface gegenüber verortet, sondern in einem Informationsraum, in dem er sich
orientieren muss.44 Paradigmatisch hierfür ist das Durchstöbern einer weitver-
zweigten Webseite nach bestimmten Informationen. Der Nutzer erscheint als ein
navigierendes Subjekt, welches sich anhand von (hierarchischen) Menüstrukturen,
Breadcrumb-Navigationen,45 Sitemaps usw. orientieren kann. Mit dem Aufkommen
des Web 2.0 gewinnt neben der Query und dem Browsen der Stream zunehmend
an Bedeutung, um das Eine im Vielen zu finden. Der Stream, als eine an Aktualität
und Popularität orientierte Präsentationsform des Vielen, ermöglicht keine gezielte
themenspezifische Suche nach Informationen im WWW oder auf einer Webseite.
Im Vordergrund steht vielmehr das relativ ungezielte Entdecken von neuen, aktu-
ellen, populären und interessanten Ressourcen in bestimmten Themengebieten
auf Grundlage von nutzergenerierten Inhalten, abgegebenen Bewertungen sowie
anderen Nutzer- und Nutzungsinformationen. Eben dies machen sich Social-News-
Aggregatoren (z.B. Digg und Reddit) und Social-Discovery-Tools (z.B. StumbleUpon)
zur Aufgabe, welche auf der Logik des Streams beruhen. Aber auch der Newsstream
44 | Voraussetzung für das Browsen in einer Datenbank im engen Sinn von
DBMS ist die Übersetzung des Informationsreservoirs in eine an der Oberfläche
durchquerbare Form, wie z.B. eine Webseite. Die Inhalte der Datenbank werden
hierbei entlang bestimmter Kategorien gruppiert und in einer hierarchischen
oder polyhierarchischen Navigationsstruktur angeordnet, sodass die Nutzer die
Datenbank an der Benutzeroberfläche navigierend erkunden, durchstöbern und
filtern können. Die Übersetzung von Datenbankstrukturen in Webseiten findet sich
beispielsweise bei Online-Händlern wie Amazon, die auf diese Weise ihre Produkte
präsentieren. Gemeinhin werden zwei Verfahren der Übersetzung von Datenbanken
in Navigationsstrukturen unterschieden. Top-Down-Informationsarchitekturen geben
eine Struktur vor, in die Datenbankinformationen eingeordnet werden. Bei Bottom-
Up-Architekturen wird den Datenbankinformationen kein Platz in einer vordefinierten
Ordnung zugewiesen. Vielmehr wird ihre Ordnung automatisch aus den in der Daten-
bank gespeicherten Metainformationen abgeleitet. Morville und Rosenfeld weisen
darauf hin, dass der Bottom-Up-Ansatz gut funktioniert, wenn aus der Datenbank
relativ homogene Unterseiten generiert werden sollen, wie z.B. bei Produktkatalogen.
In anderen Kontexten erweist sich der Top-Down-Ansatz als produktiver. Deshalb
werden in der Praxis häufig beide Verfahren eingesetzt (vgl. Morville/Rosenfeld
2006: 64ff.).
45 | Breadcrumb-Navigationen zeigen Nutzern an, wo sie sich im Informationsraum
der Webseite befinden, z.B.: Hauptmenü/Untermenü_1/Untermenü_2/...
Phänomeno-Logik 305
von Facebook birgt das Potenzial, im permanenten Fluss von Statusupdates etwas
Neues zu entdecken.
Abb. 22: Orientierung mit Digg, Reddit und ähnlichen Social-News-Aggregatoren
Social-News-Aggregatoren präsentieren Verweise auf Ressourcen als allgemeine
oder thematische Listen, wobei aktuelle und populärere Beiträge weiter oben er-
scheinen als andere. Durch eine Positiv- oder Negativbewertung kann jeder Nutzer
die Popularität von Ressourcen steigern oder verringern und so die Rangfolge der
Verweise in der Liste beeinflussen.46 Beliebte Inhalte besetzen einen vorderen Platz
in der Liste und werden langsamer von aktuelleren Beiträgen verdrängt.47 Hier-
durch steigt die Wahrscheinlichkeit, dass populäre Beiträge zeitlich versetzt von
einer größeren Zahl anderer Nutzer zur Kenntnis genommen werden.48 Zudem wird
46 | Neben der binären Bewertung von Beiträgen können diese zumeist kommentiert
und diskutiert werden. Diese Kommentare können wiederum durch die Nutzer be-
wertet werden. Zudem bietet Digg den Nutzern die Möglichkeit, anderen Nutzer zu
folgen.
47 | Die Reihenfolge der Beiträge in der Liste wird algorithmisch berechnet, weshalb
der Verdacht nahe liegt, dass neben Aktualität und Beliebtheit andere Faktoren in
die Berechnung der Ordnung einfließen, die als redaktionelle Einflussnahme gewer-
tet werden können. Insbesondere gegenüber Digg ist diese Vermutung häufig geäu-
ßert worden, weil der Ranking-Algorithmus nicht öffentlich gemacht wird. Der Quell-
code von Reddit kann im Unterschied dazu im Internet frei eingesehen werden,
https://github.com/reddit/reddit (zuletzt aufgerufen am 23.09.2013).
48 | Dies führt ähnlich wie bei Websuchmaschinen zu dem Problem, dass einz elne
Nut zer versuchen, aus ökonomischen Interessen das Ranking gezielt zu manipu-
l ieren.
306 Digitale Datenbanken
es möglich, Trends und ihre Entwicklung zu beobachten, um relevante Themen im
WWW zu entdecken.49
Abb. 23: Orientierung mit StumbleUpon
StumbleUpon beruht auf einem anderen Entdeckungsmechanismus. Nicht die Be-
obachtung von Trendlisten steht im Vordergrund, sondern das Umherstolpern im
WWW ohne genaues Ziel, was vor allem durch Browsererweiterungen ermöglicht
wird, die StumbleUpon zur Verfügung stellt. Klickt man den Stumble!-Button des
Plug-Ins, wird man automatisch zu einer Webseite weitergeleitet, die in der Daten-
bank von StumbleUpon verzeichnet ist. Diese kann der Nutzer lesen und bewerten.
Aus diesen Bewertungen werden vor dem Hintergrund der Bewertungen anderer
Nutzer automatisch Vorschläge errechnet, die man bei den nächsten Klicks des
Stumble!-Buttons angezeigt bekommt.50 Der Nutzer stolpert durch das WWW,
wobei er – so das Kalkül – etwas finden kann, was für ihn von Interesse ist. Das
zufällige, orientierungslose und unproduktive Umherirren im WWW wird in ein
oberflächlich ebenso zufälliges, aber produktives Umherspringen übersetzt. Stum-
bleUpon operiert im Hintergrund als unsichtbarer Empfehlungsdienst, der den
Nutzer in einem linearen Stream von Vorschlägen situiert, dessen Ende nicht ab-
zusehen ist. Hierdurch inszeniert sich StumbleUpon als ein virtuell grenzenloses
Informationsreservoir. Daher ist die Erfahrung der Grenzen von StumbleUpon
umso überraschender, die sich in der Nachricht manifestieren, dass zeitweilig keine
weiteren Empfehlungen vorliegen.
49 | Die Möglichkeit, Trends identifizieren und beobachten zu können, ist nichts Spe-
zifisches von Social News-Aggregatoren. Der Mikrobloggingdienst Twitter erzeugt
beispielsweise aus den Tweets der Nutzer eine Liste von Trending Topics.
50 | Neben den von Nutzern erstellten Verweisen werden auch bezahlte Links in
StumbleUpon aufgenommen, die als Werbung in den Empfehlungsstream einge-
woben werden.
Phänomeno-Logik 307
Streams folgen ähnlich wie die im Kapitel »Direct Access« (S. 206ff.) dis-
kutierten Magnetbandspeicher einer linearen Zugriffs- und somit Präsentations-
logik. Verteilt gespeicherte Nachrichten, Bilder, Videos, Blogeinträge usw. werden in
einen linearen Informationsfluss gebracht, der das zufällige Entdecken des Einen im
Vielen erlaubt. In dieser Hinsicht stellen Streams funktional keine Alternative zur
Query als einem Modus der mehr oder weniger gezielten Suche nach Informationen
dar. Wenn sich jedoch Nutzer mehr und mehr in den Nachrichtenflüssen von
Facebook, Digg, Reddit, Tumblr usw. treiben lassen, drängt sich die Frage auf, wie
Informationen in Streams organisiert werden und wer oder was entscheidet, welche
Informationen wem gezeigt werden (vgl. Dash 2012). Diese Frage führt zurück zur
technischen Logik der algorithmischen Ordnung von Informationssammlungen,
wie sie im Kapitel »Data + Access« diskutiert wurde.
orientierung iM vielen ii: Das viele ausWerten
In einer Sammlung von Vielem das Eine gezielt zu finden oder zufällig zu ent-
decken ist nur eine mögliche Erscheinungsweise der Datenbank als Informations-
sammlung. Von der im vorangegangenen Abschnitt beschriebenen Form der
Orientierung im Vielen ist daher eine zweite Orientierungsform zu unterscheiden,
die nicht darauf abzielt, eine im Bestand der Datenbank vorhandene, d.h. materiell
verkörperte Information ausfindig zu machen. Der Informationsbestand der Daten-
bank kann auch als Basis für neue Informationen genommen werden. Die Daten-
bank dient in diesem Gebrauchskontext als Medium für das distant reading einer
Informationssammlung (Moretti 2000: 57). Durch die kreative Auswertung von
bekannten Informationen sollen noch unbekannte Einsichten geschöpft werden,
welche es potenziell erlauben, Terroranschläge vorauszusehen und vorzubeugen,
ökonomische Entwicklungen in Echtzeit nachzuvollziehen, den Ausbruch von
Krankheitsepidemien zeitnah zu erkennen, Verbrechen zu bekämpfen, Freunde
und Lebenspartner zu finden etc. Im Großen wie im Kleinen birgt die findige
Auswertung vorhandener Informationen die Möglichkeit, neue Informationen
zu erhalten. Insofern können digitale Datenbanken unter Umständen etwas
wissen lassen, was so noch nicht gewusst, was allenfalls latent und rein virtuell
als potentielle Information vorhanden war. Dies ist die Signatur des von Lyotard
beschriebenen postmodernen Spiels vollständiger Informationen, welches sich in
dieser Gebrauchsform von Informationssammlungen manifestiert.51
Bei der Auswertung des Vielen erscheint die Datenbank nicht als geschützte
Aufbewahrungsstätte von Bekanntem, sondern als Grundlage oder Basis für das
Entdecken von Unbekanntem. Diese Möglichkeit von bzw. Sichtweise auf Daten-
banken findet ihren Ausdruck in der Metapher der Basis, welche im englischen
Begriff Data Base enthalten ist. Die Überzeugung, dass aus der Auswertung von
51 | Siehe hierzu S. 183f.
308 Digitale Datenbanken
Informationssammlungen neue Einsichten gewonnen werden können, hat die me-
diale Praxis mit digitalen Datenbanken von Anfang an begleitet.52 Unter dem Ein-
druck der leichten Verfügbarkeit immer größerer Informationsbestände kommt
der Frage nach der Nutzbarmachung dieser Ressourcen durch analytische Auswer-
tungsverfahren in der jüngeren Vergangenheit eine stetig wachsende Bedeutung zu.
Bereits 1996 konstatierten Fayyad et al. einen Hype um das »knowledge discovery
in databases« (Fayyad et al. 1996: 37), der sowohl in der Wissenschaft als auch in der
Wirtschaft sowie der massenmedialen Berichterstattung zu beobachten sei. In der
Aufmerksamkeit, die dieser Frage jüngst vor allem unter dem Stichwort Big Data
zuteil wird, zeigt sich jedoch auch eine größer werdende Unzufriedenheit mit den
etablierten Weisen des Umgangs mit Datenbanken sowie mit den tradierten Metho-
den der Auswertung von Informationsbeständen, welche Geert Lovink auf den
Slogan gebracht hat: »Hört auf zu suchen. Fangt an zu fragen« (Lovink 2009: 63).
Im Folgenden soll zunächst der gegenwärtige Diskurs über die in Informations-
sammlungen ruhenden Wissenspotenziale beleuchtet werden. Daraufhin werden
anhand von zwei Beispielen die Möglichkeiten und Grenzen der Auswertung des
Vielen diskutiert. Der abschließende dritte Teil ist der Praxis und dem Diskurs der
Information Visualization gewidmet, welche verspricht, unsichtbar in den Daten
ruhende Zusammenhänge an der Oberfläche visuell erfahr- und erkundbar zu
machen.
Auf der Suche nach dem Mehrwert
Nicht das Suchen nach dem Einen im Vielen ist Lovink zufolge in der heutigen
Medienkultur entscheidend, sondern das Fragen danach, was aus dem Vielen
gelernt werden kann. In eine ähnliche Richtung weist der programmatische Text
»Against Search« von Manovich (2011), der die auf einzelne oder zumindest
wenige Untersuchungsobjekte hin ausgerichteten Methoden der Geistes- und Kul-
turwissenschaften kritisiert.53 Diese sind seines Erachtens nicht dazu geeignet, die
Menge der digital verfügbaren Kulturdaten auszuwerten, weshalb neue Methoden
52 | Exemplarisch kann hierfür die von Horst Herold seit Anfang der 1970er Jahre
vorangetriebene Computerisierung des Bundeskriminalamts angeführt werden, in
deren Zuge die Rasterfahndung als eine Fahndungsmethode entwickelt wurde, die
auf der Vernetzung und Auswertung von Informationsbeständen beruht (vgl. Gugerli
2006; 2009: 52ff.).
53 | Für Manovich stellt die Verfügbarkeit großer Informationsmengen eine Heraus-
forderung dar, die seines Erachtens nicht mit den tradierten Methoden der Geistes-
und Kulturwissenschaften gelöst werden kann: »The basic method of humanities
and media studies which worked fine when the number of media objects were small
– see all images or video, notice patterns, and interpret them – no longer works.
For example, how do you study 167,00 images on Art Now Flickr gallery, 236,000
professional design portfolios on coroflot.com (both numbers as of 7/2011), or
Phänomeno-Logik 309
und technische Verfahren für die Erforschung »der globalen digitalen Kulturen«
(Manovich 2009: 221) nötig sind. Manovich nennt dieses Forschungsparadigma
Cultural Analytics (vgl. Manovich 2009; Yamaoka et al. 2011). Im Kontext der Digital
Humanities, deren Ursprünge bis in die 1940er Jahre zurückreichen, zirkulieren
heute unterschiedliche Bezeichnungen für diese Art der Forschung. Von Michel et al.
(2011) wurde die alternative Bezeichnung Culturomics vorgeschlagen. Die Autoren
des 2011 in Science erschienenen Artikels definieren das hierdurch bezeichnete For-
schungsfeld folgendermaßen: »Culturomics is the application of high-throughput
data collection and analysis to the study of human culture« (Michel et al. 2011:
181). Im Mittelpunkt sollen quantitative Analysemethoden stehen, da diese nach
Ansicht der Autoren zu präzisen Ergebnissen führen können.54 Darüber hinaus
wird die Notwendigkeit des Einsatzes computergestützter Auswertungsverfahren
damit begründet, dass die verfügbaren Informationsmengen die menschlichen
Kapazitäten bei Weitem überschreiten: »The corpus cannot be read by a human«
(Michel et al. 2011: 176).
Jenseits der Kulturwissenschaften zeichnen sich auch in den Natur-, Lebens- und
Sozialwissenschaften tiefgreifende Veränderungen hinsichtlich des Stellenwerts ab,
den die automatische Auswertung großer Informationssammlungen einnimmt. In
Reaktion hierauf proklamierte Chris Anderson (2008) in einem vielbeachteten, aber
auch höchstumstrittenen Artikel das Ende der Theorie, welche von der Suche nach
Korrelationen abgelöst werde:
»Petabytes allow us to say: ›Correlation is enough.‹ We can stop looking for models.
We can analyze the data without hypotheses about what it might show. We can
throw the numbers into the biggest computing clusters the world has ever seen
and let statistical algorithms find patterns where science cannot.« (Anderson 2008)
Gegenüber dem im Magazin Wired publizierten Artikel wurde viel Kritik geäußert.
Insbesondere Naturwissenschaftler wiesen in Reaktion auf Andersons Beitrag hin,
dass das Entdecken von Korrelationen in Daten die Formulierung von Theorien und
176,000 Farm Security Administration/Office of War Information photographs taken
between 1935 and 1944 digitized by Library of Congress« (Manovich 2011).
54 | Die Autoren des Culturomics-Beitrags haben ein szientistisches Wissenschafts-
verständnis, auf dessen Grundlage sie die vermeintlich ungenauen qualitativen
Methoden der Geistes- und Kulturwissenschaften diskreditieren. Ihres Erachtens
konnten sich präzise quantitative Methoden in diesem Bereich bislang nur nicht
etablieren, weil die verfügbare Datenbasis zu klein war: »Reading small collections of
carefully chosen works enables scholars to make powerful inferences about trends
in human thought. However, this approach rarely enables precise measurement of
the underlying phenomena. Attempts to introduce quantitative methods into the
study of culture have been hampered by the lack of suitable data« (Michel et al.
2011: 176).
310 Digitale Datenbanken
Modellen nicht ersetzen könne, sondern diese allenfalls anzuleiten vermag. Es wird
jedoch nicht in Zweifel gezogen, dass sich die Forschungspraxis mit der Verfügbar-
keit und durch die Nutzbarmachung von stetig wachsenden Informationsbeständen
verändert (vgl. Bollier 2010: 4ff.; Norvig 2009). Diese Verschiebungen exakt zu be-
schreiben erweist sich jedoch als Herausforderung.
Das Erkunden von Datenbanken mit dem Ziel, neue Informationen zu finden,
verändert nicht nur die Wissenschaften, sondern auch die Wirtschaft und den
Journalismus. Der Erfolg vieler führender Internetunternehmen, wie z.B. Facebook,
Amazon, Google etc., basiert nach Ansicht von Mike Loukides zu einem Großteil
auf der Sammlung und Auswertung von Information, wobei diese Unternehmen
Daten auch dafür nutzen, Produkte aus Daten zu kreieren: »A data application
acquires its value from the data itself, and creates more data as a result. It’s not just
an application with data; it’s a data product« (Loukides 2010: 1). Ausgehend von
dieser Beobachtung skizziert Loukides die Konturen einer Data Science, welche die
Erstellung von ökonomisch verwertbaren Daten-Produkten unterstützen könne.
Der computergestützten Versammlung, Aufbereitung, Analyse und Veröffent-
lichung von Informationsbeständen kommt in den vergangenen Jahren auch im
Bereich des (Online-)Journalismus eine wachsende Bedeutung zu. Für diese Ent-
wicklung stehen Begriffe wie Database Journalism, Data-driven Journalism und
Datenjournalismus.55 Dabei ist der Einsatz von Computertechnologien bei der
journalistischen Auswertung von Informationsbeständen keineswegs neu. Bereits
seit Ende der 1960er Jahre kommen derartige Verfahren zum Einsatz (vgl. Meyer
2002: 192ff.). Als Bezeichnung war hierfür der Begriff des »computer-assisted
reporting« (Meyer 2002: 79) gebräuchlich, ein Begriff, der in der Zeit der Mainf-
rame-Computer geprägt wurde, mit Verbreitung des Personal Computers in den
1980er Jahren jedoch zunehmend an Schärfe und Aussagekraft verloren hat.56
Ungeachtet der Frage, ob bzw. inwiefern der Datenjournalismus eine gänzlich
neue Form der journalistischen Praxis darstellt, lassen sich spätestens seit 2009 Ent-
wicklungen beobachten, die auf eine Konjunktur des Datenjournalismus hinweisen.
Dies zeigt sich in den Bemühungen von national und international renommierten
Tages- und Wochenzeitungen, datenjournalistische Formate in ihre Angebote zu
integrieren.57 Vorreiter hierfür waren vor allem die Tageszeitungen The Guardian
55 | Obwohl es viele Berührungspunkte und Überlappungen gibt, sind die Begriffe
Database Journalism und Data-driven Journalism nicht gleichzusetzen. Der Fokus
liegt hier vor allem auf dem Data-driven Journalism. Zum Database Journalism siehe
exemplarisch Holovaty (2006).
56 | In der 2002 erschienenen vierten Auflage von Precision Journalism schreibt
Meyer: »In a world where almost everything is computer assisted, that no longer
means a lot« (Meyer 2002: 79). Die erste Auflage des Buchs ist bereits 1973 er-
schienen.
57 | Seit einigen Jahren unterhalten The New York Times, The Guardian, Die Zeit
sowie andere Tages- und Wochenzeitungen speziellen Datenblogs, auf denen über
Phänomeno-Logik 311
und The New York Times, welche sich unter anderem durch die interaktive Auf-
bereitung der von Wikileaks veröffentlichten Quellen über die Kriege in Afgha-
nistan und im Irak hervorgetan haben (vgl. Matzat 2010). Ein wichtiger Bestand-
teil des Datenjournalismus ist neben der Berichterstattung auf Grundlage großer
Informationssammlungen vor allem die Publikation von Originalquellen sowie die
nutzerfreundliche Materialaufbereitung in interaktiven Visualisierungen. Hier-
durch soll es den Nutzern dieser Angebote ermöglicht werden, Nachrichten nicht
nur in Form von Artikeln oder Reportagen zu rezipieren, sondern sich selbst in den
verfügbaren Ressourcen zu orientieren und diese zu erkunden (vgl. Rogers 2011).58
Wissen und Unwissen der Datenbank
Die Suche nach den Informationen respektive dem Wissen, das bei der Aus-
wertung von Informationssammlungen entdeckt werden kann, gewinnt rasant
an Bedeutung. Motiviert ist dies gleichermaßen durch den Wunsch, sich in der
Fülle der verfügbaren Informationen zu orientieren, sowie durch die Hoffnung,
dass die Analyse von immer mehr Informationen zu einem besseren Verständnis
unserer physischen, biologischen, gesellschaftlichen und kulturellen Welt führen
wird. Ein erfolgreiches Beispiel hierfür ist die Früherkennung von Epidemien und
Pandemien durch das World Wide Web, für die das von der kanadischen Gesund-
heitsbehörde in Kooperation mit der Weltgesundheitsorganisation entwickelte
Global Public Health Intelligence Network (GPHIN) ein Vorreiter gewesen ist (vgl.
Mawudeku/Blench 2005).59 Das GPHIN verfolgt eine Strategie, Risiken für die
öffentliche Gesundheit zu entdecken, die quer zu den traditionellen Mechanismen
der Erkennung globaler Gesundheitsrisiken liegt.60 Der hierarchisch organisierte
die jeweiligen Bemühungen im Bereich des Datenjournalismus berichtet wird. Ein
weiterer Indikator für die wachsende Aufmerksamkeit, die dem Datenjournalismus
zuteil wird, sind die zahlreichen Workshops und Konferenzen, die zu diesem Thema
durchgeführt werden. Ein Überblick über diese findet sich auf datadrivenjournalism.
net.
58 | Einen guten und empfehlenswerten Einblick zu den Entwicklungen im Bereich
des Datenjournalismus gibt die Dokumentation Journalism in the Age of Data von
Geoff McGhee aus dem Jahr 2010, datajournalism.stanford.edu/ (zuletzt aufgerufen
am 12.03.2013).
59 | Nach zweijähriger Entwicklungszeit wurde die erste Version von GPHIN seit
1999 eingesetzt. Im Jahr 2004 wurde dieses System von GPHIN II abgelöst (vgl.
Burns 2006: 769; Mykhalovskiy/Weir 2006: 43f.).
60 | Etwas Ähnliches leisten die 2008 eingeführten Google-Dienste Flu Trends (www.
google.org/flutrends/) und Dengue Trends (www.google.org/denguetrends/). Die
Vorhersagen beruhen hierbei auf der Auswertung der Häufigkeit von Suchanfragen
zu einem bestimmten Thema (vgl. Ginsberg et al. 2009: 1012f.). Die Möglichkeit,
Grippeepidemien auf der Grundlage von Suchanfragen zu identifizieren, hat zu vor
312 Digitale Datenbanken
Informationsfluss von lokalen Gesundheitsbehörden zu regionalen, nationalen und
internationalen Gesundheitsorganisationen wird vom GPHIN umgangen, indem
es Seuchenfrüherkennung nicht durch die Untersuchung von Patienten, sondern
durch die systematische Suche im World Wide Web betreibt (vgl. Mawudeku/Blench
2005: i9f.; Blench/Proulx 2005: 4f.).61 Seit 1999 beweist GPHIN, dass dem Mangel
an offiziellen Gesundheitsinformationen der Überschuss an Informationen im Web
produktiv gegenübergestellt werden kann. So warnte GPHIN bereits Ende 2002 vor
einer ungewöhnlichen Atemwegskrankheit in China, mehrere Monate bevor die
Weltgesundheitsorganisation eine offizielle SARS-Warnung herausgeben konnte
(vgl. Blench/Proulx 2005: i8f.; Keller et al. 2009: 691). Bei GPHIN wusste man zwar
nicht genau, um welche Krankheit es sich handelt, aber man wusste, dass etwas vor
sich geht, was möglicherweise zu einem globalen Gesundheitsrisiko werden könnte.
Mit GPHIN wurde eine Möglichkeit gefunden, durch die Auswertung von im
Web publizierten Berichten besser zu verstehen, was gegenwärtig in der Welt vor sich
geht.62 Im größeren Kontext der digitalen Medienkultur hat diese Errungenschaft
jedoch auch ihre Kehrseite, welche besonders deutlich zutage tritt, wenn aus
Informationssammlungen nicht nur neues Wissen über die Vergangenheit und
Gegenwart abgeleitet werden soll, sondern auch über die Zukunft. Exemplarisch
kann dies am versuchten Bombenanschlag auf eine Maschine der Northwest Air-
lines am 25. Dezember 2009 verdeutlicht werden. An diesem Tag schmuggelte der
damals 23-jährige Nigerianer Umar Farouk Abdulmutallab eine Bombe an Bord des
Fluges NWA 253, die er kurz vor Erreichen des Zielflughafens Detroit detonieren
lassen wollte (vgl. Delta Airlines 2009). Nur durch eine Fehlfunktion des Spreng-
satzes und das Eingreifen von Crew und Passagieren scheiterte der Anschlag.
Obwohl letztendlich vereitelt, sind die Ereignisse dieses Weihnachtstages
dennoch von besonderer Signifikanz, da im Anschluss an das versuchte Attentat
eine sicherheitspolitische Debatte losbrach, die vor allem um die Frage kreiste, wie
es möglich war, dass Abdulmutallab überhaupt an Bord des Flugzeugs gelangen
konnte (vgl. Lipton/Shane 2009). Vor allem die Geheimdienste standen in der Kritik.
Nicht weil sie keine Informationen über die Verbindungen von Abdulmutallab zu
bereits Eysenbach (2006) beschrieben, der derartige Analyseverfahren als Info-
demiology bezeichnet.
61 | Das GPHIN-System kombiniert automatische Suchroutinen mit menschlicher
Expertise. Gefundene Berichte werden technisch akkumuliert und von Experten
evaluiert, bevor Warnungen über Gesundheitsrisiken herausgegeben werden (vgl.
Mawudeku/Blench 2005: i9f.). Die Überprüfung der Warnungen auf ihre Richtigkeit
obliegt wiederum dem Global Outbreak Alert & Response Network (GOARN) der WHO
(vgl. Mykhalovskiy/Weir 2006: 43).
62 | Auch für sogenannte Echtzeitanalysen bietet Google Dienste an, die hier exem-
plarisch genannt werden können: Google Trends (www.google.de/trends/) und Goo-
gle Correlate (www.google.com/trends/ correlate); siehe hierzu Choi/Varian (2009)
sowie Mohebbi et al. (2011).
Phänomeno-Logik 313
terroristischen Gruppierungen und einen möglichen Anschlag hatten, sondern
gerade weil sie über diese Informationen verfügten. Das Problem bestand darin,
dass man nicht in der Lage war, die verschiedenen Informationen zum Bild eines
Terroristen und zur Prognose eines möglichen Anschlags zusammenzuführen. Zu
diesem Schluss kommt der offizielle Untersuchungsbericht des Weißen Hauses. Das
Hauptproblem lag demzufolge bei den Geheimdiensten, die daran scheiterten, einen
Zusammenhang zwischen den Informationen herzustellen: »[T]he CT [Counter-
terrorism, M.B.] community failed to connect the dots« (White House 2010).
Anders als es der Bericht nahelegt, ist die Ursache für dieses Scheitern jedoch
nicht allein auf die Nachlässigkeit der Geheimdienste bei der Auswertung und
Analyse von Informationen zurückzuführen, sondern auch auf den Überschuss
an Informationen, welcher die menschlichen Verarbeitungskapazitäten übersteigt
und damit nur noch computergestützten Analysemethoden zugänglich ist. Diese
Verfahren beruhen auf Algorithmen, die Informationsbestände gemäß bestimmter
Regeln automatisch interpretieren. Hierauf gründen gleichermaßen die Chancen
und Risiken der computergestützten Auswertung von Informationen. Algorithmen
analysieren Informationssammlungen nach einem vorgegebenen Muster, wodurch
diese in einen bestimmten Bedeutungskontext gestellt werden.
Abb. 24: Neun-Punkte-Problem
Um in Informationssammlungen Zusammenhänge zu erkennen und denselben
Informationen einen neuen Sinn zu entlocken, ist es jedoch notwendig, mit einem
bestimmten, vorgegebenen Kontext oder Rahmen zu brechen. Auf einfache Weise
lässt sich dies an dem Neun-Punkte-Problem verdeutlichen, bei dem neun im
Quadrat angeordnete Punkte durch vier Geraden miteinander verbunden werden
sollen. Dieses Puzzle lässt sich nur dann lösen, wenn die Linien über die Grenzen
des Quadrats hinaus gezogen werden, weshalb das Neun-Punkte-Problem als Sinn-
bild für die im englischen geläufige Redewendung »thinking outside the box« dient.
Hieran scheitern Algorithmen, da sie nur im Rahmen ihrer eigenen Funktionslogik
operieren können.
Auch wenn die Möglichkeit, dass die Zukunft mithilfe avancierter Computer-
technologien vorhergesagt werden kann, einen beliebten Topos der Populärkultur
darstellt, ist dies noch immer weitgehend Science Fiction. Daher wird man sich
unter den Bedingungen der sicherheitspolitisch motivierten Zunahme an Über-
wachung künftig vermehrt mit dem Problem konfrontiert sehen, dass sich Ereig-
nisse wie Terroranschläge schon immer in den Daten angekündigt haben werden.
Das Wissen der Datenbank ist hierbei ein Wissen post Faktum im Konjunktiv II:
314 Digitale Datenbanken
Man hätte es im Vorhinein wissen können. Damit ist eine Grenze der Auswertungs-
möglichkeiten von Informationssammlungen benannt, die sich in Zukunft ver-
schieben, aber wohl nie gänzlich verschwinden wird, da Computerprogramme stets
nur »inside their box« operieren können.
Die diskutierten Möglichkeiten und Grenzen des Entdeckens von neuem Wissen
in bereits bekannten Informationen führen zurück zu der bereits erwähnten Debatte
über das beginnende Ende der Theorie unter den Bedingungen von Big Data. Dass
Andersons These – die hypothesen- und theoriegeleitete Forschung werde durch
die algorithmische Suche nach Korrelationen in großen Datenbeständen abgelöst
– umstritten ist, wurde bereits erwähnt. Zugleich kommt der Korrelationsanalyse
und anderen Data Mining-Verfahren gegenwärtig eine zunehmende Bedeutung zu.
Daher argumentieren Viktor Mayer-Schönberger und Kenneth Cukier in ihrem
Buch Big Data: A Revolution That Will Transform How We Live, Work and Think,
dass das Fragen nach Kausalität im Vergleich zur Suche nach Korrelationen aktuell
an Bedeutung verliert. Wichtiger als das knowing why (Kausalität) wird ihres Er-
achtens das knowing what (Korrelation): »Knowing what, not why, is good enough«
(Mayer-Schönberger/Cukier 2013: 52).63
Die Gegenüberstellung von Kausalität und Korrelation birgt die Gefahr,
dass man beide als sich wechselseitig ausschließende Erkenntnismodi begreift.
Dies ist jedoch nicht der Fall, denn Korrelationen nehmen in der natur- und
sozialwissenschaftlichen Forschungspraxis schon lange eine wichtige Rolle ein.
Kurzum: Korrelationen stehen nicht in Widerspruch zur Frage nach Kausalität
und wissenschaftlicher Theoriebildung. Hierauf weisen auch Mayer-Schönberger
und Cukier hin (vgl. 2013: 67f.). Was ist dann jedoch das spezifisch Neue an der
Wissensproduktion im Zeitalter von Big Data? Für Mayer-Schönberger und Cukier
besteht dies in der Rolle, die Analyseprogramme oder Algorithmen bei Suche nach
Korrelationen einnehmen, welche in großen Informationsbeständen automatisch
Zusammenhänge zwischen Variablen entdecken können (vgl. Mayer-Schönberger/
Cukier 2013: 54ff.). Infolgedessen gehe das Finden von Korrelationen der wissen-
schaftlichen Hypothesen- und Theoriebildung voraus (Mayer-Schönberger/Cukier
2013: 55). Diese Behauptung ist insofern problematisch, als dass nahegelegt wird,
dass Big Data-Auswertungsverfahren unbedingt und voraussetzungslos – oder in
anderen Worten: theorie- und hypothesenfrei Zusammenhänge in Datensätzen ent-
decken können.
63 | Es ist bemerkenswert, dass Mayer-Schönberger und Cukier fast ausschließlich
Beispiele aus ökonomischen Kontexten erwähnen, um ihre Diagnose zu untermauern:
»Knowing why might be pleasant, but it’s unimportant for stimulating sales. Knowing
what, however, drives clicks. This insight has the power to reshape many industries,
not just e-commerce« (Mayer-Schönberger/Cukier 2013: 52). Daher ist zu fragen,-
inwieweit der Korrelationsanalyse auch in den Wissenschaften eine größere Be
deutung zukommt als dem Fragen nach Kausalität.
Phänomeno-Logik 315
Wie am Beispiel des Neun-Punkte-Problems gezeigt wurde, sind dem auto-
matischen Entdecken von Zusammenhängen mit spezifischen Auswertungsver-
fahren jedoch stets Grenzen gesetzt. Daher gilt es zu fragen, welche Auswertungs-
verfahren aus welchen Gründen auf welche Datenbestände angewandt werden
und wie die entdeckten Korrelationen interpretiert, verifiziert und nicht zuletzt
theoretisiert werden. So mögen Algorithmen überraschende, d.h. nicht durch
Hypothesen vorhergesagte Zusammenhänge zwischen spezifischen Variablen
freilegen können, dass aber mit bestimmten Verfahren in bestimmten Datensätzen
Korrelationen entdeckt werden können, bedarf eines Vorwissens, welches sich
in die Auswertung einschreibt und die Interpretation der Ergebnisse bedingt. Es
handelt sich, wenn man so will, um prozedurale Hypothesen, die von thematischen
Hypothesen zu unterscheiden sind.64 Während thematische Hypothesen einen Zu-
sammenhang zwischen spezifischen Variablen behaupten, beruhen prozedurale
Hypothesen auf der Annahme, dass mit spezifischen Verfahren bestimmte Zu-
sammenhänge entdeckt werden können. Insofern markiert Big Data nicht den
Anbruch einer Ära theorie- und hypothesenfreier Forschung. Vorläufig könnte
zumindest eine zunehmende Verdrängung thematischer Hypothesen durch pro-
zedurale Hypothesen diagnostiziert werden, welche der Analyse vorausgehen und
sie anleiten. Diese prozeduralen Hypothesen sind den Auswertungsverfahren bis-
lang weitgehend implizit. Aufgabe künftiger medientheoretischer Analysen von Big
Data ist es daher, diese impliziten Annahmen zu explizieren.
Visuelles Erkunden mit Informationsvisualisierungen
Ziel der Auswertung von Datenbanken ist es Manovich zufolge, ein Verständnis
von Informationssammlungen zu entwickeln sowie Muster und Zusammenhänge
darin zu entdecken, »[to] understand the ›shape‹ of [the] overall collection and
notice interesting patter[n]s« (Manovich 2011). Von zentraler Bedeutung sind die
im Data Mining angewandten mathematischen Analyseverfahren. Fayyad et al.
nennen sechs Methoden, die typischerweise zum Einsatz kommen: Klassifikation,
Clusterbildung, Regression, Assoziationsanalyse, Anomalieerkennung und die Zu-
sammenfassung respektive Verdichtung (vgl. Fayyad et al. 1996: 44f.). Obwohl es
sich hierbei um automatische Auswertungsverfahren handelt, führen diese nicht
64 | Dieser Unterscheidungsvorschlag lehnt sich lose an Herbert A. Simons Unter-
scheidung von substanzieller und prozeduraler Rationalität an, die dieser im Kontext
seiner Diskussion ökonomischer Theorien einführt. Verhalten beruht Simon zufolge
auf substanzieller Rationalität, »when it is appropriate to the achievement of given
goals within the Iimits imposed by given conditions and constraints« (Simon 1976:
131). Bei prozeduraler Rationalität stehen demgegenüber die Problemlösungsver-
fahren im Vordergrund: »From a procedural standpoint, our interest would lie not in
the problem solution – the prescribed diet itself – but in the method used to discover
it« (Simon 1976: 132).
316 Digitale Datenbanken
zwingend zu neuen und gültigen Erkenntnissen. Die Ergebnisse des Data Mining
bedürfen vielmehr der Beurteilung eines Interpreten. In diesem Sinn stellt das Data
Mining den Versuch dar, in der für Menschen unverständlichen Gesamtmenge
von Informationen Muster zu finden, die dem menschlichen Interpretations-
vermögen zugänglich sind (vgl. Fayyad et al. 1996: 44). Einem ähnlichen Zweck
dient die computergestützte Information Visualization. Dieser Ende der 1980er
Jahre von Forschern am Xerox Palo Alto Research Center (Xerox PARC) geprägte
Begriff bezeichnet einen Forschungszweig sowie eine mediale Praxis, die sich kom-
plementär zu den mathematischen Analyseverfahren des Data Mining verhält (vgl.
Mazza 2009: 8). Von der Visualisierung von Informationssammlungen mithilfe
leistungsfähiger Computersysteme wird erwartet, dass sie dazu beitragen kann, das
Problem der Data Deluge zu lösen (Fry 2008: 1).65 Information Visualization er-
scheint als geeignetes Mittel, um nicht in der Datensintflut unterzugehen, sondern
sich die verfügbaren Daten effektiv zunutze zu machen, indem man sie für Ver-
stehen und Verständnis aufschließt: »Perhaps one of the best tools for identifying
meaningful correlations and exploring them as a way to develop new models and
theories, is computer-aided visualization of data« (Bollier 2010: 9).
Im Prozess der Visualisierung wird die Unanschaulichkeit, Unübersichtlichkeit
und Unverständlichkeit von großen Informationssammlungen in die Anschau-
lichkeit, Übersichtlichkeit und Verständlichkeit von statischen oder interaktiven
Schau bildern, Infografiken, Karten etc., d.h. von Diagrammen übersetzt. Hierdurch
sollen die Informations- und Erkenntnispotenziale aktualisiert werden, die in den
digitalen Informationsbeständen ruhen. Dieses Vermögen von Informationsvisu-
alisierungen begründet Ben Fry wie folgt:
»The visualization of information gains its importance for its ability to help us ›see‹
things not previously understood in abstract data. It is both a perceptual issue,
that the human brain is so wired for understanding visual stimuli but extends to
the notion that our limited mental capacity is aided by methods for ›externalizing‹
cognition.« (Fry 2004: 33)
Indem Informationen in visuelle Reize übersetzt werden, wird das Denken Fry zu-
folge externalisiert. Ein ähnliches Argument bringt auch Ben Shneiderman vor, der
das Leistungsvermögen der Informationsvisualisierung wie folgt fasst: »The process
of information visualization is to take data available to many people and to enable
users to gain insights that lead to significant discoveries« (Shneiderman 2006: VIII).
Neben einer Erkenntnisfunktion erfüllen Informationsvisualisierungen jedoch
auch eine kommunikative Funktion. Hierauf weist der Schwede Hans Rosling, Pro-
65 | Ein Überblick über aktuelle Entwicklungen im Bereich der Informationsvisuali-
sierung sowie vielfältige Beispiel für Visualisierungen finden sich auf den Webseiten
Information is Beautiful (www.informationisbeautiful.net/), Information Aesthetics
(infosthetics.com/) und Visual Complexity (www.visualcomplexity.com/vc/).
Phänomeno-Logik 317
fessor für Internationale Gesundheit und eine der schillerndsten Figuren im Feld
der Information Visualization, hin: »If the story in the numbers is told by a beautiful
and clever image, then everybody understands«.66 Visualisierungen sind demzufolge
nicht nur Mittel des Forschens oder Erkennens, sondern auch Ausdrucksmittel von
Erkenntnissen, die sich durch ihre leichte Verstehbarkeit und intuitive Nachvoll-
ziehbarkeit auszeichnen. Die Erkenntnisfunktion und die Kommunikationsfunk-
tion von Informationsvisualisierungen stehen jedoch in einem problematischen
Spannungsverhältnis zueinander, was im Folgenden dargelegt werden soll.
Einen wertvollen Ausgangspunkt eröffnet hierfür die Zeichentheorie von
Charles Sanders Peirce. Bereits im Übergang vom 19. zum 20. Jahrhundert hat
Peirce das Erkenntnispotenzial von Visualisierungen erkannt und im Rahmen
seiner Zeichentheorie erörtert. Jedoch gebraucht Peirce (noch) nicht den Begriff
der Visualisierung; er spricht vielmehr von Diagrammen, die er neben Bildern und
Metaphern der Klasse der Bildzeichen zuordnet.67 Da die Begriffe des Diagramms
und der Informationsvisualisierung in aktuellen Debatten mitunter sehr heterogen
gebraucht werden, sollten diese nicht ohne Weiteres gleichgesetzt werden (vgl.
Wentz 2013: 202f.). Für die Auseinandersetzung mit Informationsvisualisierungen
wird es sich jedoch als fruchtbar erweisen, diese als einen Typus diagrammatischer
Darstellungsformen im Sinne von Peirce zu verstehen.
Die Besonderheit der Bildzeichen – d.h. von Bildern, Diagrammen und Meta-
phern – im Unterschied zu symbolischen und indexikalischen Zeichen ist nach
Ansicht von Peirce, dass man aus deren Betrachtung – oder zumindest aus der
Auseinandersetzung mit diesen – mehr Informationen über das Zeichenobjekt her-
ausfinden kann, als in die Konstruktion des Zeichens hineingeflossen sind: »For
a great distinguishing property of the icon is that by the direct observation of it
other truths concerning its object can be discovered than those which suffice to
determine its construction« (Peirce 1960: 2.279).68 Auf paradigmatische Weise
tritt dies an Diagrammen zutage, die im Unterschied zu Bildern und Metaphern
nicht Qualitäten von Objekten zur Darstellung bringen (Bilder) oder Ähnlichkeiten
zwischen Objekten herstellen (Metaphern), sondern Relationen zeigen. Diagramme
sind Zeichen, die Strukturen, Funktionslogiken und Ereignisfolgen anschaulich
machen. Ihre Besonderheit besteht darin, im Prozess der Veranschaulichung Mög-
lichkeiten zur Rekonfiguration der diagrammatischen Zeichenkonstellation zu
geben (vgl. Bauer/Ernst 2010: 46). Sie eröffnen ein Möglichkeitsfeld für Variationen,
66 | Dies artikuliert Rosling in der 2010 produzierten Dokumentation The Joy of
Stats (Hillmann 2010: 00:23:55).
67 | Die folgende Darstellung der peirceschen Diagrammatik orientiert sich an den
Rekonstruktionen von Frederik Stjernfelt (2000) sowie von Matthias Bauer und
Christoph Ernst (2010).
68 | Die Collected Papers von Peirce werden wie üblich in Dezimalnotation zitiert.
318 Digitale Datenbanken
die im externalisierten Gedankenexperiment durchgespielt werden können.69
Hierin liegt ihr Erkenntnispotenzial begründet.
Abb. 25: Beweis des Satz des Pythagoras
Quelle: Stjernfelt 2000: 369
Die aus Diagrammen ableitbaren Folgerungen sind Peirce zufolge deduktiv, d.h.
es sind notwendige Schlüsse, deren Wahrheit sich im Diagramm zeigt.70 Dies
unterscheidet Diagramme grundlegend von den beiden anderen Arten von Bild-
zeichen: »It is, therefore, a very extraordinary feature of Diagrams that they show,
– as literally show as a Percept shows the Perceptual Judgment to be true« (Peirce
1976: 318). Diagramme sind demzufolge Figurationen, an denen sich notwendiges
Denken vollziehen kann, weil sie die Konsequenzen der Schlussfolgerungen evident
vor Augen führen und dadurch deren Richtigkeit beweisen. Als Beispiel führt
der Diagrammatikforscher Frederik Stjernfelt die Möglichkeit an, den Satz des
Pythagoras zu beweisen, indem vier gleichförmige Dreiecke auf unterschiedliche
Weisen in einem Quadrat angeordnet werden. Aus dem Vergleich der Anordnung
der Dreiecke im linken und im rechten Quadrat wird deutlich, dass der Fläche von
c2 die Summe der Flächen von a2 und b2 entsprechen muss (vgl. Stjernfelt 2000:
369f.).
69 | Auch Stjernfelt spricht in diesem Zusammenhang von Gedankenexperimenten,
in denen sich diagrammatisches Denken vollzieht (vgl. 2000: 369f.). In diesem
Zusammenhang ist es wichtig darauf hinzuweisen, dass dieses Denken Peirce
zufolge keine materialisierten Diagramme voraussetzt. Aus diesem Grund insis-
tieren Bauer und Ernst darauf, das Forschungsfeld der Diagrammatik nicht auf
Diagramme im engen Sinn von spezifischen verkörperten Bildzeichen zu begrenzen
(vgl. 2010: 20f.). Für die Auseinandersetzung mit Informationsvisualisierungen
ist hingegen die Möglichkeit der Externalisierung von Gedankenexperimenten von
zentraler Bedeutung. Derartige Experimente sind aus dem Kontext der Wahlbe-
richterstattung wohlbekannt. Die Sitzverteilung im Parlament wird zumeist als
Kreisdiagramm oder Halbkreisdiagramm dargestellt. Anhand dieser Diagramme
werden Parteienkonstellationen für mögliche Koalitionen durchgespielt.
70 | Dieser Aspekt ist von zentraler Bedeutung, wie Stjernfelt (2000: 369) und
Bauer/Ernst (2010: 65f.) in ihren Rekonstruktionen der peirceschen Diagrammatik
gleichermaßen herausstellen.
Phänomeno-Logik 319
Diagramme sind Denkfiguren im buchstäblichen Sinn. An ihnen können in
einem Prozess des sehenden Denkens notwendige Schlüsse vollzogen werden.71
Daher steht die Deduktion im Zentrum des diagrammatischen Folgerns. Für sich
allein genommen sind die an Diagrammen vollzogenen Denkoperationen rein
formal. Sie geben keine Erkenntnisse über etwas anderes als über die Diagramme
selbst preis. Visualisierungen beziehen sich jedoch auf Informationsbestände, die
darüber hinaus zumeist auf ein Anderes Bezug nehmen, d.h. über etwas inform-
ieren. Infolgedessen steht nicht allein in Frage, welche Schlüsse aus Diagrammen
gezogen werden können, sondern auch, ob durch ein Diagramm das Viele – in dem
es sich zu orientieren gilt – auf adäquate Weise zur Darstellung kommt. Daher ist
das diagrammatische Deduzieren nicht losgelöst von den abduktiven Hypothesen-
bildungen und induktiven Tests zu betrachten, in die das Denken an Diagrammen
eingebettet ist (vgl. Bauer/Ernst 2010: 66f.). Diagrammatische Operationen voll-
ziehen sich, wie Stjernfelt in seinen an Peirce anschließenden Überlegungen fest-
stellt, in einem Regelkreis aus Abduktion, Deduktion und Induktion, weshalb
dieses Denken im Erraten, Folgern und Überprüfen von Relationen und Zu-
sammenhängen besteht (vgl. Stjernfelt 2000: 374).
Das Erstellen eines Diagramms gleicht einem Akt des abduktiven Ratens,
der darin zum Ausdruck kommt, welche Zusammenhänge auf welche Weise ver-
anschaulicht werden. Auf Grundlage dessen sind deduktive Schlüsse möglich, die
wiederum induktiv am Referenzobjekt des Diagramms, d.h. an der Informations-
sammlung respektive einer wie auch immer gearteten Wirklichkeit überprüft
werden müssen. Notwendig ist diese Überprüfung nicht zuletzt deshalb, weil sich
die möglichen Folgerungen aus dem Typ des Diagramms ergeben, d.h. aus der
Art und Weise, wie die Relationen, Strukturen oder Prozesse dargestellt werden,
sowie aus der Syntax der erlaubten Transformationen des Diagramms und nicht
aus den bezeichneten Zusammenhängen. Insofern ist es gleichgültig, aber nicht
gleichbedeutend, ob man in einem Kreisdiagramm die Verteilung von Parlaments-
sitzen oder die Verteilung von Todesursachen veranschaulicht, da sich an dem Dia-
grammtyp Kreisdiagramm stets dieselben deduktiven Transformationen durch-
führen lassen.72 Der Typus konkreter Diagramme legt ihre Interpreten darauf fest,
71 | Mersch vertritt die Meinung, »dass alle diagrammatischen Visualisierungen,
insbesondere aber Graphen, um interpretiert werden zu können, der Konventionalität
und Regelhaftigkeit bedürfen. Keine Wissenschaftsvisualisierung kommt ohne Le-
gende oder diskursiven Kommentar aus. Nicht nur verweisen Schrift und Bild im
Diagrammatischen aufeinander, sondern die Diagrammatik selber erfordert den
Text, der sie deutbar macht« (Mersch 2006c: 108). Im Anschluss hieran wäre zu
fragen, ob die Regeln des deduktiven Folgerns mit Diagrammen ebenso auf Konven-
tionen beruhen oder ob diese Diagrammen immanent sind. Eine Diskussion dieser
weitreichenden Frage kann an dieser Stelle nicht geleistet werden.
72 | Sicherlich sind die Konsequenzen andere, die man aus diesen Schlüssen zieht,
aber die deduktiven Folgerungen sind dieselben.
320 Digitale Datenbanken
was sie an und mit diesen folgern können und damit auch, welche Erkenntnisse sie
von diesen ableiten können.
Auf einen Begriffsvorschlag von Riemann rekurrierend, den sich auch Deleuze
zueigen macht, können Diagramme als Mannigfaltigkeiten begriffen werden, wel-
che eine dem »Vielen als solchem eigene Organisation« (Deleuze 1992a: 233) dar-
stellen. Durch seine Bestimmung des Begriffs der Mannigfaltigkeit hat Riemann
die Geometrie in der zweiten Hälfte des 19. Jahrhunderts vom Kopf auf die Füße
gestellt. Hatte man bis dahin den Raum bei der Beschreibung geometrischer Objekte
als transzendentale Größe vorausgesetzt, macht sich Riemann dafür stark, Raum
als eine geometrischen Objekten immanente Größe zu begreifen. Riemann zufolge
können Objekte in Abgrenzung zur euklidischen Geometrie als Mannigfaltig-
keiten verstanden werden, die nicht in Relation auf einen sie umgebenden und
ihnen vorausgehenden Raum beschrieben werden. Geometrische Objekte werden
vielmehr auf die ihnen innewohnende Räumlichkeit hin befragt. Jede Mannigfaltig-
keit spannt demzufolge einen Raum auf und entfaltet dabei ihre eigenen Gesetz-
mäßigkeiten (vgl. Riemann 1990 [1854]).73
Diese Eigenschaft wohnt auch diagrammatischen Darstellungsformen inne,
die ihre Interpreten aus sich heraus auf eine Weltsicht festlegen, indem sie nur be-
stimmte Zusammenhänge, Relationen und Strukturen zur Darstellung bringen, an
denen zudem nur spezifische Schlussfolgerungen vollzogen werden können. Hierauf
hat Franco Moretti in Bezug auf die literaturwissenschaftliche Orientierung an Na-
tionalliteraturen hingewiesen, welche seines Erachtens auf einem Denken in Baum-
73 | Riemann stellt kritisch fest, dass Raum als einer der Grundbegriffe der Geo-
metrie noch nicht hinreichend geklärt sei. Für dieses Grundlagenproblem stellt
das Konzept der Mannigfaltigkeiten eine Lösung dar. Als Konsequenz erweist sich
der dreidimensionale euklidische Raum als kontingent, d.h. als möglicher Raum
unter einer Vielzahl möglicher Räume: »Bekanntlich setzt die Geometrie sowohl den
Begriff des Raumes, als die ersten Grundbegriffe für die Constructionen im Raume
als etwas Gegebenes voraus. Sie giebt von ihnen nur Nominaldefinitionen während
die wesentlichen Bestimmungen in Form von Axiomen auftreten. Das Verhältniss
dieser Voraussetzungen bleibt dabei im Dunkeln; man sieht weder ein, ob und in wie
weit ihre Verbindung nothwendig, noch apriori, ob sie möglich ist. Diese Dunkelheit
wurde auch von Euklid bis auf Legendre, um den berühmtesten neueren Bearbeiter
der Geometrie zu nennen, weder von den Mathematikern, noch von den Philosophen,
welche sich damit beschäftigten, gehoben. Es hatte dies seinen Grund wohl darin
dass der allgemeine Begriff mehrfach ausgedehnter Grössen unter welchem die
Raumgrössen enthalten sind, ganz unbearbeitet blieb. Ich habe mir daher zunächst
die Aufgabe gestellt, den Begriff einer mehrfach ausgedehnten Grösse aus allge-
meinen Grössenbegriffen zu construiren. Es wird daraus hervorgehen, dass eine
mehrfach ausgedehnte Grösse verschiedener Massverhältnisse fähig ist und der
Raum also nur einen besonderen Fall einer dreifach ausgedehnten Grösse bildet«
(Riemann 1990 [1854]: 304).
Phänomeno-Logik 321
strukturen basiert. Von dieser Denkform ist die Beschäftigung mit Weltliteratur zu
unterscheiden, die sich an der Denkfigur der Welle orientiert: »The tree describes
the passage from unity to diversity: one tree with many branches [...]. The wave is
the opposite: it observes uniformity engulfing an initial diversity« (Moretti 2000:
67).74 Das Beispiel Morettis kann zu der Feststellung verallgemeinert werden, dass
Diagramme, indem sie etwas zum Vorschein bringen, zugleich etwas verdecken. Sie
verbergen die Kontingenz der ihnen immanenten Weltsicht. Oder anders formu-
liert: Diagramme machen stets nur bestimmte Zusammenhänge ersichtlich, aber
gerade dies können sie nicht zeigen. Sie können in den Worten Dieter Merschs »die
Modalitäten ihres Zeigens nicht mitzeigen – sie verweigern die Sichtbarmachung
ihrer Sichtbarmachung« (Mersch 2007: 64).
Diesem Problem wird im Kontext der computergestützten Informations-
visualisierung indirekt begegnet, insofern die Visualisierungspraxis nicht allein
auf die Erstellung partikularer Diagramme abzielt, sondern auch auf die Entwick-
lung von generischen Visualisierungsanwendungen, welche es ihren Nutzern er-
möglichen sollen, Informationen selbstständig in Diagrammen zu veranschaulichen
und sie hierdurch zu erkunden. Information Visualization weist demzufolge über
die in einer diagrammatischen Darstellung liegenden Möglichkeiten hinaus in
Richtung des gesamten Prozesses der abduktiven Erstellung von Visualisierungen,
der deduktiven Ableitung von Folgerungen an Visualisierungen und der induktiven
Überprüfung dieser Schlüsse. Die Visualisierungssoftware wird als Schnittstelle zur
Erkundung von Informationsbeständen begriffen, deren Möglichkeiten über die
statischer Diagramme hinausgeht, da sie, wie Shneiderman anführt, die interaktive
Einnahme unterschiedlicher Sichtweisen und Perspektiven auf Informationssamm-
lungen ermöglicht:
»[A] great benefit of computing environments is the opportunity for users to rapidly
revise the presentation to suit their tasks. Users can quickly change the rules gover-
ning proximity, linking, color, size, shape, texture, rotation, marking, blinking, color
shifts and movements. In addition, zooming in or clicking on specific items to get
greater detail increases the possibilities for designers and users [...]. A picture is
often said to be worth a thousand words. Similarly, an interface is worth a thousand
pictures.« (Shneiderman 2003: 373)
74 | Hintergrund der Gegenüberstellung von Bäumen und Wellen als zwei unter-
schiedlichen Denkformen bzw. -figuren ist Morettis eigenes Bestreben, Literatur
nicht mehr nur auf der Ebene von Nationalliteraturen, sondern auf einem globalen
Niveau zu analysieren. Er ist jedoch weit davon entfernt, das eine gegen das andere
zu stellen: »Cultural history is made of trees and waves [...]. And as world culture
oscillates between the two mechanisms, its products are inevitably composite
ones« (Moretti 2000: 67).
322 Digitale Datenbanken
Der von Shneiderman herangezogene Vergleich ist jedoch schief, denn Worte ste-
hen zu Bildern nicht im selben Verhältnis wie Bilder – oder genauer Diagramme
– zu Interfaces. Das Visualisierungsinterface stellt keine Alternative zu diagram-
matischen Darstellungen dar, sondern eröffnet vielfältige Möglichkeiten zur Er-
stellung und Handhabung von zahllosen Visualisierungen.75 Es ist ein Mittel zur
Erkundung von Zusammenhängen, Mustern und Strukturen in Informations-
ressourcen. Dies lässt sich am Beispiel der Gapminder World-Software verdeutlichen,
die auf Initiative von Hans Rosling von der Stiftung Gapminder entwickelt wurde
(vgl. Gapminder).76 Das Ziel der Software ist, verbreitete Mythen durch eine fak-
tenbasierte Weltsicht zu entlarven: »Fighting the most devastating myths by building
a fact-based world view that everyone understands« (Gapminder).77
In Gapminder World sind die Daten von über 500 statistischen Indikatoren
integriert, wie z.B. die Entwicklung der durchschnittlichen Lebenserwartung
oder des Durchschnittseinkommens in einzelnen Ländern.78 Diese statistischen
Informationen können in animierter Form als Blasendiagramme oder auf einer
Landkarte visualisiert werden. Die Möglichkeiten zur Erkundung der Informations-
ressourcen beschränken sich auf diese beiden Darstellungsformen. Variieren lassen
sich ebenso die statistischen Indikatoren, deren Relation zueinander man über die
Zeit hinweg betrachten kann, wie die Variable, auf die sich die Größe der Blase
bezieht, sowie die Farbkodierung der Blasen.
Die kombinatorischen Möglichkeiten, die dies dem Nutzer eröffnet, sind enorm.
Daher bleibt es dem Anwender der Software überlassen, sich diese zunutze zu
machen und in den verfügbaren Informationen signifikante Zusammenhänge zu
entdecken und Erklärungen für diese zu finden. Eben dies erfordert jedoch einen
bestimmten Umgang mit den Visualisierungen sowie den zugrunde gelegten Daten.
Um mithilfe von Gapminder World zu einer faktenbasierten Weltsicht zu gelangen,
ist die alleinige Betrachtung einzelner Visualisierungen nicht hinreichend. Die am
Interface erscheinenden Diagramme sind nur ein Bestandteil des Prozesses der
Formulierung und Überprüfung von Hypothesen und Gegenhypothesen, bei dem
bedeutsame Aspekte und Zusammenhänge von weniger bedeutsamen unterschieden
75 | Bemerkenswert ist zudem die Geschichte des Sprichworts »Ein Bild sagt mehr
als tausend Worte«. Es handelt sich dabei keineswegs um ein altes chinesisches
Sprichwort. Vielmehr entstammt es der Feder des Werbetexters Frederick Barnard,
der das Sprichwort am 10. März 1927 in dem Branchenblatt Printer’s Ink prägte,
um das Werben mit Bildern zu bewerben (vgl. Safire 1996). Diese Geschichte kann
als Indiz für den problematischen Status von Bildern als Erkenntnismitteln dienen.
76 | Siehe hierzu die Webseite der Stiftung, www.gapminder.org (zuletzt aufgerufen
am 10.02.2012).
77 | Weitere Beispiele für Visualisierungssoftware sind Tableau Public (www.
tableausoftware.com/public) und Gephi (gephi.org/).
78 | Ein Überblick über die in Gapminder World integrierten Datensätze findet sich
online, www.gapminder.org/data/ (zuletzt aufgerufen am 16.06.2013).
Phänomeno-Logik 323
und unterschiedliche Perspektiven oder Interpretationen gegeneinander abge-
wogen werden müssen.79 Daher erfordert die Visualisierungssoftware Gapminder
World von ihren Nutzern eine (quasi-)wissenschaftliche Einstellung. Oder anders
formuliert: Die Software verkörpert den Nutzer als forschendes Subjekt.
Abb. 26: Erläuterung des Gapminder World-Interfaces
Quelle: Gapminder 2010
Wie eingangs in Rekurs auf Rosling festgestellt wurde, erfüllen Informations-
visualisierungen nicht nur eine Erkenntnis-, sondern auch eine Kommunikations-
funktion. Vor allem dies stellt Rosling in seinen populären Vorträgen mit der
Visualisierungssoftware zur Schau. Dabei steht die Frage, wie man mithilfe von
Gapminder World zu neuartigen Erkenntnissen gelangen kann, im Hintergrund.
Anhand der Visualisierungssoftware präsentiert Rosling vielmehr eine Erkenntnis,
für die ihm eine Visualisierung als Beleg dient. So veranschaulicht er beispiels-
weise den Zusammenhang zwischen dem Wohlstand von Menschen – bemessen
am durchschnittlichen Pro-Kopf-Einkommen in Ländern – und ihrer statistischen
79 | Wie David McCandless mit verschiedenen Visualisierungen des Verteidigungs-
budgets unterschiedlicher Länder zeigt, ist eine der zentralen Fragen, ob absolute
oder relative Größen zugrunde gelegt werden. So haben die USA im Jahr 2010 im
weltweiten Vergleich zwar die größte Summe für Verteidigung aufgewendet. Relativ
zum Bruttoinlandsprodukt war jedoch Myanmar Spitzenreiter (vgl. McCandless
2010).
324 Digitale Datenbanken
Lebenserwartung (vgl. Rosling 2010).80 Gezeigt wird hierbei, dass die durch-
schnittliche Lebenserwartung von Menschen mit dem gesellschaftlichen Wohl-
standsniveau steigt. Die Visualisierung dieses Zusammenhangs in dem animierten
Blasendiagramm von Gapminder World macht dies auf einfache und evidente Weise
deutlich. Ob die Abhängigkeit der Lebenserwartung vom gesellschaftlichen Wohl-
stand hinsichtlich anderer Indikatoren zu relativieren ist, das kann man dem Dia-
gramm allein jedoch nicht entnehmen.
Das Erkunden von Informationsressourcen mithilfe von Visualisierungen und
die Kommunikation von Erkenntnissen durch Visualisierungen situiert diese in
unterschiedlichen medialen Praktiken. Ist das Erkenntnispotenzial der Information
Visualization in den Prozess der Visualisierung eingebettet – d.h. in den Prozess
der abduktiven Erstellung, deduktiven Ableitung und induktiven Überprüfung
von Visualisierungen, wie im Rekurs auf die peircesche Diagrammatik dargelegt
wurde – so basiert das kommunikative Potenzial auf dem Resultat dieses Prozesses,
nämlich der medialen Konstellation (Diagramm), dem eine bestimmte Gültigkeit
zugesprochen wird. Als Beleg für die Richtigkeit des dargestellten Zusammenhangs
ist ein Diagramm nicht hinreichend. Es bedarf, wie Mersch herausstellt, des sprach-
lichen Diskurses, der den Evidenzcharakter der Visualisierung begründet: »Das
Bild beglaubigt sich allein durch den Text, und Evidenz existiert nur, wo Gründe
gegeben sind, die sie als solche rechtfertigen« (Mersch 2005: 327).81
Aber dies wird beim kommunikativen Gebrauch von Informationsvisuali-
sierungen tendenziell verdeckt, wenn der Prozess der Information Visualization
nicht mitreflektiert wird. Dann scheint es, als könnten Visualisierungen selbst ver-
bürgen, dass die im Diagramm erscheinenden Zusammenhänge ein Korrelat in
der Wirklichkeit haben bzw. reale Sachverhalte adäquat abbilden. Hierin besteht
der suggestive Selbstevidenzcharakter technischer Bilder, welche vermeintlich »das
Ideal einer ›nichtintervenierenden‹ Objektivität« (Mersch 2005: 332) realisieren.
80 | Dieses Beispiel ist paradigmatisch, da es als Standardvisualisierung dient, die
beim Öffnen der Software Gapminder World angezeigt wird.
81 | Bereits in den 1980er Jahren hat der Bildwissenschaftler Ernst H. Gombrich
auf einen weiteren Aspekt der Beglaubigung wissenschaftlicher Bilder hingewiesen.
Seines Erachtens ermöglichen es technische Bilder, »eine Unzahl von Fragen zu
beantworten – allerdings immer unter der Voraussetzung, daß die technischen Spezi-
fikationen des Instruments, Vergrößerung, Auflösevermögen usw., genau bekannt
sind« (Gombrich 1984: 242). Gombrichs Fokus galt repräsentativen Bildern, aus
deren Darstellung man Eigenschaften über das dargestellte Objekt rekonstruieren
kann, sofern die Herstellungsbedingungen des Bildes bekannt sind. Gerade dies
erweist sich bei Informationsvisualisierungen problematisch, da das dargestellte
Objekt im Zuge der Visualisierung mitkonstituiert wird. Dennoch erweist sich das
Wissen über die angewandten Visualisierungsverfahren sowie über die zugrunde
gelegten Daten als notwendig, um Informationsvisualisierungen kritisch bewerten
zu können.
Phänomeno-Logik 325
Verstärkt wird diese Suggestion selbstevidenter Bezeugung sowohl ästhetisch als
auch diskursiv. So weist Mersch kritisch darauf hin, dass Visualisierungen häufig
an referenzielle Bildformen, wie z.B. Fotografien »angeähnelt« (Mersch 2006c: 110)
werden. Auf der diskursiven Ebene wird der suggestive Selbstevidenzcharakter von
Visualisierungen wiederum durch den argumentativen Stellenwert zementiert, der
diesen zuerkannt wird.82 Hieran wird deutlich, dass das Erkunden von Informati-
onssammlungen mit Visualisierungen und die Präsentation von Zusammenhängen
in Visualisierungen in einem Spannungsverhältnis zueinander stehen. Für die
Information Visualization erweist sich dies insofern als problematisch, als diese
gleichermaßen verspricht, Erkenntnis- und Kommunikationsmittel zu sein.
Das Potenzial von Visualisierungen, Orientierung im Vielen digitaler Informa-
tionssammlungen herstellen zu können, soll hierdurch nicht grundsätzlich infrage
gestellt werden. Vielmehr gilt es anzuerkennen, dass Informationsvisualisierungen
weder neutrale noch selbstevidente Mittel sind. Die Anordnung von Informationen
in diagrammatischen Strukturen entspringt nie aus der Datenbank selbst. Das
Diagramm bzw. der Diagrammtypus gibt ein Ordnungsmuster vor, nach dem
die Datenbankinformationen arrangiert werden. Dies ist stets zu bedenken. Ins-
besondere dann, wenn das Visuelle, wie Mersch herausstellt, nicht umhin kann, »als
[...] die Evidenz einer Wirklichkeit zu suggerieren« (Mersch 2005: 341).
Hieran wird erneut deutlich, dass sich an die unterschiedlichen, in diesem
Kapitel diskutierten medialen Praktiken mit Datenbanken verschiedene medien-
theoretische Fragestellungen anschließen. Die Datenbank als latente Infrastruktur,
das Auffinden des Einen in Informationssammlungen sowie die Auswertung des
Vielen stellen unterschiedliche Gebrauchsformen von digitalen Datenbanken dar,
die je eigene Phänomeno-Logiken entfalten, welche auf unterschiedliche Weise an
die bereits diskutierten Techno-Logiken der Herstellung computer-lesbarer Signi-
fikanz anschließen. Template, Dashboard, Query, Stream, Data Mining und Infor-
mation Visualization lassen sich mithin nicht zu einer einheitlichen Logik digitaler
Datenbanken zusammenführen. Sie wurden daher als heterogene mediale Prak-
tiken mit Datenbanken beschrieben, in denen sich je eigene Logiken, d.h. Mikrolo-
giken digitaler Datenbanken zeigen, an die verschiedene medientheoretische Pro-
blemkonstellationen anschließen.
82 | Kritisch auf diese Problematik hinweisend hat Julio Ottino 2003 in einem
Artikel in Nature gefragt: »Is a picture worth 1,000 words?« (474). Ottino zeigt
sich insbesondere gegenüber der von ihm beobachteten Zunahme von Bilder und
Visualisierungen in wissenschaftlichen Publikationen skeptisch. Seines Erachtens
stellen diese ein zu problematisierendes Ausdrucksmittel naturwissenschaftlicher
Forschungen dar, dessen Gebrauch unter Regeln zu stellen sei, um dem naturwissen-
schaftlichen Streben nach wohlbegründetem Wissen weiterhin gerecht werden zu
können.
Schluss
Plädoyer für eine kritische Datenbankkultur
»Dass es mit einem Text zu Ende geht, merkt man dar-
an, dass aus allen seinen Fugen die Triebe des näch-
sten zu sprossen beginnen.«
seel 2009: 254
More, more, more! Als Metapher für digitale Informationssammlungen und als
Begriff für digitale Sammlungstechnologien ist die Datenbank eine Chiffre für die
Informationsexzesse der digitalen Medienkultur. Die damit verbundenen Poten-
ziale aber auch Gefahren finden in den jüngsten Entwicklungen und Debatten über
Big Data ihren Widerhall.1 Durch den Fokus auf digitale Datenbanken wurde in
diesem Buch eine von vielen möglichen Entwicklungslinien nachgezeichnet, die
in dem aktuellen Hype um Big Data gemündet sind. Den zentralen Stellenwert
von Datenbanken für die zeitgenössische Medienkultur hat Lev Manovich bereits
Ende der 1990er Jahre zutreffend diagnostiziert. Dass die Datenbank, wie von ihm
nahegelegt, als Gegenmodell zur Erzählung fungiert und sie als dominante Form
der kulturellen Sinnstiftung ablöst, steht jedoch weiter zur Diskussion. Denn so
viele Argumente, wie sich für Manovichs Behauptung anführen lassen, können
gegen sie vorgebracht werden. Auf den Profilseiten sozialer Netzwerke mag man
den Triumpf der Datenbankform über die Erzählform erkennen. Zugleich können
die Listen von Statusupdates, Bildern, Links, Kommentaren etc. auch als Samm-
lungen von Mikronarrativen betrachtet werden, die sich durch ihre spezifische An-
ordnung im Interface zu einem Narrativ verdichten, welches durch Nutzer zudem
aktiv gestaltet werden kann (vgl. Reichert 2008: 37ff.). Etwas Ähnliches propagiert
beispielsweise der Dienst Storify (storify.com), der Nutzer einlädt, im WWW
gefundene Informationen, wie z.B. Tweets, Webseiten, Videos etc., zu einer linearen
Geschichte zusammenzufügen. Die von Manovich gegenübergestellten Ausdrucks-
formen Erzählung und Datenbank sind also bestenfalls als die Extrempole eines
1 | Einen Überblick zur aktuellen medienkulturwissenschaftlichen Debatte zu Big Da-
ta geben die Beiträge in dem von Ramón Reichert herausgegebenen Sammelband
Big Data: Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie (2014).
328 Digitale Datenbanken
breiten Spektrums verschiedener Formen kultureller Sinnstiftung zu verstehen,
zwischen denen sich in der medialen Praxis vielfältige Mischformen und Über-
gänge beobachten lassen. Diese Vielfalt verschwindet bei Manovich jedoch hinter
der vermeintlichen Einheit der Datenbank einerseits sowie der Erzählung anderer-
seits. Im Unterschied hierzu war es das Ziel des vorliegenden Buchs, die heterogene
Vielgestaltigkeit der Versammlung, Verwaltung, Auswertung und Präsentation von
Informationen in, mit und durch Datenbanken freizulegen. Wie im Zuge der Dis-
kussion der »Techno-Logik« digitaler Informationssammlungen deutlich wurde,
verschiebt sich hierdurch Manovichs These, die Datenbank sei eine symbolische
Form der digitalen Medienkultur, hin zu der Frage nach unterschiedlichen Weisen
der symbolischen Formung in Computerdatenbanken, d.h. nach Mikrologiken der
digitalen Datenhaltung. Diese galt es im Anschluss an die treffende Formulierung
von Konrad Becker und Felix Stalder als Strategien der Herstellung »computer-les-
bare[r] Signifikanz« (2009b: 8) zu analysieren. Als digitale Datenbanken wurden
dabei sämtliche Techniken der Versammlung, Verwaltung und Verfügbarmachung
von Informationen in und mit Computern ins Zentrum der Betrachtungen gerückt.
Durch Datenbanktechnologien im engen und weiten Sinn werden Informations-
sammlungen in einen Bestand transformiert, der durchsucht, ausgewertet und wei-
terverarbeitet werden kann, indem Informationen als Information adressierbar
gemacht werden. Datenbankinformationen wohnt dabei eine gewisse Autonomie
inne, da von ihnen in verschiedenen Anwendungskontexten auf unterschiedliche
Weise Gebrauch gemacht werden kann. Sofern dies ein Kennzeichen der Immateri-
alität ist, die man digitalen Informationen häufig zuschreibt (vgl. Weinberger 2008:
22), konnten in der Auseinandersetzung mit digitalen Speichertechnologien, Daten-
bankmodellen und Verfahren der Speicherung und Abfrage digitaler Informationen
die materiell-technischen Voraussetzungen der vermeintlichen Immaterialität digi-
taler Informationen freigelegt werden.2 Es handelt sich demzufolge nicht um eine
Wesenseigenschaft, sondern um einen Effekt technischer Infrastrukturen, der auf
der Entkopplung der computertechnischen Informationsverwaltung von der Infor-
mationsverarbeitung beruht. Insbesondere die Einführung der Festplatte (1956) als
einer persistenten Speichertechnologie mit wahlfreiem Zugriff stellte in diesem Zu-
sammenhang eine technische Herausforderung dar, die Ende der 1960er Jahre auf
den Begriff der Datenunabhängigkeit gebracht wurde.
Medienhistorisch ist die Entwicklung von digitalen Datenbanktechnologien
aufs Engste mit der Frage bzw. dem Streben nach Datenunabhängigkeit verwoben.
So hat die intensive Auseinandersetzung mit dem Problem die Formulierung der
Drei-Ebenen-Datenbankarchitektur durch die ANSI/X3/SPARC Study Group
on Data Base Management Systems nach sich gezogen, die seither als abstraktes
2 | Die Immaterialität und Virtualität digitaler Information stand vor allem in den
1980er und 90er Jahren im Zentrum des Mediendiskurses. Seit Anfang 2000 wird
demgegenüber vermehrt deren unhintergehbare Materialität betont und damit die
These der Immaterialität infrage gestellt.
Schluss 329
Metamodell der Informationsmodellierung in Datenbanken im engen Sinn von
Datenbankmanagementsystemen (DBMS) dient. Die ANSI/X3/SPARC-Daten-
bankarchitektur entwirft den Informationsfluss zwischen Nutzer und Datenbank
als zweifachen Übersetzungsprozess zwischen Oberfläche und Tiefe, d.h. jener im
Kapitel »Computer« im Anschluss an Luhmann entwickelten medialen Topologie,
in deren Rahmen sich die Medialität des Computers entfaltet. Im Rahmen dieser
Drei-Ebenen-Architektur werden die externen Gebrauchslogiken der Nutzer
durch die Einführung einer Mittel- und Mittlerebene weitgehend von der internen
Speicherlogik des Computers entkoppelt. Diese Zwischenebene bildet das kon-
zeptuelle Schema, in dem das Informationsmodell der Datenbank formal expliziert
ist.
Durch die strukturierte Speicherung von Informationen gemäß einem Informa-
tionsmodell – dem konzeptuellen Schema – machen Datenbanken im engen Sinn
von DBMS Informationen als Information adressierbar. Dies konnte im An-
schluss an Cassirer als eine Weise der Erschließung der Welt und somit als eine
kultur technische Form der symbolischen Formung in und mit Computern be-
schrieben werden. Das konzeptuelle Schema expliziert die Bedeutung, die digi-
talen Informationen implizit ist, indem es eine Struktur vorgibt, in die sämtliche
Informationen eingeordnet werden müssen. Anknüpfend an einen Begriffsvor-
schlag Luciano Floridis kann diese Strukturierung von Datenbankinformationen
als Übersetzung von Information über Realität in Information als Realität ver-
standen und beschrieben werden. Dadurch wird die computertechnische Ver-
waltung und Verarbeitung von Bedeutung ermöglicht.3 Die formale Explikation
eines Informationsmodells legt dabei fest, was in einer Datenbank als Information
zählt und infolgedessen im Rahmen eines solchen Informationssystems Informa-
tion ist. Die Grenzen des konzeptuellen Schemas bedeuten somit die Grenzen der
Welt, über die eine Datenbank informiert.4 In diesen Grenzen zeigt sich die Politik,
die Informations- und Datenmodellen innewohnt. Eine hierauf abzielende Kritik
darf jedoch nicht vergessen, dass das konzeptuelle Schema durch diese Begrenzung
zugleich einen Weltausschnitt »von einer neuen Seite her sichtbar« (Cassirer 2009
[1930]: 44) und für vielfältige mediale Praktiken anschlussfähig macht.
Der Explikation impliziter Bedeutungen sind enge Grenzen gesetzt, sodass
Computer nie die, sondern stets nur eine mögliche Bedeutung von Informationen
verwalten und verarbeiten können. Infolgedessen steht die computertechnische
Verwaltung und Verarbeitung von Datenbankinformationen in einem Spannungs-
3 | Die Strukturierung von Information ist, wie im Kapitel »Banken, Basen, Reservoirs«
(S. 202f.) herausgestellt wurde, nur eine Form der Übersetzung von Information
über Realität in Information als Realität, von der die Auszeichnung von Informa-
tion mittels Markup zu unterscheiden ist.
4 | Diese Formulierung ist an Ludwig Wittgensteins berühmten Ausspruch angelehnt
»Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt« (Wittgenstein
1984 [1921]: Satz 5.6).
330 Digitale Datenbanken
verhältnis zum menschlichen Interpretationsvermögen. Digitalen Informations-
sammlungen wohnt somit stets ein Bedeutungsüberschuss inne, der technisch
nicht eingeholt werden kann. Diese semantische Unterbestimmtheit birgt Konflikt-
potenzial, kann jedoch an den Benutzeroberflächen der Computerbildschirme auch
Handlungs- und Interpretationsspielräume eröffnen. So beruht die Etablierung
unterschiedlicher Nutzungsformen und Nutzungskulturen von Facebook und
Twitter in erheblichem Maß auf der unbestimmten Offenheit der zugrunde gelegten
Informationsmodelle und Datenstrukturen.5
Neben der medientheoretischen Betrachtung von Apparaturen der Datenspei-
cherung und Architekturen für Datenunabhängigkeit, welche den materiellen und
konzeptuellen Horizont digitaler Datenbanksysteme im engen Sinn von DBMS
bilden, galt es die konkreten Verfahren der computertechnischen Verwal tung
von Informationssammlungen in den Blick zu nehmen. Besonderes Augenmerk
wurde auf das relationale Datenmodell gelegt, das sich spätestens seit Anfang der
1980er Jahre als maßgebend erwies, aber unter den Bedingungen stetig wachsender
Datenmengen zunehmend an seine Grenzen gelangt. Dieses Modellierungs- und
Verwaltungsverfahren bedingt einerseits, wie Informationen in Datenbanken
struk turiert gespeichert werden, und andererseits, wie Nutzer mit Datenbankin-
formationen umgehen können, d.h. wie sie diese abfragen und auswerten können.
Für den nachhaltigen Erfolg des relationalen Paradigmas sind zwei Ursachen an-
zuführen: Erstens ermöglicht der Rückgriff auf die Mengenlehre, d.h. die mengen-
theoretische Konzeptualisierung von Datenbanken, die mathematische Forma-
lisierung von Operationen nicht nur mit einzelnen Informationseinheiten, sondern
mit Informationssammlungen; zweitens verfügt das relationale Datenmodell mit
der Tabelle als conceptual representation der Tiefenstruktur der Datenbank über
eine geeignete Denkfigur, welche Nutzern das Nachdenken über Datenbank-
operationen und das Arbeiten mit Datenbanken weitgehend ohne mathematisches
Vorwissen ermöglicht.
Die Verschränkung der Mengenlehre mit der Denkfigur der Tabelle im rela-
tionalen Datenmodell hat zwei medienpraktische Konsequenzen nach sich gezogen.
Zum einen ist es beim Umgang mit relationalen Datenbanken nicht mehr notwendig
anzugeben, wie Informationen in einer Datenbanken zu speichern bzw. zu finden
sind, sondern mit SQL zu deklarieren, was gespeichert bzw. gesucht wird. Dieser
5 | Zu Kulturen des Favorisierens auf Twitter siehe exemplarisch Paßmann et al.
(2014). Darüber hinaus ist jedoch auch zu konstatieren, dass Facebook, Twitter
und andere Web 2.0-Angebote unser kommunikatives Handeln mitunter auf
problematische Weise formatieren. Diesbezüglich unterstreicht Simanowski die
Arbitrarität der Selbstbeschreibungskategorien in Facebooks Timeline (vgl. 2012a:
23), in denen sich Bunz zufolge die affirmative Diskurslogik zeigt, welche dem
sozialen Netzwerk eingeschrieben ist: »Facebook barely needs to discipline its
users, instead it rather designs their actions, and these are positive« (Bunz 2013:
138).
Schluss 331
durch relationale Datenbanksysteme vollzogene Übergang von prozeduralen (wie
gefunden wird) zu deklarativen (was gesucht wird) Datenbankanfragen bedeutet
eine erhebliche Vereinfachung des Umgangs mit Datenbankinformationen. Zum
anderen erlaubt das relationale Datenmodell eine enorme Flexibilisierung der
Suchmöglichkeiten, da Beziehungen zwischen Informationseinheiten nicht mehr
durch physische Verweise (Pointer) in der Tiefe des Computers gespeichert werden
müssen, sondern bei der Abfrage durch sogenannte Verbundoperationen (Join)
etabliert werden können. Mithin wird es möglich, bei der Formulierung von Such-
anfragen neue Zusammenhänge zu erproben, indem Datenbankinformationen auf
unvorhergesehene Weise zueinander in Bezug gesetzt werden.
Obwohl die Bedeutung des relationalen Datenmodells kaum zu überschätzen
ist, stellt dieses nur ein spezifisches Verfahren der Herstellung computer-les-
barer Signifikanz dar. Dies zeigt sich im Vergleich zu Websuchmaschinen sowie
zur Idee des Semantic Web. Bedeutung im Sinn von Relevanz wird bei Websuch-
maschinen nicht im Rahmen eines Informationsmodells formal expliziert, sondern
durch Algorithmen kalkuliert. Algorithmische Verfahren der Zuschreibung von
Bedeutung können in dieser Hinsicht als Gegenmodell zur Modellierung von Be-
deutung im konzeptionellen Schema digitaler Datenbanken verstanden werden.
Doch auch diese Form der algorithmischen Auswertung beruht auf Datenbank-
technologien und damit auf der strukturierten Speicherung von Informationen. Um
das Web als Ganzes verwalt- und verarbeitbar zu machen, müssen Suchmaschinen-
betreiber das WWW in eine Datenbank (im engen Sinn) transformieren, deren
Informationen durch Algorithmen eindeutig adressiert und somit ausgewertet
werden können. Daten(banken) und Algorithmen sollten deshalb nicht medien-
theoretisch gegeneinander ausgespielt werden. Für ein besseres Verständnis der
digitalen Medienkultur – insbesondere unter den Bedingungen von Big Data – gilt
es vielmehr, deren wechselseitiges Bedingungsverhältnis im Kontext partikularer
Informationssysteme zu analysieren.
Dementsprechend wurde das Hauptaugenmerk der medientheoretischen Ana-
lyse digitaler Datenbanken auf die ambivalente Vielgestaltigkeit unterschiedlicher
Formen der Verwaltung, Abfrage und Auswertung von Informationssammlungen
gelegt. Eine so verstandene Kritik ist Kritik im wörtlichen Sinn des griechischen
krínein, d.h. von unterscheiden. Als Oberbegriff für digitale Informationssamm-
lungen besitzt die Datenbank, wie in Abgrenzung zu Lev Manovichs Beschreibung
der Datenbank als symbolischer Form der digitalen Medienkultur argumentiert
wurde, keine einheitliche mediale Logik. Bereits die Behandlung der Frage Was sind
Datenbanken? (Kapitel »Datenbank«) ließ eine Ambiguität zutage treten, welche
sich schließlich auch in den vielfältigen und heterogenen Verfahren des computer-
technischen Umgangs mit Informationssammlungen (Kapitel »Techno-Logik«) und
den mannigfaltigen medialen Praktiken mit Datenbanken (Kapitel »Phänomeno-
Logik«) widergespiegelt hat.
Die Betrachtung medientechnischer Konfigurationen der Versammlung und
Verwaltung von Informationen in und mit Computern sollten – ohne Anspruch
332 Digitale Datenbanken
auf Vollständigkeit zu erheben – die Notwendigkeit einer differenzierten und dif-
ferenzierenden Betrachtung unserer digitalen Medienkultur vor Augen führen.
Diese Notwendigkeit trat nicht zuletzt bei der Rekonstruktion der Genese der
Da tenbankidee entlang verschiedener Modelle der Datenbankkommunikation
im Kapitel »Banken, Basen, Reservoirs« deutlich hervor. Wenn in der technisch
orientierten Medientheorie Shannons nachrichtentechnisches Kommunikations-
modell und das hierauf basierende Informationskonzept bislang das Denken über
den Computer als Medium anleitete, konnten die Grenzen dieser Perspektive
in Rekurs auf die Geschichte der Datenbankidee aufgezeigt werden.6 Anstatt
nach dem Wesen des Computermediums in immer tieferen Schichten der Tech-
nologie zu suchen, sind die verschiedenen, stets kontingenten Gebrauchsformen
des Computers in den Blick zu nehmen und daraufhin zu befragen, welche
Kommunikationsmodelle ihnen eingeschrieben sind und was in deren Kontext
Information konstituiert. Ebenso darf sich die medientheoretische Betrachtung von
Datenbanken nicht auf eine Analyse der Techno-Logik der Verwaltung und Ver-
arbeitung von Informationssammlungen beschränken. Vielmehr sind auch die me-
dialen Praktiken in den Blick zu nehmen, in denen Datenbanken operativ werden.
In diesem Zusammenhang wurde eine Differenzierung von Phänomeno-Logiken
digitaler Datenbanken vorgeschlagen. Auch diese ist keinesfalls umfassend. Jedoch
konnten durch die Betrachtung der Datenbank als latenter Infrastruktur sowie
von Verfahren der Suche nach dem Einen und der Auswertung des Vielen zentrale
Dimensionen des Datenbankgebrauchs freigelegt werden.
Dabei wurde ein weiteres Mal deutlich, dass Datenbankinformationen durch
ein hohes Maß an Anschlussfähigkeit gekennzeichnet sind. Die in der unsicht-
baren Tiefe des Computers gespeicherten Informationen erweisen sich quasi als
»formlose Formen«, die vielfältige Möglichkeiten der Selektion, Auswertung und
Präsentation an den Benutzeroberflächen unserer Computer eröffnen. Aus dieser
Flexibilität resultiert nicht zuletzt der große Stellenwert, der digitalen Datenbanken
in der zeitgenössischen Medienkultur zukommt. Die Grenzen des Informations-
bestands sowie die Grenzen der Auswertungs- und Handhabungsmöglichkeiten der
versammelten Informationen bleiben indes gemeinhin unsichtbar, sodass Daten-
banken allzu leicht als grenzenlose und unbedingte Informationsressourcen er-
scheinen können.
Wie wiederholt herausgestellt wurde, gilt es nicht nur die vielfältigen Techniken
der Verwaltung von digitalen Informationen sowie die unterschiedlichen Praktiken
des Datenbankgebrauchs zu beleuchten, sondern auch diese Entgrenzungstendenz
als Imaginäres digitaler Datenbanken zu beschreiben, welches sich in unsere Vor-
stellungen über und unseren Umgang mit Datenbanken einschreibt. Wie Norbert
6 | Für die technikzentrierte Medienforschung im Anschluss an Kittler ist der Rekurs
auf die nachrichtentechnische Informationstheorie Shannons zum Gemeinplatz ge-
worden. Er wird in diesem Theoriekontext als »technical father of modern media
culture« (Parikka 2011: 59) betrachtet.
Schluss 333
Bolz bereits Anfang der 1990er Jahre festgestellt hat, ist eine der größten Heraus-
forderungen der sogenannten Daten- und Informationsflut »zu wissen, was man
weiß« (Bolz 1994b: 15). Das Imaginäre von Datenbanken artikuliert sich in den
Debatten über Big Data hingegen insbesondere in dem Versprechen, in bereits
bekannten Informationen durch Data Mining, Information Visualization etc. neue
Zusammenhänge und neues Wissen entdecken zu können.
In diesem Zusammenhang wurde jedoch darauf hingewiesen, dass sich die
These als problematisch erweist, Computeralgorithmen könnten in Informations-
sammlungen theorie- und hypothesenfrei Korrelationen zwischen Variablen ent-
decken. Denn auch wenn keine Vermutungen über Zusammenhänge zwischen
konkreten Variablen die Erforschung von Big Data anleiten mögen, wird der Ana-
lyseprozess stets durch die Wahl des Auswertungsverfahrens bedingt. Infolgedessen
sind der computergestützten Analyse von Big Data immer auch Vorannahmen
eingeschrieben, welche jedoch zumeist implizit bleiben. Diese zu explizieren und
damit die mit Big Data einhergehenden epistemologischen Verschiebungen genauer
zu beschreiben bleibt eine Herausforderung. Auch weist die endgültige Beant-
wortung der Frage nach den medienkulturellen Auswirkungen digitaler Daten-
banken über die Grenzen dieses Buchs hinaus. Dennoch soll ausgehend von der hier
entwickelten medientheoretischen Perspektive auf Datenbanken abschließend auf
einige weiterführende Aspekte, Dimensionen und Probleme hingewiesen werden,
die zum Ausgangspunkt weiterer Untersuchungen der digitalen Datenbankkultur
genommen werden können.
DeKonstruKtion Der DatenbanKFiKtion
Durch Datenbanken wird eine Fiktion vollständiger Informationen wachgerufen,
welche mit der Hoffnung Hand in Hand geht, die Welt vollständig erfahren und
kontrollieren zu können. Zum Ausdruck kommt dieser Glaube beispielsweise in
den Metaphern des World Brain (Wells 1971 [1938]) und der Infosphäre (Floridi
1999), welche die Vorstellung nahelegen, es gebe »einen Gesamtwissensbestand, der
objektiv-virtuell existiert und an dem subjektiv alle teilhaben können und viele fak-
tisch auch teilhaben« (Sommer 2002b: 325). Dieses Ideal eines objektiven Gesamt-
wissensbestands manifestiert sich in der vermeintlichen Totalität der Datenbank
als einem unerschöpflichen Informationsbestand und in den vielfältigen Möglich-
keiten, die in der Datenbank ruhenden virtuellen Informationen an der Oberfläche
zur Erscheinung zu bringen.7 Indem die Datenbank (praktisch oder imaginär)
aufs Ganze zielt und die Kontingenz der Welterfahrung durch die kontingenten
Zugriffsformen auf den Informationsbestand verdoppelt, wird sie zur Welt und
7 | Die verschiedenen Möglichkeiten, Datenbankinformationen an der Bildschirm-
oberfläche zur Erscheinung zu bringen, erstrecken sich auf deren Selektion, Anord-
nung, Auswertung und Darstellung.
334 Digitale Datenbanken
die Welt lässt sich fortan als Datenbank begreifen, deren Informationspotenziale
bloß gehoben werden müssen.8 Sofern die ganze Welt von Datenbanken eingeholt
zu werden scheint, gibt es kein Außen der Datenbank mehr und man kann dem
Eindruck erliegen, »in der Wirklichkeit des Unverdrängten« (Porombka 1998: 318)
angekommen zu sein.
Verstärkt wird dieser medienkulturwissenschaftlich zu problematisierende Ein-
druck durch die Verweislogik von Datenbankschnittstellen. Durch diese werden
Informationen als Inhalte einer Datenbank verkörpert, denn indem Datenbank-
inhalte am Interface auf eine bestimmte Weise zur Erscheinung kommen, wird
die Datenbank als eine dahinter oder darunter liegende Informationsressource
erfahrbar. Die Datenbank bildet das Zentrum, in dem Informationen als Inhalte
(der Datenbank) Bestand haben und materiell präsent sind. Infolgedessen erscheint
der Content der Datenbank, wie Alan Liu in beiläufiger Anlehnung an Derrida
festgestellt hat, als »semiotically transcendental« (Liu 2008: 217).9 Dies ist insofern
bemerkenswert, als Derrida in seinem Essay Die Struktur, das Zeichen und das Spiel
im Diskurs der Wissenschaften vom Menschen einen Bruch im Denken der »Struk-
turalität der Struktur« (Derrida 1997b: 114) diagnostiziert, der seines Erachtens
einen »Verzicht jeglicher Bezugnahme auf ein Zentrum, auf ein Subjekt, auf eine
privilegierte Referenz, auf einen Ursprung oder auf eine absolute arche« (Derrida
1997b: 127) zur Folge hat. Mit dem Verlust des Zentrums geht für Derrida die
»Abwesenheit eines transzendentalen Signifikats« (Derrida 1997b: 117) einher, wes-
halb sich das Spiel der Signifikanten ins Unendliche hinein erweitert. Sofern die
Datenbank jedoch als neues Zentrum des Diskurses fungiert, wird das unbedingte
Spiel der Signifikanten unterbrochen. Die Unendlichkeit des Sagbaren wird von
der Endlichkeit des Gesagten und in Datenbanken Gespeicherten verdrängt und
das »Spiel des Bezeichnens« (Derrida 1997b: 117) wird vom Spiel des Darstellens,
Selektierens, Ordnens und Auswertens ersetzt. Jedoch weist auch dieses Spiel ver-
meintlich ins Unendliche, da Datenbanken als ein »mehrdeutiges Möglichkeitsfeld«
(Gugerli 2007a: 30) erfahrbar werden, für das der »Übergang von der gezielten Suche
nach Einträgen hin zur Recherche als einer ergebnisoffenen Abfrage« (Gugerli 2009:
72) charakteristisch ist.
Vor diesem Hintergrund interpretiert Gugerli Datenbanken nicht nur als kon-
krete Technologien, sondern auch als ein Denkmodell, welches für die Möglich-
8 | Diese Diagnose des Weltwerdens der Datenbank findet sich beispielsweise im
Untertitel der 2009 von David Gugerli veröffentlichten Monographie Suchmaschinen:
Die Welt als Datenbank. Während Gugerli eine tendenziell affirmative sozial- und
technikgeschichtliche Perspektive einnimmt, wird im Folgenden kritisch nach den
philosophischen Implikationen gefragt, die die Totalisierung von Datenbanken nach
sich zieht.
9 | Liu formuliert diese Beobachtung im Kontext seiner Analyse der Ideologie des
Aufschreibesystems 2000, das seines Erachtens auf dem Ideal der Trennung von
Inhalt und Form beruht. Siehe hierzu S. 287ff.
Schluss 335
keit einsteht, »dass diesseits und jenseits der Bildschirme der kombinatorische
Freiheitsgrad jeder ›signifying practice‹ erweitert werden kann« (Gugerli 2007a:
14). Doch auch wenn Datenbanken auf Ergebnisoffenheit hin entworfen sind, ist
das unbedingte Spiel der Kombination und Rekombination, der Auswertung und
Präsentation von Datenbankinformationen eine Imagination.10 Es findet seine
Grenzen darin, welche Informationen wie in spezifische Datenbanken gelangen und
welche Operationen diese Datenbanken als phänomeno-technische Konfigurationen
in ihrem Bestand auszuführen erlauben.
Datenbanken als ein vollständiges Reservoir digitaler Informationen zu
betrachten und in ihren Inhalten transzendentale Signifikate zu sehen birgt dem-
zufolge ein Gefahrenpotenzial. Dieses Gefahrenpotenzial ist digitalen Datenbanken
jedoch inhärent und resultiert aus deren Tendenz zur Universalisierung, die auf
der Unsichtbarkeit der Grenzen des Informationsbestands sowie der Grenzen der
Auswertungs- und Handhabungsmöglichkeiten von Datenbankinformationen be-
ruht. Infolgedessen bedarf es einer reflexiven Auseinandersetzung mit der Daten-
bankpraxis, welche sich von der beschriebenen Tendenz zur Universalisierung
emanzipiert, indem sie die vielfältigen Grenzen aufzeigt, die dem Versuch, alle
Informationen in digitaler Form zu versammeln, stets gesetzt sind. Dies weist den
Weg in Richtung einer kritischen Datenbankpraxis, welche gerade in Anerkennung
der Universalisierungstendenz digitaler Datenbanken deren fortwährende tech-
nische, soziale und historische Begrenztheit erfahr- und handhabbar macht und
damit der Homogenisierung von Information entgegenwirkt. Eben hierfür macht
sich Bowker stark:
»We need to open a discourse – where there is no effective discourse now – about
the varying temporalities, spatialities and materialities that we might represent in
our databases, with a view to designing for maximum flexibility and allowing as much
as possible for an emergent polyphony and polychrony. Raw data is both an oxy-
moron and a bad idea; to the contrary, data should be cooked with care.« (Bowker
2005: 184)
Vor dem Hintergrund seiner historischen Analyse von Archivierungs- und Er-
innerungspraktiken in den Naturwissenschaften unterbreitet Bowker zwei kon-
krete Empfehlungen, wie dies zu realisieren sei: Erstens gilt es in der Praxis den Ent-
wicklungs- und Entstehungskontext von Datenbanken im Rahmen des Möglichen
10 | Gugerli interessiert sich vorrangig für die Flexibilisierung von Suchmöglichkeiten,
weshalb er die Grenzen des technisch Möglichen nicht in den Blick nimmt. Dass
die beliebige Kombinier- und Rekombinierbarkeit von Information letztlich eine
Wunschkonstellation ist, deren technische Einlösung noch immer nicht stattgefunden
hat, hinterfragt er nicht kritisch.
336 Digitale Datenbanken
zu bewahren;11 zweitens soll man davon absehen, die Unterschiede zwischen ver-
schiedenen Formen von Informationen durch Standardisierung zu nivellieren.
Vielmehr ist zu erkunden, wie die Heterogenität von Informationsbeständen für die
Nutzer erfahrbar gemacht werden kann (vgl. Bowker 2005: 183f.). Bedenkenswert
sind diese Vorschläge nicht nur für Wissenschaftsarchive im Besonderen, sondern
auch für digitale Archive im Allgemeinen. Wie in Bezug auf Websuchmaschinen
diskutiert wurde, stellt das Öffnen der Black Box Datenbank jedoch nicht immer
eine brauchbare Lösung dar. Durch die Offenlegung der genauen Funktionsweise
von Suchmaschinen wäre zwar Transparenz gewonnen, jedoch um den Preis von
deren Funktionalität. Gefunden würde dann in erster Linie und vielleicht sogar nur
das, was entsprechend der Rankingprinzipien der Suchmaschinenalgorithmen am
effektivsten optimiert wurde. Über Bowkers Vorschläge hinaus gilt es daher, weitere
Ansätze und Praktiken zu erkunden, die es erlauben, die Datenbank als Zentrum
des Diskurses zu dezentrieren.
erinnern unD vergessen: Digitale archive
Das komplexe Wechselspiel zwischen der Realität und dem Imaginärem digitaler
Datenbanken zeigt sich auch im Kontext digitaler Archivierungspraktiken sowie in
den Debatten über das digitale Gedächtnis. Auf der einen Seite scheint sich durch
die Verfügbarkeit immer leistungsfähigerer Computer und Speicher der Wunsch
nach einem perfekten Gedächtnis- und Archivierungsmedium erfüllen zu können,
den Paul Otlet bereits Anfang des 20. Jahrhunderts gehegt hat: »[A]ll the writings
ought to be reduced by a form of disintegration and readjustment into the form of
files each conceived as chapters and paragraphs of a single universal book« (Union
of International Associations 1990 [1914]: 119). Verfolgten Otlet und sein Mitstreiter
Henri La Fontaine mit dem 1895 gegründeten Office International de Bibliographie
sowie dem Institut International de Bibliographie noch die Vision eines univer-
sellen Buchs, lassen es Datenbanktechnologien heute möglich erscheinen, nichts
mehr vergessen zu müssen (vgl. Christolova 2012).12 So arbeitet Gordon Bell seit
den 1990er Jahren an einem System, das Menschen die vollständige Archivierung
ihrer selbst erlaubt. Das Projekt MyLifeBits ist dabei zugleich ein Selbstversuch Bells,
die eigene Vergangenheit mithilfe digitaler Datenbanken möglichst umfassend zu
dokumentieren (Bell/Gemmell 2009; Gemmell et al. 2006; Gemmell et al. 2002).
Ein ähnliches Ziel verfolgt auch Facebook mit der 2011 eingeführten Profilansicht
11 | Bowker unterstreicht explizit, dass es nicht das Ziel sein sollte, den gesamten
Kontext partikularer Datenbanken zu bewahren, denn, so schreibt er, »a perfect
archival system is a chimera« (Bowker 2005: 183).
12 | Aus den gemeinsamen Anstrengungen von Otlet und La Fontaine ging das
Mundaneum hervor, in dem Christolova einen Vorläufer von Datenbanken und des
Internet erblickt (vgl. 2012: 35f.).
Schluss 337
Timeline, welche sämtliche Aktivitäten eines Nutzers in einem vertikalen Zeit-
strahl arrangiert und somit als Chronik seiner selbst präsentiert (vgl. Simanowski
2012a: 21f.).13 Hinter Timeline verbirgt sich das Versprechen, dass Nutzer ihre ge-
samte V ergangenheit fortan auf Facebook organisieren und erinnern können. Der
Facebook-Gründer Mark Zuckerberg hat dies bei der öffentlichen Vorstellung der
Timeline auf der Entwicklerkonferenz F8 auf den Punkt gebracht: »All your stories,
all your apps and a new way to express who you are« (Zuckerberg 2011: 16:20).
Der Utopie eines universellen digitalen Archivs steht auf der anderen Seite
die Dystopie des totalen Vergessens gegenüber. Denn das »Gedächtnis« digitaler
Speichertechnologien ist relativ kurzlebig. Verschiedenen Schätzungen zufolge über-
dauern Daten in Digitalspeichern kaum mehr als 30 Jahre (vgl. Loebel 2007: 510f.).
Auch die dauerhafte Verfügbarkeit von geeigneter Hard- und Software, um digitale
Medienobjekte beispielsweise von Disketten oder CD-ROMs auslesen, öffnen und
darstellen zu können, stellt eine Herausforderung dar. In Anbetracht dessen kon-
statierte der Archivierungsexperte Jeff Rothenberg bereits 1995 lakonisch: »Digital
information lasts forever – or five years, whichever comes first« (Rothenberg 1995:
42). Ein ähnliches Problem diskutiert Stewart Brand, der in Escaping the Digital
Dark Ages die Entwicklung von Strategien einfordert, um das Erbe digitaler Kul-
turen dauerhaft zu bewahren.14 Brand beschreibt die Situation mit dramatischen
Worten: »there has never been a time of such drastic and irretrievable information
loss as right now« (Brand 1999: 46).
Die Kurzlebigkeit digitaler Informationen zeigte sich zur Jahrtausendwende
auch im WWW. So bezifferte Peter Lyman die durchschnittliche Lebensdauer einer
Webseite auf 44 Tage (vgl. Lyman 2002: 38). Unter der Bedingung dynamischer
und personalisierter Webangebote erweist sich die Frage nach der Lebensdauer von
Webseiten mittlerweile sogar als weitgehend sinnlos. In Reaktion auf die Kurzlebig-
keit von Webinhalten wurde bereits 1996 die gemeinnützige Organisation Internet
Archive gegründet, die seither versucht, das gesamte Web zu archivieren. Der An-
spruch des Internet Archive ist umfassend, wie im Banner der Webseite archive.org
zu lesen ist: »Universal access to all human knowledge«.15 Doch das Bestreben, allen
13 | Da es Facebook seinen Nutzern erlaubt, Inhalte und Ereignisse aus der Timeline
auszublenden, wäre zudem der Aspekt des Selbstmanagements zu bedenken, den
Ramón Reichert bei seiner Analyse von Amateurkulturen im Netz hervorgehoben hat
(vgl. 2008: 37ff.).
14 | Mit der Warnung vor einem bevorstehenden »digital dark age«, von dem man
aufgrund der Flüchtigkeit digitaler Information künftig kein Gedächtnis mehr ha-
ben werde, stützt sich Brand auf Danny Hillis, der diese Gefahr erstmals 1998
konstatiert hat (vgl. Brand 1999: 46f.).
15 | Die folgende Betrachtung des Internet Archive beschränkt sich ausschließlich
auf das Webarchiv. Darüber hinaus verfügt das Archiv über eine große Sammlung
an Texten, Audio-Mitschnitten, Musik, Filmen und Software. Registrierte Nutzer
können an diesem Archiv mitwirken, indem sie Dokumente hochladen und diese
338 Digitale Datenbanken
Zugriff zum Gesamtwissensbestand der Menschheit zu gewähren, bricht sich an
der Realität partikularer Informationssysteme, in denen Informationen stets nur
auf bestimmte Weise versammelt, verwaltet und verarbeitet werden können. Dass
dem Webarchiv des Internet Archive Grenzen gesetzt sind, gesteht dessen Mit-
begründer Brewster Kahle durchaus ein:
»The text, graphics, audio clips and other data collected from the Web will never be
comprehensive, because the crawler software cannot gain access to many of the
hundreds of thousands of sites. Publishers restrict access to data or store docu-
ments in a format inaccessible to simple crawler programs. Still, the archive gives
a feel of what the Web looks like during a given period of time even though it does
not constitute a full record.« (Kahle 1997: 83)
Anders als Kahle nahelegt, sind Zugriffsbeschränkungen und ähnliche Restrikti-
onen jedoch nicht die einzigen Schranken der Archivierung des WWW. Vielmehr
ist dem Webarchiv eine spezifische Sammel-, Speicher- und Zugriffslogik inhärent,
die es zu untersuchen gilt. Dies erlaubt es, die »scheinbar so unschuldige Tätigkeit
der Aufbewahrung von Dokumenten« (Ricœur 1991: 187) kritisch zu beleuchten.
An dieser Stelle muss eine umfassende Analyse der Archivlogik des Internet
Archive ausbleiben. Dennoch sollen an diesem Beispiel schlaglichtartig mögliche
Perspektiven einer medientheoretisch informierten Archivkritik aufgezeig t werden.
Einer solchen Kritik kann es nicht darum gehen, die Legitimität des Webarchivs
grundsätzlich in Frage zu stellen. Im Gegenteil, das Internet Archive stellt eine
wichtige Ressource für die Erforschung und künftige Erinnerung der Vergangenheit
des Web dar, wie beispielsweise die von Richard Rogers gegründete Digital Methods
Initiative gezeigt hat (vgl. Rogers 2013: 61f.).16
Die Grenzen, aber auch Möglichkeiten von digitalen Archiven im Allgemeinen
und des Internet Archive im Besonderen treten zum Vorschein, wenn man nach
den Vorentscheidungen fragt, auf denen die Archivierung beruht und welche die
Archivpraxis strukturieren. Hinsichtlich des Internet Archive ist zunächst fest-
zustellen, dass dieses ähnlich wie Google und andere Websuchmaschinen einer
Dokumentlogik folgt. Das WWW wird mithilfe von Webcrawlern durchsucht,
kopiert und hierdurch archiviert. Infolgedessen kann prinzipiell nur das ins Web-
archiv eingehen, was im WWW als Webseite abgefragt werden kann. Da heute eine
Vielzahl von Webseiten nicht als statische Dokumente gespeichert sind, sondern bei
der Abfrage durch datenbankgestützte CMS dynamisch erstellt werden, drängt sich
mit Metadaten versehen. Hieraus resultieren jedoch andere Herausforderungen.
So werden z.B. immer wieder Werbung und Spam zu diesem Dokumentarchiv hin-
zug efügt.
16 | Eine anwendungsorientierte Beschreibung der Nutzungsmöglichkeiten des
Internet Archive für Forschungszwecke findet sich auf der Webseite der Digital
Methods Initiative (2012).
Schluss 339
zudem die Frage auf: Was genau wird eigentlich bewahrt, wenn eine Webseite nur
für den Archivcrawler erzeugt wird, ohne dass andere Nutzer jemals dieselbe Seite
mit denselben Inhalten angezeigt bekommen?
Auf einer zweiten, grundsätzlicheren Ebene ließe sich das Ziel des Internet
Archive hinterfragen, die Gesamtheit des WWW automatisch zu archivieren.17 Das
Bewahren von Allem ist, wie Viktor Mayer-Schönberger unterstrichen hat, jedoch
nicht intrinsisch wertvoll.18 Er argumentiert, dass Vergessen auch im digitalen
Zeitalter nützlich und notwendig ist (vgl. Mayer-Schönberger 2008; 2009: 92ff.).
Daher besteht in der Entwicklung von brauchbaren Strategien und Technologien
des digitalen Vergessens nach Ansicht Mayer-Schönbergers eine zentrale Heraus-
forderung der zeitgenössischen Medienkultur. Das Problem ist jedoch, Wichtiges
17 | Dass die bloße Speicherung von Vergangenem nicht hinreichend ist, hat
Pierre Nora bereits in den 1980er Jahren mit seiner Kritik des archivarischen
Gedächtnisses unterstrichen, welches sich bloß der Registrierung und Bewahrung
von Spuren der Vergangenheit widme: »Es [das archivarische Gedächtnis, M.B.] stützt
sich ganz und gar auf die deutlichste Spur, den materiellsten Überrest, das sicht-
barste Bild. Die Bewegung, die mit der Schrift begonnen hat, vollendet sich im HiFi
und im Magnetband. Je weniger das Gedächtnis von innen her erlebt wird, desto
mehr bedarf es äußerer Stützen und greifbarer Anhaltspunkte einer Existenz, die
nur dank dieser noch lebt. Daher die Archivierwut, die den Menschen von heute
kennzeichnet, und die sich auf die vollständige Bewahrung sowohl der gesamten
Gegenwart als auch der Vergangenheit richtet. […] Die Erinnerung hat ganz und gar
die Form genauester Rekonstitution angenommen: ein registrierendes Gedächtnis,
das dem Archiv die Sorge überläßt sich zu erinnern und eine Vielzahl von Zeichen
hinterläßt, wo immer es sich niederläßt, wie eine Schlange ihre abgestreifte Haut.
[…] Heute, da die Historiker sich vom Kult der Quelle freigemacht haben, opfert die
ganze Gesellschaft der Religion des Bewahrens und der Archivüberproduktion. […]
Das ›papierne Gedächtnis‹, von dem Leibniz gesprochen hat, ist eine autonome
Institution aus Museen, Bibliotheken, Depots, Dokumentationszentren, Datenbanken
geworden« (Nora 1990: 19). Während das Gebot der Archivierung von allem von
außen an Archive herangetragen werde, wüssten Historiker und Archivare, dass sie
auch mit dem Vergessen betraut sind: »Heute sind es die Privatunternehmen und
die öffentlichen Verwaltungen, die Archivare mit der Empfehlung akkreditieren, daß
sie alles aufbewahren, während die Berufshistoriker und -archivare begriffen haben,
daß das wesentliche ihres Metiers in der Kunst der kontrollierten Vernichtung liegt«
(Nora 1990: 20).
18 | Mayer-Schönberger argumentiert, dass unter den Bedingungen digitaler Medien
nicht mehr das Erinnern, sondern das Vergessen zu einem Problem wird. Dies
erweise sich als eine Herausforderung, da die Menschheit im Lauf ihrer Geschichte
vor allem Strategien und Techniken gegen des Vergessen entwickelt habe: »Für
uns Menschen galt seit Jahrtausenden: Vergessen ist einfach, Erinnern ist schwer.
Vergessen steckt in uns.« (Mayer-Schönberger 2008: 9).
340 Digitale Datenbanken
von Unwichtigem und Wertvolles von Wertlosem zu unterscheiden.19 Neben dem
Hinweis auf die generelle Schutzwürdigkeit unserer digitalen Vergangenheit dient
diese Schwierigkeit Kahle und dem Internet Archive bemerkenswerterweise als wei-
teres Argument für ihr Unterfangen, die Geschichte des ganzen Web zu bewahren.
Mit digitalen Computertechnologien ist es leichter, alles zu sammeln und zu
speichern, als eine Auswahl zu treffen (vgl. Kahle 2007: 24). Hierdurch wird das von
Mayer-Schönberger aufgeworfene Problem jedoch nicht gelöst, sondern verschoben.
Wird bei der Archivierung keine Auswahl getroffen, muss dies bei der späteren Nut-
zung des Archivs geleistet werden. Bislang fehlen jedoch geeignete Werkzeuge, um
effektiv im Webarchiv relevante historische Informationen zu finden. Abgefragt
werden können archivierte Webseiten nur unter Angabe der genauen URL mit der
sogenannten Wayback Machine, die eine Liste historischer Versionen der Webseite
ausgibt, aus der die Nutzer die für sie interessanten Zeitpunkte auswählen können.20
Infolgedessen stellt nicht nur die Bewahrung des Vergangenen eine Heraus-
forderung dar, sondern auch die Nutzbarkeit des Archivs, welche die Voraussetzung
für spätere Archivlektüren bildet. Ohne effektive Zugriffsmöglichkeiten fallen die
Ressourcen des Webarchivs ebenso dem Vergessen anheim: »Das Sammeln und das
Aufbewahren entwickeln sich scheinbar paradox zu einem Vernichtungsakt« (Hoff-
mann 1997: 272).
Schließlich ist zu bedenken, dass nicht nur Webseiten rasanten Veränderungen
unterliegen. Auch das Web als Ganzes hat seit der Gründung des Internet Archive
tiefgreifende Veränderungen durchlaufen. Das Aufkommen des Web 2.0 kann
in dieser Hinsicht als Oberbegriff für vielfältige Entwicklungen weg von der
Dokumentlogik des Web der ersten Generation verstanden werden. Kollaborative
Online-Enzyklopädien wie Wikipedia, soziale Netzwerke wie Facebook und
Mikrobloggingdienste wie Twitter erfordern alternative Archivierungsstrategien.21
Da das Internet Archive weiterhin an der Dokumentlogik und der crawlerbasierten
Archivierung festhält, wird die Geschichte des Web 2.0 in diesem Webarchiv nicht
oder nicht adäquat abgebildet. Infolgedessen hat das Internet Archive spätestens seit
19 | Um im digitalen Zeitalter das Vergessen wieder zu ermöglichen, schlägt Mayer-
Schönberger ein Verfallsdatum für digitale Daten vor: »Führen wir ein Ablaufdatum
für Daten ein und verpflichten Softwarehersteller, Software zu erzeugen, die
neben dem Erstellungsdatum, der Dateigröße und dem Verfasser und anderen
Metainformationen auch ein Ablaufdatum vorsieht. Technisch ist dies kein Problem«
(Mayer-Schönberger 2008: 15). Hierdurch könne zwar potenziell Wertvolles gelöscht
werden, aber dies sei weniger schlimm, als in wertlosen Informationen zu ertrinken.
20 | Die Implementierung von effektiven Zugriffs-, Such- und Auswertungsmecha-
nismen für das Webarchiv stellt eine erhebliche technische Herausforderung dar
(vgl. Arms et al. 2006a, b).
21 | Zum Teil verfügen diese Web 2.0-Angebote über eigene Archivierungsstrategien,
wie z.B. die Versionsgeschichte von Wikipedia-Einträgen.
Schluss 341
Mitte der 2000er Jahre enorm an Repräsentativität und damit auch an Aussagekraft
eingebüßt. Dies wird jedoch nicht von dem Archiv selbst erinnert.
Fetischisierung Des Quantitativen
Auch wenn in Datenbanken keineswegs nur numerische Informationen erfasst
und verwaltet werden können, geht mit dem Aufkommen von digitalen Tech-
nologien der Versammlung und Verwaltung von Informationen eine Tendenz zur
Quantifizierung einher, die in einer problematischen Fetischisierung des Quanti-
tativen mündet.22 Der Deutungsanspruch quantitativer Erhebungs- und Auswer-
tungsverfahren dringt zunehmend in alle Bereiche unseres gesellschaftlichen und
sozialen Lebens vor. Zählbarkeit und quantitative Auswertbarkeit werden zum
Maßstab des Wissens, wobei quantitative Informationen nicht zuletzt auch die
Grundlage für Entscheidungen bilden und handlungsleitend werden. Die sich im
Rahmen der Digital Humanities etablierenden Formen der quantitativen Kul-
turanalyse sowie der Hype um Formen des Datenjournalismus und Information
Visualization sind Beispiele hierfür.23 Wie die im Kapitel »Phänomeno-Logik« dis-
kutierten Beispiele der Epidemiefrüherkennung und der Terrorprävention zeigen,
handelt es sich nicht nur um ein Wissen, das sich auf unsere Vergangenheit richtet,
sondern in erheblichem Maße auch auf die Zukunft, die durch quantitative Echt-
zeitanalysen der Gegenwart kontrollier- und gestaltbar werden soll.
Gegen die Verabsolutierung von Messbarkeit und Quantifizierbarkeit wendet
Martin Seel ein: »Die messbare Seite der Welt ist nicht die Welt; sie ist die messbare
Seite der Welt« (Seel 2009: 63). Seines Erachtens mag sich zwar alles in quantitativen
Zusammenhängen erfassen und beschreiben lassen, doch sei dies oftmals nicht
hinreichend. Wie Seel exemplarisch ausführt, kann es nützlich sein, die Maße einer
Wohnung zu kennen, jedoch vermag dieses quantitative Wissen eine Besichtigung
nicht zu ersetzen: »Alles Erscheinen mag auf messbaren Verhältnissen beruhen, so-
viel wir wollen, doch es erfüllt sich nicht in ihnen, sondern darin, wie es für wahr-
nehmende Wesen mit einer bestimmten sinnlichen Ausstattung – ist« (Seel 2009:
64). Dass Seel vehement auf den Grenzen insistiert, die der quantitativen Erfassung
der Welt gesetzt sind, kann als ein erstes, wenngleich schwaches Indiz für die
diagnostizierte Fetischisierung des Quantitativen betrachtet werden.
Jedoch ist die Privilegierung des Mess-, Zähl- und Berechenbaren weder
eine neue Entwicklung noch ist sie spezifisch für die digitale Medienkultur.
So konstatierte Edmund Husserl beispielsweise in Die Krisis der europäischen
22 | Zum Spannungsverhältnis zwischen quantitativen und qualitativen Analyseme-
thoden im Bereich digitaler Datenbanken siehe auch Katherine Hayles Diskussion des
Einsatzes von Geoinformationssystemen in den Geistes- und Kulturwissenschaften
(vgl. 2012: 196).
23 | Siehe hierzu S. 307ff.
342 Digitale Datenbanken
Wissenschaften eine mit der Neuzeit einsetzende Mathematisierung der Welt, die
im »Konnex mit der Meßkunst« (Husserl 1996: 33) zum Garant von Objektivität,
wissenschaftlicher Exaktheit und Wissenschaftlichkeit überhaupt wurde (vgl.
Husserl 1996: 2f.).24 Hiervon zeugt nicht zuletzt die geläufige Zuschreibung von
Härte, Strenge und Exaktheit zu den quantitativ und mathematisch verfahrenden
(Natur-)Wissenschaften, von denen die sogenannten weichen nicht-quantitativen
Wissenschaften unterschieden werden.
Ungeachtet der phänomenologisch motivierten Kritik, die Husserl in seiner
Krisisschrift an der Mathematisierung und der damit einhergehenden Tech-
nisierung der Welt formuliert, zeigt dessen Abhandlung den zentralen Stellenwert
auf, der dem Zähl-, Mess- und Berechenbaren seit Jahrhunderten zuerkannt wird.
In gewisser Weise weist auch Michel Foucault auf diesen Umstand hin, wenn er in
der ersten Vorlesung zur Geschichte der Gouvernementalität herausstellt, dass die
quantitative Bevölkerungserfassung durch die Statistik als der »Wissenschaft vom
Staat« (Foucault 2006: 152) seit dem Ende des 16. Jahrhunderts sukzessive zu einem
zentralen Bestandteil der staatlichen Regierungskunst wurde. In der Folgezeit ist
für die Regierung nicht mehr das Individuum, sondern die Bevölkerung »das ab-
schließende Zielobjekt« (Foucault 2006: 70), welche als kollektives Subjekt-Objekt25
durch Statistik erst erkenn- und damit regierbar wurde:
»Die Statistik läßt, indem sie die der Bevölkerung eigenen Phänomene zu quantifi-
zieren erlaubt, deren nicht auf den kleinen Rahmen der Familie reduzierbare Eige-
nart zutage treten. Abgesehen von einer bestimmten Anzahl von Restthemen, die
moralische oder religiöse Themen sein können, verschwindet die Familie als Modell
der Regierung.« (Foucault 2006: 157)
Durch das Zählen und Schätzen von Geburten- und Todesraten, von Todesursachen
und Verbrechen, aber auch von Handelsleistungen und Steuererträgen wurde die
24 | Die Welt in ihrer Konkretheit ist Husserl zufolge nicht mathematisch. Sie wird
vielmehr indirekt mathematisiert und hierdurch methodisch objektiviert (vgl. Husserl
1996: 43): »Mathematik als Reich echter objektiver Erkenntnis (und Technik unter
ihrer Leitung), das war für Galilei und schon vor ihm im Brennpunkt des den ›modernen‹
Menschen bewegenden Interesses für eine philosophische Welterkenntnis und
eine rationale Praxis. Es muß Maßmethoden geben für alles, was Geometrie,
was Gestaltenmathematik in ihrer Idealität und Apriorität umfaßt. Und die ganze
konkrete Welt muß sich als mathematisierbar-objektive erweisen, wenn wir jenen
einzelnen Erfahrungen nachgehen und alles an ihnen vorausgesetztermaßen der
angewandten Geometrie zu Unterstellende wirklich messen, also die entsprechenden
Maßmethoden ausbilden. Wenn wir das tun, muß sich die Seite der spezifisch
qualitativen Vorkommnisse indirekt mitmathematisieren.« (Husserl 1996: 39f.)
25 | Foucault bezeichnet die Bevölkerung als kollektives Subjekt-Objekt, welches
zugleich politisches Subjekt und Objekt des Regierens sei (vgl. 2006: 70ff.).
Schluss 343
Bevölkerung als Bevölkerung beschreibbar (vgl. Foucault 2006: 396). In der von
Foucault konstatierten Etablierung einer neuen Regierungskunst auf der Grund-
lage dieses Wissens zeigt sich die bereits relativ lang andauernde Relevanz des
Quantitativen im Bereich staatlicher Machtausübung.
Dass quantitativen Wissensformen ein zentraler Stellenwert zukommt, ist
keineswegs neu, wie im Rekurs auf Husserl einerseits und Foucault andererseits
skizzenhaft gezeigt wurde.26 Dennoch scheint die Privilegierung des Quantitativen
im Kontext der digitalen Medienkultur eine neue Qualität anzunehmen. So
konstatiert Bruno Latour 2007 in einem kurzen Text beispielsweise, dass die
Sozialwissenschaften durch die Verfügbarkeit von unüberschaubaren Mengen an
(nutzergenerierten) Informationen und die massenhafte Erfassung von Nutzungs-
daten in und durch digitale Medien(technologien) ihre Erkenntnisse endlich auf
eine ähnlich große empirische Basis stellen können wie die Naturwissenschaften:
»[S]ocial sciences [...] can finally have access to masses of data that are of the same
order of magnitude as that of their older sisters, the natural sciences« (Latour
2007). Auch wenn nach Ansicht von Latour die Natur der Naturwissenschaften
und das Soziale der Sozialwissenschaften problematische Kategorien sind, verfüge
die Soziologie in der digitalen Medienkultur endlich über die »empirical means of
its scientific ambition« (Latour 2007).27 Die zunehmende traceability von Nutzern
und ihren Handlungen in digitalen Medien ermögliche sogar die Erforschung der
Tiefenstrukturen der menschlichen Psyche und unserer Imaginationen:
»The precise forces that mould our subjectivities and the precise characters that
furnish our imaginations are all open to inquiries by the social sciences. It is as if
the inner workings of private worlds have been pried open because their inputs and
outputs have become thoroughly traceable.« (Latour 2007)
Obwohl Latour an dieser Stelle nicht explizit von einer quantitativen Erfassung und
Analyse des Sozialen und Psychischen spricht, legt er dies mit dem Hinweis nahe,
dass es für die Sozialwissenschaften nun möglich werde, ihre wissenschaftlichen
Ambitionen umzusetzen. Dass die mit digitalen Medientechnologien verzeichneten
Informationen die Möglichkeit einer quantitativen Vermessung der sozialen Welt
eröffnen, stellt Latour jedoch einige Jahre später in einem Beitrag zu Gabriel Tardes
Idee der Quantifizierung deutlich heraus (vgl. Latour 2010: 158f.).
Bemerkenswert ist die Position Latours nicht nur, weil er diese Entwicklung
prinzipiell begrüßt, sondern auch, weil er die Potenziale digitaler Datenspuren zu
überschätzen scheint. So ist fraglich, ob mit der Verzeichnung von Nutzer- und
26 | Eine umfassendere historische Kontextualisierung der Privilegierung quan-
titativer Wissensformen wäre notwendig, kann an dieser Stelle jedoch nicht geleistet
werden.
27 | Latour lehnt sich an Gabriel Tardes Modell der Soziologie und der Idee der
Quantifizierung an, welche er in Tarde’s idea of quantification rekonstruiert (2010).
344 Digitale Datenbanken
Nutzungsdaten die Differenz zwischen dem Sozialen, Ökonomischen und Psycho-
logischen zusammenbricht, wie Latour behauptet: »As soon as I purchase on the
web, I erase the difference between the social, the economic and the psychological,
just because of the range of traces I leave behind« (Latour 2007a). Auch ist die Be-
hauptung zu hinterfragen, dass die menschliche Imagination quantifizierbare
Spuren in digitalen Datenbanken hinterlässt, wie der Titel nahelegt, unter dem La-
tour den Text aus dem Jahr 2007 auf seiner Webseite veröffentlicht hat: Beware, your
imagination leaves digital traces.28 Die Verweildauer auf einer Webseite oder der
Kauf eines Buchs sind jedoch keineswegs Spuren unserer Imaginationen, sondern
Spuren von Handlungen, die als Indizien unserer Vorstellungen, Wünsche und
Hoffnungen interpretiert werden können.
Es ist verwunderlich, dass dem wissenschaftshistorisch geschulten Blick La-
tours dieser Unterschied entgeht, der im Zuge der sich derzeit vollziehenden
Quantifizierung des Sozialen auf problematische Weise unterlaufen wird. Erfunden
werden immer neue Metriken, um den Einfluss von Personen, die Wichtigkeit
von Themen, die Relevanz von Webseiten oder die Performanz von Kampagnen
zu messen.29 So bewertet die 2009 gegründete Firma Klout den Einfluss von Per-
sonen auf der Grundlage von Daten von Twitter, Facebook, Google+, LinkedIn etc.30
Einer Person wird dabei ein Wert zwischen 1 und 100 gegeben, welche deren Klout
Score bildet. Je höher dieser Wert ist, desto mehr Einfluss, Autorität und Macht hat
eine Person nach Ansicht von Klout. Aber was bedeutet dabei Einfluss? Klout gibt
hierauf eine konzise Antwort: »Influence is the ability to drive action. When you
share something on social media or in real life and people respond, that’s influence.
The more influential you are, the higher your Klout Score« (Klout).31 Autorität be-
misst sich demzufolge daran, wie intensiv eigene Nachrichten, Bilder und sonstige
Inhalte auf Facebook, Twitter, Instagram etc. von anderen Nutzern geliked (oder
favorisiert), diskutiert und geteilt (oder retweeted) werden.32 Dieser Logik folgend
28 | Der Text wird zumeist unter dem Titel zitiert, den Latour auf seiner Webseite
angibt, www.bruno-latour.fr/node/245 (zuletzt aufgerufen am 13.08.2013).
29 | Hierzu zählt unter anderem die Relevanzgewichtung von Webseiten anhand
der Linktopologie des Web und anderer Faktoren, die im Kapitel »Techno-Logik«
(S. 260ff.) diskutiert wurde. Ein weiteres Beispiel ist der EdgeRank, auf dessen
Grundlage Nachrichten im Nachrichtenfeed von Facebook angezeigt werden.
30 | Eine Reihe konkurrierender Metriken versprechen, etwas Ähnliches zu messen,
wie zum Beispiel der PeerIndex (www.peerindex.com/) oder das Kred Influence Mea-
surement (kred.com/).
31 | Nach eigenen Angaben von Klout werden derzeit bis zu 400 Signale heran-
gezogen, um den Klout Score zu kalkulieren (vgl. Klout).
32 | Eine häufig in der Blogosphäre geäußerte Kritik am Klout Score richtet
sich gegen die Weise der Berechnung dieser Kennzahl. Infrage gestellt wird die
Gewichtung unterschiedlicher Faktoren, wie z.B. der Zahl von Tweets und anderer
Online-Aktivitäten (vgl. Braunstein 2011; Gillin 2011).
Schluss 345
ist der Musiker Justin Bieber (Klout Score 92) ähnlich einflussreich wie der aktuelle
Präsident der Vereinigten Staaten Barack Obama (Klout Score 99). Dies ist richtig
und falsch zugleich. Dennoch ist der Vergleich schief, da Obama als Präsident der
Vereinigten Staaten jenseits des court of public opinion über vielfältige Einfluss- und
Handlungsmöglichkeiten verfügt, die ein Popstar wie Justin Bieber nicht hat.
Ein hoher Klout Score ist dementsprechend nur ein Indikator dafür, dass den
von einem Nutzer geposteten Nachrichten in den Streams anderer Nutzer Auf-
merksamkeit geschenkt wird und diese nicht unbemerkt vorbeifließen. Ähnlich
wie die Mediadaten von Zeitungen und Zeitschriften oder die Einschaltquoten
im Fernsehen ist der Klout Score eine Kennzahl der potenziellen Reichweite eines
Nutzers im sozialen Web.33 Beziffert wird also der Einfluss einer Person in einem
spezifischen Kontext. Doch dieser Wert kann auch als Indiz für die Autorität
oder Macht dieser Person außerhalb sozialer Netzwerke genommen werden. Eben
hierin besteht das Problem, denn Einfluss ist weder eine eindeutige noch eine un-
umstrittene Kategorie. Indem der Klout Score einer Person eine Kennzahl zwischen
1 und 100 zuweist, kollabieren diese vielfältigen Unterschiede in einem scheinbar
eindeutigen und vermeintlich global gültigen Wert. Allzu leicht kann hierbei der
Eindruck entstehen, dass sich in dieser Zahl die Wirklichkeit widerspiegelt, wie
Roberto Simanowski die Suggestivkraft des Quantitativen pointiert auf den Punkt
gebracht hat: »With numbers it is pure reality that speaks« (Simanowski 2012a: 24).
Die Gefahr liegt infolgedessen in der Überschätzung der Aussagekraft des Klout
Score und dementsprechend auch von der Bedeutung von Social Media. Der Klout
Score ist nicht nur Spiegel der Wirklichkeit, sondern schafft eine Realität, in der
auf Grundlage von Metriken entschieden und gehandelt wird und in der Nutzer
strategisch versuchen, den eigenen Klout Score zu optimieren (vgl. Stevenson 2012;
Perks 2012). Ähnlich wie bei quantenmechanischen Messungen verändert der
Klout Score die Realität. Letzteres ist jedoch keine einmalige Messung, sondern
eine permanente quantitative Evaluierung von unseren Handlungen in, mit und
durch digitale Medien(technologien). Genau das gilt es kritisch zu beleuchten und
auf die gesellschaftlichen und kulturellen Konsequenzen hin zu befragen. Einen
möglichen Anknüpfungspunkt hierfür eröffnet Jon McKenzies These, dass Macht
und Wissen im ausgehenden 20. und beginnenden 21. Jahrhundert immer stärker
dem Dogma der Performance unterliegt: »[P]erformance will be to the twentieth and
twenty-first centuries what discipline was to the eighteenth and nineteenth, that is,
an onto-historical formation of power and knowledge« (McKenzie 2001: 18). Pro-
duktivität, Effektivität und Wirksamkeit seien nunmehr die entscheidenden gesell-
schaftlichen Faktoren, welche zumeist auf Grundlage quantitativer Kenngrößen
evaluiert würden (vgl. McKenzie 2001: 97).
33 | Diese Kontextgebundenheit versucht Klout durch die Einbeziehung von Daten
aus Wikipedia und der Suchmaschine Bing jedoch tendenziell zu überwinden. So hat
Barack Obama einen höheren Einflusswert als Justin Bieber erst, seit Wikipedia-
Daten in die Kalkulation des Klout Score einbezogen werden (vgl. Fernandez 2012).
346 Digitale Datenbanken
Mit der Tendenz zur quantitativen Evaluierung geht das Streben nach
Optimierung Hand in Hand. Besonders deutlich tritt dies im Kontext der Quantified
Self-Bewegung zutage, der Gary Wolf und Kevin Kelly 2007 ihren Namen gegeben
haben.34 Der Begriff dient als Oberbegriff für unterschiedliche Formen des Self-Tra-
cking mithilfe digitaler Medientechnologien. Das Spektrum reicht von Protokollen
gegessener Speisen über die sensorgestützte Auswertung der eigenen sportlichen
Aktivitäten bis hin zur Aufzeichnung von Herzfrequenzen und Schlafphasen.35 Die
Sammlung derartiger Informationen ermöglicht es Kelly zufolge, Antworten auf die
großen Fragen der Menschheit zu finden:
»Who Are We? What is a human? What does it mean to be a person? Is human na-
ture fixed? Sacred? Infinitely expandable? [...] We believe that the answers to these
cosmic questions will be found in the personal. Real change will happen in individu-
als as they work through self-knowledge.« (Kelly 2007)
Zwar heißt Kelly prinzipiell jede Form der Selbsterkenntnis willkommen, jedoch
präferiert er den seines Erachtens rationalen Weg: »Unless something can be mea-
sured, it cannot be improved. So we are on a quest to collect as many personal tools
that will assist us in quantifiable measurement of ourselves« (Kelly 2007). Das Ziel,
sich selbst zu verbessern und das eigene Leben zu optimieren, steht im Zentrum
der Quantified Self-Bewegung. Eine ähnliche Position vertritt auch Wolf, der 2010
feststellt: »[I]f we want to act more effectively in the world, we have to get to know
ourselves better« (Wolf 2010).
Den Schlüssel zur Optimierung des Selbst bilden quantitative Informationen,
an denen sich das eigene Tun vermeintlich objektiv bewerten lässt. Um diese
Vermutung zu belegen, suchten die Proponenten des Quantified Self zunächst
Bestätigung seitens der Naturwissenschaften. Wie Whitney Erin Boesel beobachtet,
ist der Wunsch nach wissenschaftlichen Belegen jedoch zunehmend gegenüber
selbstreflexiven Praktiken mit quantitativen Daten in den Hintergrund gerückt:
»Quantified Self’s most central object of concern has slowly shifted from the tools
people use to track, to the data those tools and other self-tracking practices gen-
erate, to self-tracking practices as meaningful ends onto themselves, to develop-
34 | Die Anfänge der quantitativen Selbstvermessung können nicht auf 2007 datiert
werden, worauf die Sozialwissenschaftlerin Whitney Erin Boesel hinweist. Der Erfolg
der von Kelly und Wolf gegründeten Quantified Self-Gruppierung habe vielmehr darauf
beruht, dass viele andere ihr Leben bereits selbst vermessen haben: »Quantified
Self came to exist because people were already self-tracking« (Boesel 2013).
35 | Die Webseite von Quantified Self (URL: http://quantifiedself.com/guide/;
Stand 11.08.2013) listet derzeit 505 verschiedene Selbst-Tracking-Instrumente
auf, die von Sensoren über Softwareanwendungen und Handy-Apps bis hin zu Web
2.0-Angeboten wie Daytum (http://daytum.com/) reichen.
Schluss 347
ing ›reflective capacities‹ not just through self-tracking practices, but in regard to
self-tracking practices.« (Boesel 2013)
Auch wenn sich der Fokus der Quantified Self-Bewegung von naturwissenschaftlich
objektiver Selbsterkenntnis in Richtung reflexiver Praktiken des Selbst-Tracking ver-
schoben hat, wird an der Privilegierung quantitativer Wissensformen festgehalten.
Das Credo der Selbstoptimierung durch Selbstvermessung lässt sich als eine jener
von Foucault beschriebenen Technologien des Selbst verstehen und analysieren, »die
es dem Einzelnen ermöglichen [...], sich so zu verändern, daß er einen gewissen Zu-
stand des Glücks, der Reinheit, der Weisheit, der Vollkommenheit oder der Unsterb-
lichkeit erlangt« (Foucault 1993: 26). Aus medienkulturwissenschaftlicher Sicht
wäre hieran anknüpfend nach dem Einfluss von digitalen Technologien der Auf-
zeichnung, Versammlung und Auswertung von Informationen auf die Formierung
quantitativer Technologien des Selbst zu fragen. Dies zu beantworten muss sich eine
anderes Buch zur Aufgabe machen. Fest steht jedoch, dass digitale Datenbanken die
Quantifizierung aller Bereiche unserer Lebenswelt befördern. Die Auswirkungen
dieser Entwicklung zu beobachten und mögliche Alternativen zu erkunden bleibt
eine Aufgabe auf dem Weg hin zu einer kritischen Datenbankkultur.
Literatur
Alberti, Leon Battista (2000 [1540]), »De Pictura – Die Malkunst«, in: Das Stand-
bild. Die Malerei. Grundlagen der Malerei, Darmstadt: Wissenschaftliche Buch-
gesellschaft, S. 194-315.
Alloa, Emmanuel (2011), Das durchscheinende Bild: Konturen einer medialen
Phänomenologie, Zürich: Diaphanes.
American Society of Mechanical Engineers (1984), The IBM 350 RAMAC Disk File:
Designated An International Historic Landmark, http://www.magneticdiskherita
gecenter.org/MDHC/RAMACBrochure.pdf (zuletzt aufgerufen am 10.05.2012).
American Telephone and Telegraph Co. (AT&T) (1927), How to Use the Dial Phone,
http://www.archive.org/details/HowtoUse1927 (zuletzt aufgerufen am
10.07.2013).
Andersen, Peter Bøgh et al. (1994), The Computer as Medium, Cambridge: Cam-
bridge University Press.
Anderson, Chris (2008), »The End of Theory: The Data Deluge Makes the Scientific
Method Obsolete«, in: Wired, 16, 7, S. 108-109.
Anonymus (1938), »Die Nationalbibliothek in der Westentasche«, in: Prager Ta-
geblatt, 10.09.1938, S. 5-6.
Anonymus (1965), »Description of the Data Base Problem«, in: C. Baum und L.
Gorsuch (Hrsg.), Proceedings of the Second Symposium on Computer-Centered
Data Base Systems (September 20-21, 1965), Santa Monica: System Development
Corporation, S. 3.5.
Anonymus (1974), »Panel and Audience: Discussion«, in: Proceedings of 1974 ACM-
SIGFIDET/SIGMOD Workshop on Data Description Access and Control, Ann
Arbor, Michigan, S. 121-144.
Anonymus (2005), »When Do You Think The First Database Was Built? 5 years ago?
15 years ago? 50?«, in: CS4FN: Computer Science for Fun, 1, S. 5.
ANSI (1970), »American National Standard Vocabulary for Information Processing«
in: Information Processing Glossaries Collection (CBI 92), Box 1, Folder 33,
Charles Babbage Institute, University of Minnesota, Minneapolis.
ANSI (1977), »American National Vocabulary for Information Processing« in:
Information Processing Glossaries Collection (CBI 92), Box 1, Folder 58, Charles
Babbage Institute, University of Minnesota, Minneapolis.
350 Digitale Datenbanken
Antoniou, Grigoris und Frank van Harmelen (2008), A Semantic Web Primer, Cam-
bridge: MIT Press.
Aristoteles (1966), Über die Seele, Werke in deutscher Übersetzung, hrsg. von Ernst
Grumach, Berlin: Akademie Verlag.
Aristoteles (1992), Topik (Organon V), übersetzt von Eugen Rolfes, Hamburg:
Meiner.
Aristoteles (1995), Metaphysik, Philosophische Schriften: in sechs Bänden, Bd. 5,
Hamburg: Meiner.
Arment, Marco (2012), »Interpreting some of Twitter’s API changes«, in: Marco.org,
16.08.2012, http://www.marco.org/2012/08/16/twitter-api-changes (zuletzt auf-
gerufen am 13.06.2013).
Arms, William Y. et al. (2006a), »Building a Research Library for the History of the
Web«, in: Proceedings of the 6th ACM/IEEE-CS joint conference on Digital
libraries, S. 95-102.
Arms, William Y. et al. (2006b), »A Research Library Based on the Historical
Collections of the Internet Archive«, in: D-Lib Magazine, 12, 2 (zuletzt auf-
gerufen am 02.08.2008).
Aspray, William (1990), »Punched-Card Machinery«, in: Ders. (Hrsg.), Computing
before Computers, Ames: Iowa State University Press, S. 122-155.
Bachman, Charles W. (1962a), »Concepts of Computer Use in Integrated Systems«
in: Charles W. Bachman Papers (CBI 125), Box 20, Integrated Systems Project
Notebook #1, Charles Babbage Institute, University of Minnesota, Minneapolis.
Bachman, Charles W. (1962b), »Integrated Data Store – The Information Processing
Machine That We Need!« in: Charles W. Bachman Papers (CBI 125), Box 1,
Folder 11, Charles Babbage Institute, University of Minnesota, Minneapolis.
Bachman, Charles W. (1973a), »Der Programmierer als Navigator«, in: Online: Zeit-
schrift für Datenverarbeitung (auch bekannt als: Online: erfolgreiches
Informationsmanagement, ADI-Nachrichten), 11, 12, S. 865-869.
Bachman, Charles W. (1973b), »The Future of Database Systems; presented at Atomic
Energy Systems Operations and Programs (AESOP), Augusta, Georgia, March
27, 1973« in: Charles W. Bachman Papers (CBI 125), Box 16, Folder 26, Charles
Babbage Institute, University of Minnesota, Minneapolis.
Bachman, Charles W. (1973c), »The Programmer as Navigator«, in: Communications
of the ACM, 16, 11, S. 653-658.
Bachman, Charles W. (1974), »Summary of the Current Work ANSI/X3/SPARC/
Study Group – Database Systems«, in: ACM SIGMOD Record, 6, 3, S. 16-39.
Bachman, Charles W. (1975), »Trends in Database Management – 1975«, in: Procee-
dings of the May 19-22, 1975, national computer conference and exposition,
Anaheim, S. 569-576.
Bachman, Charles W. (1987), »Postscript: The Programmer as Navigator, Architect,
Communicator, Modeler, Collaborator, and Supervisor«, in: Robert L.
Ashenhurst und Susan Graham (Hrsg.), ACM Turing award lectures: the first
twenty years: 1966-1985, New York: ACM, S. 281-285.
Literatur 351
Bachman, Charles W. (2006), »Interview: September 25-26, 2004; Tucson, Arizona«,
in: ACM Oral History interviews, http://dl.acm.org/ft_gateway.cfm?id=1141882&-
ftid=519211&dwn=1&CFID=364425294&CFTOKEN=279 37773 (zuletzt auf-
gerufen am 14.12.12).
Badiou, Alain (2005), Das Sein und das Ereignis, Berlin: Diaphanes.
Baecker, Dirk (2001), »Niklas Luhmann in der Gesellschaft der Computer«, in:
Merkur: Deutsche Zeitschrift für europäisches Denken, 55, 7, S. 597-609.
Baecker, Dirk (2008), »Medienforschung«, in: Stefan Münker und Alexander Roesler
(Hrsg.), Was ist ein Medium?, Frankfurt a.M.: Suhkamp, S. 131-143.
Baeza-Yates, Richardo und Berthier Riberio-Neto (1999), Modern Information
Retrieval, Harlow: Addison-Wesley.
Bahr, Hans-Dieter (1999), »Medien-Nachbarwissenschaften I: Philosophie«, in:
Joachim Felix Leonhard et al. (Hrsg.), Medienwissenschaft: Ein Handbuch zur
Entwicklung der Medien- und Kommunikationsformen, Berlin/New York: de
Gruyter, S. 273-281.
Bal, Mieke (1997), Narratology: Introduction to the Theory of Narrative, Toronto:
University of Toronto Press.
Bal, Mieke (2002), Kulturanalyse, Frankfurt a.M.: Suhrkamp.
Barthes, Roland (1976), S/Z, Frankfurt a.M.: Suhrkamp.
Bashe, Charles J. et al. (1986), IBM’s Early Computers, Cambridge: MIT Press.
Baßler, Moritz (2005), Die kulturpoetische Funktion und das Archiv: Eine
literaturwissenschaftliche Text-Kontext-Theorie, Tübingen: Narr Francke Attem-
pto Verlag.
Baßler, Moritz (2006), »Was nicht ins Archiv kommt: Zur Analysierbarkeit kul-
tureller Selektion«, http://www.simonewinko.de/bassler_text.htm (zuletzt auf-
gerufen am 07.01.2008).
Bates, Marcia J. (1989), »The Design of Browsing and Berrypicking Techniques for
the Online Search Interface«, in: Online Review, 13, 5, S. 407-424.
Bateson, Gregory (1985a), »Eine Theorie des Spiels und der Phantasie«, in: Ökologie
des Geistes: anthropologische, psychologische, biologische und epistemologische
Perspektiven, Frankfurt a.M.: Suhrkamp, S. 241-261.
Bateson, Gregory (1985b), »Form, Substanz und Differenz«, in: Ökologie des Geistes:
anthropologische, psychologische, biologische und epistemologische Perspektiven,
Frankfurt a.M.: Suhrkamp, S. 576-597.
Battelle, John (2011), »File Under: Metaservices, The Rise Of«, in: John Battelle’s
Searchblog, 04.02.2011, http://battellemedia.com/archives/2011/02/file_under_
metaservices_the_rise_of.p hp (zuletzt aufgerufen am 29.05.2013).
Bauer, Matthias und Christoph Ernst (2010), Diagrammatik: Einführung in ein
kultur- und medienwissenschaftliches Forschungsfeld, Bielefeld: Transcript.
Becker, Konrad und Felix Stalder (2009a) (Hrsg.), Deep Search: Politik des Suchens
jenseits von Google, Innsbruck u.a.: Studien Verlag.
352 Digitale Datenbanken
Becker, Konrad und Felix Stalder (2009b), »Einleitung«, in: Konrad Becker und
Felix Stalder (Hrsg.), Deep Search: Politik des Suchens jenseits von Google, Inns-
bruck u.a.: Studien Verlag, S. 7-12.
Becker, Peter (2008), »Beschreiben, Klassifizieren, Verarbeiten: Zur Bevölkerungs-
beschreibung aus kulturwissenschaftlicher Sicht«, in: Arndt Brendecke et al.
(Hrsg.), Information in der Frühen Neuzeit: Status, Bestände, Strategien, Berlin:
LIT Verlag, S. 393-419.
Bell, Gordon und Jim Gemmell (2009), Total Recall: How the E-Memory Revolution
will Change Everything, New York: Dutton.
Bell, Gordon et al. (2009), »Beyond the Data Deluge«, in: Science, 323, S. 1297-1298.
Benson-Lehner Corporation (1959), »A Classification System for any Data Banking
(Information Storage and Retrieval) Process [Research Report 59-6]« in: United
States National Bureau of Standards, Computer Literature Collection (CBI 32),
Box 99, Folder 9, Charles Babbage Institute, University of Minnesota, Minnea-
polis.
Berners-Lee, Tim (1998), »RDF and Relational Databases«, in: Design Issues for the
World Wide Web: Architectural and philosophical points, http://www.w3.org/Des
ignIssues/RDB-RDF.html (zuletzt aufgerufen am 27.08.2009).
Berners-Lee, Tim (2006), »Linked Data«, http://www.w3.org/DesignIssues/LinkedD
ata.html (zuletzt aufgerufen am 19.12.2011).
Berners-Lee, Tim und Mark Fischetti (1999), Der Web-Report: Der Schöpfer des
World Wide Webs über das grenzenlose Potential des Internets, Berlin: Econ.
Berners-Lee, Tim et al. (2001), »The Semantic Web: A new Form of Web Content that
is Meaningful to Computers will Unleash a Revolution of New Possibilities«, in:
Scientific American, 284, 5, S. 34-43.
Bizer, Christian und Tobias Gauß (2007), »Disco – Hyperdata Browser: A Simple
Browser for Navigating the Semantic Web«, http://wifo5-03.informatik.uni-ma
nnheim.de/bizer/ng4j/disco/ (zuletzt aufgerufen am 10.09.2013).
Blench, Michael und Laurent Proulx (2005), »Global Public Health Intelligence
Network (GPHIN): An Early-Warning Global Intelligence Information
Management (GIIM) Model«, http://www.wowgao.com/2005gov/PDFfiles/2005/
presentation_files/Blench.ppt (zuletzt aufgerufen am 16.06.2013).
Bloch, William Goldbloom (2008), The Unimaginable Mathematics of Borges’
Library of Babel, New York: Oxford University Press.
Blumauer, Andreas und Tassilo Pellegrini (2006), »Semantic Web und semantische
Technologien: Zentrale Begriffe und Unterscheidungen«, in: Dies. (Hrsg.),
Semantic Web: Wege zur vernetzten Wissensgesellschaft, Berlin: Springer, S. 9-25.
Blumenberg, Hans (2009), »Methodologische Probleme einer Geistesgeschichte der
Technik«, in: Geistesgeschichte der Technik: Mit einem Radiovortrag auf CD,
Frankfurt a.M.: Suhrkamp, S. 49-85.
Boesel, Whitney Erin (2013), »What is the Quantified Self Now?«, in: Cyborgology,
22.05.2013, http://thesocietypages.org/cyborgology/2013/05/22/what-is-the-qua
ntified-self-now/ (zuletzt aufgerufen am 29.07.2013).
Literatur 353
Böhme, Stefan et al. (2012) (Hrsg.), Sortieren, Sammeln, Suchen, Spielen: Die Daten-
bank als mediale Praxis, Münster: Lit-Verlag.
Bollier, David (2010), The Promise and Peril of Big Data, Washington D.C.: The
Aspen Institute, http://www.aspeninstitute.org/sites/default/files/content/docs/
pubs/T he_Promise_and_Peril_of_Big_Data.pdf (zuletzt aufgerufen am
20.09.2013).
Bolter, Jay David (1997), »Das Internet in der Geschichte der Technologien des
Schreibens«, in: Stefan Münker und Alexander Roesler (Hrsg.), Mythos Internet,
Frankfurt a.M.: Suhrkamp, S. 37-55.
Bolter, Jay David und Richard Grusin (1999), Remediation: Understanding New
Media, Cambridge: MIT Press.
Bolz, Norbert (1994a), Computer als Medium, Literatur- und Medienanalysen,
München: Fink.
Bolz, Norbert (1994b), »Computer als Medium – Einleitung«, in: Norbert Bolz et al.
(Hrsg.), Computer als Medium, München: Fink, S. 9-16.
Borges, Jorge Luis (1992 [1941]), »Die Bibliothek von Babel«, in: Fiktionen (Ficciones):
Erzählungen von 1939-1944, Frankfurt a.M.: Fischer.
Borges, Jorge Luis (2003 [1939]), »Die Totale Bibliothek«, in: Eine neue Widerlegung
der Zeit und 66 andere Essays, Frankfurt a.M.: Eichborn Verlag, S. 165-169.
Borgman, Christine L. (1996), »Why Are Online Catalogs Still Hard to Use?«, in:
Journal of the American Society for Information Science, 47, 7, S. 493-503.
Borgman, Christine L. (2007), Scholarship in the Digital Age: Information, Infra-
structure, and the Internet, Cambrdige: MIT Press.
Borgmann, Albert (1999), Holding On to Reality: The Nature of Information at the
Turn of the Millennium, Chicago: University of Chicago Press.
Bourne, Charles P. und Trudi Bellardo Hahn (2003), A History of Online Information
Services, 1963-1976, Cambridge: MIT Press.
Bowker, Geoffrey C. (1994), »Information Mythology: the world of/as information«,
in: Lisa Bud-Frierman (Hrsg.), Information acumen: The understanding and use
of knowledge in modern business, London: Routledge, S. 231-247.
Bowker, Geoffrey C. (2005), Memory Practices in the Sciences, Cambridge: MIT
Press.
Bowker, Geoffrey C. und Susan Leigh Star (2000), Sorting things out: Classification
and Its Consequences, Cambridge: MIT Press.
boyd, danah und Kate Crawford (2011), »Six Provocations for Big Data«, http://ssrn.
com/abstra ct=1926431 (zuletzt aufgerufen am 15.09.2011).
Brand, Stewart (1999), »Escaping the Digital Dark Age«, in: Library Journal, 124, 2,
S. 46-48.
Brauns, Jörg (2002) (Hrsg.), Form und Medium, Weimar: VDG.
Braunstein, Alex (2011), »Why your Klout Score is Meaningless«, in: Alex Braun-
stein’s Blog, 01.06.2011, http://alexbraunstein.com/2011/06/01/why-your-klout-
score-i s-meaningless/ (zuletzt aufgerufen am 11.08.2013).
354 Digitale Datenbanken
Brin, Sergey et al. (1998), »What Can You Do with a Web in Your Pocket?«, in: Data
Engineering Bulletin, 21, 2, S. 37-47.
Brin, Sergey und Lawrence Page (1998), »The Anatomy of a Large-Scale Hyper-
textual Web Search Engine«, in: Computer Networks and ISDN Systems, 30, S.
107-117.
Buchholz, Werner (1963), »File Organization and Addressing«, in: IBM Systems
Journal, 2, 2, S. 86-111.
Buckland, Michael (1992), »Emanuel Goldberg, Electronic Document Retrieval,
And Vannevar Bush’s Memex«, in: Journal of the American Society for
Information Science, 43, 4, S. 284-294.
Buckland, Michael (1997), »What is a Document?«, in: Journal of the American
Society for Information Science, 48, 9, S. 804-809.
Buckland, Michael (2006), Emanuel Goldberg and his Knowledge Machine, Wesport:
Libraries Unlimited.
Bunz, Mercedes (2012), Die stille Revolution: Wie Algorithmen Wissen, Arbeit,
Öffentlichkeit und Politik verändern, ohne dabei viel Lärm zu machen, Berlin:
Suhrkamp.
Bunz, Mercedes (2013), »As You Like It: Critique in the Era of an Affirmative Dis-
course«, in: Geert Lovink und Miriam Rasch (Hrsg.), Unlike Us Reader: Social
Monopolies and Their Alternatives, Amsterdam: Institute of Network Cultures,
http://networkcultures.org/wpmu/portal/publicat ion/unlike-us-read er-social-
media-monopolies-and-their-alternatives/ (zuletzt aufgerufen am 05.09.2013),
S. 137-145.
Burke, Colin (1992), »The Other Memex: The Tangled Career of Vannevar Bush’s
Information Machine, The Rapid Selector«, in: Journal of the American Society
for Information Science, 43, 10, S. 648-657.
Burkhardt, Marcus (2011), »It is not what it is: Zur differentiellen Identität des
Mediums Computer«, in: Marcel Vejmelka et al. (Hrsg.), Identität in den Kul-
turwissenschaften: Perspektiven und Fallstudien zu Identitäts- und Alteritätsdis-
kursen, Trier: Wissenschaftsverlag Trier, S. 139-150.
Burns, William (2006), »Openness is Key in Fight Against Disease Outbreaks«, in:
Bulletin of the World Health Organization, 84, 10, S. 769-770.
Bush, Vannevar (1945), »As We May Think«, in: The Atlantic Monthly, 176, 1, S. 101-
108.
CAM-I Standards Committee (1976), »Glossary of Computer Aided Manufacturing
Terms« in: Information Processing Glossaries Collection (CBI 92), Box 1, Folder
6, Charles Babbage Institute, University of Minnesota, Minneapolis.
Canning, Richard G. (1972), »The Report on Data Base Management«, in: EDP Ana-
lyzer, 10, 3, S. 1-16.
Capurro, Rafael (1978), Information: Ein Beitrag zur etymologischen und ideen-
geschichtlichen Begründung des Informationsbegriffs, München: K.G. Saur.
Literatur 355
Caracciolo, Luca (2012), »Twitter verleugnet mit neuer API seine Wurzeln«, in: t3n,
06.09.2012, http://t3n.de/news/twitter-verleugnet-neuer-api-413077/ (zuletzt
aufgerufen am 13.06.2013).
Carlson, Samuelle und Ben Anderson (2007), »What Are Data? The Many Kinds of
Data and Their Implications for Data Re-Use«, in: Journal of Computer-Me-
diated Communication, 12, S. 635-651.
Cassirer, Ernst (1923), »Der Begriff der Symbolischen Form im Aufbau der
Geisteswissenschaften«, in: Vorträge der Bibliothek Warburg, Vorträge 1921-
1922, S. 11-39.
Cassirer, Ernst (1956 [1938]), »Zur Logik des Symbolbegriffs«, in: Wesen und
Wirkung des Symbolbegriffs, Darmstadt: Wissenschaftliche Buchgesellschaft, S.
201-230.
Cassirer, Ernst (2001 [1923]), Philosophie der symbolischen Formen. Erster Teil: Die
Sprache, Gesammelte Werke, Hamburger Hausgabe, 11, hrsg. von Birgit Recki,
Hamburg: Meiner.
Cassirer, Ernst (2008 [1942]), »Der Gegenstand der Kulturwissenschaft«, in: Uwe
Wirth (Hrsg.), Kulturwissenschaft: Eine Auswahl grundlegender Texte, Frank-
furt a.M.: Suhrkamp, S. 155-190.
Cassirer, Ernst (2009 [1930]), »Form und Technik«, in: Schriften zur Philosophie der
symbolischen Formen, Hamburg: Meiner, S. 123-167.
Chamberlin, Donald D. und Raymond F. Boyce (1974), »SEQUEL: A Structured
English Query Language«, in: Proceedings of 1974 ACM-SIGMOD Workshop on
Data Description, Access and Control, Ann Arbor, Michigan, S. 249-264.
Chang, Fay et al. (2006), »Bigtable: A Distributed Storage System for Structured
Data«, in: OSDI '06: 7th USENIX Symposium on Operating Systems Design and
Implementation, Seattle, S. 205-218.
Charles Babbage Institute (2003), »Hollywood & Computers«, http://web.archive.
org/web/20060705204546/http://www.cbi.umn.edu/resources/hollywood.html
(zuletzt aufgerufen am 10.02.2014).
Charles Babbage Institute und Stephanie Horowitz (2007), »Gordon Everest Mono-
graphs on Database Development, 1957-2003, Finding Aid«, http://special.lib.
umn.edu/findaid/xml/ cbi00186.xml (zuletzt aufgerufen am 10.12.2012).
Chen, Peter P. (1976), »The Entity-Relationship Model: Toward a Unified View of
Data«, in: ACM Transactions on Database Systems (TODS), 1, 1, S. 9-36.
Choi, Hyunyoung und Hal Varian (2009), »Predicting the Present with Google
Trends«, http://www.google.com/googleblogs/pdfs/google_predicting_the_pres
ent.pdf (zuletzt aufgerufen am 28.09.2009).
Christolova, Lena (2012), »Das Mundaneum oder das papierne Internet von Paul
Otlet und Henri La Fontaine«, in: Stefan Böhme et al. (Hrsg.), Sortieren,
Sammeln, Suchen, Spielen: Die Datenbank als mediale Praxis, Münster: LIT-
Verlag, S. 31-54.
Chun, Wendy Hui Kyong (2011), Programmed Visions: Software and Memory, Cam-
bridge: MIT Press.
356 Digitale Datenbanken
Cios, Krzysztof J. (2010), Data Mining: A Knowledge Discovery Approach, New York:
Springer.
CODASYL Data Base Task Group (1968), »COBOL Extensions to handle data
bases«, in: ACM SIGPLAN Notices, 3, 4, S. 1-49.
CODASYL Data Base Task Group (1969), Data Base Task Group Report to the
CODASYL Programming Language Committee, October 1969, New York: ACM.
CODASYL Data Base Task Group (1971), Data Base Task Group Report to the
CODASYL programming language committee, April 1971, New York: ACM.
Codd, Edgar F. (1970), »A Relational Model of Data for Large Shared Data Banks«,
in: Communications of the ACM, 13, S. 377-387.
Codd, Edgar F. (1982), »Relational Database: A Practical Foundation for Pro-
ductivity«, in: Communications of the ACM, 25, 2, S. 109-117.
Codd, Edgar F. (1990), The Relational Model for Database Management: Version 2,
Reading: Addison Wesley.
Connolly, Thomas et al. (2002), Datenbanksysteme: Eine praktische Anleitung zu
Design, Implementierung und Management, München: Addison-Wesley.
Corbitt, Kevin D. (1993), »An Interview with Calvin N. and Charlotte D. Mooers«,
http://www.cbi.umn.edu/oh/display.phtml?id=174 (zuletzt aufgerufen am
07.11.2009).
Cornelius, Ian (2004), »Information and Its Philosophy«, in: Library Trends, 52, 3, S.
658-665.
Cramer, Florian (2007), »Animals that Belong to the Emperor: Failing Universal
Classification Schemes from Aristotle to the Semantic Web«, http://www.net
time.org/Lists-Archives/nettime-l-0712/msg00043.html (zuletzt aufgerufen am
01.03.2008).
Dash, Anil (2012), »Stop Publishing Web Pages«, in: A Blog About Making Culture,
14.08.2012, http://dashes.com/anil/2012/08/stop-publishing-web-pages.html
(zuletzt aufgerufen am 10.06.2013).
Date, Christopher J. (1994), An Introduction to Database Systems, Reading: Ad-
dison-Wesley.
Date, Christopher J. und Edgar F. Codd (1975), »The Relational and Network
Approaches: Comparison of the Application Programming Interfaces«, in: Pro-
ceedings of the 1974 ACM-SIGFIDET (now SIGMOD) Workshop on Data
Description, Access and Control: Data Models: Data-Structure-Set versus Rela-
tional, Ann Arbor, Michigan, S. 83-113.
Date, Christopher J. und P. Hopewell (1971a), »File Definition and Logical Data
Independence«, in: Proceedings of the 1971 ACM-SIGFIDET Workshop, San
Diego, S. 117-138.
Date, Christopher J. und P. Hopewell (1971b), »Storage Structure and Physical Data
Independence«, in: Proceedings of the 1971 ACM-SIGFIDET Workshop, San
Diego, S. 139-168.
Davidson, Donald (1993), »Voraussetzungen für Gedanken«, in: Der Mythos des
Subjektiven: Philosopihsche Essays, Stuttgart: Reclam, S. 5-15.
Literatur 357
Davidson, Donald (2005), »Struktur und Gehalt des Wahrheitsbegriffs«, in: Mike
Sandbothe (Hrsg.), Wozu Wahrheit?, Frankfurt a.M.: Suhrkamp, S. 140-209.
Deleuze, Gilles (1992a), Differenz und Wiederholung, München: Fink.
Deleuze, Gilles (1992b), Foucault, Frankfurt a.M.: Suhrkamp.
Deleuze, Gilles (1993), »Postskriptum über die Kontrollgesellschaften«, in: Unter-
handlungen, 1972-1990, Frankfurt a.M.: Suhrkamp.
Delta Airlines (2009), »Statement on Northwest Flight 253«, http://news.delta.com/
index.p hp?s=43&item=834 (zuletzt aufgerufen am 10.06.2013).
Dempewolff, Richard F. (1951), »Englewood, N.J., Dialing San Francisco«, in:
Popular Mechanics, 96, 5, S. 128-133.
Derrida, Jacques (1983), Grammatologie, Frankfurt a.M.: Suhrkamp.
Derrida, Jacques (1992), Die Wahrheit in der Malerei, Wien: Passagen.
Derrida, Jacques (1997a), Dem Archiv verschrieben: eine Freudsche Impression,
Berlin: Brinkmann + Bose.
Derrida, Jacques (1997b), »Die Struktur, das Zeichen und das Spiel im Diskurs der
Wissenschaften vom Menschen«, in: Peter Engelmann (Hrsg.), Postmoderne und
Dekonstruktion: Texte französischer Philosophen der Gegenwart, Stuttgart:
Reclam, S. 114-139.
Derrida, Jacques (2005), »The Book to Come«, in: Paper Machine, Stanford: Stanford
University Press, S. 4-18.
Diderot, Denis (1969 [1755]), »Enzyklopädie«, in: Enzyklopädie: Philosophische und
politische Texte aus der ›Encyclopédie‹ sowie Prospekt und Ankündigung der
letzten Bände. Mit einem Vorwort von Ralph-Rainer Wuthenow, München:
Deutscher Taschenbuchverlag, S. 79-175.
Dietrich, Frank (1986), »Digital media: Bridges between data particles and artifacts«,
in: The Visual Computer, 2, S. 135-151.
Digital Methods Initiative (2012), »The Website«, https://http://www.digital-
methods.net/Digitalmethods/TheWebsite (zuletzt aufgerufen am 06.09.2013).
Dijkstra, Edsger W. (1969), »Complexity Controlled by Hierarchical Ordering of
Function and Variability«, in: Software Engineering: Report of a conference
sponsored by the NATO Science Committee, Garmisch, S. 181-185.
DIN (1989) (Hrsg.), Begriffe der Informationstechnik: Normen, Berlin: Beuth.
Dopichaj, Phillipp (2009), »Ranking-Verfahren für Web-Suchmaschinen«, in: Dirk
Lewandowski (Hrsg.), Handbuch Internet-Suchmaschinen: Nutzerorientierung
in Wissenschaft und Praxis, Heidelberg: Akademische Verlagsgesellschaft, S.
101-115.
Dotzler, Bernhard J. et al. (2001), »Die Adresse des Mediums: Einleitung«, in: Stefan
Andriopoulos et al. (Hrsg.), Die Adresse des Medium, Köln: DuMont, S. 9-15.
Easley, Joseph H. (1957), »Terms and Expressions Used in the Electronic Computer
Industry« in: Information Processing Glossaries Collection (CBI 92), Box 1,
Folder 42, Charles Babbage Institute, University of Minnesota, Minneapolis.
Ebeling, Knut und Stephan Günzel (2009a) (Hrsg.), Archivologie: Theorien des
Archivs in Wissenschaft, Medien und Künsten, Berlin: Kadmos.
358 Digitale Datenbanken
Ebeling, Knut und Stephan Günzel (2009b), »Einleitung«, in: Dies. (Hrsg.),
Archivlologie: Theorien des Archivs in Philosophie, Medien und Künsten, Berlin:
Kadmos, S. 7-26.
Eberbach, Eugene et al. (2004), »Turing’s Ideas and Models of Computation«, in:
Christof Teuscher (Hrsg.), Alan Turing: Life and Legacy of a Great Thinker,
Berlin: Springer, S. 159-194.
Eco, Umberto (1986), »Für eine semiologische Guerilla«, in: Über Gott und die Welt:
Essays und Glossen, München: Hanser, S. 146-156.
Eco, Umberto (2009), Die unendliche Liste, Hamburg: Hanser.
Edlich, Stefan et al. (2010), NoSQL: Einstieg in die Welt nichtrelationaler Web 2.0
Datenbanken, Hamburg: Hanser.
Ellis, Betty Jo (1959), »Therefore is the name of it called Babel because the Lord did
there confound the language of all the earth« in: Betty Jo Ellis Papers (CBI 106),
Box 1, Folder 1, Charles Babbage Institute, University of Minnesota, Minnea-
polis.
Enge, Eric (2012), »The End of Link Building as We’ve Known and Loved it«, in:
Search Engine Watch, 15.01.2012, http://searchenginewatch.com/article/2137556/
The-End-of-Link-Building-as-Weve-Known-and-Loved-it (zuletzt aufgerufen
am 06.02.2012).
Engelbart, Douglas C. (1962), Augmenting Human Intellect: A Conceptual
Framework, Menlo Park: Stanford Research Institute.
Ernst, Christoph (2008a), »Revolutionssemantik und die Theorie der Medien: Zur
rhetorischen Figuration der ›digitalen Revolution‹ bei Niklas Luhmann und
Vilém Flusser«, in: Sven Grampp et al. (Hrsg.), Revolutionsmedien – Medien-
revolutionen, Konstanz: UVK, S. 171-203.
Ernst, Wolfgang (2002), »Datum und Information: Begriffsverwirrungen«, in:
Wolfenbütteler Notizen zur Buchgeschichte, 27, 2, S. 159-181.
Ernst, Wolfgang (2003), »Medienwissen(schaft) zeitkritisch: Ein Programm aus der
Sophienstraße«, http://edoc.hu-berlin.de/humboldt-vl/ernst-wolfgang-2003-10-
21/PDF/Ernst.pdf (zuletzt aufger ufen am 10.05.2008).
Ernst, Wolfgang (2004), »Das Gesetz des Sagbaren. Foucault und die Medien«, in:
Peter Gente (Hrsg.), Foucault und die Künste, Frankfurt a.M.: Suhrkamp, S. 238-
259.
Ernst, Wolfgang (2008b), »›Merely the Medium‹?: Die operative Verschränktheit
von Logik und Materie«, in: Stefan Münker und Alexander Roesler (Hrsg.), Was
ist ein Medium?, Frankfurt a.M.: Suhrkamp, S. 158-184.
Esposito, Elena (1993), »Der Computer als Medium und Maschine«, in: Zeitschrift
für Soziologie, 22, 5, S. 338-354.
Esposito, Elena (2001), »Strukturelle Kopplung mit unsichtbaren Maschinen«, in:
Soziale Systeme, 7, 2, S. 241-252.
Esposito, Elena (2002), Soziales Vergessen: Formen und Medien des Gedächtnisses
der Gesellschaft, Frankfurt a.M.: Suhrkamp.
Literatur 359
Europäisches Parlament und Rat der Europäischen Union (1996), Richtlinie 96/9/EG
des Europäischen Parlaments und des Rates vom 11. März 1996 über den recht-
lichen Schutz von Datenbanken, http://eur-lex.europa.eu/LexUriServ/LexUr
iServ.do?uri=CELEX:31996L0009:DE:N OT (zuletzt aufgerufen am 20.09.2013).
Everest, Gordon C. und Edgar H. Sibley (1971), »A Critique of the GUIDE-SHARE
DBMS Requirements«, in: Proceedings of the 1971 ACM-SIGFIDET Workshop,
San Diego, S. 93-112.
Eysenbach, Gunther (2006), »Infodemiology: Tracking Flu-Related Searches on the
Web for Syndromic Surveillance«, in: AMIA Annual Symposium Proceedings, S.
244-248.
Faeskorn-Woyke, Heide et al. (2007), Datenbanksysteme: Theorie und Praxis mit
SQL2003, Oracle und MySQL, München: Pearson Studium.
Fairthorne, Robert Arthur (1961a), »Automatic Retrieval of Recorded Information«,
in: Towards Information Retrieval, London: Butterworths, S. 135-150.
Fairthorne, Robert Arthur (1961 [1953]), »Information Theory and Clerical Systems«,
in: Towards Information Retrieval, London: Butterworths, S. 22-41.
Fairthorne, Robert Arthur (1961b), »Preface«, in: Towards Information Retrieval,
London: Butterworths, S. ix-xi.
Fairthorne, Robert Arthur (1961c), »Some Clerical Operations and Languages«, in:
Towards Information Retrieval, London: Butterworths, S. 94-105.
Fairthorne, Robert Arthur (1961 [1954]), »The Theory of Communication«, in:
Towards Information Retrieval, London: Butterworths, S. 64-79.
Fairthorne, Robert Arthur (1998), »A Congress at Harvard«, http://www.libsci.sc.
edu/bob/isp/fairthorne2.htm (zuletzt aufgerufen am 16.05.2011).
Faßler, Manfred (2002), Tiefe Oberflächen: Virtualität, Visualisierung, Bildlichkeit,
International Flusser Lecture, hrsg. von _Vilém_Flusser_Archiv, Köln: Verlag
der Buchhandlung Walther König.
Faulstich, Werner (1996), Medien und Öffentlichkeiten im Mittelalter: 800-1400,
Göttingen: Vandenhoeck und Ruprecht.
Faulstich, Werner (1997), Das Medium als Kult, Göttingen: Vandenhoeck und
Ruprecht.
Faulstich, Werner (2002), Einführung in die Medienwissenschaft: Probleme –
Methoden – Domänen, München: Wilhelm Fink Verlag.
Faulstich, Werner (2004) (Hrsg.), Grundwissen Medien, München: Fink.
Fayyad, Usama et al. (1996), »From Data Mining to Knowledge Discovery in
Databases«, in: AI Magazine, 17, 3, S. 37-54.
Federer, Walter T. (1982), »Data Collection«, in: Samuel Kotz et al. (Hrsg.),
Encyclopedia of Statistical Sciences, 2, New York: John Wiley and Sons, S. 269-
275.
Fellmann, Ferdinand (2006), Phänomenologie zur Einführung, Hamburg: Junius.
Ferencz-Flatz, Christian (2009), »Gibt es perzeptive Phantasie? Als-ob-Bewusstsein,
Widerstreit und Neutralität in Husserls Aufzeichnungen zur Bildbetrachtung«,
in: Husserl Studies, 25, 3, S. 235-253.
360 Digitale Datenbanken
Fernandez, Joe (2012), »Discover Your Klout«, in: The Official Klout Blog, 14.08.2012,
http://blog.klout.com/2012/08/discover-your-klout/ (zuletzt aufgerufen am
11.08.2013).
Filk, Christian et al. (2004), »Was ist ›Medienphilosophie‹ und wer braucht sie wo-
möglich dringender: die Philosophie oder die Medienwissenschaft?: Ein
kritisches Forschungsreferat«, in: Allgemeine Zeitschrift für Philosophie, 29, 1, S.
39-65.
Fink, Eugen (1957), »Operative Begriffe in Husserls Phänomenologie«, in: Zeitschrift
für philosophische Forschung, 11, 3, S. 321-337.
Fischer, Peter und Peter Hofer (2008), Lexikon der Informatik, Berlin: Springer.
Flake, Gary (2010), »Is Pivot a Turning Point for Web Exploration?«, http://www.ted.
com/talks/gary_flake_is_pivot_a_turning_point_for_web_exploration.html
(zuletzt aufgerufen am 31.07.2012).
Flichy, Partice (1994), Tele: Geschichte der modernen Kommunikation, Frankfurt
a.M.: Campus.
Flickr (2013), »Die beliebtesten Tags aller Zeiten«, http://www.flickr.com/photos/
tags/ (zuletzt aufgerufen am 05.09.2013).
Floridi, Luciano (1999), Philosophy and Computing: An Introduction, London:
Routledge.
Floridi, Luciano (2005a), »Is Semantic Information Meaningful Data?«, in: Phi-
losophy and Phenomenological Research, 45, 2, S. 351-370.
Floridi, Luciano (2005b), »Semantic Conceptions of Information«, in: Stanford
Encyclopedia of Philosophy, http://plato.stanford.edu/entries/information-sem
antic/ (zuletzt aufgerufen am 25.01.2010).
Floridi, Luciano (2010), Information: A Very Short Introduction, Oxford: Oxford
University Press.
Floridi, Luciano (2011), The Philosophy of Information, Oxford: Oxford University
Press.
Flusser, Vilém (1988), Für eine Philosophie der Fotografie, Göttingen: European
Photography.
Fohrmann, Jürgen (2004), »Der Unterschied der Medien«, in: Jürgen Fohrmann und
Erhard Schüttpelz (Hrsg.), Die Kommunikation der Medien, Tübingen: Niemeyer,
S. 5-19.
Folnius, Jeffrey J. et al. (1974), »Virtual Information in Data-Base Systems«, in: FDT
– Bulletin of ACM SIGMOD, 6, 2, S. 1-15.
Folsom, Ed (2007), »Database as Genre: The Epic Transformation of Archives«, in:
PMLA, 122, 5, S. 1571-1579.
Foucault, Michel (1981), Archäologie des Wissens, Frankfurt a.M.: Suhrkamp.
Foucault, Michel (1993), »Technologien des Selbst«, in: Luther H. Martin et al.
(Hrsg.), Technologien des Selbst, Frankfurt a.M.: S. Fischer, S. 24-62.
Foucault, Michel (2006), Sicherheit, Territorium, Bevölkerung: Geschichte der Gou-
vernementalität I. Vorlesung am Collége de France 1977-1978, Frankfurt a.M.:
Suhrkamp.
Literatur 361
Frana, Philip L. (2001), »An Interview with Donald D. Chamberlin«, http://purl.um
n.edu/107215 (zuletzt aufgerufen am 24.01.2012).
Frankfurt, Harry G. (2006), Bullshit, Frankfurt a.M.: Suhrkamp.
Franks, E. W. (1964), »Session B: Criteria Influencing Data Base Organization or
Design«, in: A. Walker (Hrsg.), Proceedings of the Symposium on Development
and Management of a Computer-Centered Data Base (June 10-11, 1963), Santa
Monica: System Development Corporation, S. 119-121.
Frenkel, Karen (1993), »An Interview with Robin Milner«, in: Communications of
the ACM, 36, 1, S. 90-97.
Fry, Ben (2004), Computational Information Design, Dissertation, School of
Architecture and Planning, Program in Media Arts and Sciences, Massachusetts
Institute of Technology, Cambridge, April 2004.
Fry, Ben (2008), Visualizing Data, Peking: O’Reilly.
Fry, Ben (2009), »Valence«, http://benfry.com/valence/index.html (zuletzt auf-
gerufen am 21.09.2013).
Fuller, Matthew (2008), »Introduction, the Stuff of Software«, in: Ders. (Hrsg.), Soft-
ware Studies: A Lexicon, Cambridge: MIT Press, S. 1-13.
Gapminder, »About Gapminder«, http://www.gapminder.org/about-gapminder/ou
r-mission/ (zuletzt aufgerufen am 10.02.2012).
Gapminder (2010), »Gapminder World Guide«, http://www.gapminder.org/Gapm
inderMedia/wp-uploads/tutorial/Gapminder_World_Guide.pdf (zuletzt aufge-
rufen am 10.06.2013).
Gates, Bill (1990), Information at Your Fingertips, Comdex, Las Vegas, 12. November
1990, http://www.youtube.com/watch?v=kL8zoQVJaD8 (zuletzt aufgerufen am
10.07.2013).
Gates, Bill (1994), Information at Your Fingertips 2005, Comdex, Las Vegas, 14.
November 1994, http://blip.tv/buecherwurm/bill-gates-comdex-1994-keynote-
information-at-your-fingertips-2005-21493 63 (zulet zt aufgerufe n am 10.07.
2013).
Gates, Bill (1995), Der Weg nach vorn: Die Zukunft der Informationsgesellschaft, in
Zusammenarbeit mit Nathan Myhrvold und Peter Rinearson, Hamburg: Hoff-
mann und Campe.
Gemmell, Jim et al. (2006), »MyLifeBits: A Personal Database of Everything«, in:
Communications of the ACM, 49, 1, S. 88-95.
Gemmell, Jim et al. (2002), »MyLifeBits: Fulfilling the Memex Vision«, in: Procee-
dings of the tenth ACM international conference on Multimedia, S. 235-238.
Gesell, Michael (1926), »Die gläserne Bibliothek«, in: Organ der Deutschen Buch
Gemeinschaft, 3, 6, S. 98-99.
Giesecke, Michael (2007), Die Entdeckung der kommunikativen Welt: Studien zur
kulturvergleichenden Mediengeschichte, Frankfurt a.M.: Suhrkamp.
Gillin, Paul (2011), »The Trouble With Klout«, in: Paul Gillin Communications,
06.09.2011, http://gillin.com/2011/09/the-trouble-with-klout/ (zuletzt aufge-
rufen am 11.08.2013).
362 Digitale Datenbanken
Ginsberg, Jeremy et al. (2009), »Detecting Influenza Epidemics Using Search Engine
Query Data«, in: Nature, 457, S. 1012-1015.
Goffman, Erving (1977 [1974]), Rahmen-Analyse: ein Versuch über die Organisation
von Alltagserfahrungen, Frankfurt a.M.: Suhrkamp.
Goldfarb, Charles F. (1981), »A Generalized Approach to Document Markup«, in:
ACM Special Interest Group on Programming Languages und ACM Special
Interest Group on Office Automation (Hrsg.), Proceedings of the ACM SIGPLAN
SIGOA Symposium on Text Manipulation, New York: ACM, S. 68-73.
Goldfarb, Charles F. (1995), The SGML Handbook, hrsg. von Yuri Rubinsky, Oxford:
Clarendon Press.
Goldin, Dina (2006), »The Interactive Nature of Computing: Refuting the Strong
Church–Turing Thesis«, in: Minds and Machines, 18, 1, S. 17-38.
Goldstein, E. Bruce (2002), Wahrnehmungspsychologie, Heidelberg: Spektrum Aka-
demischer Verlag.
Goodman, Nelson (1998), Weisen der Welterzeugung, Frankfurt a.M.: Suhrkamp.
Google, »File Types Indexable by Google«, https://support.google.com/webmasters/
answer/35287?hl=en (zuletzt aufgerufen am 10.09.2013).
Gordon, W. Terrence (1997), Marshall McLuhan: Escape into Understanding: A Bio-
graphy, Escape into Understanding: Basic Books.
Gordon, W. Terrence (2003), Critical Reception of Understanding Media, Corte
Madera: Gingko Press, S. 545-558.
Gosch, Josias Ludwig (2006 [1789]), Fragmente über den Ideenumlauf, hrsg. von
Georg Stanitzek und Hartmut Winkler, Berlin: Kadmos.
Govcom.org (2008), »Google and the Politics of Tabs«, http://movies.issuecrawler.
net/google.html (zuletzt aufgerufen am 31.07.2012).
Gozzi Jr., Raymond (1999), The Power of Metaphor in the Age of Electronic Media,
Cresshill: Hampton Press.
Grampp, Sven (2006), »McLuhmann. Niklas Luhmanns Systemtheorie und die
Realität der Medien«, in: MEDIENwissenschaft, 3, S. 260-276.
Greenwald, Glenn und Ewen MacAskill (2013), »NSA Prism Program Taps in to
User Data of Apple, Google and others«, in: The Guardian, 7.6.2013, S. 1, http://
www.guardian.co.uk/world/2013/jun/06/us-tech-giants-nsa-data.
Grier, David Alan (2005), When Computers Were Human, Princeton: Princeton
University Press.
Groys, Boris (2000), Unter Verdacht: Eine Phänomenologie der Medien, München/
Wien: Hanser.
Gugerli, David (2006), »Suchmaschinen und Subjekte«, in: Lorenz Engell et al.
(Hrsg.), Kulturgeschichte als Mediengeschichte (oder vice versa?), Weimar: VDG,
S. 137-154.
Gugerli, David (2007a), »Die Welt als Datenbank: Zur Relation von Sotfwareentwick-
lung, Abfragetechnik und Deutungsautonomie«, in: David Gugerli et al. (Hrsg.),
Nach Feierabend 2007: Daten; Züricher Jahrbuch für Wissensgeschichte 3, Berlin:
Diaphanes, S. 11-36.
Literatur 363
Gugerli, David (2007b), »Editorial«, in: David Gugerli et al. (Hrsg.), Nach Feierabend
2007: Daten; Züricher Jahrbuch für Wissensgeschichte 3, Berlin: Diaphanes, S.
7-8.
Gugerli, David (2009), Suchmaschinen: Die Welt als Datenbank, Frankfurt a.M.:
Suhrkamp.
Gumm, Heinz-Peter und Manfred Sommer (2009), Einführung in die Informatik,
München: Oldenbourg.
Günzel, Stephan (2009), »Archivtheorie zwischen Diskursarchäologie und
Phänomenologie«, in: Knut Ebeling und Stephan Günzel (Hrsg.), Archivlologie:
Theorien des Archivs in Philosophie, Medien und Künsten, Berlin: Kadmos, S.
153-162.
Haber, Peter (2007), »Weltbibliothek oder Diderots Erben?: Traditionslinien von
Wikipedia«, in: Rainer Koschke et al. (Hrsg.), Informatik 2007: Informatik trifft
Logistik, Bd. 2; Beiträge der 37. Jahretagung der Gesellschaft für Informatik e.V.,
Bonn: Köllen, S. 497-502.
Hagemeyer, Friedrich-Wilhelm (1979), Die Entstehung von Informationskonzepten
in der Nachrichtentechnik: Eine Fallstudie zur Theoriebildung in der Technik in
Industrie- und Kriegsforschung, Dissertation, Fachbereich Philosophie, Freie
Universität, Berlin, 08.11.1979, http://www.weisses-rauschen.de/hero/hagemey
er/hagemeyer_dissertation.pdf (zuletzt aufgeru fen am 21.07.2010).
Hagen, Wolfgang (2008), »Metaxy: Eine historiosemantische Fußnote zum Medien-
begriff«, in: Stefan Münker und Alexander Roesler (Hrsg.), Was ist ein Medium?,
Frankfurt a.M.: Suhrkamp, S. 13-29.
Haigh, Thomas (2001a), »The Chromium-Plated Tabulator: Institutionalizing an
Electronic Revolution, 1954-1958«, in: IEEE Annals of the History of Computing,
23, 4, S. 75-104.
Haigh, Thomas (2001b), »Inventing Information Systems: The Systems Men and the
Computer, 1950-1968«, in: Business History Review, 75, S. 15-61.
Haigh, Thomas (2002), »Software in the 1960s as Concept, Service, and Product«, in:
IEEE Annals of the History of Computing, 24, 1, S. 5-13.
Haigh, Thomas (2007), »›A Veritable Bucket of Facts‹: Ursprünge des Datenbank-
managementsystems«, in: David Gugerli et al. (Hrsg.), Nach Feierabend 2007:
Daten; Züricher Jahrbuch für Wissensgeschichte 3, Berlin: Diaphanes, S. 57-98.
Haigh, Thomas (2009), »How Data Got its Base: Information Storage Software in the
1950s and 1960s«, in: IEEE Annals of the History of Computing, 31, 4, S. 6-25.
Halpin, Harry und Patrick J. Hayes (2010), »When owl:sameAs isn’t the Same: An
Analysis of Identity Links on the Semantic Web«, in: Proceedings of the
WWW2010 Workshop on Linked Data on the Web, LDOW 2010, Raleigh.
Hartmann, Frank (2003), »Der rosarote Panther lebt«, in: Stefan Münker (Hrsg.),
Medienphilosophie: Beiträge zur Klärung eines Begriffs, Frankfurt a.M.: Fischer,
S. 135-149.
Hartmann, Frank (2006), Globale Medienkultur: Technik, Geschichte, Theorien,
Wien: WUV.
364 Digitale Datenbanken
Hayles, N. Katherine (1999), How We Became Posthuman: Virtual Bodies in
Cybernetics, Literature, and Informatics, Chicago: University of Chicago Press.
Hayles, N. Katherine (2012), How We Think: Digital Media and Contemporary Tech-
nogenesis, Chicago: University of Chicago Press.
Heath, Tom und Christian Bizer (2011), Linked Data: Evolving the Web into a Global
Data Space, Synthesis Lectures on the Semantic Web: Theory and Technology,
San Rafael: Morgan & Claypool.
Heide, Lars (2009), Punched-Card Systems and the Early Information Explosion
1880-1945, Baltimore: Johns Hopkins University Press.
Heidegger, Martin (1993 [1927]), Sein und Zeit, Tübingen: Max Niemeyer Verlag.
Heidegger, Martin (2000 [1953]), »Die Frage nach der Technik«, in: Vorträge und
Aufsätze, Gesamtausgabe, I. Abteilung: Veröffentlichte Schriften 1910-1976, Bd. 7,
Frankfurt a.M.: Vittorio Klostermann, S. 5-36.
Heider, Fritz (1926), »Ding und Medium«, in: Symposion, 1, S. 109-157.
Heine, Matthias (2005), »Nie mehr ›googeln‹«, in: Die Welt, 15.08.2006, http://www.
welt.de/wirtschaft/webwelt/article235996/Nie-mehr-googeln.html (zuletzt auf-
gerufen am 20.06.2013).
Heising, William P. (1958), »Methods of File Organization for Efficient Use of IBM
RAMAC Files«, in: Proceedings of the Western Joint Computer Conference: Con-
trasts in Computers, Los Angeles, S. 194-196.
Hendler, Jonathan (2008), »Where Clay Shirky misses in ›The Semantic Web,
Syllogism, and Worldview‹«, in: jonathan’s blog, 24.04.2008, http://semanticsea
rch.org/where-clay-shirky-misses-semantic-web-syllogism-and-worldview (zu-
letzt aufgerufen am 14.12.2011).
Hendry, David G. und Efthimis N. Efthimiadis (2008), »Conceptual Models for
Search Engines«, in: Amanda Spink und Michael Zimmer (Hrsg.), Web Search:
Multidisciplinary Perspectives, Berlin: Springer, S. 277-307.
Henning, Peter A. und Holger Vogelsang (2004), Taschenbuch Programmier-
sprachen, München: Fachbuchverlag Leipzig im Carl Hanser Verlag.
Heuer, Andreas et al. (2001), Datenbanken – kompakt, Bonn: mitp-Verlag.
Hickethier, Knut (1988), »Das ›Medium‹, die ›Medien‹ und die Medienwissenschaft«,
in: Rainer Bohn et al. (Hrsg.), Ansichten einer künftigen Medienwissenschaft,
Berlin: Edition Sigma, S. 51-74.
Hiebel, Hans H. (1998), Die Medien : Logik – Leistung – Geschichte, München: Fink.
Hilgers, Philipp von (2010), »Ursprünge der Black Box«, in: Ana Ofak und Ders.
(Hrsg.), Rekursionen: Von Faltungen des Wissens, München: Fink, S. 135-153.
Hillmann, Dan (2010), The Joy of Stats, Wingspan Productions.
Höfer, Werner (1981), »Gedruckt wie gefunkt«, in: Ders. (Hrsg.), Was sind Medien,
Percha am Starnberger See: R.S. Schulz, S. 7-9.
Hoffmann, Justin (1997), »Die Angst vor dem Verschwinden«, in: Ingrid Schaffner
et al. (Hrsg.), Deep storage: Arsenale der Erinnerung; Sammeln, Speichern, Archi-
vieren in der Kunst [anläßlich der Ausstellung ›Deep Storage – Arsenale der Er-
innerung‹ im Haus der Kunst, München (3.8.-12.10.1997), in der Nationalgalerie
Literatur 365
SMPK, Sonderausstellungshalle am Kulturforum Berlin (Dezember 1997 - Januar
1998), im Kunstmuseum Düsseldorf im Ehrenhof (Februar 1998)], München:
Prestel, S. 269-272.
Hoffmann, Stefan (2002), »Geschichte des Medienbegriffs«, in: Archiv für Begriffs-
geschichte: Sonderheft.
Hollerith, Herman (1889), »Improvements in the Methods of and Apparatus for
Compiling Statistics«, Computer History Museum, B332.85, http://www.comput
erhistory.org/collections/catalog/B332.85 (zuletzt aufgerufen am 20.09.2013).
Holmes, James F. (1962), »Communications Dictionary: A Compilation of Terms
used in the fFelds of Electronic Communications and Data Processing« in:
Information Processing Glossaries Collection (CBI 92), Box 1, Folder 5, Charles
Babbage Institute, University of Minnesota, Minneapolis.
Holovaty, Adrian (2006), »A Fundamental Way Newspaper Sites Need to Change«,
http://www.holovaty.com/writing/fundamental-change/ (zuletzt aufgerufen am
15.04.2012).
Huber, Hans-Dieter (2004), Bild Beobachter Milieu: Entwurf einer allgemeinen Bild-
wissenschaft, Ostfildern-Ruit: Hatje Cantz Verlag.
Husserl, Edmund (1950 [1913]), »Ideen zu einer reinen Phänomenologie und
phänomenologischen Philosophie: Allgemeine Einführung in die reine
Phänomenologie«, in: Husserliana, III, Den Haag: Martinus Nijhoff.
Husserl, Edmund (1975 [1900]), »Logisches Untersuchungen, Bd. 1: Prolegomena
zur reinen Logik«, in: Husserliana, XVIII, Den Haag: Martinus Nijhoff.
Husserl, Edmund (1980), »Phantasie, Bildbewußtsein, Erinnerung: Zur
Phänomenologie der anschaulichen Vergegenwärtigung: Texte aus dem Nachlaß
(1898-1925)«, in: Husserliana, XXIII, Den Haag: Nijhoff.
Husserl, Edmund (1984), »Beilage zu den Paragraphen 11 und 20: Zur Kritik der
›Bildertheorie‹ und der Lehre von den ›immanenten‹ Gegenständen der Akte;
Logische Untersuchungen 2/1: Untersuchungen zur Phänomenologie und
Theorie der Erkenntnis«, in: Husserliana, XIX/1, Den Haag: Martinus Nijhoff, S.
436-440.
Husserl, Edmund (1996), Die Krisis der europäischen Wissenschaften und die trans-
zendentale Phänomenologie: Eine Einleitung in die phänomenologische Phi-
losophie, hrsg. von Elisabeth Ströker, Hamburg: Meiner.
IBM (1957), 305 RAMAC Manual of Operation, New York: IBM.
IBM (1958), 305 RAMAC Programmer’s Guide, New York: IBM.
IBM (1959), 305 RAMAC Customer Engineering Manual of Instruction, New York:
IBM.
IBM (1962), »Reference Manual: Glossary for Information Processing« in:
Information Processing Glossaries Collection (CBI 92), Box 1, Folder 36, Charles
Babbage Institute, University of Minnesota, Minneapolis.
IBM (1968), »A Data Processing Glossary« in: Information Processing Glossaries
Collection (CBI 92), Box 1, Folder 53, Charles Babbage Institute, University of
Minnesota, Minneapolis.
366 Digitale Datenbanken
IBM (1972), »Data Processing Glossary« in: Information Processing Glossaries
Collection (CBI 92), Box 1, Folder 1, Charles Babbage Institute, University of
Minnesota, Minneapolis.
IBM (1977), »Data Processing Glossary« in: Information Processing Glossaries
Collection (CBI 92), Box 1, Folder 2, Charles Babbage Institute, University of
Minnesota, Minneapolis.
IBM (1981), »Vocabulary for Data Processing, Telecommunications, and Office
Systems« in: Information Processing Glossaries Collection (CBI 92), Box 1,
Folder 16, Charles Babbage Institute, University of Minnesota, Minneapolis.
IDC (2007), »Expanding the Digital Universe: A Forecast of Worldwide Information
Growth Through 2010«, http://www.emc.com/about/destination/digital_uni-
verse/index.jsp (zuletzt aufgerufen am 20.05.2007).
IDC (2008), »The Diverse and Exploding Digital Universe: An Updated Forecast of
Worldwide Information Growth through 2011«, http://www.emc.com/leadersh
ip/digital-universe/expanding-digital-universe.htm (zuletzt aufgerufen am
19.04.2008).
IDC (2010), »The Digital Universe Decade – Are You Ready?«, http://www.emc.com/
collateral/analyst-reports/idc-digital-universe-are-you-ready.pdf (zuletzt auf-
gerufen am 10.02.2012).
IDC (2012), »The Digital Universe in 2020: Big Data, Bigger Digital Shadows, and
Biggest Growth in the Far East«, http://www.emc.com/leadership/digital-univer
se/iview/index.htm (zuletzt aufgerufen am 20.06.2013).
Ihde, Don (2003a), »If Phenomenology Is an Albatross, Is Post-phenomenology
Possible?«, in: Don Ihde (Hrsg.), Chasing Technoscience: Matrix for Materiality,
Bloomington: Indiana University Press, S. 131-144.
Ihde, Don (2003b), »Postphenomenology – Again?«, in: Working Papers from Centre
for STS Studies, http://sts.imv.au.dk/en/workpaper-3-d-ihde-postphenomenol
ogy-again (zuletzt aufgerufen am 21.03.2010), S. 3-25.
Ihde, Don (2008), »Introduction: Postphenomenological Research«, in: Human
Studies, 31, 1, S. 1-9.
Introna, Lucas D. und Helen Nissenbaum (2000), »Shaping the Web: Why the
Politics of Search Engines Matters«, in: The Information Society, 16, 3, S. 169-185.
Jäger, Ludwig (2002), »Transkriptivität: Zur medialen Logik der kulturellen
Semantik«, in: Gottfried Jäger und Georg Stanitzek (Hrsg.), Transkribieren
Medien/Lektüre, München: Fink, S. 19-41.
Jäger, Ludwig (2004a), »Die Verfahren der Medien: Transkripieren – Adressieren –
Lokalisieren«, in: Jürgen Fohrmann und Erhard Schüttpelz (Hrsg.), Die Kom-
munikation der Medien, Tübingen: Max Niemeyer Verlag, S. 69-79.
Jäger, Ludwig (2004b), »Störung und Transparenz: Skizze zur performativen Logik
des Medialen«, in: Sybille Krämer (Hrsg.), Performativität und Medialität,
München: Fink, S. 35-73.
Literatur 367
Jardine, Donald A. (1973), »Data Independence: Ad Hoc Presentation« in: Charles
W. Bachman Papers (CBI 125), Box 16, Folder 30, Charles Babbage Institute,
University of Minnesota, Minneapolis.
Joint GUIDE-SHARE Database Requirements Group (1970), DATA BASE
Management System Requirements, New York.
Jonas, Jeff und Lisa Sokol (2009), »Data finds Data«, in: Toby Segaran und Jeff
Hammerbacher (Hrsg.), Beautiful Data: The Stories Behind Elegant Data
Solutions, Beijing: O’Reilly, S. 105-118.
Kahle, Brewster (1997), »Preserving the Internet«, in: Scientific American, 276, 3, S.
82-83.
Kahle, Brewster (2007), »Universal Access to All Knowledge«, in: The American
Archivist, 70, 1, S. 23-31.
Kant, Immanuel (2000), Kritik der reinen Vernunft, Werkausgabe, hrsg. von Wilhelm
Weischedel, 3, Frankfurt a.M.: Suhrkamp.
Kay, Alan und Adele Goldberg (2003 [1977]), »Personal Dynamic Media«, in: Noah
Wardrip-Fruin und Nick Montfort (Hrsg.), The New Media Reader, Cambridge:
MIT Press, S. 393-404.
Keller, Mikaela et al. (2009), »Use of Unstructured Event-Based Reports for Global
Infectious Disease Surveillance«, in: Emerging Infectious Diseases, 15, 5, S. 689-
695.
Kelly, Kevin (1984), »The Birth of a Network Nation«, in: New Age Journal, October,
S. 31-42.
Kelly, Kevin (2007), »What is the Quantified Self?«, in: The Quantified Self, 5.10.2007,
http://quantifiedself.com/2007/10/what-is-the-quantifiable-self/ (zuletzt aufge-
rufen am 29.07.2013).
Khurana, Thomas (1998), »Was ist ein Medium? Etappen einer Umarbeitung der
Ontologie mit Luhmann und Derrida«, in: Sybille Krämer (Hrsg.), Über Medien:
Geistes- und kulturwissenschaftliche Perspektiven, Berlin.
Kirschenbaum, Matthew G. (2008), Mechanisms: New Media and the Forensic
Imagination, Cambridge: MIT Press.
Kittler, Friedrich (1986), Grammophon, Film, Typewriter, Berlin: Brinkmann &
Bose.
Klee, Paul (1971), Form und Gattungslehre, Das bildnerische Denken, Bd. 1, Basel/
Stuttgart: Schwabe & Co.
Klein, Andreas (2007), Visuelle Kryptographie, Berlin: Springer.
Kleinberg, Jon (1999), »Authoritative Sources in a Hyperlinked Environment«, in:
Journal of the ACM (JACM), 46, S. 604-632.
Kleinberg, Jon (2000): Method and System for Identifying Authoritative Information
Resources in an Environment with Content-Based Links Between Information
Resources, U.S. 6,112,202, United States Patents and Trademark Office,
29.08.2000.
Klout, »How it Works«, http://klout.com/corp/how-it-works (zuletzt aufgerufen am
10.08.2013).
368 Digitale Datenbanken
Kobilarov, Georgi et al. (2009), »Media Meets Semantic Web: How the BBC Uses
DBpedia and Linked Data to Make Connections«, in: Lora Aroyo et al. (Hrsg.),
The Semantic Web: Research and Applications; 6th European Semantic Web
Conference, ESWC 2009 Heraklion, Crete, Greece, May 31–June 4, 2009 Procee-
dings, Berlin: Springer, S. 723-737.
Koch, Christoph (2010), Ich bin dann mal offline: Ein Selbstversuch. Leben ohne
Internet und Handy, München: Blanvalet.
Kommission der Europäischen Union (2005), First Evaluation of Directive 96/9/EC
on the Legal Protection of Databases (12.12.2005), http://ec.europa.eu/internal_
market/copyright/docs/data bases/evaluation_report_en.pdf.
Konitzer, Werner (2006), Medienphilosophie, München: Fink.
Krajewski, Markus (2002), Zettelwirtschaft: die Geburt der Kartei aus dem Geiste der
Bibliothek, Berlin: Kadmos.
Krajewski, Markus (2007), »In Formation: Aufstieg und Fall der Tabelle als
Paradigma der Datenverarbeitung«, in: David Gugerli et al. (Hrsg.), Nach Feier-
abend 2007: Daten; Züricher Jahrbuch für Wissensgeschichte 3, Berlin: Dia-
phanes, S. 37-55.
Krajewski, Markus (2009), »Ask Jeeves: Der Diener als Informationszentrale«, in:
Recherche – Zeitschrift für Wissenschaft, http://www.recherche-online.net/ask-
jeeves.html (zuletzt aufgeruf en am 20.05.2012).
Krajewski, Markus (2010), Der Diener: Mediengeschichte einer Figur zwischen König
und Klient, Frankfurt a.M.: S. Fischer.
Krämer, Sybille (1998a), »Form als Vollzug oder: Was gewinnen wir mit Niklas Luh-
manns Unterscheidung von Medium und Form«, in: Dies. (Hrsg.), Über Medien:
Geistes- und kulturwissenschaftliche Perspektiven, Berlin, http://web.archive.or
g/web/19991007142237/http://userpage.fu-berlin.de/%7Esybkram/medium/kra
emer2.html (zuletzt aufgerufen am 09.02.2014).
Krämer, Sybille (1998b), »Von der sprachkritischen zur medienkritischen Wende?
Sieben Thesen zur Mediendebatte als eine Einleitung in diese Textsammlung«,
in: Sybille Krämer (Hrsg.), Über Medien: Geistes- und kulturwissenschaftliche
Perspektiven, Berlin.
Krämer, Sybille (2000a), »Das Medium als Spur und als Apparat«, in: Dies. (Hrsg.),
Medien Computer Realität: Wirklichkeitsvorstellungen und Neue Medien, Frank-
furt a.M.: Suhrkamp, S. 73-94.
Krämer, Sybille (2000b) (Hrsg.), Medien, Computer, Realität: Wirklichkeitsvorstel-
lungen und Neue Medien, Frankfurt a.M.: Suhrkamp.
Krämer, Sybille (2003a), »Erfüllen Medien eine Konstitutionsleistung? Thesen über
die Rolle medientheoretischer Erwägungen beim Philosophieren«, in: Stefan
Münker et al. (Hrsg.), Medienphilosophie: Beiträge zur Klärung eines Begriffs,
Frankfurt a.M.: Fischer, S. 78-90.
Krämer, Sybille (2003b), »›Schriftbildlichkeit‹ oder: Über eine (fast) vergessene
Dimension der Schrift«, in: Sybille Krämer und Horst Bredekamp (Hrsg.), Bild,
Schrift, Zahl, München: Fink, S. 157-176.
Literatur 369
Krämer, Sybille (2008), Medium, Bote, Übertragung: Kleine Metaphysik der Media-
lität, Frankfurt a.M.: Suhrkamp.
Kreis, Guido (2010), Cassirer und die Formen des Geistes, Berlin: Suhrkamp.
Kristeva, Julia (1972), »Bachtin, das Wort, der Dialog und der Roman«, in: Jens Ihwe
(Hrsg.), Literaturwissenschaft und Linguistik. Ergebnisse und Perspektiven. Bd. 3:
Zur linguistischen Basis der Literaturwissenschaft II, Frankfurt a.M.: Athenäum,
S. 345-375.
Kübler, Hans-Dieter (2000), Mediale Kommunikation, Tübingen: Niemeyer.
Kuhlen, Rainer (1991), Hypertext: Ein nicht-lineares Medium zwischen Buch und
Wissensbank, Berlin: Springer.
Küppers, Bernd-Olaf (1999), »Zur konstruktivistischen Kritik am Informations-
begriff der Biologie«, in: Wolfram Hogrebe (Hrsg.), Subjektivität, Paderborn:
Fink, S. 27-47.
Landow, George P. (1992), Hypertext 2.0: The Convergence of Contemporary Critical
Theory and Technology, Baltimore: Johns Hopkins University Press.
Lang, Walter (1957), Desk Set (Deutscher Titel: Eine Frau, die alles weiß), 20th
Century Fox, DVD, 100 Min.
Larson, H. T. (1958), »Session: The Social Problems of Automation – Introduction«,
in: Proceedings of the Western Joint Computer Conference: Contrasts in
Computers, Los Angeles, S. 7.
Lassilia, Ora (2007), »Semantic Web Soul Searching«, in: Wilbur-and-O: Ora
Lassila’s blog about Common Lisp, Semantic Web, and Wilbur, 19.03.2007, http://
www.lassila.org/blog/archive/2007/03/semantic_web_so_1.html (zuletzt auf-
gerufen am 19.12.2011).
Laßwitz, Kurd (1998 [1904]), Die Universalbibliothek, Hannover: Wehrhahn.
Latour, Bruno (2002), Die Hoffnung der Pandorra: Untersuchungen zur Wirklichkeit
der Wissenschaft, Frankfurt a.M.: Suhrkamp.
Latour, Bruno (2006), »Drawing Things Together: Die Macht der unveränderlich
mobilen Elemente«, in: Andréa Belliger und David J. Krieger (Hrsg.), AN-
Thology: Ein einführendes Handbuch zur Akteur-Netzwerk-Theorie, Bielefeld:
Transcript, S. 259-307.
Latour, Bruno (2007a), »Click era spawns a data-rich world«, in: Times Higher
Education, April 6th, 2007, http://www.timeshighereducation.co.uk/features/cli
ck-era-spawns-a-data-rich-world/208526.article (zuletzt aufgerufen am
09.02.2014).
Latour, Bruno (2007b), Eine neue Soziologie für eine neue Gesellschaft: Einführung in
die Akteur-Netzwerk-Theorie, Frankfurt a.M.: Suhrkamp.
Latour, Bruno (2009), »Die Logistik der immutable mobiles«, in: Jörg Döring und
Tristan Thielmann (Hrsg.), Mediengeographie: Theorie – Analyse – Diskussion,
Bielefeld: Transcript, S. 111-144.
Latour, Bruno (2010), »Tarde’s idea of quantification«, in: Matei Candea (Hrsg.), The
Social after Gabriel Tarde: Debates and assessments, London: Routledge, S. 145-
162.
370 Digitale Datenbanken
Lehmann, Maren (2002), »Das Medium der Form: Versuch über die Möglichkeiten
George Srencer-Browns Kalkül der Gesetze der Form als Medientheorie zu
lesen«, in: Jörg Brauns (Hrsg.), Form und Medium, Weimar: VDG, S. 39-56.
Leistert, Oliver und Theo Röhle (2011) (Hrsg.), Generation Facebook: Über das Leben
im Social Net, Bielefeld: Transcript.
Lesser, Murray L. und J.W. Haanstra (1957), »The RAMAC Data-Processing
Machine: System Organization of the IBM 305«, in: Proceedings of the Eastern
Joint Computer Conference: New Developments in Computers, New York, S. 139-
146.
Lewandowski, Dirk (2011), »Query Understanding«, in: Ders. (Hrsg.), Handbuch
Internet-Suchmaschinen 2: Neue Entwicklungen in der Web-Suche, Heidelberg:
Akademische Verlagsgesellschaft, S. 55-75.
Licklider, Joseph C. R. (1964), »Introduction«, in: Proceedings of the Symposium on
Development and Management of a Computer-Centered Data Base (June 10-11,
1963), Santa Monica: System Development Corporation, S. 1-7.
Licklider, Joseph C. R. (1965), Libraries of the future, Cambridge: MIT Press.
Light, Jennifer S. (1999), »When Computers Were Women«, in: Technology and
Culture, 40, 3, S. 455-483.
Lindberg, David C. (1987), Auge und Licht im Mittelalter: Die Entwicklung der Optik
von Alkindi bis Kepler, Frankfurt a.M.: Suhrkamp.
Lipton, Eric und Scott Shane (2009), »Questions on Why Suspect Wasn’t Stopped«,
in: The New York Times, 27.12.2013, http://www.nytimes.com/2009/12/28/us/28-
terror.html (zuletzt aufger ufen am 16.06.2013).
Liu, Alan (2008), Local Transcendence: Essays on Postmodern Historicism and the
Database, Chicago: University of Chicago Press.
Lobin, Henning (2000), Informationsmodellierung in XML und SGML, Berlin:
Springer.
LOD2 (2010), »Welcome«, http://lod2.eu/Welcome.html (zuletzt aufgerufen am
10.02.2013).
Loebel, Jens Martin (2007), »Probleme und Strategien der Langzeitarchivierung
multimedialer Objekte«, in: Rainer Koschke et al. (Hrsg.), Informatik 2007:
Informatik trifft Logistik, Bd. 2; Beiträge der 37. Jahretagung der Gesellschaft für
Informatik e.V., Bonn: Köllen, S. 509-514.
Loukides, Mike (2010), »What is Data Science?: The Future Belongs to the Companies
and People that Turn Data into Products«, in: O’Reilly Radar, http://radar.oreilly.
com/2010/06/what-is-data-science.html (zuletzt aufgerufen am 21.09.2011).
Lovink, Geert (2009), »Die Gesellschaft der Suche: Fragen oder Googeln«, in:
Konrad Becker und Felix Stalder (Hrsg.), Deep Search: Politik des Suchens jen-
seits von Google, Innsbruck u.a.: Studien Verlag, S. 53-63.
Luhmann, Niklas (1981), »Kommunikation mit Zettelkästen: Ein Erfahrungs-
bericht«, in: Horst Baier et al. (Hrsg.), Öffentliche Meinung und sozialer Wandel:
Für Elisabeth Noelle-Neumann, Opladen: Wesdeutscher Verlag, S. 222-228.
Literatur 371
Luhmann, Niklas (1986), »Das Medium der Kunst«, in: Delfin: Eine deutsche Zeit-
schrift für Konstruktion, Analyse und Kritik, 4, S. 6-15.
Luhmann, Niklas (1991), »Die Unwahrscheinlichkeit der Kommunikation«, in:
Niklas Luhmann (Hrsg.), Soziologische Aufklärung 3: Soziales System, Gesell-
schaft, Organisation, Opladen: Westdeutscher Verlag, S. 25-34.
Luhmann, Niklas (1992), Die Wissenschaft der Gesellschaft, Frankfurt a.M.: Suhr-
kamp.
Luhmann, Niklas (1995), Die Kunst der Gesellschaft, Frankfurt a.M.: Suhrkamp.
Luhmann, Niklas (1996), Die Realität der Massenmedien, Opladen: Westdeutscher
Verlag.
Luhmann, Niklas (1998), Die Gesellschaft der Gesellschaft, 2 Bde., Frankfurt a. M.:
Suhrkamp.
Luhmann, Niklas (1999), Soziale Systeme: Grundrisse einer allgemeinen Theorie,
Frankfurt a.M.: Suhrkamp.
Lussier, Germain (2011), »First Look: Tom Hardy As Bane From ›The Dark Knight
Rises‹«, in: Slashfilm: Blogging the Real World, 20.05.2011, http://www.slashfilm.
com/first-look-tom-hardy-as-bane-from-the-dark-knight-rises/ (zuletzt auf-
gerufen am 21.09.2013).
Lusti, Markus (1997), Dateien und Datenbanken, Berlin: Springer.
Lyman, Peter (2002), »Archiving the World Wide Web«, in: Building a National
Strategy for Digital Preservation: Issues in Digital Media Archiving Commis-
sioned for and sponsored by the National Digital Information Infrastructure and
Preservation Program, http://www.clir.org/pubs/reports/pub106/pub106.pdf
(zuletzt aufgerufen am 01.12.2008), S. 38-51.
Lyman, Peter et al. (2000), »How Much Information 2000?«, http://www2.sims.berk
eley.edu/research/projects/how-much-info/ (zuletzt aufgerufen am 25.01.2010).
Lyman, Peter et al. (2003), »How Much Information 2003?«, http://www2.sims.
berkeley.edu/research/projects/how-much-info-2003/ (zuletzt aufgerufen am
20.10.2007).
Lyotard, Jean-François (2009 [1979]), Das postmoderne Wissen: Ein Bericht, Wien:
Passagen.
Lyre, Holger (2002), Informationstheorie: Eine philosophisch-naturwissenschaftliche
Einführung, München: Fink.
MacAskill, Ewen et al. (2013a), »GCHQ Taps Fibre-Optic Cables for Secret Access to
World’s Communications«, in: The Guardian, 22.6.2013, S. 1, http://www.guar
dian.co.uk/uk/2013/jun/21/gchq-cables-secret-world-communications-nsa (zu-
letzt aufgerufen am 09.02.2014).
MacAskill, Ewen et al. (2013b), »Mastering the internet: how GCHQ set out to spy
on the world wide web«, in: The Guardian, 22.6.2013, S. 6, http://www.guardian.
co.uk/uk/2013/jun/21/gchq-mastering-the-internet (zuletzt aufgerufen am
09.02.2014).
Madhavan, Jayant et al. (2008), »Google’s Deep Web Crawl«, in: Proceedings of the
VLDB Endowment, 1, S. 1241-1252.
372 Digitale Datenbanken
Maletzke, Gerhard (1963), Psychologie der Massenkommunikation: Theorie und
Systematik, Hamburg: Verlag Hans-Bredow-Institut.
Malone, Cheryl Knott (2002), »Imagining Information Retrieval in the Library:
Desk Set in Historical Context«, in: IEEE Annals of the History of Computing, 24,
3, S. 14-22.
Manovich, Lev (2001), The Language of New Media, Cambridge: MIT Press.
Manovich, Lev (2005), »Die ›Metadatierung‹ des Bildes: Metadaten, Mon Amour«,
in: Lev Manovich (Hrsg.), Black Box – White Cube, Berlin: Merve, S. 29-51.
Manovich, Lev (2009), »Auf den Spuren der globalen digitalen Kulturen: Kulturana-
lytik für Anfänger«, in: Konrad Becker und Felix Stalder (Hrsg.), Deep Search:
Politik des Suchens jenseits von Google, Innsbruck u.a.: Studien Verlag, S. 221-
236.
Manovich, Lev (2011), »Against Search«, http://lab.softwarestudies.com/2011/07/ag
ainst-search.html (zuletzt aufgerufen am 04.09.2011).
Manovich, Lev (o.J.), »SOFT CINEMA Explores 4 Ideas«, in: Soft Cinema: Ambient
Narrative, http://www.softcinema.net/form.htm (zuletzt aufgerufen am
14.10.2012).
Manovich, Lev und Andreas Kratky (2005), Soft Cinema: Navigating the Database,
Cambridge: MIT Press.
Markov, Andrej A. (2007 [1913]), »Beispiel einer statistischen Untersuchung am Text
›Evgenij Onegin‹ zur Veranschaulichung der Zusammenhänge von Proben in
Ketten«, in: Philipp von Hilgers und Wladimir Velminski (Hrsg.), Andrej A.
Markov: Berechenbare Künste; Mathematik, Poesie, Moderne, Zürich: Dia-
phanes, S. 75-88.
Marr, David (1982), Vision: A Computational Investigation Into the Human
Representation and Processing of Visual Information, San Francisco: W.H.
Freeman & Company.
Martens, Gunter (1991), »›Historisch‹, ›kritisch‹ und die Rolle des Herausgebers bei
der Textkonstitution«, in: editio, 5, S. 12-27.
Matzat, Lorenz (2010), »Irak-Protokolle: Zähmung einer Datenflut«, in: Zeit Online
Data Blog: Offene Daten – offene Gesellschaft, 24.10.2010, http://blog.zeit.de/
open-data/2010/10/24/irak-protokolle-zahmung-einer-datenflut/ (zuletzt aufge-
rufen am 16.04.2012).
Mawudeku, Abla und Michael Blench (2005), »Global Public Health Intelligence
Network (GPHIN)«, in: Conference Proceedings: the tenth Machine Translation
Summit; Phuket, Thailand, 13.-15. Semtember 2005, S. i7-i11.
Mayer, Katja (2009), »Zur Soziometrik der Suchmaschinen: Ein historischer Über-
blick der Methodik«, in: Konrad Becker und Felix Stalder (Hrsg.), Deep Search:
Politik des Suchens jenseits von Google, Innsbruck u.a.: Studien Verlag, S. 64-83.
Mayer-Schönberger, Viktor (2008), »Nützliches Vergessen«, in: Michael Reiter und
Maria Wittmann-Tiwald (Hrsg.), Goodbye Privacy: Grundrechte in der digitalen
Welt; Internationales Symposium veranstaltet von der Fachgruppe Grundrechte
Literatur 373
in der Vereinigung österreichischer Richterinnen und Richter in Kooperation mit
der Ars Electronica Linz (5.9.2007), Wien: Linde, S. 9-15.
Mayer-Schönberger, Viktor (2009), Delete: The Virtue of Forgetting in the Digital
Age, Princeton: Princeton University Press.
Mayer-Schönberger, Viktor und Kenneth Cukier (2013), Big Data: A Revolution
That Will Transform How We Live, Work and Think, Boston: Eamon Dolan/
Houghton Mifflin Harcourt.
Mazza, Riccardo (2009), Introduction to Information Visualization, London:
Springer.
McCandless, David (2010), »Information is beautiful: war games«, in: Datablog:
Facts are sacred, 01.04.2010, http://www.guardian.co.uk/news/datablog/2010/
apr/01/information-is-beautiful-military-spending (zuletzt aufgerufen am
10.07.2013).
McGann, Jerome (2007), »Database, Interface, and Archival Fever«, in: PMLA, 122,
5, S. 1588-1592.
McGee, William C. (1981), »Data Base Technology«, in: IBM Journal of Research and
Development, 25, 5, S. 505-519.
McKenzie, Jon (2001), Perform or Else: From Discipline to Performance, London:
Routledge.
McLuhan, Marshall (1969), »Playboy Interview: a candid conversation with the high
priest of popcult and metaphysician of media«, in: Playboy, 16, 3, S. 53-74, 158.
McLuhan, Marshall (2003), Understanding Media: The Extensions of Man; Critical
Edition, hrsg. von W. Terrence Gordon, Corte Madera: Gingko Press.
McLuhan, Marshall (2005), »The Relation of Environment to Anti-Environment«,
in: W. Terrence Gordon (Hrsg.), Marshall McLuhan – Unbound (4), Corte
Madera: Gingko Press, S. 5-19.
McLuhan, Marshall und Bruce R. Powers (1989), The Global Village: Transformations
in World Life and Media in the 21st Century, New York: Oxford University Press.
McLuhan, Marshall und Nina Sutton (1975), »Interview with Nina Sutton« in: Mar-
shall McLuhan fonds, Library and Archives Canada, 1988-0333/ISN 98779.
Merleau-Ponty, Maurice (1993 [1969]), Die Prosa der Welt, hrsg. von Claude Lefort,
München: Fink.
Mersch, Dieter (2003a), »Technikapriori und Begründungsdefizit: Medienphi-
losophien zwischen uneingelöstem Anspruch und theoretischer Neufundierung«,
in: Philosophische Rundschau, 50, 3, S. 193-219.
Mersch, Dieter (2003b), »Wort, Bild, Ton, Zahl. Eine Einleitung in die Medienphi-
losophie«, in: Kunst und Medium: Zwei Vorlesungen, Kiel: Muthesius Kunst-
hochschule, S. 131-253.
Mersch, Dieter (2005), »Das Bild als Argument«, in: Christoph Wulf und Jörg Zirfas
(Hrsg.), Ikonologien des Performativen, München: Fink, S. 322-344.
Mersch, Dieter (2006a), »Mediale Paradoxa: Zum Verhältnis von Kunst und Medien.
Einleitung in eine negative Medienphilosophie«, http://www.sicetnon.org/
374 Digitale Datenbanken
content/perform/Mersch_Medienphilosophie_sw.pdf (zuletzt aufgerufen am
10.01.2007).
Mersch, Dieter (2006b), Medientheorien zur Einführung, 318, Hamburg: Junius.
Mersch, Dieter (2006c), »Visuelle Argumente: Zur Rolle der Bilder in den Natur-
wissenschaften«, in: Sabine Maasen et al. (Hrsg.), Bilder als Diskurse – Bilddis-
kurse, Weilerswist: Velbrück, S. 95-116.
Mersch, Dieter (2007), »Blick und Entzug: Zur ›Logik‹ ikonischer Strukturen«, in:
Gottfried Böhm et al. (Hrsg.), Figur und Figuration: Studien zu Wahrnehmung
und Wissen, München: Fink, S. 55-70.
Mersch, Dieter (2008), »Tertium datur: Einleitung in eine negative Medientheorie«,
in: Stefan Münker und Alexander Roesler (Hrsg.), Was ist ein Medium?, Frank-
furt a.M.: Suhrkamp, S. 304-321.
Mersch, Dieter (2010), »Meta/Dia: Zwei unterschiedliche Zugänge zum Medialen«,
in: Zeitschrift für Medien- und Kulturforschung, 1, 2, S. 185-208.
Meyer, Philip (2002), Precision Journalism: A Reporter’s Introduction to Social
Science Methods, Lanham: Rowman & Littlefield.
Meyer, Torsten (2005), »Wahn(-) und Wissensmanagement: Versuch über das
Prinzip Database«, in: Karl-Josef Pazzini et al. (Hrsg.), Wahn – Wissen –
Institution. Undisziplinierbare Näherungen, Bielefeld: Transcript, S. 221-246.
Michel, Jean-Baptiste et al. (2011), »Quantitative Analysis of Culture Using Millions
of Digitized Books«, in: Science, 331, S. 176-182.
Michelson, Evan S. (2005), »Dodging a Bullet: WHO, SARS, and the Successful
Management of Infectious Disease«, in: Bulletin of Science, Technology & Society,
25, 5, S. 379-386.
Mock, Thomas (2006), »Was ist ein Medium?: Eine Unterscheidung kom-
munikations- und medienwissenschaftlicher Grundverständnisse eines zen-
tralen Begriffs«, in: Publizistik, 51, 2, S. 183-200.
Mohebbi, Matt et al. (2011), »Google Correlate Whitepaper«, http://www.google.
com/trends/correlate/whitepaper.pdf (zuletzt aufgerufen am 20.09.2013).
Montfort, Nick (2004), »Continuous Paper: The Early Materiality and Workings of
Electronic Literature«, http://nickm.com/writing/essays/continuous_paper_
mla.html (zuletzt aufgerufen am 30.10.2010).
Montfort, Nick und Ian Bogost (2009), Racing the Beam: The Atari Video Computer
System, Cambridge: MIT Press.
Mooers, Calvin N. (1946), »This is an inquiry into the future of mankind« in: Calvin
N. Mooers Papers (CBI 81), Box 6, Folder 21, Charles Babbage Institute, Univer-
sity of Minnesota, Minneapolis.
Mooers, Calvin N. (1950a), »Information Retrieval Viewed as Temporal Signalling«,
in: Proceedings of the International Congress of Mathematicians, 1, S. 572-573.
Mooers, Calvin N. (1950b), »The Theory of Digital Handling of Non-Numerical
Information and its Implications to Machine Economics« in: Calvin N. Mooers
Papers (CBI 81), Box 21, Folder 11, Charles Babbage Institute, University of
Minnesota, Minneapolis.
Literatur 375
Mooers, Calvin N. (1960), »The Next Twenty Years in Information Retrieval«, in:
American Documentation, 11, 3, S. 229-236.
Mooers, Calvin N. (2001), »The Computer Project at the Naval Ordnance Laboratory«,
in: IEEE Annals of the History of Computing, 23, 2, S. 51-67.
Moretti, Franco (2000), »Conjectures on World Literature«, in: New Left Review, 1,
S. 54-68.
Moretti, Franco (2009), Kurven, Karten, Stammbäume: Abstrakte Modelle für die
Literaturgeschichte, Frankfurt a.M.: Suhrkamp.
Morgenroth, Karlheinz (2006), Kontextbasiertes Information Retrieval: Modell,
Konzeption und Realisierung kontextbasierter Information Retrieval Systeme,
Berlin: Logos Verlag.
Morris, Charles William (1979 [1938]), »Grundlagen der Zeichentheorie«, in:
Grundlagen der Zeichentheorie/ Ästhetik und Zeichentheorie, Frankfurt a.M.:
Ullstein, S. 17-88.
Morville, Peter (2004), »A Brief History of Information Architecture«, in: Alan Gil-
christ und Barry Mahon (Hrsg.), Information Architecture: Designing Information
Environments for Purpose, New York: Neal-Schuman, S. XII-XVI.
Morville, Peter und Louis Rosenfeld (2006), Information Architecture for the World
Wide Web: [Designing Large-Scale Web Sites; Introduces Tagging and Advanced
Findability Concepts], Beijing: O’Reilly.
Moz, »Google Algorithm Change History«, http://moz.com/google-algorithm-
change (zuletzt aufgerufen am 14.09.2013).
Münker, Stefan und Alexander Roesler (2008a), »Vorwort«, in: Dies. (Hrsg.), Was ist
ein Medium?, Frankfurt a.M.: Suhrkamp, S. 7-12.
Münker, Stefan und Alexander Roesler (2008b) (Hrsg.), Was ist ein Medium?, Frank-
furt a.M.: Suhrkamp.
Münker, Stefan et al. (2003) (Hrsg.), Medienphilosophie: Beiträge zur Klärung eines
Begriffs, Frankfurt a.M.: Fischer.
Mykhalovskiy, Eric und Lorna Weir (2006), »The Global Public Health Intelligence
Network and Early Warning Outbreak Detection: A Canadian Contribution to
Global Public Health«, in: Canadian Journal of Public Health, 97, 1, S. 42-44.
Nake, Frieder (2001), »Das Algorithmische Zeichen«, in: Kurt Bauknecht et al.
(Hrsg.), Informatik 2001: Wirtschaft und Wissenschaft in der Network Economy
– Visionen und Wirklichkeit; Tagungsband der GI/OCG-Jahrestagung, 25.-28.
September 2001, Universität Wien, Konstanz: UVK, S. 736-742.
Nake, Frieder (2005), »Das doppelte Bild«, in: Margarete Pratschke (Hrsg.), Digitale
Form, Berlin: Akademie Verlag, S. 40-50.
Nake, Frieder (2008), »Zeigen, Zeichnen und Zeichen: Der verschwundene Licht-
griffel«, in: Hans Dieter Hellige (Hrsg.), Mensch-Computer-Interface: Zur
Geschichte und Zukunft der Computerbedienung, Bielefeld: Transcript, S. 121-
154.
National Institute of Standards and Technology (1993), Integration Definition For
Information Modeling (IDEF1X) Federal Information Processing Standards
376 Digitale Datenbanken
Publication 184, http://www.itl.nist.gov/fipspubs/idef1x.doc (zuletzt aufgerufen
am 20.09.2013).
Nelson, Theodor H. (1965), »Complex Information Processing: A File Structure for
the Complex, the Changing and the Indeterminate«, in: Proceedings of the 1965
20th national conference, Cleveland, USA, S. 84-100.
Nelson, Theodor H. (1973), »A Conceptual Framework for Man-Machine Every-
thing«, in: Proceedings of the June 4-8, 1973, National Computer Conference and
Exposition, New York, USA, S. m21-m26.
Nelson, Theodor H. (1987), Literary Machines, South Bend: Mindful Press.
Nelson, Theodor H. (1991 [1972]), »As We Will Think«, in: James Nyce, M. und Paul
Kahn (Hrsg.), From Memex to Hypertext: Vannevar Bush and the Mind’s
Machine, Boston: Academic Press, S. 245-260.
Nelson, Theodor H. (2009), Geeks Bearing Gifts: How the computer world got this
way, Sausalito: Mindful Press.
Neufeld, M. Lynne und Martha Cornog (1986), »Database History: From Dinosaurs
to Compact Discs«, in: Journal of the American Society for Information Science,
37, 4, S. 183-190.
Neumann, Albrecht J. und National Bureau of Standards (1974), »A Guide to
Networking Terminology« in: Information Processing Glossaries Collection
(CBI 92), Box 1, Folder 7, Charles Babbage Institute, University of Minnesota,
Minneapolis.
Niinisalo, Jarmo (2001), »The Aphex Face«, http://www.bastwood.com/aphex.php
(zuletzt aufgerufen am 02.05.2009).
Nora, Pierre (1990), »Zwischen Geschichte und Gedächtnis: Die Gedächtnisorte«,
in: Zwischen Gedächtnis und Geschichte, Berlin: Wagenbach, S. 11-33.
Norvig, Peter (2009), »All We Want are the Facts, Ma’am«, http://norvig.com/fact-
check.html (zuletzt aufgerufen am 26.11.2010).
Nunberg, Geoffrey (1996), »Farewell to the Information Age«, in: Ders. (Hrsg.), The
Future of the Book, University of California Press: Berkeley, S. 103-138.
Nyce, James, M. und Paul Kahn (1991) (Hrsg.), From Memex to Hypertext: Vannevar
Bush and the Mind’s Machine, Boston: Academic Press.
O’Reilly, Tim (2005), »What Is Web 2.0? Design Patterns and Business Models for
the Next Generation of Software«, http://www.oreillynet.com/pub/a/oreilly/tim/
news/2005/09/30/what-is-web-20.html (zuletzt aufgerufen am 29.08.2008).
Olle, T. William (1978), The Codasyl Approach to Data Base Management, Chichester:
Wiley.
Olle, T. William (2006), »Nineteen Sixties History of Database Management«, in:
John Impagliazzo (Hrsg.), History of Computing and Education 2: IFIP 19th
World Computer Congress, WG 9.7, TC 9: History of computing, proceedings of
the Second Conference on the History of Computing and Education, August 21-24,
2006, Santiago, Chile, New York: Springer, S. 67-75.
Ott, Sascha (2004), Information: Zur Genese und Anwendung eines Begriffs, Kon-
stanz: UVK.
Literatur 377
Ottino, Julio M. (2003), »Is a Picture Worth 1.000 Words?«, in: Nature, 421, Januar,
S. 474-476.
Page, Lawrence (2001): Method for Node Ranking in a Linked Database, U.S. Patent
6,285,999, United States Patent and Trademark Office, 04.09.2001.
Page, Lawrence (2004): Method for Scoring Documents in a Linked Database, U.S.
Patent 6,799,176, United States Patent and Trademark Organization, 28.09.2004.
Page, Lawrence et al. (1998), »The PageRank Citation Ranking: Bringing Order to
the Web«, http://infolab.stanford.edu/~backrub/pageranksub.ps (zuletzt auf-
gerufen am 11.10.2010).
Paley, W. Bradford (2002a), »Alice’s Adventures in Wonderland TextArc«, http://
www.textarc.org/Alice.html (zuletzt aufgerufen am 20.09.2013).
Paley, W. Bradford (2002b), »TextArc: An Alternative Way to View a Text«, http://
www.textarc.org/ (zuletzt aufgerufen am 31.07.2012).
Paley, W. Bradford (2007): System and Method for Visual Analysis of Word Frequency
and Distribution in a Text, US 7,192,283 B2, 10/414,075, United States Patent
Office, 20.03.2007.
Panofsky, Erwin (1998 [1927]), »Die Perspektive als ›symbolische Form‹«, in:
Deutschsprachige Aufsätze, Berlin: Akademie Verlag, S. 653-757.
Parikka, Jussi (2011), »Operative Media Archaeology: Wolfgang Ernst’s Materialist
Media Diagrammatics«, in: Theory, Culture & Society, 28, 5, S. 52-74.
Pariser, Eli (2011), The Filter Bubble: What the Internet is Hiding from You, London:
Penguin.
Paßmann, Johannes et al. (2014), »The Gift of the Gab: Retweet Cartels and Gift
Economies on Twitter«, in: Katrin Weller et al. (Hrsg.): Twitter and Society, New
York: Peter Lang, S. 331-344.
Passig, Kathrin (2012), »Warum wurde mir ausgerechnet das empfohlen?: Zur Kritik
an Algorithmen«, in: Süddeutsche Zeitung, 09.01.2012, http://www.sueddeutsch
e.de/digital/zur-kritik-an-algorithmen-warum-wurde-mir-ausgerechnet-das-e
mpfohlen-1.1253390 (zuletzt aufg er u fen am 20.09.2013).
Patterson, Albert C. (1971), »A Data Base Management System«, in: Proceedings of
the 1971 26th ACM Annual Conference, S. 197-209.
Paul, Christiane (2007), »The Dastabase as System and Cultural Form: Anatomies of
Cultural Narratives«, in: Victoria Vesna (Hrsg.), Database Aesthetics: Art in the
Age of Information Overflow, Minneapolis: University of Minneapolis Press, S.
95-109.
Peirce, Charles Sanders (1960), Collected Papers of Charles Sanders Peirce, Cam-
bridge: Belknap Press of Harvard University Press.
Peirce, Charles Sanders (1976), »Prolegomena for an Apology to Pragmatism«, in:
The New Elements of Mathematics, Vol. IV: Mathematical Philosophy, The Hague:
Mouton Press, S. 313-330.
Peirce, Charles Sanders (1983), Phänomen und Logik der Zeichen, Frankfurt a.M.:
Suhrkamp.
378 Digitale Datenbanken
Pellegrini, Tassilo (2008), »Semantic Web als Konkrete Utopie: Eine praktische
Annäherung«, in: Petra Grimm und Rafael Capurro (Hrsg.), Informations- und
Kommunikationsutopien, Stuttgart: Franz Steiner Verlag, S. 51-64.
Perks, Chris (2012), »Double Your Klout Score But It Means Nothing«, http://www.
chrisperks.com/gaming-klout/ (zuletzt aufgerufen am 13.08.2013).
Peterson, W. Wesley (1957), »Addressing for Random-Access Storage«, in: IBM
Journal of Research and Development, 1, 2, S. 130-146.
Pfleumer, Fritz (1928): Lautschriftträger, DE000000500900A (auch: Deutsches
Reichspatent [DRP] Nr. 500 900), Reichspatentamt, 05.06.1930.
Pias, Claus (2003), »Das digitale Bild gibt es nicht: Über das (Nicht-)Wissen der
Bilder und die informatische Illusion«, in: Zeitenblicke, 2, 1, http://www.zeitenbli
cke.historicum.net/2003/01/pias/index.html (zuletzt aufgerufen am 08.05.2008).
Pircher, Wolfgang (2004), »Markt oder Plan? Zum Verhältnis von Kybernetik und
Ökonomie«, in: Claus Pias (Hrsg.), Cybernetics: The Macy-Conferences 1946-
1953, Bd. 2: Essays and Documents, Zürich: Diaphanes, S. 81-96.
Porombka, Stephan (1998), »Ankunft im Unverdrängten: Datenbanken als Ver-
körperung der Phantasie vom virtuell vollständigen Gedächtnis«, in: Deutsche
Vierteljahresschrift für Literaturwissenschaft und Geistesgeschichte, 72, Sonder-
heft: Medien des Gedächtnisses (hrsg. v. Aleida Assmann, Martin Windisch und
Manfred Weinberg), S. 313-328.
Porombka, Stephan (2001), Hypertext: Zur Kritik einees digitalen Mythos, München:
Wilhelm Fink.
Poster, Mark (1995), The Second Media Age, Cambridge: Polity Press.
Primiero, Giuseppe (2009), »An epistemic logic for becoming informed«, in: Syn-
these, 167, S. 441-467.
Pross, Harry (1972), Medienforschung : Film, Funk, Presse, Fernsehen, Darmstadt:
Habel.
Purcell, Kristen et al. (2012), Search Engine Use 2012: Pew Internet & American Life
Project, http://www.pewinternet.org/~/media//Files/Reports/2012/PIP_Search_
Engine_Use_2012.pdf (zuletzt aufgerufen am 20.09.2013).
Quirmbach, Sonja (2009), »Universal Search: Kontextuelle Einbindung von Ergeb-
nissen unterschiedlicher Quellen und Auswirkungen auf das User Interface«, in:
Dirk Lewandowski (Hrsg.), Handbuch Internet-Suchmaschinen: Nutzerori-
entierung in Wissenschaft und Praxis, Heidelberg: Akademische Verlagsgesell-
schaft, S. 220-248.
Rabinow, Jacob (1952), »The Notched-Disc Memory«, in: Electrical Engineering, 8, S.
745-749.
Ramming, Ulrike (2001), »›Medienphilosophie‹ – Ein Bericht«, in: Dialektik: Zeit-
schrift für Kulturphilosophie, 1, S. 153-170.
Ramming, Ulrike (2008), »Der Ausdruck ›Medium‹ an der Schnittstelle von
Medien-, Wissenschafts-, und Technikphilosophie«, in: Stefan Münker und
Alexander Roesler (Hrsg.), Was ist ein Medium?, Frankfurt a.M.: Suhrkamp, S.
249-271.
Literatur 379
Rautzenberg, Markus und Andreas Wolfsteiner (2010) (Hrsg.), Hide and Seek: Das
Spiel von Transparenz und Opazität, München: Fink.
Rayley, Rita (2006), »Code.surface || Code.depth«, in: Dichtung Digital, 36 (zuletzt
aufgerufen am 22.08.2011).
Rayward, W. Boyd (1975), The Universe of Information: The Work of Paul Otlet for
Documentation and International Organisation, Moscow: FID.
Reck, Hans Ulrich (2003), Kunst als Medientheorie: Vom Zeichen zur Handlung,
München: Fink.
Recki, Birgit (2004), Kultur als Praxis: eine Einführung in Ernst Cassirers Philosophie
der symbolischen Formen, Deutsche Zeitschrift für Philosophie, Sonderband 6,
Berlin: Akademie Verlag.
Reese-Schäfer, Walter (1992), Luhmann zur Einführung, Hamburg: Junius.
Reichert, Ramón (2008), Amateure im Netz: Selbstmanagement und Wissenstechnik
im Web 2.0, Bielefeld: Transcript.
Reichert, Ramón (2014) (Hrsg.), Big Data: Analysen zum digitalen Wandel von
Wissen, Macht und Ökonomie, Bielefeld: Transcript.
Rheinberger, Hans Jörg (2007), »Wie werden aus Spuren Daten, und wie verhalten
sich Daten zu Fakten?«, in: David Gugerli et al. (Hrsg.), Nach Feierabend 2007:
Daten; Züricher Jahrbuch für Wissensgeschichte 3, Berlin: Diaphanes, S. 117-125.
Ricœur, Paul (1991), Zeit und Erzählung, Band III: Die erzählte Zeit, München: Fink.
Ridenour, Louis N. (1955), »Computer Memories«, in: Scientific American, 192, 6, S.
92-100.
Rieder, Bernhard (2005), »Networked Control: Search Engines and the Symmetry of
Confidence«, in: International Review of Information Ethics, 3, S. 26-32.
Rieder, Bernhard (2009), »Demokratisierung der Suche?: Von der Kritik zum gesell-
schaftlich orientierten Design«, in: Konrad Becker und Felix Stalder (Hrsg.),
Deep Search: Politik des Suchens jenseits von Google, Innsbruck u.a.: Studien
Verlag, S. 150-170.
Rieder, Bernhard (2012), »What is in PageRank?: A Historical and Conceptual
Investigation of a Recursive Status Index«, in: Computational Culture: a journal
of software studies, 2, http://computationalculture.net/article/what_is_in_page
rank (zuletzt aufgerufen am 16.10.2012).
Riemann, Bernhard (1990 [1854]), »Ueber die Hypothesen, welche der Geometrie zu
Grunde liegen«, in: Gesammelte mathematische Werke, wissenschaftlicher Nach-
lass und Nachträge Berlin: Springer, S. 304-319.
Robinson, Derek (2008), »Function«, in: Matthew Fuller (Hrsg.), Software Studies: A
Lexicon, Cambridge: MIT Press, S. 101-110.
Roch, Axel (2010), Claude E. Shannon: Spielzeug, Leben und die geheime Geschichte
seiner Theorie der Information, Berlin: gegenstalt.
Roesler, Alexander (2003), »Medienphilosophie und Zeichentheorie«, in: Stefan
Münker et al. (Hrsg.), Medienphilosophie: Beiträge zur Klärung eines Begriffs,
Frankfurt a.M.: Fischer.
Rogers, Richard (2013), Digital Methods, Cambridge: MIT Press.
380 Digitale Datenbanken
Rogers, Simon (2011), »Data Journalism at the Guardian: What Is It and How Do We
Do It?«, in: The Guardian Data Blog: Facts are Sacred, 28.07.2011, http://www.
guardian.co.uk/news/datablog/2011/jul/28/data-journalism (zuletzt aufgerufen
am 16.04.2012).
Röhle, Theo (2010), Der Google-Komplex: Über Macht im Zeitalter des Internets,
Bielefeld: Transcript.
Röhlig, Marc (2008), »Ich bin dann mal offline«, http://www.spiegel.de/unispiegel/
wunderbar/0,1518,563401,00.html (zuletzt aufgerufen am 26.07.2008).
Rolf, Thomas (2007), »Tiefe«, in: Ralf Konersmann (Hrsg.), Wörterbuch der phi-
losophischen Metaphern, Darmstadt: Wissenschaftliche Buchgeselschaft, S. 458-
470.
Rorty, Richard (1992 [1967]), »Metaphilosophical Difficulties of Linguistic Phi-
losophy«, in: Ders. (Hrsg.), The Linguistic Turn: Essays in Philosophical Method,
Chicago: University of Chicago Press, S. 1-39.
Rosling, Hans (2010), »200 Countries, 200 Years, 4 Minutes«, http://www.gapmi
nder.org/videos/200-years-that-changed-the-world-bbc/ (zuletzt aufgerufen am
10.06.2013).
Rothenberg, Jeff (1995), »Ensuring the Longevity of Digital Documents«, in:
Scientific American, 272, 1, S. 42-47.
Rubin, Edgar (2001), »Figure and Ground«, in: Steven Yantis (Hrsg.), Visual Per-
ception: Essential Readings, Hove: Psychology Press, S. 225-229.
Rühle, Alex (2010), Ohne Netz: Mein halbes Jahr offline, Stuttgart: Klett-Cotta.
Ruhrmann, Georg et al. (2000), »Im Osten was Neues? Ein Beitrag zur Standort-
bestimmung der Kommunikations- und Medienwissenschaft«, in: Publizistik,
45, 3, S. 283-309.
Saake, Gunter et al. (2008), Datenbanken: Konzepte und Sprachen, Bonn: mitp.
Safire, William (1996), On Language: Worth a Thousand Words, New York.
Sakai, Naoki (2010), »Translation as a filter«, in: Transeuropéennes: International
Journal of Critical Thought, http://www.transeuropeennes.eu/en/articles/200/Tr
anslation_as_a_filter (zuletzt aufger u fen am 02.02.2012).
Sammet, Jean E. (1985), »Brief Summary of the Early History of COBOL«, in: IEEE
Annals of the History of Computing, 7, 4, Special Issue: COBOL – 25th Anniver-
sary, S. 288-303.
Sandbothe, Mike (2001), Pragmatische Medienphilosophie: Grundlegung einer neuen
Disziplin im Zeitalter des Internet, Weilerswist: Velbrück.
Sandbothe, Mike (2003), »Der Vorrang der Medien vor der Philosophie«, in: Stefan
Münker et al. (Hrsg.), Medienphilosophie: Beiträge zur Klärung eines Begriffs,
Frankfurt a.M.: Fischer, S. 185-197.
Sandbothe, Mike und Ludwig Nagl (2005) (Hrsg.), Systematische Medienphilosophie,
Berlin: Akademie Verlag.
Sauer, Hermann (2002), Relationale Datenbanken: Theorie und Praxis, München:
Addison-Wesley.
Literatur 381
Saussure, Ferdinand de (1931), Grundfragen der allgemeinen Sprachwissenschaft,
Berlin: Walter de Gruyter.
Schaffner, Ingrid et al. (1997) (Hrsg.), Deep Storage: Arsenale der Erinnerung;
Sammeln, Speichern, Archivieren in der Kunst [anläßlich der Ausstellung ›Deep
Storage – Arsenale der Erinnerung‹ im Haus der Kunst, München (3.8.-12.10.1997),
in der Nationalgalerie SMPK, Sonderausstellungshalle am Kulturforum Berlin
(Dezember 1997 - Januar 1998), im Kunstmuseum Düsseldorf im Ehrenhof
(Februar 1998)], München: Prestel.
Schmidt, Siegfried J. (1999), »›Wissenschaftssprachen‹ – heilige Kühe oder Un-
umgänglichkeiten?«, in: Herbert Ernst Wiegand (Hrsg.), Sprache und Sprachen
in den Wissenschaften: Gesichte und Gegenwart. Festschrift für Walter de Gruyter
& Co. anläßlich einer 250jährigen Verlagstradition, Berlin: de Gruyter, S. 535-
560.
Schmidt, Siegfried J. (2003), Geschichten und Diskurse: Abschied vom Kon-
struktivismus, Reinbeck: Rowohlt.
Scholz, Thomas (2000), Die Geste des Sammelns: Eine Fundamentalspekulation –
Anthropologie, Ethymografie, Entlass, Stuttgart: Books on Demand.
Schulz, Oliver Lerone (2004), »Marshall McLuhan – Medien als Infrastrukturen
und Archetypen«, in: Alice Lagaay und David Lauer (Hrsg.), Medientheorien :
eine philosophische Einführung, Frankfurt a.M.: Campus, S. 31-68.
Schüttpelz, Erhard (2002a), »Eine Ikonographie der Störung: Shannons Flußdia-
gramm der Kommunikation in ihrem kybernetischen Verlauf«, in: Ludwig Jäger
und Georg Stanitzek (Hrsg.), Transkribieren Medien/Lektüre, München: Fink, S.
233-280.
Schüttpelz, Erhard (2002b), »›Get the message through‹: Von der Kanaltheorie der
Kommunikation zur Botschaft des Mediums: Ein Telegramm aus der nord-
atlantischen Nachkriegszeit«, in: Irmela Schneider und Peter M. Spangenberg
(Hrsg.), Medienkultur der 50er Jahre: Diskursgeschichte der Medien nach 1945,
Opladen: Westdeutscher Verlag, S. 51-76.
Schüttpelz, Erhard (2003), »Frage nach der Frage, auf die das Medium eine Antwort
ist«, in: Albert Kümmel und Ders. (Hrsg.), Signale der Störung, München: Fink,
S. 15-29.
Schwartz, Jules I. (1968), »Interactive Systems: Promises, Present and Future«, in:
Proceedings of the AFIPS Fall Joint Computer Conference, S. 89-98.
Scott, Tom (2008), »The all new BBC Music Site where Programmes meet Music and
the Semantic Web«, in: Derivadow.com, 28.07.2008, http://derivadow.com/2008/
07/28/the-all-new-bbc-music-site-where-programmes-meet-music-and-the-
semantic-web/ (zuletzt aufgerufen am 09.03.2012).
Seel, Martin (2000), »Medien der Realität und Realität der Medien«, in: Sybille
Krämer (Hrsg.), Medien, Computer, Realität: Wirklichkeitsvorstellungen und
Neue Medien, Frankfurt a.M.: Suhrkamp, S. 244-268.
382 Digitale Datenbanken
Seel, Martin (2003), »Eine vorübergehende Sache«, in: Stefan Münker et al. (Hrsg.),
Medienphilosophie: Beiträge zur Klärung eines Begriffs, Frankfurt a.M.: Fischer,
S. 10-15.
Seel, Martin (2009), Theorien, Frankfurt a.M.: S. Fischer.
Seemann, Hans Jürgen (2000), Bild als Widerstreit: Zur Phänomenologie des Bildes
im Anschluß an die Untersuchungen E. Husserls; Ein Beitrag zur Phänomenologie
der anschaulichen Unmöglichkeit, Dissertation, Fachbereich 2, Gesamthoch-
schule Wuppertal, Wuppertal.
Seemann, Michael (mspro) (2011a), »Queryology I – Das Ende der Medien«, in:
ctrl+verlust: Res gesta per amissionum, 11.01.2011, http://www.ctrl-verlust.net/qu
eryology-i-das-ende-der-medien/ (zuletzt aufgerufen am 23.11.2011).
Seemann, Michael (mspro) (2011b), »Queryology II – Das Filtersubjekt«, in: ctrl+ver-
lust: Res gesta per amissionum, 14.01.2011, http://www.ctrl-verlust.net/qu
eryology-ii-das-filtersubjekt/ (zuletzt aufgerufen am 23.11.2011).
Seitter, Walter (2002), Physik der Medien: Materialien, Apparate, Präsentierungen,
Weimar: VDG.
Serres, Michel (1987), Der Parasit, Frankfurt a.M.: Suhrkamp.
Serres, Michel (1991), Hermes I: Kommunikation, Berlin: Merve.
Shannon, Claude E. (1953), »The lattice theory of information«, in: Transactions on
Information Theory, IEEE, 1, 1, S. 105-107.
Shannon, Claude E. (1976 [1948]), »Die mathematische Theorie der Kom-
munikation«, in: Ders. und Warren Weaver (Hrsg.), Mathematische Grundlagen
der Informationstheorie, München: Oldenbourg, S. 41-143.
Shirky, Clay (2003), »The Semantic Web, Syllogism, and Worldview«, http://www.shi
rky.com/writings/semantic_syllogism.html (zuletzt aufgerufen am 26.03.2008).
Shirky, Clay (2005), »Ontology is Overrated: Categories, Links, and Tags«, http://ww
w.shirky.com/writings/ontology_overrated.html (zuletzt aufgerufen am
24.11.2008).
Shneiderman, Ben (2003), »Supporting Creativity with Advanced Information-
Abundant User Interfaces«, in: Benjamin B. Bederson und Ders. (Hrsg.), The
Craft of Information Visualization Readings and Reflections, San Francisco:
Morgan Kaufmann, S. 372-377.
Shneiderman, Ben (2006), Foreword, Information Visualization: Beyond the
Horizon, hrsg. von Chaomei Chen, London u.a.: Springer.
Shorter, Matthew (2008), »BBC Music Artist Pages Beta«, in: BBC Internet Blog,
28.07.2008, http://www.bbc.co.uk/blogs/bbcinternet/2008/07/bbc_music_artis
t_pages_beta.html (zuletzt aufgerufen am 08.03.2012).
Simanowski, Roberto (2002), Interfictions: Vom Schreiben im Netz, Franfurt a.M.:
Suhrkamp.
Simanowski, Roberto (2012a), »The Compelling Charm of Numbers: Writing For
and Thru the Network of Data«, in: Simon Biggs (Hrsg.), Remediating the Social,
Edinburgh, http://elmcip.net/node/4705 (zuletzt aufgerufen am 09.02.2014), S.
20-27.
Literatur 383
Simanowski, Roberto (2012b), Textmaschinen – Kinetische Poesie – Interaktive
Installation: Zum Verstehen von Kunst in digitalen Medien, Bielefeld: Transcript.
Simon, Herbert A. (1976), »From Substantive to Procedural Rationality«, in: Spiro J.
Latsis (Hrsg.), Method and Appraisal in Economics, Cambridge: Cambridge Uni-
versity Press, S. 129-148.
Simpson, J. A. und E. S. C. Weiner (2012), »Database, n.«, in: Oxford English
Dictionary Online, Oxford: Oxford University Press, http://www.oed.com/view/
Entry/47411 (zuletzt aufgerufen am 11.10.2012).
Singhal, Amit (2012), »An Update to our Search Algorithms«, in: Inside Search: The
official Google Search blog, 10.08.2012, http://insidesearch.blogspot.de/2012/08/
an-update-to-our-search-algorithms.html (zuletzt aufgerufen am 18.12.2012).
Sippey, Michael (2012), »Changes Coming in Version 1.1 of the Twitter API«, in:
Twitter developers Blog, 16.08., https://dev.twitter.com/blog/changes-coming-to-
twitter-api (zuletzt aufgerufen am 13.06.2013).
Skinner, David (2006), »The Age of the Female Computer«, in: The New Atlantis, 12,
S. 96-103.
Smith, Gene (2008), Tagging: People-Powered Metadata for the Social Web, Longman:
Addison-Wesley.
Sommer, Manfred (2002a), Sammeln: ein philosophischer Versuch, Frankfurt a.M.:
Suhrkamp.
Sommer, Manfred (2002b), Suchen und Finden: Lebensweltliche Formen, Frankfurt
a.M.: Suhrkamp.
Spencer-Brown, George (1999 [1969]), Laws of Form – Gesetze der Form, Lübeck:
Joh. Bohmeier Verlag.
Stalbaum, Brett (2000), »Editors notes for database issue«, in: Switch, 13, http://switc
h.sjsu.edu/nextswitch/switch_engine/front/front.php?artc=252 (zuletzt aufge-
rufen am 06.09.2012).
Stalder, Felix und Christine Mayer (2009), »Der zweite Index: Suchmaschinen, Per-
sonalisierung und Überwachung«, in: Konrad Becker und Felix Stalder (Hrsg.),
Deep Search: Politik des Suchens jenseits von Google, Innsbruck u.a.: Studien
Verlag, S. 112-131.
Star, Susan Leigh und James R. Griesemer (1989), »Institutional Ecology, ›Trans-
lations‹ and Boundary Objects: Amateurs and Professionals in Berkeley’s
Museum of Vertebrate Zoology, 1907-39«, in: Social Studies of Science, 19, S. 387-
420.
Steinberg (2010), »Wavelab 7: Audio Editing And Mastering Suite; Funktionen im
Detail«, ftp://ftp.steinberg.de/Download/WaveLab_7/Manuals/WaveLab-de-7.
pdf (zuletzt aufgerufen am 20.09.2013).
Stevenson, Seth (2012), »What Your Klout Score Really Means«, in: Wired, http://ww
w.wired.com/business/2012/04/ff_klout/all/ (zuletzt aufgerufen am 13.08.2013).
Stjernfelt, Frederik (2000), »Diagrams as Centerpiece of a Peircean Epistemology«,
in: Transactions of the Charles S. Peirce Society, 36, 3, S. 357-384.
384 Digitale Datenbanken
Stonebraker, Michael (1974), »A Functional View of Data Independence«, in: Procee-
dings of 1974 ACM-SIGMOD Workshop on Data Description, Access and Control,
Ann Arbor, Michigan, S. 63-81.
Study Group on Data Base Management Systems (1975), »Interim Report: ANSI/X3/
SPARC Study Group on Data Base Management Systems«, in: FDT – Bulletin of
ACM SIGMOD, 7, 2, S. 1-140.
Summit, Roger (2002), »Reflections on the Beginnings of Dialog: The Birth of Online
Information Access«, in: Chronolog, http://support.dialog.com/publications/
chronolog/200206/1020 628.shtml (zuletzt aufgerufen am 07.11.2009).
Swanson, A. K. (1964), »A Computer-Centered Data Base Serving USAF Personnel
Managers«, in: Proceedings of the Symposium on Development and Management
of a Computer-Centered Data Base (June 10-11, 1963), Santa Monica: System
Development Corporation.
Swift, Jonathan (1987), Gullivers Reisen, Stuttgart: Reclam.
Thacker, Eugene (2006), The Global Genome: Biotechnology, Politics, and Culture,
Cambridge: MIT Press.
The Computer Communications Group (1968), »Computer Communications and
Telecommunication Terminology« in: Information Processing Glossaries
Collection (CBI 92), Box 1, Folder 3, Charles Babbage Institute, University of
Minnesota, Minneapolis.
Tholen, Georg Christoph (2002), Die Zäsur der Medien: Kulturphilosophische Kon-
turen, Frankfurt a.M.: Suhrkamp.
Tsichritzis, Dennis und Anthony Klug (1978), »The ANSI/X3/SPARC DBMS
Framework: Report of the Study Group on Database Management Systems«, in:
Information Systems, 3, S. 173-191.
Turing, Alan M. (1987 [1950]), »Rechenmaschinen und Intelligenz«, in: Intelligence
service : Schriften, Berlin: Brinkmann u. Bose, S. 147-182.
Turing, Alan M. (1987 [1937]), Ȇber berechenbare Zahlen mit einer Anwendung
auf das Entscheidungsproblem«, in: Intelligence service : Schriften, Berlin:
Brinkmann u. Bose, S. 17-60.
Turkle, Sherry (1998), Leben im Netz: Identität im Zeitalter des Internet, Reinbek:
Rowohlt.
Ullman, Ellen (1999), »The Myth of Order: The Real Lesson of Y2K is that Software
Operates just like any Natural System: Out of Control«, in: Wired, 7, 4, http://ww
w.wired.com/wired/archive/7.04/y2k.html (zuletzt aufgerufen am 19.09.2013).
Union of International Associations (1990 [1914]), »The Union of International
Associations: A World Centre«, in: W. Boyd Rayward (Hrsg.), The international
organization and dissemination of knowledge: Selected essays of Paul Otlet, Ams-
terdam: Elsevier, S. 112-129.
UNIVAC (1968), »Vocabulary for Information Processing« in: Information Pro-
cessing Glossaries Collection (CBI 92), Box 1, Folder 23, Charles Babbage
Institute, University of Minnesota, Minneapolis.
Literatur 385
Vaidhyanathan, Siva (2011), The Googlization of Everything (and Why We Should
Worry), Berkeley: University of California Press.
Van Couvering, Elizabeth (2008), »The History of the Internet Search Engine:
Navigational Media and the Traffic Commodity«, in: Amanda Spink und
Michael Zimmer (Hrsg.), Web Search: Multidisciplinary Perspectives, Berlin:
Springer, S. 177-206.
Van Dijck, Peter (2003), »Themes and Metaphors in the Semantic Web Discussion«,
http://poorbuthappy.com/ease/semantic/ (zuletzt aufgerufen am 26.03.2008).
Van Leeuwen, Jan und Jiří Wiederman (2000), The Turing Machine Paradigm in
Contemporary Computing, Utrecht, http://www.cs.uu.nl/research/techreps/rep
o/CS-2000/2000-33.pdf (zuletzt aufgerufen am 20.09.2013).
Vesna, Victoria (2000a), »Database are Us«, in: AI & Society, 14, 2, S. 157-175.
Vesna, Victoria (2000b), »Database Asthetics: Introduction«, in: AI & Society, 14, 2,
S. 155-156.
Vesna, Victoria (2007a) (Hrsg.), Database Aesthetics: Art in the Age of Information
Overflow, Minneapolis: University of Minneapolis Press.
Vesna, Victoria (2007b), »Introduction«, in: Victoria Vesna (Hrsg.), Database Aes-
thetics: Art in the Age of Information Overflow, Minneapolis: University of
Minneapolis Press, S. IX-XX.
Vismann, Cornelia (2001), Akten: Medientechnik und Recht, Frankfurt a.M.: Fischer.
Vogel, Matthias (1998), »Medien als Experiment der Demokratie«, in: Hauke
Brunkhorst (Hrsg.), Demokratischer Experimentalismus: Politik in der kom-
plexen Gesellschaft, Frankfurt a.M.: Suhrkamp, S. 106-143.
Vogel, Matthias (2001), Medien der Vernunft: Eine Theorie des Geistes und der Ra-
tionalität auf Grundlage einer Theorie der Medien, Frankfurt a.M.: Suhrkamp.
Vogel, Matthias (2003), »Medien als Voraussetzungen für Gedanken«, in: Stefan
Münker et al. (Hrsg.), Medienphilosophie: Beiträge zur Klärung eines Begriffs,
Frankfurt a.M.: Fischer, S. 107-134.
Vogel, Matthias (2005), »Medienphilosophie der Musik«, in: Mike Sandbothe und
Ludwig Nagl (Hrsg.), Systematische Medienphilosophie, Berlin: Akademie
Verlag, S. 163-179.
Vogels, Werner (2008), »Eventually Consistent: Building reliable distributed systems
at a worldwide scale demands trade-offs – between consistency and availability«,
in: ACM Queue, 6, 6, S. 14-19.
Von Neumann, John (1987 [1945]), »First Draft of a Report on the EDVAC«, in:
William Aspray und Arthur W. Burks (Hrsg.), Papers of John von Neumann on
computing and computer theory, Cambridge: MIT Press, S. 17-82.
W3C (1999), »HTML 4.01 Specification«, http://www.w3.org/TR/html401/ (zuletzt
aufgerufen am 14.06.2013).
W3C (2009), »The OWL 2 Schema Vocabulary (OWL 2)«, http://www.w3.org/2002/
07/owl (zuletzt auf ge rufen am 07.03.2012).
386 Digitale Datenbanken
W3C (2014), »Linking Open Data W3C SWEO Community Project«, http://www.
w3.org/wiki/SweoIG/TaskForces/CommunityProjects/LinkingOpenData (zu-
letzt aufgerufen am 20.02.2015).
Wall, Aaron (2011), »The Decline or Organic Links Infographic«, in: SEO Book,
09.12.2011, http://www.seobook.com/organic-links (zuletzt aufgerufen am
06.02.2012).
Wardrip-Fruin, Noah (2009), Expressive Processing: Digital Fictions, Computer
Games, and Software Studies, Cambridge: MIT Press.
Weaver, Warren (1976 [1949]), »Ein aktueller Beitrag zur mathematischen Theorie
der Kommunikation«, in: Claude E. Shannon und Ders. (Hrsg.), Mathematische
Grundlagen der Informationstheorie, München: Oldenbourg, S. 11-39.
Wegner, Peter (1997), »Why Interaction is More Powerful than Algorithms«, in:
Communications of the ACM, 40, 5, S. 80-91.
Wegner, Peter und Dina Goldin (2003), »Computation beyond Turing Machines«,
in: Communications of the ACM, 46, 4, S. 100-102.
Weinberger, David (2002), »The Semantic Argument Web«, http://www.hyperorg.co
m/backissues/joho-jun26-02.html#semantic (zuletzt aufgerufen am 26.03.2008).
Weinberger, David (2008), Das Ende der Schublade: Die neue Macht der digitalen
Unordnung, München: Hanser.
Weingarten, Rüdiger (1988), »Das Dialogmuster ›Datenbankanfrage‹«, in: Ders. und
Reinhard Fiehler (Hrsg.), Technisierte Kommunikation, Opladen: Westdeutscher
Verlag, S. 237-243.
Weingarten, Rüdiger (1994), »Datenbanken«, in: Hartmut Günther und Otto
Ludwig (Hrsg.), Schrift und Schriftlichkeit: Ein interdisziplinäres Handbuch
internationaler Forschung, Berlin/New York: Walter de Gruyter, S. 158-170.
Wells, H. G. (1971 [1938]), World Brain, Freeport N.Y.: Books for Libraries Press.
Welsch, Wolfgang (1996), »Ästhetisierungsprozesse – Phänomene, Unter-
scheidungen, Perspektiven«, in: Grenzgänge der Ästhetik, Stuttgart: Reclam, S.
9-61.
Wentz, Daniela (2013), »Anschauen und Denken: Neue Perspektiven auf Materialität
und Virtualität der Diagramme«, in: Zeitschrift für Medienwissenschaft, 8, S.
202-206.
White House (2010), »White House Review Summary Regarding 12/25/2009
Attempted Terrorist Attack«, http://www.whitehouse.gov/the-press-office/
white-house-review-summary-regarding-12252009-attempted-terrorist-attack
(zuletzt aufgerufen am 10.06.2013).
Wiener, Norbert (1968 [1948]), Kybernetik: Regelung und Nachrichtenübertragung in
Lebewesen und Maschinen, Reinbek: Rowohlt.
Wiesing, Lambert (2000), Phänomenologie des Bildes nach Edmund Husserl und
Jean-Paul Sartre, München: Fink, S. 43-59.
Wiesing, Lambert (2005a), »Die Hauptströmungen der gegenwärtigen Philosophie
des Bildes«, in: Artifizielle Präsenz: Studien zur Philosophie des Bildes, Frankfurt
a.M.: Suhrkamp, S. 17-36.
Literatur 387
Wiesing, Lambert (2005b), »Was sind Medien?«, in: Artifizielle Präsenz: Studien zur
Philosophie des Bildes, Frankfurt a.M.: Suhrkamp, S. 149-162.
Wiesing, Lambert (2005c), »Wenn Bilder Zeichen sind: das Bildobjekt als Sig-
nifikant«, in: Artifizielle Präsenz: Studien zur Philosophie des Bildes, Frankfurt
a.M.: Suhrkamp, S. 37-80.
Wiesing, Lambert (2009), Das Mich der Wahrnehmung: Eine Autopsie, Frankfurt
a.M.: Suhrkamp.
Williams, Michael R. (1997), A History of Computing Technology, Los Alamitos:
IEEE Computer Society Press.
Winkler, Hartmut (1997a), Docuverse: Zur Medientheorie der Computer, München:
Boer.
Winkler, Hartmut (1997b), »Suchmaschinen: Metamedien im Internet?«, in: Bar-
bara Becker und Michael Paetau (Hrsg.), Virtualisierung des Sozialen: Die
Informationsgesellschaft zwischen Fragmentierung und Globalisierung, Frank-
furt a.M.: Campus, S. 185-202.
Winkler, Hartmut (2004a), »Mediendefinition«, in: Medienwissenschaft, 1, S. 9-27.
Winkler, Hartmut (2004b), »Medium Computer: Zehn populäre Thesen zum Thema
und warum sie möglicherweise falsch sind«, in: Lorenz Engell und Britta Neitzel
(Hrsg.), Das Gesicht der Welt: Medien in der digitalen Kultur, München: Fink, S.
203-213.
Winkler, Hartmut (2004c), »Übertragen – Post, Transport, Metapher«, in: Jürgen
Fohrmann (Hrsg.), Rhetorik: Figuration und Performanz, Stuttgart/Weimar:
Metzler, S. 283-294.
Winkler, Hartmut (2008), »Zeichenmaschinen: Oder warum die semiotische
Dimension für eine Definition der Medien unerlässlich ist«, in: Stefan Münker
und Alexander Roesler (Hrsg.), Was ist ein Medium?, Frankfurt a.M.: Suhr-
kamp, S. 211-221.
Winkler, Hartmut (im Druck), »Formalsprachen: ›Konstruktion‹? ›Reine Form‹?«,
in: Rainer Leschke und Jochen Venus (Hrsg.), The Shape That Matters: Form als
medientheoretischer Grundbegriff, Bielefeld: Transkript.
Wirth, Uwe (2004), »Hypertextualität als Gegenstand einer ›intermedialen
Literaturwissenschaft‹«, in: Walter Erhart (Hrsg.), Grenzen der Germanistik,
Stuttgart: Metzler, S. 410-430.
Wirth, Uwe (2005a), »Die Schnittstelle zwischen Riss und Sprung: Vom heraus-
gerissenen Manuskript zum Hypertext-Link«, in: Sigrid Schade et al. (Hrsg.),
SchnittStellen, Basel: Schwabe Verlag.
Wirth, Uwe (2005b), »Zur Medialität enzyklopädischer Verknüpfung: Die Rolle des
Hyperlinks im Rahmen hypertextueller Wissensorganisation«, in: Waltraud
Wiethölter et al. (Hrsg.), Vom Weltbuch zum World Wide Web: Enzyklopädische
Literaturen, Heidelberg: Universitätsverlag Winter, S. 287-303.
Wirth, Uwe (2006a), »Aufpfropfung als Figur des Wissens in der Kultur- und
Mediengeschichte«, in: Lorenz Engell et al. (Hrsg.), Kulturgeschichte als Medien-
geschichte (oder vice versa?), Weimar: Universitätsverlag, S. 111-121.
388 Digitale Datenbanken
Wirth, Uwe (2006b), »Hyperrextuelle Aufpfropfung als Übergangsform zwischen
Intermedialität und Transmedialität«, in: Urs Meyer et al. (Hrsg.), Transmedia-
lität: Zur Ästhetik paraliterarischer Verfahren, Göttingen: Wallstein, S. 19-38.
Wirth, Uwe (2008a), »Die Frage nach dem Medium als Frage nach der Vermittlung«,
in: Stefan Münker und Alexander Roesler (Hrsg.), Was ist ein Medium?, Frank-
furt a.M.: Suhrkamp, S. 222-234.
Wirth, Uwe (2008b), »Vorüberlegungen zu einer Logik der Kulturforschung«, in:
Uwe Wirth (Hrsg.), Kulturwissenschaft: Eine Auswahl grundlegender Texte,
Frankfurt a.M.: Suhrkamp, S. 9-67.
Wirth, Uwe (2011a), »Gepfropfte Theorie: Eine ›greffologische‹ Kritik von
Hybriditätskonzepten als Beschreibung von intermedialen und interkulturellen
Beziehungen«, in: Mario Grizelj und Oliver Jahraus (Hrsg.), TheorieTheorie:
Wider die Methodenmüdigkeit in den Geisteswissenschaften, München: Fink, S.
151-166.
Wirth, Uwe (2011b), »Kultur als Pfropfung. Pfropfung als Kulturmodell: Pro-
legomena zu einer Allgemeinen Greffologie (2.0)«, in: Ders. (Hrsg.), Impfen,
Pfropfen, Transplantieren, Berlin: Kadmos, S. 9-27.
Wittgenstein, Ludwig (1984 [1953]), »Philosophische Untersuchungen«, in: Werk-
ausgabe Band 1: Tractatus-logico-philosophicus, Tagebücher 1914-1916, Phi-
losophische Untersuchungen, Frankfurt a.M.: Suhrkamp, S. 225-620.
Wittgenstein, Ludwig (1984 [1921]), »Tractatus logico-philosophicus«, in: Werkaus-
gabe Band 1: Tractatus-logico-philosophicus, Tagebücher 1914-1916, Phi-
losophische Untersuchungen, Frankfurt a.M.: Suhrkamp, S. 8-85.
Wolf, Gary (2010), »The Quantified Self«, in: TED Ideas Worth Spreading, http://
www.ted.com/talks/gary_wolf_the_quantified_self.html (zuletzt aufgerufen am
20.07.2013).
Worsley, Peter K. et al. (1959), »A Study of the Fundamentals of Information Storage
and Retrieval [Final Report]« in: United States Government Computing
Collection, circa 1945-1990 (CBI 63), Box 13, Charles Babbage Institute, Univer-
sity of Minnesota, Minneapolis.
Wright, Alex (2007), Glut: Mastering Information Through the Ages, Washington
D.C.: Joseph Henry Press.
Yamaoka, So et al. (2011), »Cultural Analytics in Large-Scale Visualization
Environments«, in: Computer, 44, 12, S. 39-48.
Zimmer, Michael (2008), »The Gaze of the Perfect Search Engine: Google as an
Infrastructure of Dataveillance«, in: Amanda Spink und Michael Zimmer
(Hrsg.), Web Search: Multidisciplinary Perspectives, Berlin: Springer, S. 77-99.
Zuckerberg, Mark (2011), »F8 Developers Conference Keynote«, http://www.live-
stream.com/f8live/video?clipId=pla_0b68074c-8f61-47bd-9348-f41bafc59c25
(zuletzt aufgerufen am 10.07.2013).
Digitale Gesellschaft
Clemens Apprich
Vernetzt – Zur Entstehung
der Netzwerkgesellschaft
September 2015, ca. 250 Seiten, kart., ca. 29,99 €,
ISBN 978-3-8376-3045-9
Oliver Leistert, Theo Röhle (Hg.)
Generation Facebook
Über das Leben im Social Net
2011, 288 Seiten, kart., 21,80 €,
ISBN 978-3-8376-1859-4
Geert Lovink
Das halbwegs Soziale
Eine Kritik der Vernetzungskultur
(übersetzt aus dem Englischen
von Andreas Kallfelz)
2012, 240 Seiten, kart., 22,80 €,
ISBN 978-3-8376-1957-7
Leseproben, weitere Informationen und Bestellmöglichkeiten
finden Sie unter www.transcript-verlag.de
Digitale Gesellschaft
Ramón Reichert (Hg.)
Big Data
Analysen zum digitalen Wandel von Wissen,
Macht und Ökonomie
2014, 496 Seiten, kart., 29,99 €,
ISBN 978-3-8376-2592-9
Florian Sprenger, Christoph Engemann (Hg.)
Internet der Dinge
Über smarte Objekte, intelligente Umgebungen
und die technische Durchdringung der Welt
September 2015, ca. 350 Seiten, kart., 29,99 €,
ISBN 978-3-8376-3046-6
Christian Stiegler, Patrick Breitenbach,
Thomas Zorbach (Hg.)
New Media Culture: Mediale Phänomene
der Netzkultur
Mai 2015, 302 Seiten, kart., zahlr. Abb. , 29,99 €,
ISBN 978-3-8376-2907-1
Leseproben, weitere Informationen und Bestellmöglichkeiten
finden Sie unter www.transcript-verlag.de