CAROLINE Y. ROBERTSON-VON TROTHA, RALF H. SCHNEIDER (HG.) ISSN 2193-1259 Digitales Kulturerbe Bewahrung und Zugänglichkeit in der wissenschaftlichen Praxis Kulturelle Überlieferung – digital 2 ZAK | Zentrum für Angewandte Kulturwissenschaft und Studium Generale Centre for Cultural and General Studies Karlsruher Institut für Technologie (KIT) und Center of Digital Tradition (CODIGT) Herausgeber: Caroline Y. Robertson-von Trotha Ralf H. Schneider Copyright: Karlsruher Institut für Technologie (KIT) Campus Süd ZAK | Zentrum für Angewandte Kulturwissenschaft und Studium Generale 76128 Karlsruhe Digitales Kulturerbe Bewahrung und Zugänglichkeit in der wissenschaftlichen Praxis Caroline Y. Robertson-von Trotha, Ralf H. Schneider (Hg.) unter Mitarbeit von Christine Wölfle Koordination: Silke Flörchinger Redaktion und Lektorat: Janina Hecht, Christine Wölfle Mitarbeit: Silke Flörchinger, Inge Böhm Bildbearbeitung: Karolina Plewniak, Tina Gerken Umschlaggestaltung: Laura Jungmann, Tina Gerken; nach einem Entwurf von Annabel Angus Impressum Karlsruher Institut für Technologie (KIT) KIT Scientific Publishing Straße am Forum 2 D-76131 Karlsruhe KIT Scientific Publishing is a registered trademark of Karlsruhe Institute of Technology. Reprint using the book cover is not allowed. www.ksp.kit.edu This document – excluding the cover – is licensed under the Creative Commons Attribution-Share Alike 3.0 DE License (CC BY-SA 3.0 DE): http://creativecommons.org/licenses/by-sa/3.0/de/ The cover page is licensed under the Creative Commons Attribution-No Derivatives 3.0 DE License (CC BY-ND 3.0 DE): http://creativecommons.org/licenses/by-nd/3.0/de/ Print on Demand 2015 ISSN 2193-1259 ISBN 978-3-7315-0317-0 DOI 10.5445/KSP/1000044869 Inhaltsverzeichnis Vorwort der Herausgeber 7 Annely Rothkegel Bewahren, verändern oder löschen – können Textdokumente zukunftsfähig sein? 11 Thorolf Lipp TV-Produzenten als Denkmalpfleger – oder wer ist eigentlich für die mediale Erfassung des immateriellen Erbes zuständig? 37 Elke Bauer Chancen und Probleme der Onlinebereitstellung von Bildarchiven 51 Ilvio Bruder, Holger Meyer, Alf-Christian Schering und Christoph Schmitt Das Projekt WossiDiA: Digitalisierung des Wossidlo-Archivs 61 Ulrike Enke Der Einsatz von Regesten bei der Erschließung und Onlinerecherche handschriftlicher Dokumente am Beispiel des DFG-Projekts ›Behring-Nachlass‹ 81 Mieke Pfarr-Harfst Dokumentationssystem für digitale Rekonstruktionen am Beispiel der Kaiserlichen Grabanlage Zhaoling 97 Georg Hohmann und Mark Fichtner Chancen und Herausforderungen in der praktischen Anwendung von Ontologien für das Kulturerbe 1155 Frank Dührkohp Inventarisieren im Verbund – Kulturerbe, kuniweb, KENOM 129 Doris Annette Hartmann und Andreas Oberhoff Kulturerbe digital – Bewahrung und Erschließung im virtuellen ›Studiolo‹ 145 Gunther Reisinger und Mario Röhrle netpioneers.info – Quellenkundliche Überlegungen zur Re-Präsentation früher Netzkunst 159 Wiebke Oeltjen Digitale Archive und virtuelle Bibliotheken auf der Basis von MyCoRe 173 Arpine Maniero Digitale Präsentation des historischen Wissens in den Osteuropawissenschaften. Das Fachrepositorium OstDok 183 Jana Weitkamp Wissenschaftskultur im Wandel? Die Rolle von Open Access im digitalen Zeitalter 195 Die Autorinnen und Autoren 2156 Vorwort der Herausgeber Kulturen der Gegenwart sind zunehmend an Technologien geknüpft – ihre stärksten Ausprägungen zeigen diese Kulturen im Digitalen. Die Präsenz digitaler Technologien auf dem Feld unserer Kultur(en) erhöht sich zusehends. Dies ist nicht immer bewusst geplant und nicht selten finden sich die Akteure als Konsumenten anstatt als Produzen- ten dieser Technologien wieder. Auch wissenschaftliches Arbeiten bedarf nicht nur der Nutzung digitaler Technologien, sondern ebenso ihrer Mitgestaltung. Im Bereich der ›Digital Humanities‹, den digitalen Geisteswissenschaften, wird dies seit vielen Jahren mitgedacht. Die Interrelation von fachbezogenen Methoden und Inhalten mit den spezi- fischen Möglichkeiten und Herausforderungen digitaler Praktiken hat das Potenzial, so- wohl die Wissenschaften als auch die digitale Kultur zu verändern. Die Reihe ›Kulturelle Überlieferung – digital‹ dient als Medium der Zusammenkunft wissenschaftlicher Überlegungen mit Erfahrungen und Ergebnissen laufender Umset- zungen im Bereich der digitalen Überlieferung. Ihr Anliegen ist es, die Vernetzung sowie den interdisziplinären Austausch von Theorie und Praxis entschieden zu fördern. Wie die Archivarbeit heute den Möglichkeiten, aber auch den praktischen Erfordernis- sen der Digitalisierung begegnet und wie überraschend weit das Spektrum dessen reicht, was an umsichtiger und umfassender Arbeit bereits tatkräftig umgesetzt wird, macht der vorliegende zweite Band sichtbar. Hier ermöglichen Expertinnen und Experten Einbli- cke in Projekte und Grundlagenforschung zu vielfältigen anwendungsbezogenen Fragen des umfangreichen Gebiets der Erhaltung des digitalen Kulturerbes. Mit dem Beitrag von Annely Rothkegel beginnend werden grundlegende Konzepte für die Bewahrung des digitalen Kulturerbes wie ›Zukunft‹ und ›Nachhaltigkeit‹ aus sprach- wissenschaftlicher Perspektive untersucht. Gerade das Verständnis dieser Begriffe, hier vor allem unter Berücksichtigung ihrer Bedeutung für Texte und deren Metatexte, ist für eine unbefristete digitale Langzeitarchivierung essenziell. Interdisziplinäre Betrachtun- gen historischer Zukunftsmodelle stehen dabei ebenso im Fokus wie die Entwicklung neuer Modelle vor dem Hintergrund der Relevanz von Technik und Technikwissen- schaften für unsere Kultur. Thorolf Lipp stellt die Problematik des dokumentarischen Filmbilds im Spannungsfeld der kommerzialisierten Produktion und der potenziellen Funktion für das Kulturerbe zur Diskussion. Insbesondere das immaterielle Kulturerbe (intangible heritage) sowie des- sen Archivierung und Zugänglichmachung stehen im Zentrum der Betrachtung. Die Gefahr der Instrumentalisierung von Filmsequenzen wird ebenso diskutiert wie die Ge- fahren der Simplifizierung historischer Bilder und deren lücken- oder fehlerhaften Kon- textualisierung. Ansprüche und Bedürfnisse von Wissenschaftlern, Produzenten und Publikum verändern Erzählformen im Fernsehen und Internet und lassen neue Ausprä- gungen entstehen.7 Vorwort der HerausgeberElke Bauer diskutiert die Veränderungen von Archivstrukturen für Bildmaterialien hin- sichtlich der Bewertung von Bildern in neuen Archivierungs- und Rezeptionsszenarien. Die immense Bedeutung von Metadaten und Kontext verändert auch den Grad der In- terdisziplinarität der Bildwissenschaft. Trotz zunehmender Popularität von virtuellen Archiven und der ubiquitären Zugänglichkeit von digitalen Bildern wird die Bedeutung von realen Archiven herausgestellt. Nicht nur das Bild als solches, sondern auch seine Produktion und Rezeption transportieren Inhalte und verdeutlichen mit allen damit ein- hergehenden Metadaten seine Biografie. Diese kann durch den Austausch von Archiven und Nutzern fortgeschrieben werden. Ilvio Bruder, Holger Meyer, Alf-Christian Schering und Christoph Schmitt, die im Rah- men ihres Projekts die digitale Erschließung des Nachlasses des Ethnologen Richard Wossidlo umsetzen, geben einen detaillierten Einblick in die Übertragung eines analogen Archivs in ein digitales. Die dabei vorgenommenen strukturellen und inhaltlichen Maß- nahmen zeigen vorbildlich, welchen Mehrwert der umfassende Aufbau einer Archiv- struktur mit informationstechnischer Unterstützung hervorbringt. Gerade der Umfang und die Vielfalt der Archivalien sind es, durch die der interdisziplinäre und ganzheitliche Ansatz gebildet wird, mit dem Richard Wossidlo seine Heimatregion Mecklenburg eth- nologisch erschloss. Die bereits im analogen Archiv geleistete systematische Erschlie- ßungsarbeit bietet den Wissenschaftlern eine hervorragende Grundlage für die Entwick- lung einer neuen, eigens für dieses komplexe Archiv angelegten Systemarchitektur. Ulrike Enke zeigt anhand des Nachlasses des Mediziners Emil von Behring Grundlagen und neue Möglichkeiten für die Strukturierung digitalisierter Dokumente mithilfe von Regesten auf. Die Verdichtung relevanter Informationen durch Fachleute erleichtert den Zugang zu umfangreichen Sammlungen schon in analoger Form. Gerade die Bedeutung von Metadaten für die Erschließung und Zugänglichkeit digitaler Archivsammlungen, die sich auf den Inhalt der Objekte beziehen, verweist auf die Notwendigkeit, sich mit der Erstellung von Regesten eingehender zu befassen. Mieke Pfarr-Harfst stellt in ihrem Beitrag grundlegende Überlegungen zu digitalen Re- konstruktionen architektonischer Objekte des Kulturerbes für die Wissenschaft und Wissensvermittlung an. Die Synthese aus Quellen, Kontext, Projekthintergründen und Rekonstruktionsprozessen schafft eine umfangreiche Basis für verschiedene Zielgrup- pen und Anwendungsszenarien. Als Beispiel dient das Teilprojekt zur Grabanlage Zhao- ling, das in ein Großprojekt zu den Kaisergräbern von Xi’an eingebettet ist. Die Autorin zeigt, wo die Potenziale von Wissensverdichtung, -fusionierung und -verifizierung lie- gen, und macht darauf aufmerksam, wie wichtig im Hinblick auf die Verbreitung von Fehlinformationen gerade im visuellen Medium ein akkurater Quellenumgang anzu- sehen ist. Die Rolle von Ontologien zur Abbildung von semantischen Parametern digitaler Infor- mationssammlungen wird im Beitrag von Georg Hohmann und Mark Fichtner diskutiert. Neben wesentlichen und strukturiert aufbereiteten Grundlagen zu Ontologien zeigen die Autoren die Bedeutung des etablierten Referenzmodells ›CIDOC Conceptual Reference8 Vorwort der HerausgeberModel‹ in Zusammenhang mit der ›Web Ontology Language OWL‹ auf. Das Modell eig- net sich insbesondere zur Wissensrepräsentation im Kontext des Kulturerbes, das es im Sinne der Recherche und Wissensgenerierung möglichst komplex abzubilden gilt. Dass die Resultate von Einzelprojekten der digitalen Aufbereitung wissenschaftlicher Informationen immensen Vorschub geleistet haben, ist unbestritten. Doch erst die Ver- netzung dieser separierten Erkenntnisse birgt den eigentlichen Wert dieser zahlreichen und spezialisierten Wissensbestände. Frank Dührkohp zeigt anhand ausgewählter Inven- tarisierungsprojekte, wie das kollaborative Bewahren von Kulturerbe durch das überregi- onale und interinstitutionelle Sammeln, Zugänglichmachen und Rezipieren optimiert werden kann. Am Beispiel der Forschungsumgebung ›Studiolo communis‹ zeigen Doris Annette Hart- mann und Andreas Oberhoff sehr anschaulich, wie sich virtuelle Umgebungen erfolg- reich an den analogen Prozessen der Wissensarbeit orientieren können. Die Autoren machen deutlich, dass solche Werkzeuge nicht von bestehenden Hochschulinfrastruktu- ren losgelöst sein können, wenn es darum geht, durch Synergien von Forschung und Lehre sowohl angemessene Handlungs- als auch Wahrnehmungsräume im Virtuellen zu schaffen. Eine besondere Rolle nimmt, neben dem oft sowohl in der analogen als auch der digita- len Sphäre vorhandenen Kulturerbe, die genuin digital und ausschließlich internetba- sierte Netzkunst ein. Anhand dieser Sonderform digitaler Kunst zeigen Gunther Reisin- ger und Mario Röhrle, wie bereits aus dem Internet verschwundene Kunstwerke rekonstruiert werden können. Mit unterschiedlichen Werkzeugen ist es möglich, diese in der werkeigenen Medialität für Wissenschaft und Öffentlichkeit wieder zugänglich zu machen. Ergänzt durch ebenfalls einsehbare Entwurfstadien und Metadaten kommt so eine hervorragende Grundlage für kunstwissenschaftliche Untersuchungen dieser flüch- tigen Kunstform zustande. Kostenintensive Softwareumgebungen, die oft nur bedingt auf die Bedürfnisse wissen- schaftlicher Einrichtungen ausgelegt sind, können die Entwicklung von Repositorien deutlich hemmen. Am Beispiel der Open-Source-Software MyCoRe zeigt Wiebke Oelt- jen, wie wissenschaftliche Repositorien erstellt und über das Internet zugänglich ge- macht werden können. Die Autorin erläutert die Merkmale dieser auch im institutionel- len Zusammenhang eingesetzten Software sowie ihren Nutzen für eine digitale Langzeit- archivierung. Wichtige Kriterien für die digitale Präsentation wissenschaftlicher Erkenntnisse sind ne- ben einfacher und schneller Zugänglichkeit vor allem ihre Glaubwürdigkeit. Anhand des Fachrepositoriums OstDok für das Gebiet der Osteuropawissenschaften erläutert Ar- pine Maniero, welchen Mehrwert der hierbei auch durch Retrodigitalisierung zugänglich gemachte Fundus an wissenschaftlicher Literatur für die Fachwelt bedeutet. Durch die zusätzliche Einrichtung einer Redaktionsplattform fördert das Projekt zudem die Ak- zeptanz und Sichtbarkeit der Onlinepublikationsform.9 Vorwort der HerausgeberIm abschließenden Beitrag verdeutlicht Jana Weitkamp den Wandel der Publikationskul- tur sowie die Bedeutung von Open Access. Sie zeigt, wie kommerzielle und wissen- schaftliche Motive gegeneinander abgewägt werden müssen, um den Fortschritt der Wissenschaft zu befördern. Die begrenzten finanziellen Ressourcen von Bibliotheken kollidieren dabei mit dem Bedürfnis, maximale fachwissenschaftliche Ressourcen bereit- zustellen. Die Open-Access-Bewegung stellt hierbei eine Alternative dar, deren Vor- und Nachteile bewertet werden müssen. Bereits etablierte Portale bereichern schon jetzt die Wissenschafts- und Publikationskultur. Auch der Hochschulverlag KIT Scientific Publishing, bei dem die vorliegende Schriften- reihe erscheint, verfolgt eine konsequente Open-Access-Policy und trägt dazu bei, etab- lierte Strukturen der analogen Kultur in die digitale zu überführen. Im Oktober 2011 fand die III. Tagung ›Technik und Kultur‹ statt, die von dem am ZAK | Zentrum für Angewandte Kulturwissenschaft und Studium Generale des KIT angesiedelten Center of Digital Tradition (CODIGT) veranstaltet wurde. Zu diesem Zeitpunkt war CODIGT das Kompetenzzentrum für kulturelle Überlieferung – digital Karlsruhe (KÜdKa) unter der Geschäftsführung von Robert Hauser, dem wir auch für die Organisation der genannten Tagung danken. Kooperationspartner und freundlicher Gastgeber dieser Veranstaltung zum Themenkomplex ›Digitalisierung und Bewahrung des digitalen kulturellen Erbes‹ war das ZKM | Zentrum für Kunst und Medientechno- logie Karlsruhe. Die vorliegenden Beiträge sind zum großen Teil aus dieser Tagung hervorgegangen. Die im Oktober 2011 noch in Form von Werkstattberichten vorgestellten laufenden Pro- jekte haben sich in der Zwischenzeit fortentwickelt bzw. sind zum Abschluss gekom- men. Dass das Thema digitaler Langzeitarchivierung vorerst noch hauptsächlich im Rah- men befristeter wissenschaftlicher Projekte erschlossen wird, ist nebenbei bemerkt ein ganz eigenes Paradoxon. Für den vorliegenden Band jedoch eröffnete sich die willkom- mene Möglichkeit, die seitherige Entwicklung dieser Projekte sowie die damit einherge- gangenen Veränderungen der Arbeitsweise mit aufzunehmen. Großer Dank gebührt an dieser Stelle den Autorinnen und Autoren, die mit uns die Reise angetreten haben, ihre Forschungs- und Projektarbeiten in ihrer Prozesshaftigkeit zu reflektieren. Unser besonderer Dank für die aufwendigen und sorgfältigen Redigierungsarbeiten gilt dem Lektorat des ZAK: Inge Böhm, Silke Flörchinger, Janina Hecht und Christine Wölfle. In Angelegenheiten der grafischen Realisierung danken wir herzlich Tina Gerken, Laura Jungmann und Karolina Plewniak. Für vorbereitende Arbeiten bedanken wir uns ferner bei Deniz Yenimazman. Karlsruhe, im Januar 2015 Caroline Y. Robertson-von Trotha Ralf H. Schneider10 Bewahren, verändern oder löschen – können Textdokumente zukunftsfähig sein? Annely Rothkegel 1. Warum gerade Texte? In der Regel sind es die Textinhalte, Themen oder Textfunktionen, auch ästhetische As- pekte, die für die Digitalisierung und die Einschätzung als ›überlieferungswürdiges Erbe‹ interessieren. Es kann die Anerkanntheit der Autor(inn)en sein, die den Ausschlag gibt oder einfach der Zeugnischarakter mit Blick auf die als interessant betrachteten Perso- nen, Objekte, Ereignisse oder Epochen. Für Entscheidungen dieser Art sind vor allem die in den jeweilig betroffenen Disziplinen (z.B. Literaturwissenschaft, Bildende Kunst, Archäologie, Architektur, Geschichte usw.) erarbeiteten Kriterien maßgeblich. Mit den technisch-digitalen Möglichkeiten von Hard- und Softwareangeboten, Texte im Sinne von Daten in (fast) unbegrenzter Quantität (und ökonomisch günstig) zu spei- chern, zu verwalten, verfügbar zu halten und – nun in der Perspektive der Zukunft – zu produzieren, ergibt sich eine zusätzliche Sicht auf die Problematik. Die Frage, inwieweit die entstehenden, unsichtbar bzw. verborgen wachsenden Textberge (oder handelt es sich um den berühmten Grießbrei aus dem Märchen, der nicht mehr zu stoppen ist?) als sinnvoll oder kontraproduktiv, als wünschenswert oder auf lästige Weise überflüssig ein- zuschätzen sind, lenkt die Aufmerksamkeit auf den Text als Text oder als Dokument und seine textspezifischen Eigenschaften. Zusätzlich zu einer medienwissenschaftlichen Perspektive mit eigener Methodologie (u.a. soziologisch, journalistisch, statistisch) könn- ten linguistische bzw. textlinguistische Ansatzpunkte für die Bestimmung von Kriterien zum Bewahren oder Löschen von Texten herangezogen werden. Ein solcher Blickwin- kel gestattet es, das Phänomen in einem wiederum erweiterten Horizont wahrzunehmen, der möglicherweise sowohl altes, bestehendes als auch neues, zukünftiges Textgut ein- bezieht. Die sich stetig vermehrende Textmasse, im privaten wie im professionellen Bereich, be- darf der Pflege und ordnenden Aufmerksamkeit (mit eigenen Ordnungsprinzipien) oder sie wird, sehr simpel, einfach zu Müll. Insofern wird, softwaretechnisch, viel getan, um den Umgang mit Texten in kontrollierten Arbeitsprozessen zu organisieren. Aus diesem Blickwinkel betrachtet werden Texte zu Dokumenten, die Texteinheiten zu Daten. Gleichzeitig mit den zunehmenden, teils juristisch motivierten Anforderungen nach Do- kumentation in allen Servicebereichen – ob medizinische Versorgung, (interne und ex- terne) technische Dokumentation, Katastrophenschutz oder Lernumgebungen und Trainings – werden Dokumente einem Dokumenten-Lebenszyklus (document lifecycle)11 Annely Rothkegelunterworfen, analog zum Produkt-Lebenszyklus für technisch erzeugte Produkte.1 Im Rahmen dieses Zyklus ist u.a. vorgesehen, dass man auch von der Möglichkeit Gebrauch macht, ein Dokument oder Teile davon standardmäßig zu löschen. Natürlich sind wir glücklich, dass wir Zeugnisse aus frühen Schriftkulturen haben (bis ca. 6.000 Jahre zurück 2), nicht nur des Inhalts wegen, sondern gerade als Zeugnisse ver- schiedener Schriftkulturen. So fasziniert uns heute noch immer die altägyptische Geset- zestafel des Hammurabi (ca. 1700 v.Chr.), die wir uns im Pergamonmuseum in Berlin anschauen können. Sie war, so lautet die wissenschaftliche Annahme, die »heilige« Schrift der Pharaonen und Priester und zu ihrer Zeit auf »Verewigung« angelegt.3 Der Stein von Rosette, ebenfalls ein ägyptisches Zeugnis zur Ehrung des Königs (196 v.Chr.), den wir im British Museum in London bestaunen können, hat mit den Paralleltexten in drei verschiedenen Schriftsprachen zur Entzifferung der Hieroglyphenschrift beigetra- gen. Die Fixierung durch die Schrift auf einem langlebigen Trägermedium ermöglicht es, dass wir als heutige Betrachter die Texte, die wir normalerweise nicht lesen, als kulturel- les Zeugnis aber wahrnehmen können. Wissen darüber erhalten wir in zugehörigen Be- schreibungen, d.h. durch Metatexte als Texte, die andere Texte dokumentieren.4 Die heutige Schriftkultur ist eine technisch geprägte Massenkultur,5 wobei der einzelne Text wenig Bedeutung für spätere Gesellschaften haben mag. Wie die Spreu vom Wei- zen trennen? Die folgenden Überlegungen richten sich auf den digitalen Text als Gegen- stand und stellen einen Zusammenhang her zwischen den spezifischen Eigenschaften ei- nes Textes als schriftlich fixiertes Kommunikationsereignis und den Einflüssen der IuK- Technologie.6 Als mögliches Erbe bzw. als bewahrenswert könnte ein Text gelten, von dem man begründet annehmen kann, dass er auch in Zukunft eine Rolle spielen wird. Die Frage stellt sich, ob und wenn ja, welche generellen Texteigenschaften es gibt, die unabhängig vom jeweiligen Einzeltext eine gewisse Zukunftsfähigkeit erwarten lassen, ohne dass die technischen Möglichkeiten allein die ausschlaggebenden Kriterien liefern. Dazu fokussieren wir auf zwei Faktoren: Kohärenz und Fortsetzungsoptionen im Text. Mit der Textkohärenz verbinden sich hierarchische Strukturen des thematischen und wissensbezogenen Zusammenhangs, der für Verstehen und Verständnis wichtig ist. Die Fortsetzungsmöglichkeiten bilden die Voraussetzung, ein Thema in den kontinuierli- chen Sequenzierungen der Teiltexte aufbauen zu können. Dabei sollen sowohl mono- lineare (z.B. Printtexte) wie auch multi-lineare Texte (z.B. Hypertexte) berücksichtigt werden. Die Aufmerksamkeit richtet sich insbesondere auf mögliche Anschlusspunkte für Konzepte, die eine Themenveränderung bewirken können. Metaphorisch ausge- drückt stellt sich die Frage: Gibt es antizipierbare und identifizierbare Wachstums- punkte, an denen ein Text auf kohärente Weise in veränderten Kontexten relevant sein 1 Siehe hierzu Abschnitt 4.3. 2 Vgl. STEIN 2010. 3 Ebd., S. 41. 4 Siehe hierzu Abschnitt 4.4. 5 Vgl. STEIN 2010, S. 277–319. 6 IuK-Technologie steht als Kurzform für Informations- und Kommunikationstechnologie.12 Bewahren, verändern oder löschen – können Textdokumente zukunftsfähig sein?kann, d.h. auch in der Zukunft elaborationsfähig ist? In diesem Zusammenhang ist zu überprüfen, ob sich das Verständnis, was als Zukunft zu verstehen ist, auf Texteigen- schaften wie Kohärenz und Fortsetzung übertragen lässt. In diesem Sinne klären wir zunächst in Abschnitt 2, auf welche Weise ›Zukunft‹ in der Sprache verankert ist und welche tragende Rolle semantische Modelle dabei haben. Ab- schnitt 3 lenkt die Aufmerksamkeit auf disziplinäre und interdisziplinäre Zukunftsmo- delle. In Abschnitt 4 verbinden wir die Ausführungen von 2 und 3 mit den fokussierten Texteigenschaften, die wir in Abschnitt 5 in drei Kriterientypen zusammenfassen. 2. Zukunftsvorstellungen: Sprache(n) bringen sie an den Tag 2.1. Wo finden wir Zukunft? Zukunft existiert nur in der Kommunikation, d.h. in explizit geäußerten Zukunftsvor- stellungen (Voraussagen, Prognosen, Visionen), in impliziten Zukunftsmodellen (Zeit- modelle, Ereignismodelle), aber auch in der konkreten Planung von Handlungen, die zu späteren Veränderungen von Zuständen und Situationen führen sowie in sprachlich- kommunikativen Handlungen wie ankündigen, versprechen, aber auch Rat geben oder warnen, die die außersprachlichen Handlungen in einen kommunikativen Kontext ein- ordnen. Die Sprache ist das Kommunikationsmittel per se. Neben den physiologischen Bedin- gungen (Gehirn, Artikulations- und Schreibfähigkeit) sind es die kulturell-kommunikati- ven Ausprägungen in den Einzelsprachen und -kulturen, die die jeweiligen Ausdrucks- formen (Morphologie, Grammatik), die Möglichkeiten der Bedeutungsbildung (Semantik) sowie die Ausführung von kommunikativen Handlungen (Pragmatik) prägen. In diesem Abschnitt verfolgen wir, ausgehend von den Zeitstrukturen der (deutschen) Alltagssprache, einige disziplinäre Ansätze der Zukunftsmodellierung (Geschichte, Technik) und kommen dann zu komplexen, interdisziplinär konzipierten Vorstellungen, die in Schlüsselbegriffen, z.B. der Nachhaltigkeit, miteinander verknüpft zum Tragen kommen. 2.2. Wann und wie lange ist Zukunft? Zukunftswörter, Zukunftssätze, Zukunftsmodelle ›Zukunft‹ ist gegenwärtig ein attraktiver Begriff, oder doch eher als Zukunftswort ein Modewort. Es ist konnotativ positiv besetzt und eignet sich daher für Werbezwecke. Schon stereotyp sind Formulierungen wie: »Die Zukunft beginnt hier.« (Werbefilm der Uni Chemnitz auf ihrer Website).7 Angeboten werden »Visionen für die Produktion von morgen«, wobei die Erhöhung der Leistungseffizienz in der Produktionstechnik gemeint ist. Eine andere Hochschule wirbt mit »Nah dran an der Zukunft« und preist sich als 7 http://www.tu-chemnitz.de/tu/film [07.07.2014].13 Annely Rothkegel»eine der zukunftsfähigsten Hochschulen im ingenieurwissenschaftlichen Bereich«8 an, grammatisch also im Superlativ, was den Vergleich mit anderen impliziert. Es wird zu zeigen sein, dass Zukunftswörter als Wörter wenig aussagen bzw. lediglich eine bewer- tende Funktion haben, wenn sie nicht auf Modelle verweisen und so als Beschreibungen eine klassifizierende Funktion haben. »Zukunftsvorstellungen hängen an sprachlichen Voraussetzungen, die sie überhaupt erst zu generieren erlauben«,9 so Lucian Hölscher in kulturwissenschaftlicher Perspektive. Zukunft ist dabei immer im Zusammenhang mit den Zeitstrukturierungen zu sehen, die mit Sprache(n) und Kultur(en) verbunden sind. In sprachwissenschaftlicher Sicht kön- nen wir grammatische, semantische und pragmatische Dimensionen unterscheiden. So geben die Grammatiken der Einzelsprachen bestimmte Zeitstrukturen vor. Sprachge- schichtlich betrachtet (und auf die deutsche Sprache bzw. zumindest westliche Sprachen bezogen), ist die Zuordnung von Zeitkategorien zu Raumkategorien eine relativ junge Entwicklung, so bei Präpositionen (vor, nach) und davon abgeleiteten Konjunktionen (bevor, nachdem), die die Relationierung von Objekten (Nominalphrasen) bzw. von Sachverhalten (Nebensätze) syntaktisch organisieren. Ein Substantiv wie ›Zukunft‹ ist erst seit dem Ende des 15. Jahrhunderts belegt. Davor wird Zukünftiges »in eine fremde Stadt« oder »in ein fremdes Land« verlegt (was sich noch in der Märchensprache bei An- dersen wiederfindet). Das Bedeutungswörterbuch im Rahmen der Duden-Reihe defi- niert Zukunft allein über das Merkmal »Zeit« (»Zeit, die noch bevorsteht, die noch nicht da ist; die erst kommende oder künftige Zeit (und das in ihr zu Erwartende)«10 ). Zeitstrukturierungen sind in der Regel einzelsprachlich und kulturell bestimmt, auch wenn es Parallelen in verschiedenen Einzelsprachen geben mag. Relevante Komponen- ten sind das Tempussystem, Bezüge zu einer angenommenen Zeitachse mit Abhängig- keiten von der Sprecherposition (Sprechzeitpunkt) sowie Ablaufmuster für die Darstel- lung von Ereignissen und Handlungen. Im Weiteren geht es um die lexikalischen Inventare von Zeitwörtern und semantisch gesehen um Zukunftsmodelle. Was die Verben als sprachliche Ausdrücke für Zustände, Ereignisse und Handlungen (›Tätigkeitswörter‹) betrifft, so geht es um die Einbindung futurischer Zeitstrukturen in das jeweilige einzelsprachliche Tempussystem (beschrieben in den Grammatiken in An- lehnung an das Lateinische). Daneben gibt es komplizierte semantische Beziehungen, bei denen die thematisierten Ereignisse in eine zeitliche Relation gebracht werden, z.B. Ereignis e1 findet vor Ereignis e2 statt. Beide Ereignisse können vergangen (»E1 hat vor e2 stattgefunden.« oder »E2 hat nach e1 stattgefunden.«) oder zukünftig sein (»E2 wird nach e1 stattfinden.«) bzw. e1 kann vergangen und e2 zukünftig sein (»Nachdem e1 stattgefunden hat, wird e2 sein.«). Die Unterscheidungen sind vorstellbar auf einer Zeit- achse, die den Sprecherstandpunkt (Sprechzeit) markiert, von dem aus sich die Relation 8 Anzeige Stellenangebot, in: Die Zeit online, vom 19.11.2013; http://jobs.zeit.de/jobs/hamm_wissen- schaftlichen_mitarbeiterin_wissenschaftlichen_mitarbeiters_94896.html [07.07.2014]. 9 HÖLSCHER 2011, S. 402. 10 Duden online: Bedeutungen 1.a.; http://www.duden.de/rechtschreibung/Zukunft [07.07.2014].14 Bewahren, verändern oder löschen – können Textdokumente zukunftsfähig sein?zwischen den Ereignissen als vorzeitig, gleichzeitig oder nachzeitig bestimmen lässt.11 In diesem Sinne kann man ein Ereignis in der Zukunft als abgeschlossen (vergangen) betrachten (Beispiel: »Die CO2-Emissionen werden in den nächsten zehn Jahren um x Prozent reduziert (worden) sein.«). Dieses Ereignis ist zum Sprechzeitpunkt nachzeitig und daher zum Sprechzeitpunkt nicht an der Realität überprüfbar. Die Äußerung, im Sinne der Sprechakttheorie,12 entspricht einem Wunsch, einem Versprechen, einer An- kündigung oder einer Prognose (s. unten). Umgekehrt ist es denkbar, von einem Stand- punkt in der Vergangenheit auf ein von dort aus gesehen zukünftiges Ereignis zu verwei- sen, das zur Sprechzeit (sagen wir »im Sommer«) vorzeitig ist und damit im Hinblick auf die Realität überprüfbar (Beispiel: »Man hatte sich im Winter vorgenommen, bis zum nächsten Frühjahr die CO2-Werte zu reduzieren.«). Je nach Ergebnis der Überprüfung sprechen wir von einer Voraussage (Übereinstimmung) oder einer Illusion, Fehlberech- nung, evtl. sogar Täuschung (Nicht-Übereinstimmung). Die angenommene Zeitachse ermöglicht relative Angaben wie ›morgen‹, ›gestern‹, ›in ei- ner Stunde‹, ›in den nächsten Jahren‹. Besonders interessant sind die sogenannten deikti- schen Wörter, die erst zum Sprechzeitpunkt ihre jeweilige Bedeutung erhalten, z.B. ›jetzt‹ im Sinne von z.B. ›sofort‹, oder innerhalb eines Zeitraums von mehreren Tausend Jah- ren (»Wir leben jetzt in einer Zwischeneiszeit.«).13 Kulturell bestimmte Unterschiede in der Zeitstrukturierung sind ein vielfach bearbeite- tes Thema in den Kulturwissenschaften. So diskutiert z.B. Marc Hermeking die unter- schiedlichen Folgen einer monochron oder polychron verstandenen Zeitstruktur für die Darstellung von Abläufen, z.B. im Hinblick auf Arbeitsprozesse.14 Gemäß eines mono- chronen Musters gibt es strikt geordnete Festlegungen, ein Schritt erfolgt nach dem an- deren, wobei eine bestimmte Reihenfolge erwartet wird. Polychrone Muster sind dage- gen eher flexibel, sie beziehen sich auf Zyklen, Wiederholungen, aber auch auf Handlungsketten mit Gleichzeitigkeiten und Unterbrechungen. In der Realwelt und den sie begleitenden Texten bzw. Dokumenten sind Varianten und Mischungen gängig. So gehören z.B. Begriffe des Multitasking oder Parallel-Tasking ebenfalls in die Gruppe der strikten Organisation, obschon die Abläufe durch Gleichzeitigkeiten oder Überlappun- gen gekennzeichnet sind. Die Beispiele machen deutlich, dass mit dem Ausdruck ›Zeit‹ unterschiedliche Vorstellungen (Konzepte) verbunden sind, die sich mit den unterschied- lichen Vorstellungen, verbunden mit dem Ausdruck ›Zukunft‹, mischen. In der Sicht auf die Akteure der Handlungen können zwei Zukunftsvorstellungen unter- schieden werden, aus denen entsprechende Arten von Modellen entstehen. Lucian Höl- scher teilt sie in passive und aktive Zukunftsvorstellungen ein, die in etwa der im Franzö- sischen möglichen Unterscheidung von future und avenir entsprechen.15 Passiv verstanden kommen die Dinge auf die Beobachter bzw. Akteure zu, die Dinge sind bereits im Kern 11 Zu ›Zeitreferenz‹ vgl. VATER 2005. 12 Vgl. SEARLE 1969. 13 Vgl. ADAMZIK 2010, S. 18. 14 Vgl. HERMEKING 2012. 15 Vgl. HÖLSCHER 2011, S. 403.15 Annely Rothkegelangelegt, sie entwickeln oder entfalten sich, wobei die Richtung vom Ende her gesehen ist (z.B. bei ›Katastrophen‹ oder religiösen Weltanschauungen (›Jüngstes Gericht‹)). Ak- tiv verstanden schreiten Beobachter und Akteure auf die Dinge/Ereignisse zu, die erst durch sie selbst entstehen (z.B. ›Fortschritt‹). 2.3. Begriffe, Benennungen, Modelle Bevor wir neben der ablaufbezogenen Strukturierung von Zeit eine weitere Art im Hin- blick auf die beteiligten Akteure betrachten, sollen einige Bemerkungen zum Umgang mit Begriffen vorausgeschickt werden. Generell ist die Unterscheidung von Wort und Begriff wichtig, wenn man sich mit Fragen der Bedeutung beschäftigt. Dabei sind unter- schiedliche theoretische Positionen denkbar (im Rahmen von Semantik und Lexikolo- gie), die generell die Relation zwischen sprachlichen Ausdrücken (Wörtern), den gemein- ten Gegenständen (Referenz) und einer mentalen Vorstellung davon (Konzepte) be- stimmen, wobei die Verbindung von Wort und Konzept in der Lexikologie als Begriff bezeichnet wird (in diesem Sinne spricht man also vom Begriff ›Zukunft‹). In der Termi- nologielehre, insbesondere im multilingualen Bereich, sind solche Unterscheidungen zwischen einzelnen Wörtern oder zusammengesetzten Ausdrücken und Begriffen be- sonders wichtig, zumal sich die Einzelsprachen gerade in diesen Zuordnungen unter- scheiden.16 Für den Umgang mit fachlichen Ausdrücken ist vor allem die Differenzie- rung von einzelsprachlichen lexikalischen Inventaren (im Sinne von Benennungen) und deren Zuordnung zu mentalen Bedeutungseinheiten (im Sinne von Begriffen) wichtig. Aber auch im Alltag verwenden wir den gleichen sprachlichen Ausdruck in unterschied- lichen Modellen, so etwa ›Zukunft‹ im Sinne von ›Entstehung‹ oder ›Fortschritt‹. Anders als Definitionen, die ihre Grundlage in Klassifikationen und Klassifikationssyste- men haben, sind Modelle abhängig vom Gebrauch im Kontext. Sie entstehen, verändern und verfestigen sich im fortlaufenden Diskurs. Sie bringen die im Diskurs thematisierten Begriffe (Schlüsselbegriffe) in eine bestimmte Perspektive des Verstehens und der Ver- ständigung und wirken handlungsanleitend. Ein Modell im Sinne eines ›mentalen Mo- dells‹17 gehört – theoretisch gesehen – in ein kognitives Raster, in dem (mehr oder weni- ger bildliche) Vorstellungen (engl. view) über die Welt das (nicht-sprachliche) Denken steuern. Im Alltag sagen wir analog, dass wir uns ›ein (eigenes) Bild von etwas machen möchten‹, um eine Sache zu verstehen. Auch wenn es sich hier um eine vage Formulie- rung handelt, ist dennoch erkennbar: Es geht um Einordnung und Zusammenführung von Einheiten in einen spezifischen Zusammenhang. 16 Vgl. ARNTZ u.a. 2004; KING/REINOLD 2008. Im Zusammenhang einer Anpassung durch definitorische Festlegungen spricht man auch von Harmonisierung, die für eine geregelte internationale Verständigung eine Voraussetzung darstellt. 17 Vgl. JOHNSON-LAIRD 1983.16 Bewahren, verändern oder löschen – können Textdokumente zukunftsfähig sein?In kognitionswissenschaftlicher Perspektive entsprechen mentale Modelle internen men- talen Konstruktionen (und Repräsentationen), die die Strukturierung der jeweiligen Um- welt bestimmen und typisch für soziale Gruppierungen sind.18 Sie bilden die Grundlage für Verständnismuster, nach denen Personen ihre Umwelt wahrnehmen, ihre Probleme identifizieren und Problemlösungen entwickeln. In textlinguistischer Sicht und damit in Bezug zu Fragen der Kohärenzbildung stehen Modelle im Zusammenhang mit dem im Text thematisierten Wissen.19 Hinsichtlich der Analyse können sie als spezifische Konfi- gurationen von Wissensschemata erfasst werden.20 Dies passt in die Theorie, wonach Schreibende wie Lesende ihre jeweils eigenen Wissensschemata in die Prozesse des Textproduzierens bzw. Textverstehens einbringen (so erklärt man, dass verschiedene Personen Texte auf unterschiedliche Weise verstehen bzw. interpretieren). Schemata wiederum gelten als kognitive Repräsentationen von Erfahrungs- und entspre- chendem Erwartungswissen, die das Zustandekommen und Verstehen von Zusammen- hängen im Text steuern.21 Das Konzept von Wissensschemata geht zurück auf die frühe Wahrnehmungspsychologie, die besagt, dass unsere Wahrnehmung bereits durch unser Schemawissen, z.B. über Personen, Gegenstände, Sachverhalte und Ereignisse geprägt ist.22 Übertragen auf unsere Beispiele gilt: So etwas wie Zeit oder Zukunft verstehen wir im Sinne der (in der Kommunikation) verwendeten Modelle und den sie explizierenden Schemata, die ebenfalls handlungssteuernd wirken. Was weiterhin in unserem Zusam- menhang interessiert, ist die aus der Metapherntheorie adaptierte Hypothese, dass der Mix von Schemata aus verschiedenen Domänen zu neuen bzw. elaborierten Modellen führt und auf diese Weise in der Fortsetzung von Text bzw. Diskurs neue Modelle ent- stehen.23 2.4. Sachverhaltsbeschreibung: Zukunft als Veränderung (Ereignisse, Prozesse und Handlungen) Die Technikwissenschaften haben einerseits eine naturwissenschaftliche Basis, anderer- seits wird Technik auch quasi in Konkurrenz zur Natur gesehen.24 Eine Betrachtungs- weise, die sie zusammenbringt, zielt auf die ständige zukunftsgerichtete Veränderung von Situationen; in der Natur im Sinne von geschehenden Ereignissen, in der Technik als kontrollierte Prozesse. Beschrieben werden sie als Sachverhalte, denen bestimmte Er- eignis- bzw. Handlungsmodelle zugrunde liegen. Semantisch gesehen bilden Ereignisse und Handlungen zusammen mit der Basiseinheit ›Zustand‹, aus dem sich die beiden an- deren ableiten lassen, die drei grundlegenden Typen der Sachverhaltsbeschreibung zur sprachlichen Erfassung von Realität.25 18 Vgl. DENZAU/NORTH 1994. 19 Vgl. DE BEAUGRANDE/DRESSLER 1981, S. 89–94. 20 Vgl. SCHNOTZ 1994. 21 Vgl. ebd., S. 61–94. 22 Vgl. BARTLETT 1932. 23 Vgl. DRAAISMA 1999; DREWER 2007. Zur Anwendung in der Textanalyse vgl. ROTHKEGEL 2010, S. 36–39. 24 Vgl. HUBIG 2010, S. 65–69. 25 Zu ›Handlungslogik‹ vgl. VON WRIGHT 1977.17 Annely RothkegelIn der Zustandsbeschreibung werden Objekte der Welt, im weitesten Sinne und zeitlos, einander zugeordnet (»Das Buch liegt auf dem Tisch.«) bzw. sie werden durch Eigen- schaften spezifiziert (»Das Buch ist lesenswert.«, umständlich paraphrasiert: »Das Buch ist in dem Zustand, lesenswert zu sein.«). Ereignisse lassen sich als geschehende Verän- derungen von Zuständen beschreiben. Dabei geht es um den Übergang von einem Zu- stand z1 (zu einem bestimmten Zeitpunkt) in einen Zustand z2 (zu einem davon späte- ren Zeitpunkt). Beispiel: »Der Tsunami zerstörte das ganze Dorf.«, d.h. vor dem Tsunami war das Dorf intakt (in einem intakten Zustand), nach dem Tsunami ist es zer- stört (in einem zerstörten Zustand), wobei der Tsunami den Übergang zwischen den beiden Zuständen markiert. Handlungen sind schließlich dadurch gekennzeichnet, dass die Veränderungen intendiert, d.h. durch verantwortliche Akteure bewirkt werden. Ein Beispiel wäre: »P. hat aufgehört zu rauchen.«, d.h. bis zu einem bestimmten Zeitpunkt hat P. geraucht, ab diesem Zeitpunkt raucht P. nicht (mehr). Dabei kommt die am Ende von 2.2 erwähnte Unterscheidung von aktiver und passiver Zukunftserwartung zum Tragen. So kann es vorkommen, dass man Naturereignissen in einer passiven Zukunftshaltung begegnet. Das Verständnis technischen Handelns ist da- gegen aktiver Art: Fortschritt wird hergestellt, indem durch Innovationen Veränderun- gen herbeigeführt werden, die zu erwünschten Zuständen führen. Aufgrund von Erfah- rungen muss allerdings in Betracht gezogen werden, dass es auch zu unerwünschten Ergebniszuständen kommt (s.u. Unfälle) bzw. dass es normal ist, beides zu erwarten. 3. Zukunftsentwürfe: disziplinär und interdisziplinär 3.1. Geschichte und Technik In der Gegenwart werden Zukunftsentwürfe der Vergangenheit hinsichtlich ihres Reali- tätsgehalts überprüfbar. Lucian Hölscher spricht von der »vergangenen Zukunft«,26 die als Vergangenheit zum Gegenstand der Geschichtswissenschaft gehöre. Von Interesse sind also auch die in der Vergangenheit möglichen Zukunftsperspektiven. Sie charakteri- sieren eine Epoche und werfen ein Licht auf die in dieser Epoche realisierten wie auch nicht oder modifiziert realisierten Tatsachen. Hirngespinste oder Illusionen können nun von den als »zukünftige Tatsachen« thematisierten Entwürfen getrennt werden, die im Gegensatz zu den erstgenannten auf den »zukünftigen Möglichkeiten«27 im Sinne einer Realisierbarkeit beruhen. Entstanden aus Sorgen und Wünschen, Erfahrungen und schließlich auch Berechnungen richten sich die dominierenden Zukunftsentwürfe auf spezifische Gegenstände im weitesten Sinne, auf manche gar nicht oder nur zeitweise. Als ausgearbeiteter Entwurf im Sinne einer antizipierten Zukunft gelten Utopien oder Visionen, »die wir vor uns sehen müssen, um sie verwirklichen zu können«.28 Wie kom- men sie zustande? Lucian Hölscher verweist auf vier prognostische Verfahren: 26 HÖLSCHER 2011, S. 401. 27 Vgl. ebd. 28 Ebd., S. 404.18 Bewahren, verändern oder löschen – können Textdokumente zukunftsfähig sein?1. Prognostische Techniken in Form von Ableitungen aus anerkannten Erfahrungen; 2. Tendenzprognosen in der Weise, dass Daten aus der Vergangenheit in die Zukunft hochgerechnet werden; 3. Analogieprognosen, d.h. man geht vom Wiedereintreten eines Ereignisses aufgrund strukturell gleicher Umstände aus; 4. Dialektische Prognosen, die sich auf den Umschlag eines Zustands in sein Gegenteil beziehen, für den Fall, dass der ursprüngliche Zustand nicht mehr als haltbar gilt. Die Anwendung der aufgelisteten Prognosetypen ist abhängig von der Art der Situatio- nen und ihrer Einbettung in Ereignisse, Prozesse oder Handlungen. Während sich 1 bis 3 auf Sachverhalte beziehen, bei denen die Veränderungen in einem steten Verlauf be- trachtet werden, zielt Prognosetyp 4 auf Kippsituationen mit zwei Entwicklungsrichtun- gen. Man kann hier an einen Punkt im Verlauf der Ereignisse denken, an dem zwei ver- schiedene Möglichkeiten der Fortsetzung denkbar sind. Dabei gilt eine Fortsetzung als ›erwünscht‹, die andere als ›unerwünscht‹. Verläufe dieser Art werden als riskant bezeich- net. Der Begriff des Risikos eröffnet ein neues Feld der Betrachtung, insbesondere wenn wir einen Blick auf Zukunftsentwürfe im Bereich der Technik werfen. Bevor wir auf eine als ambivalent betrachtete technologische Entwicklung eingehen (im nächsten Ab- schnitt 3.2), schauen wir auf das im Hinblick auf Technik geläufige Bild von der Zukunft. Anders als die Geisteswissenschaften, die vorrangig (in Analysen) am bereits Existieren- den (oder Gewesenen) interessiert sind, orientieren sich Technik und Technikwissen- schaften vorrangig an der Zukunft. Geht man von einer Zeitachse aus, wie sie durch die Grammatik in den Sprachen vorgegeben ist,29 richtet sich der Blick, sowohl zurück wie auch nach vorne, vorrangig in die Zukunftsperspektive. Typisch für den ›Blick zurück in die Zukunft‹ (also in die »vergangene Zukunft«, wie oben skizziert) ist ein Buchtitel »Ur- sprünge der Zukunft. Geschichte der Technik in der westlichen Zivilisation« von Karl Metz.30 Grob formuliert versteht sich Technik – mit den Prinzipien der Möglichkeit – als Zukunftsentwurf per se.31 So erscheint der Begriff der Innovation, ein ebenfalls aus- schließlich positiv konnotierter Begriff, nicht nur in werblichen Texten, sondern auch in politischen und in Forschungsprogrammen. Als ›Expedition Zukunft‹ (Forschungsexpe- dition Zukunft; Science Express) war im Wissenschaftsjahr 2009 ein von der Max- Planck-Gesellschaft im Auftrag des Bundesministeriums für Bildung und Forschung ini- tiierter Ausstellungszug mit zwölf Waggons an deutschen Bahnhöfen unterwegs, der vermitteln sollte, »wie Wissenschaft und Technik unser Leben verändern« (so der Unter- titel des Katalogs), wobei Digitalisierung, Miniaturisierung und Personalisierung den er- 29 Siehe hierzu Abschnitt 2.2. 30 METZ 2006. 31 Vgl. HUBIG 2006; DERS. 2007 (zweibändige technikphilosophische Abhandlung zur »Kunst des Mögli- chen«) oder KAMINSKI 2010.19 Annely Rothkegelwarteten Wandel bestimmen werden.32 Die einbezogene Zeitspanne beträgt hier 20 Jahre (wie werden wir in 20 Jahren leben?).33 Eine Publikation der Gesellschaft für Techni- sche Kommunikation (tekom) e.V. bezieht sich auf 30 Jahre.34 Der Artikel von Gerhard Banse und Andrzej Kiepas beschäftigt sich mit Visionen der Informationstechnologie bis 2016, also vom Erscheinungsjahr ausgehend die damals ersten acht Jahre dieses Jahr- hunderts gedoppelt.35 Auf die Schiene einer Entwicklung hin zu einem Kulturwandel, bei dem Technik und Kultur (wieder) aufeinander bezogen werden, gehen wir in Ab- schnitt 3.4 ein. 3.2. Sicherheit und Risiko Die Offenheit von Zukunft einerseits, Erfahrungen aus »vergangener Zukunft« anderer- seits bringen in den Blick, dass Geplantes gelingen, aber auch misslingen kann, dass es zu erwünschten, aber auch zu unerwünschten Zuständen kommen kann. Dieses Faktum ist allen Handlungen eigen, wie bereits im Abschnitt 2.4 hinsichtlich der Sachverhalts- darstellung thematisiert worden ist. Auch Ereignisse, die ohne Beeinflussungsimpuls durch Akteure stattfinden wie Naturereignisse (wir sehen hier von der Frage menschen- gemachter Naturkatastrophen ab), nehmen in der Regel solche Entwicklungen. So ver- steht es sich von selbst, dass Vorstellungen von Sicherheit vor Gefahren und Schaden, von Schutz gefährdeter Personen und Objekte einen breiten Raum in den Zukunftsmo- dellen einnehmen. Sie sollen erfassen, was sein soll bzw. was nicht sein soll. In diesen Modellen kommen drei Komponenten zusammen: die Parameter der infrage stehenden möglichen zukünftigen unerwünschten Ereignisse (Extremereignis, Katastrophe), Wahr- scheinlichkeiten ihres Eintritts (Risiko) sowie die geplanten oder zu planenden Maßnah- men als Reaktion auf beides. Der Begriff des Risikos ist disziplinär bestimmt, sodass sich hierbei unterschiedliche Ri- sikomodelle ergeben, wobei es in jedem Fall um eine Relation geht. Ökonomisch gese- hen bildet das Verhältnis von Gewinn und Verlust die zentrale Relation, soziologisch ist es die Relation zwischen Verursachern und Betroffenen und naturwissenschaftlich- technisch gesehen geht es um Kontrollierbarkeit bzw. Unkontrollierbarkeit von Ereig- nissen und/oder Maßnahmen. Im Weiteren gilt hier Risiko als eine berechenbare Größe, die sich aus der Zuordnung der Eintrittswahrscheinlichkeit des unerwünschten Ereignis- ses und des zu erwartenden Schadensausmaßes ergibt. In der Kommunikation (d.h. in Texten und Dokumenten) kommen also komplexe Begriffsfelder mit sich überlappen- den Modellen zum Tragen, deren Bedeutung nur kontextabhängig erfasst werden kann (z.B. ›Sicherheit‹ im Sinne von ›Abwehr von Gefahr‹ oder im Sinne von ›Schutz der mög- lichen Schadensobjekte‹).36 32 Vgl. Max-Planck-Gesellschaft 2009, S. 13. 33 Vgl. ebd. 34 Vgl. HENNIG/TJARKS-SOBHANI 2012. 35 BANSE/KIEPAS 2008. 36 Vgl. ROTHKEGEL 2011, S. 277.20 Bewahren, verändern oder löschen – können Textdokumente zukunftsfähig sein?Das Risiko unerwünschter Veränderungen rückt das jeweilige Ereignis selbst in den Vordergrund der Aufmerksamkeit. Sein zeitlicher Ablauf bestimmt dabei die Arten der möglichen Maßnahmen. So beziehen sich die aktiv eingreifenden Maßnahmen auf die nach Zukunft, Gegenwart und Vergangenheit eingeteilten Phasen eines Ereignisses: das Vorereignis, das Ereignis (im Ablauf) und das Nach-Ereignis (Folgen). Entsprechend zielen die Maßnahmen auf Prävention (Verhinderung des Ereignisses im Sinne aktiver Sicherheit und Maßnahmen zur Milderung möglicher Folgen bei nicht zu verhindern- dem Ereigniseintritt im Sinne passiver Sicherheit) sowie rettende Maßnahmen (während des Ereignisverlaufs) und schließlich Maßnahmen zu Wiederaufbau und Restrukturie- rung nach dem Ereignis. Einteilungen dieser Art kommen zum Einsatz sowohl im Hin- blick auf Naturereignisse (Katastrophen) wie auch bei Unfällen (Großtechnologie- unfälle), wobei die Maßnahmen technischen Standards zugeordnet werden. Neben der Prävention (Vorereignis: Verhinderung, Abschwächung) spielen im Weiteren Maßnah- men der Vorsorge und der Resilienzerhöhung eine große Rolle (als antizipierte Reaktion der potenziell durch ein eingetretenes Ereignis Geschädigten). Während das Modell der Prävention von der Zukunftsvorstellung ausgeht, dass das Ereignis nicht eintritt, dass man den Eintritt verhindern oder hinauszögern kann, geht es bei Vorsorge und Re- silienzerhöhung um den aktiven Umgang mit dem Ereignis bzw. seinem bevorstehenden Eintritt. 3.3. Ambivalenzen Neben der Berechenbarkeit möglicher Risiken und Schäden gibt es eine eher ›weiche‹ Betrachtungsweise. So wird auf die Ambivalenz von Technik verwiesen, d.h. Chancen und Risiken werden gegeneinander abgewogen,37 mögliche negative Wirkungen gesell- schaftlicher Art zumindest als Risiken im Sinne nicht erwünschter Zustände themati- siert. Mit Blick auf die Informations- und Kommunikationstechnologie zitiert Klaus Fuchs-Kittowski die Formulierung »Verlust im Vorwärtsschreiten«38 aus einem Artikel von Ernst Bloch mit dem Titel »Differenzierungen im Begriff Fortschritt«39 (zur Ambi- valenz des Fortschritts). Er selbst bezieht sich an dieser Stelle auf die Unterscheidung von menschlicher Informationsverarbeitung (im Sinne der Semantik) und maschineller Informationsverarbeitung (im Sinne von Syntax), bei der der Zusammenhang von Syntax, Semantik und Pragmatik in den Hintergrund tritt, der Verstehen und Kommuni- kation zwischen Menschen steuert (s.u.). Zu den Ambivalenzen zählt Klaus Fuchs- Kittowski im Weiteren die Gegenüberstellung von Datenschutz und Sammelwut (ohne technische Grenzen) oder von Sicherheit (vor Attacken im Netz) und Überwachung (mit Eingriffen in die Privatsphäre).40 Die Web-2.0-Technologie (als ›Mitmach-Web‹) 37 Vgl. BANSE/REHER 2011. 38 BLOCH 1956, S. 5; zitiert in FUCHS-KITTOWSKI 2011, S. 162. 39 BLOCH 1956. 40 Vgl. FUCHS-KITTOWSKI 2011, S. 170.21 Annely Rothkegelschließlich bildet eine neuerliche Quelle nicht versiegender Textströme.41 Dennoch: Sus- tainable development, ein Schlagwort für die Entwicklung von Alternativen, gilt auch für die Informatik als eine Gestaltungsaufgabe für die Zukunft.42 3.4. Zukunft durch Nachhaltigkeit und Kulturwandel. Ein interdisziplinärer Versuch Zentral für das Nachhaltigkeitskonzept ist die Ausrichtung auf die Zukunft bei Bewah- rung bewahrenswerter Faktoren (›Bestand im Wandel‹). Mit Blick auf das Prinzip steter Innovation als Kern technischer Entwicklung ergeben sich Fragen möglicher Anpassun- gen an Nachhaltigkeitskonzepte.43 Fragen dieser Art sind wiederum in einen weiteren Rahmen einzuordnen, der generell das Verhältnis von Technik und Kultur themati- siert.44 Aus der Perspektive der ›Cultural Studies of Technosciences‹ formuliert Jutta Weber wie folgt: »Die Technowissenschaften sind zentraler Teil unserer Kultur und ihre Praktiken sind selbst als kulturelle Praxen sowie praktische Kultur und damit als soziale Praxis zu begreifen.«45 Dies kann gesehen werden als konsequente Fortsetzung eines Blicks auf Technik im Sinne soziotechnischer Systeme.46 So mag es praktische Gründe bzw. Motivationen geben, Interkulturalität systematisch zu erforschen und die Ergeb- nisse für die Praxis globaler Distribution technischer Produkte zu nutzen, d.h. konkret für die Vorbereitung von Ingenieuren in ihnen fremden Kulturen, aber auch theoreti- sche Gesichtspunkte kommen dabei zum Tragen.47 Im Zusammenhang der Fragestellung dieses Beitrags schließt sich mit der Einbeziehung kultureller Aspekte und deren Anwendung auf Modelle der Nachhaltigkeit der Kreis, in dem nun auch Sprache und Texte als kulturell geprägter Sprachgebrauch ihren Platz fin- den und wir zu unserer Frage zurückkommen, welche Gründe es für das Bewahren von Texten geben könnte. In diesem Sinne explizieren wir – auch wenn nur in Kürze – das Begriffsfeld der Nachhaltigkeit. Kerngedanke des Nachhaltigkeitsdiskurses zielt auf ein Handeln im Sinne eines aktiven Bewahrens von Bestehendem bei gleichzeitiger Zukunftsorientierung und Entwicklung von Potenzialen. Zugrunde liegt das der Forstwirtschaft entlehnte Konzept der Nutzung eines regenerierbaren Systems (natürlich, technisch, sozial) in einer Weise, dass dieses System in seinen wesentlichen Eigenschaften erhalten bleibt und dass sein Bestand auf natürliche Weise regeneriert werden kann (Kursächsische Forstordnung von 1560). Ge- genwärtig gilt dies als Leitbegriff für die Arbeit der Weltkommissionen für Umwelt und Entwicklung (z.B. die Konferenzen Rio 1992 bis Rio 2012). Wie Ulrich Grober auf nar- rative Weise darlegt, hat der Begriff in seiner langen Geschichte etliche Bedeutungsver- 41 Vgl. EBERSBACH u.a. 2011. 42 Vgl. FUCHS-KITTOWSKI 2011, S. 178. 43 Vgl. BANSE/KIEPAS 2005; BANSE u.a. 2011. 44 Vgl. BANSE/GRUNWALD 2010; BANSE/KREBS 2011. 45 WEBER 2010, S. 86. 46 Vgl. ROPOHL 2009. 47 Vgl. HUBIG/POSER 2007; RÖSCH 2008; ROTHKEGEL 2007; HERMEKING 2012.22 Bewahren, verändern oder löschen – können Textdokumente zukunftsfähig sein?änderungen durchgemacht, bis hin zur Bedeutungsentleerung.48 Nicht zuletzt wegen sei- ner positiven Konnotation eignet er sich – ähnlich wie ›Zukunft‹ – für werbende Zwecke.49 Es geht um einen komplexen Schlüsselbegriff, der weitere Begriffe einbe- zieht, z.B. Generationengerechtigkeit, Regenerierbarkeit, Zukunftsfähigkeit, Partizipa- tion, Vorsorge, (vorausschauende) Weitsicht, Genügsamkeit (Suffizienz neben Effizienz und Effektivität) und schließlich auch Sicherheit. Dazu Ulrich Grober: »[…] ist Nachhaltigkeit der Gegenbegriff zu ›Kollaps‹. Er bezeichnet, was standhält, was tragfähig ist, was auf Dauer angelegt ist, was resilient ist, und das heißt: gegen ökologi- schen, ökonomischen und sozialen Zusammenbruch gefeit. Die Bestimmungen aus so unterschiedlichen Epochen […] verorten Nachhaltigkeit im menschlichen Grundbedürf- nis nach Sicherheit«.50 Die Kommunikation über den Begriff der Nachhaltigkeit ist vielseitig und unübersicht- lich.51 Dennoch oder gerade deswegen – im Sinne der »Knotenpunkte«52 bei Jutta We- ber – eignet er sich für den fachübergreifenden (interdisziplinären) Diskurs. Üblicher- weise spricht man vom Drei-Säulen-Modell, das an den Disziplinen Ökologie, Öko- nomie und Soziologie ausgerichtet ist. Im integrativen Vier-Säulen-Modell wird eine Zu- sammenschau unter dem Begriff der Kultur hergestellt, wobei als Konsequenz die For- derung nach einem grundsätzlichen Kulturwandel hinzukommt.53 Dabei werden sowohl der Begriff der Nachhaltigkeit wie der Begriff der Kultur neu modelliert. Dieses Phäno- men ist generell typisch für die Modellbildung, bei der sich Wissensbereiche überlappen (anders in Klassifikationen, wo es um Abgrenzung geht). Die Kopplung von verschiede- nen Wissensbereichen leitet sich aus der Problemorientierung der Diskurse ab, in denen es nicht um disziplinäre Bestimmungen, sondern vorrangig um Problemlösungen geht. Diskurse dieser Art fördern und werden gefördert durch die durch die Disziplinen wan- dernden Begriffe (travelling concepts). Gerade sie, in ihrer Bedeutung vage geworden, sind produktiv im interdisziplinären Diskurs. 4. Texte: für die Ewigkeit oder doch nicht? 4.1. Modelle im Text und Diskurs Insofern als Modelle Wahrnehmung, Verstehen und Handeln beeinflussen, spielen sie eine wichtige Rolle in der Kommunikation. Metaphorisch gesprochen verbinden sie als Brücke die Ufer und zeigen gleichzeitig deren Getrenntsein auf. Dies gilt sowohl für die fachübergreifende Kommunikation wie auch für den interkulturellen Diskurs und natür- lich für beide im Mix. In dieser allgemeinen Formulierung leuchtet die Sache ein. Kon- kret im Sinne einer empirisch fundierten Modellidentifikation, möglicherweise im Bezug 48 Vgl. GROBER 2010, S. 16. 49 Vgl. ebd., S. 17: »Von der Diät bis zur Kapitalkraft«. 50 Ebd., S. 14. 51 Vgl. FISCHER/HAHN 2001. 52 WEBER 2010, S. 90. 53 Vgl. PARODI u.a. 2010; STAHMER 2010; BANSE u.a. 2011.23 Annely Rothkegelauf unterschiedliche Kommunikationssituationen, stehen integrierte Ansätze noch aus. Dabei spielen Texte als Orte der Modellelaboration und deren methodische Handha- bung eine grundlegende Rolle. Zu nennen sind z.B. die kognitionswissenschaftlich ausgerichteten empirischen For- schungen, die am Institut für Klimafolgenforschung an der Universität Potsdam betrie- ben werden.54 Exemplarisch wurden Experteninterviews durchgeführt, die erkennen lie- ßen, dass in den verschiedenen Expertengruppen unterschiedliche Modellvorstellungen zum Klimawandel vorherrschen, z.B. die gesellschaftlichen Folgen in der Wissenschaft- lergruppe, technische Maßnahmen bei Verwaltungsleuten, Kostenfragen bei Politikern. Die Forschungsansätze sind, gemäß der disziplinären Heimat der Forschenden, natur- wissenschaftlichen und soziologischen Paradigmen zuzurechnen. In dieser Perspektive bilden Texte, in Form von Interviews, die Materialgrundlage für qualitative und quanti- tative Analysen, die durch automatische Inhaltsanalysen (auf Wortebene) ergänzt wer- den,55 wobei semantisch-begriffliche Textanalysen allerdings nicht zum Design gehören. Textsemantische Ansätze,56 darunter auch terminologische Zugänge, finden sich vor al- lem im Rahmen der Fachkommunikation bzw. multilingualen Textforschung.57 Hier geht es in der Regel, grob gesprochen, um text- und textsortenbezogene Untersuchun- gen zu Wissenssystemen, die sich auf bestimmte Domänen beziehen und die im Text elaboriert werden. Dabei spielen konventionelle Einteilungen nach klassifikatorischen Begriffssystemen ebenso eine Rolle wie situationsbezogene Wissensschemata, bei denen das Miteinander-Vorkommen (co-occurrence) von Begriffen eine Rolle spielt. In dieser Sicht treten Themen und Situationsbezug in den Vordergrund. Themen sind auf Ausar- beitung, strukturell auf Fortsetzung (bzw. Beendigung durch Nicht-Fortsetzung) ange- legt. Unter kommunikativen Aspekten setzen Gemeinschaften und Situationen, für die die Themen relevant sind, den Rahmen. Ohne an dieser Stelle auf die Unterscheidung von Diskurs- und Praxisgemeinschaften näher einzugehen,58 sei hier festgehalten, dass es Gemeinschaften und die sie repräsentierenden Texte sind, in denen sich Modelle ent- wickeln und verändern.59 Demnach sind es die in den verschiedenen Kontexten produ- zierten Texte, die die Entfaltung von Modellen reflektieren und erschließbar machen. In textlinguistischer Sicht stellt sich die Frage, auf welchen Texteigenschaften die Analyse von Modellen aufsetzen könnte. Im Folgenden werden zwei Eigenschaften etwas näher betrachtet: die Kohärenzbildung und Prinzipien der Fortsetzung. Erstere repräsentiert eine statische Perspektive vom Text als Ergebniszustand laufender oder abgeschlossener Kommunikationsereignisse, letztere eine dynamische Perspektive ihrer Veränderung in der Zeit. 54 Vgl. OTTO-BANASZAK u.a. 2011. 55 Zur Methode vgl. GLÄSER/LAUDEL 2006. 56 Vgl. METZELTIN 2007. 57 Vgl. u.a. GERZYMISCH-ARBOGAST 1996; LUNDQUIST/JARVELLA 2000. 58 Vgl. dazu POGNER 2012. 59 Zur Veränderung von Schlüsselbegriffen vgl. LIEBERT 2003.24 Bewahren, verändern oder löschen – können Textdokumente zukunftsfähig sein?4.2. Texte als Kommunikationsereignisse Die Textpragmatik seit den 1980er-Jahren betrachtet den Text als Ergebnis von Kom- munikationsereignissen, die zwischen Partnern, im Bezug auf vorherige, gegenwärtige und zukünftige Ereignisse sowie Texte und Themen stattfinden.60 Anders als in der flüchtigen (nicht technisch notierten), nicht veränderbaren und nicht ›löschbaren‹ (Ge- sprochenes kann nicht zurückgenommen werden) Face-to-Face-Kommunikation sind Texte fixiert, wiederholt lesbar, misch- und veränderbar. Das Trägermedium ist mitbestimmend für die Formate, in denen ein Text präsentiert wird. Ein weitgehend durchgesetztes Format ist gekennzeichnet durch Zeilen, Linien, Kolumnen, Spalten, die insgesamt eine Fläche auf dem Trägermedium ausfüllen. Dies gilt gleichermaßen für die Schiefertafel, ein Holzbrett oder Baum, das Blatt Papier wie den Bildschirm, dessen Design an den Vorgängern orientiert ist. Was sich aber dennoch unterscheiden mag, ist die Organisation der Inhalte, d.h. der Bildung von Bedeutung über die jeweilige Fläche hinweg, angepasst an die kognitive Bedingung des (lesenden, schreibenden, hörenden) Menschen, Zeichen im Sinne von Bedeutungsträgern im zeitli- chen Nacheinander aufzunehmen. Dieser Bedingung wird z.B. bei Papyrusrollen auf an- dere Weise Rechnung getragen als im digitalen Hypertext. Auf diesen Punkt kommen wir unten zurück. Zunächst wollen wir einen Blick werfen auf den Text als Organisationsform für die kommunikative Vermittlung von Bedeutung. Was ein sprachliches Gebilde zum Text macht, haben Robert-Alain de Beaugrande und Wolfgang Dressler in sieben Textuali- tätskriterien zusammengefasst (Kohäsion, Kohärenz, Intentionalität, Akzeptabilität, In- formativität, Situationalität, Intertextualität).61 Darüber hinaus werden Texte als sprach- liche Gebilde verstanden, die auf mehreren Ebenen strukturiert sind. Der sichtbare Text (Buchstaben, Wörter, Sätze) gilt als ›Spitze des Eisbergs‹, d.h. unsichtbar, aber zum Ver- stehen unabdingbar, gibt es Zusammenhänge im Text, deretwegen ein Text (normaler- weise) überhaupt produziert wird und die beim Lesenden Verstehen und Verständnis steuern.62 Die Kohärenzbildung (eines der oben genannten Textualitätskriterien)63 ist in der Weise vorzustellen, dass Wissen im Text für die Kommunikation aufbereitet wird, und zwar in der Form des Themas (wenn es nicht nur um knowledge telling gehen soll, ansonsten vgl. das Konzept der Makrostruktur).64 Weiterhin wird die Entfaltung des Themas in argu- mentative, narrative, instruktive, deskriptive oder regulative Strategien eingebunden.65 Im Hinblick auf die Modellidentifikation geht es also darum, dass in der Analyse die im 60 Vgl. VAN DIJK 1980; DE BEAUGRANDE/DRESSLER 1981; HEINEMANN/HEINEMANN 2002; ADAMZIK 2004; BRINKER 2005; SANDIG 2006. 61 Vgl. DE BEAUGRANDE/DRESSLER 1981. 62 Zur Diskussion des Textverstehens vgl. ROTHKEGEL 2010, S. 174. 63 Vgl. DE BEAUGRANDE/DRESSLER 1981, S. 88–117. 64 Vgl. VAN DIJK 1980, S. 41. 65 Vgl. BRINKER 2005, S. 65–82.25 Annely RothkegelThema verarbeiteten Wissensschemata erfasst werden. Dies geschieht, grob gesprochen, über die Identifikation der thematischen Schlüsselbegriffe und deren Ordnung in einem Schema (oder mehreren Schemata), das die interessierenden Modelle repräsentiert. Bei der Diskursanalyse bezieht sich das Vorgehen auf eine Gruppe von Texten, die thema- tisch fokussiert sind, und in kontinuierlicher Bezogenheit aufeinander gemeinschaftsbil- dend wirken. Die zweite oben eingeführte Fragestellung zielt auf das Prinzip der Fortsetzung im Text, das zwar auch die Kohärenzbildung betrifft, die nach Robert-Alain de Beaugrande und Wolfgang Dressler die Bildung von Kohäsion begünstigt, d.h. die Herstellung von Zu- sammenhang auf der Textoberfläche.66 Hier sind strukturelle Unterschiede im Hinblick auf lineare Texte und Hypertexte (nicht-lineare Texte) zu beachten.67 Betrachten wir zu- nächst den linearen Text, bei dem eine im Prinzip hierarchische kohärente Struktur der Einheiten im sukzessiven Nacheinander von Schreiben, Lesen oder Hören aufgebaut wird. Im Hinblick auf die Verständnissicherung sollte die Fortsetzung der Inhalte also in der Weise organisiert sein, dass die Kohärenzbildung gelingen kann. Im Bezug auf die thematisierten Modelle heißt dies, dass die Schlüsselbegriffe in einer Reihenfolge einge- führt werden, die ihrer Nähe bzw. Distanz zum zentralen Begriff entspricht (Zentrum- Peripherie-Struktur).68 Dabei gibt es hervorgehobene bzw. hervorzuhebende Positionen im Text, an denen solche Begriffe platziert sind, die anschlussfähig für weitere oder spä- tere Elaborationen sind. Neben den strukturellen Voraussetzungen gibt es ebenfalls ein inhaltliches Prinzip: Fort- setzung des Gleichen und Fortsetzung durch Wechsel.69 Ersteres zielt auf die Wieder- holung des Inhalts im weiteren Sinne (durch semantische Relationen wie Paraphrase, Generalisierung, Detaillierung, Spezifizierung oder additive Ergänzungen sowie Kont- rastierung). Letzteres, der Themenwechsel, bringt einen neuen Inhalt ein, der gleichzeitig eine Erweiterung des Kohärenzhorizonts bedeutet, ohne die Kohärenzstruktur zu zer- stören. In Analogie zum Nachhaltigkeitskonzept sollte es im Text nicht »zu[m] Kol- laps«70 kommen, d.h. der Text wird in seiner Struktur instabil und verliert die Basis zur Verständnisbildung. Wir finden hier eine Parallele zu den von Jutta Weber bezeichneten »Knotenpunkten«,71 die produktiv und in dem Sinne typisch für den fachübergreifenden Diskurs sind. Solche Begriffe, die wir metaphorisch als Wachstumspunkte bezeichnen, sind in der Regel nicht für eine Domäne festgelegt und nicht in ein einheitliches Klassifi- kationssystem eingeordnet. Somit sind sie offen für ihre Elaboration in fortgesetzten Diskursen. 66 Vgl. DE BEAUGRANDE/DRESSLER 1981, S. 50–87. 67 Vgl. KUHLEN 1991. 68 Zu ›exemplarische Analyse‹ vgl. ROTHKEGEL 2010, S. 132–136. 69 Zu ›Themenfortsetzung‹ und ›Themenwechsel‹ vgl. u.a. BRINKER 2005, S. 27–51. 70 GROBER 2010, S. 14. 71 WEBER 2010, S. 90.26 Bewahren, verändern oder löschen – können Textdokumente zukunftsfähig sein?Im Hinblick auf die Organisationsform Hypertext ergeben sich einige Spezifika.72 Die Bezeichnung stammt von Vannevar Bush, der mit der Vernetzung von Computern und Daten die Idee eines übergeordneten Textes verband, der den menschlichen Denkstruk- turen ähnlich sein soll.73 Inwieweit dies als Analogie oder Metapher zu verstehen ist, soll hier nicht hinterfragt werden. Es interessiert das Prinzip der Vernetzung und dessen Auswirkung auf Kohärenz- und Kohäsionsbildung, insbesondere von Fortsetzung, wie oben skizziert. Während der lineare Text durch einen markierten Anfang und ein mar- kiertes Ende gekennzeichnet ist, gibt es diese Geschlossenheit im Hypertext nicht. Hier funktioniert also nicht ein Ereignismodell, das sich auf ein Kommunikationsereignis ab- bilden ließe und das an einer zeitlich gegliederten Reihenfolge orientiert ist.74 Es fragt sich, ob die in gewisser Weise endlose Verknüpfungsmöglichkeit von Texten bzw. Text- stücken, die eher einen Endlostext, vergleichbar einer Lexikonstruktur, erzeugt als einen in sich geschlossenen Gegenstand, eine zum linearen Text vergleichbare Möglichkeit der Modellelaboration bietet. Die strukturell vorgeprägte Fortsetzung ist in der Regel assozi- ativer Art (in Form von referenziellen Links)75 in einer Struktur des ›Was-es-alles-gibt‹. Vorausgesetzt ist eine starke Fragmentierung der Einheiten als ›Textpäckchen‹, in tech- nischer Perspektive als topics bezeichnet. Diese Fragmentierung, die technisch bedingt ist, hat einerseits mit der relativ kleinen Fläche des Trägermediums (Bildschirm) zu tun, andererseits mit dem technischen Prinzip des ›Packaging‹ der Einheiten für den Daten- transfer. Als Konsequenzen für die Produktion und Rezeption von Hypertexten ergibt sich statt des zeitlichen ein räumliches Muster, nach dem wir im ›Hyperspace‹ navigie- ren.76 Die zeitliche Einordnung wird hier wieder zurück in die vormals in der Sprache markierte räumliche Struktur transformiert.77 4.3. Texte als technische Produkte (Dokumente) In der Praxis der professionellen Textarbeit, z.B. in Technischen Redaktionen und Do- kumentationsabteilungen, gilt der Text als ein technisch erzeugtes Produkt. In diesem Sinne spricht man vom Dokument, Klaus Schubert spricht vom »Werkstück«.78 Das Dokument stellt das Ergebnis festgelegter Arbeitsprozesse dar, die durch Software ge- steuert werden, d.h. gesteuert durch die in der jeweiligen Software realisierten Modelle der Dokumentenproduktion.79 Ähnlich wie bei anderen massenhaft erzeugten Indust- rieprodukten kommt es zu Überflüssen. Der Innovationskultur der technischen Produk- tion steht seitens der Konsumenten eine Wegwerfkultur im Umgang mit den Objekten gegenüber. Diese wiederum konkurriert mit einer Sammelkultur, die im Hinblick auf di- gitale Dokumente, aber auch auf digitale Texte des individuellen Privatbereichs zum 72 Zur Anwendung in Wikipedia vgl. PENTZOLD 2007. 73 Vgl. BUSH 1945. 74 Vgl. die Einteilung nach Vor-Ereignis, Ereignis, Nach-Ereignis in Abschnitt 3.2. 75 Vgl. KUHLEN 1991, S. 113. 76 Vgl. WAGNER 2006. 77 Zur Rolle der Zeit in der Grammatik siehe Abschnitt 2.2. 78 SCHUBERT 2007, S. 5; zur Differenzierung von Text und Dokument vgl. ebd., S. 6. 79 Zur Software-Modellierung vgl. u.a. DUTKE 1994; zur Software-Dokumentation vgl. GRÜNWIED 2007.27 Annely RothkegelProblem geworden ist. Ohne weitere Bearbeitung, d.h. durch intellektuellen und ökono- mischen Einsatz mit z.B. Dokumentenmanagement und zugehörigen Metatexten,80 sind die gesammelten Textdokumente für eine zukünftige Nutzung unbrauchbar. Theore- tisch betrachtet könnten Menschen in weiter Zukunft die Texte wieder lesen und dann jeweils aktuelle Einordnungen vornehmen. Ob dies einem realistischen Zukunftsent- wurf entspricht, wird hier bezweifelt (ohne dass dies weiter thematisiert wird). Zu disku- tieren sind dagegen zwei Prinzipien: Wiederverwertbarkeit und Lebenszyklus-Modell. Der Gebrauchswert von Produkten (Gebrauchstauglichkeit: usability und Gebrauchs- freundlichkeit: ergonomy) gilt auch als Maßstab für die Qualität von Dokumenten. Dabei werden zwei Typen von Qualität unterschieden: Produktqualität, gemessen am fertigen Objekt (durch Vergleich von Soll- und Ist-Anforderungen), und Prozessqualität, die et- was über die Anwendung der vorgesehenen Arbeitsschritte zur Herstellung des Pro- dukts aussagt. Von Interesse ist hier die Zuordnung von Qualitätsstufen, die für die Ver- gleichbarkeit der Objekte auf dem Markt (z.B. im Hinblick auf die Preisgestaltung) sorgt. Hinsichtlich der Texteigenschaften spielen in der Praxis zunehmend Ansätze zur Modu- larisierung und Standardisierung eine Rolle. Abgesehen von den wirtschaftlichen Ge- sichtspunkten als Motivation bietet die Anwendung technischer Verfahren auf das Ma- nagement von Dokumenten, die ja gleichzeitig auch Kommunikationsereignisse reprä- sentieren, in theoretischer Hinsicht interessante Fragestellungen. Die Wiederverwend- barkeit (re-usability) von Textpäckchen, ihre Austauschbarkeit und Einsatzmöglichkeit in anderen Konfigurationen setzen andere Strategien der Textproduktion und Textrezep- tion voraus.81 Geht man davon aus, dass Textualitätskriterien wie Kohäsion und Kohä- renz dabei eine untergeordnete Rolle spielen,82 ist ein verändertes Textverständnis die Folge. Eine wiederholte Verwendung einzelner Textfragmente in verschiedenen Text- Kontexten sowie deren mehrfache Neukombinationen bilden ökonomische Lösungen für abgrenzbare und befristete Aufgaben. Insofern umfasst der Zukunftsbegriff einen nur engen Zeitrahmen. Für längerfristige Modellelaborationen kommen die für den line- aren Text konventionalisierten Fortsetzungsstrategien nicht in Betracht. Das Modell des Lebenszyklus, auch in Bezug auf das technische Produkt entwickelt (Produkt-Lebenszyklus),83 wird ebenfalls auf das Dokument bezogen (Dokumenten-Le- benszyklus) und zeitlich eingeordnet. Die Bearbeitung des Dokuments erfolgt in vonein- ander abgetrennten Phasen, wobei für jede Phase ein bestimmter Zustand des Doku- ments in Bezug auf seine weitere Verwendung festgelegt ist, wobei auch – wiederum in Analogie zum technisch erzeugten Konsumgut – Angaben zum Verfallsdatum einbezo- gen werden. Die Anwendung des Lebenszyklus-Konzepts geht zurück auf eine Initiative des Document Lifecycle Management Forum (DLM Forum),84 das 1997 von der Euro- 80 Siehe Abschnitt 3.4. 81 Beispielsweise die Verfahren zum Single Source Publishing, vgl. u.a. CLOSS 2007. 82 Vgl. STORRER 1999. 83 Vgl. MANSOUR 2006. 84 Document Lifecycle Management Forum (DLM Forum); http://dlmforum.eu [07.07.2014].28 Bewahren, verändern oder löschen – können Textdokumente zukunftsfähig sein?päischen Kommission gegründet wurde und das seit 2002 ein unabhängiges Europäi- sches Zentrum ist.85 Ziel der Bemühungen ist die Festlegung von Standards, z.B. den MoReq2010-Standard für das Management von Dokumenten (MoReq – Model Require- ments for the Management of Electronic Documents and Records).86 Hier werden u.a. Phasen des Dokumentenmanagements unterschieden wie creation and release, storage, archiv- ing, distribution, use and removal, wobei wir insbesondere auf removal in der letzten Phase hinweisen.87 Die Zyklus-Metapher, hier aus der organischen Natur entlehnt und gängig in betriebswirtschaftlichen Settings, liefert die eindeutige Unterscheidung zwischen living documents, die weiter be- und verarbeitet bzw. wiederverwertet werden, und dead documents, die archiviert oder gelöscht werden. 4.4. Metatexte Texte bzw. Dokumente sind selbst Gegenstand der Dokumentation. Im Dokumenta- tions- und Bibliotheksbereich gehört die Textdokumentation zu den alten Praktiken, die mit Digitalisierung und Datenbankmanagement, verschiedentlich auch als Wissensma- nagement bezeichnet, eine Veränderung der Organisationsstrukturen erfahren hat. Nichtsdestoweniger gelten inhaltliche Prinzipien für den Umgang mit Metatexten nach wie vor, wie z.B. die Unterscheidung indizierender und referierender Kurzfassungen. Erstere werden textextern bestimmt und ordnen den Basistext in einen übergeordneten Rahmen ein, sodass hier auch Angaben zur Zukunftsrelevanz ihren Platz hätten. Letz- tere wiederholen bzw. paraphrasieren Inhalte des Basistextes, ohne dass zusätzliche In- formationen eine Rolle spielen. Daneben gelten die üblichen Informationen zum ›for- malen‹ Teil des Textes oder Dokuments (Autor, Publikationsjahr und -ort, usw.). In diesem Punkt unterscheiden sich die Meta-Angaben zu einem veröffentlichten Buch nicht von den Informationen zu Dokumenten, die in einem Unternehmen kursieren, wo sie als Metadaten bezeichnet werden. Metadaten dienen der Auffindung (Retrieval) des Dokuments sowie der Organisation der Dokumente insgesamt. Dabei kommen ebenfalls die diversen Methoden der Indi- zierung zum Tragen.88 Die auftretenden Probleme reichen von denen einer Art Lager- haltung (im Sinne des data warehouse) bis zum Entwurf und der Implementierung von Ontologien.89 Wie üblich in der Praxis, gibt es auch hier (internationale) Bemühungen zur Standardisierung. So werden im Rahmen des DLM Forum (Forum Dokumenten- Lebenszyklus)90 seit 2010 kontinuierlich Vorschläge für (verbindliche) Kriterien zur Do- kumentenhaltung gemacht. 85 Siehe auch die Norm ISO 9001. 86 http://www.moreq2010.eu [07.07.2014]. 87 Zu weiteren Faktoren siehe Abschnitt 4.4. 88 Vgl. BOOTH 2001. 89 Zur Dokumentationstheorie vgl. GAUS 2005; zum Dokumentenmanagement vgl. GÖTZER u.a. 2004. 90 DLM Forum Foundation 2010.29 Annely Rothkegel5. Drei Typen von Kriterien für die Zukunftsfähigkeit von Texten und Dokumenten In diesem Abschnitt fassen wir die diskutierten Aspekte zusammen mit einigen Ergän- zungen zur Systematik, die im Beitrag nicht oder nur andeutungsweise thematisiert wur- den. Es gibt drei Schwerpunkte für Kriterien: Gemeinschaften, Modellentwicklung, Metatexte. Gemeinschaften: Zunächst spielt es eine Rolle, ob sich Texte bzw. Dokumente be- stimmten Diskurs- oder Praxisgemeinschaften zuordnen lassen. Entsprechend kommen eher semantische Aspekte, z.B. in Form von thematischer Entfaltung und Modell- elaboration, zum Tragen oder der Bezug zu situationsspezifischen Aufgaben und Stan- dards. Mit dem Faktor ›Gemeinschaft‹ ist der Faktor ›Zeit‹ verbunden, d.h. die Berück- sichtigung möglicher Begrenzungen für den zukünftigen Zeitrahmen, aber auch die Berücksichtigung impliziter Zeit- und Zukunftsmodelle. Im Hinblick auf die Textua- litätskriterien91 sind tangiert: Intentionalität, Akzeptabilität, Situationalität, Informativi- tät.92 Sie prägen die für Gemeinschaften relevante Themenentfaltung. Modellentwicklung: In der Perspektive der Entwicklung von themenrelevanten Model- len sind es Kohärenz und Kohäsion, die als Textualitätskriterien zum Tragen kom- men.93 Hinsichtlich des Textdokuments geht es um die Relation zwischen dem Textgan- zen und den Textteilen, die sich auf unterschiedliche Weise in linearen Texten und Hypertexten auswirken. Die Kohärenzbildung (Zusammenhang in der Texttiefe) basiert auf einem Wissens- schema, gebündelt als generelle Kategorien, das den Gesamttext einbezieht. Eine zu- kunftsfähige Modellentwicklung wird in der Weise abgebildet, dass dieses Gesamtschema ergänzt wird durch eine oder mehrere Kategorien aus anderen, eher themenfernen Sche- mata. Beim linearen Text wäre also zu überprüfen, ob es solche themenfernen Katego- rien im Text gibt, die sich in das vorhandene Schema integrieren lassen. Beim Hypertext, verstanden als Endlostext, existiert kein abgeschlossenes Gesamtschema, da die Hyper- textbasis unbegrenzt erweitert werden kann. Hier spielen die Teiltexte die wichtige Rolle. In Bezug auf einen Teiltext (Textpäckchen, topic) könnte entschieden werden, ob die Kriterien, wie sie für den linearen Text gelten, anzuwenden sind, z.B. ob ein neuer Fokus aufgetaucht ist. Die Bildung von Kohäsion (Zusammenhang auf der Textoberfläche) ist organisiert durch die Prinzipien der Fortsetzung. Beim linearen Gesamttext geht es um Übergänge zwischen den Texteinheiten, die in der Regel durch eine Verweisstruktur (Vorwärtsver- weise, Rückwärtsverweise) organisiert sind, wobei diese Verweise die Modellentwicklung stabilisieren. Beim Hypertext wiederum wird keine kontinuierliche Modellentwicklung aufgebaut, die Fortsetzung gestaltet sich eher additiv durch eine referenzielle Link- 91 Siehe Abschnitt 4.1. 92 Vgl. DE BEAUGRANDE/DRESSLER 1981, S. 118–187. 93 Vgl. ebd., S. 50–117.30 Bewahren, verändern oder löschen – können Textdokumente zukunftsfähig sein?Struktur. Auch hier sind es wiederum die Teiltexte, innerhalb derer eine Entwicklung durch typisierte (semantische) Links möglich ist,94 die produktive Perspektiven im Sinne von Knotenpunkten einbringen können. Metatexte: Hier kommt das Textualitätskriterium der Intertextualität zum Tragen.95 Die Kriterien(typen) stehen miteinander in Beziehung. So bedingen sich Gemeinschaften und Modellentwicklung gegenseitig in ihrem Bezug auf Themenfortsetzung und The- menwechsel. In diesem Sinne wären die Metabeschreibungen für Texte bzw. Doku- mente (Metadaten) anzureichern durch Aspekte, wie sie oben skizziert sind (Gemein- schaften, Modellentwicklung). Dies könnte als Entscheidungshilfe für eine spätere Nutzung dienen. Die genannten Zugänge zu möglichen Kriterien beziehen sich nicht allein auf anvisierte Analysen von Texten oder Dokumenten, sondern auch auf eine zukunftsfähige Produk- tion bzw. das Unterlassen einer Produktion von Texten. Generell ist anzumerken, dass langfristige empirische Forschungen zum Aufbewahren, Wiederverwerten oder Löschen von Texten fehlen bzw. als Thematik nicht existieren. Und abschließend soll nicht ver- säumt werden, auch das Risiko des Bewahrens oder Aufgebens in den Blick zu nehmen. Ersteres kann sich unkontrolliert zu einer Art Müll-Kultur entwickeln, in der man gegen- wärtig den Vorteil hat, keine Entscheidungen treffen zu müssen, und die Entscheidung stattdessen zukünftigen Generationen überlässt. Dies wäre kontraproduktiv im Sinne der Nachhaltigkeit. Letzteres schließt einen möglichen Verlust nicht aus. Hier wäre da- ran zu erinnern, dass Sprachgebrauch primär mündlich und flüchtig ist und von der sinnlichen Erfahrung lebt, während eine Schriftkultur, verstärkt durch Digitalisierung, die abgeleitete, sekundäre Form der Kommunikation darstellt. Dies und mögliche Rück- schlüsse daraus sind ein anderes Thema. 94 Vgl. KUHLEN 1991, S. 118. 95 Vgl. DE BEAUGRANDE/DRESSLER 1981, S. 188–215.31 Annely RothkegelLiteraturverzeichnis ADAMZIK, Kirsten (2010): Sprache. Wege zum Verstehen. 3. Aufl. Tübingen: Francke. DIES. (2004): Textlinguistik. Eine einführende Darstellung. Tübingen: Niemeyer. ARNTZ, Reiner; PICHT, Heribert; MAYER, Felix (2004): Einführung in die Terminologiearbeit. Hildesheim: Georg Olms Verlag. BANSE, Gerhard; KREBS, Irene (Hg.) (2011): Kulturelle Diversität und Medien. Entwicklungen – Interdependenzen – Resonanzen. Berlin: trafo. DERS.; NELSON, Gordon L.; PARODI, Oliver (Hg.) (2011): Sustainable Development – The Cul- tural Perspective. Concepts – Aspects – Examples. Berlin: edition sigma. DERS.; REHER, Ernst-Otto (Hg.) (2011): Ambivalenzen von Technologien – Chancen, Gefahren, Missbrauch (= Sitzungsberichte der Leibniz-Sozietät der Wissenschaften, 112). Berlin: trafo. DERS.; GRUNWALD, Armin (Hg.) (2010): Technik und Kultur. Bedingungs- und Beeinflussungs- verhältnisse. Karlsruhe: KIT Scientific Publishing. DERS.; KIEPAS, Andrzej (Hg.) (2008): Visionen der Informationsgesellschaft 2016. Berlin: trafo. DERS.; KIEPAS, Andrzej (Hg.) (2005): Nachhaltige Entwicklung: Von der wissenschaftlichen For- schung zur politischen Umsetzung. Berlin: edition sigma. BARTLETT, Frederic C. (1932): Remembering. A Study in Experimental and Social Psychology. Cambridge: Cambridge University Press. BEAUGRANDE, Robert-Alain de; DRESSLER, Wolfgang (1981): Einführung in die Textlinguistik. Tübingen: Niemeyer. BLOCH, Ernst (1956): Differenzierungen im Begriff Fortschritt (= Sitzungsberichte der Deut- schen Akademie der Wissenschaften zu Berlin. Klasse für Philosophie, Geschichte, Staats-, Rechts- und Wirtschaftswissenschaften, 5). Berlin: Akademie Verlag. BOOTH, Pat F. (2001): Indexing: The Manual of Good Practice. München: Saur. BRINKER, Klaus (2005): Linguistische Textanalyse. Eine Einführung in Grundbegriffe und Me- thoden. 6. Aufl. Berlin: Erich Schmidt Verlag. BUSH, Vannevar (1945): As We May Think. In: Atlantic Monthly, Jg. 176, H. 7, S. 101–108. CLOSS, Sissi (2007): Single Source Publishing. Topicorientierte Strukturierung und DITA. Siegen: entwickler.press. DENZAU, Arthur T.; NORTH, Douglass C. (1994): Shared Mental Models. Ideologies and Institu- tions. In: Kyklos, Jg. 47, H. 1, S. 3–31. DIJK, Teun A. van (1980): Textwissenschaft. Eine interdisziplinäre Einführung. München: Deut- scher Taschenbuch Verlag. DLM Forum Foundation (Hg.) (2010): MoReq2010. Core Services & Plug-in Modules. Version 1.1 (= Modular Requirements for Records Systems, 1); http://moreq2010.eu/pdf/ moreq2010_vol1_v1_1_en.pdf [07.07.2014]. DRAAISMA, Douwe (1999): Die Metaphernmaschine. Eine Geschichte des Gedächtnisses. Darm- stadt: Wissenschaftliche Buchgesellschaft.32 Bewahren, verändern oder löschen – können Textdokumente zukunftsfähig sein?DREWER, Petra (2007): Wissensvermittlung mit Hilfe kognitiver Metaphern. In: VILLIGER, Clau- dia; GERZYMISCH-ARBOGAST, Heidrun (Hg.): Kommunikation in Bewegung. Multimedialer und multilingualer Wissenstransfer in der Experten-Laien-Kommunikation. Frankfurt am Main: Peter Lang Verlag, S. 77–91. DUTKE, Stephan (1994): Mentale Modelle: Konstrukte des Wissens und Verstehens. Kognitions- psychologische Grundlagen für die Software-Ergonomie. Göttingen: Verlag für Angewandte Psychologie. EBERSBACH, Anja; GLASER, Markus; HEIGL, Richard (2011): Social Web. 2. Aufl. Konstanz: UVK Verlagsgesellschaft. FISCHER, Andreas; HAHN, Gabriela (Hg.) (2001): Vom schwierigen Vergnügen einer Kommuni- kation über die Idee der Nachhaltigkeit (= Blaue Reihe, 3). Frankfurt am Main: Verlag für Akademische Schriften. FUCHS-KITTOWSKI, Klaus (2011): Zur Ambivalenz der Wirkungen moderner Informations- und Kommunikationstechnologien auf Individuum, Gesellschaft und Natur. Wo liegen Potenziale und Risiken allgegenwärtiger Datenverarbeitung? In: BANSE, Gerhard; REHER, Ernst-Otto (Hg.): Ambivalenzen von Technologien – Chancen, Gefahren, Missbrauch (= Sitzungsbe- richte der Leibniz-Sozietät der Wissenschaften, 112). Berlin: trafo, S. 161–184. GAUS, Wilhelm (2005): Dokumentations- und Ordnungslehre. Theorie und Praxis des Informa- tion Retrieval. 5. Aufl. Berlin: Springer. GERZYMISCH-ARBOGAST, Heidrun (1996): Termini im Kontext. Verfahren zur Erschließung und Übersetzung der textspezifischen Bedeutung von fachlichen Ausdrücken. Tübingen: Narr. GLÄSER, Jochen; LAUDEL, Grit (2006): Experteninterviews und qualitative Inhaltsanalyse. Lehr- buch. Wiesbaden: Verlag für Sozialwissenschaften. GÖTZER, Klaus; SCHNEIDERATH, Udo; MAIER, Berthold; KOMKE, Torsten (2004): Dokumenten- Management. Heidelberg: dpunkt.verlag. GROBER, Ulrich (2010): Die Entdeckung der Nachhaltigkeit. Kulturgeschichte eines Begriffs. München: Kunstmann. GRÜNWIED, Gertrud (2007): Software-Dokumentation. Grundlagen – Praxis – Lösungen. 2. Aufl. Renningen: Expert-Verlag. HEINEMANN, Wolfgang; HEINEMANN, Margit (2002): Grundlagen der Textlinguistik. Interaktion – Text – Dialog. Tübingen: Niemeyer. HENNIG, Jörg; TJARKS-SOBHANI, Marita (Hg.) (2012): Technische Kommunikation im Jahr 2041. 20 Zukunftsszenarien. Lübeck: Schmidt-Römhild. HERMEKING, Marc (2012): Cultural Aspects of Technology and Documentation. Contributions from the Field of Intercultural Communication. In: ROTHKEGEL, Annely; RUDA, Sonja (Hg.): Communication on and via Technology. Berlin: De Gruyter Mouton, S. 203–216. HÖLSCHER, Lucian (2011): Zukunft und Historische Zukunftsforschung. In: JAEGER, Friedrich; LIEBSCH, Burkhardt (Hg.): Handbuch der Kulturwissenschaften. Band 1: Grundlagen und Schlüsselbegriffe. Stuttgart: Metzler, S. 401– 416. HUBIG, Christoph (2010): Kulturbegriff – Abgrenzungen, Leitdifferenzen, Perspektiven. In: BANSE, Gerhard; GRUNWALD, Armin (Hg.): Technik und Kultur. Bedingungs- und Beein- flussungsverhältnisse. Karlsruhe: KIT Scientific Publishing, S. 56–71.33 Annely RothkegelDERS. (2007): Die Kunst des Möglichen II. Grundlinien einer dialektischen Philosophie der Technik Band 2: Ethik der Technik als provisorische Moral. Bielefeld: transcript. DERS.; POSER, Hans (Hg.) (2007): Technik und Interkulturalität. Düsseldorf: Verein Deutscher Ingenieure. DERS. (2006): Die Kunst des Möglichen I. Grundlinien einer dialektischen Philosophie der Tech- nik Band 1: Technikphilosophie als Reflexion der Medialität. Bielefeld: transcript. JOHNSON-LAIRD, Philip (1983): Mental Models. Towards a Cognitive Science of Language, In- ference, and Consciousness. Cambridge: Cambridge University Press. KAMINSKI, Andreas (2010): Technik als Erwartung. Grundzüge einer allgemeinen Technikphilo- sophie. Bielefeld: transcript. KING, Brandy E.; REINOLD, Kathy (2008): Finding the Concept, Not Just the Word. A Librar- ian’s Guide to Ontologies and Semantics. Oxford: Chandos Publishing. KUHLEN, Rainer (1991): Hypertext. Ein nicht-lineares Medium zwischen Buch und Wissensbasis. Berlin/Heidelberg: Springer. LIEBERT, Wolf-Andreas (2003): Zu einem genetischen Konzept von Schlüsselwörtern. In: Zeit- schrift für Angewandte Linguistik (ZfAL). Sonderdruck, H. 38, S. 57–83. LUNDQUIST, Lita; JARVELLA, Robert (Hg.) (2000): Language, Text, and Knowledge. Berlin: De Gruyter Mouton. MANSOUR, Markus (2006): Informations- und Wissensbereitstellung für die lebenszyklusorien- tierte Produktentwicklung. Essen: Vulkan-Verlag. Max-Planck-Gesellschaft (Hg.) (2009): Expedition Zukunft. Wie Wissenschaft und Technik unser Leben verändern. / Science Express. How Science and Technology Change Our Life. Ausstellungskatalog. Darmstadt: Wissenschaftliche Buchgesellschaft. METZ, Karl H. (2006): Ursprünge der Zukunft. Die Geschichte der Technik in der westlichen Zi- vilisation. Paderborn: Schöningh. METZELTIN, Michael (2007): Theoretische und angewandte Semantik. Vom Begriff zum Text. Wien: Praesens Verlag. MUTHIG, Jürgen (Hg.) (2008): Standardisierungsmethoden für die Technische Dokumentation. Lübeck: Schmidt-Römhild. OTTO-BANASZAK, Ilona; MATCZAK, Piotr; WESSELER, Justus; WECHSUNG, Frank (2011/2010): Different Perceptions of Adaptation to Climate Change. A Mental Model Approach Applied to the Evidence from Expert Interviews. In: Regional Environmental Change, Jg. 11, H. 2, S. 217–228. PARODI, Oliver; BANSE, Gerhard; SCHAFFER, Axel (Hg.) (2010): Wechselspiele: Kultur und Nachhaltigkeit. Annäherungen an ein Spannungsfeld. Berlin: edition sigma. PENTZOLD, Christian (2007): Wikipedia – Diskussionsraum und Informationsspeicher im neue- ren Netz. München: Fischer. POGNER, Karl-Heinz (2012): A Social Perspective on Writing in the Workplace. Communities of Discourse (CD) and Communities of Practice (CoP). In: ROTHKEGEL, Annely; RUDA, Sonja (Hg.): Communication on and via Technology. Berlin: De Gruyter Mouton, S. 83–107. ROPOHL, Günter (2009): Allgemeine Technologie. Eine Systemtheorie der Technik. 3. Aufl. Karlsruhe: KIT Scientific Publishing.34 Bewahren, verändern oder löschen – können Textdokumente zukunftsfähig sein?RÖSCH, Olga (Hg.) (2008): Technik und Kultur. Berlin: Verlag News & Media. ROTHKEGEL, Annely (2011): Sicherheit durch Kommunikation: ein linguistischer Forschungsan- satz. In: BANSE, Gerhard; KREBS, Irene (Hg.): Kulturelle Diversität und Neue Medien. Ent- wicklungen – Interdependenzen – Resonanzen. Berlin: trafo, S. 269–284. DIES. (2010): Technikkommunikation. Produkte – Texte – Bilder. Konstanz: UVK Verlagsgesell- schaft. DIES. (2008): Vom Wissen zum Text – Standardisierung und Kreativität. In: Sprache und Daten- verarbeitung (SDV), Jg. 32, H. 2, S. 65–83. DIES. (2007): Kulturspezifische Technikkommunikation. In: STRAUB, Jürgen; WEIDEMANN, Arne; WEIDEMANN, Doris (Hg.): Handbuch interkulturelle Kommunikation und Kompe- tenz. Grundbegriffe – Theorien – Anwendungsfelder. Stuttgart: Metzler, S. 604 –613. SANDIG, Barbara (2006): Textstilistik des Deutschen. 2. Aufl. Berlin: De Gruyter. SCHNOTZ, Wolfgang (1994): Aufbau von Wissensstrukturen. Weinheim: Beltz PVU Verlag. SCHUBERT, Klaus (2007): Wissen, Sprache, Medium, Arbeit. Ein integratives Modell der ein- und mehrsprachigen Fachkommunikation. Tübingen: Narr. SEARLE, John R. (1971): Sprechakte. Ein sprachphilosophischer Essay. Frankfurt am Main: Suhr- kamp. DERS. (1969): Speech Acts. An Essay in the Philosophy of Language. Cambridge: Cambridge University Press. STAHMER, Carsten (2010): Kulturelle Nachhaltigkeit – vom magischen Dreieck zum magischen Viereck? In: PARODI, Oliver; BANSE, Gerhard; SCHAFFER, Axel (Hg.): Wechselspiele: Kultur und Nachhaltigkeit. Annäherungen an ein Spannungsfeld. Berlin: edition sigma, S. 59–77. STEIN, Peter (2010): Schriftkultur. Eine Geschichte des Schreibens und Lesens. 2. Aufl. Darm- stadt: Wissenschaftliche Buchgesellschaft. STORRER, Angelika (1999): Kohärenz in Text und Hypertext. In: LOBIN, Henning (Hg.): Text im digitalen Medium. Linguistische Aspekte von Textdesign, Texttechnologie und Hypertext Engineering. Opladen: Westdeutscher Verlag, S. 33–65. VATER, Heinz (2005): Referenz-Linguistik. München: Fink. WAGNER, Kirsten (2006): Datenräume, Informationslandschaften, Wissensstädte. Zur Verräum- lichung des Wissens und Denkens in der Computermoderne. Freiburg: Rombach. WEBER, Jutta (2010): Interdisziplinierung? Zur Übersetzungspolitik einer neuen Technowissen- schaftskultur. In: DIES. (Hg.): Interdisziplinierung? Zum Wissenstransfer zwischen den Geis- tes-, Sozial- und Technowissenschaften. Bielefeld: transcript, S. 83–112. WRIGHT, Georg H. von (1977/1968): Handlung, Norm und Intention. Untersuchungen zur de- ontischen Logik. Berlin: De Gruyter. Im Text erwähnte Webseiten DLM Forum Foundation: http://www.dlmforum.eu Expedition Zukunft: http://www.expedition-zukunft.org Modular Requirements for Records System: http://moreq2010.eu35 Annely Rothkegel36 TV-Produzenten als Denkmalpfleger – oder wer ist eigentlich für die mediale Erfassung des immateriellen Erbes zuständig? Thorolf Lipp 1. Einleitung Dem immateriellen Erbe der Menschheit wird auf der kulturpolitischen Bühne zuneh- mend mehr Bedeutung beigemessen. Ein augenfälliges Beispiel ist die UNESCO-Kon- vention zum Schutz von ›Intangible Cultural Heritage‹, die nun auch Deutschland im Jahr 2012 ratifiziert hat.1 Das immaterielle Erbe, meist kurz ›Intangible Heritage‹ ge- nannt, unterscheidet sich gleich in mehrfacher Hinsicht grundlegend von allen anderen Welterbeprogrammen: Beim klassischen ›World Heritage‹ oder beim Dokumentenerbe ›Memory of the World‹2 existieren die zu schützenden Objekte physisch bereits vor der Erhebung zum Welterbe. Beim immateriellen Erbe hingegen werden sie streng genom- men erst im Moment der medialen Erfassung tatsächlich definiert; denn nur das, was medial erfasst, materialisiert und zu einem eigenständigen Objekt wird, kann auch »auf [...] internationaler Ebene«3 weitergegeben und schließlich (digital) archiviert werden. Abgesehen davon, dass diese Materialisierung des Immateriellen grundsätzlich ein Para- doxon darstellt,4 ist es wichtig zu betonen, dass die Archivierung und das digitale Zu- gänglichmachen von immateriellen kulturellen Praxen lediglich die letzten Schritte eines langwierigen Prozesses sind. Tatsächlich werden mindestens ebenso wesentliche Ent- scheidungen lange vorher getroffen. Bereits in der Konzeptionsphase und dann bei der Realisierung entsprechender audiovisueller Produktionen wird das ›Wie‹ festgelegt, also narrative Strukturen und gestalterische Mittel, die gravierende Auswirkungen sowohl auf die sozialen Interaktionen während des Produktionsprozesses als auch auf die kommu- nikative Wirkung dieser Medien auf das Publikum haben. In Hinblick auf das Intangible Heritage besteht die überraschende Konsequenz darin, dass es nicht etwa UNESCO-Funktionäre, Wissenschaftler oder die Akteure selbst sind, die mit Benennungsmacht festlegen, was im kulturellen Gedächtnis sichtbar werden soll. Vielmehr sind es die Medienproduzenten, die de facto zu Denkmalpflegern werden. Da Medienproduktion aufwendig und teuer ist, wird es sich dabei so gut wie immer um kommerzielle TV-Produzenten handeln, denn nur ihnen stehen genügend Mittel zur Verfügung, um komplexe kulturelle Überlieferungen herzustellen. Da sich Fernsehen, und zwar auch die öffentlich-rechtlichen Anstalten in Deutschland, heute in erster Linie 1 UNESCO 2013. 2 UNESCO 2003. 3 UNESCO 2013, S. 9. 4 Vgl. LIPP 2013, S. 135ff.37 Thorolf Lippals massentaugliches Unterhaltungsmedium begreift, wird diese Institution der Aufgabe einer möglichst vollständigen, vielstimmigen und kontextualisierten Überlieferung nur sehr eingeschränkt gerecht werden können.5 Hier schließen sich einige grundlegende Fragen an, mit denen sich die Denkmalpflege schon lange beschäftigt, die aber im Intangible-Heritage-Diskurs bislang noch kaum an- gekommen sind: Denkmalpflege, entsprechende wissenschaftliche Forschung sowie die Archivierung von Kulturgut gelten in Europa fast überall als Aufgabe des Staates.6 Aber müsste der Staat dann nicht auch die Kosten für die, unter denkmalpflegerischen Aspek- ten fraglos notwendige, mediale Erfassung von Intangible Heritage tragen? Und was nutzt eigentlich wissenschaftliche Forschung, wenn es letztlich in erster Linie TV-Pro- duzenten sind, die mit ihrer Agenda des massentauglichen ›Unterhalten-Müssens‹ ihre Überlieferungen mit Benennungsmacht im Funktionsgedächtnis etablieren, weil nur sie über die dazu notwendigen finanziellen Mittel verfügen? Benötigt man dann überhaupt noch akademische Fachleute, also z.B. Ethnologen, Kulturanthropologen oder Theater- wissenschaftler, wenn diese bei der Herstellung dieser so wirkungsmächtigen medialen Repräsentationen kaum je hinzugezogen werden? Wer ist eigentlich dafür zuständig, hochkomplexe kulturelle Praxen en détail aufzuzeichnen? Und last but not least, wer ver- leiht eigentlich den Akteuren der kulturellen Praxen selbst eine Stimme? Wer zeichnet ihre teils sehr komplexen Lebensgeschichten auf, die vielfach mit der immateriellen Kul- turpraxis, die sie meisterhaft beherrschen und bewahren, untrennbar verbunden sind? Ich habe mich an anderer Stelle bereits ausführlicher mit grundlegenden epistemologi- schen Problemen befasst, die die Medialisierung von Intangible Heritage mit sich bringt.7 In diesem Beitrag löse ich mich von dem thematisch engen Rahmen, den die UNESCO-Intangible-Heritage-Liste setzt. Stattdessen will ich grundsätzlich am Beispiel des Fernsehdokumentarismus deutlich machen, dass das audiovisuelle Erfassen von vielschichtigen kulturellen bzw. historischen Phänomenen mit filmischen Mitteln eine komplexe Aufgabe darstellt. Da es im deutschsprachigen Raum bislang noch kaum TV- Produktionen zum Intangible Heritage gibt, habe ich ein Beispiel gewählt, das dem Leser mit einiger Sicherheit vor Augen steht: der TV-Geschichtsdokumentarismus von Guido Knopp. An dem von ihm maßgeblich geprägten ›Histotainment‹ möchte ich einige we- sentliche Probleme hinsichtlich des Wechselspiels von narrativer Form und kommuni- kativer Wirkung aufzeigen. Abschließend werde ich zu unserem eigentlichen Thema zu- rückkehren und die Frage stellen, was sich in Hinblick auf die Erfassung, Digitalisierung und Archivierung von Intangible Heritage daraus möglicherweise lernen lässt. 5 Vgl. DERS. 2009, S. 85; LIPP/KLEINERT 2011, S. 17. 6 Vgl. SPEITKAMP 1996, S. 174. 7 Vgl. LIPP 2011; DERS. 2013.38 TV-Produzenten als Denkmalpfleger – oder wer ist eigentlich für die mediale Erfassung des immateriellen Erbes zuständig?2. Zur Irrealisierung der Realität im ›Nonfiktionalen Film‹ Ich habe seit 2007 etwa ein Dutzend Konferenzen besucht, bei denen Fragen der Digita- lisierung von kulturellem Erbe im Mittelpunkt standen. Wenn es dabei um Intangible Heritage ging, war ich oft überrascht zu sehen, dass Kolleginnen und Kollegen aus Eth- nologie, Kulturanthropologie, Heritage Studies, Denkmalpflege, Bibliothekswissenschaft oder Computerlinguistik offenbar meinten, es genüge, eine bestimmte kulturelle Praxis mit der Videokamera einfach ›abzufilmen‹, um sie dadurch zu ›dokumentieren‹. Folge- richtig hält man dokumentarische Filmaufnahmen häufig für ein bloßes Abbild der Rea- lität. Ein folgenschwerer Irrtum, denn tatsächlich existiert keine filmische Form, die die Welt so beschreibt, wie sie ›wirklich‹ ist. Selbst gänzlich ungeschnittenes und daher ver- meintlich ganz ›objektives‹ filmisches Rohmaterial ist stets das Ergebnis einer ganz be- stimmten Epistemologie, die dem Medienproduzenten oftmals gar nicht bewusst ist, aber dennoch Themenwahl, Kameraposition oder Bildausschnitt maßgeblich beeinflusst. Auch vergisst man bei der Betrachtung von derartigen filmischen Rohdaten häufig die – auch ethisch relevante – Frage zu stellen, was eigentlich während den Dreharbeiten hinter der Kamera passiert, oder welche Überlegungen und Fragestellungen zu der Produktion von derartigen Forschungsmaterialien überhaupt erst geführt haben.8 Noch deutlicher wird die Konstruiertheit eines Films, wenn nicht mehr nur filmische Rohdaten zu Forschungs- oder Dokumentationszwecken erhoben werden, sondern wenn ein Filmemacher ein Drehbuch schreibt und Regie führt, um mit kinematografi- schen Mitteln wie Bildästhetik, Montage, Kommentar oder Musik eine Geschichte zu er- zählen. Der britische Filmemacher und -produzent John Grierson hat angesichts dieses offenkundigen und dennoch vielen Zuschauern kaum bewussten Umstandes schon in den 1930er-Jahren vorgeschlagen, den ›Nonfiktionalen Film‹ als »schöpferische Behand- lung des Aktuellen« zu verstehen.9 Dadurch hoffte er deutlich zu machen, dass das Er- kenntnisinteresse des Filmemachers und der Einsatz filmischer Mittel mit dem Bezug zum Aktuellen der historischen Wirklichkeit in einem produktiven Spannungsfeld ste- hen. Diese Spannung zu betonen ist wichtig, denn der lateinische Wortstamm des Be- griffes ›Fiktion‹, fingere, bedeutet so viel wie ›gestalten‹, ›formen‹ bzw. ›sich ausdenken‹. Im Deutschen wird die ursprüngliche Bedeutung des Wortes vielleicht am ehesten in der Wendung deutlich, ein Zusammenhang oder eine Entscheidung sei ›fingiert‹ worden. Das Adjektiv ›nonfiktional‹ suggeriert zwar, dass auf dieses Fingieren verzichtet würde, tatsächlich jedoch stellen Nonfiktionale Filme, hier nun als Genre begriffen, eine schöp- ferische, bewusste Gestaltung dar, denn jede Geschichte ist durch Auswahl, Verände- rung, Verkürzung und Verdichtung der ihr zugrunde liegenden Welterfahrung eine gra- vierende Irrealisierung von Realität. Allerdings kann der Erzähler hier mit diesen oder mit jenen gestalterischen Mitteln zu Werke schreiten und je nachdem, welche davon er beim Erzählen einsetzt, wird er auf dieses oder jenes kommunikative Ziel zusteuern, um 8 Vgl. HOHENBERGER 1988; RUBY 2000, S. 151ff. 9 John Grierson zitiert in HARDY 1947, S. 15.39 Thorolf Lippdiese oder jene Reaktion beim Publikum auszulösen. Grundsätzlich wird also deutlich, dass der Anteil der Fiktion im Nonfiktionalen Film viel höher ist, als der Begriff offen- bart oder Nicht-Fachleute gemeinhin annehmen. 3. Zur Genese des ›Documentary‹ Die Theorie und Geschichte des Nonfiktionalen Films ist ein weites Feld. Die vielen Dutzend Subgenres, die sich heute ausmachen lassen, gehen, historisch betrachtet, auf fünf sehr unterschiedliche narrative Grundformen zurück. Betrachtet man die längeren Formen des Nonfiktionalen Films, also Produktionen ab ca. 15 Minuten Länge, so wer- den diese eindeutig vom ›Documentary‹ dominiert, das zu einem globalen Prototyp für nonfiktionale Fernsehunterhaltung geworden ist. Das Documentary dominiert den Fernsehdokumentarismus und spielt auch bei der Umsetzung von historischen oder kul- turellen Themen die zentrale Rolle.10 Begriff und Konzept des Documentary gehen auf John Grierson (1898–1972) zurück. Ihm war in den 1920er-Jahren klar geworden, dass Filme komplexe soziale Zusammen- hänge und auch Missstände thematisieren, moralisierend und volksbildend wirken und daher sehr wirkungsvoll zur Aufklärung breiter gesellschaftlicher Schichten beitragen können. Grierson wünschte sich nüchterne Filme, die mit Argumenten überzeugen und politisch Stellung beziehen. Die Idee des Documentary war geboren, sie manifestierte sich in Filmen wie »Drifters« (GB 1929), der die Arbeit der Heringsfischer in der Nord- see zeigt. Dieser erste Film Griersons zeichnet sich dadurch aus, dass tatsächlich auf Fischkuttern und nicht im Studio gedreht wurde, nur wenige Szenen des Films sind in- szeniert. Allerdings ist er mehr als nur eine zufällige Momentaufnahme. Grierson ver- sucht vielmehr, das Phänomen in seinen verschiedenen Dimensionen gezielt zu erfassen und zu analysieren und geht dabei sogar auf seine Bedeutung für den Welthandel ein. Das Documentary ist also von Beginn seiner Geschichte an ein Lehrstück zu einem be- stimmten Thema oder Themenkomplex, das von verschiedenen Seiten beleuchtet und an Originalschauplätzen gedreht wird. Grierson will sein Publikum zwar durchaus auch unterhalten, vor allem aber will er informieren und zur Meinungsbildung beitragen. Die frühen Documentaries, die Grierson und seine Mitarbeiter in den 1930er-Jahren herstel- len, befassen sich daher mit Themen, die seinem Publikum einerseits vertraut sind, ande- rerseits aber auch allgemein etwas über den Zustand der Gesellschaft, über derzeitige und künftige politische Probleme, über offenkundige soziale oder technologische Her- ausforderungen aussagen. Beispiele sind »The Song of Ceylon« (GB 1934) von Basil Wright, in dem die Auswirkungen des Kolonialismus auf die Teeproduktion in Ceylon thematisiert werden, oder »Housing Problems« (GB 1935) von Edgar Anstey und Arthur Elton, wo die miserablen Lebensbedingungen in den rasch hochgezogenen Arbeiter- wohnsiedlungen der englischen Vorstädte im Mittelpunkt stehen. 10 Vgl. LIPP 2009, S. 83ff.; DERS. 2012, S. 73ff.40 TV-Produzenten als Denkmalpfleger – oder wer ist eigentlich für die mediale Erfassung des immateriellen Erbes zuständig?Waren die ersten Filme noch als Stummfilme mit Zwischentiteln konzipiert, setzt Grier- son schon sehr bald auch Ton ein. So kann er seine Mission noch wirkungsvoller erfül- len, denn Töne, Kommentartext und Musik kontextualisieren die Bilder und machen es möglich, eine größere Fülle an Informationen zu übermitteln. Ab Mitte der 1930er-Jahre experimentiert Grierson bereits mit der Synchrontonaufnahme. Die Befragungen, die er in »Housing Problems« vor laufender Kamera durchführen lässt, gehören zu den frühes- ten Interviews an Originalschauplätzen in der Filmgeschichte. Obwohl also schon früh auch Interviews eingesetzt werden, so kann man doch sagen, dass es sich beim Docu- mentary um einen bebilderten Text handelt, denn der aus dem Off eingesprochene Kommentar konstituiert das dramaturgische Rückgrat des Films. Dieser wird mit Bil- dern illustriert, die meist nicht ›ins Offene‹, also nicht beobachtend, sondern nach der Vorgabe des Skriptes und bereits mit der späteren Montage im Kopf ›auf Schnitt‹ ge- dreht werden. Im Zuge der Kommerzialisierung des Rundfunks – in Deutschland vollzog sich dieser Wandel mit der Einführung des privatrechtlich organisierten Rundfunks Mitte der 1980er-Jahre – sahen sich Sendeanstalten einem ansteigenden Konkurrenzdruck ausge- setzt, der zu einer stärkeren Betonung von Unterhaltungsaspekten führte, die nicht sel- ten mit Emotionalisierungen und inhaltlichen Verflachungen einhergingen. Die Ge- dächtnisforscherin Aleida Assmann hat dazu folgerichtig angemerkt, dass der Pflege des Lern- oder Bildungsgedächtnisses in den Medien seit mindestens 20 Jahren eine zuneh- mend geringere Bedeutung beigemessen wird.11 Das klassische Documentary, in Deutschland mitunter auch ›Kulturfilm‹ genannt, galt seit den späten 80er-Jahren zuneh- mend als belehrend, wortlastig und dramaturgisch öde, als problemorientiert und zu we- nig unterhaltsam. Die Bestrebungen, diese altgediente narrative Form weiterzuentwi- ckeln, bestanden in der Regel darin, einem im Kern immer noch sachbezogenen Thema mit human touch mehr Emotionalität zu verleihen. Vielfach ging man dazu über, kom- plexe Themen anhand der Geschichte eines oder mehrerer Protagonisten zu erzählen. 4. Geschichtsdokumentarismus als ›Histotainment‹ Ein gutes Beispiel für die inhaltliche Verflachung einerseits und die durchformatierte Dramatisierung, Personalisierung und Emotionalisierung andererseits ist der Ge- schichtsdokumentarismus von Guido Knopp, mitunter auch ›Histotainment‹ genannt. Seit 1978 beim ZDF beschäftigt, leitete Knopp bis Anfang 2013 die Redaktion »Zeitge- schichte«, deren Gründung er auch initiiert hatte. Es gelang ihm, Documentaries zu his- torischen Themen zur besten Sendezeit ausstrahlen zu lassen und damit ein Millionen- publikum zu erreichen. In der Folge erlangten seine Filme, vor allem jene über die Zeit des Nationalsozialismus, gravierenden Einfluss auf das kulturelle Gedächtnis der Bun- desrepublik. Mit den Ressourcen und der Benennungsmacht des ZDF im Rücken avan- cierte Knopp zu einer Art Großerzähler von beinahe mythischen Ausmaßen. 11 ASSMANN 1999, S. 15f.41 Thorolf LippZentral dabei ist zunächst der Seriencharakter seiner Filmreihen, die auch eine starke äu- ßerliche Formatierung bedingen. Knopp selbst übernimmt häufig übrigens nur die Rolle des Ideengebers und leitenden Redakteurs, nicht jedoch die des eigentlichen Autors, wenngleich der Zuschauer diesen Umstand leicht übersehen kann. Andererseits ist ange- sichts der hohen dramaturgischen Einheitlichkeit dieser Filme – die ein sofortiges Wieder- erkennen ermöglichen soll – der Spielraum der einzelnen Autoren hier ohnehin auf ein Minimum beschränkt, weshalb man von diesen treffender als ›Realisatoren‹ sprechen sollte. Knopp konzipiert seine Filme um bekannte historische Figuren oder Vorgänge herum, die von vornherein ein gehöriges Maß an öffentlicher Beachtung versprechen. Dabei widmet er der Zeit des Nationalsozialismus, mit großem Abstand vor allen ande- ren historischen Epochen, die größte Aufmerksamkeit. Beispiele sind Filmreihen wie: »Hitler – eine Bilanz« (D 1995), »Hitlers Helfer« (D 1996), »Hitlers Helfer II« (D 1998), »Hitlers Krieger« (D 1998), »Hitlers Kinder« (D 2000), »Hitlers Frauen« (D 2001), »Hit- lers Manager« (D 2004), »Hitlers nützliche Idole« (D 2009). Bei vielen unter der Ägide von Knopp entstandenen Filmen zählt das ›Reenactment‹, also das dramatisierte Nachstellen von Szenen, die man für die filmische Erzählung be- nötigt, zu denen es aber keine Originalaufnahmen gibt, zu den zentralen Stilmitteln. Hinzu kommt eine gezielte Emotionalisierung durch die Präsentation von Zeitzeugen. Diese gelangen durch das Sich-Erinnern vor der Kamera mitunter selbst in extreme Ge- fühlsbereiche, verstummen ostentativ oder verlieren die Fassung und beginnen zu wei- nen. Da Knopp aus den gerade schon genannten Gründen Geschichte häufig anhand der Biografien einzelner Persönlichkeiten erzählt – in der Reihe »Hitlers Helfer« sind das z.B. Rudolf Heß, Karl Dönitz, Joseph Goebbels, Hermann Göring, Heinrich Himmler und Albert Speer, denen er je einen ganzen Film widmet –, wird von Kritikern bemän- gelt, dass seine Geschichtsdarstellung oberflächlich bliebe und die Komplexität ge- schichtlicher Zusammenhänge zugunsten der besseren Erzählbarkeit stark vereinfacht würde. Befürworter der Arbeit Knopps verteidigen sie mit dem Hinweis, dass sich das Zielpublikum nicht aus Experten zusammensetze, sondern dass es sich hierbei um Men- schen ohne detailliertes historisches Wissen handele, denen man intellektuelle und emo- tionale Brücken zum Verständnis bauen müsse. Die im Kommentar vermittelten Infor- mationen in Knopps Filmen werden sachlich kaum je falsch sein. Problematisch ist hingegen, dass sehr komplexe und vielfach widersprüchliche historische Ereignisse in eine immer gleiche, durchformatierte narrative Form verpackt werden: Ein vermeintlich allwissender Erzähler weist den Zuschauer an, was er vom Gezeigten zu halten hat. Da- bei wird seine Stimme aus dem Off die Bilder immer dominieren. Es ist kein Zufall, dass der Kommentar meist von einer Autorität ausstrahlenden, männlichen Sprecherstimme vorgetragen wird. Allein aufgrund der impliziten psychologischen Überzeugungskraft der Stimme wird der Zuschauer kaum je die inhaltliche Kompetenz des Filmemachers infrage stellen. Hin und wieder wird der Kommentar von Interviewfetzen unterbrochen, die jedoch nicht zu einem wirklichen Kennenlernen der Protagonisten taugen, sondern sie bestenfalls zu Stichwortgebern macht, die der Regisseur passend in seine eigene The- menführung einbaut. Diese Zeitzeugenberichte sind also im Wesentlichen dazu da, die42 TV-Produzenten als Denkmalpfleger – oder wer ist eigentlich für die mediale Erfassung des immateriellen Erbes zuständig?Thesen des Kommentars zu stützen. Aus der Perspektive der Visuellen Anthropologie oder der Dokumentarfilmtheorie muss man es freilich als fragwürdig betrachten, im Film auftauchende Personen lediglich als Stichwortgeber zu missbrauchen, die man dann vor allem zur Untermauerung der eigenen Argumente heranzieht, statt sie als Indi- viduen mit teils durchaus widersprüchlichen und brüchigen Ansichten und Lebenswe- gen zu zeigen und ihnen den nötigen Raum dafür zu geben.12 Da das Documentary ein bebilderter Text ist, besteht seine größte Stärke darin, mühelos Raum und Zeit überwinden zu können. Gerade für die Darstellung von historischen Themen scheint dies, zumindest oberflächlich betrachtet, unbedingt notwendig. Der Autor kann passende Bilder zu seinem Text drehen oder aus dem Archiv holen. Grafi- ken, Titel und punktgenau komponierte Musik helfen ihm dabei, sowohl auf der Bild- als auch auf der Tonebene wirkungsvoll zu argumentieren. Insofern verfügt der Regis- seur eines Documentary über weitreichende gestalterische Möglichkeiten, sein Thema audiovisuell umzusetzen. Ein praktisch durchgängiger Musikteppich bildet schließlich die emotionale Klammer, wirkt dabei aber nicht raffiniert kontrapunktisch, sondern stets affirmativ. Allerdings liegt in der Summe dieser gestalterischen Mittel gleichzeitig eine entschei- dende Schwäche: Das Documentary kann schnell apodiktisch, ja sogar manipulativ wer- den! Oft ist sich der Autor dieser Gefahr jedoch kaum oder gar nicht bewusst. Es fällt nämlich nicht besonders schwer, weitreichende Behauptungen aufzustellen und diese mit Text, Bildern und Musik wirkungsvoll audiovisuell zu belegen. Allerdings hätte der Autor in vielen Fällen mit denselben Bildern, vielleicht in anderer Reihenfolge montiert, auch das genaue Gegenteil beweisen können. Da man so gut wie alle Themen betexten und in die Form des Documentary hineinzwängen kann, besteht genau darin eine grund- legende Gefahr, vor allem dann, wenn man sich über die mitunter hochproblematische Wirkung der herangezogenen gestalterischen Mittel nicht im Klaren ist. Der französi- sche Kultursoziologe Pierre Bourdieu hat sich in seinem Aufsatz »Über das Fernsehen« einmal sehr pointiert dazu geäußert. »Paradoxerweise wird das Fernsehen im Grunde vom Wort dominiert. Das Foto ist nichts ohne seine Legende, die sagt, was man zu lesen hat – legendum –, das heißt aber oft ge- nug: Legenden, die Unsinn schwafeln. Benennen heißt bekanntlich sichtbar machen, schaffen, ins Leben rufen. Und Benennungen können unheilvolle Verwirrung stiften: Is- lam, islamisch, islamistisch – ist der Schleier nun islamisch oder islamistisch? Und wenn es sich einfach um ein Tuch handelte, mehr nicht? Manchmal habe ich Lust, jedes Wort der Sprecher in Frage zu stellen, so oft reden sie leichtfertig daher, ohne sich im mindesten über Problematik und Bedeutung ihrer Formulierungen im Klaren zu sein und über die Verantwortung, die sie übernehmen, wenn sie sich vor Tausenden vor Zuschauern äu- ßern, ohne zu verstehen, was sie sagen, und ohne zu verstehen, daß sie es nicht verstehen. Denn solche Wörter bringen etwas hervor, schaffen Phantasmen, Ängste, Phobien oder schlicht falsche Vorstellungen.«13 12 Vgl. CRAWFORD/TURTON 1992; RUBY 2000; BALLHAUS 2003. 13 BOURDIEU 1998, S. 25.43 Thorolf LippWas Knopp in der Geschichtsdarstellung vorgemacht hat, ist von anderen Produzenten und Realisatoren auch auf unzählige andere Themenbereiche ausgeweitet worden. Kaum ein Documentary kommt heute ohne inszenierte Emotionalisierung und Dramatisierung aus, die den Unterhaltungswert erhöhen sollen, dabei aber genau deswegen häufig ein falsches Licht auf das Dargestellte werfen. Knopps Filme suggerieren allein aufgrund ih- rer atemlosen audiovisuellen Opulenz auch inhaltliche Autorität. Tatsächlich jedoch bleibt für eigentlich notwendige inhaltliche Differenzierungen, für Zwischentöne der Darstellung oder Brüche in den Lebensgeschichten der Protagonisten wenig oder gar kein Raum. Auch die Bilder sind so dicht aneinandermontiert, dass eine intensive Aus- einandersetzung mit einzelnen Einstellungen kaum stattfinden kann. Texte, Interviews, Bildsprache – alles muss einerseits extrem dicht, andererseits aber auch so leicht ver- ständlich sein, dass auch die von einigen Redakteuren mit einer gewissen Portion Sarkas- mus ins Feld geführte ›bügelnde Hausfrau‹ der Gedankenführung noch folgen kann. 5. Filmische Alternativen zum ›Histotainment‹ Vergleicht man einen typischen Knopp-Film über die Zeit des Nationalsozialismus mit dem abendfüllenden Film »Die Frauen von Ravensbrück« (D 2005)14 von Loretta Walz, dann wird deutlich, dass auch ganz andere Vorgehensweisen möglich sind, wenn es da- rum geht, komplexe Geschichte zu erzählen. Loretta Walz steht in der dokumentari- schen Tradition von Eberhard Fechner und Claude Lanzmann, deren Filme sich in ers- ter Linie durch sorgfältig geführte Interviews auszeichnen. Sie selbst begann bereits im Jahre 1980, ausführliche Interviews mit den ehemaligen Insassinnen des Frauenkonzen- trationslagers Ravensbrück aufzuzeichnen. Im Laufe von drei Jahrzehnten (!) sind meh- rere Hundert solcher Zeitzeuginnenberichte entstanden. Die Voraussetzung dafür war, dass die Filmemacherin zunächst das Vertrauen jeder einzelnen Interviewpartnerin ge- winnen und sehr viel Zeit in Vor- und Nachbereitung investieren musste. Loretta Walz hat ihren Zeitzeuginnen auch im fertigen Film viel Raum eingeräumt und auf einen Kommentar, von einer kurzen Einleitung abgesehen, verzichtet. Stattdessen erzählt sie die Geschichte des Frauenkonzentrationslagers ausschließlich anhand von O-Tönen und einigen wenigen, sehr sorgfältig gedrehten und montierten Bildern der Gedenk- stätte, die auf dem Gelände des ehemaligen KZ errichtet wurde. Ohne auf »Die Frauen von Ravensbrück« hier in allen Einzelheiten eingehen zu können, wird doch zumindest in Grundzügen deutlich, dass ein Film, der sich weitgehend auf In- terviews beschränkt, dabei aber eine überaus sorgfältig abgewogene Vielzahl an Stimmen zu Wort kommen lässt, der Mehrdimensionalität eines solchen Themas weitaus gerech- ter wird als ein Documentary Knopp’scher Machart mit einem potenziell übermächtigen Kommentar, nicht selten effektheischenden Bildern und einer oft hypnotisierenden Mu- sik. Dass Loretta Walz 25 Jahre benötigte, um diesen Film abzuschließen, deutet aller- dings auch an, welche Arbeit und Mühe darin steckt. Dass ein wirtschaftliches Überle- 14 Der Film wurde im Jahr 2006 mit einem Grimme-Preis ausgezeichnet. 44 TV-Produzenten als Denkmalpfleger – oder wer ist eigentlich für die mediale Erfassung des immateriellen Erbes zuständig?ben mit Filmen wie diesen im Grunde nicht möglich ist und es schon zahlenmäßig eher die Knopp’schen Filme sind, die tausendfach über den Bildschirm laufen und de facto weit höheren Einfluss auf das kulturelle Gedächtnis haben, liegt auf der Hand. 6. ›Multimedia-Mindmapping‹ als nonlineare Alternative zum Film An dieser Stelle ist ein Blick von Film und Fernsehen hinüber zum Internet angebracht. Fernsehen ist ein sogenanntes Theatermedium, eine direkte Interaktion zwischen Medien- produzent und Medienrezipient besteht nicht. Wie im Theater ist die Kommunikations- richtung eindimensional und führt vom Sender auf der Bühne zu den Empfängern im Zuschauerraum. Eine weitere Besonderheit des Fernsehens liegt in der Zeitbasiertheit des Mediums: Sendungen werden linear von Anfang bis Ende ausgestrahlt. Im Internet sind sowohl Eindimensionalität als auch Linearität prinzipiell aufgehoben. Allerdings wird das Internet, selbst wenn Fernsehen und Internet schon jetzt mehr und mehr mit- einander verschmelzen, den linearen Film nicht vollständig ersetzen, sondern ihn viel- mehr in sich aufnehmen – als eine fraglos nach wie vor sehr wirkungsvolle narrative Form.15 Neuartige, nonlineare und medienkonvergente bzw. crossmediale Erzählformen rücken gerade in Hinblick auf die Vermittlung von komplexen kulturellen Überlieferungen seit einiger Zeit vermehrt in den Fokus des Interesses, und der deutsch-französische Kultur- kanal ARTE darf sich dabei als Vorreiter betrachten. Auf der ARTE-Webseite16 finden sich inzwischen mehrere Dutzend sehr aufwendige ›Multimedia-Mindmaps‹, die sich be- züglich Machart und Internettechnologie teilweise gravierend unterscheiden. Dieser Umstand macht deutlich, dass viel Raum für narrative Experimente und neue Wege be- steht, was nicht zuletzt mit der rasant fortschreitenden technischen Entwicklung be- gründet werden kann.17 Mit den hochdramatisierten und stark formatierten Produkten der Bewegtbildindustrie, die das Publikum in möglichst kurzer Zeit möglichst spannend unterhalten müssen, wollen und können diese Medien nicht konkurrieren. Im Gegenteil geht es hier darum, so etwas wie einen digitalen Erinnerungsort zu schaffen, einen lieu de mémoire, der in der Datenflut deswegen sichtbar wird, weil hier ganz spezifische Wissens- gebiete verwaltet und verhandelt werden. Am Beispiel des populärwissenschaftlichen TV-Geschichtsdokumentarismus habe ich weiter oben deutlich gemacht, wo dessen kommunikative Stärken und wo seine Schwä- chen liegen. Guido Knopp, der für seine Form des Histotainment seit Jahren Kritik so- 15 Vgl. LIPP 2011, S. 49. 16 http://www.arte.tv/sites/webdocs/?lang=de [07.07.2014]. 17 Vgl. z.B. das im Rahmen einer ARTE-TV-Produktion entstandene Webdocumentary »Lebt wohl, Ge- nossen« unter http://www.lebtwohlgenossen.de [07.07.2014], das einen unterhaltsamen Einblick in das Scheitern des ›real existierenden‹ Sozialismus vermittelt. Meine eigene Multimedia-Mindmap »Interview im Dokumentarfilm« unter http://www.interview-im-dokumentarfilm.de [07.07.2014] dient eher didak- tischen Zwecken und bietet einen Einblick in die komplexe Kulturtechnik des Interviews im Nonfiktio- nalen Film. Beide Webseiten erzählen crossmedial bzw. medienkonvergent, bestehen also aus eigens da- für gedrehten Filmen, zitierten Filmausschnitten, Fotos, Grafiken und Texten. 45 Thorolf Lippwohl von Historikern als auch von Film- und Medienwissenschaftlern erntet, stellt – ge- meinsam mit Partnern – derzeit im Internet unter Beweis, dass man Geschichte mit den Mitteln des crossmedialen bzw. medienkonvergenten Erzählens auch ganz anders erzäh- len kann. Im Rahmen der groß angelegten Initiative ›Gedächtnis der Nation‹ fährt seit Herbst 2011 ein Bus samt mobilem Filmstudio durch Deutschland, um Interviews mit Zeitzeugen zu drehen.18 Diese werden editiert und dann auf der Internetseite des Pro- jekts digital veröffentlicht. Blogs und nach Themengebieten geordnete Texte kontextu- alisieren die Audiovisionen, didaktische Begleitmaterialien stehen als Lehrmaterialien online zur Verfügung etc. Diese Multimedia-Mindmap soll einen multivokalen und multiperspektivischen Zugang zu Themen ermöglichen, die für die Geschichte der Bun- desrepublik eine bedeutsame Rolle gespielt haben und ins kulturelle Gedächtnis einge- gangen sind. Im Internet herrscht nicht die Zeitnot des Formatfernsehens. Vielmehr ist hier genug Raum, um Protagonisten ausführlich und ohne Zeitdruck zu Wort kommen zu lassen. Es liegt am Zuschauer zu entscheiden, wie tief er in die jeweilige Thematik eindringen will. Die Geschichten, die hier gesammelt werden, sollen dauerhaft abrufbar sein und möglichst viele Facetten eines Phänomens zeigen. Ein themenzentriertes Aufeinander- Beziehen von ganz unterschiedlichen Perspektiven wird so möglich. Und mehr noch: Public storytelling, wissenschaftliche Datenerhebung und -interpretation, aber auch künst- lerisch-experimentelle Ansätze schließen einander auf solchen intermedialen Webplatt- formen nicht mehr notwendigerweise aus, sondern erscheinen als ergänzende Teil- aspekte der Gesamterzählung. Hinzu kommen die globale Abrufbarkeit dieser Daten sowie verschiedenste Möglichkeiten der kollaborativen und interaktiven Nutzung. Alles zusammengenommen kann dies nicht zuletzt auch zum Projekt einer ›Öffentlichen Wis- senschaft‹ beitragen, denn Speicher- und Funktionsgedächtnis gehen hier fließend inein- ander über, Wissensbereiche, die noch vor wenigen Jahren weitgehend unzugänglich wa- ren, sind nun für jedermann verfügbar. 7. Zusammenfassung Zeitgenössische Theoriebildung zu Praxen der Repräsentation von (fremden) kulturellen Phänomenen wird vor allem in der Visuellen Anthropologie bzw. der (Dokumentar-) Filmtheorie formuliert. Hier legt man derzeit Augenmerk vor allem auf Aspekte von Multivokalität, Kollaboration, Experiment und ›Empowerment‹.19 Da Crossmedia- Projekte wie das hier vorgestellte ›Gedächtnis der Nation‹ die narrative Form einer linear durchkomponierten ›Meistererzählung‹ aufgeben, lassen sich gerade komplexe Themen, die vielschichtig und widersprüchlich sind, in vielerlei Hinsicht viel angemessener dar- stellen, als dies im Rahmen von zeitbasierten Fernsehdokumentationen je der Fall sein könnte. So liegt z.B. die Verantwortung für das Problem der Kollaboration nicht mehr 18 http://www.gedaechtnis-der-nation.de [07.07.2014]. 19 LIPP 2009, S. 87ff.; MACDOUGALL 1995; DERS. 2006; RUBY 2000, S. 195ff.; ELDER 1995.46 TV-Produzenten als Denkmalpfleger – oder wer ist eigentlich für die mediale Erfassung des immateriellen Erbes zuständig?nur allein beim Produzenten, sondern lässt sich über entsprechende Web-2.0-Feedback- Technologien relativ problemlos in die gesamte Wissensarchitektur integrieren. Die Folge ist prinzipiell eine Demokratisierung von Repräsentationsprozessen.20 Bedenkenswert dabei ist allerdings, dass das ›Gedächtnis der Nation‹ nicht von staatli- chen Stellen, sondern vom ZDF sowie den Verlagen Gruner + Jahr und Bertelsmann getragen wird. Als weitere Sponsoren fungieren die Daimler AG sowie die Robert Bosch Stiftung. Google stellt die technische Internetplattform zur Verfügung sowie eine spezi- ell entwickelte Benutzeroberfläche. Ich habe weiter oben bereits die Feststellung getrof- fen, dass Denkmalpflege – im weiteren Sinne also die Verwaltung der eigenen Ge- schichte – traditionell als eine Aufgabe des Staates betrachtet wurde.21 Dass sich der Staat bei dieser fraglos wichtigen Initiative vollkommen heraushält, überrascht. Es deu- tet sicher auf die mangelnde Erfahrung und möglicherweise auch auf den niedrigen Stel- lenwert hin, dem man der Pflege des immateriellen Gedächtnisses bislang beimisst. Be- trachtet man das TV-Histotainment, so stand dabei fraglos vor allem die Unterhaltung im Mittelpunkt. Im Falle des Projekts ›Gedächtnis der Nation‹ ist dies nicht mehr zen- tral, und das Projekt liegt auch nicht mehr gänzlich in Händen von TV-Produzenten. Dennoch muss man die Frage stellen, wie neutral eine von privaten Mitteln getragene Initiative langfristig sein kann, nach welchen Kriterien Themen und Interviewpartner ausgewählt werden und wer, wenn nicht ›die Nation‹ selbst, also der Staat, eigentlich die Rechte am hier erhobenen Material besitzen soll. Was jedoch die Technologie als solche anbelangt, werden solche Multimedia-Mindmaps gerade auch in Hinblick auf die Medialisierung, Digitalisierung und Archivierung von Intangible Heritage meiner Auffassung nach die entscheidende Rolle spielen. Hier wird der Raum sein, z.B. komplexe Bewegungsabläufe von Ritualen oder Theatertraditionen en détail im Film abrufbar zu machen. Hier ist genügend Speicherplatz für audiovisuell erfasste ›Oral History‹,22 können kontextualisierende Schriften, Fotos, Bilder, Grafiken, Sounds etc. bereitgehalten und, z.B. über (künftig vermutlich selbstlernende) Indexikali- sierungstechnologien, zueinander in Beziehung gesetzt werden. Hier ist Feedback bzw. das Eingreifen der Akteure selbst in Form und Inhalt der Repräsentation möglich. Auch wenn diesen Multimedia-Mindmaps Aufmerksamkeit nicht in derselben Geschwindig- keit zuteilwird, wie dies auch heute noch über TV-Ausstrahlungen der Fall ist, so werden sie doch, schon aufgrund des nach wie vor wachsenden Einflusses des Mediums Inter- net, nach und nach Einfluss auf das kulturelle Gedächtnis erlangen. Auch hier gilt, dass Form und Inhalt einander bedingen. Insofern ist klar, dass die Tech- nologie digitaler, nicht mehr zeitbasierter Wissensarchitekturen nicht nur die Ausgangs- bedingungen für die Produktion und Verbreitung von audiovisuellen Medien grund- legend verändert, sondern auch deren Inhalte prägt. Allerdings besteht derzeit noch so 20 Das verursacht andererseits jedoch ganz neue Probleme, die bislang weder verstanden werden, ge- schweige denn, dass es überzeugende Lösungen gäbe. Beispiele sind Spam oder Shitstorm. 21 SPEITKAMP 1996, S. 174. 22 Vgl. ATKINSON 2007.47 Thorolf Lippwenig Erfahrung sowohl mit den technischen Aspekten der Langzeitarchivierung als auch mit der Wirkung derartiger narrativer Formen auf das kulturelle Gedächtnis, dass einerseits Pilotprojekte und andererseits langfristig angelegte interdisziplinäre Grund- lagenforschung unabdingbar erscheinen. Dies gerade auch deswegen, um auf die rasante medientechnologische Entwicklung mit inhaltlich angemessenen Konzepten antworten zu können, statt die Herausforderung der Überlieferung von Intangible Heritage gänz- lich dem Primat des technisch Machbaren zu überlassen. Es ist mit anderen Worten dringend notwendig, an einer Theorie des digitalen Gedächtnisses für immaterielles Kul- turerbe zu arbeiten. Da jede Änderung der Speicherungstechnologie zu einer Änderung von Gedächtnisstruktur und Erinnerungstechnik führt, bedarf es im Grunde genommen schon vor der Einbringung von Inhalten in kulturelle Langzeitspeicher eines gesellschafts- und kulturpolitischen Konsenses über die Parameter, anhand derer die dazu nötigen epi- stemologischen und technischen Rahmenbedingungen geschaffen werden. Dass diese Fragen jedoch bislang im Diskurs über die Implementierung der Intangible-Heritage- Konvention in Deutschland so gut wie keine Rolle spielen, deutet an, dass die dahinter- liegende Problematik noch gar nicht erkannt worden ist.48 TV-Produzenten als Denkmalpfleger – oder wer ist eigentlich für die mediale Erfassung des immateriellen Erbes zuständig?Literaturverzeichnis ASSMANN, Aleida (1999): Erinnerungsräume. Formen und Wandlungen des kulturellen Gedächt- nisses. München: C.H. Beck. ATKINSON, Paul (Hg.) (2007): Narrative Methods. Volume III: Oral History and Testimony. London/Thousand Oaks: Sage. BALLHAUS, Edmund (2003): Rede und Antwort. Antwort oder Rede? Interviewformen im kul- turwissenschaftlichen Film. In: WOSSIDLO, Joachim; ROTERS, Ulrich (Hg.): Interview und Film. Volkskundliche und ethnologische Ansätze zu Methodik und Analyse. Münster: Wax- mann, S. 11–50. BANKS, Marcus; MORPHY, Howard (1997): Rethinking Visual Anthropology. New Haven/Lon- don: Yale University Press. BOURDIEU, Pierre (1998): Über das Fernsehen. Frankfurt am Main: Suhrkamp. CRAWFORD, Peter I.; TURTON, David (Hg.) (1992): Film as Ethnography. Manchester: Manches- ter University Press. ELDER, Sarah (1995): Collaborative Filmmaking: An Open Space for Making Meaning, a Moral Ground for Making Film. In: Visual Anthropology Review, Jg. 11, H. 2, S. 94 –101. HARDY, Forsyth (1947): Grierson und der Dokumentarfilm. Gütersloh: Bertelsmann. HOHENBERGER, Eva (1988): Die Wirklichkeit des Films. Dokumentarfilm, Ethnographischer Film, Jean Rouch. Hildesheim: Georg Olms Verlag. LIPP, Thorolf (2013): Materialising the Immaterial. On the Paradox of Medialising Intangible Cultural Heritage. In: ALBERT, Marie-Theres; BERNECKER, Roland; RUDOLFF, Britta (Hg.): Understanding Heritage: Perspectives in Heritage Studies. Berlin u.a.: De Gruyter, S. 135–151. DERS. (2012): Spielarten des Dokumentarischen. Einführung in Geschichte und Theorie des Nonfiktionalen Films. Marburg: Schüren. DERS. (2011): Arbeit am medialen Gedächtnis. Zur Digitalisierung von Intangible Cultural Her- itage. In: ROBERTSON-VON TROTHA, Caroline Y.; HAUSER, Robert (Hg.): Neues Erbe. As- pekte, Perspektiven und Konsequenzen der digitalen Überlieferung (= Kulturelle Überliefe- rung – digital, 1). Karlsruhe: KIT Scientific Publishing, S. 39–67. DERS.; KLEINERT, Martina (2011): Im Feld – im Film – im Fernsehen. Über filmende Ethnolo- gen und ethnografierende Filmer. In: ZIEHE, Irene; HÄGELE, Ulrich (Hg.): Visuelle Medien und Forschung. Über den wissenschaftlich-methodischen Umgang mit Fotografie und Film (= Visuelle Kultur. Studien und Materialien, 5). Münster u.a.: Waxmann, S. 15– 48. DERS. (2010): Visuelle Anthropologie? Über eine wissenschaftliche Disziplin, die hierzulande keine mehr ist (= Arbeitspapiere des Instituts für Ethnologie und Afrikastudien der Johannes Gutenberg-Universität Mainz, 123); http://www.ifeas.uni-mainz.de/Dateien/AP123.pdf [07.07.2014]. DERS. (2009): Picturing Intangible Heritage: Challenge for Visual Anthropology. Vision of an In- tangible Heritage Media Institute. In: LIRA, Sérgio; AMOÊDA, Rogério; PINHEIRO, Cristina; PINHEIRO, João; OLIVEIRA, Fernando (Hg.): Sharing Cultures 2009. International Confer- ence on Intangible Heritage. Barcelos: Green Lines Institute for Sustainable Development, S. 81–90. 49 Thorolf LippMACDOUGALL, David (2006): The Corporeal Image. Film, Ethnography and the Senses. Prince- ton: Princeton University Press. DERS. (1995): Beyond Observational Cinema. In: HOCKINGS, Paul (Hg.): Principles of Visual Anthropology. 2. Aufl. Berlin/New York: De Gruyter Mouton, S. 115–132. RUBY, Jay (2000): Picturing Culture. Chicago: University of Chicago Press. SPEITKAMP, Winfried (1996): Die Verwaltung der Geschichte. Denkmalpflege und Staat in Deutschland 1871−1933 (= Kritische Studien zur Geschichtswissenschaft, 114). Göttingen: Vandenhoeck & Ruprecht. UNESCO (Hg.) (2013/2003): Übereinkommen zur Erhaltung des immateriellen Kulturerbes. Offizielle Übersetzung des Sprachendienstes des Auswärtigen Amts. Bonn: Deutsche UNESCO-Kommission e.V.; http://www.unesco.de/fileadmin/medien/Dokumente/Bib- liothek/%C3%9Cbereinkiommen_zur_Erhaltung_des_immateriellen_Kulturerbes_2013.pdf [07.07.2014]. DIES. (Hg.) (2003): Charta zur Bewahrung des digitalen Kulturerbes. Inoffizielle deutsche Ar- beitsübersetzung; http://www.unesco.de/444.html [07.07.2014]. Filmverzeichnis (chronologisch) »Drifters« (John Grierson, GB 1929, 61 Min.) »The Song of Ceylon« (Basil Wright, GB 1934, 40 Min.) »Housing Problems« (Edgar Anstey & Arthur Elton, GB 1935, 13 Min.) »Hitler – eine Bilanz« (Leitung Guido Knopp, D 1995, 6 Folgen à 43 Min.) »Hitlers Helfer« (Leitung Guido Knopp, D 1996, 6 Folgen à 43 Min.) »Hitlers Helfer II« (Leitung Guido Knopp, D 1998, 6 Folgen à 43 Min.) »Hitlers Krieger« (Leitung Guido Knopp, D 1998, 6 Folgen à 43 Min.) »Hitlers Kinder« (Leitung Guido Knopp, D 2000, 5 Folgen à 43 Min.) »Hitlers Frauen« (Leitung Guido Knopp, D 2001, 5 Folgen à 43 Min.) »Hitlers Manager« (Leitung Guido Knopp, D 2004, 5 Folgen à 43 Min.) »Die Frauen von Ravensbrück« (Loretta Walz, D 2005, 90 Min.) »Hitlers nützliche Idole« (Leitung Guido Knopp, D 2009, 3 Folgen à 43 Min.)50 Chancen und Probleme der Onlinebereitstellung von Bildarchiven Elke Bauer Wissenschaftlerinnen und Wissenschaftler, die das Bild als historische Quelle ernst neh- men, steigern die Ansprüche an das Wissen über den Entstehungs- und Rezeptionskon- text der einzelnen Bildvorlage. Es geht nicht mehr nur um das abgebildete Objekt oder Ereignis. Zunehmend stehen der Entstehungshintergrund und die mögliche Rezeption eines Bildes im Zentrum des Interesses.1 Für Archive und insbesondere für Bildarchive stellt sich somit die Frage, inwieweit das veränderte Kenntnisinteresse Veränderungen in der Dokumentation und Erschließung von Bildbeständen nach sich ziehen sollte.2 Im deutschsprachigen Raum führte unter anderem die Diskussion über die Bilder der 1995 erstmals gezeigten Ausstellung ›Verbrechen der Wehrmacht – Vernichtungskrieg 1941–1944‹ des Hamburger Instituts für Sozialforschung zu einem quellenkritischeren Blick auf Bildvorlagen. Sie werden »nicht mehr nur als kontextlose Illustrationen« ver- wendet, so der Historiker Gerhard Paul, sondern es wird auch »nach Urheberschaft und Intention, nach Auftraggeber und Entstehungskontext, nach Überlieferungs- und Re- zeptionsgeschichte der Bilder« gefragt.3 Begriffe wie ›Iconic‹, ›Visual‹ oder ›Pictorial Turn‹4 finden sich in der Zwischenzeit al- lenthalben in den theoretischen Diskussionen über den Umgang mit bildhaften Materia- lien und es scheint keine Gesellschaftswissenschaft zu geben, die sich nicht kritisch mit dem Thema auseinandersetzt. Eine nunmehr interdisziplinäre und nicht mehr nur kunst- historische Bildwissenschaft scheint sich zu etablieren.5 Dennoch gehört der ›sorglose‹ Umgang mit Bildern nicht der Vergangenheit an. Die Kunst- und Bildwissenschaftlerin Miriam Arani machte 2008 in ihrer Dissertation »Fotografische Selbst- und Fremdbilder von Deutschen und Polen im Reichsgau Wartheland 1939–1945« als grundsätzliches Problem aus, 1 Zwei sehr eindrückliche Beispiele, wie wichtig der Entstehungshintergrund und die Rezeptionsge- schichte eines Fotos sind, bietet Gerhard Pauls ausführliche und erhellende Analyse der Aufnahme Nick Úts, die das aus seinem vietnamesischen Dorf flüchtende Mädchen Kim Phúc am 8. Juni 1972 zeigt; vgl. PAUL 2005. Des Weiteren führt Christoph Hamann am Beispiel der immer wieder rezipierten Auf- nahme des Lagertors von Auschwitz-Birkenau (Fotograf: Stanisław Mucha, Februar/März 1945) die Fehldeutung eines Fotos vor, die wegen ihrer Prägnanz immer weiter tradiert wird; vgl. HAMANN 2007, S. 92–106. 2 Siehe dazu in jüngerer Zeit CARAFFA 2011. 3 PAUL 2009, S. 128. 4 Vgl. u.a. BOEHM 1994; MITCHELL 2008; BREDEKAMP 2005. Einen guten Überblick geben PAUL 2006 und DERS. 2010. 5 Vgl. u.a. JÄGER 2009 und DERS./KNAUER 2004.51 Elke Bauer»dass Fotografien von Historikern üblicherweise ohne genaueren Herkunftsnachweis und ohne jegliche Quellenkritik als Illustrationsmaterial benutzt werden, was beim Umgang mit schriftlichen Quellen von ihnen als völlig unseriös verurteilt werden würde«.6 Doch sind an diesem Umgang mit bildhaften Quellen nur die Historikerinnen und His- toriker schuld oder auch die »unzureichende Aufbereitung der Fotoquellenbestände in den Archiven«, wie der Historiker Christoph Hamann in seiner Dissertation »Visual His- tory und Geschichtsdidaktik. Beiträge zur Bildkompetenz in der historisch-politischen Bildung« 2007 kritisiert?7 Hamann schreibt weiter über die Verwahrstellen bildlicher Dokumente: »Im Regelfall wird das Provenienzprinzip nicht angewendet, die Aufnahmen werden der leichteren ökonomischen Verwertbarkeit wegen verschlagwortet, die Herkunft und/oder Bearbeitung der Abzüge sind häufig ebenso wenig geklärt wie die Herkunft der Bildlegen- den und Bildzuschreibungen«.8 Der Fotohistoriker Jens Jäger teilt Hamanns Einschätzung, dass in den meisten Archi- ven die Bildbestände nicht gut erschlossen seien9 und Miriam Arani spitzt diese Aussage angesichts der zunehmenden Digitalisierung zu: »In den Verwahrstellen historischer Fotoaufnahmen werden oftmals originale, zeitgenös- sische Papierabzüge und Reproduktionen unterschiedslos als ›Bildquellen‹ ausgewiesen, wobei erstere aber einen weitaus höheren Quellenwert haben als letztere«.10 Ein großes Problem sieht sie darin, dass Archive in der Regel bei Bildreproduktionen keine Objektbeschreibung der Vorlage vornähmen, wie Maßangaben oder Beschriftun- gen. Zumeist würden auch der Aufbewahrungsort und der Besitzer der Vorlage nicht dokumentiert. Somit sinke der Quellenwert dieser Reprofotografien im Archiv.11 Dass sich die angesprochene Problematik der geringen Erschließungstiefe in den Archi- ven nicht nur auf Bildmaterial bezieht, für das sich primär Wissenschaftlerinnen und Wissenschaftler aus der Geschichts- und Kulturwissenschaft interessieren, hat bereits 1984 Rolf Sachsse in seiner Dissertation »Photographie als Medium der Architektur- interpretation. Studien zur Geschichte der deutschen Architekturphotographie im 20. Jahrhundert«12 gezeigt und in jüngerer Zeit publizierte zu diesem Thema Michael Stöneberg in der Zeitschrift »Rundbrief Fotografie«.13 6 ARANI 2008, S. 7. 7 HAMANN 2007, S. 18; und vgl. auch DERS. 2011. 8 DERS. 2007, S. 52, Anm. 178. 9 Vgl. JÄGER 2005, S. 193. 10 ARANI 2008, S. 72. 11 Vgl. ebd., S. 77. 12 SACHSSE 1984. 13 Vgl. STÖNEBERG 2010.52 Chancen und Probleme der Onlinebereitstellung von BildarchivenDie sich wandelnde Bewertung bildhafter Quellen ist jedoch nicht die einzige Heraus- forderung, der sich Bildarchive stellen müssen. Ein weiterer tief greifender Einschnitt für die Erschließungsarbeit der Sammlungen und Archive ist die zunehmende Bereitstel- lung der Materialien im Internet. Rechtliche Probleme in den Bereichen des Urheber- und Persönlichkeitsrechts müssen gelöst werden und Fragen zur Erschließung der Me- dien bedürfen einer Antwort: Reicht es, den im Internet einsehbaren Datensatz lediglich mit den sparsamen Informa- tionen der analogen Karteikarte zu versehen oder muss dieser nicht mehr bieten? Er- setzt der ›Besuch‹ eines Onlinebildkatalogs womöglich den Gang ins Archiv? Welche Konsequenzen hat dies für die Erschließung? Wie kann man der Forderung der Wissen- schaft nach mehr konkreten Informationen in einem Medium Rechnung tragen, das die Bilder zunächst noch mehr von ihren ursprünglichen Entstehungs- und Rezeptionskon- texten entfremdet, als es durch ihre Aufnahme in ein Archiv und in die ihm eigene Ord- nung ohnehin bereits geschehen ist? – Zum Beispiel, wenn die Bilder nicht in ihrem Pro- venienzzusammenhang und der ursprünglichen Bildreihenfolge verbleiben oder zugehörige Texte entweder ganz kassiert oder zumindest von den Bildträgern aus kon- servatorischen Gründen getrennt werden. Welche Chancen und welche Probleme berei- tet die Onlinebereitstellung? Beim konventionellen Besuch eines Archivs werden in der Regel die Originalfotos, die Foto- oder Postkartenalben oder eben auch die dazugehörigen Textkonvolute vorgelegt und es ist möglich, sich selbst mit dem Material und den vorhandenen Beschriftungen auseinanderzusetzen. In Zukunft werden jedoch auch hier, um die Originale zu schonen, zunehmend nur noch Digitalisate einzusehen sein und lediglich bei ausgewiesenem Inte- resse wie bisher die Originale aus dem Magazin geholt werden. Das Archivpersonal kann in Beratungsgesprächen auf andere Bestände, Materialien zur Provenienz oder zur Re- zeption aufmerksam machen. Diese Beratungsmöglichkeit geht beim Besuch eines On- linearchivs zunächst verloren. Der Politikwissenschaftler Benjamin Drechsel vermutet in seiner 2005 erschienenen Dissertation »Politik im Bild. Wie politische Bilder entstehen und wie digitale Bildarchive arbeiten«, dass die »ins Zentrum der westlichen Lebenswelt drängende Digitalisierung« eine vollständige Revision aller Archivpotenziale mit sich bringen werde.14 Er bezieht sich auch auf Aleida Assmann, die bereits 1999 die These aufstellte, dass das digitale Zeitalter möglicherweise ganz neue Formen des Archivierens erfinden würde und das Archiv selbst als ein obsolet gewordenes Denkmal archiviert werde.15 Der große Vorteil, Bilder online bereitzustellen, liegt selbstverständlich auf der Hand: Bestände, die sonst zumeist unbeachtet in den Magazinräumen schlummern, werden ei- ner breiteren Öffentlichkeit bekannt und leicht zugänglich gemacht – und dies unabhän- 14 DRECHSEL 2005, S. 103. 15 Vgl. ASSMANN 1999, S. 21.53 Elke Bauergig von der physischen Aufbewahrungsstätte. Einst, zum Beispiel in Kriegsfolge, zer- streute Bestände können virtuell wieder zusammengeführt werden,16 wodurch verloren gegangene Kontexte wieder hergestellt werden können. Die Datenbanken ermöglichen es außerdem, dass die Motive verschiedenen Metaebenen zugeordnet werden und verschiedenen Klassifikationen angehören können. Das Bild- motiv kann nun theoretisch sowohl in seinem Provenienzzusammenhang als auch in verschiedenen thematischen Bezügen angezeigt werden. Benötigte man im analogen Zeitalter noch Stunden, wenn nicht sogar Tage für die Bildrecherche, für die man zudem nicht selten verschiedene Archive eigens aufsuchen musste, so führen heute Anfragen an Bilddatenbanken schon in Sekundenbruchteilen zu zahlreichen Treffern. Entscheidend für die Auffindbarkeit der Bilder in den Datenbanken sind jedoch die Schlagwortvergabe sowie die Titelansetzung und inhaltliche Beschreibung. Für Benja- min Drechsel ist klar, dass trotz aller Normierungsversuche die Kontextualisierung, in diesem Fall die Vergabe von Schlagwörtern, eine individuelle Angelegenheit ist, die starke Auswirkungen auf die spätere Auffindbarkeit eines Bildes habe. Für ihn ist es nicht mediengerecht, »die Architektur eines herkömmlichen Archivs unverändert in den digitalen Raum übertragen zu wollen.«17 Denn es handele sich um völlig unterschiedlich strukturierte Wissensspeicher, deren Qualitäten keineswegs kongruent seien. Benjamin Drechsel sieht die Zukunft der Archive nicht mehr in der Anhäufung von Artefakten als Wissensspeicher, sondern vielmehr werde sich das jeweilige Archiv ganz zentral zum »Organisator von Zugängen«18 zu intellektuellen Ressourcen wandeln. Die einstmals stabilen Archive würden im digitalen Zeitalter »flüssig«, müssten zum »Daten-,Fluss‘« beitragen.19 Doch welche Konsequenzen soll man daraus ziehen und wird es wirklich so kommen? Die »Florence Declaration. Empfehlungen zum Erhalt analoger Fotoarchive«,20 die aus einer Initiative des zur Max-Planck-Gesellschaft gehörenden Kunsthistorischen Instituts in Florenz im Jahr 2009 entstand und bisher von über 800 Vertreterinnen und Vertre- tern von Bildarchiven und Bildersammlungen unterzeichnet wurde (Stand: 10.03.2014), erkennt den Vorteil der Digitalisierung von Bildbeständen und deren weltweite Bereit- stellung durchaus an. Sie macht aber gleichzeitig auf wichtige Sachverhalte aufmerksam: 16 Zum Beispiel haben das Herder-Institut für historische Ostmitteleuropaforschung – Institut der Leib- niz-Gemeinschaft in Marburg und das Instytut Sztuki PAN in Warschau in einem mehrjährigen Projekt das auf mehrere Standorte verteilte Bildarchiv des letzten Preußischen Provinzialkonservators von Nie- derschlesien digitalisiert und erschlossen. Geplant ist, den aus Fotografien, Glas- und Filmnegativen, Bauzeichnungen und historischen Grafiken bestehenden Gesamtbestand online gemeinsam recher- chierbar zu machen. 17 DRECHSEL 2005, S. 112. 18 MENNE-HARITZ 2000, S. 32; DRECHSEL 2005, S. 113. 19 Vgl. DRECHSEL 2005, S. 115. 20 Kunsthistorisches Institut in Florenz – Max-Planck-Institut 2009.54 Chancen und Probleme der Onlinebereitstellung von Bildarchiven»Ein analoges Foto und seine digitale Reproduktion sind zwei verschiedene, unaustausch- bare Objekte. Keine Übertragung von einem Medium in ein anderes geschieht ohne Ein- fluß auf Zustand und Inhalt des Objekts. Es entsteht vielmehr ein neues, vom Original verschiedenes Objekt«.21 Die Konsultation eines analogen Fotos sei eine qualitativ andere Erfahrung als die seiner digitalen Reproduktion, da jede Technologie die Art und Weise der Verwendung von In- formationen verändere. Fotografien seien nicht von ihrem Träger unabhängige Bilder, sondern vielmehr Objekte, deren Materialität eine sowohl räumliche wie zeitliche Di- mension besitze.22 Als Objekte besäßen Fotografien eine eigene Biografie, die sich aus unterschiedlichen Aspekten zusammensetze wie: • Zeitpunkt, Technik und Ziel der Herstellung; • Einordnung in den Kontext des jeweiligen Archivs; • Zuweisung einer oder mehrerer Bedeutungen durch die Einordnung in eine Systematik oder durch die Katalogisierung; • Veränderung von Funktion und Bedeutung im Laufe der Zeit. Informationen zu diesen Aspekten würden im wissenschaftlichen Leben immer wichti- ger. Deswegen stoße die Digitalisierung in gewissen Punkten an ihre Grenzen, so seien insbesondere die taktilen Merkmale eines fotografischen Objekts digital nicht reprodu- zierbar. Das Internet mache zwar im Idealfall von Ort und Zeit unabhängig, jede Form von Digitalisierung neige jedoch dazu, Fotografien auf ihre visuellen Aspekte zu reduzie- ren.23 Zudem sind die Verfasser der Erklärung sich einig, dass durch die notwendiger- weise stattfindende Bildauswahl bei Digitalisierungsprojekten letztlich eine Reduktion der eigentlich verfügbaren Bildmenge stattfinde.24 Ein analoges Bild ist vergleichsweise schnell digitalisiert – davon abgesehen, dass in der Zwischenzeit die analoge Fotografie ein Randdasein fristet und die Archive zunehmend mit genuin digitalen Fotografien zu tun haben. Der Aufwand, Bilder zu inventarisieren, ist ungleich personalintensiver. Eine tiefere Erschließung mit Anreicherung von Kon- textinformationen kann von den meist personell sehr dünn besetzten Archiven nicht oder nur in Ausnahmefällen geleistet werden. Und insbesondere für diese Form der Kontextualisierung stellt es keine Alternative dar, studentische Hilfskräfte einzusetzen. Gleichzeitig fordern die Geldgeber oftmals ›Masse‹ zu erbringen. Neben der Retro- oder Neukatalogisierung kommt nun allerdings die Datenpflege hinzu, während die konserva- torischen Maßnahmen der Originalbestände trotzdem weitergehen müssen. 21 Ebd. 22 Vgl. ebd., S. 1. 23 Vgl. ebd., S. 2. 24 Vgl. ebd., S. 3.55 Elke BauerDie Verzeichnungs- und Kassationsbestimmungen von Archivalien haben immensen Einfluss darauf, was spätere Generationen erinnern können und was vergessen sein wird. Vermerkt beispielsweise eine digitale Sammlung die Formate und Gattungen der gescannten Vorlagen nicht, dann lassen sich eben »Propagandaplakate eines Tages nicht mehr von Postkarten unterscheiden«,25 warnt Benjamin Drechsel. Er gibt zu bedenken, dass es »Menschen aus Fleisch und Blut«26 seien, die die Auswahlkriterien und Beschrei- bungsformate archivalischer Sammlungen definieren. Sie entschieden darüber, wie und welche Dokumente überliefert würden. In einem sehr wörtlichen Sinne machten diese Personen also Geschichte und betrieben Archivpolitik.27 Die bisherige Fixierung der Archive auf den Bildinhalt verhindere, dass andere Aussagen, die Bildquellen in sich bergen, hervortreten, wie zum Beispiel, dass Fotografien die Pers- pektiven der Fotografierenden wiedergeben, kritisiert Miriam Arani.28 Außerdem wür- den institutionell etablierte Klassifikationssysteme eine Auswertung von Fotosammlun- gen unter Gesichtspunkten, die nicht mit den institutionell verankerten Zielen und Wertvorstellungen übereinstimmen, erschweren.29 Archive sind also weit davon entfernt neutrale Orte zu sein, sondern weisen beispielsweise durch die entsprechende Änderung der Beschriftung Fotografien neue Bedeutungen zu, was bei schriftlichen Dokumenten undenkbar wäre.30 Katalogisierung, wie sie bisher geschieht, wertet den Bildinhalt und dessen Identifikatio- nen auf und widmet der materiellen Überlieferungsform wie auch den sozialen und kul- turellen Zusammenhängen, in denen die Fotografien entstanden, keine oder sehr wenig Aufmerksamkeit. Diese Muster der Katalogisierung und archivalischen Erschließung tragen in erheblichem Maße »zu einer Verunklärung der zeitgenössischen Produktions- zusammenhänge der Fotografien bei«.31 Bilder in Archiven sind ihrem Entstehungskontext entnommen und in einen neuen Kontext gestellt, häufig haben sie bereits eine längere ›Reise‹ hinter sich, sind publiziert worden etc. Ihre Bedeutung erhalten Bilder oft erst durch die sie begleitenden Texte, sie selbst sind zunächst interpretationsoffen.32 Texte zu Bildern dienen wiederum unter- schiedlichen Zwecken, sie können zum einen die Gesamtwirkung eines Motivs verän- dern, zum anderen überliefern sie aber auch Bildbedeutungen.33 Ohne Zweifel beein- flussen Texte die Rezeption eines Bildes, verhindern möglicherweise eine bildimmanente Deutung bzw. lenken von der Mehrdeutigkeit der Bilder zugunsten eines Deutungsmus- ters ab.34 Eine Frage wäre somit, ob uns die computergestützte Erfassung die Möglich- 25 DRECHSEL 2005, S. 118. 26 Ebd. 27 Vgl. ebd., S. 118ff. 28 Vgl. ARANI 2008, S. 132. 29 Vgl. ebd.; vgl. auch BECKER 1997. 30 Vgl. STRUK 2004, S. 203. 31 ARANI 2008, S. 144. 32 Vgl. RÖHL 2002, S. 5. 33 Vgl. BRUHN 2009, S. 17f. 34 Vgl. HAMANN 2007, S. 29.56 Chancen und Probleme der Onlinebereitstellung von Bildarchivenkeit gibt, diese bisher stark vernachlässigte Seite der Bilddokumentation zu ändern, denn zunächst geht die Onlinebereitstellung, wie bereits erwähnt, mit einer weiteren Dekon- textualisierung von Bildern einher. Natürlich muss und kann sich die Dokumentation in den Archiven nicht mit der Frage beschäftigen, inwieweit ein bestimmtes Bild zur Visualisierung einer bestimmten ge- schichtswissenschaftlichen Fragestellung dienen könnte, aber es sollte darüber nachge- dacht werden, in welchem Umfang die Archive Informationen zur Verfügung stellen können, die den Entstehungs- und Rezeptionskontext eines Fotos beleuchten. Neben dem Wunsch, die Bilder tiefer erschließen zu können, müsste ergänzend der bessere Wissensaustausch zwischen den Bildarchiven und ihrer Klientel stehen, damit deren Kenntnisse über die Bilder auch wieder an die Archive zurückfließen können und so wiederum die Dokumentation anreichern. Ein engerer Austausch zwischen den Nutze- rinnen und Nutzern und den Verantwortlichen von Bildarchiven wäre zudem in Hin- blick auf eine bedarfsgerechtere Erschließung sinnvoll.35 Darüber hinaus müssten Ar- chive personell entsprechend ausgestattet sein, um sich den neuen Anforderungen, die sich durch die ›Visual History‹ und den Medienwechsel ergeben, stellen zu können. Nichtsdestotrotz, sowohl die in der ›Erklärung von Florenz‹ genannten Probleme als auch die Anmerkungen der Wissenschaftlerinnen und Wissenschaftler zwingen Bild- archive zum Nachdenken über ihr Selbstverständnis und ihr zukünftiges Handeln. 35 Zu diesem Zweck fand im Mai 2011 am Herder-Institut für Ostmitteleuropaforschung in Marburg der Workshop ›Chancen und Probleme der Onlineerschließung. Ein Austausch zwischen Nutzerinnen und Nutzern sowie Anbietern von Bilddatenbanken‹ statt, bei dem es um das Wünschenswerte einerseits und das Machbare andererseits ging.57 Elke BauerLiteraturverzeichnis ARANI, Miriam Yegane (2008): Fotografische Selbst- und Fremdbilder von Deutschen und Polen im Reichsgau Wartheland 1935–1945. Unter besonderer Berücksichtigung der Region Wiel- kopolska. Teilband I. Hamburg: Verlag Dr. Kovač. ASSMANN, Aleida (1999): Erinnerungsräume. Formen und Wandlungen des kulturellen Gedächt- nisses. München: C.H. Beck. BECKER, Karin (1997): Das Bildarchiv und die Konstruktion von Kultur. In: Zeitschrift für Volkskunde, Jg. 93, H. 2, S. 235–253. BOEHM, Gottfried (1994): Die Wiederkehr der Bilder. In: DERS. (Hg.): Was ist ein Bild? Mün- chen: Fink, S. 11–38. DERS. (1994): Die Bilderfrage. In: DERS. (Hg.): Was ist ein Bild? München: Fink, S. 325–343. BREDEKAMP, Horst (2005): Drehmomente. Merkmale und Ansprüche des Iconic Turn. In: BURDA, Hubert; MAAR, Christa (Hg.): Iconic Turn. Die neue Macht der Bilder. 3. Aufl. Köln: DuMont Buchverlag, S. 15–26. BRUHN, Matthias (2009): Das Bild. Theorie, Geschichte, Praxis. Berlin: Akademie Verlag. CARAFFA, Costanza (2011): „Wenden!“ – Fotografien in Archiven im Zeitalter ihrer Digitalisier- barkeit: ein material turn. In: Rundbrief Fotografie, Neue Folge 71, Jg. 18, H. 3, S. 8–15. DRECHSEL, Benjamin (2005): Politik im Bild. Wie politische Bilder entstehen und wie digitale Bildarchive arbeiten (= Interaktiva. Schriftenreihe des Zentrums für Medien und Interaktivi- tät, 2). Frankfurt am Main/New York: Campus Verlag. HAMANN, Christoph (2011): Bilddatenbanken. Das Foto als historische Quelle in Online-Bild- archiven. In: Geschichte in Wissenschaft und Unterricht, Jg. 62, H. 11/12, S. 692–698. DERS. (2007): Visual History und Geschichtsdidaktik. Beiträge zur Bildkompetenz in der histo- risch-politischen Bildung. Dissertation Technische Universität Berlin; http://opus.kobv.de/ tuberlin/volltexte/2007/1536/pdf/hamann_christoph.pdf [07.07.2014]. JÄGER, Jens (2009): Fotografie und Geschichte. Frankfurt am Main: Campus Verlag. DERS. (2005): Geschichtswissenschaft. In: SACHS-HOMBACH, Klaus (Hg.): Bildwissenschaft – Disziplinen, Themen, Methoden. Frankfurt am Main: Suhrkamp, S. 185–195. DERS.; KNAUER, Martin (2004): Historische Bildforschung oder ‚Iconic Turn‘ – das ungeklärte Verhältnis der Geschichtswissenschaft zu Bildern. In: HUWILER, Elke; WACHTER, Nicole (Hg.): Integrationen des Widerläufigen. Ein Streifzug durch geistes- und kulturwissenschaft- liche Forschungsfelder. Münster: LIT Verlag, S. 211–221. Kunsthistorisches Institut in Florenz – Max-Planck-Institut (Hg.) (2009): Florence Declaration. Empfehlungen zum Erhalt analoger Fotoarchive; http://www.khi.fi.it/pdf/florence_decla- ration_de.pdf [07.07.2014]. MENNE-HARITZ, Angelika (2000): Digitaler Lesesaal, virtuelle Magazine und Online-Findbücher. Auswirkungen der Digitalisierung auf die archivischen Fachaufgaben. In: WEBER, Hartmut; MAIER, Gerald (Hg.): Digitale Archive und Bibliotheken. Neue Zugangsmöglichkeiten und Nutzungsqualitäten. Stuttgart: Kohlhammer, S. 25–34. MITCHELL, William John Thomas (2008): Pictorial Turn. In: DERS.: Bildtheorie. Herausgegeben und mit einem Nachwort von Gustav Frank. Frankfurt am Main: Suhrkamp, S. 101–135.58 Chancen und Probleme der Onlinebereitstellung von BildarchivenPAUL, Gerhard (2010): Visual History. Version: 1.0. In: Docupedia-Zeitgeschichte; http://docu- pedia.de/docupedia/images/1/1e/Visual_History.pdf [07.07.2014]. DERS. (2009): Die aktuelle Historische Bildforschung in Deutschland. Themen – Methoden – Probleme – Perspektiven. In: JÄGER, Jens; KNAUER, Martin (Hg.): Bilder als historische Quellen? Dimension der Debatten um historische Bildforschung. München: Fink, S. 125–147. DERS. (2006): Von der Historischen Bildkunde zur Visual History. Eine Einführung. In: DERS. (Hg.): Visual History. Ein Studienbuch. Göttingen: Vandenhoeck & Ruprecht, S. 7–39; http:/ /www.prof-gerhard-paul.de/VisualHistory_Einleitung.pdf [07.07.2014]. DERS. (2005): Die Geschichte hinter dem Foto. Authentizität, Ikonisierung und Überschreibung eines Bildes aus dem Vietnamkrieg. In: Zeithistorische Forschungen / Studies in Contempo- rary History, Onlineausgabe, H. 2; http://www.zeithistorische-forschungen.de/16126041- Paul-2-2005 [07.07.2014]. RÖHL, Klaus F. (2002): Kommunikative Funktionen des Bildgebrauchs (= Bausteine für das Pro- jekt „Visuelle Rechtskommunikation“); http://www.ruhr-uni-bochum.de/rsozlog/daten/ pdf/visuelle_rk/Roehl - VRK - I04 - Funktionen.pdf [07.07.2014]. SACHSSE, Rolf (1984): Photographie als Medium der Architekturinterpretation. Studien zur Ge- schichte der deutschen Architekturphotographie im 20. Jahrhundert. München u.a.: Saur. STÖNEBERG, Michael (2010): Architekturfotografien als Sammlungsobjekte: Vom Nutzen der Perspektivwechsel. In: Rundbrief Fotografie, Neue Folge 66, Jg. 17, H. 2, S. 13–15. STRUK, Janina (2004): Photographing the Holocaust. Interpretations of the Evidence. London/ New York: I.B. Tauris.59 Elke Bauer60 Das Projekt WossiDiA: Digitalisierung des Wossidlo-Archivs Ilvio Bruder, Holger Meyer, Alf-Christian Schering und Christoph Schmitt Das Wossidlo-Archiv ist eine Sammlung volkskundlicher Informationen des späten 19. bis frühen 20. Jahrhunderts für die Region Mecklenburg. Mit der Hilfe Hunderter Ge- währsleute sammelte der Ethnologe Richard Wossidlo u.a. Begriffsdefinitionen im Be- reich der niederdeutschen Sprache, Vorgänge und Beschreibungen aus der damaligen Arbeitswelt und Sachkultur sowie narrative Überlieferungen. Diese Informationen trug er u.a. in Form von mehr als zwei Millionen kleiner Zettel zusammen, die er mithilfe strukturierter Findbücher organisierte. Mit der Digitalisierung des Archivs im Rahmen des Wossidlo-Digital-Archive-Projekts (WossiDiA) ergab sich die Herausforderung der Modellierung und Umsetzung der komplexen Strukturen des Wossidlo-Archivs in eine sinnvolle Datenbanklösung. Das in Umsetzung befindliche Onlinearchiv muss das Men- genproblem (Millionen von Dokumenten und um den Faktor einhundert mehr Verbin- dungen bzw. Links zwischen den Dokumenten) und die hochdifferenzierte Findbuch- struktur berücksichtigen. Denn der tiefere Informationswert der singulären Zettelnotizen liegt in ihrer hochgradigen semantischen Vernetzung, die erschöpfend abzubilden einer informationstechnologiebasierten Lösung bedarf. Für Erschließung, Auffindung, Aus- wertung, Präsentation, Administration und Publikation von Suchbefunden wurden in dem hier vorgestellten Projekt eine Vielzahl an IT-Werkzeugen entwickelt und einge- setzt. Der Einsatz dieser Werkzeuge beginnt bereits mit der Digitalisierung und Deskrip- tion der Dokumente und ihrer Vernetzung als Grundlage für das digitale Archiv. Das Projekt wurde von 2010 bis 2014 durch die Deutsche Forschungsgemeinschaft (DFG) gefördert. Die Digitalisierung wurde durch das Bundesamt für Bevölkerungsschutz und Katastrophenhilfe (BBK) mitfinanziert. 1. Einleitung In der Europäischen Ethnologie gilt die ca. zwei Millionen Zettelbelege und 54.000 Kor- respondenzseiten umfassende Sammlung Richard Wossidlos (1859–1939), der mit Hun- derten von Helfern die Volkskultur und -sprache Mecklenburgs dokumentierte, als Pio- niertat der Feldforschung. Die weitere Benutzung des Bestandes, der bis 1991 zur Berliner Akademie der Wissenschaften (AdW) (und deren alphabetischer Auszug zur Sächsischen AdW) zählte, ist aufgrund seines hohen Zerfallsgrades unverantwortlich. Seine neuerliche Präsentation soll dem Anspruch eines digitalen Archivs und dessen In- tegration in Fachportale genügen.1 Die Schutz- und Auffindungsbedürfnisse werden durch ihre Kopplung kostensparend gelöst. 1 Vgl. MAIER 2004.61 Ilvio Bruder, Holger Meyer, Alf-Christian Schering und Christoph SchmittZu den Alleinstellungsmerkmalen des Wossidlo-Nachlasses zählen ein hochdifferenzier- ter Thesaurus mit 28.315 Stich- bzw. Schlagwörtern und Kontextbestände, mit denen der Ethnograf seine vielfach kleinteiligen Dokumente semantisch vernetzte. Ein geeig- netes Wissensmanagement bedarf einer speziellen sowie nachhaltigen Archivlösung nach internationalen Standards. Ein digitales Onlinearchiv wie WossiDiA ermöglicht: • hohe Verfügbarkeit (es kann raum-, zeit- und personalunabhängig recherchiert werden); • weite Verbreitung (Integration in andere Archive/Portale); • multilinguale Präsentation (zur weltweiten Verbreitung gibt es einen multilingualen Thesaurus); • Zeit- und Kostenersparnis (neben dem Suchen und Auffinden werden auch interne Bearbeitungsprozesse, wie Arbeiten am Thesaurus (der sogenannten Manipulation) und Publikation unterstützt); • Visualisierung (die Stellung eines Einzelbelegs im Netz wird in adäquaten Benut- zungs- und Navigationsmustern dargestellt); • räumlich-zeitliche Analysen (orts- und zeitbezogene Suche, Darstellung von Objekten und deren Beziehungen im Raum, Visualisierung temporaler Entwicklungen mittels Zeitstrahl); • Data-Mining (Generierung neuer bzw. unerwarteter Zusammenhänge und damit Ge- winnung neuen Wissens). Abb. 1: Richard Wossidlo porträtiert von Egon Tschirch, 1940; Quelle: Wossidlo-Archiv.62 Das Projekt WossiDiA: Digitalisierung des Wossidlo-ArchivsBesonderer Wert wird hierbei auf effiziente Techniken zur Unterstützung vielfältiger Auffindungsszenarien in einem Kontext stark vernetzter Daten gelegt. Im Folgenden sollen zwei Ansatzpunkte für ein Management derartig vernetzter Daten unter dem Ge- sichtspunkt einer Nutzung durch Volkskundeexperten genauer betrachtet werden: Mo- dellierungs- und Zugriffsmöglichkeiten. Für die Modellierung ist die Verwendung von Metadatenbeschreibungsstandards wie sie digitale Bibliotheken einsetzen (etwa US-MARC, Dublin Core) sowie Multimedia-Stan- dards2 unter Berücksichtigung adäquater Speicherung (hypergraphbasierte Speicherung in Kombination mit GIS-Techniken3 und Volltext-Retrieval) zu beachten. Sowohl diese Ansätze als auch Strategien für die effiziente Vernetzung der Informationen im Wos- sidlo-Archiv sowie ein effizientes Retrieval auf diesen Strukturen sind Herausforderun- gen, die auch allgemein bei der Digitalisierung und breiten Verfügbarmachung von digi- talen Archiven wichtig sind. Die meisten Digitalisierungsprojekte nutzen einen geradlinigen Digitalisierungswork- flow, um analoge Dokumente in Digitalisate zu konvertieren. Die DFG, Nicole Graf und Yvonne Inden wie auch Thomas Fricke4 geben einen guten Überblick über die her- kömmliche Herangehensweise bei der Umsetzung der Digitalisierung kulturhistorischer Dokumente. Ein Digitalisierungsprozess hat hier organisatorische und technische As- pekte, die systematisch zu betrachten und umzusetzen sind. Ein bekanntes Referenz- modell für den Digitalisierungsworkflow ist das ISO-OAIS-Modell.5 Es gibt auch be- reits einige Systeme, die dies mittels Workflow-Management umsetzen, z.B. Goobi oder ZEND.6 Diese Systeme arbeiten mit flachen Strukturen der digitalen Informationen und fokussieren meist auf eine sequenzielle Abarbeitung. Im digitalen Wossidlo-Archiv7 werden allerdings heterogene und vielseitig vernetzte Dokumente verarbeitet, die einer sequenziellen Abarbeitung in flachen Strukturen ent- gegenstehen bzw. eine stärkere manuelle Nachbearbeitung erfordern. Des Weiteren wird beim Wossidlo-Archiv mit den über zwei Millionen Digitalisaten eine sehr große Anzahl an Dokumenten gespeichert, was organisatorisch und technisch eine besondere Heraus- forderung ist. Die Anforderungen der DFG bzgl. Digitalisierungsprojekte8 werden in diesem Projekt ebenfalls beachtet. Die Masse an Dokumenten hat auch dazu geführt, 2 Der METS-Standard erlaubt es, komplexe Strukturen zu beschreiben: METS – Metadata Encoding and Transmission Standard der Digital Library Federation; http://www.loc.gov/standards/mets [07.07.2014]. 3 GIS-Techniken stehen für georeferenzierte Daten und deren Verarbeitung z.B. in einer Kartendarstel- lung in Geoinformationssystemen. 4 Vgl. DFG 2013; GRAF/INDEN 2009 sowie ihre Dokumentation »Best Practices Digitalisierung« auf der Webseite der ETH Zürich; http://www.digitalisierung.ethz.ch [07.07.2014]; FRICKE 2004. 5 ISO 2012. 6 Goobi – Göttingen online-objects binaries. Open-Source-Software der intranda GmbH zur Steuerung von Workflows in Digitalisierungsprojekten; http://www.digiverso.com/de/products/goobi [07.07.2014]; ZEND – Zentrale Erfassung und Nachweisdatenbank für Digitalisate der Bayerischen Staatsbibliothek; http://www.babs-muenchen.de/index.html?c=workflows_dig&l=de [07.07.2014]. 7 Vgl. u.a. SCHERING u.a. 2007. 8 Vgl. DFG 2013. 63 Ilvio Bruder, Holger Meyer, Alf-Christian Schering und Christoph SchmittCluster von Dokumenten zu bestimmen, die so organisiert dem Digitalisierungswork- flow folgen.9 Dementsprechend werden zur Identifikation dieser Cluster Barcodes ver- wendet. Barcodes sind ein wichtiges Mittel zur Verwaltung einer umfangreichen, mehr- jährigen Digitalisierung, genauso wie die manuelle Arbeit durch Experten, die be- schreibende Metadaten erfassen, die Findbücher vernetzen sowie die Anbindung an Verzeichnisse annotieren. 2. Der Nachlass Richard Wossidlos Der Nachlass Richard Wossidlos umfasst sein sachsystematisch geordnetes Zettelarchiv (ZAW10: 882.000 Belege), seine Korrespondenz mit Gewährsleuten (BKW11: 27.000 Folioblätter bzw. 54.000 Seiten zuzüglich kleinformatiger Anlagen) und seinen alphabe- tisch verzeichneten Auszug für das »Mecklenburgische Wörterbuch« (MWW12: 500.000 Belege). Abb. 2: Richard Wossidlo vor der Zettelwand. Fotografie von Karl Eschenburg, 1934; Quelle: Wossidlo-Archiv. Wossidlo beschrieb im Feld handtellergroße Zettel, auf denen er sich stichwortartig den zumeist mundartlichen ›Originalton‹ notierte. Dafür erfasste er in der Regel mehrere Varianten, vielfach ganze Serien. Die Weite seines Forschungsplanes zwang ihn, Red- undanzen (an anderer Stelle seiner Notizen bereits Erwähntes) möglichst zu vermeiden. 9 Vgl. SCHERING u.a. 2011. 10 Die Abkürzung ZAW steht für Systematisches Zettelarchiv Wossidlos. 11 Die Abkürzung BKW steht für Beiträgerkorrespondenz Wossidlos. 12 Die Abkürzung MWW steht für Mecklenburgisches Wörterbuch Wossidlos.64 Das Projekt WossiDiA: Digitalisierung des Wossidlo-ArchivsSo stellt das in Abbildung 3 angeführte Beispiel nur zwei von 94 Varianten der Sage vom grausamen Gutsherrn Haberlandt dar. Mit dem Lesen jeder weiteren Variante reduziert sich beim Benutzer jedoch zunehmend die Lückenhaftigkeit der Aufzeichnung (z.B. von unverständlichen Handlungszügen der in Abb. 3 genannten Frevelsage). Am Ende brei- tet sich vor dem Benutzer ausschnitthaft das ›Leben‹ einer speziellen Überlieferung aus, das über Verweise des Sammlers genreübergreifend in Kontext gesetzt werden kann. Der Archivbesucher findet also weniger ›zubereitete‹ Quellen, weniger ethnografische Poesie, sondern sozusagen ›empirisches Rohmaterial‹. Abb. 3: Feldforschungszettel Richard Wossidlos über eine Frevelsage vom Typ des hartherzigen Herrn (Subtyp: Gutsbesitzer Haberlandt); Quelle: WossiDiA-Projekt. Von 1885 bis 1939 trug Wossidlo das Material von mehr als 4.000 Erzählerinnen und Erzählern aus etwa 3.000 Orten Mecklenburgs zusammen. Er legte es sachsystematisch in feingliedriger Hierarchisierung ab, archivierte es nach Gattungen, Lebensbereichen, Motiven und Orten. Feldforschungsbefunde wurden durch fachliterarische Exzerpte der umfangreichen Bibliothek des Privatgelehrten angereichert und parallel abgelegt; die Exzerpt-Referenzstellen können in der vor Ort befindlichen Fachbibliothek Volkskunde identifiziert werden. Überdies praktizierte Wossidlo das ›Gewährsmannprinzip‹, indem er sich ein über ganz Mecklenburg verteiltes Netz von ca. 1.400 Helfern (vielfach Volksschullehrer und Pasto- ren) schuf. Diese sammelten teils jahrzehntelang in seinem Auftrag und sandten ihm ihre Feldaufzeichnungen zu, sodass zusätzlich Tausende von Erzählerinnen und Erzählern in die Sammlung eingingen. In ihrer Ausführlichkeit bieten sie z.T. eher ›zubereitete‹, dafür65 Ilvio Bruder, Holger Meyer, Alf-Christian Schering und Christoph Schmittvielstimmige ethnografische Texte. Wossidlo exzerpierte diese Korrespondenz und ar- chivierte sie in seinem systematischen Korpus (ZAW), wo sie unzerschnitten blieb. Vom Zettelexzerpt gelangt man seitengenau in die entsprechend markierte Korrespondenz zurück. Korrespondenz und Zettelsammlung stellen trotz unterschiedlicher Formate ei- nen einheitlichen Korpus dar. Wossidlos Ordnungssystem umfasst 28.315 Verzeichniseinheiten, in denen jeweils Vari- antenserien zusammengefasst sind. Ihre Benennung geht, soweit damals möglich, mit der Fachliteratur konform. Sie ist in der Regel schlagwortfähig, mehrstufig klassifiziert und vernetzt, sodass ein umfangreicher feingliedriger Thesaurus vorliegt. Die Deskripto- ren sind per Abkürzungen auf der rechten oberen Ecke jedes Zettels eingetragen (siehe Abb. 3). Die Sammlung ist in 1.109 Kästen aus Zedernholz (16 x 29 x 6 cm) untergebracht, die 882.000 Zettel wurden in 28.315 Konvolute aus gefaltetem Schulheftkarton einsortiert (siehe Abb. 4). Die Korrespondenz der Beiträger (BKW) ist in säurefreie Mappen abge- legt und alphabetisch nach dem Namen des Beiträgers sowie nach der zeitlichen Reihen- folge der Einsendung sortiert. Abb. 4: Geöffnete Zettelkästen; Quelle: Wossidlo-Archiv. Volkskultur und Volkssprache bildeten für Wossidlo eine Einheit. So hegte er den Plan für ein großlandschaftliches Wörterbuch, wofür er sein sachsystematisch geordnetes sprachliches Material auf alphabetisch verzeichnete Zettel übertrug (MWW: 500.000 Zettel in 108 Pappkästen). Wossidlos Wörterbuchzettel wurden in den 1920er-Jahren vom Niederdeutschen Seminar der Universität Rostock unter Hermann Teuchert über- tragen, durch (wortgeografische) Fragebögen sowie die stärkere Einbeziehung älterer Schriftquellen ergänzt und neu lemmatisiert, woraus ein noch einmal 500.000 Belege66 Das Projekt WossiDiA: Digitalisierung des Wossidlo-Archivsumfassender Zettelkatalog (MWT)13 entstanden ist (126 ausziehbare Pappkästen). Beide Zettelkästen stellen die Grundlage für das siebenbändige »Mecklenburgische Wörter- buch« von Richard Wossidlo und Hermann Teuchert (erschienen 1942 bis 1992) dar.14 Der (weitere) Nachlass Wossidlos (NRW)15 enthält Forschungstagebuch-Notizen, 64 sprachliche Sammelbücher, persönliche Zeugnisse und Urkunden, Manuskripte, Frag- mente, Vorträge, eine sachsystematisch geordnete Sammlung von Zeitungsausschnitten, Rundfunkaufnahmen sowie Korrespondenzen mit der Familie, mit Freunden, kulturel- len Vereinen und Museen. Hinzu tritt eine Korrespondenz mit 840 Gelehrten des In- und Auslands (der Volkskunde, der germanistischen und klassischen Philologie, Ethno- logie, Anthropologie, Geschichte, Geografie, Biologie, Veterinär- und Humanmedi- zin).16 Bildmaterial ist dagegen kaum vorhanden. Diese Unterlagen sind in 151 Archiv- kartons (29 x 11 x 39 cm, entsprechend 16 lfm) untergebracht. Der Zustand des Spezialbestandes ist besorgniserregend, da die Sammlung z.T. sehr zer- fallsgefährdet ist. Exogene Schäden betreffen vor allem die Korrespondenz. Durch un- sachgemäße Lagerung von Folio-Formaten sind Faltspuren und Ausrisse entstanden. Die Zettel zeigen ein endogenes Schadensbild unterschiedlicher Grade, z.B. musste in Krisenzeiten minderwertiges, stark säurehaltiges Papier verwendet werden. Massenhaft in Erscheinung treten auch Tintenfraßschäden der 2. Schadensstufe nach DIN 13050. Die Arbeit mit den Originalen kann daher nicht mehr verantwortet werden. Arbeits- kopien liegen allerdings nicht vor, weder als Digitalisate noch als Mikrofilme oder in Pa- pierform – abgesehen von 2% der systematischen Sammlung (ZAW) auf holzschliffhal- tigen Formularen der Berliner AdW. Richard Wossidlo setzte in Mecklenburg drei nachhaltige Entwicklungen in Gang: Er begründete die hiesige Volkskunde, das »Mecklenburgische Wörterbuch« und das volks- kundliche Museumswesen des Landes. Der in Waren tätige Gymnasialprofessor für La- tein und Griechisch zählt zu den ›Gründungsvätern‹ der deutschsprachigen Volkskunde, sein Archiv zu den ältesten Einrichtungen des Faches. Der Feldforschung wies er neue Wege,17 seine Sammlungstechnik galt dem noch jungen Fach als vorbildhaft.18 Wossidlo ging als ›gelehrter Sammler‹ ins Feld und war der Sprache und Vorstellungswelt seiner Landsleute mächtig. Damit gelangte er methodisch über das Korrespondentensystem der ›Lehnstuhlgelehrten‹, die sich ohne Kenntnis des Feldes auf das Interpretieren von Daten beschränkten, hinaus, ohne das ›Gewährsmannprinzip‹ aufzugeben. 13 Die Abkürzung MWT steht für Mecklenburgisches Wörterbuch Teucherts. 14 Vgl. WOSSIDLO/TEUCHERT 1942–1992. 15 Die Abkürzung NRW steht für Nachlass Richard Wossidlos. 16 An Volkskundlern z.B. Karl Weinhold, John Meier, Johannes Bolte, Richard Andree, Otto Lauffer, Friedrich Ranke, Kurt Ranke, Paul Sartori, Gottfried Henßen, Oskar Dähnhardt, Gustav Friedrich Meyer, Alfred Haas, Kaarle Krohn, Antti Aarne, Walter Anderson, Axel Olrik, Wilhelm Peßler, Eduard Hoffmann-Krayer, Henning Frederik Feilberg. 17 Vgl. WOSSIDLO 1906; GÖTTSCH 1991. 18 Vgl. DEIßNER 1997.67 Ilvio Bruder, Holger Meyer, Alf-Christian Schering und Christoph SchmittDer Privatgelehrte sah sich in der Rolle eines landschaftlichen Sammlers, der das natio- nal gespannte Werk der Brüder Grimm vertiefen wollte. Die territoriale Geschlossenheit seiner Sammlung korrespondiert mit größtmöglicher Breite von Stoffen, Themen und Überlieferungsformen. Sie umfasst ein gesamtes Ensemble von wortsprachlichen Ob- jektivationen bis zur Dingkultur (die durch ein 1936 im Schweriner Schloss eingerichte- tes ›Bauernmuseum Richard Wossidlo‹ illustriert wurde). So sammelte er Volkserzählun- gen (Sagen, Märchen, Schwänke, Legenden, Fabeln), Sprichwörter und Redensarten, Volkslieder, Kinderreime und -spiele, notierte sich Bräuche und Feste, beschrieb Land- wirtschaft, Seefahrt und Fischerei, Handwerk und Dienstbotenwesen, Haus und Hof, Kleidung und Tracht, Werden, Altern, Sterben und Glaubenswelt des Menschen, dessen Körper, Sinne und Sexualität. Ebenso registrierte er regionale Mentalitäten, Fremdheits- und Außenseitererfahrungen, trug Daten zur Orts- und Kirchengeschichte und Flurna- men zusammen oder verzettelte Ethnobotanisches und Zoologisches. Daneben notierte er ziemlich erschöpfend den ostniederdeutschen, d.h. mecklenburgischen Sprachschatz nach Sachgruppen, gruppierte Synonyme und beschrieb Verwendungssituationen, d.h. semantische und pragmatische Relationen. So gibt die Sammlung nicht nur über folklo- ristische, sondern ebenso über tabuisierte Bereiche Auskunft, reicht weit über den klassi- schen volkskundlichen ›Kanon‹ hinaus und ist hochgradig interdisziplinär nutzbar. In Europa gibt es kaum ein vergleichbares Unternehmen, das derart komplex eine Re- gion über ein halbes Jahrhundert befragt hat. Eine Sammlung mit solcher Breite von kul- turellen Ausdrucksformen und Themen, hervorgegangen aus einer solchen Methoden- kombination (Feldforschung, Korrespondentensystem, Fernbefragung) und aus derartig (sozial, altersmäßig und beruflich) unterschiedlicher Zeugenschaft, mit solcher Erschlie- ßungstiefe und ›Authentizität‹ (niederdeutsche Notation, Vertrautheit des Sammlers mit der von ihm beobachteten Kultur), solch konsequenter Verzahnung von landschafts- sprachlicher und volkskundlicher Information und dem noch erhaltenen Sammlungs- kontext (siehe Bestandsgruppe NRW) ist wohl einzigartig. Sie stellt den europäischen Musterfall einer Quellensammlung über das Volksleben einer Region dar. John Meier, der Begründer des Deutschen Volksliedarchivs, würdigte Richard Wossidlo einmal als »hervorragendsten Sammler auf volkskundlichem Gebiete [...] seit den Tagen der Brüder Grimm«.19 Europaweit ist das Korpus am ehesten mit den Sammlungen des Dänen Evald Tang Kristensen (1843–1929)20 und des estnischen Pastors Jakob Hurt (1839–1907)21 vergleichbar, die in der Königlichen Bibliothek in Kopenhagen bzw. am Estnischen Literaturmuseum in Tartu aufbewahrt werden. Wolfgang Steinitz erkannte den Wert der Sammlung Wossidlos, die 1954 zur Gründung einer Außenstelle des vom ihm an der Berliner AdW geleiteten Instituts für deutsche Volkskunde führte und somit den Paradigmenwechsel zur Sozialwissenschaft überstand. Die Aussagefähigkeit der Sammlung ist an einer Vielzahl international rezipierter Mono- 19 John Meier an den Plattdütsch Landesverband Meckelborg tau Rostock vom 18. März 1927. Signatur im Wossidlo-Archiv: NRW-KII-481, zitiert in GUNDLACH 1999. 20 Zu Evald Tang Kristensen vgl. ROCKWELL 1982. 21 Zu Jakob Hurt vgl. JAAGO 2005.68 Das Projekt WossiDiA: Digitalisierung des Wossidlo-Archivsgrafien und Aufsätze ablesbar. So wurde 1990 bei der Evaluation der AdW-Einrichtun- gen auf die internationale Bedeutung der Sammlung hingewiesen. Von thematischen, motivischen, sprachlichen oder raumgebundenen Spezialfragen über theoriebildende Erkenntnisziele bis zur Fachgenese selbst, die weithin als die einer ›angewandten‹ Kul- turwissenschaft beschreibbar ist, ist der ›alte‹ Wissensspeicher stets neu, quer durch cultural turns, befragbar. Abb. 5: Zugänge zum Wossidlo-Archiv; Quelle: WossiDiA-Projekt. Das Wossidlo-Archiv umfasst an weiteren, vor 1945 entstandenen Sammlungen (siehe Abb. 6) das Mecklenburgische Volksliedarchiv, das Mecklenburgische Flurnamenarchiv und das Antwortmaterial des Atlas der deutschen Volkskunde. Da diese Bestände zeit- und gebietsgleich mit teils denselben Gewährsleuten und von ähnlichen Fragehorizon- ten ausgehend geschaffen wurden (z.B. präzisieren die ›Wossidlo-Fragen‹ viele Atlasfra- gen; Volkslied- und Flurnamensammler sind Gewährsleute Wossidlos), ergibt sich bis 1939 eine geschlossene Architektur, auf die sich die Auswahl begrenzt.69 Ilvio Bruder, Holger Meyer, Alf-Christian Schering und Christoph SchmittAbb. 6: Beständeübersicht des Wossidlo-Archivs und nahestehende Korpora; Quelle: WossiDiA-Projekt. Zusätzlich soll das Mecklenburgische Flurnamenarchiv der Flurnamenkommission des Heimatbundes Mecklenburg in die Datenbank integriert werden. Es enthält 11 Kartons (29 x 11 x 39 cm, entsprechend 1,2 lfm) mit handschriftlich ausgefüllten Fragebögen und mit 2.016 (vielfach handschriftlich gezeichneten) Flurkarten, die eingescannt und bis ins Jahr 2010 in einer Access-Datenbank gelistet wurden. Die betreffenden Abbilder sol- len per Ortsregister aufrufbar sein. Parallel dazu kann der Benutzer die von Wossidlo in seiner Zettelsammlung (ZAW) feingliedrig abgelegten Quellen (66.722 Flurnamenbe- lege, sortiert nach 2.215 Kategorien) einsehen. Angesichts der noch immer verbleiben- den Stoffmengen stellt sich die Frage nach einem weiteren schrittweisen Vorgehen.70 Das Projekt WossiDiA: Digitalisierung des Wossidlo-Archivs3. Architektur des digitalen Archivs und Nutzungsszenarien Die Nutzungsszenarien betreffen drei verschiedene Funktionsbereiche: den der Daten- verwaltung (Eingabe und Manipulation), das eigentliche Suchanliegen (Retrieval) sowie die Herausgabe von Informationen (Publikation). Die Lösung dieser verschränkten Funktionsbereiche wird aus der Architektur von WossiDiA ersichtlich (siehe Abb. 7). Die webbasierte Präsentation muss flüssig und störungsfrei ablaufen. Die Suchbefunde sind optisch übersichtlich auszuweisen. Abb. 7: Architektur von WossiDiA; Quelle: SCHERING u.a. 2007. Den größten Arbeitsbedarf erfordert aus volkskundlicher wie informationstechnischer Sicht die Lösung von Suchszenarien. Es lassen sich grundsätzlich gattungs-, themen-, motiv- und ortsbezogene Nutzungsszenarien unterscheiden, für die verschiedene Such- profile offeriert werden: 1. Der einfachste Zugang ist horizontal, indem die Zahl der Varianten erscheint, die hin- tereinander oder nebeneinander aufrufbar sind. 2. Die Navigation erfolgt primär über das volkskundliche Ordnungssystem in Form von Baumstrukturen, die bis zu sechs Hierarchieebenen enthalten (Beispiele finden sich in Abb. 9). Sie fächert dem Nutzer das Wegesystem durch einen abgegrenzten Wissens-71 Ilvio Bruder, Holger Meyer, Alf-Christian Schering und Christoph Schmittbereich von der Fernsicht zur Nahsicht auf. Er wird somit auch ohne größere Spezial- kenntnis gelenkt. Das Korpus teilt sich, je nach Sammlungsbereich, in mehrere Ent- scheidungsbäume oder Zugänge (siehe Abb. 5), die von volkskundlicher Seite aus im Rahmen des Projekts zu überprüfen sind. 3. Die punktuelle Suche erfolgt durch einen die unterste Bezeichnungsebene erfassen- den Stichwortkatalog, der den ursprünglichen Konvolutbenennungen folgt. 4. Querbezüge zwischen diesen beiden Suchsystemen erzeugt ein Schlagwortkatalog, der volkskundlich überarbeitet wird. Erst dieser bildet die konkreten Beziehungen zwischen den einzelnen Zetteln allumfassend ab, weshalb er unverzichtbar ist. So folgt die gattungsbezogene Suche zunächst der Baumstruktur, während thematische Anfragen gattungsübergreifend strukturiert sind, was der Schlagwortkatalog befriedigt. Abb. 8: Literaturhinweis als eine Ausprägung der Verlinkungsstruktur; Quelle: WossiDiA-Projekt. Erst die konkrete Systemumsetzung kann klären, wie die Navigationsstrukturen, sämtli- che Vernetzungswege und die Einbindung weiterer Programmkomponenten (etwa Visu- alisierung der Graphenstruktur mittels Force-directed-Layout oder Herstellung des Ortsbezuges durch Kartendarstellung mittels GIS-Komponente) optisch am besten um- zusetzen sind, was synchron abzubilden oder nacheinander aufzurufen ist. Die Umsetzung dieser verschiedenen Nutzungsszenarien erfolgt auf Basis objekt-relatio- naler Datenbanktechnologie mittels PostgreSQL. Aktuell nutzbare digitale Archiv- oder Bibliothekssysteme erfüllen nur in sehr geringem Umfang die Anforderungen obiger Szenarien und unterstützen nur ausgewählte Komponenten, wenn es darum geht, einer- seits hochgradig vernetzte Strukturen nicht nur speichern zu können, sondern komplexe Graphenalgorithmen auch effizient auf sehr großen Graphen (vernetzten Strukturen) umzusetzen. Des Weiteren soll unmittelbar eine Verbindung zur räumlich-zeitlichen Darstellung und Volltextsuche in effektiver Art und Weise vom System für komplexe Anfragen hergestellt werden können. Aktuelle Systeme unterstützen nur Teile, was dazu72 Das Projekt WossiDiA: Digitalisierung des Wossidlo-Archivsführt, dass auf Anwendungsebene eine Kombination verschiedener (Sub-)Systeme (GIS, Volltext-Retrieval-System und Graphendatenbank) erfolgen muss. Dies bedeutet oft- mals einen erheblichen Mehraufwand in der Anwendungserstellung, eingeschränkte Suchfunktionalität und schlechte Skalierbarkeit und Performanz. 4. Findbuch und Klassifikation Für Sammelmaterial solcher Größenordnung sind Erschließungsarbeiten Generationen- werk, die der Sammler – unabdingbare Voraussetzung für dieses Projekt22– bereits erle- digte. Vielmehr handelt es sich bei der Datenerfassung im Rahmen von WossiDiA um Überprüfungs- und Verknüpfungsarbeiten. Dies soll anhand der Klassifizierung der Erzählüberlieferung (bzw. von narrativen Über- lieferungen) beispielhaft gezeigt werden. Diese entspricht in etwa der Suchanforderung nach dem heutigen Gattungssystem (Sagen, Märchen, Schwänke, Kleinformen wie Rät- sel). Hingegen bilden »Brauch und Fest« kein solch homogenes Zugriffsfeld. So wurden Lebenslaufbräuche vornehmlich unter dem Aspekt des Volksglaubens gruppiert. Bräu- che bei der Geburt findet man also am ehesten unter der Rubrik »Aberglaube bei der Geburt« (5.161 Zettel, verteilt auf 142 Kategorien, z.B.: »Woher kommen die Kinder?«, »Hebamme«, »Wöchnerin«, »Wechselbalg«, »Glückshaube« etc.). Der manuelle, separate Zugang über die bisherigen Findbücher versagt, wenn sich dem Benutzer ein Phänomen ganzheitlich erschließen soll, er z.B. über Schwangerschaft und Geburt auch medizinische, hygienische, sozial- und wirtschaftsgeschichtliche, narrative und sprachliche Befunde in Erfahrung bringen will. So finden sich in anderen Bereichen 1.140 Belege über das Gebären oder 490 Zettelnotizen zur Schwangerschaft (z.B. sprachlich: »Anrede schwangerer Frauen«). Das Hebammenwesen wurde ebenso unter beruflichem Aspekt (bei »Handwerkern«, »Ständen«) abgelegt. Die »Wiege« (5.587 Zettel in 102 Kategorien) wird z.B. unter »Aberglaube«, als Erzählmotiv in der Sage (»Goldene Wiege«), in »Rätsel und Kinderreim« oder als »Möbel- und Aussteuerstück« registriert. Noch breiter gestreut ist etwa der Ernte-Komplex, da neben detaillierten Brauchbeob- achtungen der Fokus auf dem Arbeitsprozess und der Sachkultur (z.B. den Arbeitsgerä- ten) liegt. Die Ernte wurde sogar nach Pflanzenarten (»Weizen-«, »Roggen-«, »Klee-«, »Tabaksernte« etc.) festgehalten. Nachdem die Abteilungen, Klassen, Gattungen und Typenbildungen überschaut worden sind (siehe Abb. 9), werden Klassifikationsbäume gebildet. Sie sind wegweisend, daher besonders für unerfahrene Besucher hilfreich. Wossidlos richtungszeigende Attribute sind wegen seiner morphologischen Arbeitsweise, die sich in seinen Editionen wider- spiegelt, überwiegend klar strukturiert. Die Entscheidungsbäume des Privatgelehrten konkretisieren sich im originalen Sammlungsgut physisch durch die Hierarchie von Re- gal, Nachbarschaft, Zettelkasten, Konvolut und Variantenserie. Sie bedürfen daher einer adäquaten Darstellung. 22 Vgl. BISCHOFF 1999.73 Ilvio Bruder, Holger Meyer, Alf-Christian Schering und Christoph SchmittAbb. 9: Hierarchisch strukturierter Zugang (am Beispiel dreier ausgewählter Oberbegriffe); Quelle: WossiDiA-Projekt. Der neue, aus Konkordanzarbeit hergestellte Thesaurus, der das volkskundliche Ord- nungssystem abbildet, soll fachspezifische, interdisziplinäre und allgemeine Bedürfnisse befriedigen. Einerseits ist die sehr differenzierte Kategorisierung des alten Ordnungs- systems zu erhalten, andererseits sind Übersichtlichkeit, moderne Begrifflichkeit und Verständlichkeit zu gewährleisten. Dies ist durch die Überprüfung, Ergänzung und Neu- formulierung der bisherigen Klassifikation und Verschlagwortung zu erreichen, deren polysemantische Vernetzung dem Besucher visuell auf Übersichten sowie bei jedem online erscheinenden Zettelbeleg als Strukturextrakt mitzuteilen ist. Dabei sind die Zu- griffslogik betreffende Wortumstellungen vorzunehmen (z.B. »Begräbnis/Einladung« statt »Einladung zu Begräbnis«), ohne lexikalisierte Begriffe wie »Alte Jungfer« oder »Böser Blick« syntaktisch zu trennen. Von den 28.315 Einträgen des alten Ordnungssystems wurden von Wossidlo 2.533 De- skriptoren mehrfach vergeben (1.468 x 2; 442 x 3; 193 x 4 etc.; 101 Benennungen mehr als zehnfach). Diese Mehrfachbenennungen werden durch ihre Stellung im Klassifikati- onssystem präzisiert. Ein beträchtlicher Teil der Sachregistereinträge Wossidlos ist auf- grund seiner fachliterarischen Instruktion bereits schlagworttauglich. Abbildung 10 gibt einen kleinen Ausschnitt wieder. Es handelt sich um fachübliche Stichwörter, wie man sie den älteren volkskundlichen Wörterbüchern (z.B. dem »Wörterbuch der deutschen Volkskunde«)23 und Handwörterbüchern (z.B. dem »Handwörterbuch des deutschen Aberglaubens«)24 entnehmen kann, die damit ergänzt und quellenkritisch durchleuchtet werden können. Einerseits sind fehlende Indexierungen höherer Ebenen nachzutragen (so sucht man z.B. »Jahresfeuer« vergeblich, da nach »Osterfeuer«, »Feuer/Scheiben- schlagen« etc. indexiert wurde). Andererseits sind manche Benennungen (z.B. »Feiertag«) auszudifferenzieren, was durch die Position in der Klassifikation möglich ist. Homo- nyme (z.B.: »Ballspiel«, »Maskenball«) sind entsprechend auszuweisen. 23 ERICH/BEITL 1936. 24 BÄCHTHOLD-STÄUBLI/HOFFMANN-KRAYER 1927–1942.74 Das Projekt WossiDiA: Digitalisierung des Wossidlo-ArchivsAbb. 10: Beispiele zur Verschlagwortung und Verweisbildung; Quelle: WossiDiA-Projekt. Für eine Reihe von Einträgen sind Synonyme zu finden. So sollte z.B. bei »Kirchhof« auf »Friedhof«, bei »Geld« auf »Münze«, bei »Gesinde« auf »Dienstboten« etc. verwiesen werden. Dabei ist zu bedenken, dass nicht wenige Sachbetreffe vom Sammler mit Syn- onymen indiziert wurden, die zusammengeführt werden müssen (z.B. ergeben »Beil« (203 Zettel in 9 Kategorien) und »Axt« (53 Zettel in 7 Kategorien) zusammen 256 Zettel à 16 Kategorien). Während in der Brauch- und Erzählforschung viele Benennungen des alten Thesaurus der heutigen Terminologie entsprechen, wurden andere Sammelgebiete neu beschlagwortet (z.B. »Sinnenleben« zu »Anthropologie der Sinne und Körperlich- keit«; »Frauenzimmer« oder »Frau an Bord« zu »Ethnologische Geschlechterforschung«). Eine eher geringe Zahl von Einträgen ist auf Niederdeutsch verfasst und musste über- setzt werden, z.B. »Dodenbibbersch« (Tod/Bestattung/Einladung: Frau, die zur Lei- chenfolge bittet) oder »Krupbaum« (Volksmedizin/Heilung/Verweis auf »durchziehen«: gespaltener Baum, durch dessen Öffnung man zwecks Heilung hindurchkriecht). Tabui- sierte Bereiche (z.B. Ausscheidungsvorgänge, Geschlechtsteile, Sexualleben) wurden teilweise auf Lateinisch und Griechisch verschlüsselt, was ebenso zu decodieren ist wie Deskriptoren, die mit markanten niederdeutschen Wörtern oder Phrasen gebildet wur- den (z.B. »Min Geld is up« als Benennung eines Tanzreimtyps). Bei der Verschlagwortung kann auf bibliothekarische Thesauri zurückgegriffen werden. Die Klassifikation der »Regensburger Verbundklassifikation Ethnologie«25 befriedigt eher allgemeine Bedürfnisse. Brauchbar ist hingegen das mittlerweile auch online über EVIFA erhältliche Sachregister der Internationalen Volkskundlichen Bibliographie (IVB).26 25 Universitätsbibliothek Regensburg 2014. 26 EVIFA; http://www.evifa.de/cms/evifa-recherche/ivb-online [07.07.2014].75 Ilvio Bruder, Holger Meyer, Alf-Christian Schering und Christoph SchmittSowohl für die interne Strukturierung und Speicherung der eigentlichen Zettelsammlung als auch die verschiedenen Ordnungssysteme bzw. Thesauri und Zugänge wird eine hypergraphbasierte Speicherung in WossiDiA eingesetzt. Zur Umsetzung von unter- schiedlichsten Anfragen wird intern eine Graphalgebra mit semistrukturierten Anfrage- konstrukten kombiniert. Letztere erlauben die Auswertung nicht nur auf der Vernet- zungsstruktur, sondern auch etwa in XML-repräsentierten Inhalten oder Metadaten.27 5. Der Digitalisierungsworkflow Der Digitalisierungsworkflow führt vom analogen Originalarchiv zum digitalen Archiv und illustriert damit den Beschreibungs- bzw. Annotationsprozess. Abbildung 11 gibt ei- nen allgemeinen Überblick über diesen Prozess und zeigt auf, wie das Originalmaterial so vorbereitet wird, dass die Anforderungen, insbesondere die starke Vernetzung der einzelnen Informationen, in kürzester Zeit und mit möglichst geringem Aufwand erfüllt werden können. Abb. 11: WossiDiA-Digitalisierungsworkflow; Quelle: SCHERING u.a. 2011. 27 Beschrieben in SCHERING u.a. 2007.76 Das Projekt WossiDiA: Digitalisierung des Wossidlo-ArchivsDer Digitalisierungsworkflow soll in den folgenden sieben Schritten näher erläutert werden: 1. Das Archiv besteht aus fünf verschiedenartigen Korpora. Einige von ihnen waren be- reits paginiert, sodass zum Teil eine Ordnung existierte. Diese Paginierungen sind al- lerdings sehr heterogen. Eine Herausforderung bestand darin, eine eindeutige Signa- tur zu jeder Informations- und Struktureinheit im gesamten Bestand zu entwickeln und zu etablieren. Die bisherigen heterogenen Paginierungen boten keine einheitliche Signatur. Eine einheitliche Signatur erlaubt aber eine eindeutige Referenzierung aller Dokumente des Bestandes. Das erste Element definiert das Korpus. Die darauf fol- genden Segmente repräsentieren Struktureinheiten des jeweiligen Korpus, beginnend mit Zettelkästen bis zur einzelnen Seite. Abbildung 12 zeigt ein Beispiel, wie ausge- hend von einer Paginierung über eine Signatur die resultierenden Barcodes berechnet werden. Abb. 12: Beispiel der Herleitung eines Barcodes aus Paginierung und Signatur; Paginierung → eindeutige Signatur → Barcode; Quelle: SCHERING u.a. 2011. 2. Um die Digitalisierung möglichst automatisch zu organisieren, wurden Barcodes für diesen Prozess berechnet und die Dokumenteinheiten damit annotiert. Dabei macht es aufgrund der Masse an Dokumenten keinen Sinn, jede einzelne Seite zu adressie- ren. Für die Digitalisierung reicht es vollkommen aus, Level 0 und 1, also die Ebene der Zettelkästen und Konvolute mittels Barcode zu adressieren. Abbildung 12 zeigt die einzelnen adressierbaren Ebenen sowie die Berechnung eines ITF-Code (2-in-5 interleaved) aus den Signaturdaten. Bei der Vorbereitung der Dokumente wurden ne- ben der Barcodeberechnung auch weitere Daten, wie die Einordnung in die Archiv- Strukturhierarchie sowie weitere physische Metadaten erfasst. 3. Die per Barcode ausgezeichneten Dokumenteinheiten sowie die zugehörigen Index- daten werden an einen externen Digitalisierungsauftragnehmer, der die eigentliche Digitalisierung und Ausbelichtung gemäß den Vorschriften28 vornimmt, übergeben. Der Digitalisierer erstellt neben Kopien auf 35-mm-Film für die Langzeitarchivierung die digitalen Bilddateien für das digitale Archiv. 28 Vgl. DFG 2013. 77 Ilvio Bruder, Holger Meyer, Alf-Christian Schering und Christoph Schmitt4. Die Digitalisate wurden in einem internen Review-Prozess auf ihre Qualität hin unter- sucht. Anschließend wurden die Digitalisate automatisch in das digitale Archiv auf Basis der vorab berechneten sowie zugewiesenen und nun wiederum ausgewerteten Barcodes integriert. Allerdings bilden die Barcodes nur einen Teil der Ordnungshier- archie ab, sodass noch eine verfeinerte Einordnung manuell erfolgen muss. Hierbei müssen Level 2 und das Seiten-Level durch die verantwortlichen Mitarbeiter für jedes Dokument überprüft und beschrieben werden. 5. Die Evaluierung in Schritt 4 benötigt gegebenenfalls einen Schritt zurück zu Punkt 3, um Dokumente abermals zu digitalisieren, gerade wenn im ersten Digitalisierungs- schritt etwas nicht richtig umgesetzt wurde. Bei der hohen Anzahl der Dokumente werden deshalb Informationen zur Qualität der Digitalisate ebenfalls gespeichert. Dies ermöglicht eine zum Teil automatische Redigitalisierung auf Basis von Daten- bank-Reporten. Diese Reporte werden dem externen Digitalisierungsauftragnehmer zur Verfügung gestellt. 6. Aufgrund der sehr großen Anzahl an Dokumenten ist es nötig, mehrere Zugänge über Findbücher und Verzeichnis- sowie Navigationsstrukturen zu ermöglichen. Diese Suchmöglichkeiten beinhalten die Personenverzeichnisse für Erzähler, Zuträ- ger und Gelehrte, Ortsverzeichnisse, Literaturverzeichnisse, Abkürzungsverzeichnis, Korrespondenzen, Inventarlisten und Schlagwortlisten. Solche Informationen sind ebenfalls auf den Dokumenten referenziert. Das bedeutet, dass die Verzeichnisse ebenfalls digital vorliegen müssen, um eine vernetzte Informationssuche ohne Medi- enbruch gewährleisten zu können. 7. Auf der Basis von Schritt 4 wird mithilfe der Metadatenbeschreibungen aus Schritt 6 eine inhaltliche Beschreibung manuell hinzugefügt. Dieser Schritt benötigt einen ho- hen Personaleinsatz und ein gewisses Know-how, da es darum geht, die handge- schriebenen Dokumente lesen und verstehen zu können und die relevanten Daten zu extrahieren. Die Vernetzung zwischen den Dokumenten und den sie beschreibenden Daten wird durch eine Graphenstruktur dargestellt. Diese Struktur soll mittels graph- basierter Anfragen und Information-Retrieval-Techniken effizient angefragt werden. 6. Zusammenfassung und Ausblick Die Digitalisierung im geförderten Projekt WossiDiA ist abgeschlossen. Die Deskribie- rung und Tiefenerschließung des Korpus ist ein andauernder Prozess. Die vorgestellte Vorgehensweise des Digitalisierungsworkflows hat sich damit bewährt. Die speziell ent- wickelte Systemarchitektur des WossiDiA-Systems kann effizient mit den großen Doku- mentenmengen umgehen. Die Anfrageverarbeitung um eine graphbasierte Speicherung herum zu konzipieren ist flexibel genug, um Anpassungsarbeiten etwa in den verschiede- nen Ordnungssystemen bzw. Thesauri adäquat und mit geringem Aufwand zuzulassen.78 Das Projekt WossiDiA: Digitalisierung des Wossidlo-ArchivsDie beschriebenen Nutzungsszenarien umzusetzen und vielfältige Auswertungsmöglich- keiten anzubieten sind für die letzte Projektphase Herausforderungen, für die mit der WossiDiA-Architektur und dem implementierten System eine solide Basis existiert. Nichtsdestotrotz sind etwa in der Visualisierung und der Navigation des digitalen Ar- chivs zahlreiche Ideen gefragt, damit die zahlreichen Schätze, die Richard Wossidlos Feldforschung versammelt hat, gehoben werden können. Literaturverzeichnis BÄCHTHOLD-STÄUBLI, Hanns; HOFFMANN-KRAYER, Eduard (Hg.) (1927–1942): Handwörter- buch des deutschen Aberglaubens, 10 Bde. Berlin: De Gruyter. BISCHOFF, Frank M. (1999): Recherchieren im virtuellen Archivverbund. Neue Möglichkeiten des Benutzerservice im Internet. In: Archiv und Wirtschaft, Jg. 32, H. 4, S. 175–186. DEIßNER, Vera (1997): Die Volkskunde und ihre Methoden. Perspektiven auf die Geschichte ei- ner „tastend-schreitenden Wissenschaft“ bis 1945. Mainz: Gesellschaft für Volkskunde in Rheinland-Pfalz. DFG (Hg.) (2013): DFG-Praxisregeln „Digitalisierung“. DFG-Vordruck 12.151 – 02/13; http:// www.dfg.de/formulare/12_151/12_151_de.pdf [07.07.2014]. ERICH, Oswald A.; BEITL, Richard (Hg.) (1936): Wörterbuch der deutschen Volkskunde. Leipzig: Alfred Kröner Verlag. FRICKE, Thomas (2004): Bereitstellung digitalisierter Archivalien im Internet. Beschreibung eines Workflow. In: MAIER, Gerald; FRICKE, Thomas (Hg.): Kulturgut aus Archiven, Bibliotheken und Museen im Internet. Stuttgart: Kohlhammer, S. 187–195. GÖTTSCH, Silke (1991): Feldforschung und Märchendokumentation um 1900. Ein Beitrag zur Geschichte der Erzählforschung. In: Zeitschrift für Volkskunde, Jg. 87, S. 1–18. GRAF, Nicole; INDEN, Yvonne (2009): Best Practices Digitalization. Technischer Bericht, ETH Zürich. GUNDLACH, Jürgen (1999): Wossidlo, Richard. In: Biographisches Lexikon für Mecklenburg und Vorpommern. Band 2, hrsg. von Sabine Pettke. Rostock: Schmidt-Römhild, S. 279–285. ISO (2012): ISO 14721. Space Data and Information Transfer Systems – Open Archival Infor- mation System (OAIS) – Reference Model. JAAGO, Tiiu (2005): Jakob Hurt. The Birth of Estonian-Language Folklore Research. In: KUUTMA, Kristin; JAAGO, Tiu (Hg.): Studies in Estonian Folkloristics and Ethnology. A Reader and Reflexive History. Tartu: Tartu University Press, S. 45–64. MAIER, Gerald (2004): Mehrwert durch Integration in Fachportale. Das Online-Informations- system der staatlichen Archivverwaltung Baden-Württemberg. In: DERS.; FRICKE, Thomas (Hg.): Kulturgut aus Archiven, Bibliotheken und Museen im Internet. Stuttgart: Kohlham- mer, S. 79–109. ROCKWELL, Joan (1982): Evald Tang Kristensen. A Lifelong Adventure in Folklore. Aalborg: Aalborg University Press.79 Ilvio Bruder, Holger Meyer, Alf-Christian Schering und Christoph SchmittSCHERING, Alf-Christian; BRUDER, Ilvio; JÜRGENSMANN, Susanne; MEYER, Holger; SCHMITT, Christoph (2011): From Box to Bin – Semi-Automatic Digitization of a Huge Collection of Ethnological Documents. In: XING, Chunxiao; CRESTANI, Fabio; RAUBER, Andreas (Hg.): Digital Libraries: For Cultural Heritage, Knowledge Dissemination, and Future Creation. 13th International Conference on Asia-Pacific Digital Libraries ICADL, Beijing, China. Pro- ceedings. Berlin/Heidelberg: Springer, S. 168–171; http://link.springer.com/content/pdf/ 10.1007%2F978-3-642-24826-9_22.pdf [07.07.2014]. DERS.; BRUDER, Ilvio; SCHMITT, Christoph; MEYER, Holger; HEUER, Andreas (2007): Towards a Digital Archive for Handwritten Paper Slips with Ethnological Contents. In: GOH, Dion Hoe-Lian; CAO, Tru Hoang; SØLVBERG, Ingeborg Torvik; RASMUSSEN, Edie (Hg.): Asian Digital Libraries. Looking Back 10 Years and Forging New Frontiers. 10th International Conference on Asian Digital Libraries ICADL, Hanoi, Vietnam. Proceedings. Berlin/Heidel- berg: Springer, S. 61–64; http://link.springer.com/content/pdf/10.1007%2F978-3-540- 77094-7_12.pdf [07.07.2014]. DERS.; MEYER, Holger; HEUER, Andreas (2007): Managing Highly Correlated Semi-Structured Data: Architectural Aspects of a Digital Archive. In: VARDE, Aparna; PEI, Jian (Hg.): Confer- ence on Information and Knowledge Management CIKM 2007, Lisbon, Portugal. Proceed- ings. New York: ACM, S. 101–108; http://dl.acm.org/ft_gateway.cfm?id=1316891&ftid= 481336&dwn=1&CFID=430570038&CFTOKEN=54647623 [07.07.2014]. Universitätsbibliothek Regensburg (Hg.) (2014): Regensburger Verbundklassifikation (RVK) Ethnologie (LA–LC); http://rvk.uni-regensburg.de/pdf/current/rvko_LALC.pdf [07.07.2014]. UTHER, Hans-Jörg (Hg.) (2004): The Types of International Folktales. A Classification and Bibli- ography. Based on the System of Antti Aarne and Stith Thompson, 1–3 (= Folklore Fellows’ Communications, 284 –286). Helsinki: Academica Scientiarum Fennica. WOSSIDLO, Richard; TEUCHERT, Hermann (Hg.) (1942–1992): Mecklenburgisches Wörterbuch, 7 Bde. Neumünster: Karl Wachholtz Verlag. DERS. (1906): Über die Technik des Sammelns volkstümlicher Überlieferungen. In: Zeitschrift des Vereins für Volkskunde, Jg. 16, S. 1–24. Im Text erwähnte Webseiten BABS – Das Bibliothekarische Archivierungs- und Bereitstellungssystem der Bayerischen Staats- bibliothek: http://www.babs-muenchen.de Best Practices Digitalisierung, ETH Zürich: http://www.digitalisierung.ethz.ch EVIFA – Virtuelle Fachbibliothek Ethnologie: http://www.evifa.de Goobi – Open-Source-Software für die Steuerung von Digitalisierungsworkflows der intranda GmbH: http://www.digiverso.com/de/products/goobi METS – Metadata Encoding and Transmission Standard, Digital Library Federation: http:// www.loc.gov/standards/mets80 Der Einsatz von Regesten bei der Erschließung und Onlinerecherche handschriftlicher Dokumente am Beispiel des DFG-Projekts ›Behring-Nachlass‹ Ulrike Enke Vorbemerkungen Seit den 1990er-Jahren fördert die Deutsche Forschungsgemeinschaft insbesondere im Rahmen ihres Programms LIS auch Projekte, die an wissenschaftlichen Bibliotheken, Archiven und weiteren wissenschaftlichen Service- und Informationseinrichtungen in Deutschland im Bereich der wissenschaftlichen Literaturversorgungs- und Informati- onssysteme angesiedelt sind. Als Förderziel wird »der Aufbau leistungsfähiger Informati- onssysteme für die Forschung unter überregionalen Gesichtspunkten«1 im Hinblick auf »Überregionalität« und »Vernetzung« genannt. Die technische Basis bilden die moder- nen digitalen Technologien, zu denen das elektronische Publizieren, auch in Form um- fangreicher Datenbanken, gehört. Während über die Vorzüge der Verfügbarkeit des Ma- terials im Internet weitgehend Übereinstimmung herrscht – Teilhabe an Kulturproduk- ten, orts- und zeitunabhängiger Zugriff auf Informationen und Daten, die Möglichkeit gezielter Recherche und Datenabfrage2 –, wird insbesondere über die formale und in- haltliche Umsetzung der Ziele weiterhin – zum Teil auch heftig – diskutiert. Unter ande- rem geht es hierbei um Fragen der Zuständigkeit und der fachlichen Kompetenz, um die Kosten der Datenerfassung und -bereitstellung, und nicht zuletzt um das zeitliche und personelle Potenzial. Die Kontroversen zwischen Bibliotheken und Archiven um die Erfassung von Nachlässen sind ausführlich bei Janet Dilger in der Arbeit »Bibliothekari- sche und archivische Nachlasserschließung – Methoden und Findmittel«3 beschrieben, eine endgültige Einigung zwischen allen Beteiligten ist aber noch nicht in Sicht, zumal auch die fachwissenschaftlichen Bearbeiter von Nachlässen inzwischen Stellung bezo- gen haben und Volltexteditionen – mit Textkommentaren – oder zumindest die Bereit- stellung ausführlicher (Hintergrund-)Informationen zum jeweiligen historischen Doku- ment fordern. So wiesen bei dem Workshop ›Erschließung von Nachlässen: ein Work- shop aus der Praxis für die Praxis‹, der im November 2009 in Göttingen stattfand und von der ›Initiative Fortbildung für wissenschaftliche Spezialbibliotheken und verwandte Einrichtungen e.V.‹ organisiert worden war, die Bibliothekare auf die Fülle des zu bewäl- tigenden Materials, die Personalknappheit in universitären Einrichtungen und den damit einhergehenden Zeitdruck hin und plädierten für schnelle und standardisierte technische Lösungen. Dagegen betrachten die mit der Erfassung von Nachlässen betrauten Wissen- 1 Zu LIS siehe die Unterseite der DFG; http://www.dfg.de/foerderung/programme/infrastruktur/lis [07.07.2014]. 2 Vgl. HAUSER 2011, S. 20. 3 DILGER 2009.81 Ulrike Enkeschaftler das einzelne Nachlassdokument tendenziell weniger als abzulegendes, verwalt- bares Schriftgut, sondern eher als reizvolle, unverwechselbare historische Quelle, die ge- radezu zur intensiven Beschäftigung einlädt. So ist es ihnen zumeist ein Anliegen, diese in ihrer Komplexität zu erfassen und mittels Kommentierung zu kontextualisieren. Die beste Lösung bei der Nachlasserschließung wäre ohne Frage die dynamische Voll- textedition mit integrierter Tiefenkommentierung per Mausklick, dazu eine Bebilderung, wie sie in beeindruckender Weise von den Editoren der Van-Gogh-Briefe – Leo Jansen, Hans Luijten und Nienke Bakker – umgesetzt wurde.4 Da ein solches Projekt enorme personelle und finanzielle Mittel erfordert und streng genommen weniger unter ›Nach- lasserschließung‹ als unter ›Briefedition‹ firmieren würde, muss nach befriedigenden Zwischenlösungen gesucht werden, deren Ziel es nach wie vor sein sollte, »das Material so aufzubereiten, daß es für die verschiedenen Fragestellungen unserer Benützer einen raschen Einstieg ermöglicht«.5 Ein Angebot, das Wissenschaftler bei der Recherche in Nachlässen unterstützt, stellt das seit Jahrhunderten im Archivwesen zum Einsatz kommende Regest dar. Nunmehr inte- griert in eine Datenbank und verknüpft mit einem digitalisierten Abbild des historischen Dokuments, bietet es die Vorteile althergebrachter Dokumentenerfassung in Kombina- tion mit moderner Technologie. Zudem weist der das Wesentliche eines Dokuments zu- sammenfassende Kurztext gerade angesichts drohender Informationsüberflutung einen weiteren Vorteil auf: Er strukturiert, ordnet und gewichtet die zur Verfügung stehenden Daten und Inhalte. Der Einsatz von Regesten bei der Nachlasserschließung soll im Folgenden am Beispiel des an der Universität Marburg angesiedelten Projekts ›Erschließung, Digitalisierung und Bereitstellung des Nachlasses Emil von Behrings im Internet‹ ausgeführt werden. 1. Zum Nachlass Emil von Behrings 1.1. Wissenschaftliche Relevanz Der Nachlass des Marburger Professors für Hygiene und Medizinnobelpreisträgers Emil von Behring (1854 –1917) wird seit dessen Tod im Jahr 1917 in Marburg aufbewahrt. Er umfasst sowohl persönliche Dokumente wie Briefe, Werkmanuskripte und Fotos als auch umfangreiche Materialien aus dem Umfeld der von Behring mitgegründeten Behringwerke. Der Wissenschaftler und Unternehmer Behring errang Ende des 19. Jahrhunderts inter- nationale Bedeutung, als er in einer Berliner Forscher- und Arbeitsgruppe mit dem Japa- ner Shibasaburō Kitasato (1853–1931) ein Heilmittel gegen die als Volksseuche auftre- tende und häufig tödlich verlaufende Diphtherie entwickelte, mit dem erkrankte Kinder geimpft und geheilt werden konnten. Mithilfe der Impfung nach dem Prinzip der von 4 JANSEN u.a. 2013 5 VON MOISY 1982, S. 34, zitiert nach DILGER 2009.82 Der Einsatz von Regesten bei der Erschließung und Onlinerecherche handschriftlicher Dokumenteihm entwickelten Blutserumtherapie konnte die Kindersterblichkeit an Diphtherie um die Hälfte reduziert werden; Behring wurde der Ehrentitel ›Retter der Kinder‹ verliehen. Für das im Tierversuch entwickelte Verfahren der passiven Immunisierung erhielt Behring 1901 den erstmals vergebenen Nobelpreis für Medizin, im gleichen Jahr wurde er geadelt. Zahlreiche Preise, Ehrenmitgliedschaften und sonstige Auszeichnungen auf internationaler Ebene folgten, die Bedeutung seiner wegweisenden Erfindung ist bis heute unumstritten.6 Weitere Forschungsschwerpunkte Behrings waren die Entwicklung eines Impfverfahrens gegen Tetanus und die aktive Immunisierung gegen Diphtherie so- wie umfangreiche pharmakologische Studien zur Bekämpfung der Tuberkulose.7 Nach Behrings Tod verblieb sein Nachlass zunächst im Familienbesitz in Marburg und stand unter der Obhut seiner Witwe Else von Behring (1876–1936). Nach ihrem letzten Willen wurde der Bestand 1937 den Behringwerken in Marburg übergeben und dort als Behring-Archiv betreut.8 Verbunden mit der Aufbewahrung war der Wunsch, ein Behring-Museum einzurichten und auf der Basis der umfangreichen Lebensdokumente eine wissenschaftliche Biografie zu verfassen, die 1940 anlässlich des 50-jährigen Jubilä- ums der Blutserumtherapie erschien. Seit 2000 lagert der Nachlass – zunächst als Depo- situm – im Dachgeschoss des Instituts für Zytobiologie der Philipps-Universität Mar- burg.9 Im Juni 2011 wurde der inzwischen durch Ankäufe angereicherte Nachlass vom letzten Besitzer, dem Pharmakonzern Sanofi-Aventis in Frankfurt-Höchst, durch Schen- kung an die Universität Marburg übergeben, wo er bis heute von den Mitarbeiterinnen der Emil-von-Behring-Bibliothek, der Marburger Arbeitsstelle für Geschichte der Medi- zin, betreut wird. Seit dem Jahr 2000 ist der Nachlass – mit Ausnahme der ca. 1.300 Bü- cher der Privatbibliothek, die im Behring-Gedächtniszimmer in den ehemaligen Behring- werken in Marburg-Marbach aufbewahrt werden – für die Einsichtnahme vor Ort uneingeschränkt zugänglich; einzelne Originaldokumente wurden immer wieder in wis- senschaftshistorisch ausgerichteten Ausstellungen gezeigt, so zuletzt im Rahmen der ›Weltwissen‹-Ausstellung 2010/2011 in Berlin. Von August 2009 bis Juni 2013 wurde der Nachlass, finanziert aus den Töpfen der DFG (Förderbereich LIS), wissenschaftlich erschlossen. Der als heterogen anzusehende Bestand umfasst Dokumente aus Behrings Schul- und Studienzeit, wissenschaftliche Unterlagen wie Labortagebücher und -protokolle, Notiz- hefte, Kurvenblätter von Serumpferden,10 Versuchsprotokolle und Fachliteraturexzerpte, Werk- und Vorlesungsmanuskripte, aber auch philosophische Notizen, Kunstreisetage- bücher und Fotografien, mehrere Aktenordner der Behringwerk-Korrespondenz mit Sitzungsprotokollen, dazu eine ca. 5.000 Drucke umfassende Sonderdrucksammlung aus 6 Zur Biografie siehe ZEISS/BIELING 1941; LINTON 2005; ENKE u.a. 2009. 7 Vgl. GRUNDMANN/FRIEDRICH 2012. 8 Vgl. ENKE 2011. 9 Dass der Marburger Nachlass geschlossen erhalten blieb, ist allein der Initiative Professor Gerhard Au- müllers zu verdanken, der auch die Räume für die Lagerung zur Verfügung stellte. 10 Die Produktion des Blutserums erfolgte über den Tierkörper, wegen ihrer Größe waren dies meistens Rinder, Schafe oder Pferde. Im Marburger Behringwerk bürgerte sich der Begriff ›Serumpferd‹ für die das Diphtherieheilmittel liefernden Pferde ein.83 Ulrike EnkeBehrings Besitz. Die Arbeitsschwerpunkte der Dokumente dieses Bestands umschließen Themen wie Sepsis, Desinfektion, Diphtherie, Tetanus, Tuberkulose, medizinische Forschung und Methoden. Von Interesse für die Behring-Forschung dürfte weiterhin die erwähnte Privatbibliothek sein, die neben belletristischer Literatur und allgemein- wissenschaftlichen Büchern einen großen Bestand medizinischer Fachliteratur und Schriften aus den naturwissenschaftlichen Nachbardisziplinen beinhaltet.11 Etwa ein Fünftel dieses Bestands enthält eigenhändige Annotationen und Anstreichungen, die im Rahmen des DFG-Projekts ebenfalls erfasst und erschlossen wurden; inhaltlich er- gänzen sie die brieflichen Äußerungen Behrings und die schriftlichen Notizheft- Aufzeichnungen. Geht man von den Richtlinien der DFG/LIS aus, so erfüllt Behrings Nachlass die Krite- rien der überregionalen wissenschaftlichen Nachfrage und Bedeutung in besonderem Maße. Bereits vor der 2009 begonnenen Nachlasserschließung gab es das von der DFG geförderte Forschungsprojekt ›Magic Bullets und chemische Knebel – Historische Pers- pektiven der Epistemologie, Herstellung, Regulierung und Anwendung von Arzneistof- fen im 20. Jahrhundert‹, das sich im Rahmen des DFG-Forschungsnetzwerks ›Arznei- stoffe im 20. Jahrhundert‹ auch mit dem Themengebiet der Bekämpfung der Infektions- krankheiten im Umfeld des bakteriologisch-immunologischen Dreigestirns Robert Koch, Paul Ehrlich und Emil von Behring beschäftigte.12 Die inhaltliche Auswertung der Dokumente aus den Nachlässen der drei genannten Mediziner floss zuletzt in die viel beachtete Paul-Ehrlich-Biografie von Axel C. Hüntelmann.13 Neben Medizinhistorikern interessieren sich auch Pharmaziehistoriker, Historiker allge- mein, aber auch Wirtschaftswissenschaftler für den Nachlass. Letzteres verdankt sich der Tatsache, dass Behring als Geschäftsmann und Mitbegründer der Marburger Behringwerke14 auch in dieser Funktion eine umfangreiche Korrespondenz zur Grün- dung und Leitung dieses pharmazeutischen Betriebs, zum Vertrieb der Produkte und der Erweiterung der Märkte auf internationaler Ebene hinterließ. Dazu kommen aus dem Bestand der Behringwerke Marburg und Bremen Sitzungsprotokolle und weitere histori- sche Dokumente wie Preislisten, Werbebroschüren etc. 1.2. Formale und inhaltliche Zielsetzung bei der Nachlasserschließung Ziel des Marburger DFG-Projekts war es, den gesamten Nachlass auf der Grundlage der bisher vorliegenden Findmittel formal und inhaltlich nach den »Regeln zur Erschließung von Nachlässen und Autographen (RNA)« zu erschließen und Verknüpfungen mit der Gemeinsamen Körperschaftsdatei (GKD) und Personennamendatei (PND) zu erstellen. Das Vorhaben wurde auf der Grundlage der Allegro-Datenbank HANS (ein Anwender- programm für die Katalogisierung von Handschriften, Autographen, Nachlässen und 11 ENKE 2013. 12 BALZ u.a. 2008. 13 HÜNTELMANN 2011. 14 Vgl. FRIEDRICH 2011.84 Der Einsatz von Regesten bei der Erschließung und Onlinerecherche handschriftlicher DokumenteSammlungen) realisiert; diese ist mit dem Regelwerk der RNA kompatibel. Die Ent- scheidung für diese Datenbank erfolgte erstens deshalb, weil die Universitätsbibliothek Marburg Allegro-HANS als Grundlage für die Erschließung und Präsentation ihrer Nachlässe benutzt, z.B. bei der Bearbeitung des in Marburg befindlichen Nachlasses des Juristen Friedrich Carl von Savigny (1779–1861).15 Zweitens bietet Allegro-HANS im Gegensatz zu PICA den großen Vorteil, auch längere Texte wie die Regesten in die Datenbank integrieren zu können.16 Das Projekt lief im August 2009 an, die Digitalisierung ist abgeschlossen, die Regesten für den Briefbestand, die Lebensdokumente, die Sammlung und die Werkmanuskripte sind geschrieben. Die Onlinestellung der Datenbank erfolgte im Mai 2012. Eine Verlän- gerung zur Erfassung der Behringwerk-Korrespondenz wurde zum 1. Dezember 2011 bewilligt und lief bis Februar 2013. 1.3. Umfang des Behring-Nachlasses Es liegen nun (Stand März 2014) insgesamt 13.313 Digitalisate vor, die sich nach Einhei- ten folgendermaßen aufteilen: 121 Werkmanuskripte (5.046 Seiten/Scans); wissenschaft- liche und private Briefwechsel, bestehend aus 1.817 Einheiten (4.322 Seiten/Scans); 210 Lebensdokumente wie Fotografien, Zeugnisse und Ehrungen (3.743 Seiten/Scans); eine Sammlung bestehend aus Zeitungsausschnitten, Sekundärquellen, Kuriosa und Ähnli- chem zu 33 Einheiten (150 Seiten/Scans) sowie der Nachlass Else von Behrings und Söhne zu 43 Einheiten (52 Seiten/Scans). 2. Zum Vorgehen – Arbeit mit Regesten 2.1. Alternative Texterschließungstechniken Die Datenbank zum Behring-Nachlass17 bietet Digitalisate von sämtlichen Nachlassdo- kumenten (siehe Abb. 1) sowie die formalen Daten aus der bibliografischen Erfassung (Datum, Ort, Umfang, Handschrift bzw. Maschinenschrift, bei Briefen Absender und Empfänger, bei Manuskripten Verfasser, in der Regel Behring). Sie ermöglicht dem Be- nutzer mittels verschiedener Suchfunktionen (durch Index-, Freitext- und systematische Suche sowie anhand von zahlreichen Verweisungen) einen kontextualisierten Zugriff auf das Material. Ergänzt werden die Abbilder und Basisinformationen durch Regesten, die einerseits per Suchfunktion das Erschließen von Textinhalten ermöglichen und anderer- seits einen Einstieg in die oft mühsam zu lesenden Handschriften – in der Regel indivi- duell modifizierte deutsche Kurrentschrift – bieten. 15 Siehe unter http://savigny.ub.uni-marburg.de [07.07.2014]. 16 ENKE/KAHLER 2014. 17 http://www.uni-marburg.de/fb20/evbb/behring-digital [07.07.2014].85 Ulrike EnkeAbb. 1: Digitalisat eines Briefes von Il’ja Mečnikov an Emil von Behring vom 24. November 1895 (Seite 1 und 2 von 4), EvB/B 101/7; Quelle: Behring-Nachlass digital. Regesten stellen einen vom Zeitaufwand her vertretbaren Mittelweg zwischen der rein bibliografischen Datenerfassung und der zeitaufwendigen Volltexttranskription dar. Letztere, eine für die Nutzer komfortable Lösung, wird nicht nur in der bereits erwähn- ten Van-Gogh-Briefedition, sondern beispielsweise auch bei der Erschließung des Nach- lasses Franz Brümmers, dem Verfasser des »Lexikon der deutschen Dichter und Prosa- isten«, angeboten.18 Eine Auswahl der Handschriften des auf mehrere Jahre angelegten Brümmer-Projekts wurde von 2006 bis 2008 von Studierenden der Humboldt-Universi- tät zu Berlin in Praxisseminaren transkribiert, danach von der wissenschaftlichen Redak- tion gesichtet und bei Bedarf überarbeitet. Momentan sind interessierte Forscher und Privatpersonen im Internet eingeladen, weitere Transkriptionen zu erstellen. Im Marburger Behring-Projekt war die an sich erstrebenswerte Volltranskription der Dokumente wegen der Inhomogenität des Materials aus Zeitgründen nicht durchführ- bar. Da auch beim Behring-Nachlass der allergrößte Teil der mehr als 13.000 Seiten um- fassenden Dokumente aus Fließhandschriften von ca. 600 unterschiedlichen Schreiber- 18 Das Projekt steht unter der Leitung von Roland Berbig und Jutta Weber; die digitale Edition des lexiko- grafischen Nachlasses Franz Brümmers siehe unter http://bruemmer.staatsbibliothek-berlin.de/nl- bruemmer [07.07.2014].86 Der Einsatz von Regesten bei der Erschließung und Onlinerecherche handschriftlicher Dokumentehänden besteht, die zur Veröffentlichung bestimmten Manuskripte zahlreiche Korrektu- ren in Form von Durchstreichungen und Überschreibung aufweisen (vgl. Abb. 2) und es sich zudem um in Deutsch, Englisch, Französisch oder Italienisch verfasste Texte han- delt, manchmal auch Grafiken, Fließdiagramme oder Tabellen eingefügt sind oder Ver- schmutzung durch starke Benutzung oder falsche Lagerung die Papieroberfläche verän- dert hat, war es nicht möglich, eine Texterkennungssoftware zur Erfassung einzusetzen. Auch die heute übliche Praxis des Abschreibens durch externe Schreibbüros (zumeist in China ansässig) schied aufgrund der Komplexität der Vorlagen und aus Kostengründen aus: Erstens ist nur ein geringer Teil der Briefe und Manuskripte in Maschinenschrift verfasst, und zweitens sind transkribierte Abdrucke, zum Beispiel in der Behring-Bio- grafie von Zeiss und Bieling19 oder in wissenschaftlichen Publikationen, selten und ge- ben das Original häufig nicht buchstabengetreu wieder. Abb. 2: Beispiel für eine Manuskriptseite aus einem Notizbuch Behrings. Notizen vom 2. März 1906 mit einem Briefentwurf an Saturnin Arloing, EvB/W 46, Bl. 59; Quelle: Behring-Nachlass digital. 2.2. Regesten Der Begriff ›Regest‹ ist lateinischen Ursprungs, findet vor allem in den Geschichtswis- senschaften Anwendung und bedeutet wörtlich übersetzt ›Verzeichnis‹. Der Arbeitskreis für Editionsgrundsätze definierte diese Form der Urkundenerfassung als »die Zusam- 19 ZEISS/BIELING 1940.87 Ulrike Enkemenfassung des Inhalts einer Urkunde durch den Bearbeiter, ergänzt durch ihre Be- schreibung und gegebenenfalls durch Anmerkungen«. Das Regest soll »einen Vollab- druck ersetzen und muß deshalb alles Wesentliche, wenn auch in knappster Form, vor allem alle Namen, enthalten«.20 Regesten wurden in den historischen Wissenschaften eingesetzt, um umfangreiche Ur- kundensammlungen aufzulisten und knapp über deren Inhalt zu informieren. Dieses Verfahren wurde bereits im Mittelalter angewandt, wobei Regesten in der damaligen Zeit zur Anfertigung von Urkunden-Inventaren in den Archiven dienten. Zur leichteren Übersicht wurden die Inhalte von den Empfängern manchmal auch auf dem Rücken der ihnen ausgestellten Original-Urkunden angebracht. Die moderne Geschichtswissen- schaft übernahm die Regestenform als Hilfsmittel der modernen Forschung zur Ord- nung und Edition von Urkundenbeständen.21 Bekannte Regestensammlungen sind die aktuell von den Akademien der Wissenschaften in Mainz und Wien erstellten »Regesta Imperii« (die Regesten der Urkunden der deut- schen Kaiser und Könige seit 911, begonnen 1831 von Johann Friedrich Böhmer) oder die »Regesta Pontificum Romanorum« (die Regesten der Urkunden der Päpste). Da Ur- kunden in der Regel standardisiert sind, haben auch die angefertigten Regesten eine be- stimmte, relativ festgelegte Struktur. Formal gliedern sie sich in Kopf, Inhaltsangabe, Beschreibung und gegebenenfalls Anmerkungen. Die Wiedergabe des Sachinhalts soll »unter Weglassung aller unwesentlichen Formeln und Teile in klaren, übersichtlichen Sätzen« erfolgen.22 Von den Verfassern der Regesten wird darüber hinaus erwartet, dass sie sich in der Reihenfolge der Inhaltswiedergabe »möglichst nach dem Aufbau der Ur- kunde selbst richten«.23 Bei der Bearbeitung von Nachlassdokumenten aus der jüngeren Vergangenheit, bei denen es sich in der Regel nicht um Urkunden handelt, kann und muss das beschriebene Raster modifiziert angewandt werden. Während der Regestkopf der bibliografischen Aufnahme aus dem Bibliothekswesen entspricht, bedarf die Inhalts- angabe besonderer Aufmerksamkeit. Schließlich finden sich bei gemischten Nachlässen verschiedenartige Textsorten – im Falle des Behring-Nachlasses Briefe, Werkmanu- skripte, Schulhefte mit Deutschaufsätzen, dazu Bilder, Ehrungen unterschiedlicher Art und ein umfangreiches Familienalbum –, die untereinander und auch in sich inhomogen sind. So unterscheiden sich Briefe an Verleger inhaltlich und formal von denen an for- schende Kollegen, an die Ehefrau oder an behandelnde Ärzte. Aufgrund der Heterogenität von Form und Inhalt erwächst für die Bearbeiter die Auf- gabe zu entscheiden, was die wesentlichen Aussagen (und implizit auch die auf den Kommunikationspartner gerichteten Bedeutungen) eines Textes oder Bildobjekts sind. Wenn Behring beispielsweise in einem Brief an seinen Arzt Rudolf von Hößlin (Behring war für mehrere Jahre wegen Depressionen und Schlaflosigkeit in einem Sanatorium in 20 HEINEMEYER 1965, S. 2. 21 NEUMÜLLERS-KLAUSER 1999, S. 20f. 22 HEINEMEYER 1965, S. 3. 23 Ebd.88 Der Einsatz von Regesten bei der Erschließung und Onlinerecherche handschriftlicher DokumenteMünchen in Behandlung) schreibt, dass er neue wissenschaftliche Versuche mit Sauer- stoff und Hepinbädern durchführt, dabei die familiäre Situation in Marburg schildert und am Ende über seinen Gesundheitszustand berichtet, müssen sämtliche faktische Grundaussagen dieses Briefes erfasst werden, um zukünftige Wissenschaftler mit bei- spielsweise balneologischen, psychiatrischen, soziologischen, biografischen oder lokal- historischen Forschungsinteressen auf die inhaltlichen Facetten des Dokuments hinzu- weisen. In der Tatsache, dass Behring hier nicht länger als Patient, sondern nun als Berufskollege gleichen Ranges auftritt, enthält der Brief die implizite Information (an den Münchener Arzt), dass Behrings Genesung eingetreten und seine Leistungsfähigkeit wiederhergestellt ist;24 diese Interpretation erschließt sich aber erst aus der Kenntnis des Kontextes. 2.2.1. Zur Abfassung der Regesten Die zuvor zitierte Forderung Heinemeyers, das Wesentliche des Dokuments in knapps- ter Form zu erfassen, wirft für die Umsetzung zahlreiche Fragen auf, insbesondere dieje- nige, wie sehr man bei der Abfassung des Regests ins Detail gehen darf. Konkret: Wie wichtig ist es, in dem erwähnten Brief an Hößlin zu lesen, dass Sohn Hans demnächst die Kadettenanstalt in Karlsruhe besuchen wird? Wie interessant ist es zu hören, wie viel Behring im Jahr 1910 wog, und wie viele Stunden er täglich schlief? Wie schildert man den Stolz über das Gedeihen der sechs Söhne? – Die Marburger Arbeitsgruppe ent- schied sich, bei der inhaltlichen Erfassung solcher Briefe mit übergeordneten Schlagwor- ten zu arbeiten, hier beispielsweise durch Vergabe der Schlüsselwörter ›Familiäres‹ bzw. ›Gesundheitszustand‹. Nutzer, die sich mit der Geschichte der Familie Behring oder mit Behrings Krankheit beschäftigen wollen, werden durch Eingabe dieses Suchbegriffs auf diejenigen Briefe weitergeleitet, in denen sich Informationen aus dem familiären Umfeld befinden. Die Details zum Thema befinden sich im digitalisierten Dokument. Gerade in Bezug auf die Entscheidung für knappe Schlagwortvergabe sollte jedoch bei der Bearbeitung zweierlei berücksichtigt werden: 1. Zwar muss die Erfassung der Inhalte nach bestimmten Rastern erfolgen, doch kön- nen diese nicht wie mathematische Gleichungen gehandhabt werden; dem Bearbeiter sollte stets auch ein Ermessensspielraum eingeräumt werden, der sinnvolle Lösungen ermöglicht. 2. Bei allem Bestreben um Knappheit sollen im Regest sämtliche im Dokument genann- ten Namen, Körperschaften und Orte erfasst werden. So also werden aus dem ange- gebenen Briefbeispiel sowohl Hans von Behring als Person, Karlsruhe als Ort und die Kadettenanstalt als Körperschaft aufgenommen. Sie sind über die Suchmaske zu fin- den. Diese Regel gewährleistet die Identifizierung und Registrierung aller im Nachlass auf irgendeine Weise auftauchenden Personen, Körperschaften und Orte. 24 Vgl. ENKE 2011, S. 118–121.89 Ulrike Enke2.2.2. Zwei Beispiele Das Verfahren der Regestierung soll am Beispiel des in Abbildung 1 abgedruckten Doku- ments erläutert werden: Es handelt sich um einen Brief des Bakteriologen Il’ja Mečnikov (1845–1916) an den Marburger Kollegen vom 24. November 1895. In dem vierseitigen Schreiben werden eine französische Auszeichnung an Behring, der wissenschaftliche Austausch mit dem englischen Physiologen Frederick Ransom und die rheumatische Krankheit von Ol’ga Mečnikova erwähnt; daneben gibt es eine Nachfrage zur Tetanus- arbeit von Angelo Knorr. Eine historisch-kritische Briefausgabe würde das Schreiben nun bezüglich der Beziehungen zwischen den fünf beteiligten Personen beleuchten und eventuell auch diskutieren, inwieweit aus medizinischer Sicht die Einimpfung des Diph- therieserums tatsächlich gegen rheumatische Beschwerden helfen kann. Recherchiert würde dabei unter anderem, ob zeitgenössische Publikationen mit wissenschaftlichen Versuchsbeschreibungen zur Rheumabehandlung zu finden sind. Eine solche zeitaufwendige Recherche kann eine Regestierung natürlich nicht leisten. Zu bedenken ist dabei auch, dass pro Dokument nur 45 Minuten Bearbeitungszeit angesetzt wurden, die das Lesen des in der Regel handschriftlich verfassten Textes, das Verstehen der inhaltlichen Zusammenhänge, das sinnvolle Regestieren sowie das Ermitteln der er- wähnten Personen – inklusive der Entschlüsselung der indirekten Nennungen wie ›mein Marburger Kollege‹ oder ›Ihr junger Schüler‹ – beinhalten. Um die Transformation vom Brief zum Regest zu veranschaulichen, soll zunächst der Brief Il’ja Mečnikovs transkribiert werden: »Institut Pasteur 25, Rue Dutot, Paris, le 24 November 95. Hochverehrter Herr College, Ich beeile mich Ihnen zu antworten, dass die Pariser Academie der Wissenschaften Ihnen einen Preis von 25.000 Francen für die Entdeckung des Heilmittels gegen die Diphteritis zuertheilt hat. Dies wird öffentlich den Montag, 9 December, verkündet. Ich gratulire Sie vom Herzen und freue mich sehr für diese neue Anerkennung Ihrer grossen Verdienste. Ihre Depesche aus Capri habe ich rechtzeitig erhalten. Es wundert mich, dass Sie die Ant- wort nicht bekommen hatten. Ich habe Herrn Ransom für die Zusendung des Choleraserums gedankt. Gegenüber le- benden Vibrionen hat dasselbe noch eine stärkere Wirkung, als die von Ransom angege- bene, geäussert. Als ich damit einen antitoxischen Effect erzielen wollte, gab ich einem Meerschweinchen 4 c.c. Serum neben 2 c.c. Toxin. Das Meerschweinchen ist daraufhin gestorben. Es hat sich aber später herausgestellt, dass die Toxindosis eine zu starke, min- destens 4mal tödtliche, war. Nach Ihrer Angabe war das Serum nur gegen dreifache Dosis antitoxisch. Ich habe auch einen Versuch mit Kaninchencholera gemacht, aber mit negati- vem Resultate. Leider war die zugesandte Serummenge zu gering, um die Sache gründlich zu untersuchen.90 Der Einsatz von Regesten bei der Erschließung und Onlinerecherche handschriftlicher DokumenteDa wir uns über Serum unterhalten, will ich Ihnen noch Folgendes erzählen. Indem meine Frau im vorigen Jahr bemerkt hatte, dass das Diphterieserum [sic!] sie von rheuma- tischen Leiden am linken Arme geheilt hatte, liess sie vor 14 Tagen sich 10 c.c. Diptherie- serum [sic!] in den rechten Arm einspritzen, wo sie so starke rheumatische Schmerzen fühlte, dass sie fast nicht mehr arbeiten konnte. Die Reaction war eine sehr starke. Sie hat binnen 10 Tage gefiebert und zwei Mal ein scharlachförmiges Exanthem am ganzen Kör- per gehabt. Jetzt geht es ihr schon viel besser und sie hat gemerkt, dass der rechte Arm fast schmerzlos geworden ist. Also eine neue Anwendung Ihres Serums. Meine Frau lässt Sie bestens grüssen. Ich thue dies auch meinerseits. Ihr hochachtungsvoll ergebenster El. Metschnikoff PS.: Wo und wann erscheint die Arbeit von Knorr über Tetanus?« Das Regest dazu lautet: »Die Pariser Akademie der Wissenschaften erteile B. den Diphtheriepreis über 25.000 Francs für die Entdeckung des Diphtherieheilmittels. Am 09.12.1895 werde dies öffent- lich verkündet. Gratulation. Das von Ransom zugesandte Choleraserum zeige eine starke Wirkung gegenüber lebenden Vibrionen. Über Versuche mit Meerschweinchen und Ver- suche mit Kaninchencholera. Das Diphtherieserum habe M.s Frau von rheumatischen Leiden am Arm geheilt. Angaben zum Verlauf der Heilung. Rückfrage zur Tetanusarbeit von Knorr [= Experimentelle Untersuchungen über die Grenzen der Heilungsmöglich- keit des Tetanus durch Tetanusheilserum, Marburg: Pfeil, 1895 – Habil.-Schr. vom 08.02.1895].« Die Metadaten beinhalten aber noch weitere Informationen, so die Entschlüsselung der Hinweise auf die Personen, hinter denen sich der englische Physiologe und Assistent Behrings Frederick P. Fisher Ransom (1850–1937), die russische Zoologin und zweite Frau Mečnikovs Ol’ga Nikolaevna Mečnikova (* um 1861) und der deutsche Bakterio- loge und Behring-Schüler Angelo Knorr (1864 –1899) verbergen (siehe Abb. 3). Wird mithilfe der Datenbanksuchmaske nach Ol’ga Mečnikova gesucht, wird dank der Verlin- kung mit der Personennamendatei (PND) der Brief vom 24. November 1895 angezeigt, auch wenn der Name der gesuchten Person – hier »M.s Frau« – nicht explizit im Original- dokument und auch nicht im Regest (!) ausgeschrieben wurde. Schließlich sei erwähnt, dass umfangreiche Dokumente, die aus Stoff- und Literatur- sammlungen bestehen, große Probleme bereiten, da auch hier die Regel der kompletten Namensaufnahme befolgt werden muss. Hierzu noch ein abschließendes Beispiel aus ei- nem unveröffentlichten Manuskript Behrings. Es handelt sich um eine Materialsamm- lung zu Entzündung, Sepsis und Antisepsis, aus der zu entnehmen ist, mit welchen Pro- blemen und mit welchen Autoren sich Behring im Jahr 1882 beschäftigte und welche Literatur er zu dieser Zeit studierte. Die im Dokument aufgeführten Namen sind rot markiert (siehe Abb. 4). Die Personen können nun dank der Verknüpfung mit der PND oder mit anderen Onlinediensten rasch identifiziert werden. In der Druckfassung einer Briefregestausgabe oder Werkedition würden dies die Anhänge (Personen-, Orts- und Sachregister bzw. Glossare) und die ergänzenden Kommentierungen leisten.91 Ulrike EnkeAbb. 3: Regest mit den sichtbar gemachten Verweisen auf Personen und Körperschaften; Quelle: eigene Darstellung. Abb. 4: Beispiel für die Erschließung eines Werkmanuskripts mit Regest und Personenverzeichnis (Ausschnitt), EvB/W 21; Quelle: Behring-Nachlass digital.92 Der Einsatz von Regesten bei der Erschließung und Onlinerecherche handschriftlicher Dokumente3. Diskussion – offene Fragen 1. Für das Verfassen von Regesten können zwar allgemeine Regeln erstellt werden, im konkreten Fall muss aber immer wieder entschieden werden, welche Inhalte und Aus- sagen eines Dokuments als wesentlich einzustufen sind. Um aber »alles Wesentli- che«,25 das Essenzielle, herausfiltern und benennen zu können, bedarf es kompeten- ter Bearbeiter mit einschlägigen Vorkenntnissen über die Materie selbst und über die Kontexte, in welche die Inhalte möglicherweise integriert sind – auch im Hinblick auf zukünftige wissenschaftliche Fragestellungen. Das sollte ebenfalls bei zukünftigen Diskussionen über Modelle zur Bereitstellung von Nachlässen im Internet berück- sichtigt werden. 2. Gerade das Internet als Container nahezu unendlich vieler Informationen profitiert von inhaltlicher Strukturierung, wie sie durch den Einsatz von Regesten geschieht; erst durch die Ordnung, Bewertung und Auswahl wird Wissen generiert. Erst durch bestimmte Operationen wie Selektion und Ermessen der Geltung26 fungiert das Netz nicht mehr nur als Informations-, sondern auch als Wissensspeicher. 3. Neben faktischen Aussagen enthalten Textdokumente auch indirekte, schwer fass- bare Informationen, die quasi zwischen den Zeilen geschrieben stehen und sich bis- weilen auch in der Materialität – vom Schriftbild bis zur Wahl eines bestimmten Pa- piers – vermitteln. Besonders kommt dies bei Texten mit speziellen kommunikativen Funktionen zum Tragen, insbesondere bei Brieftexten. In Briefen werden nicht nur Fakten kurz und knapp mitgeteilt, Briefe sind auch Selbstzeugnisse, die der bewussten oder unbewussten Selbstinszenierung dienen. Wie sind unter diesem Gesichtspunkt Einlassungen, Auslassungen, Anspielungen zu fassen? Wie sind die durch den Stil er- zeugten Stimmungen im Regest wiederzugeben? Wie ist mit charakteristischen, bei- spielsweise mit umständlichen oder bild- und metaphernreichen Schreibstilen umzu- gehen? Hier sind kreative Lösungen erforderlich, welche die Grenzen der historischen Vorgaben überschreiten.27 4. Fazit Bei der Sicherung von Nachlässen stellt die Digitalisierung erhaltenswerter Dokumente heute oft den einzigen Weg dar, das historische Erbe zu erhalten, zu archivieren und gleichzeitig für größere Nutzerkreise über das Internet zeit- und ortsunabhängig zugäng- lich zu machen. Die Onlinestellung von Digitalisaten in Verknüpfung mit Regesten macht es möglich, alle in der Datenbank enthaltenen Dokumente durch die gezielte Ab- 25 HEINEMEYER 1965, S. 2. 26 Vgl. HAUSER 2011, S. 33. 27 Im Falle der Behring-Briefregesten durch Benennung des Stils mithilfe von Adjektiven: »poetischer Text [...] über die Alpenreise«, »ausführliche Beschreibung von Symptomatik und Krankheitsverlauf«, »wort- reiche Verteidigung« etc.; Datenbank ›Behring-Nachlass digital‹, Beispiele aus EvB/L 258, EvB/B 22/1 und EvB/B 25/2.93 Ulrike Enkefrage nach Personen, Orten oder Schlagworten zu sortieren und Gesuchtes schnell und umfassend aufzufinden; denn jedes Wort des Regests ist auch ein potenzieller Suchbe- griff. Das im Idealfall von Fachwissenschaftlern verfasste Regest, das die wesentlichen Aussagen des Dokuments wiedergeben soll, ist dabei zwar immer nur ein komprimierter Ersatz für das Original, es kann aber eine nützliche Einstiegs- und Orientierungshilfe bei der weiteren Erschließung eines Nachlasses sein. Zu bedenken ist dabei stets, dass beim Verfassen von Regesten jegliche Entscheidung für das ›Wesentliche‹ von vielen Faktoren abhängt und nie objektiv sein kann. Die Vorteile der Digitalisierung von Archivalien liegen auf der Hand, und das Faksimile auf dem heimischen Bildschirm ist die bequeme Alternative zum Archivbesuch. Be- schäftigt man sich aber intensiver mit einem prominenten Erblasser wie in unserem Falle Behring, kann das Abbild Appetit wecken auf das Original und den physischen Be- such im Archiv. Hier sind die Gespräche mit den Betreuern des Nachlasses möglich, hier sind eventuell überraschende Entdeckungen zu machen und hier sind die Doku- mente in ihrer Materialität und Stofflichkeit zu sehen, zu fühlen und zu riechen – und vielleicht ist damit noch etwas von der ursprünglichen Atmosphäre und vom Geist des ehemaligen Besitzers und seiner Zeit zu erspüren. Ich danke den Teilnehmern der III. Tagung ›Technik und Kultur – Digitalisierung und Bewahrung des digi- talen kulturellen Erbes‹ für die anregenden Diskussionen und Christian Thomas, Berlin, für förderliche Nachfragen und Denkanstöße im Vorfeld meines Vortrags.94 Der Einsatz von Regesten bei der Erschließung und Onlinerecherche handschriftlicher DokumenteLiteraturverzeichnis BALZ, Viola; BÜRGI, Michael; ESCHENBRUCH, Nicholas; HULVERSCHEIDT, Marion (2008): Magic Bullets, chemische Knebel, beherrschte Risiken? Zum Arbeitsfeld des DFG-Forschungsnetz- werks ›Arzneistoffe im 20. Jahrhundert‹ / Magic Bullets, Chemical Gagging, Controlled Risks? On the Research of the Network ›Pharmaceuticals in the 20th Century‹ of the German Research Foundation (DFG). In: Medizinhistorisches Journal, Jg. 43, H. 2, S. 183–201. DFG (Hg.) (2013): DFG-Vordruck 12.15 03/13. Merkblatt Erschließung und Digitalisierung; http://www.dfg.de/formulare/12_15/12_15_de.pdf [07.07.2014]. DILGER, Janet (2009): Bibliothekarische und archivische Nachlasserschließung – Methoden und Findmittel / Description and Indexing of Literary Remains in Libraries and Archives – Meth- ods and Finding Aids. Bachelorarbeit Hochschule der Medien Stuttgart; http://opus.bsz- bw.de/hdms/volltexte/2009/673/pdf/Dilger_Nachlasserschliessung.pdf [07.07.2014]. ENKE, Ulrike; KAHLER, Martina (2014): Behring-Nachlassprojekt erfolgreich abgeschlossen. In: Archivnachrichten aus Hessen, Jg. 14, H. 1, S. 64 –66. ENKE, Ulrike (2013): Behring als Leser. Zur Erfassung der Privatbibliothek im Nachlass Emil von Behrings. In: Archivnachrichten aus Hessen, Jg. 13, H. 1, S. 30–33. DIES. (2011): Behrings Briefe neu gelesen. Zum Briefnachlass Emil von Behrings im Behring- Archiv in Marburg. In: SAHMLAND, Irmtraut; GRUNDMANN, Kornelia (Hg.): Perspektiven der Medizingeschichte Marburgs. Neue Studien und Kontexte (= Quellen und Forschungen zur hessischen Geschichte, 162). Darmstadt/Marburg: Selbstverlag der Hessischen Histori- schen Kommission, S. 103–127. DIES.; FRIEDRICH, Christoph; GRUNDMANN, Kornelia (2009): Emil von Behring: „Beste Grüße Dein P. Ehrlich“. Zum Marburger Briefnachlass des großen Forschers. In: Deutsches Ärzte- blatt, Jg. 106, H. 51–52, S. 2557–2558. FRIEDRICH, Christoph (2011): Die Anfänge der Behringwerke unter der Geschäftsführung von Dr. Carl Siebert (1863–1931) – ein Werkstattbericht. In: SAHMLAND, Irmtraut; GRUND- MANN, Kornelia (Hg.): Perspektiven der Medizingeschichte Marburgs. Neue Studien und Kontexte (= Quellen und Forschungen zur hessischen Geschichte, 162). Darmstadt/Mar- burg: Selbstverlag der Hessischen Historischen Kommission, S. 87–102. FUCHS, Konrad; RAAB, Heribert (Hg.) (1983): dtv-Wörterbuch zur Geschichte. Band 2: Konz–Z. 5. Aufl. München: Deutscher Taschenbuch Verlag. GRUNDMANN, Kornelia; FRIEDRICH, Christoph (2012): Zur Geschichte der Tuberkulosebehand- lung – Nicht nur eine Erfolgsstory. In: Pharmazie in unserer Zeit. Themenheft Tuberkulose- Therapeutika, Jg. 41, H. 1, S. 10–18. HAUSER, Robert (2011): Der Modus der kulturellen Überlieferung in der digitalen Ära – zur Zu- kunft der Wissensgesellschaft. In: ROBERTSON-VON TROTHA, Caroline Y.; DERS. (Hg.): Neues Erbe. Aspekte, Perspektiven und Konsequenzen der digitalen Überlieferung (= Kulturelle Überlieferung – digital, 1). Karlsruhe: KIT Scientific Publishing, S. 15–38. HEINEMEYER, Walter (1965): Richtlinien für die Regestierung von Urkunden. Herausgegeben vom Arbeitskreis für Editionsgrundsätze. In: Blätter für deutsche Landesgeschichte. Neue Folge des Korrespondenzblattes, Jg. 101, S. 1–7. HÜNTELMANN, Axel C. (2011): Paul Ehrlich. Leben, Forschung, Ökonomien, Netzwerke. Göt- tingen: Wallstein Verlag.95 Ulrike EnkeJANSEN, Leo; LUIJTEN, Hans; BAKKER, Nienke (Hg.) (2013): Vincent van Gogh – The Letters. Version: October 2013; http://vangoghletters.org [07.07.2014]. LINTON, Derek S. (2005): Emil von Behring: Infectious Disease, Immunology, Serum Therapy (= Memoirs of the American Philosophical Society, 255). Philadelphia: American Philosophi- cal Society. MOISY, Sigrid von (1982): Aufstellung und Signierung von Nachlässen und Autographen. In: Bibliotheksforum Bayern, Jg. 10, H. 1, S. 25– 41. NEUMÜLLERS-KLAUSER, Renate (Hg.)(1999): Res medii aevi. Kleines Lexikon der Mittelalter- kunde. Wiesbaden: Harrassowitz. Regeln zur Erschließung von Nachlässen und Autographen (RNA). Betreut von der Staatsbiblio- thek zu Berlin – Preußischer Kulturbesitz und der Österreichischen Nationalbibliothek Wien; http://www.kalliope-portal.de/verbund/RNAfinal.pdf [07.07.2014]. ZEISS, Heinz; BIELING, Richard (1941): Behring. Gestalt und Werk. 2., überarb. Aufl. Berlin: Bruno Schultz Verlag. DIES. (1940): Behring. Gestalt und Werk. 1. Aufl. Berlin: Bruno Schultz Verlag. Im Text erwähnte Webseiten LIS – Wissenschaftliche Literaturversorgungs- und Informationssysteme, DFG: http://www.dfg.de/foerderung/programme/infrastruktur/lis Digitale Nachlässe BEHRING, Emil von: http://www.uni-marburg.de/behring-digital BRÜMMER, Franz: http://bruemmer.staatsbibliothek-berlin.de/nlbruemmer GOGH, Vincent van: http://www.vangoghletters.org SAVIGNY, Friedrich Carl von: http://savigny.ub.uni-marburg.de96 Dokumentationssystem für digitale Rekonstruktionen am Beispiel der Kaiserlichen Grabanlage Zhaoling Mieke Pfarr-Harfst Ausgangspunkt für die Entwicklung eines Dokumentationssystems für digitale Rekon- struktionen war die von der UNESCO 2003 herausgegebene »Charta zur Bewahrung des digitalen Kulturerbes«. Hierin wird das digitale Kulturerbe wie folgt definiert: »Das digitale Erbe besteht aus einzigartigen Quellen menschlichen Wissens und menschli- cher Ausdrucksweisen. Es umfasst Quellen aus Kultur, Bildung, Wissenschaft und Ver- waltung [...], die digital erstellt oder von existierenden analogen Datenträgern in digitale Form konvertiert wurden.«1 Die UNESCO warnt hier deutlich vor dem Verlust dieses Wissens und ruft zur Erarbei- tung von Strategien und Lösungen zur Bewahrung dieses Erbes auf.2 Nach dieser oben genannten Definition der UNESCO sind die digitalen Rekonstruktionen (z.B. von Ge- bäuden oder architektonischen Strukturen) als Teil des digitalen Kulturerbes anzusehen und es ist notwendig, das darin enthaltene Wissen zu bewahren. Denn als Schnittmenge verschiedener Wissenschaftsdisziplinen, vor allem der Architektur, Baugeschichte und Archäologie verdichten sie Wissen und werden zum Werkzeug der Wissenschaft und zum Träger kulturellen Erbes. Grundlagen Die digitale Rekonstruktion ist eine auf dem Prinzip der Digitalität basierende Nachbil- dung eines nicht mehr sichtbaren oder nicht mehr vorhandenen Gebäudes, einer Stadt- anlage, einer baulichen Struktur oder eines die bauliche Struktur beeinflussenden Ereig- nisses. Sie entsteht auf Grundlage wissenschaftlicher Erkenntnisse und weiterer Quellen menschlichen Wissens.3 Die umfangreiche Beschäftigung mit dem zu rekonstruierenden Bauwerk, die Fusionierung der Quellen sowie die stete Diskussion mit Experten ist die inhaltliche Grundlage. Das technische System, welches sich aus Hard- und Software zu- sammensetzt, bildet die technische Grundlage. Die digitale Rekonstruktion ist demnach eine Synthese aus Quellen, dem historischen und kulturellen Kontext, den Projekthinter- gründen und dem Rekonstruktionsprozess. Alle Informationen werden gesammelt, ver- dichtet, gefiltert und zu einem stimmigen Bild zusammengefügt. Ergebnis ist ein digita- ler Datensatz, der sowohl für die Forschung als auch für die Wissensvermittlung aufbereitet werden kann. 1 UNESCO 2003. 2 Vgl. ebd. 3 Vgl. GRELLERT 2007 und PFARR 2010.97 Mieke Pfarr-HarfstPotenziale digitaler Rekonstruktionen Begründet auf der Digitalität und der Dreidimensionalität der Darstellung, gekoppelt mit der Bildsprache als Universalsprache ergeben sich Potenziale der digitalen Rekonstruk- tion, die sich auf deren Bedeutung in Wissenschaft und Vermittlung auswirken. Diese drei Eigenschaften werden in der digitalen Rekonstruktion zu einer Einheit und sie wer- den zum Werkzeug der Wissenschaft und der Vermittlung.4 Die Vielfalt in den Ausga- beformen auf Grundlage der Digitalität, vielleicht das wichtigste Potenzial der digitalen Rekonstruktion, macht eine differenzierte Umsetzung hinsichtlich der gegebenen An- forderungen und Zielgruppen möglich, sodass neue Wissensräume eröffnet werden und das Wissen demokratisiert wird.5 Dieses Potenzial ist sowohl für den Bereich der Wis- sensvermittlung als auch der Forschung von Bedeutung und steht mit weiteren Potenzi- alen und deren Bedeutung in engem Zusammenhang. Die Möglichkeiten, Wissen darzustellen, reichen von der einfachen Beschreibung in Texten über die Präsentation mittels Bildern und Schautafeln bis hin zu den interaktiven Präsentationstechniken. Das Wissen muss so aufbereitet und dargestellt werden, dass ohne Vorkenntnisse der Materie ein Erkenntnisgewinn stattfinden kann. Die digitalen Rekonstruktionen bieten hier ein weites Einsatzfeld und sind beispielsweise in Museen, die klassischen Zentren der für ein breites Publikum angelegten Wissensvermittlung, fes- ter Bestandteil und unverzichtbares Mittel in der modernen Museumspädagogik. Aufgrund der Flexibilität der Ausgabeformen und der damit verbundenen Vielfalt in den Einsatzmöglichkeiten hat die digitale Rekonstruktion auch als wissenschaftliche Me- thode an Bedeutung gewonnen. Auch hier reicht das Spektrum von der einfachen bildli- chen Darstellung in wissenschaftlichen Abhandlungen über die Anwendung als Modell, gekoppelt mit einer Datenbank, bis hin zum interaktiven, offenen Forschungsmodell. Ein weiteres Potenzial digitaler Rekonstruktionen liegt darin, komplexe Zusammen- hänge inhaltlich und räumlich anschaulich und verständlich darzustellen. »Die realistische, dreidimensionale Darstellung von Objekten und Gebäuden, gekoppelt mit Techniken der Visualisierung […] kann z.B. Informationen über Architektur und ihre zeitliche Veränderung vermitteln.«6 Sowohl im wissenschaftlichen Arbeitsprozess als auch in der Wissensvermittlung kön- nen so komplexe und bis dato vor Ort nicht ersichtliche Gebäudestrukturen erfasst und Zeitschichten sichtbar gemacht werden. Für den wissenschaftlichen Arbeitsprozess wird das digitale Modell somit zum Werkzeug, um offene Fragen bezüglich einer räumlichen Struktur oder eines zeitlichen Kontextes zu untersuchen und neue Lösungsansätze zu finden. Oft eröffnen sich bis dahin nicht erkennbare Zusammenhänge und damit ein Er- 4 Vgl. GRELLERT 2007 und PFARR 2010. 5 Vgl. KOOB 2001, S. 49. 6 LUTZ 2001, S. 105.98 Dokumentationssystem für digitale Rekonstruktionen am Beispiel der Kaiserlichen Grabanlage Zhaolingkenntnisgewinn. In der experimentellen Archäologie werden digitale Modelle daher ein- gesetzt, um zum einen Funde räumlich und zeitlich zu verorten und zum anderen die Orientierung innerhalb komplexer Gebäudestrukturen zu erleichtern. In der Wissensvermittlung sind die digitalen Rekonstruktionen aufgrund dieses Potenzi- als und in Zusammenhang mit der Bildsprache zu einem der wichtigsten Werkzeuge ge- worden. Der Weg der Vorstellung wird vereinfacht, der Besucher fühlt sich als Teil der virtuellen Welt und vor Ort nicht mehr Sichtbares wird präsent und nachvollziehbar. Ar- chitekturräume können erlebt und der historische Ort sowie das Gewesene bewusst ge- macht werden. Die Quellenlage und das Wissen um historische Gebäude, Anlagen oder Objekte sind nie vollständig, sondern immer fragmentarisch. Rekonstruktionen – analog und digital – beruhen daher auf den dem wissenschaftlichen Kenntnisstand angepassten Thesen, für die oft verschiedene Varianten möglich sind. Durch die Eigenschaften der digitalen Rekonstruktionen können solche Rekonstruktionsvarianten ins dreidimensio- nale Modell umgesetzt und der Wissenschaft sowie der Wissensvermittlung zur Verfü- gung gestellt werden. Die Wissenschaft hat somit die Möglichkeit, ihre Thesen in der Dreidimensionalität zu überprüfen und zu neuen Erkenntnissen zu gelangen. Wider- sprüche bisheriger Rekonstruktionsversuche werden aufgedeckt und es kann nach neuen Lösungen gesucht werden. Ein schnelles Austauschen der einzelnen Bauelemente er- möglicht beispielsweise das Durchdenken mehrerer möglicher konstruktiver Varianten für ein baukonstruktives Problem. In der Wissensvermittlung können so die unter- schiedlichen Lösungsansätze dargestellt und dem Laien erläutert werden. Forschungser- gebnisse und das darin enthaltene Wissen werden verbreitet und demokratisiert. Die Wissensverdichtung, -fusionierung und die Verifizierung des Wissens sind weitere Potenziale der digitalen Rekonstruktion, die eng mit den bereits genannten in Beziehung stehen. Im interdisziplinären Arbeitsprozess des digitalen Rekonstruierens wird Wissen von unterschiedlichen Experten bzw. Quellen zusammengetragen und bei der Umset- zung in das digitale Modell fusioniert und verdichtet. Fehlerhafte und unzureichende In- formationen oder Quellen sowie falsche Lösungsansätze können durch die Dreidimensi- onalität und den damit gegebenen Vergleich der Informationen identifiziert werden.7 Forschungsergebnisse und neueste Erkenntnisse aus verschiedenen Fachdisziplinen flie- ßen in das digitale Modell mit ein und das sonst verstreute Wissen wird in der Dreidi- mensionalität gebündelt. Gleichzeitig können neue Lösungsansätze erarbeitet und an- schließend verifiziert werden. Das Ergebnis dieses wissenschaftlichen Prozesses und der damit einhergehenden Wissensfusionierung ist anschließend in der Wissensvermittlung einsetzbar. Aufgrund dieser Potenziale dienen digitale Rekonstruktionen der Wissenschaft als Werkzeug, um falsche Informationen zu identifizieren, Quellen zu verifizieren und im interdisziplinären Austausch neue Lösungen zu finden. Nicht die am Ende stehenden dreidimensionalen Bilder, sondern der Prozess der Modellerstellung ist entscheidend, die digitale Rekonstruktion wird zur Diskussionsgrundlage und zum Arbeitsobjekt der 7 Vgl. KOOB 1995b, S. 23.99 Mieke Pfarr-Harfstneuen Forschergeneration. Gekoppelt an Datenbanken und die verschiedenen Ausgabe- formen wird sie mittlerweile auch oft zur Dokumentation von Forschungsergebnissen eingesetzt. Am Ende stehen immer der Erkenntnisgewinn und das in den Modellen ent- haltene Wissen, das geschützt werden muss. Manfred Koob formuliert dies so: »Die neue Technik bietet uns eine Chance, das erworbene Wissen neu aufzuarbeiten, es von seinen Fehlern zu befreien, es mittels der Technik in vollkommen neue Zusammen- hänge zu stellen.«8 Grenzen digitaler Rekonstruktionen Mit den oben erläuterten Potenzialen der digitalen Rekonstruktionen und der damit ein- hergehenden zunehmenden Verbreitung sind nicht nur positive, sondern auch negative Effekte verbunden.9 So erzeugen die digitalen Rekonstruktionen bei dem Betrachter Bil- der im Kopf, dies begründet sich auf das Potenzial, räumliche Zusammenhänge durch die Bildsprache und die dreidimensionale Darstellung zu vermitteln. Ein unreflektierter Umgang mit diesen Bildern, eine nicht wissenschaftliche Basis hinter den visuellen Ein- drücken können zur Verbreitung von Fehlinformationen beitragen. In allen bisher ange- sprochenen Medien wie Internet, Fernsehen und Museen fehlt die Kontrolle über dem hinter einem solchen Projekt stehenden wissenschaftlichen Anspruch. Die Quellenlage und die Entstehung der digitalen Rekonstruktion sind nicht nachvollziehbar, sodass sich oft fehlerhafte Bilder im Gedächtnis der Benutzer festsetzen. Die hinter einer solchen Rekonstruktion stehenden Datensätze werden daher nicht als Ergebnis intensiver wis- senschaftlicher Arbeit wahrgenommen, sondern nur als Grundlage visueller Ereignisse. Sicherlich ist auch die ansteigende Zahl der Anwender, die mit verschiedenen Aspekten zusammenhängt, ein zunehmendes Problem. Denn nicht nur Fachleute aus wissen- schaftlichen Fachdisziplinen, sondern auch Fachfremde erstellen digitale Rekonstruktio- nen. Mögliche Fehler in der Rekonstruktion, die Fehlinterpretation von Quellen oder, speziell auf Gebäuderekonstruktionen bezogen, Irrtümer in der Konstruktion oder den Fügungsprinzipien eines Gebäudes sind für den Laien nicht erkennbar. Fehlt an dieser Stelle der wichtige Aspekt der Verifizierung und der Kontrolle, hier sei nochmals auf den alternierenden Entstehungsprozess bei einer digitalen Rekonstruktion verwiesen, werden Fehlinformationen verbreitet. Das Internet als Plattform der Wissensvermittlung gerade für die junge Generation ist zum einen für die Demokratisierung des Wissens unabdingbar. Zum anderen aber bildet das Internet durch die fehlende Kontrollinstanz hinsichtlich der Wissenschaftlichkeit das größte Risiko. ›Google Earth‹ und das darin verfügbare ›3D Warehouse‹ sind für die rasante Verbreitung offensichtlich falschen und unreflektierten Wissens durch digitale Rekonstruktionen ein gutes Beispiel.10 8 Ebd., S. 13. 9 Vgl. PFARR 2010. 10 3D Warehouse; https://3dwarehouse.sketchup.com [07.07.2014].100 Dokumentationssystem für digitale Rekonstruktionen am Beispiel der Kaiserlichen Grabanlage ZhaolingDoch nicht nur die dreidimensionale Darstellung und die Fähigkeit, räumliche Eindrü- cke zu vermitteln, zählen zu den Kritikpunkten hinsichtlich der digitalen Rekonstruktio- nen, sondern auch technische und archivarische Aspekte. Diese betreffen allerdings nicht die Verbreitung von Fehlinformationen, sondern einen Verlust des Wissens – wie in der UNESCO-Charta beschrieben. Hier sind drei Aspekte von Bedeutung: die stete und schnelle Weiterentwicklung der Technik auf diesem Gebiet, die fehlende Dokumen- tation des Entstehungsprozesses und des Wissens sowie die am Ende stehende fachge- rechte Archivierung und Pflege der Daten und Datensätze. Fehlt eine solche Dokumen- tation, fehlt am Ende auch das Wissen. An dieser Stelle sind nicht nur die Technik, sondern auch die an dem jeweiligen Projekt arbeitenden Menschen als Wissensträger zu nennen. Sind Personen, die Mitarbeiter bei einem Rekonstruktionsprojekt waren, nicht mehr an dem jeweiligen Institut, geht auch ein großer Teil des Wissens verloren. Die konsequente Aufbereitung der wissenschaftlichen Grundlage und des im Projekt enthal- tenen Wissens ist daher unabdingbar. Alle Kritikpunkte beziehen sich letztendlich auf den Verlust von Wissen oder die Wei- tergabe falschen Wissens. Beides bedeutet eine Schwächung und Minderung des digital rekonstruierten Weltkulturerbes zum einen in der Qualität, zum anderen in der Quan- tität. Die Einführung einer Zertifizierung oder eines Verfahrens zum Nachweis der Wissenschaftlichkeit und der Pflicht zur systematischen Archivierung und Pflege der Daten könnten die Potenziale der digitalen Rekonstruktionen stärken und die Risiken vermindern. Digitale Rekonstruktionsprojekte Ein kurzer Querschnitt durch digitale Rekonstruktionen, die am Fachgebiet Informa- tions- und Kommunikationstechnologie in der Architektur an der Technischen Univer- sität Darmstadt entstanden sind, soll durch die Nennung des Kontexts, der Ziele und Projektpartner konkret verdeutlichen, wie viel Wissenspotenzial in digitalen Rekonstruk- tionen vorhanden ist und bei nicht sachgemäßer Archivierung verloren zu gehen droht. Das Projekt ›Moskauer Kreml – 850 Jahre Baugeschichte im Computer‹11 wurde von 2002 bis 2006 durchgeführt. Ziel war es, den Moskauer Kreml zu erforschen, zu doku- mentieren, zu digitalisieren und der Wissenschaft zugänglich zu machen (siehe Abb. 1). Als Projektpartner waren das Staatliche Historische Museum Moskauer Kreml, die Staatliche Russische Geisteswissenschaftliche Universität und die Kunst- und Ausstel- lungshalle der Bundesrepublik Deutschland in Bonn involviert. Die Ergebnisse wurden in der Ausstellung ›Der Kreml – Gottesruhm und Zarenpracht‹ in der Kunst- und Aus- stellungshalle gezeigt. 11 Vgl. Technische Universität Darmstadt, Fachgebiet Informations- und Kommunikationstechnologie in der Architektur 2006. Siehe auch http://www.ika.architektur.tu-darmstadt.de/ika/projekte_ika/ projekte_22.de.jsp [07.07.2014].101 Mieke Pfarr-HarfstAbb. 1: Kreml in Moskau; Quelle: TU Darmstadt, FG IKA, 2006. Mittels der digitalen Rekonstruktion ›Ephesos in byzantinischer Zeit‹12 sollten alle zugäng- lichen Informationsunterlagen wie Textquellen, archäologische Befunde, Zeichnungen, Pläne etc. verräumlicht sowie das Wissen aus hundert Jahren Grabungen zusammengeführt und sichtbar gemacht und der Wissensstand anhand der digitalen Modelle konkretisiert werden (siehe Abb. 2). Das Projekt wurde von 2007 bis 2010 mit folgenden Projektpart- nern durchgeführt: dem Österreichischen Archäologischen Institut (ÖAI), der Österreichi- schen Akademie der Wissenschaften (ÖAW), dem Römisch-Germanischen Zentralmu- seum Mainz (RGZM) sowie den Technischen Universitäten München und Wien. Abb. 2: Johannesbasilika in Ephesos; Quelle: TU Darmstadt, FG IKA, 2010. 12 Vgl. DIES. 2010. Siehe auch http://www.ika.architektur.tu-darmstadt.de/ika/projekte_ika/projekte_22.de.jsp [07.07.2014].102 Dokumentationssystem für digitale Rekonstruktionen am Beispiel der Kaiserlichen Grabanlage ZhaolingDas Projekt ›Rekonstruktion des Dresdner Schlosses‹13 wurde u.a. gemeinsam mit den Staatlichen Kunstsammlungen Dresden – Grünes Gewölbe, dem Landesamt für Denk- malpflege Sachsen und dem Landesamt für Archäologie durchgeführt. Projektziel war, das Schloss in seinem baulichen Zustand von 1678 sichtbar zu machen sowie sechs wei- tere Bauphasen (Abb. 3). Die dahinterliegende Intention ist, gerade die Teile des Schlos- ses virtuell darzustellen, die in dieser Art nicht wieder aufgebaut werden sollen, wie z.B. die Schlosskapelle oder der Riesensaal. Abb. 3: Dresdner Schloss; Quelle: TU Darmstadt, FG IKA, 2011. Die digitale Rekonstruktion des Crystal Palace in London14 verfolgte als Ziel die klassi- sche Aufgabenstellung für eine digitale Rekonstruktion, die Rekonstruktion und das Sichtbarmachen eines nicht mehr vorhandenen Gebäudes und der für die damalige Zeit faszinierenden räumlichen Wahrnehmung durch einen Film in 3-D-Technik (Abb. 4). Das Ergebnis wurde in der Ausstellung ›Art and Design for all‹ in der Kunst- und Aus- stellungshalle der Bundesrepublik Deutschland in Bonn gezeigt. Die digitalen Rekonstruktionsprojekte vereinen die bereits erläuterten Potenziale sowohl auf dem Gebiet der Forschung als auch der Wissensvermittlung und die Dringlichkeit, das dort vorhandene Wissen zu sichern, wird nochmals unterstrichen. 13 Vgl. DIES. 2011b. 14 Vgl. DIES. 2011a.103 Mieke Pfarr-HarfstAbb. 4: Kristallpalast London; Quelle: TU Darmstadt, FG IKA, 2011. Das Dokumentationssystem nach dem Vier-Ebenen-System Der Wissensverlust bei digitalen Rekonstruktionen findet sowohl auf der inhaltlichen als auch auf der technischen Ebene statt. Daher muss auf der inhaltlichen Ebene der Nach- weis der Quellen und die Nachvollziehbarkeit der Herleitung der Ergebnisse gewährleis- tet werden und auf der technischen Ebene die Datenpflege und Datensicherung. Hier gilt das Stichwort ›Langzeitarchivierung‹.15 Für die Sicherung des Wissens auf der inhalt- lichen Ebene wurde eine Grundstruktur der Dokumentation entwickelt, die alle Kom- ponenten der digitalen Rekonstruktion, wie vorher vorgestellt, erfasst und auf den Grundprinzipien einer wissenschaftlichen Dokumentation basiert. Die Dokumentations- wissenschaft definiert: »Eine Dokumentation muss schlüssig, nachvollziehbar, wahr- heitsgemäß, vollständig, übersichtlich, objektiv, strukturierbar und editierbar sein.«16 Des Weiteren muss eine wissenschaftliche Dokumentation die klare Zuordnung von Objekt und Dokument, die Nachvollziehbarkeit des Arbeitsprozesses, die eindeutige Kennzeichnung der Dokumente durch die Einteilung in Gruppen und Klassen sowie die am Anfang stehende Definition individueller Regelwerke beinhalten.17 Neben den oben geforderten Prinzipien muss eine Dokumentation ähnlich der klassi- schen naturwissenschaftlichen Methode allgemeine Hintergrundinformationen zu dem Projekt, den Partnern, dem gesellschaftlichen und historischen Kontext enthalten. Vor allem muss der Entstehungsprozess mit allen Arbeitsschritten, Entscheidungen und mit- 15 Vgl. PFARR 2010. 16 Ebd., S. 82. 17 Vgl. GAUS 2005; HENZLER 1992.104 Dokumentationssystem für digitale Rekonstruktionen am Beispiel der Kaiserlichen Grabanlage Zhaolingsamt der gewählten Methoden, wie dies in den naturwissenschaftlichen Disziplinen be- reits als Standard gilt, dokumentiert und somit nachgewiesen werden. Diese Forderun- gen der Dokumentationswissenschaft wurden auf die Anforderungen der digitalen Rekonstruktionen transferiert.18 Die Prinzipien ›strukturierbar‹ und ›übersichtlich‹ be- deuten im Fall der digitalen Rekonstruktionen eine Grundstruktur aus vier Ebenen, die verbindlich für alle Rekonstruktionen festgelegt wird. Hier ist auf eine durchgängige, sinnvolle Klassifizierung der Objekte und Dokumente für den späteren Einzelnachweis zu achten. Um die Ergebnisse einer digitalen Rekonstruktion und das darin enthaltene Wissen nachvollziehbar im Sinne der Dokumentationswissenschaften zu dokumentie- ren, müssen alle Quellen, die Methodik, der Entstehungsprozess mit allen Entscheidun- gen aufgedeckt werden. Dies sollte vollständig geschehen. Lücken im derzeitigen Wis- sensstand um das Rekonstruktionsobjekt sowie dreidimensional umgesetzte Thesen müssen nachgewiesen und dargestellt werden, um dem Anspruch des wahrheitsgemäßen Dokumentierens gerecht zu werden. Das gesamte Dokumentationssystem sollte weiter- hin editierbar sein, was sich in den Klassifizierungen der Quellen und Dokumente, der Struktur des dreidimensionalen Modells widerspiegelt. Es muss möglich sein, Ergänzun- gen und Erweiterungen im Rekonstruktionsprojekt zukünftig einarbeiten zu können.19 Aus den vorgenannten Prinzipien ergibt sich als Grundstruktur für die Dokumentation einer digitalen Rekonstruktion das Vier-Ebenen-System20 mit den vier Ebenen Projekt- hintergrund, Projektkontext, zugrunde liegende Systematik der Dokumentation in Bezug auf Modellstrukturen, Quellen und den Rekonstruktionsprozess sowie die dreiteilige Nachweisebene mit einer textbasierten Baubeschreibung, Quellen- und Methodenkata- logen (siehe Abb. 5). Abb. 5: Grundstruktur des Vier-Ebenen-Systems; Quelle: PFARR 2010. 18 Vgl. PFARR 2010. 19 Vgl. DIN 2002; DIN 2008. 20 Vgl. PFARR 2010.105 Mieke Pfarr-HarfstDie erste Ebene, der Projekthintergrund, beinhaltet allgemeine Informationen über das Projekt wie dessen Förderung, Inhalte, Ziel, Anlass und die Ergebnisse, außerdem tech- nische Randbedingungen wie Hard- und Softwaresystem und Strukturen des dreidimen- sionalen Modells. In der zweiten Ebene, dem Projektkontext, ist es unabdingbar, den kulturellen, (bau-)historischen Kontext über das zu rekonstruierende Gebäude oder die Anlage darzustellen. Da jedes Rekonstruktionsprojekt über seine eigenen Gesetzmäßig- keiten wie Modellstrukturen und eine bestimmte Anzahl der zu rekonstruierenden Ob- jekte verfügt, müssen diese in der Systematik der Dokumentation, in der Strukturierung und Klassifizierung von Objekt und Dokumenten, Quellen und Rekonstruktionsprozess wiederzufinden sein. Diese individuellen Regelwerke werden in der dritten Ebene der Gesamtdokumentation aufgezeigt. Die vierte Ebene, die Nachweisebene, ist die um- fangreichste und kommt der wichtigsten Forderung der Dokumentationswissenschaft, nämlich der Eindeutigkeit in der Zuordnung von Objekt und Dokument direkt nach. Im Falle der digitalen Rekonstruktion ist das Objekt das zu rekonstruierende Bauwerk, die Anlage oder die Struktur, das Dokument sind die Quellen und der Rekonstruktionspro- zess. Hier werden die Fragestellungen, auf welchen Quellen die Rekonstruktionen basie- ren, welche Entscheidungen im Entstehungsprozess gefällt wurden und wie der Zusam- menhang zwischen Objekt, Quelle und Prozess aussieht, beantwortet (siehe Abb. 6). Abb. 6: Grundstruktur Nachweisebene; Quelle: PFARR 2010. Die vier Ebenen sollen anfangs getrennt voneinander betrachtet werden, um die Doku- mentation übersichtlich und verständlich aufzubauen. Alle diese in den einzelnen Ebe- nen enthaltenen Punkte sind wichtige Informationen zum Verständnis der Rekonstruk- tion – sie transportieren Wissen. Ein Hauptaugenmerk muss aber auf die dreiteilige vierte Ebene, die Nachweisebene, gelegt werden, die ausgehend von einer detaillierten Baubeschreibung des einzelnen Rekonstruktionsobjektes Verknüpfungen zu den soge- nannten Quellen- und Methodenkatalogen beinhaltet. Die Baubeschreibung ist textba-106 Dokumentationssystem für digitale Rekonstruktionen am Beispiel der Kaiserlichen Grabanlage Zhaolingsiert und fungiert als eine Zusammenfassung sowohl der Quellenlage als auch des Entstehungsprozesses des jeweiligen Objektes, des Weiteren sind Angaben wie Maße, Materialien, Lage und bauliche Besonderheiten enthalten. In den Quellenkatalogen (siehe Abb. 13) wird jedes einzelne Rekonstruktionsobjekt direkt mit den jeweiligen zu- grunde liegenden Quellen verknüpft, die Methodenkataloge (siehe Abb. 14) legen den Rekonstruktionsprozess dar. Die Dokumentation des Referenzprojektes Im Folgenden wird das Vier-Ebenen-System auf ein konkretes digitales Rekonstruk- tionsprojekt, das Referenzprojekt der Grabanlage am Zhaoling, Provinz Shaanxi in China, transferiert. Das Referenzprojekt wurde von 2003 bis 2006 an der TU Darmstadt, Fachgebiet Informations- und Kommunikationstechnologie in der Architektur, gemein- sam mit deutschen und chinesischen Wissenschaftlern und Studenten im Rahmen eines Wissenschaftsateliers durchgeführt. Ebene 1, der Projekthintergrund, ist im Falle des Referenzprojektes vor allem die Ein- bettung des Teilprojektes ›Grabanlage Zhaoling‹ in das Großprojekt ›Die digitale Rekon- struktion der Kaisergräber von Xi’an‹. Dessen Ziel war es, die immensen räumlichen Di- mensionen des Gebietes und die vor Ort kaum fassbare Vielfalt der archäologischen Fundstätten darzustellen. Gezeigt wurden die Ergebnisse u.a. in einer Ausstellung in der Kunst- und Ausstellungshalle der Bundesrepublik Deutschland in Bonn. Die Nennung der Projektpartner ist bei digitalen Rekonstruktionsprojekten wichtig und muss daher ebenfalls in der Ebene 1 zu finden sein. Hintergrund ist, dass durch die Offenlegung der beteiligten Wissenschaftler der Wissensstand erkennbar ist. Das Referenzprojekt Zhao- ling wurde von Professor Zhang vom Archäologischen Institut Xi’an, China, betreut. Weitere Projektpartner waren das Museum der Terrakotta-Armee Lintong, das Rö- misch-Germanische Zentralmuseum Mainz sowie das Landesamt für Denkmalpflege München. Die Ebene 2, der Projektkontext, beinhaltet einen Exkurs zur chinesischen Geschichte, der Architektur und den Jenseitsvorstellungen, denn ohne das Verständnis dafür können die chinesische Architektur und ihre Grabanlagen nicht rekonstruiert wer- den. In Ebene 3 wird die Systematik, die der Dokumentation zugrunde liegt, festgelegt. Schwerpunkt bildet auch im Falle des Referenzprojektes die Nachweisebene, die Ebene 4. Die Grabanlage am Zhaoling besteht aus der Gesamtanlage und vier Hauptteilen mit ins- gesamt 29 Einzelgebäuden. Für alle diese Gebäude – die Gesamtanlage mit den 187 Ne- bengräbern (siehe Abb. 7) und die vier Hauptteile des Grabes aus der Tang-Dynastie – wurde die Dokumentation in der Nachweisebene vorgenommen. Diese sind im Einzel- nen die Nördliche Zeremonialanlage mit elf Einzelgebäuden (siehe Abb. 8), der Südpa- last mit zwölf Einzelgebäuden (siehe Abb. 9), das Südtor mit sechs Einzelgebäuden (siehe Abb. 10) sowie das eigentliche Grab im Innern des Berges und die damit verbun- dene Grabthese21 bezüglich des Eingangs (siehe Abb. 11). Die vorgenannten Gebäude 21 Zu Beginn des Projektes wurden mehrere Thesen aufgestellt, an welcher Stelle der Grabanlage sich der Eingang zur Grabkammer und somit die Grabkammer selbst befindet. In der Kommunikation zwischen den Projektpartnern wurden diese Thesen als Grabthesen bezeichnet.107 Mieke Pfarr-Harfstbzw. Anlagen wurden mit geeigneten, speziell für das Referenzprojekt entwickelten No- menklaturen versehen, damit später eine klare Zuordnung von Objekt zu Dokument vorgenommen werden kann. Ein Beispiel soll dies verdeutlichen. So wurde für die Nörd- liche Zeremonialanlage die Nomenklatur ›nz‹ gewählt, die durch die Nummer des jeweili- gen Einzelgebäudes der Anlage komplettiert wird. Abb. 7: Gesamtareal Grabanlage Zhaoling; Quelle: TU Darmstadt, FG IKA, 2006. Abb. 8: Nördlicher Zeremonialbezirk; Quelle: TU Darmstadt, FG IKA, 2006. Abb. 9: Südpalast; Quelle: TU Darmstadt, FG IKA, 2006. Abb. 10: Südtor; Quelle: TU Darmstadt, FG IKA, 2006. Abb. 11: Grabthese; Quelle: TU Darmstadt, FG IKA, 2006.108 Dokumentationssystem für digitale Rekonstruktionen am Beispiel der Kaiserlichen Grabanlage ZhaolingDie Gebäude einer jeden Teilanlage, die Nordanlage, der Südpalast, das Südtor und die Grabthese, wurden in einem Gebäudekatalog (siehe Abb. 12), einer Art Inhaltsverzeich- nis, zusammengefasst. Der Katalog liefert die Identnummer des Gebäudes, die oben erläuterten Nomenklaturen, und gibt weitere Informationen wie z.B. über die Dach- form, die Anzahl der Geschosse und weitere Sonderelemente, die das Gebäude charak- terisieren. Abb. 12: Gebäudekatalog; Quelle: PFARR 2010. Neben den Objekten, den Gebäuden, wurden die Dokumente, also die Quellen, struktu- riert und in Quellenklassen und Quellengruppen eingeteilt. Die häufigsten Quellengrup- pen im Falle der Grabanlage Zhaoling sind Funde, Literatur, Skizzen und Vergleichsbau- ten. Des Weiteren wurde eine Zuordnung zu den vorher definierten Quellenklassen, den sogenannten ›harten‹ und ›weichen‹ Quellen, vorgenommen. Unter ›harten‹ Quellen sind Primärquellen wie Ausgrabungsergebnisse und -funde oder Vermessungsergebnisse zu verstehen; ›weiche‹ Quellen dagegen unterliegen bereits einer Interpretation. Diese Strukturierung der Quellen wurde ebenso wie die Objekte, die Gebäude, in eine geeig- nete Nomenklatur übertragen, die die Zugehörigkeit zu Quellengruppen, -klassen und zur Teilanlage eindeutig zeigt. Die letztendliche eindeutige Zuordnung von Dokument zu Objekt geschieht in den Quellenkatalogen (siehe Abb. 13). Hier findet man die Quelle mit ihrer Nomenklatur und Bezeichnung, Informationen zu ihrer Bedeutung, Verwendung und ihrer Herkunft sowie die Information über Quellenklasse und -gruppe.109 Mieke Pfarr-HarfstAbb. 13: Quellenkatalog; Quelle: PFARR 2010. Das Ergebnis einer digitalen Rekonstruktion kann neben den Quellen nur durch die Of- fenlegung des Rekonstruktionsprozesses nachvollziehbar gemacht werden. Allerdings musste der Rekonstruktionsprozess zuerst in einer Art Leitfaden verallgemeinert wer- den, um übertragbar zu sein. Der Prozess setzt sich aus vier Arbeitsphasen zusammen: der Vorbereitungs-, Rekon- struktions-, Verifizierungs- und Finishingphase. Die Vorbereitungsphase umfasst inhalt- liche, administrative und technische Vorarbeiten. Die Rekonstruktions- bzw. Verifizie- rungsphasen werden im Laufe der Bearbeitungszeit mehrmals durchlaufen und finden in einem steten Wechsel statt. Die Abläufe der Finishingphase richten sich nach dem Pro- jektziel und der Intention der Projektpartner. So erfordert ein Film andere Herangehens- weisen als die Herstellung eines Plotmodells. Für den Rekonstruktionsprozess des Refe- renzprojektes wurden die vier Projektphasen übernommen. Rekonstruktionsphase und Verifizierungsphase, hier Workshopphase genannt, wurden mehrmals durchlaufen. Eine geeignete Nomenklatur wurde auch hier definiert, die die Zugehörigkeit zur Anlage, dem Prozess und der Projektphase sowie die Art der Daten zeigt. Die Zusammenfassung des Rekonstruktionsprozesses erfolgt dann in den Methodenkatalogen (siehe Abb. 14). Mit- tels Input-Output-Darstellung werden die Quellen, die Arbeitsschritte und die daraus re- sultierenden Ergebnisse übersichtlich dargestellt.110 Dokumentationssystem für digitale Rekonstruktionen am Beispiel der Kaiserlichen Grabanlage ZhaolingAbb. 14: Methodenkatalog; Quelle: PFARR 2010. Der Weg durch das System Zur Verdeutlichung der Dokumentationsstruktur wird an einem konkreten Beispiel, den Kaiserlichen Türmen der Nördlichen Zeremonialanlage, der Weg durch das System ge- zeigt. Ausgehend vom Gebäudekatalog der Nördlichen Zeremonialanlage (Abb. 12) fin- det man die Identnummer des Gebäudes, nz01, und erfährt, dass das Gebäude dreiteilig ist und einen einfachen Xieshan als Dachform hat. In der Baubeschreibung werden die Funktion der Türme als Merkmal einer Kaiserlichen Anlage sowie die Lage im Gelände und weitere Hintergründe erläutert, und es wird auf bestimmte Quellen und Meilen- steine im Rekonstruktionsprozess sowie auf Quellen- und Methodenkatalog verwiesen. Der Quellenkatalog des Gebäudes (Abb. 13) zeigt die tatsächliche Fundsituation, so ist nur der Sockelbereich durch Ausgrabungsfunde nachweisbar, die aufgehende Holzkon- struktion ist auf der Basis von Vergleichsbauten sowie Skizzen des zuständigen Archäolo- gen entstanden. Der Methodenkatalog des Gebäudes nz01 beinhaltet die verschiedenen Arbeitsphasen, den jeweiligen Input und als Ergebnis den Output mit den Modellstän- den, die sich immer weiter detaillieren (Abb. 14). Die drei Teile der Nachweisebene, Baubeschreibung, Quellen- und Methodenkataloge für alle 29 Einzelgebäude sind auch in einem digitalen Anhang – einer Art Datenbank – vorhanden, der alle digitalen Daten beinhaltet.111 Mieke Pfarr-HarfstDurch die Dokumentation des Referenzprojektes wird die Komplexität einer digitalen Rekonstruktion und des darin enthaltenen Wissens deutlich. Alle Ebenen der Dokumen- tationsstruktur sind wichtig und unverzichtbar im Sinne der Wissenschaftlichkeit. Auch das Aufzeigen des Rekonstruktionsprozesses ist neben der klaren Darstellung der zu- grunde liegenden Quellen unabdingbar. Professor Zhang, der chinesische Projektpart- ner, hat dies zum Ende unserer gemeinsamen Arbeit treffend formuliert: »Bei solchen Visualisierungsprojekten wird nicht nur einfach rekonstruiert, sondern auch gemeinsam geforscht, dadurch entsteht neue Forschung in Form von neuen Erkenntnissen.« Dies macht digitale Rekonstruktionen zum Teil des digitalen Weltkulturerbes und somit eine umfangreiche Wissenssicherung in Form einer Dokumentation notwendig. Das vorgestellte Dokumentationssystem stellt eine Grundlage für weitere dringend not- wendige Forschung auf dem Gebiet der digitalen Rekonstruktionen dar. Es ist ein Maxi- mum an Dokumentation, das nun in ein Mindestmaß umgewandelt werden muss. In ei- nem groß angelegten Forschungsvorhaben mit Projektpartnern aus verschiedenen wis- senschaftlichen Disziplinen und Institutionen soll das Dokumentationssystem weiter- entwickelt und in eine praktikable Methodik übertragen werden. Praktikabel bedeutet hierbei, einfach zu handhaben, ohne personelle und finanzielle zusätzliche Ressourcen zu benötigen. Das Problemfeld der technischen Wissenssicherung durch Archivierung, Pflege und Aufbereitung der Daten kann ebenfalls nur zukünftig im interdisziplinären Team gelöst werden. Langzeitziel eines solchen Forschungsprojektes ist die Erarbeitung und Etablierung ei- nes Softwaresystems, das zu Beginn eines jeden Rekonstruktionsprojektes die Quellen sowie den Prozess selbstständig in eine Dokumentation überträgt. Dadurch würde zum einen das Wissen im Sinne der Wissenschaftlichkeit gesichert und aufbereitet, anderer- seits aber auch der Arbeitsprozess einer Rekonstruktion unterstützt, z.B. durch selbst- ständiges Strukturieren der Daten wie Quellen etc. So lange aber eine Bewusstseinsände- rung bezüglich des drohenden Wissensverlustes bei allen Beteiligten noch nicht stattge- funden hat, wird die Zahl der digitalen Rekonstruktionen weiter anwachsen und Wissen zusehends verloren gehen.112 Dokumentationssystem für digitale Rekonstruktionen am Beispiel der Kaiserlichen Grabanlage ZhaolingLiteraturverzeichnis BEGAND, Christian (2008): Virtuelle Gebäuderekonstruktion. Virtuelle Archäologie. Anwendung und Erstellung von 3D-Rekonstruktionen historischer Gebäude. Saarbrücken: Verlag Dr. Müller. DIN Deutsches Institut für Normung e.V. (Hg.) (2008): Technische Dokumentation. Normen für technische Produktdokumentation und Dokumentenmanagement (= DIN-Taschenbuch, 351). Berlin: Beuth Verlag. DIES. (Hg.) (2002): Bibliotheks- und Dokumentationswesen (= DIN-Taschenbuch, 343). Berlin: Beuth Verlag. GAUS, Wilhelm (2005): Dokumentations- und Ordnungslehre: Theorie und Praxis des Informa- tion Retrieval. Berlin/Heidelberg: Springer. GRELLERT, Marc (2007): Immaterielle Zeugnisse. Synagogen in Deutschland. Potentiale digitaler Technologien für das Erinnern zerstörter Architektur. Bielefeld: transcript. HENZLER, Rolf (1992): Information und Dokumentation. Sammeln, Speichern und Wiederge- winnen von Fachinformationen in Datenbanken. Berlin/Heidelberg: Springer. KOOB, Manfred (2001): Architectura Virtualis. In: FRINGS, Marcus (Hg.): Der Modelle Tugend. CAD und die neuen Räume der Kunstgeschichte. Weimar: Verlag und Datenbank für Geis- teswissenschaften, S. 21–50. DERS. (1995a): Architectura Virtualis. Projekt Weltkulturerbe. Bensheim: o.V. DERS. (1995b): Architectura Virtualis. Konzept für das 1. Digitale Architekturmuseum, ein Wis- senschaftsort für Forschung und Dokumentation der Kunst der Bautechnik im dritten kultu- rellen Weltgedächtnis. Bensheim: o.V. Kunst- und Ausstellungshalle der Bundesrepublik Deutschland (Hg.) (2006): Xi’an. Kaiserliche Macht im Jenseits. Mainz: Verlag Philipp von Zabern. LUTZ, Bernd (2001): Präsentation von Kulturgütern mittels virtueller Realität und Augmented Reality. In: FRINGS, Marcus (Hg.): Der Modelle Tugend. CAD und die neuen Räume der Kunstgeschichte. Weimar: Verlag und Datenbank für Geisteswissenschaften, S. 103–111. Nestor (2006): Memorandum zur Langzeitverfügbarkeit digitaler Informationen in Deutschland; files.d-nb.de/nestor/memorandum/memo2006.pdf [07.07.2014]. PFARR, Mieke (2010): Dokumentationssystem für Digitale Rekonstruktionen am Beispiel der Grabanlage Zhaoling, Provinz Shaanxi, China; http://tuprints.ulb.tu-darmstadt.de/2302 [07.07.2014]. UNESCO (Hg.) (2003): Charta zur Bewahrung des digitalen Kulturerbes. Inoffizielle deutsche Arbeitsübersetzung; http://www.unesco.de/444.html [07.07.2014]. ZHEWEN, Luo (1993): Kaiser- und Königsgräber der chinesischen Dynastien. Beijing: Verlag für fremdsprachige Literatur.113 Mieke Pfarr-HarfstDigitale Rekonstruktionen auf DVD Technische Universität Darmstadt, Fachgebiet Informations- und Kommunikationstechnologie in der Architektur (Hg.) (2011a): Raum ohne Grenzen. Der Londoner Kristallpalast von 1851. DIES. (Hg.) (2011b): Das Dresdner Schloss 1678. DIES. (Hg.) (2006a): Das Grab des Ersten Kaisers Qin Shihuangling. DIES. (Hg.) (2006b): Die Grabanlage Zhaoling. Im Text erwähnte Webseiten 3D Warehouse: https://3dwarehouse.sketchup.com Technische Universität Darmstadt, Fachgebiet Informations- und Kommunikationstechnologie in der Architektur. Projekte: http://www.ika.architektur.tu-darmstadt.de/ika/projekte_ika/ projekte_22.de.jsp114 Chancen und Herausforderungen in der praktischen Anwendung von Ontologien für das Kulturerbe Georg Hohmann und Mark Fichtner 1. Einführung Der Begriff ›Ontologie‹, der zunächst als Bezeichnung für eine Fachrichtung der theore- tischen Philosophie Anwendung fand, findet in der Informatik und den Informations- wissenschaften seit den 1990er-Jahren zunehmend Verbreitung. In diesen Disziplinen bezeichnet er im Allgemeinen semantische Modelle zur formalen Repräsentation von Information.1 Die Möglichkeit der Abbildung von Semantik ist der maßgebliche Grund für die Popularität dieser Repräsentationsform im Kontext von ›Semantic Web‹ und Linked Data und unterscheidet diese Modelle maßgeblich von anderen, die ›nur‹ die Struktur von Information abbilden.2 In diesem Beitrag wird der Frage nachgegangen, was Ontologien sind und wie sie sich zur Wissensrepräsentation im Bereich des Kulturerbes nutzen lassen. Dabei wird drei- stufig vorgegangen. Der erste Teil widmet sich dem Konzept von Ontologien, während der zweite Teil eine spezifische Ontologie für das Kulturerbe thematisiert. Abschließend wird auf die technischen Rahmenbedingungen im praktischen Umgang mit Ontologien eingegangen. In allen Teilen werden jeweils die Vor- und Nachteile abgewogen und in der Zusammenfassung bewertet. 2. Ontologien Als ›Ontologie‹ wird nicht eine einzige, standardisierte Methode oder ein festgelegtes Rahmenwerk bezeichnet. Stattdessen bündelt sich unter diesem Begriff eine Reihe un- terschiedlicher Ansätze, die sich in Syntax, Methodik und Benennungskonvention teil- weise stark voneinander unterscheiden. Aus diesem Grund muss auch eine Definition des Begriffs eher abstrakt ausfallen, um alle Aspekte integrieren zu können. Definition Die wohl am häufigsten zitierte Definition stammt von Thomas Gruber aus dem Jahr 1993: »An ontology is an explicit specification of a conceptualization«.3 Nach dieser De- finition ist eine Ontologie eine konkrete Ausformung einer Konzeptualisierung, also des 1 Vgl. HENDLER/ALLEMANG 2008, S. 1. 2 Zu ›Semantic Web‹ siehe unter http://www.w3.org/standards/semanticweb [07.07.2014]; sowie die Weiterführung zu Linked Data siehe unter http://www.w3.org/standards/semanticweb/data [07.07.2014]. 3 GRUBER 1993, S. 199.115 Georg Hohmann und Mark FichtnerVersuchs, Phänomene bzw. Dinge der realen Welt in einer generischen, abstrakten Weise abzubilden, indem man sie Konzepten zuweist. So eingängig diese Definition auch sein mag, so allgemein und unspezifisch ist sie auch. Rudi Studer, Richard Benjamins und Dieter Fensel legten 1998 eine eigene Definition vor, die Thomas Grubers Ansatz erweitert und näher spezifiziert: »An ontology is a formal, explicit specification of a shared conceptualisation. A ›conceptu- alisation‹ refers to an abstract model of some phenomenon [...]. ›Explicit‹ means that the types of concepts used, and the constraints on their use are explicitly defined. [...] ›Formal‹ refers to the fact that the ontology should be machine-readable [...]. ›Shared‹ reflects the notion that an ontology captures consensual knowledge, that is, it is not private of some individual, but accepted by a group«.4 Auch hier wird zunächst festgestellt, dass eine Ontologie die konkrete Abbildung eines abstrakten Ordnungsmodells ist. Die Definition führt aber noch zwei weitere Aspekte ein, die für Ontologien vor allem in der praktischen Anwendung maßgeblich sind. Zum einen wird gefordert, dass eine Ontologie maschinell verarbeitbar sein sollte. Zum ande- ren wird definiert, dass der abgebildete Ausschnitt aus der realen Welt, also dessen Ge- gebenheiten und Sinnzusammenhänge, von einer Gemeinschaft akzeptiert und getragen sein soll. Ontologien sind damit also auf gesellschaftlichem Konsens beruhende, seman- tische Modelle, die einen spezifischen Sachverhalt oder Sinnzusammenhang aus der rea- len Welt formal abbilden, um die technische Verarbeitung zu ermöglichen. Spektrum Als Ontologien werden inzwischen fast alle Klassifikationssysteme und Konzeptualisie- rungen subsumiert, die sich anhand ihrer Ausdrucksmächtigkeit in einem Ontologien- spektrum (siehe Abb. 1) anordnen lassen.5 Eine Begriffshierarchie bzw. Taxonomie, die nur Ober- und Unterbegriffe kennt, wird als sehr einfache Form der Ontologie verstanden. Entsprechend ist ein Thesaurus als Begriffssystem, das nach ISO 2788 sechs verschiedene Relationen zwischen den Begrif- fen kennt, ausdrucksmächtiger als eine einfache Taxonomie und wird dadurch höher eingestuft. Weit größere Möglichkeiten zur Konzeptualisierung bietet die ›Unified Mod- eling Language‹ (UML), gefolgt von den Logiksprachen. Obwohl all diese Ordnungs- systeme als Ontologien bezeichnet werden können, findet der Begriff vor allem in der Bezeichnung für Modelle im oberen Bereich des Spektrums Verwendung. 4 STUDER u.a. 1998, S. 186. 5 Vgl. DACONTA u.a. 2003, S. 157.116 Chancen und Herausforderungen in der praktischen Anwendung von Ontologien für das KulturerbeAbb. 1: Ontologienspektrum; Quelle: DACONTA u.a. 2003. Kategorien Ontologien lassen sich nicht nur nach ihren formalen Spezifika unterscheiden, sondern auch nach ihrer inhaltlichen Ausrichtung bzw. ihrem Zweck. In der Fachliteratur haben sich vier Kategorien (siehe Abb. 2) etabliert, die zumindest für einen groben Überblick sorgen.6 Abb. 2: Kategorien von Ontologien; Quelle: GUARINO 1998. An oberster Stelle steht die ›Top-Level Ontology‹, auch ›Reference‹ oder ›Upper Ontol- ogy‹ genannt. Sie beschreibt sehr generelle Konzepte wie z.B. Zeit, Raum oder Ereignis unabhängig von einer bestimmten Wissensdomäne oder Problemstellung und ist unab- hängig von einer konkreten Umsetzung. Die ›Domain Ontology‹ beschreibt Konzepte einer generischen Wissensdomäne oder in Bezug auf eine bestimmte Problemstellung. 6 Vgl. GUARINO 1998, S. 10f.; STUDER u.a. 1998, S. 188f.117 Georg Hohmann und Mark FichtnerHierbei können die Konzepte einer ›Top-Level Ontology‹ weiter spezialisiert werden. Eine ›Task Ontology‹ stellt ein grundlegendes Vokabular zur Beschreibung von allge- meinen Tätigkeiten, Aktivitäten oder Aufgaben zur Verfügung. Auch hier können die Konzepte einer geeigneten ›Top-Level Ontology‹ spezialisiert werden. Am unteren Ende der Hierarchie steht die ›Application Ontology‹. Sie ist eine auf eine konkret fokussierte Domäne oder Aufgabe zugeschnittene Ontologie, die in der Regel eine ›Domain Ontol- ogy‹ und/oder ›Task Ontology‹ spezialisiert. Sie definiert sehr spezielle Konzepte, die eng an eine konkrete Anwendung gekoppelt sind. Der Vollständigkeit halber sei auch noch eine weitere, implizit vorhandene Kategorie genannt, die ›Domain Task Ontology‹. Sie definiert ein Vokabular zur Beschreibung von Tätigkeiten, Aktivitäten oder Aufga- ben einer bestimmten Wissensdomäne. Es handelt sich bei diesen Kategorien um eine sehr grobe und unscharfe Einteilung. Die meisten bestehenden Ontologien lassen sich nicht ausschließlich einer Kategorie zuord- nen, sondern weisen Merkmale verschiedener Kategorien auf. Auch die hierarchischen Abhängigkeiten entsprechen eher einem Ideal und werden bei bestehenden Ontologien eigentlich kaum berücksichtigt. Komponenten Die drei folgenden Komponenten bilden den Kern jedweder Ontologie und kommen folglich in allen Formen von Ontologien vor. »Konzepte« repräsentieren wie erwähnt Phänomene bzw. Dinge der realen Welt und können hierarchisch organisiert werden. Konzepte werden über »Relationen« zueinander in Bezug gesetzt, denen eine spezifische Semantik inhärent ist. Bedingungen, nach denen diese Relationen angewandt werden dürfen, können unter Verwendung von »Restriktionen« definiert werden. Eine Sonder- stellung nimmt die Relation »is a« ein. Sie kann nicht mit Restriktionen belegt werden, sorgt aber für die sogenannte ›Vererbung‹ von Eigenschaften.7 Abb. 3: Klassen, Eigenschaften, Restriktionen und Vererbung; Quelle: eigene Darstellung. 7 Vgl. HITZLER u.a. 2008, S. 66ff.118 Chancen und Herausforderungen in der praktischen Anwendung von Ontologien für das KulturerbeAn einem Beispiel (siehe Abb. 3) lässt sich das Zusammenspiel dieser Komponenten veranschaulichen: In einer Ontologie werden »Vogel« und »Flügel« jeweils als Konzept modelliert. Die Beziehung dieser Konzepte zueinander wird durch die Relation »hat Körperteil« beschrieben. Um diese Relation noch weiter zu bestimmen, wird sie mit der Restriktion »exakt 2« belegt. Das Konzept »Eule« wird nun über die »is a«-Relation als Unterkonzept von »Vogel« definiert. Über diese Beziehung erbt »Eule« alle Eigenschaf- ten von »Vogel«, weshalb für »Eule« die gleiche Relation und Restriktion Gültigkeit be- sitzt wie für »Vogel«. Semiotisches Dreieck Alle Definitionen innerhalb einer Ontologie finden auf der begrifflichen Ebene in einem semiotischen Dreieck (Abb. 4) statt.8 Abb. 4: Semiotisches Dreieck; Quelle: STOCK 2009. In der natürlichen Sprache werden Symbole, in der Regel Worte genutzt, um Begriffe zu repräsentieren. Auch eine Ontologie versucht eine Ordnung der Begriffe unter Verwen- dung von Worten. Worte sind allerdings zu unspezifisch, als dass sich mit ihnen allein ein semantisches Modell entwickeln ließe. Je nach Kultur-, Erfahrungs-, Bildungs- und Erwartungshorizont des Rezipienten kann das Verständnis dessen, wofür ein Begriff steht, sich vom Verständnis des Kommunikators unterscheiden. Um einen Konsens herzustellen, nähert man sich dem Begriff in der Regel mit einer mehr oder weniger aus- führlichen, natürlichsprachlichen Beschreibung. Manchmal werden diese Beschreibun- gen zusätzlich mit Beispielen ergänzt. Doch bei allen Bemühungen wird es nie gelingen, jedwede Vagheit, Widersprüchlichkeit und Undifferenziertheit auf Ebene der Begriffe vollständig zu beseitigen. Deshalb kann festgehalten werden, dass »jede Wissensreprä- sentation unvollkommen ist, und dass jede Unvollkommenheit eine Quelle für Fehler sein kann«.9 8 Vgl. STOCK 2009, S. 404f. 9 Vgl. DAVIS u.a. 1993, S. 19; Übersetzung der Autoren.119 Georg Hohmann und Mark FichtnerVor- und Nachteile Wissensmodelle dienen dazu, unterschiedliche Wissensquellen über Grenzen hinweg zu organisieren, zu verbinden und damit einen einheitlichen Zugriff zu gewährleisten. On- tologien als spezielle Form der Wissensmodellierung haben in der praktischen Anwen- dung diverse Vorteile gegenüber anderen Ansätzen. Da Ontologien nicht auf der Ebene der Bezeichnungen, sondern auf der Ebene der Konzepte Wissen organisieren, eignen sie sich besonders für die Anwendung in multilin- gualen Szenarien. Sie können somit als technische Antwort auf die Fragen der interkul- turellen Kommunikation verstanden werden, wie sie auf der ersten Tagung dieser Reihe thematisiert wurden.10 Ontologien haben ein breites Ausdrucksspektrum und ermögli- chen dadurch sehr detaillierte Wissensmodelle. Durch ihre Fundierung auf mathemati- schen Modellen sind sie prinzipiell maschinell verarbeitbar und können somit direkt in technischen Infrastrukturen verwendet werden. Auf der anderen Seite werden diese Vorteile mit einigen Zugeständnissen erkauft. Die genutzten Begriffe müssen zur Minimierung von Missverständnissen sprachübergrei- fend genau definiert werden. Die hohe Ausdrucksfähigkeit bedingt auch eine entspre- chend hohe Komplexität in der Anwendung der zur Verfügung stehenden Mittel. Da- durch ergibt sich ebenso auch ein hoher Modellierungsaufwand. Die maschinelle Verarbeitung von Ontologien hat ebenfalls komplexitätsbedingt hohe technische Anfor- derungen. 3. Das CIDOC Conceptual Reference Model Zur praktischen Anwendung in einem spezifischen Wissensbereich wird eine soge- nannte ›Domänenontologie‹ benötigt, in der die Konzepte und Eigenschaften einer Wis- sensdomäne konkret modelliert sind. So wird es in einer Ontologie, die sich mit Kraft- fahrzeugen beschäftigt, höchstwahrscheinlich ein Konzept »Auto« geben, das mit dem Konzept »Reifen« über eine Relation verbunden ist. Im Gegensatz zu anderen Domänen ist die Auswahl an bestehenden Ontologien im Bereich des Kulturerbes relativ gering. De facto hat sich nur eine Ontologie in den letzten Jahren in dieser Wissensdomäne etabliert: Das ›CIDOC Conceptual Reference Model‹ (CRM). In der Dokumentation des CRM wird es als »Ontologie zur Unterstützung der Integra- tion, der Vermittlung und des Austauschs von heterogenen Informationen über das Kulturelle Erbe«11 bezeichnet. Das CRM ist das Ergebnis einer interdisziplinären Ar- beitsgruppe unter dem Dach des CIDOC, dem Komitee für Dokumentation des inter- nationalen Museumsrats ICOM. Die Arbeitsgruppe wurde Anfang der 1990er-Jahre ge- gründet, mit dem Ziel ein umfassendes Datenmodell für die Dokumentation des kulturellen Erbes zu erstellen. Nach einigen Fehlversuchen mit dem relationalen Daten- 10 Vgl. ROBERTSON-VON TROTHA/HAUSER 2011. 11 CROFTS u.a. 2011, S. i; Übersetzung der Autoren.120 Chancen und Herausforderungen in der praktischen Anwendung von Ontologien für das Kulturerbemodell wurde das CRM schließlich als Ontologie ausformuliert und der ISO vorgelegt, die das CRM 2006 in der Version 3.4.9 als ISO 21127:200612 standardisierte. Aktuell liegt das CRM in Version 5.0.4 vor. Eine Aktualisierung des ISO-Standards ist in Vor- bereitung. Komponenten Das CRM definiert in der aktuellen Version 5.1.2 insgesamt 89 Konzepte und 149 Rela- tionen, die in der Dokumentation als »Entities« und »Properties« bezeichnet werden. Die Benennung der Konzepte und Relationen folgt einem gemeinsamen Schema. Dem Na- men wird je ein »E« (für »Entity«) oder ein »P« (für »Property«) vorangestellt, gefolgt von einer eindeutigen Nummerierung. Erst danach folgt der eigentliche Name. Neben der Namensnennung wird jedes Konzept und jede Relation durch einen erläuternden Text, der als ›Scope Note‹ bezeichnet wird, eindeutig definiert und abgegrenzt. Hilfreich für das Verständnis sind auch die beigefügten Anwendungsbeispiele. Als Anwendungsbereich nennt das CRM das in Museen kuratierte Wissen, also alle In- formationen, die für die wissenschaftliche Dokumentation des kulturellen Erbes in Sammlungen erforderlich sind.13 Die Domäne, für die das CRM als Ontologie vorgese- hen ist, ist mit der Fokussierung auf eine Anwendung im Museum, genauer in kunst- und kulturhistorischen Museen, prinzipiell stark eingeschränkt. Allerdings wird diese Fo- kussierung bei Betrachtung der definierten Konzepte und Relationen wieder relativiert. Speziell auf eine museale Anwendung zugeschnittene Konzepte, wie etwa die »E87 Cu- ration Activity«,14 sind tatsächlich nur die Ausnahme. Stattdessen werden überwiegend abstrakte Konzepte und Relationen definiert, bis hin zu Konzepten wie »Ort« und »Zeit«, wie sie auch in anderen, wesentlich abstrakteren Ontologien zu finden sind. So wird das CRM inzwischen eher als Referenzontologie für das gesamte kulturelle Erbe angesehen. Allerdings sind im Detail die Auswirkungen der ursprünglichen Ausrichtung noch zu spüren, was die Modellierung bestimmter Sachverhalte erschwert oder gar verhindert. Da in Museen Objekte im Mittelpunkt stehen, spielt das CRM seine Stärken aus, wenn es um die Modellierung objektspezifischer Eigenschaften geht. Dagegen stößt man etwa bei der Beschreibung von Personen in ihren Kontexten schnell auf Grenzen. So lassen sich Verwandtschaftsverhältnisse oder beispielsweise eine Heirat mit ihren Implikatio- nen nur unzureichend mit dem CRM abbilden. Juristische Bedingtheiten wie etwa urhe- berrechtliche Zusammenhänge sind so gut wie nicht modellierbar. Auch geografische Gegebenheiten bereiten mitunter Probleme. 12 ISO 21127:2006; http://www.iso.org/iso/iso_catalogue/catalogue_tc/catalogue_detail.htm?csnumber =34424 [07.07.2014]. 13 Vgl. CIDOC CRM; http://cidoc-crm.org/scope.html [07.07.2014]. 14 CROFTS u.a. 2011, S. 34.121 Georg Hohmann und Mark FichtnerModellierung mit Ereignissen Eine Besonderheit des CRM ist die Zentrierung auf sogenannte ›Events‹.15 Sie bilden den Dreh- und Angelpunkt jedweder Datenabbildung im CRM. Zeit, Ort und Akteur werden stets über ein Ereignis miteinander verbunden, was sich besonders für die Abbil- dung historischer Sachverhalte als vorteilhaft erwiesen hat.16 Was dies genau bedeutet, lässt sich im Vergleich zu einem anderen, sehr einfachen aber auch sehr verbreiteten Da- tenmodell verdeutlichen. Abb. 5: Unqualified Dublin Core Hedgehog Model; Quelle: KOKKELINK/SCHWÄNZL 2002. Das ›Dublin Core Element Set‹ (DCES) definiert 15 Elemente zur Beschreibung von Ressourcen jedweder Art.17 Eine Arbeitsgruppe hat vor einigen Jahren einen Vorschlag erarbeitet, wie diese Elemente unter Nutzung der genannten Komponenten als Ontolo- gie zu modellieren wären. Dieser Vorschlag wurde als »Hedgehog Model« (siehe Abb. 5) bekannt.18 Ein zentrales Konzept, das unbestimmt bleibt, wird über Relationen nicht mit anderen Konzepten, sondern direkt mit Datenwerten in Bezug gesetzt. Für einen Vergleich (siehe Abb. 6) mit dem CRM genügt es, sich die unterschiedlichen Herange- hensweisen zur Abbildung eines Herstellers eines Objekts und des Datums der Herstel- lung zu verdeutlichen. 15 Vgl. LAGOZE u.a. 2000. 16 Vgl. STEIN u.a. 2005. 17 Dublin Core Element Set (DCES); http://dublincore.org/documents/dces [07.07.2014]. 18 Vgl. KOKKELINK/SCHWÄNZL 2002. Inzwischen liegt eine überarbeitete Empfehlung vor (vgl. NILSSON u.a. 2008), die allerdings dasselbe Modellierungsverfahren verwendet.122 Chancen und Herausforderungen in der praktischen Anwendung von Ontologien für das KulturerbeAbb. 6: Vergleich DCES und CIDOC CRM; Quelle: eigene Darstellung. DCES kennt zur Auszeichnung des Herstellers und des Datums einer Ressource die Relationen »date« und »creator« zwischen einem nicht näher spezifizierten Konzept und dem entsprechenden Datenwert. Eine direkte Verbindung zwischen dem Datum und dem Hersteller ist im Modell nicht vorgesehen, weshalb nicht explizit modelliert werden kann, worauf sich das Datum bezieht. Im CRM werden für die Modellierung des Datums gleich zwei zusätzliche Klassen benötigt. Das Herstellungsereignis und die Zeitspanne werden zu eigenständigen Entitäten, die mit weiteren Eigenschaften ausge- stattet werden können. So wird der Hersteller nicht einfach zum Gegenstand selbst hin- zugefügt, sondern als Ausführender des Herstellungsprozesses modelliert. Auch wenn die Komplexität der Modellierung im CRM im Vergleich zu Dublin Core wesentlich hö- her ist, so wird doch auch die damit gewonnene, zusätzliche Semantik und Exaktheit deutlich. Bei allen Vorteilen birgt der ereigniszentrierte Ansatz aber auch Nachteile. Vor allem das Erfassen von Zuständen wird dadurch unnötig erschwert. Beispielsweise ist die Angabe, dass eine Person eine bestimmte Zeit im Besitz eines bestimmten Hauses war, mit dem CRM nur sehr umständlich zu formulieren. Statt das Besitzen selbst zu modellieren, ist man gezwungen, ein künstliches Ereignis der »Besitznahme« und ein Ereignis des »Besitzverzichts« zu definieren, die Start- und Endpunkte einer Zeitspanne markieren, auch wenn über diese »Ereignisse« keinerlei Informationen vorliegen. Deshalb verlangt ein so einfacher Sachverhalt im CRM eine recht komplexe Modellierung. Vor- und Nachteile Insgesamt lässt sich festhalten, dass das CRM beim Umgang mit Wissen aus dem Be- reich des kulturellen Erbes eine bedeutende Rolle spielt, da es eine Reihe von Vorteilen hat. Neben den inhaltlichen Stärken ist dies vor allem der ISO-Zertifizierung zu verdan-123 Georg Hohmann und Mark Fichtnerken, die für eine breite Akzeptanz in der Fachgemeinschaft gesorgt hat. Das CRM erfüllt damit ein Kriterium der eingangs zitierten Definition von Ontologien, die die Konsens- fähigkeit einer Ontologie voraussetzt. Tatsächlich gibt es im Bereich des kulturellen Er- bes keine Alternative zum CRM, die ähnlich weit verbreitet und detailliert ausgearbeitet ist. Umso wichtiger ist es, sich die Vor- und Nachteile des CRM genau anzusehen. Ne- ben der ISO-Zertifizierung ist vor allem der breite Fokus als Vorteil zu betrachten, der viele Anwendungsbereiche in Bezug auf das kulturelle Erbe eröffnet. Sein hoher Detail- grad ermöglicht eine feingranulare Abbildung unterschiedlichster Zusammenhänge. Die Dokumentation des CRM liegt inzwischen in mehreren Sprachen vor, sodass sprach- übergreifend Wissen auf einer gemeinsamen semantischen Basis verarbeitet werden kann. Nicht zuletzt wird das CRM von einer großen Fachgemeinschaft getragen und stetig weiterentwickelt, in der Fragen und Probleme mit dem CRM diskutiert werden können. Die ISO-Zertifizierung ist in gewisser Hinsicht aber auch ein Nachteil. Der derzeitige Standard entspricht der Version 3.4.9 des CRM, die erwiesenermaßen diverse Fehler und Unklarheiten enthält. Um das CRM also heute tatsächlich standardkonform einzu- setzen, müsste demnach eine fehlerhafte Version genutzt werden. Auch die anstehende Aktualisierung des Standards wird diesen Umstand nur kurzfristig beheben. Der hohe Detailgrad des CRM bedingt einen hohen Grad an Komplexität. Vor der Anwendung ist daher eine zeitaufwendige und mit einer steilen Lernkurve versehene Einarbeitung not- wendig. Trotz oder gerade wegen des hohen Detailgrades ist das semantische Modell des CRM nicht an allen Stellen präzise genug und eindeutig. Spezifische Sachverhalte kön- nen oft auf verschiedene Weise modelliert werden, sodass die Darstellung des gleichen Wissens inkongruent sein kann und dadurch nicht integrierbar ist. Das größte Manko ist allerdings, dass das CRM nicht in einer maschinell verarbeitbaren Form vorliegt und da- mit ein wichtiges Kriterium der eingangs erwähnten Ontologiendefinition von Rudi Stu- der, Richard Benjamins und Dieter Fensel nicht erfüllt. Es existiert zwar ein offizieller Vorschlag einer Implementation des CRM,19 diese bildet aber nur einen Teil des Mo- dells ab und enthält beispielsweise keine der Restriktionen, die in der Dokumentation beschrieben sind. 4. Web Ontology Language Um dieses Manko des CRM zu adressieren, ist unter Federführung des Lehrstuhls für Künstliche Intelligenz der Universität Erlangen-Nürnberg das ›Erlangen CRM‹ entstan- den.20 Das ›Erlangen CRM‹ ist bis heute die einzige aktiv gepflegte Umsetzung des CRM in eine formale Sprache, die auch die jeweils aktuellen Versionen des CRM berück- sichtigt. 19 http://cidoc-crm.org/rdfs/cidoc_crm_v5.1-draft-2014March.rdfs [07.07.2014]. 20 Erlangen CRM; http://erlangen-crm.org [07.07.2014].124 Chancen und Herausforderungen in der praktischen Anwendung von Ontologien für das KulturerbeMit dem ›Erlangen CRM‹ befinden wir uns nun auf der dritten Ebene, die im Umgang mit Ontologien eine Rolle spielt. Um eine Ontologie in technischen Systemen einsetzen zu können, muss sie zwangsläufig in einem Formalismus vorliegen, der sowohl das inhä- rente semantische Modell abbildet als auch eine automatische Verarbeitung ermöglicht. Ein solcher Formalismus ist die ›Web Ontology Language‹ (OWL).21 Auch für das ›Erlangen CRM‹ wurde diese Sprache für die Implementierung gewählt. OWL wurde vom ›World Wide Web Consortium‹ (W3C) entwickelt und ist Teil einer Gruppe von Sprachen, Formalismen und Konventionen, die zusammen die Grundlage für das ›Semantic Web‹ bilden. Im ›Semantic Web‹ spielt OWL gar die entscheidende Rolle, was sich auch in ihrer zentralen Position im ›Semantic Web Stack‹ (Abb. 7) widerspiegelt. Abb. 7: Semantic Web Stack; Quelle: OBITKO 2007. Vor- und Nachteile Die Nutzung einer solchen Sprache birgt aber ebenfalls diverse Vor- und Nachteile. Auf der Habenseite ist festzuhalten, dass für Erstellung und Verarbeitung von Ontologien in OWL eine breite Palette an Anwendungen zur Verfügung steht. Ontologien in OWL ha- ben einen hohen Verbreitungsgrad und OWL ist heute die meistgenutzte Ontologien- sprache. Sie hat eine hohe Ausdrucksmächtigkeit, da sie auf einer Beschreibungslogik basiert, die zusätzlich garantiert, dass das abgebildete Wissen stets entscheidbar ist. Zwei Eigenschaften empfehlen OWL zusätzlich für die Datenintegration: Die sogenannte 21 World Wide Web Consortium (W3C); http://www.w3.org/TR/owl2-overview [07.07.2014].125 Georg Hohmann und Mark Fichtner›Open World Assumption‹ sorgt dafür, dass Wissen, welches in einem semantischen Modell nicht enthalten ist, als unbekannt und nicht als falsch eingestuft wird. Die ›No Unique Name Assumption‹ bezeichnet die Eigenschaft, dass ein spezifisches Indivi- duum innerhalb des Modells verschiedene Namen haben kann.22 Andererseits ist, wie aus diesen Anmerkungen schon zu ersehen ist, die Beschäftigung mit OWL komplex. Zwar steht Software zur Bearbeitung zur Verfügung, deren Bedie- nung muss man sich aber erst aneignen.23 Durch ihre hohe Ausdrucksfähigkeit ist OWL in der Lage, fast alle Merkmale des CRM abzubilden. Nicht abbildbar sind etwa Eigen- schaften von Eigenschaften, wie sie im CRM definiert werden. Allerdings ist dazu bisher kein anderer Formalismus in der Lage, sodass hier das Manko auch aufseiten des CRM gesehen werden kann. Schließlich darf nicht unerwähnt bleiben, dass bei allen Möglich- keiten der Datenintegration einige technische Probleme noch immer unzureichend ge- löst sind. 5. Zusammenfassung Zusammenfassend lässt sich sagen, dass die Nutzung von Ontologien zur Wissensreprä- sentation gerade für den Bereich des Kulturerbes ein großes Potenzial bietet. Vor allem der Einsatz von fortgeschrittenen Technologien und Methoden der Wissensrepräsenta- tion auf einen entsprechend vorbereiteten Datenbestand kann neue Möglichkeiten der Recherche oder der Wissensgenerierung eröffnen. Wie allerdings auch deutlich wurde, eröffnet diese Art der Wissensrepräsentation viele neue Problemfelder und Herausforderungen auf drei Ebenen: auf Ebene der Ontolo- gientheorie, auf Ebene der konkreten Ontologie und auf Ebene der Ontologienformalis- men. Sowohl in theoretischer als auch in praktischer Hinsicht hat man es mit einem neuen Paradigma im Umgang mit Wissen zu tun, das neue Herangehens- und Sichtwei- sen voraussetzt. Der Zwang zur Eindeutigkeit in der semantischen Modellierung erweist sich gerade für ungenaue und variable Daten, wie sie im Umgang mit dem kulturellen Erbe häufig auftreten, oft als Stolperstein. Auch das CRM besitzt einige Eigenheiten, die gerade im Hinblick auf den praktischen Einsatz noch einiger Verbesserungen bedürfen. 22 Vgl. HITZLER u.a. 2012. 23 Vgl. DERS. u.a. 2008, S. 155ff.126 Chancen und Herausforderungen in der praktischen Anwendung von Ontologien für das KulturerbeLiteraturverzeichnis CROFTS, Nick; DOERR, Martin; GILL, Tony; STEAD, Stephen; STIFF, Matthew (Hg.) (2011): Def- inition of the CIDOC Conceptual Reference Model. Version 5.0.4. Unter Mitarbeit der CIDOC CRM Special Interest Group; http://cidoc-crm.org/docs/ cidoc_crm_version_5.0.4.pdf [07.07.2014]. DACONTA, Michael; OBRST, Leo; SMITH, Kevin (2003): The Semantic Web. A Guide to the Fu- ture of XML, Web Services, and Knowledge Management. Indianapolis: Wiley Publishing. DAVIS, Randall; SHROBE, Howard; SZOLOVITS, Peter (1993): What Is a Knowledge Representa- tion? In: AI Magazine, Jg. 14, H. 1, S. 17–33. GRUBER, Thomas (1993): A Translation Approach to Portable Ontology Specifications. In: Knowledge Acquisition, Jg. 5, H. 2, S. 199–220. GUARINO, Nicola (1998): Formal Ontology and Information Systems. In: DERS. (Hg.): Formal Ontology in Information Systems FOIS 1998, Trient, Italien. Proceedings. Amsterdam: IOS Press, S. 3–15. HENDLER, James; ALLEMANG, Dean (2008): Semantic Web for the Working Ontologist. Model- ing in RDF, RDFS and OWL. Burlington: Morgan Kaufmann Publishers. HITZLER, Pascal; KRÖTZSCH, Markus; PARSIA, Bijan; PATEL-SCHNEIDER, Peter; RUDOLPH, Se- bastian (Hg.) (2012): OWL 2 Web Ontology Language Primer (Second Edition). W3C Rec- ommendation 11 December 2012; http://www.w3.org/TR/owl2-primer [07.07.2014]. DERS.; KRÖTZSCH, Markus; RUDOLPH, Sebastian; SURE, York (2008): Semantic Web. Grund- lagen. Berlin/Heidelberg: Springer. KOKKELINK, Stefan; SCHWÄNZL, Roland (2002): Expressing Qualified Dublin Core in RDF/ XML. Dublin Core Metadata Initiative; http://dublincore.org/documents/dcq-rdf-xml [07.07.2014]. LAGOZE, Carl; HUNTER, Jane; BRICKLEY, Dan (2000): An Event-Aware Model for Metadata In- teroperability. In: BORBINHA, José; BAKER, Thomas (Hg.): Research and Advanced Tech- nology for Digital Libraries. 4th European Conference, Lissabon, Portugal (= Lecture Notes in Computer Science, 1923). Berlin: Springer, S. 103–116. NILSSON, Mikael; POWELL, Andy; JOHNSTON, Pete; NAEVE, Ambjörn (2008): Expressing Dub- lin Core Metadata Using the Resource Description Framework (RDF). Dublin Core Metadata Initiative; http://dublincore.org/documents/dc-rdf [07.07.2014]. OBITKO, Marek (2007): Introduction to Ontologies and Semantic Web; http://obitko.com/tuto- rials/ontologies-semantic-web/introduction.html [07.07.2014]. ROBERTSON-VON TROTHA, Caroline Y.; HAUSER, Robert (Hg.) (2011): Neues Erbe. Aspekte, Perspektiven und Konsequenzen der digitalen Überlieferung (= Kulturelle Überlieferung – digital, 1). Karlsruhe: KIT Scientific Publishing. STEIN, Regine; GOTTSCHEWSKI, Jürgen; HEUCHERT, Regine; ERMERT, Axel; HAGEDORN- SAUPE, Monika; HANSEN, Hans-Jürgen; SARO, Carlos; SCHEFFEL, Regine; SCHULTE-DORN- BERG, Gisela (2005): Das CIDOC Conceptual Reference Model. Eine Hilfe für den Daten- austausch? (= Mitteilungen und Berichte aus dem Institut für Museumskunde, 31). Berlin: In- stitut für Museumskunde.127 Georg Hohmann und Mark FichtnerSTOCK, Wolfgang G. (2009): Begriffe und semantische Relationen in der Wissensrepräsentation. In: Information – Wissenschaft & Praxis, Jg. 60, H. 8, S. 403– 420. STUDER, Rudi; BENJAMINS, Richard; FENSEL, Dieter (1998): Knowledge Engineering: Principles and Methods. In: Data & Knowledge Engineering, Jg. 25, H. 1/2, S. 161–198. Im Text erwähnte Webseiten CIDOC Conceptual Reference Model (CRM): http://cidoc-crm.org Dublin Core Metadata Initiative: http://dublincore.org Erlangen CRM/OWL: http://erlangen-crm.org ISO – International Organization for Standardization: http://www.iso.org World Wide Web Consortium (W3C): http://www.w3.org128 Inventarisieren im Verbund – Kulturerbe, kuniweb, KENOM Frank Dührkohp Der Gemeinsame Bibliotheksverbund (GBV)1 ist der Katalogisierungs- und Dienstleis- tungsverbund für inzwischen über 490 wissenschaftliche und öffentliche Bibliotheken sowie für Forschungseinrichtungen auf dem Gebiet der beteiligten Bundesländer Bre- men, Hamburg, Mecklenburg-Vorpommern, Niedersachsen, Sachsen-Anhalt, Schleswig- Holstein, Thüringen und der Stiftung Preußischer Kulturbesitz. Der GBV fördert somit die kontinuierliche Weiterentwicklung neuartiger Bibliotheks- und Informationsdienst- leistungen und gewährleistet einheitliche Standards der Bibliotheksautomation. Die Verbundzentrale des Gemeinsamen Bibliotheksverbundes (VZG) ist Betriebs- und Dienstleistungszentrum des GBV. Sie betreibt das zentrale Verbundsystem. Diese Ver- bunddatenbank ist die Basis für Katalogisierung, Onlinefernleihe und Dokumentliefer- dienste. Die VZG hat gemäß des bei der Gründung des GBV geschlossenen Verwal- tungsabkommens die Aufgabe, neuartige Bibliotheks- und Informationsdienstleistungen zu entwickeln und anzuwenden.2 Dazu zählt nicht nur die Unterstützung der Informati- onsinfrastruktur für Forschung und Lehre, d.h. nicht nur Nachweis und Verfügbarkeit der Literatur, sondern auch des kulturellen Erbes. So sind in den vergangenen Jahren in den Gedächtniseinrichtungen (Bibliotheken, Ar- chiven, Museen, Denkmalämtern) mit nicht unerheblichem finanziellem Aufwand Pro- gramme zur Digitalisierung und Katalogisierung von Kulturgut durchgeführt worden, deren Ergebnisse in der Regel über innerhalb der Projekte entwickelte Portallösungen oder auf den Webseiten der jeweiligen Einrichtungen präsentiert werden. Diese Instituti- onen sehen sich vor der Aufgabe, das von ihnen bewahrte kulturelle Erbe langfristig di- gital bereitzustellen, die durch Digitalisierung erzeugten digitalen Kopien dauerhaft zu archivieren und die wissenschaftlichen Inhalte nicht nur bereitzustellen, sondern auch mit anderen Wissensressourcen sinnvoll zu verknüpfen. Dies sind Herausforderungen, denen sich auch die Verbundzentrale des GBV neben ihren traditionellen Kernfeldern zu stellen hat. Die VZG hat als niedersächsischer Landesbetrieb vom Ministerium für Wissenschaft und Kultur (MWK) den Auftrag erhalten, entsprechende Lösungsvor- schläge im Rahmen von Pilotprojekten für Niedersachsen zu erarbeiten und im Dauer- betrieb bereitzustellen. 1 Gemeinsamer Bibliotheksverbund; http://www.gbv.de [07.07.2014]. 2 Verwaltungsabkommen über die Errichtung eines Bibliotheksverbundes; http://www.gbv.de/Ver- bund/02GBV_1200 [07.07.2014].129 Frank DührkohpKulturerbe Niedersachsen ›Kulturerbe Niedersachsen‹ steht für ein gemeinsames Internetangebot von Bibliothe- ken, Archiven und Museen des Landes Niedersachsen.3 Das Portal bietet der interessier- ten Öffentlichkeit einen direkten Zugang in multimedialer Form zu ausgewählten digital erfassten Kulturgütern des Landes. Somit wird eine virtuelle Zusammenführung ver- schiedenartigster Bestände unterschiedlicher Kultureinrichtungen geschaffen. Ausgangs- punkt für die Konzeption des Portals war die Notwendigkeit, einen zentralen Zugang zu den digitalisierten Kulturgütern zu schaffen und einen weiteren Beitrag zur systemati- schen Digitalisierung und Inventarisierung von Objekten aus niedersächsischen Samm- lungen und Archiven zu leisten. Bei diesem Projekt konnte auf Erfahrungen im Zuge der Entwicklung des Vorgänger- portals OPAL zurückgegriffen werden. OPAL war ein aus Mitteln der Stiftung Nieder- sachsen gefördertes Projekt mit der Zielsetzung, in multimedialer und interaktiver Form über 25.000 digital erfasste Kulturgüter des Landes Niedersachsen online zur Verfügung zu stellen. Die in OPAL erfassten Bestände wurden bis zum Jahresende 2013 in das Por- tal ›Kulturerbe Niedersachsen‹ integriert und OPAL selbst wurde daraufhin abgeschaltet. Abb. 1: Portal ›Kulturerbe Niedersachsen‹; Quelle: eigener Screenshot. 3 Kulturerbe Niedersachsen; http://www.kulturerbe.niedersachsen.de [07.07.2014].130 Inventarisieren im Verbund – Kulturerbe, kuniweb, KENOMDas Portal ›Kulturerbe Niedersachsen‹ wurde mit einer Summe von 500.000 Euro zu gleichen Teilen vom Europäischen Fonds für regionale Entwicklung (EFRE) und dem Niedersächsischen Ministerium für Wissenschaft und Kultur gefördert. Die Gesamtpro- jektkoordination lag bei der Niedersächsischen Staats- und Universitätsbibliothek (SUB) Göttingen. Der technische Betrieb wurde von der VZG sichergestellt. Projektpartner und Contentlieferanten waren die Landeseinrichtungen des Landes Niedersachsen. Die Auswahl der zu digitalisierenden Sammlungsobjekte wurde von den beteiligten Ein- richtungen selbst getroffen. So stellte das Herzog Anton Ulrich-Museum (HAUM) Braunschweig Handzeichnungen des 14. bis 21. Jahrhunderts, insgesamt ca. 3.800 Blät- ter, zur Verfügung. Die SUB Göttingen beteiligte sich mit Zeugnissen der Göttinger Universitätsgeschichte (Büchern, Grafiken, Porträts, Archivalien, Stammbuchblättern) an dem Projekt; insgesamt mehr als 150 Buchbände, 500 Grafiken und 1.000 Seiten Handschriften. Die Gottfried Wilhelm Leibniz Bibliothek (GWLB) Hannover brachte illustrierte Bände aus der Sammlung »Königliche Gartenbibliothek Herrenhausen«, im Ganzen ca. 7.000 Einzelblätter, ein. Die Herzog August Bibliothek (HAB) Wolfenbüttel stellte mit Druckgrafiken des 15. bis 18. Jahrhunderts mehr als 3.000 Einzelgrafiken zur Verfügung. Das Niedersächsische Landesarchiv (NLA) Hannover beteiligte sich mit Ar- chivalien mit direktem Niedersachsenbezug (Urkunden, Karten, Handschriften, Akten); insgesamt ca. 1.000 Digitalisate. Das Niedersächsische Landesmuseum Hannover (NLMH) stellte Exponate aus den Bereichen Archäologie, Natur-, Völker- und Landes- kunde (Münzen, Gemälde, Handzeichnungen, Grafiken, plastische Werke), insgesamt ca. 100 Objekte, zur Verfügung. Die Landesbibliothek Oldenburg (LBO) schließlich be- teiligte sich mit Buchbänden der Bibliothek von Georg Friedrich Brandes sowie dem Ol- denburger Sachsenspiegel; insgesamt rund 260 Bücher mit ca. 100.000 Buchseiten und 280 Seiten Handschriften. Die Digitalisate wurden entweder direkt von den einzelnen Häusern oder über externe Dienstleister zur Verfügung gestellt. Die zugehörigen Metadaten wurden innerhalb des Projektzeitraums von Mitarbeiterinnen und Mitarbeitern der beteiligten Einrichtungen erfasst. Die Spanne der eingesetzten Erfassungssysteme reichte von Softwarelösungen verschiedener Anbieter bis hin zu selbst entwickelten Programmen. Struktur und Er- schließungstiefe der erfassten Metadaten richteten sich nach den Erfordernissen und Standardformaten der jeweiligen beteiligten Sparten, sodass die Datenlieferungen im Wesentlichen aus den Austauschformaten METS/MODS für Bibliotheken, EAD für Archive und LIDO für Museen bestanden. Eine wesentliche Herausforderung lag in der Entwicklung eines gemeinsamen Standard- formats zur Gewährleistung einer einheitlichen Präsentation. Die Gruppe ›Metadaten und Datenkonversion‹ der SUB Göttingen entwickelte nach Analyse der gelieferten Da- ten in Abstimmung mit den beteiligten Einrichtungen ein Metadatenformat, das auf dem Standard METS/MODS beruht. Alle Metadatenlieferungen der Partner wurden im Laufe des Projekts in dieses Datenformat überführt. Die Analyse der gelieferten Daten bildete zudem die Grundlage für die Funktionalitäten des zu entwickelnden Portals, das131 Frank Dührkohpsich außerdem am aktuellen Stand der Präsentationsmöglichkeiten zu orientieren hatte. Die Gruppe ›Forschung und Entwicklung‹ der SUB Göttingen entwickelte daraus einen ersten Funktionalitätsvorschlag sowie ein Grunddesign, das mit den anderen Partnern abgestimmt wurde. Da das Portal dauerhaft von der VZG betrieben werden soll, wurde eine grundlegende Kooperation zwischen der SUB Göttingen und der VZG auf Basis der bestehenden Entwicklungen eingerichtet. Dabei wurde mit Goobi4 auf eine Software zurückgegriffen, die als Open-Source-Produkt unter Federführung der SUB Göttingen entwickelt wurde und sowohl bei der VZG als auch der SUB Göttingen und weiteren Bibliotheken im Einsatz ist. Goobi ist ein modulares Tool zur Steuerung von Prozessworkflows bei der Buchdigitalisierung mit einem eigenständigen Präsentationsmodul. Da sich aber das be- stehende Konzept mit der Open-Source-Oberfläche von Goobi nicht umsetzen ließ, wurde bei der Entwicklung der Präsentationsoberfläche auf den intranda-Viewer zu- rückgegriffen. Der intranda-Viewer ist ein Produkt der Göttinger Firma intranda,5 die maßgeblich an der Entwicklung von Goobi beteiligt war. Der Viewer stellt bereits alle wesentlich benötigten Funktionalitäten wie z.B. stufenloses Zoomen, Vollbildanzeige, Navigationsstrukturen und Tag-Clouds zur Verfügung und ist speziell auf die Präsenta- tion des Metadatenformats METS/MODS abgestimmt. Die Oberflächengestaltung so- wie neue Funktionalitäten wurden von der VZG auf Basis eines von der SUB Göttingen konzipierten und mit den Partnern abgestimmten Vorentwurfs umgesetzt. Abb. 2: Startseite des Portals ›Kulturerbe Niedersachsen‹; Quelle: eigener Screenshot. 4 Goobi; http://www.goobi.org [07.07.2014]. 5 intranda GmbH; http://www.intranda.de [07.07.2014].132 Inventarisieren im Verbund – Kulturerbe, kuniweb, KENOMDas Portal ›Kulturerbe Niedersachsen‹ öffnet mit einem zufallsgenerierten Vollbild-Slider und präsentiert so dem Nutzer gleich zu Beginn als zentrale Ansicht kleinere Ansichten der im Portal enthaltenen Objekte. Von dort kann der Nutzer entweder auf das Objekt selbst oder auf die Startseite des Portals navigieren. Die Startseite bietet dem Nutzer verschiedene Möglichkeiten, sich dem Objektbestand des Portals zu nähern. Im Header der Webapplikation befindet sich ein weiterer Vollbild-Slider, der unterschiedliche Ob- jekte aus dem Portal zufallsgeneriert anzeigt. Mit einem Mausklick auf die Bilder gelangt der Nutzer zu den entsprechenden Objekten. Ein weiterer Zugang erfolgt über die Su- che. Das Portal stellt einen googleähnlichen Suchschlitz zur Verfügung, über den alle Metadaten auf Basis eines SOLR-Volltextindex gesucht und gefunden werden können. Dabei wurde auf die Möglichkeit des Browsens innerhalb der Objekte besonderer Wert gelegt. Der Zugang erfolgt über drei verschiedene Möglichkeiten: Über den Menüpunkt ›Kultureinrichtungen‹ kann der Nutzer sich über die beteiligten Institutionen als solche informieren und gelangt dann über die angelegten Sammlungen der Institutionen auf die Einzelobjekte der jeweiligen Sammlungen. Über den Menüpunkt ›Objekte‹ erreicht der Nutzer eine vokabulargenerierte Anzeige der Objekte, wo diese nach Typ oder Darstel- lung in Gruppen zusammengestellt sind. Von dort kann zu den Einzelobjekten navigiert werden. Ein Zugriff auf die einzelnen Objekte kann außerdem über einen speziell entwi- ckelten Zeitstrahl als weiterer Menüpunkt erfolgen. Abb. 3: Objektpräsentation; Quelle: eigener Screenshot. Unter dem Navigationspunkt ›Kontexte‹ werden speziell multimedial aufbereitete The- menschwerpunkte mit Niedersachsenrelevanz angeboten. In den Texten werden Hinter- grundinformationen über die zueinander in Beziehung stehenden Objekte des Portals präsentiert. Der Nutzer kann auf einer Bühne frei navigieren und so auch zu den Einzel- ansichten der behandelten Objekte springen und sich zugleich an Informationen aus ex- ternen Quellen wie z.B. Wikipedia bedienen.133 Frank DührkohpDie Hauptnavigation am rechten Rand des Portals ist als Browsingmöglichkeit innerhalb des Portals konzipiert. Hier kann der Nutzer unter anderem anhand eines Zeitstrahls, einer Kartenansicht oder aber einfach unter ›Stöbern‹ mit ausgewählten Schlagwörtern im Portal navigieren. Im Zentrum der Objektdarstellung stehen vor allem die Digitali- sate selbst. Diese können über einen stufenlosen Zoom direkt in der Objektansicht ver- größert oder über eine Vollbildansicht, ebenfalls mit Zoomfunktion, betrachtet werden. Zudem werden alle zugehörigen Metadaten übersichtlich in Reitern präsentiert. Das Sys- tem generiert einen Permalink, über den jederzeit wieder auf das Objekt zugegriffen werden kann. Das Portal wurde im Rahmen einer Pressekonferenz im Ministerium für Wissenschaft und Kultur von Ministerin Frau Prof. Dr. Johanna Wanka im April 2012 offiziell der Öf- fentlichkeit übergeben. Zum Zeitpunkt der Freischaltung konnten ca. 1.000 Bücher mit über 140.000 Buchseiten, ca. 8.000 Handzeichnungen und Gemälde, ca. 3.000 Archiva- lien, Akten oder Handschriften, ca. 600 Porträts, ca. 80 museale Ausstellungsobjekte und ca. 50 Karten und Pläne präsentiert werden. ›Kulturerbe Niedersachsen‹ ist nach Ende der Projektphase in den Dauerbetrieb durch die VZG überführt worden. Hier liegt auch die Federführung für die weitere technische Entwicklung. Die redaktionelle Verantwortung für die Inhalte trägt die SUB Göttingen. Alle bisherigen Partner haben sich verpflichtet, dauerhaft digitalen Content an das Portal zu liefern. Für die Steuerung der Entwicklungslinien und zur weiteren Content-Akquise hat sich ein Kompetenznetzwerk aus den beteiligten Partnern unter Koordinierung der SUB Göttingen gebildet. Durch die Übernahme der Daten aus dem Vorgängerportal OPAL wurde die Anzahl der zur Verfügung stehenden Objekte noch einmal um 25.000 erweitert und die dort beteiligten Sammlungen und Archive wurden in die Präsentation der Institutionen im Portal integriert. Das Portal ›Kulturerbe Niedersachsen‹ bildet somit nicht nur den zentralen Zugang zu den digitalisierten Kulturschätzen des Landes mit dem Ziel, die Modernisierung der kul- turellen Infrastruktur voranzutreiben, sondern bildet außerdem den niedersächsischen Beitrag auf nationaler Ebene für die Deutsche Digitale Bibliothek (DDB)6 sowie inter- national für das europäische Kulturportal Europeana7. ›Kulturerbe Niedersachsen‹ stellt für die DDB die Metadaten der eingestellten Objekte über eine OAI-Schnittstelle bereit. Von der DDB werden diese dann der Europeana zur Verfügung gestellt. Die hochauflö- senden Objektdigitalisate verbleiben im ›Kulturerbe Niedersachsen‹; auf den Seiten der DDB und der Europeana werden lediglich Thumbnails dargestellt. Im Gegensatz zum Selbstverständnis von DDB und Europeana als Nachweisportale sieht sich das Portal ›Kulturerbe Niedersachsen‹ konzeptionell als zentrale Präsentationsplattform des Lan- des, da sowohl kommunale Einrichtungen als auch Landeseinrichtungen keine eigenen Präsentationsportale betreiben. Dieses Konzept soll in den kommenden Jahren ausge- baut werden. 6 Deutsche Digitale Bibliothek; http://www.deutsche-digitale-bibliothek.de [07.07.2014]. 7 Europeana; http://www.europeana.eu [07.07.2014].134 Inventarisieren im Verbund – Kulturerbe, kuniweb, KENOMAbb. 4: Ausstellungsmodul; Quelle: eigener Screenshot. In Entwicklung befindet sich zurzeit ein Konzept zur dauerhaften Präsentation von mu- sealen Ausstellungen. Museale Ausstellungen werden zumeist im Sinne des Auftrags der Museen betrachtet, Gegenstände aus in der Regel vergangenen Zeiten zu einem be- stimmten Thema zu präsentieren und somit der allgemeinen (Weiter-)Bildung zu dienen. Ausstellungen bieten aber auch dem Fachwissenschaftler die Möglichkeit, unter Einbe- ziehung der musealen Objekte als Forschungsgegenstände, diese unter neuen, vom Kon- zept der Ausstellung vorgegebenen Fragestellungen zu betrachten. Der erzielte Erkenntnisgewinn wird, oft durch Forschungskollegs und Symposien her- vorgebracht, vor allem in gedruckten Ausstellungskatalogen und Aufsatzbänden nicht nur der Allgemeinheit, sondern auch dem Wissenschaftler zugänglich gemacht. Eher sel- ten erfolgt eine nachträgliche Publikation im Web. Im Zuge der Ausstellungsvorberei- tung sowie der begleitenden wissenschaftlichen Aufbereitung werden die Exponate so- wie die entsprechenden Hintergrundinformationen durch verschiedenste Medien (Text, Bild, Film, Ton, 3-D-Scan) dokumentiert. Diese Medien werden in der Regel ausstellungsbegleitend in Form von Präsentationen, Wandtexten und Audioguides genutzt. Ein eher geringer Teil wird in den begleitenden Publikationen veröffentlicht. Während die eigentlichen materiellen Ausstellungsobjekte wieder in Dauerausstellungen und Magazinen verbracht bzw. den Leihgebern zurückge- geben werden, ist der Verbleib der digitalen Begleitmedien eher von zweitrangiger Be- deutung. Diese Daten stehen somit der Öffentlichkeit nicht mehr zur Verfügung. Ziel der Weiterentwicklung im Rahmen des Portals ›Kulturerbe Niedersachsen‹ ist der Auf-135 Frank Dührkohpbau einer Infrastruktur, die die im Rahmen einer Ausstellung erzeugten digitalen Medien nicht nur dauerhaft in einem Repository zur sofortigen Nutzung bereithält, sondern diese auch in einer multimedialen Präsentation zur Verfügung stellt.8 Die Erfassungsdatenbank ›kuniweb‹ Das ursprüngliche Konzept der Datenerfassung für das Portal beruht auf einer dezentra- len Erfassung durch bereits in den Häusern betriebene Softwareapplikationen sowie dem Austausch von standardisierten Metadaten. Darüber hinaus hat sich gezeigt, dass es sinnvoll ist, im Rahmen der Datenerfassung neben der dezentralen Variante auch mit ›kuniweb‹9 eine zentrale Datenerfassung mittels Webinterface für beteiligte Einrichtun- gen zur Verfügung zu stellen. ›Kuniweb‹ ist eine Erfassungsdatenbank für Museumsbestände und ermöglicht das Ar- chivieren, Verwalten und Recherchieren von digitalen Bild- und Multimediadaten sowie die entsprechende Eingabe von musealen und archäologischen Metadaten. Da über 200 verschiedene Dateiformate unterstützt werden, kann es zur Erfassung und Verwaltung verschiedenartigster Bestände genutzt werden. Digitale und digitalisierte Aufnahmen und Dias von Kunstobjekten, Alltagsgegenständen, Karten oder archäologischen Fund- stücken, wissenschaftliche Bilddokumentation, komplette Präsentationen oder Videos sind nur einige der Möglichkeiten, wie ›kuniweb‹ zur Inventarisierung und Verwaltung des kulturellen Erbes in Niedersachsen eingesetzt werden kann. Abb. 5: Erfassungsmaske ›kuniweb‹; Quelle: eigener Screenshot. 8 Dieses Vorhaben wird prototypisch am Beispiel der Ausstellung »abgekupfert – Roms Antiken in den Reproduktionsmedien der Frühen Neuzeit« umgesetzt, die aus einem Konzept der Abgusssammlung des Archäologischen Instituts und der Kunstsammlung der Universität Göttingen hervorgegangen war und vom 27. Oktober 2013 bis zum 16. Februar 2014 der Öffentlichkeit präsentiert wurde. 9 kuniweb; http://kuniweb.gbv.de [07.07.2014].136 Inventarisieren im Verbund – Kulturerbe, kuniweb, KENOMIm Rahmen eines Pilotprojekts mit der AG Museen des Landschaftsverbandes Südnieder- sachsen,10 einem Querschnitt der vielfältigen Museumslandschaft des Landes, wurde eine Software beschafft, umfassend angepasst und zur Verfügung gestellt. Ziel des Projekts war es, den Inventarisierungsgrad der Sammlungsbestände zu erhöhen, die vorhandenen analogen bzw. veralteten digitalen Bestände aufzubereiten sowie die Objektdaten im inter- nationalen Standardaustauschformat für museale Metadaten LIDO bereitzustellen. Für die Umsetzung der Erfassungsdatenbank wurde auf die Software easyDB der Firma Programmfabrik11 zurückgegriffen. Sie ist komplett web- und browserbasiert und be- ruht ausschließlich auf Open-Source-Komponenten. Die Systemvoraussetzungen für die Nutzer beschränken sich auf einen Internetbrowser und eine Internetverbindung. Für die Verbundzentrale als Administrator bietet die Software den entscheidenden Vorteil, dass die VZG alle Anpassungen selbst vornehmen kann. Im grafischen Back-End kön- nen sowohl das Datenbankmodell als auch die gesamte Oberfläche per Mausklick ange- passt werden. Außerdem können eigene PHP-Module integriert werden. Dank dieser Flexibilität konnte die Grundinstallation nach den Wünschen der beteiligten Partner ganz erheblich erweitert werden. Bei den Projektpartnern waren wenig digital erfasste Altdaten vorhanden. Diesem Um- stand ist es auch zu verdanken, dass noch keine Wortlisten, Thesauri und Vokabulare vorlagen, die berücksichtigt werden mussten, sodass sich die beteiligten Museen auf eine einzige, zentrale Erfassungsmaske einigen konnten. So konnten etwa 20 verschiedene Datenfelder mit deutschsprachigen aber auch internationalen Normdaten hinterlegt wer- den. Aus der Gemeinsamen Normdatei (GND) der Deutschen Nationalbibliothek wer- den alle Personen- und Institutionsfelder, Objektkategorien sowie die Schlagwörter ge- speist. Alle Ortsangaben werden aus der freien Ortsdatenbank ›geonames‹ befüllt. Bei den ikonografischen Angaben zu den Bildinhalten ist das Klassifizierungskonzept Icon- class hinterlegt. Im Feld ›Objektbezeichnung/Gegenstand‹ ist die sogenannte Ober- begriffsdatei (OBG) untergebracht. Materialien, Technik, Stil und Epoche werden aus normierten Vokabularen gespeist. Zudem wird unter ›Sachgruppe‹ die Hessische Syste- matik eingesetzt. Werden zum inventarisierten Objekt Literaturangaben aufgenommen, erfolgt dies über den neuen Citation-Style-Webservice, welcher zu einer Livesuche im Gemeinsamen Verbundkatalog formatierte bibliografische Angaben ausliefert. Nach ei- ner erfolgreichen Suche wird das Museumsobjekt über die PPN mit einer Verknüpfung zum entsprechenden Datensatz im Verbundkatalog versehen. Nach der Umsetzung der technischen Lösung wurden die teilnehmenden Museen in ei- ner Schulung durch die VZG mit dem Umgang der Datenbank vertraut gemacht. Der praktische Einsatz wurde mithilfe von mitgebrachten Inventarisierungskarten getestet und das Handling der Datenbank in der täglichen Routine geprüft. Das inzwischen in 10 Folgende Museen waren Teil des Pilotprojekts: Oberharzer Bergbaumuseum Clausthal-Zellerfeld, Hei- matmuseum Obernfeld, KERAMIK.UM Fredelsloh, Königshütte Bad Lauterberg, Museum Schloss Herzberg, Stadtmuseum Einbeck. 11 Programmfabrik GmbH; http://www.programmfabrik.de [07.07.2014].137 Frank Dührkohpder Handhabung monatelang immer wieder angepasste System verspricht einen einfa- chen und schnellen Zugang zu den inventarisierten Beständen. Die intuitiv verständliche Handhabung ermöglicht auch für wenig computeraffine Nutzer den leichten Einstieg. Inzwischen ist die Entwicklung der Datenbank abgeschlossen. Zu den aktuellen Heraus- forderungen gehören die verschiedenen Workflows zur Erweiterung der eingesetzten Normvokabulare bei jeweiligem Bedarf. Wenn die Bearbeiter beispielsweise ein Buch nicht im Verbundkatalog finden (Stichwort ›graue Literatur‹), dann sollen sie als biblio- thekarische Laien in der Lage sein, über die ›WebCAT‹ genannte browserbasierte Kata- logisierungsoberfläche diese Werke aufzunehmen. Wenn in der GND oder in einer an- deren Normdatei Einträge fehlen, müssen effiziente Mechanismen entwickelt werden, um diese zu ergänzen und damit der Allgemeinheit zur Verfügung stellen zu können. Die Datenbank wurde von der VZG im Auftrag des niedersächsischen Ministeriums für Wissenschaft und Kultur (MWK) entwickelt und intendiert inzwischen die Bereitstel- lung einer zentralen Erfassungssoftware für alle musealen Sammlungen in Niedersach- sen. Mittels ›kuniweb‹ wird den teilnehmenden Einrichtungen die Möglichkeit eröffnet, eine repräsentative Auswahl der Objekte in das Portal ›Kulturerbe Niedersachsen‹ zu im- portieren. Die Daten werden automatisch validiert und durch eine entsprechend ange- passte Schnittstelle überführt. Nur die Weitergabe valider Daten in verschiedenen For- maten nach internationalen Standards erlaubt auch die Weitergabe an Portale wie die DDB oder Europeana.12 Das Projekt KENOM Das Konzept der Gründung von Museumsverbünden zum Zweck der gemeinsamen In- ventarisierung und Präsentation auf Basis einer gemeinsamen Softwaregrundlage analog den Bibliotheksverbünden wird von den Museen seit einigen Jahren mit Erfolg betrie- ben.13 Ansätze für die kooperative Erschließung, d.h. die Erschließung von Sammlungs- beständen auf Basis einer gemeinsamen Datengrundlage, gibt es im Museumsbereich hingegen nur wenige, da Museumsobjekte in der Regel als Unikate zu sehen sind. Die Voraussetzung für eine kooperative Erschließung ist jedoch die Existenz von mehreren Objekten gleichen Typs. Solche Voraussetzungen bieten im musealen Kontext neben der Druckgrafik14 vor allem numismatische Bestände wie Münz-, Papiergeld- und Me- daillenbestände. 12 Schon vor Ende der Projektlaufzeit konnten zahlreiche neue Partner gewonnen werden. Darunter zum Beispiel das Städtische Museum Braunschweig, die Museen Stade, die Kreisarchäologie Rotenburg und das Kulturarchiv Hannover. 13 Zu nennen sind hier vor allem der MusIS-Verbund in Baden-Württemberg, digiCULT vor allem in Schleswig-Holstein, Hamburg und Thüringen sowie ›museum-digital‹ mit Schwerpunkten in Sachsen- Anhalt, Rheinland-Pfalz und Brandenburg. 14 Die gemeinsame Erschließung und Präsentation von Druckgrafik und Zeichnungen wurde vom Herzog Anton Ulrich-Museum Braunschweig und der Herzog August Bibliothek Wolfenbüttel im Virtuellen Kupferstichkabinett exemplarisch umgesetzt; http://www.virtuelles-kupferstichkabinett.de [07.07.2014].138 Inventarisieren im Verbund – Kulturerbe, kuniweb, KENOMEine kooperative Erschließung dieser Bestände wird aktuell im Rahmen des DFG-Pro- jekts KENOM (Kooperative Erschließung und Nutzung der Objektdaten von Münz- sammlungen) umgesetzt.15 Ziel von KENOM ist es, die digitale Präsenz wissenschaft- lich aufbereiteter Münzbestände deutlich zu erhöhen und durch die Bereitstellung entsprechender Werkzeuge die Erschließung zahlreicher weiterer Bestände dauerhaft zu gewährleisten. Zugleich sollen in den Sammlungsbereichen, in denen eine kooperative Erschließung möglich ist, Onlinewerkzeuge dauerhaft die Bereitschaft seitens der Insti- tutionen erhöhen, auch unter ungünstigen Bedingungen Objekte auf einem qualitätsvol- len, nachnutzbaren Niveau zu dokumentieren und damit Interessierten online zur Ver- fügung zu stellen. Unabhängig davon wird ein Beitrag zur Digitalisierung großer Mengen von Material ge- leistet, um die Präsenz der deutschen Sammlungen sowohl national – unter anderem in der DDB – wie auch international – in der Europeana – zu erhöhen. Im Gegensatz zu vielen anderen Vorgängerprojekten soll der Aufwand für die Erschließung in einem ver- tretbaren Maß so minimiert werden, dass tatsächlich große Bestände digital verfügbar werden. Dafür sind fachliche Rahmenbedingungen, die sich an nationalen und internati- onalen Regelwerken orientieren, und Arbeitsabläufe zu definieren, die bei hoher Qualität der Digitalisate gleichwohl große Mengen liefern. Daher ist vor allem an internationale Metadatenstandards wie LIDO gedacht, die weitere Optionen offenhalten und die An- forderungen an eine komplexe, durch eine Ontologie abzubildende Datenstruktur nach CIDOC CRM erfüllen. Es wird also ein durchgängiger Arbeitsablauf definiert werden, der es auch kleinen Institutionen mit vertretbarem Aufwand ermöglicht, online Bestand- informationen über die genannten Plattformen anzubieten. Das Projekt ist daher in mehrerer Hinsicht zukunftsweisend, einerseits durch die groß- räumige länderübergreifende Vernetzung von Sammlungen in Schleswig-Holstein, Sachsen-Anhalt, Niedersachsen und Thüringen, andererseits durch die Integration ver- schiedener Sammlungstypen. Damit kann ein breites Spektrum der Nachnutzbarkeit ge- währleistet werden. Es wird die Basis für die sachgerechte Verzeichnung mittlerer und kleiner Sammlungen gelegt, die über kein eigenes Fachpersonal verfügen, aber dennoch mit ihren numismatischen Spezialsammlungen arbeiten wollen und müssen. Außerdem soll die europaweite Vernetzung von Münzsammlungen und Fundmünzprojekten vor- bereitet werden, die bereits 2005 auf einem internationalen Fundmünzkolloquium in Konstanz diskutiert und gefordert wurde.16 Ziel ist die Etablierung eines Standards zur digitalen Erschließung von Münzsammlungen, der dem Unternehmen die Bedeutung ei- nes Pilotprojekts verleiht. 15 Der Verfasser dankt in diesem Zusammenhang Dr. Jörn Sieglerschmidt für den alles entscheidenden Impuls und die umfangreichen Vorarbeiten für dieses Projekt. An dem Projekt KENOM sind folgende Museen und Sammlungen beteiligt: Königliches Münzkabinett, Landesmuseum Hannover; Akademi- sche Lehrsammlung, Archäologisches Institut Göttingen; Fundmünzen, Thüringisches Landesamt für Denkmalpflege und Archäologie Weimar; Notgeldsammlungen Lange und Rixen, Schleswig-Holsteini- sche Landesbibliothek Kiel; Medaillensammlung, Stiftung Moritzburg Halle. 16 DERSCHKA u.a. 2005. 139 Frank DührkohpAbb. 6: Portal KENOM; Quelle: eigener Screenshot. KENOM erlaubt nach Abschluss einen komfortablen Zugang über ein »Virtuelles Münzkabinett«17 zu den bisher nur ausgewählten Spezialisten offenstehenden Magazin- beständen. Es geht um eine Erhöhung und Verbreiterung der Nutzungsfrequenz und um die Intensivierung interdisziplinärer Forschung. Die Numismatik als Integrations- und Brückenfach mit Anknüpfungspunkten zu zahlreichen historischen Nachbarwissen- schaften bietet dafür günstige Voraussetzungen. Die Münz- und Geldgeschichte ist zu- dem eine der ganz wenigen historischen Disziplinen, in denen noch epochenübergreifend von der Antike bis zur Gegenwart gearbeitet wird. Die Nutzung des Quellenmaterials durch Nachbargebiete ist ganz wesentlich von der Vereinfachung des Zugangs abhängig, der kein besonderes Spezialwissen voraussetzt. Für die wissenschaftliche Erschließung der Münzbestände kann in der Regel nicht auf umfassende Standardkataloge zurückgegriffen werden, die als Referenzwerke infrage kommen. Online vorhandene und in Datenbanken digital erfasste Bestände müssen des- halb mit den bereits erhobenen Daten abgeglichen werden. Ziel ist es daher, normierte Datensätze, die mit geringem Zeitaufwand an den jeweiligen individuellen Fall angepasst werden können, aus zentralen historischen Epochen unter Verwendung von normiertem Vokabular zur Verfügung zu stellen. Die Vorteile einer kooperativen Erschließung sol- len dann durch Inventarisierung unter Bereitstellung dieser Standarddatensätze von bis- her nicht durch EDV-Einsatz erfassten Datenbeständen unmittelbar erkennbar werden. 17 Eine erste Nutzerstudie wurde in Kooperation mit der Hochschule Hannover, Lehrstuhl Professor Markus Fischmann am Beispiel der Dauerausstellung der numismatischen Bestände des Landesmuse- ums Hannover erarbeitet; http://www.muenzkabinett.niedersachsen.de [07.07.2014].140 Inventarisieren im Verbund – Kulturerbe, kuniweb, KENOMEin Problem stellt bisher die Verknüpfung der Katalogdaten mit entsprechenden Litera- turzitaten sowie deren Vereinheitlichung dar. Daher soll während des Projekts mit dem Aufbau einer numismatischen Onlinebibliografie durch Verlinkung der Standardzitier- literatur und der Referenzwerke begonnen werden. Hierzu kann das Projekt auf die nor- mierten Titeldatensätze des GBV zurückgreifen. Abb. 7: Erfassungsmaske KENOM; Quelle: eigener Screenshot. Im Rahmen des Projekts konnte das Erfassungssystem ab Mitte Januar 2013 aktiv ge- nutzt werden. Softwarebasis für die Erfassung ist analog zu ›kuniweb‹ die Datenbank easyDB der Firma Programmfabrik. So konnten auch alle Schnittstellen zu Normdaten, die für ›kuniweb‹ entwickelt wurden, nachgenutzt werden. Da auf der zentralen Plattform für Museumsvokabulare der Fachgruppe ›Dokumentation‹ des Deutschen Museums- bundes keine Münzkonzepte vorlagen und im ›Art and Architecture Thesaurus‹ (AAT) der Getty Foundation zwar ein Münzkonzept zur Verfügung steht, dieses aber für die in KENOM angestrebte Erfassungsqualität nicht ausreichend ist, muss innerhalb des Pro- jekts auf Basis der bereits in die Datenbank übernommenen Schlagwortlisten ein numis- matischer Thesaurus entwickelt werden. Hinzu kommt, dass die vorliegenden Schlagwortlisten, die aus im Vorfeld abgeschlosse- nen Inventarisierungsprojekten stammen bzw. zur Bestandsverwaltung genutzt wurden, nicht den Regeln entsprachen, die wiederum innerhalb der Fachgruppe ›Dokumentation‹ der AG Regelwerke des Deutschen Museumsbundes als allgemeinverbindlich entwickelt wurden. Die Listen müssen daher im laufenden Projekt überarbeitet und den standardi- sierten Regelwerken angepasst werden. Die zugehörigen Metadatensätze müssen dem- entsprechend aufwendig redigiert werden. Die Datenbank selbst ist bereits so eingerich-141 Frank Dührkohptet, dass dies mit vertretbarem Aufwand möglich ist, ohne den Verlust bereits vor- genommener Verschlagwortungen nach dem ›Ingest‹ von Altdaten aus vorangegangenen Inventarisierungsprojekten.18 Die Entwicklung des Such- und Präsentationsportals erfolgt analog dem Portal ›Kultur- erbe Niedersachsen‹ auf Basis des intranda-Viewers. Im Gegensatz zu diesem Portal, das als Zielgruppe den interessierten Bürger formuliert, richtet sich das KENOM-Portal so- wohl an den Fachwissenschaftler als auch an den an Numismatik interessierten Laien. Der Zugriff auf die Bestände erfolgt somit sowohl über die Möglichkeit einer Daten- bankrecherche mit erweiterter Suchfunktion als auch über die Möglichkeit eines direkten Browsens über die Bestände innerhalb des »Virtuellen Münzkabinetts«. Das Portal wird im Rahmen eines Festaktes im März 2015 in der Landesbibliothek in Kiel für die Öffent- lichkeit freigeschaltet. Die Erfassungssoftware selbst steht dann auch für andere Ein- richtungen zur Verfügung.19 Die VZG garantiert den Dauerbetrieb von Erfassungssoft- ware und Portal. Neben dem Betrieb der Portale ›Kulturerbe Niedersachsen‹ und KENOM und der Er- fassungssoftware ›kuniweb‹ und KENOM garantiert die VZG die mittelfristige Siche- rung von Masterdigitalisaten und zugehörigen Metadaten sowie die Bereitstellung der entsprechenden Derivate für die Portalansichten im zentralen Archivsystem der VZG. Ungelöst hingegen ist vorerst das Problem der Langzeitarchivierung. Hier strebt die VZG eine Kooperation mit dem Landschaftsverband Rheinland (LVR) zur Nachnut- zung des Digitalen Archivs NRW an.20 Hunderttausende von Objekten unseres Kulturerbes, teils in Ausstellungen der einzel- nen Kultureinrichtungen dem Besucher vor Ort erschlossen, teils in Magazinen schlum- mernd, sind authentische und einzigartige Zeugen der Vergangenheit. Dieses Erbe mit den technischen Möglichkeiten der heutigen Informationsgesellschaft zu sichern und zu verbreiten und damit den Wert und die Bedeutsamkeit dieses Erbes und der verwalten- den Institutionen zu erschließen und sichtbar zu machen, ist die zentrale Aufgabe der kommenden Jahre. So ist die Bereitstellung digitaler Inhalte im Laufe der letzten Jahre zu einem Kerngeschäft der Gedächtnisinstitutionen geworden. Dem interessierten Nut- zer stehen inzwischen neben den datenbankgestützten Bestandskatalogen auch die viel- fältigsten Inhalte als digitale Ressourcen zur Verfügung. Allerdings hat sich gezeigt, dass 18 Die erarbeiteten Thesauri können bei Bedarf über die Plattform ›museumsvokabular.de‹ (http:// www.museumsvokabular.de [07.07.2014]) und gegebenenfalls auch dem AAT-Übersetzungsprojekt zur Verfügung gestellt werden. 19 Das HAUM Braunschweig, das Städtische Museum Braunschweig, das Archäologische Museum Ham- burg, das Orientalische Münzkabinett Jena und die Universitätsbibliothek Leipzig planen, KENOM als Primärsystem zur Erfassung einzusetzen; die Stiftung Schloss Friedenstein, das Landesmuseum Stutt- gart, das Museum für Hamburgische Geschichte und das Stadtmuseum Freiburg planen die Publikation ihrer numismatischen Sammlungen über das Portal, da bereits andere Software zur Objekterfassung ein- gesetzt wird. Die VZG und die Numismatische Kommission der Länder (NK) haben bereits einen Ko- operationsvertrag zur Erschließung und Erfassung des Fundmünzkatalogs der NK geschlossen. Die Be- stände sollen über ein von der VZG entwickeltes Discovery-System publiziert werden. 20 Vgl. THALLER 2013.142 Inventarisieren im Verbund – Kulturerbe, kuniweb, KENOMgerade diese Angebote eine Fülle von neuen Fragen aufwerfen. Wer garantiert die stän- dige Verfügbarkeit der Services? Wer kümmert sich um die Archivierung der digitalen Objekte sowie der zugehörigen Metadaten? Steht ausreichend Servicepersonal dauerhaft zur Verfügung? Sind die eigenen Applikationen sowie deren Inhalte auch noch in eini- gen Jahren nutzbar? Sind die mit großem Aufwand bereitgestellten digitalen Informatio- nen überhaupt auffindbar? Die Verbundzentrale des GBV ist bereit, sich diesen Fragen zu stellen und ihren Beitrag zur Sicherung und Veröffentlichung von digitalen Sammlun- gen und Archiven durch die Entwicklung und Bereitstellung neuer Services zu leisten. Literaturverzeichnis DERSCHKA, Harald R.; FREY-KUPPER, Suzanne; CUNZ, Reiner (Hg.) (2005): Selbstwahrnehmung und Fremdwahrnehmung in der Fundmünzbearbeitung. Bilanz und Perspektiven am Beginn des 21. Jahrhunderts. II. Vorträge, Sitzungsbericht des fünften internationalen Kolloquiums der Schweizerischen Arbeitsgemeinschaft für Fundmünzen gemeinsam organisiert mit der Numismatischen Kommission der Länder in der Bundesrepublik Deutschland, Konstanz 4.– 5. März 2005 (= Untersuchungen zu Numismatik und Geldgeschichte, 7). Lausanne: Editions de Zèbre. THALLER, Manfred (Hg.) (2013): Das Digitale Archiv NRW in der Praxis: Eine Softwarelösung zur digitalen Langzeitarchivierung. Hamburg: Verlag Dr. Kovač. Verwaltungsabkommen über die Errichtung eines Bibliotheksverbundes; http://www.gbv.de/ Verbund/02GBV_1200 [07.07.2014]. Im Text erwähnte Webseiten Deutsche Digitale Bibliothek (DDB): http://www.deutsche-digitale-bibliothek.de Europeana: http://www.europeana.eu Gemeinsamer Bibliotheksverbund (GBV): http://www.gbv.de Goobi: http://www.goobi.org intranda GmbH: http://www.intranda.de Kulturerbe Niedersachsen: http://www.kulturerbe.niedersachsen.de kuniweb: http://kuniweb.gbv.de Münzkabinett Niedersachsen: http://www.muenzkabinett.niedersachsen.de Museumsvokabular: http://www.museumsvokabular.de Programmfabrik: http://www.programmfabrik.de Virtuelles Kupferstichkabinett: http://www.virtuelles-kupferstichkabinett.de143 Frank Dührkohp144 Kulturerbe digital – Bewahrung und Erschließung im virtuellen ›Studiolo‹ Doris Annette Hartmann und Andreas Oberhoff Seit Beginn der 1990er-Jahre wird die wissenschaftliche Arbeit zunehmend von der Digi- talisierung und anschließenden Distribution digitaler Dokumente via Internet geprägt. Ebenso befassen sich seit dieser Zeit verschiedene Programme und Forschungspro- jekte mit den Möglichkeiten der digitalen Erfassung und Bewahrung des kulturellen Er- bes. So wurde im Jahr 1992 vom damaligen Generaldirektor der ›United Nations Educa- tional, Scientific and Cultural Organization‹ (UNESCO), Federico Mayor Zaragoza, das Memory-of-the-World-Programm initiiert.1 Es soll dem Schutz des dokumentarischen Erbes der Menschheit dienen, wobei nicht nur die analoge und digitale Sicherung aller Arten von Dokumenten, einschließlich gedruckter Texte, Zeitungen, Manuskripte, Ton- dokumente, Foto- und Filmdokumente etc., vorangetrieben wird, sondern insbesondere die Demokratisierung ihrer Zugänglichkeit.2 Zu den ersten geförderten Projekten ge- hörte die Digitalisierung einiger historischer Manuskripte der Tschechischen National- bibliothek in Prag. Weitere beispielhafte Projekte sind die vollständige digitale Erfassung der Gutenberg-Bibel der Niedersächsischen Staats- und Universitätsbibliothek Göttin- gen und deren Aufarbeitung für das Internet3 sowie die virtuelle Zusammenführung der Renaissance-Bibliothek des Königs Matthias Corvinus in der Bibliotheca Corviniana Di- gitalis4 durch die Széchényi-Nationalbibliothek in Budapest. In diesem Zusammenhang wird durch die Digitalisierung des kulturellen Erbes und der daraus folgenden Verfüg- barkeit der Inhalte und Informationen für die Allgemeinheit das Konzept der Wissens- gesellschaften befördert. 1. Digitale Fachportale und Bilddatenbanken Doch nicht nur Bibliotheken und Archive begannen die neuen Techniken für ihre Zwe- cke zu nutzen. Auch in der Kunstgeschichte, welche sich stets als Bewahrerin des kultu- rellen Erbes verstand, wurden die Chancen und Perspektiven der Neuen Medien ab Mitte der 1990er-Jahre diskutiert. Obwohl der mediale Wandel vom analogen zum digi- talen Bild, vom Diaprojektor zum Videoprojektor in der alltäglichen Forschungs- und Lehrtätigkeit fast wie selbstverständlich vollzogen wurde, wurde schnell deutlich, dass verschiedene Strukturen und die Software an die Bedürfnisse angepasst werden mussten. 1 Gedächtnis der Menschheit: Memory of the World; http://www.unesco.de/mow.html [07.07.2014]. 2 Vgl. UNESCO 1993, S. 5. 3 Gutenberg digital; http://www.gutenbergdigital.de [07.07.2014]. 4 Bibliotheca Corviniana Digitalis; http://www.corvina.oszk.hu [07.07.2014].145 Doris Annette Hartmann und Andreas OberhoffZunächst entstanden mit dem Onlineportal ›Bildarchiv Foto Marburg‹5 und ›prometheus – Das verteilte digitale Bildarchiv für Forschung & Lehre‹6 stetig wachsende Bilddaten- banken. Diese wurden auf dem Gebiet der digitalen Bewahrung des kulturellen Erbes in Form virtueller Fachbibliotheken und Forschungsdatenbanken durch die Gründung des Online-Rezensionsjournals »Kunstform« und dem Portal ›arthistoricum.net‹ ergänzt.7 Inzwischen hat die Zahl der großen digitalen Datensammlungen und Objektdatenban- ken, in denen das kulturelle Erbe bewahrt und einem größeren Nutzerkreis zugänglich gemacht wird, stark zugenommen. Gleichzeitig wirft jedoch gerade die Quantität der Daten neue Fragen und Probleme zum Nutzen und zur Nutzung auf. Um das kulturelle Erbe tatsächlich global bewusst zu machen, ist eine Erläuterung, Ein- ordnung und Kontextualisierung zwingend notwendig. Das bedeutet, dass kulturelles Erbe zu bewahren heute nicht nur heißen kann, die Objekte bzw. immateriellen Zeug- nisse der Kulturen zu digitalisieren und über das Internet in Form von Datenbanken und -sammlungen verfügbar zu machen, sondern die Erforschung und Vermittlung stär- ker unter Einbezug der technischen Entwicklungen zu unterstützen. Dabei sollte sich die kunsthistorische Arbeit, laut Holger Simon, »nicht an der Unzulänglichkeit trivialer Datenbanktechnologien und Standards orientieren, sondern die Informationstechnolo- gie sollte vielmehr historisches Arbeiten abbilden«.8 Dieses Ziel gilt auch für die Aktivi- täten und Entwicklungen des Lehrstuhls für Materielles und Immaterielles Kulturerbe an der Universität Paderborn unter der Leitung von Eva-Maria Seng. Seit der Besetzung des Lehrstuhls im Jahr 2006 ist nicht nur in der Lehre ein Schwerpunkt auf die vielfälti- gen Aspekte des – vorwiegend materiellen – kulturellen Erbes und dessen Bewahrung gelegt worden, sondern auch auf neue Ansätze zur Erforschung und Dokumentation des immateriellen Erbes. 2. Das Paderborner Bildarchiv – die Datenbank des UNESCO-Kompetenzzentrums In enger Kooperation mit dem Zentrum für Informations- und Medientechnologien (IMT) der Universität Paderborn wurde zunächst mit dem Aufbau eines Videoarchivs mit filmischen Beiträgen zum kulturellen Erbe sowie eines digitalen Bildarchivs begon- nen. Im Letztgenannten werden Abbildungen aus den Bereichen der europäischen und außereuropäischen Kunstgeschichte, Architektur, Städtebau, Skulptur, Malerei, Grafik und anderer Bildkünste vom Mittelalter bis zur Gegenwart angefertigt und in einer On- linedatenbank, die auf der easyDB-Software basiert, zur Verfügung gestellt. Die Daten- bank wurde in die Dienste-Infrastruktur der Universität Paderborn eingegliedert und ist seit Januar 2008 als Bildarchiv des UNESCO-Kompetenzzentrums in das Bildarchiv 5 Deutsches Dokumentationszentrum für Kunstgeschichte – Bildarchiv Foto Marburg; http://www.fo- tomarburg.de [07.07.2014]. 6 prometheus – Das verteilte digitale Bildarchiv für Forschung & Lehre; http://prometheus-bildarchiv.de [07.07.2014]. 7 arthistoricum.net – Fachinformationsdienst Kunst; http://www.arthistoricum.net [07.07.2014]. 8 SIMON 2007, S. 8.146 Kulturerbe digital – Bewahrung und Erschließung im virtuellen ›Studiolo‹›prometheus‹ integriert und darüber recherchierbar. Inzwischen umfasst die Nutzer- gemeinschaft von ›prometheus‹ etwa 10.000 persönliche Zugänge, über 140 Campus- und Institutslizenzen und wird von 78 Datenbanken gespeist.9 Dennoch ist hinsichtlich der weltweiten Verfügbarkeit der Daten eine große Zahl der Forscher, aber auch schlicht interessierter Nutzer, vom Angebot des Paderborner Bildarchivs ausgeschlossen. Dies ist hauptsächlich durch das enge Korsett zur Einhaltung der Urheber- und Bildrechte bedingt, das ein striktes Rechtemanagement erfordert. Somit stößt die Datenbank in Be- zug auf kollaborative Forschungsaktivitäten schnell an ihre Grenzen. Ebenso wird der allgemeine Arbeits- und Forschungsprozess sowie die Dokumentation der Ergebnisse noch nicht optimal unterstützt. Letztlich stellt sich eine Bilddatenbank in der Regel doch als digitale Diathek dar. Eine ausdifferenzierte Ergebnisanzeige ist nur in Abhängigkeit zur Genauigkeit und feinen Abstufung der eingegebenen Metadaten bzw. der Suchfunktion möglich. Auch die angezeigte Reihenfolge der Ergebnisse ist eher von technischen als von persönlichen Faktoren bestimmt. Außerdem ist es nicht möglich, re- levante Forschungsergebnisse, die über die Angabe der Metadaten hinausgehen, direkt mit den Objekten zu verknüpfen, gleichzeitig mit diesen anzeigen zu lassen oder zu pub- lizieren. Zwar können bei der Software des Paderborner Bildarchivs durch verschiedene Erweiterungen unterschiedliche Datenformate in der Datenbank abgespeichert werden, jedoch verbleiben sie stets als separater Eintrag und können dauerhaft nur über die Ein- richtung von Arbeitsmappen miteinander verbunden werden. Diese hingegen sind im Weiteren nicht über ›prometheus‹ verfügbar, sondern müssen dort wieder neu angelegt werden, was wiederum nur mit einem persönlichen Zugang möglich ist. Die Kontextua- lisierung des digitalen kulturellen Erbes ist also im Fall dieser Datenbank nur notdürftig zu erreichen. 3. Nova Corbeia – Die virtuelle Bibliothek Corvey Im Hinblick auf diese Schwierigkeiten, insbesondere der Präsentation, Verfügbarkeit und Kontextualisierung, ist am Lehrstuhl im Rahmen des vom NRW-Ministerium für Innovation, Wissenschaft, Forschung und Technologie geförderten Projekts ›Kloster und Schloss Corvey als Orte abendländischer Bildungs- und Mediengeschichte‹ ein wei- teres wegweisendes Projekt realisiert worden. Im Zuge der Bewerbung Corveys um Auf- nahme auf die Liste des UNESCO-Weltkulturerbes sollte in diesem Forschungsprojekt vor allem das immaterielle Erbe Corveys in den Mittelpunkt der Untersuchung gestellt werden. Seit der Gründung des Klosters im frühen 9. Jahrhundert gab es eine Bibliothek und ein Skriptorium, in dem ab dem 10. Jahrhundert bedeutende Zeugnisse der ottoni- schen Buchkunst geschaffen wurden. Die mittelalterliche Bibliothek ist jedoch in den Wirren des Dreißigjährigen Krieges fast vollständig zerstört bzw. zerstreut worden. Auch die danach eingerichtete barocke Bibliothek wurde im Zuge der Säkularisation am Beginn des 19. Jahrhunderts aufgelöst. Eine umfassende Untersuchung zum Bücherbe- stand des ehemaligen Benediktinerklosters hat ergeben, dass sich einzelne Exemplare 9 Stand: Mai 2014, siehe http://www.prometheus-bildarchiv.de [07.07.2014].147 Doris Annette Hartmann und Andreas Oberhoffoder z.T. umfangreichere Bestände in Bibliotheken auf der ganzen Welt befinden (Fulda, Marburg, München, Florenz, New York usw.). Auf der eigens für das Projekt entwickelten Internetplattform ›Nova Corbeia – Die virtuelle Bibliothek Corvey‹10 konnten die Bibliotheken erstmals virtuell rekonstruiert und zusammengeführt werden. Dazu gehört nicht nur die aufwendige Digitalisierung wertvoller mittelalterlicher Hand- schriften, sondern auch deren bibliografische Erfassung, Katalogisierung und Beschrei- bung. Zusätzlich werden dem Nutzer – ob Wissenschaftler oder Laie – Informationen zur Geschichte und Architektur des Klosters, den Bibliotheken und zur allgemeinen Buchkunde, aber insbesondere auch zu den immanenten immateriellen Werten des Cor- veyer Skriptoriums und der frühen christlichen Missionierung der skandinavischen Län- der zur Verfügung gestellt. Bereits durch die Arbeit des Projekts konnte die Aufarbeitung eines großen Bestandes an Corveiana, der in der Marburger Bibliothek schlummerte, initiiert werden. Über die Internetplattform soll es Wissenschaftlern nun möglich werden, die gesamten Bestände an einem Ort erforschen zu können. Laien erhalten ebenso die Möglichkeit, sich mit den Objekten des kulturellen Erbes vertraut zu machen. Denn nur durch eine gute Kenntnis des Erbes kann dieses auch geschützt und für zukünftige Generationen bewahrt werden. Doch leider kann auch auf dieser Plattform die Arbeit am digitalen Objekt in Form von Annotationen oder Verknüpfungen verschiedener Textstellen nicht ermöglicht werden. Ebenso fehlt die Möglichkeit des wissenschaftlichen Austausches für Forschergruppen, die nicht notwendigerweise an einem gemeinsamen geografischen Ort arbeiten müssen. Auch das Problem der Medienbrüche durch die Nutzung unterschiedlicher Formate von Bild-, Ton-, Text- und Filmdateien kann auf dieser Plattform noch nicht überwunden werden. Aus diesem Grund ist es notwendig, eine Arbeitsumgebung zu schaffen, die das Grundprinzip der vergleichenden Kunstbetrachtung in Abhängigkeit des Kontextes ih- rer Entstehung – wie es seit Aby Warburg bekannt ist – unterstützt und in die neuen Medientechnologien überträgt. Also eines virtuellen Arbeitsraums, in dem unterschied- liche Medienobjekte und die jeweiligen Forschungsergebnisse untersucht, arrangiert, miteinander verglichen, bewertet, verknüpft oder kommentiert werden können. 4. Warburg digital Bereits zu Beginn des 20. Jahrhunderts wurde das Prinzip der vergleichenden Kunstbe- trachtung durch den Kunsthistoriker und Kulturwissenschaftler Aby Warburg begrün- det. Erstmals stellte er nicht nur den diachronen Vergleich einzelner Bildthemen und deren Darstellungsweise innerhalb der Kunstgeschichte an, um die Kontinuität von Bildmotiven und das vielfältige Weiterleben der Antike in der europäischen Kultur an- schaulich zu machen, sondern bezog ebenso Bildquellen verschiedener Kulturkreise, etwa amerikanischer Indianerstämme, ein. Ziel war es, eine kulturwissenschaftliche Bild- geschichte aufzustellen, die auch einen synchronen Vergleich sowohl materieller als auch 10 Nova Corbeia – Die virtuelle Bibliothek Corvey; http://nova-corbeia.uni-paderborn.de [07.07.2014].148 Kulturerbe digital – Bewahrung und Erschließung im virtuellen ›Studiolo‹immaterieller kultureller Äußerungen und ihres symbolischen Gehalts ermöglicht. Dazu heftete er Fotografien verschiedenster Objekte ebenso wie Werbeplakate, Briefmarken, Zeitungsausschnitte oder Pressefotos von Tagesereignissen mit Stecknadeln an Holzrah- men und gruppierte sie jeweils thematisch nach Forschungsfragen. Dieser Versuch, »mittels einfacher, flexibler Schautafeln die formalen Hintergründe und inhaltlichen Be- züge visueller Forschungsobjekte sichtbar zu machen und zu organisieren, steht stellver- tretend für das Bemühen, mediale Grenzen zu überwinden, welche durch die konventio- nelle Arbeit mit Zettelkasten, Fotosammlung und Bibliothek gegeben waren«.11 Auf das digitale Zeitalter übertragen bedeutet dies die Überwindung der Bilddatenban- ken, Onlinebibliotheken und Word-Dokumente auf dem eigenen Rechner oder in einer Cloud. Der Warburg’schen Grundidee folgend ist in den vergangenen Jahren in Kooperation von ›prometheus‹ mit der Leuphana Universität Lüneburg und der Humboldt-Universi- tät zu Berlin mit ›HyperImage‹12 ein Bildannotationstool zur »detailgenauen Annotation, Verknüpfung und Indexierung von Bildern und deren Details«13 entwickelt und in Form von ›Meta-Image‹14 in das prometheus-Bildarchiv integriert worden. Allerdings kann über den reinen Bildvergleich hinaus noch nicht die Verknüpfung mit audiovisuellen Daten und weiteren archivalischen Materialien bzw. Materialien aus verschiedenen Da- tenrepositorien unmittelbar ermöglicht werden. Ebenso ist eine kollaborative Arbeits- weise und die Zuweisung von Bearbeitungs- und Leserechten ausschließlich im Rahmen der prometheus-Lizenzen möglich und nicht von diesen zu entkoppeln. Über diese Lösungsansätze der kunsthistorischen Arbeit am Bild hinaus geht es darum, die flexible Strukturierung des mit den jeweiligen Forschungsobjekten verbundenen Wissens zu unterstützen, und damit die Bewahrung und insbesondere die wissenschaftli- che Erschließung von kulturellem Erbe mit digitalen Techniken zu befördern. Mit die- sem Ziel arbeitete an der Universität Paderborn ein interdisziplinäres Forscherteam an der Entwicklung einer virtuellen Arbeitsumgebung zur nachhaltigen Förderung und Be- gleitung des Forschungsdiskurses in der Kunst- und Architekturgeschichte. Im Projekt ›Studiolo communis‹15 wurde in Anlehnung an das studiolo der Renaissance als Raum, in den sich Gelehrte zurückzogen, um sich Forschungsfragen zu widmen, nun ein virtueller Ort kooperativer Forschungsprozesse geschaffen, welcher der beschriebenen intensiven Digitalisierung und immer stärkeren Vernetzung Rechnung trägt. Ziel des Projekts war eine möglichst nahtlose Integration der Plattform in bestehende Hochschulinfrastruk- turen (Abb. 1). 11 BRUHN 2005, S. 181. 12 HyperImage; http://www.uni-lueneburg.de/hyperimage/hyperimage [07.07.2014]. 13 DIECKMANN u.a. 2012, S. 14. 14 Meta-Image; http://www2.leuphana.de/meta-image [07.07.2014]. 15 DFG-Projekt ›Studiolo communis‹; http://imt.uni-paderborn.de/studiolo [07.07.2014].149 Doris Annette Hartmann und Andreas OberhoffAbb. 1: Das Projekt ›Studiolo communis‹. Integration der Forschungsumgebung in die bestehende Infra- struktur; Quelle: Heinz Nixdorf Institut 2010. 5. Infrastrukturen für Forschungsumgebungen Als Ausgangslage für ein solches Vorhaben findet man heute an Hochschulen meist eine funktionsorientierte Sichtweise vor, welche durch die Bereitstellung unterschiedlicher Dienste oder webbasierter Verwaltungsprozesse versucht, Rationalisierungspotenziale zu erschließen. Solche Dienste mögen hilfreich sein, beschränken den Betrachtungshori- zont aber nur auf eine reine Produzentensicht. So können Forschende beispielsweise Materialien von Servern anderer Wissenschaftler herunterladen, sind aber bezüglich ei- ner weiteren Verarbeitung und Verwaltung lokal auf sich gestellt. Es fehlt eine gemein- same virtuelle Arbeitsumgebung, in der die verteilten digitalen Materialien verschiedener Personen und Forschungsgebiete organisiert, bearbeitet, annotiert und mit anderen dis- kutiert und ausgetauscht werden können. Die technische Entwicklung muss sich aber weitaus näher an den Prozessen der Wissensarbeit selbst orientieren, da die wissen- schaftliche Arbeit der Forschenden sonst nicht in optimaler Weise unterstützt wird.16 Medienbrüche vielfältigster Art und damit einhergehender unnötiger Mehraufwand füh- ren dazu, dass spezialisierte Forschungsumgebungen häufig alleinstehende Insellösun- gen darstellen und nicht in bestehende Infrastrukturen integriert werden.17 Medienbrü- che können überall dort auftreten, wo verschiedene Technologien und unterschiedliche Systeme aufeinandertreffen und so innerhalb des Arbeitsprozesses ein Medienwechsel 16 Vgl. SCHULTE u.a. 2011. 17 Vgl. KEIL-SLAWIK/SELKE 1998.150 Kulturerbe digital – Bewahrung und Erschließung im virtuellen ›Studiolo‹erzwungen wird. Damit digitale Medienbrüche methodisch abgebaut werden können, müssen sich eben diese Methoden und Konzepte einer virtuellen und verteilt vernetzten Wissensorganisation öffnen. Insgesamt ist festzuhalten, dass heutige Forschungsumgebungen sowohl für die fachspe- zifische als auch die fachübergreifende Unterstützung von Forschungsprozessen auf al- len Prozessebenen grundlegende Defizite aufweisen. Ursachen dafür finden sich sowohl in der individuellen als auch in der institutionellen Ausgestaltung der Wissensorganisa- tion sowie in einem Mangel an Schnittstellen dazwischen. Bis dato gibt es noch keine universelle Plattform, die es möglich macht, Bilder und Videos, deren Metadaten und Literatur und darauf aufsetzende Diskussionen und resultierende Ergebnisse in einem virtuellen Arbeitsraum individuell, aber auch gemeinsam für private oder öffentliche Ar- beitsgruppen zu arrangieren, zu verknüpfen, zu diskutieren und schlussendlich auch zu publizieren. Darüber hinaus sollte die durchgängige Nachvollziehbarkeit des kompletten Forschungsdiskurses und seiner Ergebnisse möglich und archivierbar sein, im Gegen- satz zur reinen Publikation von Resultaten ohne die Möglichkeit von Referenzen auf Ausgangsmaterialien in Form von Bildern oder audiovisuellen Daten.18 6. Die Forschungsumgebung ›Studiolo communis‹ Ein Anspruch bei Entwurf und Entwicklung der Forschungsumgebung ›Studiolo com- munis‹ war neben einer möglichst medienbruchfreien und nahtlosen Integration in die bestehende Hochschulinfrastruktur (siehe oben) auch die Nutzung von Synergieeffekten durch den Einsatz bereits bewährter Konzepte zur Wissensarbeit. Da Forschungspro- zesse immer auch als Lernprozesse charakterisiert werden können,19 liegt es nahe, für den Aufbau von Wissenschaftlerarbeitsplätzen auch bewährte Konzepte des E-Learning zu übernehmen, um durch die Übertragung mehr Innovation in den Gestaltungsprozess von Forschungsumgebungen zu bringen und Synergien zu erschließen. Durch diese hy- pothesengeleitete Technikgestaltung20 lassen sich Aspekte berücksichtigen, die durch eine klassische Anforderungsanalyse allein nicht ableitbar gewesen wären, sich aber im E-Learning bereits etabliert haben. Obgleich wurden zu Projektbeginn natürlich auch Anforderungen für eine konkrete Plattform für den Forschungsdiskurs in der Kunst- und Architekturgeschichte ermittelt. Erst in einem zweiten Schritt wurde überprüft, ob bereits bewährte Konzepte synergetisch adaptiert werden konnten. So werden nun zu- nächst beispielhaft einige praktische Anforderungen an die Forschungsarbeit mit materi- ellem und immateriellem Kulturerbe vorgestellt, welche durch digitale Technikunterstüt- zung gelöst werden sollten. Anschließend werden Lösungsansätze aufgezeigt, die auf bewährten E-Learning-Konzepten fußen. 18 Vgl. SCHULTE u.a. 2011. 19 Vgl. WILLKE 2001. 20 Vgl. KEIL 2011.151 Doris Annette Hartmann und Andreas Oberhoff7. Anforderungen an die Forschungsumgebung Durch eine Analyse der vorherrschenden Arbeitsprozesse in der Forschungsarbeit und eine Befragung der Wissenschaftler wurden Anforderungen an eine virtuelle Forschungs- umgebung erhoben und Problemstellungen identifiziert. Als ein grundsätzliches Problem im alltäglichen Forschungsprozess wurde die Notwen- digkeit eines gemeinsamen Handlungsraums erkannt, welcher als Arbeitsbereich für die koaktive Zusammenarbeit der Forschenden dienen sollte. Medienobjekte verschiedens- ter Typen (Bilder, Audio, Video, Dokumente etc.) sollten dort arrangiert, annotiert, ver- knüpft und diskutiert werden können. Diese Daten können aber aus unterschiedlichen Repositorien und Datenbanken stammen und sollen unabhängig von ihren Speicher- orten für den Benutzer transparent verwendbar sein, auch damit digitale Duplikate ver- mieden werden. Der gemeinsame Handlungsraum sollte dabei möglichst kongruent mit dem Wahrneh- mungsraum sein, in dem die oben genannten Bearbeitungsfunktionen koaktiv stattfin- den. Das heißt, dass Operationen direkt an den Medienobjekten selbst durchgeführt werden können, und Medienbrüche so verhindert werden. Zusätzlich sollten unter- schiedlichste Objekte aggregiert bzw. Teilobjekte erzeugt werden können. Beispielsweise sollen Diskussionen dem Bild zugeordnet werden können, über das sie handeln, oder Teilausschnitte von Bildern werden zu neuen eigenständigen Objekten. Teil eines koaktiven Diskurses sind aber immer auch unterschiedliche Kontexte, in de- nen gearbeitet wird. Aus diesem Grund ist es neben einem gemeinsamen Handlungs- und Wahrnehmungsraum ebenfalls notwendig, dass unterschiedliche Sichten auf die Medieninhalte möglich sind. Diese Sichten müssen sowohl hinsichtlich der Darstellung von Objekten als auch der Funktionalität, mit denen sich diese bearbeiten lassen, anpass- bar sein. Ein Arbeitsbereich, in dem fremde und eigene Objekte betrachtet und modifiziert wer- den, braucht die Möglichkeit, differenzierte Berechtigungen objektbezogen zu vergeben, denn nur so kann ein kooperativer Umgang mit medialen Objekten auf allen Ebenen des Forschungsprozesses sichergestellt werden. Ein konkretes Beispiel für einen bisherigen Forschungsprozess ist der per E-Mail ge- führte Diskurs zu einem Bild. Hier fehlt sowohl der gemeinsame Handlungsraum als auch der gemeinsame Wahrnehmungsraum. Funktionen wie das Weiterleiten oder das Beantworten von E-Mails erzeugen Duplikate oder schlimmer unterschiedliche Varian- ten des Bildes und der Diskussion daran. Es entstehen zwangsläufig verzweigte Diskus- sionsstränge, die nicht oder nur schwer wieder zusammengebracht werden können.21 Ähnliches ist auch in (wissenschaftlichen) Blogs und Diskussionsforen zu beobachten. 21 Vgl. WAN/MCKEOWN 2004.152 Kulturerbe digital – Bewahrung und Erschließung im virtuellen ›Studiolo‹8. Lösungsansätze mithilfe bewährter Konzepte Bei der Entwicklung von Systemen zur Unterstützung von Wissensarbeit durch digitale Techniken werden Konzepte benötigt, welche sowohl die Umsetzung als auch die Pro- zesse selbst erleichtern können. An dieser Stelle sollen zwei bewährte E-Learning-Kon- zepte vorgestellt werden, deren Adaption für den Forschungsdiskurs im Folgenden er- läutert wird. Als grundlegende Basis und gleichwohl auch als strukturgebender Rahmen für E-Learn- ing-Plattformen wird oft auf das Konzept der virtuellen Wissensräume zur kooperativen Wissensorganisation zurückgegriffen.22 Dieses ursprünglich zur Förderung des individu- ellen Lernens unabhängig von zeitlichen, räumlichen und sozialen Rahmenbedingungen entwickelte Konzept dient diesen Systemen nicht nur zur räumlichen Ausgestaltung und Unterteilung von Arbeitsbereichen, sondern vor allem auch zur koaktiven Nutzung me- dialer Objekte.23 Virtuelle Wissensräume bieten vielfältige Unterstützungsfunktionen für die Wissensarbeit. Objekte können erstellt, bearbeitet und arrangiert werden, zusätzlich sind Kommunikationsfunktionen und eine Ereignissteuerung eng mit den Medien- elementen und ihrer Manipulation verwoben. Das bewährte Rollen- und Rechtemanage- ment und die flexible Raumstrukturierung ermöglichen eine feingranulare Abstimmung der Zugriffskontrolle auf Arbeitsbereiche, deren Inhalte und der Definition ihrer Dar- stellung. Neben den virtuellen Wissensräumen gibt es auch noch ein zweites bewährtes Konzept für die Wissensarbeit namens ›Mediarena‹, welches seinen Ursprung ebenfalls im Bereich des E-Learning hat. Es beschreibt verschiedene Aspekte im Umgang mit medialen Ob- jekten und ist eng verzahnt mit der Architektur virtueller Wissensräume.24 Das Konzept der Mediarena soll verdeutlichen, welches die grundlegenden technischen Qualitäten sind, die es gestatten, technisch bedingte Hindernisse zu beseitigen, die der Differenz- erfahrung (also dem Lernen) im Wege stehen. Zugleich verdeutlichen die Handlungs- bereiche Auswertung, Objektorientierung, Berechtigung und Koordination, welche Möglichkeiten Nutzern zur Ausgestaltung spezifischer Nutzungsszenarien seitens der Systementwickler eröffnet werden können. Das Konzept der Mediarena soll hier neue Dimensionen in der Verknüpfung und Ausgestaltung koaktiver Wissensarbeit eröffnen, um auf die Fragestellung hinzuführen, wie durch Technikgestaltung Hindernisse aus dem Weg geräumt werden können, die die Entfaltung der Selbstorganisation be- oder gar verhindern. Auf Basis der vorangestellten ›Anforderungen an die Forschungsumgebung‹ wird nun die Adaption einiger E-Learning-Konzepte aufgezeigt, ihr jeweiliger Einsatz erläutert und mögliche Synergieeffekte herausgestellt. 22 Vgl. HAMPEL 2001. 23 Vgl. KEIL-SLAWIK/SELKE 1998. 24 Vgl. KEIL 2010.153 Doris Annette Hartmann und Andreas OberhoffHinter dem Handlungsbereich der Koordination aus dem Konzept der Mediarena ver- birgt sich unter anderem die Unterstützung verteilter Persistenz. Unterschiedliche Spei- cherorte können aufgrund von Vernetzung und der Schnelligkeit des Datentransports als ein einziger Speicher im Bezug auf den Umgang mit persistenten Inhalten betrachtet werden. Der Zugriff auf entfernte Medienobjekte in verteilten Archiven oder Datenban- ken und deren Manipulation erfolgt transparent für den Benutzer. Dies eröffnet die Möglichkeit, Daten aus unterschiedlichen Repositorien in den Handlungsraum des For- schenden zu heben. Im ›Studiolo communis‹ werden auf diese Art beispielsweise ein di- gitales Bildarchiv, eine Dokumentenbibliothek und eine Literaturdatenbank nahtlos in die Forschungsumgebung integriert und somit wird die Anzahl der Medienbrüche ver- ringert. Für die Ausgestaltung des Arbeitsbereichs kommt das Konzept der virtuellen Wissensräume zum Einsatz. Zusammen mit den interaktiven Aspekten (Objektorientie- rung und Auswertung) der Mediarena ermöglicht dies die Einbeziehung unterschiedli- cher Medientypen und deren Arrangement, Annotation, Verknüpfung und Diskussion. Beispielsweise können Bilder aus dem zentralen Bildarchiv in einen Wissensraum gela- den und dort arrangiert werden. Diskussionen können direkt an diesen Bildern initiiert werden, was unmittelbar zur nächsten Anforderung führt. Durch die bereits erwähnte Objektorientierung soll ein Objekt der Wahrnehmung zu- gleich zum Objekt der Manipulation gemacht werden. Sie strukturiert zusammen mit der Qualität der Auswertung (Responsivität) das Handlungsfeld und unterstützt nicht nur das beschriebene Arrangieren von Medienobjekten, sondern vor allem auch das Aggre- gieren von Entitäten bzw. das Zerlegen in Teilobjekte. In der Forschungsumgebung ma- nifestiert sich dieser Aspekt beispielsweise durch die Möglichkeit, Bilder beliebig anzu- ordnen, Medienobjekte zu gruppieren, durch Texte oder Freihandzeichnungen anzurei- chern und Bildausschnitte zu markieren, um sie als neues Objekt zu definieren und wiederum einen Diskurs daran zu initiieren. Neben der Verschmelzung von Handlungs- und Wahrnehmungsraum verlangt der ko- aktive Diskurs aufgrund von unterschiedlichen Kontexten immer auch unterschiedliche Sichten auf die Arbeitsbereiche und deren Medieninhalte. Im ›Studiolo communis‹ kön- nen verschiedene Benutzer beispielsweise die gleichen im Bildarchiv zentral abgelegten Bilder in einem persönlichen Arbeitsbereich individuell arrangieren, mit eigenen Infor- mationen anreichern und zur Diskussion stellen. Zusätzlich können sich diese Sichten beispielsweise aufgrund von Berechtigungen auch im Umfang koaktiver Bearbeitungs- funktionen unterscheiden. Der Einsatz unterschiedlicher Sichten stammt aus dem Konzept der virtuellen Wissensräume, ebenso wie das dafür erforderliche Rechte- management. Damit überhaupt zwischen persönlicher oder gemeinsamer Wissensarbeit unterschieden und unterschiedliche Sichten mit unterschiedlichen Funktionalitäten realisiert werden können, wird ein feingranulares Rollen- und Rechtemanagement eingesetzt. Ein durch die Mediarena-Qualität der verteilten Persistenz (Koordinierung) ermöglichter gemein- samer Wahrnehmungs- und Handlungsraum muss durch Vergabe von Berechtigungen154 Kulturerbe digital – Bewahrung und Erschließung im virtuellen ›Studiolo‹dem jeweiligen Forschungsprozess und seinen Vorgaben angepasst werden können. In der Forschungsumgebung wird dazu auf eine vorhandene Umsetzung der virtuellen Wissensräume gesetzt, in der ein solches flexibles Rollen- und Rechtemanagement be- reits ausgereift verfügbar ist. Das konkrete Beispiel des Bilddiskurses per E-Mail kann nun durch die beschriebenen Adaptionen der E-Learning-Konzepte verbessert werden. So findet der Diskurs zu ei- nem Bild nun in einem gemeinsamen Arbeitsbereich (Handlungsraum) und direkt am Objekt (Wahrnehmungsraum) selbst statt. Digitale Duplikate werden vermieden und der Diskursverlauf ist für die Teilnehmer durchgehend verfolgbar. 9. Zusammenfassung In der Diskussion um den Einbezug der Neuen Medien, deren Möglichkeiten und Nut- zen für die kunsthistorische Forschung wurde in den vergangenen zwei Jahrzehnten im- mer wieder dem Wunsch Ausdruck verliehen, eine digitale Forschungsumgebung zur Verfügung zu haben, die sowohl der Wissensvernetzung als auch der Generierung von Wissen dient.25 Dabei sollten nach Möglichkeit die analogen Arbeitsweisen ›einfach‹ übertragen und im digitalen Medium widergespiegelt werden. Dies wird ebenfalls durch die projektbezogenen Entwicklungen der letzten Jahre im Bereich der Kunstgeschichte verdeutlicht. Auch das Projekt ›Studiolo communis‹ stellt sich diesen Anforderungen so- wohl aus Sicht der Informatik als auch aus fachwissenschaftlicher Perspektive. Bei der Planung und Entwicklung der Forschungsumgebung ›Studiolo communis‹ hat sich herausgestellt, dass zwischen den Bereichen E-Learning und E-Science ein erhebli- ches Synergiepotenzial vorhanden ist. Voraussetzung für dessen Nutzung ist aber immer eine durchgängige IT-Infrastruktur als Basis, welche Medienbrüche verhindert oder ge- zielt reduziert. Nur die nahtlose Integration in die hochschulweite Dienste-Infrastruktur garantiert einen Forschungsdiskurs, der nicht von Systemgrenzen unterbrochen wird und eine hohe Akzeptanz erreicht. Für die konkrete Ausgestaltung des ›Studiolo com- munis‹ wurden dazu etablierte Gestaltungskonzepte des E-Learning auf das E-Science übertragen. Die hierbei verwendeten Konzepte wurden so ausgewählt, dass deren Adap- tion für die Forschungsumgebung auch vielfältige Synergieeffekte erzeugen kann. Die vorgestellte Vorgehensweise ist insoweit wegweisend, als dass sie Gestaltungsdimensio- nen betrachtet, die weder durch das klassische ›Requirements Engineering‹ noch durch soziotechnische Analysen berücksichtigt werden. Beim ›Requirements Engineering‹ wer- den zwar Nutzeranforderungen erfasst, diese lassen sich jedoch nicht immer technisch umsetzen oder sind unvollständig. Die Adaption von bewährten Gestaltungsprinzipien anderer Disziplinen kann wichtige Impulse für die Implementation von spezifischen Forschungsumgebungen geben. 25 Vgl. KOHLE/KWASTEK 2003; SIMON 2007.155 Doris Annette Hartmann und Andreas OberhoffLiteraturverzeichnis BRUHN, Matthias (2005): Der Bilderatlas vor und nach dem Zeitalter der Digitalisierung. In: FLACH, Sabine; MÜNZ-KOENEN, Inge; STREISAND, Marianne (Hg.): Der Bilderatlas im Wechsel der Künste und Medien. München: Fink, S. 181–197. DIECKMANN, Lisa; KLIEMANN, Anita; WARNKE, Martin (2012): Meta-Image – Forschungsumge- bung für den Bilddiskurs in der Kunstgeschichte. In: cms-journal, H. 35, S. 11–17; http:// edoc.hu-berlin.de/cmsj/35/dieckmann-lisa-11/PDF/dieckmann.pdf [07.07.2014]. FERBER, Ferdinand; GIEßMANN, Marco; HAMPEL, Thorsten; SCHULTE, Jonas (2008): Bringing Together High-Tech Laboratories and E-Learning Infrastructures. In: GRGIC, Mislov; GRGIC, Sonja (Hg.): Proceedings of the 50th International Symposium ELMAR, Zadar, Kro- atien, S. 361–364. GOSTMANN, Peter; MESSER, Serena (2007): Kultur erwägen oder Das Seminar als narratives Netzwerk. Eine Bemerkung über opensteam und die Didaktik der Soziologie. Bericht aus ei- nem Seminar. In: EWE – Erwägen Wissen Ethik. Forum für Erwägungskultur, Jg. 18, H. 2, S. 313–320; http://groups.uni-paderborn.de/ewe/fileadmin/user_upload/Erwaegungsla- bor/II.Berichte_aus_Seminaren/Gostmann_Messer_Kultur_erwaegen_18_2007_2.pdf [07.07.2014]. HAMPEL, Thorsten (2001): Virtuelle Wissensräume. Ein Ansatz für die kooperative Wissensorga- nisation. Dissertation Universität Paderborn; http://digital.ub.uni-paderborn.de/ubpb/urn/ urn:nbn:de:hbz:466-2001010181 [07.07.2014]. KEIL, Reinhard (2011): Hypothesengeleitete Technikgestaltung als Grundlage einer kontextuellen Informatik. In: BREITER, Andreas; WIND, Martin (Hg.): Informationstechnik und ihre Orga- nisationslücken. Soziale, politische und rechtliche Dimensionen aus der Sicht von Wissen- schaft und Praxis. Berlin: LIT Verlag, S. 165–184. DERS. (2010): Das Differenztheater. Koaktive Wissensarbeit als Selbstorganisation. In: BUBLITZ, Hannelore; KALDRACK, Irina; RÖHLE, Theo; ZEMAN, Mirna (Hg.): Automatismen – Selbst- Technologien. München: Fink, S. 205–230. KEIL-SLAWIK, Reinhard; SELKE, Harald (1998): Mythen und Alltagspraxis von Technik und Ler- nen. In: Informatik Forum, Jg. 12, H. 1, S. 9–17. KOHLE, Hubertus; KWASTEK, Katja (Hg.) (2003): Digitale und digitalisierte Kunstgeschichte. Perspektiven einer Geisteswissenschaft im Zeitalter der Virtualität (= zeitenblicke. Online- Journal, 2/1); http://www.zeitenblicke.de/2003/01/index.html [07.07.2014]. SCHULTE, Jonas; KEIL, Reinhard; OBERHOFF, Andreas (2011): Unterstützung des ko-aktiven Forschungsdiskurses durch Synergien zwischen E-Learning und E-Science. In: KÖHLER, Thomas; NEUMANN, Jörg (Hg.): Wissensgemeinschaften. Digitale Medien – Öffnung und Offenheit in Forschung und Lehre. Münster: Waxmann, S. 81–91. DERS.; DÖPKE, Ingo; KEIL, Reinhard; STARK, Konrad; EDER, Johann (2009): Enhanced Security Management for Flexible and Dynamic Cooperative Environments. In: The 5th International Conference on Collaborative Computing: Networking, Applications and Worksharing. Wash- ington D.C., USA, S. 1–10. SIMON, Holger (2007): Kunstgeschichte im digitalen Informationszeitalter – eine kritische Stand- ortbestimmung. Plenumsvortrag. 29. Deutscher Kunsthistorikertag, Regensburg; http://ar- chiv.ub.uni-heidelberg.de/artdok/274/1/Simon2007.pdf [08.05.2014].156 Kulturerbe digital – Bewahrung und Erschließung im virtuellen ›Studiolo‹UNESCO (1993): Rapport final. Première réunion du Comité consultatif international du Pro- gramme „Mémoire du monde“. Consultation régionale sur la conservation, la sauvegarde et la promotion du patrimoine documentaire des pays d’Europe centrale et orientale, Pułtusk, Po- len; http://unesdoc.unesco.org/images/0009/000963/096365fb.pdf [07.07.2014]. WAN, Stephen; MCKEOWN, Kathy (2004): Generating Overview Summaries of Ongoing Email Thread Discussions. In: Association for Computational Linguistics (Hg.): Proceedings of the 20th international conference on Computational Linguistics COLING, Genf, Schweiz. WILLKE, Helmut (2001): Systemisches Wissensmanagement. 2. Aufl. Stuttgart: Lucius & Lucius. Im Text erwähnte Webseiten arthistoricum.net: http://www.arthistoricum.net Bibliotheca Corviniana Digitalis: http://www.corvina.oszk.hu Bildarchiv Foto Marburg: http://www.fotomarburg.de Gutenberg digital: http://www.gutenbergdigital.de HyperImage: http://www.uni-lueneburg.de/hyperimage/hyperimage Memory of the World: http://www.unesco.de/mow.html Meta-Image: http://www2.leuphana.de/meta-image Nova Corbeia – Die virtuelle Bibliothek Corvey: http://nova-corbeia.uni-paderborn.de prometheus: http://prometheus-bildarchiv.de Studiolo communis: http://imt.uni-paderborn.de/studiolo157 Doris Annette Hartmann und Andreas Oberhoff158 netpioneers.info – Quellenkundliche Überlegungen zur Re-Präsentation früher Netzkunst Gunther Reisinger und Mario Röhrle 1. Das Projekt ›netpioneers‹ Im Sinne eines Werkstattberichts soll im Folgenden ein Projekt vorgestellt werden, das sich mit einem speziellen Teilaspekt des digitalen kulturellen Erbes beschäftigt – mit ei- ner Kunstform, die nicht nur genuin digital, sondern darüber hinaus netzbasiert ist und damit in ihrer künstlerischen Konstitution als bereits digitales und netzbasiertes Kultur- erbe zu definieren ist. Interessierten (Kunst-)Historikern kann diese Form der Medien- kunst demnach ohne mediale Transformation vom Analogen in das Digitale oder ohne digitale Rekonstruktion vor Augen treten. Dies allerdings nur unter der Bedingung, dass die Kunstwerke oder netzbasierten künstlerischen Aktivitäten denn überhaupt noch ver- fügbar sind. Warum Netzkunst? Das Projekt wurde 2007 initiiert, weil viele dieser Arbeiten bereits aus ihrem werkeige- nen Medium – dem Internet – verschwunden waren und es für in diesem Bereich for- schende Kunst- und Kulturwissenschaftler unabdingbar geworden war, zumindest einige dieser Arbeiten als Gegenstände ihrer Analyse in authentischem Zustand zur Verfügung zu haben. Es war demnach kein Ziel der Auseinandersetzung, eine (weitere) Chronologie des Genres Netzkunst zu erarbeiten, vielmehr wurde versucht, im Dienste der künstleri- schen Arbeiten konkrete Workflows im Sinne einer angewandten Grundlagenforschung im Bereich digitaler Quelleneditionen zu entwickeln. In diesem Sinne sei deshalb ein kurzer Exkurs zu methodischen Hintergründen im disziplinären Bereich der Kunstge- schichte vorangestellt, präzisiert zur Methode der kunsthistorischen Quellenarbeit. Kunst- und kulturwissenschaftliche Fragestellungen Auch im Fach Kunstgeschichte arbeitet man seit Einzug digitaler Re-Präsentationsme- dien immer weniger an Originalen, sondern zunehmend an deren Reproduktionen oder Abbildern. Darüber wurde und wird zwischenzeitlich ein reger Diskurs geführt, der zwar keineswegs neu ist, nun jedoch nicht zuletzt aufgrund der neumedialen Quellenzugänge wieder aufgenommen wurde. Gemeinsam ist vielen der innerhalb dieser Debatten ver- handelten Herangehensweisen ihr Fokus auf ursprünglich analoge Kunstformen, die entweder aus ihrer medialen Analogie in eine andere analoge Erscheinungsform trans- formiert wurden (beispielsweise die in der Kunstgeschichte lange Zeit als Bildquelle die- nenden Diareproduktionen) oder – in neueren Zeiten – in die Medialität des Digitalen159 Gunther Reisinger und Mario Röhrleüberführt wurden. Die Werkquelle des Kunsthistorikers ist also – auch deshalb dieser Exkurs – seit Anbeginn der Disziplin oftmals nicht das Kunstwerk selbst; man be- schreibt nicht selten die Reproduktion mehr als das Original selbst. Damit hat die Kunstgeschichte ihren Umgang gefunden und sich didaktisch wie methodisch weitge- hend arrangiert. Wie verhält es sich jedoch mit ihrerseits bereits digital entstandenen (born digital) und da- rüber hinaus im Onlinemedium gehaltenen und (in den meisten Fällen) performativen Kunstformen wie der Netzkunst? Und unter Netzkunst sollen hier eingrenzend jene künstlerischen Spielarten verstanden werden, die mediale Konstitutionen des WWW als ihr künstlerisches Material definieren und demnach nur im Netz werkgerecht exponiert werden können. Unter der Grundannahme, dass Kunst- und Kulturwissenschaftler, die sich mit dem Phänomen Netzkunst auseinandersetzen, dies in den meisten Fällen und sinnvollerweise vor einem Bildschirm tun und weniger unter Zuhilfenahme von Büchern und den darin enthaltenen Abbildern von Internetauftritten, tritt hier der Fall ein, dass sich das Werk im Netz und über den Bildschirm (im genauen Gegensatz beispielsweise zu Werken bil- dender Kunst oder der Architektur) als Original darstellt – original zumindest, was die werkeigene Medialität betrifft. In vielen Fällen weniger original, was den Zustand der Veränderung oder des zeitlichen Verfalls des auf uns gekommenen digitalen und online- basierten Kunstwerks betrifft. Es bietet sich anhand netzbasierter künstlerischer Arbeiten demnach erstmals die Mög- lichkeit, das Werk in seinem Entstehungsmedium (nämlich dem Digitalen) nicht nur zu begutachten, sondern unter Entwicklung einer werkadäquaten, also möglichst performa- tiven Methode auch im werkeigenen Medium analysieren zu können. Vereinfacht: Diese Kunstform kann im digitalen und damit werkeigenen Medium archiviert, re-präsentiert und analysiert werden, und damit der Forschung nicht-transformiert zur Analyse zur Verfügung gestellt werden. 2. Quellenlagen Das Forschungsprojekt1 widmet sich allerdings nicht nur den medienimplizit sehr flüch- tigen Werken; zum Ansatz der Forschungsarbeit zählt auch eine dem Onlinemedium entsprechende Aufarbeitung der den Werken und Plattformen zugehörigen Quellenla- gen in Form von Künstler- und Projektarchiven. Als Ziele der Forschungsarbeit können demnach einerseits die werkgerechte Re-Präsentation (und damit die Erhaltung) des Werks (bzw. der Plattformen) und andererseits die Zur-Verfügung-Stellung der den Werken zugehörigen Quellen im selben Medium, also dem netzbasierten Archiv defi- niert werden. 1 Das Projekt wurde 2007 am Ludwig Boltzmann Institut Medien.Kunst.Forschung. in Linz initiiert und dort bis Ende 2009 durchgeführt. Die vorläufigen Ergebnisse sind nunmehr an der Karl-Franzens-Uni- versität Graz verortet.160 netpioneers.info – Quellenkundliche Überlegungen zur Re-Präsentation früher NetzkunstDementsprechend hat sich die zur Anwendung gebrachte Methodik entwickelt: Um – einerseits – die Restaurierung möglichst werkgerecht durchzuführen2 und weil im Fall der Netzkunst die Künstler, Projektverantwortlichen und ehemaligen Systemadministra- toren als Auskunftspersonen zu einstigen Werkkonstellationen noch befragt werden können, wurden in Zusammenarbeit die überbliebenen digitalen Fragmente (der Quell- code) der Kunstwerke und Plattformen restauriert, auf den einst gebräuchlichen Server- systemen zusammengefügt und auf Basis der einstigen Datenbankversionen wieder ans Netz gebracht.3 Aus kunstwissenschaftlicher Sicht wurde – andererseits – ein Teilaspekt des Gesamtpro- jekts erarbeitet, nämlich der Umgang mit den uns zur Aufarbeitung anvertrauten analo- gen und digitalen Quellenlagen, also der projektspezifische Umgang mit dem werkumge- benden Kontext in Form von Selbstbeschreibungen, Pressespiegeln, Skizzenbüchern oder unterschiedlichen AV-Medien.4 Auch hier wurde – wie auf Werkebene – versucht, dem digitalen und onlinebasierten Repräsentationsmedium gerecht zu werden: mit dem Ziel der Zusammenschaltung der Werke mit den zugehörigen Quellen in einem – nämlich dem digitalen – Medium.5 Neben der Wieder-zur-Verfügung-Stellung der Primärquelle, also der Kunstwerke und Plattformen selbst, war es uns im Sinne der Ermöglichung weiterer wissenschaftlicher Aufarbeitungen demnach ein Anliegen, die vorliegenden Quellenlagen nicht selektiert und auch nicht kommentiert in Form einer digitalen Quellenedition zur Verfügung zu stellen. Was damit – als durchaus beabsichtigter side effect – einherging, war die langfris- tige Sicherung und Zusammenführung all dieser Daten und Artefakte unter einem medi- alen Dach. Diesem Paradigma folgend wurden Nutzungsmöglichkeiten geeigneter Visu- alisierungsstrategien entwickelt, um sowohl die Inhalte wie auch die Zusammenhänge (Relationen) der Quellen mit den Werken im Onlinemedium zu veranschaulichen – mit dem Zweck des wissenschaftlichen Erkenntnisgewinns, im Sinne einer digitalen Episte- mologie. Genuin digitale Materialien Von den Werkeigentümern wurden im Rahmen des Forschungsprojekts die als Wurzel- verzeichnisse der Webserver konfigurierten Ordner und Unterordner zu Restaurierungs- und Analysezwecken zur Verfügung gestellt. Dazu kamen noch weitere digitale Daten wie Disketten oder CDs. Insgesamt handelt es sich um etwa 85.000 Dateien mit einem Volumen von rund 3 Gigabyte. Dies entspricht einer durchschnittlichen Dateigröße von 2 Zu vergleichen mit Restaurierungsparadigmen in traditionellen Bereichen wie der Skulptur- oder Ge- mälderestaurierung. 3 Sämtliche Zwischenergebnisse sind (aus urheberrechtlichen Gründen teils zugangsgeschützt) auf der Projekthomepage veröffentlicht; http://netpioneers.info [07.07.2014]. 4 AV-Medien sind audiovisuelle Medien. 5 Meist liegen in kunsthistorischen Feldern die Primär- und die Sekundärquelle auf differenten medialen Ebenen (z.B. Gemälde und zugehörige textuelle Bildbeschreibungen).161 Gunther Reisinger und Mario Röhrleetwa 37 Kilobyte, eine für Onlinepräsenzen dieser Zeit typische Dateigröße. An Dateity- pologien finden sich überwiegend die im Internet gebräuchlichen Bild- und Textformate wie GIF, JPEG und HTML, weiter diverse Skriptsprachen wie Perl, aber auch dereinst genutzte Multimediaformate wie RealMedia oder QuickTime sowie Beschreibungen für 3-D-Szenen (VRML).6 Nicht enthalten waren beispielsweise Konfigurationsdateien, die tiefer gehende Rückschlüsse auf die in den einzelnen Fallbeispielen verwendeten spezifi- schen Umgebungen der eingesetzten Webserver-Software erlaubt hätten. Der Vorteil für Forschungen auf technischer und geisteswissenschaftlicher Ebene kann demnach im Zugriff auf die einzelnen Verzeichnisse des Webservers und somit den kompletten Dateibestand gesehen werden. Im Gegensatz zu den bei Webarchivierungen üblicherweise eingesetzten ›Crawlern‹ im Rahmen einer Spiegelung, die ›einen Blick von außen‹ auf die Inhalte erlauben,7 gewinnt man auf dem vorgestellten Weg einen tieferen Einblick in die Serverstrukturen und die individuellen Arbeitsweisen der Protagonisten. Im Besonderen sind es die verschiedenen Versionen einzelner HTML-Seiten, die eine Analyse der Herangehensweisen der Programmierer und der damit zusammenhängen- den Genese spezifischer Seiten erlauben: durchaus vergleichbar mit Skizzen und Ent- würfen in traditionellen Genres der bildenden Kunst. Es gilt jedoch zu beachten, dass die Dateistrukturen nur einen einmaligen Ausschnitt, eine zu einem gegebenen Zeit- punkt angefertigte Kopie darstellen. Einzelne Zeit(ab)schnitte, d.h. mögliche Versionen der Websites müssen und können aus den vorliegenden Daten rekonstruiert werden. Abbildung 1 zeigt exemplarisch den Ordner (und die Unterordner), der die frühen Ver- sionen der Homepage von ›THE THING Vienna‹8 enthält. Markiert ist die Indexseite mit insgesamt drei weiteren – älteren – Versionen der Seite, die einen Zeitraum von knapp zwei Jahren abdecken. Dieser auf die Dateiinhalte fokussierten und serverseitigen Kopie der Daten steht die als ›Spiegelung‹ bezeichnete Form der Webarchivierung gegenüber. Hierbei liegt der Schwerpunkt auf dem Blick von außen, also auf der dem Nutzer gegenübertretenden visuellen Darstellungsweise sowie der Kommunikation zwischen Browser und Server. Für eine Prüfung der Authentizität und Integrität der im Projekt vorhandenen Dateien und den daraus gebildeten Webseiten bzw. der gesamten Webpräsenz ergibt sich das Problem, dass entsprechende zeitgenössische Spiegelungen nur sehr begrenzt vorhan- den sind. 6 Zudem findet sich in den Datenpaketen noch ein Konglomerat weiterer Formate: von proprietären Text- und Bildverarbeitungsformaten bis hin zu diversen Datenkompressionsformaten. 7 Es bleibt eine Ungewissheit, da die Inhalte nicht komplett oder nur in einer spezifischen Form – näm- lich der dem ›Crawler‹ zur Verfügung stehenden Repräsentation – erhalten werden. 8 www.thing.at/old_thing [offline 21.03.2012].162 netpioneers.info – Quellenkundliche Überlegungen zur Re-Präsentation früher NetzkunstAbb. 1: Beispiel eines Wurzelverzeichnisses; Quelle: eigener Screenshot. Als zusätzliche Quelle kann hier auf das seit 1996 bestehende ›Internet Archive‹9 oder auf Screenshots in Selbst- und Fremddarstellungen zurückgegriffen werden, wie sie bei- spielsweise in den projektinhärenten Quellenkorpora in Form von Förderanträgen oder Zeitschriftenartikeln zu finden sind. Die Daten wurden in ein eigenentwickeltes Online-Sichtungswerkzeug eingespielt, das es ermöglicht, sie intern recherchier- und zugreifbar bereitzustellen (vgl. Abb. 2). Diese Anwendung erlaubt unter anderem, über eine hierarchische Baumstruktur durch den Be- stand zu navigieren und diesen mitsamt den intern referenzierten Objekten darzustellen. Beim ›Ingest‹ in das genannte System wurden zudem – überwiegend technische – Meta- daten automatisiert ermittelt und in einer Datenbank hinterlegt.10 Auch wurde mit die- sem Arbeitsschritt jeder Datei ein Identifier zugewiesen sowie eine Prüfsumme gebildet. 9 Das ›Internet Archive‹ ist ein von dem Informatiker Brewster Kahle begonnenes gemeinnütziges Pro- jekt. Ziel ist es, regelmäßige Spiegelungen von Webseiten zu erstellen und zur Verfügung zu stellen. Ar- chivierte Seiten können über einen als »Wayback Machine« bezeichneten Onlineservice eingesehen werden; http://archive.org/web/web.php [07.07.2014]. Beispielsweise wurde die Seite unter http:// www.thing.at seit ihrer ersten Erfassung am 16. Dezember 1996 bis zu der aktuell letzten am 5. März 2010 insgesamt 105-mal gespiegelt (vgl. http://wayback.archive.org/web/*/http://www.thing.at [07.07.2014]). 10 Wie das jeweilige Dateiformat, die Bildgröße und Farbtiefe von Bildern oder die Bitrate von Videos.163 Gunther Reisinger und Mario RöhrleAbb. 2: Ansicht der Dateien im Online-Sichtungswerkzeug und einer zugehörigen Repräsentation (Perfor- mance); Quelle: eigener Screenshot. Insbesondere für den Quellentypus der HTML-Seite war es vorgesehen, in einem zwei- ten Analyseschritt weitere Daten wie den jeweiligen Dokumenttyp (DOCTYPE), ver- wendete Plug-ins, Skripte und eingebettete Objekte, verwendete Tags oder referenzierte Dateien zu ermitteln. Die so gewonnenen Daten stehen sogleich für die Recherche zur Verfügung: Neben einer Volltextsuche und einer Suche nach Datei- oder Ordnernamen ist es möglich, Dateien nach einer vorhandenen Dateiendung oder ihrem ›Internet Me- dia Type‹11 in den Verzeichnissen zu lokalisieren. Nicht-digitale Materialien Neben diesem Zugriff auf genuin digitale Daten besteht die Möglichkeit, auf die genann- ten Dokumentensammlungen (analoge Text- und Bildkorpora) der Projektpartner zuzu- greifen: Es handelt sich hierbei um rund 3.200 ein- bis mehrseitige Objekte, insgesamt etwa 6.500 Einzelseiten, die überwiegend im A4-Format vorlagen. Diese Dokumente 11 Die Dateiendung ist ein externes Merkmal, das zur Identifikation eines Dateiformats herangezogen wer- den kann. Da die Dateiendung jedoch beliebig veränderbar ist, ist es ratsam, zusätzlich interne Merk- male (wie die sogenannte magic number) einer Datei zu deren Identifikation heranzuziehen. Der ›Internet Media Type‹, auch bekannt als MIME (Multipurpose Internet Mail Extension) Type, wird hauptsächlich als Identifikator für Dateiformate im Internet eingesetzt. Für den Einsatz im Rahmen der digitalen Ar- chivierung sind beide genannten Klassifikationsmethoden aufgrund ihrer mangelnden Eindeutigkeit bzw. ihrer Granularität nicht befriedigend. Alternativen bieten ›Technical Registries‹, die einen eindeuti- gen und unveränderlichen Identifikator zur Verfügung stellen, wie z.B. PRONOM mit dem ›PRONOM Persistent Unique Identifier‹ (PUID) oder das ›Unified Digital Format Registry‹ (UDFR); http:// apps.nationalarchives.gov.uk/PRONOM [07.07.2014]; http://udfr.org [07.07.2014].164 netpioneers.info – Quellenkundliche Überlegungen zur Re-Präsentation früher Netzkunstwurden durch einen externen Dienstleister hochauflösend gescannt und anschließend ei- ner optischen Zeichenerkennung zugeführt. Von den Masterdateien im TIF-Format wur- den Repräsentationen im JPEG-Format erstellt und in die Arbeitsumgebungen einge- spielt. Die Texte, die im Microsoft-Word-Format vorlagen, wurden zunächst in das XML- Format der ›Text Encoding Initiative‹ (TEI)12 migriert und von dort zur Darstellung im Front-End des Bearbeitungssystems13 nach XHTML transformiert. Die einzelnen Ob- jekte wurden zum Teil automatisiert, überwiegend jedoch manuell mit inhaltlichen, for- malen, strukturellen und administrativen Metadaten versehen. Die Tektonik der Materi- alien wurde im Sinne der Wiedergabe der ursprünglichen Archivstruktur beibehalten. 3. Arbeitsumgebungen Ein besonderes Augenmerk bei der Bearbeitung der Quellen lag auf der Extraktion von Aussagen (auch Tripeln) aus den Texten: ein Konzept, das zwischenzeitlich besonders im Rahmen des sogenannten ›Semantic Web‹ an Bedeutung gewonnen hat. Indizierung Ein Hintergrund dieser Herangehensweise ist es, die den Texten inhärenten Aussagen in eine Form zu überführen, welche die maschinelle Interpretation und Verarbeitung durch den Computer erlaubt.14 Über diese Vorgehensweise wurden hauptsächlich Informatio- nen über Personen und Körperschaften, netzbasierte künstlerische Aktivitäten oder asso- ziierte Ereignisse (Ausstellungen, Symposien, Workshops), Orte, Zeitangaben, Domains und URLs sowie zum Einsatz gekommene Hard- und Software erfasst. Die diesbezügli- chen Daten wurden manuell wie maschinell15 direkt aus den Quellen gewonnen: Künstlername → ist Gründer von → Projekttitel Ortsangabe → ist Gründungsort von → Projekttitel Datum → ist Gründungsdatum von → Projekttitel Domainname → ist Domain von → Projekttitel Aus den erfassten Entitäten und ihren typisierten Beziehungen entsteht kontinuierlich ein Wissensnetz, das die verschiedenen Quellen im Idealfall zu umspannen vermag. Die- 12 Das seit 1994 entwickelte und inzwischen auf XML basierende, modular aufgebaute Dokumentenfor- mat TEI ist darauf ausgelegt, die Anforderungen an eine Textauszeichnung in geisteswissenschaftlichen Arbeitsfeldern abzudecken. Das Format hat in diesem Bereich eine weite Verbreitung gefunden. Da im Rahmen des vorgestellten Projekts die verwendeten Auszeichnungen sich überwiegend auf die hierar- chische Struktur der Texte bezogen (Überschriftenebenen, Paragrafen), wurden in einer späteren Pro- jektphase keine TEI-Dokumente erstellt, sondern direkt die entsprechenden Elemente von XHTML genutzt. Die offizielle Website des TEI-Konsortiums ist erreichbar unter http://www.tei-c.org [07.07.2014]. 13 Siehe Abschnitt ›Arbeitsumgebungen‹. 14 Für eine Einführung in die zugrunde liegenden Techniken und Konzepte vgl. http://www.w3.org/stan- dards/semanticweb [07.07.2014]. 15 Exemplarisch und zur Erprobung des Verfahrens wurde dies auch automatisiert durchgeführt.165 Gunther Reisinger und Mario Röhrleses ›semantische Netz‹ kann nachfolgend visualisiert werden.16 Durch die Repräsenta- tion erst erkennbar gewordene Zusammenhänge bilden wiederum die Grundlage für die weiterführende inhaltliche Erschließung und quellentheoretische Forschung. Ebenso wurde dieses System der Aussagenbildung dazu eingesetzt, Relationen zwischen einzelnen Objekten, beispielsweise auf struktureller oder inhaltlicher Ebene, zu erstellen. Dabei können sowohl Beziehungen zu anderen Digitalisaten als auch zu genuin digital vorliegenden Objekten erstellt werden. Da eine Aussonderung identischer Materialien im Sinne des Nicht-Eingriffs in die Quellenkorpora nicht durchgeführt wurde, kann ein als digitalisierter Zeitungsausschnitt vorliegender Artikel auch Bestandteil einer Presse- mappe sein, oder als ein in einer Zeitschrift veröffentlichter Screenshot einer Webseite im Dateisystem als HTML-Datei vorliegen. Die Konzeption sah vor, die bei der Aussagefindung identifizierten Entitäten – also Per- sonen, Körperschaften, Orts- und Zeitangaben – direkt im TEI-kodierten Text zu hin- terlegen: Dies konnte zum damaligen Zeitpunkt (2009) noch nicht zufriedenstellend rea- lisiert werden. Vielmehr wurden im Projektverlauf zu diesem Zweck verschiedene Hilfsmittel eingeführt, die sich um die Quelle gruppieren (vgl. Abb. 3). Abb. 3: Tagging der Quelle; Quelle: eigener Screenshot. 16 Hierfür kam eine projektbezogene Adaption der Software Semaspace von Dietmar Offenhuber zum Einsatz; vgl. http://offenhuber.net/semaspace [07.07.2014] und http://www.netpioneers.info/node/3 [07.07.2014].166 netpioneers.info – Quellenkundliche Überlegungen zur Re-Präsentation früher NetzkunstDas vorliegende Recherche- und Bearbeitungssystem bietet eine übliche Volltextsuche über alle erfassten Daten. Zudem besteht die Möglichkeit eines systematischen Zugangs über die ›Dateitektonik‹, die sich aus der Ordnung der bearbeiteten Materialien ergibt. Layoutgetreue Abbildungen können über die eingebundenen Digitalisate eingesehen werden. Die aus den Digitalisaten automatisch generierten Texte können direkt korri- giert und mit Strukturinformationen angereichert werden. Zudem werden aus den Texten (digitalisiert oder bereits digital vorliegend) über statisti- sche Verfahren sogenannte ›Wortwolken‹ generiert: Darüber können einzelne Wörter im Text hervorgehoben oder es kann eine systemweite Suche nach einem oder nach mehre- ren Begriffen durchgeführt werden (vgl. Abb. 4). Als Hilfsmittel und zur internen Kom- munikation zwischen den indizierenden Personen können Kategorien zugewiesen sowie Tags und Kommentare erstellt werden.17 Die Kategorien entstammen dabei einem kon- trollierten Vokabular, die Tags werden oftmals im Sinne eines Bearbeitungsvermerks ge- nutzt (z.B. »in Bearbeitung«). Alle genannten Bestandteile können direkt im ›Portable Document Format‹ (PDF) exportiert werden. Abb. 4: Ansicht eines Textes (Ausschnitt) mit Suchschlitz, ›Wortwolke‹ und Hervorhebung; Quelle: eigener Screenshot. Weitere Zugangsmöglichkeiten bietet – neben der genannten Netzwerkvisualisierung – ein visueller Überblick über die Digitalisate oder Zeitleistenansichten (synchron-opti- sche Timelines),18 die ebenfalls aus den gewonnenen Metadaten erstellt werden. Letztere erlauben die Darstellung von Bezügen zwischen Dokumenten, Projekten und Personen. 17 Zu betonen ist der Einsatz der zuletzt genannten Funktionen als Hilfsmittel bei der Erschließung, da sie nicht zur Beschreibung der Quellinhalte herangezogen werden. 18 Vgl. http://www.netpioneers.info/node/3 [07.07.2014].167 Gunther Reisinger und Mario RöhrlePerformative Analysen Für wissenschaftliche Zwecke wurde die Möglichkeit geschaffen, die Quellendatenbank zu durchsuchen, die Dokumente hochauflösend und in Verbindung sowohl zu den Wer- ken als auch zu zusammenhängenden Quelldokumenten einzusehen, und sich auf diese Weise durch die beschriebenen Quellenpools zu navigieren (vgl. Abb. 5). Abb. 5: Detailansicht einer Quelle (Digitalisat); Quelle: eigener Screenshot. Im Sinne der erkenntnisorientierten Nutzung des Onlinemediums ändert sich bei inhalt- licher Weiterbearbeitung der Onlinequellenlage auch die zugehörige Netzwerkvisualisie- rung (siehe Abb. 6): eines von mehreren Resultaten der Überlegungen, die Möglichkei- ten des Netzes bzw. der IT-gestützten Datenanalyse zu nutzen, um einen kaum bis gar nicht überblickbaren Datenbestand auf Basis der erfolgten Quellenarbeit digitalepiste- mologisch dienlich zu machen.168 netpioneers.info – Quellenkundliche Überlegungen zur Re-Präsentation früher NetzkunstAbb. 6: Netzwerkvisualisierung; Quelle: eigener Screenshot. Als möglicherweise erste Richtung eines wissenschaftlichen Zugangs zu einem ins Auge gefassten Quellenpool werden – auf Basis traditioneller Quellenarbeit – schwer bis gar nicht ermittelbare Häufungen und Zusammenhänge (Relationen oder ›Wortwolken‹) sichtbar. Daraus können im Sinne einer nicht gerichteten Bottom-up-Strategie wis- senschaftliche Fragestellungen aus und zu den vorliegenden Quellenlagen entwickelt werden.19 Unter aktiver Nutzung der Visualisierungen (Anwählen eines Knotens) ist es möglich, auf das Asset von Interesse in der Quellendatenbank zurückzugreifen, diese bestimmte Quelle zu genaueren Informationen zu sichten und gegebenenfalls die damit – über die Relationierung – in Verbindung gebrachten Dokumente zu befragen. Diese sichtbaren Zusammenhänge ergeben sich über die oben beschriebene inhaltliche Auswertung der Quellen: Die Visualisierungssoftware stellt sie nach Relationen zusam- men und führt diese Verbindungen – im Sinne des Wortes – vor Augen. Arten dieser Herangehensweise könnten mit Hans Diebner durchaus als »performative Wissenschaft« bezeichnet werden,20 verstanden als eine »Versinnlichung« – in diesem Fall eine Visualisierung – von ursprünglich nicht sichtbaren Zusammenhängen von Quellen und Quellentypologien untereinander (digitales Werk, digitale und digitalisierte Quellen). 19 Vgl. u.a. LÉVY 2010, S. 111–129. 20 Vgl. DIEBNER 2006.169 Gunther Reisinger und Mario Röhrle4. Conclusio Die bisherige Projektchronologie kann demnach wie folgt kurzgefasst werden: Der Res- taurierung der Fallbeispiele in Kooperation mit Künstlern und Systemadministratoren folgt die Entwicklung von semantischen Analyseverfahren der zugehörigen Quellen, da- ran anschließend die semantische Indizierung, parallel dazu die Gestaltung der dahinter- liegenden Datenbanken zur Verwaltung und Zuführung an die Visualisierung, und schließlich die Spezifizierung der Visualisierungssoftware zur Gewährung unterschied- licher Blickvarianten auf die Quellenpools (Netzwerkvisualisierung und Timelines). Diese Schritte ermöglichen nach vorliegendem Projektverständnis eine werk- und quel- lengerechte digitale Edition von Werk und Quellen im gemeinsamen digitalen Online- medium. Nach nunmehriger Ansichtigkeit der einst nicht mehr zugänglichen Werke wie der zugehörigen Quellen beginnt – zumindest was den bearbeiteten Teilbereich dieses medienkünstlerischen Genres betrifft – die kunst- und kulturwissenschaftliche Arbeit an den Phänomenen im werkeigenen Habitat, dem Internet.170 netpioneers.info – Quellenkundliche Überlegungen zur Re-Präsentation früher NetzkunstLiteraturverzeichnis CCSDS (Consultative Committee for Space Data Systems) (Hg.) (2012): Reference Model for an Open Archival Information System (OAIS); http://public.ccsds.org/publications/archive/ 650x0m2.pdf [07.07.2014]. DANIELS, Dieter; REISINGER, Gunther (Hg.) (2010): netpioneers 1.0 – Contextualising Early Netbased Art. Berlin/New York: Sternberg Press. DIEBNER, Hans (2006): Performative Science and Beyond – Involving the Process in Research. Wien/New York: Springer. LÉVY, Pierre (2010): Der schöpferische Austausch im digitalen Medium. In: Zeitschrift für Me- dien- und Kulturforschung, Jg. 2, H. 2, S. 111–129. NEUROTH, Heike; OßWALD, Achim; SCHEFFEL, Regine; STRATHMANN, Stefan; HUTH, Karsten (Hg.) (2010): nestor-Handbuch: Eine kleine Enzyklopädie der digitalen Langzeitarchivierung. Version 2.3.; http://nbn-resolving.de/urn/resolver.pl?urn=urn:nbn:de:0008-2010071949 [07.07.2014]. Im Text erwähnte Webseiten Internet Archive: http://archive.org netpioneers 1.0: http://www.netpioneers.info PRONOM (The National Archives): http://apps.nationalarchives.gov.uk/PRONOM Semantic Web (W3C): http://www.w3.org/standards/semanticweb Semaspace: http://offenhuber.net/semaspace Text Encoding Initiative (TEI) Consortium: http://www.tei-c.org Unified Digital Format Registry (UDFR): http://udfr.org Wayback Machine: https://archive.org/web/web.php171 Gunther Reisinger und Mario Röhrle172 Digitale Archive und virtuelle Bibliotheken auf der Basis von MyCoRe Wiebke Oeltjen Digitale Archive und virtuelle Bibliotheken können auf der Basis der Software MyCoRe1 implementiert werden. MyCoRe ist eine Open-Source-Software, die einen Softwarekern bereitstellt, der in diversen Repositorien verwendet wird. MyCoRe kann flexibel an ver- schiedene Datenmodelle und individuelle Anforderungen angepasst werden, sodass eine Vielzahl an Repositorien auf dieser Basis entwickelt werden kann. Im Folgenden werden digitale Archive und virtuelle Bibliotheken vorgestellt, die MyCoRe als Softwarekern in institutionellem Zusammenhang einsetzen. Im zweiten Teil wird die Funktionalität von MyCoRe vorgestellt, die wesentlich für die Repositorien-Software ist. Einleitung Digitale Archive und virtuelle Bibliotheken, die als Webanwendungen im Internet den Onlinezugriff auf Metadaten und Dokumente ermöglichen, basieren auf Repositorien- Software.2 Die Open-Source-Software MyCoRe dient genau diesem Zweck. Der Name MyCoRe ist ein Akronym für ›My Content Repository‹. Er weist zugleich darauf hin, dass es sich um einen Softwarekern handelt, daher die Aussprache my core.3 Dieser Soft- warekern wird in vielen verschiedenen Webanwendungen eingesetzt, so z.B. in Reposi- torien, Archiven, Dokumentenservern und digitalen Bibliotheken. Das Konzept von MyCoRe ist seit Beginn des Projekts unverändert beibehalten wor- den.4 Es besagt, dass der Softwarekern auf der Basis der Programmiersprache Java und den Auszeichnungssprachen XML (Extensible Markup Language) und XSL (Extensible Stylesheet Language) entwickelt wird. Der Quelltext der Software ist frei verfügbar (Open Source) und steht unter der Lizenz für freie Software, der GPL (GNU General Public License),5 auf der Softwareplattform SourceForge6 als Download zur Verfügung. Der Softwarekern ›mycore.jar‹ stellt Funktionen zur Entwicklung eigener Dokumenten- server, Publikationsserver, Archive oder verschiedenster Repositorien bereit. Die folgende Liste zeigt exemplarisch die Vielfalt an Einsatzbereichen. MyCoRe ist die Softwarebasis für Anwendungen der folgenden Art: 1 MyCoRe; http://www.mycore.de [07.07.2014]. 2 Vgl. DOBRATZ 2007. 3 Vgl. OELTJEN 2010, S. 259. 4 Vgl. LÜTZENKIRCHEN 2002, S. 23. 5 GNU General Public License (GPL); http://www.gnu.org/copyleft/gpl.html [07.07.2014]. 6 Siehe das MyCoRe-Projekt auf der SourceForge-Plattform; http://mycore.sourceforge.net [07.07.2014].173 Wiebke Oeltjen• Archive Das Papyrus-Portal7 an der Universität Leipzig sowie die verschiedenen digitalen Ar- chive an der Thüringer Universitäts- und Landesbibliothek (ThULB)8 in Jena sind Beispiele für Onlinearchive mit digitalisierten historischen Dokumenten. • Bilddatenbanken Die ›Kieler Bilddatenbank Naher Osten‹ (KiBiDaNO)9 an der Christian-Albrechts- Universität zu Kiel enthält Forschungsmaterial in Form von digitalen Bildern und Fotografien. • Dokumentenserver OpenAgrar10 ist ein Dokumentenserver des Bundesforschungsinstituts für Ernäh- rung und Landwirtschaft. Er ist auf der Basis des bibliografischen Metadatenschemas MODS erstellt worden.11 • Kataloge Der Rostocker Professorenkatalog ›Catalogus Professorum Rostochiensium‹ (CPR)12 wird in Rostock erstellt und aufgebaut. Er dokumentiert alle Professoren, die an der Universität Rostock tätig waren. • Lexikon Das ›Lexikon verfolgter Musiker und Musikerinnen der NS-Zeit‹ sammelt in der An- wendung LexM13 Biografien exilierter Musikerinnen und Musiker. Das Onlinelexikon wird an der Universität Hamburg betrieben. • Manuskriptkataloge Die Publikationsplattform HisBest14 zeigt historische Bestände, bestehend aus digita- lisierten Handschriften, historischen Drucken, Archivalien und weiteren Dokument- typen. Diese digitalen Sammlungen werden an der ThULB bereitgestellt. • Publikationsserver DuEPublico15 ist ein Publikationsserver u.a. für die Veröffentlichung von Dissertati- onen an der Universitätsbibliothek Duisburg-Essen, der von Frank Lützenkirchen entwickelt wurde.16 DuEPublico basiert auf der Software MILESS, aus der heraus MyCoRe entwickelt wurde. 7 Papyrus-Portal; http://www.papyrusportal.de [07.07.2014]. 8 Vgl. GRANDKE u.a. 2008, S. 282f. 9 KiBiDaNO; http://www.uni-kiel.de/kibidano [07.07.2014]. 10 OpenAgrar; https://openagrar.bmel-forschung.de [07.07.2014]; vgl. KOEHLER u.a. 2013. 11 Vgl. NEUMANN 2014. 12 Catalogus Professorum Rostochiensium; http://cpr.uni-rostock.de [07.07.2014]. 13 LexM; http://www.lexm.uni-hamburg.de [07.07.2014]. 14 HisBest; http://archive.thulb.uni-jena.de/hisbest [07.07.2014]. 15 DuEPublico – Duisburg-Essen Publications online; http://duepublico.uni-duisburg-essen.de [07.07.2014]. 16 Vgl. LÜTZENKIRCHEN 2002.174 Digitale Archive und virtuelle Bibliotheken auf der Basis von MyCoRe• Zeitschriftenserver Journals@UrMEL17 ist der Name des Zeitschriftenservers an der ThULB in Jena. An 25 Standorten in der Bundesrepublik18 werden MyCoRe-Installationen gepflegt. Die Anzahl an MyCoRe-Anwendungen variiert: An einigen Universitätsbibliotheken ist nur eine Anwendung online, an anderen eine große Zahl. Abbildung 1 zeigt in einer soge- nannten ›Wortwolke‹ durch die Größe der Worte annähernd die Anzahl an Anwendun- gen, die auf der Basis von MyCoRe laufen. Abb. 1: MyCoRe-Standorte im Jahr 2014; Quelle: MyCoRe.19 MyCoRe-Anwendungen Im Folgenden sollen einzelne Aspekte der MyCoRe-Anwendungen vorgestellt werden, wie sie an der Universitätsbibliothek in Jena und am Universitätsrechenzentrum in Leip- zig betrieben werden. Damit sollen Merkmale von MyCoRe verdeutlicht werden, wobei die Flexibilität im Einsatz und die Anpassbarkeit besonders herausragende Eigenschaf- ten sind. Die ›Universal Multimedia Electronic Library‹ (UrMEL)20 an der ThULB in Jena um- fasst drei Schwerpunkte: den Hochschulschriftenserver University@UrMEL, der mit seinen Semesterapparaten, Hochschulschriften und Spezialbeständen Teil der Digitalen Bibliothek Thüringen21 ist, den Zeitschriftenserver Journals@UrMEL und die Collec- tions@UrMEL.22 17 Journals@UrMEL; http://zs.thulb.uni-jena.de [07.07.2014]. 18 Zum Zeitpunkt der Erstellung der Grafik (siehe Abb. 1) im Juli 2014 gab es neben den genannten 25 Standorten weitere Installationen in Cambridge und Venedig. MyCoRe-Anwendungen, die außerhalb Deutschlands betrieben werden, sind in der Abbildung nicht enthalten. 19 Die Abbildung wurde mithilfe des Tools ›Wordle‹ erstellt, siehe http://www.wordle.net [07.07.2014]. 20 UrMEL; http://www.urmel-dl.de [07.07.2014]. 21 University@UrMEL; http://www.db-thueringen.de [07.07.2014]. 22 Collections@UrMEL; http://archive.thulb.uni-jena.de/hisbest [07.07.2014].175 Wiebke OeltjenNeben dem bereits etablierten Hochschulschriftenserver und dem Zeitschriftenserver, der über 450 Onlinezeitschriften, Kalender und historische Zeitschriften enthält, wur- den an der ThULB eine Reihe von Spezialapplikationen entwickelt, die unter dem Na- men Collections@UrMEL digitale fachliche Sammlungen und Archivalien online bereit- stellen. Die mehr als zehn Archivanwendungen, die an der ThULB gehostet werden, dienen zur wissenschaftlichen Erschließung wertvoller Sammlungen. In den Collec- tions@UrMEL werden Archivalien, Monografien, Handschriften, Hochschulschriften, Zeitschriften und Filme digital erschlossen und online bereitgestellt. Die Inhalte sind weitgehend frei zugänglich (Open Access). Zwei Onlinestaatsarchive, die Teil des Portals Collections@UrMEL sind, sollen im Fol- genden exemplarisch vorgestellt werden. Die digitalen Archive bieten einen Zugang zu historischen Dokumenten, die systematisch digitalisiert, aufbereitet und erschlossen werden. Auf der Grundlage eines einheitlichen Datenmodells werden in den Anwendun- gen archivierte Filme, historische Akten und Urkunden mit Digitalisaten online bereit- gestellt. Dennoch unterscheiden sich die Archive im Bestand: Im Digitalen Archiv Meiningen23 sind Metadaten zu Urkunden, historischen Personen, Körperschaften so- wie Filmen enthalten. Die Metadaten können durchsucht werden und soweit Urkunden digitalisiert vorliegen, können diese eingesehen werden. Das Digitale Archiv Weimar24 enthält Metadaten und digitalisierte Akten, Filme und Bil- der. Des Weiteren ist eine Recherche nach historischen Personen möglich. Außerdem sind Theaterzettel in dem digitalen Archiv enthalten, die wiederum die Recherche nach erfassten Metadaten zu Werken, Aufführungen und anderen Theaterzetteln sowie weite- ren Quellen ermöglichen. Auch historische Zeitschriften sind Bestandteil des digitalen Archivs. Sie können als digitale Ressource abgerufen werden. In einzelnen Archiven, wie zum Beispiel in dem Staatsarchiv Rudolstadt,25 sind Verknüpfungen zu digitalen Zeit- schriften enthalten, die auf dem Zeitschriftenserver Journals@UrMEL online gelesen werden können. Das Projekt ›Historische Bestände‹ (HisBest)26 umfasst mehrere Sammlungen, darunter die ›Sammlung Georg Rörer‹. Sie enthält Digitalisate von seltenen Handschriften Lu- thers. Das Archiv ermöglicht Recherchen in Metadaten historischer Dokumente mit Di- gitalisaten. Die Digitalisate selbst können entweder mit dem DFG-Viewer oder mit dem in MyCoRe integrierten Bildbetrachter angesehen werden. In der Bildansicht kann man über eine Kapitelübersicht direkt zu weiteren Dokument-Metadaten oder zu einzelnen Derivaten gelangen, sodass in den Bildbeständen einfach navigiert werden kann. Perma- nente Links machen die Digitalisate dauerhaft referenzierbar. 23 Die digitalen Bestände des Thüringischen Staatsarchivs Meiningen, des Thüringischen Hauptstaatsar- chivs Weimar sowie des Thüringischen Staatsarchivs Rudolstadt werden im ›Digitalen Archiv der Thü- ringischen Staatsarchive‹ zusammengefasst; http://archive.thulb.uni-jena.de/ThHStAW [07.07.2014]. 24 Siehe ebd. 25 Siehe ebd. 26 Historische Bestände (HisBest); http://archive.thulb.uni-jena.de/hisbest [07.07.2014].176 Digitale Archive und virtuelle Bibliotheken auf der Basis von MyCoReDas Papyrus-Portal27 ist ein Beispiel für die Möglichkeit, Anwendungen und Inhalte zu vernetzen. Anwendungen auf der Basis von MyCoRe können so konfiguriert werden, dass eine Suche über Inhalte in digitalen Bibliotheken an verschiedenen Standorten möglich ist. Das Papyrus-Portal wurde am Universitätsrechenzentrum Leipzig (URZ) entwickelt. Es bietet einen einheitlichen Zugang zu digitalisierten und elektronisch kata- logisierten Papyrussammlungen in zehn deutschen Bibliotheken. Das sind die Papyrus- bibliotheken in Bonn, Erlangen, Gießen, Halle, Heidelberg, Jena, Köln, Leipzig, Trier und Würzburg. Ziel des Portals ist es, eine Recherche auf einer Website in den verschie- denen Beständen zu ermöglichen und eine einheitliche Präsentation der Suchergebnisse zu bieten (siehe Abb. 2). Da die Datenbestände an den jeweiligen Standorten auf unterschiedlichen Plattformen und Datenbanken vorliegen, war es notwendig, verschiedene Schnittstellen für die Re- cherchezugriffe auf die Datenbanken zu implementieren. MyCoRe ermöglicht zu diesem Zweck eine Suche via Webservice in entfernten Anwendungen mit gleichem Datenmo- dell. Darüber hinaus wurde realisiert, dass Recherchen auf FileMaker-Datenbanken mit- tels JDBC-Treiber durchgeführt werden können. Eine weitere Schnittstelle nutzt den Zugriff über eine Open-Archive-Schnittstelle, um relevante Suchinformationen zu extra- hieren. Voraussetzung für den vereinheitlichten Zugriff auf die verteilten Daten und Bi- bliotheksbestände ist jedoch, dass in den vernetzten Bibliotheken ein einheitliches Da- tenmodell verwendet wird. In Abbildung 2 ist ein Schriftträgerdatensatz mit Details des »Brief des Zenobios« zu sehen, der sowohl in der Papyrussammlung in Halle als auch in Jena vorliegt. Abb. 2: Suchergebnis im Papyrus-Portal zum »Brief des Zenobios«; Quelle: Papyrus-Portal.28 27 Papyrus-Portal; http://www.papyrusportal.de [07.07.2014]; http://papyri.uni-leipzig.de [07.07.2014]. 28 Siehe Papyrus-Portal; http://papyri.uni-leipzig.de/receive/HalPapyri_schrift_00001910 [07.07.2014].177 Wiebke OeltjenFunktionalität Die MyCoRe-Software stellt Funktionen zur Verfügung, die es ermöglichen, Reposito- rien zu vernetzen. Doch eine Voraussetzung für die Vernetzung digitaler Bestände ist die Verwendung von Standards für den Datenaustausch. MyCoRe unterstützt die gängi- gen Austauschformate. Neue Austauschformate können darüber hinaus relativ einfach hinzugefügt werden, da sie in MyCoRe in der Auszeichnungssprache XML beschrieben werden. In einzelnen MyCoRe-Anwendungen sind z.B. Implementierungen für die Me- tadatenformate Dublin Core und XMetaDiss zur Meldung von Dissertationen an die Deutsche Nationalbibliothek verfügbar. Auch das MODS-Format ist in MyCoRe imple- mentiert.29 Eine weitere Neuerung stellt die Vernetzung zur ›Gemeinsamen Normdatei‹ dar.30 Die Verwendung der GND kann als ein Baustein zu Linked Open Data genannt werden.31 Des Weiteren bietet MyCoRe die Möglichkeit, standardisierte Klassifikationen für die in- haltliche Erschließung von Bibliotheksbeständen in einem Repositorium zu verwenden. Neben der bibliothekarischen Dezimalklassifikation ›Dewey Decimal Classification‹ (DDC) oder den Sachgruppen der Deutschen Nationalbibliografie (DNB) können eigene Klassifikationen hinzugefügt und online oder offline als XML-Datei bearbeitet werden. Zu diesem Zweck ist ein Klassifikationseditor in MyCoRe-Applikationen integriert. Ein weiteres unverzichtbares Element in digitalen Bibliotheken, Repositorien und Archi- ven sind einheitliche und dauerhafte Identifikatoren. Auch sind die permanenten Identi- fikatoren ein weiteres Kriterium für Vernetzung, denn erst eine Adresse macht ein Do- kument auffindbar und zitierfähig. In MyCoRe können verschiedene Arten permanenter Links verwendet werden, sei es ein DOI (Digital Object Identifier), ein URN (Uniform Resource Name) oder ein PURL (Persistent Uniform Resource Locator), mit dem Iden- tifikatoren im World Wide Web vergeben und verwaltet werden. Eine Kernfunktionalität von MyCoRe ist die Suchfunktion, die es ermöglicht, die Be- stände eines Repositoriums zu durchsuchen. Sie basiert auf der Softwarekomponente Lucene.32 Welche Daten und Objekte durchsuchbar sind, kann sehr detailliert festgelegt und individuell in den verschiedenen MyCoRe-Anwendungen implementiert werden. Durchsuchbar sind die Metadaten von Dokumenten, Personen, Institutionen oder wei- teren Dokumenttypen. Auch können die Metadaten von gespeicherten Dateien z.B. nach Dateiname, Typ oder Größe durchsucht werden. Suchbegriffe können ebenso in den Texten der gespeicherten Dokumente gesucht werden. Dabei können die Dateien in verschiedensten Formaten vorliegen (wie z.B. als PDF-, OpenOffice-, HTML-, XML- oder Textdatei). Die MyCoRe-Suchmasken werden in jeder Anwendung den eigenen Anforderungen entsprechend konfiguriert. Ausgehend von einem einfachen Suchfor- 29 Vgl. NEUMANN 2014. 30 Vgl. STEPHAN u.a. 2012, S. 264ff. 31 Vgl. OELTJEN 2012, S. 229f. 32 Lucene ist ein Open-Source-Produkt der Apache Software Foundation; http://lucene.apache.org [07.07.2014].178 Digitale Archive und virtuelle Bibliotheken auf der Basis von MyCoRemular mit nur einem Suchfeld können auch komplexe Suchmasken implementiert wer- den, die eine qualifizierte Suche ermöglichen. Darüber hinaus kann mithilfe der My- CoRe-eigenen Suchabfragesprache ›MyCoRe Query Language‹ (MCRQL) gesucht werden, damit sind frei formulierbare Expertenabfragen möglich. Suchmasken können selbst erstellt oder aus einer Konfiguration von Suchfeldern automatisch generiert werden. Ein Vorteil von MyCoRe ist die Konfigurierbarkeit der Datenmodelle. Sie ermöglicht die Anpassung der Anwendung an eigene Anforderungen. Die Konfigurationen werden in der Auszeichnungssprache XML vorgenommen, und sie beziehen sich auf Objekt- typen, die aus bestimmten Datenfeldern eines bestimmten Datentyps bestehen. Zwi- schen diesen Objekten können Verweise definiert werden. So kann es zum Beispiel in ei- nem Metadatensatz zu einem Artikel einen Autorennamen geben mit einem Verweis auf die Personendaten. Die Metadaten können darüber hinaus hierarchisch strukturiert sein und sie können ihre Eigenschaften ›vererben‹. Als Beispiel sei auf eine Publikationsreihe verwiesen: Eine Zeitschriftenreihe enthält eine Folge von Zeitschriften, die aus einzel- nen Heften besteht, die wiederum aus Artikeln zusammengesetzt sind. Die charakteristi- schen Eigenschaften der Zeitschrift werden dabei an jedes einzelne Heft ›vererbt‹. Die Konfiguration wird beim Einrichten der Applikation in XML-Dateien vorgenommen. Schnittstellen ermöglichen den Austausch digitaler Daten, sie sind deshalb das verbin- dende Element zwischen den verschiedenen Repositorien. Im MyCoRe-Softwarekern werden eine Reihe von Schnittstellen unterstützt: • Die OAI-Schnittstelle, die das ›OAI Protocol for Metadata Harvesting‹ (OAI-PMH 2.0) der ›Open Archives Initiative‹ bedient. Sie liegt in MyCoRe in neuer Implementie- rung vor. Über die OAI-Schnittstelle werden Metadaten von Dokumentenservern frei verfügbar gemacht. Sie werden durch ›OAI Service Provider‹ gesammelt und sind dann weltweit zugänglich. Die OAI-Schnittstelle ist frei konfigurierbar, sie unterstützt ›Sets‹, ›Resumption Tokens‹, um Teilantworten zurückzugeben, und beliebige Metada- tenformate. OAI-Sets werden auf MyCoRe-Klassifikationen abgebildet. • MyCoRe bietet eine spezielle Schnittstelle für den Zugang von automatisierten Skrip- ten, über die ein vollständiger Index der in dem jeweiligen Repositorium enthaltenen Objekte generiert wird. Suchmaschinen können so die Metadaten und Volltexte frei zugänglicher, MyCoRe-basierter Dokumentenserver indizieren. Die Daten sind dann im WWW weltweit auffindbar. • MyCoRe bietet eine SOAP-Schnittstelle für die Suche im Objektbestand, über die auch eine verteilte Suche über mehrere MyCoRe-Server konfiguriert werden kann. • Des Weiteren bedient MyCoRe das Z39.50-Internetprotokoll. Über die Schnittstelle können einfache Suchanfragen im ›Z39.50-Prefix Query Format‹ (PQF) gestellt und beantwortet werden. Über diese Schnittstelle kann etwa ein MyCoRe-basierter Doku- mentenserver an einen Bibliothekskatalog angebunden werden.179 Wiebke Oeltjen• Die SRU-Schnittstelle ist eine weitere Schnittstelle, die in MyCoRe integriert ist: ›Search and Retrieve Via URL‹ setzt auf dem Z39.50-Netzwerkprotokoll auf und bie- tet eine eigene Abfragesprache. • MyCoRe verwendet intern das XML-Format zur Speicherung von Metadaten und zum Datenaustausch. Metadaten können daher im XML-Format importiert und ex- portiert werden. Weitere Schnittstellen, wie die REST-API oder die SWORD-Schnittstelle werden weiter- entwickelt und an aktuelle Versionen sowie neue Applikationen angepasst. Ausblick Die MyCoRe-Software wird kontinuierlich weiterentwickelt und aktualisiert. Neue Pro- jekte befördern diese Entwicklung weiter, sie bringen Anforderungen, die in der Folge implementiert werden. Dies betrifft nicht nur neue Standards und Schnittstellen, son- dern auch die Datenformate und die Beispielapplikation. Bisher diente die Webanwen- dung DocPortal33 als Exempel. Sie wird abgelöst durch MIR, das ›MyCoRe Institutional Repository‹, das in einem neuen Design erscheint und auf dem Metadatenschema MODS basiert. Ein Ziel für MyCoRe ist es, neue Einsatzgebiete zu erschließen. Reposi- torien für Forschungsdaten wären solch ein Anwendungsfeld. Auch sind weitere Bildda- tenbanken mit MyCoRe in Entwicklung, in denen z.B. die »Möglichkeiten der zeitlichen und räumlichen Suche« realisiert und »Karten, Kupfern, Publikationen in eine graphi- sche Suchmaske« integriert werden.34 Die Vielzahl an Implementierungen an den ver- schiedenen Standorten verspricht auch weiterhin einen wachsenden Bestand an digitalen Archiven und virtuellen Bibliotheken auf der Basis von MyCoRe. 33 Die MyCoRe-Beispielanwendung DocPortal, zukünftig MIR, zeigt alle typischen Funktionen eines Do- kumentenservers; http://www.mycore.de:8291 [07.07.2014]. 34 CHRISTOPH 2014, S. 2.180 Digitale Archive und virtuelle Bibliotheken auf der Basis von MyCoReLiteraturverzeichnis CHRISTOPH, Andreas (2014): Zeitschriften, Karten und Porträts. Perspektiven für die Forschung und Integration in virtuelle Welten. Inproceedings. 103. Deutscher Bibliothekartag, Bremen; http://nbn-resolving.org/urn:nbn:de:0290-opus-16987 [07.07.2014]. DOBRATZ, Susanne (2007): Open-Source-Software zur Realisierung von Institutionellen Reposi- tories – Überblick. In: ZfBB, Jg. 54, H. 4/5, S. 199–206; http://edoc.hu-berlin.de/docviews/ abstract.php?id=28288 [07.07.2014]. GRANDKE, Uwe; LÖRZER, Michael; POST, Bernhard (2008): Kooperationsprojekt „Digitales Ar- chiv Thüringen“. In: Archivar. Zeitschrift für Archivwesen, Jg. 61, H. 3, S. 282–287; http:// www.archive.nrw.de/archivar/hefte/2008/ausgabe3/ARCHIVAR-03-2008_Internet.pdf [07.07.2014]. KOEHLER, Carl Ulrich; STORCK, Thomas; HUMMEL, Benedikt (2013): OpenAgrar, das Reposito- rium für Einrichtungen im Geschäftsbereich des BMELV. In: GBDL-Mitteilungen, H. 58, S. 15–24; https://openagrar.bmel-forschung.de/receive/openagrar_mods_00001946 [07.07.2014]. LÜTZENKIRCHEN, Frank (2002): MyCoRe – Ein Open-Source-System zum Aufbau digitaler Bib- liotheken. In: Datenbank-Spektrum, Jg. 2, H. 4, S. 23–27; http://duepublico.uni-duisburg-es- sen.de/servlets/DerivateServlet/Derivate-11198/MyCoRe_DB_Spektrum.pdf [07.07.2014]. NEUMANN, Kathleen (2014): Bibliografische Metadaten mit MODS erschließen. Inproceedings. 103. Deutscher Bibliothekartag, Bremen; http://nbn-resolving.org/urn:nbn:de:0290-opus- 17104 [07.07.2014]. OELTJEN, Wiebke (2012): Vernetzung mit MyCoRe – Eine Repository-Software vernetzt Sys- teme, Daten und Menschen. In: MITTERMAIER, Bernhard (Hg.): Vernetztes Wissen – Daten, Menschen, Systeme. 6. Konferenz der Zentralbibliothek Forschungszentrum Jülich. Pro- ceedingsband (= Schriften des Forschungszentrums Jülich. Reihe Bibliothek / Library, 21). Jülich: Verlag des Forschungszentrums Jülich, S. 225–233; http://hdl.handle.net/2128/4699 [07.07.2014]. DIES. (2010): Virtuelle Bibliotheken flexibel gestalten. In: MITTERMAIER, Bernhard (Hg.): eLi- brary – den Wandel gestalten. 5. Konferenz der Zentralbibliothek Forschungszentrum Jülich. Proceedingsband (= Schriften des Forschungszentrums Jülich. Reihe Bibliothek / Library, 20). Jülich: Verlag des Forschungszentrums Jülich, S. 259–266; http://hdl.handle.net/2128/ 4303 [07.07.2014]. STEPHAN, Robert; LABAHN, Karsten; GLASOW, Matthias (2012): Vernetzung biographischer Online-Ressourcen – Catalogus Professorum Rostochiensium und Rostocker Matrikelportal. In: MITTERMAIER, Bernhard (Hg.): Vernetztes Wissen – Daten, Menschen, Systeme. 6. Kon- ferenz der Zentralbibliothek Forschungszentrum Jülich. Proceedingsband (= Schriften des Forschungszentrums Jülich. Reihe Bibliothek / Library, 21). Jülich: Verlag des Forschungs- zentrums Jülich, S. 259–270; http://hdl.handle.net/2128/4699 [07.07.2014].181 Wiebke OeltjenIm Text erwähnte Webseiten Catalogus Professorum Rostochiensium (CPR): http://cpr.uni-rostock.de Digitale Bibliothek Thüringen; University@UrMEL: http://www.db-thueringen.de Digitales Archiv der thüringischen Staatsarchive: http://archive.thulb.uni-jena.de/ThHStAW DuEPublico: http://duepublico.uni-duisburg-essen.de GNU General Public License (GPL): http://www.gnu.org/copyleft/gpl.html Historische Bestände (HisBest); Collections@UrMEL: http://archive.thulb.uni-jena.de/hisbest Journals@UrMEL: http://zs.thulb.uni-jena.de Kieler Bilddatenbank Naher Osten (KiBiDaNO): http://www.uni-kiel.de/kibidano LexM: http://www.lexm.uni-hamburg.de Lucene: http://lucene.apache.org MyCoRe: http://www.mycore.de MyCore auf SourceForge: http://mycore.sourceforge.net MyCoRe-Beispielanwendung DocPortal, MIR: http://www.mycore.de:8291 OpenAgrar: https://openagrar.bmel-forschung.de Papyrus-Portal: http://www.papyrusportal.de; http://papyri.uni-leipzig.de UrMEL: http://www.urmel-dl.de Wordle: http://www.wordle.net182 Digitale Präsentation des historischen Wissens in den Osteuropawissenschaften. Das Fachrepositorium OstDok Arpine Maniero Einführung Die fortwährend wachsende Bedeutung der digitalen Medien hinsichtlich des schnellen und unkomplizierten Zugangs zu gewünschten Informationen und deren weltweite Ver- breitung macht jene Transformationsprozesse, die sich gegenwärtig in verschiedenen Bereichen der Wissenschaft und Kultur vollziehen, ohne diese Entwicklung inzwischen undenkbar. Die zunehmende Tendenz, aktuelle wissenschaftliche Erkenntnisse auf ver- schiedenen Onlineportalen zeitnah bereitzustellen, bekommt parallel zu der rasanten Entwicklung von digitalen Medien zwar neue Impulse und erreicht derweil ungeahnte Dimensionen, wirft auf der anderen Seite ebenso große technische wie konzeptionelle Fragen auf. Dabei muss kritisch hinterfragt werden, was die Möglichkeit, über das Inter- net zur Entstehung, Verbreitung und Erhaltung von Informationen beizutragen, für die Wissenschaft bedeutet. Steigert dies die wissenschaftliche Kompetenz der Nutzer bzw. trägt dies zur besseren Vermittlung historischer und kultureller Kenntnisse bei? Für die Beantwortung dieser Fragen muss eine bessere Akzeptanz der Onlinemedien er- reicht, aber auch die Entwicklung flexibler Modelle zu deren Konzeption und Realisie- rung vorangetrieben werden. Die annähernd vollständige Digitalisierung der vorhande- nen wissenschaftlichen Fachliteratur, ihre Verbreitung und nachhaltige Verfügbarkeit bilden dabei nur einen Aspekt in der Überlieferung des kulturellen Erbes. Einen weite- ren, nicht minder wichtigen Bereich stellt die Etablierung eines originär online entstan- denen wissenschaftlichen Angebots dar. Daher gilt es, neben der Erhaltung und Überlie- ferung des bereits existierenden Kulturguts, die Entwicklung eines rein digital bzw. parallel erschaffenen Wissensangebots zu etablieren. Gemeinsam bilden sie jene Platt- form, auf die sich das ›virtuelle Kulturerbe‹ stützt. Die Qualitätssicherung der digitalen Umgebung bleibt dabei weiterhin einer der meist debattierten und sicherlich am schwers- ten zu realisierenden Aspekte. Konzeptionelle Hintergründe spezieller Fachrepositorien Die nicht weniger als eine Medienrevolution1 empfundene Entwicklung der digitalen Welt bewirkt, dass die Zahl der im Web existierenden Fachportale permanent wächst, wobei sowohl ihre Konzeption als auch ihre Nutzung und Akzeptanz in verschiedenen 1 Vgl. SCHMALE 2010, S. 23f.183 Arpine ManieroFachdisziplinen nach wie vor sehr unterschiedlich ausgeprägt ist.2 Sicherlich gehören ge- schichtswissenschaftliche Inhalte in den digitalen Medien zu jenen Bereichen, die nicht nur für die Fachkreise, sondern auch für die breite Öffentlichkeit von großem Interesse sind. Dies drängt viele entstehende Fachportale dazu, sehr schnell umfangreiche Inhalte bereitzustellen. Darunter leidet oft die Qualität der Onlinematerialien und in der Folge auch ihre Akzeptanz. Gerade in den Geschichtswissenschaften kommt es weniger dar- auf an, schneller an Informationen zu gelangen bzw. eigene wissenschaftliche Erkennt- nisse schneller zu verbreiten – wenngleich diese Tendenz auch in den Geschichtswissen- schaften zunehmend Fuß fasst, es gilt vielmehr, die aktuellen wissenschaftlichen Erkenntnisse nachhaltig verfügbar zu machen. Im Besonderen bedeutet dies, dass die in verschiedenen Portalen zerstreuten digitalen Informationen nur dann von Interesse sind, wenn diese erkennbare, dezidierte Qualitätsmerkmale aufweisen und möglichst übersichtlich und strukturiert dargeboten werden, sodass sie aus der Flut einer außeror- dentlich großen, dennoch nicht immer fachrelevanten Datenmenge als wissenschaftlich wertvolle Informationen erkannt und entsprechend verarbeitet werden können. Die heute existierenden geschichtswissenschaftlich relevanten elektronischen Ressour- cen umfassen nämlich ein überaus großes Angebot an retrodigitalisierter Fachliteratur, Primärquellen, Bild- und Kartenmaterial, zudem verschiedene Kataloge und Datenban- ken wie etwa National- und Allianzlizenzen, mittlerweile sehr beliebte Aufsatz- und Zeitschriftendatenbanken, Bibliografien, virtuelle Fachbibliotheken, Veranstaltungska- lender, ferner Forscher-, Autoren- und Namensverzeichnisse etc.3 Es existieren darunter einige Portale, die nicht nur die meisten aufgezählten Angebote gebündelt darbieten, sondern gerade wegen ihrer breit gedachten konzeptionellen Darstellung Maßstäbe ge- setzt haben, ja sich als zentrale Einstiegsstellen für die Erhaltung fachrelevanter Infor- mationen etabliert haben. Portale wie etwa Clio-online oder H-Soz-u-Kult spielen mitt- lerweile mit ihrem umfassenden Angebot fachrelevanter Informationen in den Ge- schichtswissenschaften eine essenzielle Rolle. Freilich stellt sich nun die Frage, inwiefern sich andere Datenbanken neben solchen in den Fachkreisen bereits anerkannten Porta- len überhaupt etablieren können. Bedenkt man, dass etwa Clio-online, H-Soz-u-Kult, ›sehepunkte‹ und einige Portale mehr mit ihren von etablierten Wissenschaftlern stam- menden Rezensionen beinahe die gesamte Landschaft historischer Fachliteratur abde- cken, stellt sich die Frage nach dem Mehrwert des im Jahr 2011 online gegangenen Por- tals ›recensio.net‹.4 Ebenso wäre die Funktion solcher Fachinformationen wie etwa des 2 In der Tat geht es hierbei weniger um die vermeintlich immer noch ausgeprägte Zurückhaltung der Geisteswissenschaften gegenüber den digitalen Medien (vgl. u.a. RÜCKER 2010), sondern vielmehr um die kritische Auseinandersetzung mit dem wissenschaftlichen Anspruch der digitalen Fachdatenbanken und Repositorien als nunmehr unverzichtbare Hilfsmittel für die Forschung und Lehre. 3 Zu den geschichtswissenschaftlich relevanten Informationsressourcen siehe ausführlich GANTERT 2011. 4 Zur Rezensionsplattform ›recensio.net‹ siehe etwa LANDES 2010.184 Digitale Präsentation des historischen Wissens in den Osteuropawissenschaften. Das Fachrepositorium OstDokVeranstaltungskalenders oder der Aufsatzdatenbank bei ViFaOst5 angesichts des gewal- tigen Angebots von Zeitgeschichte-online oder der Deutschen Nationalbibliothek zu hinterfragen. Das Angebot der erwähnten Portale ist zwar überaus umfangreich, gerade diese Tatsa- che führt jedoch oft zum Ergebnis, dass trotz der bereitgestellten digitalen Datenmenge spezielle Inhalte nicht gefunden werden bzw. nicht sofort sichtbar sind. Die mühsame Suche und das Aussortieren unerwünschter und fachlich nicht relevanter Inhalte kostet die Forscher mitunter sehr viel Zeit, wobei sich eine gezielte Recherche in den Spezial- bibliotheken häufig als bessere und schnellere Möglichkeit erweisen kann. Demnach be- steht durchaus der akute Bedarf nach fachorientierten Onlineportalen, die sich einer be- stimmten, eng gefassten Fachdisziplin widmen und als zentrale Einstiegsmöglichkeit für die Lehre und Forschung separat von diesem gewaltigen Onlineangebot dem Fachpubli- kum zur Verfügung gestellt werden. Ob das Angebot letztendlich nach fachlichen oder regionalen Schwerpunkten konzipiert wird, ist dabei weniger ausschlaggebend, wichtig ist vielmehr, dass der Nutzer dadurch schneller, gezielter und effizienter zu den ge- wünschten Informationen gelangen kann. Solche Repositorien könnten ihren Servicebe- reich dementsprechend über die Grenzen reiner Informationsportale hinaus inhaltlich breiter ausbauen. Den Forschern und Studierenden wird dadurch ein umfangreiches On- lineangebot retrodigitalisierter Fachliteratur, originärer Onlinepublikationen, verschiede- ner Handbücher und Lexika zur Verfügung gestellt, welche durch die Gewährleistung der inhaltlichen Durchsuchbarkeit durchaus als funktionale virtuelle Forschungsumge- bung, aber auch als selbstständiges wissenschaftliches Instrument für die Forschung und Lehre wahrgenommen werden. Die Konzeption solcher Fachportale setzt neben der Gewährleistung wissenschaftlicher, methodischer und technischer Anforderungen insbesondere auch ein gezieltes Informa- tionsmanagement voraus. War es bisher etwa die anerkannte Funktion der Spezialbiblio- theken mit dem Sammelschwerpunkt Osteuropa, das Literaturangebot zu den einzelnen ost-, ostmittel- und südosteuropäischen Gebieten den Nutzern zur Verfügung zu stellen, so stellt sich für die Onlinefachportale gemeinhin die Aufgabe, das vorhandene Angebot zu bündeln, sinnvoll zu strukturieren, neu zu erschließen und technisch modern zu prä- sentieren. Die enge Zusammenarbeit zwischen den wissenschaftlichen Einrichtungen, den Bibliotheken und der technischen Dienstleistung bleibt dabei die wichtigste Voraus- setzung für das professionelle Auftreten des Repositoriums. Für die Konzeption der Fachportale kommen daher sowohl im Bereich der Retrodigitalisierung als auch für die originären Onlinepublikationen Qualitätsanforderungen zur Geltung, die aus zweierlei, aus wissenschaftlicher und aus bibliothekarischer Sicht hohe Relevanz haben. Dazu ge- hören etwa die Festlegung inhaltlicher wissenschaftlicher Schwerpunkte und die dauer- hafte Versorgung des Repositoriums mit neuen relevanten Inhalten, aber auch die ein- heitliche Sacherschließung aller im Repositorium enthaltener Materialien, ihre zeitge- 5 Zum Angebot der ›Virtuellen Fachbibliothek Osteuropa‹ (ViFaOst) siehe ausführlicher unter http:// www.vifaost.de [07.07.2014].185 Arpine Manieromäße technische Präsentation und langfristige Verfügbarkeit. Dies erlaubt, die Qualität des angebotenen Materials nachhaltig zu sichern, bewirkt aber auch, dass größere und kleinere Sonderbibliotheken mit ihren speziellen Sammlungen und aktiver Beteiligung an der digitalen Literaturversorgung für die Konzeption spezieller Fachrepositorien eine zentrale Rolle spielen. Abb. 1: Neueste Volltextpublikationen auf OstDok vom Februar 2012; Quelle: eigener Screenshot. Projekt OstDok Beim Begriff »digitale Geschichtswissenschaft« handelt es sich längst nicht um einen eta- blierten Fachbegriff,6 sodass es erst recht schwierig ist, von einer digitalen Konzeption der Geschichtswissenschaften zu sprechen. Das inhaltliche Angebot nimmt beinahe täg- lich zu, die für ihre Präsentation gedachten technischen Lösungen sind in ständiger Ent- wicklung, während sich die methodischen Ansätze sowie der Umgang mit den Online- materialien immer noch im Selbstfindungsprozess befinden. Selbst in Anbetracht der zunehmenden Medialisierung der Geisteswissenschaften ist es angesichts fehlender Ver- gleichsmöglichkeiten überaus kompliziert, einen viel kleineren Fachbereich wie die Ost- europastudien exemplarisch digital darzubieten. Dies bedarf einer aufwendigen konzep- tionellen Zusammenstellung wissenschaftlicher wie technischer Komponenten, die nun- mehr nicht voneinander zu trennen sind. 6 Vgl. SCHMALE 2010.186 Digitale Präsentation des historischen Wissens in den Osteuropawissenschaften. Das Fachrepositorium OstDokWarum gerade für Osteuropa Open-Access- und Digitalisierungsprojekte so wichtig sind? Es geht neben der Bereitstellung der einschlägigen aktuellen Forschungsliteratur aus dem deutschsprachigen Raum in den osteuropäischen Ländern auch um die Über- windung der festgesetzten historisch tradierten Stereotypen, was durch den virtuellen Austausch und die Vermittlung aktueller Forschungstendenzen besser denn je beidseitig gelingen kann. Die historische Forschung versteht sich indes im westlichen wie auch im östlichen Europa noch immer als Bindeglied zwischen einer politischen, gesellschaftli- chen und kulturellen historisch gewachsenen Gemeinschaft und fördert daher durchaus auch die gegenseitigen problematischen Abgrenzungen und Wahrnehmungen. Eine be- deutende Rolle kommt den Open-Access-Inhalten hierbei insofern zu, als die internatio- nale Wissenschaft durch sie die Möglichkeit erhält, wichtigen Einfluss auf die Entwick- lungen in den nationalen Geschichtsschreibungen zu nehmen, ohne dass dies zwangs- läufig im Widerspruch zu den nationalen Traditionen stehen muss. Die Aufarbeitung historischer und auch transkultureller Phänomene erhält dabei neue Möglichkeiten, wel- che durch die maximale Zugänglichkeit aktueller Forschungsliteratur besser und effizi- enter erforscht werden können. Beim Aufbau des Fachrepositoriums OstDok7 standen unter anderem diese speziellen Impulse im Mittelpunkt der Überlegungen. Als Nachfolger des Projekts ViFaOst bietet OstDok den Forschern ein äußerst breites, dennoch streng fachlich orientiertes Angebot im Bereich der Osteuropastudien. Das Projekt basiert auf zwei Säulen: Auf der einen Seite wird ein umfangreiches digitales Angebot einschlägiger, osteuroparelevanter wis- senschaftlicher Literatur bereitgestellt, andererseits steht eine Online-Redaktionsplatt- form für die Veröffentlichung originär digitaler Publikationen den Wissenschaftlern zur Verfügung. Mit der retrodigitalisierten Fachliteratur trägt das Projekt dem Prinzip der freien, zeitlich und örtlich unabhängigen und kostenfreien Nutzung einschlägiger wissenschaftlicher Li- teratur Rechnung, die vor allem in den osteuropäischen Ländern kostenfrei und mög- lichst zeitnah zur Verfügung gestellt werden soll. Diesem Gedanken dient auch die Tat- sache, dass es sich hierbei nicht etwa um gemeinfreie und/oder verwaiste Werke handelt, sondern um urheberrechtlich geschützte aktuelle Publikationen der beteiligten Institutionen, für die sehr aufwendig die Nutzungsrechte eingeholt wurden. Die maxi- male Sichtbarkeit der retrodigitalisierten Fachliteratur wird dabei unter anderem durch die OPAC-Anbindung im Bibliotheksverbund Bayern (BVB) gewährleistet (siehe Abb. 2). 7 OstDok ist eine Kooperation zwischen dem Herder-Institut in Marburg, dem Collegium Carolinum in München, dem Institut für Ost- und Südosteuropaforschung (IOS) in Regensburg und der Bayerischen Staatsbibliothek. Gefördert wird das Projekt seit 2009 durch die Deutsche Forschungsgemeinschaft. Mehr zum Projekt vgl. u.a. KUNZ 2009; GLEIXNER 2010; MANIERO 2010.187 Arpine ManieroAbb. 2: Der Link in der OPAC-Anzeige der Bayerischen Staatsbibliothek führt direkt zum Digitalisat auf www.ostdok.de; Quelle: eigener Screenshot. Diverse Suchmöglichkeiten erlauben neben der einfachen Stichwort-, Namens- und Ti- telsuche auch eine nach geografischen, fachlichen und zeitlichen Kriterien gegliederte Recherche. Eine viel effizientere Suche wird aber auch durch die inhaltliche Durchsuch- barkeit sowohl innerhalb der einzelnen Dokumente als auch im gesamten digitalen An- gebot von OstDok ermöglicht. Dieser Ansatz, die retrodigitalisierte Fachliteratur den Forschern weltweit und ohne Ein- schränkungen zur Verfügung zu stellen, wird gemeinhin als die wichtigste wissenschaftli- che Aufgabe der modernen Geschichtsforschung angesehen, während die Fachwelt vom wissenschaftlichen Anspruch der genuinen Onlinepublikationen noch zu überzeugen ist.188 Digitale Präsentation des historischen Wissens in den Osteuropawissenschaften. Das Fachrepositorium OstDokDie Bereitstellung solcher Publikationen ist aber selbstverständlich Bestandteil der wis- senschaftlichen Literaturversorgung8 und stellt einen überaus wichtigen Bereich in der Konzeption von OstDok dar. Der Aufbau von digitalen Reihen auf OstDok basiert darauf, sehr gute, aber dennoch nicht immer sichtbare wissenschaftliche Arbeiten als elektronische Erstpublikationen der Fachwelt zur Verfügung zu stellen. Es handelt sich hierbei um digitale Buchreihen, was bedeutet, dass deutliche zeitliche, geografische und fachliche Schwerpunkte gesetzt werden9 und darüber hinaus eine redaktionelle Betreuung gewährleistet wird. Die »Digitale Reihe der Graduierungsschriften« etwa sieht vor, den Nachwuchswissen- schaftlern eine erste qualitätsgeprüfte Onlinepublikation mit Garantie der Langzeitarchi- vierung zu bieten, wobei die Anbindung an den Bayerischen Bibliotheksverbund zusätz- lich für eine deutlich bessere Auffindbarkeit dieser Arbeiten sorgt. Eine vergleichbare Konzeption wurde bereits im Rahmen des Projekts ViFaOst realisiert, die digitale Reihe von OstDok geht aber mit der Bereitstellung einer Online-Redaktionsplattform einige Schritte weiter. Erklärtes Ziel ist es dabei, die intensive Nutzung, Zitierung und Weiter- empfehlung der Onlinematerialien zu erreichen, was ihre Vertrauenswürdigkeit und ih- ren wissenschaftlichen Wert voraussetzt. Anders gesagt, für eine erfolgreiche Etablie- rung der Onlinepublikationskultur müssen die elektronischen Publikationen, vor allem aber die elektronischen Erstpublikationen imstande sein, als genuin wissenschaftliche Materialien die Fachwelt von der Notwendigkeit der neuen alternativen Publikationsmo- delle zu überzeugen. Die Zielsetzung ist dabei die Anerkennung der elektronischen Erst- publikationen als nunmehr unverzichtbarer Teil der modernen Geschichtswissenschaft und ihre Gleichstellung mit den auf ›traditionellem‹ Wege entstandenen wissenschaftli- chen Materialien. Derweil ist aber nach wie vor mit einer eher zurückhaltenden Akzeptanz und auch Nut- zung der Onlinematerialien durch die Fachwelt zu rechnen. Diese Zurückhaltung grün- det sich vor allem auf Zweifeln gegenüber dem wissenschaftlichen Anspruch der On- linetexte, deren Fachrelevanz – selbst bei Veröffentlichung auf einschlägigen Fachporta- len – für die Forscher zunächst einmal nicht erkennbar ist. Zwar machen Vorteile wie große Sichtbarkeit, schnelle Verbreitung, leichte Auffindbarkeit, inhaltliche Durchsuch- barkeit und nicht zuletzt die vermeintlich größere Zitierbarkeit das Online-Publizieren an sich überaus attraktiv, ein gewisses Misstrauen hinsichtlich der Zuverlässigkeit und Seriosität bleibt jedoch in jedem Fall bestehen. Es wäre daher ein Trugschluss zu glau- ben, dass größere Sichtbarkeit zwangsläufig zu einer größeren Zitationshäufigkeit führen würde. 8 Vgl. SCHIRMBACHER 2005, S. 7f. 9 In die »Digitale Reihe der Graduierungsschriften« etwa werden ausschließlich Arbeiten aufgenommen, die die neuzeitliche ost- und südosteuropäische Geschichte behandeln.189 Arpine ManieroVon sehr vielen Fachportalen wird mittlerweile die Möglichkeit angeboten, wissen- schaftliche Texte nach dem Ausfüllen von bestimmten Formularen selbstständig hoch- zuladen. Zwar werden diese Texte meist nicht sofort sichtbar, sondern verbleiben zu- nächst auf einer Redaktionsebene, wo sie nach formalen Kriterien überprüft werden, eine inhaltliche redaktionelle Betreuung findet dennoch nicht statt. Sowohl die Bezeich- nung ›Onlineveröffentlichung‹ als auch die Bedeutung der Redaktion muss in solchen Fällen mit Vorsicht genossen werden. Für jene Fachportale, die großen Wert darauf le- gen, originäre Onlinetexte zu produzieren, ist die redaktionelle Betreuung des aus- schließlich digital entstandenen wissenschaftlichen Materials aber unumgänglich. Dabei sind ein gewisses Selektionsverfahren und die eingehende Quellenkritik10 der digitalen Ressourcen zwingend notwendig, wenngleich dies in der elektronischen Publikationskul- tur immer noch ein Desiderat darstellt. Zurzeit fehlen nämlich sowohl methodische als auch theoretische und technische Ansätze, um digitale Ressourcen mit den gedruckten wissenschaftlichen Materialien vergleichbar aufzubereiten und somit ihre Eignung für die wissenschaftliche Nutzung und Weiterverarbeitung zu gewährleisten. Trotz der immer besseren technischen Lösungen für die Auffindbarkeit und Langzeit- archivierung der digitalen Dokumente kommt erschwerend hinzu, dass den Nutzern ge- rade hinsichtlich ihrer dauerhaften Verfügbarkeit kein besonderes Vertrauen und Zuver- sicht vermittelt wird. Ein einfacher Versuch herauszufinden, wie es um die Verfügbar- keit der zitierten elektronischen Texte bestellt ist, liefert häufig enttäuschende Ergebnisse: Beinahe bei jedem elektronischen Text wird man in den Fußnoten und dem- entsprechend auch im Literaturverzeichnis viele ›tote Links‹ entdecken. Die Gründe für solche Fehlermeldungen können sehr unterschiedlich sein. Falls es sich jedoch nicht um eine für die jeweilige Forschung unverzichtbare Arbeit handelt, würden die meisten Nut- zer, selbst wenn die betroffenen Dokumente bei einer variablen Recherche wahrschein- lich auffindbar wären, die Suche bereits nach der ersten Fehlermeldung abbrechen. In der Tat geht es hierbei weniger um die nicht funktionierenden Links, und noch weni- ger um das möglicherweise fehlende technische Verständnis vieler Nutzer, mittels effizi- enter Recherche doch noch die gewünschten Inhalte zu erhalten. Von größerer Bedeu- tung ist vielmehr das durch solche Fehlerquoten dem Nutzer, vor allem aber dem Autor übermittelte Gefühl der Machtlosigkeit, wenn die eigenen Texte im Netz ›entrücken‹, ›umziehen‹ bzw. einfach ›verschwinden‹, ohne dass man Einfluss darauf nehmen könnte. Der Aufbau des Fachportals OstDok wurde gerade im Hinblick auf die Gewährleistung von technischen Voraussetzungen wie etwa der Unveränderlichkeit, Authentizität und Überprüfbarkeit des digitalen Dokuments, der Verlässlichkeit des Zugangs, Langzeit- archivierung etc., aber auch für die Sicherung der oben beschriebenen wissenschaftli- chen Qualitätskriterien in enger Kooperation zwischen den wissenschaftlichen Institu- ten und der Bayerischen Staatsbibliothek konzipiert. 10 Vgl. HABER 2011.190 Digitale Präsentation des historischen Wissens in den Osteuropawissenschaften. Das Fachrepositorium OstDokAbb. 3: Umzug der Webserver bzw. Netzprobleme, fehlerhafte Links, Umbenennung, Löschung, Verschiebung der Dateien, auf die die URLs verweisen, etc. führen viel zu oft zu ›toten Links‹; Quelle: eigener Screenshot. Ausblick Will man die Akzeptanz gegenüber den digitalen Medien erreichen und deren Rolle in der Überlieferung des wissenschaftlichen Erbes verdeutlichen, so werden technische Lö- sungen allein nicht ausreichend sein. Auch die Anerkennung der retrodigitalisierten Fachliteratur als einer zuverlässigen Zitierquelle und die Akzeptanz der originären On- linepublikationen als gleichrangige wissenschaftliche Materialien verlangen weit mehr als nur das Renommee der dahinterstehenden Institutionen. Gefragt ist nachdrücklich die Gewährleistung der Integrität und Authentizität der digitalen Dokumente als wichtiges Kriterium zur Beurteilung ihrer wissenschaftlichen Eignung. Zwar könnte man bei der191 Arpine Manieromodernen Quellenkritik des Digitalen11 im Einzelnen auf die traditionellen, in den Ge- schichtswissenschaften längst etablierten Praktiken zurückgreifen, so wird doch die Not- wendigkeit neuer methodischer Ansätze weiterhin als aktuelle und noch zu bewältigende Herausforderung wahrgenommen. Die zurückhaltende Reaktion auf die digitalen Medien in der Fachwelt beruht vor allem auf den Zweifeln, ob die digitale Umgebung in der Tat der geeignete Weg für die Ver- breitung und Erhaltung von wissenschaftlichen Erkenntnissen sei. Die Antwort auf diese Frage ist in der Entwicklungstendenz der digitalen Medien selbst zu suchen, auch wenn weiterhin Bedenken darüber bestehen, welche Medien in der Tat für das wissen- schaftliche Arbeiten geeignet sind, inwiefern die bisherigen Arbeitstechniken der Histo- riker den Anforderungen der digitalen Umgebung angepasst werden sollten, oder nach welchen wissenschaftlichen Regeln etwa digitale Texte verfasst und welche Qualitätskri- terien hierbei beachtet werden sollten. Die Entwicklung der rein historisch konzipierten Onlineportale verändert sich dahingehend, der Fachwelt etwa durch die Nutzung von Schreibtools für das Verfassen elektronischer Texte und einer professionellen Zusam- menstellung von Bibliografien, Registern und Verzeichnissen, durch den Einsatz digita- ler Editionstechniken etc. praktikable digitale Arbeitsumgebungen für die Forschung und Lehre in den einzelnen Fachdisziplinen zur Verfügung zu stellen. Man kann deutlich beobachten, dass der traditionelle Wissensbestand zunehmend – ob- gleich nicht parallel, so doch zumindest zeitnah – auch mittels Onlinemedien einer brei- teren Öffentlichkeit präsentiert wird. Umso mehr kommt es darauf an, eine angemes- sene digitale Umgebung dafür zu schaffen, die sowohl den zeitgemäßen technischen als auch den etablierten wissenschaftlichen Standards genügt. 11 Vgl. HABER 2011, S. 104.192 Digitale Präsentation des historischen Wissens in den Osteuropawissenschaften. Das Fachrepositorium OstDokLiteraturverzeichnis BANSE, Gerhard; KREBS, Irene (Hg.) (2011): Kulturelle Diversität und Neue Medien. Entwick- lungen, Interdependenzen, Resonanzen. Berlin: trafo. FOBELOVÁ, Daniela; FOBEL, Pavel (2011): Kulturelle Identität und Digitale Ära. In: BANSE, Ger- hard; KREBS, Irene (Hg.): Kulturelle Diversität und Neue Medien. Entwicklungen, Interde- pendenzen, Resonanzen. Berlin: trafo, S. 93–101. GANTERT, Klaus (2011): Elektronische Informationsressourcen für Historiker (= Bibliotheks- und Informationspraxis, 43). Berlin/Boston: De Gruyter Saur. GASTEINER, Martin; HABER, Peter (Hg.) (2010): Digitale Arbeitstechniken für die Geistes- und Kulturwissenschaften. Wien u.a.: Böhlau. GLEIXNER, Johannes (2010): OstDok – Elektronische Erstpublikationen im Open Access in der Praxis. In: GÖRNER, Franz (Hg.): Integration durch Information – We Love to Inform You… 38. ABDOS-Tagung, Martin, Slowakei. Referate und Beiträge (= Staatsbibliothek zu Berlin. Veröffentlichungen der Osteuropa-Abteilung, 38). Berlin: Staatsbibliothek zu Berlin, S. 40– 43. GRADMANN, Stefan (2007): Open Access – einmal anders. Zum wissenschaftlichen Publizieren in den Geisteswissenschaften. In: ZfBB – Zeitschrift für Bibliothekswesen und Bibliographie, Jg. 54, H. 4/5, S. 170–173; http://edoc.hu-berlin.de/oa/articles/reWDQUdy2biI/PDF/ 209UiQvDa8SCA.pdf [07.07.2014]. GRAF, Klaus (2003): Wissenschaftliches E-Publizieren mit „Open-Access“ – Initiativen und Wi- derstände. In: zeitenblicke, Jg. 2, H. 2; http://www.zeitenblicke.de/2003/02/pdf/graf.pdf [07.07.2014]. HABER, Peter (2011): Digital Past. Geschichtswissenschaft im digitalen Zeitalter. München: Ol- denbourg Wissenschaftsverlag. HÖLSCHER, Barbara; SUCHANEK, Justine (Hg.) (2011): Wissenschaft und Hochschulbildung im Kontext von Wirtschaft und Medien. Wiesbaden: Verlag für Sozialwissenschaften. KUNZ, Norbert (2009): Open Access in den Osteuropa-Wissenschaften. In: GÖRNER, Franz (Hg.): Die Osteuropabibliothek der Zukunft. Das Bibliotheks- und Informationswesen zu Osteuropa vor neuen Herausforderungen. 37. ABDOS-Tagung, Marburg. Referate und Bei- träge (= Staatsbibliothek zu Berlin. Veröffentlichungen der Osteuropa-Abteilung, 37). Berlin: Staatsbibliothek zu Berlin, S. 106–115. KUNZE, Jana (2012): Digitale Werkzeuge für die persönliche Wissensorganisation. In: CMS-Jour- nal, Nr. 35, S. 37– 43; http://edoc.hu-berlin.de/cmsj/35/kunze-jana-37/PDF/kunze.pdf [07.07.2014]. LANDES, Lilian (2010): Rezensieren im Zeitalter des Web 2.0: recensio.net – Rezensionsplattform für die europäische Geschichtswissenschaft. In: SCHOMBURG, Silke; LEGGEWIE, Claus; LO- BIN, Henning; PUSCHMANN, Cornelius (Hg.): Digitale Wissenschaft. Stand und Entwicklung digital vernetzter Forschung in Deutschland. Köln: hbz, S. 215–219; http://www.hbz- nrw.de/dokumentencenter/veroeffentlichungen/Tagung_Digitale_Wissenschaft.pdf [07.07.2014].193 Arpine ManieroMANIERO, Arpine (2010): Digitale Publikationen in Osteuropawissenschaften. Digitale Reihe hervorragender Abschlussarbeiten des Projektes OstDok. In: SCHOMBURG, Silke; LEGGE- WIE, Claus; LOBIN, Henning; PUSCHMANN, Cornelius (Hg.): Digitale Wissenschaft. Stand und Entwicklung digital vernetzter Forschung in Deutschland. Köln: hbz, S. 207–214; http:// www.hbz-nrw.de/dokumentencenter/veroeffentlichungen/Tagung_Digitale_Wissen- schaft.pdf [07.07.2014]. MRUCK, Katja; GRADMANN, Stefan; MEY, Günter (2004): Open Access: Wissenschaft als Öf- fentliches Gut. In: FQS – Forum Qualitative Sozialforschung, Jg. 5, H. 2; http://www.quali- tative-research.net/index.php/fqs/article/view/624/1351 [07.07.2014]. PFANZELTER, Eva (2010): Von der Quellenkritik zum kritischen Umgang mit digitalen Ressour- cen. In: GASTEINER, Martin; HABER, Peter (Hg.): Digitale Arbeitstechniken für Geistes- und Kulturwissenschaften. Wien u.a.: Böhlau, S. 39– 49. RÜCKER, Benjamin (2010): Open Access in den Geistes- und Sozialwissenschaften. Perspektiven für bibliothekarische Dienstleistungen; http://epub.uni-regensburg.de/15999/1/OA_in_ den_Geistes-_und_Sozialwissenschaften.pdf [07.07.2014]. SCHIRMBACHER, Peter (2005): Die neue Kultur des elektronischen Publizierens. In: CMS-Journal, Nr. 27, S. 19–22; http://edoc.hu-berlin.de/cmsj/27/schirmbacher-peter-19/PDF/schirmba- cher.pdf [07.07.2014]. SCHMALE, Wolfgang (2010): Digitale Geschichtswissenschaft. Wien u.a.: Böhlau. Im Text erwähnte Webseiten Virtuelle Fachbibliothek Osteuropa (ViFaOst): http://www.vifaost.de Osteuropa-Dokumente online (OstDok): http://www.ostdok.de194 Wissenschaftskultur im Wandel? Die Rolle von Open Access im digitalen Zeitalter Jana Weitkamp Wissenschaftliches Publizieren ist im Umbruch begriffen. Klassischerweise auf die Ak- teure Autor, Verlag, Bibliothek und Leser festgelegt, ergeben sich heute durch digitale Repräsentationsformen und deren Distribution über Dienste des Internets neue Mög- lichkeiten. Ausgehend von einer Beschreibung der wissenschaftlichen Publikationskultur und ihren kritischen Aspekten wird untersucht, wie digitale Medien zu einer Reorganisa- tion der Strukturen beitragen können. Insbesondere die sich als Reaktion auf die so- genannte ›Zeitschriftenkrise‹ formierende Open-Access-Bewegung fordert und fördert dabei den freien Zugang zu wissenschaftlichen Werken. Der Umsetzung des Ausgangs- arguments – wissenschaftliche Erkenntnisse sind in der Regel staatlich gefördert und sollten deshalb ein Allgemeingut sein, anstatt von Bibliotheken teuer für die Bedürfnisse der Forscher zurückgekauft werden zu müssen – stehen jedoch zahlreiche Hindernisse entgegen, die die flächendeckende Durchsetzung des Open-Access-Gedankens bislang verhindert haben. Entsprechend werden das Publikationsverhalten und die Einstellung von Wissenschaftlern zu Open Access ebenso untersucht wie weitere Formen digital un- terstützter, offener Forschung, die einen Hinweis auf die zukünftige Ausgestaltung wis- senschaftlicher Publikationsstrategien liefern könnten. 1. Die wissenschaftliche Publikationskultur »If I have seen further it is by standing on the shoulders of giants.« Isaac Newton in einem Brief an Robert Hooke, 16761 Dieser Ausspruch Isaac Newtons hat nichts von seiner Gültigkeit eingebüßt. Wissen- schaft beruht stets auf vorangegangenen Erkenntnissen, die widerlegt, weiterentwickelt oder auf andere Kontexte übertragen werden. Entsprechend ist Wissenschaft auf Aus- tausch angewiesen, damit Forschungsergebnisse rezipiert, als Grundlage der eigenen Forschungstätigkeit weiterentwickelt und neu zugänglich gemacht werden können. Kommunikation nimmt in diesem Prozess eine entscheidende Rolle ein. Wissenschaftli- che Kommunikation kann in vielerlei Formen geschehen; durch Berichte an Fachkolle- gen ebenso wie durch das persönliche Gespräch oder den Vortrag auf Tagungen und Konferenzen. Erst Publikationen richten sich jedoch an eine allgemeine Öffentlichkeit und bieten damit die größte Chance, neue Erkenntnisse und Ergebnisse wissenschaftli- cher Forschung strukturiert zu verbreiten und für andere prinzipiell auffindbar zu ma- chen. Durch die schriftliche Fixierung werden wissenschaftliche Informationen zudem orts- und zeitpunktunabhängig nutzbar. In Verbindung mit Funktionen der Qualitäts- 1 Zitiert nach KUHLEN 2008, S. 35.195 Jana Weitkampsicherung und Mechanismen zur Generierung von Anerkennung hat sich die wissen- schaftliche Publikation damit als Basis der formellen Wissenschaftskommunikation eta- bliert.2 Dabei stellt sie viel mehr dar als nur ein Kommunikationselement im wissen- schaftlichen Diskurs: Sie ist Zeugnis wissenschaftlicher Produktivität und damit Instrument im Kampf um Reputation, deren Anhäufung signifikante Auswirkungen auf Karrierechancen und Mittelvergabe hat.3 In vielen Disziplinen ist es dabei insbesondere der begutachtete Artikel in einer Fachzeitschrift, der als bestmögliche Umsetzung der wissenschaftlichen Kommunikation betrachtet wird.4 Das hierdurch entstandene wissenschaftliche Kommunikationssystem beruht auf einem komplexen Zusammenspiel verschiedener Akteure, die von der Erstellung einer Publi- kation bis hin zu ihrer informationswissenschaftlichen Erschließung jeweils spezifische Funktionen innerhalb dieses Systems wahrnehmen, es dadurch reproduzieren und fort- schreiben. Nach Michael Meier gliedert sich der Publikationsprozess in die Phasen Ma- nuskripterstellung und Einreichung, Begutachtung und Überarbeitung, Aufbereitung und Druck sowie Archivierung und Erschließung. In der ersten Phase entscheidet sich der Verfasser, nachdem er seinen Artikel beendet hat, für ein infrage kommendes Jour- nal. Gedanken, die seine Entscheidung beeinflussen, sind beispielsweise das Ansehen des Journals in seinem Fachbereich und die erwartete Leserschaft. Kennzeichnend für das wissenschaftliche Publikationssystem ist dabei, dass der Autor keine finanzielle Ent- lohnung bekommt, jedoch bei einigen Zeitschriften Gebühren (page charges) zu entrich- ten hat. Nachdem der Artikel bei der gewählten Fachzeitschrift vorliegt, bestimmt das Herausgebergremium zwei oder mehr Experten zur Begutachtung des Artikels. In die- sem ›Peer Review‹ genannten Prozess wird entschieden, ob der Artikel grundsätzlich in das Portfolio der Zeitschrift passt und ob er für die Leserschaft interessant ist. Wichtige Punkte dabei sind die Qualität der Forschungsergebnisse, wie ansprechend diese präsen- tiert werden sowie deren Neuigkeitswert. Je nach Ergebnis des Peer Reviews wird der Artikel angenommen, mit entsprechenden Auflagen an den Autor mit der Bitte um Nachbesserung zurückgesandt oder aber abgelehnt. Ebenfalls kennzeichnend für diese Phase des Publikationsprozesses ist dabei, dass auch die Gutachter in der Regel für ihre Arbeit nicht bezahlt werden. Wurde der Artikel akzeptiert, folgt in Phase drei die Aufbe- reitung und Anreicherung durch den Zeitschriftenverlag: Die Redaktion stellt nun si- cher, dass der Text in Bezug auf Ausdruck, Terminologie und Bildmaterial sowohl tech- nischen als auch inhaltlichen Standards der Zeitschrift und des Fachbereichs entspricht. Schließlich wird der Text in eine druckfähige Form gebracht und mit weiteren Artikeln als Ausgabe der Zeitschrift produziert und/oder für eine elektronische Veröffentlichung aufbereitet. Anschließend wird die Zeitschrift durch den Verlag selbst oder durch Agen- turen verbreitet, die Bibliotheken als Hauptabnehmer übernehmen die Erschließung und stellen sie der wissenschaftlichen Gemeinschaft in der Regel kostenfrei zur Verfügung.5 2 Vgl. HANEKOP/WITTKE 2007, S. 203; RÜHL 1999, S. 11. 3 Vgl. DFG 2013, S. 43. 4 Vgl. DIES. 2005, S. 22ff. 5 Vgl. MEIER 2002, S. 81f.196 Wissenschaftskultur im Wandel? Die Rolle von Open Access im digitalen ZeitalterFür den wissenschaftlichen Kommunikationsprozess ist jedoch konstitutiv, dass der Vorgang nach Erschließung der Informationseinheit nicht etwa abgeschlossen ist, son- dern dass nun andere Wissenschaftler als Leser und Nutzer der publizierten Informatio- nen aktiv werden, indem sie diese kritisch bewerten und in eigenen Publikationen mittels Zitation, in Abstracts oder Rezensionen auf sie Bezug nehmen. Diese Anschlusskom- munikation schafft damit neue Anschlussmomente für andere Leser, die ebenfalls zu Autoren werden können – der Kreislauf der wissenschaftlichen Kommunikation be- ginnt von Neuem.6 Erwachsen aus den Rollendefinitionen Vorteile für die Beteiligten, erfüllt das System sei- nen Zweck und wird nicht infrage gestellt. Unter der Anforderung, wissenschaftliche Publikationen müssten hauptsächlich dem Fortschritt der Wissenschaft dienen, wird das wissenschaftliche Kommunikationssystem jedoch zunehmend einer kritischen Überprü- fung unterzogen,7 denn immer stärker belasten finanzielle und technische Restriktionen die eigentlich erforderliche umfassende Verbreitung. Diese Widersprüche brachen schließlich in den 1990er-Jahren in der sogenannten Zeitschriftenkrise auf: Den Biblio- theken, die Heidemarie Hanekop und Volker Wittke als »Achillesferse«8 des traditionel- len Publikationsmodells bezeichnen, fällt es angesichts dramatischer Preiserhöhungen der großen kommerziellen Verlagshäuser zunehmend schwerer, die Erwartungen der Wissenschaft zu erfüllen. Monopolisierungstendenzen in der Verlagswelt, daraus abge- leitete steigende Abonnementpreise in Verbindung mit restriktiven Preis- und Ge- schäftsmodellen haben den Handlungsspielraum der Bibliotheken empfindlich einge- schränkt. So beobachtet die Bundesvereinigung deutscher Bibliotheksverbände zwischen 1997 und 2000 für den STM-Bereich9 eine Preissteigerung von 50%, wobei es einige Kernzeitschriften zwischen 1992 und 1999 auf über 200% Erhöhung bringen. Auch der Harrassowitz-Preisindex, der die Entwicklung von Zeitschriftenpreisen für die Länder Deutschland, Österreich und Schweiz untersucht, beschreibt in den Jahren von 1996 bis 2002 eine Steigerung von etwa 50%.10 Der Serials Price Increase Report des Unterneh- mens Swets Information Services zeigt für die Jahre 2006 bis 2014 eine durchschnittliche Preissteigerung von 6,1% an, bezogen auf alle ausgewerteten Regionen und Fachge- biete.11 Nach dem »Periodicals Price Survey« des Library Journal liegt die durchschnittli- che Rate bei englischsprachigen Zeitschriften in den letzten Jahren relativ konstant bei 6,3% pro Jahr.12 Angesichts des weiter zunehmenden Publikationsaufkommens bei gleichzeitig bestenfalls stagnierenden Erwerbungsetats der Bibliotheken entsteht so mit- ten im Informationsüberangebot ein Informationsmangel, der aus dem zwangsweise ein- geschränkten Medienangebot der Bibliotheken resultiert. 6 Vgl. LUHMANN 1990, S. 319; RÜHL 1999, S. 224. 7 Vgl. PFEIFFENBERGER 2007, S. 59. 8 HANEKOP/WITTKE 2007, S. 206. 9 Das Akronym STM steht für Science, Technology, Medicine. 10 Vgl. ANDERMANN/DEGKWITZ 2004, S. 38. 11 Vgl. Swets Information Services 2013. 12 Vgl. BOSCH/HENDERSON 2014.197 Jana WeitkampIn dieser Hinsicht erscheint es konsequent, dass bereits im Frühstadium des Internets die neuartige Netzinfrastruktur für den schnellen und einfachen Austausch wissen- schaftlicher Informationen genutzt wurde. Seit mit Verbreitung des World Wide Webs im Jahr 1992 eine Plattform vorliegt, mit der Publizieren für potenziell jedermann mög- lich ist, entstehen auch für die Wissenschaftskommunikation vormals ungeahnte Mög- lichkeiten: Wissenschaftliche Ergebnisse können ohne Intermediäre und damit unbelas- tet von kommerziellen Interessen an die Öffentlichkeit gebracht werden, und dies schneller, günstiger und vor allem mit maximaler Reichweite.13 Publizieren im digitalen Zeitalter meint für Wissenschaftler damit nicht nur die digital unterstützte Recherche, Erstellung und Auswertung ihrer Texte, sondern bezieht sich vor allem auf Formen der Verbreitung, die sich durch Internet und WWW ergeben. Es liegt dabei die Annahme zugrunde, dass das von unterschiedlichen Menschen mit ih- ren individuellen Hintergründen, Ansätzen und Motivationen erarbeitete Wissen seinen eigentlichen Wert erst dann entfaltet, wenn es für jeden Interessierten zugänglich ist. Wissen als zentrale Ressource für weite Bereiche von Wissenschaft, Wirtschaft und Ge- sellschaft bliebe ohne Kommunikation an die Einzelperson gekoppelt, es könnte nicht mit anderen Erfahrungen abgeglichen, revidiert und kontinuierlich weiterentwickelt werden. Gerade dieser Prozess ist es jedoch, der den Umgang mit Wissen in der heuti- gen Zeit ausmacht und der mit dem Terminus »Wissensgesellschaft« beschrieben wird.14 Wissensbasierte Arbeit in einer solchen Gesellschaft »verlangt nach globalem und personalisiertem Zugriff auf den zivilisatorischen Bestand«.15 Entsprechend ist es nötig, Wissenschaftler und Forschergruppen weltweit zu vernetzen, um ihre Kommuni- kation zu unterstützen und den Zugriff auf das verteilte, schriftlich fixierte Wissen zu ermöglichen.16 Für das wissenschaftliche Publikationssystem hat die Digitaltechnik in diesem Zusam- menhang einen wesentlichen Fortschritt gebracht. Digital vorliegende Texte können schnell, einfach und kostengünstig kopiert, verbreitet und für die eigene Arbeit nutzbar gemacht werden. Ebenso wie das die Wissensgesellschaft konstituierende Wissen ver- brauchen sie sich nicht bei der Nutzung, die klassischen Kopierverluste gehören der Vergangenheit an.17 Zudem sind digitale Objekte nicht rivalisierend im Gebrauch, an- ders als bei einem gedruckt vorliegenden Text können also mehrere Nutzer gleichzeitig auf sie zugreifen, ohne sich damit gegenseitig zu beeinträchtigen.18 Hier wird deutlich, warum das elektronische Publizieren, das in seinen Grundzügen bereits in den 1980er- Jahren aufkam, sich erst mit Verbreitung des WWW flächendeckend durchsetzen konnte: Erst durch ein weltweites Netz können digitale Daten wirklich umfassend ver- 13 Vgl. HORSTMANN 2007, S. 63. 14 Vgl. STEHR 2004. 15 FREYERMUTH 2007, S. 37. 16 Vgl. PFEIFFENBERGER 2007, S. 61. 17 Vgl. HILLER/FÜSSEL 2006, S. 91. 18 Vgl. KUHLEN 2008, S. 13.198 Wissenschaftskultur im Wandel? Die Rolle von Open Access im digitalen Zeitalterteilt werden, der Zugriff ist nur noch einen Mausklick entfernt.19 Während das Internet in seiner Frühphase lange Zeit von technischen Disziplinen beherrscht blieb, konnte es sich mit Aufkommen des WWW in nur wenigen Jahren »zur zentralen Region der digita- len Infrastruktur«20 entwickeln und damit unentbehrlich für die Wissenschaft werden. Als Publikationsmedium ermöglicht es prinzipiell einen umfassenden Austausch und zeitverlustfreien Zugriff auf Veröffentlichungen, wie er in dieser Form nie zuvor gege- ben war. Entsprechend entsteht für wissenschaftliches Publizieren im digitalen Zeitalter die Chance auf Realisierung einer umfassenden Verfügbarkeit, durch die das bisherige System infrage gestellt und das Verhältnis der Akteure zueinander neu definiert werden kann. Das Potenzial digitaler Netze wird dabei häufig mit dem des im 15. Jahrhundert entwickelten maschinellen Buchdrucks verglichen: Ähnlich wie dieser damals wissen- schaftliches Publizieren als strukturierte und formalisierte Wissenschaftskommunikation erst möglich machte, soll durch digitale Medien und die entstehende Infrastruktur alter- nativer Publikationsmöglichkeiten heute ein vergleichbarer Umbruch ausgelöst wer- den.21 Auch die Erwartungen, die mit dem Buchdruck aufkamen, lassen sich auf die in digitale Netze hineinprojizierten Wünsche übertragen: Die »[w]eltweite Verbreitung von Information, ewige Speicherung von Wissen und die Möglichkeit, jeden zu erreichen«,22 war damals wie heute als Prämisse handlungsleitend.23 In diesem Sinne wird die Internettechnologie als Katalysator betrachtet, mit der das Sys- tem des wissenschaftlichen Publizierens dem Ideal einer umfassenden Verfügbarkeit nä- herkommen kann. Zeitgleich entstehen jedoch Kontrollmöglichkeiten, die die technisch prinzipiell machbare universelle Zugänglichkeit wissenschaftlicher Ressourcen ein- schränken. Durch Digital Rights Management (DRM) wird beispielsweise versucht, die in einer analogen Welt entwickelten Lizenz- und Zugriffsmodelle auf digitale Objekte zu übertragen.24 Die Technik eröffnet in diesem Sinne nicht nur einen Möglichkeitsraum, durch den neue Handlungs- und Entwicklungsoptionen gegeben sind, sondern sorgt gleichzeitig für deren Beschränkung.25 Die Übertragung wissenschaftlicher Verlagspro- dukte ins Netz ist dabei als Reaktion auf den im Mediensektor allgemein hohen Verän- derungsdruck durch Digitalisierung zu sehen, der eine Anpassung an die neuen Gege- benheiten erfordert. Die Entwicklung des DRM wiederum mag als Beispiel dafür dienen, wie innerhalb dieses neuen Möglichkeitsraumes eigene Strategien zur Adaption entwickelt werden, die dazu beitragen, dass kommerzielle Wissenschaftsverlage auch in der entstehenden Infrastruktur alternativer Publikationsmöglichkeiten derzeit noch eine große Rolle spielen.26 19 Vgl. KELLER 2005, S. 15ff. 20 FREYERMUTH 2007, S. 38. 21 Vgl. KUHLEN 2008, S. 212. 22 GIESECKE 1998, S. 398. 23 Vgl. ebd., S. 703. 24 Vgl. KUHLEN 2008, S. 165f. 25 Vgl. DOLATA/WERLE 2007, S. 20f. 26 Vgl. ebd., S. 28ff.199 Jana Weitkamp2. Die Open-Access-Bewegung Auch die Wissenschaftler selbst nutzen die Technik, um das System wissenschaftlichen Publizierens zu ihrem Vorteil auszurichten. Die Open-Access-Bewegung, die seit An- fang der 2000er-Jahre den freien Zugang zu wissenschaftlichen Publikationen fordert, setzt dabei die Internettechnologie mit dem Ziel ein, eine maximal mögliche Verbreitung wissenschaftlicher Ressourcen zu erreichen. Nach der »Berliner Erklärung über offenen Zugang zu wissenschaftlichem Wissen« wird eine Open-Access-Publikation dann als solche verstanden, wenn der Autor einer freien, uneingeschränkten Zugriffsmöglichkeit zugestimmt hat und dem Leser die Rechte einräumt, das Werk zu kopieren, zu nutzen, zu verbreiten, zu übertragen, es öffentlich wiederzugeben, Bearbeitungen davon zu er- stellen und in jedem digitalen Medium verbreiten zu dürfen, solange dies für einen ver- antwortbaren Zweck und unter korrekter Nennung der Urheberschaft geschieht.27 Die Verfügbarmachung kann dabei auf verschiedenen Wegen erfolgen: Der sogenannte ›Grüne Weg‹ bezeichnet die Selbstarchivierung der Publikation durch den Autor. Bei dieser Variante von Open Access legt der Autor ein Pre- oder Postprint-Exemplar sei- nes Artikels in einem über das Internet erreichbaren Archiv ab und sorgt auf diese Weise für einen freien Zugang zu seinen Forschungsergebnissen.28 Eigene Webseiten können dabei ebenso zur Ablage genutzt werden wie fachspezifische oder institutionelle Reposi- torien, wobei die fachspezifischen Plattformen heute am häufigsten genutzt werden.29 Das Einstellen in ein solches Archiv schließt eine traditionelle Publikation in der Regel nicht aus; so erlauben nach Angaben der Liste SHERPA/RoMEO 72% der Verlage eine parallele Verfügbarmachung mittels Selbstarchivierung (Pre- oder Postprint).30 Der Grüne Weg positioniert sich damit nicht als direkte Konkurrenz, sondern eher neben dem traditionellen Publikationsmodell und dient ausschließlich einer maximalen Ver- breitung und Zugänglichmachung wissenschaftlicher Literatur. Die eingangs beschriebe- nen Funktionen wissenschaftlicher Publikationen – Erfassung und Validierung der wis- senschaftlichen Leistung, Generierung von Aufmerksamkeit, Qualitätssicherung – blei- ben weiterhin den etablierten Fachmedien vorbehalten. Ein anderer, der sogenannte ›Goldene Weg‹, wird mit speziellen Open-Access-Zeitschriften verfolgt. Diese positio- nieren sich als direkte Konkurrenz zu etablierten klassischen Verlagsprodukten und übernehmen so auch all deren Funktionen: Neben der Qualitätsprüfung durch Begut- achtungsverfahren generieren sie mittels ›Impact Factor‹ und Zitationsraten Anerken- nung wissenschaftlicher Leistung. Im Gegensatz zu klassischen Zeitschriften müssen sie jedoch nicht über Subskriptionen erworben, sondern auf ihre Inhalte kann frei über das Internet zugegriffen werden.31 Dies impliziert, dass die Kosten der Herstellung auf an- deren Wegen gedeckt werden müssen. Viele der im ›Directory of Open Access Journals‹ 27 Vgl. Berliner Erklärung 2006. 28 Vgl. Budapest Open Access Initiative 2002. 29 Vgl. BJÖRK u.a. 2010. 30 Die vom SHERPA-Projekt bereitgestellte und durchsuchbare Liste RoMEO gibt Auskunft darüber, ob und in welcher Form Verlage die Selbstarchivierung gestatten, siehe http://www.sherpa.ac.uk/romeo/ statistics.php [07.07.2014]. 31 Vgl. HANEKOP/WITTKE 2007, S. 210ff.200 Wissenschaftskultur im Wandel? Die Rolle von Open Access im digitalen Zeitalter(DOAJ) verzeichneten 9.852 Zeitschriften32 setzen deshalb Artikelgebühren ein, die in der Regel zwischen 500 und 2.000 Euro liegen.33 Mit diesen Gebühren werden die Kos- ten der Herstellung inklusive des Peer Reviews gedeckt. Die Umkehrung des traditionel- len Finanzierungswegs wird hierbei durch das Interesse der Autoren an einer funktionie- renden Qualitätssicherung selbst gerechtfertigt, da nur diese eine prestigeträchtige Ver- öffentlichung und damit den Zugewinn an Reputation generiert.34 Weitere Möglichkeiten der Finanzierung stellen der Betrieb durch einen institutionellen Träger oder eine Fachgesellschaft, das Anbieten kostenpflichtiger Mehrwertdienste oder Zusatzprodukte sowie Werbung und Spenden dar.35 Auch hybride Finanzierungsmo- delle wie die von Springer angebotene Option ›Open Choice‹ sowie institutionelle Mit- gliedschaften sind mögliche Wege.36 3. Einstellungen zu Open Access Wie wird das Open-Access-Paradigma innerhalb der Wissenschaft angenommen? In ei- ner 2005 veröffentlichten Studie hinsichtlich des Publikations- und Rezeptionsverhal- tens von ihr geförderter Wissenschaftler beobachtet die Deutsche Forschungsgemein- schaft noch starke Vorbehalte gegenüber frei im Internet verfügbaren Publikationen.37 So werden seitens der Wissenschaftler vor allem die Qualität der Texte, die Zitations- häufigkeit und die Langzeitverfügbarkeit infrage gestellt.38 Ein weiterer Punkt, der einer flächendeckenden Einführung von Open Access entgegensteht, ist die Unsicherheit in Rechtsfragen. Viele Autoren haben Bedenken, ein Dokument parallel zur Verlagsveröf- fentlichung auf einem Repositorium frei zur Verfügung zu stellen. Ein Großteil der Ver- lage erlaubt zwar auch bereits Mitte der 2000er-Jahre die Selbstarchivierung, allerdings mit durchaus unterschiedlichen Bedingungen hinsichtlich einzuhaltender Fristen und Gestalt des Dokuments.39 Ebenso wird Open Access zu dieser Zeit hauptsächlich mit dem Modell der Autorenbeiträge gleichgesetzt, mit entsprechend negativen Konnotatio- nen.40 Teilweise geht dies so weit, dass von einer Existenzgefährdung wissenschaftlicher 32 Directory of Open Access Journals (DOAJ); http://doaj.org [07.07.2014]. Aufgenommen werden aus- schließlich Zeitschriften, deren Artikel ein Peer-Review-Verfahren durchlaufen, beinahe täglich kom- men neue Zeitschriften hinzu. 33 Vgl. u.a. Hindawi Publishing Corporation; http://www.hindawi.com/apc [07.07.2014]; BioMed Central – The Open Access Publisher; http://www.biomedcentral.com/about/apcfaq/how- much [07.07.2014]; PLoS – Public Library of Science; http://www.plos.org/publications/publication- fees [07.07.2014]; http://www.springer.com/gp/open-access/springer-open-choice [07.07.2014]. 34 Vgl. BROWN/BOULDERSTONE 2008, S. 163. 35 Vgl. NEUMANN 2006, S. 329. 36 Vgl. BARGHEER 2006, S. 183. 37 DFG 2005. 38 Vgl. ebd., S. 9. 39 Vgl. HANEKOP/WITTKE 2006, S. 222f.; NEUMANN 2006, S. 326f. 40 Vgl. u.a. GÖTZE/KORWITZ 2004, S. 16; KELLER 2005, S. 100 und S. 207; JONES u.a. 2006, S. 27. Sie bringen Open Access ausschließlich mit den genannten Artikelgebühren (»author pays«) in Verbindung und lassen somit die Möglichkeit der Selbstarchivierung außen vor.201 Jana WeitkampAutoren durch Open-Access-Veröffentlichungen die Rede ist.41 Zum einen jedoch be- zieht sich die Forderung eines freien Zugangs auf solche Literatur, für die die Verfasser keine unmittelbare monetäre Entlohnung erhalten – Peter Suber nennt diese Werke »royalty-free literature«.42 Zum anderen existiert besonders in den Lebenswissenschaf- ten seit Langem die Praxis, dass Autoren für die konventionelle Publikation ihrer Werke Zuzahlungen leisten.43 Entsprechend ist die Bereitschaft, für den freien Zugang zu Pub- likationen einen finanziellen Beitrag zu leisten, in diesem Wissenschaftszweig auch am höchsten, in den Geistes- und Sozialwissenschaften am niedrigsten.44 Weiterhin scheint es ein Zurückscheuen vor der Erstellung internetfähiger Dokumente zu geben, deren Aufbereitung im Hinblick auf ein geeignetes Format und die Erstellung von Metadaten Mitte der 2000er-Jahre als zeitaufwendig und kompliziert empfunden wird.45 Zusammenfassend lässt sich anhand der erwähnten DFG-Studie eine Ambivalenz in der Haltung der befragten Wissenschaftler feststellen: Während sie in ihrer Rolle als Leser und Nutzer der Informationen Open Access und dem damit verbundenen einfachen Zugriff auf Publikationen durchaus positiv gegenüberstehen, ist ihre Haltung in der Po- sition des Autors eher durch Skepsis geprägt. Es wird besonders bezweifelt, dass Open- Access-Publikationen denselben Effekt im Hinblick auf Reputationsgewinn und Karri- erechancen haben können wie klassische Veröffentlichungen. Je größer die Erfahrung mit Open Access jedoch ist, umso stärker nehmen solche Befürchtungen ab.46 Die im Folgenden beschriebenen neueren Studien untersuchen ebenfalls das Publikati- onsverhalten und die Einstellungen innerhalb der Wissenschaft zu Open Access. Da je- weils andere Aspekte im Fokus der Untersuchung stehen, sind die Ergebnisse nicht un- mittelbar miteinander vergleichbar, erhellen jedoch in ihrer Gesamtheit den aktuellen Umgang mit alternativen Publikationsstrategien. Julia Krönung u.a. untersuchen in ihrer Studie »Durch Selbstarchivierung und National- lizenzen zu Open Access?« das Publikationsverhalten in Deutschland arbeitender Wis- senschaftler und ihre Haltung zu Open Access.47 Der Schwerpunkt der Untersuchung liegt dabei auf der Umsetzung des Grünen Wegs, also der Ablage einer wissenschaftli- chen Publikation auf einer geeigneten Plattform, in unterschiedlichen Fachgebieten. Durchweg wird die Selbstarchivierung wissenschaftlicher Publikationen von Wissen- 41 Vgl. SCHROEDER 2009. Vgl. hierzu auch die Definition »Digitale Kopie« im »Wörterbuch des Buches«: »[J]ede Kopie ist vollwertig wie das Original, der Kopiervorgang ein Mausklick, die Übermittlung an Dritte nahezu kostenfrei. Hierin liegt eine grundlegende Gefahr für die Autoren und die Vlg., wenn nicht der Gesetzgeber auf Basis der einschlägigen EU-Richtlinien enge Grenzen für die Zulässigkeit d. K. zieht und nicht etwa Bestrebungen nachgibt, die, wie die open-access-Bewegung, den grundsätzli- chen Entfall aller urheberrechtlicher Restriktionen im Internet fordern. Das wäre das Ende privatwirt- schaftlichen Verlegens und ein riesiger Einnahmeverlust für die Autoren« (HILLER/FÜSSEL 2006, S. 91). 42 Vgl. SUBER 2004. 43 Vgl. DFG 2005, S. 53f.; ROOSENDAAL 2006, S. 168. 44 Vgl. ebd., S. 54ff. 45 Vgl. DFG 2006, S. 990. 46 Vgl. DIES. 2005, S. 48ff. 47 KRÖNUNG u.a. 2010.202 Wissenschaftskultur im Wandel? Die Rolle von Open Access im digitalen Zeitalterschaftlern aller Fachgebiete als sinnvoll bzw. eher sinnvoll erachtet, wobei die Diszipli- nen Mathematik, Physik und Informatik diejenigen mit den höchsten Werten der Zu- stimmung sind; hier halten jeweils über 50% der Befragten Selbstarchivierung für sinnvoll. Dieselben Disziplinen heben sich auch bei der Untersuchung der aktiven Selbstarchivierung ab: Während innerhalb der Gesamtstichprobe über 50% der Wissen- schaftler angeben, Selbstarchivierung nie zu betreiben, antworten in diesen Disziplinen die wenigsten Wissenschaftler mit »nie« und die meisten mit »sehr häufig«. Die Autoren leiten daraus ab, dass trotz der grundsätzlich positiven Einstellung zu Open Access kon- krete Anreize fehlen, wissenschaftliche Arbeiten in einem geeigneten Repositorium zu archivieren. Dass dies ebenso für die Nutzung von Open-Access-Zeitschriften, also den Goldenen Weg gilt, zeigt die Untersuchung zur Rangordnung von Faktoren, die bei der Entscheidung für ein bestimmtes Journal ausschlaggebend sind: Am wichtigsten werden die fachliche Ausrichtung der Zeitschrift, ihr Ranking und ›Impact Factor‹ beurteilt; die Frage, ob der Artikel dort als Open-Access-Version publiziert werden kann, steht an letzter Stelle.48 Das groß angelegte EU-Projekt ›Study of Open Access Publishing‹ (SOAP)49 analysiert die Einstellungen zu Open Access und das Publikationsverhalten in speziellen Open- Access-Zeitschriften näher. Für die Situation in Deutschland zeigt sich, dass Open Ac- cess als Paradigma von 89,7% der Befragten als förderlich für ihr Forschungsfeld bewer- tet wurde – quer durch die Disziplinen. Betrachtet man diese im Einzelnen, werden je- doch Unterschiede sichtbar: Während Chemiker mit 80,9% Zustimmung sich am wenigsten positiv äußern, liegen die Sozialwissenschaften mit 90% im Mittelfeld. Am deutlichsten positiv wird Open Access von Biologen und Geowissenschaftlern mit 93,8% und 94,8% bewertet. Als Grund für die positive Meinung zu Open Access steht »scientific community benefit« an erster Stelle (32%), gefolgt von finanziellen Aspekten (20,8%) und der Bewertung wissenschaftlicher Publikationen als »public good« (17,4%). Aktiv in Open-Access-Zeitschriften publiziert hat bereits eine Mehrheit der befragten Wissenschaftler; so haben 53,8% in den letzten fünf Jahren 1 bis 5 Open-Access-Artikel veröffentlicht, 8,9% sogar mehr als 5. Wurde kein Artikel per Open Access publiziert, so zeigten sich als die bedeutendsten Gründe hierfür die Finanzierung der Publikationsge- bühren und die Qualität der infrage kommenden Zeitschrift. Eine nähere Betrachtung der Höhe der Publikationsgebühren in den verschiedenen Disziplinen ergab, dass es je- doch zahlreiche Wissenschaftler gibt, die Open-Access-Artikel ohne Kosten publizieren konnten; dieser Anteil ist besonders in der Mathematik und den Sozialwissenschaften mit 70% und 80% sehr hoch. In der Biologie, den medizinischen Fächern und den Geo- wissenschaften hingegen liegt der Anteil der Wissenschaftler, die Publikationsgebühren in Höhe von 500 Euro oder mehr bezahlen mussten, bei jeweils etwa 20%. Die Autoren schließen insgesamt auf Unterschiede in den Geschäftsmodellen der existierenden Zeit- schriften ebenso wie auf unterschiedliche Publikationskulturen zwischen den analysier- ten Fachbereichen.50 48 Vgl. KRÖNUNG u.a. 2010, S. 236ff. 49 DALLMEIER-TIESSEN/LENGENFELDER 2011. 50 Vgl. ebd.203 Jana WeitkampIn der Analyse der Verfügbarkeit von Open-Access-Publikationen – ob originär in ei- nem Open-Access-Journal publiziert oder in einem Repositorium abgelegt – von Bo- Christer Björk u.a. bestätigen sich diese Gründe.51 Die Autoren untersuchen hier zu- nächst die Verteilung zwischen dem Grünen und dem Goldenen Weg innerhalb ver- schiedener Fachgebiete. Sie stellen fest, dass in den Lebenswissenschaften eine deutliche Dominanz des Goldenen Wegs herrscht, während in allen anderen Disziplinen der Grüne Weg die meistgenutzte Open-Access-Option ist. Der niedrigste Anteil an Open- Access-Publikationen insgesamt lässt sich dabei in der Chemie mit 13% beobachten, der höchste in den Geowissenschaften mit 33%. Die Autoren vermuten, dass folgende Fak- toren einen Einfluss auf die unterschiedliche Verteilung zwischen den Disziplinen haben: das unterschiedlich breite Vorkommen an Open-Access-Zeitschriften, Unterschiede in den Finanzierungsbedingungen, die Existenz etablierter fachspezifischer Repositorien in einigen Disziplinen sowie die ebenfalls in einigen Disziplinen vorhandene Tradition, Ar- tikel bereits als Preprints öffentlich zugänglich zu machen. All dies summiert sich dann zu einem Anteil von Open-Access-Artikeln am gesamten Publikationsaufkommen von 20,4%; verteilt auf 8,5% Artikel in Open-Access-Zeitschriften und 11,9% in Reposito- rien und anderen Webseiten.52 Bei aller Heterogenität der Studien lässt sich doch übergeordnet festhalten, dass es trotz der quer durch alle Fachdisziplinen gehenden Zustimmung zu Open Access auch einige Jahre nach der eingangs erwähnten DFG-Studie von 2005 eine Diskrepanz zwischen der passiven und aktiven Nutzung gibt. Neben den erwähnten Gründen könnten auch die teilweise restriktiven Geschäftsmodelle einiger großer Wissenschaftsverlage eine Rolle spielen, ebenso wie fehlende Anreize, im Open Access zu veröffentlichen – wie gezeigt wurde, ist das System wissenschaftlichen Publizierens mit komplexen Belohnungsstruk- turen verwoben. Es gibt allerdings auch durchaus Erfolgsgeschichten; die Physik ist hier ein zu Recht häufig erwähntes Beispiel. Aus Unzufriedenheit mit dem langsamen, teuren und ineffektiven traditionellen Publikationssystem gründete der Physiker Paul Ginsparg 1991 die Plattform arXiv.53 Die Plattform ist ein Preprint-Archiv; Artikel, die hier einge- stellt werden, haben zunächst noch kein Peer-Review-Verfahren durchlaufen. Lange vor Aufkommen der Open-Access-Bewegung wurde damit eine Möglichkeit geschaffen, Forschungsergebnisse ohne die Zeitverzögerung einer klassischen Publikation zugäng- lich zu machen. Ein Erfolg wurde die Plattform deshalb, weil sie sich konsequent an den Bedürfnissen der Physiker orientiert; wird innerhalb dieser Disziplin doch hauptsächlich in zahlreichen und eher kürzeren Artikeln publiziert. ArXiv ermöglicht hier den soforti- gen Zugang zu dem aktuell relevanten Fachwissen und damit eine Beschleunigung der wissenschaftlichen Kommunikation. Nach Michael Nielsen erscheint mehr als die Hälfte aller innerhalb der Physik veröffentlichten Artikel zuvor auf der Plattform, in einigen Teilbereichen der Physik soll der Anteil sogar bei nahezu 100% liegen.54 Eine Qualitäts- 51 BJÖRK u.a. 2010. 52 Vgl. ebd. 53 http://arxiv.org [07.07.2014]. 54 Vgl. NIELSEN 2011, S. 161.204 Wissenschaftskultur im Wandel? Die Rolle von Open Access im digitalen Zeitalterkontrolle im eigentlichen Sinn gibt es nicht, jedoch erfolgt eine Überprüfung auf nicht zulässigen oder unangemessenen Inhalt. ArXiv wächst noch immer stetig, mittlerweile sind auch andere Disziplinen wie beispielsweise Mathematik und Informatik verfügbar. Damit hat sich arXiv neben PubMed Central,55 einem Archiv für Zeitschriftenartikel aus der Biomedizin und den Lebenswissenschaften, zu der meistgenutzten Plattform inner- halb der existierenden fachspezifischen Repositorien entwickelt.56 4. E-Science: Forschungsinfrastrukturen für die Geistes- und Kulturwissenschaften Das Beispiel zeigt, dass ein wichtiger Punkt für die Durchsetzung des Open-Access-Pa- radigmas die Entwicklung von Strategien ist, die sich am Publikations- und Rezeptions- verhalten der jeweiligen Fachkultur ausrichten. Begünstigt von dem Bedürfnis nach ei- ner verbesserten wissenschaftlichen Kommunikation konnte sich durch den Preprint- Server arXiv und seine den heutigen Repositorien ähnliche Ablagemöglichkeit in der Physik bereits in den 1990er-Jahren eine Kultur des elektronischen Publizierens entwi- ckeln, die es in vielen anderen Disziplinen in dieser Form noch nicht gibt. Zwar lassen sich über digitale Archive rein technisch betrachtet alle Publikationsformen verbreiten, arXiv richtet sich jedoch in erster Linie an die klassische Journalliteratur, also aktuelle Artikel begrenzter Länge, die schnell verbreitet und ebenso rezipiert werden sollen. In den Geisteswissenschaften beispielsweise ist die Verwertungszeit von Informationen höher, und auch die bevorzugte Publikations- und Rezeptionsform ist eine andere; es spielen weiterhin Sammelbände und Monografien eine größere Rolle.57 So ist die Ent- wicklung geeigneter Repositorien und tragfähiger Geschäftsmodelle für Open-Access- Zeitschriften zwar ein wichtiger und großer Teil der Open-Access-Szene, es sollten je- doch auch die abweichenden Publikationsstrategien und Forschungsprozesse anderer und eben nicht primär journalorientierter Fächer berücksichtigt werden. In den Geistes-, Kultur- und Kunstwissenschaften passiert auf diesem Gebiet seit eini- gen Jahren sehr viel: Es werden Infrastrukturen aufgebaut, die in Verbindung mit den Prinzipien des Open Access an die Arbeitsweise in diesen Fachgebieten angepasste For- men des Zugriffs und der Nutzung bieten. Forschungsinfrastrukturen bezeichnen nicht nur physische Einrichtungen wie Laboratorien oder wissenschaftliche Großgeräte, son- dern auch digitale Infrastrukturen wie vernetzte, virtuelle Forschungsumgebungen, die gemeinsame Arbeit an Objekten mittels Datenaustausch zwischen verschiedenen Part- nern erleichtern.58 Zwar sind Open Access und Infrastrukturen an sich komplett unter- schiedliche Phänomene. Open Access als offene Kommunikationsform der Wissen- schaft scheint der strukturierenden, vereinheitlichenden Funktion von Infrastrukturen zunächst entgegenzustehen. Bei genauerer Betrachtung können jedoch beide dieselben 55 PubMed Central (PMC); http://www.ncbi.nlm.nih.gov/pmc [07.07.2014]. 56 Vgl. BJÖRK u.a. 2010. 57 Vgl. DFG 2005, S. 22ff. 58 Vgl. MEIER ZU VERL/HORSTMANN 2011, S. 7.205 Jana Weitkamppositiven Effekte für die Wissenschaft entfalten: Beide können dazu führen, durch Zu- gangsbarrieren entstehende Kosten zu reduzieren, sie ermöglichen Forschung, die an- sonsten in dem Maße nicht möglich wäre, sie sorgen für eine höhere Transparenz und damit Vergleichbarkeit von Forschungsprozessen und -ergebnissen. Durch all diese Fak- toren ermöglichen sie Synergien. Es wird deutlich, dass sowohl dem Prinzip des Open Access als auch den Infrastrukturen die Bedeutung des Teilens inhärent ist. Um der ver- einheitlichenden Funktion von Infrastrukturen entgegenzuwirken, ist es weiterhin not- wendig, flexible, offene Umgebungen innerhalb dieser Strukturen zu schaffen, die die Vielgestalt der Forschungspraxen innerhalb unterschiedlicher Fachdisziplinen unterstüt- zen und für einen verbesserten Informationsaustausch sorgen.59 In verschiedenen groß angelegten Projekten sollen genau solche Infrastrukturen entste- hen. So hat das Projekt ›DARIAH – Digital Research Infrastructure for the Arts and Humanities‹60 exemplarisch zum Ziel, durch die Verknüpfung von Forschungsdaten bis- lang getrennt voneinander ablaufende Forschungen in den Geistes- und Kulturwissen- schaften zu vernetzen und damit die gemeinsame Arbeit und den Ergebnisaustausch zu ermöglichen. Auch der fachübergreifende Austausch zwischen interdisziplinären Projek- ten soll so verbessert werden. Gleichzeitig soll eine nachhaltige digitale Infrastruktur die Langzeitverfügbarkeit von Forschungsdaten sicherstellen. Innerhalb von DARIAH- DE61 sollen dabei virtuelle Forschungsumgebungen aufgebaut werden, die neue kolla- borative, digitale Forschungsmethoden unterstützen. Durch den Zugriff auf bestehende Forschungsergebnisse sollen neue Interpretationen sowie eine Nachnutzung gefördert werden, es soll die Möglichkeit eröffnet werden, vormals nicht mögliche Forschungsfra- gen überhaupt zu formulieren und diese dann auf neue Weise zu beantworten. Forscher werden dabei sowohl in ihrem individuellen Forschungsprozess als auch bei der gemein- samen Arbeit unterstützt.62 Dazu werden innerhalb der virtuellen Forschungsumgebun- gen verschiedene sowohl generische als auch fachspezifische Werkzeuge zur Verfügung gestellt, die zusammen mit Diensten und Inhalten kooperative Arbeit an Objekten erlau- ben. Um eine optimale Unterstützung des Arbeitsprozesses zu gewährleisten, müssen sich die fachspezifischen Dienste dabei eng an den Bedürfnissen der Forscher orientie- ren; entsprechend muss die Entwicklung dieser in enger Abstimmung mit der jeweiligen Fachdisziplin und nicht etwa isoliert erfolgen. Die virtuelle Forschungsumgebung TextGrid63 soll hier als Beispiel zur Veranschauli- chung solcher Funktionalitäten dienen. TextGrid ist eine seit 2006 entwickelte For- schungsumgebung für Philologen, Linguisten, Musikwissenschaftler und Kunsthistori- ker, mit der textbasierte Daten aus unterschiedlichen digitalen Archiven ausgewertet werden können. Es besteht aus dem TextGridLab, dem Einstiegspunkt in die virtuelle 59 Vgl. ebd., S. 1f. und S. 365f. 60 DARIAH – Digital Research Infrastructure for the Arts and Humanities; http://www.dariah.eu [07.07.2014]. 61 https://de.dariah.eu [07.07.2014]. 62 Vgl. NEUROTH u.a. 2009, S. 162. 63 http://www.textgrid.de [07.07.2014].206 Wissenschaftskultur im Wandel? Die Rolle von Open Access im digitalen ZeitalterForschungsumgebung, und dem TextGridRep, einem fachspezifischen Langzeitarchiv. Innerhalb des TextGridLabs stehen verschiedene Werkzeuge zur Verfügung, die sowohl die gemeinsame als auch individuelle Arbeit an den Objekten erlauben, wie beispiels- weise Tools zum Daten- und Metadaten- sowie Rechtemanagement, zur Navigation und Suche innerhalb der Ressourcen. Weiterhin erlauben fachspezifische Werkzeuge wie der XML-Editor, ein Text-Image-Link-Editor, eine Suchfunktion innerhalb verschiedener Wörterbücher und ein Web-Publishing-Tool eine den fachwissenschaftlichen Bedürfnis- sen entsprechende Unterstützung des Forschungsprozesses. Werkzeuge und Dienste werden dabei laufend angepasst und weiterentwickelt, ebenso sollen weitere Datenban- ken integriert werden. Der fachwissenschaftliche Einsatz und Nutzen wächst damit kon- tinuierlich. Das Repositorium TextGridRep bietet stabilen, persistenten und langfristi- gen Zugriff auf bestehende Forschungsdaten. Gleichzeitig können bearbeitete oder neu erstellte Dokumente auch dort wieder abgelegt werden, um sie für andere auffind- und nutzbar zu machen. Eine solche virtuelle Forschungsumgebung bildet entsprechend den kompletten wissenschaftlichen Arbeitsprozess ab: vom Sammeln und Generieren von Primärdaten über die Aufbereitung bis hin zur Veröffentlichung und Archivierung. Ein wichtiger Aspekt ist dabei die Ermöglichung institutionell unabhängigen Arbeitens. Da die Infrastruktur den Zugriff auf Forschungsressourcen und Werkzeuge unabhängig vom momentanen Aufenthaltsort, dem Datenformat und der Softwareausstattung des Arbeitsplatzes erlaubt, sorgt sie für eine größere Unabhängigkeit von der Ausstattung der eigenen Forschungseinrichtung. Der freie Zugriff auf Daten und Ressourcen ent- spricht dabei dem Paradigma des Open Access und sorgt für größtmögliche Erreichbar- keit und damit Nachnutzbarkeit der Forschungsergebnisse. Auch internationale Koope- rationen sollen gestärkt werden.64 TextGrid als Beispiel für eine virtuelle Forschungsumgebung verdeutlicht damit exem- plarisch, wie diese Forschungsumgebungen den Zugang zu Informationen erleichtern und damit den wissenschaftlichen Diskurs verbessern können. Es zeigt sich in ihnen, dass der Mehrwert einer solchen Umgebung nicht nur durch die Verfügbarmachung von Informationen entsteht, sondern auch durch die Schaffung einer integrierten Nutzungs- möglichkeit. 5. Ausblick Obwohl die Entwicklungen auf dem weiten Feld des Open Access mitnichten abge- schlossen sind, gehen viele Wissenschaftler langfristig eher von einem Nebeneinander als von einer Verdrängung klassischer Publikationsformen durch Open-Access-Modelle aus.65 Durch die Ansprache und Erfüllung unterschiedlicher Bedürfnisse scheint ein sol- ches Szenario zumindest für die nächsten Jahre wahrscheinlicher als eine komplette Sub- stitution; nicht zuletzt aufgrund verschiedener technischer, organisatorischer und recht- licher Schwierigkeiten. Bei zunehmend digital verfügbaren Inhalten – gleich, ob Open 64 Vgl. NEUROTH u.a. 2011, S. 223ff. 65 Vgl. u.a. BAUER 2009, S. 138; ROESNER 2008, S. 58ff.207 Jana WeitkampAccess oder nicht – ist vor allem die Frage nach der Langzeitarchivierung digitaler Do- kumente essenziell: Die Entwicklung nachhaltiger Strategien, die auch im Zuge des an- haltenden technologischen Fortschritts den Zugriff auf digitale Ressourcen sicherstellen, ist dringend notwendig. Ohne die Rolle von Open Access für wissenschaftliche Publikationen abschwächen zu wollen, kann dies doch nur ein Bestandteil in einer sich entwickelnden offeneren Kultur der Wissenschaft sein. Bereits die Berliner Erklärung bezieht Forschungsprimärdaten und Metadaten ebenso ein wie Kulturgüter in Museen und anderen Einrichtungen.66 Für den Physiker und Fürsprecher einer offenen, vernetzten Wissenschaft Michael Niel- sen ist Open Access im Kontext wissenschaftlicher Veröffentlichungen Teil einer sich entwickelnden offenen Wissenschaftskultur des Teilens, der Partizipation und Kollabo- ration, die u.a. aus offenen Daten, Programmcode, aus wissenschaftlichen Blogs und Fo- ren besteht. Diese »Networked Science«67 ist heute noch eine Utopie: Nach Michael Nielsen ist der Wandel in der Wissenschaftskultur ein Problem, das sich nicht in den nächsten zwei Jahren lösen lässt, jedoch durchaus wahrscheinlich wird, wenn man in ei- ner Zeitspanne von etwa 50 Jahren denkt. So mag es heute unmöglich erscheinen, den für eine offene Wissenschaftskultur nötigen Wandel im Verhalten der ›Scientific Com- munity‹ zu erzielen. Aber mit vielen kleinen Schritten kann eine Änderung erreicht wer- den, die sich nach und nach auf die gesamte Wissenschaftskultur ausdehnt. So schlägt Michael Nielsen beispielsweise vor, dass Wissenschaftler ihre alten Daten und Doku- mente ins Netz stellen könnten, um sie für andere nachnutzbar zu machen. In Wissen- schaftsblogs könnten Ideen, die bislang nicht umgesetzt wurden, zur Diskussion gestellt und damit weiterentwickelt werden. Fehlt die Zeit für ein eigenes Weblog, so könnten die anderer kommentiert oder Einträge in bestehenden Wikis verfasst werden. Selbst wenn hierdurch zunächst keine oder nur wenige Reaktionen ausgelöst werden, so tragen doch all diese kleinen Schritte langfristig dazu bei, solche Methoden als Teil einer offe- nen Wissenschaft zu etablieren. Generell ist es für Michael Nielsen wichtig, auf allen Ebenen im Gespräch zu bleiben: So könnten Wissenschaftler gerade den Austausch mit solchen Fachkollegen suchen, die nur die Publikation in einem Journal mit hohem ›Impact Factor‹ als Erfolg ansehen, um ihnen Möglichkeiten und Wert einer offeneren Form der Wissenschaft zu vermitteln. Gleiches gilt für wissenschaftlich interessierte Bürger: Sie könnten durch das Gespräch mit Wissenschaftlern in ihrem Bekanntenkreis die Diskussion in Gang bringen. Als Mit- arbeiter einer Förderorganisation, in der Politik oder Verwaltung sollte der stete Aus- tausch mit Wissenschaftlern ein Verständnis dafür schaffen, welche Mittel benötigt wer- den, um Wissen teilen zu können. Auch die Entwicklung oder Modifizierung von Open- Access-Policies sowie neuen Zitationsnormen und Formen der Begutachtung und Be- wertung sind hier weitere wichtige Bestandteile.68 66 Vgl. Berliner Erklärung 2006. 67 NIELSEN 2011. 68 Vgl. ebd., S. 203ff.208 Wissenschaftskultur im Wandel? Die Rolle von Open Access im digitalen ZeitalterAll dies kann das Bewusstsein für eine offenere Wissenschaft erhöhen und damit lang- fristig einen Wertewandel innerhalb der ›Scientific Community‹ bewirken. Michael Niel- sen betont dabei die Wichtigkeit der Wertschätzung solcher Aktivitäten, beispielsweise durch Zitationen oder andere Formen der Rückbezüge;69 kann eine solche Wertschät- zung doch als Anreiz dienen, weiterhin offene Formen der Wissenschaft aktiv anzuge- hen. In der Diskussion um die Veröffentlichung von Forschungsdaten zeigt sich eine weitere Möglichkeit, wie diese Entwicklung vorangetrieben werden kann. Die Veröffent- lichung der einer wissenschaftlichen Publikation zugrunde liegenden Daten müsste for- malisiert und als Bestandteil wissenschaftlichen Arbeitens so weit institutionalisiert wer- den, dass die Daten nicht nur zusammen mit der Publikation abgelegt werden, sondern genauso in Fachportalen und Bibliothekskatalogen auffindbar, eindeutig referenzierbar und langfristig zugänglich sind.70 Es bleibt festzuhalten: Eine offene Form der Wissenschaft mit Open Access zu wissen- schaftlichen Publikationen hat sich heute noch nicht breit durchgesetzt. Dennoch ist sie mehr denn je wünschenswert, denn damit wäre schließlich gewährleistet, dass das wis- senschaftliches Publizieren definierende Prinzip »auf den Schultern von Giganten« in Zukunft wieder einfacher und besser umgesetzt werden könnte. 69 Vgl. ebd., S. 204. 70 Vgl. KLUMP 2010.209 Jana WeitkampLiteraturverzeichnis ANDERMANN, Heike; DEGKWITZ, Andreas (2004): Neue Ansätze in der wissenschaftlichen In- formationsversorgung. In: Bibliothek. Forschung und Praxis, Jg. 28, H. 1, S. 35–59; http:// www.b2i.de/fileadmin/dokumente/BFP_Bestand_2004/Jg_28-Nr_1/Jg_28-Nr_1_Auf- saetze/Jg_28-2004-Nr_1-S_35-59.pdf [07.07.2014]. BARGHEER, Margo (2006): Open Access und Universitätsverlage: Auswege aus der Publication Crisis? In: HAGENHOFF, Svenja (Hg.): Internetökonomie der Medienbranche (= Göttinger Schriften zur Internetforschung, 1). Göttingen: Universitätsverlag, S. 173–199; http://nbn- resolving.org/urn:nbn:de:gbv:7-isbn-3-938616-29-6-8 [07.07.2014]. BAUER, Bruno (2009): Open Access Publishing – fünf Jahre nach der Berliner Erklärung über of- fenen Zugang zu wissenschaftlicher Information. In: Bibliotheksdienst, Jg. 43, H. 2, S. 132– 138; http://digital.zlb.de/viewer/resolver?urn=urn:nbn:de:kobv:109-1-1108491 [07.07.2014]. Berliner Erklärung über den offenen Zugang zu wissenschaftlichem Wissen / Berlin Declaration on Open Access to Knowledge in the Sciences and Humanities (2006/2003); http://openac- cess.mpg.de/68053/Berliner_Erklaerung_dt_Version_07-2006.pdf [07.07.2014]. BJÖRK, Bo-Christer; WELLING, Patrik; LAAKSO, Mikael; MAJLENDER, Peter; HEDLUND, Turid; GUÐNASON, Guðni (2010): Open Access to the Scientific Journal Literature: Situation 2009. In: PLoS ONE, Jg. 5, H. 6, S. 1–9; http://doi.org/10.1371/journal.pone.0011273 [07.07.2014]. BOSCH, Stephen; HENDERSON, Kittie (2014): Steps Down the Evolutionary Road: Periodicals Price Survey 2014. In: Library Journal; http://lj.libraryjournal.com/2014/04/publishing/ steps-down-the-evolutionary-road-periodicals-price-survey-2014 [07.07.2014]. BROWN, David J.; BOULDERSTONE, Richard (2008): The Impact of Electronic Publishing. The Future for Publishers and Librarians. München: Saur. Budapest Open Access Initiative (2002); http://www.budapestopenaccessinitiative.org/read [07.07.2014]. DALLMEIER-TIESSEN, Sünje; LENGENFELDER, Anja (2011): Open Access in der deutschen Wis- senschaft – Ergebnisse des EU-Projekts ›Study of Open Access Publishing‹ (SOAP) / Open Access in German Research – Results of the FP7 Funded Project ›Study of Open Access Publishing‹ (SOAP). In: GMS Medizin – Bibliothek – Information, Jg. 11, H. 1/2, S. 1–12; http://doi.org/10.3205/mbi000218 [07.07.2014]. DFG (Hg.) (2013): Vorschläge zur Sicherung guter wissenschaftlicher Praxis. Empfehlungen der Kommission „Selbstkontrolle in der Wissenschaft“. Denkschrift / Proposals for Safe- guarding Good Scientific Practice. Recommendations of the Commission on Professional Self Regulation in Science. Memorandum. Ergänzte Aufl. Weinheim: Wiley-VCH; http:// www.dfg.de/download/pdf/dfg_im_profil/reden_stellungnahmen/download/ empfehlung_wiss_praxis_1310.pdf [07.07.2014]. DIES. (Hg.) (2006): Elektronisches Publizieren im wissenschaftlichen Alltag. Überlegungen zur Integration elektronischer Publikationsformen in die Geisteswissenschaften. In: Bibliotheks- dienst, Jg. 40, H. 8/9, S. 988–993; http://digital.zlb.de/viewer/resolver?urn=urn:nbn:de: kobv:109-1-1065216 [07.07.2014]. DIES. (Hg.) (2005): Publikationsstrategien im Wandel? Ergebnisse einer Umfrage zum Publika- tions- und Rezeptionsverhalten unter besonderer Berücksichtigung von Open Access. Wein- heim: Wiley-VCH; http://www.dfg.de/download/pdf/dfg_im_profil/evaluation_statistik/ programm_evaluation/studie_publikationsstrategien_bericht_dt.pdf [07.07.2014].210 Wissenschaftskultur im Wandel? Die Rolle von Open Access im digitalen ZeitalterDOLATA, Ulrich; WERLE, Raymund (2007): „Bringing Technology Back in“: Technik als Ein- flussfaktor sozioökonomischen Wandels. In: DIES. (Hg.): Gesellschaft und die Macht der Technik. Sozioökonomischer und institutioneller Wandel durch Technisierung (= Schriften aus dem Max-Planck-Institut für Gesellschaftsforschung, 58). Frankfurt am Main/New York: Campus Verlag, S. 15– 43; http://www.mpifg.de/pu/mpifg_book/mpifg_bd_58.pdf [07.07.2014]. FREYERMUTH, Gundolf S. (2007): Offene Geheimnisse – Die Ausbildung der Open-Source-Pra- xis im 20. Jahrhundert. In: LUTTERBECK, Bernd; BÄRWOLFF, Matthias; GEHRING, Robert A. (Hg.): Open Source Jahrbuch 2007. Zwischen freier Software und Gesellschaftsmodell. Ber- lin: Lehmanns Media, S. 17–57; http://www.opensourcejahrbuch.de/download/jb2007/ OpenSourceJahrbuch2007_online.pdf [07.07.2014]. GIESECKE, Michael (1998): Der Buchdruck in der frühen Neuzeit. Eine historische Fallstudie über die Durchsetzung neuer Informations- und Kommunikationstechnologien. Frankfurt am Main: Suhrkamp. GÖTZE, Dietrich; KORWITZ, Ulrich (2004): Irrweg oder Notausgang? In: Börsenblatt – Magazin für den Deutschen Buchhandel, Jg. 171, H. 50, S. 16–17; http://www.boersenblatt.net/six- cms/media.php/747/ 16-17_50 debatte.14872.pdf [07.07.2014]. HANEKOP, Heidemarie; WITTKE, Volker (2007): Der Einfluss des Internets auf die Rekonfigura- tion des Systems wissenschaftlichen Publizierens. In: DOLATA, Ulrich; WERLE, Raymund (Hg.): Gesellschaft und die Macht der Technik. Sozioökonomischer und institutioneller Wan- del durch Technisierung (= Schriften aus dem Max-Planck-Institut für Gesellschaftsfor- schung, 58). Frankfurt am Main/New York: Campus Verlag, S. 201–220; http:// www.mpifg.de/pu/mpifg_book/mpifg_bd_58.pdf [07.07.2014]. DIES.; WITTKE, Volker (2006): Das wissenschaftliche Journal und seine möglichen Alternativen: Veränderungen der Wissenschaftskommunikation durch das Internet. In: HAGENHOFF, Svenja (Hg.): Internetökonomie der Medienbranche (= Göttinger Schriften zur Internetfor- schung, 1). Göttingen: Universitätsverlag, S. 201–233; http://nbn-resolving.org/ urn:nbn:de:gbv:7-isbn-3-938616-29-6-8 [07.07.2014]. HILLER, Helmut; FÜSSEL, Stephan (2006): Wörterbuch des Buches. 7., grundlegend überarb. Aufl. Frankfurt am Main: Klostermann. HORSTMANN, Wolfram (2007): Datenverarbeitung, -übertragung und Suche: Weitere technische Herausforderungen bei Open Access. In: Deutsche UNESCO-Kommission (Hg.): Open Ac- cess. Chancen und Herausforderungen. Ein Handbuch. Bonn: Deutsche UNESCO-Kom- mission e.V., S. 63–65; http://www.unesco.de/fileadmin/medien/Dokumente/Kommuni- kation/Handbuch_Open_Access.pdf [07.07.2014]. JONES, Richard; ANDREW, Theo; MACCOLL, John (2006): The Institutional Repository. Oxford: Chandos Publishing. KELLER, Alice Dora (2005): Elektronische Zeitschriften. Grundlagen und Perspektiven. 2., aktu- alisierte und stark erw. Aufl. Wiesbaden: Harrassowitz. KLUMP, Jens (2010): Digitale Forschungsdaten. In: NEUROTH, Heike; OßWALD, Achim; SCHEF- FEL, Regine; STRATHMANN, Stefan; HUTH, Karsten (Hg.): nestor Handbuch. Eine kleine En- zyklopädie der digitalen Langzeitarchivierung. Boizenburg: Verlag Werner Hülsbusch, S. 104–115; http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:0008-20100305375 [07.07.2014].211 Jana WeitkampKRÖNUNG, Julia; BERNIUS, Steffen; BOSCH, Kai-G.; DUGALL, Berndt (2010): Durch Selbstarchi- vierung und Nationallizenzen zu Open Access? Vorstellung einer bundesweiten Studie zum Publikationsverhalten von Wissenschaftlern. In: ABI-Technik, Jg. 30, H. 4, S. 230–239; http://www.wi-frankfurt.de/publikationenNeu/DurchSelbstarchivierungundNati4066.pdf [07.07.2014]. KUHLEN, Rainer (2008): Erfolgreiches Scheitern – eine Götterdämmerung des Urheberrechts? (= Schriften zur Informationswissenschaft, 48). Glückstadt: Verlag Werner Hülsbusch; http:/ /nbn-resolving.de/urn:nbn:de:bsz:352-opus-59702 [07.07.2014]. LUHMANN, Niklas (1990): Die Wissenschaft der Gesellschaft. Frankfurt am Main: Suhrkamp. MEIER, Michael (2002): Returning Science to the Scientists. Der Umbruch im STM-Zeitschrif- tenmarkt unter Einfluss des Electronic Publishing. Korrigierter Nachdruck. München: pe- niope; http://webdoc.sub.gwdg.de/ebook/aw/2004/tel.ccsd.cnrs.fr/tel-00002257-00/tel- 00002257.pdf [07.07.2014]. MEIER ZU VERL, Christian; HORSTMANN, Wolfgang (Hg.) (2011): Studies on Subject-Specific Requirements for Open Access Infrastructure. Bielefeld: Universitätsbibliothek; http:// doi.org/10.2390/PUB-2011-1 [07.07.2014]. NEUMANN, Jan (2006): Auf dem Weg zu einem Open-Access-Geschäftsmodell. Erfahrungsbe- richt German Medical Science. In: LUTTERBECK, Bernd; BÄRWOLFF, Matthias; GEHRING, Robert A. (Hg.): Open Source Jahrbuch 2006. Zwischen Softwareentwicklung und Gesell- schaftsmodell. Berlin: Lehmanns Media, S. 319–336; http://www.opensourcejahrbuch.de/ download/jb2006/chapter_07/osjb2006-07-02-neumann.pdf [07.07.2014]. NEUROTH, Heike; LOHMEIER, Felix; SMITH, Kathleen Marie (2011): TextGrid – Virtual Research Environment for the Humanities. In: The International Journal of Digital Curation, Jg. 6, H. 2, S. 222–231; http://www.ijdc.net/index.php/ijdc/article/view/193/258 [07.07.2014]. DIES.; JANNIDIS, Fotis; RAPP, Andrea; LOHMEIER, Felix (2009): Virtuelle Forschungsumgebun- gen für e-Humanities. Maßnahmen zur optimalen Unterstützung von Forschungsprozessen in den Geisteswissenschaften. In: Bibliothek. Forschung und Praxis, Jg. 33, H. 2, S. 161–169; http://www.b2i.de/fileadmin/dokumente/BFP_Bestand_2009/Jg_33-Nr_2/Jg_33-Nr_2_ Aufsaetze/Jg_33-2009-Nr_2-S_161-169.pdf [07.07.2014]. NIELSEN, Michael (2011): Reinventing Discovery. The New Era of Networked Science. Prince- ton: Princeton University Press. PFEIFFENBERGER, Hans (2007): Open Access und die Struktur der Wissenschaftskommunika- tion. In: Deutsche UNESCO-Kommission (Hg.): Open Access. Chancen und Herausforde- rungen. Ein Handbuch. Bonn: Deutsche UNESCO-Kommission e.V., S. 59–62; http:// www.unesco.de/fileadmin/medien/Dokumente/Kommunikation/Handbuch_Open_Ac- cess.pdf [07.07.2014]. ROESNER, Elke (2008): Open Access Portale und ihre Etablierung am Markt. Die Entwicklung des Geschäftsmodells für „German Medical Science“ (= Berliner Handreichungen zur Biblio- theks- und Informationswissenschaft, 230); http://www.ib.hu-berlin.de/~kumlau/handrei- chungen/h230/h230.pdf [07.07.2014]. ROOSENDAAL, Hans E. (2006): Scientific Information: The Split between Availability and Selec- tion. In: HAGENHOFF, Svenja (Hg.): Internetökonomie der Medienbranche (= Göttinger Schriften zur Internetforschung, 1). Göttingen: Universitätsverlag, S. 161–171; http://nbn- resolving.org/urn:nbn:de:gbv:7-isbn-3-938616-29-6-8 [07.07.2014].212 Wissenschaftskultur im Wandel? Die Rolle von Open Access im digitalen ZeitalterRÜHL, Manfred (1999): Publizieren. Eine Sinngeschichte der öffentlichen Kommunikation. Op- laden: Westdeutscher Verlag. SCHROEDER, Carsten (2009): Wie weit ist das elektronische Publizieren in den Geisteswissen- schaften vorangeschritten? Interview mit Dr. Andrea Rapp vom Kompetenzzentrum für elektronische Erschließungs- und Publikationsverfahren in den Geisteswissenschaften an der Universität Trier. Deutschlandfunk (Studiozeit – Aus Kultur- und Sozialwissenschaften); http://ondemand-mp3.dradio.de/file/dradio/2009/07/02/dlf_20090702_2010_e4a4be 86.mp3 [07.07.2014]. STEHR, Nico (2004): Wissensgesellschaften. In: JAEGER, Friedrich; RÜSEN, Jörn (Hg.): Handbuch der Kulturwissenschaften. Band 3: Themen und Tendenzen. Stuttgart: Metzler, S. 34–49. SUBER, Peter (2004): Open Access Overview. Focusing on Open Access to Peer-Reviewed Re- search Articles and Their Preprints; http://legacy.earlham.edu/~peters/fos/overview.htm [07.07.2014]. Swets Information Services (Hg.) (2013): Serials Price Increase Report 2006 onwards; http:// www.swets.com/sites/default/files/spi_2006_onwards_30-11-13.pdf [07.07.2014]. Im Text erwähnte Webseiten arXiv: http://arxiv.org BioMed Central – The Open Access Publisher: http://www.biomedcentral.com DARIAH-DE – Digital Research Infrastructure for the Arts and Humanities: http://de.dariah.eu Directory of Open Access Journals (DOAJ): http://www.doaj.org Hindawi Publishing Corporation: http://www.hindawi.com PLoS – Public Library of Science: http://www.plos.org PubMed Central (PMC): http://www.ncbi.nlm.nih.gov/pmc SHERPA/RoMEO: http://www.sherpa.ac.uk/romeo TextGrid: http://www.textgrid.de213 Jana Weitkamp214 Die Autorinnen und Autoren Elke Bauer studierte Vergleichende Religionswissenschaft, Ethnologie und Keltologie an der Philipps-Universität Marburg sowie den Aufbaustudiengang Editionswissen- schaft an der Universität Osnabrück. 2001 promovierte sie sich im Fachbereich Sprach- und Literaturwissenschaft der Universität Osnabrück mit einer historisch-kritischen Ausgabe von Lessings »Emilia Galotti«. Seit 2001 ist sie Mitarbeiterin des Herder-Insti- tuts für historische Ostmitteleuropaforschung – Institut der Leibniz-Gemeinschaft in Marburg, wo sie im Bildarchiv tätig ist und u.a. in Vertretung die Stabsstelle Forschungs- koordination/Wissenschaftskommunikation innehatte. Seit 2012 ist Dr. Elke Bauer wis- senschaftliche Mitarbeiterin in dem Projekt ›Visual History. Institutionen und Medien des Bildgedächtnisses‹. Zu ihrem Forschungsschwerpunkt gehören die Chancen und Herausforderungen der Bildarchive im digitalen Zeitalter. Ilvio Bruder studierte Informatik mit der Vertiefungsrichtung Datenbanken an der Uni- versität Rostock. Nach wissenschaftlichen Arbeiten in den Bereichen wissensbasierte Suchmaschinen und Multimedia-Datenbanken am Lehrstuhl Datenbank- und Informa- tionssysteme der Universität Rostock arbeitete er von 2005 bis 2010 in einem An-Insti- tut für IT-Forschung, welches er ab 2008 auch wissenschaftlich leitete. Seit 2011 ist Ilvio Bruder wieder an der Universität Rostock als wissenschaftlicher Mitarbeiter tätig. Er be- schäftigt sich mit Dokumentmodellen und der Verarbeitung von Dokumentstrukturen im relationalen Datenbankmodell u.a. in Projekten zu digitalen Bibliotheken und Archi- ven. Im Auftrag eines Steinbeis-Transferzentrums ist er für das Rostocker Modell be- züglich der Nachhaltigkeit der digitalen Archive verantwortlich. Frank Dührkohp studierte Archäologie und Geschichte in Göttingen, Heidelberg und Perugia. 1997 gründete er die ›Duehrkohp & Radicke – Text- und Informationslogistik KG‹, als deren geschäftsführender Gesellschafter er mit der Entwicklung von alternati- ven Publikationsformen und 3-D-Informationssystemen befasst war. In diesem Kontext realisierte er 1998 mit dem »Göttinger Forum für Altertumswissenschaft (GFA)« und dem »Concilium Medii Aevi (CMA)« mit die ersten geisteswissenschaftlichen Open- Access-Zeitschriften im deutschsprachigen Raum sowie von 2002 bis 2004 das Projekt ›VIAMUS – Virtuelles Antikenmuseum‹. Seit 2005 arbeitet er in der Verbundzentrale des Gemeinsamen Bibliotheksverbundes (VZG) als Koordinator der Dokumentenmanage- ment-Services der VZG sowie als Entwicklungsleiter von neuen Dienstleistungen für Archive, Bibliotheken und Museen. Von Mitte 2012 bis Mitte 2014 war er ehrenamtli- cher Vorstandsvorsitzender der ›digiCULT-Verbund eG‹. Ulrike Enke studierte Germanistik und Biologie in Bonn, 2001 promovierte sie am Ins- titut für Neuere Deutsche Literaturwissenschaft der Universität Gießen. Von 1995 bis 1999 war sie als wissenschaftliche Mitarbeiterin bei der Soemmerring-Forschungsstelle der Akademie der Wissenschaften in Mainz tätig, wo sie die Schriften zur Embryologie und Teratologie des Anatomen Samuel Thomas Soemmerring herausgab. Im Anschluss215 Die Autorinnen und Autorenarbeitete sie von 2000 bis 2007 als wissenschaftliche Angestellte am Institut für Ge- schichte der Medizin in Gießen bei dem Projekt ›400 Jahre Medizin in Gießen‹. Von 2009 bis 2013 war sie wissenschaftliche Mitarbeiterin an der Emil-von-Behring-Biblio- thek, der Arbeitsstelle für Geschichte der Medizin der Universität Marburg, die in Ko- operation mit dem Institut für Geschichte der Pharmazie das DFG-Projekt ›Erschlie- ßung, Digitalisierung und Bereitstellung des Nachlasses von Emil von Behring im Internet‹ durchführte. Momentaner Forschungsschwerpunkt von Dr. Ulrike Enke ist die Rezeption von Behrings Leben und Werk in wissenschaftlichen und populären Bio- grafien. Mark Fichtner studierte Informatik an der Friedrich-Alexander-Universität Erlangen- Nürnberg. Von 2009 bis 2011 war er als wissenschaftlicher Mitarbeiter am Zoologischen Forschungsmuseum Alexander Koenig (ZFMK) in Bonn für das DFG-Forschungs- projekt ›WissKI – Wissenschaftliche KommunikationsInfrastruktur‹ tätig. Anschließend war er Mitarbeiter in dem Forschungsprojekt ›Der frühe Dürer‹ des Germanischen Nationalmuseums in Nürnberg, wo er seit 2012 wissenschaftlicher Mitarbeiter im Refe- rat für Museums- und Kulturinformatik ist. Sein Forschungsschwerpunkt liegt in der se- mantischen Wissensmodellierung. Doris Annette Hartmann studierte Kunstgeschichte sowie Anglistik und Amerikanis- tik an der Martin-Luther-Universität Halle-Wittenberg. Von 2007 bis 2014 war sie wis- senschaftliche Mitarbeiterin am ›Kompetenzzentrum für Kulturerbe: materiell – imma- teriell – digital‹, das am Lehrstuhl für Materielles und Immaterielles Kulturerbe der Universität Paderborn angesiedelt ist. Im Rahmen ihres Dissertationsvorhabens forscht Doris Annette Hartmann über Konkrete Kunst im Osten Deutschlands und in Ost- europa. Georg Hohmann studierte Kunstgeschichte, Neuere Literaturwissenschaften und In- formationswissenschaften an der Heinrich-Heine-Universität Düsseldorf. Von 2001 bis 2004 war er am Kunsthistorischen Institut der Universität zu Köln Koordinator des BMBF-geförderten Verbundprojekts ›prometheus – Das verteilte digitale Bildarchiv für Forschung & Lehre‹. Von 2006 bis 2013 war er wissenschaftlicher Mitarbeiter am Refe- rat für Museums- und Kulturinformatik des Germanischen Nationalmuseums in Nürn- berg. Seit 2013 hat er die Leitung des Projekts ›Deutsches Museum Digital‹ inne sowie die Koordination der Digitalisierung und digitalen Dokumentation am Deutschen Mu- seum in München. Die Schwerpunkte seiner Forschungstätigkeit sind Digital Humani- ties, Wissensrepräsentation in den Kunst- und Kulturwissenschaften, ontologiegestützte Wissensmodellierung sowie semantische Webanwendungen. Thorolf Lipp studierte Ethnologie, Soziologie, Geschichte und Religionswissenschaf- ten. Seit 1994 ist er als Filmemacher tätig, 2000 gründete er die Produktionsfirma ›Arca- dia Filmproduktion‹. 2007 promovierte er sich in den Fächern Ethnologie und Religi- onswissenschaften an der Universität Bayreuth. Seine Tätigkeit als Dozent für Kultur- und Medienanthropologie führte ihn u.a. an die Universitäten Münster, Göttingen, Wien, Berlin, Mainz, Friedrichshafen sowie nach Suva (Fiji) und Johannesburg. Zu sei-216 Die Autorinnen und Autorennen wissenschaftlichen Arbeitsschwerpunkten zählen die Bereiche Medien, Kunst, Reli- gion sowie das immaterielle Kulturerbe. Dr. Thorolf Lipp produzierte zudem zahlreiche Dokumentarfilme, TV-Dokumentationen und Museumsmedien. Seit 2013 ist er Vor- standsmitglied des Filmverbands ›Arbeitsgemeinschaft Dokumentarfilm e.V.‹ (AG DOK) und leitet dessen Berliner Regionalverband. Arpine Maniero studierte Geschichte und Pädagogik an der Staatlichen Pädagogischen Universität in Eriwan, Armenien. 2001 war sie im Rahmen eines DAAD-Stipendiums an der Ludwig-Maximilians-Universität München, wo sie anschließend von 2002 bis 2006 als Promotionsstudentin im Fach Geschichte Ost- und Südosteuropas eingeschrieben war. In diesem Zeitraum war sie Mitarbeiterin des Osteuropa-Instituts München im Rahmen des Projekts ›Virtuelle Fachbibliothek Osteuropa‹ (ViFaOst). Seit 2009 ist sie stellvertretende Bibliotheksreferentin und Koordinatorin des Projekts ›Osteuropa- Dokumente online‹ (OstDok) im Collegium Carolinum München. Holger Meyer studierte Technische Kybernetik an der Universität Rostock. 1990 wurde er im Gebiet der Computertechnik zum Thema der Datenhaltung in Echtzeitsystemen promoviert. Schwerpunkt seiner Forschungstätigkeit bilden Anfrageverarbeitungs- und Optimierungstechniken auf semistrukturierten Daten. Im Rahmen seiner Tätigkeit als wissenschaftlicher Mitarbeiter am Lehrstuhl Datenbank- und Informationssysteme der Universität Rostock arbeitete Dr.-Ing. Holger Meyer in zahlreichen Projekten u.a. zu digitalen Bibliotheken und Archiven, wie etwa ›MeDoc – Multimediale elektronische Dokumente‹, dem Mecklenburger-Jahrbücher-Projekt, dem Digitalen Archiv zum Ros- tocker Liederbuch (DARL), und war Leadpartner im EU-Projekt ›Lagomar‹. Seit 2010 ist er gemeinsam mit dem Institut für Volkskunde mit der Leitung des DFG-Projekts WossiDiA befasst. Andreas Oberhoff studierte Informatik an der Universität Paderborn. Seit 2009 ist er wissenschaftlicher Mitarbeiter und Promotionsstudent in der Fachgruppe Kontextuelle Informatik am Heinz Nixdorf Institut der Universität Paderborn. Als Teil des interdiszi- plinären Forscherteams um das DFG-geförderte Projekt ›Studiolo communis‹ war er mit dem Erhalt des kulturellen Erbes mithilfe digitaler Techniken befasst. Seine Forschungs- schwerpunkte sind Konzeption und Entwicklung kooperativer, virtueller Arbeitsumge- bungen im Bereich E-Learning und E-Science. Wiebke Oeltjen studierte Informatik an der Universität Bremen, wo sie sich 1999 im Fachgebiet Elektronisches Publizieren promovierte. Sie hatte an mehreren Universitäten und Hochschulen Lehraufträge in den Bereichen Software-Ergonomie, Mensch-Com- puter-Interaktion und Grundlagen der Informatik. Anschließend war sie in verschiedenen Projekten in den Gebieten Content-Management und elektronisches Publizieren tätig. Dr. Wiebke Oeltjen ist wissenschaftliche Mitarbeiterin am Regionalen Rechenzentrum der Universität Hamburg im Bereich Dokumentenmanagement und koordiniert seit 2007 das Open-Source-Software-Projekt MyCoRe.217 Die Autorinnen und AutorenMieke Pfarr-Harfst studierte Architektur an der Technischen Universität Darmstadt. Seit 2002 ist sie wissenschaftliche Mitarbeiterin im Fachgebiet ›Informations- und Kommunikationstechnologie in der Architektur‹ (IKA) der Technischen Universität Darmstadt. Im Rahmen ihrer Dissertation, für die sie 2011 mit dem Kurt-Ruths-Preis ausgezeichnet wurde, befasste sie sich mit Dokumentationssystemen für digitale Rekon- struktionen. Dr.-Ing. Mieke Pfarr-Harfst ist in zahlreichen Projekten tätig, u.a. in den Forschungsprojekten ›Architektur begreifbar machen‹ (seit 2011), ›Virtuelle Mathilden- höhe‹ (seit 2010) und aktuell in dem BMBF-Forschungsprojekt ›Wesersandstein als glo- bales Kulturgut‹ (seit 2014). Ihre Arbeitsschwerpunkte liegen in der Grundlagen- forschung für digitale Baukultur und dem Sonderfall der digitalen Rekonstruktionen in Forschung und Vermittlung. Gunther Reisinger studierte Kunstgeschichte und Musikwissenschaften an der Karl- Franzens-Universität Graz. 2006 promovierte er sich im Themenfeld kunstwissenschaft- licher Quellenkunde im Digitalen. Von 2006 bis 2009 konzeptionierte und leitete er am Ludwig-Boltzmann-Institut Medien.Kunst.Forschung. in Linz das Projekt ›netpioneers‹, von 2007 bis 2011 war er zudem Assistent für Neueste Kunstgeschichte an der KFU Graz. Von 2011 bis 2013 war Dr. Gunther Reisinger wissenschaftlicher Mitarbeiter in der Museumsakademie des Universalmuseums Joanneum Graz und hielt Gastdozenturen in Berlin, Leipzig, Stuttgart und Bern. Im Anschluss daran trat er eine Gastprofessur an der Burg Giebichenstein Kunsthochschule Halle an. Seine Forschungsschwerpunkte sind neben den Kunsttheorien der Moderne u.a. der künstlerische Originalbegriff im Digita- len, Netzkunst sowie die Bedeutung digitaler Quellen im Kontext musealer Sammlungen. Caroline Y. Robertson-von Trotha studierte Soziologie, Politologie, Philosophie und Geschichte an den Universitäten Heidelberg und Karlsruhe (TH). Sie ist Direktorin des ZAK | Zentrum für Angewandte Kulturwissenschaft und Studium Generale am Karls- ruher Institut für Technologie (KIT) und Professorin für Soziologie und Kulturwissen- schaft. Sie ist Gründungsbeauftragte des KIT für das Center of Digital Tradition (CO- DIGT) und Sprecherin des KIT-Kompetenzbereichs ›Technik, Kultur und Gesellschaft‹ sowie des KIT-Kompetenzfeldes ›Kulturerbe und sozialer Wandel‹. Zudem ist sie Koor- dinatorin des deutschen Netzwerks der Anna Lindh Stiftung, Mitglied im Fachausschuss Kultur der deutschen UNESCO-Kommission und Vorsitzende des Wissenschaftlichen Initiativkreises Kultur und Außenpolitik (WIKA) am Institut für Auslandsbeziehungen (ifa). Unter ihrer Herausgeberschaft erscheinen die wissenschaftlichen Schriftenreihen »Kulturwissenschaft interdisziplinär«, »Problemkreise der Angewandten Kulturwissen- schaft«, »Kulturelle Überlieferung – digital« sowie die Onlineschriftenreihe »The Critical Stage. Young Voices on Crucial Topics«. Die Forschungsschwerpunkte von Prof. Dr. Caroline Y. Robertson-von Trotha sind u.a. Theorie und Praxis der Öffentlichen Wis- senschaft, Fragen der kulturellen Überlieferung, Multikulturalität und Integration, Kul- turwandel und Globalisierung.218 Die Autorinnen und AutorenMario Röhrle studierte Fotografie und bildende Kunst an der Hochschule für Grafik und Buchkunst Leipzig. Seit 2010 ist er akademischer Mitarbeiter an der Staatlichen Akademie der Bildenden Künste Stuttgart und lehrt im Masterstudiengang ›Konservie- rung Neuer Medien und Digitaler Information‹. Sein Arbeitsschwerpunkt liegt auf der Vermittlung informationstechnischer Grundlagen für den Erhalt genuin digitaler und digitalisierter Information. Seit 2014 ist er zudem am Studiengang ›Konservierung und Restaurierung von Kunstwerken auf Papier, Archiv- und Bibliotheksgut‹ verantwortlich für die Betreuung und Lehre im Bereich der nachhaltigen Erstellung, der Bearbeitung und dem Erhalt digitaler Dokumentationen und Forschungsdaten. Mario Röhrle ist aktiv in nestor, dem deutschen Kompetenznetzwerk zur digitalen Langzeitarchivierung, sowie Mitveranstalter des ›Stammtisch Bestandserhaltung Stuttgart‹. Annely Rothkegel studierte Germanistik, Geografie, Philosophie und Kunst an der Universität des Saarlandes. 1973 promovierte sie sich im Fach Neuere Sprachwissen- schaft, ihre Habilitation erfolgte 1992 im Fach Allgemeine Sprachwissenschaft/Compu- terlinguistik an der Universität des Saarlandes. 1994 bis 2002 war sie Professorin für Textproduktion im Studiengang Technische Redaktion an der Fachhochschule Hanno- ver, von 2002 bis zu ihrem Eintritt in den Ruhestand 2007 sowie anschließend als Ver- tretung bis 2010 hatte sie die Professur für Angewandte Sprachwissenschaft an der Technischen Universität Chemnitz inne. Internationale Workshops (u.a. in Ankara, Ant- werpen, Breslau, Hiroshima, Paris, Savonlinna, Warschau), Forschungsprojekte (EU, DFG, BMBF) sowie Publikations- und Herausgebertätigkeiten prägen neben der Lehre ihre wissenschaftliche Arbeit, die sie nachberuflich als Autorin, Projektberaterin, Gut- achterin und gegenwärtig als Gastprofessorin am Institut für Übersetzungswissenschaft und Fachkommunikation der Stiftung Universität Hildesheim fortsetzt. Die Forschungs- schwerpunkte von Prof. Dr. Annely Rothkegel sind Lexik/Phraseologie, Text- und Dia- loganalyse, Textproduktion, Fachkommunikation, Technikkommunikation, Experten- Nichtexperten-Kommunikation. Alf-Christian Schering studierte Informatik an der Universität Rostock mit der Spezia- lisierung Datenbank- und Informationssysteme sowie Wirtschaftswissenschaften im Nebenfach und Astrophysik aus persönlichem Interesse. Seine Forschungsgebiete be- inhalten digitale Bibliotheken, XML-Technologien, Hypergraphdatenbanken und Anfra- geoptimierung. Im Rahmen seines Promotionsvorhabens beschäftigt er sich mit dem Thema ›Anfragesprachen und -optimierung großer Mengen stark vernetzter semistruk- turierter Daten‹. Er ist wissenschaftlicher Mitarbeiter am Lehrstuhl für Datenbank- und Informationssysteme der Universität Rostock und an der Universitätsbibliothek Rostock. Seit 2010 ist Alf-Christian Schering für die Entwicklung des digitalen Wossidlo-Archiv- systems WossiDiA verantwortlich und zudem in eine Reihe assoziierter Aktivitäten in den Bereichen ›Digitale Bibliotheken‹ und ›eHumanities‹ involviert. Christoph Schmitt studierte Europäische Ethnologie und Kulturforschung, Kunst- geschichte und Neuere deutsche Literatur an der Universität Marburg. 1993 wurde er im Fach Europäische Ethnologie auf dem Gebiet der kulturwissenschaftlichen Medien-219 Die Autorinnen und Autorenforschung promoviert. Seit 1996 ist er als wissenschaftlicher Mitarbeiter im Institut für Volkskunde der Universität Rostock tätig, das er seit 1999 mit dem dortigen Wossidlo- Archiv leitet und für dessen europäisch-ethnologisches Lehrprogramm er verantwortlich ist. Seit 2010 leitet Dr. Christoph Schmitt gemeinsam mit dem Rostocker Lehrstuhl für Datenbank- und Informationssysteme das Projekt WossiDiA. Ralf H. Schneider studierte Germanistik, Geographie und Biologie an der Universität Karlsruhe (TH) und promovierte im Fach Germanistik zum Thema ›Enzyklopädien im 21. Jahrhundert: Lexikographische, kommunikations- und kulturwissenschaftliche Strukturen im Kontext neuer Medien‹. Er lehrt in literatur-, kultur- und medienwissen- schaftlichen Fächern, baute das Studienzentrum Multimedia am KIT mit auf und betei- ligte sich als Mitglied der Stiftung Wissensraum Europa-Mittelmeer (WEM) e.V. an For- schungs- und Lehrprojekten in Europa sowie im Maghreb. Seit 2012 ist Dr. Ralf H. Schneider Geschäftsführer des Center of Digital Tradition (CODIGT) am ZAK | Zen- trum für Angewandte Kulturwissenschaft und Studium Generale am Karlsruher Institut für Technologie (KIT), das sich als Forschungs- und Beratungseinrichtung für digitale Langzeiterhaltung komplexer digitaler Objekte aus Forschung und Kultur versteht. Seine Forschungsschwerpunkte sind Fragen der kulturellen Überlieferung aus medien- und literaturwissenschaftlicher Perspektive. Jana Weitkamp studierte Medienwissenschaften an der Universität Paderborn. Von 2006 bis 2011 war sie im Verlagswesen tätig – mit besonderem Schwerpunkt auf dem Gebiet des elektronischen Publizierens und der Entwicklung hybrider Publikations- konzepte für Wissenschaftsverlage. Seit 2011 arbeitet sie als wissenschaftliche Mitarbei- terin im Competence Center Neue Technologien am Fraunhofer-Institut für System- und Innovationsforschung ISI u.a. in dem Projekt ›PRISMS – The Privacy and Security Mirrors‹. In einer Medienanalyse untersucht sie hier die Darstellung von Privatheit und Sicherheit im europäischen Kontext. Ihr Promotionsvorhaben befasst sich mit der Än- derung der medialen Diskurse durch die NSA-Affäre. Weitere Arbeitsschwerpunkte sind gesellschaftliche Trends und die Frage, wie diese durch Netzinnovationen unterstützt und verstärkt werden, sowie technologiegestützte Innovationen im wissenschaftlichen Publikationswesen.220 ISSN 2193-1259 ISBN 978-3-7315-0317-0 ISBN 978-3-7315-0317-0 9 783731 503170 Der Zugang zu unserem Kulturerbe ist heute zumeist digital geprägt. Kulturgüter, die nicht unmittelbar über das Internet zugänglich sind, drohen an Aufmerksamkeit zu verlieren. Als Zeitzeugen dieses Wandels liegt es an uns, die digitale Zukunft unseres Kulturerbes verantwortungsvoll mitzugestalten. Der zweite Band der Reihe »Kulturelle Überlieferung – digital« stellt zum einen Werkstattberichte vor, die Einblicke in die Arbeit sorgfältiger und aufwendiger Aufbereitung digitalisierter Bestände wie auch in die Pflege ursprünglich digitaler Artefakte geben. Zum anderen diskutieren die Autorinnen und Autoren die Chancen, Herausforderungen und Gefahren, die sich im Umgang mit dem Kulturerbe und im Zuge von Maßnahmen der Bewahrung und Zugänglichmachung auftun.