Wissenschaft messen? Zur Ambivalenz von Hochschulrankings Markus Tauschek An der besten Universität studieren – diesen Wunsch legt seit Mai 2014 eine neue Homepage jungen Menschen geradezu in den Mund. Die Seite U-Multirank verspricht Menschen, die sich für ein Studium interessieren, gleich einer Partnersuchmaschine die passendste Universität: »U-Multirank is a new way for anyone to compare universities from all around the world – matching like with like, allowing you to see what they’re best at«.1 Als Geistes- oder Kulturwissenschaftler_in wird man in der ersten Suchmaske dann jedoch sogleich enttäuscht, finden sich dort doch bislang nur Physik, Ingenieurs- und Wirtschaftswissenschaften. Entscheidet man sich für eine Richtung, dann wird die Wahl weiter eingeschränkt nach Studienabschnitt; es folgen Kriterien wie die Speziali- sierung der Universität, Forschungsstärke, regionaler oder internationaler Fokus sowie die Größe der Einrichtung.2 Wählt man die entsprechenden Parameter, dann präsentiert die Suchmaschine am Ende die vermeintlich besten Hochschulen. Das wissenschaftliche Leistungsfähigkeit bewertende und hierarchisierende Ran- king, das die EU-Kommission initiiert hat, ist symptomatisch für spätmoderne Wettbe- werbsgesellschaften (vgl. Rosa 2006), in denen sich verschiedene und mitunter höchst ausdifferenzierte Instrumente, Technologien und Infrastrukturen der Leistungsmes- sung etabliert haben. Ihnen allen ist gemein, dass sie in der Darstellung der Ergebnisse Komplexität reduzieren, Orientierung zu bieten scheinen und dabei Leistung als abso- lut setzen. Aus einer Makroperspektive entspricht das globale Hochschulranking (vgl. 1 U-Multirank: http://www.umultirank.org/#!/home?trackType=home§ion=entrance (06.08.2014). 2 Die Produzent_innen des Rankings scheinen die verkürzt dargestellten Kriterien zumin- dest in Ansätzen zu hinterfragen. In kurzen Erläuterungen weisen sie abmildernd darauf hin, dass etwa in der Forschungsstärke auch andere Prioritäten existieren könnten; sie erläutern dazu etwa: »The boundaries of human understanding are often explored by the research work that goes on in universities, but some get more involved in research than others. The others often have other priorities.« http://www.umultirank.org/#!/forstudent s/?trackType=student&sightMode=undefined&simpleMapping=true§ion=prefs&fi eld=24&pref-3=2&pref-4=1&pref-5=2&pref-11=2&pref-13=1&pref-15=1&country=17 &detailUniversity=186&department=300957 (06.08.2014). ZfK – Zeitschrift für Kulturwissenschaften 1|2015 © transcript 2015 urn:nbn:de:hbz:6:3-2015051257 Markus Tauschek Hazelkorn 2011: 2008) einer in immer mehr Lebensbereiche diffundierenden Kultur der Optimierung, die sowohl die Hochschulen ökonomisiert – so etwa Richard Münch in seiner Analyse von Hochschule und Bildung im Kontext der Leistungsgesellschaft – als auch Studieninteressierte als »unternehmerisches Selbst« (Bröckling 2007) imagi- niert, das den Studienort allein nach Leistung auswählt: »Die Litanei von ›Wettbewerb‹, ›Transparenz‹ und ›Qualitätsmanagement‹ wird inzwischen vom Sparkassendirektor bis zum Schulrektor und Universitätspräsidenten mit einer solchen Selbstverständlichkeit heruntergebetet, dass sich niemand mehr eine andere Welt vorstellen kann« (Münch 2009: 114). Die angebotenen hierarchisierenden Listen von Hochschulstandorten schaf- fen nicht zuletzt auch in ihrer visuellen und textuellen Inszenierung (Balkendiagramme, größere und kleinere Punkte für höhere oder niedrigere Leistung etc.) Wirklichkeit, die in dieser Inszenierung unterkomplex bleibt. Die Listen verschleiern dabei, dass die zur Anwendung gebrachten Kriterien ebenso wie die Ergebnisse immer interpretati- onsbedürftig und ausschnitthaft sind sowie der Kontextualisierung in Zeit und Raum bedürfen.3 Dies mag ein Grund dafür sein, warum sich innerhalb des wissenschaftlichen Feldes seit einigen Jahren vermehrt auch Widerstand gegen diese Form der Leistungskontrolle regt. Denn Hochschulrankings wirken immer auch in die universitäre Praxis – sei es in Forschung oder Lehre (ein Beispiel wären hier die seit einigen Jahren zunehmend systematisch eingesetzten Evaluationsverfahren) – zurück (vgl. u.a. Schwarz 2006; Münch 2007; Shore und Wright 2000; Mittag 2006; Stratilatis 2014). In ihrer scheinba- ren Selbstevidenz und in ihrer vermeintlich objektivierten Leistungsbewertung werden Technologien der Leistungsmessung schnell auch zu inneruniversitären Instrumenten der Disziplinierung – dies ist auch ein ganz zentrales Argument, das in den Debatten um die Sinnhaftigkeit von Hochschulrankings in Stellung gebracht wird.4 Dass an den ideologischen Grundfesten der Leistungsbewertung und der Optimierung inzwischen vielfach zumindest diskursiv gerüttelt wird, zeigen nicht nur die vielen medial vermit- telten Stimmen einzelner Wissenschaftler_innen, die Instrumente wie Rankings und Evaluationen als problematisch erachten, sondern auch disziplinäre oder institutionelle Gegenbewegungen: So formierte sich insbesondere im Jahr 2012 Protest der Deutschen Gesellschaft für Soziologie sowie weiterer Fachvereinigungen gegen das Hochschulran- king des in Gütersloh ansässigen Centrum für Hochschulentwicklung (CHE), nachdem der Historikerverband bereits 2009 zum Ausstieg aus der Leistungsmessung riet.5 3 Das Lesen und Verstehen hierarchisierender Rankings setzt deshalb im Grunde ein re- flexives Selbst voraus, das mit einem kritischen Blick vermeintlich klare und objektive Ergebnisse hinterfragen und mit einer selbst formulierten Zielsetzung abgleichen kann. Hier scheint durchaus großer Forschungsbedarf zu bestehen, denn bislang ist unklar und umstritten, wie und ob Rankings die Entscheidungen für die Wahl eines Studienorts be- einflussen. 4 Vgl. Stephan Lessenichs Argumentation contra Ranking in: »Sind Rankings sinnvoll?«, In: Die Zeit, 29/2012, 20.07.2012, http://www.zeit.de/2012/29/C-CHE-Ranking-Contra (19.08.2014). 5 Siehe dazu etwa das Streitgespräch zwischen Frank Ziegele (CHE) und dem damaligen Präsidenten des Historikerverbands, Werner Plumpe: »›Sie führen Studenten in die Irre‹«, In: Die Zeit, 16/2010, 15.04.2010. 52 | Wissenschaft messen? Im Folgenden werden diese Stimmen Gegenstand einer kulturwissenschaftlichen, diskursanalytisch ausgerichteten Analyse. Im Zentrum steht dabei die Frage, welche argumentativen und performativen Handlungsspielräume wissenschaftliche Akteure und Akteurskollektive vor dem Hintergrund einer durch Konkurrenz und Wettbewerb durchdrungenen Kultur der Optimierung nutzen. Ich folge dabei der Perspektive Ri- chard Münchs, der die Entwicklungen hin zu einer »Wissenschaft unter dem Regime des akademischen Kapitalismus« (Münch 2009) äußerst kritisch diskutiert und dabei vor allem auch auf die vielfach unbeabsichtigten und bis zu einem gewissen Grad im- mer auch kontingenten Effekte der Ökonomisierung von Hochschule und Forschung hingewiesen hat. Münch versteht Rankings (etwa im Zuge der Exzellenzinitiative) als weitreichende Instrumente innerhalb eines Dispositivs der Macht. Auf theoretische Perspektiven zu einer Kultur der Rechenschaft und Kontrolle fol- gen Beispiele zu Argumenten, Positionierungen und Plausibilisierungsstrategien inner- halb des Diskurses um Hochschulrankings. Daran schließen Überlegungen zur Frage an, welchen Beitrag explizit kulturwissenschaftliche Forschung – durchaus auch im Sinne einer politischen, kritischen oder interventionistischen Forschung – in den Aus- einandersetzungen um die Ökonomisierung des wissenschaftlichen Felds liefern kann und sollte. Rankings, die Kultur der Rechenschaft und neue Formen der Kontrolle Wenn Vertrauen infrage gestellt oder problematisch wird, dann entstehen Praktiken der Kontrolle und Überprüfung – so Michael Powers einführende These zu seiner breit angelegten Studie zur »Audit Society« (1996). Bestünde hingegen Vertrauen etwa durch Erfahrungswissen, dann sei Kontrolle unnötig – genau auf diesem Mechanismus fußen unsere alltäglichen, habitualisierten Handlungen. Dennoch überprüften Menschen, so Power weiter, permanent sich selbst und ihre Umwelt, in der Regel jedoch unbewusst und unreflektiert. Erst im Kontext von Konflikt, Misstrauen, Gefahr oder Zweifel wür- den sich diese lebensweltlichen Praktiken der Überprüfung in explizit verhandelte Pro- bleme transformieren. Solchermaßen transformiert, können diese Praktiken dann auch zu machtvollen Instrumenten in unterschiedlichen gesellschaftlichen Feldern werden. In den 1990er Jahren, in denen Power seine Thesen zu Ritualen der Überprüfung und zur Konstituierung einer Rechenschafts- und Kontrollgesellschaft publizierte, eta- blierten sich in nahezu allen gesellschaftlichen Bereichen Infrastrukturen und Techno- logien der Kontrolle.6 Diese zielten insbesondere im Zuge neoliberaler Wirtschaftsideo- 6 Mit einer historischen Perspektivierung ließe sich etwa bezugnehmend auf die Arbeiten Michel Foucaults entgegnen, dass Infrastrukturen und Technologien der Kontrolle kei- neswegs neu sind, sondern dass sich in der Geschichte vielfältige Formen der Ausübung von Macht (etwa durch Repression und Überwachung) entwickelt haben. Zu fragen wäre demnach, inwiefern sich die von Power diskutierten Rechenschaftspraktiken beispiels- weise in ihrem Ausmaß, ihren Zirkulationen in unterschiedliche Felder sowie in der Ver- knüpfung mit Technologien und Apparaturen von historischen Befunden unterscheiden. | 53 Markus Tauschek logien darauf ab, Leistung kontinuierlich zu messen, damit vergleichbar zu machen und sie schließlich zu steigern. Powers Arbeit ist deshalb auch als Zeitdiagnose zu verstehen, die die Ambivalenzen und Zwänge einer expandierenden Überprüfungskultur kritisch zu hinterfragen und schließlich produktiv zu machen versucht. Kaum jemand, so kons- tatiert Power für das Großbritannien der 1980er und beginnenden 1990er Jahre, könne sich noch den Mechanismen der Überprüfung und Evaluierung von Leistung entziehen. In der Rückschau auf Powers Gesellschaftsanalyse scheint sich die Flut von Kon- trollmechanismen heute geradezu verselbstständigt zu haben. Leistungskontrollen sind heute globalisierte Instrumente der Optimierung, scheinen konstituierende Elemente einer spätmodernen Wirtschaftsordnung zu sein.7 Immer drastischer – so könnte man als These formulieren – schreiben sich Kontroll- und Überprüfungstechnologien in der Folge in alltägliche Lebenswelten ein. Optimierung wird dabei zu einem machtvollen Imperativ spätmoderner Lebensführung. Ein Instrument, das dabei häufig zum Einsatz kommt und das selbst über eine komplexe kulturelle Biographie verfügt, ist die Liste. Evaluations- und Kontrollregimes nutzen Listen, um Leistungsdifferenzen sichtbar zu machen. Rankings etwa, deren Ziel es explizit ist, eine Rangreihenfolge nach festgeleg- ten Kriterien zu erstellen, suggerieren, Leistung sei mess-, objektivier- und vergleich- bar. Kultur- und sozialwissenschaftliche Forschung, die auf einem konstruktivistischen Verständnis von Kultur beruht, geht hingegen davon aus, dass Leistung jedoch immer Ergebnis eines komplexen Konstruktionsmechanismus ist. Leistung ist in dieser Pers- pektive nie gleichsam von Natur aus gegeben, sie wird in Interaktion performativ und diskursiv erzeugt, ist Gegenstand der Aushandlung und unterliegt – mitunter höchst kontingenten – Zuschreibungsprozessen (vgl. Neckel 2008). Diese kulturwissenschaft- liche Perspektivierung kollidiert gerade in Feldern wie der Ökonomie oder der Politik mit essentialistischen Leistungsbegriffen: Hier sind Rankings dann häufig Legitimation für politische oder ökonomische Interventionen, sie werden zu Argumenten politischen oder ökonomischen Handelns – und dies auf unterschiedlichen Ebenen. Welche Effekte dieser Übersetzungsprozess zeitigt, erleben auch Wissenschaftler_ innen in ihren Alltagen: Mittel für Hilfskräfte werden auf der Basis von Leistungskenn- ziffern vergeben. Lehrveranstaltungen werden systematisch evaluiert – in Bewerbungs- verfahren kommt diesen Evaluationen dann in der Beurteilung universitärer Lehre eine bedeutende Rolle zu. Dieser Mikroebene8 stehen größere Kontexte gegenüber, befinden sich doch etwa Fächer untereinander, Fakultäten, gesamte Hochschulen und schließlich Nationalstaaten in Konkurrenzsituationen.9 Welche Folgen Instrumente der Leistungskontrolle sehr konkret für die wissen- schaftliche Wissensproduktion und auf den universitären Arbeitsalltag haben, haben u.a. Cris Shore und Susan Wright diskutiert. Shore und Wright fragen dabei in Rückgriff auf Foucault, welche Auswirkungen bürokratische Praktiken auf soziales Leben haben und wie aus der Sphäre der Finanzwelt zirkulierende Kontrollmechanismen wirken. Instrumente der Überprüfung und Leistungssteigerung – so ihr zentrales Argument – 7 Eine Historisierung des Leistungskonzepts und Begriffs findet sich in Verheyen 2012. 8 Siehe hierzu exemplarisch Vonderau 2013. 9 Zur Makroebene vgl. Werron 2012. 54 | Wissenschaft messen? »are not simply innocuously neutral, legal-rational practices: rather, they are instru- ments for new forms of governance and power. They embody a new rationality and morality and are designed to engender amongst academic staff new norms of con- duct and professional behavior. In short: they are agents for the creation of new kinds of subjectivity: self-managing individuals who render themselves auditable« (Shore/Wright 2000: 57).10 Übertragen auf die universitäre Makroebene bedeutet dies, dass durch Hochschulran- kings ganze Fächer, Studiengänge oder Universitäten zu beständig überprüfbaren Ein- heiten werden und dies schließlich auch verinnerlicht haben. Denn dieser Einschrei- bungsprozess wirkt deshalb so umfassend – folgt man Shore und Wright weiter –, weil die überprüften Akteure ab einem bestimmten Punkt Mechanismen der Überprüfung von sich aus durchführen. Dies wiederum habe Auswirkungen auf Selbst- und Fremd- bilder sowie auf soziale Beziehungen: »The audited subject is recast as a depersonalized unit of economic resource whose productivity and performance must constantly be measured and enhanced. To be effective, audit technologies must somehow re-fashion the way people perceive themselves in relation to their work, to one another and to themselves. In short, they are used to transform professional, collegial and personal identities« (Shore/ Wright 2000: 62). Die verinnerlichten Zwänge, die Shore und Wright hier als Effekte von Überprüfung und Kontrolle beschreiben, sind aus einer ethnografischen Perspektive jedoch nur eine Seite der Medaille. Auf der anderen Seite dieser Medaille sind all jene Praktiken von kul- turwissenschaftlichem Interesse, die es sozialen Akteuren erlauben, Widerstand gegen Technologien der Optimierung und Effizienzsteigerung zu üben und zu artikulieren. Genau diese Ambivalenz, die sich aus der Verinnerlichung von Konzepten wie Leistung oder Effizienz und des reflexiven, diskursiven oder performativen Widerstands dagegen speist, materialisiert sich auch in den Diskursen um die Bedeutung und Konsistenz hie- rarchisierender Rankings in der deutschen Hochschullandschaft. Rankings als Glaubenssysteme? Deutungshoheiten, Positionierungen und Argumentationsweisen Eine Überprüfungsgesellschaft, wie sie Michael Power beschrieben hat, ist heute zwar nahezu omnipräsent und sie hat eine Vielzahl spezifischer Kontroll- und Optimierungs- mechanismen hervorgebracht. Sie ist jedoch – thesenhaft formuliert – keineswegs un- hintergehbar: Akteur_innen loten Handlungsspielräume aus, um Kontrolle und Leis- tungsüberprüfung zu unterwandern, sich dieser zu entziehen oder um Einfluss auf die 10 Dieses Argument ist am Beispiel der schwedischen Hochschulpolitik breiter ausgeführt in Rider 2009: 91. | 55 Markus Tauschek Art und Weise der Überprüfung zu nehmen.11 Während ersteres in einem öffentlichen Diskurs häufig unausgesprochen bleibt, ließen sich die beiden letzten Reaktionen auf Kontrollmechanismen in geradezu paradigmatischer Weise in den im Jahr 2012 erfolg- ten Stellungnahmen einiger Fachgesellschaften auf das CHE-Ranking wiederfinden. So empfahl etwa die Deutsche Gesellschaft für Soziologie ihren Mitgliedern, nicht mehr län- ger am Ranking teilzunehmen. Die offen artikulierten Argumente bewegen sich dabei in erster Linie auf zwei Ebenen: Die erste betrifft methodische Implikationen, wobei die Deutsche Gesellschaft für Soziologie insbesondere hier ihre Kompetenz in sozialwissen- schaftlicher Methodik gleichsam als Plausibilisierung der Kritik unterstreicht. Detail- reich listet die Stellungnahme methodische Probleme und Vorbehalte auf: Zu schwache Rücklaufquoten, problematische Indikatoren, zu geringe Fallzahlen und die Art der Befragung ließen Zweifel an der Aussagekraft der Ergebnisse zu; wichtige Kriterien, die für die Studienqualität aber höchst relevant seien, flössen gar nicht in die Analyse ein. Die zweite Ebene befasst sich mit der wissenschaftspolitischen Bewertung. Hier befürchtet die soziologische Vereinigung eine Instrumentalisierung der Ergebnisse für strukturpolitische Entscheidungen: »Faktisch aber lädt es [das CHE-Ranking] Fakultäts- und Hochschulleitungen sowie Ministerialbürokratien zu extrem simplifizierenden Lesarten ein, ja fordert die- se geradezu heraus. Auf deren Basis können dann gegebenenfalls folgenschwere, jedoch sachlich unbegründete Strukturentscheidungen zur Soziologie als wissen- schaftlicher Disziplin und zu ihren Studiengängen getroffen werden«.12 Das Centrum für Hochschulentwicklung reagierte mit einer umfassenden Stellungnah- me, die als klassische Gegenüberstellung konzipiert ist: Während in einer linken Spalte die artikulierten Kritikpunkte – als Behauptungen diskreditiert – aufgelistet sind, finden sich rechts ausführlich als Tatsachen interpretierte Argumente: »Es wird behauptet…« – »Tatsächlich…«.13 Diese Reaktion deutet formal wie in ihren sprachlichen Mitteln da- rauf hin, dass hier Wissensbestände als absolut gesetzt werden. Das CHE, das in seinem Selbstverständnis argumentiert, streng nach wissenschaftlichen Kriterien zu arbeiten, beansprucht dabei die letztgültige Deutungshoheit. Während die Deutsche Gesellschaft für Soziologie dazu ermahnt, komplexe Zusammenhänge auch in ihrer Komplexität darzustellen, markiert das Centrum für Hochschulentwicklung die eigenen präsentierten Wissensbestände als wahr und richtig. Die formale Darstellung und die diskursiv in Stellung gebrachten Argumente er- innern dabei an eine Polemik, die der in Northampton lehrende Psychologe Harald Walach einem Artikel in der Zeitschrift Forschung & Lehre zu Evaluationsregimes for- 11 Zu Reaktionen auf die Einführung des New Public Management an deutschen Hochschu- len siehe u.a. Hemme/Tauschek 2010: 189-197, dort auch empirische Beispiele zu den skizzierten Handlungsoptionen. 12 Stellungnahme der Deutschen Gesellschaft für Soziologie zum CHE-Ranking: http://www. soziologie.de/de/che.html (18.08.2014). 13 Richtigstellung von Aussagen über das CHE-Ranking: http://www.che-ranking.de/ downloads/Richtigstellungen_CHE_Ranking_1438.pdf (17.08.2014). 56 | Wissenschaft messen? muliert hat.14 Der Titel »Hurra – wir haben eine neue Religion« ironisiert dabei die Mechanismen der Leistungsmessung, die Walach aus dem britischen Hochschulsystem längst bekannt sind: Für ihn ist die omnipräsente »Qualitätssicherung [...] keine Wis- senschaft, sie ist ein Glaubenssystem« (Walach 2009: 343).15 Ähnlich wie Shore und Wright schlussfolgert Walach, keine einzige empirische Studie bestätige die Effektivität und die positive Wirkung dieses Glaubenssystems. Ganz im Gegenteil, sei gerade der Beweis für den Wirkungsgrad von Qualitätssicherung im Gegensatz zu Medikamenten oder Industrieprodukten auch nur schwerlich zu erbringen: »Bei der Feuerwehr oder im OP leuchtet es mir ja noch ein, weil es klar definierbare und überprüfbare Kriterien gibt – Feuer gelöscht? Patient an der richtigen Niere operiert? –, aber an den Hochschu- len?« (Walach 2009: 342). In den Auseinandersetzungen um das CHE-Ranking werden Argumente auf ver- schiedenen Ebenen plausibilisiert. Die methodischen Vorbehalte, die die Deutsche Ge- sellschaft für Soziologie artikuliert, scheinen dabei angesichts der zu erwartenden Ef- fekte auf einer strukturell-hochschulpolitischen Ebene weitaus weniger gewichtig zu sein. Aus einer sozialwissenschaftlich-kritischen Perspektive warnt etwa auch Kathleen Lynch, die sich mit Rankings vor dem Hintergrund neoliberaler Gouvernementalität befasst hat, vor der Verschleierung politischer Instrumentalisierung: »Rankings are also problematic because their seemingly objective character conceals their serious political import« (Lynch 2013: 150). Ähnlich argumentiert auch Richard Münch am Beispiel der PISA-Studie: »Das Problem der neoliberalen Regierungskunst sind die ungesicherten und unüberschaubaren Kausalitäten und die nichtintendierten Effekte guter Absichten« (Münch 2012). Und die Philosophin Sharon Rider wies in einem Beitrag zur Ökono- misierung und Verwettbewerblichung der Hochschullandschaft in Schweden auf die negativen Folgen für wissenschaftliche Exzellenz und die Grundfeste einer aufgeklärten freien Demokratie hin, die drohten, wenn Universitäten ihre im Humboldtschen Bil- dungsideal verkörperte Hauptaufgabe der autonomen Forschung und Wissenvermitt- lung aufgäben: »In point of fact, to replace classical academic ideals with measurable outcomes and results (such as examinations and frequency or number of citations) is to lower our ambitions – in the name of ›excellence‹« (Rider 2009: 86).16 14 Der Publikationsort scheint dabei durchaus relevant zu sein, charakterisiert sich doch die Zeitschrift Forschung & Lehre selbst als »die auflagenstärkste hochschul- und wis- senschaftspolitische Zeitschrift Deutschlands«, weshalb von einer einigermaßen brei- ten Rezeption des Periodikums ausgegangen werden kann. Vgl. Homepage der Zeit- schrift Forschung & Lehre: http://www.forschung-und-lehre.de/wordpress/?page_id=29 (01.02.2010). 15 Vgl. auch Münch 2009: 113-115, 128. 16 Dieses Argument formuliert ähnlich Sighard Neckel in seiner kritischen Analyse von Leistungsbegriff und -konzept. Neckel geht dabei davon aus, dass sich heute zunehmend ein performativer Leistungsbegriff durchsetze, »der Leistung nicht vom Aufwand [ho- noriert], sondern ausschließlich von den Ergebnissen her«. Im Kontext einer New Eco- nomy würden zudem nicht mehr Leistungsdifferenzen über soziale Position und öko- nomisches Kapital entscheiden, »sondern die Beteiligung an der privilegierten Nutzung entsprechender Gelegenheitsstrukturen« (Neckel 2008: 85). | 57 Markus Tauschek Konkurrenz, wissenschaftliche Leistung und die Ökonomisierung der Hochschulen – ein kulturanthropologisches Fazit Der ideologische Überbau, den Sharon Rider kritisch diskutiert, geht mit der Einfüh- rung des New Public Management an Hochschulen davon aus, dass Leistung durch Wettbewerb und Konkurrenz gesteigert werden könne. Schon 1903 hat Georg Simmel Wettbewerb als relationalen Mechanismus beschrieben. Wettbewerb sei ein indirekter Kampf, bei dem »die Bedeutung der Leistung durch das Verhältnis bestimmt [wird], das sie zu der Leistung des Nebenmannes hat« (Simmel 1995: 232). Dieser Mechanis- mus wirkt auch in Hochschulrankings. Eine wichtige Frage, die seit einer sich formie- renden Kritik an den Rankings gestellt wird, befasst sich konsequenterweise dann auch damit, welche Formen oder Strukturen wissenschaftliche Leistungsfähigkeit befördern könnten. So argumentierte etwa auch der Präsident der Universität Hamburg, Dieter Lenzen, im Gegensatz zu einer konkurrenzorientierten Leistungsmessung sei Koope- ration eine leistungsfördernde und damit sinnvolle Strategie.17 Die Diskurse um Wettbewerb und Leistung sind in hohem Maße ideologisch aufgeladen, wie der nach Dänemark emigrierte Soziologe Theodor Geiger in seiner Analyse des Konkurrenzprinzips schon in den 1940er Jahren feststellte: Die national- ökonomische Forschung seiner Zeit habe vielfach Bekenntnisliteratur vorgelegt und weniger eine sachliche Analyse von Konkurrenzverhältnissen vorgenommen: »Die Konkurrenztheorie enthält gesellschafts- und wirtschaftsphilosophische Bewertungen [kursiv i.O.] von Konkurrenz und versperrt genau damit den Weg für eine empirische Untersuchung von Konkurrenz als sozialer Tatsache« (Geiger 2012: 7). Geigers Forderung nach empirischen Daten ist aus einer kulturanthropologischen Perspektive auch heute noch zu unterstreichen. Viel zu wenig weiß die interdiszipli- näre Forschung zu Rankings, welche Effekte sich jenseits hochschulpolitischer Steu- erungsmechanismen aus der vergleichenden Bewertung wissenschaftlicher Leistung ergeben. Viel zu wenig weiß man bislang auch über jene neuen Akteure und Institu- tionen, die wie das CHE machtvolle Bedeutungsgewebe erzeugen und popularisieren. Wie sehen etwa Arbeitsalltage der Akteure aus, die Rankings erstellen – mit welchen Deutungen, Narrativen oder professionellen Selbstkonzeptionen sind diese gekoppelt? Welche, in medialen und öffentlichen Diskursen nicht sichtbaren, Deutungsmuster (etwa spezifische Verständnisse hochschulpolitischer Entwicklungen) fließen in die Datenerhebung, in Indikatoren, in die Auswertung oder in die Darstellung der Ergeb- 17 Der Spiegel zitiert Lenzen entsprechend in einem Artikel über den Boykott an den Ran- kings: »Kooperation ist leistungsfördernder als Wettbewerb«; »Blau wie blöd«, In: Der Spiegel, 49/2012. 58 | Wissenschaft messen? nisse ein? Welche Rolle spielt dabei das Selbstverständnis der Institution, die die Daten bereitstellt?18 Auf der anderen Seite wäre dann noch expliziter als dies etwa Shore und Wright getan haben zu fragen, wie Rankings universitäre Kultur, Forschung und wissenschaft- liche Arbeit und schließlich auch wissenschaftliches Wissen beeinflussen:19 Wie reagie- ren Wissenschaftler_innen auf Leistungs- und Konkurrenzideologeme? Welche Hand- lungshorizonte nutzen sie in welcher Weise aus oder wie stark sind die internalisierten Zwänge der Selbstoptimierung, die Shore und Wright als zentrales Merkmal einer spät- modernen Rechenschaftskultur und als Ergebnis einer »political technology of the self« (Shore/Wright 2000: 62) interpretieren? Diese Perspektive greift eine Debatte auf, die unter anderem Sherry B. Ortner für die kulturwissenschaftlichen Disziplinen fruchtbar gemacht hat. Ortner diskutiert die Frage, in welchem Zusammenhang individuelle Handlungsmöglichkeiten – kurz: Agen- cy – und Strukturen stehen.20 Beide Dimensionen muss eine kulturwissenschaftliche, ethnografisch ausgerichtete Analyse der kulturellen Logiken und der Effekte von Hoch- schulrankings gleichermaßen berücksichtigen. Wie dies methodisch vonstattengehen kann, haben Cris Shore und andere in einem Arbeitspapier zur Ethnografie von Hoch- schulreformen zur Diskussion gestellt (2013). Sie plädieren in Anlehnung an George E. Marcus und im Sinne einer »Anthropology of Policy« (vgl. Shore/Wright 1997) dafür, die Zirkulationen von Ideen, Konzepten, Akteuren oder Politiken zu untersuchen. Da- bei ließe sich dann auch das u.a. etwa von Michel Callon im Rahmen der Science and Technology Studies diskutierte Konzept der Übersetzung fruchtbar machen (vgl. Callon 2006): Warum etwa konnte es dem Centrum für Hochschulentwicklung nicht gelingen, die betroffenen wissenschaftlichen Akteure vom Instrument des Rankings nachhaltig zu überzeugen? Wie gelang es im Gegenzug einigen wissenschaftlichen Fachgesellschaften, Formationen des Protests und wirkungsvolle Allianzen zu bilden sowie die eigenen Ar- gumente vor einer medialen Öffentlichkeit zu plausibilisieren? 18 Im Fall des Centrums für Hochschulentwicklung dürfte in diesem Kontext etwa relevant sein, dass die Einrichtung von der Hochschulrektorenkonferenz und der Bertelsmann Stiftung gegründet wurde. Letztere finanzierte im Jahr 2009 etwa die Hälfte des drei Millionen Euro umfassenden Jahresetats. Zu fragen wäre hier aus einer institutionen- ethnographischen Perspektive etwa, in welcher Wechselwirkung die Ziele und Inhalte beispielsweise des Hochschulrankings mit der organisatorischen Verfasstheit der Ein- richtung stehen. Verschiedene Autor_innen haben die enge Verflechtung von CHE und Bertelsmann Stiftung inzwischen kritisiert; vgl. Lieb, Wolfgang: Drahtzieher hinter den Kulissen – der Einfluss des Bertelsmann-Konzerns auf die Hochschulen (http://www. nachdenkseiten.de/?p=3514 (19.08.2014)). Zu reflektieren wäre in diesem Kontext auch die enge Verflechtung des CHE mit der »Zeit«, die das CHE-Ranking regelmäßig publi- ziert. 19 Zur Produktion wissenschaftlichen Wissens unter dem Diktat der Nützlichkeit vgl. No- wotny u.a. 2004. 20 Eine Form von Agency sind beispielsweise die in der medialen Bewertung als Manipula- tion bezeichneten Versuche von Universitäten, auf internationalen Rankings besonders gut abzuschneiden; siehe dazu exemplarisch Kelm, Barbara: »Zehn Jahre Shanghai-Ran- king Der Kampf ums Treppchen«, In: duz magazin 6 (2013), http://www.duz.de/duz- magazin/2013/06/der-kampf-ums-treppchen/177 (18.08.2014). | 59 Markus Tauschek Die hier skizzierten Argumente, die zur Plausibilisierung des jeweiligen Stand- punkts herangezogen wurden, sind nur ein erster Schritt einer kulturwissenschaftlichen Perspektivierung, die zudem konsequent die Mikro- und Makroebene zusammenden- ken muss. Komparative Forschung, die vor allem auch die in den oben diskutierten Dis- kursformationen nicht artikulierten Argumente und Positionen berücksichtigt, könnte diese Forderung verbunden mit autoethnografischen Zugängen einlösen.21 Denn die weitreichenden Effekte von Hochschulrankings, die nur einen Teil in einer expansiven Politik der Optimierung und einer veränderten Ökonomisierung des wissenschaftlichen Felds darstellen, bedürfen einer kulturwissenschaftlich-kritischen und dekonstruieren- den Begleitung.22 Dies ist nicht zuletzt auch deshalb notwendig, weil die sprachlichen Bilder die von Machtverhältnissen durchdrungenen Praktiken und Technologien der Leistungsmessung vielfach verschleiern oder positiv verbrämen: Hochschulrankings sind eben keine Spiele, wie dies Dearden u.a. suggerieren (2014), sie sind keine »öffent- lichen Schönheitswettbewerbe« (Friedmann 2012)23 und sie funktionieren auch nicht wie die Tabelle der Bundesliga.24 Zu fragen ist hier vielmehr nach den Funktionen, die solche Vergleiche und zirkulierenden Deutungsmuster haben, sowie nach den Eigenlo- giken von Rankings – insbesondere im Feld der Wissenschaft. Während die Tabelle der Bundesliga heute unhinterfragter Teil fußballerischer Kompetitivität zu sein scheint, ist die Leistungsmessung im Fall der Debatten um das CHE-Ranking ja in einem hohem Maße zu einem Problem geworden. Dabei sind schließlich auch ganz grundsätzliche Fragen nach der Konsistenz wissenschaftlichen Wissens und wissenschaftlicher Leis- tung aufgerufen: Warum lassen sie sich nicht vergleichend und hierarchisierend messen und bewerten? Warum und inwiefern ist Konkurrenz im Gegensatz zu Kooperation aus der Perspektive der protestierenden wissenschaftlichen Akteure der falsche Modus, um Forschung und Lehre zu optimieren? Empirisch fundierte Antworten auf diese Fragen – dies legen bereits die knapp skizzierten Argumente dieses Beitrags nahe – deuten sicher noch detaillierter als dies hier geschehen kann auf die Komplexität wissenschaftlicher Wissensbestände und auf die vielfältigen Faktoren hin, die wissenschaftliche Wissensproduktion und das wissen- schaftliche Feld heute konstituieren. Die Formationen des Protests zeigen deutlich, in welcher Weise Disziplinen und deren Vertreter_innen im Sinne Anthony Giddens re- flexive Subjekte (vgl. Giddens 1984) sind, die immer auch politisch und in gesellschaft- lichen Rahmen handeln. Die Verschränkung dieser beiden Ebenen – die Komplexität von Wissen und Wissensproduktion, die sich einer unterkomplexen Hierarchisierung entzieht, und die reflexive Auseinandersetzung mit einer entgrenzten Kultur der Op- timierung und der Kontrolle, die wissenschaftliche Arbeitsalltage mit weitreichenden 21 Siehe dazu etwa Vonderau 2013; Färber 2009; Hemme/Tauschek 2010. 22 Siehe exemplarisch die Beiträge in Strathern 2000. 23 Gleichzeitig wäre aus einer kulturwissenschaftlichen Perspektive jedoch zu fragen, in welchem Zusammenhang spielerische, performative oder ritualisierte Formen des Ver- gleichs und Leistungsmessungen im Kontext ökonomischer Optimierung stehen (vgl. dazu die Beiträge in Tauschek 2013, Tauschek 2012, mit einer historischen Perspektivie- rung Jessen 2014). 24 Zur Zirkulation von Metaphern aus dem Feld des Sports vgl. Bröckling 2014. 60 | Wissenschaft messen? Folgen ökonomisiert, mag eine mögliche Erklärung für den ambivalenten Umgang mit Hochschulrankings sein. Kulturwissenschaftliche Forschung hat in der hier skizzierten Differenzierung das Potential, die reflexiv oder – im Sinne de Certeaus (1988) – taktisch handelnden, den- kenden und argumentierenden Akteure,25 zirkulierende Deutungsmuster und die Re- präsentation und Transformation von Sinn in performativen Praktiken zu verstehen. Im Gegensatz zu normativen Perspektiven, die Rankings entweder kategorisch ableh- nen oder als sinnvolle Instrumente der Leistungsmessung und -optimierung feiern, ist kulturanthropologische Forschung sich hier jedoch bewusst, dass ihr Blick auf Lebens- welt, Alltag und Wirklichkeit nur »partial truths« (Clifford 1986) zur Diskussion stellen kann.26 Literatur Bröckling, Ulrich (2007): Das unternehmerische Selbst: Soziologie einer Subjektivierungs- form, Frankfurt/Main: Suhrkamp. Bröckling, Ulrich (2014): »Wettkampf und Wettbewerb. Semantiken des Erfolgs zwi- schen Sport und Ökonomie«. In: Erfolg. Konstellationen und Paradoxien einer gesell- schaftlichen Leitorientierung, hg. v. Denis Hänzi/Hildegard Matthies/Dagmar Simon, Leviathan Sonderheft 29, 92-102. Callon, Michel (2006): »Einige Elemente einer Soziologie der Übersetzung: Die Domes- tikation der Kammmuscheln und der Fischer der St. Brieuc Bucht«. In: ANThology. Ein einführendes Handbuch zur Akteur-Netzwerk-Theorie, hg. v. Andréa Belliger/David J. Krieger, Bielefeld: transcript, 135-174. Clifford, James (1986): »Introduction: Partial Truths«. In: Writing Culture. The Poetics and Politics of Ethnography, hg. v. James Clifford/George E. Marcus, Berkeley u.a.: Uni- versity of California Press, 1-26. Dearden, James A. et al. (2014): »Framing the University Ranking Game: Actors, Motiva- tions, and Actions«. In: Ethics in Science and Environmental Politics 13, 131-139. De Certeau, Michel (1988): Kunst des Handelns, Berlin: Merve. Färber, Alexa (2009): »Unternehmerische Dispositionen ethnografischer Praxis und ihre taktische Verwertbarkeit: Sieben Thesen«. In: Kultur – Forschung. Zum Profil einer volkskundlichen Kulturwissenschaft (Studien zur Alltagskulturforschung, 6), hg. v. Sonja Windmüller et al., Berlin: LIT, 178-194. Friedmann, Jan (2012): »Blau wie blöd«. In: Der Spiegel, 03.12.2012, http://www.spiegel. de/spiegel/print/d-89932545.html (12.02.2015). Giddens, Anthony (1984): The Constitution of Society. Outline of the Theory of Structurati- on, Oxford: Polity Press. 25 Zu diesen Akteuren gehören aus der Perspektive der Akteur-Netzwerk-Theorie Wissen- schaftler_innen, Studierende und wissenschaftliche Leistung bewertende Institutionen genauso wie die zum Einsatz kommenden Technologien, Messverfahren und Politiken. 26 Dank gilt dem Redaktionsteam der Zeitschrift für Kulturwissenschaften sowie insbeson- dere Alexa Färber für hilfreiche Kommentare. | 61 Markus Tauschek Geiger, Theodor (2012): Konkurrenz. Eine soziologische Analyse, hg. von Klaus Rodax (Theodor Geiger Gesamtausgabe, Abt. VI: Wirtschafts- und Betriebssoziologie, 1), Frankfurt/Main: Peter Lang [Original 1941]. Hazelkorn, Ellen (2008): »Learning to Live with League Tables and Ranking: The Experi- ence of Institutional Leader«. In: Higher Education Policy 21: 2, 193-215. Hazelkorn, Ellen (2011): Rankings and the Reshaping of Higher Education. The Battle for World-Class Excellence, Houndmills: Palgrave. Hemme, Dorothee/Tauschek, Markus (2010): »Wissenschaftspolitische Entwicklungen im Lichte von Parkinsons Gesetz«. In: Alltag als Politik – Politik im Alltag. Dimensionen des Politischen in Vergangenheit und Gegenwart (Studien zur Kulturanthropologie/Europäi- schen Ethnologie, 5), hg. v. Michaela Fenske, Berlin: LIT, 177-200. Jessen, Ralph (Hg.) (2014): Konkurrenz in der Geschichte. Praktiken – Werte – Institutiona- lisierungen. Frankfurt/Main: Campus. Kelm, Barbara (2013): »Zehn Jahre Shanghai-Ranking. Der Kampf ums Treppchen«, In: duz magazin, 31.05.2013, http://www.duz.de/duz-magazin/2013/06/der-kampf-ums- treppchen/177 (18.08.2014). Lessenich, Stephan (2012): »Sind Rankings sinnvoll?«. In: Die Zeit, 29/2012, 20. Juli 2012, http://www.zeit.de/2012/29/C-CHE-Ranking-Contra (19.08.2014). Lynch, Kathleen (2013): »New Managerialism, Neoliberalism and Ranking«. In: Ethics in Science and Environmental Politics 13, 141-153. Mittag, Sandra (2006): Qualitätssicherung an Hochschulen. Eine Untersuchung zu den Fol- gen der Evaluation von Studium und Lehre, Münster u.a.: Waxmann. Münch, Richard (2009): Globale Eliten, lokale Autoritäten. Bildung und Wissenschaft unter dem Regime von PISA, McKinsey & Co, Frankfurt/Main: Suhrkamp. Münch, Richard (2012): »Das internationale Kräftemessen. Neo-Paternalismus als Instru- ment der Leistungssteigerung im Wettbewerbsstaat«. In: SozBlog. Der Blog der Deutschen Gesellschaft für Soziologie: http://soziologie.de/blog/?p=666 (28.08.2014). Neckel, Sighard (2008): Flucht nach vorn. Die Erfolgskultur der Marktgesellschaft, Frank- furt/Main, New York: Campus. Nowotny, Helga et al. (2004): Wissenschaft neu denken. Wissen und Öffentlichkeit in einem Zeitalter der Ungewißheit, Weilerswist: Velbrück. Ortner, Sherry B. (2006): Anthropology and Social Theory. Culture, Power, and the Acting Subject, Durham, London: Duke University Press. Power, Michael (1994): The Audit Explosion, London: Demos. Rider, Sharon (2009): »The Future of the European University: Liberal Democracy or Au- thoritarian Capitalism?« In: Culture Unbound 1, 83-104, http://www.cultureunbound. ep.liu.se/v1/a07/cu09v1a07.pdf, 16.12.2009. Rosa, Hartmut (2006): »Wettbewerb als Interaktionsmodus. Kulturelle und sozialstruktu- relle Konsequenzen der Konkurrenzgesellschaft«. In: Leviathan. Berliner Zeitschrift für Sozialwissenschaften 34: 1, 82-104. Schwarz, Christine (2006): Evaluation als modernes Ritual. Zur Ambivalenz gesellschaftli- cher Rationalisierung am Beispiel virtueller Universitätsprojekte, Hamburg: LIT. 62 | Wissenschaft messen? Shore, Cris/Davidson, Mira et al. (2013): »Methodologies for Studying University Reform and Globalization. Combining Ethnography and Political Economy«. Working Paper 21, http://pure.au.dk/portal/files/70237330/WP_21_final.pdf (19.08.2014). Shore, Cris/Wright, Susan (Hg.) (1997): Anthropology of Policy: Critical Perspectives on Governance and Power, London: Routledge. Shore, Cris/Wright, Susan (2000): »Coercive Accountability: the Rise of Audit Culture in Higher Education«. In: Audit Cultures. Anthropological Studies in Accountability, Ethics, and the Academy, hg. v. Marilyn Strathern, London: Routledge, 57-89. Simmel, Georg (1995): »Soziologie der Konkurrenz«. In: Georg Simmel. Aufsätze und Ab- handlungen 1901-1908. Bd 1 (Gesamtausgabe Bd. 7), hg. v. Rüdiger Kramme/Angela Rammstedt/Otthein Rammstett, Frankfurt/Main: Suhrkamp, 221-246 [Original 1903]. Spiewak, Martin (2010): »›Sie führen Studenten in die Irre‹«. In: Die Zeit, 16/2010, 15.04.2010. Stergiou, Konstantinos I./Lessenich, Stephan (2014): »On Impact Factors and University Rankings: from Birth to Boycott«. In: Ethics in Science and Environmental Politics 13, 101-111. Strathern, Marilyn (Hg.) (2000): Audit Cultures. Anthropological Studies in Accountabili- ty, Ethics, and the Academy, London: Routledge. Stratilatis, Costas (2014): »University Rankings and the Scientification of Social Scien- ces and Humanities«. In: Ethics in Science and Environmental Politics 13, 177-192. Tauschek, Markus (2012): »Wettbewerbskulturen. Eine kulturanthropologische Problem- skizze«. In: Zeitschrift für Volkskunde 108, 177-197. Tauschek, Markus (Hg.) (2013): Kulturen des Wettbewerbs. Formationen kompetitiver Logiken (Kieler Studien zur Volkskunde und Kulturgeschichte, Bd. 10), Münster u.a.: Waxmann. Verheyen, Nina (2012): »Unter Druck. Die Entstehung individuellen Leistungsstrebens um 1900«. In: Merkur. Zeitschrift für europäisches Denken 66: 5, 382-390. Vonderau, Asta (2013): »Audit-Kultur: Verwaltungssysteme, unternehmerische Subjekte, Regierungsweisen an einer deutschen Hochschule«. In: Kultur_Kultur. Denken. Forschen. Darstellen, hg. v. Reinhard Johler et al., Münster u.a.: Waxmann, 417-423. Walach, Harald (2009): »Hurra – wir haben eine neue Religion«. In: Forschung & Lehre 5/2009, 342-345. Werron, Tobias (2012): »Worum konkurrieren Nationalstaaten? Zu Begriff und Geschich- te der Konkurrenz um ›weiche‹ globale Güter«. In: Zeitschrift für Soziologie 41, 338-355. | 63