Jost Halfmann · Falk Schützenmeister (Hrsg.) Organisationen der Forschung
Jost Halfmann Falk Schützenmeister (Hrsg.)
...
65 downloads
1039 Views
1MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Jost Halfmann · Falk Schützenmeister (Hrsg.) Organisationen der Forschung
Jost Halfmann Falk Schützenmeister (Hrsg.)
Organisationen der Forschung Der Fall der Atmosphärenwissenschaft
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.
. 1. Auflage 2009 Alle Rechte vorbehalten © VS Verlag für Sozialwissenschaften | GWV Fachverlage GmbH, Wiesbaden 2009 Lektorat: Katrin Emmerich / Sabine Schöller VS Verlag für Sozialwissenschaften ist Teil der Fachverlagsgruppe Springer Science+Business Media. www.vs-verlag.de Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Umschlaggestaltung: KünkelLopka Medienentwicklung, Heidelberg Druck und buchbinderische Verarbeitung: Krips b.v., Meppel Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier Printed in the Netherlands ISBN 978-3-531-15789-4
Inhalt
I. Einleitung Jost Halfmann und Falk Schützenmeister Die Organisation wissenschaftlicher Entwicklung. Forschungspolitik und (inter-)disziplinäre Dynamik ................................................................. 8 II. Klimaforschung Gabriele Gramelsberger Simulation – Analyse der organisationellen Etablierungsbestrebungen der epistemischen Kultur des Simulierens am Beispiel der Klimamodellierung..................................................................................... 30 Daniela Jacob Organisation in Verbundprojekten: Konzeptionelle Darstellung anhand der Projekte ENIGMA und BALTIMOS aus dem Bereich der Klimaforschung ......................................................................................... 53 Jobst Conrad Zur Wechselwirkung von Klimatheorie und Forschungsorganisation ...... 64 III. Wissenschaftssoziologie Stefan Böschen Kontexte der Forschung – Validierung von Wissen ................................. 92 Silke Beck Von der Beratung zur Verhandlung – Der Fall IPCC ............................. 120 IV. Organisationssoziologie Petra Hiller „Grenzorganisationen“ und funktionale Differenzierung ....................... 146
6
Inhaltsverzeichnis Falk Schützenmeister Offene Großforschung in der atmosphärischen Chemie? Befunde einer empirischen Studie ........................................................... 171 Dagmar Simon Exzellent? Organisiert? Interdisziplinär? Zur Organisation interdisziplinärer Klimaforschung in außeruniversitären Forschungseinrichtungen ......................................................................... 209
V. Forschungspolitik Beverly Crawford Wann ist konsensuelle Wissenschaft „Politische Wissenschaft“? Drei Paradoxien autoritativen Assessments ............................................. 226 Verena Poloni Das Intergovernmental Panel on Climate Change (IPCC) als boundary organization ............................................................................................. 250 Verzeichnis der Autorinnen und Autoren ........................................................ 272
I. Einleitung
Die Organisation wissenschaftlicher Entwicklung. Forschungspolitik und (inter-)disziplinäre Dynamik Jost Halfmann und Falk Schützenmeister
In dem vorliegenden Band wird am Beispiel der Klimaforschung1 untersucht, wie in der Forschung der wachsende Ressourcenbedarf, die Notwendigkeit interdisziplinärer Kooperationen aber auch die Spannungen zwischen der Wissenschaft und politischen Entscheidungsprozessen durch Organisationen bearbeitet werden. Ausgangspunkt der Überlegungen ist die Hypothese, dass die Forschung selbst als ein Organisationsprozess zur Schaffung von Bewährungskontexten für neues wissenschaftliches Wissen verstanden werden kann. Die Generierung neuen Wissens erfordert sehr spezifische Arrangements kognitiver, sozialer und materieller Ressourcen. Solche Arrangements finden sich in der modernen Gesellschaft typischerweise in mehr oder weniger formalen Organisationen. Die Abhängigkeit der Klimaforschung von internationalen Kollaborationen und technischen Infrastrukturen wie Forschungsflugzeugen, Satelliten und Supercomputern macht dies besonders deutlich. Atmosphärenwissenschaftler produzieren ihre Daten nicht nur im Labor, sondern sie erheben diese – vor Ort (in situ) oder durch Fernerkundung – in allen Schichten der Atmosphäre. In der Wissenschaftssoziologie wurden Labore als durch die Gesellschaft vorstrukturierte Arrangements von Geräten, Präparaten und Chemikalien beschrieben (Knorr-Cetina 1981, 1988). In der Atmosphärenwissenschaft erfordert der Test komplexer Hypothesen, deren Reichweite zuweilen das gesamte Erdsystem umfasst, dass staatliche Förderprogramme, Wissenschaftler verschiedener Disziplinen, technisches Personal und teuere Instrumente in sehr spezifische Kon1
Im Folgenden referiert Klimaforschung auf das durch den anthropogenen Klimawandel motivierte problemorientierte Forschungsgebiet. Atmosphärenwissenschaft bezeichnet dagegen eine wissenschaftliche Disziplin, in der Wissen über die Dynamik und die Chemie der Erdatmosphäre generiert und geprüft wird. Auch wenn die Atmosphärenwissenschaft die Leitdisziplin der Klimaforschung ist, lässt sich letztere nicht auf die Atmosphäre beschränken. Andere Disziplinen wie die Ozeanographie, die Biologie und viele mehr spielen ebenfalls eine unverzichtbare Rolle. Die Klimaforschung nicht das einzige interdisziplinäre Forschungsfeld, in dem die Atmosphärenwissenschaft eine Rolle spielt. Eine ähnliche Unterscheidung wird zwischen der Erforschung der anthropogenen Ozonzerstörung und der atmosphärischen Chemie als einer zentralen Subdisziplin der Atmosphärenwissenschaft vorgenommen (siehe auch Schützenmeister 2008).
Die Organisation wissenschaftlicher Entwicklung
9
texte eingepasst, aufeinander abgestimmt und im Verlauf von Projekten kontrolliert werden. Die neuere Wissenschaftssoziologie berücksichtigt zunehmend die Einbettung des Forschungshandelns in formale Organisationen und komplexe, organisationale Netzwerke (Owen-Smith 2001). Besonders die wissenschaftssoziologische Analyse der Umweltforschung erfordert eine solche erweiterte Perspektive. Weil die Erforschung der anthropogenen Ozonzerstörung oder auch des Klimawandels durch umweltpolitische Programme und damit verbundene legitimatorische Anforderungen geprägt ist, gilt hier ganz besonders, dass die Forschungsorganisationen nur im Kontext ihres gesellschaftlichen Umfeldes verstanden werden können. Es muss analysiert werden, wie sich gesellschaftliche Probleme und die oft konkurrierenden Versuche ihrer Lösung innerhalb von Organisationen in bearbeitbare und vor allem abschließbare Forschungsprojekte übersetzen lassen. Weiterhin gilt es zu untersuchen, wie in Forschungsorganisationen versucht wird, die gesellschaftliche Umwelt zu kontrollieren und gleichzeitig externe Versuche der Manipulation des Forschungsprozesses abzuschirmen. Kurz: Die soziologische Analyse der Wissenschaft kann nicht auf das Verhältnis von Forschung – als sozialer Prozesses – und nichtgesellschaftlicher, „natürlicher“ Umwelt beschränkt bleiben. Die Formulierung von Forschungsagendas muss innerhalb spezifischer – typischerweise organisierter – gesellschaftlicher Umwelten beobachtet werden, weil sich aus diesen die Vorraussetzungen (und oft auch die Limitationen) für erfolgreiche Forschungsarbeit ergeben. Die organisationssoziologische Analyse der wissenschaftlichen Arbeit bietet neue Ansatzpunkte für die Lösung eines an sich alten Problems. Es geht darum, die empirisch sehr heterogenen Integrationsformen der Wissenschaft in der Gesellschaft zu verstehen. Besonders am Beispiel der Großforschung wurde deutlich, dass es einen Zusammenhang zwischen der Organisationsform und den Möglichkeiten der Steuerung von Forschungsprozessen durch gesellschaftliche, d. h. auch durch politische Akteure gibt (Galison/Hevly 1992). Dem klassischen Ideal autonomer Forschung an der Universität stehen strategische Regierungsprogramme z. B. zur Bearbeitung von Umweltproblemen, zur Lösung der Energiekrise, aber auch zur Entwicklung neuer Waffensysteme gegenüber. Doch scheint diese Entgegensetzung empirischer Extreme als inadäquat. Tatsächlich existiert eine enorme Bandbreite organisatorischer Formen, die die epistemischen Bedürfnisse verschiedener Disziplinen ebenso widerspiegeln wie deren Einbettung in verschiedene gesellschaftliche Problemkontexte. Die Varianz der Organisationsformen der Forschung zwischen verschiedenen Disziplinen und Forschungsfeldern zeigt dass das Thema der Forschungsorganisation nicht nur Fragen der Institutionalisierung der Wissenschaft berührt, sondern auch eine kognitive Dimension hat.
10
Jost Halfmann und Falk Schützenmeister
Es muss noch ein weiterer Unterschied zu älteren Versuchen herausgestellt werden, die wissenschaftliche Arbeit mit dem begrifflichen Inventar der Organisationsforschung zu analysieren. Lange wurde versucht, wissenschaftliche Gemeinschaften selbst als – wenn auch besondere, nämlich informale (Hagstrom 1965) – Organisationen zu beschreiben (Weingart 1976, Whitley 1984). Die Frage nach der Motivation und Kontrolle der wissenschaftlichen Arbeit ergab sich dabei aus einer Organisationssoziologie, die vor allem Firmen in der Industriegesellschaft im Blick hatte. Neuere Ansätze der Organisationssoziologie beruhen weniger auf Konzepten wie Mitgliedschaft, Hierarchien oder auch Weisungsstrukturen. Das Organisieren wird vielmehr zunehmend als ein dynamischer Prozess verstanden, in dem bindende Entscheidungen erzeugt werden (Luhmann 2000, Hernes 2008). Dabei spielen der Wissensaustausch und der Informationsfluss eine zentrale Rolle. Anschlusspunkte für die Wissenschaftssoziologie ergeben sich vor allem aus den Diskussionen über Wissen in Organisationen oder auch aus der großen Bedeutung informaler Netzwerke für den Bestand und die innovative Weiterentwicklung von Organisationen. Die Vorteile einer solchen dynamischen Sicht auf Organisationen werden deutlich, wenn man sich die Rolle von Projekten in der Forschung vor Augen führt. Viele Projekte können nicht als Teile bestehender Forschungsorganisationen beschrieben werden. Vielmehr sind immer häufiger Kollaborationen typisch, in denen nicht nur das Wissen mehrerer Disziplinen, sondern auch die Ressourcen verschiedener Organisationen temporär zusammengeführt werden. Wissenschaftler greifen daher neben den informalen Strukturen der wissenschaftlichen Kommunikation auch auf ein komplexes Netzwerk organisatorischer Ressourcen zurück. Man kann vermuten, dass in der infrastrukturintensiven Forschung die Freiheitsgrade autonomen Entscheidens, über die ein Wissenschaftler verfügt, primär aus der Verfügbarkeit organisatorischer Ressourcen resultiert, weniger aus dem prinzipiell offenen Horizont theoretischer Probleme. Die Dynamik von Forschungsorganisationen generiert neue Formen der Arbeitsteilung. Einerseits lassen sich neue Organisationen beobachten, die ganz spezifische Probleme – z. B. den Datenaustausch, die Vermittlung von Ressourcen oder Strategien der Politikberatung – bearbeiten. Zum anderen kommt es zu einem höheren Grad der innerorganisatorischen Arbeitsteilung: neue Technikerund Managementrollen bilden sich heraus, die die Wissenschaftler entlasten. Diese einleitenden Überlegungen zeigen, dass das Problem der Organisation von Forschung auf eine neue Weise diskutiert werden muss. Forschung kann nicht innerhalb einzelner Wissenschaftsorganisationen wie Universitäten oder Großforschungslabore beschrieben werden. Noch weniger sind Disziplinen, Subdisziplinen oder wissenschaftliche Gemeinschaften etwas, das man in der Organisationsforschung als Organisationen betrachten würde. Zwar gibt es
Die Organisation wissenschaftlicher Entwicklung
11
Fachorganisationen, die ein wissenschaftliches Feld zu repräsentieren suchen. Doch stehen dabei in der Regel professionelle Belange und ihr Verhältnis zur nichtwissenschaftlichen Umwelt im Mittelpunkt. Die wissenschaftliche Kommunikation folgt nach wie vor ihrer eigenen Logik. Externe Steuerimpulse, Zumutungen und Anreize werden innerhalb dieser Logik verarbeitet. Organisatorische Anstrengungen werden in der Regel dort unternommen, wo es zur Überlastung wissenschaftsinterner Bearbeitungskapazitäten kommt oder wo neue Irritationen – z. B. gesellschaftliche Probleme – an die wissenschaftliche Kommunikation vermittelt werden sollen. Dabei wird kaum jemals versucht, die Vielfalt der Probleme der Forschung innerhalb einer einzigen neuen Organisation zu lösen. Vielmehr entstehen neue, oft kleinere Organisationen zur Bearbeitung spezifischer Probleme, wie z. B. der Vermittlung wissenschaftlichen Wissens an die Politik im Fall des Intergovernmental Panel on Climate Change (IPCC). Andere Probleme werden durch Umstrukturierungen innerhalb bestehender Forschungsorganisationen gelöst. Oft ist es schwer, organisatorische Grenzen klar zu bestimmen, weil Autonomie und Heteronomie in der Wissenschaft ständig neu verhandelt werden. Die organisatorische Landschaft, in die die Klimaforschung eingebettet ist, kann daher kaum durch ein Organigramm dargestellt werden. Vielmehr handelt es sich um ein organisatorisches Sediment, das aus der Lösung vergangener Probleme hervorgegangen ist und eine schier unüberschaubare Anzahl von Organisationen, aber auch mehr oder weniger selbständige Subsysteme bestehender Organisationen, z. B. Universitätsinstitute, enthält. Zudem ist dieses Sediment von informalen Netzwerken durchdrungen. Eine solche Konfiguration ist weniger ein Ergebnis von Planung als von Evolutionsprozessen, in denen Variationen durch Interventionsversuche in die wissenschaftliche Kommunikation erzeugt werden. Zunehmend erlangen ähnliche Beschreibungen auch in anderen Bereichen der organisierten Gesellschaft Gültigkeit. Organisatorische Netzwerke, interorganisatorische Kooperationen oder gar virtuelle Organisationen rücken in den Mittelpunkt der Analyse. Von den Autoren dieses Buches werden verschiedene dieser Ansätze angewandt, um das Potential einer neuen organisationssoziologischen Perspektive auf die Wissenschaft auszuloten und dabei Horizonte in dem nahezu undurchdringlichen organisatorischen Geflecht zu identifizieren, in das die Klimaforschung eingebettet ist. Bevor wir eine Übersicht der einzelnen Beiträge geben, gilt es einige Überlegungen zu entfalten, die den Teilnehmern des Workshops in Form eines Diskussionspapiers vorlagen.
12 1.
Jost Halfmann und Falk Schützenmeister Forschungsorganisationen als ‚boundary organizations’
Die internationalen Reaktionen auf die anthropogene Schädigung der Ozonschicht und den globalen Klimawandel haben neue Formen wissenschaftsbasierter politischer Regime auf den Plan gerufen (Parson 2003, Miller/Ewards 2001). Diese haben nicht nur das politische System verändert; der resultierende Bedarf an wissenschaftlicher Expertise und die Förderung großer Forschungsprojekte haben auch ihre Spuren in den disziplinären Strukturen der Wissenschaft hinterlassen (Schützenmeister 2008). Die sehr heterogenen gesellschaftlichen Probleme, die nun in Forschungsfragen übersetzt werden mussten, waren der Anlass für eine enorme Vielzahl interdisziplinäre Forschungsprogramme. Der Bedarf an interdisziplinärer Forschung war groß, da die disziplinäre Ordnung der Wissenschaft keine ready made Lösungen bereithielt, die man auf diese Probleme hätte anwenden können. Problemorientierte Forschung ist gerade dadurch bestimmt, dass das Wissen zur Lösung wissenschaftlicher Probleme noch nicht zur Verfügung steht. Anstelle der bloßen Einpassung bereits vorhandenen wissenschaftlichen Wissen in Anwendungskontexte erfordern solche Probleme neue Linien der Grundlagenforschung, die durch eine politische Förderung beflügelt werden können. Zwar führten interdisziplinäre Forschungsprogramme zu einer Verschiebung, nicht jedoch zur Auflösung der disziplinären Strukturen des Wissenschaftssystems, wie es einige neuere Ansätze der Wissenschaftsforschung erwarten ließen. So vermuteten Nowotny et al. (2001) sowie Klein (2001), dass die zunehmende organisatorische Heterogenität und die wachsenden gesellschaftlichen Anforderungen an die Forschung tendenziell zur Auflösung des relativ autonomen Wissenschaftssystem führen würden. Das Gegenteil trat ein: interdisziplinäre Forschungsergebnisse wurden in die disziplinären Wissensbestände integriert, oder sie führten unter spezifischen Umständen zu einer Readjustierung disziplinärer Grenzen. In einigen wenigen Fällen führte interdisziplinäre Forschung auch zur Ausbildung neuer Disziplinen. Dies war bei der Atmosphärenwissenschaft der Fall, die sich aus verschiedenen Forschungsanstrengungen in der Meteorologie, der Chemie und der Physik entwickelte. Dies bedeutet nicht, dass die Klimaforschung nun ein disziplinäres Forschungsgebiet wäre. Das Gegenteil ist der Fall, doch bedurfte es einer disziplinären Atmosphärenwissenschaft, um die für die interdisziplinäre Zusammenarbeit relevanten Wissensbestände zu identifizieren und als gültiges Wissen auszuweisen. Im Bereich der Umweltpolitik ist vor allem die Übersetzung wissenschaftlicher Expertise in politische Entscheidungen breit untersucht worden (z. B. Kusche 2008, Weingart/Lentsch 2008). Die umgekehrte Beziehung – die Wirkungen von Forschungspolitiken auf die wissenschaftliche Entwicklung – ist
Die Organisation wissenschaftlicher Entwicklung
13
dagegen bisher nicht ausreichend verstanden worden. Die gegenwärtige Diskussion über neue Entwicklungen in der Struktur der Wissenschaft ist durch zwei zentrale Positionen gekennzeichnet. Die erste wird durch eine Theorie weitreichender Segregation der Wissenschaft von der Gesellschaft bestimmt. Die zweite basiert auf der gegenteiligen Hypothese, dass die Grenzen zwischen wissenschaftlichem und nicht-wissenschaftlichem Wissen unscharf geworden seien und dass unter den Bedingungen der Ungewissheit, der Interessengebundenheiten und der Heterogenität von Werten, die mit sozialen Problemen verbunden sind, die exklusiven Ansprüche der Wissenschaft auf Gültigkeit und Objektivität von anderen Institutionen der Wissensproduktion herausgefordert würden. Vertreter des „klassischen“ Standpunktes, der vor allem von den Wissenschaftlern selbst vertreten wird, unterstellen, dass rationale politische Entscheidungen nur auf der Basis beweisfesten Wissens möglich sind. Dementsprechend ist die Unabhängigkeit gegenüber Forderungen politischer Organisationen eine Voraussetzung für die Aufrechterhaltung der Rationalität in wissenschaftsbasierten Entscheidungsprozessen. Dies solle auch für wissenschaftliche Forschung gelten, die durch soziale Probleme wie Smog oder Ozonverlust stimuliert wurde. Viele Wissenschaftler betonen, dass in theoretischer und methodologischer Hinsicht kein Unterschied zwischen der Atmosphärenwissenschaft und der klassischen experimentellen Wissenschaft bestehe (Johnston 1992). Vertreter der „postmodernen“ Auffassung (Gibbons et al. 1994, Nowotny et al. 2001) betonen, dass Entscheidungsprozesse im Bereich von Umweltproblemen oft Wissen verlangen, das nicht vollständig verfügbar oder unvollständig bewiesen sei. Folglich könnten politische Entscheidungen und Wissensproduktion, die oft auf unfertigem und unzureichend geprüftem Wissen beruhen, nicht voneinander unterschieden werden (Funtowicz/Ravetz 1990). In „post-normaler“ Wissenschaft, so das Argument der Autoren, werden Wissenschaftler in den politischen Prozess involviert, so dass die Ausrichtung der Forschung durch politische Entscheidungen bestimmt sei. Somit seien die Grenzen zwischen Politik und Wissenschaft unscharf geworden. Als Beleg dieser These dienen einerseits verschiedene organisatorische Arrangements, die zwischen Wissenschaft und Politik vermitteln, andererseits der relative Bedeutungsverlust klassischer „reiner“ Universitätsforschung. Jene zwischen Wissenschaft und Politik vermittelnden Organisationen, die sogenannten „Grenz-“ oder „Hybrid“-Organisationen, erzeugen oder verarbeiten wissenschaftliches Wissen, um politische oder ökonomische Ziele zu erreichen. Sogar Wissenschaftler, die in die Politik der Atmosphärenwissenschaft oder der Klimawandelsforschung involviert sind, sind geteilter Meinung, wie Interviews demonstrieren, die im Rahmen des Forschungsprojektes „Problemorientierte Forschung und Wissenschaftsdynamik“ durchgeführt wurden.
14
Jost Halfmann und Falk Schützenmeister
Wir schlagen eine dritte Position zur Beschreibung des Verhältnisses von Wissenschaft und Politik vor. Der Ausgangspunkt ist eine allgemeinere Interpretation des Begriffs der „Grenz-“ oder „Hybrid-“Organisation. Fast jede Organisation kann als hybrid in dem Sinne beschrieben werden, dass Organisationen generell die Leistungserwartungen verschiedener Funktionsbereiche der Gesellschaft wie Wissenschaft, Politik, Wirtschaft oder Recht koordinieren müssen. Die meisten Organisationen sind boundary organizations, wenn sie Wissens-, Macht- oder Güterleistungen gegenüber heterogenen funktionssystemischen Umwelten erbringen. Die Differenzierung der Funktionssysteme spiegelt sich in der komplexen internen Differenzierung von Organisationen, die somit den verschiedenen Leistungsanforderungen ihrer Umwelten gerecht zu werden versuchen. Organisationen müssen nicht nur ein Ziel, sondern verschiedene Ziele zu erreichen suchen. Einer solchen „Hybridisierung“ von Funktionen innerhalb von Organisationen entspricht nun nicht eine Entdifferenzierung der Funktionssysteme der Gesellschaft. Im Gegenteil, aus der Sicht von Organisationen wird die Differenzierung der Gesellschaft durch eine Pluralität von Zielen und Orientierungen reflektiert, die innerhalb einer Organisation koordiniert und vermittelt werden müssen. Die Zuschreibung einer Organisation als wissenschaftlich oder politisch bezeichnet das dominante organisationale Programm, ohne die Gesamtheit von anderen Operationen zu reflektieren, die dem Leistungsaustausch mit Organisationen anderer schwerpunktmäßiger Funktionssystemzuordnung dienen. Wissenschaftsorganisationen wie Universitäten, Ressortforschungslabore oder Max-Planck-Institute sind nicht ausschließlich mit Entscheidungen zur Erzeugung und Verwendung wissenschaftlichen Wissens befasst. Wissenschaftsorganisationen sind auch mit politischen Entscheidungen, finanziellen Zwängen und rechtlichen Vorschriften beschäftigt. Darüber hinaus produzieren nicht nur „klassische“ Wissenschaftsorganisationen wie Universitäten oder nationale Großforschungsinstitute Wissen. Wissen, das auch aus primär nichtwissenschaftlichen Organisationen stammt, kann wissenschaftliche Kommunikation beeinflussen, wie das Beispiel der Forschungsaktivitäten in Unternehmensorganisationen zeigt. Welche Rolle spielen nun Organisationen in der Forschung aber auch im Verhältnis der Wissenschaft zu seiner gesellschaftlichen Umwelt? In der Atmosphärenwissenschaft scheint vor allem das Verhältnis der Umweltpolitik zur Forschung interessant. Daher haben sich mehrere Autoren des Bandes auch mit der bisher nahezu einzigartigen Rolle des Intergovernmental Panel on Climate Change befasst. Auch wenn dieses selbst keine Forschung durchführt, ist dessen Einfluss auf die wissenschaftliche Entwicklung von immenser Bedeutung. Die Frage nach den Organisationen der (oder dem Organisieren) von Forschung wird in diesem Band aus vier verschiedenen Perspektiven betrachtet: 1. wird aus
Die Organisation wissenschaftlicher Entwicklung
15
einer empirischen Perspektive die Komplexität von Kollaborationen dargestellt, die auf Ressourcen angewiesen sind, die über sehr verschiedene Organisationen verteilt sind. 2. wird nach der Bedeutung des Organisationskonzepts für die Wissenschaftssoziologie gefragt, um 3. danach eher organisationssoziologische Fragestellungen anzuschließen. 4. wird die Rolle von boundary organizations an der Grenze von Wissenschaft und Politik untersucht und gezeigt, dass boundary work oft selbst als ein politischer Prozess verstanden werden kann, der ohne Zweifel Rückwirkungen auf die Forschung hat.
2.
Die Rolle von Organisationen in der Klimaforschung
Wie die meisten Gebiete der Geophysik ist die Atmosphärenforschung hoch organisiert. Zusätzlich zu ihrer Institutionalisierung in Universitäten und professionellen Organisationen wie der American Meteorological Society (AMS) oder der International Union of Geodesy and Geophysics (IUGG) und ihren entsprechenden Unterorganisation wie der International Association of Meteorology and Atmospheric Sciences (IAMAS) gibt es eine Vielzahl nationaler und internationaler Organisationen, die jeweils spezifische Probleme der Forschungskooperation oder auch der Verkopplung von Wissenschaft und Politik bearbeiten. Die Atmosphärenwissenschaften gehören ohne Zweifel zur big science. Sie beanspruchen kapitalintensive Forschungsgeräte wie Satelliten, Supercomputer, Flugzeuge und Schiffe, die nur wenige Organisationen wie NASA, die National Oceanographic and Atmospheric Administration (NOAA) oder das National Center of Atmospheric Research (NCAR) finanzieren und betreiben können. Europäische Beispiele sind die European Space Agency (ESA), das Deutsche Klimarechenzentrum (DKRZ) oder das französische Centre National de Recherche Scientifique. Diese Konzentration von Ressourcen in wenigen Organisationen besteht noch immer, auch wenn die nordamerikanischen und europäischen Förder- und Finanziermonopole wegen der allmählich sinkenden Kosten der Computer- und Raumfahrttechnologie und der Konkurrenz durch neue Raumfahrtnationen zu erodieren beginnen. Big science begann in Form strategischer (meist militärisch motivierter) Projekte von Nationalstaaten. Prominente Beispiele sind die Entwicklungen der Atombombe oder die Weltraumprogramme der USA oder der Sowjetunion. Auch die Meteorologie war nach dem Zweiten Weltkrieg eine primär militärische Domäne (Fleagle 2001: 13ff.). Dabei standen die Erforschung des Flugverhaltens interkontinentaler Raketen oder die gezielte Beeinflussung des Wetters im Mittelpunkt. Die kontrollierte Wettermanipulation wurde auch als eine landwirtschaftliche Technologie zur Bewässerung trockener Regionen, aber auch als
16
Jost Halfmann und Falk Schützenmeister
ein potentielles militärisches Mittel erwogen (Kwa 2001). Solche Projekte waren politikgetriebene Versuche, im Wettbewerb zwischen den Nationalstaaten strategische Vorteile zu erlangen bzw. gesellschaftliche Probleme zu lösen, die als besonders gravierend galten. Vor allem die militärischen Projekte waren der breiten wissenschaftlichen Gemeinschaft kaum zugänglich. Auch wenn einige der Forschungsresultate veröffentlicht und einer fachlichen Prüfung unterzogen werden konnten, spielten mit der Geheimhaltung von Resultaten Großforschungsorganisationen als beschränkter Wissenskontext eine zunehmende Rolle. Der Übergang von geschlossener zu offener big science, wie er sich in den Atmosphärenwissenschaft beobachten lässt, ist ein interessanter Fall für die Organisations- und Wissenschaftsforschung. Diese Entwicklung verdankte sich sowohl wissenschaftsinternen als auch externen Problemen. In der strategischen Großforschung kommt es, besonders dann, wenn die Ergebnisse geheimgehalten werden müssen, faktisch zu einer Unterbrechung des Reputationskreislaufes, der vor allem für jüngere Wissenschaftler nachteilig erscheint. In Bezug auf die Umweltanpassung löst die Offenheit dagegen Probleme, die weder auf einer informalen Ebene noch innerhalb einer einzelnen Organisation gelöst werden konnten. So wird es möglich, dass weit verstreuten Ressourcen sehr flexibel innerhalb neuer Projekte reorganisiert werden können. Hinzu kommt die legitimatorische Funktion der Offenheit, auf die besonders die Klimapolitik angewiesen ist. Staatliche Förderorganisationen wie die NOAA oder das französische CNRS haben nicht nur große Forschungsbetriebe unterhalten, sie haben auch als Führungsagenturen gewirkt, die Forschungsprojekte koordinierten, Projekte an Universitäten und industrielle Labore vergeben und auch wissenschaftliche Assessments von Umweltproblemen organisierten. An diesen Prozessen nahmen nicht nur die Beschäftigten der genannten Organisationen teil. Es wurde zunehmend ein großer Teil der internationalen Wissenschaftsgemeinschaft einbezogen. Heute ist die Beteiligung von externen Wissenschaftlern in Beobachtungsmissionen, in der Klimamodellierung, aber auch in der Bewertung des wissenschaftlichen Wissens für politische Entscheidungsträger weit verbreitet. Zudem werden Daten, die in der öffentlich geförderten Großforschung erzeugt werden, den Wissenschaftlern des Feldes zur Verfügung gestellt.
3.
Das Organisieren von Forschung
Die ethnographische Wissenschaftsforschung hat deutlich gemacht, dass Laborforschung durch Entscheidungen gekennzeichnet ist, die Arbeitskräfte, Instrumente und Wissen koordinieren „to make things work“ (Knorr-Cetina 1981).
Die Organisation wissenschaftlicher Entwicklung
17
Dieser Ansatz ist ein fruchtbarer Ausgangspunkt für eine Verbindung von Organisations- und Wissenschaftsforschung. Organisationen können als soziale Systeme beschrieben werden. „Eine Organisation ist ein System, das sich selbst als Organisation erzeugt“ (Luhmann 2000: 45), und zwar durch Entscheidungen. In der modernen Gesellschaft findet Forschung in formalen Organisationen statt. Dabei sind administrative und forschungsbezogene Entscheidungen in modernen Forschungsorganisationen oft ununterscheidbar. Die Forschung ist nicht auf die Arbeit am Labortisch beschränkt, sondern umfasst auch das Verfassen von Anträgen, die Einstellung von Personal, die Vergabe von Verträgen und die Beschaffung von Messinstrumenten. Forschungsorganisationen sind weniger durch ihr Tätigkeitsspektrum als durch ihre Leistungen – die Erzeugung überprüfbaren Wissens in Form von Texten (Latour/Woolgar 1979) – identifizierbar. In formalen Organisationen wird der Umfang möglicher Entscheidungen durch in der Vergangenheit bereits getroffene Entscheidungen eingeschränkt. Forschungsorganisationen ermöglichen die Arbeit an komplexen Problemstellungen und beschränken zugleich die Reichweite von Problemen, die von den angestellten Wissenschaftlern bearbeitet werden können. Angestellte Wissenschaftler orientieren sich bei ihrer Themenwahl an Problemen, die innerhalb eines gegebenen organisatorischen Kontexts auch erfolgreich bearbeitet werden können (Fujimura 1992). Besonders in der Atmosphärenwissenschaft sind Beobachtungen und Messungen relevanter Parameter von Organisationen abhängig, die über die ganze Welt verteilten Netzwerke koordinieren. So werden der Austausch und die Speicherung von Hunderten von Messstationen u. a. von der World Meteorological Organization (WMO) organisiert. Avancierte Techniken wie Satelliten sind immer schon in organisationale Netzwerke eingebettet, die von vielen wissenschaftlichen und nicht-wissenschaftlichen Mitarbeitern für eine Vielzahl von Zwecken aufrechterhalten werden. Atmosphärenwissenschaftler „sehen“ ihre Gegenstände ebenso mittels Organisationen wie durch technische Instrumente. Man kann sogar soweit gehen, dass einige Organisationen als wissenschaftliche Instrumente betrachtet werden. Die in ihnen eingebetteten Verfahren der Datenerzeugung werden von den Wissenschaftlern nur selten hinterfragt, wenn ihre Verwendung innerhalb einer Disziplin einmal anerkannt ist. Organisationen sind daher oft wie viele Messgeräte auch „black boxes“ in der alltäglichen wissenschaftlichen Arbeit. Andere Organisationen sichern methodologische Standards, indem sie Schnittstellen für den Vergleich und die Verknüpfung von Klimamodellen und den Datenaustausch definieren und bereitstellen. Dabei gewinnen Forschungs- und Programmmanager ebenso wie Techniker im Forschungsprozess an Bedeutung. Soziale Kompetenzen scheinen ebenso wichtig wie kognitive oder technische Fähigkeiten.
18
Jost Halfmann und Falk Schützenmeister
Auch wenn Forschungsorganisationen sich von bürokratischen Organisationen als dem klassischen Studienobjekt der Organisationsforschung unterscheiden, sind big science Organisationen durch eine zunehmende Arbeitsteilung charakterisiert. Als geschätzte Professionelle haben Wissenschaftler gewöhnlich mehr Entscheidungsfreiheiten als Angestellte in Unternehmensorganisationen (KnorrCetina 1999). Aber die Teilnahme an den big science Einrichtungen ist mit der Übergabe eines Teils der Entscheidungsfreiheit an eine größere Gruppe verbunden. Der Zugewinn an Forschungsmöglichkeiten ist eines der Motive von Wissenschaftlern für die Mitarbeit in großen Forschungsorganisationen. Wissenschaftler in Forschungsorganisationen haben nicht nur den Vorteil eines regelmäßigen Gehalts, der direkte Zugang zu den big science Einrichtungen erhöht auch die Chancen zur Publikation von Forschungsergebnissen und zur Steigerung der Anerkennung in der wissenschaftlichen Gemeinschaft. In der Atmosphärenforschung lassen sich verschiedene Tendenzen der Arbeitsteilung beobachten: a) disziplinäre Spezialisierung, b) methodologische Präferenzen und c) verschiedene Arten der Forschung und die Beteiligung an Managementprozessen. Diese Entwicklungen lassen sich auf intra- aber auch auf interorganisatorischer Ebene beobachten. a) Disziplinäre Spezialisierung: Wie in Universitäten spiegelt die Abteilungsstruktur in Forschungsorganisationen primär das System wissenschaftlicher Disziplinen. Dies gilt für US-amerikanische National Laboratories, die deutschen Max-Planck-Institute und das französische CNRS. Ein wichtiger Grund dafür liegt in der Notwendigkeit, die Wissenschafts- und Bildungsumwelt in Rechnung zu stellen, die zugleich auch Orientierungen bei der Rekrutierung wissenschaftlichen Personals für spezifische Forschungsprobleme bietet. Insofern spiegeln Organisationen Aspekte ihre Umwelt und gewinnen zugleich eine Entscheidungsgrundlage für die Etablierung interdisziplinärer Forschungsprogramme. Die Matrixstruktur von disziplinär gebildeten Abteilungen und interdisziplinären Forschungsprojekten ist ein verbreitetes Merkmal von Forschungsorganisationen und ein effektives Verfahren, um mit heterogenen Umwelten umzugehen, die insbesondere bei politisch generierten Problemlösungserwartungen entstehen (Sutton 1984). b) Methodologische Arbeitsteilung: Forschungsorganisationen unterscheiden sich auch in den Methoden, die in Forschungskontexten verwendet werden. Insbesondere in der Atmosphärenforschung können drei verschiedene Gruppen von Wissenschaftlern identifiziert werden: Theoretiker, Modellierer, Empiriker. Jeder dieser Gruppen bildet ihre eigene epistemische Kultur (Knorr-Cetina 1999); diesen Gruppen ist jeweils eine originäre Form der Integration von Wissen in interdisziplinären Projektes eigen. Viele Forschungsorganisationen gruppieren sich um ein bestimmtes Instrument oder um eine spezielle Technologie.
Die Organisation wissenschaftlicher Entwicklung
19
NASA-Programme fokussieren üblicherweise auf in situ Messungen durch Flugzeuge oder Distanzbeobachtungen durch Satelliten. Das Geodynamical Fluid Laboratory (GDFL) in Princeton oder das Deutsche Klimarechenzentrum (DKRZ) sind Beispiele von Organisationen, die auf Computersimulationen spezialisiert sind. c) Managementstile: Management stellt eine wichtige Dimension der Arbeitsteilung in Forschungsorganisationen dar. Zwar bietet die Struktur von Forschungsorganisationen immer noch Positionen für neugiergetriebene Universitätswissenschaftler an, die in ihrer Forschung auf wenig Kooperation angewiesen sind oder Wert legen. Typischer ist aber die Situation, in der erfahrene Wissenschaftler in die Rolle von Forschungsmanagern schlüpfen, die die Arbeit von weniger erfahrenen oder stärker spezialisierten Kollegen anleiten. Empirische Studien der Wissenschaftsforschung verweisen darauf, dass die Forschungsfronten selbst immer spezialisierter und esoterischer werden. Dabei wird übersehen, dass die Forschungs- und Programmmanagern eine zunehmend bedeutende Rolle bei der Integration der Arbeit von Spezialisten zukommt. Wissenschaftler in Managementfunktionen finden sich kaum noch selbst im Labor. Aber das Organisieren von Forschung kann als systematische Beobachtung einer Gesellschaft begriffen werden, die selbst immer mehr zum Labor wird (Krohn/Weyer 1990).
4.
Die kognitive Dimension
Die Organisation der Forschung war ein zentrales Thema der Wissenschaftsforschung seit ihrer Entstehung. Allerdings blieb der Organisationsbegriff der Wissenschaftsforschung seltsam unscharf. Einerseits wurde der Begriff allgemein im Sinne von sozialer Ordnung oder Struktur verstanden; andererseits herrschte eine umgangssprachliche Vorstellung von Organisation vor, die im Sinne von Tätigkeiten organisieren und in einen zeitlichen und sachlichen Ablauf zu bringen verstanden wurde. Der Begriff der formalen Organisation im Sinne der Organisationssoziologie war Anathema zumindest in der frühen Wissenschaftsforschung, die Wissenschaft als informelle „Organisation“ „in its purest form“ (Hagstrom 1965: 4) begriff, die hierarchiefrei allein von einem universalistischen Ethos angetrieben wird (Merton 1957). Innerhalb dieses institutionalistischen Paradigmas wurden Wissenschaftlergemeinschaften mit Disziplinen oder Spezialgebieten gleichgesetzt, die zugleich als Orte sozialer Kontrolle verstanden wurden. In diesem Sinne wurden scientific communities als Organisationen begriffen. Die klassische (funktionalistische) Wissenschaftssoziologie unterstellte, dass die soziale Kontrolle, der sich Wissenschaftler ausgesetzt sehen,
20
Jost Halfmann und Falk Schützenmeister
ohne Hierarchie ausgeübt werde und sich allein über die Unterwerfung der Wissenschaftler unter wissenschaftsspezifische Normen (wie Universalismus, Kommunalismus, Desinteresse, Skeptizismus, so Merton) vollziehe. Wenn dies zuträfe, so schon die skeptische Reaktion empirischer Wissenschaftsforscher, wie kann Forschung in Industrielaboratorien oder Großforschungseinrichtungen funktionieren, wenn die Wahl von Forschungsthemen durch Gewinninteressen oder politische Ziele gesteuert wird? Die empirischen Studien, die die Hypothese des informalen Charakters von Wissenschaftsorganisationen testeten (Kornhauser 1962), konnten die von der funktionalistischen Theorie prognostizierten Konflikte und Motivverluste von Wissenschaftlern in formalen Organisationen nicht nachweisen (Cotgrove/Box 1970, Whitley 1984). Ähnlich konnte die Annahme, dass wissenschaftliche Disziplinen die Struktur von Formalorganisationen der Wissenschaft bestimmen (Whitley 1984), nicht der hohen Varietät von Forschungsorganisationen in der Wissenschaft Rechnung tragen. In der Folge wandte sich das Interesse an dem Tun von Wissenschaftlern von dem sozialstrukturellen Kontext ab und dem sozialen Prozess der Forschung zu. Seit den siebziger Jahren des 20. Jahrhunderts bestimmte im Zusammenhang des sogenannten cognitive turn die Soziologie des wissenschaftlichen Wissens (SSK) das Gebiet der Wissenschaftsforschung. Ausgehend von philosophischen Fragen zeigte dieses Paradigma, dass wissenschaftliche Wissensproduktion ein sozialer Prozess ist, in dem Fakten aus einem Forschungszusammenhang gewonnen werden und Ansprüche auf Geltung und Objektivität dieser Fakten innerhalb einer Wissenschaftsgemeinschaft verhandelt werden. Die Vertreter dieser Richtung der Wissenschaftsforschung waren wiederum nicht sehr an den Details des wissenschaftlichen Forschungsprozesses interessiert. Dieses Desinteresse resultierte aus der latenten Identifikation der sozialen mit den kognitiven Strukturen der Wissenschaft – eine Unterstellung, die seit Kuhns idiosynkratischem Begriff des wissenschaftlichen Paradigmas hohe terminologische Überzeugungskraft besaß (Kuhn 1962). Seine Idee des Paradigmas als der Gesamtheit geteilter Überzeugungen und Gruppenbeziehungen zwischen Wissenschaftlern stellte sich trotz des Versuches von Weingart, kognitive Orientierungen als soziale Normen zu interpretieren (Weingart 1976), als inkompatibel mit der allgemeinen Begrifflichkeit der Soziologie heraus. Die Kluft zwischen dem institutionellen und dem kognitiven Paradigma in der Wissenschaftssoziologie (s. Schimank 1995) kann durch die Konzeptualisierung des sozialen Prozesses der Forschung als Problemlösung durch Entscheiden überbrückt werden. Entscheidungen in Forschungsorganisationen sind soziale Operationen, die empirisch beobachtet werden können. Dadurch werden Forschungsorganisationen zu einem relevanten Thema der Wissenschaftsforschung. Die Organisation von Forschung kann als Schaffung neuen Wissens
Die Organisation wissenschaftlicher Entwicklung
21
(neuer Fakten) rekonstruiert werden, dessen Geltung in verschiedenen Kontexten getestet werden kann. Zu diesen Kontexten können Märkte zählen, auf denen Forschungsresultate in Form funktionierender Technik gehandelt werden, wie auch politische Gremien, die „robustes“, d. h. im politischen Prozess annahmefähiges Wissen erwarten oder Wissenschaftsgemeinschaften, die über die Anschlussfähigkeit des neuen Wissens an bestehende, als gültig behandelte Wissensbestände entscheiden. Diese konzeptuelle Rahmung von Forschung hat theoretische Implikationen. Forschung als Prozess der Rekombinierung von Wissen wird unterschieden von Wissenschaft als der Gesamtheit gültigen Wissens. Forschung ist ein Prozess der Erzeugung von Chancen zur Validierung neuen Wissens. Forschung findet typischerweise in Organisationen statt und ist angepasst an den sozialen Prozess des Entscheidens. Die Logik der Forschung als Rekombination bestehenden Wissens bietet sich gerade zu für interdisziplinäre Herangehensweisen an die Suche nach neuem Wissen an. Dieses neue Wissen wird jedoch in disziplinären Kontexten aufgenommen, geprüft und anerkannt. Nicht alle Forschungsresultate werden jedoch notwendigerweise durch Wissenschaft auf ihre Anschlussfähigkeit an bestehendes gültiges Wissen geprüft. Forschungswissen kann auch direkt von Organisationen anderer Funktionssysteme akquiriert und den dortigen Validitätskriterien unterworfen werden. Die Rolle von internationalen Organisationen in der Klimaforschung unterscheidet sich von den erwähnten nationalen und internationalen Forschungsorganisationen. Die meisten internationalen Organisationen sind selber weder mit der Forschungsförderung noch mit der Forschung selbst befasst. Sie sind vielmehr Vereinigungen, die Konferenzen organisieren, die Standardisierung von Instrumenten vorantreiben und den Datenaustausch vermitteln. Einen besonderen Fall stellen die Assessment-Körperschaften der World Meteorological Organization (WMO) und des United Nations Environmental Program UNEP) oder das International Panel on Climate Change (IPCC) dar. Als Teil von politischen Regimen zum globalen Klimawandel stellen sie Berichte her, die zur Grundlage internationaler politischer Verhandlungen werden. Diese Assessments stellen die Wissensbasis her, die von allen an den Verhandlungen beteiligten Parteien akzeptiert werden. Diese state of the art Reports, die alle fünf Jahre veröffentlich werden, haben selbst einen bemerkenswerten Einfluss auf die wissenschaftliche Arbeit. Sie werden in Forschungspapieren zitiert und als Textbücher in Seminaren verwendet. Assessment-Berichte machen eine klare Unterscheidung zwischen dem Konsens über gültiges Wissen in der Wissenschaftsgemeinschaft und der Feststellung unsicheren Wissens, das weiterer Forschung bedarf. Die Berichte beruhen auf publizierten Forschungsergebnissen und einem ausgedehnten Begutachtungsverfahren. Das Gutachterverfahren des
22
Jost Halfmann und Falk Schützenmeister
IPCC AR4-Berichtes ist offen für jeden Interessierten, der in dem Forschungsbereich arbeitet. Diese knappe Beschreibung der organisationalen Strukturen in der Atmosphärenforschung wirft einige Fragen auf: Wie kann eine offene Form von big science organisiert werden? Welche Mechanismen sogen für den Zugang von Hunderten von Wissenschaftlern zu den Forschungseinrichtungen? Welche Entscheidungsprozesse gehen den Messkampagnen oder den computerbasierten Berechnungen der Klimasimulationsmodelle voraus? Welche Formen der Arbeitsteilung bestehen zwischen Großforschungsorganisationen, Universitäten und internationalen – oft informalen Wissenschaftler-Netzwerken?
5.
Organisationen in der wissenschaftsbasierten Umweltpolitik
Der Erfolg von Umweltvertragswerken hängt auch von einem Konsens über bestimmte Korpora von wissenschaftlichem Wissen als Basis für politische Entscheidungsfindung ab (Haas 1992, Grundmann 2001). So wie big science Programme einst die Wissenschaften beeinflussten, so hat die Umweltforschung (neben anderen Einflüssen) die Struktur der geophysikalischen Wissenschaften verändert. Die Entstehung der Atmosphärenwissenschaften oder auch die Idee der Erdsystemwissenschaften zeigen, dass neue soziale Probleme die disziplinäre Landschaft der Wissenschaft berühren. Interdisziplinäre Forschung ist vor allem deshalb notwendig, weil die disziplinäre Struktur der Wissenschaft primär vergangene Problemkonstellationen reflektiert. In der Umweltpolitik spielt Organisation eine wichtige Rolle. Advokatorische und lobbyistische Gruppen etablieren neue Formen von Allianzen, während Regierungen neue Beratergremien und Forschungsorganisationen einrichten. Die Heterogenität der neuen organisatorischen Formen ist unschwer zu erkennen. So wie die Universität nicht mehr die dominante Form der Forschungsorganisation ist, so ist der Nationalstaat als traditionelle Organisation des politischen Entscheidens nicht mehr die einzige politische Instanz. Die politische Landschaft, die mit globalem Wandel zu tun hat, wird durch Hunderte verschiedenartige Organisationen geformt. Das in der Schweiz beheimatete Forum for Climate and Global Change (www.proclim.ch2) hat ein systematisches Verzeichnis aller bedeutenden nationalen und internationalen, wissenschaftlichen und nicht-wissenschaftlichen, Regierungs- und Nicht-RegierungsOrganisationen vorgelegt. Die Auflistung der internationalen Organisationen allein (ohne Universitäten, Forschungsinstitutionen und Förderprogramme) 2
Letzter Aufruf am 16.12.2008
Die Organisation wissenschaftlicher Entwicklung
23
umfasst über 100 Einträge. Das macht eine Bestandsaufnahme eines politischen Feldes wie der Klimapolitik im Hinblick auf Akteurskonstellationen oder organisatorische Aktivitäten zu einem sehr aufwendigen Unterfangen. Vor dem Hintergrund dieser komplexen organisationalen Struktur der Klimawandelpolitik dient wissenschaftliche Expertise als solide Entscheidungsbasis. Die oben genannten Assessment-Berichte belegen dies. Fördermaßnahmen zur Vertiefung der wissenschaftlichen Basis finden heute starke politische Unterstützung, weil sie von herausragender Bedeutung für politische Entscheidungen sind. In dieser Hinsicht hat sich die Förderpolitik von big science nachdrücklich verändert. Das primäre Ziel von strategischen Großforschungsprogrammen war die Entwicklung und Implementation von neuen Technologien (z. B. Waffensystemen, Atomenergie), die Verbesserung des wissenschaftlichen Wissens war dabei ein sekundäres Ziel. Das Erfolgskriterium solcher Programme waren funktionierende Technologien. Im Gegensatz dazu ist die Offenheit der globalen Klimaforschung eine wichtige Voraussetzung für politischen Einfluss. Wissen ist nun die Grundlage von Verhandlungen über politische Entscheidungen.
6.
Die Beiträge des Buches
Diese Überlegungen zur Rolle von Organisationen in der modernen Wissenschaft – insbesondere in einem Feld, dass durch den starken Einfluss der Umwelt- und Wissenschaftspolitik gekennzeichnet ist – markierten den Ausgangspunkt der Überlegungen des Workshops. Einige Teilnehmern nahmen divergierende theoretische Standpunkte ein. Der erste Teil des Buches enthält drei Beiträge, die sich sowohl der empirischen Vielfalt von Forschungsorganisationen und Verbundprojekten zuwenden als auch die Probleme entfaltet, die es in den Atmosphärenwissenschaften durch Organisationen zu lösen gilt. Die These von Gabriele Gramelsberger ist, dass Simulation zur dominanten Realitätsbeschreibung in der Klimaforschung geworden ist. Als Konsequenz lässt sich eine veränderte Form der Organisation von Forschung beobachten, die von der Programmierung der Simulationsmodelle über die Evaluierung der so gewonnenen Daten bis hin zur Koordinierung und Standardisierung von Simulation und Modellevaluation reichen, an denen nicht zuletzt Organisationen wie das IPCC führend beteiligt sind. Daniela Jacob beschreibt die Netzstruktur von Großforschungsprojekten in der Klimaforschung wie das Earth System Network of Integrated Modelling and Assessment (ENIGMA), das Projekt zur Entwicklung und Validierung eines gekoppelten Modellsystems in der Ostseeregion (BALTIMOS) und das Projekt Climate
24
Jost Halfmann und Falk Schützenmeister
Change and Variablity: Impact of Central and Eastern Europe (CLAVIER) und veranschaulicht ihre Komplexität durch Organigramme der Operationsweise internationaler und interdisziplinärer Verbundprojekte. Dabei zeigt sich, dass unterschiedliche Anforderungen zu unterschiedlichen Form der Integration und letztlich auch der Organisation führen. Jobst Conrad zeigt am Beispiel der modernen Klimaforschung, wie verschiedene Organisationen dieses Feld geformt haben und zur Integration interdisziplinärer Ansätze beigetragen haben. Der zweite Teil des Buches beginnt mit spezifischen Problemen der Wissenschaftssoziologie und beschreibt Forschung vor dem Hintergrund organisierter Kontexte. Dieser Teil knüpft an die Debatte an, ob der zu beobachtende Wandel der Wissenschaft als eine fortschreitende Differenzierung oder eine Entdifferenzierung beschrieben werden muss. Stefan Böschen postuliert, dass der spezifische Fall von Risikowissen eine Entdifferenzierung von Wissenschaft und Gesellschaft anzeige. Risikowissen fällt bei Wissensproduktionen an, die auf trans- und interdisziplinäre Forschungsbeiträge, auf übergroßes Nichtwissen über zukünftige Zustände und auf Politisierung durch den Einfluss außerwissenschaftlicher Akteure basieren. Stefan Böschen demonstriert am Beispiel der ökologischen Chemie die Entstehung alternativer Gestaltungsöffentlichkeiten, die Äquivalente zu der tradierten wissenschaftsbasierten Gewissheit über Forschungsergebnisse schaffen. Die Institutionalisierung von Gestaltungsöffentlichkeit könnte sich im Fall der ökologischen Chemie über ein nach dem Vorbild des IPCC gebildetes International Panel on Chemical Pollution (IPCP) vollziehen. Silke Beck nimmt den Sachverhalt, dass das IPCC in die Rolle einer – in der Sprache Stefan Böschens – „Gestaltungsöffentlichkeit“ geschlüpft ist, zum Anlass zu prüfen, wie die Generierung wissenschaftlicher Autorität mit Politikberatung vereinbar gemacht wurde. Silke Beck macht deutlich, dass der Versuch des IPCC diese beiden Leistungen vor dem Hintergrund einer enormen Politisierung von Klimafragen und den Herausforderungen von Interdisziplinarität für wissenschaftliche Forschung zu vereinbaren, organisationsintern zu lösen versucht wurde. Diese Lösung bestand in organisationsinterner Differenzierung, durch die wissenschaftliche und politische Kommunikationen getrennt wurden – eine Leistung, die allerdings erst nach längeren Reorganisationsbemühungen zustande kam und bis dato problembehaftet geblieben ist. Der dritte Teil des Bandes betrachtet das Thema von einer strikt organisationssoziologischen Seite. Für die Organisationssoziologie ist Wissenschaftsorganisation durchaus kein vertrauter Gegenstand. Aber sie bietet ein schärferes begriffliches Instrumentarium zur Beschreibung von Wissenschaftsorganisation an, als die Wissenschaftsforschung selbst bisher entwickeln konnte. Dies demonstriert Petra Hiller mit ihrer Kritik am Konzept der Grenzorganisation, das gerade im Bereich der Großforschung und besonders der Klimaforschung bei
Die Organisation wissenschaftlicher Entwicklung
25
der Beschreibung des Verhältnisses von Wissenschaft und Politik beliebt ist. Organisationen sind, wie Petra Hiller darlegt, gar nicht zur Bearbeitung von Grenzen zwischen Funktionssystemen geeignet; sie sind aber sehr wohl in der Lage, verschiedene Funktionsreferenzen in ihren Operationen zu bedienen. Leistungserwartungen ihrer Umwelt, etwa in Bezug auf entscheidungsrelevantes Wissen für die Politik, begegnen Wissenschaftsorganisationen wie das IPCC durch interne Differenzierung, die die Generierung und Evaluierung von wissenschaftlich gültigem Wissen und von Beratungswissen sachlich und sozial trennt, aber auch als Leistung verfügbar macht. Falk Schützenmeister betrachtet die Klimaforschung als ein erstes bedeutendes Beispiel für die Herausbildung von offener big science, deren evolutionärer Vorteil in der Bewältigung von Problemen der Koordination von Großgerätenutzung, Datenaustausch und Messkampagnen liegt, die in informellen Wissenschaftlergemeinschaften nicht lösbar sind. Dagmar Simon resümiert in ihrem Beitrag die Einsichten eines Forschungsprojektes, in dem die Art und Weise der Organisation von Interdisziplinarität in der Klimaforschung untersucht wurde. In diesem Projekt wurden Kriterien für die Organisierbarkeit von interdisziplinärer Forschung wie der Grad der kognitiven Kopplung zwischen den beteiligten Disziplinen und der Grad der Formalisierung der Forschungsorganisation entwickelt. Die aus diesen Kriterien ableitbaren Organisationsstile sind, wie aus der empirischen Erhebung hervorgeht, nicht alle gleich erfolgreich bei der Organisation von Interdisziplinarität. Der letzte Teil des Bandes befasst sich mit der Frage, welche Rückwirkungen das internationale Klimaregime auf die Forschung hatte. Beverly Crawford geht davon aus, dass in der globalen Umweltpolitik ein Bedarf an autoritativem Wissen besteht, um Entscheidungsprozesse zu legitimieren. Zur Autorisierung von Wissens im politischen Prozess gäbe es im Wesentlich zwei politische Strategien: die big tent Strategie und die des bestimmenden Monopols. Im Fall der Klimaforschung sei, zunächst in den USA, das Ziel der Politik gewesen, über die Etablierung einer lead agency – der National Aeronautics and Space Administration (NASA) – eine möglichst große Anzahl von Experten zur Generierung von Assessments zusammen zu bringen. Das zu lösende Problem einer solchen Strategie bestehe darin, das Zelt weder zu groß noch zu klein zu bauen. Im ersten Fall drohe die Politisierung des Assessments, im zweiten Fall ein Mangel an Robustheit des zugrunde liegenden Wissens. Beverly Crawford deutet die Organisationsgeschichte des IPCC als das Bemühen diese beiden Dimensionen auszubalancieren. Verena Poloni greift das in der Politikwissenschaft, aber auch in den Social Studies of Science verwendete Konzept der boundary organization erneut auf, um die Doppelrolle des IPCC als Organ der Erzeugung autoritativer Expertise in der Klimaforschung und der Politikberatung ins Relief
26
Jost Halfmann und Falk Schützenmeister
zu heben. Verena Poloni schildert die Geschichte des IPCC, deren interner Strukturwandel die spannungsreiche Anforderung an die Erzeugung gültigen und entscheidungsrelevanten Wissens widerspiegelt. Der Band enthält die erweiterten Beiträge eines Workshops, der am 5. und 6. Oktober 2006 an der Technischen Universität Dresden stattfand. Der Workshop wurde im Rahmen eines vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Forschungsprojektes zum Thema „Problemorientierte Forschung und Wissenschaftsdynamik“ durchgeführt. Wir danken Marcus Hauck, Linda Hennig, Robert Kluge und Joss Roßmann für die aufwendigen editorischen Arbeiten an dem Buchmanuskript.
Literatur Barnes, Barry (1971): Making Out in Industrial Research. In: Science Studies 1. 157-175 Cotgrove, Stephen F./Box, Steven (1970): Science, Industry and Society: Studies in the Sociology of Science. London: George Allen & Unwin Fleagle, Robert G. (2001): Eyewitness: Evolution of the Atmospheric Sciencen. Boston: American Meteorological Society Fujimura, Joan (1992): Constructing 'Do-able' Problems in Cancer Research: Articulating Alignment. In: Social Studies of Science 17. 257-293 Funtowicz, Silvio O./Ravetz, Jerome R. (1990): Uncertainty and Quality in Science for Policy. Dordrecht: Kluwer Galison, Peter/Hevly, Bruce (Hrsg.) (1992): Big science: The Growth of Large-Scale Research. Stanford: Stanford University Press Gibbons, Michael et al. (1994): The New Production of Knowledge. The Dynamics of Science and Research in Contemporary Societies. London: Sage Grundmann, Rainer (2001): Transnational Environmental Policy. London and New York: Routledge Guston, David H. (2001): Boundary Organizations in Environmental Policy and Science. In: Science, Technology, and Human Values 26. 399-408 Haas, Peter M. (1992): Banning chlorofluorocarbons: epistemic community effort to protect stratospheric ozone. In: International Organization 46. 187-224 Hagstrom, Warren O. (1965): The Scientific Community, New York: Basic Books Hart, David M./Victor, David G. (1993): Scientific Elites and the Making of US Policy for Climate Change Research, 1957-74. In: Social Studies of Science 23. 643-680 Hernes, Tor (2008): Understanding Organization as Process: Theory for a Tangled World, London: Routledge Johnston, Harold (1992): Atmospheric Ozone. In: Annual Review of Physical Chemistry 43 1-32 Klein, Julie Thompson (2001): Transdiciplinarity: joint problem solving among science, technology and society: an effective way for managing complexity. Basel: Birkhäuser
Die Organisation wissenschaftlicher Entwicklung
27
Kornhauser, William (1962): Scientists in Industry: Conflict and Accommodation. Berkeley, CA: University of California Press Knorr-Cetina, Karin (1981): The manufacture of knowledge. New York: Pergamon Press Knorr-Cetina, Karin (1999): Epistemic cultures. Cambridge, Mass.: Harvard University Press Krohn, Wolfgang/ Weyer, Johannes (1990) Die Gesellschaft als Labor. In: Jost Halfmann and Klaus-Peter Japp (Hrsg.): Riskante Entscheidungen, Opladen: Westdeutscher Verlag: 89-122 Kuhn, Thomas S. (1962): The structure of scientific revolutions. Chicago: Chicago University Press Kusche, Isabel (2008): Politikberatung und die Herstellung von Entscheidungssicherheit im politischen System. Wiesbaden: VS Verlag Kwa, Chunglin (2001): The Rise and Fall of Weather Modification. In: Clark A. Miller and Paul N. Edwards (Hrsg.) Changing the Atmosphere: Expert Knowledge and Environmental Governance. Cambridge, MA: MIT Press. 133-165 Latour, Bruno/Woolgar, Steve (1979): Laboratory Life: The Social Construction of Scientific Facts. Beverly Hills: Sage Luhmann, Niklas (2000): Organisation und Entscheidung. Opladen: Westdeutscher Verlag Miller, Clark A./Edwards, Paul N. (2001): Changing the Atmosphere: Expert Knowledge and Environmental Governance. Cambridge, MA: MIT Press Merton, Robert K. (1957): Science and Social Order. In: Robert K. Merton. Social Theory and Social Structure. Glencoe, IL: The Free Press. 537-549 Nowotny, Helga/Scott, Peter/Gibbons, Michael (2001): Rethinking Science. Cambridge: Polity Press Parson, Edward A. (2003): Protecting the Ozone Layer. Oxford: Oxford University Press Schimank, Uwe (1995): Für eine Erneuerung der institutionalistischen Wissenschaftssoziologie. In: Zeitschrift für Soziologie 24. 42-57 Schützenmeister, Falk (2008): Zwischen Problemorientierung und Disziplin. Ein koevolutionäres Modell der Wissenschaftsentwicklung, Bielefeld: Transcipt Sutton, John R. (1984): Organizational Autonomy and Professional Norms in Science. In: Social Studies of Science 14. 197-224 Weingart, Peter (1976): Paradigmastruktur und wissenschaftliche Gemeinschaft – das Problem wissenschaftlicher Entwicklung. In: Peter Weingart, Wissensproduktion und soziale Struktur. Frankfurt/M: Suhrkamp. 33-92 Weingart, Peter/Lentsch, Justus (2008): Wissen, Beraten, Entscheiden. Form und Funktion wissenschaftlicher Politikberatung in Deutschland. Weilerswist: Velbrück Whitley, Richard (1984): The Intellectual and Social Organization of the Sciences. Oxford: Clarendon Press
II. Klimaforschung
Simulation - Analyse der organisationellen Etablierungsbestrebungen der epistemischen Kultur des Simulierens am Beispiel der Klimamodellierung Gabriele Gramelsberger
Abbildung 1:
Berechnungsgitter von Lewis F. Richardson, 1922
„’Meteorology is a branch of physics,’ a weather expert remarked in 1939, ‘and physics makes use of two powerful tools: experiment and mathematics. The first of these tools is denied to the meteorologist and the second does not prove of much use to him in climatological problems.’ So many interrelated factors affected climate, he explained, that you couldn’t write it all down mathematically without making so many implifying assumptions that the result would never match reality. It wasn’t
Simulation
31
even possible to calculate from first principles the average temperature of a place, let alone how the temperature might change in future years. And ‘without numerical values our deductions are only opinions.’“ (Weart 2006)
1.
Die mühsamen Anfänge der Wetter- und Klimamodellierung
Als John von Neumann im Mai 1946 vor dem Mathematical Computing Advisory Panel des Navy Departments in Washington seinen Vortrag „On the Principles of Large Scale Computing Machines“ hielt, thematisierte er eines der größten Probleme der Natur- und Ingenieurswissenschaften jener Tage: Die Stagnation der analytischen Methode in zahlreichen Bereichen der Naturwissenschaften, die es mit nicht-linearen Wechselwirkungen in komplexen Systemen zu tun haben. Forschungs- und Anwendungsfeldern wie die Strömungs- und Hydrodynamik mangelte es an analytischen Lösungen der komplexen Gleichungssysteme.1 Als Alternative bot sich die numerische Simulation der komplexen Gleichungssysteme an. Doch der Mangel an Rechenkraft hatte zur Folge, dass nur stark vereinfachte Systeme von Hand berechnet werden konnten. Für die Meteorologie entsprachen diese einfachen Systeme jedoch in keiner Weise dem benötigten Komplexitätsgrad, so dass die Resignation der Meteorologen – „the result would never match reality“ (Weart 2006) – bis in die Mitte des 20. Jahrhunderts durchaus nachvollziehbar ist. Den „Beweis“ für die Unzulänglichkeit der mathematischen Praktiken erbrachte bereits in den 1920er Jahren der Mathematiker Lewis F. Richardson, als er für eine einfache Wetterlage den Abfall des Luftdruckes per Hand berechnen wollte. Dabei musste er nicht nur die Gleichungen stark vereinfachen, um sie überhaupt handhabbar zu machen, sondern er konnte die Berechnungen nur für ein sehr grob aufgelöstes Gitter an Berechnungspunkten ausführen (Abb. 1). Statt der gemessenen 1 hPa berechnete er einen vollkommen unrealistischen Druckabfall von 145 hPa (Richardson 1922, Lynch 1993). Dabei hatten ihn die Berechnungen per Hand sechs Wochen gekostet: „It took me the best part of six weeks,“ schrieb er später und entwickelte die Idee eines „Parallelrechners“ basierend auf 64.000 Computern, 1
„Our present analytical methods seem unsuitable for the solution of the important problems arising in connection with non-linear partial differential equations and, in fact, with virtually all types of non-linear problems in pure mathematics. The truth of this statement is particularly striking in the field of fluid dynamics. Only the most elementary problems have been solved analytically in this field. (…) In pure mathematics we need only look at the theories of partial differential and integral equations, while in applied mathematics we may refer to acoustics, electro-dynamics, and quantum-mechanics. The advance of analysis is, at the moment, stagnant along the entire front of non-linear problems“ (Goldstine/Neumann 1963: 2).
32
Gabriele Gramelsberger „to draw up the computing forms and to work out the new distribution in two vertical columns for the first time. (…) With practice the work of an average computer might go perhaps ten times faster. If the time-step were 3 hours, then 32 individuals could just compute two points so as to keep pace with the weather, if we allow nothing for the great gain in speed which is invariably noticed when a complicated operation is divided up into simpler parts, upon which individuals specialize. If the coordinate chequer were 200 km square in plan, there would be 3200 columns on the complete map of the globe. In the tropics, the weather is often foreknown, so that we may say 2000 active columns, so that 32x2000 = 64,000 computers would be needed to race the weather for the whole globe. That is a staggering figure (…)“ (Richardson 1922: 219).
Diese Idee eines automatisierten Parallelrechners bezog sich auf geübte, menschliche Rechner, die – ausgestattet mit mechanischen Rechenmaschinen wie dem Arithmometer2 oder Rechenschiebern – im Durchschnitt zehn Sekunden für die Multiplikation zweier achtstelliger Zahlen per Hand benötigten. Der zunehmende Rechenbedarf von Wissenschaft, Wirtschaft und Militär hatte im 19. und 20. Jahrhundert ein Heer menschlicher Computer in den Rechensälen der Institute und Unternehmen entstehen lassen, um Berechnungen und Prognosen zu erstellen.3 Dennoch genügten die menschlichen Rechenkapazitäten bei Weitem nicht, um komplexere Probleme zu bewältigen. Dieser Mangel an Rechenkraft sowie die hohe Fehlerquote in den Berechnungen erklären John von Neumanns Plädoyer für Large Scale Computing Machines ebenso wie die Anstrengungen von Konrad Zuse, John Atanasoff, Clifford Berry, Howard Aiken und anderen in den 1940er Jahren, automatische Rechenmaschinen zu bauen (vgl. Cenuzzi 1998, Ifrah 2001, Campbell-Kelly/Aspray 2004). Eine der ersten Anwendungen der neu erfundenen Computeranlagen waren numerische Wetterprognosen. „[Carl-Gustav, G.G.] Rossby, Vladimir Zworykin of RCA, and Weather Bureau Chief Francis Reichelderfer, had succeeded in convincing von Neumann that weather prediction was a good candidate for his computer“ (Phillips 2000: 15). Eine Forschergruppe um den Meteorologen Jules Charney konzipierte in Princeton ab 1948 ein numerisches Modell der Wettervorhersage zur Berechnung auf John von Neumann´s NORC Naval Ordinance 2
3
Der Arithmometer war die erste industriell gefertigte Rechenmaschine. Die Thomaswerkstätten in Colmar boten dieses Hilfsmittel ab 1820 an und hatten bereits bis Ende 1878 mehr als 1.500 Maschinen in Europa und den USA verkauft, die in den Rechensälen von Industrie, Militär und Wissenschaft zum Einsatz kamen. „Though many human computers toiled alone, the most influential worked in organised groups, which were sometimes called computing offices or computing laboratories. These groups form some of the earliest examples of a phenomenon known informally as ‚big sciences’, the combination of labor, capital, and machinery that undertakes the large problems of scientific research“ (Grier 2005: 5).
Simulation
33
Research Calculator.4 Das Modell basierte auf Vilhelm Bjerknes Ideen zur Berechnung der Klimadynamik. 1904 hatte Bjerknes in einem Artikel der Meteorologischen Zeitschrift „Das Problem der Wettervorhersage, betrachtet vom Standpunkt der Mechanik und der Physik“ beschrieben und damit die Grundlagen der Wetter- und Klimamodellierung gelegt (Bjekrnes 1904, vgl. Thorpe et al. 2003). Er ging davon aus, dass der Zustand der Atmosphäre zu einem beliebigen Zeitpunkt dann genügend bestimmt wäre, wenn an jedem Punkt der Atmosphäre die Geschwindigkeit, die Dichte, der Luftdruck, die Temperatur und die Feuchtigkeit der Luft berechnet werden können. Allerdings sprengten die daraus resultierenden Gleichungen die Möglichkeiten der analytischen Methode und können bis heute nur numerisch gelöst werden. Richardsons Berechnungen basierten ebenso auf Bjerknes Ansatz wie seit Charneys erstem Modell alle weiteren Wetter- und Klimamodelle bis heute. Wozu Richardson jedoch sechs Wochen Rechenzeit benötigte, lieferte NORC in wenigen Sekunden. John von Neumann schrieb dazu 1954: „We know today, mainly due to the work of J. Charney, that we can predict by calculation the weather over an area like that of the United States for a duration like 24 hours in a manner which, from the hydrodynamicist´s point of view, may be quite primitive because one need for this purpose only consider one level in the atmosphere, i.e. the mean motion of the atmosphere. We know that this gives results which are, by and large, as good as what an experienced “subjective” forecaster can achieve, and this is very respectable. This kind of calculation, from start to finish, would take about a half minute with NORC“ (Neumann 1963: 241).
Trotz dieser ersten Erfolge führten die geringe Leistungsfähigkeit der damaligen Rechner wie auch die Einfachheit der Modelle dazu, dass erst zehn Jahre später die Prognosen von der JNWP Joint Numerical Weather Prediction Group für hinreichend akzeptabel erachtet wurden, so dass sie an Wetterdienste ausgegeben werden konnten.5 4
5
Da dieser Computer 1950 noch nicht fertig gestellt war, wurde das erste Wettermodell auf ENIAC (Electronic Numerical Integrator and Computer) berechnet. „von Neumann obtained Reichelderfer´s help in securing use of the Army`s ENIAC computer at Aberdeen Maryland as a temporary expedient“ (Phillips 2000: 20). In Deutschland konnte sich die numerische Wetterprognose mangels Computer zu Beginn nur behelfsmäßig entwickeln. „They designed a baroclinic multilevel quasigeostrophic model for manual integration and first experiments with actual weather data were performed in 1952/1953. From 1953 to 1960 these activities were effectively supported by the Air Research and Development Command of the US-Air Forces; these projects enabled the employment of additional staff, the acquisition of more electro-mechanical desk calculators and later on renting of machine time. (…) In 1957 an IBM 704 became available in Paris; computing time costed about 1 DM/sec on this 8k-machine and our budget allowed only for a few hours per
34
Gabriele Gramelsberger
Während Wettermodelle Kurzfristprognosen berechnen, versuchen Klimamodelle langfristige Entwicklungen darzustellen und zu prognostizieren. Zeiträume von etlichen zehn bis hunderttausend Jahren sind die üblichen Zeitskalen der Klimamodelle, während heutige Wetterprognosen für fünf bis zehn Tage berechnet werden. Frühe Wettermodelle waren zudem regional und kontinental, sie berücksichtigten die Ozeane nicht. Doch bereits Mitte der 1950er Jahre begann die Entwicklung globaler Atmosphären-Zirkulationsmodelle mit Norman Phillips Modell. Phillips war Mitglied in Charneys Team in Princeton. 1955 wurde die General Circulation Research Section des U.S. Wetterbüros gegründet, deren Leiter, Joseph Smagorinsky, Syukuro Manabe mit der Entwicklung und Programmierung eines GCM Global Circulation Model beauftragte (vgl. Smagorinsky 1983, Manabe et al. 1965).6 Dreidimensionale AtmosphärenZirkulationsmodelle bilden bis heute den Kern der Klimamodelle In Folge der enorm gestiegenen Rechenkraft mit der Entwicklung elektronischer Computer – lag die Geschwindigkeit der ersten Großrechner bei einigen Millisekunden pro Rechenoperation, so verarbeiten heutige Supercomputer 280 Trillion Operation pro Sekunde – können zunehmend komplexere und höher aufgelöste Modelle immer genauer berechnet werden. Dabei zeigt sich der Zuwachs an Modellkomplexität in den umfangreicheren Parametrisierungen der Modelle, der Erweiterung der Atmosphärenmodelle durch Land-, Eis-, Ozean- und weiterer Modelle zu Erdsystemen sowie in den zunehmend komplexeren Kopplungen zwischen den einzelnen Modellen (Abb. 2). Heutige Wettermodelle können relativ verlässlich fünf bis sieben Tage in die Zukunft blicken und Klimamodelle berechnen mit großer Wahrscheinlichkeit bezüglich der unteren Grenze von zwei Grad die Erderwärmung bis 2100 bei Kohlendioxid-Verdoppelung.7 Die Entwicklung der Wetter- und Klimamodellierung lässt die kritischen Bemerkungen des anfangs zitierten Wetterexperten aus dem Jahr 1939 als überholt erscheinen. Möglich wurde dies durch verbesserte Modellierungsstrategien, Algorithmen, numerische Verfahren und Parametrisierungen, aber eben auch durch die wachsende Rechenkraft.
6 7
year. (…) Progress in NWP was in those times closely bounded by available computing facilities“ (Reiser 2000: 52). Parallel dazu entwickelte Yale Mintz (1958) von der University of California in Los Angeles ein weiteres Zirkulationsmodell. Einer der größten Unsicherheitsfaktoren in den Berechnungen des Klimawandels ist der nicht vorhersagbare Anstieg des Kohlendioxid-Ausstoßes in den nächsten Jahrzehnten. Wirtschaftswissenschaftler gehen von einer möglichen Steigerung bis 2100 um das Fünffache des aktuellen Ausstoßes aus.
Simulation Abbildung 2:
2.
35 Modellentwicklung seit den 1970er Jahren
Die epistemische Kultur des Simulierens
Computer wurden entwickelt, um die umfangreichen Berechnungen numerischer Simulationen durchzuführen. John von Neumanns Traum war es von Beginn an, den Computer als Experimentierinstrument zu nutzen. In Analogie zu den Experimenten in Windkanälen entwickelte er die Idee eines digitalen Windkanals: „It seems clear, however, that digital wind (in the Wiener – Caldwell terminology: counting) devices have more flexibility and more accuracy, and could be made much faster under present conditions. We believe, therefore, that it is now time to concentrate on effecting transition to such devices, and that this will increase the power of the approach in question to an unprecedented extent“ (Goldstine/Neumann 1963: 4).
36
Gabriele Gramelsberger
Der Transfer des Experimentellen ins Digitale ist jedoch keine einfache Übersetzung in ein anderes Medium. Damit verbunden sind methodische, epistemische und praktische Herausforderungen, die es in der zunehmenden Beherrschung des neuen Erkenntnisinstruments zu bewältigen gilt. Die Wetterprognose, aber vor allem die Klimamodellierung liefert hier ein Paradebeispiel. Nicht nur weil die numerischen Computerexperimente in diesen Bereichen den maßgeblichen Zugang zum Experimentellen darstellen, sondern weil sich mit der Einführung der numerischen Simulation die Organisation von Forschung erheblich verändert. Die epistemische Kultur des Simulierens, die in den 1950er Jahren mit den ersten numerischen Computerexperimenten der JNWP Joint Numerical Weather Prediction Group in Princeton ihren Anfang nahm, hat sich mit der rasanten Entwicklung der Rechner zunehmend in den Naturwissenschaften etabliert.8 Neben Theorie, Experiment, Beobachtung und Messung ist die Simulation mittlerweile ein gängiges Instrument wissenschaftlicher Erkenntnisproduktion. Deutlich wird diese Entwicklung an den weltweit, in den letzten zwei Jahrzehnten gegründeten Computational Departments der Physik, der Chemie und anderer Disziplinen sowie den Rechenzentren, ohne die Forschung nicht mehr denkbar wäre. Die epistemische Herausforderung der Simulation liegt in ihrem experimentellen Umgang mit Theorie. Simulationen sind Experimente mit mathematisierten Theorien und als solche unterscheiden sie sich von der klassischen, empirischen Konzeption wissenschaftlicher Erkenntnisproduktion. Werden Hypothesen und Prognosen im traditionellen Verständnis anhand von Experimenten überprüft, so ersetzen Simulationen mittlerweile Experimente. Damit transferieren sie die Überprüfung von Hypothesen und Prognosen ins Digitale beziehungsweise in die Sphäre des Theoretischen. Dies kann nur dann valide sein, wenn die zugrunde liegenden theoretischen Annahmen als hinreichend bestätigt gelten, wenn Vertrauen in die Adäquatheit ihrer mathematische Formulierung besteht und wenn verlässliche Messdaten für die Initialisierung und Evaluation zur Verfügung stehen. Im Falle der Klimamodellierung, die in Ermangelung realweltlicher Experimente theoretische Annahmen nur bedingt empirisch überprüfen kann, generiert die epistemische Kultur des Simulierens einen „semiotischen Zirkel“9, der 8
9
So neu ist die Kultur des Simulierens nicht, da bereits in den vorhergehenden Jahrhunderten für endliche Berechnungspunkte numerische Integrationen von Gleichungen vorgenommen wurden. Das „Neue“ ist jedoch mit der Nutzung elektronischer Rechner die schiere Quantität der Berechnungen und der damit einhergehende quantitative Umschlag zunehmend komplexer und hoch aufgelöster Berechnungen. Mit dem Konzept des „semiotischen Zirkels“ ist die Abgeschlossenheit von Theorie, Mathematik und Simulation im Semiotischen gemeint, ohne dass diese Abgeschlossenheit durch ein realweltliches Korrektiv durchbrochen wird.
Simulation
37
neue Praktiken des Evaluierens wissenschaftlicher Erkenntnisse erfordert. Diese Praktiken müssen sicherstellen, dass die Ergebnisse der digitalen Klimaexperimente nicht ins Virtuelle laufen oder, wie eingangs zitiert, dass die Deduktionen der Klimatologen nicht bloße „Meinungen“ darstellen. Das grundlegende Problem dieses Zirkels besteht darin, dass die ontologische Differenz von Forschung in Theorie und Experiment aufgehoben und dass damit das Realweltliche als Überprüfungskorrektiv wissenschaftlicher Erkenntnisproduktion eliminiert wird. Messdaten stellen zwar ebenfalls ein solches Korrektiv dar, allerdings sind Messdaten semiotische Indizes realweltlicher Vorgänge in Form numerischer Zustandsdaten, die, mangels definierter Experimentalbedingungen der Interpretation bedürfen. Nicht zuletzt durch die in Detektoren implementierte Software werden Messdaten zunehmend theoretisch aufgeladen (Sekundärdaten). Ohne Messdaten wären Simulationen jedoch fiktive Computerspiele; daher werden üblicherweise Messdaten zur Initialisierung von Simulationsläufen verwendet sowie zur Evaluation der Resultate. Um den wissenschaftlich relevanten Aussagegehalt der in silico Experimente zu gewährleisten, hat die Klimaforschung ein Repertoire an Evaluationsstrategien entwickelt, das – verglichen mit anderen Simulationswissenschaften – einzigartig ist. Es dokumentiert, wie sich der Umgang mit den Computerexperimenten in der Forschungspraxis standardisiert. Da sich die Simulationen im Numerischen vollziehen, liefern Computerexperimente keine wissenschaftlichen Aussagen, sondern numerische Zustandsdaten der simulierten Prozesse, analog den Messdaten realweltlicher Vorgänge. Damit wird eine weitreichende Konsequenz der epistemischen Kultur des Simulierens deutlich: Sie transformiert Aussagen über Fakten in Zustandsdaten und strukturiert Wissenschaft in eine Daten getrieben Wissenschaft um. Der Unterschied zwischen Aussagen (über Fakten) und Zustandsdaten (von Fakten) ist jedoch ein prinzipieller, insofern wissenschaftliche Aussagen mehr oder weniger generelle Aussagen über (gemittelte) Zustandsdaten sind. Das heißt eine Aussage, beispielsweise über das Faktum der Temperaturveränderung bei steigendem Kohlendioxid-Ausstoß, bedarf als Äquivalent der flächendeckenden Erfassung der Zustandsdaten, die im Falle der Temperaturveränderung als globales Mittel schließlich einen signifikanten Wert ergeben und die darüber getroffenen Aussagen be- oder widerlegen. Die Folge dieser Umstrukturierung von Wissenschaft in eine Daten getrieben Wissenschaft ist ein steigender Bedarf an in situ und in silico Daten.10
10
Dabei darf nicht vergessen werden, dass „Klima“ selbst ein generalisierendes Konstrukt von Wissenschaft ist und dass Zustandsdaten lediglich lokale Aussagen über das aktuelle Wetter generieren.
38 Abbildung 3:
Gabriele Gramelsberger Horizontale Auflösung des Berechnungsgitters für Klimasimulationen von T 42 (ca. 250 km) und T 106 (ca. 110 km).
Die „Auflösung“ von Aussagen in Zustandsdaten entspricht der Logik der numerischen Simulation. Denn Simulieren bedeutet nichts anderes, als in Ermangelung einer analytisch ableitbaren Aussage – im Falle der Klimatologie die exakte Lösungsfunktion eines komplexen Gleichungssystems wie das von Bjerknes zur Bestimmung des Zustandes der Atmosphäre zu jedem Zeitpunkt und an jedem Ort – diese durch ihre numerische Approximation zu ersetzen. Numerisch approximieren wiederum bedeutet das Gleichungssystem für eine endliche Anzahl von Berechnungspunkten durch numerische Einsetzungen Zeitschritt für Zeitschritt zu berechnen. Dabei wird angenommen, dass bei einer zunehmend feineren Auflösung des Berechnungsgitters die exakte Lösungsfunktion approximiert wird, die man jedoch nicht kennt (Abb. 3). Die Simulationswissenschaften unterliegen der paradoxen Situation, mit unbekannten Aussagen/Lösungen hantieren zu müssen, allein auf Basis der schieren Quantität ihrer numerischen Approximation. Die Quantität in Form von zunehmend höher aufgelösten Messungen und Berechnungen bestimmt nicht nur die praktischen Herausforderungen der epistemischen Kultur des Simulierens in Form immer leistungsfähigerer Rechner, Detektoren und Datenspeichern. Der Umgang mit den Quantitäten hat auch entscheidenden Einfluss auf die Praktiken des Evaluierens von Simulationsresultaten, da eben nicht die Adäquatheit von Aussagen, sondern von enormen Mengen einzelner Zustandsdaten überprüft werden muss. Aus der Validität der Resultate werden dann, im Rückgriff auf die semantischen Interpretationen der theoretischen Annahmen des Simulationsmodells, Aussagen und Prognosen abgeleitet. Simulationstypische Evaluationspraktiken sind beispielsweise die Assimilation von Referenzdatensätzen oder die adäquate Gestaltung des Settings der Computerexperimente. Referenzdatensätze werden in der Klimaforschung mit
Simulation
39
großem Aufwand erstellt, um Simulationsmodelle sowie Prognose weltweit zu „eichen“. Beispielsweise wurden in dem internationalen CEOP Coordinate Enhanced Observing Period Projekt der Datenzentren Hamburg, Tokio und Boulder über einen zweijährigen Zeitraum Simulations- und Beobachtungsdaten von über 40 Stationen und Zentren gesammelt und aufbereitet. Ziel war es, heterogene Daten zu analysieren und in einem koordinierten Datensatz aufzubereiten. Dieser Datensatz wurde in mehrjähriger Arbeit von den Forschergruppen in Hinblick auf relevante Fragestellungen (Monsun, Wasserkreislauf etc.) erstellt und anschließend der Community als Referenzdatensatz für Simulationsläufe zur Verfügung gestellt.11 Dabei galt es, die Daten simulationsgerecht aufzubereiten. Im Unterschied zu den räumlich und zeitlich heterogen verteilten Messdaten, benötigt die Initialisierung der Simulationsläufe homogen verteilte Daten in 12 oder 6 Stundenintervallen.12 Das CEOP Projekt lieferte u. a. „gridded output in both two- and three-dimensional formats processed as synoptic snapshots at a minimum of 6-hourly intervals.“13 Projekte wie CEOP gleichen die Verteilung der Messdaten durch Datenassimilation den quantitativen Erfordernissen der Simulation an. Dabei basiert die Datenassimilation auf heuristischen Praktiken. Vor allem in der numerischen Wettervorhersage, deren Resultate maßgeblich durch das Anfangswertproblem bestimmt sind, ist man von guten Referenzdatensätzen sowie aktuellen Daten abhängig. Bezüglich heterogen verteilter Messdaten spricht man hier vom „unterbestimmten Anfangswertproblem“, da beispielsweise über den Ozeanen große Messdatenlöcher klaffen. „Um die Unterbestimmtheit zu reduzieren, muß auf Zusatzinformationen zurückgegriffen werden. Im Prinzip muß unser Wissen über Zusammenhänge in der Atmosphäre bei der Festlegung des Anfangszustandes eingebracht werden. Diese Zusatzinformation ist sowohl statistischer als auch dynamischer Art. Wenn in Frankfurt z. B. eine Temperatur von 20° gemessen wird, ist dieser Wert auch für eine gewisse Umgebung wahrscheinlich. Wenn über den USA bei Westwind ein Gebiet kalter Luft beobachtet wird, kann man davon ausgehen, daß diese kalte Luft im Laufe der Zeit mit der Strömung in den Atlantik verlagert wird. Es wird also Information aus gut beobachteten Gebieten in datenleere Bereiche transportiert. Im Prinzip werden so Messungen von zurückliegenden 11
12
13
CEOB (http://www.ceop.net, letzter Aufruf: 25.03.2009). Weitere Referenzdatensätze sind beispielsweise die NCEP/NCAR Reanalysen. „The NCEP/NCAR Reanalysis Project is an effort to reanalyze historical data using state-of-the-art models.“ (http://dss.ucar.edu/pub/reanaly sis/rean_proj_des.html, letzter Aufruf: 25.03.2009) Klimasimulationen werden in 40, 20 oder 10 Minuten Schritten berechnet, allerdings werden die Ergebnisse meist in 12 oder 6 Stundenintervallen - entsprechend den weltweit koordinierten Zeitpunkten der Messdatenerhebung - „ausgeschrieben“ und gespeichert. CEOP Brochure (http://monsoon.t.u-tokyo.ac.jp/ceop/brochure/brochure.pdf, letzter Aufruf: 25.03.2009)
40
Gabriele Gramelsberger
Zeitpunkten für die Festlegung des augenblicklichen Zustandes mitbenutzt: Die zeitliche Dimension wird in die Definition des dreidimensionalen Anfangszustandes einbezogen. Die Grundaufgabe der vierdimensionalen Datenassimilation lautet somit: Aus unvollständigen und fehlerhaften Beobachtungen zusammen mit einer näherungsweisen Beschreibung der Atmosphäre mit Hilfe der prognostischen Modellgleichungen soll der wahrscheinliche augenblickliche Zustand der Atmosphäre analysiert, sowie der Fehler dieser Analyse bestimmt werden. Die Datenassimilation ist eine Aufgabe aus dem Bereich der inversen Probleme. Für nichtlineare Systeme - wie die Atmosphäre - ist sie noch ungelöst. Lediglich für lineare Systeme existiert eine Lösung in Form der Kalman-Bucy Filterung. Die operationell angewandten Verfahren der vierdimensionalen Datenassimilation beruhen auf zahlreichen Vereinfachungen, wie etwa Linearisierung einiger wichtiger Operationen und ad-hoc Spezifikation der erforderlichen Kovarianzmatrizen.“14 Eine weitere Evaluationspraktik ist die Gewährleistung eines adäquaten Settings der Computerexperimente, die eine gezielte Abstimmung der zeitlichen und räumlichen Auflösung der Simulation sowie der Überprüfung der Simulationsläufe durch höher aufgelöste Testläufe erfordert. Abhängig von der räumlichen Auflösung muss, gemäß den von-Neumannschen-Stabilitätsbedingungen, die zeitliche Auflösung der Simulationsläufe gewählt werden. Beispielsweise erfordert eine T 42 Auflösung von durchschnittlich 250 km Gitterabstand 20 Minuten Berechnungsschritte, eine T 63 Auflösung von ca. 180 km 10 Minuten Schritte. Bereits 1948 hatte John von Neumann den Zusammenhang zwischen räumlicher und zeitlicher Auflösung für Simulationen beschrieben, der für die Stabilität der Simulationsresultate entscheidend ist (vgl. Neumann/Richmyer 1963). Beispielsweise waren Richardsons Fehlberechnungen nicht zuletzt auf räumlich und zeitlich nicht abgestimmte Auflösungen zurückzuführen. Üblicherweise werden Simulationsläufe durch höher aufgelöste Testläufe evaluiert. Mathematisch gesehen dient die höhere Auflösung des Berechnungsgitters dazu, die Stabilität der Resultate – unter der mathematischen Annahme, dass je höher aufgelöst gerechnet wird, desto näher approximiert das Resultat die (unbekannte) exakte Lösung – zu prüfen. Diese praktische Überprüfung ersetzt den nicht existenten Beweis der stetigen Abhängigkeit der Lösungen von den Parametern, Anfangs- oder Randbedingungen, der aufgrund der Komplexität der Simulation nicht geleistet werden kann. Allerdings ist die Frage, ob sich die Resultate bei zunehmender Auflösung grundsätzlich stabil verhalten, also tatsächlich stetig gegen die (unbekannte) exakte Lösung konvergieren, damit nicht beantwortbar. Die Testläufe können hierfür nur ein Indiz liefern. 14
DWD Deutscher Wetterdienst (http://www.dwd.de/de/FundE/Analyse/Assimilation/Assimilati on.html, letzter Aufruf: 25.03.2009)
Simulation
41
Beide Evaluationspraktiken sind typisch für eine datengetriebene Wissenschaft, deren epistemische Kultur durch Approximation, Heuristiken und quantitative Effekte charakterisiert ist. Simulieren bedeutet mit Theorien (numerisch) zu experimentieren und diese Experimente visuell sichtbar zu machen. Insofern generieren Simulationen Bilder von Theorien, die wiederum Bilder der Welt sind. Dies erklärt auch die Faszination von Simulationen, die scheinbar ein Abbild der Welt generieren. Doch dieses „Abbild“ ist mit Vorsicht zu genießen, da es zum einen ein rein mathematisches, über Theorie vermitteltes Bild der Welt ist, zum anderen aufgrund seiner approximativen und heuristischen Generierung allenfalls ein Bild möglicher Weltzustände. Oder in anderen Worten: Simulationen produzieren per se unsicheres Wissen. Da sie jedoch die einzigen Erkenntnismedien sind, um komplexe Zusammenhänge wie das Klimageschehen darzustellen, bedarf es der Standardisierung und Professionalisierung des Umgangs mit diesen Erkenntnisinstrumenten.
3.
Organisationelle Etablierungsbestrebungen der Klimamodellierung
Wie bereits angedeutet nimmt die Klimamodellierung eine Vorreiterrolle in den simulierenden Wissenschaften ein. Dies hat sicherlich seine Gründe darin, dass für die Klimatologie die Simulation das maßgebliche, experimentelle Erkenntnisinstrument ist, dass der sozio-politische Druck von Außen, verbesserte Prognosen über das Klimageschehen zu liefern, sehr hoch ist und dass die Klimaforschung aufgrund ihres Forschungsgegenstandes hochgradig internationalisiert ist. Vor diesem Hintergrund werden seit einigen Jahren große Anstrengungen unternommen, den Umgang mit den Modellen und Simulationsläufen international verbindlich zu strukturieren. Als Indikatoren dieser Entwicklung lassen sich sechs Faktoren identifizieren, die die Organisation von Forschung in Simulationswissenschaften prototypisch charakterisieren: 1. IPCC als Motor der Modellentwicklung, 2. Ausdifferenzierung von Sub-Communities, 3. Modellaustausch und -distribution innerhalb der Community, 4. Etablierung einer internationalen Infrastruktur der Modellevaluation, 5. Standardisierung der Komponenteneinbettung (Erdsysteme) sowie 6. Professionalisierung der Programmierung .
3.1. IPCC als Motor der Modellentwicklung Mit der Gründung des IPCC Intergovernmental Panel on Climate Change 1988 durch das UNEP United Nations Environment Programme der Vereinten Natio-
42
Gabriele Gramelsberger
nen und der WMO World Meteorological Organization soll das Ziel verfolgt werden, „to assess scientific, technical and socio-economic information relevant for the understanding of climate change, its potential impacts and options for adaptation and mitigation.“15 Dazu wurden vier Arbeitsgruppen installiert, wobei sich die WG1 Working Group 1: The Physical Basis of Climate Change mit der Modellierung zukünftiger Szenarien befasst. Für die Berechnung der Szenarien des IPCC Assessment Reports von 2007 stellten 23 Zentren ihre Modelle, in der Regel gekoppelte AOCGM Atmosphere-Ocean General Circulation Models, zur Verfügung (vgl. IPCC 2007: 597-599).16 Dabei galt es zum einen die vom IPCC festgelegten Simulationsstandards einzuhalten, zum anderen die Modelle entsprechenden den Szenarien und neuesten Entwicklungen anzupassen. „Model improvements can, however, be grouped into three categories. First, the dynamical cores (advection, etc.) have been improved, and the horizontal and vertical resolutions of many models have been increased. Second, more processes have been incorporated into the models, in particular in the modelling of aerosols, and of land surface and sea ice processes. Third, the parametrizations of physical processes have been improved. (…) These various improvements, developed across the broader modelling community, are well represented in the climate models used in this report“ (IPCC 2007: 596).
Seit dem ersten Assessment Report 1990 hat sich damit das IPCC als Motor der Modellentwicklung mit einem fünf bis sechs Jahres Rhythmus etabliert: FAR First Assessment Report 1990, SAR Second Assessment Report 1996, TAR Third Assessment Report 2001 und AR4 Fourth Assessment Report 2007.17 Diese Synchronisation von Forschung ist einzigartig in den Wissenschaften. Institute, die IPCC Szenarien berechnen, durchlaufen einen international konzertierten Zyklus der Modellverbesserung, der Modellevaluation und schließlich der Szenarienberechnung und -publikation. Mit dieser Synchronisation wird die Vergleichbarkeit der Modelle, Simulationsbedingungen und Ergebnisse sichergestellt.
15 16 17
Intergovernmental Panel on Climate Change (IPCC) (http://www.ipcc.ch, letzter Aufruf: 25.03.2009) Darüber hinaus wurden acht EMIC System Models of Intermediate Complexity verwendet. Beispielsweise simulierte das Max Planck Institut für Meteorologie für AR4 achtzehn Szenarien mit seinem gekoppelten Atmosphären-Ozean Modell ECHAM/MPI-OM. Insgesamt wurden dazu allein im Jahr 2005 400.000 Rechnerstunden benötigt (vgl. Böttinger 2005).
Simulation
43
Abbildung 4:
Sub-Communities der numerischen Klimatologie
Modellierer
Nutzer Modelle
- Konstruktion: Modelle - Testläufe/Validierung - Experimente: Daten
- Modifikation der Modelle - Testläufe/Validierung - Experimente: Daten
Nutzer Daten - Analyse der Daten - Vergleich der Daten
3.2. Ausdifferenzierung von Sub-Communities Die Entwicklung von gekoppelten Atmosphären-Ozean Modellen, wie sie für die Berechnung der IPCC Szenarien 2007 verwendet wurden, geschieht in der Regel in eigens für die Klimaforschung gegründeten Zentren wie dem GDFL Geophysical Fluid Dynamics Laboratory in Princeton (GDFL-CM),18 dem MPIMet Max Planck Institut für Meteorologie in Hamburg (ECHAM/MPI-OM), dem IPSL Institut Pierre Simon Laplace in Paris (IPSL-CM), dem BCC Beijing Climate Centre in Beijing (BCC-CM) oder dem Hadley Centre for Climate Prediction in Exeter (UKMO-HadCM). Letztendlich ist es eine überschaubare Menge von Instituten und Modellen, die das Feld der Modellierer konstituieren. Der Grund liegt in dem enormen Aufwand, „große“ Modelle zu erstellen. Zirkulationsmodelle sind über mehrere Jahre bis Jahrzehnte gewachsene Softwarestrukturen, die in kollaborativer Arbeit entstehen. In ihnen finden Forschungskooperationen, Theoriedskurse sowie Aushandlungsprozesse ihren Niederschlag. Durch die aktuelle Entwicklung zu Erdsystemen mit Biosphäre, Ökosphäre und „Anthroposphäre“ wachsen Klimamodelle zu interdisziplinären Softwaresubstraten an und die Community der Modellierer vereint zunehmend 18
Die 1955 vom U.S. Weather Bureau gegründete und von Joseph Smagorinsky geleitete General Circulation Research Section wurde 1959 in General Circulation Research Laboratory umbenannt und 1963 in GDFL Geophysical Fluid Dynamics Laboratory, das seit 1968 an der Universität Princeton ansässig ist. Damit geht die Geschichte des GDFL bis auf John von Neumann und Jules Charney und deren erste numerische Wetterexperimente zurück.
44
Gabriele Gramelsberger
mehr Disziplinen in sich. Damit hat sich seit den ersten numerischen Wetterexperimenten von Jules Charney die Wetter- wie Klimaforschung in Modellierer, Modell-Nutzer und Daten-Nutzer differenziert. Modell-Nutzer verwenden bestehende Modelle, modifizieren sie und nutzen sie dann für ihre Experimente. Daten-Nutzer greifen auf die in silico und in situ Daten der Community zurück und analysieren diese auf spezifische Fragestellen hin. Diese Spezialisierung kann als ein Schritt auf dem Weg der Professionalisierung im Umgang mit den Modellen gewertet werden, aber auch als Monopolisierung von Forschung, vor allem im Bereich der großen Modelle.
3.3. Modellaustausch und -distribution (Communitymodelle) Um den Modell- und Daten-Nutzern den Zugang zu erleichtern, haben sich in den letzten Jahren internetbasierte Plattformen für „Communitymodelle“ herausgebildet. In Deutschland betreut und distribuiert die M&D Modelle & Daten Arbeitsgruppe in Hamburg die Modelle, in situ und in silico Daten für die Community der Klimaforscher.19 Diese, seit 2000 existierende Serviceeinrichtung erstellt Dokumentationsrichtlinien für Modelle und Experimente, entwickelt Kodierungsstandards für den Austausch von Daten zwischen verschiedenen Modellen, betreibt eine Datenbank mit aktuellen Modellen und Resultaten und bereitet klimatologische Daten für CERA Climate and Environmental Climate and Archive, eine semantische Datenbank für Modell- und Beobachtungsdaten, auf.20 Darüber hinaus beherbergt die M&D-Gruppe das WDCC World Data Center for Climate des ICSU International Council for Science, eines von insgesamt zwei deutschen Weltdatencentern: „The World Data Center (WDC) system was created to archive and distribute data collected from the observational programs of the 1957-1958 International Geophysical Year. Originally established in the United States, Europe, Russia, and Japan, the WDC system has since expanded to other countries and to new scientific disciplines. The WDC system now includes 52 Centers in 12 countries. Its holdings include a wide range of solar, geophysical, environmental, and human dimensions data. These data cover timescales ranging from seconds to millennia and they provide baseline information for research in many ICSU [International Council for 19
20
„Group's mission is to provide central support for the German and European climate research community. Emphasis is on development and implementation of best practice methods for Earth System modelling and related data management.“ M&D Arbeitsgruppe Modelle & Daten (http://www.mad.zmaw.de, letzter Aufruf: 25.03.2009) Für 2008 wird ein Speichervolumen der CERA Datenbank von rund 0,5 PetaByte erwartet. CERA Datenbank (http://cera-www.dkrz.de, letzter Aufruf: 25.03.2009)
Simulation
45
Science] disciplines, especially for monitoring changes in the geosphere and biosphere, gradual or sudden, foreseen or unexpected, natural or man-made.“21 Diese Modell- und Datenplattformen sind die neuen Publikationsforen der Scientific Community der Klimamodellierer. Mit diesen Foren werden die Modelle, die als codierte Theorie eine eigenständige Form der Publikation darstellen, distribuiert. Abbildung 5:
Modellvergleich, GRIPS Projekt
1
2 3 TOVS MA/CCM2 UCLA CMAM SKYHI GISS MRI/lrf MRI/clim FUB ARPEGE climate MA/ECHAM4 GSFC GEOS 2 UK UM LaRC IMPACT
5 7
Pressure (hPa)
10
20 30 50 70 100
200 300 500 700 1000
200 210 220 230 240 250 260 270 280 290 300 T(K)
21
WDC World Data Center (http://www.ngdc.noaa.gov/wdc/wdcmain.shtml, letzter Aufruf: 25.03.2009). ICSU International Council for Science (http://www.icsu.org, letzter Aufruf: 25.03.2009)
46
Gabriele Gramelsberger
3.4. Internationale Infrastruktur der Modellevaluation Mit der Synchronisierung der Klimamodellierung durch die IPCC-Reports wird auch eine internationale Infrastruktur der Modellevaluation etabliert. Dabei werden Modellvergleiche seit den 1980er Jahren immer wichtiger. Ein typisches Projekt ist GRIPS Intercomparison of Troposphere-Stratosphere General Circulation Models, das auf Initiative des WCRP World Climate Research Programms Ende der 1990er Jahre einen Vergleich von dreizehn Modellen durchführte.22 Dabei wurden die Zirkulationsmodelle unter definierten „Experimentalbedingungen“ miteinander verglichen und mit Referenzdatensätzen abgeglichen, um Abweichungen im Prognoseverhalten zu identifizieren. Ein weiterer, internationaler Modellvergleich wurde zwischen 1990 und 1996 in dem Projekt AMIP Atmospheric Model Intercomparison Project koordiniert.23 Seit einigen Jahren werden neben diesen Modellvergleichen auch Ensemble-Prognosen durchgeführt. Ensembleprognosen basieren auf hunderten von Simulationsläufen mit leicht veränderten Anfangswerten. Da die Modelle sensitiv auf die Initialisierung mit Anfangswerten reagieren, bedeutet eine leichte Variation der Anfangsbedingungen unter Umständen eine starke Variation der Resultate. Die Ensembleläufe sollen einen statistisch gemittelten Wert der Resultate liefern. Dabei zeichnet sich ab, dass die Prognosegüte des statistischen Mittels zahlreicher Simulationsläufe mit variierenden Anfangsbedingungen besser ist als die einzelner Simulationsläufe. Das Projekt ENSEMBLE etabliert auf europäischer Ebene ein Ensemble-Prognosesystem (2004-2009) mit dem Ziel: 22 23
GRIPS (http://www.atmosp.physics.utoronto.ca/SPARC/Initiatives/grips.html, letzter Aufruf: 25.03.2009); Vgl. Pawson, et al. (2000) „The Atmospheric Model Intercomparison Project (AMIP) is an international effort to determine the systematic climate errors of atmospheric models under realistic conditions, and calls for the simulation of the climate of the decade 1979-1988 using the observed monthlyaveraged distributions of sea-surface temperature and sea ice as boundary conditions. Organized by the Working Group on Numerical Experimentation (WGNE) as a contribution to the World Climate Research Programme, AMIP involves the international atmospheric modeling community in a major test and intercomparison of model performance; in addition to an agreed-to set of monthly-averaged output variables, each of the participating models will generate a daily history of state. These data will be stored and made available in standard format by the Program for Climate Model Diagnosis and Intercomparison (PCMDI) at the Lawrence Livermore National Laboratory. Following completion of the computational phase of AMIP in 1993, emphasis will shift to a series of diagnostic subprojects, now being planned, for the detailed examination of model performance and the simulation of specific physical processes and phenomena. AMIP offers an unprecedented opportunity for the comprehensive evaluation and validation of current atmospheric models, and is expected to provide valuable information for model improvement.“ (AMIP, http://www-pcmdi.llnl.gov/publications/PCMDIrept7/index.ht ml, letzter Aufruf: 25.03.2009)
Simulation
47
„The project aims to: develop an ensemble prediction system for climate change based on the principal state-of-the-art, high resolution, global and regional Earth System models developed in Europe, validated against quality controlled, high resolution gridded datasets for Europe, to produce for the first time, an objective probabilistic estimate of uncertainty in future climate at the seasonal to decadal and longer timescales.“24
Allerdings bedarf es für Ensemble-Prognosen ausreichender Ressourcen, da hunderte von Ensembleläufen durchgeführt werden. Seit kurzem wird daher auf Open Source Methoden zurückgegriffen. Ähnlich dem SETI@home Search for Extraterrestrial Intelligence Projekt, das im Mai 1999 von der Universität von Kalifornien in Berkeley gestartet wurde und die Rechenzeit privater Computer nutzt,25 plädiert das climateprediction.net der Universität Oxford an private PCNutzer, ihre Rechner für Ensembleprognosen zur Verfügung zu stellen. „The aim of climateprediction.net is to investigate the approximations that have to be made in state-of-the-art climate models (…) By running the model thousands of times (a 'large ensemble') we hope to find out how the model responds to slight tweaks to these approximations - slight enough to not make the approximations any less realistic. This will allow us to improve our understanding of how sensitive our models are to small changes and also to things like changes in carbon dioxide and the sulphur cycle. This will allow us to explore how climate may change in the next century under a wide range of different scenarios. In the past estimates of climate change have had to be made using one or, at best, a very small ensemble (tens rather than thousands!) of model runs. By using your computers, we will be able to improve our understanding of, and confidence in, climate change predictions more than would ever be possible using the supercomputers currently available to scientists.“26
Modellevaluationen und -vergleiche werten nicht nur die global gemittelten Resultate aus, sondern vergleichen die Wiedergabe regionale Effekte in den Modellen miteinander. Dabei soll analysiert werden, welchen Einfluss unterschiedliche Parametrisierungen haben, denn es sind gerade die Parametrisierungen, welche die Modelle voneinander unterschieden. Die Dynamik ist hingegen für alle Zirkulationsmodelle ähnlich.
24 25 26
ENSEMBLES (http://ensembles-eu.metoffice.com, letzter Aufruf : 25.03.2009) SETI@home (http://setiathome.ssl.berkeley.edu, letzter Aufruf : 25.03.2009) climateprediction.net (http://climateprediction.net, letzter Aufruf : 25.03.2009)
48
Gabriele Gramelsberger
3.5. Standardisierung der Komponenteneinbettung (Erdsysteme) Ein weiterer Faktor der Professionalisierung ist die Standardisierung der Komponenten. Die aktuelle Entwicklung hin zu Erdsystemen erfordert die Kopplung verschiedener Modelle, die in unterschiedlichen Instituten erstellt werden. Um die Kopplung der Komponenten und den Datenaustausch zwischen ihnen zu gewährleisten, bedarf es standardisierter Schnittstellen und SoftwareEinbettungen. Projekte wie Community Earth System Models (COSMOS) verknüpft verschiedene deutsche Teilmodelle zu einem gemeinsamen Erdsystem. Auf Europäischer Ebene etabliert das European Network for Earth System Modelling (ENES) mit dem Program for Integrated Earth System Modelling (PRISM) Projekt den Aufbau einer Infrastruktur für den Betrieb und Vergleich der verschiedenen, europäischen Modelle. Langfristig steht die Entwicklung eines europäischen Erdsystemmodells als Ziel auf der Agenda von ENES.27
3.6. Professionalisierung der Programmierung Schließlich spielt die Professionalisierung der Programmierung eine große Rolle, um den Umgang mit den Modellen und Simulationsläufen verbindlich zu strukturieren. Traditioneller Weise werden Klimamodelle in FORTRAN codiert, da diese mathematiknahe Computersprache Naturwissenschaftlern vertraut ist. Zwar wurde FORTRAN den neueren, objektorientierten Programmiersprachen angeglichen (FORTRAN90 und FORTRAN2003), doch die Anforderungen an die Software-Entwicklung sind in den letzten Jahrzehnten enorm gestiegen. Supercomputercluster, verteiltes Rechnen und Grid-Computing stellen eine komplexe und serviceintensive Infrastruktur dar. Die Diskrepanz zwischen dem wissenschaftlichen Programmierstil mit FORTRAN und den gestiegenen Anforderungen kumuliert aktuell in einer Software-Krise der Klimamodellierung: 'Im Zuge der Softwarekrise der 1970er Jahre wurde objektorientierte Programmierung (z. B. C++), Softwarekonzepte wie Wiederverwendbarkeit oder Kapseln eingeführt. Das ist in der Wissenschaft, zumindest in der Klimaforschung nur rudimentär angekommen. (…) Man muss das Software-Engineering professionalisieren (…) Das geht völlig problemfrei. Was man kapseln muss, ist nicht die Routine, die wissenschaftliche Rechnungen ausführt (z. B. Vertikaldiffusion oder allgemein Advektion), sondern die Verwaltung von Feldern, der Zeitsteuerung des Modells, der Parametrisierung. Am Ende entstehen Schnittstellen, an welchen man Programmteile
27
COSMOS (http://cosmos.enes.org, letzter Aufruf : 25.03.2009); ENES (http://www.enes.org, letzter Aufruf: 25.03.2009); PRISM (http://prism.enes.org, letzter Aufruf: 25.03.2009)
Simulation
49
einhängen kann, für die die benötigten Variablen geliefert und am Ende ausgeschrieben werden. Dafür gibt es Mechanismen, die einfach zu übersehen sind und die man benutzen kann. Und dann können die Wissenschaftler ihren Code einklinken.'28
Im Grunde geht es um die Einführung einer neuen Form der Arbeitsteilung in den simulierenden Wissenschaften zwischen Forschern und Programmierern. Allerdings liegt das Problem darin, dass Modelle codierte Theorie sind und jeder Einfluss auf den Code immer auch einen Einfluss auf die Darstellung der Theorie hat. Ist dieser Einfluss seitens der Programmierung durch die Wissenschaftler nicht mehr nachvollziehbar, gerät das Modell für die Wissenschaftler selber zur „Black Box“. Dies kann aus epistemischen Gründen jedoch nicht das Ziel der Professionalisierung von Programmierung sein. Daher zeichnet sich die Idee der Kapselung als zukunftsträchtige Strategie ab.
4.
Fazit: Simulationsmodelle - synoptische Theorieinstrumente
Es zeigt sich, dass Simulationen eine spezifische Organisation von Forschung zur Folge haben. Dabei ist zu beachten, dass die Klimaforschung mit ihrem globalen Forschungsobjekt eine besondere Stellung in den Wissenschaften einnimmt, die eventuell mit großangelegten Simulationsprojekten wie der geplanten eCell-Initiative oder dem kürzlich gestarteten Blue Brain Project vergleichbar ist.29 Nichtsdestotrotz setzt die Klimamodellierung bezüglich der Infrastruktur, Standardisierung und damit Professionalisierung des Umgangs mit Simulationen Maßstäbe, die sich auch andere Wissenschaftsbereiche zu nutze machen können. In Hinblick auf die Neuheit der Simulation als Instrument wissenschaftlicher Erkenntnisproduktion, lässt sich diese Entwicklung in der Klimamodellierung als zunehmende Etablierung der Simulation im Forschungsalltag deuten. Der Vergleich mit der Etablierung wissenschaftlicher Experimente im 17. Jahrhundert, wie sie Peter Dear beschreibt, liegt nahe: „There is no one independently given class of practises that naturally correspond to the lable „scientific experimentation“; there are many different practices, with their associated epistemological characterizations, that relate to experience and its place in the creation of natural knowledge. In the seventeenth century old practices chan28
29
Sinngemäße Wiedergabe eines Interviews, das im Rahmen des Forschungsprojekts „Computersimulationen – neue Instrumente der Wissensproduktion“ 2006 mit einem Klimamodellierer geführt wurde. Vgl. eCell-Initiative (http://www.e-cell.org, letzter Aufruf: 25.03.2009) sowie Blue Brain Project (http://bluebrain.epfl.ch, letzter Aufruf: 25.03.2009)
50
Gabriele Gramelsberger ged and new ones appeared. Those changing practises represent shifts in the meaning of experience itself – shifts in what people saw when they looked at the events in the natural world“ (Dear 1995: 12-13).30
Noch ist die Simulation weit davon entfernt, eine Methode zu sein, sondern vereint verschiedenste Simulationspraktiken und -strategien. Doch die Entwicklungen in der Klimamodellierung zeichnen bereits den Weg dorthin vor. Mit diesen neuen Praktiken der Wissensproduktion geht auch ein „shift in the meaning of experience itself“ einher. Im Falle der Simulation besteht dieser in der Fokussierung von Aspekten, die in der Analyse einzelner Faktoren bisher in der Forschung aus dem Blickwinkel gerieten. Simulationen sind Erkenntnisinstrumente, die eine Vielzahl einzelner theoretischer Annahmen zu einem komplexen Ganzen verbinden.31 In Form codierter Theorie ist der Stand der Forschung einer oder mehrerer Disziplinen in den Modellen inkorporiert. Vor allem die Wechselwirkungsverhältnisse zwischen den verschiedenen Theorieannahmen des Modells charakterisieren den Erkenntniswert der Simulation als synoptisches Theorieinstrument. Jede Änderung in diesem komplexen „Ganzen“ bedeutet, eine neue Interpretation des simulierten Geschehens zu liefern. Daher gilt es, jede einzelne Änderung zu dokumentieren und experimentell in Simulationsläufen zu überprüfen. Als synoptisches Theorieinstrument verbindet die Simulation nicht nur eine Vielzahl theoretischer Annahmen zu einem komplexen Ganzen, sondern sie verknüpft auch in neuer Weise Theorie, Experiment und Messung miteinander. Die Erprobung des Umgangs mit diesem neuen Instrument der Wissensproduktion lässt sich aktuell in den simulierenden Wissenschaften beobachten.
30
31
„Singular, unusual events were of course noticed and reported, but they were not, by definition, revealing of how nature behaves “always or for the most part”, as Aristotle said; instead, they might be classified as “monsters” or even “miracles”“ (Dear, 1995: 14). Dabei repräsentiert die Simulation als komplexes Ganzes jedoch nie die Gesamtheit des zu simulierenden Geschehens. Simulationen sind prinzipiell nie abgeschlossen.
Simulation
51
Literatur Bjerknes, Vilhelm (1904): Das Problem der Wettervorhersage, betrachtet vom Standpunkt der Mechanik und der Physik. In: Meteorologische Zeitschrift 21. 1-17 Böttinger, Michael (2005): Klimaprognosen, Daten und Visualisierung. Tätigkeitsbericht 2005. Max-Planck-Gesellschaft. http://www.mpg.de/bilderBerichteDokumente/dok umentation/jahrbuch/2005/dkrz/forschungsSchwerpunkt/pdf.pdf, letzter Aufruf: 25.03.2009 Campbell-Kelly, Martin/Aspray, William (2004): Computer. A History of the Information Machine. Jackson, TN: Westview Press Ceruzzi, Paul E. (1998): A History of Modern Computing. Cambridge, MA: MIT Press Dear, Peter (1995): Disciplines & Experience. The Mathematical Way in the Scientific Revolution. Chicago: University of Chicago Press Goldstine, Herman H./Neumann, John von (1963): On the Principles of Large Scale Computing Machines (May 1946). In: Taub (1963): 1-32 Grier, David A. (2005): When Computers Were Human. Princeton: Princeton University Press Ifrah, Georges (2001): The Universal History of Computing: From the Abacus to the Quantum Computer. New York: J Wiley & Sons, Inc. IPCC (2007): Climate Change 2007: The Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change [Solomon, S., D. Qin, M. Manning, Z. Chen, M. Marquis, K.B. Averyt, M. Tignor and H.L. Miller (Hrsg.)]. Cambridge: Cambridge University Press IPCC (2007): Climate Models and their Evaluation. In: IPCC (2007): 589-663 http://ipcc-wg1.ucar.edu/wg1/Report/AR4WG1_Print_Ch08.pdf, letzter Aufruf: 25.03.2009 Lynch, Peter (1993): Richardson’s Forecast Factory: the $64.000 Question. In: The Meteorological Magazine 122. 69-70 Lynch, Peter (1999): Richardsons Marvellous Forcast. In: Shapiro/Gronas (1999): 61-73 Manabe, Shukuro/Smagorinsky, Joseph/ Strickler, Robert F. (1965): Simulated Climatology of General Circulation with a Hydrologic Cycle. In: Monthly Weather Review 93. 769-798 Mintz, Yale (1958): Design of Some Numerical General Circulation Experiments. In: Bulletin of the Research Council of Israel 76. 67-114 Neumann, John von (1963): The NORC and Problems in High Speed Computing. In: Taub (1963): 238-247 Neumann, John von/Richmyer, R. D. (1963): On the Numerical Solution of Partial Differential Equations of Parabolic Type. In: Taub (1963): 664-712 Pawson, Steven et al. (2000): The GCM-Reality Intercomparison Project for SPARC (GRIPS). Scientific Issues and Initial Results. In: Bulletin of the American Meteorological Society 81. 781-796 Phillips, Norman A. (2000): The Start of Numerical Weather Prediction in the United States. In: Spekat (2000): 13-28
52
Gabriele Gramelsberger
Reiser, Heinz (2000): Development of NWP in the Deutscher Wetterdienst, in: Spekat (2000): 51-80 Richardson, Lewis F. (1922): Weather Prediction by Numerical Process. Cambridge Shapiro, Melvin A./Gronas, Sigbjörn (Hrsg.) (1999): The Life Cycles of Extratropical Cyclones. Boston: American Meteorological Society Smagorinsky, Joseph (1983): The Beginnings of Numerical Weather Prediction and General Circulation Modeling. Early Recollections. In: Advances in Geophysics 25. 3-37 Spekat, Arne (Hrsg.) (2000): 50 Years Numerical Weather Prediction. Berlin: Deutsche Meteorologische Gesellschaft Taub, Abraham H. (Hrsg.) (1963): John von Neumann: Collected works. Bd. V: Design of Computers, Theory of Automata and Numerical Analysis. Oxford (u. a.): Pergamon Press Thorpe, Alan. J./Volkert, Hans/Ziemianski, Michal (2003): The Bjerknes Circulation Theorem. In: BAMS. April 2003. 471-480 Weart, Spencer (2006): The Discovery of Global Warming: Simple Models of Climate. http://www.aip.org/history/climate, letzter Aufruf: 25.03.2009
Abbildungsverzeichnis Abbildung 1: Berechnungsgitter von Lewis R. Richardson, 1992. In: Lynch, P. (1999): Richardsons Marvellous Forcast. In: Shapiro, Melvin A./Gronas, Sigbjörn (Hrsg.) (1999): The Life Cycles of Extratropical Cyclones. Boston: American Meteorological Society. 61-73: 68 Abbildung 2: Modellentwicklung seit den 1970er Jahren. In: Climate Change 2001: Working Group I: The Scientific Basis, 2001 http://www.grida.no/publications/other/ipcc_tar/?src=/CLIMATE/IPCC_TAR/WG 1/index.htm, letzter Aufruf: 16.12.2008 (Grafik nachgearbeitet) Abbildung 3: Horizontale Auflösung des Berechnungsgitters für Klimasimulationen von T 42 (ca. 250 km) und T 106 (ca. 110 km). In: Merkel, Ute (2003): ENSO Teleconnections in High Resolution AGCM Experiments. Dissertation an der Universität Hamburg. Hamburg. 8 http://deposit.d-nb.de/cgi-bin/dokserv?idn=969789653&dok_var=d1&dok_ext=pdf &filename=969789653.pdf, letzter Aufruf: 16.03.2009 Abbildung 4: Sub-Communities der numerischen Klimatologie. In: Gramelsberger, Gabriele (2007): Computerexperimente in der Klimaforschung, Zwischenbericht zum Forschungsprojekt „Computersimulationen - Neue Instrumente der Wissensproduktion“. FU Berlin/BBAW Berlin. März 2007. 5 Abbildung 5: Modellvergleich, GRIPS-Projekt. http://service.gmx.net/de/cgi/derefer?TYPE=3&DEST=http%3A%2F%2Fwww.at mosp.physics.utoronto.ca%2FSPARC%2FBrochure2001%2FModelling%2FModell ingGRIPSFig1.jpg, letzter Aufruf: 16.03.2009
Organisation in Verbundprojekten: Konzeptionelle Darstellung anhand der Projekte ENIGMA und BALTIMOS aus dem Bereich der Klimaforschung Daniela Jacob
1.
Einleitung
Forschung findet selten isoliert statt, und Forschungskooperationen sind häufig der Schlüssel für Innovation. Insbesondere in der Klimaforschung ist dies offensichtlich. Für die Erforschung des Klimasystems, das verschiedene Komponenten wie die Atmosphäre, den Ozean und die Landoberflächen mit allen ihren internen Abläufen und Wechselwirkungen umfasst, erscheint es nur natürlich, in interdisziplinären Forschungsverbünden organisiert zu sein. In den letzten Jahrzehnten wurde somit das Instrument des Verbundprojektes in der Klimaforschung international und national immer populärer. Im Folgenden werden mögliche Strukturen von Verbundprojekten an drei Beispielen dargestellt: ENIGMA mit starkem Netzwerkcharakter, das Projekt BALTIMOS, ein Forschungsverbund innerhalb des BMBF Förderprogramms DEKLIM und das EU-Projekt CLAVIER.
2.
ENIGMA
Im Jahr 2006 wurde ENIGMA (Earth System Network of Integrated Modelling and Assessment) als gemeinsame Initiative dreier Institute der Max-PlanckGesellschaft und des Potsdamer Instituts für Klimafolgenforschung (PIK) gegründet. Das Max-Planck-Institut (MPI) für Biogeochemie in Jena, das MPI für Chemie in Mainz und das MPI für Meteorologie in Hamburg, sowie das PIK schlossen sich zu einem Netzwerk zusammen, um Kommunikation, Kooperation und gemeinsame Entwicklungen im Bereich der Erdsystemforschung zu unterstützen. Wesentliche Arbeitsschwerpunkte liegen auf den folgenden Gebieten (siehe auch http://enigma.zmaw.de/): Landnutzung, Biosphäre und das Erdsystem Klimamodule für Ökonomische Optimierung Aerosole und der Wasserkreislauf
54
Daniela Jacob Methanveränderungen seit der Industrialisierung Stickstoff-Kohlenstoffkreisläufe Millennium Simulation Kohlendioxid im Holozän Eiszeitzyklen
Die Motivation und die Forschungsstrategie für ENIGMA von 2006 bis 2011 sind in einer Projektbeschreibung zusammengefasst (ENIGMA Proposal for a multi-institutional consortium1), in der auch die Partnerinstitute näher beschrieben werden. Das ENIGMA Team setzt sich aus Wissenschaftlern der 4 beteiligten Institute und einem Team-Koordinator zusammen. Begleitet wird ENGIMA von einem Steuerungsgremium (Steering Committee), in dem 5 Direktoren der Institute und der Team-Koordinator sitzen (Abbildung 1). ENIGMA hat sehr enge Kooperationen zum Deutschen Klimarechenzentrum (DKRZ) und der Gruppe Modelle und Daten (M&D). Einmal pro Jahr findet eine ENIGMA Jahrestagung statt, an der alle in ENGIMA vernetzten Wissenschaftler teilnehmen. Dazwischen gibt es regen Austausch auf Workshops, die auf Forschungsthemen bezogen sind und in unregelmäßigen Abständen durchgeführt werden. ENIGMA ist eingebettet in die Partnerschaft Erdsystemforschung. Es handelt sich dabei um den Verbund der Max-Planck-Institute, die sich der Erdsystemforschung widmen, wobei zusätzliche Beiträge von mehreren Max-Plancksowie anderen Instituten mit aufgenommen werden. Erdsystemforschung ist die Wissenschaft des Globalen Wandels, ob natürlich oder vom Menschen gemacht. Erdsystemforschung erfordert die Verschmelzung früher getrennter wissenschaftlicher Disziplinen sowie das Erkennen der Erde als ein System miteinander wechselwirkender Kompartimente. Messungen vor Ort, Satellitenfernerkundung sowie numerisches Modellieren sind die Grundpfeiler der Erdsystemforschung und haben in den zurückliegenden Jahren sehr große Fortschritte erfahren.
1
http://enigma.zmaw.de/fileadmin/user_upload/enigma/documents/ENIGMA_v6_mh_ formatted.pdf, letzter Zugriff 16.03.2009
Organisation in Verbundprojekten
Abbildung 1:
55
Organisationsstruktur ENIGMA aus ENIGMA Managementplan DKRZ
Steering Committee
M&D
ENIGMA Team
MPI-M
MPI-C
PIK
MPI-B ENIGMA Team Coordinator
In den letzten Jahrzehnten des 20. Jahrhunderts hat sich eine fundamentale Wende im Denkansatz der Wissenschaften von der Erde vollzogen. Bis dahin hatten die einzelnen Komponenten des Erdsystems im Vordergrund wissenschaftlichen Interesses gestanden und waren von getrennten Disziplinen erforscht worden: die Ozeane von der Meereskunde, die Atmosphäre von der Meteorologie und Klimaforschung, die feste Erde von Geologie, Geochemie und Geophysik, und so weiter. Nur die Geographie war schon länger eher interdisziplinär. Auch die vom Menschen verursachten Umweltprobleme wurden
56
Daniela Jacob
isoliert betrachtet, z. B. Luftbelastung, Wasserverschmutzung, Ozonloch, Klimawandel. Veränderungen in einzelnen Komponenten des Erdsystems (Abbildung 2) können jedoch durch ihre Fern- und Rückwirkungsprozesse das gesamte System beeinflussen und müssen mit erforscht werden. Der Systemcharakter steht deutlich im Vordergrund, und der Wandel der Klimaforschung hin zur Erdsystemforschung erscheint ganz natürlich. Abbildung 2:
Das Erdsystem und seine Wechselwirkungen
Weitere detaillierte Informationen zur Partnerschaft Erdsystemforschung findet man unter „http://enigma.zmaw.de“. Hierzu gehört auch die klare Beschreibung der Standbeine, die die Komplexität der Prozesse auf ihren unterschiedlichen Raum- und Zeitskalen verdeutlicht. Notwendig sind Messungen und Experimente vor Ort, die Erfassung großräumiger Strukturen durch Fernerkundung und die numerische Modellierung als fundamentales Werkzeug zur Erfassung der Zusammenhänge. In diese Bereiche (Erdsystembeobachtung, Experimentelle Erforschung von Prozessen im Erdsystem und Modellierung des Erdsystems) gliedern sich dann auch wieder die Forschungsaufgaben in der Partnerschaft Erdsystemforschung, die dann z. B. im Verbundprojekt ENIGMA durchgeführt werden. Die Partnerschaft Erdsystemforschung ist aber auch in die internationale Forschergemeinschaft in diesem wissenschaftlichen Gebiet eng integriert. Die
Organisation in Verbundprojekten
57
bestehenden Großprogramme Word Climate Research Programme (WCRP), International Geosphere-Biosphere Programme (IGBP), International Human Dimensions Programme (IHDP) und Diversitas sind in der Earth System Science Partnership (ESSP) zusammengeschlossen. Direktoren und wissenschaftliche Mitarbeiter aus den Instituten der Partnerschaft Erdsystemforschung arbeiten in diesen Programmen als Chairmen, Mitglieder der Scientific Steering Committees und Chairmen von Kernprojekten mit. Dadurch nehmen sie gestaltenden Einfluss auf die internationale Entwicklung dieser Programme. Weiterhin spielen sie eine leitende Rolle bei einer großen Anzahl von europäischen Forschungsprojekten. Sie leisten ebenfalls wichtige Beiträge zu den periodischen Stellungnahmen des Zwischenstaatlichen Ausschusses zur Klimaveränderung (IPCC). Langfristiges Ziel dieser Forschung ist es, ein Verständnis des Erdsystems zu entwickeln, das es uns erlaubt, die Veränderungen in der Welt um uns herum zu begreifen und informiert zu handeln. Nur so lässt sich herausfinden, welche politischen und wirtschaftlichen Maßnahmen zum Schutz des Erdsystems dringend und kritisch sind, und wie die natürlichen Ressourcen unseres Planeten optimal und nachhaltig genutzt werden können. Ein solides wissenschaftliches Verständnis der Zusammenhänge im Erdsystem ist auch die grundlegende Voraussetzung dafür, um Politik und Gesellschaft von schwierigen und einschneidenden Maßnahmen zu überzeugen, wie es etwa eine drastische Reduzierung der CO2-Emissionen wäre. Gleichzeitig müssen technologische und ökonomische Alternativen entwickelt werden, wozu die Zusammenarbeit mit anderen Forschungseinrichtungen gesucht wird. Diese Alternativen werden ebenfalls Auswirkungen auf das Erdsystem haben, die nur mit Hilfe von Erdsystemmodellen erforscht werden können (ESRP Report2).
3.
BALTIMOS
Ein Verbundprojekt ganz anderer Natur ist BALTIMOS (Entwicklung und Validierung eines gekoppelten Modellsystems in der Ostseeregion), das als Beitrag zum Deutschen Klimaforschungsprogramm (DEKLIM) vom Bundesministerium für Bildung und Forschung (BMBF) von 2001 bis 2005 finanziert wurde. In diesem Verbund wurde ein vollständig gekoppeltes Modellsystem aus bereits existierenden Modellkomponenten für die Atmosphäre (REMO), für die Ostsee und das Meereis (BSIOM), für die Hydrologie (LARSIM) sowie die Inlandseen und die Vegetation entwickelt. Die detaillierte Validierung dieses 2
http://enigma.zmaw.de/fileadmin/user_upload/enigma/documents/ESRP_booklet.pdf, Aufruf: 25.03.2009
letzter
58
Daniela Jacob
gekoppelten Modellsystems, das das gesamte Ostsee-Einzugsgebiet überdeckt, mit Beobachtungen aus einem Zeitraum von etwa einer Dekade ist eine notwendige Voraussetzung, um den Wasser- und Energiehaushalt unter heutigen und veränderten Klimabedingungen zu bestimmen. Der Schwerpunkt der Validierung lag auf dem Vergleich von simulierten Wasserhaushaltskomponenten mit einer Vielzahl verschiedener Beobachtungen, die sowohl in situ Messungen als auch boden- und satellitengestützte Fernerkundungsmethoden beinhalten. Das Modellsystem BALTIMOS für das Ostsee-Einzugsgebiet ist ein notwendiges und wertvolles Werkzeug, um die innerhalb der Forschungsprogramme WCRP/GEWEX/BALTEX existierenden Ziele zu erreichen. Eine wesentliche Aufgabe des BALTic Sea EXperimentes (BALTEX) ist es, den Wasser- und Energiehaushalt im Ostsee-Einzugsgebiet zu bestimmen, diejenigen Prozesse zu identifizieren und zu verstehen, welche die Wasser- und Energiekreisläufe beeinflussen, und Grundlagen zu schaffen für die Simulation dieser Kreisläufe in einem zukünftigen Klima. Während der letzten Jahre wurden hierfür neben der Durchführung von Prozessstudien hochauflösende ungekoppelte Modelle für die Atmosphäre, die Ostsee und die hydrologischen Prozesse entwickelt und erfolgreich eingesetzt, wie zahlreiche Vergleiche mit Beobachtungen zeigen. Auf Grund der hohen horizontalen Auflösung der verwendeten Modelle und der daraus resultierenden Detailinformation sind die Modelle auch für Klimaänderungsstudien und Klimafolgenforschung im Lebensraum Ostsee geeignet. Allerdings konnten nicht alle Teile der Wasser- und Energiebilanzen ausreichend bestimmt werden. So fehlt z. B. die genaue Bestimmung der Jahresgänge von Niederschlag und Verdunstung über den Wasserflächen der Ostsee, welche die Süßwasserbilanz der Ostsee maßgeblich bestimmen. Ein Grund hierfür ist, dass Teilaspekte der Kreisläufe separat in den betreffenden Wissenschaftsdisziplinen untersucht wurden: z. B. die atmosphärische Wasserbilanz in der Meteorologie und die Verdunstung der Ostsee in der Ozeanographie sowie der Abfluss in die Ostsee in der Hydrologie. Das Besondere in diesem Verbund ist die Zusammenarbeit verschiedener Wissenschaftsdisziplinen, die gemeinsam die Wasser- und Energiehaushalte im Ostseeraum studieren. Die folgenden neun Partnerinstitutionen, die sehr enge Zusammenarbeit mit zahlreichen Arbeitstreffen und Austausch von Mitarbeitern pflegten, gehören zum BALTIMOS- Verbund. Ihre Vernetzung und Aufgaben sind in Abbildung 3 erkennbar: Dr. Daniela Jacob (Koordinatorin), MPI-M, Hamburg Dr. Karl-Gerd Richter, Ing.-Büro Dr.-Ing. K. Ludwig, Karlsruhe Prof. Dr.-Ing. Günter W. Hein, Universität der Bundeswehr, München
Organisation in Verbundprojekten
59
Prof. Dr. Thomas Hauf, Institut für Met. und Klimatologie, Universität Hannover Dr. Eberhard Reimer, Institut für Meteorologie, FU Berlin Prof. Dr. Jürgen Fischer, Institut für Weltraumwissenschaften, FU Berlin Dr. Ralf Bennartz, Institut für Weltraumwissenschaften, FU Berlin Prof. Dr. Burghard Brümmer, Meteorologisches Institut, Universität Hamburg Prof. Dr. Clemens Simmer, Meteorologisches Institut, Universität Bonn Abbildung 3:
Vernetzung innerhalb des DEKLIM-Verbundes BALTIMOS
Vernetzung der Teilprojekte mit dem Gesamtsystem Großräumige Antriebe Globalmodelldaten (MPlfM)
ECMWF-Analysen (MIUB)
Wasserdampf (IFEN, FUB-WeW)
Wolkenparameter (FUB-WeW)
Hydrologischer Zyklus (MPlfM)
Klimamodellsystem BALTIMOS Niederschlag (IMUK-UH, FUB-WeW)
Atmosphärenmodell REMO Niederschlagsmessung (Verbundprojekt Grassl)
Seeeis
Inlandseen
Böden Vegetation
Atmosphärische Standardgrößen (MIUHH)
Bodenparameter: Eis, Schnee, NDVI, LAI (FUB-lfM)
Ostseemodell BSMO
Ostsee - BALTEX (Verbundprojekt Lehmann)
Hydrologiemodell LARSIM
Bodenparameter: Temperatur, Feuchte (MIUB)
Wasserbilanzen (IBL)
Ihre Aufgaben erstreckten sich von der direkten Modellkopplung (2 Partner) über die Erfassung und Aufbereitung von Beobachtungen bis zur Modelvalidierung (7 Partner). Diese ist notwendig, um die Güte des Modelsystems abzu-
60
Daniela Jacob
schätzen. Sie wurde innerhalb BALTIMOS unabhängig von der Modellentwicklung durchgeführt. Eine Validierungsstrategie, die konzeptionell auch auf andere Modelle übertragen werden kann, wurde entwickelt. Am Ende der Projektlaufzeit steht nun ein Instrument zur Verfügung, mit dem der Lebensraum Ostsee und seine gegebenenfalls zu erwartenden Veränderungen unter Klimaänderungen detailliert untersucht werden können. BALTIMOS leistet einen wertvollen Beitrag zu den internationalen Forschungsprogrammen WCRP/GEWEX/BALTEX. Hierfür wurde besonderes Augenmerk auf die BALTEX/BRIDGE-Phase gelegt, die als exemplarische Intensivmessphase angesehen werden kann. Ihre Einordnung in langjährige Zeitreihen liefert wertvolle Aussagen über die mittleren und extremen Zustände im Ostseeraum. Diese Arbeiten laufen auch jetzt noch weiter und sind als Beiträge zu BALTEXPhase 2 von internationaler Bedeutung. Auch national wurde mit BALTIMOS der erste Schritt von einem reinen atmosphärischen regionalen Klimamodell (RCM) zu einen regional gekoppelten Klimamodellsystem gemacht. Der Ausbau von BALTIMOS zu einem regionalen Systemmodell (RSM) ist nun innerhalb CLISAP geplant. CLISAP ist die Exzellenzinitiative am Exzellenzzentrum KlimaCampus Hamburg und befasst sich mit den aktuellen Fragen des Klimawandels, der Vorhersagbarkeit des Klimas und den möglicher Folgen eines Klimawandels. Der geographische Schwerpunkt liegt auf Nordeuropa. Innerhalb CLISAP soll BALTIMOS für die Vorhersage biologischer Prozesse weiterentwickelt werden, um zukünftige Zustände des Ostseeökosystems und ihre möglichen Veränderungen im Rahmen des Klimawandels analysieren zu können.
4.
CLAVIER
Das CLAVIER (Climate Change and Variability: Impact on Central and Eastern Europe, www.clavier-eu.org) Projekt läuft seit dem 1. September 2006 und wird vom „6th Framework Programme“ der Europäischen Kommission finanziert. Die mittel- und osteuropäischen Staaten (MOEs) werden mit drei Herausforderungen konfrontiert, nämlich dem derzeit stattfindenden wirtschaftlichen und politischen Wandel, der Anfälligkeit gegenüber Umweltrisiken und langfristigen Auswirkungen des globalen Klimawandels. Das Ziel von CLAVIER ist es, einen Beitrag dazu zu leisten, dass diesen Herausforderungen erfolgreich begegnet werden kann. Repräsentativ werden drei mittel- und osteuropäische Staaten - Ungarn, Rumänien und Bulgarien - genauer untersucht.
Organisation in Verbundprojekten
61
Die wissenschaftlichen Ziele von CLAVIER sind im Folgenden: 1. 2.
3.
Untersuchung des stattfindenden und zukünftigen Klimawandels und dessen Unsicherheiten in den mittel- und osteuropäischen Staaten (MOEs). Analyse des möglichen Einflusses des Klimawandels in den MOEs auf das Wettergeschehen und auf Extreme, Luftverschmutzung, Gesundheit, Ökosysteme, Forstwirtschaft, Landwirtschaft und Infrastruktur, sowie auf die Wasserversorgung. Schätzung des Einflusses des Klimawandels auf die Ökonomie der MOEs, mit dem Schwerpunkt auf den vier Wirtschaftssektoren Landwirtschaft, Tourismus, Energieversorgung und öffentlichem Dienst.
Um die Projektziele zu erreichen, ist CLAVIER in mehrere Teilbereiche aufgeteilt, die in 7 wissenschaftlichen Arbeitspaketen („work packages“, WP) bearbeitet werden. Um den derzeitigen und den zukünftigen Klimawandel in den MOEs untersuchen zu können, wird CLAVIER zuverlässige Szenarien für die Entwicklung des Klimas in der ersten Hälfte des 21. Jahrhunderts zur Verfügung stellen (WP1). Diese Aufgabe beinhaltet nicht nur die Auswertung bereits existierender Klimaszenarien für die Region, sondern auch die Validierung und Verbesserung der regionalen Klimamodelle, die Durchführung regionaler Klimasimulationen, und die detaillierte Abschätzung ihrer Unsicherheiten. Ein wesentlicher Bestandteil des Projekts ist die Etablierung einer effektiven Zusammenarbeit zwischen den Projektteilnehmern, insbesondere derer von der Klimamodellierung und derer, die sich mit den Auswirkungen des Klimawandels befassen. Das Arbeitspaket WP2 soll diese Zusammenarbeit optimieren, indem Kommunikation angeregt and moderiert wird, und indem methodische Schnittstellen zur Verfügung gestellt werden. Das Studium möglicher Auswirkungen des Klimawandels auf bestimmte Gebiete erstreckt sich auf vier Arbeitspakete (WP 3a-3d) und beinhaltet: Eine komplette Analyse des Wettergeschehens in den MOEs sowohl für das derzeitige Klima als auch die Untersuchung zukünftiger Änderungen des Wettergeschehens und ihres Einflusses auf die Luftverschmutzung. Die Abschätzung des Klimawandels auf Wetterextreme. Die Abhängigkeit der simulierten Extremereignisse von Modelltendenzen und der horizontalen Auflösung, sowie die Abschätzung des möglichen Einflusses des Klimawandels auf die Forstwirtschaft und die Wasserversorgung, ebenso werden die Böden und die Landwirtschaft in Stromgebieten, die von Wetterextremen betroffen sein könnten, untersucht.
62
Daniela Jacob
Die Ausarbeitung zukünftiger hydrologischer und landwirtschaftlicher Szenarien, die auf den Ausgabedaten der regionalen Klimamodelle basieren. Die Analyse von Simulationsergebnissen, die von hydrologischen Modellen erzeugt wurden, dient als direkte oder indirekte Eingabedaten für Entscheidungen, die für die Wasserversorgungssysteme getroffen werden. Die Entwicklung und Anwendung von Methoden, die wissenschaftlich verlässliche Information für Entscheidungsträger liefert, die sich mit den verschiedenen Einflüssen des Klimawandels auf der regionalen und lokalen Ebene befassen. Das Wissen, das aus allen oben genannten Arbeitspaketen gewonnen wird, bildet die Basis für die Analyse des wirtschaftlichen Gefährdungspotentials (WP4). Das Ziel von WP4 ist die Abschätzung des ökonomischen Einflusses des Klimawandels auf Ungarn, Rumänien und Bulgarien. Vier Wirtschaftssektoren sind von besonderem Interesse - Landwirtschaft, Tourismus, Energieversorgung und der öffentliche Dienst. Repräsentative Fallstudien ausgewählter Regionen werden für jeden Sektor durchgeführt. Auf der Basis der Ergebnisse der Fallstudien wird der Einfluss der Klimaszenarien auf die nationalen Ökonomien abgeschätzt, und aus der makroökonomischen Relevanz der untersuchten Phänomene werden Schlüsse gezogen. Alle Partner stehen in engem Kontakt mit einer breiten Anzahl von Gruppen in den Bereichen Wirtschaft, Politik und Wissenschaft aus den MOEs, die von den Ergebnissen von CLAVIER profitieren werden.
5.
Schluss
In ENIGMA steht der Netzwerkcharakter im Vordergrund. Dies bedeutet, dass die interdisziplinären Ziele gemeinsam definiert werden, der Weg dorthin jedoch meistens von den einzelnen Partnern bestimmt wird. Hierbei ist die Organisation durch gemeinsame Schnittstellen, an denen sich die einzelnen Forschungsbeiträge zu einem Ganzen zusammensetzten lassen, dominierend. In BALTIMOS hingegen lief die Koordination in die einzelnen Fachgebiete hinein. Dies bedeutet, dass gemeinsam Arbeiten innerhalb der einzelnen Teilprojekte definiert wurden, auch wenn verschiedene Disziplinen betroffen waren. So wurden zum Beispiel von Hydrologen die Frischwassermengen, die durch die Flüsse im Laufe des Jahres in die Ostsee eingespeist werden, so berechnet und aufbereitet, dass sie den Anforderungen aus dem Bereich der Ozeanographie entsprachen. Über alle Teilprojekte hinweg erstreckte sich die Validierungsstrategie, zu der alle gemeinsam beitragen konnten. Hier wurden die zu
Organisation in Verbundprojekten
63
betrachtenden klimatischen Größen, Zeiträume und auch Teileinzugsgebiete der Ostsee herausdiskutiert, so dass die Forschungsarbeiten der einzelnen Partner vergleichbar und vernetzbar wurden. In CLAVIER besteht die Koordination im Wesentlichen darin, die Anforderungen der Partner zeitlich und räumlich zusammenzuführen. In CLAVIER gibt es eine klare Abfolge von Arbeiten (Erstellung der Klimaszenarien, Analyse der Auswirkungen und Abschätzung des wirtschaftlichen Gefährdungspotentials). Hierfür muss durch die Koordination sichergestellt werden, dass die Partner die Anforderungen der Kollegen an Informationen zeitlich und vollständig erfüllen, um einen reibungslosen Fortschritt zu gewährleisten. Die Arbeiten innerhalb der einzelnen Projekte bestehen aus eigenständigen Anteilen, wobei jedoch die Darstellung (Ausgabegrößen, Abbildungen usw.) koordiniert und einheitlich für das gesamte Projekt erfolgt. Die Organisation von Forschung in Verbünden kann also vielfältig gestaltet sein, wie die Beispiele veranschaulichen. Sie dient der gemeinsamen Erforschung komplexer und oft multi-disziplinärer Themen und erfordert ein hohes Maß an Teamfähigkeit. Klare Koordinationsstrukturen und Verbundmanagement sind ebenso notwendig, wie Verlässlichkeit und Enthusiasmus, um das erhöhte Maß an Administration, das durch den Verbundcharakter hinzukommt, auf einem Minimum zu halten.
Abbildungsverzeichnis Abbildung 1: Organisationsstruktur ENIGMA aus ENIGMA Managementplan. http://enigma.zmaw.de/fileadmin/user_upload/enigma/documents/ENIGMA___Ma nagement_Plan.pdf, letzter Aufruf: 16.03.2009. 1 Abbildung 2: Das Erdsystem und seine Wechselwirkungen. http://enigma.zmaw.de/fileadmin/user_upload/enigma/documents/ESRP_booklet.pd f, letzter Aufruf: 24.03.2009. 3 Abbildung 3: Vernetzung innerhalb des DEKLIM-Verbundes BALTIMOS.
Zur Wechselwirkung von Klimatheorie und Forschungsorganisation Jobst Conrad
1.
Einleitung
Dieser Beitrag ist wie folgt aufgebaut: Zuerst führe ich sein Ziel, die ihm zugrunde liegende Grundannahme sowie einige begriffliche Spezifikationen und Abgrenzungen an. Danach gebe ich einen Überblick über Bereiche, Methoden, Untersuchungstechniken und Organisationsformen der Klimaforschung, die den behaupteten und (in populären Veröffentlichungen) gemeinhin unterstellten Zusammenhang plausibel machen. Auf dieser Grundlage beschreibe ich allgemein und exemplarisch Bedingungszusammenhänge zwischen Klimatheorie und Forschungsorganisation und -techniken, wobei ich die voraussichtliche zukünftige Entwicklung der Klimatheorie/-wissenschaft berücksichtige. Schließlich fasse ich die präsentierten Erkenntnisse in einigen abschließenden Schlussfolgerungen zusammen.
2.
Ziel, Prämissen, begriffliche Spezifikationen
Es geht diesem Beitrag darum, eher systematisch herauszuarbeiten, wie sich die Entwicklung differenzierter und komplexer Konzepte und Theorien in der Klimaforschung und deren Organisation und forschungstechnische Instrumentierung wechselseitig notwendig bedingen und prägen. Es geht um Forschungsorganisation und Forschungstechniken, insofern letztere erstere vielfach (mit)bedingen und beide für die Reichweite und die Möglichkeiten der Generierung und Validierung klimawissenschaftlicher Theorien von maßgeblicher Bedeutung sind. Allerdings ist deren wechselseitiges Bedingungsverhältnis – auch angesichts des nicht näher geklärten kategorialen Status letzterer – hier nur von nachrangigem Interesse.1 Im Vordergrund stehen vielmehr der Bedingungszu-
1
Festgehalten werden soll in diesem Zusammenhang nur, dass aufwändige Forschungstechniken notwendig ein Mehr an Forschungsorganisation und -koordination erfordern, während umgekehrt spezifische Organisationsformen von Forschung zwar mit speziellen Forschungsmethoden und -techniken korrelieren dürften, jedoch diese nicht notwendig bedingen. Die je-
Zur Wechselwirkung von Klimatheorie und Forschungsorganisation
65
sammenhang und die Wechselwirkung zwischen der letztlich auf kognitiver Ebene verankerten Klimatheorie einerseits und der auf sozialer Ebene angesiedelten Forschungsorganisation als auch der zum Zwecke klimawissenschaftlicher Erkenntnisgewinne instrumentell eingesetzten Forschungstechniken andererseits.2 Dass die Gewinnung wissenschaftlicher Erkenntnisse auf sozialer Organisation von Forschung und auf geeigneten Forschungsinstrumenten beruht, ist ebenso richtig wie banal. Das ist kein Spezifikum der Klimaforschung. Umgekehrt werden in diesem Beitrag keine echten Fallstudien präsentiert, wie diese Wechselwirkung jeweils konkret aussieht. Somit steht die Meso-Ebene grober Zusammenhänge mit nur begrenzten Möglichkeiten eindeutiger Aussagen im Vordergrund. Hierbei geht es um den (systematischen) Charakter und nicht um die durchaus hochinteressante Geschichte dieser Wechselwirkung, und deshalb steht primär der aktuelle (und voraussichtliche zukünftige) Stand der Klimaforschung im Zentrum.3 Von ihrem Entstehungszusammenhang her stellen etwa die im disziplinären Vergleich frühzeitige, bereits im 19. Jahrhundert verstärkt einsetzende internationale Kooperation der Meteorologen oder die anfangs (während und nach dem Zweiten Weltkrieg) vor allem militärisch bedingte technische und finanzielle Stärkung und Ausweitung der Klimaforschung oder die klimapolitisch forcierte Fokussierung auf (anthropogen mit verursachte) ansteigende Kohlendioxidgehalte der Atmosphäre signifikante Kennzeichen dieses Bedingungszusammenhangs von Fortschritten in der Klimaforschung und ihren forschungsorganisatorischen und forschungstechnischen Voraussetzungen auf der Grundlage diesbezüglicher Interessenlagen maßgeblicher Akteure (Meteorologen und Geldgeber) dar.4 Grundannahme dieser Erörterung ist, dass sich Klimatheorie von Forschungsorganisation und Forschungstechniken analytisch und konzeptionell eindeutig unterscheiden lässt. Auch wenn die meisten klimatheoretischen Aus-
2
3
4
weiligen konkreten Wechselwirkungen zwischen Forschungsorganisation und Forschungstechniken sind als relativ variabel und daher weitgehend fallspezifisch bestimmt anzusetzen. Mit dieser Unterscheidung von kognitiver und sozialer Ebene wird nicht bestritten, dass Klimatheorien letztlich sozial konstruierte und kommunizierte Artefakte sind. Es wird lediglich (mit Popper (1969)) unterstellt, dass ihre Gültigkeit – unbeschadet aller sozialen Einflüsse auf ihre Erzeugung und Überprüfung – relativ eindeutig aus ihrer auf kognitiver Ebene verankerten theoretischen Konsistenz und empirischen Überprüfbarkeit resultiert (vgl. Stegmüller 1973); vgl. Krohn (1979), Conrad (2005) zur Unterscheidung von kognitiver und sozialer Ebene und der Problematik dieser Unterscheidung. „Up through the mid-20th century, climatology was mainly a study of regional phenomena. The climate in a given region was believed to be set by the sunlight at the particular latitude, along with the configuration of nearby mountain ranges and ocean currents, with the rest of the planet scarcely involved.“ (Weart 2005: International Cooperation: 2) vgl. allgemein Fleming (1998), Nebeker (1995), (Weart 2005)
66
Jobst Conrad
sagen ohne letztere nicht entstanden wären (Entstehungszusammenhang), ist ihre (einmal bewiesene) Gültigkeit unabhängig von letzteren zu sehen (Geltungszusammenhang). Umgekehrt mag die Entwicklung empirisch beobachtbarer (internationaler) Organisation oder Techniken in der Klimaforschung durch Klimatheorien und -modelle angestoßen worden sein; ihre Existenz und Anwendbarkeit ist jedoch danach grundsätzlich auch unabhängig von diesen möglich. Unter Klimatheorie werden in diesem Beitrag (üblicherweise disziplinär verankerte) theoretische Erklärungen und Modelle in der Klimaforschung subsumiert, ohne deren Einheitlichkeit oder Widerspruchsfreiheit zu unterstellen. Teils wird auch der Begriff der Klimawissenschaft(en) synonym verwandt, wenngleich unter Klimawissenschaft mehr als nur die kognitive Ebene in der Klimaforschung bestehender Konzepte, Theorien und Modelle zu verstehen ist. Unter Forschungsorganisation wird vorrangig der organisatorische und institutionelle Aufbau von (spezifischen) wissenschaftlichen Projekten (und Programmen) der Klimaforschung verstanden, und nur sekundär derjenige der Klimaforschung insgesamt. Forschungstechniken bezeichnen jedwede technische (Mess-, Modellierungs-, Speicherungs-)Verfahren einschließlich diesbezüglicher Träger- und Hilfsinstrumente, wie z. B. Satelliten, Flugzeuge, Schiffe, Computer), die primär dem Zweck der Gewinnung klimawissenschaftlicher Daten und Erkenntnisse dienen.
3.
Überblick über die Klimaforschung: Bereiche, Techniken, Organisationsformen
Mit zunehmender Erkenntnis der vielseitigen Einflussfaktoren und wechselseitigen Feedback-Mechanismen auf Klimaentwicklung und -wandel wurden zunehmend mehr Bereiche physikalisch-dynamischer, chemischer und auch biologischer Strukturen und Prozesse auf der Erde für die Klimaforschung interessant, die sich tendenziell zu einer möglichst umfassenden Erdsystemanalyse (vgl. Schellnhuber/Wenzel 1998, Schellnhuber et al. 2004) ausweitet, um Struktur und Wandel des Klimas hinreichend beschreiben, erklären und prognostizieren zu können. Dabei steht der anthropogene Einfluss aufgrund seiner Signifikanz inzwischen im Fokus, ohne dass dies auf der Ebene theoretischer (naturwissenschaftlicher) Erklärung eine zusätzliche Dimension verlangt.5 Um dies-
5
Pointiert ausgedrückt vermag die Klimatheorie z. B. voraussichtliche Klimaveränderungen bei einer Verdopplung des CO2-Gehalts der Atmosphäre abzuschätzen, wobei es – bei gleicharti-
Zur Wechselwirkung von Klimatheorie und Forschungsorganisation
67
bezüglich erforderliche umfangreiche Messdaten gewinnen oder Modellsimulationen durchführen zu können, bedarf die Klimaforschung sowohl entsprechend vielfältiger, komplexer und aufwändiger Forschungsmethoden und -instrumente als auch breit angelegter (internationaler) Forschungskommunikation und kooperation.6 Während zur Klimaforschung im weiteren Sinn nicht nur das Verständnis von Strukturen und Prozessmustern des Klimas und seiner Veränderungen, sondern auch deren Folgen (z. B. Gletscherschwund, Rückgang des arktischen Meereises, Auftauen des Permafrosts, Anstieg des Meeresspiegels, Änderung der Meeresströmungen, Zunahme von Wetterextremen, Auswirkungen auf Ökosysteme, Ausbreitung von Krankheiten) sowie die bestehenden (sozial gestalteten) Anpassungs- und (präventiven) Vermeidungsmöglichkeiten (adaptation und mitigation) zählen, ist hier nur die naturwissenschaftliche Basis einschließlich möglicher Klimafolgen von Interesse.7 An wesentlichen Arbeitsgebieten bzw. Forschungsbereichen der Klimaforschung sind – bei diversen Überlappungen – insbesondere zu nennen: Atmosphärenphysik, Atmosphärenchemie, Spurengase, Wolken, Aerosole, Ozeanströmungen, Meereschemie, Gletscher, Polareis, Vegetation, Landnutzung, anthropogene Emissionen, Kohlenstoffkreislauf und Biogeochemie, Strahlungsantriebe, Klimavariabilität und Klimawandel, Klimamodelle, Klimaszenarien und Klimaprognosen, Paläoklimatologie, Feedback-Mechanismen und gekoppelte Systeme, Interaktion von Atmosphäre, Ozeanen, Land und Kryosphäre, abrupter Klimawandel, regionale Klimata, Klimafolgen.8 Diese Aufzählung stellt eine (teils disziplinär basierte) Kombination von objektspezifischen (z. B. Spurengase, Wolken, Ozeanströmungen) und spezifische Klimafragen betreffenden Forschungsfeldern (z. B. Strahlungsantriebe, Klimamodelle, Klimafolgen) dar. Dabei werden spezifischere Forschungsgebiete wie z. B. arktische Eisflächen oder ENSO (El Nino Southern Oscillation), die mit durchaus umfangreichen Forschungsprogrammen untersucht werden, als solche gar nicht aufgeführt.
6
7
8
gen Einträgen – keinen Unterschied macht, ob dieser anthropogenen oder (fiktiv) natürlichen Ursprungs ist. Dies gilt für viele, jedoch nicht für alle Bereiche der Klimaforschung. So ist dies etwa für die auf der Auswertung verfügbarer historischer Quellen und Dokumente basierende jüngere Klimageschichte zwar vorteilhaft, aber nicht zwingend erforderlich (vgl. z. B. Glaser 1991, 2001). Es kommt auch nicht von ungefähr, dass wissenschaftlicher Austausch und Abstimmung zwischen den Arbeitsgruppen I, II und III des Intergovernmental Panel on Climate Change (IPCC, scientific basis, adaptation, mitigation) nur ein geringes Ausmaß aufweisen (vgl. Conrad 2008a, 2008b). Ohne ihre Relevanz für die öffentlich massiv geförderte Klimaforschung wären viele dieser Bereiche übrigens kaum in den Genuss umfangreicher Fördermittel gelangt, die ihre rapide Entwicklung und Ausdifferenzierung überwiegend erst ermöglicht haben.
68
Jobst Conrad
Was wesentliche Forschungsmethoden, -instrumente und -techniken der Klimaforschung angeht, sind vor allem die folgenden anzuführen: Klimamodelle und simulationen, Modellvergleichsprojekte, Vegetationsmodelle, Gewinnung und Verarbeitung von Unmengen von Atmosphäre, Ozeane, Land, Kryosphäre und Vegetation betreffenden (Mess- und Simulations-)Daten, Labormessungen chemischer Reaktionen und Konstanten, Analyse von Klimaarchiven und Gewinnung von Proxydaten, inklusive ihrer teils aufwändigen Speicherung/Aufbewahrung, Synchronisation von Proxyreihen aus Klimaarchiven (Baumringe, Eiskerne, See- und marine Sedimente, Tephren, Warven, Korallen); Datierung und Rückschlüsse durch die Bestimmung von Isotopenzusammensetzung (temperaturabhängige Isotopenfraktionierung) und radioaktiven Zerfallsraten (z. B. Kalium und Argon), Einsatz und Nutzung von Spektroskopie, Computern, Satelliten, Flugzeugen und Schiffen zur Datengewinnung. Deutlich wird, dass zur Erzeugung klimarelevanter Daten und Hypothesen eine Vielzahl von Untersuchungstechniken und -methoden mit einer dahinterstehenden entsprechenden wissenschaftlichen Basis benötigt werden, die als solche nichts mit Klimatheorie und Klimaentwicklung zu tun haben und insofern von der Klimaforschung genutzte Hilfstechnologien darstellen. Auf der Ebene der Forschungsorganisation sind zuerst hervorzuheben die Kommunikation zwischen und die Kooperation sowohl von Disziplinen, insbesondere Physik, Chemie, Mathematik/Informatik, Biologie, Meteorologie, Ozeanografie, Geologie, Geografie, Paläoklimatologie, als auch zwischen/von Modellentwicklern, Modellnutzern, Messgruppen und Datennutzern (z. B. Klimatheoretiker, Paläoklimatologen, regionale Klimafolgenforschung, Bewältigung von Klimafolgen (adaptation and mitigation), sozioökonomische Klimaforschung). Dies geschieht in meist großen Verbundprojekten, die unterschiedliche Kompetenzen verknüpfen, flächendeckende (globale) Erhebungen und Messnetze generieren und dementsprechend umfangreiche Manpower (von teils 100 und mehr Wissenschaftlern) benötigen.9 Die Durchführung und Einbettung solcher Verbundprojekte, an der typischerweise eine Reihe von Universitäts- und Forschungsinstituten beteiligt sind, erfordert ein entsprechendes Forschungsmanagement und mehr oder minder ausgeprägte internationale Kooperation.10 Diese 9
10
So beruht beispielsweise allein die jahresspezifische Auswertung von Warven (mit 140.000 Jahresringen) im Holzmaar der Eifel (im Rahmen eines großen deutschen Verbundprojekts) auf rund 25 Doktorarbeiten (Negendank, persönliche Mitteilung). O’Riordan und Jäger beschreiben die Entwicklungen in den 1980er Jahren „as a ‚revolution’ in the social structure of climate science. The field was propelled to a new level not only by great improvements in scientific tools such as computers, but equally by great improvements in international networking thanks to cheap air travel and telecommunications. ‘Huge teams of highly skilled people can review each other’s work, perform integrated assessments, and generate ideas’ far better than the mostly isolated individuals of earlier decades, they pointed out.
Zur Wechselwirkung von Klimatheorie und Forschungsorganisation
69
umfasst beispielsweise bei Ozeanmessungen wochen- oder monatelange Schiffsfahrten von die Messungen konzipierenden, organisierenden und vornehmenden Ozeanografen, den Erwerb, die Bereitstellung und gegebenenfalls die Modifikation entsprechender Messgeräte, das Anmieten bzw. den Kauf entsprechender Forschungsschiffe (samt Crew), die Kenntnis der Ergebnisse und theoretischen Grundlagen von Ozean-Klimamodellen und von bisherigen diesbezüglichen ozeanografischen Erhebungen sowie den Austausch und die Koordination mit anderen an vergleichbaren Messungen arbeitenden Wissenschaftlergruppen.11 So sind etwa mit der jüngst wesentlich verbesserten Datenbasis über Temperaturen und Salzgehalt des Ozeans unterhalb seiner Oberfläche bessere quantitative Angaben über den Anstieg seiner Temperatur und seines Kohlenstoffgehalts12 und die Abnahme des pH-Wertes möglich. Entsprechend wird die Klimaforschung bei weiterhin weitgehend nationaler Finanzierung, wozu die USA gut 50% beisteuern, teilweise in Klimaforschungsprogrammen koordiniert und strategisch vorbereitet, die von internationalen, wissenschaftlich ausgerichteten Organen wie der World Meterological Organization (WMO, in Zusammenarbeit mit dem International Council of Scientific Unions (ICSU) oder dem IPCC) getragen werden; zu nennen sind das World Climate Research Programme (WCRP), das International GeosphereBiosphere Programme (IGBP), das International Human Dimensions Programme on Global Environmental Change (IHDP) und das International Programme of Biodiversity Science (DIVERSITAS). Diese Forschungsprogramme werden typischerweise in Forschungsverbünden umgesetzt, die ein ausgedehn-
11 12
‘A steady diet of fresh scientific perspectives helps to maintain regular doses of funding, helped in turn by an endless round of conferences.’ (O’Riordan/Jäger 1996: 2)“ (Weart 2005: International Cooperation: 12) Vor allem in Weart (2005) findet sich eine Reihe genauerer (historischer) Beschreibungen derartiger Verbundprojekte. Die Bestimmung des im Wesentlichen aus CO2-Einträgen resultierenden anthropogenen Anteils am Kohlenstoffgehalt des Ozeans von insgesamt ca 38.000 PgC (IPCC 2001: 188) ist vor dem Hintergrund seines – im Vergleich mit der Atmosphäre – geringen Anteils am natürlichen CO2-Gehalt bzw. Kohlenstoffgehalt des Ozeans von ca. 1% bzw. 0,3% (118r19 PgC seit 1750, vgl. Sabine et al. 2004) und den diesbezüglichen, sich über die Zeit ändernden Einflüssen wie Ozeanzirkulation, biologische Aktivität, Meerestemperatur, Salzgehalt, Alkalinität und nichtlineare Konzentrationsabhängigkeit der Kohlenstoffchemie schwierig und bedarf verschiedener indirekter Methoden und Annahmen. Insofern konnte dieser anthropogene Kohlenstoffanteil erst mithilfe der WOCE (World Ocean Circulation Experiment)/JGOFS (Joint Global Ocean Flux Study) Messkampagne in den 1990er Jahren mit ca. 10.000 Profilen von gelöstem anorganischem Kohlenstoff (dissolved inorganic carbon, DIC) und dem Einsatz einer thermodynamische Gesetzmäßigkeiten nutzenden, verbesserten Tracer-Methode von Gruber et al. (1996) eindeutig quantitativ und in Übereinstimmung mit direkten Messungen von DICVeränderungen bestimmt werden, was bei der ersten US-finanzierten GEOSECS (Geochemical Ocean Sections Study) Messkampagne in den 1970er Jahren nicht gelang (I 90).
70
Jobst Conrad
tes Untersuchungsthema bzw. -objekt untersuchen, wie z. B. TOGA (Tropical Ocean and global Atmosphere), CLIVAR (Climate Variability and Predictability), SPARC (Stratospheric Processes And their Role in Climate), CliC (Climate and Cryosphere), ESSP (Earth System Science Partnership)(vgl. WMO 2005). Wie bereits die Entwicklung und Anwendung von Klimamodellen zeigt, sind schon die auf Klimamodelle spezialisierten Klimaforscher selbst nicht mehr in der Lage, Details und Spezifika der Modelle im Einzelnen nachzuvollziehen, und müssen sich daher – in Verbindung mit diesbezüglicher Kommunikation – auf die Qualität und Richtigkeit der Arbeit der als Mathematiker und Informatiker ausgebildeten Modellierer und Software-Ingenieure verlassen (vgl. Gramelsberger 2004, 2007). Insofern fallen personell bereits innerhalb eines speziellen Bereichs der Klimaforschung die Bereitstellung geeigneter Forschungsinstrumente und -verfahren und deren Nutzung häufig auseinander. Plausibel werden mithilfe dieser Auflistung folgende Punkte: 1.
2.
3.
13
Ein beträchtlicher Anteil der Arbeiten im Bereich der Klimaforschung gilt der Schaffung von Techniken und Voraussetzungen, um genuine Fragestellungen der Klimaforschung beantworten zu können. Aufgrund ihrer Komplexität und Differenziertheit verlangt die Klimaforschung notwendig Forschungsorganisation; einzelne Personen oder Arbeitsgruppen verfügen nur mehr über ausreichende Kompetenzen für spezifische Gebiete und Techniken der Klimaforschung. (Formal dargestellt induziert steigende Komplexität somit Prozesse der Ausdifferenzierung; die (problembezogene) Gewinnung und Integration von Forschungsergebnissen verlangt sachbezogene substanzielle Kommunikation und Kooperation, was wiederum die ebendies in effektiver Form ermöglichende Organisation von Forschung erforderlich macht.) Innerhalb der Klimaforschung handelt es sich dabei um eine historisch junge Entwicklung in ungefähr den letzten 50 Jahren.13 Die Zahl der KliBis in die 1970er Jahre hinein „there had never been a community of people working on climate change. There were only individuals with one or another interest who might turn their attention to some aspect of the question, usually just for a year or so before returning to other topics. An astrophysicist studying changes in solar energy, a geochemist studying the movements of radioactive carbon, and a meteorologist studying the global circulation of winds, had little knowledge and expertise in common. Even within each of these fields, specialization often separated people who might have had something to teach one another. They were unlikely to meet at a scientific conference, read the same journals, or even know of one another’s existence. Nor did theorists interact regularly with people who worked out in the field. As one climate expert remarked, ‘lack of interest has all too often characterized the attitude of physical scientists to the masses of information produced by botanists examining pollen deposits and the data turned out by geologists, glaciologists, entomologists, and others. These types of
Zur Wechselwirkung von Klimatheorie und Forschungsorganisation
4.
5.
14
15
16
71
maforscher hat sich in dieser Zeit wohl mindestens verzehnfacht und ist – je nach Zugehörigkeitskriterien – von grob 100 bis 1.000 auf ungefähr 5.000 bis 50.000 gestiegen; analog ist die finanzielle Förderung der Klimaforschung von jährlich global höchstens 50 Mio. € in den 1950er Jahren auf bis zu 5 Mrd. € in 2005 angewachsen.14 Grundsätzlich ist es notwendig und sinnvoll, zwischen auf allgemeiner Ebene objektiv notwendiger und sinnvoller Forschungsorganisation und kooperation und den tatsächlich zu beobachtenden unterschiedlichen (epistemischen) Forschungskulturen (vgl. Krueck/Borchers 1999, Shakley 2001) und Formen oftmals konkurrierender Kooperation zu unterscheiden. In letzteren schlagen sich z. B. unterschiedliche (nationale) Kulturen bei der Zugänglichkeit von Daten15, die realisierten Standards von Mess- und Eichverfahren oder die Dominanz der US-Forschung mit über 50% Finanzierungsanteil und Technologieführerschaft nieder. Zu bestimmten Bereichen der Klimaforschung gehören in der Tendenz bestimmte Forschungsmethoden und -techniken, wie z. B. Paläoklimatologie und Gewinnung von Proxydaten aus Klimaarchiven, Klimamodellierung und bevorzugte numerische Lösungsverfahren (spektrale Methode, Gitterpunktmethode; finite Differenzen, finite Elemente, finite Volumina)16, Ozeanografie und die Nutzung von Schiffen und Messbojen zur Da-
literature have never been part of their regular diet.’ (Lamb 1997: 200)“ (Weart 2005: Climatology as a Profession: 8) Erst gegen Ende des 20. Jahrhunderts „the issue of climate change had become important and prestigious enough to stand on its own. Certain scientists who once might have called themselves, say, meteorologists or oceanographers, were now designated ‘climate scientists’. There was still no specific professional organization or other institutional framework to support ‘climate science’ as an independent discipline, but that did not much matter in the new order of holistic interdisciplinary work.“ (Weart 2005: Climatology as a Profession: 15) Bei diesen Angaben handelt es sich um grobe Schätzungen, da eine klare Abgrenzung der Klimaforschung zum einen von Wetterdiensten und -messstationen, zum zweiten von nur teils Klimaforschungszwecken dienenden technischen Geräten und Personal, wie z. B. Satelliten, und zum dritten von lediglich kurzzeitig (im Rahmen von Diplom- oder Doktorarbeiten) in der Klimaforschung engagierten Personen nur eingeschränkt möglich ist (vgl. Conrad 2007, 2008a). „When I started oceanography, people did not share their data. They kept everything to themselves until you could publish it (...). Well, I think over the last decade we have really changed that approach and a lot of that has come from the climate change research and an understanding that the only way we are ever going to understand the global carbon cycle is by sharing data. So that has been an interesting social development over the past few years.“ (I 90) Datenzugänglichkeit und -austausch sind in den USA auch infolge einer entsprechenden Forschungspolitik weiter fortgeschritten als in Europa. Häufig werden die partiellen Differenzialgleichungen in Atmosphäremodellen mit Spektralverfahren gelöst, während die Parametrisierungen in der Regel an Gitterpunkten formuliert
72
Jobst Conrad
tenerhebung. Es ist jedoch keine eineindeutige Zuordnung von Bereichen, Techniken und Organisationsformen möglich. 6. Insofern Klima(entwicklung) als mittlerer Zustand der Erde primär eine Frage der Randbedingungen ist, während Wetter(prognose) vorrangig eine Frage der Ausgangsbedingungen ist, verlangen klimabezogene Aussagen die (möglichst globale oder hemisphärische) Mittelung einer möglichst großen Zahl von (lokalen) Messdaten und deren kompetente Korrektur und Verknüpfung, um lokale situationsspezifische Einflüsse herauszufiltern.17 7. In der Klimatheorie geht es kaum je um Einfaktor-Erklärungen, sondern um die fallspezifisch variierende (Erklärung der) Kombination von Einflussfaktoren. Klimatheoretische Aussagen und Ursachenzuweisungen beruhen daher meist auf der Kombination verschiedener Forschungsmethoden und -instrumente. Drei Beispiele mögen dies illustrieren. Zur Rekonstruktion der Klimageschichte werden aus den verschiedenen Klimaarchiven „mit einer Vielzahl von Verfahren ganz unterschiedliche Proxy-Daten gewonnen (...). Diese Proxy-Daten haben unterschiedliche Stärken und Schwächen – so ist etwa bei Tiefseesedimenten die zeitliche Auflösung in der Regel deutlich geringer als bei Eiskernen, dafür reichen die Daten aber viel weiter zurück, bis zu Hunderten von Millionen Jahren. Bei vielen Proxies gibt es noch Probleme mit der genauen Datierung und Unsicherheiten in der Interpretation. Aus einer einzelnen Datenreihe sollten daher nicht zu weit reichende Schlüsse gezogen werden; erst wenn Ergebnisse durch mehrere unabhängige Datensätze und Verfahren bestätigt wurden, können sie als belastbar gelten. In ihrer Gesamtheit betrachtet liefern Proxy-Daten heute jedoch bereits ein erstaunlich gutes und detailliertes Bild der Klimageschichte.“ (Rahmstorf/Schellnhuber 2006: 11f) Um die maßgebliche anthropogen bedingte Ursache der vor allem in den letzten 30 Jahren beobachteten Erderwärmung aus einer Vielzahl von Strahlungsantrieben (radiative forcing) (vgl. IPCC 2001: 8) eindeutig ausmachen zu können18, lassen sich die Ergebnisse dreier prinzipiell verschiedener Methoden vergleichen und kombinieren (vgl. Rahmstorf/Schellnhuber 2006: 39f): Analyse des zeitlichen Verlaufs der Erwärmung und der dafür in Frage kommenden Strahlungsantriebe wie Treib-
17
18
werden. Der Informationsaustausch findet durch Transformation der Ergebnisse zwischen Wellenzahl- und Gitterpunktraum statt. Während „lokal aus einer Vielzahl von Gründen recht große Klimaschwankungen auftreten können [z. B. der urban heat island effect], (...) gleicht sich die lokale Umverteilung von Wärme bei der Mittelwertbildung aus (...). Die Gewinnung solcher großräumiger Mittelwerte ist schwierig, weil die Zahl hochwertiger Datenreihen noch sehr begrenzt ist.“ (Rahmstorf/Schellnhuber 2006: 27) Es handelt sich hier um das (auch politisch bedeutsame) attribution problem.
Zur Wechselwirkung von Klimatheorie und Forschungsorganisation
73
hausgaskonzentrationen, Veränderungen der Sonnenaktivität, ebenso der Aerosolkonzentration, interne Schwankungen im System Ozean – Atmosphäre, Analyse der räumlichen Muster der Erwärmung (FingerabdruckMethode), die sich bei verschiedenen Ursachen unterscheiden, Bestimmung der Amplitude der unterschiedlichen Antriebe. „Da alle Verfahren unabhängig voneinander konsistent zum gleichen Ergebnis kommen, müssen wir mit sehr hoher Wahrscheinlichkeit davon ausgehen, dass der menschliche Einfluss inzwischen tatsächlich überwiegt.“ (Rahmstorf/Schellnhuber 2006: 41) Um die für die (zukünftige) anthropogen beeinflusste Klimaentwicklung maßgebliche Klimasensitivität, d. h. der Grad der Erwärmung je Strahlungseinheit (üblicherweise normiert auf die Verdopplung der atmosphärischen CO2-Konzentration), zu bestimmen, kann man erstens physikalisch – unter Berücksichtigung der Rückkopplungen im Klimasystem (im Wesentlichen Wasserdampf, Eis-Albedo und Wolken) in gut evaluierten Klimamodellen – die im Labor gemessene Strahlungswirkung von CO2 zugrunde legen. Zweitens kann man von Messdaten ausgehen und aus vergangenen Klimaschwankungen durch eine Regressionsanalyse den Einfluss einzelner Faktoren zu isolieren versuchen, wofür sich besonders die Eiszeitzyklen der letzten Jahrhunderttausende eignen, bei denen die CO2-Konzentration stark schwankte. Aufgrund der Fortschritte in der Modellentwicklung und Computerleistung kann man drittens die wesentlichen noch unsicheren Parameterwerte innerhalb ihrer Unsicherheitsspanne systematisch variieren, mit Beobachtungsdaten vergleichen und die unrealistischen Modellversionen aussortieren. Diese drei ganz unterschiedlichen Methoden kommen jeweils zu Abschätzungen der Klimasensitivität, „die konsistent mit der noch aus den 1970er Jahren stammenden (...) ‚traditionellen’ Abschätzung von 1,5 bis 4,5°C sind.“ (Rahmstorf/Schellnhuber 2006: 44) Ohne sie im Detail näher darzustellen, mögen nun einige Beispiele das Zusammenspiel von Klimatheorie, Forschungstechniken und -organisation illustrieren: Zum besseren Verständnis von Klimageschichte und Kryosphäre bedarf es etwa Eiskernbohrungen, der Aufbewahrung und (spektroskopischen) Analyse von Eisbohrkernen, Antarktis-Stationen, Satelliten- und Unterwassermessungen des arktischen Polareises, der Abgleichung mit anderweitig gewonnenen Proxydaten, der Modellierung der Kryosphäre und der Untersuchung von Feedback-Mechanismen in der Kryosphäre sowie der Austauschprozesse zwischen Atmosphäre, Ozean, Land und (See-)Eis. Dies ist zwangsläufig und in der Praxis vielfach beobachtbar mit technisch und or-
74
Jobst Conrad
ganisatorisch aufwändigen Projekten mit entsprechender Forschungsorganisation und -kooperation verbunden (vgl. Allison et al. 2001, Weart 2005: Past Cycles: Ice Age Speculations). Die Gewinnung, Auswertung und Abgleichung von Proxydaten an verschiedenen Orten und aus unterschiedlichen Klimaarchiven (Baumringe, Eiskerne, See- und marine Sedimente, Tephren, Warven, Korallen) ist ein personell und instrumentell aufwändiges Verfahren, das kooperative Forschungsprojekte und -programme zumindest nahe legt; dies wird auch zunehmend praktiziert. Klimamodelle stellen klimawissenschaftlich die vorrangige substanzielle Form der Beschreibung und Interpretation von Klima(wandel) dar. Je umfassender sie angelegt sind, umso größere Rechnerkapazitäten werden benötigt, umso teurer werden Modellsimulationsläufe, umso arbeitsteiliger läuft die Modellierung ab, umso weniger ist eine Auswertung der Unzahl von in Simulationsläufen generierten Daten praktisch möglich, umso weniger können Modellnutzer Klimamodelle für ihre Zwecke valide modifizieren, umso schwieriger ist die empirische Überprüfung von Ergebnissen der Modellläufe, umso wichtiger werden Modellvergleichsvorhaben und umso wichtiger werden Kooperationswille und -fähigkeit der teilnehmenden Wissenschaftler und Forschungsinstitutionen. Das Community Climate System Model (CCSM) vom National Center for Atmospheric Research (NCAR) oder das vom Max-Planck-Institut Hamburg initiierte COSMOS (Community Earth System Models) stellen Bemühungen in diese Richtung dar. Insofern Satelliten – bei schwierigeren Kalibrierungsprozessen und Drift ihrer Messwerte – die gesamte und nicht nur lokale Abdeckung des Planeten als auch konsistente und systematisch wiederholte Messungen erlauben, gestatten teils erst sie umfassende und hinreichende Messungen interessierender klimatischer Daten wie z. B. Meereisflächen (Nimbus-5 1972), Schneeflächen (Tiros-N 1978) und Solarstrahlung (Nimbus-7 1978).19 Entwicklung und Betrieb von Satelliten und der in ihnen arbeitenden Messinstrumente sowie die Transformation und Auswertung der durch Satellitensensoren gewonnenen (indirekten) Daten stellen vergleichsweise hohe Anforderungen an die technische Reliabilität, Validität und wechselseitige Abgestimmtheit der Apparate, an die automatische Übermittlung und Spei19
Seit 1983 wird u. a. im Rahmen des WCRP „durch das International Satellite Cloud Climatology Project (ISCCP) eine globale Wolkenklimatologie erstellt. Dabei werden u. a. Monatsmittelwert des Wolkenbedeckungsgrads, des Luftdrucks an der Wolkenoberkante, der optischen Dicke der Wolken, der Temperatur und der Albedo an der Erdoberfläche kartiert.“ (Schumann 2002: 65)
Zur Wechselwirkung von Klimatheorie und Forschungsorganisation
75
cherung erhobener Messdaten, an die funktionierende Kooperation der unterschiedlichen beteiligten (wissenschaftlichen) Arbeitsgruppen und Instanzen und an verfügbare finanzielle Mittel. So gehen rund 50% der USMittel für die Klimaforschung in die Entwicklung und den Betrieb von Satelliten. Um das hier interessierende Bedingungsverhältnis und Zusammenspiel zwischen Klimatheorie einerseits, und Forschungsorganisation und -techniken andererseits nicht lediglich als aktuelle Momentaufnahme der Gegenwart zu präsentieren, werden einige voraussichtliche Konstanten und Entwicklungen der Klimatheorie in den kommenden Jahren benannt. 1.
2.
20
21
22
Das Klima ist (auch ohne menschlichen Einfluss) ein nichtlineares sensibles System mit der Neigung zu sprunghaften Änderungen. Dieses wird man zunehmend besser zu beschreiben und modellieren suchen. Dabei ist aber die chaotische Natur nichtlinearer dynamischer Systeme in Rechnung zu stellen, weshalb Vorhersagen gemäß der von dem Meteorologen Lorenz (1963) entwickelte Chaostheorie prinzipiell nur begrenzt möglich sind.20 Zu dieser Erkenntnis trug die Entwicklung stetig wachsender Rechnerkapazitäten entscheidend bei.21 Da das Klima im globalen Mittel das Ergebnis einer einfachen Energiebilanz ist, dass nämlich die von der Erde ins All abgestrahlte Wärmestrahlung die absorbierte Sonnenstrahlung im Mittel ausgleichen muss (vgl. IPCC 2001: 90), und Klimaänderungen die Folge von Änderungen in dieser Energiebilanz sind22, sind Temperaturveränderungen für den Klimawandel zentral und ist der Kern der Klimaforschung somit eine physikali„Lorenz and others had shown that meteorologists’ inability to make accurate predictions of the weather more than a week or so in advance was not due to ignorance of the relevant laws, nor to limited means of calculation, nor to an inadequate observational network, but to the fact that the atmosphere is a chaotic system, that is, one whose evolution is extremely sensitive to initial conditions.“ (Nebeker 1995: 192) „Computational power was crucial in bringing about the recognition that what had long been the main goal of meteorologists, to attain predictive success like that of astronomy, was unattainable.“ (Nebeker 1995: 188) Diese können grundsätzlich aus Variationen in der ankommenden Sonnenstrahlung infolge von Änderungen in der Umlaufbahn um die Sonne oder in der Sonne selbst, aus Änderungen in der Albedo und aus veränderten Gehalten von Treibhausgasen und Aerosolen in der Atmosphäre herrühren (Rahmstorf/Schellnhuber 2006: 12f). So resultiert etwa die Wandlung der Sahara von einer besiedelten Savanne mit offenen Wasserflächen in eine Wüste vor ca. 5.500 Jahren aus Veränderungen in der Monsunzirkulation, die vom 23.000-jährigen Erdbahnzyklus ausgelöst wurden, ähnlich wie die Eiszeiten durch die verschiedenen Milankovitch-Zyklen induziert wurden (vgl. Rahmstorf/Schellnhuber 2006: 26).
76
3.
4.
5.
6. 7.
8.
9.
23
Jobst Conrad sche Thematik. Von daher kommt die einheitliche Interpretation und Umformung der verschiedenen Einflussgrößen als Strahlungsantriebe (W/m2) nicht von ungefähr. Da sich der gegenwärtige Klimawandel nur vor dem Hintergrund von teils dramatischen Klimaveränderungen der Erdgeschichte (naturwissenschaftlich) verstehen und einordnen lässt, nimmt der Stellenwert der Paläoklimatologie in der Klimaforschung tendenziell noch weiter zu. Klimatheoretisch spielt der Mensch dabei die Rolle einer zusätzlichen Randbedingung, nicht mehr und nicht weniger. Im Rahmen der Paläoklimatologie wird die weitere (forschungstechnisch aufwändige und personalintensive) Erschließung von Klimaarchiven und die Gewinnung, Verfeinerung und wechselseitigen Abstimmung von Proxydaten im Vordergrund stehen. Gerade auch für die Untersuchung und den konkreten Verlaufsnachweis des aktuellen und jüngeren Klimawandels der letzten Jahrzehnte wird der Datenhunger nach einer Unmenge an mit verschiedenen Verfahren gewonnenen Messdaten vorerst weiterhin ungebremst sein, wozu die zunehmend komplexeren, differenzierteren, kleinräumigeren und sich zu Erdsystemmodellen entwickelnden Klimamodelle – mit (chaostheoretischen) Umkipppunkten – maßgeblich beitragen. Erklärung, Modellierung und Prognose regionaler Klimata als auch abrupten Klimawandels dürften eine zunehmend wichtigere Rolle einnehmen. Prinzipiell dürfte sich die Struktur von Klimatheorie und -modellen hingegen nicht ändern. Es wird in Erklärung und Modellierung weiterhin um die (auf den singulären Fall Erde abstellende) problem- bzw. klimabezogene Kombination von Einflussfaktoren gehen: Erdneigung, -präzession, Solarkonstante, Wolken, Eis, Vegetation und Landnutzung, Ozeanströmungen, Aerosole, Ausfilterung vulkanischer Ereignisse, Wechselwirkung Atmosphäre – Ozean (– Eis). Erklärende (disziplinär basierte) Theorien beruhen überwiegend unverändert auf Fotophysik/-chemie, Hydrodynamik der Atmosphäre und des Ozeans, Geophysik, (Atmosphären-, Meeres-)Chemie, Theorien biogeochemischer Stoffkreisläufe und vermehrt (formalisierter) Biologie und Vegetationskunde.23 Die Entwicklung der Klimatheorie hin zu einer Erdsystemanalyse, die auf einer Art Ökosystemtheorie mit einer Klimaprozesse und -wandel prägenden Interaktionsdynamik relevanter Einflussgrößen als paradigmatischem
vgl. analog für die Ozonforschung Conrad (2006).
Zur Wechselwirkung von Klimatheorie und Forschungsorganisation
77
Kern basiert, erscheint potenziell möglich, aber aus epistemologischen Gründen vorerst wenig wahrscheinlich (vgl. Conrad 2008a). 10. Der Politikbezug der Klimaforschung wird über Hybridorgane wie das IPCC unverändert fortbestehen. 11. Dabei werden sich vermehrt auf den voraussichtlichen Klimawandel bezogene Anpassungs- und Vermeidungsstrategien mit der Entwicklung und Implementation diesbezüglicher Technologien und Maßnahmen in den Vordergrund schieben und damit zu einer Schwerpunktverlagerung der Klimaforschung im weiten Sinne hin zu Themen der IPCC-Arbeitsgruppen II und III führen. 12. Hierbei wird trotz unterschiedlicher nationaler Präferenzen, Interessen und Ressourcen die internationale Kooperation einen unverändert oder gar verstärkten Stellenwert einnehmen.
4.
Bedingungszusammenhänge zwischen Klimatheorie und Forschungsorganisation und -techniken
Wie sieht nun das wechselseitige Bedingungsverhältnis und Zusammenspiel zwischen Klimatheorie und Forschungsorganisation aus? Allgemein lässt sich festhalten, dass (im Kern) viele klimawissenschaftliche Konzepte und Theorien ohne die Verfügbarkeit und Realisierung entsprechender forschungstechnischer Instrumente und forschungsorganisatorischer Vorkehrungen zumindest nicht überprüfbar und teils wohl auch gar nicht entwickelt worden wären. Umgekehrt stoßen klimatheoretische Hypothesen und Konzepte (und damit verbundene Forschungs- und Reputationsinteressen) die Entwicklung entsprechender Forschungsmethoden, -instrumente, -organisationen und -kooperationen häufig erst an; z. B. trug die Erdsystemanalyse zur Entwicklung von Supercomputern bei. Darüber hinaus sind entsprechende, im Rahmen der Klimaforschung entstandene Anstöße einerseits zwischen verschiedenen wissenschaftlichen Bereichen zu konstatieren, wo z. B. der anthropogen bedingte und wissenschaftlich verstärkt untersuchte Klimawandel zwecks besserem Verständnis zum Aufblühen der Paläoklimatologie führte. Andererseits gibt es solche Anstöße zwischen verschiedenen Methoden und Techniken. So führte beispielsweise die forschungsmethodische Notwendigkeit, an vielen Raumpunkten z. B. eines Ozeans oder entlang der Tropopause in 10 km Höhe Messwerte zu erheben, zur Nutzung von Linienschiffen und Verkehrsflugzeugen mit entsprechender Instrumentierung (Machida 2005, Mukai 2005); oder die Gewinnung von Eisbohrkernen ging mit der Entwicklung und Bereitstellung entsprechender Aufbewahrungstechniken,
78
Jobst Conrad
verfeinerter Isotopenanalyse in kleinkörnigen Einzelelementen und notwendigen Korrekturmethoden einher. Auf der Ebene der Rekonstruktion realer sozialer Prozesse gilt durchweg, dass sich Klimatheorie/Klimawissenschaft sowie Forschungsorganisation und techniken in ihrer Entwicklung wechselseitig bedingen und beeinflussen: weder ist ohne geeignete Forschungsorganisation die Weiterentwicklung und Überprüfung von Klimatheorien möglich, noch würden sich die erforderliche Forschungsorganisation und -techniken ohne die zu erwartenden Forschungsergebnisse und das (wissenschaftliche) Interesse an diesen herausbilden. Wie diese Wechselwirkung konkret aussieht und welche der beiden Seiten eine stärker induzierende oder eine mehr resultierende Rolle innehat, hängt vom jeweiligen Fall ab. Von daher sind in dieser Hinsicht kaum generalisierende Aussagen darüber möglich, wie das wechselseitige Bedingungsverhältnis und Zusammenspiel von Klimatheorie und Forschungsorganisation substanziell aussehen, sieht man einmal ab von allgemeinen, bereits benannten Zusammenhängen, dass z. B. umfassendere Klimatheorie erhöhte Forschungsorganisation und -koordination verlangt und teils auch daraus resultiert, und von bereichsspezifischen Charakteristika, wie das Zusammenspiel von Modellentwicklern, Modellnutzern, Messgruppen und Datennutzern in den klimarelevanten Untersuchungen der Antarktis oder von Wolken.24 Außerdem sind auch indirekte Effekte von Forschungsorganisation und techniken auf klimawissenschaftliche Erkenntnisse möglich, indem nicht sie selbst, sondern durch sie unerwartet generierte (empirische) Daten die Entwicklung neuer Erklärungsmodelle anstoßen. Entsprechende Beispiele sind etwa die Theorie der Dansgaard-Oeschger-Ereignisse, die über 20 plötzliche Klimawechsel während der letzten Eiszeit durch sprunghafte Änderungen der Meeresströme im Nordatlantik zwischen zwei verschiedenen Strömungsmustern unterschiedlicher Attraktionsdomänen25 erklärt; auf diese abrupten Klimawechsel stieß man durch kurzzeitig (d. h. innerhalb von ein bis zwei Jahrzehnten) unerwartet erhöhte 18O-Gehalte (Sauerstoff) in Eisbohrkernen. Analog stieß man durch veränderte 13C- (Kohlenstoff) und 18O-Gehalte in Kalkschalen von Sedimenten auf das PETM (Paleocene-Eocene Thermal Maximum) vor 55 Millionen Jahren, als die Temperatur innerhalb von wohl höchstens 1000 Jahren um 5 bis 6°C anstieg, was durch Methanhydrat-Freisetzungen im Meeresgrund, aber auch durch die Freisetzung von Kohlendioxid aus der Erdkruste durch starke Vulkan-
24 25
Es ist zumindest dem Autor nicht bekannt, ob hierbei eher typische oder eher fallspezifische Muster dieses Zusammenspiels auftreten. Gemäß der thermodynamischen Ungleichgewichtstheorie dissipativer Strukturen (vgl. Haken 1978, Prigogine/Stengers 1984).
Zur Wechselwirkung von Klimatheorie und Forschungsorganisation
79
aktivität oder den Einschlag eines Meteoriten erklärt werden kann (vgl. Rahmstorf/Schellnhuber 2006: 19, Zachos 2005, Zachos et al. 2001). Ohne auf detaillierte Fallstudien zurückzugreifen, seien nachfolgend drei signifikante Beispiele etwas genauer skizziert, wie Anliegen der Klimatheorie zu mathematischen Modellentwicklungen (Koppler) und neuen Messverfahren (Wolkenbeobachtung), und umfangreiche (internationale) Forschungsprogramme und -kooperation (CliC) zu Fortschritten in der Klimatheorie führen (können). (1) Je mehr die Klimaforschung (auf ihrem Weg zur Erdsystemanalyse) die Wichtigkeit des Einbezugs aller Subsysteme und Prozesse (Atmosphäre, Ozeane, Kryosphäre, Land, Vegetation, Physik, Chemie, Biologie) und von Rückkopplungs- und Austauschprozessen zwischen diesen erkennt und in ihren Modellen zu berücksichtigen sucht, umso wichtiger werden diese Prozesse repräsentierende Koppler. Bei diesen handelt es sich um mathematische Algorithmen, die den Austausch, die „Kommunikation“ zwischen den verschiedenen ModellModulen in Form von Datenübergabe und Interpolation, also einer Art Buchhaltung gewährleisten. Dabei kann es sich bei diesen Interfaces um bloße InputOutput-Transfers, z. B. anthropogene CO2-Emissionen als Input in die Atmosphäre, als auch um theoretisch anspruchsvollere Interface-Module z. B. in der Beschreibung und Formulierung der Grenzschichten26 handeln.27 Da es sich bei dem Koppler – wie bereits bei den numerischen Lösungen analytisch nicht lösbarer (hydrodynamischer) Differenzialgleichungen in der Atmosphäre oder dem Ozean – um die schrittweise numerische, nicht exakte Repräsentation von in Wirklichkeit permanent stattfindenden Interaktionsprozessen handelt, stellt deren angemessene Algorithmisierung eine keineswegs triviale, sondern durchaus (mathematisch) anspruchsvolle Aufgabe dar, deren Genauigkeit und Qualität von den verfügbaren Rechnerkapazitäten abhängt; denn sie hat unterschiedliche Zeitskalen und Gridgrößen für die Sphären zu berücksichtigen, die Erhaltung von Zustandsgrößen zu gewährleisten und über die Selektion einzubeziehender Feedback-Mechanismen zu entscheiden.28 Entsprechend gab es in den 26
27
28
Die Kopplungstechnik selbst ist unabhängig von der physikalischen und chemischen Wechselwirkung zwischen Atmosphäre und Ozean: es geht um Übergabetechniken auf der Basis unterstellter physikalischer und chemischer Zusammenhänge. Im Prinzip kann es sich um einen mehr oder weniger realitätsgetreuen mathematischen Formalismus des Gesamtsystems handeln, der im Computermodell modular implementiert wird, wodurch einzelne Module nicht unbedingt miteinbezogen werden müssen, sodass die buchungstechnische Datenübergabe durch den aufgrund der Modularisierung zwingend notwendigen Koppler in diesem Rahmen sehr wohl theoretisch-konzeptionell fundiert und mehr als ein abstrakter Input/Output-Transfer ist. „Although many of the basic equations are similar for the atmosphere, oceans, and ice (especially for the two fluids, ocean and atmosphere), there are distinct differences due to the basic physical differences in the respective fields, and these need to be addressed in the modelling
80
Jobst Conrad
frühen Tagen gekoppelter Global Circulation Models (GCM) vor 20-30 Jahren sequentielle Kopplung, Flusskorrekturen, und häufig Rückkopplungsschritte nur in größeren zeitlichen, teils jährlichen Abständen. Da es durchaus unterschiedliche Möglichkeiten in der mathematischen Formulierung von Kopplern gibt, besteht angesichts des Wunsches nach der Kopplung verschiedener verfügbarer Modell-Module auch ein Interesse an der Nutzung einheitlicher Koppler, da die einzelnen Modulkomponenten formaltechnisch nur an der jeweiligen Schnittstelle andocken können. So ist OASIS (Ocean Atmosphere Sea Ice Soil) in der Europäischen Union (EU) der dominante Koppler (vgl. Berti et al. 2004). Die Resultate von Simulationen mit gekoppelten Modellen führen durchaus zu teils unerwarteten und überraschenden Einsichten in Klimaprozesse. So lässt sich etwa ENSO erst durch Ozean-Atmosphäre-Rückkopplungen angemessen verstehen (vgl. Washington/Parkinson 2005). Im Ergebnis kann man festhalten, dass das Anliegen der Klimaforschung, Austausch- und Rückkopplungsprozesse zwischen den verschiedenen Subsystemen und Prozessen mit einzubeziehen und besser zu verstehen, die Entwicklung von (einheitlichen) Kopplern induziert hat. Dabei handelt es sich zumindest retrospektiv um einen sich wechselseitig befruchtenden Prozess dieser beiden Anliegen, auch wenn über die sozialen Mikroprozesse von Kopplerentwicklungen und deren Wechselwirkung mit Projekprograms. Among these differences: the atmosphere is composed largely of a compressible gas which, for the bulk of the atmosphere, has no horizontal boundaries; the ocean is composed largely of a nearly incompressible liquid with boundary constraints, often awkward to handle numerically; and sea ice is a solid of variable extent and thickness that can disappear altogether, as it does over vast areas each summer. Furthermore, the density structure of the oceans, especially in the polar regions, is heavily dependent on salinity as well as temperature, so that the equation of state used in ocean modelling tends to be more involved than that used in atmospheric modelling, while the assumption of incompressibility in the oceans allows other equations to be less complicated. In addition, the modelling of the four media (atmosphere, ocean, ice, land) is affected by the differing time and space scales involved in important energy transfers and other processes. The time scales of response of the atmosphere to changes in surrounding conditions are typically much shorter than the time scales of response of the ocean, especially the deep ocean, and of the land beneath the surface layer. However, the upper ocean and land surface respond on nearly the same time scale as the atmosphere, so that, for example, the diurnal cycle must be taken into account (…). In coupled models the component models are frequently exchanging fluxes of energy, momentum, and water, thus requiring a coupler that passes fluxes from one media to another with high accuracy and at different intervals in time.“ (Washington/Parkinson 2005: 266f) – „Many modelling groups have adopted a flux coupler approach in their modelling system. The flux coupler facilitates the exchange of information between the component models and contains state variables as well as heat, water, and momentum fluxes. Since the components have different resolutions and mapping on the Earth there is a need to transfer data from one grid to another, average in space and time as appropriate, and scale the fluxes such that total energy is conserved. Special computational issues with the coupler in individual circumstances are driven by the physics of the problem being addressed, for example, the diurnal cycle.“ (Washington/Parkinson 2005: 217)
Zur Wechselwirkung von Klimatheorie und Forschungsorganisation
81
ten der Klimaforschung etwa bei der Kopplung chemischer mit dynamischen Prozessen in Chemistry Circulation Models (CCM), bei Atmosphäre-OzeanKopplungen, oder bei Kopplungen zwischen physikalischen und biogeochemischen Prozessen in der COSMOS-Initiative hier keine genaueren Aussagen gemacht werden können. (2) Die kleinräumige Struktur und die Feedback-Mechanismen von Wolken haben maßgeblichen Einfluss auf den Treibhauseffekt, die mit bereits geringen Veränderungen ihrer Albedo, mit dem Ausmaß ihrer Bodenbedeckung, ihrer optischen Dichte, ihrer Höhe, ihren mikrophysikalischen Eigenschaften und mit der komplexen Interaktion von Wolken und Strahlung zusammenhängen. Auch wenn Modellwolken in Klimamodellen inzwischen auf konsistenten physikalischen Repräsentationen von Wolken(bildung und -entwickung) beruhen, genügen hochauflösende Spektrometer und Mikrowellensensoren in Satelliten auch im Rahmen von großen internationalen Gemeinschaftsprojekten (vgl. Rossow/Schiffer 1991) nicht, um die daraus resultierenden beträchtlichen Unsicherheiten in Klimasimulationen und -projektionen zu reduzieren, da diese Messdaten keine umfassende dreidimensionale Beschreibung von Wolken und ihren bedeutsamen Eigenschaften zu liefern vermögen. Dies induzierte starke Anreize, in durchaus aufwändigen Entwicklungsprojekten zusätzliche satellitenbasierte Messverfahren mit aktiven und passiven Sensoren im Bereich der SatellitenFernerkundung (satellite remote sensing instrumentation) in mehrere Richtungen zu entwickeln. „The International Satellite Cloud Climatology Project (ISCCP; Rossow and Schiffer 1991) has developed an analysis of cloud cover and cloud properties using the measurements of operational meteorological satellites over a period of more than two decades. These data have been complemented by other satellite remote sensing data sets, such as those associated with the Nimbus-7 Temperature Humidity Infrared Radiometer (THIR) instrument (Stowe et al. 1988), with high-resolution spectrometers such as the High Resolution Infrared Radiation Sounder (HIRS) (Susskind et al. 1987), and with microwave absorption, as used by the Special Sensor Microwave/Imager (SSM/I).“ (IPCC 2007: 116)
(3) Bei seiner Diskussion der Analyse von Eiszeitzyklen weist Weart (2005: Past Cycles: Ice Age Speculations) explizit darauf hin, wie weder Techniken (der Paläoklimatologie und Glaziologie) zu gegebenen historischen Zeitpunkten verfügbar und unkontrovers sind29 noch die in den 1970er Jahren verfügbaren
29
„Historians usually treat techniques as a stodgy foundation, unseen beneath the more exciting story of scientific ideas. Yet techniques are often crucial, and controversial.“ (Weart 2005: Past Cycles: Ice Age Speculations: 6)
82
Jobst Conrad
Eisbohrkerne für solche Analysen lang genug waren.30 Das im Rahmen des WCRP an die Artic Climate System Study (ACSYS) anschließende CliC-Projekt „aims to systematically enhance monitoring, understanding and modelling of complex processes through which the cryosphere interacts with the global climate system (…) CliC is expected to cover several important gaps in global climate research and observations including investigation of the possibility of additional releases to the atmosphere of greenhouse gases from frozen soils.“31 (WMO 2005: 42) Jüngste Beobachtungen eines beschleunigten Rückgangs des arktischen Polareises und Abschmelzens südgrönländischer Gletscher (AMAP/CAFF/IASC 2005, Bobylev et al. 2003, Hanna et al. 2008, Hansen 2005, Steffen et al. 2008, Velicogna/Wahr 2006, Wang et al. 2007) erhöhen zudem die gesellschaftliche Legitimation eines solchen umfangreichen Forschungsprojekts. Auf der Grundlage des Eigeninteresses von WMO und WCRP an der Initiierung und Koordination klimawissenschaftlich und klimapolitisch relevanter Forschungsprogramme und -projekte lässt sich CliC problemlos als eine forschungsorganisatorische Anstrengung einordnen, um Fortschritte in der Klimaforschung und -theorie zu erzielen32, auch wenn die umgekehrte Perspektive gleichfalls berechtigt ist, dass ebendiese klimawissenschaftlichen Anliegen zu einer entsprechenden Forschungsorganisation und einem entsprechenden Forschungsprogramm geführt haben. Ergänzend sei in diesem Kontext noch das IPCC als Grenzorganisation zwischen Wissenschaft und Politik angeführt, der es gelang, allmählich eine hohe Reputation und Legitimation sowohl innerhalb der (Klima-)Wissenschaft als auch in der Klimapolitik zu gewinnen, die größer als in den meisten anderen Wissenschaftsgebieten ist und diejenige anderer (vergleichbarer) wissenschaftlicher Beratungs- und Expertenkommissionen übertrifft. Das IPCC stellt somit 30
31
32
„However, the Greenland ice cores could say little about long-term cycles. They were too short to reach past a single glacial cycle. And the ice flowed like tar at great depths, confusing the record. In the 1970s, despite the arduous efforts of the ice drillers, the most reliable data were still coming from deep-sea cores.“ (Weart 2005: Past Cycles: Ice Age Speculations: 11) „The first CliC Science Conference was held in Beijing, China, April 2005, and contributed significantly to establishing an international community of scientists, including many young scientists, for the implementation of this important and newest core project – especially in the context of the forthcoming International Polar Year (IPY) 2007-08.“ (WMO 2005: 42) „Both short- and long-term predictions of climate change are impossible without at least adequate account of cryospheric processes. Prediction of sea-level rise is another factor of crucial relevance for the IPCC assessments. CliC has an important contribution to make here since a significant fraction of the sea-level rise is likely to be due to the melting of grounded ice. Other global issues of relevance to CliC include: thermohaline circulation (freshening of outflows into the North Atlantic); changes in the Southern Ocean circulation; snow and ice albedo feedbacks; accurate description and representation in models of climate for the regions with permafrost and snow cover; advances in measurement and analysis of solid precipitation.“ (WMO 2005: 42)
Zur Wechselwirkung von Klimatheorie und Forschungsorganisation
83
ein Beispiel dafür dar, wie geeignete organisatorische und prozedurale Arrangements maßgeblich zum wissenschaftlichen Konsens in der Klimaforschung beizutragen und Politikrelevanz ihrer Ergebnisse zu induzieren vermögen. Der Erfolg des IPCC, die Trennung von Wissenschaft und Politik erfolgreich aufrechtzuerhalten, politische Interventionen abzublocken und die Kontrolle über seine Arbeit und Ergebnisse innerhalb einer noch sehr heterogenen Gemeinschaft der Klimawissenschaftler zu behalten, dabei dennoch wachsende Legitimität zu erringen, die bloße Instrumentalisierung seiner Resultate zu vermeiden und in Form von mind framing erkennbar Einfluss auf die Akteure und Expertengemeinschaften (epistemic communities) der Klimapolitik zu nehmen, war nicht zu erwarten und beruht auf dem vorteilhaften Zusammenspiel einer Reihe fördernder Faktoren. So sind im Bereich des Klimawandels geeignete prozedurale Arrangements und eine adäquate Organisation der Erstellung der IPCC-Berichte entscheidend für die Aufrechterhaltung der Grenze zwischen Wissenschaft und Politik.33 Bei aller intellektueller Verfeinerung und Differenziertheit stimmen denn auch diverse Studien über den IPCC (vgl. z. B. Agrawala 1997, 1998a, 1998b, Alfsen/Skodvin 1998, Böhmer-Christiansen 1993, Edwards/Schneider 2001, Hecht/Tirpak 1995, Pielke 2005, Poloni 2008, Siebenhüner 2003, Skodvin 1999, Weart 2005) in der Tendenz weitgehend mit der Wahrnehmung von im IPCC maßgeblich involvierten Wissenschaftlern überein (vgl. Bolin 1994, 1997, 2007, Houghton 1997, Pachauri 2004), dass es dem IPCC nach anfänglichen Kontroversen über die Validität und Legitimität seiner Aussagen gelang, gemäß seinen eigenen Intentionen zu einem innerwissenschaftlich allgemein anerkannten Review-Organ zu werden. Seine wissenschaftlichen Veröffentlichungen werden als Stand der Klimaforschung durchweg
33
„Four functions the institutional framework should be able to serve in order to enhance the effectiveness of the science-policy dialogue: (1) maintain the scientific autonomy and integrity of participating scientists, (2) ensure a certain level of involvement between science and politics, (3) ensure the geo-political representativity of the process, (4) provide mechanisms for conflict resolution.“ (Skodvin 1999: 14) „This differentiation between roles and functions at different decision-making levels enables the institutional apparatus to serve a set of seemingly incompatible functions. This explains, in particular, the difficult combination, achieved within the IPCC, of both separating and integrating science and politics.“ (Skodvin 1999: 28) „Any move to reduce political involvement in the IPCC would weaken the panel and deprive it of its political clout (…). If governments were not involved, then the documents would be treated like any old scientific report. They would end up on the shelf or in the waste bin.“ (Houghton, Nature 381, Juni 1996) In diesem Zusammenhang „the leadership provided by individual actors is, in a sense, the ‘glue’ of the system. As it seems, the explanatory power of institutional design for the outcome of this process is entirely dependent upon the capacity of individual actors to provide leadership, both in the development of the assessment, its transformation into decision premises for policy decisions and in boundary roles between the scientific and the policy dominated decision-making levels of the institution.“ (Skodvin 1999: 31)
84
Jobst Conrad
respektiert34, und seine Summaries for Policymakers werden im politischen System vergleichsweise aufmerksam und zustimmend zur Kenntnis genommen und tragen damit zum mind framing der außerwissenschaftlichen Akteure bei, natürlich ohne deshalb bereits klimapolitische Entscheidungen maßgeblich zu prägen. Diesen Abschnitt abschließend sei festgehalten, dass meine Ausführungen über die systematischen Bedingungszusammenhänge von Klimatheorie und Forschungsorganisation und -techniken offensichtlich allgemein gehalten und wenig spezifisch-konkret sind. Dies liegt daran, dass sie auf der Mikro-Ebene fallspezifisch variieren dürften, sodass bestimmte epistemische Praktiken selten mit bestimmten konkreten Organisationsformen einhergehen dürften, und dass der Autor diesbezüglich keine konkreten Fallstudien durchgeführt hat.
5.
Schlussfolgerungen
Die Schlussfolgerungen aus dieser (exemplarischen) Analyse der Wechselwirkungen zwischen Klimatheorie und Forschungsorganisation sind in gewisser Weise eher trivial, weil sie m. E. in etwa so zu vermuten waren: 1.
2.
34
35
Das allgemein beschriebene Bedingungsverhältnis zwischen Klimatheorie einerseits und Forschungsorganisation und -techniken andererseits ist genauso zu erwarten, da es (unter heutigen gesellschaftlichen Bedingungen) im Falle einer erfolgreichen Klimaforschung anders kaum möglich sein dürfte: erfolgreiche Klimawissenschaft, adäquate Forschungsorganisation, geeignete Forschungstechniken und ausreichende (finanzielle) Ressourcen bedingen einander.35 Dabei handelt es sich sozial um einen unvermeidbar wechselseitigen Bedingungszusammenhang, der keine eineindeutigen kausalen Zuschreibungen erlaubt. „Each of the full assessments is a huge undertaking. The reports involve hundreds of scientists from dozens of countries as authors and peer reviewers, including many of the most respected figures in the field. These groups work over several years to produce each full assessment, and their reports are subjected to an exhaustive, publicly documented, multi-stage review process. In view of the number and eminence of the participating scientists and the rigor of their review process, the IPCC assessments are widely regarded as the authoritative statements of scientific knowledge on climate change.“ (Dessler/Parson 2006: 44) So verzwanzigfachten sich die Mittel für die Klimaforschung in knapp zehn Jahren (1988 1997), was ihre Ausweitung zur Großforschung (vgl. Stanhill 1999, 2001), eine analoge Zunahme der Zahl der Klimaforscher und die genauere Datenerhebung und Modellierung von Klimaprozessen in ihren Forschungsarbeiten erst ermöglichte und zudem ihre gestiegene gesellschaftliche und politische Relevanz belegt.
Zur Wechselwirkung von Klimatheorie und Forschungsorganisation 3.
4.
5.
6.
36
85
Realhistorisch kommt es zu unterschiedlichen Varianten in der Ausprägung dieses Bedingungszusammenhangs; so kann z. B. die Forschungsorganisation durchaus suboptimal sein, mit der wahrscheinlichen Folge verzögerten Erkenntnisgewinns. So drohten z. B. die US-amerikanischen Klimamodellierer in den 1990er Jahren infolge fragmentierter und stagnierender Forschungsförderung und mehr konkurrierender als koordinierter Modellierungsanstrengungen gegenüber ihren europäischen Kollegen ins Hintertreffen zu geraten.36 Es ist ein historisch allmählich gewachsener und kein sprunghafter Prozess zunehmend komplexer Forschungsorganisation und Klimatheorie, der (auch) daraus resultiert, dass es sich beim Klima(wandel) um einen problemorientierten multidisziplinären Forschungsgegenstand handelt, der sich (wie ein Agrarsystem oder ein Verkehrssystem) nicht (paradigmatisch) auf eine Disziplin und monodisziplinäre Erklärung konzentrieren lässt. Die auch daraus resultierende Vielfalt der Klimaforschung verlangt relativ starke Koordinationsmechanismen, um die Integration ihrer Ergebnisse gewährleisten zu können. Entsprechend lässt sich die in Fußnote 10 pointierte Veränderung in der Sozialstruktur der Klimaforschung hin zu international abgestimmten und koordinierten Forschungsverbünden mit Klimaforschern unterschiedlicher Provenienz und Arbeitsgebieten und mit der Kombination verschiedenartiger Forschungsinstrumente und -techniken beobachten, ohne die viele Erkenntnisse und deren methodische, empirische und theoretische Absicherung in der Klimaforschung nicht (mehr) möglich wären. Während die Verfügbarkeit entsprechender Forschungsorganisation und techniken eine notwendige Bedingung für die Weiterentwicklung sowie die empirische und theoretische Absicherung der Klimatheorie darstellen, gilt dies umgekehrt nur eingeschränkt: Klimatheorien lösen die Entwicklung entsprechender Forschungstechniken und Organisationsformen der Klima„One reason was that the U.S. government forbade them from buying foreign supercomputers, a technology where Japan had seized the lead. National rivalries are normal where groups compete to be first with the best results, but competition did not obstruct the collaborative flow of ideas.“ (Weart 2005: General Circulation Models of the Atmosphere: 27) – „How could the United States be in danger of lagging behind, given that it had pioneered the climate-change field from the start – and still had many of the leading research scientists, and far larger research resources, than Germany and the United Kingdom put together? The answer to that question for B appears to have resided in the European countries’ very centrally managed and coordinated research effort, and their achievement of broad consensus on how to conduct climate modelling and interpret its outputs. B perceived the United States, by comparison, to have a very fragmented and diverse research effort, with multiple centers, multiple funders, and different and sometimes conflicting scientific and research policy objectives and management approaches.“ (Shackley 2001: 110)
86
7.
8.
9.
Jobst Conrad forschung zwar häufig aus, insofern deren Entwicklung ohne sie kaum in Angriff genommen worden wäre; jedoch wären sie prinzipiell auch ohne diese Klimatheorien möglich, zumindest sofern diese nicht die notwendige theoretische Basis für ihre Entfaltung darstellen (vgl. das skizzierte Beispiel der Glaziologie und Eisbohrkerne). Im konkreten Einzelfall lassen sich Bedingungszusammenhang und Wirkungskette bzw. -verhältnis jeweils für sich rekonstruieren, sodass sich die resultierende wechselseitige Interaktionsdynamik aus Klimatheorie, Forschungsorganisation und technischen Instrumenten zumeist als plausible, jedoch nicht notwendig intendierte Resultante und nicht unbedingt als zwingende Voraussetzung dieser Entwicklung ergibt. Die notwendige komplexe Forschungsorganisation zwangsläufig zunehmend segmentierter, individuell nicht mehr integrier- und überschaubarer Forschungskomponenten und -verfahren birgt das Risiko von deren partieller Verselbständigung in sich – mit der Folge von im Extremfall normalen Katastrophen (Perrow 1989). Wie die eingangs vorgestellte Grundannahme dieses Beitrags durch den Verweis auf die Unterscheidung von Entstehungs- und Begründungszusammenhang wissenschaftlicher Theorien plausibilisiert wurde, lassen sich Forschungsorganisation und (die Entwicklung und Nutzung von) Forschungstechniken, und damit letztlich auch die Klimaforschung als sozialer Prozess und Unternehmen vorrangig dem context of discovery und Klimatheorien als kognitive Erklärungen und Interpretationsmuster primär dem context of justification zuordnen. Dies korrespondiert der Unterscheidung von (Klima-)Forschung als vorrangig auf der Ebene von Organisation und von (Klima-)Wissenschaft als zunächst auf der Ebene kognitiver Theorie(bildung) anzusiedelnden Dimensionen von Wissenschaft als sozialem System. Wissenschaftliche Dynamik entsteht in dieser Perspektive dann, wie z. B. in Halfmann et al. (2008a) beschrieben, vor allem aus der Wechselwirkung von (Klima-)Theorie und Organisation(sformen) der (Klima-) Forschung.
Zur Wechselwirkung von Klimatheorie und Forschungsorganisation
87
Literatur Agrawala, Shardul (1997): Explaining the Evolution of the IPCC. Structure and Process. ENRP Discussion Paper E-97-05. Cambridge: Harvard University Agrawala, Shardul (1998a): Context and Early Origins of the Intergovernmental Panel on Climate Change. In: Climatic Change 39. 605-620 Agrawala, Shardul (1998b): Structural and Process History of the Intergovernmental Panel on Climate Change. In: Climatic Change 39. 621-642 Alfsen, Knut S./Skodvin, Tora (1998): The Intergovernmental Panel on Climate Change (IPCC) and Scientific Consensus. Cicero Policy Note 1998: 3. Oslo Allison, I. et al. (Hrsg.) (2001): Climate and Cryosphere (CliC) Project. Science and Coordination Plan. WCRP Series Report 114. Genf AMAP/CAFF/IASC (Hrsg.) (2005): Arctic Climate Impact Assessment. Cambridge: Cambridge University Press Berti, G. et al. (2004): OASIS3 and OASIS4: the PRISM Couplers. Folien des Vortrags auf dem FLUME-PRISM Workshop, Exeter Bobylev, Leonid P. et al. (Hrsg.) (2003): Artic Environment Variability in the Context of Global Change. Berlin: Springer Böhmer-Christiansen, Sonja (1993): Science Policy, the IPCC, and the Climate Convention. In: Energy and Environment 4. 362-406 Bolin, Bert (1994): Science and Policy Making. In: Ambio 23. 4. 25-29 Bolin, Bert (1997): Scientific Assessment of Climate Change. In: Fermann (1997): 83109 Bolin, Bert (2007): A History of the Science and Politics of Climate Change. The Role of the Intergovernmental Panel on Climate Change. Cambridge: Cambridge University Press Burrichter, Clemens (Hrsg.) (1979): Grundlegung der historischen Wissenschaftsforschung. Basel: Schwabe Conrad, Jobst (2005): Analytisches Gerüst für die Einordnung von (empirischen) Tatbeständen in Bezug auf Forschungsergebnisse und Erklärungsmodelle der Klimaforschung zur Klärung der Frage nach daraus resultierenden Disziplinbildungsprozessen. Ms, Berlin Conrad, Jobst (2006): Disziplinäre Verankerungen theoretischer Erklärungen in der Ozonforschung. Projektbericht Berlin; erscheint in: Halfmann et al. (2008b) Conrad, Jobst (2007): Wissenschaftsdynamik, Community- und Disziplinbildungsprozesse in der Klimaforschung. Projektbericht Berlin 2007 Conrad, Jobst (2008a): Von Arrhenius zum IPCC. Wissenschaftliche Dynamik und disziplinäre Verankerungen der Klimaforschung. Münster: Monsenstein und Vannerdat Conrad, Jobst (2008b): Sozialwissenschaftliche Analyse von Klimaforschung, -diskurs und -politik am Beispiel des IPCC. In: Voss (2008) Dessler, Andrew E./Parson, Edward A. (2006): The Science and Politics of Global Climate Change. A Guide to Debate. Cambridge: Cambridge University Press
88
Jobst Conrad
Edwards, Paul N. (1999): Global Climate Science, Incertainty and Politics: Data-laden Models, Model-filtered Data. In: Science as Culture 8. 4. 437-472 Edwards, Paul N./Schneider, Stephen H. (2001): Self-Governance and Peer Review in Science-for-Policy: the Case of the IPCC Second Assessment Report. In: Miller/Edwards (2001): 219-246 Fermann, Gunnar (Hrsg.) (1997): International Politics of Climate Change: Key Issues and Critical Actors. Oslo: Scandinavian University Press Fleming, James R. (1998): Historical Perspectives on Climate Change. Oxford: Oxford University Press Glaser, Rüdiger (1991): Klimarekonstruktion für Mainfranken, Bauland und Odenwald anhand direkter und indirekter Witterungsdaten seit 1500. Akademie der Wissenschaften und der Literatur, Paläoklimaforschung Band 5. Mainz: Fischer Verlag Glaser, Rüdiger (2001): Klimageschichte Mitteleuropas. 1000 Jahre Wetter, Klima, Katastrophen. Darmstadt: Wiss. Buchgesellschaft Gramelsberger, Gabriele (2004): Computersimulationen in den Wissenschaften. Neue Instrumente der Wissensproduktion. Explorationsstudie, Berlin Gramelsberger, Gabriele (2007): Computerexperimente in der Klimaforschung. Zwischenbericht, Berlin Gruber, Nicolas et al. (1996): An Improved Method for Detecting Anthropogenic CO2 in the Oceans. In: Global Biogeochemcial Cycles 10. 809-837 Haken, Hermann (1978): Synergetics: An Introduction: Nonequilibrium Phase Transitions and Self-Organization in Physics, Chemistry, and Biology. Berlin: Springer Halfmann, Jost et al. (2003): Problemorientierte Forschung und wissenschaftliche Dynamik. Das Beispiel der Klimaforschung. Forschungsantrag, Dresden Halfmann, Jost et al. (2008a): Problemorientierte Forschung und wissenschaftliche Dynamik. Das Beispiel der Klimaforschung. Endbericht, Dresden Halfman, Jost et al. (2008b): Wissenschaftsdynamik: disziplinäre Entwicklungen am Beispiel der Ozonforschung. Münster: Monsenstein und Vannerdat Hanna, Edward P. et al. (2008): Increased Runoff from Melt from the Greenland Ice Sheet: a Response to Global Warming. In: Journal of Climate 21. 331-341 Hansen, James E. (2005): A Slippery Slope: How Much Global Warming Constitutes ‘Dangerous Anthropogenic Interference’? (Editorial). In: Climatic Change 68. 269279 Hauser, Walter (Hrsg.) (2002): Klima. Das Experiment mit dem Planeten Erde. Begleitband und Katalog zur Sonderausstellung des Deutschen Museums vom 7.11.2002 bis 15.6.2003. München Hecht, Alan D./Tirpak, Dennis (1995): Framework Agreement on Climate Change: A Scientific and Policy History. In: Climatic Change 29. 371-402 Houghton, John T. (1997): Global Warming: The Complete Briefing. Cambridge: Cambridge University Press IPCC (Hrsg.) (2001): Climate Change 2001: The Scientific Basis. Contribution of Working Group I to the Third Assessment of the Intergovernmental Panel on Climate Change. Cambridge: Cambridge University Press IPCC (Hrsg.) (2007): Climate Change: The Physical Science Basis. Cambridge: Cambridge University Press
Zur Wechselwirkung von Klimatheorie und Forschungsorganisation
89
Jäger, Jill/O’Riordan, Timothy (Hrsg.) (1996): Politics of Climate Change. A European Perspective. London : Routledge Krohn, Wolfgang (1979): ‚Intern – extern’, ‚sozial – kognitiv’. Zur Solidität einiger Grundbegriffe der Wissenschaftsforschung. In: Burrichter (1979): 123-148 Krueck, Carsten P./Borchers, Jutta (1999): Science as Politics: A Comparison of Climate Modelling Centres. In: Minerva 37. 105-123 Lamb, Hubert H. (1997): Through All the Changing Scenes of Life: A Meteorologist’s Tale. Norfolk: Taverner Lorenz, Edward N. (1963): Deterministic Nonperiodic Flow. In: Journal of Atmospheric Science 20. 130-141 Machida, Toshinobu et al. (2005): World-Wide Measurements of Atmospheric CO2 and Other Trace Gas Species Using Commercial Airliners. Folien des Vortrags auf der 7. International Carbon Dioxide Conference, Boulder Miller, Clark/Edwards, Paul N. (Hrsg.) (2001): Changing the Atmosphere: Expert Knowledge and Global Environemntal Governance. Cambridge: MIT Press Mukai, Hitoshi et al. (2005): Long-Term Observation of CO2 Concentration and its Isotopic Ratios over the Western Pacific. Folien des Vortrags auf der 7. International Carbon Dioxide Conference, Boulder Nebeker, Frederik (1995): Calculating the Weather. Meteorology in the 20th Century. New York: Academic Press O’Riordan, Timothy/Jäger, Jill (1996): The History of Climate Change Science and Politics. In: Jäger/O’Riordan (1996): 1-31 Pachauri, Rajendra K. (2004): „Intergovernmental Panel on Climate Change, 16 Years of Scientific Assessment in Support of the Climate Convention“. Genf: IPCC Perrow, Charles (1989): Normale Katastrophen. Die unvermeidbaren Risiken der Großtechnik. Frankfurt: Campus Pielke, Roger A. (2005): IPCC: Honest Broker or Political Advocate? Understanding the Difference and Why it Matters, Ms. Boulder Poloni, Verena (2008): Grenzorganisationen der Klimaforschung. In diesem Band Popper, Karl R. (1969): Logik der Forschung. Tübingen: Mohr Prigogine, Ilya/Stengers, Isabelle (1984): Order out of Chaos. New York: Bantam Books Rahmsdorf, Stefan/Schellnhuber, Hans Joachim (2006): Der Klimawandel. München: Beck Rossow, W./Schiffer, R. (1991): ISCCP Cloud Data Products. In: Bulletin of the American Meteorological Society 72. 2-20 Sabine, Christopher L. et al. (2004): The Oceanic Sink of Atmospheric CO2. In: Science 305. 367-371 Schellnhuber, Hans Joachim/Wenzel, Volker (Hrsg.) (1998): Earth System Analysis. Integrating Science for Sustainability. Berlin: Springer Schellnhuber, Hans Joachim et al. (Hrsg.) (2004): Earth System Analysis for Sustainability. Cambridge: MIT Press Schumann, Ulrich (2002): Klimadiagnosen aus dem All: Satellitenklimatologie. In: Hauser (2002): 54-85 Shackley, Simon (2001): Epistemic Lifestyles in Climate Change Modelling. In: Miller/Edwards (2001): 107-133
90
Jobst Conrad
Siebenhüner, Bernd (2003): The Changing Role of Nation States in International Environmental Assessments: The Case of the IPCC. In: Global Environmental Change 13. 113-126 Skodvin, Tora (1999): Science-Policy Interaction in the Global Greenhouse. Cicero Working Paper 1999: 3. Oslo Stanhill, Gerald (1999): Climate Change Science is Now Big Science. In: Eos, Transactions of the American Geophysical Union 80. 35. 396-397 Stanhill, Gerald (2001): The Growth of Climate Change Science: A Scientometric Study. In: Climatic Change 48. 515-524 Steffen, Konrad et al. (2008): Greenland Melt Anomalies during the Extreme Summer Heat of 2007 (in Vorbereitung) Stegmüller, Wolfgang (1973): Theoriendynamik. Normale Wissenschaft und wissenschaftliche Revolutionen. Methodologie der Forschungsprogramme oder epistemologische Anarchie? Berlin: Springer Stowe, Larry L. et al. (1988): Nimbus-7 Global Cloud Climatology. Part I: Algorithms and Validation. In: Journal of Climate 1. 445–470 Susskind, Joel et al. (1987): Clouds Fields Retrieved from HIRS/MSU Data. In: Journal of Geophysical Research 92. 4035–4050 Velicogna, Isabella/Wahr, John (2006): Acceleration of Greenland Ice Mass Loss in Spring 2004. In: Nature 443. 329-331 Voss, Martin (Hrsg.) (2008): Der Klimawandel. Sozialwissenschaftliche Perspektiven. Wiesbaden: VS-Verlag Wang, Libo et al, 2007: Melt duration and ice layer formation on the Greenland ice sheet 2000-2004, Journal of Geophysical Research 112, F04013, doi: 10.1029/2007JF000760 Weart, Spencer R. (2005): The Discovery of Global Warming. http://www.aip.org/history/climate, letzter Aufruf: 25.03.2009 WMO (2005): The World Climate Research Programme. Strategic Framework 20052015. Genf Zachos, James/Kelly, Daniel C. (2005): An Aberration in the Global Carbon Cycle 55 Million Years Ago: Lessons for the Future. Folien des Vortrags auf der 7. International Carbon Dioxide Conference, Boulder Zachos, James et al. (2001): Trends, Rhythms, and Aberrations in Global Climate 65 Ma to Present. In: Science 292. 686-69
III. Wissenschaftssoziologie
Kontexte der Forschung – Validierung von Wissen Stefan Böschen
1.
Einleitung: Risikowissen und Probleme der Erzeugung von Gewissheit
Risiko und Fortschritt sind zwei miteinander verwobene Grundelemente modernen Selbstverständnisses. Fortschritt zu eröffnen konnte nur um den Preis einzugehender Risiken geschehen. Ohne das Risiko der Niederlage kein möglicher Gewinn. Diese an sich prekäre Konstellation konnte lange Zeit durch eine spezifische Doppelfunktion von Wissenschaft kognitiv bewältigt und institutionell stabilisiert werden. Diese Doppelfunktion bestand (und besteht) darin, nicht nur für die Bereitstellung von Innovationen grundlegende Ideen und neue Muster zu entwickeln, sondern ebenso die Analyse möglicher, unerwünschter Nebenfolgen derselben Innovationen anzuleiten. Technologische Eröffnung wie gesellschaftlich-ökologische Einbettung – für beide Seiten der „Innovationsmedaille“ stellte Wissenschaft das notwendige Wissen bereit. Das waren geradezu paradiesische Zeiten, die unter der Einlösung dieses Versprechens standen. Fortschritt und Folgen des Fortschritts schienen gesellschaftlich gestalt- und kontrollierbar. Nun hat sich im Laufe der letzten 30 Jahre die Situation grundlegend geändert. Mit der Aufdeckung von Risikolagen im Nachhinein, wie im Fall der Chemikalien FCKW oder DDT (vgl. Böschen 2000, EEA 2001), oder der generellen Thematisierung des „Nichtwissens der Wissenschaft“ (Wehling 2006) hat sich eine Situation eingestellt, Wissenschaft bei der Bereitstellung von Risikowissen nicht mehr umstandslos zu vertrauen. Zwar wird Wissenschaft weiterhin als die zentrale Institution zur Bereitstellung von Ressourcen des technologischökonomischen Fortschritts gesehen. Jedoch verliert das Versprechen, auch die Nebenfolgen dieses Prozesses beschreiben und kontrollieren zu können, immer mehr an Glaubwürdigkeit. Wissenschaft bleibt Fortschrittsgarantin in der Bereitstellung innovativer Wissensressourcen. Zugleich verwischt die Rolle von Wissenschaft bei der Genese von Risikowissen, verblasst im Profil und scheint neu definiert werden zu müssen. Ausgangsvermutung für die folgenden Überlegungen ist demnach, dass bei Prozessen risikorelevanter Erkenntnisproduktion Umstrukturierungsprozesse zu beobachten sind, die das bisherige Gefüge der Produktion risikorelevanten Wissens in Frage stellen und als Entgrenzung deutbar werden. Diese Phänomene treten erst vor dem Hintergrund der vormals eindeutigen Definitionshoheit von Wissenschaft oder einzelner ihrer Disziplinen
Kontexte der Forschung – Validierung von Wissen
93
sowie der programmatischen sozialen Separation von Wissenschaft in das Blickfeld. In einem ersten Zugriff lassen sich drei Varianten von Entgrenzung voneinander unterscheiden. Erstens lässt sich Entgrenzung als Unterlaufen bisheriger Diskursordnungen im Raum der Wissenschaft selbst verstehen. Dabei wird das zumeinst von einer Disziplin dominierte hierarchische Gefüge von einer Form der situativen Ordnung heterogener Wissenskulturen abgelöst. Für die Produktion wissenschaftlichen Wissens organisierte lange Zeit die Wissenschaft selbst über die disziplinäre Aufgabenteilung stabile Erkenntnismärkte. Sie waren stabil, weil intern entwickelte und etablierte Kriterien der Validierung von Wissen die Prüfung von Wissen ermöglichten. Die Maßstäbe der Gültigkeit von Wissen wurden im Kontext disziplinärer Wissenskulturen (Knorr-Cetina 2002) entwickelt und verinnerlicht. Erkenntnismärkte waren außerdem stabil, weil die Wissenschaft mit ihrer disziplinbezogenen Organisation so aufgebaut war, dass sich die konkurrierenden Wissensakteure nicht in die Quere kamen. Nun weist Risikowissen in vielen Fällen eine besondere Struktur auf; es ist zumeist eine Form transdisziplinären Wissens. Es lässt sich nicht ohne weiteres der Hoheit einer Disziplin unterordnen, auch wenn dies lange Zeit so praktiziert wurde. Bei der Erzeugung von Risikowissen öffnet sich ein Raum zumeist ungewollter interdisziplinärer Bezüge zwischen wissenschaftlichen Wissensakteuren. Im wissenschaftsintern (wie -extern) ausgetragenen Konflikt um Risikowissen werden die Grenzen der jeweiligen disziplinären Wissenskulturen thematisch. Und da keine übergeordnete Rationalität in diesem Feld für Wissens-Ordnung sorgen kann, stellt sich ganz zugespitzt das Problem: Wie lässt sich die Validität von Risikowissen überhaupt bestimmen? Die Genese von Risikowissen unterläuft damit die routinisierte Arbeitsteilung zwischen den Disziplinen, weil hierbei grundsätzliche Konflikte um die Validität und Validierbarkeit von Wissen entstehen. Vor diesem Hintergrund scheint die Ordnung von Wissenskulturen explizit, problemspezifisch und unter Umständen politisch ausgehandelt werden zu müssen. Zweitens verweist Entgrenzung auf eine, auf die Kategorie der Zeit bezogene, epistemische Sondersituation von Risikowissen. Diese Form des Wissens bezieht sich vielfach auf mögliche zukünftige Zustände. Zukunft ist per definitionem Nichtwissen. Über sie lässt sich immer nur im Modus des Noch-Nicht sprechen. Sofern sich wissenschaftliche Aussagen auf die Zukunft beziehen, so lassen sich diese nicht als Fakten darstellen. Diese Situation ist in solchen Fällen unproblematisch, in denen aufgrund von theoretischem oder praktischem Wissen eine relativ hohe Prognosesicherheit besteht. Jedoch weisen die meisten risikopolitischen Felder und die damit verbundenen (Nicht-)Wissenskonflikte eine andere Struktur auf. Hierbei ist die Form von Nichtwissen selbst Gegen-
94
Stefan Böschen
stand der Auseinandersetzungen: Handelt es sich um Nichtwissen, das als NochNichtwissen zum Ausgangspunkt von Forschungsbemühungen gemacht werden kann und wenn ja: welche? Oder um ein grundsätzliches Nichtwissen, das auch durch intensivste wissenschaftliche Bemühungen nicht als auflösbar erachtet wird (vgl. schon Weinberg 1972)? Mit der Entscheidung für bestimmte Forschungsperspektiven und ihre Aufmerksamkeitshorizonte für Nichtwissen wird nur bedingt eine Faktenaussage getätigt, sondern werden vielmehr Wertentscheidungen getroffen. Die hier aufscheinende Form der Entgrenzung betrifft also letztlich die Unterscheidung von Fakten und Werten, die in der Moderne die Sonderstellung wissenschaftlichen Wissens gegenüber anderen gesellschaftlichen Wissensressourcen begründete. Letztlich muss diese Form der Entgrenzung das Validierungsproblem verschärfen, weil von vornherein Wertentscheidungen bei der Selektion von Validierungsmodellen und Konstruktion von Validierungskontexten getroffen werden müssen. Drittens ist Entgrenzung als Öffnung des wissenschaftlichen Binnenraums für zivilgesellschaftliche, politische und ökonomische Akteure zu begreifen. Dadurch kommt es nicht nur zu einer interdisziplinären, sondern gar zu einer transdisziplinären Konfliktkonstellation zwischen Wissensakteuren. In der Folge wird der Prozess der Genese von Risikowissen politisiert. Es handelt sich hierbei weniger um eine Entgrenzung kognitiver Stile als vielmehr um Prozesse, bei denen etablierte soziale Grenzen unterlaufen oder gar in Frage gestellt werden. In einem Wort: die sozialen Kontexte von Forschung haben sich nicht nur diversifiziert, sondern ebenso werden sie zum Gegenstand öffentlicher Aushandlungsprozesse. Die risikopolitische Arena wird von sehr unterschiedlich institutionalisierten Wissensakteuren bevölkert. Damit bricht das Deutungsmonopol von Wissenschaft auf, weshalb Forderungen Raum greifen, für die Bearbeitung solcher Risiken neue Formen der Risikopolitik zu finden. Diese sollen im Wesentlichen dazu beitragen, nicht nur der Öffentlichkeit ein anderes Gewicht bei der Formierung von Risikowissen zu geben, sondern auch einer institutionellen Absicherung risikogenetischer Prozesse dienen. Erwartet wird dadurch, die sozial zugeschriebene Verlässlichkeit des Risikowissens sowie seine Legitimationskraft zu erhöhen (vgl. z. B. Risiko-Kommission 2003). Gleichwohl bleibt damit die systematische Frage unbeantwortet: Wie und warum kann es gelingen, die sozialen Kontexte der Forschung so zu organisieren, dass sie epistemisch aufschlussreiche und zudem auch legitime Validierungschancen eröffnen? Nun scheint mit diesen Entwicklungen die Frage nach Gewissheit wieder in die Gesellschaft zurückzukehren. In der Industriemoderne wurde diese Frage durch die Delegation an die Wissenschaft gelöst. Sie allein war die Instanz, die jegliche Wissenskonflikte durch die Erzeugung kognitiver Gewissheiten zu schlichten in der Lage schien – und das, obwohl in der Wissenschaft kognitive
Kontexte der Forschung – Validierung von Wissen
95
Ungewissheit auf Dauer gestellt wurde. Es war die potenzielle Prüfbarkeit wissenschaftlichen Wissens, welche die Zuschreibung sozialer Verlässlichkeit legitimierte. Diese spezifische Doppel-Konzeption von Wissen – zugleich epistemisch ungewiss und sozial verlässlich zu sein – bricht unter den genannten Bedingungen auf und es zeigt sich die Porosität monodisziplinär erzeugter, kognitiver Gewissheiten. Die strikte Separation scheint ihre Funktionsfähigkeit einzubüßen. Entsprechend sind „Wissensordnung und soziale Ordnung in ihrer gegenseitigen Abhängigkeit und Verschränkung wieder zusammenzudenken“ (Nowotny 2005: 108 f.). Dies bedeutet insbesondere, das soziale Projekt der Erzeugung kognitiver Gewissheiten ernst zu nehmen und die Durchwirkungen von Wissenschaft und Gesellschaft bei der Erzeugung von Risikowissen nicht nur anzuerkennen, sondern auch bewusst zu gestalten. Letztlich ist damit eine dreifache Frage gestellt: a) Sind Kristallisationsprozesse von institutionellen Rahmenbedingungen und korrespondierenden Organisationen zu beobachten, die sich als Antwort auf die beschriebenen Entgrenzungsprozesse deuten lassen? b) Welche Strukturen weisen diese Kristallisationsprozesse auf, lassen sich diese typisieren und welche Konsequenzen hat dies wiederum für die Produktion von Risikowissen? Und den Rahmen deskriptiver Analyse verlassend und auf die Ebene der Gestaltung verweisend c) Gibt es Kriterien und Prozesse, um das Organisieren von Validierungschancen (politisch) entscheidbar zu machen? Die folgenden Überlegungen betreffen vor allem die ersten beiden Fragen, die dritte soll in der zusammenfassenden Betrachtung zumindest ein Stück weit konturiert werden. Zur Bearbeitung dieser Fragen werden in diesem Aufsatz empirische Analysen und konzeptionelle Überlegungen miteinander verschränkt. In einem ersten Schritt geht es zunächst um die Präzisierung und Konkretisierung von neuen Randbedingungen bei der Erzeugung von Risikowissen. Hierzu dient die Geschichte der Fluor-Chlor-Kohlenwasserstoffe (FCKWs) und der Ozongefährdungshypothese. Wie entstand sie? Wann entstand sie in Relation zur Erfindung? In dieser Geschichte zeigt sich, wie ein Wandel von einer selbst- hin zu einer fremddefinierten Strukturierung von Validierungsprozessen zu beobachten ist (Abschnitt 2). Wenn, wie in diesem Artikel behauptet wird, dieser Wandel seine Ursache in einer systematischen Verunklarung von bis dato selbstverständlichen kognitiven wie sozialen Grenzziehungen besitzt, dann ist für die weitere Strukturierung des Problemfeldes ein Konzept notwendig, das sich dem Problem der Entgrenzung systematisch nähert. Hier wird vorgeschlagen, diese Prozesse unter der Perspektive von Gestaltungsöffentlichkeiten zu beobachten. Diese lassen sich als themenzentrierte Verschränkungen von Akteurnetzwerken und diskursiven Strukturierungen verstehen, die im Spannungs- und Konfliktfeld von Politik, Wissenschaft, Wirtschaft und Öffentlichkeit gesellschaftliche
96
Stefan Böschen
Such- und Lernprozesse anleiten und institutionell stabilisieren (Abschnitt 3). An den aktuellen Entwicklungen im chemiepolitischen Feld lässt sich das Konzept der Gestaltungsöffentlichkeiten weiter entfalten. Diese Fallstudie schließt sich zum einen nahtlos an die FCKW-Geschichte an, zum anderen zeigen sich bei ihr sehr eindrücklich die Wechselwirkungen zwischen politischen und wissenschaftlichen Strategien zur Lösung von Wissenskonflikten unter Bedingungen von Nichtwissen. Dazu werden zum einen die Entwicklungen im wissenschaftlichen Feld am Beispiel der ökologischen Chemie analysiert. Sie soll das risikorelevante Wissen über Umweltchemikalien erzeugen. Betrachtet man diese als Wissenskultur, dann fällt die innere Zerklüftung auf, die dazu beigetragen hat, dass das erzeugte Wissen für die Unterstützung von Politikprozessen nur bedingt nützlich war (Abschnitt 4). In der daran anschließenden Untersuchung des chemiepolitischen Feldes verdeutlicht sich einerseits die große Dynamik, die durch Innovationen einer spezifischen Richtung in der ökologischen Chemie (gebündelt als hazard assessment) ausgelöst wurden. Andererseits limitierte die wachsende ökononische Ausrichtung den Raum des Diskurses. Gleichwohl ergab sich ein neues Geflecht an institutionellen und organisationalen ‚Kristallisationen’, die als nichtwissens-orientierte Strukturierung des chemiepolitischen Feldes interpretiert werden können (Abschnitt 5). In einem letzten Abschnitt sollen wissenspolitische Perspektiven benannt werden, die zur systematischen Konzeption und Etablierung von Validierungskontexte beitragen können (Abschnitt 6).
2.
FCKW: Öffnung des Diskurses und Organisieren von Validierungskontexten
Die FCKWs, lange Zeit als Wunderchemikalien gefeiert, gerieten 1974 in ein ganz neues Licht. Zwei Atmosphärenchemiker (Sherwood Rowland und Mario Molina) äußerten die Vermutung, dass diese Stoffe zum Abbau von Ozon in der stratosphärischen Ozonschicht führen könnten An dieser Wende ist eine Reihe von Aspekten erstaunlich. Erstens war das Aufstellen dieser Risikohypothese äußerst unwahrscheinlich, weil sie aus einer Reihe von jeweils bestreitbaren Einzelzusammenhängen konstruiert worden war. Zudem trugen ganz unterschiedliche disziplinäre Wissenskulturen zur Gesamtvermutung bei. Letztlich war also eine transdisziplinäre Integration differenter Wissensbestände notwendig. Zweitens galten die FCKWs seinerzeit (nämlich 1930) nach den damals gültigen Maßstäben der Risikoforschung als eine nach allen Regeln der Kunst durchgetestete Chemikalie. Sie zeigten sich als vollkommen sichere und zugleich bemerkenswert funktionale sowie auch in unterschiedlichen Innovati-
Kontexte der Forschung – Validierung von Wissen
97
onskontexten einsetzbare Lösung – eine Wunderchemikalie. Vor diesem Hintergrund vermag uns diese Geschichte deshalb drittens einen guten Eindruck über Zusammenhänge zwischen Kontexten der Forschung und der Validierung von Wissen zu geben. Um es in einer These zu pointieren: Wir beobachten hier einen Wechsel von selbst- zu fremddefinierten Validierungsprozessen. Damit einhergehend kommt das Problem der Konstitution und Gestaltung von Validierungskontexten der Forschung auf die Agenda.
2.1. 1930 versus 1974: Umstellen von selbst- auf fremddefinierte Validierungsprozesse Wer nahm sich 1930 der Formulierung von Risikohypothesen an? Zunächst war es der Hersteller selbst: DuPont. Bei der Herstellung von Benzinzusatzstoffen („Bleibenzin“) hatte es eine Fülle von Problemen und Unfällen mit entsprechend negativer Publicity gegeben (vgl. Hounshell/Smith 1989). Entsprechend wollte DuPont bei der Entwicklung von FCKWs nicht noch einmal ins Rampenlicht der Öffentlichkeit geraten. Die ersten toxikologischen Tests, die intern organisiert wurden, verliefen beunruhigend. Die Ratten starben. Bei der Analyse stellte sich jedoch heraus, dass das Herstellungsverfahren nicht sauber genug arbeitete und Phosgen entstand. Mit einer Verfahrensumstellung konnte das Problem behoben werden. Auf der anderen Seite waren aber auch die Marktkonkurrenten von DuPont auf dem Markt der Risikoaufklärung sehr präsent. Die vorgebrachten Argumente dienten nicht allein und vordringlich der Steigerung der Risikoerkenntnis als vielmehr dazu, die neue Erfindung zu blockieren. Gleichwohl führte die öffentlich-politische Auseinandersetzung zu einer ausführlichen Befassung mit Risikohypothesen – gleichsam als Nebenfolge der Marktkonkurrenz. Zur Beurteilung der in den Diskurs eingebrachten Argumente ist zu wissen notwendig, dass der primäre Anwendungsbereich von FCKWs zunächst bei Kühlschränken lag, also in der Küche, weshalb die mögliche Humantoxizität des Stoffs oder seiner Teile als kritisches Moment eingestuft werden musste. Eine der von Marktkonkurrenten eingesetzten Argumentationsstrategien bestand deshalb in der Behauptung, Fluor sei toxisch und die Einnahme eines Löffels des Pestizids Natriumfluorid sei für den Menschen gefährlich. Dies war ein bewusstes Falschargument. Natriumfluorid enthält Fluor als Ion, das tatsächlich toxisch wirkt, FCKWs enthalten Fluor in einer kovalenten Bindung an Kohlenstoff, die extrem stabil ist, weshalb aus FCKWs nur das Chlor, und dies auch nur als Radikal freigesetzt wird. Eine andere Argumentstrategie bestand darin aufzuzeigen, dass sich Freon (das ist ein Markenname von FCKW) unter dem
98
Stefan Böschen
Einfluss offener Flammen in verschiedene Bestandteile zerlegen ließe, unter anderem auch Chlorradikale, die zu Vergiftungen führen könnten. Diese Argumentation musste ernst genommen werden, da es sich hierbei um einen beobachtbaren Effekt handelte. Glücklicherweise war es ein experimentell behandelbares Phänomen, es konnte gemessen und dadurch bestätigt oder widerlegt werden. Eine Langzeit-Studie erklärte Freon schließlich für absolut unbedenklich (Horizont 1 Jahr). Zusammengenommen: Beim Aufstellen und der Überprüfung möglicher Risikohypothesen wurden etablierte Verfahren der Toxikologie angewandt. Diese operierten mit modellhaften Tierversuchen. Die Zeithorizonte waren in der Regel kurz; die experimentellen Settings ausgearbeitet; die Kontexte der Forschung epistemisch selbst definiert und in etablierten Arbeitsteilungen organisiert. Aber es lässt sich weiter fragen: Wie kam es schließlich zum Aufstellen der Risikohypothese 1974 und welche Faktoren spielten dabei eine Rolle? Einschneidend war eine hitzige gesellschaftliche Auseinandersetzung bei der Einführung des Super Sonic Transport (SST) (Horwitch 1982). Hier entflammte die Diskussion um mögliche Risiken für die Stratosphäre, wodurch die Stratosphäre als Eingriffsraum für menschliches Handeln erkannt wurde. Vor diesem Hintergrund etablierten sich unterschiedliche Risikoforschungsperspektiven. Im Kontext der Atmosphärenchemie entstand eine integrierte Forschungsdirektive, die durch die Metapher „Smog der Stratosphäre“ gebündelt wurde (SCEP 1970: 69). Der Los Angeles Smog hatte in den 1950er Jahren für Aufsehen gesorgt. Er war ein photochemisches Phänomen, bei dem aufgrund von Autoabgasen Stoffe freigesetzt wurden, die zur Bildung von troposphärischem Ozon führten (Haagen-Smit/Fox 1956). Mit der Vision eines groß angelegten Einsatzes von Überschallflugzeugen in der Stratosphäre wurde schließlich die Frage gestellt, ob nicht – wie im Falle der Autos – mit einer Smog-Bildung in der Stratosphäre gerechnet werden müsste („Smog der Stratosphäre“). Diese Metapher lenkte die Forschungsperspektive, die vormals von klimatologischen und atmosphärenphysikalischen Ansätzen bestimmt wurde, zunehmend auf eine atmosphären- und photochemische Fragestellung. Erst in dieser Forschungsrichtung wurde die chemische Wirksamkeit von Luftschadstoffen thematisiert – zunächst von den klassischen Abgasen (Stickoxide, Kohlendioxid), später dann auch von FCKWs (Cagin/Dray 1993). Schließlich war es die Möglichkeit, den Luftschadstoff FCKW überhaupt zu messen, die den Blick auf diese Substanzklasse lenkte und den Weg für die Erarbeitung der Ozongefährdungshypothese bahnte. James Lovelock hatte mit einer hochempfindlichen Messmethode FCKWs in Spuren in der Stratosphäre nachweisen können und hoffte, diese Stoffe als Tracer („Markierung“) für das Messen von Luftbewegungen einsetzen zu können (Lovelock 1971). Sherwood Rowlands innovative Idee bestand in der Vermutung, dass
Kontexte der Forschung – Validierung von Wissen
99
diese Stoffe unter den photochemischen Bedingungen der Stratosphäre nicht stabil sein dürften. Mario Molina arbeitete schließlich die Ozongefährdungshypothese aus. Die Arbeit wurde 1974 in dem renommierten Wissenschaftsorgan Nature veröffentlicht (Molina/Rowland 1974). Dieser Prozess war nur vor dem Hintergrund eines Erstarkens der Umweltbewegung denkbar, die sich der Vermeidung negativer Zukünfte angenommen hatte und bei der das Thema Smog eine große Rolle spielte. Mit dieser Entwicklung verbunden war eine Öffnung von Diskursräumen für Wissenschaftler sehr unterschiedlicher Wissenskulturen und damit auch deren experimentellen Praktiken und Validierungsmodellen. Modelle sind partielle Abstraktionen von (experimentellen) Wissenspraktiken. Sie sind so angelegt, dass sie Wissen gleichsam speichern, zugleich aber auch neue Erkenntnischancen eröffnen. Sie erfüllen damit die Funktion einer heuristischen Brücke von Verstandenem zu dem noch zu Verstehenden. An diesem Punkt erhalten Modelle den Charakter von Metaphern (vgl. Hesse 1966). Metaphern kommt deshalb in wissenschaftlichen Kontexten eine heuristische, hypothesengenerierende Bedeutung zu (Maasen/Weingart 1995: 22). In dem FCKW-Beispiel zeigt sich, dass die Genese der Metapher „Smog der Stratosphäre“ zentral für die abschließende Formulierung der Ozongefährdungshypothese war. Zugleich musste sich ihre Triftigkeit in einem vielschichtigen wissenschaftlich-öffentlich-politischen Diskurs erst unter Beweis stellen. Validierungsmodelle sind routinisierte Denkstrategien und Konzepte, die bestimmten, von den jeweiligen Wissenskulturen adressierten Phänomenen den Status von Tatsachen zuzuschreiben helfen. In der Zeit vor 1971 war der Diskurs über die möglichen Konsequenzen von Luftschadstoffen in der Stratosphäre deutlich metapherngestützt. D. h. es kursierten aufgrund der Beteiligung von verschiedenen Disziplinen sehr verschiedene Modelle der Beschreibung aber auch Validierung von Wissen. Was bildete genau den „Smog der Stratosphäre“? War dieser im Sinne der Atmosphärenphysik auszudeuten und mussten die Partikeleigenschaften der von den Überschallflugzeigen ausgestoßenen Schadstoffe untersucht werden oder mussten im Sinne der Klimatologie vor allem Kondensstreifen als Problemursache angesehen werden. Zumindest wurde mit dieser Metapher vom „Smog der Stratosphäre“ eine plurale Situation von Validierungsmodellen erzeugt. In der Zeit nach 1971 strukturierte sich der Diskurs immer deutlicher im Sinne einer photochemischen Ausdeutung dieser Metapher. Damit einher ging eine Selektion der Deutungsräume. In diesem Kontext erst gelang es also, den metapherngestützten in einen theoriegestützten Diskurs zu überführen und Erklärungen für das Phänomen „Smog der Stratosphäre“ zu erarbeiten. Entscheidend war also die Pluralisierung wissenschaftlicher Wissensakteure. Erst dieses Zusammenspiel beförderte einen Wechsel von selbst- auf fremddefinierte Validierungsprozesse. Als
100
Stefan Böschen
Nebenfolge kam es zu einer Dynamisierung von Validierungsprozessen und einer grundlegenden Verschärfung risikopolitischer Debatten. Mit der Wende zum Umweltdiskurs wird demnach die ‚Herrschaft über die Validierungsmodelle’, die bis dato im Kreis der Synthesechemie und der chemischen Industrie angesiedelt war, aufgebrochen. Eine solche Dynamisierung von Validierungsprozessen geht erwartbar mit einer Veränderung von Formen des Organisierens einher.
2.2. Zum Organisieren von Validierungskontexten Organisationen entspringen der Vorstellung, dass Umwelt vernünftig gestaltet werden kann. „Organisieren schließt gemeinsame Rezepte des Aufbauens und das Ordnen von Prozessen zu dem Zweck, mit der Mehrdeutigkeit von Erlebensströmen fertigzuwerden, ein. Die Prozesse selbst sind ebenfalls Ströme. Sie sind sozial und erfassen multiple Akteure. Die Ergebnisse des Organisierens sind vernünftige Interpretationen eines Erfahrungsstücks; diese Stücke werden als anwendbar auf und verpflichtend für künftige Tätigkeiten behandelt. Prozesse werden also aus Flüssen zusammengesetzt, richten sich auf Flüsse und fassen Flüsse zusammen.“ (Weick 1969/1995: 71, vgl. auch: Ortmann 2003: 15 f.) Die Neuheit und Bedeutung von gesellschaftlichen Problemfeldern wird deshalb darin sichtbar, welches Spektrum von Organisationsformen sich herausbildet und wie hierbei „Baupläne und Rezepte“ koordiniert werden (Weick 1969/1995: 71). „Baupläne“ referieren auf die Zustandsbeschreibungen, die einer Problemlage zu Grunde gelegt werden und „Rezepte“ geben die vor diesem Hintergrund sinnvollen Handlungsstrategien zur Behebung der Problemlage an. Organisationen verbinden dies auf je besondere Weise. In ihnen spiegeln sich typischerweise die institutionalisierten Handlungsorientierungen der jeweiligen gesellschaftlichen Felder, sei dies Wissenschaft, Politik, Wirtschaft oder Öffentlichkeit (vgl. Schimank 2001). Deshalb sind die bereit gestellten Angebote für Bauplan und Rezept verschieden. Und die Kunst besteht darin, Vermittlungsinstanzen zu stiften, die den Dissens der Organisationen organisieren und so der Befriedung von Konflikten zwischen Akteuren unterschiedlicher Handlungsorientierung dienen. Beim FCKW-Konflikt lässt sich die Emergenz neuer Organisationsstrukturen zur Bearbeitung der Wissenskonflikte in diesem Feld beobachten. Da war zunächst einmal ein Workshop am MIT, der im Sommer 1970 unter dem Titel Study of Critical Environmental Problems (SCEP) eine Plattform zur interdisziplinären Behandlung von Umweltproblemen bereitstellte. Hier wurden schon wesentliche Anregungen für die weitere Behandlung des „Smogs der Strato-
Kontexte der Forschung – Validierung von Wissen
101
sphäre“ formuliert. Jedoch war die Konkurrenz zwischen den verschiedenen Ansätzen erheblich, d. h. die Validierungsmodelle der verschiedenen beteiligten Wissenskulturen gingen zu weit auseinander als dass sie einfach integriert werden konnten. Eine integrierte Perspektive konnte schließlich nur deshalb entstehen, weil ein längerfristigeres Forum geschaffen wurde, das die unterschiedlichen disziplinären Ansätze in eine gezielte Diskussion brachte: das Climatic Impact Assessment Programme (CIAP, 1971 bis 1974, Darstellung bei: Dotto/Schiff 1978). Zunächst einmal erhöhte das CIAP die Sensibilität für die Komplexität der beobachtbaren Phänomene und integrierte die unterschiedlichen wissenskulturellen Zugangsweisen (Dotto/Schiff 1978, S. 89). Diese verhalf dem Thema als solchem zu einer erhöhten wissenschaftlichen Aufmerksamkeit. Ordnungen des Wissens wie der Aufmerksamkeit etablieren sich, allerdings waren mit dieser Integration differenter Perspektiven auch Selektionsprozesse verbunden. Mit der Organisierung wächst der Druck „Baupläne“ und „Rezepte“ zu verfertigen. D. h., dass eine Selektion hin zu solchen Fragestellungen stattfindet, die relativ zu Zeit und Ressourcen schnellere Erfolge versprechen. Fragestellungen mit einer sequenziellen und interdisziplinären Hypothesenkette, wie es die Ozongefährdungshypothese zweifellos darstellt, werden mit Blick auf die schwierige Bearbeitbarkeit tendenziell zurückgestellt (vgl. Dotto/Schiff 1978: 47). Diese Selektion von Deutungsräumen im Rahmen des CIAP wurde dadurch ausgeglichen, dass die Fragestellung als solche atmosphärenchemisch interessant war, neue Validierungsmodelle ins Spiel brachte und zudem die Anwendung innovativer Experimentalpraktiken in Aussicht stellte. Dies hatte die Atomic Energy Commission dazu veranlasst, ab 1971 wieder Forschung auf dem Grenzgebiet zwischen Chemie und Meteorologie zu fördern, was insbesondere der Atmosphärenchemie zu Gute kam (vgl. Böschen 2000: 91). Letztlich wurde die Ozongefährdungshypothese im Raum akademischer Wissenschaft aufgestellt. Jedoch entwickelte sich der Prozess der Anerkennung dieser Hypothese äußerst konfliktreich. Dies war insofern erstaunlich, weil sich sehr schnell ein gesellschaftlicher Konsens über die Bedeutung dieser Hypothese einstellte. Jedoch bot ihre sequenzielle, interdisziplinäre Struktur eine Fülle von argumentativen Eingriffsorten, die einzeln kritisiert die Hypothese als Ganzes in Frage stellen konnten. Das insbesondere von DuPont geförderte Fluorocarbon Program Panel (gegründet 1972) hatte sich zur Aufgabe gestellt „(…) to pool funds for science and oversee industry research on ozone depletion.“ (Reinhardt 1992: 280), versuchte aber systematisch, die Triftigkeit der Analysen von Rowland und Molina in Zweifel zu ziehen. Dabei konzentrierte es sich vor allem auf zwei Aspekte, zum einen, ob überhaupt FCKWs in die Stratosphäre gelangen können, zum anderen, ob das zu messende Chlor in der Stratosphäre, das auf den Ozon-
102
Stefan Böschen
abbau katalytisch wirkte, nicht aus anderen Quellen als den FCKWs stammen könnte. Argument 1: FCKWs gelangen unmöglich in die Stratosphäre, denn sie sind schwerer als Luft. Diese am Modell molekularer Diffusion orientierte Aussage gilt im Labor; unter Umweltbedingungen kommen allerdings meteorologische, klimatologische oder atmosphärenchemische Einflussfaktoren hinzu und überlagern die physikalisch-chemischen Effekte, wie sie für das Labormodell gelten (vgl. Rowland/Molina 1994: 10). Argument 2: Das in der Stratosphäre vorfindliche Chlor entstammt nicht anthropogenen, sondern natürlichen Quellen, insbesondere Vulkanen. Dagegen spricht zum einen, dass Chloride wasserlöslich sind und in den unteren Atmosphärenschichten ausgewaschen werden dürften (Graedel/Crutzen 1994: 409). Zum anderen ist das Chloridion mit Blick auf die Katalyse des Ozonabbaus inaktiv. Relevant allein sind so genannte Chlorradikale. Wie in der Diskussion von 1930 findet sich hier also ein bewusstes Falschargument, das allein auf die Beeinflussung der politisch-öffentlichen Meinung zielte. Diese Aussage entsprach schon damals nicht mehr dem akzeptierten naturwissenschaftlichen Allgemeinkenntnisstand. Gleichwohl erhielten diese Argumentationsstrategien hohe Aufmerksamkeit und prägten als „OzonMythen“ (Dotto/Schiff 1978: 208) die Debatte. Durch wissenschaftliche Forschung waren diese Aussagen zwar schon längst widerlegt, sie beeinflussten gleichwohl das Regulationsgeschehen. Die widersprüchlichen Aussagen wurden zum Anlass genommen, noch nicht einzugreifen, sondern auf weitere Evidenz zu warten. Keine Hypothese hält ewig, sie muss sich auf Kurz oder Lang empirisch bewähren. Das gilt auch und gerade für Risikohypothesen, weil sie nicht nur eine wissenschaftliche Frage repräsentieren, sondern auch politisch wirksam sind. Mit der Entdeckung des so genannten Ozonlochs 1985 wurde schließlich ein „Quasi-Beweis“ in einer massenmedial wirksamen Repräsentation gefunden, welcher eine sofortige internationale Regulationstätigkeit auslöste und schon 1987 wurde mit dem Montreal Protokoll ein Abkommen von großer Reichweite zum Bann von FCKWs unterzeichnet (vgl. Grundmann 1997). In der Retrospektive erscheint das Aufstellen der Ozongefährdungshypothese als extrem unwahrscheinlicher Sonderfall. Letztlich konnte dies nur geschehen, weil sich ein gesellschaftlicher Sonderraum herausbildete, der die verwickelten epistemisch-politischen Fragen bei der risikopolitischen Einordnung von FCKWs zu bearbeiten vermochte. Diese Art von Sonderraum fungiert als Gestaltungsöffentlichkeit. Eine Gestaltungsöffentlichkeit wird dadurch charakterisiert, dass sie gesellschaftliche Risikolagen in Prozesse des argumentativen Entscheidens überführt und institutionell stabilisiert. Sie strukturiert damit das Problem, das dadurch entsteht, dass in risikopolitischen Feldern eine Fülle von (kollektiven) Akteuren ihre epistemischen Ressourcen zur Problembeschreibung und Problemlösung als kollektives Handlungsmuster durchzusetzen
Kontexte der Forschung – Validierung von Wissen
103
versuchen. Dabei spielten unterschiedliche Formen des Organisierens eine Rolle. Es bildeten sich einerseits unterschiedliche Plattformen, wie das SCEP, das CIAP oder das von DuPont unterstützte Forschungspanel, die sich durch ihre temporäre Begrenzung auszeichneten. Andererseits beeinflussten verschiedene Großorganisationen, wie Universitäten oder auch die NASA, die allein in der Lage war, die aufwändigen Messreihen in der Stratosphäre qua Satelliten durchzuführen, das Geschehen. Dieses Netzwerk aus verschiedenen Akteuren strukturierte die durch die Ozongefährdungshypothese formulierte Problemlage und konstituierte damit auch die gültigen Validierungskontexte.
3.
Gestaltungsöffentlichkeiten – Emergenz und Organisation hybrider Strukturen
Die Konstitution von Validierungskontexten in der Gestaltungsöffentlichkeit zu den FCKWs folgte einer schwierigen und vielschichtigen Dynamik. Dieser Prozess muss hinsichtlich seiner systematischen Implikationen interessieren, weil er als prototypisch für die Herausbildung und Bearbeitung von Problemlagen in spätmodernen Gesellschaften angesehen werden kann. Das verstörende Moment von solcherart Prozessen und damit der Anlass für die Emergenz von Gestaltungsöffentlichkeiten kommt aus der unklaren Gemengelage und Gleichzeitigkeit von innovatorischem Handeln, risikowissenschaftlicher Wissensproduktion und politischem Entscheiden. In dieser Gleichzeitigkeit verschwimmen vormals klare und eindeutige soziale Grenzziehungen. Es wird unklar, wer für die Bereitstellung der „Baupläne“ zuständig ist, wer für das Entwickeln von „Rezepten“. Diese Zuordnungen müssen mühevoll ausgehandelt werden, wobei zugleich auch die Maßstäbe für das Treffen dieser Zuordnungen zum Gegenstand des öffentlich-politischen Debattierens und Entscheidens werden. Um sich die Reichweite dieser Verschiebungen zu vergegenwärtigen, bietet sich nochmals ein Blick auf die FCKW-Geschichte an. Betrachten wir noch einmal die Situation 1974. Genau genommen kam es hier zu einem nicht vorher gesehenen Zusammenspiel von drei Ebenen: i) auf einer diskursiven Ebene findet sich die Metapher vom „Smog der Stratosphäre“. Diese bündelte nicht nur die jeweiligen fachkulturellen Perspektiven, sie gab auch Handlungsanweisungen vor. In der politisch-öffentlichen Sphäre mahnte sie den Schutz der Stratosphäre an und für die Wissenschaft gab sie eine Forschungsdirektive vor, die so umschrieben werden kann: Behandele Abgasprobleme in der Stratosphäre unter den Gesichtspunkten des schon untersuchten Smogs in der Troposphäre, der im Wesentlichen durch Autoabgase verursacht wird und mit photochemischen Mitteln untersucht werden kann. Streit gab es
104
Stefan Böschen
dennoch. Darüber hinaus war ii) auf institutioneller Ebene zu beobachten, wie im Rahmen des Climatic Impact Assessment Programe zumindest dem Versuch nach interdisziplinär orientierte Rahmenbedingungen initiiert wurden. Es findet sich ein Setting ganz unterschiedlicher Organisationsformen, die dem Verknüpfen und Abwägen zwischen den angebotenen „Bauplänen“ dienen. Schließlich waren im Kontext der analytischen Chemie iii) auf einer Ebene der Praktiken neue experimentelle Verfahren verfügbar gemacht worden, welche Spurenstoffe in der Stratosphäre detektierbar und damit zum experimentellen Forschungsgegenstand machten. Zugleich stellten die jeweiligen Fachkulturen differente Validierungsmodelle zur Verfügung, welche die Auseinandersetzungen anheizten. Deren selektive Durchsetzung bestimmte die Reichweite der Problembeschreibung und damit den weiteren Optionenraum gesellschaftlich legitimen Handelns. Betrachtet man diese Konstellation, so scheinen bis dato etablierte Grenzziehungen durch Grenzziehungsregime zwischen den gesellschaftlichen Teilbereichen abgelöst zu werden. Da sich hier vormals Getrenntes in einer neuen Gemengelage wieder findet, scheint die Kennzeichnung als „hybride Grenzziehungsregime“ gerechtfertigt. Nun hat die Rede von „Hybriden“ die spätmoderne Selbstreflexion deutlich geprägt. Im postmodernen Diskurs mit seiner Lust am Umstürzen alter (moderner) Gewohnheiten präsentiert sich als zentraler „Schlachtruf“: Wo vorher Entweder-oder war, soll nun Sowohl-als-auch werden. An die Stelle herrschaftsförmiger Differenz soll jetzt egalitätsfördernde Anerkennung von Differenz treten. Das Catch-all-Wort „Hybridität“ ist eine Art postmoderne Universallösung geworden, mehr noch: ein neues „Meta-Narrativ“ (vgl. Ha 2005). Um hierbei zu einer weiterführenden Einschätzung zu kommen, sollte man sich Webers Analysen zur Bürokratie erinnern. Danach sind Organisationen schon immer durch ihren „Hybrid-Charakter“ geprägt. Mit der Differenzierung unterschiedlicher – wie es Weber nannte – Wertsphären stellt sich das Problem der Integration moderner Gesellschaften. Weber gibt als Antwort, dass moderne Gesellschaften sich zur Organisationsgesellschaft entwickelten. Weber arbeitet als „bürokratische Herrschaft“ die gesellschaftlich integrativen Wirkungen einer immer flächendeckenderen Ausbreitung formaler Organisationen in beinahe allen Gesellschaftsbereichen heraus (vgl. Weber 1922/1980: 124130, 551-579). In dem Maße also, in dem die Gesellschaftsmitglieder als Mitglieder formaler Organisationen handeln, werden sie durch deren bürokratische Ordnung im Zaum gehalten. Das sorgt zumindest dafür, dass die Innenwelten formaler Organisationen gleichsam pazifizierte Räume sind, in denen dann auch die Konflikte zwischen den verschiedenen gesellschaftlichen „Wertsphären“ nicht mehr ungehemmt zum Tragen kommen.
Kontexte der Forschung – Validierung von Wissen
105
Man sollte also die produktive Kraft der „Hybridisierungs-Formel“ nicht unterschätzen, die darin besteht, etablierte Grenzziehungsmuster und das Funktionieren so genannter „Reinigungsprozesse“ (Latour) zu hinterfragen. Die Untersuchung hybrider Strukturen kann sich entsprechend nicht darauf beschränken, die strukturierte Gleichzeitigkeit im Raum von Organisationen zu konstatieren. Vielmehr muss die Kristallisation von neuen Organisationsstrukturen und institutionellen Regeln als Anhaltspunkt für das Prozessieren neuer Grenzziehungsproblemen angesehen werden. Entsprechend sind die dadurch evozierten „Rahmen-Konflikte“ und ihre Lösungsmuster systematisch und empirisch nachzuvollziehen. Das bedeutet insbesondere die Wirkungen von Forschung auf Gesellschaft und umgekehrt in den Blick zu nehmen und die dabei stattfindenden Verschiebungen auf den benannten drei analytischen Ebenen zu detektieren. Vor diesem Hintergrund scheint es mir zielführend, mit einem Drei-EbenenModell zu operieren, welches Diskurse, Institutionen und Praktiken analytisch voneinander abgrenzt und zugleich im Modell von Gestaltungsöffentlichkeiten zueinander in Beziehung setzt. Vor dem Hintergrund einer wachsenden Handlungsrelevanz des Hypothetischen wie einer durch die Massenmedien gesteigerten „Ökonomie der Aufmerksamkeit“ (Franck 1998) verläuft die Dynamik von Gestaltungsöffentlichkeiten nach ganz eigenen Gesetzen – jedenfalls nur bedingt nach solchen eines rein rationalen Diskurses (vgl. Beck 2007). Vielmehr entstehen Risikomärkte dort, wo (angekündigte) Ereignisse mit erheblichem Schadenspotential gesellschaftliche Definitionskämpfe und Institutionalisierungsprozesse freisetzen. Generell könnte man also Gestaltungsöffentlichkeiten als Infrastrukturen begreifen, welche die Austragung von Definitionskämpfen zwischen unterschiedlich institutionalisierten Akteuren auf gesellschaftlichen Problemmärkten regeln. Oder abstrakter und mit einer Referenz an Foucault: als themenzentrierte Verschränkungen von Akteurnetzwerken und diskursiven Strukturierungen verstehen, die im Spannungs- und Konfliktfeld von Politik, Wissenschaft, Wirtschaft und Öffentlichkeit gesellschaftliche Such- und Lernprozesse anleiten und institutionell stabilisieren. Dabei stellt sich die Frage, wie sich das Konzept der Gestaltungsöffentlichkeiten zu solchen von Öffentlichkeit verhält. Öffentlichkeit ist ein „offenes Kommunikationsforum“ (Neidhardt 1994: 7), in dem Sprecher mittels diskursiver Anlässe und Strategien Aufmerksamkeit bei anderen Akteuren zu erreichen versuchen. Gestaltungs-Öffentlichkeiten weisen zwar den grundsätzlich unabschließbaren Charakter von Öffentlichkeiten auf, sind zugleich aber schon strukturiert. Sie schreiben dem behandelten Gegenstand spezifische Wissensordnungen ein und prägen institutionelle Handlungsmuster vor. Sie sind das Ergebnis gesellschaftlicher Konflikte und Machtspiele und folgen einer Dynamik von
106
Stefan Böschen
Öffnungen und Schließungen. Bestimmte Akteure und ihr Wissen werden als relevant eingestuft – andere nicht. Diese werden aus gestaltungsöffentlichen Arenen herausgedrängt. Die „Verknappung (…) der sprechenden Subjekte“ (Foucault 1998: 26) war deshalb schon immer eine wesentliche gestaltungsöffentliche Strategie. Das Aufbrechen von etablierten Thematisierungsstrukturen ist zumeist mit einer sozialen Öffnung und damit Einbindung neuer Akteure und Denkmuster verbunden. Gestaltungsöffentlichkeiten nutzen also die Resonanzchancen der Öffentlichkeit, einzelne Akteure versuchen dabei aber immer auch Schließungsprozesse in Gang zu setzen, so dass an den Aushandlungsprozessen nicht beliebig viele Akteure teilnehmen dürfen. Die Emergenz von Gestaltungsöffentlichkeiten provoziert unerwartete und schwer zu bewältigende Entscheidungszwänge. Warum? Die zu treffenden Entscheidungen betreffen nicht mehr einfach Entscheidungen über Probleme, denen sich Gesellschaften ausgesetzt sehen. Vielmehr müssen mit den problemorientierten Entscheidungen zugleich Entscheidungen über Formen angemessener Entscheidungsfindung getroffen werden. Die Grundlagen und Voraussetzungen, unter denen bisher Entscheidungen getroffen wurden, werden thematisch und damit ausdrücklich. Wir beobachten also eine Dynamik des Ausdrücklich-Werdens bisher unausdrücklich gebliebener Voraussetzungen. Die Axiome des Entscheidens werden Teil des Entscheidens. Diese Dynamik lässt sich an der Expansion von neuen, amorphen Strukturbildungen in der Gesellschaft ablesen. Zwischen den verschiedenen institutionellen Feldern kommt es zu konfliktreichen Neujustierungen. Und diese sind sehr verschieden, je nachdem, um welches risikopolitische Feld es sich gerade handelt. Denn diese Felder haben ihre je eigene Geschichte. Dies ist nicht allein historisch zu verstehen, aber insbesondere sind es spezifische Diskurse, die die jeweiligen Felder strukturieren. Geschichten machen Geschichte. Denn sie können sich im Laufe zumeist verwickelter Aneignungsprozesse zu institutionellen Strukturen verdichten. Zugleich können neue Geschichten das bisherige Gefüge institutioneller Regeln in Frage stellen. Dies lässt sich an der Entwicklung der Chemiepolitik in den späten 1990er Jahren nachzeichnen, wie dies einerseits von der Seite des Wissens her (Abschnitt 4), andererseits von der Seite der Politik her (Abschnitt 5) beobachtet werden kann.
4.
Hazard Assessment: Dynamisierungschance für Chemiepolitik
Mit dem Ansatz eines hazard assessment in der chemischen Risikoforschung kommt es zu einer Generalisierung der Erwartung von Nichtwissen. Was heißt dies mit Blick auf die Produktion und Validierung von Wissen? Um diese Frage
Kontexte der Forschung – Validierung von Wissen
107
beantworten zu können, ist näher auf die wissenskulturellen Bedingungen in der Bereitstellung dieser Expertise einzugehen (4.1). Warum die Übersetzung der neuen Erkenntnisse in den chemiepolitischen Diskurs gleichwohl schwierig war, erschließt sich durch die Differenzierung der verschiedenen Traditionen innerhalb der ökologischen Chemie (4.2).
4.1. Das Konzept Epistemische Kultur – Wissenskultur Warum soll die ökologische Chemie als „Wissenskultur“ beschrieben werden? Dieses von Knorr-Cetina (2002) beispielhaft an den empirischen Feldern der Hochenergiephysik und der Molekularbiologie entfaltete Konzept versucht zu zeigen, dass in den Disziplinen unterschiedliche Praxisformen der Konstitution von Wissen und Wissensobjekten existieren (vgl. auch: Rheinberger 2001). So sind in ihren Überlegungen nicht allein die Aussagesysteme von Wissenschaft von Bedeutung, sondern ebenso die experimentellen Praktiken. So definiert sie selbst Wissenskultur als „(…) diejenigen Praktiken, Mechanismen, Prinzipien, die (…) in einem Wissensgebiet bestimmen, wie wir wissen, was wir wissen.“ (Knorr-Cetina 2002: 11, Hervorhebung im Original). Wissenskulturen drücken sich gerade auch in den vielfach eingelebten und unhinterfragten Handlungsroutinen aus, die bei der Strukturierung von Forschungsfragen zu Grunde gelegt werden. Vor diesem Hintergrund ist es aufschlussreich, das Konzept der Wissenskulturen intern zu differenzieren und Wissenskulturen nach zwei Dimensionen zu unterscheiden: hinsichtlich ihrer Theorieform bzw. ihrer Praxisform. Was bedeuten die Dimensionen im Einzelnen? In der Theoriedimension unterscheide ich im Anschluss an Pantin (1968), der eine Differenz zwischen restricted und unrestricted sciences markiert, zwischen geschlossenen und offenen Theorieprogrammen. Theorien sind mehr oder weniger formalisierte Aussagesysteme, welche die Deutungs- und Erklärungsperspektiven einzelner Disziplinen bündeln. Wenn zwischen offenen und geschlossenen Theorieprogrammen unterschieden wird, dann wird damit zum Ausdruck gebracht, inwieweit die zentralen Theorieprogramme für die Aufnahme von Erklärungsperspektiven aus anderen Disziplinen eher zugänglich oder eher unzugänglich sind. Die Ökologie verfolgt z. B. ein offenes Theorieprogramm, wohingegen innerhalb der Physik eher geschlossene Theorieprogramme vorherrschen. Die auf die experimentelle Praxis bezogene Unterscheidungsdimension zielt darauf ab, die unterschiedlichen Wege der Konstruktion von Wissensobjekten zu charakterisieren. Knorr-Cetina unterscheidet vor dem Hintergrund ihrer Studien zwei Varianten. Die experimentelle Praxis der Teilchenphysik ziele im Wesentlichen darauf ab, die Repräsentationstechniken zu verfeinern und den
108
Stefan Böschen
Prozess der Zeichenzuweisung zu verdichten. Die Praxis der Molekularbiologie strebe dahingegen ein Aufbrechen dieses internen Laborkontextes an, um damit zu einer erfolgskontrollierten externen Erfahrung zu kommen, in der die Dinge selbst und möglichst unmittelbar sprechen. Während sich in der Hochenergiephysik eine semiotisch-theoretische, also eine ausschließlich auf die Produktion von Zeichen gerichtete Praxis zeige, werde in der Molekularbiologie eine erfahrungskontrollierte Konstruktion von Daten sichtbar. Somit lassen sich idealtypisch zwei wissenschaftliche Praxisformen zur Konstruktion von Wissensobjekten voneinander unterscheiden: „zeichengenerierende“ einerseits und „datengenerierende“ andererseits. In der Summe ergeben sich verschiedene Formationen von Wissenskulturen durch die Kombination der beiden Dimensionen Theorieform und Praxisform. Diese Wissenskulturen können sich auch in einem wissenschaftlichen Feld wie etwa der Chemie deutlich voneinander unterscheiden. Die Differenzierungen zwischen diesen verschiedenen Kulturen innerhalb der Chemie zeigen vor allem, dass es ein zentrales Paradigma gibt, das der Synthesechemie, das aufgrund seiner klaren Konturen sehr stabil ist. Demgegenüber zerfällt die ökologische Chemie, wie nachfolgend zu zeigen sein wird, in verschiedene Traditionen ökochemischer Forschung, je nachdem wie der zentrale Fokus der Untersuchungen gesetzt wird.
4.2. Über das Spektrum von Wissenskulturen in der Chemie Die Chemie ist als „intellektuelles Handwerk“ (Herrmann 1994: 72 ff.) durch eine „datengenerierende“ Experimentalpraxis bestimmt. Ihr Ziel ist es, „Metamorphosen von Stoffen“ (Kekulé) zu erzeugen und zu beschreiben. Dieser Vorgang ist im höchsten Maße erfolgskontrolliert, Stoffumsatzprozesse können gelingen – oder eben nicht. Hierbei ist die Nähe zu einer industriellen Praxis von herausragender Bedeutung und erzwingt geradezu das datengenerierende Moment. Es ist also die technische Funktionalität, die dem Unterschied zwischen diesen beiden Praxisformen erst ihre Qualität gibt. Die Chemie als datengenerierende Wissenschaft weist einen engen Bezug zur Ingenieurspraxis und zur Strukturierung von separat gedachten gesellschaftlichen Anwendungskontexten auf. Sie zielt auf die Beherrschung von Wissensobjekten zur Gestaltung von Produktionsprozessen ab (vgl. Tabelle 1). Damit ist aber ein bedeutsames Spannungsverhältnis für die Chemie konstitutiv. Denn ihrer Theorieform nach zielt Synthesechemie auf geschlossene Wissensbestände, ohne jedoch eine ebenso geschlossene Praxisform (wie bei der Hochenergiephysik) vorweisen zu können, da sie datengenerierend (und
Kontexte der Forschung – Validierung von Wissen
109
damit offen für Anwendungskontexte) verfährt. Dabei verheddert sie sich immer wieder in ihren eigenen Abstraktionen. So hat sie es z. B. nicht mit natürlichen Stoffen zu tun, sondern vielmehr mit Präparaten. In diesem Sinne formulierte der französische Chemiker Auguste Laurent 1854: „La chimie d’aujourd’hui est devenue la science des corps qui n’existent pas.“ (zit. nach: Bachelard 1972: 22). Die Chemie ist also eine Wissenschaft von Stoffen, die es gar nicht gibt. Sie konstruiert, wie Bruno Latour (2001) dies bildlich ausdrückt, „kahle Objekte“. Zwar versuchte man die stofflichen Idealisierungen durch eine umfassende Kontrolle von Randbedingungen unsichtbar zu machen, jedoch tauchten sie gelegentlich als mehr oder minder weitreichende Nebenfolge im Experiment oder der industriellen Produktion wieder auf. Kurz: Im Mittelpunkt stand die „Laboratisierung“ der Stoffsynthese, ihre Beschreibung und Optimierung. Dies spiegelte sich in einer starken Tradition der analytischen Chemie wieder. Sie diente der Charakterisierung von Stoffgemischen, d. h. der Identifikation von Stoffen bis in den Spurenbereich, um zugleich die Bestandteile sehr heterogene Stoffgemische voneinander unterscheiden zu können. Tabelle 1: Wissenskulturen in der Chemie: Synthesechemie und ökologische Chemie
Die Ausdifferenzierung der ökologischen Chemie als Subdisziplin der Chemie erfuhr wesentliche Impulse aus der ebenfalls entstehenden Umweltpolitik zu Beginn der 1970er Jahre. Erstmals schien es möglich, innerhalb der „konservativen“ Chemie ein interdisziplinäres Programm (umwelt-)chemischwissenschaftlicher Tätigkeit einzuführen (vgl. Korte/Klein 1971). Programmatisch wurde sogar auf die notwendige Einbeziehung von Sozial- und Verhaltenswissenschaften hingewiesen, um die Probleme der Umweltchemie adäquat zu beschreiben (vgl. Gershinowitz 1970: 12). Jedoch kam die ökologische Che-
110
Stefan Böschen
mie zunächst nur halbiert auf die Welt. Ihre größten Erfolge feierte sie in der Analytik, die Ökotoxikologie dümpelte so vor sich hin und der Aufgabe einer übergreifenden Analyse schien die ökologische Chemie nicht gerecht zu werden. Die erste Tradition der ökologischen Chemie lässt sich demnach als „analytische Spur“ kennzeichnen. Mit der Etablierung der ökologischen Chemie feierte zeitgleich die analytische Chemie ganz herausragende Erfolge – durch neue Formen der Spektroskopie gelangen Stoffidentifikationen bis in den Bereich von Nano-/Pikogramm. Gerade für die Erforschung des Verbleibs und der Wirkung von Umweltchemikalien war dieser Zweig der Forschung unverzichtbar und bot darüber hinaus auch ein größtmögliches Maß an Anschlussfähigkeit zu den bisher etablierten Traditionen der Chemie. Die starke Orientierung an der analytischen Chemie trug jedoch auch dazu bei, dass die ökologische Chemie, entgegen ihrer interdisziplinären Programmatik, zunächst ein recht geschlossenes Theorieprogramm verfolgte. Offensichtlich lässt sich das programmatische Anliegen der ökologischen Chemie nur mittels einer offenen, d. h. unterschiedliche Theorieperspektiven einbeziehenden Theorieform realisieren. Dieses Anliegen findet Aufmerksamkeit in den beiden anderen Traditionen der ökologischen Chemie. Die eine ist die Ökotoxikologie, die mögliche Schäden durch Umweltchemikalien in der Umwelt zu charakterisieren versucht, gemäß der Maxime: Es muss die genaue Wirkungskette einer Substanz auf bestimmte Spezies und deren Ort im Ökosystem bekannt sein, bevor eine Veränderung der gegenwärtigen Handlung zu rechtfertigen ist. Deshalb sind die Effekte von Chemikalien auf das Ganze einer Lebensgemeinschaft zu untersuchen. Eine gängige Definition des Aufgabengebietes lautet: „Die Ökotoxikologie untersucht schädliche Veränderungen von Strukturen und Funktionen von Ökosystemen, die durch Umweltchemikalien verursacht werden.“ (Nagel 1990: 299, Hervorhebungen im Original). Gerade aufgrund der Komplexität der Fragestellung hat die Ökotoxikologie lange Zeit eher ein Schattendasein im Spektrum ökochemischer Forschung geführt. Zugleich war aber das Erstellen von Wirkdungsdaten für die politische Regulierung notwendig, so dass sich eine Mischung aus offenem Theorieprogramm und datengenerierender Praxis ergibt. Die andere ist die Tradition, die ich als „simulative Spur“ bezeichnen möchte. Hierzu zählt etwa der Gefährdungsansatz von Müller-Herold und Scheringer. Der „Gefährdungsansatz“ wechselt der Idee nach von der Ebene des entstandenen Schadens auf diejenige einer möglichen Gefährdung (vgl. Scheringer et al. 1994). Dadurch entstehen Indikatoren 2. Ordnung, wie Persistenz und Reichweite. Wissenspraktisch bedeutet dies, nicht mehr allein auf die Faktizität der Messwerte zu vertrauen, sondern zugleich neue Praktiken der Wissensgenese mit ins Spiel zu bringen. Diese setzen im
Kontexte der Forschung – Validierung von Wissen
111
Wesentlichen auf eine Simulation des Ausbreitungsverhaltens von Chemikalien. Politisch hat dies zur Konsequenz, dass Chemikalien, die über einen langen Zeitraum in der Umwelt bleiben und sich zudem räumlich ausbreiten, hierbei als besonders gefährdend eingestuft und reguliert werden sollten. Hier verbindet sich eine zeichengenerierende Praxis mit einem offenen Theorieprogramm. Diese Differenzierung an Forschungstraditionen innerhalb der ökologischen Chemie lässt sich als Renaissance der Bewertungsfrage in der chemischen Forschung deuten. Denn: „Für diesen Gegenstand im Übergangsbereich von wissenschaftlicher Fragestellung, Methodik und politischer Entscheidung gibt es keinen neutralen Blickwinkel. Insbesondere Bewertungen von Wirkungen können je nach Interessenlagen und (Ge-)Wissensbreite sehr unterschiedlich ausfallen.“ (Holler et al. 1996, Vorwort) Mit der dritten Tradition wird die Forschung direkt von der Bewertungsfrage gesteuert. Das grundsätzliche Nichtwissen wird reflektiert, diskursiv in einem Indikatorenmodell 2. Ordnung abgebildet und heuristisch-experimentell mit neuen Verfahren der Simulation unterstützt. Sie fordern eine gezielte Systematik experimenteller Strategien und nicht mehr das Abfragen einzelner an sich unsystematischer Kriterien. Die Validierungsmodelle werden dadurch komplexer. Trotzdem wird auf der anderen Seite die Anschlussfähigkeit zur politischen Kommunikation erhöht, weil die darin eingegangene Nichtwissensorientierung der Operationalisierung und Umsetzung des Vorsorgeprinzips entgegen kam. Entsprechend fanden diese Überlegungen Eingang in die Gestaltung der neuen Chemikalienpolitik der EU (vgl. Scheringer et al. 2006a).
5.
Das Vorsorgeprinzip und REACH: Validierungsstrategien unter Bedingungen von Nichtwissen
Wichtige Impulse für die Neuaufnahme chemiepolitischer Bemühungen in den späten 1990er Jahren kamen also aus der Wissenschaft. Das hazard assessment hatte grundlegende Indikatoren bestimmt, mit denen eine nichtwissensorientierte Ausformulierung des Vorsorgeprinzips politisch möglich erschien (vgl. Abschnitt 4). Parallel zu der wissenschaftlichen Debatte entzündete sich eine politische Debatte (vgl. z. B. EEA 1998). Hierbei kamen wichtige Impulse aus der Generalisierung des Vorsorgeprinzips im europäischen Gesundheits- und Umweltrecht (vgl. Appel 2005). Es erhielt den Status eines allgemeinen Grundsatzes, der dann greift, wenn die wissenschaftliche Bewertung noch uneindeutig ist, zugleich aber berechtigte Gründe zur Besorgnis vorliegen oder Kollisionen mit hohen Schutzniveaus der Gemeinschaft erwartbar sind (EU 2000: 2). Vor diesem Hintergrund ist die Neuordnung der europäischen Chemikalienpolitik
112
Stefan Böschen
ein gutes Beispiel für die Dynamik in Gestaltungsöffentlichkeiten und die damit einhergehende Konstitution von Validierungskontexten. Das Weißbuch schließt mit seiner Vorsorgestrategie direkt an die generellen Leitlinien zur Anwendbarkeit des Vorsorgeprinzips an und konkretisiert diese sachbereichsspezifisch (EU 2001: 5, Appel 2003: 105). Fünf Aspekte waren hierbei wichtig (Jacob/Volkery 2005: 69): i) klare Fristen für den Stopp der Einleitung gefährlicher Substanzen; ii) klare Informationspflichten von Produzenten; iii) eindeutige Vorgaben für die Operationalisierung des Vorsorgeprinzips; iv) Verbot von Chemikalien mit irreversiblen toxischen Wirkungen bzw. persistent/bioakkumulative Substanzen; v) Anlastung der Kosten für Risikoabschätzungen bei der Industrie und nicht mehr ausschließlich bei der Allgemeinheit. Wesentliche Elemente bei der Formulierung des Weißbuchs waren das Fordern einer Registrierungspflicht für alle Stoffe mit einem Vermarktungsvolumen oberhalb 1t (EU 2001: 7, 12), die Entwicklung eines Rasters zur Einteilung der Besorgnisgrade und damit verbundene Strategien des Risikomanagements (EU 2001: 17 f.), die Verlagerung von Informationspflichten auf die Industrie (EU 2001: 8), die Ausweitung der Informationskette über die chemikalienherstellende Industrie hinaus (ebd.) und die Substitution besonders gefährlicher Chemikalien (ebd.). Das Weißbuch versuchte den Rahmen eines einheitlichen Regimes zu entwickeln, das insbesondere die behördlichen Ressourcen so konzentriert, dass Stoffe, die als „of very high concern“ eingestuft werden müssen, umfassend behandelt werden, und dass darüber hinaus Chancen für eine Aufdeckung bisher noch nicht erkannter Problemstoffe eröffnet werden. Entscheidend für das Funktionieren dieses Regimes sind tragfähige Indikatoren und ihre „Filterkriterien“, die eine Zuordnung in die verschiedenen levels of concern eindeutig erlauben (cp. Appel 2003: 111, 133). Dafür wurde schon im Weißbuch Forschungsbedarf formuliert (EU 2001: 13-15). Eine systematische Ableitung und Begründung eines Indikatoren- und Kriterienrasters wurde im Weißbuch jedoch nicht vorgestellt. Mit der Veröffentlichung des Weißbuchs konzentrierte sich die Diskussion sehr schnell auf die entstehenden Kosten. Sollte das Prinzip des „no data – no market“ gelten, dann mussten eine Fülle von Daten für die Registrierung von Stoffen zur Verfügung gestellt werden. Diese Auseinandersetzung hatte die problematische Konsequenz, dass sich die Ausrichtung der Debatte grundlegend veränderte und die Orientierung am Vorsorgeprinzip in den Hintergrund trat (vgl. Løkke 2006: 5). Dem versuchte die Kommission ein Stück weit dadurch zu begegnen, dass sie den politischen Raum deutlich öffnete. So konnte sich eine Fülle von Neuerungen des neuen Chemikalienrechts bis in die Verordnung von REACH hinein behaupten. Es hat sich i) die Aufteilung der Aufgaben zwischen Industrie und Behörden zu einer größeren Verantwortlichkeit der Industrie ver-
Kontexte der Forschung – Validierung von Wissen
113
schoben; ii) wird der Kette zwischen Produzenten und Anwendern chemischer Stoffe eine größere Bedeutung bei der Genese risikorelevanten Wissens beigemessen und deshalb wird diese gezielt aufgebaut; iii) wird mit der Orientierung an den PBT- und vPvB-Kriterien dem hazard assessment ein bedeutenderer Spielraum eröffnet. Insofern wurden also die Probleme begrenzten Wissens durchaus schon gewürdigt; iv) wird mit der Schaffung der Kategorie der „phasein Substanzen“ das Problem der Altstoffe aufgenommen und in ein nach Produktionsmengen gestuftes zeitliches Bearbeitungsraster übersetzt. Schließlich wurde v) mit der Chemieagentur in Helsinki eine Institution zur konzentrierten „Verwaltung“ von Wissen geschaffen, was z. B. Mehrfachtests vermeiden helfen kann. Zudem verkörpert sie den Paradigmenwechsel in der Organisation von Beweispflichten. Bisher mussten staatliche Behörden den Nachweis der Bedenklichkeit gegenüber bestimmten Chemikalien führen, jetzt stehen die Unternehmen stärker in der Pflicht, die Unbedenklichkeit zu bestimmen. Hier lässt sich also der innovative Charakter von REACH weiterhin erkennen. Aber wie schon bei der kurzen Vorstellung des Weißbuches angedeutet, findet der „Lackmustest“ auf der Ebene der Klassenbildungen, Indikatoren und ihrer Kriterien statt. Die Begrenzung einer nichtwissensorientierten Ausformulierung des Vorsorgeprinzips lässt sich zumindest auf drei Ebenen erkennen: i) die erste Ebene ist die Ebene einzelner Kriterien zur Qualifizierung von Indikatoren. Das Weißbuch selbst hat die Orientierung an PBT-Indikatoren den CMRIndikatoren grundsätzlich gleichgestellt. Für die konkrete Ausformulierung der Kriterien zu den jeweiligen Indikatoren präsentiert es keine eigenen Vorschläge. Verschiebungen zeigen sich diesbezüglich aber zwischen dem Kommissionsentwurf und der endgültigen Version von REACH. So zeigt sich in der Gruppe ab einer Produktionsmenge von 1t, dass etwa bei der Beurteilung der Ökotoxizität die Anforderung an einen Daphnien-Test bei Vorliegen eines Verdachtes auf langfristige Wirksamkeit wegfällt (vgl. EU 2003: Annexe V, 7.1, EU 2006: Annexe VII, 9.1); Diese Gruppe macht mit 17.000 von 30.000 Stoffen (mit Produktionsmengen über 1 Tonne) den Löwenanteil aus. Es muss also überprüft werden, inwieweit die geforderten Kriterien die Möglichkeit einer PBTBewertung eröffnen; ii) die wissenspolitische Diskussion um die systematische Ausarbeitung von Hazard-Indikatoren ist spärlich. Vielmehr entzündete sich die Auseinandersetzung zwischen den verschiedenen Parteien vor allem daran, welche Tests letztlich für welche Produktionsmengen verbindlich vorgeschrieben werden sollten; die unter pragmatischen Gesichtspunkten verständliche Orientierung an der „Tonnenphilosophie“ stellt nur bedingt (mit Blick auf die Emission) einen Rahmen zur Risikobeurteilung zur Verfügung. Es wäre zu einfach, das Fehlen einer nichtwissensorientierten Kriterien-Diskussion allein der Wirksamkeit ökonomischer Interessen zuzuschreiben. Vielmehr ist zu beto-
114
Stefan Böschen
nen, dass an dieser Stelle der Raum für „kurzatmigere“ pragmatische Politik durch das Fehlen kohärenter Konzepte des hazard assessment selbst und entsprechend verfügbarer Methoden mit unterstützt wurde; iii) schließlich lässt sich das Problem der Phase-in-Stoffe benennen. Mit dieser Kategorie und dem geschaffenen Zeitrahmen wurde das Problem der Altstoffe aufs Neue temporalisiert. Sicherlich kann das Altstoffproblem nicht ohne Übergangsfristen bewältigt werden, zugleich ist dieser Faktor mit Blick auf das Vorsorgeprinzip weiterhin eine kritische Größe. Letztlich wird es die Praxis entscheiden, wie mit den Phase-in-Substanzen verfahren wird und von dort aus lässt sich die Wirksamkeit des Systems beurteilen. Nimmt man die Überlegungen zusammen, so lässt sich festhalten, dass das Vorsorgeprinzip bei der Thematisierung durch das Weißbuch wie in seiner Verankerung in REACH anerkannt wurde und einen zentralen Stellenwert annimmt. Dies zeigt sich an einer Reihe von institutionellen Innovationen. Zugleich ist aber auffällig, dass eine Systematisierung von Indikatoren sowie ihrer Kriterien unter dem Blickwinkel einer Aufklärung über noch nicht erkannte Gefahren bisher nicht stattgefunden hat. Mit der Neuausrichtung der europäischen Chemikalienpolitik auf das System vorsorgeorientierter Kriterien ist man zwar den Wünschen eines vorsorgeorientierten Diskurses gefolgt. Zugleich blieb aber die Festlegung der experimentellen Praktiken hinter den wissenspolitischen Ansprüchen zurück. Mit den in der endgültigen Fassung von REACH vorgeschriebenen Tests gelingt eine vorsorgeorientierte Bewertung von Chemikalien erst bei der Stoffgruppe, die über einem Produktionsvolumen von 100 t/a liegt. Mit 17.000 von 30.000 Stoffen mit einem Produktionsvolumen größer 1 t/a ist die Gruppe bis 10 t/a aber die weitaus größte. Von daher steht zu erwarten, dass nur für den kleinsten Teil der Stoffe eine vorsorgeorientierte Bewertung wird durchgeführt werden müssen. In einem Bild gefasst: Bei der bisherigen Umsetzung des Vorsorgeprinzips scheint das Dach vor dem Fundament gebaut worden zu sein. Das Vorsorgeprinzip wurde in diesem Feld zwar ohne die notwendigen Validierungschancen umgesetzt, jedoch hat es in der Form der Chemieagentur zugleich ein neues organisatorisches Dach gefunden, das selbst für die Umstrukturierung risikopolitischen Entscheidens steht. In dieser Zwitterpositionierung steht die Chemieagentur vor einer großen Herausforderung.
6.
Organisieren und Validieren
Betrachtet man die Entwicklung der chemiepolitischen Gestaltungsöffentlichkeit, dann lassen sich eine Reihe von Besonderheiten in deren Dynamik und Strukturierung der letzten 20 Jahre aufzeigen. Zum einen wurde mit dem Vor-
Kontexte der Forschung – Validierung von Wissen
115
sorgeprinzip ein starkes diskursives Leitmotiv aufgenommen, das zuvor in der umweltchemischen Forschung und Risikoanalyse zu einer Umorientierung von Gefährdungs- auf Schadensanalysen beigetragen hatte. Zum anderen wurde mit REACH ein umfassendes rechtlich-institutionelles Regelwerk geschaffen. Damit einher gehen Kristallisationsprozesse von Organisationen, die die neue Verfahrenslage bei der Risikobestimmung unter Nichtwissen prozessieren sollen (Gründung der Chemieagentur). Schließlich stellt sich aber die Frage, warum trotz dieser Innovationen das Validierungsproblem nicht gelöst werden konnte. Die Antwort erfolgt in Form einer These: Letztlich muss die Bewertungsfrage forschungspraktisch (innerhalb der Chemie) wie chemiepolitisch (außerhalb der Chemie) reflektiert und integriert werden. Letztlich müssen also zwei grundlegende Formen von Wissenspolitik entfaltet werden: eine interne und eine externe. Hierzu abschließend ein paar skizzenhafte Anmerkungen und Anregungen. Interne Wissenspolitik. Die interne wissenspolitische Herausforderung besteht darin, dass die Logik bisheriger innerwissenschaftlicher Arbeitsteilung durchbrochen werden muss. Die Bearbeitung der Umweltfrage wurde zunächst an die ökologische Chemie delegiert und ein Stück weit für die Chemie als ganzes entproblematisiert. Mit der Diskussion um eine nachhaltige Chemie kehrt die forschungsprogrammatische Herausforderung zurück, das Umweltthema als Querschnittsaufgabe innerhalb der Chemie zu begreifen (vgl. kritisch: Woodhouse/Breyman 2005). Dies ist deshalb herausfordernd, weil die Wissenskulturen innerhalb der Chemie alles andere als homogen sind (vgl. Abschnitt 4). Jedoch kann die Heterogenität gerade als Chance begriffen werden, um das Anliegen nachhaltiger Entwicklung in seiner ganzen Breite zu reflektieren und forschungsprogrammatisch zu reformulieren. Hierzu scheinen mir zwei Heuristiken hilfreich zu sein. Einerseits die Wende vom „Stoffhandwerk zur Stoffgeschichte“. Auf diese Weise soll neben die Kunst der Gestaltung von Stoffumsatzprozessen die Fähigkeit treten, die materiellen wie sozialen Kontexte von Synthesen umfänglicher zu berücksichtigen (vgl. Böschen et al. 2004). Andererseits müssten die verschiedenen Wissenspraktiken innerhalb der Chemie, wie ich es beispielhaft für die ökologische Chemie gezeigt habe, kartiert und aufeinander bezogen werden. Die so entstehende „reflexive Wissensordnung“ würde die impliziten Bewertungsmodelle der wissenskulturellen Traditionen innerhalb der Chemie transparent machen und somit die Unterschiedlichkeit der Validierungsstrategien produktiv aufeinander beziehen. Dadurch, dass diese Aufgabe im Kontext des hazard assessment nicht bewältigt wurde, konnte die Situation entstehen, dass die politische Implementation vorsorgeorientierter Kriterien experimentell gleichsam „nackt“ blieb. Es wurden keine verbindlichen Validierungsmodelle vorgeschlagen und mit einfachen Teststrategien unterfüttert.
116
Stefan Böschen
Externe Wissenspolitik. Zugleich ist auch eine Unterstützung und Kritik chemiepolitischer Strategien erforderlich, wobei die Grenze zwischen Wissenschaft und Öffentlichkeit neu zu gestalten ist. Risikoforschung kann sich nicht im „Elfenbeinturm“ der Wissenschaftlichkeit verschanzen, sondern stellt auch ein politisches Programm dar. Auch hier möchte ich zwei Perspektiven aufgreifen. Einerseits lässt sich die Etablierung von REACH, bei allen Schwächen, als ein Erfolg vorsorgeorientierter Chemikalienbewertung begreifen. Dazu hat die chemische Risikoanalyse (hazard assessment) wesentlich beigetragen. Zugleich hätten von vornherein spezifische Schwächen des Regelwerks vermieden werden können, wenn innerhalb der Chemie nicht allein die ökonomische Frage nach den Testkosten, sondern die wissenschaftliche nach dem Zusammenhang von Tests und Indikatoren aufgeworfen und systematisiert worden wäre (vgl. Scheringer et al. 2006a). Chemiepolitische Prozesse müssten also stärker als bisher wissenschaftskritisch begleitet werden. Andererseits besteht die chemiepolitische Herausforderung auch in der Schaffung neuer Institutionen aus der Wissenschaft heraus, um wissenspolitische Prozesse besser als bisher – wobei besser meint: reflektierter bezüglich des Umfangs aktuellen Wissens und der Bedeutung bisher unerkannten Nichtwissens – anleiten zu können. Eine wichtige Initiative in diesem Zusammenhang stellt die Forderung nach einem International Panel on Chemical Pollution (IPCP) nach dem Vorbild des IPCC für den Klimaschutz dar (vgl. Scheringer et al. 2006b). Das Feld von Organisationen im Raum dieser Gestaltungsöffentlichkeit weitet sich aus und damit vervielfältigen sich die Kontexte der Forschung. Zugleich manifestieren sich gerade an den institutionellen wie organisatorischen Lösungsmustern die spezifischen Lösungsprobleme von Wissenskonflikten unter Nichtwissensbedingungen, die sich an der Erzeugung und strukturierten Selektion von Validierungskontexten entzünden.
Literatur Appel, Ivo (2003): Besonders gefährliche Stoffe im europäischen Chemikalienrecht – Neuorientierung im Weißbuch zur Chemikalienpolitik. In: Hendler et al. (2003): 95-133 Appel, Ivo (2005): Staatliche Zukunfts- und Entwicklungsvorsorge. Tübingen: Mohr Siebeck (zugl. Jus Publicum Bd. 125) Bachelard, G. (1972): Le matérialisme rationnel. Paris: P.U.F. Beck, Ulrich (2007): Weltrisikogesellschaft. Auf der Suche nach der verlorenen Sicherheit. Frankfurt a.M.: Suhrkamp
Kontexte der Forschung – Validierung von Wissen
117
Berg, Marco/Erdmann, Gerd. (Hrsg.) (1994): Was ist ein Schaden? Zur normativen Dimension des Schadensbegriffes in der Risikowissenschaft. Zürich: Verlag der Fachvereine Böschen, Stefan (2000): Risikogenese. Prozesse gesellschaftlicher Gefahrenwahrnehmung: FCKW, Dioxin, DDT und Ökologische Chemie. Opladen: Leske + Budrich Böschen, Stefan/Reller, Armin/Soentgen, Jens (2004): Stoffgeschichten – eine neue Perspektive für transdisziplinäre Umweltforschung. In: GAIA 13. 19-25 Buchholz, Rogene A./Marcus, Alfred A./Post, James E. (Hrsg.) (1992): Managing Environmental Issues: A Casebook. Englewood Cliffs: Prentice Hall Cagin, Seth/Dray, Philip (1993): Between Earth and Sky. New York: Pantheon Books Dotto, Lydia/Schiff, Harold (1978): The Ozone War. Garden City, NY: Doubleday EEA (European Environmental Agency) (1998): Chemicals in the European Environment: Low Doses, High Stakes? Copenhagen EEA (European Environmental Agency) (2001): Late lessons from early warnings: the precautionary principle 1896–2000. Environmental issue report, No 22. Copenhagen EU (Kommission der Europäischen Union), ‘Communication from the Commission on the precautionary principle.Com (2000) 1 final’ European Union. Brüssel (Zugriff: 06/2006) EU (Kommission der Europäischen Union) (2001): White paper for a Future Chemicals Policy. Com (2001) 88 final. Brüssel (Zugriff: 07/2006) EU (Kommission der Europäischen Union) (2003): Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Registrierung, Bewertung, Zulassung und Beschränkung chemischer Stoffe (REACH), zur Schaffung einer Europäischen Agentur für chemische Stoffe sowie zur Änderung der Richtlinie 1999/45/EG und der Verordnung (EG) über persistente organische Schadstoffe und Vorschlag für eine Richtlinie der Europäischen Parlamentes und des Rates zur Änderung der Richtlinie 67/548/EWG des Rates und ihrer Anpassung an die „REACHVerordnung“. Brüssel EU (Kommission der Europäischen Union) (2006): Common position adopted by the Council with a view to the adoption of a Regulation of the European Parliament and of the Council concerning the Registration, Evaluation, Authorisation and Restriction of Chemicals (REACH), establishing a European Chemicals Agency, amending Directive 1999/45/EC of the European Parliament and of the Council and repealing Council Regulation (EEC) No 793/93 and Commission Regulation (EC) No 1488/94 as well as Council Directive 76/769/EEC and Commission Directives 91/155/EEC, 93/67/EEC, 93/105/EC and 2000/21/EC. Brüssel (Zugriff: 06/2006) Forum für Wirtschaft, Wissenschaft und Politik e.V. (Hrsg.) (1970): 1. Internationales Symposium „Aspekte der chemischen und toxikologischen Beschaffenheit der Umwelt“ (veranstaltet vom Institut für Ökologische Chemie der GSF mbH, München, Juli 1969). Bonn: Eigenverlag Foucault, Michel (1998): Die Ordnung des Diskurses. Frankfurt a.M.: Suhrkamp Franck, Georg (1998): Ökonomie der Aufmerksamkeit. München: Deutscher Taschenbuch Verlag
118
Stefan Böschen
Gershinowitz, Harold (1970): The Complexity of Environmental Problems. In: Forum für Wirtschaft, Wissenschaft und Politik e.V.: 11-19 Graedel, Thomas E./Crutzen, Paul J. (1994): Chemie der Atmosphäre. Bedeutung für Klima und Umwelt. Heidelberg (u. a.): Spektrum Akademie Verlag Grundmann, Reiner (1997): Politiknetzwerke und globale ökologische Probleme: Der Fall der Ozonschicht. In: Politische Vierteljahresschrift 38. 247-273 Ha, Kien Nghi (2005): Hype um Hybridität. Kultureller Differenzkonsum und postmoderne Verwertungstechniken im Spätkapitalismus. Bielefeld: transcript Haagen-Smit, Arie J./Fox, M. M. (1956): Ozone Formation in Photochemical Oxidation of Organic Substances. In: Industrial and Engineering Chemistry Research 48. 1484-1487 Herrmann, Wolfgang (1994): Chemie als intellektuelles Handwerk. Gedanken über Ausbildung und Forschung. In: Stifterverband für die deutsche Wissenschaft (1994): 71-86 Hendler, Reinhard et al. (Hrsg.) (2003): Umwelt- und Technikbericht. Bd. 68. Berlin: Erich Schmidt Verlag Hesse, Mary B. (1966): Models and Analogies in Science. Notre Dame, Indiana: University of Notre Dame Press Holler, Stephan/Schäfer, Christoph/Sonnenberg, Joachim (1996): Umweltanalytik und Ökotoxikologie. Berlin (u. a.): Springer Horwitch, Mel (1982): Clipped Wings. The American SST Conflict. Cambridge, MA: MIT Press Hounshell, David A./Smith, John K., jr. (1989): Science and Corporate Strategy: DuPont R&D, 1902-1980. Cambridge, MA: Cambridge University Press Jacob, Klaus/Volkery, Axel (2005): Europäische Rechtsetzung: Die Auseinandersetzungen zur Europäischen Chemikalienpolitik REACH und die Rolle nationaler Regierungen und Akteure im Policy-Prozess. In: Technikfolgenabschätzung – Theorie und Praxis 14. 69-77 Knorr-Cetina, Karin (2002): Wissenskulturen. Frankfurt a.M.: Suhrkamp Korte, Friedhelm/Klein, W. (1971): Aktuelle Probleme der Umweltchemie. In: Pharma International 5. 12-27 Latour, Bruno (2001): Das Parlament der Dinge. Für eine politische Ökologie. Frankfurt a.M.: Suhrkamp Løkke, Søren (2006): The Precautionary Principle and Chemicals Regulation. Past Achievements and Future Possibilities. In: Environmental Science and Pollution Research 13. 1-8 Lovelock, John (1971): Atmospheric Fluorine Compounds as Indicators of Air Movement. In: Nature 230. 379 Maasen, Sabine/Weingart, Peter (1995): Metaphors – Messengers of Meaning. A Contribution to an Evolutionary Sociology of Science. In: Science Communication 17. 931 Molina, Mario/Rowland, Sherwood (1974): Stratospheric Sink for Chlorofluoromethanes: Chlorine Atom-catalysed Destruction of Ozone. In: Nature 249. 810-812 Nagel, Roland (1990): Ökotoxikologie – eine junge Wissenschaft mit hohem Anspruch. In: Biologie in unserer Zeit 20. 299-304
Kontexte der Forschung – Validierung von Wissen
119
Neidhardt, Friedhelm (Hrsg.) (1994): Öffentlichkeit, öffentliche Meinung, soziale Bewegungen. Sonderheft 34/1994 der Kölner Zeitschrift für Soziologie und Sozialpsychologie. Opladen: Westdeutscher Verlag Neidhardt, Friedhelm (1994): Öffentlichkeit, öffentliche Meinung, soziale Bewegungen. Einleitung In: Neidhardt (1994): 7-41 Nowotny, Helga (2005): Unersättliche Neugier. Berlin: Kadmos Ortmann, Günther (2003): Organisation und Welterschließung. Dekonstruktionen. Wiesbaden: Westdeutscher Verlag Pantin, Carl Frederick Abel (1968): The Relations between the Sciences. Cambridge: Cambridge University Press Reinhardt, Forest (1992): DuPont Freon Products Division. In: Buchholz et al. (1992): 261-286 Rheinberger, Hans-Jörg (2001): Experimentalsysteme und epistemische Dinge. Eine Geschichte der Proteinsynthese im Reagenzglas. Göttingen: Wallstein Risiko-Kommission (ad hoc-Kommission „Neuordnung der Verfahren und Strukturen zur Risikobewertung und Standardsetzung im gesundheitlichen Umweltschutz der Bundesrepublik Deutschland“) (2003): Endbericht. Bonn und Berlin (Ms. 230 S.) Rowland, Sherwook/Molina, Mario (1994): Ozone Depletion: 20 Years after the Alarm. In: C&EN 1994. August 15. 8-13 SCEP (Study of Critical Environmental Problems) (1970): Man’s Impact on the Global Environment: Assessment and Recommendations for Action. Cambridge Scheringer, Martin./Berg, Marco/Müller-Herold, Ulrich (1994): Jenseits der Schadensfrage: Umweltschutz durch Gefährdungsbegrenzung. In: Berg/Erdmann (1994): 115-146 Scheringer, Martin/Böschen, Stefan/Hungerbühler, Konrad (2006a): Do we know more or less about Chemical Risks under REACH? In: CHIMIA 60. 699-706 Scheringer, Martin/Fiedler, Heidelore/Suzuki, Noriyuki/Holoubek, Ivan/Zetzsch, Cornelius/Bergman, Åke (2006b): Initiative for an International Panel on Chemical Pollution (IPCP). In: Environmental Science and Pollution Research 13. 6. 432-434 Schimank, Uwe (2001): Funktionale Differenzierung, Durchorganisierung und Integration der modernen Gesellschaft. In: Tacke (2001): 19-38 Stifterverband für die deutsche Wissenschaft (Hrsg.) (1994): Selbstbilder und Fremdbilder der Chemie. Ein Werkstattgespräch. Essen: Stifterverband Tacke, Veronika (Hrsg.) (2001): Organisation und gesellschaftliche Differenzierung. Wiesbaden: Westdeutscher Verlag Weber, Max (1922/1980): Wirtschaft und Gesellschaft. Tübingen: Mohr Wehling, Peter (2006): Im Schatten des Wissens? Konstanz: UVK Weick, Karl E. (1969/1995): Der Prozeß des Organisierens. Frankfurt a.M.: Suhrkamp Weinberg, Alvin (1972): Science and Trans-Science. In: Minerva 10. 209-222 Woodhouse, Edward J./Breyman, Steve (2005): Green Chemistry as Social Movement? In: Science, Technology & Human Values 30. 199-222
Von der Beratung zur Verhandlung – Der Fall IPCC Silke Beck
1.
Einleitung1
Im Frühjahr 2007 war der Klimawandel als Thema und der „Weltklimarat“ als Beratungsinstanz nicht mehr von den Titelseiten der nationalen und internationalen Zeitungen wegzudenken. Was bei der Gründung des Intergovermental Panel on Climate Change (IPCC) 1988 noch unvorstellbar war, sind folgende Sachverhalte: die Veröffentlichungen seiner Sachstandsberichte (Assessment Report) landen regelmäßig auf den Titelseiten der nationalen und internationalen Presse (von „Bild“ über die „Süddeutsche“ hin zur „New York Times“). Gleichzeitig rückt der Klimawandel in der öffentlichen Wahrnehmung zum Menschheitsproblem Nummer eins auf und wird zu einem Thema von höchster politischer Priorität, vergleichbar mit Themen wie Wirtschaftswachstum und Energieversorgung. Diese politische und öffentliche Aufmerksamkeit wird häufig auf die überragende Autorität zurückgeführt, welche sich der IPCC im Laufe seines nunmehr fast 20-jährigen Bestehens erworben hat. In den Medien ist von dem „Weltklimarat“, den „Herren des Weltklimas“ und der „Klimabibel“ die Rede (SPIEGEL ONLINE vom 02.02.2007, DIE ZEIT, Nr. 06 vom 01.02.2007). Gemeinhin wird der „einzigartige“ und „langfristige“ Erfolg auf den Sachverhalt zurückgeführt, dass es dem IPCC immer wieder gelungen ist, weltweit im „Namen der Wissenschaft“ mit einer Stimme zu sprechen (Watson 2005). Auf seiner zweiten Sitzung fasste der Rat den Beschluss, wissenschaftliche Expertisen im demokratischen Konsens vorzulegen (Agrawala 1999). Dieses vermeintlich paradoxe Unterfangen, das viele Beobachter anfangs als zum Scheitern verurteilt sahen, wird im Laufe der Zeit zu seinem Alleinstellungsmerkmal, wofür sich die Rede vom „IPCC-Ansatz“ von Politikberatung etabliert hat (Schrope 2001). Darüber hinaus wird dieser als das Modell für Politikberatung auf der internationalen Ebene schlechthin gehandelt und soll auch in ande-
1
Dieser Artikel geht aus einer Expertise im Rahmen der BMBF-Förderinitiative „Wissen für Entscheidungsprozesse – Forschung zum Verhältnis von Wissenschaft, Politik und Gesellschaft“ hervor (Bechmann/Beck 2003). Dem Koautor Gotthard Bechmann sei an dieser Stelle für seine großzügige Unterstützung und seine produktiven Anregungen gedankt.
Von der Beratung zur Verhandlung – Der Fall IPCC
121
ren Politikfeldern wie Biodiversität und Wasserwirtschaft übernommen werden (Watson 2005, Loreau et al. 2006, Schrope 2001). Dieser Ansatz bleibt allerdings nicht unumstritten (Grundmann 2006). Nicht zuletzt verweisen Beobachter auf folgende Eigenarten, die insbesondere die Verabschiedung der Zusammenfassungen für politische Entscheidungsträger (Summaries for Policymakers, SPM) gekennzeichnet, die ins Rampenlicht der Medien rücken. Einerseits gilt, was im IPCC-Bericht steht, als „wissenschaftliche Wahrheit“ schlechthin; andererseits haben Politiker entscheidende Passagen selbst verabschiedet, wobei eine „Atmosphäre wie in einem Zirkus“ herrsche und Wissenschaft wie auf einem „Basar“ verhandelt werde (DIE ZEIT, Nr. 06 vom 01.02.2007). Dieser Artikel versucht, die strukturellen Merkmale und Probleme des IPCC-Ansatzes zu bestimmen und zu erklären. Der zweite Teil befasst sich mit der Frage, vor welchem Hintergrund und warum sich der Weltklimarat dazu entschieden hat, wissenschaftliche Expertisen im demokratischen Konsens vorzulegen. Im dritten Teil wird dargestellt, wie es dem IPCC gelungen ist, Konsens über den Stand der Forschung zu politisch relevanten Themen herzustellen, der auch von Regierungsvertretern mitgetragen wird. Abschließend wird erörtert, welche Lektionen aus dem Fall Klimawandel gezogen werden können und ob und in welcher Weise der IPCC tatsächlich als Modell für Politikberatung gehandelt werden kann (4.).
2.
Wissenschaftliche Expertisen im demokratischen Konsens – Der IPCC-Ansatz
Der folgende Teil beginnt mit der Rekonstruktion der Kontroversen um die Klimaproblematik, um ihre besonderen Merkmale und die entsprechenden Herausforderungen an Politikberatung darzustellen. Vor diesem Hintergrund wird der Stand der sozialwissenschaftlichen Forschung daraufhin diskutiert, was sich zur Analyse und zur Erklärung des IPCC-Ansatzes anwenden lässt.
2.1. Die enge Kopplung von Forschung und Politik Die Problematik des anthropogenen Klimawandels zeichnet sich durch die enge Kopplung von Wissenschaft und Politik aus, da ohne wissenschaftliche Modelle weder die Ursachen und die Folgen des Klimawandels noch die Kosten und Nutzen von politischen Maßnahmen überhaupt erfasst und abgeschätzt werden können. Gleichzeitig sind die Aussagen der Klimaforschung mit gravierenden
122
Silke Beck
wissenschaftlichen Unsicherheiten belastet. Eines der zentralen Probleme der Klimaforschung besteht darin, dass ein anthropogenes Klimaänderungssignal (fingerprint) bislang noch nicht mit Sicherheit zu identifizieren ist.2 Darüber hinaus existieren in den verschiedenen, beteiligten wissenschaftlichen Disziplinen selbst je nach Art der zugrunde liegenden Theorien, Modelle und Messinstrumente unterschiedliche Problembefunde bzw. unterschiedliche Einschätzungen der empirischen Evidenz des Klimaänderungssignals. Diese Unsicherheiten haben im politischen Kontext gravierende Konsequenzen, da die wissenschaftliche Problemdiagnose nicht mehr - wie im technokratischen Modell der Politikberatung vorgesehen - die einzige, sichere und beste politische Lösung determiniert. Interessanterweise erleben die technokratischen Modelle im Kontext der politikwissenschaftlichen Teildisziplin der Internationalen Beziehungen eine Renaissance. Ein Beispiel stellt das Modell der epistemic community (Haas 1992) dar.3 Ein Problem dieser einfachen Modelle der Politikberatung besteht darin, dass sie der Problematik der Unsicherheit nicht hinreichend Rechnung tragen. Zahlreiche empirische Untersuchungen in den science & technology studies (STS) zeigen, dass sich wissensbasierte Kontroversen wie um den Klimawandel dadurch kennzeichnen lassen, dass sie wissenschaftlich unterdeterminiert sind, d. h., dass sie nicht ausschließlich auf der Basis von wissenschaftlichen Kriterien entschieden werden können (zum Stand der Forschung vgl. Elzinga 1996, Jasanoff/Wynne 1998). Dies führt dazu, dass die Grenzen zwischen wissenschaftlicher und politischer Kontroverse verschwimmen und dass es oft nicht entscheidbar ist, ob es sich um eine wissenschaftliche oder politische Kontroverse handelt. Die bestehenden Unsicherheiten der Klimaforschung haben zur Folge, dass sich aus dem Stand der Forschung nicht mehr eindeutig ableiten lässt, was politisch konkret zu tun ist, sondern dass sich prinzipiell konträre politische Schlussfolgerungen und Kommunikationsanschlüsse ergeben, bei welchen es sich - auf kognitiver Ebene - um die Schnittstelle zwischen Forschung und Poli2
3
Der Einfluss des Menschen auf das Klima kann nur in Form von Modellrechnungen nachgewiesen werden. Ergebnisse dieser Modellrechnungen sind mit Unsicherheiten behaftet. Im Falle der Klimamodellierung wird Forschung mit besonderen methodologischen und epistemologischen Problemen konfrontiert, welche das Verhältnis von Forschung und ihrem Gegenstand betreffen. Was den Status und Geltungsanspruch der Klimamodelle anbetrifft, wird von verschiedenen Seiten hervorgehoben, dass sie nicht nur theoretisch, sondern auch empirisch unterdeterminiert sind (Elzinga 1996: 242, 247). Unter systematischen Gesichtspunkten betrachtet kreist die wissenschaftliche Kontroverse um die Epistemologie des Verhältnisses von Modellen und Daten und entzündet sich an der Frage, ob und in welchem Maße die Evidenz von Klimamodellen entweder durch Theorie oder durch Empirie kontrolliert und evaluiert werden kann und soll (Edwards 1999). Zu den Versuchen einer Klassifikation der Modelle von Politikberatung vgl. Jasanoff (1990), Jasanoff/Wynne (1998), Weingart (1999, 2001).
Von der Beratung zur Verhandlung – Der Fall IPCC
123
tik handelt (Japp 1999). Diese spezifische Unsicherheit manifestiert sich im Hinblick auf die Kopplung von wissenschaftlichen Unsicherheiten und politischen Entscheidungsoptionen, die nicht eindeutig zugunsten der einen oder anderen Option auflösbar, sondern prinzipiell offen ist: Unsicherheit kann entweder als Anlass zu mehr Forschung genommen oder als Notwendigkeit zum politischen Handeln interpretiert werden. Gleichzeitig bleibt offen, ob die Klimaproblematik als ein wissenschaftliches oder als ein politisches Problem behandelt, in den Zuständigkeitsbereich von Wissenschaft oder Politik fallen und entsprechend unter wissenschaftlichen oder politischen Regeln ausgetragen werden soll. Diese Deutungsunterschiede und entsprechende „interpretative Flexibilität“ im Hinblick auf den Stand der Forschung und seine politischen Konsequenzen konterkarieren die Deutungshoheit und Orientierungsfunktion von Experten bzw. unterlaufen ihre Rolle als „unangefochtene Schiedsrichter“, wie sie in älteren Modellen der Politikberatung noch vorgesehen ist. Um diese spezifische Unsicherheit und die Kopplung mit politischen Entscheidungsoptionen dreht sich die Kontroverse um den Klimawandel spätestens seit Mitte der 1980er Jahre. Für den Verlauf der politischen Kontroverse gewinnen Prozesse der wissenschaftlichen Zurechnung eine hervorragende Bedeutung, da die Definition von Kausalrelationen und entsprechenden UrsacheWirkungsmechanismen auch die Verteilung von Verantwortung und Ressourcen verändern kann. Just in dem Moment, in dem die Klimaforschung begann, Veränderungen in der natürlichen Umwelt auf menschliche Aktivitäten zurückzuführen, gewinnt sie auch an politischer Relevanz. Dieser Wandel der Zurechnung erweist sich als politisch außerordentlich bedeutsam, da die Problematik des Klimawandels von einer naturgegebenen Gefahr in ein entscheidungsabhängiges Risiko transformiert und auf diese Weise ein politischer Handlungsraum konstituiert wird (Weingart 2001). Ab Mitte der 1980er Jahre kündigt sich eine weitere, folgenreiche Wendung der Kontroverse an: Während Klimaforscher bis dato noch argumentierten, dass die wissenschaftlichen Unsicherheiten zu hoch seien, um politisch tätig zu werden, forderten sie nun, auf das Vorsorgeprinzip gestützt, drastische politische Maßnahmen einzuleiten. Auf diese Weise begannen sie, die Klimaproblematik in politisches Risiko zu transformieren. Gerade die Wendung der wissenschaftlichen Warnungen hin zu dringlichen Appellen, sofort umfassende politische Maßnahmen zu ergreifen, hat sich als außerordentlich funktional erwiesen, um politisch Resonanz zu erzeugen und das Thema auf die politische Agenda der internationalen Politik zu setzen.
124
Silke Beck
2.2. Die Politisierung der wissenschaftlichen Kontroverse Just zu dem Zeitpunkt, als die politischen Dimensionen der Klimaproblematik4, insbesondere die Reduktion der Emission von Treibhausgasen in Verbindung mit globalen Verteilungskonflikten, auf die politische Agenda kommen, bildet sich eine Koalition aus den OPEC-Staaten und Lobbyisten von USamerikanischen Energie- und Automobil-Konzernen – die Global Climate Coalition (GCC). Diese Koalition der Klimaschutzgegner erhebt von 1989 an bis Mitte der 1990er Jahre den Anspruch, „die gesamte Wirtschaft“ zu repräsentieren. Sie entwickelt dabei folgende Strategie: „Wenn Sie die Nachricht nicht mögen, dann machen Sie den Boten unglaubwürdig“ (Agrawala 1998a).5 Diese Strategie wird den Verlauf der weiteren Kontroversen um den Klimawandel im internationalen Kontext maßgeblich bestimmen. Mit dieser Strategie wendet sich die Koalition nämlich nicht unmittelbar gegen politische Maßnahmen wie die umfassende Reduktion von Treibhausgasen selbst, sondern greift ihr wissenschaftliches Fundament an. Diese Strategie indiziert einen Aspekt der engen Kopplung zwischen Wissenschaft und Politik: Da die Klimamodelle außerordentlich einflussreich waren, um umfassende politische Maßnahmen auf die politische Agenda zu setzen, versuchte die gegnerische Koalition, ihre wissenschaftlichen Grundlagen zu delegitimieren. Das Ziel dieser Koalition bestand darin, die genuin politische Kontroverse in die wissenschaftliche Arena zurückzuverlagern, um den Prozess der politischen Regulierung aufzuhalten. Als die Koalition begann, die Aufmerksamkeit auf die wissenschaftlichen Unsicherheiten zu lenken und damit die vorläufige Schließung der wissenschaftlichen Kontroverse aufzubrechen,6 kristallisierte sich das Muster der ursprünglich politi4
5
6
Die Verhandlungen zum Klimaschutz zeichnen sich dadurch aus, dass die Entwicklungsländer von Anfang an beteiligt werden und dass dadurch Konflikte um die Minimierung ökologischer Belastungen mit Verteilungskonflikten im internationalen Maßstab gekoppelt werden, wodurch in den politischen Verhandlungen die Lösung des einen an die des anderen gebunden wurde. Die GCC beteiligte sich vor allem an Kampagnen gegen das Kyoto-Protokoll. Ab Mitte der 1990er Jahre mehrten sich die Zeichen, dass die Koalition auseinander fällt und an Bedeutung verliert. 1997 trat British Petroleum (BP) als erster großer Konzern aus, 1998 folgte dann Shell. Ende 1998 kündigte auch Ford als erster US-Auto-Konzern seine Mitgliedschaft. Im Frühjahr 2002 wurde die Global Climate Coalition dann aufgelöst. Diese Strategie lässt sich dadurch kennzeichnen, dass sie dorthin zielt, wo Wissen unsicher, umstritten und offen für Prozesse der Dekonstruktion ist. Beispielsweise hebt sie auf die interpretative Flexibilität einzelner wissenschaftlicher Beobachtungen und auf die Inkonsistenz bestimmter Annahmen ab, die als Indizien für die fundamentale Unangemessenheit der Modelle interpretiert werden. Der Koalition ging es weniger um wissenschaftliche Details per se, sondern in erster Linie um ihre politischen Konsequenzen, von dort lenkte sie die Aufmerksamkeit auf empirisch nicht hinreichend abgesicherte politische Schlussfolgerungen und brachte konkurrierende Interpretationen der wissenschaftlichen Befunde in Umlauf.
Von der Beratung zur Verhandlung – Der Fall IPCC
125
schen Kontroverse um den Klimawandel heraus: Die Kontroverse um die Politik des Klimawandels wird an die Schnittstelle zwischen Wissenschaft und Politik verlagert und als Kontroverse um die empirische Evidenz der wissenschaftlichen Hypothese ausgetragen, dass der Klimawandel anthropogene Ursachen hat und bereits eingetreten ist. Auf diese Weise wurde die wissenschaftliche Kontroverse zum Stellvertreter für die genuin politische Kontroverse, wie adäquat auf den Klimawandel zu reagieren ist. Festzuhalten bleibt, dass die massiven Angriffe und die Politisierung der Klimaforschung die (wissenschaftliche) Kontroverse in den USA lange Zeit prägt. Die Koalition der Klimaschutzgegner hat diese Strategie auch auf der internationalen Ebene verfolgt, und es ist ihr gelungen, den Verlauf der Kontroverse im Umfeld des IPCC zu bestimmen. Die Diskussionen in einzelnen Nationalstaaten unterscheiden sich hingegen von diesem Muster der Kontroverse signifikant. In Deutschland hat sich beispielsweise bereits Mitte der 1980er Jahre der Konsens gebildet, dass hinreichend wissenschaftliches Wissen vorliegt, dass der Klimawandel bereits eingetreten ist und katastrophale Folgen haben wird und dass sofort und umfassend gehandelt werden muss (Beck 2004).7 In den internationalen Verhandlungen zur Klimarahmenkonvention begannen die gegnerischen, politischen Lager den durch die Unsicherheiten eröffneten Spielraum zu nutzen und Unsicherheiten offen und strategisch als Ressourcen zur Legitimation ihrer konträren politischen Optionen und partikularer Interessen zu verwenden (Edwards 1996). Beispielsweise gebrauchten Advokaten eines verbindlichen Vertragswerks Unsicherheiten, um Unterstützung für politische Maßnahmen zu mobilisieren. Gegner von klimapolitischen Maßnahmen wie die GCC nutzen Unsicherheiten, um diese zu verzögern oder zu verhindern. So versuchte beispielsweise die US-amerikanische Verhandlungsdelegation mit der Begründung, der Beitrag des Kohlendioxid am zusätzlichen Treibhauseffekt sei wissenschaftlich nicht endgültig bewiesen, eine verbindliche Festlegung der Reduktion von Emissionen zu verhindern. Die Strategie der Problemverschiebung wurde jedoch vor allem auch mit der Unsicherheit bezüglich der Effektivität staatlicher Maßnahmen begründet: umfangreiche Regulierungsversuche – so 7
Die vergleichende Forschung zu Risikoregulierung zeigt, dass die Kontroverse um die Klimaforschung nicht zufällig in den USA entfacht ist, da dort Forschungsergebnisse traditionell kontroverser diskutiert und häufiger der kritischen Überprüfung ausgesetzt werden als beispielsweise in Deutschland, dessen politische Kultur von einem konsensuellen Denk- und Politikstil geprägt ist. Gerade dann, wenn – wie im Fall Klimawandel – politische Konflikte in die wissenschaftlich-technische Arena verlagert werden und letztere den Platz politischer Schließung einnehmen sollen, dann ist im amerikanischen Kontext mit einer Dekonstruktion wissenschaftlicher Geltungsansprüche zu rechnen (Jasanoff/Wynne 1998: 73-76).
126
Silke Beck
die ökonomisch ausgerichtete Argumentation – würden heute Kosten verursachen, deren Nutzen nicht nur sehr ungewiss ist, sondern die auch erst in ferner Zukunft spürbar werden können.
2.3. Wissenschaftliche Expertise im demokratischen Konsens: Der IPCC-Ansatz der Politikberatung Die Gründung des IPCC ist vor dem Hintergrund der Politisierung der Kontroverse um den Klimawandel zu sehen. Die Entscheidung des IPCC, im Namen der Wissenschaft „mit einer Stimme“ zu sprechen, lässt sich als eine Reaktion auf die Politisierung der wissenschaftlichen Kontroverse interpretieren, die die Autorität von Forschung, insbesondere im Bereich der Politikberatung, in beträchtlichem Maße unterminiert. Aus Interviews geht hervor, dass IPCCVertreter versuchten, Lehren aus früheren Kontroversen zu ziehen, in welchen sich Experten permanent widersprachen und Expertisen in der öffentlichen und politischen Arena gegeneinander ausgespielt wurden (vgl. Elzinga 1996). Der IPCC-Ansatz, das intern kontrovers diskutierte Problem extern als konsensuellen Topos wissenschaftlicher Kommunikation zu präsentieren, soll hingegen dazu dienen, die wissenschaftliche Glaubwürdigkeit wieder herzustellen und das Vertrauen der nationalen Regierungen in die internationale Forschung zu fördern. Damit verbunden versuchten die Gründungsväter, dem IPCC die Rolle des privilegierten Sprechers zu sichern. Durch die Bildung eines Wissensmonopols soll die Zufuhr von Expertisen in den politischen Prozess verknappt und ihre Interpretation kontrolliert werden (Weingart 2001). Die Entscheidung, möglichst breit angelegte Konsensbildungsprozesse durchzuführen und mit eindeutigen Stellungnahmen nach außen zu treten, dient nicht nur dazu, die wissenschaftliche Autorität, sondern auch die politische Autorität des IPCC zu gewährleisten. Der Bedarf an Konsens lässt sich auch mit den Erfordernissen des politischen Verwendungszusammenhangs begründen: da wissenschaftliche Unsicherheiten und Kontroversen im politischen Kontext riskanter als in der Forschung selbst sind, verlieren wissenschaftliche Expertisen dann, wenn sie in Form von kontroversen Hypothesen geliefert werden, an Wert und Gewicht. Zahlreiche Untersuchungen zur Politikberatung zeigen, dass Expertisen in Form von etablierten Fakten vorliegen müssen, um in der politischen Entscheidungsfindung überhaupt eine konstruktive Rolle spielen zu können (Edwards 1999, Elzinga 1996, Skodvin 2000). Aus politischer Sicht erfüllt der Konsens eine weitere Funktion: Er soll die Neutralität, Unparteilichkeit und Unvoreingenommenheit der Expertisen gewährleisten und damit den Unterschied zur Politik verkörpern (Schrope 2001). Das eindeutige Votum der Exper-
Von der Beratung zur Verhandlung – Der Fall IPCC
127
ten soll nicht nur der Orientierung für die Politik dienen, sondern auch den politischen Einfluss von Experten verbürgen (Haas 1992: 18, Jasanoff 1990: 243). In ähnlicher Weise kann auch das Kalkül charakterisiert werden, das bestimmte Protagonisten wie Bob Watson, später dann der zweite IPCC-Vorsitzende, verfolgen: Je breiter der Konsens und je tiefer er in der wissenschaftlichen Gemeinschaft verankert ist, desto weniger kann er in der Politik ignoriert bzw. zurückgewiesen werden (Elzinga 1996). Der IPCC-Ansatz kann auch als Versuch verstanden werden, der Struktur des internationalen Systems Rechnung zu tragen. Im Kontext der Vereinten Nationen sind Entscheidungsverfahren – aufgrund der spezifischen Governance-Struktur „Regierung ohne den Schatten der Hierarchie“ – in der Regel konsensuell angelegt. Angesichts der asymmetrischen Machtstruktur müssen, um die Effektivität der politischen Entscheidungen zu gewährleisten, alle Akteure, die für ihre Umsetzung von Bedeutung sind, in einen konsensuellen Entscheidungsfindungsprozess einbezogen werden. Die politische Funktion des Konsenses, dem IPCC die notwendige Autorität unter den Regierungsvertretern zu verschaffen, wird noch einmal hervorgehoben, als sich der Panel auf den Druck der politischen Unterhändler hin entscheidet, seine Zusammenfassungen für politische Entscheidungsträger einem line by line approval by consensus zu unterziehen. Wenn in den Medien die Rede von „Klimabazar“ oder „Zirkus“ ist, dann handelt es sich um dieses Verfahren. Der eigentümliche Ansatz des IPCC, wissenschaftliche Expertisen im demokratischen Konsens vorzulegen, lässt sich als Versuch interpretieren, demokratische Prinzipien mit wissenschaftlichen Grundsätzen zu vereinbaren. Wie zahlreiche Fallstudien zeigen, manifestiert sich die besondere Situierung an der Schnittstelle zwischen Wissenschaft und Politik darin, dass sich Expertengremien sowohl gegenüber der wissenschaftlichen Gemeinschaft als auch ihren politischen und gesellschaftlichen Adressaten legitimieren müssen. Damit stehen sie vor der Herausforderung, gleichzeitig die wissenschaftliche und politische Glaubwürdigkeit ihrer Expertisen aufrechtzuerhalten und neben den klassischen wissenschaftlichen Gütekriterien zusätzlichen Geltungsansprüchen (des Verwendungszusammenhangs) wie beispielsweise politische Relevanz, geographische Repräsentativität und Zugänglichkeit Rechnung zu tragen (Elzinga 1996, Jasanoff 1992). Diese Ausführungen machen deutlich, dass der Gründung des IPCC bzw. der Entscheidung zugunsten seines Ansatzes eine Vielzahl von Motiven, Kalkülen und Strategien zugrunde liegen. Das lässt sich darauf zurückführen, dass der „Konsens“ gleichzeitig dazu dient, Glaubwürdigkeit auf Seiten der Forschung als auch auf Seiten der Politik herzustellen und von daher als eine Art „Grenzobjekt“ funktioniert, das die Kommunikation und Kooperation zwischen wis-
128
Silke Beck
senschaftlichen und politischen Gemeinschaften erleichtert soll (Shackley/Wynne 1996). In der Diskussion um die Ausgestaltung eines internationalen Beratungsgremiums im Bereich Biodiversität wird immer wieder die Besonderheit des IPCC-Ansatzes hervorgehoben: Dieser verfüge über einen geeigneten Mechanismus, um die Expertise der wissenschaftlichen Gemeinschaften zu mobilisieren und die wissenschaftliche Gemeinschaft in den Prozess der Politikberatung einzubeziehen, um die Kluft zwischen Wissenschaft und Politik zu überbrücken und das wissenschaftliche Fundament für internationale Politik zu liefern (Loreau et al. 2006). Was den IPCC also von anderen Beratungsgremien auf internationaler Ebene unterscheidet, ist seine Fähigkeit, Forscher (aus aller Welt) in den Prozess einzubinden, einen Konsens über den Stand der Forschung zu politisch relevanten Themen auszuhandeln. Damit unterscheidet sich die Funktion von IPCC nicht grundsätzlich von der politischen Funktion von Politikberatung auf nationalstaatlicher Ebene (Jasanoff 1990). Dieser Definition liegt die Idee zugrunde, Politikberatung nicht mehr ausschließlich im Hinblick auf ihre „Produkte“ zu betrachten und an ihrem Einfluss zu messen, sondern als politischen Prozess zu verstehen (Jasanoff/Wynne 1998, Mitchell et al. 2006). Damit verbunden kann Konsens nicht mehr substantiell oder inhaltlich gedacht werden. Beispielsweise wird die Idee einer grundlegenden und umfassenden Übereinstimmung aller beteiligten Experten bereits angesichts der Anzahl der Teilnehmer obsolet (Haas 1992). Der Konsens stellt aus dieser Perspektive nicht mehr die Voraussetzung rationaler Umweltpolitik, die einfach nur noch in die Politik umgesetzt werden muss, sondern das Ergebnis von komplexen, konfliktreichen und kontingenten sozialen Verhandlungs- und Schließungsprozessen dar, das wiederum Ausgangspunkt weiterer Kontroversen sein kann.
2.4. Politik der Inklusion Um seine wissenschaftliche und politische Glaubwürdigkeit aufrechtzuerhalten, versucht der IPCC, die dazu erforderlichen Konsensbildungsprozesse möglichst breit anzulegen. Ein zentrales Merkmal des IPCC-Ansatzes, das vor allem immer wieder gebetsmühlenhaft in den Medien wiederholt wird, sind die Verweise bezüglich der Anzahl seiner Teilnehmer. Gerade gegenüber seinen Kritikern verweist der IPCC auf den Sachverhalt, dass an seinen ersten umfassenden Berichten über 500 Wissenschaftler aus allen Teilen dieser Welt und weitere 500 Repräsentanten von nationalen Regierungen, internationalen Organisationen, Industrie und Umweltschutzgruppen beteiligt waren. Auch die 2007 erschienenen Berichte werden mit dieser Strategie „verkauft“:
Von der Beratung zur Verhandlung – Der Fall IPCC
129
„The report was produced by some 600 authors from 40 countries. Over 620 expert reviewers and a large number of government reviewers also participated. Representatives from 113 governments reviewed and revised the Summary line-by-line during the course of this week before adopting it and accepting the underlying report“ (http://www.ipcc.ch/press/prwg2feb07.htm).
Um seinen Geltungsanspruch sowohl intern als auch extern zu vertiefen, versucht der IPCC, möglichst viele Experten und Stakeholder in seine Konsensverfahren einzubeziehen und auf diese Weise seine „Gefolgschaft“ zu erweitern. In den folgenden Jahren wird das, was im Folgenden die „Politik der Inklusion“ genannt wird, zu einer der zentralen Strategien des IPCC, um seine wissenschaftliche und politische Glaubwürdigkeit aufrechtzuerhalten. Dieser Politik liegt – wie Bert Bolin, der erste Chairman, erläutert - die Vorstellung zugrunde, dass Glaubwürdigkeit Repräsentation erfordert (Agrawala 1998b). Eine der Besonderheiten seiner Politik der Inklusion kann in dem Sachverhalt gesehen werden, dass der IPCC nicht nur wissenschaftsinterne Kriterien wie die Repräsentativität von Disziplinen und die Ausgewogenheit von wissenschaftlich legitimen Standpunkten, sondern auch wissenschaftsexterne Kriterien wie die Repräsentativität von gesellschaftlichen Gruppen und Nationen zu berücksichtigen versucht (Elzinga 1996). Auf internationale Ebene gewinnt jedoch auch die Frage der nationalen Repräsentation eine zentrale Rolle. An der Vorbereitung der Ersten IPCC-Berichte waren kaum Vertreter von Entwicklungsländern beteiligt. Auf Seiten der Entwicklungsländer wurde immer wieder der Vorwurf laut, dass sich der IPCC als ein neuer „OECD-Club“ entpuppe (Atiq Rahman, zit. nach Elzinga 1996). Die Partizipation von Entwicklungsländern ist und bleibt für den IPCC eine seiner größten Herausforderungen.
3.
Politik der Verhandlung und Grenzziehung als effektive Strategien zur Politikberatung
Der folgende Teil befasst sich mit Antworten auf die Frage, wie es dem IPCC gelungen ist, konsensuelle Expertisen unter gravierenden wissenschaftlichen Unsicherheiten und intensivem politischem Druck vorzulegen. Einen Schlüssel zur Antwort auf diese Frage bieten die komplementären Mikrostrategien der Verhandlung (negotiation) und der Grenzziehung (boundary work) (Jasanoff 1990, Gieryn 1999, Zehr 2005). Im Anschluss an diese Ansätze werden im Folgenden die zentralen Verhandlungen des IPCC über die Arbeitsteilung zwischen Wissenschaft und Politik analysiert. Dabei wird fokussiert, welche Rolle die
130
Silke Beck
Politik der Grenzziehung als Strategie zur Strukturierung von Expertisen und Organisation von Politikberatung gewinnt.
3.1. Die komplementären Mikrostrategien der Verhandlung und der Grenzziehung In den STS sind seit den 1970er Jahren eine Reihe von Konzepten erarbeitet worden, die die wissenschaftliche Praxis als Resultat von Verhandlungen und Grenzarbeit aller beteiligten (auch nicht-menschlichen) Akteure betrachten. Diverse Studien zeigen, dass Wissenschaft ein Territorium darstellt, dessen Grenzen ständig bewacht, gegen „Nicht-Wissenschaftliches“ verteidigt und immer wieder neu gezogen werden müssen (Gieryn 1999).8 Diese Strategien spielen jedoch, wie die Konjunktur von Konzepten wie boundary organization zeigen (Guston 2001, Miller 2001), nicht nur in der Forschung selbst, sondern gerade auch an der Schnittstelle zwischen Wissenschaft und Politik eine hervorragende Rolle (Shackley/Wynne 1996, van der Sluijs et al. 1998, van den Sluijs 2005, Lövbrand 2007). Diese Ansätze lenken die Betrachtung auf Verhandlungen über die Grenzziehung und die entsprechende Arbeitsteilung sowie die Verteilung von Verantwortlichkeit und Zuständigkeit zwischen Wissenschaft und Politik. Verhandlungen über die Grenzziehungen gewinnen aus dieser Perspektive an Bedeutung, da das Kennzeichnen von Problemstellungen als wissenschaftliche und politische Materie und das Zurechnen auf die eine oder andere Seite der Grenze zwischen Wissenschaft und Politik ein in hohem Maße politisches Unternehmen ist, da es mit der Allokation von Macht und der entsprechenden Entscheidungshoheit einhergeht. Strategien der Grenzziehung erweisen sich beispielsweise als funktional, um die Kontrolle über den entsprechenden Bereich und die entsprechenden Verfahrensregeln zu erhalten (Jasanoff 1990). Der Fall des IPCC zeichnet sich dadurch aus, dass sein institutionelles Design nicht vorgegeben ist oder einfach übernommen werden konnte, sondern selbst Gegenstand von umfangreichen Verhandlungsprozessen wird. Damit verbunden wird der IPCC – wenn auch nicht immer unbedingt freiwillig - zu einem Pionier des „reasoning together“, da er immer wieder vor der Herausfor8
Relativ unumstritten ist in der konstruktivistischen Wissenschaftsforschung der Befund, dass die Grenzen zwischen Forschung und ihrem Anwendungskontext offen und umstritten sind und dass das Problem der Verschiebung von Außengrenzen an Bedeutung gewinnt (Jasanoff 1990, Luhmann 1990). Kontrovers bleiben hingegen weiterreichende Thesen zur Hybridisierung wie beispielsweise, dass Unterschiede zwischen Wissenschaft und Politik vollständig verschwimmen, dass damit die funktionale Ausdifferenzierung von Wissenschaft und Politik aufgehoben wird und Forschung ihr Monopol auf ihre spezifische Funktion verliert (Beck 1996).
Von der Beratung zur Verhandlung – Der Fall IPCC
131
derung steht, Regelungen zu entwickeln, wie im Bereich global governance zu verfahren ist (Miller/Erickson 2006, Jasanoff/Wynne 1998). Eines der zentralen Merkmale der Verhandlungen über Politikberatung auf globaler Ebene besteht darin, dass grundsätzlich offen ist, welche Rolle Expertengremien in der internationalen Politik zu übernehmen und welche Prinzipien sie zu repräsentieren haben, da weder universal anerkannte Modelle noch standardisierte Verfahren vorliegen, die bei der Produktion, Bewertung und Anwendung von politisch relevantem Wissen zu befolgen wären. Betrachtet man die Vielzahl der Teilnehmer und ihre unterschiedliche geographische und professionelle Herkunft, dann zeigt sich, dass die Idee der kulturellen Homogenität, wie im Haasschen Modell vorgesehen, obsolet wird (Haas 1992) und bei den Verhandlungen im IPCC unvermeidlich unterschiedliche Denk- und Politik-Stile aufeinander treffen.9
3.2. Aus dem „Geist der Politik:“ Der intergovernmentale Status Das Mandat und das Design des IPCC werden Gegenstand von konfliktreichen Verhandlungen, die der Gründung des Panels voraus gingen, und an denen Vertreter von internationalen Organisationen (WMO, UN, ICSU) und der USRegierung beteiligt waren (Agrawala 1998a, 1998b). Die Rekonstruktion dieser Verhandlungen zeigt, dass die beteiligten (politischen) Vertreter die Verhandlungen um die Funktion und Ausgestaltung des Expertenrates als Forum nutzen, auf dem stellvertretend die Politik des Klimawandels ausgehandelt werden kann. In diesen Verhandlungen ist bereits das gesamte Spektrum an politischen Positionen vertreten. Allen politischen Vertretern ging es in erster Linie darum, sich ihren Einfluss auf Expertisen zu sichern und damit auch den Verlauf der politischen Verhandlungen kontrollieren zu können (Agrawala 1998b). So dient der Mechanismus für Vertreter der UNEP dazu, die Klimaschutzpolitik zu forcieren. Für Gegner der aktiven Klimaschutzpolitik, repräsentiert durch die USamerikanische Regierung, stellt der Mechanismus ein Mittel dar, um diese zu verzögern. Der intergovernmentale Status spiegelt den kleinsten gemeinsamen Nenner der an der Gründung des IPCC beteiligten, politischen „Parteien“ wieder. Mit dem intergovernmentalen Status erhalten nationale Regierungen das Recht, Experten für den IPCC zu benennen und ihre Vertreter an Verhandlungen innerhalb des Panels teilnehmen zu lassen. Auf diese Weise erhalten sie die 9
Dies lässt sich darauf zurückführen, dass Denk- und Politikstile, wie anhand des unterschiedlichen Verlaufs der Kontroversen in einzelnen Nationalstaaten angedeutet, in nationale politische Kulturen eingebettet sind und von daher auch in beträchtlichem Maße variieren (Miller/Erickson 2006).
132
Silke Beck
Möglichkeit, die politische Kontroverse um die Reaktion auf den Klimawandel in die Verhandlungen des IPCC hinzutragen und mit Hilfe ihrer Stellvertreter dort auszutragen. Der Mechanismus der Rekrutierung eröffnet dabei die Möglichkeit, das Gremium von vornherein nach der politischen Überzeugung der Experten zu besetzen. Politische Konflikte werden auf diese Weise auf die Ebene der Rekrutierung von Experten transponiert und letztlich zwischen Experten ausgetragen. Der intergovernmentale Status eröffnet in Folge eine spezielle Nische und wird zu einer der Besonderheiten des institutionellen Designs.10
3.3. „Policy relevant but not prescriptive“ – Politik der Entkopplung In den Jahren nach seiner Gründung wird das Mandat des IPCC Gegenstand von umfassenden Verhandlungsprozessen. In diesen Diskussionen geht es auch um die externe Arbeitsteilung zwischen Wissenschaft und Politik und um die Einbettung des IPCC in die Governance-Struktur auf internationaler Ebene. Seit seiner Gründung verfügt der IPCC über das Mandat, den Stand der Klimaforschung zu evaluieren und zu synthetisieren und in eine Wissensbasis zu transformieren, welche politische Entscheidungsträger in die Lage versetzen soll, politisch relevante Probleme zu interpretieren und in ihre Entscheidungsstrukturen zu integrieren (Bolin 1994: 27, http://www.ipcc.ch/about/about.htm). Gleichzeitig wird immer wieder diskutiert, ob und in welcher Weise der IPCC zusätzlich wissenschaftliche und politische Leistungen übernehmen soll (Böhmer-Christiansen 1996, Moss 2000). Zu Beginn übernahm der IPCC auch die Funktion, politische Handlungsempfehlungen vorzulegen. Seine Arbeitsgruppe (WG) III war mit der Aufgabe betraut, politische Reaktionsmöglichkeiten einschließlich rechtlicher Instrumente und anderer Elemente einer möglichen Konvention auszuformulieren. Dieses umfassende Mandat warf folgendes Dilemma auf: Auf der einen Seite entwickelte sich der IPCC zum „Cockpit“ der politischen Vorverhandlungen, indem er das „Skelett“ und den Referenzrahmen für die Klimarahmenkonvention vorlegte. Auf der anderen Seite setzte sich der IPCC damit auch dem Risiko der politischen „Kontamination“ aus. Die IPCCArbeitsgruppe, die die politischen Handlungsempfehlungen ausarbeitete, war mit massivem politischem Druck und Einflussnahmen konfrontiert, während es den beiden anderen Arbeitsgruppen (WG I und II) gelang, den Einfluss der Politiker auf ihre Arbeit einzudämmen (Skodvin 2000).
10
Der IPCC verfügt zwar offiziell über einen intergovernmentalen Status, allerdings nehmen zahlreiche Vertreter der Wirtschaft und der „Zivilgesellschaft“ an seinen Verhandlungen teil und erhalten einen Beobachterstatus.
Von der Beratung zur Verhandlung – Der Fall IPCC
133
Die politischen Unterhändler und Lobbyisten erkannten relativ schnell die eminent wichtige Rolle dieser Arbeitsgruppe. Da diese das Forum für die politischen Verhandlungen bot und damit die politische Entscheidungsfindung zur Klimapolitik hier antizipiert wurde, war der Anreiz für alle Konfliktparteien relativ hoch, sich an diesen Verhandlungen zu beteiligen und auf diese Einfluss zu nehmen. Die Verwundbarkeit der alten WG III erwies sich letzten Endes für die wissenschaftliche Integrität der gesamten Organisation als problematisch. Beispielsweise entstanden in Folge Unsicherheiten darüber, ob der IPCC als wissenschaftliches Gremium oder politisches Konsortium gehandelt werden soll. Diese Unsicherheiten hatten Konsequenzen in Hinblick auf die Frage, wie die politischen Verhandlungen zur Klimarahmenkonvention im Vorfeld der RioKonferenz von 1992 organisiert werden sollen. Die Entwicklungsländer versuchten, die Kontroverse wieder zurück in die Politik zu verlagern, indem sie betonten, dass der IPCC nicht das adäquate Forum für politische Verhandlungen bieten könne und stimmten mit überwältigender Mehrheit dafür, ein weiteres intergovernmentales Gremium einzurichten, um die Klimarahmenkonvention auszuhandeln. 1990 setzt die UN-Vollversammlung das Intergovernmental Negotiation Committee (INC) ein. Ab diesem Zeitpunkt werden die wissenschaftlichen und politischen Verhandlungen entkoppelt. IPCC verliert damit auf den ersten Blick an politischem Gewicht, was von der Mehrheit der IPCC-Vertreter jedoch als Entlastung empfunden wird. Seit diesem Zeitpunkt definiert der IPCC seine politische Rolle als „policy relevant but not prescriptive“ (Moss 2000, Watson 2005). Diese Episode macht deutlich, dass die Politik der Grenzziehung gerade dann an Bedeutung gewinnt, wenn die wissenschaftliche Glaubwürdigkeit des IPCC – auch im Zuge der Politik der Inklusion – problematisch wird. Die Lösung besteht in der Entkopplung von wissenschaftlichen und politischen Verhandlungen. In Folge kann sich der IPCC darauf zurückziehen, das wissenschaftliche Fundament zu liefern, während das INC oder später dann andere politische Körperschaften unter dem Dach der Klimarahmenkonvention auf dieser Basis über die entsprechenden politischen Lösungen verhandeln. Während die Mehrheit der IPCC-Vertreter diese relative „Freiheit von der Politik“ begrüßt, wird dem IPCC von verschiedenen Seiten eine Aversion vorgeworfen, sich die Hände „schmutzig“ zu machen, was fatale Folgen im Hinblick auf seine politische Relevanz habe (Böhmer-Christiansen 1996). Allerdings greift diese Kritik zu kurz und wird der politischen Rolle des IPCC nicht gerecht. Die Entkopplung von wissenschaftlichen und politischen Verhandlungen dient dem IPCC nicht nur dazu, Risiken der Politisierung abzuwehren. Sie kann auch als „Freiheit zu“ im Sinne von Max Weber betrachtet werden. Diese Form von
134
Silke Beck
Handlungsentlastung trägt auch dazu bei, dass sich der IPCC auf seine ursprüngliche Funktion, Konsens über den Stand der Forschung herzustellen, konzentrieren und diese konstruktiv erfüllen kann. Nicht zuletzt erweist sich diese funktionale Arbeitsteilung und entsprechende relative Autonomie auch als notwendig, damit die Kommunikation zwischen Wissenschaft und Politik fruchtbar verlaufen kann. Zum einen ist nun klar definiert, wer für die Verhandlungen über die Richtung und den Umfang von Klimapolitik zuständig ist, d. h., die Funktionen von IPCC und INC überschneiden sich nicht, sondern sind klar zurechenbar. Zum anderen haben die Regierungsvertreter und Stakeholder dadurch, dass sie die Verhandlungen um die Klimapolitik immer wieder in die Verhandlungen im IPCC hineingetragen haben, dessen Arbeit in nicht unerheblichem Maße behindert. Dies war Teil der Strategie der Koalition aus den OPEC-Staaten und den Lobbyisten der US-amerikanischen Konzerne, die Verhandlungen über die Klimapolitik zu verzögern. Auf diese Weise ist es ihnen gelungen, nicht nur die politischen Verhandlungen, sondern auch die Verhandlungen über ihre wissenschaftlichen Grundlagen aufzuhalten. Von daher kann es nicht im Interesse des IPCC sein, den Prozess der politischen Entscheidungsfindung im Rahmen der Politikberatung vorwegzunehmen und auf diese Weise die spezifisch politischen Dynamiken und Blockaden zu internalisieren, sondern stattdessen sich auf seine spezifischen Funktionen und Potentiale zurückzuziehen.
3.4. Politik der Rückkopplung mit den Adressaten durch hybride Verhandlungen Die Entwicklung des IPCC zeigt, dass die Strategien der Verhandlung und Grenzziehung gerade dann konstruktiv sind, wenn die strikte Trennung zwischen Wissenschaft und Politik aufgegeben wird. Um seine Funktionen überhaupt erfüllen zu können, muss der IPCC die Arbeitsteilung zwischen Wissenschaft und Politik extern und intern permanent neu verhandeln. Dabei hat er den Dynamiken in seinen Kontexten hinreichend Rechnung zu tragen. Auf der einen Seite muss er seine Berichte immer wieder an den Stand der Forschung anpassen und gegebenenfalls im Lichte von neuen Forschungsergebnissen revidieren. Auf der anderen Seite hat der IPCC sich an wandelnden politischen Problemen und Erwartungen zu orientieren. Nach der Rio-Konferenz handelt es sich hauptsächlich um Forderungen nach weit reichender Repräsentation, Transparenz und Relevanz für den politischen Prozess. Damit verbunden gewinnen nicht nur Formen der Ausdifferenzierung, sondern auch Formen der Rückkopplung mit den Adressaten an Bedeutung. Bis
Von der Beratung zur Verhandlung – Der Fall IPCC
135
heute besteht zwar kein institutionalisierter Rückkopplungsmechanismus zu den wissenschaftlichen und politischen Adressaten. Die Rückkopplung mit den politischen Adressaten ist zum einen extern durch permanente Verhandlungen zwischen Vertretern des IPCC und der Körperschaften unter dem Dach der Klimarahmenkonvention, die sich bereits seit den 1990er Jahren etabliert haben, faktisch gewährleistet. Zum anderen wird sie intern durch den Einbezug von Regierungsvertretern in die Verhandlungen und Begutachtungsverfahren bewerkstelligt. Die Verhandlungen außerhalb und innerhalb des IPCC erweisen sich als außerordentlich funktional, um die politische Relevanz und Resonanzfähigkeit seiner Expertisen zu gewährleisten. Die Entwicklung der Methodologien für nationale Inventare der Treibhausgasemissionen (Art. 4.1 UNFCCC), die der IPCC seit Beginn der 1990er Jahren in Kollaboration mit der OECD entwickelt, stellt ein Beispiel dafür dar, wie die Strategien der Verhandlung und Grenzziehungen konstruktiv eingesetzt werden können, um den Informationsbedarf auf Seiten seiner Adressaten zu ermitteln, politisch relevante Probleme zu identifizieren und diese in den Beratungsprozess zu integrieren. Bei der Entwicklung und Überprüfung von Methodologien beginnt der IPCC beispielsweise, systematisch Regierungsvertreter hinzuzuziehen. Die Verhandlungen über die Methodologien deuten auch eine konstruktive Lösung der Werteproblematik an. Während der IPCC bis dato dazu neigt, politisch sensitive Materien auszuklammern, versucht er nun, diese Problematik dadurch zu lösen, dass bei der Entwicklung und Überprüfung von Methodologien Regierungsvertreter hinzugezogen werden, um die politischen Entscheidungen und normativen Wertungen vorzunehmen. Die Entwicklung der Inventare zeigt, dass sich diese wechselseitigen Verhandlungen nicht nur auf wissenschaftliche Tatsachen beschränken müssen, sondern auch die Arbeitsteilung zwischen Wissenschaft und Politik selbst sowie Standards umfassen können, um akzeptable Wissenschaft oder die legitime Wahl zwischen Werten zu bestimmen. Die Inventare liefern eine autoritative, weil auch von den Regierungsvertretern getragene Informationsquelle. Die Methodologien werden in vielen Ländern angewandt und bilden die international anerkannte Basis für die nationalen Berichte. Die Inventare stellen wiederum einen wichtigen Input in die politischen Verhandlungen dar. Interessanterweise verfolgt der IPCC diese Politik der Verhandlung und der Grenzziehung nicht nur extern, sondern auch intern. Auch intern sind Verhandlungen für seine Resonanz- und Lernfähigkeit von zentraler Bedeutung. In Gestalt der Vollversammlung des Panels (Full Plenary Sessions) hat der IPCC ein Forum institutionalisiert, in welchem seiner Forschungspolitik und seine internen Prinzipien und Verfahrensregeln ausgehandelt werden. Dabei sitzen sowohl Vertreter der Forschung als auch der Politik mit am Tisch. Die
136
Silke Beck
Verhandlungen über Verfahrensregeln spielen für die Prinzipien der „unabhängigen“ Selbstorganisation des Panels eine herausragende Rolle, da sie Funktionen spezifizieren, Zuständigkeiten innerhalb der Organisation zuschreiben und eine Reihe von Verfahren und Mechanismen bestimmen (Skodvin 2000). Dadurch, dass Regierungsvertreter und Stakeholder an den Verhandlungen über die Planung und Organisation des Beratungsprozesses teilnehmen, erhalten sie die Möglichkeit, ihren Informationsbedarf und ihre Erwartungen zu kommunizieren und gewinnen damit einen beträchtlichen Einfluss auf die Form, in der die Wissensbasis geliefert wird. Gleichzeitig bekommen sie einen Einblick in die Erfordernisse der Beratungsprozesse. Die Politik der Inklusion hat im Wesentlichen dazu beigetragen, dass politische Akteure wissenschaftliches Wissen zur Kenntnis nehmen und gleichzeitig auch seine Gültigkeit anerkennen. Dadurch, dass außerwissenschaftliche Akteure Zugang zu detaillierten Informationen über die „Natur“ des Problems und die Art und Weise erhalten, wie sie wissenschaftlich produziert und präsentiert werden, werden sie auch in die Lage versetzt, die Reliabilität des Wissens zu bewerten und einzuschätzen. Ein weiteres Element, das zur Resonanz- und Lernfähigkeit des IPCC beigetragen hat, ist die rekursive Vernetzung der Beratungszyklen. Die Vollversammlungen treten sowohl zu Beginn als auch am Ende eines Zyklus zusammen. Dies eröffnet die Möglichkeit, aus zurückliegenden Zyklen „Lehren“ zu ziehen (Bolin 1994: 27) und die zahlreichen Reformvorschläge von diversen Wissenschafts-, Regierungs- und Nicht-Regierungsorganisationen hinreichend zu berücksichtigen (Moss 2000: 460).
3.5. „Agreeing to disagree“ Gegenstand der Verhandlungen sind auch die Restrukturierung der Arbeitsteilung zwischen und innerhalb der IPCC-Arbeitsgruppen und die Formalisierung der Verfahrensregeln. Während der IPCC 1988 mit relativ wenig formalisierten Regeln startete, hat er 1993 und 1999 zwei umfassende Revisionen seiner Verfahrensregeln vorgenommen (http://www.ipcc.ch/about/procd.htm). Auf die politische „Kontamination“ hin beginnt der IPCC, die Zuständigkeiten und Funktionen innerhalb des Panels zu reorganisieren. Neben seiner Vollversammlung, die über die Zuständigkeit für die Governance und Forschungspolitik verfügt, handelt es sich um die Arbeitsteilung innerhalb der Arbeitsgruppen selbst. Dabei werden Arenen für wissenschaftliche und hybride Verhandlungen ausdifferenziert. Während die wissenschaftliche Arena über die Aufgabe verfügt, den Stand der Forschung zu bündeln und in eine Wissensbasis zu transformieren (Produktion der Wissensbasis), handelt es sich bei der Vollversammlung um die
Von der Beratung zur Verhandlung – Der Fall IPCC
137
Transformation der Wissensbasis in eine umfassende Diagnose des Problems (Skodvin 2000). Ähnlich wie die externe Entkopplung von wissenschaftlichen und politischen Verhandlungen dient auch diese Form der Ausdifferenzierung dazu, die relative Autonomie der wissenschaftlichen Arena zu sichern und als Bedingung seiner Leistungssteigerung aufrechtzuerhalten (Bolin 1994: 27). Diese funktionale Arbeitsteilung geht mit unterschiedlichen Teilnahmebedingungen und –regeln einher: die Produktion der Wissensbasis bleibt Domäne von Wissenschaftlern, d. h., hier werden nicht-wissenschaftliche Akteure systematisch ausgeschlossen. Repräsentanten von politischen Organisationen werden hingegen in den Vollversammlungen der Arbeitsgruppen zugelassen. Das bedeutet, dass die hybriden Arenen – Vollversammlungen des Panels und der Arbeitsgruppen – innerhalb der Organisation die Funktion eines Puffers oder „Blitzableiters“ erfüllen, um die wissenschaftliche Arena abzuschirmen (Skodvin 1999). Zwischen 1990 und 1992 entwickelte der IPCC umfangreichere und intensivere review-Prozeduren. Diese bilden das „Rückgrat“ des gesamten IPCCProzesses und stellen das fundamentale Prinzip seiner Qualitätssicherung und Selbststeuerung dar (Edwards/Schneider 2001). Bei der Reorganisation im Jahr 1992 werden die spezifischen Erfordernisse der einzelnen funktionalen Einheiten stärker berücksichtigt (Ha-Duong et al. 2007, Moss 2007). Diese Form der Reorganisation lässt sich dahingehend interpretieren, dass auch oder gerade hybride Organisationen funktional differenziert operieren müssen, um ihre Leistungen überhaupt erbringen bzw. steigern zu können. Das bedeutet auch, dass es „den“ IPCC-Konsens bei näherer Betrachtung gar nicht gibt. Wie von IPCCAutoren auf die Formel „agreeing to disagree“ (Ha-Dong et al. 2007) gebracht, differenziert der IPCC, um seine Funktionen überhaupt erfüllen zu können, sowohl seine Produkte (Umfassende Berichte und Zusammenfassungen) als auch Verfahren ihres Zustandekommens aus. Diese funktionale Ausdifferenzierung zeigt sich insbesondere dann, wenn man die Verfahren der Qualitätssicherung und der Schließung eingehender betrachtet und führt dazu, dass es unterschiedliche Formen von Konsens gibt: Die wissenschaftliche Arena orientiert sich an „normalen“ wissenschaftlichen Vorgehensweisen, wobei – im Unterschied zu den wissenschaftlichen Begutachtungsverfahren – stärker Kriterien wie beispielsweise der Transparenz und Ausgewogenheit im Hinblick auf die Repräsentation des Stands der Forschung berücksichtigt werden. Die spezifische Funktion von review-Verfahren besteht in diesem Kontext darin, alle wissenschaftlich basierten Standpunkte zu integrieren und gleichgewichtig darzustellen sowie Möglichkeiten der Übereinstimmung aufzuzeigen, was in der Regel dadurch bewerkstelligt wird, dass entweder „großzügige“ Intervalle von Unsicherheit oder der Standpunkt der
138
Silke Beck
Mehrheit der wissenschaftlichen Gemeinschaft angegeben wird (Edwards/Schneider 2001). Die wissenschaftlichen Verfahren, die in die umfassenden Berichte münden, sind darauf hin angelegt, das Spektrum und die Verteilung von Positionen im Rahmen der legitimen wissenschaftlichen Debatte zu repräsentieren. In den Vollversammlungen der Arbeitsgruppen wird das, was an Wissensbasis in Form von umfassenden Berichten produziert wurde, in Zusammenfassungen für politische Entscheidungsträger transformiert. Die hoch politisierten Verhandlungen können als Filter betrachtet werden, da hier die Diskussion auf die Frage hin eng geführt, welche politischen Schlussfolgerungen aus dem Stand der Forschung zu ziehen sind. Hier werden die Stellungnahmen Zeile für Zeile verhandelt und im Einverständnis aller Teilnehmer verabschiedet. Dieser Schließungsmechanismus erweist sich als außerordentlich aufwändig. Diese Verhandlungen bieten oft ein Bild, das von den politischen Verhandlungen nicht unbekannt ist. Tatsächlich hat dieses Forum Entscheidungen über die wissenschaftliche Evidenz der wissenschaftlichen Hypothesen und damit auch über ihre politischen Konsequenzen zu treffen, d. h., ob politisch gehandelt werden sollte oder nicht. Es ist ein offenes Geheimnis, dass diese Verfahren, je politisch relevanter sie werden, auch um so anfälliger für politische Einflussnahmen werden. Diese Verhandlungen bieten für viele Regierungsvertreter ein Forum, um auszuhandeln, ob die Sichtweisen ihrer nationalen Experten und damit auch der nationalen Politik angemessen berücksichtigt worden sind. Ähnlich wie in den genuin politischen Verhandlungen auch eröffnet der Zwang zur Einstimmigkeit den sog. Bremserparteien wie z. B. den OPEC-Staaten die Möglichkeit, die Verhandlungen in erheblichem Maße zu blockieren.
4.
Zusammenfassung: IPCC als Modell?
Die Ausführungen haben demonstriert, dass diejenigen Elemente, die der IPCC in seiner Selbstdarstellung oftmals ausblendet, jedoch den Schlüssel zu seinem „Erfolg“ darstellen: Es sind gerade die Verhandlungsprozesse zwischen Repräsentanten von Forschung, Politik, Wirtschaft und Zivilgesellschaft, welche den IPCC resonanzfähiger oder kontextsensitiver machen und ihm das Überleben in einem Kontext sichern, in dem sein Vorläufer kläglich gescheitert ist. Durch seine Politik der Inklusion hat der IPCC den Prozess der Politikberatung für eine beachtliche Zahl nicht-wissenschaftlicher Akteure geöffnet, was dazu geführt hat, dass seine Expertisen in einem weitaus größeren Maße in Politik, Wirtschaft und Zivilgesellschaft wahrgenommen werden, als dies normalerweise in der Praxis der Politikberatung der Fall ist. Die Politik der Inklusion zeigt auch, dass
Von der Beratung zur Verhandlung – Der Fall IPCC
139
wissenschaftliche und politische Glaubwürdigkeit in einem wechselseitigen Zusammenhang stehen. Damit der IPCC politisch akzeptiert wird und damit auch Einfluss im politischen Kontext erhält, muss er sich auf die „bestmögliche“ Wissenschaft und damit auch auf die Teilnahme der wissenschaftlichen „Eliten“ weltweit stützen. Umgekehrt führen IPCC-Wissenschaftler selbst ihre Motivation und Bereitschaft, an IPCC-Aktivitäten teilzunehmen, auf die politische Relevanz seiner Berichte zurück (Moss 2000: 460). Wie in der Fallstudie dargestellt, entwickelt und kombiniert der IPCC die Strategien der Verhandlung und Grenzziehung, um auf Nachfragen in seinen wissenschaftlichen und politischen Kontexten und sich wandelnden Bedürfnissen innerhalb des Beratungsprozesses selbst flexibel und konstruktiv zu reagieren. Gleichzeitig ist es dem IPCC auch gelungen, diese Impulse organisational umzusetzen und entsprechende Verfahren und Regelungen zu entwickeln. Um auf diagnostizierte Defizite und auf den Wandel von Erwartungen in seinem wissenschaftlichen und politischen Umfeld zu reagieren, hat der IPCC, anstatt eine typische „UN-Bürokratie“ zu werden, über die Jahre hinweg grundlegende Veränderungen sowohl in der Struktur und Substanz seiner Berichte als auch in den Verfahren ihrer Produktion vorgenommen. Das, was sich in der Anfangsphase in der Struktur und dem institutionellen Design als fehlend oder defizitär erwiesen hat, wird, soweit als möglich, in der folgenden Phase eingefügt oder ergänzt. Dieses Maß an Innovations- und die Lernfähigkeit lässt sich darauf zurückführen, dass der IPCC über eine Arena in Gestalt der Vollversammlungen verfügt, um die Funktion und die Verfahren der Politikberatung selbst auszuhandeln. Darüber hinaus hat sich die rekursive Vernetzung der Beratungszyklen als funktional erwiesen, um auf Defizite zu reagieren und den Beratungsprozess entsprechend anzupassen. Am erfolgreichsten haben sich diese Verhandlungen gerade dann erwiesen, wenn sie reflexiv wurden, d. h., wenn von der Möglichkeit Gebrauch gemacht wurde, die Ziele und Verfahren der Politikberatung und die Arbeitsteilung zwischen Wissenschaft und Politik selbst zu verhandeln. Dadurch, dass die potenziellen Adressaten die Möglichkeit erhalten, mitzuverhandeln, was politisch relevantes Wissen ist und dabei die Prinzipien der Selbststeuerung des Rates mitzubestimmen, wird nicht nur die Resonanz, sondern auch die Legitimität und Robustheit von Expertisen gefördert. Um in einem politisierten Kontext die wissenschaftliche Integrität zu gewährleisten, entwickelt der IPCC die Politik der Grenzziehung. Er reagiert auf Risiken der Politisierung, indem er wissenschaftliche und politische Verhandlungen ausdifferenziert, Verfahren zur Qualitätssicherung einführt und diese den funktionalen Erfordernissen und Imperativen des entsprechenden Kontextes anpasst. Die verschiedenen Formen der Restrukturierung demonstrieren, dass
140
Silke Beck
hybride Organisationen nicht nur permanent Grenzen überschreiten, sondern auch vor der Notwendigkeit stehen, extern und intern Grenzen zu ziehen, um ihre Funktionen überhaupt erfüllen zu können. Sie lassen auch den Schluss zu, dass Hybridisierungs- und Entdifferenzierungsphänomene nur deshalb wirksam sind, weil die offizielle Arbeitsteilung zwischen Wissenschaft und Politik intern und extern aufrechterhalten bleiben. Innovationsbedarf besteht im Wesentlichen im Hinblick auf das zugrunde liegende Modell der Politikberatung (Pielke 2005). Wie aus seinen offiziellen Selbstdarstellungen hervorgeht, neigt der IPCC dazu, das lineare, eindimensionale Modell von Politikberatung zu reproduzieren. Es ist geradezu grotesk, wie rigide in diesem Kontext die Ideen von Wertfreiheit und Neutralität hochgehalten werden (Miller/Erickson 2006). Anstatt an Idealen festzuhalten, die dazu verurteilt sind, an der Realität zu scheitern, wäre der IPCC selbst gut beraten, ein pragmatischeres Bild von Politikberatung anzunehmen. Beispielsweise stellt der hybride Charakter von Verhandlungen nicht das Problem, sondern im Gegenteil, Teil der Erfolgsgeschichte dar. Eine der Leistungen des IPCC besteht darin, immer wieder aufzuzeigen, dass und in welchen Punkten Konsens über den Stand der Forschung besteht, und auf diese Weise das solide Fundament für politische Entscheidungen bereitzustellen. Auf diese Weise hat er maßgeblich dazu beigetragen, dass der Konsens darüber, dass der anthropogene Klimawandel bereits stattfindet, auch in der internationalen und US-amerikanischen Politik nicht mehr offen in Frage gestellt und die Kontroverse um den Klimawandel zurück in die Politik verlagert wird. Gleichzeitig kann davon ausgegangen werden, dass die Kontroverse über die wissenschaftlichen Grundlagen der Klimapolitik jederzeit wieder ausbrechen kann und sich die Schließung der Kontroverse als vorläufig erweist. Das wissenschaftliche Verständnis von Klima bleibt mit zahlreichen Unsicherheiten behaftet, die, sobald Forschungsergebnisse gravierende politische oder ökonomische Konsequenzen haben, wiederum von den politischen Konfliktparteien instrumentalisiert werden, was die Kontroversen verschärft. Die notwendige Pluralisierung von wissenschaftlichen Aussagen muss allerdings kein Problem darstellen. Bei näherer Betrachtung zeigt sich, dass es innerhalb des IPCC nicht den einen, sondern – je nach Kontext und Funktion – auch verschiedene Formen von Konsens gibt. In dem Maße, in dem die politischen Repräsentanten bestimmte Verfahren – wie die Verabschiedung der Zusammenfassungen für politische Entscheidungsträger – für politisch relevant erachten, werden sie versuchen, auf diese Einfluss zu nehmen. Das Ausmaß der Politisierung dieser Verhandlungen illustriert nicht den Autoritätsverlust von Forschung, sondern im Gegenteil, das politische Gewicht des IPCC. Dies führt dazu, dass die genuin politischen Verhandlungen über die Klimapolitik in den Verhandlungen über die
Von der Beratung zur Verhandlung – Der Fall IPCC
141
Zusammenfassungen vorweg genommen werden und stellvertretend als Deutungskonflikte hinsichtlich der Relevanz von Forschung für die politische Entscheidung ausgetragen werden, wobei der IPCC, dann, wenn er zu konsensuellen Stellungsnahmen kommen will, bestehende politische Gegensätze und Interessenskonflikte zu überbrücken hat. Dies erklärt, warum die Frage, was konkret in Bezug auf den Klimawandel zu tun ist, lange offen gelassen wurde. Die konsensuellen Stellungsnahmen des IPCC laufen auf den kleinsten, gemeinsamen Nenner hinaus, und viele Schlussfolgerungen bleiben vor diesem Hintergrund generell vage und enthalten zahlreiche Vorbehalte. Im Hinblick auf diese Schwierigkeiten stellen zahlreiche Kommentatoren die Frage, ob der IPCC sich seine politische Glaubwürdigkeit nicht auf andere Weise verschaffen und funktionale Alternativen entwickeln kann. Dabei bleibt zu berücksichtigen, dass die Stellungsnahmen gerade dann, wenn sie die Begutachtungsverfahren erfolgreich durchlaufen haben, politisch anschlussfähig und relativ autoritativ und robust sind. Gleichzeitig kann es angesichts der wissenschaftlichen Unsicherheiten nicht mehr Aufgabe von Forschung sein, logisch unbestreitbare Beweise der Natur zu liefern, und daraus einstimmige Handlungsanweisungen abzuleiten (Oreskes 2004). Was zum Scheitern verurteilt ist, ist die zugrunde liegende Idee der Neutralität bzw. die Vorstellung, Politikberatung könne als „Schiedsrichter“ funktionieren. Betrachtet man die Verhandlungen um die Zusammenfassungen, dann zeigt sich, dass die technokratische Idee, Probleme zu rationalisieren und zu entpolitisieren, empirisch nicht haltbar ist. Damit verbunden wird auch die Frage nach der politischen Rolle von Politikberatung aufgeworfen. Die Funktion von Politikberatung kann nicht mehr, wie im technokratischen Modell vorgesehen, darin bestehen, die Verhandlungen zugunsten einer einzigen eindeutigen Lösung bzw. präskriptiven Handlungsempfehlung zu schließen (closing down). Diese Vorstellung wird aufgrund der wissenschaftlichen Unsicherheiten auf der einen und der teilweise unüberbrückbaren politischen Interessenskonflikte auf der anderen Seite obsolet. Politikberatung kann dann eine konstruktive Rolle übernehmen, wenn sie stattdessen die Diskussion um Handlungsmöglichkeiten eröffnet (opening up). Ihre Funktion besteht dann darin, das Spektrum an verschiedenen Interpretationen des Standes der Forschung und der entsprechenden politischen Reaktionsmöglichkeiten auf den globalen Wandel aufzuzeigen und gleichzeitig die Konsequenzen von politischen Entscheidungen auszuweisen und zu beobachten (Oreskes 2004: 381, Stirling 2005). Auf diese Weise kann Politikberatung ein offenes Forum bieten, auf welchem verhandelt werden kann, welche Ziele und Rollen Politikberatung in Governance-Prozessen spielen soll und kann (EUR 22700 2007).
142
Silke Beck
Literatur Agrawala, Shardul (1998a): Structural and Process History of the Intergovernmental Panel on Climate Change. In: Climatic Change 39. 621-642 Agrawala, Shardul (1998b): Context and Early Origins of the Intergovernmental Panel on Climate Change. In: Climatic Change 39. 605-620 Agrawala, Shardul (1999): Early science-policy interactions in climate change: lessons from the Advisory Group on Greenhouse Gases. In: Global Environmental Change 9. 157–169 Bechmann, Gotthard/Beck, Silke (2003): Gesellschaft als Kontext von Forschung. Neue Formen der Produktion und Integration von Wissen - Klimamodellierung zwischen Wissenschaft und Politik. Wissenschaftliche Berichte FZKA 6805. Karlsruhe: Forschungszentrum Karlsruhe Beck, Silke (2004): Localizing Global Change in Germany. In: Jasanoff/Martello (2004): 173-194 Beck, Ulrich (1996): Wissen oder Nicht-Wissen? Zwei Perspektiven „reflexiver Modernisierung“. In: Beck et al. (1996): 289–315 Beck, Ulrich et al. (1996): Reflexive Modernisierung. Frankfurt a.M.: Suhrkamp Boehmer-Christiansen, Sonja (1996): Politischer Druck bei der Formierung eines wissenschaftlichen Konsenses. In: Emsley (1996): 169–186. Bolin, Bert (1994): Science and Policy Making. In: Ambio 23. 25–29 Edwards, Paul N. (1996): Global Comprehensive Models in Politics and Policymaking. In: Climatic Change 32. 149–161 Edwards, Paul N. (1999): Global Climate Science, Uncertainty and Politics: Data-Laden Models, Model Filtered Data. In: Science as Culture 8. 437–472 Edwards, Paul N./Miller, Clark A. (Hrsg.) (2001): Changing the Atmosphere: Expert Knowledge and Environmental Governance. Cambridge, Ma.: MIT Press Edwards, Paul N./Schneider, Stephen H. (2001): Self-Governance and Peer Review in Science-For-Policy: The Case of the IPCC Second Assessment Report. In: Edwards/Miller (2001): 219–246 Elzinga, Aant (1996): Shaping Worldwide Consensus: The Orchestration of Global Change Research. In: Elzinga/Landström (1996): 223–255 Elzinga, Aant/Landström, Catharina (Hrsg.): Internationalism and Science. London (u. a.): Taylor Graham Emsley, John (Hrsg.) (1996): Die Klima-Diskussion. Der Bericht des europäischen Forums für Wissenschaft und Umwelt. Bournemouth: Bourne EUR 22700 (2007): Science & Governance — Taking European knowledge society seriously. Report of the Expert Group on Science and Governance to the Science, Economy and Society Directorate, Directorate-General for Research, European Commission. Luxembourg Gieryn, Thomas F. (1999): Cultural Boundaries of Science. Credibility on the Line. Chicago/London: University of Chicago Press Grundmann, Reiner (2006): Ozone and Climate: Scientific Consensus and Leadership. In: Science, Technology & Human Values 31. 73-101
Von der Beratung zur Verhandlung – Der Fall IPCC
143
Guston, David (2001): Boundary Organizations in Environmental Policy and Science: An Introduction. In: Science, Technology & Human Values 26. 399-408 Ha-Duong, Minh/Swart, Rob/Petersen, Arthur/Bernstein, Lenny (2007): Editorial: Uncertainty management in the IPCC: Agreeing to disagree. In: Global Environmental Change 17. 8–11 Haas, Peter M. (1992): Introduction: Epistemic Communities and International Policy Coordination. In: International Organization 46. 1–35 IPCC (1999): Procedures for the Preparation, Review, Acceptance, Adoption, Approval and Publication of IPCC Reports. Annex to the Report on the 15 th Session of the IPCC. San José IPCC (2001): Climate Change 2001: Synthesis Report. Summary for Policymakers. An Assessment of the Intergovernmental Panel on Climate Change. http://www.ipcc.ch/pub/un/syreng/spm.pdf, letzter Aufruf: 14.06.2006 Japp, Klaus-Peter (1999): Die Unterscheidung von Nichtwissen. In: TA-DatenbankNachrichten 8. 25–32 Jasanoff, Sheila (1990): The Fifth Branch. Cambridge, Ma.: Harvard University Press Jasanoff, Sheila (1992): Science, Politics, and the Renegotiation of Expertise at EPA. In: Osiris 7. 195-217 Jasanoff, Sheila/Wynne Brian (1998): Science and Decisionmaking. In: Rayner/Malone (1998): 1-87 Jasanoff, Sheila/Martello, Marybeth L. (Hrsg.) (2004): Earthly Politics: Local and Global in Environmental Governance. Cambridge, MA: MIT Press Leach, Melissa/Scoones, Ian/Wynne, Brian (Hrsg.) (2005): Science and Citizens: Globalization and the Challenge of Engagement. London: Zed Books Lövbrand, Eva (2007): Pure Science or Policy Involvement? Ambiguous BoundaryWork for Swedish Carbon Cycle Science. In: Environmental Science and Policy 10. 39–47 Loreau, Michel et al. (2006): Diversity without Representation. In: Nature 442. 245-246 Luhmann, Niklas (1990): Die Wissenschaft der Gesellschaft. Frankfurt a. M.: Suhrkamp Miller, Clark A. ( 2001). Hybrid Management: Boundary Organizations, Science Policy, and Environmental Governance in the Climate Regime. In: Science, Technology & Human Values 26. 478-500 Miller, Clark A./Erickson, Paul H. (2006): The Politics of Bridging Scales and Epistemologies: Science and Democracy in Global Environmental Governance. In: Reid et al. (2006): 279-314 Mitchell, Ronald B./Clark, William C./Cash, David W./Dickson, Nancy M. (Hrsg.) (2006): Global Environmental Assessments: Information and Influence. Cambridge, MA: MIT Press Moss, Richard H. (2000): Ready for IPCC-2001: Innovation and Change in Plans for the IPCC Third Assessment Report. In: Climatic Change 45. 459–468 Moss, Richard H. (2007): Editorial - Improving information for managing an uncertain future climate. In: Global Environmental Change 17. 4–7 Oreskes, Naomi (2004): Science and public policy: what’s proof got to do with it? In: Environmental Science & Policy 7. 369–383
144
Silke Beck
Pielke Jr., Roger A. (2005): Misdefining ‘Climate Change’: Consequences for Science and Action. In: Environmental Science & Policy 8. 548-561 Rayner, Steve/Malone, Elizabeth L. (Hrsg.) (1998): Human Choice and Climate Change. Vol. 1: The Societal Framework. Colombus: Battelle Press Reid, Walter V./Berkes, Fikret/Wilbanks, Thomas/Capistrano, Doris (Hrsg.) (2006): Bridging Scales and Knowledge Systems. Concepts and Applications in Ecosystem Assessment. Washington, D.C.: Island Press Schrope, Mark (2001): Consensus science, or consensus politics? In: Nature 412. 112114 Shackley, Simon/Wynne, Brian (1996): Representing Uncertainty in Global Climate Change Science and Policy: Boundary-Ordering Devices and Authority. In: Science, Technology & Human Values 21. 275-302 Skodvin, Tora (1999): Science-policy Interaction in the Global Greenhouse. Cicero Working Paper No. 3. Oslo: Cicero Skodvin, Tora (2000) Revised Rules of Procedure for the IPCC Process. In: Climatic Change 46. 409-415 Sluijs, Jeroen van der/Eijndhoven, Josée van/Shackley, Simon/Wynne, Brian (1998): Anchoring Devices in Science for Policy: The Case of Consensus around Climate Sensitivity. In: Social Studies of Science 28. 291-323 Sluijs, Jeroen van der (2005): Uncertainty as a monster in the science-policy interface: four coping strategies. In: Water Science & Technology 52. 87–92 Stirling, Andrew (2005): Opening Up or Closing Down: analysis, participation and power in the social appraisal of technology. In: Leach et al. (2005): 218-231 Watson, Robert T. (2005): Turning Science into Policy: Challenges and Experiences from the Science-Policy Interface. In: Philosophical Transactions of the Royal Society B 360. 471-477 Weingart, Peter (1999): Scientific Expertise and Political Accountability – Paradoxes of Science in Politics. In: Science and Public Policy 26. 151–161 Weingart, Peter (2001): Die Stunde der Wahrheit? Zum Verhältnis der Wissenschaft zu Politik, Wirtschaft und Medien in der Wissensgesellschaft. Weilerswist: Velbrück Zehr, Stephen (2005): Comparative boundary work: US acid rain and global climate change policy deliberations. In: Science and Public Policy 32. 445-456
IV. Organisationssoziologie
„Grenzorganisationen“ und funktionale Differenzierung Petra Hiller
1.
Einleitung
Ist die Autonomie der Wissenschaft in Gefahr, wenn sie sich auf Politikberatung einlässt? Diese Frage beschäftigt die Wissenschaftsforschung seit den sechziger Jahren des vergangenen Jahrhunderts. Von der Politisierung und Ökonomisierung der Wissenschaft ist die Rede (Weingart 1983, Guston 2001: 399). Inzwischen befürchtet man einen Autoritätsverlust der Wissenschaft, weil in der Wissensgesellschaft eine Pluralisierung des Wissens beobachtet wird, die das Expertenurteil in der wissenschaftlichen Politikberatung zu relativieren scheint (vgl. Maasen/Weingart 2005). Unter dem Stichwort „neue Formen der Wissensproduktion“ wird in den Science Studies seit den 1990er Jahren der Übergang von der Normalwissenschaft zu post-normal science (Funtowicz/Ravetz 1993), respektive von „Modus 1“ zu „Modus 2“ (Gibbons et al. 1994) diskutiert. Mit diesen Thesen werden Strukturveränderungen im Wissenschaftssystem behauptet, die als Entdifferenzierungserscheinung der modernen Gesellschaft (vgl. Weingart 2003: 134ff.) beschrieben werden. Mit den „neuen Formen der Wissensproduktion“ ist diesen Annahmen zufolge nicht nur die Autorität, sondern die Autonomie der Wissenschaft bedroht. In diesem Zusammenhang identifizieren die Science and Technology Studies einen „neuen“ Organisationstyp, der zwischen Politik und Wissenschaft angesiedelt ist. Sie sprechen von so genannten „Grenz- oder Hybridorganisationen“ (Guston 1999, Miller 2001) und es wird die Frage diskutiert, welche Rolle diese Organisationsformen für Prozesse der Strukturbildung (Autonomie, Grenzziehung, strukturelle Kopplung) von Wissenschaft und Politik spielen. Ich werde im Folgenden der Frage nachgehen, zu welchen Ergebnissen man kommt, wenn man das Phänomen „Grenzorganisation“ differenzierungstheoretisch beschreibt. Dafür gehe ich (2.) zuerst auf das Konzept der „Grenzorganisation“ bei Guston und die dafür herangezogene Principal/Agent-Theorie ein. Es wird sich zeigen, dass die skizzierte Debatte zumindest in zweierlei Hinsicht mit theoretischen Verkürzungen arbeitet. Dies betrifft zum einen den fehlenden Organisationsbegriff und zum anderen die fehlende Unterscheidung von Organisation und Gesellschaft. Daher werde ich (3.) am Beispiel des Funktionssystems Wissenschaft die genannte Grenzproblematik aufgreifen. In diffe-
„Grenzorganisationen“ und funktionale Differenzierung
147
renzierungstheoretischer Perspektive wird deutlich, dass sich Grenzziehung und Autonomie der autopoietischen Reproduktion sozialer Systeme verdanken. Daraus folgt die Einsicht, dass „Grenzorganisationen“ die ihnen zugeschriebene Funktion des „Grenzmanagements“ von Funktionssystemen nicht erfüllen können. Für die die Entwicklung dieses Arguments werden Umstellungen nötig, und zwar von Handlungstheorie auf Kommunikationstheorie, von individualistischer Sozialtheorie auf Systemtheorie. Das bleibt nicht ohne Folgen für das Konzept der „Grenzorganisation“. Im Unterschied zur politikwissenschaftlichen Perspektive der Science and Technology Studies muss eine soziologische Beschreibung die Unterscheidung von Organisation und Gesellschaft systematisch berücksichtigen. Denn nicht alles, was auf der Ebene von Organisation beobachtet wird, ist auf der Ebene von Organisation erklärbar. Die Argumentation unterscheidet in der Folge zwischen Funktion und Leistung gesellschaftlicher Teilsysteme und weist wissenschaftliche Politikberatung als Leistungsproduktion des Wissenschaftssystems aus (4.). Am Beispiel der für die Klimapolitik maßgeblichen „Grenzorganisation“, dem Intergovernmental Panel on Climate Change (IPCC), wird hier die Frage diskutiert, mit welchen Strukturvariationen die Wissenschaft auf Leistungserwartungen der Politik reagiert. Dem schließen sich (5.) Überlegungen zum Verhältnis von Organisation und Gesellschaft in der Theorie funktionaler Differenzierung an. Es stellt sich heraus, dass das Konzept der „Grenzorganisation“ in diesem Beobachtungsschema zurückgewiesen werden muss. Die beiden folgenden Abschnitte greifen den Begriff der strukturellen Kopplung auf und gehen der Frage nach, ob Beratung als Form (6.) oder als Organisation (7.) Funktionen der strukturellen Kopplungen von Wissenschaft und Politik übernehmen kann. Zusammenfassende Bemerkungen schließen den Beitrag ab (8.).
2.
„Grenzorganisationen“ bei Guston: Principal/Agent-Theorie
Die Arbeit von Guston (1999), in denen das Konzept der „Grenzorganisation“ entwickelt wird, untersucht eine bestimmte Phase der US-amerikanischen Technologietransferpolitik. Hier werden Phänomene beschrieben, für die in den 1980er Jahren das politikwissenschaftliche Konzept der korporatistischen beziehungsweise intermediären Organisationen herangezogen wurde (vgl. Braun 1993, Braun 1997). Das Bezugsproblem ist jeweils ein politisches Steuerungsproblem, das in Verhandlungssystemen zwischen Exekutive und Wissenschaft bearbeitet wird (Braun 1997: 47ff.). Entsprechend beziehen sich die Analysen nicht auf Organisationsfragen, sondern auf Probleme der Ausgestaltung des
148
Petra Hiller
Regulierungsfeldes einer bestimmten policy. Diese können Guston zufolge am besten verstanden werden, wenn man die Rolle der Exekutive als Auftraggeber (Prinzipal) und die Rolle der Transferorganisationen als Auftragnehmer (Agent) beschreibt (1999: 88). In steuerungstheoretischer Absicht wird das Problem aus Sicht des Auftraggebers, hier also der Politik, konzipiert. Gustons Forschungsinteresse gilt nicht der Organisation, sondern der Policy-Analyse (vgl. auch Guston 2005). Seine Bestimmung der „Grenzorganisation“ als besonderer Organisationstyp verzichtet daher auf organisationssoziologische Analysen. „Grenzorganisationen“ werden vom empirischen Beispiel her als auffällig markiert. Es wird versucht, dem Gegenstand deskriptive Merkmale abzugewinnen, die ihn als distinkt erscheinen lassen. Was den Beobachter irritiert, ist die scheinbare Konfusion von wissenschaftlichem und nichtwissenschaftlichem Wissen in der Entscheidungsproduktion dieser Organisationen. Ich werde im Folgenden zeigen, dass die Beobachtung einer Konfusion oder Verflüssigung der Grenze zwischen Wissenschaft und Politik ein Resultat der zugrunde liegenden Akteurstheorie ist. Das Problem löst sich auf, wenn die wissenschaftliche Beobachtung von Akteur auf Kommunikation umstellt. Da Guston sich für politische Steuerungsfragen interessiert, greift er auf die Principal/Agent-Theorie zurück, die ja eigentlich eine Regulierungstheorie ist. Der Agenturtheorie geht es um Probleme der Verhaltensregulierung im Rahmen individueller Vertragsbeziehungen. Die Agenturtheorie hat keinen Organisationsbegriff. Vielmehr wird unterstellt, dass Organisationen als Arrangements individueller Vertrags-/Tauschbeziehungen zu behandeln sind (Ebers/Gotsch 1993). Prinzipal und Agent stehen in einem Vertragsverhältnis, wobei wechselseitig individuelle Interessendurchsetzung und Nutzenmaximierung angenommen wird. Die Principal/Agent-Theorie interessiert sich nun dafür, wie das asymmetrische Verhältnis von Auftraggeber und Auftragnehmer über Kontrollund Steuerungsmechanismen auszugestalten ist (Rechte und Pflichten), damit es zur erwünschten Leistungserbringung kommt und eine einseitige Ausbeutung des Arrangements durch den Auftragnehmer verhindert wird.1 In der von Guston (1999) untersuchten Konstellation hat die Politik (Prinzipal) das Problem, dass sie Forschungsergebnisse nicht bewerten und Forschungsprozesse nicht kontrollieren kann. Es fehlt ihr das entsprechende Wissen (Informationsdefizit). Daher werden Beratungs- und Transferorganisationen (Agenten) gegründet, die für die Implementation von Anreizen, Sanktionen und Kontrollen zuständig sind. Es geht also nicht um Forschung, sondern um Forschungssteue1
Für die Politik (Prinzipal) entsteht hier ein doppeltes Risiko: Zum einen, dass sich die beauftragte Organisation nicht als leistungsfähig erweisen wird (Adverse Selection). Zum anderen, dass sich der Auftragnehmer nicht an die Vereinbarungen halten wird (Moral Hazard) (vgl. Arrow 1985).
„Grenzorganisationen“ und funktionale Differenzierung
149
rung und Transfer. Diese Prinzipal/Agent-Relation könnte Guston zufolge zwar die Gefahr einer Politisierung und Ökonomisierung der Forschung bergen (1999: 93). Das Ziel von Guston besteht jedoch darin zu zeigen, dass dies nicht der Fall ist. Denn die Politiker erfinden einen neuen Agententyp, den Technology Transfer Specialist. Diesem wird eine doppelte Agentenschaft zugesprochen. Er agiert sowohl im Auftrag der Politik als auch der Wissenschaft. So ist es der Technology Transfer Specialist, der die Grenze zwischen Politik und Wissenschaft aufrechterhält beim boundary work (1999: 105f.). Der mikroökonomische Ansatz der Agenturtheorie scheint sich anzubieten für die Vorstellung, dass Grenzziehung als boundary work von individuellen Akteuren erbracht wird. Der Fokus liegt auf der Interessenverfolgung bei der Durchführung von boundary work. In der Konzeption von Guston sind es Individuen, die über Sinngrenzen hinweg agieren. Die von Guston beschriebene „doppelte Agentenschaft“ könnte man auch als Rollendifferenzierung auffassen, wie man sie aus anderen Organisationen kennt. Ein gutes Beispiel ist die Universität, die ihrem akademischen Personal sowohl die Erfüllung von Erwartungen des Erziehungssystems (Lehre) als auch des Wissenschaftssystems (Forschung) abverlangt. Man könnte dann fragen, inwiefern die Tätigkeit des Professors oder der Professorin als boundary work zu bezeichnen ist. Institutionenökonomischen Ansätzen dieser Art ist gemein, dass sie zwischen Individuen, Organisationen und Funktionssystemen der Gesellschaft nicht unterscheiden. Sie gehen davon aus, dass sich gesellschaftliche Phänomene als Resultate individueller Netzwerkrelationen rekonstruieren lassen. Organisation und Gesellschaft als davon unterscheidbare Systemtypen existieren nicht. Gustons Darstellung der „Grenzorganisation“ differenziert daher nicht zwischen Agenten als Individuen und Agenten als Organisationen. Auch wenn von Organisationen die Rede ist, bezieht die Beschreibung sich nicht auf Organisation, sondern auf individuals, researchers, politicans und Technology Transfer Specialists. In einer differenzierungstheoretischen Perspektive lassen sich für das Konzept der „Grenzorganisation“ zusammenfassend drei Probleme identifizieren: 1.
Das Konzept der „Grenzorganisation“ von Guston liefert keine Beschreibung der Organisation. Es setzt Organisation in einem nicht weiter spezifizierten Sinne als „Institution“ voraus und beschreibt auf der Ebene der Beobachtung erster Ordnung individuelle Handlungen. Damit folgt er dem institutionenökonomischen Ansatz der Agenturtheorie. Die Principal/AgentTheorie negiert jeden über Aggregationsvorstellungen hinausgehenden Begriff von Organisation als handlungsfähige Einheit. Nicht Organisatio-
150
2.
3.
Petra Hiller nen handeln, sondern Individuen, nicht Organisationen ziehen Grenzen, sondern Individuen usw. (vgl. Ebers/Gotsch 1993: 204). Wenn man den Begriff der „Grenzorganisation“ für organisationssoziologische Analysen nutzbar machen wollte, dann müsste ein solcher Begriff erst gebaut werden. Im Konzept der „Grenzorganisation“ fehlt eine theoretische Vorstellung von Grenzkonstitution. Wie erfolgt die Produktion und Reproduktion von Grenzen auf der Ebene sozialer Systeme? Auch hier liegt das Problem in der Beobachtungsperspektive des gewählten Ansatzes: die Agenturtheorie weist Organisationsgrenzen keine Bedeutung bei. Organisation und Umwelt gehen im Netzwerk individueller Vertragsbeziehungen ineinander über (Ebers/Gotsch 1993: 204). Die Auflösung von Grenzen ist in diesem Ansatz bereits angelegt. Die Agenturtheorie ist, ihrer individualistischen Ausrichtung entsprechend, eine Theorie ohne Gesellschaft. Sie kennt nur individuelle Akteure, die miteinander in Vertragsbeziehungen stehen. Darüber hinaus gibt es keinen Begriff sozialer Systeme unterschiedlicher Emergenzniveaus (Interaktion, Organisation, Gesellschaft).
Es stellt sich daher die Frage, ob von der Ebene des individuellen Akteurs auf Strukturänderungen in Wissenschaft und Politik geschlossen werden kann. Eine differenzierungstheoretische Perspektive wird unterschiedliche Systemtypen zu unterscheiden wissen und ein Hochrechnen von individuellen Akteuren auf Gesellschaft als unzulänglich zurückweisen. Wenn man sich auf die These einlässt, dass „Grenzorganisationen“ das „Grenzmanagement“ zwischen Wissenschaft und Politik übernehmen können, dann muss zuerst einmal rekonstruiert werden, wie sich Systemgrenzen konstituieren. Eine differenzierungstheoretische Perspektive unterscheidet Funktionssysteme und Organisationen als unterschiedliche Typen der Systembildung, die nicht aufeinander reduzierbar sind. Die Grenzziehung zwischen Wissenschaft und Politik erfolgt demnach auf der Ebene der Funktionssysteme und nicht auf der Ebene von Organisationen. Nötig wird also der Blick auf die Funktionssysteme der Gesellschaft. Ich greife dazu auf die von Niklas Luhmann ausgearbeitete Theorie funktionaler Differenzierung zurück, die einige der hier angesprochenen Probleme an prominenter Stelle behandelt. Die folgende Argumentation ist damit um Generalisierung bemüht und führt weg von den Policy-Analysen nordamerikanischer Technologiepolitik. Die Argumentation muss sich in gesellschaftstheoretischer Perspektive am Beispiel der Ausdifferenzierung der Wissenschaft bewähren. Dieses Überwechseln in die Soziologie macht Umstellungen im theoretischen Beobachtungsapparat erforderlich. An die Stelle der indi-
„Grenzorganisationen“ und funktionale Differenzierung
151
vidualistischen Institutionenökonomie tritt die kommunikationstheoretische Beschreibung sozialer Systeme. Ich beginne mit dem Funktionssystem Wissenschaft.
3.
Ausdifferenzierung der Wissenschaft, Grenzziehung und Autonomie
Ausdifferenzierung gesellschaftlicher Teilsysteme bedeutet, dass es eine Spezialisierung auf bestimmte Funktionen gibt, die für die Gesellschaft erbracht werden (Luhmann 1997). Die gesellschaftliche Funktion des Wissenschaftssystems liegt in der Produktion wissenschaftlich wahrer Erkenntnisse (Luhmann 1990). Funktionssysteme sind wie alle Sozialsysteme Kommunikationssysteme. Sie konstituieren sich durch Ausdifferenzierung von sozialem Sinn, der die Kommunikation entlang einer Unterscheidung strukturiert. Die Leitunterscheidung, genauer gesagt der „Code“ des Wissenschaftssystems, folgt dem Schema wissenschaftlich wahr/unwahr. Das bedeutet, dass jede Kommunikation, die auf diese Differenz verweist, der Wissenschaft zugerechnet wird. Funktionssysteme sind Verweisungshorizonte der Kommunikation. Ausdifferenzierung ist also das Ergebnis der exklusiven Orientierung an einem Code. Die Codierung der Kommunikation folgt einer klaren Unterscheidung. Für das Wissenschaftssystem können Aussagen nur wissenschaftlich wahr oder unwahr sein. Dazwischen gibt es nichts. Ebenso verhält es sich im politischen System. Man kann politische Macht innehaben oder nichtinnehaben – Regierung oder Opposition – dazwischen gibt es nichts. Noch erfahrungsnäher zeigt sich die binäre Codierung beim Thema Geld. Haben oder nichthaben macht den Unterschied. Sobald es um Zahlungen geht (im Verweisungshorizont der Kommunikation), handelt es sich um wirtschaftliche Kommunikation. Dabei ist unerheblich, ob diese in Organisationen des Wirtschaftssystems stattfindet oder nicht. Auch die Auszahlung des Taschengeldes ist eine wirtschaftliche Operation, obwohl Familien keine Wirtschaftsorganisationen sind und sie bilden auch nicht den Markt. Das Beispiel verweist bereits auf eine weitere Einsicht. Man kann sehen, dass ein und dieselbe Handlung unterschiedlichen Funktionskontexten zugleich angehören kann. So handelt es sich bei der Auszahlung des Taschengeldes um eine wirtschaftliche Transaktion, die zugleich als pädagogische Maßnahme im Erziehungssystem erkennbar ist. Ausdifferenzierung bedeutet also Grenzziehung gegenüber der Umwelt. Die hierfür nötige Operation ist die Orientierung an einem binären Code. Dies geschieht, indem das System ein bestimmtes Medium der Kommunikation von allem anderen unterscheidet. Grenzziehung ist eine Selektionsleistung auf der
152
Petra Hiller
Basis systemeigener Strukturen. Daher ist Grenzziehung immer eine Eigenleistung des Systems. Nun interessiert die Frage, unter welchen Bedingungen die Autonomie des Wissenschaftssystems gefährdet sein könnte. Autonomie gewinnen Teilsysteme durch Ausdifferenzierung einer Funktion, die nur von diesem Teilsystem erfüllt wird und nirgendwo sonst in der Gesellschaft. In Bezug auf die Funktionserfüllung gibt es keine Konkurrenz durch andere Teilsysteme. So beanspruchen weder die Wirtschaft noch die Politik, weder die Religion noch die Kunst, für Wahrheitsfragen zuständig zu sein. Seine Autonomie gewinnt das Wissenschaftssystem aus der Wahrheitsproduktion. Daraus folgt, dass die Autonomie der Wissenschaft dann in Frage gestellt ist, wenn andere als wissenschaftliche Kriterien über Wahrheitsfragen entscheiden. Wir haben bereits gesagt, dass alle Kommunikation, die über die Differenz wahr/unwahr läuft, dem Wissenschaftssystem zugerechnet wird. Wir erweitern diese Beobachtung indem wir hinzufügen, dass soziale Systeme autopoietische Systeme sind (Luhmann 1984). Damit wird betont, dass sie operativ geschlossen sind. Daher können nur systemspezifische Kommunikationen an vorangehende Kommunikationen desselben Systems anschließen. Operative Geschlossenheit bedeutet, dass sich alle Operationen an einem bestimmten Code orientieren. Wissenschaftliche Kommunikation kann sich nur durch wissenschaftliche Kommunikation fortsetzen. Dies ist der Reproduktionsmodus des Systems. Indem das Wissenschaftssystem festlegt, welche Kommunikation als wissenschaftlich wahr/unwahr gilt, schließt es sich gegen andere Operationen ab. Dadurch erfolgt die Grenzziehung zur Umwelt und dadurch gewinnt es seine Autonomie als ein gegenüber seiner gesellschaftlichen Umwelt autonom operierendes, sich selbst konditionierendes System. Geht es nicht um Wahrheitskommunikation, sondern um Finanzierungsfragen von Forschung, so wird diese Kommunikation nicht dem Wissenschaftssystem zugeschrieben. Selbst dann nicht, wenn Wissenschaftlerinnen und Wissenschaftler im Rahmen von Projekt- oder Stellenkalkulationen daran beteiligt sind und dies in Organisationen der Wissenschaft geschieht. Wie wird nun sichergestellt, dass allein die wissenschaftliche Kommunikation entscheidet, was als wissenschaftlich wahr oder unwahr erkannt wird? Dafür sorgen die Theorien und Methoden der Wissenschaft. Luhmann spricht von den „Programmen“ des Systems, die für die Zuteilung der Codewerte zuständig sind (Luhmann 1990). Die Theorien und Methoden der Wissenschaft definieren die Bedingungen, unter denen eine Aussage als wissenschaftlich wahr oder unwahr behandelt wird. Es gilt festzuhalten, dass es auf der operativen Ebene keinen Außenkontakt zu anderen Funktionssystemen gibt. Die Selbstbezüglichkeit der binären Unterscheidungslogik des Codes verhindert Sinnimporte aus anderen Funktionskon-
„Grenzorganisationen“ und funktionale Differenzierung
153
texten. Anders sieht es auf der Ebene der Programme aus.2 Bei der Wahl der Programme können Kriterien eine Rolle spielen, die anderen Kontexten der gesellschaftlichen Umwelt entnommen sind. Es ist leicht erkennbar, dass die Wissenschaft nicht in allen Hinsichten unabhängig operiert. Dies betrifft zum Beispiel die Frage, was erforscht wird. Auf die Auswahl von Forschungsthemen kann sehr wohl politisch, moralisch oder wirtschaftlich Einfluss genommen werden. Und wie man weiß, ist dies häufig genug der Fall. So gibt es ganze Arbeitsgebiete, die unter politischen Gesichtspunkten finanziert werden, um Forschung zu bestimmten Themen zu motivieren. Politische Themenkonjunkturen kann man geradezu ablesen an der Einrichtung von Professuren für: Geschlechterforschung, Migrationsforschung, Klimaforschung, Krebsforschung, Terrorismusforschung etc. Selbstverständlich gilt dies auch für ökonomische Interessen, die Forschung zu bestimmten Problemen veranlassen. So findet man nicht nur an den renommierten angelsächsischen Universitäten ganze Schools und Institute, die von der Wirtschaft finanziert und über Beiräte gesteuert werden, um über die Gegenstände von Forschung und Lehre zu befinden. Im Unterschied zur Funktion der Wahrheitsproduktion betrifft die Wahl der Gegenstände die Leistungsbeziehungen des Systems. Entscheidend ist: Wenn ein vorgegebenes Thema bearbeitet wird, so geschieht dies unter Anwendung wissenschaftlicher Theorien und Methoden. Forschungsresultate sind nicht deshalb wahr, weil die Wirtschaft, die Politik oder die Religion Geld zur Verfügung gestellt hat. Sie sind deshalb wahr, weil sie sich unter wissenschaftlichen Gesichtspunkten, das heißt unter Anwendung wissenschaftlicher Theorien und Methoden, als wahr erwiesen haben. Darin liegt die Autonomie der Wissenschaft. Deshalb ist es wichtig zu betonen, dass sich die Geschlossenheit der Funktionssysteme allein auf die autopoietische Reproduktion des Codes bezieht. Die Autonomie der Wissenschaft als Funktionssystem wird durch die selbstreferentiell geschlossene Operationsweise garantiert (Luhmann 1990). Daran ändert sich nichts, wenn an Organisationen der Wissenschaft politische Erwartungen adressiert werden. Die Strukturbildung der Wissenschaft (ihre Theorien und Methoden) ist eine Eigenleistung des Systems. Einsteins Relativitätstheorie kann nicht von außen, etwa durch die Politik oder die Religion verändert werden. Das Prädikat wissenschaftlich wahr oder unwahr kann nur vom Wissenschaftssystem vergeben werden. Der operativen Geschlossenheit auf der Ebene des Codes steht also eine Offenheit bei der Programmwahl gegenüber. Hier können Kriterien aus der 2
Zuweilen wird nicht hinreichend zwischen Codierung und Programmierung unterschieden. Dies führt dazu, dass vermeintlich eine Politisierung, Ökonomisierung, Entdifferenzierung, Grenzauflösung etc. der Wissenschaft entdeckt wird, wo es sich um Programmierungsfragen handelt.
154
Petra Hiller
Umwelt eingeführt werden. Auch können die Theorien und Methoden geändert werden, wenn sie sich nicht bewähren. Auf dieser Ebene ist das Wissenschaftssystem kognitiv offen, also lernbereit und variabel. Geschlossen und invariabel bleibt es jedoch in der autopoietischen Reproduktion seines Codes.
4.
Anwendungsorientierte Forschung: Beratung als Leistung
Anwendungsorientierte Forschung hat es mit dem Verdacht zu tun sich instrumentalisieren zu lassen, weil es einen Auftraggeber gibt, der an bestimmten Leistungen interessiert ist. Doch entsteht dadurch ein Problem für die Autonomie der Wissenschaft? Um hier klarer zu sehen empfiehlt es sich, zwischen Funktion und Leistung zu unterscheiden. Die Funktion eines gesellschaftlichen Teilsystems ergibt sich aus seiner Beziehung zum Gesamtsystem. Angesprochen ist damit die gesellschaftliche Funktion des Wissenschaftssystems, die, wie bereits ausgeführt, in der Wahrheitsproduktion zu sehen ist. Neben dem Funktionsbezug zum Gesamtsystem unterhält jedes Teilsystem Leistungsbeziehungen zu anderen Teilsystemen der Gesellschaft. Im Fall des Wissenschaftssystems gehört dazu die anwendungsorientierte Forschung und so auch die wissenschaftliche Beratung der Politik. Man erkennt in dieser Unterscheidung die Differenz von Grundlagenforschung (Funktion) und Anwendungsorientierung (Leistung) der Wissenschaft (Luhmann 1990: 635ff.). Dabei kann die Wissenschaft nicht vorhersagen, welches Wissen als Anwendungs- oder Beratungswissen nachgefragt wird. Was Anwendung findet, entscheidet der Anwendungskontext, der die Verwendbarkeit des Wissens nach eigenen Kriterien definiert. Unter diesem Gesichtspunkt „ist wissenschaftliches Wissen eine Konstruktion des Verwenders“ (Luhmann 1990: 638). Interessant ist hier, dass Luhmann die notwendige Orientierung der Wissenschaft an ihren Anwendungskontexten hervorhebt. Dazu gehört, „daß das Angebot nach außen sich kommunikativ von den für interne Zwecke entwickelten Formen ablösen muß. Es muß vereinfachen, muß oft auch die Sicherheit des Erkenntnisstandes betonen und mögliche Kritik unterdrücken (…)“ (Luhmann 1990: 641). Luhmann bezeichnet diese von den Verwendungskontexten erzeugten Anforderungen als „Probleme der kommunikativen Stilisierung“ (Luhmann 1990: 641), die nachteilige Folgen haben. Sie beschädigen die Autorität der Wissenschaft. In den Leistungsbeziehungen mit anderen Funktionssystemen werden dieser Überlegung zufolge die Sicherheitserwartungen an wissenschaftliche Aussagen überzogen. Dieses Argument unterscheidet zwischen dem ideologischen Gebrauch wissenschaftlicher Expertise im politischen Raum einerseits
„Grenzorganisationen“ und funktionale Differenzierung
155
und dem Rekurs auf Wissenschaft in administrativen Verfahren andererseits. Luhmann weist darauf hin, dass insbesondere im Fall der Nutzung in Verwaltungsverfahren dem wissenschaftlichen Urteil mehr Sicherheit zugeschrieben wird, als die Wissenschaft selbst reklamieren würde. Ein Autoritätsverlust der Wissenschaft ist demzufolge ein Resultat übersteigerter Sicherheitserwartungen des Verwendungssystems (Luhmann 1991: 228f.). Denn für die Wissenschaft gilt, dass sie intern Wissen nur erzeugt, um weiteres Wissen zu erzeugen. Dafür muss das erzeugte Wissen nicht den Sicherheitsansprüchen der Leistungsabnehmer genügen. Es ist notorisch unsicher und genau dadurch funktioniert der Motor des immer neu zu erzeugenden Wissens. Das Autoritätsproblem entsteht also auf der Leistungsseite, durch die auf externe Erwartungen reagierende „kommunikative Stilisierung“ von Wissenschaft als sicheres Wissen. Diese Überlegungen zum Autoritätsproblem führen zurück zu der Frage, ob anwendungsorientierte Forschung in Form wissenschaftlicher Politikberatung darüber hinaus die Autonomie der Wissenschaft beeinträchtigt. Im Zusammenhang mit der Beschreibung „neuer Formen der Wissensproduktion“ (Funtowicz/Ravetz 1993, Gibbons et al. 1994) wird diese Frage kontrovers diskutiert. Dabei wird auch das Konzept der „Grenzorganisation“ (Guston 1999) relevant. Am Beispiel des Intergovernmental Panel on Climate Change (IPCC), der bedeutendsten wissenschaftlichen Beratungsorganisation für globale Klimapolitik, werde ich illustrieren, wie eine differenzierungstheoretische Beobachtung auf diese Frage reagiert. Das IPCC betreibt selbst keine Forschung, aber es bewertet Forschung nach wissenschaftlichen Kriterien.3 Forschungsevaluation in diesem Sinne behandeln wir als Forschung. Die IPCC-Berichte werden im Wissenschaftssystem unter Anwendung wissenschaftlicher Theorien und Methoden erstellt. Sie werden durch peer review von Wissenschaftlerinnen und Wissenschaftlern unter wissenschaftliche Prüfkriterien gebracht und die Plausibilität dieser Aussagen wird (z. B. durch Publikation) der wissenschaftlichen Kontrolle unterworfen. Verweisungshorizont der Kommunikation ist das Schema wissenschaftlich wahr/unwahr. Nur was sich in wissenschaftlichen Evaluationsprozessen als wahr erwiesen hat, findet Eingang in diese Reports. Dass dieses Wissen der Zweitbeobachtung durch Politik unterworfen wird, muss bei anwendungsorientierter Forschung nicht verwundern. Zu anwendungsbezogener Forschung bemerkt Luhmann: „Es versteht sich von selbst, daß auf die Werte, Normen und Interessen des Anwendungsbereichs Rücksicht genommen werden muß; sonst verfehlt man den Sektor ‚anwendungsbezogene Forschung’ und ‚produziert man am Markt vorbei’“ (Luhmann 1990: 640). So ist es geradezu ein Merkmal wis3
Die folgenden Ausführungen zur Funktionsweise des IPCC stützen sich auf die Darstellungen von Bechmann/Beck (2003) und von Halfmann/Schützenmeister (2003).
156
Petra Hiller
senschaftlicher Politikberatung, dass das Beratungswissen nicht nur wahr sein muss. Das Wissen der wissenschaftlichen Politikberatung hat einem doppelten Gütekriterium zu genügen: es muss auch den politischen Konsenstest bestehen. Sonst erfüllt es die Brauchbarkeitsbedingungen seines Verwendungskontextes nicht. Der Anwendungskontext entscheidet, wie dieses Wissen verwendet wird. Dazu gehört eine hohe Selektivität in der Rezeption wissenschaftlicher Erkenntnisse, eine drastische Simplifikation der beschriebenen Zusammenhänge und das Ausblenden verbleibender Unsicherheiten. Auf die Nachfrage auf der Leistungsseite hat die wissenschaftliche Kommunikation im IPCC mit einer gesteigerten Selbstreferenz auf der Funktionsseite reagiert. Damit findet man beim IPCC (wie auch z. B. beim Wissenschaftsrat) eine bekannte Figur, um die Autonomie der Wissenschaft gegenüber den Ergebniserwartungen des Anwendungskontextes zu sichern. Sie liegt in der verstärkten Referenz der Kommunikation auf die Funktionsseite der Wissenschaft: der Produktion wissenschaftlicher Wahrheit (vgl. Stichweh 1988: 106). Sichtbar ist das an dem extensiven peer review Verfahren und dem Bemühen um Transparenz durch Publikation aller Ergebnisse einschließlich abweichender Positionen usw. Diese Kommunikationsformen orientieren sich am Wahrheitscode und es ist geradezu symptomatisch, wie damit die Autonomie der Wissenschaft gegenüber politischen Ergebniserwartungen betont wird.4 Wir sprechen von einer gesteigerten Selbstreferenz, weil hier das Wahrheitsmedium reflexiv wird. Im Fall von peer review handelt es sich um eine Anwendung wissenschaftlichen Wissens auf wissenschaftliches Wissen. Wissenschaftliche Evaluation ist eine Form der Beobachtung von Wissenschaft durch Wissenschaft und damit ein Ausweis der Funktionsorientierung wissenschaftlicher Kommunikation. Um es zu wiederholen: Das reflexive Wissen der Evaluation ist Funktionssystemwissen. Es bezieht sich nicht auf Leistungsgesichtspunkte (Nützlichkeit), sondern auf Funktionsgesichtspunkte (Wahrheit) der Wissenschaft (Stichweh 2004: 9ff.). Anders als die Phase der wissenschaftlichen Evaluation im IPCC gehört die daran anschließende Erarbeitung der Zusammenfassungen für policy maker in den Bereich des politischen Verwendungszusammenhangs. Mit der Orientierung an policy making wechselt der Verweisungshorizont der Kommunikation. In diesem separat ausgewiesenen Verfahren geht es ganz offensichtlich nicht um Wahrheitskommunikation, sondern es stehen Fragen der politischen Durchsetzbarkeit zur Disposition. Es geht darum, politische Mehrheiten zu finden und nicht darum, wahres Wissen zu generieren. Als Resultate eines politischen Verfahrens werden diese Entscheidungen als kontingente Operationen kommuni4
Vgl. zu diesem Argument Stichweh (1988: 76) der feststellt, dass die Industrieförderung statt der befürchteten Instrumentalisierung der Wissenschaft genau diesen Effekt hervorgebracht hat.
„Grenzorganisationen“ und funktionale Differenzierung
157
ziert. Damit werden sie als Selektionen sichtbar, die auch anders ausfallen könnten. Das unterscheidet die politische Entscheidung von der wissenschaftlichen Produktion gesicherten Wissens. Die hohe Politisierung der IPCC-Berichte ist wohl auch darauf zurückzuführen, dass im Fall des Klimaberichts Wissen und Entscheiden sehr eng beieinander liegen. Hierin liegt möglicherweise eine Besonderheit gegenüber anderen „intermediären“ Organisationen, die in ähnlicher Weise abgestimmte Empfehlungen ausarbeiten (Beispiel Wissenschaftsrat), deren Wissensabhängigkeit jedoch weniger ausgeprägt ist. Dies deckt sich mit der Beobachtung, dass Politik grundsätzlich mehr an Daten und weniger an den Entscheidungsvorschlägen interessiert ist: „Offenbar ist die Schwelle vom Daten-und-Statistiken-Kennen zum Entscheiden das, was Wissenschaft und Politik trennt (...)“ (Luhmann 1990: 647). Die Differenz von Entscheiden und Wissen erklärt die hohe Politisierung und Konflikthaftigkeit bei den Abstimmungen der Zusammenfassungen für policy maker im IPCC. Mit dem Klimabericht kann für die Politik die Gefahr aufkommen, dass die politische Entscheidung durch die Expertise ersetzt wird. Denn welche demokratische Politik wird sich diesen wissenschaftlichen Erkenntnissen dauerhaft verschließen können? Wissen könnte an die Stelle von Entscheidung treten und dies wäre ein Angriff auf die Autorität der Politik. Dieses Konfliktfeld im Schnittpunkt von Expertokratie und demokratischer Öffentlichkeit ist bekannt, auch wenn es derzeit nicht ganz oben auf der Agenda entsprechender Auseinandersetzungen steht. Es beschreibt ein Legitimationsproblem der Demokratie, das entsteht, wenn Politik sich nicht mehr am Wählervotum orientiert, sondern am Rat der Wissenschaft. Im Verhältnis zur Politik ist dann „Beratung etwas, was als konkurrierend wahrgenommen werden kann, als ein auf Expertenmeinungen gestütztes Unterlaufen des Volkswillens“ (Stichweh 2004: 7). Wenn sich die Beobachtung auf Kommunikation konzentriert, dann kann man sehen, dass das Zusammentreffen unterschiedlicher Funktionsorientierungen keineswegs „Entdifferenzierungserscheinungen“ der modernen Gesellschaft anzeigt. Vielmehr erkennt man gerade am Fall IPCC, dass die medienorientierte Zurechnung der Kommunikation zu unterschiedlichen Sinnkontexten durchgehalten und hier sogar durch getrennte Verfahrensschritte ausgewiesen wird. Die soziologisch interessante Seite des IPCC liegt offenbar nicht darin, dass Wissenschaft und Politik in einem konsensuellen Verfahren Zusammenfassungen für policy maker erarbeiten.5 Derartige Arrangements haben sich in 5
Wissenschaftssoziologisch interessant ist das IPCC unter einem anderen Aspekt, auf den Stichweh aufmerksam gemacht hat: Wissenschaftliches Wissen globalisiert sich typischerweise über personale Netzwerke, nicht über Organisationen. Für Prozesse der Globalisierung des Wissens ist daher zu erwarten, dass organisatorische Strukturen unterlaufen werden. Das IPCC
158
Petra Hiller
vielen gesellschaftlichen Bereichen durchgesetzt. Spätestens seit der Korporatismusdebatte sind sie als „intermediäre“ Organisationen bekannt. In der Bundesrepublik bildet beispielsweise der Wissenschaftsrat eine Beratungsorganisation, die diesem Muster folgt (Stucke 2006). Interessant sind solche Strukturbildungen unter dem Gesichtspunkt politischer Steuerung und damit eben als korporatistische oder als „intermediäre“ Organisationen. Organisationssoziologisch findet man darin wenig Besonderheit. Daher ist auch nicht erkennbar, welchen Platz das Konzept der „Grenzorganisation“ einnehmen könnte. Richtet man den Blick weg von den Sinnkontexten der Gesellschaft auf die Organisation des IPCC, dann ergibt sich folgendes Bild: Aus Sicht der Formalorganisation wird mit den IPCC-Berichten ein Output produziert der auf Organisationsentscheidungen beruht, die sich den Entscheidungsprämissen der Organisation verdanken, nämlich: Entscheidungen über Personaleinstellungen, Zuweisung von Verantwortlichkeiten und Kompetenzen, materielle Ressourcenverteilung, Zeitmanagement etc. Für das IPCC als Organisation ist der termingerecht vorliegende Bericht ein Tätigkeitsnachweis, mit dem diese Organisation ihre Existenzberechtigung unter Beweis stellt. Dieser Leistungsoutput ermöglicht es dem IPCC, weitere Organisationsentscheidungen anzuschließen.
5.
Organisation und Gesellschaft
An mehreren Stellen ist bereits deutlich geworden, dass eine differenzierungstheoretische Perspektive zwischen Organisation und Gesellschaft zu unterscheiden weiß.6 Wir sprechen im Folgenden von unterschiedlichen Systemtypen und nicht: Systemebenen. Denn es handelt sich nicht einfach um eine Frage der Aggregation, sondern um kategorial verschiedene, voneinander unabhängige Sozialsysteme, die nicht aufeinander reduzierbar sind. Auch geht nicht der eine Systemtyp aus dem anderen hervor, wie man es sich für den Fall einer Ebenenunterscheidung vorstellen könnte. Organisation und Funktionssystem verdanken sich unterschiedlichen, je eigenen Formen der Ausdifferenzierung und das gilt auch für den Modus ihrer Reproduktion. Gesellschaftliche Teilsysteme wie die Wissenschaft, die Politik, das Recht usw. sind nicht in der Lage zu kommunizieren, obwohl sie selbst aus Kommunikation bestehen. Kommunizieren, das heißt im Namen des Systems und für
6
ist der erste Fall, in dem sich aus der Wissenschaft heraus eine globale Organisation für ein globales Problem gebildet hat (Stichweh 1999: 31). Gleichzeitig ist festzustellen, dass das Verhältnis von Organisation und Gesellschaft auch in der Differenzierungstheorie weitgehend ungeklärt ist. Vgl. dazu Nassehi (2002), Martens (1997), Kneer (2001).
„Grenzorganisationen“ und funktionale Differenzierung
159
das System handeln, können nur Organisationen. Es sind also Organisationen der Wissenschaft (nicht: die Wissenschaft), die mit Behörden, Instituten und Unternehmen in Kontakt treten und zwischen diesen Organisationen finden Leistungsaustausche statt. Es ist die Differenz von Organisation und Gesellschaft, die diese Intersystembeziehungen möglich macht. Dabei ist zu beachten, dass Organisationen sich nicht einfach von den Funktionssystemen ableiten lassen. Organisationen bilden Sozialsysteme eigener Art. Man kann auch sagen: Die Logik der Organisation ist eine andere als die der Gesellschaft. Funktionssysteme greifen daher auch nicht top down auf die ihnen zugerechneten Organisationen durch. Deshalb lässt sich empirisch auch beobachten, dass Organisationen die Rationalität funktionaler Differenzierung immer wieder unterlaufen. So werden die Entscheidungsprozesse einer Forschungseinrichtung oftmals von ökonomischen Fragen sehr viel mehr in Atem gehalten, als von Wahrheitsfragen. Wenn also gesagt wird, dass eine Organisation einem System zugerechnet wird, so ist damit eine Form der Beobachtung gemeint und nicht etwa: „untergeordnet“. Zurechnung meint die Primärorientierung an den Sinnbezügen eines Funktionssystems (dazu Hiller 2005). Dies schließt nicht aus, dass Organisationen sich in ihren Operationen auf unterschiedliche Funktionskontexte beziehen. So gilt etwa für öffentliche Verwaltungen regelmäßig, dass sie rechtliche, politische und wirtschaftliche Kriterien in ihren Entscheidungen zugleich berücksichtigen müssen. Verwaltungsorganisationen operieren strukturell in einem Konflikt zwischen rechtsstaatlicher Demokratie und Effizienz. Organisationen zeichnen sich durch eigene Formen der Ausdifferenzierung und Grenzziehung aus (Luhmann 2000). Ausdifferenzierung meint hier: Ausdifferenzierung spezifischer Mitgliedschaftsrollen. Organisationen entscheiden über Bedingungen der Mitgliedschaft und sie unterscheiden zwischen Mitgliedern und Nichtmitgliedern. Die Grenzen der Organisation sind durch die Reichweite organisationaler Entscheidungsprämissen bestimmt. Alle Operationen, die durch organisationseigenes Entscheiden koordiniert werden können, gelten als Entscheidungen der Organisation. Auf diese Weise erfolgt Grenzziehung zwischen Organisation und Umwelt durch Prozesse der Selbstzurechnung von Entscheidungen. Damit sind auch Organisationsgrenzen selbstgezogene Grenzen des Systems (Luhmann 1988). Auch für Organisationssysteme kann man festhalten, dass es sich um operativ geschlossene Systeme handelt. Ausdifferenzierung und Grenzziehung erfolgt durch die selbstbezüglichen Prozesse des Entscheidens über Entscheidungen. In diesem Sinne sind Organisationssysteme autonom. Sie prozessieren Entscheidungen über die sie selbst entschieden haben. Im Entscheiden liegt der selbstreferentielle Modus ihrer autopoietischen Reproduktion.
160
Petra Hiller
Organisationen entscheiden beispielsweise über Zahlungen, denn auch Wissenschaft kostet Geld. Es müssen Stellen eingerichtet und vergütet werden, es müssen Geräte beschafft, Forschungsreisen, Konferenzen und Pensionen bezahlt werden. All dies findet nicht im Funktionssystem der Wissenschaft statt, sondern in Organisationen der Wissenschaft, zum Beispiel dem IPCC. Anders als im Funktionssystem, das sich ausschließlich über Wahrheitskommunikation reproduziert, operieren Organisationen in dieser Hinsicht nicht exklusiv. Zum Beispiel kommt es in diesen Organisationen eben auch auf Geld an und auf Kontakte. Beides kann dann so eingesetzt werden, dass damit wissenschaftliche Forschung vorangebracht wird. Wichtig ist nur zu sehen, dass die Funktionsweise der Wissenschaft in der Herstellung gesicherten Wissens dadurch nicht verändert wird. Wie gut auch immer die Kontakte zur Politik oder zu den Förderorganisationen der Wissenschaft sein mögen: sie können helfen, damit ein Forschungsprojekt finanziert wird. Aber die Regeln, nach denen die Hypothesen des Forschungsprojekts zu prüfen sind, bestimmt die Wissenschaft. Wir können also festhalten: Organisationen und Funktionssysteme operieren unabhängig voneinander und kein Systemtyp kann in Prozesse des anderen eingreifen. Organisationsgrenzen sind nicht identisch mit Grenzen von Funktionskontexten. Die Vorstellung von „Grenzorganisationen“, die das „Grenzmanagement“ von Funktionssystemen übernehmen, ist mit dieser Konzeption ganz offensichtlich nicht vereinbar. Zwar partizipieren Organisationen an unterschiedlichen Funktionskontexten. Aber dies tun sie als Organisationen, deren Autopoiesis anderen Kriterien folgt als die der Funktionssysteme: „(…) für die Organisation ist es kein Problem, wenn sie zugleich im Wirtschaftssystem und im Wissenschaftssystem operiert, zugleich zahlt (oder nicht zahlt) und Forschungen anregt, begutachtet, evaluiert, ruiniert; denn die Autopoiesis der Organisation ist unabhängig davon auf der Ebene der Entscheidungen abgesichert“ (Luhmann 1990: 339f.). Organisationen können auf unterschiedliche Umwelten Bezug nehmen, ohne die Funktionskontexte, auf die sie Bezug nehmen, zu verschmelzen. So ist es gerade eine Leistung formaler Organisationen, dass sie Fremdreferenzen koordinieren können. Dies geschieht durch die Ausdifferenzierung von Verfahren, in denen Entscheidungsprozesse abgestimmt werden. Leistungsaustausche zwischen den Funktionssystemen werden auf diese Weise durch Organisation realisiert. Organisationen stellen ihre Entscheidungsfähigkeit zur Verfügung und die auf Verfahren gestützte Koordination des Entscheidens sorgt dafür, dass es im Normalbetrieb nicht zu einer Konfusion der Sinnhorizonte kommt. Soweit dies doch der Fall ist, spricht man von Korruption (Hiller 2005). Aber selbst wenn Organisationsgrenzen verschwimmen und unklar werden sollte, ob beispielsweise das IPCC eine politische oder eine Wissenschafts-
„Grenzorganisationen“ und funktionale Differenzierung
161
organisation ist, so ist dadurch die Unterscheidung der Funktionskontexte Wissenschaft und Politik in keiner Weise in Frage gestellt. Wenn man nur die Organisation in den Blick nimmt und nicht aufschließt zu den Funktionskontexten der Gesellschaft, dann erscheint Organisation als der Ort, an dem Wissenschaft stattfindet und sich reproduziert. Eben weil nur durch die programmierte Entscheidungstätigkeit formaler Organisation Verträge geschlossen, Forschungen evaluiert und Stellen finanziert werden können (vgl. mit Verweis auf Projektforschung Luhmann 1990: 338). Genau besehen handelt es sich hier jedoch um die Abstimmung leistungsabhängiger Intersystembeziehungen zwischen Recht, Wirtschaft, Wissenschaft etc. Die Sinngrenzen der in Anspruch genommen Systeme bleiben davon unberührt. Intersystembeziehungen setzen Organisation voraus, um die Leistungsaustausche zu koordinieren. Leistungsaustausche sind regelmäßig auf die Medien Recht und Geld angewiesen, auch wenn es sich um den Output von Forschungsorganisationen handelt. Wie gesagt: Forschungsorganisationen können Verträge schließen und Zahlungen veranlassen und natürlich kann sich dies auf die Wahl von Forschungsthemen auswirken. Aber sie können nicht über Reputationsgewinne ihres wissenschaftlichen Personals entscheiden und auch nicht über den Erkenntniszuwachs der durch sie veranlassten Forschung. An dieser Stelle wird das Beobachtungspotenzial der Theorie funktionaler Differenzierung deutlich. Sie kann gesellschaftliche Strukturen sichtbar machen, die in individualistischen Analysen der „Grenzorganisation“ verdeckt bleiben. Der dort vorgenommene Schluss von der Akteursebene auf die Funktionskontexte der Gesellschaft (z. B. Wissenschaft und Politik) wirft eine Vielzahl von Problemen auf. Unter anderem führt dies dazu, dass die Unterscheidung von Funktion und Leistung gesellschaftlicher Teilsysteme eingeebnet wird. Mit der Beobachtung von Organisationen, die mehrere Fremdreferenzen gleichzeitig unterhalten, ist in einem reduktionistischen Ansatz die Annahme einer Gefährdung von Autonomie und Grenzziehung bereits vorgezeichnet. Man benötigt dann ad hoc herangezogene Erklärungsmuster die mit wenig Theorie auskommen, wie boundary work und boundary organizations, um plausibel machen zu können, warum es dennoch nicht zur Auflösung von allem kommt. Was bereits in der politikwissenschaftlichen Steuerungsdiskussion mit den „intermediären“ Organisationen übersehen wurde, nämlich die Unterscheidung von Organisation und Funktionssystem (vgl. Kneer 2001), wird hier wiederholt. Anstatt von „Grenzorganisationen“ als einem besonderen Organisationstyp zu sprechen, würde eine organisationssoziologische Analyse darauf verweisen, dass Organisationen als multiple selves operieren (Wiesenthal 1990). Organisationen sind Multireferenten, die unterschiedliche Orientierungen zugleich verfolgen. Empirisch lässt sich auch zeigen, dass Organisationen, die in der Lage sind, ihre mul-
162
Petra Hiller
tiple self Qualität auszuspielen, tatsächlich stabilisierende Effekte hervorbringen können (vgl. Hiller 1997).
6.
Strukturelle Kopplung von Wissenschaft und Politik: Beratung
Mit der Differenzierungstheorie werden Prozesse der Grenzziehung und die Autonomie sozialer Systeme betont. In dieser Theorieperspektive kommt man zu dem Ergebnis, dass dem Konzept der „Grenzorganisation“ wie es Guston vertritt, nicht gefolgt werden kann. Allerdings findet sich in Luhmanns Theorie funktionaler Differenzierung mit dem Begriff der strukturellen Kopplung ein Theoriebaustein, der Ähnliches zu leisten scheint, wenn er mit Politikberatung in Verbindung gebracht wird. Wir greifen diesen Gesichtspunkt auf, weil der Begriff der strukturellen Kopplung zunehmend an Stellen genannt wird, die früher dem Topos der „Politisierung der Wissenschaft“ vorbehalten waren (vgl. z. B. Weingart 2003: 89ff.). Zuweilen wird auch überlegt, ob Organisationen wie das IPCC Mechanismen der strukturellen Kopplung bilden könnten (Halfmann/Schützenmeister 2003). Es stellt sich daher die Frage, was konkret gemeint ist, wenn Beratung als Form struktureller Kopplung zwischen Wissenschaft und Politik ausgewiesen wird.7 Die bei Luhmann vorfindbaren Ausführungen hierzu sind eher knapp und uneinheitlich gehalten (Luhmann 1997: 785f., Luhmann 2000a: 393ff.).8 Uns interessiert die Frage: Handelt es sich bei strukturellen Kopplungen um Organisationen und finden wir unter diesem Begriff Strukturbildungen wie die für die Klimaforschung so bedeutsame „Grenzorganisation“ IPCC wieder? Gegen diese Annahme spricht bereits das Bezugsproblem struktureller Kopplung: „Strukturelle Kopplungen sind Konsequenzen der funktionalen Gesellschaftsdifferenzierung. (…) Sie sind auf der Ebene des Gesellschaftssystems angesiedelt und als solche nicht eine Funktion von Organisationen“ (Luhmann 2000: 400). Bei Luhmann findet sich die These, dass wissenschaftliche Politikberatung als Form der strukturellen Kopplung zwischen Wissenschaft und Politik angesehen werden könnte (Luhmann 1997: 785). Als wissenschaftliche Politikberatung wird hier ein Kommunikationszusammenhang bezeichnet, der sich dem Zurverfügungstellen von Wissen für andere Funktionssysteme verdankt. Nicht 7
8
Was häufig beschrieben und nicht immer klar von struktureller Kopplung getrennt wird, sind operative Kopplungen. Operative Kopplungen zwischen Wissenschaft und Politik kommen natürlich dauernd vor. Das soll hier nicht weiter ausgeführt werden. Als Versuch einer Zusammenschau von Luhmanns Bemerkungen zum Begriff der strukturellen Kopplung siehe die Beiträge in dem dazu aufgelegten Themenheft der Zeitschrift Soziale Systeme 7/2001, Heft 2.
„Grenzorganisationen“ und funktionale Differenzierung
163
gemeint sind: Organisationen der wissenschaftlichen Politikberatung. Es geht um die Form „wissenschaftlicher Rat“ als „Institution“ (vgl. Luhmann 2000a: 393ff.). Wollte man Beratung als strukturelle Kopplung beschreiben, dann wäre dies eine Form, die von den gekoppelten Systemen Wissenschaft und Politik unabhängig ist und in der Umwelt beider Systeme operiert (Luhmann 1997: 92ff.). Beratung müsste in diesem Fall einen spezifischen Außenkontakt bilden, auf den Wissenschaft und Politik nach je eigenen Regeln zugreifen und den beide Systeme für ihre Strukturentwicklung dauerhaft voraussetzen. Als strukturelle Kopplung bezeichnet Luhmann einen Mechanismus, der auf Gleichzeitigkeit des Geschehens abstellt, nicht aber auf Kausalität (Luhmann 1990: 39). Das bedeutet, dass es nicht darum gehen kann, direkte Einflussnahme eines Systems auf ein anderes festzustellen. Mechanismen struktureller Kopplung wirken eher wie Dauerstörungen in der Umwelt. Ihr permanentes Auftreten löst Selbstirritationen aus, auf die das betreffende System in seiner Strukturentwicklung reagiert (Luhmann 1997: 119). Strukturelle Kopplungen sind Quellen wechselseitiger Irritation. Die Verarbeitung dieser Störungen folgt der Eigenlogik des betreffenden Systems.9 Beratung als strukturelle Kopplung zu begreifen würde gleichwohl bedeuten, dass sowohl Politik wie auch Wissenschaft sich in ihrer Strukturentwicklung von Beratung abhängig machen. Unterstellt man entsprechende Selektionseffekte, dann ist die Form Beratung als Einschränkung zu begreifen, die Selbstanpassungen von Wissenschaft und Politik an veränderte Umweltbedingungen hervorbringen kann. Ob Beratung jedoch als spezifische Fremdreferenz für die Wissenschaft und für die Politik ausweisbar ist scheint selbst dann fraglich, wenn man sich auf einen hochselektiven Ausschnitt wie Klimaforschung und Klimapolitik konzentriert. Politik liefert auf diese Weise zwar Themen, auf die sich Forschung beziehen kann. Aber man kann nicht sagen, dass Politik die zentrale Fremdreferenz des Wissenschaftssystems bildet. Vielmehr „gilt, daß die Interrelation der beiden Systeme mittels der wissenschaftlichen Beratung der Politik nur einer unter den vielen Außenkontakten ist, die die beiden Systeme unterhalten“ (Stichweh 2004: 4). Dass die Strukturbildung der Wissenschaft, die Evolution wissenschaftlicher Theorien und Methoden, auf die Störwirkung von Beratung angewiesen ist und diese dauerhaft voraussetzt, scheint ein überhöhter Anspruch zu sein. Für das politische System gelten diese Bedenken gleichermaßen. 9
Für eine organisationssoziologische Studie, die kognitive Schemata als Mechanismen der strukturellen Kopplung von Organisation und Bewusstsein empirisch nachweist vgl. Hiller (2005a).
164
Petra Hiller
Wenn man akzeptiert, dass strukturelle Kopplung nicht auf Kausalität, sondern auf Gleichzeitigkeit von System und Umwelt abstellt, dann bleibt das Beobachtungspotential dieses Begriffs in eigenartiger Weise auf „Irritation“ und „Perturbation“ beschränkt. Der Begriff der strukturellen Kopplung wird eher aus theoriearchitektonischen Gründen gebraucht. Er bildet das notwendige Komplement zum Begriff der operativen Schließung (Baecker 2001). Was Beratung betrifft, so spricht man in einer differenzierungstheoretischen Perspektive anstatt von struktureller Kopplung mit Stichweh (2004) besser von Beratung als Intersystembeziehung. Dies erscheint folgerichtig und schließt an die Überlegungen zu den Leistungsbeziehungen der Wissenschaft an (Luhmann 1990: 635ff.), die wir oben ausgeführt haben. Mit Luhmann haben wir zu Beginn dieses Abschnitts festgestellt, dass Organisationen als Mechanismen struktureller Kopplung nicht in Frage kommen. Gleichwohl werden wir im nächsten Abschnitt den Blick auf Beratungsorganisationen richten und die Frage aufwerfen, ob Organisationen wie das IPCC nicht doch eine hervorgehobene Rolle im Verhältnis von Wissenschaft und Politik spielen.
7.
Strukturelle Kopplung und Organisation
Bei Luhmann findet sich der Hinweis, dass strukturelle Kopplung „über“ Organisation denkbar sei (Luhmann 2000a: 396ff., Lieckweg 2001). Was ist damit gemeint? Kann das für Beratungsorganisationen gelten? Finden wir hier einen Anhaltspunkt, das IPCC als eine solche Organisation auszuweisen? Die Ausführungen bei Luhmann sind wenig spezifisch. Sie beschreiben in erster Linie Kontexte des people processing, weil es sich hierbei um Organisationen handelt, die lose gekoppelt sind. Aus dem organisationssoziologischen Konzept des lose coupling leitet Luhmann ab, dass Funktionssysteme sich „in Organisationssystemen einnisten – und zwar mehrere Funktionssysteme in ein und derselben Organisation“ (Luhmann 2000a: 398). Dies bezeichnet genau den Vorgang, den wir oben als Differenz von Organisation und Funktionssystem am Beispiel IPCC bereits beschrieben haben. Ganz im oben skizzierten Sinne beschreibt Luhmann dann auch Organisationen als „Treffraum für die unterschiedlichsten Funktionssysteme, ohne daß deren systemeigene Autopoiesis dadurch eingeschränkt würde“ (Luhmann 2000a: 398). Dies bedeutet jedoch nicht, dass Organisationen selbst strukturelle Kopplungen sind. Dies bedeutet lediglich, dass Organisationen den Funktionssystemen Strukturen zur Verfügung stellen, die Intersystemkommunikation ermöglichen. Und dabei kann es zu strukturellen Kopplungen kommen. So ist dann auch die Formulierung zu verstehen, „daß
„Grenzorganisationen“ und funktionale Differenzierung
165
Organisationen der strukturellen Kopplung von Funktionssystemen dienen“ (Luhmann 2000a: 400, meine Hervorhebung, PH). Sie stellen Kommunikationsund Entscheidungsfähigkeit für Leistungsaustausche zur Verfügung (zu dieser Lesart vgl. Lieckweg 2001). Allerdings findet man bei Luhmann auch „organisationsbedingte“ strukturelle Kopplungen, die er als „verabredete Koordination“ bezeichnet (Luhmann 2000a: 401). Er verweist hier auf den Neokorporatismus und an anderer Stelle (Luhmann 2000: 398) führt er in diesem Zusammenhang Verbände an, die zwischen Politik und Wirtschaft „vermitteln“. Einerseits könnten diese Ausführungen nun Anlass geben, das IPCC ebenfalls als eine zwischen Politik und Wissenschaft „vermittelnde“ „Grenzorganisation“ zu beschreiben. Andererseits gibt es Bedenken, denn diese Überlegungen fügen sich nicht ohne weiteres in die von Luhmann selbst vertretene Begriffsfassung von struktureller Kopplung ein. Worin die strukturelle Kopplung im Fall einer „Vermittlung“ besteht, wird in der zitierten Textstelle nämlich nicht erläutert. Auf dieses Problem macht Tania Lieckweg aufmerksam: „Wenn strukturelle Kopplungen Einrichtungen sind, die anzeigen, daß sich jeweils das eine der gekoppelten Systeme in seinen Strukturen auf das andere System verläßt und umgekehrt, dann widerspricht das einer Vermittlerfunktion“ (Lieckweg 2001: 277).10 Im Fall des IPCC wäre wiederum zu bedenken, dass strukturelle Kopplungen als Quelle der Selbstirritation beider Systeme dauerhaft vorausgesetzt werden müssen und so die Strukturvariationen in den betreffenden Systemen hervorbringen, die als structural drift beobachtet werden. Als Standardbeispiel für eine Organisation, die eine solche Stelle einnehmen könnte, nennt Luhmann die Universität als strukturelle Kopplung von Wissenschaft und Erziehungssystem. Allerdings ist zu sehen, dass die Universität hier nicht als singuläre Organisation auftritt, sondern als „Institution“. Das gilt für das IPCC nicht in gleicher Weise. Ein dazu analog gebildetes Beispiel müsste alle wissenschaftlichen Beratungsorganisationen einbeziehen. Aber auch hier wäre es schwierig zu bestimmen, in welcher Weise Wissenschaft mit Beratungsorganisationen strukturell (und nicht nur operativ) gekoppelt ist, diese dauerhaft voraussetzt und sich durch diese in seinen Strukturentwicklungen (Theorien und Methoden) abhängig macht. Aus der Sicht des politischen Systems ließe sich eine solche Vorstellung eher konstruieren und es ist vielleicht kein Zufall, dass Luhmann seine Beispiele so wählt, dass Politik durch Beratung irritierbar scheint, nicht aber die Wissenschaft. Dies hat auch einige Plausibilität, wenn man wie oben dargelegt davon ausgeht, dass wissenschaftliche Poli10
In dieser Perspektive würden sich anderenfalls sehr viele Organisationen finden, die als strukturelle Kopplungen dienen würden. Man denke nur an Gewerkschaften, Verbände und Interessenorganisationen und all das, was als intermediär bezeichnet und für Koordination in Anspruch genommen wird.
166
Petra Hiller
tikberatung eine Leistung des Wissenschaftssystems ist, die von der Politik nachgefragt wird. Das Anwendungswissen der wissenschaftlichen Politikberatung ist etwas, das bei der Funktionserfüllung der Wissenschaft ohnehin anfällt und anderen Funktionssystemen zur Verfügung gestellt wird. Dass wissenschaftliche Politikberatung ein Derivat der Funktionserfüllung ist kann man daran sehen, dass auch das Beratungswissen wahr sein muss. Erst daraus bezieht es seinen Wert für den Verwendungskontext als wissenschaftliche Beratung der Politik. Für ein Beispiel siehe wiederum die auf wissenschaftlich gesichertes Wissen abstellenden Gutachterverfahren des IPCC. Dieses Argument verweist auf einen Gesichtspunkt, auf den bereits Lieckweg aufmerksam macht, nämlich auf die Unterscheidung von Leistungserwartungen und strukturellen Kopplungen. Der Begriff der strukturellen Kopplung wird ja nur gebraucht, wenn er sich von Intersystemkommunikation in Form von Leistungsaustauschen unterscheidet (Lieckweg 2001: 281).
8. Schluss Guston und andere führen aus, dass es Organisationen gibt, die auf Entdifferenzierungserscheinungen der modernen Gesellschaft reagieren: „Grenzorganisationen“. Diese seien so gebaut, dass sie das „Grenzmanagement“ zwischen den Funktionssystemen Wissenschaft und Politik übernehmen, und zwar in der Weise, dass sie die Autonomie der Wissenschaft wahren und die Grenze zwischen den Teilsystemen stabilisieren. In einer organisations- und differenzierungstheoretischen Perspektive fällt jedoch auf, dass Gustons Konzeption die Differenz von Organisation und Gesellschaft weitgehend außer Acht lässt. Aus Sicht der Soziologie kann man sogar sagen, dass das angenommene Entdifferenzierungsproblem, auf das „Grenzorganisationen“ reagieren sollen, institutionenökonomisch nicht angemessen formuliert werden kann. Dasselbe gilt für den Organisationstyp der „Grenzorganisation“. Soweit Organisationstheorie herangezogen wird, handelt es sich um eine mikroökonomische Akteurstheorie, die selbst keinen Organisationsbegriff kennt. Die Principal/Agent-Theorie bedient sich der Beschreibungsmöglichkeiten individualistischer Sozialtheorien, die auf aggregierte Handlungszusammenhänge angewendet werden. Diese Beobachtungsperspektive konvergiert mit den Beschreibungen der Science and Technology Studies in einem wesentlichen Punkt. Sie interessieren sich nicht für Organisationen im Wissenschaftssystem, sondern für politische Steuerungsfragen. Es stellt sich daher die Frage was man gewinnen kann, wenn man auf Differenzierungstheorie umstellt. Damit wird zunächst einmal klargestellt, dass Prozesse der Grenzziehung funktionaler Teilsysteme auf der Ebene von Gesell-
„Grenzorganisationen“ und funktionale Differenzierung
167
schaft und nicht auf der Ebene von Organisation rekonstruiert werden müssen. Auch wenn diese Probleme auf der Ebene von Organisation beobachtbar sind, so können sie dort nicht erklärt werden. Notwendig ist der Blick auf die Funktionskontexte der Gesellschaft. Dies erfordert einen gesellschaftstheoretischen Zugang, wie er in den nordamerikanischen Science and Technology Studies weniger verbreitet ist. Organisationen organisieren Intersystembeziehungen. Das tun sie als multiple selves, indem sie in ihren Entscheidungen mehrere Funktionsreferenzen berücksichtigen, die nach wechselnden Kriterien verarbeitet werden können. Deshalb scheint es so, als ob auf Organisationsebene Gesellschaft stattfindet. Eine zentrale Einsicht der Differenzierungstheorie ist aber, dass ein System wie die Wissenschaft auf der Ebene seiner Organisationen von ganz anderen Kriterien gesteuert sein kann, ohne dass die Funktion und die Autonomie des Systems auf Gesellschaftsebene davon beeinträchtigt wird. Diese Einsicht erschließt sich nur, wenn man Organisationen und Funktionssysteme als autopoietisch geschlossene und unabhängig voneinander operierende Typen sozialer Systeme begreift. Deshalb hat dieser Text die notwendigen theoretischen Voraussetzungen dargestellt. Um zu verstehen, was Organisationen im Verhältnis zur Gesellschaft leisten können, wurde auf die Unterscheidung von Funktion und Leistung hingewiesen. Der Beitrag von Organisation betrifft die Leistungsseite gesellschaftlicher Teilsysteme. In Bezug auf ihre Funktion sind die Funktionssysteme autonom. Auf Prozesse der Grenzziehung der Teilsysteme Wissenschaft und Politik haben Organisation keinen Zugriff. Die Möglichkeiten des Systemtyps Organisation beschränken sich auf die Reproduktion von Organisationsgrenzen. Im Beobachtungsschema der Theorie funktionaler Differenzierung erweist sich das Konzept der „Grenzorganisation“ daher in mehrfacher Hinsicht als problematisch. Am Beispiel der internen Differenzierung des IPCC wurde gezeigt, dass die Wissenschaft auf den politischen Erwartungsdruck auf der Leistungsseite mit einer gesteigerten Selbstreferenz auf der Funktionsseite reagiert. Zu beobachten ist also ein wechselseitiges Steigerungsverhältnis von Funktion und Leistung und gerade nicht, wie zuweilen angenommen, ein Ausbau der Leistungsproduktion auf Kosten der Autonomie der Wissenschaft. Abschließend haben wir gefragt, ob Beratungsorganisationen wie das IPCC nicht doch eine besondere Funktion im Verhältnis der Funktionssysteme zugeschrieben werden kann. Wenn auch nicht steuerungstheoretisch als „intermediäre“ Organisationen, so doch vielleicht differenzierungstheoretisch im Konzept der strukturellen Kopplung? Im Ergebnis bleibt die Vermutung, dass bei derzeitiger Theorielage das Beobachtungspotenzial des Begriffs der strukturellen Kopplung überschätzt wird.
168
Petra Hiller
Literatur Allmendinger, Jutta/Hinz, Thomas (Hrsg.) (2002): Organisationssoziologie. Kölner Zeitschrift für Soziologie und Sozialpsychologie. Sonderheft 42. Wiesbaden: Westdeutscher Verlag Arrow, Kenneth J. (1985): The Economics of Agency. In: Pratt/Zeckhauser (1985): 3751 Baecker, Dirk (2001): Editorial: Begriff und Phänomen der strukturellen Kopplung. In: Soziale Systeme 7. 219-221 Bechmann, Gotthard/Silke Beck (2003): Gesellschaft als Kontext für Forschung. Neue Formen der Produktion und Integration von Wissen – Klimamodellierung zwischen Wissenschaft und Politik. Forschungszentrum Karlsruhe. Wissenschaftliche Berichte FZKA 6805. Karlsruhe Braun, Dietmar (1993): Politische Steuerungsfähigkeit in intermediären Systemen am Beispiel der Forschungsförderung. Max-Planck-Institut für Gesellschaftsforschung. MPIFG Discussion Paper 93/3. Köln Braun, Dietmar (1997): Die politische Steuerung der Wissenschaft. Ein Beitrag zum „kooperativen Staat“. Frankfurt a.M.: Campus Verlag Ebers, Mark/Wilfried Gotsch (1993): Institutionenökonomische Theorien der Organisation. In: Kieser (1993): 193-242 Falk, Svenja et al. (Hrsg.) (2006): Handbuch Politikberatung. Wiesbaden: VS Verlag für Sozialwissenschaften Funtowicz, Silvio O./Jerome R. Ravetz (1993): The Emergence of Post-Normal Science. In: Schomberg (1993): 85-123 Gibbons, Michael et al. (1994): The New Production of Scientific Knowledge. London: Sage Guston, David H. (2005): Institutional Design for Socially Robust Knowledge: The National Toxicology Program’s Report in Carcinogens. In: Maasen/Weingart (2005): 63-80 Guston, David H. (2001): Boundary Organizations in Environmental Policy and Science: An Introduction. In: Science, Technology, & Human Values 26. 399-408 Guston, David H. (1999): Stabilizing the Boundary between US Politics and Science: The Role of the Office of Technology Transfer as a Boundary Organization. In: Social Studies of Science 29. 87-111 Halfmann, Jost/Falk Schützenmeister 2003: Problemorientierte Forschung und Schließungsprozesse der Wissenschaft: Das Beispiel des Ozonlochs als Umweltproblem. http://www.sciencepolicystudies.de/dok/expertise-halfmann.pdf, letzter Aufruf: 25.03.2009 Heidelberger Akademie der Wissenschaften (Hrsg.) (2004) Politikberatung in Deutschland. Wiesbaden: VS Verlag für Sozialwissenschaften Hiller, Petra (2005): Korruption und Netzwerke. Konfusionen im Schema von Organisation und Gesellschaft. In: Zeitschrift für Rechtssoziologie 26. 57-78 Hiller, Petra (2005a): Organisationswissen. Eine wissenssoziologische Neubeschreibung der Organisation. Wiesbaden: VS Verlag für Sozialwissenschaften
„Grenzorganisationen“ und funktionale Differenzierung
169
Hiller, Petra (1997): Risikoregulierung durch Verhandlungssysteme. Das Beispiel der Regulierung ökologischer Altlasten in den neuen Bundesländern. In: Hiller/Krücken (1997): 147-175 Hiller, Petra/Krücken, Georg (Hrsg.) (1997): Risiko und Regulierung. Soziologische Beiträge zu Technikkontrolle und präventiver Umweltpolitik. Frankfurt a.M.: Suhrkamp Kieser, Alfred (Hrsg.) (1993): Organisationstheorien. Stuttgart: Kohlhammer Kneer, Georg (2001): Organisation und Gesellschaft. Zum ungeklärten Verhältnis von Organisations- und Funktionssystemen in Luhmanns Theorie sozialer Systeme. In: Zeitschrift für Soziologie 30. 407-428 Küpper, Willi/Ortmann, Günther (Hrsg.) (1988): Mikropolitik. Rationalität, Macht und Spiele in Organisationen. Opladen: Westdeutscher Verlag Lieckweg, Tania (2001): Strukturelle Kopplung von Funktionssystemen „über“ Organisation. In: Soziale Systeme 7. 267-289 Luhmann, Niklas (2000): Organisation und Entscheidung. Wiesbaden: Westdeutscher Verlag Luhmann, Niklas (2000a): Die Politik der Gesellschaft. Frankfurt a.M.: Suhrkamp Luhmann, Niklas (1997): Die Gesellschaft der Gesellschaft. Frankfurt a.M.: Suhrkamp Luhmann, Niklas (1991): Soziologie des Risikos. Berlin: Walter de Gruyter Luhmann, Niklas (1990): Die Wissenschaft der Gesellschaft. Frankfurt a.M.: Suhrkamp Luhmann, Niklas (1988): Organisation. In: Küpper/Ortmann (1988): 165-186. Luhmann, Niklas (1984): Soziale Systeme. Grundriß einer allgemeinen Theorie. Frankfurt a.M.: Suhrkamp Maasen, Sabine/Peter Weingart (Hrsg.) (2005): Democratization of Expertise? Exploring Novel Forms of Scientific Advice in Political Decision-Making. Dordrecht: Springer Martens, Will (1997): Organisation und gesellschaftliche Teilsysteme. In: Ortmann et al. (1997): 236-311 Mayntz, Renate et al. (Hrsg.) (1988): Differenzierung und Verselbständigung. Zur Entwicklung gesellschaftlicher Teilsysteme. Frankfurt a.M.: Campus Verlag Miller, Clark (2001): Hybrid Management: Boundary Organizations, Science Policy, and Environmental Governance in the Climate Regime. In: Science, Technology, & Human Values 26. 478-500 Nassehi, Armin (2002): Die Organisationen der Gesellschaft. Skizze einer Organisationssoziologie in gesellschaftstheoretischer Absicht. In: Allmendinger/Hinz (2002): 443-478 Ortmann, Günther et al. (Hrsg.) (1997): Theorien der Organisation. Die Rückkehr der Gesellschaft. Opladen: Westdeutscher Verlag Pratt, John W./Zeckhauser, Richard J. (Hrsg.) (1985): Principals and Agents: The Structure of Business. Boston: Harvard Business School Press Schomberg, René von (Hrsg.) (1993): Science, Politics and Morality. Scientific Uncertainty and Decision Making. Dordrecht: Kluwer Academic Publishers Stichweh, Rudolf (2004): Gelehrter Rat und wissenschaftliche Politikberatung: Zur Differenzierungsgeschichte einer Intersystembeziehung. In: Heidelberger Akademie der Wissenschaften (2006): 101-112
170
Petra Hiller
Stichweh, Rudolf (1999): Globalisierung von Wirtschaft und Wissenschaft: Produktion und Transfer wissenschaftlichen Wissens in zwei Funktionssystemen der modernen Gesellschaft. In: Soziale Systeme 5. 27-39 Stichweh, Rudolf (1988): Differenzierung des Wissenschaftssystems. In: Mayntz et al. (1988): 45-115 Stucke, Andreas (2006): Der Wissenschaftsrat. In: Falk et al. (2006): 248-254 Weingart, Peter (2003): Wissenschaftssoziologie, Bielefeld: Transcript Verlag Weingart, Peter (1983): Verwissenschaftlichung der Gesellschaft – Politisierung der Wissenschaft. In: Zeitschrift für Soziologie 13. 225-241 Wiesenthal, Helmut (1990): Unsicherheit und Multiple-Self-Identität: eine Spekulation über die Voraussetzungen strategischen Handelns. Max-Planck-Institut für Gesellschaftsforschung. MPIFG Discussion Paper 90/2. Köln
Offene Großforschung in der atmosphärischen Chemie? Befunde einer empirischen Studie1 Falk Schützenmeister
1.
Offene Großforschung
Im Herbst 2007 wurde das Intergovernmental Panel on Climate Change (IPCC) mit dem Friedensnobelpreis ausgezeichnet, eine Ehrung die nicht nur dem erreichten Konsens über die anthropogenen Ursachen des Klimawandels galt. Das Nobel-Komitee würdigte auch die internationale Kooperation von Wissenschaftlern, die über den formalen IPCC-Prozess weit hinausgeht (Kerr/Kintisch 2007). Diese Kooperation basiert auf der Vielfalt interdisziplinärer Gemeinschaften und einem heterogenen Netzwerk nationaler und internationaler Organisationen. In diesem Kapitel wird am Beispiel der atmosphärischen Chemie gezeigt, dass angesichts ökologischer Probleme neue Formen offener Großforschung entstanden sind. Offenheit hat dabei nicht nur eine legitimatorische Funktion innerhalb des internationalen Klimaregimes; sie entstand auch als Lösung von Kooperationsproblemen, mit denen wissenschaftliche Gemeinschaften ebenso überfordert wären wie formale Forschungsorganisationen. Offenheit ist ein zentrales Merkmal der modernen Wissenschaft (David 2004). Forschungsergebnisse müssen publiziert werden, damit sie durch die Mitglieder wissenschaftlicher Gemeinschaften kritisch überprüft und als gültiges Wissen ausgezeichnet werden können (Merton 1968: 606f.). Veröffentlichungen werden mit der Zuweisung von Reputation belohnt, einem Kapital, das in Positionen innerhalb von Wissenschaftsorganisationen umgesetzt werden kann (Hagstrom 1965, Whitley 1984). Eine solche professionelle, wenig hierarchische Organisation der Wissenschaft wurde als eine Vorraussetzung für die Aufrechterhaltung der Rationalität in modernen Gesellschaften angesehen, in denen organisierte Interessen und Ideologen einen zunehmenden Einfluss hatten (Merton 1968: 602).
1
Diese Arbeit wurde im Rahmen des Projektes „Problemorientierte Forschung und wissenschaftliche Dynamik: der Fall der Klimaforschung“ von 2004 bis 2007 durch das Bundesministerium für Bildung und Forschung gefördert. Das Projekt war Teil des Forschungsverbundes „Wissen für Entscheidungsprozesse“ (Mayntz et al. 2008). Dank an Rolf Puderbach für die Aufbereitung der Daten.
172
Falk Schützenmeister
Mit der aufkommenden Großforschung gewann auch in der Wissenschaft formal organisierte Arbeitsteilung an Bedeutung (Capshew/Radar 1992, Shrum et al. 2001). Diese Tendenz wurde dadurch verstärkt, dass Nationalstaaten begannen, in die Forschung zu investieren und versuchten den wissenschaftlichen Fortschritt zu steuern (Jang 2000), um militärische (McLauchan/Hooks 1993) oder zivile Ziele zu erreichen (Bush 1980). Auch wenn die Initiativen für entsprechende Programme nicht selten von den wissenschaftlichen Eliten selbst ausgingen (Mulkay 1976: 457, Kinsella 1996, Pielke/Glantz 1995), waren die daraus resultierenden Großforschungsorganisationen oft durch hierarchische Strukturen und mitunter auch durch die strategische Geheimhaltung von Forschungsergebnissen gekennzeichnet (Chubin 1985). Diese Entwicklung widersprach nicht nur dem wissenschaftlichen Ethos, wie es von Merton formuliert wurde; es wurde auch vermutet, dass die enge Bindung der Forschungsför-derung an gesellschaftliche Zwecke ineffektiv sei. Durch die Politik formulierte Problemstellungen würden weit hinter der Vielfalt der Forschungsprobleme zurückbleiben, die sich aus der offenen Kommunikation zwischen (auch finanziell) unabhängigen Wissenschaftlern ergeben würden (Polanyi 2000: 3). Die Geschichte der Großforschung hat den Kritikern insofern Recht gegeben, dass viele ihrer ursprünglichen Ziele (z. B. Weinberg 1967) nicht erreicht wurden. Dennoch hat die massive Anwendung wissenschaftlichen Wissens auf gesellschaftliche Probleme zu einem Überschuss neuer, oft unerwarteter Forschungsfragen geführt. Auch wenn sich die wissenschaftliche Dynamik nur sehr bedingt steuern ließ, bildeten sich neue Formen struktureller Kopplung von Wissenschaft und Gesellschaft heraus (Luhmann 1990, Weingart 2001). Ohne Zweifel sind diese spezifischer als die pauschale Alimentierung der Forschung innerhalb der Universitäten. Die gesellschaftliche Unterstützung muss nun immer wieder neu ausgehandelt und Projekte in sehr spezifische institutionelle Umwelten eingepasst werden (Etzkowitz/Leydesdorff 1997, Nowotny et al. 2001). In der Folge sind die Organisations- und Kooperationsformen, die unter dem Label der Großforschung firmieren, empirisch auch ungemein vielfältig (Galison/Hevly 1992). Wesentliche Unterschiede ergeben sich z. B. aus den Zielen von Forschungsprojekten, je nachdem ob zertifiziertes autoritatives Wissen produziert werden soll (z. B. Hochenergiephysik, Knorr-Cetina 1999) oder ob es um die Entwicklung neuer Technologien geht, die profitabel vermarktet werden sollen (Industrieforschung) bzw. strategische Vorteile bringen können (Militärforschung). Es gibt aber Merkmale, die für alle Formen der Großforschung typisch sind. So zeichnet sich auch die atmosphärische Chemie durch große, mehr oder weniger formale Organisationen, einen hohen Finanzbedarf und die zentrale Rolle technischer Infrastrukturen aus („money, machines, and manpower“,
Offene Großforschung in der atmosphärischen Chemie?
173
Weinberg 1967, Capshew/Radar 1992: 4, Kinsella 1996: 66). Zur Beobachtung der Atmosphäre werden Satelliten, Forschungsflugzeuge und weltumspannende Messnetzwerke benötigt. Numerische Modelle chemischer Prozesse in der Atmosphäre erfordern Großcomputer, die nur wenigen Rechenzentren zur Verfügung stehen. Spezifisch ist dagegen, dass die Atmosphärenchemiker im Grunde an einem einzigen Gegenstand – der globalen Atmosphäre – arbeiten und ein Gesamtbild nur durch interorganisationelle und internationale Kooperationen gewonnen werden kann (Albritton 1999: 552). In der Großforschung reicht die Publikationsnorm nicht aus, um die Überprüfbarkeit von Forschungsergebnissen sicherzustellen. Solange Universitätslabore eine organisatorische Ähnlichkeit aufwiesen und alle Wissenschaftler eines Feldes über das nötige implizite Experimentalwissen verfügten, konnten Forschungsergebnisse anhand von Publikationen – als idealisierte Replikaktionsanweisungen – nachvollzogen werden. In der Großforschung erfordert diese Art der Evaluation zusätzlich den Zugang zu den Originaldaten und oft auch zu den Großgeräten, mit denen diese Daten erzeugt und interpretiert werden können. Eine Monopolisierung von Großforschungskapazitäten innerhalb weniger Organisationen ist daher tatsächlich ein Problem für die wissenschaftliche Entwicklung. Neben der Publikationsnorm sind in der Literatur verschiedene Aspekte offener Forschung diskutiert wurden. Häufig wird dabei Bezug auf die OpenSource-Bewegung in der Informatik genommen (Schroeder 2007) und erstens eine Offenlegung aller Daten gefordert, damit Forschungsergebnisse und die Standards der wissenschaftlichen Arbeit kontrolliert werden können. Zudem erlaubt eine solche Offenheit anderen Wissenschaftlern mit den Daten weiterzuarbeiten, bisher unbeachtete Zusammenhänge zu finden oder auch abweichende Schlüsse zu ziehen. Neben vielen lokalen Initiativen und nationalen Instituten, bieten auch internationale Organisationen wie CODATA2 internetbasierte Plattformen (Uhlir/Schröder 2007) für einen freien Datenaustausch. Zweitens ist eine Tendenz zu beobachten, dass viele Großforschungsorganisationen ihre Ressourcen zunehmend auch externen Wissenschaftlern zur Verfügung stellen. Dabei wird der Zugang zu knappen Ressourcen (ähnlich wie in der Forschungsförderung) meist durch externe Peer-Review-Prozesse reguliert. Beispiele dafür sind Open-Science-Computing-Grids (Foster 2005) oder User-Facilities (Brown et al. 2006), die sehr teure Technologien wie Hochleistungsrechner, die Gensequenzierung oder auch Teilchenbeschleuniger für Wissenschaftler aus ganz unterschiedlichen Kontexten bereithalten. In diesem Zusammenhang ist eine Tendenz zu beobachten, bei der ein erheblicher Teil der Forschungsmittel in den Ausbau 2
CODATA (Committee on Data for Science and Technology) wurde 1966 im Rahmen des International Council of Scientific Unions (ICSU) gegründet.
174
Falk Schützenmeister
zentraler Infrastrukturen investiert wird, anstatt einzelne Projekte mit teuren Geräten auszustatten. Drittens werden neue Formen der Begutachtung und des Peer-Reviews diskutiert. So veröffentlichen einige wissenschaftliche Zeitschriften eingereichte Manuskripte im Internet, wo sie von anderen Wissenschaftlern – meist nicht anonymisiert – kommentiert werden können (Grivell 2006). Auch wenn solche Verfahren noch im Experimentalstadium sind, scheint eine Selbstrekrutierung von Gutachtern anstelle der Auswahl durch die Zeitschriften eine interessante Entwicklung. Außerdem gibt es Überlegungen, ob offene und transparentere Wege der Allokation von Forschungsmitteln möglich wären, in denen nicht nur Reviewer-Eliten sondern die Wissenschaftler eines Felds oder auch externe Stakeholder einbezogen werden könnten (Auer/Braun-Thürmann 2008). Die (relative) Offenheit der atmosphärischen Chemie muss als ein Ergebnis der koevolutionären Entwicklung von Forschungsprogrammen und der internationalen Umweltpolitik verstanden werden (Schützenmeister 2008a). Sie repräsentiert aber nur einen möglichen Pfad der Entstehung offener Forschung. Die Open-Science-Bewegung in der Biologie hat dagegen ihren Ursprung in einer wachsenden Opposition gegen die verbreitete Privatisierung und Patentierung von Wissen (Maurer et al. 2004). Mit den Themen Großforschung und offene Wissenschaft sind Fragen der Forschungskooperation berührt. Galten formale Organisationen lange als der geeignete Rahmen, um die Zusammenarbeit einer großen Zahl von Wissenschaftlern zu ermöglichen, gewinnen nun organisationsübergreifende Netzwerke an Bedeutung, die sowohl aus formalen Organisationen als auch aus wissenschaftlichen Gemeinschaften bestehen. Mit der Bedeutungszunahme elektronischer Kommunikationsmedien und der Ausweitung des Datenaustauschs durch das Internet wuchsen die Möglichkeiten für solche fluiden Organisationsformen. Zum einen kam es dabei zur Formalisierung und Standardisierung von Datenformaten und Schnittstellen; auf der anderen Seite kann ebendiese die technische Standardisierung formaler Hierarchien teilweise ersetzen (Schroeder 2007). Auch wenn in den Atmosphärenwissenschaften die Prinzipien des freien Datenaustauschs schon sehr früh formuliert wurden, kam es auch dort mit dem Aufkommen des Internet zu einer größeren Unabhängigkeit von zentralisierten Datenarchiven. Was waren die kognitiven, organisatorischen und politischen Bedingungen für die Entstehung offener Großforschung in der atmosphärischen Chemie? Worin bestehen die Koordinationsprozesse heterogener Problemgemeinschaften? Welche individuellen Forschungsstrategien werden vor dem Hintergrund komplexer organisatorischer und technischer Infrastrukturen verfolgt? Diese Fragen sollen auf der Grundlage von Interviews mit führenden Atmosphären-
Offene Großforschung in der atmosphärischen Chemie?
175
wissenschaftlern und Forschungsmanagern3 sowie der Ergebnisse einer OnlineBefragung unter Atmosphärenchemikern aus 30 Ländern diskutiert werden.4
2.
Die Offenheit der Atmosphärenwissenschaft
Für die moderne Meteorologie war der Datenaustausch zwischen nationalen Wetterdiensten seit jeher konstitutiv. So wurde bereits 1871 der Vorläufer der World Meteorological Organization (WMO)5 gegründet, auch wenn während der Weltkriege die internationale Kooperation jeweils unterbrochen wurde. Auch während des Kalten Krieges bestand ein ungebrochenes militärisches Interesse an der Meteorologie (Doel 2003). Gleichzeitig schlugen aber führende Wissenschaftler ein neues Paradigma vor. Dieses ging über die Möglichkeiten genauer Wetterprognosen weit hinaus, es nahm die globale Atmosphäre und ihre Wechselwirkungen mit anderen geophysikalischen Prozessen in den Blick (Fleagle 2001, Taylor 2005). Dieser Ansatz ist auf eine weitgehende internationale Kooperation angewiesen. Daher warben auch die Initiatoren des International Geophysical Year (IGY) für eine politische Unterstützung des offenen internationalen Austauschs in den Geowissenschaften und praktizierten diesen während des größten Experiments der Wissenschaftsgeschichte. In der Feldphase (1957/58) wurden weltweit und zur gleichen Zeit sehr verschiedene geophysikalische Daten erhoben und die Erde das erste Mal als ein komplexes System verstanden, dessen Komponenten in engen Wechselwirkungen zueinander stehen. Geschätzte 60.000 Wissenschaftler aus 66 Ländern nahmen teil oder arbeiteten später mit den Daten. Die in den Weltdatenzentren (WDC) gespeicherten
3
4
5
In diesem Beitrag werden Interviews mit folgenden Wissenschaftlern berücksichtigt: C. Anastasio (UC Davis), D. Blake (UC Irvine), K. Boering (UC Berkeley), J. Chiang (UC Berkeley), P. Chuang (UC Santa Cruz), R. Cohen (UC Berkeley), R. Friedl (NASA JPL, Pasadena), M. Ghil (University of California, Los Angeles, UCLA), R. Harley (UC Berkeley), M. Hoffmann (Caltech, Pasadena), H. Johnston (UC Berkeley), D. Jacob (MPI Hamburg), R. Mechoso (UCLA), R. Rhew (UC Berkeley), S. Rowland (UC Irvine), E. Saltzmann (UC Irvine), M. Torn (Lawrence Berkeley National Laboratory), B. Weare (UC Davis) und A. Wexler (UC Davis). Angeschrieben wurden in der Studie alle Wissenschaftler, die in den letzten zehn Jahren – gemäß der Recherche mit ausgewählten Stichworten im Science Citation Index – regelmäßig Beiträge zur atmosphärischen Chemie lieferten. Es antworteten Wissenschaftler aus mehr als 30 Ländern. Die Rücklaufquote betrug 34%, insgesamt lagen 349 Fragebögen zur Auswertung vor (Schützenmeister/Bußmann 2008). Die WMO wurde 1950 gegründet und schon bald darauf als eine ihrer Spezialorganisationen in die UN einge-gliedert, ihr Voräufer war die International Meteorological Organization (IMO).
176
Falk Schützenmeister
Messungen von über 1.600 Stationen bilden noch heute eine wichtige Grundlage für die Beobachtung des globalen Wandels (Doel 2003: 647). Das IGY hatte aber auch einen weitreichenden Einfluss auf die professionellen Normen der Atmosphärenwissenschaft; eine militärische Dominanz der Geophysik konnte abgewendet werden. Auch das US-amerikanische National Atmospheric Science Program (1959) unterschied sich von anderen strategischen Großforschungsprogrammen. In seinem Mittelpunkt standen die Stärkung der Universitätsforschung und die bessere Koordination föderaler Forschungsaktivitäten, die meist Teilprogramme anderer Großforschungsprojekte waren.6 Ein zu lösendes Problem war, dass eine auf die Wettervorhersage beschränkte Meteorologie für Studienanfänger uninteressant war. Zudem verhinderte die militärische Geheimhaltung von Forschungsergebnissen oft den Erwerb von Reputation, was die akademischen Karrierechancen erheblich einschränkte. Fundiertes Wissen über die Atmosphäre war aber für die Raumfahrt, für die Entwicklung neuer Flugzeugkonzepte aber auch für die Konstruktion von Nuklearwaffen von erheblicher Bedeutung. Mit dem National Center for Atmospheric Research (NCAR) nahm 1960 eine Großforschungsorganisation die Arbeit auf, deren Aufgabe in der Schaffung zentraler Infrastrukturen bestand, die durch das NSF7 finanziert und durch die Universitäten verwaltet wurden (Hart/Victor 1993, Taylor 2005). Mit der Gründung von NCAR wurden die Forschungsmittel nicht in ein oder zwei Universitäten investiert. Ihre Zentralisierung ermöglichte die Einrichtung von Studiengängen und Departments an über 80 USamerikanischen Universitäten. Diese Organisationsstrukturen nahmen einen Wandel der Großforschung vorweg. In den 1970er Jahren geriet die Dominanz der Militärforschung unter gesellschaftlichen Legitimationsdruck. Dabei machten viele Wissenschaftler die Erfahrung, dass millionenschweren Projekten über Nacht die politische Unterstützung entzogen werden konnte (McLauchin/Hooks 1996: 749). Viele Forschungsinstitute reagierten auf das schwierigere Umfeld mit einer Diversifizierung anwendungsbezogener Forschungsprogramme sowie der Einbindung externer Kooperationspartner, z. B. aus den Universitäten (McLauchlan/Hooks 1996: 749, Chubin 1985). In den Atmosphärenwissenschaften wurde eine Strategie der Öffnung verfolgt, die den wechselseitigen Zugriff auf Ressourcen erlaubte. Das resultierende lose gekoppelte organisatorische Umfeld erlaubte später eine schnelle Anpas6
7
So ging das von John von Neumanns initiierte Meteorologie-Projekt aus dem ManhattenProjekt hervor. Erst-mals wurde versucht die Dynamik des Wetters mit Computern zu simulieren. Diese Bemühungen bilden den Ursprung des NOAA Global Fluid Dynmics Laboratory (GFDL) in Princeton (Nebeker 1995). NSF, US National Science Foundation
Offene Großforschung in der atmosphärischen Chemie?
177
sung an aufkommende Umweltprobleme. Bestimmte in den 1960er Jahren die gezielte Manipulation des Wetters für militärische oder landwirtschaftliche Zwecke die Forschung (Kwa 2001), erlangte das Wissen, dass die Menschen das Klima tatsächlich verändern konnten nun eine andere Bedeutung. Im Rahmen von Programmen zur Entwicklung von Überschallflugzeugen oder des Space Shuttles wurden nun Begleitforschungsprojekte aufgelegt, die die klimatischen Effekte dieser Technologien auf die Atmosphäre abschätzen sollten (Lambright 2005). In der atmosphärischen Chemie gewannen Forschungsprogramme, die sich mit der Luftverschmutzung, dem sauren Regen oder dem photochemischen Smog befassten an Bedeutung (Schützenmeister 2008a). Erst später, in der Kontroverse darüber, ob Fluorchlorkohlenwasserstoffe (FCKW) die Ursache für das Ozonloch seien, das am Ende des Winters in der Antarktis auftrat, wurde deutlich, dass die Dynamik der Atmosphäre nur durch die Wechselwirkungen von chemischen und physikalischen Prozessen verstanden werden konnte. Nicht zuletzt diese Erkenntnis führte zu einer Öffnung von Forschungsorganisationen und zu einer stärkeren interorganisatorischen Kooperation. In den USA bestand eine Aufteilung der Forschungsfelder zwischen Großforschungsorganisationen und Förderprogrammen, die nun nicht mehr adäquat schien. So war die NASA für die obere, die NOAA für die mittlere Atmosphäre und die EPA für Umweltverschmutzungen „zuständig“. Diese Strukturen waren auch deswegen relativ träge, weil sie durch die Umweltgesetzgebung, insbesondere durch das Clean Air Act Amendment von 1977 festgeschrieben waren. Weil die bestehenden Strukturen nicht auf eine effektive Kooperation von Atmosphärenchemikern und Klimadynamikern ausgelegt waren, nutzten die Wissenschaftler gemeinschaftliche Strukturen, um neue Kooperationen über organisatorische Grenzen hinweg zu formen. Die zentralen Probleme, die zur Herausbildung relativ offener organisatorischer Netzwerke führten, lassen sich anhand der Rolle der NASA in den Ozonkontroversen gut studieren (Andersen et al. 2002, Parson 2003, Schützenmeister 2008a). Mario Molina und Sherwood Rowland formulierten 1974 die Hypothese, dass die Emission von bis dahin umweltfreundlich geltenden FCKW zu einer drastischen Reduktion der stratosphärischen Ozonschicht führen könnten. Nach einer Phase, in der das Problem weder in der Wissenschaft noch in der Politik einen angestammten Ort hatte, wurde die NASA 1975 vom US-amerikanischen Kongress als Lead Agency zur Erforschung der oberen Atmosphäre eingesetzt. Gleichzeitig wurden im politischen System zukünftige Regulierungen an die wissenschaftliche Bewertung (Assessment) des Problems durch eine einzelne Organisation, die NASA, gekoppelt. Das NASA Upper Atmosphere Research Office (UARO) kontrollierte zeitweilig bis zu 75% der föderalen Mittel zur Erforschung der Ozonschicht (Lambright 2005). Die Probleme, die sich aus
178
Falk Schützenmeister
dieser Quasi-Monopolstellung ergaben und die zu einer zunehmenden Öffnung der NASA-Programme führten, lassen sich an drei Beispielen verdeutlichen. Das erste Problem ergab sich daraus, dass in der Mitte der 1970er Jahre nur die NASA über die Forschungssatelliten und hochfliegende Spezialflugzeuge verfügte, die eine grundlegende Erforschung der Ozonschicht erlaubten. Als der NASA-Wissenschaftler Donald Heath 1981 in den Daten des Satelliten NIMBUS-7 erstmals eine weltweite 4%ige Abnahme der Ozonschicht feststellen konnte, wurden diese Resultate von den meisten (NASA-externen) Wissenschaftlern angezweifelt. In den Daten der bodenbasierten Dobson-Instrumente war diese nicht nachzuweisen (vor allem weil sie sich unterhalb der Fehlertoleranz bewegte). Die meisten nahmen an, dass der Trend in den Satellitendaten durch die Trübung der Satelliten-Optiken durch kosmische Teilchenstrahlung zustande kam (Kerr 1988). Als Reaktion auf dieses Glaubwürdigkeitsproblem wurde von der NASA (in Zusammenarbeit mit der WMO) ein aus über 100 externen Wissenschaftlern bestehendes Ozone Trend Panel einberufen, das komplizierte Reanalysen der Bodendaten vornahm und eine messbare Ozonabnahme 1988 bestätigte. Doch schon 1985, mit der Entdeckung des antarktischen Ozonlochs, geriet das Satellitenmonopol der NASA erneut in Kritik. Obwohl NIMBUS-7 die Ozonschicht der Erde mehrmals täglich vermaß und dabei enorme Datenmengen anfielen, wurde das Ozonloch nicht von der NASA, sondern von Forschern entdeckt, die an antarktischen Bodenstationen arbeiteten. Obgleich die Frage, warum ein einzelner Wissenschaftler eine Entdeckung nicht machte, müßig erscheint, wurde die Nichtentdeckung des Ozonlochs der NASA als Organisationsversagen angelastet (Christie 2001: 44f.). Ein zweiter Anlass für die Öffnung der NASA für interorganisationelle und später internationale Kooperationen ergab sich aus der ersten National Ozone Expedition. Mit dieser sollte nachgewiesen werden, dass auch das antarktische Ozonloch auf FCKW-Emissionen zurückzuführen sei. Die eilig von dem UARO zusammengestellte Expedition testete aber nur die von den NASA-Managern bevorzugte chemische Erklärung des Ozonlochs. Die Ergebnisse überzeugten aber die Klimadynamiker nicht, die eine natürliche Erklärung des Ozonlochs bevorzugten, weil sie selbst nicht an dem Design der Experimente beteiligt waren und keinen Zugang zu deren Daten hatten. Erst mit einer zweiten Expedition in Zusammenarbeit mit der NOAA8 konnte die Kontroverse geschlossen werden. Dieses Experiment wurde vor allem auch deswegen als ein Kreuzexperiment anerkannt, weil es über hundert, z.T. externe Wissenschaftler einbezog und auch konkurrierende Hypothesen testete (Roan 1989: 159, Grundmann 1999, Schützenmeister 2008a: 206). Auch wenn es so aussah, dass sich die von 8
NOAA, US National Oceanic and Atmospheric Administration
Offene Großforschung in der atmosphärischen Chemie?
179
den Dynamikern lange abgewehrte chemische Hypothese durchsetzte, konnte das Ozonloch tatsächlich nur durch ein Zusammenwirken physikalischdynamischer und chemischer Prozesse erklärt werden. Ein drittes Problem bestand in sich widersprechenden Experten und konkurrierenden Assessment-Prozessen, da die Autorität des wissenschaftlichen Wissens im politischen Prozess von einem Konsens im Wissenschaftssystem abhing. Robert Watson, der Leiter des UARO, verfolgte früh eine Strategie, möglichst viele externe Wissenschaftler und andere Organisationen, wie die NOAA, die WMO und die damalige EG in die NASA-Assessments zu integrieren (Lambirght 2005). Dadurch, dass die Attraktivität einer Teilnahme an den NASA-Assessments für die Wissenschaftler stieg – sie bot Reputation und Einfluss auf zukünftige Forschungsprogramme – wurde das Angebot an alternativer Expertise verknappt (Weingart 2001: 164). Für die Chemieindustrie, die eine FCKW-Regulierung ablehnte, wurde es so immer schwieriger, Gegenexperten zu mobilisieren. Dies wurde auch dadurch möglich, dass kontroverse (Detail-) Fragen und noch bestehende Unsicherheiten in den Assessments integriert und als solche ausgewiesen wurden. Im politischen System stand damit sowohl für Regulierungsbefürworter als auch für die Gegner eine einheitliche Wissensbasis zur Verfügung. Mit dem Montrealer Protokoll zum Schutz der Ozonschicht wurden die seit 1989 unter der Schirmherrschaft von WMO/UNEP durchgeführten Assessments zur Grundlage des internationalen Ozonregimes (Lambright 2005, siehe auch Crawford in diesem Band).
3.
Die Heterogenität wissenschaftlicher Gemeinschaften
In den nächsten Abschnitten soll anhand von uns erhobener empirischer Daten gezeigt werden, dass die Integration der modernen Wissenschaft nicht allein auf wissenschaftlichen Gemeinschaften, sondern auch auf einer interdisziplinären Arbeitsteilung, d. h. auf der Integration aufgrund von Differenzen, beruht. Dabei spielen organisatorische und technische Infrastrukturen eine wichtige Rolle, weil sie verschiedene Spezialgebiete hochselektiv miteinander verkoppeln und so Abhängigkeiten und Unabhängigkeiten aneinander steigern. Wissenschaftliche Gemeinschaften sind aufgrund der Ähnlichkeit ihrer Mitglieder bezüglich der untersuchten Fragestellungen, theoretischer Prämissen oder der angewandten Methoden bestimmt. Doch entgegen dem Kuhn’schen Modell kohärenter Paradigmengemeinschaften gehören Wissenschaftler meist mehreren sich überlappenden Gemeinschaften an (Gläser 2006). Auch wenn Scientific Communities ihre Identität aus kognitiven oder methodischen Differenzen beziehen mögen, weisen sie große Gemeinsamkeiten auf (Barnes et al. 1996: 140, 155), die
180
Falk Schützenmeister
als Kristallationspunkte neuer Gemeinschaften und Ausgangspunkte für arbeitsteilige Kooperationen betrachtet werden können. In unserer Online-Studie wurde erhoben, zu welchen Disziplinen die Befragten beitragen,9 und auch ihre spezifischen Forschungsgebiete erfasst.10 Dabei gaben 93% der Befragten an, dass sie Beiträge zur Atmosphärenwissenschaft oder einer ihrer Subdisziplinen lieferten,11 82% forschten im Bereich der atmosphärischen Chemie. Nur wenige nannten dagegen die (klassische) Chemie als ihren disziplinären Hintergrund (10%). 89% aller Befragten stimmten der Aussage zu, dass die atmosphärische Chemie vor allem zur Atmosphärenwissenschaft beitrage, aber nur 35% waren der Meinung, dass sie auch substantielle Beiträge zur Chemie liefere (Schützenmeister 2008b).12 Die Unterschiede zur klassischen Chemie bestehen weniger in Theoriekonflikten als in abweichenden Relevanzprogrammen: „Interrelations are more important than the understanding of several processes in detail“ (Interview 6) oder: „The difference is the scale, not reduction but complexity is the main goal.“ (Interview 2). Ein wesentliches Merkmal der atmosphärischen Chemie ist, dass sie keine Laborwissenschaft ist, sondern durch die Arbeit mit „real world samples“ (Interview 11) gekennzeichnet ist. Dennoch gehören die Befragten unterschiedlichen Gemeinschaften an. In Tabelle 1 finden sich alle Forschungsfelder, die mindestens von 10% der Befragten angegeben wurden. Insgesamt sind durch diese 90% der Wissenschaftler repräsentiert. Knapp 60% gaben zwei oder mehr Gebiete an. Unter der Annahme kohärenter Gemeinschaften wäre zu erwarten, dass dabei bestimmte Kombinationen häufiger auftreten als andere. Entgegen dieser Erwartung besteht aber eine relativ hohe Unabhängigkeit der Nennungen. Es gibt einige systematische Ausnahmen: So überschneiden sich die Gemeinschaften der Ozon- und Troposphärenforscher, während die Gemeinschaften der Klimadynamiker und der Gasphasenchemiker distinkt sind.13 Geringe Überschneidungen gibt es auch zwischen den Ozonforschern und den Biogeochemikern.14
9 10 11 12
13 14
Fragestellung: „How would you describe the disciplinary frame in which you work?“, offene Antwort Fragestellung: „What is/are your main research interest(s)?“, bis zu drei offene Antworten 79% nannten die Atmosphärenwissenschaft oder einer ihrer Subdisziplinen (atmospheric sciences, ~ chemistry, ~ physics, meteorology) an erster Stelle Fragestellung: „Atmospheric chemistry has substantially contributed to the atmospheric sciences./to the development of chemistry in general.“ strongly agree/agree/neutral/disagree/ strongly disagree, kursiv ausgewertete Kategorien. Kendalls = -.47, p<.01 Kendalls = -.27, p<.01
Offene Großforschung in der atmosphärischen Chemie?
181
Tabelle 1: Wissenschaftliche Gemeinschaften, die Beiträge zur atmosphärischen Chemie liefern Anteil in der Stichprobe Forschungsfeld (Mehrfachnennungen) Klimaforschung 37 % Ozon- und Stratosphärenforschung 29 % Meteorologie, Atmosphärendynamik 34 % Aerosole und Wolken 25 % Luftverschmutzung 21 % Spurengase und Gasphase 17 % Biogeochemie und Ozeanographie 14 % Troposphärenforschung 13 % N 346 Wissenschaftliche Gemeinschaften gruppieren sich auch um methodische Präferenzen. So gibt es in den Atmosphärenwissenschaften zwei distinktive Gemeinschaften, die der Modellierer und die der Experimentatoren; eine Differenz, die auch die Kontroversen um die Ursachen des Ozonlochs maßgeblich prägten (Roan 1989, Grundmann 1999). In einer Frage, die Mehrfachnennungen zuließ, wurde erhoben, welche Methoden von den Befragten in ihrer Arbeit überwiegend angewandt werden.15 Dabei gaben 74% der Befragten entweder field work/observation (33%) oder simulation/numerical modeling (41%) an. Nur 10% kreuzten beide Methoden an, während 16% ausschließlich theoretisch und im Labor arbeiten (siehe Tabelle 2). Dass diese Differenz die Disziplin bestimmt, zeigte sich in den meisten Interviews, die wir durchführten. In einigen Fällen besteht eine Geringschätzung der Arbeit der jeweils anderen Gemeinschaft, die mitunter als eine Hilfswissenschaft betrachtet wird. Darin spiegelt sich offenbar die Struktur vergangener Kontroversen wieder: „(…) Only few people understand to mediate between the two viewpoints [of modelers and experimentators, F.S.]. Modelers think data sampling is very easy, they can’t appreciate that and don’t know what’s behind the data. Experimentators think often simulation data are not real data. (…)“ (Interview 6, Universität)
15
Fragestellung: „Which of the following activities within the field of atmospheric sciences describe your work best?“ theoretical work/laboratory work/field work and observation/simulation and numerical modeling/other, please specify (Mehrfachnennungen)
182
Falk Schützenmeister
Tabelle 2: Methodisch definierte communities in der AC16 Simulation
Feldkampagnen
nein
nein
ja
ausschließlich theoretische bzw. Laborarbeit
Modellierer
16% ja
Experimentatoren 41%
33% Experimente und Modellierung 10%
Dieser Befund deckt sich mit dem, was in der Wissenschaftsforschung über distinkte Paradigmengemeinschaften geschrieben wurde. Im Zusammenhang mit der Hypothese arbeitsteiliger Wissenschaftsorganisation ist hier aber wesentlich, dass die beiden Gemeinschaften trotz ihrer relativ geringen Kontakte in der Forschungsarbeit aufeinander angewiesen sind. Die Experimatoren benötigen Simulationsdaten; die Modellierer kommen nicht ohne Messdaten aus, mit denen sie ihre Modelle anzupassen oder den Modell-Output evaluieren. „(...) No, data are important, simulation is one instrument in the toolbox, and there are some difficulties balancing the communities [theory, observation, simulation, F.S.] but [there are, F.S.] no principal problems, the communication works well. In the beginning of the 90s simulation was a bit more strongly acknowledged, since the end of the 90s measurement was becoming more and more important. Maybe there is too much money in this field now, but the camps are distinct, different communication styles. (…)“ (Interview 2, Universität)
Es muss also gefragt werden, wie die offenbar reibungslose Kooperation zwischen den beiden Gemeinschaften „organisiert“ ist. Eine wichtige Rolle spielen formalisierte Schnittstellen, standardisierte Datenformate und elektronische Plattformen (überwiegend im Internet), die den Datenaustausch ermöglichen. Solche Plattformen werden meist nicht von einer einzelnen Forschungsorganisation betrieben, sondern sind häufig in komplexe Netzwerke sehr heterogener Organisationen (und informaler Gemeinschaften) eingebettet. Auch wenn an16
Fragestellung: „Which of the following activities within the field of atmospheric sciences describe your work best?“ theoretical work (8%) – laboratory work (11%) - field work/observation (51%) - simulation/numerical modeling (43%). (Mehrfachantworten)
Offene Großforschung in der atmosphärischen Chemie?
183
fangs die NASA und die WMO eine Reihe von Standards bestimmten, werden diese heute oft von internationalen und interorganisationalen Komittees auf Konferenzen festgelegt. Werden diese von vielen Wissenschaftlern angewandt und akzeptiert, werden sie durch die methodischen Programme der Atmosphärenwissenschaft stabilisiert. Als ein Maßstab für die Offenheit der Großforschung kann angesehen werden, ob auch Universitätswissenschaftler an Großprojekten teilnehmen (oder deren Daten nutzen) können. In den Umfragedaten bestehen keine signifikanten Zusammenhänge zwischen der organisatorischen Affiliation (Universität vs. andere Institute)17 und den einzelnen Forschungsgebieten, die in unterschiedlichen Maße von Großforschungsstrukturen und interorganisatorischen Kooperationen abhängen. Auch zwischen den Modellierern18 und den Experimentatoren19 besteht kein signifikanter Unterschied bezüglich der Organisationszugehörigkeit. Dagegen arbeiten Wissenschaftler, die little science Methoden (ausschließlich theoretische und Laborarbeit) anwenden, etwas häufiger an den Universitäten.20 Ähnliches gilt für Wissenschaftler, die an der Integration von Daten aus Feldexperimenten und Computersimulationen arbeiten (Universalisten, siehe Tabelle 2).21 Die Bedeutung informeller Gemeinschaften für die innovative Forschung geht mit der Bedeutungszunahme der Arbeitsteilung aber nicht zurück. Im Gegenteil, der formalisierte Austausch setzt kreative Kapazitäten frei, weil viele Probleme interdisziplinärer Zusammenarbeit als gelöst betrachtet werden. Daher sind stabilisierte Kooperationsmuster eine Voraussetzung für die kumulative Wissensproduktion in einem Feld, das in seiner Komplexität nicht mehr von einzelnen Wissenschaftlern überblickt werden kann. Eine gemeinschaftliche Arbeit an den Schnittstellen wird immer dann nötig, wenn neue Kopplungsprobleme gelöst werden müssen. In der bisherigen Diskussion um die Bedingungen und Möglichkeiten interdisziplinärer Forschung wurden vor allem solche Probleme thematisiert. Dem Fall, dass der Daten- und Wissensaustausch zwischen verschiedenen Forschungsgebieten ohne Probleme, d. h. gewissermaßen „geräuschlos“ funktioniert, wurde bisher eher wenig Aufmerksamkeit geschenkt.
17
18 19 20 21
Fragestellung: „Which of the following best describes the organization where you are employed?“ univer-sity/NASA, NOAA/NCAR, UCAR/other predominantly government funded institutes (e.g. National Labs, MPI, CNRS, CSIRO, etc./Academy of Science/predominantly funded research institute/industry/other please specify Kendalls = -.08, (n.s.) Kendalls = -.10, (n.s.) Kendalls = .16, p<.01 Kendalls = .12, p<.05
184 4.
Falk Schützenmeister Daten: Produktion und Austausch
Die Forschung in der atmosphärischen Chemie ist auf verschiedene Datenquellen angewiesen. So sind in situ Messungen an Bodenstationen, mit Flugzeugen oder Wetterballons ebenso wichtig wie die Fernerkundung durch Satelliten. Neben solchen „real world“-Daten werden Computermodelle eingesetzt, um die Effekte von Spurengasen auf die Dynamik der Atmosphäre abzuschätzen. Für die Simulation komplexer chemischer Gleichgewichte, die die Eigenschaften der Atmosphäre bestimmen, werden für jeden einzelnen Stoffumsatz die Reaktionsraten in Abhängigkeit vom Luftdruck, der Sonneneinstrahlung und der Temperatur benö-tigt. Um die Quellen und Senken von Spurengasen zu bestimmen, müssen auch die spezifischen Flussraten bekannt sein, die den Umfang des Stoffaustauschs zwischen den verschiedenen Teilen des Erdsystems (Ozeane, Atmosphäre, Landmassen, usw.) bestimmen. Daher sind Laborexperimente auch in der atmosphärischen Chemie unverzichtbar. Die Mehrzahl der befragten Wissenschaftler produzieren Daten22 in der eigenen Forschungsgruppe (72%), die meisten benutzen aber auch Daten aus anderen Quellen (75%).23 Viele Wissenschaftler kooperieren mit Kollegen aus derselben Organisation (25%) oder forschen in interorganisatorischen Verbundprojekten (60%). Zudem verwenden 64% der Befragten Daten, an deren Erhebung sie selbst nicht beteiligt waren. Solche externe Daten stammen z. B. aus kooperativen Feldexperimenten, von den Wetterdiensten oder aus satellitengestützten Erdbeobachtungsnetzwerken.24 Nur 22% der Befragten verwenden hin und wieder nicht veröffentlichte Daten anderer Forschungsgruppen, deren Verfügbarkeit von persönlichen Kontakten und Beziehungsnetzwerken abhängt. Mit einer logistischen Regression können einige signifikante Determinanten der verschiedenen Strategien der Datenbeschaffung bestimmt werden. Weil die meisten der Befragten mit verschiedenen Datenquellen gleichzeitig arbeiteten, sind die geschätzten Bestimmtheitsmaße (R2) der Modelle in Tabelle 3 relativ gering.
22
23 24
Fragestellung: „What is/are the main data source(s) in your current research?“ data produced by myself or within my group/data produced within the organization that employs me/data produced in a broader cooperation between organizations in which I am or was involved/data provided to the scientific community by other organi-zations (e.g. data center)/data produced by other researchers that is not available publicly/other please specify (Mehrfachnennungen). Fragestellung: „How often do you use external data sources within your research?“ very often/often/occasionally/rarely/never, kursiv ausgewertete Kategorien ESA, European Space Agency
Offene Großforschung in der atmosphärischen Chemie?
185
Tabelle 3: Determinanten verschiedener Strategien der Datengewinnung in der atmosphärischen Chemie (logistische Regression, B-Koeffizient, Signifikanzniveaus * <.1, + <.5)
B-Koeffizient
Universitätsforschung
(a) eigene Gruppe
.53
+
(b) eigene Organisation
1.56
*
.36
(c) interorganisatorische Kooperation -.12
(d) externe Daten
(e) nicht publizierte Daten anderer
-.42
-.56
+
.85
*
Europäische Union
-.06
.51
+
.12
Feldbeobachtungen
1.33
*
.50
+
.68
*
-.52
.67
*
1.00
*
.71
*
.15
-.63
*
.21
.39
1.85
.67
*
.31
.13
-.16
.09
.27
.40
-.74
-.05
.49 -.06
.55
*
.03
-.10
*
0.05
.53
.254
.167
*
-.02
Art der Daten (Referenz: in situ und remote sensing Daten) - Simulationsdaten - Satellitendaten - Labordaten Klimaforschung
-.44
-.08
Konsens
-.04
.61
Grundlagenforschung
.00
-.11
.00
Zentralität des Befragten
.02
.34
.74
Department geschätztes R2 (Nagelkerke) N=344
.37
.51
.164
.203
*
1.61 .186
*
+
.70
+
1.14
*
*
.26 *
In der ersten Spalte (a) finden sich die Determinanten für die Datenproduktion innerhalb der eigenen Forschungsgruppe. Diese ist in der Universitätsforschung etwas häufiger als in anderen Forschungsorganisationen. Experimentatoren produzieren öfter eigene Daten als die Modellierer oder die Theoretiker. Betrachtet man aber nicht den Forschertyp, sondern die Art der Daten,25 zeigt sich, 25
Fragestellung: „What kind of data do you use in your current research?“ data from laboratory experiments/data from computer simulations/data from ground-based in situ measurements/data from ground-based remote sensing/data from airborne or research vessel in situ measurement/data from airborne or research vessel remote sensing/data from satellite based remote sensing/other, please specify (Mehrfachnennungen)
186
Falk Schützenmeister
dass Satellitendaten – nicht überraschend – seltener innerhalb der Forschungsgruppen des Befragten produziert werden. Dass die Verwendung von Computer- und Labordaten einen positiven Einfluss hat, liegt vermutlich daran, dass die Referenzkategorie (Feldmessungen) auch flugzeug- oder schiffsbasierte Messkampagnen umfasst, deren Daten ebenfalls auch in Sekundäranalysen nichtbeteiligter Wissenschaftler ausgewertet werden. Keinen Einfluss hatte dagegen, ob die Wissenschaftler ihre Arbeit der Grundlagenforschung oder der problemorientierten Forschung zuordnen.26 Die zweite Spalte (b) enthält ein Modell für die Wahrscheinlichkeit von Kooperationen innerhalb der Organisation des Befragten. Diese hängt in erster Linie davon ab, ob es dort potentielle Partner und institutionelle Anreize gibt. Daher ist die Wahrscheinlichkeit an den Universitäten signifikant geringer – zum einen, weil es oft nur einen Lehrstuhl in einem Spezialgebiet gibt, zum anderen, weil die Wissenschaftler ihre eigene akademische Karriere strategisch planen müssen. Distinktion und Spezialisierung erscheinen dabei als zu bevorzugende Strategien. In den USA sind besonders die National Laboratories, die im Zuge verschiedener Großforschungsprojekte entstanden, für interdisziplinäre Kooperationen innerhalb der Organisation gerüstet: „The universities would tell the Department of Energy, why are you sending your money to a National Lab. Their overhead is higher and their work is expensive. So the answer, I think, is two things: (…) the National Labs maintain some facilities that I wouldn’t find anywhere else. (…) The other is (…) We can assemble a group of three, five, ten, twenty, PhDs to work on a problem (…) When you have the (…) freedom or when you’ve encouraged every professor to be a star, totally independent, (…) and you just look for independent people, then you can’t always get them [to work together]. It’s much harder (…) and we’re not limited to one division, so it is easy to get a group of five scientists who are from computing, from engineering, from earth sciences, from everywhere. So those are big differences (…). And I think a third, (…) DOE27 maintains the expertise and capability they think they need. You can’t make university people work on a certain problem. But they can fund the group to do what they need here.“ (Interview 11, National Laboratory)
Eine weitere wichtige Tatsache, die das Modell widerspiegelt, ist, dass innerorganisatorische Kooperationen für die Klimamodellierung bzw. die Computersimulation chemischer Prozesse in der Atmosphäre typisch sind. Auch wenn es mittlerweile offene Community-Modelle gibt (NCAR CCSM3, Collins et al. 26
27
Fragestellung: „How would you describe the type of research you are engaged in most of the time?“ fundamental or basic research/problem-oriented research/applied research/engineering oriented research/consulting-oriented research/other, please specify DOE, US Department of Energy
Offene Großforschung in der atmosphärischen Chemie?
187
2006), an deren Entwicklung Wissenschaftler aus verschiedenen organisatorischen Kontexten mitarbeiten, dominieren immer noch Modelle, die innerhalb spezialisierter Institute weiterentwickelt werden. Beispiele sind das NOAA GFDL28 in Princeton, das Max-Planck-Institut für Meteorologie in Hamburg oder das Hadley Center des britischen Wetterdienstes. Chemical Transport Models (CTM) werden meist (aber nicht notwendigerweise) aus solchen allgemeinen General Circulation Models (GCM) abgeleitet, in dessen Kern die physikalische Dynamik der Atmosphäre durch Differentialgleichungen repräsentiert wird (Brasseur et al. 1999: 446, Gramelsberger in diesem Band, Gramelsberger 2009). Gemäß der logistischen Regression in Tabelle 3 ist eine innerorganisatorische Kooperation dann wahrscheinlicher, wenn in einem Forschungsfeld ein Konsens29 über die theoretischen und methodischen Grundlagen herrscht. In der Wissenschaftsforschung wurde die Schließung von Kontroversen als eine Voraussetzung für die Institutionalisierung von Spezialgebieten angesehen (Good 2000, Stichweh 1984). Diese spiegelt sich auf der Organisationsebene in Entscheidungen wider, Lehrstühle, Departments oder Abteilungen einzurichten (Bensaude-Vincent 2001). Aus ihrer Existenz ergeben sich auch höhere Chancen, Partner innerhalb der eigenen Organisation zu finden. Die Zusammenarbeit zwischen Wissenschaftlern verschiedener Organisationen (Tabelle 3, Spalte c) ist durch andere Faktoren bestimmt. Universitätswissenschaftler haben bessere Chancen (und einen größeren Bedarf) in organisationsübergreifenden Kooperationen mitzuarbeiten als Partner in der eigenen Universität zu finden. Bei den großen flugzeugbasierten Messkampagnen der NASA sind mittlerweile bis zu zwei Drittel der Principal Investigators Universitätsforscher. Noch an der Expedition (AAOE30), die die Kontroverse über das Ozonloch entschied, nahmen überwiegend NOAA- und NASA-Wissenschaftler teil (Interview 13, Tuck 1989). Das Problem, das es in kooperativen Feldkampagnen zu lösen gilt, besteht in der Vermittlung individueller Forschungsfragen mit den Zielen der jeweiligen Mission. Werden kleinere Feldexperimente tatsächlich auf einer informalen Ebene initiiert und koordiniert (Sundberg 2007), sind große Messkampagnen, an denen oft viele Wissenschaftler mit verschiede-
28 29
30
GDFL, Global Fluid Dynamics Laboratory Fragestellung: „How would you describe the current degree of consensus about the topic you specified in question #3? Is it controversial or do most scientists agree with a particular view?“ There are three or more views./There are basically two opposing views./There is a dominant view questioned by some dissenters./There is a general consensus about the topic, even about what the open questions are./Other, please specify. AAOE, Antarctic Airborne Ozone Experiment, welches die Kontroverse über die Ursachen des antarktischen Ozonlochs entschied (1987, s. auch Roan 1989, Grundmann 1999)
188
Falk Schützenmeister
nen Forschungsfragen und Interessen teilnehmen, auf formale Organisation und ein professionelles Management angewiesen. Ein interessanter Befund ist, dass nicht der Organisationstyp die Teilnahme an interorganisatorischen Kooperationen erklärt.31 Vielmehr nehmen Befragte, die in interdisziplinären und institutsübergreifenden Programmen arbeiten (18% der Befragten), öfter an interorganisatorischen Kooperationen teil als Wissenschaftler, die in diszpilinären Kontexten arbeiten.32 Das gilt sowohl für die Universitäten als auch für andere Forschungsorganisationen. Zum einen gibt es in disziplinären Instituten größere Chancen für In-house-Kooperationen; man ist daher weniger auf die Kooperation mit anderen angewiesen. Es scheint aber auch die Tatsache eine Rolle zu spielen, dass interdisziplinäre, technisch und organisatorisch aufwendige Verbundprojekte höhere Anforderungen an die Kooperationsfähigkeit der Wissenschaftler stellen. Die Vorbereitungsphase von Feldexperimenten dauert oft mehrere Jahre, in denen Projektvorschläge und Forschungsanträge langwierige Peer-Review- und Bewilligungsprozesse durchlaufen. Auch wenn sie relativ offen sind, bestehen daher institutionelle Widerstände gegen eine Teilnahme. Besonders für junge Professoren, die unter dem Druck stehen, relativ schnell Ergebnisse zu publizieren, sind Verbundprojekte häufig eine zu große Zeitinvestition (Interview 2). Auf der anderen Seite scheinen immer mehr (interdisziplinäre) Universitätsdepartments und -programme für eine solche Zusammenarbeit gerüstet. Möglicherweise bildet sich eine gewisse organisatorische Isomorphie (DiMaggio/Powell 1983) zwischen den Universitätsinstituten und anderen Forschungsorganisationen heraus: „What I found is that, university groups are better at taking a lab experiment and putting it in a plane. Whereas if you're going to make an instrument that's autonomous, that can run by itself, that has no operator, or run under more severe conditions, like lower pressures or colder temperatures, you usually need a little bit more sophisticated engineering support. And university departments are not usually configured to have a scientist working tightly with a good engineering group to put together a low-burst instrument. So in the early days of AAOE they were using the ER-233. The instruments on the ER-2 had to be autonomous and very robust. And 31 32
33
Kendalls = -.04 (n.s.) Fragestellung: „In which way is atmospheric chemistry integrated into the organization which employs you?“ there is an atmospheric chemistry department within the organization/AC is part of the chemistry department/AC is part of the atmospheric sciences department/AC is part of a department dedicated to environmental science/AC is part of the earth science department/AC is part of an interdisciplinary or interdepartmental center or program/None of the above, please specify, kursiv ausgewertete Kategorien. ER-2, NASA-Forschungsversion des Spionageflugzeuges U-2, das in der Stratosphäre operieren kann.
Offene Großforschung in der atmosphärischen Chemie?
189
probably universities were not really geared up for that. And they become more so with time. Especially with these new departments coming that merge those experts together better, I think.“ (Interview 13, NASA-Forschungsmanager)
Die Wahrscheinlichkeit für die Mitwirkung in interorganisatorischen Kollaborationen hängt auch von der Zentralität des befragten Wissenschaftlers innerhalb der disziplinären Kommunikation ab. Diese wurde durch die Anzahl der verschiedenen Kriterien (Publikationen, Konferenzteilnahmen, AssessmentTätigkeit) gemessen, die einen in unserer Befragung als Atmosphärenchemiker und somit als Mitglied der Grundgesamtheit qualifizierten. Dieses Maß ist nicht mit der Publikationshäufigkeit identisch. Es nahm dann einen höheren Wert an, wenn die Befragten in verschiedenen Teilgebieten der atmosphärischen Chemie publiziert hatten. Aufgrund dieses Indikators wurden 18% der Befragten den führenden Wissenschaftlern zugerechnet.34 Dass diese eine signifikant höhere Wahrscheinlichkeit der Teilnahme an interorganisatorischen Kooperationen hatten, deckt sich mit Resultaten von Diane Crane (1972). Sie stellte heraus, dass ein Feld durch die Zusammenarbeit von Elitengemeinschaften (invisible colleges) bestimmt ist. Von solchen Eliten geht gewöhnlich auch die Initiative für die großen Feldkampagnen aus. „Some at the very top take the leadership, to start a very long process. Usually they set up a committee of people, that work on a white paper, a kind of proposal with the most important goals, the general [airplane, F.S.] platforms, etc. This [paper, F.S.] has to be accepted by the funding agency, a budget will be specified. Then a call for proposals is issued and individual researchers start to write proposals, what they want to do in the framework of the white paper. That instrument on this airplane for this reason. (…) These proposals are peer reviewed and the best ones are accepted. A problem is that the best ones sometimes don't fit together so well, like a soccer team with the best players but no goal keeper among them. Sometimes the principle of individual peer review doesn't produce the best results.“ (Interview 2)
Neben der offenen Ausschreibung von Projekten werden aber auch einzelne Forschungsgruppen zur Teilnahme an den Feldexperimenten eingeladen, ohne dass sie die formalen Begutachtungsprozesse durchlaufen müssten. Das ist immer dann der Fall, wenn ihre Beiträge für die Gesamtmission besonders wichtig scheinen oder sich schon längere Zeit bewährt haben. Damit haben Gruppen, die schon öfters an solchen Missionen beteiligt waren, eine höhere Chance, erneut teilzunehmen:
34
Eine dual codierte Variable wurde 1 gesetzt, wenn mindestens fünf der 15 Auswahlkriterien erfüllt waren.
190
Falk Schützenmeister „I mean, we are the only group, who has flown on the NASA DC 8 since 1988. I mean we do good work, and they request that we fly, and if they call me up and they say: Look (…), we want you to fly on this project: How much money do you need to do it? (…) So I got a lot.“ (Interview 14, Universität)
Angesichts knapper Ressourcen wird die Fortsetzung von Zeitreihen der Aufnahme neuer Experimente vorgezogen. Es scheint relativ schwierig, neue innovative Messverfahren in große Expeditionen zu integrieren, weil sie eine potentielle Gefahr für die Vergleichbarkeit der Ergebnisse und eine Herausforderung für die Gewohnheiten der anderen Teilnehmer darstellen. Die Funktion von little science Strategien in der atmosphärischen Chemie besteht aber darin, nachzuweisen, dass neue Zusammenhänge von Bedeutung sein könnten: „There is the community of scientists that defines the current paradigm and this is the hot subject and they get together and agree, it’s important. (…) and then they’re planning large-joint projects. Then you write a proposal, you have the blessing of this large community and then they sent it out for (…) a peer-review. They say, this is a hot subject. It is a self-sustaining effort to some extend and it’s hard to break away. (…) I proposed in 1996 to the NSF to look at the impacts of cosmic radiation on chemical transformations in ice and I was rejected for a long time and (…) ten years later, it’s a hot subject here. If you are to far in front, you can have a hard time getting funded. So I think it’s very hard to get truly creative research.“ (Interview 12, Universität)
Die großen Messkampagnen zeigen, dass in einer Wissenschaftsorganisation, die auf der netzwerkartigen Kooperation mehrer (großer) Organisationen beruht, die idealerweise durch eine Offenheit für externe Teilnehmer gekennzeichnet ist, die Vorteile formaler und informaler Strategien kombiniert werden. Dabei haben individuelle Forschungsstrategien außerhalb der Netzwerke eine große Bedeutung, weil die disziplinär institutionalisierten Kooperationsstrategien Widerstände gegen Innovationen erzeugen. Warum in dem vorliegenden Modell Wissenschaftler aus EU-Ländern (wenn auch nur schwach signifikant) öfter in organisationsübergreifenden Kooperationen arbeiten als andere, kann anhand der Daten nicht erklärt werden. Eine Vermutung wäre, dass dieser Zusammenhang auf der gezielten Förderung von Verbundprojekten in Europa beruht; eine andere, dass der Datenaustausch in der EU tatsächlich weniger formalisiert ist und die Forscher stärker auf informelle Netzwerke und Kontakte angewiesen sind. Für diese Annahme spricht auch, dass europäische Wissenschaftler signifikant häufiger auf unveröffentlichte Daten zurückgreifen (siehe Tabelle 3, Spalte e). Nur wenige Wissenschaftler, die Satellitendaten nutzen, sind auch an deren Produktion beteiligt (siehe Tabelle 3, Spalte d). Vielmehr greifen Wissenschaft-
Offene Großforschung in der atmosphärischen Chemie?
191
ler in ganz unterschiedlichen organisatorischen Kontexten auf diese Daten zurück. Die meistgenannte externe Datenquelle ist die NASA (54% aller Befragten),35 die neben Satellitendaten auch die Daten vieler Feldkampagnen zur Verfügung stellt. Die Messung von Spurengasen war eine frühe Anwendung von Fernerkundungssatelliten. Somit liegen sehr lange und detaillierte Messreihen vor. Auch wenn die europäische ESA inzwischen eigene, z.T. modernere Satelliten zur Messung von Spurengasen und anderen geophysikalischen Daten betreibt, wurde die europäische Raumfahrtagentur viel seltener als Datenquelle genannt (8%). Auch die europäischen Wissenschaftler greifen häufiger auf NASA-Daten zurück, wenn auch etwas seltener als ihre Kollegen aus anderen Ländern.36 Eine andere wichtige Datenquelle sind nationale Wetterdienste, deren Daten in Europa von dem European Centre for Medium-Range Forecasts (EMCWF) zusammengefasst werden. In der EU benutzen 50% der befragten Wissenschaftler diese Daten (die z.T. von ESA- und von NASA-Satelliten stammen). Auch nichteuropäische Wissenschaftler (32%) greifen auf die Daten des EMCWF zurück. Andere Datenquellen, sind die NOAA, die den Wetterdienst der USA umfasst (31% der Befragten), und das NCAR (18%). 32% der Wissenschaftler nutzen Daten, die bei den verschiedenen World Data Center der WMO hinterlegt sind. Neben diesen großen Organisationen werden aber auch sehr verschiedene andere Datenquellen genannt. Solche sind z. B. Behörden, die die Einhaltung von Umweltgesetzen überwachen, oder kommunale Messnetzwerke für Emissionen oder auch internationale Wissenschaftsorganisationen, die Daten über die Biosphäre, die Ozeane oder die Landmassen erheben und sammeln. Die freie Verfügbarkeit von Daten war in den Atmosphärenwissenschaften stets eine zentrale forschungspolitische Forderung (BASC 1996: 2ff.). Besonders in Programmen, bei denen die NASA oder die NOAA als Projektträger auftreten, ist die Forschungsförderung mit der Verpflichtung verbunden, die Daten nach Abschluss der Projekte in die Public Domain zu überführen. Andere Organisationen – wie das NSF oder auch die EU und die europäischen Länder – haben weniger formale Regeln, doch scheint sich die Veröffentlichung von Daten (oder ihr freier Austausch) zu einer disziplinären Norm zu entwickeln (Interview 4). Die Datenerhebung der Wetterdienste ist von den Atmosphärenwissenschaften weitgehend unabhängig und oft an außerwissenschaftlichen Zielen ausgerichtet. Dabei unterscheiden sich die Politiken bezüglich der Datenveröffentlichung zwischen den verschieden Ländern. Die Daten der US-
35 36
Fragestellung: „Please list your most important external data sources (e.g. World Data Center, NASA, NCAR, …)“, offene Fragestellung Kendalls = -.12, p<.5
192
Falk Schützenmeister
Wetterdienste sind für die Forschung frei verfügbar, während detaillierte Datensätze des EMCWF bezahlt werden müssen. Die Wissenschaftler beginnen ihre Suche nach externen Daten gewöhnlich nicht bei den Fachkollegen, sondern im Internet, wo eine Unmenge von Daten einfach heruntergeladen werden kann.37 Oft werden solche Datenprodukte auf Konferenzen vorgestellt und beworben. Erst wenn sehr spezifische Informationen benötigt werden, bedarf es persönlicher Kontakte oder der Durchführung neuer Experimente. Eine freie Verfügbarkeit von Daten findet sich typischerweise in Forschungsfeldern, in denen die anfallende Datenmenge die vorhandenen Analysekapazitäten bei weitem überschreitet.38 Allein die vier Satelliten des NASA Earth Observing Systems produzieren jährlich 1.000 Terabyte Daten (Clery/Voss 2005). Nicht zuletzt aus dieser Menge resultiert das Interesse der NASA, viele (externe) Wissenschaftler an der Analyse zu beteiligen. Zudem sichert die intensive Nutzung auch die Förderung durch die Forschungspolitik. Bei der NASA war der Ausbau der Erdbeobachtung und die Veröffentlichung von Daten eine Strategie, Budget-Kürzungen zu begegnen (Lambright 2005). Mit Fug und Recht kann man – wie auch für die moderne Astronomie (Schilling 2000) – behaupten, dass in der Atmosphärenwissenschafte virtuelle Observatorien entstanden sind. Einer der interviewten Wissenschaftler erforschte die El Ninõ Southern Oscillation, von seinem Bürocomputer aus, wobei er ausschließlich auf im Internet frei verfügbare Daten und ältere Klimamodelle zurückgriff (Interview 5). Unsere Studie zeigt, dass externe Daten etwas häufiger in den Forschungsgebieten zur Verfügung stehen, in denen ein Konsens über die theoretischen und methodischen Grundlagen herrscht. Experimentatoren greifen seltener auf externe Daten zurück als Wissenschaftler anderer methodischen Gemeinschaften. Während sie ein besonders großes Interesse an der Kontrolle über die Datenerhebung haben, wissen viele Atmosphärenwissenschaftler, die mit externen Klima- und Wetterdaten arbeiten, relativ wenig über ihre Entstehung. Die entsprechenden organisatorischen und technischen Infrastrukturen sind für sie nicht selten black boxes, auf die wie auf Laborgeräte zurückgegriffen wird, wenn es gilt die Randbedingungen für die in Frage stehenden Prozesse zu bestimmen:
37
38
Einen Eindruck von der Vielfalt freier Datenquellen kann man sich auf der Webseite des Global Change Master Directory verschaffen, die von der NASA gepflegt wird: gcmd.nasa.gov, letzter Zugriff 17. November 2008. Ein anderes Beispiel ist die Genomik, in der Sequenzen von Millionen von DNA-Basenpaaren ausgewertet werden müssen.
Offene Großforschung in der atmosphärischen Chemie?
193
„The weather stuff, that is behind the scenes. There is this huge operational infrastructure that takes the satellite data, merges it somehow into a product (…) I do not know anything about it. It just appears and ends up in the database.“ (Interview 15)
Für die hier behandelte Frage nach der Offenheit der Forschung ist wichtig, dass nur wenige Befragte mit unveröffentlichten Daten arbeiten (Tabelle 3, Spalte e). Innerhalb von Großforschungsinstituten ist dieser Anteil etwas höher (22%) als an den Universitäten (14%).39 Auch wenn dieser Unterschied nicht signifikant ist, so ist es doch plausibel, dass Wissenschaftler in kleinen Instituten von einer größeren Offenheit profitieren. Es zeigt sich aber auch, dass Wissenschaftler, die mit Satelliten- und Simulationsdaten arbeiten, häufiger auf informelle Kontakte angewiesen sind. Wissenschaftler, die an der Erforschung des Klimawandels beteiligt sind,40 arbeiten dagegen etwas seltener mit unveröffentlichten Daten. Zum einen mag dies an dem globalen Fokus des Forschungsfelds liegen, zum anderen haben die internationalen Assessment-Prozesse neue Normen der Offenheit etabliert (Abschnitt 6). Wie es ältere Ansätze der institutionellen Wissenschaftssoziologie erwarten lassen (z. B. Hagstrom 1965: 4), ist der informelle Datenaustausch in der Grundlagenforschung etwas verbreiteter.
5.
Individuelle Forschungsstrategien
Die atmosphärische Chemie ist durch eine hohe Verfügbarkeit von Daten verschiedener Organisationen und Kooperationsprojekte gekennzeichnet, wobei diese Offenheit in Abhängigkeit der Standardisierung und der räumlichen Perspektive variiert. So sind standardisierte überregionale oder globale Daten einfacher erhältlich als die spezifischer Experimente einzelner Forschungsgruppen (Interview 11). Es besteht somit auch in der atmosphärischen Chemie eine Differenz zwischen little science und Großforschung. Welche individuellen Strategien verfolgen Atmosphärenchemiker, um zu anschlussfähigen aber auch originellen und damit reputationsträchtigen Resultaten zu gelangen? Viele Wissenschaftler haben nur einen relativ geringen Einfluss auf die Gestaltung von Großexperimenten oder gar Satellitenmissionen bzw. ist eine Einflussnahme ein langwieriger Prozess (Interview 2). Um von der offenen Großforschung zu profitieren, bedarf es daher häufig „opportunistischer“ Forschungsstrategien (Interview 1). Die Wahl von „machbaren“ For39 40
Kendalls = .09 (n.s.) Fragestellung: „To which of the following environmental problems is your current work related?“ global climate change/ozone depletion/photochemical smog/acid rain/aerosols in the environment/other issues related to air pollution, please specify/human or ecosystem health/other, please specify (Mehrfachnennungen)
194
Falk Schützenmeister
schungsproblemen (do-able problems, Fujimura 1987) ist für die organisierte Forschung typisch. Mit der Aufgabe eines geringen Teils der Freiheiten bei der Themenwahl erlangen Forscher Zugang zu Ressourcen, technischen Geräten und Kooperationen, die sonst nicht verfügbar wären. Eine solche Steigerung spezifischer Möglichkeiten ist eine typische Motivation für die Mitgliedschaft in formalen Organisationen. In der atmosphärischen Chemie ergeben sich viele dieser Möglichkeiten aus Förderprogrammen, die Umweltprobleme adressieren. So arbeiten nahezu alle der Befragten an umweltpolitisch relevanten Projekten; 79% der Befragten stimmen der Aussage zu, dass Umweltprobleme eine große Rolle bei der Entstehung der Atmosphärenwissenschaft spielten. War für die moderne atmosphärische Chemie die Ozonkontroverse prägend, arbeiten 76% der Befragten nun an Themen, die mit dem Klimawandel in Verbindung stehen. Immerhin 34% glauben, dass die problemorientierte Forschung zu einer Marginalisierung der Grundlagenforschung geführt hat. Der Aussage, dass interdisziplinäre Forschungsanträge größere Chancen der Bewilligung haben, stimmen 51% zu.41 Forschungsanträge werden daher häufig an der Rolle der Förderorganisationen innerhalb der Umweltgesetzgebung – z. B. der Überwachung bestimmter Umweltparameter – ausgerichtet: „In other words, when I write a proposal to NSF, I never use the word ‘monitor.’ If I need to measure something (…) it is because there is some science question and I have to do that in time series (…). The word monitor never appears. If my friend at NOAA writes his proposal, monitoring is the main thing. Well, we have to go on the ship to do some process study because that way we can understand what our monitoring is telling us. (…) The mission [of NOAA] is just a little different. It is the way you package it.“ (Interview 15, Universität)
Unter den Projektleitern und Principal Investigators lassen sich zwei Forschertypen unterscheiden. Der erste, einflussreichere kann als Managertyp betrachtet werden, der das Organisieren seiner Forschungsgruppe, oder auch interorganisatorische Kooperationen selbst als Forschungsstrategie betrachtet und eine solche zur Priorität der Arbeit macht. Der zweite Typ – den man häufiger an Universitäten findet – bevorzugt little science Methoden, wobei die Daten und Strukturen offener Großforschung opportunistisch genutzt werden:
41
Fragestellungen: „Environmental problems (e.g. smog, air pollution, ozone depletion) played an important role in the formation of atmospheric science.“ und „Interdisciplinary research proposals have a better chance than purely disciplinary projects of receiving funding.“ strongly agree/agree/neutral/disagree/strongly disagree, ausgewertete Kategorien kursiv.
Offene Großforschung in der atmosphärischen Chemie?
195
„[The work in National Labs is] different. They do big science, at the university [we do] more little science by individual researchers. In big science, you have to be part of a team. At the university research is more limited: smaller teams, specific striking questions, and it is much cheaper than big science.“ (Interview 6)
Die Rolle, die ein Wissenschaftler einnimmt, hängt von der Karrierephase, von seiner Zentralität und dem organisatorischen Kontext ab. Die meisten Wissenschaftler stimmen der Aussage zu, dass das Organisieren ein wichtiger Bestandteil der Forschung ist (87%). Gleichzeitig geben 68% an, dass sie durch den organisatorischen Aufwand von der Forschungsarbeit abgehalten werden.42 Die Zustimmung ist dann besonders hoch, wenn die Befragten tatsächlich einen großen Teil ihrer Arbeitszeit für organisatorische Aufgaben43 verwenden44 und tatsäch-lich sind diese Wissenschaftler (gemessen an der Anzahl der Publikationen)45 etwas weniger produktiv.46 Dennoch war die Frage nach dem Organisieren und dem Management von Forschung nicht genau genug. Während viele diese Aufgaben als lästige Pflicht empfinden, die ihnen von Organisationen, z. B. durch die Selbstverwaltung an der Universität, auferlegt wird, können einflussreiche Wissenschaftsmanager die Richtung des Feldes (auch außerhalb formaler Hierarchien) beeinflussen: „The construction [of instruments] is mainly done by graduate students. I spend my time reading, writing, surfing on communities. It is not so clear what research actually is. (…) But at the universities (…) there are too many management requirements. Maybe prominent researchers, who have more money and power (…) [in this case the] the management part might be fun.“ (Interview 2, Assistant Professor) „Since I’m back at JPL47 (…) I’ve actually been the chief scientist for our earth science directorate. That involves all elements of the earth sciences that we work in. [I am] trying to develop research topics, remote sensing, (…) devising concepts to take measurements from space platforms and applicate those, work with the com42
43
44 45 46 47
Fragestellungen: „Organizing (e.g. writing proposals, leading research groups, negotiating with funding insti-tutions, etc.) is an integral element of doing research.“ und „Organizing and managing tasks keep me from doing research.“ strongly agree/agree/neutral/disagree/strongly disagree, ausgewertete Kategorien kursiv. Fragestellung: „What percentage of your working hours is directed toward these tasks?“ doing re-search/organizing research (e.g., writing proposals, leading research groups, negotiating with funding institu-tions etc.)/teaching/consulting (e.g. international organizations, government)/other activities (total should equal 100%) Pearsons r = .34, p<.1, Vorzeichen gewechselt Fragestellung: „How many papers have you published in scientific journals in the last 12 months?“ (offene Fragestellung) Pearsons r = -.12, p<.5, Vorzeichen gewechselt JPL, NASA Jet Propulsion Laboratory, Pasadena, Kalifornien
196
Falk Schützenmeister munity to define those and then to sell those ideas to NASA.“ (Interview 13, NASA Forschungsmanager)
Die Domäne der Universitätsforscher ist auch in der atmosphärischen Chemie die (oft reduktionistische) Untersuchung grundlegender Zusammenhänge. Dabei arbeiten Universitätswissenschaftler oft mit kleineren kreativen Experimenten. Ein Beispiel ist die Bestimmung der Geschwindigkeiten des Kohlendioxidaustauschs zwischen Pflanzen und der Atmosphäre, in dem ein Stück Rasen mit elektrischen Heizgeräten erwärmt wird (Interview 11). Ein anderer Wissenschaftler benutzte angemietete Kleinflugzeuge für experimentelle in situ Messungen, um die komplexen Prozesse der Wolkenbildung zu verstehen. Eine weitere Strategie ist die Nutzung „veralteter“ Klimamodelle, die im Internet heruntergeladen werden können, auf modernen sehr leistungsstarken Personalcomputern. Dadurch kann bestimmt werden, für welche Experimente sich die langwierige Beantragung von Rechenzeiten auf den Supercomputern überhaupt lohnt. Zudem ist dabei eine schnelle experimentelle Variation von Randbedingungen möglich, die sich in den formalisierten Verfahren der Zuteilung von Rechenleistung nicht ohne Weiteres realisieren ließe (Interview 5). Eine andere Möglichkeit besteht in der opportunistischen Nutzung von bestehenden Infrastrukturen der Großforschung oder Installationen, die aus ganz verschiedenen Gründen erstellt wurden. So führte einer der Befragten Messungen der chemischen Zusammensetzung der Luft an Feldstationen in Alaska durch, die im Rahmen des Natural Ressources Program errichtet wurden, um Ölvorkommen zu erschließen. Solche Messungen an entlegenen Orten – wie der Tundra – sind für die Beobachtung der globalen Atmosphäre wichtig, da sie weitgehend frei von regionalen Verunreinigungen sind. Der befragte Wissenschaftler bezeichnete solche Strategie als die Ausnutzung von „big science leftovers“ (Interview 6).
6.
Die Koordinationsfunktion von Assessment-Panels
Eine wesentliche Voraussetzung für die flexible Kooperation von Wissenschaftlern verschiedener Organisationen und Gemeinschaften sind institutionalisierte Modi der Selbstbeobachtung. Nur durch diese können die Forscher einer Disziplin ihre Arbeit an den epistemischen Bedürfnissen eines Feldes ausrichten. Die Lösung von Problemen, an denen viele Wissenschaftler interessiert sind, verspricht eine Maximierung von Reputation (Whitley 1984: 25). Forschungsmanager sind idealerweise darum bemüht, knappe Ressourcen so einzusetzen, dass sie den politischen Zielen von Förderprogrammen ebenso wie der Verbesserung
Offene Großforschung in der atmosphärischen Chemie?
197
des wissenschaftlichen Wissens dienen (Pielke/Glantz 1995). Die legitimatorische Dimension offener Forschung kommt dabei nur solange zur Geltung, wie die Verteilung begrenzter Mittel von den meisten Wissenschaftlern als gerechtfertigt empfunden wird. In einem arbeitsteilig organisierten Forschungsfeld spielt daher neben den Normen des wissenschaftlichen Ethos auch eine Rolle, ob die geförderten Fragestellungen das Feld „voranbringen“. Die Selbstbeobachtung und resultierende Richtungsentscheidungen wurden traditionell innerhalb der Scientific Community sichergestellt. Wie sieht es aber in der atmosphärischen Chemie aus, in der sehr verschiedene Gemeinschaften arbeitsteilig kooperieren? In der offenen Großforschung ergibt sich Einfluss nicht nur aus Publikationen, sondern auch aus anderen Leistungen, die dem Feld zugute kommen. So ergab sich die Führungsrolle der NASA nicht nur aus ihrem politischen Mandat, das zuweilen kritisch gesehen wurde, sondern aus den finanziellen Ressourcen und technischen Infrastrukturen, über die sie verfügte und diese zuteilte. Ein anderer Weg der Einflussnahme ist die Organisation der Selbstbeobachtung eines Forschungsfeldes z. B. durch Review-Artikel und Konferenzen. Eine Beson-derheit in der Atmosphärenwissenschaft sind Assessment-Panels wie das IPCC oder auch das WMO/UNEP Assessment Panel of Ozone Depletion. Assessment-Panels haben ein politisches Mandat, das für Umweltprobleme relevante wissenschaftliche Wissen zusammenzufassen. Die Evolution und Probleme von Assessment-Prozessen des politischen Systems sind häufig diskutiert worden (z. B. Agrawala 1998, Siebenhüner 2002, siehe auch Poloni in diesem Band). Seltener wurde untersucht, welchen Einfluss die AssessmentPanels als Grenzorganisationen (boundary organizations, Miller 2001) auf die wissenschaftliche Entwicklung selbst haben. Über die Schlüsse und Statements der IPCC Summaries for Policy Makers (SPM) wird durch die Vertreter der beteiligten Regierungen Zeile für Zeile abgestimmt – ein Verfahren, das sicherstellen soll, dass alle Verhandlungspartner dieselbe Wissensbasis verwenden. Für die Wissenschaftler wichtiger sind die ausführlichen Berichte, von denen die politische Einflussnahme (durch ein mehrstufiges Verfahren) weitgehend abgeschirrmt ist. Diese Bedeutung der Assessment-Prozesse zeigt sich darin, dass 52% der von uns befragten Wissenschaftler in irgendeiner Funktion an den IPCC- oder Ozon-Assessment-Prozessen beteiligt waren,48 wobei nur 22% angaben, direkt in die Klimapolitik involviert zu sein (die meisten nur schwach). Viele Befragte 48
Nach der Stichprobenziehung wurde die Assessmentteilnahme aus den veröffentlichen Listen der Autoren und der Reviewer entnommen und zu den Daten dazu gespielt. Berücksichtigt wurden die IPCC-Reporte (WG 1) von 1990, 1995 und 2001, sowie die WMO/UNEP Scientific Assessments of Ozone Depletion 1998, 2002 und 2006.
198
Falk Schützenmeister
zitieren die Assessment-Reports gelegentlich in ihren Publikationen (55%) und stimmen der Aussage zu, dass die Mitarbeit reputationsträchtig sei (74%).49 Die Auswahl als Autor, Contributor oder gar Lead Author ist ohne Zweifel eine Anerkennung wissenschaftlicher Leistungen (auch wenn sie formal durch die Regierungsvertreter erfolgt). Eine wesentliche Motivation der Teilnahme besteht darin, dass es im Rahmen der Assessment-Prozesse eine Vielzahl von Treffen und Konferenzen gibt, auf denen das neueste Wissen aber auch offene Forschungsfragen (und damit die Richtung der zukünftigen Forschung) diskutiert werden. Zudem erhalten die Wissenschaftler, die an den offenen ReviewProzessen teilnehmen, bereits ca. ein Jahr vor ihrer Veröffentlichung Einblick in die aktuellen Berichte. Die Tatsache, dass alle fünf Jahre ein Konsens über die Grundlagen der Atmosphärenwissenschaft bzw. der atmosphärischen Chemie inklusive offener Forschungsfragen, Unsicherheiten und Probleme erreicht werden muss, hat sehr weitreichende Rückwirkungen auf die wissenschaftliche Arbeit: „The assessments have really provided sort of the state of the science. And they are read very carefully. I mean the community spends a lot of time working on them. But once they are done and assembled, then the managers take a look at those and try to decide (…) where the answer is and how should I direct my program. So within NASA there is a very interested audience (…). Those reports are absolutely critical to designing the next 5 years. That’s the way they have been treated.“ (Interview 13, NASA-Forschungsmanager) „It [the IPCC process] does certainly shape the science (…) in a couple of different ways (…) So from outside of it, those scientists affect me, because they sometimes decide what the next assessment will include. So, for example this next level of assessment is including coupled climate carbon cycle models. (…) Now they’ll have a climate dynamic ocean and a dynamic land surface (…) for the first time. This puts most of my work in a much more central position and that means that I’m interacting with a lot more global modelers. (…) They make science move along in certain jumps. And then there is a sort of (…) punctuation to knowledge and to new work. People really work hard but then they just kind of stop because they have to publish something for that deadline. (…) I think it’s actually also creating some kind of rhythm.“ (Interview 11, National Laboratory)
49
Fragestellungen: „To what extent have you been involved in the process of political decisionmaking concerning environmental issues?“ strongly/involved/somewhat involved/slightly involved/not involved; „How often do you cite WMO/UNEP assessment reports in scientific papers?“ very often/often/occasionally/rarely/very rarely; „I can gain reputation through working on WMO/UNEP assessment reports.“ strongly agree/agree/neutral/disagree/strongly disagree, kursiv: ausgewertete Kategorien.
Offene Großforschung in der atmosphärischen Chemie?
199
Die Assessment-Berichte präsentieren den Stand des wissenschaftlichen Wissens und helfen relevante Originalbeiträge zu identifizieren. Insofern spielen sie eine ähnliche Rolle wie Lehrbücher und tatsächlich werden sie an den Universitäten mitunter auch als solche verwendet (Interview 6). Assessment-Berichte enthalten aufgrund des langwierigen Verfahrens nicht das allerneuste Wissen an den Forschungsfronten (diese funktionieren nach wie vor gemeinschaftlich). Sie sind aber für die wechselseitige Beobachtung verschiedener wissenschaftlicher Ge-meinschaften zentral. Doch auch wenn die wissenschaftliche Qualität der Assessments außer Zweifel steht, wird der konsensuelle Prozess von Universitätswissenschaftlern zuweilen in einem Widerspruch zur „normalen“ wissenschaftlichen Dynamik gesehen: „The IPCC reports are summary statements about consensual agreements in atmospheric sciences, but nobody in the science would agree this way. Science is driven by the search for uncertainties, new issues and problems. The reports are like a view of the majority, it provides confidence in the political process.“ (Interview 5)
Von einigen wird eine Unterbrechung des Reputationskreislaufs vermutet, weil viele Wissenschaftler wichtige Erkenntnisse den IPCC-Berichten entnehmen und in der Folge nicht die zu Grunde liegenden Originalarbeiten zitieren. Damit werden – so eine Vermutung – Forscher um die ihnen zustehende Reputation gebracht. „Yes, I cite IPCC reports sometimes. The problem is that the recognition doesn't go to the original work or researcher. There are different opinions about whether you should cite IPCC reports but the compilation of these papers is also scientific work. I think, here, some differentiation is necessary. In general it is nice that the IPCC exists in the field“ (Interview 2)
Einige Wissenschaftler befürchten auch, dass durch die Koordinierungsfunktion der Assessment-Prozesse ein Gruppendruck innerhalb des Feldes erzeugt wird (Interview 6), der vor allem die Spielräume für kreative Grundlagenforschung einschränkt: „It kind of takes (…) the creative individual out of the mix. (…) I mean, you have to run with the mainstream, in order to be accepted, if you deviate to much (…). The funding situation is much more difficult, [you, F.S.] give the appearance of running with the herd and many of our funding agencies say, okay, you have to say one thing to get the money and then you can do whatever you want, after you have the money. And so I often do and I get money [… and then, F.S.] do something else.“ (Interview 12)
200
Falk Schützenmeister
Weil für die Erstellung der Assessment-Prozesse keine zusätzlichen Mittel zur Verfügung gestellt werden, vermuten einige Wissenschaftler, dass sie einen erheblichen Teil der Zeit und der Ressourcen verbrauchen, die für kreative Grundlagenforschung aufgebracht werden könnte. Dies gilt besonders auch im Fall von Computersimulationen, weil aufwendige Vergleichsszenarien durchgerechnet werden müssen (Interview 9). Auf der anderen Seite prägen die Assessment-Prozesse die Normen offener Großforschung. Aus der Perspektive der Merton’schen Wissenschaftstheorie erscheinen sie als ein Paradox. Assessment-Prozesse sind politisch organisierte Verfahren, um die Unabhängigkeit und die Rationalität der Wissenschaft im politischen Prozess sicherzustellen. Dabei erweist sich vor allem das offene Peer-Review-Verfahren als instrumentell. Dieses wurde eingeführt, um die politisch motivierte Auswahl von Gutachtern durch Regierungen zu vermeiden. Wis-senschaftler können nun im Internet ohne großen Aufwand als Reviewer teilnehmen. Die Kommentare werden von Review-Editoren gesammelt und an die Autoren weitergeleitet, die auf jeden der Kommentare antworten müssen.50 Dabei werden die Namen der Reviewer nicht anonymisiert. Der IPCC-Prozess ist damit wesentlichen Normen der offenen Forschung verpflichtet. IPCCAutoren dürfen nur auf in wissenschaftlichen Zeitschriften publizierte Originalarbeiten zurückgreifen (Publizitätsnorm). Zudem sollten die Daten, die in den zitierten Publikationen verwendet werden, auch den Reviewern zur Verfügung stehen. Diese können von der Technical Support Unit (TSU) des IPCC angefordert werden. Einzelne Vorwürfe des Regelverstoßes und daraus folgende Anpassungen des Verfahrens, zeugen von der hohen Erwartung, dass das IPCC in einem strengen normativen Rahmen arbeitet.
7.
Ausblick: Governance offener Großforschung
Die Antwort auf die Frage, ob die atmosphärische Chemie als eine offene Form der Großforschung beschrieben werden kann, fällt gemischt aus. Zum einen sind die Publikationsnorm und die Norm des freien Datenaustauschs stark ausgeprägt. Auf der anderen Seite ergeben sich aus der Konzentration von Ressourcen in einigen großen Organisationen starke Führungsrollen. Auch wenn eine zunehmende Öffnung des Zugangs zu diesen Ressourcen stattfindet, ist dieser nicht völlig vom Ansehen, der Organisationszugehörigkeit oder dem Land, in dem ein Wissenschaftler arbeitet, unabhängig. Es gibt zwat neue Peer-Review50
Dieser Prozess ist tatsächlich völlig offen. So kommentierte der Autor dieses Beitrages – als Soziologe – die wissenschaftstheoretischen Annahmen, die in dem einleitenden Kapitel zur Geschichte des IPCCs formuliert wurden (Le Treut et al. 2007).
Offene Großforschung in der atmosphärischen Chemie?
201
Verfahren, die mehr Wissenschaftler einbeziehen, aber auch hier liegt keine vollständige Öffnung vor (was immer eine solche bedeuten könnte). Der Zugang zu Ressourcen und Förderprogrammen hängt somit nicht ausschließlich von der Reputation eines Wissenschaftlers, sondern auch von institutionellen Affiliationen (und bezahlten Stellungen in Forschungsorganisationen) ab. Dieser Zusammenhang geht zurück, auch wenn zu vermuten ist, dass er nicht völlig verschwinden wird. Die atmosphärische Chemie ist also nicht direkt mit den OpenSource-Philosophien der Informatik vergleichbar. Diese Bemerkung erfordert den Einwurf, dass die Idealform selbst in der Informatik nicht existiert. Die ökonomischen und organisatorischen Voraussetzungen, Zeit für ein nichtbezahltes Software-Projekt zu investieren, werden oft übersehen. Offenheit meint hier nicht, dass Forschung außerhalb von formalen Organisationen möglich wäre, sondern dass es – wie in der klassischen Wissenschaft – relativ unerheblich ist, ob ein Wissenschaftler an einer Universität oder an einem anderen Forschungsinstitut angestellt ist. Ein wesentliches Merkmal der Forschung in der atmosphärischen Chemie ist, dass sie sich weder ausschließlich durch Gemeinschaften noch durch formale Hierarchien beschreiben lässt, was die Frage nach der Steuerung und Kontrolle – kurz der Governance – aufwirft. Da diese hier nicht befriedigend beantwortet werden kann, soll eine vorläufige Hypothese formuliert werden: Die relative Öffnung ergab sich weniger aus einem ethischen Ideal (welches ohne Zweifel vorhanden war), sondern aus einer schnell wachsenden Zahl heterogener Organisationen, deren Gründung auf jeweils verschiedene politische aber auch innerwissenschaftliche Probleme zurückgeht. Mit ihrer steigenden Zahl wurden durchorganisierte Formen der Koordination genauso ineffektiv wie gemeinschaftliche unmöglich. Offenheit ist eine Lösung, die Wissenschaftlern eine Kooperation jenseits formaler Hierarchien erlaubt und gleichzeitig den Zugang zu den Infrastrukturen der Großforschung sichert. Tabelle 4 enthält eine unvollständige Liste von Organisationen, die sehr heterogene Entstehungsgründe und Funktionen haben (einige davon wurden in diesem im Text diskutiert). Sie sind für die Forschung deshalb wichtig, weil sie zwischen Wissenschaft und Politik vermitteln und die gesellschaftliche Unterstützung der Wissenschaft sicherstellen. Moderne Großforschungsprojekte sind nur noch selten innerhalb einer einzelnen Organisation angesiedelt. Häufiger werden sie durch die strategische Akkumulation von Ressourcen ermöglicht, die auf verschiedene Förderprogramme und Organisationen verteilt sind (Westfall 2003). In der atmosphärischen Chemie wuchsen solche Möglichkeiten in den 1990er Jahren immens. Zum einen brachen die ESA zusammen mit der russischen Raumfahrtagentur
202
Falk Schützenmeister
das NASA-Monopol bei der Satellitenbeobachtung. In der EU wurden nun zunehmend eigene Infrastrukturen zur Fernerkundung der Atmosphäre aufgebaut. Tabelle 4: Organisationen in der Klimaforschung. Beispiele in den USA, Deutschland und auf internationaler Ebene USA
Deutschland
Europäische und andere internationale Organisationen
Universitäten
Universitäten
Universitäten
Großforschungsorganisationen
National Laboratories, NCAR
MPI, Leibnizgesellschaft, Forschungszent- EU JRI ren, DKFZ
agencies
NOAA, EPA, DOE WMO: WDC, ECMWF
Datenzentren Standardorganisationen Weltraumbehörden
NASA
DLR
ESA
Forschungsförderung
NSF
DFG
EU Rahmenprogramme
Wetterdienste
NWS
DWD
WMO-Netzwerke
Fachorganisationen
AMS
IO3C, IAMAS, ICSU
Forschungsprogramme
z. B. US Global Chance z. B. DEKLIM (beenProgram det)
z. B. GARP, IGAC, IGBP, GAW
Assessment Panels
verschiedene nationale Assessments
WMO/UNEP: IPCC, Assessment Panel Ozone Depletion
Forschungspolitik
Regierungen auf föderaBundesregierung ler und teilweise auf bundesstaatlicher Ebene
nationale Assessments, z. B. WBGU
UNEP, WMO, NGOs, europäische Förderprogramme
Das organisatorische Feld der atmosphärischen Chemie ist gleichsam ein Medium, in dem die vorhandenen Ressourcen zu immer neuen Projekten geformt werden können. Corley et al. (2006) zeigen, dass Forschungskollaborationen – je nach dem Grad der Institutionalisierung einer Disziplin – sowohl durch disziplinäre Normen als auch durch formale Organisation gesteuert sein können. In der Atmosphärenwissenschaft sind die Verfahren, große Feldkampagnen zu
Offene Großforschung in der atmosphärischen Chemie?
203
organisieren, aber auch standardisierte Datenformate und Modellschnittstellen51 zunehmend Bestandteil diszipilinärer Normen. In diesem Aufsatz konnte nicht ausführlich auf die Rolle internationaler Fachorganisationen wie dem International Council of Scientific Unions (ICSU) und seinen disziplinären Unterorganisationen (z. B. IAMAS52) eingegangen werden. Aber gerade bei der Koordination und dem Rearrangement international verteilter Ressourcen haben sie eine wichtige Funktion. Diese ergibt sich aus der Tatsache, dass die meisten Förderprogramme immer noch national orientiert sind und internationale Kooperationen nicht direkt finanziell gefördert werden können. So haben internationale Forschungsprogramme wie das Global Atmospheric Research Program (GARP), das International Global Atmospheric Chemistry Program (IGAC) oder auch das International Geosphere-BiosphereProgram (IGBP) nur ein sehr kleines Budget, um ein Büro zu unterhalten. Sie koordinieren aber die nationalen Programme, sodass eine internationale Kooperation von Wissenschaftlern verschiedener Organisationen ohne den Austausch finanzieller Mittel möglich wird. Durch die Synchronisation nationaler Forschungsprogramme, in denen die Wissenschaftler unterstützt werden, die an internationalen Kooperatio-nen teilnehmen, werden internationale Projekte möglich. Eine gründliche Erforschung von open big science in verschiedenen Disziplinen könnte neue Antworten auf die Frage nach der Integration der modernen Wissenschaft bereithalten, die durch eine hohe Heterogenität von Forschungsorganisationen aber auch durch eine Vielzahl von sich überlappenden Problemgemeinschaften gekennzeichnet ist. Die offene Großforschung zeigt, das die Entgegensetzung von formalen und gemeinschaftlichen Organisationsprinzipien inadäquat ist. Offenheit – die nicht zuletzt als eine Antwort auf das Problem überorganisierter Forschung verstanden werden kann – garantiert den schnellen Wechsel zwischen den Modi. Sie ermöglicht die Bildung von Problemgemeinschaften über organisatorische Grenzen hinweg. Die Frage, in welchen Fällen ein Feld zur Offenheit neigt und in welchen andere Organisationsprinzipien überwiegen, erfordert Studien, die die epistemischen Strukturen, die benötigten und die vorhandenen Ressourcen, Forschungspolitiken und die Ökonomie von Reputationsmärkten in verschiedenen Disziplinen in den Blick nehmen.
51
52
Ein Beispiel ist der von der NASA entwickelte Earth System Modelling Framework (ESMF), der eine offene Modellentwicklung im Rahmen des NCAR Community Climate Modell (CCM) aber auch eine Kopplung von Felddaten mit Simulationen erlaubt. IAMAS, International Association of Meteorological and Atmospheric Sciences
204
Falk Schützenmeister
Literatur Albritton, Daniel L. (1999): The Atmosphere and Humankind: Our Related Futures. In: Brasseur et al. (1999): 551–552 Agrawala, Shardul (1998): Context and Early Origins of the Intergovernmental Panel on Climate Change. In: Climate Change 39. 4. 605-620 Andersen, Stephen O./Sarma, K. Madhava/Sinclair, Lani (2002): Protecting the Ozone Layer. The United Nations History. London: Earthscan Publications Auer, Sören/Braun-Thürmann, Holger (2008): Towards Bottom Up, Stakeholder Driven Research Funding – Open Science and Open Peer Review. Arbeitspapier. http://www.informatik.uni-leipzig.de/~auer/publication/OpenScience.pdf, letzter Aufruf 10.11.2008 Barnes, Barry/Henry, John/Bloor, David (1996): Introduction. In: Barnes et al. (1996): viii–xii BASC (1996): The Atmospheric Science. Entering the Twenty-First Century. NSF. Washington, DC: National Academy Press Barnes, Barry/Henry, John/Bloor, David (Hrsg.) (1996): Scientific Knowledge. A Sociological Analysis. London: University of Chicago Press Bensaude-Vincent, Bernadette (2001): The Construction of a Discipline: Materials Science in the United States. In: Historical Studies in the Physical & Biological Science 31. 2. 223-248 Brasseur, Guy P./Orlando, John J./Tyndall, Geoffrey S. (Hrsg.) (1999): Atmospheric Chemistry and Global Change. New York: Oxford University Press Brown, Gordon E./Sutton, Stephen R/Calas, Georges (2006): User Facilities Around the World. In: Elements 2. 1. 9-14 Bush, Vannevar (1980): Science, the Endless Frontier: A Report to the President on a Program for Post-War Scientific Research. New York: Arno Press Capshew, James H./Radar, Karen A. (1992): Big Science: Price to the Present. In: Osiris 2nd series 7. 1. 3-25 Christie, Maureen (2001): The Ozone Layer. A Philosophy of Science Perspective. Cambridge, MA: Cambridge University Press Chubin, Daryl E. (1985): Open Science and Closed Science: Tradeoffs in a Democracy. In: Science, Technology & Human Values 10. 1. 73-81 Clery, Daniel/Voss, David (2005): All for One and One for All. In: Science 308. 5723. 809 Collins, William/Bitz, Cecilia/Blackmon, Maurice et al. (2006): The Community Climate System Model Version 3 (CCSM3). In: Journal of Climate 19. 11. 2122-2143 Corley, Elisabeth A./Boardman, P. Craig/Bozeman, Barry (2006): Design and the Management of Multi-institutional Research Collaborations: Theoretical Implications from Two Case Studies. In: Research Policy 35. 7. 975-993 Crane, Diane (1972): Invisible Colleges: Diffusion of Knowledge in Scientific Communities. Chicago: University of Chicago Press
Offene Großforschung in der atmosphärischen Chemie?
205
David, Paul (2004): Understanding the Emergence of ‘Open Science’ Institutions: Functionalist Economics in Historical Context. In: Industrial and Corporate Change 13. 4. 571-589 DiMaggio, Paul J./Powell, Walter W. (1983): The Iron Cage Revisited: Institutional Isomorphism and Collective Rationality in Organizational Fields. In: American Sociological Review 48. 2. 147–160 Doel, Ronald E. (2003): Constituting the Postwar Earth Sciences. The Military Influence on the Environmental Sciences in the USA after 1945. In: Social Studies of Science 33. 5. 635-666 Etzkowitz, Henry/Leydesdorff, Loet (Hrsg.) (1997): Universities and the Global Knowledge Economy. London (u. a.): Casell Etzkowitz, Henry/Leydesdorff, Loet (1997): Introduction. Universities in the Global Knowledge Econom. In: Etzkowitz, Henry/Leydesdorff, Loet (1997): 1–8 Fleagle, Robert G. (2001): Eyewitness. Evolution of the Atmospheric Sciences. Washington, DC: American Meteorological Society Foster, Ian (2005): Service-Oriented Science. In: Science 308. 5723. 814-817 Fujimura, Joan H. (1987): Constructing ‘Do-Able’ Problems in Cancer Research: Articulating Alignment. In: Social Studies of Science 17. 2. 257-293 Funtowicz, Silvio O./Ravetz, Jerome R. (1993): Science for the Post-Normal Age. In: Futures 25. 739-754 Galison, Peter (1992): The Many Faces of Big Sciences. In: Galison, Peter/Hevly, Bruce (1992): 1-17 Galison, Peter/Hevly, Bruce (Hrsg.) (1992): Big Science. The Growth of Large-Scale Research. Stanford: Stanford University Press Gläser, Jochen (2006): Wissenschaftliche Produktionsgemeinschaft. Die soziale Ordnung der Forschung. Frankfurt a. M.: Campus Good, Gregory A. (2000): The Assembly of Geophysics: Scientific Disciplines as Framework of Consensus. In: Studies of the History and Philosophy of Modern Physics 31. 3. 259–292 Gramelsberger, Gabriele (2009): Computerexperimente. Zum Wandel der Wissenschaft im Zeitalter des Computers. Bielefeld: Transcript (Im Erscheinen) Grivell, Les (2006): Through a Glass Darkly. The Present and the Future of Editorial Peer Review. In: EMBO Reports 7. 6. 567-570 Grundmann, Rainer (1999): Transnationale Umweltpolitik zum Schutz der Ozonschicht. USA und Deutschland im Vergleich. Frankfurt a. M.: Campus Hagstrom, Warren O. (1965): The Scientific Community, Carbondale (u. a.): Southern Illinois University Press Hart, David M./Victor, David G. (1993): Scientific Elites and the Making of US Policy for Climate, 1957-1974. In: Social Studies of Science 23. 4. 643-680 Jackob, Nikolaus/Schoen, Harald/Zerback, Thomas (Hrsg.) (2008): Sozialforschung im Internet. Methodologie und Praxis der Online-Befragung. Wiesbaden: VS-Verlag Jang, Yong Suk (2000): The Worldwide Founding of Ministries of Science and Technology, 1950-1990. In: Sociological Perspectives 43. 2. 247–270 Kerr, Richard/Kintisch, Eli (2007): Nobel Peace Prize Won by Host of Scientists and One Crusader. In: Science 318. 5849. 372-373
206
Falk Schützenmeister
Kerr, Richard A. (1988): Stratospheric Ozone is Decreasing. In: Science 239. 4847. 1498-1491 Kinsella, William J. (1996): A ‘Fusion’ of Interests: Big Science, Government, and Rhetorical Practice in Nuclear Fusion Research. In: Rhetoric Society Quarterly 26. 4. 65-81 Knorr-Cetina, Karin (1999): Epistemic Cultures. Cambridge, MA: Harvard University Press Kwa, Chunglin (2001): The Rise and Fall of Weather Modification. In: Miller, Clarks A./Edwards, Paul, N. (2001): 135-166 Lambright, W. Henry (2005): NASA and the Environment. The Case of Ozone Depletion. Washington, DC: NASA Le Treut, H./Somerville, R./Cubasch, U. et al. (2007): Historical Overview of Climate Change. In: IPCC: Climate Change 2007: The Physical Science Basis. Cambridge, UK: Cambridge University Press. www.ipcc.ch/pdf/assessment-report/ar4/wg1/ar4wg1-chapter1.pdf, letzter Abruf 18.11.2008 Luhmann, Niklas (1990): Die Wissenschaft der Gesellschaft. Frankfurt a. M.: Suhrkamp Maurer, Stephen/Rai, Arti/Sali, Andrej (2004): Finding Cures for Tropical Diseases: Is Open Source an Answer?. In: PLoS Medicine 1. 3. e56–57 Mayntz, Renate/Neidhardt, Friedhelm/Weingart, Peter (Hrsg.) (2008): Wissensproduktion und Wissenstransfer. Bielefeld: Transcript McLauchlan, Gregory M./Hooks, Gregory (1995): Last of the Dinosaurs? Big Weapons, Big Science, and the American State from Hiroshima to the End of the Cold War. In: The Sociological Quarterly 36. 4. 749-776 Merton, Robert K. (1968): Social Theory and Social Structure. Enlarged Edition. New York: The Free Press Miller, Clark (2001): Hybrid Management: Boundary Organizations, Science Policy, and Environmental Governance in the Climate Regime. In: Science, Technology & Human Values 26. 4. 478-500 Miller, Clark A./Edwards, Paul N. (Hrsg.) (2001): Changing the Atmosphere. Expert Knowledge and Environmental Governance. Cambridge, MA: MIT Press Mulkay, Michael (1976): The Mediating Role of Scientific Elites. In: Social Studies of Science 6. 3-4. 445–470 Nebeker, Frederik (1995): Calculating the Weather. Meteorology in the 20th Century. San Diego (u. a.): Academic Press Nowotny, Helga/Scott, Peter/Gibbons, Michael (2001): Rethinking Science. Knowledge an the Public in an Age of Uncertainty. Cambridge, MA: Polity Press Parson, Edward A. (2003): Protecting the Ozone Layer. New York: Oxford University Press Pielke, Roger A./Glantz, Michael H. (1995): Serving Science and Society: Lessons from Large-Scale Atmospheric Science Programs. In: Bulletin of the American Meteorological Society 76. 12. 2445-2458 Polanyi, Michael (2000): The Republic of Science: Its Political and Economic Theory. In: Minerva 38. 1. 1–32 Remington, John A. (1988): Beyond Big Science in America: The Binding of Inquiry. In: Social Studies of Science 18. 1. 45-72
Offene Großforschung in der atmosphärischen Chemie?
207
Roan, Sharon (1989): Ozone Crises. The 15 Year Evolution of a Sudden Global Emergency. New York: Wiley Schilling, Govert (2000): The Virtual Observatory Moves Closer to Reality. In: Science 289. 5477. 238-289 Schroeder, Ralph (2007): e-Research Infrastructures and Open Science: Towards a New System of Knowledge Production. In: Prometheus 25. 1. 1-17 Schützenmeister, Falk (2008a): Zwischen Problemorientierung und Disziplin: Ein koevolutionäres Modell der Wissenschaftsentwicklung. Bielefeld: Transcript Schützenmeister, Falk (2008b): Disziplinarität und Interdisziplinarität in der atmosphärischen Chemie. In: Mayntz et al. (2008): 97-124 Schützenmeister, Falk/Bußmann, Maike (2008): Online-Befragungen in der Wissenschaftsforschung. In: Jackob et al. (2008): 242-256 Shrum, Wesley/Chompalov, Ivan/Genuth, Joel (2001): Trust, Conflict, and Performance in Scientific Collaborations. In: Social Studies of Science 31. 5. 681-730 Siebenhüner, Bernd (2002): How Do Scientific Assessments Learn? – Part 1. In: Environmental Science & Policy 5. 5. 411-420 Stichweh, Rudolf (1984): Zur Entstehung des modernen Systems wissenschaftlicher Disziplinen. Physik in Deutschland 1740-1890. Frankfurt a. M.: Suhrkamp Sundberg, Mikaela (2007): Mobilizing Networks: Researcher Roles in Atmospheric Science. In: Acta Sociologica 50. 3. 271-282 Taylor, Patricia A. (2005): The Organizational Formation of Atmospheric Science. In: The Social Science Journal 42. 4. 639-648 Tuck, A. F./Watson, R. T./Condon, E. P. et al. (1989): The Planning and Execution of ER-2 and DC-8 Aircraft Flights Over Antarctica, August and September 1987. In: Journal of Geophysical Research 94. 11181–11222 Uhlir, Paul F./Schröder, Peter (2007): Open Data For Global Science. In: Data Science Journal 6. 2007. 17. OD36-OD53, http://www.jstage.jst.go.jp/browse/dsj, letzter Aufruf: 06.11.2008. Weinberg, Alvin M. (1967): Reflections on Big Science. Cambridge, MA: The MIT Press Weingart, Peter (2001): Die Stunde der Wahrheit? Zum Verhältnis der Wissenschaft zu Politik, Wirtschaft und Medien.Weilerswist: Velbrück Wissenschaft Westfall, Christine (2003): Rethinking Big Science. Modest, Mezzo, Grand Science and the Development of the Bevalac, 1971-1993. In: Isis 94. 1. 30-56 Whitley, Richard (1984): The Intellectual and Social Organization of the Science. Oxford: Clarendon Press
208
Falk Schützenmeister
Tabellenverzeichnis Tabelle 1: Wissenschaftliche Gemeinschaften, die Beiträge zur atmosphärischen Chemie liefern Tabelle 2: Methodisch definierte communities in der AC Tabelle 3: Determinanten verschiedener Strategien der Datengewinnung in der atmosphärischen Chemie (logistische Regression, B-Koeffizient, Signifikanzniveaus * <.1, + <.5) Tabelle 4: Organisationen in der Klimaforschung. Beispiele in den USA, Deutschland und auf internationaler Ebene
Exzellent? Organisiert? Interdisziplinär? Zur Organisation interdisziplinärer Klimaforschung in außeruniversitären Forschungseinrichtungen Dagmar Simon
Vor nicht allzu langer Zeit war im deutschen Wissenschaftssystem die Organisation der Forschung noch eher ein Fremdwort und das (implizite) Leitbild der Forschung „in Einsamkeit und Freiheit“ konnte durchaus eine steuernde Wirkung zugeschrieben werden. Nicht zuletzt eklatante Mängel und Problemlagen in der Nachwuchsförderung, der Legitimationsbedarf außeruniversitärer Forschung in ihrer Existenz neben den Hochschulen, der auch in der Organisationsform seinen Ausdruck findet und generell die fortwährende Suche nach Innovationspotentialen in Wissenschaft waren Anlass, sich intensiver mit Organisationsformen und Strukturen der Hochschulen einerseits und der außeruniversitären Forschungslandschaft andererseits auseinanderzusetzen. Der Bedeutungszuwachs von Organisationsfragen kann unter anderem auch daran abgelesen werden, dass in den Evaluationen außeruniversitärer Forschungseinrichtungen neben Input- und Outputfaktoren, dem sogenannten Throughput, also den Produktionsbedingungen der Forschung, ein höherer Stellenwert bei der Beurteilung von wissenschaftlichen Leistungen beigemessen wird.1 Das jüngste Beispiel für diesen Bedeutungszuwachs ist die Exzellenzinitiative des Bundes und der Länder. Die Förderungsformate für die Forschungscluster und die Graduiertenschulen unterscheiden sich signifikant von bislang praktizierten Formen wie bspw. die Graduiertenkollegs und die Sonderforschungsbereiche und sie benötigen daher ausgeprägtere Organisationsformen und für die Steuerung eine managerielle Unterstützung. Hierfür wurde die Position eines „hauptamtlichen“ Geschäftsführers für die Aufgaben des Forschungsmanagements geschaffen und es bleibt zu beobachten, wie die Position ausgefüllt und welche Wirkungen und Nachhaltigkeit sie möglicherweise über Förderprogramme hinaus haben wird. Zurzeit befindet sich das deutsche Wissenschaftssystem in einer Umbruchsituation bzw. einem Transitionsprozess (Schimank/Lange 2007), der auf die Ebene der Gesamtorganisation Hochschule oder Forschungsinstitut ausgerichtet 1
So beispielsweise in den sogenannten Systemevaluationen des Wissenschaftsrats und in der Evaluation der Institute der Leibniz-Gemeinschaft.
210
Dagmar Simon
ist, mit aber durchaus durchschlagender Wirkung auf die interne Forschungsorganisation bis hin zur Projektebene, die uns im Folgenden interessieren wird. Zuvor wird auf die neueren Entwicklungen im Wissenschaftssystem kurz eingegangen, um dann den Fall der interdisziplinär angelegten Klimaforschung und die Möglichkeiten bzw. Notwendigkeiten ihrer Organisation darzustellen und mit einem vorläufigen Resümee zur Organisation von Interdisziplinarität abzuschließen.
1.
Loosely coupled organisations in Bewegung
Forschungs- und Lehreinrichtungen zeichnen sich im Vergleich zu anderen staatlichen Institutionen bislang durch einen geringen Grad an Formalisierung aus. Ayla Neussel bezeichnete die Struktur der Hochschulen als eine „brisante Mischung von struktureller Offenheit und kultureller Determiniertheit“, die eine Organisation besonderer Art konstituiert: „ein träges, unbewegliches Gebilde einerseits, das andererseits eine Summe von kleinen Fürstentümern unterhält, die clever und quirlig um eigenes Wohl und eigenen Vorteil feilschen, durchaus mit differenzierten Zielen, Verfahren und Resultaten innerhalb der eigenen Organisation“ (Neussel 1998). Zudem haben sich wissenschaftliche Einrichtungen mit externen Referenzsystemen auseinanderzusetzen, die nicht aus einem konsistenten Set von Regeln und Normen bestehen, sondern einen Strauß multipler und mehrdeutiger, zum Teil einander widersprechender Erwartungen darstellen. So werden insbesondere Hochschulen, aber auch zum Teil außeruniversitäre Forschungseinrichtungen in Bezug auf ihre interne Organisation als loosely coupled organizations (Weick 1976) bezeichnet, die sich durch Erwartungsunsicherheit und interne Fragmentierung auszeichnen. Gleichzeitig ist für Wissenschaftseinrichtungen ein ausgeprägtes strukturelles Beharrungsvermögen (Mayntz 1985) charakteristisch, was jenseits aller Unstrukturiertheit auf ein hohes Maß an Institutionalisierung schließen lässt. Weitgehende Veränderungen in der Macht und Ressourcenverteilung sind daher ohne breiten Konsens kaum durchsetzbar. Wissenschaft und Forschung – und damit ihre erzeugenden organisatorischen Kontexte wie die Hochschulen und außeruniversitären Forschungseinrichtungen – sehen sich in den letzten Dekaden einem verstärkten Legitimationsdruck ausgesetzt – der Ruf nach verstärkter Anwendungsorientierung der Forschung und Effizienzsteigerung des „Mitteleinsatzes“ ist unüberhörbar (vgl. Knie/Lengwiler 2007) –, und dies vor dem Hintergrund, dass die Erwartungen an wissenschaftliche Beiträge zur Sicherung der ökonomischen Wettbewerbsposition sehr hoch sind und Wissenschaft und Forschung vor allem für die Indust-
Exzellent? Organisiert? Interdisziplinär?
211
riestaaten, aber nicht nur für sie, die entscheidende Innovationsressource darstellt. In der hochschul- und wissenschaftspolitischen Diskussion spiegelt sich daher dieser grundlegende Wandel der gesellschaftlichen Legitimationsbedingungen von Wissenschaft wider (Krücken 2006). Damit verbunden ist ein erheblicher Vertrauensverlust in die wissenschaftliche Selbststeuerung, die zu neuen Modellen der Koordinierung öffentlicher Lehr- und Forschungseinrichtungen geführt hat. Ein zentrales Element für die Schaffung einer „neuen“ Legitimationsbasis für die Finanzierung sind die mehr und mehr flächendeckend eingeführten Evaluationen als Instrumente zur Überprüfung der Dignität und Relevanz ihrer wissenschaftlichen Leistungen. Als Zielgrößen neuer Steuerungsversuche gelten jedoch nicht nur die wissenschaftliche Qualität und gesellschaftliche Relevanz – letztendlich bezogen auf den volkswirtschaftlichen Nutzen von Wissenschaft und Forschung -, sondern auch die Steigerung der Effizienz bei der Mittelverwendung, die mit erhöhtem Wettbewerbsdruck erreicht werden soll. So entstehen im Rahmen des new public management neue Instrumente, die die Wettbewerbsorientierung bei der Produktion des wissenschaftlichen Outputs stärken sollen, jedoch unter Beibehaltung alter Governance-Formen2. Grundsätzlich kann in Bezug auf die Hochschulen nach de Boer et al. (2007: 138) zwischen fünf Arten der Governance unterschieden werden:
State regulation Stakeholder guidance Academic self-governance Managerial self-governance Competition.
Mit den unterschiedlichen Formen der Governance sind spezifische Akteurskonstellationen und –interessen verbunden: die des Staates an Rahmensetzung und Regulierung unter Hinzuziehung von Evaluationsverfahren, die der Stakeholder aus der Wirtschaft und anderen Bereichen, die bspw. zunehmend in Hochschulräten vertreten sind und als „Hüter“ gesellschaftlicher Relevanzkrite2
Der Begriff der Steuerung ist in der sozialwissenschaftlichen Diskussion mehr oder weniger ersetzt worden. Ich nutze hier bewusst beide Begriffe. Der Unterschied liegt vor allem in der eingenommenen Perspektive. Nach Renate Mayntz kann grob zwischen einer akteurszentrierten und einer institutionalistischen Perspektive unterschieden werden. Der Paradigmenwechsel von der Steuerung zur Governance erschwert es jedoch durch den Wegfall einer klaren Trennung zwischen Steuerungssubjekt und Steuerungsobjekt die Steuerbarkeitsproblematik systematisch anzusprechen. Beide Perspektiven schließen sich nicht aus, sondern können sich gegenseitig ergänzen (Mayntz 2005: 16 ff.).
212
Dagmar Simon
rien bei den Leistungen von Wissenschaft und Forschung fungieren, die der akademischen Selbststeuerungsmechanismen vor allem durch Peer-ReviewVerfahren sowie neue Formen von Anreiz- und Sanktionssystemen bspw. auf Grundlage leistungsorientierter Mittelvergaben, die vor allem die Position der Hochschulleitungen und auch die der Dekane stärken. Diese GovernanceLogiken führen dazu, dass zum einen eine marktorientierte Wettbewerbsituation simuliert wird, beispielsweise gewinnen die Evaluationen von Forschung und Lehre den Charakter von „Quasi-Märkten“. Auf der anderen Seite aber lassen die staatlichen finanziellen Rahmenbedingungen den Universitäten nach wie vor nur bedingte Bewegungsfreiheit, die Kameralistik schafft den neuen internen Steuerungsmodellen wenig Entfaltungsmöglichkeiten, weil die Mittelvergabe detailliert und weitgehend objektfixiert ist, ja gerade dazu erfunden wurde, unternehmerische Handlungen zu unterbinden. Auch im außeruniversitären Bereich – also der von Bund und Ländern grundfinanzierten Institute der Max-Planck-Gesellschaft, der FraunhoferGesellschaft, der Leibniz-Gemeinschaft und in den Helmholtz-Zentren - ist die Situation nicht viel anders: Kosten-Leistungs-Rechnungen und Programmbudgets mischen sich mit der Kameralistik und dem Beamtenrecht und lassen den Instituten wenig Möglichkeiten für autonome Spielräume. Diese Situation erklärt auch die zum Teil so vehemente Kritik an Evaluationen und Audits. Diese Verfahren zur Leistungsmessung und Budgetsteuerung werden im Wesentlichen als aufgesetzte, wirkungslose und der Bevormundung dienende Instrumente wahrgenommen, da ihre Konsequenzen vor allem mit Blick auf Struktur- und Organisationsfragen von den Einrichtungen kaum umgesetzt werden können. Diese Mixtur von neuen und alten Steuerungsinstrumenten, die einerseits auf das eigenverantwortliche Management von Institutionen setzten, andererseits aber Abhängigkeiten von staatlicher Regulierung und Reglementierung nicht abschaffen, kann durchaus zu widersprüchlichen Handlungslogiken mit paradoxen Effekten führen, die die Veränderungsbereitschaft „träger Organisationen“ nicht gerade befördern, sondern zusätzlich hemmen. Sie wirken sich auch direkt auf die interne Forschungsorganisation und –steuerung aus, bspw. mit Blick auf die Erhöhung des Outputs in Form von Drittmitteleinwerbungen, auf die Profilierung der jeweiligen Einrichtungen bis hin zur Personalrekrutierung und Organisation von Forschungsprojekten hinsichtlich der Optimierung von Effizienz und Effektivität. Ist mit Bezug auf vorrangige Evaluationskriterien bspw. die verstärkte Einwerbung von Drittmitteln en vogue, so kann dies durchaus zur Steigerung der Wettbewerbsfähigkeit der Forschungseinrichtung führen, sich aber auch auf die personelle und zeitliche Dimensionierung der Forschungsaufgaben nicht nur positiv auswirken; insbesondere für den hier interessierenden Fall einer voraussetzungsvollen Forschungsorientierung, der
Exzellent? Organisiert? Interdisziplinär?
213
interdisziplinären Forschung. So sind im Kontext neuer Steuerungsversuche im Wissenschaftssystem insbesondere die Evaluationen zur regelmäßigen Überprüfung der Qualität der Erzeugnisse wissenschaftlicher Einrichtungen das Instrument mit einer beträchtlichen Wirkungskraft, seien es nun intendierte oder nicht intendierte Effekte, seien sie angemessen für die Aufgabenstellung und das Profil des entsprechenden Instituts oder nicht (vgl. Röbbecke 2008, Simon 2008).
2.
Organisierte Interdisziplinarität?
Inter- und Transdisziplinarität sind wissenschaftspolitisch hoch im Kurs und der Wunsch nach einer verstärkten Orientierung der Produktion wissenschaftlichen Wissens auf diese Formen steht im engen Zusammenhang mit der Diskussionen über neue Formen der Wissensproduktion, die von vornherein Anwendungskontexte und Akteure gesellschaftlicher Praxisbereiche in die Generierung und Durchführung von Forschungsprojekten mit einbezieht und somit vermeintlich stärker praxisorientierte und – was hiermit oft synonym gesetzt wird - innovative Forschung auf den Weg bringen kann (Nowotny et al. 2003, Knie/Simon 2008). „Inter- and transdisciplinarity have become buzzwords: their political prestige and ongoing fascination among researchers, notably in the domain of environmental or health issues, seem to rest on the impression that going inter- or transdisciplinarity is ‚the right thing to do’ (…). Accordingly, transdisciplinarity research has generated a host of projects and programs at all levels of funding (local, national, EU).“ (Maasen/Lengwiler/Guggenheim 2006: 394).
Auch in der Exzellenzinitiative des Bundes und der Länder, eines Förderprogramms für die deutschen Universitäten in einem bislang unbekannten Umfang, wird Interdisziplinarität sowohl für die strukturierte Nachwuchsförderung in Graduiertenschulen als auch für Formen der kooperativen Forschung in den Exzellenzclustern groß geschrieben und gefördert. Inwieweit gerade sehr große Forschungsverbünde mit zum Teil an die 50 beteiligten Professoren/innen unterschiedlicher Disziplinen und die Doktorandenausbildung sich mit interdisziplinärer wissenschaftlicher Arbeit vereinbaren lassen, bleibt abzuwarten und zu beobachten.3 3
Erste Beobachtungen in einem Monitoring-Projekt der Exzellenzinitiative des Instituts für Forschungsinformation und Qualitätssicherung (iFQ) zeigen, dass zum Teil von vornherein auf den Anspruch einer inhaltlichen Integration zugunsten von Methoden verzichtet wird und die Doktorandenausbildung auf disziplinär angelegte Dissertationen orientiert ist, aber als add-
214
Dagmar Simon
Über die Voraussetzungen und Bedingungen organisatorischer und struktureller Kontexte, die eine erfolgreiche interdisziplinäre Kooperation ermöglichen können, ist der Forschungsstand in der Wissenschafts- und Organisationssoziologie noch recht überschaubar, wenn auch in den letzten zehn bis fünfzehn Jahren einige Arbeiten hierzu entstanden sind (bspw. Hohn 1998, Gläser/Meske 1996, Laudel 1999, im Zusammenhang mit der Innovationsfähigkeit etablierter Institutionen vgl. Hollingsworth 2002). Die Untersuchung von Renate Mayntz zum Forschungsmanagement von 1985, deren empirische Basis heterogene Institute der öffentlich finanzierten außeruniversitären Forschung sind, liefern immer noch wichtige Markierungen. Mayntz weist vor allem darauf hin, dass es kein für alle Einrichtungen gleichermaßen „optimales“ Organisationsmodell gibt, sondern die Organisationsstruktur stets der jeweiligen Aufgabe, der Größe, der Rechtsform und dem Finanzierungsmodus angemessen sein muss. Ferner geht sie auf Probleme der Aufbau- und Leitungsorganisation ein (Röbbecke/Simon et al. 2004: 22). Die Ergebnisse sind u. a. deshalb nach wie vor aktuell, da in den Evaluationen von Forschungseinrichtungen immer wieder das Problem auftaucht, dass für sehr unterschiedliche Institute mit unterschiedlichen Aufgaben und Zielen die selben Organisationsmodelle empfohlen werden, die sich zudem noch an wissenschaftspolitisch relevanten Zielen wie die Stärkung von Kohärenz und interner Kooperation orientieren müssen (Simon 2008). Die hier vorgestellten Ergebnisse gehen auf eine Studie zurück (Röbbecke/Simon et al. 2004), die einen ähnlichen Ansatz verfolgt und – ausgehend von differierenden Kontextbedingungen, Forschungspraxen und –praktiken unterschiedliche Interdisziplinaritätsstile in außeruniversitären Forschungsinstituten der Max-Planck-Gesellschaft, der Fraunhofer-Gesellschaft, der HelmholtzZentren und der Leibniz-Gemeinschaft untersucht hat. Dabei wurde an sozialkonstruktivistische Ansätze in der Wissenschaftsforschung angeknüpft. Die Begrifflichkeit „Interdisziplinaritätsstile“ rekurriert auf den Begriff der kontextabhängigen „Denkstile“ von Ludwik Fleck (Fleck 1999). In der Wissenschaftsforschung herrscht keine Einigkeit über eine Begriffsdefinition von Interbzw. Transdisziplinarität; in der sozial- und geisteswissenschaftlichen Forschung wird vor allem epistemischen Gesichtspunkten die Hauptaufmerksamkeit gewidmet. Die Forschungen zeichnen sich insgesamt durch eine gewisse Praxisferne aus. Für die o.a. Studie in der Umwelt- und Klimaforschung4 gilt folgende Definition von Interdisziplinarität als Orientierung:
4
on den Promovendinnen und Promovenden der Zugang zu und die Auseinandersetzung mit anderen Disziplinen ermöglicht wird. Die Studie bezieht sich auf zwei Felder: die Umweltforschung und die Sozialwissenschaften (einschließlich der Raumwissenschaften). Insgesamt wurden in acht Forschungseinrichtungen
Exzellent? Organisiert? Interdisziplinär?
215
„Inter- and transdisciplinarity are phenomena that can occur only after disciplines are defined and after those disicplines have occupied the main part of organized knowledge production in society. Interdisciplinarity than is a practice in which scientists from different disciplines work together. Interdisciplinarity is most often a temporary stage which either dissolves or leads to the founding of another new discipline“ (Massen/Lengwiler/Guggenheim 2006: 395).
3.
„Interdisziplinieren“
Für die verwendete Typologie von Interdisziplinaritätsstilen wurden zwei Dimensionen betrachtet: die der kognitiven Kopplung und des Organisationsgrads: kognitive Kopplung in Anlehnung an Whitleys Konzept der wechselseitigen Abhängigkeit zwischen den Disziplinen eines Forschungsfeldes und der Aufgabenunsicherheit (Whitley 1984); letztere Kategorie hat hier keine Bedeutung. Unter wechselseitiger Abhängigkeit wird sowohl die Interdependenz der Forschungsaktivitäten als auch die Integration von theoretischen Ansätzen, Methoden und Forschungsergebnissen verstanden. Hierbei kann zwischen einem lose gekoppelten Wissenschaftstyp, dem ein stabiler Konsens zwischen den Disziplinen über die Forschungsaktivitäten ebenso wie ein einheitliches Paradigma fehlt und einer engen Kopplung mit einer hohen kognitiven Aggregation und Integration des Forschungsfelds unterschieden werden. Für den Organisationsgrad sind folgende Dimensionen relevant: Formalisierung der Forschung (formalisierte Regeln von interdisziplinären Kooperationen sowohl auf Instituts- als auch auf Projektebene, u. a. Auflagen durch die drittmittelfinanzierte Förderung) und organisationale und soziale Differenzierung (vertikale und horizontale Differenzierung, Anzahl und Wirkungsmacht von Steuerungsinstrumenten). Auf dieser Grundlage können vier Interdisziplinaritätsstile destilliert werden: der charismatische, der methodische, der forschungspraktische und der heuristische (vgl. Röbbecke /Simon et al. 2004: 44). Der charismatische Interdiziplinäritätsstil zeichnet sich vor allem durch einen niedrigen Organisationsgrad und den Einfluss personenbezogener Faktoren als Steuerungsinstanz aus. Auf Institutsebene sind interdisziplinäre Forschungspraktiken kaum ausgebildet, sondern die entscheidende Organisationseinheit ist das Projekt. Dementsprechend sind Steuerungspraktiken stark dezentralisiert und zudem – das macht das „charismatische“ aus – hoch personalisiert: In der Regel ist es der Institutsleiter, der abteilungs- und institutsübergreifende interdisziplinäre Zusammenarbeit initiiert und stabilisiert. Neben diesem Faktor stellt über 80 Interviews mit den Institutsleitungen, Forschungsmanagern, Wissenschaftlern/innen und Doktoranden/innen geführt.
216
Dagmar Simon
die gemeinsame kognitive Orientierung etwa durch Methodenintegration ein stabilisierendes Element dar. Nachteilig wirkt sich dieser Interdisziplinaritätsstil durch die Notwendigkeit einer kontinuierlichen Präsenz aus. Ist die Institutsleitung abwesend, fehlt die entscheidende Integrationskraft. Zudem zeigt sich außerdem eine starke Pfadabhängigkeit der praktizierten Steuerungspraktiken. Der Versuch der Einführung neuer Organisationselemente und –instrumente ist höchst voraussetzungsvoll. Wie die Institutspraktiken zeigten, steht der Erfolg dieser Art der Steuerung im engen Zusammenhang mit der Institutsgröße: Große, komplexe Organisationen eignen sich hierfür nicht, vor allem nicht für die ausgeprägte Form der informellen Kommunikation und Interaktion. Eine ausgeprägte Anwendungs- und Marktorientierung der Forschungsprojekte steht für den heuristischen Interdisziplinaritätsstil. Auch hier ist die entscheidende Einheit die Projektorganisation, die mittels Projektmanagement und –controlling dezentral gesteuert wird, das heißt personenabhängige Faktoren treten deutlich in den Hintergrund. Beispiel ist ein leistungsbezogenes Gratifikationssystem als Anreiz zur Generierung neuer innovativer Forschungsvorhaben. Der Erfolg des Managements der interdisziplinären Projekte ist in hohem Maße auf tacit knowledge angewiesen, das auf langjähriger Arbeitserfahrung beruht. Somit spielen erfahrene Wissenschaftler/innen, die nicht nur kurzzeitig im Institut engagiert sind, eine entscheidende Rolle. Die Schattenseiten dieser marktförmigen Forschungspraxis mit einer ausgeprägten Wettbewerbsorientierung zeigen sich in den sehr begrenzten Möglichkeiten des interdisziplinären Austauschs und der Reflexion bspw. theoretischer und methodischer Aspekte. Interdisziplinäre Lernprozesse oder Rückkopplungen auf disziplinäre Wissensbestände kommen kaum vor. Im Vergleich zu den anderen Interdisziplinaritätsstilen ist der forschungspraktische die uneffektivste Kooperationsform. Nicht nur die kognitiven Anreize sind für interdisziplinäre Forschungen vergleichsweise schwach, auch organisationale Instrumente und Steuerungspraktiken sind nur schwach ausgeprägt. Es fehlt an theoretisch-konzeptuellen und an methodischen Orientierungspunkten für interdisziplinäre Zusammenarbeit; vielmehr ringen die Disziplinen um eine Art Vormachtstellung am Institut. Zudem erlaubt die hohe Autonomie der Abteilungen und starke Dezentralität der Forschungsorganisation nur in einem sehr begrenzten Maße eine erfolgreiche interdisziplinäre - also quer zu den disziplinär organisierten Abteilungen liegende - Organisationsform. Die hohe Anwendungsorientierung der Projekte setzt der Zusammenarbeit weitere Grenzen. Die hier interessierende Klimaforschung ist dem methodischen Interdisziplinaritätsstil mit einer engen kognitiven Kopplung und einem hohen Organisationsgrad zuzuordnen. Es ist hier allerdings darauf hinzuweisen, dass sich in allen Interdisziplinaritätsstilen die hohe Bedeutung der kognitiven Vorausset-
Exzellent? Organisiert? Interdisziplinär?
217
zungen des Forschungsfeldes und der Forschungsansätze für eine erfolgversprechende Ausgestaltung der kooperativen Forschungspraxis gezeigt hat. Für die enge Kopplung ist in den untersuchten Instituten der Klimaforschung der Modellierungsansatz maßgeblich für ein integratives Zusammenwirken der Disziplinen. Ein hoher Organisationsgrad steht im engen Zusammenhang mit der Institutsgröße, die Einrichtungen haben weit mehr als 100 Mitarbeiter/innen beschäftigt. Zudem wirken sie in einer Art nationaler Arbeitsteilung an einem oder mehreren der großen internationalen Forschungsprogramme mit bzw. übernehmen Koordinationsaufgaben. In den Instituten findet man sowohl eine traditionelle Abteilungsstruktur als auch ausdifferenzierte Matrixstrukturen mit eingebauten Querschnittselementen, die den Bedarf an stärker formalisierten Instrumenten der Organisation und Steuerung erhöhen. Gemeinsamkeiten ergeben sich vor allem auf der Ebene der Projektorganisation: In den Instituten ist der Aufwand für die Projektorganisation sehr hoch, da die Forschungsprogramme von großen, internationalen, langfristig angelegten Verbundprojekten mit einem hohen Organisations- und Koordinationsaufwand dominiert werden. Eine adäquate Projektorganisation ist aus der Sicht der beteiligten Wissenschaftler/innen jedoch noch keine Garantie für erfolgreiche interdisziplinäre Kooperationen, sondern personenbezogene Eigenschaften insbesondere der Projektleiter wie bspw. Offenheit, Neugier gegenüber anderen Disziplinen und die Bereitschaft, sich auf einen erhöhten Kommunikations- und Verständigungsbedarf einzulassen, werden angeführt. Was sich zunächst paradox anhört, steht bei den Klimaforschungsinstituten jedoch nicht unbedingt im Widerspruch, sondern ergänzt sich in einer eher „impliziten“ Art und Weise. Trotz der grundsätzlich positiven Wirkung organisationaler Steuerungsinstrumente ist eine stark organisierte Forschung bei den Wissenschaftlerinnen und Wissenschaftlern nicht besonders beliebt und es werden als Erfolgsindikatoren mehr die persönlichen Fähigkeiten der Projektmitarbeiter/innen, ihre individuelle Motivation, ihre fachliche und soziale Kompetenz oder gar ihre charismatische Autorität angeführt. Sie erklären sich aus den wissenschaftlichen Autonomieansprüchen, mit denen individuelle Leistungen vor externen Einflüssen geschützt werden sollen. Steuerungsinstrumente finden hohe Akzeptanz, wenn die Wissenschaftler/innen an ihrer Entwicklung teilgenommen haben und sie diskret eingesetzt werden. „Ebenfalls akzeptiert sind organisationale Strukturen, wenn sie als stummer Zwang wirken, d. h. in der alltäglichen Wahrnehmung nicht auffallen wie etwa der Modellierungsprozess selbst. Er dient nicht nur als methodischer Ansatz zur kognitiven Integration klimarelevanter Daten, sondern wirkt auch als struktureller Automatis-
218
Dagmar Simon mus zur sozialen und organisatorischen Integration der interdisziplinär zusammenarbeitenden Forscher/innen.“ (Röbbecke/Simon 2004: 76)
Sabine Maasen hat die magische Wirkung von der „organisierten Selbstorganisation“ und ihren Erfolg treffend beschrieben: “If there is such a thing as a golden rule, then it concerns the type of organizational activities: although indispensable, they have to be as implicit and as invisible as possible. They have to be part of the group’s self-organized procedure to produce a stimulating atmosphere“ (Maasen 2000: 190).
Bei der Untersuchung nicht nur der Institute der Klimaforschung, sondern auch anderer Umweltforschungsinstitute und der sozialwissenschaftlich ausgerichteten Einrichtungen wurde stets die Bedeutung der kognitiven Integration von den beteiligten Wissenschaftler/innen herausgestellt. Insofern stellt sich immer wieder die Frage nach der Reichweite von Organisation und Steuerung. Insbesondere übt das Ausmaß der disziplinären Differenzierung, je nachdem, ob verschiedene naturwissenschaftliche oder natur- und sozialwissenschaftliche Disziplinen kooperieren, einen entscheidenden Einfluss aus. Es hat sich jedoch auch gezeigt, dass die organisationalen Merkmale von Instituten und Projekten – vor allem das Institutsalter und die Institutsgröße – sowie interne Steuerungsinstrumente und -praktiken über den Erfolg oder Misserfolg von interdisziplinären Forschungsvorhaben mitentscheiden. Sie weisen jedoch eine hohe Pfadabhängigkeit auf. Gerade die Projektorganisation stellt einen entscheidenden Faktor und Ansatzpunkt für Steuerungsmöglichkeiten in der interdisziplinären Forschung dar, vor allem in den kritischen Phasen am Beginn und am Ende. Darüber hinaus entscheiden Rahmenbedingungen wie die Laufzeit, die Projektbearbeiter/innen (drittmittel- oder grundfinanziert) über Erfolg oder Misserfolg. Neben der Projektebene ist die Institutsorganisation von Bedeutung für Kooperationen und ihre erfolgreiche Implementierung. Gerade große Forschungseinrichtungen kommen nicht ohne ausgeprägte vertikale und horizontale Differenzierung in ihrer Struktur aus. Für die interdisziplinäre Forschung nachteilig ist etwa, dass Abteilungen dazu neigen, ein Eigenleben zu entwickeln und sich gegenüber anderen Abteilungen abzuschotten. Für eine erfolgreiche interne Kooperation ist ein internes Forschungsmanagement notwendig, das Forschungsaufgaben und Abteilungsbeteiligungen an abteilungsübergreifenden Projekten organisiert und aufeinander abstimmt und dabei die Interessen an übergreifender Zusammenarbeit und die Abteilungsinteressen austariert – eine höchst anspruchsvolle Aufgabe. Vor allem die Frage des Zeitbudgets der beteiligten Wissenschaftler/innen spielt eine entscheidende Rolle. Die Einrichtung von Anreizsystemen in den
Exzellent? Organisiert? Interdisziplinär?
219
wissenschaftlichen Einrichtungen kann dabei eine unterstützende Wirkung entfalten. Bei institutsinternen Steuerungspraktiken kann grundsätzlich zwischen formal organisierten und informellen „weichen“ Formen unterschieden werden. Zu den formal organisierten Steuerungsmöglichkeiten gehören finanzielle oder statusorientierte Anreize und Sanktionssysteme, die auf Qualitätsbeurteilungen oder quantitativen Indikatoren aufbauen. Formal organisierte Verfahren sind in den Instituten mit insgesamt hohem Organisationsgrad und einem hohen Drittmittelanteil anzutreffen. „Weiche“ Steuerungen, vor allem durch Leitungspersönlichkeiten, finden sich in allen Einrichtungen, vorzugsweise in denjenigen mit einem niedrigen Organisationsgrad und einem hohen Anteil an Drittmittelforschung. Diese Unterscheidung verläuft parallel zur Differenzierung zwischen großen und kleinen Instituten: schlanke Organisationsform und weiche Steuerungsinstrumente sind in kleinen Instituten effektiver als in großen. Es konnte zudem gezeigt werden, dass Reformen der Institutsorganisation wenig bewirken, wenn sie nicht auf den unmittelbaren Bedarf der Forschung reagieren und hierfür adäquate Instrumente zur Verfügung stellen. Der Fall eines Instituts illustriert, dass die Aufnahme von Querschnittselementen in der Institutsstruktur, die in erster Linie wissenschaftspolitische Empfehlung und weniger den Bedürfnissen der Forschenden folgt, disziplinäre Mauern nur begrenzt aufbrechen kann. Im kontrastierenden Fall eines anderen Instituts ist die Matrixorganisation mit den abteilungsübergreifenden Forschungsfeldern besser an die wechselnden Forschungsaufgaben angepasst. In vielen Gesprächen mit den Institutsmitarbeitern und -mitarbeiterinnen war eine deutliche Skepsis gegenüber einer starken Formalisierung von Institutsstrukturen und Prozessabläufen zu spüren. Selbst unter der Voraussetzung, dass interdisziplinäre Forschung einen höheren Organisations- und Koordinationsaufwand erfordert als disziplinäre, wird den informellen Interaktions- und Kommunikationsmöglichkeiten der Vorzug gegeben. Entsprechend wird der Kompetenz der Projektleitung und der personellen Zusammensetzung des Forschungsteams eine entscheidende Rolle eingeräumt. „Die Chemie muss stimmen“ – das war immer wieder zu hören. Somit hängt eine Erfolg versprechende personelle Zusammensetzung interdisziplinärer Forschungsvorhaben nicht nur von der disziplinären Exzellenz der einzelnen Wissenschaftler/innen ab, sondern auch von ihrer Fähigkeit zur interdisziplinären Zusammenarbeit und damit von ihrer sozialen Kompetenz. Somit kommt Rekrutierungspraktiken vor allem in Auswahlverfahren und ihren Eignungskriterien eine entscheidende Bedeutung zu. Ebenso notwendig erscheint die Entwicklung forschungsadäquater Controllinginstrumente, die gerade dann ihre Wirkung entfalten, wenn sich Notwendigkeiten zur Umsteuerung, auch in personeller Hinsicht ergeben.
220
Dagmar Simon
Zu weit verbreiteten Steuerungsinstrumenten in der Personalpolitik gehört die Befristung von Stellen des wissenschaftlichen Personals – wissenschaftspolitisch immer wieder gefordert, gerade auch in den Evaluationen. Die Nichtbeachtung wird auch durchaus sanktioniert (Wissenschaftsrat 1993). Allgemein gelten Forschungseinrichtungen mit einem hohen Anteil entfristeter Wissenschaftler und Wissenschaftlerinnen als wenig innovativ. Es zeigte sich jedoch, dass sich starre Befristungsregelungen auch nachteilig auf interdisziplinäre Forschung auswirken, vor allem weil mit dem Ausscheiden erfahrener Mitarbeiter zugleich deren implizites Wissen (tacit knowledge) verloren geht. Solche nicht intendierten Effekte von restriktiven Befristungsregelungen sind eine eigene Untersuchung wert. Ein letztes verbreitetes Steuerungsinstrument ist die Ausrichtung auf Drittmittelförderung. Die Drittmittelpolitik liegt allerdings nicht primär in den Händen der Institutsakteure, denn in den meisten Instituten gilt ein hoher Anteil an Drittmitteln im Institutshaushalt als Qualitäts- und Leistungsnachweis und wird wissenschaftspolitisch entsprechend wahrgenommen. Drittmittelprojekte mit relativ kurzen Laufzeiten und spezifischen Adressatenkreisen in Wissenschaftspolitik und Unternehmen sind nicht in jedem Falle förderlich für interdisziplinäre Kooperationen. Interessanterweise haben einige Institute begonnen ihre Einstellung gegenüber Drittmitteleinnahmen und ihrer stetigen Steigerung als Qualitätsmerkmal zu relativieren. Ein Institut hat sich beispielsweise in einer bestimmten Phase seiner Entwicklung auf die Begrenzung eines durchaus realisierbaren Institutswachstum verständigt, um die Bedingungen für die Durchführung interdisziplinärer Forschungsarbeiten nicht zu verschlechtern. Ein bereits anfangs angedeutetes Problem soll hier angesprochen werden: der oft harmonische Gleichklang, in dem interdisziplinäres und transdisziplinäres Forschungsdesign in einem Atemzug genannt werden, so als ob sich beide Formen der Bearbeitung komplexer Aufgaben gegenseitig bedingen und nur zwei Seiten einer Medaille darstellen. Gerade im Zusammenhang mit der drittmittelfinanzierten Forschung wurde deutlich, dass transdisziplinäre Forschung, die den direkten Praxisbezug einfordert und die entsprechenden Partner miteinbeziehen will, nicht den nötigen Freiraum für Interdisziplinarität geben kann, also Diskussionen verschiedener disziplinärer Forschungsansätze und Methoden, die in das entsprechende Projekt eingebracht werden sollen. Die ist oft zeitaufwendig, verlangt einen hohen Reflexionsgrad und (disziplinäre) Kompetenz der beteiligten Wissenschaftlerinnen und Wissenschaftler, die nicht unbedingt den Ansatz darstellt, um Praxispartner erfolgreich in Forschungsvorhaben zu integrieren. So werden häufig inter- und transdisziplinäre Organisationsfragen in einem Atemzug behandelt, dies ist vor dem Hintergrund spezifischer
Exzellent? Organisiert? Interdisziplinär?
221
Ausprägungen transdisziplinärer Forschung für die Schaffung von Voraussetzung für Interdisziplinarität problematisch: „In transdisciplinary research a multitude of new routines arise. There are usually several cooperating institutions involved, each with different routines (…). Transdisciplinarity, in contrast to disciplinarity, thus loosens its dependency on scientific procedures und introduces organizational, object-dependent and economical procedures“ (Maasen/Lengwiler/Guggenheim 2006: 397, vgl. Maasen/Lieven 2006, Pregernig 2006).
Es lässt sich zusammenfassen, dass interdisziplinäre Forschung dann am effektivsten organisiert wird, wenn die Steuerungsmittel diskret eingesetzt werden oder von den Projektbeteiligten mitgestaltet werden können – wenn also Wissenschaftlern/innen jene Austausch- und Gestaltungsmöglichkeiten zugesprochen werden, die notwendig sind, um mit den Unwägbarkeiten interdisziplinärer Forschung zurechtzukommen. Wie es keinen Königsweg für erfolgreiche interdisziplinäre Forschungskooperationen gibt, so kann es auch keine generalisierenden Empfehlungen für ihre Organisation und strukturellen Voraussetzungen und „Steuerung“ geben. Es geht um komplexe Prozesse der Forschungsorganisation, die zum Teil Ansprüche und Aufgaben integrieren müssen, die nicht in jeden Fall integrierbar sind. Dies betrifft auch und vor allem Evaluationen, die zwar dazu beitragen können, Komplexität zu reduzieren und auf Unvereinbarkeiten hinzuweisen, aber immer wieder die Gefahr in sich bergen, allgemeine und generalisierende Empfehlungen für ausdifferenzierte epistemische Praktiken der Wissenschaft abzugeben, die die erfolgreiche Organisation von Interdisziplinarität geradezu verhindern. Und bei allem Struktur- und Organisationsfragen muss zudem die prioritäre Bedeutung der kognitiven Integrationsleistungen der beteiligten Disziplinen bei interdisziplinärer Forschung ins Kalkül gezogen werden. In den neuen Exzellenzprogrammen für die Universitäten ist interdisziplinär angelegte Forschung ein entscheidender Faktor zur Beurteilung der Qualität der Anträge gewesen – sowohl für die Forschung als auch für die Nachwuchsförderung und oft in Verbindung mit dem Diktum anwendungs- oder praxisorientierter also transdisziplinärer Forschung. Transdisziplinäre Forschung setzt sicherlich interdisziplinäre Zugänge voraus, ob dies umgekehrt immer der Fall ist, bleibt zu bezweifeln, insbesondere unter dem Aspekt, dass hiermit „new mode of governing science in society“ (Massen/Lieven 2006: 407) verbunden sein können: „Transdisciplinarity is hence a way of enterprising science. It stands to reason that this new mode of governing science will become a new paradigm for all kinds of
222
Dagmar Simon knowledge production, bet he trans-, inter- or mono-disciplinary. Indeed (…) the ‚politics of accountability’ have already infiltrated academia at large“ (Maasen/Lieven 2006: 407).
Ob sich hier tatsächlich ein Paradigmenwechsel bemerkbar macht, bleibt zu beobachten. Auch die oben erwähnte Überlagerung von alten und neuen Governancemodellen und –praktiken im deutschen Wissenschaftssystem verstärkt noch eher das Problem, adäquate Organisations- und Strukturelemente in den Forschungseinrichtungen für interdisziplinäre Forschung zu etablieren.
Literatur De Boer, Harry/Enders, Jürgen/Schimank, Uwe (2007): On the Way towards New Public Management? The Governance of University Systems in England, the Netherlands, Austria and Germany. In: Jansen (2007): 130-146 Fleck, Ludwik (1999 [1935]): Entstehung und Entwicklung einer wissenschaftlichen Tatsache. Einführung in die Lehre vom Denkstil und Denkkollektiv. Frankfurt a.M.: Suhrkamp Gibbons, Michael/Limoges, Camille/Nowotny, Helga/Schwartzmann, Simon/Scott, Peter/ Trow, Martin (1994): The New Production of Knowledge. The Dynamics of Science and Research in Contemporary Societies. London: Sage Gläser, Jochen/Meske, Werner (1996): Anwendungsorientierung von Grundlagenforschung? Erfahrungen der Akademie der Wissenschaften der DDR. Schriften des Max-Planck-Instituts für Gesellschaftsforschung, Nr.25. Frankfurt a.M.: Campus Hasse, Raimund (1996): Organisierte Forschung. Arbeitsteilung, Wettbewerb und Networking in der Wissenschaft und Technik. Berlin: edition sigma Hohn, Hans-Willy (1998): Kognitive Strukturen und Organisationsprobleme der Forschung. Frankfurt a.M.: Campus Hollingsworth, J. Rogers (2002): Research Organisations and Major Discoveries in Twentieth-Century Science: A Case Study of Excellence in Biomedical Research. WZB-Discussion paper P 02-003, Wissenschaftszentrum Berlin für Sozialforschung. Berlin Jansen, Dorothea (Hrsg.) (2007): New Forms of Governance in Research Organisations. Dortrecht: Springer Knie, Andreas/Lengwiler, Martin (2007): Alibiveranstaltungen. Die Bedeutung von akademischen Spin-offs im Technologietransfer der Forschungspolitik. Discussion paper P 2007-101, Wissenschaftszentrum Berlin für Sozialforschung. Berlin Knie, Andreas/Simon, Dagmar (2008): Peers and Politics: Wissenschaftsevaluationen in der Audit Society. In: Schuppert/Voßkuhle (2008): 173-185 Krücken, Georg (2006): „Wandel – welcher Wandel? Überlegungen zum Strukturwandel der universitären Forschung in der Gegenwartsgesellschaft“. In: die Hochschule 1. 2006. 7-18
Exzellent? Organisiert? Interdisziplinär?
223
Laudel, Grit (1999): Interdisziplinäre Forschungskooperation. Erfolgsbedingungen der Institution „Sonderforschungsbereich“. Berlin: edition sigma Maasen, Sabine (2000): Inducing Interdisciplinarity: Irresistible Infliction? The Example of a Research Group at the Center for Interdisciplinary Research (ZiF), Bielefeld, Germany. In: Weingart/Stehr (2000): 173 –193 Maasen, Sabine/Lengwiler, Martin/Guggenheim, Michael (2006): Practices of Inter/Transdisciplinary Cooperation in Science. In: Science and Public Policy 33. 6. 394-398 Maasen, Sabine/Lieven, Oliver (2006): Transdisciplinarity: A New Mode of Governing Science? In: Science and Public Policy 33. 6. 399-410 Manytz, Renate (1985): Forschungsmanagement. Steuerungsversuche zwischen Scylla und Charybdis. Probleme der Organisation und Leitung von hochschulfreien, öffentlich finanzierten Forschungsinstitutionen. Opladen: Westdeutscher Verlag Manytz, Renate (2005): Governance Theory als fortentwickelte Steuerungstheorie? In: Schuppert (2005): 11-20 Matthies, Hildegard/Simon, Dagmar (Hrsg.) (2007): Wissenschaft unter Beobachtung. Effekte und Defekte von Evaluationen. Leviathan Sonderheft (24/2007). Wiesbaden: VS Verlag für Sozialwissenschaften Neussel, Ayla (1998): Annäherung an ein Forschungskonzept zur Untersuchung des Zusammenhangs von Geschlecht und Organisation der Hochschule. In: Teichler et al. (1998): 97-119 Pregernig, Michael (2006): Transdisciplinarity Viewed from Afar: Science-Policy Assessments as Forums for the Creation of Transdisciplinary Knowledge. In: Science and Public Policy 33. 6. 445-456 Röbbecke, Martina/Simon, Dagmar/Lengwiler, Martin/Kraetsch, Clemens (2004): InterDisziplinieren. Erfolgsbedingungen von Forschungskooperationen. Berlin: edition sigma Röbbecke, Martina (2007): Evaluation als neue Form der „Disziplinierung“ – ein nicht intendierter Effekt? In: Matthies/Simon (2007): 161-177 Schimank, Uwe/Lange, Stefan (2007): Hochschulpolitik in der Bund-LänderKonkurrenz. In: Weingart/Taubert (2007): 311-346 Schuppert, Gunnar Folke (Hrsg.) (2005): Governance-Forschung – Vergewisserung über Stand und Entwicklungslinien. Baden-Baden: Nomos Schuppert, Gunnar Folke/Vosskuhle, Andreas (Hrsg.) (2008): Governance von und durch Wissen. Wiesbaden: Nomos Verlag (im Erscheinen) Teichler, Ulrich (Hrsg.) (1998): Brennpunkt Hochschule. Frankfurt a M.: Campus Simon, Dagmar (2007): Als Konsequenz mehr Kohärenz? Intendierte und nicht intendierte Wirkungen von institutionellen Evaluationen. In: Matthies/Simon (2007): 178-192 Weik, Karl E. (1976): Educational Organisations as Loosely Coupled Systems. In: Administrative Science Quarterly 21. 1-19 Weingart, Peter/Stehr, Nico (Hrsg.) (2000): Practicing Interdisciplinarity. Toronto: University of Toronto Press Weingart, Peter/Taubert, Niels C. (Hrsg.) (2007): Das Wissenschaftsministerium. Weilerswist: Velbrück
224
Dagmar Simon
Whitley, Richard (1984): The Intellectual and Social Organization of the Sciences. Oxford: Clarendon Press Wissenschaftsrat (1993): Empfehlungen zur Neuordnung der Blauen Liste. Köln
V. Forschungspolitik
Wann ist konsensuelle Wissenschaft „Politische Wissenschaft“? Drei Paradoxien autoritativen Assessments Beverly Crawford1
1.
Einleitung
Die große Bedeutung wissenschaftlicher Assessment-Prozesse für die globale Umweltpolitik ist bekannt.2 In Fragen der Luftverschmutzung, der anthropogenen Ozonzerstörung und des Klimawandels scheinen wissenschaftliche Assessments der beste Weg, den Einfluss menschlicher Aktivitäten auf die Umwelt abzuschätzen, deren politische Regulierung einen immensen Effekt auf die Atmosphäre, das Klima und das Leben auf der Erde haben kann. Wird ein wissenschaftliches Assessment als „autoritativ“ betrachtet, stellt es einen wichtigen Schritt bei der Übersetzung wissenschaftlichen Wissens in eine politische Entscheidungsgrundlage dar, z. B. um die Luftqualität zu verbessern, die Ozonschicht wieder herzustellen oder auch den Klimawandel zu verzögern. Dies gilt sowohl auf nationaler als auch auf internationaler Ebene. Der US-amerikanische Kongress beauftragte 1975 die NASA mit der Einschätzung der Gefährdung der Ozonschicht durch Fluorchlorkohlenwasserstoffe (FCKW) und die NASAAssessments überzeugten letztlich den Kongress, bereits 1978 ozonzerstörende Substanzen als Treibmittel in Spraydosen zu verbieten. Auch bei der Ausgestaltung der UN Framework Convention on Climate Change (FCCC,) spielten wissenschaftliche Assessments eine entscheidende Rolle. Der Second Assessment Report des Intergovernmental Panel on Climate Change (IPCC) führte 1997 schließlich zur Verabschiedung des Koyoto-Protokolls, in dem erstmals international verbindliche Maßnahmen zur Reduktion von Treibhausgas-Emissionen festgelegt wurden. Wissenschaftliche Assessments haben ohne Zweifel die Macht, politische Prozesse anzutreiben. Dagegen wurde die Rolle wissenschaftlicher Assessments im harten Wettbewerb um Forschungsgelder, der zwischen den beteiligten Organisationen
1 2
Übersetzung von Falk Schützenmeister. Der Begriff „wissenschaftliches Assessment“ bezieht sich auf die Evaluation wissenschaftlichen oder technischen Wissens. Assessment Reports stellen eine Synthese aus verschiedenen Fakten, Daten, Modellen, Annahmen dar und/oder sie enthalten professionelle Urteile, die die Unsicherheiten in den verfügbaren Informationen überbrücken.
Wann ist konsensuelle Wissenschaft „Politische Wissenschaft“?
227
herrscht, bisher weniger untersucht. Die Atmosphärenwissenschaft3 ist auf sehr teure Forschungsinstrumente angewiesen, wie z. B. Satelliten zur Datenerhebung, Supercomputer für komplexe Simulationen und – weil die inhärent ungenaue Interpolation von Daten für abgelegene Gebiete anhand von Felddaten abgeglichen werden müssen – teuere Expeditionen. Autoritative Assessments, d. h. solche die eine große Überzeugungskraft im politischen Prozess haben, werden in der Regel von denselben politischen Akteuren in Auftrag gegeben, die auch die zugrundeliegende Forschung finanzieren. Die Mitarbeit an den Assessment-Prozessen erleichtert den beteiligten Organisationen den Zugang zu Forschungsmitteln, die wiederum eine Voraussetzung dafür ist, in dem harten Wettbewerb zu überleben und zu wachsen. Die beteiligen Organisationen stecken so in einem Dilemma: Es besteht ein großer Anreiz konkurrierende, noch bessere Assessments zu erstellen, um noch mehr Fördergelder zu erhalten. Die Assessments erlangen aber gerade dann die größte Autorität, wenn sie den Konsens der Wissenschaftler möglichst aller in diesem Feld aktiven Organisationen repräsentieren. Deshalb ist die Strategie zur Erlangung eines Konsenses und der Herstellung eines autoritativen Assessments entscheidend für das Wohlergehen, der mit den Assessments beauftragten Organisationen. In diesem Kapitel werde ich die Strategien der NASA nachzeichnen, die die Schaffung eines autoritativen Prozess zur Einschätzung des Ausmaßes und der Folgen der anthropogenen Ozonzerstörung zum Ziel hatten. Anschließend werde ich zeigen, wie das von der NASA entwickelte Verfahren auch für die Einschätzung des globalen Klimawandels und seiner Folgen übernommen und später im Rahmen des IPCC weiterentwickelt wurde. Dabei wurden die grundlegenden Probleme, mit denen die NASA konfrontiert war, innerhalb des IPCC reproduziert. Mein Argument ist, dass die beiden Ziele der politischen Einflussnahme und des organisatorischen Überlebens diese Assessments auf eine Weise geprägt haben, die das Risiko einer Verzerrung wissenschaftlicher Ergebnisse für politische Zwecke in sich birgt. Ich werde zeigen, dass das Streben nach einem breiten wissenschaftlichen Konsens, der für die autoritativen Assessments nötig ist, der wissenschaftlichen Methode zuwider laufen kann. Dies gilt besonders unter Bedingungen hoher Unsicherheit, durch die gerade die Klimaforschung geprägt ist. Während einflussreiche wissenschaftliche Assessments eine breite Teilnahme erfordern, um politisch relevant zu werden, gefährdet die breite Teilnahme gleichzeitig die wissenschaftliche Neutralität des Assessments. Konsensuelle Wissenschaft ist trotz institutioneller Vorkehrungen zur Entkopp-
3
Der Begriff Atmosphärenwissenschaft als Übersetzung des englischen atmospheric science wird hier verwendet, um die Disziplin von einzelnen Forschungslinien wie Ozon- oder Klimaforschung zu unterscheiden [Anm. des Übersetzers].
228
Beverly Crawford
lung von Wissenschaft und Politik mit dem Risiko konfrontiert, „politische Wissenschaft“ zu werden.
2.
Konzeptuelle Überlegungen
2.1. Die drei Paradoxien in der Beziehung zwischen Wissenschaft und Politik Wissenschaftliche Assessments können als boundary objects or boundary packages (Guston 2001) verstanden werden, die von boundary organizations produziert werden. Boundary organizations sind jene Organisationen, die wissenschaftliches Wissen produzieren oder verwenden, um politische oder ökonomische Ziele zu erreichen. Assessment-Prozesse und die Präsentation wissenschaftlicher Ergebnisse in Assessment-Reports sollen die Wissensproduzenten und die Anwender des Wissens in einen gemeinsamen Dialog einbinden. Ziel dieses Dialoges ist der Aufbau eines wechselseitigen Verständnisses dafür, was von der jeweils anderen Seite benötigt wird, was glaubwürdig gesagt werden kann und wie es gesagt werden kann, sodass sowohl die wissenschaftliche Glaubwürdigkeit als auch die politische Legitimität erhalten bleibt. Wissenschaftliche Assessments sind eine Form der Kommunikation, die sowohl für den politischen Prozess als auch für das Gedeihen wissenschaftlicher Organisationen in einer durch Konkurrenz geprägten Forschungslandschaft notwendig sind. Das ist eine schwierige, wenn nicht gar unlösbare Aufgabe. Auch wenn in der Wissenschaft und der Politik einige gemeinsame Werte geteilt werden und politische Akteure Begründungen für Entscheidungen in der wissenschaftlichen Rationalität suchen, sind Wissenschaft und Politik wie Öl und Wasser. Politik ist subjektiv, Wissenschaftler sind dagegen um Objektivität bemüht. Politik ist ein Weg normative Ziele durchzusetzen, während die Wissenschaft eine Methode der Entdeckung neutraler Fakten ist. Die Politik ist eine Auseinandersetzung um konkurrierende Werte; Wissenschaft betont dagegen die Wertfreiheit der Forschung. Wissenschaft will verstehen, Politik versucht zu kontrollieren und zu steuern. Machtstreben kennzeichnet die Politik, die Wissenschaft sucht Wahrheit. Politische Rhetorik ist durch Selbstsicherheit geprägt, während Vorsicht, Respekt und Unsicherheit die wissenschaftliche Methode bestimmen. Politik ist durchsetzt mit moralischen Fragen; Wissenschaft – in ihrem Bemühen neutral, wertfrei und rational zu sein – enthält sich gewöhnlich moralischer Urteile. In der Folge sind wissenschaftliche Assessments als boundary packages, die Wissenschaftler und politische Akteure miteinander verbinden, mit drei Paradoxien konfrontiert: dem Konsens-Paradox, dem Evidenz-Paradox und dem Präsentations-Paradox. Erstens, Assessments werden in einem konsensuellen
Wann ist konsensuelle Wissenschaft „Politische Wissenschaft“?
229
Prozess entwickelt, der für den politischen Prozess in jeder Demokratie unabdingbar ist, aber in einem Widerspruch zur wissenschaftlichen Methode steht. Zweitens, haben Wissenschaft und Politik unterschiedliche Standards dafür, was überzeugende Fakten konstituiert. Letztlich erfordert wissenschaftliche Strenge eine vorsichtige Darstellung der Ergebnisse, während die Präsentation von Positionen im politischen Prozess forsch und überzeugend sein muss, um gehört zu werden.
2.2. Das Konsens-Paradox Die Notwendigkeit des Konsensus ergibt sich daraus, dass politische Akteure nach Sicherheit suchen, wenn sie sich beraten lassen. Konsens über Forschungsergebnisse reduziert Unsicherheit. Je sicherer die Schlüsse sind, zu denen ein Assessment kommt, desto wahrscheinlicher ist es, dass sie innerhalb der politischen Debatte als ein Fakt akzeptiert werden. Weil Assessments gewöhnlich in einem bestimmten Zeitintervall angefordert werden, werden die Wissenschaftler innerhalb des politischen Prozesses dazu ermuntert, relativ schnell zu einem Konsens zu kommen. Aber Forschung benötigt gewöhnlich viel Zeit. Der durch die Politik vorgegebene Bedarf für schnellen Konsens reduziert die Vielfalt der Perspektiven und den Respekt vor der Unsicherheit, die für die wissenschaftliche Methode so grundlegend sind. Viele Autoren argumentieren jedoch, dass in der politischen Debatte von der Wissenschaft ein Konsens verlangt werde, bevor alle Fakten geprüft und gesichert sind, damit die Krise mit angemessenen politischen Mitteln abgewendet werden kann (Lambright 2005, Funtowicz 1993). Konsens ist ein politisches Konzept, kein wissenschaftliches. Tatsächlich ist die Natur der wissenschaftlichen Methode nicht-konsensuell und vom Testen konkurrierender Hypothesen abhängig, die stets offen für Korrektur oder gar vollständige Falsifikation sein sollten. Wissenschaftliche Wahrheit kann nicht durch Abstimmung erreicht werden; jeder wissenschaftliche Fortschritt wurzelt in Ideen, die nicht mit der herrschenden Meinung übereinstimmten. In einer historischen Perspektive: Es war einst Konsens, dass die Erde flach ist, dass die Sonne um die Erde kreist und dass ein Atom nicht spaltbar ist. Konsensuelle Wissenschaft kann nur eine Illusion von Sicherheit vermitteln. Wenn Konsens an die Stelle der Vielfalt der Perspektiven tritt, sind die Fakten möglicherweise nur die Perspektive der einflussreichsten Akteure oder Organisationen. Eine Vielfalt der Perspektiven mindert jedoch den politischen Einfluss der Wissenschaft. Das Problem des wissenschaftlichen Konsenses tritt verstärkt in der Klimaforschung auf. Die Einschätzungen des Klimawandels und seiner Folgen erfor-
230
Beverly Crawford
dert die Kooperation von Wissenschaftlern unterschiedlicher Disziplinen, Kooperationen zwischen denen, die die Modelle entwickeln und denen, die diese verwenden, ebenso wie zwischen Wissenschaftlern, die Daten erheben und solchen, die die Daten aus den verschiedenen Disziplinen verwenden, um ihre Hypothesen zu testen. Das Erreichen eines Konsenses zwischen so verschiedenen Wissenschaftlern ist der Natur nach ein politisches Unternehmen. Hinzu kommt, dass der Konsens in der Klimaforschung fragmentiert ist: Zwar kann unter den Ozeanographen, den Meteorologen, den Chemikern oder den Atmosphärenphysikern ein disziplinärer Konsens erreicht werden. Allerdings wird nur selten ein Konsens über die Grenzen dieser Disziplinen hinweg erreicht. Daher führt der Begriff Konsens etwas in die Irre.
2.3. Das Evidenz-Paradox Die wissenschaftliche Debatte darüber, wie die Fakten erzeugt werden, die zum Testen von Hypothesen herangezogen werden, um einen höheren Grad der Sicherheit zu erlangen, steht im Widerspruch zur Notwendigkeit, nützliche Politiken zu entwickeln. Darin besteht das Evidenz-Paradox. Computersimulationen, die mit mathematischen Methoden die physikalischen Prozesse der Atmosphäre modellieren, sind anfällig für große Fehler, die sich aus kleinen Fehlern im Input ergeben können. Vergleiche von Beobachtungsdaten mit Modelläufen können zu einem höheren Grad des Vertrauens in die Modelle führen. Gemessen an den traditionellen wissenschaftlichen Methoden ist die Qualität solcher Forschung aber „dubios at best“ (Funtowicz 1995). Qualitative Methoden wie beurteilende Schätzungen erzeugen keine Evidenz gemäß den klassischen Kritieren noch können aus ihnen Informationen über die Quellen und den Grad der bestehenden Unsicherheiten abgeleitet werden. Viele Beobachter argumentieren, dass die Politik nicht darauf warten kann bis die langwierige wissenschaftliche Methode belastbare Ergebnisse erzeugt, wenn es um den ökologischen Zustand der Erde geht. Vertrauen in die wissenschaftliche Methode und empirische Beobachtungen allein scheinen nicht angemessen für die Klimaforschung und Reflektionen über die Methodologie können politische Entscheidungen unendlich lange verzögern. Experimente sind schwierig, da die Atmosphäre und das Klima nicht manipuliert werden können oder sollen. Empirische Beobachtungen müssen über einen langen Zeitraum durchgeführt werden und das gesamte Erdsystem einbeziehen, um belastbare Daten über eine Ozonreduktion oder eine Klimaerwärmung zu erhalten. Kurz: die Atmosphärenwissenschaft bietet nur wenige „do-able research problems“ (Fujimura 1987).
Wann ist konsensuelle Wissenschaft „Politische Wissenschaft“?
231
2.4. Das Präsentations-Problem Das Präsentations-Problem legt nahe, dass nicht nur konsensuelles Wissen, sondern seine die Darstellung zur Erreichung spezifischer Ziele wichtig ist. Wie das Wissen präsentiert wird hat einen großen Einfluss auf den politischen Entscheidungsprozess. Assessments, die auf unsicheren Ergebnissen beruhen, können auf unterschiedliche Weise repräsentiert werden, die jeweils unterschiedliche Ergebnisse im politischen Prozess zeitigen können. So kann z. B. der kleinste gemeinsame Nenner herausgestellt werden, dem alle Wissenschaftler zustimmen können, was allerdings zu minimalen politischen Interventionen führen dürfte. Alternativ kann ein Worst-Case-Szenario präsentiert werden, um die Unterstützung für maximale politische Interventionen zu erlangen. Die Darstellung kann also die Abwesenheit von Konsens bezüglich wichtiger Fragen herausstellen, was oft dazu führen dürfte, dass gar keine Maßnahmen ergriffen werden. Oder, Ergebnisse können als eine Spanne der niedrigsten und höchsten Einschätzungen repräsentiert werden, was den Entscheidungsträgern erlaubt, unterschiedliche Positionen mit denselben Assessments zu begründen. Wissenschaftler mögen auch geneigt sein, Assessments auf eine Weise zu präsentieren, die gewünschte Ergebnisse außerhalb der Politik erzielt, z. B. zusätzliche Forschungsmittel oder die Stärkung der Position ihrer Organisation. Die Versuchung, die sich aus dem Präsentationsparadox ergibt, besteht darin, die Normen der wissenschaftlichen Forschung zugunsten politischer Zweckdienlichkeit zu opfern. Angesichts dieser drei Paradoxien sind autoritative Assessments sowohl in den Händen von Wissenschaftlern als auch in denen der Politiker scharfe Waffen. Politiker neigen dazu Assessments, deren Ergebnisse auszuwählen, die ihre Positionen stützen. Zur Durchsetzung umweltpolitischer Regulierungen und dem Verbot bestimmter Aktivitäten, werden sie nach Assessments suchen, die eine hohe Sicherheit der Schlüsse ausweisen und die entsprechenden Maßnahmen empfehlen. Auf der anderen Seite mögen Politiker, die eine Regulierung verhindern wollen, nach Assessments suchen, die einen höheren Grad der Unsicherheit ausweisen, um ihre Präferenz für geringere politische Eingriffe zu bestärken. Nur selten ändern Politiker ihre Kernagenda angesichts wissenschaftlicher Assessments, es sei denn diese enthalten Warnungen vor Folgen katastrophalen Ausmaßes. Wissenschaftler mögen dagegen diese Warnungen veröffentlichen und apokalyptische Szenarien entwickeln, um von den Politikern gehört zu werden. Stellt sich aber heraus, dass solche Warnungen falsch oder überzogen waren, werden die Organisationen mit hoher Wahrscheinlichkeit bestraft, z. B. durch den Entzug von Forschungsmitteln oder dem Verlust von Glaubwürdigkeit. Kurz: Wissenschaftler, die sensationelle Einschätzungen vornehmen
232
Beverly Crawford
werden zu politischen Akteuren und riskieren die organisatorischen Konsequenzen, wenn sich herausstellt, dass sie sich geirrt haben.
2.5. Strategien für die Herstellung autoritativer Assessments: ‚big tents’ und bestimmende Monopole Angesichts dieser Paradoxien scheinen wissenschaftliche Assessments weniger autoritativ zu sein, als wenn man sie unter den Teppich kehren würde. Politiker brauchen jedoch Assessments, die zumindest einen Hauch von Autorität ausstrahlen, um ihre politische Agenda zu stützen. Deshalb ziehen sie es vor, die oben entfalteten Paradoxien zu ignorieren. Politische Akteure brauchen Assessments, die einen breiten Konsens – oder zumindest den Anschein eines solchen – repräsentieren. Sie brauchen diese Assessments schnell und in einer Form der Darstellung, die ihre spezifischen Ziele unterstützt. Um diese Anforderungen zu erreichen, beauftragen Politiker häufig lead agencies, d. h. führende (Regierungs-) Organisationen mit der Erzeugung eines wissenschaftlichen Konsens, der in einem Assessment mündet, welches als autoritativ betrachtet werden kann. Lead agencies sind deshalb wichtig, weil, wie zuvor ausgeführt, viele verschiedene Assessments den Einfluss oder die „Autorität“ jedes einzelnen schwächen. Wenn mehrere Organisationen Assessments erstellen, wächst die Versuchung, sich von den jeweils anderen durch die Betonung der Differenzen zu unterscheiden. In einem durch Konkurrenz gekennzeichneten Umfeld wird jede Organisation versuchen, ihr Assessment überzeugender darzustellen als das der anderen. Lambright verweist darauf, dass Politiker angesichts konkurrierender Assessments dazu neigen, die Unterschiede mehr zu beachten als die Ähnlichkeiten, selbst dann wenn die den Assessments zugrundeliegenden Informationen die gleichen sind. Mit einem einzelnen – autoritativen – Dokument hat die politische Gemeinschaft dagegen eine konstante Basis, auch wenn dieses eine weite Spanne von Ansichten repräsentiert (nach Lambright 2005). Selbst wenn die kritische Prüfung von Hypothesen den Kern der wissenschaftlichen Methode ausmachen, müssen autoritative Assessments so präsentiert werden, dass sie von niemanden in Frage gestellt werden. Daraus ergibt sich der politische Vorteil einer lead agency bei der Herstellung von Assessments. Die Aufgabe einer lead agency ist es, die Wissenschaftler aller relevanten Organisation in einem „großen Zelt“ (big tent) zusammen zu bringen und die konkurrierenden wissenschaftlichen Ergebnisse und Meinungen so lange zu diskutieren, bis ein Konsens über ein endgültiges Dokument erzielt werden kann. Um dieses Ziel zu erreichen, benutzt die big tent Strategie die Verantwort-
Wann ist konsensuelle Wissenschaft „Politische Wissenschaft“?
233
lichkeit für den Assessment-Prozess als Hebel, um einen großen Teil der Wissenschaftler zu erreichen und dazu zu bewegen, Beiträge zu liefern. Es entsteht das, was Funtowicz (1995) eine peer community nennt. Die lead agency muss Allianzen unter den Wissenschaftlern verschiedener Organisationen und – im Fall der Klimaforschung – auch verschiedener Länder schmieden. Weil die Atmosphärenwissenschaft auf grenzüberschreitende Daten angewiesen ist, muss das big tent Wissenschaftler aus der ganzen Welt beherbergen. Es wird eine kritische Masse benötigt, in der ein Konsens erreicht werden kann, selbst dann wenn es einzelne Dissidenten gibt. Wenn eine lead agency glaubt, dass eine solche kritische Masse erreicht ist, geht sie davon aus, dass sie ein bestimmendes Monopol (commanding monopoly) der relevanten Expertise hat und somit eine autoritative Bewertung des vorhandenen Wissens abgeben kann. Lambright schreibt, dass Politiker solche bestimmenden Monopole in der Regel willkommen heißen, weil sie auf einen starken Konsens verweisen. Ein starker Konsens und eine geringe Zahl von Dissidenten (oder auch schwache Argumente für die Position der Dissidenten) beschränken die Zeit, die Politiker benötigen, die Assessments zur Kenntnis zu nehmen, und erhöhen gleichzeitig die Glaubwürdigkeit und die Autorität der Assessments. Die big tent Strategie sieht sich aber mit zwei Problemen konfrontiert. Das erste ergibt sich aus dem Gruppendruck. Indem eine lead agency eine Gruppe von Wissenschaftlern um den Assessment-Prozess versammelt, entsteht ein indirekter oder auch subtiler Druck, einen Konsens zu erreichen oder auch Dissidenten zum Schweigen zu bringen. Auch wenn Wissenschaftler aufgrund ihres professionellen Ethos immun gegen Gruppendruck sein sollten, argumentieren manche Autoren, dass die Wissenschaftler eine Gruppe bilden, die nicht mehr oder weniger rational oder objektiv ist als andere Gruppen in der Gesellschaft auch (Smolin 2006, Woit 2006). Ein bestimmendes Monopol von Wissenschaftlern kann in einzelnen Fällen sogar Kultstatus erlangen. Obwohl Dissidenten in der Wissenschaft nicht durch direkten Druck zum Schweigen gebracht werden können, ist anzunehmen, dass sich einige angesichts der übermächtigen dominierenden Meinung dafür entscheiden zu schweigen, entweder aus Resignation oder in Rücksicht auf die zukünftige Karriere. Das zweite Problem tritt auf, wenn das big tent zu groß wird, d. h. wenn die peer communities auch politische Akteure einschließen. Wenn die Politiker selbst ein Teil des Assessment-Prozesses werden, bedeutet dies, dass Wissenschaftler und Politiker in einer extended peer community die Assessments gemeinsam erstellen. Selbst wenn der Assessment-Prozess auf diese Weise demokratischer erscheint, verlieren die Assessments damit ihre wissenschaftliche
234
Beverly Crawford
Autorität. Kurz: Mit der expliziten Verbindung von Wissenschaft und Politik im big tent, geht die Integrität der Wissenschaft verloren (Funtowicz 1995).
3.
Die Rolle und die Probleme des autoritativen Assessments bei der NASA
Die entfalteten Probleme können am Beispiel der Rolle der NASA in der Ozonund Klimapolitik illustriert werden. In den USA der 1970er Jahre fand das Ausmaß der Umweltverschmutzung und -zerstörung durch menschliche Aktivitäten zunehmend die Aufmerksamkeit der Öffentlichkeit und der Medien. In der Folge schuf die US-Regierung eine Vielzahl von Organisationen, die an der Grenze von Wissenschaft und Politik angesiedelt, mit der Aufgabe betraut wurden, zu beurteilen, inwiefern verschiedene Ergebnisse der Atmosphärenwissenschaft als Grundlage einer Umweltpolitik dienen konnten. So wurde 1970 die Environmental Protection Agency (EPA) geschaffen und etwas später das National Climate Program mit dem Ziel aufgelegt, die Erforschung des globalen Klimawandels zu fördern. Als lead agency für die Erforschung und die Erstellung von Assessments der anthropogenen Schädigung der Ozonschicht, setzte der USKongress allerdings einen überraschenden Kandidaten ein: die National Aeronautics and Space Administration (NASA), deren ursprüngliche Mission in der Erkundung des Weltraums und der Entwicklung neuer Flugzeugkonzepte bestand.
3.1. Wie die NASA die Führung übernahm Die NASA wurde als eine typische boundary organization gegründet. Ausgelöst durch den Start des sowjetischen Sputniks, des weltweit ersten Satelliten und angesichts der resultierenden Befürchtung, im Kalten Krieg ausgerechnet auf dem Gebiet der Technologie verwundbar zu sein (Crawford 1993), rief die USRegierung 1958 die NASA ins Leben. Deren primären Ziele bestanden in der Erforschung der Luftfahrt und des Weltalls, in der Entwicklung von Raumfahrttechnologien und der Durchführung von Weltraummissionen.4 Weil diese aber auch ein umfangreiches Wissen über die Atmosphäre voraussetzen, erforschten NASA-Wissenschaftler von Beginn an auch die Lufthülle der Erde. 4
Lange wurden die Geo- und Atmosphärenwissenschaften von militärischen Technologieentwicklungen bestimmt. Das Interesse reichte von der chemische Kriegsführung, über neue Aufklärungstechniken bis hin zur Untersuchung der Dicke des Eisschildes, die für den Einsatz von U-Booten mit ballistischen Raketen von Bedeutung ist (Neumann 1955).
Wann ist konsensuelle Wissenschaft „Politische Wissenschaft“?
235
In der Mitte der 1960er Jahre erkannte die NASA-Führung zunehmend, dass die Fernerkundung aus dem All eine große Rolle für die Geowissenschaften spielen könnte. Die NASA trug selbst zu einer neuen Sicht auf die Erde bei. Bevor die Astronauten den Planeten aus dem Weltall beobachten konnten, herrschte die Meinung vor, dass die Erde eine unerschöpfliche Quelle von Rohstoffen sei und die massiven menschlichen Eingriffe überdauern könne. Aufnahmen der Erde aus dem Weltall und extraterrestrische Forschungen brachten nun zu Bewusstsein, dass sie ein relativ kleiner und empfindlicher Planet ist. Die NASAFührung suchte das US Department of Interior und das US Department of Agriculture vom Wert einer umfangreichen Beobachtung der Erdoberfläche zu überzeugen – Vorhaben, die noch mehr Fördermittel für die NASA nach sich ziehen sollten. Gleichzeitig benutzten NASA-Wissenschaftler vorhandene Mittel, um die dafür benötigten Instrumente zu schaffen. Im Jahr 1965 wurde das Earth Resources Survey Program (ERS) aufgelegt, um Methoden zu entwickeln, mit denen die Atmosphäre und natürliche Ressourcen aus dem Weltall erkundet werden können. Als 1967 drei Astronauten wegen der fehlerhaften Verkabelung einer Raumkapsel ums Leben kamen, geriet die Förderung von bemannten Raumfahrmissionen zeitweilig in Gefahr. Bei der NASA versuchte man daraufhin, das Aufgabenspektrum zu erweitern und vor allem mehr Regierungsgelder für die Fernerkundung der Erde einzuwerben. In der Atmosphärenforschung ergab sich 1972 eine perfekte Nische, als NASA-Wissenschaftler herausfanden, dass die Abgase der Space Shuttle möglicherweise die Ozonschicht schädigen könnten. Die Ozonschicht in der oberen Atmosphäre filtert das schädliche UV-Licht der Sonne und verhindert so, dass es die Erdoberfläche erreichen kann. Mit den Abgasen der Space Shuttle würden enorme Mengen verschiedener Chlorverbindungen in die Atmosphäre gelangen, von denen die Wissenschaftler annahmen, dass sie die schützende Ozonschicht zerstören könnten. Die NASA-Wissenschaftler informierten die Politiker in Washington über diesen Konflikt: die Weltraumforschung kann die Erde schädigen. Die Wissenschaftler würden mehr Geld benötigen, um sichere Weltraumtechnologien zu schaffen. Mehr noch, die Erforschung der potentiellen Umweltfolgen der Space Shuttle erzeugte überraschende und sehr wertvolle Daten über die Luftverschmutzung durch andere Substanzen. Die NASA-Offiziellen verstanden es, ihren Ausgangsvorteil in der Umweltforschung zu nutzen, indem sie sich auf die Schaffung und die Kontrolle der wichtigsten Forschungstechnologien konzentrierten. Die NASA startete 1972 den Earth Resources Technology Satellite (ERTS), der später in Landsat umbenannt wurde. Bereits 1975 hatte dieser über 100.000 Bilder übermittelt, die 75% der Erdoberfläche abdeckten.
236
Beverly Crawford
Der von der NASA betriebene Landsat entwickelte sich rasch zu einem unschätzbaren Instrument mit sehr breiten Anwendungsmöglichkeiten. Anhand von Landsat-Aufnahmen konnten Geowissenschaftler aller Gebiete nun regelmäßig die greifbaren Folgen des menschlichen Handelns für das Erdsystem beobachten. Der US Forest Service wollte Landsat-Bilder, um die globale Waldverteilung zu kartieren. Das Landwirtschaftsministerium brauchte sie für das Monitoring der jahreszeitliche Vegetationsdynamik. Landsat-Daten wurden benutzt, um die Produktivität von Fischereigewässern zu modellieren, die Lebensräume von Vögeln zu kartieren oder gar, um Muster im wechselnden Landbesitz festzustellen. Der Erfolg von Landsat ermöglichte es der NASA, zusätzliche Forschungsmittel einzuwerben und ein ganzes Netzwerk von Instrumenten, Büros und Workshops zur Beobachtung der Erde und der Atmosphäre einzurichten. Dabei entwickelten die NASA-Wissenschaftler auch einen neuen Satelliten zur Beobachtung der oberen Atmosphäre. Der Upper Atmosphere Research Satellite (UARS) diente in erster Linie dem globalen Monitoring der Ozonschicht. Bei der NASA wurde das Upper Atmosphere Research Office (UARO) eingerichtet, um die Daten über die Ozonschicht zu sammeln, Feldexperimente durchzuführen und Forschungsgelder einzuwerben. Das UARO spielte dabei eine Doppelrolle als Verteiler von Forschungsmitteln und als verantwortliche Stelle für die Abfassung von Assessments. Die NASA sponserte auch organisationsübergreifende Workshops, auf denen die zukünftige Erforschung des menschlichen Einflusses auf die Erde diskutiert wurde (Lambright). Auch wenn andere private und Regierungsorganisationen um die Mittel in der Umweltforschung konkurrierten, sicherten Landsat und UARS die Abhängigkeit der Umweltforschung von NASA-Technologien. Da die NASA nahezu über ein Monopol der Forschungsinstrumente verfügte, befand sie sich in einer guten Ausgangsposition, die Führung zu übernehmen, als der US-Kongress ein großes, organisationsübergreifendes Programm zur Erforschung der oberen Erdatmosphäre ausschrieb. Die primäre Sorge in Washington war die Ozonschicht. Atmosphärenchemiker stellten die Hypothese auf, dass eine durch Chlorradikale verursachte Zerstörung der Ozonschicht und die damit verbundene höhere UV-Exposition auf der Erdoberfläche katastrophale Folgen haben würde, z. B. einen drastischen Anstieg der Hautkrebsfälle, die Beschädigung von Pflanzen und die Reduktion von Plankton in den Ozeanen. In welchem Ausmaß war die Ozonschicht bereits beschädigt? Wie stark trugen von den Menschen produzierte Substanzen zur Ozonreduktion bei? Welche Formen der Regulierungen würde den Schaden mindern können? Wenn Politiker nach Antworten auf diese Fragen suchten, wandten sie sich zunehmend an die NASA und das UARO. Im Ergebnis verwal-
Wann ist konsensuelle Wissenschaft „Politische Wissenschaft“?
237
tete das UARO mehr als 70% der stattlichen Forschungsmittel, die zu Erforschung der Ozonschicht aufgebracht wurden. Als der Kongress 1977 eine Ausweitung des Clean Air Acts beschloss, beauftragte er die NASA damit, alle zwei Jahre ein Assessment des Standes der Ozonforschung vorzunehmen. Als die Reagan-Administration an die Macht kam, benutzte die Regierung die Assessments zu einem anderen Zweck. Die Kongress-Debatte über weiterführende Regulierungen ozonzerstörender Substanzen wurde in einem aufgeheizten Umfeld geführt, in dem sich die Lobbyisten der Chemieindustrie und Umweltgruppen gegenüberstanden. Angesichts dieser Situation war die Betonung der Notwendigkeit zusätzlicher Forschung ein Weg auf der einen Seite politische Verantwortung zu demonstrieren und auf der anderen Seite Eingriffe der Regierung zu verhindern, die im Widerspruch zur republikanischen Ideologie stehen. Der Wettbewerb um den Status als lead agency und damit verbundene Fördermittel war hart, schließlich sicherte die Rolle der führenden Organisation den Zustrom von Finanzen in der Zukunft. Dies setzte voraus, dass die Assessments der lead agency auch in Washington als autoritativ betrachtet wurden. Um dies zu erreichen, entwickelte die NASA eine Reihe von cleveren big tent Strategien, um auch andere US agencies ins Boot zu holen und so den Wettbewerb abzumildern und teilweise durch Kooperation und Konsens zu ersetzen. Robert Watson, der damalige Leiter des UARO begann das big tent mit partizipativen Strategien zu errichten, wie sie von Lambright bezeichnet werden. Auch wenn der Assessment-Auftrag einst allein an die NASA erging, überzeugte Watson die Federal Aviation Agency (FAA) und vor allem ihren großen Konkurrenten in der Atmosphärenforschung, die National Oceanographic and Atmospheric Administration (NOAA), den Assessment-Report von 1982 gemeinsam herauszugeben. Nach der Entdeckung des Ozonlochs im Jahre 1986 überzeugte er Wissenschaftler aus anderen Organisationen und der Industrie, an den NASA-Forschungsexpeditionen in die Antarktis teilzunehmen. Auch außerhalb der USA suchte Watson Verbündete und gewann die World Meteorological Organization als einen Co-Sponsor der Assessments. Die WMO verfügte über das Bodenmessnetzwerk zur Ozonmessung. Die NASA-Satelliten waren von diesem Netzwerk abhängig. Wie Lambright (2005: 12) schreibt: „Watson (...) saw ’sharing credit’ as a way to enhance influence“ sowohl unter Wissenschaftlern in den USA als auch im Ausland. Die big tent Strategie zielte nicht nur darauf, die Position der NASA zu stärken und die Fördermittel für das UARO sicherzustellen; sie versuchte auch den Gesetzgebungsprozesses durch den Errichtung eines bestimmenden Monopols direkt zu beeinflussen. Wenn Watson Wissenschaftler mit verschiedenen Perspektiven dazu bewegen konnte, an der Erstellung der Assessment-Reports teilzunehmen, würde dieses Dokument entsprechend größere Autorität in der
238
Beverly Crawford
Politik genießen. Während die Forschungsförderung durch den Kongress als eine politische Strategie betrachtet werden kann, weiterführende Gesetzgebungsprozess zu verschieben, nutzten die Vertreter der NASA ihren Auftrag dazu einen Konsens zu erzeugen, der den Druck für weiterführende Regulierungen erhöhte. Der Erfolg war aber schwer zu fassen. Bereits 1978 hatte der Kongress ein Verbot von Fluorchlorkohlenwasserstoff (FCKW) in Spraydosen beschlossen, später aber weitere Regulierungen gestoppt, weil er sie für wirtschaftlich nicht vertretbar hielt. Vor 1980 existierten mehrere periodische Assessments über die anthropogene Ozonzerstörung, die von verschiedenen Organisationen und in verschiedenen Ländern erstellt wurden. Hinzu kamen die Arbeiten einzelner Wissenschaftler aus verschiedenen Spezialgebieten, deren Themenspektrum von der Computersimulationen des Klimas über Gletscher bis hin zu Sonnenflecken reichte, um die Ursachen der Ozonreduktion zu bestimmen. Angesichts dieser Situation verwendeten die Politiker mehr Zeit darauf, die Unterschiede zwischen den verschiedenen Einschätzungen des Problems als deren Gemeinsamkeiten zu finden. Für manche Politiker war die Vielfalt der Assessments aus so unterschiedlichen Quellen ein willkommener Anlass, keinerlei Maßnahmen zu ergreifen und das Geld in politisch stärker präferierte Programme zu leiten. In diesem politischen Umfeld und in einem Forschungsgebiet, das auf globale Daten angewiesen ist, war das US-amerikanische big tent nicht groß genug, um die Politik effektiv zu beeinflussen. Ein überzeigender internationaler Konsens wurde benötigt, um weiterführende Regulierungen ozonzerstörender Substanzen durchzusetzen. Watson bedauerte, dass das NASA-Assessment nur eines von vielen war. Er wusste, dass er, um tatsächlich einen Einfluss auf die Politik auszuüben, die Strategie der Erstellung der Assessments internationalisieren musste. Deshalb begann Watson, auch jenseits der US-Grenzen nach Verbündeten zu suchen. Er fand bald heraus, dass die internationale wissenschaftliche Gemeinschaft begonnen hatte, große Anstrengungen zu unternehmen, um den globalen Wandel zu erforschen. So standen Fragen wie die Wüstenbildung, die Verschmutzung der Ozeane, der Klimawandel und die Zerstörung der Ozonschicht auf der Tagesordnung. Ausgestattet mit der NASA-Technologie, den organisatorischen Ressourcen des UARO und der Allianz mit der WMO, begann Watson den Konsens zu organisieren, der für ein autoritatives Assessment benötigt wurde. In Zusammenarbeit mit der WMO organisierte die NASA über 30 Workshops, deren Ergebnisse in den NASA-Assessment Prozess eingespeist wurden. Insgesamt nahmen in diesem zweijährigen Prozess 150 Wissenschaftler aus 11 Ländern teil. Die Namen und die Herkunftsländer der Wissenschaftler sowie ihre organi-
Wann ist konsensuelle Wissenschaft „Politische Wissenschaft“?
239
satorischen Affiliationen wurden in das NASA-Assessment von 1986 aufgenommen, das auch dem US-amerikanischen Kongress vorgelegt wurde. Ausgestattet mit dieser eindrucksvollen Liste von Wissenschaftlern, wurde der Bericht mit dem Titel Present State of Knowledge of the Upper Atmosphere: An Assessment Report dem Kongress als ein Statement des wissenschaftlichen Konsenses präsentiert. Dieser Report schlussfolgerte, dass die existierenden Modelle einen Ozonverlust von 5 bis 8% am Ende des 20. Jahrhunderts voraussagten. Bezogen auf das antarktische Ozonloch schloss der Report: „What was once mainly based on theoretical predictions is now being confirmed by observations.“ (Weisburd 1986) Ermutigt durch den Erfolg des Reports, rief die NASA das internationale Ozone Trend Panel – bestehend aus 100 Wissenschaftlern – ins Leben, um kontinuierliche Messungen der Ozonschicht vorzunehmen. Das OTP sollte in den vorliegenden Ozondaten nach einem statistischen Trend suchen, der eine tatsächliche Abnahme des Ozon belegen könnte. Dieser Nachweis konnte allerdings erst 1988 erbracht werden. Der NASA war es gelungen ein bestimmendes Monopol über die Führung der Ozonforschung zu erlangen. In der Wiener Konvention wurde diese autoritative Rolle explizit festgelegt. Im Jahr 1987, führten die wachsenden wissenschaftlichen und öffentlichen Sorgen um die Ozonzerstörung dazu, dass die USA und zunehmend auch die Regierungen anderer Länder einen internationalen Vertrag, das Montrealer Protokoll unterzeichneten, das die Produktion von ozonzerstörenden Substanzen einschränkte. Es war vor allem ein Verdienst Watsons, dass das US Department of State in Zusammenarbeit mit der EPA sich zu einer internationalen Kooperation in der Umweltpolitik entschied, die zur Verabschiedung des Montrealer Protokolls führte. Auch wenn die Ergebnisse des Ozone Trend Panel erst nach der Verabschiedung des Montrealer Protokolls erschienen und so die Verhandlungen nicht mehr direkt beeinflussen konnte, machte der Bericht vor allem Eindruck auf die Industrie. DuPont kündigte schon bald Pläne an, seine FCKW-Produktion ganz einzustellen, und erklärte, dass diese Entscheidung auf den Ergebnissen des Ozone Trend Panel beruhe. DuPonts Ankündigung stärkte die öffentliche Position der NASA zusätzlich. Der Konzern zitierte den Report als den ersten überzeugenden Beweis für eine Verbindung von FCKW und Ozonzerstörung. Besonders nach dem Challenger-Unglück von 1986, bei dem sieben Astronauten ums Leben kamen, begann sich die NASA auch in anderen Bereichen der Umweltwissenschaft zu engagieren. Die Untersuchung des menschlichen Einflusses auf den Zustand der Erde schien eine sichere und lukrativere Strategie als die bemannte Raumfahrt, besonders als der Kongress wieder einmal drohte, die Finanzmittel für das Weltraumprogramm zu reduzieren. Der Erfolg von Watsons big tent Strategie zur Erreichung eines wissenschaftlichen Konsen-
240
Beverly Crawford
ses, stützte das Monopol der NASA in der Ozonforschung und schien die Organisation für eine breite Führerschaft auf anderen Gebieten der Umweltforschung vorzubereiten.
3.2. Die NASA macht mit den drei Paradoxien Bekanntschaft und engagiert sich in „politischer Wissenschaft“ Aber am Ende ging die NASA zu weit und scheiterte. Nach dem ChallengerUnglück präsentierte Dr. Sally K. Ride, einst die erste Amerikanerin im Weltall, dem Kongress ein geplantes Forschungsprojekt mit dem Titel Mission to Planet Earth (MTPE), das der NASA den Aufbau von Forschungskapazitäten ermöglichen sollte, um sowohl den natürlichen als auch den durch menschliches Handeln verursachten globalen Wandel vorherzusagen. Mit der MTPE sollte eine enorme Vielzahl von Messreihen erhoben werden, darunter die globale Wolkendecke, die Biosphäre, die Eisschicht, die Niederschlagsmengen, die Meeresspiegel, das Chlorophyll der Ozeane, die Bewegung der Kontinentalplatten, die weltweiten Ozonkonzentration, sowie die Konzentrationen von Methan und Kohlendioxid. Auch wenn der US-Kongress anfangs euphorisch reagierte, flossen die Fördermittel aber nur spärlich. James Hansen, der damalige Direktor des NASA Goddard Institut for Space Studies warb 1988 vor dem Senat für die MTPE. Er sagte aus, dass er „zu 99% sicher sei, [dass, B.C.] der [durch den Menschen verursachte, B.C.] Treibhauseffekt nachgewiesen worden sei, und dass dieser das Klima bereits jetzt verändert“ (Shabecoff 1988). Über seine Aussage, die auf Computermodellen und Temperaturmessungen beruhte, wurde ausführlich in den Medien berichtet, und in kürzester Zeit gelange der Begriff „Treibhauseffektes“ in das Bewusstsein der Öffentlichkeit. Die wissenschaftlichen peers wendeten dagegen ein, das Hansen weit über die verfügbaren Daten hinausgegangen sei, als er seine Aussage als bereits gesicherte Erkenntnis präsentierte. Hansen glaubte dagegen, dass die Welt einen Weckruf brauchte. Sein Timing war perfekt: 1988 hatte in den USA eine Dürre gravierende ökonomische Probleme verursacht. In diesem „Klima“ berichteten die Medien ausführlich über das Kongress-Statement Hansens, und innerhalb nur einer Woche hatte sich der „Treibhauseffekt“ von einem wissenschaftlichen Begriff zu einem Schlagwort der Medien gewandelt. Am Ende des Jahres, bezeichnete das Time-Magazin „unsere gefährdete Erde“ als den „Planeten des Jahres“, und George H.W. Bush, der sich damals im Präsidentschaftswahlkampf befand, versprach, den „Treibhauseffekt mit dem WhiteHouse-Effekt“ zu bekämpfen (Bill McKibben in: Boston Globe, „Too Hot to Handle“, 5. Februar 2006).
Wann ist konsensuelle Wissenschaft „Politische Wissenschaft“?
241
Hansen hatte die Grenze zwischen Wissenschaft und Politik klar überschritten. In seinem Bestreben ein politisches Ziel zu erreichen, ignorierte er die wissenschaftlichen Normen. Wie die Rhetorik aller politischen Akteure wurde seine Ansicht als gesicherte Erkenntnis präsentiert, womit er die Normen der Vorsicht und des Respekts vor der inhärenten Unsicherheit wissenschaftlicher Aussagen verletzte. Wie bereits oben erwähnt, ist die Zuverlässigkeit von Computermodellen, auf deren Basis Hansens Aussagen beruhten, gemessen an den traditionellen Methoden der Wissenschaft unklar, selbst dann, wenn sie mit beobachteten Temperaturveränderungen übereinstimmen mögen. Tatsächlich hält die Debatte über Hansens Klimaprojektionen von 1988 bis heute an. Hansen sprach für sich selbst, nicht für die NASA. Dennoch wurde die Warnung vor der Gefahr einer globalen Erwärmung der NASA zugeschrieben und die dadurch ausgelöste Sorge führte zur Vergabe neuer Forschungsmittel an die NASA und für die MTPE. Robert Watson wollte hingegen nicht, dass die Ozonforschung vernachlässigt wurde. Er sah, dass sich die Ozonforschung bisher vor allem auf die Antarktis konzentrierte, eine mögliche Ozonabnahme über der Arktis aber bisher nicht erforscht wurde. In den Jahren 1988 und 1989 mobilisierte er die Messkapazitäten der NASA und über einhundert Wissenschaftler aus fünf verschiedenen USagencies und Universitäten und einer Industriegruppe, um zwei großangelegte Messkampagnen in der Arktis durchzuführen. Tatsächlich wurde über der Arktis eine hohe Konzentration von Chlormonoxid festgestellt, von der die Wissenschaftler glaubten, dass sie auf FCKWEmissionen zurückgeführt werden können. Sie konnten dagegen keinen Ozonverlust über der Arktis nachweisen. Die NASA-Offiziellen diskutierten nun, was zu tun sei. Einige plädierten für eine Fortführung der Forschung, bis die Ergebniss belastbarer waren. Andere argumentierten dagegen, dass zu dem Zeitpunkt der Vorlage dieser Ergebnisse die Beschädigung der arktischen Ozonschicht bereits irreversibel sein könne. Wieder einmal war man mit dem EvidenzParadox konfrontiert. Angesichts der öffentlichen Reaktionen auf James Hansens Treibhauseffekt-Statements, konnte sich letztere Gruppe durchsetzten. Der endgültige Entwurf des Forschungsbericht sagte er mit hoher Gewißheit eine signifikante Ozonabnahme über der Arktis voraus. Später stellte heraus, dass die NASA denjenigen Wissenschaftlern, die diese Schlüsse in Zweifel zogen, einen Maulkorb angelegt hatte. Lambright zitiert einen Wissenschaftler, der darauf bestand, anonym zu bleiben: „You either go along with [NASA, B.C.] or you stay out of its way.“ Bei der NASA herrschte ein „Gruppendenken“, wobei Druck ausgeübt wurde, einen Konsens herzustellen. Das Konsens-Paradox trat zu Tage: Nur die Perspektive derer, die sich in der Debatte durchgesetzt hatten, fand in dem For-
242
Beverly Crawford
schungsreport Eingang. Alternative Perspektiven wurden zurückgehalten und abweichende Stimmen ruhig gestellt. So schienen die Ergebnisse auf einem Konsens zu ruhen. Schließlich war NASA-Führung auch mit dem Präsentations-Paradox konfrontiert. Sollte der Report aussagen, dass keine klare Verbindung zwischen denn Chlorkonzentrationen und den FCKW hergestellt werden konnte? Oder sollte er ein Worst-Case-Szenario ausführen? Man entschied sich für die zweite Alternative. Unabhängig von den nichtbelastbaren Ergebnissen, veröffentlichte die NASA eine ernsthafte Warnung vor einem unabhängigen Ozonloch über der Antarktis und forderte eine Beschleunigung der FCKW-Regulierung. Die Washington Post veröffentlichte „Projektionen“, die von 300.000 zusätzlichen Hautkrebsfällen zum Ende des Jahrhunderts ausgingen und eine Zunahme ansteckender Krankheiten, inklusive AIDS befürchteten (Lambright 2005: 32). Ein Leitartikel im Time Magazine verwies auf den überwältigenden Beweis dafür, dass die Ozonschicht „is being eaten away by manmade chemicals far faster than any scientist had predicted.“ Die Situation sei schrecklich, warnte Time, „This unprecented assault on the planets life support system could have more horrendous long-term effects on human health, animal life, the plants that supports the food chain, ad just about every other strand that makes the delicate web of nature.“ (Lambright 2005: 32). In dieser angstgeladenen Atmosphäre brachte Senator Al Gore einen Gesetzesvorschlag ein, die FCKW-Produktion bereits 1995 völlig einzustellen und der Senat stimmte mit 96 Stimmen und ohne eine einzige Gegenstimme zu. Allerdings trat in der Arktis kein Ozonloch auf. Der NASA wurde vorgeworfen chicken little research zu unternehmen, also an einem Worst-CaseSzenario zu arbeiten. In einem organisatorischen Umfeld voller Konkurrenz um die Fördermittel warfen NOAA-Vertreter der NASA fehlende wissenschaftliche Integrität vor und begannen die NASA-Führung in der Ozonforschung in Frage zu stellen. Die organisatorischen Allianzen, die Watson mühsam geschmiedet hatte, begannen zu bröckeln, während andere Organisationen sich von der NASA distanzierten. Der Schaden, den die NASA dabei nahm hat, besteht weiterhin: Ein Blogger hat es neulich zynisch formuliert: „NASA had added environmental activism to their funding quest. Environmental problems caused by humans are the best, because guilt lowers the taxpayer resistance.“ Nach diesem falschen Alarm ging die Bedeutung der NASA in der Atmosphärenwissenschaft zurück. Ihre Verantwortlichkeit in der Ozonforschung blieb nun auf die weniger glamouröse Aufgabe der Routinebeobachtung beschränkt. Auch das Budget für die Beobachtungssatelliten wurde reduziert, die Lebensdauer des UARS neigte sich dem Ende zu. Da Japan, Frankreich und Deutschland sowie die Europäische Raumfahrtagentur (ESA) damit begonnen
Wann ist konsensuelle Wissenschaft „Politische Wissenschaft“?
243
hatten, eigene Beobachtungskapazitäten – u. a. auch Satelliten – zu entwickeln, begann das bestimmende Monopol der NASA zu bröckeln. Der früher erreichte Konsens löste sich auf: viele Wissenschaftler begannen zu schließen, dass sich die Bedrohung der Ozonschicht durch FCKW verlangsamte. Robert Watson wechselte von der NASA in die Clinton-Administration, wo er Associate Director for the Environment im White House Office of Science and Technology Policy wurde. Er konzentrierte sich nun fast ausschließlich auf die internationalen Verhandlungen über den Klimawandel. Später wurde er zum Vorsitzenden des IPCC berufen. Die Aufregung um das Ozonloch ließ nach: sowohl Wissenschaftler als auch Politiker wendeten ihre Aufmerksamkeit dem Treibhauseffekt zu, der nun unter dem Begriff der globalen Erderwärmung die Runde machte. Wie wir im Folgenden sehen werden, spielte die NASA in der Umweltpolitik und Atmosphärenforschung auch weiterhin eine wichtige Rolle, sie hatte aber keinen führenden Status mehr inne. Stattdessen begann das IPCC sich mit denselben drei Paradoxien auseinander zu setzen.
4.
Das IPCC und internationale Assessment-Strategien
Das Ziel vieler in der NASA und in den anderen amerikanischen und internationalen Organisationen war es, das Problem des Klimawandels zu internationalisieren und ein Abkommen zu erreichen, welches das Montrealer Protokoll zum Vorbild hatte. Wie im Fall der anthropogenen Ozonzerstörung lag der Schlüssel zum Erfolg in einem internationalen Konsens der Wissenschaft. Dieser Konsens erforderte Forschung und diese Forschung benötigte immense Fördermittel. Die Wissenschaftler befanden sich in einer guten Ausgangsposition: die Skeptiker in der ersten Bush-Administration, die die Idee eines weiteren Umweltabkommens im Stil des Montrealer Protokolls mit verpflichtenden Reduktionszielen ablehnten, konzentrierten sich auf die Forschungsförderung, wohlwissend, dass jede Verzögerung konkrete Aktionen verhindern würde. Umweltschützer, ermutigt durch den Montreal-Prozess, glaubten dagegen, dass mehr Forschung schließlich zu wissenschaftlichen Empfehlungen führen würde, die einen unwiderstehlichen Druck auf die Politiker ausüben würden. Aufgeschreckt durch den Erfolg des Montrealer Protokolls, glaubten konservative Politiker, dass die autoritativen Assessments der Ozonreduktion den Wissenschaftlern einen zu großen Hebel im politischen Prozess in die Hand gegeben hatten und so der Industrie unnötige Restriktionen auferlegt wurden. Sie argumentierten daher, dass die Regierungsvertreter in Zukunft die Assessments mit den Wissenschaftlern zusammen erstellen sollten. Die US-Regierung empfahl den internationalen Organisationen daher die Schaffung eines neuen
244
Beverly Crawford
zwischenstaatlichen (intergovernmental) Mechanismus, um den Klimawandel zu beurteilen, der sowohl Wissenschaftler als auch Regierungsvertreter einbeziehen sollte. Andere Regierungen stimmten der US-Position zu. Weil die Wissenschaft in den USA weiterentwickelt war als in den meisten anderen Ländern, war man auf die Einbeziehung der USA angewiesen. Unter der Bedingung der Einbeziehung politischer Akteure in den Assessment-Prozess stimmte die US-Regierung 1988 der Einrichtung des Intergovernmental Panel on Climate Change (IPCC) durch die UN zu. Das IPCC wurde nach dem Vorbild des Ozon Trend Panels geschaffen und als eine Möglichkeit betrachtet, unter den Wissenschaftlern relativ schnell einen Konsens über die Gefahren einer globalen Erwärmung zu erreichen. Man nahm an, dass eine Einigung in der Wissenschaft ein internationales Abkommen zur Reduktion der Treibhausgase geradezu erzwingen würde. Deswegen brachte das IPCC so viele Wissenschaftler wie nur möglich in das big tent um den Konsens zu erreichen, der für ein politisch relevantes Assessment notwendig ist. Auf der United Nations Conference on Environment and Development (UNCED) in Rio, wurde 1992 die UN Framework Convention on Climate Change verabschiedet, die 1994 in Kraft trat. In Vorbereitung auf die Konferenz hatte das IPCC seinen ersten Assessment-Report veröffentlicht, der eine umfassende Einschätzung der in der Literatur veröffentlichten Informationen über die unterschiedlichen Aspekte des Klimawandels enthielt. Die Mehrheit der Konferenzteilnehmer forderte unter dem Eindruck der präsentierten Ergebnisse politische Maßnahmen zur Verlangsamung des weltweiten Temperaturanstiegs. Daraufhin regte die UN-Generalversammlung Verhandlungen für ein internationales Abkommen an, das die globale Erwärmung aufhalten könne. Die KlimaKonvention von 1992 hatte aber nur ein prinzipielles Einverständnis darüber erreicht, die Treibhausgasemissionen auf dem bestehenden Niveau zu stabilisieren. Diese Konvention spezifizierte nicht, welche konkreten Maßnahmen ergriffen werden sollten. So wurden noch keine Ziele für Emissionsreduktionen, geschweige denn ein Zeitplan oder ein System vorgeschlagen, mit dem Verstöße gegen das Abkommen hätten geahndet werden können. Doch führten die Verhandlungen, die durch die regelmäßigen Assessments des IPCC unterstützt wurden, schließlich zur Verabschiedung des Protokolls von Kyoto im Jahre 1997, auch wenn dieses aufgrund des Widerstandes vieler großer Länder erst 2005 in Kraft treten konnte.
Wann ist konsensuelle Wissenschaft „Politische Wissenschaft“?
245
4.1. Konsensuelle Wissenschaft als Politische Wissenschaft? Der erste Vorsitzende des IPCC, Bert Bolin, betrieb mit großem Aufwand die Errichtung eines big tent, das die Grundlage für einen autoritativen AssessmentProzess sein konnte. Er versuchte dabei nahezu alle Klimaexperten der Welt durch internationale Konferenzen, Entwürfe von Reports und eine Unmenge von Korrespondenz einzubeziehen. In der Klimaforschung arbeiten Wissenschaftler aus vielen Disziplinen zusammen, neben den Atmosphärenphysikern finden sich Chemiker, Biologen, Geologen, Geographen, Meteorologen und Mathematiker. Die meisten der Wissenschaftler befassen sich dabei mit jeweils wenigen spezialisierten Aspekten des Klimasystems. Zwar erreichen die Experten in diesen hochspezialisierten Forschungsgebieten früher oder später einen Konsens, sie haben aber gleichzeitig nur ein ungefähres Wissen über die meisten anderen Themen der Berichte. Die Konstruktion eines big tent erfordert die Kooperation und die Kommunikation von Wissenschaftlern aus verschiedenen Ländern und Kulturen sowie aus unterschiedlichen Disziplinen. Um diese Kooperation zu erreichen bedarf es diplomatischen Geschicks und vieler Kompromisse. Weil eine enorm große Zahl von Experten in die IPCC-AssessmentProzesse involviert ist, unterliegt die komplexe Aufgabe der Integration dieser Klimaforschungsfelder der ständigen Gefahr, einen breiten wissenschaftlichen Konsens tatsächlich zu erreichen. Das big tent des „Klimawandels“ ist eine politische Konstruktion. So werden große Anstrengungen allein dafür unternommen, eine geographische Ausgewogenheit bei der Auswahl der lead authors zu garantieren, die entweder Angestellte von Regierungsorganisationen oder Akademiker sind, die von ihrer Regierung ausgewählt werden. Im Gegensatz zu früheren Konferenzen, nationalen Akademie-Panels oder Beratungskomitees, die fast ausschließlich führende Experten aus Wissenschaft und Technik enthielten, bestand das IPCC von Anfang an aus Wissenschaftlern und Regierungsvertretern, die oft auch die Position ihrer Länder in den Vertragsverhandlungen repräsentierten. So wurden die Repräsentanten der USA vor allem unter den Wissenschaftlern ausgewählt, die starke Bindungen zu den National Laboratories, zu den Wetterdiensten oder auch agencies wie der NASA hatten. Typischerweise leiten zwei von ihren Regierungen berufene lead authors ein Autorenteam, davon stammt gewöhnlich einer aus einem entwickelten Industriestaat und der andere aus einem Entwicklungsland. Der Konsens der in dem langwierigen Zyklus von Verhandlungen, Konferenzen und Reviews geschmiedet wird, muss die politischen und ökonomischen Interessen beider Regionen präsentieren. So fordern die Vertreter kleiner Inselstaaten, die einen existenzbedrohenden Anstieg des Meeresspiegels befürchten, starke Formulie-
246
Beverly Crawford
rungen, die eine bevorstehende oder bereits stattfindende globale Erwärmung konstatieren. Die Repräsentanten der Öl-, Kohle- und Autoindustrie sowie die Regierungen der Länder, deren Ökonomie von fossilen Brennstoffen abhängt, sind darum bemüht die Einschätzung der Gefahr abzuschwächen oder eine Präsentation sich widersprechender Meinungen. Die Kapitelentwürfe durchlaufen zwei Review-Runden, die erste Runde wird von Experten der Regierungen, aus Universitäten, Industrie und Umweltgruppen vorgenommen, die zweite Runde von Regierungsvertretern. In jedem Assessment-Zyklus wird ein Team ausgewählt, das aus den berufenen lead authors und anderen Mitgliedern der einzelnen working groups besteht, um eine kurze Zusammenfassung der Ergebnisse für die Politiker zu erstellen (Summary for Policy Makers, SPM). Diese SPMs sind die am meisten gelesenen und zitierten Teile der Assessment-Reports. Die SPMs werden Zeile für Zeile während einer IPCC-Plenarsitzung von Regierungsvertretern angenommen (oder auch abgelehnt). Gewöhnlich ändert sich der Text während dieses Prozesses signifikant. Normalerweise nehmen nur die eingesetzten lead authors an diesem Prozess der Zeile-für-Zeile-Prüfung teil. Diese Autoren können während der Sitzung die Regierungen lediglich daran hindern, faktisch inkorrekte Statements in die SPM einzubringen. Sie haben dagegen wenig Einfluss auf den Ton oder die Akzentuierung der endgültigen Darstellungen. Die verfügbaren Daten sind so umfangreich, dass diese Teams politische Entscheidungen darüber fällen müssen, was berichtet wird und wie viel des zugrundeliegenden wissenschaftlichen Wissens dargestellt werden soll. Die SPM erlauben eine Einsicht in das Präsentations-Paradox des autoritativen Assessments, weil ihre Akzentuierung der Einschätzung des Klimawandels, die zukünftige Politik beeinflusst. Das Problem dreht sich dabei um die Frage, wie sicher die Klimaprojektionen tatsächlich sind. Aussagen über die Zukunft sind immer unsicher. Tatsächlich wird der Konsens über die Sicherheit der Aussagen dadurch erreicht, dass die Wissenschaftler dazu angehalten werden, den Grad der Sicherheit über die Ursachen der globalen Erwärmung auf einer Skala von 1 bis 10 anzugeben. Die Mehrheit wählt in der Regel eine Zahl in der Mitte – eine Wahl, die vor allem durch soziale und psychologische Faktoren bestimmt ist, weniger durch wissenschaftliche Urteile. (Slade 1990, Chagnon 1992). Der Konsens wird also nicht durch einen wissenschaftlichen, sondern durch einen durch und durch politischen Prozess erreicht. Tatsächlich repräsentiert keines der Statements die Ansicht aller Wissenschaftler. Die US National Academy of Science (NAS) hat dies in folgender Bewertung herausgestellt: „(...) the [IPCC, B.C.] Summary for Policy Makers reflects less emphasis on communicating the basis for uncertainty (...)“, was die NAS als Anlass zur Sorge sieht „(…) without an understanding of the sources and degree of uncer-
Wann ist konsensuelle Wissenschaft „Politische Wissenschaft“?
247
tainty, decision-makers could fail to define the best ways to deal with the serious issue of global warming.“ (National Research Council Report 2001). Schließlich verschärft das Evidenz-Paradox das Konsens- und das Präsentationsparadox autoritativer Assessments zusätzlich. Die Welt ist zu komplex um exakt zu sein, alle Daten zum Klimawandel sind Approximationen. In den Daten stecken eine große Menge von Annahmen, die falsch sein können. Jede der Disziplinen, die in die Klimaforschung involviert sind, benutzt eine andere Methodologie und konzentriert sich auf unterschiedliche Teile der Evidenz, z. B. Gase, Wolken, Aerosols, Ozeanströmungen, die Chemie der Ozeane, Gletscher, Landverteilung und mehr. Die Methoden der Messung sind in jeder der Disziplinen verschieden und die Wissenschaftler sind von den in die Datensammlung involvierten Computerexperten, Satellitenbetreibern, Flugzeugpiloten und Schiffsmannschaften abhängig.
5.
Schlussfolgerungen
Konsensuelle Wissenschaft ist politische Wissenschaft. Ich habe in diesem Essay gezeigt, dass diese gerade in der Atmosphärenwissenschaft unvermeidbar ist, die eine große Zahl wissenschaftlicher Disziplinen mit verschiedenen Methodologien vereint, die eine massive Förderung erfordert und regierungsrelevante politische Themen berührt. Das big tent muss sehr groß sein, um eine autoritative wissenschaftliche Einschätzung über den Klimawandel abgeben zu können, wie sie von den Politikern in Auftrag gegeben wird. Das Zelt wird aber zu groß, wenn in im sowohl politische Akteure als auch Wissenschaftler vereint sind. Wenn politische Akteure involviert sind, werden die tents zu groß um einen zuverlässigen wissenschaftlichen Konsens zu erzeugen. Sie werden aber notwendig, weil die Politiker ein großes Interesse an den Ergebnissen der Assessment-Prozesse haben. So sagen einige Theorien des Klimawandels voraus, dass Süßwasser knapp wird, wenn der Erwärmungstrend anhält. Knappes Trinkwasser kann Kriege um Ressourcen auslösen, welche die nationale Sicherheit bedrohen. Der Zeithorizont mag groß sein, aber viele Politiker fragen, warum sie warten sollen, bevor sie Maßnahmen ergreifen. Viele argumentieren, dass „dies zwar ein allmählicher Prozess sein mag, aber warum soll man das Problem nicht schon jetzt beheben?“ Die Klimaforscher sind dagegen auf Politiker angewiesen, die großangelegte Forschungsprogramme unterstützen. Weil sie ihre Projekte nicht am Labortisch durchführen können, brauchen sie massive Fördermittel, um Feldkampagnen oder Simulationsstudien durchzuführen können. Und wie ich gezeigt
248
Beverly Crawford
habe, hat die Förderung durch die Forschungspolitik einen Preis, der den wissenschaftlichen Prozess verzerrt. Solange sich sowohl die Politiker als auch die Wissenschaftler dieser Paradoxien bewusst sind und solange die politischen Einflüsse auf die Assessment-Prozesse transparent sind, bleiben sie offen für Kritik. Dies ist wünschenswert.. Nichtsdestotrotz kann gerade eine solche Offenheit kontraproduktiv sein, besonders dann, wenn die Einwände von mächtigen politischen Akteuren hervorgebracht werden, deren Interessen durch die Assessment-Prozesse berührt werden. Kurz vor seinem Tod hat der Astronom und Wissenschaftspublizist Carl Sagan ein Buch mit dem Titel The Demon-Haunted World: Science as a Candle in the Dark (Sagan 1996) geschrieben. In diesem Buch entwickelt er einen Blödsinnsaufdeckungs-Werkzeugkasten, der eine Anleitung für die Enttarnung trügerischer oder gefälschter Argumente in der Wissenschaft enthält. Sagan argumentiert, dass wissenschaftliche Ergebnisse der Gegenstand unabhängiger Überprüfung sein sollten. Wissenschaftler sollten eine substanzielle Debatte unter Fachkollegen anregen, mehr als nur eine Hypothese betrachten und sicherstellen, dass jedes Glied in einer Argumentationskette auch funktioniert und nicht nur die meisten. Dieser Beitrag empfiehlt, dass Wissenschaftler, die an autoritativen Assessments arbeiten, die damit verbundenen Paradoxien stets im Hinterkopf haben sollten: die Art und der Grad des Konsenses sollte transparent sein; die Fakten sollten mit Sagans baloney detection kit überprüft werden, und in der Darstellung sollte die tatsächliche Spanne der verschiedenen Meinungen enthalten sein. Zudem sollten die Grenzen des Konsenses offen diskutiert werden. Die Wissenschaftler müssen bereit sein, die Wahrheit gegenüber der Macht zu vertreten. Nur dann können Assessments des Klimawandels die Kritik vermeiden, dass sie von „politischen“ Wissenschaftlern geschrieben werden.
Wann ist konsensuelle Wissenschaft „Politische Wissenschaft“?
249
Literaturverzeichnis Chagnon, Stanley A., et al. (1992): Shifts in Perception of Climate Change: A Delphi Experiment Revisited. In: Bulletin of the American Meteorological Society 73. 1623-1627 Committee on the Science of Climate Change of the National Research Council (2001): Climate Change Science: An Analysis of Some Key Questions. Washington, D.C.: National Academy Press Crawford, Beverly (1993): Economic Vulnerability in international Relations. Columbia University Press. Fujimura, Joan (1987): Constructing 'Do-able' Problems in Cancer Research: Articulating Alignment. In: Social Studies of Science 17. 2. 257-293 Funtowicz Silvio 0./Ravetz, Jerome R. (1993): Science for the Post-Normal Age. In: Futures 25. 740-755 Gaston, David (2001): Boundary Organizations in Environmental Policy and Science. An Introduction. In: Science, Technology, and Human Values 26. 399-408 Lambright W. Henry (2005): NASA and the Environment: the Case of Ozone Depletion. NASA SP-2005-4538. Monographs in Aerospace History No. 38 Neumann, John von (1955): Mathematische Grundlagen der Quantenmechanik (Mathematical Foundations of Quantum Mechanics). Berlin: Springer Verlag Sagan, Carl (1996): The Demon-Haunted World: Science as a Candle in the Dark. New York: Random House Shabecoff, Philip (1988): Global Warming has Begun. Expert Tells Senate. The New York Times. June 24 Slade, David H. (1990): A Survey of Informal Opinion Regarding the Nature and Reality of a 'Global Greenhouse Warming'. In: Climatic Change 16. 1-4 Smolin, Lee (2006): The Trouble with Physics: The Rise of String Theory, the Fall of a Science, and What Comes Next. New York: Houghton Mifflin Weisburd, Stefi (1986): Stratospheric Ozone: A New Policy Tone. In: Science News. May 31 Woit, Peter (2006): Not Even Wrong: The Failure of String Theory and the Search for Unity in Physical Law. New York: Basic Books
Das Intergovernmental Panel on Climate Change (IPCC) als boundary organization Verena Poloni
1.
Die Funktion des IPCC im Klimaregime
Der Klimawandel ist seit dem 19. Jahrhundert, seit dem der schwedische Physiker und Chemiker Svante Arrhenius in seinen Hypothesen einen Zusammenhang zwischen dem Anstieg der globalen Durchschnittstemperatur und anthropogen verursachten Emissionen behauptete, Gegenstand wissenschaftlicher Debatten (Arrhenius 1986). Arrhenius war damals als wissenschaftlicher Berater der schwedischen Regierung tätig. Er betonte bereits seinerzeit die Notwendigkeit einer internationalen Zusammenarbeit in diesem Bereich und war sehr um eine klare Unterscheidung von Wissenschaft und Politik bemüht (Elzinga 1997). 1988 entscheiden sich die Mitglieder des Exekutivrats (Executive Council) der Weltorganisation für Meteorologie (WMO)1 und die Mitglieder des Regierungsrates (Governing Council) des United Nations Environmental Programme (UNEP)2 auf der Basis eines formellen Antrags der Generalversammlung der Vereinten Nationen (Resolution GA 43/53 vom 6.12.1988) für die Einrichtung des Intergovernmental Panel on Climate Change (IPCC). Das IPCC spielt auf der institutionellen Ebene eine herausragende Rolle zwischen Klimaforschung und Klimapolitik. In einer ersten Annäherung lässt sich das IPCC als eine „zwischenstaatliche Einrichtung“ der Mitgliedstaaten von WMO und UNEP beschreiben. Das Mandat des IPCC 1988 lautete:
1
2
Den Exekutivrat der WMO bilden 37 Direktoren verschiedener nationaler Wetter- und hydrologischer Dienste. Sie treffen sich einmal im Jahr, um die Aktivitäten der WMO zu besprechen und die Programme, die der WMO-Kongress verabschiedet hat, zu implementieren. Der Exekutivrat ist zuständig für die Koordinierung der Programme und kümmert sich auch in Abhängigkeit von den Entscheidungen des Kongresses um ihre Finanzierung. Die Mitgliedstaaten des Governing Council der UNEP werden von der UN Generalversammlung, nach dem Prinzip einer ausgewogenen Repräsentanz aller Regionen, alle vier Jahre gewählt. Derzeit besetzen die afrikanischen Staaten 16 Sitze, 13 Sitze werden von asiatischen Staaten besetzt, 6 Sitze von osteuropäischen Staaten, 10 Sitze von lateinamerikanischen und karibischen Staaten, 13 Sitze von westeuropäischen und anderen Staaten.
Das IPCC als Boundary Organization
251
„(a) die Identifizierung der Unsicher-heiten und Lücken des aktuellen Wissenstandes zum Thema Klimawandel und seinen möglichen Auswirkungen sowie die Erstellung eines Aktionsplans zur vorläufigen Schließung dieser Lücken (b) die Identifizierung der benötigten Informationen zur Evaluation der politischen Implikationen des Klimawandels und der Reaktionsmöglichkeiten (c) die Durchführung eines Reviews zu aktuellen und geplanten nationalen/internationalen politischen Entscheidungen zum Thema Treibhausgase (d) die Erstellung wissenschaftlicher Assessments zu allen Aspekten des Themas Treibhausgase und die Weitergabe dieser Assessments und anderer relevanter Informationen an Regierungen und Internationale Organisationen“ (Pachauri 2004: 2).
Sowohl das Mandat als auch der Umfang des IPCC standen in der Gründungsphase zur Diskussion. Die Herausforderung bestand in der Abwägung bzw. im Ausbalancieren zwischen wissenschaftlicher Glaubwürdigkeit auf der einen Seite und der politischen Relevanz auf der anderen. Der Einbezug der Abschätzung der ökonomischen Kosten und Schäden schien politisch relevanter als nur die rein physikalischen Aspekte des Klimawandels. Schließlich wurde ein umfangreiches Mandat des IPCC von WMO und UNEP favorisiert (vgl. Agrawala 1999). Die mit dem Mandat verbundenen Aufgaben wurden an drei hierfür eingerichtete IPCC-Arbeitsgruppen (Working Groups, WGs) adressiert: WG I: Working Group of the Scientific Assessment of Climate Change, WG II: Impacts Assessment of Climate Change und WG III: Response Strategies of Climate Change. Eine Resolution der UN-Generalversammlung 1989 unterstützte die politische Seite des IPCC-Mandats, indem sie festlegte, dass das IPCC nicht nur einen Review im Hinblick auf den existierenden wissenschaftlichen Kenntnisstand leisten sollte, sondern zudem auch Handlungsempfehlungen erarbeiten sollte bezüglich relevanter internationaler rechtlicher Instrumente, die in eine künftige Klimarahmen-Konvention integriert werden konnten. Innerhalb des IPCC wurde die Arbeitsgruppe III mit dieser Aufgabe betraut. Sie bildete in jener Phase auch das Forum für die Verhandlungsprozesse zwischen Wissenschaft und Politik, was nicht nur einen massiven politischen Druck für die Arbeitsgruppe, sondern auch politische Einflussnahme bedeutete (Skodvin 1999: 22). Der Status der Arbeitsgruppe III erwies sich schließlich als problematisch für die wissenschaftliche Glaubwürdigkeit des gesamten IPCC-Assessments. Während innerhalb des IPCC die Mehrheit die Wissenschaftlichkeit des Assessments und der Berichte betonte und politische Einflussnahmen ablehnte, verwiesen die Entwicklungsländer darauf, dass der Klimawandel nicht techni-
252
Verena Poloni
scher, sondern politischer „Natur“ sei. Auch sahen diese Länder das IPCC aufgrund seines wissenschaftlich-technischen Fokuses nicht als das entsprechende Forum für die politischen Verhandlungen (Bodansky 1994). Diese Unsicherheiten führten die Vereinten Nationen zu Diskussionen über die Frage, wie die politischen Verhandlungen zum Schutz des Klimas organisiert werden konnten. Die UN-Vollversammlung richtete schließlich, unter Zustimmung der Mehrheit der Entwicklungsländer, ein weiteres zwischenstaatliches Gremium zur Aushandlung der Klimarahmen-Konvention ein. Mit der Gründung des Intergovernmental Negotiating Committee (INC)3 1990 erfolgt die „Entpolitisierung“ des IPCC-Mandats. Die Formulierung „Handlungsempfehlungen“ wird aus der Agenda gestrichen (vgl. Agrawala 1998: 611). Klimapolitik und Klimawissenschaft werden mit der Gründung des INC voneinander differenziert, wissenschaftliche und politische Verhandlungen entkoppelt. Auf den ersten Blick verlor das IPCC durch diese Grenzziehung an politischem Gewicht, was von vielen IPCC-Vertretern aber als Entlastung empfunden wurde (vgl. Jung 1999: 27). IPCC gelang es dennoch, auch nach dem Inkrafttreten der UNFCCC, weiterhin erfolgreich als Quelle für die wissenschaftlichen Informationen, zum Problem Klimawandel zu fungieren. Seine regelmäßig heraus-gegebenen Berichte werden insbesondere von den eingerichteten Nebenorganen der Klimarahmenkonvention (dem Subsidiary Body for Scientific and Technological Advice (SBSTA)4 und dem Subsidiary Body for Implementation (SBI)5) angefordert.
3
4
Das INC ersetzte die WMO/UNEP Task Force on a Convention on Climate Change, die von den Direktoren der WMO und UNEP im Anschluss an die Resolution der UNGeneralversammlung 1989 eingerichtet wurde. Das Ziel der Task-Force bestand in der Unterstützung der WG III des IPCC (Agrawala 1998). Nach der ersten Vertragsstaatenkonferenz der Klimarahmenkonvention (Conference of the Parties to the Convention, COP) 1995 wurde das INC durch das Sekretariat der United Nations Framework Convention on Climate Change (UNFCCC) ersetzt. IPCC und UNFCCC teilen sich seitdem eine Joint Working Group, die sich aus Senior-Mitgliedern beider Institutionen zusammensetzt. Die Funktion des SBSTA wurde auf der ersten Vertragsstaatenkonferenz (COP-1) 1995 in Berlin festgelegt und bestand darin: „to summarize and where necessary, convert the latest international scientific, technical, socioeconomic and other information provided by competent bodies including, inter alia, the IPCC, into forms appropriate to the needs of the Conference of the Parties, including in support of the review of the adequacy of commitments“ (UNFCCC, Article 10). Die Mitglieder des SBSTA beschließen auf ihrer ersten Sitzung 1995 auch, dass IPCC nicht zu duplizieren. Im sogenannten „Berlin Mandat“, das die im Anhang I aufgeführten Länder der UNFCCC stärker an die Verpflichtungen der Konvention binden soll, heißt es „The process will be carried out in the light of the best available scientific information and assessment on climate change and its impacts as well as relevant technical, social and economic information including, inter alia, reports of the IPCC“ (FCCC/CP/1995/7/Add.1, page 6).
Das IPCC als Boundary Organization
253
Die folgende Graphik verdeutlicht die Rolle des IPCC als Interface zwischen Klimawissenschaft und Klimapolitik. Abbildung 1:
Das IPCC als Interface zwischen Klimawissenschaft und Klimapolitik United Nations
WMO
UNEP COP/FCCC
World Climate
IPCC
Subsidiary Bodies
Programme,
of the
Global Climate
Framework
Observing System,
Convention
IGBP,
on Climate Change
etc. Lead Autors, Contributers, Reviewers
Der Erfolg von IPCC spricht dafür, dass diejenigen Assessments, die eine zentrale Autorität besitzen und in der Lage sind Interessendivergenzen zu reduzieren, sowie die Autonomie der wissenschaftlichen Ergebnisse zu garantieren, einen größeren Einfluss auf politische Entscheidungsprozesse haben können. Die Frage ist, wie das IPCC zu einer solchen Autorität gelangt, wie mit Interessendivergenzen umgegangen wird und wie trotz des Einflusses seitens der Politik die Autonomie der wissenschaftlichen Ergebnisse gewahrt wird. Im Folgenden soll das IPCC als „Grenzorganisation“ zwischen Klimawissenschaft und Klimapolitik vorgestellt werden, wobei sich der Fokus auf die Fragestellung konzentriert wie die Grenze zwischen Wissenschaft und Politik organisiert wird. Hierfür ist es hilfreich zunächst die Organisation und Entscheidungsebenen sowie den Assessmentprozess des IPCC darzustellen, bevor anschließend verschiedene Ansätze, die sich mit dem Thema „Grenzorganisatio5
Die Aufgabe des Subsidiary Body for Implementation (SBI) besteht darin, die Vertragsstaatenkonferenz beim Assessment und Review der Implementierung der Konvention zu unterstützen (UNFCCC, Article 10).
254
Verena Poloni
nen“ auseinandersetzen vorgestellt werden und ihre Erklärungskraft im Hinblick auf IPCC überprüft wird.
2.
Die Organisationstruktur und Entscheidungsebenen des IPCC
Die Organisationsstruktur sowie die IPCC-Verfahren und Assessmentprozeduren wurden seit der Gründung immer wieder modifiziert. Hierin zeigt sich auch ein wesentlicher Unterschied zwischen einem Assessment und einem Review. Während ein Review eine Arbeit in einem bestimmten Bereich erstellt, wird diese in einem Assessment zudem evaluiert und es werden Schlussfolgerungen in Bezug auf den aktuellen Wissensstand und das aktuelle Problemverständnis zu einem bestimmten Zeitpunkt gezogen. Die nachfolgenden Assessments wandeln sich mit dem Fortschreiten dieses Verständnisses und Wissensstandes, was am Fall IPCC im Folgenden gezeigt werden soll. In der Eröffnungsrede der ersten Plenumsitzung des IPCC im November 1988 unterbreitete Mostafa Tolba (damalig geschäftsführender Direktor der UNEP) den Vorschlag, die Aufgaben des IPCC an drei Arbeitsgruppen zu adressieren, die Assessmentberichte erstellen sollten zu den verfügbaren wissenschaftlichen Informationen über den Klimawandel sowie den ökologischen und sozio-ökonomischen Auswirkungen des Klimawandels (Tolba 1988). Die Mehrheit des IPCC-Plenums befürwortete diesen Vorschlag. Der schwedische Meteorologe Bert Bolin wurde zum Vorsitzenden des IPCC gewählt, Abdulbar Al-Gain (Saudiarabien) zum Vize-Vorsitzenden. Aufbauend auf das allgemein formulierte Mandat für den Assessmentprozess versuchte das IPCC-Büro (bestehend aus dem IPCC-Vorsitzenden und seinem Stellvertreter sowie den Vorsitzenden der drei Arbeitsgruppen) Regeln und Prozeduren zu entwickeln, um auch den Assessmentprozess zu organisieren. Es entschied, dass die Berichtsentwürfe der WG I und WG II einem Peer Review unterzogen werden sollten, ohne jedoch das Reviewverfahren zu spezifizieren. Für die WG III wurde ein Peer Review als unangebracht erachtet, da diese sich mit politischen Themen auseinandersetzen sollte, die sich nicht für den traditionellen wissenschaftlichen Peer Review eigneten (vgl. Jung 1999: 26). Die Mitglieder des Büros entschieden auch die Einführung von sogenannten Zusammenfassungen für politische Entscheidungsträger (Summaries for Policymakers, SPM), die eine jede Arbeitsgruppe erstellen sollte. Diese Zusammenfassungen für politische Entscheidungsträger sind Komponente eines jeden Assessment-, Spezial- oder Synthese-Berichts mit dem Statusreport „approved by Working Groups and accepted by the Panel“ (vgl. IPCC 1999). Sie
Das IPCC als Boundary Organization
255
bilden die Grundlage für Presseberichte und öffentliche Debatten, weshalb ihr Inhalt und die Wortwahl vor ihrer Publikation genau geprüft wird. Auf ihrer vierten Sitzung 1991 legten die Mitglieder des Büros fest, das die Arbeitsgruppen einen soweit wie möglich reichenden Peer-Review-Prozess gewährleisten sollten, um die Akzeptanz der IPCC-Berichte zu erhöhen (IPCC 1991). Bereits am ersten Assessment waren 500 Wissenschaftler aus allen Teilen der Welt und weitere 500 Repräsentanten von nationalen Regierungen und internationalen Organisationen, der Industrie und Umweltschutzgruppen beteiligt. Mit einem umfassenden Reviewprozess soll die Repräsentativität der beteiligten Nationen gesichert werden (Elzinga 1996: 241). Eine Festschreibung der IPCC-Richtlinien zu den einzelnen Prozeduren (einschließlich dem Review-Verfahren) fand erst auf der achten Plenumssitzung 1992, nach dem Erdgipfel in Rio de Janeiro statt. Auf der Sitzung einigte man sich darauf, dass dieselben Reviewstrukturen von allen Arbeitsgruppen angewandt werden sollten, dass der Selektionsprozess bezüglich der Autoren und Reviewer transparenter gestaltet werden musste und das auch die Namen der beteiligten Experten aus den Entwicklungsländern genannt werden sollten. Des Weiteren sollte das IPCC seine Beziehungen zu bereits existierenden relevanten globalen Forschungsprogrammen verbessern, um die jeweiligen Experten zu erreichen. Klare Richtlinien sollten geschaffen werden bezüglich des Zeitraums der Durchführung der Reviews und die Peer-Review-Richtlinien für die Zusammenfassungen für politische Entscheidungsträger sollten spezifiziert werden (IPCC, 1992). Während der neunten Plenumsitzung 1993 wurde ein Regelwerk für den Reviewprozess verabschiedet. Vor allem wurde ein Zweirundensystem für das externe Review eingeführt. So sollten die IPCC-Mitgliedsregierungen in die zweite Reviewrunde (government review) einbezogen werden. Auch der unklare Begriff des „Experten“ wurde spezifiziert und definierte als solche, Spezialisten mit einschlägiger Expertise oder Publikationen auf den entsprechenden Fachgebieten. Entscheidend bezüglich der politischen Implikation war jedoch der formelle Beschluss des IPCC-Plenums, die Zusammenfassungen für politische Entscheidungsträger einem zeilenweisen Abstimmungsprozesses zwischen Wissenschaftlern und Regierungsvertretern auf den Plenumssitzungen der Arbeitsgruppen zu unterziehen (IPCC 1993). Die genannten Änderungen können als Versuch gewertet werden, die fachliche und politische Legitimität sowie die politische Relevanz des IPCCAssessments und seiner Berichte zu optimieren. Aussagen des damaligen IPCCVorsitzenden Bert Bolin lassen keinen Zweifel daran, das die Absicht der Veränderungen zu Beginn der 1990er Jahre vor allem darin bestand, die Grenze
256
Verena Poloni
zwischen Wissenschaft und Politik zu betonen, um die wissenschaftliche Autorität zu wahren (vgl. Bolin 1997: 102f.).
2.1. Die Organisation des IPCC und seine Entscheidungsebenen Auch die Arbeitsgruppen wurden in der Gründungsphase immer wieder neu strukturiert. Die Arbeitsgruppe I, die während der Erstellung des First Assessment Report (FAR) als Working Group of the Scientific Assessment of Climate Change bezeichnet wurde, hieß während der Erstellung des IPCC Second Assessment Reports (SAR) Science of Climate Change. Ihre Aufgaben blieben jedoch weitestgehend gleich. Sie beschäftigt sich mit den naturwissenschaftlichen Aspekten des Klimas und Klimawandels. Die anderen beiden Arbeitsgruppen wurden signifikanteren Veränderungen unterzogen. Die Bezeichnung der Arbeitsgruppe II, die 1993 durch die Zusammenlegung der ursprünglichen Arbeitsgruppen II und III umstrukturiert wurde und die Bezeichnung Impacts Assessment of Climate Change erhielt, wird 1995 umbenannt in Impacts, Adaptations and Mitigation of Climate Change: Scientific Technical Analyses. Im dritten (2001) und vierten Assessment (2007) lautet der Titel der Arbeitsgruppe II Impacts, Adaptation, and Vulnerability. Während die Themen der Minderung noch im zweiten Assessmentbericht Bestandteil der Arbeitsgruppe II waren, wurde dieser Bereich im dritten Assessmentbericht der Arbeitsgruppe III übertragen. Die Arbeitsgruppe II setzt sich seither mit den Auswirkungen des Klimawandels, der Anpassung und Vulnerabilität auseinander. Auf der Basis einer regionalen, sektorspezifischen und sektorübergreifenden Analyse werden auch mögliche positive und negative Auswirkungen des Klimawandels auf einzelne Bereiche sowie auf die menschliche Gesundheit analysiert. Schließlich beschäftigte sich die Arbeitsgruppe III bei der Erstellung des ersten Berichts gemäß ihres Mandats mit den Response Strategies on Climate Change. Bert Bolin bemerkt hierzu: „Working Group III, in particular, had to fight a though battle to keep scientific issues separate from political issues (…) [in 1992, V.P.] the task of Working Group III was changed to consider available scientific analyses of the socio-economic implications of climate change“ (Bolin 1997: 101). Entsprechend lautete die neue Bezeichnung der Arbeitsgruppe III beim zweiten Assessment Economic and Social Dimensions of Climate Change. Da es bei der Erstellung jedoch Themenüberschneidungen mit den anderen beiden Arbeitsgruppen, vor allem bezüglich der ökonomischen Themen zur Anpassung an den Klimawandel und seiner Minderung gab, wurde das Mandat dieser Gruppe während des dritten Assessments geändert. Die neue Arbeits-
Das IPCC als Boundary Organization
257
gruppe III Mitigation on Climate Change sollte sich fortan ausschließlich mit den wissenschaftlichen, technischen, ökologischen, ökonomischen und sozialen Aspekten zur Vermeidung und Eindämmung des Klimawandels beschäftigen (Siebenhühner 2006: 183). 1998 wurde vom IPCC-Plenum die Einrichtung einer Task Force on National Greenhouse Gas Inventories für das National Greenhouse Gas Inventories Programme (NGGIP) beschlossen. Das Programm wurde seit 1991 von der Arbeitsgruppe I in Zusammenarbeit mit den Mitgliedstaaten der OECD und der International Energy Agency (IEA) durchgeführt. Im Rahmen des Programms werden Methoden und Standardisierungsverfahren für die Datenerhebung von Treibhausgasemissionen der einzelnen Länder entwickelt. Die folgende Graphik veranschaulicht noch einmal die aktuelle Organisationsstruktur des IPCC. Abbildung 2:
Die Organisationsstruktur des IPCC
Jede Arbeitsgruppe wird geleitet von jeweils zwei Co-Vorsitzenden (Co-Chairs) und sechs Vize-Vorsitzenden (Vice-Chairs), die normalerweise zu gleichen Anteilen Industrie- und Entwicklungsländer repräsentieren. Alle vier Gruppen werden bei ihren Aktivitäten von Technischen Einheiten (TSUs) unterstützt6. 6
Die TSUs sind zum großen Teil in Forschungseinrichtungen der jeweiligen Industrieländer, die sie finanzieren, untergebracht. Die TSU der WG I befindet sich derzeit in der National Oceanic & Atmospheric Administration (NOAA) in Boulder (USA), die TSU der WG II im Met Office in Exeter (UK), die TSU der WG III in der National Environmental Assessment Agency
258
Verena Poloni
Aus einem eingerichteten Trust Fund7 werden die Co-Vorsitzenden aus den Entwicklungsländern finanziert. Vor allem die administrativen Kosten und die Reisekosten der Vorsitzenden werden aus dem Fund bezahlt. Zur Arbeitsgruppe I gehört seit 1996 auch eine Task Group on Data and Scenario Support for Impacts and Climate Analyses, die sich vorrangig um die Verbreitung und Koordinierung des gesammelten Datenmaterials kümmert. Das IPCC-Büro wird geleitet vom Vorsitzenden (Chair) des IPCC und setzt sich zusammen aus den Co-Vorsitzenden und Vize-Vorsitzenden der drei Arbeitsgruppen sowie der Task-Force und den drei IPCC-Vize-Vorsitzenden. Die Mitglieder des Büros werden in der Regel für den gesamten Zeitraum, den die Erstellung eines IPCC-Berichts einnimmt (5-6 Jahre), gewählt. Jede Gruppe organisiert Plenarsitzungen, Expertentreffen und Workshops, in denen die zu erarbeitenden Assessmentberichte diskutiert werden. Alle IPCC-Aktivitäten werden vom IPCC-Sekretariat, das sich im Gebäude der WMO in Genf (Schweiz) befindet, geplant und organisiert8. Das gesamte IPCC-Panel trifft sich einmal pro Jahr zu einer Plenarsitzung. Das Plenum des IPCC ist die Entscheidungsebene, die an oberster Stelle des IPCC steht. Das IPCC-Plenum akzeptiert, bestätigt und nimmt die IPCCBerichte an. Im Plenum werden Entscheidungen über die Mandate und Arbeitspläne der Arbeitsgruppen und der Task-Force, aber auch zur Struktur, zu den
7
8
in Bilthoven (NL) und die TSU der Task-Force im Institute for Global Environmental Strategies (IGES) in Japan. Die Regierung des Industrielandes des jeweiligen Co-Chairs einer Arbeitsgruppe übernimmt die Primär-verantwortlichkeit für die Finanzierung der jeweiligen TSU, einschließlich der Büroräume, Ausstattung und Personal. Der IPCC Trust Fund wurde 1988 eingerichtet. „The historical rate of contribution to the Trust Fund over the recent years (not including funds reserved for special purposes) has been around CHF 4M to 5M per annum. It is planned to budget on an expected income of around CHF 5M per annum and it is hoped that the governments which are members of the IPCC will build into their annual budgets a regular contribution that aggregates to around this amount. With the CHF 5M carryover this would make available around CHF 30M between now and end-2007 for the conduct of the Fourth Assessment report and any Special Reports, Technical Papers and Methodology Reports the Panel might choose to undertake“ (IPCC-XX/Doc.3, Rev.1, 6II-2003). Das IPCC-Sekretariat organisiert die Sitzungen des Panels und des Büros sowie der Arbeitsgruppen. Es hilft mit bei der Planung anderer IPCC-Aktivitäten in Kooperation mit den „Technical Support Units“ (TSUs) und kümmert sich um das jährliche Budget der TSUs. Das Sekretariat verwaltet auch den IPCC Trust Fund, koordiniert die Öffentlichkeitsarbeit, veröffentlicht und verteilt die IPCC-Berichte an die breitere wissenschaftliche Gemeinschaft und politischen Entscheidungsträger, inklusive der Übersetzung der Zusammenfassungen für politische Entscheidungsträger in alle offiziellen UN-Sprachen. Das Sekretariat überwacht die Fortschritte der IPCC-Tätigkeiten, stellt die Koordination unter den IPCC-Arbeitsgruppen sicher und stellt die Verbindung zu den Mitgliedsregierungen (aktuell 192) und internationalen Organisationen her. Finanziert wird das Sekretariat aus Geldern der Mitgliedsländer von WMO und UNEP.
Das IPCC als Boundary Organization
259
einzelnen Berichten, den IPCC-Prinzipien und Verfahren sowie zum Budget, getroffen. Zur Veranschaulichung der Entscheidungsebenen des IPCC dient folgende Graphik: Abbildung 3:
Die Entscheidungsebenen des IPCC
2.2. Das IPCC-Assessment und die Erstellung der Berichte Im Projekt der Harvard Gruppe über globale und regionale Risikoassessments im Umweltbereich werden Assessments als soziale Prozesse beschrieben, in denen wissenschaftliches Wissen für politische Entscheidungsprozesse in Dokumenten organisiert, evaluiert, integriert und repräsentiert wird, um Informationen zu liefern (vgl. Farell et al. 2001: 1). Vor allem wird die Trennung zwischen Assessmentbericht und Assessmentprozess, in dem der Bericht erstellt wird, betont. Der Beginn eines IPCC-Assessmentzyklus besteht in der Einberufung des IPCC-Plenums, die auch das Ende eines solchen Zyklus kennzeichnet. Während der Plenumsitzung besprechen und diskutieren die Regierungsvertreter verschiedener Länder die letzten Berichte des vorangegangenen Zyklus und legen die Agenda für die nächsten Aktivitäten des Panels fest. Umwelt- und Industrie-
260
Verena Poloni
gruppen, Nicht-Regierungsorganisationen etc. haben einen Beobachtungsstatus während dieser Sitzungen. Anschließend erstellt jede Arbeitsgruppe ihren eigenen Arbeitsplan mit den Richtlinien für die Implementierung ihrer Agenda. Die Assessmentberichte werden im „wissenschaftlichen Kern“ des IPCC erstellt, d. h. in einer Reihe von Sitzungen der Arbeitsgruppen und der TaskForce, in Workshops und Konferenzen und in den regelmäßigen Treffen der Coordinating Lead Autors (CLAs), Lead Autors (LAs) und Contributing Autors (CAs). Die Zusammenfassungen für politische Entscheidungsträger, Syntheseberichte sowie Spezialberichte werden ebenfalls auf dieser Ebene erstellt. Die in der Forschung aktiven Wissenschaftler dominieren dabei den wissenschaftlichen Kern. Die Erstellung eines IPCC-Assessmentberichts gliedert sich in folgende Schritte: 1.
2. 3. 4. 5. 6.
Erstellung einer Liste der Coordinating Lead Autors, Lead Autors, Contributing Autors, Expert Reviews, Review Editors und den Government Focal Points Wahl der Lead Autoren Erstellung des Berichtsentwurfs (draft report) Review: a. erster Review (Experten) b. zweiter Review (Experten/Regierungsvertreter) Erstellung des endgültigen Berichtsentwurfs (final draft report) Annahme des Berichts auf einer Sitzung der Arbeitsgruppen und TaskForce bzw. des IPCC-Panels
Die Erstellung eines IPCC-Assessmentberichts9 beginnt mit der Erstellung einer Liste der CLAs, LAs, CAs, Expert Reviewer, Review Editors und den Government Focal Points, die die Auswahl der Experten und die zweite Reviewrunde (expert/government review)10, erleichtern sollen. Die nominierten Experten werden in Listen aufgeführt, die allen IPCC-Mitgliedern zugänglich sind und vom IPCC-Sekretariat geführt werden. Wissenschaftler, die nicht auf der Liste als Lead Autoren nominiert sind, werden nicht gewählt; „but the IPCC leadership have on some occasions approached governments to have particular scientists nominated (personal communication with Bert Bolin)“ (Alfsen/Skodvin 1998: 13). 9
10
Für die Spezialberichte und Methodenberichte gelten die gleichen Verfahrensregeln. Für die Erstellung der Syntheseberichte gibt es spezielle Verfahren der Erstellung. Für die Technischen Papiere und das Supporting Material gelten vereinfachte Verfahrensprozeduren. „The government review will typically be carried out within and between a number of Departments and Ministries“ (IPCC 1999).
Das IPCC als Boundary Organization
261
In einem zweiten Schritt werden aus diesen Listen die CLAs und LAs einer Arbeitsgruppe gewählt. Die Auswahl erfolgt durch das entsprechende Arbeitsgruppen/Task-Force-Büro (IPCC 1999). Anschließend erstellen die CLAs und LAs einer Arbeitsgruppe eine erste Berichtsversion, die auch Gegenstand eines ersten Experten Reviews ist. Neben dem Experten Review gibt es einen weiteren Review der IPCCBerichte durch Experten und Regierungsvertreter und einen Review der Zusammenfassungen für politische Entscheidungsträger, der Übersichtskapitel und Syntheseberichte durch die Regierungsvertreter (IPCC 1999). Im ersten Review durch die Experten werden die von den CLAs und LAs erstellten Berichtsversionen an Experten „mit einschlägiger Expertise und/oder Veröffentlichungen zu bestimmten Themen des Berichts“ weitergegeben (IPCC 1999). Die Experten Reviewer werden gebeten, die Richtigkeit und Vollständigkeit des Inhalts der Versionen zu kommentieren. Die Reviewkommentare werden von der jeweiligen Technical Support Units (TSUs) gesammelt und den CLAs und LAs zugeordnet, die diese dann in ihren Treffen und den Kapitel Meetings diskutieren. Die CLAs/LAs einer jeden Arbeitsgruppe und der TaskForce erstellen unter Assistenz von Review Editoren11 dann eine überarbeitete Version, die für die zweite Reviewrunde von den jeweiligen Co-Vorsitzenden der Arbeitsgruppen/Task-Force oder durch das IPCC-Sekretariat weitergegeben wird an die Regierungen entsprechend ihrer Themenschwerpunkte sowie an alle anderen CLAs und LAs bzw. beitragenden Autoren und Experten (IPCC 1999). Die endgültige Fassung des Berichts einer jeweiligen Arbeitsgruppe, die wiederum von den CLAs und LAs unter Assistenz der Review Editoren erstellt wird, wird auf einer weiteren Sitzung der jeweiligen Arbeitsgruppe unter Einbezug der Kommentare der Regierungen und Experten diskutiert. Kontroverse Sichtweisen sollen dabei explizit herausgestellt werden, vor allem wenn sie für die politische Debatte relevant sind. Anschließend wird eine überarbeitete Version der Zusammenfassungen für politische Entscheidungsträger der Arbeitsgruppen an die Regierungen für den letzten Review weitergegeben. Vor der Erstellung des IPCC Third Assessment Reports (TAR) wurden eine ganze Reihe von Verfahrensänderungen, die sich vor allem auf den IPCCReviewprozess bezogen, vorgenommen. Der Hauptgrund bestand in einer, noch 11
„Review Editors should normally consist of a member of the Working Group/Task-Force Bureau, and an independent expert based on the lists provided by governments and participating organizations. Review Editors should not be involved in the preparation or review of material for which they are an editor. In selecting Review Editors, the Bureau should select from developed and developing countries and from countries with economies in transition, and should aim a balanced representation of scientific, technical, and socio-economic views“ (IPCC 1999).
262
Verena Poloni
vor der Veröffentlichung des Second Assessment Report (SAR) 1995, begonnen Debatte über das Kapitel 8 des Berichts (vgl. Edwards/Schneider 1997).12 Die wichtigste Innovation nach der Debatte, die vor allem die wissenschaftliche Glaubwürdigkeit des IPCC-Assessments in Frage stellte, bestand in der Einführung von den bereits erwähnten Review Editoren, die die Aufgabe haben, einerseits sicherzustellen, dass alle substantiellen Kommentare von Experten und Regierungsvertretern angemessen einbezogen werden, andererseits sollen sie die Autoren zum Umgang mit strittigen und kontroversen Themen beraten. Eine weitere Veränderung bestand darin, dass alle Kommentare der Experten und Regierungsvertreter sowie die Antworten der LAs vom IPCCSekretariat (auf Anfrage) frei zur Verfügung gestellt werden. Um die wissenschaftliche Qualität der IPCC-Berichte zu gewährleisten sollten die involvierten Wissenschaftler jedoch auch weiterhin die Autorität für die Berichte einschließlich der Zusammenfassungen für politische Entscheidungsträger behalten. Obwohl die Regierungsvertreter das Recht auf Änderungen der Zusammenfassungen besitzen, können die Autoren die vorgeschlagenen Änderungen ablehnen, wenn diese unvereinbar sind mit den dem Kapitel zugrundeliegenden wissenschaftlichen Ergebnissen (vgl. Petersen 2002: 9). Ein genereller Unterschied des IPCC Peer Review zu den für die meisten wissenschaftlichen Zeitschriften üblichen Verfahren besteht darin, dass das Peer Review nicht blind erfolgt, sondern sowohl die Autoren als auch die Reviewer bekannt sind. Auch die Zahl der Reviewer ist erheblich höher als bei wissenschaftlichen Zeitschriften. Als Beispiel für den Ablauf einer Berichterstellung dient der folgende Arbeitsplan der Arbeitsgruppe I zum vierten Assessment-Bericht (AR4) des IPCC:
12
Das Kapitel 8 enthielt einen wichtigen Paragraphen, der erstmalig zeigte, dass eine globale Erwärmung existiert (detection), und dass diese auch durch menschliche Aktivitäten bedingt wird (attribution). „Our ability to quantify the human influence on global climate is currently limited because the expected signal is still emerging from the noise of natural variability, and because there are uncertainties in key factors. These include the magnitude and patterns of long–term natural variability and the time–evolving pattern of forcing by, and response to, changes in concentrations of greenhouse gases and aerosols, and land surface changes. Nevertheless, the balance of evidence suggests that there is a discernible human influence on global climate“ (Houghton/Filho 1996). Der Nachweis, dass der Klimawandel bereits stattfindet und dass hinreichende wissenschaftliche Belege für einen menschlichen Einfluss auf das Klima vorliegen, spielte für die politische Diskussion eine zentrale Rolle, da er die Dringlichkeit für politische Lösungen erhöhte. Das „Klimaänderungssignal“ (fingerprint) stellte ein wichtiges Ereignis auf dem Weg zum Kyoto-Protokoll von 1997 dar und rückte nach der ersten Vertragsstaatenkonferenz in Berlin 1995 ins Zentrum der zwischenstaatlichen Verhandlungen.
Das IPCC als Boundary Organization
263
Tabelle 1: Arbeitsplan der Arbeitsgruppe I zum vierten Assessment-Bericht AR4 WG I Zeitplan April 2003 September 2003 November 2003 ... September 2004
...
März
2005
Mai ...
2005
Dezember ... Juni ... Januar
2005 2006 2007
1. Scoping Meeting (Marrakesch, Marokko) 2. Scoping Meeting (Potsdam, Deutschland) IPCC Bewilligung der Kurzfassungen Workshop zum Thema Klimasensitivität (Paris, Frankreich Juli 2004) 1. Lead Autoren Treffen (Triest, Italien) Alle Neuauflagen für WG I zweite Version, (an dieser Stelle liegt erstmals im Prozess ein Text in interner Review schriftlicher Form vor; jedes Kapitel dieser ersten Version wird von 5-6 Wissenschaftlern, die sich mit dem Thema auskennen, analysiert) Model Analyse Workshop, IPRC (einberufen vom U.S. CLIVAR13 im International Pacific Research Center, Universität von Hawaii in Honolulu) erforderliche Dokumentation (Paper werden bei den Zeitschriften eingereicht; noch vor dem 2. Treffen der Lead Autoren) 2. Lead Autoren Treffen (Peking, China) 1. Berichtsversion (Experten Review) Alle Papiere/Dokumentationen im Druck oder erschienen (web-basiertes System für Kommentare) 3. Lead Autoren Treffen (Christchurch, Neuseeland) 2. Version, (Experten Review, Government Review) 4. Lead Autoren Treffen (Bergen, Norwegen) 3. Version, Review der Summary for Policymaker (SPM) IPCC WG I Bewilligung des Berichts (Zeile für Zeile/Wort für Wort) (Paris, Frankreich)
2.3. Die IPCC-Berichte Bislang hat das IPCC vier mehrbändige Assessmentberichte veröffentlicht, den ersten 1990, den zweiten 1995, den dritten 2001. Der vierte Assessmentbericht des IPCC (AR4) erschien 2007. Jeder IPCC-Assessmentbericht enthält Zusammenfassungen für politische Entscheidungsträger (s. o.). 1999 wird auf einer Plenarsitzung die Einführung der Syntheseberichte beschlossen.
13
CLIVAR (Climate Variability and Predictability) ist Teil des World Climate Research Program (WCRP), das 1980 von den Mitgliedern der WMO und dem International Council of Scientific Union (ICSU) gegründet wurde. Seit 1933 wird das WCRP finanziell auch von der Intergovernmental Oceanographic Commission (IOC) der UNESCO unterstützt. Die wissenschaftliche Planung und Entwicklung von CLIVAR erfolgt durch die Scientific Steering Group (JSC) für CLIVAR, unterstützt vom CLIVAR International Project Office im National Oceanography Centre in Southampton, UK.
264
Verena Poloni „They should focuses on policy-relevant questions using information from all three volumes of the report. Synthesis Reports synthesize and integrate materials contained within the Assessment Reports and Special Reports and are written in a nontechnical style suitable for policymakers and address a broad-range of policy relevant but not policy neutral questions. They are composed of two sections as follows: (a) a summary for policymakers and (b) a longer report“ (IPCC 1999).
Diese Syntheseberichte festigen das Mandat des IPCC, vor allem bezüglich seiner Relevanz für die Klimapolitik. Erstellt werden sie von der Führungsspitze einer jeden Arbeitsgruppe in Zusammenarbeit mit den LAs und eingeladenen Experten. Die Berichte sind Gegenstand eines zeilenweisen Abstimmungsprozesses des gesamten IPCC-Plenums (vgl. Alfsen/Skodvin 1998: 9). Ebenfalls werden vom IPCC Methodology Reports (Methodenberichte) (IPCC Guidelines for National Greenhouse Gas Inventories, IPCC Technical Guidelines for Assessing Climate Change Impacts and Adaptations) sowie Supporting Material14 publiziert. Alle Berichte werden in den sechs offiziellen UNSprachen veröffentlicht. Durch die Einführung der Spezialberichte und Technischen Berichte ist das IPCC in der Lage, seine Ergebnisse zeitgemäßer zu präsentieren ohne seine wissenschaftliche Glaubwürdigkeit zu gefährden. Das IPCC registrierte, dass der Erfolg des Assessments von seiner Fähigkeit abhängt, innerhalb kurzer Zeit präzise Antworten für bestimmte Schlüsselthemen, die die Klimarahmenkonvention betreffen, zur Verfügung stellen zu können. Die seit 1996 veröffentlichten „Technischen Papiere“ haben diese Funktion übernommen. Sie werden innerhalb von sechs Monaten erstellt und bestehen im Wesentlichen aus gefilterten Informationen der Assessmentberichte. Die Spezialberichte sind Assessments zu einem speziellen Thema und orientieren sich an der Struktur der Assessmentberichte. Sie werden den üblichen Review-, Akzeptanz- und Annahmeverfahren, die für die Assessmentberichte gelten, unterzogen (IPCC 1999).
14
„Supporting material consists of (i) published reports and proceedings from workshops and expert meetings within the scope of the IPCC work program that have IPCC recognition, and (ii) material, including databases and software, commissioned by Working Groups, or by the Bureau of the Task-Force on National Greenhouse Gas Inventories in support of the assessment or methodology development, process which IPCC decides should have wide dissemination. All supporting material should be formally and prominently described on the front and other introductory covers as: „Supporting material prepared for consideration by the Intergovernmental Panel on Climate Change. This supporting material has not been subject to formal IPCC review processes“ (IPCC 1999).
Das IPCC als Boundary Organization 3.
265
Grenzorganisationen zwischen Wissenschaft und Politik
Das IPCC ist an der Schnittstelle von Klimawissenschaft/Forschung und Klimapolitik angesiedelt. David Guston entwicktelte in den 1990er Jahren zur Beschreibung von Institutionen between science and politics die Theorie der boundary organizations (Guston 1999, 2000, 2001). Gemeint waren von Guston damit die Ende der 1970er Anfang der 1980er Jahre neu entstandenen Beratungsgremien im Kontext der U.S.-Politik. Er versuchte mit seinem Ansatz die dynamische, sich wechselseitig beeinträchtigende Beziehung zwischen Politik und Wissenschaft, die ab den 1970er Jahren immer selbstverständlicher wurde, für den US-amerikanischen Kontext nachzuzeichnen. „The success of a boundary organization is determined by principals on either side of the boundary, both of whom rely on the boundary organization to provide them with necessary resources. A successful boundary organization will thus succeed in pleasing two sets of principals and remain stable to external forces astride the internal instability at the actual boundary. The success of the organization in performing this tasks can than be taken as the stability of the boundary, while in practice the boundary continues to be negotiated at the lowest level and the greatest nuance within the confines of the organization“ (Guston 2001: 401).
Der Unterschied zwischen diesen boundary organizations und dem in der Organisationssoziologie verwandten Konzept der boundary spanning organizations wird darin gesehen, dass letzteres zur Beantwortung der Frage dient wie Organisationen sich selbst gegenüber externen politischen Eingriffen erfolgreich isolieren (Aldrich 1979, Bozeman 1987), während die Grenzorganisationen ihre Stabilität gerade nicht durch Isolation aufrechterhalten, sondern eben dadurch, dass sie diesen externen Eingriffen gegenüber offen sind und auf diese eingehen. Clark Miller (2001) entwickelt Gustons Ansatz der boundary organizations, der sich vorrangig auf den US-amerikanischen Kontext bezieht weiter, und versucht mit seinem Konzept des hybrid managements eine Beschreibung jener Grenzorganisationen zwischen Wissenschaft und Politik im internationalen Kontext zu leisten. Als Beispiel für die Demonstration seines Ansatzes wählt er den Subsidiary Body for Scientific and Technological Advice (SBSTA) der 1992 durch die UN Framework Convention on Climate Change (UNFCCC) gegründet wurde. Millers Hauptkritik am ursprünglichen Ansatz von Guston besteht darin, dass er sich nicht auf internationale boundary organizations anwenden lässt, da er zu statisch sei, um die fortwährenden Veränderungen, die mit der Globalisierung einhergehen, zu erfassen. Eine Schwäche des von Guston entwickelten Ansatzes sieht Miller auch in einer „Überinstitutionalisierung“ von Wissenschaft und Politik (Miller 2001: 483).
266
Verena Poloni „While boundary organization theory recognizes that science and politics constitute distinct forms of life, it tends to elide differences that occur between institutions within the separate domains of science of politics. (…) Scientific assessments, for example, frequently operate under very different standards and procedures of peer review than do, say scientific journals or grant competitions“ (Miller 2001: 483).
Sein Konzept des hybrid managements versucht zu zeigen, wie boundary organizations die verschiedenen Praktiken von Wissenschaft und Politik miteinander verbinden, ohne beide Bereiche ineinander aufzulösen. Nach Miller zeichnen sich boundary organizations gerade dadurch aus, dass sie in der Lage sind mit sogenannten „Hybriden“ umzugehen. Als „Hybride“ definiert er soziale Konstrukte, die sowohl wissenschaftliche als auch politische Elemente enthalten, die häufig so ineinander verwoben sind, dass sie sich nicht differenzieren lassen. Hybride können sowohl konzeptueller als auch materieller Art sein (z. B. das Klima oder Kernkraftwerke), aber auch Techniken oder Praktiken darstellen (z. B. die Methoden zur Erfassung von Treibhausgasemissionen bestimmter Länder) oder ganze Organisationen (z. B. der SBSTA oder das IPCC) (Miller 2001: 480). Vier Elemente – Hybridisierung, Dekonstruktion von Wissen in Diskursen und Kontroversen, boundary work und cross-domain orchestration – definiert er als hybrid management. Durch eine detaillierte Analyse des Umgangs mit Hybriden bzw. der Prozesse durch die diese Hybride konstruiert und zueinander in Beziehung gesetzt werden, sei man in der Lage, so Miller, die Arbeit von boundary organizations auf der internationalen Ebene zu verstehen. Am Beispiel des SBSTA konkretisiert Miller sein Konzept. Der SBSTA ist vor allem für die Erzeugung und Stabilisierung standardisierter Methoden zur Messung von Treibhausgasemissionen im Klimaregime zuständig. Dabei zieht die Erfassung der Emissionswerte eine ganze Reihe von Fragen nach sich, die sowohl an die Wissenschaft als auch an die Politik adressiert sind. Wer ist für die Emissionswerte verantwortlich, welche Emissionen zählen zur Kategorie der anthropogen verursachten und welche gelten als natürlich verursachte Emissionen etc. Der SBSTA dient als Forum diese Fragen zwischen Wissenschaftlern und Regierungsvertretern, die mit unterschiedlichen normativen und epistemologischen Kriterien arbeiten, zu klären. Genau hierin sieht Miller auch die Hybridmanagementfunktion des SBSTA, der den intermediary body zwischen IPCC und UNFCCC bildet (Petersen 2002: 7). Wesentliche Parallelen zu Gustons Theorie der boundary organization und Millers erweitertem Konzept des hybrid managements, lassen sich im boundary work Ansatz von Sheila Jasanoff finden. In ihren Studien über wissenschaftliche Beratungsgremien, die in Verbindung mit U.S. amerikanischen Verwaltungsbehörden stehen, verwendet Jasanoff (1990) zur Beschreibung der Grenzziehung zwischen Wissenschaft und Politik das Konzept der boundary work. Wie bei
Das IPCC als Boundary Organization
267
Guston und Miller richtet sich ihre zentrale Fragestellung auf die Organisation der Schnittstelle von Wissenschaft und Politik. Im Anschluss an Bruno Latour beschreibt Jasanoff die duale Struktur der boundary organizations als coproduction: „(…) natural knowledge and political order are co-produced through a common social project that shores up the legitimacy of each“ (Jasanoff/Wynne 1998: 16). Im Fall des IPCC als „co-production of, on the one hand, our knowledge about the climate system and, on the other hand, the international political order: The IPCC’s efforts to provide usable knowledge resonated with the belief of sponsoring policy organizations that climate change is a manageable problem within the framework of existing institutions and cultures“ (Jasanoff/Wynne 1998: 37).
Die Probleme in der Aufrechterhaltung der Grenze zwischen Wissenschaft und Politik, fasst sie wie folgt zusammen: „When an area of intellectual activity is tagged with the label ‘science’, people who are not scientists are de facto barred from having any say about its substance; correspondingly, to label something ‘not science’ >e.g., mere politics@ is to denude it of cognitive authority“ (Jasanoff 1990: 14). Jasanoff betont, das die „soziale Konstruktion“ der Grenze zwischen Wissenschaft und Politik eine entscheidende Strategie ist, mit deren Hilfe verschiedene Akteure ihre Interessen durchzusetzen versuchen. In ihren Arbeiten beschreibt sie, auf welche Art und Weise boundary work von verschiedenen Seiten geleistet wird. Industrielobbys oder Interessengruppen nutzen boundary work, um die unwillkommenen politischen Entscheidungen zu diskreditieren oder zu delegitimieren, indem sie die Glaubwürdigkeit des zugrundeliegenden Wissens anzweifeln. Eine erfolgreiche Strategie ist die Darstellung wissenschaftlicher Praktiken und Ergebnisse als regulatory science oder bad science (Jasanoff 1990: 14). Jasanoffs Modell der co-production richtet hier die Aufmerksamkeit auf den Sachverhalt, dass sich wissenschaftliche Kontroversen, gerade wenn sie sich auf vergleichbare wissenschaftliche Informationen stützen und ähnliche Schlüsse über ihre Zuverlässigkeit zulassen, nicht an den Unstimmigkeiten über den Stand der Forschung entzünden. Aus ihrer Perspektive sind es normative Differenzen, die zu divergierenden Interpretationen der wissenschaftlichen Evidenz führen (Jasanoff 1986, 1987). Neben Jasanoff beschreiben auch andere Vertreter der science and technology studies, die Schnittstelle zwischen Wissenschaft und Politik mit einem Modell zweier, sich überschneidender Kreisläufe – dem der Wahrheit bzw. der wissenschaftlichen Glaubwürdigkeit, und dem der Macht oder der politischen Glaubwürdigkeit (Elzinga 1996: 245 ff.). Elzinga (1996) überträgt dieses Modell auch auf das IPCC.
268
Verena Poloni „Although there is every indication that the IPCC itself, and the composition of its working groups, is a product of intergovernmental negotiations as well as some very sophisticated boundary work at the interface between affairs of science and those of society – upon which it is based and the strict separation of criteria relating to scientific judgments and policy, respectively, are predicated on a traditional image of science as disembodied reason“ (Elzinga 1996: 224).
Die Grenzarbeit zwischen Wissenschaft und Politik wird im Fall des IPCC vor allem in der Berichterstellung geleistet (s. o.). Eine wesentliche Neuheit des IPCC besteht darin, dass in die Erstellung der Summaries for Policymakers politische Entscheidungsträger einbezogen werden. In einem zeilenweisen Abstimmungsprozess zwischen den Lead Autoren und den Entscheidungsträgern wird ein Konsens ausgehandelt was an wissenschaftlichem Wissen und in welchem Wortlaut repräsentiert wird.15 Um jedoch die wissenschaftliche Glaubwürdigkeit der Berichte zu gewährleisten wird auf das traditionelle Verfahren des wissenschaftlichen Peer Review – das wesentliche Element des Assessmentprozesses im IPCC – zurückgegriffen. Somit werden die wissenschaftlichen Verfahren nicht durch politische ersetzt. Dies würde ansonsten den Verlust der wissenschaftlichen Glaubwürdigkeit und damit den Verlust der politischen Glaubwürdigkeit des IPCC bedeuten. Politische Entscheidungsträger werden so zwar in den Assessmentprozess des IPCC einerseits integriert, andererseits wird, wie gezeigt durch interne Grenzziehungsstrategien sowohl auf organisatorischer als auch auf der Prozessund Verfahrensebene die politische Einflussnahme auf die wissenschaftlichen Ergebnisse erfolgreich verhindert.
15
Die LAs können jedoch die vorgeschlagenen Änderungen ablehnen, wenn diese unvereinbar sind mit den dem Kapitel zugrunde liegenden wissenschaftlichen Ergebnissen (vgl. Petersen 2002: 9).
Das IPCC als Boundary Organization
269
Literatur Agrawala, Shardul (1998): Context and Early Origins of the Intergovernmental Panel on Climate Change. In: Climatic Change 39. 605-620 Agrawala, Shardul (1999): Early Science-Policy Interactions in Climate Change: Lessons from the Advisory Group on Greenhouse Gases. In: Global Environmental Change 9. 157-169 Alfsen, Knut/Skodvin, Tora (1998): The Intergovernmental Panel on Climate Change (IPCC) and Scientific Consensus. In: Center for International Climate and Environmental Research – Oslo, Policy Note 1998: 3. 1-23 Aldrich, Howard E. (1979): Organizations and Environments. Englewood Cliffs, NJ: Prentice-Hall Arrhenius, Svante (1986): On the Influence of Carbonic Acid in the Air upon the Temperature of the Ground. In: Philadelphia Magazine 41. 237-271 Bodansky, Daniel (1994): Prologue to the Climate Change Convention: In: Mintzer/Amber (1994): 45-74 Bolin, Bert (1994): Science and Policy Making. In: Ambio 23. 25-29 Bolin, Bert/Houghton, John/Meira-Filho, L. Gylvan (1996): Letter to the Editor. Wall Street Journal, NY. June 25 Bolin, Bert (1997): Scientific Assessment of Climate Change. In: Fermann (1997): 83109 Bozeman, Barry (1987): All Organizations are Public. San Francisco, CA: Jossey-Bass Brante, Thomas/Fuller, Steve/Lynch, William (Hrsg.) (1993): Controversial Science. From Content to Contention. Albany: State University of New York Press Daele, Wolfgang van den (1993): Zwanzig Jahre politische Kritik an den Experten. Wissenschaftliche Expertise in der Regulierung technischer Risiken: die aktuelle Erfahrung. In: Huber et al. (1993): 173-194 Edwards, Paul N./Schneider, Stephen H. (1997): The IPCC 1995 IPCC Report. Broad Consensus or „Scientific Cleansing?“. In: Ecofable/Ecoscience 1. 3-9 Elzinga, Aant (1993): Science as the Continuation of Politics by Other Means. In: Brante et al. (1993): 127-151 Elzinga, Aant/Landström, Catharina (Hrsg.) (1996): Internationalism and Science. London, Los Angeles: Taylor Graham Elzinga, Aant (1996): Shaping Worldwide Consensus: The Orchestration of Global Change Research. In: Elzinga, Aant/Landström (1996): 223-255 Elzinga, Aant (1997): From Arrhenius to Megascience: Interplay between Science and Public Decisionmaking. In: Ambio 26. 72-80 Farrell, Alexander/Jäger, Jill (Hrsg.) (2006): Assessments of Regional and Global Environmental Risks. Designing Processes for the Effective Use of Science in Decisionmaking. Washington, DC: RFF Press Fermann, Gunnar (Hrsg.) (1997): International Politics of Climate Change: Key Issues and Critical Actors. Oslo: Scandinavian University Press
270
Verena Poloni
Guston, David H. (1999): Stabilizing the Boundary between US Politics and Science: The Role of the Office of Technology Transfer as a Boundary Organization. In: Social Studies of Science 29. 87-111 Guston, David H. (2000): Between Politics and Science: Assuring the Integrity and Productivity of Research. New York: Cambridge University Press Guston, David H. (2001): Boundary Organizations in Environmental Policy and Science: An Introduction. In: Science, Technology and Human Values 26. 399-408 Haas, Peter M. (1992): Introduction: Epistemic Communities and International Policy Coordination. In: International Organization 46. 1-35 Houghton, John J./Filho, L. G. Meiro (Hrsg.) (1996): Climate Change 1995: The Science of Climate Change. Cambridge: Cambridge University Press Huber, Joseph/Thurn, Georg (Hrsg.) (1993): Wissenschaftsmilieus. Wissenschaftskontroversen und soziokulturelle Konflikte. Berlin: Ed. Sigma IPCC (1991): Intergovernmental Panel on Climate Change: Report of the Fourth Session of the IPCC Bureau IPCC (1992): Report of the Eighth Session of the Intergovernmental Panel on Climate Change. Harare, Zimbabwe IPCC (1993): Report of the Ninth Session of the Intergovernmental Panel on Climate Change. Geneva, Switzerland IPCC (1998): Principles governing IPCC Work, Adopted at the Fourteenth Session (Vienna, 1-3 October 1998) on 1 October 1998, amended at the 21st Session (Vienna, 3 and 6-7 November 2003) and at the 25th Session (Mauritius, 26-28 April 2006) IPCC (1999): Appendix A to the Principles Governing IPCC Work. Procedures for the preparation, review, acceptance, adoption, approval and publication of IPCC reports, Adopted at the Fifteenth Session (San Jose, 15- 18 April 1999) amended at the Twentieth Session (Paris, 19-21 February 2003) and Twenty-first Session (Vienna, 3 and 6-7 November 2003) Jasanoff, Sheila (1986): Risk Management and Political Culture. New York: Sage Jasanoff, Sheila (1987): Contested Boundaries in Policy-Relevant-Science In: Social Studies of Science 17. 195-230 Jasanoff, Sheila (1990): The Fifth Branch: Science Advisers as Policy Makers. Cambridge, MA: Harvard University Press Jasanoff, Sheila/Wynne, Brian (1998): Science and Decisionmaking. In: Rayner/Malone (1998): 1-87 Jung, Wolfgang (1999): Expert Advice in Global Environmental Decision Making: How Close Should Science and Policy Get? Discussion Paper E-99-14. Belfer Center for Science & International Affairs. Global Environmental Assessment Project. Environment and Natural Resources Program Krücken, Georg, (1997): Risikotransformationen: Die politische Regulierung technischökologischer Gefahren in der Risikogesellschaft. Opladen, Wiesbaden: Westdeutscher Verlag Miller, Clark (2001): Hybrid Management: Boundary Organizations, Science Policy, and Environmental Governance in the Climate Regime. In: Science, Technology and Human Values 26. Special Issue: Boundary Organizations in Environmental Policy and Science. 478-500
Das IPCC als Boundary Organization
271
Mintzer, Irving M./Amber, Leonard J. (Hrsg.) (1994): Negotiating Climate Change: The Inside Story of the Rio Convention. Cambridge: Cambridge University Press Moss, Richard H. (2000): Ready for IPCC-2001: Innovation and Change in Plans for the IPCC Third Assessment Report. In: Climatic Change 45. 459-468 Pachauri, Rajendra K. (2004) : Intergovernmental Panel on Climate Change. 16 Years of Scientific Assessment in Support of the Climate Convention. 1-13 Petersen, Arthur C. (2002): The Precautionary Principle, Knowledge Uncertainty, and Environmental Assessment. Paper for NOB/NIG workshop „Knowledge Uncertainty“. 30-31 October 2002. Erasmus University Rotterdam. 1-19 Rayner, Steve/ Malone Elizabeth (Hrsg.): Human Choice and Climate Change. Vol. 1: The Societal Framework. Columbus, OH: Batelle Press Siebenhühner, Bernd (2006): Can Assessments Learn?, and If So, How? A Study of the IPCC. In: Farrell/Jäger (2006): 166-186 Skodvin, Tora (1999): Science-policy. Interaction in the Global Greenhouse. Cicero Working Paper No. 3. Oslo Tolba, Mostafa (1988): Warming: Warning. Opening Speech at the First Session of the Intergovernmental Panel on Climate Change. Geneva, November, 9. Zitiert in: Agrawala (1998): 617 Weingart, Peter (2001): Die Stunde der Wahrheit? Zum Verhältnis der Wissenschaft zu Politik, Wirtschaft und Medien in der Wissensgesellschaft. Weilerswist: Velbrück Wissenschaft
Abbildungsverzeichnis Abbildung 1: Das IPCC als Interface zwischen Klimawissenschaft und Klimapolitik Abbildung 2: Die Organisationsstruktur des IPCC. In: Alfsen, Knut H./Skodvin, Tora (1998): The Intergovernmental Panel on Climate Change (IPCC) and Scientific Consensus. In: Center for International Climate and Environmental Research – Oslo, Policy Note 1998: 3. 1-23 Abbildung 3: Die Entscheidungsebenen des IPCC. In: Alfsen, Knut H./Skodvin, Tora (1998): The Intergovernmental Panel on Climate Change (IPCC) and Scientific Consensus. In: Center for International Climate and Environmental Research – Oslo, Policy Note 1998: 3. 1-23
Tabellenverzeichnis Tabelle 1: Arbeitsplan der Arbeitsgruppe I zum vierten Assessment-Bericht
Verzeichnis der Autorinnen und Autoren
Silke Beck, Senior Scientist am Helmholtz-Zentrum für Umweltforschung (UFZ). Forschungsschwerpunkte: Wissenschaftsforschung, Vergleichende Umweltpolitik. Ausgewählte Publikationen: Neßhöver, C./Berghöfer, A./Beck, S. (2007): Weltranglisten als Beratungsinstrumente für Umweltpolitik. Eine Einschätzung des Environmental Performance Index. Marburg: Metropolis Verlag; Beck, S. (1994): Localizing Global Change in Germany. In: Jasanoff, S./Martello/Long, M. (Hrsg.): Earthly Politics: Local and Global in Environmental Governance. Cambridge, Ma.: MIT Press. 173-194; Bechmann, G./Beck, S. (2002): Gesellschaft als Kontext von Forschung. Neue Formen der Produktion und Integration von Wissen. Klimamodellierung zwischen Wissenschaft und Politik. Expertise zum BMBF-Förderschwerpunkt „Wissen für Entscheidungsprozesse – Forschung zum Verhältnis von Wissenschaft, Politik und Gesellschaft“. Heidelberg. Stefan Böschen, geboren 1965 in Waldshut, Deutschland. Studium des Chemieingenieurwesens, der Philosophie und Soziologie in Erlangen-Nürnberg, Diplom als ChemieIngenieur, Promotion in Soziologie. Mitarbeiter am Sonderforschungsbereich „reflexive Modernisierung“ in Augsburg mit dem Projekt „Ökonomisierung des Wissens?“. Projektleiter am Wissenschaftszentrum Umwelt der Universität Augsburg, aktuell mit dem vom BMBF geförderten Projekt „Risikokonflikte visualisiert“. Schwerpunkte: Wissenschafts- und Risikoforschung, Institutionentheorie, Theorie moderner Gesellschaften. Aktuelle Veröffentlichungen: Böschen, S./Weis, K. (2007): Die Gegenwart der Zukunft. Perspektiven zeitkritischer Wissenspolitik. Wiesbaden: VS-Verlag; Böschen, S./Kratzer, N./May, S. (Hrsg.) (2006): Nebenfolgen. Analysen zur Konstruktion und Transformation moderner Gesellschaften. Weilerswist: Velbrück. Jobst Conrad, geb. 1950, Privatdozent, studierte Physik sowie Mathematik, Politologie, Soziologie und Psychologie. Er promovierte in theoretischer Astrophysik und habilitierte sich in Technologie- und Umweltpolitik. Er leitete und arbeitete mit an Forschungsprojekten in den Bereichen von Energiepolitik, Umweltpolitik, Klimaforschung, Biotechnologiepolitik, technologische Risiken und gesellschaftliche Konflikte, Landwirtschaft und Umwelt, Umwelt und Sicherheit, und Umweltmanagement in Unternehmen in Frankfurt, Berlin, Oslo, Leipzig und Dresden. Unter anderem lehrte er an den Universitäten in Heidelberg, Darmstadt, Frankfurt, Berlin und Amsterdam.
Autorenverzeichnis
273
Beverly Crawford ist die stellvertretende Direktorin des Institute of European Studies an der University of California in Berkeley. Dort unterrichtet sie Internationale Politische Ökonomie und Amerikanische Außenpolitik im Rahmen des Studiengangs International and Area Studies. Sie publiziert in den Themengebieten ethnische Konflikte, Europapolitik, Deutsche Außenpolitik, Politik des Technologietransfers, Postkommunistische Transition, Europäische Union, Barcelona-Prozess sowie der Globalisierung. Ausgewählte Buchpublikationen: Crawford, Beverly (1993): Economic Vulnerability in International Relations. The Case of East-West Trade, Investment, and Finance. New York (u.a.): Columbia University Press Gabriele Gramelsberger promovierte 2001 bei Prof. Dr. Sybille Krämer zum Thema „Semiotik und Simulation“ und arbeitet seither als Wissenschaftsphilosophin am Institut für Philosophie der FU Berlin zum Thema „Computersimulationen – Neue Instrumente der Wissensproduktion“ (Fallstudien: Klimamodellierung, Zellbiologie) sowie seit 2009 zum Thema „Mathematisierung der Lebenswelt“. 2008 arbeitete sie einige Monate als Gastwissenschaftlerin am Max Planck Institut für Meteorologie in Hamburg. Ausgewählte Publikationen: Gramelsberger, G. (2009): Computerexperimente. Zum Wandel der Wissenschaften im Zeitalter des Computers, Bielefeld: Transkript; Gramelsberger, G./Feichter, J. (Hrsg.) (2009): Dealing with Uncertainty in Climate Research and Policy – Insights into the Calculability of Uncertainty and its Influence on Society, Heidelberg: Springer; Gramelsberger, G. (2008): Computersimulationen - Neue Instrumente der Wissensproduktion. In: Mayntz, Renate/Neidhardt, Friedhelm/Weingart, Peter/Wengenroth, Ulrich (Hrsg.) (2008): Wissensproduktion und Wissenstransfer. Bielefeld: Transcript. 75-95. Jost Halfmann, Professor für Soziologie, Institut für Soziologie, TU Dresden Forschungsschwerpunkte: Wissenschafts- und Techniksoziologie, Politische Soziologie, Soziologische Theorie. Ausgewählte Buchpublikationen: Halfmann, Jost (1984): Die Entstehung der Mikroelektronik. Frankfurt a. M.: Campus; Halfmann, Jost (1996): Makrosoziologie der modernen Gesellschaft. Weinheim/München: Juventa; Halfmann, Jost (1996): Die gesellschaftliche „Natur“ der Technik. Opladen: Leske & Budrich; Halfmann, Jost (Hrsg.) (1998): Technische Zivilisation. Opladen: Leske & Budrich; Halfmann, Jost (Mit-Hrsg.) (2002): Wissen, Nicht-Wissen, unsicheres Wissen. Baden-Baden: Nomos; Halfmann, Jost (Mit-Hrsg.) (2007): Zwei Kulturen der Wissenschaft –revisited. Weilerswist: Velbrück Wissenschaft. Petra Hiller, Professorin für Organisation & Governance an der Fachhochschule Nordhausen. Promotion und Habilitation an der Fakultät für Soziologie der Universität Bielefeld. Gastprofessorin am Institut für Soziologie der Universität Wien. Arbeitsschwerpunkte: Wissenssoziologie der Organisation, Public Governance, Rechtssoziologie. Veröffentlichungen (Auswahl): Hiller, Petra (2005): Organisationswissen. Eine wissenssoziologische Neubeschreibung der Organisation. Wiesbaden: VS-Verlag; Hiller, Petra (2005): Korruption und Netzwerke. In: Zeitschrift für Rechtssoziologie 26. 1. 57-77; Hiller, Petra (2008): Risk Regulation in Public Organizations. http://www.egosnet.org.members/index.php
274
Autorenverzeichnis
Daniela Jacob leitet die Arbeitsgruppe Regionalmodellierung am Max-Planck-Institut für Meteorologie und entwickelt seit über 15 Jahren mesoskalische numerische Modelle. In der Arbeitsgruppe wurde das regionale Klimamodell REMO entwickelt, mit dem für verschiedene Regionen gegenwärtige, vergangene und zukünftige Klimaszenarien in verschiedenen horizontalen Auflösungen berechnet werden können. Dr. Jacob nimmt an vielen nationalen und internationalen Projekten teil. Im Moment koordiniert sie das EUProjekt CLAVIER (CLimate ChAnge and Variability: Impact on Central and Eastern EuRope) und ist am EU-Projekt ENSEMBLES beteiligt. Verena Poloni, Dipl. Soz., geb. 1976, Studium der Soziologie in Dresden und Montpellier. Derzeit Wissenschaftliche Asisstentin an der Dozentur für Soziologie am Department Architektur an der ETH Zürich. Zuletzt hat sie in Dresden am Institut für Soziologie am Forschungsprojekt „Probelemorientierte Forschung und Wissenschaftliche Dynamik: Das Beispiel der Klimaforschung“ unter der Leitung von Prof. Jost Halfmann mitgearbeitet. Ihr Dissertationsprojekt beschäftigt sich mit wissenschaftlicher Politikberatung auf internationaler Ebene. Falk Schützenmeister promovierte am Institut für Soziologie der TU Dresden, PostdocGastwissenschaftler an der UC Berkeley, Mitbegründer der Nachwuchsgruppe Umweltsoziologie. Arbeitsschwerpunkte: Wissenschaftssoziologie, Open Science, Umweltsoziologie, Methoden der empirischen Sozialforschung. Relevante Veröffentlichungen: Schützenmeister, Falk (2008): Zwischen Problemorientierung und Disziplin: Ein koevolutionäres Modell der Wissenschaftsentwicklung. Bielefeld: Transcript; Schützenmeister, Falk (2008): Disziplinarität und Interdisziplinarität in der atmosphärischen Chemie. In: Mayntz, Renate/Neidhardt, Friedhelm/Weingart, Peter/Wengenroth, Ulrich (Hrsg.) (2008): Wissensproduktion und Wissenstransfer. Bielefeld: Transcript.