Petra Badke-Schaub Gesine Hofinger Kristina Lauche (Hrsg.) Human Factors Psychologie sicheren Handelns in Risikobranchen 2. Aufl.
Petra Badke-Schaub Gesine Hofinger Kristina Lauche (Hrsg.)
Human Factors Psychologie sicheren Handelns in Risikobranchen Mit 46 Abbildungen und 17 Tabellen 2., überarbeitete Auflage
1C
Prof. Dr. Petra Badke-Schaub TU Delft Faculty of Industrial Design Engineering Dept. Product Innovation Management Landbergstraat 15 2628 CE Delft, Niederlande
Prof. Dr. Kristina Lauche Radboud University Nijmegen Nijmegen School of Management 6500 HK Nijmegen, Niederlande
Dr. Gesine Hofinger Team HF Hofinger Forschung Beratung Training Hohenheimer Str. 104 71686 Remseck
ISBN-13
978-3-642-19885-4
Springer-Verlag Berlin Heidelberg
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. SpringerMedizin Springer-Verlag GmbH ein Unternehmen von Springer Science+Business Media springer.de © Springer-Verlag Berlin Heidelberg 2008, 2012 Produkthaftung: Für Angaben über Dosierungsanweisungen und Applikationsformen kann vom Verlag keine Gewähr übernommen werden. Derartige Angaben müssen vom jeweiligen Anwender im Einzelfall anhand anderer Literaturstellen auf ihre Richtigkeit überprüft werden. Die Wiedergabe von Gebrauchsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutzgesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürfen. Planung: Joachim Coch Projektmanagement: Michael Barton, Katrin Meissner Lektorat: Daniela Böhle, Berlin Umschlaggestaltung: deblik Berlin Fotonachweis Umschlag: links © Levent Konuk/shutterstock, rechts. © Graham Taylor/shutterstock Satz: Crest Premedia Solutions (P) Ltd., Pune, India SPIN: 80030382 Gedruckt auf säurefreiem Papier
26/2126 – 5 4 3 2 1 0
V
Vorwort zur 2. Auflage Nachdem wir als Herausgeberinnen in der Vorbereitung zur 2. Auflage dieses Buches »Human Factors« beinahe alle notwendigen Aufgaben erledigt hatten, überraschten uns bei der Anpassung des Vorwortes die katastrophalen Auswirkungen des großen Erdbebens vom 11.03.2011 in Japan mit dem folgenden Tsunami und den GAUs der Atomkraftwerke in Fukushima. Wir wollen und können an dieser Stelle nicht die Frage nach der Übertragbarkeit der Situation Japans auf andere Länder stellen und auch nicht die vorzeitige Abschaltung von Kernkraftwerken diskutieren. Doch dieses Buch soll Anstoß geben, darüber nachzudenken, inwieweit wir Menschen überhaupt und grundsätzlich in der Lage sind, solch komplexe Probleme in ihrem gesamten Umfang zu verstehen, einzuschätzen, zu prognostizieren und dementsprechend sinnvoll zu entscheiden und zu handeln. Es wird argumentiert, die Sicherheitssysteme würden menschliches Versagen als Ursache für diesen Unfall und seine Folgen ausschließen, und es wird auf die unvorhersehbare Kraft der Natur verwiesen. Beispielsweise erläuterte der Chef der Internationalen Atomenergiebehörde IAEA, Yukiya Amano: »Dies ist wegen einer riesigen Katastrophe passiert, die jenseits menschlicher Vorstellung oder Erfahrung lag« (http://www.co2-handel.de/article184_16021. html), obwohl die Erdbebentauglichkeit der Anlagen auch in Japan selbst kritisch diskutiert wurde. Doch auch Sicherheitssysteme und Technik werden von Menschen geplant, konstruiert, betrieben und gewartet. Wenn technische Systeme versagen, sei es aus internen Fehlern oder durch externe Einwirkung, dann ist die Ursache im Management, in der Planung und Konstruktion, im Betrieb oder in der Organisation zu suchen und damit immer direkte oder indirekte Folge menschlichen Denkens, Planens, Entscheidens und Handelns. Dass weites und steigendes Interesse an der Frage besteht, in welcher Weise die menschliche physische, psychische und soziale Ausstattung den Umgang mit komplexen Problemen erleichtert oder limitiert, wird an der großen Nachfrage nach dem vorliegenden Buch deutlich, die eine 2. Auflage erlaubt. Für die 2. Auflage wurden alle Beiträge durchgesehen, umgearbeitet oder erweitert und durch aktuelle Literatur ergänzt. Die Herausgeberinnen Petra Badke-Schaub, Gesine Hofinger und Kristina Lauche
Delft, Remseck und Nijmegen, April 2011
VII
Vorwort zur 1. Auflage »Können Sie uns nicht ein gutes Buch zum Thema Human Factors empfehlen, das ich auch den Kollegen weitergeben könnte? Das gut und übersichtlich zusammenfasst, was ich bei Ihnen zu menschlichem Handeln gelernt habe?« So wurden wir oft nach Workshops oder in Beratungs- und Trainingsprojekten gefragt. Auch in der Lehre hätten wir gerne auf ein solches Buch zurückgegriffen. Da es jedoch ein solches zusammenfassendes Buch nicht gab, das Theorie und Praxis menschlichen Handelns in komplexen Arbeitswelten in Verbindung bringt, nahmen wir das Projekt in Angriff – mit dem hier vorliegenden Ergebnis. Das Thema Human Factors hat in den letzten Jahren einen bedeutenden Aufschwung erlebt, sowohl hinsichtlich der wissenschaftlichen Betrachtung als auch in Bezug auf die praktische Umsetzung. Daraus könnte man schließen, dass hier ein neuer Wissenschaftsbereich entstanden ist, der Phänomene und Probleme aufgreift, die bislang in einer Technik-dominierten Welt unbeachtet blieben. Dem ist jedoch nicht so: Tatsächlich finden sich unter dem Dach von Human Factors eine Vielzahl bewährter wissenschaftlicher und anwendungsbezogener Fragen, Methoden und Konzeptionen wieder, die aus ihrer jeweiligen Perspektive die technischen, organisatorischen und prozessualen Implikationen von Human Factors ansprechen. Dies reicht von ergonomischen Fragestellungen konkreter Arbeitsplatzgestaltung über Teamtraining bis zu Organisationsberatung. Der gemeinsame Bezugspunkt all dieser Perspektiven ist der Mensch: Menschen und ihr Handeln in komplexen Arbeitswelten stehen im Zentrum der Betrachtung. Spricht man von Human Factors, so verweist der Plural auf die vielfältigen und unterschiedlichen Prozesse und Strukturen menschlichen Verhaltens. Damit rückt die Wissenschaft ins Zentrum des Human-Factors-Themas, die sich seit ihrer Emanzipation von der Philosophie vor mehr als 100 Jahren wissenschaftlich mit dem Wahrnehmen, Denken, Fühlen, Entscheiden und Handeln von Menschen und Menschengruppen beschäftigt: die Psychologie. z
Konzept des Buchs
Das vorliegende Buch präsentiert in den unterschiedlichen Kapiteln die Beiträge der Psychologie in Wissenschaft und Anwendung zur Human-Factors-Thematik. Es wird aufgezeigt, dass die Inhalte einer Human-Factors-Betrachtungsweise auf bewährte Methoden, Theorien und Ergebnisse der Psychologie zurückgreifen können und müssen. Es wird aber ebenso deutlich, dass die spezielle Human-Factors-Perspektive über die psychologische Sichtweise hinausgeht, um Human Factors im jeweiligen konkreten Anwendungsbereich zu erfassen, zu verstehen und zu bewerten. Mit dieser psychologischen, auf den handelnden Menschen bezogenen Sichtweise findet das Buch seinen Platz zwischen den verschiedenen technisch oder ergonomisch orientierten Veröffentlichungen zum Thema Human Factors. Erste Ideen für dieses Buch entstanden im Rahmen der Treffen der Vereinigung »Plattform – Menschen in komplexen Arbeitswelten« e. V. (www.plattform-ev.de). Diese gemeinnützige Vereinigung von Wissenschaftlern und Praktikern entstand 1998 mit dem Ziel, gemeinsam Konzepte zu entwickeln und umzusetzen, die das Handeln von Menschen in komplexen Arbeitsumwelten beschreiben, um daraus einerseits Fehlhandlungen zu erklären und
VIII
Vorwort zur 1. Auflage
zur Fehlervermeidung beizutragen, und andererseits die Stärken des Menschen als Sicherheitsressource sichtbar zu machen. Während des regelmäßig stattfindenden Erfahrungsaustauschs im Rahmen von Workshops entstand die Idee, das fehlende Übersichtswerk zur Human-Factors-Psychologie gemeinsam zu schreiben. Im Geiste der Plattform-Workshops sollten solide Grundlagen mit relevanten Problemstellungen verbunden werden. Dank der Bereitschaft vieler Mitglieder, sich als Autoren und Autorinnen sowie als Reviewer zu beteiligen, ist dieses Vorhaben wahr geworden. Aber auch andere Experten verschiedener Hochschulen konnten als Autoren gewonnen werden. Das Konzept dieses Buches ist es, sowohl wissenschaftliche Grundlagen allgemeinverständlich zu präsentieren als auch Anwendungsfelder in ihren Anforderungen an den Menschen aufzuzeigen. Wir hoffen, dass dieses Buch Leser und Leserinnen aus verschiedenen beruflichen Feldern mit Nutzen lesen. Konzipiert ist es als Einführung in und Überblick über psychologische Human-Factors-Themen für Interessierte aus den Anwendungsbranchen und der Psychologie und für Studierende und Lehrende der Human Factors. z
Danksagungen
Zum Gelingen des Buchs haben zuallererst die Autoren und Autorinnen beigetragen. Alle haben sich darauf eingelassen, einen unserem Konzept entsprechenden Beitrag zu verfassen und mehrfach reviewen zu lassen. Die meisten Autoren haben zudem selbst andere Kapitel gegengelesen und wertvolle Vorschläge zur Verbesserung eingebracht, auch dafür unser Dank! Einige Kapitel wurden von Reviewern begutachtet, die nicht Autoren dieses Buches sind und die dennoch bereit waren, ihre Zeit in hilfreiche Rückmeldung zu investieren. Wir danken Petra Saskia Bayerl, Axel Bédé, Peter Beer, Begona Hermann, Michael Müller, Annette Nolze, Tim Tisdale, Peter Troxler, Helfried Waleczek. Dank auch an Ursula Nagy, die Material für die Geschichte der Human Factors in Kapitel 1 beigesteuert hat. Besonderen Dank sagen wir Carlos Cardoso, TU Delft, NL, der sich bereit fand, uns seine Designerfähigkeiten zur Verfügung zu stellen und in mühseliger Detailarbeit alle Zeichnungen im Layout vereinheitlichte und in eine ästhetisch ansprechende Form brachte. Joachim Coch vom Springerverlag danken wir für die freundliche und kompetente Betreuung. Nicht zuletzt danken wir auch unseren Familien, die das Wachsen des Buchs mit Geduld begleiteten. Wir wünschen allen Lesern eine lehrreiche und anregende Lektüre sowie viel Erfolg bei der Anwendung der gewonnenen Erkenntnisse. Die Herausgeberinnen Petra Badke-Schaub, Gesine Hofinger und Kristina Lauche
Delft und Remseck Juni 2008
IX
Inhaltsverzeichnis I
Human Factors und sicheres Handeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1
Human Factors . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1 1.2 1.3 1.4 1.5
Petra Badke-Schaub, Gesine Hofinger und Kristina Lauche Die menschlichen Faktoren und die Disziplin Human Factors . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Verwandte Disziplinen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 Wurzeln der Human-Factors-Forschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 Methoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .15 Fokus und Aufbau dieses Buches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2
Sicherheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .21
2.1 2.2 2.3 2.4 2.5
Babette Fahlbruch, Markus Schöbel und Juliane Marold Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 Erklärungsansätze in der Sicherheitsforschung: Warum sind Systeme (un)sicher? . . . . . . 24 Management von Sicherheit in der Praxis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 Der tägliche Umgang mit Sicherheit: Konzept der Sicherheitskultur . . . . . . . . . . . . . . . . . . . . .31 Zusammenfassung und Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3
Fehler und Unfälle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.1 3.2 3.3 3.4 3.5 3.6 3.7
Gesine Hofinger Fehler, Irrtümer und Sicherheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 Fehler und Unfälle: Personansatz und Systemansatz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 Jeder Fehler ein Schatz? Vom Nutzen der Zwischenfälle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 Fehlerarten und Fehlerformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 Ursachen für Fehler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 Zuverlässigkeit und Fehlerfreundlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
II
Individuelle und teambezogene Faktoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4
Wahrnehmung, Aufmerksamkeit und »Situation Awareness« (SA) . . . . . . . . . . . . . 63
4.1 4.2 4.3 4.4 4.5 4.6
Harald Schaub Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 Wahrnehmung: »Wara Neman« . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 Aufmerksamkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 »Situation Awareness« (SA) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 Störungen der Wahrnehmung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
X
Inhaltsverzeichnis
5
Denken – Entscheiden – Handeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.1 5.2 5.3 5.4 5.5
Winfried Hacker und Rüdiger von der Weth Einleitung und kurze Übersicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 Verhalten – Handeln – Denken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 Handeln unter komplexen Bedingungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 Entscheiden als Komponente von Handlungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 Zusammenfassung und Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
6
Emotion und Handeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
6.1 6.2 6.3 6.4
Dietrich Dörner Einleitung: Begriff »Emotion«. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 Psi: Integrierte Theorie von Motivation, Kognition und Emotion . . . . . . . . . . . . . . . . . . . . . . . 103 Emotionen und Handeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 Zusammenfassung und abschließende Bemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
7
Handeln in Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
7.1 7.2 7.3 7.4 7.5 7.6 7.7
Petra Badke-Schaub Gruppen als Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Anforderungen an den Gruppenprozess: Kommunikation, Koordination und Kooperation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Integration: Team Mental Models . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Analyse des Beispiels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zentrale Determinanten des Entscheidungsverhaltens in Gruppen . . . . . . . . . . . . . . . . . . . . Zusammenfassung und Zusammenführung: Erfolgsfaktoren sicheren Handelns in Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
123 126 128 130 130 133 135 138
8
Kommunikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
8.1 8.2 8.3 8.4 8.5 8.6 8.7
Gesine Hofinger Einleitung: Interaktion und Information . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142 Kommunikation verstehen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 Funktionen von Kommunikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147 Störungen der Kommunikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151 Kommunikation in kritischen Situationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155 Kommunikation als Sicherheitsressource . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156 Zusammenfassung und Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
III
Organisationale Einflussfaktoren auf sicheres Handeln . . . . . . . . . . 163
9
Organisationen – Kommunikationssystem und Sicherheit . . . . . . . . . . . . . . . . . . . . . 165
9.1 9.2 9.3
Cornelius Buerschaper Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166 Organisationen als soziotechnische Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167 Organisieren als Prozess. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
Inhaltsverzeichnis
XI
9.5 9.6 9.7
Organisationen als Kommunikationssysteme. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170 Organisationale Interaktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .172 Sicherheit organisieren. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .175 Zusammenfassung und Schlussfolgerungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
10
Führung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
9.4
10.1 10.2 10.3 10.4 10.5 10.6 10.7
Gudela Grote Die Bedeutung von Führung für die Förderung von Sicherheit . . . . . . . . . . . . . . . . . . . . . . . . 190 Management von Unsicherheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193 Anforderungen an normative Führung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 Anforderungen an strategische Führung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197 Anforderungen an operative Führung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198 Führung bei organisationalen Veränderungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
11
Neue Formen der Zusammenarbeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
11.1 11.2 11.3 11.4
Kristina Lauche Wie verändert sich Zusammenarbeit und warum? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207 Implikationen einer veränderten Arbeitswelt für Sicherheit . . . . . . . . . . . . . . . . . . . . . . . . . . . 209 Anforderungen für Technik- und Organisationsgestaltung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .217
IV
Aktuelle Human-Factors-Herausforderungen und Anforderungen für die Zukunft in verschiedenen Risikofeldern. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
12
Aktuelle Themen und zukünftige Entwicklungen in der Luftfahrt . . . . . . . . . . . . . 221
12.1 12.2 12.3
Rolf Wiedemann und Petra Badke-Schaub Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222 Anforderungen für die Zukunft . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
13
13.1 13.2 13.3 13.4 13.5 13.6 13.7
Patientensicherheit und Human Factors – Vom Heute in die Zukunft gesehen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235 Peter Dieckmann und Marcus Rall Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236 Analytische Betrachtung des Fallbeispiels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237 Patientensicherheit in Deutschland . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238 Entwicklungslinien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239 Diagnostische Ansätze zur Erfassung der Lage der Patientensicherheit . . . . . . . . . . . . . . . . 240 Ansatzpunkte zur Erhöhung der Patientensicherheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241 Zusammenfassung und Schlussbetrachtung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
XII
Inhaltsverzeichnis
14
Lernen aus Störfällen und Präventionsansätze in der Prozessindustrie . . . . . . . 247
14.1 14.2 14.3 14.4 14.5
Günter Horn und Kristina Lauche Einleitung: Kennzeichen der Branche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248 Lernen aus Störfällen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251 Einflussfaktoren und Interventionsmöglichkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253 Herausforderungen für die Zukunft . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
15
Militär: Handeln in komplexen Problemlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263
15.1 15.2 15.3 15.4 15.5
Markus Bresinsky, Frank Detje und Martin Littschwager Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264 Das Lagebild als Ausgangspunkt militärischen Handelns . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265 Shared Situation Awareness im militärischen Handeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268 Human Factors im militärischen Handeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270 Zusammenfassung und Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273
16
Stabsarbeit und »Ständige Stäbe« bei der Polizei: Sicherheit durch Professionalisierung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275
16.1 16.2 16.3 16.4 16.5
Uwe Thieme und Gesine Hofinger Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276 Wie wirklich ist die Wirklichkeit in Stäben der Polizei? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279 Teamkommunikation im Stab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284 Fehlerprävention im Rahmen der Stabsarbeit: Planentscheidungen . . . . . . . . . . . . . . . . . . . 286 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289
V
Prozesse gestalten im Dienst der Sicherheit . . . . . . . . . . . . . . . . . . . . . . . . . . 293
17
Komplexität handhaben – Handeln vereinheitlichen – Organisationen sicher gestalten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
17.1 17.2 17.3 17.4
Tanja Manser Fallbeispiel: Standardisierung in der Hämotherapie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296 Umgang mit Komplexität auf der Ebene der Organisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297 Organisationen sicher gestalten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 309 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 309
18
Human-Factors-Training . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313
18.1 18.2 18.3 18.4 18.5 18.6 18.7
Stefan Strohschneider Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314 HF-Training: Rahmenbedingungen und Trainingsziele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315 Ebenen der Intervention . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318 Trainingsmethoden in Human-Factors-Trainings . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319 Trainingsformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322 Trainerkompetenzen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 327 Evaluation und Transfer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 328
Inhaltsverzeichnis
XIII
18.8
Zusammenfassung und abschließende Bemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 329 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 330
19
Systemgestaltung und Automatisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333
19.1 19.2 19.3 19.4 19.5 19.6
Dietrich Manzey Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 334 Automatisierung und Automation: Begriffsbestimmung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335 Rolle des Menschen in automatisierten Systemen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 337 Probleme der Nutzung automatisierter Systeme durch den Menschen . . . . . . . . . . . . . . . . 338 Konzepte einer menschzentrierten Systemgestaltung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 346 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350
Autorenportraits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353 Stichwortverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361
1
Human Factors und sicheres Handeln Kapitel 1
Human Factors – 3 Petra Badke-Schaub, Gesine Hofinger und Kristina Lauche
Kapitel 2
Sicherheit – 21 Babette Fahlbruch, Markus Schöbel und Juliane Marold
Kapitel 3
Fehler und Unfälle – 39 Gesine Hofinger
I
3
Human Factors Petra Badke-Schaub, Gesine Hofinger und Kristina Lauche
1.1
Die menschlichen Faktoren und die Disziplin Human Factors – 4
1.2
Verwandte Disziplinen – 8
1.3
Wurzeln der Human-Factors-Forschung – 10
1.3.1 1.3.2 1.3.3 1.3.4 1.3.5 1.3.6
Scientific Management – 11 Psychotechnik – 12 Soziale Systemgestaltung: der Human-Relations-Ansatz – 12 Soziotechnische Systemgestaltung – 13 Kognitive Ergonomie – 13 Aktuelle Strömungen und Themen – 14
1.4
Methoden – 15
1.4.1 1.4.2
Forschungsmethoden – 15 Ausgewählte spezifische Methoden – 16
1.5
Fokus und Aufbau dieses Buches – 17 Literatur – 18
P. Badke-Schaub et al., Human Factors, DOI 10.1007/978-3-642-19886-1_1, © Springer-Verlag Berlin Heidelberg 2012
1
4
1
Kapitel 1 • Human Factors
Wir möchten mit diesem Buch allen, die Interesse an grundsätzlichen Fragen zum Handeln in soziotechnischen Systemen haben, praxisnah wissenschaftlich fundierte Erkenntnisse vermitteln, die zum besseren Verständnis der Interaktionen von Menschen und Technik in komplexen Arbeitswelten beitragen. Diese Erkenntnisse können zum einen als Grundlage für die Kommunikation der Inhalte über verschiedene Disziplinen hinweg dienen, zum anderen soll auch Unterstützung geboten werden für den eigenen Umgang mit technischen Systemen bzw. deren Gestaltung. In diesem Einleitungskapitel werden wir zunächst die Bedeutung von Human Factors genauer beschreiben (7 Kap. 1.1), danach werden wir uns mit der Abgrenzung von Human Factors zu verwandten Disziplinen beschäftigen (7 Kap. 1.2). Im weiteren Verlauf werden wir uns den historischen Wurzeln von Human Factors sowie aktuellen Strömungen zuwenden (7 Kap. 1.3), im vierten Teil wird die Frage der Methoden diskutiert (7 Kap. 1.4) und abschließend werden wir den Fokus dieses Buches (7 Kap. 1.5) in Aufbau und Inhalt der einzelnen Kapitel vorstellen.
1.1
Die menschlichen Faktoren und die Disziplin Human Factors
»Human Factors« ist ein Begriff, der häufig gebraucht wird, ohne dass notwendigerweise ein gemeinsames Verständnis oder gar eine allgemein akzeptierte Definition über Ziele, Arbeitsfelder, Theorien oder Methoden vorliegen. Vielfach werden Human Factors als »menschliche Faktoren« in Abgrenzung zu »technischen Faktoren« definiert. Allerdings ist diese Sichtweise zu reduziert, da für die Betrachtung der Human Factors genau die Verknüpfung menschlicher Faktoren mit technischen Faktoren relevant ist. Zur Klärung legen wir zunächst fest: > Die menschlichen Faktoren (Human Factors) sind alle physischen, psychischen und sozialen Charakteristika des Menschen, insofern sie das Handeln in und mit soziotechnischen Systemen beeinflussen oder
von diesen beeinflusst werden. Dabei geht es um Individuen, Gruppen und Organisationen.
Dementsprechend definiert Salvendy (2006) in der Einleitung des »Handbook of Human Factors and Ergonomics« Human Factors als eine Wissenschaft, die sich mit der Rolle des Menschen in komplexen Systemen, mit dem Design von Ausrüstung, technischen Hilfsmitteln und Gerätschaften und mit der Anpassung der Arbeitsumgebung mit dem Ziel der Steigerung von Komfort und Sicherheit befasst. Auch Hawkins (1987) betont die zweifache Zielorientierung und definiert Human Factors als angewandte Technologie, die sich damit beschäftigt, das Verhältnis zwischen Menschen und ihren Aktivitäten zu optimieren. Dies geschieht durch die systematische Anwendung der Humanwissenschaften innerhalb des Kontextes der Systemgestaltung (»systems engineering«). Häufig wird dafür ein interdisziplinärer Ansatz herangezogen. Die Ziele von Human Factors sind damit Effizienz und Sicherheit des Systems und das Wohlergehen des darin tätigen Menschen. Allerdings wird das Ziel Sicherheit in der Praxis oft in erster Linie als Kostenfaktor angesehen, da weniger an eine Optimierung des Gesamtsystems als an »zusätzliche« Sicherheitsaufwendungen gedacht wird. Die Einsicht, dass Human Factors auch ein Erfolgsfaktor für den ökonomischen Wettbewerbsvorteil von Unternehmen ist, hat sich v. a. in Hochrisikobereichen durchgesetzt, in denen das Thema Sicherheit letztendlich eine Conditio sine qua non ist. Aber auch in Hochrisikobereichen müssen teilweise Zielentscheidungen getroffen werden, die eine Gratwanderung zwischen Sicherheit und Kosten darstellen und die Frage aufwerfen, wie viel Sicherheit wir uns leisten können und wollen. Schon diese Diskussion macht deutlich, dass die menschlichen Faktoren in ein System von Aufgabe, Technik und Organisation eingebettet zu betrachten sind. Dabei nimmt der Mensch eine Schlüsselrolle ein, da nur der Mensch in der Lage ist, Ereignisse als Gefahren oder Bedrohungen zu klassifizieren und damit potenzielle Risiken zu antizipieren und frühzeitig präventiv adäquate Maßnahmen zu entwickeln und umzusetzen.
5
1.1 • Die menschlichen Faktoren und die Disziplin Human Factors
Allerdings wird die Rolle des Menschen zunehmend weniger als Problemlöser, sondern vielmehr als Problem, als Risikofaktor in technischen Systemen gesehen. Statistiken scheinen diese Annahme zu bestätigen: So werden im Bereich der Luftfahrt Human Factors in mehr als 70% der Fälle als Unfallursache benannt, in der Raumfahrt 66% und im Bereich Kernkraft 52% (Giesa & Timpe, 2000). Die notwendige Folge dieser Sichtweise ist zunehmende Automatisierung, d. h., Maschinen und Computer übernehmen die Aufgaben von Menschen, die nur noch eine überwachende und kontrollierende Funktion haben und nur in Ausnahmefällen, z. B. bei Störungen, eingreifen. Diese paradoxe Rolle des Menschen in automatisierten Systemen ist von Bainbridge (1987) unter dem Schlagwort »Ironien der Automatisierung« (»ironies of automation«) thematisiert worden: Menschen sollen insbesondere in kritischen Situationen genau die Tätigkeiten ausführen, die zuvor von der Maschine übernommen wurden, um mögliche Fehlerquellen, die vom Mensch ausgehen, zu vermeiden. Das heißt, dass die Bedeutung des Menschen mit dem Grad an Automatisierung zunimmt, während das Wissen des Menschen mit dem Grad der Automatisierung abnimmt, da die Auseinandersetzung des Menschen mit dem System auf Überwachungstätigkeiten reduziert ist (Fadier & Ciccotelli, 1999). Bei der Unterscheidung »menschliche Faktoren« versus »technische Faktoren« wird häufig vergessen, dass die Entwicklung der Maschine, des Computers oder des Systems immer auch ein Produkt von Menschen ist. Letztlich können alle Fehler auf Human Factors zurückgeführt werden, da Menschen in verschiedenen Funktionen – als Nutzer, Designer oder Manager – auf unterschiedlichen Ebenen Einfluss nehmen. Human-Factors-geleitete Systemgestaltung stellt die Forderung, Systeme so zu entwickeln, dass individuelle Fähigkeiten und Bedürfnisse des Menschen im jeweiligen Kontext Berücksichtigung finden. Beispiele dafür finden sich in verschiedenen Normen hinsichtlich Gestaltungsprinzipien in vielfältigen Kontexten. Die Grundnorm Grundsätze der Ergonomie für die Gestaltung von Arbeitssystemen (DIN EN ISO 6385, 2004)
1
»
[…] beschreibt den integrierten Ansatz für die Gestaltung von Arbeitssystemen, bei dem Arbeitswissenschaftler mit anderen die menschlichen, sozialen und technischen Anforderungen ausgewogen beachten.
«
In welcher Weise dabei Menschen mit ihren Fähigkeiten Berücksichtigung finden, wird allerdings unterschiedlich realisiert. So werden beispielsweise in den Allgemeinen Gestaltungsprinzipien folgende ergonomische Anforderungen an die Gestaltung von Anzeigen und Stellteilen (DIN EN 894-1, 1997) formuliert: 5 Kompatibilität bezogen auf die Leistungsfähigkeit des Menschen, 5 Kompatibilität bezogen auf die Erwartungen des Bedieners (Erwartungskonformität), 5 Kompatibilität bezogen auf die Aufgabe (Aufgabenangemessenheit). Zusätzlich wird im Anhang der Norm detailliert auf menschliche Informationsverarbeitung eingegangen, und es werden Aspekte von Wahrnehmung, Aufmerksamkeit und Gedächtnis, aber auch Stress als Einflussgrößen thematisiert. Im Gegensatz dazu betont zwar die Norm Benutzerorientierte Gestaltung interaktiver Systeme (DIN EN ISO 13407, 2000) die Notwendigkeit der Einbindung des Nutzers in den laufenden Softwareentwicklungsprozess, ist aber dann in der konkreten Anleitung auf den Prozessablauf konzentriert und nimmt im Wesentlichen nur das summative Feedback des Nutzers als Hinweis auf den weiteren Prozessfortschritt. Das folgende Beispiel zeigt, in welch banaler Weise Voraussetzungen für menschliche Fehler geschaffen und wie einfach solche Fehler vermieden werden können, wenn Menschen im Kontext wahrgenommen und ihre Fähigkeiten in der Gestaltung der Interaktion Technik–Mensch–Organisation berücksichtigt werden. Beispiel Vor und während des 2. Weltkriegs kam es zu einem massiven Innovationsschub, insbesondere hinsichtlich der Technik von Flugzeugen. So stieg die Geschwindigkeit der Flugzeuge um 300%, die
6
1
Kapitel 1 • Human Factors
Anzahl der Bedienelemente und Instrumente um 350%. Gleichermaßen stieg die Anzahl der Unfälle, die aufgrund fehlerhaften Verhaltens der Piloten als »pilot error« bezeichnet wurden. Dabei gab eine Serie von Unfällen während des 2. Weltkriegs besondere Rätsel auf, denn in allen Fällen trat jeweils der gleiche Fehler des Piloten auf, und zwar fuhren die Piloten und Kopiloten bei der Landung das Fahrwerk ein, anstatt die Landeklappen auszufahren. Dieser Fehler trat allerdings nur bei einigen Flugzeugtypen auf (Lockheed P-47, Boeing B-17, North American’s B-25 und Curtiss C-46), bei anderen dagegen nicht (z. B. Douglas C-47 s DC-3). Der Psychologe Alphonse Chapanis wurde damit beauftragt, dieses Problem zu lösen, und er fand sowohl die Ursache als auch eine einfache Lösung: Chapanis erkannte, dass die nebeneinander liegenden Schalthebel für Landeklappen und Fahrwerk leicht verwechselt werden konnten. Und er ersann eine geniale, schnell umsetzbare Lösung: das Anbringen eines kleinen gummibereiften Rades auf dem Schaltknauf für das Fahrwerk und eines kleinen flügelförmigen Endes auf dem Schaltknauf für die Landeklappen. Nach dieser Modifikation kam es nicht mehr zu Unfällen aufgrund von Verwechselungen dieser Art. Nach Kriegsende wurde diese taktile Unterstützung zur Unterscheidung von Schaltungen weltweit standardisiert und ist heute in allen Flugzeugen zu finden.
Dieses Beispiel macht deutlich, dass die Diagnose »pilot error« zu kurz greift. Es muss die Frage gestellt werden, warum der Pilot diesen Fehler macht. Und dies umso mehr, da es sich um einen systematischen Fehler handelt (Chapanis, 1951, 7 Kap. 3.4.2), also einen Fehler, der wiederholt in der gleichen Gesamtkonstellation auftritt. Die Wichtigkeit der Gesamtkonstellation ist nicht nur an der Schnittstelle Mensch–Maschine wichtig. Im Folgenden zeigt ein Beispiel aus der Medizin, wie schwerwiegende Fehler durch das Aufeinandertreffen von menschlicher Informationsverarbeitung, sozialen Prozessen wie Kommunikation über Hierarchien und organisationalen Faktoren wie Personaleinsatzplanung entstehen können.
Beispiel Eingriffsverwechslungen bei Operationen (Verwechslung der Körperseite, der Eingriffsstelle oder Eingriffsart) sind relativ häufig und für die betroffenen Patienten schwerwiegend. Eingriffsverwechslungen sind ein reines Human-Factors-Thema – es gibt keinen im Patienten oder in der Technik liegenden Grund; solche Verwechslungen sollten damit zu 100% vermeidbar sein. Die Analyse der Literatur zu diesem Thema (Aktionsbündnis Patientensicherheit, 2006) zeigt, dass die Ursachen im Bereich der »menschlichen Faktoren« zu suchen sind – das gilt aber auch für die Verhinderung: Meist wird eine Verwechslung aufgedeckt, bevor es zu einem Patientenschaden kommt. Hier ist menschliches Handeln Unfallursache und Sicherheitsressource. Eingriffsverwechslungen geschehen fast nie aufgrund eines Fehlers einer einzelnen Person. In Fallanalysen wird fast immer ein Zusammentreffen von Risikofaktoren mit Handlungsfehlern berichtet. Das Risiko für Eingriffsverwechslungen ist besonders hoch, wenn es zu Abweichungen von Routinen kommt (z. B. ungewöhnliche Patientenlagerung im OP) oder wenn Prüfinstanzen ausfallen (z. B. Neulinge im Team, sprachunfähiger Patient). Wenn dann Fehler gemacht werden, beispielsweise falsche Eintragungen im OP-Plan oder fehlerhafte Erinnerungen des Chirurgen, und niemand diese korrigiert (z. B. weil Hierarchie im Team verhindert, dass kritische Fragen gestellt werden), kann es zu einer Eingriffsverwechslung kommen.
Um die relevanten Zusammenhänge zwischen sichtbarem Ereignis und möglichen verursachenden Faktoren zu erkennen, muss eine Human-Factors-Analyse verschiedene Ebenen und deren Vernetzung in Betracht ziehen: 5 Individuum: z. B. Gibt es physiologische Hinweise hinsichtlich Wahrnehmung, Aufmerksamkeit, Müdigkeit, Stress? Gibt es motivationale Probleme, sich an Standards zu halten? 5 Gruppe/Team: z. B. Ist die Kommunikation im Team offen und unterstützend? Werden Standard Operating Procedures (SOPs) korrekt durchgeführt? 5 Organisation: z. B. Wird Sicherheit hinreichend ernst genommen und werden vorbeugende Maßnahmen ergriffen? Gibt es
1.1 • Die menschlichen Faktoren und die Disziplin Human Factors
festgelegte Arbeitszeiten und werden diese auch eingehalten? Gibt es klare Regeln der Aufgabenverteilung und Verantwortlichkeiten hinsichtlich der Schnittstellen? 5 Technik: z. B. Ist das Design aufgabenangemessen und benutzerfreundlich, d.h. mit den Erwartungen des Nutzers kompatibel? > Human Factors als interdisziplinäre Wissenschaft beschäftigt sich mit dem Verhältnis von Menschen und Technik unter einer systemischen Perspektive und greift dabei auf verschiedene Basisdisziplinen zu.
Dabei legt Human Factors im Gegensatz zur klassischen Ergonomie den Fokus mehr auf kognitive, motivationale und emotionale Leistungen und Fähigkeiten sowie deren Beschränkungen und weniger auf physische und anthropometrische Eigenschaften. In diesem Zusammenhang werden die sog. nichttechnischen Fertigkeiten (»non-technical skills«) hervorgehoben, die in besonderer Weise geeignet sind, mit der zunehmenden Komplexität technischer Systeme adäquat umzugehen. > Human Factors ist eine interdisziplinäre Forschungsrichtung, die zum einen Grundlagenforschung realisiert mit dem Ziel des Erkenntnisgewinns über Menschen als Ressource und begrenzendem Faktor im System Mensch und Technik. Zum anderen ist Human Factors eine angewandte Wissenschaft, die Anwendungswissen für Problemlösungen in der Praxis bereitstellt. Die vorrangige Zielstellung besteht darin, negative Folgen der Interaktion Mensch und Technik zu vermeiden bzw. zu vermindern und so das Wohlbefinden der Handelnden zu gewährleisten und die Sicherheit sowie die Funktionsfähigkeit des Systems zu verbessern.
Als Grundlage von Human Factors kann eine Vielfalt von Disziplinen genannt werden (. Abb. 1.1). Soll beispielsweise in einem Krankenhaus ein Kommunikationstraining für Ärzte und Pflegepersonal durchgeführt werden, ist als Basisdisziplin Psychologie von zentraler Bedeutung. Geht es um eine Einführung in die Handhabung einer komple-
7
1
xen technischen Anlage, steht die ingenieurwissenschaftliche Sicht im Vordergrund, wobei auch hier der psychologische Anteil von Bedeutung ist (z. B. die Kenntnis menschlicher Verhaltenstendenzen in definierten Situationen). Im Kontext von Informations- und Kommunikationstechnologien ist Informatik eine zentrale Disziplin. Darüber hinaus spielen auch betriebswirtschaftliche oder juristische bzw. arbeitsrechtliche Aspekte eine Rolle. Wir betrachten die Psychologie als eine zentrale Basisdisziplin von Human Factors, die in ihren verschiedenen Teildisziplinen theoretische Grundlagen hinsichtlich des Denkens und Handelns in komplexen Handlungsfeldern liefert, wie folgende Beispiele deutlich machen: 5 Allgemeine Psychologie – liefert Theorien zu grundlegenden Prinzipien des menschlichen Denkens, Handelns und Erlebens; dazu gehört sowohl die Aufnahme, Speicherung, Verarbeitung und Generierung von Information als auch Grundlagen, Bedingungen und Ursachen von Motivation und Emotion. Ebenfalls mithilfe von Theorien der allgemeinen Psychologie können Denk- und Handlungsfehler post hoc erklärt und manchmal sogar vorhergesagt werden. 5 Differenzielle Psychologie und Diagnostik – beschäftigen sich im Gegensatz zur allgemeinen Psychologie, die nach allgemeinen Prinzipien menschlichen Erlebens und Handelns forscht, mit den Unterschieden im Erleben und Handeln zwischen einzelnen Menschen bzw. Gruppen von Menschen. Insbesondere im Anwendungskontext spielt differenzielle Psychologie beispielsweise in der Eignungsdiagnostik und differenziellen Arbeitsgestaltung eine wichtige Rolle. 5 Arbeits- und Organisationspsychologie – bezieht sich auf Erwerbsarbeit, und zwar geht es um die Beschreibung, Erklärung und Vorhersage des Erlebens und Handelns von Menschen bei der Ausführung ihrer Arbeitstätigkeiten. Aufgabengebiete der Arbeitspsychologie sind Themen wie Arbeitsmotivation, Arbeitsanalyse, -gestaltung und -bewertung, Belastung und Beanspruchung und im Rahmen von Organisationen Arbeits- und Systemsicherheit. Organisationspsychologie fokus-
8
Kapitel 1 • Human Factors
1 Differenzielle Psychologie
Sozialpsychologie
Ingenieurwissenschaften
Allgemeine Psychologie
Psychologie
Betriebswirtschaft
Arbeitspsychologie
Organisationspsychologie
Arbeitswissenschaften
Medizin Human Factors
Rechtswissenschaften
Informatik
Physiologie
Ergonomie
Pädagogik
. Abb. 1.1 Basisdisziplinen sowie Teildisziplinen der Psychologie als wissenschaftliche Grundlage der Human-Factors-Forschung und -Anwendung
siert eher Führungsprozesse, Teamarbeit und Personaleignung und -entwicklung. 5 Sozialpsychologie – befasst sich mit menschlichem Denken und Handeln unter dem Einfluss sozialer Faktoren, d. h. unter dem Einfluss realer oder vorgestellter Gegenwart anderer Menschen. Zentrale Themen sind Einstellungen und Werthaltungen, Gruppenstrukturen und Gruppenprozesse. Diese Teildisziplinen wurden beispielhaft herausgegriffen, um die Relevanz vielfältiger psychologischer Erkenntnisse für Human Factors aufzuzeigen. Darüber hinaus sind natürlich Wissen und Erkenntnisse aus weiteren Teildisziplinen der Psychologie von Bedeutung, wie beispielsweise der physiologischen Psychologie oder Entwicklungs-
psychologie (in Hinsicht auf Veränderungen von kognitiven Prozessen über die Lebensspanne).
1.2
Verwandte Disziplinen
Eine Analyse der verwandten Disziplinen von Human Factors – Arbeitswissenschaft bzw. Ergonomie, Ingenieurpsychologie und Arbeits- und Organisationspsychologie – macht deutlich, dass eine Vielzahl an Begriffen existiert, die in eine ähnliche Kategorie wie Human Factors fallen, und die von einigen Autoren sogar synonym verwendet werden, von anderen wiederum gegeneinander abgegrenzt werden. Den größten Überschneidungsbereich bilden die Inhalte von »Arbeitswissenschaft«, »Ergonomie«, »Ingenieurpsychologie« und »Arbeitsund Organisationspsychologie«. Es gibt jedoch
9
1.2 • Verwandte Disziplinen
keine allgemein akzeptierte Definition. Vielmehr hat jede Disziplin Vertreter, die eher engere Grenzlinien ziehen, und solche, die in ihre Definition die verwandten Disziplinen integrieren. »Arbeitswissenschaft« und »Ergonomie« werden hier synonym gebraucht, denn der Begriff »Ergonomie« setzt sich aus den zwei griechischen Wörtern »ergon« (Arbeit) und »nomos« (Regel, Gesetz) zusammen, und somit kann Ergonomie als die Wissenschaft von der Arbeit definiert werden. Zentrale Themen der Ergonomie sind Anpassung der Arbeit (Arbeitsplatz, Arbeitsablauf, Arbeitsumgebung) an den Menschen und die Anpassung des Menschen (Qualifikation, Fähigkeiten, Fertigkeiten) an die Arbeit. Bokranz & Landau (1991) nennen drei Gegenstandsbereiche der Arbeitswissenschaft, die Gestaltung der technischen, organisatorischen und der sozialen Bedingungen von Arbeitsprozessen: »Arbeitswissenschaft ist die Systematik der Analyse, Ordnung und Gestaltung der technischen, organisatorischen und sozialen Bedingungen von Arbeitsprozessen mit dem Ziel, dass die arbeitenden Menschen in produktiven und effizienten Arbeitsprozessen 5 schädigungslose, ausführbare, erträgliche und beeinträchtigungsfreie Arbeitsbedingungen vorfinden, 5 Standards sozialer Angemessenheit sowie Entlohnung und Kooperation erfüllt sehen, 5 Handlungsspielräume entfalten, Fähigkeiten erwerben und in Kooperation mit anderen ihre Persönlichkeit erhalten und entwickeln können.« (S. 19) Diese Definition macht deutlich, dass die Arbeitswissenschaft insbesondere den Aspekt einer förderlichen Arbeitsgestaltung für den Menschen thematisiert (s. auch Wickens, Gordon & Liu, 2004). Der Fokus liegt auf dem arbeitenden Menschen und dessen Sicherheit und Wohlergehen. Der Mensch als aktiv Handelnder steht nicht im Zentrum, er ist vielmehr derjenige, der die entsprechend gestaltete Arbeitswelt reaktiv wahrnimmt. Damit wird deutlich, dass diese Thematik nur ein Teilaspekt von Human Factors beinhaltet. Andere Autoren wie z. B. Salvendy (2006), Christensen (1986) und auch die International Er-
1
gonomics Association (IEA, 2000) sehen dagegen »Human Factors« und »Ergonomics« als zwei unterschiedliche Begriffe für die gleiche Disziplin. So lautet die im Jahr 2000 von der IEA verabschiedete offizielle Definition:
»
Die Ergonomie (oder human factors) ist die wissenschaftliche Disziplin, welche sich mit dem Verständnis der Wechselwirkungen zwischen Menschen und anderen Elementen eines Systems beschäftigt, sowie die berufliche Tätigkeit, welche die Theorie, Prinzipien, Daten und Methoden zur Gestaltung anwendet, um das menschliche Wohlbefinden und die gesamte Systemleistung zu verbessern.
«
In weiteren Erläuterungen weist der Rat darauf hin, dass Ergonomie systemorientiert und holistisch alle Arten der menschlichen Aktivität umfasse, und schließt damit Sport und Freizeit ein. Zudem wird betont, dass es die Aufgabe der Ergonomie sei,
»
[…] Aufgaben, Arbeiten, Produkte, Umgebungen und Systeme so zu gestalten und zu evaluieren, damit diese den Bedürfnissen, Fähigkeiten und Einschränkungen der Personen entsprechen. (IEA, 2000)
«
Dabei sollen physische, kognitive, soziale, organisatorische, umgebungsbedingte und andere relevante Faktoren berücksichtigt werden. Zusammenfassend kann festgehalten werden: Ergonomie wird von Autoren mit einem breiten Disziplinverständnis gleichbedeutend mit Human Factors als eigenständige und unabhängige Disziplin mit dem Fokus auf Mensch-Technik-Interaktionen gesehen, und zwar unter einem gemeinsamen Blickwinkel von Wissenschaft, Technik, Anwendung und Management mit dem Ziel, menschenverträgliche Systeme zu gestalten (Karwowski, 2006). Gleichwohl liegt aber auch eine sprachliche Konfusion vor, weil »Ergonomics« im amerikanischen Sprachraum mit »Human Factors« gleichsetzt wird, während im europäischen Sprachraum »Ergonomie« lediglich als Arbeitswissenschaft und damit als Teilbereich von Human Factors verstanden wird.
Kapitel 1 • Human Factors
10
1
. Tab. 1.1 Verwandte Disziplinen von Human Factors Ergonomie bzw Arbeitswissenschaft
Ingenieurpsychologie
Arbeits- und Organisationspsychologie
Definition
Wissenschaft, die sich mit der Analyse und Gestaltung der Wechselwirkung zwischen menschlichen und anderen Elementen eines Systems befasst
Wissenschaft vom menschlichen Verhalten bei der Bedienung von Systemen
Wissenschaft vom Erleben und Verhalten von Menschen bei der Ausführung ihrer Arbeitstätigkeiten im Organisationskontext
Ziel
Optimierung des Wohlbefindens des Menschen und Leistung des Gesamtsystems
Anpassung des Systemdesigns an menschliche Faktoren, Fehler verhindern durch intelligentes Design
Erkennen und Verstehen generalisierbarer psychologischer Prinzipien, um Organisationen und technische Systeme entsprechend zu gestalten
Basisdisziplin
Physiologie, Medizin
Ingenieurwissenschaften
Psychologie
verbunden und in der Arbeits- und Organisationspsychologie steht das Verhalten von Menschen bei der Ausführung von Arbeitstätigkeiten im Organisationskontext im Vordergrund.
Wir unterscheiden im Folgenden drei Disziplinen, die zwar mit Human Factors eng verwandt sind, die aber jeweils einen anderen Schwerpunkt betonen: 5 Ergonomie bzw. Arbeitswissenschaft, 5 Ingenieurpsychologie und 5 Arbeits- und Organisationspsychologie. 1.3
Die Gemeinsamkeit dieser drei Disziplinen besteht in der Suche und in der Anwendung von Erkenntnissen zum Zusammenwirken von Mensch und Technik mit dem Ziel, diese Interaktion so zu gestalten, dass sie den Bedürfnissen und Fähigkeiten des Menschen gerecht wird. Unterschiedlich wird dabei die Gestaltung der Interaktion gesehen (. Tab. 1.1). Dabei ist der Überschneidungsbereich groß und eine adäquate Analyse und Gestaltung der Mensch-Technik-Interaktion muss in der Regel diese drei Disziplinen aufeinander beziehen und integrieren. Die Tabelle konzentriert sich daher auf Unterschiede, wohl wissend, dass eine eindeutige Abgrenzung nicht möglich ist. > Während in der klassischen Ergonomie bzw. Arbeitswissenschaft der Schwerpunkt auf der physiologischen und anthropometrischen Dimension liegt, wird in der Ingenieurpsychologie der technische Blickwinkel mit dem psychologischen
Wurzeln der Human-Factors-Forschung
In diesem Kapitel sollen die Gestaltungsprinzipien, die im Laufe des letzten Jahrhunderts als Antworten auf technische und gesellschaftliche Änderungen zentrale Bedeutung für Mensch und Sicherheit erlangten, aufgezeigt werden. Die Betonung liegt dabei nicht auf historischer Vollständigkeit, sondern auf dem Beispielcharakter für die jeweilige Sicht auf den Menschen unter Human-Factors-Gesichtspunkten. Einen Überblick über die Entwicklung der Disziplin Human Factors in verschiedenen Ländern und die Institutionalisierung der entsprechenden Berufsorganisationen und Fachverbände geben Meister (1999) und Karwowski (2006). Noch lange bevor das Thema Arbeitstätigkeit wissenschaftliches Interesse erlangte, gab es erste systematische Analysen von Arbeitssituationen von Georgius Agricola (1494–1555), einem Arzt und langjährigen Bürgermeister von Chemnitz.
11
1.3 • Wurzeln der Human-Factors-Forschung
Er untersuchte alle möglichen arbeitsbedingten Erkrankungen, aber auch Unglücksfälle von Bergleuten im Berg- und Hüttenwesen. Darüber hinaus beschrieb er einige vorbeugende Maßnahmen und veröffentlichte seine Erkenntnisse in 12 Büchern (1556). Diese ausschließlich medizinische Sicht auf Arbeitstätigkeiten ist zwar auch sicherheitsorientiert, jedoch in ihrem Fokus eher als Ursprung der Arbeitsmedizin zu bewerten.
1.3.1
Scientific Management
Die echte Geburtstunde von Human Factors wird in der Entwicklung der technischen Systemgestaltung (Scientific Management, 1911) von Frederic W. Taylor gesehen. Die Vision Taylors »Wohlstand für alle« sollte durch die Optimierung von Management, Arbeit und Unternehmen erreicht werden.
» Das Hauptaugenmerk einer Verwaltung sollte darauf gerichtet sein, gleichzeitig die größte Prosperität des Arbeitgebers und des Arbeitnehmers herbeizuführen und so beider Interessen zu vereinen. (Taylor, 1913, S. 7)
«
Erstmals erfolgten detaillierte Analysen des konkreten Arbeitsprozesses. So erstellte Taylor schon 1882 minutiöse Zeit- und Bewegungsstudien, um für jeden Handgriff den besten Weg (»one best way«) zu finden, der unter den gegebenen Bedingungen den maximalen Wirkungsgrad, also die maximale Arbeitsleistung, ermöglichte. Diese Arbeitsstudien bestanden aus Tausenden von Beobachtungen pro Arbeitseinheit und darauf aufbauend klaren Anweisungen kleinster Tätigkeitselemente für die Arbeiter sowie individuellen Anreizsystemen und einem täglichen Feedback bezüglich der Leistungen des Vortages. Konkrete Merkmale dieser Form der Arbeitsgestaltung waren extreme Partialisierung und Wiederholung von Tätigkeiten mit der Folge geringster Anforderungen an die Qualifikation des Arbeitnehmers. Darüber hinaus sollten individuelle Leistungen durch die spezifische Gestaltung von Werkzeugen gesteigert werden.
1
Beispiel Taylors bekanntestes Experiment war das Schaufelexperiment. Seine Hypothese war, dass für einen »Schaufler« ein bestimmtes Gewicht pro Schaufelbewegung optimal ist. Seine Untersuchungsfragen waren z. B.: Ist die Tagesleistung beim Schaufeln von Erde am höchsten, wenn eine kleinere Schaufel (8,5 kg) bei hoher Frequenz, eine mittelgroße (9,5 kg) mit mittlerer Frequenz oder eine große (11 kg) mit niedriger Frequenz verwendet wird? Taylor fand durch systematische Variation über einige Wochen heraus, dass eine Schaufellast von 9,5 kg optimal für Erdarbeiten ist.
Die vorherrschende Idee dieses Ansatzes war Effizienzsteigerung. Das Optimierungspotenzial wurde aber lediglich in der Relation von Arbeitsmittel und Person gesehen, es gab im Scientific Management noch keine integrative Sicht des Gesamtsystems Mensch, Technik und Organisation. Zusätzlich zu diesen Detailstudien entwickelte Taylor das Prinzip der Personalauswahl, den »rechten Mann am rechten Platz«, der auch geschult werden sollte, um ineffizientes Handeln zu vermeiden. Das Ziel solcher Schulungen war optimale Arbeitsleistung, was bedeutete:
»
Eine erste Kraft ist der Arbeiter, der genau tut, was ihm gesagt wird, und nicht widerspricht. (Taylor, 1913, S. 49)
«
Diese Sicht Taylors auf den arbeitenden Menschen zeigt, dass der Mensch auf eine nichtintentionale und nichtreflexive Maschine reduziert wird (»Arbeiter gehorchen ähnlichen Gesetzen wie Teile einer Maschine«). Somit muss ein solcher Ansatz scheitern, sobald Problemlösen, Kreativität und Verantwortung gefordert sind. Allerdings mag die tayloristische Effizienzsteigerung für hoch routinisierte Tätigkeiten ein Zugewinn an Störungsfreiheit bedeuten und damit einen Beitrag zu einem sicheren Arbeitsumfeld leisten. Auch das prinzipielle Vorgehen der klassischen Ergonomie, nämlich Maschinen und Umgebungsvariablen (z. B. Lichtverhältnisse, Tischhöhe) an die körperliche Leistungsfähigkeit des Menschen anzupassen, um Unfälle und Gesundheitsschäden zu verhindern, entspricht durchaus Teilzielen des Scientific Management.
12
1
Kapitel 1 • Human Factors
Jedoch wurde das Ziel des menschlichen Wohlbefindens bei Taylor in erster Linie motivational unter dem Aspekt Entlohnung berücksichtigt und weitere motivationale und kognitive Aspekte wie z. B. die Bedeutung des sozialen Kontextes sowie die Auswirkungen stark arbeitsteilig organisierter Tätigkeiten auf die Psyche des Arbeiters ignoriert. Dieses Defizit zeigte sich auch schon sehr bald in den Ergebnissen einer Untersuchung der Auswirkungen des Scientific Management in 35 amerikanischen Industriebetrieben:
»
[…] Namentlich versagt die wissenschaftliche Betriebsführung vollständig mit Rücksicht auf die Bewertung des menschlichen Faktors bei der Arbeit. (Frey, 1920, S. 4)
«
1.3.2
Psychotechnik
Münsterberg gilt als Begründer der »Psychotechnik« (obwohl der Begriff erstmals von Stern 1903 gebraucht wurde), und zwar bezeichnete er damit die gesamte angewandte Psychologie. In seinem Buch »Psychologie und Wirtschaftsleben – Lehrbuch zu Aufgaben der Psychotechnik in der Industrie« (1912) behandelte er Themen wie Eignung und Auslese, Training, Technikanpassung, Ermüdung, Leistungsfähigkeit etc. Diese breite Ausrichtung von Münsterberg wurde allerdings nicht beibehalten, sondern die Psychotechnik wurde auf Eignungsdiagnostik und Personalauswahl reduziert. Die Selektion der geeigneten Person für eine Arbeitsstelle galt als Realisierung der ökonomischen sowie der persönlichen Zielsetzungen. Letztlich aber ging es während des 1. Weltkriegs und in der Nachkriegszeit darum, den Bedarf der jeweiligen Nachfrager an Arbeitskräften möglichst schnell und mit geringen Anlernzeiten zu befriedigen. In ihrer Position als Wissenschaftler legten die Vertreter der Psychotechnik Wert darauf, keine normativen Aussagen zu treffen und keine Ziele zu hinterfragen. Somit fiel auch im Folgenden die Anpassung an die NS-Ideologie bzw. die Vereinnahmung durch diese nicht schwer, und die Methoden der Psychotechnik fanden Einzug in diverse Institute nationalsozialistischer Provenienz. Somit
verschwand der Begriff »Psychotechnik« nach 1945; die Themen der Psychotechnik leben teilweise in der Eignungsdiagnostik weiter.
1.3.3
Soziale Systemgestaltung: der Human-Relations-Ansatz
In den 1930er-Jahren rückten der Mensch als soziales und motiviert handelndes Wesen und damit menschliche Bedürfnisse als zentrale Determinanten industrieller Arbeit in den Vordergrund. Der Grundstein für diese neue Sichtweise wurde durch Untersuchungen von Mayo (1933) und Roethlisberger und Dickson (1939) in den Hawthorne-Werken der Western Electric Company gelegt, die als Hawthorne-Studien bekannt geworden sind. Die ursprüngliche Intention dieser Studien war die Untersuchung der Frage nach den Auswirkungen unterschiedlicher Umweltbedingungen auf die Arbeitsleistung. Diese ersten Untersuchungen standen somit in der Tradition des Scientific Management (s. oben). Zunächst wurden die erwarteten Ergebnisse erzielt, beispielsweise wurde mit zunehmender Beleuchtung die Arbeitsleistung verbessert. Aber es gab darüber hinaus eine Reihe unerwarteter Ergebnisse: So verbesserte sich z. B. die Arbeitsleistung bei fast jeder Veränderung der Variablen, d. h. sowohl bei stärkerer als auch bei schwächerer Beleuchtung wurde die Arbeitsleistung besser. Ebenfalls verblüffend war das Ergebnis, dass eine Verbesserung der Arbeitsleistung auch in der Kontrollgruppe stattfand – in der Gruppe, in der keine experimentellen Veränderungen eingeleitet worden waren. Diese Ergebnisse wurden erklärt mit einer Motivationssteigerung der Arbeiterinnen durch das Wissen, an einer Studie teilzunehmen. Zum anderen waren es die zwischenmenschlichen Beziehungen zwischen Gruppenmitgliedern, Vorgesetzten und Forschern, die die Zufriedenheit der Mitarbeiterinnen und in der Folge die Arbeitsleistung erhöhten. Damit wurde Arbeitsmotivation im sozialen Kontext der Arbeitsumgebung als eine zentrale Variable erkannt, die heute in vielen Bereichen z. B. in leistungsabhängigen Belohnungssystemen oder im betrieblichen Vorschlagswesen eine große Rolle spielt.
13
1.3 • Wurzeln der Human-Factors-Forschung
1.3.4
Soziotechnische Systemgestaltung
Der soziotechnische Ansatz betont die Interaktion der sozialen und der technischen Teilsysteme eines Arbeitssystems. Es gilt, dass keines der Teilsysteme ohne Berücksichtigung des anderen optimiert werden kann, da sie vielfältig miteinander zusammenhängen. Dieser Ansatz wurde zuerst vom Tavistock Institute of Human Relations entwickelt. Untersuchungen im englischen Kohlebergbau (Trist & Bamforth, 1951) ergaben, dass die Einführung einer verbesserten Technologie anstelle der erwarteten Produktivitätssteigerung zu Verlusten aufgrund von Fehlzeiten und interpersonellen Konflikten führte. Es stellte sich heraus, dass die Ursache in den durch die Einführung der neuen Technologie veränderten sozialen Arbeitsstrukturen lag. Vorher hatten die Bergleute in festen Teams immer am selben Ort zusammengearbeitet und waren gemeinsam für die vollständige Tätigkeit zuständig. Ihre Löhne, aber auch ihre Sicherheit unter Tage hingen von der Zusammenarbeit ab. Die neue Longwall-Methode sah eine arbeitsteilige Zerlegung der Tätigkeiten auf verschiedene Schichten vor und beraubte so die Bergleute ihrer Freiheit in der Detailplanung, aber auch ihres sozialen Unterstützungssystems. Wurde jedoch die neue Methode unter Beibehaltung der vorhandenen sozialen Struktur eingeführt, trat die erwartete Produktivitätssteigerung ein. Damit wurde nachgewiesen, dass die Interaktion der sozialen und technischen Teilsysteme eine zentrale Rolle spielt, umso mehr in der modernen Informationsgesellschaft, in der soziale Kommunikation unmittelbar Teil der Wertschöpfungskette ist. Der soziotechnische Ansatz blieb bis in die 1990er-Jahre ein wichtiges Paradigma in der Arbeits- und Systemgestaltung und wurde erst in jüngster Zeit ergänzt durch Konzepte, die Technik nicht als eigenes Subsystem begreifen, sondern als integralen Bestandteil menschlicher Kultur und sozialer Praktiken (z. B. Kaptelinin & Nardi, 2006). Orlikowski (2007) argumentiert, dass der materielle Kontext in Organisationen in der Forschung bisher zu wenig berücksichtigt worden sei und soziale Handlungsmuster untrennbar mit diesen materiel-
1
len Gegebenheiten verbunden seien. Sie illustriert dies am Beispiel von Recherchen in Google, die durch die Suchalgorithmen, aber auch durch Eingrenzungen wie die Zensur spezieller Webseiten in China geprägt werden.
1.3.5
Kognitive Ergonomie
Mit dem massiven Aufkommen von Informations- und Kommunikationstechnologien wurden Fragen relevant, wie der Mensch seine Umwelt wahrnimmt, interpretiert, speichert und wieder abruft, welche Gesetzmäßigkeiten also die mentalen Informationsverarbeitungsprozesse des Menschen determinieren. Hollnagel (2001) spricht in diesem Zusammenhang von einem neuen Rahmen, der abweichend von den Prinzipien und Methoden der klassischen Ergonomie notwendig wurde, und diesen bezeichnet er als »kognitive Ergonomie«. Kognitive Ergonomie fokussiert demnach neben der konkreten Arbeitssituation und Aufgabe auf mentale Prozesse, die in Zusammenhang mit jedweder Mensch-Maschine-Gestaltung zum Tragen kommen. Hier geht es nicht nur um die Frage, welche Informationen das jeweilige technische System bereitstellt, sondern es wird bei der Darstellung von Information gleichermaßen berücksichtigt, in welcher Weise Menschen Informationen wahrnehmen, selektieren und als Basis ihrer weiteren Handlungen integrieren. Neuere Computersysteme gehen über diese kognitive Schnittstelle hinaus und versuchen auch emotionale und motivationale Aspekte in der Mensch-Maschine-Gestaltung zu berücksichtigen. Beispielsweise wird bei der Gestaltung von aktiven Fahrerassistenzsystemen (FAS) zur Vermeidung von Unfällen angestrebt, Fahrer in ihrer Interaktion mit Fahrzeug und Umwelt zu unterstützen. Dabei stellt sich die Frage, wie Informationen über kritische Situationen so vermittelt werden können, dass der Fahrer oder die Fahrerin den Hinweis oder die Warnung auch akzeptiert, und es damit zu der gewünschten Reaktion kommt – und nicht Abwehrreaktionen wie Reaktanz ausgelöst werden.
1
14
Kapitel 1 • Human Factors
1.3.6
Aktuelle Strömungen und Themen
Die großen Industrieunfälle der 1980er-Jahre (Bhopal, 1984; Tschernobyl, 1986; Herold of Free Enterprise, 1987; Ölplattform Piper Alpha, 1888) haben in hohem Ausmaß die jüngsten Entwicklungen der Human-Factors-Forschung und Anwendung geprägt: Sicherheit wurde das zentrale Human-Factors-Thema. Analysen der Ursachen dieser und weiterer Katastrophen führten zur vermehrten Integration von Menschen in Sicherheitskonzepte. Angetrieben durch die Erfahrung, dass das Ersetzen menschlicher Entscheidungen durch Automatisierung (7 Kap. 19) nicht alle Unfälle vermeiden kann, nahm seit den 1980er-Jahren insbesondere die zivile Luftfahrt eine Vorrangstellung in der Entwicklung Human-Factors-orientierter Sicherheitskonzepte ein. Aktuell »entdecken« Branchen wie Medizin und Prozessindustrie die menschlichen Faktoren als sicherheitsrelevante Ressource. Durch die Vielfalt der Themen, Disziplinen und Institutionen hat sich bis heute kein einheitliches Bild von Human Factors ergeben. Dennoch lassen sich einige Themen benennen, die die aktuelle Diskussion über verschiedenen Anwendungsbranchen und Forschungsdisziplinen hinweg bestimmen: z
Sicherheitskultur
Ein Blick auf die oben dargestellten Gestaltungsprinzipien zeigt, dass keiner dieser Ansätze explizit Bezug auf die Organisation nimmt. Diese Situation hat sich seit den 1980er-Jahren dahingehend geändert, dass sich Organisationstheorien verstärkt mit der Rolle der Organisation für sicheres Handeln auseinandersetzen. Die Suche nach Optimierung von organisatorischen Strukturen und Prozessen ist immer auch eine sicherheitsrelevante Aufgabenstellung (7 Kap. 2 und 9). z
Entwicklung von Human-Factors-Trainings
Aufbauend auf Forschungsergebnissen zu Einflussfaktoren bei Flugunfällen und Zwischenfällen wurden im Bereich der zivilen Luftfahrt Trainingsprogramme zunächst für Piloten und in der Folge für die gesamte Crew entwickelt und umgesetzt. Diese Crew-Ressource-Management-Trainings bilden inzwischen einen wesentlichen Baustein der
Sicherheitskultur von Luftfahrtunternehmen (Orlady & Orlady, 1999, 7 Kap. 9 und 12). Mit zeitlicher Verzögerung und einem gestiegenen Bewusstsein für Sicherheitsfragen wurden diese Konzepte in die Medizin über die Anästhesie in den OP-Saal getragen (Helmreich, 2000, 7 Kap. 13). Dieses Feld ist aktuell in einer uneinheitlichen und dynamischen Entwicklung begriffen. Auch in anderen Branchen, z. B. Prozessindustrien (7 Kap. 14), Militär (7 Kap. 15) und Polizei (7 Kap. 16) steigt das Interesse an Human-Factors-Trainingsansätzen (7 Kap. 18). z
Relevanz von Teams
Zunehmend stehen Teams im Fokus des Interesses, nicht mehr der Operator, der das System bedient. Dadurch werden teambezogene Themen wie Kommunikation (7 Kap. 8) und Führung (7 Kap. 10) unter dem Aspekt Sicherheit neu beachtet. Besonders deutlich wird dies bei der Relevanz des gemeinsamen Problemverständnisses (»shared mental models«, 7 Kap. 7) und des geteilten Situationsbewusstseins (»situation awareness«, 7 Kap. 4). Neu hinzu kommen Konzepte für sicheres Handeln in verteilten Teams (7 Kap. 11). z
Neubestimmung des Handlungsspielraums
Standardisierung (7 Kap. 17) und Automatisierung (7 Kap. 19) sind immer schon Themen der Human-Factors-Forschung gewesen. Aktuell werden ihre Nebenwirkungen diskutiert, z. B. Verlust von Fertigkeiten, Verantwortungsdiffusion. Hier spielt auch das Bedürfnis der Handelnden nach Autonomie eine Rolle. z
Nutzer-zentriertes (»user-centered«) Design
Zunehmend wird auch von der technischen Seite erkannt, dass die Mehrzahl unserer Produkte immer noch der tayloristischen Maxime des »one best way« folgen; diese Produkte sind in einer Weise entwickelt und hergestellt, dass sie nur von einem kleinen Teil der intendierten Nutzer tatsächlich erfolgreich und sicher genutzt werden können. Allerdings gibt es vermehrt Beispiele von Produktentwicklungsprozessen, die die zukünftigen Nutzer und Nutzerinnen bereits in der Definitionsphase in den Prozess einbeziehen und mit prospektiven Verfahren versuchen, Bedürfnisse zu erfassen
15
1.4 • Methoden
und zu visualisieren (Sanders & Stappers, 2008). In eine ähnliche Richtung geht »inclusive« Design, ein Paradigma, das anstrebt, Produkte und Dienstleistungen in einer Weise zu gestalten, dass sie die Bedürfnisse aller Menschen – ob alt oder jung, bewegungseingeschränkt oder nicht – berücksichtigt, ohne dass sie über ein »spezielles« Design verfügen. Das Thema ist hoch aktuell, da es mit dem demografischen Wandel in unserer Gesellschaft hervorragende Marktchancen durch neue Zielgruppen verspricht (Machate & Burmeister, 2003). Hier könnte die Gestaltung risikoreicher Systeme durchaus wertvolle Anregungen aufnehmen. Noch nicht wirklich angekommen in der Human-Factors-Forschung und -Anwendung sind Emotion und Motivation als Grundlage des Handelns (7 Kap. 5 und 6). Dies ist ein Zukunftsfeld, z. B. bei der Analyse von Tätigkeitsanforderungen oder bei der Beurteilung von Automatisierungskonzepten. Ziel ist eine handlungspsychologische Grundlegung von Human Factors.
1.4
Methoden
Wie für jedes Forschungsfeld stellt sich die Frage, mit welchen Forschungsmethoden relevante und verlässliche Ergebnisse gewonnen werden können. Entsprechend der Breite des Feldes gibt es eine Vielzahl von Methoden und Forschungsansätzen. Das Spektrum reicht von experimentellen Untersuchungen im Labor über die Rekonstruktion von Einzelereignissen bis hin zu prospektiven Wirkungsbeurteilungen. Human-Factors-Forschung versucht dabei nicht nur wie andere Wissenschaften überprüfbare Kausalzusammenhänge zu identifizieren, sondern legt auch großen Wert auf ökologisch valide Forschung, bei der relevante Problemstellungen realitätsnah untersucht werden. Das Forschungsziel ist nicht nur Erkenntnisgewinn, sondern insbesondere auch ein Beitrag zur Lösung konkreter Probleme:
5 Wie lässt sich die Systemgestaltung verbessern? 5 Welche Handlungsaspekte sind am fehleranfälligsten, und wie lassen sich diese Fehlerquellen vermindern?
1
5 Welche Kenntnisse müssen Novizen vor Arbeitsbeginn vermittelt werden, und welche Trainingsform eignet sich am besten? Diese Pragmatik der Fragestellungen hat die Human-Factors-Forschung mit anderen Anwendungsfächern wie den Ingenieurwissenschaften gemein, so werden auch psychologische Kenntnisse dabei als »Technologie« eingesetzt und auf ihre Nützlichkeit zur Lösung konkreter Probleme geprüft. Erkenntnistheoretisch darf angezweifelt werden, ob bei der labormäßigen Isolation einer menschlichen Handlung aus dem Kontext der Tätigkeit noch das reale Phänomen untersucht wird oder ob man, wie die Vertreter des Naturalistic Decision Making (Schraagen, Militello, Ormerod & Lipshitz, 2008), darauf bestehen sollte, menschliches Handeln soweit wie möglich in der realen Komplexität des Feldes zu untersuchen. Wir vertreten die Auffassung, dass Laborexperimente zur Überprüfung von Kausalzusammenhängen und beim Vergleich von klar abzugrenzenden Bedingungen auch für die Human-Factors-Forschung wertvolle Instrumente darstellen; sie sollten jedoch nicht wie sonst häufig in der Psychologie als einzig akzeptable Form des Erkenntnisgewinns angesehen werden.
1.4.1
Forschungsmethoden
Viele Forschungsmethoden der Sozialwissenschaften finden auch in der Human-Factors-Forschung Anwendung: 5 Verhaltensbeobachtungen im Labor oder im Feld dienen dazu, Handlungsabläufe zu untersuchen und auch nichtbewusste Reaktionen zu erfassen, beispielsweise bei der Systemnutzung, zu Arbeitsbelastungen oder bei Gruppenprozessen. Es werden sowohl Reaktionszeitmessungen, Augenbewegungen, physiologische Messungen als auch standardisierte Verfahren wie Online-Kodierung von Handlungen durchgeführt. 5 Interviews werden häufig eingesetzt, wenn Erfahrungen zur Rekonstruktion von Unfällen oder bei der Ermittlung von Expertenwissen erhoben werden sollen, und diese durch Be-
16
1
Kapitel 1 • Human Factors
obachtungen nicht oder nur mit erheblichem Aufwand zu leisten wären. Mit speziellen Interviewtechniken wie der Critical Incident Analysis (Flanagan, 1954) oder Cognitive Task Analysis (Crandall, Klein & Hoffman, 2006) soll es Informanten erleichtert werden, sich an Einzelheiten und nicht bewusstseinspflichtige Handlungen zu erinnern. 5 Fokusgruppen finden üblicherweise mit einer Zielgruppe von sechs bis zehn Experten statt. In einem Gruppenprozess können zielführend bestimmte Eigenschaften eines Systems oder Prozessabläufe erhoben und diskutiert werden. Die Stärken einer Fokusgruppe liegen in dem konstruktiven Austausch von Meinungen und Ideen der Gruppenmitglieder sowie der Reaktionen der Teilnehmer, die es ermöglichen, auch unbedachte Aspekte und Zusammenhänge aufzudecken. Besonders redselige Teilnehmer (Platzhirsche) und das Unvermögen, Prozessabläufe vollständig beschreiben zu können, stellen bei dieser Methode nicht zu vernachlässigende Grenzen dar. 5 Fragebögen kommen insbesondere zur Einstellungsmessung, z. B. im Bereich Sicherheitskultur, vor. Dabei handelt es sich um Selbstbeschreibungen, mit denen zwar sehr effizient Informationen von großen Personengruppen erhoben werden können, die jedoch stark durch Verzerrungstendenzen (z. B. soziale Erwünschtheit) beeinträchtigt werden können. Die meisten Verfahren wurden für einen spezifischen Anwendungskontext entwickelt; es gibt wenige, die auf einer theoretischen Basis aufbauen. 5 Organisationsanalysen oder makroergonomische Verfahren stellen meist eine Kombination verschiedener Einzelmethoden dar, mit denen Handlungsbedarf für Systemgestaltung oder organisationale Veränderungen sowie deren Auswirkungen erfasst werden (z. B. MTOAnalyse, Strohm & Ulich, 1997). Eine umfassende Übersicht zu Einzelmethoden bieten Dunckel (1999) sowie Stanton, Hedge, Brookhuis, Salas & Hendrick (2005). Im Folgenden soll kurz auf einige spezifische Methoden eingegangen werden, die in jüngerer Zeit besondere Bedeutung
erlangt haben: Simulationen als Zwischenform von Labor- und Felduntersuchungen sowie retrospektive und prospektive Untersuchungen.
1.4.2
z
Ausgewählte spezifische Methoden
Simulationen
Simulationen bilden relevante Aspekte eines Systems unter Laborbedingungen ab und verbinden damit Realitätsnähe mit experimenteller Kontrolle. So können vergleich- und wiederholbare Bedingungen für verschiedene Probanden hergestellt und seltene Vorfälle oder gefährliche Szenarios zu Forschungs- und Trainingszwecken nachgeahmt werden. Dabei gibt es High-fidelity-Simulationen, die das Ambiente und das technische System möglichst genau nachempfinden, wie dies bei Flugsimulatoren üblich ist und in der Medizin mit Patientensimulatoren gegenwärtig versucht wird. Mindestens ebenso wichtig sind jedoch die psychologische Plausibilität und das Generieren von anspruchsvollen, sich dynamisch verändernden Szenarien (vgl. z. B. Tactical Decision Games; Crichton, Flin & Rattray, 2000). z
Retrospektive Analysen
Retrospektive Analyse von Ereignissen werden in der Human-Factors-Forschung insbesondere zur Ursachenklärung von organisational verursachten Unfällen (»organizational accidents«; Reason, 1997), an denen viele Menschen aus unterschiedlichen Ebenen eines Betriebes beteiligt waren, eingesetzt. Anhand von Dokumenten und Interviews werden Informationen zum Verlauf und zu den zugrunde liegenden Ursachen (»root causes«) zusammengetragen. Derartige Analysen sind wegen der Seltenheit schwerwiegender Unfälle methodisch gesehen Fallstudien, d. h., sie liefern Erkenntnisse, die nicht auf anderem Weg zu gewinnen wären und die (auch in ihrer historischen Einzigartigkeit) Anhaltspunkte zur Theorienbildung und -prüfung bieten. Allerdings ist das zur Verfügung stehende Material nicht unbedingt zur umfassenden psychologischen Analyse geeignet und. Man sollte typischen Analysefehlern wie vorzeitiger Hypothesenbildung, Rückschaufehlern und Bestätigungs-
17
1.5 • Fokus und Aufbau dieses Buches
tendenzen Rechnung tragen. Auch kann mit einer Analyse eines Ereignishergangs noch keine Kausalität nachgewiesen werden. Dazu empfiehlt es sich, die Plausibilität von Alternativmodellen zu prüfen. z
Prospektive Untersuchungen
Insbesondere in der angewandten Forschung werden auch prospektive Untersuchungen eingesetzt, bei denen z. B. Wirkungsabschätzungen für neue Arbeitssysteme vorgenommen werden. Hierbei versagen übliche sozialwissenschaftliche Ansätze, da es nicht möglich ist, die zukünftigen Arbeitsplatzinhaber zu beobachten oder zu befragen. Stattdessen werden anhand der Beschreibung des geplanten technischen Systems Arbeitsabläufe imaginiert und von Experten beurteilt (Kirwan & Ainsworth, 1992) oder Kriterien der menschengerechten Arbeitsgestaltung auf geplante Veränderungen angewandt. Insbesondere für Computersysteme werden auch prospektive Methoden wie »mock-ups« (Prototypen auf Papier) und vorgestellte Begehungen (»cognitive walk-throughs«) genutzt. Sanders & Stappers (2008) beschreiben weitere interaktive Methoden wie beispielsweise ein Puppenhaus oder Handpuppen, die angehenden Nutzern helfen können, ihre Bedürfnisse oder Erfahrungen zu artikulieren. So konnten beispielsweise Pflegekräfte und Veteranen in der Konzeptionsphase für ein neues Krankenhaus mittels dieser Methoden wichtige Informationen zu Patientenbedürfnissen artikulieren.
1.5
Fokus und Aufbau dieses Buches
Die vorangegangenen Ausführungen zeigen verschiedene Möglichkeiten, Human Factors zu verstehen, und skizzieren die inhaltliche und methodische Vielfalt von Human Factors als Forschungsgebiet. > Es gibt nicht »den menschlichen Faktor« in der Interaktion mit technischen Systemen, sondern viele »menschliche Faktoren«, die berücksichtigt werden müssen, wenn Arbeitssysteme sicher und effektiv und für die darin arbeitenden Menschen zuträglich sein sollen.
1
In diesem Buch fokussieren wir den Aspekt »Systemsicherheit« und beleuchten in den folgenden 18 Kapiteln sicheres Handeln und was Menschen daran hindert oder darin unterstützt. Entsprechend stehen Beispiele und Themen aus Hochrisikobranchen (Luftfahrt, Prozessindustrie, Medizin, Militär, Polizei) im Vordergrund. Jeweils ein Autor der Kapitel 12–16 ist Experte dieser Disziplin, sodass in diesen Kapiteln Praktiker gemeinsam mit Wissenschaftlern die aktuellen Herausforderungen ihrer Branchen im Human-Factors-Bereich beschreiben. Weiterhin thematisiert dieses Buch, entsprechend dem wissenschaftlichen Hintergrund der meisten Autoren, Human Factors aus einer psychologischen Perspektive. Deshalb betrachten wir psychische und organisationale Faktoren stärker als Fragen der technischen Optimierung. Handelnde Menschen stehen hier im Mittelpunkt, d. h., auch Themen wie Organisation und Technologiegestaltung werden im Hinblick auf ihren Einfluss auf sicheres Handeln beschrieben. Schließlich sind Sicherheit und sicheres Handeln hochgradig praxisrelevant. Um dies zu betonen, beginnen alle Kapitel (außer den drei einleitenden) mit einem Fallbeispiel, das im Verlauf des jeweiligen Kapitels immer wieder aufgegriffen wird. Damit hoffen wir, die Lesefreundlichkeit und Übertragbarkeit des Gesagten zu erhöhen. z
Aufbau des Buches
Das Buch ist so zusammengestellt und geschrieben, dass es fortlaufend gelesen werden kann. Trotzdem sind die einzelnen Kapitel auch für sich stehend. Zur Unterstützung »stöbernden« Lesens sind Bezüge zu anderen Kapiteln durch Querverweise gekennzeichnet. Die Human Factors werden in fünf Abschnitten besprochen: 1. Human Factors und sicheres Handeln (7 Kap. 1–3) beschreibt als grundlegende Konzepte Human Factors, Sicherheit und Fehler: 5 In 7 Kap. 2 legen Babette Fahlbruch, Markus Schöbel und Juliane Domeinski die Grundlagen zum Verständnis von Sicherheit und Sicherheitskultur in soziotechnischen Systemen. 5 7 Kap. 3 von Gesine Hofinger zur Fehlerforschung behandelt Fehler und ihre Ursachen
18
1
Kapitel 1 • Human Factors
im Zusammenhang mit Sicherheit und Unfällen. 2. Individuelle und teambezogene Faktoren (7 Kap. 4–8) behandeln die im engeren Sinn psychologischen Human Factors. 7 Kap. 4–6 beschreiben individuelle, 7 Kap. 7–8 teambezogene menschliche Faktoren: 5 Harald Schaub stellt in 7 Kap. 4 die basalen psychischen Prozesse der Wahrnehmung und Aufmerksamkeit dar und zeigt ihre Relevanz für Sicherheit. 5 Denken, Entscheiden und Handeln als Themen der Handlungspsychologie werden von Winfried Hacker und Rüdiger von der Weth in 7 Kap. 5 vorgestellt. 5 Dietrich Dörner behandelt in 7 Kap. 6 Motivation und Emotion in ihrer Interaktion mit Denkprozessen und zeigt stressbedingte Ursachen für Handlungsfehler auf. 5 Das Handeln in der Gruppe ist Thema des 7 Kap. 7 von Petra Badke-Schaub. Sie beschreibt Gruppenstrukturen und -prozesse vor dem Hintergrund spezifischer Anforderungen und Konstellationen. 5 In 7 Kap. 8 behandelt Gesine Hofinger Funktionen von Kommunikation, häufige Fehler und sicherheitsförderliche Kommunikationsweisen. 3. Organisationale Einflussfaktoren auf sicheres Handeln (7 Kap. 9–11) sind Gegenstand der Kapitel zu Organisation, Führung und neuen Formen der Zusammenarbeit: 5 Cornelius Buerschaper stellt in 7 Kap. 9 Konzepte der Organisationstheorie vor und gibt einen Überblick über organisationale Einflussfaktoren auf Sicherheit. 5 Führung als Schnittstelle des Teams mit der Organisation wird von Gudela Grote in 7 Kap. 10 mit Fokus auf Bewältigung von Unsicherheit besprochen. 5 7 Kap. 11 behandelt neue Formen der Zusammenarbeit. Kristina Lauche fragt nach Anforderungen an Teams und Organisationen bei verteilter, medienbasierter Kooperation. 4. Aktuelle Human-Factors-Herausforderungen und Anforderungen für die Zukunft in verschiedenen Risikofeldern (7 Kap. 12–16)
bringen die in den 7 Kap. 2–11 behandelten Themen mit Erfahrungen aus der Praxis zusammen: 5 In 7 Kap. 13 zeigen Peter Dieckmann und Marcus Rall Probleme und Gestaltungsmöglichkeiten für Patientensicherheit in einem sich wandelnden Gesundheitssystem auf. 5 Human-Factors-Herausforderungen in Prozessindustrien sind Thema von 7 Kap. 14, in dem Günther Horn und Kristina Lauche auch ein Umdenken des Managements einfordern. 5 Markus Bresinsky, Frank Detje und Martin Littschwager stellen in 7 Kap. 15 den Transformationsprozess der Bundeswehr als Human-Factors-Herausforderung vor. 5 Mit polizeilicher Stabsarbeit, ihren Problemen und Optimierungsmöglichkeiten aus einer Human-Factors-Perspektive befassen sich in 7 Kap. 16 Uwe Thieme und Gesine Hofinger. 5. Prozesse gestalten im Dienst der Sicherheit (7 Kap. 17–19). Dieser Teil behandelt Standardisierung, Training und Automatisierung als drei Strategien von Organisationen, Sicherheit des Handelns zu erhöhen: 5 Vereinheitlichung des Handelns durch Standardisierung und andere Möglichkeiten des Umgangs mit Komplexität in Organisationen beschreibt Tanja Manser in 7 Kap. 17. 5 Stefan Strohschneider stellt in 7 Kap. 18 Ziele, Rahmenbedingungen und Methoden verschiedener Formen von Human-FactorsTrainings vor. 5 Automatisierung und die Probleme ihrer Nutzung durch Menschen behandelt Dietrich Manzey in 7 Kap. 19 und beschließt das Buch mit Konzepten menschzentrierter Systemgestaltung.
Literatur Agricola, G. (1556/1953). De re metallica. Zwölf Bücher vom Berg und Hüttenwesen. Original: De re metallica libri XII Basel 1556/57. Deutsche Neuauflage. Düsseldorf: marix.
Literatur
Aktionsbündnis Patientensicherheit e. V. (2006). Handlungsempfehlungen zur Vermeidung von Eingriffsverwechslungen in der Chirurgie. Mitteilungen der Deutschen Gesellschaft für Chirurgie, 1/06, 37–39. Bainbridge, L. (1987). Ironies of automation. In J. Rasmussen, K. Duncan & J. Leplat (Eds.), New technology and human error (271–283). Chichester: Wiley. Bokranz, R. & Landau, K. (1991). Einführung in die Arbeitswissenschaft. Stuttgart: UTB. Chapanis, A. (1951). Theory and method for analyzing errors in man-machine systems. Annals of the New York Academie of Science, 51, 1179–1203. Christensen, J. M. (1986). The human factors profession. In G. Salvendy (Ed.), Handbook of human factors (pp. 3–16). New York: Wiley & Sons. Crandall, B., Klein, G. & Hoffman, R. R. (2006). Working minds. A practitioner’s guide to cognitive task analysis. Cambridge, MA: MIT Press. Crichton, M., Flin, R. & Rattray, W. A. (2000). Training decision makers – Tactical decision games. Journal of Contingencies and Crisis Management, 8 (4), 208–217. DIN EN ISO 6385 (2004). Ergonomie – Grundsätze der Ergonomie für die Gestaltung von Arbeitssystemen. Berlin: Beuth. DIN EN ISO 13407 (2000). Benutzer-orientierte Gestaltung interaktiver Systeme. Berlin: Beuth. DIN EN 894-1 (1997). Sicherheit von Maschinen – Ergonomische Anforderungen an die Gestaltung von Anzeigen und Stellteilen – Teil 1: Allgemeine Leitsätze für Benutzer-Interaktion mit Anzeigen und Stellteilen. Deutsche Fassung. Berlin: Beuth. Dunckel, H. (Hrsg.) (1999). Handbuch psychologischer Arbeitsanalyseverfahren (Vol. 14). Zürich: vdf. Fadier, E. & Ciccotelli, J. (1999). How to integrate safety in design: Methods and models. Human Factors and Ergonomics in Manufacturing, 9, 367–379. Flanagan, J. C. (1954). The critical incident technique. Psychological Bulletin, 51, 327–358. Frey, J. P. (1920). Die wissenschaftliche Betriebsführung und die Arbeiterschaft. Eine öffentliche Untersuchung der Betriebe mit Taylor-System in den Vereinigten Staaten von Nordamerika. Leipzig: Lindner. Giesa, H.-G. & Timpe, K.-P. (2000). Technisches Versagen und menschliche Zuverlässigkeit: Bewertung der Verläßlichkeit in Mensch-Maschine-Systemen. In K.-P. Timpe, Th. Jürgensohn & H. Kolrep (Hg.), Mensch-Maschine-Systeme. Düsseldorf: Symposion Verlag. Hawkins, H. F. (1987). Human factors in flight. Hampshire: Gower Technical Press. Helmreich, R. L. (2000). On error management: lessons from aviation. British Medical Journal, 320, 781–785. Hollnagel, E. (1991). The phenotype of erroneous actions: Implications for HCI design. In G. R. S. Weir & J. L. Alty (Eds.), Human-computer interaction and complex systems (pp. 73–121). London: Academic Press. Hollnagel, E. (2000). Modeling the orderliness of human action. In N. Sarter & R. Amalberti (Eds.), Cognitive engi-
19
1
neering in the aviation domain (pp. 65–98). Hillsdale, NJ: Lawrence Erlbaum Associates. Hollnagel, E. (2001). Cognition as control: a pragmatic approach to the modeling of joint cognitive systems. Special issue of IEEE Transactions on Systems, Man and Cybernetics A: Systems and Humans. IEA (2000). International Ergonomics Association. http://www. iea.cc/browse.php?contID=what_is_ergonomics. Kaptelinin, V. & Nardi, B. (2006). Acting with technology. Activity theory and interaction design. Cambridge, MA: MIT Press. Karwowski, W. (2006). The discipline of ergonomics and human factors. In G. Salvendy (Ed.), Handbook of human factors and ergonomics (pp. 3–31). New York: Wiley & Sons. Kirwan, B. & Ainsworth, L. (Eds.) (1992). A guide to task analysis. London: Taylor & Francis. Machate, J. & Burmeister, M. (Hrsg.) (2003). User Interface Tuning – Benutzungsschnittstellen menschlich gestalten. Frankfurt a. M.: Software & Support Verlag. Mayo, E. (1933). Human problems of an industrial civilization. New York: Macmillian. Meister, D. (1999). The history of human factors and ergonomics. Mahwah: Lawrence Erlbaum. Münsterberg, H. (1912). Psychologie und Wirtschaftsleben – Lehrbuch zu Aufgaben der Psychotechnik in der Industrie. Leipzig: A. J. Barth. Orlady, H. W. & Orlady, L. M. (1999). Human factors in multicrew flight operations. Aldershot, UK: Ashgate. Orlikowski, W. (2007) Sociomaterial practices: Exploring technology at work. Organization Studies, 28, 1435-1448. Reason, J. (1997). Managing the risks of organizational accidents. Aldershot: Ashgate. Roethlisberger, F. & Dickson, W. (1939). Management and the worker. Cambridge, MA: Harvard University Press. Sanders, E., & Stappers, P. J. (2008). Co-creation and the new landscapes of design. CoDesign, 4, 5-18. Salvendy, G. (Ed.) (2006). Handbook of human factors and ergonomics. New York: Wiley & Sons. Schraagen, J. M., Militello, L., Ormerod, T. & Lipshitz, R. (Eds.) (2008). Macrocognition and naturalistic decision making. Aldershot: Ashgate. Stanton, N., Hedge, A., Brookhuis, K., Salas, E. & Hendrick, H. (Eds.) (2005). Handbook of human factors and ergonomics methods. Boca Raton, FL.: CRC Press. Strohm, O. & Ulich, E. (Hrsg.) (1997). Unternehmen arbeitspsychologisch bewerten. Ein Mehr-Ebenen-Ansatz unter besonderer Berücksichtigung von Mensch, Technik und Organisation (Vol. 10). Zürich: vdf Hochschulverlag. Taylor, F. W. (1911). The Principles of scientific management. New York: Harper & Row. Taylor, F. W. (1913). Die Grundsätze wissenschaftlicher Betriebsführung. München: Oldenbourg. Taylor, F. W. (1977). Die Grundsätze wissenschaftlicher Betriebsführung, mit Einleitungen von R. Vahrenkamp und W. Volpert (Original 1913). Weinheim: Beltz.
20
1
Kapitel 1 • Human Factors
Trist, E. L. & Bamforth, K. (1951). Some social and psychological consequences of the longwall method of coalgetting. Human Relations, 4, 3–38. Wickens, C. D., Gordon, S. E. & Liu, Y. (2004). An introduction to human factors engineering. (2nd edition) Upper Saddle River NJ: Prentice-Hall.
21
Sicherheit Babette Fahlbruch, Markus Schöbel und Juliane Marold
2.1
Einleitung – 22
2.1.1 2.1.2
Begriffsbestimmung – 22 Sicherheit in der betrieblichen Praxis – 23
2.2
Erklärungsansätze in der Sicherheitsforschung: Warum sind Systeme (un)sicher? – 24
2.2.1
Modell der fehlerhaften Informationsverarbeitung in Organisationen – 24 Theorie der normalen Katastrophen (»normal accident theory«) – 25 Theorie der Organisationen mit hoher Zuverlässigkeit (»high reliability theory«) – 26
2.2.2 2.2.3
2.3
Management von Sicherheit in der Praxis – 27
2.3.1 2.3.2
Ansätze des Sicherheitsmanagements – 27 Strategien und Instrumente des Sicherheitsmanagements – 28
2.4
Der tägliche Umgang mit Sicherheit: Konzept der Sicherheitskultur – 31
2.4.1 2.4.2
Diagnose von Sicherheitskultur – 33 Positive Beeinflussung von Sicherheitskultur – 34
2.5
Zusammenfassung und Ausblick – 35 Literatur – 36
P. Badke-Schaub et al., Human Factors, DOI 10.1007/978-3-642-19886-1_2, © Springer-Verlag Berlin Heidelberg 2012
2
2
22
Kapitel 2 • Sicherheit
2.1
Einleitung
Sicherheit in Organisationen übt einen starken Einfluss auf den wirtschaftlichen Erfolg, die gesellschaftliche Akzeptanz sowie das Wohlbefinden und die Zufriedenheit von Organisationsmitgliedern aus. In der Europäischen Union kommen jährlich über 5000 Menschen durch arbeitsbedingte Unfälle ums Leben. Neben schweren personenbedingten Konsequenzen kommt es zu hohen volkswirtschaftlichen Einbußen, diese können je nach Land zwischen 1% und 3% des Bruttosozialprodukts (OSHA, 2002) betragen. Die Vermeidung von Unfällen ist somit ein wichtiges Ziel jeder Art von Organisation. Dies gilt sowohl für Arbeitsunfälle, bei denen das Ausmaß des Schadens in erster Linie die ausführende Person betrifft, als auch für organisationale Unfälle, die durch das Zusammentreffen fehlerhafter Einzelfaktoren entstehen und deren Schadensausmaß weit über die eigentlichen Organisationsgrenzen hinausgehen kann. In diesem Kapitel werden ausgewählte Ansätze und Theorien der Sicherheitswissenschaft vorgestellt, die das menschliche Handeln in Systemen mit hohem Gefährdungspotenzial beschreiben. So werden zunächst unterschiedliche Perspektiven auf das Konzept Sicherheit dargestellt. Dann wird auf Theorien Bezug genommen, die sich mit dem menschlichen Beitrag zur (Un-)Sicherheit in Organisationen mit hohem Gefährdungspotenzial beschäftigen. Es folgt ein Überblick zu strategischen Steuerungsmechanismen und Implikationen des Managements von Sicherheit. Abschließend wird als Ergänzung zur Sichtweise der institutionalisierten Instrumente das Konzept der Sicherheitskultur diskutiert.
2.1.1
Begriffsbestimmung
In der alltäglichen Verwendung des Begriffs »Sicherheit« sprechen wir im Allgemeinen (in Anlehnung an ein mathematisches Verständnis) von der 100%igen Wahrscheinlichkeit des Zutreffens einer Aussage oder des (Nicht-)Eintretens eines Ereignisses. Gemäß dieser ergebnisorientierten Perspektive wird in ingenieurwissenschaftlichen Ansätzen
Sicherheit als ein Zustand der voraussichtlich störungsfreien und gefahrenfreien Funktion definiert (ISO/IEC Guide 51, 1999). In diesem Zusammenhang wird Sicherheit als positiver Sollzustand mit einer weiteren Eigenschaft von Systemen gleichgesetzt, der Zuverlässigkeit. Systeme gelten als zuverlässig, wenn eine geforderte Funktion unter gegebenen Arbeitsbedingungen während einer festgelegten Zeitdauer ausfallfrei ausgeführt wird (DIN 40041, 1990). Zuverlässigkeit umfasst demzufolge drei Aspekte: 5 Korrektheit (nach Vorgaben verlaufend), 5 Robustheit (System kann auftretende Störungen ausgleichen) und 5 Ausfallsfreiheit (definierte Sicherheit gegen einen Ausfall). Ein Begriffsverständnis, das über die ingenieurwissenschaftliche Perspektive hinausgeht, wird in der Forschung zu Organisationen mit hohem Gefährdungspotenzial (z. B. Kernkraftwerke, Öltanker, Flugzeugträger) vorangetrieben. Sicherheit wird hier als Eigenschaft aufgefasst,
» […] die es dem System gestattet, ohne größere Zusammenbrüche unter vorgegebenen Bedingungen und mit einem Minimum unbeabsichtigten Kontrollverlusts oder Schadens für die Organisation und die Umwelt zu funktionieren. (Fahlbruch & Wilpert, 1999, S. 56)
«
Die Sicherheit ergibt sich aus fortwährenden Interaktionen von Organisationsmitgliedern, Strukturen und Regeln sowie Technologien in und außerhalb der Organisation (Gherardi, Nicolini & Odella, 1998). Nicht der störungsfreie Betrieb einzelner Systemkomponenten, beispielsweise eines einzelnen Ventils, sondern das Zusammenwirken von Faktoren wie Regelwerken, Qualifikationen der Operateure, Komponentenabhängigkeiten oder Managementsysteme sind mit einzuschließen, um eine sichere Ausführung sicherheitskritischer Prozesse in der Gesamtorganisation zu gewährleisten. Es steht bei dieser Betrachtung somit nicht mehr nur das einzelne Ergebnis im Vordergrund, sondern auch die kontinuierlich ablaufenden Prozesse, die zu diesem beitragen. Weick & Sutcliffe (2001,
2.1 • Einleitung
S. 43) sprechen in diesem Zusammenhang von einem »dynamischen Nicht-Ereignis«. Nach diesem Verständnis sind Zuverlässigkeit und Sicherheit unterschiedliche Qualitäten eines Systems und können unabhängig voneinander auftreten. Dies zeigt sich auch in der Diskussion um Gestaltungsaspekte von Organisationen mit hohem Gefährdungspotenzial (Sagan, 2004). Die Implementierung redundanter Komponenten (zusätzlich vorhandene funktional gleiche oder vergleichbare Ressourcen eines technischen Systems) kann die Zuverlässigkeit einer sicherheitskritischen Systemfunktion erhöhen, da bei Ausfall einer Komponente ihre Funktion durch eine redundante Komponente übernommen wird. Allerdings führt eine zunehmend redundante Systemauslegung auch zu einer erhöhten Systemkomplexität (Perrow, 1987). Diese kann neue, möglicherweise unvorhersehbare Wechselwirkungen bedingen (7 Kap. 17.2). Daraus folgt, dass ein System zwar aus zuverlässigen Einzelkomponenten besteht, in der Gesamtheit aber nicht zwangsläufig als sicher einzustufen ist, da Sicherheit vornehmlich als Systemeigenschaft aufgefasst wird (Leveson, 2011). > Sicherheit entsteht kontinuierlich aus dem Zusammenwirken von intra- und extraorganisationalen Faktoren (wie z. B. den Organisationsmitgliedern, der Technologie, den Strukturen oder Regeln) und bezeichnet ein Funktionieren ohne größere Zusammenbrüche oder Schäden für die Organisation und die Umwelt, ein sog. dynamisches Nichtereignis.
2.1.2
Sicherheit in der betrieblichen Praxis
Die Förderung von Sicherheit in der betrieblichen Praxis zielt auf die Vermeidung gesundheitlicher Schädigungen der Beschäftigten ab. Sicherheit wird nach diesem Verständnis als gefahrenfreier Zustand bei der Berufsausübung definiert (Skiba, 1997). Nach dem deutschen Arbeitsschutzgesetz (ArbSchG) ist der Arbeitgeber verpflichtet, erforderliche Maßnahmen zur Herstellung sicherer Arbeitsbedingungen durchzuführen. Zudem hat
23
2
er die Maßnahmen auf ihre Wirksamkeit zu überprüfen und diese gemäß sich ändernder Gegebenheiten anzupassen. Die Verhütung von Unfällen, Berufskrankheiten und arbeitsbedingten Erkrankungen hat dabei Vorrang vor Entschädigungen. Die Gesetzesvorlagen verfolgen demnach einen präventiven Weg. Die Umsetzung von präventiven Maßnahmen kann gemäß dem TOP-Modell des Arbeitsschutzes (Skiba, 1997) erfolgen. Dieses postuliert eine Maßnahmenhierarchie, die technische (T – Vermeidung bzw. Trennung der Gefahr), organisatorische (O – zeitliche Begrenzung der Einwirkung einer Gefahr bringenden Bedingung) und persönliche Voraussetzungen (P – Bereitstellung persönlicher Schutzkleidung oder Unterweisungen) der Arbeit berücksichtigt. Das Konzept der Arbeitssicherheit erlangt in allen klassischen Industrien eine wichtige Bedeutung. Heute werden die Aufgaben im Rahmen integrierter Managementsysteme (IMS) durch eine sinnvolle Verknüpfung mit Qualitätsund Umweltschutzaspekten verfolgt, wie z. B. im EFQM-Modell for Excellence (EFQM, 1999–2003) oder im St. Galler Konzept für ein Integriertes Qualitätsmanagement (Seghezzi, Fahrni & Herrmann, 2007). Inwieweit eine Organisation eine umfassende bzw. systemorientierte Strategie hinsichtlich der Gewährleistung von Sicherheit verfolgen sollte, hängt in erster Linie vom Gefährdungspotenzial ihrer Produktionsprozesse ab. Systemsicherheit erhält eine unverzichtbare Bedeutung, wenn aufgrund der verwendeten Technologien bzw. Produktionsmittel ein hohes Gefährdungspotenzial entsteht, wie z. B. in sog. High-hazard-Organisationen: Kernkraftwerke, chemische Anlagen, Flugzeugträger oder Flugsicherungssysteme. Doch Organisationen, denen ein hohes Gefährdungspotenzial innewohnt, müssen nicht zwangsläufig riskant sein, im Gegenteil, das Risiko ist relativ gering. Gemäß Amalberti (2001) ist ein gefahrenträchtiges System durch ein Risiko von 103 gekennzeichnet. Dies bedeutet, dass das Risiko (eines »gefährdenden« Systemversagens) größer ist als ein Unfall auf 1000 Ereignisse (vergleichbar mit dem Risiko beim Bungee-Jumping). Systeme mit einem Risikograd von einem Unfall auf 1000 bis 100.000 Ereignissen (105) werden als regulierte Systeme bezeichnet.
24
2
Kapitel 2 • Sicherheit
Kernkraftwerke und die zivile Luftfahrt bzw. die europäische Bahn gelten als ultrasichere Systeme (»ultra safe«). Deren Risikograd liegt zwischen einem Unfall auf 100.000 bis zu unter einem Unfall auf 1.000.000 Ereignissen (106). Ultrasichere Organisationen verdanken ihr geringeres Risikopotenzial bestimmten Gestaltungsmerkmalen, die sich oftmals im Design technischer Systeme widerspiegeln. So werden z. B. nach dem Prinzip des beschränkten Versagens (»fail safe«) schon bei der Entwicklung solcher Systeme mögliche Schadensfälle einkalkuliert, um größere Gefährdungen auszuschließen (wie das Vermeiden von Überbeanspruchungen durch Sollbruchstellen bzw. Sicherungen). Oder dem Ausfall sicherheitskritischer Funktionen wird durch mehrfache Auslegung von Systemen mit gleicher Funktion nach dem Redundanz- oder Diversitätsprinzip vorgebeugt. Im Allgemeinen gilt das Prinzip der tief gestaffelten Sicherheitssysteme (»defence in depth«) als wesentliches Gestaltungsmerkmal, insbesondere in kerntechnischen Anlagen. Es wird das Ziel verfolgt, das Eintreten von sicherheitskritischen Ereignissen durch Barrieren zu verhindern (ausführlich 7 Kap. 9). Beim Ausfall einzelner Komponenten wird das Schadensausmaß durch die voneinander unabhängigen Sicherheitsebenen begrenzt, um schwerwiegende Konsequenzen für die Umgebung zu verhindern, wie in einer kerntechnischen Anlage das Mehrbarrierensystem: Hüllrohre der Brennstäbe, Reaktordruckbehälter, Sicherheitsbehälter, Reaktorgebäude aus Stahlbeton. Zudem werden Barrieren auch prozedural angelegt, indem sie menschliches Verhalten im Umgang mit technischen Systemen anleiten und unterstützen (z. B. Sicherheitsanweisungen, Schulungen zur Qualifizierung des Bedienerpersonals). Obwohl das Risiko eines Systemzusammenbruchs als relativ gering eingeschätzt wird, zeigen beispielsweise der Chemieunfall in Seveso (1976), die Reaktorkatastrophe in Tschernobyl (1986) oder die Flugzeugkollision von Überlingen (2002), dass trotz massiver technischer Sicherheitsvorkehrungen Systeme mit hohem Gefährdungspotenzial versagen. Es wird deutlich, dass eine Optimierung der Systemsicherheit nicht nur die Förderung der tech-
nischen Sicherheit umfassen sollte, sondern auch den Faktor Mensch berücksichtigen muss.
2.2
Erklärungsansätze in der Sicherheitsforschung: Warum sind Systeme (un)sicher?
Wichtige Beiträge zur Entwicklung der Sicherheitsforschung liefern die Arbeiten von Turner (1978), Perrow (1987) sowie die Arbeiten der Forschungsgruppe High Reliability (La Porte, 1996; La Porte & Consolini, 1991; Rochlin, 1993; Weick, 1987; Weick & Roberts, 1993). Die Gemeinsamkeit dieser Ansätze liegt in deren Zielstellung, die Fähigkeit von Organisationen zu beschreiben, dauerhaft zuverlässig bzw. sicher zu operieren. Zudem stellen sie die Bedeutsamkeit menschlichen Verhaltens und der organisationalen Rahmenbedingungen für die Gewährleistung der Sicherheit heraus. Während in der Theorie der fehlerhaften Informationsverarbeitung in Organisationen (Turner, 1978) und der Theorie der normalen Katastrophen (Perrow, 1987) Unzulänglichkeiten der Systemgestaltung und der Informationsnutzung deutlich gemacht werden, beschäftigen sich die Begründer der Theorie der Organisationen hoher Zuverlässigkeit (Weick & Roberts, 1993) mit wirksamen organisationalen Maßnahmen, die ein System befähigen, zuverlässig zu operieren. Im Folgenden wird auf diese Ansätze näher eingegangen.
2.2.1
Modell der fehlerhaften Informationsverarbeitung in Organisationen
Ereignen sich schwere Katastrophen, erscheinen diese zunächst als unvorhersehbar (»fundamental surprises«). Im Rahmen der nachfolgenden Analyse findet man dann aber oftmals Anzeichen dafür, dass zumindest einigen Mitgliedern der jeweiligen Organisation schon vor bzw. während der Ereignisentstehung »ereignishinweisende« Informationen vorlagen. Diesem zunächst als Paradox erscheinenden Phänomen widmet sich Turner (Turner, 1978; Turner & Pidgeon, 1997) in seiner Theorie der »man-made disasters«. Auf der Grundlage einer
2.2 • Erklärungsansätze in der Sicherheitsforschung: Warum sind Systeme (un)sicher?
systematischen Analyse von 84 Unfallberichten kam er zu dem Schluss, dass die Ursachen dieser Unfälle auf Dysfunktionalitäten von menschlichen und organisatorischen Anpassungsprozessen zurückgehen. Als Beispiel nennt er Störungen des Informationsflusses innerhalb einer Organisation bzw. fehlerhafte oder unzureichende Interpretationen und Bewertungen von vorhandenen sicherheitskritischen Informationen. Diese Theorie der fehlerhaften Informationsverarbeitung macht auf Faktoren der Entstehung von Ereignissen aufmerksam, die mit einer deutlichen räumlich-zeitlichen Distanz zum eigentlichen Ereignisentstehungsort in einer Organisation verankert sein können. Dieser Aspekt wurde von Reason (1990, 1997) weiterentwickelt, der zwischen aktiven und latenten Fehlern unterscheidet (7 Kap. 3). Ersteren kommt eine Auslösefunktion zu, während die zweiten unerkannt im System ereignisfördernd wirken. Latente Fehler oder indirekte Faktoren spiegeln organisationale Schwachstellen oder dysfunktionale Beziehungen zwischen Organisationen wider. Zur Zeit der Entwicklung dieser Theorie stand Turners Sichtweise traditionellen Konzepten der menschlichen Fehlerforschung entgegen, die ausschließlich auf direkt ereignisauslösende Fehlhandlungen fokussieren. Einen ähnlichen Beschreibungsansatz, der insbesondere auf strukturelle Merkmale von Organisationen bei der Ereignisentstehung hinweist, wählte Perrow in seiner Arbeit mit dem provokanten Titel »Theorie der normalen Katastrophen« (1987).
2.2.2
Theorie der normalen Katastrophen (»normal accident theory«)
Auf der Basis des Unfallgutachtens von Three Mile Island (TMI, 1978) sowie der intensiven Auseinandersetzung mit vorwiegend ingenieurwissenschaftlichen Analysen der eingesetzten Untersuchungskommission entwickelte der Organisationssoziologe Perrow seinen Beschreibungsansatz. Das Hauptaugenmerk in der Analyse von Three Mile Island legte Perrow auf die Beschreibung der Mechanismen, die Systemunfälle in komplexen tech-
25
2
nischen Systemen zwangsläufig bedingen (Perrow, 1987). Nach seiner Theorie ereignen sich Systemunfälle (»normal accidents«) aufgrund unvorhergesehener Wechselwirkungen zwischen einzelnen Ausfällen. Den Schwerpunkt bei der Definition von Systemunfällen legt Perrow auf die Anzahl und Art der betroffenen Einheiten eines Systems. Die Entstehung von Unfällen wird demnach als natürliche Konsequenz eines Systems gesehen, das durch (1) viele komplexe Interaktionen und (2) enge Kopplung gekennzeichnet ist. 1. Die Eigenschaften von Interaktionen in einem System werden durch die zwei Pole linear und komplex bestimmt. Komplexe Interaktionen äußern sich in Rückkopplungsschleifen, Verzweigungen oder Sprüngen innerhalb der Prozessabläufe und führen zu für den Operateur unerwarteten Ergebnissen. Ein Wärmetauscher, der gleichzeitig als Heizvorrichtung dient, kann beim Ausfall beide Funktionen nicht mehr erfüllen. Lineare Interaktionen sind für den Operateur gut sichtbar und Teil des normalen Betriebsablaufs. Als Beispiel für lineare Interaktionen führt Perrow ein Montageband an, das beim Ausfall die Teile auflaufen lässt, aber zu keinem unvorhersehbaren Schaden führt. 2. Die zweite von Perrow identifizierte Systemeigenschaft, die Weick (1976) im Rahmen der Analyse von organisationalen Strukturen beschreibt, ist die Art der Kopplung einzelner Systemkomponenten (eng vs. lose). Eng gekoppelte Systeme (zeitlich, räumlich, funktional) zeichnen sich durch keinerlei Verzögerungen des Betriebsablaufs aus, die Abläufe sind invariabel gestaltet und das Produktionsziel kann nur mithilfe einer vorgegebenen Strategie erreicht werden. In eng gekoppelten Systemen zeigen lokale Störungen meist große Auswirkungen, da z. B. der gestörte Systemteil nicht abgeschaltet werden kann oder aufgrund der räumlichen Nähe ebenfalls zerstört wurde. Die Just-in-Time-Produktion in der Automobilindustrie erfüllt diese Kriterien. Zulieferbetriebe produzieren und liefern die Autoteile zu dem Zeitpunkt, in denen sie benötigt werden, ansonsten kommt es zur Unterbrechung des gesamten Produktionsprozesses. Eine lose
26
2
Kapitel 2 • Sicherheit
Kopplung ermöglicht bestimmten Teilen des Systems, gemäß ihrer eigenen Logik zu funktionieren. Lose gekoppelte Systeme können Störungen oder erzwungene Änderungen besser verarbeiten, ohne sich zu destabilisieren. Bei eng gekoppelten Systemen müssen Puffer, Redundanzen und Substitutionsmöglichkeiten von den Konstrukteuren vorab eingeplant werden. Die überwiegend auf der Untersuchung des Unfalls von TMI basierenden Schlussfolgerungen zu den Versagensmechanismen überträgt Perrow auf ein sehr breites Feld technischer Systeme, angefangen von Kernkraftwerken, Petrochemie, Schifffahrt, Flugsicherung über Staudämme, Bergwerke und Gentechnologie. Deren Gemeinsamkeiten sieht er in den grundlegenden Unzulänglichkeiten der Systemgestaltung. Maßnahmen zur Förderung von Sicherheit sind in einem solchen System nur reaktiv möglich. Optimalerweise sollten Systeme schon bei der Planung im Hinblick auf die Vermeidung des Zusammentreffens dieser Eigenschaften gestaltet werden. Weitere sicherheitsfördernde Maßnahmen sieht Perrow in Faktoren wie der Systematisierung von Informationen über Fehler im System, der gleichmäßigen Verteilung und Zugänglichkeit der Informationen sowie in der Offenheit für Kritik von außen (Perrow, 1986). Auch wenn einige Kritiker anmerken, dass Perrow seine Schlussfolgerungen vorwiegend aus der Analyse von Unfalluntersuchungen (Hopkins, 1999) ableitet und eine Generalisierung auf ein sehr heterogenes Feld technischer Systeme anstrebt, liegt sein Verdienst v. a. in der Ausweitung des Betrachtungsspielraums und in der Einbeziehung struktureller Faktoren bei der Betrachtung von Systemsicherheit.
2.2.3
Theorie der Organisationen mit hoher Zuverlässigkeit (»high reliability theory«)
Die »high reliability theory« ging aus der intensiven Beschäftigung der interdisziplinären Forschungsgruppe in Berkeley und Michigan mit der Analyse von Organisationen mit hohem Gefährdungs-
potenzial hervor, denen es dennoch gelingt, weit weniger Unfälle zu produzieren als statistisch zu erwarten wären (Weick & Roberts, 1993). Die Annahmen der HR-Theorie gründen auf Felduntersuchungen, die auf Flugzeugträgern der U.S. Navy durchgeführt wurden, sowie auf der Analyse organisationaler Strukturen des Flugsicherungssystems der Federal Aviation Administration (FAA) und des Kernkraftwerks Diablo Canyon in Kalifornien/ USA. Zielstellung war die Identifikation von Systemeigenschaften, die es den Organisationen ermöglichen, trotz des vorhandenen Gefährdungspotenzials (»high-hazard«) nahezu fehlerfrei und somit zuverlässig zu operieren. Die HRO-Forscher führen die Sicherheit dieser Systeme grundsätzlich auf achtsames Handeln zurück. Kennzeichen sind (7 Kap. 9) eine ständige Aktualisierung der Deutung von Systemzuständen und Zusammenhängen, um frühzeitige, meist noch schwache Signale plausibel erklären und angemessene Reaktionen entwickeln zu können. Das Prinzip der Achtsamkeit (»heedfulness«) ergibt sich aus dem Zusammenspiel folgender Merkmale (Weick & Roberts, 1993): 5 Toleranz gegenüber Fehlern, 5 Abneigung gegen vereinfachende Interpretationen, 5 Sensibilität für betriebliche Abläufe, 5 Streben nach Flexibilität und 5 Respekt vor fachlichem Wissen und Können. Die Toleranz gegenüber Fehlern zeigt sich in häufig durchgeführten Analysen von Beinahe-Ereignissen oder in den Bemühungen, den Umgang mit Fehlern den Mitarbeitenden so zu vermitteln, dass ein freiwilliges Melden der Fehler gefördert wird. Das Ziel ist eine kontinuierliche Verbesserung durch die Gewährleistung eines geeigneten Erfahrungsrückflusses. Hierzu können Belohnungsstrukturen für Fehlerentdeckung und Fehlermeldung etabliert werden. Oft entstehen Fehler dadurch, dass schwache Signale übersehen wurden, die Wahrnehmung der jeweiligen Situation eingeschränkt war und dann Entscheidungen mit folgenschweren Konsequenzen getroffen wurden. Durch eine kontinuierliche Überprüfung von Sicherheitsstandards können HROs eine Sensibilität für betriebliche Abläufe entwickeln. Diese wird durch einen fortwährenden Austausch an relevanten Informationen erreicht.
27
2.3 • Management von Sicherheit in der Praxis
Die bisher genannten Merkmale erfassen gewünschte Muster, die das Antizipieren und bewusste Wahrnehmen von unerwarteten Systemzuständen ermöglichen sollen. Kommt es innerhalb der HROs dann doch zu unvorhergesehenen Ereignissen, sind situationsabhängige flexible Wechsel zwischen Organisationsformen mit unterschiedlichem Zentralisierungs- bzw. Autonomiegrad entscheidend (7 Kap. 10). Mitarbeiter und Mitarbeiterinnen können, unabhängig von ihrer Stellung in der Hierarchie, allein wichtige Entscheidungen treffen, sofern sie hierzu qualifiziert sind. Dies bedeutet, dass die Expertise der Akteure, falls notwendig, jederzeit die hierarchische Struktur aushebeln kann.
2.3
Management von Sicherheit in der Praxis
Die Gewährleistung von Sicherheit wird in Industrien mit hohem Gefährdungspotenzial v. a. als eine Managementaufgabe angesehen. Sicherheitsmanagement ist die strategische Steuerung organisationalen Handelns und kann auch als die durch die Unternehmensleitung veranlasste Institutionalisierung der sicherheitsgerichteten Aktivitäten in einer Organisation angesehen werden. Ähnlich wie beim Qualitätsmanagement sollen Faktoren mit potenziellem Einfluss identifiziert und kontrolliert werden, jedoch mit dem Ziel, die Sicherheit und Zuverlässigkeit der Organisation zu gewährleisten und zu optimieren.
2.3.1
Ansätze des Sicherheitsmanagements
z
Personenmodell
Das Personenmodell wird am besten durch den traditionellen Arbeitssicherheitsansatz charakterisiert. Es werden v. a. Fehler, unsichere Handlungen und Regelverletzungen fokussiert. Die Ursachen von Stör- und Unfällen werden in der Regel in psychologischen Faktoren wie mangelnde Aufmerksamkeit, unzureichende Motivation oder fehlende Fähigkeiten gesehen. Begründet ist dies in der impliziten Annahme, dass alle Mitarbeiter und Mitarbeiterinnen sich bewusst und frei zwischen sicherem und unsicherem Verhalten entscheiden können. Dementsprechend zielen Maßnahmen v. a. auf Auswahl, Training und Schulungen von Mitarbeitern. Im Grunde greift ein derart verstandenes Sicherheitsmanagement jedoch zu kurz, da sowohl Analysen als auch Interventionen hauptsächlich auf die Mitarbeiter und Mitarbeiterinnen und nicht auf die organisationalen und technischen Randbedingungen zielen. z
Ingenieurmodell
Das Ingenieurmodell steht in der Tradition von Ingenieurwissenschaft, Arbeitswissenschaft und Risikomanagement (»risk control«, »loss control«). Schwachstellen werden im Rahmen dieses Modells im Design der Technologie oder der Mensch-Maschine-Schnittstelle erklärt. Sicherheit kann daher in das System »eingebaut« werden. Bei diesem Modell zielen Maßnahmen auf eine technische Verbesserung der Anlage und der Mensch-Maschine-Schnittstelle. Ausgelassen werden Aspekte wie Führung, Teamprozesse, Organisation oder Dokumente und Arbeitsunterlagen, denen im folgenden Modell besondere Beachtung geschenkt wird. z
Eine Unterteilung von Sicherheitsmanagementansätzen nach ihrem Schwerpunkt, der sich bei der Analyse von Stör- und Unfällen, bei Maßnahmenfindung und sicherheitsgerichteten Interventionen zeigt, nimmt Reason (1997) vor. Er unterscheidet dabei drei Sicherheitsmanagementmodelle: 5 Personenmodell, 5 Ingenieurmodell und 5 Organisationsmodell.
2
Organisationsmodell
Das Organisationsmodell kann als eine Erweiterung des Ingenieurmodells angesehen werden. Grundlage ist die Annahme, dass neben technischem Versagen und Operateursfehlern auch weitere latente Faktoren in der Organisation zu der Entstehung von Unfällen beitragen. So kann die Instandsetzung beispielsweise zu lange Prüfintervalle haben, sodass Verschleiß oder Alterung nicht rechtzeitig bemerkt werden, was zum Ausfall einer technischen Komponente führen könnte. Als ein weiteres Beispiel sei hier eine ungünstige Arbeits-
28
2
Kapitel 2 • Sicherheit
planung genannt, durch die die Wahrscheinlichkeit für das Auftreten von Operateurfehlern erhöht werden könnte. Eine kontinuierliche Kontrolle und Anpassung elementarer Systemfunktionen und -prozesse ist also erforderlich, um Sicherheit zu gewährleisten. Maßnahmen sind dementsprechend umfassend konzipiert und beziehen alle Ebenen der Organisation mit ein, da ein ausschließlicher Fokus auf Personen oder die Mensch-Maschine-Schnittstelle wichtige Einflussfaktoren auf die Sicherheit außer Acht lässt. Für die praktische Umsetzung werden häufig Sicherheitsmanagementsysteme (SMS) eingesetzt, die in der Regel aus den Bausteinen Prozesswesen, Gefahren- und Risikomanagement, Berichtswesen und interne Auditierung bestehen. Zum Prozesswesen können Prozessidentifikation, Prozessdokumentation, Aktualisierung und Changemanagement gezählt werden. Für einen Flughafen können beispielsweise Baustellenplanung, Winterdienst auf Start- und Landebahn oder Abfertigung auf dem Vorfeld Prozesse sein, die im SMS erfasst werden. Für die Dokumentation könnten der Name des Prozesses, das Erstellungsdatum, die Dokumentennummer, das ausführende Unternehmen bzw. die Flugplatzabteilung, der Prozesseigner, am Prozess Beteiligte, existierende Vorgaben, durchgeführte Audits und vorgefallene Ereignisse festgehalten werden. Häufig werden auch Vorgaben durch Aufsichtsbehörden festgeschrieben. Zum Beispiel wurde durch die Änderung des ICAO-Abkommens über die internationale Zivilluftfahrt (International Civil Aviation Organisation) – Annex 14 die Einführung von SMS an Flugplätzen verpflichtend (ICAO, 2004). Beispiel Die Implementierung, Funktion und Umsetzung des Sicherheitsmanagementsystems (SMS) an Flugplätzen wird durch die luftrechtliche Genehmigungsbehörde geprüft. Ein SMS gilt vom Flugplatzunternehmer als komplett umgesetzt, wenn folgende Merkmale nachweisbar eingeführt wurden: 1. Sicherheitspolitik des Unternehmens 2. Installation eines Sicherheitsmanagers 3. Zuordnung der Verantwortlichkeiten zu Prozessen 4. Einrichtung von Sicherheitsausschüssen
5. Gefahrenidentifikation und Risikomanagement 6. Berichtswesen zu sicherheitsrelevanten Vorkommnissen 7. Untersuchung sicherheitsrelevanter Vorkommnisse 8. Dokumentation 9. Auditierung 10. Changemanagement (Anpassen der Verfahren bei Änderungen) 11. Organisation von Sicherheitsunterweisungen von Mitarbeitern (eigene und Fremdfirmen) 12. Definition von Sicherheitsleitzielen 13. Fortlaufende Überwachung der Wirksamkeit des SMS 14. Notfallplanung
2.3.2
Strategien und Instrumente des Sicherheitsmanagements
Rasmussen (1991) beschreibt drei verschiedene Kontroll- oder Steuerungsstrategien für die Gewährleistung der Sicherheit, deren Angemessenheit vom Gefährdungspotenzial der Industrie und von der Geschwindigkeit der Technologieentwicklung abhängen: 5 Feedforward-Steuerung, 5 Feedback-Steuerung und 5 Kombination aus Feedforward- und FeedbackSteuerung. Feedforward-Steuerung kann als die vorausschauende Strategie angesehen werden, mithilfe von Risikoabschätzungen werden Interventionen geplant. Die Feedback-Steuerung bezieht sich auf das Lernen aus Betriebserfahrungen, Interventionen basieren hier auf der Analyse von Ereignissen oder Beinahe-Ereignissen. In die Praxis umgesetzt könnte die Kombination von Feedforward- und Feedback-Steuerung in einem SMS folgendermaßen aussehen: Für die Bestandteile eines SMS »Gefahrenidentifikation« und »Risikomanagement« können Verfahren eingesetzt werden, die nach Rasmussen der Feedforward-Steuerung zuzuordnen sind. Vor allem für die Kerntechnik wurden aufgrund des hohen Gefährdungspotenzials Methoden entwickelt, um die Risiken des Systems einschätzen zu können sowie
2.3 • Management von Sicherheit in der Praxis
mögliche Unfälle und Schwachstellen vorauszusehen, um durch geeignete Maßnahmen präventiv einschreiten zu können. Die meisten dieser Methoden basieren auf ingenieurwissenschaftlichen Ansätzen und modellieren Systemfunktionalitäten. In der probabilistischen Sicherheitsanalyse (PSA) werden Ansätze zur Analyse der Technologie um Verfahren ergänzt, die den menschlichen Beitrag modellieren, wie die »human reliability analysis« (HRA), um zu einer realistischen Abschätzung für das gesamte Systemverhalten zu kommen (auch 7 Kap. 3). Es gibt erste Versuche, die diversen quantitativen Methoden (eine Evaluation der verschiedenen Ansätze findet man bei Kirwan, 1996 u. 1997a–d) um qualitative Aspekte zu ergänzen, mit denen beispielsweise organisationale oder kulturelle Faktoren berücksichtigt werden können (Kirwan, 1998). Methoden zur Feedback-Steuerung sind v. a. Ereignisanalyseverfahren, die im SMS im Baustein »Berichtswesen« angesiedelt sind. Hierbei geht es um die Analyse von Ereignissen und Beinahe-Ereignissen. Den aktuellen Stand der Sicherheitsforschung stellen Modelle zur Erklärung der Entstehung von Ereignissen dar, die organisatorische und Umweltfaktoren zusätzlich zu menschlichen und technischen Ursachen abbilden. Beispiele sind das »Schweizer-Käse-Modell« von Reason (1997) oder das soziotechnische Ereignisentstehungsmodell (Fahlbruch & Wilpert, 1999). Untersuchungen von Unfällen, wie beispielsweise das Sinken der Fähre »Herald of Free Enterprise« oder der Reaktorunfall in Tschernobyl, zeigten, dass eine hoch komplexe Interaktion unterschiedlichster Faktoren, die auch außerhalb der Betreiberorganisation angesiedelt sein können, an der Entstehung der Unfälle beteiligt waren. Ereignisanalysen dienen der Aufklärung dieser Interaktion, in dem der Ereignishergang und seine Ursachen rekonstruiert werden. Damit stellen sie Ansprüche an die Analytiker, die bei der Analyse über die vorhandene Information hinaus kausale Schlüsse vornehmen müssen – ein Prozess, der nach Fahlbruch & Wilpert (1997) mit komplexem Problemlösen verglichen werden kann. Ereignisanalysen werden mehr oder weniger systematisch durchgeführt. Oftmals unterliegen Ereignisse mit sicherheitstechnischer Bedeutung einer Meldepflicht gegenüber den zuständigen
29
2
Behörden. Ziel ist es, meldepflichtige Ereignisse nach einem geordneten Verfahren mit definierten Vorgaben und einer abgestuften Dringlichkeit der Aufsichtsbehörde zur Kenntnis zu bringen. Für meldepflichtige Ereignisse gibt es je nach Industrie unterschiedliche Klassifikationssysteme, in denen beispielsweise in der Kerntechnik Systemstatus, Ablauf des Ereignisses, Ursachen, Auswirkungen, Sofortmaßnahmen, Übertragbarkeit und Vorkehrung gegen Wiederholung erfasst werden. Zumindest für Industrien mit hohem Gefährdungspotenzial existieren ferner eine Reihe unterschiedlicher Ereignisanalyseverfahren. Ereignisse werden hier als multikausale Ereignissequenzen gesehen und meistens wird von einem notwendigen Zusammenspiel direkt wirkender Faktoren oder aktiver Fehler mit indirekt wirkenden Faktoren oder latenten Fehlern ausgegangen. Ersteren kommt eine Auslösefunktion zu, während die zweiten unerkannt im System ereignisfördernd wirken. Latente Fehler oder indirekte Faktoren spiegeln organisationale Schwachstellen oder dysfunktionale Beziehungen zwischen Organisationen wider. Neu ist die explizite Betrachtung der Organisationsumwelt als Einflussfaktor auf die Entstehung von Ereignissen. Kritisch anzumerken ist vor allem, dass die wenigsten Verfahren wissenschaftlich entwickelt wurden, meistens sind die Analysemethoden in der Praxis entstanden. Dementsprechend sind auch kaum Untersuchungen zu ihren Gütekriterien zu finden (Fahlbruch, 2000). Typische Verfahren für die Kerntechnik sind ASSET (Assessment of Safety Significant Event Teams – IAEA, 1991), HPES (Human Performance Enhancement System – Bishop & LaRhette, 1988), MORT (Management Oversight and Risk Tree – Johnson, 1980) und SOL (Sicherheit durch organisationales Lernen – Wilpert, Becker, Maimer, Miller, Fahlbruch, Baggen, Gans, Leiber & Szameitat, 1997; Fahlbruch & Schöbel, 2011). In der chemischen Industrie wird ebenfalls MORT angewandt, aus der Luftfahrt kann stellvertretend HERA-JANUS (Human Error in Air Traffic Management Technique – Isaac, Shorrock, Kennedy, Kirwan, Andersen & Bove, 2003) als von Eurocontrol entwickeltes Verfahren genannt werden. Im Folgenden soll als ein Beispiel das Verfahren SOL beschrieben werden, das an der TU Berlin entwickelt wurde und inzwischen das Standardver-
30
Kapitel 2 • Sicherheit
fahren für die vertiefte Ereignisanalyse in der deutschen Kerntechnik ist.
2
Beispiel SOL – Sicherheit durch organisationales Lernen SOL (Fahlbruch Schöbel, 2011) wird in zwei voneinander getrennten und aufeinander aufbauenden Schritten durchgeführt: 4 Beschreibung der Ereignissituation und 4 Identifikation beitragender Faktoren. Erst nachdem die Situation ausreichend beschrieben wurde, soll mit dem zweiten Schritt begonnen werden. Diese klare Trennung zwischen Informationssammlung und Interpretation der Information wurde konzipiert, um eine mögliche Einschränkung durch vorschnelle Hypothesen gering zu halten. Zur Sammlung von Informationen werden dem Analytiker eine Reihe von Fragen als Anregung zur Verfügung gestellt, mit deren Hilfe geklärt werden kann, was passiert ist, aber nicht, warum es passiert ist. Die zusammengetragene Information wird in standardisierter Form auf Ereignisbausteinkarten übertragen, die Informationen über Akteure, hier Menschen und technische Komponenten, und Aktionen, hier menschliche Handlungen oder maschinelle Abläufe, sowie über Ort, Zeit und Bemerkungen enthalten. Für alle beteiligten Menschen und Maschinen bzw. technischen Komponenten werden auf diese Weise Ereignisbausteine gebildet. Pro Akteur und Aktion wird eine separate Ereignisbausteinkarte angelegt. Die Ereignisbausteine repräsentieren die einzelnen Ereignissequenzen. Sie werden dann nach Akteuren und nach der Zeit in einer Art Matrix geordnet wieder zu einem gesamten Bild zusammengesetzt. Mit der Identifikation beitragender Faktoren wird erst begonnen, wenn eine vollständige Situationsbeschreibung erstellt wurde. Um monokausales Denken, eine abgebrochene Suche und eine Einschränkung durch vorschnelle Hypothesen sowie durch Übertragung aus Referenzsituationen zu verhindern, wird für jede Ereignisbausteinkarte einzeln nach beitragenden Faktoren gesucht. So wird für jede Ereignissequenz eine separate Analyse durchgeführt, deren Ergebnisse ebenfalls auf Karten festgehalten werden und mit denen die Ereignisdarstellung ergänzt wird. Im Laufe der Analyse
entsteht so eine immer komplexer werdende Ereignisrekonstruktion. Als Hilfe für die Analytiker gibt es mögliche direkt und indirekt beitragende Faktoren wie Arbeitsbedingungen, Arbeitsplanung, Abweichung von Regeln, Qualifikation, Gruppeneinflüsse, Organisation und Management und Training, die in einer Identifikationshilfe zusammengefasst sind. Die Vorgabe dieser möglichen beitragenden Faktoren dient zum einen der Sicherung des Untersuchungsumfangs, zum anderen soll sie den Analytikern helfen, mögliche Hypothesen zu generieren. Es gibt ferner Verweise von den direkt beitragenden zu den indirekt beitragenden Faktoren. Diese Verweise sind in der Analyse zu überprüfen, wenn ein Faktor identifiziert wurde. Die Identifikationshilfe enthält für jeden direkt und indirekt kontribuierenden Faktor eine allgemein gehaltene Frage, wie beispielsweise »Könnte es einen Einfluss der Arbeitsbedingungen auf das Handeln gegeben haben?«, um die Bildung von Analogien anzuregen und um den Eindruck der Vollständigkeit zu vermeiden, der durch zu detaillierte Unterkategorien entstehen kann. Da SOL aber in erster Linie für das Personal in Kernkraftwerken und nicht für HumanFactors-Spezialisten konzipiert wurde, wird jede allgemeingehaltene Frage anhand von Beispielen erläutert. Die Beispiele sind nicht erschöpfend, sondern sollen vielmehr die mögliche Spannbreite der Wirkung des Faktors verdeutlichen.
Das Lernen aus Betriebserfahrung beschreibt den erfolgreichen Erfahrungsrückfluss. Nach Koornneef (2000) sind Ereignisse bzw. Beinahe-Ereignisse einerseits Lernmaterial, andererseits Auslöser für das Lernen in einer Organisation. Voraussetzung für erfolgreiches Lernen ist nach Argyris und Schön (1996), dass über ein einfaches Fehlerkorrigieren (Single-loop-Lernen) hinausgegangen wird. Beim Double-loop-Lernen werden tiefere und gemeinsame Ursachen und Schwachstellen gesucht, d. h. es wird mit einer systematischen Analyse vorgegangen. Beim Deutero-Lernen wird im Sinne eines Meta-Lernens über die Lernprozesse reflektiert. Carroll, Rudolph & Hatakenaka (2002) sehen jedoch durchaus Schwierigkeiten, besonders in hochregulierten Industrien, in denen die formale Regelbefolgung höchste Priorität besitzt. Aus Sicht der Autoren ist es für das Lernen aus Ereignissen
2.4 • Der tägliche Umgang mit Sicherheit: Konzept der Sicherheitskultur
notwendig, dass ein nichtlineares, dynamisches, multikausales Systemverständnis existiert, und dass problemorientiertes Feedback sowie ein offener Austausch stattfinden. Schöbel & Manzey (2011) weisen zudem auf die Schwierigkeit hin, organisationale Faktoren im Rahmen von Ereignisanalysen zu identifizieren. Oftmals werden dabei motivationale Aspekte sicherheitsgerichteten Handelns unterschätzt, was vornehmlich auf die Anwendung technikorientierter Theorien des Organisierens (z. B. Vergleiche zwischen Soll- und Ist-Abläufen) im Gegensatz zur Anwendung verhaltensorientierter Theorien (z. B. Identifikation der Motive, die das sicherheitsrelevantes Verhalten anleiten) zurückzuführen ist. Dementsprechend sollten in einem SMS einerseits Methoden zur systematischen Analyse organisationaler Faktoren in Ereignissen, andererseits aber auch Feedbackschleifen für »lessons learned« implementiert sein.
2.4
Der tägliche Umgang mit Sicherheit: Konzept der Sicherheitskultur
Der Begriff »Sicherheitskultur« (auch 7 Kap. 9.6.1) wurde erstmals von einer Beratergruppe der Internationalen Atomenergiebehörde (IAEA) der breiten Öffentlichkeit vorgestellt – im Zuge der Analyse des Reaktorunglücks in Tschernobyl (INSAG-1, 1986; INSAG-4, 1991). Diese Analyse führte organisationale Schwachstellen wie auch die Vielzahl an Regelverletzungen des operativen Personals auf Defizite der zum Zeitpunkt der Katastrophe vorherrschenden Sicherheitskultur zurück. Mittlerweile genießt das Konzept nicht nur in der kerntechnischen Industrie weltweite Aufmerksamkeit. Auch in anderen Ultra-safe-Branchen, wie z. B. der Raumfahrt (Leveson, Cutcher-Gershenfeld, Barrett, Brown, Carroll, Dulac, Fraile & Marais, 2004) oder der Luftfahrt (Helmreich & Merrit, 1998), wurde die Notwendigkeit erkannt, den organisationskulturellen Einfluss auf das individuelle Sicherheitshandeln der Organisationsmitglieder zu berücksichtigen. Branchenübergreifend gilt das Hauptinteresse der Entwicklung von Maßnahmen zur Optimierung von Sicherheitskultur.
31
2
In der 1991 vorgelegten Definition der IAEA wird Sicherheitskultur verstanden als
»
[…] that assembly of characteristics and attitudes in organization and individuals which establishes that, as an overriding priority, nuclear plant safety issues receive the attention warranted by their significance. (INSAG-4, 1991)
«
Darauf aufbauend werden auf drei Ebenen Anforderungen definiert, deren Erfüllung eine »funktionierende Sicherheitskultur« ausmachen soll: Auf der unternehmenspolitischen Ebene gilt es, sowohl von der Organisation selbst wie auch von politischen Aufsichtsorganen die Rahmenbedingungen zu schaffen, unter denen die Organisationsmitglieder ihre Arbeit sicherheitsgerichtet verrichten können (z. B. sicherheitspolitische Programme, ausreichende finanzielle und personelle Ressourcen, Sicherheitsmanagementsysteme). Auf der Ebene des Managements werden v. a. thematisiert: die Festlegung innerbetrieblicher Verantwortlichkeiten, die regelmäßige Durchführung von Trainings- und Qualifizierungsmaßnahmen, sicherheitsförderliche Belohnungs- und Sanktionssysteme sowie die Definition und Überprüfung von Sicherheitspraktiken. Auf der individuellen Ebene wird von allen Mitarbeitenden unabhängig von ihrer Position innerhalb der Organisation eine hinterfragende Grundhaltung, ein sorgfältiges und vorsichtiges Handeln und eine offene Kommunikation über sicherheitsrelevante Themen gefordert. Die IAEA versteht Sicherheitskultur als ein ganzheitliches Phänomen, das alle Mitglieder einer Organisation (und die mit ihnen in Verbindung stehenden »interorganisationalen« Akteure) einbezieht und dessen Verhaltenswirksamkeit sich sowohl auf beobachtbaren (»characteristics«) wie auch psychologischen (»attitudes«) Merkmalen abbildet. Neuere Publikationen der IAEA erweitern diese Auffassung dahingehend, dass 5 Konzepte wie »lernende Organisation« sowie konservative Entscheidungsfindung, der Aufbau einer Berichtskultur (INSAG-15, 2002) wie auch die individuellen (Sicherheits-)Werte der Organisationsmitglieder (IAEA, 2005) integriert werden und
32
Kapitel 2 • Sicherheit
Generativ Sicherheit gehört zu unserem täglichen Geschäft
2
Proaktiv Wir arbeiten an den Problemen, die wir finden
Zunehmend informiert
Kalkulativ Wir haben die Systeme, um Gefährdungen zu kontrollieren Reaktiv Sicherheit ist wichtig: Wenn Unfälle passieren, tun wir eine Menge
Zunehmendes Vertrauen
Pathologisch Wen kümmert es, solange wir nicht erwischt werden
. Abb. 2.1 Reifegradmodell der Sicherheitskultur. (Übersetzt nach Hudson, 2007) Reprinted from Safety Science, 45 (6), Hudson, P, Implementing a safety culture in a mojor multi-national, 697–722, Copyright (2007), with permission from Elsevier
5 unterschiedliche Entwicklungsstufen von Sicherheitskultur definiert werden (IAEA, 1998). Letzteres kennzeichnet auch die sog. Reifegradmodelle der Sicherheitskultur (z. B. Fleming & Lardner, 1999; Parker, Lawrie & Hudson, 2006; Hudson, 2007), die die jeweilige Reife einer Sicherheitskultur anhand ausgewählter Indikatoren bestimmen (. Abb. 2.1). Unklar bleibt jedoch, wie es zu unterschiedlichen Reifegraden einer Sicherheitskultur kommt bzw. wie beispielsweise das »bedrohliche« Verhalten der Mitglieder einer pathologischen Sicherheitskultur erklärt werden kann, wenn man davon ausgeht, dass diese sich nicht bewusst Gefahren und Risiken aussetzen. Basierend auf den Arbeiten zur Organisationskultur von Schein (1990) wird zunehmend ein Mehrebenenkonzept von Sicherheitskultur favorisiert (Guldenmund, 2000; Hale, 2000; Wagner, Schöbel, Klostermann & Manzey, 2010). Dieses fokussiert das Wechselspiel zwi-
schen »nichtbeobachtbaren« und »beobachtbaren« Merkmalen einer Sicherheitskultur. Schein betrachtet die Kultur einer Organisation auf drei Ebenen, wobei Ausprägungen auf den beiden höheren Ebenen (Ebene der Artefakte bzw. des beobachtbaren Verhaltens und Ebene der bekundeten Werte) maßgeblich durch die tiefste Ebene – Ebene der Grundannahmen – beeinflusst werden. Der verhaltensbestimmende Kern einer (Organisations-)Kultur wird als ein Muster gemeinsamer Grundannahmen definiert, das eine Gruppe bzw. eine Organisation im Spannungsfeld von externer Anpassung und interner Integration erlernt hat, das sich bewährt hat, somit als bindend gilt und daher an neue Organisationsmitglieder als rationale und emotionale Leitlinie eigenen Handelns weitergegeben wird. Die Grundannahmen einer Organisationskultur sind den Organisationsmitgliedern in der Regel nicht bewusst; sie leiten ihr Handeln »wie selbstverständlich«. Auf den unmittelbaren Zusammenhang zwischen den in sozialen Gruppierungen
2.4 • Der tägliche Umgang mit Sicherheit: Konzept der Sicherheitskultur
entstehenden Grundannahmen und sicherheitsgerichtetem Verhalten verweist Hale (2000, S. 7):
» The attitudes, beliefs, and perceptions shared by natural groups as defining norms and values, which determine how they act and react in relation to risks and risk control system.
«
Auch Pidgeon (1991) in Anlehnung an Turner, Pidgeon, Blockley & Toft (1989) fasst Sicherheitskultur als sozial geteiltes Phänomen auf, d. h. als
» […] set of beliefs, norms, attitudes roles, and social and technical practices that are concerned with minimising the exposure of employees, managers, customers and members of the public to conditions considered dangerous and injurious. (S. 134)
«
> Das Konzept Sicherheitskultur beinhaltet sowohl beobachtbare Indikatoren wie auch psychologische Aspekte. Die Schwerpunkte der verschiedenen Modelle liegen entweder auf der Entwicklung beobachtbarer Indikatoren für Sicherheitskultur oder auf der Identifikation im Gruppenkontext entstehender verhaltenswirksamer und sozial geteilter Grundannahmen einer Sicherheitskultur. Eine gezielte Optimierung von Sicherheitskultur sollte beide Aspekte integrieren und ist in hohem Maße davon abhängig, welches Verständnis von Sicherheitskultur zugrunde gelegt wird (Baram & Schöbel, 2007).
So bedarf es psychologischer Modelle kultureller Beeinflussung, um beispielsweise Auswirkungen von Veränderungsprozessen vorhersagen und steuern zu können. Gleichzeitig benötigt man eine Vorstellung davon, was ein »wünschenswertes« sicherheitsgerichtetes Verhalten ist und welche organisationalen Rahmenbedingungen vorliegen müssten, um ein solches Verhalten zu unterstützen. Beide Aspekte einer Sicherheitskultur lassen sich allerdings nur schwer verallgemeinern; sie sollten an die spezifischen Bedingungen einer Sicherheitskultur angepasst werden. So ist durchaus vorstellbar, dass eine »starke« Teamkultur in der einen Organisation negative Effekte für die Sicherheit produziert (z. B.
33
2
Verschweigen von Fehlhandlungen anderer Teammitglieder), in einer anderen Organisation jedoch positive Einflüsse hat (Teammitglieder unterstützen sich gegenseitig bei der Entdeckung von Missständen). Des Weiteren muss bei jeglicher »sicherheitskulturellen« Intervention entschieden werden, ob auf die Veränderung des Verhaltens (z. B. durch Behavioral-Safety-Programme; s. Lardner, 2004) oder auf Veränderung von Einstellungen und Werten der Organisationsmitglieder (z. B. durch Informationsworkshops) abgezielt werden sollte, und inwieweit nichtprimäre sicherheitsrelevante Entscheidungen und Prozesse (wie z. B. die Verteilung von Ressourcen, organisationale Restrukturierungen) einbezogen werden, d. h. vordergründig eine Veränderung der Organisationskultur anzustreben ist. Daraus folgt, dass der Diagnose von Sicherheitskultur eine entscheidende Rolle zukommt, sobald sich eine Organisation mit ihrer Sicherheitskultur auseinandersetzt bzw. ihre gezielte Optimierung anstrebt.
2.4.1
Diagnose von Sicherheitskultur
Im Gegensatz zur Feedback-Steuerung von Sicherheit (beispielsweise durch Ereignisanalysen, 7 Kap. 2.3.2) stellt die Diagnose der Sicherheitskultur einen Feedforward-Steuerungsmechanismus dar. Seit der Einführung des Konzeptes sind eine Vielzahl an Methoden entwickelt worden, mittels derer Optimierungspotenziale und somit Ansatzpunkte zur positiven Beeinflussung der Sicherheitskultur aufgezeigt werden. Im Bereich der kerntechnischen Industrie überwiegen Ansätze der Selbsteinschätzung der Sicherheitskultur (IAEA, 1995; VGB-Powertec, 2004; IAEA, 2005). Diese greifen zumeist auf drei unterschiedliche Verfahren zurück: 5 Betriebsbegehungen, 5 Dokumentenanalysen und 5 Interviews. Anhand von Betriebsbegehungen und der Analyse von Dokumenten sollen beobachtbare Merkmale einer Sicherheitskultur eingeschätzt werden. Dazu liegen Checklisten vor, die den Bewertungspro-
34
2
Kapitel 2 • Sicherheit
zess anleiten (Was soll beobachtet werden? Welche Dokumente sollen analysiert werden?) und gleichzeitig Bewertungskriterien formulieren (z. B. Housekeeping in der Anlage, Qualität von Arbeitsprozeduren und -regeln). Mit der Durchführung von Interviews werden die »tieferen« Ebenen einer Sicherheitskultur, d. h. Einstellungen und Werte der Mitarbeitenden zu Sicherheit und Zuverlässigkeit analysiert, wobei Fragenkataloge die Interviews anleiten. Zudem werden die Ergebnisse der Dokumentenanalyse und Betriebsbegehung in die Befragung integriert. Einen weiteren Zugang zu den nichtbeobachtbaren Merkmalen einer Sicherheitskultur verspricht man sich auch durch den Einsatz von Fragebögen. Es wird zwar empfohlen, dass die Analyse der tieferen Ebenen einer Sicherheitskultur (Ebene der »unbewussten« Grundannahmen) dem Einsatz qualitativer Methoden vorbehalten bleiben sollte (Schein, 1990; Denison, 1996), jedoch bieten Fragebögen die Möglichkeit, Aussagen über das Sicherheitsklima einer Organisation und damit »Schnappschüsse« einer Kultur (Flin, Mearns, O’Connor & Bryden, 2000) abzuleiten. Unter Sicherheitsklima werden demnach die »offenkundigen« Merkmale einer Sicherheitskultur verstanden. Zohar (1980) beschreibt diese als »a summary of molar perceptions that employees share about their work environment« (S. 96). Allerdings ist die Interpretation von Daten aus Klimafragebögen und damit das Schlussfolgern auf die Sicherheitskultur einer Organisation auch mit Schwierigkeiten behaftet. So gehen mittlerweile viele Konzeptionen der Sicherheitskultur davon aus, dass sich innerhalb einer Organisation unterschiedliche Subkulturen entwickeln können, deren Ausformung vom spezifischen Kontext der Arbeitstätigkeit einzelner Gruppen abhängt. Dies bedeutet für die Auswertung von Sicherheitsklimafragebögen, dass entschieden werden muss, auf welcher Ebene die erhobenen Daten sinnvoll aggregiert werden können (auf der organisationalen Ebene, der Gruppenebene, der Ebene der funktionalen Zugehörigkeit etc.), und ob hierfür die Anzahl der erhobenen Datensätze ausreicht, ohne gegen die Voraussetzung statistischer Verfahren zu verstoßen.
Weiter bleibt auch festzuhalten, dass in bisherigen Studien kaum Aussagen zur Validität der eingesetzten Fragebögen getroffen werden, d. h. inwieweit ein Zusammenhang zwischen Ausprägungen des Sicherheitsklimas bzw. der Sicherheitskultur und der tatsächlichen Sicherheit organisationalen Handelns vorliegt. Neben dem Mangel an Erklärungsmodellen bisheriger Sicherheitsklimakonzeptionen (Guldenmund, 2007; Flin, 2007) mag dies auch an der Schwierigkeit liegen, geeignete (Sicherheits-)Leistungsindikatoren zu identifizieren, da üblicherweise eingesetzte Indikatoren (Anzahl Beinahe-Unfälle, Unfallstatistiken, Verfügbarkeitsdaten, Selbstberichte) nur bedingt Rückschlüsse zulassen.
2.4.2
Positive Beeinflussung von Sicherheitskultur
Um die Sicherheit organisationalen Handelns zu gewährleisten, ist es für Organisationen unerlässlich, Informationen über potenzielle bzw. reale Gefährdungspotenziale zu generieren, zu sammeln, zu analysieren und zu verbreiten. Ultra-safe-Organisationen stehen allerdings vor der Herausforderung, dass diese Informationen im Vergleich zu anderen Industrien (z. B. in der Bauindustrie) nur schwer zugänglich sind. Ereignisse treten selten auf. Sicherheit ist »unsichtbar« in dem Sinne, dass mit dem Erreichen von Produktionszielen gleichzeitig die Sicherheit organisationalen Handelns suggeriert wird und demnach die wahrgenommene Notwendigkeit sinkt, weitere »Sicherheits«-Informationen zu suchen (Weick, 1987). An diesem Punkt sollte eine positive Beeinflussung der Sicherheitskultur ansetzen. Reason (1998) greift die Notwendigkeit der aktiven Suche und Verbreitung sicherheitsrelevanter Informationen in seinem Konzept der informierten Kultur (»informed culture«, auch 7 Kap. 9) auf. Hierunter versteht er eine Kultur, in der die Organisationsmitglieder Gefährdungspotenziale bewusst wahrnehmen, verstehen und respektieren. Sicherheitsmanagementsysteme stellen die notwendigen formalen Strukturen zur Verfügung, gleichzeitig bedarf es einer Organisationskultur, die zur Nut-
35
2.5 • Zusammenfassung und Ausblick
zung dieser Strukturen motiviert. Reason nennt dafür zwei Voraussetzungen: Zunächst bedarf es einer »reporting culture«: Die Organisationsmitglieder sollten bereit sein, eigene Fehlhandlungen sowie Beobachtungen zu abweichendem Systemverhalten zu kommunizieren. Dies erfordert ein Meldesystem mit förderlichen Merkmalen wie z. B. Vertraulichkeit, einfacher Zugang, schnelle Rückmeldung (van der Schaaf & Kanse, 2004). Primär sollte jedoch das Vertrauen der Organisationsmitglieder in die Ziele und die zu erwartenden Gewinne eines (»freiwilligen«) Meldesystems gestärkt werden (Schöbel, 2009). Voraussetzung dafür ist eine sog. gerechte Kultur (»just culture«): In der Organisation muss Klarheit darüber herrschen, wie mit Schuldzuweisungen und Bestrafungen umgegangen wird. Das Spektrum, wie Organisationen heutzutage solche Aspekte handhaben, reicht von der Null-Toleranz gegenüber Fehlern bis hin zur »no-blame culture«. Ziel einer just culture sollte jedoch sein, dass die Organisationsmitglieder genau wissen, wo die Linie gezogen wird zwischen inakzeptablem Verhalten, das einer Disziplinierung bedarf, und sonstigem Fehlverhalten, dessen Bestrafung weder angemessen noch hilfreich für eine Entdeckung von sicherheitskritischen Systemdysfunktionalitäten ist. Ein potenzielles Kriterium dafür, wie bei Ereignissen mit menschlicher Beteiligung vorgegangen werden soll, bietet der Substitutionstest. In einer möglichen Variante dieses Tests werden die Kollegen eines in ein Ereignis verwickelten Mitarbeiters gefragt, ob sie unter den gegebenen Umständen ähnlich gehandelt hätten. Wird die Frage bejaht, sollte man davon ausgehen, dass eine Bestrafung des Mitarbeiters keinen Sinn ergibt und eher mit negativen Effekten hinsichtlich der Etablierung einer informierten Kultur verbunden wäre – in Form von wahrgenommener Ungerechtigkeit und daraus resultierendem Misstrauen gegenüber dem Management. Im Hinblick auf die Umsetzung einer just culture sollte jedoch auch darauf hingewiesen werden, dass jegliche Interventionen die Privatsphäre und die Grundrechte von Arbeitnehmern und Arbeitnehmerinnen zu achten haben. Die positive Beeinflussung der Sicherheitskultur in Richtung einer informierten Kultur soll-
2
te sicherstellen, dass die hier bislang aufgezählten Aspekte nicht nur auf der Ebene einzelner Subkulturen umgesetzt werden, sondern zu Merkmalen der »dominanten« Organisationskultur werden. Dies bedeutet, dass das Top-Management sich den Zielen und der Vision einer informierten Kultur verpflichtet fühlt und somit bereit ist, bestehende Grundannahmen zu hinterfragen und aufzugeben. Ein kritischer Aspekt dabei ist die Bereitschaft, auch das sicherheitsrelevante Verhalten von Mitarbeitern auf höheren Führungsebenen zu thematisieren bzw. zu verändern (7 Kap. 10).
2.5
Zusammenfassung und Ausblick
Dieses Kapitel beschreibt die Gewährleistung von Sicherheit im organisationalen Kontext. Über eine ergebnisorientierte Sichtweise hinaus wird Sicherheit als Systemmerkmal betrachtet, das sich aus Interaktionsprozessen intra- und extraorganisationaler Einzelfaktoren kontinuierlich generiert. Die strategische und sicherheitsgerichtete Steuerung der Vielzahl organisationaler Prozesse wird durch Sicherheitsmanagementsysteme vollzogen. Diese ermöglichen einer Organisation sowohl die Feedforward- (z. B. durch probabilistische Sicherheitsanalysen) wie auch Feedback-Steuerung (z. B. durch Ereignisanalysen) von Gefährdungspotenzialen. Neben diesen institutionalisierten Instrumenten sind die Bedeutung und das Ausmaß eines organisationskulturellen Einflusses auf das Sicherheitshandeln der Organisationsmitglieder unumstritten. Eine Sicherheitskultur wird als ganzheitliches Phänomen beschrieben, dessen Verhaltenswirksamkeit sich sowohl auf beobachtbaren Indikatoren wie auch psychologischen Merkmalen abbildet. Während Sicherheitsmanagementsysteme die »beobachtbaren« Strukturen zur Verfügung stellen, bedarf es gleichzeitig einer Sicherheitskultur, die zur Nutzung dieser Strukturen motiviert. Eine Weiterentwicklung dieser systemischen Sichtweise auf die Sicherheit stellt der Ansatz zur Resilienzforschung (Hale & Heijer, 2006; Hollnagel, Woods & Leveson, 2006; auch 7 Kap. 3) dar. Dem Resilienzansatz liegt das Drift-to-danger-Modell von Rasmussen (1997) zugrunde, das davon ausgeht, dass sich das Verhalten der Mitarbeitenden in
36
2
Kapitel 2 • Sicherheit
Organisationen mit hohem Gefährdungspotenzial innerhalb definierter Grenzen (»safety margins«) bewegt. Entscheidungen und Handlungen der Organisationsmitglieder werden grundsätzlich durch das Streben nach maximalem Produktionsoutput bei minimalem individuellen Aufwand geprägt. Resilienz ist die Fähigkeit von Organisationen und ihrer Mitglieder, Übertretungen dieser Grenzen (z. B. durch Abweichungen von Sicherheitsregeln) und die daraus folgenden Konsequenzen frühzeitig zu antizipieren und deren Einfluss auf die Gesamtleistung eines Systems abzuschätzen. Schwerpunkte aktueller Entwicklungen sind Methoden zur Erfassung und Beobachtung von Resilienz, entsprechende Unterstützungssysteme bezüglich sicherheitsrelevanter Entscheidungsprozesse, Visualisierungstechniken zur Antizipation möglicher Auswirkungen getroffener Entscheidungen und damit verbundener Veränderungen im System. Resiliente Organisationen schenken »unerwarteten« bzw. nicht vorab definierten Systemzuständen erhöhte Aufmerksamkeit und entwickeln angemessene Abwehrstrategien (Hollnagel, Woods & Leveson, 2006). Resilienz erinnert somit stark an die Konzeption der Achtsamkeit, bezieht sich darüber hinaus aber auch auf die Fähigkeit, nach aufgetretenen Störungen einen reibungslosen Betrieb zu garantieren, in dem Ausgleichsmechanismen vorhanden sind und auch angewendet werden. Demnach müssen Organisationen heutzutage Strategien entwickeln, die sowohl auf die Beherrschung »vorhersehbarer« Störfälle als auch auf den Umgang mit und die Bewältigung von unerwarteten Situationen abzielen.
Literatur Amalberti, R. (2001). The paradoxes of almost totally safe transportation systems. Safety Science, 37, 109–126. Argyris, C. & Schön, D. (1996). Organizational learning II: Theory, method, and practice. Reading MA: Addison-Wesley. Baram, M. & Schöbel, M. (2007). Safety culture and behavioral change at the workplace (Editorial). Safety Science, 45 (6), 631–636. Bishop, J. & LaRhette, R. (1988). Managing human performance – INPO’s human performance evaluation. System. Human-Error-Avoidance-Techniques Conferences Proceedings. Warrendale, Pennsylvania: Society of Auto-
motive Engineers, Inc. (SAE), Publications No. P-204, 79–85. Carroll, J. S., Rudolph, J. W. & Hatakenaka, S. (2002). Organizational learning from experience in high-hazard industries: Problem investigation as off-line reflective practice. MIT Sloan School of Management: Working Paper 4359–02. Denison, D. R. (1996). What is the difference between organizational culture and organizational climate? A native’s point of view on a decade of paradigm wars. Academy of Management Review, 21, 619–654. DIN 40041. (1990-12). Zuverlässigkeit; Begriffe. Berlin: BeuthVerlag. EFQM (2003). Die Grundkonzepte der Excellence. [Online] http://www.luzern.phz.ch/fileadmin/media/luzern.phz. ch/qualitaetsmanagement/plu_efqm_grundkonzepte_2003.pdf [23.06.2011]. Fahlbruch, B. & Schöbel, M. (2011). SOL – Safety through organizational learning: A method for event analysis, Safety Science, 49 (1), 27-31. Fahlbruch, B. (2000). Vom Unfall zu den Ursachen – Empirische Bewertung von Analyseverfahren. Berlin: Mensch & Buch. Fahlbruch, B. & Wilpert, B. (1997). Event analysis as problem solving process. In A. R. Hale, B. Wilpert & M. Freitag (Eds.), After the event: from accident to organisational learning (pp. 113–130). Oxford: Elsevier. Fahlbruch, B. & Wilpert, B. (1999). System safety – an emerging field for I/O psychologie. In C. L. Cooper & I. T. Robertson (Hrsg.), International Review of Industrial and Organizational Psychology (Bd. 14, S. 55–93). Chichester: Wiley. Fleming, M. & Lardner, R. (1999). The development of a draft safety culture maturity model. Suffolk: HSE Books. Flin, R. (2007). Measuring safety culture in healthcare. A case for accurate diagnosis. Safety Science, 45 (6), 653–667. Flin, R., Mearns, K., O’Connor, P. & Bryden, R. (2000). Measuring safety climate: Identifying the common features. Safety Science, 34 (1–3), 177–192. Gherardi, S., Nicolini, D. & Odella, F. (1998). What do you mean by safety? Conflicting perspectives on accident causation and safety management in a construction firm. Journal of Contingencies and Crisis Management, 6 (4), 202–213. Guldenmund, F. W. (2000). The nature of safety culture: A review of theory and research. Safety Science, 34 (1–3), 215–257. Guldenmund, F. (2007). The use of questionnaires in safety culture research: An evaluation. Safety Science, 45 (6), 723–740. Hale, A. R. (2000). Editorial: Culture’s confusion. Safety Science, 34, 1–14. Hale, A. & Heijer, T. (2006). Defining resilience. In E. Hollnagel, D. D. Woods & N. Leveson (Eds.), Resilience engineering: concepts and precepts (pp. 35–41). Burlington, VT: Ashgate. Helmreich, R. L. & Merritt A. C. (1998). Culture at work: National, organisational and professional influences. Aldershot, UK: Ashgate.
Literatur
Hollnagel, E., Woods, D. D. & Leveson, N. (2006). Resilience engineering: concepts and precepts. Burlington, VT: Ashgate. Hopkins, A. (1999). The limits of normal accident theory. Safety Science, 32 (2–3), 93–102. Hudson, P. (2007). Implementing a safety culture in a major multi-national. Safety Science, 45 (6), 697–722. IAEA (1991). ASSET Guidelines revised 1991 edition. Reference material prepared by the IAEA for assessment of safety significant event teams (IAEA-TECDOC-632). Vienna: International Atomic Energy Agency. IAEA (1995). ASCOT-Guidelines. Guidelines for reviews by the assessment of safety culture in organizations teams. Vienna: International Atomic Energy Agency. IAEA (1998). Developing safety culture in nuclear activities: Practical suggestions to assist progress. IAEA Safety Report Series Nr. 11. Vienna: International Atomic Energy Agency. IAEA (2005). SCART Guidelines. Guidelines for safety culture assessment review teams. Unpublished report. Vienna: International Atomic Energy Agency. ICAO (2004). ICAO-Annex 14, Volume I, »Aerodrome design and operations«. 4th Edition, July 2004. INSAG-1 (1986). Summary Report on the Post-Accident Review Meeting on the Chernobyl accident. Vienna: International Atomic Energy Agency. INSAG-4 (International Nuclear Safety Advisory Group) (1991). Safety Culture. Vienna: International Atomic Energy Agency. INSAG-15 (International Nuclear Safety Advisory Group) (2002). Key practical issues in strengthening safety culture. Vienna: International Atomic Energy Agency. ISO/IEC Guide 51 (1999). Leitfaden für die Aufnahme von Sicherheitsaspekten in Normen. Berlin: Beuth Verlag. Isaac, A., Shorrock, S. T., Kennedy, R., Kirwan, B., Andersen, H. & Bove, T. (2003). The human error in ATM technique (HERA-JANUS) (HRS/HSP-002-REP-03). Brussels: Eurocontrol. Johnson, W. (1980). MORT Safety Assurance Systems. New York: Marcel Dekker. Kirwan, B. (1996). The validation of three human reliability quantification techniques – THERP, HEART and JHEDI: Part 1 – technique descriptions and validation issues. Applied Ergonomics, 27 (6), 359–373. Kirwan, B. (1997a). The development of a nuclear chemical plant human reliability management approach: HRMS and JHEDI. Relibility Engineering and System Safety, 56, 107–133. Kirwan, B. (1997b). The validation of three human reliability quantification techniques – THERP, HEART and JHEDI: Part III – Practical aspects of the usage of the techniques. Applied Ergonomics, 28 (1), 27–39. Kirwan, B. (1997c). Validation of human reliability assessment techniques: Part 1 – Validation issues. Safety Science, 27 (1), 25–41. Kirwan, B. (1997d). Validation of human reliability assessment techniques: Part 2 – Validation results. Safety Science, 27 (1), 43–75.
37
2
Kirwan, B. (1998). Safety management assessment and task analysis – a missing link. In A. Hale & M. Baram (Eds.), Safety management: The challenge of change (pp. 67–92). Amsterdam: Elsevier. Koornneef, F. (2000). Organised learning from small-scale incidents. Delft: Delft University Press. La Porte, T. R. (1996). High reliability organizations: Unlikely, demanding and at risk. Journal of Contingencies and Crisis Management, 4 (2), 60–71. La Porte, T. R. & Consolini, P. M. (1991). Working in practice but not in theory: theoretical challenges of high-reliability organizations. Journal of Public Administration Research and Theory, 1, 19–47. Lardner, R. (2004). Mismatches between safety culture Improvement and behaviour-based safety. Paper presented at the 23th NetWork-Meeting on Safety Culture and Behavioral Change, Blankensee, Germany. Leveson, N. (2011). Applying systems thinking to analyze and learn from events. Safety Science, 49 (1), 55-64. Leveson, N., Cutcher-Gershenfeld, J., Barrett, B., Brown, A., Carroll, J., Dulac, N., Fraile, L. & Marais, K. (2004). Effectively addressing NASA’s organizational and safety culture: Insights from system safety and engineering systems. Paper presented at MIT ESD Symposium, March 2004. OSHA (2002). Arbeitsunfälle verhindern. Magazin der Europäischen Agentur für Sicherheit und Gesundheitsschutz am Arbeitsplatz, 4, 1–33. Parker, D., Lawrie, M. & Hudson, P. (2006). A framework of understanding the development of organisational safety culture. Safety Science, 44 (6), 551–562. Perrow, C. (1986). Lernen wir etwas aus den jüngsten Katastrophen? Soziale Welt, 37, 390–401. Perrow, C. (1987). Normale Katastrophen. Die unvermeidbaren Risiken der Großtechnik. Frankfurt u. a.: Campus-Verlag. Pidgeon, N. F. (1991). Safety culture and risk management in organizations. Journal of Cross-Cultural Psychology, Vol. 22, pp. 129–140. Rasmussen, J. (1991). Safety control: Some basic distinctions and research issues in high hazard low risk operation. Paper preseted at the NeTWork workshop on Risk Management, Bad Homburg, May 1991. Rasmussen, J. (1997). Risk management in a dynamic society: A modelling problem. Safety Science, 27 (2–3), 183–213. Reason, J. (1990). Human error. Cambridge: Cambridge University Press. Reason, J. (1997). Managing the risks of organizational accidents. Aldershot: Ashgate. Reason, J. T. (1998). Achieving a safe culture: theory and practice. Work and Stress, 12 (3), 293–306. Rochlin, G. I. (1993). Defining »High reliability« organizations in practice: A taxonomic prologue. In K. H. Roberts (Ed.), New challenges to understanding organizations (pp. 11–32). New York, Toronto: Macmillan. Sagan, S. D. (2004) Learning from normal accidents. Organization and Environment, 17 (1), 15–19.
38
2
Kapitel 2 • Sicherheit
Schaaf, T. W. van der & Kanse, L. (2004). Biases in incident reporting databases: An empirical study in the chemical process industry. Safety Science, 42 (1), 57–67. Schein, E. H. (1990). Organizational culture. American Psychologist, 45 (2), 109–119. Schöbel, M. & Manzey, D. (2011). Subjective Theories of Organizing and Learning from Events, Safety Science, 49 (1), 47-54. Schöbel, M. (2009). Trust in high reliability organizations. Social Science Information, 48(2), 315-333. Seghezzi, H. D., Fahrni, F. & Herrmann, F. (2007). Integriertes Qualitätsmanagement. Der St. Galler Ansatz. (3., vollst. überarbeitete Aufl.). München: Carl Hanser. Skiba, R. (1997). Taschenbuch Arbeitssicherheit (9., neubearb. Aufl.). Bielefeld: Schmidt. Turner, B. A. (1978). Man-made disasters. London: Wykeham Publ. Turner, B. A. & Pidgeon, N. F. (1997). Man-made disasters (2. ed.). Boston [u. a.]: Butterworth-Heinemann. Turner, B. A., Pidgeon, N., Blockley, D. & Toft, B. (1989) Safety culture: its importance in future risk management. Position paper for the Second World Bank Workshop on safety control and risk management, Karlstad, Sweden. VGB-Powertec (2002). Sicherheitskultur in deutschen Kernkraftwerken – Konzept zur Bewertung und Trendverfolgung. [Unveröffentliches Manuskript]. Wagner, R., Schöbel, M., Klostermann, A. & Manzey, D. (2010). Sikumeth: Ein Multi-Methoden-Verfahren zur Erhebung von Sicherheitskultur in Kernkraftwerken. In R. Trimpop, G. Gericke & J. Lau (Hrsg.), Psychologie der Arbeitssicherheit und Gesundheit: Sicher bei der Arbeit und unterwegs -wirksame Ansätze und neue Wege, 16. Workshop 2010 (pp. 375-378). Kröning: Asanger Verlag. Weick, K. E. (1976). Educational organisations as loosely coupled systems. Administrative Science Quarterly, 21, 1–19. Weick, K. E. (1987). Organizational culture as a source of highreliability. California Management Review, 29 (2), 112–127. Weick, K. E. & Roberts, K. H. (1993). Collective mind in organizations – Heedful interrelating on flight decks. Administrative Science Quarterly, 38 (3), 357–381. Weick, K. E. & Sutcliffe, K. M. (2001). Das unerwartete Managen: Wie Unternehmen aus Extremsituationen lernen. Stuttgart: Klett-Cotta. Wilpert, B., Becker, G., Maimer, H., Miller, R., Fahlbruch, B., Baggen, R., Gans, A., Leiber, I. & Szameitat, S. (1997). Umsetzung und Erprobung von Vorschlägen zur Einbeziehung von Human Factors (HF) bei der Meldung und Ursachenanalyse in Kernkraftwerken. [Endbericht SR 2039/8, Bericht der Technischen Universität Berlin und des TÜV Rheinland e. V. im Auftrag des Bundesministers für Umwelt, Naturschutz und Reaktorsicherheit im Rahmen des Vorhabens SR 2039/8]. Zohar, D. (1980). Safety climate in industrial organizations: Theoretical and applied implications. Journal of Applied Psychology, 65 (1), 96–102.
39
Fehler und Unfälle Gesine Hofinger
3.1
Fehler, Irrtümer und Sicherheit – 40
3.1.1 3.1.2
Was sind Fehler? – 40 Hinweise zur Geschichte der Fehlerforschung – 41
3.2
Fehler und Unfälle: Personansatz und Systemansatz – 43
3.2.1 3.2.2
Aktive Fehler und latente Bedingungen – 43 Fehlerketten – 44
3.3
Jeder Fehler ein Schatz? Vom Nutzen der Zwischenfälle – 47
3.4
Fehlerarten und Fehlerformen – 48
3.4.1 3.4.2 3.4.3 3.4.4 3.4.5
Arten von Fehlerklassifikationen – 48 Fehler im System? Arbeitsprozessbezogene Klassifikationen – 48 Ebenen von Fehlerursachen – 50 Unsichere Handlungen (Reason, 1990) – 52 Fehler beim Problemlösen – 54
3.5
Ursachen für Fehler – 55
3.5.1 3.5.2 3.5.3 3.5.4
Ressourcenschonung – 56 Aktives Gedächtnis – 56 Überwertigkeit des aktuellen Motivs – 57 Kompetenzschutz und soziale Motive – 57
3.6
Zuverlässigkeit und Fehlerfreundlichkeit – 57
3.7
Zusammenfassung – 58 Literatur – 59
P. Badke-Schaub et al., Human Factors, DOI 10.1007/978-3-642-19886-1_3, © Springer-Verlag Berlin Heidelberg 2012
3
3
40
Kapitel 3 • Fehler und Unfälle
3.1
Fehler, Irrtümer und Sicherheit
Fehler, Irrtümer und Pannen begleiten menschliches Handeln – anscheinend unentrinnbar. »Es irrt der Mensch, so lang er strebt«, wusste Goethes Faust. »Errare humanum est«, heißt es schon bei den alten Römern. Dass etwas nicht so funktioniert, wie es soll, gehört zum Leben, zum Alltagshandeln und damit auch zum beruflichen Handeln in Hochrisikobereichen. Als Lebensweisheit ist die Einsicht in menschliche Fehlbarkeit wohl unbestritten. Da Fehler jedoch Ursache von Unfällen mit Folgen für Mensch, Umwelt und Kapital sein können, streben ganze Industrien wie auch Unternehmen nach Fehlerlosigkeit mit zwei verschiedenen Ansatzpunkten: 5 Handeln wird reguliert durch Standards und Regeln (7 Kap. 17). 5 Menschliche Eingriffe werden teils oder vollständig durch Automatisierung ersetzt (7 Kap. 19). In diesem Kapitel geht es um Fehler, ihre Ursachen, ihren Zusammenhang mit Sicherheit und Unfällen. Nicht erst seit Sicherheit ein Forschungsthema mit starkem Praxisbezug ist, sind Fehler in der Forschung auf Interesse gestoßen. Als »Fenster zum Geist« (Norman, 1981) haben Psychologen seit etwa 150 Jahren Fehlhandlungen genutzt, um menschliche Informationsverarbeitung und Handlungsregulation besser zu verstehen. Nach dem Versuch einer begrifflichen Abgrenzung folgt deshalb in 7 Kap. 3.1.2 ein kurzer Blick auf die Geschichte und wichtige Strömungen der Fehlerforschung. Der Blick zurück zeigt, dass neben Fachinteressen insbesondere gesellschaftliche und technische Entwicklungen die Forschung beeinflussen. 7 Kap. 3.2 stellt grundlegende Perspektiven auf Fehler einander gegenüber und klärt den Zusammenhang von Fehlern und Unfällen bzw. Sicherheit. Fehlerforschung hat immer schon versucht, die Vielzahl beobachtbarer Fehler auf wenige Grundmuster zurückzuführen. In 7 Kap. 3.3 werden deshalb wichtige Fehlerklassifikationen besprochen. Ursachen für Fehler werden überblicksartig in 7 Kap. 3.4 benannt; sie werden ausführlich in den 7 Kap. 5–11 behandelt.
Abschließend geht es im 7 Kap. 3.5 um menschliche Zuverlässigkeit – hier wird deutlich, dass Fehler nicht zu Unfällen führen müssen.
3.1.1
Was sind Fehler?
Es gibt viele Definitionen von Fehlern, jedoch bis heute keinen Konsens hinsichtlich einer allgemein akzeptierten Definition. Dies ist nicht verwunderlich, da sich Forscher aus verschiedenen Richtungen mit unterschiedlichen Interessen des Themas annehmen. Dennoch gibt es einen gemeinsamen Kern in allen Fehlerdefinitionen: > Fehler sind eine Abweichung von einem als richtig angesehenen Verhalten oder von einem gewünschten Handlungsziel, das der Handelnde eigentlich hätte ausführen bzw. erreichen können.
Damit sind die wichtigsten Bestimmungsstücke genannt: Eingrenzung des Fehlerbegriffs 5 Von Fehlern kann man nur sprechen, wenn menschliches Handeln betroffen ist – Maschinen machen keine Fehler, sie können entweder falsch verwendet, defekt oder falsch programmiert sein. 5 Fehler können im Prozess des Handelns oder im Handlungsergebnis liegen. 5 Fehler setzen eine Absicht (Intention) voraus, die nicht wie geplant ausgeführt wird. 5 Die Bezeichnung einer Handlung oder eines Handlungsergebnisses als »Fehler« setzt also eine Bewertung voraus. 5 Fehler setzen voraus, dass das Wissen und Können für die richtige Handlungsausführung vorhanden war.
Reason (1990) schreibt entsprechend:
» Error will be taken as a generic term to encompass all those occasions in which a planned sequence of mental or physical activities fails to achieve its intended outcome, and when these
3
41
3.1 • Fehler, Irrtümer und Sicherheit
failures cannot be attributed to the intervention of some change agency. (S. 9)
«
Denselben Kerngedanken finden wir bei Wehner, Mehl & Dieckmann (2010): Fehler sind eine »Zielverfehlung wider besseres Wissen und Können« – man hätte es also besser machen können, wenn man etwas anderes oder etwas anders getan hätte. Da Fehler Wissen und Können voraussetzen, grenzen Psychologen (Wehner, Mehl & Dieckmann, 2010) seit Weimer (1925) den Fehler vom Irrtum ab. So heißt z. B. einen Irrtum begehen, dass das nötige Wissen nicht vorhanden war, um das gewünschte Handlungsziel zu erreichen. Diese Unterscheidung mag auf den ersten Blick unnötig erscheinen, ist aber – wenn Sicherheit gefährdet ist – relevant für die Analyse: ob ein Ventil fälschlich geöffnet wurde, weil der Operator nicht wusste, dass es zu diesem Zeitpunkt geschlossen sein musste, oder weil er zwei Ventile verwechselte – das Ventil wurde fälschlich geöffnet, sodass es zu Stoffaustritt kam. Zudem wird umgangssprachlich nicht unterschieden, ob Wissen nicht vorhanden oder nicht verfügbar war (z. B. würde man eine Verwechslung auch als Irrtum bezeichnen). Die Abgrenzung des Irrtums vom Fehler ist aber für die Prävention wie auch für die juristische Aufarbeitung von Fehlern wichtig: Wenn Wissen fehlt, kann es gelernt werden; wenn es nicht zugänglich ist, muss die Arbeitsumgebung so gestaltet werden, dass der Wissensabruf erleichtert wird. Nur wer weiß, was er tut (oder es hätte wissen müssen), kann verantwortlich gemacht werden für die Handlungsresultate. In ingenieurwissenschaftlichen Arbeiten wird häufig nicht die Intention als Bewertungskriterium zugrunde gelegt, sondern die Aufgabe. Dabei wird vorausgesetzt, dass es die Intention des Handelnden ist, eine Arbeitsaufgabe korrekt zu bearbeiten. Ein Beispiel:
» ‚Menschliche Fehler’ können formal definiert werden als menschliches Versagen in einer definierten Aufgabe (oder Ausführung einer verbotenen Aufgabe) innerhalb einer spezifizierten Ausführungsgenauigkeit, Reihenfolge oder Zeit, welche in einer Beschädigung von Material und Besitz oder Störung geplanter Abläufe münden kann. (Hagen & Mays, 1981, S. 316)
«
Rigby (1970) setzt die Variabilität menschlichen Verhaltens in Bezug zur Aufgabe und definiert entsprechend Fehler als Handlungen, die tolerierte Grenzen überschreiten, sodass die Aufgabe nicht mehr korrekt erfüllt werden kann:
»
[…] variability is not important as long as it is within certain limits. Deficiencies such as defects, failures, occurrences, and errors occur when those limits are exceeded. Thus, in the most general and practical sense, a human error is any member of a set of human actions that exceeds (fails to meets) some limit of acceptability. An error is only an outof-tolerance action, and the most important ingredients in any discussion of error are definitions for both the set of actions and the tolerance limits that define the errors for those actions.
«
Für die Fehlerforschung ist es daher wichtig, die Bandbreite des »Normalen« zu verstehen (vgl. auch Wehner, Mehl & Dieckmann, 2010). Das heißt, dass ausgehend von dem Wissen, wie Menschen im Allgemeinen denken und handeln, Fehlerforschung versucht, Fehler auf der Basis dieser allgemeinen Gesetze, Theorien und Hypothesen zu erklären.
3.1.2
Hinweise zur Geschichte der Fehlerforschung
Die Geschichte der modernen Fehlerforschung begann Anfang des 19. Jahrhunderts mit dem Interesse an Wahrnehmungsfehlern einerseits (z. B. Beobachtungsfehler, Gauss, 1823; optische Täuschungen, Necker, 1832) und Hör-, Schreib- und Druckfehlern (Goethe, 1820) andererseits. Diese Art von Fehlern ist offensichtlich (lässt sich gut erfassen) und ist teilweise der Selbstbeobachtung (Introspektion) zugänglich, eine Forschungsmethode, die zu dieser Zeit besondere Aufmerksamkeit erfuhr. Schon Goethe zog daraus den Schluss, dass man sich nicht selbst vor solchen Fehlern schützen könne. Seine Lösung, »Zensoren« (Lektoren, die seine Fehler korrigierten), würde man heute als Erhöhung von Redundanz bezeichnen. Weithin bekannt geworden sind diese Art von Hör-, Schreib- und Druckfehler als »Freudsche Versprecher«. Freud stellte in der »Psychopathologie des Alltagslebens«
42
3
Kapitel 3 • Fehler und Unfälle
(1901) dar, dass Versprechen, Verhören und dergleichen durch unbewusste Motive zustande kommen. Verdrängte Inhalte schaffen sich Zugang zum Bewusstsein auf indirekte Weise, eben über den »Fehler«, der ja nur für die bewusste Intention ein Fehler ist. Wichtig bleibt neben diesem Bezug auf Intention bzw. Motivation bis heute seine Erkenntnis, dass (Denk-)Fehler nicht Zufallsprodukte sind, sondern Gesetzmäßigkeiten der Informationsverarbeitung, und der Motivation folgen. Während Freud sich vorrangig mit der Psychodynamik (Motiven) befasste, versuchte Sully (1881) als erster Psychologe, Fehler der Wahrnehmung und Erinnerung zu klassifizieren und kognitive Erklärungsprinzipien zu finden. Er stellte Wahrnehmungs- und Introspektionsfehler den Wissensund Gedächtnisfehlern gegenüber. Im 20. Jahrhundert ist die Fehlerforschung innerhalb zweier Disziplinen ansässig: Einerseits ist Fehlerforschung im Gefolge der Industrialisierung und der militärtechnischen Entwicklung ein Gebiet der Arbeitspsychologie und Human-FactorsForschung (7 Kap. 1), andererseits wird Fehlerforschung weiterhin als allgemeinpsychologische Forschung zu Mechanismen der Wahrnehmung und Informationsverarbeitung betrieben. Im Zuge der Industrialisierung wuchs das Interesse an falschen Handlungsausführungen bei der Bedienung von Maschinen. Von Anfang an richtete sich die angewandte Fehlerforschung an Produktivität und Gesundheitsschutz aus. Infolge der rasanten Entwicklung der Fliegerei (angeschoben durch die Weltkriege) kam es zu zahlreichen Abstürzen durch Pilotenfehler, unangepasstes Design und Funktionsprobleme der Maschinen. Die Beschäftigung mit »pilot error« ist seit dem 2. Weltkrieg ein wichtiger Teil der Human-Factors-Forschung (z. B. Chapanis, 1951; Wiegmann & Shappell, 2003). Hier geht es nicht so sehr darum, den menschlichen Geist zu verstehen, sondern Fehler werden explizit im Kontext von Sicherheit betrachtet. Menschliche Fehler als Absturzursache förderten Klassifikationsansätze ebenso wie Ansätze, durch Personalauswahl und Training Fehler zu verhindern. Andererseits führten offensichtliche Design- und Konstruktionsmängel zu einer Stärkung des Human Factors Engineering, das ver-
sucht, durch angepasstes Design Fehler zu verhindern (7 Kap. 1). In der Fehlerforschung innerhalb der Arbeitswissenschaft liegt der Fokus auf den Bedingungen von Tätigkeitsausführung und Maschinenbedienung (z. B. Egger, 2001). Als Ursachen von Fehlern werden z. B. untersucht: 5 Überforderung, 5 Übermüdung, 5 Umwelteinflüsse wie Lärm, 5 unklare Zielanforderungen sowie 5 unangepasste Mensch-Maschine-Schnittstellen. Die Grundlagenforschung hat die Idee des Fehlers früh als »window to the mind« (Norman, 1981) beibehalten – z. B. untersuchte die Gestaltpsychologie Wahrnehmung (auch) anhand von Täuschungen (z. B. Metzger, 1936). Entscheidungsfehler waren in der Entscheidungstheorie Grundlage für die Formulierung von Entscheidungsheurismen (z. B. Kahneman, Slovic & Tversky, 1982). Die Problemlösepsychologie untersuchte Fehler vorrangig im Umgang mit verschiedenen Problemtypen (z. B. Dörner, Kreuzig, Reither & Stäudel, 1983) und verlässt dabei den Bereich der Routinehandlungen, der für die (industrielle) angewandte Fehlerforschung kennzeichnend ist. Fehler als Datenmaterial für die Untersuchung von Denkprozessen setzen voraus, dass sie denselben psychologischen Gesetzen folgen wie »richtiges« Verhalten. So formulieren Senders & Moray (1991, S. 54):
» Errors are simply behavior. […] This view implies that a study of error is therefore nothing more than the study of behavior and its contexts.
«
Ein dritter Aspekt von Fehlern neben ihrer Rolle für Sicherheit und die Erforschung des menschlichen Denkens ist seit den 1980er-Jahren in der Fehlerforschung betont worden: Fehler als Potenzial für Kreativität und tieferes Verständnis des jeweiligen (Arbeits-)Systems (z. B. Wehner, 1984, 1992).
43
3.2 • Fehler und Unfälle: Personansatz und Systemansatz
3.2
Fehler und Unfälle: Personansatz und Systemansatz
Lange Zeit hat sich die Fehlerforschung mit individuellen Handlungsfehlern befasst (das mag auch ein Resultat der Forschungsdesigns sein, in denen ausschließlich Individuen einbezogen wurden). Auch der Blick auf Unfälle (meist Arbeitsunfälle, Flugunfälle oder Verkehrsunfälle) war darauf gerichtet, die eine falsche Handlung zu finden, die den Unfall verursacht hatte. Durch den Vergleich verschiedener Unfallsituationen wurde erforscht, unter welchen Bedingungen Menschen welche Art von Fehlern machen. > Klassische Fehlerforschung fragt, was genau falsch gemacht wird und warum. Die erste Frage führt zur Klassifikation von Fehlern, die zweite Frage zur Suche nach Ursachen.
Es werden also die Ursachen falscher Handlungen in der menschlichen Informationsverarbeitung, der Aufgabe oder dem Kontext gesucht. Diese Sicht auf den fehlerverursachenden Menschen und seine Handlungen führt allerdings schnell zu einer Haltung des »naming, blaming, shaming« – der sog. Personansatz (»person approach«), deutlich gemacht durch Schlagzeilen wie »menschliches Versagen als Absturzursache«. Diese Haltung, die Suche nach dem Schuldigen, ist in der Praxis mancher Branchen (z. B. Medizin) auch heute noch häufig anzutreffen. So liefert die Suche nach dem Schuldigen häufig auch eine (zu) einfache Erklärung von Fehlern innerhalb eines Systems oder einer Organisation (Whittingham, 2004). Für die juristische Aufarbeitung von Unfällen, die traditionell dem Personansatz folgt, wird gefragt, welche Vorläufer eine Handlung hatte, welche guten Gründe eine Person gehabt hatte oder welche Faktoren ihre Urteilsfähigkeit verminderten. Diese Fragen führen dazu, eine falsche Handlung zu verstehen und möglicherweise zu relativieren. Dabei ist nicht nur wichtig, ob die handelnde Person anders hätte handeln können, sondern auch, ob sie wusste, dass sie etwas Falsches tat oder die Folgen ihres Handelns absehen konnte. Seit den 1980er-Jahren rückten in der Forschung – aufgrund einer Häufung spektakulärer
3
Unfälle wie Tschernobyl, Challenger, Herald of Free Enterprise – die Bedingungen von Unfällen in komplexen soziotechnischen Systemen (7 Kap. 2) in den Blick (z. B. Reason, 1990; Wells, 1997). Es wurde klar, dass nicht eine falsche Handlung zu Unfällen in solchen Systemen führt. Es entwickelte sich, unterstützt durch das Buch »Human Error« von Reason (1990), eine systemische Sicht auf Fehler. Der Fehler, um den es geht, ist nicht mehr eine falsche Handlung, sondern ein unerwünschtes Ereignis, ein Unfall oder ein Zwischenfall innerhalb eines soziotechnischen Systems. Um ein solches Ereignis erklären zu können, muss man seine Vorbedingungen auf allen Systemebenen untersuchen, vom Design des Arbeitsplatzes über einzelne falsche Handlungen am Arbeitsplatz bis zu den Ausbildungsrichtlinien. Letztlich sind es Handlungen und Ereignisse auf vielen Ebenen, die zusammen dazu führen, dass ein unerwünschtes Ereignis eintritt.
3.2.1
Aktive Fehler und latente Bedingungen
Mit dieser systemischen Sichtweise wird die Suche nach Fehlerursachen nicht nur im Umfang, sondern auch in der Zeit ausgedehnt: Manche Ursachen liegen zeitlich weit vor dem Ereignis, so wie auch verursachende Entscheidungen nicht notwendigerweise von den am Unfall beteiligten Personen getroffen werden. Reason (1990, 1997) unterscheidet deshalb »aktive Fehler« von »latenten Bedingungen«: z
Aktive Fehler
Aktive Fehler werden von Menschen unmittelbar an der Mensch-System-Schnittstelle begangen, am »scharfen Ende« einer Organisation. Aktive Fehler sind sichtbar, haben das Potenzial, Zwischenfälle oder Unfälle direkt auszulösen und können somit unmittelbare Konsequenzen haben. Weil aktive Fehler leicht identifizierbar sind, werden sie Gegenstand des öffentlichen Interesses und haben oft eine Sanktionierung der verursachenden Person zur Folge. Das Verwechseln von zwei Medikamenten ist ein solcher aktiver Fehler.
44
Kapitel 3 • Fehler und Unfälle
Latente Bedingungen in Management und Betrieb
Psychologische Vorbedingungen
3
Unsichere Handlungen (aktive Fehler)
• Ungewöhnlicher Zustand • Interne Probleme • Lokale Auslöser »Abwehr« von Fehlern
Unfall
»Laufbahn« eines möglichen Unfalls . Abb. 3.1 Modell der Entstehung von Fehlern. (Nach Reason, 1990 © Reason, J. (1990). Human Error. Cambridge UK: Cambridge University Press.)
z
Latente Bedingungen
Sicherheitskritische Entscheidungen werden aber auch fern von der Mensch-System-Schnittstelle in Situationen getroffen, die räumlich und zeitlich entfernt von möglichen Unfällen sind. Diese Entscheidungen stellen latente Bedingungen für Unfälle dar, v. a. wenn sie nicht mit dem Zielkriterium Sicherheit getroffen wurden. Latente Unfallbedingungen sind Entscheidungen »am stumpfen Ende« der Organisation, die auf allen Ebenen von direkten Vorgesetzten bis zur Verwaltung gemacht werden. Sie können in Strukturen (z. B. bauliche Gegebenheiten) oder Prozessen (Ausbildung, Dienstplangestaltung) vorliegen. Es sind häufig Entscheidungen, bei denen Sicherheit kein vorrangiges Kriterium war. Sie haben keine unmittelbaren Konsequenzen und bleiben so lange unbemerkt, bis ihre Kombination mit lokal auslösenden Faktoren, beispielsweise durch aktive Fehler von Personen, die »Schutzbarrieren« eines Systems durchbricht.
Jedes komplexe Arbeitssystem trägt zu jedem beliebigen Zeitpunkt eine bestimmte Anzahl latenter Unfallbedingungen in sich. Doch es gilt auch für Organisationsentscheidungen: Was ein Fehler ist, kann nur von einem Ziel aus bestimmt werden!
3.2.2
Fehlerketten
Aus der Kombination von aktiven und latenten Fehlern lässt sich das Zustandekommen von Unfällen und Zwischenfällen erklären. Reason (1990) beschreibt dieses Aufeinandertreffen vieler Faktoren anhand des sog. Käsescheibenmodells (. Abb. 3.1): Die Entstehung eines Unfalls ist dabei wie die Flugbahn eines Projektils gedacht, das normalerweise durch vielfältige Barrieren davon abgehalten wird, Schaden anzurichten. Latente Fehler (hier als »Löcher« in den Barrierescheiben) ermöglichen es, dass aktive Fehler zu Unfällen führen, wenn sie nicht mehr korri-
45
3.2 • Fehler und Unfälle: Personansatz und Systemansatz
giert werden können. Bekannt geworden ist dieses Konzept unter dem Begriff der Fehlerkette; aktive Fehler stehen somit am Ende und nicht am Anfang einer Fehlerkette. Menschen, die aktive Fehler begehen, tragen neben ihrer eigenen Verantwortlichkeit die »Erblast« latenter Fehler wie unzureichende Ausbildung, problematische Dienstplangestaltung, ökonomische Ressourcenbegrenzung und vieles mehr. Ein Kritikpunkt ist die Linearität des Modells: Ein Fehler führt nicht geradlinig zum nächsten Fehler, sondern die bei Reason genannten »lokalen Auslöser« und »ungewöhnlichen Zustände« treffen mit Fehlern zusammen. Man könnte von einem Netz aus Sicherheitsbarrieren sprechen, durch dessen Maschen Fehler »schlüpfen« können. Ob »Kette« oder »Netz« – das Ergebnis, der Unfall, ist letztlich aus der Verknüpfung der einzelnen Fehler und der Randbedingungen möglich. Schwerwiegende Ereignisse sind nicht durch einen Fehler einer Person verursacht, auch wenn es auf den ersten Blick so aussieht. Betrachten wir beispielsweise einen Assistenzarzt, der zwei Medikamente verwechselt und damit eine schwere Komplikation bei einem Patienten herbeiführt. Fragen, die zur Identifizierung von »Sicherheitslöchern« führen können, sind z. B. die nach dem Teamverständnis (Warum widerspricht die Pflegekraft nicht?), nach der Organisation des Arbeitsplatzes (Warum lagen zwei ähnlich aussehende Medikamente nebeneinander in einem Medikamentenfach?), nach der Dienstplangestaltung (Warum hatte der Assistenzarzt schon mehr als 24 h gearbeitet?). Jeder dieser Faktoren für sich genommen ist noch keine hinreichende Bedingung für das Ereignis. Erst das Zusammentreffen aller Faktoren führt zu dem Behandlungsfehler. Dieser Gedanke lässt sich auch so formulieren: Fehler sind in komplexen Arbeitssystemen »normal« und unvermeidlich, weil Menschen nicht immer fehlerfrei arbeiten können. Unfälle kommen jedoch nur zustande, wenn mehrere Sicherheitsbarrieren versagen. Das erklärt, dass Bemühungen um die Zuverlässigkeit einzelner Abläufe nicht unbedingt Unfälle verhindern. Wenn Systeme eng gekoppelt sind und komplexe Interaktionen vorherrschen (7 Kap. 2, 9 und 17), kann aus dem Zusammenwirken einzelner Fehler ein Unfall werden.
3
Deshalb betonen neuere Konzepte der Sicherheitsforschung, dass Systeme resilient sein sollten, d. h., Fehler dürfen nicht zu Unfällen führen (Reason, 2008; Weick & Sutcliffe, 2010; Überblick in Hollnagel, Woods & Leveson, 2006; Hollnagel, Nemeth & Dekker, 2008; ähnlich bereits Wehner, 1992). Die Idee der latenten Bedingungen zeigt, dass in komplexen Systemzusammenhängen Entscheidungen, die für ein bestimmtes Ziel getroffen wurden, sich später unter dem Oberziel »Sicherheit« als falsch erweisen können, weil sie in Kombination mit anderen Faktoren Unfälle ermöglichten. Die Identifikation von Fehlern ist immer abhängig von den Zielkriterien, nach denen eine Handlung bewertet wird. Post hoc, nach dem Unfall, wird das Kriterium »Sicherheit« bei der Bewertung von Entscheidungen im Vordergrund stehen. Das muss zum Zeitpunkt des Handelns aber nicht der Fall gewesen sein – oder ein anderer Aspekt von Sicherheit stand im Vordergrund, wie das folgende Beispiel zeigt: Beispiel In einem deutschen Krankenhaus wurden im Zuge der Renovierung des OP-Traktes die alten Holzschwingtüren durch automatische Edelstahlschiebetüren ersetzt. Das verfolgte Ziel war sicherheitsbezogen – die Verbesserung der Hygiene stand im Vordergrund; Edelstahltüren sind leicht zu desinfizieren. Die neuen Türen bestanden aber aus geschlossenen Flächen, während die alten Türen »Bullaugen«-Fenster hatten. Diese boten eine einfache Möglichkeit, im Vorbeigehen zu sehen, ob zur jeweiligen OP Hilfe benötigt wurde. Ohne Fenster musste man die Türen eigens öffnen, was eine Störung darstellte und auch Zeit kostete. Dadurch entfielen Hilfsangebote an unerfahrenes oder überlastetes Personal – eine latente Bedingung für Unfälle. Nach einem OP-Zwischenfall war die Beurteilung: »Wie konnte man solche Türen einbauen!«. Die fensterlosen Türen waren aber zum Zeitpunkt des Einbaus als Fortschritt angesehen worden, nicht als Fehler – was ja für das Zielkriterium »Hygiene« auch zutraf.
> Was ein Fehler ist, wird von einem Zielkriterium aus entschieden.
46
3
Kapitel 3 • Fehler und Unfälle
Die systemische Perspektive zeigt, dass einzelne Fehlhandlungen nicht zu negativen Ergebnissen führen müssen: Faktoren wie Hilfe durch andere Personen, Kontrollmechanismen, Aufmerksamkeit oder auch Glück können das »Wirksamwerden« eines Fehlers verhindern. Der Zusammenhang von Fehlern im Sinn unerwünschter Ereignisse und Fehlern im Sinn falscher Handlungen ist also nicht eindeutig. z
Hindernisse für eine systemische Sichtweise
Es gibt einige Hindernisse dafür, Handlungsfehler und Unfälle als multikausal verursacht anzusehen. Reason (2001) fasst die folgenden, aus der Sozialpsychologie bekannten Phänomene zusammen, die alle dazu führen, dass das Handeln oder die Absichten einer Person als ursächlich für Fehler gesehen werden. 5 Fundamentaler Attributionsfehler (Fiske & Taylor, 1984): Menschen haben die Tendenz, Handlungsergebnisse anderer Menschen der Person zuzuschreiben, während dieselbe Person bei sich selbst den Einfluss situativer Umstände hervorhebt. 5 Rückschaufehler (»hindsight bias«) (Fischhoff, 1975): Im Nachhinein ist man immer schlauer. Da man nach dem Unfall weiß, was richtig gewesen wäre, wird angenommen die handelnde Person hätte dies – zum Zeitpunkt des Unfalls – auch wissen müssen. 5 Unvollständiges Schließen (»counterfactual fallacy«) (Miller & Turnbull, 1990): »Wenn jemand anders gehandelt hätte, wäre es anders gekommen« – das Wissen darum verleitet dazu anzunehmen, dass die handelnde Person verantwortlich ist für das Geschehen, weil sie so und nicht anders gehandelt hat. 5 Starke Betonung des freien Willens, v. a. in westlichen Kulturen – die Idee, dass die Umstände uns »handeln machen«, behagt uns nicht. Die Zuschreibung oder Übernahme persönlicher Verantwortung wird dem vorgezogen. z
Menschen in komplexen Systemen: »Richtiges« und »falsches« Handeln
Die systemische Perspektive kann ergänzt werden durch eine »neue Sichtweise« auf Fehler bzw. Men-
schen, die Fehler machen (Dekker, 2002, 2005): Es wird nicht nur gefragt, welche Handlung warum falsch war, sondern auch, warum genau diese Maßnahme aus Sicht der handelnden Person zum Zeitpunkt des Handelns sinnvoll war.
» The new view of human error wants to understand why people made the assessments or decisions they made – why these assessments or decisions would have made sense from the point of view inside the situation. When you view people’s situation from the inside, as much like these people did themselves as you can reconstruct, you may begin to see that they were trying to make the best of their circumstances, under the uncertainty and ambiguity surrounding them. When viewed from inside the situation, their behavior probably made sense – it was systematically connected to features of their tools, tasks and environment. (Dekker, 2002, S. 64 f.)
«
Diese Haltung versucht, den »hindsight bias« zu vermeiden, und erkennt an, dass Menschen Intentionen bilden und diesen gemäß denken und handeln. Im Moment des Handelns können andere Intentionen als Sicherheit im Vordergrund stehen, ohne dass die betreffende Person einen Fehler machen oder einen Unfall verursachen will. Zudem können falsche Annahmen über das System (mentales Modell, 7 Kap. 4 und 16) auch bei »richtiger« Intention zu Fehlern führen. In vielen Lebenskontexten ist oftmals nicht eindeutig festlegbar, welche Handlungen »richtig« sind und was Fehler sein können (man denke z. B. an Beziehungen oder Kindererziehung). Im Umgang mit technischen Systemen scheint es einfacher: Wenn Menschen so handeln, dass das System das tut, was es tun soll, handeln sie »richtig«. Aber auch hier sind soziale Aushandlungsprozesse am Werk: Regelverletzungen (s. unten) oder »Abkürzungen« aufgrund von Erfahrungswissen machen deutlich, dass auch innerhalb soziotechnischer Systeme und sogar beim Bedienen von Maschinen Handlungsspielräume bestehen und verschiedene Konstruktionen von »richtig« und »falsch« möglich sind.
3.3 • Jeder Fehler ein Schatz? Vom Nutzen der Zwischenfälle
3.3
Jeder Fehler ein Schatz? Vom Nutzen der Zwischenfälle
Auch in der »neuen« Sichtweise, die nach Gründen für falsches Handeln fragt, sind Fehler negativ konnotiert. Fehler können aber – neben ihrer Eigenschaft als Sicherheitsrisiko – auch als Lerngelegenheit angesehen werden (Senders & Moray, 1991; Wehner, 1984, 1992; Oser & Spychiger, 2005; Ingold & Sánchez, 2008). Wehner (1992) betont ebenfalls den positiven Einfluss, wenn er von der»potenziellen Vitalität fehlerhaften Handelns« spricht, weil Zielverfehlungen einen Perspektivenwechsel anregen sowie zu Skepsis und Reflexion: Dies gilt für Handlungsfehler einzelner Personen, die zum Lernen anregen, aber auch für das organisationale Lernen aufgrund von Unfällen:
» [Man-made] disasters can bring about ‚full cultural readjustment’, provide new understanding of hazards and become a catalyst for change. (Turner, 1978, S. 85 b)
«
Diese positive Sicht auf Fehler wird im Rahmen der Bemühungen um Sicherheit und Qualitätsmanagement gerne mit der Verheißung »Jeder Fehler ein Schatz!« angepriesen. Die Lernchance, die mehr im Blick auf den Fehler als im Fehler selbst steckt, braucht jedoch einen entsprechenden Kontext, in dem sie sich entfalten kann, wie z. B. Zeit zum Nachdenken, eine offene Kommunikationsatmosphäre (7 Kap. 8), Angstfreiheit und den Willen zu Veränderung. Große Unfälle mit desaströsen Auswirkungen können eine solche Veränderungsbereitschaft hervorrufen (besonders im Schockzustand nach einem Unfall, vgl. Dekker, 2002). Häufig wird aber die Suche nach Ursachen und Veränderungsmöglichkeiten aufgrund der Angst vor Haftung und Strafverfolgung gerade nach einem Unfall eher beschränkt sein. Deshalb setzen lernwillige Organisationen verstärkt auf die Analyse von Zwischenfällen, bei denen es zu keinem (irreparablen) Schaden gekommen ist.
47
3
Unfälle, Zwischenfälle, minimale Ereignisse Ein Unfall ist ein unerwünschtes Ereignis, das Schaden mit sich bringt. Zwischenfälle sind Ereignisse, bei denen Fehler manifest geworden sind, aber kein größerer Schaden eintrat. Je nach Branche werden Unfälle und Zwischenfälle unterschiedlich abgegrenzt: In der Luftfahrt z. B. wird die Abgrenzung nach der Schwere des Schadens vorgenommen (z. B. Perrow, 1999; Strauch, 2001). Ein Zwischenfall ist hier ein Unfall ohne Schwerverletzte, Tote oder großen materiellen Schaden. In der Medizin wird ein Zwischenfall als ein Ereignis angesehen, das ein Unfall hätte werden können, aber keiner wurde (z. B. CIRS, 2001; St. Pierre, Hofinger & Buerschaper, 2007). Eine weitere Klasse von Ereignissen sind minimale Ereignisse (Weick & Sutcliffe, 2001) oder auch Friktionen (Dörner, 1989). Es sind kleine Abweichungen von vorgegebenen Prozessen, die normalerweise schnell und folgenlos korrigiert werden können, z. B. das Eindrehen einer falschen Funkfrequenz im Cockpit. Minimale Ereignisse sind normaler Bestandteil des Funktionierens komplexer Systeme. Sie bleiben »unter der Oberfläche« der Organisation, von außen gesehen passiert »nichts«. Sicherheitsrelevant werden sie, wenn lokale Ressourcen der Korrektur nicht ausreichen, dann kann sich ein Zwischenfall oder sogar Unfall entwickeln (. Abb. 3.2).
Natürlich bieten Zwischenfälle und minimale Ereignisse die besten Chancen zum Lernen, und es kann wirklich jeder Fehler als »Schatz« angesehen werden. Jede Prozessabweichung und jeder Fehler kann dazu verwendet werden, mögliche latente Unfallbedingungen aufzuspüren. Zudem wird hier auch der Blick auf menschliches Handeln als Sicherheitsressource gelenkt, da aufgezeigt werden kann, dass aus Zwischenfällen durch adäquates Handeln (oder Glück) kein Unfall geworden ist.
48
Kapitel 3 • Fehler und Unfälle
Unfälle Organisation
Oberfläche der
3
Zwischenfälle Korrektur ohne Schaden
Minimale Ereignisse Fehler ohne Auswirkung auf Sicherheit Vorherige Korrektur
. Abb. 3.2 Unfälle, Zwischenfälle und minimale Ereignisse. (Nach St. Pierre, Hofinger & Buerschaper, 2005. © St. Pierre, M., Hofinger, G. & Buerschaper, C. (2007). Crisis management in acute care settings: Human factors and team psychology in a high stakes environment. New York u. a.: Springer.)
3.4
Fehlerarten und Fehlerformen
3.4.1
Arten von Fehlerklassifikationen
In der Fehlerforschung ist es üblich, die beobachtbaren Erscheinungen von Fehlern von ihren Ursachen zu trennen. Die vielfältigen beobachtbaren »Fehlerformen« (Weimer, 1925; Reason, 1990) oder »Phänotypen« (Hollnagel, 1993) werden von den zugrunde liegenden Ursachen, den »Fehlerarten« oder »Genotypen« unterschieden. Eine Fehlerart, z. B. ein Aufmerksamkeitsdefizit, kann verschiedene Formen annehmen, z. B. eine Verwechslung von Handlungsschritten, eine falsche Situationsdiagnose. Wichtig ist, dass Fehlerformen beobachtbar sind und damit intersubjektiv festlegbar; Fehlerarten dagegen beruhen auf theoretischen Annahmen über menschliche Handlungsregulation und Informationsverarbeitung.
Je nach Forschungsinteresse und Hintergrund der Forschenden gibt es entsprechend dieser Unterteilung verschiedene Zugangsweisen zu Fehlern: 5 Welche Fehler gibt es? An welcher Stelle in einem Arbeitssystem oder im Verlauf des Handelns passieren Fehler? Diese Fragen werden durch die Bestimmung der Fehlerformen beantwortet. Klassifikationen dieser Art ermöglichen u. a. eine statistische Berechnung der Fehlerwahrscheinlichkeit (Risiko). 5 Warum passieren Fehler? Der Fokus liegt hier auf Prozessen des Handelns, auf Motivation, Informationsverarbeitung, Handlungsregulation und Organisationstheorie. Ursachenorientierte Ansätze beinhalten immer auch eine zumindest grobe Klassifikation der Fehlerformen, die sie ja erklären wollen. Aus der Vielzahl der Fehlerklassifikationen (Überblick z. B. in Sharit, 2006; Wallace & Ross, 2006) werden im Folgenden einige bis heute verwendete Klassifikationen vorgestellt: Zunächst werden Klassifikationen dargestellt, die das Auftreten von Fehlern im Arbeitsprozess bzw. -system beschreiben, darauf folgen Klassifikationen, die Ebenen von Fehlerursachen unterscheiden. Die übergreifende Klassifikation von Reason (1990) verbindet und erweitert viele der früheren Ansätze. Da Problemlöseprozesse in den meisten Klassifikationen nur als Stichwort vorkommen, werden sie hier ausführlicher besprochen.
3.4.2
z
Fehler im System? Arbeitsprozessbezogene Klassifikationen
Klassifikation von Chapanis (1951)
Die Klassifikation von Chapanis (1951) beruht auf der Überzeugung, dass die Analyse der Verteilung von Fehlern hilft, Systemprobleme zu entdecken und Gegenstrategien zu entwickeln. Wenn man weiß, wo im Arbeitsprozess welche Fehler auftreten können und wie wahrscheinlich diese sind, kann man Gegenmaßnahmen ergreifen – wenn die Konsequenzen von Fehlern relevant genug sind, dass sich die Mühe lohnt. Gegenstand dieser Klassifikation ist nicht das Handeln von Personen (nicht
49
3.4 • Fehlerarten und Fehlerformen
Systematischer Fehler
Zufälliger Fehler
3
Sporadischer Fehler
. Abb. 3.3 Fehlerklassifikation nach Auftretenshäufigkeit. (Nach Chapanis, 1951. © Chapanis, A. (1951). Theory and method for analyzing errors in man-mashine systems. Annals of the New York Academy of Science, 51, 1179–1203, Blackwell Publishing.)
»human error«), sondern das Auftreten von unerwünschten Ereignissen in einem Arbeitssystem, unabhängig von ihrer Verursachung. Chapanis unterscheidet drei Arten von Fehlern hinsichtlich ihrer Auftretenshäufigkeit: systematische, zufällige und sporadische Fehler (. Abb. 3.3). 5 Systematische Fehler sind solche, die immer wieder in dergleichen Weise bei einem bestimmten Arbeitsprozessschritt auftreten, unabhängig von der konkret handelnden Person. Abhilfe können Veränderungen des Prozesses oder Veränderungen der verwendeten Geräte schaffen sowie Personalauswahl und -training. 5 Zufällige Fehler treten aufgrund verschiedener Ursachen auf. Sie sind nicht verhinderbar, aber ihre Auswirkungen können abgefangen werden – hier helfen nur zusätzliche Sicherungssysteme, also Redundanzerhöhung. Dazu gehören »Fail-safe-Systeme« (»beschränktes Versagen«: Wird eine nötige Handlung nicht ausgeführt oder eine falsche Handlung ausgeführt, wird das System heruntergefahren). 5 Sporadische Fehler sind Fehler, die selten und ohne erkennbares Muster auftreten. Sie sind ein Problem aller »ultrasicheren« (Amalberti, 2001) Organisationen. Die Seltenheit und Unterschiedlichkeit der Fehler erschweren nicht nur ihre Entdeckung und Analyse, sondern lassen auch die Kosten für zusätzliche Sicherheitsanstrengungen immens ansteigen.
Diese Einteilung ist bis heute aktuell dahingehend, dass sie auf Fehlerursachen außerhalb der handelnden Person aufmerksam macht (z. B. inadäquates Design) und hilft, Schwerpunkte für Sicherheitsbemühungen zu identifizieren. z Fehlerursprünge k Klassifikation von Meister (1971)
Eine weitere, auf Arbeitssysteme bezogene Klassifikation ist die von Meister (1971), der unterscheidet, in welchem Teilsystem (technischer Systeme) Fehler ihren Ursprung haben: 5 »Operating error«: Das System wird nicht entsprechend der Intention bedient. 5 »Design error«: Designer und Konstrukteure achten nicht auf menschliche Eigenschaften. 5 »Manufacturing error«: Das System wurde nicht so gebaut, wie es geplant war. 5 »Installation and maintenance errors«: Das System wurde nicht korrekt installiert oder gewartet. Kategorien wie Herstellung und Wartung machen deutlich, dass Fehlerursachen räumlich und zeitlich weit entfernt von den am »scharfen Ende« handelnden Personen liegen können.
50
Kapitel 3 • Fehler und Unfälle
k Verrichtungsbezogene Fehlerklassifikation von Hollnagel (1998)
3
Um Fehler bei Tätigkeiten, die immer in derselben Art an einem bestimmten Ort ausgeübt werden, zu beschreiben, entwickelte Hollnagel (1998) eine verrichtungsorientierte Fehlerklassifikation. Die Bewegungen im Raum und die zeitliche Abfolge der Handlungen werden so exakt wie möglich beschrieben. Handlungsfehler werden hier also in ihrer äußeren Form kategorisiert, vorrangig auf Raum und Zeit bezogen, ohne auf Ursachen einzugehen. Raumbezogene Handlungsfehler in dieser Klassifikation sind »Entfernung« (zu weit, zu kurz) und »falsche Richtung«. Zeitbezogene Handlungsfehler sind »Reihenfolge« (Umkehrung, Wiederholung, Vorwärts- oder Rückwärtssprünge), »Dauer« (zu kurz, zu lang), Zeiteinteilung (zu früh, zu spät, Auslassung), »Geschwindigkeit« (zu schnell, zu langsam). Hinzu kommt noch die Kategorie »Krafteinsatz« (zu viel, zu wenig) sowie »falsche Handlung oder falscher Gegenstand«.
3.4.3
Ebenen von Fehlerursachen
Klassifikationen, die Fehlerursachen beschreiben, beziehen sich meist auf Ursachen innerhalb der Person. Sie setzen ein theoretisches Modell des Handelns und der Fehlerentstehung voraus. Ursachen für Fehler werden in Motivationsprozessen und in internen oder externen auslösenden Bedingungen gesehen. z
»Slips« und »lapses« (Norman, 1981)
Die Activation-Trigger-Theorie (1981) von Norman beschreibt, wie Schemata Handlungssequenzen kontrollieren. Schemata werden aktiviert und bei entsprechenden Auslösebedingungen getriggert. Welches Schema handlungsleitend wird (es sind immer viele Schemata aktiviert), hängt von den Auslösebedingungen und dem Aktivierungsgrad ab. Norman unterscheidet Fehler, die durch falsche Schemaaktivierung entstehen, von denen, die durch kognitive Aktivität entstehen. Die erste Art von Fehlern nennt er »slips« (Ausrutscher). In ihrer Erscheinungsform ähneln sie den von Freud beobachteten Fehlern, z. B. dem Versprecher. Nor-
man geht aber davon aus, dass sie ausgelöst werden durch das Zusammentreffen von Umweltfaktoren und Schemata, die aufgrund von Intentionen aktiviert sind. Er unterscheidet verschiedene Klassen von »slips«, je nachdem, ob eine falsche Intention gebildet wird, ein falsches Schema aktiviert wird (durch externe Trigger-Reize oder Assoziationen), ein passendes Schema nicht aktiviert wird, Schemaaktivierung verloren geht (z. B. durch Vergessen der Intention oder bereits ausgeführter Handlungsschritte). »Mistakes« dagegen sind »Gedankenfehler«: kognitive Aktivität, z. B. Planen führt zu Handlungen, die der Intention widersprechen. Norman wählt Beispiele aus dem Alltagsleben, um diese Kategorien zu erläutern, z. B. Kaffee in die neben der Tasse stehende Müslischüssel gießen, eine falsche Taste tippen, sich versprechen. Normans Unterscheidung von »slips« und »mistakes« wurde in der Fehlerforschung generell übernommen und speziell für die Analyse von Fehlern in sicherheitsrelevanten Bereichen erweitert, z. B. von Reason (1990, 7 Kap. 3.4.4) wurden »slips« unterteilt in »slips« und »lapses«; »slips« beruhen nach Reason auf Aufmerksamkeitsproblemen, »lapses« auf Gedächtnisfehlern. Rasmussen (z. B. 1983) unterteilt »mistakes« in regelbasierte und wissensbasierte Fehler (s. unten). > Da die Unterscheidung von »error« und »mistake« im Deutschen nicht möglich ist (beides wird mit »Fehler« übersetzt), werden in der deutschsprachigen Fehlerforschung häufig die Begriffe »mistakes«, »slips« und »lapses« beibehalten, um spezifische Formen menschlicher Fehler zu kennzeichnen.
Der anwendungsbezogene Nutzen der Unterscheidung liegt in den Möglichkeiten zur Fehlerprävention: Aufmerksamkeits- und Gedächtnisfehler (»slips«) sind durch aufmerksamkeitsfördernde Arbeitsbedingungen (z. B. regelmäßige Pausen) reduzierbar, aber nie vollständig vermeidbar. Arbeitssysteme müssen also so entworfen werden, dass einzelne »slips« vom System aufgefangen werden und nicht zu Unfällen führen können (v. a. durch technische Redundanz). Dazu ist es nötig, die Anforderungen bei jedem Arbeitsschritt zu kennen
3
51
3.4 • Fehlerarten und Fehlerformen
und zu wissen, an welchen Stellen »slips« zu erwarten sind. Die Individualität der arbeitenden Person ist hier sekundär. »Mistakes« dagegen beruhen auf Wissen und Erfahrung, sie sind schwerer vorhersehbar; Präventionsmöglichkeiten liegen hier u. a. in Ausbildung und Training sowie in sozialer und technischer Redundanz.
Ziel
Strategie K Diagnose Prozedur R
z
Handlungsregulation und Informationsnutzung als Fehlerquelle (Hacker, 1998) Hacker (1998) versteht unter Fehlhandlung das
fehlerhafte Ausführen von Handlungen oder das Ausführen falscher Handlungen im Arbeitsprozess. In Fehlern sind die Gesetzmäßigkeiten des menschlichen Handelns erkennbar. Fehler sind nur aus dem Zusammenspiel von Arbeitsbedingungen und psychischer Regulation von (Arbeits-)Tätigkeiten verstehbar. Hacker unterteilt mangelnde Informationsnutzung entsprechend der Ebenen der Handlungsregulation. Ähnlich wie Rasmussen (s. unten) unterscheidet er die sensomotorische Ebene (weitgehend automatisierte Steuerung) von der begrifflich-perzeptiven (flexible Handlungsmuster) und der intellektuellen Ebene (neuartige, komplexe Pläne). Daneben ist als Regulationsgrundlage das vorhandene Wissen relevant. Fehler auf der sensomotorischen Ebene sind den »slips« zuzuordnen; Fehler auf der intellektuellen Ebene können z. B. Zielsetzungsfehler sein. Fehlhandlungen entstehen letztlich immer durch einen Mangel an zutreffenden und handlungswirksamen Informationen, die zu einem bestimmten Zeitpunkt für ein zielgerechtes Handeln unentbehrlich sind. Der Mangel kann objektiv gegeben sein – fehlende oder nicht zugängliche Information – oder durch mangelnde (fehlende oder falsche) Nutzung vorhandener Information entstehen. Der Blick wird hier auf die Arbeitsbedingungen gelenkt, die so gestaltet sind, dass Information nicht oder nicht angemessen verfügbar ist. Für die Prävention von Fehlern sind folgende Fragen zu beantworten: 5 Welche Informationen sind für die jeweilige Tätigkeit nötig?
Information . Abb. 3.4
S
Aktion
Regulationsebenen. (Nach Rasmussen, 1983)
5 Was sind die Ursachen dafür, dass Informationen in den einzelnen Handlungsschritten nicht angemessen verfügbar sind? z
Fehler auf den Ebenen der Handlungsregulation (Rasmussen, 1983)
Rasmussen (1983) unterscheidet hinsichtlich der Analyse von Fehlern bei der Bedienung technischer Systeme drei Ebenen der Handlungsregulation (. Abb. 3.4): 5 Fertigkeitsbasiertes (»skill-based«) Handeln 5 Regelbasiertes (»rule-based«) Handeln 5 Wissensbasiertes (»knowledge-based«) Handeln Diese Hierarchie der Handlungsebenen, auch »Rasmussen-Leiter« genannt, bildet verschiedene Wege ab, um von einer Information (über das technische System) zu einer Aktion zu kommen. Im einfachsten Fall triggert die Information quasi automatisch die Aktion; im Fall, dass keine automatische Aktion aufgerufen werden kann, wird nach einer Diagnose der Situation eine passende Handlungsregel ausgewählt und anhand dieser dann eine Aktion. Kann keine Handlungsregel gefunden werden, muss eine Strategie entwickelt werden. Ist die Situation unklar, kommen Prozesse der Zielbildung hinzu. Auf jeder Regulationsebene treten spezifische Fehler auf: 5 »Skill-based errors«: Diese entsprechen Normans »slips«; es sind Fehler in der Ausführung eigentlich beherrschter korrekter Handlungen. 5 »Rule-based errors«: Es kommt aufgrund fehlender Information zu einem falschen Ver-
52
Kapitel 3 • Fehler und Unfälle
Nein
Gelegenheit zur Intervention?
Strukturelles, mechanisches oder sonstiges Versagen
Ja Entdeckung von Hinweisen auf den geänderten Systemstatus?
3
Nein
Informationsfehler
Ja Akkurate Diagonse des neuen Systemzustands?
Nein
Diagnosefehler
Ja Nein
Wahl eines sinnvollen Ziels?
Zielfehler
Ja Nein
Zielführende Strategie ausgewählt?
Strategiefehler
Ja Prozeduren Konsistent zur gewählten Strategie?
Nein
Prozedurfehler
Ja Nein
Prozeduren wie intendiert ausgeführt?
Ausführungsfehler
. Abb. 3.5 Fehler auf den verschiedenen Handlungsebenen. (Nach Rasmussen, 1982; übersetzt von G. Hofinger. Reprinted from Journal of Occupational Accidents, 4/1982, Rasmussen, J., Human errors – A taxonomy for describing human malfunction in industrial installations, 311–333, Copyright (1982), with permission from Elsevier.)
ständnis der Situation, entsprechend folgt die Anwendung unpassender Verhaltensregeln. 5 »Knowledge-based errors«: Falsches oder fehlendes Wissen oder die mangelnde Anwendung von Wissen auf unbekannte Situationen. Rasmussens Modell ist stark kognitiv geprägt und bezieht sich v. a. auf gut geübte Arbeitsaufgaben in technischen Systemen. Der Kontext (die Aufgabe) ist sehr wichtig, da fehlende oder falsch dargestellte Informationen korrektes Handeln unmöglich machen. Rasmussen (1982) hat verschiedene Fehlerarten entlang der Handlungsebenen identifiziert (. Abb. 3.5).
3.4.4
Unsichere Handlungen (Reason, 1990)
Die bekannteste Klassifikation, die Fehlerarten und -formen kombiniert und dabei die Arbeit von Norman und Rasmussen integriert, stammt von
Reason (1990), der Formen »unsicherer Handlungen« untersucht (. Abb. 3.6). Er klassifiziert diese danach, 5 auf welcher Ebene der Handlungskontrolle (7 Kap. 4) sie vorkommen (Fehler in der Ausführung vs. Fehler in der Planung) und 5 ob sie auf Absicht beruhen oder nicht (Regelverstöße vs. Fehler). Wichtig ist, dass Reason nicht nur Fehler klassifiziert, sondern Handlungen, die im Ergebnis zu einer Verringerung von Sicherheit führen können – dies sind Fehler, aber eben auch Regelverletzungen oder suboptimale Pläne, die nicht eigentlich falsch sind. z
Fehler in der Ausführung und Fehler in der Planung
Eine Handlung wird mit einer Absicht durchgeführt und erreicht doch nicht das angestrebte Ziel. Daraus lässt sich die folgende grundlegende Unterscheidung ableiten, die in psychologischen Fehler-
53
3.4 • Fehlerarten und Fehlerformen
3
Fehlertypen
Unaufmerksam
Unbeabsichtigt
Unsichere Handlungen
Aufmerksamkeitsfehler • Ablenkung • Unterlassung • Vertauschung • Falsche Abfolge • Zur falschen Zeit
Vergesslich
Gedächtnisfehler • Geplante Schritte auslassen • Stand vergessen • Absicht vergessen
Fehlerhaft
Regelbasierte Fehler • Richtiges Vorgehen zur falschen Zeit • Falsches Vorgehen • Unwissenheit
Beabsichtigt Verstoß
. Abb. 3.6 Press.)
• Routineverstoß • Ausnahmeverstoß • Sabotage
Fehlerklassifikation. (Nach Reason, 1990. © Reason, J. (1990). Human error. Cambridge UK: Cambridge University
klassifikationen immer zu finden ist (Norman, 1981; Klumb, 1995, S. 3): 5 Fehler bei der Ausführung einer Handlung: Ein Misserfolg tritt ein, weil Handlungen anders ausgeführt werden, als sie ursprünglich geplant waren. Die geplante Handlung ist angemessen, jedoch weicht die ausgeführte Handlung vom beabsichtigten Verlauf ab. Ausführungsfehler lassen sich nach ihrem Ursprung nochmals unterteilen (Reason, 1990) in 5 Aufmerksamkeitsfehler, die v. a. dann auftreten, wenn automatisierte Handlungen in vertrauter Umgebung durchgeführt werden, und 5 Gedächtnisfehler, bei denen Teile von Arbeitsabläufen nicht korrekt erinnert werden. 5 Fehler bei der Planung einer Handlung: Die Handlung wird so durchgeführt, wie sie geplant war. Die beabsichtigte Folge des Handelns tritt jedoch nicht ein. Hier liegt das Problem in der Angemessenheit des Plans, der je nach Handlungsanforderung anders ausfallen kann:
a. Ist die Situation bekannt, besteht dieser »Plan« in der Anwendung einer Regel. Fehler in der Anwendung von Regeln können – die falsche Anwendung einer »guten« Regel (weil Kontraindikationen nicht beachtet wurden), – die Anwendung einer »falschen« Regel oder – die Nichtanwendung einer »guten« Regel sein. b. Fehlt Wissen über die Situation, so muss ein Plan aus dem vorhandenen Wissen generiert werden. Dabei können Fehler entstehen, weil Wissen falsch ist oder im falschen Kontext angewendet wird. Planungsfehler können schwieriger zu entdecken sein als Fehler in der Ausführung. Menschen können Abweichungen einer Handlung von einer Handlungsabsicht erkennen; dass ein Plan unangemessen ist, kann jedoch lange unbemerkt bleiben. Planungsfehler werden oft erst relativ spät daran
54
Kapitel 3 • Fehler und Unfälle
erkannt, dass das intendierte Ziel nicht erreicht wurde. z
3
Fehler und Regelverstöße
Die bisher aufgeführten Fehlerformen bewirken, dass eine Absicht nicht umgesetzt werden kann oder ein Ziel nicht erreicht wird. Sie werden auch von dem oder der Handelnden als Fehler wahrgenommen. Es gibt jedoch auch Verhaltensweisen, die nicht von der handelnden Person, wohl aber von anderen als Fehler eingestuft werden: das Nichtbeachten von Regeln und Handlungsvorschriften. Ein absichtliches Abweichen von solchen Verfahrensvorschriften wird als Verstoß (»violation«) bezeichnet (Reason, 1990). Verstöße beispielsweise gegen Sicherheitsregeln werden absichtlich begangen; aber haben (außer im Fall von Sabotage) nicht das Ziel, eine unsichere Handlung zu begehen oder gar einen Unfall herbeizuführen. Regelverstöße werden begangen, weil sie sinnvoll sind für die Ziele, denen sie dienen: »Sacherfordernisse« (z. B. mehrmaliges Überprüfen von Arbeitsschritten) kollidieren mit anderen Zielen und Bedürfnissen. Diese können persönlicher Art sein – Schlafbedürfnis, Kompetenzstreben, Statussicherung etc. Oder sie können aus arbeitsbezogenen Zielen entstehen – Zeitersparnis, Ressourcenersparnis etc. Regelverstöße entspringen zumeist damit der Konkurrenz der Sicherheitsziele zu Effektivität, Einfachheit etc. Eine weitere Ursache für Regelverstöße liegt im Prinzip des Lernens: Wenn Sicherheitsregeln mit »Puffern« ausgestattet sind, also eine Übertretung nicht sofort bestraft wird, lernen Menschen, dass sie solche Regeln gefahrlos übertreten können. Sie werden im Gegenteil noch für die Übertretung belohnt, da die anderen Ziele (schnelles, einfaches Handeln, Bequemlichkeit) erreicht werden. Solche Regelübertretungen erfolgen bald gewohnheitsmäßig (Routineverstöße; Vaughan, 1997) und gehören dann zum festen Verhaltensrepertoire sowie zur Unternehmenskultur (7 Kap. 9). Sie gelten nach ihrer »Etablierung« als Gewohnheit erst dann als Fehler, wenn sie zu einem Unfall beigetragen haben. Regelverstöße (»violations«) 5 ... sind bewusstes, beabsichtigtes Handeln, kein »Irrtum«.
5 ... werden von der handelnden Person nicht als Fehler angesehen. 5 ... werden von anderen bzw. im Nachhinein als Fehler beurteilt. 5 ... werden begangen, weil andere Ziele bzw. Motive als die mit der Regel verfolgten im Vordergrund stehen. 5 ... werden »belohnt« (verstärkt), wenn kein Schaden eintritt, sodass sie zur Gewohnheit werden (»Routineverstöße«).
3.4.5
Fehler beim Problemlösen
Ein wichtiger Teil der Fehlerforschung widmet sich dem regel- oder fähigkeitsbasierten Handeln (Rasmussen, 1983): Die Handelnden hätten eigentlich wissen können, was zu tun ist (es hätte richtige Lösungen gegeben), und sie hätten es auch tun können (z. B. weil es Fachleute waren). Aus verschiedenen Gründen kam es dennoch zu einer falschen Handlung oder nicht zu einer richtigen. Die Quelle des Fehlers kann in basalen Prozessen der Informationsverarbeitung liegen (Gedächtnis, Aufmerksamkeit), in unangemessenen Handlungszielen oder schlechter Planung. Seltener geht es um Entscheidungen in Bereichen, für die es (noch) keine Regellösung gibt und Handelnde mit komplexen Problemen konfrontiert sind, für die sie neuartige Problemlösungen finden müssen. Es handelt sich um wissensbasierte Fehler in der Reason’schen Terminologie. Fehlerklassifikationen, wie die oben vorgestellte, die v. a. Fehler beim Bedienen komplexer technischer Anlagen wie Kernkraftwerke erfassen sollen, fassen alle wissensbasierten Fehler (»mistakes«) zusammen. Wissensbasiertes Handeln wurde in der Problemlöseforschung seit den 1980er-Jahren erforscht. Problemlösefehler sind nicht so eindeutig zu klassifizieren wie motorische oder basale kognitive Fehler, v. a. weil weniger eindeutig ist, was »richtiges« Handeln oder Denken gewesen wäre. Situationen, bei denen eine Lageeinschätzung und die erforderlichen Handlungen erst durch Denken ermittelt werden müssen, erfordern Problemlösen. . Tab. 3.1 zeigt die wichtigsten Anfor-
55
3.5 • Ursachen für Fehler
3
. Tab. 3.1 Anforderungen und Fehler beim Problemlösen. (In Anlehnung an Dörner, 1989; Dörner & Schaub, 1995; Hofinger, 2003) Handlungsanforderung
»Kardinalfehler«
Zielbildung und -elaboration
»Ad-hocismus«: Es wird ohne ausreichende Zielklärung und Planung gehandelt Zielkonflikte werden nicht beachtet
Informationssammlung und Modellbildung
Übergeneralisierung bestehenden Wissens Suche nach bestätigender Information
Planen
Planoptimismus Einkapselung Nebenwirkungen und Risiken werden vernachlässigt
Kontrolle und Reflexion
Die Auswirkungen des Handelns werden nicht nachhaltig kontrolliert Fehlende Reflexion
derungen an Problemlöser und bestimmte »Kardinalfehler« im Umgang mit komplexen Problemen. Anders als bei »slips« und »lapses« sind diese Phänomene nicht Fehler an sich, obwohl sie zu schlechten (oder suboptimalen) Entscheidungen führen. Im Gegenteil: Die besprochenen Mechanismen können aus Sicht der psychischen Regulation mitunter notwendig und sinnvoll sein.
» Erkenntnis und Irrtum fließen aus denselben Quellen; nur der Erfolg vermag beide zu scheiden. Der klar erkannte Irrtum ist als Korrektur ebenso erkenntnisfördernd wie die positive Erkenntnis. Es sind dieselben psychischen Funktionen, nach denselben Regeln ablaufend, welche einmal zur Erkenntnis, das andere Mal zum Irrtum führen. (Mach, 1905, S. 123)
«
Beispielsweise ist die Fähigkeit zur Komplexitätsreduktion nötig, damit Menschen sich in der Welt zurechtfinden können. Ein Zuviel an Information auszublenden ist ein Schutzmechanismus, der hilft, Handlungsfähigkeit aufrechtzuerhalten. Insofern ist Selektion von Information kein Fehler. Andererseits dient Informationsselektion eben der Befriedigung des Kompetenzschutzbedürfnisses (7 Kap. 6) und nicht der Lösung des Sachproblems.
Mit Blick auf Handlungsergebnisse kann also Informationsselektion ein Fehler sein.
3.5
Ursachen für Fehler
Die Suche nach generellen Ursachen »hinter« den Fehlerarten zeigt kein eindeutiges Ergebnis: Viele Fehlerarten sind sowohl durch Faktoren außerhalb der Person als auch durch motivationale und kognitive Faktoren verursacht. Dennoch werden hier überblicksartig die Ebenen von Fehlerursachen innerhalb und außerhalb der Person zusammengefasst (»exogenous« vs. »endogenous errors«; Senders & Moray, 1991). Einige Eigenheiten der Handlungsregulation wurden oben als wichtige Ursache für Fehler (Fehlerart) schon angesprochen. 5 Fehlerursachen außerhalb der handelnden Person liegen zum einen in Organisationsfaktoren (7 Kap. 2 und 9; z. B. Sicherheitskultur, Zielprioritäten in der Organisation) und in der Arbeitsumgebung (z. B. Lärm, Arbeitszeiten, Geräteausstattung). Zum anderen können Merkmale der Arbeitsaufgabe (z. B. Komplexität, Strukturiertheit) und des Arbeitsteams (z. B. Kommunikationsregeln, Erfahrung) Fehler verursachen.
56
3
Kapitel 3 • Fehler und Unfälle
5 Als Fehlerursachen innerhalb der Person sind im Wesentlichen drei Aspekte zu nennen 5 Physiologische und biologische Faktoren: Die körperliche Ausstattung des Menschen kann Ursache von Fehlern sein – allerdings nur, wenn Arbeitssysteme nicht an diese Gegebenheiten angepasst sind. Müdigkeit z. B. führt zu Wahrnehmungs- und Denkfehlern, allerdings sollten Menschen in sicherheitsrelevanten Bereichen nicht müde arbeiten müssen. Andere Beispiele für biologische Fehlerursachen sind Abhängigkeit von Sauerstoff, Ablenkung durch Lärm, Aufmerksamkeitsstörungen bei Krankheit etc. Biologische und physiologische Faktoren sind mit einer gewissen Varianz für alle Menschen relevant – will man sie bei der Gestaltung von Arbeitssystemen beachten, spielt kaum eine Rolle, wer die Tätigkeit ausführt. 5 Zum anderen sind individuelles Wissen, Fertigkeiten und Fähigkeiten als Fehlerursachen relevant. Diese Ebene ist die spezifisch individuelle, hier kommt es auf die konkrete Person an. Beeinflussbar sind diese Faktoren über Personalauswahl sowie Aus- und Weiterbildung. 5 Weiterhin sind Mechanismen der menschlichen Informationsverarbeitung und Motivationsregulation als Fehlerquellen
bedeutsam. Diese sind im Prinzip bei allen Menschen vorhanden, können aber individuell unterschiedlich stark ausgeprägt sein. Im Folgenden werden einige dieser psychologischen Fehlerursachen kurz besprochen.
3.5.1
Ressourcenschonung
Viele Fehler können auf die Anpassung der Informationsverarbeitungsprozesse an begrenzte kognitive Ressourcen zurückgeführt werden (Dörner, 1999). Diese basale Notwendigkeit der Ressourcenschonung, v. a. die sparsame Verwendung des bewussten Denkens, zeigt sich insbesondere in der Tendenz zur Komplexitätsreduktion und in der Bildung von Handlungsroutinen (Gewohnheiten) und Automatismen (Rasmussen, 1983).
Die Tendenz, Routinen zu bilden, ist auch in den von Reason (1990, S.115 f.) identifizierten basalen Heurismen der Informationsverarbeitung wiederzufinden: Wahrnehmungsinhalte werden nach Ähnlichkeit zu vorhandenen Schemata erkannt (»similarity matching«); von mehreren möglichen Schemata wird dasjenige gewählt, das bislang am häufigsten vorkam (»frequency gambling«). Menschen suchen nach bekannten Mustern – und wenden bekannte Regeln an –, ehe sie neue Lösungen erdenken. Menschen bevorzugen das sparsame fertigkeits- und regelbasierte Handeln vor dem wissensbasierten Handeln und problemlösenden Denken.
3.5.2
Aktives Gedächtnis
Gedächtnisinhalte werden kontinuierlich verändert und umorganisiert, so wie es den aktuellen Bedürfnissen und der Situation entspricht. Erinnerungen sind deshalb eher Rekonstruktionen als genaue Wiedergabe der ursprünglichen abgespeicherten Gedächtnisinhalte. Die einzelnen Gedächtnisinhalte sind assoziativ miteinander verknüpft, was einen sehr schnellen Aufruf persönlich relevanter Informationen erlaubt – nur dass persönlich relevant nicht immer sachlich relevant bedeutet. Auch sind Lernen und Erinnern emotionsabhängig: Emotional getönte Inhalte fallen uns z. B. schneller wieder ein. Das »aktive Gedächtnis« ist ebenso zwiespältig wie die o. g. Ökonomietendenz, da es Irrtümer erlaubt, und man Rekonstruktion und Abruf nicht zuverlässig unterscheiden kann. Über das Prinzip der Bahnung (»Was oft aufgerufen wird, ist am leichtesten wieder zugänglich«) neigen Menschen dazu, das zu denken, was sie schon häufiger dachten, also konservativ an neue Probleme heranzugehen. Neben der Begrenztheit der kognitiven Ressourcen und Gedächtnisprozesse spielen motivationale Faktoren eine wichtige Rolle. Hier ist besonders die Überwertigkeit des aktuellen Motivs, der Schutz des Kompetenzempfindens und das Streben nach sozialer Anerkennung zu nennen.
57
3.6 • Zuverlässigkeit und Fehlerfreundlichkeit
3.5.3
Überwertigkeit des aktuellen Motivs
Die Motivauswahl wird über Prozesse der gegenseitigen Hemmung so gesteuert, dass das aktuelle, handlungsleitende Motiv gegenüber konkurrierenden abgeschirmt wird (Dörner, 1999). Diese Abschirmung führt zu einer Überwertigkeit des aktuellen Motivs: »Verhaltensoszillation« wird verhindert, wir können zielgerichtet handeln, ohne uns ablenken zu lassen. Dadurch dass aktuelle Bedürfnisse stärker sind als antizipierte, lösen Menschen Probleme, die sie im Moment haben, nicht solche, die sie (vielleicht) haben werden (kurzfristige Ausrichtung des Handelns).
3.5.4
Kompetenzschutz und soziale Motive
Kompetenz, das Gefühl, etwas bewirken zu können, ist nötig, um überhaupt zu handeln (7 Kap. 6). Menschen haben deshalb ein starkes Motiv, ihr Kompetenzgefühl zu schützen und so die Handlungsfähigkeit aufrechtzuerhalten. Aus diesem Motiv erwachsen häufig Ursachen unangemessener Entscheidungen, wie z. B. die Tendenz zu bestätigender Informationssuche (»confirmation bias«; Wason, 1960). Auf der anderen Seite gibt es ein starkes Motiv nach Ausweitung der Kompetenz. Dieses äußert sich in Neugier, der Bereitschaft zu lernen, aber auch in Machtstreben und in der Bereitschaft, Risiken auf sich zu nehmen, etc. Die Einbettung des Menschen in seinen sozialen Kontext ist lebensnotwendig. Menschen brauchen die Nähe und Akzeptanz anderer Menschen. Beides ist wiederum mit dem Kompetenzgefühl verknüpft. Um Akzeptanz und Status in der Gruppe nicht zu gefährden, weisen Menschen ihre Gruppe evtl. nicht auf Fehler hin und verzichten auf Zielklärung in Gruppen.
3.6
Zuverlässigkeit und Fehlerfreundlichkeit
Kennt man mögliche Fehler in einem System und ihre Wahrscheinlichkeit des Auftretens, kann dar-
3
aus die Zuverlässigkeit des Systems (»reliability«) berechnet werden (z. B. Kirwan, 1994; kritisch auch Zimolong, 1990). Die Zuverlässigkeit wird numerisch angegeben als Reliability = 1-Human error probability Letztere ist der Anteil der fehlerhaft durchgeführten Aufgaben eines Typs an allen Aufgaben dieses Typs. Je nach akzeptablem Risiko müssen aus der Analyse erkannte Möglichkeiten der Fehlerreduktion genutzt werden – so lange, bis man das System für ausreichend zuverlässig hält (Kirwan, 1994). Für die Analyse der Fehlerwahrscheinlichkeiten werden je nach Branche unterschiedliche qualitative und quantitative Analysetools verwendet. Es wird gefragt, welche Fehler bei welchem Prozessschritt auftreten können und wie wahrscheinlich diese sind. Zuverlässigkeitsanalysen beinhalten einen klassifizierenden Teil und einen Bewertungsteil. Fehlerwahrscheinlichkeiten zu berechnen erfordert die Möglichkeit, viele Male dieselbe Handlung zu beobachten und ihre Richtigkeit zu diagnostizieren. Deshalb beziehen sich quantitative Fehleranalysen auf einfache, häufig wiederholbare Handlungen. Fehlerwahrscheinlichkeiten bei komplexeren kognitiven Aufgaben sind schwer zu berechnen. Hinzu kommt, dass die Messungen mit einzelnen Personen durchgeführt werden – positive und negative Teameffekte werden nicht mit einberechnet (z. B. gegenseitige Kontrolle oder auch Verantwortungsdiffusion; 7 Kap. 7). Beispiel Die folgenden Beispiele für Fehlerwahrscheinlichkeiten wurden von Swain & Guttman (1983) in Kernkraftwerken gemessen. Angegeben sind die Fehlerwahrscheinlichkeiten: 4 Einen Graphen falsch ablesen: p~0,01 4 Eine Analoganzeige falsch ablesen: p~0,03 4 Ein Stellteil bei hohem Stress in die falsche Richtung bewegen: p~0,5 Generell gilt, dass die Fehlerwahrscheinlichkeit bei einfachen, häufig geübten Aufgaben sehr gering ist (im Bereich von 0,001). Für komplexe, selten durchgeführte Aufgaben wurden unter Stress Fehlerraten von nahe 1 gemessen.
58
3
Kapitel 3 • Fehler und Unfälle
Es gibt etliche Methoden der Zuverlässigkeitsanalyse; ein aktueller Überblick findet sich in Stanton, Salmon, Walker, Barber & Jenkins (2005). Beispiele bekannter Tools sind: 5 FMEA (»Failure Mode and Effects Analysis«; Willis, 1992) 5 THERP (»Technique for Human Error Rate Prediction«; Swain & Guttman, 1983) 5 »Human Error Identification in Systems Tool« (Kirwan, 1994) Zuverlässigkeitsanalysen werden v. a. in Kernkraftanlagen und beim Militär verwendet (in Kernkraftanlagen sind Zuverlässigkeitsanalysen Voraussetzung für die Erlangung der Betriebserlaubnis). Wichtig ist, dass das Ziel nicht »absolute« Sicherheit ist, sondern genügend hohe Zuverlässigkeit, d. h. ein akzeptables Risiko. Die Festlegung der nötigen Zuverlässigkeit ist eine Frage der Bewertung und nicht dem beurteilten System inhärent. Über die Fehlerwahrscheinlichkeiten einzelner Systemelemente wird so die Sicherheit des Systems abgeschätzt. Dabei werden allerdings komplexe Interaktionen in Systemen außer Acht gelassen. Deshalb zeigt die Erfahrung, dass »hohe technische und hohe menschliche Zuverlässigkeit nicht zwangsläufig zu einem verlässlichen Gesamtsystem« führen (Giesa & Timpe, 2002, S. 65). Aus diesem Grunde wird das Konzept der Resilienz immer wichtiger (z. B. in Weick & Sutcliffe, 2010): Systeme müssen so gestaltet sein, das sie trotz menschlicher Fehler keine Unfälle produzieren (7 Kap. 2).
3.7
Zusammenfassung
5 Ein Fehler liegt vor, wenn eine beabsichtigte Handlung, zu der es eine Alternative gab, nicht das intendierte Ergebnis erbrachte (Zielverfehlung). Fehler können auf allen Ebenen der Handlungskontrolle begangen werden (Automatismen, Regelanwendung, Wissensanwendung, Problemlösen). 5 Was ein Fehler ist, wird von dem Zielkriterium aus entschieden. 5 Klassische Fehlerforschung fragt, was genau falsch gemacht wird und warum. Die erste
5
5 5 5
5
Frage führt zur Klassifikation von Fehlern, die zweite Frage zur Suche nach Ursachen. Sicherheitsorientierte Fehlerforschung geht vom Unfall oder anderen Ereignissen aus und fragt nach deren Verursachung, u. a. durch Fehler. Nach der Systemperspektive entstehen Unfälle, wenn Fehlentscheidungen auf vielen Ebenen eines Arbeitssystems zusammenwirken und die Sicherheitsbarrieren versagen. Fehler sind ein unvermeidbarer Teil menschlichen Handelns. Unfälle sind vermeidbar. Fehler können als Chance zum Lernen genutzt werden; hierfür sind besonders Zwischenfälle und minimale Ereignisse wertvoll. Fehler können in der Planung oder in der Ausführung von Handlungen liegen. Nicht jede unsichere Handlung ist ein Fehler; Regelverstöße werden von der handelnden Person als richtig für ihre handlungsleitenden Ziele angesehen. Problemlösefehler sind schwerer zu beurteilen, da sie für die interne Regulation funktional sein können, z. B. der Aufrechterhaltung des Kompetenzgefühls dienen.
Zwei Punkte sollen hier noch angesprochen werden, die bei der Beschäftigung mit Fehlern auffallen: 5 Die Fehlerforschung befasst sich fast ausschließlich mit dem Individuum – Fehler, theoretische Ableitungen oder Klassifikationen von Fehlern, z. B. bezüglich der Veränderung durch die Anwesenheit anderer Menschen oder die Arbeit in Teams, haben in diesen Ansätzen wenig Platz. Wissen darüber ist in der Sozialpsychologie vorhanden, allerdings steht auch hier eine Klassifikation von Teamfehlern, z. B. Phänomene wie Führungs- und Verantwortungsdiffusion, unklare Kommunikation, Verschiebung der Risikobereitschaft, Konflikte, noch aus. Ebenso fehlt ein Modell der Fehlerentstehung in Gruppen analog den Modellen von Norman, Rasmussen und Reason für Einzelpersonen. 5 Obwohl es in der Fehlerforschung um den einzelnen Menschen geht, wird dieser reduziert: Die Fehlerforschung ist (abgesehen von den psychoanalytischen Ansätzen) kognitivistisch.
Literatur
Emotionen und Motivationen kommen nicht vor, die Modelle beginnen mit einer vorhandenen Intention. Emotionen tauchen allenfalls in Form von »Stress« auf, der Fehler provoziert. Emotionale Konsequenzen von Fehlern werden nicht beschrieben, ebenso wenig wie andere Emotionen. Als Ausblick für die Fehlerforschung ist deshalb zu wünschen, dass nach der Wiederentdeckung der Kognition auch Emotion und Motivation sowie die soziale Einbindung des Menschen Eingang in die Fehlerforschung findet.
Literatur Amalberti, R. (2001). The paradoxes of almost totally safe transportation systems. Safety Science 37 (2–3), 109–126. Chapanis, A. (1951). Theory and method for analyzing errors in man-machine systems. Annals of the New York Academy of Science, 51, 1179–1203. CIRS (2001). Critical Incident Reporting System [online document]. URL: https://www.cirsmedical.ch/demo/cirs/ cirshelp.phpxx (gelesen 20.08.2007). Dekker, S. (2005). Ten questions about human error. A new view of human factors and system safety. London: Lawrence Erlbaum. Dekker, S. (2002). The field guide to human error investigations. Aldershot: Ashgate. Dörner, D. (1989). Die Logik des Misslingens. Reinbek bei Hamburg: Rowohlt. Dörner, D., Kreuzig, H. W., Reither, F. & Stäudel, T. (Hrsg.) (1983). Lohhausen. Vom Umgang mit Unbestimmtheit und Komplexität. Bern: Huber. Dörner, D. & Schaub, H. (1995). Handeln in Unbestimmtheit und Komplexität. Organisationsentwicklung, 14, 34–47. Dörner, D. (1999). Bauplan für eine Seele. Reinbek bei Hamburg: Rowohlt. Egger, M. (2001). Arbeitswissenschaft im Kontext sich wandelnder Rahmenbedingungen. Mering: Hampp. Fischhoff, B. (1975). Hindsight is not foresight: The effect of outcome knowledge on judgement under uncertainty. Journal of Experimental Psychology: Human Perception and Performance, 1, 288–299. Fiske, S. T. & Taylor, S. E. (1984). Social cognition. Reading, Mas: Addison-Wesley. Freud, S. (1901). Psychopathologie des Alltagslebens. Reprint 1948. Frankfurt a. M.: Fischer. Gauss, C. F. (1823). Theoria combinationis observationum erroribus minimis obnoxiae. Commentationes societ. reg. Scient. Götting. rec. Vol. V. Hrsg. 1880 von der Königlichen Gesellschaft der Wissenschaften. Leipzig: Teubner.
59
3
Giesa, H. G. & Timpe, K.-P. (2002). Technisches Versagen und menschliche Zuverlässigkeit: Bewertung der Zuverlässigkeit in Mensch-Maschine-Systemen. In K.-P. Timpe, T. Jürgensohn & H. Kolrep (Hrsg.), Mensch-Maschine-Systemtechnik (S. 63–106). Berlin: Symposion. Goethe, J. W. v. (1820). Hör-, Schreib- und Druckfehler. Kunst und Altertum, II, 177–185. Hacker, W. (1998). Allgemeine Arbeitspsychologie. Psychische Regulation von Arbeitstätigkeiten. Bern: Huber. Hagen, E. & Mays, G. (1981). Human Factors Engineering in the U.S. Nuclear Arena. Nuclear Safety, 17 (3), 315–326. Hofinger, G. (2003). Fehler und Fallen beim Entscheiden in kritischen Situationen. In S. Strohschneider (Hrsg.), Entscheiden in kritischen Situationen. Herausgegeben im Auftrag der Plattform »Menschen in komplexen Arbeitswelten« e. V. (S. 115–136). Frankfurt a. M.: Verlag für Polizeiwissenschaften. Hollnagel, E. (1993). Human reliability analysis: Context and control. London: Academic Press. Hollnagel, E. (1998). Cognitive reliability and error analysis method: CREAM. Oxford: Elsevier. Hollnagel, E., Nemeth, C. P. & Dekker, S. (2008). Resilience engineering perspectives Volume 1: Remaining sensitive to the possibility of failure. Aldershot: Ashgate. Hollnagel, E., Woods, D. & Leveson, N. (2006). Resilience engineering. Concepts and precepts. Aldershot: Ashgate. Ingold, F. P. & Sánchez, Y. (2008). Fehler im System: Irrtum, Defizit und Katastrophe als Faktoren kultureller Produktivität. Göttingen: Wallstein. Kahneman, D., Slovic, P. & Tversky, A. (1982). Judgement under uncertainty: Heuristics and biases. Cambridge UK: Cambridge University Press. Kirwan, B. (1994). A guide to practical human reliability assessment. London: Taylor & Francis. Klumb, P. L. (1995). Attention, action, absent-minded aberrations. A behaviour-economic approach. Frankfurt a. M.: Lang. Mach, E. (1905). Erkenntnis und Irrtum, Skizzen zur Psychologie der Forschung. Dordrecht: D. Reidel. Meister, D. (1971). Human factors: Theory and practice. Hoboken: Wiley. Metzger, W. (1936). Gesetze des Sehens. Frankfurt a. M.: Kramer. Miller, M. W. & Turnbull, W. (1990). The counterfactual fallacy. Confusing what might have been with what ought to have been. Social Justice Research, 4, 1–9. Necker, l. A. (1832). Ueber einige merkwürdige optische Phänomene. Annalen der Physik, 103 (3), 497–504. Norman, D. A. (1981). Categorization of action slips. Psychological Review, 88 (1), 1–15. Oser, F. & Spychiger, M. (2005). Lernen ist schmerzhaft: Zur Theorie des negativen Wissens und zur Praxis der Fehlerkultur. Weinheim: Beltz. Perrow, C. (1999). Normal accidents. Living with high-risk technologies. Princeton NJ: Princeton University Press. Rasmussen, J. (1983). Skills, rules, knowledge – signals, signs and symbols and other distinctions in human perfor-
60
3
Kapitel 3 • Fehler und Unfälle
mance models. IEEE transactions on systems, Man and cybernetics, Vol. SMC-13, No. 3, 257–267. Rasmussen, J. (1982). Human errors – A taxonomy for describing human malfunction in industrial installations. Journal of Occupational Accidents, 4/1982, 311–333. Reason, J. (1990). Human error. Cambridge UK: Cambridge University Press. Reason, J. (1997). Managing the risk of organisational accidents. Aldershot: Ashgate. Reason, J. (2008). The human contribution: Unsafe acts, accidents and heroic recoveries. Farnham: Ashgate. Reason, J. (2001). Foreword. In B. Strauch (Ed.), Investigating human error: incidents, accidents, and complex systems (XII–XVII). Aldershot: Ashgate. Rigby, L. (1970). The nature of human error, 24 th Annual Technical Conference Transactions of the ASQC, pp. 457–466. Milwaukee: American Society for Quality Control. Senders, J. W. & Moray, N. P. (1991). Human error: Cause, prediction, and reduction. Hillsdale, N. J.: Erlbaum. Sharit, J. (2006). Human Error. In G. Salvendy (Ed.), Handbook of human factors and ergonomics, 3rd Edition (pp. 708–760). Hoboken, New Jersey: Wiley & Sons. St. Pierre, M., Hofinger, G. & Buerschaper, C. (2007). Crisis management in acute care settings: Human factors and team psychology in a high stakes environment. New York u. a.: Springer. Stanton, N. A., Salmon, P. M., Walker, G. H., Barber, C. & Jenkins, D. P. (2005). Human factors methods. A practical guide for engineering and design. Aldershot: Asghate. Strauch, B. (2001). Investigating human error: incidents, accidents, and complex systems. Aldershot: Ashgate. Swain, A. D. & Guttman, H. E. (1983). Handbook of human reliability analysis with emphasis on nuclear power plant applications NUREG/CR-1278. Albuquerque: Sandia Laboratories. Sully, J. (1881). Illusions. A psychological study. London: Kegan. Turner, B. A. (1978). Man-made disasters. London: Wykeham. Vaughan, D. (1997). The Challenger launch decision: Risky technology, culture, and deviance at NASA. Chicago: University of Chicago Press. Wallace, B. & Ross, A. (2006). Beyond human error. Taxonomies and safety sciences. Boca Raton, London, New York: Taylor & Francis. Wason, P. C. (1960). On the failure to eliminate hypotheses in a conceptual task. Quarterly Journal of Experimental Psychology, 12, 129–140. Wehner, T. (1992). Sicherheit als Fehlerfreundlichkeit. Opladen: Westdeutscher Verlag. Wehner, T. (1984). Im Schatten des Fehlers – Einige methodisch bedeutsame Arbeiten zur Fehlerforschung. Bremer Beiträge zur Psychologie, 34. Bremen: Universität Bremen. Wehner, T., Mehl, K. & Dieckmann, P. (2010). Handlungsfehler und Fehlerprävention. In U. Kleinbeck & K.-H. Schmidt (Hrsg.), Enzyklopädie der Psychologie – Band Arbeitspsychologie (S.785-819). Göttingen: Hogrefe.
Weick, K. & Sutcliffe, R. (2001). Managing the unexpected. Assuring high performance in an age of complexity. San Francisco, CA: Jossey-Bass. Weick, K. E. & Sutcliffe, K. M. (2010). Managing the unexpected: Resilient performance in the age of uncertainty (2nd ed.). San Francisco, CA: John Wiley & Sons, Inc. Weimer, H. (1925). Psychologie der Fehler. Leipzig: Klinkhardt. Wells, G. L. (1997). Major hazards and their management. Rugby: Institution of Chemical Engineers. Whittingham, R. B. (2004). The blame machine: Why human error causes accidents. Oxford: Butterworth Heinemann. Willis, G. (1992). Failure modes and effects analysis in clinical engineering. Journal of Clinical Engineering, 17 (1), 59–63. Wiegmann, D. & Shappell, S. (2003). A human error approach to aviation accident analysis: The human factors analysis and classification system. Alddershot: Ashgate. Zimolong, B. (1990). Fehler und Zuverlässigkeit. In C. Graf Hoyos & B. Zimolong (Hrsg.), Ingenieurpsychologie (Enzyklopädie der Psychologie, Band D, III, 2), S. 313-345. Göttingen: Hogrefe.
61
Individuelle und teambezogene Faktoren Kapitel 4
Wahrnehmung, Aufmerksamkeit und »Situation Awareness« (SA) – 63 Harald Schaub
Kapitel 5
Denken – Entscheiden – Handeln – 83 Winfried Hacker und Rüdiger von der Weth
Kapitel 6
Emotion und Handeln – 101 Dietrich Dörner
Kapitel 7
Handeln in Gruppen – 121 Petra Badke-Schaub
Kapitel 8
Kommunikation – 141 Gesine Hofinger
II
63
Wahrnehmung, Aufmerksamkeit und »Situation Awareness« (SA) Harald Schaub
4.1
Einführung – 64
4.2
Wahrnehmung: »Wara Neman« – 66
4.2.1 4.2.2
Die Welt im Kopf: Physiologie der Wahrnehmung – 66 Erwartungen und Hypothesen: Wahrnehmung als aktiver Informationsverarbeitungsprozess – 67
4.3
Aufmerksamkeit – 68
4.4
»Situation Awareness« (SA) – 71
4.4.1 4.4.2
SA-Modell von Endsley – 72 »Shared Situation Awareness« – 74
4.5
Störungen der Wahrnehmung – 75
4.6
Zusammenfassung – 78 Literatur – 78
P. Badke-Schaub et al., Human Factors, DOI 10.1007/978-3-642-19886-1_4, © Springer-Verlag Berlin Heidelberg 2012
4
4
64
Kapitel 4 • Wahrnehmung, Aufmerksamkeit und »Situation Awareness« (SA)
4.1
Einführung
Eine wesentliche Voraussetzung für sicheres Handeln ist, dass Planerinnen, Entscheider oder Operateure verschiedene Aspekte einer Situation korrekt wahrnehmen, zutreffend interpretieren und daraus adäquate Handlungen generieren. Diese Situationsaspekte können Personen, technische Einrichtungen, Nachrichten oder generell Informationen und Merkmale soziotechnischer Systeme sein. All diese Merkmale muss der Handelnde nicht nur wahrnehmen, sondern er oder sie muss auch ihre Bedeutung verstehen und dann für das eigene Handeln und die eigenen Ziele umsetzen. Dies beinhaltet nicht nur den aktuellen Zustand, sondern auch die möglichen Veränderungen und damit Prognosen über die Entwicklung der Situation und die zukünftigen Zustände der Elemente des soziotechnischen Systems. Eine Vielzahl menschlicher Tätigkeiten, v. a. in der Prozess- und Fahrzeugführung, erfordert die Wahrnehmung, die Interpretation und Prognose von Systemzuständen. Diese Trias von Fähigkeiten wird als Situationsbewusstsein (»situation awareness«, z. B. Endsley, 1995b; 2011; Endsley, Bolté & Jones, 2003) bezeichnet. Dabei kann »situation awareness« (SA) wie folgt charakterisiert werden: SA ist »what you need to know not to be surprised« (Jeannot, Kelly & Thompson, 2003, S. 22). Viele Ereignisse menschlichen Versagens können auf mangelndes Situationsbewusstsein zurückgeführt werden (Stewart, 1986; Endsley, 1995a). Dementsprechend werden als Reaktion auf menschliche Fehler technische, organisatorische, ergonomische und pädagogische Maßnahmen entwickelt, die das Situationsbewusstsein unterstützen und verbessern sollen, um damit die Sicherheit in soziotechnischen Systemen (häufig Mensch-Maschine-Systeme) zu erhöhen (7 Kap. 2, 3). Konzeptionell integriert das aus dem militärischen Bereich (7 Kap. 15) stammende Konzept der SA verschiedene psychologische Prozesse der Wahrnehmung, des Denkens und Planens des aktuellen und zukünftigen Verhaltens in komplexen, dynamischen Situationen (vgl. auch Hofinger, 2005).
Beispiel Die Explosion der Europa-Rakete Ariane 5 am 04.06.1996 war kein Konstruktionsproblem, sondern ein Softwarefehler, so zumindest das Ergebnis der Untersuchungskommission von Prof. JacquesLouis Lions von der französischen Akademie der Wissenschaft (1996). Das Trägheitsnavigationssystem der Vorgängerrakete Ariane 4 hatte 10 Jahre lang problemlos funktioniert und wurde deshalb in die Neukonstruktion der Ariane 5 unverändert übernommen. Bestandteil dieser Software war ein spezielles Software-Teilsystem, welches bei der Ariane 4 dafür verantwortlich war, dass im Falle eines Countdown-Abbruchs das Trägheitsnavigationssystem möglichst schnell wieder zurückgesetzt werden konnte, um einen raschen neuen Count-down zu ermöglichen. Diese Software wurde bei Ariane 4 nur für die Phase kurz vor dem Start benötigt, sie lief aber nach dem Start noch ca. 40 s weiter, ohne dabei eine Funktion zu erfüllen (dieses Nachlaufen störte nicht). In dieser Zeit lieferte die Software sinnlose Werte, die aber bei Ariane 4 nie kritische Größen erreichten. Bei Ariane 5 wurde das Problem des raschen Rücksetzens des Trägheitsnavigationssystems gänzlich anders gelöst, sodass dieses Unterprogramm bei der Ariane 5 nun auch vor dem Start überflüssig war. Um das Funktionieren des gesamten Systems nicht zu gefährden, beließ man aber diesen Programmteil einfach, wie er war (nach dem Motto »never touch a running system«). Da dieses Teilsystem schon immer funktioniert hatte, wurde es für Ariane 5 nicht neuerlich überprüft – wie es eigentlich vorgeschrieben war. Nach dem Start der Ariane 5 erzeugte dieses Programmteil wie bei Ariane 4 auch sinnlose Werte, nur dass diese Werte nun wegen der größeren Beschleunigung der wesentlich stärkeren Ariane 5 numerisch so groß wurden, dass in diesem Programmteil ein Programmfehler, ein sog. Ausnahmefehler (»exception error«) entstand. Daraufhin stellte das gesamte Trägheitsnavigationssystem die Arbeit ein (ca. 30 s nach dem Abheben). Über weitere Zwischenschritte führte dies zu einer erheblichen Kursabweichung, die schließlich zur Einleitung der Selbstzerstörungssequenz führte.
4.1 • Einführung
Die ungeprüfte Übernahme des in der Ariane 4 funktionierenden Programmteils in die Ariane 5 mit der Annahme, die Situation im Nachfolgemodell sei mit der Situation der Vorgängerin identisch, führte zu diesem viele 100 Mio. ECU teuren Fehler.
An diesem Beispiel fällt auf, dass Expertise nicht vor Fehlern schützt, sondern im Gegenteil einen maßgeblichen Beitrag der Fehlerursache darstellen kann. Die Ariane-Experten hatten eine spezifische Erwartung aufgebaut, nämlich dass das überflüssige Teil der Navigationssoftware in der neuen Rakete unter gleichen Bedingungen ebenfalls überflüssig wäre. Dabei haben sie aus der Korrektheit des einen Teils der Annahmen (Softwaremodul ist überflüssig) auf die Korrektheit des anderen Teils der Annahme (gleiche Bedingungen) geschlossen und damit eine kritische Wahrnehmung der Situation subjektiv überflüssig gemacht. Beispiel Am Morgen des 04.09.2009 bombardierte auf Anforderung von Oberst Georg Klein ein amerikanischer F-15-Jet zwei von Taliban entführte Tanklastwagen. Als Folge des schwersten Bombardements, das ein deutscher Offizier seit dem Zweiten Weltkrieg zu verantworten hat, starben über 100 Menschen, in der Mehrzahl Dorfbewohner, die sich von den Lastern Sprit abzapfen wollten. Der Bundeswehroberst handelte aus der Sorge heraus, dass die Tanklaster von den Taliban als Waffe gegen die Zivilbevölkerung und gegen deutsche Soldaten eingesetzt werden könnten. Auf Grund der vermuteten Zeitkritikalität hatte der Oberst keine zusätzliche Information eingeholt und deshalb auch NATO-Vorschriften nicht eingehalten. Ein Jahr nach dem Angriff wird festgestellt, dass dem Oberst kein Dienstvergehen vorzuwerfen ist, und dass die Bundesanwaltschaft das Ermittlungsverfahren einstellt, da die Entscheidung gemäß der Kriterien des humanitären Konfliktvölkerrechts rechtmäßig war (Spiegel Online, 2010; Tagesschau.de, 2010). Vor, während und unmittelbar nach der Entscheidung, aber auch in den Wochen und Monaten danach ist festzustellen, dass offensichtlich alle Beteiligten ein sehr unterschiedliches Bild der Situation und der vermeintlichen Bedrohung durch
65
4
die Tanklaster hatten. Möglicherweise sahen die Taliban tatsächlich eine Chance, die Fahrzeuge als brennende Bomben in das deutsche Feldlager Kunduz zu steuern, die Dorfbewohner sahen es nur als Chance, günstig an Sprit zu kommen. Die deutsche Bevölkerung, die militärische Leitung und die Politik sahen die Tat wechselweise als Fehler, Irrtum, konsequentes Durchgreifen oder auch nur als hinzunehmender Schaden in einem Krieg. Jeder bewertete die Situation auf Grund seiner Informationslage und seiner Expertise. Dass der Oberst auf Grund seiner militärischen Expertise (und Verantwortung) möglichweise zu schnell und zu eindeutig die Situation als Bedrohung einstuft, ist Folge der bei vielen Experten festzustellenden Tendenz zu domainspezifischen Interpretationen: Psychologen sehen die psychischen Faktoren, Ingenieure die technischen Aspekte und Militärs die Bedrohlichkeit der Lage.
Faktisch hätte die Notwendigkeit bestanden, über alle Beteiligten hinweg eine »shared situation awareness«, oder wie Einsatzkräfte sagen: »ein gemeinsames Lagebild«, herzustellen, um Wahrnehmungs- und Bewertungsfehler zu minimieren und letztlich Leben zu schützen. An diesem Beispiel wird nachdrücklich deutlich, wie gravierend die Folgen von Wahrnehmungs- und Bewertungsfehlern, bzw. unvollständiger Situation Awareness, sein können. Für beide Beispiele ist zu konstatieren 5 Für die Fehler waren Experten verantwortlich. 5 Ein Befolgen der Vorschriften hätte den Fehler möglicherweise frühzeitig aufgedeckt. 5 Die kritische Überprüfung wurde durch eine Expertenmeinung ersetzt. 5 Die Verantwortlichen hatten ein gemeinsames (aber in Teilen) falsches Bild der Situation. 5 Weniger erfahrenen Akteuren wäre der Fehler vermutlich nicht passiert, da sie die Vorschriften befolgt und so ein anderes Lagebild als die Experten aufgebaut hätten.
66
4
Kapitel 4 • Wahrnehmung, Aufmerksamkeit und »Situation Awareness« (SA)
Zusammenfassend kann man festhalten, dass Expertise nicht notwendigerweise vor Wahrnehmungsfehlern schützt, sondern selbst zur Bedingung für den Aufbau eines fehlerhaften Situationsbildes werden kann, da Expertise die Art und Weise der Wahrnehmung und Interpretation von Ereignissen verändert. Dieses Kapitel behandelt den Prozess der menschlichen Wahrnehmung in Hinblick auf sicheres und unsicheres Handeln. Dabei wird Wahrnehmung (7 Kap. 4.2) und Aufmerksamkeit (7 Kap. 4.3) als Teil eines Informationsverarbeitungsprozesses verstanden. »Situation awareness« (7 Kap. 4.4) ist ein integratives Konzept, das Erkenntnisse zu basalen psychologischen Prozessen in einen Anwendungskontext stellt. Wahrnehmungsstörungen (7 Kap. 4.5) können häufig die Basis für Probleme und Fehler beim Handeln sein.
4.2
Wahrnehmung: »Wara Neman«
Das Wort »Wahrnehmung« stammt von dem althochdeutschen Wort »wara neman«, was bedeutet, einer Sache Aufmerksamkeit zu schenken (von Heyse, 1856, S. 84). Wahrnehmung ist die psychische Funktion, die es dem Organismus ermöglicht, mithilfe seiner Sinnesorgane Informationen aus der Innen- und Außenwelt aufzunehmen und zu verarbeiten. Die Wahrnehmung steht dabei unter dem Einfluss von Gedächtnis, Gefühlen, Erwartungen, Motivationen und Denken.
5 5 5 5 5
Auditives System: Hören Taktiles System: Oberflächensensibilität Vestibuläres System: Lagewahrnehmung Kinästhetisches System: Tiefensensibilität Chemische Systeme: Riechen und Schmecken
> Wahrnehmung ist die Transformation physikalischer oder chemischer Reize (Daten) in psychisch verarbeitbare Information, also der Übergang vom physikalischen über das physiologische zum psychologischen Medium, um die Information als Wissen für die Handlungssteuerung zu nutzen.
Der Übertritt vom physikalischen (oder chemischen) Medium in elektrische Innervationen ist Thema der Sinnes- bzw. Wahrnehmungsphysiologie. Dabei werden sowohl die Signaltransduktionsvorgänge in den Sinnesrezeptoren als auch die darauf aufbauenden weiteren Verarbeitungsschritte dieser Reizinformationen im Zentralnervensystem betrachtet. Signaltransduktion (Signalübertragung) sind diejenigen Prozesse, mittels derer Sinneszellen äußere Reize umwandeln und in das Zellinnere weiterleiten (vgl. Alberts, Bray & Hopkin, 2001). An diesen Umwandlungsprozessen ist eine Vielzahl enzymatischer chemischer Prozesse beteiligt. Die Aufgabe der Signaltransduktion ist die Weiterleitung der von einem Rezeptor aufgenommenen externen Signale zu Effektorproteinen der Zelle. Beispiel
4.2.1
Die Welt im Kopf: Physiologie der Wahrnehmung
Wahrnehmung besteht aus mehreren Phasen, die an den physiologischen Prozessen und Strukturen der Sinnesrezeptoren beginnen (vgl. Schmidt & Schaible, 2006) und über mehrere Stufen der unbewussten psychologischen Verarbeitung der Daten zu einer Anreicherung des Bedeutungsgehalts der Information führen, die schließlich Teil des Wissens des Wahrnehmenden wird. Dabei nutzt die Wahrnehmung parallel mehrere Sinnesmodalitäten: 5 Visuelles System: Sehen
Ein einzelnes Lichtphoton kann ein einzelnes Rhodopsinmolekül aktivieren (Rhodopsin ist der Photorezeptor der Netzhaut), dieses wiederum aktiviert bis zu 2000 Transducinmoleküle, was zu einer Amplifikation (Verstärkung) des ursprünglichen Signals führt, z. B. zur Kontrastverstärkung bei der visuellen Wahrnehmung.
An den Signaltransduktionswegen als Zwischenstationen der chemischen Umwandlung sind eine Vielzahl von Stoffen, sog. second messengers beteiligt (z. B. cAMP: zyklisches Adenosinmonophosphat, cGMP: zyklisches Guanosinmonophosphat). Die konkreten chemischen Prozesse unterscheiden sich dabei von Sinnesmodalität zu Sinnesmodalität.
67
4.2 • Wahrnehmung: »Wara Neman«
4
Umwelt Reiz
Reaktion Handeln
Medium Modalität
. Abb. 4.2 Symbolen Sensorische Zentren
Erwartungsabhängige Wahrnehmung von
Rezeptor Sinnesorgan
Sinnesnerven Transduktion
. Abb. 4.1 Wahrnehmungskette: Vom Reiz zur Handlung (Bottom-up-Prozess)
Die Information aus den Sinnesrezeptoren wird in den sensorischen Zentren der Großhirnrinde weiterverarbeitet. Die wichtigsten funktionellen, primären sensorischen Zentren sind der primäre somatosensible Kortex im Gyrus postcentralis, der primäre visuelle Kortex im okzipitalen Lappen und der primäre akustische Kortex in den Gyri temporales transversi. Neben den primären Arealen gibt es eine ganze Reihe sekundärer Areale, die ebenfalls Informationen verschiedener Sinnesmodalitäten verarbeiten. Obwohl definierte Kortex-Zentren wichtige Funktionen bei der Verarbeitung sensorischer Impulse haben, wird aufgrund der hohen Vernetzung der gesamte Kortex mit den assoziativen Regionen genutzt, um die multimodale, sensorische und motorische Information zu verarbeiten und letztlich in motorische Steuerungen umzusetzen (vgl. Karnath & Thier, 2006). In . Abb. 4.1 ist der Weg vom physikalischen Reiz über die verschiedenen Verarbeitungsstufen bis zur Handlung skizziert. Dabei wird deutlich, dass die physiologische Betrachtung von Wahrnehmungsvorgängen die Perspektive v. a. auf Bottom-up-Prozesse (vom Reiz zum Gehirn) legt: Anreicherung, Verstärkung und Kombination von basalen Reizen führen zum Erkennen und zur Umsetzung in ausführbare Handlungen. Diese Perspektive weist dem Wahrnehmenden eine weitgehend passive Rolle zu. Unstrittig ist, dass Wahrnehmung eine reizgetrie-
bene Bottom-up-Komponente hat, aber damit lässt sich eine Vielzahl sicherheitskritischer Phänomene aus dem Human-Factors-Kontext nicht erklären (. Abb. 4.2), und die Erklärung der Wahrnehmung muss deshalb durch eine Top-down-Komponente ergänzt werden.
4.2.2
Erwartungen und Hypothesen: Wahrnehmung als aktiver Informationsverarbeitungsprozess
Wahrnehmung ist ein aktiver, informationsverarbeitender Prozess; somit ist das Ergebnis der Wahrnehmung grundsätzlich keine Eins-zu-einsKopie der Wirklichkeit, was zu der Frage führt: Was ist eigentlich wirklich? Was ist Wahr-nehmen? Diese Diskussion wurde in der Philosophie schon von den alten Griechen geführt, z. B. von Demokrit (460 v. Chr.; Ibscher, 1996), Parmenides (5. Jh. v. Chr., Hölscher, 1969) oder Platon (427 v. Chr.; Neumann, 2001). Beispiel Im radikalen Konstruktivismus wurde die Subjektivität der Wahrnehmung zur Kernaussage: Wahrnehmung ist immer eine Konstruktion aus Sinnesreizen und Gedächtnisleistung eines Individuums, weshalb es Objektivität als Übereinstimmung von wahrgenommenem (konstruiertem) Bild und Realität nicht gibt (von Glasersfeld, 1985).
Gedankenspiele mit der Subjektivität der Wahrnehmung sind deshalb auch beliebter Gegenstand in der Science-Fiction-Literatur, z. B. in vielen Geschichten von Stanislav Lem, und in Science-
68
Kapitel 4 • Wahrnehmung, Aufmerksamkeit und »Situation Awareness« (SA)
Fiction-Filmen z. B. von Fassbinder (»Welt am Draht«) oder den Brüdern Wachowski (»Matrix«). Beispiel
4
Mit dem Mars Climate Orbiter (MCO) schickte die NASA eine Sonde im Rahmen des Discovery-Programms zum Mars. Die Sonde ging 1999 wegen eines Einheitenfehlers im Navigationssystem verloren. Die NASA rechnete im international gebräuchlichen SI-System (Einheit: Newton mal Sekunde), jedoch wurde für die Navigationssoftware des MCO vom Hersteller Lockheed Martin das imperiale System (Einheit: Pfund mal Sekunde) verwendet, sodass sich Abweichungen zwischen den verschiedenen Systemen um den Faktor 4,45 ergaben, da gleiche Zahlen, z. B. Höhenangaben, durch den Computer vor dem Hintergrund des jeweiligen Messsystems, interpretiert wurden. Auf den Fehler wurden die Beteiligten erst nach dem Absturz durch den Bericht der Untersuchungskommission aufmerksam. Die Kommission konstatierte, dass mangelnde Erfahrung, Überbelastung und mangelhafte Zusammenarbeit der Teams die nicht entdeckte Fehlinterpretation unterstützt hatten (Mars Climate Orbiter Investigation Board, 1999).
Die Wissenschaftler des Mars Climate Orbiter wurden Opfer der Subjektivität von Wahrnehmung, die immer interpretativ in einem gegebenen Kontext (hier physikalische Einheiten) ist. Bereits in den 1940er-Jahren erkannte die Forschung, dass nicht nur die objektiven Reizattribute für die Wahrnehmung eine Rolle spielen, sondern v. a. die subjektive Erwartung eines Reizes einen wesentlichen Einfluss auf die Wahrnehmung nimmt. Dabei spielt das Modell der Psyche als Informationsverarbeitungssystem eine zentrale Rolle (Bruner & Postman, 1949). Top-down-Prozesse, d. h. der Einfluss höherer (kognitiver) Prozesse auf basale (Wahrnehmungs-)Prozesse in Form von Erwartungen und Hypothesen, bestimmen, was wie wahrgenommen wird. Die konstruktive und interpretierende Eigenschaft der Wahrnehmung folgt v. a. dem Bedürfnis des informationsverarbeitenden Menschen nach Unbestimmtheitsreduktion und Konsistenz (Neisser, 1967). In unbestimmten Situationen werden Kontextinformationen genutzt, um die Ambi-
guität zu reduzieren und zu einer subjektiv konsistenten Interpretation der Situation zu gelangen. Dabei bezieht sich die Konsistenz auf das individuelle mentale Modell des Wahrnehmenden (7 Kap. 8; vgl. auch Badke-Schaub, Neumann, Lauche & Mohammed, 2007; Schaub, 2007), objektiv kann die damit erzeugte Konsistenz falsch sein. Dies ist in . Abb. 4.2 verdeutlicht, da hier die objektiven physikalischen Eigenschaften des Buchstabens B und der Zahl 13 identisch sind, aber die Zeichen im jeweiligen Kontext (Buchstaben, Zahlen) subjektiv eindeutig der Erwartung folgend als B bzw. als 13 wahrgenommen und verarbeitet werden. Beispiel NASA-Vertreter erklärten, dass dem Bericht einer unabhängigen Kommission zufolge in mehreren Fällen US-Astronauten alkoholisiert mit einem Space Shuttle in den Weltraum gestartet seien. Die NASA-Führung habe, nach Aussage der stellvertretenden NASA-Verwaltungschefin Shana Dale, von möglichen Alkoholproblemen nichts gewusst. Die NASA hatte offensichtlich auch keine solchen Probleme erwartet, da die medizinischen Voruntersuchungen von Astronauten nicht darauf ausgelegt sind, Alkoholkonsum zu entdecken (DPA, 2007).
Führen Hypothesen und Erwartungen unter bestimmten Umständen dazu, dass Dinge wahrgenommen werden, die so nicht vorhanden sind, kann das Fehlen von Erwartungen dazu führen, dass man sich der Fähigkeit, überhaupt etwas wahrzunehmen, beraubt. Wenn keine entsprechenden Vorkehrungen getroffen werden (z. B. Alkoholtests), sagen fehlende Erkenntnisse (scheinbar keine alkoholisierten Astronauten) weniger über die Situation als über die mangelnde Fähigkeit des Wahrnehmenden aus.
4.3
Aufmerksamkeit
Die Kapazität der menschlichen Informationsverarbeitung ist beschränkt. Es können nicht beliebig viele Reize gleichzeitig verarbeitet werden. Dies trifft v. a. für die bewusste Informationsverarbeitung zu. Obwohl die unbewusste Informationsverarbeitung ungleich viel mehr Reize verarbeiten
69
4.3 • Aufmerksamkeit
kann, ist auch sie letztlich in ihren Ressourcen beschränkt (Spieß, 2002). > Aufmerksamkeit ist ein psychischer Zustand gesteigerter Wachheit und Aufnahmebereitschaft, bei dem das Bewusstsein auf bestimmte Objekte, Vorgänge, Gedanken ausgerichtet ist. Die Aufmerksamkeit kann willkürlich (z. B. durch Interessen) gelenkt oder unwillkürlich (passiv) durch Reize erregt werden (vgl. Davies, Matthews, Stammers & Westerman, 2000).
Um die beschränkte Verarbeitungskapazität der menschlichen Informationsverarbeitung im Allgemeinen und die der menschlichen Wahrnehmung im Besonderen sinnvoll zu nutzen, steuert der Prozess der Aufmerksamkeit die Ressourcen der Informationsverarbeitung auf (subjektiv) wichtige Aspekte. Dabei kann die Aufmerksamkeit die Ressourcen auf die Wahrnehmung 5 der Umwelt, 5 das Verhalten anderer Personen, 5 eigener Gedanken und Gefühle sowie 5 eigenen Verhaltens und Handelns legen. Daher selektiert der Prozess der Aufmerksamkeit die Informationen, die für den Organismus von Bedeutung sind und mit Informationsverarbeitungsressourcen versorgt werden müssen. Damit wird aber auch entschieden, welche Informationen, da nicht relevant, ausgeblendet werden (Broadbent, 1958; Davies, Matthews, Stammers & Westerman, 2000). Die Aufmerksamkeit besteht aus zwei Subprozessen: Orientierung (Hinwendung) und Selektion (Auswahl) der Teile einer Situation, die als (potenziell) bedeutsam eingeschätzt wurden. Erhöhte Wachheit und Aktivierung charakterisieren die Hinwendung, wohingegen die Auswahl als Filter wichtige von unwichtigen Informationen trennt. Die Bedeutsamkeit (Relevanz) der jeweiligen Reize wird insbesondere durch die individuellen Motivationen und Emotionen sowie die Kriterien Komplexität, Unbestimmtheit und Dynamik determiniert. Ebenso werden neuartige Reize mit einer Orientierungsreaktion bedacht (Anderson, 1996).
4
Um die beschränkte Kapazität der Wahrnehmung zu unterstützen, priorisieren technische Hilfssysteme zwischen wichtigen und nicht wichtigen Faktoren und führen damit eine A-prioriSteuerung der Aufmerksamkeit durch. Beispiel Am 12.07.2000 um 10.59 Uhr startet der Airbus A 310-304 mit acht Besatzungsmitgliedern und 142 Passagieren von Kreta mit dem Ziel Hannover. Nach dem Start wird angezeigt, dass sich das rechte Fahrwerk nicht einfahren lässt. Der Flugkapitän entscheidet weiterzufliegen, aber aufgrund des erhöhten Luftwiderstands nicht bis Hannover, sondern bis zum Ausweichflughafen München. Mithilfe des »flight management system« (FMS) wird festgestellt, dass der Treibstoff selbst bei erhöhtem Luftwiderstand, verursacht durch das nicht einfahrbare Fahrwerk, bis München reicht. Während des Fluges nehmen jedoch die Treibstoffvorräte schneller ab als vom FMS kalkuliert, deshalb wählen die Piloten den etwas näheren Ausweichflughafen Wien. Auch hierfür gibt das FMS an, dass der Treibstoff reicht, sodass andere Optionen von der Crew verworfen werden. Während des Landeanflugs auf WienSchwechat zeigt das FMS überraschend an, dass der Treibstoff nicht bis zum Aufsetzen reichen wird, also wird von der Crew eine Notlandung vorbereitet. Die letzten Kilometer bis zum Aufsetzpunkt segelt die Maschine mit ausgeschalteten Triebwerken. Die Notlandung gelingt, niemand wird ernstlich verletzt. Eine Überschlagsrechnung, zu der jeder Pilot in der Lage ist, hätte gezeigt (ohne FMS und Tankanzeigen), dass bei ausgefahrenen Fahrwerken der Treibstoffverbrauch rund doppelt so hoch ist und damit Wien oder gar München nicht zu erreichen wäre. Die Aufmerksamkeit der Piloten war aber fokussiert auf das offensichtlich fehlerhafte FMS, sodass es ihnen gar nicht in den Sinn kam, die Priorisierung und die Abarbeitung ihrer Aufgaben ohne technische Unterstützung durchzuführen (nach Bundesanstalt für Flugunfalluntersuchung, 2000; 7 Kap. 5).
Die Fokussierung der Wahrnehmung auf einzelne Objekte wird durch Ereignisse mit spezifischen Merkmalen verursacht. Insbesondere wenn kein
70
Kapitel 4 • Wahrnehmung, Aufmerksamkeit und »Situation Awareness« (SA)
. Tab. 4.1 führen
4
Reizmerkmale, die zu einer Aufmerksamkeitsfokussierung sowie zum Wechsel der Aufmerksamkeit
Aufmerksamkeitsfokussierung
Aufmerksamkeitswechsel
Veränderung physikalischer Reizmerkmale: Helligkeit, Bewegung, Wiederholung, Kontrast, Intensität
Keine Veränderung physikalischer Reizmerkmale (Sättigung)
Veränderung bzw. Unklarheiten in der Semantik: Inkongruenz, Neuheit, Komplexität
Abtasten einer Konfiguration, eines Objekts, einer Situation
Starke Veränderungen in der Motivationslage (bzw. deren Antizipation): z. B. Gefahr
Bewusstes Verarbeiten mehrerer gleichzeitiger Tätigkeiten (Timesharing; Springen der Aufmerksamkeit)
Automatismus, kein eindeutiges Reaktionsmuster für einen Reiz existiert, wird eine bewusste Informationsverarbeitung notwendig und damit erfolgt eine Aufmerksamkeitsfokussierung. Bestimmte Reizmerkmale (z. B. Komplexität, Neuartigkeit) führen zu einem Aufmerksamkeitswechsel und zu einer Orientierungsreaktion (Broadbent, 1971; Hobfoll & Buchwald, 2004) mit Einhergehen von Reaktionen zur Verbesserung der Reizaufnahme (Erweitern der Pupillen, Heben der Augenbrauen, Drehen des Kopfes) wie auch zu einer allgemeinen Erhöhung der Reaktionsbereitschaft (Aktivitätserhöhung, erhöhter Herzschlag, erhöhtes Herzvolumen, erhöhter HGR, erhöhter Muskeltonus). Aufmerksamkeitsbestimmende Reizmerkmale, die zu einer Aufmerksamkeitsfokussierung sowie zum Wechsel der Aufmerksamkeit führen können, sind in . Tab. 4.1 dargestellt. Die Menge der Objekte, die mit einem Blick, d. h. in etwa 200 ms wahrgenommen werden kann, wird als Umfang der Aufmerksamkeit definiert. Beim Erwachsenen sind das 6–12, im Mittel 7 Objekte, bei Kindern weniger. In diesem Kontext wird häufig die sog. »magical number seven« (Miller, 1956) genannt: Es können nur ca. 7±2 Elemente gleichzeitig bewusst verarbeitet werden. Hierbei scheint es eine kulturell überformbare Komponente zu geben, so zeigen Lass, Yunqiu, Guopeng, Becker & Lüer (1999) beispielsweise, dass die Gedächtnisspanne von Chinesen höher ist als die von Deutschen. Dabei hängt der Aufmerksamkeitsumfang ab von folgenden Kriterien: 5 Art der wahrzunehmenden Gegenstände,
5 Bekanntheit der Gegenstände, 5 Beleuchtungsintensität auf den Gegenständen, 5 Kontrast, unter dem die Gegenstände erkennbar sind und 5 subjektive, emotionale Bewertung der Objekte durch den Betrachter. Aktuelle Theorien der Aufmerksamkeit nehmen Filter und Selektionsprozesse im Wahrneh-
mungssystem an, die die Aufmerksamkeit fokussieren. Dabei können zwei theoretische Erklärungsansätze unterschieden werden: Filtertheorien und Theorien der begrenzten Ressourcen. 5 Filtertheorien (Flaschenhals) gehen davon aus, dass das Informationsverarbeitungssystem begrenzende Strukturen hat. Frühe Selektion: Die Entscheidung über relevant und irrelevant wird vor einer Bedeutungserkennung getroffen (Broadbent, 1958). Späte Selektion: Die Informationen werden vorverarbeitet und erst nach der Bedeutungserkennung in relevant bzw. irrelevant gefiltert (Norman, 1968). 5 Theorien der begrenzten Ressourcen nehmen an, dass die Aufmerksamkeit durch die verfügbaren kognitiven Ressourcen eingeschränkt wird. »Single pool«: Es gibt nur einen einzigen Pool (Vorrat) für Ressourcen für Aufmerksamkeit. Wenn dieser Pool erschöpft ist, bricht die Aufmerksamkeitsleistung zusammen (Kahneman, 1973). Multiple Ressource: Die Aufmerksamkeit nutzt verschiedene kognitive Ressourcen für verschiedene Aufgaben gleichzeitig. Störungen treten nur dann auf, wenn die gleiche Ressource von zwei Aufmerksam-
71
4.4 • »Situation Awareness« (SA)
keitsteilprozessen gleichzeitig angesprochen wird (Navon & Gopher, 1979). Beispiel Bekannt in diesem Zusammenhang ist das Cocktailparty-Phänomen (Cherry, 1953): Wird auf einer Party der eigene Name während einer Unterhaltung, an der man nicht beteiligt ist, genannt, zieht dieses Gespräch automatisch die Aufmerksamkeit auf sich.
Offensichtlich werden auch vordergründig gefilterte Reize unbewusst wahrgenommen und verarbeitet. Bei Erkennen von Relevanz (z. B. eigener Name) wird der Reiz bewusst, eben dadurch, dass die Aufmerksamkeit darauf ausgerichtet wird. Filtertheorien nehmen hier eine Anpassung der Filterkriterien an; Theorien der begrenzten Ressourcen gehen von einer Repriorisierung der Ressourcenzuteilung aus. Während das Cocktailparty-Phänomen auf semantischer Ebene funktioniert, setzt der Popout-Effekt auf syntaktischer Ebene an (Treisman & Gelade, 1980): Aus einer Gruppe gleichförmiger Objekte (z. B. geometrische Figuren: Dreiecke) fällt ein andersartiges Objekt (z. B. Kreis) sofort auf. Dieser Effekt ist bis zu einer gewissen Komplexität und Ähnlichkeit der Objekte trainierbar. Je nach Umfeld, Situationsentwicklung, Erwartung oder Motivation können relevante »herausspringende« Objekte, Wörter oder Reize ganz unterschiedlich sein: Schnitzel für den Hungrigen, Feuer für den Feuerwehrmann oder Gewalt für den Polizisten (Friederici, 1999; 7 Kap. 6). Der Prozess der hypothesengeleiteten Wahrnehmung in der Bamberger PSI-Theorie von Dörner und Mitarbeitern (Dörner, 1989, 1999), der sog. HYPERCEPT-Prozess (HYPothesengeleitete PERCEPTion), beschreibt Aufmerksamkeit als das kontinuierliche Erzeugen und Überprüfen von Hypothesen über die Wahrnehmungssituation (Erwartungsbildung). Aufgabe dieses Prozesses ist es, ständig ein Bild der augenblicklichen Umgebungssituation zu erzeugen und das erzeugte Situationsbild in einen Erwartungshorizont einzubauen. Die Erzeugung eines Erwartungshorizonts ist notwendig, um eine Basis für die Kontrolle der Entwicklung der Umgebung zu bieten. Ein Individuum
4
richtet in der Regel nicht seine ganze Aufmerksamkeit auf die aktuell auszuführende Tätigkeit, sondern es betreibt zusätzlich Hintergrundkontrolle. Dazu werden die im Erwartungshorizont eingetragenen möglichen Entwicklungen der Umwelt mit der tatsächlich eingetretenen Situation verglichen. Durch eine Integration von Ereignissen und Objekten hin zu einem konsistenten Bild wird subjektiv Unsicherheit reduziert, mit der Gefahr von Fehlinterpretationen. Die Aufmerksamkeit der Ariane-Experten wurde von einer Vielzahl von Problemen und Anforderungen der neuen Rakete in Anspruch genommen. Das Programmteil Navigationsmodul war niedrig priorisiert, da es (vermeintlich) schon bei dem Vorgängermodell gelöst worden war und für die neue Entwicklung auch gar nicht benötigt wurde. Daraus folgte, dass dieser Aspekt nicht mehr in den Aufmerksamkeitsfokus der Ingenieure gelangte.
4.4
»Situation Awareness« (SA)
James (1890) unterscheidet zwischen Sinnesempfindung und Wahrnehmung, wobei die Wahrnehmung Faktoren der Erfahrung mit der Sinnesempfindung verbindet. Wahrnehmen heißt, so James, dass man nicht nur die Existenz und die basalen Eigenschaften eines Objekts in der Welt erfährt, sondern einen Bezug des Objekts zu dem Selbst, v. a. zu den eigenen Bedürfnissen, herstellt. Dies bildet die Grundlage dafür, was James »personal consciousness« (persönliche Bewusstheit) nennt. Er charakterisiert »personal consciousness« u. a. durch die Fähigkeit zur Auswahl, zur selektiven Aufmerksamkeit und durch »span of consciousness« (Aufmerksamkeitsspanne). James’ kognitiver Zugang geriet durch die Phase des Behaviorismus in der Psychologie Anfang des 20. Jahrhunderts in Vergessenheit und wurde erst durch Autoren wie z. B. Cherry (1953) wieder aufgegriffen. In James’ Konzeptionalisierung der Wahrnehmung sind Aufmerksamkeit und Bewusstsein eng verbunden. Die Thematik Aufmerksamkeit und Bewusstsein wird unter den Perspektiven Sicherheit, Konstruktion und Organisation in jüngerer Zeit unter dem Stichwort »situation(al) awareness« (SA) sowohl als theoretischer Hintergrund wie auch als
72
4
Kapitel 4 • Wahrnehmung, Aufmerksamkeit und »Situation Awareness« (SA)
anwendungsorientiertes Konzept im Kontext komplexer Arbeitswelten untersucht. Die ersten Forschungsarbeiten zu SA wurden im militärisch-fliegerischen Kontext durchgeführt, z. B. von Bartlett (1937) oder Craik (1947, 1948) sowie von einem der Väter der Ergonomie: Alphonse Chapanis (1970, 1996). Obschon der Begriff »situation awareness« relativ jung ist, geht das Konzept zurück auf Ansätze aus dem militärisch-strategischen Denken z. B. von Sun Tzu etwa 500 v. Chr. (1988). Der Begriff wurde in neuerer Zeit geprägt, um das spezifische Denken und Handeln von Piloten der United States Air Force (USAF) in Kampfeinsätzen im Korea- und Vietnamkrieg unter einem Begriff zusammenzufassen (Spick, 1989; Watts, 1996). Die Annahme war, dass man eine bessere SA als der Gegner haben müsse, um dessen Bewegungen und Entscheidungen vorherzusehen. In den 1990er-Jahren wurde der Begriff »SA« von der Human-Factors-Gemeinde breit aufgenommen. Besondere Verbreitung hat das SA-Modell von Endsley (1995b) gefunden.
4.4.1
SA-Modell von Endsley
Endsley (1995b) versteht SA als Teil der Informationsverarbeitung und integriert darin Wahrnehmung, Aufmerksamkeit und Gedächtnis. Die Kernannahmen des Modells sind: 5 SA ist eine durch die Kapazität von Aufmerksamkeit und Arbeitsgedächtnis begrenzte Ressource. 5 Schemata und mentale Modelle des Langzeitgedächtnisses unterstützen die Integration verschiedener Informationen. Diese unterstützen das Verständnis der Informationen als auch die Möglichkeit der Prognose selbst bei lückenhafter und ungewisser Information. 5 SA unterliegt dem Einfluss von Zielen und Erwartungen der Person, die die Aufmerksamkeit, die Wahrnehmung und Interpretation der Information steuern. Endsley (1995b) verwendet SA synonym zu »Situationsmodell« und beschreibt SA als einen Wissenszustand. Ausgehend von ihrer Definition von SA unterscheidet sie drei Ebenen:
1. Die Objekte in der Umgebung werden wahrgenommen. Diese Ebene beinhaltet die Wahrnehmung des Zustands, der Merkmale und der Dynamik der relevanten Situationselemente. 2. Die Bedeutung der Situationselemente wird verstanden. Diese Ebene beschreibt die Integration der verschiedenen Situationselemente zu einem ganzheitlichen Bild der augenblicklichen Situation. Diese Integration führt zu einem Verstehen der Bedeutung der einzelnen Situationselemente. 3. Die Veränderungen in der Umgebung und der zukünftige Zustand der Objekte werden für eine bestimmte Zeitspanne vorhergesagt. Diese Ebene beinhaltet die Generierung von Annahmen über das zukünftige Verhalten der Situationselemente, das auf der Basis des in der zweiten Ebene erreichten Verstehens der Situation geschieht.
» Situation Awareness is the perception of the elements in the environment within a span of time and space, the comprehension of their meaning and the projection of their status in the near future. (Endsley, 1995b, S. 36)
«
In . Abb. 4.3 ist das SA-Modell in Beziehung zu anderen Ansätzen dargestellt, und zwar zum Modell der Absichtsregulation von Dörner (z. B. Dörner, 1989; Schaub, 1997), zum sog. OODA-Loop, das durch Boyd (1996) in den amerikanischen militärischen Führungsprozess eingeführt wurde, und zum »deutschen« Führungsprozess, wie er bei Feuerwehr, THW und Bundeswehr Anwendung findet (vgl. Mitschke, 1997). Alle diese Ansätze beschreiben Phasen komplexer Handlungen, am umfassendsten das Dörner-Modell. Die Phasen der SA (Wahrnehmung – Verständnis – Projektion) beziehen sich im Handlungsprozess v. a. auf die frühen Phasen der Informationsverarbeitung, jedoch führt Endsley (1995b) auch die Beziehung dieser Phasen zu anderen Aspekten psychologischer und sozialer Komponenten einer Situation (Ziele, Entscheidungen, Fähigkeiten u. a.) aus. Endsley greift dabei unterschiedliche Perspektiven aus den Bereichen »Handlungstheorie« (Hacker, 1986), »natural decision making« (Klein, 1997; Orasanu & Salas, 1993) und »Komplexes Problemlösen« (Dörner, 1989;
73
4.4 • »Situation Awareness« (SA)
Modell der Absichtsregulation Dietrich Dörner
OODA-Loop John Boyd
Führungsprozesse Feuerwehr, THW, Bundeswehr
4
Situational Awareness Mika Endsley
Absichtsauswahl Zielausarbeitung Informationssammlung
Observe
Lagefeststellung Wahrnehmung
Modellbildung Verständnis Prognose / Extrapolation
Orient
Planung Projektion
Planen Entscheiden
Decide
Handlungsdurchführung
Act
Befehlsgebung
Effektkontrolle
Kontrolle
(Selbst-) Reflexion Selbstmodifikation
. Abb. 4.3
Modell der »situation awareness« im Vergleich zu anderen Phasenmodellen
Funke, 2003; Schaub 2009a) auf und integriert diese (7 Kap. 5). In Endsleys Modell der SA steht die Interaktion zwischen Person und Umwelt im Mittelpunkt. Dargestellt werden die höheren kognitiven Funktionen des Operateurs bzw. Entscheiders als die drei Ebenen von SA (Wahrnehmung, Verständnis, Projektion), welche als Prozesse der Entscheidung vorausgehen und dann in Handlungen umgesetzt werden. Beeinflusst werden diese zentralen Prozesse aus zwei Richtungen: von Person- und Umweltfaktoren. Basale kognitive Ressourcen wie Mechanismen der Informationsverarbeitung sowie Langzeitgedächtnis und Automatisierung nehmen Einfluss auf komplexere Teilprozesse wie Ziele, Erwartungen und Hypothesen. An vier Stellen in dem SA-Modell von Endsley kann man potenzielle Quellen für Denk- und Entscheidungsfehler identifizieren:
1. Einfluss von Fähigkeiten, Erfahrung und Training auf die Mechanismen der Informationsverarbeitung; 5 potenzielle Fehler durch falsche Personalauswahl oder unzureichende bzw. falsche Ausbildung. 2. Einfluss der Mechanismen der Informationsverarbeitung auf Ziele, Erwartungen und Hypothesen; 5 potenzielle Fehler durch falsche Vorverarbeitung der Information, falsche Rahmen- oder Perspektivensetzungen. 3. Einfluss der Mechanismen der Informationsverarbeitung auf SA, Entscheidung und Handlung; 5 potenzielle Fehler durch Überlastung, zu hohes »workload«, Komplexitätsreduktion. 4. Einfluss der Systemanforderungen auf SA, Entscheidung und Handlung; 5 potenzielle Fehler durch Konstruktions-, Management- und Organisationsdefizite.
74
Kapitel 4 • Wahrnehmung, Aufmerksamkeit und »Situation Awareness« (SA)
Beispiel
4
Ein Operateur arbeitet in einer Leitwarte. Diese Warte ist Teil der Aufgaben des Operateurs und repräsentiert im Sinne von Endsley den Zustand der Umwelt. Sieht der Operateur den Zustand eines Anzeigeinstruments, hat er ein Element der gegenwärtigen Situation wahrgenommen (Ebene 1). Begreift er die Anzeige als gefährlich, dann hat er die Situation verstanden (Ebene 2). Ist der Operateur darüber hinaus in der Lage abzuschätzen, wie sich der durch das Anzeigeinstrument indizierte Prozess weiter in der Zeit verhalten wird, hat er die zukünftige Entwicklung der Situation projiziert (Ebene 3). Dies führt zu einer Entscheidung unter Berücksichtigung der verschiedenen Systemfaktoren sowie der individuellen Faktoren. Beispielsweise kann der Operateur entscheiden, dass er den Zustand eines Ventils ändert. Er übersetzt diese Entscheidung in eine Handlung (z. B. Drehen an einem Stellrad) und erzeugt daraufhin ein Handlungsresultat, das den Zustand der Umwelt ändert. Der Zustand des Anzeigeinstruments mag sich daraufhin ebenfalls ändern, der Prozess beginnt von Neuem.
Mit dem SA-Modell von Endsley können die Vorgänge, die bedeutsam für den Ariane-Absturz waren, gut beschrieben werden: Der Wahrnehmung der Situation fehlten wichtige Aspekte (z. B. höhere Beschleunigung der A 5). Es wurden die Beziehungen zwischen verschiedenen Wahrnehmungselementen nicht richtig interpretiert (z. B. Auswirkungen der Beschleunigung auf das Navigationsmodul) und schließlich wurde eine zu einfache Prognose gestellt: Das Modul würde sich in Zukunft genauso verhalten wie in der Vergangenheit.
4.4.2
»Shared Situation Awareness«
An vielen Arbeitsplätzen arbeiten mehrere Personen zusammen, entweder »face-to-face« oder medial vermittelt. Zum Beispiel arbeiten an einem Fluglotsenarbeitsplatz der Streckenflugkontrolle zwei Lotsen oder Lotsinnen, der Radarlotse und der Koordinationslotse. Sie müssen ihre Arbeit untereinander abstimmen. In solchen Situationen gemeinsamer Aufgabenbewältigung spielt geteiltes
Situationsbewusstsein (»shared situation awareness«) eine zentrale Rolle (7 Kap. 7, 8). Artman & Garbis (1998) definieren »team SA« als »Two or more agents’ active construction of a situation model which is partly shared and partly distributed and from which they can anticipate important future states in the near future«. »Shared SA« hingegen kann definiert werden als »the degree to which team members possess the same SA on shared SA requirements« (Endsley, 1995b). »Shared situation awareness« bezieht sich auf die Fähigkeit eines Teams, seine Handlungen zu koordinieren und sich an neue Situationen anzupassen (s. dazu auch »shared mental models«: Orasanu, 1990; Orasanu & Salas 1993; Badke-Schaub, Neumann, Lauche & Mohammed, 2007). »Shared situation awareness« erlaubt es Teams, einheitlich zu handeln, ohne dies jeweils explizit steuern zu müssen. Informationsaustausch und Aktualisierung gemeinsamer Annahmen werden reduziert und damit (im Normalfall) effizienter. Unterschiedliche Aspekte können unter »shared situation awareness« im Team geteilt werden. Zum einen ist dies der Aspekt des gleichen Situationsbewusstseins. Jedes Teammitglied hat ein gleiches Lagebild: gleiche Wahrnehmung, gleiches Verständnis, gleiche Prognosen. »Shared situation awareness« bezeichnet aber auch die arbeitsteilige Differenzierung des Situationsbewusstseins, d. h., jedes Teammitglied hat nur den für seinen Bereich wichtigen Teil eines Situationsbildes. In der Kombination aller Situationsbilder ergibt sich dann ein Gesamtbild. »Shared« meint bei dieser Sichtweise v. a. verteiltes Situationsbewusstsein. Je komplexer die soziotechnischen Organisationen werden, in denen Menschen entscheiden und handeln, desto schwieriger wird es, »shared situation awareness« herzustellen. Denn eine Vielzahl technischer Daten und Informationen gehen in das Lagebild ein. Betrachtet man beispielsweise das Cockpit eines modernen Verkehrsflugzeuges oder die Leitstelle eines Kraftwerkes, dann liegt eine fast unüberschaubare Menge an Informationen vor, die potenziell bedeutsam sein können und somit Teil der »situation awareness« und v. a. der »shared situation awareness« sein müssen. Hinzu kommen Informationen, die aufgrund geografischer Verteilung von Personen über unterschiedliche Kanäle
75
4.5 • Störungen der Wahrnehmung
und mit unterschiedlichem Fachhintergrund bei den Handelnden ankommen. So muss eine Cockpitbesatzung mit den Fluglotsen unterschiedlicher Nationalitäten, ggf. mit dem Management der eigenen Fluglinie, evtl. mit technischen Experten, mit der Kabinenbesatzung und je nach Fluglage auch mit den Besatzungen anderer Maschinen kommunizieren und daraus ein an die jeweilige Situation angepasstes Situationsbewusstsein entwickeln. Obschon in der Literatur nicht klar definiert und unterschiedlich gebraucht, ist es sinnvoll, »team situation awareness« als Teil von »shared situation awareness« zu verstehen, und zwar dann, wenn sich »sharedness« auf Aspekte des Teams und nicht auf Aspekte der Aufgabe bezieht. Beispiel Ein mit vier Fluggästen und einem Piloten besetztes Flugzeug (NEW PIPER/PA-34-220T) befand sich am 25.01.2001 auf dem Rückflug von Biggin Hill in England nach Augsburg. Geplant war ein nächtlicher Anflug mit dem Instrumentenlandesystem (ILS), da keine visuelle Sicht bestand. Die Kursänderung der Maschine brachte diese aber nicht auf den ILS-Kurs und das Flugzeug stürzte im hügeligen Gelände neben der Landebahn ab. Dabei kamen drei Fluggäste und der Pilot ums Leben. Die Untersuchung kam zu dem Ergebnis, dass der Unfall u. a. darauf zurückzuführen ist, dass das Lotsenteam im Center München in dieser nicht alltäglichen Situation die Sachlage (Kursabweichung vom eigentlich angestrebten Instrumentenlandekurs) nicht adäquat einschätzte und der Pilot nach einem langen Arbeitstag durch die hohe Arbeitsbelastung während des Anflugs sich nicht auf die veränderte Anflugart (Reiseflug zu ILS-Anflug) eingestellt hatte und deshalb nicht erkannte, dass er vom ILS keine Fluginformationen erhielt. Weder die Lotsen noch der Pilot hatten eine ausreichende »situation awareness«. Die beteiligten Personen und Verkehrskontrollstellen glichen die Kursabweichung untereinander nicht ab, sodass zum einen die unterschiedlichen Einschätzungen (verschiedene SA) nicht auffielen und zum anderen dadurch auch keine gemeinsame Einschätzung (»shared situation awareness«) entstand (Bundesstelle für Flugunfalluntersuchung, 2002).
4
Mit »shared situation awareness« kann also das Ausmaß bezeichnet werden, mit dem jedes Teammitglied die »situation awareness« aufweist, die es für die Durchführung seiner Handlungen im Team benötigt, oder die »situation awareness« über Strukturen und Prozesse des Teams selbst. Die notwendige Informationsübertragung, der Prozess, um die erforderliche SA zu erlangen, kann auf unterschiedliche Arten erfolgen. Beispielsweise ist ein verbaler Austausch oder eine separate Aufnahme von Daten aus der Aufgabenumgebung jedes einzelnen Teammitglieds möglich. Die Ebenen 2 und 3 im Modell von Endsley (Verständnis und Antizipation einer Situation) werden in einem Team entweder direkt kommuniziert oder bei Vorliegen gemeinsamer mentaler Modelle auch ohne direkte Kommunikation hergestellt. Methoden und Studien zur Messung von »shared« bzw. »team situation awareness« sind bisher eher selten (vgl. Kaber & Endsley, 1998; Boudes & Cellier, 1998; Eyferth & Jungermann, 1998; Gorman, Cooke & Winner, 2006; Stanton et al., 2006; Bierhals, Schuster, Kohler & Badke-Schaub, 2007; Endsley, 2011). Den Ariane-Experten gelang es zwar, rasch ein gemeinsames Lagebild aufzubauen, aber dieses war in Teilen falsch. Es ist nicht bekannt, ob tatsächlich alle Ingenieure das gleiche (falsche) Lagebild hatten oder ob an dieser Stelle Mechanismen der Selbstzensur, wie man sie z. B. aus dem Kontext Gruppendenken (»groupthink«; Janis, 1972; 7 Kap. 7) kennt, oder organisationelle Verantwortungsdiffusion (vgl. dazu z. B. die Challengerkatastrophe; Reason, 1990) dazu führten, dass die Abweichungen in den Lagebildern der Beteiligten nicht erkannt wurden.
4.5
Störungen der Wahrnehmung
Ohne funktionierende Wahrnehmung ist ein Erkennen, Erleben und Handeln unmöglich. Sowohl unsere Kenntnisse über die soziale und physikalische Welt als auch unser Wissen über unseren eigenen Körper sind Resultat von Wahrnehmungsvorgängen (Goldstein, 2002). Dies wird bei Handlungen und Arbeitstätigkeiten häufig erst bewusst, wenn die Wahrnehmung gestört ist oder ganz aussetzt (vgl. auch Schaub, 2006; 2009b).
76
Kapitel 4 • Wahrnehmung, Aufmerksamkeit und »Situation Awareness« (SA)
Beispiel
4
Auf der Suche nach einer Jagdtrophäe hatte ein 73-jähriger Jäger einen Soldaten in der Dunkelheit mit einem Fuchs verwechselt und den Soldaten, der aus seiner Stellung in einem Graben kletterte, angeschossen. Der Jäger hat den Soldaten vermutlich deswegen verwechselt, weil er auf der Jagd Wild suchte und der Soldat sich sehr niedrig am Boden kriechend bewegte. Altersbedingte Wahrnehmungseinschränkungen, die Erwartung und die »fuchstypische« Bewegungshöhe führten zu dem Wahrnehmungsfehler (FOCUS Online, 2007).
Die Gründe, warum etwas übersehen oder generell nicht wahrgenommen wird, lassen sich dauerhaften und situativen Ursachen zuordnen. Pathologische (dauerhafte) Wahrnehmungsstörungen finden sich bei allen Sinnesmodalitäten, sowohl peripher (an den Sinnesorganen) als auch zentral (in kortikalen Strukturen). Beispielsweise sind die häufigsten zentralen Sehstörungen homonyme Gesichtsfeldausfälle (Anopsien), die zu beidäugigen Beeinträchtigungen führen, z. B. durch die massive Einschränkung des Gesichtsfelds mit Folgen auf der Verhaltensebene wie z. B. Übersehen von Gegenständen oder Kollision mit Hindernissen. Eine nicht unerhebliche Zahl von Personen (v. a. Männer wegen einer geschlechtsgebundenen genetischen Komponente) sind für bestimmte Farben farbenblind, z. B. Rotblindheit (Protanopie, ca. 2% der Männer), Grünblindheit (Deuteranopie, ca. 5% der Männer, 0,4% der Frauen), Blaublindheit (Tritanopie, ca. 0,003% der Männer und Frauen) oder totale Farbenblindheit (Monochromasie, ca. 0,005% der Männer und Frauen). Studien (z. B. Bosten, Robinson & Mollon, 2005) haben belegt, dass Farbfehlsichtige eine größere Anzahl von Khakitönen unterscheiden können als Normalsichtige. Dieses Phänomen wird z. B. beim Militär genutzt, da Farbfehlsichtige sich nicht so leicht von Tarnfarben täuschen lassen und daher einen getarnten Soldaten im Wald leichter erspähen als Normalsichtige. Dies liegt zum einen am oben genannten Phänomen, zum anderen daran, dass Farbfehlsichtige im Laufe ihres Lebens gelernt haben, sich eher auf Formen und Konturen zu konzentrieren als auf Farben.
Im Bereich der pathologischen auditiven Wahrnehmungsstörungen findet sich z. B. der Tinnitus, der zu einer Wahrnehmung von Tönen oder Geräuschen führt, ohne dass tatsächlich entsprechende externe Reize vorliegen. Pathologische Wahrnehmungsstörungen können für den Einzelnen zu massiven Einschränkungen seines privaten und beruflichen Lebens führen. Im Kontext von Risiko- und Sicherheitsüberlegungen sind sie jedoch relativ unproblematisch, da sie aufgrund der habituellen Konstanz gut diagnostizierbar sind. Anders die aktualgenetischen (situativen) Wahrnehmungsstörungen, die in der Regel nur beim Zusammentreffen auslösender situativer Bedingungen, häufig in Kombination mit bestimmten Handlungen, auftreten und damit eine Diagnose bzw. Prognose für Sicherheitsmaßnahmen erschweren. Beispiel Zur Kapazitätserhöhung des Flughafens Sydney (Kingsford Smith) wurden zwei sich kreuzende Landebahnen gebaut. Am 12.08.1991 bemerkt der Pilot beim Aufsetzen seiner DC-10, dass der Umkehrschub inaktiv ist und die automatische Bremse versagt, sodass das Flugzeug nicht vor der Kreuzung der beiden Landebahnen zum Stehen kommen wird. Der Kapitän sieht, dass ein Airbus A320 die Landebahn bereits anfliegt, und versucht deshalb, die DC-10 wieder steigen zu lassen, ist aber so auf die andere Maschine fixiert, dass er seine Absicht dem Kopiloten nicht mitteilt. Der Kopilot sieht die andere Maschine nicht und wundert sich deshalb über das plötzliche Steigen der Maschine und drückt dagegen; er ist auf die Landebahn fixiert und sieht nur, was vor ihm passiert, aber nicht, was am Rand des Sehfeldes geschieht. Keiner von beiden betätigt deshalb den Prioritätenschalter, um die Steuerung der Maschine zu übernehmen. Daher heben sich die Wirkungen auf, sodass die Maschine weiter geradeaus fliegt. Die richtige Handlung des Piloten wird nicht umgesetzt, da er in seiner Wahrnehmung der Störung so gefangen ist, dass er seine Absicht nicht kommuniziert. Die DC-10 und der A320 verfehlen sich um knapp 10 m (Australian Bureau of Air Safety, 1991).
4.5 • Störungen der Wahrnehmung
So können z. B. Handlungskonflikte, wie im obigen Beispiel, zu Wahrnehmungsverzerrungen hinsichtlich der Bestätigung der eigenen Meinung führen. »Bestätigungstendenz« (»confirmation bias«) bezeichnet die Neigung, einmal getroffene Annahmen durch eine einseitige Informationssuche und Wahrnehmung von verifizierenden Sachverhalten zu bestätigen (Reason, 1990, 1997; Evans, 1990; Tversky & Kahneman, 1974). Vor allem durch die Arbeiten von Tversky & Kahneman (2005) wurde auf die Bedeutung von Wahrnehmungs- und Urteilsverzerrungen hingewiesen, die durch die Eigenschaften der menschlichen Informationsverarbeitung bedingt sind (7 Kap. 3). Besonders bedeutsam ist hierbei die fehlerhafte Wahrnehmung der Häufigkeit von Ereignissen und der daraus folgenden Fehleinschätzung von Wahrscheinlichkeiten, z. B. Basisratenvernachlässigung bzw. »base-rate fallacy«, (Kahneman & Tversky, 1973; Bar-Hillel, 1980). 5 Die Basisratenvernachlässigung spielt z. B. eine große Rolle bei der Wahrnehmung und Bewertung von Analyse- und Testergebnissen. Urteilsheuristiken spielen eine wichtige Rolle, um fehlende, nicht wahrnehmbare Informationen zu ergänzen oder zu ersetzen. 5 Die Verfügbarkeitsheuristik wird genutzt, wenn die Wichtigkeit oder Häufigkeit eines Ereignisses beurteilt werden muss, aber gleichzeitig keine präzisen Informationen vorhanden sind. Das Urteil wird dann davon beeinflusst, wie (subjektiv) verfügbar dieses Ereignis oder Beispiele ähnlicher Ereignisse im Gedächtnis sind. Ereignisse, die leicht erinnerbar sind, werden als wahrscheinlicher bzw. häufiger bewertet als Ereignisse, die schwer erinnerbar sind. Diese Heuristik wird, wie alle Urteilsheuristiken, in der Regel unbewusst eingesetzt. 5 Durch die Repräsentativitätsheuristik wird ein Ereignis oder Objekt (z. B. eine Person) umso eher einem Typ zu geordnet, je ähnlicher das Ereignis oder Objekt einem typischen Vertreter dieses Typs ist. 5 Bei der illusorischen Korrelation nehmen Personen Zusammenhänge zwischen unabhängigen Ereignissen war, die objektiv nicht vorhanden sind. Die Wahrnehmung illusorischer Zusammenhänge wird häufig durch die
77
4
Salienz (Sinnfälligkeit) bestimmter Ereignisse
erzeugt, die unabhängig von ihrer objektiven Häufigkeit ist. Flugzeugabstürze mit vielen Toten sind salienter (da in der Presse dokumentiert) als normale Flüge, deshalb erscheint Fliegen gefährlicher, als es tatsächlich ist. 5 Die Anker- und Anpassungsheuristik bezeichnet die Orientierung eines Urteils oder einer Wahrnehmung an einem beliebigen (willkürlichen) Ankerreiz. Die Folge ist eine systematische Verzerrung der Eigenschaften des Objekts in Richtung des Ankers. Wird tagtäglich über Dutzende von Opfern in einer Krisenregion berichtet, erscheint ein Toter wenig und die Situation wird als Entspannung und Verbesserung der Lage interpretiert. Dabei ist unter den Bedingungen von Unbestimmtheit und Komplexität die Tendenz der Wahrnehmung, Informationslücken durch konsistenzerzeugende Annahmen und Interpretationen zu schließen, besonders ausgeprägt (Tversky & Kahneman, 2005). Verstärkt werden Wahrnehmungsstörungen durch Müdigkeit, Drogen und Stress, die v. a. die Kapazität von Wahrnehmung und Aufmerksamkeit verändern. Obwohl meist eine Reduktion der Kapazität stattfindet, kann unter spezifischen Bedingungen auch eine zeitweise Verbesserung der Wahrnehmung bzw. Aufmerksamkeit eintreten. Dies wird beispielsweise von den Bewusstsein erweiternden Eigenschaften von LSD behauptet; aber auch der Konsum von Drogen nach temporärem Drogenentzug führt zu einer relativen Verbesserung der Verarbeitungskapazität. Typische Beispiele sind Nikotin und Koffein, die nach Einnahme subjektiv zu einer verbesserten Aufmerksamkeit führen. Aufmerksamkeitsprozesse unterliegen einer neurochemischen Modulation; stimulierende Faktoren wie Koffein scheinen die Aufmerksamkeit vorübergehend zu erhöhen; Drogen wie LSD vermindern die selektive Aufmerksamkeit, manche Neuropeptide können die Aufmerksamkeitsreaktion ganz unterbinden (Cohen, 1993). Stress ist eine Anpassungsreaktion auf eine Überlastung des physiologischen bzw. psychologischen Systems (7 Kap. 6). Die Anpassungsreaktion besteht darin, kurzfristig die Reaktionsfähigkeit
78
4
Kapitel 4 • Wahrnehmung, Aufmerksamkeit und »Situation Awareness« (SA)
des Individuums auf Belastungen zu verbessern bzw. bei langfristigen Belastungen deren Einfluss zu kompensieren. Die kurzfristige Verbesserung der Reaktionsfähigkeit besteht u. a. in der Verbesserung und Fokussierung der Wahrnehmung und Aufmerksamkeit, und zwar in einer Weise, die hauptsächlich darin besteht, dass Unwesentliches verstärkt ausgeblendet wird, und damit die Kapazität für das aktuell Wichtige besonders erhöht wird. Stress führt also kurzfristig zu einer besonders pointierten Schwerpunktbildung durch fokussierte Aufmerksamkeit (Hobfoll & Buchwald, 2004; Selye, 1953; Dörner & Pfeiffer, 1992). Aber Wahrnehmungsstörungen finden nicht nur auf der individuellen Ebene statt, sondern sind auch (z. T. gewollte) soziale Konstruktionen. Beispiel Die Panne im Kernkraftwerk Krümmel am 28.06.2007 hat besonders große Beachtung in der Öffentlichkeit gefunden. Laut einem Bericht im Spiegel vom 22.10.2007 habe die Rekonstruktion der Vorgänge gezeigt, dass viele Beteiligte, auch die Aufsichtsbehörden, falsches Spiel getrieben haben. »Was genau am 28. Juni geschah, lässt sich inzwischen präzise rekonstruieren. Tatsächlich ist der Störfall auch ein Lehrstück über die Manipulation von Meinung, über Opportunismus und die Versuchung, mit Ängsten Politik zu machen. Zu besichtigen sind in den Hauptrollen eine für die Atomaufsicht zuständige Landesministerin, ein Bundesumweltminister und ein Unternehmen, das die Öffentlichkeit zu lange als Gegner betrachtet hat.« So wurde beispielsweise von verschiedenen Seiten die Schwere des Störfalls betont und u. a. von Verletzten durch den Brand berichtet. Tatsächlich, so der Spiegel, hatte sich am Morgen des 28. Juni, Stunden vor dem Störfall, ein Schlosser bei Bohrarbeiten einen Finger verletzt. Der zweite Verletzte an diesem Tag war ein Monteur, der über einen Insektenstich klagte (Der Spiegel, 2007).
Über die unbewussten Wahrnehmungsstörungen der Akteure hinaus versuchte im Interessenschnittfeld zwischen Klimaproblematik, Kraftwerkbetreibern und Umweltschützern jeder der Beteiligten, die Wahrnehmung der Öffentlichkeit in Sinne der jeweiligen Partikularinteressen zu manipulieren.
4.6
Zusammenfassung
Wahrnehmung ist ein komplexer Prozess der Informationsverarbeitung und wird von zwei Arten von Prozessen gesteuert: Zum einen »bottom-up«, von den verschiedenen Sinnesrezeptoren zu den zentralen Verarbeitungsstationen bis hin zur bewussten Wahrnehmung, zum anderen »top-down«. Zentrale Prozesse wie Motive und Erwartungen bestimmen mit, was wie wahrgenommen wird. Menschen verfügen über eine Vielzahl von Wahrnehmungskanälen: Neben den klassischen fünf Sinnen (Sehen, Hören, Riechen, Schmecken und Tasten) existieren weitere Sensoren für Temperatur, Haltung, Schmerz und das Empfinden von Hunger und Durst. All diese Sinnesrezeptoren haben als Teil des Wahrnehmungssystems nicht die Aufgabe, die physikalische oder soziale Realität zu erfassen und abzubilden, sondern die Handlungsfähigkeit (und damit die Überlebens- und Fortpflanzungsfähigkeit) des Einzelnen sicherzustellen. Dabei setzt sicheres Handeln sichere Wahrnehmung voraus. Wahrnehmung ist eine Dienstleistungsfunktion der Handlung. Die Steuerung menschlicher Handlungen geschieht durch die Antizipation von sensorischen Effekten dieser Handlungen. Dabei ist Wahrnehmung in den Prozess der Handlungsorganisation integriert. Die Konzeption der »situation awareness« greift diesen Aspekt auf und stellt die Prinzipien und Fehler menschlicher Wahrnehmung in den Kontext der Frage nach den Bedingungen sicheren Handelns. »Situation awareness« umfasst die Vorgänge am Inputrand des menschlichen Informationsverarbeitungssystems. Nur wenn der Weg vom Reizobjekt über die subjektive Wahrnehmung und das subjektive Verständnis im konkreten Fall verstanden ist und nachvollzogen werden kann, können Ableitungen über die Gestaltung von Arbeitsplätzen, über Fehlerreduktion und über die Implementierung soziotechnischer Prozesse zur Erhöhung von Sicherheit gemacht werden.
Literatur Alberts, B., Bray, D. & Hopkin, K. (2001). Lehrbuch der Molekularen Zellbiologie. Weinheim: Wiley-VCH. Anderson, J. R. (1996). Kognitive Psychologie. Heidelberg u. a.: Spektrum Akademischer Verlag.
Literatur
Artman, H. & Garbis, C. (1998). Situation awareness as distributed cognition. In T. Green, L. Bannon, C. Warren, Buckley (Eds.), Cognition and cooperation. Proceedings of the European Conference on Cognitive Ergonomics, Cognition and Co-operation (pp. 151–165). Limerick, Ireland: Springer. Australian Bureau of Air Safety (1991). Report B/916/3032. A320 Attitude control input and DC-10 Autobrake System anomalies. Australian Government Department of Transport and Regional Services. Badke-Schaub, P., Neumann, A., Lauche, K. & Mohammed, S. (2007). Mental models in design teams: A valid approach to performance in design collaboration? CoDesign, 3 (1), 5–20. Bar-Hillel, M. (1980). The base-rate fallacy in probability judgments. Acta Psychologica, 44, 211–233. Bartlett, F. C. (1937). Psychology and the Royal Air Force, 1 – A general survey. Royal Air Force Quarterly, 8, 270–276. Bierhals, R., Schuster, I., Kohler, P. & Badke-Schaub, P. (2007). Shared mental models – Linking team cognition and performance. CoDesign, 3 (1), 75–94. Boudes, N. & Cellier, J.-M. (1998). Étude du champs d’anticipation dans le controle du traffic aérien. Le travail humain, 61 (1), 29–50. Bosten, J. M., Robinson, J. D. & Mollon, J. D. (2005). Multidimensional scaling reveals a color dimension unique to ‘colordeficient’ observers. Current Biology, 15, 950–952. Boyd, J. R. (1996). The Essence of Winning and Losing. Unpublished lecture notes. Broadbent, D. (1958). Perception and communication. Oxford u. a.: Pergamon Press. Broadbent, D. (1971). Decision and stress. London u. a.: Academic Press. Bruner, J. S. & Postman, L. (1949). On the perception of incongruity: A Paradigm. The Journal of Personality, 18, 206–223. Bundesstelle für Flugunfalluntersuchung (2000). Untersuchungsbericht CX001-0/0,1 April 2002. Braunschweig: Bundesoberbehörde im Geschäftsbereich des Bundesministeriums für Verkehr, Bau und Stadtentwicklung. Chapanis, A. (1970). Relevance of physiological and psychological criteria to man-machine systems. Ergonomics, 13, 337–346. Chapanis, A. (1996). Human factors in engineering design. New York: Wiley. Cherry, E. C. (1953). Some experiments on the recognition of speech, with one and with two ears. Journal of the Acoustical Society of America, 25, 975–979. Cohen, R. A. (1993). The neuropsychology of attention. New York: Plenum. Craik, K. J. W. (1947). Theory of the human operator in control systems: I – The operator as an engineering system. British Journal of Psychology, 38, 56–61. Craik, K. J. W. (1948). Theory of the human operator in control systems: II – Man as an element in a control system. British Journal of Psychology, 38, 142–148.
79
4
Davies, D. R., Matthews, G., Stammers, R. B. & Westerman, S. J. (2000). Human performance: Cognition, stress and individual differences. Hove, East Sussex: Psychology Press. Der Spiegel (22.10.2007). Nr. 43, S. 48. Dörner, D. & Pfeiffer, E. (1992). Strategisches Denken, strategische Fehler, Stress und Intelligenz. Sprache & Kognition, 11 (2), 75–90. Dörner, D. (1989). Die Logik des Mißlingens. Reinbek: Rowohlt. Dörner, D. (1999). Bauplan für eine Seele. Rowohlt: Reinbek. DPA (27.07.2007). DPA-Meldung 21.05 Uhr. Endsley, M. R. (1995a). A taxonomy of situation awareness errors. In R. Fuller, N. Johnston & N. McDonald (Eds.), Human Factors in Aviation Operations (pp. 287–292). Aldershot: Ashgate. Endsley, M. R. (1995b) Toward a theory of situation awareness in dynamic systems. Human Factors, 37(1), 32–64. Endsley, M. R. (2011). Designing for Situation Awareness: An Approach to User-Centered Design. Boca Raton: CRC Press; 2 edition. Endsley, M. R., Bolté, B., Jones, D. G. (2003). Designing for situation awareness. An approach to user-centered design. London: Taylor & Francis. Evans, B. (1990). Bias in human reasoning: causes and consequences. New York: Psychology Press. Eyferth, K. & Jungermann, H. (1998). Mensch-Maschine-Interaktion in kooperativen Systemen der Flugsicherung und Flugführung – Einfluß von Automatisierung auf die Repräsentation des Flugverkehrs durch Fluglotsen. Zwischenbericht an die DFG. FOCUS Online (2007). Jäger verwechselt Soldat mit Fuchs. http://www.focus.de/panorama/welt/unfall_aid_136768. html. Friederici, A. D. (1999). Language comprehension: A biological perspective. Berlin: Springer. Funke, J. (2003). Problemlösendes Denken. Stuttgart: Kohlhammer. Glasersfeld, E. von (1985). Konstruktion der Wirklichkeit und der Begriff der Objektivität. In H. Gum & H. Meier (Hrsg.), Einführung in den Konstruktivismus (S. 9–39). München: Piper. Goldstein, B. (2002). Wahrnehmungspsychologie. Heidelberg: Spektrum Akademischer Verlag. Gorman, J. C., Cooke, N. J. & Winner, J. L. (2006). Measuring team situation awareness in decentralized command and control environments. Ergonomics, 49 (12), 1312–1325. Hacker, W. (1986). Arbeitspsychologie. Berlin: VEB Deutscher Verlag der Wissenschaften. Heyse, K. von (1856). System der Sprachwissenschaft. Berlin: F. Dümmler. Hobfoll, S. E. & Buchwald, P. (2004). Die Theorie der Ressourcenerhaltung und das multiaxiale Copingmodell – eine innovative Stresstheorie. In P. Buchwald, C. Schwarzer & S. E. Hobfoll (Hrsg.), Stress gemeinsam bewältigen – Ressourcenmanagement und multi-axiales Coping (S. 11–26). Göttingen: Hogrefe.
80
4
Kapitel 4 • Wahrnehmung, Aufmerksamkeit und »Situation Awareness« (SA)
Hölscher, U. (1969). Parmenides. Vom Wesen des Seienden. Die Fragmente griechisch und deutsch. Frankfurt a. M.: Suhrkamp. Hofinger, G. (2005). Menschliche Wahrnehmung. In M. St. Pierre, G. Hofinger & C. Buerschaper, Notfallmanagement. Human Factors in der Akutmedizin (S. 48–55). Heidelberg: Springer. Ibscher, G. (1996). Fragmente zur Ethik. Reclam: Stuttgart. James, W. (1890). The principles of psychology. New York, London: Holt and Macmillan. Janis, I. L. (1972). Victims of groupthink. Boston. Houghton Mifflin Company. Jeannot, E., Kelly, C. & Thompson, D. (2003). The development of situation awareness measures in ATM systems. Brussels: Eurocontrol. Kaber, D. A. & Endsley M. R. (1998). Team situation awareness for process control safety and performance. Process Safety Progress, 17 (1), 43–48. Kahneman, D. (1973). Attention and effort. Englewood Cliffs, NJ: Prentice-Hall. Kahneman, D. & Tversky, A. (1973). On the psychology of prediction. Psychological Review, 80, 237–251. Karnath, H.-O. & Thier, P. (Hrsg.) (2006). Neuropsychologie. Heidelberg: Springer. Klein, G. (1997). The current status of the naturalistic decision making framework. In R. Flin, E. Salas, M. Strub & L. Martin (Eds.), Decision making under stress: Emerging themes and applications (pp. 11–28). Aldershot, GB: Ashgate. Lass, U., Yunqiu, F., Guopeng, C., Becker, D. & Lüer, G. (1999). Is memory for shapes subject to language specific effects? An experimental study of memory span in German and Chinese subjects. Sprache und Kognition, 18, 136–145. Lions, J.-L. (1996). ARIANE 5 Flight 501 Failure. Report by the Inquiry Board. Online-Dokument, verfügbar unter http:// sunnyday.mit.edu/accidents/Ariane5accidentreport. html. Mars Climate Orbiter Investigation Board (1999). Mars Climate Orbiter mishap investigation board phase I Report. Online-Dokument, verfügbar unter ftp://ftp.hq.nasa. gov/pub/pao/reports/1999/MCO_report.pdf. Material der Bundesanstalt für Flugunfalluntersuchung (2000). Jahresbulletin 2000, Teil 2: Berichte, Aktenzeichen 2X003-0/00. Miller, G. A. (1956). The magical number seven, plus or minus two: some limits on our capacity for processing information. Psychological Review, 63 (2), 81–97. Mitschke, T. (1997). Handbuch für technische Einsatzleitungen. Stuttgart, Berlin, Köln: Kohlhammer. Navon, D. & Gopher, D. (1979). On the economy of the human processing system. Psychological Review, 86, 214–255. Neisser, U. (1967). Cognitive Psychology. New York: AppletonCentury-Crofts. Neumann, U. (2001). Platon. Reinbek: Rowohlt Taschenbuch Verlag. Norman, D. A. (1968). Toward a theory of memory and attention. Psychological Review, 75, 522–536.
Orasanu, J. (1990). Shared mental models and crew decision making (Tech. Rep. No.46). Princeton, NJ: Princeton University, Cognitive Sciences Laboratory. Orasanu, J. & Salas, E. (1993). Team decision making in complex environments. In G. Klein, J. Orasanu, R. Calderwood & C. E. Zsambok (Eds.), Decision making in action: Models and methods (pp. 327–346). Norwood, NJ: Ablex. Reason, J. (1990). Human Error. Cambridge: Cambridge University Press. Reason, J. (1997).Managing the Risks of Organizational Accidents. Farnham: Ashgate Publishing. Schaub, H. (1997). Decision making in complex situations: Cognitive and motivational limitations. In: R. Flin, E. Salas, M. E. Strub & L. Martin (Eds.), Decision making under stress. emerging themes and applications (pp. 291–300). Aldershot: Ashgate. Schaub, H. (2006). Störungen und Fehler beim Denken und Problemlösen. In J. Funke (Hrsg.), Enzyklopädie der Psychologie, Band C/II/8 »Denken und Problemlösen« (S. 447–482). Göttingen: Hogrefe. Schaub, H. (2007). The importance of the characteristics of the task to understand team mental models. CoDesign, 3 (1), 37–42. Schaub, H. (2009a). Der Soldat als Human Factor - Störfaktor moderner Rüstungsprojekte? Gneisenau Blätter: »Soldat und digitales Schlachtfeld“ Band 8 Schaub, H. (2009b). Human Factors in modernen Rüstungsprojekten: Soldaten als Problem oder Problemlöser? Politik & Sicherheit, 9, 10-11 Schmidt, R. F. & Schaible, H.-G. (Hrsg.) (2006). Neuro- und Sinnesphysiologie. Berlin: Springer. Selye, H. (1953). Einführung in die Lehre vom Adaptionssyndrom. Stuttgart: Georg Thieme Verlag. Spick, M. (1989). The ace factor. New York: Avon Books. Spiegel Online (2010). Falsche Kameradschaft mit Oberst Klein. http:// http://www.spiegel.de/politik/deutschland/0,1518,712780,00.html Spieß, R. (2002). Unbewusste Informationsverarbeitung. Forschungsansätze, Ergebnisse und methodische Probleme. Hamburg: Verlag Dr. Kovač. Stanton, N. A., Stewart, R., Harris, D., Houghton, R. J., Baber, C., McMaster, R., Salmon P., Hoyle, G., Walker, G., Young, M. S., Linsell, M., Dymott, R. & Green, D. (2006). Distributed situation awareness in dynamic systems: Theoretical development and application of an ergonomics methodology. Ergonomics, 49 (12), 1288–1311. Stewart, S. (1986). Air disasters. London: Arrow. Sun Tzu (1988). The Art of Strategy, translated by R. L. Wing. Seattle, Washington: Main Street Books. Tagesschau.de (2010). Ermittlungen gegen Oberst Klein eingestellt. http:// http://www.tagesschau.de/inland/ kundusangriff104.html Treisman, A. M. & Gelade, G.(1980). A feature-integration theory of attention. Cognitive Psychology, 12, 97–136. Tversky A. & Kahneman, D. (1974). Judgment under uncertainty: Heuristics and biases. Science, 185, 1124–1130.
Literatur
Tversky, A. & Kahneman, D. (2005). Judgment under uncertainty: Heuristics and biases. In M. Bazerman (Ed.), Negotiation, decision making and conflict management, Vol 1–3. (pp. 251–258). Northampton, MA: Edward Elgar. Watts, B. D. (1996). Clausewitzian friction and future war. McNair Paper no. 52. Washington, DC: Institute of National Strategic Studies, National Defense University.
81
4
83
5
Denken – Entscheiden – Handeln Winfried Hacker und Rüdiger von der Weth
5.1
Einleitung und kurze Übersicht – 84
5.2
Verhalten – Handeln – Denken – 84
5.2.1 5.2.2
Verhalten – Tätigkeit – Handlung – 84 Tätigkeits- und Handlungsregulation durch zielrelevantes Wissen und Denken – 87
5.3
Handeln unter komplexen Bedingungen – 88
5.3.1 5.3.2 5.3.3 5.3.4
Merkmale komplexer Situationen – 89 Anforderungen an menschliches Handeln – 91 Risiken und Fehler – 92 Hilfen für den Umgang mit Komplexität – 93
5.4
Entscheiden als Komponente von Handlungen – 94
5.4.1 5.4.2 5.4.3
Merkmale und Bestandteile von Entscheidungsprozessen – 94 Entscheidungsmodelle und Entscheidungsarten – 95 Besonderheiten des alltäglichen (natürlichen) Entscheidens – 97
5.5
Zusammenfassung und Ausblick – 98 Literatur – 99
P. Badke-Schaub et al., Human Factors, DOI 10.1007/978-3-642-19886-1_5, © Springer-Verlag Berlin Heidelberg 2012
84
Kapitel 5 • Denken – Entscheiden – Handeln
Beispiel
5
Eine dramatische Notlandung in Wien beherrschte am 12.07.2000 die Nachrichtensendungen. Einem Piloten eines Airbus A310-304, der Pauschaltouristen aus Kreta nach Hannover zurückbefördern sollte, gelang eine Notlandung, obwohl jegliche Treibstoffzufuhr versiegt war. Dieser Pilot, dessen Leistung zunächst gefeiert wurde, stand trotz dieses Beweises fliegerischen Könnens noch Jahre später vor Gericht. Er hatte eine krasse Fehlentscheidung gefällt, weil er nicht schon vorher einen anderen Flughafen angesteuert hatte. Diese Fehlentscheidung wiederum beruhte laut Auswertung der Flugunfall-Untersuchungsstelle Österreich (2006) auf der Wahl einer falschen Informationsquelle oder – diese Aussage ist allerdings spekulativ – möglicherweise auf »Denkfaulheit«. Bereits während des gesamten Fluges war aufgrund eines technischen Defekts das Fahrwerk ausgefahren gewesen. Dies ist im Prinzip nicht gefährlich, bewirkt aber einen erheblich höheren Treibstoffbedarf. Dieser Sachverhalt war der Crew bekannt. Was sie in dieser Situation nicht bedachte, war, dass sich der höhere Treibstoffverbrauch nicht in den Berechnungen des automatischen Prognosesystems – Flight Management System (FMS) – niederschlug. Dieses System, das der Crew die Entscheidung erleichtert, wie weit und wie lange die Maschine noch fliegen kann, bevor erneut getankt werden muss, lieferte somit falsche Daten. Die beschriebene Arbeitsweise des Systems war aus der Aus- und Weiterbildung den Piloten bekannt und hätte von ihnen berücksichtigt werden müssen. Hierin lag letztlich die Fahrlässigkeit, die einen der Piloten seine Fluglizenz sowie seinen Arbeitsplatz kostete und ihm im Mai 2004 eine Verurteilung wegen gefährlichen Eingriffs in den Luftverkehr einbrachte.
Verhaltens in dieser und natürlich auch in anderen sicherheitsrelevanten Situationen beitragen können. Zunächst wird darauf eingegangen, welche Rolle Denken und Problemlösen beim menschlichen Alltagshandeln spielen. Anschließend werden besonders komplexe Anforderungen betrachtet. Diese sind kennzeichnend für alle Praxisbereiche, die in diesem Buch angesprochen werden. 5 Welche Merkmale sind typisch für Komplexität? 5 Welche Anforderungen entstehen daraus für das menschliche Handeln? 5 Welche Risiken können daraus abgeleitet werden? Anschließend werden Hilfsmittel diskutiert, die diese Risiken zu minimieren helfen. Denken und Handeln sind Voraussetzungen für die Qualität derjenigen Entscheidungen, die so häufig im Fokus des öffentlichen Interesses stehen. Der letzte Teil dieses Beitrags befasst sich daher mit dem menschlichen Entscheiden und dabei v. a. mit den Konsequenzen, die sich aus dem bis dahin Gesagten für den Entscheidungsprozess ergeben. Entscheiden soll hier jedoch nicht als singuläres Wahlereignis verstanden werden, sondern als komplexer psychischer Prozess mit den einem solchen Wahlakt vorausgehenden und folgenden psychischen Aktivitäten. Vertieft soll in diesem Abschnitt auf die Untersuchung sog. naturalistischer Entscheidungen eingegangen werden.
Verhalten – Handeln – Denken
5.2
Der Begriff »Verhalten« wird als Oberbegriff verwendet, der u. a. die Tätigkeiten und Handlungen von Menschen einschließt.
5.2.1 5.1
Verhalten – Tätigkeit – Handlung
Einleitung und kurze Übersicht z
Wir wollen an dieser Stelle die Schuldfrage nicht diskutieren. Im Rahmen des vorliegenden Beitrags geht es vielmehr darum, psychologische Gesetzmäßigkeiten beim Denken, Entscheiden und Handeln in Grundzügen darzustellen, die zur Erklärung des
Verhalten
Der Verhaltensbegriff ist nicht verbindlich definiert. Im Verständnis der Wissenschaften, die sich mit Lebewesen beschäftigen, bezeichnet Verhalten die Gesamtheit der möglichen Lebensäußerungen von Lebewesen. Hier interessiert nur das Verhalten
85
5.2 • Verhalten – Handeln – Denken
gesunder erwachsener Menschen. Das Verhalten dieser Menschengruppe schließt zahlreiche Vorgänge ein, die sie mit anderen Lebewesen teilt, beispielsweise das Atmen, Kauen und Verdauen, das Kratzen juckender Körperpartien, das Blinzeln, Paarungsabläufe oder allgemeine angeborene und erlernte reflektorische sowie instinktive Abläufe. Bei gesunden erwachsenen Menschen, insbesondere solchen, die ihren Lebensunterhalt selbst sichern müssen, sind auf das Erreichen von Zielen gerichtete und möglichst rationell ausgeführte Tätigkeiten die entscheidende Art von Verhaltensvorgängen. z
Tätigkeiten
> Tätigkeit bezeichnet den Vorgang, der ein bestimmtes Verhältnis des Menschen zur Umwelt, zu anderen Menschen und zu den vom Leben gestellten Aufgaben verwirklicht (Rubinstein, 1958). Menschliche Tätigkeiten unterscheiden sich durch das Ausmaß ihrer Bewusstheit, durch ihre Organisation und ihre Kooperativität (Clauß, 1995).
Tätigkeiten sind zu beschreiben durch 5 das Subjekt, d. h. die tätige Person bzw. die tätigen Personen mit ihren tätigkeitsrelevanten Merkmalen, beispielsweise ihren Absichten und ihrem Können, 5 den Tätigkeitsgegenstand, in Arbeitstätigkeiten beispielsweise das Metallstück oder der zu pflegende Patient, 5 die selbstgestellte Aufgabe oder den übernommenen Auftrag, beispielsweise das Fertigen eines Schraubengewindes, das Impfen eines Kindes oder bei der Eigenarbeit das Bügeln eines Hemdes, wobei Rahmenbedingungen wie z. B. Arbeitsrechtsverhältnisse wirksam sein können, 5 die erforderlichen und die genutzten Mittel, in Arbeitstätigkeiten also die Arbeitsmittel (Werkzeuge, Maschinen, Anlagen und Hilfsmittel als Hard- und Software), z. B. die Drehbank oder die Kanüle, 5 die Ausführungsbedingungen u. a. zeitlicher, räumlicher oder sozialer Art, bei Arbeitstätigkeiten also die Arbeitsbedingungen, die bei-
5
spielsweise Zeitdruck, klimatische Verhältnisse oder erlebten Wettbewerb umfassen können, 5 das selbst als Tätigkeitsanstoß beabsichtigte oder geforderte Tätigkeitsergebnis, das je nach Einordnung der Tätigkeit irgendwann und ohne Aufwandsbeschränkung oder aber termingerecht, rationell, sicher und forderungsgerecht vorliegen sollte oder vorliegen muss. Je klarer, zwingender und präziser die Vornahmen bzw. Vorgaben bezüglich des Resultats und seiner Erreichungsbedingungen sind, desto unerlässlicher und präziser müssen logischerweise die tätigkeitsregulierenden Vorwegnahmen (Antizipationen) des Ergebnisses und seiner Erzeugungsprozedur sein. Eine Teilmenge der menschlichen Tätigkeiten sind die zielgerichteten Tätigkeiten, die insbesondere bei Erwerbs- und Eigenarbeit, aber auch bei institutionalisierter und durch Prüfungen kontrollierter Lerntätigkeit vorliegen. Ziele bezeichnen in der wissenschaftlichen Psychologie die Einheit von ideellen Vorwegnahmen (Antizipationen) eines Tätigkeitsergebnisses und der Absicht (Intention), es mit eigener Anstrengung zu erreichen. Der Zielbegriff ist der Kernbegriff der wissenschaftlichen Tätigkeitsanalyse, -bewertung und -gestaltung. Das geht darauf zurück, dass Ziele fünf Merkmale aufweisen: Ziele sind 5 die erkenntnisbasierte (kognitive) Vorwegnahme des Tätigkeitsergebnisses mit 5 der antriebsmäßigen (motivationalen) Absicht zum Erreichen dieses Ergebnisses und 5 der gedächtnismäßigen Speicherung als Leitinstanz bis zum endgültigen Erreichen des Zieles, dabei 5 Ansatzstelle von tätigkeitsspezifischen Gefühlen (Emotionen), insbesondere von Erfolgs-, Misserfolgs- oder Flusserleben (Flow), sowie 5 habituell (relativ beständig) eine Komponente des Selbstwerterlebens bzw. als Teil hiervon des Selbstwirksamkeitserlebens in Abhängigkeit vom beständigen Verfehlen oder Erreichen selbstgesetzter Ziele.
86
5
Kapitel 5 • Denken – Entscheiden – Handeln
Bei zielgerichteten Tätigkeiten wird nicht irgendein irgendwie irgendwann mit beliebigen Zeit-, Material-, Geld- und Kraftaufwand erreichtes Ergebnis hingenommen, sondern ein selbstgesetztes oder gefordertes Ergebnis mit rationellem (d. h. nach Aufwand und ggf. auch nach dabei entstandenem Schaden bewertetes) Resultat angestrebt. Das ist nur möglich bei zumindest schrittweiser Vorwegnahme und Abwägung der Tätigkeitsschritte und ihrer Zwischenergebnisse, dem Probehandeln im anschaulichen Vorstellen oder im Denken und dem willentlichen (volitiven) Verfolgen ausgewählter Vorgehensweisen. Weil gesunde Erwachsene zu diesem zielgerichteten Tätigsein prinzipiell in der Lage sind, werden sie auch für die Folgen ihres Handelns verantwortlich gemacht, zur Rechenschaft gezogen und ggf. juristisch begründet bestraft. Die eben formulierte Einschränkung »prinzipiell« verweist auf Präzisierungsbedarf: Ziele als ideelle Vorwegnahmen der angestrebten Ergebnisse sind im Alltagshandeln sehr verschieden im Hinblick auf ihre Verankerung in Bedürfnissen, Interessen, in der Motivation, im Hinblick auf den erforderlichen Tätigkeitsumfang und hinsichtlich der Möglichkeiten ihrer Detaillierung und Präzisierung: 5 Zielgerichtete Tätigkeiten können durch Bedürfnisse ausgelöst sein, z. B. ein erfrischendes Bad zu nehmen. Zielgerichtete Tätigkeiten sind häufiger jedoch durch Quasibedürfnisse, d. h. gleichsam wie Bedürfnisse wirkende Ziele, ausgelöst und reguliert. Beispielsweise gibt es kein angeborenes Bedürfnis, arbeitstäglich ab 7 Uhr emsig und zielgerichtet Müll zu räumen. Hier muss ein Ziel statt eines Bedürfnisses einspringen. 5 Zielgerichtete Tätigkeiten können in einem Tätigkeitsschritt das vorweggenommene Tätigkeitsresultat erreichen. In der Regel sind jedoch mehrere oder gar viele Tätigkeitsschritte dazu erforderlich. Dann sind Ketten von Teil- oder Zwischenzielen abzuleiten und zu verfolgen, die geordnet, zurückgestellt, behalten und zeit- sowie sachgerecht aus dem prospektiven Gedächtnis reaktiviert werden müssen. Diese Erfordernisse gelingen keineswegs automatisch und sind daher Quellen
verschiedenartiger Handlungsfehler bzw. Fehlhandlungen (vgl. Hacker, 2005). Eine Psychologie der Sicherheit muss deshalb Maßnahmen zur Absicherung u. a. dieser handlungsinternen Vorgänge angeben. 5 Sofern Tätigkeiten mehrere Tätigkeitsschritte umfassen, ist im Falle des Erfordernisses der rationellen und ergebnissicheren Ausführung ein Planen als Abfolgeplanung (»scheduling«) und ein Mittel-Weg-Erwägen (»planning«) unerlässlich. Es erfolgt teils als Vorplanen (»planning in advance«), teils während des Handelns (»planning in action«). Diese hybride Planung ist wegen der begrenzten Kapazität menschlichen Erwägens (der begrenzten Bewusstheitskapazität, Mental- oder Arbeitsgedächtniskapazität) unerlässlich und zugleich auch hilfreich für flexibles Handeln. Die erwähnten Unterschiede in der Möglichkeit, Ziele bis in ihre Einzelheiten und präzise vorab als komplettes Abbild des künftigen Ergebnisses oder lediglich als vage Umschreibung eines mit eigener Anstrengung zu füllenden Defizits entwickeln zu können, bedingt sehr unterschiedliche Typen der zielgerichteten Tätigkeit. Gemeinsam ist ihnen, dass weder absichtsloses Treibenlassen noch ein Durchwursteln (»muddling through«; Lindblom, 1959), wie und wohin auch immer, vorliegt. Bei den sog. Entwurfstätigkeiten (etwa bei einer Neukonstruktion, dem Entwickeln einer Organisationslösung, dem Komponieren einer Sinfonie oder dem organisierten Aktivieren lustloser Schüler zur Vorbereitung auf die Mathematikprüfung) ist das Ziel nur grob umschrieben, es ist in seinen Einzelheiten erst noch zu entwickeln. Das ist erst beim Handeln, d. h. in Rückkopplungen mit einem anfangs noch kaum gerichteten, auf Vermutungen aus dem Vorwissen gestützten probierenden Vorgehen möglich. In der Regel können abschnittweise bekannte Teilschrittfolgen in dieses Probieren eingebaut werden. Diese Art des Verfolgens erst im Tun zu präzisierender Ziele kann als »opportunistisch mit systematisch organisierten Episoden« bezeichnet werden (Visser, 1994). Die probeweise herangezogenen Gelegenheiten (»opportunities«) sind Erinnerungen (d. h. Wissensaktualisierungen) an anderweit schon einmal nützliche Vorgehensschritte. Sie er-
87
5.2 • Verhalten – Handeln – Denken
möglichen schrittweise die Zielpräzisierung und dadurch das umfassendere Nutzen zielgerichteter Abschnitte neben dem vermutungsgeleitet-probierenden, intuitiven Vorgehen (vgl. Hacker, 2005). z
Handlungen
Die bisher als »Tätigkeitsschritte« bezeichneten Abschnitte in Tätigkeiten werden in der Regel als »Handlungen« bezeichnet. > Handlungen sind relativ selbstständige Abschnitte zielgerichteter Tätigkeiten, die Teilziele realisieren.
Wie die Tätigkeiten, können ihre nur relativ selbstständigen Abschnitte in mehreren Hinsichten näher beschrieben werden: Menschen kalkulieren den zu erwarteten Nutzen von Tätigkeits- bzw. Handlungsergebnissen und die vermutete Wahrscheinlichkeit, diesen Nutzen auch erreichen zu können, sofern sie Wahlmöglichkeiten besitzen (Theorie überlegten Handelns; Fishbein, 1980; 7 Kap. 5.4). Des Weiteren ist das Vorgehen, z. B. die Teilzielkette und die in ihr eingesetzten Mittel, sowohl bei Tätigkeiten als auch bei Handlungen in der Regel nur teilweise frei wählbar. Es besteht eine in unterschiedlichem Grad begrenzte Durchschaubarkeit, Vorhersehbarkeit und Beeinflussbarkeit (Kontrollierbarkeit, Kontrolle) der Situation. Die auszuführenden Tätigkeiten und Handlungen müssen Bedingungen gehorchen, nämlich personalen oder materialen Hindernissen bzw. Ressourcen, Normen und eigenen oder fremden ethischen und wirtschaftlichen Bewertungen. Die wahrgenommene Beeinflussbarkeit kann in Grenzen erlauben vorherzusagen, welches Vorgehen von einer Person gewählt werden wird (Theorie geplanten Handelns; Ajzen, 1991; Ajzen & Fishbein, 1980; Jonas & Doll, 1996).
5.2.2
Tätigkeits- und Handlungsregulation durch zielrelevantes Wissen und Denken
Wir wissen bisher: Zielgerichtete Tätigkeiten und ihre Komponenten, die teilzielgerichteten Hand-
5
lungen, werden reguliert durch zielbezogenes Vorwissen in Wechselwirkung mit dem Neuausdenken von Vorgehensmöglichkeiten, sofern das vorhandene Wissen nicht ausreicht, nicht zeitgerecht oder zu mühsam reproduziert werden kann. Gelegentlich kann Wissen ein Neuausdenken erübrigen, und gelegentlich kann Denken das Wissen bzw. den Wissensabruf überflüssig machen. Im Alltag sind Wissensabruf und Denken in der Regel kombiniert. Beispiel Wenn man sich nicht einprägen möchte und damit nicht weiß, dass 172 = 289 ist, so kann man das Ergebnis durch elementare Denkoperationen ermitteln. Dabei handelt es sich um sog. algorithmisches, regelgeleitetes Aufgabenbearbeiten, nicht aber um Problemlösen.
Ebenso ist die Trennung des Denkens vom Handeln, d. h. vom zielgerichteten gegenständlichen Manipulieren, ein Kunstprodukt bzw. eine Fiktion kognitionswissenschaftlicher Laborforschung. Sprechen – auch innerlich und mit sich selbst – als psychomotorische, d. h. Muskelinnervationen einschließende Aktivität, des Weiteren Gestikulieren, Skizzieren, Schreiben, Singen bzw. Summen beim Komponieren sowie auch Modellbasteln sind Aktivitäten, die häufig neben vorstellungsmäßigem oder begrifflich gestütztem inneren Operieren ablaufen. Dieses externe Denkhandeln entlastet nicht nur das unerlässliche Behalten von zu bearbeitender Information, also das Arbeitsgedächtnis, sondern trägt auch zur Informationsverarbeitung bei (für detaillierte Belege dieser Behauptung vgl. Sachse, 2002; Sachse, Hacker & Leinert, 2004). Denken entwickelt sich im Handeln und dient seiner Regulation (Rubinstein, 1958). Für eine Psychologie der Sicherheit sind die daraus resultierenden Unterstützungs- und Absicherungsmöglichkeiten störungsgefährdeten Denkens ausschlaggebend. Denken als besondere, durch Sinneseindrücke, Sprechen und Sprache vermittelte Art erkenntnisschaffender (kognitiver) Vorgänge tritt in vielfältigen Formen auf. Es gibt also nicht das Denken.
88
Kapitel 5 • Denken – Entscheiden – Handeln
Formen von Denkleistungen
5
5 Klassifizieren nach in unterschiedlichem Maße abstrakten Merkmalen, u. a. als Bilden zutreffender Begriffe anhand relevanter Merkmale (z. B. Säugetiere, zu denen bekanntlich auch Wale gehören) 5 Regelgeleitetes, algorithmisches Aufgabenbearbeiten (z. B. Dividieren) 5 Schließen oder Schlussfolgern, und zwar als deduktives, induktives oder analoges Schließen, einschließlich von Wahrscheinlichkeitsschlüssen etwa unter Berücksichtigung mathematischer Gesetzmäßigkeiten, dessen zahlreiche Fehlermöglichkeiten häufige Quellen von Sicherheitsverstößen sind 5 Lösen von klar definierten Problemen, wobei im Unterschied zu Aufgaben nicht nur die Lösung, sondern – je nach Kompliziertheitsgrad – unterschiedlich viele Komponenten des Lösungsprozesses (beispielsweise die Mittel, die zulässigen Wege, die Ausgangszustände) erst zu finden sind 5 Lösen bzw. Bearbeiten komplexer, vernetzter, dynamischer Probleme mit schlecht definierten Problemräumen (lösungsrelevanten Bestandteilen) und oftmals der Erfordernis, zunächst überhaupt das zu lösende Problem zu erkennen
Im Alltagshandeln herrschen die komplexen, vernetzten und eigendynamischen, d. h. sich selbst verändernden Probleme vor. Diese schließen die anderen Denkleistungen in unübersehbar verschiedenartigen Kombinationen ein und umfassen sowohl die Diagnose als auch die Maßnahmenableitung. Das Eingangsbeispiel illustriert die Kombination von Wissenseinsatz (Treibstoffverbrauch), Schlussfolgern (Erkennen der Fehlberechnung des für Normalbedingungen programmierten Computersystems) und schlussfolgerungsgestützte Maßnahmenableitung (Ausweichflughäfen vor dem Zielort) im Alltagshandeln, zu dem Erwerbs-, Eigen- und ehrenamtliche Arbeit mit meist weitaus weniger spektakulären Fehllösungen gehören.
5.3
Handeln unter komplexen Bedingungen
Die bisher beschriebenen Denk- und Planungsleistungen sind im Alltag ein Bestandteil eines Handlungsstroms, der eine Menge der beschriebenen kognitiven Aktivitäten integriert. Wer eine komplexe Anlage überwacht, wer Warenströme in einer vernetzten Logistikkette steuert oder langfristige Konstruktionsprojekte bearbeitet, der sieht sich einer Fülle miteinander verzahnter Denk-, Planungs- und Entscheidungsanforderungen gegenüber. Aus diesem Grund sind zwar einerseits die bisher beschriebenen Leistungen für erfolgreiches Bewältigen der inhaltlichen Aufgaben auch bei komplexen Anforderungen notwendig, darüber hinaus treten aber andere Leistungen bei der übergreifenden Organisation und Kontrolle dieses Handlungsstroms immer mehr in den Vordergrund: 5 Auswahl angemessener Ziele, 5 richtige Strategie bei der Suche und Integration wichtiger Informationen, 5 Auswahl angemessener Planungs- und Entscheidungsverfahren und 5 angemessene Strategie für die Kontrolle des Fortgangs der Aktivitäten. All dies kann nur gelingen, wenn die Anforderungen des komplexen Handlungskontextes und auch die eigenen Handlungsvoraussetzungen (wie z. B. Wissen, Können, Motivation) angemessen abgebildet werden (vgl. von der Weth, 2001). Je komplexer Anforderungen sind, umso mehr sind die beschriebenen Prozesssteuerungs- und Selbstorganisationsaktivitäten ihrerseits eine Angelegenheit komplexer Planungsaktivitäten. Diese basieren auf Wissen und Können, das v. a. im Verlauf der beruflichen Sozialisation teilweise explizit vermittelt wird und durch die Auseinandersetzung mit den komplexen Anforderungen durch weiteres Wissen und Können ergänzt wird (vgl. Schön, 1983). Folgendes ist dabei zu beachten: Viele auch komplexe Vollzüge des Alltagshandelns werden durch Routinen gesteuert. Das Vorgehen beim morgendlichen Aufstehen, der Weg zur Arbeit oder die ersten Verrichtungen am Arbeitsplatz sind selten Gegenstand bewusster Planungsaktivi-
5.3 • Handeln unter komplexen Bedingungen
täten (man fragt sich z. B. selten oder nie: Ist meine Art, den Kaffee einzuschenken, effizient?). Dies gilt auch für durchaus anspruchsvolle, aber kurzzyklische Arbeitstätigkeiten (z. B. im Bereich der Arbeit eines praktischen Arztes oder einer Juristin). Auch hier gibt es keine Vorgehensmethodik im engeren Sinne, sondern im Alltagshandeln erworbene, in vielen Bereichen implizite Steuerungsroutinen. Je komplexer und langfristiger Anforderungen sind, umso mehr muss sich der Handelnde (z. B. ein Marketingmanager, eine Bauprojektleiterin, ein Logistiker) bewusst mit der Handlungsorganisation und auch mit dem Wissen und den Regeln, die dazu in dem jeweiligen beruflichen Umfeld herrschen, auseinandersetzen. Alle Aktivitäten des Planens und Entscheidens sind daher auch nur vor dem Hintergrund und im Kontext der Vorgeschichte und der wahrgenommenen konkreten Rahmenbedingungen nachvollziehbar.
5.3.1
Merkmale komplexer Situationen
In der Psychologie gibt es auf den ersten Blick eine relativ übereinstimmende Auffassung über die Merkmale komplexer Situationen; gängig ist etwa die folgende Beschreibung: Merkmale komplexer Probleme (Schaub, Strohschneider & von der Weth, 1994, S. 252) 5 »Sie sind umfangreich. Die Probleme bestehen aus vielen Variablen, die beachtet werden müssen und deren Zustand der Problemlöser kennen sollte. 5 Sie sind vernetzt. Die Variablen stehen nicht isoliert nebeneinander, sondern sie beeinflussen sich gegenseitig über Verbindungen unterschiedlicher Richtung, Charakteristik und Stärke. Die Vernetztheit hat zur Folge, dass Maßnahmen häufig nicht nur den intendierten Haupteffekt haben, sondern es zu Nebenwirkungen (unbeabsichtigte Veränderung anderer Variablen) und Fernwirkungen (unbeabsichtigte langfristige Auswirkungen) kommt.
89
5
5 Sie sind intransparent. Komplexe Probleme sind für den Problemlöser unter den gegebenen Zeitrestriktionen selten vollständig durchschaubar. Es kann unklar bleiben, welche Aspekte überhaupt zum Problem gehören und welche nicht (Variablenintransparenz), es kann unklar bleiben, wie sich die Variablen gegenseitig beeinflussen (Strukturintransparenz), und es kann unklar bleiben, in welchem Zustand sich diese Variablen zum gegebenen Zeitpunkt befinden (Zustandsintransparenz). Intransparenz führt dazu, dass der Problemlöser kaum alle eigentlich notwendigen Informationen kennt und damit unter Unsicherheit handeln muss. 5 Sie sind dynamisch. Im Gegensatz zu statischen Problemen (wie etwa dem Schachspiel) verändern sich komplexe Probleme auch ohne das Zutun des Problemlösers, sei es, dass bestimmte Variablen nicht konstant bleiben (Zustandsdynamik), sei es, dass sich die Beziehungen zwischen den Variablen über die Zeit verändern (Strukturdynamik). Bei manchen Problemen verschlechtert sich der Zustand über die Zeit, so dass auch von daher Zeitdruck resultiert.«
Mögen diese Kriterien für Komplexität auf den ersten Blick eindeutig und zustimmungsfähig erscheinen, so ergeben sich dennoch Fragen, die in der Psychologie heftig debattiert wurden. So gibt es Bestrebungen nach einer möglichst objektiven Definition von Komplexität (Funke, 1990). Funke unterscheidet: 5 formale Systemmerkmale, 5 inhaltliche Systemmerkmale und 5 Person- und Situationsmerkmale. Formale Systemmerkmale lassen sich aus Variablen ableiten, mit denen sich ein Realitätsbereich formal beschreiben lässt. Je umfangreicher die Menge der Variablen ist, aus denen beispielsweise ein Computerprogramm besteht, umso komplexer ist es. Neben der Menge der Variablen definiert Funke weitere Kennzahlen, die sich aus der forma-
90
5
Kapitel 5 • Denken – Entscheiden – Handeln
len Struktur eines Systems ableiten lassen. Die inhaltlichen Systemmerkmale beziehen sich auf die konkreten Aufgabenmerkmale. Übt man z. B. das Entschärfen einer Bombe mit einer Attrappe, die funktional alle Eigenschaften dieser Bombe abbildet, so ergibt sich dennoch ein erheblicher Unterschied in Bezug auf das Verhalten, wenn man weiß, dass eine baugleiche Bombe echt ist und man somit zudem weiß, dass ein Fehlgriff den Tod bedeuten kann. Personmerkmale kennzeichnen Eigenschaften der handelnden Person, Situationsmerkmale kennzeichnen nicht zum Arbeitsauftrag gehörige Rahmenbedingungen. Funke schlägt vor, aus diesen Merkmalen möglichst objektiv die oben genannten Eigenschaften komplexer Probleme (Umfang, Intransparenz etc.) abzuleiten. Ganz ähnliche Konzepte werden bei der Analyse der Komplexität und daraus resultierender Sicherheitserfordernisse bei Kernkraftanlagen verwendet (IAEA, 2006). Die Gegenposition zum »objektiven Ansatz« führt als Hauptargument an, dass die Merkmale komplexer Systeme schwerlich ohne Rückgriff auf die Eigenschaften des handelnden Individuums zu erfassen sind. Intransparenz eines Realitätsbereiches hängt natürlich wesentlich vom Wissen ab, denn über je mehr Wissen eine Person verfügt, desto weniger intransparent wird sie den Realitätsbereich erleben. Da vollständiges Wissen über einen Realitätsbereich mit ansteigender Komplexität immer unwahrscheinlicher wird, sind individuelle Unterschiede immer bedeutsamer und werden für die Erklärung des Handelns wichtiger. Es ist daher sinnvoll, Komplexität auf drei verschiedenen Ebenen zu betrachten (detailliert in von der Weth, 2001): Komplexität auf drei Ebenen Auftragsebene: Objektive Quellen der Komplexität Hier wird in möglichst objektiver Form beschrieben, mit welchen Gegenständen und Prozessen es der oder die Handelnde in einem bestimmten Kontext zu tun hat. Diese Beschreibung ist personunabhängig und somit auch unabhängig von den Eigenschaften des handelnden Individuums. Da Menschen mit unterschiedlichen Voraussetzungen (Wissen, Motivation etc.) an komplexe Anforderungen
herangehen, lässt sich auf dieser Ebene zwar möglicherweise feststellen, welche Objekte und Personen zur Komplexität einer Handlungssituation beitragen können, aber noch nicht, welche Anforderungen für die unterschiedlichen Handelnden bestehen. Auf der Auftragsebene haben z. B. alle Gewichtheber eines Wettbewerbs ein Gewicht von 100 kg zu stemmen. Anforderungsebene: Komplexität in Bezug auf die Leistungsvoraussetzungen Auf dieser Ebene lässt sich bereits abschätzen, wie komplex eine Anforderung für unterschiedlich handelnde Personen ist. Dazu werden die individuellen Voraussetzungen analysiert und zu den objektiven Bedingungen in Beziehung gesetzt. Man kann damit Erfolgschancen bestimmter Handlungsalternativen bewerten. Beim Beispiel des Gewichthebens wäre das die Kraft und der Trainingszustand des jeweiligen Gewichthebers, aber auch sein Können, als Verfügbarkeit angemessener Handlungsprogramme, die den gleichen Auftrag zu einer völlig verschiedenen Anforderung für die individuelle Person macht. Erlebensebene: Individuelle Repräsentation der Komplexität Die Anforderungen können der handelnden Person in unterschiedlicher Weise bewusst sein. Dies hängt von der aktuellen Repräsentation der Problemsituation, den Handlungsmöglichkeiten, diese zu bewältigen, und der emotionalen Bewertung der Situation ab. Ein wesentliches Merkmal der emotionalen Lageeinschätzung ist das Kontrollempfinden, volkstümlich gesprochen das Gefühl, die »Lage im Griff zu haben«. Beim Gewichtheber wäre dies die subjektive Einschätzung, ob er ein bestimmtes Gewicht in der aktuellen Situation stemmen kann.
Für die Bewertung der Sicherheit von Handlungen ist die Beschreibung auf der Auftragsebene dazu geeignet, Übereinkunft über die Sachverhalte zu erzielen, auf die sich das Handeln bezieht. Man kann auch Risiken aufzeigen, die für alle handelnden Personen in einem bestimmten Kontext bedeutsam sind. Betrachtungen auf der Anforde-
91
5.3 • Handeln unter komplexen Bedingungen
rungsebene ermöglichen eine differenzielle Analyse von Leistungsgrenzen. Man kann z. B. folgende »3-W-Frage« stellen: Unter welchen Bedingungen treten welche Risiken bei welchen Personen auf? Die Einbeziehung der Erlebensebene ermöglicht schließlich entweder retrospektiv (z. B. bei Gutachten) oder prospektiv (z. B. bei der Vorbereitung von Trainingsmaßnahmen) die Analyse von Entscheidungsgrundlagen in kritischen Situationen.
Zielausarbeitung
Modellbildung und Informationssammlung
Prognose und Extrapolation
Beispiel In unserem Eingangsbeispiel bedeutet die Analyse auf der Auftragsebene zunächst eine Untersuchung der technischen und ökonomischen Arbeitsbedingungen, unter denen die Crew gearbeitet hat. Dies betrifft die konkreten Arbeitsbedingungen im Cockpit und die technischen Systeme, hier insbesondere die Funktionsweise und Bedienung des Systems zur Prognose des Treibstoffverbrauchs (FMS) und natürlich das Verbrauchsgeschehen selbst. In Erweiterung dessen muss auch untersucht werden, wie die organisatorischen Vorgaben (z. B. Standardprozeduren) für Kommunikationsprozesse mit anderen am Flugprozess beteiligten Gruppen aussehen. Schließlich ist bedeutsam, welche Flugroute befolgt wurde. Auf der Anforderungsebene sind neben der physiologischen auch Vorwissenskomponenten bedeutsam. Wie ist das Wissen hinsichtlich des Systems zur Prognose des Treibstoffverbrauchs aufgebaut? Welche Kenntnis von Verhaltensregeln besteht tatsächlich? Welche Fertigkeiten bestehen auf dem Gebiet des Managements kritischer Flugsituationen? Auf dieser Basis kann man im letzten Schritt versuchen, die jeweils aktuelle Repräsentation der verschiedenen Entscheidungssituationen bei der Crew in diesem Prozess zu rekonstruieren (Weiterfliegen trotz niedrigen Tankstands? Notlanden?), die Wahrscheinlichkeit für das riskante Verhalten abschätzen und möglicherweise beurteilen, aufgrund welcher psychologischen Voraussetzungen diese kritische Situation entstanden ist: mangelnde Kenntnis des Systems zur Verbrauchsprognose, mangelnde Kenntnis des Effekts eines verfrüht ausgefahrenen Fahrwerks, Übermut, also übersteigertes Kontrollempfinden.
5
Planung von Aktionen, Entscheidung und Durchführung
Effektkontrolle und Revision von Handlungsstrategien . Abb. 5.1 Stationen des Planens und Handelns. (Nach Dörner, 1989, S. 67. Dietrich Dörner, »Die Logik des Misslingens. Strategisches Denken in komplexen Situationen« Copyright © 1989 by Rowohlt Verlag GmbH, Reinbeck bei Hamburg.)
5.3.2
Anforderungen an menschliches Handeln
Ein Modell der Beschreibung komplexer Anforderungen an das menschliche Handeln ist das Modell der Stationen des Planens und Handelns von Dörner (. Abb. 5.1; vgl. Dörner, 1989). In diesem Modell werden Teilanforderungen beschrieben, die beim Umgang mit komplexen Problemen entstehen. Die Darstellung ist nicht als Ablaufmodell individueller psychischer Prozesse zu verstehen. Obwohl die Stationen aufeinander aufbauen, sind Rücksprünge und Vorgriffe in diesem Geschehen möglich. Die in 7 Kap. 5.2 dargestellten Befunde zum opportunistischen Planen machen zudem deutlich, dass eine streng sequenzielle Abarbeitung dieser Prozesse eher unwahrscheinlich ist, in vielen Fällen praktisch unmöglich, weil z. B. wichtige Informationen für diese Vorgehensweise nicht oder zu spät zur Verfügung stehen. Man kann zeigen, dass man sich das Handeln in komplexen
92
Kapitel 5 • Denken – Entscheiden – Handeln
Effekte erzeugen
5
Lage bewerten und analysieren
Handlungswissen modifizieren
Effekterwartungen erzeugen
Handlungswissen aktivieren
Handlungsplan umsetzen
Handlungsplan vervollständigen
. Abb. 5.2 Handlungsfunktionen beim Umgang mit komplexen Praxisanforderungen. (Nach von der Weth, 2001, S. 112. © Weth, R. von der (2001) Management der Komplexität. Bern: Huber.)
Situationen als ein permanentes, paralleles Zusammenwirken ganz ähnlicher Prozesse vorstellen kann, wie sie im Modell der Stationen des Planens und Handelns beschrieben sind (. Abb. 5.2; vgl. von der Weth, 2001). Die Funktion Handlungsplan umsetzen stellt die Steuerung des aktuellen Verhaltens dar. Diese basiert auf dem Vergleich aktueller Handlungsergebnisse mit erwarteten Effekten. In die Steuerung des aktuellen Verhaltens fließt ebenso das Ergebnis der Handlungsfunktion Lage bewerten und analysieren ein wie das von der Funktion Handlungswissen aktivieren erzeugte Zielsystem. Die Ergebnisse des Handelns werden nach diesem Systemmodell durch die Funktionen Handlungsplan vervollständigen und Handlungswissen modifizieren permanent parallel zu den anderen Funktionen ausgewertet und in verbesserte Strategien zur Komplexitätsbewältigung integriert. Deutlich wird bei dieser Betrachtung, dass das »klassische rationale Entscheiden« (7 Kap. 5.4), das auf vollständigen Informationen und zweckrationalen Entscheidungsregeln beruht, gar nicht der Normalfall des Handelns in komplexen Situationen sein kann. Der Mangel an sicheren Informationen und Stabilität der Entscheidungssituationen macht gerade in sehr komplexen Situationen intelligente und wissensbasierte Formen der Improvisation (wie das opportunistische Planen) notwendig, weil in vielen Fällen keine Alternative besteht. Allerdings birgt eine solche Vorgehensweise auch
Risiken in sich, die in komplexen Handlungssituationen zu krassen Fehlentscheidungen mit erheblichen Konsequenzen führen können.
5.3.3
Risiken und Fehler
Zu beachten ist, dass es in komplexen Situationen nicht a priori möglich ist, von Fehlern zu sprechen (7 Kap. 3). Ein Fehler erweist sich erst im Ergebnis als solcher. Handelt eine Person z. B. gegen eine Standardprozedur und rettet auf diese Weise ein Flugzeug, ist dieses Verhalten nicht regelkonform, man würde aber nicht von einem Fehler sprechen, sondern von Flexibilität. Umgekehrt gab es schon, wie im Falle des SwissAir-Unglücks, Situationen, in denen sich regelkonformes Verhalten als katastrophal erwies. > Eine Handlung wird im Allgemeinen erst bei nachträglicher Betrachtung zum Fehler.
Es ist daher sinnvoller, von riskanten Handlungen anstelle von Fehlhandlungen zu sprechen. Diese sind umso negativer zu beurteilen, je mehr das von den Handelnden geschätzte Sicherheitsrisiko vom tatsächlichen Sicherheitsrisiko abweicht. In komplexen Situationen lassen sich Ursachen für solche Abweichungen anhand der oben beschriebenen Handlungsfunktionen klassifizieren. Was erhöht
93
5.3 • Handeln unter komplexen Bedingungen
die Wahrscheinlichkeit der Erzeugung riskanter Effekte des eigenen Tuns? 5 Riskante Handlungen bei der Umsetzung von Handlungsplänen sind sog. Ausführungsfehlern zuzuordnen, d. h. die unsachgemäße und fehlerhafte Umsetzung von geplanten Handlungen, z. B. Risiken durch den Transport ungenügend gesicherter Objekte auf einem Gabelstapler oder mangelnde Aufmerksamkeitszuwendung bei der manuellen Bedienung von Anlagen. 5 Unangemessene Effekterwartungen: Handlungsfolgen bzw. durch Eigendynamik entstandene Folgen werden in ihren Effekten gar nicht, nicht richtig oder ungenau eingeschätzt. Dies kann auf mangelndem Wissen beruhen oder emotionale Gründe haben. Es ergeben sich negative Auswirkungen auf andere Handlungsfunktionen (Selbstüberschätzung der eigenen Problemlösefähigkeit bzw. Unterschätzung von Risiken durch bisherige Erfolge). 5 Aktivierung falschen Handlungswissens: Risiken werden durch den Abruf falschen Wissens erzeugt. »Falsch« kann dieses Wissen aus verschiedenen Gründen sein, sei es, weil es z. B. nicht situationsangemessen ist, sei es, weil es in sich nicht schlüssig oder etwa veraltet ist. 5 Unangemessene Lagebewertung und Analyse: Hier geht es um die unzureichende Erfassung der Konsequenzen der aktuellen Situation für das eigene Handeln. Dies kann durch Fehler bei der Analyse, aber auch durch Bewertungsfehler bei der Beurteilung der Wahrscheinlichkeit und Bedeutsamkeit von Konsequenzen möglicher Handlungen entstehen. 5 Unangemessene Vervollständigung und Konkretisierung von Handlungsplänen:
Planung kann entweder zu ungenau oder unvollständig sein, um der Komplexität von Handlungssituationen gerecht zu werden. Andererseits kann auch genau das Gegenteil der Fall sein: Dörner (1989) beschreibt das Phänomen der »Überplanung«, bei dem angesichts knapper zeitlicher bzw. materieller Ressourcen zu ausufernd geplant wird. 5 Unangemessene Modifikation des Handlungswissens: Dies sind falsche Schlüsse aus bisherigen Erfahrungen und der Erwerb un-
5
angemessener Verhaltensmuster. Besonders problematisch ist der Erwerb unangemessener Strategien beim generellen Umgang mit neuen und komplexen Anforderungen. Bestes Beispiel ist der Erwerb sog. Kompetenzschutzmechanismen (7 Kap. 6). Riskante Verhaltensweisen lassen sich also auf unangemessene Handlungsfunktionen zurückführen. Das Problem liegt dabei im Begriff »unangemessen«: Was unangemessen ist, lässt sich nicht allgemein definieren, sondern hängt von der Situation ab. In einer hochgradig eigendynamischen Situation (z. B. bei der Erstversorgung von Opfern eines schweren Massenunfalls auf einer Autobahn) ist ein bestimmtes Muster der Problembewältigung (z. B. breite Analyse von Vorgehensmöglichkeiten, genaues Abwägen von Risiken vor einer Entscheidung, Infragestellen bisheriger Reaktionsmuster) eine unangemessene Überplanung. In anders gelagerten komplexen Entscheidungssituationen, z. B. bei der Analyse und Bewertung der Effekte neuer Technologien, ist genau dieses Verhalten notwendig, um riskante Neben- und Fernwirkungen zu erkennen. Ein adäquater Umgang mit komplexen Anforderungen bedeutet demnach, in der Lage zu sein, solche unterschiedlichen »Komplexitätsprofile« zu erfassen und das eigene Handeln darauf auszurichten.
5.3.4
Hilfen für den Umgang mit Komplexität
Es existieren vielfältige Hilfen, um das Denken, Entscheiden und Handeln von Menschen in komplexen und kritischen Situationen zu unterstützen. Zu deren Klassifikation sind zwei Unterscheidungen bedeutsam. 5 Zum einen kann Verhaltens- von Verhältnisprävention abgegrenzt werden. Dabei meint Verhaltensprävention die Unterstützung des Erwerbs angemessener Verhaltensmuster für spezifische Fälle sowie die Unterstützung beim Erwerb allgemeiner Strategien, um sich in neuartigen und komplexen Situationen besser zurechtfinden zu können. Dagegen wird bei der Verhältnisprävention nicht auf den
94
5
Kapitel 5 • Denken – Entscheiden – Handeln
Menschen selbst eingewirkt, sondern auf die Rahmenbedingungen, unter denen die Person handelt. Dies reicht von der einheitlichen Gestaltung der Passagierkabinen in Flugzeugen, die das schnelle Reagieren in Notfällen erleichtert, bis zur Gestaltung von Krisenstabslagezentren, die eine effiziente interne und externe Kommunikation der Krisenstabsmitglieder unterstützt. Hierzu zählt aber auch die Gestaltung von Geschäftsprozessen oder Organisationsformen. 5 Sowohl bei der Verhaltens- als auch bei der Verhältnisprävention gibt es zwei Zielrichtungen in der Unterstützung. Die eine besteht darin, die Übereinstimmung des menschlichen Handelns mit Standardprozessen zu steigern (7 Kap. 17), um z. B. in Krisensituationen schnelles und effizientes Reagieren in standardisierter Form zu erreichen. Dem gegenüber stehen Maßnahmen, die die Flexibilität von Einzelpersonen, Gruppen und Organisationen steigern sollen, damit sie mit neuartigen Krisensituationen besser umgehen können. Auch die in diesem Buch beschriebenen Aktivitäten lassen sich in dieses Schema einordnen.
5.4
5.4.1
Entscheiden als Komponente von Handlungen Merkmale und Bestandteile von Entscheidungsprozessen
Fassen wir das bisher Gesagte zusammen: Beim Handeln bestehen in vielfältiger Weise voneinander abhängige verschiedene Vorgehensvarianten. Über Handlungswege, mögliche Effekte und Stabilität der Rahmenbedingungen kann Unklarheit herrschen. In all diesen Fällen ist entweder eine Auswahl oder eine Entscheidung zu treffen. Eine Auswahl- oder Wenn-Dann-Situation liegt vor, sofern einer Bedingung fest eine bestimmte Handlung (Maßnahme mit bekannten Folgen) und einer anderen Bedingung eine andere Maßnahme zugeordnet ist. Die Bedingungen müssen zutreffend identifiziert und die zugehörigen bekannten Maßnahmen initiiert werden.
Beispiel Auswahlsituationen 4 Wenn Rot an der Ampel, dann Anhalten; wenn Grün, dann passieren. Einsichtige Passanten entscheiden nicht über die Handlungsfolge von Rot, sondern befolgen diese wissend. 4 Beim Sortieren von Küken nach dem Geschlecht gilt: wenn weiblich, dann zur Legebatterie; wenn männlich, dann zur Hähnchenmast. Die Sortierer legen nicht fest, d. h. entscheiden nicht, welches Geschlecht ein Küken haben soll, sondern ermitteln dieses und ordnen demgemäß zu.
Beim Entscheiden liegen keine der Person bekannten konventionell gebotenen oder naturgemäß fixierten Zuordnungen von Bedingungen zu Handlungserfordernissen vor, die lediglich zu identifizieren und zu befolgen sind. Vielmehr besteht Tätigkeits- bzw. Entscheidungsspielraum, d. h., es ist herauszufinden, welche Handlungserfordernisse mit welchen Wirkungen (Folgen) und Nebenwirkungen erwünschter bzw. unerwünschter Art die Wahl einer Merkmalskonstellation gegenüber einer anderen erfordern, und danach ist eine dieser Konstellationen zu realisieren. Beispiel Entscheidungssituation Bei der Entscheidung zwischen verschiedenen Steuerungssystemen für eine Produktionsanlage sind Eignung, Anschaffungskosten, Wartungskosten, Trainingsbedarf etc. als entscheidungsrelevante Kriterien zunächst zu identifizieren, sachgerecht einzustufen, bedeutungsgemäß zu gewichten und sodann integrativ abzuwägen.
In Risikotechnologien wird angestrebt, Entscheidungen in sog. ungeregelten Situationen zugunsten von Auswahlen in geregelten Situationen dadurch zurückzudrängen, dass für möglichst alle denkbaren Bedingungen Handlungsregeln in Betriebshandbüchern berücksichtigt werden. Mit diesen als verbindliche Vorschriften festgelegten Handlungsregeln u. a. für Störfälle sollen die Gefahren schlecht durchdachter Entscheidungen unter Zeitdruck, bei Angst oder in mangelhaft koordinierten Gruppenprozessen ausgeschlossen werden. Zu beachten
95
5.4 • Entscheiden als Komponente von Handlungen
bleiben jedoch mögliche Problemverschiebungen zur mangelnden Findefreundlichkeit, Eindeutigkeit und Handlungskompatibilität der Betriebshandbücher sowie zu Bedingungskonfigurationen, die in den Betriebshandbüchern nicht vorbedacht waren und als seltene Ereignisse auf ungeübte Entscheider treffen. Das Entscheiden und der Entschluss, eine der gegebenen Möglichkeiten zu verwirklichen, heben den Spielraum auf. Dieser Übergang vom bloßen Wünschen eines Ergebnisses zum Wollen wird gelegentlich metaphorisch als das »Überschreiten des Rubikon« bezeichnet (Heckhausen & Gollwitzer, 1987; Straub, 1935). Wegen des Aufgebens der Wahlfreiheit zugunsten einer einzigen zu verwirklichenden Maßnahme mit ihren Folgen zögern Menschen in unterschiedlichem Maße Entscheidungen hinaus. Entscheiden ist unerlässlicher Bestandteil zielgerichteter, willensgeleiteter Tätigkeiten nur dann, wenn Tätigkeitsspielraum gegeben ist. Beispiel Sofern aus technischen Gründen nur ein Steuerungssystem für die vorhandene Produktionsanlage infrage kommt, besteht keine Entscheidungsmöglichkeit.
Entscheiden mit der Folge der Alternativenaufhebung ist grundsätzlich in jeder Handlungsphase erforderlich, also beim Orientieren in der Umwelt bzw. im eigenen Wissen, beim Zielstellen, beim Entwerfen bzw. Aktivieren von Handlungsprogrammen, beim Auswählen eines Programms einschließlich der Mittel und Partner, beim Ausführen sowie beim Kontrollieren des Ausführens bzw. des Resultats als Vergleich mit dem im Gedächtnis gespeicherten Ziel. Die Kognitionsforschung behandelt üblicherweise das Entscheiden vorzugsweise als bewusstes und mehr oder weniger systematisches (rationales) Abwägen sowie Auswählen und Zurückstellen von Alternativen. Sie beachtet dabei persönliche Beziehungen zu entscheidungsrelevanten Inhalten (beispielsweise gewohnheitsbedingte Vorlieben; Ängste vor bestimmten Folgen) erst in zweiter Linie. Das tätigkeitsleitende Entscheiden im Alltagshandeln beschränkt sich nicht auf das rational
5
abwägende, präzis definierte Begriffe und Aussagen nutzende Entscheiden, sondern vermag mit unscharfen Begriffen, aussagen- und erfahrungsgestützten Näherungsprozeduren lebenspraktisch nützliche handlungsleitende Entscheidungen zu treffen (»bounded rationality concept«, »ignorance-based desicion-making«, »simple heuristics«; Gigerenzer, Todd & The ABC Research Group, 2001). Entscheidungsvorgänge haben folgende prägende Bestandteile: 5 Anzahl der objektiven Verhaltensmöglichkeiten (Alternativen), 5 subjektiver Wert oder die Bedeutsamkeit (Valenz), die Alternativen besitzen und die realisiert bzw. angeeignet werden kann, 5 Informationen über Folgen von Alternativen (Handlungsausgänge) mit den Wahrscheinlichkeiten ihres Eintretens. Im Alltag fehlen jedoch häufig wesentliche Informationen, d. h., es müssen Entscheidungen unter Unsicherheit getroffen werden.
5.4.2
Entscheidungsmodelle und Entscheidungsarten
Vereinfachend wird davon ausgegangen, dass für Entscheidungen der Wert (die Bedeutung) einer Alternative sowie die Erwartung (die Wahrscheinlichkeit), dass diese auch verwirklicht werden kann, ausschlaggebend sind. Abstrahierend wird die untrennbare Verknüpfung der beiden Bestandteile als multiplikative Verbindung dargestellt (Erwartungmal-Wert-Modelle). Die Multiplikation mit Null führt zum Produkt Null. Einfacher: Bei vollständig fehlender Wahrscheinlichkeit, das erstrebte Ergebnis zu erreichen, d. h. bei sicherer Unmöglichkeit, wird der höchste Wert nicht zum Handeln veranlassen. Bei absoluter Wertlosigkeit des Resultats aktiviert die größte Wahrscheinlichkeit, also auch die Sicherheit, das wertlose Produkt wirklich zu erzielen, kaum zum Handeln. Die Unterstellung in diesem Modell ist, dass Menschen danach streben, das Produkt aus Wert oder Nutzen und Realisierungswahrscheinlichkeit zu maximieren. Menschen können aber den
96
5
Kapitel 5 • Denken – Entscheiden – Handeln
Wert einer Handlungsalternative mit ihren Ergebnissen und die Erwartung, sie zu erreichen, in ihren Abwägungen unterschiedlich stark beachten: Bei valenzbedingtem Entscheiden dominiert der Wert (die Bedeutung) einer Alternative, während deren Realisierungschancen zweitrangig bleiben. Bei chancenbedingtem (wahrscheinlichkeitsbedingtem) Entscheiden dominiert die Erreichungswahrscheinlichkeit, während der Wert zweitrangig bleibt. Beim sog. lagebedingten Entscheiden werden Valenzen und Wahrscheinlichkeiten ausgewogen einbezogen. Die praktischen Anwendungsschwierigkeiten dieser Überlegungen betreffen die inhaltliche Definition, was Nutzen bedeutet, und deren Operationalisierung sowie die zahlenmäßige Belegung und schließlich die Ermittlung der Wahrscheinlichkeiten. Bezüglich der Wahrscheinlichkeit bzw. Sicherheit der Handlungsausgänge angesichts häufig vorliegenden Fehlens ausreichender Information kann man das Entscheiden unterteilen in: 5 Sichere Entscheidungen, bei denen die objektive Wahrscheinlichkeit des Handlungsausganges bekannt ist: sicher (p = 1,0) oder als keinesfalls gegeben (p = 0,0). Ein Beispiel ist die Wahrscheinlichkeit eines Stromschlags bei ein- bzw. ausgeschaltetem Hauptschalter während einer Reparatur an spannungsführenden Elementen ohne andere Schutzmittel. 5 Risikoentscheidungen, bei denen die tatsächliche (objektive) Wahrscheinlichkeit zwar ebenfalls bekannt ist, aber zwischen Null und Eins liegt (0
5 Natur bzw. Zufall (z. B. bei der Auslosung nach Wappen oder Zahl): Hier handelt es sich um einen Grenzfall zwischen Auswählen und Entscheiden, insofern inhaltliche Abwägungen nicht erfolgen können. 5 Eigene Fähigkeiten (z. B. die veranlasste Höhe der Latte beim Hochsprung): Hier ist das Abwägen des und das Entscheiden über das aktuell realisierbare eigene Befähigungsausmaß erforderlich. 5 Andere Personen (z. B. die Angriffsart eines Fechtgegners): Hier sind Verhaltensformen eines Gegners vorausschauend abzuwägen und danach ist über das eigene Vorgehen zu entscheiden. Die Entscheidungsforschung stellt mit Unterstützung der Mathematik Arbeitshypothesen über das Zusammenwirken der Komponenten bei den verschiedenen Entscheidungsarten, die sog. Entscheidungsmodelle, bereit. Sie unterscheiden sich u. a. darin, ob Einzelentscheidungen (statische Modelle) oder ganze Entscheidungsfolgen (stochastische Modelle) beschrieben werden sollen. Die Letzteren versuchen dem alltagsrelevanten Verhalten von Menschen Rechnung zu tragen: Menschen verhalten sich nämlich dann, wenn sie mehrere Entscheidungen hintereinander fällen müssen, nicht gleichbleibend (konsistent) und nicht logisch folgerichtig (transitiv). Im Alltag ist ein inkonsistentes und intransitives Entscheiden häufig zu beobachten. Des Weiteren entstehen verschiedene Entscheidungsmodelle je nachdem, ob die (wie auch immer operationalisierte) tatsächliche, objektive Beschaffenheit von Wert und Wahrscheinlichkeit oder der subjektiv eingeschätzte Nutzen und die subjektive Erwartung seines Eintritts beachtet werden. Im Alltag sind in der Regel die objektiven Wahrscheinlichkeiten gar nicht bekannt, sondern es werden eindrucksgestützte Erwartungen wirksam. Auch der tatsächliche Wert einer Alternative ist gleichfalls nicht immer bekannt oder öfters überhaupt nicht prognostisch bestimmbar, sondern es gehen vage geschätzte und schwerlich präzise skalierte Nutzenseindrücke in das Entscheiden ein. Wir verzichten hier auf die eingehende Darstellung der oft zitierten 4 statischen Entscheidungsmodelle nach Edwards (1986), weil sie letztlich
5.4 • Entscheiden als Komponente von Handlungen
die denkbaren Kombinationsmöglichkeiten der bekannten vs. geschätzten beiden Komponenten Wert/Nutzen und Wahrscheinlichkeiten/Erwartung nur zusammenstellen.
5.4.3
Besonderheiten des alltäglichen (natürlichen) Entscheidens
Vereinfachend ausgedrückt befasste sich die Entscheidungsforschung lange mit künstlich erzeugten Entscheidungssituationen, die dem Alltagsentscheiden keineswegs entsprechen. Inzwischen sind die Illusionen der rationalistischen Entscheidungstheorien erkennbar geworden und allmählich wird das »unbekannte Land« des Alltagsentscheidens erforscht (Gigerenzer, Todd & ABC Research Group, 2001). Dabei werden die tatsächliche Komplexität tätigkeitsleitenden Entscheidens und damit Ansatzstellen für Sicherheitsanliegen deutlicher. Es werden die Defizite im alltäglichen Entscheiden wie auch die Stärken bei Experten erkennbar. z
Defizite
Außerhalb der Artefakte des Labors bestehen in der Regel mehrere Handlungsmöglichkeiten, die in ihren Folgen meist nicht säuberlich definiert vorgegeben, sondern selbst erst zu entdecken sind. Die Folgen sind oft nicht evident, sondern mühsam abzuleiten. Ziele, Alternativen, deren Abstufungen (Attribute) und der Nutzen der Zielerreichung sind unscharf und nicht mit einer Zahl auf einer Dimension abbildbar. Die Situationen und damit die Ziele, Bewertungen etc. sind darüber hinaus veränderlich. Die Gesamtheit der zu berücksichtigenden Sachverhalte und ihrer Veränderungen überschreitet die Kapazität des Bewusstseins (Arbeitsgedächtniskapazität), sodass mehr oder weniger begründete Reduktionen, Übersehen und Vergessen naheliegen. Damit ist ein ausschließlich rationales Vorgehen unwahrscheinlich, zumal Entscheidungen nicht aus dem gesamten Verhaltensablauf isolierbar sind (oft gilt es zunächst einmal, überhaupt mit dem Handeln anzufangen), nicht unabhängig von subjektiven Zielen und Wertungen sowie an die potenziell begrenzte Kompetenz des Entscheiders gebunden sind. Darüber hinaus belastet das
97
5
komplexe kognitive Prozedere und wird daher von allen Menschen gern gemieden. Die Begrenztheit der Arbeitsgedächtniskapazität legt das Nutzen erleichternder, vereinfachender Faust- oder Finderegeln (Heuristiken) nahe, die teilweise Vorzüge mit Nachteilen verbinden. Beispielsweise kann die Auffälligkeit von Sachverhalten die Wahrnehmung ihrer tatsächlichen Häufigkeit verzerren; globale Ähnlichkeiten können Merkmalsunterschiede verdecken; Ersteindrücke können nachfolgende modifizieren. In allen diesen Situationen werden nicht selten vereinfachende Vorgehensweisen eingeschlagen, die Erleichterungen mit Verzerrungen erkaufen. Die Kenntnis der Merkmale des Entscheidens im Alltag ermöglicht mithin, seine Hauptdefizite zu ermitteln (zur Methodik vgl. Hollnagel, 1998) und durch geeignete Hilfsmittel zurückzudrängen sowie gleichzeitig seine Stärken, vor allem seine hohe Wirklichkeitsnähe zu nutzen. Dabei ist insbesondere Folgendes zu beachten: 5 Das Entwickeln einer möglichst präzisen Zieldefinition; unklare Ziele ermöglichen keine klaren Entscheidungen über zielführende Maßnahmen. 5 Das Erfassen aller Handlungsmöglichkeiten (Alternativen), zwischen denen zu entscheiden ist. Wenn die optimale Alternative überhaupt nicht einbezogen wird, kann sie im Entscheiden auch nicht gewählt werden. 5 Die umfassende Suche und Verarbeitung der erforderlichen Information über die Auswahlmerkmale (Attribute), die Attributausprägungen (Attributstufen), die Bedeutung (Gewichtung) ihres Beitrags zum Ziel (Nutzen) und die Wahrscheinlichkeiten der Zielerreichung unter den verschiedenen Alternativen. Die größten und gefährlichsten Defizite des ungestützten Alltagsentscheidens bestehen bei der Problemdifferenzierung durch die Informationssuche und die Informationsbearbeitung. Mit der objektiv wachsenden Informationsmenge, die hauptsächlich aus der Anzahl möglicher Alternativen multipliziert mit der Anzahl ihrer Attribute (Auswahlmerkmale) resultiert, wächst die Wahrscheinlichkeit der Überforderung des Menschen: Bei nur 4 Alternativen und je 6 Merkmalen dieser Alter-
98
5
Kapitel 5 • Denken – Entscheiden – Handeln
nativen liegt bereits eine Matrix mit 24 Feldern vor, die ohne externe Unterstützung, beispielsweise ohne Aufschreiben der Alternativen, der Attribute, der Attributabstufungen und ohne Darstellung als Entscheidungsmatrix nicht bearbeitbar ist. Der hochgefährliche Ausweg vieler Menschen ist 5 das unsystematische Beachten wechselnder Attribute pro Alternative, 5 das Auswählen nur der Informationen, die eigene Vermutungen oder Wünsche stützen sowie 5 das Verdrängen widersprechender Information oder auch 5 das Übergehen jener Attribute, deren Ausprägungen nicht für alle Alternativen bekannt oder gegenwärtig erinnerbar sind. Das Aufstellen einer Entscheidungsmatrix ist also eine einfache, fehlerreduzierende Entscheidungsunterstützung. Das kann manuell oder unter Nutzung rechnerbasierter Entscheidungshilfensysteme geschehen (Sachse, 1995; Zimolong & Rohrmann, 1988). z
Stärken
Umgekehrt können Stärken von Entscheidungsexperten aus dem Alltag für ein sicherheitsbezogenes Entscheiden nutzbar gemacht werden: 5 Experten gehen zweistufig vor: Sie fällen zunächst Näherungsentscheidungen und verbessern diese danach anhand der Rückmeldungen weiter. Sie machen damit zwar kleinere, korrigierbare Fehler, aber weniger schwerwiegende. 5 Experten konsultieren häufiger andere Fachleute als unerfahrene Entscheider. 5 Experten korrigieren ihre Anfangsfestlegung und lernen aus früheren Entscheidungen. 5 Experten nutzen externe Hilfen (Notizen, Entscheidungsmatrizen, Bezugswerte). 5 Experten zerlegen große Probleme zunächst, finden Lösungen für die Teilprobleme und integrieren diese abschließend zu einer Gesamtlösung. Schließlich muss eine Psychologie der Sicherheit die Fehlerquellen von Gruppenentscheidungen und die Techniken zu deren Vermeidung nutzen und damit Gruppenvorteile ermöglichen (7 Kap. 7).
5.5
Zusammenfassung und Ausblick
Zielgerichtete und willentlich geführte Tätigkeiten sind die Hauptform menschlichen Verhaltens. Das gilt für Erwerbs-, Eigen- und Ehrenamtsarbeit ebenso wie für einen Teil der Freizeittätigkeiten, beispielsweise Haushalts- oder sportliche Tätigkeiten. Sofern diese zielgerichteten willentlichen Tätigkeiten wenig bekannte Sachverhalte zum Gegenstand haben bzw. unter neuartigen Ausführungsbedingungen abzuwickeln sind, reichen bewährte Routinen oder vorhandenes Wissen zu ihrer Regulation nicht aus. Denkleistungen müssen dann ihre Regulation unterstützen oder übernehmen. Das gilt insbesondere, wenn unter komplexen, vernetzten und dynamischen Umständen zu handeln ist. In der psychischen Regulation zielgerichteten Handelns sind mehrere fehleranfällige Teilprozesse enthalten, deren fehlende, falsche oder unvollständige Ausführung notwendigerweise zu Fehlhandlungen und Handlungsfehlern führt. Das Wissen um diese Zusammenhänge liefert Möglichkeiten zur Verminderung des Fehlhandlungsrisikos und im günstigsten Fall zu seinem Ausschluss. Ein potenziell risikohaltiger Teilprozess in der Handlungsregulation ist das im Verlaufe der Vorbereitung und Ausführung zielgerichteter Tätigkeiten wiederholt erforderliche Entscheiden. Geeignete Entscheidungsunterstützungen sind daher eine unverzichtbare Möglichkeit der Fehlervermeidung und Risikominderung. In der grundlagenorientierten und der angewandten Forschung stehen trotz weiteren Vertiefungsbedarfs seit Längerem gesicherte Erkenntnisse bereit, die zur Sicherung absichtsgeleiteten Handelns insbesondere im Arbeitsalltag beitragen können (u. a. Dörner, 1989; Gigerenzer, Todd & ABC Research Group, 2001; Hollnagel, 1998; Sachse, 1995; Zimolong & Rohrmann, 1988). Erhebliche Reserven stecken in der systematischen Nutzung dieses Erkenntnisbestands u. a. in risikobehafteten Technologien.
Literatur
Literatur Ajzen, J. (1991). The theory of planned behavior. Special issue: Theories of cognitive self-regulation. Organizational Behavior and Human decision Processes, 50, 179–211. Ajzen, J. & Fishbein, M. (1980). Understanding attitudes and predicting social behavior. Englewood Cliffs, N. J.: Prentice Hall. Clauß, G. V. (Hrsg.) (1995). Fachlexikon abc Psychologie (5. Aufl.). Thun/Frankfurt a. M.: Deutsch-Verlag. Dörner, D. (1989). Die Logik des Misslingens. Reinbek: Rowohlt. Edwards, W. (1986). Entscheidungsanalyse: Eine nichtpsychologische Psychotechnologie. In V. Sarris & A. Parducci (Hrsg.), Die Zukunft der experimentellen Psychologie (S. 325–337). Berlin: VEB Deutscher Verlag der Wissenschaften. Fishbein, M. (1980). A theory of reasoned action. Some applications and implications. In H. E. Howe & M. M. Page (Eds.), Nebraska Symposium on Motivation (pp. 65–116). Licoln/NE.: University of Nebraska Press. Flugunfall-Untersuchungsstelle Österreich (2006). Untersuchungsbericht. Online-Dokument, verfügbar unter http://versa.bmvit.gv.at/uploads/media/ A310_GZ._85007_vom_12._Juli_2000_2_02.pdf [Zugriff am 16.06.2011]. Funke, J. (1990). Systemmerkmale als Determinanten des Umgangs mit dynamischen Systemen. Sprache und Kognition, 9, 143–154. Gigerenzer, G., Todd, P. M. & ABC Research Group (2001). Simple heuristics that make us smart. Oxford: University Press. Hacker, W. (2005). Allgemeine Arbeitspsychologie. Psychologische Regulation von Wissens-, Denk- und körperlicher Arbeit (2. Aufl.). Bern: Huber. Heckhausen, H. & Gollwitzer, P. M. (Hrsg.) (1987). Jenseits des Rubikon. Der Wille in den Humanwissenschaften. Berlin: Springer. Hollnagel, E. (1998). Cognitive reliabilty and error analysis method (CREAM). Oxford u. a.: Elsevier. IAEA (2006). Nuclear Safety Review for the Year 2005. Wien: IAEA. Jonas, K. & Doll, J. (1996). Eine kritische Bewertung der Theorie überlegten Handelns und der Theorie geplanten Verhaltens. Zeitschrift für Sozialpsychologie, 27, 18–31. Lindblom, E. C. (1959). The science of muddling-through. Public Administration Review, 19, 79–88. Rubinstein, S. L. (1958). Grundlagen der Allgemeinen Psychologie. Berlin: Volk & Wissen. Sachse, P. (1995). Entwicklung und Bewertung einer computergestützten Entscheidungshilfe. Frankfurt a. M.: Peter Lang. Sachse, P. (2002). Idea materialis. Entwurfsdenken und Darstellungshandeln: Über die allmähliche Verfertigung der Gedanken beim Skizzieren und Modellieren. Berlin: Logos.
99
5
Sachse, P., Hacker, W. & Leinert, S. (2004). External thought – Does sketching assist problem analysis? Applied Cognitive Psychology, 18, 415–425. Schaub, H., Strohschneider, S. & von der Weth, R. (1994). Was ist Denken – Neuere Ergebnisse der Denkpsychologie. In G. Schwalfenerg (Hrsg.), Handbuch Weiterbildung (S. 245–277). Köln: Landesverband der Volkshochschulen in Nordrhein-Westfalen. Schön, D. A. (1983). The reflective practitioner. How professionals think in action. London: Temple Smith. Straub, W. (1935). Leitlinien einer Psychologie der Willensbildung. Bericht des 14. Kongresses der Deutschen Gesellschaft für Psychologie in Jena (S. 282 f.). Jena: Fischer. Visser, W. (1994). Organisation of design activities: opportunistic with hierarchical episodes. Interacting with Computers, 6, 239–274. von der Weth, R. (2001). Management der Komplexität. Bern: Huber. Zimolong, B. & Rohrmann, B. (1988). Entscheidungshilfetechnologie. In D. Frey, C. Graf Hoyos & D. Stahlberg (Hrsg.), Angewandte Psychologie (S. 625–646). München: Psychologie Verlags Union.
101
Emotion und Handeln Dietrich Dörner
6.1
Einleitung: Begriff »Emotion« – 103
6.2
Psi: Integrierte Theorie von Motivation, Kognition und Emotion – 103
6.2.1 6.2.2 6.2.3
Bestimmtheit und Kompetenz – 104 Kompetenz, Neid und Schuld – 106 Verhaltenstendenzen – 106
6.3
Emotionen und Handeln – 107
6.3.1 6.3.2 6.3.3 6.3.4 6.3.5
Zielelaboration – 108 Situationsanalyse – 110 Prognosen – 113 Planen und Entscheiden – 114 Kontrolliertes Tun – 117
6.4
Zusammenfassung und abschließende Bemerkungen – 118 Literatur – 119
P. Badke-Schaub et al., Human Factors, DOI 10.1007/978-3-642-19886-1_6, © Springer-Verlag Berlin Heidelberg 2012
6
102
Kapitel 6 • Emotion und Handeln
Beispiel
6
Am 27.03.1977 stießen auf dem Flughafen von Teneriffa zwei Passagierflugzeuge (KLM Flug 4805 und PanAm Flug 1736) auf der Startbahn zusammen. Dieser Unfall, mit 583 Toten bis heute der schlimmste der zivilen Luftfahrt, war ausschließlich auf menschliche Faktoren zurückzuführen – beide Maschinen waren voll funktionsfähig. Was war passiert? Nach einer Bombenexplosion in Las Palmas diente der Flughafen Teneriffa als Ausweichflughafen für fünf große Maschinen. Die Taxiways und die Startbahnen waren mit wartenden Flugzeugen belegt, die Sichtverhältnisse waren aufgrund von Nebel schlecht und die Lotsen hatten keinen Bodenradar. Die KLM-Maschine erhielt die Anweisung, auf Bahn 12 zur Startposition zu rollen, 180° zu wenden und dort die Startfreigabe abzuwarten (um dann später von dieser Bahn abzuheben). Die PanAm-Maschine erhielt kurz darauf die Anweisung, ebenfalls auf Bahn 12 zu rollen (da der Taxiway voll war), um dann bei der dritten Querverbindung zum Taxiway abzubiegen (um dann später von Bahn 30 abzuheben). Die KLM 4805 erhielt um 17.05 Uhr die erbetene Flugverkehrsfreigabe (die noch keine Startfreigabe ist) für einen Start in Richtung des Papa-Beacons. Die Crew wiederholte die Freigabe mit den Worten »We are now at take-off« und begann zu rollen. Da die PanAm-Maschine noch auf der Bahn war, wies der Lotse die KLM-Maschine an zu warten – diese Nachricht war aber nicht zu hören, da in dem Moment die PanAm-Besatzung mitteilte, dass sie die Abzweigung im Nebel verpasst hatte und noch auf der Startbahn war. Im KLM-Cockpit war anstatt der beiden Mitteilungen nur ein schrilles Geräusch zu hören. Danach konnte die KLM-Crew hören, dass die PanAm-Crew sagte: »We will report when it is clear.« Der Flugingenieur der KLM fragte daraufhin zweimal den Kapitän, ob die Bahn frei sei, was der Kapitän mit einem nachdrücklichen »Oh, Yes!« beantwortete. Die KLM 4805 beschleunigte weiter. Als sie die andere Maschine schließlich auf der Bahn sah, versuchte die KLM-Crew abzuheben, um eine Kollision zu vermeiden. Da sie nicht mehr
die nötige Höhe gewann und auch die PanAm nicht schnell genug von der Bahn herunterkam, kollidierten die beiden Flugzeuge. Dieser tragische Unfall führte zu zahlreichen Veränderungen der internationalen Luftfahrtregulationen, u. a. in der Phraseologie (7 Kap. 8). Er war auch einer der Anstöße für die Entwicklung des CRM-Trainings (Crew Resource Management Training; 7 Kap. 9 und 19), da sich in der Unfallanalyse zeigte, dass die Zusammenarbeit der Crew über Hierarchiegrenzen hinweg nicht gut funktioniert hatte. Eine wichtige Rolle spielten bei diesem Unfall neben Kommunikationsproblemen auch Motivation und Emotion, auch wenn diese – wie alle psychischen Prozesse – nicht so eindeutig belegt werden konnten wie sprachliche Missverständnisse oder fliegerische Fehler. Der Unfallbericht (Aviation Safety Network, o. J.) stellt fest:
» The KLM aircraft had taken off without take-off clearance, in the absolute conviction that this clearance had been obtained, which was the result of a misunderstanding between the tower and the KLM aircraft.
«
Dieses Missverständnis hatte auch mit unklarer Sprache zu tun, aber natürlich hat »absolute Überzeugung« auch eine motivationale Seite. Es ist plausibel anzunehmen, dass der Kapitän nach stundenlanger Wartezeit endlich starten wollte, sodass weitere Verzögerungen auf starke Unlust und Abwehr stießen. Zudem ergab sich durch kurzzeitiges Auflockern des Nebels ein »window of opportunity«. Dadurch wird die Auswahl einer Absicht wahrscheinlicher, wie noch gezeigt wird. Zudem könnte Kompetenzdemonstration seitens des KLM-Kapitäns eine Rolle gespielt haben: Es war eine bekannte Führungskraft der KLM, Lehrer im neuen Simulator und einer der fähigsten Piloten der KLM. Der Flugingenieur fragte zwar nach, bestand aber nicht auf einer Klärung der Lage. Es ist anzunehmen, dass in der damaligen strikten Hierarchie Emotionen wie Angst oder Sorge um den eigenen Status die Entscheidung, nicht zu widersprechen, mitbestimmten. Der Kopilot war an der Interaktion nicht beteiligt, er sah sich lediglich als Hilfskraft.
6.2 • Psi: Integrierte Theorie von Motivation, Kognition und Emotion
6.1
Einleitung: Begriff »Emotion«
Jeder weiß, wie sich Angst anfühlt oder Erschrecken, was Erstaunen, Freude oder Glück ist. Ich verstehe, was jemand meint, wenn sie sagt, sie sei glücklich, und ich weiß, was jemand fühlt, wenn er sagt, dass er wütend darüber sei, eine Prüfung nicht bestanden zu haben. Ich weiß, dass er sich ungerecht behandelt fühlt, denn sonst würde er sagen, er sei traurig. Wir haben wenig Schwierigkeiten, uns über Gefühle und Emotionen zu verständigen. Dagegen hat die Psychologie im Laufe des letzten Jahrhunderts mehr Schwierigkeiten zu definieren, was denn genau Emotionen sind. Es ist unbestritten, dass Emotionen mit körperlichen Veränderungen einhergehen, die uns physisch darauf vorbereiten, auf eine Situation angemessen zu reagieren. In der psychologischen Forschung wurde jedoch lange diskutiert, ob die subjektive Empfindung Ursache oder Folge der physiologischen Reaktion ist. James (1884) postulierte, dass zunächst auf einen Reiz ein intuitives Verhalten wie Flucht folgt, das physiologische Reaktionen wie erhöhten Herzschlag hervorruft, den der Mensch dann als Emotion wie Angst interpretiert. Diese Theorie wurde aufgrund experimenteller Befunde kritisiert, die zeigten, dass auch nachdem die physiologische Reaktion chirurgisch unterbunden worden war noch Emotionen festzustellen waren. Die neuere Emotionsforschung versucht, neurobiologische Befunde mit solchen zur subjektiven Empfindung zu koppeln, wobei die Gefühlsempfindung als sich kontinuierlich wandelnde Wechselwirkung aus physiologischer Situation und deren mentaler Interpretation gesehen wird (Barrett, Mesquita, Ochsner & Gross, 2007). Dieser Interpretationsaspekt ist keinesfalls neu. Lazarus hob schon vor 20 Jahren den Aspekt der individuellen Bewertung der Bedeutsamkeit in seiner Theorie der kognitiven Bewertung hervor (Lazarus, 1987). Demzufolge führt sensorische Erfahrung nur dann zu Emotionen, wenn die Person den Reiz als für sie persönlich bedeutsam einschätzt. Emotionen stehen also nicht unabhängig von kognitiven und motivationalen Prozessen, sondern alle drei bedingen und beeinflussen sich wechselseitig.
103
6
> Emotionen sind ein komplexes Muster von Prozessen, das Motivationen, Erregung, kognitive Prozesse und Verhaltenstendenzen beinhaltet. Oft – nicht immer – werden Emotionen auch erlebt: Man weiß, dass man sich ärgert (s. Zimbardo & Gerrig, 2003).
Evolutionstheoretisch wird die Bedeutung von Emotionen darin gesehen, dass sie einen Organismus vorbereiten, um die Anforderungen seiner Umwelt angemessen zu bewältigen. Anstatt einer einfachen reflexartigen Antwort bedeutet Emotion eine Koordination der aktuellen Bedürfnisse, Wünsche und kognitiven Prozesse. Darauf soll nun genau eingegangen werden.
6.2
Psi: Integrierte Theorie von Motivation, Kognition und Emotion
Im Folgenden wird eine integrative Theorie der Motivation, Emotion und Kognition vorgestellt (Dörner, 1999), die Emotionen nicht als nebengeordnet zu kognitiven und motivationalen Prozessen betrachtet. Denn beispielsweise gehört zum Ärger das kurzschlüssige Denken, das Fern- und Nebenwirkungen nicht analysiert, die Bedingungen für Aktionen außer Acht lässt usw. Was gehört noch zum Ärger? Erhöhte Aktivierung (»arousal«), grobe Wahrnehmung, konservatives Erinnern, Aggressionstendenzen, Sturheit (= Unablenkbarkeit). Wenn das die Ingredienzien von Ärger sind, dann besteht also Ärger aus einer Reihe nichtemotionaler Prozesse, u. a. auch aus kognitiven Prozessen. Ärger bedeutet: Erregung, in bestimmter Weise modulierte kognitive Prozesse und Handlungstendenzen. Was bleibt übrig, wenn man das alles wegnimmt? Der reine Ärger? Nein: Einfach gar nichts. Ärger ist Aggressionstendenz, Konservatismus, die Tendenz zur schnellen, unreflektierten Aktion, oberflächliches Wahrnehmen und Erinnern usw. Ärger ist eine bestimmte Organisationsform psychischen Geschehens, enthält also kognitive und motivationale Prozesse. Statt Emotionen neben andere psychische Prozesse zu stellen, sollten Emotionen als übergeordnete Organisationsformen
104
Kapitel 6 • Emotion und Handeln
Sicherungsverhalten
Aggressionstendenz
Fluchttendenz Exploration Affiliationstendenzen Affirmative Wahrnehmung, Wahrnehmungsabwehr
NI Selbstreflexion
6
Bestimmtheit
NI
Stress
Allgemeines unspezifisches Sympathikussyndrom
Kompetenz Ausmaß der Analyse der - Bedingungen für Aktionen - Fernwirkungen - Nebenwirkungen Ausfächerung der Gedächtnissuche
Inhibition
Selektionsschwelle = Konzentration = Nachhaltigkeit des Verhaltens
. Abb. 6.1
Emotionale Regulationen
psychischer Prozesse angesehen werden; wenn man so will als emergente Erscheinungen, die sich aus spezifischen Formen der Interaktion kognitiver und motivationaler Prozesse ergeben. Diese Konzeption löst so ziemlich alle Probleme, die in der Psychologie auftauchen, weil man Emotionen als Sonderformen neben die anderen psychischen Prozesse stellt.
6.2.1
Bestimmtheit und Kompetenz
Emotionen als Organisationsformen psychischen Geschehens sind notwendigerweise psychische
Makros. Wie sieht eine solche Makroorganisation
aus? . Abb. 6.1 zeigt den wesentlichen Teil der Grundorganisation emotionalen Geschehens. Der Input des Ganzen sind die beiden »Tanks« links. Es handelt sich um den Bestimmtheits- und den Kompetenztank. Der Pegel in diesen Tanks indiziert das Ausmaß an Bestimmtheit bzw. das Ausmaß der Kompetenz. Was heißt das? Wir gehen davon aus, dass Menschen (und auch viele Tiere) ein Bedürfnis nach Bestimmtheit haben und ein Bedürfnis nach Kompetenz. Bestimmtheit ist das Ausmaß, in dem man sich imstande fühlt, die Ereignisse und das Geschehen in der Welt vorauszusagen bzw. zu er-
6.2 • Psi: Integrierte Theorie von Motivation, Kognition und Emotion
klären. Eine geringe Bestimmtheit, d. h. ein niedriger Pegel im Bestimmtheitstank, bedeutet, dass man das Empfinden hat, nicht imstande zu sein, die »Welt« zu erklären oder vorauszusagen. Der Pegel im Kompetenztank ist das Ausmaß, in dem man sich imstande fühlt, die Probleme seines Alltags zu bewältigen. Kompetenz bedeutet aktive Kontrolle; eine hohe Kompetenz bedeutet, dass man meint, die Dinge im Griff zu haben. Die Pegel in den Tanks ergeben sich aus Erfahrungen, aus Bestimmtheits- und Unbestimmtheitsereignissen und aus Effizienz- bzw. Ineffizienzereignissen. Ein Bestimmtheitsereignis ist eine bestätigte Prognose, ein Unbestimmtheitsereignis ist eine nicht eingetroffene Prognose. Bei diesen Prognosen muss es sich nicht um bewusste Leistungen handeln. Bei den alltäglichen Verrichtungen macht man ständig Prognosen. Man erwartet bei einer Aktion ein bestimmtes Ergebnis; man erwartet z. B., dass die Tür sich öffnet, wenn man auf die Klinke drückt. Das Eintreffen oder Nichteintreffen dieser Erwartungen bestimmt unser Empfinden der Bestimmtheit, den Pegel im Bestimmtheitstank. Ein Effizienzereignis ist eine erfolgreich durchgeführte Aktion; besonders der Erfolg bei riskanten Aktionen, bei denen man den Erfolg a priori als unsicher einstuft. Und ein Ineffizienzereignis ist der Fall, wenn eine Aktion keinen Erfolg hat. Tatsächlich ist das alles noch etwas komplizierter dadurch, dass Bestimmtheits- und Unbestimmtheitsereignisse, Effizienz- und Ineffizienzereignisse individualspezifisch gewichtet werden. Beispielsweise haben manche Menschen ein fast unerschütterliches Selbstvertrauen, was darauf basiert, dass sie Ineffizienzsignale eben niedrig gewichten. Aber das ist ein anderes Feld, auf das hier nicht weiter eingegangen werden kann. Die Bedürfnisse nach Bestimmtheit und nach Bewältigbarkeit oder Kompetenz sind nach unserer Auffassung menschliche Grundbedürfnisse. Es sind kognitive Bedürfnisse, d. h. Bedürfnisse, die auf eine Vermehrung des Wissens und der Fähigkeiten hinauslaufen; auf eine Vermehrung des Wissens über die Welt und ihre Gesetze und auf eine Vermehrung der Fähigkeiten, der Verhaltensweisen, die für die Befriedigung von Bedürfnissen geeignet sind.
105
6
> Das Bedürfnis nach Bestimmtheit ist ein Bedürfnis nach passiver Kontrolle, nach Voraussagbarkeit und die motivationale Basis für Neugier und für die Tendenz, sein Wissen ständig zu erweitern. Das Bedürfnis nach Kompetenz ist die Grundlage für transgressives Verhalten (Kozielecki, 1987) und die motivationale Basis für das Bedürfnis, seine Fähigkeiten ständig zu erweitern.
Kompetenz und Bestimmtheit sind nicht nur Bedürfnisse. Vielmehr sind die Pegelstände in den Tanks zugleich Lageberichte. Sie »sagen« dem Organismus, inwieweit er die Welt voraussagen kann, ob also mit Überraschungen zu rechnen ist oder nicht. Der Pegelstand im Kompetenztank sagt, ob er sich die Bewältigung von Problemen zutrauen kann oder nicht. Die Pegelstände im Kompetenz- und Bestimmtheitstank signalisieren das Ausmaß der Notwendigkeit, neues Wissen und neue Fähigkeiten zu erwerben. Mit diesen Signalen werden Explorationstendenzen gesetzt, zur Erforschung der Um- und auch der Innenwelt. Die Suche nach Bewährung besteht in der Suche nach Möglichkeiten, sich selbst zu zeigen, dass man Probleme bewältigen kann. Das machen verschiedene Menschen verschieden. Der eine betreibt Kompetenzhygiene durch die Lösung von Kreuzworträtseln oder Sudoku-Aufgaben, der andere dadurch, dass er Bahnbeamte überlistet und Vorortzüge mit Graffitis besprayt. Die Dritte übt sich im Erschießen von Monstern und Bösewichtern in Computerspielen usw. Also: Die primäre Bedeutung der kognitiven Motive liegt in der Verbesserung und Anpassung des Wissens und der Fähigkeiten. Zugleich aber haben die Motive eine Bedeutung für das aktuelle Handeln. Der Pegelstand im Bestimmtheitstank sagt: »Du kannst dich auf deine Prognosen nicht verlassen, sie erweisen sich oft als falsch oder unvollständig. Und deshalb sorge dafür, dass die Basis deiner Prognose verbessert wird. Zugleich aber handele so, dass du die Fehlerhaftigkeit der Prognosen in Rechnung stellst.« Die Pegelstände haben natürlich einen Ursprung. Sie sind abhängig von Effizienz- und Ineffizienzsignalen (Kompetenz) bzw. Bestimmtheits- und Unbestimmtheitssignalen (Bestimmt-
106
6
Kapitel 6 • Emotion und Handeln
heit). Jede Bedürfnisbefriedigung – Befriedigung von Hunger oder Durst oder Schmerzvermeidung oder des Affiliationsbedürfnisses (Bedürfnis nach Gruppenzugehörigkeit) – ist ein Effizienzsignal. Und das bedeutet ein Empfinden der Stärke und die Verminderung von Anspannung (»arousal«), da nun keine besondere Anstrengung an die Stelle von Kompetenz treten muss. Wir nennen dieses Empfinden gewöhnlich Lust. Ein Ineffizienzsignal dagegen bedeutet eine Verminderung der Kompetenz, d. h. eine Verringerung der Fähigkeitseinschätzung und dementsprechend – je nach Wichtigkeit der Aufgabe – Stress. Es gibt aber noch andere Effizienz- und Ineffizienzsignale. Die Art dieser Signale bestimmt mit, wie die Art der emotionalen Reaktion aussieht.
6.2.2
Kompetenz, Neid und Schuld
Betrachten wir zwei Beispiele: Neid und Schuld. Was ist Neid? Niedrige Kompetenz bzw. die Erwartung einer solchen z. B. dadurch, dass ein neues Gruppenmitglied schöner, charmanter, netter, intelligenter, stärker ist als ich, mich also bei der Gruppe aussticht. Dadurch aber gerate ich in Gefahr, die Unterstützung der Gruppe zu verlieren; das wiederum verringert meine Fähigkeit, Probleme zu bewältigen. Denn diese ist in hohem Maß von der Erwartung abhängig, dass die Gruppe bei einer Bedrohung oder bei der Bewältigung eines schwierigen Problems hilft. Was ist Schuld? Gleichfalls niedrige Kompetenz bzw. die Erwartung einer solchen, diesmal aber ausgelöst durch einen (absichtlichen, d. h. vorwerfbaren) Normverstoß meinerseits. Der Verstoß gegen die Gruppennormen bedeutet die Gefahr des Verlustes der Gruppenunterstützung, u. U. den Ausschluss aus der Gruppe. Das wäre ein massiver Kompetenzverlust. Beide Gefühle, Schuld und Neid, führen zu einem Kompetenzverlust aufgrund der Gefahr des Verlustes der Gruppenunterstützung. Beide aber führen (gewöhnlich) zu ganz unterschiedlichen Reaktionen. Neid bringt Aggressionen gegen den neuen Wertebringer mit sich und den Versuch, entsprechende Werte des intelligenteren (stärkeren, schöneren) Gruppenmitglieds herabzuwürdigen
oder sogar das neue Mitglied aus der Gruppe zu eliminieren, im Extremfall durch dessen physische Vernichtung. Bei Schuld dagegen kommt es zu Versuchen der Reparatur des Normverstoßes (Reue, Buße), aber auch zur Uminterpretation des Verstoßes (»Es war nicht meine Schuld«) oder zu einer Veränderung der Sicht auf das Opfer: »Der gehörte ja gar nicht zu uns; das war nur ein Türke (Jude …).« Jenseits der Reaktionen, die spezifisch für die Auslösebedingungen sind, gibt es noch die allgemeinen Regulationen. Der Pegelstand im Kompetenztank in . Abb. 6.1 sagt: »Es ist nicht sicher, dass du über die adäquaten Methoden verfügst, um mit den anstehenden Problemen zurechtzukommen.« Beide Pegelstände zusammen sagen: »Die Zukunft liegt in Finsternis, und du bist ziemlich hilflos.« Wem »sagen« die Pegelstände das? Sie sagen es dem Organismus, indem sie Handlungstendenzen setzen und kognitive und motivationale Prozesse modulieren. 5 Beide Tanks messen die Größe der Abweichung Istwert/Sollwert durch die Einheit NI (Need-Indicator). 5 Der Sollwert ist immer =1 (vollständige Füllung der Tanks), der tatsächliche Pegelstand kann davon abweichen. 5 Die Tanks werden durch Bestimmtheitsereignisse bzw. Effizienzsignale gefüllt (dadurch wird die obere Zuleitung geöffnet). 5 Die Tanks werden durch Unbestimmtheitsereignisse bzw. Ineffizienzsignale geleert. 5 Die Einheiten Bestimmtheit-NI und Kompetenz-NI aktivieren dann die Modulationen und Verhaltenstendenzen. Auf die verschiedenen Verhaltensregulationen, die sich in Abhängigkeit von den Pegelständen in den Tanks und aus der spezifischen Art der Effizienzund Ineffizienz-, der Bestimmtheits- und Unbestimmtheitssignale ergeben, wird im Folgenden eingegangen.
6.2.3
Verhaltenstendenzen
Niedrige Bestimmtheit und niedrige Kompetenz (große Sollwertabweichung der Pegelstände der
107
6.3 • Emotionen und Handeln
Tanks) bewirken ein hohes Ausmaß an Sicherungsverhalten. Dies bedeutet eine hohe Frequenz der Auffrischung des Umgebungsbildes. Eine hohe Frequenz der Durchmusterung der Umgebung, der ängstliche Blick seitwärts und zurück ist ein Bestandteil der Angst. Niedrige Bestimmtheit und gefährdete (absinkende) Kompetenz bedeuten eine hohe Tendenz zum Angriff oder zur Flucht, je nachdem: Ist die Wahrscheinlichkeit des Erfolgs gegenüber dem bedrohlichen Objekt relativ hoch, so kommt es zum Angriff; sonst aber zur Flucht. Niedrige Bestimmtheit bedingt Explorationstendenzen, d. h. die Tendenz, unbekannte Bereiche zu erforschen, ihre Gesetzmäßigkeiten zu erfahren. Zu diesem Zweck muss man sich natürlich diesen Bereichen zunächst einmal nähern. Das ist gefährlich, denn man weiß ja nicht, welche Gefahren sich im Nebel (des Unwissens) verbergen. Daher setzt die Tendenz zur Exploration eine relativ große Kompetenz voraus. Niedrige Kompetenz führt eher zu Affiliationstendenzen, also Tendenzen, sich enger an andere zu binden. Denn Bindung bedeutet Hilfeleistung und ist für ein soziales Wesen vielleicht die wichtigste Quelle der Kompetenz. Auf der anderen Seite engt die soziale Bindung die Vielfalt des Handelns ein. Man sollte nicht gegen die Gruppe handeln, wenn man die Einbindung in die Gruppe nicht gefährden will. Wenn Loyalität das Gebot ist, kann das zulasten der Kreativität gehen. Niedrige Kompetenz bedingt Tendenzen zur Wahrnehmungsabwehr. Indizien für Krisen und Gefahren werden nicht wahrgenommen, da solche Signale die Kompetenz noch weiter absenken würden. Niedrige Kompetenz senkt die Tendenz zur Selbstreflexion. Auch das ist eine Form des Kompetenzschutzes, denn wer sich selbst betrachtet, wird sehr wahrscheinlich auch mit den eigenen Fehlern und Unzulänglichkeiten konfrontiert. Das senkt vorderhand die Kompetenz, bietet aber auf der anderen Seite die Chance, Fehlertendenzen und Unzulänglichkeiten loszuwerden. Aber das ist der lange Weg; zunächst einmal bedeutet Selbstreflexion Selbstkritik, d. h. eine Minderung der Einschätzung der eigenen Kompetenz. Rechts unten in . Abb. 6.1 sind die Modulationen abgebildet, die durch niedrige Kompetenz bzw. Bestimmtheit (große Sollwertabweichungen) ausgelöst werden. Diese Modulationen sind im
6
Wesentlichen Stressreaktionen. Niedrige Kompetenz und niedrige Bestimmtheit setzen zunächst einmal hohes Arousal in Gang. Das bedeutet die körperliche Bereitstellung erhöhter Handlungsbereitschaft; speziell einen erhöhten Muskeltonus, erhöhte Atem- und Herzfrequenz, Umschaltung von parasympathischen auf sympathische Regulationen und eine erhöhte Sensibilität der Sinnesorgane. Angst bedeutet z. B. das AUSS (allgemeines unspezifisches Sympathikussyndrom). Es bedeutet erhöhte Atmung, erhöhter Blutdruck, erhöhte Aufnahmebereitschaft der Sinnesorgane (»gespitzte Ohren«). Insgesamt ist das AUSS, die erhöhte Bereitschaft zum Handeln, sinnvoll in einer Situation, in der man nicht weiß, was auf einen zukommt und die Erfolgschancen des eigenen Handelns nicht groß sind. Die Art des Gefühls ist aber nicht nur von dem Pegelstand im Kompetenz- und Bestimmtheitskessel abhängig, sondern zusätzlich von der Art der Effizienz-, Ineffizienz-, Bestimmtheits- und Unbestimmtheitssignale, die den Pegelstand bestimmen. Nehmen wir Ärger als Beispiel. Ärger bedeutet eine Absenkung der Kompetenz. Es erweist sich, dass man ein Ziel, das man erreichen zu können glaubte und das wichtig ist, nicht oder nur unter Schwierigkeiten erreichen kann. Wie aber erweist sich das? Davon ist der Verlauf des Ärgers weitgehend abhängig. Hat mir ein anderer, womöglich absichtlich, Hindernisse in den Weg gelegt? Dann nennt man den Ärger Wut, und die Ärgeraggression wird sich gegen diesen anderen richten (wenn er nicht stärker ist als ich). Ist aber die Herabsetzung der Wahrscheinlichkeit der Zielerreichung auf unvorausgesehene Umstände zurückzuführen, so wird sich der Ärger gegen mich selbst richten (»Warum hast du das nicht vorausgesehen?«). Die Art der Regulation wird wesentlich durch die Personen und den Kontext bestimmt, die die oben genannten Signale ausgelöst haben.
6.3
Emotionen und Handeln
Wie wirken Emotionen auf das Handeln? Was ist Handeln? Wie bereits in 7 Kap. 5 diskutiert, lassen sich 5 verschiedene Aufgaben unterscheiden, die
108
Kapitel 6 • Emotion und Handeln
beim Handeln relevant werden (. Abb. 5.1; Dörner, 1989): 5 Zielelaboration, 5 Situationsanalyse, 5 Prognose, 5 Planen und Entscheiden, 5 kontrolliertes Handeln und Selbstreflexion.
6
Zielelaboration Man sollte sich zunächst klarmachen, welche Ziele man anstrebt. Und man sollte ins Auge fassen, was zu vermeiden ist. Es gibt positive und negative Ziele, Appetenz- und Aversionsziele. Mitunter sind beim Handeln Zielwechsel nötig, wenn es sich z. B. erweist, dass bestimmte Ziele nicht erreichbar sind. Situationsanalyse Als Nächstes sollte man Infor-
mationen über die gegebene Situation sammeln. Was ist der Fall? Meist ist die Situationsanalyse nicht durch pures Hingucken zu erledigen, da über der Realität ein – oft schwer durchdringbarer – Nebel liegt. Manche Dinge sieht man, andere, wie die Absichten anderer Akteure, kann man nicht sehen. Es geht aber nicht nur darum festzustellen, was jetzt der Fall ist. Oft ist es sehr nützlich, wenn man darüber hinaus die Geschichte der Situation erkundet und erforscht, warum es so ist, wie es ist. Dadurch erfährt man etwas über die Faktoren, die die Geschehnisse vorantreiben. Prognose Wenn man weiß, was der Fall ist, und
wenn man weiß, welche Wirkfaktoren die Realität bestimmen, sollte man Prognosen machen. Man sollte ermitteln, wie wohl alles weitergehen wird; zumindest kann man Hypothesen darüber aufstellen und einen Möglichkeitsraum der zu erwartenden Ereignisse konstruieren. Auch das ist sehr wichtig; vielleicht stellen sich ja bestimmte wünschenswerte Entwicklungen von ganz allein ein, und man braucht gar nichts zu tun. Planen und Entscheiden Zielelaboration, Infor-
mationssammlung, Modellbildung, also die Ermittlung des Wirkungsgefüges, das den Gang der Ereignisse bestimmt, und die Prognose sind die Voraussetzungen für das Planen. Planen bedeutet, dass man Methoden aus dem Gedächtnis abruft, die geeignet sind, das Ziel zu erreichen. Oftmals
sind solche Methoden in den Notfallplanungen großer technischer Systeme, z. B. in Kernkraftwerken, vorgegeben. Ob sie wirklich für den Einzelfall angemessen sind, ist aber durchaus die Frage; oftmals müssen sie durch andere Maßnahmen, die die Planer bei der Aufstellung von Notfallplänen vergessen haben oder nicht berücksichtigen konnten, ergänzt werden. Mitunter ist sogar die Notfallplanung unvollständig oder unangemessen. Kontrolliertes Handeln und Selbstreflexion Nach
dem Planen und nach der Entscheidung für die Durchführung eines Plans kommt dann das Tun, die eigentliche Aktion. Das sollte immer kontrolliert erfolgen. Man sollte wissen, was man tut, man sollte wissen, welche Effekte man erwartet, und man sollte kontrollieren, ob diese Effekte auch tatsächlich auftreten. Treten Misserfolge ein, muss man den Plan ändern. Vielleicht ergibt es sich sogar, dass man die Methoden der Informationssammlung, die Methoden des Planens, die Methoden der Zielelaboration ändern sollte. Zu diesem Zweck ist ständig mitlaufende Selbstreflexion notwendig. Das sind die verschiedenen Aufgaben, die beim Handeln zu bewältigen sind. Wie sie jeweils zu bewältigen sind, kann sehr verschiedenartig sein, und das macht diese Aufgaben schwierig. Natürlich werden die Aufgaben nicht notwendigerweise in dieser Reihenfolge bearbeitet; sehr oft findet man einen eher chaotischen Ablauf. Man beginnt mit dem Handeln, wenn eine Gefahr unmittelbar droht, und macht sich erst hinterher, wenn man vielleicht etwas mehr Zeit hat, klar, dass man vielleicht andere Ziele anstreben sollte und dafür Informationen sammeln und planen sollte. Im Folgenden wird darauf eingegangen, wie Gefühle die Art der Bewältigung dieser Anforderungen beeinflussen.
6.3.1
Zielelaboration
Natürlich hat man immer Ziele – sonst würde man ja nichts tun. Man strebt etwas an oder versucht etwas zu vermeiden. Warum also Zielelaboration? Weil oft die Ziele zu allgemein sind und als Richtungsgeber für das Handeln nichts taugen. Man will den Bankrott der Firma vermeiden – gut, aber wie? Teile der Firma verkaufen? Welche? Neue Produkte
109
6.3 • Emotionen und Handeln
entwickeln? Welche? Werben (aber wie?)? Personal entlassen? Wen aber? Neues Personal einstellen? Oder alles das zusammen? Ziele müssen konkretisiert, in Teil- und Zwischenziele zerlegt werden. Das ist nicht einfach. Wie geschieht das in Angst oder im Stress? Hier ist der Auflösungsgrad niedrig, es wird so wenig wie möglich Zeit auf die Zielelaboration verwendet. So ergibt sich z. B. leicht ein Handeln nach dem Reparaturdienstprinzip. Man macht heil, was kaputt ist. Die augenblicklichen Missstände sind oft sinnfällig; es bedarf keines großen Aufwands, sie wahrzunehmen. Diese Maxime ist nicht die schlechteste, aber auch nur die zweitbeste. Denn es ist nicht gesagt, dass die Reparatur der sinnfälligen Missstände wirklich etwas an der eigentlichen Krise ändert. Die Beseitigung der Rostflecke an der Schiffsaußenwand ist vielleicht im Hinblick auf den drohenden Untergang des Schiffes nicht so besonders wichtig. Dennoch findet man Handlungen auf der Ebene »Beseitigen der Rostflecke« nicht selten in Krisensituationen. Man tut doch immerhin etwas und zeigt sich selbst und seiner Umgebung, dass man handlungsfähig ist. Das Handeln nach dem Reparaturdienstprinzip ist kompetenz- und selbstwertdienlich. Aber es hat einen wesentlichen Nachteil: Es ist gegenwarts-, nicht zukunftsbezogen. Sehr oft müssen mehrere Ziele zugleich angestrebt werden. Bei einem Feuerwehreinsatz oder bei einer Polizeiaktion muss zum einen die unmittelbare Gefahr bekämpft werden, zum anderen sollen aber auch die Beanspruchung und die Gefahren für die Einsatzkräfte vertretbar niedrig gehalten werden. Meist lässt sich beides schlecht vereinigen; dann müssen Kompromisse geschlossen werden und die verschiedenen Ziele abgewogen und überlegt werden, was jeweils mehr wert ist. Das sind schwierige Entscheidungen. In Stresssituationen werden Abwägungen der Neben- und Folgewirkungen oftmals unterlassen; Ursache ist wiederum der niedrige Auflösungsgrad. Solche Analysen gefährden das Kompetenzgefühl, da sie fehlerhafte Entwicklungen aufzeigen. Manchmal ist es notwendig, die Ziele zu wechseln. Ein Brand erweist sich als schwer zu bekämpfen; vielleicht ist es vernünftig, nur noch Sicherungsmaßnahmen zu ergreifen, damit der Brand nicht übergreift, den eigentlichen Brand
6
aber geschehen zu lassen. Es empfiehlt sich nicht, Zeit und vielleicht Menschenleben zu riskieren, um ein Problem zu lösen, das nicht lösbar ist oder dessen Lösung sich nicht lohnt. Die Anforderung des Schwerpunktwechsels ist oft schwer zu erfüllen, besonders, wenn man schon viel Zeit und Mühe investiert hat. Das fällt auch unter die Rubrik »Kompetenzschutz«. Man gibt ungern zu, dass das Handeln in einer bestimmten Richtung nicht mehr richtig ist, besonders wenn das Handeln bislang erfolgreich war. »Never change a winning team« heißt eine bekannte Maxime für Sport und für Wirtschaft. Man kann sie generalisieren: »Wenn du erfolgreich bist, mach weiter wie bisher«. Und natürlich gilt das auch für die Ziele, die man verfolgt. Aber Selbstüberschätzung und Sorglosigkeit sind die Gefahren des Erfolgs. Man überschätzt sich, sieht nicht mehr, dass der augenblickliche Erfolg auf bestimmten Bedingungen basiert. Diese können sich ändern. Beispiel Ein schönes Beispiel für die »ausgehängte Kontrolle« bei Erfolg lieferte die Realität im August des Jahres 2007, als die Sachsen LB (Landesbank) in eine extrem gefährliche finanzielle Situation geriet. Ohne einen 17-Mrd.-€-Kredit der Sparkassenorganisation wäre die Sachsen LB bankrott gewesen. Wie kam es dazu? Ganz einfach: Eine irische Tochter der LB machte Finanzgeschäfte, und zwar seit Jahren mit großem Erfolg. Sie galt als »cash cow« des Unternehmens. »Weil das Geld bisher pünktlich floss, fragte keiner der Bürgermeister und Landräte, kein Landtagsabgeordneter und keiner der drei Minister, die im Verwaltungsrat der Sachsen LB sitzen, so genau nach, was es denn mit dem komplexen Finanzsystem auf sich habe.« – »Es blieb ein Sekundärthema, weil die Sache lief«, bestätigte Ronald Weckesser (Vorsitzender des Haushalts- und Finanzausschusses des sächsischen Landtags; FAZ, 21.08.2007, S. 3). Da die irische Tochter mit so großem Erfolg arbeitete, kontrollierte man sie kaum und übersah dabei, dass sich die Bank auf höchst gefährliche Finanzgeschäfte mit undurchsichtigen Papieren einließ, die wohl in hohem Maße mit nicht eintreibbaren Hypothekenschulden in den USA »vergiftet« waren. (Zumindest dem normalen Zei-
110
6
Kapitel 6 • Emotion und Handeln
tungsleser ist auch das unverständlich, denn die amerikanische Hypothekenkrise ist ihm seit Beginn des Jahres 2007 vertraut.) Allein die enorme Höhe des Verlustes weist auf ein ziemlich undifferenziertes Hauruck-Verhalten hin; an sich gibt es ja eine börsianische Vorsichtsmaxime, gemäß derer man risikobehaftete durch »sichere« Investitionen (z. B. Staatsanleihen) abpuffern sollte. Die Investoren der irischen Tochter der Sachsen LB fuhren offensichtlich ohne Sicherheitsgurt mit hohem Tempo. »Winning teams« werden leicht übermütig und tendieren dazu, die Bedingungen ihres Erfolgs nicht mehr in Rechnung zu stellen: So sehen Gefühle aus, die 17 Mrd. € kosten können.
6.3.2
Situationsanalyse
Wenn man Ziele hat, weiß man, in welche Richtung die Reise gehen soll. Um aber zu wissen, was man tun soll, sollte man die Bedingungen der augenblicklichen Situation kennen. Man sollte wissen, was der Fall ist. Außerdem ist es meist angeraten, nicht nur zu wissen, was der Fall ist, sondern zusätzlich zu wissen, wie es kommt, dass gerade das der Fall ist und nicht etwas anderes. Man sollte die Wirkfaktoren kennen, die die Situation bestimmen und vermutlich auch die Zukunft bestimmen werden. Das sind die Anforderungen der Situationsanalyse. Die Anforderungen sind einfach, aber es ist schwierig, ihnen nachzukommen. Die Situation kann nicht erkannt werden, weil sie komplex ist und so viele Merkmale aufweist, dass die Zeit fehlt, alle Details zu betrachten. Zudem sind viele Merkmale unsichtbar, verborgen in der überwältigenden Fülle der Details, oder schlicht unzugänglich. Zusätzlich muss in komplexen Situationen immer auch davon ausgegangen werden, dass Informationen über die augenblickliche Situation veraltet oder falsch sind; oft vielleicht mit Absicht verfälscht (Clausewitz, 1880). z
Affirmative Informationssammlung und Informationsabwehr
Wie wirken sich Gefühle auf die Situationsanalyse aus? Aus Angst und Unsicherheit ergibt sich das
Bestreben zur affirmativen Informationssammlung und zur Informationsabwehr. Affirmative Informationssammlung bedeutet, dass nur diejenigen Informationen zur Kenntnis genommen werden, die mit dem eigenen Bild der Welt und den entsprechenden Erwartungen übereinstimmen. Besonders bei grober, unscharfer Wahrnehmung, d. h. unter einem niedrigen Auflösungsgrad, fällt affirmative Informationssammlung leicht. Unpassende Informationen werden übersehen – übrigens keineswegs bewusst. Informationsabwehr bedeutet, dass Informationen, die nicht zum eigenen Bild von der Welt oder den entsprechenden Erwartungen passen, die aber zur Kenntnis genommen werden müssen, aktiv abgewehrt werden, indem ihre Wahrheit geleugnet oder ihre Bedeutung herabgesetzt wird (»nicht typisch«, »nicht repräsentativ«, »einseitig«, »Ausnahme«, »Übertreibung« usw.). Nach einer solchen Kategorisierung brauchen die entsprechenden Informationen nicht mehr berücksichtigt zu werden. Bazermann & Watkins (2005) konnten zeigen, dass das Übersehen von Krisensymptomen, verbunden mit der starken Beachtung von Nachrichten, die besagen, dass »alles in Ordnung« ist, für Manager in Krisensituation typisch ist. Beispiel Ein aktuelles Beispiel für affirmative Wahrnehmung und Informationsabwehr liefert die regierungsamtliche Behandlung des Störfalls im Atomkraftwerk Krümmel am 28.06.2007. Hier geriet ein Transformator (außerhalb des Reaktorgebäudes) in Brand; vorsichtshalber fuhr man dann den Reaktor herunter, was reibungslos gelang. Dennoch beschäftigte dieser Vorfall die Öffentlichkeit drei Wochen lang, weil er zu einem Beinahe-Gau hochstilisiert wurde. Von Toten und Verletzten war die Rede; dementsprechend erschien die Kriminalpolizei im Kraftwerk. Wie kam es dazu? Zwei Gründe sind zu nennen: 4 Nachdem der Druck im Reaktor während der Abschaltung anstieg, wies der Schichtleiter den Reaktorfahrer an, den Druck von Hand herabzusetzen und nicht auf die automatische Regelung zu warten. Zehn Minuten später bemerkte der Schichtleiter, dass der Füllstand des Reaktors abfiel, stellte fest, dass der Reaktorfahrer den Druck allzu stark gesenkt hatte, weil er meinte, den Reaktor auf 15 bar regeln
111
6.3 • Emotionen und Handeln
zu sollen. Vom Schichtleiter angestrebt aber waren 60 bar. Eine automatisch anspringende Hochdruckpumpe brachte den Wasserspiegel wieder auf die gewünschte Höhe. Eine Kommunikationspanne, die rechtzeitig bemerkt wurde und deshalb harmlos blieb. 4 Der Schichtleiter ließ, da leichter Brandgeruch zu bemerken war, einige Atemschutzgeräte herbeibringen, vorsichtshalber. Es erwies sich, dass sie nicht nötig waren, da die Klimaanlage mit dem Rauch des Transformatorbrandes fertig wurde. Die Rauchbelastung im Reaktorraum erreichte etwa 15% des Grenzwertes. Bei den ersten Besprechungen der Kraftwerkleitung mit der Umweltministerin des Landes Schleswig- Holstein war klar, dass der Vorfall nicht bedeutsam war. Er wurde von der Gesellschaft für Anlagen und Reaktorsicherheit in Köln als »Ereignis ohne oder mit geringer sicherheitstechnischer Bedeutung« eingestuft, und der zuständige Experte des TÜV kam zu dem Urteil, dass die Sicherheitssysteme bestimmungsgemäß funktioniert hätten. Dann aber bekam das Umweltministerium in Berlin Einblick in die Power-Point-Demonstration der Kraftwerkbetreiber, die bei der Besprechung der Kraftwerkbetreiber mit dem Kieler Umweltministerium am 30.06.2007 vorgeführt worden war. Elektrifiziert nahm man den Bericht über den Füllstandsabfall im Reaktor zur Kenntnis und daraus ergab sich schließlich der Eindruck, einem schwerwiegenden Störfall auf die Spur gekommen zu sein, der von der Betreibergesellschaft herabgespielt worden war. Die Ministerin in Schleswig Holstein schwenkte auf die Berliner Linie ihres Parteikollegen Gabriel (Bundesumweltminister) ein, vergaß die ihr bekannten Fakten und teilte späterhin zur Untermauerung der Gefährlichkeit des Störfalls und des Vorwurfs, der Kraftwerksbetreiber hätte Informationen vorenthalten, mit, dass es immerhin »Schnittverletzungen« gegeben habe. »Das ist wahr: Am Morgen des 28. Juni, etwa viereinhalb Stunden vor dem Störfall, hatte sich ein Schlosser bei Bohrarbeiten … einen Schnitt am Finger zugezogen. Er war zum Sanitäter gegangen, um sich ein Pflaster zu besorgen, dann nahm er die Arbeit wieder auf, so steht es im Verbandsbuch. Es ist an diesem Tag, neben dem Insektenstich eines Monteurs,
6
der einzige Eintrag.« (Der Spiegel, Nr. 43/22.10.2007, S. 48 ff. Aus diesem Artikel stammen auch die anderen Angaben zu dem Störfall.)
Soweit zur Bedeutsamkeit affirmativer Wahrnehmung und der Wahrnehmungsabwehr (vgl. 7 Kap. 4). In einer Welt, in der die meisten Informationen sekundär sind, nicht auf der eigenen Anschauung, sondern auf Berichten beruhen, fällt Informationsabwehr relativ leicht. Mitunter können solche realitätsverfälschenden Wahrnehmungsmodi durchaus funktional sein, sie erhalten die Handlungsbereitschaft. Dieser positive Effekt kann die negativen Wirkungen der Realitätsverfälschung durchaus übersteigen. Emotionale Modulationen kognitiver Prozesse müssen keineswegs irrational in dem Sinne sein, dass sie zu gänzlich unangepasstem Verhalten führen. Meist ist eine Analyse der Geschichte einer Situation notwendig, um die Wirkfaktoren zu ermitteln, die einen bestimmten Zustand erzeugten. Solche Analysen sind aufwendig und fehleranfällig; die Berichte über die Vergangenheit einer Situation sind meist lückenhaft und oft verfälscht (z. B. durch affirmative Wahrnehmung). Viele Geschehnisse erscheinen unentwirrbar komplex, verworren, chaotisch in ihrem Ablauf. Solche Geschehnisse machen Angst; sie erscheinen unbestimmt, daher unkontrollierbar. z
Reduktionismus
Wie gehen Menschen mit der Anforderung um, die Wirkfaktoren zu ermitteln? Der russische Schriftsteller Leo Tolstoi (1828–1910) gibt uns eine Antwort auf diese Frage:
»
Der menschliche Verstand vermag den Zusammenhang der Ursachen aller Erscheinungen nicht zu begreifen, aber der Trieb, diese Ursachen zu erforschen, schlummert in des Menschen Seele. Und da er in die vielen kunstvoll verworrenen Grundbedingungen aller Erscheinungen nicht eindringen kann, von denen jede einzelne als Ursache gelten könnte, greift er nach der ersten besten, die ihm am verständlichsten ist und am nächsten liegt, und behauptet: das ist die Ursache. (Tolstoi, 2001, S. 353)
«
112
6
Kapitel 6 • Emotion und Handeln
Wir nennen diese Art des Denkens Reduktionismus. Für die Vielfalt der Effekte (er)findet man eine Ursache. In Religionen und anderen Ideologien sind solche Reduktionismen üblich. Religionen sind seit jeher das Mittel, um Komplexität und Chaos in den Griff zu bekommen. Der Glaube an einen allmächtigen, gütigen und allwissenden Gott reduziert die Komplexität auf einen Faktor. Genau so ist es mit dem Glauben an den Grundwiderspruch zwischen Lohnarbeit und Kapital (Engels, 1956) als Kernfaktor wirtschaftlichen und geschichtlichen Geschehens. Je nach dem Standpunkt der Betrachter werden verschiedene Wirkfaktoren identifiziert, auf die ein wirtschaftlicher Auf- oder Abschwung zurückzuführen ist. Es sind jeweils die Unternehmer mit ihrer maßlosen Profitgier oder die Gewerkschaften mit ihren überzogenen Lohnforderungen oder die Regierung mit den Steuererhöhungen bzw. -senkungen zum falschen Zeitpunkt. Es sind immer einzelne Faktoren, die für bestimmte Effekte verantwortlich gemacht werden, nicht ihr Zusammenspiel, denn das ist schwer zu überschauen. Da aber z. B. Angst mit einer allgemeinen Senkung des Auflösungsgrades einhergeht, wird die Tendenz zu reduktionistischen Hypothesen in einem solchen Zustand noch erhöht. Reduktionistische Hypothesen brauchen nicht falsch zu sein, meist aber sind sie unvollständig. Zum einen handelt es sich bei der Ursache, die man als Wirkfaktor sieht, meist nur um den Endpunkt einer Kette; oft lohnt es sich, die Ursachen für die Ursachen usw. ebenfalls zu ermitteln. Solche Beziehungsgeflechte sind oft schwer zu analysieren, aber es ist notwendig, sie zu erfassen, da man auf diese Art und Weise besser für zukünftige Störfälle gerüstet ist (vgl. 7 Kap. 3). Im Alltag und auch in der Wissenschaft erlebt man sehr oft, dass die Ermittler zufrieden sind, wenn sie eine Ursache gefunden haben. »Menschliches Versagen« diagnostizierten die Ermittler bei dem Transrapidunglück in Lathen im Emsland am 22.09.2006 und man atmete auf. Es liegt also nicht an der Technologie des Transrapids, und man kann die Entwicklung dieses Verkehrsmittels weiter verfolgen. Dabei wird nicht berücksichtigt, dass menschliches Versagen wiederum von anderen Faktoren abhängig ist und nicht als deus ex machina plötzlich da ist. Warum haben
. Abb. 6.2
Computersimuliertes Planspiel »Feuer«
die Menschen versagt? Das könnte durchaus auch technische Hintergründe haben. Eine weitere wichtige, emotionsanfällige Tendenz bei der Situationsanalyse ist die Überbewertung des Sinnfälligen. Sie nimmt zu, wenn Angst oder Ärger zunimmt, da man bei solchen Gefühlen stark außengelenkt ist und mehr dazu neigt, leicht zu verarbeitende Informationen aufzugreifen. . Abb. 6.2 zeigt eine Waldbrandsituation in einem Planspiel. Man sieht oben einen sehr großen Brand und unten einen kleinen. Bei oberflächlicher Analyse wird man sich dem großen Brand zuwenden, der gefährlich aussieht. In Wirklichkeit ist der kleine viel gefährlicher, wie man (nicht unmittelbar) sieht, denn der große kann sich nicht sehr viel weiter ausdehnen, wohingegen der kleine Waldbrand mit der Windrichtung in ein Waldgebiet hineinlaufen kann, in dem sich außerdem ein Dorf befindet. Unter dem Druck der Situation übersehen Menschen diese Unterschiede und entscheiden nach Sinnfälligkeit. Es wurde bereits dargestellt, dass es nicht nur darauf ankommt, zu erkennen, was gerade der Fall ist, sondern oft auch, zu ermitteln, warum etwas der Fall ist. In akuten Krisen hat das vielleicht nachrangige Bedeutung, aber für zukünftige Vorbeugung und manchmal auch in der Krise direkt ist die Analyse der Faktoren, die die Ereignisse bestimmen, von Bedeutsamkeit. Bei einem Waldbrand ist es natürlich zunächst wichtig festzustellen, wo es überhaupt brennt. Zugleich ist aber
6.3 • Emotionen und Handeln
auch wichtig festzustellen, warum es brennt. Sind die Brände gelegt worden? Oder hängen die Brände damit zusammen, dass der Wald schlecht durchforstet wurde, zu viel trockenes Unterholz auf dem Waldboden lag? Solche Hintergrundanalysen sind für den akuten Waldbrand eher nicht bedeutsam, wohl aber für die Zukunft. Unter Zeitdruck fällt die Analyse dieser Wirkfaktoren oft nicht ins Gewicht, obwohl sie sogar in der kritischen Situation selbst bedeutsam sein kann. Wenn beispielsweise, wie es in manchen Ländern oft geschieht, Waldbrände absichtlich gelegt werden, um auf diese Weise Bauland »freizumachen«, dann ist auch während der Waldbrandbekämpfung die Analyse der Wirkfaktoren bedeutsam, da man auf diese Art und Weise das Legen weiterer Brände vielleicht vereiteln kann. Für eine direkte Krisenintervention ist vielleicht ein Schnappschuss der Situation hinreichend; oft ist es aber wichtig, die Zeitgestalt zu erfassen, die zu dem jeweiligen Krisenereignis geführt hat. Bei dieser Erfassung der Zeitgestalt sollte man sich vor einer analogia praecox hüten, vor einer vorfristigen Analogiebildung. Bei gesenktem Auflösungsgrad und unter dem Gefühl von Zeitdruck nimmt die Tendenz zu solchen Methoden der Informationsgewinnung zu. Jede Situation ist einzigartig und stellt ihre besonderen Anforderungen. Andererseits ist es durchaus vernünftig, eine unbekannte Situation zunächst einmal mit einer bekannten zu analogisieren, um einen Einstieg zu bekommen. Aber man sollte sich davor hüten, Analogien für Wahrheiten zu halten. Analogien sind Leitern. Damit kommt man auf den Turm und hat zunächst einmal den Überblick. Dieser Überblick ist aber nicht das endgültige Bild, sondern sollte als Ausgangspunkt weiterer Exploration betrachtet werden. Wenn man aber ängstlich ist, neigt man zum Dogmatismus und klammert sich an die Gewissheiten, die man erkannt zu haben glaubt.
6.3.3
Prognosen
Das Waldbrandbeispiel in . Abb. 6.2 zeigt die Wichtigkeit von Prognosen. Man muss nicht nur wissen, wo etwas brennt, sondern zusätzlich, wie sich die Situation unter dem Einfluss bestimmter
113
6
Faktoren entwickeln wird. Die Zukunft ist vielleicht wichtiger als die Gegenwart, weil die Gegenwart sehr bald Vergangenheit ist und die Zukunft Gegenwart. Deshalb ist es wichtig, zu ermitteln, wie die Windrichtung ist, ob der Wind vielleicht auffrischt, wie die sonstigen Bedingungen für die Ausbreitung des Feuers in der Windrichtung sind, welche Gefahren bei einer Ausbreitung des Feuers in der Richtung des Windes zu erwarten sind. Es gibt zwei Arten, Prognosen zu entwickeln: 5 Die eine ist die Trendfortschreibung, die Extrapolation der Vergangenheit in die Zukunft. Diese erfolgt nach irgendeinem mathematischen Modell, meist wohl einfach linear: gestern 50, heute 60, morgen 70. 5 Die andere Art von Prognose erfolgt aufgrund der Identifikation der Wirkfaktoren: Der Wind bläst aus dieser Richtung; er wird sich drehen und auffrischen. Es wird ein wenig regnen, und deshalb wird sich der Waldbrand so und so entwickeln. Beide Methoden haben ihre Vor- und Nachteile. Die Extrapolation ist aufwandsarm und eigentlich immer anwendbar. Prognosen aufgrund der Analyse der Wirkfaktoren erfordern einen hohen Aufwand und sind meist unsicher, da sie auf vielerlei Annahmen basieren, von denen man nicht weiß, ob sie richtig sind. Deshalb scheinen Menschen bei dem Versuch, die Zukunft zu erfassen, die Standardmethode der Extrapolation anzuwenden: Die Zukunft sieht aus wie die Gegenwart, vielleicht ein wenig größer oder ein wenig kleiner. Die in Deutschland üblichen Prognosen der wirtschaftlichen Entwicklung durch die sog. Wirtschaftsweisen (Leiter der führenden Wirtschaftsinstitute der Bundesrepublik) erfolgen durch Extrapolation. Mit schöner Regelmäßigkeit müssen sie »korrigiert« werden und das ist ein Euphemismus für die Tatsache, dass sie sich als falsch erweisen. Niemand hat den Wirtschaftsboom im August 2007 prognostiziert und niemand die im Herbst 2007 folgende Finanzkrise. Die Fortschreibungstendenz bewährt sich im Alltag und ist daher sinnfällig richtig. Fortschreibungen über kürzere Distanzen sind meist richtig und kognitiv aufwandsarm. Deshalb sind sie umso beliebter, je schwieriger es ist, kognitiven Aufwand
114
Kapitel 6 • Emotion und Handeln
zu leisten, z. B. bei Angst und unter großem Stress. Menschen können sich, wenn sie nicht darüber nachdenken (genau das tun sie umso weniger, je mehr Angst sie haben), schwer vorstellen, wie z. B. eine beschleunigte Entwicklung aussehen wird. Die Intuition lässt uns hier völlig im Stich. Beispiel
6
Niemand im Jahr 1986 ahnte, wie sich die Krankheit Aids entwickeln würde. 771 Aidsfälle hatte man seit dem Jahr 1983 beobachtet: tragisch für die Betroffenen, aber im Hinblick auf die Anzahl der Verkehrstoten, im Hinblick auf die Anzahl von Herz- und Kreislauferkrankungen, im Hinblick auf die Anzahl von Krebserkrankungen doch eine Quantité négligeable. Dass die Zahlen an HIV-Infizierten in den Folgejahren explodieren würde, wussten einige Seuchenexperten des Robert-Koch-Instituts in Berlin sehr wohl (insofern ist »niemand ahnte …« nicht ganz richtig); es gelang ihnen aber nicht, ihr Wissen den Verantwortlichen zu übermitteln. Das hatte fatale Folgen, z. B. für die Bluter. Denn im Jahre 1986 entschloss sich das Gesundheitsministerium der Bundesrepublik Deutschland, auf ein Screening der Blutkonserven zu verzichten. Die Blutkonserven aber wurden zu einem hohen Maße aus den USA eingeführt. In den USA war man mit Aids schon »weiter«; die dortigen Blutspender (die faktisch ihr Blut verkauften) gehörten in hohem Maße den Aids-Risikogruppen an. Deshalb waren Blutkonserven in manchen Teilen des Landes in großem Ausmaß verseucht. Auf diese Weise verurteilte das Bundesgesundheitsministerium im Jahre 1986 ca. 2000 Bluter zum Tode, weil man die Entwicklung der Seuche nicht richtig einschätzte.
6.3.4
Planen und Entscheiden
Ziele können durch Planen erreicht werden! Wie aber wird das Planen in bestimmten Gefühlslagen verändert? Planen in einer unbestimmten Situation, in einer Situation, in der man kaum über die notwendigen Informationen verfügt, die man eigentlich zum Planen braucht, und in der man Zweifel hat, ob die Informationen richtig sind, ist
ein schwieriges Geschäft. Nicht nur, dass das Planen von der emotionalen Lage abhängig ist; ein schwieriges Problem erzeugt gewöhnlich seinerseits Gefühle, nämlich Ärger und Wut über die vergeblichen Lösungsbemühungen. Die mit solchen Gefühlen verbundenen Empfindungen der Inkompetenz lassen uns nach Vereinfachungen des Planungsprozesses suchen. Diese ergeben sich oft aus der Senkung des Auflösungsgrades und daraus folgenden Verhaltenstendenzen: z
Dekonditionalisierung des Planungsprozesses
Die Bedingungen, die für bestimmte Aktionen gegeben sein müssen, werden nicht beachtet. Der Alltagsbegriff für Dekonditionalisierung ist Projektemacherei. Man könnte diese Art des Planens auch »Rumpelstilzchen-Denken« nennen: »Heute back’ ich, morgen brau’ ich, übermorgen hol’ ich der Königin ihr Kind.« Das ist dekonditionalisiertes Planen, das z. B. die Bedingungen, die für eine erfolgreiche Brotproduktion gegeben sein müssen, außer Acht lässt. Auf diese Weise wird das Planen leicht. Zugleich geht es aber meist wie bei Rumpelstilzchen: Der Plan funktioniert nicht. Meist ahnen das die Dekonditionalisten und scheuen vor dem Handeln zurück (Dörner, 1989). Planen kann man sich auch dadurch ersparen, dass man an die Stelle von Maßnahmen Ziele setzt. Dies scheint bei Politikern und Politikerinnen eine sehr beliebte Form der Problemlösung zu sein. »Die Hauptaufgabe, der wir uns mit aller Kraft widmen werden, ist die Bekämpfung der Arbeitslosigkeit.« Das klingt gut – und verstärkt das Gefühl des Redners, sich wirklich für eine wichtige Sache einzusetzen. Dekonditionalisierung und Ziele-stattMaßnahmen beziehen sich nicht so sehr auf die eigentlichen Probleme, sondern auf die Kompetenz des Akteurs, die durch diese Maßnahmen angehoben wird. Eine weitere, wiederum nur scheinbare Vorbereitung einer Maßnahme ist eine bestimmte Form der Delegation. Man delegiert die Aufgabe an ein zu diesem Zwecke ins Leben gerufenes Komitee. »Wenn ich nicht mehr weiter weiß, gründ` ich einen Arbeitskreis.« Statt solcher Scheinaktionen, bei denen doch meist das dumpfe Empfinden zurückbleibt, eigentlich nichts getan zu haben, kann man die Kompe-
115
6.3 • Emotionen und Handeln
tenz auch mit einer großen Aktion reparieren: mit einer Maßnahme, die sehr sinnfällig ist und gewissermaßen laut kracht und knallt. Denn durch das effektvolle Tun zeigt man (sich und anderen), dass man nicht hilflos ist. Deshalb gibt es bei Angst und Furcht eine starke Tendenz zu Bang-BangEntscheidungen, d. h. zu Aktionen, die sehr sinnfällige Folgen haben. In Wirtschaftsunternehmen beispielsweise werden unter dem Eindruck einer heraufziehenden Krise oftmals die Organisationsstrukturen geändert. Das macht zunächst großen Eindruck, weil auf diese Weise die gesamte Firma gründlich durcheinandergebracht wird. z
Kategoriales Denken
Eine weitere Scheinmaßnahme, die ein gutes Heilmittel gegen Angst und Furcht und gut geeignet ist, sich selbst und anderen Überlegenheit und Entschlossenheit zu demonstrieren, ist das kategoriale Denken: Es besteht darin, dass man bestimmte Maßnahmen kategorisiert, ihnen ein Attribut zuordnet, sie in eine Schublade einordnet. Das Denken in Kategorien ist meist mit einer moralischen Wertung verbunden. »Das ist undemokratisch.« – »Das ist Sozialabbau und mit uns nicht machbar.« Solche Kategorisierungen haben eine ganze Menge Vorteile: Das Denken in Kategorien ist viel einfacher als das Denken in Funktionen. Bei Funktionen muss man nachdenken darüber, ob die Bedingungen für ein bestimmtes Handeln erfüllt sind, welche Nebenwirkungen und Spätfolgen möglicherweise auftreten werden und ob man über die Möglichkeiten verfügt, die entsprechende Aktion durchzuführen. Daraus ergibt sich ein weiterer Vorteil dieser Art des Denkens, dass nämlich nur eine gewisse Minimalausstattung an Intelligenz notwendig ist, um auf diese Weise Entscheidungen zu akzeptieren oder abzulehnen. Man erspart sich die Argumentation, es reicht das Urteil. Durch die moralische Aufladung der Aktion erhöht man sich selbst, der Selbstwert steigt. Allerdings kommt man mit dieser Art des Denkens nur in sehr unerfahrenen oder aber ideologisch ausgerichteten Gruppen weiter. Einmal fallen die notwendigen Funktionsbetrachtungen der Maßnahmen heraus und zum anderen ist es auch gar nicht so leicht zu entscheiden, ob etwas wirklich »demokratisch« oder »undemokratisch« oder »so-
6
zial« oder »nicht sozial« ist oder vielleicht zunächst einmal unsozial, dann aber sozial usw. Schon Adam Smith war aufgefallen, dass Egoismus und Altruismus nicht unbedingt konträre Kategorien sind, sondern dass ein Wirtschaftssystem durch das Gegenspiel der Kräfte auf der einen Seite zwar natürlich kapitalistisch agiert, zum anderen aber auch durch »invisible hands« dem Gemeinwohl dient. Inwieweit und unter welchen Umständen das der Fall ist, soll hier nicht diskutiert werden, um nicht allzu weit in den Bereich der Politik zu geraten. Obwohl: Die Politik ist der klassische Ort des kategorialen Denkens – leider. z
Einkapselung
Eine weitere Methode, in Krisensituationen die Einschätzung der eigenen Kompetenz zu bewahren oder sogar noch zu steigern, ist die Einkapselung in gut beherrschte Tätigkeitsfelder. Man tut das, was man kann, und nicht das, was man eigentlich tun sollte. Auf diese Weise werden die Nebenprobleme gelöst, und die Hauptprobleme bleiben unangetastet. Mit großer Verve widmet sich z. B. das Land Bayern zurzeit dem Verbot von sog. Killerspielen, um auf diese Weise die ansteigende Gewaltausrichtung bei Jugendlichen zu bekämpfen. Man darf voraussagen, dass derartige Maßnahmen überhaupt nichts nützen (vielleicht sogar eher schaden). Aber hier hat man etwas, was man per Gesetz regulieren kann, und man erspart sich das Nachdenken über die tatsächlichen Gründe und Hintergründe jugendlicher Gewaltbereitschaft. Die Einkapselung in gut beherrschten Bereichen ist nicht immer falsch; oftmals kann ein erfolgreiches Tun in einem bestimmten Bereich, der für sich selbst eigentlich unwichtig ist, doch die Kompetenz und das Selbstvertrauen heben, was sich dann günstig auf die Handlungsbereitschaft in anderen Bereichen auswirken mag. Es gibt also eine therapeutische Wirkung des erfolgreichen Tuns, gleichgültig, ob es einen wichtigen oder unwichtigen Bereich betrifft. z
Methodismus
Die gefährlichste Tendenz, die Gefühle bei der Planung von Maßnahmen auslösen können, ist Methodismus. Methodismus ist die unreflektierte Anwendung einer Methode, weil sie sich in der Vergangenheit als erfolgreich erwiesen hat. Metho-
116
6
Kapitel 6 • Emotion und Handeln
dismus basiert auf Erfolg, allerdings auf vergangenem Erfolg. Man tut, was sich bewährt hat. Warum aber soll man das, was sich in der Vergangenheit als erfolgreich erwiesen hat, nicht wieder tun? Doch, man sollte erfolgreiches Handeln wiederholen. Aber nicht unreflektiert. Wenn sich eine Form der Werbung für ein Produkt erfolgreich erweist, sollte sie durchaus weiter verwendet werden. Aber dabei ist zu bedenken, dass sich manchmal, im Laufe der Zeit, die Bedingungen ändern. Dies wird leicht übersehen, gerade wenn man sich in einer Erfolgsserie befindet. So agierte VW, als sich nach dem Krieg der Käfer als großer Erfolg erwies. Also baute VW immer weiter Käfer. Fast bis zum bitteren Ende. Denn irgendwann nach der Mitte der 1950erJahre änderte sich mit dem Wirtschaftswunder der Publikumsgeschmack. In einem lauten, engen Gefährt, fast ohne Kofferraum, wollte keiner mehr an die Adria fahren. In letzter Minute wechselte VW zur Produktpalette Passat, Golf und Scirocco. »Vergangene Schlachten und tote Generäle halten den militärischen Geist in tödlichem Griff. Und so planen Deutsche – wie andere auch – den vergangenen Krieg«, so Tuchmann (2001, S. 42) über den Methodismus der Krieg führenden Mächte zu Beginn des 1. Weltkriegs. Das ist die Gefahr, die sich im Erfolg verbirgt: Man verpasst leicht die Stellen, an denen man abbiegen sollte. Interessante Beispiele für politisches Handeln, das seine Maximen aus den Erfolgen der Vergangenheit bezieht, finden sich bei Englund (1993). Methodismus ergibt sich oft aus Hilflosigkeit; dann wird auf Bewährtes zurückgegriffen. Zugleich aber ergibt sich Methodismus aus allzu großer Selbstsicherheit. Wenn das Patentrezept gefunden wurde, warum dann noch nachdenken? So ergibt sich Methodismus aus zwei gegensätzlichen Gefühlslagen: aus Hilflosigkeit und aus (allzu großer) Sicherheit. »Denke, bevor du handelst« – das ist eine Maxime, die fast jeder für uneingeschränkt richtig halten wird. Sie ist aber nicht immer richtig. In bestimmten Situationen sollte man nicht denken bzw. nicht allzu viel, vielleicht gerade nur so viel, dass man erkennt, dass es hier nicht nützt, sondern eher schadet. Zum Beispiel in chaotischen Situationen, in denen die Bedingungsfaktoren, die sich auf die Situation auswirken, nicht erfasst werden können,
ist es besser, auf das Planen ganz zu verzichten und stattdessen lieber etwas zu tun. »On s’engage et puis on voit«, meinte Napoleon – »Man beginnt mal, und dann sieht man zu, was kommt« (fast eleganter formulierte Franz Beckenbauer: »Schau’n mer mal«). Wenn man sich engagiert, dann lernt man so die jeweiligen Bedingungen der Situation kennen und kann dann auch gezielt planen. Versucht man vorher zu planen, fehlen wesentliche Informationen. Deshalb gerät man in die Gefahr, dass der Plan bei der ersten Konfrontation mit der Realität scheitert. Dann hat man nicht nur einen gescheiterten Plan, sondern außerdem – und das ist oft schlimmer – noch ein beschädigtes Selbstvertrauen. Ein beschädigtes Selbstvertrauen bedeutet mehr Angst mit den oben beschriebenen Folgen. Gerade aber der Ängstliche wird in Krisensituationen ungern auf das Denken verzichten und zögert dann allzu lang. Ihm fehlt der Mut, einfach mal etwas zu tun. In Krisensituationen fehlt leicht der Mut zum Handeln. Aber das ist kein unbedingtes Gesetz. Der Zauderer, der sich im Planen verliert, ohne tatsächlich etwas zu tun, wird durch sein Zaudern immer unsicherer und neigt schließlich zum Ausbruch in die befreiende Tat, die direkte Aktion. Die direkte Aktion ist eine Reaktion auf die sich akkumulierende Hilflosigkeit. Sie befreit, weil sie das Gefühl der Handlungsfähigkeit restituiert. Die direkte Aktion ist ein Kompetenzheilmittel. Leider ist damit fast notwendigerweise der Verlust der Koordination der Aktionen verbunden. In komplexen Situationen hängen die verschiedenen Probleme miteinander zusammen. Daher sollten die Maßnahmen aufeinander abgestimmt werden, man sollte die eine bedenken, wenn man die andere plant. Das setzt Überblick voraus, und den hat man nur dann, wenn man dieser Koordination Zeit widmet. Die direkte Aktion aber ist in charakteristischer Weise unbedacht, sie bedeutet meist reaktives Handeln in unkoordinierten Einzelaktionen. Strohschneider & Schaub (1991) fanden heraus, dass dies einer der wesentlichen Unterschiede zwischen erfahrenen Managern und jungen Studenten war, die ein komplexes Problem (die Simulation »Moro«, Lösung der Probleme eines Halbnomadenstammes in der Sahelzone) zu behandeln hatten. Die erfahrenen Führungskräfte handelten koordiniert, die Studenten in vereinzel-
ten Aktionen. Anscheinend verleiht die Erfahrung die Sicherheit, auf das Kompetenzheilmittel der einen direkten Aktion verzichten zu können.
% kontrollierter Aktionen vor und nach einer Krise
40
Kontrolliertes Tun
Hat man einen Plan oder eine schon vorher gelernte Verhaltensweise gefunden, um ein Problem zu lösen, so muss man den Plan in Tun umsetzen. Natürlich – das ist eine trivial anmutende Forderung – sollte man sich während der Aktion kontrollieren. Das heißt, dass man prüfen sollte, ob das, was man getan hat, auch die erwünschten Effekte zeigt und nicht überraschende oder sogar unerwünschte Wirkungen. z
50
%
6.3.5
6
117
6.3 • Emotionen und Handeln
30 Krise 20
10
1–5
6–10 11–15 Jahr
16–20
Ausfall der Kontrolle
Die Kontrolle der eigenen Aktionen ist oftmals nicht einfach. In vielen Realitäten treten Totzeiten auf; die Realität reagiert träge und die Wirkungen zeigen sich erst nach geraumer Zeit. Besonders in ökologischen und politischen Systemen sind lange Totzeiten die Regel. Ob die Erhöhung der Mehrwertsteuer das Wirtschaftswachstum abwürgt (durch die steigenden Preise) oder ankurbelt (durch steigende staatliche Investitionen aufgrund des gestiegenen Steueraufkommens), oder ob gar nichts geschieht, ist nicht nach zwei Tagen zu sehen. Davon aber ganz unabhängig ist die Forderung, sein Handeln zu kontrollieren, auf jeden Fall richtig, sei sie nun leicht oder schwer zu erfüllen. Denn nur wer sein Handeln kontrolliert, kann ggf. gegensteuern und auch seine Methoden ändern. Man sollte also meinen, dass Handelnde viel daran setzen, das Tun zu kontrollieren. Das ist keineswegs immer der Fall. Oft wird die Kontrolle unterlassen, und zwar aus gefühlsmäßigen Ursachen. Bei vielen Gefühlen geht es um den Schutz der Kompetenz. Das führt dazu, dass – wie bei anderen Stationen der Handlungsregulation auch – affirmative Informationssammlung und Wahrnehmungsabwehr
stattfindet. Denn wenn sich bei der Kontrolle des eigenen Handelns zeigt, dass man falsch geplant hat, Bedingungen nicht kontrolliert, Maßnahmen über- oder unterdosiert hat, so beweist das die eigene Inkompetenz und senkt so das Gefühl, die Dinge im Griff zu haben. Das aber verstärkt die Angst und
. Abb. 6.3 Kontrolle des Handelns. (Nach Daten von Reither, 1995)
so handeln Akteure oft ballistisch, schießen ihre Maßnahmen ab wie die Kanonenkugeln, die man nach dem Abschuss nicht mehr steuern kann, und verzichtet auf die Kontrolle. . Abb. 6.3 stellt Ergebnisse eines Experiments von Reither (1985) dar. Versuchspersonen mussten die Probleme eines (computersimulierten) Halbnomadenstammes in der Sahelzone lösen. Bei dem Moro-Problem konnten die Versuchspersonen z. B. Brunnen bohren, neue Hirsesorten einführen, die Hirsefelder düngen lassen, einen Sanitätsdienst einrichten usw. Die Abszisse in . Abb. 6.3 zeigt die Anzahl der Maßnahmen der Versuchspersonen in 5-Jahres-Abschnitten des Planspiels, die kontrolliert wurden, in denen z. B. nach einer Aktion gefragt wurde: »Um welchen Betrag ist die Hirseernte durch die Düngung gestiegen?« In den ersten 5 (simulierten) Jahren wurden nur 36% der Maßnahmen kontrolliert, die anderen 64% blieben unkontrolliert. In den nächsten 5 Jahren stieg die Anzahl der kontrollierten Aktionen immerhin auf 52%. Dann aber trat nach dem 10. Jahr eine Krise ein. Diese bestand darin, dass ein Nachbarstaat mit einer militärischen Intervention im Grenzbereich drohte. Diese von den Versuchspersonen nicht erwartete Verschärfung der Lage führte zu einer
118
6
Kapitel 6 • Emotion und Handeln
Verringerung der kontrollierten Aktionen auf 8% in den Jahren 11–15 und zu einem fast völligen Verschwinden der Kontrolle (2%) in den Jahren 16–20. Es kommt hier auf die Zahlen im Einzelnen nicht an. Diese werden unter anderen Bedingungen anders sein, geringer oder größer. Worauf es ankommt, ist, dass Versuchspersonen eine geringe Neigung zur Kontrolle ihres Verhaltens zeigen, und dass diese Neigung sich unter Belastung noch weiter verringert. Offensichtlich fällt das Verhalten der Versuchspersonen unter die Rubrik »Wahrnehmungsabwehr«. Die Versuchspersonen wollten nichts wissen, was ihre Einschätzung der eigenen Fähigkeiten beeinträchtigen könnte, und das war in umso größerem Maße der Fall, je mehr sie sowieso schon das Gefühl hatten, die Dinge nicht kontrollieren zu können. z
Immunisierung gegen Kritik
Eine weitere Form der Wahrnehmungsabwehr ist die Marginalisierung von Misserfolgen. Sie werden zurückgeführt auf Randbedingungen (Marginalien), die nur selten, eigentlich fast nie, auftreten. Es gibt keinen Grund, das Handeln deswegen zu ändern. Zum Thema »Übersehen unangenehmer Informationen« gehört auch der Ausfall der Hintergrundkontrolle. Gewöhnlich handelt man in einer komplexen Situation mit einem bestimmten Schwerpunkt. Man bemüht sich um die Lösung des augenblicklich wichtigsten oder dringlichsten Problems und schiebt die anderen in den Hintergrund. Es macht das Leben leichter, wenn man den Hintergrund unberücksichtigt lässt, denn da könnten ja unliebsame Informationen auftauchen. Damit macht man sich selbst blind für Nebeninformationen. Wie jede Form der Blindheit kann auch das gefährlich werden. Vordergründig aber schützt es das Gefühl der Kompetenz, das Gefühl, Meister der Situation zu sein. Alle diese Tendenzen sind keineswegs bewusst. Sie infiltrieren das Handeln, ohne dass der Handelnde es selbst merkt. Denn würde er es merken, so hätten diese Handlungstendenzen nicht den intendierten Effekt. z
Selbstreflexion
Wenn Selbstreflexion nicht nur darin besteht, sich selbst auf die Schulter zu klopfen, bedeutet sie
auch immer Selbstkritik. Ein vollständiger Akt der Selbstreflexion besteht darin, dass man das eigene Handeln rekapituliert, auf Fehler und Schwachstellen analysiert und sodann versucht, das eigene Tun aufgrund der Analyse zu ändern. Die reduzierte Form der Selbstreflexion besteht aus der Rekapitulation des eigenen Handelns, affirmativ geschönt dadurch, dass man Fehler nicht betrachtet. So wird Selbstkritik vermieden, mitunter geschönt mit der Feststellung der Erhabenheit der eigenen Motive: »Auf alle Fälle haben wir das Beste gewollt.« Wenn man sowieso Angst vor dem Versagen hat, ist Selbstreflexion Gift. Denn Selbstreflexion fördert, wenn man das eigene Verhalten nicht nur rekapituliert, sondern auch kritisiert, fast notwendigerweise Schwachstellen und Fehler zutage und senkt damit das eigene Empfinden, die Dinge im Griff zu haben, die eigene Kompetenz. Damit aber erhöht Reflexion die Angst und produziert Handlungsunfähigkeit. Deshalb fällt Selbstreflexion in Krisensituationen so schwer.
6.4
Zusammenfassung und abschließende Bemerkungen
Emotionen lassen sich als übergeordnete Organisationsformen psychischer Prozesse ansehen, als emergente Erscheinungen, die sich aus spezifischen Formen der Interaktion kognitiver und motivationaler Prozesse ergeben. Relevant für die Entstehung von Emotionen sind die kognitiven Bedürfnisse nach Bestimmtheit und Kompetenz, deren spezifische Ausprägung durch (Un-)Bestimmtheitssignale und (In-)Effizienzsignale bestimmt wird. Emotionen formen das Handeln: Zielelaboration, Situationsanalyse, Prognose, Planen und Entscheiden, Kontrolle des Handelns laufen je nach Gefühlslage verschieden ab. Aus den emotionalen Grundregulationen und aus der basalen Handlungsorganisation ergeben sich bestimmte Handlungstendenzen. Das jeweils empfundene Ausmaß an Bestimmtheit und Kompetenz ist dabei für die jeweilige Emotion von zentraler Bedeutung. Die geschilderten emotionalen Verhaltenstendenzen wie Wahrnehmungsabwehr oder Aktionismus sind keineswegs als Fehlerliste zu verstehen. Alle Tendenzen können in bestimmten Situationen
Literatur
durchaus zu angemessenem Verhalten führen. Affirmative Informationssammlung führt zwar zu einer verfälschten Weltsicht, andererseits bewahrt sie den Mut und das Selbstvertrauen und man kann sich Handlungssituationen vorstellen, in denen Letzteres mehr zählt. Aktionismus bedeutet meist ein Handeln um des Handelns willen, das zur Problemlösung nichts beiträgt oder sogar schadet. Andererseits macht die sinnfällige Aktion auch Mut und demonstriert ggf. der Gefolgschaft Handlungsbereitschaft und -fähigkeit. Letzteres kann schwerer wiegen als das Erstgenannte. Wir sind diesen emotionalen Handlungstendenzen und -modulationen nicht hilflos ausgeliefert. Wenn wir sie kennen, wissen wir, warum es uns zur direkten Aktion, zum Methodismus, zur Reduktion von Komplexität auf einen Faktor drängt. Wir können uns gegen solche Tendenzen entscheiden. Zumindest können wir uns besinnen und darüber nachdenken, ob unsere intuitiven Handlungsimpulse wirklich den Umständen angemessen sind. Das ist nicht immer leicht; jeder weiß, dass Gefühle oft genug Zwangsjacken gleichen, die uns oft fast gegen unseren Willen in eine bestimmte Richtung lenken. Aber es ist möglich. Als Beispiel aus der Praxis seien dazu die Trainings in der Luftfahrt genannt. Im sog. CRM (Crew Resource Management) üben Piloten gemeinsam, Anzeichen von Stress aneinander zu erkennen und anzusprechen und spontane Handlungsimpulse gegenseitig zu prüfen (7 Kap. 12 und 19). Diese Trainings sollten Piloten helfen, auch eine anerkannte Führungskraft wie den Kapitän der KLM-Maschine, die auf Teneriffa kollidierte, so zu hinterfragen, dass das Bedürfnis nach Unbestimmtheits- und Komplexitätsreduktion nicht zum Todesurteil wird.
Literatur Aviation Safety Network (o. J.). Unfallbericht zu Teneriffa. Online-Dokument, verfügbar unter http://aviation-safety. net/database/record.php?id = 19770327-0 [Zugriff am 26.06.2011]. Barrett, L. F., Mesquita, B., Ochsner, K. N. & Gross, J. J. (2007). The experience of emotion. Annual Review of Psychology, 58 (1), 373–403. Bazerman, M. & Watkins, M. (2005): Predictable outcomes. Harvard: Harvard Business School Press.
119
6
Clausewitz, C. v. (1880). Vom Kriege. Berlin: Dümmler. Dörner, D. (1989). Die Logik des Misslingens. Reinbek bei Hamburg: Rowohlt. Dörner, D. (1999). Bauplan für eine Seele. Reinbek: Rowohlt. Engels, F. (1956). Die Entwicklung des Sozialismus von der Utopie zur Wissenschaft. Marx-Engels-Werke, 19, 177–228. Englund, P. (1993). Die Marx-Brothers in Petrograd. Reisen in die Landschaft der Vergangenheit. Berlin: Basis-Druck. James, W. (1884). What is an emotion? Mind, 9 (34), 188–205. Kozielecki, J. (1987). Transgressive decision making: A study of personal and social change. Warschau: Department of Psychology, University of Warsaw. Lazarus, R. S. (1987). A relational and cognitive theory of emotion. Unveröffentlichtes Manuskript, University of California, Berkley. Reither, F. (1985). Wertorientierung in komplexen Entscheidungssituationen. Sprache & Kognition, 4 (1), 21–27. Strohschneider, S. & Schaub, H. (1991). Können Manager wirklich so gut managen? Über die Effekte unterschiedlichen heuristischen Wissens beim Umgang mit komplexen Problemen. Zeitschrift für Psychologie, Supplement, 11, 325–340. Tolstoi, L. (2001). Krieg und Frieden. Frankfurt a. M.: Insel-Verlag. Tuchman, B. (2001). August 1914. Die dramatischen Ereignisse bei Ausbruch des 1. Weltkrieges. Frankfurt a. M.: Fischer. Zimbardo, P. G. & Gerrig, R. J. (2003). Psychologie (7. Aufl.). Berlin: Springer.
121
Handeln in Gruppen Petra Badke-Schaub
7.1
Gruppen als Systeme – 123
7.1.1 7.1.2
Gruppe – Team – 124 Strukturen und Prozesse – 124
7.2
Anforderungen an den Gruppenprozess: Kommunikation, Koordination und Kooperation – 126
7.2.1 7.2.2 7.2.3
Kommunikation – 127 Koordination – 127 Kooperation – 128
7.3
Motivation – 128
7.3.1 7.3.2
Bedürfnis nach Kompetenz und Handlungsfähigkeit – 129 Bedürfnis nach Affiliation – 129
7.4
Integration: Team Mental Models – 130
7.5
Analyse des Beispiels – 130
7.5.1
Koordination – Kooperation – Kommunikation am Mount Everest – 131 Führung in Extremsituationen – 132
7.5.2
7.6
Zentrale Determinanten des Entscheidungsverhaltens in Gruppen – 133
7.6.1
Zielfixierung und Überwertigkeit des aktuellen Motivs: Umkehrzeit 14 Uhr – 133 Reduktionismus und Planungsoptimismus: »… du musst mir versprechen, dass du hier bleibst, bis ich zurück bin.« – 134 Informationsselektion und Tunnelblick: »Nur ein bisschen schlapp heute – hat aber nichts zu sagen.« – 135
7.6.2 7.6.3
7.7
Zusammenfassung und Zusammenführung: Erfolgsfaktoren sicheren Handelns in Gruppen – 135 Literatur – 138
P. Badke-Schaub et al., Human Factors, DOI 10.1007/978-3-642-19886-1_7, © Springer-Verlag Berlin Heidelberg 2012
7
122
7
Kapitel 7 • Handeln in Gruppen
Fokus des folgenden Beispiels sind zwei geführte Expeditionsgruppen im Himalaya. Gruppe 1 mit dem neuseeländischen Expeditionsleiter Rob Hall, 2 Bergführern, 8 Sherpas als Gipfelbegleiter und 8 Kunden sowie Gruppe 2 mit dem US-amerikanischen Expeditionsleiter Scott Fischer, ebenfalls mit 2 Bergführern, 6 Sherpas und 8 Kunden. Ziel dieser kommerziellen Expeditionen war die Besteigung des Mount Everest (8 848 m), wobei insgesamt 8 Menschen aufgrund der Verkettung falscher Entscheidungen zu Tode kamen und mehrere Personen schwer verletzt zurückkehrten. Auch wenn es über Details der Tragödie unterschiedliche Darstellungen der Überlebenden gibt, werden die zentralen Handlungsstränge von verschiedenen Teilnehmern in weitgehender Übereinstimmung berichtet (Krakauer, 1998; Boukreev & DeWalt, 1998; Tenzing, 2001; Weathers, 2000). Dabei betrachten wir an dieser Stelle aus dem Gesamtablauf nur Episoden der letzten Phase des gemeinsamen Ziels, den Gipfel des höchsten Berges der Erde zu besteigen. Dieses Ziel gliedert sich in zwei Teilziele, den Gipfelanstieg und den Gipfelabstieg, wobei das zweite Teilziel das weitaus wichtigere darstellt, da nur der erfolgreiche Abstieg das Überleben ermöglicht, wobei die erfolgreiche Bewältigung des ersten Teilziels, die Erreichung des Gipfels, selbst noch keine Aussage über den Gesamterfolg ermöglicht. Beispiel Gipfelanstieg Der Gipfelanstieg beginnt am 09.05.1996. Die vereinbarte Planung ist, dass beide Gruppen Lager IV (7986 m) um 23.30 bzw. 0.00 Uhr verlassen, die Nacht und den folgenden Tag bis mittags klettern, um bis spätestens 14.00 Uhr den Gipfel zu erreichen und wieder abzusteigen. 14 Uhr Umkehrzeit ist eine fixe Uhrzeit, auch für den Fall, dass der Gipfel nicht erreicht worden ist. Dies war allen Teilnehmern in den vorangegangenen Wochen mehrfach eingeprägt worden. Es sind eine ganze Reihe von Gruppen am Berg, die gemäß Absprache zu unterschiedlichen Zeitpunkten den Gipfelanstieg durchführen wollen. In dieser Nacht steigen aber nicht nur die beiden Gruppen von Scott Fischer und Rob Hall in Richtung Gipfel, auch zwei weitere Teams halten die
vereinbarte Planung nicht ein und starten in derselben Nacht von Lager IV zum Gipfel; insgesamt sind 33 Bergsteiger auf dem Weg zum Gipfel. Die große Anzahl an Personen verursacht am Fuß des sog. Hillary Step, dem Nadelöhr auf dem Weg zum Gipfel, der nur einzeln durchstiegen werden kann, einen Stau. Rob Hall hatte für seine Gruppe die Regel vorgegeben, dass die Bergsteiger nicht mehr als 100 m entfernt voneinander sein dürfen, was angesichts der Leistungsdifferenzen in der Gruppe dazu führt, dass einige Personen bis zu 90 min warten müssen. Um 7.30 Uhr auf 8400 m Höhe stellt ein Kunde von Rob Hall, Beck Weathers, fest, dass er nichts mehr sehen kann. Er lässt die anderen Bergsteiger passieren, um Rob Hall zu informieren, dass er nachkommen werde, wenn seine Probleme nachlassen, oder aber ins Hochlager zurückkehren werde. Aber Rob Hall ist damit nicht einverstanden und verlangt von Beck Weathers: »Du musst mir versprechen – das meine ich bitterernst, du musst mir versprechen, dass du hier bleibst, bis ich zurück bin.« Beck Weathers antwortet: »Ich schwör dir bei meinem Leben, ich bleib hier kleben« (Weathers, 2000, S. 38). Doug Hansen, ein Mitglied der Rob-Hall-Gruppe, ist beim Anstieg so erschöpft, dass er mehrmals vor dem Gipfel umkehren will, wird aber von Rob Hall zum weiteren Aufstieg überredet. Doug Hansen hatte bereits im Jahr zuvor mit Rob Hall 100 m unterhalb des Gipfels umkehren müssen und hatte geschworen, dass er unter keinen Umständen noch einmal umkehren würde. Um 15.40 Uhr informiert Scott Fischer den Leiter seines Basislagers, dass sein gesamtes Team den Gipfel erreicht habe. Doug Hansen, der letzte nicht umgekehrte Teilnehmer der Gruppe Rob Halls, erreicht den Gipfel kurz nach 16 Uhr. Rob Hall wartet kurz unter dem Gipfel auf ihn.
Offensichtlich entwickelten sich viele Dinge anders als geplant. Es wurden Entscheidungen getroffen oder auch vermieden, die den Abstieg massiv beeinflussten. Obwohl beide Teams bei guten Wetterbedingungen starteten, gab es zunehmend Hinweise darauf, dass das Wetter umschlagen werde; dennoch wurde am Aufstieg festgehalten. Die wichtige 14-Uhr-Umkehrregel, die vereinbart worden war,
123
7.1 • Gruppen als Systeme
wurde gebrochen – ohne explizite Angaben oder Erläuterungen. Beispiel Gipfelabstieg Anatoli Boukreev, der erste der beiden Bergführer aus Scott Fischers Team, klettert mittags allein voraus, um für sich den Gipfel ohne Sauerstoff zu besteigen; er klettert auch sofort wieder herunter, denn ohne Sauerstoff kann er sich keinesfalls länger im Gipfelbereich aufhalten. John Krakauer erreicht um 13.12 Uhr den Gipfel und steigt sofort wieder zum Lager IV ab, allerdings mit Problemen am Hillary Step, weil er, während ihm der Sauerstoff ausgeht, warten muss, da ihm immer noch Bergsteiger entgegenkommen, die auf dem Weg zum Gipfel sind. Doug Hansen besteigt als Letzter den Gipfel – kurz nach 16 Uhr (!). Um 17 Uhr erreicht das Basislager einen Funkspruch von Rob Hall: »Ich komme den Hillary Step ja hinunter, aber ich weiß nicht, wie ich den Mann hier hinunterbekommen soll. Ich brauche von irgendjemandem eine Sauerstoffflasche, ich bitte euch.« Zu ungefähr derselben Zeit setzt ein Schneesturm ein, der sich zuvor durch schwarze Gewitterwolken angekündigt hatte; die Temperatur sinkt auf −50°C, die Windstärke beträgt mehr als 100 km/h. Gegen 20 Uhr treffen die ersten, die den Gipfel erreicht hatten, und jene, die am frühen Nachmittag umgekehrt waren, im Lager IV ein. Um 0.45 Uhr kommen weitere 6 völlig erschöpfte Bergsteiger im Lager an und berichten von 5 Personen, die noch auf Hilfe warten. Anatoli Boukreev und eine Rettungstruppe brechen auf, können 3 Personen retten, 2 scheinen tot zu sein, einer von ihnen ist Beck Weathers, der über 10 h auf Rob Hall vergeblich gewartet hatte. Unterdessen reagiert Andy Harris, einer der Bergführer aus Halls Team, der bereits ein Drittel des Weges zum Hochlager hinter sich hatte, auf Rob Halls Notruf und bringt Sauerstoffflaschen unter den Gipfel. Gemeinsam versuchen sie, Doug Hansen über den Gipfelgrat zu schaffen – ohne Erfolg. Rob Hall und Andy Harris erreichen zwar noch den Südgipfel, aber Andy Harris verschwindet irgendwann im Sturm, Rob Hall verbringt die Nacht
7
und den nächsten Tag völlig entkräftet auf dem Berg, bis er stirbt. Beck Weathers taucht am nächsten Morgen im Lager auf, mit schweren Erfrierungen, aber er lebt. Scott Fischer wird wenig später tot aufgefunden.
An diesem Beispiel einer zunächst untypisch erscheinenden Gruppenkonstellation und -dynamik soll gezeigt werden, in welchem Ausmaß motivationale und emotionale Verhaltenstendenzen kognitive Prozesse und sicheres Handeln in Gruppen in komplexen Situationen beeinträchtigen können. Im Folgenden werden zunächst basale Merkmale von Gruppen als Systeme beschrieben (7 Kap. 7.1), von denen ausgehend theoretische Ansätze vorgestellt werden, die spezifische Anforderungen an Gruppen deutlich machen (7 Kap. 7.2, 7 Kap. 7.3). Diese Ansätze dienen in 7 Kap. 7.4 und 7 Kap. 7.5 als Grundlage, um ausgewählte Episoden des anfangs präsentierten Beispiels zu analysieren und zu verallgemeinern. Den Abschluss (7 Kap. 7.6) bildet ein Resümee zu Erfolgsfaktoren sicheren Handelns in Gruppen.
7.1
Gruppen als Systeme
Wie Gruppen arbeiten, auf welche Weise Gruppennormen entstehen und den Gruppenprozess und die Gruppenleistung beeinflussen, war schon seit Beginn des 20. Jahrhunderts Thema der Sozialpsychologie und wurde unter dem Blickwinkel von Leistung und Effektivität Gegenstand der Arbeitsund Organisationspsychologie. Der soziale Kontext wurde spätestens in dem Moment für den Bereich Human Factors interessant, als erkannt wurde, dass die Ursache vieler Unfälle auf Probleme in der Kommunikation und Kooperation in Gruppen zurückgeführt werden musste. Im Militärbereich gab es schon in den 1950erund 1960er-Jahren Studien zu der Frage, wie Teamprozesse gestaltet werden können, damit sie unter Extrembedingungen wie z. B. hohem Zeitdruck, Stress, fehlender oder unvollständiger Information möglichst effektiv, also fehlerfrei arbeiten. Unter ähnlichem Vorzeichen startete die Luft-
124
7
Kapitel 7 • Handeln in Gruppen
fahrt als eigentlicher Vorreiter der Integration der Gruppenthematik in den Human-Factors-Bereich (7 Kap. 12.1). Schon 1981 entwickelte United Airlines ein Trainingskonzept unter dem Namen »Cockpit Resource Management«, das zunächst ausschließlich das Cockpit als Trainingseinheit im Blick hatte, aber im Laufe der Jahre zu dem sog. »Crew Ressource Management« (CRM) modifiziert wurde, das unter dem Motto »Vermeidung von Fehlern durch Verbesserung von Kommunikation und Kooperation« die gesamte Besatzung in das Training einbezog. Die neueren Entwicklungen sehen Gruppen zunehmend als Einheit in der Organisation und analysieren den Einfluss der Organisation auf den Gruppenprozess und das Ergebnis (Ilgen, 1999).
7.1.1
Gruppe – Team
Neben dem Begriff »Gruppe« wird in der Praxis immer häufiger das Wort »Team« gebraucht. Es gibt einige Autoren, die zwischen Team und Gruppe unterscheiden, allerdings mit unterschiedlichen Begründungen. Eine vielfach genannte Abgrenzung definiert den Unterschied dahingehend, dass sich Teams durch klare Zuweisung von Verantwortlichkeiten an ihre Teammitglieder und damit durch das Vorhandensein unterschiedlicher Teamrollen auszeichnen. Dementsprechend definieren Campbell & Campbell (1988), dass Gruppen dann zu Teams werden, wenn sie autonom sind und eine klare Zuweisung von Verantwortlichkeiten ausüben, die sie von anderen Teams oder Gruppen unterscheiden. Dagegen nennen andere Autoren eine ganze Vielfalt von Merkmalen, die Teams von Gruppen unterscheiden:
»
Characteristics that distinguish teams from small groups include the following: multiple sources of information, task interdependencies, coordination among members, common and valued goals, specialized member roles and responsibilities, task-relevant knowledge, intensive communication, and adaptive strategies to help respond to change (Dyer 1984, Modrick 1986, Morgan et al. 1986, Salas and Cannon-Bowers 1997). (Paris, Salas & Cannon-Bowers, 2000, S. 1052–1053)
«
Aufgabe Struktur
Prozesse
Input
Output Gruppe Struktur
Prozesse
. Abb. 7.1 Einfaches Modell der Gruppe als informationsverarbeitendes System
Da diese Voraussetzungen für Teams aber zum einen in der Praxis kaum überprüfbar sind und es zum anderen unklar bleibt, wie die jeweiligen Merkmale zu erfassen und zu bewerten sind (z. B. müssen alle Merkmale zutreffen, gibt es weitere Merkmale etc.), erscheint eine Unterscheidung zwischen Gruppe und Team willkürlich, weshalb in diesem Beitrag die Begriffe »Team« und »Gruppe« synonym gebraucht werden. Ein Blick in die tägliche Praxis macht zudem deutlich: Hinter dem Begriff »Gruppe« kann sich sehr Unterschiedliches verbergen: informelle Gruppen, Projektgruppen, multi-, inter- und transdisziplinäre Gruppen, interkulturelle Gruppen, geografisch verteilte Gruppen, virtuelle Gruppen (7 Kap. 11) – dies sind nur einige Beispiele für Gruppen, die sich durch unterschiedliche Merkmale hinsichtlich der formalen Struktur und der räumlichen Nähe bzw. Distanz auszeichnen.
7.1.2
Strukturen und Prozesse
Betrachten wir Gruppen als informationsverarbeitende Systeme aus einer systemtheoretischen Perspektive (. Abb. 7.1), besteht das System Gruppe aus einer Struktur mit bestimmten Merkmalen und aus informationsverarbeitenden Prozessen mit jeweils bestimmten Merkmalen. Der Input (Eingang) in das System Gruppe erfolgt über die durch Sensoren vermittelten Informationen aus der Umwelt des Systems, z. B. über den Zustand einer Aufgabe, die ebenfalls als System, bestehend aus Struktur und Prozessen, beschreibbar ist. Die konkreten Merkmale der Strukturen und Prozesse des Systems
7.1 • Gruppen als Systeme
Gruppe determinieren die Verarbeitung des Inputs, die zu Veränderungen innerhalb des Systems (bzgl. der Merkmale der Gruppenstruktur oder -prozesse) bzw. zur Erzeugung eines Outputs führt, der über Effektoren zu einer Veränderung der Umwelt, z. B. der Merkmale einer Aufgabe, führt. Die Veränderung der Umwelt wird dem System über Sensoren als Input wieder zugeführt. Grenzfälle sind die Erzeugung eines Outputs ohne einen korrespondierenden Input bzw. die Verarbeitung eines Inputs ohne die Erzeugung eines korrespondierenden Outputs. In einer weiteren Differenzierung (. Abb. 7.2) sind auf der Aufgabenseite einerseits die spezifischen Merkmale der Struktur der (Arbeits-)Aufgabe, z. B. der Grad der Komplexität, das Ausmaß an Vernetztheit oder die Verfügbarkeit von Ressourcen, andererseits die spezifischen Merkmale des Prozesses der (Arbeits-)Aufgabenbearbeitung – wie in 7 Kap. 6.3 beschrieben – präzisiert werden: Zielelaboration, Situationsanalyse, Prognose, Planen und Entscheiden, Handeln und Selbstreflexion. Auf Gruppenseite sind, empirischen Ergebnissen folgend, neben der Gruppenzusammensetzung weitere Merkmale zu nennen, die die Struktur einer Gruppe ausmachen und den Prozess und das Ergebnis beeinflussen, z. B. Führung, Normen und Werte sowie Kohäsion. Natürlich ist der zentrale Input das Individuum, das seine Persönlichkeit, sein Wissen und seine Fähigkeiten in die Gruppe einbringt und in der jeweiligen Gruppenkonstellation den Prozess, also Kommunikation, Koordination und Kooperation determiniert. Die in . Abb. 7.2 präsentierte deskriptive Zusammenschau zentraler Gruppen- und Aufgabencharakteristika ist empirisch in dieser Komplexität nicht erforschbar. Die Frage determinierender Faktoren von Gruppenaktivität stellt jedoch seit ca. 100 Jahren eines der wichtigsten Themengebiete der Sozialpsychologie dar. Relevant für die Praxis sind beispielsweise Erkenntnisse zur Gruppenentwicklung und Gruppenleistung in Abhängigkeit von homogener oder heterogener Gruppenzusammensetzung, wobei in der Praxis eine heterogene Zusammensetzung die wesentlich häufigere
125
7
Variante ist. Allerdings gibt es dann bei der Frage, ob eine homogene oder heterogene Gruppenzusammensetzung zu einer effektiveren Gruppenarbeit beiträgt, empirische Bestätigung für beide Alternativen, weil weitere Faktoren einen moderierenden Effekt haben können. Das konkrete Ziel für eine Anwendung der Forschungsergebnisse in der Arbeits- und Organisationspsychologie ist eine optimale Passung von Aufgabenmerkmalen und Gruppenmerkmalen. Aus der spezifischen Struk-
tur der Aufgabe sollten Kriterien bereitgestellt werden, entsprechend derer eine Gruppe mit optimal auf die Aufgabe abgestimmten Merkmalen zusammengestellt wird. Angesichts dieser Vielfalt von Merkmalen und deren Verknüpfungen, die sich über die Zeit erstrecken und verändern, drängt sich die Frage auf: Ist es überhaupt möglich, allgemeine Aussagen zur Sicherheit über das Handeln in Gruppen zu machen? Die Antwort lautet: Ja und Nein. Allgemeingültige Aussagen sind insofern möglich, als bezüglich definierter Einflussvariablen Wenn-dann-Konstellationen abgeleitet werden können, die unter den genannten Bedingungen und aufgrund empirischer und theoretischer Erkenntnisse mit hoher Wahrscheinlichkeit eintreten. Die Antwort lautet »nein«, weil immer wieder Bedingungen auftreten werden, die zu anderen als den aufgrund empirischer Daten gewonnenen Ergebnissen führen können und damit zur Modifikation vorhandener Theorien oder zu neuen Hypothesengefügen Anlass geben. Daher ist es wichtig, Gruppenphänomene in einem Gesamtkontext von Anforderungen der Situation, Merkmalen der Person, Merkmalen der Gruppe, Prozessmerkmalen und Ergebnisdaten zu betrachten, wobei die Zeitdimension in Form einer Feedback-Schleife mit Auswirkung auf den Input ebenfalls einbezogen werden sollte. > Gruppenphänomene müssen in einem Gesamtkontext von Anforderungen der Situation, Merkmalen der Person, Merkmalen der Gruppe, Prozessmerkmalen und Ergebnisdaten analysiert werden.
126
Kapitel 7 • Handeln in Gruppen
Kontext Aufgabe Struktur
Prozess
Komplexität Vernetztheit Ressourcen Zeit
Zielelaboration Situationsanalyse Prognose und Planung Entscheidung u. Kontrolle
Input
Output Gruppe
7
Struktur
Prozess
Zusammensetzung Führung Normen Kohäsion
Kommunikation Gruppenentwickiung Kooperation Koordination
Kontext
. Abb. 7.2
7.2
Interdependenz von Aufgaben- und Gruppenmerkmalen
Anforderungen an den Gruppenprozess: Kommunikation, Koordination und Kooperation
Gruppenmitglieder, die ein gemeinsames Ziel verfolgen, werden zunächst Informationen suchen und bewerten. Da diese Prozesse in gewissen Phasen individuell ablaufen und somit auf individuell unterschiedlichen Wissensbeständen basieren, muss ein Informationsaustausch zwischen den Gruppenmitgliedern stattfinden, also Koordination mittels Kommunikation in der Gruppe und mit weiteren Schnittstellen. Kommunikation ist notwendig, um Informationen in koordiniertes Handeln umsetzen zu können und ggf. kooperatives Handeln zu initiieren, das der Zielerreichung dient. Jedoch sollten die Teamziele nicht in Konflikt zu Zielen und Bedürfnissen der einzelnen Teammitglieder stehen.
Kommunikation
Motivation
Informationsaustausch
Kooperation
Common ground
Gemeinsames mentales Modell
HANDELN
Koordination
. Abb. 7.3 Kommunikation, Koordination und Kooperation als Basis gemeinsamen Handelns
Wenn das Ziel ein gemeinsames Ziel ist, sollten die Gruppenmitglieder kooperieren und gemeinsame Ressourcen optimal einsetzen (. Abb. 7.3).
7.2 • Anforderungen an den Gruppenprozess: Kommunikation, Koordination und Koopera
7.2.1
Kommunikation
Kommunikationsmodelle und deren Implikationen für den Kommunikationsprozess und damit für sicheres Handeln werden ausführlich in 7 Kap. 8 diskutiert, deshalb sollen an dieser Stelle nur einige relevante Aspekte von Kommunikation im Gruppenkontext dargestellt werden. Die zentrale Bedeutung von Kommunikation für sicheres Handeln ist für jede Arbeitstätigkeit gegeben (Badke-Schaub & Frankenberger, 2003). Empirische Untersuchungen zeigen beispielsweise, dass gute Piloten – solche mit weniger operationalen oder prozeduralen Fehlern – vor einer Entscheidung mehr Informationen erfragen und nutzen. Damit steht ihnen eine größere Wissensbasis zur Verfügung. Allerdings verbalisieren sie gleichermaßen eine größere Anzahl an Plänen (Orasanu, 1993), was dazu führt, dass das gemeinsame Wissen im Team erhöht wird und die Gruppe ein gemeinsames mentales Modell der Situation aufbaut (7 Kap. 8.5). Kommunikation ist insbesondere in Extremsituationen in Gefahr (oftmals bedingt durch hohen Zeitdruck und psychischen Stress), nur in eine Richtung – ohne Rückmeldung vom Empfänger – und reduziert zu erfolgen. Diese Reduktion ist in manchen Situationen erforderlich, um schnelle Handlungen zu ermöglichen. Gleichzeitig wird in extremen Situationen dadurch in der Regel die dominante Reaktion, d. h. die Reaktion mit der stärksten Assoziation, hervorgerufen (»frequency gambling«; Reason, 1990). In der Gruppensituation kann die dominante Reaktion für die individuellen Gruppenmitglieder unterschiedlich sein und damit fatale Folgen haben, wenn 5 keine eindeutigen Anweisungen erfolgen, 5 keine eindeutigen Sicherheitsstandards für die spezifische Situation vorliegen, 5 kein gemeinsames mentales Modell der Situation existiert.
7.2.2
Koordination
Sobald mehrere Personen zusammenkommen, um ein Ziel zu erreichen, wird Koordination notwendig, um erfolgreiche Prozesse zu gewährleisten
127
7
(Kolbe, 2007, für eine aktuelle Zusammenschau von Koordinationsprozessen von Primaten und Menschen s. Boos et al., 2011). Auch empirische Studien zeigen, dass die Teamleistung umso höher ist, je besser die Teammitglieder die individuellen Beiträge – bezogen auf Inhalt und Prozess – koordinieren (Gurtner, 2003). Konsequenz fehlender oder stark reduzierter Koordination der Gruppe ist zumeist adäquater Informationstransfer, was in der Folge zu fehlerhaften Entscheidungen führen kann. Koordination von Personen und Prozessen, z. B. die Zusammenführung des Wissens, der Erfahrung sowie der Kompetenzen, erfolgt zunächst durch explizite Kommunikation zwischen den Teammitgliedern. Die Gruppe muss sicherstellen, dass der Informationsaustausch mit den betreffenden Personen zum richtigen Zeitpunkt stattfindet, dass Entscheidungen adäquat vorbereitet werden und dass der gesamte Prozess im Rahmen eines Zeit- und Projektplans koordiniert wird. Somit umfasst Koordination eine Vielfalt unterschiedlicher Aktivitäten, wie beispielsweise: 5 Zuweisung von Verantwortlichkeiten, 5 Nutzung vorhandener Ressourcen, 5 Schnittstellenmanagement, 5 Planung von Worst-case-Situationen, 5 Prioritäten setzen und einhalten und 5 kontinuierliche Hintergrundkontrolle etablieren mit dem Fokus der Antizipation erwartungswidriger Ereignisse. Untersuchungen zeigen jedoch, dass Gruppen dazu neigen, entweder überhaupt nicht zu planen (Hackman, Brousseau & Weiss, 1976) oder erst dann, wenn nach einiger Zeit in der Gruppe erkennbar wird, dass das bisherige »Muddling-through«-Vorgehen (Lindblom, 1959, 1979) erfolglos war (Gersick, 1988).Um zu gewährleisten, dass eine Gruppe den prozessualen Anforderungen ausreichend Aufmerksamkeit widmet, ist eine Führungsrolle für die Initiierung und Kontrolle von Koordinationsprozessen notwendig. Das gilt vornehmlich für risikoreiche und zeitkritische Maßnahmen. Wie Zala-Mezö, Künzle, Wacker & Grote (2004) aufgrund von Interviews mit Anästhesieteams zeigen konnten, wird direktive Führung ausdrücklich in kritischen Situationen gewünscht. In dieselbe Richtung weisen auch Ergebnisse einer Studie von
128
7
Kapitel 7 • Handeln in Gruppen
Yun, Faraj & Sims (2005), denn in medizinischen Notfallteams war direktive Führung in komplexen Fällen und bei wenig erfahrenen Teams erfolgreicher, während Empowerment – d. h. weniger direkte Einflussnahme durch die Führung und mehr Selbstbestimmung durch die Gruppe – bei weniger komplexen Fällen und in erfahrenen Teams erfolgreicher war (7 Kap. 10.3). Erfolgreiche Gruppen entwickeln zusätzlich zur expliziten Koordination Mechanismen impliziter Koordination, z. B. wechseln erfolgreiche Cockpit-Crews zwischen impliziter und expliziter Koordination je nach Anforderung durch die Situation (z. B. Entin & Serfaty, 1999; Orasanu, 1993). Implizite Koordination wird besonders dann wichtig, wenn Restriktionen explizite Koordination beeinträchtigen oder gar verhindern, beispielsweise in Situationen, in denen keine verbale Kommunikation möglich ist (7 Kap. 8.7).
7.2.3
Kooperation
Der Theorie der Gruppenentwicklung von Tuckman (1965) folgend ist Kooperation erst möglich, wenn die Gruppe zuvor die Phasen Forming (Orientierung) und Storming (Konflikt) durchlaufen hat und in die sog. Norming-Phase (Stabilisierung) eintritt, der dann die effektive Arbeitsphase (Performing) folgt. Diese 4 Phasen haben unterschiedliche Funktionen für die Gruppe und für die Problembearbeitung (Staehle, 1991) und sollten deshalb nicht übersprungen werden, weil die Gruppe ansonsten nicht ihren Fähigkeiten entsprechend zusammen arbeitet. Mit anderen Worten: Erst nachdem die Gruppe eine Konfliktphase durchlebt und die Möglichkeiten und Grenzen ihrer Zusammenarbeit ausgehandelt hat, ist damit der Grundstein für die folgende Zusammenarbeit gelegt und die Gruppe kann sich auf die Aufgabe konzentrieren. Bezogen auf die Aufgabe bzw. Problembearbeitung findet in dieser Phase der wichtigste Teil des Gesamtprozesses statt, denn das oder die gemeinsamen Ziele werden in der Gruppe festgelegt. Empirische Studien konnten nachweisen, dass die Formulierung von Teamzielen einen positiven Einfluss auf die Leistung des Teams
hat (Locke & Latham, 1990; O’Leary-Kelly, Martocchio & Frink, 1994). Allerdings stellt sich hier die Frage, wie viel Zeit und Ressourcen Gruppen in unterschiedlichem Umgebungskontext benötigen, um zumindest diese Phase der Stabilisierung zu erreichen. Denn so kann – je nach situativen Anforderungen – die Konfliktphase einen positiven Einfluss auf den Prozess und das Ergebnis haben, z. B. wenn unterschiedliche Sichtweisen der Gruppenmitglieder eingefahrene Lösungswege und Vorgehensweisen aufbrechen. Gleichermaßen sind aber auch negative Auswirkungen zu erwarten, wenn die Gruppe starke Machtkämpfe austrägt und dementsprechend nicht ausreichend problemfokussiert arbeiten kann. Beispielsweise in hoch sicherheitsrelevanten Arbeitsumgebungen sind solche Prozesse sehr gefährlich, da andere als inhaltliche Themen die Kapazitäten der Gruppe beanspruchen. Gute Kooperation schließt Hilfeleistung und Unterstützung ein und setzt gegenseitige Wertschätzung und ein Mindestmaß an Vertrauen voraus. Ein solches Klima erzeugt bei dem einzelnen Gruppenmitglied ein Zugehörigkeitsgefühl, wodurch sich Gruppenkohäsion, definiert als Ausmaß wechselseitiger positiver Gefühle, ausbildet. Damit kommt Motivation als ein zentraler Einflussfaktor des Individuums, der auf den Prozess Einfluss nimmt, hinzu.
7.3
Motivation
Effektivität und Effizienz des Handelns im Team werden nicht allein durch einen optimalen Koordinationsprozess erreicht, denn neben Koordinationsverlusten (Steiner, 1972) schmälern auch Motivationsverluste die potenzielle Gruppenleistung (Stroebe, Jonas & Hewstone, 2002). Das heißt, zusätzlich zur Koordination ist die individuelle Motivation der einzelnen Gruppenmitglieder Kursgeber für die Qualität der Kooperation. In empirischen Studien finden sich für unterschiedliche Aufgaben (Brainstorming, Überwachungsaufgaben, Kreativitätsprobleme) im Wesentlichen zwei Formen von Motivationsverlusten:
129
7.3 • Motivation
5 Soziales Faulenzen (»social loafing«): geringere Anstrengungsbereitschaft, wenn der eigene Beitrag nicht identifizierbar ist; 5 Verantwortungsdiffusion: geringere individuelle Verantwortungsübernahme, wenn viele andere handlungsfähige Personen anwesend sind. Dem gegenüber stehen aber auch Motivationsgewinne, denn die Gruppe kann zwei zentrale Motive befriedigen, das Bedürfnis nach Kompetenz und Handlungsfähigkeit sowie das Bedürfnis nach Affiliation (7 Kap. 6).
7.3.1
Bedürfnis nach Kompetenz und Handlungsfähigkeit
Nur wenn ein Gruppenmitglied sein(e) Ziel(e) im gemeinsam definierten Ziel wiederfindet, wird es seine Fähigkeiten und sein Wissen mittel- und langfristig in die Gruppe einbringen. Diesem Bestreben liegt die Motivation nach Kompetenz und Kontrolle zugrunde. Die Kompetenzmotivation lässt den Handelnden nach Kompetenzsignalen (Dörner, 1999; 7 Kap. 6) suchen, also Indikatoren in der physikalischen und sozialen Umwelt, die den Erfolg eigener Handlungen signalisieren (s. auch »self efficacy«, Bandura, 1977, 1982). Da Gruppen durch verschiedene Mechanismen die Informationsverarbeitungsprozesse des Einzelnen unterstützen, z. B. durch eine breitere Informationssuche, profitiert der Handelnde in einer Gruppensituation von diesen Unterstützungsleistungen. Er kann damit seine Handlungsziele besser erreichen, seine Handlungsfähigkeit wird positiv bestätigt und er erzielt Kompetenzsignale, das Motiv nach Kompetenz wird befriedigt. Faktisch führt das zu einer Verbesserung der Fähigkeiten des Handelnden, da er durch die Unterstützung der Gruppe schwierigere Aufgaben bewältigen kann, als wenn er dies allein, ohne die Gruppe, versuchte. In der Folge wird er sich dank des erhöhten Zutrauens in die eigene Handlungsfähigkeit eher mit neuen und schwierigen Aufgaben beschäftigen. Natürlich kann und muss im Sinne einer Ergebnisoptimierung auch der gegenteilige Prozess
7
einsetzen; die Gruppe kann als Korrektiv auch negatives Feedback an das Gruppenmitglied zurückmelden und dessen Ideen, Handlungen, Lösungsvorschläge ablehnen, was abhängig von der Gruppenkultur einen hilfreichen Schritt in der Gesamtproblembearbeitung darstellt oder aber zu einer Entwicklung von Minderheiten in Form von Subgruppen oder zur Positionierung von Personen als Außenseiter führen kann. Die kritische Reflexion in der Gruppe stellt jedoch ein notwendiges Korrektiv dar für das Defizit des Individuums, selbst zu reflektieren, dar (Tisdale, 1998; Wetzstein & Hacker, 2004) und ist darüber hinaus ein Garant gegen Gruppendenken (Janis, 1972, 1982).
7.3.2
Bedürfnis nach Affiliation
Jenseits der unmittelbaren Unterstützung in der kognitiven Analyse, Bewertung und Durchführung von Handlungen spielen Gruppen eine wichtige Rolle für die Befriedigung des Affiliationsbedürfnisses des einzelnen Gruppenmitglieds. Das Bedürfnis nach Affiliation ist das Bedürfnis nach sozialen Kontakten oder präziser gesagt nach Legitimitätssignalen (Boulding, 1978). Legitimitätssignale sind Rückmeldungen der Gruppe an das Individuum, dass es »okay« ist, dass es in die Gruppe passt. Ein Legitimitätssignal kann das Lächeln einer anderen Person sein oder direkte soziale Anerkennung (»Ja, wir finden, du machst das sehr gut«). Aber auch das Tragen derselben oder ähnlicher Kleidung oder Symbole in einer Gruppe ist ein Legitimitätssignal für das einzelne Gruppenmitglied, denn es zeigt ihm und den anderen, dass es dazugehört. Wenn in einer Gruppe viele positive Legitimitätssignale gesendet werden, werden die Zugehörigkeit zu dieser Gruppe und das Befolgen der Regeln bedeutsam für jedes einzelne Gruppenmitglied; als Folge steigt die Gruppenkohäsion. Zusätzlich verleiht die Gruppe dem Gruppenmitglied ein Gefühl der Stärke (»Ich bin nicht allein!«) und trägt auch hiermit zur Steigerung des Kompetenzgefühls bei. Damit entsteht für die Gruppe eine Win-winSituation, die darauf basiert, dass die Gruppenmitglieder als Informationslieferanten und als Refle-
130
Kapitel 7 • Handeln in Gruppen
kommunikation
Team
Aufgabe Mentales Teammodell
Kooperation
. Abb. 7.4
7
Prozess
Koordination
Mentales Teammodell
xionsorgan das Handeln der Gruppe optimieren und darüber hinaus zur Befriedigung zentraler Bedürfnisse der einzelnen Gruppenmitglieder beitragen.
7.4
Integration: Team Mental Models
In den vorausgegangenen Abschnitten wurden die Prozesse Kommunikation, Koordination und Kooperation in Teams unabhängig voneinander beschrieben. Im konkreten Gruppenprozess laufen diese Prozesse allerdings gleichzeitig ab, wie in . Abb. 7.4 veranschaulicht ist. Voraussetzung für die Etablierung eines gemeinsamen Verständnisses in der Gruppe ist die Herstellung eines geteilten Bezugsrahmens oder »common ground« (Clark, 1994, 1996). Dies geschieht vornehmlich durch Informationsaustausch geteilter und ungeteilter Informationen unter Bezugnahme auf das antizipierte Wissen der jeweils anderen Gruppenmitglieder. Als Resultat entwickelt sich ein »shared understanding«, also ein gemeinsames mentales Modell (Klimoski & Mohammed, 1994; Tschan & Semmer, 2001). > Unter einem mentalen Modell kann man die Summe aller handlungsleitenden Konzepte verstehen, die sich auf Personen, Situationen und Ereignisse beziehen.
In der Gruppe erfolgt die Entwicklung eines gemeinsamen Modells weitgehend über verbale Kommunikation, d. h. über verbalen Informations-
austausch. Ein Mindestmaß an Übereinstimmung der individuellen Modelle im mentalen Teammodell ist Voraussetzung für Koordination. Orasanu (1990) konnte in Untersuchungen nachweisen, dass Gruppen mit einem übereinstimmenden mentalen Modell bessere Leistungen zeigen, weil die Gruppenmitglieder in der Lage sind, Erläuterungen und Prognosen bezüglich der Aufgabe, aber auch hinsichtlich der Aktivitäten der übrigen Gruppenmitglieder abzugeben. Auch Entin & Serfaty (1999) konnten nachweisen, dass diejenigen Gruppen mit stressreichen Situationen besser umgehen können, die durch wiederholte individuelle Äußerungen der aktuellen Situation ein gemeinsames mentales Modell aufbauen. Ein aktualisiertes gemeinsames Situationsverständnis, das inhaltliche, gruppenspezifische und Prozesselemente enthalten kann, ermöglicht implizite Koordination. Implizite Koordination hat den Vorteil, dass die Prozeduren der Koordination sehr schnell und flexibel sind, da nicht jede Maßnahme verbal explizit gemacht werden muss – solange diese in Kongruenz mit dem aktivierten mentalen Modell steht. Schwierigkeiten können bei neuen Situationen auftreten, wenn implizite Koordination aktiviert wird, die aus früheren Situationen übernommen wurde, aber in der neuen Situation nicht adäquat ist. > Eine wichtige Voraussetzung für adäquaten Informationsaustausch ist die Kommunikation von Abweichungen und Änderungen im Sinne eines Updates, sodass das mentale Modell aller beteiligten Personen und damit das mentale Teammodell möglichst auf dem aktuellsten Stand geteilt ist. Dazu ist eine entsprechende Gruppenstruktur mit der Möglichkeit zu offenen Gesprächen notwendig.
7.5
Analyse des Beispiels
Kehren wir zurück auf den Mount Everest. Welche Erkenntnisse liefern die oben genannten Theorieansätze zur Erklärung zentraler Fehlentscheidungen in beiden Gruppen beim Gipfelanstieg? In der folgenden Analyse geht es nicht darum, das Beispiel im Detail nachzuvollziehen, sondern es sol-
131
7.5 • Analyse des Beispiels
len anhand des Beispiels wichtige Muster für (un) sicheres Handeln in Gruppen aufgezeigt werden.
7.5.1
Koordination – Kooperation – Kommunikation am Mount Everest
Betrachten wir dazu die beiden Expeditionsgruppen von Rob Hall und Scott Fischer zunächst hinsichtlich der oben dargestellten Anforderungen Koordination, Kooperation und Kommunikation. z
Koordination
z
Kooperation
5 Die Gruppen setzen sich jeweils aus 3 Teilgruppen zusammen: Sherpas (Helfer), Bergführer und Kunden. 5 Die Kundengruppen sind Ad-hoc-Gruppen, d.h. die meisten Gruppenmitglieder kennen sich nicht; es gibt einige paarweise Bekannte. Ausgewählt werden die Teilnehmer vom Bergführer und Leiter der Expedition nach Können, Bezahlung bzw. anderen Erwartungen hinsichtlich der mit den Personen einhergehenden Publicity (Krakauer, 1998). 5 Es gibt eine klare Rollenverteilung hinsichtlich Führung und Verantwortung: Der Leiter übernimmt die Verantwortung für die gesamte Expedition, organisiert weitere Bergführer, die medizinische Betreuung wie auch die Basislagerbesatzung. Der Leiter ist also Führungs- und Informationszentrale für Kunden, Bergführer und Sherpas und hat somit die Verantwortung für Koordination und Kommunikation.
5 Die Gruppendynamik hinsichtlich der Gruppenentwicklung ist natürlich ein dauerhafter Prozess und erstreckt sich über die gemeinsame Zeit (ca. 6 Wochen), beginnend mit den ersten gemeinsamen Aktivitäten der Akklimatisierungsphase bis zum Gipfelabstieg. Während dieser Zeit bilden sich weitere Teilgruppen in der Kundengruppe, die ungefähr ähnliche Leistungsstandards haben und sich sympathisch sind. »Da ich vor meiner Karriere als Schriftsteller acht Jahre meinen Lebens-
7
unterhalt als Schreiner bestritten hatte – und weil unsere Steuerklasse uns auffällig weit von den anderen Kunden entfernte –, fühlte ich mich in Dougs Gegenwart von Anfang an wohl, während ich mit den anderen nicht so recht warm wurde.« (Krakauer, 1998, S. 65) 5 Dadurch, dass kein wirklicher Gruppenbildungsprozess im Sinne von Tuckman (1965) mit den Phasen Forming, Storming, Norming und Performing stattfindet, ist keine Normbildungsphase vorhanden, die zu einer Kohäsion der Gruppe führen könnte und mittels gemeinsamer Normen Wert- und Verhaltensziele festlegt. Gruppenspezifische Normen entwickeln sich im Wesentlichen über die Führung. Zwar existiert rein formal ein Dienstleistungsverhältnis zwischen Kunde und Leitung, aber die Gestaltung des Auftragnehmer-Auftraggeber-Verhältnisses ist stark von der Führungsperson abhängig. Nicht relevant sind in kommerziell geführten Expeditionsteams Normen bergsteigerischer Teamarbeit wie gegenseitige Hilfe: So gibt es z. B. keine gegenseitige Seilsicherung, sondern es werden von Sherpas an entsprechenden Stellen schon bevor die Gruppe den Anstieg vornimmt Fixseile gelegt. 5 Alle Gruppenmitglieder haben das gleiche Ziel, aber jeder muss das Ziel für sich allein erreichen, d. h., der Kunde kann zwar mit Unterstützung von den Bergführern rechnen, jedes Mitglied muss aber unabhängig voneinander den Gipfel bezwingen. Im Gegensatz zum nichtkommerziellen Bergsteigen, wo gegenseitiges Vertrauen und gegenseitige Unterstützung die Basis für jedes Team sind, da sich das Verhalten eines jeden Teammitglieds massiv auf alle anderen auswirkt, ist in kommerziell geführten Gruppen diese Vertrauensbeziehung auf den Bergführer beschränkt (Krakauer, 1998). z
Kommunikation
5 Interaktionen in der Gruppe verlaufen primär über den direkten Kontakt Kunde – Leiter, d. h., dass die übliche Kommunikation in der Regel bilateral zwischen Leiter und den einzelnen Gruppenmitgliedern abläuft.
132
Kapitel 7 • Handeln in Gruppen
5 Während des Aufstiegs zum Gipfel ist die verbale Kommunikation durch den Wind und die Sauerstoffmasken sehr eingeschränkt. 5 Das typische Kommunikationsmuster ist sternförmig, d. h., die Information kommt zumeist von der Führung und wird auch an die Führung herangetragen.
7.5.2
7
Führung in Extremsituationen
Aus der obigen Merkmalsauflistung wird deutlich, dass in der Gruppenstruktur kommerziell geführter Bergsteigerteams die Führungsperson die wichtigste Funktion in der Gruppe wahrnimmt. Neben der gesamten logistischen Planung (Basislager und übrige Lager, Versorgung, Sherpas etc.) wählt der Leiter der Expedition die Teilnehmer aus und bestimmt damit zum einen die Leistungs- und Erfahrungsvarianz in der Gruppe, aber auch das Ausmaß an Persönlichkeitsunterschieden und den Grad an Exzentrismus der Gruppenmitglieder.
»
Als der Hubschrauber Richtung Lukla dröhnte, wurde ich den Verdacht nicht los, dass all meine Kameraden genau wie ich inständig hofften, dass [Robert] Hall Leute mit zweifelhaften Können schon von vornherein ausgesiebt hatte und dass er gut genug war, jeden von uns vor den Schwächen des anderen zu schützen. (Krakauer, 1998, S. 65)
«
Die Führungsperson muss demnach über die organisatorischen Anforderungen hinaus auch in emotional und physiologisch hoch belastenden Situationen in der Lage ist, verschiedene Arten von Informationen zu selektieren, ihrer Wichtigkeit nach zu priorisieren und diese in adäquate Entscheidungen umzusetzen. Diese kognitive Anforderung erfolgt in einer körperlich extrem belastenden Umgebung, in der der Mensch täglich 7 l Wasser verliert, d. h. ständig an Wassermangel leidet. Im gesamten kognitiven System sind Konzentrationsstörungen sowie eine deutliche Verlangsamung kognitiver Prozesse zu beobachten. In seinem Vorwort schreibt Krakauer (1998, S. 10):
» Die Unzuverlässigkeit des menschlichen Verstandes in großen Höhen ist geradezu atemberaubend.
«
Wie gehen die beiden Führungspersonen mit diesen Anforderungen um? Rob Hall und Scott Fischer, die Leiter der beiden Gruppen, werden als zwei sehr unterschiedliche Führungspersonen sowohl hinsichtlich ihrer Persönlichkeit als auch in Bezug auf ihr Führungsverhalten beschrieben:
» Scott und Rob boten vom Stil her einen interessanten Kontrast. Rob war sehr analytisch, präzise und führte sein Geschäft mit eiserner Hand. Für ihn waren seine Fähigkeiten, sein Wissen über den Berg der Schlüssel zu seinem Erfolg. Scott war da viel unkonventioneller. Sein Führungsstil zeigte ein tiefes Vertrauen in den menschlichen Geist, als wolle er seiner Kundschaft sagen: Ich werde euch nicht ständig das Händchen halten, ich werde euch nicht alles vorkauen, diese Erfahrung müsst ihr selbst machen. Es lag in Scotts Wesen, nicht alles total zu verplanen. (Breashears, 1999, S. 317)
«
Über Rob Hall schreibt Breashears weiter:
» Rob vermittelte einem das Gefühl absoluter Sorgfalt und Führungskraft. Seine Kunden standen unter einem strengen Regime, sie mussten keine eigenen Entscheidungen treffen. Man sagte ihnen, wo sie schlafen würden, wie viel sie jeden Tag trinken sollten, wann sie morgens das Lager zu verlassen hatten. (1999, S. 336)
«
Will man das Vorgehen beider Personen mit einem Führungsstil beschreiben, so könnte der Führungsstil von Rob Hall am ehesten als direktiv bezeichnet werden, während das Vorgehen von Scott Fischer sich als Empowerment (7 Kap. 10) bezeichnen lässt, da er versucht, direkte Einflussnahme und Kontrolle zu vermeiden; Scott Fischer scheint im Wesentlichen durch sein Charisma und immenses Durchhaltevermögen als Führungsperson zu wirken. Die damit verbundenen Merkmale sind in . Tab. 7.1 aufgeführt.
133
7.6 • Zentrale Determinanten des Entscheidungsverhaltens in Gruppen
. Tab. 7.1
7
Merkmale direktiver Führung und Empowerment am Beispiel Rob Hall und Scott Fischer Direktive Führung
Empowerment
Verantwortung
Klare Planung
Wenig Vorausplanung, eher opportunistisches Vorgehen (d. h. sich bietende Gelegenheiten wahrnehmen)
Handeln
Schnell
Langsamere Entscheidungsfindung
Motivationale Lage der Teammitglieder
Gefühl von Sicherheit
Gefühl von Unsicherheit
Vorteile
Entlastung der Geführten
Höhere Aktivität im Team, höhere Selbstverantwortung
Nachteile
Wenig abweichende Meinungen und Kritik
Höherer Koordinationsaufwand
Instabiles System, da auf eine Person fokussiert
Unsicherheit
Beide Führer sind als Bergsteiger erfahren, jedoch ist Rob Hall der erfolgreichere und erfahrenere Bergführer, denn er hatte bis zu diesem Zeitpunkt den Mount Everest bereits 4-mal bestiegen – 1990, 1992, 1994, 1995 – und insgesamt schon 39 Personen auf den Gipfel gebracht. Dagegen war Scott Fischer in diesem Geschäft eher ein Außenseiter und versuchte, zahlungskräftige Kunden anzuwerben. Er hatte erst eine Expedition auf einen Achttausender geführt und selbst erst einmal, 1994, den Mount Everest (ohne Sauerstoff ) bestiegen, jedoch nicht in der Funktion als Bergführer. Scott Fischer strebte nach Anerkennung, hatte doch sein Unternehmen »Mountain Madness« längst nicht den Erfolg, den Rob Hall mit seinem Unternehmen »Adventure Consultants« vorweisen konnte. Dabei bewunderte Scott Fischer, ebenso wie viele andere Bergführer und Bergsteiger, Rob Hall, der im Basislager die Position des weisen, erfahrenen Informationsgebers einnahm.
Ausgehend von dieser zentralen Frage sollen im nächsten Abschnitt einige Erklärungsversuche für fehlerhafte Entscheidungen in hochrisikoreichen Umgebungen im sozialen Kontext vorgestellt werden.
7.6
Im Folgenden werden drei Entscheidungen des Fallbeispiels analysiert, die von Individuen getroffen wurden, allerdings in der Funktion als Gruppenmitglied. Alle drei Entscheidungen weisen Merkmale auf, die generell als problematisch für sichere Entscheidungen in Gruppen charakterisiert werden können:
7.6.1
» Warum, obwohl absehbar war, dass das Wetter sich zunehmend verschlechterte, schlugen Bergsteiger im Gipfelbereich die Warnzeichen in den Wind? Warum setzten erfahrene Himalaya-Führer den Aufstieg fort und führten einen Trupp relativ unerfahrener Amateure – von denen jeder satte 65.000 Dollar hingeblättert hatte, um sicher auf den Everest geleitet zu werden – in eine offensichtliche Todesfalle? (Krakauer, 1998, S. 28)
«
Zentrale Determinanten des Entscheidungsverhaltens in Gruppen
Zielfixierung und Überwertigkeit des aktuellen Motivs: Umkehrzeit 14 Uhr
Rob Hall hatte die unbedingte Anweisung von 14 Uhr als Umkehrzeitpunkt gegeben – für jeden, wo er sich auch befinde. Im Verlauf des Gipfelanstiegs kommuniziert niemand, weder Kunde noch Bergführer, eine Änderung, obwohl alle dagegen verstoßen – mit Ausnahme derer, die schon vor-
134
7
Kapitel 7 • Handeln in Gruppen
her aus Erschöpfung umkehren oder schon zuvor den Gipfel erreicht haben. Rob Hall selbst wartet bis 16 Uhr direkt unter dem Gipfel, bis sein Kunde Doug Hansen den Gipfel bestiegen hat. Zuvor hatte Rob Hall ihn noch auf dem Weg nach oben mehrfach ermutigt weiterzugehen, obwohl Doug Hansen wegen völliger Erschöpfung umkehren wollte. Rob Hall handelt offensichtlich entgegen besserem Wissen und entscheidet sich, seinen Kunden auf den Gipfel zu führen zu einer Uhrzeit, die jeder rationalen Analyse widerspricht. Er wird Doug Hansen auch später nicht verlassen, wenn er und sein Bergführer Andy Harris vergeblich versuchen, den völlig Entkräfteten vom Südsattel zu bekommen. Dieses Verhalten zeigt eine Zielfixierung von Rob Hall, die sich mit dem Phänomen »escalation of commitment« (Staw & Ross, 1987) erklären lässt, das die Neigung des Menschen beschreibt, an einer Alternative umso eher festzuhalten, je mehr Ressourcen wie Geld, Zeit oder Arbeit in der Vergangenheit dafür bereits eingesetzt wurden. Dieser Effekt ist umso größer, je weiter eine Handlung schon fortgeschritten ist. Und der Effekt ist umso größer – so kann aus diesem Beispiel abgeleitet werden –, je stärker die Handlung in einen affiliativ relevanten Kontext eingebunden ist. In dieser Extremsituation scheint ein Merkmal die fatalen Entscheidungen zu dominieren, und zwar die Überwertigkeit des aktuellen Motivs, den Gipfel zu erreichen; diese Motivationslage reduziert die Neigung zu sicherem Handeln. Diese Fixierung ist verbunden mit einer Ausblendung aller Informationen, die diesem Ziel widersprechen, z. B. wird die Wetterlage spätestens ab 14 Uhr unverkennbar schlechter. Dabei wird auch das Wissen ignoriert, dass der Gipfel nicht das Ziel darstellt, sondern das Ziel erst mit der erfolgreichen Rückkehr erreicht ist. Die Gruppensituation wirkt auf das einzelne Gruppenmitglied eher bestärkend in der Weise, dass im sozialen Vergleich immer noch Gruppenmitglieder schwächer sind und dass offensichtlich auch Regeln gebrochen werden, sogar von dem zuverlässig und präzise arbeitenden Leiter Rob Hall. Während also die kognitive Verankerung dieser Entscheidungen als Zielfixierung beschrieben werden kann, ist die motivationale Ursache die Überwertigkeit des aktuellen Motivs.
7.6.2
Reduktionismus und Planungsoptimismus: »… du musst mir versprechen, dass du hier bleibst, bis ich zurück bin.«
Janis (1972) entwickelte aufgrund der Analysen politischer Fehlentscheidungen das Konzept des Gruppendenkens (»groupthink«). Die zentrale These von »groupthink« besagt, dass Gruppen dann zu fehlerträchtigen Entscheidungen neigen, wenn das Gefühl der Gemeinsamkeit in der Gruppe wichtiger ist als kritisches Hinterfragen. Die Konsequenz sind Entscheidungen, die sich nach Janis (1982, S. 175) durch folgende Merkmale kennzeichnen lassen: 5 Unvollständige Berücksichtigung und unvollständige Überprüfung von Handlungsalternativen, 5 mangelnde Reflexion von Handlungszielen, 5 Unterschätzung von Risiken der bevorzugten Entscheidungsalternative, 5 fehlende Neubewertung von bereits verworfenen Alternativen, 5 unzureichende Informationssuche, 5 selektive Informationsverarbeitung sowie 5 keine Beachtung möglicher Friktionen. Genau diese Merkmale weist die Entscheidung von Rob Hall auf, als er in der Funktion des Leiters der Expedition Beck Weathers verpflichtet, in 8400 m Höhe mehrere Stunden auf seine Rückkehr zu warten. Selbst unter einer Best-case-Annahme war diese Entscheidung höchst fehlerträchtig, da sie zum einen keine Handlungsalternativen vorsah und zum anderen die Risiken der Entscheidung, d. h. die Folgen des stundenlangen Wartens in dieser Höhe für den Körper des Kunden, nicht berücksichtigte. Allerdings kann in diesem Fall »groupthink« nicht die Ursache dieser Fehlentscheidung gewesen sein, da die Gruppe keine wirklich kohäsive Gruppe war. Nach Janis ist Gruppenkohäsion, also ein hohes Ausmaß an Zusammengehörigkeitsgefühl, eine notwendige Bedingung für Gruppendenken. Als weitere Randbedingungen nennt Janis strukturelle Fehler der Organisation wie Homogenität der Gruppenmitglieder als Ursache für Gruppendenken. Als dritte Kategorie nennt Janis
135
7.7 • Zusammenfassung und Zusammenführung
einen provokativen situationalen Kontext, der beispielsweise als psychischer Stress zu Entscheidungsdefiziten führt. Diese Randbedingungen sind aber – wie das Beispiel zeigt – nicht allein relevant für fehlerträchtige Entscheidungsprozesse in Form von Gruppendenken, sondern erfüllen teilweise auch ohne die Wirkvariable Harmoniestreben der Gruppe die Voraussetzung für fehlerträchtige Entscheidungsprozesse. In dieser Situation entscheidet Rob Hall unter dem Gefühl von Zeit- und Handlungsdruck zum vermeintlichen Wohl seines Kunden. Der Erfolg dieser Maßnahme ist von einer zentralen Bedingung abhängig, nämlich von der eigenen Rückkehr. Es waren für diese Gruppe mehrere Bergführer zuständig, die alternativ Beck Weathers zum Hochlager hätten mitnehmen können. Der Gedanke, dass er nicht zurückkommen könnte, kommt Rob Hall offensichtlich nicht in den Sinn. Um Sicherheit zu gewährleisten, ist solcher Planungsoptimismus eine ungünstige motivationale Lage, denn Planungsoptimismus impliziert die Vermeidung des Aufbaus von Worst-case-Szenarien, da ja keine negativen Überraschungen erwartet werden. Der Kunde Beck Weathers wiederum hat uneingeschränktes Vertrauen zu der erfahrenen Führungsperson Rob Hall und wagt weder zu der Zeit der Absprache noch in der Zeit des Wartens, gegen das Gebot Rob Halls und gegen sein eigenes Versprechen zu verstoßen und den Platz zugunsten seines Überlebens zu verlassen. Aus einer selbstständig denkenden Person ist ein unmündiges Gruppenmitglied geworden, das wider alle Vernunft eine unsinnige Entscheidung befolgt. Eine ausführlichere Kommunikation hätte verschiedene Lösungsmöglichkeiten aufzeigen und eine Reduktion auf nur eine Lösung vermeiden können. Das zeigt die Wichtigkeit, selbst oder gerade in Situationen, in denen Zeit- und Handlungsdruck dominieren, das Gefühl der Notwendigkeit des unmittelbaren Handelns zu hinterfragen. Es ist fast immer ausreichend Zeit, Handlungsalternativen zu generieren und mitunter auch Worst-Case-Szenarien zu überprüfen; es ist allerdings schwierig in Situationen, in denen Gruppenentscheidungen erforderlich sind und verbale Kommunikation nur extrem reduziert möglich ist.
7.6.3
7
Informationsselektion und Tunnelblick: »Nur ein bisschen schlapp heute – hat aber nichts zu sagen.«
»Nur ein bisschen schlapp heute – hat aber nichts zu sagen«, antwortet Scott Fischer auf die Frage Jon Krakauers, wie es denn so liefe, als dieser auf seinem Weg vom Gipfel den noch aufsteigenden Bergführer trifft. Fischer will den Gipfelerfolg, obwohl seine Kunden längst wieder absteigen. Er handelt nicht mehr in der Funktion als Führer seiner Gruppe, denn sonst würde er umkehren und sich um die absteigenden Kunden kümmern. Aber er weiß, dass Hall schon oben war, und will diesen Erfolg auch für sich erreichen. Außerdem vermittelt die Tatsache, dass der erfahrene Kollege um 16 Uhr noch nicht abgestiegen ist, eine Illusion von Sicherheit. In solchen Situationen neigen Menschen zur selektiven Informationssuche, d. h., es werden solche Informationen bevorzugt gesucht, die die eigene Sichtweise bzw. Entscheidung bestätigen. Die damit erzeugte kognitive und motivationale Situation kann man als informationelle Einkapselung unter dem illusionären Gefühl der Sicherheit beschreiben (7 Kap. 6.3.4). Der kurzfristige
Gewinn besteht in einer Vereinfachung der komplexen Umgebung, der mit dem Tunnelblick verbundenen Illusion der eigenen Kompetenz, die Situation bewältigen zu können. Solange die Umwelt weniger feindlich ist als der Mount Everest, gibt es verschiedene Möglichkeiten, die Illusion der Handlungsfähigkeit längerfristig aufrechtzuerhalten.
7.7
Zusammenfassung und Zusammenführung: Erfolgsfaktoren sicheren Handelns in Gruppen
Es gibt sehr unterschiedliche Typen von Gruppen, die sehr verschiedene Aufgaben und Probleme bearbeiten. Gruppenphänomene müssen deshalb in einem Gesamtkontext von Anforderungen der Situation, Merkmalen der Individuen, Merkmalen der Gruppe, Prozessmerkmalen und Ergebnisdaten analysiert werden. Koordination, Kommunikation
136
7
Kapitel 7 • Handeln in Gruppen
und Kooperation sind die drei zentralen Prozesse, die sicheres Handeln in Gruppen beeinflussen. Dabei sind viele Merkmale relevant, die die Art und Weise der Ausgestaltung dieser Prozesse beeinflussen, z. B. die Art der Führung oder die Zusammensetzung der Gruppe. Hinzu kommt, dass die jeweiligen Charakteristika der Aufgabe bzw. des Problems die spezifischen Anforderungen an eine optimale Koordination, Kommunikation und Kooperation determinieren. Bestimmend für Gruppenhandeln sind neben Koordination, Kommunikation und Kooperation auch motivationale Prozesse der Gruppenmitglieder, das Bedürfnis nach Kompetenz und das Bedürfnis nach Anerkennung. Integrierend für Koordination, Kommunikation und Kooperation ist das Konzept des gemeinsamen mentalen Modells der Gruppe über Aufgabe, Prozess und die Gruppe selbst. Problematische Handlungstendenzen in Gruppen sind motivationale Probleme wie »social loafing«, Verantwortungsdiffusion und Überwertigkeit des aktuellen Motivs. Eingeschränkte Informationsverarbeitung in Gruppen zeigt sich z. B. an Reduktionismus, Planungsoptimismus und Einkapselung mit dem illusionären Gefühl der Sicherheit, mit oftmals fatalen Konsequenzen für sicheres Handeln. Das hier aufgegriffene Beispiel ist in mancherlei Hinsicht untypisch für Handeln und Entscheiden in üblichen Arbeits- und Projektteams. Die Gruppen, die normalerweise Gegenstand der Forschung in der Sozialpsychologie sind, sind Ad-hoc-Teams, die in einer Laborsituation Entscheidungen auswählen oder Handlungen ausführen, die keinen Bezug zu ihrer Realität haben; in der Arbeits- und Organisationspsychologie sind es zumeist Arbeitsgruppen, die eingebettet in eine Organisation gemeinsam für ein Produkt, einen Prozess oder eine Dienstleistung verantwortlich sind (Hackman, 1987). Bergsteigen ist eine Aktivität, die höchste Anforderungen an psychische und physische Fähigkeiten der Einzelnen stellt, da fast jede Entscheidung eine Entscheidung über Leben und Tod sein kann, wobei aber in der Regel genügend Zeit bleibt, das Für und Wider einer Entscheidung abzuwägen. Damit bekommt die Gruppensituation eine besondere Qualität, weil eine falsche Entscheidung auf
der Output-Seite nicht bloß einen Misserfolg verzeichnet, sondern den eigenen Tod bzw. den der Kameraden bedeuten kann (7 auch Kap. 15). Im kommerziellen Bergsteigen ist die Situation noch etwas problematischer, weil letztlich jedes Gruppenmitglied eigenverantwortlich denken und entscheiden muss, aber gleichermaßen dafür bezahlt, dass Bergführer Entscheidungen für sie übernehmen; die Gruppenmitglieder sind keine Bergkameraden, die in gemeinsamen Bergbesteigerungen ihre Stärken und Schwächen kennengelernt haben. Vielmehr kommen Personen zusammen, die völlig unterschiedlich sein können. Dennoch sind die Anforderungen an diese Gruppen durchaus vergleichbar mit Gruppen in anderen Risikobereichen. Im Folgenden sind daher einige Erfolgsfaktoren sicheren Handelns in Gruppen aufgeführt, die aus den oben erfolgten Analysen abgeleitet werden können: z
Situationsbewusstsein und gemeinsames mentales Modell
Die Gruppe sollte sicherstellen, dass eine kontinuierliche Diagnose des Umfeldes erfolgt. Das heißt, die Gruppe muss im Sinne eines beständigen Updates die Situation wahrnehmen, bewerten und prognostizieren (im Cockpit und auch beim Bergsteigen z. B. die Wetterlage). Diese drei Aktivitäten der Wahrnehmung, Einschätzung und Prognose fließen zu einem Wissenszustand zusammen, der »Situationsbewusstsein« oder »situation awareness« genannt wird (Endsley, 1995; 7 Kap. 4.4). Wichtig ist darüber hinaus, dass v. a. unerwartete Änderungen, also Abweichungen von Erwartungen, nicht nur wahrgenommen, sondern auch kommuniziert werden, damit ein gemeinsames mentales Modell entstehen kann und auch abgeglichen wird. Ein gemeinsames mentales Modell der Situation und der möglicherweise zu erwartenden Restriktionen kann die Koordination erleichtern. z
Planung
Studien zeigen, dass Gruppen, die eine komplexe Aufgabe bearbeiten, weniger planen als Gruppen, die eine einfache Aufgabe bearbeiten (Weingart, 1992). Dieses auf den ersten Blick kontra-intuitive Ergebnis kann sehr einfach erklärt werden: Detaillierte Planung ist insbesondere bei komplexen
137
7.7 • Zusammenfassung und Zusammenführung
Aufgaben nicht notwendigerweise eine erfolgreiche Vorgehensstrategie, denn eine solche Planung lässt keinen Raum zum opportunistischen Handeln. Es können zu viele unvorhersehbare Änderungen eintreten, die zuvor nicht in der Planung berücksichtigt wurden, was dann in der konkreten Situation mitunter zu noch größerer Handlungsunsicherheit führt (7 Kap. 5.3.3). Einen breiteren Handlungsspielraum ermöglicht eine Planung, die Wegmarken vorgibt und ansonsten mithilfe von Wenn-dann-Szenarien Möglichkeitsräume erstellt und diese Situationen auf verschiedene Handlungsoptionen und deren Konsequenzen hin untersucht. Dabei können »best cases« und »worst cases« den Ausgangspunkt der Planung bieten. Insbesondere die eingehende Betrachtung von möglichen »worst cases« mit den dazugehörigen Handlungsoptionen ist ein wichtiger Teil der Planung, der Teil des gemeinsamen mentalen Teammodells sein sollte. Denn zum einen sind in der Gefahrensituation entstehende Ad-hocVerhaltensmuster oftmals nicht die bestmöglichen, weil meistens zuerst Routineverhaltensmuster aktiviert werden. Zum anderen muss mit einem solchen mentalen Teammodell der Situationseinordnung in der akuten kritischen Situation nicht mehr in der Gruppe verhandelt und diskutiert werden, was schnelleres Handeln ermöglicht. Weil keine explizite Koordination notwendig ist, können kognitive Ressourcen, aber auch Zeit gespart werden. z
Adaptivität
Es gibt viele Hinweise darauf, dass Gruppen nicht adaptiv auf Änderungen in der Umwelt reagieren. Hackman & Wageman (2005) konnten zeigen, dass Gruppen Vorgehensstrategien frühzeitig während des Bearbeitungsprozesses entwickeln und diese später nicht mehr ändern. Diese Tendenz zum Konservatismus wird in bedrohlichen Situationen verstärkt. Staw, Sandelands & Dutton (1981) postulieren, dass Individuen, Gruppen und auch Organisationen auf bedrohliche Situationen bzw. Krisen mit zwei Tendenzen reagieren: 5 Restriktion des Informationsflusses und 5 Zentralisierung der Kontrolle und Autorität. Demnach löst Bedrohung bei Gruppen bestimmte Tendenzen aus, die man zusammengefasst als Nei-
7
gung zu rigiden Verhaltensmustern bezeichnen
kann. Gladstein & Reilly (1985) konnten zeigen, dass in einer Managementsimulation in Phasen stärkerer Bedrohung der Informationsfluss stärker restringiert und auch stärker zentralisiert wird. Alle diese Ergebnisse machen deutlich, dass Gruppen nicht sehr anpassungsfähig sind und sich damit schwertun, ihr Verhalten an sich ändernde Bedingungen anzupassen. Genau diese Anforderung ist aber in höchstem Ausmaß relevant, wenn es um das Handeln von Gruppen in kritischen Situationen geht, also in Situationen, in denen der weitere Verlauf und das Ereignis entscheidend beeinflusst werden. z
Führungsfunktionen
Es gibt viele Hinweise in der Weltgeschichte, aber auch in Laborstudien, dass in Situationen hoher Bedrohung ein größeres Bedürfnis nach starken Gruppenführern besteht (z. B. Mulder & Stemerding, 1963). In dieselbe Richtung gehen Ergebnisse von Interviewstudien mit Anästhesieteams (Zala-Mesö, Künzle, Wacker & Grote, 2004), die in kritischen Situationen nach direkter Führung verlangen, in Routinesituationen jedoch mehr Selbstbestimmung wünschen. Diese Ergebnisse wie auch die Analyse des Beispiels zeigen: Menschen wollen in kritischen Situationen Sicherheit und diese erwarten sich Gruppen über direkte Führung. Wenn wir allerdings die Entscheidungsprozesse der Führungspersonen im Beispiel betrachten, sollten Gruppen doch besser lernen, Unsicherheit in kritischen Situationen aktiv zu bewältigen und der Führung nur unterstützende Funktion zuzuweisen. z
Reflexion
Reflexion in Form einer Metabetrachtung oder Analyse des Denk- und Handlungsprozesses erleichtert die Diagnose erfolglosen Vorgehens wie auch die Modifikation von Strategien und ist damit ein zentrales kognitives Hilfsmittel für adaptives Verhalten. Allerdings reflektieren Gruppen wie auch Individuen nicht spontan. Untersuchungen konnten jedoch zeigen, dass Reflexion instruiert werden kann (Wetzstein & Hacker, 2004). Jedoch profitieren nur Individuen von einer Reflexionsinstruktion – bei Teams profitieren nur jene, die bereits vor der Reflexionsinstruktion eine hohe Teamleistung zeigten (Gurtner, 2003).
138
Kapitel 7 • Handeln in Gruppen
Literatur
7
Badke-Schaub, P. & Frankenberger, E. (2003). Management kritischer Situationen. Produktentwicklung erfolgreich gestalten. Berlin: Springer. Bandura, A. (1977). Towards a unifying theory of behavior change. Psychological Review, 84, 199–215. Bandura, A. (1982). Self-efficacy mechanism in human agency. American Psychologist, 37, 122–147. Boos, M., Kolbe, M., Kappeler, P.M. & Ellwein, T. (Eds.) (2011). Coordination in human and primate groups. Heidelberg: Springer. Boukreev, A. & DeWalt, G. P. (1998). Der Gipfel. Tragödie am Mount Everest. München: Heyne Verlag. Boulding, K. E. (1978). Ecodynamics. Beverley Hills: Sage. Breashears, D. (1999). Bis zum Äußersten. Der Mount Everest und andere Herausforderungen. München: Diane Verlag. Campbell, J. P. & Campbell, R. J. (1988). Industrial-organizational psychology and productivity: The goodness of fit. In J. P. Campbell, R. J. Campbell & Associates (Eds.), Productivity in organizations (pp. 82–93). San Francisco: Jossey-Bass Publishers. Clark, H. H. (1994). Discourse in production. In M. A. Gernsbacher (Ed.), Handbook of psycholinguistics (pp. 985–1021). San Diego: Academic Press. Clark, H. H. (1996). Using language. Cambridge: Cambridge University Press. Dörner, D. (1999). Bauplan für eine Seele. Reinbek: Rowohlt. Entin, E. & Serfaty, D. (1999). Adaptive team coordination. Human Factors, 41 (2), 312–325. Endsley, M.K. (1995). Towards a theory of situation awareness. Human Factors, 37 (1), 32-64. Gersick, C. J. G. (1988). Time and transition in work teams: Toward a new model of group development. Academy of Management Journal, 32, 9–41. Gladstein, D. L. & Reilly, N. P. (1985). Group decision making under threat: the tycoon game. Academy of Management Journal, 28, 613–27. Gurtner, A. (2003). Zweimal musst du es schon sagen. Strategieentwicklung und Kommunikationsmuster in hierarchisch organisierten Teams. Dissertation. Bern: Universität, Inst. für Psychologie. Hackman, J. R. (1987). The design of work teams. In J. Lorsch (Ed.), Handbook of organizational behavior. Englewood Cliffs, NJ: Prentice-Hall. Hackman, R. J., Brousseau, K. R. & Weiss, J. A. (1976). The interaction of task design and group performance strategies in determining group effectiveness. Organizational Behavior and Human Performance, 16, 350–365. Hackman, J. R. & Wageman, R. (2005). When and how team leaders matter. Research in Organizational Behavior, 26, 37–74. Ilgen, D. R. (1999). Teams embedded in organizations: some implications. American Psychologist, 54, 129–139. Janis, I. (1972). Groupthink. Psychological studies of policy decisions and fiascoes. Boston: Houghton Mifflin.
Janis, I. (1982). Counteracting the adverse effects of concurrence-seeking in policy-planning groups: Theory and research perspectives. In H. Brandstätter, J. H. Davis & G. Stocker-Kreichgauer (Eds.), Group decision making (pp. 477–502). London: Academic Press. Klimoski, R. & Mohammed, S. (1994). Team mental model: Construct or metaphor? Journal of Management, 20 (2), 403–437. Krakauer, J. (1998). In eisige Höhen. Das Drama am Mount Everest. München: Piper. Kolbe, M. (2007). Koordination von Entscheidungsprozessen in Gruppen. Die Bedeutung expliziter Koordinationsmechanismen. Saarbrücken: VDM Verlag Dr. Müller. Lindblom, C. (1959). The Science of Muddling Through. Public Administration Review 19, 79-88. Lindblom, C. (1979). Still Muddling, Not Yet Through, Public Administration Review 39, 517–526. Locke, E. A. & Latham, G. P. (1990). A theory of goal setting and task performance. Englewood Cliffs, NJ: Prentice-Hall. Mulder, M. & Stemerding, A. (1963). Threat, attraction to group and need for strong leadership. Human Relations, 16, 317–334. O’Leary-Kelly, A. M., Martocchio, J. J. & Frink, D. D. (1994). A review of the influence of group goals on group performance. Academy of Management Journal, 37 (5), 1285–1301. Orasanu, J. (1990). Shared mental models and crew performance. Technical Report No. 46. Princeton, NJ: Princeton University, Cognitive Sciences Laboratory. Orasanu, J. (1993). Decision making in the cockpit. In E. L. Wiener, B. G. Kanki & R. L. Helmreich (Eds.), Cockpit Resource Management (pp. 137–172). San Diego, CA: Academic Press. Paris, C. R., Salas, E. & Cannon-Bowers, J. A. (2000). Teamwork in multi-person systems: A review and analysis. Ergonomics, 43 (8), 1052–1075. Reason, J. (1990). Human error. Cambridge UK: Cambridge University Press. Staw, B. M. & Ross, J. (1987). Behavior in escalation situations: Antecedents, prototypes and solutions. In L. L. Cummings & B. M. Staw (Eds.), Research in organization behavior (pp. 39–78). Greenwich, CT: JAI. Staw, B. M., Sandelands L. E. & Dutton, J. E. (1981). Threatrigidity effects in organizational behavior: A multilevel analysis. Administrative Science Quarterly, 26, 501–524. Staehle, W. H. (Hrsg.) (1991). Handbuch Management. Die 24 Rollen der exzellenten Führungskraft. Wiesbaden: Gabler. Steiner, I. D. (1972). Group process and productivity. New York: Academic Press. Stroebe, W., Jonas, K. & Hewstone, M. (Hrsg.) (2002). Sozialpsychologie – Eine Einführung. Berlin: Springer. Tenzing, N. J. (2001). Auf den Spuren meines Vaters. Die Sherpas und der Everest. München, Zürich: Diana Verlag. Tisdale, T. (1998). Selbstreflexion, Bewusstsein und Handlungsregulation. Weinheim: Beltz.
Literatur
Tschan, F. & Semmer, N. (2001). Geteilte mentale Modelle und Leistung in der Teamarbeit. In R. Fisch, D. Beck & B. Englich (Hrsg.), Projektgruppen in Organisationen (S. 217–235). Göttingen: Hogrefe. Tuckman, B. W. (1965). Developmental sequence in small groups. Psychological Bulletin, 63, 384–399. Weathers, B. (2000). Für tot erklärt. Meine Rückkehr vom Mount Everest. München: dtv. Weingart, L. R. (1992). Impact of group goals, task component complexity, effort, and planning on group processes. Research in Organizational Behavior, 19, 189–239. Wetzstein, A. & Hacker, W. (2004). Reflective verbalization improves solutions – The effects of question-based reflection in design problem solving. Applied Cognitive Psychology, 18 (2), 145–156. Yun, S., Faraj, S. & Sims, H. P. (2005). Contingent leadership and effectiveness of trauma resuscitation teams. Journal of Applied Psychology, 90, 1288–1296. Zala-Mezö, E., Künzle, B., Wacker, J. & Grote, G. (2004). Zusammenarbeit in Anästhesieteams aus Sicht der Teammitglieder. Zeitschrift für Arbeitswissenschaft, 58, 199–208.
139
7
141
Kommunikation Gesine Hofinger
8.1
Einleitung: Interaktion und Information – 142
8.2
Kommunikation verstehen – 143
8.2.1 8.2.2 8.2.3 8.2.4 8.2.5
Kommunikation als Informationsübermittlung – 144 Bedeutung, Interpretation und Kontext – 145 Interaktion, Beziehung und Interpretation – 145 Kommunikation in sozialen Systemen – 146 Sprachliche und nichtsprachliche Formen von Kommunikation – 146
8.3
Funktionen von Kommunikation – 147
8.3.1 8.3.2 8.3.3 8.3.4 8.3.5
Strukturierung der Zusammenarbeit – 148 Koordination von Arbeitsabläufen – 148 Informationsweitergabe und -austausch – 148 Gemeinsame Realitätskonstruktion – 149 Beziehungen schaffen – 150
8.4
Störungen der Kommunikation – 151
8.4.1 8.4.2 8.4.3 8.4.4
Gestörte Informationsübermittlung – 151 Missverstehen – 152 Störungen der Interaktion – 153 Kommunikation über Hierarchiegrenzen hinweg – 154
8.5
Kommunikation in kritischen Situationen – 155
8.6
Kommunikation als Sicherheitsressource – 156
8.6.1 8.6.2 8.6.3 8.6.4
Was ist »gute« Kommunikation? – 156 Das Bindeglied Verstehen – 156 Informationstransfer sichern – 157 Interaktionen gestalten: Wertschätzung, Beharrlichkeit und Konsultation – 158
8.7
Zusammenfassung und Ausblick – 159 Literatur – 161
P. Badke-Schaub et al., Human Factors, DOI 10.1007/978-3-642-19886-1_8, © Springer-Verlag Berlin Heidelberg 2012
8
142
Kapitel 8 • Kommunikation
Beispiel
8
In einem Krankenhaus gibt es immer wieder Zwischenfälle, über die nicht gesprochen wird. Einmal wird ein Patient am falschen Knie operiert; obwohl eine Pflegekraft und ein Assistenzarzt Zweifel an der Richtigkeit der OP hatten, äußerten sie diese nicht. Auf Initiative eines Chefarztes hin wird daraufhin ein Zwischenfallsberichtssystem eingeführt. Mitarbeiter des OP-Bereichs sollen Fehler und Probleme aller Art berichten. Dazu wird ein Formular entworfen, das im Aufenthaltsraum zusammen mit einer Erklärung ausliegt. Ein Vertrauensgremium wird gewählt, das die Berichte auswertet und mit den zuständigen Bereichsleitungen über Verbesserungen sprechen soll. Das Gremium trifft sich und bespricht, wie die Arbeit strukturiert werden kann und wer wofür zuständig ist, z. B. wer die Dokumentation übernimmt und wer mit den Abteilungsleitungen spricht. Außerdem lesen die Mitglieder des Gremiums gemeinsam Literatur über Fehlermanagement und besuchen einen Kurs zur Fallanalyse, um eine gemeinsame Sprache zu entwickeln. Die eher zurückhaltende Leiterin des Vertrauensgremiums legt allerdings nach wenigen Wochen ihren Posten nieder, weil sie das Gefühl hat, von den Chefärzten nicht ernst genommen zu werden. Es kommt zu einem extern moderierten Treffen des Gremiums mit allen Chefärzten. Hier wird vereinbart und in der Folgezeit als Dienstanweisung festgelegt, dass auf eine Anfrage des Gremiums hin binnen 10 Tagen geantwortet werden muss; dies wird auch im Wesentlichen eingehalten. Da die Analysen in den nächsten Monaten ergeben, dass immer wieder verschiedene Kommunikationsprobleme Zwischenfälle (mit-)verursachen, beschließt die Krankenhausleitung, Workshops zur Kommunikation im OP durchführen zu lassen. In diesen wird u. a. festgelegt, dass und wie das OP-Team sich zu Beginn einer Operation in einem Briefing über den Patienten die gewählten Verfahren und erwartbaren Komplikationen austauschen soll. Außerdem werden Kommunikationsstandards für kritische Situationen definiert und mithilfe des Qualitätsmanagements umgesetzt. In den nächsten Monaten steigt die Anzahl von Berichten über Zwischenfälle deutlich an, was als Zeichen für ein besseres Kommunikationsklima interpretiert wird.
Über (Beinahe-)Verwechslungen von OP-Seite oder -Situs wird seit der Einführung des Briefings nicht mehr berichtet.
Dieses Beispiel zeigt, wie vielfältig die Kommunikationsprozesse in einer Organisation sein können.
8.1
Einleitung: Interaktion und Information
Kommunikation wird in Analysen von Unfällen und Zwischenfällen fast immer als beitragender oder verursachender Faktor identifiziert. Irgendjemand hat immer irgendetwas nicht oder nicht richtig gesagt oder nicht richtig verstanden. »Kommunikation verbessern« scheint also ein Königsweg zu sein, um Sicherheit zu erhöhen (z. B. für die Befragten in der Studie von Sexton, Thomas & Helmreich, 2000). Sieht man aber genauer hin, zeigt sich, dass Kommunikation (in der Human-Factors-Literatur wie im allgemeinen Sprachgebrauch) so viele verschiedene Bedeutungen hat, dass die Aussage »Es gab ein Kommunikationsproblem« nicht weiterhilft – weder für das Verständnis des Geschehens noch für Ansätze zur Verbesserung: Unter der Kategorie »Kommunikationsproblem« wird 5 das Verschweigen von Information ebenso gefasst wie die Weitergabe falscher Information, 5 das Fehlen gemeinsamer Gespräche ebenso wie hierarchisch dominierte Gespräche, 5 das Verhören und Versprechen ebenso wie Missverständnisse aufgrund irriger Annahmen, 5 das Fehlen einer gemeinsamen Sprache aufgrund kultureller Unterschiede, der Verwendung von Fachbegriffen oder Krankheit; 5 die Missinterpretation kulturell bedingter Zeichen wie Gestik und Mimik; 5 auch rauschende Telefonleitungen oder ausfallende E-Mail-Systeme sind Kommunikationsprobleme. In all diesen Kommunikationsproblemen steckt dennoch ein gemeinsamer Kern, der sich auch im Fallbeispiel zeigt und in den verschiedenen Kommunikationstheorien mit unterschiedlichem Fokus aufgegriffen wird (7 Kap. 8.2): Mehrere Menschen
143
8.2 • Kommunikation verstehen
8
sind beteiligt und etwas wird mitgeteilt. Es geht also um Interaktion und um Information. Diese beiden Aspekte sind in menschlicher Kommunikation immer gemeinsam vorhanden.
Beavin & Jackson (2007) und von Eggelkraut-Gottanka (2010).
> Eine erste Annäherung an Kommunikation
8.2
besagt, dass Kommunikation den Umgang mit Information in Interaktionen zum Gegenstand hat.
Je nach Begriffsverständnis geht es bei Kommunikation um: 5 technische Fragen der Übermittlung von Information, 5 Sprachtheorie, 5 Wahrnehmung und Verarbeitung von Sprache und Zeichen, 5 Standardisierung von Kommunikation und 5 Gestaltung von Prozessen und Beziehungen in Organisationen. Je nach Fragestellung und Branche steht die Kommunikation von Einzelpersonen, von Teams oder die Kommunikation innerhalb einer Organisation im Vordergrund. Im Fallbeispiel relevant sind u. a. Kommunikationsformen in einer Organisation (z. B. Formulare, Besprechungen), Strukturierung und Koordination eines Teams (hier des Vertrauensgremiums), Kommunikation in hierarchischen Beziehungen (hier mit den Chefärzten), Standardisierung und gemeinsames Problemverständnis (hier durch die Teambriefings erreicht). In diesem Kapitel werden zunächst einige grundlegende Kommunikationsmodelle vorgestellt (7 Kap. 8.2), dann werden Funktionen von Kommunikation für sicheres Handeln beschrieben (7 Kap. 8.3). Störungen von Kommunikation im Sinne von Hindernissen für sicheres Handeln sind Thema von 7 Kap. 8.4, die besonderen Anforderungen von Kommunikation in kritischen Situationen sind Fokus von 7 Kap. 8.5 und im abschließenden Kapitel (7 Kap. 8.6) wird gefragt, wie Kommunikation zur Sicherheitsressource werden kann. 7 Kap. 7, 9, 10 und 11 in diesem Buch behandeln eng mit Kommunikation verwandte Themen. Einen Überblick zum Thema geben Bateson (1985), Faßler (1997), Frindte (2001), Heath & Bryant (1992), Hofinger (2005), Simon (2007), Watzlawick,
Kommunikation verstehen
Der Fokus dieses Kapitels liegt auf beruflicher, sicherheitsrelevanter Kommunikation in komplexen Arbeitsfeldern. Solche Arbeitsfelder sind gekennzeichnet durch eine Vielzahl von Schnittstellen, die besondere Anforderungen an Informationsaustausch stellen. Arbeitsaufgaben können meist nur in Zusammenarbeit erledigt werden, oft interdisziplinär und häufig über Organisationsgrenzen hinweg. Das bedeutet auch, dass Menschen mit verschiedenen Handlungsstilen, unterschiedlichem Wissen, aus verschiedenen Kulturen etc. miteinander kommunizieren. Auch wenn indirekte und asynchrone Kommunikation in solchen Arbeitsfeldern eine wichtige Rolle spielt, beschränkt sich dieses Kapitel weitgehend auf Kommunikationsakte, bei denen die Beteiligten gleichzeitig bzw. kurz hintereinander und miteinander (synchron) agieren, z. B. Gespräche, auch Telefonate oder Chats. Unidirektionale Kommunikation über Handbücher, Formulare, Dienstanweisungen oder auch Vorträge und Artikel ist ebenso wenig Thema wie die Kommunikation Mensch-Maschine, d. h. die Art der Informationsdarstellung, Display- und Schnittstellengestaltung etc. Kommunikation beinhaltet, dass jemand einer anderen Person etwas mitteilen möchte, also mindestens zwei Personen beteiligt sind (Heringer, 2007). Das setzt voraus, dass ein Mensch sich in einem bestimmten Ausmaß auf den anderen einstellt. > Kommunikation heißt, das eigene Denken und Handeln in eine Beziehung zu anderen Personen zu bringen.
»Jemandem etwas mitteilen wollen« oder »Von jemandem etwas wissen wollen« ist Anlass für Kommunikation. In der Alltagsvorstellung setzen wir voraus, dass das gelingen kann und dass das Mitgeteilte auch verstanden werden kann. Verstehen wird als der Normalfall angesehen, der mit gutem Willen und Aufmerksamkeit sowie ausreichenden
144
Kapitel 8 • Kommunikation
Ressourcen erreichbar ist. Missverständnisse und Störungen sollten somit behebbar sein.
8.2.1
8
Kommunikation als Informationsübermittlung
Kommunikation wird in dieser Perspektive als Prozess der Übermittlung von Zeichen verstanden (die Wichtigkeit der Übermittlung für die menschliche Kommunikation zeigt sich u. a. darin, dass im Englischen »communications« die Kommunikationsmittel sind). Entsprechend beschäftigen sich Kommunikationsmodelle damit, wie man eine Botschaft vollständig und ohne Informationsverlust von A nach B bringt. Das bekannteste Modell dieser Art ist das nachrichtentechnische Modell von Shannon & Weaver (1949). Nachrichtentechnisches Modell der Kommunikation (Shannon & Weaver, 1949) Das Modell von Shannon & Weaver beschreibt Kommunikation im Sinne der Übertragung einer Nachricht anhand von Grundprinzipien der Nachrichtentechnik, wie sie z. B. im Morsen von Nachrichten deutlich werden. Jede Nachrichtenübertragung besteht nach dieser Konzeption aus den drei Komponenten Sender – Übertragungskanal – Empfänger. Eine Voraussetzung hierfür ist, dass Sender und Empfänger über einen gemeinsamen Zeichensatz verfügen und die Kodierungsvorschrift der Zeichen kennen, sodass eine vom Sender verschlüsselte Nachricht vom Empfänger auch wieder entschlüsselt werden kann. Für ihren Austausch bedienen sich beide eines Übertragungskanals, über den die Nachricht vermittelt wird. Die Empfangsqualität der Nachricht wird durch die Art des Kanals (der nicht unbedingt sprachlicher Natur sein muss), durch die Kanalkapazität und durch Störeinflüsse (Rauschen) im Kanal beeinflusst. Das Modell »Sender – Übertragungskanal – Empfänger« ist häufig auf die menschliche Kommunikation übertragen worden, obwohl es zu wenige Komponenten hat und zu wenig komplex ist, um den vielschichtigen Informationsprozessen gerecht zu werden, die
in der Kommunikation zwischen Menschen ablaufen (Köck, 1990). Ausgedrückte Meinungen und beabsichtigte Bedeutungen seitens des Senders werden beispielsweise ebenso wenig berücksichtigt wie unmittelbare Reaktionen des Empfängers. Das nachrichtentechnische Modell kann aber bestimmte Kommunikationsprobleme verdeutlichen, die mit dem Übertragungskanal zu tun haben, beispielsweise Rauschen im Kanal durch Lärm in der Umgebung. Lärm ist eine typische Störgröße für die Qualität der Nachrichtenübertragung, weil er wichtige Informationen überlagern und maskieren kann (Kloepfer, 2006). Die Begrenzung der Kanalkapazität ist ebenfalls ein technisches Problem, das auf die menschliche Kommunikation übertragen werden kann. Diese Begrenzung bedeutet, dass jeweils nur eine Nachricht pro Kanal unterwegs sein sollte. Sprechen mehrere Menschen gleichzeitig, ist die Kapazität des Übertragungskanals erschöpft. Die Grundidee dieses Modells wurde schon früher als Lasswell-Formel (Lasswell, 1948) beschrieben. Nach Lasswell wird ein Kommunikationsakt vollständig beschrieben, wenn angegeben wird: 5 Wer 5 sagt was 5 zu wem 5 wodurch (Zeichen, Signal) 5 durch welches Medium bzw. welchen Kanal 5 mit welcher Intention bzw. Motivation 5 mit welchem Effekt? In der Lasswell-Formel sind jedoch zwei psychologische Aspekte berücksichtigt, die bei Shannon & Weaver (1949) – denen es ja um die Übertragung einer Nachricht ging – fehlen: Intention und Effekt.
8.2 • Kommunikation verstehen
8.2.2
Bedeutung, Interpretation und Kontext
Die Lasswell-Formel bietet die Möglichkeit einer präzisen Prozessanalyse, bleibt aber im EmpfängerSender-Modell verhaftet; Prozesse des Verstehens und der Rückkoppelung sind allenfalls als Effekte denkbar. Andererseits diskutieren Kommunikationsforscher seit Langem, dass es für die Verständigung zwischen Menschen nicht ausreicht, Zeichen korrekt zu übertragen. Vertreter des symbolischen Interaktionismus (z. B. Blumer, 1969; Mead, 1968) postulieren, dass Dinge keine inhärente, naturgegebene Bedeutung haben, sondern dass Bedeutung in sozial ausgehandelten Zuschreibungsprozessen (immer wieder neu) festgelegt wird. Relevant für das Handeln sind Bedeutungen, nicht Dinge. Dies gilt auch für Sprache: Wörter als Zeichen haben keine Bedeutung an sich – diese Idee kann man im Code der nachrichtentechnischen Modelle finden: Sender und Empfänger müssen sich über die Bedeutung von Zeichen einig sein, damit Botschaften nicht nur technisch übermittelt, sondern auch »gelesen« werden können. > Da die Bedeutung von Dingen und Wörtern durch kommunikative Akte festgelegt wird, ist Kommunikation die Grundlage allen Handelns.
8.2.3
Interaktion, Beziehung und Interpretation
Die bislang besprochenen Ansätze befassen sich mit der (kontextgebundenen, personabhängigen) Übermittlung von Nachrichten. Explizit psychologische Kommunikationstheorien haben seit Langem darauf verwiesen, dass Kommunikation nicht nur eine Frage von Senden, Übermitteln und Empfangen ist, sondern dass es darauf ankommt, 5 was gesagt wird, 5 wie und wo es gesagt wird und 5 wie der Empfänger oder die Empfängerin das Gesagte versteht (Bühler, 1934; Searl, 1971).
145
8
In jeder Kommunikation spielen Annahmen und Kontexteinflüsse eine große Rolle. Sender und Empfänger haben Annahmen darüber, was der jeweils andere weiß und denkt, und passen ihre Sprache diesen Annahmen an (z. B. Garrot & Anderson, 1987). Auch der Kontext beeinflusst die Bedeutungszuschreibung durch Erwartungen auf beiden Seiten. So wird die Erklärung eines neuen Computerprogramms viel knapper ausfallen, wenn die Zuhörerin bereits als Expertin für die Vorgängerversion bekannt ist, als wenn sie kein Vorwissen hat. Eine Vorstellung des neuen Programms wird auf einer Sitzung mit dem Vorgesetzten anders ausfallen als im Abteilungstreffen mit den Kollegen. Wenn diese Annahmen über geteiltes Vorwissen falsch sind, wird die Ersparnis u. U. zum Sicherheitsrisiko (z. B. wenn sich jemand nicht traut nachzufragen). Kommunikation findet nicht nur im Kontext einer Situation statt und mit Annahmen über das Wissen und die Erfahrungen einer anderen Person, sondern auch im Kontext einer sozialen Interaktion, also einer Beziehung. Menschen können nicht »rein sachlich« kommunizieren – in jeder Botschaft schwingt auch eine Aussage über die Art und Qualität der Beziehung zwischen Sender und Empfänger mit (Watzlawick, Beavin & Jackson, 2007). Schulz von Thun (Schulz von Thun, 1981; Schulz von Thun, Ruppel & Stratmann, 2000) hat diese Grundannahme über die Gleichzeitigkeit von Beziehung und Sachinhalt eingängig erweitert als die »4 Seiten einer Nachricht« und zwischen 4 Aspekten einer Botschaft unterschieden: Sachinhalt, Selbstkundgabe, Beziehung und Appell (. Tab. 8.1). Diese 4 Aspekte sind für den Sprecher und den Hörer gleichermaßen relevant. Beide arbeiten mit diesen 4 Seiten einer Botschaft. Welche Aspekte der Sender in den Vordergrund der Nachricht rückt, ist durch sein Denken, seine Absichten und Kommunikationsfähigkeiten bestimmt. Für den Empfänger besteht die Möglichkeit, auf jede der 4 Seiten einer empfangenen Nachricht zu reagieren, aber welchen Aspekt der Hörer als besonders wichtig empfindet, ist wiederum seiner eigenen psychischen Verfassung zuzuschreiben. Deshalb sprechen Menschen mit »4 Schnäbeln« und hören mit »4 Ohren« (z. B. Schulz von Thun, 1981).
Kapitel 8 • Kommunikation
146
. Tab. 8.1
8
4 Seiten einer Nachricht. (Nach Schulz von Thun, 1981)
Sachinhalt
Information über den sachlichen Gegenstand der Kommunikation, über Dinge und Geschehnisse
Beziehungshinweis
Information über die Beziehung zwischen Sender und Empfänger. Durch Formulierung, Tonfall und nichtsprachliche Begleitsignale gibt der Sender zu erkennen, in welcher Beziehung er sich zum Sender sieht
Selbstkundgabe
Information über den Sender als Person. Dies kann in Form einer gewollten Selbstdarstellung oder einer unfreiwilligen Selbstenthüllung geschehen
Appell
Information über eine Aufforderung zum Handeln. Jede Nachricht enthält eine Aufforderung, etwas zu tun (oder zu lassen)
Missverständnisse entstehen, wenn der Hörer andere Aspekte für wichtig hält als die vom Sender intendierten. Insbesondere wenn sprachliche und nichtsprachliche Kommunikation sich widersprechen oder wenn die Beziehung schon konflikthaft ist, wird der oder die Hörende Beziehungsaspekte stärker betonen. Beispiel Der Chefarzt des einleitenden Fallbeispiels sagt zur Leiterin des Vertrauensgremiums: »Dafür habe ich jetzt keine Zeit«. Dabei tippt er an einer E-Mail weiter. Sie interpretiert das Verhalten, das sie so schon öfter erlebt hat, als Desinteresse und Arroganz; ein Vorwurf, den der Chefarzt nicht versteht, da er nichts Unhöfliches gesagt und doch nur auf später verwiesen habe.
Die . Abb. 8.1 integriert Variablen der LasswellFormel bzw. des nachrichtentechnischen Modells mit Kontext, Personvariablen und Interaktion.
Organisationen. Menschen haben jeweils Teil an Kommunikation, ohne sie zu verursachen. Der Fokus liegt hier auf den Interaktionsketten – eine Kommunikation wird durch andere Kommunikationen bedingt und bedingt selbst wieder weitere Kommunikationen. Das bedeutet, nicht nur der aktuelle Kontext, sondern auch die Voraussetzungen einer Interaktion sind relevant. Aus dieser Perspektive wird nicht das Verstehen untersucht, sondern wie Kommunikation in sozialen Systemen funktioniert. Menschen werden als selbstreferentielle Systeme beschrieben – das bedeutet, es gibt keinen direkten Einfluss eines Menschen auf einen anderen durch Kommunikation. Erstaunlich sind also nicht Verständigungsprobleme, sondern dass es überhaupt Schnittstellen zwischen selbstreferenziellen Systemen gibt, die gemeinsames Agieren erlauben. Diese Sicht auf Kommunikation wird in 7 Kap. 9 vertieft.
8.2.5 8.2.4
Kommunikation in sozialen Systemen
Nachrichtentechnischen und psychologischen Modellen ist gemeinsam, dass Kommunikation zwischen konkreten Menschen stattfindet (die in soziale Zusammenhänge eingebettet sind). Anders in den (soziologischen) Theorien, die sich mit Kommunikation in sozialen Systemen beschäftigen (Habermas, 1981; Luhmann, 1981; Luhmann, 1984; Schoeneborn, 2007): Diesem Ansatz zufolge geschieht Kommunikation in Systemen, z. B. in
Sprachliche und nichtsprachliche Formen von Kommunikation
Menschliche Kommunikation nutzt gleichzeitig verschiedene Kanäle für den Austausch von Informationen: Neben der gesprochenen Sprache drücken Menschen sich durch nonverbale (Körpersprache, Haltung, Gestik) und paraverbale Mittel (stimmliche Aspekte der Sprache, Lautstärke, Betonung, Sprechgeschwindigkeit) aus (zu nonverbaler Kommunikation s. Frey, 1984; Gieseke, 2004; Argyle, 2005; Schweizer, 2008; Scherer & Walbott, 1984). Menschen lernen von Kindheit an, allen drei
147
8.3 • Funktionen von Kommunikation
Realitätskonstruktion Erwartungen Wissen Erfahrung Informationsselektion
8
Realitätskonstruktion Erwartungen Wissen Erfahrung Informationsselektion
Inhalt Beziehung Appell Selbstkundgabe
Intention
Enkodierung
Kanal, Medium
Dekodierung
Verstehen
Wissen und Annahmen über andere Person Bezug auf Kontext Annahmen über geteiltes Wissen Geschichte der Beziehung Geteilter Zeichensatz
. Abb. 8.1
Kommunikation im Kontext psychologischer Variablen
Kanälen die Informationen zu entnehmen, die in der aktuellen Situation für das gemeinsame Handeln relevant sind. Auch wenn Kommunikation im Kontext von Sicherheit zumeist als sprachliche Kommunikation untersucht wird, kommt nonverbalen und paraverbalen Anteilen große Bedeutung zu. Sie helfen dem Empfänger, die Bedeutung einer Nachricht im Gesamtzusammenhang der Situation zu verstehen. Nonverbale Informationen sind wie ein Kommentar oder eine Anleitung zum Verständnis für die gesprochenen Sätze. Die Frage »Wie weit sind Sie mit der Fallanalyse?«, begleitet von einem Stirnrunzeln, könnte ein Mitglied des Vertrauensgremiums als Zweifel an seiner Kompetenz deuten. Die gleichen Worte ruhig und freundlich gesprochen, mit einem interessierten Blick, würden eher als Interesse gedeutet, vielleicht sogar als implizite Aufforderung, darüber zu reden. Solche Deutungen sind in der Regel unbewusst: Der nonverbale und der paraverbale Kanal sind stärker durch Einstellungen und Emotionen eingefärbt (7 Kap. 6) und stehen weniger unter der bewussten Kontrolle als die Informationsverarbeitung des verbalen Kanals. Empfindet der Empfänger, dass ihm auf dem verbalen und dem nonver-
balen Kanal jeweils etwas anderes mitgeteilt wird, beide Botschaften also inkongruent sind (Schulz von Thun, 2006), so wird er unbewusst der nonverbalen Information die größere Bedeutung beimessen (Frey, 1984). Deshalb ist es gerade in kritischen Situationen wichtig, dass die durch Körpersprache übermittelten Botschaften mit den Botschaften der gesprochenen Sprache übereinstimmen (Kongruenz).
8.3
Funktionen von Kommunikation
Kommunikation ist kein Selbstzweck, sondern sie erfüllt bestimmte Funktionen für die Beteiligten. Kommunikation im beruflichen Kontext kann Funktionen für die Person selbst haben (z. B. Demonstration von Status, Einholen von Rat), für das Team (z. B. Koordination) oder die Organisation (z. B. Zugehörigkeit definieren, Verhandlungen). Einige besonders für Teams relevante Funktionen von Kommunikation werden hier anhand des Fallbeispiels verdeutlicht.
8
148
Kapitel 8 • Kommunikation
8.3.1
Strukturierung der Zusammenarbeit
Strukturierung der Zusammenarbeit ist eine Voraussetzung für die Erledigung von Arbeitsaufgaben. Ist sie nicht a priori durch Funktionen und Rollen festgelegt oder bereits durch vorherige Zusammenarbeit vorgegeben, muss sie explizit festgelegt werden. Auch Ad-hoc-Teams mit einander unbekannten oder wenig vertrauten Mitgliedern können dann ohne Reibungsverluste zusammenarbeiten. Im Fallbeispiel strukturiert sich das Vertrauensgremium in einer Teamsitzung, in der eine Leitung und andere Rollen im gleichberechtigten Gespräch verteilt werden. In der Besprechung des Gremiums mit den Chefärzten wird die Sitzung durch externe Moderation und die weitere Zusammenarbeit durch eine Dienstanweisung strukturiert. Die Strukturierung sollte immer sorgfältig kommuniziert werden. Besonders wichtig ist dies, wenn gleichrangige und gleich qualifizierte Teammitglieder anwesend sind und daraus Konflikte entstehen können.
ausreichend Gelegenheit gab, sich kennenzulernen und über Arbeitsaufgaben explizit zu sprechen. Problematisch kann der Wechsel zwischen verschiedenen Koordinationsformen sein, z. B. erfordern plötzlich auftretende Probleme oder auch das Hinzukommen neuer Teammitglieder einen Wechsel zu expliziter Koordination. Explizite Kommunikation ist für sicheres Handeln also nötig, aber auch eine zusätzliche Belastung und damit potenziell Fehler verursachend. Deshalb sollten Teams flexibel zwischen verschiedenen Koordinationsund damit Kommunikationsformen wechseln können. Salas, Nichols & Driskell (2007) zeigen, dass die Verbesserung der Koordination zentral für den Teamerfolg ist:
» At this time, the most potent contribution to effective team training appears to include a focus on coordination and adaptation. This suggests that the optimal team training intervention appears to be requiring that team members learn how to alter their coordination strategies and to reduce the amount of communication necessary for successful team performance. (Salas, Nichols & Driskell, 2007, S. 471)
«
8.3.2
Koordination von Arbeitsabläufen 8.3.3
Im geschilderten Fallbeispiel dient Kommunikation auch der Koordination von Arbeitsabläufen, indem Aufgaben verteilt und zeitliche Reihenfolgen festgelegt werden. Koordination von Arbeitshandlungen kann explizit, also verbal, geschehen, z. B. durch Erteilen von Arbeitsaufträgen oder durch das Vorlesen einer Checkliste. Eine Sonderform der expliziten Koordination ist Metakoordination, d. h. Kommunikation darüber, wie und wann man sich koordinieren wird (z. B. »Wir treffen uns in 15 min zur nächsten Lagebesprechung«). Koordination kann auch implizit erfolgen, z. B. durch Blicke und Gesten. Wichtig für implizite Koordination ist, dass jedes Teammitglied über die Aufgaben und Handlungen der anderen im Bilde ist. Teams, die sich implizit koordinieren, können effektiver arbeiten, weil sie in der Situation weniger kommunizieren müssen (z. B. Entin & Serfaty, 1999) – das gelingt aber nur, wenn es zuvor
Informationsweitergabe und -austausch
Kommunikation dient dazu, Informationen zwischen Menschen auszutauschen, also Wissen für andere zugänglich zu machen. Ein adäquater Informationsaustausch ist entscheidend dafür, dass eine Situation angemessen bewertet und eine adäquate Handlungsstrategie festgelegt werden kann. Im Fallbeispiel werden Informationen über Zwischenfälle von den OP-Mitarbeitern schriftlich dem Vertrauensgremium kommuniziert. Auch Informationen über Beziehungen werden weitergegeben, z. B. wenn sich die Leiterin des Gremiums bei ihren Kollegen über das Verhalten des Chefarztes beklagt. Kommunikation als Informationstransfer zu beschreiben, greift aber zu kurz: Information ist nicht etwas, das man von einem Kopf in einen anderen übertragen kann, wie man ein Blatt Papier von einem Schreibtisch auf den anderen legt. Wir
8.3 • Funktionen von Kommunikation
haben keinen Zugriff auf das Denken anderer Menschen (Maturana & Varela, 1987). »Information is a difference that makes a difference« (Bateson, 1985), und zwar für den, der sie aufnimmt. Übertragen werden zwischen Menschen nur Zeichen (hier sprachliche Codes). Bedeutung wird dem Gesagten vom Hörer zugeschrieben. Wenn man etwas schon weiß, ist es keine Information mehr (wohl aber eine Bestätigung von Wissen, was Einfluss auf die weitere Kommunikation haben wird). Wenn man etwas nicht versteht, ist es auch keine Information. Beispiel Die Mitteilung des Notfallmanagers »Der Störfall ist als D3 klassifiziert« enthält für jemanden, der diese Einteilung nicht kennt, keine Information – ob D2 oder D3, macht für diese Person keinen relevanten Unterschied. Einen »Unterschied, der einen Unterschied macht«, bedeutet diese Einteilung aber z. B. für das Pressereferat des betroffenen Unternehmens, das nun die entsprechenden Pressemeldungen vorbereiten wird.
Wenn Information subjektiv ist, dann kann Verständnis nur erreicht werden, wenn der Sender weiß, was für den Empfänger eine Information ist, wenn er sich also inhaltlich und in der Form der Mitteilung auf die andere Person einstellt.
8.3.4
Gemeinsame Realitätskonstruktion
Kommunikation findet zwischen Menschen statt, die alle ein subjektives Modell der Situation und der anderen Person im Kopf haben. Solche mentalen Modelle sind Grundlage des Handelns. Da jede Person sich ihre eigene Realität konstruiert, kann kooperatives Handeln nur gelingen, wenn die verschiedenen mentalen Modelle der Einzelnen miteinander abgeglichen werden. Geschieht dies nicht, handelt u. U. jedes Teammitglied auf der Basis unterschiedlicher Annahmen über die Situation. Eine zentrale Funktion von Kommunikation ist es daher, ein gemeinsames Verständnis der Situation und der Probleme zu entwickeln (7 Kap. 7).
149
8
Gemeinsame Realitätskonstruktion ist freilich nur möglich für die bewussten, explizierbaren Anteile des Wissens und der Annahmen über die Welt. Zudem gilt: Menschen bilden ihre mentalen Modelle aufgrund ihrer Erfahrungen mit der Welt; da das Muster der Erfahrungen für jeden Menschen einzigartig ist, kann es nie vollständige Übereinstimmung geben. Soweit aber Menschen ihr Wissen und ihre Annahmen über eine Situation teilen können, ist es möglich, eine gemeinsame Realitätskonstruktion zu erreichen, die Handeln in Bezug aufeinander ermöglicht. In der Human-Factors-Literatur wird dieses Phänomen gemeinsamer Bezugsrahmen (»common ground«, Clark, 1996), gemeinsames Problemverständnis (»shared understanding«) oder geteiltes mentales Modell (»shared mental model«) genannt (7 Kap. 7 und 16; zu mentalen Modellen siehe z. B. Cannon-Bowers & Salas, 2001; Cannon-Bowers, Salas & Converse, 1993; Tschan & Semmer, 2000). Gemeinsame Realitätskonstruktion bedarf der verbalen Kommunikation. Vor dem Teilen steht das Mitteilen: Nur die Information, die in einer Situation mitgeteilt wird, trägt zum gemeinsamen Situationsbild bei (Leonard, Graham & Bonacum, 2004). Übereinstimmung der mentalen Modelle ist kein einmal zu erringendes Ergebnis, sondern ein fortwährender Prozess, da der Abgleich der Modelle regelmäßig erneuert werden muss, sobald sich die Situation ändert. Gemeinsame Realitätskonstruktion kann sich auf Grundlegendes beziehen, wie z. B. Weltanschauungen und Werte, auf überdauerndes Wissen, z. B. Fachwissen, oder auf eine konkrete Situation. Sie bildet damit eine Basis für die Interpretation von Informationen, für Planen und Entscheiden und für die Vorhersage von Entwicklungen. Der Begriff »gemeinsames mentales Modell« wird meist für Teams in einer konkreten Situation verwendet. Ein gemeinsames mentales Modell kann sich auf eine aktuelle Situation, ein Problem, verfügbare Ressourcen oder Personen (ihre Fähigkeiten, Aufgaben, Rollen) beziehen. Cannon-Bowers, Salas & Converse (1993) unterscheiden Aufgaben-, Interaktions- und Equipmentmodelle. Für erfolgreiche Zusammenarbeit sind gemeinsame Modelle in allen drei Bereichen nötig. Zur Konstruktion
150
8
Kapitel 8 • Kommunikation
einer gemeinsamen Realität gehört auch die Definition der aktuellen Situation. Insbesondere in Ausnahmesituationen wie Krisen und Notfällen dient Kommunikation dazu, den Übergang von normal zu Ausnahme zu markieren, indem z. B. Probleme als solche benannt werden. Das Teilen von Realitätskonstruktionen ist eine theoretisch schwer zu fassende, praktisch höchst bedeutsame generelle Funktion von Kommunikation, im privaten wie im beruflichen Bereich. Die Entwicklung eines gemeinsamen Modells wird generell als zentraler Erfolgsfaktor für Gruppen angesehen (z. B. Sexton, 2004; Van den Bossche, 2006; Stout, Cannon-Bowers, Salas & Milanovich, 1999). Gelingt es auch in Stresssituationen, sich ausreichend mitzuteilen, verbessert sich die Koordination innerhalb der Gruppe und erhöht sich die Stressresistenz von Teams (Entin & Serfaty, 1999). Auf die Relevanz gemeinsamer Realitätskonstruktion für sicheres Handeln wird in 7 Kap. 8.6 genauer eingegangen.
8.3.5
Beziehungen schaffen
Kommunikation erfüllt in Teams noch eine weitere, ständig mitlaufende Funktion: Sie schafft Beziehungen zwischen den Beteiligten und erhält sie aufrecht. Die oben genannten informationsbezogenen Funktionen von Kommunikation (Strukturierung, Koordination, Informationsaustausch) sind nicht ohne das In-Beziehung-Treten denkbar – das Schaffen gemeinsamer mentaler Modelle erst recht nicht. Das »Axiom« von Watzlawick »Man kann nicht nicht kommunizieren« (Watzlawick, Beavin & Jackson, 2007) bezieht sich auf diesen Aspekt der Interaktion: Jedes Verhalten in Anwesenheit anderer Personen kann von diesen als (gewollter) Teil der Interaktionskette und damit als Kommunikation interpretiert werden: Wenn der Vorarbeiter auf der Baustelle keinen Helm trägt, können Mitarbeiter das als Mitteilung interpretieren, dass Helmtragen nicht wichtig ist. Wie berufliche Beziehungen gestaltet sind, hängt im Wesentlichen von drei Faktoren ab: 5 Welche formalen Berufsrollen und Funktionen bringen die Beteiligten mit? 5 Welches Verhalten zeigen sie?
5 Welche Erwartungen haben sie aneinander und an ihre Kommunikation? Erwartungen prägen Interaktionen, die ihrerseits Erwartungen prägen. So ist der Chefarzt aus dem Fallbeispiel bei den Mitarbeitenden als »arrogant« bekannt. Die Leiterin des Vertrauensgremiums erwartet von ihm entsprechend arrogantes Verhalten. Antwortet er auf eine Anfrage nun schroff, bestätigt er die Erwartung und verstärkt so seinen Ruf. Es kann ein Teufelskreis aus Erwartung, Wahrnehmung, Bewertung und Reaktion entstehen. Würde ein Chefarzt, der als freundlich und kooperativ gilt, die gleiche schroffe Antwort erteilen, würde dieses Verhalten wohl mit »Er hat wohl einen schlechten Tag« oder »Das Thema muss ihn besonders aufregen« entschuldigt werden. Die Zusammenarbeit in Teams bringt häufig stabile und relativ unveränderbare Muster hervor, wie die Teammitglieder miteinander kommunizieren (Watzlawick, Beavin & Jackson, 2007). Solche Kommunikationsmuster bestehen aus gegenseitigen Erwartungen, Annahmen und Verhaltensgewohnheiten. Sie sind für viele Situationen funktional (sonst würden sie verändert werden), können aber auch Veränderungen und Entwicklungen blockieren (Badke-Schaub, 2005). Zudem sind Menschen manchmal in dysfunktionalen Mustern gefangen, sodass z. B. konstruktive Kritik nicht mehr möglich ist. Aus dem Zusammenspiel verschiedener Personen kann – trotz guter Absichten bei allen Beteiligten – ein unproduktives und destruktives System entstehen. Ein typisches Denk- und Interpretationsmuster ist es, die Schuld für misslungene Kommunikation eher bei der anderen Person und nicht bei sich selbst zu suchen. Die Verhaltensweisen in einer Interaktion bilden jedoch ein System: Wenn zwei Personen unproduktiv miteinander arbeiten (und kommunizieren), liegt es nicht an schwierigen Personen (beispielsweise dem cholerischen Chirurgen oder der hysterischen Pflegekraft), sondern am schwierigen Kommunikationsmuster.
Die hier genannten Funktionen von Kommunikation sind nicht unabhängig voneinander zu sehen. Erfolgreiche Kooperation braucht als Grundlage positive Beziehungen und wirkt zurück auf die Beziehungsqualität. Koordination bedarf
151
8.4 • Störungen der Kommunikation
Beziehung schaffen und stabilisieren
8
Information weitergeben
Gemeinsame Realitätskonstruktion Geteilter Bezugsrahmen Gemeinsame mentale Modelle Geteiltes Situationsbewusstsein
Kooperation
. Abb. 8.2
Koordination
Funktionen der (beruflichen) Kommunikation
der Informationsweitergabe, Informationen werden aber nur bei guten Beziehungen angemessen weitergegeben. Gemeinsame Realitätskonstruktion kann als integrierendes Konzept aufgefasst werden (vgl. auch 7 Kap. 7), als Bindeglied von Interaktion und Information. . Abb. 8.2 fasst die Funktionen von Kommunikation mit einigen ihrer Abhängigkeiten zusammen.
5 in dem Empfangs- und Deutungsprozess liegen oder 5 auf die Beziehungsebene der beiden Gesprächspartner zurückzuführen sein. Im Folgenden werden beispielhaft einige häufig beobachtete Kommunikationsprobleme beschrieben.
8.4.1 8.4
Störungen der Kommunikation
Kommunikationsprobleme sind im Kontext von Sicherheit als mögliche Unfallursachen relevant. Entsprechend der Bedeutungsvielfalt von Kommunikation können sich auch Probleme eher auf Information oder eher auf Interaktion beziehen. Aus der oben gezeigten Verwobenheit der beiden Aspekte wird klar, dass sich Interaktionsprobleme nicht »nur« emotional auswirken, sondern auch auf die Informationsweitergabe Einfluss haben. Störungen der Kommunikation können 5 mit den Merkmalen der Information zusammenhängen,
z
Gestörte Informationsübermittlung
Enkodierung
Kommunikationsprobleme bei diesem Prozessschritt bedeuten, dass jemand etwas sagen möchte, es aber nicht wie gewünscht sagt – hierzu gehören z. B. Versprecher. In der Luftfahrt haben diese Fehler große Bedeutung; es kommt immer wieder zu Zwischenfällen, weil eine Flugnummer oder Funkfrequenz falsch angesagt wurde (z. B. Zahlendreher wie 4-5 statt 5-4; Reinwarth, 2005). Wenn man sich selbst nicht genau zuhört oder ein Zurücklesen durch den Kommunikationspartner unterbleibt, können diese Versprecher unentdeckt bleiben.
152
Kapitel 8 • Kommunikation
Im interkulturellen Kontext kann ein Enkodierungsproblem sein, dass die Nebenbedeutungen (Konnotation) eines Wortes in einer Fremdsprache nicht bekannt sind und deshalb nicht das ausgedrückt wird, was eigentlich gesagt werden sollte. Aber auch in der eigenen Sprache kann die »Verpackung« einer Nachricht in Sprache so ausfallen, dass es dem Empfänger schwer gemacht wird, sie wie intendiert zu verstehen: Die Verwendung von vagen, mehrdeutigen und von der allgemein akzeptierten Fachsprache abweichenden Begriffen kann für Verwirrung sorgen. z
8
Informationsübermittlung
Relativ einfach zu erkennen und zu verstehen sind Störungen der Informationsübermittlung: Etwas, das gesagt wird, kommt beim Empfänger nicht oder nicht richtig an. Dies sind Kanalprobleme, aber auch Sende- und Empfangsprobleme. Ursachen können Umgebungsfaktoren wie Lärm (bzw. Licht bei schriftlicher Kommunikation) sein. Aber auch unklare Sprache (Nuscheln, starker Dialekt) kann Kommunikation erschweren; bei schriftlicher Kommunikation ist unleserliche Handschrift (oder ein unleserlicher Faxausdruck) ein Problem. Eine Fehlerquelle in der Übertragung ist die immer wieder gefundene starke Bevorzugung mündlicher Kommunikation seitens der Sender (z. B. Coiera & Tombs, 1998). Mündliche Kommunikation ist ungenauer, unterliegt Verzerrungen und unterbricht u. U. andere wichtige Arbeitsschritte. Bevorzugt wird verbale Kommunikation aufgrund höherer Glaubwürdigkeit, weil Bewertungen (nonverbal) mitgeliefert werden und weil Hören einfacher als Lesen ist. Zudem erhält man direkte Rückmeldung – das ist gut für den Sender, aber die durch die Unterbrechung der Tätigkeit hervorgerufene Ablenkung ist eine Fehlerquelle für den Empfänger. Zur Informationsübermittlung gehört ein Empfänger, der auch auf Empfang ist. Vergewissert sich der Sender nicht, dass ihm zugehört wird, ist es nicht verwunderlich, wenn die Botschaft nicht gehört wird. Aber auch der Empfänger ist verantwortlich: Genauso wichtig wie die präzise Sendung ist die sorgfältige Aufnahme einer Botschaft durch den Empfänger. Dazu muss man jedoch zuhören
können und wollen – ein abgelenkter oder desinteressierter Empfänger wird einen Teil der Nachricht auf dem Weg vom Ohr zum Bewusstsein verlieren. z
Dekodierung
Dekodierungsprobleme treten z. B. auf, wenn der Empfänger sich verhört oder verliest, also eine Nachricht nicht so wahrnimmt, wie sie übermittelt wurde. Aber auch wenn der Empfänger Fachwörter und Abkürzungen nicht kennt, die der Sender verwendet, kann er die Nachricht nicht richtig dekodieren. Dieses Beispiel zeigt aber, dass Kommunikationsprobleme meist nicht eindeutig einem Prozessschritt zuzuordnen sind: Die Verwendung von dem Empfänger unbekannten Fachwörtern kann man auch als Enkodierungsproblem ansehen. Bei der Aufnahme von Nachrichten kann es auch zu motivational bedingten Verzerrungen kommen, z. B. durch die Tendenz, nur das zu hören, was man hören will (»confirmation bias«; 7 Kap. 3.), die bis zu einer vollständigen (unbewussten) Ausblendung von Informationen reichen kann: »Das hast du nie gesagt!«
8.4.2
Missverstehen
Auch wenn das, was gesagt wird, so gehört wird, wie es gesagt wurde, folgt daraus noch nicht, dass zwei Personen sich verstehen. Ob man verstanden wurde, kann man am ehesten an den Handlungen der anderen sehen: Reagiert jemand auf eine Nachricht hin mit einer anderen Handlung, als der Sender es gewollt hatte, liegt ein Missverständnis vor (oder der Empfänger handelt aufgrund einer anderen Motivlage). Missverstehen kommt unter vertrauten Alltagsbedingungen und bei Routinehandlungen selten vor, weil die Umgebung und der Sinnzusammenhang einer Handlung sowohl dem Sender als auch dem Empfänger gleichermaßen vertraut sind. Beide haben ein ausreichend ähnliches mentales Modell einer Situation. Hinreichend vertraute Personen wissen, welche Handlung ihr Gegenüber von ihnen erwartet, da sie selbst anstelle des Senders ähnlich handeln würden. Anders verhält es sich in Situationen, die für alle Beteiligten neuartig und unbestimmt sind, in denen also keine gemeinsa-
153
8.4 • Störungen der Kommunikation
men, vertrauten Denkmuster existieren. Unter solchen Bedingungen häufen sich Missverständnisse, die verschiedene Ursachen haben können. z
Sprachliche Mehrdeutigkeit
Alltagssprache ist mehrdeutig. Was genau gemeint ist, erschließt sich häufig erst aus dem Kontext. Beispielsweise ist der Satz »Die Anzeige für den Druck ist die vor der Temperaturanzeige« mehrdeutig. »Vor« kann bedeuten »vor, also weiter weg vom Sprecher«, oder es kann bedeuten »von mir aus gesehen vor, also näher«. Im Kontext der Situation wird der Satz meist erschließbar, z. B. durch Gesten, wobei Fehler nicht ausgeschlossen sind. Geschieht diese Sinndeutung unter störenden Randbedingungen wie Lärm, Zeitdruck und Ablenkung, kann es geschehen, dass ein mehrdeutiger Satz unangemessen interpretiert wird. Die Mehrdeutigkeit und Reichhaltigkeit unserer Alltagssprache erlaubt die Bildung verschiedener Sprachstile, z. B. geschlechtsspezifisch oder spezifisch für Berufskulturen; diese können zu Missverständnissen führen. Beispiel Pflegekräfte lernen in ihrer beruflichen Sozialisation, die Geschichte des Patienten zu erzählen. Ärzte lernen, kurz und knapp Fakten abzufragen. So zeigte sich in einer Studie von Cadogan, Franzi, Osterweil & Hill (1999), dass Ärzte eine exakte Beschreibung spezifischer Symptome erwarten, während Pflegende die Beschwerden aus der Sicht der Patienten beschrieben. Das führte dazu, dass die Pflegenden von den Ärzten als weniger kompetent wahrgenommen wurden und die Informationen, die sie beitrugen, für nicht so relevant gehalten wurden – eine Geringschätzung, die die Gesundheit und Patientensicherheit gefährden kann.
z
Verschiedene Botschaften auf Beziehungsund Sachebene
Da jede Nachricht verschiedene Aspekte beinhaltet, ist Klarheit der Kommunikation eine mehrdimensionale Angelegenheit. Missverständnisse können entstehen, weil für den Hörer oder die Hörerin einer Botschaft ein anderer Aspekt im Vordergrund steht als für den Sender, wenn beispielsweise nicht klar ist, ob der positive Wortlaut oder
8
der abwertende Tonfall gültig sind. Hier liegt das Missverständnis darin, welche Bedeutung welcher Anteil der Kommunikation hat. Wird z. B. ein Auftrag in einem beiläufigen Tonfall erteilt, kann es zu einem Missverständnis bezüglich der Dringlichkeit kommen. Selbst wenn »schnell« gesagt wird, kann beim Empfänger »dann mal« ankommen, wenn Tonfall und Gestik dies nahelegen. z
Verschiedene mentale Modelle
Eine komplexere Stufe des Missverstehens liegt vor, wenn eigene mentale Modelle und die darauf aufbauenden Handlungspläne stark von denen der anderen Teammitglieder abweichen und man fälschlicherweise davon ausgeht, dass alle Beteiligten die gleiche Situationseinschätzung haben. Missverstehen wird begünstigt, wenn Teammitglieder ihre Beobachtungen, Bewertungen und Erwartungen bezüglich des weiteren Verlaufs nicht mitteilen. Damit ist für das einzelne Teammitglied nicht offensichtlich, welches Gesamtbild und welchen Erwartungshorizont die anderen Teammitglieder haben. Je unabhängiger eigene Handlungspläne von verbalen Rückkopplungen mit anderen Personen werden, umso größer ist die Gefahr des Missverstehens. Ein Team ist dann nicht mehr »im selben Boot«. Informationen und Anweisungen werden dann zunehmend durch unpassende Handlungen beantwortet und die Handlungen der Teammitglieder können auseinanderlaufen.
8.4.3 z
Störungen der Interaktion
Erwartungen
Wenn Menschen häufig miteinander zu tun haben, haben sie klare Annahmen über die Person und Erwartungen über das Verhalten der jeweils anderen Person. Treffen zwei Menschen das erste Mal aufeinander, ordnen sie die wahrgenommenen Verhaltensweisen in ein Personenmodell ein und bilden daraus Erwartungen darüber, wie sich die andere Person in nachfolgenden Begegnungen verhalten wird. Daher ist der erste Eindruck (ob negativ oder positiv) so wichtig für die folgende Kommunikation: Hier wird ein Modell des Gegenübers gebildet mit der Konsequenz, dass sich diese Personen von nun an voreingenommen begegnen werden. Aus
154
8
Kapitel 8 • Kommunikation
Verhaltensbeobachtung, Einordnung in ein Modell und Erwartungen entsteht eine positive Rückkoppelung: Aus Erfahrungen folgt die Einordnung und daraus die Ableitung von Erwartungen. Erwartungen leiten die Wahrnehmung und diese wiederum die Reaktion auf die andere Person. Damit Kommunikation gelingt, sind nach Luhmann (1984; vgl. Hohm 2006) aber nicht nur Verhaltenserwartungen nötig, sondern Menschen bilden auch Erwartungen darüber, was der oder die andere erwartet (Erwartungserwartung bei Luhmann). So können Handlungen angemessen aufeinander bezogen werden. Menschen hinterfragen selten kritisch die eigenen Verhaltenserwartungen, sondern schreiben Schwierigkeiten in der Kommunikation den Eigenschaften der anderen Person zu. Vor dem Hintergrund dieser modell- oder erfahrungsbasierten Erwartungshaltung werden Störungen der Kommunikation im Sinne dysfunktionaler Interaktionen verständlich.
nen dabei immer wieder wie »Stecknadeln von unten« in der scheinbar sachorientierten Rede vorkommen. Beiträge in der Art der »Stecknadeln« können prinzipiell von allen Beteiligten, auch den vermeintlich statusniedrigen Personen im Team, angebracht werden (Schulz von Thun, 1981). Solche Nadelstiche treten bevorzugt auf, wenn 5 persönliche Antipathie zwischen Menschen besteht, 5 ein Klima geringer Wertschätzung vorherrscht, 5 persönliche Vorlieben und Gewohnheiten durchgesetzt werden sollen, 5 Intoleranz gegenüber Fehlern verbreitet ist oder 5 Machtkämpfe um den sozialen Status ausgetragen werden. Beziehungsbotschaften, die in Sachaussagen versteckt sind, erzeugen Verwirrung und können ein Team destabilisieren. Es ist schwer, sie offen anzusprechen (da ja »nichts« gesagt wurde) und konstruktiv zu diskutieren.
Beispiel Ein Beispiel hierfür ist komplementäre Eskalation: Ein solches Kommunikationsmuster beruht auf einander ergänzenden Unterschiedlichkeiten der Partner. Die besondere Qualität dieser Beziehungen besteht jedoch darin, dass beide Partner für das Verhalten des Gegenübers jeweils die auslösende Bedingung herstellen. Die von einem Ingenieur wahrgenommene »Unselbstständigkeit« eines Praktikanten »zwingt« den Ingenieur zu engmaschigen Arbeitsanweisungen und Kontrollen, obwohl der Ingenieur diese Verhaltensweisen nicht gerne einsetzt. Je kontrollierender er sich verhält, desto mehr wird der Praktikant sich auf ausführende Tätigkeiten beschränken und so noch unselbstständiger wirken. Das Verhalten beider Personen wird stärker durch die Interaktion und damit auch durch unreflektierte Erwartungen und Annahmen übereinander bestimmt als durch Eigenschaften der Personen.
z
Vermischung von Beziehungsbotschaft und Sachinhalt
Kommunikation wird als gestört wahrgenommen, wenn Beziehungs- und Inhaltsebene miteinander vermischt werden. Beziehungsbotschaften kön-
8.4.4
Kommunikation über Hierarchiegrenzen hinweg
Kommunikation über Hierarchiegrenzen hinweg bedeutet besondere Schwierigkeiten, auch wenn die Beziehung der Beteiligten gut ist: Zusätzlich zu emotionalen und motivationalen Barrieren gibt es eine Tendenz zu Informationsselektion in beide Richtungen (Badke-Schaub, 2005). So werden z. B. Informationen von hierarchieniedrigeren zu hierarchiehöheren Stellen nicht vollständig weitergegeben. Dies kann der Entlastung der Führungsperson dienen, aber es werden auch Informationen absichtlich weggelassen oder verändert, um selbst besser dazustehen. Zudem werden Nachrichten oft so formuliert, wie man glaubt, dass die Führungsperson sie hören möchte. Dies kann dazu führen, dass Führungspersonen von Problemen in ihrem Bereich erst erfahren, wenn sie zu massiv sind, um sie selbst zu lösen. Problematisch sind hierarchische Strukturen auch für die Teamatmosphäre. Dass alle Teammitglieder Informationen zu einem gemeinsamen mentalen Modell beitragen und auch Sicherheits-
155
8.5 • Kommunikation in kritischen Situationen
bedenken äußern können, ist in hierarchischen Strukturen nur schwer zu erreichen. Verzerrungen der Kommunikation über Hierarchien hinweg sind u. a. deshalb so schwer zu beheben, weil sie häufig von Hierarchiehöheren nicht wahrgenommen und von Hierarchieniedrigeren nicht mitgeteilt werden. Studien (z. B. Reader, Flin, Mearns & Cuthbertson, 2007) zeigen, dass die Kommunikation umso besser eingeschätzt wird, je weiter oben der Befragte in der Hierarchie steht. Konkret heißt das, Führungspersonen halten die Kommunikation für offen, genau, ehrlich etc.; Mitarbeiter schätzen dies jedoch z. T. ganz anders ein.
8.5
Kommunikation in kritischen Situationen
Die bisher genannten Kommunikationsprobleme können in jeder Art von Interaktion auftreten. In kritischen Situationen, v. a. unter Zeitdruck und bei hohem Entscheidungsdruck, also unter Stress, wird Kommunikation zusätzlich erschwert: Unter Stress treten allgemeine Einschränkungen des Denkens und der Veränderungen der Emotion und Motivation auf (7 Kap. 6), die sich auf die Kommunikation auswirken. Beobachtbar ist in kritischen Situationen eine generelle Reduktion der Kommunikation, die Tendenz zu schweigen anstatt mehr explizit zu kommunizieren, obwohl kritische Situationen fast immer mehr Austausch erfordern würden. Auch in kritischen Situationen bedarf es offener Kommunikation, um Handlungsalternativen generieren zu können; die ist vor allem in Situationen wichtig, für die es noch keine etablierten Handlungsroutinen bzw. Lösungen gibt. Auch das Kommunikationsverhalten von Führungspersonen kann sich unter Stress dahingehend verändern, dass sie »mehr sagen und weniger fragen«. Beide Tendenzen sind der Aufrechterhaltung gemeinsamer mentaler Modelle und der Koordination nicht förderlich. Wenn Zeitdruck herrscht, muss nicht nur ausreichend kommuniziert werden, auch Klarheit und Eindeutigkeit der Sprache werden noch wichtiger als sonst. Deshalb werden in Organisationen Kom-
8
munikationsstandards für zeitkritische Situationen festgelegt. Unter Stress greifen Menschen auf die am meisten vertrauten Handlungsweisen, also auch auf Kommunikationsformen zurück – das bedeutet, dass effektive Kommunikationsmuster, die in kritischen Situation eingesetzt werden sollen, in Routinesituationen eingeübt werden müssen. Beispiel Im Eingangsbeispiel trat eine Seitenverwechslung auf, bei der ein beitragender Faktor war, dass eine Pflegekraft und ein Assistenzarzt ihre Zweifel nicht äußerten. In der entsprechenden Abteilung war es nicht üblich, Hierarchiehöhere auf Fehler hinzuweisen. In der angespannten Situation vor der Operation (und wenn man sich zudem nicht vollkommen sicher ist) wird kaum jemand zum ersten Mal dem Chef widersprechen.
Typische Kommunikationsfehler in kritischen Situationen sind z. B. zu wenig oder zu viel Information und Sprechen mit unklarem Adressaten (Cushing, 1994; Ungerer, 2004): z
Informationsmangel und Überlastung mit Informationen
In Stresssituationen wird generell eher zu wenig als zu viel gesprochen. Typischerweise werden weniger Erklärungen gegeben, Hintergrundinformationen weggelassen, geschlossene Fragen gestellt und Ein-Wort-Antworten gegeben. Wichtig wäre trotz Stress und Zeitdruck, die eigenen Intentionen und die Ziele von Maßnahmen zu benennen, um die Aufrechterhaltung eines gemeinsamen mentalen Modells zu ermöglichen. Andererseits wird das, was gesagt wird, häufig mit Information überfrachtet, vor allem, wenn es um Anweisungen geht. Zu hoheInformationsdichte zeigt sich u. a. durch (Ungerer, 2004): 5 dichte Folge von Anweisungen für Handlungen, die voneinander unabhängig sind, 5 kurze Pausen zwischen Sätzen (<2 s), 5 lange Listen mit Zahlen- bzw. Dosierungsanweisungen sowie 5 mehrere Fragen in einer Frage.
156
Kapitel 8 • Kommunikation
Ein solches Kommunikationsmuster erhöht den Druck für alle Teammitglieder und provoziert geradezu Fehler: Das Arbeitsgedächtnis wird überlastet (v. a. wenn jemand bereits stark aktiviert ist) und es werden Informationen nicht vollständig verarbeitet oder behalten. So werden z. B. bei fünf in einem Satz gegebenen Anweisungen mit großer Sicherheit nicht alle ausgeführt. z
8
Unklarer Adressat
Gerade in kritischen Situationen sollte klar sein, wer gemeint ist. Fragen und Anordnungen ohne klaren Adressaten (»könnte jemand …«, »hat irgendeiner …«, »ich würde gerne …«, »wir sollten noch …«), erzeugen keine Übernahme von Verantwortung: Es ist niemand direkt angesprochen, also muss sich auch niemand verantwortlich fühlen. Die Prüfung, ob man selbst mit einer unklaren Formulierung gemeint war, ist bei hoher Arbeitsbelastung meist zu aufwendig und wird daher eher unterlassen: Man ist froh, wenn man nicht noch mehr zu tun bekommt oder durch einen schwierigen Arbeitsauftrag überfordert wird. Dadurch entsteht Verantwortungsdiffusion.
8.6
Kommunikation als Sicherheitsressource
8.6.1
Was ist »gute« Kommunikation?
Dass Kommunikationsprobleme Sicherheit beeinträchtigen, ist unbestritten. Im Umkehrschluss sollte »gute« Kommunikation helfen, Fehler zu vermeiden und Sicherheit zu erhöhen. Jedoch ist nicht immer genau zu sagen, was »gute« Kommunikation ist – einige Kommunikationsformen, die in der einen Situation gut sind (z. B. eine ausführliche Diskussion über Ziele bei einer Konstruktionsaufgabe), können in einer anderen unangemessen sein (z. B. eine ausführliche Diskussion über Ziele während der Brandbekämpfung). Je nach Aufgabe, Zielen, Arbeitskontext und beteiligten Personen bedeutet gute Kommunikation etwas anderes. Dennoch kann generell festgehalten werden:
> Gelingende Kommunikation bedeutet im Wesentlichen, Informationen ohne Verluste intentions- und situationsgerecht zu übermitteln und adäquat zu interpretieren (Informationskomponente) und dabei vertrauensvoll, respektvoll und offen in Beziehung zueinander zu stehen (Interaktionskomponente).
Im Folgenden werden einige Werkzeuge benannt, die dies ermöglichen.
8.6.2
Das Bindeglied Verstehen
Was ist das Bindeglied zwischen den beiden Komponenten, das gute Beziehung und funktionierenden Informationstransfer zu gelingender Kommunikation macht? Zentral ist, dass nicht nur offen und vertrauensvoll miteinander kommuniziert wird, sondern dass sich die Kommunikationspartner auch verstehen (in den Grenzen, die dem Verstehen prinzipiell gesetzt sind). In 7 Kap. 8.3.4 wurde dieses Phänomen als gemeinsame Realitätskonstruktion besprochen (7 Kap. 7). Verstehen ist kein einmal zu erringendes Ergebnis, sondern ein fortwährender Prozess. Zentral für das Verstehen ist die explizite Mitteilung von und das Fragen nach Intentionen und Prognosen. Damit auch neue Teammitglieder in das gemeinsame Verständnis einbezogen werden können, ist es wichtig, Kommunikationsformen zu etablieren, die dies unterstützen, z. B. Teambesprechungen, Briefings etc. Hilfreich ist es, auf eine Balance von Aussagen und Fragen (»advocacy and inquiry«, Argyris & Schön, 1996) zu achten, weil so sichergestellt wird, dass alle zum Gesamtbild beitragen. > Wichtig ist, dass alle Teammitglieder wissen, welche ihrer Informationen für andere wichtig sind, dass geplante Handlungen angekündigt werden und dass bei Unklarheiten nachgefragt wird, was gemeint war. Je größer die Genauigkeit und Übereinstimmung der geteilten mentalen Modelle, desto besser gelingt Koordination auch
157
8.6 • Kommunikation als Sicherheitsressource
unter stressigen Bedingungen (Entin & Serfaty, 1999; Stout, Cannon-Bowers, Salas & Milanovich, 1999).
8.6.3
Informationstransfer sichern
Wenn man etwas sagen will, muss man dafür sorgen, dass es auch übertragen wird und »ankommt«. Zuvor allerdings muss man etwas sagen wollen – und das ist nicht selbstverständlich: Gemäß einer Analyse von 28 000 Zwischenfällen von Piloten und Fluglotsen (aus dem Meldesystem der NASA) ist ein Hauptproblem, dass Informationen nicht weitergegeben werden, weil man denkt, die Informationen seien für die anderen im Team nicht wichtig (Billings & Cheaney, 1981). Informationstransfer beginnt demnach mit der Auswahl der zu übermittelnden Information. Die erste Aufgabe bei der Sicherung des Informationstransfers heißt: »Übermittle Information, die für die anderen wichtig sein könnte (ohne sie mit Nebensächlichem zu überschütten)« – eine Aufgabe, die nur auf der Basis eines geteilten Modells über die Arbeitsaufgaben aller Teammitglieder zu leisten ist.
8
ordiniert werden soll oder wenn ein Missverständnis gravierende Folgen haben kann. Um Missverständnisse zu vermeiden, kann der Sender für Eindeutigkeit auf der Sachebene sorgen. Eine von allen Teammitgliedern geteilte »Phraseologie«, d. h. eine standardisierte Sprache für bestimmte Situationen (s. nächstes Beispiel), ist dafür hilfreich (Reinwarth, 2005). Beispiel Ein Beispiel für Phraseologie in der Luftfahrt ist die Ankündigung eines Notfalls, indem vor den jeweiligen Funkspruch »mayday, mayday« gesetzt wird. Auf dieses Signal hin stehen den Piloten alle nötigen Ressourcen zur Verfügung, die für ein »normales Problem« nicht unbedingt freigestellt werden. In einem Krankenhaus sollte festgelegt sein, wie sofortige Hilfe angefordert wird und wann man sich noch ein wenig Zeit lassen kann (»Frau Doktor, wir brauchen Sie mal in Zimmer 16« ist uneindeutig).
Gerade in kritischen Situationen, unter Stress und Zeitdruck, ist es wichtig, Kanal- und Medienprobleme zu vermeiden: laut genug und deutlich sprechen, Adressaten benennen und klären, ob der Empfänger jetzt gerade zuhören kann (z. B. durch Blickkontakt). Informationen sollten strukturiert und mit wenigen Items pro Satz vorgebracht werden. Insbesondere sollten nicht mehrere Anweisungen in einer Nachricht aufeinander folgen.
Darüber hinaus kann man versuchen, kongruent zu kommunizieren. Das bedeutet, die Aussage der gesprochenen Sprache und die nonverbalen Begleitinformationen stimmen überein. Inkongruente Kommunikation ist eine »Einladung« an die Zuhörenden, die Interpretation zu wählen, die ihren eigenen Motiven und Emotionen entspricht. Kongruente Kommunikation erhöht die Glaubwürdigkeit des Sprechers oder der Sprecherin und hilft Missverständnisse zu vermeiden (Schulz von Thun, 2006). Sie ist allerdings nicht leicht zu erreichen, da die Körpersprache viel weniger der bewussten Kontrolle unterliegt als die gesprochene Sprache und durch Emotionen und Motivationen beeinflusst wird (z. B. Kompetenzverlust, 7 Kap. 6).
z
z
z
Informationstransfer sichern I: Kanalprobleme vermeiden
Informationstransfer sichern II: Missverständnisse vermeiden, eindeutig sprechen
Alltagssprache ist mehrdeutig, unpräzise und gerade deshalb lebendig und kreativ. Für sicheres Handeln ist diese Uneindeutigkeit nur selten förderlich, etwa bei der Suche nach neuen Problemlösungen (also bei kreativen Prozessen). Meist ist Präzision nötig, vor allem, wenn das Handeln vieler Beteiligter mit unterschiedlichem Hintergrund schnell ko-
Informationstransfer sichern III: Kommunikationsschleifen schließen, Redundanz schaffen
Weil Gesagtes nicht gleich Gehörtes und Gehörtes nicht gleich Verstandenes ist, sollten in definierten Situationen Kommunikationsschleifen geschlossen werden: Der Hörer wiederholt, was der Sprecher mitgeteilt hat (z. B. Anweisungen, Zahlen, Ortsangaben). Mit diesem Zurücklesen (»readback«, z. B. Cushing, 1994) kann der Sprecher
158
8
Kapitel 8 • Kommunikation
kontrollieren, ob der Hörer verstanden hat, was er oder sie sagen wollte; Fehler durch Versprechen und durch Verhören werden so vermieden. Bei besonders kritischen Informationen kann sich noch ein »hearback« anschließen, in dem der ursprüngliche Sprecher bestätigt, das »readback« erhalten zu haben. Auch das Melden einer Aufgabenerfüllung dient dem Schließen der Kommunikationsschleife. Beide Kommunikationsformen sind bei der Einführung zunächst ungewohnt (z. B. Zurücklesen von Dosierungen im Krankenhaus), fühlen sich vielleicht sogar albern an. Hat man sich aber daran gewöhnt, sind sie ein ebenso einfaches wie wirkungsvolles Mittel, Fehler zu vermeiden. Zurücklesen ist eine Methode, Redundanz zu schaffen. Generell gilt: Redundante Kommunikation, das Doppeln wichtiger Information und auch der technischen Kommunikationsmittel sichert die Informationsübertragung. Dennoch sollte eine »gesunde Skepsis« beibehalten werden, da Fehler in der Kommunikation nie ganz ausgeschlossen werden können (Buerschaper, 2005). z
Informationstransfer sichern IV: Standardisierte Kommunikation
Standardisierung von Kommunikation ist ein Mittel in Organisationen, um Komplexität zu reduzieren und so Sicherheit zu erhöhen (7 Kap. 17). Standardisierung geht über die oben erwähnte Phraseologie hinaus, denn es wird nicht nur festgelegt, wie etwas sprachlich ausgedrückt wird, sondern auch, wer wann wie mit wem spricht:
5 Anlässe und Zeitpunkte (z. B. Vorbesprechung vor einer Operation, »debriefing« in der Luftfahrt), 5 Medien bzw. Kanäle (z. B. Gesten bei Tauchern, Schriftlichkeit von Anweisungen, Lautsprecherdurchsagen), 5 Verwendete Codes bzw. Zeichen, Art des Sprechens (z. B. Phraseologie der Luftfahrt; Sprechvorschriften im Funkverkehr, internationales Alphabet für das Buchstabieren), 5 Inhalte (z. B. Notrufmeldung, Readbackverfahren).
Sinnvoll eingesetzte Standards sichern die Informationsweitergabe und erleichtern ein gemeinsames Problemverständnis. Standards für Kommunikation haben aber auch Nachteile: 5 Durch die Verwendung gleicher Sprache entsteht eine Illusion über geteilte Ziele und geteiltes Wissen; es wird evtl. nur scheinbar ein geteiltes mentales Modell entwickelt. 5 Standardisierung kann durch Einschränkung der Handlungsfreiheit zu Motivationsverlust führen. 5 Die Ausdrucksfähigkeit wird eingeschränkt (z. B. wenn Piloten auch intern englisch reden sollen). 5 Lernen im Team kann behindert werden, wenn kaum freie Kommunikation möglich ist. 5 Neue Mitglieder in einem Team müssen (implizite) Standards erkennen und erlernen.
Standardisierte Kommunikation Standardisierte Kommunikation soll den Informationstransfer durch Einheitlichkeit und Eindeutigkeit sichern. Sie setzt geteilte Codes (Zeichenvorräte) und gemeinsames Wissen über den Standard voraus sowie eindeutige Intentionen. Standardisierung beschränkt die menschliche Ausdrucksfähigkeit in definierten Situationen, um Interpretationsprobleme zu minimieren Standards beziehen sich auf: 5 Teilnehmer der Kommunikation (z. B. wer eine Checkliste im Cockpit vorliest),
8.6.4
z
Interaktionen gestalten: Wertschätzung, Beharrlichkeit und Konsultation
Vom Nutzen wertschätzender Kommunikation
Eine offene, vertrauensvolle Arbeitsatmosphäre ist wichtig für sicheres Handeln: Nur in einer offenen Atmosphäre ist Kritikbereitschaft und das Ansprechen unklarer Punkte zu erwarten. Vertrauensvolle Atmosphäre ist nicht nur ein Kommunikationsthema, doch es gibt einige einfache Kommunikationsregeln, die helfen können,
159
8.7 • Zusammenfassung und Ausblick
sie zu entwickeln und aufrechtzuerhalten. Diese entsprechen teilweise Ideen zur »gewaltfreien« Kommunikation (z. B. Rosenberg, 2007) oder auch wertschätzender Kommunikation (z. B. Brüggemeier, 2010): 5 respektvoll und höflich miteinander sprechen, 5 Teammitglieder beim Namen kennen und nennen, 5 Lob aussprechen, sich bedanken, 5 um Feedback bitten; bitten, auf Fehler hingewiesen zu werden, 5 sachlich argumentieren und fair kritisieren, 5 nicht über Personen sprechen, sondern mit ihnen und 5 aktiv zuhören. z
Beharrlichkeit: Seine Positionen vertreten
Für eine effektive Teamarbeit ist es wichtig, dass die Absichten und Handlungen jedes Teammitglieds, auch die erfahrener Kollegen und Führungspersonen, hinterfragt werden können. Eine eigene Position muss solange bestimmt und nachdrücklich vertreten werden können, bis Bedenken und Zweifel bezüglich der Richtigkeit einer Handlung von Teammitgliedern ausgeräumt wurden. Ziel dieser Bestimmtheit (»assertiveness«) ist nicht, sich selbst durchzusetzen, sondern durch Klären von Positionen mögliche Fehler zu vermeiden (Jentsch & Smith-Jentsch, 2001; Lorr & More, 1980). Gerade Berufsanfänger stehen gelegentlich in dem Dilemma, dass insistierendes Nachfragen als unerwünschte Störung, als Zeichen der Inkompetenz oder als Übervorsichtigkeit angesehen wird. Dies hat nicht selten zur Folge, dass der Gefragte beginnt, auf der Beziehungsebene herabsetzende Botschaften zu senden. Das kann zu gefährlichen Situationen beitragen, weil einerseits notwendige Informationen vorenthalten werden und andererseits eine spannungsgeladene Atmosphäre entsteht. (Nicht nur) Berufsanfänger neigen in solchen Situationen häufig dazu, sich um des Friedens willen mit unvollständiger Information zufriedenzugeben und allein klarzukommen. Deshalb lautet eine der goldenen Regeln für Kommunikation im Team (aus dem Projekt »Group Interaction in High Risk Environments«, z. B. Sexton, 2004): »For juniors, better to be blatant than to imply.« Das funktioniert aber nur, wenn diese Haltung in der Organisation
8
unterstützt wird und auch von Hierarchiehöheren nachdrücklich eingefordert wird. z
Konsultation, Fragen und »Debriefing«
Nicht nur, wenn Zweifel bestehen, sollte man nachfragen. Eine Frage- und Konsultationskultur ist Aufgabe aller Teammitglieder. Gemeint ist damit einerseits, aktiv Informationen einzuholen – gerade auch von schweigsamen Teammitgliedern und gerade auch Informationen, die den eigenen Plänen widersprechen. Andererseits gehört dazu die Fähigkeit, Feedback zu eigenen Ideen und Plänen zu erbitten. Pullwitt (2008) zeigt bei der Analyse von Sicherheitsgesprächen die Wichtigkeit offener Fragen und gemeinsamer Beratung im Sinne von »was wäre, wenn«. Eine Form des gemeinsamen Beratens, die dem Lernen der Einzelnen und des Teams dient, ist die Nachbesprechung (»debriefing«). In einigen Branchen (z. B. Luftfahrt) und v. a. bei Trainings am Simulator ist es bereits ein Kommunikationsstandard, nach einer Arbeitsaufgabe oder einer Trainingseinheit gemeinsam zu reflektieren (s. dazu z. B. Dismukes & Smith, 2000; Mort & Donahue, 2004). »Debriefings« sind ein wertvolles Lernmittel. Sie können jedoch nur erfolgreich sein, wenn sie eingebettet sind in eine Organisationskultur, die Lernen fördert und Erfahrung wertschätzt (Magyar & Theophilos, 2010). . Abb. 8.3 veranschaulicht die Möglichkeiten, Kommunikation als Ressource für sicheres Handeln in den Bereichen Interaktion und Informationsweitergabe zu stärken. Die Trennung der Bereiche dient nur der Anschaulichkeit: Klarheit der Information hängt natürlich auch von der Qualität der Beziehung ab; assertive (bestimmt auftretende) Teammitglieder fragen nach und sorgen für Wissen etc.
8.7
Zusammenfassung und Ausblick
Kommunikation ist ein zentraler Human Factor, als Unfallursache wie als Sicherheitsressource. Kommunikation umfasst Interaktion und Informationsweitergabe: Immer, wenn Menschen kommunizieren, gehen sie Beziehungen zueinander
160
Kapitel 8 • Kommunikation
Adressat benennen Zuhören sichern
»Kanalstörungen« vermeiden Laut genug und deutlich sprechen
Informationsüberladung vermeiden (kurze Sätze, nur ein Auftrag etc.)
Klar und eindeutig sprechen Phraseologie verwenden
Bestimmt sein Konflikte bearbeiten
Informationsweitergabe
Standards festlegen Rückkoppelung, ReadbackVerfahren nutzen
8
. Abb. 8.3
Interaktion
Gemeinsames Verständnis sichern
Kongruent auf sprachlichem, non- und paraverbalem Kanal
Respektvoll und wertschätzend Konsultations- und Fragekultur entwickeln
Kommunikation als Ressource für sicheres Handeln stärken
ein. Kommunikationsprozesse sind eingebettet in Team, Organisation und Aufgabe und abhängig vom situativen Kontext. Kommunikation ist kein Selbstzweck, sie erfüllt in Teams die Funktionen Strukturierung, Koordination, Informationsverteilung, Schaffen von Beziehungen sowie gemeinsame Realitätskonstruktion. Kommunikationstheorien betonen je nach Ausrichtung den Aspekt der Informationsübermittlung und untersuchen Störungen des Sendens, Übertragens und Empfangens oder sie fokussieren den Interaktionsaspekt und untersuchen Störungen der Beziehungen. Berufliche Kommunikation ist meist verbal. Aber auch nonverbale und paraverbale Anteile der Kommunikation spielen eine große Rolle, vor allem für die Interaktionsebene (wobei ihr Anteil an der Weitergabe sicherheitsrelevanter Information noch nicht hinreichend untersucht ist). Kommunikation kann zur Sicherheitsressource werden, wenn die Informationsübermittlung sichergestellt wird und wenn Beziehungen vertrauensvoll, respektvoll und offen gestaltet werden. Ein zentrales Werkzeug der Verständigung ist die Bil-
dung und Aufrechterhaltung gemeinsamer mentaler Modelle. Aktuelle Themen der Kommunikationsforschung sind die Messung guter Kommunikation, die Entwicklung von (Team-)Trainings sowie die Veränderung von Organisationskulturen. Hierfür sind Analysen verschiedener komplexer Arbeitsfelder nötig, um bestimmen zu können, welche Kommunikationsformen in welcher Situation angemessen sind. Solche Analysen werden bislang selten durchgeführt, u. a. weil sie Vor-Ort-Beobachtungen erfordern und nicht als Laborstudien durchführbar sind. Aktuell werden z. B. in der Luftfahrt und in der Medizin Messinstrumente für Kommunikation entwickelt, sog. Verhaltensmarker (»behavioural markers«, z. B. Fletcher, Flin, McGeorge, Glavin, Maran & Patey, 2004; Yule, Flin, Paterson-Brown & Maran, 2006), um Kommunikation beobachtbar und bewertbar zu machen. Diese Ansätze sind stark teambezogen. Herausforderungen für die Zukunft liegen in der Integration von Organisationstheorien und aktuellen konstruktivistischen und organisationa-
Literatur
len Kommunikationstheorien mit den verhaltensorientierten Ansätzen zur Erfassung und Verbesserung von Kommunikation in Organisationen. Auf der praktischen Ebene liegt die Herausforderung darin, das Wissen über Möglichkeiten gelingender Kommunikation umzusetzen.
Literatur Argyle, M. (2005). Körpersprache und Kommunikation: Das Handbuch zu nonverbaler Kommunikation. Paderborn: Junfermann. Argyris, C. & Schön, D. (1996). Organizational learning II: Theory, method and practice. Reading, Mass: Addison Wesley. Badke-Schaub, P. (2005). Kommunikation in kritischen Situationen. In G. Hofinger (Hrsg.), Kommunikation in kritischen Situationen (S. 3–25). Frankfurt a. M.: Verlag für Polizeiwissenschaft. Bateson, G. (1985). Ökologie des Geistes. Anthropologische, psychologische, biologische und epistemologische Perspektiven. Frankfurt a. M.: Suhrkamp. Billings, C. & Cheaney, E. (1981). The information transfer problem: summary and comments. Information transfer problems in the aviation system. California: NASA. Blumer, H. (1969). Symbolic Interactionism: Perspective and method. Berkeley: University of California Press. Brüggemeier,B. (2010) Wertschätzende Kommunikation im Business. Paderborn: Junfermann. Bühler, K. (1934). Sprachtheorie: Die Darstellungsform der Sprache. Jena: Fischer. Buerschaper, C. (2005). Handlungsregulation und Kommunikation. In G. Hofinger (Hrsg.), Kommunikation in kritischen Situationen (S. 41-61). Frankfurt: Verlag für Polizeiwissenschaft. Cadogan, M. P., Franzi, C., Osterweil, D. & Hill, T. (1999). Barriers to effective communication in skilled nursing facilities: Differences in perception between nurses and physicians. Journal of the American Geriatric Society, 47 (1), 71–75. Cannon-Bowers, J. A. & Salas, E. (2001). Reflections on shared cognition. Journal of Organizational Behavior, 22, 195–202. Cannon-Bowers, J. A., Salas, E. & Converse, S. (1993). Shared mental models in expert team decision making. In N. Castellan (Ed.), Individual and group decision making (pp. 221–246). Hillsdale: Lawrence Erlbaum. Clark, H. H. (1996). Using language. Cambridge: Cambridge University Press. Coiera, E. & Tombs, V. (1998). Communication behaviors in a hospital setting: an observational study. British Medical Journal, 316, 673–676. Cushing, S. (1994). Fatal words: Communication clashes and aircraft crashes. Chicago: University of Chicago Press.
161
8
Dismukes, K. R. & Smith, G. M. (Eds.) (2000). Facilitation and debriefing in aviation training and operations. Aldershot: Ashgate. Entin, E. & Serfaty, D. (1999). Adaptive team coordination. Human Factors, 41 (2), 312–325. Faßler, M. (1997). Was ist Kommunikation? München: Fink. Fletcher, G., Flin, R., McGeorge, P., Glavin, R., Maran, N. & Patey, R. (2004). Rating non-technical skills: developing a behavioural marker system for use in anaesthesia. Cognition, Technology, and Work, 6, 165–171. Frey, D. (1984). Die nonverbale Kommunikation. Stuttgart. Frindte, W. (2001). Einführung in die Kommunikationspsychologie. Weinheim: Beltz. Garrot, S. & Anderson, A. (1987). Saying what you mean in dialogue: A study in conceptual and semantic co-ordination. Cognition, 27, 181–218. Gieseke, M. (2004). Nonverbale Kommunikation. Methoden der kommunikativen Sozialforschung. Online-Dokument, verfügbar unter: http://www.michael-giesecke.de/ giesecke/menue/index_h.html [Zugriff am 12.01.2008]. Habermas, J. (1981). Theorie des kommunikativen Handelns. Frankfurt a. M.: Suhrkamp. Heath, R. & Bryant, J. (1992). Human communication theory and research. Concepts, contexts & challenges. Hillsdale, NJ: LEA. Heringer, H.-J. (2007). Interkulturelle Kommunikation (2. Auflage). Tübingen: Francke UTB. Hohm, H.J. (2006). Soziale Systeme, Kommunikation, Mensch: Eine Einführung in soziologische Systemtheorie. München: Juventa Hofinger, G. (Hrsg.) (2005). Kommunikation in kritischen Situationen. Herausgegeben im Auftrag der »Plattform Menschen in komplexen Arbeitswelten« e. V. Frankfurt a. M.: Verlag für Polizeiwissenschaft. Jentsch, F. & Smith-Jentsch, K. A. (2001). Assertiveness and Team Performance: More Than »Just Say No«. In E. Salas & C. A. Bowers (Eds.), Improving teamwork in organisation. Applications of resource management training (pp. 73–94). New Jersey: Lawrence Erlbaum. Kloepfer, M. (Hrsg.) (2006). Leben im Lärm? Risikobewertung und Regulation des Umgebungslärms im Verkehrsbereich (Bd. 28). Berlin/ Heidelberg: Springer. Köck, W. (1990). Kognition – Semantik – Kommunikation. In S. J. Schmidt (Hrsg.), Der Diskurs des radikalen Konstruktivismus (S. 340–373). Frankfurt a. M.: Suhrkamp. Lasswell, H. D. (1948). The structure and function of communication. In L. Bryson (Hrsg.), The communication of ideas. A series of addresses (S. 37–51). New York: Harper. Leonard, M., Graham, S. & Bonacum, D. (2004). The human factor: the critical importance of effective teamwork and communication in providing safe care. Quality and Safety in Health Care, 13 Suppl 1, i85–i90. Lorr, M. & More, W. (1980). Four dimensions of assertiveness. Multivariate Behavioural Research, 14, 127–138. Luhmann, N. (1981). Die Unwahrscheinlichkeit der Kommunikation. In N. Luhmann (Hrsg.), Soziologische Aufklärung (S. 25–34). Opladen: Westdeutscher Verlag.
162
8
Kapitel 8 • Kommunikation
Luhmann, N. (1984). Soziale Systeme. Frankfurt a. M.: Suhrkamp. Magyar, J. & Theophilos, T. (2010). Review article: Debriefing critical incidents in the emergency department. Emergency Medicine Australasia, 22 (6), 499-506. Maturana, H. & Varela, F. (1987). Der Baum der Erkenntnis. Bern u. a.: Scherz. Mead, G. (1968). Geist, Identität und Gesellschaft. Frankfurt a. M.: Suhrkamp. Mort, T. C. & Donahue, S. (2004). Debriefing: The Basics. In W. F. Dunn (Ed.), Simulators in critical care and beyond (pp. 76–83). Des Plaines: Society of Critical Care Medicine. Pullwitt, T. (2008). Safety Interventions – A Status challenge for managers and supervisors,SPE International Conference on Health, Safety, and Environment in Oil and Gas Exploration and Production. Nice, France: SPE. Reader, T., Flin, R., Mearns, K. & Cuthbertson, B. H. (2007). Interdisciplinary communication in the intensive care unit. British Journal of Anaesthesia, 98 (3), 347–352. Reinwarth, R. (2005). Kommunikation in der Krise – Kommunikationsfallen in der Luftfahrt. In G. Hofinger (Hrsg.), Kommunikation in kritischen Situationen (S. 141–160). Frankfurt a. M.: Verlag für Polizeiwissenschaft. Rosenberg, M.B. (2007). Gewaltfreie Kommunikation: Eine Sprache des Lebens (7. Überarbeitete Auflage). Paderborn: Junfermann. Salas, E., Nichols, D. & Driskell, J. (2007). Testing three team training strategies in intact teams. A meta-analysis. Small Group Research, 38 (4), 471–488 Scherer, K. & Walbott, H. G. (1984). Nonverbale Kommunikation. Empirische Untersuchungen zum Interaktionsverhalten (Beltz Studienbücher). Weinheim/Basel: Beltz. Schoeneborn, D. (2007). Organizations as communications. Examining the value of Luhmann’s social systems theory for organizational communication research. Paper presented at the Annual Meeting of the International Communication Association, Sheraton New York. Schulz von Thun, F. (1981). Miteinander reden (Bd. 1). Reinbek bei Hamburg: Rowohlt. Schulz von Thun, F. (2006). Miteinander reden (Bd.1 Sonderausgabe). Reinbek bei Hamburg: Rowohlt. Schulz von Thun, F., Ruppel, J. & Stratmann, R. (2000). Miteinander reden. Psychologie für Führungskräfte. Reinbek bei Hamburg: Rowohlt. Schweizer, S. (2008). Nonverbale Kommunikation: Signale zwischen Menschen - Formen nichtsprachlicher Kommunikation (Essay). Norderstedt: GRIN. Searl, J. R. (1971). Sprechakte. Ein philosophischer Essay. Reinbek bei Hamburg: Rowohlt. Sexton, J. B. (2004). The better the team, the safer the world. Golden rules of group interaction in high risk environments: Evidence-based suggestions for improving performance. Verfügbar unter: http://www.uth.tmc.edu/ schools/med/imed/patient_safety/Daimler%20Golden%20Rules.pdf [Zugriff am 10.07.2007]. Sexton, J. B., Thomas, E. J. & Helmreich, R. L. (2000). Error, stress, and teamwork in medicine and aviation: cross
sectional surveys. British Medical Journal, 320 (7237), 745–749. Shannon, C. E. & Weaver, W. (1949). The mathematical theory of communication. Urbana: University of Illinois Press. Simon, F. B. (2007). Einführung in die systemische Organisationstheorie. Heidelberg: Carl Auer. Stout, R., Cannon-Bowers, J. A., Salas, E. & Milanovich, D. (1999). Planning, shared mental models, and coordinated performance: An empirical link is established. Human Factors, 41, 61–71. Tschan, F. & Semmer, N. (2000). Wenn alle dasselbe denken: Geteilte mentale Modelle und Leistung in der Teamarbeit. In R. Fisch, D. Beck & B. Englich (Hrsg.), Projektgruppen in Organisationen. Praktische Erfahrungen und Erträge der Forschung (S. 217–235). Göttingen: Verlag für Angewandte Psychologie. Ungerer, D. (2004). Simple speech: Improving communication in disaster relief operations. In R. Dietrich & K. Jochum (Eds.), Teaming up: Components of safety under high risk (pp. 81–92). Aldershot: Ashgate. Van den Bossche, P. (2006). Minds in teams the influence of social and cognitive factors on team learning (Dissertation an der Universität Maastricht). Maastricht: Datawyse. von Eggelkraut-Gottanka, T. (2010). Kommunikation in Forschung und Entwicklung: Konzeption, Messung und empirische Analyse. Wiesbaden: Gabler. Watzlawick, P., Beavin, J. & Jackson, D. D. (2007). Menschliche Kommunikation (11. unv. Aufl.). Bern u. a.: Huber. Yule, S., Flin, R., Paterson-Brown, S. & Maran, N. (2006). Nontechnical skills for surgeons in the operating room: A review of the literature. Surgery, 139 (2), 140–149.
163
Organisationale Einflussfaktoren auf sicheres Handeln Kapitel 9
Organisationen – Kommunikationssystem und Sicherheit – 165 Cornelius Buerschaper
Kapitel 10
Führung – 189 Gudela Grote
Kapitel 11
Neue Formen der Zusammenarbeit – 205 Kristina Lauche
III
165
Organisationen – Kommunikationssystem und Sicherheit Cornelius Buerschaper
9.1
Einleitung – 166
9.2
Organisationen als soziotechnische Systeme – 167
9.3
Organisieren als Prozess – 168
9.4
Organisationen als Kommunikationssysteme – 170
9.5
Organisationale Interaktionen – 172
9.6
Sicherheit organisieren – 175
9.6.1 9.6.2 9.6.3 9.6.4 9.6.5
Sicherheitskultur – 175 Sicherheit und Zuverlässigkeit – 177 Organisationsentwicklung – 178 Crew Resource Management (CRM) – Ein Beispiel für Sicherheitskultur – 180 Barrieren – 181
9.7
Zusammenfassung und Schlussfolgerungen – 184 Literatur – 185
P. Badke-Schaub et al., Human Factors, DOI 10.1007/978-3-642-19886-1_9, © Springer-Verlag Berlin Heidelberg 2012
9
166
Kapitel 9 • Organisationen – Kommunikationssystem und Sicherheit
Beispiel
9
In einem Krankenhaus wurde nach umfangreichen Renovierungs- und Umbauarbeiten der neue OPTrakt fertiggestellt. Trotz der noch ausstehenden Betriebsgenehmigung durch eine kommunale Zulassungsstelle wurde ein OP-Saal wegen einer Notoperation in Betrieb genommen. Der ärztliche Direktor hatte diese Entscheidung getroffen, nachdem er sorgfältig zwischen der Übertretung der gesetzlichen Zulassungsauflage und der optimalen Patientenversorgung abgewogen hatte. Im OPRaum, in dem der Patient operiert wurde, wurde tags zuvor die zentrale Gasanlage von einer Installationsfirma eingebaut und geprüft. Diese Firma verlegte auch die Verbindungsschläuche zwischen Gasanlage und einem neuen Beatmungsgerät für die Narkosegase. Das OP-Team nahm unter dem Zeitdruck der anstehenden Notoperation u. a. dieses neue Beatmungsgerät in Betrieb. Dabei wurde das umfangreiche, checklistengestützte Verfahren zur Inbetriebnahme erheblich abgekürzt. Während der Operation kam es zu einem tödlichen Zwischenfall. Im Nachhinein stellte sich heraus, dass der Patient intraoperativ keinen Herzinfarkt hatte, wie angenommen, sondern an Sauerstoffmangel infolge einer Narkosegasverwechslung verstarb. Die Schläuche für Sauerstoff und Lachgas zwischen der zentralen Gasanlage und dem Beatmungsgerät im OP waren vertauscht.
9.1
Einleitung
Unter dem Begriff »Organisation« untersucht man einerseits das Zusammenwirken von Menschen und Technik in soziotechnischen Systemen, andererseits beschreibt man damit Prozesse des Organisierens als Tätigkeit von Menschen. Ersteres fokussiert auf Anforderungen und Auswirkungen z. B. von Automatisierung auf Arbeitshandlungen, Letzteres auf soziale Interaktionen und Kommunikationen. Organisationen unterliegen Einflüssen ihrer Umgebung (Input), verarbeiten diese Umgebungseinflüsse mittels ihrer internen Strukturen und erzeugen meist mehrere Produkte (Output). Interne Strukturen lassen sich auf den Ebenen Arbeitsplatz bzw. Arbeitsaufgaben, Technikdesign, Prozessorganisation und Management unterscheiden.
Das Fallbeispiel zeigt, dass die Organisation Krankenhaus, der technische Dienstleister, gesetzgebende und kontrollierende Behörden, die verwendeten technischen Einrichtungen sowie die Mitarbeiter und Mitarbeiterinnen an ihren Arbeitsplätzen in Wechselbeziehungen stehen. Das Beispiel macht sichtbar, dass die internen Strukturen der Organisation Krankenhaus kaskadenartig das Handeln der Mitarbeiter beeinflussen und bestimmte Freiheitsgrade für Entscheidungen determinieren. In einem Krankenhaus – wie in jeder anderen Organisation auch – greifen viele Prozesse ineinander, die z. T. zeitversetzt anlaufen und in unterschiedlichen Substrukturen der Organisation (z. B. im technischen Einkauf) sowie außerhalb der Organisation ihren Ursprung haben (z. B. im technischen Support des Medizingeräteherstellers). Ziel dieses Kapitels ist es, das systemische Verständnis von Organisationen bezüglich der Human Factors zu vertiefen, d. h. nicht nur die Beeinflussung von Menschen durch ihre materielle, technische und informationelle Umgebung zu thematisieren, sondern auch die Interaktionen zwischen den Menschen zu untersuchen und die vielfältigen Wechselwirkungen zwischen »Sozial-System« und »Technik-System« deutlich zu machen. Das soziale (Teil-)System wird durch Interaktionen der Mitglieder dieses Systems hervorgebracht. Das Denken und Handeln der Mitglieder einer Organisation – genauer die Inhalte und die Art und Weise ihrer Kommunikation – determinieren sowohl ihren Umgang mit der materiell-technischen Umgebung als auch ihre anschließenden Handlungen und Kommunikationen. Im Eingangsbeispiel ist nicht nur ein Fehler in der materiellen Struktur zu beobachten, nämlich die Verwendung verwechselbarer Schlauchverbindungsstücke, sondern auch Kommunikationsanomalien im Prozess des Organisierens bei der Inbetriebnahme eines neuen OPs. Die fehlende Betriebsgenehmigung wurde nicht zum Anlass genommen, erhöhte Aufmerksamkeit auf die Inbetriebnahme des Narkosegeräts zu richten. Wie hätte das geschehen können? Durch Kommunikation, da durch Kommunikation hätte erreicht werden können, dass
167
9.2 • Organisationen als soziotechnische Systeme
5 die Aufmerksamkeit von Menschen auf bestimmte Gegenstände und (sicherheitsrelevante) Prozesse gerichtet wird (7 Kap. 4), 5 ein gemeinsamer gedanklicher Rahmen geschaffen wird (7 Kap. 7) und 5 konkrete Arbeitshandlungen für andere Menschen überprüfbar werden (7 Kap. 8). Bestimmte Formen von Kommunikation können somit die Redundanz im gesamten soziotechnischen System erhöhen, was ein Merkmal einer zuverlässigen Organisation und ihrer Sicherheitskultur ist. Das Thema dieses Kapitels hat mit der Frage zu tun, inwiefern Menschen durch fortlaufende Interaktionen und Kommunikationen ein soziales System bilden, wie organisationsspezifische Regelhaftigkeit entsteht und welche Auswirkungen damit verbunden sind für das sichere oder unsichere Handeln einzelner Akteure. Die organisationsspezifischen Regelhaftigkeiten menschlicher Kommunikationen beschreibt der Begriff »Sicherheitskultur«. Für die Sicherheitskultur (7 Kap. 2.4) spielen weitere Faktoren eine Rolle: 5 Wie werden arbeitsteilige Prozesse organisiert? 5 Welche entsprechenden Kommunikationsmuster können (und sollten) Organisationen entwickeln? Arbeitsteilige Prozesse machen fortlaufende Kommunikation notwendig; die Menschen, die in und während der verschiedenen Arbeitsprozesse miteinander reden, erzeugen typische »Muster« menschlicher Kommunikation. Kommunikationsmuster verbinden das Denken und Handeln der beteiligten Akteure in einem arbeitsteiligen Prozess. Insofern determinieren Kommunikationsmuster, wie erfolgreich und zuverlässig Menschen zusammenarbeiten. Ferner befasst sich das Kapitel mit dem Stellenwert von Sicherheitsbarrieren, personalwirtschaftlichen Maßnahmen wie Training und Ausbildung sowie Entscheidungen auf der oberen Managementebene, die u. a. organisationale Lernprogramme auf den Weg bringen.
9.2
9
Organisationen als soziotechnische Systeme
Organisationen sind von ihrer Umwelt unterschiedene Systeme, in denen Menschen, Technik und Prozesse in vielfältigen Interaktionen zusammenwirken. Das Konzept von Organisationen als soziotechnische Systeme entstand am Tavistock Institut London nach Studien im britischen Bergbau (Trist & Bamforth, 1951): Die Einführung neuer Abbaumethoden führte zunächst zu Streiks und Unruhen, da sie die gewachsene soziale Strukturen unter den Bergleuten zerstörte. Beim manuellen Abbau arbeiteten Bergleute in kleine Gruppen zusammen, teilten ihren Lohn und standen gegenseitig für ihre Sicherheit und das Überleben ihrer Familien ein. Die neue so genannte Longwall-Methode war dagegen hochgradig arbeitsteilig und wurde von den Bergleuten als Sicherheitsrisiko erfahren. Erst als es gelang, die Arbeitsform im Team mit der LongwallMethode zu verbinden, konnte sich der Nutzen der neuen Technologie erweisen. Emery und Trist (1965) formulierten aufgrund dieser Studien den soziotechnischen Systemansatz. Im deutschsprachigen Raum wurde der Ansatz vor allem von Ulich und Kollegen aufgegriffen (Ulich, 2005; Strohm & Ulich, 1997). Allgemein betrachten systemtheoretische Ansätze Organisationen analog zu biologischen Organismen, die in einer Input-Output-Relation zu ihrer Umgebung stehen und dabei ihr Überleben durch permanente interne Operationen sichern (Maturana, 1982). Organisationen verarbeiten Inputs: Informationen, Kapital, Energie sowie materielle Rohstoffe und erzeugen auf der Outputseite wiederum Informationen, Produkte, Dienstleistungen etc. Das »Überleben« von Organisationen hängt u. a. von der Beschaffenheit interner Strukturen, Prozesse und Technologien ab. Dabei besteht eine prinzipielle Offenheit gegenüber der Zukunft: Dass eine Organisation heute erfolgreich operiert, sagt zunächst nur aus, dass sie heute erfolgreich ist. Weitere Schlussfolgerungen über die »Fitness« für zukünftige Herausforderungen sind nicht ableitbar. In komplexen und dynamischen Umfeldern (z. B. globale Finanzmärkte, politische Reformprozesse) bilden erfolgreiche Organisationen komplexe Strukturen aus; eine häufige Antwort auf die
168
Kapitel 9 • Organisationen – Kommunikationssystem und Sicherheit
gestiegene Umweltkomplexität ist organisationale Komplexitätserhöhung (z. B. durch Unternehmensverbindungen) statt Reduktion und Vereinfachung (Jemison & Sitkin, 1986; 7 Kap. 17). Auch die Tendenzen zur Konzentration auf die »Kernkompetenzen«, das Auslagern sekundärer Dienstleistungsprozesse oder personalwirtschaftliche Modelle wie Leiharbeit dienen nur scheinbar der Komplexitätsreduktion. Zwischen vielen (neuen) Organisationen entstehen wiederum komplexe Strukturen. Diese Komplexität zu managen heißt, Lösungen im Umgang mit vielfältigen und meist neuartigen Problemen zu organisieren, die sowohl aus den Mensch-Technik-Interaktionen als auch aus den Mensch-Mensch-Interaktionen innerhalb und zwischen Organisationen herrühren (Baecker, 1997). z
9
Individualpsychologische Betrachtung
Die humanen Akteure und ihre soziale Struktur, die wir als »Organisation« bezeichnen – die Mitarbeiter, Techniker, Managerinnen eines Unternehmens – stehen insofern im Vordergrund der Betrachtung, da sie als handelnde Menschen oftmals als Verursacher von Fehlentscheidungen, Unfällen und Unsicherheiten angesehen werden. Daher liegt der Fokus auf den Akteuren innerhalb soziotechnischer Systeme, d. h. ihre Denk- und Handlungsprozesse werden in Relation zu ihren Arbeitsaufgaben, den dabei verwendeten Werkzeugen und Techniken untersucht. Diese individualpsychologische Betrachtung von Human Factors ist nützlich, weil man etwas über Denken, Entscheiden und die Motivation von Mitarbeitern einer Organisation aufdeckt, auch wenn eine ausschließlich personenzentrierte Sichtweise zu kurz greift und wenig über die Sicherheitskultur einer Organisation aussagt (Reason, 2000; 7 Kap. 3). z
und Handeln beeinflusst werden (Flin, O’Connor & Crichton, 2008). Mit dem »scharfen Ende« einer Organisation ist eine Arbeitsausführungsebene gemeint, auf der Operateure direkt eingreifen in hochkomplexe technische und mitunter risikobehaftete Systeme (z. B. Ingenieure im Leitstand eines AKW). Die Kernidee der gekoppelten »soziotechnischen« Systeme kommt darin zum Ausdruck: Operateure bedienen ein Techniksystem, aber innerhalb ihrer gesamten Organisation sind historisch gesehen viele Entscheidungen von anderen Organisationsmitgliedern getroffen worden, die als Bedingungen, Regeln und Restriktionen die aktuelle Arbeitssituation beeinflussen. Dabei ist leicht nachzuvollziehen, dass zeitlich zurückliegende Entscheidungen über Technologien, Werkzeuge, Displays etc. als »harte« Bedingungen wirksam sind. »Weiche« Bedingungen sind meist schwieriger zu operationalisieren: Werthaltungen von Operateuren, Kommunikationsmuster in Teams, ungeschriebene Regeln und Normen in der Zusammenarbeit. Diese weichen Bedingungen entstehen in sozialen Prozessen. Sie unterliegen einer Eigendynamik, haben eine Geschichte und werden täglich in Kommunikationsprozessen reproduziert bzw. verändert. Insofern wird durch Kommunikationen und die individuelle Verarbeitung der kommunizierten Informationen ein einzigartiges Sozialsystem gebildet – das ist der Fokus organisationspsychologischer Untersuchungen. > Organisationen sind von ihrer Umwelt unterscheidbare Systeme, die in vielfältigen Relationen mit der Organisationsumwelt verknüpft sind. Organisationen als soziotechnische Systeme bilden interne Strukturen, bei denen Menschen und Technik interagieren. Technik- und Sozialsystem einer Organisation sind historisch gewachsen, unterliegen Veränderungen und folgen eigenen »Gesetzen«.
Organisationspsychologische Betrachtung
Eine organisationspsychologische Betrachtung von Human Factors befasst sich mit dem gesamten System aus Technik, Prozessen und menschlicher Kommunikation. Beispielsweise zeigen Unfallanalysen auf, dass die »Operateure am scharfen Ende des Systems« durch eine Reihe von Beschränkungen, Vorgaben und Entscheidungen aus anderen Subsystemen einer Organisation in ihrem Denken
9.3
Organisieren als Prozess
Organisieren fasst eine Reihe von Denk- und Kommunikationstätigkeiten zusammen, die auf
169
9.3 • Organisieren als Prozess
die eingangs beschriebene Input-Output-Relation und deren Gegenstände angewendet werden. Menschen in Organisationen entwickeln ein gemeinsames Verständnis über angemessene Maßnahmen, angemessene Interpretationen von Ereignissen und über das erfolgreiche Zusammenspiel von individuellen Handlungen, die zur Bewältigung der wahrgenommenen Ereignisse und Probleme in ihrer Technik- und ihrer Organisationsumwelt erforderlich sind. Menschen in Organisationen beobachten, was sie miteinander tun (in Bezug auf die inhaltlichen Ergebnisse) und wie sie miteinander interagieren, d. h. wie ihr Kommunikationssystem beschaffen ist. Daher wissen Mitarbeiter und Mitarbeiterinnen einer Organisation wenigstens implizit um die »Regeln«, die in bestimmten Kommunikationssituationen gelten, z. B. ob und wann man mit welchen Worten eine Führungskraft auf einen Fehler hinweisen kann. Insbesondere Führungskräfte versuchen mit ihrem Wissen um Regeln des Kommunikationssystems, auf Ergebnisse und Prozesse einzuwirken – das zeichnet sie als »Manager« aus. Organisationstheoretisch lässt sich der Ausgangspunkt des Organisierens durch folgende Tätigkeiten zusammenfassen:
» Die wichtigsten Probleme, über die beim Organisieren Konsens erzielt werden muss, betreffen die Regeln für den Aufbau von sozialen Prozessen aus Verhaltensweisen und Interpretationen, welche den verwirrenden Eingaben in diese Prozesse auferlegt werden können. (Weick, 1995, S. 12)
«
Organisieren heißt also, Konsens darüber zu erzielen, wie mit Irritationen, Ereignissen oder mehrdeutigen Problemen innerhalb und außerhalb der Grenzen einer Organisation umgegangen wird. Organisieren stellt einen kontinuierlichen Prozess dar, in dem sich individuelle Denk- und Interpretationsmuster und organisationale Kommunikationsmuster synchron entwickeln. Jedes Organisationsmitglied denkt individuell anders über beobachtete Ereignisse, bildet individuelle Gedächtnis- und Wissensstrukturen und zieht im Sinne der Interpretation andere Schlussfolgerungen, die in nachfolgenden Handlungen zutage treten. Organisationale Kommunikationen – die gemeinsame Verständigung darüber, wie Ereignisse interpretiert
9
werden sollten – erzeugen konsensuelle Wissensstrukturen. Man spricht hier auch von »mentalen Landkarten« (bzw. mentalen Modellen, 7 Kap. 7), die, je ähnlicher sie in den Köpfen der Organisationsmitglieder sind, das gemeinsame »Navigieren« erleichtern. Organisieren basiert auf der Entwicklung einer Art »Grammatik«, die die Organisationsmitglieder auf das Rohmaterial der Ereignisse anwenden. Für die Mitglieder einer Organisation, die die Benutzer und Träger dieser Grammatik sind, folgen daraus mehrere Konsequenzen (Weick, 1995): 5 Sie müssen Interpretationsweisen von- und miteinander erlernen. Je weiter dieser Lernprozess fortgeschritten ist, umso weniger wird die Organisation durch Ereignisse überrascht. Außerdem wird das Erlernen der gemeinsamen Interpretationsweisen in Organisationen zunehmend formalisiert, z. B. in Trainings, Handbüchern, Prozessdokumentationen. Für unerwartete Ereignisse, die etwa die Sicherheit von Organisation und Umwelt betreffen, müssen vorausschauend Wahrnehmungs- und Interpretationsschemata entwickelt und »vorgehalten« werden, z. B. Notfall- und Krisenpläne, Worst-case-Szenarien. 5 Organisationsmitglieder bilden zunehmend differenziertere Erwartungen an die korrekte Verknüpfung von Verhaltensweisen anderer Organisationsmitglieder. Man erwirbt nicht nur für Ereignisse gemeinsame (kognitive) Schemata, sondern auch für die angemessene Benutzung der kommunikativen »Spielregeln«. Diese Erwartungen an Verhaltensweisen von anderen Organisationsmitgliedern stabilisieren das soziale System und bilden die individuellen Grundlagen wiederkehrender und als »regelhaft« wahrgenommener Kommunikations- und Interaktionsmuster. Menschen sind erwartungsgesteuerte Wesen, die stabile Wahrnehmungs- und Interpretationsmuster bevorzugen. Diese Erwartungsstabilität bekommen Führungskräfte u. a. bei der Einführung neuer Verhaltensmuster, Regeln oder Vorschriften als »Widerstand« zu spüren. 5 Organisationsmitglieder profitieren individuell von der zunehmenden Sicherheit, mit der mehrdeutige Informationen innerhalb einer
170
9
Kapitel 9 • Organisationen – Kommunikationssystem und Sicherheit
Organisation in angemessene Eindeutigkeit umgewandelt werden. Das gelingt Organisationsmitgliedern, indem sie einen Teil ihrer Arbeitszeit darauf verwenden, einander zu erklären, was passiert ist und wie darauf reagiert wurde. 5 Organisationen formalisieren die kollektiven Diskurse z. B. in Form von Meetings, Zirkeln, Konferenzen und verstärken infolge der eingeführten Diskursordnungen bestimmte Wahrnehmungen, Denkweisen, Verhaltensweisen und Verhaltenserwartungen. Sie stabilisieren so ihr Kommunikationssystem. Als Kehrseite zunehmend stabiler und regelhafter Diskurse wächst die Gefahr, für neuartige Ereignisse und Prozesse keine angemessene gemeinsame Sprache und Diskursform zur Verfügung zu haben. Mit anderen Worten: Organisationen, die nicht gelernt haben, Sicherheitsdiskurse zu führen, haben Schwierigkeiten mit der Wahrnehmung und kollektiven Diskussion neuartiger, sicherheitsrelevanter Ereignisse. > Durch die Prozesse des Organisierens werden die »mentalen Landkarten« der Organisationsmitglieder aufeinander abgestimmt. Infolge der gemeinsamen organisationalen Lerngeschichte gelingt es Organisationsmitgliedern, zunehmend Unsicherheit über ihre Handlungen zu absorbieren, ihre Handlungen zu koordinieren und schließlich formale Muster der Kommunikation zu entwickeln.
Die aus theoretischen Überlegungen zum Prozess des Organisierens abgeleiteten Erkenntnisse über soziotechnische Systeme werden in den folgenden Abschnitten spezifiziert und anschließend auf organisationale Sicherheitsthemen bezogen.
9.4
Organisationen als Kommunikationssysteme
Organisationen erschaffen und erhalten ihre Strukturen in der Auseinandersetzung mit der Systemumwelt selbst. Dabei treffen wir auf die paradoxe Situation, dass Organisationen nur durch Aktivitäten so bleiben, wie sie sind, d. h. ihre strukturelle
Identität, ihre Unverwechselbarkeit in Bezug auf andere Organisationen und ihre Leistungen sind das Ergebnis permanenter Prozesse, die Energie, Kapital, Wissen und andere Ressourcen in Bewegung halten. Organisationen verändern über die Zeit ihre Strukturen als Produkt ihrer eigenen Aktivitäten, was einem Lernprozess gleichkommt. Dieses »Lernen der Organisation« findet statt, weil die Mitglieder einer Organisation ständig kommunizieren. Das soziale System Organisation wird daher auch als Kommunikationssystem konzipiert (z. B. Luhmann, 1984), d. h. es wird aus Kommunikationen gebildet, die von den Mitgliedern hervorgebracht und zugleich beobachtet werden (. Abb. 9.1). In diesem Sinn sind die Mitglieder eines sozialen Systems Beobachter und damit Umwelten ihres eigenen Kommunikationssystems. Das, was an jeder Organisation beobachtbar ist, z. B. gemeinsame Regeln, wiederkehrende Kommunikationsmuster, koordiniertes Verhalten von Mitarbeitern und Organisationseinheiten, wird konzeptionell von den Personen und ihren psychischen Prozessen getrennt (Simon, 2006). Das Kommunikationssystem wird gebildet aus 5 Informationen, 5 dem Prozess des Mitteilens oder Übermittelns der Information und 5 dem Verstehensprozess des Empfängers (Rezipienten). Jede Interaktion zwischen Mitgliedern einer Organisation bildet ein solches Kommunikationssystem (Nerdinger, Blickle & Schaper, 2011), d. h. Kommunikationssysteme existieren solange, wie es genügend Akteure gibt, die daran teilhaben, indem sie Informationen zwischen Mitteilen und Rezipieren »bewegen«. Kommunikation ist das gemeinsame »Spiel«, das die »Spielerinnen« und »Spieler« (Beobachter) miteinander spielen. Wie sie das tun und wie erfolgreich sie dabei sind, hängt nicht nur von ihren individuellen Fähigkeiten, Kompetenzen oder fachlichem Wissen ab, sondern auch von bestehenden Kommunikationsmustern innerhalb des sozialen Systems. So könnten beispielsweise fachlich hochqualifizierte Mitarbeiter über nützliches Fachwissen verfügen; sollten sie aber durch die Regeln im Kommunikationssystem nicht »angespielt«
171
9.4 • Organisationen als Kommunikationssysteme
Individuelle Denkprozesse Wahrnehmung Selektion Vereinfachung Entscheidung
Information Mitteilen Rezipieren Mitteilen Rezipieren
9
Individuelle Denkprozesse Wahrnehmung Selektion Vereinfachung Entscheidung
Mitteilen...
Beobachter
. Abb. 9.1
Kommunikationssystem
Beobachter
Organisationen als Kommunikationssysteme
werden, d. h. nicht in Kommunikationssysteme involviert sein, kann ihr Wissen in der Organisation nicht genutzt werden. Untersuchungen von Störfällen in Energieunternehmen haben gezeigt, dass die versammelte Expertise in einer Leitwarte nicht gleichbedeutend mit guten Problemlösungen ist. Alle Experten müssen durch Kommunikationsregeln »angespielt« werden können. Kommunikationssysteme mit dysfunktionalen Regeln wie z. B. »Ein-Weg-Kommunikation« statt »Drei-Wege-Kommunikation« führen dazu, dass das Wissen bestimmter Personen nicht in den laufenden Entscheidungsprozess integriert wird. Sicherheit stiftende Kommunikationsregeln, die z. B. auf Redundanzprinzipien zur Absicherung korrekter Mitteilungs- und Verstehensprozesse (7 Kap. 8) beruhen, sind u. a. in der Luftfahrt weit entwickelt und werden von anderen Organisationen rezipiert (Tsang & Vidulich, 2002; Davies, 2005; Awad et al., 2005). Prinzipiell sind in sozialen Systemen sehr viele Möglichkeiten vorhanden, Kommunikationssysteme zu bilden und die potenzielle Variationsbreite zu nutzen. Da aber Kommunikationssysteme mensch-
lichen psychischen Prozessen unterworfen sind (Vergessen, Ergänzen von Informationen, Missverstehen), findet in Organisationen eine Selektion und Verstärkung für bestimmte Kommunikationssysteme statt. Auffällige, häufig wiederholte oder unmittelbar einsichtige Informationen bekommen eine höhere Wahrscheinlichkeit, in anschließenden Kommunikationssystemen wieder verwendet zu werden. Charakteristisch für eine Phase der Stabilisierung sind zwei Aspekte: 5 Wer häufig in Kommunikationssystemen »angespielt« wird und »weiterspielt«, bleibt erfolgreich im System und kann die Spielregeln zunehmend besser erlernen. 5 Informationen, die in Kommunikationssystemen weitergegeben werden, beschäftigen als »Themen«, Probleme oder Lösungen viele Mitglieder einer Organisation. Die Verknüpfung zwischen den Menschen, aus denen eine Organisation besteht, und dem Kommunikationssystem wird aus der Vielzahl gemeinsam beobachteter Handlungen gebildet. Die individuellen Denk- und Entscheidungsprozesse von
172
Kapitel 9 • Organisationen – Kommunikationssystem und Sicherheit
Organisationsmitgliedern werden durch Kommunikationen angestoßen, d. h. durch Information – Mitteilung – Verstehen, und führen zu wiederum beobachtbaren Handlungen. Erfolgreiche Handlungen erzeugen in der Regel weitere Kommunikationen, sodass ein stabiles System entsteht. Was als erfolgreiche Handlung bewertet wird – beispielsweise regelkonformes Sicherheitsverhalten – ist abhängig von den Selektions- und Verstärkungsprozessen des Kommunikationssystems und davon, ob solche Handlungen viele Nachahmer finden. > Es ist eine wichtige Führungsaufgabe, Kommunikationssysteme zu etablieren, die erfolgreiche Handlungen der einzelnen Mitarbeiter ermöglichen, d. h. individuell »richtige« Denk- und Entscheidungsprozesse anregen, die wiederum durch Kommunikationen mit anderen Mitarbeitern verstärkt werden. Die Kopplung individueller psychischer Prozesse (Denken, Entscheiden, Handeln) mit dem jeweiligen Kommunikationssystem führt zu dem, was Organisationen unverwechselbar macht: gemeinsam geteilte Werte, regelkonformes Verhalten, sprachliche Standards, Konfliktkultur und ähnliche beobachtbare Muster des gemeinsamen Handelns.
9
9.5 z
Organisationale Interaktionen Ebene der Arbeitsaufgaben und -anforderungen
Die für die Systemsicherheit relevanten Interaktionen in einer Organisation lassen sich auf verschiedenen Ebenen beschreiben (Leveson, 2002). Die Ebene der Arbeitsaufgaben und der mit ihnen verbundenen Arbeitsanforderungen beschreibt Art und Umfang, Werkzeuge und Randbedingungen der Ausführung von Arbeitstätigkeiten. Hier steht der materielle und informationelle Gegenstand der Arbeit im Fokus. Das ist die Ebene, auf der Mitarbeiter direkt mit dem Techniksystem interagieren. Wichtige Konzepte stammen aus der kognitiven Ergonomie und Arbeitspsychologie. Relevante Begriffe dieser Ebene sind »Arbeitsplatzgestaltung«, »Mensch-Maschine-Interfacedesign«,
»Tätigkeitsspielraum«, »Über-« bzw. »Unterforderung«, »workload« und »aktive Fehler (Überblick z.B. in Hacker, 2005; Proctor & Van Zandt, 2008). z
Ebene der Maintenanceaufgaben
Die zweite Ebene betrifft die Maintenanceaufgaben (Instandhaltung; auch 7 Kap. 14). Technik wird durch Wartung und Instandhaltung permanent verändert. Folglich greifen Maintenanceaktivitäten im Sinne latenter Bedingungen in die Organisation ein und werden auf der Ebene der Aufgabenerfüllung wirksam (Reason & Hobbs, 2003). Im geschilderten Eingangsbeispiel ist im Maintenancebereich eine Verwechslung von Gasleitungen passiert, die das operierende Ärzteteam ihrer erwarteten Handlungsoptionen beraubt und zum unbeabsichtigten Tod eines Patienten geführt hat. z
Designebene
Drittens grenzen wir die Designebene ab, auf der Entscheidungen über Prozeduren und technische Interfaces getroffen werden. Somit knüpft die Gestaltung von Mensch-Technik-Interfaces und die Festlegung von Prozeduren unmittelbar an die Arbeitsaufgaben an (auch für Maintenancearbeitsaufgaben) und legt durch Designentscheidungen fest, wie Arbeitstätigkeiten ausgeführt und erlebt werden und welche menschlichen Ressourcen dabei beansprucht werden (Reason & Hobbs, 2003; Proctor & Van Zandt, 2008). Designentscheidungen schaffen ebenso die latenten Bedingungen für aktive Fehler (7 Kap. 3), andererseits sind sie eine wichtige Voraussetzung für Fehlervermeidung und für die Minimierung der Folgen eingetretener Fehler. Hier wird auch die Automatisierung wirksam (7 Kap. 19), die paradoxerweise zu einem größeren Umfang der nun notwendigen Prozeduren für die Menschen in hochautomatisierten Techniksystemen führt (Sträter, 2005). Wichtige Konzepte auf der Designebene sind mit den Begriffen »Barrieregestaltung«, »defence in depth«, »partizipative Designentwicklung« verbunden. z
Management- bzw. Organisationsebene
Viertens fasst man die Arbeitsanforderungen des Planens für den Einsatz von Ressourcen (Energie, Menschen, Finanzen etc.) auf der Managementoder Organisationsebene zusammen. Typische
173
9.5 • Organisationale Interaktionen
Managemententscheidungen mit Auswirkung auf das erfolgreiche Operieren einer Organisation sind Personalentscheidungen, Investitionsentscheidungen und die Strukturierung der formalen »Architektur« einer Organisation, die sich in der funktionalen Gliederung und Hierarchisierung einer Organisation niederschlägt, z. B. im Führungssystem; außerdem Berichtspflichten, Kontrollfunktionen, Kooperation mit externen Firmen (Nerdinger, Blickle & Schaper, 2011). Ebenfalls dem Management einer Organisation zugeordnet sind die Anforderungen der regulatorischen Ebene, d. h. an der Schnittstelle zur legislativen Organisationsumwelt sind rechtliche Bestimmungen, Auflagen und Vorgaben organisationsintern in Maßnahmen umzusetzen. Das betrifft sowohl Material (z. B. Brandbekämpfungstechnik) als auch informationelle Prozesse (z. B. Räumungsübung mit Mitarbeitern) die Arbeitssicherheit betreffend bis hin zu personellen Maßnahmen (z. B. Qualifikationsnachweis für Mitarbeiter). Die Verarbeitung von Entscheidungen, die außerhalb der Organisation auf der Regulationsebene (Gesetzgeber, Verbandsorganisationen, Kontrollinstanzen) getroffen werden, greift das obere Management einer Organisation auf und setzt diese Entscheidungen organisationsintern um. Die regulatorische Ebene ist somit z. T. in eine Organisation inkorporiert und kann bis auf die erste Ebene der direkten Bewältigung von Arbeitsaufgaben durchgreifen. Schließlich ist die Managementebene auch mit der Einführung von Programmen befasst, die zu Lern- und Veränderungsprozessen in der Organisation führen. Damit greift das Management mit mächtigen Instrumenten in die Entwicklung des Kommunikationssystems ein und kann das Kommunikationssystem der Mitarbeiter u. U. zu einer exzellenten Sicherheitskultur anregen. Die bewusste Initialisierung und Steuerung von Veränderungs- und Entwicklungsprozessen in Organisationen beruht auf Konzepten der Organisationsentwicklung: organisationales Lernen, Teamlernen, Achtsamkeit, Sicherheitskultur, Sicherheits- und Organisationsklima (Senge, 1990; Kayes, Kayes & Kolb, 2005; Weick & Sutcliffe, 2010; Pidgeon, 1991; Zohar, 2000). Die Komplexität der Beeinflussung von organisationalen Ebenen, die zu materiellen, personellen
9
und prozeduralen Veränderungen in Organisationen führt, wird vereinfacht in . Abb. 9.2 dargestellt. Die Vielfalt des individuellen Handelns von Mitarbeitern wird durch Kommunikationen an die verschiedenen Arbeitsebenen gekoppelt. z
Interaktionen zwischen den einzelnen Arbeitsebenen
Auf jeder Arbeitsebene begegnen Menschen spezifischen Anforderungen und sind in kognitiver, motivationaler und emotionaler Hinsicht spezifischen Beanspruchungen ausgesetzt. Die Besonderheit einer Organisation besteht zunächst darin, dass die individuell wirksamen Entscheidungskonflikte der Mitarbeiter (wie tut man etwas »richtig«) zeitgleich und parallel existieren können, ohne zwingend das erfolgreiche Zusammenspiel aller Handlungen in der Organisation zu gefährden. Eine einzelne Fehlentscheidung löst noch keine Katastrophe aus, dennoch sind Entscheidungen der Mitarbeiter einer Organisation auf vielfältige Weise miteinander gekoppelt (7 Kap. 3). Die Lösungen von Ziel- und Entscheidungskonflikten auf den unterschiedlichen Arbeitsebenen einer Organisation stellen latente und sichtbare Bedingungen für das Handeln von Menschen in Organisationen dar. Deutlich werden solche Interaktionen zwischen Arbeitsebenen z. B. bei Designentscheidungen und den dadurch ausgelösten Denk- und Handlungsprozessen der Mitarbeiter. Eine neue Generation von Narkosegeräten mit integrierten Funktionen u. a. für Dokumentation und Verlaufskontrolle verlangt am Arbeitsplatz des Arztes umfangreiche Eingaben in verschiedene Menüstrukturen der Software. Solche Prozesse benötigen Zeit und Aufmerksamkeit, die für andere Narkoseaufgaben nicht mehr (wie gelernt, wie gewohnt) zur Verfügung stehen. Der gesamte Prozess der Narkoseführung muss nun vom Arzt reorganisiert werden – mit welchen Auswirkungen für die Patientensicherheit oder die Teamkommunikation ist unklar und kann in vollem Umfang gar nicht bedacht werden von den Personen im Management, die die Entscheidung über die Einführung technischer Geräte getroffen haben. Für das erfolgreiche koordinierte Handeln in Organisationen ist daher die Kommunikation von Entscheidungen (z. B. über Personaleinsatz,
174
Kapitel 9 • Organisationen – Kommunikationssystem und Sicherheit
Regulatorische Ebene
Gesetzgeber, Behörden, Kontrollinstanzen
Umwelt der Organisation (Wettbewerb, Kooperationspartner)
z. B. Fehlerkommunikation verstärken Organisationale Ebene
Management
Verhalten auf den Ebenen
Maintenance
Designebene
Interface- und Technikdesign
Kommunikationen
Individuelle Denk- und Entscheidungsprozesse
Prozeduren, Automation, SOPs Verhalten auf den Ebenen Arbeitsebene
Arbeitsaufgaben: Art, Umfang, Randbedingungen, Anzahl, Tools
9
z. B. Fehler entdecken . Abb. 9.2
Fehler melden
Zusammenhang von Arbeitsebenen, Kommunikationen und individuellen Denkprozessen
Technik- und Designentscheidungen, Barrieren, Organisationsentwicklungsprogramme) wichtig, insbesondere an den Schnittstellen zwischen verschiedenen Arbeitsebenen. Beispiel Organisationale Interaktionen im Fallbeispiel Gasanlagen haben normalerweise eine farbliche Kennzeichnung, die Anschlüsse sind genormt und durch unterschiedliche Größen für jede Gasart unverwechselbar. Da aber Krankenhäuser aufgrund baulicher Besonderheiten unterschiedliche hauseigene Gasversorgungen installieren, können auch spezifische Anpassungen des allgemeinen Standards für Gasanschlüsse vorgenommen werden, z. B. durch die Verwendung von Reduzierventilen und flexiblen Gasschläuchen, die eine Verbindung zwischen zentraler Gasanlage und den im OP verwendeten Narkosegeräten herstellen. Interaktionen bestehen im Fallbeispiel zwischen der kommunalen Kontrollbehörde, der beauftragten externen Installationsfirma, dem OPPersonal, welches das Narkosegerät anschließt, und
dem OP-Team, welches das Gerät in Betrieb nimmt und wegen der Notoperation unter Zeitdruck steht. Um die Ausweitung von möglichen Fehlern innerhalb dieser interagierenden Subsysteme zu verhindern, sind materielle, symbolische und prozedurale Barrieren integriert. Werden durch unsichere Handlungen z. B. materielle Barrieren wie die genormten Anschlüsse unwirksam, sollten prozedurale Barrieren wie die Kontrolle und Abnahme des OP durch eine Kontrollinstanz oder die Überprüfung des Narkosegeräts vor Inbetriebnahme zur Fehlerentdeckung beitragen. Jede Arbeitsebene trägt durch unsichere Handlungen und inadäquate Denkprozesse zum tragischen Ausgang der Operation bei.
Im Folgenden werden die Erfahrungen aus dem Fallbeispiel noch einmal aus der Perspektive der dargestellten Arbeitsebenen (. Abb. 9.2) zusammengefasst (. Tab. 9.1):
175
9.6 • Sicherheit organisieren
. Tab. 9.1 Betrachtung des Fallbeispiels aus der Perspektive der dargestellten Arbeitsebenen Maintenance
Montagefehler
Management
Freigabe des OPs, ohne die gesetzliche Zulassungsauflage zu erfüllen
OP-Team
Produktionsdruck – Notoperation
Narkoseteam
Mängel in der Routineüberprüfung vor Inbetriebnahme
OP-Team
Herzinfarkt therapiert – Suchraum für weitere Ursachen eingeschränkt
9.6
Sicherheit organisieren
9.6.1
Sicherheitskultur
Komplexe soziotechnische Systeme gewährleisten Sicherheit durch permanente Korrekturen minimaler Abweichungen. Sicherheit wird deshalb auch als »dynamisches Nichtereignis« bezeichnet (Reason, 1997). Unfälle gelten als »strukturelles Nebenprodukt« normal funktionierender Systeme, wobei sehr viele Ereignisse gemeinsam auftreten müssen, bis es zu einem Unfall kommt (Perrow, 1999). Die Erkenntnisse zahlreicher Unfalluntersuchungen zeigen, dass »human errors« nur in loser Beziehung zu Unfällen stehen, d. h. nicht einzelne individuelle Fehlhandlungen lösen schwerwiegende Ereignisse aus, sondern eine Vielzahl »normaler« Operationen wirken gemeinsam am Unfallgeschehen mit (Hollnagel, 2004; 7 Kap. 3). Diese Erkenntnis wiederum rückt die gesamte Organisation in den Mittelpunkt der Sicherheitsdebatte: die verwendeten Technologien, die Informations- und Entscheidungsprozesse, die Sicherheits- und Barrierensysteme sowie die Kommunikationsmuster (Meshkati, 2002). Vor diesem Hintergrund wurde der Begriff »Sicherheitskultur« Ende der 1990er-Jahre verstärkt in die Diskussion um »nichttechnische« Sicherheitsaspekte von Organisationen eingebracht. Für die Energie- und Atomindustrie war der Reaktorunfall von Tschernobyl 1986 ausschlaggebend für das wachsende Interesse an Wertvorstellungen, Normen, Fähigkeiten und Verhaltensmustern, die aus
9
der Perspektive einer Sicherheitskultur untersucht wurden. Bei den Unfalluntersuchungen zur Reaktorkatastrophe von Tschernobyl wurde gezielt nach solchen kulturellen Faktoren gefragt (Cox & Flin, 1998). Auch in den Unfallreports des US-amerikanischen National Transportation and Safety Board wurde mit Beginn der 1990er-Jahre auf Managementfehler in Luftfahrtunternehmen hingewiesen, insbesondere wurden Versäumnisse bei der Etablierung einer auf Sicherheit ausgerichteten Organisationskultur aufgezeigt (NTSB/AAR-92/04, 1992, zit. in Meshkati, 1997; Rochlin & von Meier, 1994). Dabei ging es vorrangig um die Umsetzung und Anwendung bereits verfügbarer Sicherheitsinstrumente des Qualitätsmanagements, die im Maintenancebereich ungenügend in Arbeitsprozesse der Mitarbeiterinnen und Mitarbeiter integriert waren. Sicherheitskultur kann man als Ergebnis der Wechselwirkungen individueller Werte, Einstellungen und Verhaltensweisen charakterisieren (Reason, 1997; 7 Kap. 2). Sie ist zugleich der Prozess, der die individuellen und kollektiven Wertvorstellungen, Glaubenssätze und die gemeinsamen mentalen Modelle im Vollzug von Arbeitshandlungen stabilisiert (Caroll, 1998) und die Grenzen der organisationsinternen Sicherheitskultur aufzeigt (Reason & Hobbs, 2003).
»
Safety culture is the product of individual and group values, attitudes, perceptions, competencies and patterns of behaviour that determine the commitment to, and the style and proficiency of an organisation’s safety management. (IAEA, 1991)
«
Den unter 7 Kap. 9.5 beschriebenen Arbeitsebenen lassen sich unterschiedliche beobachtbare Handlungen zuordnen, die mehr oder weniger zur organisationalen Sicherheitskultur beitragen. Während das Management einer Organisation primär Kommunikationsleistungen zu erbringen hat (d. h., die Führungskräfte haben dafür zu sorgen, dass Wertvorstellungen bezüglich Sicherheit deutlich und konsequent kommuniziert werden), stehen Akteure auf der direkten Ausführungsebene überwiegend vor Denkanforderungen, um die operativen Tätigkeiten an den Mensch-Technik-Schnittstellen zu regulieren. Sie müssen beständig prüfen, inwie-
176
Kapitel 9 • Organisationen – Kommunikationssystem und Sicherheit
weit Arbeitshandlungen den Sicherheitsnormen genügen. Die verfügbaren Instrumente (z. B. Incident-Reporting-System, Fehlerauditierung) sind geeignet, um die operativen Arbeitshandlungen zu verbessern. z
9
Rahmenbedingungen erfolgreicher Sicherheitskultur
Wesentlich für eine Sicherheitskultur ist aber, dass vielfältige Kommunikationen über sicherheitsrelevante Fragen angestoßen und ermöglicht werden, d. h., eine Organisation benötigt viele Diskurse über Sicherheitsthemen, um gemeinsame Werte, Normen, Sicherheitsregeln und Verhaltensweisen zu entwickeln und zu stabilisieren. Dass die formalen Instrumente wie z. B. ein Fehleraudit Sicherheitsprobleme sichtbar machen oder dass externe Kontrollen z. B. durch Behörden Regelverstöße aufdecken, heißt noch nicht, dass in einer Organisation eine sicherheitsbezogene Kommunikation stattfindet. Erfolgreiche Sicherheitskommunikation hängt von den Fähigkeiten der Führungskräfte und Teammitglieder jeder Ebene ab, die Kommunikationsmuster in den Subsystemen der Organisation so zu verändern, dass permanent »Sicherheit« in der arbeitsbezogenen Kommunikation vorkommt. Die Möglichkeiten sind vielfältig, es können eigens etablierte Sicherheitsmeetings sein, aber auch »im Kleinen« sind Feedbacks, geschlossene Kommunikationsschleifen, antizipierte und ausgesprochene Bedenken typische Kommunikationsmuster einer reifen Sicherheitskultur. Definitorische Ansätze zur Spezifizierung des Begriffs »Sicherheitskultur« heben verschiedene Kernaussagen hervor (Zhang, Wiegmann, v. Thaden, Sharma & Mitchell, 2002; 7 Kap. 2): 5 Sicherheitskultur setzt an Teams und übergeordneten Organisationseinheiten an und betont die geteilten Werte innerhalb und zwischen Teams. 5 Sicherheitskultur steht in Verbindung mit den institutionalisierten Sicherheitskonzepten, ist aber nicht auf Managementkontrollfunktionen oder Ausführungskontrollen der mittleren Führungsebene beschränkt. 5 Jedes Organisationsmitglied wirkt an der Sicherheitskultur mit.
5 Sicherheitskultur reflektiert den Stand der Bemühungen einer Organisation, aus Fehlern, Unfällen und abweichenden Ereignissen zu lernen. 5 Sicherheitskultur macht Zusammenhänge sichtbar zwischen sicheren Operationen und sozialer Anerkennung (Gratifikation, Entlohnung, Beförderung). Die definitorischen Divergenzen und zahlreichen Interpretationen des Begriffs »Sicherheitskultur« reflektieren den aktuellen Stand in Wissenschaft und Praxis. Prinzipielle Unterschiede sind in der unterstellten Kausalität auszumachen. Einerseits wird die Position vertreten, dass die Sicherheitskultur aus der Summe aller Denk- und Kommunikationsprozesse hervorgeht und somit jedes Organisationsmitglied durch sein Handeln eben diese unverwechselbare Kultur erschafft, reproduziert und je nach dem Grad der Beherrschung der Kommunikationsregeln auch bewusst variieren kann. Diese Sichtweise kommt einem konstruktivistischen Kulturbegriff nahe (Morin, 2002) und wird auch in Organisationstheorien vertreten (Schein, 1997). Unter »Kultur« werden die verbindlichen Denk- und Handlungsmuster einer Gruppe bei der Lösung von Problemen verstanden. In den Prämissen oder geteilten Werten einer Gruppe sind ihre Annahmen, ihre Erfahrungen mit früheren Problemlösungen zu einem Set von Grundüberzeugungen vereint, aus denen wiederum die angemessenen Methoden und Handlungsweisen hergeleitet werden, mit denen die operativen Anforderungen jeder Organisationseinheit zu bewältigen sind. z
Sicherheitsklima
Auf der anderen Seite fasst man unter Sicherheitskultur Zustandsvariablen eines Systems zusammen, wobei man davon ausgeht, dass diese Variablen menschliches Handeln und die Gesamtleistung des Systems beeinflussen. In den 1990er-Jahren wurde der Begriff »Sicherheitsklima« etabliert. Hier werden Operationalisierungen des Begriffs »Sicherheitskultur« vollzogen, man versucht den aktuell wahrgenommenen Zustand einer Sicherheitskultur messbar zu machen (Zohar, 2000; genauer in 7 Kap. 2). Die psychometrischen Gütekriterien solcher Messinstrumente fallen unterschiedlich
177
9.6 • Sicherheit organisieren
aus (Flin, Burns, Mearns, Yule & Robertson, 2006; Colla, Bracken, Kinney & Weeks, 2005). Beide Begriffe »Kultur« und »Klima« sowie die entwickelten Messinstrumente (meist Fragebögen, »self-assessments«, »self-audits«) entfalten jedoch ihren pragmatischen Nutzen erst in der Rückkopplung zu den Mitarbeitern in Organisationseinheiten. Aus Messergebnissen abgeleitete Interventionen sind unterschiedlich stark in Industrie- und Dienstleistungsbranchen implementiert. Existierende Organisationsentwicklungsansätze zur systematischen Umsetzung und Entwicklung von Interventionen, wie z. B. 5 Teamtrainings, 5 Teambesprechungen (Briefings), 5 Diskussion von Messergebnissen im Team
9
. Tab. 9.2 Dimensionen der Sicherheitskultur. (Nach Pronovost & Sexton, 2005; Flin, Burns, Mearns Yule & Robertson, 2006) Management
Engagement für Sicherheit und Verbindlichkeit von Sicherheitszielen Führungsverhalten Personalauswahl und -entwicklung
Führungsebenen
Einhaltung von Regeln und Prozeduren Arbeitsanforderungen Produktionsdruck (»workload«) Beachtung von Stressoren Stressmanagement
sind hilfreich für die Verbesserung der Sicherheitskultur (Pronovost et al., 2005).
Teams
Teamarbeitsklima
> Die Konzepte »Sicherheitskultur« und »Sicherheitsklima« stellen jeweils einen spezifischen Beschreibungs- und Beobachtungsrahmen her, um sicherheitswirksame Human Factors wie Einstellungen, gemeinsame »Landkarten«, kollektive Wertesysteme sichtbar – und damit der Kommunikation und systematischen Intervention zugänglich – zu machen.
Jenseits der divergenten Positionen in Theorie und Praxis tragen die theoretische Auseinandersetzung und die erfolgten Operationalisierungen des Konstrukts »Sicherheitskultur« dazu bei, dass zumindest die relevanten Dimensionen des Konstrukts Sicherheitskultur in den aktuellen Kanon eingehen. Sicherheitskultur bezieht die in . Tab. 9.2 dargestellten Dimensionen ein.
9.6.2
Sicherheit und Zuverlässigkeit
Umfassende Untersuchungen an Organisationen, die zuverlässige Hochleistungssysteme in Hochrisikobranchen repräsentieren, haben das Verständnis für hoch zuverlässige Organisationen (»high reliability organizations«, HRO) vertieft (Weick & Roberts, 1993; Weick & Sutcliffe, 2010).
Teamarbeit
Kommunikation Kompetenzen/Lernen Instrumente
Berichtssysteme Risikowahrnehmung und -bewertung Sicherheitssysteme
Weick & Sutcliffe (2003) haben Grundannahmen, Prozesse und Handlungen in zuverlässigen Organisationen identifiziert, die die Sicherheitskultur solcher Unternehmen ausmachen (. Tab. 9.3). Sie beschreiben fünf stabile Kommunikationsmuster, die es den Mitarbeitern zuverlässiger Organisationen ermöglichen, ihre konkreten Arbeitshandlungen sicher, zuverlässig und reflektiert auszuführen. Sind im Kommunikationsmuster einer Organisation Kommunikationen über minimale Fehler, vereinfachende Annahmen, betriebliche Abläufe, Entscheidungsprozesse und flexible Entscheidungswege erst einmal zulässig, können sie sich durch regelmäßige Wiederholung stabilisieren. Der positive Effekt für die Sicherheitskultur besteht darin, dass diese Kommunikationsmuster die Aufmerksamkeit der Mitarbeiter vor, während und nach ihren Arbeitshandlungen fokussieren –
178
Kapitel 9 • Organisationen – Kommunikationssystem und Sicherheit
. Tab. 9.3
Grundmuster zuverlässiger Organisationen. (Nach Weick & Sutcliffe, 2003)
Dimensionen der Zuverlässigkeit
Beschreibung des Grundmusters
Auseinandersetzung mit Fehlern
Auseinandersetzung mit Fehlern und Konzentration auf kleine Abweichungen. Kritische Haltung gegenüber den Gefahren anhaltender Erfolgsphasen wie Selbstzufriedenheit, Nachlässigkeit.
Skepsis bei Komplexitätsreduktion
Skepsis gegenüber vereinfachenden Annahmen und Ereignisinterpretationen. Bevorzugt werden differenzierte, komplexe Modelle und Vorstellungen über interne und externe Ereignisse.
Sensibilität für betriebliche Abläufe
Sensibilität und hohe Aufmerksamkeit für betriebliche Abläufe. Normale Arbeitsroutinen werden auf Fehlerpotenzial untersucht. Wichtig sind die vielen, situativ vollzogenen Fehlerkorrekturen und die Kommunikation darüber.
Wer trifft Entscheidungen?
Respekt vor fachlicher Expertise. Entscheidungen werden an den Ort verlagert, wo die höchste fachliche Expertise für das Problem liegt. Tendenziell werden sachliche Entscheidungen von formaler Hierarchie getrennt.
Flexibilität ist Programm
Streben nach Flexibilität, das ist eine Mischung aus der Fähigkeit, Fehler frühzeitig zu entdecken, und der Fähigkeit, das System durch improvisierte Methoden am Laufen zu halten.
9 d. h., ein Kommunikationsmuster beeinflusst die individuellen Denkprozesse.
Achtsamkeit zu entwickeln. Welche Kommunikationsmuster sind für sichere Handlungen nützlich (. Tab. 9.4)?
Beispiel Techniker führen eine Wartungsprozedur durch und bereiten diese selten durchgeführten Handlungen nach. Ist die Frage nach »beobachteten minimalen Abweichungen« zulässig und wird von der Führungskraft gestellt, laufen die individuellen Erinnerungsprozesse mit hohem Genauigkeitsgrad an und fördern solche Beobachtungen zutage. Ist die Frage während der Nachbereitung nicht zulässig, erinnern sich die Mitarbeiter eher grob an die gemeinsam bearbeiteten Wartungsprobleme und ihr Diskurs fördert kaum sicherheitsrelevante Themen zutage.
9.6.3
Reason (1997) stellt mit dem Konzept der informierten Kultur vier organisationale Prozesse zur Diskussion, um die sicherheitsrelevante Annahmen, Werte und Instrumente gruppiert werden (könnten). Auch das Konzept der informierten Kultur ist eine kommunikative Anregung, eine Möglichkeit für Organisationen, ihre Sicherheitskommunikation zu entwickeln und zu stabilisieren. z
Diese Beobachtungen in zuverlässigen Organisationen bilden einen produktiven Rahmen für Organisationsentwicklung, personalwirtschaftliche Aspekte (Personalauswahl, Personalentwicklung), Sicherheitssysteme und die empirische Überprüfung der Sicherheitskultur. Der wichtigste Beitrag besteht in der Anregung für Führungskräfte und Mitarbeiter, entsprechende Kommunikationsmuster bezüglich der genannten Dimensionen der
Organisationsentwicklung
Berichtskultur
Organisationen und insbesondere das Management benötigen Informationen über minimale Ereignisse, Fehler und Beinahe-Unfälle. Um an diese »kostenlosen Lektionen« heranzukommen, benötigt man nicht nur ein funktionierendes Berichtswesen, sondern auch ein gemeinsames Verständnis über den Sinn solcher Informationen. Die Etablierung einer Berichtskultur ist primär eine kommunikative Führungsaufgabe. Durch wiederholte Kommuni-
179
9.6 • Sicherheit organisieren
. Tab. 9.4
Nützliche Kommunikationsmuster für sichere Handlungen
Kommunikationsmuster
Beispiele
(Re-)Fokussierung
Arbeitssicherheit
Risikodiskussion
Risikoanalyse, Risikobewertung, Handlungsoptionen, »Exit-Kriterien«
Teambesprechung (Briefing)
Anstehende Arbeitsprozesse, Zwischenziele, Teamanforderungen, Führung, Kommandos
Nachbesprechung (»debriefing«)
Positive Lösungen, unerwartete Ereignisse, kritische Teaminteraktionen
Meldungen
Meldewege und -verfahren für Abweichungen, minimale Ereignisse und Zwischenfälle
Zwischenfalls-Auswertung
Fallbesprechung, Einsatz von Verfahren zur Ereignisanalyse
Sicherheitsgespräch
Repetition von Sicherheitsregeln, Dependenz-Konsequenz-Analyse möglicher sicherheitsrelevanter Verhaltensweisen
kation zwischen den Mitarbeitern verändert sich in den mentalen Modellen der Organisationsmitglieder der Stellenwert von Informationen über abweichende Ereignisse und beobachtete (Fehl-)Handlungen. Nur durch »Fehlerkommunikation« ist das Ziel zu erreichen, dass Fehler wahrgenommen, angesprochen, diskutiert und letztlich gegenüber dem Management berichtet werden. Die Glaubwürdigkeit des Managements im Umgang mit berichteten Ereignissen zeigt sich dann am Umgang mit solchen Informationen (Nerdinger, Blickle & Schaper, 2011). In jedem Falle verstärken Manager durch ihr Verhalten die Berichts- und Fehlerkultur: positiv z. B. durch Nachforschungen und systematische Aufklärung, negativ z. B. durch Ignorieren, Umdeuten, Fehler normalisieren, Schuldzuweisungen. z
9
Gerechtigkeitskultur
Eine informierte Kultur muss eine gerechte Kultur sein. Will das Management vertrauenswürdige und präzise Informationen über sicherheitsrelevante Ereignisse erhalten, muss vorab die Grenze zwischen akzeptierten Verhaltensweisen, die eine Sicherheitsgefährdung nach sich ziehen, und den nicht akzeptierten Verhaltensweisen sehr deutlich markiert sein. Dazu gehört auch die Definition von Ereignisbegriffen wie »Fehler«, »Beinahe-Unfall« oder »minimale Abweichung« (7 Kap. 3).
»
Diese Grenze ist entscheidend, weil sie unakzeptable Verhaltensweisen, die disziplinarische Maßnahmen erfordern, von akzeptablen Verhaltensweisen trennt, bei denen eine Bestrafung nicht angemessen ist und die ein erhebliches Lernpotential enthalten. (Weick & Sutcliffe, 2003, S. 148).
«
z
Flexible Kultur
Drittens schließt eine informierte Kultur den flexiblen Umgang mit festgelegten Informations- und Entscheidungswegen ein, d. h., Organisationsmitglieder sind in der Lage, sobald die Anforderungen an ihr gemeinsames Handeln durch Zeitdruck oder unerwartete Ereignisse verändert sind, abweichende Entscheidungsstrukturen aufzubauen, den arbeitsbezogenen Informationsfluss zu verändern und die Expertise von Mitarbeitern schnell für eine Problemlösung zu bündeln. Hier gilt »Expertise oder Eignung vor Hierarchie« als flexibles Organisationsprinzip. z
Lernkultur
Eine Sicherheitskultur benötigt Informationen über permanent stattfindende Lernprozesse, d. h. die ständige Beobachtung und Reflexion von organisationalen Diskussionen, aufgetretenen Diskrepanzen, von Methoden und Problemlösungen. Eine Lernkultur setzt voraus, dass Informationen
Kapitel 9 • Organisationen – Kommunikationssystem und Sicherheit
180
. Tab. 9.5
9
Entwicklungsphasen des CRM-Konzepts. (Nach Helmreich, Merritt & Wilhelm, 1999)
Phase
Schwerpunkte
Cockpit Resource Management
Individuelle Verhaltensstile, Dominanz, Bestimmtheit in Interaktionen, Fokus: individuelle Pilotenfehler
Crew Resource Management
Teambildung, Briefing, situative Aufmerksamkeit, Stressmanagement, Entscheidungsfindung, Unterbrechen von Fehlerketten, Fokus: Fehler im Team vermeiden
Company Resource Management
Zusammenarbeit mit Kabinen-Crew, Maintenance, Air Trafic Control, Einfluss der Firmenkultur, Automatisierung, Fokus: Kooperation mit anderen Teams
Advanced Qualification Program
Angepasste Trainings entsprechend Organisationszielen, Fokus: Firmenphilosophie
Umfassendes Fehlermanagement
Fehlervermeidung durch sichere Handlungen, Fehlereingrenzung und Korrektur, Teamperformance, Fokus: Teamarbeit auf Organisationsebene: nonpunitive Fehlererfassung, Meldesysteme, Rückkopplung der erfassten Incidents an Subsysteme, Fokus: Lernkultur
über beobachtete Ereignisse vorliegen und den Organisationsmitgliedern in geeigneter Weise zur Verfügung gestellt werden. Unter Lernkultur wird hier weniger die klassische Personalentwicklung verstanden, die durch gezielte Interventionen den Wissens- und Fähigkeitserwerb einzelner Menschen unterstützt, sondern die Kommunikation über sicherheitsrelevante Themen, sodass die Wahrnehmungs- und Denkprozesse der Organisationsmitglieder für Sicherheitsthemen ausdifferenziert werden. Eine Lernkultur stellt Informationen über Arbeitsinhalte, Prozesse und die damit verknüpften Sicherheitsthemen bereit. Der Fokus der Aufmerksamkeit liegt auf der Verbindung von »Sicherheit« und »Arbeitsgegenstand«. Man nutzt dabei das sog. inzidentelle (d. h. beiläufige) Lernen: Neben dem Wissenserwerb über Arbeitsprozesse wird beiläufig und ohne explizite Lerninstruktion sicheres Handeln erlernt.
9.6.4
Crew Resource Management (CRM) – Ein Beispiel für Sicherheitskultur
An dem Entwicklungsprozess des Crew-Resource-Management-Konzepts in der zivilen Luftfahrt lässt sich nachvollziehen, wie Human-Factors-Forschung, organisationale Sicherheitskommunikation und Interventionen in die Sicherheitssysteme
miteinander vernetzt sind (Helmreich, Merritt & Wilhelm, 1999). Forschung, Personalentwicklung und Beobachtungen in der Praxis werden kontinuierlich dazu eingesetzt, sicherheitsrelevante Einstellungen, Fähigkeiten und Fertigkeiten im Umgang mit Technik und Team parallel zu entwickeln. Wichtige Etappen der Entwicklung von CRM-Trainings reflektieren zum einen die Veränderungen in den maßgeblichen Human-Factors-Paradigmen, zum anderen auch die Dynamik organisationaler Sicherheitskultur in der Luftfahrt. Was in den Kanon der CRM-Trainingsthemen aufgenommen wurde, hängt u. a. von der Reflexion nationaler Kulturen, professioneller Berufskulturen und organisationsspezifischer Sicherheits- und Trainingsziele ab. Außerdem spielen die Evaluation und die Entwicklung angepasster Mess- und Evaluationsverfahren eine große Rolle bei der Etablierung von CRM-Trainings in verschiedenen Unternehmen (Salas, Fowlkes, Stout, Milanovich & Prince, 1999; Flin, 2001). Die erste Generation von CRMTrainings in der 1980er-Jahren bedurfte intensiver Überzeugungsarbeit, wobei der Einfluss internationaler Regulationsgremien der zivilen Luftfahrt erheblich dazu beigetragen hat, Widerstände in Organisationen aufzulösen (Merritt & Helmreich, 1997). Die Veränderungen am CRM-Konzept zeigen den Übergang von einem Trainings- zu einem Organisationsentwicklungsparadigma; die Übergangsphasen sind in . Tab. 9.5 dargestellt.
181
9.6 • Sicherheit organisieren
Parallel zur Entwicklung des CRM in der Luftfahrt erfolgte in anderen Hochrisikobranchen die Umsetzung ähnlicher Sicherheitsprogramme (siehe z. B. Hagemann, Kluge & Ritzmann, 2009; Hunt & Callaghan, 2008), häufig mit einer starken Fokussierung auf einzelne Bausteine wie z. B. TeamTrainingskonzepte. Die Grenzen eines einfachen »Methoden-Transfers« traten schnell zutage; die Enttäuschung und Skepsis, dass aeronautische CRM-Konzepte beispielweise in der Medizin keine vergleichbaren positiven Impulse erzeugt haben, sind daher wenig überraschend (Thomas & Helmreich, 2002). Generell geht es um die Frage, warum die gleichen »Sozialtechniken« zur Verbesserung von Sicherheit in Organisationen keine vergleichbaren Effekte hervorbringen. Daran schließt die Frage an, wie und ob Organisationen überhaupt voneinander lernen können. Noch einmal: Organisationen sind selbstreferenzielle Systeme, die durch interne Kommunikationsprozesse selektieren und verstärken, welche Ereignisse (hier: Trainingsinhalte, Methoden, Ziele) für sie relevant, nützlich und erfolgversprechend sind. Zweitens sei hervorgehoben, dass Organisationen qua Historie ihre mentalen Modelle über lange Zeit entwickelt und zwischen den Organisationsmitgliedern angepasst haben. Somit ist der organisationsinterne Konsens über angemessene Ziele, Inhalte und Methoden auf dem Weg zu einer Sicherheitskultur eine mentale »Tiefenstruktur«, die Organisationen stark voneinander unterscheidet. Diese Dimensionen der Unterschiedlichkeit werden in der Regel erst aufgedeckt, wenn Organisationen voneinander lernen wollen – wie im Beispiel CRM-Trainingstransfer Luftfahrt/Medizin – oder voneinander lernen müssen – wie in zahlreichen Beispielen von Übernahmen und Fusionen (Krystek, 1992). Die Entwicklung des medizinischen Anesthesia Crisis Resource Management (ACRM) macht auch deutlich, wie wichtig die Konvergenz verschiedener organisationaler Aktivitäten für eine erfolgreiche Lerngeschichte zur Übernahme von Trainingszielen und -methoden ist. Auch in der Medizin wurden Handlungsfehler beobachtet, Arbeitsanforderungen analysiert, Arbeitsabläufe untersucht, trainingstheoretische Modelle entwickelt etc. Aber
9
erst die Integration der Forschungsergebnisse in den medizinischen Sicherheitsdiskurs erzeugte den heutigen Konsens zum Thema »Patientensicherheit« und die daraus abgeleiteten (eigensinnigen) Trainingsinhalte, Methoden und Evaluationsansätze für ACRM-Trainings (St. Pierre, Hofinger & Buershaper, 2011; Manser, 2003; Ford, Kozlowski, Kraiger, Salas & Teachout, 1997; Xiao, Hunter, Mackenzie, Jeffries, Horst & the LOTAS Group, 1996; Howard, Gaba, Fish, Yang & Sarnquist, 1992).
9.6.5 z
Barrieren
»Defence in Depth« (DID)
Um die Sicherheit in Organisationen a priori zu gewährleisten, werden Organisationen bereits formal so strukturiert, dass vielfältige Barrieren wirksam werden. Hier nutzt man Prinzipien institutionalisierter Defence-in-depth-Sicherheitskonzepte, die an jedes Subsystem bestimmte Sicherheitsanforderungen stellen. »Defence in depth« (DID, Verteidigung in die Tiefe, gestaffelte Barrieren) ist ein Organisationskonzept, das fundamentale Prinzipien des Schutzes von Umwelt, Organisation und Menschen umfasst. Umsetzungen von Defence-indepth-Strategien findet man in der IT-Sicherheit, in der Energiebranche, im Finanzwesen (IAEA, 2005). Grundsätzlich beschreibt eine DID-Strategie alle Sicherheitsaktivitäten: organisationale, behaviorale und physikalisch-technische. Angefangen bei der Standortwahl eines Unternehmens, über Architektur, Design, Hersteller- und Lieferantenauswahl bis hin zu personalen Qualifikationen werden alle Elemente in einer Sicherheitsphilosophie zusammengefasst. Umgesetzt wird diese komplexe Barrierenidee u. a. durch die Zusammenfassung technischer und humaner Prozesse zu Sicherheitsstufen (»levels of defence«), die zuverlässige und hinreichende Kompensationsmargen für mögliche Fehler bilden. z
Organisationale Sicherheitsstufen
Organisationale Sicherheitsstufen schaffen eine Entkopplung von Subsystemen und eine Verlagerung von Sicherheitsanforderungen in autonome Organisationseinheiten. Jede übergeordnete Si-
182
9
Kapitel 9 • Organisationen – Kommunikationssystem und Sicherheit
cherheitsstufe hat zugleich eine Pufferungs- und eine supervisorische Kontrollfunktion gegenüber untergeordneten Stufen. Auf jeder Organisationsebene werden autonome Prozesse installiert, die der Prävention und dem Schutz im Falle eines eingetretenen Fehlers dienen. Damit versucht man, die Ausweitung eines Fehlers zunächst auf die jeweilige Organisationsebene zu begrenzen (»error containment«). Gelingt das nicht, greifen die Schutzmechanismen der nächsthöheren Ebene, sodass die Fehlerausweitung in vertikaler Richtung unterbunden wird. »Defence-in-depth«-Prinzipien erstrecken sich auf architektonische Konstruktion von Gebäuden und Anlagen, physikalische Schutzeinrichtungen zur Vermeidung von Schädigungen der Umwelt, geprüfte technologische Zuverlässigkeit, Tests und Kontrollen, klare Verantwortlichkeiten in der Organisation, qualifiziertes Personal (Training). Ergänzt wird die formale Sicherheitsorganisation durch lebendige Sicherheitspolitik im Unternehmen, die sich auf Kompetenzen des Managements, Richtlinien, Prozeduren, Arbeitsanweisungen, interne Sicherheitsuntersuchungen und das Qualitätsmanagement beziehen. z
Barrierefunktionen
Solche Prinzipien des Organisationsaufbaus sind Barrieren, wobei zwei Grundfunktionen zu unterscheiden sind: 5 Barrieren, die das Eintreten eines spezifischen Ereignisses verhindern, dienen der Prävention. 5 Barrieren, die Folgen eines eingetretenen Ereignisses minimieren, dienen der Protektion, d. h. dem Schutz von Menschen, Umwelt und materiellen Gütern. Typische Barrierenfunktionen, die durch technische und humane Systemelemente realisiert werden, sind (Reason, 1993): 5 Schutz potenziell betroffener Menschen, 5 Früherkennung von anormalen Zuständen, 5 Warnung über ein eingetretenes Ereignis, 5 Stabilisierung des Systems auf einem Minimum-Sicherheitsniveau, 5 Fehlerfolgenbegrenzung sowie 5 Evakuierung.
Barrierensysteme fassen also verschiedene Barrierenfunktionen zusammen, so z. B. die Person des Akteurs, Arbeitsinstruktionen, Alarm- und Notfallsysteme, physikalische und organisationale Mechanismen.
» …a barrier function can be defined as the specific manner by which the barrier achieves its purpose, whereas a barrier system can be defined as the foundation of the barrier function, i.e., the organisational and/or physical structure without which the barrier function could not be accomplished. (Hollnagel, 2004, S. 82)
«
Hollnagel (2004) schlägt eine Klassifikation von Barrieren vor und unterscheidet zwischen physikalischen, funktionalen, symbolischen und inkorporierten Barrieren (. Tab. 9.6). Um den Stellenwert von Human Factors in Bezug auf diese vier Barrierenarten zu verdeutlichen, ist hervorzuheben, dass die meisten modernen Barrierensysteme ihre volle Wirksamkeit nur unter der Bedingung entfalten bzw. einhalten können, dass die Interaktionen zwischen technischen und humanen Systemkomponenten nicht gestört sind. Insbesondere symbolische und inkorporierte Barrieren erfordern aktive Mitwirkung von Akteuren und Akteurinnen, z. B. durch Interpretation, bestätigende Rückmeldung, Gedächtnis- und Problemlöseprozesse, Auswahl von Handlungen. Mit Blick auf das Fallbeispiel am Anfang des Kapitels ist z. B. die Prüfung eines Gerätes vor Inbetriebnahme eine symbolische Barriere, wobei nicht der Arzt als solcher die Barriere darstellt, sondern seine Rolle beim Verifizieren einer Vorbedingung für die (korrekte) Benutzung des Narkosegeräts. Symbolische Barrieren wie Hinweisschilder, Gebots- und Verbotssymbole müssen erst verstanden und in entsprechende Handlungen umgesetzt werden. Ebenso inkorporierte Barrieren, die zwar auch in physikalischer Form vorliegen können, aber erst beim Gebrauch in Kombination mit dem Wissen der Akteure wirksam werden (Handbücher, Regeln, Leitlinien, Verbote, Gesetze). Hier greifen dann andere Maßnahmen, die in 7 Kap. 9.6.1 unter dem Stichwort »Sicherheitskultur« beschrieben sind, direkt auf die Barrierenwirksamkeit durch: Sorgt eine Organisation durch Trainings, Unter-
183
9.6 • Sicherheit organisieren
9
. Tab. 9.6 Barrieren und Human Factors. (Nach Hollnagel, 2004. © Barriers and accident prevention, Hollnagel, E., 2004, Aldershot: Ashgate.) Barrierenklasse und Funktionen
Realisierungsbeispiele
Potenzielle Konflikte
(1) Physikalische Barriere: abgrenzen, verhindern, schützen, blockieren
Zaun, Mauer, Poller, Tank, Ventil, Sicherheitsgurt, Sicherheitsglas, Einschränkung der physikalischen Bewegbarkeit von Objekten
Menschen vermeiden »Umwege« (Mauer, Zaun), bevorzugen Komfort (Gurt), Produktionseffizienz leidet
(2) Funktionale Barriere: verhüten, abhalten verhindern, behindern
Airbag, Schlüssel, Steckverbindungen, Passwörter, biometrische Zugangskontrolle, zeitverzögerte Eingaben, Zwei-Hand-Bedienung
Vergessen (Passwort), Vereinfachen (Eingangscode = Geburtsdatum), Ausschalten, Überbrücken (mit unzulässigen Mitteln)
(3) Symbolische Barriere: entgegenwirken, vereiteln von Aktionen, Aktionen regulieren, Systemstatus anzeigen, erlauben, autorisieren, kommunizieren
Kodierung von Funktionen (Farbe, Form, räumliche Anordnung), Warnfunktionen, Instruktion, Prozedur, Schutzmaßnahme, Bedingungen, Zeichen (z. B. Verkehrszeichen), Signale, Alarme, Arbeitsanweisung, Erlaubnis (z. B. Startfreigabe)
Populationsstereotype, Alarm ausschalten, Gedächtnisfehler bei Prozeduren, Unkenntnis, Erwartungsbias
(4) Inkorporierte Barrieren: bieten Richtlinien des Handelns, schreiben vor, verbieten
Ethisch-moralische Normen, Gruppennormen, Unternehmensleitbild, Regeln, Vorgaben, Gesetze, Handbücher
Ignorieren, bewusste Regelverletzung, Unkenntnis, gruppendynamische Prozesse,
weisungen, Briefings etc. dafür, dass dieses Wissen bei den jeweiligen Akteuren aktualisiert wird, ist die Wahrscheinlichkeit für Fehlhandlungen wie z. B. das Auslassen einer vorgeschriebenen Checkliste geringer (Svenson, 2001). z
Zielkonflikte
Da jedoch Barrieren weit in den täglichen Arbeitsprozess hineinreichen, bestehen häufig Konflikte zwischen Sicherheitszielen und anderen arbeitsbezogenen Zielen. Der Zweck einer Barriere (Sicherheitsziel) könnte zu Produktionszielen (Kosten- und Zeiteffizienz) im Widerspruch stehen. Systemimmanente Arbeitsbedingungen wie z. B. Zeitdruck bei medizinischen Noteingriffen rufen typische Barrierenverletzungen hervor: Sicherheitschecks werden ausgelassen, kontrollierende Verfahrensschritte abgekürzt, Redundanzprinzipien in der Teamkommunikation werden weggelassen. Aber auch individuelle Human Factors wie z. B. Vergessen, Vereinfachen, Verwechseln können dazu führen, dass Barrierenfunktionen bewusst oder unbewusst außer Kraft gesetzt werden. Hier
spielt auch die Routinisierung von Arbeitsprozessen eine zentrale Rolle. Fliegt eine Crew fünfmal am Tag von München nach Hamburg, kann es passieren, dass beim Landeanflug auf Hamburg noch immer die Anflugkarte von München auf dem Klemmbrett des Piloten steckt. Die vorgesehene Barriere, um solche Fehler zu vermeiden, liegt im Prozess der Flugvorbereitung. Herrscht hier Zeitdruck, versuchen Piloten die Schritte der Flugvorbereitung zu beschleunigen und »professionell« aufgrund ihrer Routiniertheit zu reorganisieren, d. h. beispielsweise die Kartenunterlagen erst während des Fluges zu aktualisieren. In diesen Handlungen treten typische Zielkonflikte des gesamten Systems zutage. Wie diese Zielkonflikte gelöst werden, welche Verletzungen von Barrierenfunktionen übersehen, toleriert oder in der Sicherheitsdebatte thematisiert werden, hängt hauptsächlich von der Kommunikation im relevanten Arbeitsumfeld zwischen Mitarbeitern und Führungskräften ab. Dabei spielen festgelegte Zielprioritäten seitens des Managements, Erwartungen an die »richtige« Zielbalancierung durch die Führungskräfte im mittleren Ma-
184
Kapitel 9 • Organisationen – Kommunikationssystem und Sicherheit
nagement und ein stilles Einvernehmen zwischen Mitarbeitern und Führungskraft durchaus die Rolle latenter Fehlerbedingungen. Kritische Kommunikationsmuster zwischen Organisationsmitgliedern erkennt man u. a. 5 am Verschweigen von Fehlern, 5 an der Tendenz, Abweichungen zu normalisieren, 5 Fehlverhalten zu bagatellisieren und 5 Kritik an Verhaltensweisen insbesondere von Führungskräften nicht zu äußern.
9
Organisationale Kommunikation ist ein wesentliches Element, Barrieren wirksamer zu machen oder ihre Funktion ins Gegenteil zu verkehren. Jeder denkt: Wir haben ja wirksame Barrieren – niemand realisiert, dass sie durch dysfunktionale Kommunikationsmuster unwirksam oder geschwächt sind. Die Verantwortung jedes Organisationsmitglieds, so wie das im Konzept der Sicherheitskultur formuliert ist, bezieht sich nicht nur auf das eigene Handeln, sondern auch auf die kritische Beobachtung der Kommunikation in der Organisation.
9.7
Zusammenfassung und Schlussfolgerungen
Organisationen sind komplexe soziotechnische Systeme, die durch materielle, informationelle und sozial-kommunikative Prozesse gebildet werden. Für die Human-Factors-Perspektive sind nicht nur die Mensch-Technik-Interaktionen zentraler Forschungsgegenstand, sondern auch die zwischenmenschlichen Interaktionen, die als soziales Teilsystem – oder vereinfachend auch als Organisation – beschrieben werden. Wichtig für das Verständnis von Organisationen sind die Kommunikationsprozesse der beteiligten Menschen, weil hier eine Kopplung der individuellen psychischen Systeme an die vielfältigen Organisationsprozesse stattfindet. Das, was innerhalb einer Organisation gesagt, verstanden und getan werden kann, unterliegt mehrfachen Determinationen. Einerseits sind es die Menschen selbst, die durch individuelle psychische Eigenschaften Informationen selektieren, kategorisieren, in Wissensstrukturen integrieren und in Aktionen umset-
zen. Diese Human Factors erzeugen eine potenzielle Variationsbreite, wie mit Ereignissen, Problemen und täglichen Anforderungen umgegangen werden könnte. Andererseits entwickeln Organisationen im Laufe ihrer Geschichte Kommunikationsmuster, die nur noch bestimmte, in der Regel erfolgreiche, Interaktionen zulassen – sowohl zwischen Mensch und Technik als auch zwischen Mensch und Mensch. Betrachtet man Prozesse des Organisierens, also wie Menschen ihre Arbeits- und Sozialumwelt wahrnehmen und darin handeln, werden die Mechanismen der organisationalen Musterbildung in Abhängigkeit von individuellen psychischen Fähigkeiten und Bedürfnissen sichtbar. Stabile Muster in organisationalen Abläufen erscheinen dem Beobachter regelhaft, normativ und nur noch minimal veränderbar. Die Konzepte Organisations- und Sicherheitskultur fokussieren bestimmte Regelhaftigkeiten der Mensch-Technik- und der zwischenmenschlichen Interaktionen. Sie machen transparent, welche Regeln für die Erreichung von (Sicherheits-)Zielen nützlich und welche dysfunktional sind. Gleichzeitig verweist die Idee der gemeinsamen Verantwortung aller Organisationsmitglieder für ihre Kulturmerkmale auf den Umstand, dass menschliche Kommunikationssysteme durch alle »Mitspieler« aufrechterhalten werden und somit auch von allen verändert werden können. Dazu müssen Organisationsmitglieder die Regeln ihres Kommunikationssystems kennen und beherrschen, was meist Führungskräften besser gelingt. Sie stehen folglich stärker in der Verantwortung, solche Prozesse und Regeln des sozial-kommunikativen Systems zu stabilisieren, die es den Mitarbeitern ermöglichen, sicher und zuverlässig zu arbeiten. Das Organisieren einer auf Sicherheit ausgerichteten Organisationskultur ist ein kontinuierlicher Prozess in kollektiver Verantwortung. Die kollektive Verantwortung lässt sich durch die Spezifika einer Organisation begründen, weil 5 die komplexen Mensch-Technik-Interaktionen nicht mehr nur von wenigen Experten beherrscht werden können und 5 die in einer Organisation etablierten Kommunikationsmuster von allen beteiligten »Spielern« aufrechterhalten und verändert werden können.
Literatur
Darüber hinaus stehen Führungskräfte in der Pflicht, permanent auf Sicherheitsthemen hinzuweisen und Kommunikationsmuster zu etablieren, die einerseits kollektive Diskurse über Sicherheitsthemen zulassen und andererseits für die beteiligten Organisationsmitglieder jeweils individuelle Orientierungen auf sichere Handlungen herbeiführen. Organisationsmitglieder benötigen zur Entwicklung eines gemeinsamen Verständnisses ihrer Organisation, insbesondere für beobachtete Ereignisse, Probleme und deren Lösungen, verschiedene Gelegenheiten, um sowohl ihre Denk- und Entscheidungsprozesse miteinander zu diskutieren als auch die Konsequenzen für die Herausbildung von Kommunikationssystemen auszusprechen. Solche Gelegenheiten sollten sicherheitsbewusste Führungskräfte und Teams organisieren, z. B. Sicherheitskurzgespräche, »briefings« und »debriefings« u. Ä. – Teaminteraktionen, die zur Korrektur und gemeinsamen Abstimmung der »mentalen Landkarten« beitragen. Beobachtungen an erfolgreichen Teams zeigen, dass gemeinsame Diskussionen auf zwei Kernprozesse im Team ausgerichtet sind: Informationsaustausch über 5 Aufgaben bzw. fachliche Probleme und 5 Teaminteraktionen und Kommunikationsmuster. Das heißt, das Wissen über die Funktionsweisen und Kommunikationsregeln des Sozialsystems »Team« ist ebenso erfolgsrelevant wie das aufgabenbezogene, fachliche Wissen. Informationen über fachliche und soziale Prozesse helfen den Organisationsmitgliedern, ein gemeinsames Verständnis ihrer Umwelt, ihrer Arbeitsprobleme und ihrer Organisation zu entwickeln (Salas & CannonBowers, 2001).
Literatur Awad, S. S., Fagan, S. P., Bellows, C., Albo, D., Green-Rashad, B., De La Garza, M., Berger, D. H. (2005). Bridging the communication gap in the operating room with medical team training. The American Journal of Surgery, 190 (5), 770–774.
185
9
Baecker, D. (1997). Einfache Komplexität. In H. W. Ahlemeyer & R. Königswieser (Hg.), Komplexität managen. Strategien, Konzepte und Fallbeispiele, S. 21–50. Wiesbaden: Gabler. Caroll, J. S. (1998). Safety culture as an ongoing process: Culture surveys as opportunities for enquiry and change. Work & Stress, 12, 272–284. Colla, J. B., Bracken, A. C., Kinney, L. M. & Weeks, W. B. (2005). Measuring patient safety climate: a review of surveys. Quality and Safety in Health Care, 14 (5), 364–366. Cox, S. & Flin, R. (1998). Safety Culture: Philosopher’s stone or man of straw? Work and Stress, 12 (3), 93–106. Davies, J. M. (2005). Team communication in the operating room. Acta Anaest. Scan., 49 (7), 898–901. Emery, F. E., & Trist, E. (1965). The causal texture of organisational environments. Human Relations, 18, 21-32. Flin, R. (2001). Behavioral markers for crew resource management: A review of the current practice. International Journal of Aviation Psychology, 11 (1), 95–118. Flin, R. H., O’Connor, P. & Crichton, M. (2008). Safety at the sharp end: A Guide to non-technical skills. Aldershot: Ashgate. Flin, R., Burns, C., Mearns, K., Yule, S. & Robertson, E. M. (2006). Measuring safety in health care. Quality and Safety in Health Care, 15 (2), 109–115. Ford, J. K., Kozlowski, S., Kraiger, K., Salas, E. & Teachout, M. (Eds.) (1997). Improving training effectiveness in work organizations. Mahwah: Erlbaum. Hacker, W. (2005). Allgemeine Arbeitspsychologie: Psychische Regulation von Wissens-, Denk- und körperlicher Arbeit (2., vollständig überarbeitete und ergänzte Auflage). Bern: Hans Huber. Hagemann, V., Kluge, A. & Ritzmann, S. (2009). Arbeitskontextspezifische Übertragung von Crew Resource Management-Trainings aus der Aviatik auf andere Hoch-Risiko-Organisationen. In M. Grandt & A. Bauch (Hrsg.), Kooperative Arbeitsprozesse (S. 245-260). Bonn: Deutsche Gesellschaft für Luft- und Raumfahrt e.V. Helmreich, R. L., Merritt, A. C. & Wilhelm, J. A. (1999). The evolution of crew resource management training in commercial aviation. International Journal of Aviation Psychology, 9 (1), 19–32. Hollnagel, E. (2004). Barriers and accident prevention. Aldershot: Ashgate. Howard, S. K., Gaba, D. M., Fish, K. J., Yang, G. & Sarnquist, F. H. (1992). Anesthesia crisis resource management: teaching anesthesiologists to handle critical incidents. Aviation Space Environmental Medicine, 63, 763–770. Hunt, G. J. F. & Callaghan, K. S. N. (2008). Comparative issues in aviation and surgical CRM: (1) Are we too solution-focused? ANZ Journal of Surgery, 78 (8), 690-693. IAEA, International Atomic Energy Agency (1991). Safety culture. International Safety Advisory Group, Safety Series 75-INSAG-4. Vienna: IAEA.
186
9
Kapitel 9 • Organisationen – Kommunikationssystem und Sicherheit
IAEA, International Atomic Energy Agency (2005). Assessment of defence in depth for nuclear power plants (Safety Reports). Vienna: IAEA. Jemison, D. B. & Sitkin, S. B. (1986). Acquisitions: The process can be a problem. Harvard Business Review, 1986 MarchApril, 106–116. Kayes, A. B., Kayes, D. C., Kolb, D. A. (2005). Developing teams using the Kolb Team Learning Experience. Simulation & Gaming, 36, 355–363. Krystek, U. (1992). Unternehmenskultur und Acquisition. Zeitschrift für Betriebswirtschaft, 5, 539–565. Leveson, N. (2002). A new approach to system safety engineering. MIT: Boston. Luhmann, N. (1984). Soziale Systeme. Frankfurt a. M.: Suhrkamp. Manser, T. (Hrsg.) (2003). Komplexes Handeln in der Anästhesie. Lengerich: Pabst. Maturana, H. (1982). Erkennen: Die Organisation und Verkörperung von Wirklichkeit. Braunschweig: Vieweg. Merritt, A. C. & Helmreich, R. L. (1997). CRM: I hate it, what is it? (Error, stress, and culture). Proceedings of the Orient Airlines Association Air Safety Seminar (p. 123–134). Manila: Metro. Meshkati, N. (2002). Macroergonomics and aviation safety: The importance of cultural factors in technology transfer. In H. W. Hendrick & B. M. Kleiner (Eds.), Macroergonomics: Theory, methods and applications (p. 23–330). Mahwah: Lawrence Erlbaum. Meshkati, N. (1997). Human performance, organizational factors and safety culture. Paper presented on National Summit by NTSB on transportation safety, Washington, D.C. Morin, E. (2002). Kultur – Erkenntnis. In P. Krieg & P. Watzlawick (Hrsg.), Das Auge des Betrachters. Beiträge zum Konstruktivismus (S. 75–84). Heidelberg: Auer. Nerdinger, F. W., Blickle, G. & Schaper, N. (2011). Arbeits- Und Organisationspsychologie. Berlin, Heidelberg: Springer. Perrow, C. (1999). Normal accidents: Living with high-risk technologies. Princeton, NJ: Princeton Univ. Press. Pidgeon, N. F. (1991). Safety culture and risk management in organizations. Journal of Cross-Cultural Psychology, 22, 129–141. Proctor, R. W. & Van Zandt, T. V. (2008). Human factors in simple and complex systems (2nd ed.). Boca Roca, FL: CRC Press. Pronovost, P. J. & Sexton, B. (2005). Assessing safety culture: guidelines and recommendations. Quality and Safety in Health Care, 14 (4), 231–233. Pronovost, P. J., Weast, B., Rosenstein, B. et al. (2005). Implementing and validating a comprehensive unit-based safety program. Journal of Patient Safety, 1, 33–40. Reason, J. (2000). Human error: Models and management. BMJ, 18 (320), 768–770. Reason, J. (1997). Managing the risks of organizational accidents. Aldershot: Aldershot. Reason, J. (1993). The Identification of latent organizational failures in complex systems. In J. A. Wiese, V. D. Hop-
kin & P. Stager (Esd.), Verification and identification of complex systems: Human factor issues (p. 223–237). New York: Springer. Reason, J. & Hobbs, A. (2003). Managing maintenance error: A practical guide. Aldershot: Ashgate. Rochlin, G. I. & von Meier, A. (1994). Nuclear power operations: A cross-cultural perspective. Annual Review of Energy Environment, 19, 153–187. Salas, E. & Cannon-Bowers, J. A. (2001). The science of training: A decade of progress. Annual Review of Psychology, 52, 471–499. Salas, E., Fowlkes, J. E., Stout, R. J., Milanovich, D. M. & Prince, C. (1999). Does CRM training improve teamwork skills in the cockpit? Two evaluation studies. Human Factors, 41, 326–343. Schein, E. H. (1997). Organizational culture and leadership. Chichester: Jossey-Bass Wiley. Senge, P. M. (1990). The fifth discipline. The art and practice of the learning organization. New York: Dubleday. Simon, F. B. (2006). Gemeinsam sind wir blöd!? Die Intelligenz von Unternehmen, Managern und Märkten. Heidelberg: Auer. Sträter, O. (2005). Cognition and safety. An Integrated approach to system design und assessment. Aldershot: Ashgate. St.Pierre, M., Hofinger, G. & Buerschaper, C. (Hrsg.) (2011). Notfallmanagement: Human Factors in der Akutmedizin. 2., aktualisierte und überarbeitete Auflage. Heidelberg: Springer. Strohm, O., & Ulich, E. (Hrg.). (1997). Unternehmen arbeitspsychologisch bewerten. Ein Mehr-Ebenen-Ansatz unter besonderer Berücksichtigung von Mensch, Technik und Organisation. Zürich: vdf Hochschulverlag. Svenson, O. (2001). Accident and Incident analysis based on the Accident Evolution and Barrier function (AEB) model. Cognition, Technology & Work, 3 (1), 42–52. Thomas, E. J. & Helmreich R. L. (2002). Will airline safety models work in medicine? In M. M. Rosenthal & K. M. Sutcliffe (Eds.), Medical error. What do we know? What do we do? (p. 217–234). San Francisco: Jossey-Bass. Trist, E., & Bamforth, K. W. (1951). Some social and psychological consequences of the Longwall method of coal getting. Human Relations, 4, 3-38. Tsang, P. S. & Vidulich, M. A. (2002). Principles and practice of aviation psychology. Human Factors in Transportation. Mahwah: Lawrence Erlbaum. Ulich, E. (2005). Arbeitspsychologie (6. Auflage). Stuttgart: Schäffer-Poeschel. Weick, K. E. (1995). Der Prozess des Organisierens. Frankfurt a. M.: Suhrkamp. Weick, K. E. & Sutcliffe, K. M. (2003) Das unerwartete Managen. Wie Unternehmen aus Extremsituationen lernen. Stuttgart: Klett-Cotta. Weick, K. E. & Sutcliffe, K. M. (2010). Managing the unexpected: Resilient performance in the age of uncertainty (2nd ed.). San Francisco, CA: John Wiley & Sons, Inc.
Literatur
Weick, K. E. & Roberts, K. H. (1993). Collective mind in organizations: Heedful interrelating on flight decks. Administrative Science Quarterly, 38, 357–381. Xiao, Y., Hunter, W. A., Mackenzie, C. F., Jeffries, N. J., Horst, R. L. & the LOTAS Group (1996). Task complexity in emergency medical care and its implications for team coordination. Human Factors, 38, 636–645. Zhang, H., Wiegmann, D. A., von Thaden, T. L., Sharma, G. & Mitchell, A. A. (2002). Safety culture: A concept in chaos? Proceedings of the 46th annual Meeting of the Human Factors and Ergonomics Society. Santa Monica: Human Factors and Ergonomics Society. Zohar, D. (2000). A group-level model of safety climate: Testing the effect of group climate on micro-accidents in manufacturing jobs. Journal of Applied Psychology, 85, 587–596.
187
9
189
Führung Gudela Grote
10.1
Die Bedeutung von Führung für die Förderung von Sicherheit – 190
10.2
Management von Unsicherheit – 193
10.3
Anforderungen an normative Führung – 195
10.4
Anforderungen an strategische Führung – 197
10.5
Anforderungen an operative Führung – 198
10.6
Führung bei organisationalen Veränderungen – 200
10.7
Zusammenfassung – 202 Literatur – 203
P. Badke-Schaub et al., Human Factors, DOI 10.1007/978-3-642-19886-1_10, © Springer-Verlag Berlin Heidelberg 2012
10
190
Kapitel 10 • Führung
Beispiel
10
Ein Operateur im Kontrollraum einer petrochemischen Produktionsanlage überwacht kritische Kenngrößen des Produktionsprozesses auf einer Reihe von Bildschirmen und Prozessschreibern. Mit Blick auf einen der Prozessschreiber erläutert einer seiner Schichtkollegen: »Wenn diese beiden Kurven nicht mehr parallel laufen, ist Vorsicht geboten – wenn sie sich kreuzen, muss sofort der Prozess gestoppt werden.« Neben den Prozessschreibern sind auf einem Blatt Papier die kritischen Werte für diese beiden Parameter – Druck in einem Reaktor und Energieverbrauch bei einer Gruppe von Pumpen – vermerkt, unterschieden nach dem Wert, bei dem der Vorgesetzte zu unterrichten ist, und dem Wert, bei dem der Prozess abgestellt werden muss, was sofortiges Leeren des Reaktors und Spülen mit Wasser sowie eine mehrstündige Produktionsunterbrechung bedeutet. Eine Stunde später beginnen sich die beiden Kurven tatsächlich aufeinander zu zu bewegen. Der sehr erfahrene Operateur bemerkt dies sofort und verändert nach Überprüfung einiger anderer Werte die Sollwerte für einen Produktionsstoff – er hat sich zusätzlich über die Sollwerte dieses Stoffes in den Prozessvorschriften vergewissert –, wodurch das automatische Prozessleitsystem den Zufluss des Stoffes reduziert und der Reaktor entlastet wird. Gleichzeitig hat der Operateur auch den Schichtführer informiert, der wenige Minuten später aus einer Sitzung heraus zu ihm kommt und während des weiteren Verlaufs der Störung hinter ihm an der Leitwarte steht. Die ersten Aktionen des Operateurs haben den Trend der Messgrößen noch nicht umgekehrt, erst weitere Reduktionen des Produktionsstoffes und schnelleres Entleeren des Kessels führen nach mehr als einer Viertelstunde wieder zu einer Normalisierung der Werte. Im Verlauf dieser Störung haben sich die beiden Kurven auf dem Prozessschreiber kurzfristig gekreuzt. Im Vertrauen auf seine Fähigkeiten und ermutigt durch den Schichtführer hat sich der Operateur aber dagegen entschieden, den Prozess gänzlich zu stoppen. Statt einen größeren Produktionsausfall zu verursachen, hat er innerhalb einer halben Stunde den Prozess wieder weitgehend normalisiert, auch die Resultate der Qualitätskontrolle sind bald wieder positiv. Der weniger
erfahrene Schichtkollege kommentiert: »Ich hätte den Prozess ganz sicher gestoppt!« – dabei ist aber Bewunderung für die Kompetenz des anderen zu spüren.
Dieser Ausschnitt aus dem Arbeitsalltag in einer Chemieanlage bietet Anlass zu vielerlei Fragen. Wie konnte es zu dieser Störung kommen: Hat die technische Prozessüberwachung versagt? Hat der Operateur durch vorheriges (Nicht-)Eingreifen zur Störung beigetragen oder sie sogar verursacht? Wieso hat der Operateur während der Störung kompetent und eigenständig, aber gleichzeitig auch gegen die empfohlene Vorgehensweise handeln können? Wie sind Kompetenzen und Verantwortung zwischen Operateur und Schichtführer abgegrenzt? Welche Rolle hat die Unterstützung des Schichtführers gespielt? Welchen Stellenwert hatte die Vorschrift? Welche besondere Motivation und Fähigkeit zeichnen den Operateur gegenüber dem zweiten Operateur in der Anlage aus, dessen Kommentar war: »Ich hätte den Prozess ganz sicher gestoppt«? Diese Fragen lassen unterschiedliche Blickwinkel auf die optimale Gestaltung des Zusammenspiels zwischen Mensch, Technik und Organisation erkennen. Ist das Optimum dann er-
reicht, wenn keinerlei Störungen in den Abläufen auftreten oder wenn mit auftretenden Störungen kompetent umgegangen werden kann? Wie viel menschliche und wie viel technische Kontrolle wird benötigt, um komplexe Produktionsprozesse effizient und sicher planen und steuern zu können? Welches ist das richtige Verhältnis zwischen hierarchiegebundener Koordination einerseits und dezentralen Eingriffsmöglichkeiten andererseits? Und schließlich die Frage, die im Folgenden im Zentrum stehen wird: Welche Art der Führung ist nötig, um den sicheren Umgang mit risikoreichen Arbeitsprozessen zu gewährleisten?
10.1
Die Bedeutung von Führung für die Förderung von Sicherheit
Förderung von Sicherheit in risikoreichen Arbeitssystemen wird im Allgemeinen als zentrale Führungsaufgabe angesehen, denn die Sicherheit des operativen menschlichen Handelns und die siche-
10.1 • Die Bedeutung von Führung für die Förderung von Sicherheit
re Gestaltung von Organisationen (7 Kap. 9) sind über die Entscheidungen und Handlungen der Führenden in diesen Organisationen eng miteinander verknüpft. > Alle Beschreibungen von Merkmalen sicherer Organisationen, von Sicherheitsmanagement oder Sicherheitskultur sind somit immer auch eine Handlungsanweisung an die Führenden, genau diese Merkmale in ihren Organisationen zu schaffen oder zu erhalten (Rundmo & Hale, 2003; Thompson, Hilton & Witt, 1998).
Dies ist eine entsprechend gängigen Managementmodellen (z. B. Bleicher, 1992) sowohl normative wie strategische Aufgabe. Bezüglich der normativen Aufgabe, die oft mit der Schaffung und Erhaltung einer Sicherheitskultur gleichgesetzt wird, wird vor allem die Schwierigkeit diskutiert, Kultur gezielt zu beeinflussen (z. B. Grote, 2007b; Guldenmund, 2000; Schein, 1992). Einigkeit besteht darin, dass »management commitment to safety« eine wesentliche Einflussgröße ist (z. B. Rundmo & Hale, 2003). Hinsichtlich der strategischen Aufgabe wird vielfach auf die allgemeine Führungsliteratur verwiesen in der Annahme, dass Sicherheit letztlich genauso »gemanagt« werden kann wie andere strategische Zielsetzungen auch (z. B. Hale, Heming, Carthey & Kirwan, 1997). Die Förderung und Erhaltung einer sicheren Organisation ist aber auch eine operative Aufgabe, die das tägliche Handeln der Führenden in den laufenden Arbeitsprozessen betrifft. Eine häufig zu findende Handlungsanweisung ist, dass Führende sich möglichst oft in der Werkstatt, dem Kontrollraum, auf der Baustelle, oder wo auch immer operativ gearbeitet wird, blicken lassen sollten. Welches konkrete Führungsverhalten in risikoreichen Arbeitssystemen gefordert ist, ist aber auch Gegenstand vieler neuerer Forschungsarbeiten, die im 7 Abschn. 10.5 behandelt werden. Generell gibt es in der Führungsforschung seit jeher zwei Tendenzen, die teilweise konkurrieren und sich teilweise ergänzen: 5 Suche nach Merkmalen der Führenden, seien es Persönlichkeitsdispositionen oder Verhaltensstile, die situationsunabhängig als Voraus-
191
10
setzung für Führungserfolg angesehen werden (vgl. Zaccaro, 2007); 5 Bestimmung von Situationsmerkmalen – z. B. der Aufgabe, der Organisation, der Geführten –, aus denen unterschiedliche Anforderungen an Führung abgeleitet werden, verbunden mit der grundsätzlichen Annahme, dass Führungsverhalten situativ angepasst werden muss (z. B. Zaccaro, Rittman & Marks, 2001). In diesem Beitrag wird im Wesentlichen dem zweiten Ansatz gefolgt und versucht, die Besonderheiten der Führung in risikoreichen Arbeitssystemen herauszuarbeiten. Ein grundlegendes, für die Führung höchst relevantes Situationsmerkmal ist die Art der Risiken bzw. die Art des anzustrebenden sicheren Zustands in einer Arbeitsorganisation (Grote, 2007a): Arbeitssicherheit Zum einen geht es um die Vermeidung gesundheitsschädigender Wirkungen auf die Arbeitenden, wozu der Schutz vor Unfallgefahren und Berufskrankheiten gehört. Dies kann durch Beseitigung oder Unschädlichmachen der Gefahr, durch Trennung zwischen Mensch und Gefahrenquelle, durch Schutz vor den Wirkungen der Gefahr oder durch möglichst sichere Interaktion zwischen Mensch und Gefahr erfolgen. Diese Art der Sicherheit, hier Arbeitssicherheit genannt, ist somit eine sekundäre Aufgabe, die erfüllt werden muss, um die eigentliche oder primäre Arbeitsaufgabe ohne Gefahr für die eigene Gesundheit und möglicherweise für die Gesundheit anderer ausführen zu können. Den Helm zieht die Bauarbeiterin nicht an, um ein Haus besser bauen zu können, sondern um sich vor den Gefahren, die beim Bauen des Hauses vorhanden sind, zu schützen. Prozesssicherheit Zum anderen kann der Produktionsprozess Risiken beinhalten, die nicht oder nicht nur den arbeitenden Menschen, sondern den Arbeitsprozess selbst und seine unmittelbaren Ergebnisse betreffen – hier Prozesssicherheit genannt. Die Bauarbeiterin muss Eisenverstärkungen so anbringen, dass der anschließend gegossene Beton seine statische Funktion bestmöglich erfüllen kann. Dazu benötigt sie keinen Helm, sondern v. a. viel Fachkenntnisse, gute Kooperation mit ihren
192
Kapitel 10 • Führung
Kollegen auf der Baustelle, gutes Material etc. Hier betrifft die Sicherheit die primäre Arbeitsaufgabe. > Drei gerade auch aus Perspektive der Führung relevante Gründe (s. folgende Aufzählung) sprechen für die konzeptionelle Trennung von Arbeits- und Prozesssicherheit (Grote, 2007a).
10
5 Da Arbeitssicherheit für den betroffenen Arbeitenden meist Sekundär-, Prozesssicherheit hingehend Teil der Primäraufgabe ist, sind andere motivationale Prozesse anzunehmen (Semmer & Regenass, 1996). Dies ist insbesondere bei der Konzeption und Durchführung personbezogener Maßnahmen für die Sicherheitsförderung zu berücksichtigen. Wenn Prozesssicherheit untrennbarer Bestandteil der Primäraufgabe ist, kann die Motivierung unmittelbar durch motivationsfördernde Aufgabengestaltung erfolgen. Motivation für arbeitssicherheitsbezogenes Handeln als Sekundäraufgabe – obwohl eigentlich im ureigensten Interesse der Arbeitenden – muss meist stärker durch zusätzliche Maßnahmen wie Belohnung bzw. Überwachung gestützt werden, insbesondere wenn Sicherheitsanforderungen effizientes Arbeiten sogar behindern (z. B. das Tragen von Handschuhen, die das Bedienen einer Tastatur erschweren). 5 Indikatoren für Arbeits- und Prozesssicherheit unterscheiden sich. Dies ist im Führungsprozess zu berücksichtigen, wenn es beispielsweise darum geht, sicherheitsbezogene Ziele für die Mitarbeitenden festzulegen und ihre Erreichung zu evaluieren. Im ersten Fall geht es vielfach um Arbeitsunfälle, die den arbeitenden Menschen, nicht aber notwendigerweise die Arbeitsprozesse betreffen (z. B. Wegeunfälle durch Stolpern und Ausrutschen). Im zweiten Fall werden betriebliche Störfälle betrachtet, die den Arbeitsprozess, nicht unbedingt aber den arbeitenden Menschen tangieren (z. B. falsche Medikamentierung eines Patienten). Nicht selten wird als Beleg für die (Nicht-)Wirksamkeit einer Maßnahme, die die Prozesssicherheit betrifft, die Zahl der Arbeitsunfälle herangezogen, da die größere Häufigkeit von Arbeitsunfällen im Vergleich
zu betrieblichen Störfällen eher statistische Auswertungen zulässt. Konzeptionell ist das fragwürdig, wenn nicht belegt werden kann, dass Arbeits- und Prozesssicherheit denselben Wirkzusammenhängen unterliegen. Die meisten Eisenbahnunternehmen sind interessante Beispiele dafür, dass tatsächlich wohl eher unterschiedliche Wirkzusammenhänge anzunehmen sind, da sie sich durch eine im Vergleich mit anderen Industrien sehr hohe Prozesssicherheit und eher niedrige Arbeitssicherheit auszeichnen (Hale & Heijer, 2006). 5 Die konzeptionelle Trennung zwischen Arbeits- und Prozesssicherheit unterstützt auch die Identifikation möglicherweise gegenläufiger Wirkungen einer Sicherheitsmaßnahme. Ein einfaches Beispiel ist die physische Abschirmung von technischen Anlagen, um die Verletzungsgefahr zu reduzieren. Dadurch wird gleichzeitig die Prozesstransparenz reduziert, was sich nachteilig auf die Prozesssicherheit auswirken kann. Eine komplexere, noch nicht abschließend geklärte Frage betrifft die Auswirkung operativer Freiheitsgrade auf die Sicherheit (Grote, 1997, 2007b). Aufgrund ihres Befunds höherer Arbeitsunfallzahlen bei Arbeitenden mit vielfältigeren Aufgaben kommen beispielsweise Hoyos, Gockeln & Palecek (1981, S. 149) zu dem Schluss: »Handlungsspielraum bringt Gefährdung mit sich.« Andere Forschungen zeigen eher die Vorteile von mehr Autonomie durch erhöhtes eigenverantwortliches und flexibles Handeln, wobei dort oft eher proaktives, auf die Prozesssicherheit bezogenes Verhalten als Indikator verwendet wurde (Shannon, Mayr & Haines, 1997). Ein weiteres wichtiges Situationsmerkmal ist der Grad der Neuheit bzw. Variabilität der Arbeitsanforderungen sowie der spezielle Fall organisationaler Veränderungen. Damit ist das Ausmaß der Unsicherheiten in den Arbeitsprozessen angesprochen, auf das mit angemessenen Führungs- und Organisationsformen reagiert werden muss (vgl. den Überblick von Wall, Cordery & Clegg, 2002).
193
10.2 • Management von Unsicherheit
> In risikoreichen Arbeitssystemen ist zudem
> Sehr vereinfacht können zwei Arten des
zu berücksichtigen, dass viele Grundprinzipien des Sicherheitsmanagements eher für Routineprozesse geeignet sind und bei höheren Graden von Neuheit oder Veränderungen schlecht greifen. Gleichzeitig gibt es aber auch in risikoreichen Arbeitssystemen die Notwendigkeit für Innovation und Veränderung. Daraus entstehen komplexe und teilweise widersprüchliche Anforderungen an die Gestaltung und Führung dieser Systeme (Perrow, 1984).
Im Folgenden wird zunächst die Unterscheidung zwischen Routine- und neuartigen Prozessen mit ihren unterschiedlichen Anforderungen an Führung aus der Perspektive des Managements von Unsicherheiten ausführlicher betrachtet. Anschließend werden Führungsaufgaben auf normativer, strategischer und operativer Ebene formuliert. Zum Schluss wird auf Anforderungen bei der sicheren Gestaltung organisationaler Veränderung eingegangen.
10.2
Management von Unsicherheit
Ein Kernproblem von Arbeitssystemen ist der Umgang mit Unsicherheit (vgl. z. B. Perrow, 1967; Thompson, 1967). Als offene und komplexe Systeme sind sie mit einer Vielzahl interner und externer Störungen konfrontiert, die die Erreichung der Systemziele behindern können. Auch wenn man der Argumentation von Selbstorganisationstheorien folgt, dass soziale Systeme ähnlich wie biologische Systeme durch operationale Geschlossenheit gekennzeichnet sind, bleibt die Problematik des Umgangs mit Unsicherheit – wenn auch unter etwas anderen Prämissen – bestehen (Grote, 1997). Wie Marris (1996) beschreibt, drückt sich Macht in Organisationen wie auch in sozialen Systemen generell gerade dadurch aus, wie mit Unsicherheit umgegangen wird. Wesentliches Kennzeichen von Macht ist in seiner Argumentation die Möglichkeit, Unsicherheit an andere, weniger Mächtige weitergeben zu können.
10
Umgangs mit Unsicherheit in Arbeitssystemen unterschieden werden (Grote, 2004, 2009) – die Minimierung und die Bewältigung von Unsicherheit – die sich besonders in Bezug auf die Art der Planungsprozesse, die gewählten Koordinationsmechanismen für die Kopplung zwischen Planung und Umsetzung und die operative Zusammenarbeit sowie den Umgang mit Störungen unterscheiden (. Abb. 10.1). z
Minimierung und Bewältigung von Unsicherheit
Der Versuch der Minimierung von Unsicherheit – besonders ausgeprägt in risikoreichen Arbeitssystemen – setzt komplexe, zentrale Planungssysteme und eine Reduktion operativer Handlungsspielräume durch Reglementierung und Automatisierung voraus, um einerseits Unsicherheit »wegzuplanen« und andererseits eine hohe Kopplung zwischen zentraler Planung und dezentraler Umsetzung zu erreichen. Koordination erfolgt v. a. via Standardisierung und durch Programme (7 Kap. 17.2) sowie persönliche Weisungen. Mit der Strategie der Bewältigung von Unsicherheit wird vom Mythos der zentralen Kontrollierbarkeit komplexer Systeme Abschied genommen, wodurch gleichzeitig ein konstruktiveres Umgehen mit der Begrenztheit der Planung und Steuerung und eine gezielte Förderung dezentraler Autonomie möglich werden. Planung wird als Ressource für situatives Handeln verstanden (vgl. Suchman, 1987). Damit wird die Kopplung zwischen Planung und Umsetzung durch eine Anpassung der Planung an die Erfordernisse der Umsetzung erreicht, anstatt die Umsetzung der Planung unterzuordnen. Koordination erfolgt zusätzlich über gegenseitige Absprachen lateral vernetzter Akteure und nicht zuletzt über geteilte Normen und Werte. Störungen werden nicht mehr automatisch und unhinterfragt als Zeichen schlechter Planung und mangelnder Effizienz gedeutet, sondern zumindest auch als mögliche Chance für individuelles Lernen wie auch für systemische Weiterentwicklung verstanden. Dies kann so weit gehen, dass Störungen und – nach einem engen Verständnis – Ineffizienz
194
Kapitel 10 • Führung
Minimierung von Unsicherheiten
Bewältigung von Unsicherheiten
- Komplexe, zentrale Planungssysteme
- Planung als Ressource für situatives Handeln
- Reduktion von operativen Handlungsspielräumen durch Reglementierung und Automatisierung
- Fördern operativer Handlungsspielräume durch vollständige Aufgaben und laterale Vernetzung
- Störungen als zu vermeidende Symptome ineffizienter Systemgestaltung
- Störungen als Gelegenheit für Kompetenzerwerb / -einsatz und für Systemveränderungen
Bindung
Autonomie Balance durch lose Kopplung
Motivation durch Aufgabenorientierung Autonomie höherer Ordnung Flexible Wechsel zwischen Organisationsformen Kultur als Basis für Koordination / Integration
10
. Abb. 10.1 Management von Unsicherheit in Organisationen. (Nach Grote, 2004. Reprinted from Grote, G., Zala-Mezö, E., & Grommes, P. (2004). The effects of different forms of coordination on coping with workload. In R. Dietrich & T. Childress, M. (Eds.), Group interaction in high risk environments. 39-55, Copyright (2004), with permission from Elsevier.)
bewusst in Kauf genommen werden, um auf einer übergeordneten Ebene Effizienz durch Lernprozesse und neue Lösungen zu steigern in der Annahme, dass eine wirkliche Weiterentwicklung nur in der Auseinandersetzung mit dem »Nicht-Normalfall« passieren kann (z. B. Staehle, 1991). Schon in früheren organisationswissenschaftlichen Studien und neuerdings in einem Überblicksartikel von Wall, Cordery & Clegg (2002) ist aufgezeigt worden, dass die Minimierung von Unsicherheit (z. B. in mechanistischen Organisationen nach Burns & Stalker, 1961) dann erfolgreich sein kann, wenn die Organisation insgesamt mit wenigen Unsicherheiten konfrontiert ist, also z. B. in einer stabilen Umwelt Routineprozesse sicherzustellen hat. Wenn ein höheres Ausmaß an Unsicherheiten, z. B. bei innovativen Arbeitsprozessen in dynamischen Umwelten, vorliegt, dann führt nur die Bewältigung von Unsicherheiten (z. B. in organismischen Organisationen nach Burns & Stalker, 1961) zum Erfolg.
> Die Bewältigung von Unsicherheit muss jedoch ohne Verlust der Bindung zwischen Subsystemen des Arbeitssystems erfolgen, was dezentrale Planung und Umsetzung im Rahmen koordinierter arbeitsteiliger Prozesse erfordert. Weick (1976; Orton & Weick, 1990) hat den Begriff der »losen Kopplung« (»loose coupling«) verwendet, um die dafür nötige Gleichzeitigkeit von Autonomie und Bindung auszudrücken.
Dabei bezieht sich Weick auf Thompson (1967) und die von ihm beschriebene Gleichzeitigkeit von Unsicherheit und rationaler Planung auf den verschiedenen Ebenen von Verantwortung und Kontrolle in Organisationen (7 Kap. 2 und 17). Das Konzept der losen Kopplung ist zu unterscheiden von der häufig verwendeten eindimensionalen Definition von Kopplung, die durch die beiden Pole Unabhängigkeit und Abhängigkeit der Systemkomponenten gekennzeichnet ist (z. B. Perrow, 1984; Staehle, 1991; vgl. auch Orton & Weick, 1990, für eine detail-
In Arbeitsprozessen
Unsicherheit
10
195
10.3 • Anforderungen an normative Führung
Normative Führung
Strategische Führung
Operative Führung
Grundverständnis zum Umgang mit Unsicherheit
Rahmenbedingungen für Sicherheitsmanagement
Kohäsion Lokomotion Grenzregulation
Kulturelle Normen zum Zusammenwirken von Mensch, Technologie und Organisation
Wahl der angemessenen Koordinationsmechanismen
Situative Führung
Vision in der Veränderung
Transparenz durch klare, unmittelbar kommunizierte Entscheidungen
Dynamische Delegation
Arbeitssicherheit Prozesssicherheit
Bei OrganisationsKontinuierliche veränderung Wertschätzung
. Abb. 10.2
Vorgehensweisen und Instrumente im Veränderungsprozess
Rahmenmodell für Führung in risikoreichen Arbeitssystemen
lierte Behandlung der diversen Missverständnisse bzgl. ihres Konzepts der losen Kopplung). Eine Reihe von Gestaltungsempfehlungen der Arbeits- und Organisationsforschung stellen letztlich Versuche der Umsetzung der Idee der losen Kopplung dar (. Abb. 10.2), z. B.: 5 Förderung von Motivation durch Aufgabenorientierung (Emery, 1959) auf der Grundlage individuell oder kollektiv vollständiger Aufgaben, wodurch autonomes Handeln auf ein überindividuelles, der Aufgabe inhärentes Ziel gerichtet werden soll; 5 Förderung von Autonomie höherer Ordnung (Grote, 1997; Klein, 1991), d. h. die selbstbestimmte Beschränkung operativer Autonomie z. B. in technisch eng gekoppelten und risikoreichen Systemen, in denen ein besonders hoher Grad an kontinuierlicher Koordination gewährleistet werden muss; 5 flexibler Wechsel zwischen Organisationsformen mit unterschiedlichen Graden an (De-) Zentralität, um auf unterschiedliche Anforderungen an die Bewältigung von Unsicherheit reagieren zu können (z. B. LaPorte & Consolini, 1991); 5 Schaffung gemeinsamer Normen im Sinne einer starken Organisationskultur, durch die autonomes Handeln überindividuell koordi-
niert und integriert werden kann (z. B. Schein, 1992; Weick, 1987). Diesen Konzepten ist gemeinsam, dass sie ausgehend von der Forderung nach hoher dezentraler Autonomie im operativen Bereich Koordinationsmechanismen beschreiben, die die Nutzung der Autonomie im Sinne eines übergeordneten gemeinsamen Ziels fördern. Im Folgenden werden Anforderungen an Führung auf normativer, strategischer und operativer Ebene mit Blick auf die beiden Arten des Managements von Unsicherheiten und die Erfordernis der losen Kopplung diskutiert.
10.3
Anforderungen an normative Führung
> Eine grundlegende Herausforderung für die Führung risikoreicher Arbeitssysteme ist es, die richtige Mischung von Minimierung und Bewältigung von Unsicherheiten zu finden. Generell gilt, dass je höher das Ausmaß der Unsicherheiten, mit denen das System durch seine eigenen Transfor-
196
Kapitel 10 • Führung
mationsprozesse und durch seine Umwelt konfrontiert ist, desto eher sollte eine Bewältigungsstrategie verfolgt werden.
Da das Ausmaß der Unsicherheiten für verschiedene Teile einer Organisation bzw. für verschiedene Arbeitsprozesse in einer Organisation unterschiedlich sein kann, können auch verschiedene Koordinationsformen nebeneinander existieren, was allerdings das zusätzliche Problem der Gewährleistung der Durchgängigkeit schafft. Dies ist einerseits eine strategische Führungsaufgabe, die in 7 Kap. 10.4 noch ausführlicher behandelt wird. Es ist aber auch eine wesentliche Aufgabe normativer Führung, da bei diesen Entscheidungen basale Werte der Organisation betroffen sind. 5 Wird der Mensch in der Organisation eher als Risiko- oder als Sicherheitsfaktor gesehen? 5 Welches Gewicht hat Überwachung vs. Vertrauen? 5 Wird Technik eher als Unterstützung oder als Ersatz von Menschen verstanden?
10
Die Antworten auf diese Fragen drücken Grundannahmen im Sinne der Definition von Organisationskultur durch Schein (1992) aus, die nur begrenzt oder wenig systematisch beeinflusst werden können, die aber für das Grundverständnis der Erfordernisse einer sicheren Organisationsgestaltung von fundamentaler Bedeutung sind. Führungsaufgabe ist es, die Reflexion dieser Grundannahmen anzuregen und soweit möglich die Herausbildung und den Erhalt solcher Grundannahmen zu fördern, die das sichere Funktionieren der Organisation unterstützen. Welches die »richtigen« Grundannahmen sind, hängt von vielen Bedingungen ab, nicht zuletzt von den bereits diskutierten externen und internen Unsicherheiten. Quinn & Rohrbaugh (1983) haben aus der Perspektive der Effektivität von Unternehmen heraus vorgeschlagen, dass die Grundwerte der Organisation auf den drei Dimensionen 5 Flexibilität vs. Kontrolle, 5 internaler vs. externaler Fokus und 5 Mittel vs. Ziele analysiert und reflektiert werden sollten, woraus auch verschiedene Führungsrollen abgeleitet werden. Wählt beispielsweise eine Organisation eine
externale und auf Flexibilität gerichtete Orientierung, erwachsen daraus die Führungsrollen »Innovator« (Förderung von Kreativität und Veränderung) und »Broker« (Beschaffung von Ressourcen und Förderung der Vernetzung und Legitimität nach außen; Denison, Hooijberg & Quinn, 1995). Im Anfangsfallbeispiel dieses Kapitels handelt der Operator entsprechend dem Ansatz der Bewältigung von Unsicherheiten. Er nutzt sein Wissen und seine Kompetenz im Umgang mit dem Prozess und sichert seine Handlungsweise auch mithilfe der vorhandenen Prozessbeschreibungen und dem herbeigerufenen Schichtführer ab. Gleichzeitig besteht offensichtlich aber bei einem Schichtkollegen ein anderes Grundverständnis, das eher in der Minimierung von Unsicherheit verortet werden kann und dem auch die vorhandene schriftliche Vorschrift hinsichtlich der Vorgehensweise bei verschiedenen kritischen Parameterwerten zu entsprechen scheint. Die zentrale normative Führungsaufgabe – das gewünschte Grundverständnis definieren und Maßnahmen ergreifen, dass es angemessen kommuniziert und umgesetzt wird – ist in diesem Unternehmen offensichtlich unzureichend erfüllt. Dazu würde in diesem konkreten Beispiel auch gehören, den Stellenwert von Vorschriften zu klären. Sind die schriftlich notierten Handlungsanweisungen in diesem Fall eher als Orientierung zu verstehen, die den weniger kompetenten Operateuren vermitteln sollen, dass es in Ordnung bzw. sogar gewünscht ist, den Prozess in bestimmten kritischen Zuständen abzustellen (eine technische Notabschaltung gibt es dann ja auch noch), oder doch als für alle verpflichtende Vorgabe? > Grundsätzlich kann angenommen werden, dass starke kulturelle Normen und Werte v. a. dann sehr wichtig sind, wenn mit relativ großer Autonomie im Sinne der Bewältigung von Unsicherheiten gearbeitet wird. Dann dienen diese Normen als weicher Koordinationsmechanismus und fördern die lose Kopplung der autonomen Akteure an die Ziele der Gesamtorganisation.
10.4 • Anforderungen an strategische Führung
»(Culture) creates a homogeneous set of assumptions and decision premises which, when they are invoked on a local and decentralized basis, preserve coordination and centralization.« (Weick, 1987, S. 124)
Unter Bedingungen der Minimierung von Unsicherheit ist anzunehmen, dass Kultur als Koordinationsmechanismus eine eher untergeordnete Bedeutung hat, da Standardisierung, Programmierung und persönliche Weisungen die Koordination der Akteure gewährleisten (Grote, 2007b; Van de Ven, Delbecq & Koenig, 1976).
10.4
Anforderungen an strategische Führung
Die meisten führungsbezogenen Erfordernisse, die aus Sicht der Förderung von Sicherheit formuliert werden, betreffen die Ebene der strategischen Führung. > Kernaussage ist, dass es Managementaufgabe ist, der Sicherheit die angemessene Priorität gegenüber anderen unternehmerischen Zielsetzungen, insbesondere Produktivität und Effizienz, zu verschaffen (z. B. Reason, 1997).
Aus dieser grundlegenden Aufgabe erwachsen dann weitere Aufgaben, wie z. B. die Bereitstellung ausreichender Ressourcen für die Sicherheit, die Erarbeitung von Sicherheitsleitbildern und die Schaffung organisationaler Strukturen und Prozesse, die auf der operativen Ebene sicheres Handeln ermöglichen und unterstützen (z. B. INSAG, 1999). Strategische Führungsaufgabe Eine weitere strategische Führungsaufgabe ist, angesichts von Art und Menge vorhandener Unsicherheiten in den Prozessen und in der Systemumwelt Koordinationsmechanismen so zu bestimmen, dass die Akteure für den angemessenen Umgang mit diesen Unsicherheiten befähigt werden (Grote, 2007b, 2009). Grundsätzlich können die folgenden Koordinationsmechanismen genutzt werden (vgl. Kieser & Kubicek, 1992):
197
10
5 Algorithmisierung von Arbeitsprozessen durch Technik, 5 Vorschriften, 5 persönliche Weisungen, 5 wechselseitige persönliche Absprachen sowie 5 kulturelle Normen.
Innerhalb jeder Koordinationsart ist zusätzlich zu entscheiden, wie viel Handlungsspielraum die verschiedenen Akteure haben sollen. Bei technisch determinierten Prozessen heißt das, dass grundlegend die Aufgabenverteilung zwischen Mensch und Technik sowie das Ausmaß menschlicher Eingriffsmöglichkeiten zu definieren sind (Grote, Ryser, Wäfler, Windischer & Weik, 2000; 7 Kap. 19). Bei der Koordination durch Regeln und Vorschriften ist die Art der Regel und das Ausmaß des Ermessensspielraums zu bestimmen (s. Fallbeispiel). Beispiel Fallbeispiel (aus Grote, 2007c) In einem Eisenbahnunternehmen wurde eine Regelanalyse mithilfe von 6 Kategorien durchgeführt (Hale & Swuste, 1998): 1. Ebene der Handlungsregulation a. Ziel (Regel definiert nur das Ziel, ohne Aussagen dazu, wie das Ziel zu erreichen ist) b. Prozess (Regel beschreibt nötige Prozesse, um korrekte Handlungen zu definieren) c. Handlung (Regel schreibt konkrete operative Handlungsweise vor) 2. Verbindlichkeit (ja/nein) 3. Handlungsspielraum (ja/nein) 4. Verantwortungszuteilung (verantwortliche Person/en – nicht – erwähnt) 5. Ausnahmen der Regelanwendung (ja/nein) 6. Begründung (ja/nein) Interessant waren besonders zwei Ergebnisse: 4 Es fanden sich bei Rangierprozessen weit mehr Regeln mit Spielraum als bei Prozessen, die Zugfahrten betreffen. Angesichts der weit geringeren Qualifikation von Rangierern im Vergleich zu Fahrdienstleitern und Lokführern wäre genau die umgekehrte Verteilung zu empfehlen, d. h., die besser qualifizierten Mit-
198
Kapitel 10 • Führung
arbeitenden erhalten durch offenere Regeln mehr Eigenverantwortung. 4 Es fand sich ein höherer Anteil an Regelungen mit Verantwortungszuteilung bei den gerade neu erstellten Regeln zu Zugfahrten, was dem expliziten Ziel der Revision entsprach. Damit wird einerseits Verantwortungsdiffusion vermieden, gleichzeitig stellte sich aber auch die Frage, ob nicht bisher bestehende Redundanzen zwischen verschiedenen Akteuren übermäßig reduziert werden. Es wurde kritisiert, dass die Logik der Regeln nicht mehr den Arbeitsprozessen, sondern der Arbeitsteilung zwischen Infrastruktur und Verkehr folgt. Diese Ergebnisse waren eine wichtige Grundlage für die unternehmensinterne Erarbeitung von Richtlinien, in denen insbesondere die systematische Reflexion der verschiedenen Regelarten unterstützt wird.
zwischen impliziter Koordination auf Basis von Vorschriften und dem damit verbundenen geteilten Grundverständnis der Situation und expliziter Koordination, die aktiv ein geteiltes Verständnis der aktuellen Besonderheiten der Situation herstellt (7 Kap. 8), wechseln können müssen (Grote et al., 2010). > Die strategische Führung definiert durch die Wahl und Ausgestaltung der Koordinationsmechanismen die Rahmenbedingungen für die operative Führung. In stark standardisierten Prozessen beispielsweise kommt der operativen Führung eine weit kleinere Bedeutung zu, da die Standards als Substitut für persönliche Führung wirken (Kerr & Jermier, 1978; Künzle et al., 2010).
10.5 Standards und Regeln sind ein wesentlicher Ko-
10
ordinationsmechanismus in Organisationen. Sie erlauben koordiniertes Handeln einer Vielzahl von Akteuren ohne Notwendigkeit einer direkten Absprache, d. h. ohne explizite Koordination zwischen den Akteuren. Besonders in sicherheitsrelevanten Arbeitsprozessen besteht zudem die Annahme, dass Regeln die Sicherheit erhöhen, da die persönliche Koordination zwischen Akteuren fehleranfällig ist. Lokal handelnde Personen können nicht alle Konsequenzen ihrer Handlungen in komplexen, stark vernetzten Systemen überblicken. Dies kann weit besser durch ein unter Einbezug dieser komplexen Interaktionen entwickeltes Regelsystem gewährleistet werden. Gleichzeitig ist aber zu bedenken, dass persönliche Koordination durch Anweisungen eines Vorgesetzten oder Absprachen im Team weit flexibler ist als unpersönliche, durch Regeln definierte Koordination. Nicht alle Besonderheiten aller möglichen Zustände und Kontextbedingungen können für komplexe Systeme vorausgedacht und in das Regelsystem mit aufgenommen werden. Anpassungen und Konkretisierungen der Handlungsvorgaben müssen von den Akteuren lokal unter Berücksichtigung der Situation vorgenommen werden. Das bedeutet auch, dass die Akteure bewusst
Anforderungen an operative Führung
Ausgehend von der allgemeinen Definition operativer Führung als zielorientierte, wechselseitige Einflussnahme auf das Verhalten von Mitgliedern einer Gruppe (z. B. Neuberger, 2002) werden üblicherweise verschiedene Managementaufgaben oder Funktionen beschrieben. Bei Yukl (2006) beispielsweise findet sich die folgende sehr differenzierte Auflistung: 5 Planen und organisieren, 5 Informieren, 5 Überwachen, 5 Probleme lösen, 5 Klären, 5 Belohnen, 5 Delegieren, 5 Motivieren, 5 Anerkennen, 5 Beraten, 5 Unterstützen, 5 Entwickeln und Mentorrolle übernehmen, 5 Konflikte bewältigen und Teambildung, 5 Vernetzung fördern, 5 Repräsentieren.
10.5 • Anforderungen an operative Führung
> Kernelemente operativer Führung sind mitarbeiterbezogene Funktionen, die die Kohäsion in der Gruppe unterstützen, und aufgabenbezogene Funktionen, die die Lokomotion in Richtung auf Ziele betreffen (z. B. Rosenstiel, 2003; Burke, Stagl, Klein, Goodwin, Salas & Halpin, 2006) sowie, v. a. in soziotechnischen Ansätzen der Führung betont, die Grenzregulation zu umgebenden Gruppen in der Organisation oder nach außen (z. B. Susman, 1976). Wichtiger Bestandteil der funktionalen Sicht auf Führung ist die Annahme, dass die Führungsfunktionen in Abhängigkeit von Situationsmerkmalen unterschiedlich bedeutsam sind und Führende in der Lage sein müssen, die jeweils nötigen Funktionen zu erkennen und auszuführen (Zaccaro, Rittman & Marks, 2001).
Zusätzlich zur funktionalen Betrachtung von Führung werden übergeordnete Führungskonzepte diskutiert wie z. B. die Gegenüberstellung von transaktionaler und transformationaler Führung, d. h. Führung verstanden als Austauschbeziehung vs. als »Wandlung« der Geführten durch Visionen und Charisma, sowie das Konzept des Empowerment (Burke, Stagl, Klein, Goodwin, Salas & Halpin, 2006). Unter Empowerment wird verstanden, dass Führungsfunktionen der direkten Einflussnahme und Kontrolle reduziert werden, während Bereitstellung von Information und Ressourcen sowie Teamunterstützung an Bedeutung gewinnen. Dieses Führungskonzept wird insbesondere im Hinblick auf die Bewältigung von Unsicherheit in Arbeitsprozessen als zentral erachtet. > Neuere Metaanalysen unterstützen die Annahme, dass effektive Führung generell eher mitarbeiterbezogen, transformational und »empowering« ist (z. B. Burke, Stagl, Klein, Goodwin, Salas & Halpin, 2006).
> Es gibt auch Führungsansätze, die nicht in erster Linie anstreben, bestimmte möglichst effektive Verhaltensweisen von Vorgesetzten zu identifizieren, sondern Führende dabei zu unterstützen, ein Ver-
199
10
ständnis für die Komplexität der zu führenden Systeme und ihre eigene Rolle in diesen Systemen zu entwickeln.
Solche systemischen Theorien von Führung (z. B. Senge, 1990; Probst & Naujoks, 1995) betonen die Selbstorganisationsfähigkeit sozialer Systeme und die dadurch begrenzten Möglichkeiten einer direkten Steuerung und Kontrolle durch die Führungskräfte. Führung bedeutet aus dieser Sicht nicht mehr die Sicherstellung eines gewünschten Verhaltens durch den Einsatz entsprechender Instrumente, sondern das Schaffen eines Rahmens, in dem die Akteure eigenverantwortlich und selbstorganisierend handeln können. Damit wird auch die lokale Bewältigung von Unsicherheit in den Arbeitsprozessen unterstützt. Die Fähigkeit zum Management ist über das ganze System verteilt und kann potenziell von jedem Systemmitglied wahrgenommen werden. Dies wird in der Führungsforschung unter dem Begriff der geteilten Führung diskutiert, deren Überlegenheit gegenüber einer Führung nur durch die formalen Vorgesetzten in einer Reihe von Untersuchungen gezeigt werden konnte (Pearce & Conger, 2003). Der Komplexität des zu führenden Systems entsprechend wird auch angenommen, dass das Führungsverhalten komplex sein muss in dem Sinne, dass sehr verschiedene und u. U. sogar widersprüchliche Rollen und Verhaltensweisen gefordert sind (Denison, Hooijberg & Quinn, 1995). Forschung zu spezifischen Anforderungen an operative Führung in risikoreichen Arbeitssystemen hat erst in den letzten Jahren begonnen. Flin (2003) beschreibt einige Beispiele aus Praktikerrichtlinien, in denen grundsätzlich davon ausgegangen wird, dass effektive Führung in risikoreichen Arbeitssystemen die gleiche ist wie in allen anderen Organisationen. Entsprechend gibt es einige Studien, die insbesondere den weit verbreiteten Ansatz der transformationalen Führung in seiner Auswirkung auf die Sicherheit (meist verstanden als Arbeitssicherheit) untersucht haben (z. B. Barling, Loughlin & Kelloway, 2002; Yule & Flin, 2002, zit. in Flin, 2003; Zohar, 2002a; Zohar & Luria, 2010). Die Resultate sprechen tendenziell dafür, dass transformationale Führung sich positiv auf die Sicherheit auswirkt. Interessant sind die differenzierteren Analysen in den Untersuchungen von Zohar, die aufzeigen, dass transformationale Führung
200
10
Kapitel 10 • Führung
besonders dann wichtig ist, wenn die Priorität von Sicherheit gegenüber Produktionsanforderungen nicht hinreichend auf Unternehmensebene verankert ist (Zohar, 2002a; Zohar & Luria, 2010). Durch direkte Interventionen vor Ort, wenn Führende unsicheres Verhalten ihrer Mitarbeitenden antreffen, kann diese Priorität wirkungsvoll demonstriert werden, was Unfallraten nachweislich senkt (Zohar, 2002b). Diese Untersuchungen illustrieren auch die Bedeutung des Zusammenspiels zwischen normativer, strategischer und operativer Führung und die sich daraus ergebenden unterschiedlichen Anforderungen an Führende verschiedener Hierarchieebenen, wie sie bereits in den vorherigen Abschnitten beschrieben wurden. In Anlehnung an die funktionale Betrachtungsweise von Führung, die den situationsangepassten Einsatz verschiedener Verhaltensweisen postuliert, haben sich einige Untersuchungen spezifisch mit der Erfordernis adaptiver Koordination und Führung auseinandergesetzt. Ausgehend von Studien in der Luftfahrt, die insbesondere die Notwendigkeit des Wechsels zwischen impliziter und expliziter Koordination in Cockpit-Crews deutlich gemacht haben (z. B. Entin & Serfaty, 1999; Orasanu, 1993), wurden diese beiden Koordinationsarten sowie Führung und laterale Teaminteraktion (im Verständnis der Achtsamkeit, »heedful interrelating« von Weick & Roberts, 1993) in Cockpit-Crews und Anästhesieteams untersucht (Grote et al., 2010; Künzle et al., 2010; Zala et al., 2009). Dabei wurden Arbeitsphasen mit unterschiedlichen Graden an Standardisierung unterschieden. Es zeigte sich, dass Standardisierung als Substitut für persönliche Führung wirkte, da die besseren Teams in stark standardisierten Phasen weniger und in wenig standardisierten Phasen mehr Führung nutzten. In den Anästhesieteams wurde im Vergleich zu den Cockpit-Crews generell mehr implizite Koordination, aber auch mehr Führung gefunden. Hinsichtlich der Führung wurde aus Interviews mit den beobachteten Anästhesieteams (Zala-Mezö, Künzle, Wacker & Grote, 2004) zusätzlich deutlich, dass in Abhängigkeit von Situationserfordernissen (Routinesituation mit wenig Unsicherheiten vs. kritische Situationen mit viel Unsicherheiten) die Führung zwischen Empowerment und direktivem Verhalten wechseln sollte. Auch wurde in Einklang
mit Ansätzen der geteilten Führung argumentiert, dass Führung je nach Situation, Erfahrungsgrad der Teammitglieder etc. von verschiedenen Personen übernommen werden sollte und damit nicht notwendigerweise immer von der formal führungsverantwortlichen Person. Die Bedeutung situativer Führung wurde von Yun, Faraj & Sims (2005) in medizinischen Notfallteams empirisch bestätigt. Direktive Führung war in komplexen Fällen und bei wenig erfahrenen Teams erfolgreicher, während Empowerment bei weniger komplexen Fällen und in erfahrenen Teams wirkungsvoller war. Wiederum für medizinische Notfallteams sind auch verschiedene Formen und Bedingungen dynamischer Delegation von Führungsaufgaben zwischen erfahrenen und weniger erfahrenen Teammitgliedern detailliert untersucht worden (Klein, Ziegert, Knight & Xiao, 2006). Die Effektivität geteilter Führung in Anästhesieteams konnte auch in einer Untersuchung von Künzle und Kollegen (in press) gezeigt werden. Einen breiteren Überblick über Untersuchungen zu Führung in medizinischen Teams, der ebenfalls die Wichtigkeit situativer und geteilter Führung unterstützt, geben Künzle, Kolbe & Grote (2010). > Diese Ergebnisse weisen auf die Wichtigkeit von in der Führungsliteratur bisher wenig untersuchten dynamischen und flexiblen Formen von Führung hin.
Inwieweit sich diese Ergebnisse über die spezifischen medizinischen Kontexte hinaus verallgemeinern lassen, müssen weitere Untersuchungen allerdings erst noch zeigen.
10.6
Führung bei organisationalen Veränderungen
In einigen Führungsmodellen werden neben mitarbeiter- und aufgabenorientierten Funktionen ausdrücklich auch veränderungsbezogene Funktionen eingeschlossen (z. B. Yukl, 2006). Dies kann die Unterstützung eher inkrementeller Veränderungen im Sinne des organisationalen Lernens betreffen wie auch das Management geplanter, umfassenderer Veränderungsprozesse bis hin zu Fusionen, Personalabbau oder Reorganisationen des gesamten
201
10.6 • Führung bei organisationalen Veränderungen
Unternehmens (vgl. Weick & Quinn, 1999). Während organisationales Lernen aus Perspektive der Sicherheitsförderung durchgängig positiv bewertet wird und beispielsweise durch Incident-ReportingSysteme (7 Kap. 13.6.2) und lernförderliche Führung auf allen Hierarchieebenen (z. B. Edmondson & Carroll, 2002) unterstützt werden sollte, werden umfassende Organisationsveränderungen kritisch diskutiert. Besonders Reorganisationsmaßnahmen, die massive Reduktionen oder Zusammenführung von Personal und starke Verunsicherung der im Unternehmen verbleibenden Beschäftigten zur Folge haben, können – zumindest in Einzelfällen nachweislich – beeinträchtigend auf die Prozess- und Arbeitssicherheit wirken (Perron & Friedlander, 1996; Rousseau & Libuser, 1997). Ob Organisationsveränderungen tatsächlich die Sicherheit tangieren, hängt einerseits von der Art der Veränderung ab – fusionieren beispielsweise zwei Unternehmen unter der Führung des Unternehmens mit dem besseren oder dem schlechteren Sicherheitsausweis –, anderseits aber auch von der Durchführung des Veränderungsprozesses. Dieses Veränderungsmanagement ist unmittelbar durch die Führenden beeinflussbar und bietet die Chance, auch sehr fundamentale Veränderungen ohne Einbußen für das sichere Funktionieren der Organisation umzusetzen. Grote (2008) hat eine Reihe von Merkmalen vorgeschlagen, die sicherheitsförderliches Veränderungsmanagement kennzeichnen. Aus diesen Indikatoren wurde ein Fragebogen für Mitarbeiterbefragungen entwickelt und in sieben Versicherungsaudits bei Unternehmen der petrochemischen Industrie getestet. Es konnten vier stabile Skalen identifiziert werden: 5 Vorgaben für Changemanagement mit Items zu Themen wie angemessene Geschwindigkeit von Veränderungen, Evaluation möglicher sicherheitsrelevanter Auswirkungen und Wissenserhalt; 5 Wertschätzung mit Items zu Themen wie persönliche Unterstützung im Veränderungsprozess, mitarbeiterbezogene Investitionen und Partizipation bei Entscheidungen; 5 Transparenz mit Items zu Themen wie Geschwindigkeit von Entscheidungsprozessen und Kommunikation von Entscheidungen;
10
5 Vision mit Items zu Themen wie Langfristigkeit von Zielen und persönliches Engagement der Schlüsselpersonen. Die Skalen differenzierten gut zwischen im formalen Versicherungsaudit kritisch vs. positiv eingestuften Unternehmen, was ihre Validität unterstützt. Ein sehr wichtiges Ergebnis war auch, dass das Ausmaß der durch die Mitarbeitenden erlebten Wertschätzung bei weitem die meiste Varianz in den Fragebogenantworten aufklärte. z
Wertschätzung der Mitarbeitenden
Diese Untersuchung unterstützt die andernorts eher theoretisch formulierten Anforderungen an sicherheitsförderliches Veränderungsmanagement: Wertschätzung der Mitarbeitenden ist zen-
tral, z. B. durch: 5 Investitionen in Ausbildung und Arbeitsbedingungen, 5 Unterstützung im persönlichen Umgang mit der Veränderung, 5 Einbezug in Entscheidungsprozesse. Daneben sind angemessene Vorgehensweisen in der Definition und Umsetzung der Veränderung selbst wichtig, z. B. durch: 5 Vermeidung unnötiger Verunsicherung der Mitarbeitenden sowie 5 kontinuierliche Überwachung der Auswirkungen auf die Sicherheit. Schließlich muss Transparenz durch möglichst schnelle, sofort kommunizierte und nachvollziehbare Entscheidungen gewährleistet sein und eine von den Entscheidungsträgern geteilte Vision bestehen, die kurzsichtige Entscheidungen verhindert. Diese Anforderungen können auch den in diesem Beitrag diskutierten verschiedenen Führungsebenen zugeordnet werden: 5 Vision und Wertschätzung sind am ehesten als normative Führungsaufgabe zu verstehen, 5 die Transparenz der grundlegenden Entscheidungen als strategische Führungsaufgabe und 5 die konkreten Vorgehensweisen im Veränderungsprozess als operative Führungsaufgabe.
10
202
Kapitel 10 • Führung
10.7
Zusammenfassung
Die Sicherheit des operativen menschlichen Handelns und die sichere Gestaltung von Organisationen sind über die Entscheidungen und Handlungen der Führenden in diesen Organisationen miteinander verknüpft. Führende legen durch das gewählte Sicherheitsmanagement die Randbedingungen für operatives Handeln fest. Bei diesen grundlegenden Entscheidungen ist zwischen der Förderung von Arbeitssicherheit, d. h. Schutz des Menschen vor Gefahren am Arbeitsplatz, und Prozesssicherheit, d. h. sichere Durchführung der primären Arbeitsprozesse, zu unterscheiden. Diese beiden Arten der Sicherheit betreffen unterschiedliche Motivationsmechanismen, da im einen Fall eine sekundäre, im anderen die primäre Arbeitsaufgabe betroffen ist. Sie sind auch durch unterschiedliche Indikatoren zu messen, z. B. Arbeitsausfall vs. kritische Ereignisse, und Maßnahmen zur Förderung der einen Art der Sicherheit können gegenläufige Wirkungen auf die andere Art der Sicherheit haben, z. B. Abschottung von Arbeitsprozessen, die gleichzeitig deren Transparenz verringert. Außerdem müssen Arten und Ausmaß der Unsicherheiten berücksichtigt werden, die den geplanten Ablauf von Arbeitsprozessen beeinflussen. Zwei Formen des Umgangs mit Unsicherheit in Organisationen werden in diesem Beitrag dargestellt, Minimierung vs. Bewältigung. Die normative Führungsaufgabe ist es, die grundlegende Ausrichtung der Organisation im Hinblick auf den Umgang mit Unsicherheiten festzulegen und Werte und Führungsrollen entsprechend zu definieren. Neben der grundlegenden Positionierung von Sicherheit gegenüber anderen strategischen Zielen besteht die strategische Führungsaufgabe darin, angesichts von Art und Menge vorhandener Unsicherheiten in den Prozessen und in der Systemumwelt die Akteure für einen angemessenen Umgang mit diesen Unsicherheiten zu befähigen. Eine grundlegende Fragestellung ist dabei die Festlegung angemessener Koordinationsmechanismen, d. h. Koordination durch Technik, durch Standardisierungen und Programme, durch persönliche Weisungen und gegenseitige laterale Absprachen bzw. durch Kultur. (Sicherheits-)Kultur als »weicher« Koordinationsmechanismus muss v. a. dann zum
Tragen kommen, wenn den Akteuren und Akteurinnen im System hohe Autonomie im Umgang mit Unsicherheiten zugebilligt wird. Um Standardisierung systematisch zu gestalten, muss auch das Regelmanagement als strategische Führungsaufgabe verstanden werden. Entscheidungen zu Menge und Art von Regeln, insbesondere auch zu dem dadurch definierten Handlungsspielraum der Akteure, müssen im Einklang mit dem gewählten Umgang mit Unsicherheit erfolgen. Auf der Ebene der operativen Führung ist sicherzustellen, dass die grundlegenden Funktionen der Mitarbeiterführung gruppenintern (Kohäsion und Lokomotion) und gruppenübergreifend (Grenzregulation) wahrgenommen werden. Selbst wenn man den Ergebnissen neuerer Metaanalysen Glauben schenkt, dass effektive Führung generell eher mitarbeiterbezogen, transformational und »empowering« ist, greifen angesichts der zunehmenden Komplexität von Arbeitsorganisationen einfache Vorgaben »richtigen« Führungsverhaltens zu kurz. Stattdessen muss auch das Führungsverhalten komplex sein in dem Sinne, dass sehr verschiedene und u. U. sogar widersprüchliche Rollen und Verhaltensweisen gefordert sind. Dazu gehört, dass Führung an situative Erfordernisse angepasst wird, z. B. Führung in stark standardisierten Arbeitsprozessen zurückgenommen wird, und auch von verschiedenen Personen wahrgenommen werden kann, nicht nur durch die formal Führenden. Um bei einschneidenden organisationalen Veränderungen, wie beispielsweise Fusionen oder Personalabbau, die Sicherheit der Arbeitsprozesse zu gewährleisten, ist schließlich eine wesentliche Führungsaufgabe, ein sicherheitsförderliches Veränderungsmanagement umzusetzen. Dazu gehört ganz zentral die Wertschätzung der Mitarbeitenden, angemessene Vorgehensweisen in der Definition und Umsetzung der Veränderung selbst, die Transparenz durch möglichst schnelle, sofort kommunizierte und nachvollziehbare Entscheidungen und eine von den Entscheidungsträgern geteilte Vision, die kurzsichtige Entscheidungen verhindert. In . Abb. 10.2 werden die zentralen Aussagen dieses Beitrags zur Führung in risikoreichen Arbeitssystemen verdichtet dargestellt.
Literatur
Literatur Barling, J., Loughlin, C. & Kelloway, E. K. (2002). Development and test of a model linking safety-specific transformational leadership and occupational safety. Journal of Applied Psychology, 87, 488–496. Bleicher, K. (1992). Das Konzept Integriertes Management. Frankfurt a. M.: Campus. Burke, C. S., Stagl, K. C., Klein, C., Goodwin, G. F., Salas, E. & Halpin, S. M. (2006). What type of leadership behaviors are functional in teams? A meta-analysis. The Leadership Quarterly, 17, 3, 288–307. Burns, T. & Stalker, G. M. (1961). The management of innovation. London: Tavistock. Denison, D. R., Hooijberg, R. & Quinn, R. E. (1995). Paradox and performance: Toward a theory of behavioral complexity in managerial leaderhip. Organization Science, 6, 524–540. Edmondson, A. C. & Carroll, J. S. (2002). Leading orgaizational learning in health care. Quality and Safety in Health Care, 11, 51–56. Emery, F. E. (1959). Characteristics of socio-technical systems. London: Tavistock Document No. 527. Entin, E. E. & Serfaty, D. (1999). Adaptive team coordination. Human Factors, 41, 312–325. Flin, R. (2003). »Danger – Men at work«: Management influence on safety. Human Factors and Ergonomics in Manufacturing, 13, 261–268. Grote, G. (1997). Autonomie und Kontrolle – Zur Gestaltung automatisierter und risikoreicher Systeme. Zürich: vdf Hochschulverlag. Grote, G. (2004). Uncertainty management at the core of system design. Annual Reviews in Control, 28, 267–274. Grote, G., Zala-Mezö, E., & Grommes, P. (2004). The effects of different forms of coordination on coping with workload. In R. Dietrich & T. Childress, M. (Eds.), Group interaction in high risk environments. Grote, G. (2007a). Arbeits- und Prozesssicherheit. In H. Schuler & K.-H. Sonntag (Hrsg.), Handbuch der Arbeitsund Organisationspsychologie (S. 155–162). Göttingen: Hogrefe. Grote, G. (2007b). Understanding and assessing safety culture through the lens of organizational management of uncertainty. Safety Science, 45, 637–652. Grote, G. (2007c). Rules management: How to achieve flexible guidance for safe railway operations. In J. R. Wilson, B. J. Norris, T. Clarke & A. Mills (Eds.), People and rail systems: Human factors at the heart of the railway (pp. 591–599). Abingdon, UK: Ashgate. Grote, G. (2008). Diagnosis of safety culture: A replication and extension towards assessing »safe« organizational change processes. Safety Science, 46, 3, 450–460. Grote, G. (2009). Management of uncertainty – Theory and application in the design of systems and organizations. London: Springer. Grote, G., Kolbe, M., Zala-Mezö, E., Bienefeld-Seall, N., & Künzle, B. (2010). Adaptive coordination and heed-
203
10
fulness make better cockpit crews. Ergonomics, 53, 211–228. Grote, G., Ryser, C., Wäfler, T., Windischer, A. & Weik, S. (2000). KOMPASS: A method for complementary function allocation in automated work systems. International Journal of Human-Computer Studies, 52, 267–287. Guldenmund, F. (2000). The nature of safety culture: A review of theory and research. Safety Science, 34, 215–257. Hale, A. R. & Heijer, T. (2006). Is resilience really necessary? The case of railways. In E. Hollnagel, D. D. Woods & N. G. Levenson (Eds.), Resilience engineering – Concepts and precepts (pp. 115–137). London: Ashgate. Hale, A. R., Heming, B. H. J., Carthey, J. & Kirwan, B. (1997). Modelling of safety management systems. Safety Science, 26, 121–140. Hale, A. R. & Swuste, P. (1998). Safety rules: procedural freedom or action constraint? Safety Science, 29, 163–177. Hoyos, C. Graf, Gockeln, R. & Palecek, H. (1981). Handlungsorientierte Gefährdungsanalysen an Unfallschwerpunkten der Stahlindustrie. Zeitschrift für Arbeitswissenschaft, 35, 146–149. INSAG (1999). Management of operational safety in nuclear power plants. A report by the International Nuclear Safety Advisory Group (No. 13). Vienna: IAEA. Kerr, S. & Jermier, J.M. (1978). Substitutes for leadership: Their meaning and measurement. Organizational Behavior and Human performance, 22, 375–403. Kieser, A. & Kubicek, H. (1992). Organisation. Berlin: de Gruyter. Klein, J. A. (1991). A reexamination of autonomy in the light of new manufacturing practices. Human Relations, 44, 21–38. Klein, K., Ziegert, J. C., Knight, A. P. & Xiao, Y. (in press). Dynamic delegation: Shared, hierarchical, and deindividualized leadersip in extreme action teams. Administrative Science Quarterly. Künzle, B., Kolbe, M. & Grote, G. (2010). Ensuring patient safety through effective leadership behaviour: A literature review. Safety Science, 48, 1–17. Künzle, B., Zala-Mezö, E., Kolbe, M., Wacker, J., Grote, G. (2010). Substitutes for leadership in anaesthesia teams and their impact on leadership effectiveness. European Journal of Work and Organizational Psychology, 19, 505–531 Künzle, B., Zala-Mezö, E., Kolbe, M., Wacker, J., Grote, G. (in press). Leadership in anaesthesia teams: The most effective leadersip is shared. Quality and Safety in Health Care. doi: 10.1136/qshc.2008.030262. LaPorte, T. R. & Consolini, P. M. (1991). Working in practice but not in theory: Theoretical challenges of »high-reliability organizations«. Journal of Public Administration Research and Theory, 1, 19–47. Marris, P. (1996). The politics of uncertainty. London: Routledge. Neuberger, O. (2002). Führen und führen lassen. Ansätze, Ergebnisse und Kritik der Führungsforschung (6. überarbeitete Aufl.). Stuttgart: Lucius und Lucius.
204
10
Kapitel 10 • Führung
Orasanu, J. M. (1993). Decision-making in the cockpit. In E. L. Wiener, B. G. Kanki & R. L. Helmreich (Eds.), Cockpit resource management (pp. 137–172). San Diego, California: Academic Press. Orton, J. D. & Weick, K. E., 1990. Loosely coupled systems: A reconceptualization. Academy of Management Review, 15, 203–223. Pearce, C. L. & Sims, H. P. (2002). Vertical versus shared leadership as predictors of the effectiveness of change management teams: An examination of aversive, directive, transactional, transformational, and empowering leader behaviors. Group Dynamics: Theory, Research, and Practice, 6, 172–197. Perron, M. J. & Friedlander, R. H. (1996). The effects of downsizing in safety in the CPI/HPI. Process Safety Progress, 15, 18–25. Perrow, C. (1967). A framework for the comparative analysis of organizations. American Sociological Review, 32, 194–208. Perrow, C. (1984). Normal accidents. Living with high-risk technologies. New York: Basic Books. Probst, G. & Naujoks, H. (1995). Führungstheorien – Evolutionstheorien der Führung. In A. Kieser, G. Reber & R. Wunderer (Hrsg.). Handwörterbuch der Führung (2. Aufl.) (S. 915–926). Stuttgart: Schäffer Poeschel. Quinn, R. E. & Rohrbaugh, J. (1983). A spatial model of effectiveness criteria: Towards a competing values approach to organizational analysis. Management Science, 29, 363–377. Reason, J. (1997). Managing the risks of organizational accidents. Aldershot, UK: Ashgate. Rosenstiel, L. v. (2003). Grundlagen der Organisationspsychologie (5. Aufl.). Stuttgart: Schäffer-Poeschel. Rousseau, D. M. & Libuser, C. (1997). Contingent workers in high risk environments. California Management Review, 39, 103–123. Rundmo, T. & Hale, A. R. (2003). Managers’ attitudes towards safety and accident prevention. Safety Science, 41, 557–574. Schein, E. H. (1992). Organizational culture and leadership (2nd edn.). San Francisco: Jossey-Bass. Semmer, N. & Regenass, A. (1996). Der menschliche Faktor in der Arbeitssicherheit – Mechanismen, Verhütung und Korrektur von menschlichen Fehlhandlungen. In G. Grote & C. Künzler (Hrsg.), Theorie und Praxis der Sicherheitskultur (S. 53–81). Zürich: vdf Hochschulverlag. Senge, P. M. (1990). The fifth discipline: the art and practice of the learning organisation. Doubleday: New York. Shannon, H. S., Mayr, J. & Haines, T. (1997). Overview of the relationship between organizational and workplace factors and injury rates. Safety Science, 26, 201–217. Staehle, W. H. (1991). Redundanz, Slack und lose Kopplung in Organisationen: Eine Verschwendung von Ressourcen? In W. H. Staehle & J. Sydow (Hrsg.), Managementforschung 1 (S. 313–345). Berlin: De Gruyter. Suchman, L. A. (1987). Plans and situated actions: The problem of human-machine communication. Cambridge: Cambridge University Press.
Susman, G. I. (1976). The impact of automation on work group autonomy and task spezialization. Human Relations, 23, 568–577. Thompson, J. D. (1967). Organizations in action. McGraw-Hill, New York. Thompson, R. C., Hilton, T. F. & Witt, L. A. (1998). Where the safety rubber meets the shop floor: A confirmatory model of management influence on workplace safety. Journal of Safety Research, 29, 15–24. Van de Ven, A. H., Delbecq, A. L. & Koenig, R. (1976). Determinants of coordination modes within organizations. American Sociological Review, 41, 322–338. Wall, T. D., Cordery, J. & Clegg, C. W. (2002). Empowerment, performance, and operational uncertainty: A theoretical integration. Applied Psychology: An International Review, 51, 146–169. Weick, K. E. (1976). Educational organizations as loosely coupled systems. Administrative Science Quarterly, 21, 1–19. Weick, K. E. (1987). Organizational culture as a source of high reliability. California Management Review, 29, 112–127. Weick, K. E. & Roberts, K. H. (1993). Collective mind in organizations. Heedful interrelating on flight decks. Administrative Science Quarterly, 38, 357–381. Weick, K. E. & Quinn, R. E. (1999). Organizational change and development. Annual Review of Psychology, 50, 361–386. Yukl, G. A. (2006). Leadership in organizations (6. Aufl.). Upper Saddle River: Pearson Prentice-Hall. Yun, S., Faraj, S. & Sims, H. P. (2005). Contingent leadership and effectiveness of trauma resuscitation teams. Journal of Applied Psychology, 90, 1288–1296. Zaccaro, S. J. (2007). Trait-based perspectives of leadership. American Psychologist, 62, 6–16. Zaccaro, S. J., Rittman, A. L. & Marks, M. A. (2001). Team leadership. The Leadership Quarterly, 12, 451–483. Zohar, D. (2002a). The effects of leadership dimensions, safety climate, and assigned priorities on minor injuries in work groups. Journal of Organizational Behavior, 23, 75–92. Zohar, D. (2002b). Modifying supervisory practices to improve subunit safety: A leadership-based intervention model. Journal of Applied Psychology, 87, 156–163. Zohar, D. & Luria, G. (2010). Group leaders as gatekeepers: Testing safety climate variations across levels of analysis. Applied Psychology: An International Review, 59, 647–673. Zala-Mezö, E., Künzle, B., Wacker, J. & Grote, G. (2004). Zusammenarbeit in Anästhesieteams aus Sicht der Teammitglieder. Zeitschrift für Arbeitswissenschaft, 58, 199–208. Zala-Mezö, E., Wacker, J., Künzle, B., Brüesch, M. & Grote, G. (2009). The influence of standardisation and task load on team coordination patterns during anaesthesia inductions. Quality and Safety in Health Care, 18. 127–130.
205
Neue Formen der Zusammenarbeit Kristina Lauche
11.1
Wie verändert sich Zusammenarbeit und warum? – 207
11.2
Implikationen einer veränderten Arbeitswelt für Sicherheit – 209
11.2.1 11.2.2 11.2.3
Verteilte Zusammenarbeit – 210 Verteilte Arbeitsaufgabe – 211 Organisationsübergreifende Zusammenarbeit – 213
11.3
Anforderungen für Technikund Organisationsgestaltung – 215
11.4
Zusammenfassung – 216 Literatur – 217
P. Badke-Schaub et al., Human Factors, DOI 10.1007/978-3-642-19886-1_11, © Springer-Verlag Berlin Heidelberg 2012
11
206
Kapitel 11 • Neue Formen der Zusammenarbeit
Neue Formen der Zusammenarbeit umfassen Raum und Zeit übergreifende, in der Regel computerunterstützte Kooperation und Koordination zwischen Disziplinen, Organisationen und Kulturen (Holman, Wall, Clegg, Sparrow & Howard, 2003). In den letzten 10 Jahren sind dazu eigenständige Forschungsbereiche entstanden, in denen Effekte von computervermittelter Kommunikation, Videokonferenzen, Telearbeit und virtuellen Teams eingehend im Labor und in der Praxis untersucht worden sind. Meist geht es dabei um Systemgestaltung, Zufriedenheit und Effektivität der Beteiligten, nur sehr selten wird Sicherheit thematisiert. Neue Formen der Zusammenarbeit können Sicherheit unterstützen, indem sie Unterstützung und Koordination an schwer zugänglichen Orten ermöglichen. Doch sie lösen nicht alle Probleme, die beim Arbeiten in Gruppen auftreten können (7 Kap. 7) und schaffen bisweilen auch neue Probleme, wenn die Technologie nicht die Aufgabe angemessen unterstützt oder zu Unklarheiten in der Organisation führt. Beispiel
11
Sogar der Fußboden musste aus Blech sein, damit man beim Übergang von den normalen Büroräumen zum Onshore Operations Centre sofort spürt, dass man sich eigentlich »offshore«, auf der Bohrinsel befindet. Die Ingenieure, die bis vor einigen Monaten noch auf der Bohrinsel Prozesswerte und geologische Daten analysiert haben, überwachen nun von hier aus exakt dieselben Daten – in Echtzeit. Sie sitzen lediglich mit ihren Rechnern an einem längeren Kabel und sehen die Bohrinsel und ihre Kollegen über Videokameras. Beide Seiten haben sich schnell daran gewöhnt, dass sie immer auf Sendung sind, und nutzen die Videoverbindung regelmäßig für Besprechungen. Nur der Ton ist normalerweise leise gestellt, um sich nicht mit Klappergeräuschen gegenseitig zu stören. Praktisch ist auch die Verbindung zu den normalen Büroräumen: Eine Glastür trennt den Überwachungsraum vom Sitzungszimmer der planenden Ingenieure und Manager. Wenn Probleme auftreten, kann man schnell Hilfe holen, doch bei längeren Sitzungen wird die Tür geschlossen, damit man sich bei der Überwachung konzentrieren kann. Dadurch, dass
die Tür aus Glas ist, können die Sitzungsteilnehmer darüber im Bilde bleiben, was gerade auf der Plattform passiert. Eine gelungene Form verteilter Zusammenarbeit: Wenn »onshore« und »offshore« auf die gleichen Daten zugreifen, können vier Augen mehr sehen als zwei, ohne dass sich dafür alle an einem risikoreichen Arbeitsort befinden müssen. Es war gründliche soziotechnische Systemgestaltung, an der die verschiedenen Benutzergruppen über Monate mitgewirkt haben. Doch die neue Form der verteilten Zusammenarbeit bringt auch neue Fragen mit sich: Wenn an beiden Orten jemand Handlungsbedarf identifiziert, wer genau ist dann zuständig, wer sollte die Initiative ergreifen, wer auf Anweisung warten? Für den Normalfall gibt es Regeln und Aufgabenbeschreibungen. Doch als plötzlich unerwartet hohe Gasdrucke auftreten, höher als sie je zuvor gemessen wurden und als der Berechnung für die Bohrvorrichtungen zugrunde gelegt worden waren, wird der Plan zur Seite gelegt und alle werden zusammengerufen, die hoffentlich helfen können. Im Büro wird eine Einsatzgruppe gebildet, die bis tief in die Nacht mögliche Erklärungen und Gegenmaßnahmen erwägt. Als man sich zwischendurch mit dem Team auf der Bohrinsel in Verbindung setzt, stellt sich heraus, dass dort ebenfalls an einer Lösung gearbeitet wird. Nun muss man erst entscheiden, welche Diagnose gelten soll und welche Maßnahmen umgesetzt werden sollen. Man einigt sich, und es gelingt, den Gasdruck einzudämmen, ohne dass es zu einer Explosion kommt und Menschen oder Material in Gefahr geraten. Einige der Beteiligten erklären später, dass es allein der engen Zusammenarbeit zwischen Büro und Bohrinsel zu danken gewesen sei, dass sie derartige Schwierigkeiten meistern konnten, die zuvor als unüberwindlich galten. Andere weisen darauf hin, dass die Angewohnheit, bei Problemen immer das gesamte Team zusammenzurufen, zu sehr ineffektivem Arbeiten geführt habe: Viele sitzen abwartend dabei, anstatt dass ein oder zwei Personen das Problem anpacken und lösen.
Das Beispiel zeigt, dass verteilte, computerunterstützte Zusammenarbeit durchaus funktionieren kann, jedoch darauf angewiesen ist, dass die Technologieunterstützung allen Beteiligten ein an-
207
11.1 • Wie verändert sich Zusammenarbeit und warum?
Globalisierte Wirtschaft mehrere Standorte Zeitzonen übergreifend
Zunehmende technische Vernetztheit mehr Bandbreite
11
Komplexere Problemstellungen knappe Ressourcen
Neue Formen von Zusammenarbeit
Über räumliche und zeitliche Distanzen hinweg
Soziale Kontakte sind virtuell vermittelt . Abb. 11.1
Informationen gleichzeitig an mehreren Orten und für viele zugänglich
Gefahr der Informationsüberflutung
Organisations- und disziplinenübergreifend
Neudefinition des Arbeitsinhalts
Ursachen und Auswirkungen neuer Formen der Zusammenarbeit
gemessenes Bild der Situation vermittelt und die organisatorische Verankerung Motivationsverluste, Unklarheiten über Rollen und Zuständigkeiten sowie die Diffusion von Verantwortung verhindert (für eine ausführliche Diskussion des Beispiels s. Bayerl & Lauche, 2010). Im weiteren Verlauf des Kapitels wird eine Übersicht zu Einflussfaktoren und Phänomenen neuer Formen von Zusammenarbeit gegeben, die Implikationen für sicheres Handeln anhand einschlägiger Forschung zusammenfasst und Handlungs- und Interventionsmöglichkeiten diskutiert.
11.1
Mehr Unmittelbarkeit und reichere Informationen
Wie verändert sich Zusammenarbeit und warum?
Die Arbeitsverhältnisse haben sich in den vergangenen Jahrzehnten durch das Internet, Fortschritte in der Informations- und Kommunikationstechnologie und durch die zunehmend globalisierte Wirtschaft einschneidend geändert. Die psychologische Forschung und Theoriebildung hält mit diesen Entwicklungen nur mit Mühe Schritt. Eine kleine Gruppe von Forschenden beschäftigt sich explizit mit Psychologie neuer Medien (Batinic, 2000), doch die Entwicklungen in der Technik und in den Nutzungsgewohnheiten vollziehen sich in
der Praxis schneller, als die akademische Welt dies beforschen, verstehen und publizieren kann. Doch es soll auch nicht der Anschein erweckt werden, als stellten die Veränderungen alles infrage, was je in der allgemeinen sowie in der Arbeits- und Organisationspsychologie gedacht und geschrieben wurde. Wie also lassen sich die Veränderungen sinnvoll arbeitspsychologisch konzeptualisieren, welche Effekte zeigen sich und welche Implikationen ergeben sich für sicheres Handeln? . Abb. 11.1 zeigt eine Übersicht der Einflussfaktoren und Auswirkungen neuer Formen der Zusammenarbeit, die im Folgenden näher beleuchtet werden sollen. Die Abbildung führt als ersten Einflussfaktor die globalisierte Wirtschaft auf. Unter Globalisierung versteht man den Prozess der Transformation einer Gesellschaftsformation, bei der als Konsequenz der grenzüberschreitenden ökonomischen Beziehungen, der Ausweitung des Welthandels und der Zunahme von Migrationsbewegungen ein ökonomischer Raum entsteht, der nicht durch nationalstaatliche Grenzen und die in ihnen geltenden Gesetze umschrieben wird (Altvater & Mahnkopf, 2004, S. 31). Transportkosten spielen darin heutzutage eine geringere Rolle und viele Produkte und Dienstleistungen können an mehreren Orten auf der Welt gleichermaßen hergestellt werden, wodurch diese Orte zueinander im globalen Wettbe-
208
Kapitel 11 • Neue Formen der Zusammenarbeit
werb stehen. Unternehmen verlieren ihre örtliche und territoriale Bindung, der Arbeits»platz« ist nicht mehr an einem bestimmten Ort. Im Extremfall haben wir es mit nomadischer Arbeit zu tun, bei der Menschen die meiste Arbeitszeit unterwegs sind, keinen festen Arbeitsplatz haben und selbst verantwortlich dafür sind, ihre Arbeitsmittel bereitzustellen, zu managen und anzupassen (Mark & Su, 2010). Altvater & Mahnkopf (2004) problematisieren die Auswirkungen dieser wirtschaftspolitischen Bestrebungen, Arbeit überall und jederzeit flexibel verfügbar zu machen, die eine Verzerrung der menschlichen Maßstäbe mit sich bringt.
»
11
Menschen, die in der Regel zwischen eineinhalb und zwei Metern groß sind, bewegen sich in einer Welt, die einen Umfang von mehr als vierzigtausend Kilometern hat. Kein Lebewesen in der Erdgeschichte hat dies je vermocht. […] die Erfahrung, dass die Geschwindigkeit den Raum ‚auffrisst’ und sich die Welt schon bald als ‚zu klein’ erweisen könnte, [ist] eine neue Erfahrung. […] Pathologisierend wirkt die Beschleunigung des Wandels aber auch deshalb, weil sie Synchronisationsprobleme der Gesellschaft vergrößert. Die hohen Geschwindigkeiten der Veränderung stoßen auf Rezeptionsprobleme. Sie provozieren Abwehrreaktionen, […] weil damit keinerlei Sicherheit der Lebensplanung und des Arbeitsplatzes gewonnen werden kann. Die hohe Innovationsgeschwindigkeit von technischen Neuerungen hat auch allzu viele negative Folge- und Begleiteffekte. (Altvater & Mahnkopf, 2004, S. 275)
«
Als weiterer Einflussfaktor sei hier die zunehmende technische Vernetztheit genannt, die die Ortsungebundenheit der wirtschaftlichen Beziehungen oft erst ermöglicht. Informations- und Kommunikationstechnologien sind schneller und leistungsfähiger geworden, mehr Personen und Orte können erreicht werden und zunehmende Bandbreite ermöglicht es nun auch, komplexere Datensätze wie Videos zu versenden oder verteilt anzusehen. Diese Entwicklung ist nicht per se positiv oder negativ zu beurteilen. So können beispielsweise sicherheitsrelevante Informationen wie aktualisierte Anweisungen für Piloten schnell und effizient an alle Betroffenen gleichzeitig verteilt werden. Das höhere
Maß an Unmittelbarkeit bringt nicht nur verteilt arbeitende Teams enger zusammen, sondern bietet auch neue Möglichkeiten, z. B. zu Ferndiagnosen und medizinischer Beratung am Unfallort oder in entlegenen Gegenden. Doch wenn diese Möglichkeiten nicht arbeitsangemessen eingesetzt werden, kann es leicht auf der Empfängerseite zur Informationsüberflutung kommen. Die Annahme, dass neue Medien zu einer mehr netzwerk- als hierarchiebasierten Organisation führen, setzt voraus, dass sich mit elektronischer Kommunikation alles Relevante übermitteln lässt, sich alle freiwillig darauf einlassen und so auch tatsächlich mehr Autonomie gewährt wird – das hat sich in der Praxis so nicht immer als zutreffend erwiesen (Symon, 2000). Erst wenn zwischen Management, IT-Fachkräften und Anwendern Einigkeit zu Sinn und Nutzen der neuen Technologie herrscht, kann es gelingen, aus der zunehmenden technischen Vernetzung wirklich Vorteile zu ziehen (Klein, 2004). Der dritte Einflussfaktor, der hier betrachtet werden soll, ist die sich verändernde Natur der Arbeit, bei der zunehmend komplexere Problemstellungen unter immer größeren »Sparzwängen« behandelt werden müssen. In manchen Fällen haben die oben geschilderten wirtschaftlich und technischen Veränderungen dazu geführt, dass Probleme, die früher in einer Abteilung vor Ort geregelt wurden, nun die Abstimmung zwischen mehreren Standorten unter Berücksichtigung verschiedener nationaler Gesetze erfordern und damit eine neue Komplexität gewonnen haben. In der Abwehr von Terrorismus und organisierter Kriminalität und beim Katastrophenschutz hat sich eine organisations- und länderübergreifende Zusammenarbeit als unabdingbar herausgestellt, da sich die abzuwehrende Gefahr auch nicht an nationalstaatliche Grenzen hält. In anderen Fällen hat sich nicht das Phänomen geändert, sondern unser Umgang damit: Menschen mit multiplen Krankheiten wurden traditionell vom medizinischen System arbeitsteilig und damit unzusammenhängend behandelt. Hier wächst die Einsicht, dass es neue Formen der Zusammenarbeit braucht, um mehr Patientensicherheit zu erreichen.
1
11
209
11.2 • Implikationen einer veränderten Arbeitswelt für Sicherheit
2
3 Organisation 1
Außenstelle Hauptsitz
Gemeinsame Arbeitsaufgabe Mehrere Standorte / Telearbeit Eine Organisation
. Abb. 11.2
Zentrale
Verteilte Arbeitsaufgabe Mobiler Einsatzort Eine Koordinierungsstelle (Callcenter / Kontrollraum)
Organisation 3
Objekt der Arbeit wird gemeinsam neu konstruiert Ein Einsatzort Mehrere Organisationen
Szenarien für verteilte Zusammenarbeit
> Durch ökonomische, technische und politische Änderungen haben sich neue Formen der Zusammenarbeit ergeben, bei denen computervermittelte Kommunikation eine große Rolle spielt. Mit Blick auf die Sicherheit solcher Arbeitssysteme ist v. a. darauf zu achten, dass die Informationsund Kommunikationsmittel tatsächlich aufgabenangemessen gestaltet sind und die neuen Arbeitsformen so eingeführt werden, dass Mitarbeiter eine angemessene Erweiterung ihres Aufgabenfeldes und nicht eine Überforderung erfahren.
11.2
Organisation 2
Implikationen einer veränderten Arbeitswelt für Sicherheit
Die geschilderten Veränderungen der Arbeitswelt haben sowohl positive als auch negative Auswirkungen auf Sicherheit. Viele Aufgaben können erst durch computerunterstützte, verteilte Zusammenarbeit in einem größeren Kontext sicher und effizient erledigt werden. So wird Information schnell allen Beteiligten verfügbar gemacht, ohne diese dem direkten Risiko am Einsatzort auszusetzen. Experten können einen besseren Einblick gewinnen, was vor Ort vor sich geht, ohne erst anreisen zu müssen. Mit computergestützter Koordination lassen sich außerdem Ressourcen besser über meh-
rere parallele Einsätze verteilen. Allerdings hat die Forschung zu Telearbeit gezeigt, dass verteilte Zusammenarbeit auch eine Reihe spezifischer Probleme mit sich bringt. Beides soll im Folgenden anhand von drei Szenarien für verteilte Zusammenarbeit diskutiert werden (. Abb. 11.2). Bei Szenario 1 (verteilte Zusammenarbeit) arbeiten Teammitglieder an mehreren Standorten bzw. in Telearbeit an derselben Aufgabe – sie müssen sich »nur« computervermittelt koordinieren. Bei Szenario 2 (verteilte Arbeitsaufgabe) erfordert die Arbeitsaufgabe den Einsatz vor Ort und neue Informations- und Kommunikationstechnologien werden v. a. darauf verwandt, an zentraler Stelle Ereignisse und Ressourcen zu koordinieren. Hier kommt zum Problem der Koordinierung auf Distanz noch die Frage, wie es gelingen kann, dass die dem Geschehen enthobenen Mitarbeiter in der Zentrale genügend Situationsbewusstsein entwickeln, ohne dabei die Übersicht zu verlieren. Bei Szenario 3 wird organisationsübergreifend zusammengearbeitet, z. B. im Gesundheitswesen oder in der Terrorismusbekämpfung. Damit müssen der Gegenstand der Arbeit, die Rollen und Zuständigkeiten neu ausgehandelt und geeignete Formen der informationstechnischen Unterstützung gefunden werden. Im Folgenden werden Besonderheiten der drei Szenarien besprochen.
11
210
Kapitel 11 • Neue Formen der Zusammenarbeit
11.2.1
Verteilte Zusammenarbeit
In der Industrie ist Szenario 1 (. Abb. 11.2), also räumlich verteiltes Arbeiten an derselben Arbeitsaufgabe, in zunehmendem Maße anzutreffen. Insbesondere in multinationalen Firmen wird so über verschiedene Standorte hinweg an einem Projekt gearbeitet, teilweise unter Ausnutzung von Zeitzonendifferenzen: Während die Europäer noch schlafen, kann in Indien schon programmiert werden, und die Früchte der gemeinsamen Arbeit landen am europäischen Abend auf dem virtuellen Schreibtisch des Projektleiters in den USA – so das Idealbild, das Managern gerne vorgegeben wird. Allerdings überwinden nur die Daten (und auch die nicht immer) schnell und mühelos die großen Entfernungen. Für die beteiligten Menschen führt dieses verteilte Arbeiten zu einer psychischen Entfernung, die in der Teamarbeit nicht immer einfach zu überbrücken ist. O’Leary & Cummings (2007) entwickelten dazu ein Maß der psychischen Entfernung, das verschiedene Aspekte von Verteiltheit beschreibt: 5 Räumliche Entfernung: weniger Face-to-faceKontakte, weniger spontane Kommunikation. 5 Zeitzonendifferenz: weniger synchrone Interaktion, weniger gleichzeitiges Problemlösen. 5 Mehrere Arbeitsorte: erhöht Komplexität der Koordination. 5 Isolation: einzelne Teammitglieder arbeiten alleine, weniger gegenseitiges Bewusstsein. 5 Fehlende Balance: unterschiedliche Gruppengröße an verschiedenen Orten, Gruppenkonflikte werden wahrscheinlicher. Bei Arbeitsaufgaben, die wenig wissensintensiv sind und bei denen nicht (wie z. B. im Vertrieb) Kommunikation Teil der Arbeit ist, kann es zur sozialen Vereinzelung kommen. Monotonie-Effekte der Arbeit schlagen sich stärker als sonst auf das psychische und körperliche Wohlbefinden nieder. Bei wissensintensiven Tätigkeiten, die in Außenstellen, in Heimarbeit oder nomadisierend ausgeübt werden, wie Gemeindepflege, Software-Entwicklung oder Inbetriebnahme von Kraftwerken, ist die Herausforderung vor allem, Mitarbeiterinnen und Mitarbeiter in die Organisation einzubinden. Der Wissensstand, die Arbeitspraktiken und
die Ziele dieser nomadisierenden Mitarbeiterinnen und Mitarbeiter sollten hinreichend ähnlich sein, damit nicht plötzlich ein Medikament verabreicht wird, von dem man schon längst wusste, dass es aus dem Verkehr gezogen wurde, oder nur auf den Färöer-Inseln bekannt ist, wie ein bestimmter Fehler im Programm zu beheben ist, wenn dieses Wissen in Aserbaidschan benötigt wird. Daraus ergeben sich auch neue Herausforderungen für die Führung in virtuellen Teams (Manchen Spörri, Springall & Grote, 2003). Lammond, Daniels & Standen (2003) weisen darauf hin, dass Telearbeiter häufig Autonomie höher bewerten als ihre Kollegen im Büro. Das bedeutet auch, dass Telearbeit ihren Bedürfnissen entsprechen kann und nicht notwendigerweise zu Motivationsproblemen führen muss. Breiterer Zugang zu Informationen kann auch die Erwartungen darüber verändern, was zur Rolle einer Führungskraft gehört, wenn Mitarbeiter auch direkt reagieren können (Avolio, Kahai & Dodge, 2000): Wann ist Rücksprache erwünscht und nötig, wann genügt es, den oder die Vorgesetzte mit einer E-Mail-Kopie auf dem Laufenden zu halten? So fanden Bayerl & Lauche (2009), dass die Einführung neuer Kommunikationstechnologien mit Erwartungen an mehr dezentralisierte Führung und engere Zusammenarbeit bei den verteilt arbeitenden Teammitgliedern verbunden war, die jedoch nicht unbedingt von den Vorgesetzten geteilt wurden. Die psychische Entfernung kann z. T. durch geeignete Kommunikationstechnologien und Gestaltungsmaßnahmen, wie im einleitenden Beispiel dieses Kapitels gezeigt, verringert werden. Videoverbindungen ermöglichen ein hohes Maß an sog. Präsenz (»presence«), dem Gefühl, »beinahe wirklich dort« zu sein, sich beinahe »richtig« begegnet zu sein. Zwei Welten, die der Bohrinsel »offshore« und der Büros »onshore«, kommen sich viel näher, als sie es je zuvor gewesen sind, und können sich gleichzeitig über dieselben Daten beugen. Interviews mit den Beteiligten und Beobachtungen vor Ort zeigten allerdings auch, dass für die Ingenieure, die mit der Überwachung der Bohrvorgänge betraut waren, ein Teil der für sie interessanten und körperlich abwechslungsreichen Arbeit wegfiel (Lauche, 2008). Für sie bedeutete die Einführung von Onshore Operation Centres den Umzug von
211
11.2 • Implikationen einer veränderten Arbeitswelt für Sicherheit
der Plattform ins Büro. Sie erlebten dies nicht wie vom Management angenommen als Zugewinn an Sicherheit und »work-life-balance«, sondern eher als Verlust der Autonomie, die sie vorher auf der Bohrinsel gehabt hatten, was sich aus den oben beschriebenen Differenzen in der Motivation von Telearbeitern verstehen lässt. > Die psychische Entfernung zwischen Mitgliedern setzt sich aus mehreren Faktoren zusammen, die mit der Unmittelbarkeit der Interaktion und dem sozialen Gleichgewicht im Team zu tun haben. Teilweise lässt sich die physische Distanz durch geeignete Kommunikationstechnologien verringern, die das Gefühl der Präsenz (»presence«) steigern.
Das einführende Beispiel zeigt auch, dass die Omnipräsenz von Informationen und die Möglichkeit, mal eben schnell noch jemanden einzubeziehen, dazu führen kann, dass v. a. der Kreis der Beteiligten vergrößert wird, ohne dass dadurch ein echter Mehrwert entsteht. Aus der Gruppenforschung ist bekannt, dass zu große Gruppen dazu neigen, durch Verantwortungsdiffusion nicht oder verzögert zu handeln (Latané, 1981). Diese Tendenz zum Abwarten und Zurückhalten verstärkt sich im virtuellen Kontext noch, weil der Einzelne unsichtbarer bleibt und sich damit leichter zurückhalten kann. Es empfiehlt sich daher, klare Rollenabsprachen zu treffen und bei Zwischenfällen vermehrt explizit zu kommunizieren (7 Kap. 8). Hätten die beiden Teams des Eingangsbeispiels zwischendurch Kontakt zueinander aufgenommen und ihre Ziele und den gegenwärtigen, noch unvollständigen Zustand ihre Diagnose besprochen, hätte sich die Mehrfacharbeit verhindern und schneller ein gemeinsames Vorgehen vereinbaren lassen. Ein weiteres Problem bei verteiltem Arbeiten ist die Kommunikation und konsequente Umsetzung sicherheitsrelevanter Information. Zwar lässt sich die Information schnell und einfach elektronisch versenden. Doch wenn diese eine Verhaltensänderung nach sich ziehen soll, muss sie in der allgemeinen Informationsüberflutung wahrgenommen und verstanden werden und schließlich motivational handlungsrelevant sein. Dass dies nicht immer gelingt, zeigt das folgende Beispiel.
11
Beispiel Am 11.09.2003 starben zwei Mitarbeiter bei Reparaturarbeiten auf der Ölplattform Brent Bravo durch Gas. Sie konnten zwar ihren Messgeräten entnehmen, dass sie sich in einer Gaswolke von Kohlenwasserstoff befanden, doch war ihnen nicht bewusst, warum das gefährlich sein sollte. Der entsprechende Warnhinweis zu den narkotisierenden und letztlich tödlichen Effekten von Kohlenwasserstoffen war einige Zeit vorher per E-Mail durch das Unternehmen gegangen, aber nicht bis zu diesen Mitarbeitern vorgedrungen, die überfällige Wartungsarbeiten auszuführen hatten. Eine Analyse der Kommunikation sicherheitsrelevanter Mitteilungen zeigte, dass es diverse Kommunikationskanäle gab sowie eine Fülle an Informationen, die nach dem Gießkannenprinzip statt als zielgruppenadäquate Kampagnen verbreitet wurden. Die Plattform-Manager kamen wegen hoher Arbeitsbelastung gerade noch dazu, zu entscheiden, an wen die E-Mail weitergeschickt werden sollte, und einen Eintrag in ihrem Planerfüllungssystem zu tätigen. Viele der Meldungen enthielten zu wenig Information über Ursachen oder es war unklar, was vom Empfänger erwartet wurde. Die Umsetzung blieb den direkten Vorgesetzten überlassen, die nicht wussten, was sie hätten tun sollen oder woher sie die Zeit nehmen sollten. Die in der Folge eingerichtete Arbeitsgruppe entwickelte daraufhin einen spezifischen Kommunikationskanal für sicherheitsrelevante Mitteilungen. Derartige Meldungen müssen einer klaren Struktur zu Betreff und Begründung entsprechen und eindeutige Anweisungen zu erforderlichen Maßnahmen enthalten. Außerdem wurde ein Monitoringsystem eingeführt, in das die Sender solcher Mitteilungen aktiv eingebunden werden und das die Umsetzung im direkten Kontakt mit dazu benannten Schlüsselpersonen kontrolliert.
11.2.2
Verteilte Arbeitsaufgabe
Das zweite Szenario (. Abb. 11.2) für neue Formen der Zusammenarbeit ist die virtuelle Koordination zwischen Außenstellen oder Akteuren vor Ort und einer Koordinationsstelle, die Übersicht über
212
11
Kapitel 11 • Neue Formen der Zusammenarbeit
diverse Aktivitäten wahrnimmt und Ressourcen zuweist. Suchman beschrieb diese Koordinationszentren (»centres of coordination«, Suchman, 1997) als besondere Form computerunterstützter Zusammenarbeit, in denen mit ständiger Orientierung auf örtliche und zeitliche Rahmenbedingungen Probleme gelöst werden, die sich außerhalb des Koordinationszentrums ereignen. Die Zuordnung personeller und materieller Ressourcen an die Einsatzorte geschieht entweder nach einem vorgesehenen Zeitplan (wie im öffentlichen Verkehr) oder entsprechend der sich ergebenden Anforderungen aus einer zeitkritischen Lage (wie bei einer Einsatzleitung). In ihrem Übersichtsartikel zu Koordination weisen Okhuysen & Bechky (2009) darauf hin, dass räumliche Nähe als klassisches Mittel der Koordination an Bedeutung verliert und andere Formen gefunden werden müssen, um wesentliche Aspekte der Koordiniertheit – Zuständigkeit, Vorhersehbarkeit, gemeinsames Verständnis der Lage – herstellen. Klassische Untersuchungen zu verteilten Arbeitsaufgaben stammen aus der Verkehrsüberwachung im Flugbereich (Hughes, Randall & Shapiro, 1992) und dem öffentlichen Verkehr am Beispiel der London Underground (Heath & Luff, 1992). Diese Untersuchungen zeigten, dass sicheres Arbeiten und die gegenseitige Aufmerksamkeit in diesen Zentralen nicht auf einen bestimmten Faktor zurückzuführen ist, sondern auf eine Kultur, die »gesättigt« ist mit Instrumenten, Vorschriften und Dokumenten, die dazu eingesetzt werden, die zunächst unvollständige oder inakkurate Information zu validieren. Dazu gehören spezifische Formen der Ambiguitätsreduktion wie das laute Wiederholen der Meldung eines Anrufenden in einer Leitstelle (Artman & Waern, 1999; Petterson, Randall & Helgeson, 2004). Damit kann geklärt werden, wo genau der Vorfall stattfindet und wie dringend und schwerwiegend er ist. Außerdem ermöglicht diese Praxis das Mithören für andere Operateure (»listening in«), die so bei parallelen Anrufen feststellen können, ob es sich um einen oder mehrere Fälle handelt, und bereits Maßnahmen einleiten können. Sowohl die Technikgestaltung als auch die Arbeitsorganisation sollten solche Formen der Ambiguitätsreduktion unterstützen.
In komplexen Systemen wie der Interaktion zwischen Astronauten und Kontrollzentrum gibt es verschiedene Sprachkanäle mit unterschiedlichen Funktionen: Auf einem »support loop« können Controller Hilfe aus dem Hinterzimmer anfragen; der Konferenzkanal wird von allen beobachtet, aber nur im Bedarfsfall benutzt. Für die Kommunikation mit den Astronauten gibt es hingegen nur einen dezidierten Kanal, da hier eindeutige Botschaften wichtiger sind als mithören zu können (Watts et al., 1996). > Eine wesentliche Funktion bei computerunterstützter Koordination verteilter Arbeiten besteht darin, andere Personen Anteil haben zu lassen an eingehenden Informationen und dem sich allmählich vervollständigenden Bild der Lage. Derartige Formen des Mithörens und Wiederholens dienen der Ambiguitätsreduktion und dem Aufbau gemeinsamer mentaler Modelle. Allerdings sollte man darauf achten, dass diejenigen, die vor Ort handeln müssen, nicht mit Irrelevantem überlastet werden.
Zu den besonderen Herausforderungen, die sich aus den Ökonomisierungstendenzen der letzten Jahre ergeben, gehört der Versuch, immer mehr Überwachungssysteme mit immer weniger Personal zu betreuen, sowie Versuche, Zentren zusammenzulegen und Arbeitspraktiken zu standardisieren. Das Risiko dabei ist, dass die Standardisierungsversuche die Feinheiten übersehen, die derzeit Ambiguitätsreduktion und gegenseitige Unterstützung ermöglichen. So beschreiben Pettersen, Randall & Helgeson (2004), wie große Wandkarten zur Hilfe genommen werden und Mitarbeiter sich den gerade diskutierten Vorgang am Bildschirm der anderen ansehen und dann am eigenen Bildschirm im Menü aufrufen. Müsste dasselbe Team nun Anrufe aus ganz Schweden entgegennehmen, wäre es deutlich schwieriger, gemeinsam zu klären, wo genau der Unfallort ist und wie lange die Ambulanz noch unterwegs sein wird. Außerdem überschätzen die Pläne zur Zusammenlegung von Einsatzzentralen die Belastbarkeit von Menschen. Ein tragischer Fall, in dem die Koordination zwischen Akteuren und technischen Systemen in der Zentrale und vor
213
11.2 • Implikationen einer veränderten Arbeitswelt für Sicherheit
Ort aus genau solchen Gründen scheiterte, ist der Mid-air-Zusammenstoß am 01.07.2002 über Überlingen (Bennett, 2004; BFU, 2004). Beispiel Am 01.07.2002 um 21:35:32 Uhr kam es nördlich der Stadt Überlingen am Bodensee zu einem Zusammenstoß einer Tupolew TU154 M, die sich auf dem Flug von Moskau nach Barcelona befand, mit einer Boeing B757-200, die von Bergamo nach Brüssel flog. Beide Flugzeuge flogen nach Instrumentenflugregeln und wurden von Air Traffic Control Zürich geführt. Der Fluglotse, der zu diesem Zeitpunkt alleine zwei Sektoren an unterschiedlichen Arbeitsplätzen betreute, hatte zunächst den drohenden Konflikt der Flugbahnen übersehen, da er mit der Landung eines anderen Flugzeugs beschäftigt war. Als er die Instruktion zum Ausweichmanöver gab, hatte die automatische Warnanlage TCAS (Traffic Collision Alert System) bereits Alarm in beiden Flugzeugen ausgelöst und automatische Anweisungen erteilt. Die Piloten der Tupolew hatten damit zwei gegensätzliche Anweisungen: die technische Apparatur, die sie zum Steigflug aufforderte, und der Fluglotse, der Sinken angeordnet hatte. Sie entschieden sich für die menschliche Instruktion, was den Anweisungen in ihrem Handbuch für Gegenden mit Air Traffic Control entsprach, jedoch nicht den internationalen Regeln für den Luftverkehr. Die beiden Flugzeuge kollidierten und stürzten beide in ein Gebiet nördlich der Stadt Überlingen. An Bord beider Flugzeuge befanden sich insgesamt 71 Menschen, darunter viele Kinder, von denen niemand überlebte.
Der Unfall weist auf ein grundsätzliches Designproblem hin, ein technisches Warnsystem wie TCAS nachzurüsten, von dessen Alarmen die Flugüberwachung keine Kenntnis hat (Ladkin, 2004; Lauche, Busby & Bennett, 2004). Wie bereits in 7 Kap. 2.1.1 diskutiert, führen derartige Redundanzen nicht zwingend zu mehr Sicherheit. Außerdem wurde der Unfall mitverursacht durch die Situation in der Flugüberwachung in Zürich, bei der die fragwürdige Praxis, in ruhigen Stunden einen Controller in einen entfernten Ruheraum zu entlassen, zusätzlich kompromittiert wurde durch tech-
11
nische Probleme. Für die Nacht zum 02.07.2002 war ein Systemupdate geplant, um den zunehmenden Flugbetrieb weiterhin sicher abwickeln zu können. Dadurch war vorübergehend ein Teil des automatischen Warnsystems nicht einsatzfähig und aufgrund eines nicht entdeckten Programmierfehlers auch das Telefonsystem nicht verfügbar. So verbrachte der verbliebene Controller viel Zeit damit, telefonisch Kontakt mit Friedrichshafen zur Landung des anderen Flugzeugs herzustellen, und merkte dabei nicht, wie der BFU-Bericht es formuliert, dass er sich in einer fehlerträchtigen Lage befand und Unterstützung hätte anfragen müssen. Für die Flugsicherung Zürich begann nach dem Unfall ein schmerzvoller Lernprozess zu Human Factors (Nunes & Laursen, 2004; persönliche Mitteilung Laursen). Die Grenzen menschlicher Belastbarkeit hatte man bis dahin wenig beachtet und sich auf einem hohen Sicherheitsstandard gewähnt, wie auch das Review der niederländischen Kollegen anmahnt (Geest et al., 2003). Der Schrecken unter den Controllern wurde noch größer, als der diensthabende Controller von einem der Angehörigen der Opfer ermordet wurde. Mittlerweile wurde in einem Gerichtsverfahren festgehalten, dass die Verantwortung für die sicheren Arbeitspraktiken beim Managements lag und sich diese Personen zu verantworten haben (Pressemitteilung Deutsches Radio Schweiz, 07.09.2007).
11.2.3
Organisationsübergreifende Zusammenarbeit
Szenario 3 (. Abb. 11.2) bezieht sich auf neue Zusammenarbeit zwischen Organisationen, insbesondere Behörden, die bisher jeweils für einen Teilaspekt der Sicherheit der Bevölkerung zuständig waren. Gerade die professionellen Sicherheitsfachkräfte in Polizei, Feuerwehr und medizinischer Versorgung haben zunehmend erkannt, dass sowohl Prävention als auch Krisenmanagement nur organisationsübergreifend erfolgen können. Allerdings handelt es sich um kein einfaches Unterfangen, da historisch gewachsene Unterschiede in der Fachsprache, der Regelung von Verantwortlichkeiten und in »standard operating procedures« zu überwinden sind. Diese Unterschiede sind dann si-
214
Kapitel 11 • Neue Formen der Zusammenarbeit
cherheitsrelevant, wenn die Beteiligten über unterschiedliche mentale Modelle verfügen, was in welcher Situation zu tun ist, oder die Situation anders interpretieren (7 Kap. 7.2 und 8.3). Meist sind es spektakuläre Fälle, die auf die unzureichende Zusammenarbeit der Behörden hinweisen, wie das folgende Beispiel aus Großbritannien zeigt. Beispiel
11
Die 8-jährige Victoria Climbie wurde von ihren Pflegeeltern über Monate auf grausamste Art misshandelt. Diverse Behörden wie die Polizei, das Sozialamt, das Gesundheitsamt und kirchliche Stellen wussten von dem Fall und hatten Anzeichen von Missbrauch bemerkt, doch keine der Stellen untersuchte den Fall und traf irgendwelche Maßnahmen. Als Victoria im Februar 2000 ins Krankenhaus eingeliefert wurde und dort innerhalb weniger Tage starb, war das Entsetzen über das Ausmaß der Misshandlung und die Untätigkeit der Behörden groß. Der in der Folge eingesetzte Untersuchungsausschuss empfahl u. a. gemeinsame Schulungen. Dafür entwickelte das National Centre for Applied Learning Technologies (http://www.ncalt.com) der Metropolitan Police London computergestützte Szenarien. Teilnehmergruppen bearbeiten einen Fall mit immer neu hereinströmenden Meldungen, Anfragen, Videoaufzeichnungen vor Ort etc., treffen Entscheidungen und müssen sich vor einem Gremium verantworten (Crego & Harris, 2002). Die Trainingsmethode hat sich als sehr effektiv erwiesen, um unter realitätsnahen Bedingungen analysieren, entscheiden und kommunizieren zu üben und zumindest das Bewusstsein für einen differenzierten Umgang mit sog. Problemgruppen der Bevölkerung zu schärfen. Nach Aussagen der beteiligten Mitarbeiter gibt es jedoch auch immer noch heftige Auseinandersetzungen zwischen den Behörden im Training.
Dass eine Zusammenarbeit zwischen Organisationen auch substanzielle strukturelle Hürden zu überwinden hat, zeigt die Diskussion zu Integrierten Leitstellen in Deutschland über die Regelung von Weisungsbefugnissen und einander widersprechenden Aufgaben von Personenschutz und Verbrechensaufklärung:
» Die Zusammenfassung von Integrierten Leitstellen mit Polizeistellen zu ‚kombinierten’ oder gar ‚gleichgeschalteten’ Leitstellen birgt erhebliche politische Risiken und ist aus fachlichen, organisatorischen und politischen Gründen abzulehnen. Aufgrund der sehr differenzierten Wahrnehmung der (polizeilichen) Eingriffsverwaltung und der (nichtpolizeilichen) Fürsorge des Staates durch organisierte Hilfe in der Bevölkerung kann eine Vermischung beider Bereiche in Krisensituationen zur Destabilisierung der öffentlichen Sicherheit und Ordnung führen. Auch Belange des Datenschutzes sprechen gegen eine Zusammenlegung. (AGBF, 2004, S. 2)
«
Organisationsübergreifende Zusammenarbeit bedeutet auch, dass der Gegenstand der Arbeit erst ausgehandelt und gemeinsam konstruiert werden muss. Allgemein wird argumentiert, die eingangs angeführten Bedingungen der globalisierten Wirtschaft und leistungsstärkeren Technologie führten zu einer Komprimierung von Zeit und Raum. Dagegen argumentieren Engeström, Puonti & Seppänen (2003), es sei sinnvoller, den Gegenstand der Arbeit zu betrachten, und dieser weite sich eher aus. Sie zeigen anhand von Beispielen aus der Verbrechensbekämpfung im Bereich Finanzbetrug und Steuerhinterziehung, aus dem biologischen Landbau und aus der medizinischen Versorgung, wie sich die gemeinsame Arbeitsaufgabe verändert: 5 Aus der Analyse des einzelnen Betrugsfalls wurde die Identifizierung krimineller Netzwerke, die an diversen Orten und mit zahlreichen Personen und Identitäten operieren und nun parallel verfolgt werden. 5 In der landwirtschaftlichen Genossenschaft setzte ein Umdenken ein von der Vermarktung des gegenwärtigen Ertrags zur Mehrjahresplanung und Fruchtfolge. 5 Bei der Behandlung von Patienten mit Mehrfachdiagnosen kam ein Pflegeplan zum Einsatz, der von den beteiligten Instanzen gemeinsam entwickelt und weitergeführt wurde. In allen drei Beispielen trug die langjährige Zusammenarbeit von Forschenden und Praktikern dazu
215
11.3 • Anforderungen für Technik- und Organisationsgestaltung
Kriterien
Gestaltungsebenen Systemgestaltung - Resilience - Vernetzung und Verantwortlichkeiten
Handlungskompetenz »vor Ort« stärken
Situierte Handlungsverschränkung ermöglichen
Arbeitsgestaltung - Autonomie und Kontrolle - 4-Augen-Prinzip
Soziale Identität mit verteilter Organisastion fördern
. Abb. 11.3
Technikgestaltung - Aufgabenangemessenheit - Präsenz
Kriterien für Technik- und Organisationsgestaltung
bei, die Schnittstellenprobleme zu identifizieren und eine neue Arbeitspraxis zu etablieren. Ist auf diesem Wege eine solide Basis für eine organisationsübergreifende
Zusammenarbeit
gelegt, kann sie sinnvoll elektronisch unterstützt werden. Problematisch ist dies allerdings, wenn erst die Technologie entwickelt wird, ohne die Einzelheiten der Grenzregulation an den Schnittstellen zu kennen, wie dies bezüglich der elektronischen Gesundheitskarte in Großbritannien und Deutschland kritisiert wurde (Hartswood, Proctor, Rouncefield & Slack, 2003; Krüger-Brand, 2007). > Zusammenarbeit zwischen Organisationen zum Wohl der Betroffenen ist grundsätzlich anzustreben, aber keine leichte Aufgabe, da die Strukturen historisch gewachsen sind und erst ein gemeinsames Verständnis der Arbeit entwickelt werden muss. Rein technische Lösungen greifen hier zu kurz.
11.3
11
Anforderungen für Technik- und Organisationsgestaltung
Aus den hier vorgestellten Forschungsergebnissen und Praxisbeispielen lassen sich einige Kriterien für die Technik- und Organisationsgestaltung für neue Formen der Zusammenarbeit ableiten, die auf unterschiedlichen Gestaltungsebenen Anwendung finden (. Abb. 11.3).
Zur Unterstützung verteilter Zusammenarbeit werden im Folgenden drei Kriterien genannt: z
Handlungskompetenz vor Ort unterstützen
Das Gesamtsystem muss so ausgerichtet sein, dass die Einsatzkräfte am Unfallort, die Geologen auf der Bohrinsel und die Astronauten im All soweit wie irgend möglich selbst mit Schwankungen und Störungen umgehen können. Instruktionen müssen so erfolgen, dass sie die Arbeit weder unterbrechen noch behindern oder verzögern. Der Primärprozess wie die Patientenversorgung oder das Feuerlöschen muss durch die Führungskräfte und Stabsmitarbeiter unterstützt werden, nicht diese den Anforderungen des Sekundärprozesses gehorchen. Eines der grundsätzlichen Gestaltungsprinzipien für soziotechnische Systeme, das hier Anwendung findet, ist das Gesetz der erforderlichen Wahlmöglichkeiten (»law of requisite variety«) von Ashby (1956). Es besagt, dass die steuernde Instanz die Komplexität des zu steuernden Systems angemessen repräsentieren können muss und umso besser Schwankungen und Störungen kompensieren kann, je mehr Handlungsalternativen sie hat. Eine automatisierte Steuerung sollte also so programmiert sein, dass sie Abweichungen registriert und auf das entsprechende Alternativprogramm umschaltet. Menschliche Bediener vor Ort sollten sich vorstellen können, welche Systemzustände es geben kann und wie damit umzugehen ist, und sollten befugt und in der Lage sein,
216
Kapitel 11 • Neue Formen der Zusammenarbeit
angemessene Wartungsarbeiten, abweichende Behandlungen oder Einleiten eines sicheren Systemzustands selbstständig vornehmen zu können. z
Situierte Handlungsverschränkung ermöglichen
Die zahlreichen Akteure müssen voneinander wissen und sich nach Bedarf schnell und einfach koordinieren können, um so gemeinsame Umsicht walten lassen zu können (»heedful interrelating«; Weick & Roberts, 1993). Auch bei dem Konzept der Handlungsverschränkung (Zölch, 2001) geht es darum, durch Grenzregulation zwischen mehreren Gruppen flexible Koordination vor Ort zu ermöglichen. Bei verteiltem Arbeiten kann dies nicht »auf Zuruf« geschehen, sondern muss technisch unterstützt werden. Nur so wird gewährleistet, dass die mentalen Modelle der Teammitglieder hinreichend ähnlich und auf dem laufenden Stand der jeweiligen Situation sind. z
11
Soziale Identität fördern
Wie bereits erläutert, kann es bei verteiltem Arbeiten zur Ausbildung von Subkulturen kommen. Damit verteilte Teams dennoch das Gefühl haben, auf dasselbe übergeordnete Ziel hinzuarbeiten, sollten technische Mittel genutzt werden, um die psychologische Entfernung zu verringern, wie im Eingangsbeispiel dieses Kapitels die ständige Videoverbindung und die Möglichkeit des elektronischen Mithörens. Ein derartig gestärktes Zugehörigkeitsgefühl erhöht auch die Motivation, Anweisungen von zentraler Stelle, wie die zur narkotisierenden Wirkung von Kohlenwasserstoffen, eingehend zu lesen und die Sicherheitshinweise zu befolgen. Diese drei beschriebenen Kriterien finden auf verschiedenen Ebenen Anwendung. Auf der Ebene der soziotechnischen Systemgestaltung finden sich Leitlinien zur Stärkung der Handlungskompetenz vor Ort unter dem Konzept der »resilience« (Belastbarkeit; z. B. Hollnagel, Woods & Leveson, 2006). Zwischen mehreren kompetent agierenden Akteuren gilt es dann, Verantwortlichkeiten zu klären und Vernetzung herzustellen. Auf der Ebene der Arbeitsgestaltung entsprechen die vorgestellten Kriterien der Maxime von Autonomie und Kontrolle (Grote, 1997). Operateure sollten bei Schwankungen und Störungen
eingreifen und das technische System steuern können sowie in die übergeordnete Diskussion der Funktionszuweisung Mensch-Maschine einbezogen sein (7 Kap. 19.4). Bei verteiltem Arbeiten können sich Teammitglieder gegenseitig unterstützen und Fehler kompensieren, wie im Eingangsbeispiel dieses Kapitels geschildert. Mark, Kobsa & Gonzalez (2002) fanden beim Vergleich zweier Visualisierungssysteme, dass Gruppen akkuratere Entscheidungen trafen, wenn das System mehr Transparenz schuf. Vier Augen können mehr sehen als zwei, aber nur, wenn dies geeignet technisch unterstützt wird. Für die Technikgestaltung gilt grundsätzlich das Prinzip der Aufgabenangemessenheit: Beim Entwickeln neuer Technologie sollte man die Aufgabe zunächst eingehend analysieren. Die Beispiele aus der Forschung zu computerunterstützter Zusammenarbeit (CSCW) zeigen allerdings auch, dass dieses Verstehen von Arbeitsbezügen noch nicht direkt zu Systemanforderungen führt, sondern immer noch eines Übersetzungsprozesses bedarf (Lauche, 2005; McCarthy, 2000). Für verteilte Zusammenarbeit gilt außerdem, dass die Technik die wahrgenommene Präsenz der anderen Teammitglieder erhöhen sollte, um so die Koordinierung zu vereinfachen und die Teamidentität zu stärken. Dazu gibt es einige Einflussfaktoren wie die Übertragungsrate von Videobildern, die beeinflussen, ob die Interaktion als realistisch wahrgenommen wird (Witmer & Singer, 1998).
11.4
Zusammenfassung
Die Hintergründe für neue Formen der Zusammenarbeit liegen in der Globalisierung der Wirtschaft, der zunehmenden technischen Vernetztheit und den komplexeren Problemstellungen bei knapper zugeteilten Ressourcen. Als Folge davon findet arbeitsbezogene Kommunikation vermehrt computervermittelt statt, was zu Informationsüberflutung, Motivationsverlusten, Unklarheiten und Verantwortungsdiffusion führen kann. Neue Formen der Zusammenarbeit können jedoch auch eine bessere Basis für mehr Sicherheit bieten, sofern die Technik und Organisation arbeitsangemessen gestaltet sind.
Literatur
Aus der bisherigen Forschung lassen sich drei idealtypische Szenarien unterscheiden: 5 verteilte Zusammenarbeit an derselben Aufgabe, 5 verteilte Arbeitsaufgabe mit zentraler Koordination sowie 5 organisationsübergreifende Zusammenarbeit an noch gemeinsam zu definierenden Arbeitsaufgaben. Für die Gestaltung von Arbeitssystemen, Aufgaben und Technik lassen sich Richtlinien ableiten, die dazu dienen, die Handlungskompetenz vor Ort zu stärken und die Koordination und den Zusammenhalt innerhalb des Teams zu fördern.
Literatur AGBF (2004). Zukunft der Leitstellen der nichtpolizeilichen Gefahrenabwehr. Karlsruhe: Arbeitsgemeinschaft der Leiter der Berufsfeuerwehren. Altvater, E. & Mahnkopf, B. (2004). Grenzen der Globalisierung. Ökonomie, Ökologie und Politik in der Weltgesellschaft (6 ed.). Münster: Westfälisches Dampfboot. Artman, H. & Waern, Y. (1999). Distributed cognition in an emergency co-ordination centre. Cognition, Technology & Work, 1 (4), 237–246. Ashby, W. R. (1956). An introduction to cybernetics. London: Chapman and Hall. Avolio, B. J., Kahai, S., & Dodge, G. E. (2000). E-Leadership: Implications for theory, research, and practice. Leadership Quarterly, 11 (4), 615-668. Batinic, B. (Hrsg.) (2000). Internet für Psychologen (2. Auflage). Göttingen: Hogrefe. Bayerl, P. S. & Lauche, K. (2010) Technology effects in distributed team coordination: High-interdependency tasks in offshore oil production. Computer Supported Cooperative Work, 19 (2): 139–173. Bayerl, P. S. & Lauche, K. (2009) Technology as enabler for empowerment in distributed teams: A field study on leadership attitudes. Paper presented at Academy of Management Meeting, 7-11 August, 2009, Chicago. Bennett, S. A. (2004). The 1 July, 2002 mid-air collision over Überlingen, Germany. A holistic analysis. Risk Management: An International Journal, (1), 31–49. BFU (2004). Investigation Report (No. AX001-1-2/02). Braunschweig: German Federal Bureau of Aircraft Accidents Investigation. Crego, J. & Harris, C. (2002). Training decision-making by team based simulation. In R. Flin & K. Arbuthnot (Eds.), Incident command: tales from the hot seat (pp. 258–269). Hants: Ashgate.
217
11
Engeström, Y., Puonti, A. & Seppänen, L. (2003). Spatial and temporal expansion of the object as a challenge for reorganizing work. In D. Nicolini, S. Gherardi & D. Yanow (Eds.), Knowing in organizations: A practice-based approach (pp. 151–186). Armonk: M. E. Sharpe. Geest, P. J. v. d., Piers, M. A., Jong, H. H. d., Finger, M., Slater, D. H., Es, G. W. H. v. et al. (2003). Aviation safety management in Switzerland. Recovering from the myth of perfection (No. NLR-CR-2003-316). Amsterdam: National Aerospace Laboratory NLR. Grote, G. (1997). Autonomie und Kontrolle. Zur Gestaltung automatisierter und risikoreicher Systeme. Zürich: vdf Hochschulverlag. Hartswood, M., Proctor, R., Rouncefield, M. & Slack, R. (2003). Making a case in medical work: Implications for the electronic medical record. Computer Supported Cooperative Work, 12 (3), 241–266. Heath, C. & Luff, P. (1992). Collaboration and control: Crisis management and multimedia technology in London Underground control rooms. Computer Supported Cooperative Work, 1 (1-2), 69–94. Hollnagel, E., Woods, D. D. & Leveson, N. (2006). Resilience engineering. Concepts and precepts. Aldershot: Ashgate. Holman, D., Wall, T. D., Clegg, C., Sparrow, P. & Howard, A. (Eds.) (2003). The new workplace. A guide to the human impact of modern working practices. Chichester: John Wiley. Hughes, J. A., Randall, D. & Shapiro, D. (1992). Faltering from ethnography to design. In J. Turner & R. Kraut (Eds.), Proceedings of the Conference on Computer-Supported Cooperative Work, Toronto, Canada, 31 Oct – 4 Nov 1992 (pp. 115–122). New York: ACM Press. Klein, K. J. (2004). Creating a strong, positive climate for technology implementation: Organizations should, but often don’t … Why? In M. Erez, U. Kleinbeck & H. Thierry (Eds.), Work motivation in the context of a globalizing economy (pp. 261-278). Mahwah, NJ: Lawrence Erlbaum Associates. Krüger-Brand, H. (2007). Warnung vor Schnittstellenchaos. Deutsches Ärzteblatt, 104 (19), 1296. Ladkin, P. B. (2004). Causal analysis of the ACAS/TCAS Sociotechnical System. Paper presented at the 9th Australian Workshop on Safety Related Programmable Systems, Brisbane. Lammond, D., Daniels, K. & Standen, P. (2003). Teleworking and virtual organisations: The human impact. In D. Holman, T. D. Wall, C. Clegg, P. Sparrow & A. Howard (Eds.), The new workplace. A guide to the human Impact of modern working practices (pp. 197–218). Chichester: John Wiley. Latané, B. (1981). The psychology of social impact. American Psychologist, 36 (4), 343–356. Lauche, K. (2005). Collaboration among designers: Analysing an activity for system development. Computer Supported Cooperative Work, 14, 253–282. Lauche, K. (2008). Overcoming remoteness: Human factors assessment of real-time monitoring and support in
218
11
Kapitel 11 • Neue Formen der Zusammenarbeit
drilling operations. International Journal of Technology and Human Interaction, 4 (1), 94–112. Lauche, K., Busby, J. S. & Bennett, S. A. (2004). Integrating operational complexity in design processes and improving design risk identification. In D. Marjanovic (Ed.), Proceedings of the 8th International Design Conference (pp. 349–354). Dubrovnik: Design Society. Manchen Spörri, S., Springall, L. & Grote, G. (2003). Führung virtueller Teams in der IT-Branche: Neue Herausforderungen an Führung und Kommunikation. Wirtschaftspsychologie, 1/2003. Mark, G., Kobsa, A. & Gonzalez, V. (2002, 10–12 July 2002). Do four eyes see better than two? Collaborative versus individual discovery in data visualization systems. Paper presented at the 6th International Conference on Information Visualisation, London. Mark, G., Su, N.M. (2010) Making infrastructure visible for nomadic work, Pervasive and Mobile Computing, 6 (2010) 312–323 McCarthy, J. (2000). The paradox of understanding work for design. International Journal of Human Computer Studies, 53, 197–219. Nunes, A. & Laursen, T. (2004, September 20–24). Identifying the factors that led to the Ueberlingen mid-air collision: Implications for overall system safety. Paper presented at the 48th Annual Chapter Meeting of the Human Factors and Ergonomics Society, New Orleans, LA. O’Leary, M. B. & Cummings, J. (2007). The spatial, temporal and configurational characteristics of geographic dispersion in teams. Management of Information Systems Quarterly, 31 (3), 433–452. Okhuysen, G. A., & Bechky, B. A. (2009). Coordination in organizations: An integrative perspective. Academy of Management Annals, 3(1), 463-502. Petterson, M., Randall, D. & Helgeson, B. (2004). Ambiguities, awareness and economy: A study of emergency service work. Computer Supported Cooperative Work, 13, 125–154. Suchman, L. (1997). Centers of coordination: A case study and some themes. In L. B. Resnick, R. Säljö, C. Pontecorvo & B. Burge (Eds.), Discourse, tools and reasoning: Essays on situated cognition (pp. 41–62). Berlin: Springer. Symon, G. (2000). Information and communication technologies and the network organization: A critical analysis. Journal of Occupational and Organizational Psychology, 73 (4), 389–414. Watts, J. C., Woods, D. D., Corban, J., M., Patterson, E. S., Kerr, R. L. & Hicks, L. C. (1996). Voice loops as coordination aids in space shuttle mission control. Paper presented at the CSCW ’96, Boston, MA. Weick, K. E. & Roberts, K. (1993). Collective mind in organizations: heedful interrelating on flight decks. Administrative Science Quarterly, 38, 357–381. Witmer, B. G. & Singer, M. J. (1998). Measuring presence in virtual environments: A presence questionnaire. Presence, 7, 225–240. Zölch, M. (2001). Zeitliche Koordination in der Produktion. Aktivitäten der Handlungsverschränkung. Bern: Huber.
219
Aktuelle Human-Factors-Herausforderungen und Anforderungen für die Zukunft in verschiedenen Risikofeldern Kapitel 12
Aktuelle Themen und zukünftige Entwicklungen in der Luftfahrt – 221 Rolf Wiedemann und Petra Badke-Schaub
Kapitel 13
Patientensicherheit und Human Factors – Vom Heute in die Zukunft gesehen – 235 Peter Dieckmann und Marcus Rall
Kapitel 14
Lernen aus Störfällen und Präventionsansätze in der Prozessindustrie – 247 Günter Horn und Kristina Lauche
Kapitel 15
Militär: Handeln in komplexen Problemlagen – 263 Markus Bresinsky, Frank Detje und Martin Littschwager
Kapitel 16
Stabsarbeit und »Ständige Stäbe« bei der Polizei: Sicherheit durch Professionalisierung – 275 Uwe Thieme und Gesine Hofinger
IV
221
Aktuelle Themen und zukünftige Entwicklungen in der Luftfahrt Rolf Wiedemann und Petra Badke-Schaub
12.1
Einleitung – 222
12.2
Anforderungen für die Zukunft – 224
12.2.1
Ein Babylon der Lüfte? Anforderungen durch die Globalisierung der Luftfahrt – 225 Flugzeugführer oder Panel-Operator? Anforderungen bei der Auswahl und Ausbildung zukünftiger Piloten – 229 Zum Wachstum verdammt? Anforderungen durch neue Entwicklungen in der Luftfahrttechnik – 231
12.2.2 12.2.3
12.3
Zusammenfassung – 233 Literatur – 233
P. Badke-Schaub et al., Human Factors, DOI 10.1007/978-3-642-19886-1_12, © Springer-Verlag Berlin Heidelberg 2012
12
12
222
Kapitel 12 • Aktuelle Themen und zukünftige Entwicklungen in der Luftfahrt
12.1
Einleitung
Die Luftfahrt und das von ihr entwickelte Crew Resource Management (CRM) als Werkzeug für sicheres Handeln des Einzelnen, von Teams und der Luftfahrtindustrie als Ganzes werden gerne als Beispiel für die erfolgreiche Anwendung von Konzepten zur Risikosteuerung verwendet. Tatsächlich aber fußt die relativ hohe Sicherheit dieser Industrie auf dem Ineinandergreifen einer ganzen Reihe unterschiedlicher Werkzeuge, die in den letzten 25 Jahren entwickelt, erprobt und immer wieder angepasst wurden (NTSB, 2007). Ausgehend von der Betrachtung der Zusammenarbeit im Cockpit eines Verkehrsflugzeuges (Cockpit Resource Management) wurden die Schnittstellen zum Cockpit einbezogen (Crew Resource Management) und letztendlich auf alle Arbeitsbereiche, die zum System Luftfahrt gehören, ausgedehnt (Company und Culture Resource Management; siehe z. B. Helmreich, Merritt & Wilhelm, 1999). Die Qualität dieser Werkzeuge verdankt die Luftfahrt der im Vergleich zu anderen Industriezweigen frühen Erkenntnis der Bedeutung des Faktors Mensch und der industrieimmanenten Internationalität. Bereits Mitte der 1980er-Jahre wurden die ersten Trainingsprogramme, zunächst beschränkt auf den Bereich Cockpit, erprobt. Ursächlich war die in den Vereinigten Staaten übliche Praxis, Verkehrsflugzeugführer aus dem großen Angebot an ehemaligen Militärpiloten zu rekrutieren. Diese auf ganz andere Anforderungen selektierten und ausgebildeten Piloten verursachten im zunehmend teamorientierten Cockpit der neuen Generation von Verkehrsflugzeugen Auffälligkeiten, die von Wissenschaftlern analysiert wurden, die wiederum durch eine Serie spektakulärer Industrieunfälle auf Human Factors aufmerksam geworden waren (. Tab. 12.1). Forscher wie Reason (1990), Wiener, Nagel, (Wiener, Nagel, Carterette & Friedman, 1988), Hawkins (Hawkins & Orlady, 1987), Faber (1977) und Helmreich (Helmreich & Foushee, 1993), um nur einige zu nennen, haben sich mit der Aufarbeitung der Ursachen dieser Katastrophen und der Umsetzung der gewonnenen Erkenntnisse in der Luftfahrt beschäftigt (zur Analyse und Theoriebildung zu Katastrophen s. auch 7 Kap. 2.2, 7 Kap. 3.2
und 7 Kap. 7.6). Warum aber hat gerade die Luft-
fahrt eine Schlüsselposition in der Entwicklung Human-Factors-orientierter Sicherheitskonzepte eingenommen? Der Luftverkehr erlebte in den 1980er-Jahren ein enormes Wachstum. Gleichzeitig entwickelte die Öffentlichkeit eine Sensibilität in Bezug auf Vorfälle und Unfälle im Zusammenhang mit Verkehrsflugzeugen. Eine Studie der Firma Boeing Ende der 1980er-Jahren ergab, dass es bei gleichbleibendem Risiko, nur aufgrund der wachsenden Verkehrszahlen, im Jahr 2000 jede Woche einen schweren und damit medienwirksamen Vorfall in der Zivilluftfahrt geben werde. Eine zumindest das Verkehrswachstum ausgleichende Erhöhung der Flugsicherheit war also notwendig. Potenzielle Kunden, die beispielsweise im Jahre 1988 im Individualverkehr 8213 Verkehrstote (Quelle: http:// www.destatis.de/basis/d/verk/verktab6.php) allein in Westdeutschland akzeptierten, reagierten in Bezug auf die Luftfahrt deutlich sensibler. Der dazu mögliche Aufwand ist nicht zuletzt von der Größe einer Fluggesellschaft abhängig. Um die absolute Zahl der medienwirksamen Vorfälle in einem von den Kunden akzeptierten Rahmen zu halten, darf die Fehlerrate bei einem Flugbetrieb mit 600 000 Flügen pro Jahr nur etwa halb so groß sein wie bei einem Flugbetrieb mit nur 300 000 Flügen pro Jahr. Das wird besonders deutlich bei einem Vergleich anderer, gesellschaftlich akzeptierter Risiken in . Tab. 12.2. Um als großer Flugbetrieb wirtschaftlich bestehen zu können, muss das Unfallrisiko daher auf einen Wert von weniger als 107 gesenkt werden. Das sich daraus rechnerisch ergebende tolerierbare Risiko entspricht einem Zeitabstand von mehr als 10 Jahren zwischen 2 Unfällen. Mit diesen Zielwerten bewegt sich die Luftfahrt im Bereich der Vorschriften für die Atomindustrie. Dieser kontinuierliche Zwang, insbesondere aus wirtschaftlichen Erwägungen immer mehr Sicherheit garantieren zu müssen, ist der eigentliche Grund für den Zeitvorsprung, den die Luftfahrt in Bezug auf funktionierende Arbeitskonzepte zur Risikosteuerung heute noch hat. Es geht hier bewusst um das probabilistische Unfallrisiko. Aufgrund der hohen Zuverlässigkeit des Systems Luftfahrt lässt sich die Flugsicherheit
223
12.1 • Einleitung
. Tab. 12.1
Große Industrieunfälle der 1980er-Jahre
1979
Atomreaktor Three-Miles-Island (USA)
1984
Chemiefabrik Bhopal (Indien)
1986
Tschernobyl (UdSSR)
1987
Herald of Free Enterprise (Belgien)
1988
Ölplattform Piper Alpha (Nordsee)
1988
Space Shuttle Columbia (USA)
einzelner Unternehmen nicht ohne Weiteres durch deren Unfallereignisse messen, da die Ereignisse zu selten sind, um sie statistisch bedeutsam bearbeiten zu können. Im Folgenden werden wir diskutieren, in welcher Weise zukünftige Entwicklungen die Sicherheit der zivilen Luftfahrt beeinflussen. Damit wird dieses Kapitel keinen Überblick über Human Factors in der Luftfahrt geben; vielmehr werden ausgehend von einem Fallbeispiel zentrale Probleme aufgezeigt, die als Herausforderungen für die Zukunft in der zivilen Luftfahrt von besonderer Bedeutung sind. Dazu gehören die politische Entwicklung im europäischen Rahmen, angestrebte Veränderungen im Bereich der Pilotenausbildung sowie die Frage nach den Auswirkungen der technischen Entwicklung von Flugzeugen und Infrastruktur. Beispiel Helios-Flug 522, Larnaca – Athen, 14.08.2005 Die Boeing 737-500 der Fluglinie Helios wurde vor dem Abflug von der Technik gewartet. Dabei wurde auch das System überprüft, das während des Fluges den atmosphärischen Druck in der Kabine regelt. Nach der Wartung wurde vergessen, den Schalter für die automatische Steuerung der Anlage wieder einzuschalten. Dadurch blieben die Ventile für die Druckregelung geöffnet, womit eine Druckbeaufschlagung der Kabine nach einem Start nur über einen manuellen Schalter zum Öffnen und Schließen dieser Ventile möglich ist. Die falsche Stellung des Schalters wird durch ein grünes Licht angezeigt. Es befindet sich hinter dem Kopf der Piloten am sog. »overhead panel«. Bei der Flugvorbereitung wurde dieser Fehler nicht bemerkt, obwohl die richtige Stellung des Schalters in einer Checkliste abgefragt wird.
12
Die Maschine startete um 9.07 Uhr in Larnaca auf dem Weg nach Prag mit einer geplanten Zwischenlandung in Athen. Aufgrund der geöffneten Druckregelventile stieg der atmosphärische Druck in der Kabine, der im Normalfall auf maximal 8 000 Fuß (ca. 2 450 m) begrenzt wird, etwa im gleichen Verhältnis wie die Flughöhe. Bei Erreichen einer Flug- und Kabinenhöhe von mehr als 12 000 Fuß (ca. 4 000 m) ertönte ein Warnhorn, um die Cockpitbesatzung darauf aufmerksam zu machen. Das Warnhorn wurde von den Piloten offensichtlich falsch interpretiert, da der gleiche Warnton am Boden eine andere Bedeutung hat, nämlich die Warnung vor einer unsicheren Startkonfiguration in Bezug auf Landeklappen, Bremsklappen und Bremsen. Die Cockpitbesatzung nahm an, es handele sich um eine Fehlwarnung dieses Startkonfigurationssystems. Deshalb wurde wahrscheinlich auch nicht versucht, das Warnhorn auszuschalten, wie es für die Kabinendruckwarnung möglich gewesen wäre. Gleichzeitig wurde die Besatzung durch eine weitere Warnung (Überhitzung im FlugelektronikLaderaum aufgrund zu geringen Kühlluftdurchsatzes) abgelenkt, die ursächlich mit dem geringen Luftdruck im Flugzeug zusammenhing. Die Warnung für das Auslösen der Kabinensauerstoffanlage (Kabinenhöhe größer 14 000 Fuß (ca. 4 250 m)) wurde nicht wahrgenommen, weil die allgemeine Warnanzeige (»master caution«) nach der Anzeige des Kühlproblems nicht gelöscht worden war und deshalb nicht erneut aufleuchten konnte. Die Lösung des Problems wurde durch die Tatsache verzögert, dass der englische Techniker am Boden den mit starkem deutschen Akzent sprechenden Kapitän nicht richtig verstand. Zwischendurch wurde vorgeschlagen, dass der zypriotische Erste Offizier das Problem mit einem zypriotischen Techniker auf Griechisch besprechen solle. Da die Cockpitbesatzung immer noch der Meinung war, es handele sich um eine fehlerhafte Konfigurationswarnung, trug sie zu diesem Zeitpunkt keine Sauerstoffmasken. Wahrscheinlich erreichte sie auch keine Information von den Flugbegleitern aus der Kabine, die nach dem Auslösen der Sauerstoffmasken durch die Maske an ihre jeweilige Position gebunden waren.
224
Kapitel 12 • Aktuelle Themen und zukünftige Entwicklungen in der Luftfahrt
. Tab. 12.2 Akzeptable Risiken (Quelle: CF-Information 3/2005. © Manfred Müller & Robert Schröder. Subjektive Risikoeinschätzung und evidenzbasiertes Risikomanagement. CF-Information 3/2005.)
12
Risikoart
Tödliche Fehlerrate
Anzahl der Totalverluste bei gleichem Risiko in einem großen Flugbetrieb (600 000 Flüge pro Jahr)
NASA Space Shuttle
4,0%
Täglich 68 Unfälle
Großer chirurgischer Eingriff
1,0%
Täglich 17 Unfälle
Intensivmedizin
0,1%
Täglich 2 Unfälle
Der Autopilot setzte den programmierten Steigflug fort, und der Luftdruck in der Kabine nahm stetig ab. Die Cockpitbesatzung war dadurch einem zunehmenden Sauerstoffmangel (Hypoxie) ausgesetzt. Dieser Sauerstoffmangel verläuft schleichend und führt, ähnlich wie Alkohol, zunächst zu einer stark fallenden geistigen Leistungsfähigkeit, ohne dass dies bewusst wahrgenommen wird. Wahrscheinlich wurde der Flugkapitän auf der Suche nach einer elektrischen Sicherung (für die Belüftung der Flugelektronik), die sich hinter seinem Sitz befindet, bewusstlos. Der Erste Offizier verlor das Bewusstsein auf seinem Sitz. Wie programmiert, steuerte der Autopilot das Flugzeug auf die eingestellte Reiseflughöhe von 34 000 Fuß (ca. 10 370 m) und erreichte diese Höhe etwa 19 min nach dem Start in Larnaca (. Abb. 12.1). Die Flugsicherungsleitstelle in Athen konnte keinen Kontakt zu dem Flugzeug herstellen, dessen Autopilot um 10.20 Uhr in die Warteschleife über dem Funkfeuer KEA (etwa 50 km südlich von Athen) eindrehte. Gegen 11.30 Uhr erreichten zwei zu Hilfe gerufene F-16-Kampfflugzeuge der griechischen Luftwaffe das Flugzeug. Sie konnten den bewusstlosen Ersten Offizier sehen, nicht aber den Kapitän. Außerdem entdeckten sie ein oder zwei Personen mit Sauerstoffmasken im Cockpit, wahrscheinlich bei dem Versuch, das Flugzeug zu kontrollieren. Der Flugbegleiter, von dem angenommen wird, dass er diesen Versuch unternommen hat, hatte erst vor Kurzem mit seinem Flugunterricht begonnen. Das Flugzeug begann nun, sich Richtung Athen zu bewegen und leitete einen Sinkflug ein. In einer Flughöhe von etwa 7 000 Fuß (ca. 2 100 m) versagten die Triebwerke aufgrund von Treibstoffman-
gel, und das Flugzeug stürzte in hügeliges Gelände, etwa 40 km nördlich von Athen. Alle 121 Menschen an Bord fanden den Tod. . Abb. 12.2 stellt die ursächlichen Faktoren im Fall-
beispiel in ihrem Zusammenhang dar. Im Text werden die relevanten Faktoren an entsprechender Stelle mit den zukünftigen Anforderungen an die Luftfahrt im Human-Factors-Bereich in Verbindung gebracht.
12.2
Anforderungen für die Zukunft
»Die wiederkehrende Schulung zu effektivem Arbeiten als Besatzung«, so die offizielle Übersetzung des Begriffs »Crew Resource Management«, ist seit der Einführung der europäischen Richtlinien 1998 verbindlicher Bestandteil der Ausbildung und regelmäßigen Schulung von Cockpit- und Kabinenpersonal. So hilflos die Industrie zu Beginn vor den geforderten Schulungsinhalten stand, so wirkungsvoll hat sich die Ausbildung in HumanFactors-Themen in der Zwischenzeit erwiesen. Sie ist zum anerkannten Standard geworden (für eine detaillierte Beschreibung von Inhalten siehe z. B. Flin, O’Connor & Crichton, 2007). Unfälle wie im beschriebenen Fallbeispiel lassen aber immer wieder die Vermutung aufkommen, dass die europaweite Umsetzung der Forderungen noch nicht vollständig erfolgt ist. Die Zulassung von Schulungsmaßnahmen unterliegt den nationalen Luftfahrtbehörden ebenso wie die Überprüfung der Fluggesellschaften in Bezug auf die Einhaltung der Vorschriften. Daraus lassen sich die Anforderungen für die Zukunft
12
225
12.2 • Anforderungen für die Zukunft
Thessaloniki Türkei
Greichenland Grammatiko Absturz: 12:04 Athen Rhodos
Antalya
Funkverbindung bricht ab Larnaka Kreta
Zypern
Start: 9:07
. Abb. 12.1
Skizze der Flugroute der Boeing 737–500
recht einfach ableiten. Sie beziehen sich nicht auf die Schulung als solche, sondern eher auf eine Anpassung der Inhalte an erkannte Schwachstellen und die einheitliche Umsetzung und Kontrolle im Bereich der Gültigkeit dieser Vorschriften. So werden im Unfalluntersuchungsbericht unseres Fallbeispiels unter anderem folgende beitragenden Faktoren erwähnt: 5 Mängel der Fluggesellschaft in den Bereichen Flugsicherheit und Qualitätsmanagement, 5 ungenügende Wahrnehmung der Aufsichtspflicht seitens der Luftfahrtbehörde sowie 5 ungenügende Anwendung von CRM.
12.2.1
Ein Babylon der Lüfte? Anforderungen durch die Globalisierung der Luftfahrt
Seit 1998 wird die europäische Luftfahrt zunehmend grenzübergreifenden europäischen Richtlinien unterworfen. Der zunächst sehr schleppende
Prozess gewinnt mehr und mehr an Tempo. Am 07.09.2002 trat die Verordnung (EG) Nr. 1592/2002 zur Festlegung gemeinsamer Vorschriften für die Zivilluftfahrt und zur Errichtung einer Europäischen Agentur für Flugsicherheit (EASA) in Kraft
(http://europa.eu/agencies/community_agencies/ easa/index_de.htm). Die Europäische Union legte damit den Grundstein für ein neues Zeitalter im Bereich der Harmonisierung europäischer Flugsicherheitsvorschriften, die bisher im Rahmen der Joint Aviation Authorities (JAA) erfolgte. Die EASA, die ihren Sitz in Köln hat, ist eine unabhängige europäische Sicherheits- und Aufsichtsbehörde, die nicht nur einen einheitlichen und hohen Sicherheitsstandard für die Zivilluftfahrt garantieren soll, sondern ebenfalls die Harmonisierung technischer Standards zum Schutz der Umwelt zum Ziel hat und einen echten Binnenmarkt für Luftfahrterzeugnisse und -dienstleistungen herbeiführen soll. Seit dem 28.09.2003 nimmt die EASA Aufgaben im Bereich der Zulassung von Luftfahrterzeugnissen (Flugzeuge, Triebwer-
226
Kapitel 12 • Aktuelle Themen und zukünftige Entwicklungen in der Luftfahrt
Kommunikation
Informationsaufnahme und -verarbeitung
Kapitän mit 1. Offizier
Wahrnehmung
Keine gemeinsame Kultur / Sprache
Frequency gambling
Technik und Umfeld
Nicht eindeutiges Warnsignal
Keine gemeinsames mentales Modell
Problemerkennung
Geringe Bereitschaft zum Widerspruch
Fokus Auflösungsgrad
Routine (Vorbereitung)
Cockpit mit Wartungsbasis
Aufmerksamkeit
Andauernder lauter Warnton (im Flug)
Hoher Zeitaufwand Keine kritische Kontrolle Kabine mit Cockpit
Zunehmender Sauerstoffmangel
Ausbildung Verfahren Stress Arbeitsbelastung
Sauerstoffmasken
Andere Warnungen: Überhitzung Sauerstoff Nebenwirkung
Aktivismus
Entscheidungsfindung
12
. Abb. 12.2
Modell wichtiger Einflussfaktoren zur Erklärung des Fallbeispiels
z
ke, Fluginstrumente etc.) und der Lufttüchtigkeit (»airworthiness«) wahr, die bis dahin in die alleinige Zuständigkeit der nationalen Luftfahrtbehörden fielen (zu Standardisierung als Strategie im Sicherheitsmanagement 7 Kap. 17.2.3). Im Folgenden werden drei Bereiche ausführlicher betrachtet, die im Verantwortungsbereich dieser Behörde liegen und besondere Bedeutung in Bezug auf Human Factors in der Luftfahrt haben: 5 Kenntnisse einer gemeinsamen Sprache im Cockpit, 5 Durchsetzung einheitlicher europäischer Arbeitszeitregelungen, 5 Festlegung einheitlicher und verbindlicher Betriebsstandards für die Sicherheit von Fluggesellschaften.
Eine gemeinsame Sprache
Im nordamerikanischen Luftraum herrscht große Einigkeit in Bezug auf die zu benutzende Sprache. Auch wenn in einigen Teilen Kanadas Französisch gesprochen wird, ist Englisch doch die universelle Grundlage jeder Kommunikation. Mit gewissen Einschränkungen gilt dies auch für den südamerikanischen Bereich. Hier kommen die Sprachen Spanisch und Portugiesisch hinzu; zumindest für die Kommunikation innerhalb des Cockpits ist damit meist eine gemeinsame Sprachbasis gegeben. Auch im asiatischen Luftraum ist Englisch, zumindest bei den ehemaligen Kolonialstaaten, weit verbreitet. Probleme bereiten hier eher kulturelle Unterschiede bezüglich Themen wie Hierarchie, Teamwork und Unterordnung. Mit der Bildung eines einheitlichen Europas verbindet sich jedoch eine große Zahl von Staaten mit z. T. sehr unterschiedlichen Sprachen. Englisch ist zwar auch hier in der Luftfahrt die Vorgabe, ein-
12.2 • Anforderungen für die Zukunft
heitliche Voraussetzungen in Bezug auf die Qualität der Sprachkenntnisse beim Cockpitpersonal existierten aber bis vor Kurzem nicht. Selbst bei der Flugsicherung, für die weltweit Englisch als Standardsprache im internationalen Verkehr vorgeschrieben ist, reichen die Kenntnisse in einigen Ländern Europas nicht aus, um eine Kommunikation über die normalen Umstände hinaus zu ermöglichen. Im Jahr 2010 wurden in Europa die Vorschriften der ICAO in Bezug auf die Kenntnisse der englischen Sprache im Cockpit umgesetzt. Für die gewerbliche Luftfahrt werden seitdem Kenntnisse der Stufe 4 gefordert. Eine Überprüfung der Stufe 4 muss alle drei Jahre widerholt werden. Muttersprachliche Fähigkeiten entsprechen in diesem Modell der Stufe 6. In unserem Fallbeispiel führte die mangelhafte Beherrschung der englischen Sprache des Ersten Offiziers dazu, dass Kapitän, Erster Offizier und das Bodenpersonal der Fluggesellschaft über keine ausreichende gemeinsame Sprachbasis verfügten. Die notwendige Diskussion des Sachverhaltes erforderte somit einen erhöhten Zeit- und Koordinierungsaufwand – jedoch ohne eine Reflexion des mentalen Modells. Eine Initiierung von Reflexion durch den Ersten Offizier, um den Kapitän auf eine möglicherweise falsche Interpretation hinzuweisen, traf somit auf zwei unterschiedliche Hemmschwellen: das Autoritätsgefälle und die ungenügende Sprachbasis. Die Unfalluntersuchung ergab auch, dass der deutsche Kapitän aufgrund seines »typisch« deutschen Verhaltens von den zypriotischen Ersten Offizieren allgemein als autoritär, dominant und unfreundlich eingeschätzt wurde. Eine Einschätzung, die von Ersten Offizieren nichtmediterraner Abstammung der gleichen Fluggesellschaft nicht geteilt wurde – ein eindeutig interkulturelles Problem. z
Einheitliche europäische Dienst- und Ruhezeiten für Piloten
Seit vielen Jahren arbeiten Cockpit- und Kabinenbesatzungen weltweit nach den Vorschriften der nationalen Luftfahrtbehörden ihres Landes. Selbst in Europa sind diese Vorschriften sehr unterschiedlich. Am 01.06.2006 beschloss der Verkehrsaus-
227
12
schuss des Europäischen Parlaments die Vorgaben für eine einheitliche europäische Dienst- und Ruhezeitregelung für Piloten. Die neue Regelung, die am 12.12.2006 vom Parlament bestätigt wurde, begrenzt, stark vereinfacht, Flugzeiten auf maximal 13 h, sieht danach ebenso lange Pausenzeiten vor und stellt eine wissenschaftliche Evaluation dieser Regelung durch die EASA in Aussicht. Diese Entwicklung benötigte mehrere Jahre und stand im Spannungsfeld der unterschiedlichen Interessen von Industrie und Arbeitnehmern. Das Ergebnis ist zumindest eine einheitliche Regelung für ganz Europa – und somit als Erfolg zu sehen. In diesem Zusammenhang gibt es ausreichend wissenschaftliche Erkenntnisse über die Zusammenhänge von Müdigkeit und Fehlerhäufigkeit am Arbeitsplatz (Åkerstedt, 1995; Dinges, 1995). Insbesondere die flugdienstspezifischen Probleme des zeitzonenüberschreitenden Einsatzes (Jetlag) spielen dabei eine wichtige Rolle. Die bisherigen Regelungen in diesem Bereich stammen noch aus den Zeiten der Propeller-Luftfahrt, und auch die neuen Regeln berücksichtigen aus Sicht beteiligter Experten die neuesten Erkenntnisse der steigenden Fehleranfälligkeit der Arbeit im Cockpit durch Ermüdung nicht ausreichend. Als Kompromiss einigte man sich auf eine wissenschaftliche Überprüfung der neuen Richtlinie in Bezug auf die Ermüdungsproblematik. Diese Überprüfung erfolgte durch den sogenannten MOEBUS-Report, der im September 2008 fertiggestellt wurde. Inzwischen wird an einer neuen, europaweiten Vereinheitlichung der Flugdienst- und Ruhezeiten gearbeitet. Da der MOEBUS-Report eine weitere, teils drastische Einschränkung der Dienstzeiten empfiehlt, wird seitens der Airline-Industrie seine Aussagekraft bezweifelt und mit neuen Ideen eine Verlängerung der möglichen Arbeitszeit bzw. eine Verkürzung der Ruhezeiten gefordert. Erstaunlich ist eine Entwicklung im Bereich der sog. Billigfluglinien. Hier lief über zwei Jahre eine Studie in Zusammenarbeit mit der britischen Luftfahrtbehörde. Für das intensive, hochfrequente Einsatzspektrum im Kurzstreckenverkehr wurde dadurch eine Sondergenehmigung für Umlaufstrukturen der Cockpitbesatzungen erwirkt, die durch die bestehende Flugdienstzeitregelung in Großbritannien nicht abgedeckt ist. Die Studie wies
228
12
Kapitel 12 • Aktuelle Themen und zukünftige Entwicklungen in der Luftfahrt
nach, dass diese neue Einsatzstruktur (»roster«) nicht nur eine höhere Produktivität erzielen kann, sondern gleichzeitig die Fehler- und Ereignisrate durch z. B. vorzeitige Ermüdung der Besatzungen deutlich gesenkt wurde (http://www.flightglobal. com/articles/2006/06/06/207092/airlines-getsmart-over-pilot-rostering.html). Dies zeigt, dass ein allgemeines Regelwerk den Anforderungen des immer komplexer werdenden Einsatzspektrums in der Luftfahrt nicht immer angemessen sein kann, Abweichungen davon jedoch nur nach gründlicher, wissenschaftlicher Analyse möglich sein sollten. Ein Blick in die Unfalluntersuchungsberichte der letzten vier Jahre zeigt, dass immer häufiger Erschöpfung (»fatigue«) der Besatzung als beitragender Faktor genannt wird. Der Unfallbericht des Fallbeispiels erwähnt jedoch nur, dass die Flugdienstzeiten anhand der Unterlagen sehr schwer zu ermitteln gewesen wären, dann aber den gesetzlichen Vorschriften entsprachen. Der Bericht erwähnt aber auch Aussagen über die Praxis, Flüge mit unrealistisch kurzen Flugzeiten zu planen, um die gesetzlichen Grenzen einzuhalten. Diese Grenzen werden dann bei der aktuellen Flugdurchführung regelmäßig überschritten, ohne darüber Buch zu führen und zu berichten. Inwieweit sich die technische Weiterwicklung in der Luftfahrt auf die zukünftig notwendigen Regelungen auswirken könnten, wird in 7 Kap. 12.2.3 behandelt. z
Einheitliche Standards für die Bewertung der Sicherheit von Fluggesellschaften
Seit Dezember 2005 existiert eine europaweit gültige schwarze Liste von Fluggesellschaften, die aufgrund von Sicherheitsbedenken keine Flughäfen innerhalb der EU anfliegen dürfen. Diese Liste umfasst mit Stand September 2007 bereits 154 Fluggesellschaften. Die Diskussion um eine schwarze Liste begann im Januar 2004 nach dem Unfall einer ägyptischen B737 nach dem Start in Sharm el Sheik. Dabei starben 148 Menschen, überwiegend französische Urlauber. Weiteren Auftrieb erhielt diese Diskussion durch eine Häufung von Unfällen im August 2005 (Air France A340 in Toronto, Tuninter ATR72 vor Palermo, West Caribbean Airway MD-82
in Venezuela und Fallbeispiel dieses Kapitels). Die Sinnhaftigkeit einer solchen Liste mag bezweifelt werden, ebenso die hinterlegten Kriterien und deren EU-weit einheitliche Anwendung. Unbestreitbar handelt es sich dabei um eine öffentlichkeitswirksame Maßnahme. Die internationale Luftfahrtorganisation ICAO veröffentlicht mit ihren Standards genaue Richtlinien, wie eine nationale Luftfahrtbehörde organisiert sein sollte. Um die darin festgelegten Aufgaben zu erfüllen, ist auch eine entsprechende personelle Ausstattung notwendig. Bis zur vollständigen Übernahme durch die EASA sind es die nationalen Luftfahrtbehörden, die die Einhaltung der gesetzlichen Mindeststandards kontrollieren und dabei aufgrund ihrer personellen Ausstattung bereits seit Langem an ihren Kapazitätsgrenzen arbeiten. Wenn die Reise mit einem Verkehrsflugzeug von A nach B regelmäßig weniger kostet als die Fahrt mit dem Taxi zum Flughafen, dann sollte das zu denken geben. Anforderungen an Standardisierung im europäischen Luftraum 5 In einem einheitlichen europäischen Luftraum mit einheitlichen Vorschriften in Bezug auf Luftfahrtpersonal müssen eine – einheitliche Sprache und – einheitliche Ausbildungsvorschriften sowie – eine einheitliche Qualifikation gewährleistet sein. 5 Arbeitszeiten am Boden und im Cockpit sollten den wissenschaftlichen Erkenntnissen über den Zusammenhang von Ermüdung (»fatigue«) und Fehlerhäufigkeit Rechnung tragen. 5 Der Kostendruck in der internationalen Luftfahrt darf sich nicht auf die Sicherheit auswirken. Die Öffentlichkeit macht den Gesetzgeber für die Durchsetzung eines einheitlichen Sicherheitsniveaus verantwortlich.
229
12.2 • Anforderungen für die Zukunft
12.2.2
Flugzeugführer oder Panel-Operator? Anforderungen bei der Auswahl und Ausbildung zukünftiger Piloten
Allein für den US-amerikanischen Markt wird bis zum Jahr 2017 ein Bedarf von 120 000 Verkehrspiloten erwartet. Diese Zahl setzt sich zusammen aus dem zusätzlichen Bedarf durch ein geschätztes Wachstum im Bereich Luftfahrt und der Anzahl an nachzuschulenden Flugzeugführern für Altersabgänge. Der Nachwuchs an ehemaligen Militärpiloten, in den 1970er-Jahren mehr als 5 000 Piloten pro Jahr, wird bis zum Jahr 2017 auf insgesamt nur noch ca. 8 000 Piloten geschätzt. Ein entsprechend hoher Schulungsbedarf kommt auf die Industrie zu. Die europäische Luftfahrt sieht sich in einer ähnlichen Lage. Jedoch spielte der Karrierewechsel von Militär- in die Zivilluftfahrt in Europa schon immer nur eine untergeordnete Rolle. Ein hoher Anteil der europäischen Verkehrspiloten schult entweder auf eigene Kosten an privaten Flugschulen oder wird im Rahmen eines sog. Ab-initio-Trainingsprogramms von Fluggesellschaften ausgewählt und ausgebildet. Die Kapazität dieser Schulen ist begrenzt, und aus wirtschaftlichen Überlegungen heraus werden Verkehrspiloten nicht »auf Halde« produziert. Aus heutiger Planungssicht wird sich auch in Europa in den nächsten fünf Jahren ein Mangel an qualifizierten Verkehrsflugzeugführern einstellen. Noch viel dramatischer stellt sich die Lage im gesamten arabischen und asiatischen Raum dar. Insbesondere in den Schwellenländern China und Indien unterliegt die Luftfahrt einem ungebremsten Wachstum. Schon heute decken diese Länder einen Teil ihres Bedarfs an Flugzeugführern auf dem internationalen Markt. Der Bedarf übersteigt in beiden Ländern das Angebot an qualifizierten Bewerbern und die Kapazität der vorhandenen Flugschulen. Vor diesem Hintergrund wird in den Gremien der ICAO (International Civil Aviation Organisation) seit Längerem an einem neuen Modell der Ausbildung von Verkehrspiloten gearbeitet. Die ICAO erarbeitet als internationale Organisation Standards und Richtlinien für fast alle Bereiche der internationalen Luftfahrt. Diese Richtlinien sind in
12
sog. Anhänge (Annex) gegliedert. Annex 1 befasst sich mit der Ausbildung von Verkehrsflugzeugführern und wird zurzeit überarbeitet. Die erarbeiteten Vorschläge werden den Mitgliedsstaaten zur Konsultation und Kommentierung übergeben, erneut beraten und müssen dann durch die Mitgliederversammlung beschlossen werden, um in Kraft zu treten. Wo aber zeichnen sich Veränderungen ab? z
Ausbildung von Flugzeugführern
Die heutige Ausbildung ist v. a. ausgerichtet an den Anforderungen zum Erwerb einer Lizenz, die zum gewerblichen Führen eines Flugzeuges berechtigt. Die Prüfung zur Erlangung dieser Lizenz umfasst theoretische und praktische Fähigkeiten. Die gesamte Ausbildung dauert etwa zwei Jahre. Die praktische Ausbildung erfolgt meist auf kleinen, einmotorigen Flugzeugen, der Übergang auf die gängigen Verkehrsflugzeuge findet erst nach Erlangung der Lizenz im Rahmen einer Musterberechtigung statt. Die eigentliche Aufgabe des jungen Flugzeugführers, nämlich die effektive Zusammenarbeit im Cockpit eines großen Verkehrsflugzeugs, ist zwar bereits Bestandteil der Ausbildung, die Inhalte werden aber vorwiegend theoretisch vermittelt. In einem schrittweisen Prozess soll diese Ausbildung jetzt mehr an der Praxis ausgerichtet werden. Dazu erhalten entsprechend qualifizierte Flugschulen die Möglichkeit, neue Ausbildungskonzepte vorzustellen und, nach Zustimmung durch die Behörden, ihr Konzept zu evaluieren. Nach einer positiven Evaluation können unter Aufsicht der Behörde weitere Anpassungen vorgenommen werden. Das Ergebnis ist die Multi-Crew-Pilot-Lizenz (MPL), der Inhaber ist somit ein speziell für die kommerzielle Luftfahrt ausgebildeter Flugzeugführer. Die Flugschule der Deutschen Lufthansa hat ihre Ausbildung inzwischen gemäß den ICAORichtlinien auf die Multi-Crew-Pilot-Lizenz (MPL) umgestellt. Die Industrie verspricht sich davon kürzere Ausbildungszeiten, geringere Kosten und eine stärkere Airline-Orientierung der Ausbildung durch die Möglichkeit, die praktische Ausbildung zu einem großen Teil in Simulatoren durchzuführen und theoretische Inhalte zu optimieren. Inwieweit
230
12
Kapitel 12 • Aktuelle Themen und zukünftige Entwicklungen in der Luftfahrt
dies möglich ist, welche Simulatoren dazu geeignet sind und welche Inhalte minimal vermittelt werden sollen, wird immer noch kontrovers diskutiert. Bewährte Ausbildungskonzepte einfach über Bord zu werfen, ohne ein ausreichend untersuchtes Anforderungsprofil erstellt zu haben, stößt hauptsächlich bei den Interessenvertretungen der Flugzeugführer auf Unverständnis. Hier wird der Schritt von der 2-Personen-Cockpitbesatzung hin zur 1,5-Personenbesatzung unterstellt. Während das manuelle Fliegen im Normalfall gegenüber den Team- und Flugmanagementfähigkeiten der Besatzung zurücktritt, darf die Fähigkeit, das Flugzeug im Notfall unter dann erschwerten Bedingungen sicher von Hand zu landen, so lange nicht vernachlässigt werden, wie der Flugzeughersteller sich bei der Entwicklung seines Flugzeugs darauf verlässt (s. hierzu auch die Diskussion zu Automatisierungskonzepten 7 Kap. 19). Aufwändigere Ausbildungskonzepte, die z. B. in Deutschland seit einiger Zeit existieren und die reine Lizenzerlangung mit einem Studium an den technischen Universitäten Darmstadt und Bremen verbinden, werden nicht berücksichtigt. In einem Leitartikel des Magazins Flight International vom 15.02.2011 wird eine Entwicklung angesprochen, die sich zwangsläufig daraus ergibt:
»
Flugzeuge sind heute sehr zuverlässig, aber Piloten nicht mehr, weil ihre Ausbildung die Risiken der modernen Luftfahrt nicht mehr ausreichend berücksichtigt.
«
z
Anforderungen an Flugzeugführer und Auswahl geeigneter Bewerber
In den Ausbildungsrichtlinien wird die Frage der Auswahl geeigneter Bewerber völlig außer Acht gelassen. Aufgrund der im Allgemeinen sehr hohen Ausbildungskosten führen die meisten von Fluggesellschaften betriebenen Flugschulen bereits heute Eignungsuntersuchungen durch. Nach welchen Kriterien die Eignung festgestellt wird, ist dabei durchaus unterschiedlich. Bis heute existiert kein Anforderungsprofil für den Beruf des Verkehrsflugzeugführers. Nur anhand eines solchen Anforderungsprofils wäre eine angemessene Auswahl möglich. Was bleibt, ist die Bestenauslese nach
den sog. »basic cognitive abilities« (grundlegende geistige Fähigkeiten) und einer gewissen motorischen Begabung.
Unterdessen haben sich die Anforderungen in diesem Beruf in den letzten Jahrzehnten mit jeder neuen Flugzeuggeneration wie in kaum einem anderen Arbeitsbereich geändert. Vom 5-PersonenCockpit (Kapitän, Erster Offizier, Funker, Navigator, Bordingenieur) gab es aufgrund der Fortschritte im Bereich der Automatisierung eine kontinuierliche Entwicklung hin zum heutigen 2-Personen-Cockpit (Kapitän, Erster Offizier). Dabei ist das gesamte Umfeld durch das ungeheure Wachstum der Verkehrsströme schwieriger und komplexer geworden. Der Untersuchungsbericht des beschriebenen Fallbeispiels stellt diesbezüglich u. a. fest:
» Die Anmerkungen und Beobachtungen der Ausbildungskapitäne in Bezug auf die Leistung des Ersten Offiziers erklären [teilweise, d. V.] die Versäumnisse der Besatzung während der Flugvorbereitung und dem Lesen der Checklisten sowie die Missinterpretation der Warnungen im Steig- und Reiseflug.
«
Fruchtbarer ist hier jedoch eine andere Fragestellung: Was hätte diesen Unfall u. U. verhindert? Grundvoraussetzungen für die adäquate Ausübung der Funktion eines 2-Mann-Cockpits aus HumanFactors-Sicht sind drei wesentliche Aspekte: 5 etwa gleichgroße technische und soziale Kompetenz der beiden Piloten, 5 ein zwar vorhandenes, aber nicht zu steiles Autoritätsgefälle zwischen Kapitän und Erstem Offizier sowie 5 Qualifikation beider Besatzungsmitglieder in Bezug auf Human-Factors-Themen, z. B. Kommunikation, Stress und Steuerung der Arbeitsbelastung (hierzu s. auch 7 Kap. 7 und 8). Die Ausbildung in diesen Themenbereichen ist nach den Vorschriften der Europäischen Union Bestandteil der Grundausbildung und jeder wiederkehrenden Schulung. Da es sich dabei aber in weiten Teilen um eine Verhaltensschulung handelt, muss bei entsprechenden Defiziten eine Verhaltensänderung bewirkt werden. Dies setzt zumindest den Willen und die Einsicht desjenigen voraus,
231
12.2 • Anforderungen für die Zukunft
dessen Verhalten sich ändern soll. Deshalb sollte bereits bei der Auswahl auf entsprechende Verhaltensmuster geachtet werden. Eine wiederkehrende Schulung im Bereich der Entscheidungsfindung, ggf. mittels modellhafter Entscheidungsstrategien, hilft subjektiven Zeitdruck und die damit verbundene erhöhte Fehleranfälligkeit der Arbeit frühzeitig wahrzunehmen und diesen Zeitdruck nicht die Entscheidungsfindung dominieren zu lassen. Das Erkennen von Stresssymptomen und ihre Bekämpfung durch aktives Workload-Management sind weitere Themen dieser Schulung. Nicht zuletzt spielt auch die technische Kompetenz der Flugbesatzung eine wichtige Rolle. Der Betrieb moderner technischer Systeme setzt bereits im Stadium des Designs eine sorgfältige Analyse aller denkbaren Umstände beim Betrieb voraus. Diese Analyse ist die Grundlage für die Betriebsvorschriften und Betriebsverfahren. Neue Erkenntnisse aus dem Betrieb des Systems (z. B. aufgrund von Unfalluntersuchungen) führen selten zu einem komplett neuen Design, sondern werden meist über eine Änderung der Betriebsverfahren aufgefangen (sog. Procedure-Fix). Kehren wir noch einmal zurück zum Fallbeispiel: Die Firma Boeing ging beim Design des Flugzeugs davon aus, dass der gleiche Warnton, einmal nur am Boden, einmal nur in der Luft auftretend, mit unterschiedlichem Inhalt versehen werden könne. Jedem frisch aus der Umschulung kommenden Piloten ist dieser Unterschied klar. In der Konstruktion wurde jedoch nicht berücksichtigt, dass Piloten diesen beiden Warnungen extrem selten ausgesetzt sind. Dabei ist die Wahrscheinlichkeit für die Konfigurationswarnung am Boden deutlich höher. Die dominante Regel des »frequency gambling« bei der menschlichen Informationsaufnahme (Reason, 1990; 7 Kap. 3.5.1), dass nämlich Informationen in ihrer Bedeutsamkeit nach ihrer Auftretenshäufigkeit wahrgenommen werden, und die daraus resultierende Fehlinterpretation wurden nicht bedacht. Dass die folgende Überhitzungswarnung u. U. einen Folgefehler darstellt, wurde aufgrund der falschen Interpretation der ersten Warnung nicht in Erwägung gezogen. Diese Art der nicht offensichtlichen Verknüpfung von anscheinend unab-
12
hängigen Systemfehlern wird auch »ramification« genannt und steigt mit der Komplexität moderner technischer Systeme. Sie fordert die grundlegende Bereitschaft, einmal getroffene Entscheidungen beim Auftauchen neuer Fakten immer wieder infrage zu stellen und das jeweilige System quasi aus der Metaebene heraus neu zu betrachten und zu analysieren. Dieser Prozess wurde im Fallbeispiel durch den zunehmenden Sauerstoffmangel unterbrochen. Schleichender Sauerstoffmangel beeinträchtigt genau diese Fähigkeit zur strukturierten Analyse. Dies führt uns zur nächsten Frage: Welche Anforderungen lassen sich aus den bisherigen Erkenntnissen für die zukünftige Entwicklung und das Design von technischen Systemen und deren Betrieb, insbesondere in der Luftfahrt, ableiten? Anforderungen an Auswahl von Bewerbern und Ausbildung 5 Mit zunehmender Automatisierung stellt sich für den Flugzeugführer das Problem, in kritischen Situationen über Fähigkeiten (»skills«) zu verfügen, zu deren Erlangung und Erhalt immer weniger Zeit und Geld zur Verfügung stehen. 5 Stressmanagement und Entscheidungsfindung in zeitkritischen Situationen stellen zentrale Anforderungen an den Flugzeugführer. Diese Aspekte müssen bei zukünftigen Ausbildungskonzepten berücksichtigt werden. 5 Für eine effektive Auswahl und Ausbildung muss ein Anforderungsprofil für den Beruf der heutigen und zukünftigen Verkehrsflugzeugführer erstellt werden.
12.2.3
Zum Wachstum verdammt? Anforderungen durch neue Entwicklungen in der Luftfahrttechnik
Ist der Airbus A380 eine neue Titanic der Luftfahrt? Diese zugegebenermaßen übertriebene Frage darf nicht darüber hinwegtäuschen, dass die technische
232
Kapitel 12 • Aktuelle Themen und zukünftige Entwicklungen in der Luftfahrt
Entwicklung in der Luftfahrt immer noch von einer hohen Dynamik geprägt ist. Neue Erkenntnisse im Bereich der Materialforschung sowie leistungsfähigere Computer zur Berechnung aerodynamischer Grenzbereiche erlauben dabei immer komplexere Konstruktionen. Unterschiedliche Einschätzungen der zukünftigen Verkehrsanforderungen führen bei den beiden großen Flugzeugherstellern Airbus und Boeing zu unterschiedlichen Zielrichtungen: Auf der einen Seite wird die Passagierkapazität erhöht, sodass immer größere Flugzeuge bei gleichem Verkehrsaufkommen immer mehr Passagiere zwischen den etablierten Verkehrsknotenpunkten transportieren können, auf der anderen Seite wird angestrebt, mit kleinerem Fluggerät den Punkt-zuPunkt-Verkehr außerhalb der großen, überlasteten Verkehrsknotenpunkte anzukurbeln. Die Luftfahrt ist, der Wirtschaft folgend, zum Wachstum verdammt. z
12
Neue Technologien erhöhen die Anfälligkeit für menschliche Fehler
Das Vertrauen der Öffentlichkeit in neue Technologien ist ungebrochen. Der Gesetzgeber regelt die Zulassung neuer Flugzeuge, damit ist die Sicherheit der Flugzeuge garantiert. Davon unbenommen bleibt die grundlegende Erkenntnis aus der Einleitung, dass mit dem Verkehrsaufkommen auch die Sicherheit steigen muss, um dieses Vertrauen zu erhalten. Jedoch wird die Erhaltung dieses Grundsatzes mit steigendem Verkehrsaufkommen und immer dichter gefülltem Luftraum immer aufwendiger. Auch hier werden u. a. neue technologische Lösungen entwickelt und umgesetzt. Diese reichen von einer reduzierten vertikalen und horizontalen Staffelung bis hin zu einem Ersatz der Radarerfassung von Flugzeugen durch die automatische, dreidimensionale Positionsmeldung des Flugzeugs über Satellitennavigation (GPS) und Datenfunk. In diesem System nimmt der Grad an Automatisierung ständig zu, der Mensch rückt immer mehr in den Hintergrund. Gleichzeitig steigt mit der Komplexität eines Systems seine Anfälligkeit für menschliche Fehler. Prinzipien menschlicher Informationsverarbeitung bereits bei der Entwicklung von Flugzeugen zu berücksichtigen, gehört ins Aufgabenrepertoire der Designingenieure. Im Fallbeispiel spielte diese
Nichtberücksichtigung von Prinzipien menschlicher Informationsverarbeitung zumindest als ein Einflussfaktor eine wichtige Rolle: Die Verwendung des gleichen akustischen Signals für zwei unterschiedliche Störungen ist schlicht ein Designmangel. z
Neue Technologien erhöhen die Beanspruchung der Besatzung
Die Einigung auf einheitliche europäische Flugdienst- und Ruhezeiten hat so lange Zeit in Anspruch genommen, dass der mühsam gefundene Kompromiss bei seiner Einführung 2006 von der technischen Entwicklung schon fast überholt wurde. Die neue Generation der Verkehrsflugzeuge ist in der Lage, 20 und mehr Stunden in der Luft zu bleiben und damit Strecken wie London–Sydney ohne Zwischenlandung zurückzulegen. Die dazu notwendige Besatzungsverstärkung im Cockpit und in der Kabine ist eine neue Herausforderung, die von den Fluggesellschaften natürlich auch unter Kostengesichtspunkten betrachtet wird. Arbeitszeitmodelle mit Schichtdiensten wie in der Seefahrt wurden dabei von einem Vertreter des Herstellers Airbus angedacht (»shiplike rosters«). Bei diesem Modell wird die Flugdienstzeit unter mehreren Besatzungen in Schichten von z. B. 4 h abgeleistet. Dabei werden allerdings die Auswirkungen von räumlicher Enge, geringer Luftfeuchtigkeit, Luftdruck, Lärm und Vibrationen auf eine wirksame Erholung in den Freischichten nicht thematisiert. z
Neue Technologien ersetzen den Flugzeugführer
Eine weitere technologische Herausforderung stellen die aus überwiegend militärischen Anwendungen heraus entwickelten unbemannten Flugkörper (UAV = »unmanned aerial vehicle«) dar. Was als meist kleines, ferngesteuertes Fluggerät begann, entwickelte sich in kurzer Zeit zu immer autonomeren und größeren Fluggeräten. Dabei ist schon heute die Grenze zwischen Flugmodell und UAV oder Kleinflugzeug verschwommen. So gibt es in den USA ein strahlgetriebenes A380-Modellflugzeug mit den Abmessungen eines Kleinflugzeugs. Allerdings sind auch bei den sog. unbemannten Flugkörpern menschliche Operateure aktiv (für
233
Literatur
eine ausführliche Diskussion s. Cooke, Pringle, Pedersen & Connor, 2006). Regelungsbedarf ergibt sich insbesondere dort, wo bemannte und unbemannte Luftfahrzeuge den gleichen Luftraum benutzen wollen. An den Regelungen für einen solchen Mischverkehr wird bereits auf beiden Seiten des Atlantiks intensiv gearbeitet. Es drängt sich die berechtigte Frage auf, inwieweit der Mensch in der Luftfahrt überhaupt ersetzbar ist. Welche Zuverlässigkeit muss ein autonomes, vom direkten menschlichen Zugriff unabhängiges Fluggerät besitzen, um von der Öffentlichkeit als Transportmittel akzeptiert zu werden? Der zunehmende Einsatz unbemannter Schienenfahrzeuge im Kurzstreckenverkehr ist ein erster Hinweis auf mögliche Entwicklungen in der Zukunft. Die Luftfahrt macht diesbezüglich mit der Weiterentwicklung der UAVs ihre ersten Schritte. Die neueste Generation von Verkehrsflugzeugen wird allerdings immer noch von mindestens zwei Piloten überwacht. Anforderungen durch technische Entwicklungen 5 Die Frage der Entwicklung des Luftverkehrs in Richtung Großflugzeuge mit wenigen zentralen Flughäfen oder in Richtung kleinerer Flugzeuge im Punkt-zu-PunktVerkehr ist noch nicht entschieden. 5 Die gerade erst europäisierten Flugdienstund Ruhezeitregelungen berücksichtigen noch nicht die absehbare Entwicklung von Super-Langstreckenflügen und die daraus resultierenden Anforderungen. 5 Das Miteinander von bemannten und unbemannten Flugzeugen (UAV) in demselben Luftraum muss im Hinblick auf die Flugsicherheit zufriedenstellend gelöst werden. 5 Die Entwicklung neuer Flugzeuge muss Erkenntnisse aus dem Bereich der HumanFactors-Forschung noch bewusster berücksichtigen.
12.3
12
Zusammenfassung
Die Luftfahrt als krisenanfälliger Industriezweig unterliegt einem immer stärker werdenden Kostendruck. Bei der Ausschöpfung von Einsparpotenzialen werden zunehmend Grenzbereiche erreicht, deren Überschreitung sorgfältig auf unerwünschte Neben- und Fernwirkungen analysiert werden sollte, um die notwendige Systemsicherheit nicht auszuhöhlen. Hier liegen die besonderen Herausforderungen der nahen Zukunft auch im Bereich des Faktors Mensch. Das Fallbeispiel zeigt die Notwendigkeit zur Vereinheitlichung und Steuerung der Rahmenbedingungen, denen sich ein freier und sicherer Wettbewerb unterwerfen muss. Für die Schaffung und Überwachung dieser Rahmenbedingungen wurde die neue europäische Behörde EASA geschaffen. Ohne die funktionierenden Werkzeuge im Human-Factors-Bereich wäre das heutige Sicherheitsniveau in der Luftfahrt weder zu erreichen noch zu halten. Die größte Herausforderung liegt darin, das Sicherheitsniveau kontinuierlich weiter zu steigern, ohne sich den politischen und technischen Entwicklungen zu verschließen.
Literatur Helenic Republic, Ministry of Transport & Communications (11/2006), Aircraft Accident Report, Helios Airways Flight HCY522. Philipp Moebus (2008). Scientitfic and medical evaluation of flight time limitations. Final report 1.0 no. TS.EASA.2007. OP.08 for EASA by Moebus Aviation. EASA NPA 2010-14, Implementing rules on flight and duty time limitations and rest requirements for commercial air transport with airplanes. http://www.easa.europa. eu/rulemaking/docs/npa/NPA%202010-14.pdf [Zugriff am 14.06.2011]. Flight International Volume 179 Number 5278, Comment, Time to heed the warnings on pilot skills. Onlinemagazin: http://www.emagazine.flightinternational.com. Åkerstedt, T. (1995). Work hours, sleepiness and accidents. Introduction and summary. Journal of Sleep Research, 4, 1–3. Cooke, N. J., Pringle, M. H., Pedersen, H. & Connor, O. (Eds.) (2006). Human factors of remotely operated vehicles. Oxford: JAI Press.
234
Kapitel 12 • Aktuelle Themen und zukünftige Entwicklungen in der Luftfahrt
Dinges, D. (1995). An overview of sleepiness and accidents. Journal of Sleep Research, 4, 4–14. Faber, G. (1977). Untersuchungen zur didaktisch-methodischen Struktur von Pilotenausbildungs-Systemen. Stuttgart: Holland & Josenhans. Flin, R., O’Connor, P. & Crichton, M. (2007). Safety at the sharp end. Training non-technical skills. Aldershot: Ashgate. Hawkins, F. H. & Orlady, H. W. (Eds.) (1987). Human factors in flight. Aldershot: Ashgate. Helmreich, R. L. & Foushee, H. C. (1993). Why Crew Resource Management? Empirical and theoretical bases of human factors training in aviation. In E. Wiener, B. Kanki & R. Helmreich (Eds.), Cockpit Resource Management (pp. 3–45). San Diego, CA: Academic Press. Helmreich, R. L., Merritt, A. C. & Wilhelm, J. A. (1999). The evolution of Crew Resource Management training in commercial aviation. International Journal of Aviation Psychology, 9 (1), 19–32. National Transportation Safety Board (2007). We are all safer: Lessons learned and lives saved, 5th Edn. Safety Report/ SR-07/01. Washington D. C. Reason, J. (1990). Human error. Cambridge: Cambridge University Press. SR 0.748.0 (2006). Übereinkommen über die internationale Zivilluftfahrt. Stand 14.03.2008. http://www.admin.ch/ ch/d/sr/i7/0.748.0.de.pdf [Zugriff am 26.05.2011]. Wiener E. L., Nagel, D. C., Carterette, E. C. & Friedman, M. P. (1988). Human factors in aviation. Cognition and perception. San Diego, CA: Academic Press.
12
235
Patientensicherheit und Human Factors – Vom Heute in die Zukunft gesehen Peter Dieckmann und Marcus Rall
13.1
Einführung – 236
13.2
Analytische Betrachtung des Fallbeispiels – 237
13.3
Patientensicherheit in Deutschland – 238
13.4
Entwicklungslinien – 239
13.5
Diagnostische Ansätze zur Erfassung der Lage der Patientensicherheit – 240
13.6
Ansatzpunkte zur Erhöhung der Patientensicherheit – 241
13.6.1 13.6.2 13.6.3
Simulation – 241 »Incident Reporting« und Analyse – 243 Human-Factors-orientierte Forschung – 243
13.7
Zusammenfassung und Schlussbetrachtung – 244 Literatur – 245
P. Badke-Schaub et al., Human Factors, DOI 10.1007/978-3-642-19886-1_13, © Springer-Verlag Berlin Heidelberg 2012
13
236
Kapitel 13 • Patientensicherheit und Human Factors – Vom Heute in die Zukunft gesehen
Beispiel
13
[Der Text des folgenden Fallbeispiels (hier orthografisch verbessert) stammt aus dem Patienten-Sicherheits-Optimierungs-System (PaSOS), im Internet zu finden unter http:/www.pasos-ains.de.] Erläuterung: Mit Patientengesteuerten Schmerzpumpen (sog PCA-Pumpen, Patient Controled Analgesia) können Patienten sich selbst Schmerzmedikamente nach ihrem Bedarf verabreichen. Wird zu viel von den jeweiligen Medikamenten verabreicht, kann es zu einem ungewollten Atemstillstand bei den Patienten kommen. Dies kann z. B. dann geschehen, wenn ein sog. Bolus, also eine größere Menge eines Medikaments, auf einmal verabreicht wird. Die Pumpen werden für die jeweilige Anwendung mit Höchstdosen und Bolusbegrenzungen programmiert. Fallbericht: »Nach meiner Erinnerung berichtete vor Monaten ein Kollege in der Morgenbesprechung, dass eine PCA-Pumpe die halbe Spritze in den Patienten eingespritzt hätte, man habe die Pumpe zur Kontrolle gegeben. Vor wenigen Tagen berichtete ein Kollege, ein Patient hätte am Vortag durch eine PCA-Pumpe einen Initialbolus erhalten, weswegen er atemdepressiv und verlegt wurde. Ein weiterer Kollege habe den Initialbolus aber aus dem Programm entfernt! Ich wurde im Dienst angerufen, eine PCA-Pumpe sei leer. Da alle Diensthabenden gebunden waren, gab ich direkt am Telefon Anweisungen zum Wiedereinschalten – die Pflegekraft sagte mir: Jetzt sind 4 ml, 5 ml, 6 ml [eine zu hohe Dosis, d. V.]. Ich veranlasste ihn [den Pfleger] sofort, die Pumpe vom Patienten mechanisch zu trennen und ‚DEFEKT’ mit großem Aufkleber zu vermerken, erinnerte mich an den Initialbolus-Bericht der vergangenen Tage, kam aber nicht dazu, die Pumpe zu überprüfen (nachts im OP). Zwei Tage später bekomme ich eben jene ‚Defekt’-Pumpe fertig zum Anschluss an den nächsten Patienten – ohne dass irgendwer vom Aufkleber Notiz genommen hätte. Zum dauerhaften Entfernen des Initialbolus wird der Elektronikschlüssel benötigt. Das mehrfache Entfernen des Bolus durch Kollegen war lediglich temporär, beim nächsten Einschaltvorgang war er wieder da. Keiner der beteiligten Kollegen hatte wohl davon gewusst, keiner hat die Umstellung dauerhaft eingerichtet. Die Höhe des Initialbolus
betrug 7,5 mg Dipi [ein Schmerzmedikament, das in zu hoher Dosierung auch zur Atemdepression führt, d. V.], deshalb fiel es vielfach nicht auf (adäquate Dosis für viele Patienten), aber bei zweimaligem Einschalten der Pumpe [zu viel Medikament würde verabreicht, da zweimal der Initialbolus gegeben würde, d. V.] oder alten Menschen [die weniger von diesem Medikament brauchen und somit schneller atemdepressiv würden, d. V.] ...«
13.1
Einführung
Bei der Betrachtung der Human Factors ist es notwendig, deutlich zu machen, was unter diesem schillernden Begriff verstanden wird. Es gibt eine Vielzahl formaler Definitionen, die unterschiedliche Aspekte in den Vordergrund stellen: Beschreibung des Allzumenschlichen, Benennung einer wissenschaftlichen Disziplin und Sammelbegriff für Forschungsgegenstände und -methoden. Wir verzichten hier auf eine formale Definition und schließen uns dem in diesem Buch gebrauchten Sinne an. Danach werden mit dem bewusst im Plural gebrauchten Begriff »Human Factors« psychologisch beschriebene Aspekte des Handelns von Menschen in soziotechnischen Systemen bezeichnet (7 Kap. 1). Wir konzentrieren uns auf die Patientensicherheit, die unsere Arbeitsgruppe seit über 10 Jahren beschäftigt (Rall, Gaba, Howard & Dieckmann, 2010). Zunächst wird das einführende Beispiel auf einer abstrakten Ebene betrachtet und dann der Hintergrund skizziert, vor dem sich das darin dargestellte Zusammenspiel von Mensch, Technik und Organisation abspielt. Im Dreieck Mensch–Technik–Organisation steht »Mensch« dabei immer auch für die Interaktionen zwischen mehreren beteiligten Personen. Danach werden der Stand der Patientensicherheit skizziert, mögliche Entwicklungslinien in der Medizin aufgezeigt und abschließend benannt, wie die multiprofessionelle Zusammenarbeit zwischen Medizin und Psychologie (und anderen Disziplinen wie beispielweise Pädagogik) in Zukunft dazu beitragen kann (und soll), diese zu erhöhen.
237
13.2 • Analytische Betrachtung des Fallbeispiels
13
Quick Fix Prospektives Gedächtnis Vertrauen in Wahrnehmung von Warnungen (Kleber) Mensch
. Abb. 13.1
13.2
Technik
Organisation
Prinzipien der Gebrauchstauglichkeit Systemstatus Sprache des Nutzers
Verfahren zum Umgang mit Geräteproblemen Kommunikation mit Werkstatt?
Mensch–Technik–Organisation als Einflussfaktoren für Patientensicherheit
Analytische Betrachtung des Fallbeispiels
Das Beispiel verdeutlicht, dass Patientensicherheit mit dem funktionierenden Zusammenspiel von Mensch, Technik und Organisation steht und fällt (. Abb. 13.1). Auf der menschlichen Seite greifen die Beteiligten zu schnellen Lösungen, die keine systematische Beseitigung von Problemursachen darstellen. Eine als defekt angesehene Pumpe wird zwar zur Überprüfung gegeben, es wird aber nicht deutlich, ob sich jemand nach dem Ergebnis der Prüfung erkundigt hat. In Kooperation mit der medizintechnischen Abteilung hätte auffallen können, dass die Pumpe einwandfrei funktioniert, aber das ihr eigene konzeptionelle Modell den Nutzern nicht klar war (ein Einfluss der Organisation in Bezug auf die Geräteeinweisung des Personals). Auf der technischen Seite verstärken Schwächen in der Gebrauchstauglichkeit (»usability«) die auftretenden Probleme: Es bleibt unklar, ob die Option »Initialbolus« ein- oder ausgeschaltet ist. Damit verstößt die Pumpe gegen eine Usability-Heuristik: »Sichtbarkeit des Systemstatus« (vgl. Nielsen, 1993). Als Problemlösung wird die Pumpe mit einem Aufkleber versehen, der in der Folge aller-
dings übersehen wird. Solche »quick fixes« (Tucker, Edmondson & Spear, 2002) funktionieren oftmals nicht nur nicht wie geplant, sondern verhindern teilweise sogar eine grundsätzlichere, systematische Lösung, weil sie Schwachstellen überdecken, indem sie das Problem fälschlicherweise als gelöst erscheinen lassen. Weiter lässt sich fragen, wie angemessen die unterschiedlichen Optionen überhaupt für eine solche Pumpe sind und wie deutlich Nutzer erkennen können (müssen), in welchem Modus sie mit der Pumpe arbeiten. Möglicherweise ließen sich auch zwei unterschiedliche Pumpen anschaffen, die verschieden aussehen – eine mit, die andere ohne die Bolusfunktion. Auf der organisationalen Seite wäre näher zu untersuchen, welche Prozesse es in der Organisation gibt, um defekte Geräte zu reparieren, und wie Ärzte und Pflegekräfte dabei mit Medizintechnikern zusammenarbeiten. Auch die 24-stündige Bereithaltung von Ersatzgeräten ist eine Voraussetzung, um partiell defekte oder verdächtige Geräte aus dem Verkehr ziehen zu können. Ein Merkmal der organisationalen Sicherheitskultur (Rall, Gaba, Howard & Dieckmann, 2010) wäre die Akzeptanz oder gar Honorierung betrieblicher Verzögerungen aufgrund des systematischen Umgangs mit defekten Geräten im Gegensatz zu schnellen, aber
238
Kapitel 13 • Patientensicherheit und Human Factors – Vom Heute in die Zukunft gesehen
unvollständigen Problemlösungen. Weiter wird an diesem Beispiel auch deutlich, dass es sich bei Problemen der Patientensicherheit meist nicht darum handelt, dass einzelne Elemente oder Subsysteme gravierend versagen. Ansätze, die unter dem Stichwort »resilience« (Widerstandskraft) diskutiert werden, betonen, dass Fehler und Zwischenfälle auch aus der ungünstigen Kombination von an sich nicht gravierend fehlerhaften oder gar einwandfreien Elementen (Geräte, Handlungen etc.) entstehen können (Hollnagel, Woods & Leveson, 2006). Ganz im gestalttheoretischen Sinne kann die Konsequenz etwas anderes sein, als es die Summe der Teile hätte erwarten lassen. Nun könnte man vermuten oder auch hoffen, dass ein solches Beispiel einen Einzelfall darstellt. Die Literatur deutet allerdings ein ganz anderes Bild an.
13.3
13
Patientensicherheit in Deutschland
In Deutschland setzt sich die Erkenntnis durch, dass die Patientensicherheit zwar hoch, aber nicht hoch genug und das Potential für Verbesserungen groß ist. Bisher gibt es keine verlässlichen Zahlen, sondern nur Hochrechnungen und Schätzungen, die an sich wieder zu hinterfragen wären, im Moment aber die einzige Datenquelle darstellen. 1999 wurde für die USA geschätzt, dass zwischen 44 000 und 98 000 Personen im Jahr an medizinischen Behandlungsfehlern im Krankenhaus versterben (Kohn, Corrigan & Donaldson, 2000). Diese Zahlen gelten bis heute als internationale und grundsätzlich regelmäßig bestätigte Referenz. Im Jahr 2003 wurden diese Schätzungen auf Deutschland übertragen. Demnach sterben in Deutschland 15 000–50 000 Personen an medizinischen Behandlungsfehlern in Krankenhäusern (Sachverständigenrat für die Konzertierte Aktion im Gesundheitswesen, 2003; vgl. auch http://www.aktionsbuendnis-patientensicherheit.de). Damit findet sich die Diagnose »Behandlungsfehler« unter den häufigsten Todesursachen in Deutschland. Es lässt sich argumentieren, dass diese groben Angaben das Ausmaß des Problems evtl. überschätzen (oder auch unterschätzen). Solange allerdings nicht geklärt ist, ob diese Zahlen tatsächlich zu hoch ge-
griffen sind, sind wir der Meinung, dass sie ernst genommen werden sollten. In jedem Fall weisen die Zahlen auf ein Problem im Gesundheitswesen hin, zumal die Mehrzahl der Patientenschäden vermeidbar ist (s. u.). Leider hat auch in den USA die Rate an Fehlern und Patientenschäden in den letzten Jahren trotz großer Anstrengungen nicht abgenommen (»harm to patients resulting from medical care was common in North Carolina, and the rate of harm did not appear to decrease significantly during a 6-year period«; Landrigan 2010). Die Zahlen zu Todesfällen gelten als »Spitze eines Eisbergs«. Den Todesfällen steht eine vielfach höhere Zahl schwerer, mittlerer oder leichter Patientenschäden gegenüber. Zudem entdecken Menschen viele der Fehler, die ihnen selbst oder anderen unterlaufen, und korrigieren diese, bevor irgendwelcher Schaden entsteht. Demnach führt nicht jeder Fehler zu einem Behandlungsschaden (Zwischenfall), aber auch nicht jeder Zwischenfall ist durch Fehler bedingt (7 Kap. 3). Grob zwei Drittel der Zwischenfälle in der Medizin werden auf menschliche Fehlleistungen (oft unglücklich als »menschliches Versagen« bezeichnet) zurückgeführt und galten schon früh als vermeidbar (Cooper, Newborner, Long & Philip, 1978). Die übliche Trennung in »menschliches« und »technisches« Versagen ist jedoch angesichts der prominenten Rolle von Menschen bei Konstruktion, Bau, Wartung und Instandhaltung von (Medizin-)Geräten zu hinterfragen. Ursachenanalysen für Zwischenfälle in der Medizin bewegen sich oftmals auf einem zu allgemeinen Niveau, um tragfähig zu sein. Welche tiefer liegende Psycho-Logiken (Dörner, 1989; Wehner, Mehl & Dieckmann, 2010; 7 Kap. 3 und 6) haben menschliche Fehler? Was ließ beispielsweise eine Handlung, die sich im Nachhinein als falsch herausstellt, zum Handlungszeitpunkt als richtig erscheinen? Welche latenten Fehler (Reason, 1990) gibt es im System Patientensicherheit und wann und wie wirken sie sich aus (Rall, Gaba, Howard & Dieckmann, 2010)? All diese und weitere Aspekte sind bisher kaum beschrieben und werden, sofern bekannt, nicht ausreichend bei Arbeitsanalyse und -gestaltung berücksichtigt. Allerdings nimmt die arbeitswissenschaftliche Forschung auch innerhalb der Medizin zu (s. Manser, 2003).
239
13.4 • Entwicklungslinien
Ein erschwerender Faktor ist dabei eine traditionell verankerte »culture of blame« (Vorwurfskultur; Kohn, Corrigan & Donaldson, 2000). Die Suche nach Schuldigen und der Versuch, über Sanktionen das Wiederauftreten von Problemfällen zu vermeiden, sind weit verbreitet.
» Als Antwort auf das unerwünschte Ereignis folgen Training und Sanktionen, also Disziplinierung, Überwachung, Tadel, Ansehensverlust und/ oder Bestrafung der Person(en). Aber Fehler und das daraus folgende Patientenleid belasten auch ohnedies den unmittelbaren Verursacher zumeist erheblich. (Sachverständigenrat für die Konzertierte Aktion im Gesundheitswesen, 2003, S. 154)
«
Im Folgenden wird, ausgehend vom heutigen Stand, skizziert, welche Entwicklungslinien sich für eine Kooperation der Medizin mit Human-Factors-orientierter, multidisziplinärer Forschung in Zukunft ergeben könnten.
13.4
Entwicklungslinien
Die Entwicklungen in der Medizin werden weiterhin stark technologisch geprägt sein, sowohl in Diagnostik als auch Intervention. Grundsätzlich ist davon auszugehen, dass medizinische Verfahren potenter werden. Als zukünftige Anforderung für Human-Factors-orientierte Forschung und Medizin ergibt sich hieraus, mit der dabei abnehmenden Fehlerfreundlichkeit (Wehner, 1992) umzugehen. Potentere Behandlungen »enttrivialisieren« Fehler (vgl. Wehner, Nowack & Mehl, 1992; Perrow, 1984), die Behandelnden dürfen sich weniger Fehler »erlauben« und negative Konsequenzen von Fehlern lassen sich schwerer korrigieren. Bei der Behandlung setzen sich minimal-invasive Verfahren durch, beispielsweise in der Chirurgie und bei Medikamenten, die teilweise auf molekularer oder genetischer Ebene ansetzen. Insgesamt wird die Zahl der manuellen Eingriffe durch verbesserte Prävention und Früherkennung abnehmen und zusätzlich weniger invasiven Therapieverfahren (Biodrugs, Gendrugs, selbststeuernde Minisonden etc.) weichen. Damit entfernen sich die behandelnden Personen weiter vom Patienten
13
und dem eigentlichen Behandlungsprozess, die Anforderungen werden abstrakter. Die Orientierung erfolgt weniger direkt visuell, sondern mehr vermittelt über optische Systeme, oft unter Nutzung multifunktionaler Instrumente (Matern, Koneczny, Tedeus, Dietz & Buess, 2005). Diese Instrumente erfordern ganz neue sensomotorische Fertigkeiten, für deren Erwerb Studierende – und auch praktizierende Mediziner und Medizinerinnen, von denen u. U. ein Umlernen gefordert wird – lange üben müssen und die oftmals gleichsam widernatürliche Elemente enthalten (s. etwa Johnson, 2004). Reduzierte leibliche Erfahrung der Konsequenzen des eigenen Tuns am Patienten und der steigende Abstraktheitsgrad erschweren es u. U., Fertigkeiten zu erlernen und zu erhalten. > Die Aufgabe der multiprofessionellen Forschung wird es sein zu verstehen, welche Stärken und Schwächen diese Verfahren und Denkweisen für die Patientensicherheit haben. Wie können sich Menschen auf den Umgang mit der zunehmenden Komplexität vorbereiten und kontinuierlich kompetent halten? Wie wissen wir, wenn wir die Grenzen des »Denkbaren« und »Verstehbaren« erreicht haben?
Es zeichnen sich unterschiedliche Ansätze ab, mit der Komplexität umzugehen: Automatisierung bzw. Technisierung, Spezialisierung und ein Trend zu integrierten Displays (Sanderson, 2006). Grundsätzlich wäre auch eine Ausweitung bereits bestehender Arbeitsteilung denkbar, bei der Tätigkeiten von nichtärztlichen Spezialisten übernommen werden. Als Beispiel können hier sog. Kardiotechniker (meist Fachpflegekräfte mit einer Zusatzausbildung) benannt werden, die in Operationssälen die Arbeit an Herz-Lungen-Maschinen übernehmen. Automatisierung Bei der Automatisierung von Behandlungsschritten werden z. B. in der Chirurgie zunehmend Roboter eingesetzt. Diese übertragen die Bewegungen des Chirurgen auf die Instrumente oder führen auch vorprogrammierte Schritte selbstständig durch (Davies, 1996; Benmessaoud, Kharrazi, & MacDorman, 2011). In Anästhesie und Intensivmedizin werden mehr Medikamenten-
240
Kapitel 13 • Patientensicherheit und Human Factors – Vom Heute in die Zukunft gesehen
pumpen eingesetzt, die nach Eingabe deskriptiver Patientendaten automatisch die Dosierung des Medikamentes errechnen und dieses dann auch, pharmakologisch optimiert, automatisch rückgekoppelt mit Vitalparametern des Patienten, verabreichen. Es tauchen dabei erneut Fragen auf, die aus den Debatten um Automatisierung in anderen Bereichen bekannt sind (Bainbridge, 1983; 7 Kap. 19): 5 Welche Aufgaben sollen Menschen noch übernehmen, welche sollen von Maschinen durchgeführt werden? 5 Wann sollen Menschen Automatiken außer Kraft setzen und den Prozess wieder »in die Hand nehmen«? 5 Wie können Menschen sensomotorische und kognitive Fertigkeiten erwerben und erhalten, die spätestens dann in besonders großem Maße gefordert sind, wenn die Automatismen versagen oder die Situation so schwierig wird, dass sie nicht von Maschinen allein bewältigt werden kann oder soll?
13
Über die Kompetenzfrage hinaus geht es hierbei auch um das notwendige (Selbst-)Vertrauen, schwierige Prozeduren durchzuführen. Konkret: Wie gut können Beteiligte z. B. Dosierungen noch von Hand ausrechnen, wenn die automatisierte Medikamentenpumpe ausfällt oder erkennen, dass ein Eingabefehler zu einer unplausibel hohen oder niedrigen Dosierung führt?
Zusammenhang sei provokant gefragt, wie sich Passagierzahlen entwickeln würden, hätten Piloten auch in der Routine, nicht nur im Notfall, »Flugfreiheit«). Hier stellt sich insbesondere für die psychologische Forschung die Fragen, welche Faktoren dazu führen, dass Menschen in Gesundheitsberufen Standardisierungen folgen oder auch nicht und wo Standardisierung wiederum Menschen vom reflektierten Tun entfernt und damit selbst zu Fehlerquelle werden kann. Redundanzabbau Schließlich ergeben sich Ent-
wicklungen aus dem wachsenden Kostendruck innerhalb der Medizin. So werden möglichst viele Redundanzen aus dem System entfernt, die oftmals die Sicherheit erhöhen, aber auch Ressourcen erfordern. Eine solche Effizienzsteigerung bedingt, dass in manchen Fällen nicht genügend Ressourcen vorhanden sind. Der Kostendruck wirkt sich auch in der Aus- und Weiterbildung aus. Wo erfahrene Mediziner maximal effizient in der Patientenbehandlung eingesetzt werden (müssen), da bleibt weniger Zeit, Studierende und junge Kollegen einzuweisen, zu unterrichten und zu supervidieren. Auch externe Weiterbildungen lassen sich unter diesen Umständen schwieriger finanzieren, abgesehen von den Problemen, Teilnehmer für die Weiterbildung freizustellen. Mitarbeitende, die im Seminar sind, verdienen kein Geld.
Standardisierung Die Standardisierung (7 Kap. 17)
13.5
wird bei Prozeduren, Handlungen oder der Kommunikation diskutiert. Nachdem Patienten als biologische Systeme nicht auf Übereinstimmung mit einer technischen Spezifikation geprüft werden können und auch nicht standardisiert (oftmals kaum ähnlich) auf Behandlungen reagieren, ist die Frage nach der Anwendbarkeit und der Umsetzung von Standardisierung in der Medizin notwendig. Algorithmen müssten sehr verzweigt oder auf heuristischer Basis angelegt sein, um der Individualität von Menschen Rechnung zu tragen. Damit eng verknüpft ist auch die Frage nach der Akzeptanz von Checklisten (Haynes, Weiser, Berry, Lipsitz, Breizat, Dellinger et al., 2009) etc. in einem Umfeld, das weithin noch von »ärztlicher Kunst« und »ärztlicher Therapiefreiheit« geprägt ist (in diesem
Entsprechend des rudimentären Wissens über Ursachen von Problemen der Patientensicherheit gibt es schon lange diagnostische Bemühungen, Stärken und Schwächen des Systems Patientensicherheit zu verstehen und zu beschreiben (Cooper, Newborner, Long & Philip, 1978). Es wird versucht, die Variationsbreite der normalen medizinischen Prozesse zu erfassen. Auf Systemebene wurden z. B. Studien durchgeführt, mittels derer Störungen und Schwankungen in den Prozessabläufen im Operationssaal (Manser, Thiele & Wehner, 2003; Healey, Sevdalis, & Vincent, 2006) oder in einer Notaufnahme (Chisholm, Collison,
Diagnostische Ansätze zur Erfassung der Lage der Patientensicherheit
241
13.6 • Ansatzpunkte zur Erhöhung der Patientensicherheit
Nelson & Cordell, 2000) untersucht wurden. Auf einer individuellen Ebene wurde versucht, die Arbeitsbelastung (»workload«) bei medizinischen Behandlungen zu messen (z. B. Gaba & Lee, 1990) bzw. auch die Leistung von Medizinern zu bewerten, wobei viele der Studien sich auf Simulatoren stützen (Byrne & Greaves, 2001). Aufgabenanalytische Verfahren wurden für die Anästhesie auf individueller Ebene entwickelt und eingesetzt (Manser, 2003) und werden mittlerweile auf die Teamebene erweitert (Grote, Helmreich, Sträter, Häusler, ZalaMezö & Sexton, 2004; Manser, Harrison, Gaba & Howard, 2009). Auch kognitive Anforderungen an Anästhesisten wurden beschrieben (Buerschaper, Harms, Hofinger & Rall, 2003). Zunehmend gewinnen in der Medizin sog. Incident-Reporting-Systeme (Berichtssysteme für Zwischenfälle und gute Lösungen) an Bedeutung (Leape, 2002; Rall, 2009; Rall, Dieckmann & Stricker, 2007; Rall et al., 2006). Dabei berichten Personen aus der klinischen Praxis kritische Ereignisse (Beinahe-Zwischenfälle, Zwischenfälle und idealerweise auch ungewöhnlich positive Ereignisse), an denen sie beteiligt waren oder die sie beobachtet haben. Viele Forschungsgruppen bemühen sich um ein erhöhtes Verständnis dafür, unter welchen Umständen Meldewesen für Zwischenfälle am besten funktionieren (Leape, 2002). Neben der Etablierung solcher Systeme scheint die effektive Umsetzung von aus den Meldungen abgeleiteten Verbesserungsmaßnahmen entscheidend zu sein (Rall 2010). Schließlich werden Studien mittels Simulatoren durchgeführt (Rall, Gaba, Dieckmann & Eich, 2010), die sich mit fehlerträchtigen Situationen auseinandersetzen, z. B. Müdigkeit (z. B. Howard et al., 2003), oder einzelne Fehlleistungen in den Mittelpunkt stellen, wie das Vergessen vorgenommener Handlungen (Dieckmann, Reddersen, Wehner & Rall, 2006). Für die Zukunft ergeben sich hierbei Fragestellungen, wie die bisher bestehenden diagnostischen Verfahren vor dem oben skizzierten Hintergrund in der Medizin optimiert eingesetzt und weiterentwickelt werden können. Diese Ergebnisse können dann die Basis für Interventionsansätze sein, mittels derer Probleme gelöst werden können.
13.6
13
Ansatzpunkte zur Erhöhung der Patientensicherheit
Es lassen sich Ansatzpunkte herausarbeiten, in der multiprofessionelle Kooperationen zwischen Experten für Human Factors und den im Gesundheitswesen tätigen Personen in Zukunft dazu beitragen können, die Patientensicherheit zu erhöhen (. Abb. 13.2).
13.6.1
Simulation
In verschiedenen Bereichen hat sich das Training mit Simulationen in der Medizin etabliert (Rall, Gaba, Dieckmann & Eich, 2010), wenn auch der Einsatz noch nicht flächendeckend ist – sowohl im Verlauf der Aus-, Fort- und Weiterbildung, geografisch gesehen als auch zwischen den einzelnen Disziplinen oder Themen. Die Technologie ist nicht neu, der erste Patientensimulator wurde Ende der 1960er-Jahre gebaut (Abrahamson, Denson & Wolf, 1969). Warum es dann bis in die 1980er-Jahre dauerte, bis diese Geräte in der Medizin wiederentdeckt wurden (Gaba & DeAnda 1988), wäre eine eigene Studie wert. Aus Sicht einer Optimierung des Simulatoreinsatzes zur Erhöhung der Patientensicherheit wäre eine stärkere curriculare Verankerung des Simulatortrainings in die Aus- und Weiterbildung wünschenswert. Damit ließen sich viele der immer noch anzutreffenden Erstversuche an Patienten vermeiden. An verschiedenen Universitäten und Ausbildungsstätten werden Simulatoren in der Ausbildung von Studierenden eingesetzt (vgl. z. B. Timmermann et al., 2005). Aspekte menschlicher Wahrnehmung, menschlichen Denkens und Handelns werden dabei oftmals aber nur angerissen und nicht systematisch vermittelt, obwohl diese für bis zu zwei Drittel der Zwischenfälle als ursächlich oder moderierend beteiligt gesehen werden. Einige Kurse integrieren diese Aspekte (Flanagan, Nestel & Joseph, 2004; Müller et al., 2007). Teilweise werden die Studierenden auch mit Elementen des Zwischenfallsmanagements vertraut gemacht (Howard, Gaba, Fish, Yang & Sarnquist, 1992). Das Training in einem Simulator vermittelt jedoch nicht per se systematisch Kompetenzen in
242
Kapitel 13 • Patientensicherheit und Human Factors – Vom Heute in die Zukunft gesehen
Curriculare Verankerung Flächendeckende Verbreitung Kombination von Trainings der »non-technical skills« Simulation
Konzeptionelle Fortschritte Professionalisierung des Simulatoreinsatzes
Beschreibung und Verständnis von fehlerträchtigen Situationen Synthetisierende Fehleranalyse Simulationsteilnehmer als Koforscher
Ansatzpunkte zur Erhöhung der Patientensicherheit
HumanFactors-orientierte Forschung
Optimierungen im Dreieck Mensch–Technik–Organisation
Incident Reporting und Analyse
Multiprofessionelle Kooperationen Organisationale Verankerung Anerkennung in der Medizin als Profession Rechtlicher Schutz der Daten und Berichtenden Optimierung von Datensammlung und -analyse Klärung der Rolle von Incident– Reporting–Systemen Optimierung des Zusammenspiels von Incident Reporting und Risikomanagement
. Abb. 13.2
13
Ansatzpunkte zur Erhöhung der Patientensicherheit
den »nichttechnischen« Fertigkeiten (»non-technical skills«). Dennoch bieten Simulatorsettings sichere Handlungsräume für unsichere Handlungen und ermöglichen so die lernförderliche »Re-trivialisierung von Fehlern« (Dieckmann, 2009; Dieckmann, Gaba & Rall, 2007). > Die Simulationsteilnehmer können das eigene Handeln in bestimmten, oftmals schwierigen Situationen hinterfragen, ohne dass dabei Patienten gefährdet werden.
Wichtig für die Gestaltung von Simulatortrainings ist es dabei auch, über die Phase der »TanzbärenSimulation« hinauszukommen (vgl. Cooper, 1999). Das Besondere an Tanzbären ist, dass sie überhaupt tanzen, nicht dass sie gut tanzen. Ähnlich verhält es sich teils mit dem Simulationstraining. Die Teilnehmenden (und Anbieter) sind oftmals so begeistert von den technischen Möglichkeiten, die moderne Simulatoren bieten, dass sie nicht genauer auf die Konzepte achten, mit denen die Simulatoren genutzt werden. In der Freude um das technisch Machbare geht das kritische Hinterfragen der kon-
zeptionellen Grundlagen leicht verloren. Aus dieser Begeisterung heraus werden die »Abbildungstreue« und der Reichtum an Features bei Simulatoren zum Verkaufsargument. Die Hersteller von Simulatoren bemühen sich dementsprechend um technisch immer bessere Lösungen. Für die nähere und weitere Zukunft ergeben sich hier Anforderungen für eine weitere Professionalisierung des Simulatoreinsatzes in der Medizin. Um im Bild zu bleiben: wenn Teilnehmer und Anbieter sich (nur dann) freuen, wenn ein Bär schön tanzt – oder übertragen: ein guter Simulator zielführend genutzt wird. Ein wichtiger Schritt in diese Richtung wird die intensive Schulung von Simulatorinstruktoren darstellen (Dieckmann & Rall, 2008; Rall, Gaba, Dieckmann & Eich, 2010). Im Bereich der Forschung mit Simulatoren gibt es vielversprechende Ansätze, aber multiprofessionelle Kooperationen unter psychologischer oder pädagogischer Beteiligung sind kaum verbreitet. Weltweit gibt es nur sehr wenige Psychologen oder Spezialisten für Human Factors und Didaktik, die näher und intensiver mit Simulationen in der Medizin arbeiten. Dies ist erstaunlich, weil Simulatio-
243
13.6 • Ansatzpunkte zur Erhöhung der Patientensicherheit
nen es besser als viele andere Forschungssettings ermöglichen, experimentelle Kontrolle und ökologische Validität miteinander zu verbinden und mit Studienteilnehmern zu arbeiten, die im Berufsleben stehen. Die zunehmende Bedeutung von simulationsbezogener Forschung drückt sich auch in entsprechenden Tagungen und Veröffentlichungen aus, die versuchen, Forschungsbedarf zu definieren (Issenberg, Ringsted, Østergaard & Dieckmann, submitted; Dieckmann, Phero, Issenberg, Kardong-Edgren, Østergaard & Ringsted, submitted).
13.6.2
»Incident Reporting« und Analyse
In Bezug auf das »incident reporting« ist es eine Aufgabe für zukünftige Entwicklungen, die Systeme zu verankern – organisational und in der Medizin als Fach – und die enthaltenen Daten vor rechtlichem Zugriff zu schützen. Zudem ist es notwendig, das methodische Instrumentarium zu schärfen, um die beteiligten Bedingungsgefüge zu untersuchen, darzustellen und rückzumelden. Diese Aufgabe wird hohe Anforderungen an multiprofessionelle Teams unter Beteiligung von Human-Factors-Experten stellen, bei der es zwischen den ökonomischen und organisationalen Rahmenbedingungen einerseits und der notwendigen Analysetiefe andererseits abzuwägen gilt. Werden Incident-Reporting-Systeme stark genutzt und eine Vielzahl von Fällen eingegeben, kann nicht mehr jeder einzelne Fall einer eingehenden Root-Cause-Analyse (Suche nach den grundlegenden Ursachen) unterzogen werden, sodass eine Auswahl der zu analysierenden Fälle stattfinden muss. Hierzu ist es notwendig, entsprechende Klassifikationen zu entwickeln. Die Rolle von Incident-Reporting-Systemen innerhalb von Organisationen ist nicht immer einfach zu definieren. Die enthaltenen Informationen können Ansatzpunkte und Analysebedarfe aufzeigen. Was die einzelnen Organisationen jedoch aus diesen Ansatzpunkten machen, wie sie die Daten aus den Systemen in ihr Risikomanagement überführen, müssen die in der Organisation verantwortlichen Personen klären und umsetzen. Beteiligte Organisationen setzen teilweise große (manchmal zu große) Erwartungen in die Systeme.
13
Mittels des »incident reporting« und der IncidentAnalyse können Informationen generiert werden, die Entscheidungsträgern helfen können, das eigentliche Risikomanagement in Gang zu setzen, erkannte Schwächen zu verringern sowie Stärken im System zu stärken. Dieses Risikomanagement geht aber über das Sammeln und Analysieren von Fällen hinaus. Viele, in anderen Industrien länger bekannte und genutzte Methoden (Veränderungsmanagement, interdisziplinäre Zwischenfallsanalysen, partizipative Entwicklung von Leitlinien u. a.) sind in der Medizin noch kaum in Anwendung. Die Arbeits- und Organisationspsychologie hat hier viele Konzepte beizutragen und kann diese Rollenklärung unterstützen.
13.6.3
Human-Factors-orientierte Forschung
Gerade aus der Verbindung von Simulation und »incident reporting« ergeben sich große Potenziale für Forschung in Bezug auf Human Factors. Die Verbindung ist aus zwei Blickwinkeln heraus relevant für die Erhöhung der Patientensicherheit. Erstens können »incident reports« eine Grundlage für die Auswahl relevanter Fälle darstellen – sowohl für das Training als auch für die Forschung. Zweitens können Simulationen genutzt werden, um im Sinne der synthetisierenden Fehleranalyse (Mehl, 2009) zu untersuchen, wie es zu einem solchen Fall kommen konnte. Durch die systematische (quasiexperimentelle) Bedingungsvariation könnte z. B. erprobt werden, unter welchen Umständen Warnaufkleber auf Medikationspumpen übersehen oder zwar gesehen, aber nicht beachtet werden. Darüber hinaus könnten Trainingsteilnehmende im Sinne der »prospektiven Simulation« (Dieckmann, Wehner, Rall & Manser, 2005) zu CoForschern werden, indem sie an der Konstruktion ihrer eigenen Szenarien mitwirken. Ausgehend von groben Skizzen über Fälle, könnten Forscherinnen und Forscher gemeinsam mit Simulationsteilnehmern Szenarien entwerfen und erproben, die es erlauben, mehr über das Funktionieren oder Nichtfunktionieren des Zusammenspiels von Mensch, Technik und Organisation zu erfahren. Simulationen könnten so helfen, Failure-Mode-and-Effects-
244
13
Kapitel 13 • Patientensicherheit und Human Factors – Vom Heute in die Zukunft gesehen
Analysen (Analyse möglicher Fehler und ihrer Effekte; Spath, 2003) stärker zu vergegenständlichen, als es in diesen eher kognitiv angelegten Verfahren gedacht ist. So könnte überdacht werden, welche Probleme bei einem bestimmten Prozess auftreten könnten, wie diese zu erkennen wären und wie man mit ihnen umgehen sollte. Insgesamt scheint es notwendig, Forschungen zu Problemen im Zusammenspiel zwischen Mensch, Technik und Organisation genauer zu fassen. Die Begriffe »Human Factors« wie auch »Human Error« umfassen beide eine Vielzahl von Bedeutungen. Valide und reliable Forschung ist angesichts dieser Begriffsvielfalt erschwert. Um eine Analogie zu gebrauchen: Würde man in der Medizin sagen, jemand sei krank, so wäre die erste Frage sicherlich, was genau dem Patienten fehle. Sagt man dagegen, etwas sei auf menschliche Fehler zurückzuführen, so hört man allzu leicht auf zu fragen, welcher Fehlermechanismus es genau gewesen ist, der zum Fehler geführt hat. Hier sollte die Fehler- und Human-Factors-orientierte Forschung weiter und tiefer fragen (Wehner, Mehl & Dieckmann, 2010). Die Aufgabe zukünftiger Kooperationen zwischen Medizin und Human-Factors-orientierter Forschung wird es sein, hier noch mehr »Forschergeist« zu entwickeln und den Dingen weiter auf den Grund zu gehen. Auch wenn Menschen nicht so »zuverlässig versagen« wie Maschinen mit Sollbruchstellen, Wartungsintervallen etc., so können wir sicher noch viel mehr Wissen über Gesetzmäßigkeiten (Dismukes, Berman, & Loukopoulos, 2010) oder wenigstens Wahrscheinlichkeiten für Fehler (und auch gute Ideen) erarbeiten und schon vorhandenes Wissen besser nutzen.
13.7
Zusammenfassung und Schlussbetrachtung
Patientensicherheit ist durch Missstände, Ausfälle und Fehlhandlungen auf allen Ebenen soziotechnischer Systeme gefährdet; Behandlungsfehler gehören zu den häufigsten Todesursachen; die Mehrzahl von Zwischenfällen geht auf menschliche Faktoren zurück. Bemühungen um Patientensicherheit finden in einem zunehmend technologisch geprägten
medizinischen Umfeld statt, in dem Komplexitätsreduktion durch Automatisierung, Spezialisierung und Standardisierung angestrebt wird. Zugleich ist das Gesundheitssystem von zunehmender Ressourcenknappheit und damit verbundenem Abbau von Redundanzen geprägt. Um Wissen über den Zustand des Systems Patientensicherheit zu gewinnen, werden medizinische Prozesse arbeitswissenschaftlich (Belastungsmessung, Aufgabenanalyse) erfasst; Zwischenfälle werden mit Berichtssystemen erfasst und analysiert und fehlerträchtige Situationen im Simulator untersucht. Als Ansatzpunkte zur Erhöhung der Patientensicherheit werden Trainings mit Simulatoren, »incident reporting« und Human-Factors-orientierte Forschung beschrieben. Die »negative Fehlerkultur« in der Medizin ist Ausdruck einer allgemeinen gesellschaftlichen Tendenz, Ärzte als fehlerlos anzusehen und in der grundsätzlich das Negative mehr beachtet wird als das Positive: 5 Erziehen von anderen, 5 Traum vom Fehlerlosen, 5 Forderung nach mehr Anstrengung sowie 5 Wunsch nach Bestrafung der Schuldigen. Die Medizin und die darin tätigen Personen bieten sich hier als Projektionsfläche an, geprägt vom Nimbus der »Götter in Weiß«. Schon das Ungleichgewicht, das entsteht, wenn gesunde Experten sich kranker Laien annehmen und dabei Verfahren und komplizierte Geräte verwenden, welche die meisten Patienten und Patientinnen nicht ansatzweise verstehen, unterstreicht dieses Bild. Leicht werden dabei fehlerträchtige Bedingungen übersehen, die den medizinischen Arbeitsalltag prägen. Auch hier greift es sicherlich zu kurz, mit dem Hinweis auf ein Versagen des Managements die »culture of blame« einfach umzudeuten. Die Optimierung des Zusammenspiels von Mensch, Technik und Organisation, zu dem die systematische Human-Factors-orientierte Forschung beitragen kann, wird auch davon abhängen, wie wir als Gesellschaft das Gesundheitswesen (neu) organisieren, um systembedingte Schwachstellen zu minimieren bzw. ihre negativen Folgen einzugrenzen, und was wir bereit sind, dafür zu
Literatur
investieren. Die wissenschaftliche Beschäftigung mit Human Factors in der Medizin kann und sollte dazu beitragen, indem sie hilft, Probleme und Stärken zu verstehen und entsprechende Maßnahmen einzuleiten und umzusetzen, die Positives fördern und Probleme oder mindestens ihre Auswirkungen minimieren.
Literatur Abrahamson, S., Denson, J. S. & Wolf, R. M. (1969). Effectiveness of a simulator in training anesthesiology residents. Journal of Medical Education, 44, 515–519. Bainbridge, L. (1983). Ironies of automation. Automatica, 19 (6), 775–779. Benmessaoud, C., Kharrazi, H., & MacDorman, K. F. (2011). Facilitators and barriers to adopting robotic-assisted surgery: contextualizing the unified theory of acceptance and use of technology. PLoS ONE, 6(1), e16395. Buerschaper, C., Harms, H., Hofinger, G. & Rall, M. (2003). Problemlösefähigkeiten in der Anästhesie. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 4 (3). [Online: http://www.qualitative-research.net/index. php/fqs/article/view/675/1458, Zugriff am 14.06.2011]. Byrne, A. J. & Greaves, J. D. (2001). Assessment instruments used during anaesthetic simulation: Review of published studies. British Journal of Anesthesia, 86 (3), 445–450. Chisholm, C. D., Collison, E. K., Nelson, D. R. & Cordell, W. H. (2000). Emergency department workplace interruptions: are emergency physicians »interrupt-driven« and »multitasking«? Academic Emergency Medicine, 7 (11), 1239–1243. Cooper, A. (1999). The inmates are running the asylum. Why high-tech products drive us crazy and how to restore the sanity. Indianapolis: Sams. Cooper, J. B., Newborner, R. S., Long, C. D. & Philip, J. H. (1978). Preventable anesthesia mishaps: A Study of human factors. Anesthesiology, 49, 399–406. Davies, B. (1996). Robots in medicine and surgery. Trans Med Soc Lond, 113, 6–10. Dieckmann, P. (2009). Simulation settings for learning in acute medical care. In P. Dieckmann (Ed.), Using simulations for education, training and research (pp. 40-138). Lengerich: Pabst. Dieckmann, P. & Rall, M. (2008). Becoming a simulator instructor and learning to facilitate: The Instructor and Facilitation Training (InFacT). In R. Kyle & B. W. Murray (Eds.), Clinical simulation: Operations, engineering, and management (pp. 647–652). Burlington: Elsevier. Dieckmann, P., Gaba, D. & Rall, M. (2007). Deepening the theoretical foundations of patient simulation as social practice. Simulation in Health Care, 2 (3), 183–193. Dieckmann, P., Reddersen, S., Wehner, T. & Rall, M. (2006). Prospective memory failures as an unexplored threat to
245
13
patient safety: results from a pilot study using patient simulators to investigate the missed execution of intentions. Ergonomics, 49 (5–6), 526–543. Dieckmann, P., Wehner, T., Rall, M. & Manser, T. (2005). Prospektive Simulation: Ein Konzept zur methodischen Ergänzung von medizinischen Simulatorsettings. Zeitschrift für Arbeitswissenschaft, 59 (2), 172–180. Dieckmann, P., Phero, J., Issenberg, B. S., Kardong-Edgren, S., Østergaard, D., & Ringsted, C. (2011). The first research consensus summit of the society for simulation in healthcare: Conduction and a synthesis of the results. Simulation in Health Care, 6 (7): 1–9. Dismukes, K., Berman, B. A., & Loukopoulos, L. D. (2007). The limits of expertise: rethinking pilot error and the causes of airline accidents. Aldershot: Ashgate. Dörner, D. (1989). Die Logik des Mißlingens. Strategisches Denken in komplexen Situationen. Reinbek: Rowohlt. Flanagan, B., Nestel, D. & Joseph, M. (2004). Making patient safety the focus: crisis resource management in the undergraduate curriculum. Medical Education, 38 (1), 56–66. Gaba, D. M. & Lee, T. (1990). Measuring the workload of the anesthesiologist. Anesthesia & Analgesia, 71, 354–361. Gaba, D. M., & DeAnda, A. (1988). A comprehensive anesthesia simulation environment: re-creating the operating room for research and training. Anesthesiology, 69(3), 387-394. Grote, G., Helmreich, R. L., Sträter, O., Häusler, R., Zala-Mezö, E. & Sexton, B. (2004). Setting the stage: Characteristics of organizations, teams and tasks influencing team processes. In R. Dietrich & M. Childress (Eds.), Group interaction in high risk environments (pp. 111–141). Ashgate: Aldershot. Haynes, A. B., Weiser, T. G., Berry, W. R., Lipsitz, S. R., Breizat, A. H., Dellinger, E. P., et al. (2009). A surgical safety checklist to reduce morbidity and mortality in a global population. New England Journal of Medicine, 360(5), 491-499. Healey, A. N., Sevdalis, N., & Vincent, C. A. (2006). Measuring intra-operative interference from distraction and interruption observed in the operating theatre. Ergonomics, 49(5-6), 589-604. Hollnagel, E., Woods, D. D. & Leveson, N. (2006). Resilience engineering. Concepts and precepts. Aldershot: Ashgate. Howard, S. K, Gaba, D., Fish, K. J., Yang, G. C. B. & Sarnquist, F. H. (1992). Anesthesia crisis resource management training: Teaching anesthesiologists to handle critical incidents. Aviation, Space & Environmental Medicine, 63 (9), 763–770. Howard, S. K., Gaba, D. M., Smith, B. E., Weinger, M. B., Herndon, C., Keshavacharya, S. & Rosekind, M. R. (2003). Simulation study of rested versus sleep-deprived anesthesiologists. Anesthesiology, 98 (6), 1345–1355; discussion 1345A. Issenberg, B. S., Ringsted, C., Østergaard, D., & Dieckmann, P. (2011). Setting a research agenda for simulation-based healthcare education: A synthesis of the outcome from an Utstein style meeting. Simulation in Health Care, 6 (3): 155–167.
246
13
Kapitel 13 • Patientensicherheit und Human Factors – Vom Heute in die Zukunft gesehen
Johnson, E. (2004). Situating simulators: The integration of simulations in medical practice. Lund: Arkiv. Kohn, L. T., Corrigan, J. M. & Donaldson, M. S. (Eds.) (2000). To err is human. Building a safer health system. [Online: http://www.nap.edu/books/0309068371/html/, Zugriff am 14.06.2011]. Washington: National Academy of Science. Landrigan, C. P., Parry, G. J., Bones, C. B., Hackbarth, A. D., Goldmann, D. A., & Sharek, P. J. (2010). Temporal trends in rates of patient harm resulting from medical care. New England Journal of Medicine, 363(22), 2124-2134. Leape, L. (2002). Reporting of adverse events. New England Journal of Medicine, 347 (20), 1633–1638. Manser, T. (Hrsg.) (2003). Komplexes Handeln in der Anästhesie. Lengerich: Pabst. Manser, T., Harrison, T. K., Gaba, D. M., & Howard, S. K. (2009). Coordination patterns related to high clinical performance in a simulated anesthetic crisis. Anesthesia & Analgesia, 108(5), 1606-1615. Manser, T., Thiele, K. & Wehner, T. (2003). Soziotechnische Systemanalyse im Krankenhaus – Eine Arbeispsychologische Fallstudie in der Anästhesiologie. In E. Ulich (Hrsg.), Arbeitspsychologie in Krankenhaus und Arztpraxis. Arbeitsbedingungen, Belastungen, Ressourcen (S. 361–380). Bern: Huber. Matern, U., Koneczny, S., Tedeus, M., Dietz, K. & Buess, G. (2005). Ergonomic testing of two different types of handles via virtual reality simulation. Surgical Endoscopy, 19 (8), 1147–1150. Mehl, K. (2009). Simulation as a tool for training and analysis. In P. Dieckmann (Ed.), Using simulations for education, training and research (pp. 157-179). Lengerich: Pabst. Müller, M. P., Hänsel, M., Stehr, S. N., Fichtner, A., Weber, S., Hardt, F., Bergmann, B. & Koch, T. (2007). Six steps from head to hand: A simulator based transfer oriented psychological training to improve patient safety. Resuscitation, 73 (1): 137-143. Nielsen, J. (1993). Usability engineering. Boston: Academic Press. Perrow, C. (1984). Normal Accidents. Living with High-Risk Technologies. New York: Basic Books. Rall, M. (2010) Team TüPASS: Lernen aus kritischen Ereignissen auf der Intensivstation. Intensivmedizin, 85-104. Rall, M. (2009). PaSOS – das Incident-Reporting-System für die Erfassung Analyse von sicherheitsrelevanten Ereignissen in der Anästhesie, Intensivmedizin, Notfallmedizin und Schmerztherapie. In J. Ansorg, M. Diemer, J. Heberer, W. von Eiff, E. Tsekos (Hrsg.), OP-Management (S. 259-273). 2. Auflage. Berlin: MWV. Rall, M., Gaba, D. M., Dieckmann, P., & Eich, C. (2010). Patient Simulation. In R. D. Miller (Ed.), Miller’s Anaesthesia (pp. 151-192). Philadelphia: Elsevier Churchill Livingston. Rall, M., Gaba, D. M., Howard, S. K., & Dieckmann, P. (2010). Human Performance and Patient Safety. In R. D. Miller (Ed.), Miller’s Anaesthesia (pp. 93-149). Philadelphia: Elsevier Churchill Livingston.
Rall, M. Dieckmann P, Stricker E (2007). Erhöhung der Patientensicherheit durch effektive Incident Reporting Systeme am Beispiel von PaSIS. In J. Enneker, D. Pietrowski, P. Kleine (Hrsg.), Risikomanagement in der operativen Medizin. (S. 122–137) Darmstadt: Steinkopf. Rall, M., Martin, J., Geldner, G., Schleppers, A., Gabriel, H., Dieckmann, P., Krier, C., Volk, T., Schreiner-Hecheltjen, J. & Möllemann, A. (2006). Charakteristika effektiver Incident-Reporting-Systeme zur Erhöhung der Patientensicherheit. Anästhesiologie und Intensivmedizin (47), S9–S19. Reason, J. (1990). Human Error. Cambridge: Cambridge University Press. Sachverständigenrat für die Konzertierte Aktion im Gesundheitswesen (2003). Gutachten 2003. Drucksache des Deutschen Bundestages 15/530. [Online: http://dip. bundestag.de/btd/15/005/1500530.pdf, Zugriff am 14.06. 2011]. Sanderson, P. (2006). The multimodal world of medical monitoring displays. Applied Ergonomics, 37, 501–512. Spath, P. L. (2003). Using failure mode and effects analysis to improve patient safety. AORN Journal, 78, 16–37. Timmermann, A., Roessler, M., Barwing, J., Blaschke, S., Brauer, A., Eich, C., Hirn, A., Klockgether-Radke, A., Nickel, E., Russo, S., Kettler, D. & Sauer, P. (2005). Neue Wege der studentischen Lehre – Erste Erfahrungen im Querschnittsbereich Notfall- und Intensivmedizin. Anästhesiologie Intensivmedizin Notfallmedizin Schmerztherapie, 40, 536–543. Tucker, A. L., Edmondson, A. C. & Spear, S. (2002). When problem solving prevents organizational learning. Journal of Organizational Change Management, 15 (2), 122–137. Wehner, T. (1992). Sicherheit als Fehlerfreundlichkeit. Arbeitsund sozialpsychologische Befunde für eine kritische Technikbewertung. Opladen: Westdeutscher Verlag. Wehner, T., Mehl, K. & Dieckmann, P. (2010). Fehlhandlungen und Prävention. In U. Kleinbeck (Hrsg.), Enzyklopädie der Psychologie – Themenbereich D Praxisgebiete - Serie III Wirtschafts-, Organisations- und Arbeitspsychologie, Band 1: Arbeitspsychologie (pp. 785–820). Göttingen: Hogrefe. Wehner, T., Nowack, J. & Mehl, K. (1992). Über die Enttrivialisierung von Fehlern: Automation und ihre Auswirkungen als Gefährdungspotentiale. In T. Wehner (Hrsg.), Sicherheit als Fehlerfreundlichkeit (S. 36–56). Opladen: Westdeutscher Verlag.
247
Lernen aus Störfällen und Präventionsansätze in der Prozessindustrie Günter Horn und Kristina Lauche
14.1
Einleitung: Kennzeichen der Branche – 248
14.2
Lernen aus Störfällen – 251
14.2.1 14.2.2 14.2.3
Modellbildung anhand von tragischen Einzelfällen – 251 Trendanalyse mithilfe von »Leading Indicators« – 251 Risiken von Instandhaltungsarbeiten – 253
14.3
Einflussfaktoren und Interventionsmöglichkeiten – 253
14.3.1 14.3.2 14.3.3
Risikowahrnehmung und Schulungen zu Gefahrenpotenzial – 253 Führungskräftetraining und Krisenmanagement – 254 Diagnose der Sicherheitskultur – 255
14.4
Herausforderungen für die Zukunft – 257
14.5
Zusammenfassung – 260 Literatur – 260
P. Badke-Schaub et al., Human Factors, DOI 10.1007/978-3-642-19886-1_14, © Springer-Verlag Berlin Heidelberg 2012
14
14
248
Kapitel 14 • Lernen aus Störfällen und Präventionsansätze in der Prozessindustrie
14.1
Einleitung: Kennzeichen der Branche
Die chemische Industrie sowie der Energiesektor (Atomenergie, Öl- und Gasindustrie) unterscheiden sich v. a. durch ihren Prozesscharakter von anderen Branchen: Eine Reaktion wird angestoßen, die sich ohne weiteres menschliches Zutun weiter fortsetzt und deren Verlauf lediglich überwacht wird. Dabei kann es verzögerte Effekte geben, die für Menschen schlecht einzuschätzen sind und die zu Übersteuerungen führen können, wie dies Dörner et al. anhand von Simulationen wie »Lohhausen« darstellen konnten (Dörner et al., 1983). Die Prozessindustrien sind außerdem relativ stark automatisiert, hauptsächlich aus Effizienzgründen, aber auch um Menschen nicht unmittelbar gefährlichen Substanzen auszusetzen. Nur selten steht dabei eine menschengerechte Arbeitsgestaltung im Vordergrund und so bleiben meist »Restarbeitstätigkeiten« mit Überwachungsfunktion für den menschlichen »Bediener«, der dann retten soll, was vorher nicht oder nur fehlerhaft programmiert werden konnte (Bainbridge, 1983). Das bedeutet, dass der Systemzustand nicht immer einfach einzuschätzen ist, sondern aus einer Vielzahl von Sensoren-Messwerten und Alarmsignalen ermittelt werden muss. Damit finden alle in den anderen Kapiteln diskutierten Human-FactorsAspekte Anwendung (insbesondere 7 Kap. 2 zu Sicherheit; 7 Kap. 4 zu Wahrnehmung, 7 Kap. 19 zu Automation und Systemgestaltung). Eine weiteres Kennzeichen von Prozessindustrien ist, dass ihr Gefahrenpotenzial nicht nur die eigenen Mitarbeiterinnen und Mitarbeiter und auch nicht nur aktive Nutzerinnen und Nutzer betrifft, wie z. B. in der Flugbranche, sondern auch Anwohnerinnen und Anwohner und im Falle von Katastrophen wie dem Reaktorunglück in Tschernobyl auch Nachbarstaaten. Viele Bereiche in diesen Industrien sind durch Risiken mit geringer Auftretenswahrscheinlichkeit, aber hohem Schadenspotenzial gekennzeichnet. Ein einziger Fun-
ke, ein falsch eingesetztes Ventil, eine unsachgemäße Übergangslösung können bei enger Kopplung von Systemelementen (Perrow, 1984) Kettenreaktionen auslösen, die im Extremfall ganze Landstriche verwüsten können. Das Auftreten und Ausmaß
solcher Katastrophen durch ein geeignetes Sicherheitsmanagement zu verringern, ist daher nicht nur im ökonomischen Interesse des Betriebes, sondern auch eine Verpflichtung gegenüber den Angestellten und Anwohnerinnen und Anwohnern. Dazu gehört auch Öffentlichkeitsarbeit, um eine Vertrauensbasis für die getroffenen Vorkehrungen zu etablieren und im Krisenfall die Kommunikation mit Anrainern und der Presse proaktiv zu managen. > In den Prozessindustrien finden alle in diesem Buch diskutierten Human-FactorsAspekte wie das Denken und Handeln der Mitarbeitenden in technischen Anlagen und die Systemgestaltung Anwendung. Außerdem müssen für den Krisenfall die Anrainer mitbedacht werden. Obwohl die meisten der klassischen Unfallbeispiele aus den Prozessindustrien stammen, sind die Lehren daraus zunächst in anderen Branchen gezogen worden. Eine systematische Berücksichtigung von Human Factors ist noch im Aufbau.
Die meisten Unternehmen in der chemischen und Öl- und Gasindustrie sind außerdem privat geführt und operieren nach den Gesetzen der Marktwirtschaft. Die öffentliche Kontrolle und Zugänglichkeit von Unfallanalysen hat sich erst in den letzten Jahren gebessert. Während Perrow (1984) noch den Mangel an Berichten und die Unzugänglichkeit von Betrieben in der Prozessindustrie kritisierte, geben mittlerweile z. B. das Bundesamt für Strahlenschutz oder die europäische Datenbank MARS (Major Accident Reporting System) Auskunft über Vorfälle. Beide geben jedoch nur summarische Informationen und wenig Anhaltspunkte zu Human Factors – außer dass »Fehler des Personals« oder »irrtümliches Betätigen eines Steuerventils« zum Ereignis beigetragen haben oder dass von 603 Unfällen in MARS 246 u. a. auf menschliche Ursachen zurückzuführen sind, erfährt man wenig. Eine Ausnahme bilden die Berichte des US Chemical Safety and Hazards Investigation Boards, die ähnlich detailliert und hintergründig wie in der Luftfahrt Unfallhergang und -ursachen aufschlüsseln und die in ihrer gesamten Länge öffentlich zugänglich sind. Die Erfahrung der Autoren ist jedoch, dass Hintergründe
249
14.1 • Einleitung: Kennzeichen der Branche
14
Ringleitung NaOH Alarm 3
Messwarte
Entlüftungsrohr Alarm 2 Alarm 1 Hochstandfühler V1 aus + Alarm 1 NaOH »Schnellbefüllung«
Checklist 1... 2... ... 24. NaOH
Ventil 2
Ventil 1 Regenwasserkanal
. Abb. 14.1
Fluss
Ereignishergang im Fallbeispiel zu Natronlauge
zu Human-Factors-Problemen oft nur im Vertrauen und nur an Insider weitergegeben werden. Dieses Kapitel bündelt arbeitspsychologische Forschungsergebnisse aus der Prozessindustrie sowie persönliche Erfahrungen der Autoren und versucht, Herausforderungen für die Zukunft zu formulieren. Der Schwerpunkt liegt dabei nicht auf technischen Sicherheitsvorkehrungen oder ergonomischer Gestaltung (s. dazu z. B. Salvendy, 2006), sondern auf psychologischen und organisatorischen Aspekten. Bei der Auswahl des Materials ging es uns insbesondere um die Verantwortung des Managements, Arbeitsbedingungen zu schaffen, die es den Mitarbeitenden ermöglichen, sicher und kompetent zu handeln. Dazu sollen Beispiele gegeben und Interventionsmöglichkeiten herausgestellt werden. Beispiel In einem Chemiepark kam es zum Austritt einer größeren Menge Natronlauge, die in den angrenzenden Fluss gelangte. Im Betrieb wurde ein pH-Alarm ausgelöst, doch da der Fluss viel Wasser führte, wurde die Natronlauge hinreichend verdünnt und so kam zu keinen Umweltschäden. Ein Mitarbeiter hatte die Befüllung des Tanks eingeleitet und dazu
das Befüllventil sowie den nur für Wartungsarbeiten vorgesehenen Umgang (Bypass) geöffnet. Dies war zwar per Betriebsanweisung nicht erlaubt, aber im Betrieb gängige Praxis. Der Durchgangskoeffizient des Ventils war so klein, dass der Befüllvorgang sehr lange dauerte. Deshalb hatte es sich eingebürgert, zu Beginn des morgendlichen Rundgangs den Umgang zusätzlich zu öffnen und am Ende des Rundgangs nach ca. 20 min manuell zu schließen. Das Befüllventil schloss sich dann nach Erreichen des Hochstands automatisch (. Abb. 14.1). Dieser bewusste Verstoß wurde als kalkulierbares Risiko gesehen, da der Betriebsführer nicht von der Notwendigkeit überzeugt werden konnte, das Befüllventil gegen ein solches mit größerem Durchgangskoeffizienten auszutauschen. Außerdem wäre ein Ventilwechsel mit einem komplizierten Verwaltungsvorgang mit allen Betrieben im Chemiepark verbunden, die an derselben NatronlaugeRingleitung angeschlossen sind. Der Mitarbeiter, der den Befüllungsvorgang eingeleitet hatte, musste unerwartet einem Kollegen bei der Behebung einer Verstopfung helfen und wurde so längere Zeit aufgehalten. Dadurch wurde beim Erreichen des Hochstands das Befüllventil über die Automatik zwar geschlossen, der
250
14
Kapitel 14 • Lernen aus Störfällen und Präventionsansätze in der Prozessindustrie
Umgang blieb aber weiterhin geöffnet und es lief weiterhin Natronlauge unkontrolliert in den Tank. Der Hochstandsalarm lief bald darauf in der Messwarte ein, diese war aber zu dieser Zeit nicht besetzt. Beim Überlaufen des Natronlaugetanks über die Entlüftungsleitung lief die Natronlauge über die Tanktasse in den Kanal für Kühl- und Regenwasser. Hier kam es sofort zum pH-Alarm, der im gesamten Betrieb angezeigt wurde. Der Mitarbeiter, der durch seine Hilfestellung beim Kollegen seinen Rundgang in der normal üblichen Zeit von 20 min nicht beenden konnte, begab sich sofort in die Messwarte. In diesem Betrieb gab es für viele nicht bestimmungsgemäße Betriebszustände detaillierte Checklisten, deren Benutzung und Abarbeitung der Betriebsführer mit allem Nachdruck aus Misstrauen gegenüber seiner Betriebsmannschaft einforderte. Der Mitarbeiter beeilte sich also, die vorgegebene Checkliste für den Fall »pH-Alarm« zu holen, um sie schnellstmöglich abzuarbeiten. Dabei vergaß er ganz und gar, dass er den Umgang noch nicht geschlossen hatte. Erst als er auf der Checkliste den Punkt »Natronlaugetank« las, erinnerte er sich an den noch offenen Umgang. Zu diesem Zeitpunkt war jedoch schon eine unkontrollierte Menge Natronlauge abgeflossen und hatte den pH-Alarm ausgelöst. Der Vorfall führte zu einer Stilllegung des Produktionsbetriebes sowie einer Ermittlung der Staatsanwaltschaft gegen den Betriebsführer wegen Wasserverschmutzung. Die Produktion durfte erst nach Umsetzung eines Maßnahmenkatalogs wieder aufgenommen werden.
Das Beispiel zeigt einige typische Probleme in der Prozessindustrie, auf die im Folgenden näher eingegangen wird: 5 Die Mitarbeiter im Beispiel führen Überwachungstätigkeiten in einem teilautomatisierten System aus, was bedeutet, dass sie sich stets bewusst sein müssen, in welchem Systemzustand sich die Anlage befindet. Wird eine Handlung unterbrochen – wie hier durch die nicht vorhergesehene Hilfestellung – kann es passieren, dass eine Routinehandlung nicht wie gewohnt abgeschlossen wird und die Erinnerung an die Absicht »Umgang schließen« nicht im Absichtsgedächtnis überdauert. Ein
solches soziotechnisches System setzt perfekte Menschen und keinerlei Schwankungen und Störungen voraus – beides ist unrealistisch. 5 Checklisten und Standardprozeduren können helfen, ersetzen aber das Denken nicht: Der Mitarbeiter hatte sich beim pH-Alarm um die Ursachenfindung gemäß Checkliste bemüht. Auf dieser Checkliste stand der Natronlaugetank jedoch ganz unten, da die Wahrscheinlichkeit für eine Überfüllung als sehr gering erachtet wurde. Hätte er selbst nachgedacht, wäre ihm die unterbrochene Handlung möglicherweise früher wieder eingefallen. Hätte der Betriebsführer beim Erstellen der Checkliste von der Betriebspraxis des zusätzlich geöffneten Umgangs gewusst, hätte er diesem Fall mehr Bedeutung beimessen können. 5 Auslöser für diesen Vorfall war das unzulässige Öffnen des Umgangs. Meistens sind solche bewussten Übertretungen (»violations«, 7 Kap. 3.4.4) nicht böswillige Sabotageakte, sondern entstehen wie hier aus dem Versuch der Mitarbeiter, effizienter zu arbeiten und ein umständliches Verfahren abzukürzen, um so dem wahrgenommenen Produktionsdruck nachzukommen. 5 Aus dem Verstoß gegen Sicherheitsregeln, dem wenig geeigneten Ventil und der verzögerten Reaktion auf den Alarm zeigt sich, dass es dem Management nicht gelungen ist, eine Arbeitsatmosphäre herzustellen, in der Sicherheit vorgeht und kompetente Mitwirkung geschätzt wird. In diesem Fall war der Betriebsführer für seinen patriarchalischen Führungsstil bekannt: Er traute seinen Mitarbeitern keine eigenständigen kompetenten Handlungen zu und versuchte stattdessen, für alle Eventualitäten eine Vorschrift zu bedenken. Das Management sah aber wegen der bevorstehenden Pensionierung des Betriebsführers keinen Handlungsbedarf. Diese latenten Faktoren werden hier als Führungsaufgaben und unter dem Begriff Sicherheitskultur (7 Kap. 2.4) thematisiert. In den letzten Jahrzehnten hat sich die Sicherheit in chemischen Anlagen deutlich verbessert. Dies geschah durch konsequente Aufrüstung der Technik, sowohl auf der verfahrenstechnischen Seite als
251
14.2 • Lernen aus Störfällen
auch bei der Prozesstechnik, wo mit Mess- und Regelungstechnik sog. intelligente Systeme konzipiert und aufgebaut wurden. Weitere technische Verbesserungen erhöhen die Zuverlässigkeit des Systems nur geringfügig, da der technische Grenznutzen erreicht ist. Analysiert man heutzutage Betriebsstörungen, Chemieunfälle und Störfälle, findet man viele Hinweise auf menschliche Einflüsse auf der ausführenden und planenden Ebene. Dieses Kapitel diskutiert mögliche Zugänge zu Human Factors in der Prozessindustrie. Zunächst wird die Rolle von tragischen Störfällen für die Modellbildung und das Lernen aus Fehlern erörtert. Davon ausgehend werden im zweiten Abschnitt exemplarisch einige Einflussfaktoren und Interventionsmöglichkeiten diskutiert: die individuelle Risiko- und Situationswahrnehmung, Trainings für Führungskräfte und zu Krisenmanagement sowie Sicherheitskultur. Abschließend werden Perspektiven für die weitere Entwicklung aufgezeigt.
14.2
Lernen aus Störfällen
Wie in den meisten Industrien waren es größere Betriebsstörungen, die das Bewusstsein für den Beitrag menschlichen Verhaltens zur Systemsicherheit schärften. Zu den großen Katastrophen, die auch für andere Branchen zu Meilensteinen wurden, gehören der Chemieunfall in Bhopal 1984, bei dem 2 500 Menschen durch giftiges Gas umkamen, und der Reaktorunfall in Tschernobyl 1986, der je nach Schätzung zwischen 56 und 7 000 Menschen das Leben kostete und in einer ganzen Region auf unabsehbare Zeit die Krebserkrankungen steigen ließ. Da Betroffenheit viel mit der Nähe zum Ereignis zu tun hat, sind es oft nationale Ereignisse, die den Beginn einer Diskussion über Human Factors einläuten: So beziehen sich in der Ölindustrie die Norweger auf die 1980 umgestürzte Plattform Alexander Kielland (123 Tote) und die Briten auf die Explosion der Plattform Piper Alpha 1988 (167 Tote). Das Unglück rüttelte die ganze Industrie auf, die sich bis dahin v. a. an höherer Produktivität orientiert hatte. Sowohl Firmen als auch Gewerkschaften und Behörden starteten Initiativen, um Sicherheit zum Thema Nr. 1 zu machen. In der chemischen Industrie in Deutschland waren es v. a. die Störfälle in
14
den Werken Griesheim und Höchst in den 1990erJahren, die ein Umdenken einleiteten. Der Fokus liegt jedoch meist auf sicherem Verhalten des Einzelnen am Arbeitsplatz, d. h., es werden Trainings und Interventionen eingesetzt, die auf Kenntnis der Risiken und Konsequenzen sowie auf Motivation abzielen. Erst in den letzten Jahren beginnt man verstärkt, die mehr systemischen und organisatorischen Faktoren zu untersuchen und anzugehen.
14.2.1
Modellbildung anhand von tragischen Einzelfällen
Große Katastrophen sind glücklicherweise selten. Für die Forschung bedeutet dies allerdings, dass sich wenig Aussagen mit statistischen Mitteln treffen lassen: Das Zusammentreffen aller Faktoren, die den Unfall mit verursacht haben, ist immer sehr unwahrscheinlich und die meisten Arbeitsstunden werden ohne Schaden für Mensch und Umwelt absolviert. Wesentliche Ansätze für das Verständnis von Sicherheit lieferten daher die retrospektiven Analysen tragischer Einzelfälle, aus denen dann allgemeine Modelle postuliert wurden wie Perrows Theorie der normalen Unfälle (Perrow, 1984, 1999) und Reasons Modell der latenten Versagensfaktoren (Reason, 1987; 1997). Perrows Beitrag für die Prozessindustrie liegt in der Einsicht, dass Störungen und Schwankungen unvermeidlich sind und es in komplexen und eng gekoppelten Systemen immer wieder zu Unfällen kommen wird, weil diese Störungen und Schwankungen nicht anders abgefangen werden können. Daher gilt es, Industrieanlagen so zu gestalten, dass Interventionen und Entkopplung möglich sind. Reason (1997) wies auf latente Unfallursachen wie Personalführung, Vorschriften und Organisationskultur hin (zu beiden Theorien 7 Kap. 2.1).
14.2.2
Trendanalyse mithilfe von »Leading Indicators«
Der zweite Ansatz, trotz der seltenen Ereignisse aus den Fehlern der Vergangenheit zu lernen, besteht darin, auch Beinahe-Ereignisse und schwache Anzeichen (»weak signals«, »leading indicators«) zu
252
14
Kapitel 14 • Lernen aus Störfällen und Präventionsansätze in der Prozessindustrie
erfassen, die auf Schwachstellen hinweisen können, bevor es zum Unfall kommt. Dieser Ansatz wurde u. a. von der Chemiefirma DuPont propagiert und wird heute auch als Safety Training Observation Program (STOP) für andere Firmen angeboten. Mithilfe einfacher Checklisten (sog. STOP-Karten) werden Beobachtungen zur Arbeitssicherheit erfasst, an die beteiligten Personen rückgemeldet und zusätzlich systematisch ausgewertet. Neben dem Tragen von Schutzkleidung oder Kennzeichnung von Gefahrenbereichen können auch unangemessene Vorschriften gemeldet werden. Allerdings erlauben diese STOP-Karten noch keine echte Ursachenanalyse. Diese und ähnliche betriebsinternen Systeme haben zu uneinheitlichen Klassifikationen von Human Factors geführt, die systematische Forschung eher erschweren (Gordon, Flin, Mearns & Fleming, 1996). Dazu wurde eine Reihe von Verfahren entwickelt, die es Anwendern erleichtern sollen, Unfälle und Beinahe-Ereignisse zu erfassen und dabei auch die zugrunde liegenden individuellen und organisationalen Faktoren zu identifizieren, wie z. B. das Human-Factor-Investigation-Verfahren HFIT (Gordon, Flin & Mearns, 2005). In der Atomindustrie in Deutschland und der Schweiz wird SOL (Sicherheit durch organisationales Lernen; Wilpert, Miller & Fahlbruch, 1997) als Standardverfahren verwendet, falls es Hinweise auf eine MTO-Interaktion gibt. Dass man auch aus Beinahe-Ereignissen viel lernen kann, zeigt das folgende Beispiel, bei dem ein Anlagenfahrer kompetent und schnell handelt und damit die Eskalation eines BeinaheUnfalls verhindert. Beispiel
entleeren, das aber nur auf 25 bar ausgelegt ist. Es kommt zu einer Druckerhöhung in den nachfolgenden Gefäßen, was eine Vielzahl von Alarmen in der Leitwarte auslöst. Die Sicherheitseinrichtung droht anzusprechen, was dazu führen würde, dass die unvollständig reagierte Dispersions-Gas-Mischung über das Dach abgeblasen wird. Der Anlagenfahrer fährt jedoch manuell das Bodenventil des Polymerkessels so schnell wieder zu, dass eine unzulässige Druckerhöhung in dem nachfolgenden System verhindert wird. In bemerkenswert kurzer Zeit gelingt ihm die richtige Diagnose – Alarme können unterschiedliche Ursachen haben und nur eine davon ist das nichtbestimmungsgemäße Öffnen des Bodenventils. Er weiß auch, wie er das Ventil über ein spezielles Menü anwählen und den Befehl zum Zufahren manuell eingeben kann. Die Ursache für das unerwartete Öffnen des Bodenventils war der Ausfall einer Steuerungseinheit des Prozessleitsystems. Aus Sicherheitsgründen war das Prozessleitsystem mit 2 redundanten Prozessoren ausgestattet. Als das Prozessleitsystem einige Jahre früher erneuert wurde, verwendete man aus Kostengründen das Steuermodul einer alten Prozesssteuerung von einem anderen Hersteller weiter. Die speziell programmierte Schnittstelle zwischen den beiden Systemen wies einen versteckten Programmierfehler auf, der genau beim Übergang von einem Prozessor auf den anderen einen Schritt auslöste, der zum Öffnen des Bodenventils führte, obwohl u. a. das Kriterium »Druck unter 25 bar« noch nicht erfüllt war. Der Ausfall einer Steuerungseinheit war noch nie simuliert oder getestet worden, da er als sehr unwahrscheinlicher Fall angesehen wurde.
In einer Nachtschicht am Wochenende öffnet sich gegen 2 Uhr morgens während der Reaktionszeit unerwartet das Bodenventil eines Reaktors einer Druck-Dispersionsanlage. In der Anlage werden unter bis zu 90 bar hohem Druck Kunststoffdispersionen hergestellt. Nur im Reaktionsteil sind Drücke von über 25 bar zugelassen, sämtliche nachfolgenden Anlagenteile sind mit Sicherheitseinrichtungen abgesichert, die einen unzulässigen Überdruck über Abblase-Vorrichtungen ableiten können. Als sich das Bodenventil plötzlich öffnet, beginnt sich der Reaktorinhalt über das Entspannungsgefäß zu
In diesem Fall konnte dank dem Eingriff des Anlagenführers verhindert werden, dass der gesamte Reaktorinhalt über das Dach abgeblasen wurde. Es gab keine Aufsehen erregende Sirenenwarnung der benachbarten Wohngebiete und nach kurzer Fehlersuche und Ausmerzen des Programmierfehlers ging man wieder zur Tagesordnung über. Die Erkenntnis, dass Menschen mit ihren Fähigkeiten, Probleme zu lösen, oft die entscheidende Sicherheitsressource darstellen, spielt in der Prozessindustrie bisher noch keine große Rolle. Denn
253
14.3 • Einflussfaktoren und Interventionsmöglichkeiten
14
. Tab. 14.1 Auftretenswahrscheinlichkeiten von durch Menschen verursachten Problemen nach Art der Tätigkeit. (Nach Reason, 1997, S. 92. © »Managing the risks of organizational accidents« by James Reason, 1997. Ashgate, (ISBN 978- 1 84014- 104-7) »Hands-on«
Kritikalität
Häufigkeit
Normale Bedienung
Gering
Mittel
Hoch
Notfallbedienung
Mittel
Hoch
Gering
Instandhaltungsarbeiten
Hoch
Hoch
Hoch
je besser diese Ressource genutzt wird, desto unsichtbarer bleibt sie: Eskalationen von Situationen werden verhindert und so werden diese Fälle in der Regel nicht öffentlichkeitswirksam herausgestellt oder nicht einmal intern bekannt.
verweisen. In beiden Fällen ist eine systematische Analyse der zugrunde liegenden Ursachen und Handlungsbedingungen erforderlich.
14.3 14.2.3
Risiken von Instandhaltungsarbeiten
Das Beispiel verweist auch noch auf ein allgemeines Problem beim Eingriff in komplexe technische Systeme. Wartungsarbeiten und Veränderungen können ungeahnte Effekte haben. Hier ist es die Ersatzsteuerung, ein sog. redundantes System, das im Normalfall nicht benötigt wird und nur für den Bedarfsfall bereitsteht, in der sich ein latenter Fehler verbirgt. Der Ersatz eines Prozessleitsystems stellt zudem einen direkten Eingriff des Menschen in ein hoch automatisiertes System dar. Reason (1997) argumentiert, dass insbesondere solche Instandhaltungsarbeiten immer kritisch sind. Bei normaler Bedienung wird selten direkt in die Kernfunktionalität des Systems eingegriffen, und Notfallbedienung ist eine seltene Ausnahme. Bei Instandhaltungsarbeiten wird hingegen regelmäßig an kritischen Prozessteilen direkt Hand angelegt (. Tab. 14.1). Werden hierbei Fehler übersehen, wie im Beispiel der Programmierfehler in der Software der Ersatzsteuerung, können diese die latenten Bedingungen (7 Kap. 3.2.1) für einen Unfall schaffen. > Lehren für die Verbesserung von Sicherheit lassen sich sowohl aus den eher seltenen Unfällen ziehen als auch aus der Analyse schwacher Indikatoren, die auf latente Bedingungen für Sicherheitsprobleme
Einflussfaktoren und Interventionsmöglichkeiten
Der folgende Abschnitt geht auf Einflussfaktoren ein, die sich aus der Analyse von Störfällen als relevant erwiesen haben und für die Prävention genutzt werden können. Dabei geht es zunächst um die Wahrnehmung von Gefahren auf der individuellen Ebene, dann um Führungskräftetraining zur Intervention am Arbeitsplatz und in Krisen und schließlich um die Sicherheitskultur der Organisation.
14.3.1
Risikowahrnehmung und Schulungen zu Gefahrenpotenzial
Sowohl beim Beispiel der ausgelaufenen Natronlauge als auch beim Eingriff zur Schließung des Bodenventils war einer der entscheidenden Faktoren, inwieweit den Mitarbeitern klar war, welcher Vorgang gerade in der Anlage ablief, welche Risiken damit verbunden waren und wie sich die Situation weiter entwickeln könnte. In der Human-FactorsForschung wurde dafür der Begriff »Situationsbewusstsein« (»situation awareness«) geprägt: das Erfassen, Verstehen und Weiterdenken der Situation (Endsley, 1995; 7 Kap. 4). Dazu gehört sowohl das Verhalten des technischen Systems (chemischer Prozess, automatische Überwachungsanla-
254
Kapitel 14 • Lernen aus Störfällen und Präventionsansätze in der Prozessindustrie
gen) als auch das Verhalten anderer Akteure. Die wesentliche Aufgabe für das Management besteht hier darin, geeignete Schulungen und Möglichkeiten zu internem Erfahrungsaustausch anzubieten, sodass Mitarbeiter über ein gutes Verständnis der chemischen Prozesse und Anlagen verfügen. Eine Analyse von Vorfällen in Bohrteams mit ergänzenden Interviews hat gezeigt, dass die meisten Probleme im Zusammenhang mit Situationsbewusstsein bereits auf der Ebene der Wahrnehmung lagen (Sneddon, Mearns & Flin, 2006). Die Ursachen waren hier also weniger eine Frage von Verständnis und damit Schulung, sondern wurden mit der Schichtarbeit auf den Plattformen, Ermüdung und Stress in Zusammenhang gebracht, die zu Aufmerksamkeitslücken führen können. Auch gegen diese Grenzen menschlicher Belastbarkeit kann man vorbeugende Maßnahmen ergreifen, wie z. B. Pausenregelungen, um der Ermüdung entgegenzuwirken, oder ergonomische Gestaltung der Arbeitssysteme, sodass Informationen so dargeboten werden, dass für die Aufgabe Relevantes hervorgehoben und eine Interpretation erleichtert wird (Endsley, Bolté & Jones, 2003).
14.3.2
14
Führungskräftetraining und Krisenmanagement
Wie die vorangegangenen Beispiele bereits zeigten, kann das Verhalten von Führungskräften wesentlich zum Erhalt von Sicherheit und zum angemessenen Umgang mit potenziellen Katastrophen beitragen (7 Kap. 10). Dazu gehört zum einen, dass Führungskräfte durch eigenes Vorbild und Instruktionen ihre Mitarbeitenden anleiten, auf Sicherheit zu achten und auf Missstände hinzuweisen sowie sich um den sicherheitstechnischen Zustand des Betriebes zu kümmern. Dazu werden u. a. Führungskräftetrainings zu Interventionen am Arbeitsplatz angeboten, die mit einem ganzheitlichen Konzept auf die Führungsaufgaben vorbereiten und mit Rollenspielen Intervenieren einüben. Die Evaluation eines solchen Kurses zeigte allerdings, dass die Teilnehmer zwar nach dem Kurs ihre Einstellung änderten, aber einige Monate später nicht häufiger und besser intervenierten. Ein Vergleich von Training und Anwendungssituation
zeigte, dass die Teilnehmer die Gesprächsführungsstrategien zwar im Kurs erprobten, doch später am Arbeitsplatz nur noch in geringem Maße anwenden konnten (Pullwitt, Mearns, Schönherr & Lauche, 2007). Die Befunde verweisen auf zweierlei: 5 Interventionen am Arbeitsplatz sind kognitiv anspruchsvoll und sozial unbequem. 5 Was im Training gelernt wurde, muss auch nachher am Arbeitsplatz unterstützt und weiter gepflegt werden (7 Kap. 18). Aus der Perspektive der Lernforschung überrascht dieser Befund nicht, doch für Unternehmen bedeutet dies, dass in mehr als nur das zweitägige Training investiert werden muss. Neben der Intervention am Arbeitsplatz müssen Führungskräfte in der Prozessindustrie im Notfall auch die Rolle eines Krisenmanagers übernehmen können und unter Stress schnell angemessene Entscheidungen treffen. Die Explosion auf der Plattform Piper Alpha hat gezeigt, dass eine derartige Krise ganz andere Anforderungen stellt als die normale Managementrolle und dass die Fertigkeiten als Krisenmanager geübt werden müssen (Flin, 1996; 7 Kap. 16 und 18). Beispiel Im Juli 1988 gab es auf der Ölplattform Piper Alpha in der Nordsee eine Explosion. Das daraus resultierende Feuer setzte auch die Gaspipeline, die Piper Alpha mit den benachbarten Plattformen verband, in Brand und heftige Feuersbrünste sowie weitere Explosionen zerstörten die gesamte Bausubstanz. Von 226 Menschen an Bord überlebten nur 61, die sich größtenteils durch einen Sprung ins Meer gerettet hatten – ein Verhalten, von dem normalerweise in Sicherheitstrainings abgeraten wird, da das eiskalte Nordseewasser schnell zum Tod durch Unterkühlung führen kann. Der Bericht der Untersuchungskommission (Cullen, 1990) zeigte eindeutig auf, dass Fehlentscheidungen und verzögerte Entscheidungen zum Ausmaß des Unglücks beitrugen. Das Warten auf übergeordnete Anweisungen verhinderte, dass Menschen in Sicherheit gebracht wurden, und führte dazu, dass die benachbarten Plattformen weiterhin Öl in die brennende Plattform pumpten. Der Plattform-Manager stand anscheinend unter Schock und war außer Stande,
255
14.3 • Einflussfaktoren und Interventionsmöglichkeiten
Entscheidungen zu treffen, Hilfe anzufordern oder seinen Mitarbeiten Anweisungen zu geben, wo und wie sie sich in Sicherheit bringen sollten.
Als Folge des Piper-Alpha-Unglücks entwickelte eine Gruppe von Trainern und Industrievertretern ein mehrtägiges Simulationstraining, das Plattform-Manager durchlaufen haben müssen, bevor sie ihren Posten antreten können. In einem nachgebauten Kontrollraum wird der Umgang mit einem simulierten Notfall (Feuer, Explosion etc.) geübt. Jeder der Teilnehmenden kommt dabei in die Rolle des Plattform-Managers, der die Lage erfassen und den Überblick behalten sollte, aber insbesondere auch klare Anweisungen geben muss und nicht aus dem eigenen Stress heraus in Tatenlosigkeit versinken darf. Die Trainingsinhalte sind von der britischen Offshore Petroleum Industry Training Organization (OPITO) festgelegt, und der Kurs wird firmenübergreifend anerkannt. Das Verhalten der Teilnehmenden wird anhand von Kriterien beurteilt, die aus Interviews mit störfallerprobten Plattform-Managern und Führungskräften aus anderen Branchen definiert wurden. Verhaltenskriterien für Krisenmanager (Flin, Slaven & Stewart, 1996) 5 Situation bewerten und Bedürfnisse antizipieren: Informationen sammeln und prüfen, Entscheidungen treffen, angemessene Handlungsaufträge geben, mögliche Szenarien und ihre Konsequenzen und Wahrscheinlichkeit überprüfen, effektives Koordinieren der Einsatzkräfte 5 Kommunikation aufrechterhalten: sofort alle relevanten Personen und Organisationen informieren, Entwicklung der Situation berichten und Kommunikation aufrechterhalten, Verlauf und wichtige Mitteilungen dokumentieren, bei Bedarf alternative Kommunikationsmedien einsetzen 5 Delegieren: klare Entscheidungen treffen, welche Aufgaben in der gegebenen Situation an wen delegiert werden sollen, Aufgaben zuweisen gemäß Fähigkeiten und Vorgaben des Krisenmanagements, Rollen geklärt für die Ausführenden
14
5 Umgang mit Stress bei sich und anderen: Symptome erkennen, angemessene Schritte zur Stressreduktion einleiten
Doch wie gut bereitet ein Training auf die echte Krise vor? Das folgende Beispiel zeigt, dass die gegenwärtige Trainingspraxis v. a. dazu dient, Vorschriften und Prozeduren einzuüben. Aus dem Vergleich mit einem tatsächlichen Zwischenfall lassen sich wichtige Lehren für die Entwicklung von Schulungen ziehen (Crichton, Lauche & Flin, 2005). Beispiel Mitten in der Nacht löste sich ein Teil einer Bohrvorrichtung unter Wasser, was zu Austritt von Öl und Bohrflüssigkeit führen kann. Ein Krisenstab wurde einberufen, um die Ursache zu diagnostizieren und geeignete Maßnahmen einzuleiten. Das Problem konnte schnell und ohne Ölaustritt behoben werden, doch es dauerte 68 Tage, bis die Bohrinsel wieder einsatzbereit war (was bei Kosten von 100 000 US-$ pro Tag erheblichen finanziellen Schaden bedeutet). Teammitglieder nannten als wesentliche Fertigkeiten: Situationsdiagnose bei unvollständiger Information, Entscheidungen treffen unter Unsicherheit, Zusammenarbeit im Team, klare Verantwortlichkeiten und Anweisungen sowie konsistenten Informationsfluss zwischen dem Stabsraum an Land, der Bohrinsel und weiteren Mitgliedern des Krisenstabs. Ein Vergleich mit einem Simulationstraining zu einem ähnlichen Vorfall, das dasselbe Team kurz vorher durchlaufen hatte, zeigte, dass das Training zwar geholfen hatte, die »standard operating procedures« einzuüben und die Interaktion im Team zu verbessern. Doch die Strategien im Umgang mit Unsicherheit und Stress waren im Training zu wenig berücksichtigt worden und insbesondere auf die lange Phase der Wiederinbetriebnahme hatte das Training zu wenig vorbereitet (Crichton, Lauche & Flin, 2008).
14.3.3
Diagnose der Sicherheitskultur
Wie in einem Unternehmen mit Sicherheit umgegangen wird, lässt sich unter dem Begriff »Sicherheitskultur« zusammenfassen. Dieses über-
256
Kapitel 14 • Lernen aus Störfällen und Präventionsansätze in der Prozessindustrie
greifende Konzept bezeichnet das Human-Factors-Bewusstsein im Unternehmen, die (oft impliziten) Werte, Ziele und Normen zu Sicherheit und deren »Spuren« in Dokumenten, Artefakten und Geschichten im organisationalen Gedächtnis (7 Kap. 2). Der Begriff stammt aus der Organisationstheorie (7 Kap. 9.6.1) und wurde von der Expertengruppe zu Tschernobyl zum ersten Mal auf Sicherheit übertragen. Das Konzept soll helfen, Probleme zu verstehen und im Vorfeld auf Indikatoren zu achten, die alle darauf hindeuten, dass Sicherheit nur unzureichend ernst genommen wird. Der folgende Vorfall wurde zu Lernzwecken in der betroffenen Firma diskutiert. Beispiel
14
Bei einer Explosion starben zwei Mitarbeiter bei Schweißarbeiten an einem Tank, der noch Reste an Kondensat (und damit brennbare Kohlenwasserstoffe) enthalten hatte. Die Arbeiter, die wie in der Branche üblich von einer Unterauftragsfirma angestellt waren, hatten sich unter »Kondensat« lediglich ungefährliche Wasserrückstände vorgestellt. Sie wagten auch nicht, zeitraubende Fragen zu stellen, aus Angst, ihre Firma werde solche Störenfriede entlassen. Die eingehende Unfallanalyse deutet auf ein zugrunde liegendes Problem hin: eine Organisationskultur, in der Sicherheit zwar in Worten betont, aber nicht vor Ort bedacht und umgesetzt wird. Das Beispiel wurde im übergeordneten Konzern dazu verwendet, auf den indirekten Beitrag der Planer und Vorgesetzten hinzuweisen: Zu viele Personen waren für die präventive Planung zuständig gewesen, die allesamt ungeprüfte Annahmen über den tatsächlichen Systemzustand getroffen hatten. Die Sicherheitskultur des Konzerns, die Unterbrechungen und Nachfragen zum Schutz menschlichen Lebens vorangestellt hätte, wurde von den Unterlieferanten offenbar nicht mehr geteilt.
In der Literatur finden sich die Begriffe »Sicherheitskultur« und »Sicherheitsklima« oft gleichbedeutend nebeneinander, obwohl Sicherheitsklima nur ein Teilbereich von Sicherheitskultur ist. Sicherheitsklima bezieht sich auf die geteilten handlungsrelevanten Einstellungen zu Sicherheit (Zohar, 1980; Zohar & Luria, 2005) und hat sich
zumindest in der petrochemischen Industrie als das praktisch relevantere und leichter zu operationalisierende Konzept durchgesetzt (Cox & Flin, 1998). Durch die Anwendung von standardisierten Fragebögen kann so zumindest dieser Teilaspekt von Sicherheitskultur quantifiziert erfasst werden. Das Manko dieses Ansatzes ist allerdings, dass es eine Vielzahl von Fragebogenverfahren gibt, die alle induktiv und entsprechend der Bedürfnisse der Auftraggeber entwickelt wurden und damit einer theoretischen Basis entbehren (Flin et al., 2000; Guldenmund, 2000). Die Ergebnisse mögen so in jedem Einzelfall Hinweise auf latente Probleme in einer Organisation geben, lassen sich aber schlecht zwischen einzelnen Untersuchungen vergleichen. Stärker soziotechnisch orientierte Ansätze betonen die strukturellen Aspekte der Organisationsgestaltung, den Mitarbeitenden Handlungsmöglichkeiten und Entscheidungshoheit für Sicherheit einzuräumen und damit zu einer »kompetenzförderlichen Sicherheitskultur« beizutragen (Grote & Künzler, 2000; Künzler, 2002). Aus dieser Perspektive werden Gestaltungsrichtlinien wie die lokale Selbstregulation im Umgang mit Schwankungen und Störungen postuliert, um das von Perrow (1984) illustrierte Katastrophenpotenzial risikoreicher Systeme mit starrer Kopplung zu reduzieren. Die Diagnose der Sicherheitskultur besteht in diesem Ansatz aus einer Kombination an Methoden wie Dokumentenanalyse, Interviews und einem Fragebogen, der Sicherheitsmanagement, Gestaltungsstrategien und Bedürfnisse der Arbeitenden umfasst (s. auch Grote & Künzler, 2000). In der Praxis werden daneben auch sog. Reifemodelle zur Sicherheitskultur wie das der britischen Sicherheitsbehörde (HSE) (Fleming, 2000) und das für das Hearts&Minds-Programm von Shell entwickelte Modell (Parker, Lawrie & Hudson, 2006, . Abb. 2.1) eingesetzt. Beide Modelle nehmen eine Entwicklung der Sicherheitskultur vom pathologischen Ignorieren zur proaktiven Integration von Sicherheit in das Kerngeschäft der Organisation an. Als Positivbeispiel für eine integrierende Sicherheitskultur sei das Projekt »Britannia Topside« genannt, bei dem es durch frühen Einbezug von Plattform-Mitarbeitern in der Konstruktions- und Planungsphase gelang, nicht nur Kosten zu senken, sondern auch Sicherheitsvorkehrungen
257
14.4 • Herausforderungen für die Zukunft
und die Gestaltung von Kontrollräumen vorher anhand virtueller Begehungen zu testen und geeignet anzupassen (Croft-Bednarski & Johnston, 1999). Die beiden genannten Modelle sehen unterschiedliche Stufen vor und die Definitionen für die einzelnen Stufen sind nicht immer über alle psychometrischen Zweifel erhaben. Doch nach Aussagen von Praktikern erweisen sich die Modelle als eine gute Diskussionsgrundlage, um innerhalb von Arbeitsgruppen spezifische Stärken und Handlungsbedarf zu identifizieren. Die größte Herausforderung für die Praxis liegt darin, auch ohne die nächste Katastrophe das Bemühen um noch mehr Sicherheit und ernsthafte Wertschätzung menschlichen Lebens wachzuhalten, auch wenn die dazu notwendigen Schritte nicht im Einklang mit den kurzfristigeren Profitkriterien zu stehen scheinen. > Interventionen zur Verbesserung von Sicherheit müssen nach einem ganzheitlichen Ansatz erfolgen. Sie sollten alle Hierarchieebenen von Mitarbeitern auf der ausführenden Ebene zu Planern und Führungskräften und der Sicherheitskultur der gesamten Organisation umfassen.
14.4
Herausforderungen für die Zukunft
Sowohl für die chemische und Ölindustrie als auch für die Atomindustrie lässt sich konstatieren, dass ein beachtlicher technischer Sicherheitsstandard erreicht wurde und durch die Störfälle der Vergangenheit ein gewisses Maß an Verständnis für Human Factors geschaffen wurde. Es wurden Managementsysteme etabliert, die latente Fehler in Anlagen und Organisationen aufdecken können und zur Beseitigung beitragen sollen. Einige Gerichtsurteile, bei denen Firmen für unzureichende Sicherheitsvorkehrungen zur Rechenschaft gezogen wurden – Shell wurde für die auf Brent Bravo erstickten Mitarbeiter zu einer Strafe von 900 000 GBP verurteilt –, trugen zusätzlich dazu bei, Vorstände und Geschäftsführungen vom Konzept des »Organisationsverschuldens« und von auditierbaren Sicherheitsmanagementsystemen zu überzeugen.
14
Die Herausforderung für die Zukunft liegt v. a. in drei Bereichen: z
Neue Anforderungen durch Veränderungen im sozioökonomischen Umfeld
Veränderungen im sozioökonomischen Umfeld stellen neue Anforderungen an Sicherheit. Eine europäische Arbeitsgruppe zur Atomenergie, »Learnsafe« (Wahlström, Kettunen, Wilpert, Maimer, Jung & Cox, 2005), identifizierte eine Reihe von Faktoren wie Deregulierung, Globalisierung und Kostendruck, aber auch die Kombination von alter und neuer Technologie, Generationenwechsel in der Belegschaft und Stilllegungen alter Anlagen sowie exzessive, ineffiziente und schwierige Vorschriften als Herausforderung für die Zukunft. Die meisten dieser Faktoren sind auch für andere Bereiche in der Prozessindustrie relevant. Für die Praxis bedeutet dies, dass zusätzliche Anstrengungen nötig sind, um allein den Status quo an Sicherheit zu erhalten. z
Sicherheitsmanagement motivierend und kompetenzförderlich gestalten
Gerade unter den genannten Bedingungen gilt es, das Sicherheitsmanagement motivierend und kompetenzförderlich zu gestalten, anstatt nur blinden Gehorsam und bürokratische Planerfüllung zu fordern. Zu den Ansätzen des kompetenten Umgangs mit Unsicherheit gehört das Konzept des »resilience engineering« (Hollnagel, Woods & Leveson, 2006), bei dem es darum geht, wie Menschen mit Komplexität und Stress erfolgreich umgehen können und ein vorausschauender, proaktiver Umgang mit Risiken und Ausfällen gefunden werden soll (7 Kap. 2.2). Der Ansatz bemüht sich um eine Systemperspektive, bei der Schwankungen und Störungen als normaler Bestandteil von Mensch-Maschine-Systemen angesehen werden und die Anpassungsfähigkeit und Flexibilität von Menschen als Stärke begriffen wird. Einen in vielem ähnlichen, wenn auch theoretisch anders begründeten Ansatz verfolgt Norros mit ihrer arbeitspsychologischen und ergonomischen Evaluation von Systemen in der Planungsphase, z. B. einem neuen finnischen Kernkraftwerk (Norros, 2004; Norros & Savioja, 2005). Die Analyse bezieht den Aufforderungscharakter und die Be-
258
Kapitel 14 • Lernen aus Störfällen und Präventionsansätze in der Prozessindustrie
Tätigkeit
Sinnhaftigkeit als Orientierung
Aufforderungscharakter
Re fl
n
Handlung
Gewohnheiten
si rin u Int renz Beg
Sinnhaftigkeit aus Handlungsgewohnheit
ut in
sc h ng e en
Beweggründe zu handeln
e
Arbeitskontext
iv ot
io ex
M
Ro Operation
. Abb. 14.2 Modell zur ganzheitlichen Arbeitsanalyse. (Nach Norros, 2004, S. 85. © Norros, L. (2004). Acting under uncertainty. The core-task analysis in ecological study of work. Helsinki: VTT Press.)
grenzungen der Situation sowie die gewohnheitsmäßigen Handlungen der Mitarbeiter und deren Motive mit ein (. Abb. 14.2). z
14
Als Organisation aus Fehlern lernen
Die dritte Herausforderung besteht darin, als Organisation aus Fehlern zu lernen, ohne dass es erst wieder eine Katastrophe geben muss. Wilpert & Fahlbruch (2002) stellen fest, dass es bedeutend mehr Analysen von Störfällen gibt als Literatur zu erfolgreichen Interventionen – offenbar seien Analysen einfacher durchzuführen als Veränderungen in Organisationen zu bewirken. Zu den von ihnen angeführten Schwierigkeiten gehören unterschiedliche Rollen sowohl im Unternehmen zwischen HFSpezialisten und Ingenieuren als auch zwischen Betreiber und Behörden, wo mangelndes Vertrauen und Schutz der eigenen Position oft eine sinnvolle Zusammenarbeit erschweren. Auch die rationale Annahme, die Erkenntnisse aus Unfällen würden schon eine Veränderung einleiten, wenn sie allen bekannt gegeben werden, erwies sich als zu einfach. Wie auch im hier angeführten Beispiel der narkotisierenden Wirkung von Kohlenwasserstoffen muss die Information in die täglichen Handlungsabläufe eingebunden und dort als sinnvoll erkannt werden. Eine besondere Herausforderung liegt in der Zusammenarbeit über Firmengrenzen hinweg, wie das Beispiel der Explosion auf der Bohrplattform Deepwater Horizon im Golf von Mexiko zeigt (BP Report, 2010).
Beispiel Am 20. April 2010 kam es auf der Bohrplattform Deepwater Horizon beim Schließen eines Bohrlochs zu Explosionen und Feuerausbrüchen, bei denen 11 Menschen starben. Erst nach 87 Tagen gelang es, das Bohrloch zu schließen. Das ausströmende Öl führte zu einer der schwersten Umweltkatastrophen in der Geschichte. Der Unfallbericht zeigt ganz im Sinne von Reasons Modell auf, wie diverse Barrieren nacheinander versagten. So sollte das Bohrloch mit einem Zement gesichert werden, zu dessen Dichtungsvermögen widerstreitende Aussagen vorlagen, von denen aber nur die positiven Ergebnisse weitergeleitet worden waren. Ein Drucktest, der darauf hinwies, dass das Bohrloch noch nicht völlig geschlossen war, wurde trotzdem akzeptiert. Durch starken Druckanstieg begann der Kohlenwasserstoff im Bohrschacht nach oben zu steigen. Das Problem wurde nicht rechtzeitig bemerkt und die eingeleiteten Gegenmaßnahmen führten nicht zum Erfolg. Die Mannschaft der Bohrinsel versuchte, das aufsteigende Gas abzuleiten. Doch anstatt die Masse ins Meer zu leiten, wählten sie die umweltschonende Methode über eine Separiermaschine, die für diesen Fall allerdings zu langsam war. So gelangte Gas in die Lüftungszufuhr zum Maschinenraum in Bereiche, die nicht zusätzlich gegen Explosionen geschützt waren. Damit brach die Stromversorgung zusammen. Angesichts des um sich greifenden Feuers entschied die Mannschaft, die Bohrinsel zu verlassen und den
14.4 • Herausforderungen für die Zukunft
so genannten Blow-out Preventer zu aktivieren, der dafür konstruiert ist, in derartigen Notsituationen am Meeresboden das Bohrloch abzudichten. Auch diese Maßnahme schlug fehl, da die Leitungen beschädigt und die Batterien für die automatische Aktivierung leer waren. Während in der Öffentlichkeit vor allem unfruchtbare Schuldzuschiebungen stattfanden, arbeiteten parallel dazu Sicherheitsmitarbeiter der beteiligten Firmen an einer gründlichen Aufklärung der Ursachen. Diese zeigt, dass es nicht einzelne Handlungen oder Unterlassungen gab, die zum Unfall führten, sondern eine Kette von Ereignissen und mehrere Firmen. Ölproduzierende Firmen bemühen sich inzwischen, in ihren Sicherheitsstandards stärker auf die menschlichen Faktoren einzugehen. Die Einsicht, dass Sicherheitsmanagement nicht an den Grenzen einer Firma Halt machen kann, wenn die Gefahren und Arbeitsprozesse dies nicht tun, soll nun in Empfehlungen umgesetzt werden.
Es bleibt also noch viel zu tun. Durch den voranschreitenden Kostendruck und die damit verbundenen Rationalisierungen und Arbeitsplatzabbau ist zu befürchten, dass Sicherheitsprävention auf das Allernotwendigste beschränkt bleibt. Die bisherigen Ansätze, die versuchen, den Menschen in den Mittelpunkt zu stellen, werden meist nur von einzelnen Personen vorangetrieben und sind selten vom Management unterstützt. Es gibt einzelne Initiativen, die versuchen, firmenübergreifende Ansätze zu Training und Sicherheitsmanagement voranzutreiben, wie z. B. »Step Change« in der Ölindustrie (http://stepchangeinsafety.net). Auch in der Kommission für Anlagensicherheit, die das deutsche Bundesumweltministerium berät, wurde ein Arbeitskreis zu menschlichen Faktoren eingerichtet. Auf der OECD-Konferenz zu Human Factors in der chemischen Industrie wurde festgehalten, dass analog zur Flugbranche Human-Factors-Trainings eingeführt werden sollten, um ein allgemeines Bewusstsein und spezifische Kenntnisse wie Wissen über menschliche Fehler und Belastungsgrenzen oder Krisenmanagement zu vermitteln (Fahlbruch, Dubiel, Neumann & Raupach, 2007).
259
14
Inzwischen wurde von dem Arbeitskreis Menschliche Faktoren der Kommission für Anlagensicherheit ein Leitfaden für interne Berichtssysteme erarbeitet, der Mitarbeitern eines Betriebes die Möglichkeit geben soll, außerhalb der hierarchischen Strukturen über Ereignisse, Fehler oder sonstige Probleme zu berichten. Der Leitfaden konkretisiert die Anforderungen an interne Berichtssysteme hinsichtlich der Voraussetzungen, der Verfahrensschritte und der Aufgaben der zuständigen Personen. Im Hinblick auf das interne Berichtssystem als Teil des Sicherheitsmanagementsystems gemäß Anhang III Störfall V zeigt der Leitfaden auf, wie das Berichtssystem in das Managementsystem integriert werden kann und wie die Schnittstellen gestaltet werden müssen. Der Nutzen eines wie im Leitfaden beschriebenen umfassenden und systematischen internen Berichtssystems für das Unternehmen ist die Erhöhung der Anlagensicherheit als Folge einer besseren Identifikation von Fehlern und Ursachen und dem konsequenten Lernen daraus (KAS/08/065, Kommission für Anlagensicherheit 2008). Im Jahr 2009 gab die Kommission für Anlagensicherheit ein Gutachten zu »Empfehlungen zur erforderlichen Kompetenz von Beschäftigten in Betriebsbereichen, in Behörden und von Sachverständigen bezüglich menschlicher Faktoren zur Verbesserung der Anlagensicherheit« in Auftrag. Es wurde differenziert betrachtet, welche Kompetenzen für welche Beschäftigten wichtig sind. Dabei wurden nicht nur die internen primären Prozesse, also die Produktionsprozesse betrachtet, sondern ebenso die sekundären wie z. B. die Instandhaltung, aber auch externe Stellen wie Behörden und Sachverständige. Ergebnis ist die Aufstellung von Lerninhalten und Lernzielen, die auf den Bereich Human Faktors zugeschnitten sind. Hieraus wird zurzeit ein Leitfaden entwickelt, der noch in 2011 verabschiedet werden soll. Ziel des Leitfadens ist es, die zur Gewährleistung der Anlagensicherheit erforderlichen Kompetenzen im Bereich menschlicher Faktoren sicherzustellen sowie Wege zum Erwerb und zur Erhaltung der Kompetenzen aufzuzeigen. Es bleibt zu hoffen, dass die bisherige Arbeit von Einzelnen in Zukunft eine breitere Unterstützung erfährt und damit auch in der chemischen
260
Kapitel 14 • Lernen aus Störfällen und Präventionsansätze in der Prozessindustrie
und pharmazeutischen Industrie ein einheitlicher Ansatz zu Human Factors umgesetzt werden kann.
14.5
Zusammenfassung
Obwohl alle Aspekte von Human Factors in den Prozessindustrien hochgradig relevant sind, findet das Wissen um menschliche Fertigkeiten und Schwächen im Vergleich zu anderen Branchen immer noch unzureichend Beachtung. Im Alltag dominiert oft der Ruf nach mehr Produktivität und den einzelnen Mitarbeiterinnen und Mitarbeitern wird nicht viel Kompetenz zugesprochen. Nach Ansicht der Autoren gibt es jedoch Möglichkeiten, seitens des Managements diese Situation zu verbessern. Dazu wurden in diesem Kapitel exemplarisch einige Aspekte anhand von Forschungsergebnissen und Beispielen erläutert: 5 Mitarbeiterinnen und Mitarbeiter können durch Schulungen ein besseres Prozessverständnis und angemessenes Risikobewusstsein entwickeln. 5 Führungskräfte sollten auf Krisensituationen und Interventionen am Arbeitsplatz vorbereitet werden. 5 Die regelmäßige Diagnose der Sicherheitskultur kann als »Frühwarnsystem« dienen.
14
Trotz des zunehmenden ökonomischen Drucks und der technischen Komplexität können Verantwortliche in ihrem Bereich einen motivierenden und kompetenzförderlichen Umgang mit Sicherheit fördern. Darüber hinaus wäre breitere, firmenübergreifende Zusammenarbeit zum Thema Human Factors und Sicherheit wünschenswert, um aus Zwischenfällen und von erfolgreichen Interventionen zu lernen.
Literatur Bainbridge, L. (1983). Ironies of automation. Automatica, 19, 775–779. BP (2010) Deeepwater Horizon Accident Investigation Report. http://www.bp.com/liveassets/bp_internet/ globalbp/globalbp_uk_english/incident_response/ STAGING/local_assets/downloads_pdfs/Deepwater_Ho-
rizon_Accident_Investigation_Report.pdf [Zugriff am 7.03.2011] Cox, S. & Flin, R. (1998). Safety culture: Philosopher’s stone or man of straw? Work and Stress, 12 (3), 189–201. Crichton, M., Lauche, K. & Flin, R. (2005). Incident command skills in the management of an oil industry drilling incident: A case study. Journal of Contingencies and Crisis Management, 13 (3), 116–128. Crichton, M., Lauche, K. & Flin, R. (2008). Learning from experience: Incident management team leader training. In J. M. Schraagen (Ed.), Naturalistic Decision Making and Macrocognition. Aldershot: Ashgate. Croft-Bednarski, S. & Johnston, K. (1999). Britannia topsides; A low cost, safe and productive North Sea facility. Paper presented at the Offshore Technology Conference, Houston, Texas, 3.–6. May 1999. Cullen, T. H. L. (1990). The public inquiry into the Piper Alpha disaster. London: HMSO. Dörner, D., Kreuzig, H. W., Reither, F. & Stäudel, T. (1983). Lohhausen: Vom Umgang mit Unbestimmtheit und Komplexität. Bern: Huber. Endsley, M. R. (1995). Toward a theory of situation awareness in dynamic systems. Human Factors, 37, 85–104. Endsley, M. R., Bolté, B. & Jones, D. G. (2003). Designing for situation awareness. An approach to user-centered design. Boca Raton, FL: Taylor & Francis. Fahlbruch, B., Dubiel, J., Neumann, L. & Raupach, O. (2007). Discussion document for OECD-CCA Workshop on Human Factors in Chemical Accidents and Incidents, Potsdam 8–9 May 2007. Fleming, M. T. (2000). Safety culture maturity model (No. 2000/049 Offshore Technology Report). Edinburgh: Health & Safety Executive / The Keil Centre. Flin, R. (1996). Sitting in the hot seat: Leaders and teams for critical incidents. Chichester: Wiley. Flin, R., Mearns, K., O’Connor, P. & Bryden, R. (2000). Safety climate: Identifying the common features. Safety Science, 34, 177–192. Flin, R., Slaven, G. & Stewart, K. (1996). Emergency decision making in the offshore oil and gas industry. Human Factors, 38 (2), 262–277. Gordon, R., Flin, R. & Mearns, K. (2005). Designing and evaluating a human factors investigation tool (HFIT) to improve incident investigation. Safety Science, 43, 147–171. Gordon, R., Flin, R., Mearns, K. & Fleming, M. T. (1996). Assessing the human factors causes of accidents in the offshore oil industry. Paper presented at the International Conference on Health, Safety and Environment of the Society of Petroleum Engineers, New Orleans, 9.–12. June 1996. Grote, G. & Künzler, C. (2000). Diagnosis of safety culture in safety management audits. Safety Science, 34, 131–150. Guldenmund, F. W. (2000). The nature of safety culture: A review of theory and research. Safety Science, 34, 215–257. Hollnagel, E., Woods, D. D. & Leveson, N. (Eds.) (2006). Resilience engineering. Concepts and precepts. Aldershot: Ashgate.
Literatur
Kommission für Anlagensicherheit (2008) Leitfaden Empfehlungen für interne Berichtsysteme als Teil des Sicherheitsmanagementsystems gemäß Anhang III Störfall-Verordnung. http://www.sfk-taa.de/publikationen/kas/KAS_8.pdf [Zugriff am 14. 03. 2011] Künzler, C. (2002). Kompetenzförderliche Sicherheitskultur. Ganzheitliche Gestaltung risikoreicher Arbeitssysteme. Zürich: vdf Hochschulverlag. Norros, L. (2004). Acting under uncertainty. The core-task analysis in ecological study of work. Helsinki: VTT Press. Norros, L. & Savioja, P. (2005) Validation of NPP control rooms: new HF assessment methods. Eurosafe Tribune, 6, 12-14. Parker, D., Lawrie, M. & Hudson, P. (2006). A framework of understanding the development of organisational safety culture. Safety Science, 44 (6), 551–562. Perrow, C. (1984). Normal accidents. Living with high-risk technologies. New York: Basic Books. Perrow, C. (1999). Normal accidents. Living with high-risk technologies (2nd edn.). Princeton, NJ: Princeton University Press. Pullwitt, T., Mearns, K., Schönherr, S. & Lauche, K. (2007). On manager and supervisor skills to perform safety interventions. Paper presented at the ESREL Safety and Reliability Conference, Stavanger, Norway, 25.–27. June 2007. Reason, J. (1987). Generic error-modelling system (GEMS): A cognitive framework for locating common human error forms. In J. Rasumssen, K. Duncan & J. Leplat (Eds.), New technology and human error (pp.63–83). Chichester, UK: John Wiley & Sons. Reason, J. (1997). Managing the risks of organizational accidents. Aldershot: Ashgate. Salvendy, G. (2006). Handbook of human factors (3rd edn.). New York: Wiley. Sneddon, A., Mearns, K. & Flin, R. (2006). Safety and situation awareness in offshore crews. Cognition, Technology & Work, 8, 255–267. Wahlström, B., Kettunen, J., Wilpert, B., Maimer, H., Jung, J., Cox, S. et al. (2005). LearnSafe. Learning organisations for nuclear safety (No. 2287). Espoo: VTT. Wilpert, B. & Fahlbruch, B. (Eds.) (2002). System safety. Challenges and pitfalls of Intervention. Amsterdam: Elsevier. Wilpert, B., Miller, R. & Fahlbruch, B. (1997). SOL: Sicherheit durch Organisationales Lernen. Ein neues Konzept für das Lernen aus Betriebserfahrung. Technische Überwachung, 38 (4), 40–43. Zohar, D. (1980). Safety climate in industrial organizations: Theoretical and applied implications. Journal of Applied Psychology, 65, 96–102. Zohar, D. & Luria, G. (2005). A multilevel model of safety climate: Cross-level relationships between organization and group-level climates. Journal of Applied Psychology, 90 (4), 616–628.
261
14
263
Militär: Handeln in komplexen Problemlagen Markus Bresinsky, Frank Detje und Martin Littschwager
15.1
Einleitung – 264
15.2
Das Lagebild als Ausgangspunkt militärischen Handelns – 265
15.3
Shared Situation Awareness im militärischen Handeln – 268
15.4
Human Factors im militärischen Handeln – 270
15.5
Zusammenfassung und Ausblick – 273 Literatur – 273
P. Badke-Schaub et al., Human Factors, DOI 10.1007/978-3-642-19886-1_15, © Springer-Verlag Berlin Heidelberg 2012
15
264
Kapitel 15 • Militär: Handeln in komplexen Problemlagen
15.1
Einleitung
» Um 01:49 Uhr warfen die Jagdflugzeuge auf BeBeispiel
15
Fallbeispiele militärischen Handelns stehen immer unter einer besonderen Beobachtung, beruht das militärische Handeln in den meisten Fällen doch auf der Basis der Geheimhaltung und sind damit die interessanten Human-Factors-Fälle oftmals Verschlusssache. Nur selten gibt es für die interessierte Öffentlichkeit und forschende Wissenschaft Gelegenheit, Einblicke in die Problemfälle militärischen Handelns zu erhalten, um sich ein eigenes Bild von den kritischen Situationen zu machen. Ganz zu schweigen von der Möglichkeit, im Sinne einer methodisch fundierten, wissenschaftlichen Analyse diese interessanten Fälle zu untersuchen und dabei auf eine breite Datenbasis zurückgreifen zu können. Wenn jedoch das militärische Handeln politische Konsequenzen nach sich zieht und einen öffentlichen und parlamentarischen Diskurs anstößt, werden zunehmend mehr Quellen öffentlich zugänglich und können mit der nötigen kritischen Distanz als Grundlage einer Analyse dienen. Eben diese für die Analyse günstigen Bedingungen finden sich bei der Untersuchung militärischen Handelns im Zusammenhang mit dem durchgeführten Luftschlag in der Nähe von Kunduz (Afghanistan) auf zwei entführte Tanklaster in der Nacht vom 03. auf den 04.09.2009 wieder. Bei diesem Einsatz starben Zivilisten, wodurch die Rechtfertigung des Einsatzes angezweifelt wurde und die Hintergründe der Entscheidungsfindung auf den Prüfstand gestellt wurden. Die politische Aufarbeitung und der daraus resultierenden Untersuchungsausschuss einerseits sowie die juristische Bewertung durch den Generalbundesanwalt andererseits bilden eine Quellenlage, die – wenngleich als überwiegend sekundär zu bewerten – dennoch als belastbare Ausgangssituation für die folgende Darstellung eingeschätzt werden kann. Die aufgeführten Zitate zur Darstellung des Fallbeispiels sind gänzlich dem Einstellungsvermerk 3 BJs 6/10-4 des Generalbundesanwalts beim Bundesgerichtshof Karlsruhe vom 16.04.2010 entnommen. Dieses Dokument beruht auf umfangreichen primären schriftlichen Quellen, Videomaterial sowie Zeugenaussagen, ist offen eingestuft und unter dem Internetauftritt des Generalbundesanwalts abrufbar (www.generalbundesanwalt.de)
fehl des Oberst Klein zwei 500-Pfund-Bomben ab, die jeweils in der Nähe der beiden Tanklastwagen einschlugen. Durch den Bombenangriff wurden die beiden Tanklaster und die beiden unmittelbar neben ihnen stehenden Schleppfahrzeuge zerstört. Die Zahl der getöteten und verletzten Personen lässt sich nicht mehr mit endgültiger Sicherheit aufklären. Gleiches gilt für die Feststellung, bei wie vielen Opfern es sich tatsächlich um Taliban und Zivilisten gehandelt hat. [S.27]
«
Was führte zu der Entscheidung in der Nacht vom 03. auf den 04.09.2009? Welche Human-FactorsAspekte spielten dabei eine Rolle und wie kann dieses Beispiel einer kritischen militärischen Handlungssituation aus Human-Factors-Sicht bewertet werden? Eine erste Annäherung an diese Frage muss sich mit dem gegenwärtigen Aufgabenfeld und den aktuellen Rahmenbedingungen militärischen Handelns auseinandersetzen. Dabei wird insbesondere auf die Rolle des militärischen Handelns in völkerrechtlich legitimierten Stabilisierungsoperationen eingegangen, da diese Art von Operationen aus Human-Factors-Sicht eine Reihe interessanter kritischer Interaktionssituationen und komplexer Problemstellungen impliziert. Die gegenwärtig anzutreffenden, modernen militärischen Konfliktszenarien in völkerrechtlich legitimierten Stabilisierungsoperationen sind überwiegend keine zwischenstaatlichen Kriege, sondern nicht internationale bewaffnete Konflikte zwischen staatlichen und nicht-staatlichen Akteuren. Das Militär handelt in diesen Konflikten auf der Basis eines Mandats der Vereinten Nationen und wird dabei im Rahmen multinationaler Verbände in den Einsatz gebracht. Diese spezifischen Rahmenbedingungen führen zu einer Reihe komplexer Problemstellungen: Der Einsatz des Militärs soll oftmals den nicht friedlichen und nicht stabilen Zustand einer latenten oder akuten Konfliktlage in einen friedlichen und stabilen Zustand überführen. Dabei wird stets der Primat des deeskalierenden, überwiegend auf nicht-letale Wirkung bedachten Vorgehens betont. Die Formel »Sicherheit führt zu Stabilität« wird dabei als Dilemma
265
15.2 • Das Lagebild als Ausgangspunkt militärischen Handelns
wirksam, denn der Aufbau und die Durchsetzung von Sicherheit führen nicht zwangsläufig zu stabilen Bedingungen, sondern können diese sogar konterkarieren, wenn durch sicherheitsschaffende Maßnahmen das notwendige Vertrauen der Bevölkerung in die Stabilität untergraben wird und damit noch mehr kontraproduktive Sicherheitsmaßnahmen erforderlich werden. Eine weitere komplexe Problemstellung ergibt sich bei der Entwicklung von Absichten, Zielsetzungen und Planungen militärischen Handelns unter den Bedingungen politisch legitimierter, multinational aufgebauter und zivilgesellschaftlich fokussierter Missionen. Zum einen steigen nicht nur die Anforderungen an die Koordinierung des militärischen Handelns zwischen unterschiedlichen Nationen mit ihren jeweils eigenen Standards, Verfahren und Führungskulturen. Die politisch notwendige Kontrolle einerseits wie auch die zivilgesellschaftliche Ausrichtungen andererseits führen dazu, dass das militärische Handeln zum anderen nicht die Fortsetzung der Politik mit anderen Mitteln im Clausewitzschen Sinne sein kann. Vielmehr hat das militärische Handeln auf allen Ebenen die Ansprüche politischer wie zivilgesellschaftlicher Interessensgruppen zu berücksichtigen und überspannt damit fallweise nicht nur dessen gewünschte Rollenvielfalt, sondern auch seine Handlungsfähigkeiten auf den taktischen, operativen und strategischen Entscheidungsebenen. In diesem Zusammenhang wird oftmals die Idee des »strategischen Gefreiten« formuliert, der neben Kämpfer auch Wiederaufbauhelfer sein soll und dessen taktische Handlungen im Einsatz gesellschaftliche wie politische Bedeutung erreichen können. Ohne Zweifel stellt eine derartige Sichtweise Anforderungen an das militärische Personal, die nach den gegenwärtigen Erkenntnissen der Forschung zum Handeln in Hochrisiko-Berufen zahlreiche Human-Factors-Potenziale bedingt und kritisch analysiert werden muss. Der Soldat und Offizier wird zum komplexen Problemlöser und damit im Zusammenspiel von Mensch, Organisation und Technik auch zur möglichen Fehlerquelle.
15
> Die Vorstellung eines Soldaten, der zivilen Wiederaufbau leistet, Flüchtlinge versorgt und im nächsten Moment mit der Waffe in der Hand gegen Aufständische vorgeht, stellt das Einsatzpersonal vor eine widersprüchliche Rollen- und eine teilweise inkonsistente Aufgabenvielfalt. Die daraus resultierende Unsicherheit kann leicht zur Überforderung des Soldaten führen und damit eher neue Fehlerquellen schaffen, als zur Beseitigung existierender beitragen.
Aufbauend auf diese allgemeinen Rahmenbedingungen und damit verbundenen Problemstellungen sollen die Ereignisse rund um die Entscheidung für den Luftschlag in der Nacht vom 03. auf den 04.09.2009 mit einem spezifischen Blick auf das Lageverständnis der an dieser Entscheidung beteiligten Akteure untersucht werden. Dabei spielen u. a. die Erkenntnisse aus dem 7 Kap. 4 (Wahrnehmung und »Situation Awareness«) eine zentrale Rolle, da die Bereiche Erwartungen und Hypothesen, Aufmerksamkeit, Situation Awareness, Shared Situation Awareness sowie Störeinflüsse in dem Fallbeispiel eindrücklich dargestellt werden können, ohne dabei die spezifischen, aber vielfältigen Human-Factors-Aspekte des militärischen Handelns außer Acht zu lassen.
15.2
Das Lagebild als Ausgangspunkt militärischen Handelns
Das Lagebild ist eines der zentralen Elemente im militärischen Führungsprozess, da es die Grundlage für alle Planungen und Entscheidungen bildet. Dementsprechend umfassend und detailliert sind die konzeptionellen Vorgaben für die Erstellung, Pflege und Auswertung des Lagebildes. Nichtsdestotrotz unterscheiden sich die Probleme im Zusammenhang mit dem militärischen Lagebild kaum von den Herausforderungen, die andere Hochrisikobranchen mit ihren Lagebildern verbinden: Zuverlässigkeit, Konsistenz, Widerspruchslosigkeit und andere Attribute sollen dabei helfen, die Qualität des Lagebildes zu sichern. Letztlich sind es aber immer wieder die Bestrebungen, Konsistenz herzustellen und Unbestimmtheit zu reduzieren,
266
Kapitel 15 • Militär: Handeln in komplexen Problemlagen
die zu Fehlern in der Wahrnehmung und im Aufbau von Lagebildern führen. Ein wesentlicher Faktor für die Konsistenz des Lagebildes ist die Übereinstimmung mit den mentalen Modellen, die Akteure von einer bestimmten Situation (oder Konstellation von Situationen) und der Veränderung der Situation(en) über die Zeit haben. Für die konkrete Ausgestaltung mentaler Modelle spielen auch persönliche Einschätzungen und vergangene Erfahrungen eine entscheidende Rolle. So lässt sich zum Hintergrund für das Fallbeispiel festhalten, dass mit dem Mandat des Sicherheitsrates der Vereinten Nationen vom 20.12.2001 eine internationale Sicherheitsunterstützungstruppe (International Security Assistance Force, ISAF) für Afghanistan legitimiert wurde, an der sich die Bundesrepublik Deutschland über wiederholt erneuerte Bundestagsmandate mit bis zu 5 350 (Sachstand Bundestagsmandat vom 26. Februar 2010) bewaffneten Soldaten beteiligt. Nach anfänglichen Erfolgen hat sich die Sicherheitslage insbesondere seit 2007 stetig verschlechtert.
15
Beispiel
anderem am 25. August 2009 einen Tanklaster im Raum östlich von Kunduz. Die gestohlenen Fahrzeuge wurden häufig in die Dörfer nordwestlich von Kunduz, ungefähr 28 Kilometer vom Lager des [Provicial Reconstruction Team] PRT Kunduz entfernt, verbracht, um sie dort für AutobombenAnschläge umzubauen. Durch den Gebrauch von Polizeifahrzeugen und von zivilen Fahrzeugen wie zum Beispiel Tanklastern für Autobomben-Anschläge hatten die Aufständischen die Möglichkeit, nahe an die Kräfte und Einrichtungen der ISAF und der afghanischen Sicherheitskräfte heranzukommen. Insbesondere in den Wochen vor der Wahl in Afghanistan am 20. August 2009 gab es einen starken Anstieg an Aufständischen-Aktivitäten in der Provinz Kunduz. [S.14] […] Allein im Jahr 2009 gab es bis zum 04. September 2009 fünf Anschläge mittels Tank- oder anderer Lastkraftwagen mit großer Sprengladung, zuletzt am 25. August 2009, als ein Selbstmordattentäter mit einem Tanklastwagen einen fahrzeuggestützten Anschlag im Zentrum der Stadt Kandahar verübte, bei dem 47 Menschen getötet und 70 verletzt wurden. [S.15]«
»Die gesamte Bedrohungslage für die Provinz Kunduz wird von der ISAF mittlerweile als erheblich eingestuft. [S.11] […] Die Zahl der Angriffe stieg innerhalb der letzten drei Jahre erheblich, wobei sich die Aktivitäten der Aufständischen oft entlang der Hauptversorgungsstraßen konzentrieren, wo die Bewegungen der ISAF-Soldaten leicht vorhersehbar sind. Bewegungen der deutschen Sicherheitskräfte sind nur beschränkt unter ständiger Anschlagsbedrohung und vielfach nur auf den Hauptstraßen und in den Hauptortschaften möglich. Die sonstigen Bereiche werden von den Aufständischen beherrscht. [S.12] […] Die Bundeswehr wurde bisher durchschnittlich mehr als 15 Mal pro Monat auf unterschiedlichste Weise von Aufständischen angegriffen und war gezwungen, in umfassenden militärischen Operationen und Gefechten zu antworten. […] Den Aufständischen gelang es in den Monaten vor dem 04. September 2009 mehrfach, Kleintransporter der Afghanischen Nationalpolizei und andere Fahrzeuge zu entführen, um sie als Autobomben einzusetzen. So entwendeten sie unter
Die Entwicklung der Lage über die letzten Monate weckte Erwartungen und stützte Hypothesen über mögliche Bedrohungsszenarien bei den verantwortlichen militärischen Führern. Gemäß der Absicht, die eigenen Truppen zu schützen, musste jede Entwicklung, die einen komplexen Anschlag zur Folge haben würde, unterbunden werden. Ein Szenario, in dem ein Tanklaster gegen das Wiederaufbauteam der Bundeswehr im Feldlager Kunduz (PRT Kunduz) eingesetzt werden könnte, wurde durch die Entwicklungen vor Ort hypothetisch möglich und war durch den Eingang entsprechender Meldungen konsistent im Sinne des gesamten Lagebildes. Nachdem am 03.09.2009 Meldungen über die Entführung zweier Tanklaster durch die Taliban eingegangen waren, hielten die handelnden Personen das Szenario eines Anschlags auf das PRT Kunduz für glaubwürdig und zeitnah realistisch. Die Entscheidungen, die auf diesem Lagebild aufbauten, waren somit folgerichtig angesichts der vorhandenen Informationen und der geteilten Bedrohungseinschätzung. Das Lagebild am 03.09.2009 wurde durch aktuelle Meldungen über das bislang
267
15.2 • Das Lagebild als Ausgangspunkt militärischen Handelns
schwerste Feuergefecht, das deutsche Truppen bis dahin geführt hatten, und durch Meldungen über Aktivitäten einer bekannten Taliban-Gruppierung im Umfeld des PRT Kunduz ergänzt. Auch diese Ereignisse stützen die Erwartung und die Hypothese einer möglichen Eskalation der Gesamtsituation.
15
wurden Annahmen aufgestellt, die eine Anwesenheit von Zivilisten in Frage stellt. Die Handlungssituation war deutlich davon geprägt, bestätigende Informationen für ein auf militärischen Hypothesen beruhendes Lagebild zu finden. Beispiel
Beispiel »Gegen 20.30 Uhr erhielt Oberst Klein die Information, dass im Laufe des späten Nachmittages zwei Tanklastzüge auf einer Hauptverbindungsstraße südlich von Kunduz durch aufständische Gruppen aus dem Raum Aliabad entführt worden seien. Diese Information wurde ihm von einem Mitarbeiter seines Stabes mündlich übermittelt, der von Hauptmann X unterrichtet worden war. Absicht der Aufständischen war es danach, diese Fahrzeuge über den Kunduz-Fluss nach Westen und dann in den Raum Ak Shak (sogenanntes Zweistromland) zu verbringen, um sie von dort aus für Angriffe gegen afghanische Sicherheitskräfte und gegen ISAF-Soldaten zu nutzen. Oberst Klein nahm diese Meldung sehr ernst, zumal er erst wenige Tage zuvor, am 25. August 2009, von der Entführung eines anderen Tanklasters im Raum östlich von Kunduz Kenntnis erhalten hatte. Auch hinsichtlich des Vorfalls vom 25. August 2009 ging Oberst Klein davon aus, dass das Fahrzeug präpariert und gegen die afghanischen Sicherheitskräfte und die deutschen Soldaten eingesetzt werden sollte. [S.18]«
Am Abend des 03.09.2009 legte die militärische Führung im PRT Kunduz einen wesentlichen Schwerpunkt ihrer Aufmerksamkeit auf die entführten Tanklaster, um einer möglichen Bedrohung der eigenen Truppen rechtzeitig entgegenwirken zu können. Im Zuge dieser Schwerpunktsetzung sind offenbar auch Filter- und Selektionsprozesse in Kraft gesetzt worden, die eine umfassende kritische Neubewertung außer Acht ließen. Dies trifft insbesondere auf die fundamentale Frage zu, ob bei einem Luftschlag gegen die Tanklaster zur Ausschaltung der latenten Bedrohung auch Zivilisten zu Schaden kommen könnten. Im gesamten Aufbau des Lagebildes wurden immer wieder bestätigende Informationen dafür gesucht, dass sich keine Zivilisten in unmittelbarer Nähe aufhielten, und falls dies nicht eindeutig zu beantworten war,
»Um sicherzugehen, dass sich nur Aufständische, keinesfalls aber unbeteiligte Zivilisten vor Ort aufhielten, befahl Oberst Klein dem Hauptmann X in der Zeit bis zum Bombenabwurf zumindest sieben Mal, die Quelle anzurufen und sie nach eventuellen Veränderungen der Lage vor Ort und danach, ob es sich bei den anwesenden Personen ausschließlich um Aufständische handelte, befragen zu lassen. Einen Anlass, von der Anwesenheit von Zivilisten auszugehen, hatte Oberst Klein zu keinem Zeitpunkt. Es ging ihm vielmehr darum, sein Lagebild abzurunden und ständig zu überprüfen, ob Veränderungen auf der Sandbank eingetreten waren. Jedes Mal wurde ihm die Information der Quelle weitergeleitet, es befänden sich nur Aufständische und keine Zivilisten auf der Sandbank. Anlass, an der Richtigkeit der Angaben der Quelle zu zweifeln, hatte Oberst Klein nicht, zumal die von ihr gelieferten Informationen mit den übertragenen Videobildern korrespondierten und sich die Quelle in der Vergangenheit als zuverlässig erwiesen hatte. [S.24f.] […] Aufgrund der ihm vorliegenden Informationen der menschlichen Quelle, der Luftbilder und der Gesamtumstände, insbesondere aufgrund der Lage der Sandbank außerhalb einer Ortschaft an einem bekannten Annäherungsweg der Aufständischen, des Umstandes, dass nach seinen Erfahrungen dort nachts nur Aufständische unterwegs waren, der Uhrzeit und der Tatsache, dass Ramadan war und Zivilisten während des Fastenmonats nachts erfahrungsgemäß ihre Häuser nicht verlassen, hielt er es für ausgeschlossen, dass sich andere Personen als Taliban vor Ort aufhielten. Er ging auch davon aus, dass sich die Fahrer der Tanklaster nicht mehr in der Nähe der Tanklaster aufhielten, sondern, wie bei der Entführung anderer Fahrzeuge wenige Tage zuvor, sehr schnell von den Fahrzeugen getrennt worden waren. [S.26]«
268
Kapitel 15 • Militär: Handeln in komplexen Problemlagen
Die »Richtigkeit« des Lagebildes und der darauf beruhenden Lagebeurteilung, die beide auf »objektiven« Fakten beruhten, wird in der Beweiswürdigung durch den Generalbundesanwalt sogar noch einmal explizit herausgestellt. Die Konsequenz dieser Aussagen ist aus Human-Factors-Sicht eindeutig: wenn der einzelne Entscheider objektiv keinen Fehler gemacht hat, muss das Zusammenwirken im gesamten soziotechnischen Umfeld zur Katastrophe geführt haben. Beispiel
15
»Vielmehr ließen der Ort und die Zeit des Geschehens den Schluss zu, dass sich ausschließlich Taliban bei den Tanklastern aufhielten. Das Gebiet, in dem sich die Furt befindet, ist eine Hochburg der militanten Aufständischen. Wer von ihnen als Gegner wahrgenommen wird, unterliegt dort am Tag und insbesondere in der Nacht einer erheblichen Bedrohung. Die Taliban hatten mehrfach in der Region illegale Kontrollposten entlang der Hauptverbindungsstraßen errichtet, an denen Personen, die nicht zu den Taliban-Sympathisanten zählen, ohne jeglichen Grund erschossen worden waren. Der Aufenthalt an der strategisch wichtigen Furt – insbesondere zur Nachtzeit – war für Zivilisten zwangsläufig mit der Qualifizierung als Feind seitens der Taliban verbunden. Dies wiederum war gleichbedeutend mit akuter Lebensgefahr. Daher bestand objektiv kein Anlass, von der Anwesenheit von Zivilisten auszugehen. Anhaltspunkte dafür, dass die Taliban in dieser Nacht Treibstoff an die Zivilbevölkerung verschenkten, hatte Oberst Klein ebenfalls nicht. [S.29]«
15.3
Shared Situation Awareness im militärischen Handeln
Kaum ein Bereich im militärischen Handeln ist derart streng und umfassend geregelt, wie der Einsatz von Waffengewalt gegen menschliche Ziele. Für die Waffenfreigabe und den Einsatzbefehl ist eine Vielzahl von Akteuren zu beteiligen. Im vorliegenden Fall sind nicht weniger als elf relevante Akteure (Personen und Organisationseinheiten) beteiligt gewesen: Oberst Klein, Hauptmann X, ein Mitarbeiter des Stabes, der Fliegerleitoffizier (JTAC
– Joint Terminal Attack Controller), die Piloten der zwei Jagdflugzeuge, ein Sprachmittler, ein Protokollführer, ein Informant, der Air Liason Officer Task Force 47 Mazar-i-Sharif und das Hauptquartier der ISAF in Kabul. Nachträglich wurde sogar festgestellt, dass weitere (konzeptionell sowie durch militärische Verfahren und Einsatzgrundsätze vorgesehene) Akteure nicht beteiligt wurden. Die Vielfalt der stattgefundenen Interaktionsund Kommunikationsprozesse wurden auch durch moderne Technologien unterstützt, so z. B. durch Live-Übertragung von Videobildern der Kameras der Jagdflugzeuge in den Befehlsstand der Task Force 47. Die Problematisierung der Herstellung eines gemeinsamen Lageverständnisses beruht auf der Vielfältigkeit der Informationskanäle und die damit verbundenen Möglichkeiten von Übertragungsund Verständigungsproblemen. Dies zeigt sich insbesondere bei der notwendigen nominellen Klassifizierung von Situationen, aus denen sich dann weitere Schritte im Vorgehen legitimieren lassen. Im vorliegenden Fall betrifft dies die Waffenfreigabe für den Bombenabwurf auf das Ziel, die nur im Fall einer direkten Feindberührung erlaubt ist und wenn dabei sicher keine Zivilisten zu Schaden kommen. Während das erste Element durch eine Auslegung, mithin also durch eine Interpretation des Lageverständnisses zu Stande kam, wurde das zweite Element durch selektiv wahrgenommene Informationen aus dem Lagebild als sicher angenommen. Beispiel »Kurze Zeit danach nahm Hauptfeldwebel Y Kontakt zum Hauptquartier der ISAF in Kabul auf, um Ersatz anzufordern. Von dort wurde ihm mitgeteilt, dass Luftunterstützung nur gewährt werden könne, wenn »Troops-in-Contact« (TIC), also »Truppen mit Feindberührung« erklärt werde. Dies gab der JTAC an Oberst Klein weiter. […] Oberst Klein entschloss sich daraufhin, eine »Troops-in-Contact«Lage aufgrund einer unmittelbaren Bedrohung (»imminent threat«) zu erklären. Eine unmittelbare Bedrohung sah Oberst Klein in der Anwesenheit einer großen Gruppe Bewaffneter und der Tanklastwagen nur wenige Kilometer vom PRT entfernt, die sich bei Befreiung der festgefahrenen Tankfahr-
269
15.3 • Shared Situation Awareness im militärischen Handeln
zeuge oder einer Bewegung der Aufständischen in Richtung des PRT in kürzester Zeit realisieren könnte. Er war sich darüber im Klaren, dass Feindberührung im Wortsinn nicht bestand, ging jedoch davon aus, dass dies allen Beteiligten, mithin auch dem zuständigen Mitarbeiter im ISAF-Hauptquartier bekannt war. Um 01:04 Uhr teilte der JTAC die Entscheidung des Kommandanten dort mit. [S.23] […] Bereits um 01:08 Uhr erreichten zwei ISAFJagdflugzeuge den Luftraum über der Sandbank und meldeten sich beim JTAC Hauptfeldwebel Y an. Er unterrichtete die Besatzungen darüber, dass sich keine eigenen oder verbündeten Streitkräfte, sondern 50 bis 70 Aufständische im Zielgebiet befänden. Ab 01:17 Uhr konnten die Geschehnisse am Boden auf der Video-Leinwand wieder verfolgt werden. [S.24] […] Es folgten Gespräche zwischen dem JTAC und den Besatzungen über grundsätzliche Fragen zur Waffenauswahl im Rahmen eines Weaponing und Targeting. Dabei schlugen die Besatzungen zunächst den Abwurf von 2 000-Pfund-Bomben vor. Diesen Vorschlag lehnte Oberst Klein ab, da er zuvor darauf hingewiesen worden war, dass beim Abwurf von 2 000-Pfund-Bomben Kollateralschäden an dem in der Nähe befindlichen Gehöft nicht auszuschließen wären. Vielmehr erteilte er Hauptfeldwebel Y den Auftrag, den Waffeneinsatz mit den Piloten mit dem Ziel der minimalen Waffenwirkung, eng begrenzt auf die Tanklastzüge, die sie umgebenden Aufständischen sowie auf keinen Fall über die Sandbank hinaus abzusprechen. [S.26] […] Gegen 01:40 Uhr gab Oberst Klein den Befehl zum Waffeneinsatz, weil er in den nur wenige Kilometer vor dem PRT befindlichen Tanklastern eine erhebliche Bedrohung sah. [S.25] […] Die von den Flugzeugbesatzungen empfohlene »Show-of-Force«, also ein tiefer Überflug mit dem Ziel, die Menschen vor Ort zu vertreiben, lehnte Oberst Klein ab, weil er davon ausging, dass die anwesenden Personen das Motorengeräusch der seit Stunden kreisenden Flugzeuge gehört und sich dennoch nicht vom Ort entfernt hatten. [S.26] […] Oberst Klein wies daher Hauptfeldwebel Y an, die Piloten aufzufordern, direkt anzugreifen und jeweils eine 500-Pfund-Bombe mit Zündzeitverzögerung auf die beiden Tanklaster abzuwerfen […]. Einen Waffeneinsatz gegen die flüchtenden Perso-
15
nen verbot er entgegen dahingehenden Vorschlägen der Piloten ebenso wie einen Angriff auf die am Flussufer befindlichen Fahrzeuge. [S.27]«
Wesentlich beeinflusst wird die Herstellung der Shared Situation Awareness durch die Art und die Nutzung der Informations- und Kommunikationstechnologien. In diesem Fall sind dies auf dem auditiven Kanal die Medien Funk sowie Telefon und auf dem visuellen Kanal die Übertragung von Videobildern in Echtzeit. Jedoch zeigt sich auch hier, dass die Interpretation von Informationen aus auditiven und visuellen Daten spezielles Hintergrundwissen verlangt. So können z. B. Luftbilder nur durch erfahrenes Personal beurteilt werden. Und die telefonische Kommunikation über einen Sprachmittler mit einem Informanten birgt nicht nur Übermittlungs-, sondern auch Verständigungs- und Interpretationsfehler. Letztlich verfügten in dem vorliegenden Fall alle beteiligten Personen über ein gemeinsames, sprich: vergleichbares, Lagebild. Jedoch ist die Frage der Übereinstimmung dieses Bildes mit der Realität unbeantwortet geblieben und im Sinne der Beweiswürdigung auch nicht als relevant bewertet worden. Es galt für die richterliche Bewertung allein das vorhandene Lagebild und dessen hinlänglich rational begründeten Annahmen als ausschlaggebend. Beispiel »Keine der durch den Generalbundesanwalt vernommenen Personen hat bekundet, dass Oberst Klein zivile Opfer erwartete. Vielmehr haben sie überzeugend geschildert, weshalb auch sie keine Zweifel an dem gewonnenen Lagebild hatten, nach dem sich ausschließlich Taliban bei den Tanklastern aufhielten. Alle vernommenen Personen haben insbesondere darauf hingewiesen, dass die Angaben der Quelle und die übertragenen Videobilder in hohem Maße übereinstimmten. [S.27] […] Auch die Auswertung des vorliegenden Videomaterials bietet keine Anhaltspunkte dafür, dass Oberst Klein die Tötung oder Verletzung von Zivilisten oder die Beschädigung ziviler Objekte erwartete. Vielmehr stützt sie die Einschätzung der in der Taktischen Operationszentrale anwesenden Personen, dass die Angaben der Quelle mit den Videobildern korrespondierten und ein stimmiges Lagebild vorhanden war. [S.34]«
270
Kapitel 15 • Militär: Handeln in komplexen Problemlagen
Als Erkenntnis aus diesem Fallbeispiel lässt sich deutlich festhalten, dass ein geteiltes Lagebild nicht nur allein aufgrund von Wahrnehmungs- und Übertragungsfehlern beeinträchtigt wird, sondern eben auch durch die aktive Konstruktion und Beeinflussung der Lagewahrnehmung durch die Beteiligten. Diese Erscheinung stellt hohe Anforderungen an die Validierung geteilter Lagebilder und sollte in der Forschung dezidierter untersucht werden, besonders für den Fall des militärischen Handelns.
15.4
15
Human Factors im militärischen Handeln
In der historischen Betrachtung hat die Bedeutung der Human-Factors-Forschung auf den unterschiedlichen militärischen Führungsebenen zugenommen und die strategischen und taktischen Überlegungen nachhaltig beeinflusst. Grundlegend für diese Entwicklung waren Erkenntnisse aus den Natur- und Geisteswissenschaften, die das Menschenbild und das Wissen über den Menschen prägten und im militärischen Denken verankert wurden. Dies zeigt sich z. B. an der Entwicklung vom einfachen Kämpfer und Söldner des Mittelalters über die »Auftragstaktik« in der Neuzeit bis hin zum Soldaten als Bürger oder Bürgerin in Uniform im modernen zivilgesellschaftlichen Verständnis. Deutlicher noch wird dies bei der Einbettung des Menschen in technisch stetig komplexer werdende Waffentechnologien und Kommunikationssysteme. Über die gesamte Spannbreite militärischen Handelns, von der Aufklärung, der Entscheidung und Führung bis hin zum Einsatz von Waffen, bildet der Mensch dabei immer den bestimmenden Faktor. Um diesen Entwicklungen Rechnung zu tragen, wurden die Streitkräfte mit dem beginnenden 21. Jahrhundert unterschiedlichen Veränderungsprozessen (Transformation bzw. Reform) unterzogen, die bis heute andauern und deren Ergebnis noch nicht abzusehen ist. > Die zentrale Bedeutung des Menschen erfährt gegenwärtig neue Aufmerksamkeit, da militärische Streitkräfte zunehmend in Frieden schaffenden oder erzwingenden
bzw. Stabilisierungsmissionen eingesetzt werden und dort überwiegend Maßnahmen des zivilen Wiederaufbaus sowie der Sicherheitsvorsorge leisten. In derartigen Szenarien kommt dem militärisch Handelnden eine wichtige Schlüsselrolle zu, da nicht der physische Kampf, sondern das Überzeugen und Unterstützen im Vordergrund steht. Derartige Aufgaben werden nicht mit der Waffe in der Hand, sondern durch das Lösen komplexer Probleme in kritischen Situationen gemeistert (unberührt davon bleibt das Beispiel des Oberst Klein und andere Einsätze von Waffengewalt, von denen die deutsche Bevölkerung seit 2009 zunehmend in Kenntnis gesetzt wurde).
Für die Betrachtungen der Human Factors im militärischen Bereich ist der Mensch in unterschiedlichen Handlungskontexten zu verstehen und im Sinne einer umfassenden Human-Factors-Analyse zu untersuchen. Zu den Kontexten gehört zum einen der Mensch als Soldat und Führer im Einsatz in modernen Konfliktszenarien, zum anderen der Mensch als Element einer komplexen und technologisch komplizierten Handlungskette im militärischen Prozess aus Aufklärung, Führung und Wirkung – letztlich der Mensch als Meinungsträger und Meinungsbildner im sicherheitspolitischen Kontext. Im angeführten Fallbeispiel lässt sich recht deutlich erkennen, welche analytische und methodische Trennschärfe dabei berücksichtigt werden muss, um die Wechselwirkungen zwischen Mensch, Organisation und Technik identifizieren sowie bewerten zu können. Daher sind insbesondere bei der Anwendung von Human-Factors-Analysen militärischen Handelns Weiterentwicklungen notwendig. Human Factors (HF) als Produkt des Militärs Human-Factors-Analysen (HFA) gehören seit rund 100 Jahren zu den Kernthemen der militärischen Forschung (7 Kap. 1). Die Anfänge der HF-Arbeiten liegen nach Hunter (1997), Christensen (1958) oder Driskell (1989) im 1. Weltkrieg, wobei in dieser Zeit Methoden zur Aus-
15.4 • Human Factors im militärischen Handeln
wahl und zum Training geeigneter Soldaten im Vordergrund der HF-Analysen standen (s. dazu auch Yerkes, 1918, 1919). Durch psychologische Auswahlverfahren sollten Soldaten rekrutiert werden, die sich schnell und problemlos in ihr Aufgabengebiet einfinden konnten. Außerdem sollte deren Lernphase durch verbesserte Trainingsmethoden beschleunigt und optimiert werden. Die U.S. Armee beauftragte im Jahr 1917 Psychologen (darunter bekannte Namen wie Thorndike, Woodworth, Watson oder Thurstone), um zu diesem Zweck Tests und Trainingsmethoden zu erstellen, wobei dieser Auftrag jedoch nach 1918 endete (Hunter, 1997). In Frankreich, England und Italien wurde nach dem 1. Weltkrieg wissenschaftliche Forschung auf Gebieten wie Emotion und Wille, aber auch zu physiologischen Reaktionen während des Fliegens betrieben. Die Auswahlverfahren für Piloten sollten verbessert werden, da während des Krieges offensichtlich wurde, dass viele Verluste nicht auf Fehler der Technik, sondern auf sog. menschliches Versagen zurückzuführen waren. Angesichts der Erfahrungen aus dem 1. Weltkrieg und den Entwicklungen im Vorfeld des 2. Weltkriegs forcierte die AAAP (American Association of Applied Psychology) die Einbindung der angewandten Psychologie in die Forschungs- und Entwicklungsbereiche des U.S. Rüstungs- und Verteidigungssektors. Hauptaugenmerk lag hier zunächst auf der Luftfahrt. In England wurden zur selben Zeit an der Abteilung für angewandte Psychologie der Universität von Cambridge die ersten HF-Experimente zur Verbesserung von Ausrüstungsdesigns durchgeführt (Kraft, 1961; Christensen, 1958; Roscoe, 1997). Während des Krieges wurden diese Anstrengungen allerseits forciert und auch auf Fragestellungen der Marine und des Heeres ausgeweitet. Errungenschaften dieser Forschungen sind bis heute als Standard akzeptiert, z. B. die rote Nachtbeleuchtung in Führungszentralen und Gefechtsständen, die die Dunkeladaptation nicht stören. Nach dem Krieg wurden Programme zur psychologischen HF-Forschung v. a. auf die
271
15
zivile Luftfahrt ausgeweitet, die zu Beginn noch von der U.S. Armee finanziert wurden. Bis in die 1970er-Jahre war das Gebiet der Human Factors durch das Militär, die Luftfahrt und die Seefahrt dominiert. Kommerzielle Unternehmen interessierten sich noch wenig für HF-Forschung.
Die moderne Human Factors-Forschung basiert auf vielen empirischen Human- und Sozialwissenschaften. Hier stellt sich zum einen die Frage nach der handlungspraktischen Verantwortung und zum anderen nach der Weiterentwicklung der Analyse. Mit der Loslösung von den rein ergonomischen Fragestellungen und der Hinwendung zu umfassenden Arbeitsplatz-, Handlungs-, Organisations-, Kommunikations- und Interaktionsanalysen hat die Human Factors-Forschung wesentlich dazu beigetragen, das Militär als ganzheitliches System zu begreifen. Im Sinne der Forschungsarbeiten zum komplexen Problemlösen in kritischen Situationen (Badke-Schaub & Frankenberger, 2003) hat die HumanFactors-Forschung den Zugang zur Analyse auf die Ursachen von systemischen Fehlerprozessen in militärischen Führungsprozessen ermöglicht. Die Aufgaben der Streitkräfte lassen sich am besten mit einer Erweiterung der klassischen Charakteristika des komplexen Problemlösens beschreiben: Komplexität, Eigendynamik, Bedrohung, Zielpluralität, Unbestimmtheit, Irreversibilität, interkulturelles Umfeld und Deprivation. Sie finden sich wieder auf allen Betrachtungsebenen: Individuum, Gruppe bzw. Team, Organisation. Der Mensch wird dabei multidimensional verstanden (. Abb. 15.1). Deshalb ist es (auch) für das Militär nötig, ein umfassendes Begriffsverständnis von Human Factors zugrunde zu legen. Eine Eingrenzung auf Teilaspekte wie kognitive Ergonomie greift zu kurz. Deshalb hat der Begriff eine Erweiterung erfahren, die folgende Themenbereiche betreffen: 5 Belastung und Stress vor, während und nach dem Einsatz (siehe z. B. Publikationen des Zentrums für Innere Führung, ZInFü, http://www.innerefuehrung.bundeswehr.de);
272
Kapitel 15 • Militär: Handeln in komplexen Problemlagen
... integraler Bestandteil jedes (soziotechnischen) Systems ... Führer / Geführter
... Planer
... Verantwortlicher
... Handelnder
... Wissensträger
Der Mensch als...
... Kommunikator
... Schwachstelle
... Teammitglied
... Problemlöser
... Entscheider ... Element der MenschMaschine-Schnittstelle
. Abb. 15.1
15
Human-Factors-Aspekte
5 Belastung und Beanspruchung durch die Ausrüstung, die Ausstattung und das Material (z. B. Flugpsychologie); 5 Anforderungen an die Qualität des Führungspersonals und damit verbunden die Steigerung von Vertrauen in das Führungspersonal (teilweise erforscht vom Sozialwissenschaftlichen Institut der Bundeswehr, SoWiBw, http://www.sowi.bundeswehr.de); 5 Kognitive Ergonomie der Nutzung und Bedienung von technischen Systemen; 5 Interaktions- und Kommunikationsprozessanalysen in Führungseinrichtungen, v. a. bei geteilten Gefechtsständen durch die Nutzung moderner Informations- und Kommunikationsmedien (z. B. Computer Mediated Communication, CMC); 5 Stimmigkeit von Führungsprozessen, Führungsverfahren, Führungsorganisation und individueller Führungsleistung; 5 Personalauswahl, -beurteilung und -entwicklung; 5 Organisationsentwicklung, Optimierung von Organisationsprozessen;
5 Veränderungsprozesse durch die notwendige Anpassung an ein sich veränderndes Umfeld; 5 Methodisches Rüstzeug bei Übungen und Experimenten, insbesondere bei Analysen im Rahmen von Einsatzvorbereitungen; 5 Wechselwirkungen der Elemente von DIME (»diplomacy«, »infrastructure«, »military«, »economy«) oder PMESII (»policy«, »military«, »economy«, »social«, »infrastructure«, »information«). Eine derartige Erweiterung des Begriffsfeldes birgt natürlich die Gefahr einer Überfrachtung. Daher gilt es insbesondere, die charakteristischen Restriktionen des Militärs zu berücksichtigen. Hierzu zählen die hierarchisch und bürokratisch organisierte Aufbau- und Ablauforganisation, die politischen Vorgaben, wie sie z. B. für die Bundeswehr als Parlamentsarmee von zentraler Bedeutung sind, und natürlich die mikropolitischen Vorgänge in einer Großinstitution mit besonderer Tradition und Geschichte.
273
Literatur
15.5
Zusammenfassung und Ausblick
In dem aufgezeigten Beispiel der Bewertung des durch Oberst Klein angeforderten Luftschlags stand nicht die ethisch-normative Bewertung des Vorgehens im Vordergrund, sondern die Fragen, inwieweit Human-Factors-Aspekte und -Perspektiven zur Analyse einer kritischen Interaktionssituation beitragen können und welchen Stellenwert Human Factors im militärischen Handeln einnehmen. Mit Blick auf den Ursprung und die Entwicklung der Human Factors im Militär lässt sich die erste Frage eindeutig damit beantworten, dass ohne Human-Factors-Betrachtung eine aussagekräftige Untersuchung kritischer Interaktionssituationen nicht denkbar ist. Die Entscheidung des Generalbundesanwaltes, Oberst Klein nicht anzuklagen, obwohl bei dem betrachteten Einsatz eine nicht geringe Anzahl von Zivilisten ums Leben gekommen ist, fordert im Sinne eines nachhaltigen Fehlermanagements geradezu die Betrachtung von Mensch, Organisation und Technik im Gesamtzusammenhang der Human-Factors-Methodologie. Nicht der einzelne Führer hat hier einen Fehler gemacht, sondern das Zusammenwirken aus verschiedenen Akteuren, Prozessen und Strukturen haben letztlich zur dieser Entscheidung geführt. Dringend notwendig ist anzuerkennen, dass sich zur Fehlerbehebung die beteiligten Akteure der Human-Factors-Elemente ihres Vorgehens bewusst sein müssen. Dies führt zu der zweiten Frage nach der Bedeutung von Human Factors im militärischen Handeln insbesondere in völkerrechtlich legitimierten Stabilisierungsoperationen. Aufgrund der offensichtlichen Rollenvielfalt, Zielwidersprüche und politischen Dimension des militärischen Handelns nimmt der Stellenwert einer Human-Factors-Perspektive eher zu als ab. Dementsprechend sollten Ausbildung und Training sowie Konzeptarbeit, Technikentwicklung und Organisationsgestaltung auf diese Belange ausgerichtet sein. Die Streitkräfte erkennen diese Notwendigkeit, wenngleich aufgrund von knappen Budgets, mangelndem Durchsetzungswillen und fehlendem Verständnis der wahre Stellenwert noch nicht erreicht ist. Fortschreitende Veränderungen im Aufgabenspektrum der Verteidigungs- und Sicherheitspoli-
15
tik erfordern eine Umstrukturierung des Militärs und ein Umdenken bei den Streitkräften. Zentrale Veränderungen werden dabei sowohl durch veränderte Bedrohungsszenarien als auch aufgrund des Wandels in der Informations- und Kommunikationstechnik getrieben. Wesentlich, und noch erst in Anfängen anerkannt, muss dabei die ganze Bandbreite der Human Factors bei der Umstrukturierung der Bundeswehr Berücksichtigung finden. Es ist der Mensch, der dabei im Mittelpunkt steht oder doch zumindest stehen sollte. Konzeptionell müssen in nächster Zeit in der kognitiven und sozialen Domäne Fortschritte gemacht werden, v. a. im Hinblick auf die Herstellung und Aufrechterhaltung eines gemeinsamen Lagebewusstseins und Lageverständnisses
(»Shared Situation Awareness«, »Shared Situation Understanding«). Methodologisch müssen die sozial- und humanwissenschaftlichen Methoden in der Weiterentwicklung der Streitkräfte verankert werden. Vor allem ist eine ganzheitliche Betrachtung des Systems Militär mit den Subsystemen Organisation, Prozess, Technik und Mensch – und hier v. a. der Mensch als Problemlöser – notwendig. Eine Human-Factors-Perspektive ist notwendiger integraler Bestandteil der anstehenden Veränderungsprozesse. Den Autoren ist klar, dass weder der Generalbundesanwalt noch dieses Buchkapitel die Frage beantworten, warum nächtlich in einer Sandbank feststeckende Fahrzeuge, die seit Stunden nicht bewegt wurden und von deren Fahrer man annahm, dass sie sich nicht in den Fahrzeugen befanden, eine solche akute Bedrohung darstellen bzw. davon ausgeht, dass man mit einem bodengebundenen Angriff mit ggf. ein paar Hundert Soldaten am nächsten Morgen, wenn wieder Tageslicht herrscht, nicht hat warten können.
Literatur Badke-Schaub, P. & Frankenberger, E. (2003). Management kritischer Situationen. Produktentwicklung erfolgreich gestalten. Berlin: Springer. Bundesminister der Verteidigung (2003). Verteidigungspolitische Richtlinien. http://www.bundeswehr.de [Zugriff am 14.06.2011]. Bundesministerium der Verteidigung (2006). Weißbuch zur Sicherheitspolitik Deutschlands und zur Zukunft der Bundeswehr. http://www.bmvg.de [Zugriff am 14.06.2011].
274
Kapitel 15 • Militär: Handeln in komplexen Problemlagen
Christensen, J. M. (1958). Trends in human factors. Human Factors, 1, 2–7. Dörner, D. (1989). Die Logik des Mißlingens. Reinbek: Rowohlt. Driskell, J. E. (1989). Psychology and the military. American Psychologist, 44, 43–54. Generalinspekteur der Bundeswehr (2004). Grundzüge der Konzeption der Bundeswehr. http://www.bmvg.de. Hobbs, A. (2004). Human factors: the last frontier of aviation safety? The International Journal of Aviation Psychology, 14, 334–341. Hunter, W. S. (1997). Psychology in the war. In J. M. Notterman (Ed.), The evolution of psychology – Fifty years of the American Psychologist (pp. 269–291). Washington, DC: American Psychological Association. Kraft, J. A. (1961). Compilation and brief history of human factors research in business and industry. Human Factors, 3, 253–283. Roscoe, S. N. (1997). The adolescence of engineering psychology. Human Factors History Monograph Series, 1, 1–9. U.S. Department of Defense (2003). Transformation planning guidance. http://www.oft.osd.mil/library/library.cfm?libcol = 6 [Zugriff am 24.01.2008]. Wehrbeauftragter des Deutschen Bundestages (2007). Jahresbericht 2006. Drucksache 16/4700 vom 20.03.2007. Yerkes, R. M. (1918). Psychology in relation to the war. The Psychological Review, 25, 85–115. Yerkes, R. M. (1919). Report of the psychology committee of the national research council. The Psychological Review, 26, 83–149.
15
275
Stabsarbeit und »Ständige Stäbe« bei der Polizei: Sicherheit durch Professionalisierung Uwe Thieme und Gesine Hofinger
16.1
Einleitung – 276
16.1.1 16.1.2
Anforderungen an Polizeiarbeit: Sicherheit trotz komplexer Lagen – 277 Krisenstäbe und Führungsstäbe – 277
16.2
Wie wirklich ist die Wirklichkeit in Stäben der Polizei? – 279
16.2.1 16.2.2 16.2.3 16.2.4
Entscheidungen aufgrund mittelbar gewonnener Information – 279 Selektive Information im Führungsraum – 280 Gemeinsame mentale Modelle im Stab sicherstellen – 281 Eingeengte und unrealistische mentale Modelle – 284
16.3
Teamkommunikation im Stab – 284
16.3.1 16.3.2
Rahmenbedingungen – 284 Hindernisse für die Kommunikation im Stab – 285
16.4
Fehlerprävention im Rahmen der Stabsarbeit: Planentscheidungen – 286
16.4.1 16.4.2 16.4.3
Planentscheidung: Beschreibung und Begründung – 286 Planentscheidungen und menschliches Denken – 287 Weiterentwicklung von Planentscheidungen – 288
16.5
Zusammenfassung – 289 Literatur – 289
P. Badke-Schaub et al., Human Factors, DOI 10.1007/978-3-642-19886-1_16, © Springer-Verlag Berlin Heidelberg 2012
16
16
276
Kapitel 16 • Stabsarbeit und »Ständige Stäbe« bei der Polizei: Sicherheit durch Professionalisierung
16.1
Einleitung
Ein Stab ist ein Beratungsgremium, das Entscheidungen eines Funktionsträgers vorbereitet und unterstützt. Stabsarbeit ist bei der Bewältigung komplexer Ereignisse durch staatliche Institutionen wie der Polizei ebenso wie in der Industrie zunehmend häufiger anzutreffen, sowohl auf taktisch-operativer wie auf strategischer Ebene. Der praktischen Relevanz steht der Mangel an Forschung gegenüber. Zur Einrichtung von Stabsräumen und zur Arbeitsweise von Stäben gibt es Vorschriften (in Deutschland für die Polizei: PDV 100) und Vorschläge (z. B. Davies 1999 zu »command center«), allerdings sind diese erfahrungsbasiert und nicht durch empirische Forschung gestützt. Trotz einer guten Literaturlage zu Entscheidungen in Zwischenfällen bzw. kritischen Situationen (z. B. Flin, 1996; Flin & Arbuthnot, 2002; Klein, 2003; Martin, Flin & Skriver, 1997; Strohschneider, 2003) und zu Teams in komplexen Arbeitsbereichen (z. B. Orasanu & Salas, 1993; Flin, Salas, Strub & Martin, 1997) haben zivile Krisenstäbe erst vereinzelt Forschungsinteresse geweckt (Fink, 1986; von Prondzinsky, 1995; t’Haart, 2001; Thielmann & Papenfuß, 2006), wobei Human Factors selten berücksichtigt werden (aber z. B. Bédé 2009; Horn & Strohschneider, 2005; Rasker & Schraagen, 1999; Starke, 2005). Polizeiliche Stabsarbeit weist Besonderheiten v. a. bei der Informationsverarbeitung oder auch Modellbildung auf, die sicheres Handeln fördern und beeinträchtigen können. Im Folgenden werden die Funktionsweise von (professionellen, eher strategischen) Stäben und die darin liegenden Human-Factors-Probleme anhand von Erfahrungen skizziert. Das folgende Beispiel illustriert die Rolle von Planentscheidungen, auf die in 7 Kap. 16.4 näher eingegangen wird. Beispiel Seit dem Jahr 2000 war bekannt, dass Deutschland im Jahre 2006 Austragungsort der FußballWeltmeisterschaft sein würde. Nach dem Ende der Fußball-WM in Japan und Südkorea 2002 überlegte man mindestens in den Polizeibehörden, in deren Zuständigkeitsbereich Spiele ausgetragen werden sollten, auf welche Szenarien sie sich einstellen
müssten, aber auch einstellen wollten. Zur Veranschaulichung dieses Prozesses wird hier ein bearbeitetes Szenario kursorisch dargestellt. Nicht nur in den 12 Spielstandorten, sondern in vielen Städten Deutschlands war für die WM etwas vorgesehen, wozu es in dieser Breite und dem vorgesehenen Ausmaß nur punktuell Erfahrungen gab, nämlich »public viewing«. Im Jahr 2004 waren viele Fragen noch nicht eindeutig beantwortbar. Zum Beispiel befindet sich in Dortmund unmittelbar neben dem vorgesehenen Platz für »public viewing«, der eine Kapazität von ca. 15 000 Menschen hat, eine große U-Bahn-Station. Diese spielte bei den Überlegungen zu denkbaren Abläufen bei »public viewing« eine wichtige Rolle. Neben dem An- und Abtransport der Zuschauer stellte sich die Frage, welche Abläufe bei einem Szenario wie z. B. sommerlichem Gewitter und den sich daraus entwickelnden Verhaltensweisen der großen Zahl von Zuschauern ergeben. In der Zusammenarbeit zwischen dem Betreiber der U-Bahn, der Feuerwehr und dem Stab der Polizei bestand Einigkeit in der Einschätzung, dass eine große Zahl von Menschen diese U-Bahn-Station zum Schutz aufsuchen wird. Aufgrund der baulichen Gegebenheiten (kleine ebenerdige Fläche, breite Treppen) gingen alle Organisationen einvernehmlich davon aus, dass bei Flucht vor einem Gewitter und damit hohem Personendruck die Gefahr von Treppenstürzen sehr hoch sein würde. Die Beteiligten kamen in einem längeren Entscheidungsprozess zum Ergebnis, dass zum Schutz aller Zuschauer die U-Bahn-Station im Falle eines Gewitters oder ähnlicher Ereignisse auf ein Signal der Polizei hin geschlossen wird. Dazu gab es eine schriftliche Festlegung des Ablaufs, die allen Handelnden zu jeder Zeit zur Verfügung stand. Während der WM 2006 war das Wetter so sommerlich, dass diese Planentscheidung nicht zur Umsetzung kam.
277
16.1 • Einleitung
16.1.1
Anforderungen an Polizeiarbeit: Sicherheit trotz komplexer Lagen
Polizeiliches Handeln findet auf vielen Ebenen und Themenfeldern statt – von der Verkehrskontrolle bis zum Management einer Entführung. Herausragende polizeiliche Einsätze wie z. B. anlässlich der Geiselnahme in Gladbeck 1988, der Fußball-WM 2006, des Weltwirtschaftsgipfels 2007, des Amoklaufs in Winnenden und der Flucht zweier Ausbrecher und Geiselnehmer 2009 sowie fast jährlicher Castor-Transporte in Deutschland zeigen, welche Anforderungen an die Polizei als Organisation und an jeden einzelnen Mitarbeiter gestellt werden. Dabei ist von erheblicher Bedeutung, dass im Unterschied zu anderen öffentlichen Verwaltungen polizeiliches Handeln zwar nicht täglich, aber regelmäßig Bedeutung für Leib und Leben anderer hat. Hinzu kommt, dass die Polizei durchweg im Lichte der Öffentlichkeit agiert. Daraus resultiert, dass polizeiliches Handeln in jeder denkbaren Phase, in Planung, Entscheidung und Umsetzung, hoch reliabel und damit sicher ablaufen muss (7 Kap. 2 und 7 Kap. 5). Die Anforderung heißt »Null Fehler« bzw. »Null fehlerhafte Einsätze« – damit müssen akzentuierte Maßnahmen der Fehlerprävention unverzichtbarer Bestandteil polizeilicher Arbeit sein. Im Folgenden werden Human Factors als Fehlerquellen und Möglichkeiten der Fehlerprävention anhand dreier Beispiele aus dem Bereich der Krisenstabsarbeit beleuchtet: 5 Realitätswahrnehmung und gemeinsame mentale Modelle in Stäben (7 Kap. 16.2); 5 Teamkommunikation im Stab (7 Kap. 16.3); 5 Planentscheidungen (Planung in Szenarien) als Instrument der Fehlerprävention (7 Kap. 16.4). Die hier vorgestellten Themen und Beispiele stammen aus dem Erfahrungsbereich des Erstautors, der Polizei. Sie sind aber auch für die Krisenstabsarbeit in anderen Branchen wie Prozessindustrie oder Rettungswesen relevant.
16.1.2
16
Krisenstäbe und Führungsstäbe
Aus der parlamentarischen Aufarbeitung der Schleyer-Entführung (1977) resultiert die Erkenntnis, dass »außerordentlich komplexe Einsatzstrukturen nicht mehr durch einsame Führung und unsystematische Planungs- und Entscheidungsvorbehalte beherrscht werden« können, denn »jede Organisation im Sicherheitsbereich ist so viel wert, wie sie aus dem Stand heraus zu leisten vermag« (Höcherl, 1978). Außergewöhnliche Einsätze bedürfen also systematischer und teamgestützter Planung. Die Polizei unterscheidet im Wesentlichen zwei Arten besonderer Einsätze. Zum einen planbare Einsätze bei bekannten Anlässen, z. B. Fußballweltmeisterschaft, Demonstrationen, Weltwirtschaftsgipfel. Anlass und Zeitrahmen sind bekannt, erfolgskritische Faktoren können vorab identifiziert und berücksichtigt werden, das Personal kann zielgerichtet vorbereitet werden; es handelt sich um klassische Planungsprozesse. Zum anderen gibt es sog. Ad-hoc-Einsätze, z. B. Amoklagen, Entführungen und Anschläge. Hier ist zwar jeweils der Rahmen des jeweiligen Anlasses vorstellbar, aber weder Datum, genaue Umstände noch Einflussfaktoren sind bekannt. Wenn man die Ereignisse in Amerika vom 11.09.2001 reflektiert, kann es sich sogar um bis dahin »undenkbare« Abläufe handeln (7 Kap. 2.5, Resilienz). Natürlich können sich auch geplante Lagen ungewöhnlich entwickeln und dadurch in Ad-hoc-Lagen übergehen. Die Vorbereitung bedeutsamer polizeilicher Einsätze findet deshalb grundsätzlich mit Stäben statt; häufig mit eigens dafür ausgebildeten Mitarbeitern und unter Berücksichtigung wissenschaftlicher Methoden. Die Umsetzung von Entscheidungen (unmittelbare Einsatzbewältigung) läuft, weitgehend geplant, mit Stäben auf der Grundlage hoch geübter Handlungsroutinen in baulich und technisch besonders ausgestatteten Stabsräumen ab. Ein polizeilicher Führungsstab ist in Vorbereitung und Umsetzung polizeilicher Einsätze ein unterstützendes Gremium: Er setzt sich aus dem Stabsleiter, den verschiedenen Stabsbereichen mit ihren Sachbearbeitern und Fachdiensten sowie Beratern außerhalb der Polizei zusammen (PDV 100).
278
Kapitel 16 • Stabsarbeit und »Ständige Stäbe« bei der Polizei: Sicherheit durch Professionalisierung
Polizeiführer Verantwortlicher Entscheider Trifft ca. 10% der Entscheidungen Stabsleiter Berät Polizeiführer Trifft ca. 10% der Entscheidungen
Stab Berät Polizeiführer und Stabsleiter Trifft ca. 80% der Entscheidungen
Information
Entscheidungen Einsatzkräfte vor Ort
. Abb. 16.1
16
Aufbau und Verteilung der Rollen im Stab
Der polizeiliche Führungsstab ist »Hand und Kopf« des Polizeiführers, der selbst nicht Teil des Stabes ist, jedoch die Gesamtverantwortung trägt. Der Stab soll die Umstände der Einsatzlage abbilden, alternative Vorschläge zur Lösung erarbeiten, Risikoabwägungen vornehmen und die Kommunikation in der Organisation sicherstellen. Die Umsetzung strategischer Entscheidungen des Polizeiführers erfolgt jedoch vor Ort (. Abb. 16.1). Hier kommt der Polizei das Vorhandensein ausgeprägter hierarchischer Strukturen zugute, weil man sich darauf verlassen kann, dass getroffene Entscheidungen entsprechend umgesetzt werden. Derzeit wird in nahezu allen Polizeien die Einrichtung professioneller Einsatzstäbe diskutiert. Dies sind Dienststellen, die sich im Hauptamt mit der Vorbereitung, Durchführung und Nachbereitung besonderer Einsatzlagen befassen. Wesentliche Vorteile professioneller Stäbe sind: 5 Professionelle Stäbe können sich mit nur geringem Zeitverzug einer Einsatzlage widmen. Sie sind durch Vorbereitung von Planentscheidungen (7 Kap. 16.4), Entwicklung von Technik, Handhabung der einschlägigen PCAnwendungen, Durchführung von Übungen und der Nachbereitung bewältigter Einsätze in der Lage, ad hoc auf hohem Niveau Beratung und Unterstützung sicherzustellen.
5 Alle Beteiligten kennen die Strukturen von Delegation, die Notwendigkeiten eines gemeinsamen mentalen Modells (7 Kap. 16.2.3) und die Regeln der Kommunikation im Führungsstab. 5 Probleme in Bezug auf gruppendynamische Prozesse können bereits im Alltag geklärt werden. 5 Mitarbeiter, die im Einsatz aus einer anderen Funktion zum Führungsstab treten, können sich leichter orientieren und integrieren, wenn das Kernteam bereits funktioniert. Nachteilig ist neben dem personellen und finanziellen Aufwand zu bemerken, dass es schnell zu Erfahrungsdiskrepanzen innerhalb eines Führungsstabes, auch in Bezug auf den Polizeiführer, kommen kann. Wenn ein Kernteam über einen großen Erfahrungsschatz verfügt, der Entscheider jedoch deutlich unerfahrener ist, kann dies zu Erwartungs- und Beurteilungsdifferenzen und Entscheidungsmängeln führen. Darüber hinaus ist die Gefahr gegeben, dass in einem professionellen Stab das Phänomen des »groupthink« (Janis, 1972) auftritt. »Groupthink« ist ein Denkmuster, in das insbesondere hoch kohäsive, gut harmonisierende und eingespielte Gruppen verfallen können, wenn das Bestreben der Gruppe nach Einmütigkeit das
16.2 • Wie wirklich ist die Wirklichkeit in Stäben der Polizei?
. Abb. 16.2
279
16
Führungsraum im Polizeipräsidium Dortmund »in Aktion«. (Foto: Peter Bandermann. © Peter Bandemann)
Streben nach realistischer Alternativengenerierung und -bewertung übertönt (7 Kap. 7). Aus den daraus entstehenden Fehleinschätzungen der »Wirklichkeit« und Entscheidungsfehlern resultiert eine suboptimale Beratung zum Schutz der Gruppenstruktur.
16.2
Wie wirklich ist die Wirklichkeit in Stäben der Polizei?
16.2.1
Entscheidungen aufgrund mittelbar gewonnener Information
Um Probleme der Realitätswahrnehmung in polizeilichen Stäben nachvollziehen zu können, ist ein kleiner Exkurs zur Entscheidungsfindung in polizeilichen Stäben erforderlich. Anders als die Feuerwehr, bei der sich der Einsatzleiter unmittelbar am Schadensort aufhält, befindet sich in den meisten Bundesländern der oder die Verantwortliche der Polizei (Polizeiführer) bei herausragenden Einsatzlagen meist in vorbereiteten Räumen beim
Führungsstab (. Abb. 16.2). So kann er oder sie relativ unbeeinflusst von der Hektik des Augenblicks entscheiden. Diese Aufteilung in taktisch-operative Führung vor Ort und strategische Führung im Führungsraum ist auch in anderen Ländern üblich, z. B. als »bronce/silver level« (vor Ort) vs. »gold level« (strategische Führung in Führungsräumen) in Großbritannien (siehe z. B. Pearce & Fortune, 1995). Andererseits kann der Entscheider sich so kein unmittelbares eigenes Bild der Lage machen – damit aber auch nicht eigenen Wahrnehmungstendenzen (7 Kap. 4) in die Falle gehen, wie z. B. dem aktuell Wahrgenommenen größere Wichtigkeit zuzugestehen als vorher erlangten Informationen. Im Rahmen der festzulegenden Delegation streben gut vorbereitete polizeiliche Stäbe eine quantitative Verteilung der Entscheidungen von »80–10–10« an. Dies bedeutet, dass 80% aller Entscheidungen selbstständig durch die Sachbearbeiter des Stabes, der bis zu 50 Personen stark sein kann, getroffen werden. 20% aller erforderlichen Entscheidungen laufen auf den Leiter oder die Leiterin des Führungsstabes zu, der oder die die Hälfte davon selbst trifft und die andere Hälfte (die
280
Kapitel 16 • Stabsarbeit und »Ständige Stäbe« bei der Polizei: Sicherheit durch Professionalisierung
. Abb. 16.3
16
Lagewand im Führungsraum Polizeipräsidium Dortmund (© Uwe Thienemann, Polizeipräsident Dortmund)
kritischen Entscheidungen) an den Polizeiführer weiterleitet. Der Polizeiführer ist in dynamischen Lagen mit großem Umfang an Entscheidungen gerade noch in der Lage, sich ausreichend diesen erfolgskritischen Entscheidungen zu widmen. Eine durchschnittliche Entscheidungsdichte von 1,0–1,5/ min über viele Stunden ist nicht außergewöhnlich. Dies bedeutet, dass der Polizeiführer und der Leiter des Führungsstabes bei einer 10 h andauernden Einsatzlage jeweils ca. 50–60 themenbezogen heterogene Entscheidungen von erheblicher Tragweite treffen müssen. Dies kann eine extrem hohe psychische und physische Belastung darstellen. Damit ist klar, dass keine Einzelperson alle für die Lage relevanten Informationen aufnehmen und verarbeiten kann. Das Bild der Lage »im Kopf« der Stabsmitglieder ist also immer ein bruchstückhaftes, das nur durch Teamkommunikation vervollständigt werden kann (7 Kap. 16.3 sowie 7 Kap. 7 und 7 Kap. 8). Jedoch besteht in der Informations-
weitergabe durch die Teamkommunikation die Gefahr, dass Informationen verfälscht werden (»stille Post«).
16.2.2
Selektive Information im Führungsraum
Die polizeiliche Stabsarbeit wird in Standardformularen (Mehrfachvordrucke oder via PC) dokumentiert und nach einem festgelegten Verfahren an die Entscheider im Stab weitergeleitet. Außerdem findet eine für alle Stabsmitglieder sichtbare handschriftliche Darstellung der entscheidungsrelevanten Informationen auf sog. Lagewänden (. Abb. 16.3) statt. Dokumentation und Lagedarstellung bzw. -fortschreibung nehmen erfahrene Stabsmitarbeiter als ausschließliche Aufgabe wahr. Informationen an der Lagewand, die sich als über-
281
16.2 • Wie wirklich ist die Wirklichkeit in Stäben der Polizei?
holt oder falsch erweisen, werden sofort aktualisiert. Dokumentation und die Informationen der Lagewand konstruieren eine »Wirklichkeit« (Watzlawick & Krieg, 1991), welche die ausschließliche Grundlage für die Entscheidungen des Polizeiführers darstellt. > Diese Komplexitätsreduktion ist Voraussetzung für die Handlungsfähigkeit des Stabes und zugleich eine mögliche Fehlerquelle.
Stabsarbeit ist im Wesentlichen auf Informationen von außen angewiesen. Es gehen zwar quantitativ regelmäßig die meisten Informationen zum Geschehen mündlich (Telefon oder Funk), per Fax oder E-Mail in den Führungsstab ein (zur Rolle der Sprache für die Kommunikation 7 Kap. 8), Lageräume mit stark technikunterstützten Systemen bieten aber die Möglichkeit, auch bei deutlicher Entfernung zu Ereignisorten eine Vielzahl visueller und akustischer Eindrücke zu vermitteln (7 Kap. 11). Kamerabilder von Hubschraubern können ebenso zum Führungsstab übermittelt werden wie aus dem Bereich von Einsatzorten, z. B. Fußballstadien. Auch kann man ggf. Gespräche zwischen Geiselnehmer und den Verhandlungskräften der Polizei mithören. Darüber hinaus unterstützt moderne Technik, wie mehrere Projektoren und interaktive Leinwände, individuelle kabellose Übertragung von Tonsignalen sowie eine zielgerichtet auf Kommunikation abgestellte Tischform, das Arbeiten in dynamischen Einsatzlagen (. Abb. 16.2). Dieser Technikeinsatz scheint auf den ersten Blick von großem Nutzen zu sein. Doch es bedarf großer Erfahrung, mit derartig präsentierter Information umzugehen. Die Gefahr, die gesehenen Bilder für die »ganze Realität« zu halten, ist nach Erfahrung der Autoren gerade bei visueller Information sehr groß. Der Realitätsausschnitt, den z. B. die Bilder des Hubschraubers zeigen, wirkt so echt und unmittelbar, dass subjektiv das Gesehene kaum angezweifelt werden kann. Dass die Bilder nur einen kleinen Ausschnitt der Realität vermitteln, wird von unerfahrenen Betrachtern insbesondere in Situationen mit hoher emotionaler und Arbeitsbelastung nicht immer erkannt.
16
Daneben darf der Aspekt der emotionalen Beeinflussung nicht verkannt werden. Wer klagende und weinende Geiseln unmittelbar gehört hat, wird dies bei seinen Entscheidungen berücksichtigen. Auch die gehetzte Stimme eines erschöpften Kollegen über das Telefon kann zur »Emotionsansteckung« (Bandura, 1986) führen und so Entscheidungen beeinflussen. Beispiel Anlässlich der Bewältigung einer Geiselnahmelage in NRW erweckte eine Geisel in Telefonaten mit der Polizei überzeugend den Eindruck, sie sei durch einen Schuss schwer verletzt worden. Dies führte zu erheblichem zeitlichen und emotionalen Druck beim Entscheider der Polizei, der diese Telefonate auch gehört hatte, und löste früher als geplant operative Maßnahmen der Polizei aus. Tatsächlich war die Geisel unverletzt und hatte aus nachvollziehbaren Gründen eine »falsche Realität« produziert, die zwar in der Konsequenz nicht zu Nachteilen führte, aber dies sehr leicht hätte tun können, z. B. durch einen vorzeitigen und ggf. unvollständig vorbereiteten polizeilichen Zugriff bei hohem Risiko für die Geiseln und Einsatzkräfte.
> Ob im Stabsraum oder »vor Ort« – Entscheidungen müssen in kritischen Situationen immer aufgrund begrenzter Informationen getroffen werden. Es ist unseres Erachtens vorteilhaft, Entscheidungen fern vom Geschehen aufgrund gefilterter Information mit wenig emotionalem Gehalt zu treffen, wenn diese Filterung bewusst reflektiert wird und man seine Konstruktion der Wirklichkeit nicht für die »Realität« hält.
16.2.3
Gemeinsame mentale Modelle im Stab sicherstellen
Das in 7 Kap. 16.2.1 angesprochene abgestufte Entscheidungsmodell »80–10–10« ist nur dann tragfähig, wenn innerhalb des Stabes bei der Einsatzbewältigung ein gemeinsames Bild zu den Gesamtumständen vorliegt. In der Gruppe muss
282
Kapitel 16 • Stabsarbeit und »Ständige Stäbe« bei der Polizei: Sicherheit durch Professionalisierung
weitgehender Konsens nicht nur über die relevanten Geschehnisse, sondern auch zu den Einflussgrößen der Problembewältigung herrschen, d. h., es muss ein sog. gemeinsames mentales Modell bestehen (»shared mental model«, s. auch 7 Kap. 7 und 7 Kap. 8 sowie zu Krisenstab Horn & Strohschneider, 2005; zu mentalen Modellen z. B. Cannon-Bowers & Salas, 2001; Cannon-Bowers, Salas & Converse, 1993; Tschan & Semmer, 2000). Aufgaben- Interaktions- und Equipmentmodell Ein
gemeinsames mentales Model bedeutet, dass allen an der Entscheidung Beteiligten neben den Umständen der Situation (»situation awareness«, 7 Kap. 4) jederzeit gleichermaßen der Bezugsrahmen klar sein muss: 5 Welches Problem ist zu bewältigen? 5 Welches Ziel soll erreicht werden? 5 Welches Risiko ist der Polizeiführer bereit einzugehen? 5 Welche externen und internen Einflussfaktoren sind bekannt und welche sollen berücksichtigt werden? 5 Welche Rolle nehme ich bei der Problemlösung wahr? 5 Welche Rolle nehmen andere (und damit nicht ich) dabei wahr?
16
Diese Fragen entsprechen dem Aufgaben- und Interaktionsmodell in der Unterteilung von Cannon-Bowers, Salas & Converse (1993). Auch über verwendete Technologie und Sprache muss ein gemeinsames mentales Modell bestehen (Equipment-Modell). Dies ist bei professionellen Stäben durch häufiges gemeinsames Arbeiten problemlos zu erreichen, kann aber bei Ad-hoc-Stäben ohne ausreichende Übungen nicht vorausgesetzt werden. Das gilt auch für das notwendige mentale Modell über die anderen Teammitglieder – nur über wiederholte gemeinsame Arbeit ist ein gemeinsames Modell der Fähigkeiten und Eigenheiten der einzelnen Stabsmitglieder erreichbar. Gemeinsames Modell als Erfolgsfaktor Fehlen
diese gemeinsamen mentalen Modelle, kommt es zwangsläufig zu Friktionen, z. B. laufen Entscheidungen nicht mehr auf die gleichen Ziele zu. Auch geteiltes, aber sachlich falsches Wissen führt
zu Fehlentscheidungen. Die positive Entwicklung eines gemeinsamen Modells ist dagegen ein wichtiger Erfolgsfaktor bei der Bewältigung komplexer zeitkritischer Einsatzlagen mit Stäben (vgl. auch Stout, Cannon-Bowers, Salas & Milanovich, 1999). Diese Entwicklung vollzieht sich erfahrungsgemäß nicht von allein. In Situationen ohne Zeitdruck kann ein Team durch Informationsaustausch ein gemeinsames Situationsbild gewinnen. Doch bei Zeitknappheit und in hierarchischen Strukturen bedarf es eines Verantwortlichen für die Gestaltung des gemeinsamen mentalen Modells; es ist eine der wichtigsten Aufgaben des Leiters eines Stabes und bedarf umfassender Vorbereitung. Aus diesem Grund sind bei der Polizei Nordrhein-Westfalen lediglich 6 von 44 000 Beamten für diese Funktion bei der Bewältigung von Geiselnahmen, Entführungen, Großschadens- und Amoklagen vorgesehen. Rahmenbedingungen Die Entwicklung und Auf-
rechterhaltung gemeinsamer mentaler Modelle gelingt in der Praxis nur dann, wenn nicht erst bei der Krisenbewältigung selbst Einfluss genommen wird, sondern vorbereitende Maßnahmen viel früher ansetzen. So sind zur Erzeugung eines gemeinsamen mentalen Modells optimale räumliche und strukturelle Rahmenbedingungen erforderlich. In Übereinstimmung mit Schneider, Graham, Bauer, Bessiere & Gonzalez (2004) sind bei der Bewältigung dynamischer Lagen ohne Möglichkeit zum ruhigen Austausch unverzichtbar: 5 Gelegenheit zur gegenseitigen Beobachtung, 5 uneingeschränkte Kommunikationsmöglichkeit mit allen an der Entscheidung Beteiligten sowie 5 festgelegte Arbeitsteilung und -abläufe. Diese Bedingungen können aus Sicht der Verfasser nur erreicht werden, wenn der Stab in einem Raum arbeitet. Idealerweise sitzen die Mitarbeiter so, dass sie den Polizeiführer sehen und hören können. Die Sitzordnung scheint ein Nebenaspekt, doch ungünstige Raumgestaltung kann effektiven Austausch verhindern. Neben den handwerklichen Vorbereitungen, wie Sitzordnung, müssen Stabsmitarbeiter weit vor Einsätzen aktiv für das Thema gemeinsamer mentaler Modelle sensibilisiert wer-
16.2 • Wie wirklich ist die Wirklichkeit in Stäben der Polizei?
den. Nur dann können sie eine positive Entwicklung mitgestalten. Verfahren zur Aufrechterhaltung des gemeinsamen Modells Auch im Einsatz sind aktive Maßnahmen
zur Bildung und Aufrechterhaltung eines gemeinsamen mentalen Modells wichtig. Als erfolgreich praktikabel hat sich das folgende Verfahren erwiesen: Der Leiter des Führungsstabes fasst, nachdem sich alle Mitarbeiter für ihren Bereich einen kurzen Überblick verschafft haben – in der Regel nach ca. 10 min – die bekannten Umstände der zu bewältigenden Einsatzlage (z. B. Informationen zu Opfern, Tätern, eigenen Kräften, Einsatzmitteln, Medienverhalten, Schaulustigen, Verkehrssituation) zusammen. Jeder Mitarbeiter im Stab sowie der Polizeiführer werden angesprochen und es wird eine kurze Bestätigung, Änderung oder Ergänzung eingefordert. Danach fasst der Leiter des Führungsstabes kurz zusammen und stellt damit die Grundlage für die folgende Arbeit vor. Dieses Verfahren ähnelt im Ablauf der Lagebesprechung. Diese bezieht sich jedoch ausschließlich auf die äußeren Umstände des Einsatzanlasses. Das hier geschilderte Vorgehen dient vorrangig der Etablierung eines gemeinsamen mentalen Modells; es dauert mit geübtem und sensibilisiertem Personal auch bei komplexen Sachverhalten maximal ca. 10– 15 min. Es wird regelmäßig wiederholt, und zwar in Abhängigkeit von der Dynamik der Einsatzbewältigung (je dynamischer, desto häufiger). Hierbei hat sich bei hochdynamischen Lagen ein Rhythmus von ca. 90 min als vertretbar herausgestellt. Bei weniger dynamischen Lagen ist eine Zeitspanne von 3–4 h akzeptabel. Zum Vergleich: Bei einer Schadenslage in der chemischen Industrie werden z. T. alle 15–20 min die relevanten Informationen ausgetauscht (G. Horn, mündl. Mitteilung 2005). Was auf den ersten Blick wie eine zusätzliche Belastung erscheint, ist eine unverzichtbare »Kurskorrektur«, die durch die Sicherung des gemeinsamen Verständnisses maximale Sicherheit für die Organisation, aber auch jeden Einzelnen bringt. Erst durch das regelmäßige Update des Situationsbildes wird ein arbeitsteiliges selbstständiges Agieren, gleichwohl im Team, möglich.
283
16
Nutzen oder Belastung? Obwohl viele Untersu-
chungen gemeinsame mentale Modelle als Einflussfaktor auf die Teamleistung untersucht haben und als unverzichtbare Größe bestätigen (Orasanu & Salas 1993, Rasker & Schraagen 1999, Rouse, Cannon-Bowers & Salas 1992), bleiben Fragen. Wie kann ausbalanciert werden, dass alle gemeinsam denken sollen, aber jeder trotzdem für sich denken muss? Fraglich ist nicht, ob ein gemeinsames Bild gut für den Stab ist, sondern in welchem Rhythmus, welcher Intensität und in welchen Grenzen ein Austausch individueller Situationsmodelle stattfindet. Es gibt unseres Wissens keine Untersuchungen aus Krisenstäben zu der Frage, ab welchem Umfang Bemühungen um ein tragfähiges gemeinsames mentales Modell ins Negative (Belastung für die Mitarbeiter) umschlagen oder wie sich der »grüne Bereich« zwischen Unter- und Überversorgung gestaltet (auch zu anderen Branchen liegen hier keine übertragbaren Erkenntnisse vor). Hier spielt sicherlich das jeweilige Einsatzthema, aber auch die Vertrautheit des Teams untereinander (»blindes Verstehen«) eine Rolle. Anzunehmen ist nach Tschan & Semmer (2000), dass das Interaktionsmodell und das Teammodell hoch übereinstimmen sollten. Es ist v. a. wichtig, dass jeder weiß, wer welche Informationen hat; es muss nicht jedes Teammitglied den Überblick über die Situation behalten (vgl. Flin, 1996). »Ständige Stäbe« Die Verbesserung gemeinsamer mentaler Modelle im Team durch Reflexion in der Nachbereitung von Einsätzen kann nur gelingen, wenn die Stabsmitarbeiter mit einer gewissen Wahrscheinlichkeit wieder gemeinsame Einsätze leisten werden. Dies ist aber weder bei der Polizei noch bei anderen Krisenstäben durchgängig sichergestellt. Polizeiliche Führungsstäbe sind, wie andere Krisenstäbe auch, regelmäßig Aufrufstäbe. Das heißt, es ist bei Alarmierung zu einem Ad-hocEinsatz (7 Kap. 16.1.2), v. a. außerhalb der üblichen Bürodienstzeiten, von Zufällen und Erreichbarkeiten abhängig, wie sich der Stab personell zusammensetzt. Zwar ist den Mitarbeitenden ihre Aufgabe bekannt, doch wer mit wem am Tisch sitzt, ist erst klar, wenn alle eingetroffen sind. Einige Bundesländer (z. B. Brandenburg, Nordrhein-Westfalen, Schleswig-Holstein) versuchen
284
Kapitel 16 • Stabsarbeit und »Ständige Stäbe« bei der Polizei: Sicherheit durch Professionalisierung
diesem Problem durch besondere Dienststellen (»Ständige Stäbe«) entgegenzutreten. Diese befassen sich zum einen mit der Vorbereitung von Stabsarbeit in kritischen Situationen, andererseits bilden ihre Mitarbeiter im Einsatzfall das »professionelle Gerüst« eines Führungsstabes. Ständige Stäbe können über wiederholte gemeinsame Einsätze und Reflexion kontinuierlich lernen, in Einsatzsituationen schnell und effektiv gemeinsame mentale Modelle zu bilden.
16.2.4
Eingeengte und unrealistische mentale Modelle
Trotz aller Bemühungen um eine möglichst geteilte Realitätsabbildung im Stab kommt es durch unterschiedliche Information und Interpretation zu auseinanderdriftenden Wirklichkeiten. Beispiel
16
Anlässlich einer Demonstration mit teilweise gewalttätigem Verlauf forderte der Polizeiführer eine Situationsbeschreibung ein und erhielt sie telefonisch von einem vor Ort befindlichen Mitarbeiter. Dieses Gespräch konnte der Leiter des Führungsstabes anhand der Äußerungen des links von ihm sitzenden Polizeiführers mithören. Es handelte sich offensichtlich um einen sehr kritischen Zustand mit erheblichen Gefahren für die eingesetzten Polizeibeamten und den Verlauf der Versammlung. Zeitgleich ging eine Situationsschilderung bei einem anderen Mitarbeiter ein, der rechts vom Führungsstabsleiter saß, die sich offenkundig als sehr entspannt ohne Gefahren und Probleme darstellte. Erst nach dem Vergleich der jeweiligen Äußerungen des Stabsmitarbeiters und des Polizeiführers war klar, dass es sich um dieselbe Situation handelte. Im Rahmen der Nachbereitung konnte ermittelt werden, dass der erstgenannte Berichterstatter erstmalig an einem vergleichbaren Einsatz teilnahm, während der andere Berichterstatter ausgeprägte Erfahrung hatte, was zu den erheblichen Beurteilungsdifferenzen führte.
In diesem Fall war es möglich, die eklatanten Unterschiede wahrzunehmen und auszugleichen. Man
stelle sich aber vor, beide Berichte hätten jeweils isoliert Maßnahmen ausgelöst. So wären aufgrund des ersten Situationsberichts zusätzliche Polizeikräfte mit dem Auftrag der Beendigung der Versammlung eingesetzt worden. Dies hätte sowohl taktische als auch politische Folgen gehabt. Solche Probleme sind nicht zu verhindern. Deshalb werden sensibilisierte Mitarbeiter regelmäßig den Abgleich mit der Lageeinschätzung der anderen Gruppenmitglieder suchen. Dies verlangt die Bereitschaft, den eigenen ersten Annahmen widersprechende Informationen zu suchen, also entgegen dem »confirmation bias« zu handeln (z. B. Tversky & Kahneman, 1974; Rassin, 2008; 7 Kap. 4.5).
16.3
Teamkommunikation im Stab
Mit Teamkommunikation im Allgemeinen befasst sich 7 Kap. 8. Hier werden nur einige spezielle Faktoren, die zum Gelingen oder Misslingen der Kommunikation im Stab beitragen können, erläutert.
16.3.1
Rahmenbedingungen
Raum Die Kommunikation in einem Führungs-
stab wird in ausgeprägter Form beeinflusst von der Art, wie Mitarbeiter mit ihren Arbeitsplätzen räumlich angeordnet sind. Die Mitglieder eines Stabes, die in unterschiedlichen Räumen arbeiten, können in zeitkritischen Einsatzlagen zwar miteinander telefonieren, die zeitgleiche Übermittlung anderer Informationen oder nonverbaler Zeichen ist jedoch nicht möglich. In diesen Fällen wird sich regelmäßig kein gemeinsames Bild über die Situation ergeben. Eine situationsangemessene Beratung durch den Stab kann dann schwerlich erfolgen. Der Stab wandelt sich in solchen Situationen von einem Beratungs- und Unterstützungsgremium in das »Sprachrohr« eines nahezu allein entscheidenden Polizeiführers. Damit nun nicht alle dem Stab zugehörigen Mitarbeiter in einen gerade zur Verfügung stehenden Raum gezwängt werden müssen, ist die Frage der Raumkapazität bei der Planung ein wichtiges Kriterium.
285
16.3 • Teamkommunikation im Stab
Anwesenheit des Polizeiführers Die Frage, ob sich der Entscheider unmittelbar am Ort des Geschehens aufhalten muss oder beim Führungsstab arbeiten, sich dort beraten und unterstützen lassen soll, wird kontrovers diskutiert. Vor Ort könnte er ungefiltert authentische Eindrücke erhalten, dies wäre aber nur ohne Begleitung seines Stabes sinnvoll möglich. Dass ein Polizeiführer vor Ort kein gemeinsames mentales Modell mit dem Führungsstab aufbauen kann, da sich seine Wahrnehmungen und Bewertungen aus anderen Quellen speisen, spricht unseres Erachtens deutlich dafür, beim Stab zu arbeiten. Zudem ist fraglich, ob die durch Anwesenheit gewünschte direkte Kommunikation und unmittelbare Wahrnehmung an einem Ort bei hoher Belastung überhaupt möglich ist. Moderation Der Polizeiführer kann als Entscheider nicht die Moderation für den Führungsstab leisten. Deshalb ist innerhalb der Polizei eindeutig geklärt, dass ein Führungsstab von einem anderen Mitarbeiter (Stabsleiter) geleitet wird, um den Polizeiführer zu entlasten und weil der Aufgabe der Stabsführung eine hohe Bedeutung beigemessen wird. Dies entspricht dem Vorgehen in der Industrie (z. B. Notfallmanager; vgl. Horn & Strohschneider, 2005) und bei der Feuerwehr (zur Doppelspitze bei zivilen Stäben s. Gahlen & Kranaster, 2008). Technik Eine weitere Rahmenbedingung für Kommunikation in Stäben ist die eingesetzte Technik. Außenstehende und Vorgesetzte halten gern den Einsatz neuester Technik für einen Ausweis von Leistungsfähigkeit. Dies ist aber nicht unbedingt so: Telefone mit unbekannter Handhabung, um mit dem Trivialsten zu beginnen, stellen in Situationen hoher Belastung einen erheblichen Stressfaktor dar. PC-Anwendungen, Präsentationsmöglichkeiten (z. B. digitale Whiteboards) sowie andere technische Komponenten, die die Stabsarbeit unterstützen können, müssen vorher bekannt und geübt sein, sonst binden sie die Arbeitskapazität des Nutzers.
16.3.2
16
Hindernisse für die Kommunikation im Stab
Im Rahmen polizeilicher Stabsarbeit nehmen viele Faktoren auf Teamkommunikation Einfluss (vgl. Hofinger, 2005); einige wenige davon sollen hier angesprochen werden. Störungen Da wo Menschen miteinander arbeiten und sprechen, ist jede externe akustische Beeinträchtigung eine Belastung. Telefone mit lauten Signalen, Lautsprecher, die zum Mithören eingeschaltet sind, Fax-Geräte und Projektoren, die dauerhaft unangenehme Geräusche verursachen, schlagende Türen, Raucher – das alles stört ungemein und verringert die kognitiven Kapazitäten der Stabsmitarbeiter und beeinträchtigt die sprachliche Kommunikation (Ungerer, Hesel & Morgenroth, 1993; Kloepfer, 2006). Solche Störungen sind vermeidbar, ebenso wie Andrang von Besuchern und Beobachtern. Neben der emotionalen Behinderung der Arbeit durch das Gefühl des Beobachtetseins, insbesondere wenn Vorgesetzte anwesend sind, verursachen Besucher unnötigen Lärm, lenken von der eigentlichen Arbeit ab und verschlechtern das Raumklima. So waren z. B. im Verlauf des Einsatzes bei der Geiselnahme Gladbeck zeitweise etwa 27 Personen im Lagezentrum anwesend, von denen aber nur etwa 16 Personen unmittelbar mit der Einsatzbewältigung befasst waren (Bremische Bürgschaft, 1988, S. 143). Hierarchien Vertikale Kommunikation in einer
ausgeprägten Hierarchie kann eine offene Beratung verhindern (Badke-Schaub, 2005). Der Erstautor hat in seinen ersten Einsätzen als Leiter eines Führungsstabes in guter Absicht Lösungsideen zur offenen Diskussion gestellt, die jedoch überraschend durchweg Zustimmung erhalten haben. Erst nachdem bewusst wurde, dass die Zustimmung nicht aus dem intellektuellen Gehalt, sondern überwiegend aus der Position des Vorschlagenden entstanden war, konnte Abhilfe geschaffen werden, indem nunmehr lediglich die Probleme beschrieben und Lösungsvorschläge erbeten wurden. Die vorgeschlagenen Lösungen waren ohne »Präjudiz« eines Vorgesetzten offen gestaltet (vgl. Baron, Kerr & Miller, 1992, s. auch 7 Kap. 8.4).
286
Kapitel 16 • Stabsarbeit und »Ständige Stäbe« bei der Polizei: Sicherheit durch Professionalisierung
Vorbereitung Möglichst genaue Planung
Szenarienbildung
Umzusetzende Entscheidungen
Planentscheidungen für erste Phase des Einsatzes lassen Spielraum
Auswertung Verbesserung der Planung
Weiterentwicklung der Szenarien Geplante Lagen
. Abb. 16.4
Ungeplante Lagen
Funktion und Einsatz von Planentscheidungen
Vertrauen In kritischen Situationen müssen alle Beteiligten bereit sein und einander genug vertrauen, um Risiken und individuelle Bedenken angemessen offen auszusprechen. Nur ausgeprägtes Vertrauen (s. dazu Bierhoff & Rohmann, 2010) bildet eine Basis für eine umfassende Risikobewertung; wer in Sorge arbeitet, nach dem Einsatz heftig kritisiert zu werden, kann nicht frei diskutieren. Ansonsten ergeben sich Situationen, dass kritische Aspekte regelmäßig in kleinem Kreis außerhalb des Raumes besprochen werden, dies behindert Stabsarbeit aber stark. Darum gehört eine intensive Personalauswahl, vertrauensbildendes Verhalten der Führungskräfte und das Erarbeiten klarer Regeln zu unverzichtbarer Vorbereitung.
ment hierfür sind Planentscheidungen für außergewöhnlich kritische Einsatzanlässe (wie Amoklagen, Geiselnahmen etc.), die ähnlich »emergency operation procedures« in der Luftfahrt (Reinwarth, 2003) bei Eintritt definierter Szenarien anzuwenden sind. Derartige Planentscheidungen werden u. a. von den »Ständigen Stäben« der Polizei in NRW verwendet. Die grundlegende Polizeidienstvorschrift (PDV 100 – Anlage 20) definiert »Planentscheidung« als »vorbereitete Entscheidungshilfe für mögliche Ereignisse und Entwicklungen«. Es geht also um Rahmenpläne nach dem Muster »Wenn Situation X, dann Handlung/Zuständigkeit Y«. z
16
Auswertung
16.4
Fehlerprävention im Rahmen der Stabsarbeit: Planentscheidungen
16.4.1
Planentscheidung: Beschreibung und Begründung
Auch bei optimaler Kommunikation und aktiver Bildung gemeinsamer mentaler Modelle sind Einsätze mit hohem Stress verbunden und Entscheiden unter Stress ist immer auch fehleranfällig (Flin & Steward, 1996; 7 Kap. 5 und 7 Kap. 6). Daher ist ein Weg der Fehlerprävention in kognitiv und emotional hoch belasteten Situationen wie außergewöhnlichen Einsätzen, nicht auch noch zusätzlich denken und planen zu müssen. Ein Instru-
Vorteile von Planentscheidungen
5 Verkürzung von Entscheidungsprozessen, 5 Antizipationsmöglichkeit für Ausführende, dadurch Handlungssicherheit, 5 Gleichheit der Entscheidungen bei gleichen Sachverhalten, 5 Fürsorge für die Mitarbeiter durch vorweggenommene Übernahme der Verantwortung.
Planentscheidungen, die nur für Ad-hoc-Lagen denkbar sind, müssen trotz konkreter Regelungen immer Entscheidungsspielraum offen lassen, um der Bandbreite denkbarer Situationsentwicklungen gerecht zu werden (. Abb. 16.4). Planentscheidungen sollen allerdings regelmäßig aktualisiert und fortgeschrieben werden (Kleinschmidt & Rückheim, 2009; PDV 100 Ziffer 1.5.3.1).
16.4 • Fehlerprävention im Rahmen der Stabsarbeit: Planentscheidungen
Nur ein Entscheidungsträger hat die Aufgabe zu klassifizieren, wie ein bestimmter Lebenssachverhalt zu bewerten ist (»Ist dies Situation X?«). Erst danach beginnen die in der Planentscheidung festgelegten Entscheidungs- und Handlungsketten in definierten Ebenen. Wird z. B. in einer Polizeibehörde jemand von einer anderen Person festgehalten und mit einer Waffe bedroht, so darf die Klärung, ob es sich hier nach polizeilicher Definition um eine Geiselnahme handelt und damit umfangreiche personelle, technische und taktische Maßnahmen eingeleitet werden, keine Zufallsentscheidung mit wechselndem Niveau sein. Deswegen ist festgelegt, dass nur der Leiter oder die Leiterin der Einsatzleitstelle diese Entscheidung trifft. Antizipativ zu treffende Entscheidungen für die Anfangsphase des polizeilichen Einsatzes auf der Grundlage der definierten Szenarien (z. B. einer Entführung) 5 Ziel des Einsatzes 5 Leitlinien für den Einsatz (Beschränkungen, Entscheidungsvorbehalte) 5 Struktur der einschlägigen Einsatzorganisation 5 Wer führt den Einsatz (Polizeiführer)? 5 Mit welchem Personal (wer, wie viel?) 5 Wo befindet sich der Platz des Polizeiführers (vor Ort, in vorbereiteten Räumen?) 5 Alarmierungsverfahren 5 Zu verwendende Technik 5 Aufträge 5 Berichte (vorbereitete Textbausteine) Diese Punkte können im Voraus für Ereignisklassen festgelegt werden, ohne das konkrete Ereignis schon zu kennen.
Der optimale Umfang solcher Planentscheidungen wird kontrovers diskutiert. Sie sollen jedoch die hoch belasteten Einsatzkräfte vor Ort entlasten und Gleichförmigkeit polizeilichen Handelns sicherstellen. Gleichförmigkeit des Handelns verlangt Detailliertheit der Vorentscheidungen. Wenn die Planentscheidung entlasten soll, dürfen die Unterlagen aber auch nicht zu ausführlich sein, da sonst die gewollte Entlastung durch Vorwegnahme von Entscheidungen durch die kognitive und
287
16
emotionale Belastung konterkariert würde. Mehrseitige Verfahrensangaben werden u. U. im Einsatz schlicht nicht gelesen. Es hat sich bewährt, allen denkbaren Führungskräften vor Ort eine sog. Ein-Blatt-Lösung zur Verfügung zu stellen. Eine solche (wetterfeste) Unterlage, im Layout identisch für alle vorbereiteten Szenarien, gleichwohl durch deutliche Zeichen klar zuzuordnen, wird dann genutzt, wenn darin die Einsatzorganisation mit Erreichbarkeiten und durchzuführende Aufträge verfügbar sind. Duplikate dieser Unterlagen mit deutlich weitergehenden Ausführungen liegen dem Polizeiführer vor. So wird sichergestellt, dass alle Beteiligten trotz Entfernung voneinander auf gleicher Grundlage arbeiten. Planentscheidungen finden dort ihre Grenzen, wo sich das »richtige Leben« nicht mehr mit dem angenommenen Szenario in Einklang bringen lässt oder aber die Situation sich so weit entwickelt hat, dass die zwangsläufig relativ abstrakten Überlegungen nicht mehr sinnvoll sind. Diesen Punkt der Lösung von Planentscheidungen und des Übergangs zu eigenen neu entwickelten Entscheidungen im Einsatz zu bestimmen, bedarf der Erfahrung aus Übungen und realen Einsätzen. Das Handeln in und mit Planentscheidungen erfordert generell eine umfassende Aus- und Fortbildung und regelmäßige Übungen (7 Kap. 18). Eine gediegene und vorausschauende Vorsorge ist nur sichergestellt, wenn die Arbeitsweise aller beteiligten Organisationseinheiten vorgeplant und in ihrer Durchführung eingeübt ist. Hierfür sind Planspiele und Rahmenübungen erforderlich (Höcherl, 1978).
16.4.2
Planentscheidungen und menschliches Denken
Im Umgang mit detaillierten Planentscheidungen stellt sich natürlich die Frage, ob sie beim Nutzer als Hilfe oder Behinderung ankommen. Zudem: Fördern Planentscheidungen eigene kreative Lösungen oder blockieren sie diese? Planentscheide können nur Fehler vermeidend wirken, wenn sie angewendet werden. Dazu müssen sie sowohl aktuell und anwendbar sein als auch Akzeptanz finden, was durch übersichtlich gestal-
288
Kapitel 16 • Stabsarbeit und »Ständige Stäbe« bei der Polizei: Sicherheit durch Professionalisierung
tete Ein-Blatt-Lösungen, aber auch durch Eindeutigkeit der Begriffe und Vorstellbarkeit der Szenarien sichergestellt werden kann. Akzeptiert werden Vorgaben umso eher, je weniger sie das Kompetenzgefühl einschränken. Die wahrgenommene Einschränkung hängt vom aktuellen Kompetenzgefühl der Mitarbeiter ab (7 Kap. 6.2). Für hoch belastete Einsatzkräfte wird das Moment der Entlastung im Vordergrund stehen – durch vorweggenommene Entscheidungen werden Ressourcen frei und ein Gefühl der Handlungssicherheit gegeben. In weniger krisenhaften Einsatzphasen können Vorgaben v. a. bei Führungskräften, die selbstständiges Entscheiden gewohnt sind, zu Reaktanz führen (Brehm, 1966). > Planentscheide können helfen, Fehler zu vermeiden, indem Handelnde durch die Vorwegnahme von Entscheidungen entlastet werden. Dies gelingt nur, wenn die Anwendung durch Akzeptanz und Training sichergestellt werden kann.
Die Erfahrung zeigt, dass Führungskräfte, die in Fortbildungsmaßnahmen und Übungen mit Planentscheidungen eingebunden waren, diese durchgängig als eine stabile Hilfe sehen. So sind Aussagen wie »Ich konnte die Pflichtaufgaben nachlesen und hatte den Kopf frei für eigene Überlegungen« nur möglich, wenn Planentscheidungen im Vorfeld bekannt sind. Grenzen werden den Mitarbeitern jedoch dann gesetzt, wenn Vorgesetzte Planentscheidungen kleinteilig zu ihrer eigenen Entlastung einsetzen (»Es war aber vorgesehen, …«, »Warum haben Sie nicht …?«).
16
16.4.3
Weiterentwicklung von Planentscheidungen
Wie erwähnt, ist der Einsatz von Planentscheidungen nur sinnvoll, wenn sie schon vor dem Ereignis bekannt und akzeptiert sind. Dies kann nur durch regelmäßige Fortbildung und Übungen mit den betreffenden Führungskräften erreicht werden. Die Vorbereitung und Durchführung solcher Übungen und Fortbildungen sowie die Entwicklung und Pflege von Planentscheidungen erfordert neben der Fähigkeit zu planendem Denken ausreichend Er-
fahrung, um sich in die Situation der Führungskraft vor Ort hineinzudenken und ihre Bedürfnisse sowie die der Gesamtorganisation zu berücksichtigen. Die (Weiter-)Entwicklung, Erstellung und Verbreitung von Planentscheidungen ist keine einmalige Aktion, sondern vielmehr ein dauerhafter Prozess in ständiger Auseinandersetzung mit realen Fällen. Auf jede Übung und jeden Einsatz sollte eine strukturierte Nachbereitung folgen. Aus polizeilicher Sicht ist eine Nachbereitung die systematische Überprüfung und Auswertung eines polizeilichen Einsatzes, um Einsatzerfahrungen verwertbar zu machen, Lösungsmöglichkeiten für erkannte Schwachstellen zu erarbeiten und Führungsentscheidungen transparent zu machen. (PDV 100 – Anlage 20). Die Ergebnisse der Nachbereitung werden kritisch mit den vorhandenen Planentscheidungen verglichen, was zur Überarbeitung führen kann. Darüber hinaus zwingt jede Änderung von Erreichbarkeiten oder Strukturen zur Bearbeitung, mit der Folge, dass die geänderte Version flächendeckend an eine große Zahl potenzieller Führungskräfte verteilt werden muss (dezentrale Verfahren in diesem Zusammenhang haben sich im Vergleich zu zentralen Maßnahmen nicht bewährt, weil Änderungen nicht oder nicht gleichförmig angepasst werden und Layouts sich im Laufe der Zeit unterschiedlich entwickeln, was die Kompatibilität im Gebrauch und den Austausch der Führungskräfte deutlich erschwert). Der Aufwand, der für Planentscheidungen geleistet werden muss, ist unseres Erachtens gerade unter Human-Factors-Aspekten gerechtfertigt. Wir halten sie für ein wertvolles Hilfsmittel bei der Bewältigung von Ad-hoc-Einsätzen. Sie können helfen, Denk- und Entscheidungsfehler durch Überlastung zu vermeiden. Unterstützt wird diese Position durch Erfahrungen anderer Branchen mit standardisierten Abläufen, z. B. den »emergency operation procedures« der Luftfahrt (Reinwarth, 2003). Wünschenswert wären aber empirische Untersuchungen über Nutzen und Grenzen der Planentscheidungen in realen Lagen.
289
Literatur
16.5
Zusammenfassung
Stabsarbeit ist von vielfältigen Anforderungen und Fehlermöglichkeiten inhaltlicher und psychologischer Art geprägt. Trotz der Relevanz für sicheres Handeln gibt es kaum Literatur, die sich direkt auf Stäbe bezieht. Stabsarbeit ist – nicht nur bei der Polizei – nötig, um komplexe Lagen zu bewältigen. Doch die isolierte Situation des Stabs birgt auch Fehlermöglichkeiten. Als Fehlerquellen wurden die Gefahr eingeschränkter und verzerrter Realitätswahrnehmung, das Fehlen gemeinsamer mentaler Modelle und Probleme der Teamkommunikation aufgezeigt. Eine Möglichkeit, präventiv Fehler zu verhindern, ist der Einsatz von Planentscheidungen. Diese sind Vorwegnahmen von Entscheidungen anhand von Szenarien, die in kritischen Situationen entlastend wirken und so in Stresssituationen Fehler verhindern können. Aktuelle Ausbildung zur Stabsarbeit in Deutschland behandelt die Stabsaufgaben, den Stabsaufbau und -einsatz, aber Human-Factors-Themen wie gemeinsame Modellbildung, Informationsverzerrung etc. werden in der Ausbildung bislang nicht berücksichtigt. Da zu erwarten ist, dass Stabsarbeit in Zukunft angesichts immer komplexerer Lagen zunehmen wird (auch in anderen Branchen und Institutionen), wird der Aus- und Weiterbildung für die Stabsarbeit größere Bedeutung zukommen müssen. Eine gute Möglichkeit, um technische sowie nichttechnische Fertigkeiten zu trainieren, sind Stabsübungen und Trainings mit simulierten Krisen (7 Kap. 18; Strohschneider & Gerdes, 2004; Crego & Spinks, 1997; Salas, Cannon-Bowers & Weaver, 2002). Fazit 5 Stäbe sind ein wichtiges Werkzeug für das Management komplexer Lagen. 5 Professionelle Stabsarbeit verlangt gut ausgebildete Stabsmitarbeiter. Erfolgreiche Stabsarbeit braucht Moderatoren. Erfolgsbegründend für die Teamarbeit ist die Bildung und Aufrechterhaltung gemeinsamer mentaler Modelle und eine gute Teamkommunikation.
16
5 Für viele kritische Situationen kann man im Voraus Entscheidungen treffen und Regeln aufstellen. Dies entlastet in der akuten Situation. 5 Intensivere Forschung zu Human Factors in Stäben wäre hilfreich für die Weiterentwicklung der Stabsarbeit.
Literatur Badke-Schaub, P. (2005). Kommunikation in kritischen Situationen. In G. Hofinger (Hrsg.), Kommunikation in kritischen Situationen (S. 3-23). Frankfurt: Verlag für Polizeiwissenschaften. Bandura, A. (1986). Social foundations of thought and action: a social-cognitive theory. Englewood Cliffs, NJ: Prentice Hall. Baron, R. S., Kerr, N. L. & Miller, N. (1992). Group process, group decision, group action. Buckingham: Open University Press. Bédé, A. (2009). Notfall- und Krisenmanagement im Unternehmen. Stuttgart: Steinbeis Edition. Bierhoff, H.W. & Rohmann, E. (2010). Psychologie des Vertrauens. In Maring, M. (Hrsg.), Vertrauen – zwischen sozialem Kitt und der Senkung von Transaktionskosten (S. 71-89). Schriftenreihe des Zentrums für Technik- und Wirtschaftsethik am Karlsruher Institut für Technologie, Bd. 3. Karlsruhe. KIT. Bremische Bürgerschaft (1988). Untersuchungsausschuss Geiseldrama-Abschlußbericht (Bürgerschaftsdrucksache 12/667). Unveröffentlichter Bericht. Brehm, J. W. (1966). A theory of psychological reactance. New York: Academic Press. Cannon-Bowers, J. A. & Salas, E. (2001). Reflections on shared cognition. Journal of Organizational Behavior, 22, 195–202. Cannon-Bowers, J. A., Salas, E. & Converse, S. (1993). Shared mental models in expert team decision making. In N. Castellan (ed.), Individual and group decision making (pp. 221–246). Hillsdale, NJ: Lawrence Erlbaum. Crego, J. & Spinks, T. (1997). Critical incident management simulation. In R. Flin, E. Salas, M. Strub & L. Martin (Eds.), Decision making under stress: Emerging themes and applications (pp. 85–94). Aldershot: Ashgate. Davies, M. (1999). Making your command center a success. Online-Dokument: http://www.venberg.com/businesscontinuitysvcs/child/toolbox/adobe/CommandCenterArticle.pdf [Zugriff am 14.06.2011]. Fink, S. (1986). Crisis management. Planning for the inevitable. New York: Amacom.
290
16
Kapitel 16 • Stabsarbeit und »Ständige Stäbe« bei der Polizei: Sicherheit durch Professionalisierung
Flin, R. (1996). Sitting in the hot seat: Leaders and teams for critical incident management. Chichester: John Wiley & Sons. Flin, R. & Stewart, E. (1996) Taking action. Police incident commanders decision making. Policing Today, 2 (4), 14–17. Flin, R., Salas, E., Strub, M. & Martin, L. (1997). Decision making under stress: Emerging themes and applications. Aldershot: Ashgate. Flin, R. & Arbuthnot, K. (Eds.) (2002). Incident command: Tales from the hot seat. Aldershot: Ashgate Gahlen, M. & Kranaster, M. (2008). Krisenmanagement. Planung und Organisation von Krisenstäben. Stuttgart: Kohlhammer/Deutscher Gemeindeverlag. ’t Haart, P. (2001). Krisenstäbe und Krisenmanagement. In R. Fisch, D. Beck & B. Englich (Hrsg.), Projektgruppen in Organisationen. Praktische Erfahrungen und Erträge der Forschung (S. 199–213). Göttingen: Verlag für Angewandte Psychologie. Höcherl, H. (1978). Bundestagsdrucksache 08/1881–1978 (»Höcherl-Bericht«). Bonn: Deutscher Bundestag. Hofinger, G. (Hrsg.) (2005). Kommunikation in kritischen Situationen. Herausgegeben im Auftrag der Plattform »Menschen in komplexen Arbeitswelten« e. V. Frankfurt a. M.: Verlag für Polizeiwissenschaft. Horn, G. & Strohschneider, S. (2005). Kommunikation im Krisenstab. In G. Hofinger (Hrsg.), Kommunikation in kritischen Situationen. Herausgegeben im Auftrag der Plattform »Menschen in komplexen Arbeitswelten« e. V. (S.101–120). Frankfurt a. M.: Verlag für Polizeiwissenschaft. Janis, I. (1972). Groupthink. Psychological studies of policy decisions and fiascoes. Boston: Houghton Mifflin. Klein, G. (2003). Natürliche Entscheidungsprozesse. Über die »Quellen der Macht«, die unsere Entscheidungen lenken. Paderborn: Jungermann. Kleinschmidt, H. & Rückheim, S. (2009). Der polizeiliche Planungs- und Entscheidungsprozess im Vergleich. In Dekan Fachbereich Polizei und Sicherheitsmanagement (Hrsg.), Beiträge aus dem Fachbereich Polizei und Sicherheitsmanagement - Beiträge aus dem Fachbereich 5 (Bd. 1). Berlin: Hochschule für Wirtschaft und Recht. Kloepfer, M. (Hrsg.) (2006). Leben im Lärm? Risikobewertung und Regulation des Umgebungslärms im Verkehrsbereich (Bd. 28). Berlin/ Heidelberg: Springer. Martin, L., Flin, R. & Skriver, J. (1997). Emergency decision making – A wider decision framework. In R. Flin, E. Salas, M. Strub & L. Martin (Eds.), Decision making under stress: Emerging themes and applications (pp. 280–290). Aldershot: Ashgate. Orasanu, J. & Salas, E. (1993). Team decision-making in complex environment. In G. A. Klein & J. Orasanu (Eds.), Decision making in action. Models and methods (pp. 158–171). Norwood: Ablex. PDV (Polizeidienstvorschrift) 100 (2005). Planungs-und Entscheidungsprozess für den Einsatz, Einsatznachbereitung, Anlage 20., Stand: 2005
Pearce, T. & Fortune, J. (1995). Command and control in policing: A systems assessment of the gold, silver and bronze structure. Journal of Contingencies and Crisis Management, 3 (3), 181. Prondzinsky, P. von (1995). Polizei-Führungsstäbe und -Führungsgruppen. Deutsches Polizeiblatt für Aus- und Fortbildung, 13, 6–9. Rassin, E. (2008). Individual differences in the susceptibility to confirmation bias. Netherlands Journal of Psychology, 64 (2), 87-93. Rasker, P. R. & Schraagen, J. M. (1999). The role of communication in teams performing command & control tasks in unexpected situations. TNO-TM 99-C018. Soesterberg: TNO Human Factors Research Institute. Reinwarth, R. (2003). Standard Operating Procedures als Entscheidungsgrundlage in der Luftfahrt. In S. Strohschneider (Hrsg.), Entscheiden in kritischen Situationen. Herausgegeben im Auftrag der Plattform »Menschen in komplexen Arbeitswelten« e. V. (S. 13–23). Frankfurt a. M.: Verlag für Polizeiwissenschaft. Rouse, W. B., Cannon-Bowers, J. A. & Salas, E. (1992). The role of mental models in team performance in complex systems, IEEE transactions on systems, man, and cybernetics, 22, 1296–1308. Salas, E., Cannon-Bowers J. A. & Weaver, J. (2002). Command and control teams: principles for training and assessment. In R. Flin & K. Arbuthnot (Eds.), Incident command: tales from the hot seat (pp. 239–257) Aldershot: Ashgate. Schneider, M., Graham, J., Bauer, A., Bessiere, K. & Gonzalez, C. (2004). Shared mental models in military command and control organizations: Effect of social network distance. Paper presented at the Human Factors and Ergonomics Society 48th Annual Meeting, New Orleans. Starke, S. (2005). Kreuzfahrt in die Krise. Wie sich kritische Situationen im Planspiel trainieren lassen. Frankfurt a. M.: Verlag für Polizeiwissenschaft. Stout, R., Cannon-Bowers, J., Salas, E. & Milanovich, D. (1999). Planning, shared mental models, and coordinated performance: An empirical link is established. Human Factors, 41, 61–71. Strohschneider, S. (Hrsg.) (2003). Entscheiden in kritischen Situationen. Im Auftrag der Plattform »Menschen in komplexen Arbeitswelten« e. V. Frankfurt a. M.: Polizei und Wissenschaft. Strohschneider, S. & Gerdes, J. (2004). MS Antwerpen: Emergency management training for low risk environments. Gaming & Simulation, 35, 394–413. Thielmann, G. & Papenfuß, U. (2006). Organisation und Methoden der Stabsarbeit in der Polizei. Grafische Übersichten und Erläuterungen. Stuttgart: Boorberg. Tschan, F. & Semmer, N. (2000). Wenn alle dasselbe denken: Geteilte mentale Modelle und Leistung in der Teamarbeit. In R. Fisch, D. Beck & B. Englich, Projektgruppen in Organisationen. Praktische Erfahrungen und Erträge der Forschung (S. 217–235). Göttingen: Verlag für Angewandte Psychologie.
Literatur
Tversky, A. & Kahneman, D. (1974). Judgment under uncertainty: Heuristics and biases. Science, 185, 1124–1131. Ungerer, D., Hesel, H. & Morgenroth, U. (1993). Risikoprofile und Belastungen im Feuerwehreinsatz in VFDB. Forschung und Technik im Brandschutz, 2, 44–61. Watzlawick, P. & Krieg, P. (Eds.) (1991). Das Auge des Betrachters. Beiträge zum Konstruktivismus. München: Piper.
291
16
293
Prozesse gestalten im Dienst der Sicherheit Kapitel 17
Komplexität handhaben – Handeln vereinheitlichen – Organisationen sicher gestalten – 295 Tanja Manser
Kapitel 18
Human-Factors-Training – 313 Stefan Strohschneider
Kapitel 19
Systemgestaltung und Automatisierung – 333 Dietrich Manzey
V
295
Komplexität handhaben – Handeln vereinheitlichen – Organisationen sicher gestalten Tanja Manser
17.1
Fallbeispiel: Standardisierung in der Hämotherapie – 296
17.2
Umgang mit Komplexität auf der Ebene der Organisation – 297
17.2.1 17.2.2 17.2.3
Was ist ein System? – 298 Merkmale komplexer Arbeitssysteme – 298 Komplexitätsmanagement: Von der Minimierung von Unsicherheit zu einem kompetenten Umgang mit Unsicherheit – 299
17.3
Organisationen sicher gestalten – 308
17.3.1 17.3.2
Lose Kopplung – 308 Sicherheitskultur – 309
17.4
Zusammenfassung – 309 Literatur – 309
P. Badke-Schaub et al., Human Factors, DOI 10.1007/978-3-642-19886-1_17, © Springer-Verlag Berlin Heidelberg 2012
17
296
Kapitel 17 • Komplexität handhaben – Handeln vereinheitlichen – Organisationen sicher gestalten
17.1
Fallbeispiel: Standardisierung in der Hämotherapie
Beispiel
17
Ein wichtiger, weltweit durch Gesetze geregelter und daher in hohem Maße standardisierter Bereich der medizinischen Patientenversorgung ist die Hämotherapie – der Umgang mit Blut oder Blutprodukten. Dennoch ereignen sich immer wieder schwerwiegende Komplikationen bei der Transfusion, was zu einem nicht unerheblichen Teil auf Regelverletzungen rückführbar ist (vgl. z. B. Linden, Wagner, Voytovich & Sheehan, 2000; Whitsett & Robichaux, 2001). In der Transfusionsmedizin gibt es qualitativ verhältnismäßig gute Zwischenfallsberichte, deren Auswertung in der Vergangenheit zu Anpassungen des Regelsystems und zur Integration zusätzlicher Sicherheitsvorkehrungen (z. B. von Barcodesystemen) geführt hat. Im Folgenden werden zunächst die verschiedenen Ebenen des Regelsystems skizziert, bevor an einem Ausschnitt beispielhaft diskutiert wird, welche Arten von Regeln hier zur Anwendung kommen. Im Transfusionsgesetz sowie in darauf aufbauenden Richtlinien zur Gewinnung und Anwendung von Blut, Blutbestandteilen oder Blutprodukten wird teilweise sehr detailliert festgelegt, wie die einzelnen Handlungsschritte von der Auswahl des Spenders bis zur Überwachung des Empfängers zu erfolgen haben, z. B. für Deutschland in den Richtlinien und Leitlinien zur Hämotherapie der Bundesärztekammer, Stand: 05.11.2005 (online verfügbar unter http://www.bundesaerztekammer.de/page. asp?his = 0.7.45.3242; letzter Zugriff am 31.05.2011). Unter anderem ist das Vorhandensein eines Qualitätssicherungssystems einschließlich eines Handbuchs gefordert, in dem die wesentlichen Abläufe beim Umgang mit Blutprodukten für die jeweilige Organisation beschrieben sind. Die Ausarbeitung eines solchen für die gesamte Organisation verbindlichen Transfusionshandbuchs erfolgt in der jeweiligen Organisation meist zentral in der Abteilung für Transfusionsmedizin. Sowohl für die Abteilungen, die Blut oder Blutprodukte gewinnen und für die Patientenversorgung bereitstellen, als auch
für die Anwender von Blutprodukten sind die Abläufe im Umgang mit Blut oder Blutprodukten somit standardisiert. Grundsätzlich bedarf jede Bluttransfusion nicht nur der ärztlichen Indikation, sondern auch der Einwilligung des Patienten nach entsprechender Aufklärung, wovon nur in begründeten Notfällen abgewichen werden kann. Vor Beginn der Transfusion hat der transfundierende Arzt am Patienten persönlich zu überprüfen, ob das Präparat für den betreffenden Empfänger bestimmt ist, die Blutgruppe des Präparats (Präparate-Etikett) dem Blutgruppenbefund des Empfängers entspricht bzw. mit diesem kompatibel ist und die Präparatenummer mit den Angaben im Begleitschein übereinstimmt. Darüber hinaus müssen das Verfallsdatum, die Unversehrtheit des Blutbehältnisses und die Gültigkeit der Verträglichkeitsprobe überprüft werden. Viele Organisationen haben bezüglich dieses Prüfschritts zusätzliche Regeln definiert, die z. B. die Kontrolle durch zwei unabhängige Personen oder eine gemeinsame Durchführung der Kontrolle fordern, wobei teilweise eine Standardisierung der Kommunikation angestrebt wird, wie sie in der Luftfahrt etabliert ist. Damit dieser Prüfschritt greifen kann, sind im Vorfeld der Bluttransfusion neben der transfusionsserologischen Untersuchung v. a. die Standards zur eindeutigen Beschriftung von Verträglichkeitsproben, Blutprodukten und deren Begleitschein zentral für die Identitätssicherung, also die verwechslungsfreie Zuordnung von Blutspender und Blutprodukt. Zum Abschluss dieses Fallbeispiels wird der AB0-Identitätstest für eine vertiefte Betrachtung herausgegriffen (. Tab. 17.1), da schwerwiegende Transfusionsreaktionen oft auf AB0-inkompatiblen Fehltransfusionen beruhen. Als zentrale Ursache für derartige Fehltransfusionen sind in zahlreichen Studien Verwechslungen an verschiedenen Punkten im Prozess von der Gewinnung bis zur Gabe von Blutprodukten identifiziert worden. Entsprechend ist der AB0-Identitätstest der letzte einer ganzen Serie von Prüf- und Dokumentationsschritten, die gemeinsam sicherstellen sollen, dass es nicht zu einer lebensbedrohlichen immunologischen Reaktion auf das verabreichte Blutprodukt kommt.
297
17.2 • Umgang mit Komplexität auf der Ebene der Organisation
17
. Tab. 17.1 Kommentierter Auszug aus den Richtlinien und Leitlinien zur Hämotherapie der deutschen Bundesärztekammer. (Stand: 5.11.2005) Vorgaben zur Durchführung von AB0-Identitätstest
Kommentar
Unmittelbar vor der Transfusion von Blutkomponenten ist vom transfundierenden Arzt oder unter seiner direkten Aufsicht der AB0-Identitätstest (auch »Bedside-Test« genannt) am Empfänger vorzunehmen (z. B. auf Testkarten). Er dient der Bestätigung der zuvor bestimmten AB0-Blutgruppenmerkmale des Empfängers.
Dieses Element der Richtlinie nimmt Bezug auf das professionelle Wissen der im System tätigen Personen hinsichtlich der Durchführung des Bedside-Tests und der zu verwendenden Arbeitsmittel. Es wird jedoch nicht nur ein Ziel definiert, sondern auch eine Aussage getroffen, wann im Prozess dieser Test zu erfolgen hat.
Der AB0-Identitätstest kann auch zusätzlich aus dem zu transfundierenden Erythrozytenkonzentrat (Erythrozyten = rote Blutkörperchen) durchgeführt werden.
Diese Formulierung hat keinen imperativen Charakter. Es handelt sich um eine rein fakultative Vorgehensweise, die in vielen Einrichtungen eine bewährte Praxis darstellt.
Das Ergebnis ist schriftlich zu dokumentieren.
Hier wird lediglich ein Ziel vorgegeben. Fragen der Aufgabenverteilung können in der Autonomie der Mitarbeitenden oder durch zusätzliche organisationsinterne Richtlinien geregelt sein. Viele Organisationen verfügen zusätzlich über Checklisten zur Unterstützung bei der Interpretation des Testergebnisses.
Bei Unstimmigkeiten ist das Laboratorium bzw. die transfusionsmedizinische Einrichtung umgehend zu benachrichtigen.
Hier wird sowohl definiert, unter welchen Rahmenbedingungen dieser Handlungsschritt zu erfolgen hat, als auch mit welcher Dringlichkeit. Prozesstransparenz hinsichtlich der an anderer Stelle daraufhin veranlassten Maßnahmen zu schaffen und damit eine adäquate Einschätzung der Bedeutung dieser Benachrichtigung zu unterstützen, ist eine organisationsinterne Aufgabe.
Für die Eigenbluttransfusion (autologe Hämotherapie) sind zusätzliche Vorschriften zu beachten. Bei Anwendung erythrozytenhaltiger Eigenblutpräparate ist der Bedside-Test beim Empfänger und beim Produkt, bei allogenen Bluttransfusionen nur beim Empfänger zwingend vorgeschrieben.
Hier wird für eine Variante spezifiziert, in welchem Fall welche Regel zur Anwendung kommen soll.
Dieses Beispiel veranschaulicht, wie Standardisierung auf unterschiedlichen Ebenen stattfindet (z. B. gesetzliche Vorgaben auf nationaler Ebene und Richtlinien zur Qualitätssicherung innerhalb einer Organisation) und wie eine Verzahnung der Regelwerke relativ lose gekoppelter Subsysteme (z. B. Blutbank, Labor, transfundierender Arzt) zur Koordination innerhalb einer Organisation beitragen kann. Gleichzeitig werden jedoch auch gewisse Ermessens- und Handlungsspielräume deutlich, die auf die Kompetenzen der im System tätigen Personen vertrauen.
17.2
Umgang mit Komplexität auf der Ebene der Organisation
Komplexität gehört seit vielen Jahren zu den zentralen Konzepten in der wissenschaftlichen und praxisorientierten Literatur zu sicherem Arbeitshandeln und sicherheitsförderlicher Organisationsgestaltung. Es ist von komplexen Systemen, komplexen Zusammenhängen, komplexem Problemlösen etc. die Rede. Die Charakterisierung von Organisationen und Arbeitssystemen als komplexe Systeme nimmt Bezug auf zwei Aspekte: Zum einen darauf, dass es sich um eine von ihrer Umwelt unterscheidbare, geordnete Ganzheit von Elementen handelt (Systemaspekt, 7 Kap. 17.2.1). Zum anderen darauf, dass die Systemelemente zueinander
298
Kapitel 17 • Komplexität handhaben – Handeln vereinheitlichen – Organisationen sicher gestalten
in einer spezifischen, dynamischen Beziehung stehen und in vielfältiger Weise interagieren (Komplexitätsaspekt, 7 Kap. 17.2.2). Der vorliegende Beitrag veranschaulicht, weshalb aus der Perspektive sicherheitsförderlicher Organisationsgestaltung dem kompetenten Umgang einer Organisation und der darin tätigen Individuen mit dieser Komplexität eine zentrale Bedeutung zukommt.
17.2.1
Was ist ein System?
Systeme sind dynamische Ganzheiten, deren Komponenten miteinander vernetzt sind und wechselseitig aufeinander einwirken (für eine Einführung vgl. Ninck, Bürki, Hungerbühler & Mühlemann, 1998). Systeme werden als offen bezeichnet, wenn sie mit ihrer Umwelt in Wechselbeziehung stehen. Die Grenzen eines Systems gegenüber seiner Umwelt, d. h. gegenüber einem umgebenden System, sind nicht absolut gegeben, sondern in Abhängigkeit von der jeweiligen Perspektive und Fragestellung einer Systembetrachtung zu definieren. So ist z. B. eine bestimmte Abteilung eines Betriebes aus Organisationsperspektive ein Subsystem, während die Organisation aus Sicht der Abteilung als Teil der Systemumwelt anzusehen ist.
17.2.2
17
Merkmale komplexer Arbeitssysteme
Die Komplexität eines Systems lässt sich zunächst mittels dreier sehr allgemeiner Kriterien und deren Bedeutsamkeit im Handlungskontext beschreiben (7 Kap. 5.3). Es sind die Anzahl (Simon, 1962), die Vielfalt oder Unterschiedlichkeit (Schröder, Driver & Streufert, 1967) und die Vernetztheit, d. h. die wechselseitige Abhängigkeit und Verflochtenheit der für den Akteur bedeutsamen Komponenten eines Systems (Dörner, 1976). Im Laufe der psychologischen Auseinandersetzung mit dem Umgang mit Komplexität hat sich das wissenschaftliche Verständnis komplexer Systeme zunehmend von einer rein an objektiven Systemmerkmalen orientierten Sichtweise (kybernetischer Komplexitätsbegriff ) hin zu einer Auffassung von Komplexität als Zusammenspiel von System- und
Akteursmerkmalen verlagert. Entsprechend stellen systemtheoretische Organisationskonzepte die Anforderungen im Umgang mit komplexen Systemen in den Vordergrund. Aus den Charakteristika komplexer Systeme erwachsen spezifische (kognitive) Anforderungen für die in diesen Systemen tätigen Personen (s. folgende Übersicht). Die Akteure und Akteurinnen begegnen diesen Anforderungen mit bestimmten (kognitiven) Strategien wie z. B. Komplexitätsreduktion durch vereinfachende Annahmen (z. B. Dörner, 1989; Fuhrer, 1984; Kluwe, 1997). Komplexität ist aus dieser Perspektive keine objektive Größe, sondern eine subjektive. Merkmale komplexer Systeme (vgl. Dörner, 1981; Dörner, Kreuzig, Reither & Stäudel, 1983; Kluwe, 1997) Aufgrund der Vielzahl und Vielfalt ihrer untereinander vernetzten Komponenten konfrontieren komplexe Systeme die darin tätigen Personen mit großen Informationsmengen und sind weitgehend intransparent; d. h., einzelne Komponenten sowie deren materielle, funktionale und informationelle Verknüpfungen sind den darin tätigen Personen u. U. nur vage oder gar nicht bekannt. Die Vorhersehbarkeit des Systemverhaltens und damit auch die Steuerbarkeit komplexer Systeme werden weiterhin dadurch erschwert, dass die Komponenten des Systems auf vielfältige Weise miteinander interagieren (Vernetztheit). Eingriffe in das System beeinflussen nicht nur die Zustände einzelner Komponenten, sondern deren Effekte breiten sich im System aus und bedingen eine Vielzahl von Veränderungen. Kleine Abweichungen bleiben nicht lokal begrenzt, sondern können sich auf schwer prognostizierbare Weise im System ausbreiten. Zudem verändert sich der Zustand eines komplexen Systems in der Zeit, d. h. auch ohne Eingriffe von außen (Dynamik komplexer Systeme). Entsprechend interagieren Eingriffe in das System stets mit den Effekten der Eigendynamik des Systems, wodurch sich die Auswirkungen dieser Eingriffe in unvorhergesehener Weise verstärken können (Nichtlinearität).
299
17.2 • Umgang mit Komplexität auf der Ebene der Organisation
17
Komplexität
Unsicherheit
Unsicherheit kompetent begegnen durch Flexibilität und Lernen
Unsicherheit minimieren durch Standardisierung • Verringerung von Handlungsspielräumen
• Erhöhung von Handlungsspielräumen
• Zentralisierung von Planung und Steuerung
• Flexible Anwendung von Regeln
• Abweichungen als zu eliminierende Störungen
. Abb. 17.1
• Abweichungen als Lerngelegenheit begreifen
Grundlegende Strategien des Umgangs mit Unsicherheit in Organisationen
Fasst man die Merkmale komplexer Systeme zusammen und betrachtet deren Auswirkungen auf die Handlungsanforderungen der in diesen Systemen tätigen Personen (z. B. die Intransparenz von Zusammenhängen zwischen Systemeingriffen der Akteure und deren Auswirkungen im System oder der trotz unvollständiger Informationen bestehende Entscheidungsdruck), kristallisiert sich der Umgang mit Unsicherheit als eine zentrale Anforderung auf verschiedenen Ebenen der Organisation heraus (7 Kap. 10.2). Entsprechend haben sich verschiedene Forschungsrichtungen innerhalb der Arbeits- und Organisationspsychologie – unter Verwendung unterschiedlicher Begriffe und mit unterschiedlichen Schwerpunktsetzungen – mit diesem Thema befasst. Im Folgenden werden zwei grundlegende Tendenzen im Komplexitätsmanagement skizziert: der Versuch, Unsicherheit zu minimieren, und der Versuch, einen kompetenten Umgang mit Unsicherheit zu finden (. Abb. 17.1).
17.2.3
Komplexitätsmanagement: Von der Minimierung von Unsicherheit zu einem kompetenten Umgang mit Unsicherheit
In der organisationswissenschaftlichen Auseinandersetzung mit komplexen Arbeitssystemen sind zwei wesentliche Quellen von Unsicherheit identifiziert worden: zum einen die in einem System durchgeführten Arbeitsprozesse selbst (z. B. die Landung eines Passagierjets) und zum anderen die Umwelt, in der dies stattfindet (z. B. die Wetterverhältnisse am Zielort). Viele Organisationen – allen voran solche, die in hohem Maße Sicherheitsrisiken bergen – versuchen, durch Maßnahmen der Arbeits- und Organisationsgestaltung Komplexität zu reduzieren und die damit verbundene Unsicherheit zu minimieren (z. B. durch Standardisierung, Technisierung bis hin zur Automatisierung oder durch Verbesserung der Prognosemodelle). In der klassischen Managementtheorie wurden Organisationen als »geschlossene Systeme« konzeptualisiert, in denen Zielerreichung vorwiegend über eine Reduktion der aus der Interdependenz der Systemkomponenten resultierenden Unsicher-
300
Kapitel 17 • Komplexität handhaben – Handeln vereinheitlichen – Organisationen sicher gestalten
heit gewährleistet werden kann (vgl. Hayes, 1980). Taylors Prinzipien der wissenschaftlichen Betriebsführung (Taylor, 1911) sind ein Beispiel für eine Strategie der Arbeits- und Organisationsgestaltung, in deren Zentrum die Reduktion von Unsicherheit im Arbeitsprozess – die vorwiegend auf den Menschen als »Störfaktor« in einem ansonsten vollständig plan- und vorhersehbaren und damit zentral steuerbaren System zurückgeführt werden – steht. Solch ein Versuch der Minimierung von Unsicherheit setzt eine enge Kopplung zwischen zentraler Planung und dezentraler Umsetzung voraus. Angestrebt wird diese enge Kopplung meist über komplexe, zentrale Planungssysteme und eine Reduktion operativer Handlungsspielräume durch Reglementierung und Automatisierung. Erfolgreich sind solche Strategien der Organisationsgestaltung vor allem, wenn die Umweltbedingungen und der Produktionsprozess selbst (z. B. konstante Qualität der zu verarbeitenden Rohstoffe, seltene Aus- und Störfälle der technischen Produktionsmittel) relativ konstant sind und die Vorgehensweisen zur Korrektur eventueller Schwankungen und Störungen algorithmisierbar sind (vgl. Perrow, 1967). Im Folgenden wird der Fokus zunächst auf Standardisierung gelegt, bevor alternative Ansätze der Organisationsgestaltung vorgestellt werden.
Standardisierung
17
Standardisierung ist, neben 5 Spezialisierung (Grad der Differenzierung und Arbeitsteilung einer Organisation), 5 Zentralisierung (Grad der Konzentration der Entscheidungsmacht an der Spitze der Organisation) und 5 Formalisierung (Aktenmäßigkeit bzw. Schriftlichkeit verschiedener Prozesse und Vorgehensweisen), eine zentrale Strategie der Organisationsgestaltung, die auf die Minimierung von Unsicherheit ausgerichtet ist (Gebert, 1995). Ursprünglich geht der Begriff des Standards zurück auf die Standarte, also das Königszeichen, das sowohl den Sammelpunkt der Soldaten festlegte als auch die im Namen des Königs definierten Normen als verbindlich erklärte und damit vereinheitlichend wirkte. Auch im heu-
tigen Sprachgebrauch bedeutet Standardisierung Vereinheitlichung und kann sich auf Produkte,
Geräte, Verfahrensweisen etc. beziehen. Generell bieten etablierte Standards Orientierung und haben damit eine wichtige handlungsleitende, z. T. auch eine Unsicherheit reduzierende Funktion in komplexen Arbeitssystemen, aber auch im Alltag. Im technischen Bereich existiert z. B. eine Vielzahl von Standards und Normen (z. B. DIN), die es über die Spezifikation von Maßen, Typen etc. erst ermöglichen, unterschiedliche Komponenten unabhängig voneinander zu entwickeln und dennoch deren problemlose Integrationsfähigkeit in ein komplexes technisches System sicherzustellen. Geht es hingegen um die Standardisierung dynamischer Prozesse, wird eine Vereinheitlichung vorwiegend durch Regeln (aus lat. regula: Maßstab, Richtschnur) oder Programme angestrebt (s. folgende Übersicht). March, Schulz & Zhou (2000) bezeichnen Regeln als das prototypische Instrument des Organisierens:
» Rules are ubiquitous in human behavior, but they are particularly conspicuous in formal organizations and are often seen as the prototypical instruments of organizing. Modern formal organizations are characterized by their structured and stable patterns of collective behavior, sustained by and reflected in routines, procedures, regulations, conventions, and other forms of organizational rules. Rules routinize organizational activities and define authority relations, connections among subunits, and decision making structures. (March, Schulz & Zhou, 2000, S. 8 f.)
«
In der Praxis greifen Standardisierungsbestrebungen auf unterschiedlichen Ebenen des Tätigkeitszusammenhangs ineinander und nehmen aufeinander Bezug. Zum Beispiel existiert für den Straßenverkehr ein Regelwerk, das nicht nur Vorgehensweisen in unterschiedlichen Verkehrssituationen spezifiziert, sondern auch Rahmenbedingungen und Voraussetzungen festlegt. So ist z. B. definiert, dass die Qualifikation der Verkehrsteilnehmer gewissen Mindeststandards genügen muss, dass die Fahrzeuge sicherheitstechnischen Standards entsprechen müssen und dass bestimmte Zeichensysteme gelten, die die Kommunikation und Ko-
301
17.2 • Umgang mit Komplexität auf der Ebene der Organisation
ordination der Verkehrsteilnehmer weitgehend standardisieren. z
Vorteile von Standardisierung im Kontext komplexer Arbeitssysteme 5 Orientierungsfunktion für alle am System-
geschehen beteiligten Akteure und damit verbunden eine Erhöhung der Antizipationsweite bezogen auf den Produktionsprozess und die Handlungen der anderen Akteure 5 Koordinationsfunktion und die damit einhergehende Vereinfachung des Informationsaustausches (z. B. durch Standardisierung von Form, Inhalt, Zeitpunkt, zu nutzenden Kommunikationsmedien) und der Zusammenarbeit auch bei einem geringen Maß an gemeinsamer Arbeitserfahrung 5 Vereinheitlichung von technologischen und organisationalen Schnittstellen und damit sowohl eine verbesserte Austauschbarkeit technischer Komponenten als auch eine höhere Integration verschiedener Bearbeitungsschritte im Produktionsprozess Handeln vereinheitlichen Programme bzw. Regeln, die auf eine Vereinheitlichung des Arbeitshandelns auf operativer Ebene zielen, sind ein zentrales Element des Komplexitätsmanagements. In den Organisationswissenschaften sind verschiedene Ansätze zur Kategorisierung dieser Programme bzw. Regeln vorgeschlagen worden, von denen zwei hier kurz skizziert werden: 1. Cyert & March (1963) unterscheiden zwischen Ausführungsprogrammen und Zweckprogrammen. – Ausführungsprogramme schreiben für bestimmte Situationen bestimmte Entscheidungen und Handlungen vor. Sie entbinden damit die Akteure, die das Programm ausführen, davon, in häufig wiederkehrenden Situationen jeweils neu zu reflektieren, worin eine angebrachte Lösung bestehen könnte. Zum Beispiel muss ein Techniker nicht immer wieder von Neuem darüber nachdenken, wann er bestimmte Wartungsarbeiten an einer komple-
2.
17
xen Anlage ausführen muss, wenn er von Programmen angewiesen wird, in denen dies festgelegt wurde. Das notwendige Erfahrungs- und Spezialistenwissen wurde in dem Programm hinterlegt und soll damit dazu beitragen, eine gleichbleibende Qualität bestimmter Prozesse unabhängig von Wissensunterschieden zwischen Akteuren zu gewährleisten. – Zweckprogramme geben lediglich Ziele vor, der Weg zu diesen Zielen bleibt dabei weitgehend offen bzw. den ausführenden Akteuren überlassen. Sie kommen typischerweise dann zum Einsatz, wenn eine genaue Spezifizierung der Vorgehensweise zur Zielerreichung nicht sinnvoll oder schlichtweg unmöglich wäre (z. B. bei der Entwicklung eines neuen Produkts). Je komplexer die durch das Programm beschriebene Situation ist und je schwieriger es ist, die Entwicklung der bedeutsamen Parameter in der Organisationsumwelt zu antizipieren, desto eher wird deshalb der betreffende Arbeitsprozess durch ein Zweckprogramm und nicht durch ein Ausführungsprogramm abgebildet und gesteuert werden. Hale (1990) sowie Hale & Swuste (1998) haben auf der Grundlage handlungstheoretischer Konzepte und der Unterscheidung von fähigkeits-, regel- oder wissensbasiertem Handeln von Rasmussen (1983) einen weiteren Kategorisierungsansatz für Regeln ausgearbeitet. – Zieldefinierende Regeln legen lediglich das zu erreichende Ziel fest (z. B. den maximalen Druck in einem Tank zur Lagerung toxischer Substanzen), spezifizieren aber nicht, wie dieses Ziel erreicht werden soll. Die Effektivität solcher Regeln und die Überprüfbarkeit der Regelbefolgung werden maßgeblich von der Messbarkeit der zu erreichenden Ziele beeinflusst. – Prozedurale Regeln oder Problemlöseregeln legen die Art und Weise fest,
302
17
Kapitel 17 • Komplexität handhaben – Handeln vereinheitlichen – Organisationen sicher gestalten
wie und von wem Entscheidungen über das weitere Vorgehen in einer gegebenen Situation zu treffen sind. Hierbei können die Personen, die in eine solche Entscheidung einbezogen werden müssen, bestimmt werden sowie die Methoden zur Entscheidungsfindung, die zu berücksichtigenden Systemparameter etc. Wie der Problemlöse- und Handlungsweg im Detail gestaltet wird, ist durch diesen Typ von Regeln nicht festgelegt. In der Beurteilung, ob die entsprechende Regel befolgt wurde, muss der Problemlöseprozess nachvollzogen und die Angemessenheit der jeweiligen Entscheidungen beurteilt werden. – Ausführungsregeln legen demgegenüber im Detail fest, welche Handlungsschritte in welcher Reihenfolge durchzuführen sind und welche Systemzustände es jeweils zu erreichen gilt. Wenn es nicht möglich ist, Operateure in solchen Prozessen durch Automatisierung zu ersetzen, wird zumindest angestrebt, ihre Handlungen möglichst vollständig zu vereinheitlichen und so in »sichere Bahnen« zu lenken. Damit sind die Handlungsspielräume für die im System tätigen Personen auf ein Minimum reduziert. Die Regelbefolgung kann durch Beobachtung der Arbeitsausführung sowie das Messen von Systemzuständen beurteilt werden. Betrachtet man die in . Tab. 17.2 aufgeführten Vor- und Nachteile von Regeln, wird deutlich, dass Ausführungsregeln – im Gegensatz zu zieldefinierenden Regeln – sowohl die Vorteile als auch die Nachteile maximieren.
In den meisten Hochrisiko-Industrien haben sich standardisierte Vorgehensweisen etabliert und werden als zentrales Element zur Gewährleistung eines hohen Maßes von Sicherheit angesehen. Die Frage, wie es zu dieser Standardisierung kommt, wer die Notwendigkeit hierfür definiert, wie Standards,
Regeln und Programme erarbeitet, implementiert und kommuniziert werden und auf welchem Spezifikationsniveau dies geschieht (s. Übersicht »Handeln vereinheitlichen«), lässt sich nicht industrieübergreifend beantworten. Für die Effektivität von Standardisierung in der betrieblichen Praxis ist dieser Aspekt jedoch von entscheidender Bedeutung. Rahmenvorgaben Organisationsinterne Standardisierungsbemühungen basieren meist auf gesetzlichen Rahmenvorgaben, die den einheitlichen Betrieb über verschiedene Organisationen innerhalb regionaler Grenzen oder auch international innerhalb eines industriellen Sektors sicherstellen sollen. Die gesetzlichen Rahmenvorgaben auf nationaler oder internationaler Ebene legen meist nur die zu erreichenden Ziele fest und überlassen die Entwicklung technischer Standards und detaillierter Vorgehensweisen zur Erreichung dieser Ziele den jeweiligen Organisationen (Zweckprogramme bzw. zieldefinierende Regeln, s. Übersicht »Handeln vereinheitlichen«). Beispiele hierfür sind die Standardisierung des Umgangs mit Blut und Blutprodukten in der Hämotherapie (s. Fallbeispiel, 7 Kap. 17.1) oder auch die »Seveso II Directive 96/82/EC«, die auf die Vermeidung von Unfällen in Industrien, in denen eine große Menge gefährlicher Substanzen verwendet wird, und die Begrenzung der Schädigung von Menschen und Umwelt durch solche Unfälle ausgerichtet ist.
Gesetzliche
Lokale Standardisierungsbemühungen Die lokal
definierten, standardisierten Verfahren zur Erreichung dieser Vorgaben können sich je nach kulturellen und ökonomischen Rahmenbedingungen deutlich unterscheiden, was eine zentrale Überwachung beinahe unmöglich macht (vgl. Wettig, 2002). Wie Leplat (1998) ausführlich dargelegt, ist es für die organisationsweite Umsetzung dieser Regeln entscheidend, wie diese eingeführt wurden. Unter anderem ist hierbei zu beachten ob die einzuführenden Regeln mit den bisherigen Vorgaben konsistent sind, ob sie für die im System tätigen Personen akzeptabel sind (z. B. in Bezug auf bestehende Qualifikationen und Rahmenbedingen des Handelns) und inwiefern Regeln und deren Dokumentation jederzeit zugänglich sind (vgl. auch Hopkins, 2011).
303
17.2 • Umgang mit Komplexität auf der Ebene der Organisation
17
. Tab. 17.2 Vor- und Nachteile von Regeln. (Hale & Swuste, 1998. Reprinted from Safety Science, 29, Hale, A. R. & Swuste, P., Safety rules: procedural freedom or action constraint?, 163–177, Copyright (1998), with permission from Elsevier.)
Vorteile
Nachteile
Für die Regeln erlassende Instanz
Für die Regeln befolgende Person
Erhöht die Vorhersehbarkeit über Personen hinweg
Spart Zeit und Aufwand, in bekannten Situationen »das Rad stets neu zu erfinden«
Definiert Aufgaben und Verantwortlichkeiten klar
Schafft Klarheit über Aufgaben und Verantwortlichkeiten
Liefert eine Grundlage für die Bewertung und Durchsetzung bestimmter Handlungsweisen
Liefert eine Grundlage für die Einschätzung der eigenen Handlungsweise (z. B. als regelkonform)
Unterdrückt Innovation der lokalen Akteure
Erschwert das Erkennen neuartiger Situationen, die durch das existierende Regelsystem nicht abgedeckt sind
Erschwert organisationales Lernen
Erlebte Einschränkung der Handlungsfreiheit kann Unzufriedenheit auslösen und die Wahrscheinlichkeit bewusster Regelverletzungen erhöhen
Stellt hohe Anforderungen an das Management Regelgenerierung, -verbreitung und Überwachung der Regeleinhaltung ist ressourcenaufwendig
Checklisten In der betrieblichen Praxis findet sich zur Umsetzung von Standards bezüglich technischen Anlagen, Prozessen und Arbeitshandeln eine Vielzahl von Vorgaben, Richtlinien, Regelwerken, Handbüchern, Weisungen, Standard Operating Procedures (SOP), Checklisten etc. Insbesondere die Befolgung von Problemlöse- und Ausführungsregeln wird in der betrieblichen Praxis verschiedener Industriebereiche durch Checklisten unterstützt. Checklisten sollen die Akteure und Akteurinnen entlasten, indem die Auswahl von Handlungsalternativen und die Entscheidungen über die korrekte Vorgehensweise entfallen und zugleich die Ausführung aller erforderlichen Arbeitsschritte in der korrekten Reihenfolge gewährleisten. Beispiele hierfür sind »pre-flight checklists« in der Luftfahrt, die von der WHO erarbeitete »Surgical Safety Checklist«, Checklisten zur Anlagenwartung in der Prozessindustrie oder auch die im einführenden Fallbeispiel erwähnten Checklisten zur Unterstützung des AB0-Identitätstests. Bei der Anwendung im Teamkontext (wie z. B. im Fall medizinischer Teams im Operationssaal) kommt als wesentliche weitere Funktion hinzu, dass die unterschiedlichen
Akteure relevante Informationen zu einem definierten Zeitpunkt unmittelbar vor der Operation explizit austauschen und sich somit koordinieren und eine gemeinsame Handlungsplanung fördern (Gawande, 2009). Für verschiedene Industriebereiche konnte gezeigt werden, dass die Anwendung von Checklisten geschult werden muss auch in der Sicherheitskultur einer Organisation verankert sein muss, damit Checklisten tatsächlich zur Anwendung kommen (vgl. z. B. Piotrowski & Hinshaw, 2002; Hopkins, 2011). Dass die Nutzung von Checklisten sicherheitsförderlich ist, belegen verschiedene Studien (vgl. z. B. Harrison, Manser, Howard & Gaba, 2006). Auch hierbei gilt allerdings, dass situationsflexibel entschieden werden muss, wann es von einer Checkliste abzuweichen gilt. Idealerweise sollte eine Checkliste daher spezifizieren, unter welchen Voraussetzungen sie zur Anwendung kommen sollte und wann zu anderen Vorgehensweisen, die ggf. ebenfalls durch Checklisten unterstützt sind, überzugehen ist. Sind keine Rahmenbedingungen definiert, unter denen das Nichtbefolgen von Vorgaben akzeptabel ist, und wird dennoch vom defi-
304
Kapitel 17 • Komplexität handhaben – Handeln vereinheitlichen – Organisationen sicher gestalten
nierten Vorgehen abgewichen, handelt es sich um eine Regelverletzung.
Regelverletzungen Bei Regelverletzungen handelt es sich um bewusste Abweichungen von Vorgaben, ohne dass dabei die potenziell negativen Konsequenzen dieser Regelverletzung beabsichtigt wären (7 Kap. 3.4.4 und 7 Kap. 14.1). In der betrieblichen Praxis nehmen Regelverletzungen ihren Ursprung meist in dem Bestreben, die geforderten Arbeitsergebnisse trotz gewisser Hindernisse zu gewährleisten. Je nach Häufigkeit bestimmter Abweichungen im Arbeitsprozess kann dies dazu führen, dass bestimmte Regeln nicht nur in Ausnahmefällen übertreten werden, sondern dass die Regelverletzung
17
Relevante mikro-organisationale Faktoren sind z. B.: 5 Häufigkeit von Abweichungen im Arbeitsprozess und die damit verbundenen Risiken, 5 Kohäsion innerhalb der Arbeitsgruppe bzw. 5 sicherheitsbezogenes Verhalten des unmittelbaren Vorgesetzten. Wie Rundmo (2000) zeigen konnte, stellt das Ausmaß, in dem Regelverletzungen in einer Organisation akzeptiert werden und damit ein Bestandteil der Sicherheitskultur sind, den besten Prädiktor für die Häufigkeit von Regelverletzungen dar (s. zur zentralen Bedeutung der Sicherheitskultur auch 7 Kap. 2.4 und 7 Kap. 9.6.1).
Bestandteil des routinisierten Arbeitshandelns
Strikte Regelbefolgung notwendig? Im Zusam-
wird (vgl. Lawton, 1998). Häufig wird hierbei das mit einer Regelverletzung verbundene Risiko unterschätzt (Hopkins, 2011). Eine mögliche Ursache hierfür ist, dass der Sinn gewisser Regeln für die operativ tätigen Personen aufgrund mangelnder Prozesstransparenz nicht nachvollziehbar ist. Aus Organisationsperspektive geht durch routinemäßige Regelverletzungen – und dies ist zunächst einmal unabhängig davon, ob sich dadurch Sicherheitseinschränkungen ergeben oder nicht – die beabsichtigte Koordinationswirkung von Regeln verloren. Die lokale betriebliche Praxis weicht von den zentral vorausgeplanten Abläufen ab; in der Regel ohne dass die für die Planung verantwortlichen Organisationseinheiten hiervon Kenntnis haben.
menhang mit Regelverletzungen stellt sich die Frage, inwiefern es insbesondere in Hochrisiko-Industrien als sicherheitsförderlich anzusehen ist, strikte Regelbefolgung unter allen Umständen zu fordern. 5 Welche möglichen Risiken erwachsen aus einer solchen Forderung? 5 Sind Regeln und standardisierte Vorgehensweisen darauf ausgerichtet, den Operateur in der Überwachung und Steuerung eines komplexen Systems zu unterstützen, oder sollen sie den Operateur kontrollieren? 5 Welche Anforderungen stellt die Forderung nach einer situationsflexiblen Anpassung der Regelanwendung an die Arbeitenden und das Arbeitssystem?
Makro- und mikro-organisationale Faktoren Verschiedene Studien belegen, dass zur Vermeidung von Regelverletzungen sowohl makro-organisationale als auch mikro-organisationale Faktoren zu berücksichtigen sind (vgl. z. B. Battmann & Klumb, 1993; Lawton, 1998; Simard & Marchand, 1995). Beispiele für makro-organisationale Faktoren sind in diesem Zusammenhang: 5 Haltung des höheren Managements gegenüber Sicherheitsfragen, 5 Vorhandensein eines konsistenten Sicherheitsmanagementsystems sowie 5 Stabilität des ökonomischen Umfelds.
Je komplexer ein System ist und je häufiger Prozessschwankungen auftreten, desto schwieriger wird es, für alle möglichen Systemzustände eine passende Regel zu definieren. Es können also Lücken entstehen zwischen den vorhandenen Verfahrensanweisungen und der gegebenen Situation (vgl. Dien, 1998). Die vermeintliche Lösung besteht oft in der Erzeugung von noch mehr und noch umfassenderen Regeln. Wenn als Konsequenz neue Richtlinien erlassen oder vorhandene um Vorgaben für das neu aufgetretene Problem ergänzt werden, nimmt die Regeldichte zu. Eine erhöhte Regeldichte erschwert es den Arbeitenden oft, den Überblick zu wahren und in jeder Situation die richtige Regel zur Anwendung zu bringen. Entsprechend gilt es,
17.2 • Umgang mit Komplexität auf der Ebene der Organisation
Regeldichte und lokale Handlungsspielräume zu balancieren. Bevor auf alternative Ansätze der Organisationsgestaltung eingegangen wird, die konzeptionell an die hier aufgeworfenen Fragen anknüpfen, soll an einem Beispiel aus der Medizin auf Handlungsstile als (subjektiv) bedeutsamer Aspekt des Handelns in komplexen Systemen eingegangen werden. Dieser Aspekt, der die Bedeutung der Balance zwischen Vereinheitlichung und Flexibilität
hervorhebt, findet in der Diskussion um Standardisierungsbestrebungen bislang wenig Beachtung.
Handlungsstile versus Vereinheitlichung des Handelns? Grundannahme psychologischer Konzepte zu Handlungsstilen bzw. persönlichen Arbeitsweisen oder Arbeitsstrategien ist, dass in der Auseinandersetzung mit der Arbeitstätigkeit – wie auch im Hinblick auf andere Tätigkeiten des Menschen – relativ stabile individuelle Vorgehensweisen ausgebildet werden. So definiert z. B. Triebe (1977, S. 224) Handlungsstrategien als
» […] Formen einer weitgehend bewußtseinsfähigen, wenngleich nicht durchgängig bewußtseinspflichtigen Auseinandersetzung mit den Arbeitsaufgaben und ihren Durchführungsbedingungen, in deren Verlauf es zu einer Herausbildung übergeordneter (unter Umständen jedoch unscharfer, einander vielfältig überlappender und nur zum Teil expliziter) ‚Kriterien‘ kommt, an denen sich das Vorgehen orientiert.
«
Hacker (1976) betont, dass bei komplexen Tätigkeiten die erfolgreicheren Arbeitenden gerade dadurch zu charakterisieren sind, dass sie selbstständig, ggf. schöpferisch, effiziente und individuelle Strategien entwickeln, die ein Resultat gründlicher gedanklicher Analysen sind. Auf dieser Grundlage ist dann auch ein flexibler Umgang mit Regeln und Standards möglich. Ein komplexes Arbeitssystem, in dem persönliche Arbeitsweisen und Handlungsstile ein zentrales Element des Professionalitätsverständnisses darstellen, ist die Medizin. Dennoch hat die Standardisierungsdiskussion inzwischen auch in die Medizin Einzug gehalten, wobei v. a. ein Mangel an
305
17
Standardisierung beklagt wird (vgl. z. B. Carayon & Friesdorf, 2006). Woods & Cook (2001) betonen demgegenüber die Grenzen der Standardisierbarkeit in der Medizin und die Notwendigkeit eines angemessenen Umgangs mit Komplexität. Erste empirische Studien belegen, dass die Möglichkeit zur individuellen Anpassung medizintechnischer Geräte (z. B. das Setzen von Alarmen in der Anästhesie) zu Leistungsverbesserungen führen kann, die die Kosten der dafür aufgewendeten Zeit aufwiegen (Watson, Sanderson & Russell, 2004). Um die Bedeutsamkeit von Spielräumen für individuelle Handlungsstile in der Anästhesie aus Sicht der in diesem System tätigen Personen zu erfassen, wurde eine schriftliche Befragung durchgeführt, deren Ergebnisse in der folgenden Übersicht dargestellt sind. Zusammenfassend zeigt sich, dass Handlungsstile von den befragten Ärzten und Pflegekräften als bedeutsam angesehen werden und dass ihnen Relevanz in Bezug auf die Sicherheit der Narkoseführung zugeschrieben wird. Explizit nach einer möglichen Standardisierung gefragt, wird diese zwar von ca. der Hälfte der Befragten als möglich angesehen, eine Harmonisierung der persönlichen Handlungsstile im Sinne eines innerhalb der Abteilung ausgehandelten Konsenses wird jedoch eher als sinnvoll eingeschätzt. Die von Organisationsseite mittels Standardisierung und damit mittels einer Reduzierung der individuellen Entscheidungsspielräume angestrebte Reduktion von Komplexität und der damit verbundenen Unsicherheit wird also von den in der Anästhesie tätigen Personen eher zurückgewiesen. Harmonisierung statt Standardisierung In die schriftliche Befragung zu Handlungsstilen von Anästhesistinnen und Anästhesisten in der Narkoseführung – verstanden als die individuelle Färbung oder Prägung des Handlungsvollzugs – wurden alle Ärzte und Pflegekräfte einer Klinik für Anästhesiologie einbezogen (Intensivpflegestation und OP-Bereich; Manser, Leins & Wehner, 1998). Der Rücklauf betrug für die Ärzte 64% (n = 56) und für die Pflegekräfte 33% (n = 59). Die Fragebogenversion für Ärzte erfragte Selbsteinschätzungen bezüglich des eigenen Handlungsstils, wohin-
306
Kapitel 17 • Komplexität handhaben – Handeln vereinheitlichen – Organisationen sicher gestalten
gegen die Pflegekräfte um Fremdeinschätzungen bezüglich des Handlungsstils der anderen Berufsgruppe gebeten wurden. Im Folgenden sind die Ergebnisse daher für beide Berufsgruppen getrennt dargestellt. Die angegebenen Prozentwerte beziehen sich bei Fragen mit mehreren Antwortmöglichkeiten darauf, wie viel Prozent aller Antworten zu einem Themenbereich auf diese Alternativen entfallen.
> Nahezu alle Befragten geben an, dass es persönliche Handlungsstile in der Narkoseführung gibt (93% der Pflegekräfte) bzw. dass sie selbst über einen persönlichen Handlungsstil verfügen (100% der Ärzte).
17
5 Die Vorteile von persönlichen Handlungsstilen liegen nach Einschätzung der Ärzte vorrangig in einer höheren Handlungssicherheit (71%), einer höheren subjektiven Zufriedenheit (67%) und einer höheren Patientensicherheit (51%). Pflegekräfte führen neben der höheren subjektiven Zufriedenheit der narkoseführenden Person (65%) insbesondere eine höhere Flexibilität (65%) als Vorteil an. 5 Nachteile von persönlichen Handlungsstilen werden hauptsächlich auf der Ebene der Zusammenarbeit und dort in einer geringeren Berechenbarkeit für das Team gesehen (50% Ärzte; 61% Pflegekräfte), aber auch in einer mangelnden Austauschbarkeit (39% Ärzte) sowie einer reduzierten Kontrollierbarkeit (42% Pflege). 5 Unterschiede in den persönlichen Handlungsstilen werden v. a. hinsichtlich Sicherheit, Zusammenarbeit und Problemlösung gesehen. Bezüglich Sicherheit werden Unterschiede hinsichtlich vorausschauenden Handelns (48% Ärzte; 60% Pflegekräfte) und der Sicherheit im Umgang mit unerwarteten Ereignissen hervorgehoben (32% Ärzte; 65% Pflegekräfte). Zudem führen Pflegekräfte mit 40% deutlicher Unterschiede in der Nachvollziehbarkeit des Handelns an als Ärzte (20%).
5 Auswirkungen der Unterschiede in den Handlungsstilen werden vorwiegend im Hinblick auf die Arbeitsatmosphäre (beide Personengruppen 84%) und die Interaktion im Team (80% Ärzte; 60% Pflegekräfte), aber auch auf die Patientensicherheit (73% Ärzte; 72% Pflegekräfte) und den Verlauf der Anästhesie (59% Ärzte; 56% Pflegekräfte) gesehen. 5 Deutlich über die Hälfte der Befragten (88% Ärzte; 58% Pflegekräfte) gehen davon aus, dass es möglich ist, Handlungsstile zu wechseln. Als möglicher Auslöser für einen Wechsel des Handlungsstils wurden der Erhalt neuer Informationen (63% Ärzte; 54% Pflegekräfte) sowie das Auftreten eines Zwischenfalls (52% Ärzte; 77% Pflegekräfte) und die Zusammensetzung des Teams (67% Ärzte; 47% Pflegekräfte) genannt. 5 Über die Hälfte der Befragten hält sowohl eine für alle Anästhesistinnen und Anästhesisten verbindliche Festlegung der Handlungsverläufe in der Narkoseführung (Standardisierung) als auch einen innerhalb der Abteilung ausgehandelten Konsens (Harmonisierung der persönlichen Handlungsstile) für möglich. Eine Harmonisierung wird (von 66% der Ärzte und 64% der Pflegekräfte) eher als sinnvoll eingeschätzt als eine Standardisierung (16% der Ärzte und 32% der Pflegekräfte). Positive Auswirkungen einer Harmonisierung bzw. Standardisierung werden insbesondere hinsichtlich der Sicherheit im Umgang mit unerwarteten Ereignissen (71% Ärzte; 53% Pflegekräfte) und der Sicherheit für den Patienten (63% Ärzte; 53% Pflegekräfte) sowie im Hinblick auf die Zusammenarbeit im Team (61% Ärzte; 67% Pflegekräfte) angenommen.
Grenzen der Standardisierbarkeit und alternative Ansätze der Organisationsgestaltung Die im vorangegangenen Abschnitt dargestellten Ansätze zur Standardisierung veranschaulichen,
17.2 • Umgang mit Komplexität auf der Ebene der Organisation
dass eine auf die Minimierung von Unsicherheit ausgerichtete Organisationsgestaltung enorme Ressourcen für die zentrale Planung und Steuerung sowie die kontinuierliche Überwachung der regelkonformen Ausführung der vorgegebenen Arbeitshandlungen aufwenden muss. Kritiker dieses Ansatzes der Organisationsgestaltung heben v. a. hervor, dass Standardisierung an ihre Grenzen stößt, sobald das Ausmaß der mit der Komplexität des Systems und seiner Umwelt verbundene Unsicherheit ein gewisses Niveau übersteigt, da damit die Fähigkeit des Systems zu situationsflexiblem Verhalten drastisch eingeschränkt wird (vgl. z. B. Amalberti, 1999; Grote, 1997, 2004; Perrow, 1967, 1984; Weick & Sutcliffe, 2001).
» Pläne und Programme sind Instrumente der Vorauskoordination. Ihre Koordinationswirkung hängt davon ab, daß zukünftige Entwicklungen vollständig erfasst und korrekt prognostiziert werden. (Kieser & Kubicek, 1992, S. 117)
«
So weisen z. B. Ashmos, Duchon, McDaniel & Huonker (2002, S. 196) darauf hin, dass Regelwerke die Anpassung von Organisationen an ihre Umwelt behindern:
» Complex and timely adaptive behaviors can best be achieved from organizational processes that are free of elaborate, restrictive rules and control features, because elaborate rules and control systems restrict both creative thinking and action.
«
Regeln können sich also in verschiedener Hinsicht als Hindernisse für Lernprozesse in Organisationen erweisen. Zum einen engen Regeln – mit dem Ziel der Komplexitätsreduktion – den Handlungs- und Entscheidungsspielraum von Akteuren und Akteurinnen ein. Aus Organisationssicht kann eine strikte Regeleinhaltung zwar die Koordination im Sinne der in diesen Regeln gespeicherten Erfahrung gewährleisten, indem das Verhalten der Mitarbeitenden gewissermaßen vorprogrammiert wird. Eine mögliche Konsequenz besteht aber auch in unangemessenen Reaktionen auf (neue) Stimuli aus der Organisationsumwelt oder Schwankungen und Störungen im Arbeitsprozess.
307
17
> Seitens der Organisations- und Arbeitswissenschaften wurden alternative Ansätze der Organisationsgestaltung vorgeschlagen, die eine Balance zwischen der Vorhersehbarkeit und Steuerbarkeit eines Systems und dessen Flexibilität anstreben und entsprechend den kompetenten Umgang der in einem komplexen System tätigen Personen mit den Auswirkungen von Unsicherheit ins Zentrum rücken.
Regeln und Programme werden in diesem Zusammenhang als Ressource für situatives Handeln verstanden, wobei die Pläne an die situativen Erfordernisse flexibel angepasst werden müssen. Den lokalen Akteuren werden somit Handlungsspielräume übertragen, indem ihnen vollständige Aufgaben delegiert werden. Diese Gedanken finden sich bereits früh in der organisationswissenschaftlichen Literatur und sind u. a. in das zentrale Gestaltungsprinzip des soziotechnischen Systemansatzes (vgl. Emery, 1959) – die lokale Regulation von Schwankungen und Störungen am Ort ihres Entstehens – eingeflossen. Denkt man die Forderung nach einem dezentralen, kompetenten Umgang mit Unsicherheit konsequent weiter und betrachtet Unsicherheit, die damit verbundenen Prozessschwankungen oder allgemeiner gefasst unerwartete Ereignisse nicht primär als Störungen im Arbeitsprozess, die zu eliminieren sind, ist deren zentrale Bedeutung für die Entwicklungsfähigkeit komplexer Systeme, für Veränderung und Innovation einschließlich des Lernens der darin handelnden Personen hervorzuheben (vgl. z. B. Hukki & Norros, 1993; Norros, 1996; Wehner, 1992; Wehner & Stadler, 1994). Entsprechend haben verschiedene Autoren darauf hingewiesen, dass Sicherheitsmanagementsysteme zunächst zu einer Reduktion sog. »incidents« (Beinahe-Unfälle, unplanmäßige Produktionsausfälle, sicherheitsgefährdende Vorkommnisse etc.) führen mögen, dass jedoch die Abwesenheit von »incidents« die Sicherheit eines Systems paradoxerweise wieder reduzieren kann (vgl. Amalberti, 2001; Marais, Saleh & Leveson, 2006). Zum einem reduziert sich hierdurch die Möglichkeit zum Kompetenzerwerb und -erhalt. Zum anderen birgt die (einseitige) Optimierung bestimmter Sicherheitsmaßnahmen in vielen Fällen die Gefahr, wichtige
308
Kapitel 17 • Komplexität handhaben – Handeln vereinheitlichen – Organisationen sicher gestalten
Eigenschaften des Systems zu blockieren und somit dessen Anpassungsfähigkeit zu reduzieren. Werden geringfügige Systemschwankungen überdeckt, reduziert sich die Aufmerksamkeit im System für mögliche »incidents«, da die von den Akteuren auf unterschiedlichen hierarchischen Ebenen wahrgenommene Sicherheit auch die Zufriedenheit mit der eigenen Leistung (»complacency«) steigert (7 Kap. 19). Dies kann dazu führen, dass Sicherheitsziele mit der Zeit verwässert und Investitionen in der Folge von Sicherheitsprogrammen weg und hin zu Maßnahmen zur Produktivitätssteigerung gelenkt werden (Rasmussen, 1997). Nach und nach kann ein System so an den Rand des sicheren Betriebs driften (Rasmussen & Svedung, 2000). Fasst man diese Überlegungen zusammen, so ist es für den Erhalt und eine eventuelle Erhöhung der Sicherheit erforderlich, ein Mindestmaß an Fehlern, Prozessschwankungen, »incidents« etc. zu tolerieren. Nur so kann das Systemwissen der Mitarbeitenden erhalten und die Organisation und die darin tätigen Individuen und Teams auf die kompetente Bewältigung von Zwischenfällen vorbereitet werden. > Eine grundlegende Anforderung an Organisationen in Hochrisiko-Industrien besteht im Management von Unsicherheit, d. h. darin, eine Balance zu finden zwischen der Minimierung von Unsicherheit durch zentrale Planung und Steuerung und dem Erhalt von Kompetenzen zum dezentralen Umgang mit dieser Unsicherheit (vgl. Grote, 1997, 2004; Weick & Sutcliffe, 2001).
möglichst angemessene Balance zwischen zentraler und dezentralisierter Verteilung von Autonomie und Kontrolle schaffen können, auf das Konzept der »losen Kopplung« Bezug.
17.3.1
Lose Kopplung
Mit der »losen Kopplung« hat Weick ein Konzept in die Organisationswissenschaften eingeführt, das die Gleichzeitigkeit von Autonomie und Bindung in Organisationen bzw. von Zentralisierung und Dezentralisierung betont (Orton & Weick, 1990; Weick, 1976; 7 Kap. 10). Unter »loose coupling« versteht Weick »a situation in which elements are responsive, but retain evidence of separateness and identity« (Orton & Weick, 1990, S. 203). In Anlehnung an Thompson (1967) wird im Konzept der »losen Kopplung« davon ausgegangen, dass Systeme gleichzeitig sowohl offen als auch geschlossen sein können. Geschlossene Systeme suchen nach Sicherheit und Stabilität, wohingegen offene Systeme Unsicherheit erwarten. Treten Geschlossenheit und Offenheit gleichzeitig auf, kann man von einer »losen Kopplung« sprechen:
» The resulting image is a system that is simultaneously open and closed, indeterminate and rational, spontaneous and deliberate. […] Thus, the concept of loose coupling allows theorists to posit that any system, in any organizational location, can act on both a technical level, which is closed to outside forces (coupling produces stability), and an institutional level, which is open to outside forces (looseness produces flexibility). (Orton & Weick, 1990, S. 204 f.)
«
17.3
17
Organisationen sicher gestalten
Der dezentrale, kompetente Umgang mit Komplexität und der hieraus erwachsenden Unsicherheit nimmt eine zentrale Stellung in der sicherheitsförderlichen Organisationsgestaltung ein. Durch die Dezentralisierung besteht jedoch die Gefahr des Verlusts von Bindung innerhalb einer Organisation. Grote (2004) nimmt in der Diskussion der Frage, wie Organisationen mit Unsicherheit umgehen und eine den jeweiligen Rahmenbedingungen
Nach Orton & Weick (1990) kann »lose Kopplung« dazu beitragen, dass 5 Schwankungen und Störungen in ihren Auswirkungen lokal begrenzt bleiben bzw. sich weniger schnell im System fortpflanzen, 5 das System schneller in der Lage ist, sich an Veränderungen in seiner Umwelt anzupassen, 5 durch mehr Möglichkeiten zur Selbstbestimmung, weniger Konflikte und mehr Interaktionen die Zufriedenheit der Mitarbeitenden erhöht wird und dass
309
Literatur
17
5 eine höhere Leistung erzielt wird, sofern die Kopplungsform den Charakteristika des Systems selbst, der erforderlichen Prozesse und der Umwelt angemessen ist.
funktion einer übergeordneten Sicherheitskultur insbesondere bei dezentralisierten Strukturen von großer Bedeutung.
Gleichzeitig muss jedoch eine ausreichende Integration und Koordination der ansonsten weitgehend autonomen Subsysteme sichergestellt sein, wobei Führung und Organisationskultur eine wichtige Rolle zukommt (Weick, 1987).
17.4
17.3.2
Sicherheitskultur
Der Begriff »Sicherheitskultur« (7 Kap. 2.4, Kap. 9.6.1) findet sich in den Sicherheitskonzeptionen beinahe aller Organisationen, die in hohem Maße mit Risiken konfrontiert sind. Allgemein wird unter Sicherheitskultur die Gesamtheit der von der Mehrheit der Mitglieder einer Organisation geteilten sicherheitsbezogenen Grundannahmen und Normen verstanden, die ihren Ausdruck im konkreten Umgang mit Sicherheit in allen Bereichen der Organisation finden (INSAG, 2002). Damit bildet Sicherheitskultur die Grundlage für den Aufbau und die Umsetzung eines effektiven Sicherheitsmanagements. Im Zusammen-
hang mit den zuvor diskutierten Aspekten sicherheitsförderlicher Organisationsgestaltung kommt der Sicherheitskultur jedoch zusätzlich auch eine Koordinations- und Integrationsfunktion zu (vgl. Weick, 1987). Sicherheitskultur nimmt insofern eine Koordinationsfunktion wahr, als sie einen gemeinsamen Kern von sicherheitsbezogenen Normen und Werten liefert, auf den die Mitarbeitenden jederzeit Bezug nehmen können. Dadurch wird auch in unvorhergesehenen Situationen, für die innerhalb der Organisation keine strukturellen Koordinationsmechanismen etabliert wurden, zielgerichtetes Arbeitshandeln unterstützt. Sicherheitskultur fördert also sowohl zielkonformes Verhalten als auch das Ausschöpfen von Handlungsspielräumen im Zuge der Zielerreichung. Die Autonomie unterschiedlicher Subsysteme fördert die Entstehung von Subkulturen (z. B. zwischen Unternehmensstandorten, Abteilungen, Berufsgruppen). Entsprechend ist die Integrations-
Zusammenfassung
Der Umgang mit Unsicherheit ist eine zentrale Anforderung in komplexen Arbeitssystemen. Entsprechend stellt die adäquate Unterstützung von Organisationen und den darin tätigen Personen ein wichtiges Forschungs- und Gestaltungsfeld der Arbeits- und Organisationswissenschaften dar. Die auf die sichere Gestaltung von Organisationen ausgerichteten Ansätze zusammenfassend können zwei grundlegende Tendenzen identifiziert werden: 5 die Tendenz, Unsicherheit durch Standardisierung zu minimieren und 5 die Tendenz, den kompetenten Umgang mit Unsicherheit durch »lose Kopplung« und lokale Kontrolle zu fördern. Die richtige Balance zwischen diesen beiden Tendenzen zu finden und diese dann durch die Etablierung geeigneter Strukturen und Prozesse sowie die Förderung einer entsprechenden Sicherheitskultur zu erhalten, wird auch in Zukunft der Fokus sicherheitsförderlicher Organisationsgestaltung bleiben.
Literatur Amalberti, R. (1999). Automation in aviation: A human factors perspective. In D. Garland, J. Wise & V. Hopkin (Eds.), Handbook of aviation human factors (pp. 173–192). Mahwah, NJ: Lawrence Erlbaum. Amalberti, R. (2001). The paradoxes of almost totally safe transportation systems. Safety Science, 37, 109–126. Ashmos, D., Duchon, D., McDaniel Jr, R. & Huonker, J. (2002). What a mess! Participation as a simple managerial rule to ‚complexify’ organizations. Journal of Management Studies, 39 (2), 189–206. Battmann, W. & Klumb, P. (1993). Behavioural economics and compliance with safety regulations. Safety Science, 16, 35–46. Carayon, P. & Friesdorf, W. (2006). Human factors and ergonomics in medicine. In G. Salvendy (Ed.), Handbook of human factors and ergonomics (pp. 1517–1537). Hoboken: Wiley. Cyert, R. M. & March, J. G. (1963). A behavioral theory of the firm (2nd edn.). Malden: Blackwell Publishers.
310
17
Kapitel 17 • Komplexität handhaben – Handeln vereinheitlichen – Organisationen sicher gestalten
Dien, Y. (1998). Safety and application of procedures, or ‚how do »they« have to use operating procedures in nuclear power plants?’ Safety Science, 29 (3), 179–187. Dörner, D. (1976). Problemlösen als Informationsverarbeitung. Stuttgart: Kohlhammer. Dörner, D. (1981). Über die Schwierigkeiten menschlichen Umgangs mit Komplexität. Psychologische Rundschau, 32, 163–179. Dörner, D. (1989). Die Logik des Mißlingens. Reinbek: Rowohlt. Dörner, D., Kreuzig, H. W., Reither, F. & Stäudel, T. (1983). Lohhausen – Vom Umgang mit Unbestimmtheit und Komplexität. Bern: Huber. Emery, F. E. (1959). Characteristics of socio-technical systems. London: Tavistock. Fuhrer, U. (1984). Mehrfachhandeln in dynamischen Umfeldern. Vorschläge zu einer systematischen Erweiterung psychologisch-handlungstheoretischer Modelle. Göttingen: Hogrefe. Gawande, A. A. (2009). The checklist manifesto: How to get things right. New York: Metropolitan Books. Gebert, D. (1995). Organisationsstruktur. In W. Sarges (Ed.), Managementdiagnostik (S.156–162). Göttingen: Hogrefe. Grote, G. (1997). Autonomie und Kontrolle. Zur Gestaltung automatisierter und risikoreicher Systeme (Vol. 16). Zürich: vdf Hochschulverlag. Grote, G. (2004). Uncertainty management at the core of system design. Annual Reviews in Control, 28, 267–274. Hacker, W. (1976). Psychische Regulation von Arbeitstätigkeiten. Berlin: Deutscher Verlag der Wissenschaften. Hale, A. R. (1990). Safety rules OK? Possibilities and limitations in behavioural safety strategies. Journal of Occupational Accidents, 12, 3–20. Hale, A. R. & Swuste, P. (1998). Safety rules: procedural freedom or action constraint? Safety Science, 29, 163–177. Harrison, T. K., Manser, T., Howard, S. K. & Gaba, D. M. (2006). Use of cognitive aids in a simulated anesthetic crisis. Anesthesia and Analgesia, 103 (3), 551–556. Hayes, D. C. (1980). An organizational perspective on psychotechnical system perspective. Accounting, Organizations and Society, 5 (1), 43–47. Hopkins, A. (2011). Risk-management and rule-compliance: Decision-making in hazardous industries. Safety Science, 49 (2), 110-120. Hukki, K. & Norros, L. (1993). Diagnostic orientation in control of disturbance situations. Ergonomics, 36 (11), 1317–1327. INSAG. (2002). Key practical issues in strengthening safety culture (Safety Series No.75-INSAG-15). Vienna: IAEA. Kieser, A. & Kubicek, H. (1992). Organisation (3 ed.). Berlin: de Gruyter. Kluwe, R. (1997). Informationsverarbeitung, Wissen und mentale Modelle beim Umgang mit komplexen Systemen. In K. Sonntag & N. Schaper (Hrsg.), Störungsmanagement und Diagnosekompetenz (S. 13–37). Zürich: vdf Hochschulverlag. Lawton, R. (1998). Not working to rule: understanding procedural violations at work. Safety Science, 28 (2), 77–95.
Leplat, J. (1998). About the implementation of safety rules. Safety Science, 29, 189–204. Linden, J. V., Wagner, K., Voytovich, A. E. & Sheehan, J. (2000). Transfusion errors in New York State: an analysis of 10 years’ experience. Transfusion, 40 (10), 1207–1213. Manser, T., Leins, A. & Wehner, T. (1998). Rahmenbedingungen des Handelns und Handlungsstile in der Anästhesie (Forschungsbericht HAVANA). Zürich: Institut für Arbeitspsychologie. Marais, K., Saleh, J. H. & Leveson, N. G. (2006). Archetypes for organizational safety. Safety Science, 44, 565–582. March, J. G., Schulz, M. & Zhou, X. (2000). The dynamics of rules. Stanford, CA: Stanford University Press. Ninck, A., Bürki, L., Hungerbühler, R. & Mühlemann, H. (1998). Systemik, integrales Denken, Konzipieren und Realisieren. Zürich: Verlag Industrielle Organisation. Norros, L. (1996). System disturbances as springboard for development of operators’ expertise. In Y. Engeström & D. A. Middelton (Eds.), Communication and Cognition at Work (pp. 159–177). Cambridge: University Press. Orton, J. D. & Weick, K. E. (1990). Loosely coupled systems: A reconceptualization. Academy of Management Review, 15, 203–223. Perrow, C. (1967). A framework for the comparative analysis of organizations. American Sociological Review, 32, 194–208. Perrow, C. (1984). Normal Accidents. New York: Basic Books. Piotrowski, M. M. & Hinshaw, D. B. (2002). The safety checklist program: Creating a culture of safety in intensive care units. Jt Comm J Qual Improv, 28 (6), 306–315. Rasmussen, J. (1983). Skills, rules, and knowledge: Signals, signs, and symbols, and other distinctions in human performance models. IEEE transactions on systems, man, and cybernetics, SMC 13, 257–266. Rasmussen, J. (1997). Risk management in a dynamic society: a modelling problem. Safety Science, 27, 183–213. Rasmussen, J. & Svedung, I. (2000). Proactive risk management in a dynamic society. Karlstad: Swedish Rescue Services Agency. Reason, J. T. (1990). Human error. Cambridge: Cambridge University Press. Rundmo, T. (2000). Safety climate, attitudes and risk perception in Norsk Hydro. Safety Science, 34, 47–59. Schröder, H. M., Driver, M. J. & Streufert, S. (1967). Human information processing. New York: Holt. Simard, M. & Marchand, A. (1995). A multilevel analysis of organisational factors related to the taking of safety initiatives by work groups. Safety Science, 21 (2), 113. Simon, H. (1962). The architecture of complexity. Proceedings of the American Philosophical Society, 106 (6), 1962, 467–482. Taylor, F. W. (1911). The principles of scientific management. New York: Harper and Brothers Publishers. Thompson, J. D. (1967). Organizations in action. New York: McGraw-Hill.
Literatur
Triebe, J. K. (1977). Entwicklung von Handlungsstrategien in der Arbeit. Zeitschrift für Arbeitswissenschaft, 31 (3), 221–228. Watson, M., Sanderson, P. & Russell, W. J. (2004). Tailoring reveals information requirements: The case of anaesthesia alarms. Interacting with computers, 16, 271–293. Wehner, T. (1992). Fehlerfreie Sicherheit – weniger als ein günstiger Störfall. In T. Wehner (Hrsg.), Sicherheit als Fehlerfreundlichkeit (S. 14–33). Opladen: Westdeutscher Verlag. Wehner, T. & Stadler, M. (1994). The cognitive organisation of human errors: A Gestalt theory perspective. Applied Psychology: An Intenational Review, 43 (4), 565–584. Weick, K. & Sutcliffe, K. (2001). Managing the unexpected: assuring high performance in an age of complexity. San Francisco: Jossey-Bass. Weick, K. E. (1976). Educational organizations as loosely coupled systems. Administrative Science Quarterly, 21, 1–19. Weick, K. E. (1987). Organizational culture as a source of high reliability. California Management Review, 29 (2), 112–127. Wettig, J. (2002). New developments in standardisation in the past 15 years – product versus process related standards. Safety Science, 40, 51–56. Whitsett, C. F. & Robichaux, M. G. (2001). Assessment of blood administration procedures: problems identified by direct observation and administrative incident reporting. Transfusion, 41 (5), 581–586. Woods, D. D. & Cook, R. I. (2001). From counting failures to anticipating risks: Possible futures for patient safety. In L. Zipperer & S. Cushman (Eds.), Lessons in patient safety. A primer (pp. 89–97). Chicago: National Patient Safety Foundation.
311
17
313
Human-Factors-Training Stefan Strohschneider
18.1
Einleitung – 314
18.2
HF-Training: Rahmenbedingungen und Trainingsziele – 315
18.3
Ebenen der Intervention – 318
18.4
Trainingsmethoden in Human-Factors-Trainings – 319
18.5
Trainingsformen – 322
18.5.1 18.5.2 18.5.3 18.5.4 18.5.5 18.5.6
Drill – 322 Schulung – 322 Stabsübung, Stabsrahmenübung, Manöver – 323 Crew Resource Management (CRM) – 324 Allgemeines Krisenstabstraining – 325 Allgemeines Problemlösetraining – 326
18.6
Trainerkompetenzen – 327
18.7
Evaluation und Transfer – 328
18.8
Zusammenfassung und abschließende Bemerkungen – 329 Literatur – 330
P. Badke-Schaub et al., Human Factors, DOI 10.1007/978-3-642-19886-1_18, © Springer-Verlag Berlin Heidelberg 2012
18
314
Kapitel 18 • Human-Factors-Training
Beispiel
18
Die sieben Personen rund um den großen Tisch werden zunehmend lauter. Seit gut 1 h agieren sie nun schon im Rahmen eines Human-Factors-Trainings als Führungscrew der MS Antwerpen – eines alten, von allerlei Problemen geplagten Kreuzfahrtschiffes. Auch wenn es sich dabei »nur« um eine Computersimulation handelt, haben sie sich mittlerweile mit ihrer jeweiligen Rolle (Kapitän, Erster Ingenieur, Chefsteward, Erster Offizier etc.) identifiziert und in ihre Aufgabenfelder eingearbeitet. Langsam nimmt die Anspannung zu. Das Wetter verschlechtert sich immer weiter, und der Wind hat fast Sturmstärke erreicht. Der Seegang am Rande der Grand Banks mitten im Nordatlantik ist unangenehm ruppig und einige Maschinen, besonders der Backbord-Hilfsdiesel machen Ärger und benötigen konstante Aufmerksamkeit. Außerdem muss man sich um einen randalierenden Passagier kümmern, das Radar wegen der vielen Fischerboote besonders gründlich im Auge behalten und nun schlägt auch noch ein Rauchmelder in einer Passagierkabine im weit unten liegenden C-Deck an. Der Kapitän versucht, schnell und entschlossen zu handeln. Seine Befehle sind jedoch so allgemein gehalten, dass niemand weiß, wer eigentlich was tun soll. Aber offenbar hält er die Situation für gefährlich, denn sein Ton gegenüber den anderen Gruppenmitgliedern verschärft sich deutlich. In diesem Moment trifft ein Funkspruch von einem in der Nähe befindlichen Trawler ein. Dieser meldet eine Störung seiner Radaranlage und bittet um Positions- und Kursangaben. Diese Anfrage lenkt die Aufmerksamkeit der Gruppe vom Feuer weg, und erst einige Minuten später erinnert der Erste Offizier die Gruppe wieder daran. Daraufhin wird entdeckt, dass niemand Besatzungsmitglieder zu der betreffenden Kabine geschickt hat, um nachzusehen, was los ist und den Brand ggf. zu löschen, weil völlig unklar geblieben war, wer dafür verantwortlich gewesen wäre. Bevor der Kapitän schließlich die entsprechenden Befehle gibt, verteidigt er sich ausführlich gegenüber der Gruppe. Er wirkt in dieser Phase stark gestresst und niemand denkt daran, die Passagiere zu informieren, Verletzte zu bergen oder benachbarte Kabinen auf eine eventuelle Feuerausbreitung hin zu kontrollieren. Eine weitere Mel-
dung (eine unerhebliche Passagierbeschwerde) lenkt die Gruppe erneut ab. Nur der Kapitän scheint sich noch mit dem Feuer zu beschäftigen, aber da es von allen anderen Teilnehmern ignoriert wird, gibt er keine weiteren Befehle. Nachdem einige Minuten später der Rauchmelder auf »aus« springt, werden dem Passagier, der den Brand verursacht hat, ein paar kostenlose Drinks in einer der Bars angeboten. Ein Glück nur, dass das Feuer von der automatischen Sprinkleranlage gelöscht worden war (nach Schindewolf, 2002).
18.1
Einleitung
Die Einsicht in die Notwendigkeit des Trainings von Human Factors (HF) ist erstaunlicherweise noch gar nicht so alt. Sie markiert den Übergang zwischen zwei Sichtweisen des arbeitenden Menschen: 5 auf der einen Seite das traditionelle Bild vom zuverlässigen und gehorsamen Ausführer präziser Anweisungen, Vorschriften und Routinen, 5 auf der anderen Seite der moderne Manager, der, gemeinsam mit anderen, komplexe, neuartige, nur in Ansätzen durch Regeln beherrschbare Herausforderungen zu bewältigen hat. Das einleitende Beispiel gibt einen Eindruck von diesen Herausforderungen und von den – keineswegs untypischen – Schwierigkeiten, die Menschen dabei haben. Die Schlussfolgerungen daraus sind (noch) sehr unterschiedlich. In einigen sicherheitssensiblen Branchen (z. B. Luftfahrt, Kernenergie) hat man Vorstellungen darüber entwickelt, welche Kompetenzen erweitert werden müssen, sowie systematische HF-Trainings entwickelt und verbindlich vorgeschrieben. In anderen Branchen (z. B. in der Medizin, in der Seefahrt oder im Business Continuity Management) versucht man, diese Konzepte zu adaptieren, ist aber noch weit von jeder Verbindlichkeit entfernt. In wieder anderen Branchen folgt man eher eigenen Ausbildungstraditionen, in einigen Bereichen gibt es überhaupt keine HF-Trainings.
18.2 • HF-Training: Rahmenbedingungen und Trainingsziele
Das Kapitel versucht einen systematischen Überblick über das Thema, in dem Überblicksliteratur noch rar ist. Einige vertiefende Arbeiten sind in dem Band von Tobias & Fletcher (2000) versammelt, speziell über Planspiele siehe Blötz (2005) und über Simulationen Vincenzi, Wise, Mouloua & Hancock (2008). Dieser Überblick folgt einem sehr weit gefassten Verständnis von HF und ihrer Trainierbarkeit und möchte auch solchen Leserinnen und Lesern eine Orientierung bieten, die (noch) keine ausgesprochenen HF-Spezialisten sind. Erste Überlegungen gelten daher den Problemen der Definition von Trainingszielen und der Auswahl der Trainingsteilnehmer (»Ebenen der Intervention«). Daran anschließend werden verschiedene Trainingsmethoden vorgestellt und diese zu den möglichen Trainingszielen in Beziehung gesetzt. Die meisten Trainings bestehen allerdings aus einer Kombination verschiedener Methoden. Deshalb werden im folgenden Abschnitt fünf typische Grundformen von HF-Trainings vorgestellt und diskutiert. Die abschließenden Abschnitte beschäftigen sich mit den Trainerkompetenzen und mit den Problemen von Evaluation und Transfer.
18.2
HF-Training: Rahmenbedingungen und Trainingsziele
Jeder Personalentwickler, jeder Krisenmanager, jeder für die sichere und effiziente Steuerung komplexer Prozesse Verantwortliche wird (wenn nicht die Rechtslage vorschreibt, was zu tun ist) damit beginnen, Theorien über die Schwachstellen und Defizite in seinem Verantwortungsbereich aufzustellen und diese in positive Trainingsziele umzuformulieren. Es ist in diesem Zusammenhang sinnvoll, von den Anforderungen auszugehen, die der Umgang mit komplexen soziotechnischen Systemen an den Menschen stellt. Aus der Literatur (z. B. Prince & Salas, 1993; Cannon-Bowers, Tannenbaum, Salas & Volpe, 1995) lässt sich zusammenfassend die in der folgenden Übersicht dargestellte Liste aufstellen.
315
18
Anforderungen komplexer soziotechnischer Systeme 5 Technisches Wissen: Vertieftes technisches Verständnis der zu bedienenden Geräte und strukturelles Wissen über ihre Interaktion und Zuverlässigkeit 5 Operative Kompetenz: Sicheres Beherrschen vielfältiger Routinen und Prozeduren, auch unter erschwerten Bedingungen 5 Werte: Sicherheitsbewusstsein und »Verinnerlichung« weiterer organisationstypischer Werte wie Zuverlässigkeit, partnerschaftlicher Umgang miteinander, Risikobewusstsein 5 Belastbarkeit: Psychische Belastbarkeit (Stressresistenz) und physische Belastbarkeit gegenüber unangenehmen Umweltbedingungen, Schlafmangel, Hunger etc. (in der älteren Literatur zusammenfassend als »hardiness« bezeichnet) 5 Lageerfassung: Schnelle und sichere Auffassungsgabe, Fähigkeit zur Erfassung komplexer Situationen und Datenmuster, Fähigkeit zur Entwicklung gedanklicher Vorstellungen über die Weiterentwicklung der Lage (Szenariobildung) 5 Übersicht: Konstruktiver Umgang mit Informationsüberflutung und Fähigkeit zur Bewahrung des Überblicks sowohl in Bezug auf die »Lage« als auch in Bezug auf die Kollegen (»situational awareness«, Situationsbewusstsein) 5 Kommunikationskompetenz: Fähigkeit, situativ adäquate Kommunikationsregeln aufzustellen und einzuhalten 5 Teamfähigkeit: Fähigkeit zur Prozesssteuerung, konstruktiver Umgang mit Meinungsvielfalt, Fähigkeit zur Entwicklung gemeinsamer mentaler Modelle 5 HF-Wissen: Kenntnis der psychologischen Grundlagen in Bereichen wie Wahrnehmung und Aufmerksamkeit, Denken und Entscheiden, Kommunikation u. a. (häufig unter dem Schlagwort »human performance and limitations« zusammengefasst) 5 Sachorientierung und Rationalität, auch in bedrohlichen Situationen
316
Kapitel 18 • Human-Factors-Training
Art der Aufgabe: Operativ Teambezogen Organisatorisch / leitend
Organisatorischer Kontext: Geschichte Führungs- und Entscheidungsgewohnheiten
Anforderungen: Technische Fähigkeiten Nichttechnische Fähigkeiten Organisatorisch-strategische Fähigkeiten
(National-)kultureller Kontext: Kommunikative Stile Machtdistanz u. a.
. Abb. 18.1
18
Rahmenbedingungen für die Zielentwicklung für Human-Factors-Trainings
5 Problemlösekompetenz: Fähigkeit zur sinnvollen Komplexitätsreduktion (z. B. durch Visualisierungstechniken), zur Entscheidungsfähigkeit auch unter Unsicherheit, Fähigkeit, die wesentlichen Fallgruben beim Umgang mit Komplexität zu vermeiden, strategische Kenntnisse 5 Profunde Erfahrungsvielfalt, verbunden mit strategischer Flexibilität 5 Führung: Grundlagen des Führungshandelns, Fähigkeit zur Anpassung des Führungsverhaltens an situative Erfordernisse 5 Selbsteinschätzung: Realistische Einschätzung der eigenen Stärken und Schwächen 5 Zunehmend auch interkulturelle Kompetenz
Das ist eine beeindruckende Liste von Anforderungen. Aber natürlich muss nicht jeder alles können. Die relative Bedeutung der Kompetenzen hängt von einer Vielzahl von Rahmenbedingungen ab (. Abb. 18.1). Art der Aufgabe. Ein erster wichtiger Faktor ist
sicherlich die Art der Aufgabe: Man geht im Allgemeinen davon aus, dass Menschen, die operative Aufgaben zu erledigen haben (Einsatzkräfte, Anlagenfahrer, Bedienpersonal), v. a. hinsichtlich der erstgenannten Anforderungen zu trainieren sind (bisweilen mit dem Ausdruck »technical skills« – technische Fertigkeiten – zusammengefasst). Entsprechende Trainingskonzepte müssen deshalb bereichsspezifisch aufgebaut sein – die Notfallprozeduren bei einem Maschinenschaden eines ICE lassen sich nicht ohne Weiteres auf eine Passagierfähre auf der Ostsee übertragen.
18.2 • HF-Training: Rahmenbedingungen und Trainingsziele
Als »non-technical skills« (nichttechnische Fertigkeiten) bezeichnet man demgegenüber Fertigkeiten und Fähigkeiten, die v. a. mit den psychologischen Bedingungen individueller Leistungsfähigkeit sowie der Gestaltung von Gruppenprozessen zu tun haben. Hier geht man von einer stärkeren Generalisierbarkeit aus: Die zentralen Aspekte einer erfolgreichen Gruppenbildung (»team formation«) und ständiger Gruppenpflege (»team maintenance«) dürften sich zwischen einem Flugzeugcockpit, einer Schiffsbrücke und einem Maschinenkontrollraum nicht wesentlich unterscheiden. Das Gleiche gilt für die Auswirkungen von Ermüdung auf Entscheidungsprozesse oder die menschliche Neigung zur Suche nach bestätigender Information. Kommunikationsregeln dagegen müssen angepasst werden: »Gutes« Kommunikationsverhalten in einem kleinen Team von Brandursachenuntersuchern sieht anders aus als das in einem großen polizeilichen Führungsstab. Von den »non-technical skills« sollte man eine dritte Gruppe von Anforderungen unterscheiden, die mit übergeordneten Führungsaufgaben, der Integration verschiedener organisatorischer (Teil-)Systeme und dem Treffen bzw. Verantworten von Entscheidungen außergewöhnlicher Bedeutsamkeit zu tun haben. Man kann diese Kompetenzen mit dem Schlagwort organisatorisch-strategische Fähigkeiten zusammenfassen (bisweilen findet man auch den Ausdruck »generic competencies«; vgl. Strohschneider, 2009). Denn im Wesentlichen geht es – unabhängig von der konkreten Situation – immer darum, Informationsverarbeitung und -integration, Definition von Handlungsschwerpunkten, Strukturen und Mechanismen der Zusammenarbeit, Methoden der Entscheidungsfindung und strategische Grundausrichtung flexibel an sich ständig ändernde Umstände anzupassen. Systemgröße. Eine weitere wichtige Komponente bei der Beurteilung der Bedeutung der genannten Anforderungen ist die Systemgröße bzw. das Ausmaß an funktionaler Differenzierung. Der einsame Überwacher eines Maschinenkontrollraums sollte hinsichtlich anderer Kompetenzen trainiert werden als die Besatzung eines Rettungshubschraubers oder ein OP-Team mit jeweils klar umrissenen Aufgabenfeldern. Bei größeren Gruppen ohne
317
18
klare funktionale Differenzierung oder bei solchen Gruppen, die sich mit unklar offenen oder dynamischen Problemen auseinandersetzen müssen (Planungsgruppen, Krisenstäbe), bekommen die »weichen« Kompetenzen eine zunehmend größere Bedeutung. Organisationskontext. Anforderungen an menschliches Handeln dürfen darüber hinaus nicht unabhängig vom organisatorischen Kontext definiert und analysiert werden. Manche Organisationen haben im Laufe ihrer Geschichte sehr präzise, manchmal sogar rigide (und oft sehr erfolgreiche) Vorschriften dafür entwickelt, wie man operative Aufgaben löst, wie man miteinander kommuniziert, wie geführt wird. Man denke in diesem Zusammenhang etwa an die Polizei oder an die Feuerwehr. Der Erfolg solcher Organisationen hängt in nicht unwesentlichem Maße davon ab, dass sämtliche Mitglieder die entsprechenden Regeln und Routinen sicher beherrschen. HF-Training muss diese gemeinsame Basis sicherstellen, alles andere würde den Erfolg der Organisation gefährden sowie Verwirrung und Widerstand hervorrufen. Erst darauf aufbauend können dann kommunikative Fähigkeiten, Gruppenprozeduren und flexible Führungsmuster entwickelt werden, die den Umgang mit »außergewöhnlichen Betriebszuständen« verbessern. So wäre es beispielsweise verfehlt, die Besatzung eines Schiffes mit seiner historisch gewachsenen straffen Kommandostruktur im Hinblick auf den Abbau des Hierarchiegefälles zu trainieren (weil sich das in bestimmten Notfällen als hilfreich erweist), ohne dafür zu sorgen, dass die Alltagsarbeit weiterhin effizient und sicher erledigt wird. Kultureller Kontext. Schließlich spielt der (national-)kulturelle Kontext eine entscheidende Rolle bei der Beurteilung der Bedeutung möglicher Trainingsziele. Eine in diesem Zusammenhang relevante Dimension ist die Unterscheidung von »high-context cultures« (HCC, hochkontextualisierte Kulturen) und »low-context cultures« (LCC, kontextarme Kulturen; Hall & Hall, 1990). In hochkontextualisierten Kulturen basiert die zwischenmenschliche Kommunikation auf der Annahme, dass die Kommunikationsmitglieder sehr viel Hintergrund- und Kontextwissen teilen. Die
318
Kapitel 18 • Human-Factors-Training
Kommunikation ist eher indirekt, arbeitet viel mit Andeutungen, Metaphern und nonverbalen Hinweisen. Klare Anweisungen und Befehle gelten als unhöflich und beschädigen die Bereitschaft zur Zusammenarbeit. In kontextarmen Kulturen dagegen basiert die Kommunikation auf der Annahme, dass relevante Informationen ausgesprochen und Verhaltenserwartungen klar formuliert werden. Anspielungen und dergleichen erzeugen hier nur Verwirrung und Unsicherheit (s. dazu auch Strohschneider & Heimann, 2009). Das Training von »non-technical skills« muss, um erfolgreich zu sein, sehr genau an derartige kulturelle Unterschiede angepasst werden, weshalb auch das Trainingsziel »interkulturelle Kompetenz« (verstanden als Fähigkeit von Teams, mit unterschiedlichen Vorstellungen über Kommunikation und Teamarbeit kompetent umzugehen; vgl. Gröschke, 2009) im HF-Kontext zunehmend wichtiger werden wird. > Bei der Erstellung von Trainingszielen müssen die Art der Aufgabe, der Organisationskontext und (national-)kulturelle Faktoren berücksichtigt werden.
18.3
18
Ebenen der Intervention
Trainings basieren auf der Annahme, dass es irgendwo im betrachteten soziotechnischen System Defizite gibt, die nicht rein technischer Natur sind, und dass sich diese durch geeignete Interventionen beheben lassen. Damit diese Interventionen Erfolg haben können, ist es wichtig, verschiedene Ebenen der Intervention zu unterscheiden und sich dann auf die in der diagnostischen Phase (s. dazu Buerschaper, Harms, Hofinger & Rall, 2003) erkannte defizitäre Ebene zu konzentrieren – was im Einzelfall auch heißen kann, auf ein spezifisches HF-Training zu verzichten. Ferner ist auf jeder Ebene zu überlegen, wo jeweils die Grenzen der Veränderbarkeit liegen. . Abb. 18.2 macht den Grundgedanken deutlich: Der arbeitende Mensch ist gleichzeitig ein Individuum mit Stärken und Schwächen und Mitglied eines Teams (einer Besatzung, einer Arbeitsoder Einsatzgruppe). Dieses Team wiederum ist Bestandteil einer größeren Organisation mit ihren
Kultur Organisation
Individuum Team
Branche
. Abb. 18.2 Trainings
Ebenen der Intervention für Human-Factors-
spezifischen Eigenarten. Die Organisation wiederum ist in den größeren Kontext einer ganzen Branche mit ihrer spezifischen Geschichte und Kultur eingebettet und ihrerseits Teil eines übergeordneten nationalen oder übernationalen Kulturraums (Wilpert & Fahlbruch, 2004). Diese Einsicht ist zwar weder besonders neu noch besonders originell, doch wirft sie gravierende Fragen nach dem richtigen Adressaten eines Trainings auf. Beispielsweise zeigt Dekker (2005) anhand der Analyse des Absturzes einer MD 80 der Alaska Airlines im Jahre 2000 im Ozean vor Kalifornien, wie das ganze System Luftfahrtindustrie mit seinen verschiedenen Teilsystemen (Hersteller, Wartungsteams, Luftfahrtbehörden, Flottenmanagement) über Jahre und Jahrzehnte hin Schritt für Schritt in Richtung zunehmender Unsicherheit rutschen konnte, bis schließlich eine simple Gewindewelle brach und das Flugzeug zum Absturz brachte. Wäre es zur Verhinderung der Wiederholung eines derartigen Unglücks richtig, die Flugzeugmechaniker in Human Factors zu trainieren? Oder die Konstrukteure? Oder das Management? Oder alle zusammen? Oder, um ein anderes Beispiel zu wählen, wenn Lorei (2001) zeigt, dass polizeiliche Einsatzkräfte häufig ein sehr unterentwickeltes Bewusstsein für die Bedeutung der Eigensicherung haben und es deshalb immer wieder zu schweren Verletzungen und sogar Todesfällen bei der Polizei kommt – wäre es dann richtig, die einzelnen Beamten besser zu instruieren und zu trainieren,
319
18.4 • Trainingsmethoden in Human-Factors-Trainings
oder wäre hier die Ebene der Gesamtorganisation (eine Länderpolizei) die, auf der eine Veränderung angestrebt werden sollte? In einigen sicherheitssensiblen Branchen sind Trainingsinhalte und Trainingsteilnehmer rechtsverbindlich festgeschrieben (z. B. in der zivilen Luftfahrt durch die international gültigen JAROPS, 7 Kap. 12.1 und 7 Kap. 9.6.4; Ähnliches strebt die Seefahrt durch die sog. »Manila Amendments« der IMO (2010) an), wobei hier eine Entwicklung zum Einbezug immer größerer sozialer Einheiten festzustellen ist (s. auch IAEA, 2001). In vielen anderen Branchen setzt HF-Training traditioneller Weise v. a. auf der Ebene des Individuums und auf der Ebene des Teams an. Trainings für größere organisatorische Einheiten (Manöver, Stabsrahmenübungen, 7 Kap. 18.5.3) sind schon vergleichsweise selten, und für darüber hinausgreifende Systeme ist das Konzept des Trainings nicht mehr anwendbar und muss durch übergeordnete Personalentwicklungssysteme ergänzt werden. Dies hat verschiedene Konsequenzen: 5 Eine davon ist, dass man von einem Training, das für eine bestimmte Gruppe durchgeführt wird, nicht erwarten darf, dass es Missstände mildert, die tiefergehende Ursachen im größeren Kontext haben. 5 Eine zweite ist, dass man bei der Formulierung von Trainingszielen die Veränderungsbereitschaft des entsprechenden Systemelements beachten muss und dass man ebenfalls beachten muss, dass das »System Mensch« bestimmte Grenzen aufweist – sowohl im individuellen Funktionieren als auch im sozialen Umgang – die auch durch das beste Training nicht überwunden werden können. 7 Kap. 4–8 dieses Buches informieren über diese Systemgrenzen. > Trainings können Verhalten und Einstellungen von Einzelnen und Gruppen verändern. Sie können nicht das Gesamtsystem verändern oder grundsätzliche menschliche Beschränkungen aufheben.
18.4
18
Trainingsmethoden in Human-Factors-Trainings
HF-Trainings nutzen eine Vielzahl unterschiedlicher Trainingsmethoden. Falls man nicht durch rechtliche Vorschriften gebunden ist, sollte die Entscheidung, wie man trainieren will, von den im Vordergrund stehenden Zielen und der jeweiligen Interventionsebene abhängig sein. Die Menge an didaktischen Elementen, die man in ein Training einbauen kann, ist umfangreich (Wilson, 2000). Sie enthält (ohne Anspruch auf Vollständigkeit) die folgenden Elemente: 5 Vorlesung, Vortrag, mündliche Instruktion, Unterweisung; 5 Materialien für selbstgesteuertes Lernen: Arbeitshefte, Lernprogramme, Handbücher; 5 Vorführungen, Übungen an (mehr oder weniger realistischen) Modellen, Übungen mit »echten« Ausrüstungsgegenständen, Training an Übungsanlagen; 5 Arbeit mit Beispielen und Fallstudien (in angeleiteter und offener Form), narrative Formen, Erfahrungsaustausch zwischen den Teilnehmern; 5 Diskussionsgruppen (z. B. über die Vor- und Nachteile bestimmter Regelungen), Reflexionsrunden (selbstgesteuertes Aufarbeiten der Lernerfahrungen nach einer Übung), »Debriefing«- und Feedback-Sitzungen (Rückmeldung zu Übungsergebnissen durch Trainer, gemeinsame Diskussion von Ursachen für Erfolge und Misserfolge), ggf. Videounterstützung; 5 Gruppenübungen in der Tradition von Gruppendynamik und Selbsterfahrung, z. B. Rollenspiele und Kommunikationsübungen; Indoorund Outdoorübungen zur Teambildung; 5 Planspiele und Szenariotraining: Bei Planspielen sind schriftlich vorgegebene »Lagen« zu bearbeiten, die u. U. durch Rückmeldungen der Planspielleitung auch einen dynamischen Charakter bekommen. Beim Szenariotraining geht es darum, eine vorgegebene Lage zu interpretieren und Hypothesen über ihre Weiterentwicklung und die Effekte möglicher Entscheidungen aufzustellen;
320
Kapitel 18 • Human-Factors-Training
5 interaktive Computersimulationen in unterschiedlicher Komplexität und Realitätsnähe: Eine Computersimulation bildet einen komplexen und dynamischen Realitätsbereich (einen Flughafen, ein Unternehmen, ein Schiff ) in seinen wesentlichen Aspekten nach. Die Teilnehmenden können Informationen über den Zustand des Realitätsbereiches erhalten und treffen Entscheidungen, die den weiteren Gang der Simulation beeinflussen. Ähnlich wie bei den Planspielen existieren hier viele Varianten, z. B. hinsichtlich der Definition von Spielerrollen, der Zeittaktung oder Programmsteuerung. Außerdem unterscheidet man »Low-fidelity-Simulation« (holzschnittartige Nachbildungen der Realität mit klarem didaktischem Zweck) von »Mid-fidelity-Simulation« (stark an die Realität angenäherte Simulationen, allerdings ohne realitätsgetreue Interfaces); 5 »High-fidelity-Simulatoren«: Möglichst naturgetreue Nachbildungen eines Arbeitsplatzes (Flugzeugcockpit, Schiffsbrücke, LKW-Kabine) mit realistischen Anzeigen und Bedienelementen (im Falle eines Anästhesiesimulators also auch einer realistischen Patientenpuppe) und möglichst naturgetreuer Umweltnachbildung (Geräusche, Temperaturen, Bewegung im Raum); 5 körperbasierte Trainings, besonders in Form von Stressreduktionstrainings (z. B. progressive Muskelrelaxation, Atemkontrolle) und vorstellungsbasierte Trainings, v. a. zur Angstbewältigung und Erregungskontrolle (z. B. Gedankenreisen, Selbstverbalisationstechniken); 5 angeleitete Teilnahme (»guided participation«): allmähliches Hineinwachsen in eine komplexe Aufgabe unter Anleitung eines Meisters, Mentoring, Coaching. > Es ist zu betonen, dass das sog. »debrief-
18
ing« (die theoretisch fundierte Auseinandersetzung mit dem Prozessgeschehen während einer Übung) nicht nur ein Trainingselement unter vielen ist. Die Wirksamkeit aller verhaltensbasierten Trai-
ningsformen hängt ganz wesentlich von der Qualität dieses Reflexionsprozesses ab (Peters & Vissers, 2004).
Ansonsten gilt, dass die verschiedenen Trainingselemente unterschiedlich gut zur Erreichung der in 7 Kap. 18.2 beschriebenen Trainingsziele geeignet sind; sie funktionieren mit unterschiedlichen Teilnehmerzahlen und Teilnehmerkreisen. Mit . Tab. 18.1 wird eine grobe Zuordnung angegeben. Auch wenn diese Zuordnung mit einer Reihe von Unschärfen behaftet ist, wird doch zumindest zweierlei schnell deutlich: 5 Organisatorisch-strategische Fähigkeiten verlangen nach relativ zeitintensiven und teuren Trainingselementen wie Planspielen, Simulationen und Simulatoren. 5 Nur wenige Trainingselemente sind für große Teilnehmergruppen geeignet. Der Einsatzbereich von Vorlesungen und anderen Formen des Frontalunterrichts ist begrenzt, und das Design von Planspielen für größere, möglicherweise interorganisationell zusammengesetzte große Gruppen ist extrem aufwendig. Mittlerweile besteht der »state of the art« bei HFTrainings darin, zwei oder mehr dieser Elemente miteinander zu kombinieren. Einer der Gründe dafür liegt darin, dass es unterschiedliche Lernertypen gibt, die jeweils von unterschiedlichen Lehrangeboten am meisten profitieren. Relativ bekannt geworden ist die Lernertypologie von Honey & Mumford (1982), die »Tuer« und »Denker« als Grundtypen unterscheiden. Die Gruppe der »Tuer« wiederum zerfällt in 5 die »Aktivisten« (Menschen, die sich voller Begeisterung auf jede Aktivität stürzen, deren Enthusiasmus aber auch schnell wieder zerfällt und die kaum das »Sitzfleisch« für lange theoretische Debatten aufbringen) und 5 die »Pragmatiker« (die jede neue Idee aufgreifen, sie am besten sofort ausprobieren wollen und v. a. an der praktischen Umsetzbarkeit von Lerninhalten interessiert sind). Bei den »Denkern« unterscheiden die Autoren 5 die »Reflexiven« (Menschen, die Erkenntnisse erst dann akzeptieren, wenn sie sie von allen Seiten durchdacht haben, und die große Scheu
321
18.4 • Trainingsmethoden in Human-Factors-Trainings
. Tab. 18.1
18
Zuordnung von Trainingsmethoden, Trainingszielen und Teilnehmerzahl in Human-Factors-Trainings
Trainingsmethode
Trainingsziele
Teilnehmer
Vorlesung bzw. Instruktion
Wissen, Werte sowie allgemeine theoretische Grundlagen von Human Factors
Kleingruppen, Großgruppen
Arbeitshefte, Lernprogramme, Handbücher
Wissen, Grundlagen der operativen Kompetenz, theoretische Grundlagen
Alle
Vorführungen, Übungen
Operative Kompetenz, Erfahrungsvielfalt
Individuen, Kleingruppen
Beispiele, Fallstudien, Narrationen, Erfahrungsaustausch
Theoretische Grundlagen, Erfahrungsvielfalt, Selbsteinschätzung, Werte, ggf. auch operative Kompetenz
Kleingruppen
Diskussion, Reflexion, Feedback
Selbsteinschätzung, Erfahrungsvielfalt, ggf. Wissen
Kleingruppen
Gruppenübungen
Teamfähigkeit, Kommunikationskompetenz, Führung, ggf. interkulturelle Kommunikation
Kleingruppen, u. U. auch Großgruppen
Planspiele
Lageerfassung, Übersicht, Führung, ggf. auch Problemlösekompetenz, Teamfähigkeit und Kommunikationskompetenz
Kleingruppen, ggf. mehrere Teams
Computersimulationen
Lageerfassung, Übersicht, Problemlösekompetenz, Kommunikationsfähigkeit, Teamfähigkeit, Sachorientierung, Führung, Erfahrungsvielfalt
Kleingruppen
»High-fidelity-Simulatoren«
Operative Kompetenz, ggf. Belastbarkeit, Lageerfassung, Übersicht, Problemlösekompetenz, Kommunikationsfähigkeit, Teamfähigkeit, Führung, Erfahrungsvielfalt
Individuen, Kleingruppen
Körper- und vorstellungsbasierte Übungen
Belastbarkeit, Selbsteinschätzung
Individuen, ggf. Kleingruppen
Angeleitete Teilnahme
Operative Kompetenz, ggf. Belastbarkeit, Lageerfassung
Individuen
davor haben, Dinge »einfach so« auszuprobieren) und 5 die »Theoretiker« (deren Interesse v. a. darin besteht, die theoretischen Hintergründe jeder Erkenntnis systematisch durchzuarbeiten und die Logik eines Systems zu verstehen). Es ist einleuchtend, dass ein didaktisches Element, wie z. B. eine komplexe Computersimulation, einen »Aktivisten« begeistert, jedoch von einem »Refle-
xiven« möglicherweise für oberflächliche Zeitverschwendung gehalten wird, und dass eine konzeptuelle Debatte, die einen »Theoretiker« fasziniert, einen »Pragmatiker« zur Weißglut treibt, weil er den praktischen Nutzen nicht sieht. Jeder HF-Trainer oder jede HF-Trainerin weiß, dass es zu den schwierigsten Anforderungen einer Neukonzeption gehört, Trainingselemente so zu mischen, dass jeder Lernertyp davon profitieren kann.
322
Kapitel 18 • Human-Factors-Training
18.5
Trainingsformen
Im Folgenden werden einige kombinierte Trainingsformen besprochen, die im Human-FactorsBereich eine gewisse Tradition haben bzw. für den aktuellen Zustand der Trainingslandschaft kennzeichnend sind: der Drill, die klassische Schulung, die Stabsübung, das Crew Resource Management, das Krisenstabstraining und das allgemeine Problemlösetraining. Es muss an dieser Stelle jedoch kritisch angemerkt werden, dass die mit verschiedenen Lernformen verbundenen didaktischen Grundfragen (Wie funktioniert menschliches Lernen überhaupt? Wer definiert den »Lernstoff«? Wie ist die Beziehung zwischen Lehrer, Lerner und Inhalt zu gestalten?) im Bereich der HF-Trainingsliteratur nur in Ausnahmefällen (z. B. bei Dieckmann, 2005) thematisiert werden. Die in anderen Bereichen der Erwachsenenbildung heftig geführte Debatte um die »konstruktivistische Didaktik« (s. Reich, 2008) ist im HF-Bereich noch kaum angekommen. So wird in den meisten HF-Trainings ganz unhinterfragt davon ausgegangen, dass Trainer oder Institutionen die Lerninhalte definieren und diese dann lediglich in geeigneter Weise in die Köpfe, Herzen und Hände der Trainees zu transportieren sind.
schen von Löschwasserschläuchen, das Anlegen von Schutzbekleidung, das Fixieren einer Krankentrage in einem Rettungsfahrzeug. Gedrillt werden aber auch umfangreichere Abläufe wie z. B. das Durchführen der Notabschaltung einer Anlage oder die Abarbeitung einer Notfallcheckliste in einem Flugzeugcockpit. Schließlich wäre zu überlegen, ob nicht auch die Einhaltung bestimmter Regeln der Teamarbeit wie z. B. das sog. Zurücklesen von Anweisungen und Informationen (»readback«, 7 Kap. 8.6.3) oder auch Unterbrechungsverbote, Redezeitbeschränkungen, die Pflicht zur Visualisierung u. a. m. regelrecht gedrillt werden sollte. Dieser Forderung liegt die Überlegung zugrunde, dass das »Gesetz der Übung« nicht nur für einfache Feuerwehrleute oder Polizisten gilt. Einsicht und Verständnis führen auch bei erfahrenen Menschen mit Führungsverantwortung nicht notwendigerweise dazu, dass die entsprechenden Verhaltensweisen auch unter Stress oder bei Übermüdung sicher zur Verfügung stehen. Der Drill macht die Menschen gleich. Deswegen hat er in manchen Kreisen einen schlechten Ruf. Wo aber diese Gleichheit notwendig ist, um Sicherheit und effektive Interaktion zu gewährleisten, kann auf den Drill nicht verzichtet werden.
18.5.2 18.5.1
18
Schulung
Drill
Der Drill ist vermutlich die Urform aller HF-Trainings. Im Zentrum des Drills steht die wiederholte Übung eines motorischen Ablaufs bis hin zu seiner vollständigen Automatisierung. Es empfiehlt sich, die zu lernenden Abläufe zunächst per Unterweisung in mündlicher und grafisch-bildlicher Form zu erklären, sie dann vorzuführen und in vereinfachter und verlangsamter Form durch die Lernenden nachmachen zu lassen. Durch eine lange Reihe von Wiederholungen wird die vollständige, schnelle und sichere Beherrschung auch unter erschwerten Bedingungen (Dunkelheit, Lärm, Übermüdung, objektive Gefährdung) angestrebt. Die Anwendungsgebiete des Drills liegen traditionellerweise am »operativen Ende« komplexer soziotechnischer Systeme, bei Einsatz- und Rettungskräften. Beispiele wären etwa das Anflan-
Die Schulung ist eine weitere elementare und selbstverständliche Form des HF-Trainings. Das zentrale Merkmal von Schulungen ist die kognitive Vermittlung von Wissen durch Experten an Laien. Schulungen erfolgen meist als Frontalunter-
richt. Schulungsinhalte sind grundlegende Verhaltensrichtlinien und Werte (z. B. Sicherheitsvorschriften), daneben v. a. die Bedienung technischer Geräte, die Vermittlung von Wissen über ihre technische Funktionsweise, Fehlerdiagnose und Behebung von Fehlfunktionen sowie Informationen über Geräteinteraktionen und Zuverlässigkeiten. Geschult werden alle, vom Azubi über den Anlagenfahrer und den Schiffsoffizier bis hin zur Dr. med., die zur Transfusionsbeauftragten ihrer Abteilung ernannt worden ist. Damit eine gewöhnliche Schulung zum Bestandteil eines HF-Trainings wird, müssen ent-
323
18.5 • Trainingsformen
sprechende HF-relevante Themen (z. B. »human performance and limitations«, 7 Kap. 18.2, »Anforderungen«) integriert werden. Vor allem aber sollten nach obigen Überlegungen Vortrag und Instruktion unbedingt durch übende und handlungsbasierte Elemente ergänzt werden. In der zivilen Luftfahrt z. B. ist diese Forderung seit einigen Jahren gesetzlich vorgeschriebener Standard, in anderen Anwendungsbereichen ist man noch weit davon entfernt. Nicht akzeptiert werden sollte der in der Praxis leider nicht seltene Fall, dass ein neues Gerät, eine neue Verfahrensvorschrift oder Sicherheitsrichtlinie implementiert wird und den Menschen, die damit oder danach arbeiten sollen, nach einer kurzen, oberflächlichen Einweisung mit der Bemerkung »Wenn Sie weitere Fragen haben – da steht alles drin« ein dickes Handbuch überreicht wird.
18.5.3
Stabsübung, Stabsrahmenübung, Manöver
Stabs- und Stabsrahmenübung. Die Stabsübung hat einen ursprünglich militärischen Hintergrund, wird seit geraumer Zeit aber auch in zivilen Kontexten verwendet. Die Zielgruppe sind Mitarbeiter, die bei komplexen Operationen, in kritischen Situationen oder bei Notfällen Stabsfunktionen, d. h. vor allem Planungs-, Steuerungs-, und Entscheidungsfunktionen wahrnehmen sollen. Ziel der Stabsübung ist es, die Teilnehmenden mit dem Ablauf derartiger Situationen vertraut zu machen. Themen sind v. a. die verschiedenen Stabsfunktionen, Aufgabenverteilung, Informationssammlung, -strukturierung und -weitergabe, Entscheidungsfindung und Entscheidungsdurchführung sowie schließlich die Führung (Wein, Willems & Quanjel, 2000). Falls nicht nur der Stab im engeren Sinne an der Übung beteiligt ist, sondern auch nach- oder nebengeordnete Arbeitsgruppen (wie z. B. eine Pressestelle oder ein medizinischer Dienst), spricht man von einer Stabsrahmenübung. In diesem Fall sowie natürlich auch bei Übungen, bei denen mehrere Organisationen (z. B. Feuerwehr, Technisches Hilfswerk, Rotes Kreuz) beteiligt sind, ist die Ko-
ordination und Interaktion dieser verschiedenen
18
Gruppen ein zentrales Thema (7 Kap. 11). Derartige Übungen werden beispielsweise regelmäßig auf der Ebene von Städten und Landkreisen und darüber hinaus durchgeführt, um diese für die Beherrschung von Notfällen wie Natur- und Umweltkatastrophen, Großunfälle oder auch medizinische Notsituationen vorzubereiten (»LÜKEX«, weiterführende Informationen hierzu beim Bundesamt für Bevölkerungsschutz und Katastrophenhilfe: http://www.bbk.bund.de). Stabsübungen bestehen im Kern aus den in der folgenden Übersicht dargestellten Elementen. Elemente von Stabsübungen 1.
Einweisung in die Funktionen, Strukturen und die Arbeitsweise von Stäben sowie in die relevanten rechtlichen Bestimmungen. 2. Umfangreiches mehrstündiges bis mehrtägiges Planspiel, das von den Teilnehmern als Stab bearbeitet werden muss. Thema des Planspiels ist oft ein typisches Szenario eines umfangreichen zivilen Notfalls wie beispielsweise ein Zugunglück auf dem Rangierbahnhof einer Kleinstadt, bei dem auch mehrere Kesselwaggons mit zunächst unbekannten, aber mutmaßlich gesundheits- bzw. umweltgefährdenden chemischen Substanzen betroffen sind. 3. Auswertung des Planspiels, wobei sich diese auf HF-Aspekte konzentrieren sollte und nicht nur darauf, wie gut die vorgegebenen Funktionen, Strukturen und Abläufe eingehalten worden sind.
Natürlich sind innerhalb dieses Grundgerüstes unterschiedliche Schwerpunktsetzungen möglich und verschiedene Varianten realisierbar. Im Allgemeinen gilt jedoch, dass die Übungsteilnehmer im Planspiel die Funktionen übernehmen, die sie auch bei einem realen Einsatz wahrnehmen müssen. Kennzeichnend für Stabs- und Stabsrahmenübungen ist ferner, dass die operative Seite bei der Bearbeitung des angenommenen Notfalls nicht beteiligt ist. Sie wird vielmehr von der Übungsleitung simuliert – sei es in Form vorher festgelegter Meldungen (»Dem Bergungszug der Regionaldirektion der Deutschen Bahn ist es gelungen, die nicht be-
324
Kapitel 18 • Human-Factors-Training
schädigten Waggons des Güterzugs von der Unglücksstelle abzuziehen«) oder Friktionen (»Drei Krankenwagen des Malteser Hilfsdienstes stecken im Stau fest und verspäten sich auf unbestimmte Zeit«), sei es in Form von ad hoc generierten Reaktionen auf falsche oder im Moment sinnlose Entscheidungen des Stabes. Manöver. Die Simulation der operativen Aspek-
te der Übung ist der wesentliche Unterschied zur großmaßstäblichen Übung, zum Manöver. Bei dieser Übungsform sind auch die Kräfte, die den operativen Arm des Stabes darstellen, beteiligt. Beim Manöver wird also nicht nur – auf eine entsprechende Anordnung hin – durch die Übungsleitung mitgeteilt, dass 13 Verletzte von X nach Y transportiert worden sind, sondern hier müssen die Übungsteilnehmer im Stab dafür sorgen, 5 dass die entsprechenden Einsatzkräfte auch in Wirklichkeit am Ort des Geschehens zur Verfügung stehen, 5 dass sie der Befehl zur Bergung und zum Abtransport der Verletzten tatsächlich erreicht, 5 dass er durchführbar ist und durchgeführt wird und 5 dass die entsprechenden Rückmeldungen auch wieder im Stab einlaufen.
18
Offensichtlich ist, dass derartige Übungen einen enormen Zeit- und Personalaufwand erfordern. Die Verwendung des Ausdrucks »Manöver« soll im Übrigen nicht darüber hinwegtäuschen, dass diese Trainingsform mittlerweile auch in verschiedenen zivilen Bereichen, z. B. in der chemischen Industrie, im Business Continuity Management von Banken sowie auch im Bereich öffentlicher Verwaltungen durchgeführt werden. Allerdings bleibt mangels entsprechender Publikationen offen, inwieweit die Nachbereitung derartiger Übungen nicht nur die operative, sondern auch die menschliche Seite behandelt. Erfahrungsberichte von Teilnehmern legen die Vermutung nahe, dass sich oft der Human Factor als kritischer Faktor erweist, aber in den vorhandenen Übungsstrukturen nur unzureichend thematisiert werden kann.
18.5.4
Crew Resource Management (CRM)
Die Abkürzung »CRM« stand ursprünglich für »Cockpit Resource Management«, später für »Crew Resource Management«, heute steht sie für »Company Resource Management«. Das CRM wurde in der und für die kommerzielle Luftfahrt entwickelt, seine regelmäßige Durchführung ist mittlerweile durch die Joint Aviation Authorities (JAR-OPS in der Fassung vom April 2006, s. http://www.luftrecht-online.de) rechtsverbindlich vorgeschrieben. Das CRM stellt ohne Zweifel den bedeutendsten Meilenstein in der Entwicklung der HF-Trainings dar (Helmreich, Merritt & Wilhelm, 1999). Der Grund dafür ist, dass hier – anders als bei den bisher besprochenen Trainingsformen – der Mensch mit seinen psychischen Funktionen und in seiner Zusammenarbeit mit anderen Menschen in den Mittelpunkt eines Trainingskonzeptes gerückt wurde. Diese Ausrichtung ist durch die Erkenntnis begründet, dass psychologische Faktoren bei der Genese und Bewältigung von kritischen Situationen in der Luftfahrt die zentrale Rolle spielen. Ziele des CRM sind die Vermeidung von kritischen Situationen und die Verbesserung der Krisenbewältigungskompetenzen kompletter Arbeitsgruppen in riskanten, stresshaften Umgebungen, für die koordinierte Aktivitäten notwendig sind. Das CRMTraining verläuft in seiner standardisierten Form in 3 Phasen (s. folgende Übersicht; vgl. dazu auch LeSage, Dyar & Evans, 2009; Kanki, Helmreich & Anca, 2010). Phasen standardisierter CRM-Trainings 1.
2.
Initial-Awareness-Training: Formale Einführung (Sensibilisierungstraining) in die wesentlichen Human-Factors-Konzepte, die für das Krisenmanagement als wesentlich erachtet werden (s. oben). Diese erste Phase des Trainings besteht aus einer Kombination von theoretischer Wissensvermittlung mit erfahrungsbasiertem Lernen in Teams. Übung und Feedback in realistischen Settings in »Echtzeit«: In der Luftfahrtindustrie hat sich hierfür mittlerweile das sog. LOFTKonzept durchgesetzt (Line-Oriented-
325
18.5 • Trainingsformen
3.
Flight-Training): Es besteht aus kompletten Flugaufgaben, teilweise im Flugsimulator. Im Laufe des Fluges werden verschiedenartige routinemäßige und ungewöhnliche Situationen durchgespielt. Das Verhalten der Crews wird per Video aufgezeichnet und gleichzeitig von Experten beobachtet. An den Flug schließen sich ausführliche gemeinsame Auswertungsbesprechungen an. Wichtig ist, dass die Ergebnisse des LOFT nicht für berufliche Beurteilungen verwendet werden, sodass die Besatzungen auch das Risiko der Erprobung neuer Verhaltensmuster eingehen können. Auffrischungstraining (»recurrent«) in wiederkehrenden Intervallen mit verschiedenen Methoden, d. h. klassischen Seminaren, aber auch weiteren Simulatorflügen.
Mittlerweile wurde dieses Trainingskonzept auch für andere Industriezweige angepasst (Medizin, Militär, Atomindustrie, Hochsee-Ölförderung, Seefahrt) und hat heute weitergehende Verbreitung erlangt. Es ist noch darauf hinzuweisen, dass das CRM eine »individualisierte« Trainingsform ist. Das Trainingsformat ist zwar standardisiert, die Rückmeldung an die Teilnehmer, die Diskussion von Stärken, Schwächen und alternativen Handlungsweisen ist es nicht. Das schafft Lerngelegenheiten, kann aber auch problematisch sein, z. B. wenn Trainingsteilnehmer an diese individuellen Rückmeldungen nicht gewöhnt sind und sich aus Angst vor einer Blamage verweigern oder wenn es der Trainer an der notwendigen Balance zwischen Offenheit und Deutlichkeit einerseits, Rücksichtnahme und Schutz andererseits fehlen lässt. Die bisher besprochenen Trainingsformen sind branchenspezifisch angelegt, d. h., die Inhalte der Unterweisung, die Themen der Übungen, die konkreten Handlungsrichtlinien und -empfehlungen sind an das jeweilige berufliche Umfeld angepasst. In jüngerer Zeit haben sich daneben Trainingsformen entwickelt, die davon ausgehen, dass wesentliche Kompetenzen aus den Bereichen »nontechnical skills« und organisatorisch-strategische Fähigkeiten (»generic competncies) bereichsüber-
18
greifend wichtig sind und dass es nicht unbedingt notwendig ist, im Training mit berufsnahen Inhalten zu arbeiten (Borodzicz, 2004; Strohschneider, 2011). Manche Erkenntnis stellt sich vielleicht sogar leichter ein, wenn man mit völlig neuartigem Übungsmaterial umzugehen hat. Zwei dieser Trainingsformen werden im Folgenden besprochen.
18.5.5
Allgemeines Krisenstabstraining
Das CRM und seine verschiedenen Varianten und Derivate sind sowohl von den Trainingsinhalten als auch von den Simulatorübungen her jeweils auf eine bestimmte Branche zugeschnitten. Dies impliziert, dass die Entwicklung einer neuen CRMVariante – z. B. als Bridge Resource Management für die Handelsmarine (s. Adams, 2006) – ein recht aufwendiger Prozess ist, der sich nur dann lohnt, wenn große Teilnehmerzahlen damit trainiert werden können. Diese Voraussetzung ist nicht überall gegeben. Dies gilt insbesondere für Branchen, die man als »low risk environments« bezeichnen könnte (Branchen mit geringem inhärenten Risiko, z. B. Krankenhäuser, Hotels, Banken, große Geschäftskomplexe, Flughäfen und Bahnhöfe). Zwar gibt es in diesen Institutionen Notfallpläne, Hausfeuerwehren, Sicherheitspersonal etc., auf der Leitungsebene aber in der Regel keinerlei Erfahrungen mit dem Management größerer Stör- oder Notfälle, die von Umfang und Gefährdungspotenzial her einen Krisenstab als außergewöhnliche Organisationsform erfordern. Mittlerweile wurden auch für diese Zielgruppe HF-Trainings entwickelt, die darauf verzichten, mit branchenspezifischen Simulatoren oder Übungen zu arbeiten (Strohschneider, 2003; Strohschneider & Gerdes, 2004 – das einleitende Fallbeispiel entstammt einem solchen Training). Dieses Konzept beruht auf der Idee, dass die Anforderungen, die von einem Stab in einer kritischen Situation zu bewältigen sind, über verschiedene Branchen hinweg ähnliche Elemente aufweisen und daher ähnliche Kompetenzen erfordern. Die Teilnehmer sollen daher befähigt werden, effektive Stabsarbeit zu organisieren und durchzuführen – unabhängig von der inhaltlichen Charakteristik der anstehenden Krise. Die konkreten Trainingsthemen fokus-
326
Kapitel 18 • Human-Factors-Training
sieren daher neben den »non-technical skills« v. a. die situative und strategische Flexibilität sowie die Zusammenarbeit in heterogenen Teams (Strohschneider, 2010). Auch das allgemeine Krisenstabstraining gehört zu den kombinierten Trainingsformaten und mischt Elemente des erfahrungsbasierten Lernens mit reflektierenden Elementen und konkreter Wissensvermittlung (sog. Erfahrungslernen, »experiental learning« nach Kolb; s. Kolb, Boyatzis & Mainemelis, 2001; s. folgende Übersicht). Ein solches Training dauert (abhängig vom Zeitaufwand, der in die Simulationsübungen investiert wird) etwa 2–3 Tage. Dies dürfte auch die Mindestdauer sein, die ein Training benötigt, um bei Teilnehmern, die bisher mit dieser Materie noch nicht beschäftigt waren, nachhaltige Lernergebnisse zu erzielen. Struktur des allgemeinen Krisenstabstrainings (Strohschneider, 2003)
18
5 Kurzvorlesung über die Eigenschaften von kritischen Situationen und ihre spezifischen Schwierigkeiten und Anforderung 5 »Learning by doing«: Erprobung der Schwierigkeiten der Stabsarbeit anhand einer geeigneten Low- oder Mid-fidelitySimulation (z. B. MS Antwerpen) 5 Ausführliche, angeleitete Reflexion, Diskussion, Stärken- und Fehleranalyse 5 Informationen über die Ursachen für die aufgetretenen Probleme, theoretische Fundierung der Human-Factors-Perspektive 5 Handlungsanweisungen für die Stabsarbeit (»Do’s and Dont’s«) 5 Umsetzung der theoretischen Einsichten und Handlungsempfehlungen in konkrete Vornahmen durch die Gruppe selbst 5 Umsetzung der Erkenntnisse in einer weiteren Stabsübung anhand einer Computersimulation 5 Reflexion und Abschlussfeedback
18.5.6
Allgemeines Problemlösetraining
Als »allgemeine Problemlösetrainings« kann man eine Trainingsform bezeichnen, die die Trainingsziele und Trainingsinhalte noch stärker von konkreten Anwendungskontexten löst. Derartige Trainings existieren seit etwa 20 Jahren und richten sich v. a. an mittlere und höhere Führungskräfte, die es häufig mit der Bewältigung hochkomplexer, dynamischer und intransparenter Problemstellungen zu tun haben (Buerschaper, Hofinger & von der Weth, 2005). Das generelle Ziel eines solchen Problemlösetrainings besteht darin, bei den Teilnehmern die Sensibilität für die Charakteristika unterschiedlicher Probleme zu entwickeln, ihnen bereichsübergreifend anwendbare Lösungskompetenzen zu vermitteln und die organisationskulturell determinierten strategischen Präferenzen (»Problemlösen nach Schema F«) aufzubrechen und strategische Flexibilität zu fördern (Hofinger, 2003). z
Mögliche Themen dieser Trainingsform
5 Merkmale und Eigenschaften von Problemen, Problemtypen, 5 kognitive Anforderungen und strategische Optionen bei verschiedenen Problemtypen, 5 typische Fallgruben und Fehler beim Umgang mit verschiedenartigen Problemen, 5 Techniken der Systemanalyse, der Informationsstrukturierung, der Informationsdarstellung, der Entscheidungsfindung unter Unsicherheit und Zeitdruck, 5 Problemlösen in Teams sowie 5 psychologische Ursachen für die Schwierigkeiten beim Umgang mit komplexen Problemen.
Die in einem solchen 2- bis 4-tägigen Training eingesetzten Methoden können sehr vielfältig sein. Üblicherweise wird das erfahrungsbasierte Lernen durch eine oder mehrere Computersimulationen komplexer Probleme stimuliert, die ausführlich nachbereitet werden (»debriefing«). Ansonsten lassen sich verschiedene Formen der Instruktion sehr gut mit Fallstudien zu realen Problemen, erfahrungsbasierten Diskussionen, Kleingruppenarbeiten und narrativen Elementen (»Geschichten von Helden und Versagern«) kombinieren.
18.6 • Trainerkompetenzen
Anders als die bisher besprochenen Trainingsformen kann dieses Training sowohl mit homogenen (Teilnehmende kommen aus einem Unternehmen oder zumindest einer Branche) als auch mit heterogenen Teilnehmerkreisen durchgeführt werden. Beides hat Vor- und Nachteile. Eine homogene Teilnehmergruppe ermöglicht es, Trainingsinhalte und Diskussionen sehr eng am beruflichen Umfeld der Teilnehmer entlangzuführen. Dies verbessert mutmaßlich den Transfer der Trainingsergebnisse in den Alltag. Andererseits ist es für eine Trainingsgruppe aus einem Unternehmen oft schwer, sich gedanklich aus dem Alltagsgeschäft zu lösen und zu versuchen, eine distanzierte Perspektive zum eigenen problemlösenden Handeln einzunehmen. In gemischten Gruppen können die Teilnehmenden sehr von den Erfahrungen und Erlebnissen der anderen Gruppenmitglieder profitieren, die Diskussionen sind oft sehr intensiv und lebhaft. Allerdings braucht es manchmal mehr Zeit, um ein konstruktives Trainingsklima aufzubauen, und die Teilnehmer stehen, zurück in ihrer eigenen Organisation, mit ihren Erkenntnissen allein da. Diese Aspekte sind bei der Indikationsentscheidung zu bedenken.
18.6
Trainerkompetenzen
Es gibt im deutschsprachigen Raum keine verbindlichen Standards für HF-Trainer und HF-Trainerinnen und auch international steht die Diskussion um die Einführung von Standards noch am Anfang (Alexander, 2003). HF-Trainer können ganz unterschiedliche Entwicklungen durchlaufen haben: Manche sind aus der Praxis ihres jeweiligen Berufsfeldes herausgewachsen und geben jetzt ihr Wissen und ihre Erfahrungen weiter, manche haben einen akademisch-psychologischen Hintergrund, wieder andere haben als Techniker oder Chemiker angefangen und irgendwann ihre Leidenschaft für das Thema Human Factors entdeckt. Bei aller Vielfalt wird man aber doch bestimmte grundlegende Kompetenzen als notwendig für eine erfolgreiche Trainingsdurchführung voraussetzen müssen (s. dazu auch Dismukes & Smith, 2000; Salas, Burke & Cannon-Bowers, 2002):
327
18
Solides und vertieftes Verständnis der HF-Thematik: Diese Forderung umfasst sowohl das notwen-
dige individual- und sozialpsychologische Wissen als auch das Wissen um die Bedeutung von Human Factors für Sicherheit und Effizienz komplexer soziotechnischer Systeme. Fähigkeit zur Beobachtung, Analyse und sicheren Steuerung von Gruppenprozessen: In modernen
HF-Trainings mit ihren Simulatoraufgaben, Planspielen und Gruppenübungen entstehen oft intensive gruppendynamische Prozesse, die im Extremfall durchaus zum Auseinanderbrechen einer Trainingsgruppe oder auch zur Bildung einer Fronde gegen den Trainer führen können. Ein Trainer muss in der Lage sein, derartige Entwicklungen zu erkennen, aufzufangen und in eine produktive Richtung zu lenken, sodass der Trainingsertrag über alle Teilnehmer hinweg maximal wird. Kommunikationsfähigkeit: Ein HF-Trainer muss nicht nur gut erklären können, er oder sie muss v. a. auch gut zuhören und erzählen können und in der Lage sein, sich in seinem Sprachverhalten auf die Voraussetzungen und Bedürfnisse der jeweiligen Trainingsgruppe einzustellen. Fairness: Es wurde bereits betont, dass das »de-
briefing« von Übungen sowie Reflexion und Feedback eine wichtige Rolle in HF-Trainings einnehmen. Fairness bedeutet in diesem Zusammenhang die Bereitschaft und die Befähigung, den Teilnehmern offen gegenüberzutreten, auch kritische Einschätzungen und Beurteilungen klar zu kommunizieren, aber ohne dabei das Prinzip der grundsätzlichen Wertschätzung der Teilnehmer zu verletzen und ohne sich dabei selbst in den Vordergrund zu spielen. Zurückhaltung: Dieser Aspekt ist noch in einem weiteren Zusammenhang wichtig: Es ist auf der Basis der Beobachtungen in einem 2- oder auch 4-tägigen Training generell nicht möglich, den Charakter und die persönlichen Schwächen und Stärken eines einzelnen Teilnehmers zuverlässig einzuschätzen. Zwar besteht bei einzelnen Teilnehmern immer wieder der Wunsch nach einem individuellen »Generalfeedback« durch den Trai-
328
Kapitel 18 • Human-Factors-Training
ner, aber zumindest dann, wenn man nicht in ständigem Kontakt mit dem betreffenden Teilnehmer steht, begeht man einen Kunstfehler, wenn man dieser Bitte nachgibt. »Persönlichkeit«,
Überzeugungsfähigkeit: Auch
die Persönlichkeit des Trainers oder der Trainerin nimmt wesentlichen Einfluss auf die Qualität eines Seminars. Nun ist »Persönlichkeit« schwer zu definieren. Der wesentliche Aspekt ist vielleicht, dass der Trainer in der Lage sein muss, Human Factors mit Überzeugung und Begeisterung zu vertreten – und dabei gleichzeitig die Souveränität besitzt, kritische Bemerkungen ernst zu nehmen und sein Thema nicht zu ideologisieren und zu dogmatisieren. Fachkenntnisse: Die Bedeutung von Fachkennt-
nissen ist davon abhängig, ob die Trainingsinhalte bereichsspezifisch sind oder nicht. Jemand, der Schulungen durchführt, Stabsrahmenübungen vorbereitet oder ein CRM mit Flugzeugbesatzungen durchführt, braucht differenzierte Kenntnisse und Erfahrungen im jeweiligen Gegenstandsbereich. Bereichsübergreifende Trainings verlangen vom Trainer dagegen keine Spezialkenntnisse, wohl aber einen sehr guten Überblick über die Anwendbarkeit der jeweiligen Trainingsinhalte in verschiedenen Bereichen. Der bereichsspezifische HF-Trainer braucht »Tiefe statt Breite«, der bereichsübergreifende HF-Trainer braucht »Breite statt Tiefe«. Ein sich in der Praxis bewährendes Modell besteht darin, zwei Trainer – einen Fachmann des Gebiets und einen HF-Globalisten – zusammenarbeiten zu lassen.
18.7
18
Evaluation und Transfer
Trainings sollen effektiv sein – das fordert der Auftraggeber, das erwarten die Teilnehmer, das erhoffen sich die Trainer. Allerdings stellt die Prüfung der Effektivität von verhaltens- und einstellungsorientierten Trainingsmaßnahmen ein sehr kompliziertes Problem dar (vgl. dazu grundlegend Kirkpatrick, 1998). Dies wird deutlich, wenn man überlegt, was »effektiv« im Zusammenhang mit HF-Trainings überhaupt heißt. Diese Frage muss
nämlich in Abhängigkeit von den spezifischen Trainingszielen differenziert beantwortet werden: 5 Wo es in einem Training um das Erlernen und Einüben einfacher und sicherer Prozeduren
und Operationen geht, lässt sich zumindest der kurzfristige Lernerfolg relativ leicht messen (z. B. über Ausführungsdauer oder Fehlerquoten). 5 Theoretisches oder konzeptuelles Wissen ist in kaum einem HF-Training eigenständiges Ziel, derartiges Hintergrundwissen gilt eher als begründende Voraussetzung für Verhaltensänderungen. Das Gleiche gilt für Einstellungen und Werte (z. B. Sicherheitsbewusstein). Immerhin können dafür Messinstrumente konzipiert werden (7 Kap. 2.4.1). 5 Problematischer wird es dort, wo sich das Training um die nichttechnischen Fähigkeiten dreht. Abgesehen von wohldefinierten Simulatorszenarios ist es schwierig, die Qualität der Entscheidungen in einer außergewöhnlichen Situation zu messen (vgl. zur Diskussion um die sog. Verhaltensmarker, »behavioral markers«, z. B. Flin & Martin, 2001). Das Gleiche gilt für die Sicherheit und Effizienz von Teamarbeit bei der Krisenbekämpfung, die Fehleranalyse eines Störfallteams unter Zeitdruck oder die Zusammenarbeit zwischen zwei konkurrierenden Institutionen. Natürlich sollen durch die Förderung von HF-Kompetenzen Handlungen und Entscheidungen besser und sicherer gemacht werden und ein geschulter Beobachter wird auch im Einzelfall nachweisen können, dass das der Fall ist. Da aber die meisten Sondersituationen untereinander nicht vergleichbar sind, kann man keine allgemeingültigen Indikatoren für gutes oder schlechtes Kommunizieren oder Entscheiden festlegen: Wenn es im einen Fall richtig ist, alle Stabsmitglieder zu Wort kommen zu lassen (»gleichmäßige Redezeitverteilung«), kann genau das im anderen Fall zur Katastrophe führen. Verallgemeinerbare statistische Aussagen sind daher schwer möglich. Für das Thema »Sicherheit und Fehlervermeidung« gilt Ähnliches: Zumindest in den Anwendungsbereichen, in denen Fehler sehr seltene Ereignisse sind, ist es aus logischen Gründen
329
18.8 • Zusammenfassung und abschließende Bemerkungen
schwer möglich, stringent nachzuweisen, dass durch ein Training Fehler verhindert wurden, die sonst gemacht worden wären (Helmreich, Chidester, Foushee, Gregorich & Wilhelm, 1990). Diese Anmerkungen können erklären, warum es in der Trainingsliteratur einen (oft beklagten) Mangel an brauchbaren empirischen Studien gibt. Zumindest die zeitlich kurzfristigen Effekte von HF-Trainings allerdings gelten mittlerweile als gut gesichert. Für CRM-Trainings z. B. konnte wiederholt nachgewiesen werden, dass das Training im Urteil der Teilnehmer hochgradig effektiv ist (Salas, Burke, Bowers & Wilson, 2001; Salas, Wilson, Burke & Wightman, 2006). Allerdings muss man hier vorsichtig sein. Zum einen ist es relativ einfach, mit einem gut aufgebauten, engagiert durchgeführten Training die Teilnehmer zu begeistern. Damit erhält man in der Nachbefragung gute Noten, aber man weiß noch nicht, was die Teilnehmer wirklich verstanden haben oder welche Aspekte ihres Handelns sie in ihrem beruflichen Alltag tatsächlich verändern. Mittlerweile sprechen jedoch auch einige »harte« empirische Prüfungen für diese Trainingsform. Hier kann man exemplarisch eine Studie von Salas, Fowlkes, Stout, Milanovich & Prince (1999) anführen, bei der militärische Hubschrauberbesatzungen CRM-trainiert wurden. Kernstück der Evaluation war ein Simulatorflug, der aus verschiedenen Phasen mit unterschiedlicher Arbeitsbelastung bestand. Die Autoren hatten für jeden Flugabschnitt bestimmte »Targets« definiert, Entscheidungen und operative Prozeduren, die unter Nutzung der trainierten Team-Skills zu bewältigen waren. Dabei ergab sich, dass die trainierte Gruppe nach dem Training deutlich mehr »richtige« Verhaltensmuster zeigte als eine Kontrollgruppe. Wenn man sich vor Augen hält, dass es sich bei beiden Gruppen um sehr gut ausgebildete Besatzungen handelte, ist dieser Zuwachs erstaunlich. Ferner, und das ist fast noch interessanter, zeigt das Ergebnis, dass das CRM-Training dazu beitragen kann, die sonst üblicherweise zu beobachtende Verschlechterung der Teamarbeit in High-workload-Situationen zu konterkarieren. Ähnliche Verbesserungen konnten mit einer Vorher-nachher-Untersuchung für das allge-
18
meine Krisenstabstraining mit der MS Antwerpen nachgewiesen werden (Schindewolf, 2002; Starke, 2005; Dahlström, Huber, Langer & Strohschneider, in Vorbereitung). Allerdings sind auch diese Befunde mit Einschränkungen versehen: HF-Trainings sollen die Teilnehmenden auf Krisen und Notfälle vorbereiten. Krisen und Notfälle kann man aber nicht wirklich simulieren. Auch im besten High-fidelityFlugsimulator weiß man, dass man nicht wirklich abstürzt. Angst, Denkblockaden, Fluchttendenzen mögen in mehr oder weniger großem Ausmaß spürbar sein (Menschen unterscheiden sich danach, inwieweit sie durch simulierte Gefahren erregbar sind), aber sie werden nie an das Erleben realer Gefahr heranreichen (vgl. dazu Manser, Dieckmann, Wehner & Rall, 2007). Um zu wirklich überzeugenden Ergebnissen zu kommen, müssen Simulatorstudien daher durch langfristige Feldforschung in den betroffenen Institutionen selbst ergänzt werden. Ein letzter Punkt: Selbst wenn im Training Veränderungsbereitschaft erzeugt und wichtige Kompetenzen erworben wurden, ist unklar, wie lange die Effekte vorhalten. Wie häufig trainiert werden muss, ist deshalb eine weitere interessante und noch nicht gut untersuchte Frage. Vermutlich sind in der Realität v. a. ökonomische und rechtliche Zwänge entscheidend. Es gibt stehende Krisenstäbe, die praktisch ständig üben, die Feuerwehr übt alle vier Wochen, CRM-Auffrischungstrainings gibt es in jährlichen Intervallen, im Bereich der öffentlichen Verwaltung kommt man vielleicht alle 10 Jahre mal »dran«.
18.8
Zusammenfassung und abschließende Bemerkungen
Die Kompetenzen, die in HF-Trainings vermittelt werden sollen, sind vielfältig – sie reichen von psychologischem Grundwissen und dem sicheren Beherrschen von Notfallprozeduren über effiziente Teamkommunikation bis hin zur Gestaltung interorganisationaler und internationaler Zusammenarbeit und strategischer Flexibilität. Entsprechend vielfältig sind auch die Trainingselemente, die für diesen Zweck kombiniert werden. Während in ei-
330
18
Kapitel 18 • Human-Factors-Training
nigen sicherheitsrelevanten Branchen sämtliche Trainingsaspekte (Teilnehmer, Inhalte, Methoden, Trainerqualifikationen) gesetzlich reglementiert sind, gibt es in anderen Branchen nur diesbezügliche Empfehlungen oder gar völligen Gestaltungsfreiraum. Besonders in diesen Fällen ist eine kritische Anforderungsanalyse Voraussetzung für eine erfolgreiche Trainingskonzeption. Dabei sind nicht nur die konkreten Arbeitstätigkeiten, sondern auch ihr organisationaler und kultureller Kontext zu beachten. Wenn man in größeren zeitlichen Zusammenhängen denkt, sind HF-Trainings eine sehr junge Entwicklung, die in den letzten Jahren – bedingt u. a. durch die als prekär wahrgenommene Sicherheitslage und das zunehmende HF-Interesse in der Medizin – eine erhebliche Dynamik entfaltet hat. Das wesentliche Moment dieser Entwicklung scheint zu sein, dass sich die Trainingsschwerpunkte verschieben: Neben die technische Systembeherrschung tritt die Gestaltung der Interaktion von Menschen untereinander und mit der Technik als zunehmend bedeutsames Ziel. Dieser Trend wird durch den zunehmenden Einsatz interaktiver Trainingselemente unterstützt. Generell scheint außerdem die Nachfrage nach Trainingsformen zu steigen, deren Inhalte sich zumindest teilweise von konkreten Anwendungsbereichen lösen und die allgemein anwendbaren Kompetenzen zum Umgang mit kritischen, dynamischen und komplexen Situationen im Team in den Vordergrund rücken. Trainingskonzepte, Trainingsmethoden und inhaltliche Curricula haben sich gewandelt und werden sich weiter wandeln. Es darf vermutet werden, dass die klassischen Planspiele mehr und mehr durch interaktive und dynamische Computersimulationen (im Low- und Mid-fidelity-Bereich) ergänzt oder sogar ersetzt werden. Es ist abzusehen, dass die Entwicklung von High-fidelity-Simulatoren weitergeht und die Simulation von Ernstfällen durch Virtual-reality-Methoden in eine neue Dimension gehoben wird (Bente, Krämer & Peterson, 2002; Committee on Modeling, Simulation, and Games, 2010). Vielleicht sollte man aber auch diese technischen Entwicklungen nicht überbewerten. Übungen sind immer nur so gut wie der Kontext, in dem sie durchgeführt und für den sie gedacht sind
(Dieckmann, 2005). Damit wird auch weiterhin die Person des Trainers eine entscheidende Rolle spielen. Was den organisationalen Rahmen betrifft, so wird seine Angemessenheit und Aufnahmebereitschaft für HF-Themen in Zukunft wesentlich stärker beachtet werden müssen, als dies heute der Fall ist. Vermutlich wird man in diesem Zusammenhang auch der Frage der Evaluation von Trainings neue Aufmerksamkeit zuwenden müssen.
Literatur Adams, M. R. (2006). Shipboard bridge resource management. Eastport, MA: Nor’Easter Press. Alexander, D. (2003). Towards the development of standards in emergency management training and education. Disaster Prevention and Management, 12, 113–123. Bente, G., Krämer, N. C. & Peterson (Hrsg.) (2002). Virtuelle Realitäten. Göttingen: Hogrefe. Blötz, U. (Hrsg.) (2005). Planspiele in der beruflichen Bildung: Auswahl, Konzepte, Lernarrangements, Erfahrungen. Bonn: Bundesinstitut für Berufsbildung. Borodzicz, E. (2004). The missing ingredient is the value of flexibility. Simulation & Gaming, 35, 414–426. Buerschaper, C., Harms, H., Hofinger, G. & Rall, M. (2003). Problemlösefähigkeiten in der Anästhesie. Forum Qualitative Sozialforschung, 4 (3), Art. 11. [http:// www. qualitative-research.net/fqs-texte/3-03/3-03buerschaperetal-d.pdf ] Buerschaper, C., Hofinger, G. & von der Weth, R. (2005). Strategisches Denken aus dem Computer? Über den Nutzen eines Trainings allgemeiner Problemlösestrategien. In U. Blötz (Hrsg.), Planspiele in der beruflichen Bildung: Auswahl, Konzepte, Lernarrangements, Erfahrungen, Begleit CD-Rom. Bonn: Bundesinstitut für Berufsbildung. Cannon-Bowers, J. A., Tannenbaum, S. I., Salas, E. & Volpe, C. E. (1995). Defining team competencies and establishing team training requirements. In R. Guzzo & E. Salas (Eds.), Team effectiveness and decision making in organizations (pp. 333–380). San Francisco, CA: Jossey-Bass. Dahlström, N. Huber, S., Langer, H. & Strohschneider, S. (in Vorb.). Mid-fidelity simulations in multi-crew-cooperation courses for pilots: An evaluation study. Dekker, S. W. (2005). Ten questions about human error: A new view of human factors and system safety. Mahwah, NJ: Erlbaum. Dieckmann, P. (2005). »Ein bisschen wirkliche Echtheit simulieren«: Über Simulatorsettings in der Anästhesiologie. Dissertation an der Universität Oldenburg. Dismukes, R. K. & Smith, G. M. (Eds.) (2000). Facilitation in aviation training and operations. Aldershot, UK: Ashgate. Flin, R. & Martin, L. (2001). Behavioural markers for crew resource management: A survey of current practice. International Journal of Aviation Psychology, 11, 95–118.
Literatur
Gröschke, D. (2009). Interkulturelle Kompetenz in Arbeitssituationen: Eine handlungstheoretische Analyse individueller und kollektiver Fähigkeiten. Mering: Hampp. Hall, E. T. & Hall, M. R. (1990). Understanding cultural differences. Beverly Hills, CA: Intercultural Press. Helmreich, R. L., Chidester, T. R., Foushee, H. C., Gregorich, S. E. & Wilhelm, J. A. (1990). How effective is cockpit resource management training? Issues in evaluating the impact of programs to enhance crew co-ordination. Flight Safety Digest, 9, 1–17. Helmreich, R. L. & Wilhelm, J. A. (1991). Outcomes of crew resource management training. International Journal of Aviation Psychology, 1, 287–290. Helmreich, R. L., Merritt, A. C. & Wilhelm, J. A. (1999). The evolution of crew resource management training in commercial aviation. International Journal of Aviation Psychology, 9, 19–32. Hofinger, G. (2003). Fehler und Fallen beim Entscheiden in kritischen Situationen. In S. Strohschneider (Hrsg.), Entscheiden in kritischen Situationen (S. 115–136). Frankfurt a. M.: Verlag für Polizeiwissenschaft. Honey, P. & Mumford, A. (1982). The manual of learning styles. Maidenhead, GB: Honey. IAEA (2001). The operating organization for nuclear power plants: Safety guide. Vienna: International Atomic Energy Agency (IAEA). International Maritime Organization (2010). The Manila Amendments to the Seafarers’ Training, Certification and Watchkeeping (STCW) Code. http://www.imo.org/ Pages/home.aspx Kanki, B. G., Helmreich, R. L & Anca, J. (eds.) (2010). Crew Resource Management, 2nd edition. Cambridge, MA: Elsevier/Academic Press Kirkpatrick, D. L. (1998). Evaluating training programs: The four levels. San Francisco, CA: Jossey-Bass. Kolb, D. A., Boyatzis, R. E. & Mainemelis, C. (2001). Experiental learning theory: Previous research and new directions. In R. J. Sternberg & L.-F. Zhang (Eds.), Perspectives on thinking, learning and Cognitive Styles (pp. 227–247). Mahwah, NJ: Erlbaum. LeSage, P., Dyar, J. T & Evans, B. (2009). Crew Resource Management: Principles and practice. Sudbury, MA: Jones and Bartlett. Lorei, C. (2001). Bewertung von Eigensicherungs- und Kontrollmaßnahmen durch Bürger. Polizei und Wissenschaft, 2, 48–60. Manser, T., Dieckmann, P., Wehner, T. & Rall, M. (2007). Comparison of anaesthetists’ activity patterns in the operating room and during emergencies. Ergonomics, 50, 246–260. Peters, V. A. M. & Vissers, G. A. N. (2004). A simple classification model for debriefing simulation games. Simulation & Gaming, 35, 70–84. Prince, C. & Salas, E. (1993). Training research for teamwork in the military aircrew. In E. L. Wiener, B. G. Kanki & R. L. Helmreich (Eds.), Cockpit resource management (pp. 337–366). Orlando, FL: Academic Press.
331
18
Reich, K. (2008). Konstruktivistische Didaktik: Lehr- und Studienbuch mit Methodenpool. Weinheim: Beltz; 4. Auflage. Salas, E., Burke, C. S., Bowers, C. A. & Wilson, K. A. (2001). Team training in the skies: Does crew resource management (CRM) training work? Human Factors, 43, 641–674. Salas, E., Burke, C. S. & Cannon-Bowers, J. A. (2002). What we know about designing and delivering team training: Tips and guidelines. In K. Kraiger (Ed.), Creating, implementing and managing effective training and development: State-of-the-art lessons for practice (pp. 234–262). San Francisco, CA: Jossey-Bass. Salas, E., Fowlkes, J. E., Stout, R. J., Milanovich, D. M. & Prince, C. (1999). Does CRM training improve teamwork skills in the cockpit? Two evaluation studies. Human Factors, 41, 326–343. Salas, E., Wilson, K. A., Burke, C. S. & Wightman, D. C. (2006). Does crew resource management training work? An Update, an extension, and some critical needs. Human Factors, 48, 392–412. Schindewolf, P. (2002). MS Antwerpen: Darstellung und Evaluation eines computergestützten Trainings zum Krisenmanagement. Bamberg: Diplomarbeit im Studiengang Psychologie. Committee on Modeling, Simulation, and Games (ed.) (2010). The rise of games and high performace computing for modeling and simulation. National Academies Press Starke, S. (2005). Kreuzfahrt in die Krise. Wie sich kritische Situationen im Planspiel trainieren lassen. Frankfurt a. M.: Verlag für Polizeiwissenschaft. Strohschneider, S. (2003). Krisenstabstraining: Das NichtPlanbare vorbereiten. In S. Strohschneider (Hrsg.), Entscheiden in kritischen Situationen (S. 97–112). Frankfurt a. M.: Polizei und Wissenschaft. Strohschneider, S. (2009). Human Factors und interkulturelle Teamentwicklung. In Christoph I. Barmeyer & Jürgen Bolten (Hrsg.), Interkulturelle Personal- und Organisationsentwicklung Methoden, Instrumente und Anwendungsfälle, S. 129-144. Sternenfels: Wissenschaft und Praxis. Strohschneider, S. (2010) Planspiele und Computersimulationen zur Vermittlung interkultureller Kompetenz. In J. Straub, A. Weidemann & S. Nothnagel (Hrsg.). Wie lehrt man interkulturelle Kompetenz, S. 241-264. Bielefeld: transcript. Strohschneider, S. (2011) Technisierungsstrategien und der Human Factor. In P. Zoche, S. Kaufmann & R. Haverkamp (Hrsg.), Zivile Sicherheit: Gesellschaftliche Dimensionen gegenwärtiger Sicherheitspolitiken, S. 161-177. Bielefeld: transcript. Strohschneider, S. & Gerdes, J. (2004). MS ANTWERPEN: Emergency management training for low risk environments. Simulation & Gaming, 35, 394–413. Strohschneider, S. & Heimann, R. (Hrsg.) (2009) Kultur und sicheres Handeln. Frankfurt a.M.: Verlag für Polizeiwissenschaft.
332
Kapitel 18 • Human-Factors-Training
Tobias, S. & Fletcher, J. D. (Eds.) (2000). Training and retraining: A handbook for business, industry, government, and the military. New York: Macmillan. Vincenzi, D. A., Wise, J. A., Mouloua, M. & Hancock, P. A. (eds.) (2008). Human Factors in simulation and training. London: CRC Press. Wein, B., Willems, R. & Quanjel, M. (2000). Planspielsimulationen: Ein Konzept für eine integrierte (Re-) Strukturierung von Organisationen. In A. Blätte & D. Herz (Hrsg.), Simulation und Planspiel in den Sozialwissenschaften: Eine Bestandsaufnahme der internationalen Diskussion (S. 275–299). Münster: Lit. Wilpert, B. & Fahlbruch, B. (2004). Safety culture: Analysis and intervention. In C. Spitzer, U. Schmocker & V. N. Dang (Eds.), Probabilistic safety assessment and management, Vol. 2 (pp. 843–849). London: Springer. Wilson, H. (2000). Emergency response preparedness: Small group training. Part 2: Training methods compared with learning styles. Disaster Prevention and Management, 9, 180–213.
18
333
Systemgestaltung und Automatisierung Dietrich Manzey
19.1
Einleitung – 334
19.2
Automatisierung und Automation: Begriffsbestimmung – 335
19.3
Rolle des Menschen in automatisierten Systemen – 337
19.4
Probleme der Nutzung automatisierter Systeme durch den Menschen – 338
19.4.1 19.4.2 19.4.3
Vertrauen in Automation – 339 Aufrechterhaltung des Situationsbewusstseins – 343 Verlust manueller Fertigkeiten – 345
19.5
Konzepte einer menschzentrierten Systemgestaltung – 346
19.5.1 19.5.2
Von technikzentrierten zu menschzentrierten Automatisierungsstrategien – 347 Adaptierbare und adaptive Automation – 349
19.6
Zusammenfassung – 350 Literatur – 350
P. Badke-Schaub et al., Human Factors, DOI 10.1007/978-3-642-19886-1_19, © Springer-Verlag Berlin Heidelberg 2012
19
334
Kapitel 19 • Systemgestaltung und Automatisierung
19.1
Einleitung
Beispiel
19
Cali, Kolumbien, 20.12.1995. Flug AA965 befindet sich, aus Miami kommend, im Anflug auf Cali in Kolumbien. Das Cockpit dieser Boeing 757 ist mit zahlreichen automatisierten Systemen ausgestattet, die die Piloten bei ihren Flugführungsaufgaben unterstützen und so zu einer hohen Flugsicherheit beitragen sollen. Herzstück der Automation ist das sog. Flight Management System (FMS), das in Kombination mit dem Autopiloten zentrale Aufgaben der Navigation, Flugzeugführung und Systemüberwachung übernimmt. Die Aufgabe der Piloten besteht dabei nur noch darin, die jeweilige Flugroute bzw. die anzufliegenden Funkfeuer in das System einzugeben. Das eigentliche Abfliegen der Route müssen die Piloten dann nur noch anhand der Informationen auf einem Navigationsbildschirm überwachen. Darüber hinaus verfügt das Flugzeug auch über zahlreiche automatisierte Warn- und Alarmsysteme, wie z. B. das sog. Ground Proximity Warning System (GPWS), das die Cockpit-Crew warnt, sobald das Flugzeug sich zu stark dem Boden nähert. Obwohl alle diese Systeme funktionsgemäß arbeiten und auch die Piloten erfahren, gesund und voll leistungsfähig sind, erreicht Flug AA965 sein Ziel nicht. Um 21.42 Uhr Ortszeit zerschellt des Flugzeug 33 Meilen nordöstlich von Cali entfernt in den Bergen. Die gesamte Besatzung und 151 der 155 Passagiere sterben. Die nachfolgende Unfallanalyse dieses »controlled flight into terrain« zeigt, dass viele der zum Unglück beitragenden Faktoren mit Problemen des Zusammenspiels zwischen Piloten und Automation zusammenhängen. So passiert ein fataler Fehler bei der Umprogrammierung des FMS auf ein neu anzufliegendes Funkfeuer. Um im FMS den Anflug auf das Funkfeuer »Rozo« zu programmieren, geben die Piloten entsprechend der Abkürzungskonvention in ihrer Anflugkarte ein »R« ein. Ohne dass es für sie unmittelbar sichtbar oder nachvollziehbar wäre, ergänzt das FMS dieses »R« aber aufgrund seiner eigenen internen Logik nicht – wie von den Piloten erwartet – zu »Rozo«, sondern zu »Romeo«. Dieses Funkfeuer ist etwa 132 Meilen von Cali entfernt und führt das
Flugzeug von seiner derzeitigen Position direkt auf einen Kurs in die Berge. Da die Piloten der Automation aber vertrauen und unter Zeitdruck sind, überprüfen sie die Auswirkungen ihrer Programmierung nicht anhand anderer verfügbarer Navigationsinformationen (z. B. andere Anzeigen), sondern setzen ihre Landevorbereitungen fort. Auch als sie nicht mehr sicher über ihre Position sind, vertrauen sie weiterhin der Automation und versuchen, mit dem FMS ihre Position zu ermitteln. Da die von dem FMS generierte Darstellung auf dem Navigationsbildschirm aber nicht alle der dafür notwendigen Informationen enthält und alternativ verfügbare Informationen (Anflugkarten) nicht genutzt werden, bleiben sie im Unklaren darüber, wo genau sie sich befinden. Erst als das GPWS anspringt, merken sie, dass sie sich in einer gefährlichen Lage befinden. Ein daraufhin sofort eingeleiteter Steigflug kommt zu spät. In dem offiziellen Unfallbericht werden als wahrscheinliche Ursachen dieses Unglücks und dazu beitragende Faktoren u. a. eine unangemessene Nutzung der Automation (»inadequate use of automation«), ein fehlendes Situationsbewusstsein der Piloten für die Position des Flugzeugs (»lack of situational awareness«), eine nicht hinreichend transparente Automationslogik und Informationsdarstellung sowie ein zu starkes Vertrauen der Piloten in die Automation angeführt (Aeronautica Civil of the Republic of Columbia, 1996).
Moderne Arbeitssysteme zeichnen sich dadurch aus, dass es sich in der Regel um mehr oder weniger komplexe Mensch-Maschine-Systeme handelt, in denen mehrere Menschen im Zusammenwirken mit technischen Systemen vorgegebene Aufgabenstellungen erfüllen. Ein sehr spezielles Beispiel dieser Art liefert der Arbeitsplatz von Piloten im Cockpit moderner Verkehrsflugzeuge. Im Zuge der rapiden technologischen Entwicklung sind vergleichbare Arbeitssysteme inzwischen aber auch in vielen anderen Bereichen entstanden, v. a. dem Bahn- und Schiffsverkehr, der Fertigungs- und Prozesstechnik und der Medizin. Damit einhergehend haben Fragen nach einer bestmöglichen Gestaltung derartiger Arbeitssysteme sehr an Bedeutung gewonnen.
335
19.2 • Automatisierung und Automation: Begriffsbestimmung
Ein wichtiges Gestaltungsproblem kommt dabei der Frage zu, wie die verschiedenen Funktionen und Aufgaben, die von einem solchen Arbeitssystem erfüllt werden sollen, innerhalb des Systems verteilt werden. Dabei lassen sich zwei Aspekte unterscheiden: 5 Der erste Aspekt bezieht sich auf die Verteilung der Funktionen und Aufgaben auf die verschiedenen Menschen, die in einem be-
stimmten Arbeitssystem arbeiten. Dabei reicht die Bandbreite von sehr spezifischen Fragestellungen, wie etwa der optimalen Aufgabenverteilung zwischen Kapitän und Kopilot in einem Flugzeugcockpit, bis hin zu modernen Gruppenarbeitskonzepten für die Bereiche Fertigung und Produktion. 5 Der zweite, hier besonders interessierende Aspekt betrifft die Verteilung von Aufgaben zwischen Mensch(en) und Maschine (zu grundlegenden Konzepten der Systemgestaltung 7 Kap. 1). Dieses Problem hat insbesondere vor dem Hintergrund der rapide gewachsenen Möglichkeiten der Automatisierung in den letzten Jahrzehnten zunehmend an Bedeutung gewonnen. Ähnlich wie man es in der Luftfahrt seit mehreren Jahrzehnten beobachten kann, werden in modernen Arbeitssystemen zunehmend Funktionen automatisiert, um so Menschen bei der Erfüllung ihrer Aufgaben zu unterstützen bzw. in einem gewissen Maße auch zu ersetzen. Das Leitmotiv der Automatisierung liegt dabei neben den offensichtlichen ökonomischen Vorteilen nicht zuletzt auch in einer angestrebten Erhöhung der Sicherheit und Zuverlässigkeit. Und in der Tat zeigen z. B. Statistiken aus der Luftfahrt, dass die Unfallrate moderner, hoch automatisierter Flugzeuge deutlich geringer ist als die der weitgehend manuell geflogenen Flugzeugtypen früherer Jahre (Boeing Commercial Airline Group, 2005). Auf der anderen Seite entstehen durch die Einführung automatisierter Systeme aber oft auch neue Risiken, die mit fatalen Folgen verbunden sein können, wie das eingangs dargestellte Beispiel anschaulich illustriert. Diese zeigen sich v. a. dann, wenn die Automation nicht wie erwartet arbeitet, Fehler macht oder sogar ganz ausfällt. In diesen,
19
oft besonders kritischen Situationen ist in der Regel dann wieder der Mensch gefordert, einzuspringen und die eigentlich automatisierten Funktionen selbst zu übernehmen. Unabhängig von ihrer Komplexität bleiben auch weitgehend automatisierte Arbeitssysteme damit im Kern immer soziotechnische Systeme, deren Verlässlichkeit maßgeblich von der Qualität der Interaktion zwischen Mensch und Automation abhängt. Eine sicherheitsorientierte Gestaltung derartiger Systeme kann sich somit nicht allein auf eine Optimierung der Zuverlässigkeit seiner technischen Komponenten (Hard- und Software) beschränken, sondern muss auch immer auf eine Optimierung im Hinblick auf die Interaktion zwischen Mensch und Automation ausgerichtet sein.
Dieses Kapitel beschäftigt sich speziell mit Problemen der Nutzung automatisierter technischer Systeme durch den Menschen und den daraus resultierenden allgemeinen Prinzipien für die Gestaltung von Arbeitssystemen, in denen die Interaktion von Mensch und Automation eine zentrale Rolle spielt. Dazu werden zunächst die Begriffe »Automatisierung« bzw. »Automation« näher bestimmt und verschiedene Arten und Stufen der Automation unterschieden. Danach wird auf die Rolle des Menschen in automatisierten Systemen eingegangen und es werden die wichtigsten Probleme, die bei der Interaktion von Mensch und Automation auftreten können, näher dargestellt. Im letzten Abschnitt werden darauf aufbauend verschiedene Überlegungen zu möglichen Automatisierungsstrategien und Konzepten einer menschzentrierten Systemgestaltung vorgestellt und diskutiert, die unabhängig von dem jeweils spezifischen Anwendungsbereich (z. B. Luftfahrt, Prozessindustrie, Medizin) gültig sind.
19.2
Automatisierung und Automation: Begriffsbestimmung
> Von Automatisierung oder Automation wird allgemein dann gesprochen, wenn einzelne Funktionen oder ganze Tätigkeiten vom Menschen auf eine Maschine
336
Kapitel 19 • Systemgestaltung und Automatisierung
Ausmaß der Automatisierung
Art der automatisierten Funktion Informationsaufnahme
Informationsanalyse
Entscheidung/ Handlungsauswahl
Handlungsausführung
Vollautomatisch
Manuell System A
System B
. Abb. 19.1 Systematik zur Beschreibung verschiedener Arten der Automation. (In Anlehnung an Parasuraman, Sheridan & Wickens, 2000. © Parasuraman, R., Sheridan, T. B. & Wickens, C. D. (2000). A model for types and levels of human interaction with automation. IEEE Transactions on Systems Man and Cybernetics – Part A: Systems and Humans, 30, 286-297.)
übertragen werden. Im vorliegenden Beitrag soll mit dem Begriff der Automatisierung der Prozess und dem Begriff der Automation das Resultat einer solchen Übertragung verstanden werden (Hauß & Timpe, 2000).
Beispiele für Automatisierung sind: 5 Verlagerungen manueller Steuerungs- und Regelungstätigkeiten auf technische Systeme, wie sie etwa in der Luftfahrt oder bei der Prozesssteuerung in der chemischen und Strom erzeugenden Industrie eine Rolle spielen; 5 Verlagerung manueller Tätigkeiten an Roboter in der Automobilindustrie oder Medizin; 5 Verlagerung kognitiver Funktionen der Urteils- und Entscheidungsfindung an wissensbasierte Assistenzsysteme in unterschiedlichen Anwendungsdomänen.
19
Eine vergleichsweise einfache Systematik zur klassifizierenden Beschreibung automatisierter Systeme haben Parasuraman, Sheridan &Wickens (2000) vorgelegt (. Abb. 19.1). Sie macht deutlich, dass zwei Aspekte automatisierter Systeme unterschieden werden können: Der erste Aspekt bezieht sich darauf, was genau automatisiert wird. Hier unterscheiden Para-
suraman, Sheridan & Wickens vier verschiedene Klassen von Funktionen (s. folgende Übersicht), die sie in Anlehnung an die Unterscheidung verschiedener Stufen menschlicher Informationsverarbeitung als Informationsaufnahme (»information acquisition«), Informationsanalyse (»information analysis«), Entscheidungsfindung bzw. Handlungsauswahl (»decision-making and action selection«) sowie Handlungsausführung (»action implementation«) bezeichnen. Informationsaufnahme Mit Informationsaufnah-
me sind alle möglichen sensorischen Funktionen gemeint, mit denen Daten aus der Umwelt vom Menschen aufgenommen werden. Eine Automatisierung dieser Funktionen kann z. B. über den Einsatz technischer Sensoren, Kameras oder spezieller Messsysteme erfolgen. Informationsanalyse Die zweite Klasse von Funktionen betrifft die Verarbeitung dieser aufgenommenen Daten, d. h. ihre analysierende Auswertung mit dem Ziel, daraus eine Bewertung des Systemzustands oder einer Situation abzuleiten. Hier kann Automation dazu eingesetzt werden, Menschen bei der Integration, Verrechnung und Auswertung verschiedener Daten zu unterstützen. Typische
337
19.3 • Rolle des Menschen in automatisierten Systemen
Beispiele dafür wären etwa Alarmsysteme, die auf der Basis ausgewerteter Daten vor dem Eintreten bestimmter Systemzustände oder Situationen warnen. Entscheidungsfindung bzw. Handlungsauswahl Funktionen der dritten Gruppe umfassen
die Entscheidungsfindung und Handlungsauswahl. Aus den aufgenommenen und analysierten Informationen gilt es Entscheidungen über weitere Handlungsschritte abzuleiten, wobei »intelligente« Assistenzsysteme als Unterstützung dienen können (z. B. wenn Alarmsysteme auf der Basis der ausgewerteten Daten bereits konkrete Handlungsschritte vorschlagen). Handlungsausführung Schließlich
umfasst die letzte Gruppe der Funktionen alle Arten automatisierter Unterstützung der Handlungsausführung. Ein Beispiel wäre eine programmierbare Werkzeugmaschine, die bestimmte Bohrungen an bestimmten Positionen autonom ausführt. Klassifizierung von Automation (nach Parasuraman, Sheridan &Wickens, 2000) 1.
2.
Was wird automatisiert? – Informationsaufnahme – Informationsanalyse – Entscheidungsfindung bzw. Handlungsauswahl – Handlungsausführung Ausmaß der Automation: rein manuell bis voll automatisch
Der zweite Aspekt, der bei der Betrachtung automatisierter Systeme relevant ist, betrifft das Ausmaß der jeweiligen Automation. Damit wird der Tatsache Rechnung getragen, dass sich verschiedene Systeme danach unterscheiden lassen, wie stark Mensch und Maschine in die Ausführung bestimmter Funktionen jeweils eingebunden sind, d. h. in welchem Umfang die jeweiligen Funktionen an die Maschine übertragen werden. Parasuraman, Sheridan & Wickens (2000) legen hier für jeden Funktionsbereich ein Kontinuum zugrunde, das
19
von rein manueller bis zu vollautomatischer Ausführung reicht. Der in . Abb. 19.1 beispielhaft eingetragene Profilverlauf für System A könnte dabei für ein Navigationssystem im Auto oder das GPWS (s. einleitendes Fallbeispiel) in einem Flugzeug stehen. Bei diesen Systemen werden automatisch Informationen aus der Umwelt (z. B. Satelliteninformationen) aufgenommen, ausgewertet und daraus Handlungsempfehlungen abgeleitet (z. B. rechts abzubiegen oder einen Steigflug einzuleiten), die dann aber manuell umgesetzt werden müssen. Das zweite System (B) könnte eine Planungshilfe für Fluglotsen symbolisieren, bei denen auf Basis automatisch aufgenommener und ausgewerteter Informationen automatisch generierte Handlungsvorschläge unterbreitet werden, von denen der Fluglotse aktiv auswählt, welche dann wiederum automatisch umgesetzt werden.
19.3
Rolle des Menschen in automatisierten Systemen
Indem im Zuge von Automatisierung Funktionen und Aufgaben, die der Mensch ursprünglich selbst ausgeführt hat, an eine Maschine verlagert werden, verändert sich natürlich auch die Rolle, die dem Menschen als Bediener und Nutzer eines derartigen Systems zukommt. Betrachten wir dazu die Piloten im Eingangsbeispiel. Früher waren sie selbst dafür verantwortlich, die jeweilige Lage und Position ihres Flugzeugs zu bestimmen und es manuell zu steuern. Sie wurden dabei nur durch ihre Anzeigeninstrumente, die Außensicht und Karten unterstützt. In einem modernen Glascockpit hingegen werden viele dieser Funktionen inzwischen vom Computer (Flight Management System, FMS) übernommen. Die aktiven Aufgaben der Piloten reduzieren sich dabei auf die Programmierung dieses Systems. Danach bleibt ihre Rolle auf die Überwachung des Systems beschränkt und sie greifen nur dann aktiv ein, wenn das System nicht zuverlässig arbeitet.
338
Kapitel 19 • Systemgestaltung und Automatisierung
Rolle des Menschen in automatisierten Systemen Die Rolle des Menschen in automatisierten Systemen wird auch als »leitende Kontrolle« (»supervisorycontol«; Sheridan, 1997) bezeichnet. Dabei bestehen die Aufgaben des Menschen darin, 5 zu planen, was die Automation machen soll, 5 dies der Automation mitzuteilen, 5 anschließend die Ausführung zu überwachen und 5 immer dann einzugreifen, wenn die Automation die vorgegebenen Direktiven nicht erwartungsgemäß umsetzt und 5 schließlich aus den gemachten Erfahrungen zu lernen und ein angemessenes mentales Modell der Automation aufzubauen.
19
Für die Sicherheit bei der Nutzung automatisierter Systeme sind v. a. die dritte und vierte Teilaufgabe von besonderer Bedeutung. Auch das macht das eingangs zitierte Beispiel deutlich. Die bei der Programmierung des FMS aufgetretenen Fehler (Verwechslung des Funkfeuers) hätten vermutlich entdeckt und korrigiert werden können, wenn die Piloten nach der Eingabe die Aktivitäten der Automation angemessen überwacht und sich rechtzeitig dafür entschieden hätten, das FMS abzuschalten und die Navigation und Steuerung des Flugzeugs wieder selbst zu übernehmen. Die Überwachungsfunktion setzt dabei voraus, dass der Bediener oder die Bedienerin einem automatisierten System nicht »blind vertraut«, sondern auch in der passiven Rolle aufmerksam bleibt und die Aktivitäten der Automation mit anderen verfügbaren Informationen abgleicht. Eine wesentliche kognitive Anforderung, die damit für die Bediener verbunden ist, besteht in der Entwicklung angemessener Strategien der Informationssammlung und Kontrolle. Die Intervention in das System im Falle von Automationsfehlern bedeutet in der Regel, dass die Automation abgeschaltet und die eigentlich automatisierten Funktionen wieder selbst übernommen werden. Da diese Situationen in der Regel nicht vorhersehbar sind, wird vorausgesetzt, dass
der Bediener zu jedem Zeitpunkt dazu in der Lage ist und die dafür notwendigen Wissensvoraussetzungen und Fertigkeiten besitzt. > Bainbridge (1983) wies in diesem Zusammenhang als Erste auf die Widersprüchlichkeiten der Automatisierung (»ironies of automation«) hin. Einerseits soll der Mensch durch eine Automation unterstützt, entlastet und in vielen Fällen auch ersetzt werden; oft nicht zuletzt deshalb, weil man sich davon eine Erhöhung der Sicherheit und Verlässlichkeit des Gesamtsystems erhofft. Andererseits wird aber gleichzeitig der Mensch benötigt, um das System zu überwachen und als Redundanz zur Verfügung zu stehen.
Im Folgenden soll auf einige der daraus resultierenden Probleme näher eingegangen werden.
19.4
Probleme der Nutzung automatisierter Systeme durch den Menschen
Insbesondere drei Problemfelder, die bei der Interaktion von Mensch und Automation eine Rolle spielen, sollen im Folgenden betrachtet werden. Diese beziehen sich 5 auf Probleme, die sich aus einem mangelnden bzw. übersteigerten Vertrauen in Automation ergeben, 5 auf die Aufrechterhaltung eines angemessenen Situationsbewusstseins und 5 auf das Auftreten möglicher Fertigkeitsverluste als Folge einer Nutzung automatisierter Systeme. Viele dieser Probleme wurden erstmals im Zusammenhang mit der Cockpitautomatisierung in der Luftfahrt thematisiert und untersucht und spielen auch beim Eingangsbeispiel eine Rolle. Sie lassen sich in ähnlicher Weise aber auch auf alle anderen relevanten Anwendungsbereiche übertragen (z. B. Prozessindustrie, Kraftfahrzeugbereich, Bahn- und Schifffahrt, Medizin).
19.4 • Probleme der Nutzung automatisierter Systeme durch den Menschen
339
19
Übersteigertes Vertrauen (»Misuse«: unzureichende Überwachung, Verlust des Situationsbewusstseins, Übersehen von Fehlern)
Vertrauen
en au r t r Ve es n se es m e g An
Mangelndes Vertrauen (»Disuse«: zu geringe Nutzung, keine Beanspruchungsreduktion, keine Reaktion auf Warnungen und Alarme) Leistungsfähigkeit der Automation . Abb. 19.2
19.4.1
Unterschiedliche Ausprägungen des Vertrauens in Automation und mögliche Verhaltenskonsequenzen
Vertrauen in Automation
Der Umgang mit einem automatisierten System wird immer wesentlich von dem Vertrauen bestimmt, das der Mensch einer Automation entgegenbringt (Lee & See, 2004; Manzey & Bahner, 2005). Insbesondere hängt davon ab, inwieweit eine Automation in geeigneter Weise genutzt wird und so die durch eine Automatisierung angestrebten Effekte einer Beanspruchungsreduktion bei gleichzeitiger Erhöhung der Systemverlässlichkeit und -sicherheit auch tatsächlich erreicht werden können. Zu den wichtigsten Faktoren, die das Vertrauen in automatisierte technische Systeme beeinflussen, gehört die Zuverlässigkeit, mit der diese Systeme arbeiten. Daneben spielen aber auch noch weitere Systemeigenschaften (z. B. Nachvollziehbarkeit und wahrgenommene Nützlichkeit automatisierter Funktionen) und interindividuelle Unterschiede in der allgemeinen Einstellung gegenüber Technik sowie dem Vertrauen in die eigene Leistungsfähigkeit eine Rolle. Im Idealfall sollte das Vertrauen in ein automatisiertes System dessen wesentlichen Leistungs-
merkmalen (z. B. Zuverlässigkeit, Verständlichkeit, Nützlichkeit) möglichst gut entsprechen. Lee & See (2004) sprechen in diesem Fall von einem angemessenen Vertrauen (»appropriate trust«) in die Automation und sehen darin eine wichtige Voraussetzung für ein den jeweiligen Systemeigenschaften angepasstes Nutzungs- und Überwachungsverhalten des Menschen. Probleme bei der Nutzung und Überwachung automatisierter Systeme ergeben sich immer dann, wenn die Bediener der Automation zu wenig oder aber zu viel Vertrauen entgegenbringen (. Abb. 19.2). Parasuraman& Riley (1997) unterscheiden in diesem Zusammenhang eine mangelnde Nutzung (»disuse«) und eine fehlerhafte Nutzung (»misuse«) von Automation. Eine mangelnde Nutzung liegt dann vor, wenn einer im Grunde zuverlässig arbeitenden Automation ein zu geringes Vertrauen entgegengebracht und sie daher nicht ihren Möglichkeiten entsprechend genutzt wird. Der umgekehrte Fall liegt bei einer fehlerhaften Nutzung der Automation vor, wie sie etwa auch im Eingangsbeispiel eine Rolle spielt. Diese ist gegeben, wenn die »Entscheidungen« und Aktionen
340
Kapitel 19 • Systemgestaltung und Automatisierung
einer Automation vom Bediener oder der Bedienerin aufgrund eines übersteigerten Vertrauens in ihre Funktionsfähigkeit und Zuverlässigkeit unkritisch akzeptiert und entsprechend nur unzureichend überwacht und kontrolliert werden. z
19
Mangelndes Vertrauen in Automation
Probleme eines zu geringen Vertrauens in Automation und einer daraus resultierenden mangelnden Nutzung sind v. a. im Zusammenhang mit Systemen von Bedeutung, bei denen der Mensch selbst darüber entscheiden kann, ob und inwieweit sie genutzt werden. Typische Beispiele dafür liefern Assistenzsysteme, die den Menschen bei der Erfüllung einer Aufgabe entlasten sollen (z. B. Autopilot, Navigationssysteme), aber auch automatisierte Alarm- und Warnsysteme, die entsprechend beachtet und befolgt oder aber ignoriert werden können. Bei derartigen Systemen kann es dazu kommen, dass sie trotz einer hinreichend hohen Zuverlässigkeit nicht oder nur unzureichend genutzt werden und der Mensch eher seinen eigenen Wahrnehmungen und Fähigkeiten vertraut als sich auf die Automation zu verlassen. Ein wesentlicher Faktor, der dabei eine Rolle zu spielen scheint, betrifft die Unterschätzung der »wahren« Zuverlässigkeit einer Automation aufgrund einzelner auftretender Automationsfehler. Verschiedene Untersuchungen zeigen, dass das Vertrauen, das einer Automation entgegengebracht wird, sehr schnell zusammenbricht, wenn es zu offensichtlichen Fehlern der Automation kommt. Dieser Effekt ist dann besonders ausgeprägt, wenn die Risiken, die sich aus derartigen Fehlern ergeben, als groß wahrgenommen werden oder die Automationsfehler bei vergleichsweise leichten Aufgaben auftreten (Madhavan, Diegmann & Lacson, 2006). Dabei spielt aber auch die Nachvollziehbarkeit und Vorhersehbarkeit der Fehler eine maßgebliche Rolle. Je besser die Nutzer die Funktionen automatisierter Systeme nachvollziehen können und damit auch Fehler der Automation erklärbar und vorhersehbar werden, desto geringer wirken sich wahrgenommene Fehler auf das Vertrauen und die Nutzung der Systeme aus (Dzindolet, Peterson, Pomranky, Pierce & Beck, 2003). Besonders häufig treten Probleme eines zu geringen Vertrauens in Automation im Zusammen-
hang mit automatisierten Warn- und Alarmsystemen auf, die den Bediener komplexer technischer Anlagen auf technische Fehler oder kritische Zustände aufmerksam machen sollen. Dabei lassen sich zwei verschiedene Aspekte des Vertrauens und der daraus resultierenden Verhaltenskonsequenzen unterscheiden (Meyer, 2004). Der erste Aspekt (»reliance«) bezieht sich darauf, inwieweit Operateure darauf vertrauen, dass sie bei Vorliegen eines kritischen Ereignisses von dem Alarmsystem tatsächlich alarmiert werden. Dieser Aspekt wird vor allem davon bestimmt, wie sensitiv das System reagiert und inwieweit es zu übersehenen Ereignissen kommt. Macht ein Operateur wiederholt die Erfahrung, dass ein Alarm nicht anspringt, obwohl ein technischer Fehler oder kritischer Zustand vorliegt, wird er dem entsprechenden Alarmsystem immer weniger vertrauen und sich selbst intensiv um die Überwachung einer Anlage kümmern. Dieser Effekt muss zwar keine unmittelbar gravierenden Auswirkungen auf die Sicherheit des Betriebs einer Anlage haben, die entlastende Unterstützungswirkung eines Alarmsystems für den Operateur geht damit aber verloren, so dass die mit der Überwachung einer Anlage verbundene Arbeitsbeanspruchung insgesamt ansteigt. Der zweite Vertrauensaspekt im Umgang mit einem Alarmsystem (»compliance«) bezieht sich darauf, inwieweit sich Operateure darauf verlassen (können), dass tatsächlich ein kritischer Systemzustand vorliegt, wenn es zu einem Alarm kommt. Dieser Aspekt wird vor allem davon beeinflusst, wie hoch die Rate sogenannter falscher Alarme ist, d. h. wie oft es zu einem Ansprechen des Alarm- und Warnsystems kommt, ohne dass tatsächlich ein Fehler oder kritischer Zustand vorliegt. Die wiederholte Erfahrung mit derartigen falschen Alarmen führt schnell dazu, dass die Nutzer das Vertrauen in die diagnostische Validität des Warnsystems verlieren und die automatisch generierten Warnungen oder Alarme in der Folge nur noch mit nachrangiger Priorität behandeln oder sogar gänzlich ignorieren. Dieses Problem wird in Anlehnung an die entsprechende Fabel des Aesop auch als »cry-wolf«-Effekt bezeichnet (Breznitz, 1983) und spielt in der Praxis für den sicheren Betrieb technischer Anlagen eine beträchtliche Rolle (Bliss &Fallon, 2006). Das hängt vor allem damit zusammen, dass Alarm- und Warnsysteme in der
19.4 • Probleme der Nutzung automatisierter Systeme durch den Menschen
Regel dort implementiert werden, wo ein fehlendes oder zu spätes Eingreifen durch die Bediener mit hohen Kosten und Gefährdungen verbunden ist (z. B. GPWS in Flugzeugen oder automatische Alarme in einem Kernkraftwerk). Entsprechend viel Wert wird dabei auf eine hohe Sensitivität der Systeme gelegt, sodass sichergestellt ist, dass auch wirklich alle auftretenden Fehler entdeckt und angezeigt werden. Diese Sensitivität lässt sich aber nur durch gleichzeitige Inkaufnahme einer mehr oder weniger hohen Rate falscher Alarme erzielen und dieses Problem verschärft sich noch dadurch, dass technische Fehler oder kritische Zustände in der Regel sehr seltene Ereignisse darstellen. Das lässt sich formal auf Basis der Signalentdeckungstheorie zeigen und kann dazu führen, dass gerade bei sehr sensitiven Alarmsystemen die bedingte Wahrscheinlichkeit des Vorliegens eines kritischen Ereignisses bei gegebenem Alarm so gering werden kann, dass es für Operateure schon fast rational wird, auf einen Alarm nicht mehr zu reagieren (Parasuraman & Riley, 1997). Wie kann das Risiko des Auftretens von »crywolf«-Effekten unter diesen Umständen reduziert werden? Neue Arbeiten legen nahe, dass der Effekt deutlich verringert werden kann, wenn man den Operateuren die Möglichkeit gibt, einen gegebenen Alarm schnell und ohne großen Aufwand anhand anderer verfügbarer Systemdaten zu überprüfen. Diese Option wird auch dann noch genutzt und einem reinen Ignorieren von Alarmen vorgezogen, wenn die Operateure wiederholt die Erfahrung machen, dass es sich um einen Fehlalarm handelt (Gérard & Manzey, 2010). Ein zweiter Ansatz besteht darin, differenziertere, mehrstufige Alarmsysteme zu verwenden. Ein Beispiel dafür bieten sog. Likelihood-Alarme, die nicht mehr rein binär das Vorliegen bzw. die Abwesenheit eines kritischen Ereignisses anzeigen, sondern vielmehr abgestuft über die Wahrscheinlichkeit eines kritischen Ereignisses informieren (Sorkin, Kantowitz & Kantowitz, 1988). Damit liefern sie Operateuren eine bessere Grundlage für die Risikoabwägung auf einen gegebenen Alarm zu reagieren bzw. ihn zu ignorieren und verbessern damit die Gesamtleistung des Mensch-Maschine-Systems (Wiczorek & Manzey, 2011).
z
341
19
Übersteigertes Vertrauen in Automation
Während ein zu geringes Vertrauen in ein automatisiertes System und eine daraus resultierende mangelnde Nutzung v. a. dazu führen, dass die angestrebten Effekte der Beanspruchungsreduktion und Unterstützung des Nutzers nicht erzielt werden, ist ein zu hohes Vertrauen in Automation oft sehr viel unmittelbarer mit erheblichen Risiken für die Sicherheit von Mensch-Maschine-Systemen verbunden. Dies ist immer dann der Fall, wenn sich die Nutzer eines automatischen Systems zu sehr auf dessen technische Zuverlässigkeit verlassen und dabei ihre Überwachungs- und Kontrollfunktion vernachlässigen. > Das übermäßige Vertrauen in die Automation und daraus resultierende Probleme werden in der englischsprachigen Literatur als »automation complacency« bezeichnet (Parasuraman, Molloy & Singh, 1993; Moray & Inagaki, 2000). Dazu gehören ein unzureichendes Überwachungsund Kontrollverhalten und in der Folge daraus der Verlust des Situationsbewusstseins (7 Kap. 19.4.2) und das potenzielle Übersehen von Automationsfehlern (Manzey & Bahner, 2005).
Ein solcher Effekt hat offenbar auch bei der Entstehung des Flugzeugunglücks aus dem Eingangsbeispiel eine wichtige Rolle gespielt. Nach der Eingabe des neuen Funkfeuers in das FMS verzichteten die Piloten darauf, die damit verbundenen Konsequenzen (Kursänderung des Flugzeugs) auf ihre Plausibilität hin zu überprüfen. Das führte dazu, dass sie die bei der Eingabe entstandene Verwechslung der Funkfeuer bis zum Schluss nicht bemerkten und so die Orientierung über ihre genaue Position verloren. Fatalerweise vertrauten sie dem FMS selbst dann noch weiter, als sie schon die Orientierung verloren hatten, und versäumten es dabei, rechtzeitig wieder auf eine manuelle Kontrolle des Flugzeugs umzuschalten. Vergleichbare Effekte sind auch für den Umgang mit automatisierten Entscheidungsunterstützungssystemen beschrieben worden (Mosier & Skitka, 1996). Ein Alltagsbeispiel für solche Systeme liefert das Navigationssystem im Auto, das den Fahrer bei seinen Entscheidungen über die zu fahrende Rou-
342
19
Kapitel 19 • Systemgestaltung und Automatisierung
te unterstützt. Ein Beispiel aus dem Arbeitskontext bilden Systeme, die die Operateure komplexer technischer Anlagen bei der Entdeckung und Diagnose von Fehlern oder kritischen Systemzuständen unterstützen, indem sie automatisch auf Prozessabweichungen aufmerksam machen und eine automatisch generierte Diagnose für die Ursache der Abweichung liefern. Bei derartigen Systemen kann es in Folge eines übersteigerten Vertrauens zu zwei Arten von Fehlern kommen: Zum einen vernachlässigen Operateure im Vertrauen auf die Alarmfunktion dieser Systeme ihre eigene Überwachung der Anlagen, was in der Folge zu einem zu späten Entdecken von kritischen Systemzuständen führen kann, die von dem Assistenzsystem nicht gemeldet werden. Diesem Fall entspricht im Alltag ein Autofahrer, der fälschlicherweise an einer Autobahnabfahrt vorbeifährt, weil das System ausgefallen ist und ihm keinen Hinweis auf die Abfahrt gibt. Zum anderen werden automatisch generierte Anweisungen und Diagnosen dieser Systeme von den Operateuren oft auch dann noch akzeptiert, wenn sie fehlerhaft sind, weil andere zugängliche Informationen, die eigentlich dagegen sprechen, nicht hinreichend geprüft oder gewürdigt werden. Hier wäre das Alltagsbeispiel ein Autofahrer, der von der falschen Seite in eine Einbahnstraße einbiegt, weil das System auf Basis einer veralteten Datenbank das so empfiehlt und der Autofahrer selbst nicht auf die Beschilderung achtet oder sie ignoriert. Mosier & Skitka (1996) sprechen in Zusammenhang mit diesen automationsinduzierten Fehlern von einem »automation bias«, der daraus resultiert, dass Operateure die Hinweise der Automation als eine einfach verfügbare Heuristik für ihre Handlungsentscheidungen verwenden, anstatt sich selbst ein genaues Bild der Situation zu verschaffen. Die überwiegende Zahl derartiger Fehler scheint auch hier mit einer nur unzureichenden Überwachung der Automation zusammenzuhängen und damit das Resultat eines ComplacencyEffekts widerzuspiegeln (Parasuraman & Manzey, 2010). k Entstehungsbedingungen
Welche Faktoren tragen zu der Entstehung eines übersteigerten Vertrauens in Automation und
einem damit verbundenen Complacency-Effekt bei? Zunächst liegt es nahe anzunehmen, dass v. a. diejenigen Eigenschaften einer Automation, von denen bekannt ist, dass sie besonders »vertrauensfördernd« wirken, gleichzeitig auch das Risiko eines übersteigerten Vertrauens in sich bergen. Dazu gehören v. a. die technische Zuverlässigkeit, aber auch die Nachvollziehbarkeit der Funktionsweise und die wahrgenommene Nützlichkeit. Insbesondere der Zusammenhang zwischen der wahrgenommenen Zuverlässigkeit automatisierter Systeme und dem möglichen Auftreten von Complacency- und daraus resultierenden »automation bias«-Effekten ist inzwischen durch mehrere Laborexperimente gut belegt (Parasuraman, Molloy & Singh, 1993; Bahner, Hüper & Manzey, 2008; Reichenbach, Onnasch & Manzey, 2010). Hierin offenbart sich eine der Ironien der Automatisierung, wie sie von Bainbridge (1983) beschrieben wurden. Je leistungsfähiger, zuverlässiger und »besser« die Automation gestaltet ist, desto eher kann es auch zu unerwünschten Folgen wie einem übersteigerten Vertrauen in die Automation und den damit verbundenen Überwachungsdefiziten kommen. Die Entwicklung von Complacency-Effekten wird bei solchen Systemen gerade dadurch begünstigt, dass die Risiken, die sich aus einem nachlässigen Überwachungs- und Kontrollverhalten ergeben, nur in den Fällen sichtbar werden, in denen die Automation ausfällt oder fehlerhaft arbeitet. Das aber ist umso seltener der Fall, je zuverlässiger und besser das System arbeitet. In der Regel werden die Bediener und Bedienerinnen derartiger Systeme daher überwiegend die Erfahrung machen, dass ein nachlässiges Überwachungs- und Kontrollverhalten ohne jede Konsequenz bleibt. Das kann dann im Sinne einer positiven Rückkopplung einen kognitiven Lernprozess auslösen, der die Tendenz zu einem übersteigerten Vertrauen in die Automation und zu einem entsprechenden Verhalten noch weiter verstärkt (Parasuraman & Manzey, 2010). Allerdings scheint eine hohe Zuverlässigkeit allein noch keinesfalls hinreichend für die Induzierung von »complacency« zu sein. Vielmehr müssen dabei zusätzlich Bedingungen gegeben sein, die zu besonderen Beanspruchungen des Bedieners bzw. Nutzers automatisierter Systeme führen.
19.4 • Probleme der Nutzung automatisierter Systeme durch den Menschen
So konnten in den bislang vorliegenden Arbeiten Complacency-Effekte nur unter Mehrfachaufgabenbedingungen nachgewiesen werden, d. h. wenn neben der eigentlichen Überwachungsaufgabe zusätzlich noch andere Aufgaben zu bearbeiten waren (Parasuraman & Manzey, 2010). Möglicherweise spiegelt sich darin eine allgemeine Bearbeitungsstrategie im Umgang mit komplexen Aufgabenanforderungen wider, bei der die Überwachung als zuverlässig wahrgenommener automatisierter Funktionen reduziert wird, um so kompensatorisch genügend Ressourcen für die Bearbeitung der konkurrierenden Aufgaben zur Verfügung stellen zu können. Lee & See (2004) und Parasuraman, Molloy& Singh (1993) nehmen an, dass in ähnlicher Weise auch eine hohe mentale Beanspruchung oder Müdigkeit von Operateuren das Auftreten von »complacency« fördern könnten. Darüber hinaus scheinen auch besondere individuelle Merkmale des Nutzers das Auftreten von Complacency-Effekten zu begünstigen. So lassen erste empirische Arbeiten vermuten, dass Complacency-Effekte besonders bei solchen Personen auftreten, die sich durch eine besonders positive allgemeine Einstellung gegenüber Technik (»Technikgläubigkeit«) auszeichnen (Singh, Molloy & Parasuraman, 1993). k Fazit
Zusammenfassend resultiert das Problem eines übersteigerten Vertrauens in Automation bzw. eines nachlässigen Überwachungsverhaltens und damit einhergehenden »automation bias«-Effekten aus einer komplexen Interaktion zwischen Merkmalen des jeweiligen automatisierten Systems, des Nutzers und der Situation, in der das System genutzt wird (Manzey & Bahner, 2005; Parasuraman & Manzey, 2010). Dabei wurde bei der bisherigen Diskussion dieses Phänomens zumindest implizit vorausgesetzt, dass es für den Nutzer prinzipiell immer auch die Möglichkeit gäbe, sich anders – d. h. weniger »complacent« – zu verhalten. Das aber muss nicht immer der Fall sein. Der oben beschriebene Zusammenhang zwischen der Beanspruchung des Nutzers und dem Complacency-Effekt macht bereits deutlich, dass es Situationen geben kann, in denen der Nutzer quasi gezwungen ist, sich auf eine Automation zu verlassen – etwa weil
343
19
es konkurrierende Aufgabenziele gibt oder einfach die Zeit fehlt, die automatisierten Prozesse zu überwachen und zu kontrollieren. Dies ist in einem noch viel stärkeren Maße der Fall, wenn der Nutzer einer Automation gar nicht mehr versteht oder nachvollziehen kann, was die Automation gerade macht. In diesem Fall bleibt ihm gar nichts anderes übrig, als sich auf die Automation zu verlassen. Das führt uns weg von dem Problem eines übersteigerten Vertrauens in Automation hin zu dem allgemeineren Problem der Aufrechterhaltung des Situationsbewusstseins im Umgang mit automatisierten Systemen.
19.4.2
Aufrechterhaltung des Situationsbewusstseins
Allgemein ausgedrückt liegt ein angemessenes Situationsbewusstsein (»situation awareness«) immer dann vor, wenn der Mensch bei der Aufgabenerfüllung zu jedem Zeitpunkt darüber im Bilde ist, was gerade passiert, warum es passiert und wie sich die Situation weiter entwickeln wird (vgl. dazu auch 7 Kap. 4). Nach Endsley (1995) lassen sich entsprechend drei verschiedene Ebenen des Situationsbewusstseins unterscheiden: Ebene 1 des Situationsbewusstseins ist dann gegeben, wenn alle Informationen, die für eine Beurteilung des gegenwärtigen Zustands benötigt werden, auch tatsächlich verfügbar sind und wahrgenommen werden. Dabei kann es sich um technisch vermittelte Informationen handeln oder auch um Informationen, die über die verschiedenen Sinneskanäle direkt aus der Umwelt aufgenommen werden. Für eine Autofahrerin, die sich im Straßenverkehr bewegt, wären das alle Informationen, die sie den Anzeigen des Armaturenbretts entnehmen kann (z. B. Geschwindigkeits- und Drehzahlanzeige), aber auch Informationen aus der Außensicht (z. B. andere Verkehrsteilnehmer, Verkehrsschilder) und Informationen, die auditiv (z. B. Motorengeräusche) oder taktil (z. B. Andruck des Gaspedals) vermittelt werden. Die höheren Ebenen des Situationsbewusstseins setzen dann voraus, dass die wahrgenommenen Informationen korrekt interpretiert und zu einem angemessenen Gesamtbild der Situation zusammengeführt werden (Ebene 2),
344
Kapitel 19 • Systemgestaltung und Automatisierung
und daraus der weitere Verlauf der Situation richtig vorhergesagt werden kann (Ebene 3). Eine wichtige Voraussetzung dafür ist, dass der Mensch über eine entsprechende Wissensbasis und ein zutreffendes »mentales Modell« der Aufgabe sowie des dabei zu bedienenden technischen Systems verfügt. Wie das Eingangsbeispiel belegt, kann es bei der Nutzung automatisierter Systeme leicht zu einem Verlust des Situationsbewusstseins kommen. Dieser erweist sich so lange als unkritisch, wie das System zuverlässig funktioniert. Er kann aber fatale Folgen haben, wenn die Automation ausfällt oder nicht erwartungsgemäß arbeitet und ein manuelles Eingreifen nötig wird, der Nutzer oder die Nutzerin dann aber nicht mehr weiß, in welchem Zustand sich das System befindet. Vier verschiedene Probleme im Umgang mit Automation können zu einem derartigen Verlust des Situationsbewusstseins beitragen (Endsley, Bolté & Jones, 2003): z
Mangelnde Überwachung
Defizite bei der Überwachung und Kontrolle automatisierter Systeme führen dazu, dass Informationen des Systems, die über Anzeigen oder andere Rückmeldekanäle vermittelt werden und für die Aufrechterhaltung des Situationsbewusstseins genutzt werden könnten, nicht entsprechend wahrgenommen und gewürdigt werden. Das führt zu einem Verlust des Situationsbewusstseins bereits auf unterster Ebene. Gründe dafür können zum einen in einem übersteigerten Vertrauen in die Automation und den damit verbundenen Complacency-Effekten (s. oben) liegen. Sie können zum anderen aber auch mit den bekannten allgemeinen Vigilanzproblemen bei Überwachungsaufgaben zusammenhängen (Endsley, Bolté & Jones, 2003). z
19
Veränderte Rückmeldekanäle
Bei der Nutzung automatisierter Systeme übernimmt der Mensch die Rolle des passiven Überwachers und ist damit nicht mehr aktiv in den Regelkreis der Systemsteuerung eingebunden. Damit verbunden kommt es häufig zu einer Veränderung oder sogar einem kompletten Wegfall von Rückmeldekanälen, die bei manueller Ausführung für die Aufrechterhaltung des Situationsbewusstseins von Bedeutung sind. So fehlen einem Autofahrer, der einen Tempomat für die Geschwindigkeitsre-
gelung benutzt, z. B. alle taktilen Rückmeldungen vom Andruck des Gaspedals, die normalerweise beim Versuch, die Geschwindigkeit konstant zu halten, sehr direkte Informationen über Steigungen oder Gefälle im Straßenverlauf vermitteln. Dies kann dazu führen, dass wichtige dynamische Veränderungen der Situation oder der Systemeigenschaften nicht oder deutlich später erkannt und diagnostiziert werden, als wenn die Bediener nach wie vor aktiv in die Regelungsprozesse eingebunden sind (Kessel & Wickens, 1982). z
Mangelnde Transparenz der Automation
Diese liegt vor, wenn dem Nutzer keine oder nur unzureichende Informationen zur Verfügung stehen, anhand derer nachvollzogen werden kann, was die Automation gerade macht. Ein solches Problem hat auch im Eingangsbeispiel eine Rolle gespielt. Dort wurden auf dem FMS-Display nicht alle Funkfeuer angezeigt, die für ein Nachvollziehen der vom FMS geflogenen Route und einer eindeutigen Beurteilung der gegenwärtigen Position notwendig gewesen wären. Auch dann, wenn die Nutzer um eine möglichst gute Überwachung und die Aufrechterhaltung eines angemessenen Situationsbewusstseins bemüht sind, wird es ihnen durch die unzureichende Rückmeldung des Systems und die damit einhergehende Intransparenz der Systemfunktionen unmöglich gemacht. Auch dieser Effekt führt dazu, dass das Situationsbewusstsein bereits auf unterster Ebene nicht aufgebaut wird oder nach kurzer Zeit verloren geht. z
Komplexität und mangelndes Systemverständnis
Selbst dann, wenn die Nutzer automatisierter Systeme sich um eine angemessene Überwachung bemühen und die dafür notwendigen Informationen alle verfügbar sind, kann es zu Problemen des Situationsbewusstseins kommen. Das ist immer dann der Fall, wenn die Nutzer aufgrund mangelnden Wissens oder aufgrund der Komplexität der Automation kein korrektes mentales Modell der Funktionsweise der Automation besitzen bzw. aufbauen können. Sie sind in diesem Fall nicht in der Lage, die wahrgenommenen Informationen richtig zu interpretieren und daraus Vorhersagen über die
19.4 • Probleme der Nutzung automatisierter Systeme durch den Menschen
weiteren Prozesse abzuleiten (Ebenen 2 und 3 des Situationsbewusstseins). Ein sehr einfaches Beispiel findet sich wiederum im beschriebenen Eingangsbeispiel: Hier gehen die Piloten davon aus, dass die Eingabe eines einzelnen Buchstabens (hier: »R«) als Abkürzung für ein Funkfeuer von der Automation so ergänzt wird, wie es aus ihrer Sicht und der gegenwärtigen Position sinnvoll wäre. Ihr mentales Modell der Funktionsweise der Automation (»Die Automation wird das Funkfeuer auswählen, das zu der gegenwärtigen Position am nächsten liegt«) passt nicht zu der tatsächlichen Funktionalität (»Die Automation wählt das Funkfeuer aus, das zu dem größten Flughafen in der Region gehört und damit am häufigsten bei Anflügen genutzt wird«). Andere Probleme hängen mit der Komplexität automatisierter Funktionen und der dahinter stehenden Logik zusammen, die eine Automation für den Nutzer immer weniger durchschaubar macht, oder auch damit, dass automatisierte Systeme oft in verschiedenen Modi arbeiten, bei denen identische Systemeingaben zu unterschiedlichen Konsequenzen führen. Unmittelbare Indikatoren eines damit einhergehenden Verlustes des Situationsbewusstseins sind überraschte Äußerungen der Nutzer (»Was passiert denn jetzt?«, »Ich frage mich, warum er das jetzt nicht macht«). Probleme der Aufrechterhaltung des Situationsbewusstseins aufgrund mangelnder Transparenz eines automatisierten Systems oder auch eines mangelnden Systemverständnisses lassen sich durch eine Verbesserung des Automationsdesigns, v. a. der Schnittstelle zwischen Mensch und Automation, oder auch durch ein Training der Nutzer verringern und im besten Fall sogar vermeiden. Das gilt zumindest in dem Maße, in dem die Komplexität einer Automation die kognitiven Fähigkeiten des Menschen nicht übersteigt und sie prinzipiell für ihn durchschaubar bleibt. Dagegen hängt der Verlust des Situationsbewusstseins aufgrund mangelnder Überwachung oder veränderter Rückmeldekanäle direkt damit zusammen, dass der Nutzer einer Automation von den aktiven Regelungsprozessen ausgeschlossen ist (er bleibt »out-of-the-loop«) und weitgehend passive Überwachungsfunktionen wahrnehmen muss. Entsprechend wird in der englischsprachigen Literatur
345
19
auch von einer »out-of-the-loop unfamiliarity« (OOTLUF) gesprochen (Endsley & Kiris, 1995). Diese kann sich nicht nur in dem beschriebenen Verlust des Situationsbewusstseins widerspiegeln, sondern geht oft auch mit einem Verlust manueller Fertigkeiten einher.
19.4.3
Verlust manueller Fertigkeiten
Die Automatisierung bestimmter Funktionen und die damit verbundene Veränderung der Rolle des Menschen vom aktiv Ausführenden zum passiv Beobachtenden bedeutet immer auch einen Verlust des kontinuierlichen Trainings der entsprechenden motorischen bzw. kognitiven Fertigkeiten aufseiten des Nutzers (»deskilling«). Dies kann dazu führen, dass diese Fertigkeiten nach und nach schlechter werden oder sogar ganz verloren gehen. Gleichzeitig wird aber vorausgesetzt, dass die Nutzer zu jeder Zeit in der Lage sind, die eigentlich automatisierten Funktionen im Falle von Automationsfehlern wieder selbst zu übernehmen, d. h. die dazu benötigten Fertigkeiten in vollem Umfang beherrschen. Bainbridge (1983) sieht in diesem Widerspruch eine der wichtigsten Ironien der Automatisierung. Die wenigen Arbeiten zu Auswirkungen von Automatisierung auf den Fertigkeitserhalt haben bisher allerdings nur wenig konsistente Befunde erbracht. Während manche Arbeiten zeigen, dass der Fertigkeitsverlust umso geringer ist, je stärker der Mensch in die (dann nur teil-) automatisierten Funktionen involviert bleibt (Endsley & Kiris, 1995), zeigen andere, dass ein Fertigkeitserhalt auch bei hohen Automationsstufen gewährleistet werden kann, zumindest dann, wenn sich die Nutzer jeweils aktiv darum bemühen, die automatisiert ablaufenden Prozesse mental nachzuvollziehen (Lorenz, DiNocera, Röttger & Parasuraman, 2002). Allerdings handelt es sich dabei in der Regel um laborexperimentelle Arbeiten, sodass zu langfristigen Auswirkungen von Automatisierung auf den Fertigkeitserhalt auf dieser Basis zunächst wenig ausgesagt werden kann. Relevant in diesen Zusammenhang sind Befunde zum Fertigkeitserhalt aus der psychologischen Trainingsforschung. Sie zeigen, dass ein Erhalt motorischer Fertigkeiten auch ohne Training sehr viel
346
Kapitel 19 • Systemgestaltung und Automatisierung
besser gelingt als etwa der Erhalt kognitiver (prozeduraler) Fertigkeiten (Patrick, 1992). Entsprechend kann vermutet werden, dass Fertigkeitsverluste insbesondere dann ein Risiko darstellen, wenn durch Automatisierung kognitive Funktionen vom Mensch zur Maschine verlagert werden, wie es etwa bei Systemen der Fall ist, die Entscheidungs-, Diagnose- oder Planungsprozesse unterstützen. Eine Möglichkeit, derartigen Fertigkeitsverlusten entgegenzuwirken, besteht darin, dass die automatisierten Funktionen in zeitlichen Abständen immer wieder auch manuell ausgeführt werden müssen. Dies kann im Rahmen adaptiver Systeme realisiert werden (7 Kap. 19.5.2) oder aber auch in Form von Simulatortrainings, wie sie etwa für Piloten oder Operateure von Kernkraftwerken obligatorisch sind (zu Trainingskonzepten 7 Kap. 18).
19.5
19
Konzepte einer menschzentrierten Systemgestaltung
Ein zentrales Problem bei der Gestaltung moderner Arbeitssysteme betrifft die Art der Funktions(auf) teilung (»function allocation«) zwischen Mensch und Maschine, d. h. die Frage, welche Funktionen die Maschine und welche die in einem System arbeitenden Menschen übernehmen sollen. Dazu ist es zunächst einmal notwendig, die Gesamtheit aller Aufgaben und damit verknüpften Funktionen zu beschreiben, die von einem bestimmten System erbracht werden sollen. Dies erfolgt in der Regel im Rahmen einer detaillierten Analyse und Beschreibung der verschiedenen Arbeitsaufgaben. Die dazu entwickelten methodischen Ansätze sind sehr vielfältig und reichen von theoretisch-rationalen Ansätzen der Aufgabenzerlegung bis hin zu strukturierten Beobachtungs- und Befragungsmethoden (Annett & Stanton, 2000; Vicente, 1999). Das Ziel besteht jeweils darin, eine möglichst strukturierte Beschreibung aller für die Erreichung eines Aufgabenziels notwendigen Funktionen und ihrer inhaltlichen und zeitlichen Abhängigkeiten zu bekommen. Eine Entscheidung darüber, wie diese verschiedenen Funktionen dann innerhalb des Arbeitssystems aufgeteilt werden, setzt geeignete Entscheidungskriterien voraus. Grote, Ryser, Wäf-
ler, Windischer & Weik (2000) unterscheiden dabei zwischen drei verschiedenen Gestaltungsebenen: 5 Ebene des soziotechnischen Systems, 5 Ebene der individuellen Arbeitstätigkeit sowie 5 Ebene des Mensch-Maschine-Systems. Die ersten beiden Ebenen beziehen sich auf übergeordnete Aspekte der Gestaltung soziotechnischer Arbeitssysteme und das dabei verfolgte Ziel einer möglichst ganzheitlichen und persönlichkeitsförderlichen Arbeitsgestaltung. Sie schließen alle Merkmale ein, die die Arbeitstätigkeit und Arbeitsbedingungen eines Menschen im Rahmen seines individuellen Arbeitsplatzes und der Einbindung dieses Arbeitsplatzes in den organisationalen Kontext betreffen. Wichtige Leitprinzipien für die Systemgestaltung auf diesen Ebenen lassen sich aus den allgemein akzeptierten Konzepten einer »menschengerechten« Arbeitsgestaltung ableiten, wie sie etwa von Hackman & Oldham (1980) oder Hacker (1989) formuliert wurden (s. folgende Übersicht). Die dritte Ebene bezieht sich spezifischer auf die im Rahmen der Systemgestaltung verfolgten Automatisierungsstrategien und ihre Auswirkungen auf die Qualität der Mensch-Maschine-Interaktion. Diese Ebene soll im Folgenden genauer betrachtet werden. Arbeitspsychologische Leitprinzipien für die Gestaltung von Arbeitstätigkeiten (Hacker, 1989) 5 Ganzheitlichkeit der Arbeitsaufgaben: – nicht nur ausführende, sondern auch planende, vorbereitende, kontrollierende und nachbereitende Aufgabenanteile als Bestandteil der Arbeitstätigkeit; 5 Anforderungsvielfalt der Arbeitsaufgaben: – Vermeidung von Monotonie und einer zu hohen Gleichförmigkeit der Arbeitsaufgaben; 5 Denk- und Planungserfordernisse: – Möglichkeit zu eigenen Denk- und Planungsprozessen bei der Arbeitstätigkeit; 5 Kommunikationserfordernisse: – Möglichkeiten zu sozialer Interaktion und Kooperation bei der Arbeitstätigkeit;
19.5 • Konzepte einer menschzentrierten Systemgestaltung
5 Lern- und Entwicklungsmöglichkeiten: – Möglichkeiten zur Nutzung und Erweiterung vorhandener fachlicher und überfachlicher Kompetenzen; 5 Freiheitsgrade für eigene Entscheidungen (Autonomie): – Möglichkeiten zur Beeinflussung der eigenen Arbeitsweisen und -bedingungen; 5 Transparenz und Rückmeldung: – Durchschaubarkeit der Einbettung eigener Arbeitsaufgaben in den Gesamtzusammenhang und Rückmeldung über die Qualität der eigenen Arbeit.
19.5.1
Von technikzentrierten zu menschzentrierten Automatisierungsstrategien
Entscheidungen darüber, welche Funktionen automatisiert werden und welche beim Menschen verbleiben sollen, werden häufig unter einer rein technik- bzw. kostenzentrierten Sichtweise getroffen. Danach werden alle die Funktionen automatisiert, die sich technisch gut und kostengünstig automatisieren lassen, und nur diejenigen, bei denen das nicht geht, werden dem Menschen zugeordnet. Die primären Ziele dieser Automatisierungsstrategie liegen in einer Effizienzsteigerung im Hinblick auf Zuverlässigkeit und Kosten. Überlegungen zu den Auswirkungen der Automatisierung auf Menschen als Nutzer dieser Systeme spielen dabei keine oder allenfalls eine geringe Rolle. Eine zweite Automatisierungsstrategie, die bereits früh als Alternative zu diesen rein technikzentrierten Ansätzen vorgeschlagen wurde, stellt einen Vergleich der jeweiligen Leistungsvorteile von Mensch und Maschine in den Mittelpunkt der Betrachtung (Fitts, 1951). Entsprechend dieses fähigkeitszentrierten Ansatzes sollten alle diejenigen Funktionen automatisiert werden, die sich von einer Maschine besser und effizienter ausführen lassen, und diejenigen Funktionen beim Menschen verbleiben, für die der Mensch aufgrund seiner spezifischen Fähigkeiten besser geeignet ist.
347
19
Zur Unterstützung dieser Art des Vorgehens wurden sog. MABA-MABA-Listen aufgestellt, die die jeweiligen relativen Leistungsvorteile von Mensch (»man is better at«) und Maschine (»machine is better at«) gegenüberstellen und den Designern automatisierter Systeme Hinweise für eine bestmögliche Funktionsallokation liefern sollten (Fitts, 1951). Obwohl eine derartige Betrachtungsweise zunächst plausibel erscheinen mag, weist auch sie wesentliche Schwächen auf und erweist sich bei näherer Betrachtung als zu einfach. Zum einen setzt sie voraus, dass sich eindeutig bestimmen lässt, wo die jeweiligen Leistungsvorteile liegen. War das in früheren Jahren aufgrund der begrenzten Leistungsfähigkeit der Computertechnologie noch einigermaßen gut entscheidbar, lässt sich eine derartige Grenzziehung aufgrund der rasanten technologischen Entwicklung heute kaum noch aufrechterhalten, sodass die Gefahr besteht, dass die Unterschiede zwischen einer fähigkeits- und einer technikzentrierten Perspektive zunehmend verschwinden. Noch schwerer wiegt allerdings ein zweiter Aspekt. Ähnlich wie die technikzentrierte Perspektive geht auch der fähigkeitszentrierte Ansatz davon aus, dass Mensch und Maschine im Kontext von Automatisierungsstrategien als voneinander unabhängige Einheiten betrachtet werden können. Diese Art der Betrachtung wird der Komplexität der mit einer Automatisierung verbundenen Probleme und Auswirkungen nicht gerecht. Wie die Erörterung der zentralen psychologischen Probleme bei der Nutzung einer Automation und auch das Eingangsbeispiel deutlich gemacht haben, lassen sich die Probleme bei der Nutzung automatisierter Systeme durch den Menschen gerade nicht den Stärken oder Schwächen der einzelnen Systemkomponenten zuordnen, sondern ergeben sich aus der Interaktion von Mensch und Automation und spiegeln damit ein Merkmal des Gesamtsystems wider. Angemessener erscheint es daher, im Rahmen von Überlegungen zur Funktionsallokation den Menschen und die Maschine als einander wechselseitig ergänzende Systemkomponenten zu betrachten, deren »Zusammenarbeit« und »Koordination« im Hinblick auf die Erreichung des Gesamtziels und unter Berücksichtigung der Rolle, die
348
Kapitel 19 • Systemgestaltung und Automatisierung
dem Menschen dabei zukommt, optimiert werden muss (Grote, Ryser, Wäfler, Windischer & Weik, 2000). > Bei der Funktionsaufteilung zwischen Mensch und Maschine (»function allocation«) verwendete man früher Listen mit spezifischen menschlichen Stärken (»Fitts lists«). Heute werden beide als Teil eines sich ergänzenden Systems betrachtet, das als Ganzes menschzentriert gestaltet werden sollte. z
19
Menschzentrierte Automatisierung und das Primat der Kontrollierbarkeit von Technik
Dieser Aspekt wird in Konzepten einer menschzentrierten Automatisierung (»human-centeredautomation«; Billings, 1997) berücksichtigt. Leitend für die Ableitung von Gestaltungsprinzipien wird dabei zunächst die Überlegung, dass es der Mensch ist, der beim Betrieb und der Nutzung automatisierter Systeme – unabhängig von ihrem Automationsgrad – immer auch die letztendliche Verantwortung für das Gesamtsystem, d. h. die Erreichung der Aufgabenziele und die dabei auftretenden Probleme und Folgen trägt. Damit rückt die spezifische Rolle, die dem Menschen bei Betrieb und Nutzung automatisierter Systeme zukommt und als »leitende Kontrolle« (7 Kap. 19.3, Übersicht »Die Rolle des Menschen in automatisierten Systemen«) beschrieben wurde, in den Mittelpunkt der Betrachtung. Für die Gestaltung automatisierter Systeme bedeutet das, dass die Perspektive nicht allein auf die bestmögliche Erfüllung bestimmter Teilfunktionen bei der Durchführung einer Aufgabe verengt werden kann, sondern immer auch gefragt werden muss, wie gewährleistet werden kann, dass die Technik für den Menschen überwachbar und kontrollierbar bleibt. Wichtige allgemeine Gestaltungsprinzipien, die aus diesem Primat der Kontrollierbarkeit der Technik durch den Menschen folgen, hat erstmals Billings (1997) für den Bereich der Cockpitautomation formuliert und damit ein erstes Konzept menschzentrierter Automation beschrieben. Insbesondere betont wird dabei 5 die Notwendigkeit einer aktiven Involviertheit des Menschen in die jeweiligen Prozesse, um
eine innere Abkopplung und mögliche OOTLUF-Probleme zu vermeiden, 5 die Notwendigkeit, dass der Mensch jederzeit über die Aktionen der Automation informiert ist, 5 die Verfügbarkeit von Informationen, anhand derer der Mensch die Automation überwachen und kontrollieren kann (und umgekehrt) sowie 5 die allgemeine Forderung, bei der Systemgestaltung davon auszugehen, dass Mensch und Automation zwei intelligente Agenten eines gemeinsamen Systems repräsentieren, die wechselseitig über ihre jeweiligen Absichten und Ziele informiert sein müssen. z
Automation als Teampartner
Eine wichtige Leitmetapher, die in diesem Zusammenhang oft herangezogen wird, betrachtet die Automation als einen dem Menschen zugeordneten »Teampartner« und leitet aus dieser Metapher zentrale Ziele für die Gestaltung automatisierter Systeme ab (Christoffersen & Woods, 2002). Dabei werden vor allem drei Aspekte betont: Der erste betrifft die Überlegung, dass effektive Teamarbeit nur dann gelingen kann, wenn beide Teampartner über ein gemeinsames Verständnis darüber verfügen, wie eine bestimmte Aufgabe gelöst werden kann, wie man sich dafür am besten untereinander koordiniert und über welche Stärken und Schwächen die beteiligten Teampartner im Hinblick auf die Aufgabenerfüllung verfügen. Übertragen auf die Interaktion zwischen Mensch und Automation werden zu wichtigen Leitprinzipien für eine sinnvolle Systemgestaltung damit – ähnlich wie bei Billings (1997) – die Aspekte der 5 Transparenz (wissen, warum die Automation so arbeitet, wie sie arbeitet), 5 Information (wissen, was die Automation gerade macht) sowie 5 die Notwendigkeit einer gemeinsamen Sprache (»common ground«) für die Kommunikation zwischen Mensch und Maschine. Die Betrachtung des Eingangsbeispiels macht deutlich, dass keines dieser Prinzipien im vorliegenden Fall erfüllt war und somit eine effektive Zusammenarbeit zwischen Piloten und Automation durch die
19.5 • Konzepte einer menschzentrierten Systemgestaltung
Art der Systemgestaltung nicht ausreichend unterstützt wurde. Zwei weitere Aspekte, die die Teampartner-Metapher nahelegt, betreffen direkt die Art der Funktionsallokation. Dabei geht es zum einen darum, dass es bei menschlicher Teamarbeit selten darum geht, einzelne Aufgaben ausschließlich entweder dem einen oder dem anderen Teampartner zuzuordnen, sondern es alle möglichen Varianten einer gemeinsamen Wahrnehmung von Aufgaben bzw. Funktionen gibt. Dabei bemühen sich Mitglieder effektiver operationeller Teams (z. B. Piloten in einem Cockpit) immer auch um eine wechselseitige Unterstützung und Kontrolle bei ihren Aktivitäten. In ähnlicher Weise, wie es Forschungsarbeiten zu Auswirkungen unterschiedlicher Automationsstufen im Hinblick auf den Erhalt des Situationsbewusstseins und Vermeidung von Fertigkeitsverlusten nahelegen, unterstützt die Metapher damit die Forderung, automatisierte Systeme so zu gestalten, dass der Mensch in die automatisierten Prozesse involviert bleibt und eine kognitive Abkopplung vermieden wird. Zum anderen zeichnen sich gerade sehr effektive menschliche Teams in der Regel dadurch aus, dass die Aufgabenverteilung nicht statisch festgelegt ist, sondern durch explizite und implizite Koordinationsprozesse sehr flexibel wechselnden Anforderungen angepasst werden kann. Übertragen auf die Funktionsallokation in Mensch-Maschine-Systemen legt dies nahe, auf eine statische Zuweisung von Funktionen zu verzichten und stattdessen Systeme zu konzipieren, bei denen die jeweilige Funktionsverteilung zwischen Mensch und Maschine dynamisch verändert und so den jeweiligen situativen Erfordernissen bestmöglich angepasst werden kann. Dieser Gedanke führt uns direkt zu modernen Konzepten adaptierbarer und adaptiver Automation.
19.5.2
Adaptierbare und adaptive Automation
Adaptierbare Automation Von adaptierbaren Systemen spricht man immer dann, wenn es dem Menschen überlassen bleibt zu entscheiden, ob und für welchen Zeitraum bestimmte Funktionen an eine Automation delegiert werden sollen.
349
19
Typische Beispiele dafür liefern moderne Assistenzsysteme, wie etwa der Autopilot im Flugzeug oder das Navigationssystem im Auto. Hier trifft der Nutzer jeweils eine Entscheidung darüber, ob er eine Automation in einer bestimmten Situation nutzen möchte oder nicht. Adaptive Automation Anspruchsvoller, in ihrer
Konsequenz aber auch problematischer, sind Konzepte adaptiver Automation (Scerbo, 1996). Bei diesen Ansätzen erfolgt die Funktionsallokation jeweils kontextabhängig, wobei die Kontrolle über die Funktionsverteilung primär bei der Maschine liegt. In der einfachsten Variante dieses Ansatzes werden die eigentlich automatisierten Funktionen für bestimmte Zeitintervalle immer wieder an den Menschen »zurückgegeben«, um so Vigilanzeinbußen und andere OOTLUF-Probleme bei der Überwachung automatisierter Systeme zu vermeiden (Parasuraman, Mouloua & Molloy, 1996). Allerdings ist ein solches Vorgehen natürlich noch nicht im engeren Sinne adaptiv. Das leisten erst Systeme, bei denen die Entscheidung über die Funktionsallokation in Abhängigkeit vom situativen Kontext oder dem Zustand des jeweiligen Nutzers gefällt wird. Ansätze einer situationsabhängigen Funktionsallokation delegieren bestimmte Funktionen immer dann an die Maschine, wenn die situativen Anforderungen komplexer werden und es sinnvoll erscheint, den Menschen bei der Erfüllung seiner Aufgaben zu entlasten (Scallen & Hancock, 2001). Noch komplexer und anspruchsvoller sind Systeme, bei denen die Entscheidungen über die jeweilige Funktionsallokation von der Leistung oder dem Zustand des Nutzers abhängig gemacht wird. Besonders intensiv wird dabei an Systemen gearbeitet, die auf der Basis von Verhaltensmaßen oder physiologischen Indikatoren laufend den jeweiligen Beanspruchungs- oder Müdigkeitsgrad eines Operateurs oder einer Operateurin (z. B. Pilot, Fluglotse, Autofahrer) bestimmen und in Abhängigkeit davon eine Funktionsverteilung vornehmen, um so eine Beanspruchungsoptimierung zu erreichen (Byrne & Parasuraman, 1996; Kaber & Riley, 1999). Vorteile und Probleme der adaptiven Automation Obwohl erste Laboruntersuchungen die mög-
350
Kapitel 19 • Systemgestaltung und Automatisierung
lichen Vorteile einer adaptiven Automation v. a. im Hinblick auf den Erhalt des Situationsbewusstseins sowie eine gleichmäßige Beanspruchung belegen, sind damit auch zahlreiche neue Probleme verbunden. Diese umfassen zum einen Probleme bei der praktischen Umsetzung, die sich v. a. auf die Transparenz der Systeme (wer ist gerade für eine bestimmte Funktion zuständig?) sowie die Gestaltung geeigneter Mensch-Maschine-Schnittstellen zur Unterstützung der verschiedenen Automationsmodi beziehen und von denen viele noch nicht befriedigend gelöst sind (Kaber, Riley, Tan & Endsley, 2001). Deutlich schwerer wiegt aber noch, dass bei adaptiven Systemen das Primat der Kontrollierbarkeit der Automation durch den Menschen im Grunde weitgehend aufgegeben wird. Indem die Autorität der Funktionsallokation vom Menschen an die Maschine verlagert wird, verliert der Mensch einen ganz wesentlichen Teil seiner Kontrolle über die Situation. Das bringt nicht nur vordergründige Probleme der Akzeptanz durch die Nutzer mit sich, sondern wirft auch grundsätzlich neue Fragen der Verantwortlichkeit in derartigen Mensch-Maschine-Systemen auf.
19.6
technisch Machbare oder ökonomisch Wünschenswerte beschränken dürfen. Vielmehr muss es darum gehen, bei der Systemgestaltung das Wissen und die Erkenntnisse der Human-Factors-Forschung in diesem Bereich zu berücksichtigen. Von zentraler Bedeutung dabei ist die Erkenntnis, dass Mensch und Maschine keine isolierten Einheiten darstellen, die getrennt voneinander betrachtet werden können, sondern sich eine sinnvolle Systemgestaltung immer darauf beziehen muss, die Interaktion zwischen Mensch und Automation zu optimieren. Allgemeine Leitprinzipien dafür lassen sich aus den dargestellten Konzepten einer menschzentrierten Automatisierung ableiten. Eine wichtige Zukunftsaufgabe wird darin bestehen, diese oft noch sehr abstrakt beschriebenen Prinzipien in konkrete Ansätze der Systemgestaltung umzusetzen. Das setzt u. a. voraus, dass systematische Verfahren und Methoden entwickelt werden, die den Designprozess und die damit verbundenen Entscheidungen über mögliche Gestaltungsalternativen in diesem Sinne unterstützen. Erste Anregungen und konkrete Ansätze dazu findet man bei Dearden, Harrison & Wright (2000) oder Grote, Ryser, Wäfler, Windischer & Weik (2000).
Zusammenfassung Literatur
19
Automatisierung bezeichnet den Prozess der Übernahme von Funktionen durch Maschinen; Automation bezeichnet das Ergebnis dieses Prozesses. Dabei liegt die wichtigste Aufgabe der Systemgestaltung darin zu entscheiden, wie verschiedene Funktionen und Kontrollaufgaben zwischen Mensch und Maschine verteilt werden (Funktionsund Kontrollallokation). Automatisierte Systeme bringen besondere Probleme mit sich, die die Gesamtzuverlässigkeit des Mensch-Maschine-Systems beeinträchtigen können. Dazu gehören: 5 Zu geringes oder übersteigertes Vertrauen (»complacency«), 5 Verlust von Fertigkeiten und 5 Verlust des Situationsbewusstseins. Daraus wird deutlich, dass sich Überlegungen zur Automatisierung im Rahmen der Gestaltung von Mensch-Maschine-Systemen nicht allein auf das
Aeronautica Civil of the Republic of Columbia (1996).AA965 Cali accident report.Prepared for the WWW by Peter Ladkin, University of Bielefeld, Germany.[verfügbar unter http://www.rvs.uni-bielefeld.de/publications/ Incidents/DOCS/ComAndRep/Cali/calirep.html; Zugriff am 12.06.2011] Annett, J. & Stanton, N. (Eds.) (2000).Task analysis. London: Taylor & Francis. Bahner, J. E., Hüper, A.-D. & Manzey, D. (2008). Misuse of automated decision aids: Complacency, automation bias and the impact of training experience. International Journal of Human-Computer Studies, 66, 688-699. Bainbridge, L. (1983). Ironies of automation. Automatica, 19, 775–770. Billings, C. E. (1997). Aviation automation. The search for a human-centered approach. Mahwah: Lawrence Erlbaum. Bliss, J.P. & Fallon, C.K. (2006). Active warnings: false alarms. In M.S. Wolgater (eds.), Handbook of warnings (pp. 231242). Mahwah: Lawrence Erlbaum. Breznitz, S. (1983).Cry-wolf: the psychology of false alarms. Hillsdale: Lawrence Erlbaum. Boeing Commercial Airline Group (2005). Statistical summary of commercial jet aircraft accidents: Worldwide operations
Literatur
1959–2005. [verfügbar unter: http://www.boeing. com/news/techissues/pdf/statsum.pdf; Zugriff am 22.09.2006]. Byrne, E. A. & Parasuraman, R. (1996).Psychophysiology and adaptive automation. Biological Psychology, 42, 249–268. Christoffersen, K. & Woods, D. D. (20 02).How to make automated systems team players. In E. Salas (Ed.), Advances in human performance and cognitive engineering research. Vol. 2. Automation (pp. 1–12). Burlington: Elsevier. Dearden, A., Harrison, M. & Wright, P. (2000). Allocation of function: Scenarios, context and the economics of effort. International Journal of Human-Computer Studies, 52, 289–318. Dzindolet, M. T., Peterson, S. A., Pomranky, R. A., Pierce, L. G. & Beck, H. P. (2003). The role of trust in automation reliance. International Journal of Human-Computer Studies, 58, 697–718. Endsley, M. R. (1995). Toward a theory of situation awareness in dynamic systems. Human Factors, 37, 85–104. Endsley, M. R., Bolté, B. & Jones, D. B. (2003).Designing for situation awareness. An approach to user-centered design. London: Taylor & Francis. Endsley, M. R. & Kiris, E.O. (1995).The out-of-the-loop performance problem and level of control in automation. Human Factors, 37, 381–394. Fitts, P. M. (Ed.) (1951). Human engineering for an effective air navigation and traffic-control system. Columbus, OH: Ohio State University Research Foundation. Gérard, N. & Manzey, D. (2010) Are false alarms not as bad as supposed after all? A study investigating operators’ responses to imperfect alarms.In D. de Waard, A. Axelsson. M. Berglund, B. Peters & C. Weikert (eds.), Human factors. A system view of human, technology and organisation (pp. 55-69). Maastricht: Shaker. Grote, G., Ryser, C., Wäfler, T., Windischer, A. & Weik, S. (2000). KOMPASS: A method for complementary function allocation in automated work systems. International Journal of Human-Computer Studies, 52, 267–287. Hacker, W. (1989). Vollständige vs. unvollständige Arbeitstätigkeiten. In S. Greif, H. Holling & N. Nicholson (Hrsg.), Arbeits- und Organisationspsychologie. Internationales Handbuch in Schlüsselbegriffen (S. 463–466). München: Psychologie Verlags Union. Hackman, J. R. & Oldham, G. R. (1980). Work redesign. Reading: Addison-Wesley. Hauß, Y & Timpe, K.-P. (2000). Automatisierung und Unterstützung im Mensch-Maschine-System. In K.-P. Timpe, T. Jürgensohn & H. Kolrep (Hrsg.), Mensch-MaschineSystemtechnik. Konzepte, Modellierung, Gestaltung, Evaluation (S. 41–62). Düsseldorf: Symposion. Kaber, D. B. & Riley, J. M. (1999). Adaptive automation of a dynamic control task based on secondary-task workload measurement. International Journal of Cognitive Ergonomics, 3, 169–187. Kaber, D. B., Riley, J. M., Tan, K.-W. & Endsley, M. R. (2001). On the design of adaptive automation for complex
351
19
systems. International Journal of Cognitive Ergonomics, 5, 37–57. Kessel, C. J. & Wickens, C. D. (1982).The transfer of failuredetection skills between monitoring and controlling dynamic sytems. Human Factors, 24, 49–60. Lee, J. D. & See, K. A. (2004). Trust in automation: Designing for appropriate reliance. Human Factors, 46, 50–80. Lorenz, B., Di Nocera, F., Röttger, S. & Parasuraman, R. (2002). Automated fault-management in a simulated spaceflight micro-world. Aviation, Space, and Environmental Medicine, 73, 886–897. Madhavan, P., Diegmann, D. A. & Lacson, F. C. (2006). Automation failures on tasks easily performed by operators undermine trust in automated aids. Human Factors, 48, 241–256. Manzey, D. & Bahner, J. E. (2005). Vertrauen in Automation als Aspekt der Verlässlichkeit von Mensch-Maschine-Systemen. In K. Karrer, B. Gauss & C. Steffens (Hrsg.), Beiträge zur Mensch-Maschine-Systemtechnik aus Forschung und Praxis. Festschrift für Klaus-Peter Timpe (S. 93–109). Düssledorf: Symposion. Meyer, J. (2004). Conceptual issues in the study of hazard warnings. Human Factors, 46, 196-204. Moray, N. & Inagaki, T. (2000). Attention and complacency. Theoretical Issues of Ergonomics Science, 1, 354–365. Mosier, K. L. & Skitka, L. J. (1996). Human decision-makers and automated decision aids: made for each other? In R. Parasuraman & M. Mouloua (Eds.), Automation and human performance: Theory and applications (pp. 201–220). Mawah: Lawrence Erlbaum. Parasuraman, R. & Manzey, D. (2010). Complacency and bias in human use of automation: A review and attentional synthesis. Human Factors, 52, 381-410. Parasuraman, R., Molloy, R. & Singh, I. L. (1993). Performance consequences of automation induced »complacency«. The International Journal of Aviation Psychology, 2, 1–23. Parasuraman, R., Mouloua, M. & Molloy, R. (1996). Effects of adaptive task allocation on monitoring of automated systems. Human Factors, 38, 665–679. Parasuraman, R. & Riley, V. (1997). Humans and automation: Use, misuse, disuse, abuse. Human Factors, 39, 230–253. Parasuraman, R., Sheridan, T. B. & Wickens, C. D. (2000).A model for types and levels of human interaction with automation. IEEE Transactions on Systems Man and Cybernetics – Part A: Systems and Humans, 30, 286–297. Patrick, J. (1992). Training. Research and practice. London: Academic Press. Reichenbach, J., Onnasch, L. & Manzey (2010). Misuse of automation: The impact of system experience on complacency and automation bias in interaction with automated aids. Proceedings of the HFES 54th Annual Meeting (pp. 374-378). Santa Monica: Human Factors and Ergonomics Society. Scallen, S. F. & Hancock, P. A. (2001).Implementing adaptive functional allocation. The International Journal of Aviation Psychology, 11, 197–221.
352
Kapitel 19 • Systemgestaltung und Automatisierung
Scerbo, M. W. (1996). Theoretical perspectives on adaptive automation. In R. Parasuraman & M. Mouloua (Eds.), Automation and human performance: Theory and applications (pp. 37–63). Mawah: Lawrence Erlbaum. Sheridan, T. B. (1997). Supervisory control. In G. Salvendy (Ed.), Handbook of human factors (pp. 1295–1327). New York: Wiley. Singh, I. L., Molloy, R. & Parasuraman, R. (1993). Automation-induced »complacency«: Development of the complacency rating scale. The International Journal of Aviation Psychology, 3, 111–122.Sorkin, R.D., Kantowitz, B.H. & Kantowitz, S.C. (1988). Likelihood alarm displays. Human Factors, 30, 445-459. Vicente, K. (1999). Cognitive work analysis. Mahwah: Lawrence Erlbaum. Wiczorek, R. &Manzey, D. (2011).Evaluating likelihood alarm systems as an alternative to binary alarm systems. In D. de Waard, N. Gérard, L. Onnasch, R. Wiczorek, and D. Manzey (Eds.) (2011). Human Centred Automation. Maastricht, the Netherlands: Shaker Publishing. (in press).
19
353
Autorenportraits
P. Badke-Schaub et al., Human Factors, DOI 10.1007/978-3-642-19886-1, © Springer-Verlag Berlin Heidelberg 2012
354
Autorenportraits
z Herausgeberinnen Badke-Schaub, Petra, Prof. Dr.
Professor of Design Theory and Methodology. Studium Dipl.-Psychologie, Forschungsmitarbeiterin in der Max-Planck-Projektgruppe »Kognitive Anthropologie«, Berlin, 1992 Promotion am Lehrstuhl für Allgemeine Psychologie und Methodenlehre an der Universität Bamberg, Promotionsschrift »Gruppen und komplexe Probleme«, Projektleitung in Forschungskooperationsprojekten mit TU Darmstadt, Hochschulassistentin am Institut für Theoretische Psychologie der Universität Bamberg. Seit 2004 Inhaberin des Lehrstuhls Design Theory and Methodology an der TU Delft. Interessensschwerpunkte: Denk- und Handlungsprozesse in komplexen Realitätsbereichen, insbesondere im Bereich der Produktentwicklung; Erkennen und Bewältigen kritischer Situationen; Analyse von Teamprozessen, z. B. hinsichtlich der Entwicklung gemeinsamer Modelle in Teams; Analyse und Unterstützung von Designprozessen. Kontakt Faculty of Industrial Design Engineering, Dept. Product Innovation Management, Landbergstraat 15, TU Delft, 2628 CE Delft, The Netherlands, Tel.: +31-15-2781403, E-Mail:
[email protected] Hofinger, Gesine, Dr.
Dipl.-Psychologin, Wissenschaftlerin und Beraterin. 2000 Promotion an der Universität Bamberg, 2002–2003 Fellow am Wissenschaftskolleg zu Berlin, 2003–2004 Vertretungsprofessur Allgemeine und Angewandte Psychologie an der Universität Regensburg, 2008–2011 Projektleitung an der Universität Jena, 2011 Vertretungsprofessur Arbeits- und Organisationspsychologie an der TU Dortmund. Forschungsprojekte u.a. zu Komplexitätsmanagement, Großschadenslagen, Fluchtwegen. Beteiligung an der Forschung zur zivilen Sicherheit des BMBF in mehreren Projekten. Seit 1999 erste Vorsitzende der »Plattform Menschen in komplexen Arbeitswelten« e. V. Seit 2011 Mitglied der Schutzkommission beim Bundesministerium des Innern. Leiterin des Forschungs- und Beratungsbüros Team HF. Schwerpunkte: Human Factors, Sicherheit und Fehlermanagement, Handeln in Krisensituationen, Kommunikation und Teamentwicklung beim Umgang mit komplexen technischen Systemen, Stabsarbeit. Kontakt Team HF, Hohenheimerstr. 104, D-71686 Remseck, Tel.: 07146287393, E-Mail:
[email protected] Lauche, Kristina, Prof. Dr.
Professorin für Organizational Development and Design an der Nijmegen School of Management, Radboud University Nijmegen. Nach Studium der Psychologie und Linguistik in Kiel, Dublin und Berlin wissenschaftliche Mitarbeiterin an der Universität München und ETH Zürich. 2001 Promotion zu Arbeitsbedingungen von Produktentwicklern. 2001–2005 Lecturer an der University of Aberdeen, 2005–2010 Associate Professor im Bereich Produktinnovationsmanagement an der TU Delft. Hauptforschungsgebiete: organisationsübergreifende Koordination, Innovationspraktiken und Technologie in Organisationen, Sicherheitsmanagement in der Öl- und Gasindustrie. Kontakt Nijmegen School of Management, Radboud University Nijmegen, 6500 HK Nijmegen, The Netherlands, Tel +31 24 361 17 36 E-Mail:
[email protected]
Autorenportraits
z Autorinnen und Autoren Bresinsky, Markus, Prof. Dr.
Politikwissenschaftler, seit 1997 als Berater in sicherheitspolitischen Fragestellungen, wissenschaftliche Arbeit als assoziierter Forscher am Wissenschaftszentrum Berlin. 2003–2010 Mitarbeiter im Human-Factors-Team der Industrieanlagen Betriebsgesellschaft mbH. Seit 2010 Professor für Internationale Politik und Sozialwissenschaft an der Hochschule Regensburg. Kontakt Labertalstraße 9, 93152 Nittendorf, E-Mail:
[email protected]
Buerschaper, Cornelius†
Dipl.-Psychologe, verstorben 2011. Er arbeitete bis zu einer schweren Erkrankung als Organisationsberater und Trainer. Arbeitsschwerpunkte: strategisches Denken in komplexen Handlungszusammenhängen, Stabsarbeit, Krisen- und Notfallmanagement, Fehlerforschung und Fehlermanagement u. a. in der Medizin, Einsatz von E-Learning und computersimulierten Szenarien in der Personalentwicklung und Potenzialbeurteilung, Teamentwicklung und Teamtrainings. Kontakt c/o Gesine Hofinger (s.o.)
Detje, Frank, Dr.
Promovierter Psychologe, bis 2003 als wissenschaftlicher Angestellter am Institut für Theoretische Psychologie (Prof. Dr. Dietrich Dörner) der Universität Bamberg, seit 2004 im Human-Factors-Team der IABG im Geschäftsbereich Verteidigung und Sicherheit. Inhaltliche Schwerpunkte: Human Factors, menschliche Handlungsorganisation (Handeln als komplexes Problemlösen), kognitive Modellierung, Vernetzte Operationsführung (NetOpFü) und Begleitung von CD&E-Vorhaben (Experimentmethoden und Human-FactorsAnalysen). Kontakt IABG mbH, Defence and Security, Competence Center »Systemic Analysis and Human Factors« (CC70), Einsteinstr. 20, 85521 Ottobrunn; E-Mail:
[email protected] Dieckmann, Peter, Dr.
1999 Diplom in Psychologie, 2003 Promotion mit einer Arbeit zum Einsatz von Simulatoren in Aus-, Fort- und Weiterbildung in der Anästhesie. Themenschwerpunkte: Simulation, Sicherheit, Fehler, Lernen, Train-the-Trainer und kreative Lehr-/Lernmethoden Methoden (Psychodrama). »Head of Research« im Danish Institute for Medical Simulation (DIMS) in Herlev, Dänemark. Aktuell Präsident der Society in Europe for Simulation Applied to Medicine (SESAM). Kontakt Danish Institute for Medical Simulation, Herlev Hospital, Herlev Ringvej 75, 2730 Herlev, Denmark, E-Mail:
[email protected]
355
356
Autorenportraits
Dörner, Dietrich, Prof. Dr.
Professor (em.) am Institut für Theoretische Psychologie der Universität Bamberg. Forschungstätigkeit im Bereich »Handeln in komplexen Realitäten« und im Bereich »Theoretische Psychologie«. Hier v. a. zahlreiche Versuche der Theoriebildung durch Computersimulation psychischer Prozesse als Ansatz, »Seele« zu verstehen. Getreu der Feynman‘schen Forderung »What I cannot create I do not understand« wird versucht, Denken, Gedächtnisprozesse, Gefühle und Bewusstsein als Prozesse der Informationsverarbeitung in neuronalen Netzen zu verstehen. Kontakt Otto-Friedrich-Universität Bamberg, Institut für Theoretische Psychologie, Markusplatz 3, 96047 Bamberg, Tel.: 0951-8631861, E-Mail:
[email protected] Fahlbruch, Babette, Dr.
Sachverständige und Fachkoordinatorin für MTO (Mensch‒Technik‒Organisation) bei der TÜV NORD SysTec GmbH & Co.KG, Competence Center Sicherheitskonzepte. Arbeitsschwerpunkte: Systemsicherheit, Sicherheitsmanagement und Sicherheitskultur. 1994 Dipl.-Psychologin (TU Berlin) und 1999 Dr. phil. (TU Berlin), 1994–2006 wissenschaftliche Mitarbeiterin und wissenschaftliche Assistentin an der TU Berlin, Institut für Psychologie und Arbeitswissenschaft. Kontakt TÜV NORD SysTec GmbH & Co.KG, Große Bahnstr. 31, 22525 Hamburg, E-Mail:
[email protected] Grote, Gudela, Prof. Dr.
Ordentliche Professorin für Arbeits- und Organisationspsychologie an der ETH Zürich. Studium der Psychologie an der Universität Marburg und der TU Berlin, 1987 Promotion am Georgia Institute of Technology, Atlanta, USA. Kernthema ihrer Forschungstätigkeit: zunehmende Virtualisierung und Flexibilisierung von Arbeit und deren Konsequenzen für das individuelle und organisationale Management von Unsicherheit. Kontakt ETH Zürich, Kreuzplatz 5, 8032 Zürich, Schweiz, E-Mail:
[email protected] Hacker, Winfrid, Prof. Dr. Dr. h.c.
Studium der Psychologie an der Technischen Hochschule Dresden, externes Studium der Pädagogik an der Pädagogischen Hochschule Dresden. Danach Tätigkeiten in der Wirtschaft als Leiter einer Abteilung für Arbeitspsychologie/-hygiene, eine Professur für Arbeits- und Organisationspsychologie, Allgemeine Psychologie am Fachbereich Psychologie der Technischen Universität Dresden, eine Vertretungsprofessur für Arbeits- und Organisationspsychologie an der Universität Gießen sowie die kommissarische Leitung des Instituts für Psychologie der Technischen Universität München. Zurzeit Leitung der Arbeitsgruppe »Wissen–Denken–Handeln« des Fachbereichs Psychologie der TU Dresden. 2003 Auszeichnung mit dem Outstanding Contribution Prize der European Association of Work and Organizational Psychology, 2005 mit der Ehrendoktorwürde (Dr. h.c.) der Universität Bern. Interessen: Grenzgebiet Arbeits-/Organisations- und Allgemeine Psychologie. Kontakt TU Dresden, Fachrichtung Psychologie, Arbeitsgruppe »Wissen–Denken–Handeln«, 01062 Dresden, E-Mail:
[email protected]
Autorenportraits
Horn, Günter, Dr.
Dr.-Ing. Maschinenbau/Verfahrenstechnik, seit 2004 freier Ingenieur mit dem Beratungsschwerpunkt Instandhaltung, in den Bereichen Prozessindustrie, Entsorgungswirtschaft, Schmiede, Stadtwerke. 1987–2000 in verschiedenen Positionen bei der Hoechst AG tätig. 1996–2000 Notfallmanager im Stammwerk Höchst, u. a. mit dem Aufbau des Lagezentrums betraut. 2000–2004 als Projekt- und Betriebsleiter bei den Hoechster Nachfolgeorganisationen Clariant und Celanese in Deutschland und Schweden tätig. Gründungs- und Vorstandsmitglied des Vereins »Menschen in komplexen Arbeitsumwelten« e. V. Autor verschiedener technischer Fachaufsätze, diverse Publikationen schwerpunktmäßig in den Bereichen Sicherheitsfaktor Mensch und Notfallmanagement. Kontakt Ingenieurbüro Dr. Horn, Textorstr. 55, 60594 Frankfurt, Tel.: 017623133346, E-Mail:
[email protected] Martin Littschwager
Bis 30.06.2010 Berufsoffizier bei der Luftwaffe, Teilbereich Luftverteidigung, davon 5 Jahre als Ausbilder an der Waffenschule in Texas, USA. Verwendungen bis hin zum Kommandeur in Verbänden. Seit 2001 in Köln im Luftwaffenamt und seit 2004 Beauftragter für den Bereich »Konzeptentwicklung und deren experimentelle Überprüfung« im Rahmen der Transformation der Streitkräfte mit Schwerpunkt »Human Factors«. Kontakt Postweg 12, 53773 Hennef, Tel.: 02242-9336939, E-Mail:
[email protected]
Manser, Tanja, Prof. Dr.
Seit 2010 SNF-Förderprofessorin und Leitung der Forschungsgruppe »Industrial Psychology und Human Factors« am Departement für Psychologie der Universität Fribourg. 1992–1998 Studium der Psychologie an der Universität Freiburg, i. Br., 1998–2003 wissenschaftliche Assistentin am Institut für Arbeitspsychologie der ETH Zürich (2002 Promotion in Psychologie an der Universität Zürich), 2003–2005 Post-Doc am Patient Safety Center of Innovation, VA Palo Alto HCS/Stanford University, 2005–2009 Oberassistentin am Zentrum für Organisations- und Arbeitswissenschaften, ETH Zürich (2008 Habilitation in Psychologie an der ETH Zürich), 2009–2010 Marie-Curie-Forschungsstipendiatin am Industrial Psychology Research Center der University of Aberdeen. Arbeitsschwerpunkte und Forschungsinteressen: Sicherheit in komplexen Arbeitssystemen, Teamarbeit, simulationsbasiertes Training, Makroergonomie, sozio-technische Systemgestaltung. Kontakt Université de Fribourg, Département de Psychologie, Rue P.-A. de Faucigny 2, 1700 Friborug, Schweiz, E-Mail:
[email protected]
357
358
Autorenportraits
Manzey, Dietrich, Prof. Dr.
Professor für Arbeits-, Ingenieur- und Organisationspsychologie an der Technischen Universität Berlin. 1976–1982 Studium der Psychologie an der Universität Kiel, 1988 Promotion zum Dr. phil. an der Universität Kiel, 1999 Habilitation an der Universität Marburg. 1987–2001 wissenschaftlicher Mitarbeiter beim Deutschen Zentrum für Luft- und Raumfahrt, Hamburg. 2001–2003 Professor für Arbeits- und Ingenieurpsychologie an der FH Nordostniedersachsen in Lüneburg. Seit 2003 Professor an der TU Berlin. Arbeitsschwerpunkte und Forschungsinteressen: Mensch-Maschine-Interaktion, Automation in der Medizin, Luft- und Raumfahrtpsychologie, Systemsicherheit in Organisationen mit hohem Gefährdungspotenzial. Kontakt TU Berlin, Institut für Psychologie und Arbeitswissenschaft, FG Arbeits-, Ingenieur- und Organisationspsychologie, Marchstr. 12, Sekr. F7, 10587 Berlin, E-Mail:
[email protected] Marold, Juliane (geb. Domeinski)
Dipl.-Psychologin (1998–2000 Studium an der Leopold-Franzens-Universität Innsbruck/Österreich und 2000–2004 Studium an der Technischen Universität Berlin) und derzeit wissenschaftliche Mitarbeiterin im Fachgebiet Arbeits-, Ingenieur- und Organisationspsychologie an der TU Berlin. Arbeitsschwerpunkte und Forschungsinteressen: soziale Kognition, geteiltes und verteiltes Wissen, Organizational behaviour, Sicherheitsforschung Kontakt Technische Universität Berlin, Institut für Psychologie und Arbeitswissenschaft, Fachgebiet für Arbeits-, Ingenieur- und Organisationspsychologie, Marchstr. 12, Sekr. F7, 10587 Berlin, Tel.: 030-314-26885, E-Mail:
[email protected] Rall, Marcus, Dr.
Seit 1995 Anästhesist und Notarzt an der Universitätsklinik Tübingen, seit 1999 Leiter des von ihm initiierten Patientensicherheits- und Simulationszentrums TüPASS. Schwerpunkte: Optimierung der Patientensicherheit durch innovative Ausbildungskonzepte (Simulatortraining mit Videodebriefing) und Crisis Resource Management (CRM) inklusive internationaler Instruktorenkurse für CRM-basierte Simulationstrainer. Seit 2002 Aufbau und Betrieb der beiden bundesweiten Incident-Reporting-Systeme (http://www.pasis.de und http:// www.pasos-ains.de). Co-Chair IMSH 2008, Subcommittee Patient Safety der ESA, Course Director ESA European Patient Safety Course. Editorial Board Simulation in Healthcare. Kontakt Tübinger Patienten-Sicherheits- und Simulationszentrum (TüPASS), Universitätsklinik für Anästhesiologie und Intensivmedizin Universitätsklinikum Tübingen, Silcherstr. 7, 72076 Tübingen, Tel.: 07071-29 8 6733, Fax: 07071-294943, E-Mail:
[email protected], Web: http://www.tupass.de, http://www.pasis.de, http://www.pasos-ains.de
Autorenportraits
Schaub, Harald, Prof. Dr.
Studium der Biologie, Informatik und Psychologie. Leiter der Abteilung Systemic Analysis and Human Factors bei der Industrieanlagenbetriebsgesellschaft (IABG), Ottobrunn und apl. Professor für Psychologie und Methodenlehre an der Otto-Friedrich-Universität Bamberg. Arbeitsschwerpunkte: Analyse und Training des Planens, Entscheidens und Handelns von Menschen in komplexen, kritischen und risikoreichen Situationen; Organisations-, Prozess- und Aufgabenanalyse; Analyse und Modellierung soziotechnischer Systeme und des menschlichen Verhaltens. Kontakt IABG mbH Defence and Security, Einsteinstr. 20, 85521 Ottobrunn, Tel.: 089-6088-3178, E-Mail:
[email protected] Schöbel, Markus, Dr.
Dozentur für Organisationspsychologie am Fachgebiet Economic Psychology an der Universität Basel. 1998 Dipl.-Psychologe und 2005 Dr. phil. (TU Berlin), 1998–2004 wissenschaftlicher Mitarbeiter an der TU Berlin, seit 2005 Beratungstätigkeit bei der MTO Mensch–Technik–Organisation GmbH & Co. Consulting KG, 2006–2011 wissenschaftlicher Assistent an der TU Berlin in Forschung und Lehre. Arbeitsschwerpunkte und Forschungsinteressen: betriebliches Sicherheitsmanagement und Sicherheitskultur, Vertrauen und verteilte Entscheidungsprozesse in Organisationen mit hohem Gefährdungspotenzial. Kontakt Universität Basel, Fakultät für Psychologie, Abteilung Economic Psychology, Missionsstrasse 62a, 4055 Basel, Schweiz, E-Mail:
[email protected] Strohschneider, Stefan, Prof. Dr.
1985 Diplom in Psychologie an der Otto-Friedrich-Universität Bamberg, 1989 Promotion an der Universität Bamberg, 2000 Habilitation. 1985–1989 wissenschaftlicher Mitarbeiter im DFG-Projekt »Systemdenken« an der Universität Bamberg, 1990–1991 wissenschaftlicher Mitarbeiter der Max-Planck-Projektgruppe »Kognitive Anthropologie« in Berlin, 1992–2005 wissenschaftlicher Angestellter am Institut für Theoretische Psychologie der Universität Bamberg. Seit Oktober 2005 Vertretung der Professur für Interkulturelle Kommunikation an der Friedrich-Schiller-Universität Jena, Ernennung im März 2007. Forschungsschwerpunkte in den Bereichen Kommunikation und Entscheiden in kritischen Situationen, Trainingskonzepte für heterogene Teams, kulturvergleichende Problemlöseforschung. Forschungsprojekte in der Sicherheitsforschung und im Bereich Seefahrt. Kontakt Professur für Interkulturelle Kommunikation, Fachgebiet Interkulturelle Wirtschaftskommunikation, Friedrich-Schiller-Universität Jena, Ernst-Abbe-Platz 8, 07743 Jena, Tel.: 03641-944-376, Sekr.: 03641-944-370, Fax: 03641-944-372, Web: http://www.iwk-jena.de
359
360
Autorenportraits
Thieme, Uwe, PD
Polizeidirektor. 1998–2007 Leiter des Ständigen Stabes beim PP Dortmund und in dieser Funktion bei ca. 180 Einsätzen (Geiselnahmen, Entführungen, Erpressungen, Demonstrationen, Fußball-WM u. a.) Leiter des Führungsstabes oder Polizeiführer. Von Juni 2007 bis August 2010 Leiter des Leitungsstabes beim Polizeipräsidenten Dortmund und einer der bestimmten Polizeiführer. Kontakt Landesamt für Ausbildung, Fortbildung und Personalangelegenheiten der Polizei NRW, Im Sundern 1, 59379 Selm, E-Mail: Uwe.Thieme@ polizei.nrw.de Von der Weth, Rüdiger, Prof. Dr.
Professor für Betriebswirtschaftslehre/Arbeitswissenschaft und Personalwirtschaft. 1985 Dipl.-Psychologe (TU Berlin), 1990 Promotion an der Universität Bamberg, seit 1995 Tätigkeit als Managementtrainer, 1999 Habilitation an der TU Dresden, 2000–2003 Professur für Angewandte Psychologie an der HfT Stuttgart, seit 2003 Professor für Betriebswirtschaftslehre/Arbeitswissenschaft und Personalwirtschaft an der HTW Dresden. Interessenschwerpunkte: Komplexitätsmanagement, integrierte Veränderungsstrategien bei technischen Innovationen, Arbeitsgestaltung und Wissensmanagement, Sicherheit in komplexen Arbeitssystemen. Kontakt Arbeitswissenschaft und Personalwirtschaft, Fachbereich Wirtschaftswissenschaft, HTW Dresden, Friedrich-List-Platz 1, 01069 Dresden, E-Mail:
[email protected] Wiedemann, Rolf, Cpt.
Flug- und Ausbildungskapitän B747-400. Ausbildung zum Flugzeugführer, Mitglied und zeitweise Leiter der Arbeitsgruppe Flugsicherheit der Vereinigung Cockpit e. V., Weiterbildung im Bereich Human Perfomance und Limitations, Aviation Safety Certificate der University of Southern California. Schwerpunkte: Ausbildung, Human Factors, Unfalluntersuchung. Kontakt Goethestr. 10, 65719 Hofheim, E-Mail:
[email protected]
361
Stichwortverzeichnis
P. Badke-Schaub et al., Human Factors, DOI 10.1007/978-3-642-19886-1, © Springer-Verlag Berlin Heidelberg 2012
362
Stichwortverzeichnis
4 Seiten einer Nachricht 145
A Achtsamkeit 26 Activation-Trigger-Theorie 50 adaptierbare Automation 349 adaptive Automation 349 adaptive Führung 200 Ad-hoc-Einsatz 277 Affiliation 107, 129 affirmative Informationssammlung 110 aktiver Fehler 43 Ambiguitätsreduktion 212 Anforderung 315 Anforderungsprofil 230 Anker- und Anpassungsheuristik 77 Arbeits- und Organisationspsychologie 10 Arbeitsebene 172 Arbeitsgestaltung 9, 346 Arbeitssicherheit 191 Arbeitswissenschaft 9 Arbeitszeitmodell 232 assertiveness 159 ASSET 29 Attributionsfehler 46 Aufgabe 125 Aufgabenangemessenheit 216 Aufmerksamkeit 68 – Cocktailparty-Phänomen 71 – Selektion 70 Ausführungsprogramm 301 Ausführungsregel 302 Auswahl geeigneter Bewerber 230 Automation 336 – adaptierbare 349 – adaptive 349 – automation complacency 341 – deskilling 345 – ironies of automation 338 – leitende Kontrolle 348 – mangelndes Vertrauen 340 – menschzentrierte 348 – Primat der Kontrollierbarkeit der Technik 348 – übersteigertes Vertrauen in 341 – Verlust manueller Fertigkeit 345 – Widersprüchlichkeiten der Automatisierung 338 automation complacency 341 Automatisierung 239, 248, 335
Automatisierungsstrategie 347 Autonomie und Kontrolle 216
B Barriere 182 Basisratenvernachlässigung 77 Bedeutung 145 Behandlungsfehler 238 Beinahe-Ereignis 29, 251 Belastbarkeit 216 Bestimmtheit 105 Bewerberauswahl 230 bewusste Übertretung 250 Bottom-up-Prozess 67
C centres of coordination 212 Chapanis 6, 48 Checkliste 303 Cocktailparty-Phänom 71 cognitive walk-through 17 Company Resource Management 324 complacency 308 computerunterstützte Kooperation 206 computerunterstützte Zusammenarbeit 216 confirmation bias 77, 284 Crew Resource Management 222, 324 culture of blame 239
D debriefing 320 Debriefing 159 defence in depth 24 Defence in Depth 181 Definition 4, 40, 103, 124 Denken 87 deskilling 345 didaktisches Element 319 Dörner 55, 56, 71, 91, 103 Drift-to-danger-Modell 35 Drill 322 dynamisches Nicht-Ereignis 23 dysfunktionale Interaktion 154
E Einführung 302 Eingriffsverwechslung 6 Einsatz – ad hoc 277 – planbarer 277 Emotion 103 – Definition 103 Emotionsansteckung 281 Endsley 72 enge Kopplung 25, 248 Entscheiden 94 Ereignisanalyse 29 Ergonomie 9 Erschöpfung 228 Erwartung-mal-Wert-Modell 95 escalation of commitment 134 Evaluation 328 Experte 98 Exploration 107
F fail safe 24 Failure Mode and Effects Analysis 58 Failure-Mode-and-Effects-Analyse 243 Fallstudie 319 fatigue 228 Fehler 6, 40, 47, 92 – aktiver Fehler 43 – als Lerngelegenheit 47 – Definition 40 – Eingriffsverwechslung 6 – latente Bedingung 44 – Personansatz 43 – systemischee Ansatz 43 – Ursache 42 Fehleranalyse – synthetisierende 243 Fehlerart 48 Fehlerforschung 41 Fehlerfreundlichkeit 57, 239 Fehlerkette 45 Fehlerprävention 286 fehlerträchtige Situation 241 Fehlleistung 238, 241 Fertigkeit – nichttechnische 317 – organisatorisch-strategische 317 – technische 316 Fitts’ Liste 347
363
Stichwortverzeichnis
Flexibilität 307 flexible Kultur 179 Forschungsmethode 15 – cognitive walk-through 17 – Fragebogen 16 – Interview 15 – mock-up 17 – Organisationsanalyse 16 – root cause analysis 16 – Simulation 16 – Unfallanalyse 16 – Verhaltensbeobachtung 15 – Wirkungsabschätzung 17 Fortbildung 288 Fragebogen 16 frequency gambling 231 Friktion 47 Führung 190, 279 – operative 191 – strategische 191, 279 – taktische 279 Führungskräftetraining 254 Führungsstab – Moderation von Führungsstäben 285 function allocation 346 Funktion 147 Funktionsverteilung Mensch Maschine 335, 346 Funktionszuweisung Mensch-Maschine 216
G Gebrauchstauglichkeit 237 Gefährdungspotenzial 23 Gegenstand der Arbeit 214 gemeinsames mentales Modell 149, 282 Gerechtigkeitskultur 179 Gestaltungsempfehlung 195 Gestaltungsprinzipien 5 geteiltes Situationsbewusstsein 74 Gigerenzer 97 Globalisierung 207 Grenzregulation 215 groupthink 134, 278 Gruppe 124 – als informationsverarbeitendes System 124 – Definition 124 Gruppendenken 134 Gruppenentwicklung 128 Gruppenkohäsion 128
H Hacker 51 Handlung 87 Handlungskompetenz 215 Handlungsmodell nach Dörner 107 Handlungsspielraum 300, 307 Handlungsstil 305 Handlungsstrategie 305 Handlungsverschränkung 216 Harmonisierung 225, 305 Hawthorne-Studie 12 heedful interrelating 216 heedfulness 26 HERA-JANUS 29 Heuristik 97 HFIT 252 HF-Training 319 – debriefing 320 – didaktisches Element 319 – Fallstudie 319 – Planspiel 319 – Simulation 320 high reliability organization 177 high reliability theory 26 hindsight bias 46 hochkontextualisierte Kultur 317 Hollnagel 182 HPES 29 Human Error Identification in Systems Tool 58 Human Factor 4 – Definition 4 human reliability analysis 29 Human-Factors-Analyse 6 Human-Relation 12 hypothesengeleitete Wahrnehmung 71
I illusorische Korrelation 77 Incident Reporting 243 Incident-Reporting-System 241 Informations- und Kommunikationstechnologie 207 Informationsabwehr 110 Informationsaufnahme 231 Informationsdichte 155 Informationsselektion 135, 154 Informationsüberflutung 208 informationsverarbeitendes System 124 informed culture 34 Ingenieurpsychologie 10
A–L
Instandhaltungsarbeit 253 Integrierte Leitstelle 214 International Civil Aviation Organisation 229 Intervention 318 Interview 15 Ironien der Automatisierung 5 ironies of automation 5, 338 Irrtum 41 ISO 13407 5 ISO 6385 5
J Janis 134 just culture 35
K Käsescheibenmodell 44 kognitive Ergonomie 13 Kommunikation 127, 143, 285 – 4 Seiten einer Nachricht 145 – Funktion von 147 – im Stab 285 – nachrichtentechnisches Modell der 144 – Störung 151 Kommunikation im Stab 285 Kommunikationssystem 170 Kompetenz 105, 129 komplexes Problem 89 komplexes Problemlösen 271 komplexes System 297 – Anforderungen von 315 Komplexität 89, 297 Komplexitätsreduktion 281, 298 kontextarme Kultur 317 Koordination 127 Krisenmanagement 254 Krisenstabstraining 325 kultureller Kontext 317 – hochkontextualisierte Kultur 317 – kontextarme Kultur 317
L Lasswell-Formel 144 latente Bedingung 44 latenter Fehler 238 latenter Versagensfaktor 251 leading indicator 251
364
Stichwortverzeichnis
leitende Kontrolle 338, 348 Lernertyp 320 Lerngelegenheit 47 Lernkultur 179 listening in 212 lose Kopplung 25, 194, 308
M MABA-MABA-Liste 347 Management von Unsicherheit 193 mangelndes Vertrauen 340 man-made disaster 24 Mayo 12 Meister 49 menschzentrierte Automatisierung 348 mentales Modell 130, 149, 227, 344 Methode 15 minimales Ereignis 47 mock-up 17 Moderation 285 MORT 29 Münsterberg 12
P Patientensicherheit 240 Perrow 25 Personansatz 43 planbarer Einsatz 277 Planen 86 Planentscheidung 286 Planspiel 319 Präsenz 210 Primat der Kontrollierbarkeit der Technik 348 Prinzip des beschränkten Versagens 24 Prinzip des tief gestaffelten Sicherheitssystems 24 probabilistisches Unfallrisiko 222 Problemlösetraining 326 Procedure-Fix 231 prospektive Simulation 243 prozedurale Regel 301 Prozesssicherheit 191 psychische Entfernung 210 Psychotechnik 12
Q quick fix 237
N nachrichtentechnisches Modell der Kommunikation 144 Naturalistic Decision Making 15 natürliches Entscheiden 97 Nichtlinearität 298 nichttechnische Fertigkeit 242, 317 no-blame culture 35 non-technical skill 242, 317, 325 nonverbale Kommunikation 146 normal accident 25 normale Unfälle, Theorie der 251 Norman 50 normative Führung 195
O operative Führung 191, 198 Organisation 167 organisationale Veränderung 200 Organisationsanalyse 16 organisationsübergreifende Zusammenarbeit 213 organisatorisch-strategische Fähigkeit 317 Organisieren 169
R ramification 231 Rasmussen 51 readback 157 Reason 43, 52 Reduktionismus 111, 134 Redundanz – Redundanzabbau 240 Redundanzabbau 240 Reflexion 118, 137 Regel 301 – Ausführungsprogramm 301 – Ausführungsregel 302 – Einführung von 302 – prozedurale 301 – Regeldichte 304 – Regelverletzung 304 – zieldefinierende 301 – Zweckprogramm 301 Regeldichte 304 Regelverletzung 304 Regelverstoß 54 Reifegradmodell 32 Reifemodell 256
reporting culture 35 Repräsentativitätsheuristik 77 requisite variety 215 Resilianz 45 – Attributionsfehler 46 – hindsight bias 46 resilience 216, 238 Resilienz 35, 257 Risikoabschätzung 28 riskante Handlung 92 Roethlisberger 12 Root-Cause-Analyse 16, 243
S Salienz 77 Schulung 224, 322 Schulz von Thun 145 Schwankung und Störung 215, 307 scientific management 11 Selbstreflexion 118 Selektion 70 self efficacy 129 Sicherheit 22 – als dynamisches Nicht-Ereignis 23 – Gefährdungspotenzial 23 – TOP-Modell 23 Sicherheitsklima 34, 176, 256 Sicherheitskultur 31, 175, 250, 255, 309 – Definition 176 – flexible Kultur 179 – Gerechtigkeitskultur 179 – informed culture 34 – just culture 35 – Lernkultur 179 – no-blame culture 35 – Reifegradmodell 32 – Reifemodell 256 – reporting culture 35 Sicherheitsmanagement 27, 248 – Step Change 259 Sicherheitsressource 252 Simulation 16, 241, 320 – prospektive Simulation 243 – Tanzbären-Simulation 242 Sinnfällige 112 situation awareness 64, 253, 343 Situation Awareness 71 Situationsbewusstsein 64, 253, 343 – geteiltes 74 – verteiltes 74 social loafing 129 SOL 252 SOL-Analyse 30
365
Stichwortverzeichnis
soziotechnische Systemgestaltung 13 Stab 278 Stabsarbeit 276 Stabsübung 323 Standard Operating Procedure 303 Standardisierung 212, 240, 297 Step Change 259 Steuerbarkeit 307 Störfall 251 Störung 151 Störung und Schwankung 240 strategische Führung 191, 197, 279 supervisory contol 338 symbolischer Interaktionismus 145 synthetisierende Fehleranalyse 243 System 298 – geschlossenes 299 Systemgestaltung – Transparenz 344 systemischer Ansatz 43
T taktische Führung 279 Tanzbären-Simulation 242 Tätigkeit 85 Taylor, F. W. 11 Team 124 – Definition 124 Technique for Human Error Rate Prediction 58 technische Fertigkeit 316 technische Kompetenz 231 Telearbeit 209 Theorie der fehlerhaften Informationsverarbeitung 25 Theorie der normalen Katastrophe 25 Theorie der normalen Unfälle 251 Theorie der Organisationen mit hoher Zuverlässigkeit 26 Top-down-Komponente 67 TOP-Modell 23 Trainerkompetenz 327 Trainingsevaluation 328 Transparenz 344 Tuckman 128 Turner 24
L–Z
U
Z
Überlingen 213 übersteigertes Vertrauen 341 Überwachungstätigkeit 250 Unbestimmtheitsreduktion 68 Unfallanalyse 16, 248 unsichere Handlung 52 Ursache 42 usability 237
zeitzonenüberschreitender Einsatz 227 Ziel 85 zieldefinierende Regel 301 Zielfixierung 133 Zuverlässigkeit 57, 177 Zweckprogramme 301 Zwischenfall 47 Zwischenfallsmangement 241
V Valenz 95 Verantwortungsdiffusion 129, 211 Verfügbarkeitsheuristik 77 Verhaltensbeobachtung 15 Verlust manueller Fertigkeit 345 Vernetztheit 298 verteiltes Arbeiten 210 verteiltes Situationsbewusstsein 74 violation 54, 250 virtuelles Team 206 Vorhersehbarkeit 307 Vorwurfskultur 239
W Wahrnehmung 66 – Bottom-up-Prozess 67 – hypothesengeleitet 71 – Top-down-Komponente 67 Wahrnehmungsstörung 76 Wahrnehmungsverzerrung 77 – Anker- und Anpassungsheuristik 77 – Basisratenvernachlässigung 77 – illusorische Korrelation 77 – Repräsentativitätsheuristik 77 – Verfügbarkeitsheuristik 77 Watzlawick 145 Weick 26, 169 Widersprüchlichkeit der Automatisierung 338 Widerstandsfähigkeit 238 Wirkungsabschätzung 17 work-life-balance 211 Workload-Management 231